JP2006270160A - 画像データ処理装置 - Google Patents

画像データ処理装置 Download PDF

Info

Publication number
JP2006270160A
JP2006270160A JP2005081197A JP2005081197A JP2006270160A JP 2006270160 A JP2006270160 A JP 2006270160A JP 2005081197 A JP2005081197 A JP 2005081197A JP 2005081197 A JP2005081197 A JP 2005081197A JP 2006270160 A JP2006270160 A JP 2006270160A
Authority
JP
Japan
Prior art keywords
image data
imaging
image
frame
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005081197A
Other languages
English (en)
Inventor
Masanobu Nishitani
正信 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005081197A priority Critical patent/JP2006270160A/ja
Publication of JP2006270160A publication Critical patent/JP2006270160A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】動画の撮像が可能な汎用のカメラを用いて時間軸上において高画質な画像データを出力可能とする。
【解決手段】 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段および前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ合成処理部12を有する。
【選択図】 図1

Description

本発明は、複数の撮像手段を用いて同じ被写体の撮像を行なうに好適な画像データ処理装置、画像データ処理方法、画像データ処理プログラムに関し、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムに関する。
画像をデジタルデータとして取り込み可能なデジタルカメラやデジタルビデオカメラ、さらには、携帯電話機、テレビ電話、Webカメラなどのデジタル撮像機器が広く使用されるようになってきている。これらのデジタル撮像機器は普及が進むにつれ、より一層の高画質化が要求されるようになってきている。
静止画については、撮像可能な画像の画素数が増加してきており、空間軸上における高画質化は高いレベルに達しつつある。これに対して、動画は静止画に比べると、画質という点でまだまだ及ばないのが現状である。たとえば、ハイビジョン画像は、画素数でみれば高々200万画素であり、一世代あるいは二世代前のデジタルカメラと同程度かそれ以下である。さらに、動画において最も重要な時間軸上における高画質化については、より一層の改善が要求されている。
気軽に入手できるデジタル撮像機器としては、たとえば、携帯電話機やWebカメラなどがあるが、いずれも動画の品質は高いとはいえない。一般に、画素数(解像度)を優先すればフレームレートを犠牲にすることになり、逆にフレームレートを優先すれば画素数(解像度)を犠牲することになる。なお、フレームレートは時間軸上での画質の高さを示すものであり、高フレームレートであれば、時間軸上において高画質であるともいえる。
動画において時間軸上の高画質化を実現する技術の一例として、特許文献1が挙げられる。
特許文献1に開示された技術は、デジタルカメラまたはフィルムカメラの持つ連写機能を複数のカメラ間でクロックやタイマなどを用いて連携させることで、高速な撮像を実現することを目的としている。
特開2001−166374号公報
しかし、特許文献1に開示された技術は、(i)連写機能を有するカメラが複数台必要、(ii)複数のカメラの連携をとるための複雑な仕組みが必要、(iii)複数のカメラの状態を監視するための仕組みが必要といった問題がある。
(i)については、連写機能を有するカメラは一般的には高価であるということが問題となる。連写枚数が1秒間に数枚程度の比較的安価なカメラもあるが、特許文献1に開示された技術により、一般的な動画のフレームレートを実現するためには、多くの台数のカメラが必要となる。すなわち、30フレーム/秒(以下では、フレーム/秒をfpsと表記する)を実現するには、3枚/秒のカメラでは10台のカメラが必要となり、5枚/秒のカメラでも5台のカメラが必要となる。したがって、たとえば、60fpsの高画質な画像データを実現するには、さらに多くのカメラが必要となり、現実的ではない。
また、(ii)については、特許文献1に開示された技術の場合、静止画用のカメラを用いるため、シャッタの制御や、それに合わせたカメラ間の同期の考慮など、システムの制御が複雑化し、かつ、高精度な制御が要求される。これにより、システムそのものが高価なものとなるという問題もある。
さらに、(iii)については、これも(ii)と同様の静止画用のカメラを用いることによる問題である。一般に、連写機能は、撮像は高速に行なわれるものの、カメラに内蔵されている記録媒体への記録に時間を要する。連続した撮像のためには、各カメラの状態を監視し、連写機能の終了後に次の連写撮像が可能であるか否かを常に監視していなければならない。これは、システムを複雑化する要因にもなる。
そこで本発明は、動画の撮像が可能な汎用のデジタル撮像機器を複数台用いることにより、時間軸上において高画質な画像データを生成可能で、かつ、システムを複雑化することのない画像データ処理装置、画像データ処理方法、画像データ処理プログラムを提供することを目的とするとともに、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムを提供することを目的とする。
(1)本発明の画像データ処理装置は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段とを有することを特徴とする。
これにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。また、本発明では複数の撮像手段からそれぞれ入力した異なったフレームレートの画像データに対しても合成画像データを生成することができる。
なお、撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像機器(デジタルビデオカメラなど)を用いることができ、しかも、各撮像手段が異なったフレームレートを有するものであってもよい。
(2)前記(1)に記載の画像データ処理装置においては、前記合成画像データを生成する手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと該最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記最も高いフレームレートを有する撮像手段の画像データに対する前記他の撮像手段の画像データの挿入位置を設定し、該挿入位置で各画像データにおける各フレーム画像を時間的に連続するように合成することで合成画像データを生成することが好ましい。
このような画像データの合成処理を行うことにより、複数の撮像手段からそれぞれ入力した異なったフレームレートの画像データに対しても適切に合成画像データを生成することが可能となる。なお、本発明の各実施形態では、各フレームに対応する画像データをフレーム画像と呼ぶことにする。
(3)前記(1)または(2)に記載の画像データ処理装置においては、前記複数の撮像手段のうち少なくとも1つの撮像手段に対し、撮像開始時間の設定が可能な撮像手段制御手段を有することが好ましい。
このような撮像手段制御手段を設けることによって、撮像開始時間の設定をユーザなどにより所定範囲内で任意に行なえるようにすることができる。たとえば、各撮像手段に対して個別に撮像開始時間の設定を行うこともできるし、また、基準となる撮像手段を設定して該撮像手段に対する時間差の設定も可能である。
(4)前記(1)〜(3)のいずれかに記載の画像データ処理装置においては、前記入力した複数の画像データに対し、位置ずれ補正、色補正、輝度補正のうち少なくとも1つの補正を行う手段を有することが好ましい。
これにより、複数の撮像手段から得られる画像データを時間的に連続した合成画像データとしたとき、その合成画像データは各フレーム画像間で整合性の取れた高品質な画像データとすることができる。
(5)前記(1)〜(4)のいずれかに記載の画像データ処理装置においては、前記複数の撮像手段から入力した各画像データを記憶する画像データ記録装置を有し、前記合成画像データを生成する手段は、前記画像データ記録装置に記録された前記各画像データを用いて合成画像データを生成することが好ましい。
このように、各撮像手段で撮像された画像データを記録する画像データ記録装置を設け、この画像データ記録装置に画像データを一時的に記録することで、画像データ合成処理部が行う合成画像データ生成処理などの処理を時間的な余裕を持って行うことができ、画像データ合成処理部の処理能力をそれほど高いものとする必要がなくなる。また、画像データ記録装置からユーザが任意の時点の画像データを取得することも可能となる。
(6)本発明の画像データ処理方法は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理方法においても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
(7)本発明の画像データ処理プログラムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップとを実行可能であることを特徴とする。
この画像データ処理方プログラムによっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理方法においても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
(8)本発明の画像データ表示システムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段及び前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。
このような画像表示システムによれば、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなり、画像表示装置では時間軸上において高画質な画像データを表示することができる。
なお、前記撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像手段(デジタルビデオカメラなど)を用いることができるので、高画質の画像データ表示システムを安価に構成することができる。また、本発明では、各撮像手段が異なったフレームレートを有するものであってもよい。なお、この画像表示システムにおいても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
(9)本発明の画像データ処理装置は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、前記入力した複数の画像データを用いてコンテンツ解析を行う手段と、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段と、前記遅延時間に基づいて中間画像データを生成する手段と、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段とを有することを特徴とする。
これにより、前記(1)の画像データ処理装置と同様の効果が得られるほか、この(9)に記載の画像データ処理装置では、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。
(10)前記(9)に記載の画像データ処理装置においては、前記コンテンツ解析は、前記入力した複数の画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことが好ましい。
これによれば、動きの変化及び/又は明るさの変化に応じた遅延時間を設定することができる。たとえば、動きの激しい場面や明るさの変化の激しい場面では遅延時間を短くし、逆に、動きの緩やかな場面や明るさの変化の緩やかな場面では遅延時間を長くするというような遅延時間設定を行う。これによって、コンテンツの内容の変化に追従した最適な遅延時間の設定が可能となり、その遅延時間を用いることによりコンテンツの内容に応じた中間画像データを生成することができる。
(11)前記(9)または(10)に記載の画像データ処理装置においては、前記コンテンツ解析を行う手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと前記最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記コンテンツ解析を行う際の前記最も高いフレームレートを有する撮像手段のフレーム画像と前記他の撮像手段のフレーム画像との対応付けを行い、該対応付けられたフレーム画像間でコンテンツ解析を行うことが好ましい。
これにより、各撮像手段の撮像タイミングの違いに対応した適切な中間画像データを生成することができ、このような中間画像データを用いて生成された合成画像データは、より自然な動画の再現が可能な画像データとすることができる。
(12)前記(11)に記載の画像データ処理装置においては、前記合成画像データを生成する手段は、前記応付けられたフレーム画像間でコンテンツ解析を行うことによって生成された中間画像データと前記最も高いフレームレートを有する撮像手段から入力した画像データとを、前記対応付けられたフレーム画像の時間的な位置関係を考慮して時間的に連続させるように合成することが好ましい。
このようにして生成された合成画像データは、各撮像手段での撮像順番に沿った画像データとすることができ、自然な動きの再現が可能となる画像データとすることができる。
(13)前記(9)〜(12)のいずれかに記載の画像データ処理装置においては、前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を付加したデータフォーマットのデータとして出力する手段を有することが好ましい。
これにより、合成画像データを表示する画像表示装置側で合成画像データの表示を行なう際に適切な表示が行える。
(14)前記(9)〜(12)のいずれかに記載の画像データ処理装置においては、前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を、前記合成画像データとは別のデータとして出力する手段を有することが好ましい。
これにより、本発明に対応する画像表示装置においては、合成画像データのデータと各フレーム画像の時間長を示す情報のデータの両方を読み込んで、その内容に応じた処理を行うことが可能であり、また、本発明に対応しない画像表示装置においては、合成画像データのデータのみを読み込んで、その内容に応じた処理を行うことが可能となる。
(15)本発明の画像データ処理方法は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、前記遅延時間に基づいて中間画像データを生成するステップと、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(9)に記載の画像データ処理装置と同様の効果が得られる。なお、この(15)に記載の画像データ処理方法においても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(16)本発明の画像データ処理プログラムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、前記遅延時間に基づいて中間画像データを生成するステップと、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップとを実行可能であることを特徴とする。
この画像データ処理プログラムによっても前記(9)に記載の画像データ処理装置と同様の効果が得られる。なお、この(15)に記載の画像データ処理方法においても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(17)本発明の画像データ表示システムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段、前記入力した複数の画像データを用いてコンテンツ解析を行う手段、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段、前記遅延時間に基づいて中間画像データを生成する手段及び前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。
この(17)に記載の画像表示システムによっても前記(8)に記載の画像表示システムと同様の効果が得られるほか、この(17)に記載の画像表示システムでは、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。なお、この(17)に記載の画像表示システムにおいても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。
以下、本発明の実施の形態について説明する。
[実施形態1]
図1は実施形態1に係る画像データ処理装置の構成を示す図である。実施形態1に係る画像データ処理装置10Aは、同じ被写体を同一の撮像範囲で所定の時間差を有して撮像した画像データを異なるフレームレートで出力可能な複数の撮像手段(実施形態1では2台のカメラ1,2とする)を撮像制御する撮像手段制御部11と、カメラ1,2で撮像されたそれぞれの画像データを記憶する画像データ記録装置13と、画像データ記録装置13に記録されたカメラ1,2の各画像データを入力する手段、入力された各画像データを時間的に連続するように合成した合成画像データを生成する手段及び生成された合成画像データを出力する手段を有する画像データ合成処理部12とを有している。なお、画像データ記録装置13は、図1ではカメラ1,2で共用としたが、各カメラ1,2ごとに設けるようにしてもよい。
また、カメラ1,2は動画をデジタルデータとして取り込み可能なカメラであって、たとえば、デジタルビデオカメラなどを用いることができる。これらカメラ1,2は本発明用として用意された専用のカメラである必要はなく、汎用のカメラの使用が可能である。また、性能的にも特に高性能である必要はなく、たとえば、性能の高さをフレームレートで表すとすれば、30fps程度のフレームレートであればよい。
これらカメラ1,2は、同じ被写体3を撮像可能で、かつ、カメラ1,2の視差が小さくなるように(望ましくは視差が無いように)、すなわち、同一の撮像範囲での撮像が可能となるように設置することが望ましい。また、光軸及び走査線が平行となるように設置されることもまた望ましい。このように、カメラ1,2は被写体3を静止画として同時に撮像した際に同一の画像が得られるように設置することが望ましい。また、カメラ1,2は本発明においては、各カメラから出力される画像データのフレームレートが各カメラ間で異なるものとする。
なお、実施形態1では、撮像開始時すなわち初回の撮像(第1番目のフレーム画像として出力される画像データを得るための撮像)においては、カメラ2はカメラ1に対し、ユーザなどにより設定された遅延時間に対応する時間差を有して被写体3を撮像するものとする。この撮像開始時における撮像(以下では初回の撮像という)における時間差の設定は、撮像手段制御部11により設定を可能とする。また、設定する時間差はユーザによって所定範囲内で任意に設定可能である。
図2は画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図である。
図2に示すように、撮像手段制御部11は、ユーザにより設定された遅延時間及び制御コマンド(撮像開始・終了コマンドなど)を入力するユーザ設定情報入力部111と、ユーザ設定情報入力部111に入力された遅延時間に基づいて遅延時間設定を行なうとともにその遅延時間を記憶可能な遅延時間設定部112と、遅延時間設定部112により設定された遅延時間及びユーザ設定情報入力部111に入力された制御コマンドをカメラ1,2に送信する送信部113を有している。なお、実施形態1では、前述したように、初回の撮像においては、カメラ2がカメラ1に対してユーザの設定した遅延時間に対応する時間差を有して撮像を開始する。
また、遅延時間及び制御コマンドは、たとえば、設定値入力ボタンなどによって入力することも可能であり、また、リモートコントローラやパーソナルコンピュータ(PCという)などからネットワークやUSBを介して入力することも可能である。
なお、本発明の各実施形態では、遅延時間はフレーム数で表すものとする。すなわち、フレームレートが30fpsであるとすれば、遅延時間が1/30秒である場合は、それをフレーム数で表すと1フレームとなり、遅延時間が1/60秒である場合は、それをフレーム数で表すと0.5フレームとなる。
したがって、遅延時間として1フレームが設定されたとすれば、遅延時間としては1/30秒が設定されたことになり、また、遅延時間として0.5フレームが設定されたとすれば、遅延時間としては1/60秒が設定されたことになる。
図3は画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図である。図3に示すように、画像データ合成処理部12は、画像データ記録装置13に記録されたカメラ1,2から出力される各画像データを入力する入力部121、この入力部121に入力された各画像データ、すなわち、画像データ記録装置13から出力されるカメラ1,2で撮像された各画像データの各フレーム画像を時間的に連続した合成画像データとする合成画像データ生成部123、合成画像データ生成部123で生成された合成画像データを出力する出力部124を有している。なお、入力部121はバッファ121aを有している。
図4は画像データ処理装置10Aにおける画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Aの動作に先立って、まず、ユーザによって遅延時間及び制御コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS1)。
カメラ1は撮像開始コマンドにより撮像を開始し(ステップS2)、撮像された画像データを画像データ記録装置13に送る(ステップS3)。一方、カメラ2は、まず、初回の撮像か否かが判定され(ステップS4)、初回の撮像であれば、遅延時間設定部112で設定された遅延時間が経過したか否かを判定し(ステップS5)、遅延時間が経過すると、撮像を開始する(ステップS6)。また、ステップS4において、初回の撮像でないと判定された場合は、直接、ステップS6の動作を行なう。カメラ2で撮像された画像データも画像データ記録装置13に送られる(ステップS3)。なお、遅延時間は初回の撮像においてのみ、カメラ1,2の同期信号として機能する。
そして、撮像終了コマンドの有無を判定し(ステップS7)、撮像終了コマンドがなければ、カメラ1はステップS2に戻り、カメラ2はステップS4に戻る。また、ステップS7において撮像終了コマンドが入ったと判定されると、画像データ合成処理部12の合成画像データ生成部123が画像データ記録装置13に記録されたカメラ1,2で撮像された画像データを受け取る(ステップS8)。合成画像データ生成部123では画像データ記録装置13から受け取ったカメラ1、2で撮像された各画像データを時間的に連続するように合成し(ステップS9)、合成画像データを出力する(ステップS10)。
ところで、本発明では、カメラ1,2はフレームレートが異なるものを用いている。たとえば、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsであるとした場合、仮にカメラ1,2の撮像タイミングが互いに同期が取れ、かつ、同時に撮像を開始したとすれば、カメラ1,2から出力される画像データの出力タイミングは図5に示すようなタイミングとなる。この図5からもわかるように、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsである場合には、カメラ1の3フレーム分がカメラ2の1フレーム分に相当する。
なお、図5において、フレームF1,F2,・・・は、カメラ1から出力される画像データにおけるフレーム画像を表し、フレームF1’,F2’,・・・はカメラ2から出力される画像データにおけるフレーム画像を表している。また、明細書中では、フレーム画像F1,F2,・・・というように表記するが、図5においては、「画像」を省略してフレームF1,F2,・・・のように表記している。これは、以降の説明に用いる他の図においても同様である。
図6は画像データ処理装置10Aにおけるカメラ1,2からの画像データの入力タイミングを示すタイムチャートである。実施形態1では、カメラ2はカメラ1に対して、初回の撮像においてはユーザによって設定された遅延時間に対応する時間差(ここでは、0.3フレーム分の時間差とする)だけ遅れて撮像を開始するものとしている。また、実施形態1(後に説明する他の実施形態も同様)では、カメラ1,2のフレームレートは、カメラ1が30fps、カメラ2が10fpsであるとする。
このように、フレームレートの異なるカメラ1,2において、カメラ2がカメラ1に対して0.3フレーム分だけ遅れて撮像を開始した場合、図6(A),(B)に示すように、カメラ2の初回の撮像による画像データは、カメラ1に対して0.3フレーム分の時間差を有して出力される。なお、初回の撮像における遅延時間は0.3フレームに限られるものではなく、所定範囲内で任意に設定することができることは勿論である。
また、そのあとの撮像すなわち2回目以降の撮像(第2番目のフレーム画像として出力される画像データを得るための撮像)については、各カメラ1,2間で撮像の同期を取らないので、それぞれの画像データの撮像タイミングは所定の条件のもとで任意となる。このため、2回目以降の撮像によって得られる各フレーム画像の出力タイミングも任意なものとなる。なお、上記した所定の条件としては、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内で遅れて撮像を開始するという内容であるとする。
図7は画像データ処理装置10Aにおける画像データ合成処理を説明するタイムチャートである。この図7は遅延時間設定部112に対し、遅延時間として0.3フレームが設定された場合を示している。図7(A),(B)はカメラ1,2で撮像された画像データの入力タイミングを示す図であり、これは図6(A),(B)と同じものである。
カメラ1,2で撮像された図7(A),(B)に示すような画像データは、画像データ記録装置13にたとえば図8に示すように記録される。
図8は画像データ記録装置13上における画像データの記録状態の一例を示す図である。図8に示すように、記憶領域の先頭から撮像順(この場合、カメラ1、カメラ2の順)にそれぞれのフレーム画像が、カメラ1のフレーム画像F1、カメラ2のフレーム画像F1’、カメラ1のフレーム画像F2、カメラ1のフレーム画像F3、・・・というように記録されて行く。なお、画像データ記録装置13がカメラ1,2に対応して備えられている場合には、カメラ1,2に対応する各画像データ記録装置に対して、当該カメラから入力した画像データの各フレーム画像がそれぞれ撮像順に記録されて行く。
そして、画像データ記録装置13に記録されたカメラ1,2から入力した画像データを用いて合成画像データ生成部123が画像データ合成処理を行う。この画像データ合成処理は、カメラ2のフレームレートがカメラ1に対して1/3であるので、図7(C)に示すように、カメラ1のフレーム画像F1,F2,・・・における3つのフレーム画像に1つの割合、すなわち、3つのフレーム画像ごとにカメラ2のフレーム画像を挿入するような合成処理がなされる。ただし、合成処理後のカメラ1,2の各フレーム画像の時間長を設定することができないので、図7(D)に示すように、単純に60fpsの画像データとして合成する。
この図7(D)に示すように、この場合、合成画像データの各フレーム画像ごとの時間長は考慮されず、単に等間隔(30fpsのフレームレートを基準に考えれば、0.5フレーム間隔)に各フレーム画像が並ぶ。ただし、カメラ1の元の画像データのフレーム画像F1.F2.F3,・・・における3つのフレーム画像ごとにカメラ2のフレーム画像が挿入された画像データとなる。
なお、図7(D)に示す例では、フレーム画像F1、フレーム画像F1’、フレーム画像F2、フレーム画像F2、フレーム画像F3、フレーム画像F3、フレーム画像F4、フレーム画像F2’、・・・というように、カメラ1のフレーム画像F2とF3がそれぞれ2回連続しているが、これは、カメラ1のフレーム画像F2,F3とカメラ2のフレーム画像F1’との時間的な位置関係によるものである。この図7(D)に示すような合成画像データとすることによって、より自然な動きの画像データとすることができる。
すなわち、図7(A),(B)からも明らかなように、カメラ2のフレーム画像F1’は、カメラ1のフレーム画像F2,F3よりも時間的に早く撮像された画像データである。したがって、仮に、カメラ2のフレーム画像F1’をカメラ1のフレーム画像F2とフレーム画像F3との間などに挿入すると、それによって得られる合成画像データは、動画の動きに不自然さが生じる画像データとなる場合も有り得るからである。
なお、図7(D)の画像データは、前述したように、ネットワーク、プロジェクタなどの画像表示装置またはハードディスクなどの記録媒体などに出力可能である。たとえば、プロジェクタなどの画像表示装置に出力された場合には、該画像表示装置で60fpsのフレームレートの画像として表示される。
図9は画像データ合成処理をより詳細に説明するフローチャートである。図9におけるnはインデクスを表している。この実施形態のように、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsとした場合には、前述したように、カメラ1の3つのフレーム画像ごとにカメラ2のフレーム画像を挿入する動作を行なう。したがって、この場合、n=3となるタイミングでカメラ2で撮像された画像データをカメラ1で撮像された画像データに挿入するという動作を行う。また、カメラ1のフレームレートが30fps、カメラ2のフレームレートが15fpsである場合には、n=2となるタイミングでフレームレートの低いカメラ2で撮像された画像データをフレームレートの高いカメラ1で撮像された画像データに挿入するという動作を行う。
図9において、まず、インデクスnがn=3に設定される(ステップS21)。そして、カメラ1で撮像された画像データの有無を判定し(ステップS22)、入力部121が画像データ記録装置13からカメラ1で撮像された画像データを受け取る(ステップS23)。
ここで、n=3か否かを判定し(ステップS24)、この場合、n=3であるので、カメラ2で撮像された画像データの有無を判定し(ステップS25)、カメラ2で撮像された画像データがあれば、入力部121がカメラ2で撮像された画像データを画像データ記録装置13から受け取る(ステップS26)。
そして、n=0とする(ステップS27)。続いて、合成画像データ生成部123は、カメラ1で撮像された画像データとカメラ2で撮像された画像データとを時間的に連続するように合成し(ステップS28)、合成画像データを出力する(ステップS29)。このステップS28の処理は、たとえば、図7(D)におけるフレーム画像F1の後にフレーム画像F1’が挿入される処理に対応する。
続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=1であるので、ステップS24におけるn=3か否かの判定の結果、n=3ではないので、ステップS31の処理を行う。すなわち、合成画像データ生成部123は、カメラ1で撮像された画像データを複製し、カメラ1で撮像された画像データが時間的に2回連続するように合成し(ステップS31)、合成画像データを出力する(ステップS29)。このステップS31の処理は、たとえば、図7(D)におけるフレーム画像F2を2回連続させる処理に対応する。
続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=2であるので、ステップS24におけるn=3か否かの判定の結果、n=3ではないので、今回もステップS31の処理を行う。この場合、ステップS31の処理は、たとえば、図7(D)におけるフレーム画像F3を2回連続させる処理に対応する。
続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=3であるので、ステップS24におけるn=3か否かの判定の結果、今回はステップS25の処理を行う。このステップS25において、カメラ2で撮像された画像データがなければ、処理を終了するが、カメラ2で撮像された画像データがあれば、ステップS26の処理に移る。このステップS26以降の処理については前述したので、ここでは、説明を省略するが、このステップ26以降の処理のうち、ステップS28による処理は、たとえば、図7(D)におけるフレーム画像F4の後にフレーム画像F2’を挿入する処理に対応する。
以上のような動作を繰り返すことによって、図7(D)に示すような合成画像データが生成される。
以上説明したように実施形態1では、動画の撮像が可能な汎用のカメラを複数台(実施形態1では2台としている)用いることにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、実施形態1によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。また、カメラ1,2のフレームレートが異なる場合でも、カメラ1,2から入力した各画像データを時間的に連続させた合成画像データとすることができる。
なお、この合成画像データは、図7(D)に示すように、各フレーム画像の時間長が等しいので、このような合成画像データを、たとえば、プロジェクタなどの画像表示装置で表示する際、画像表示装置が本発明の画像データ処理装置に対応した画像表示装置(以下では対応表示装置という)であっても、また、本発明の画像データ処理装置に対応しない画像表示装置(以下では非対応表示装置という)であっても、各フレーム画像の時間長に対応した表示が可能となる。
また、このように、2台のカメラを用い、一方のカメラからフレーム画像F1,F2,・・・、もう一方のカメラから時間差を有したフレーム画像F1’,F2’,・・・を出力することによる効果として、画像表示装置側でいわゆる「2度書き」を行なうような場合に有利になることも挙げられる。
なお、実施形態1(以降に示す他の実施形態も同様)を実現するためには、カメラ1,2から入力した各画像データの位置ずれ補正、色補正、輝度補正などを行なうようにすることが望ましい。
カメラ1,2から入力した各画像データの位置ずれ補正は、カメラ1の画像データを基準画像データとして、カメラ2の画像データの位置ずれ補正を行うことが可能である。これは、たとえば、カメラ1の画像データの特定領域をカメラ2の画像データの中からブロックマッチングなどにより探し、カメラ1の画像データに対するカメラ2の画像データずれ量を検出し、そのずれ量からカメラ2の全体の画像データをカメラ1の画像データに合わせるといった処理である。
また、カメラ1,2から入力した各画像データの色補正は、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の基準となる色成分(赤R・緑G・青Bなど)それぞれについて両者の画素値の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して画素値の調整を行なう。
また、カメラ1,2から入力した各画像データの輝度補正は、上記した色補正と同様、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の輝度値について両者の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して輝度値を調整する。
これらの各補正を行なうタイミングは、カメラ1,2による撮像開始前、画像データ合成処理部12の合成画像データ生成部123による画像データの合成処理中、カメラ1,2による撮像終了後などが考えられる。
たとえば、カメラ1,2による撮像開始前に行なう場合は、撮像開始前に、各カメラ1,2でテストパターンなどを用いて撮像を試みる。ここで、撮像された画像データに基づいて補正を行なう。このときの補正パラメータを保存しておき、画像データ合成時に適用する。
また、画像データ合成処理中に行う場合は、各カメラ1,2の画像データを合成画像データ生成部123において合成する際に、逐次、実行する。これは前もって補正パラメータを決めておくよりも撮像時における環境の変化(明るさの変化など)を忠実に反映させることができる。
また、撮像終了後に行なう場合は、この実施形態1を含む蓄積型に特に有効である。つまり、最終的な画像データの出力までに時間的な余裕がある場合、さらに精度よく補正を行うことができる。
なお、カメラ1,2から入力した各画像データの位置ずれ補正、色補正、輝度補正などの各種の補正は、必ずしもこれをすべて行なう必要はなく、必要に応じて行なえばよい。
[実施形態2]
前述した実施形態1は、初回の撮像においては、カメラ2はカメラ1に対しユーザの設定した遅延時間に対応する時間差で撮像を遅らせるようにしたが、カメラ1,2の撮像タイミングはユーザが設定することなく初回から任意とすることも可能である。
実施形態2は実施形態1において、カメラ1,2の撮像タイミングは初回から任意とした場合である。この場合、カメラ1,2の撮像タイミングは、両者が同じタイミングあってもよく、カメラ1がカメラ2よりも早くてもよい。また、逆にカメラ2がカメラ1よりも早くてもよいが、この実施形態2では、実施形態1で説明した所定の条件、すなわち、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内の任意のタイミングで遅れて撮像を開始するものとする。
実施形態2に係る画像データ処理装置の構成は、実施形態1に係る画像データ処理装置10Aをそのまま用いることができるので、実施形態2に係る画像データ処理装置としての図示は省略する。なお、説明の都合上、実施形態2に係る画像データ処理装置に10Bの符号を付して画像データ処理装置10Bとして説明する。また、この画像データ処理装置10Bを構成する撮像手段制御部11及び画像データ合成処理部12も実施形態1で説明したものを用いることができるので、これらの図示も省略する。
図10は実施形態2に係る画像データ処理装置10Bの画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Bの処理開始に先立って、まず、ユーザによって撮像開始コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS41)。これにより、カメラ1は撮像を開始し(ステップS42)、撮像された画像データを画像データ記録装置13に送る(ステップS43)。
一方、カメラ2も所定のタイミングで撮像を開始(ステップS44)、撮像された画像データを画像データ記録装置13に送る(ステップS43)。なお、カメラ2の撮像開始のタイミングは前述した所定の条件に基づいて行なわれる。
図10におけるステップS45、S46,S47,S48の処理は、図4のステップS7,S8,S9,S10の処理と同じであるので、説明は省略する。
この実施形態2によれば、実施形態1と同様の効果が得られるとともに、実施形態2の場合、撮像開始時にユーザがカメラ1に対するカメラ2の撮像タイミングの設定を行わなくても各カメラが任意のタイミングで撮像を行なうことができる。
[実施形態3]
実施形態3に係る画像データ処理装置は、コンテンツの内容に応じて、遅延時間の設定し、設定された遅延時間に基づいた中間画像データを生成して、該中間画像データを用いて合成画像データの生成を行うものである。なお、この実施形態3は実施形態1及び実施形態2のいずれにも適用可能であることは勿論であるが、ここでは、実施形態1に適用した例について説明する。また、この実施形態3においても実施形態1及び実施形態2と同様、撮像手段として2台のカメラ1,2を用いた場合について説明する。
実施形態3に係る画像データ処理装置の構成は、図1に示す画像データ処理装置10Aと同じあるので、実施形態3に係る画像データ処理装置としての図示は省略する。なお、説明の都合上、実施形態3に係る画像データ処理装置に10Cの符号を付して画像データ処理装置10Cとして説明する。
図11は画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図である。図11の画像データ合成処理部12が実施形態1の説明で用いた図3と異なるのは、コンテンツ解析部125を有している点である。
すなわち、この画像データ処理装置10Cに用いられる画像データ合成処理部12は、コンテンツ解析部125が画像データ記録装置13に記録されているカメラ1,2の画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間(この遅延時間については後述する)を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段(実施形態3ではカメラ1)から入力した画像データとを時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部12とを有している。
また、実施形態3に係る画像データ処理装置10Cに用いられる撮像手段制御部11は図2で示したものを用いることができるので図示は省略する。
図12は画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャートである。図12に示すフローチャートにおいて、ステップS51〜ステップS57は、図4のフローチャートのステップS1〜S7と同じ処理であるので、ここでは、ステップS57の撮像終了コマンドの有無の判定において、撮像終了コマンドが有りと判定されたあとの処理手順について説明する。
ステップS57において、撮像終了コマンドが有りと判定されると、コンテンツ解析部125が画像データ記録装置13に記録されたカメラ1,2の画像データを受け取り、コンテンツ解析を行う(ステップS58)。合成画像データ生成部123では、コンテンツ解析結果に基づき、中間画像データを生成し、生成された中間画像データをカメラ1の画像データと合成し(ステップS59)、その合成画像データを出力する(ステップS60)。
図13はコンテンツ解析を行う際のカメラ1,2の各フレーム画像の対応関係を説明する図である。この図13におけるカメラ1,2の各フレーム画像の入力タイミングは、実施形態1の説明で用いた図7(A),(B)と同じ入力タイミングの例が示されている。
図13(A)〜(D)に示すように、まず、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F2とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F3とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F4とカメラ2のフレーム画像F2’とのコンテンツ解析を行うというような順序でコンテンツ解析を行う。
この図13の例では、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsの例であるので、コンテンツ解析を行うフレーム画像の対応は、カメラ1の3つのフレーム画像ごとにカメラ2のフレーム画像が更新されることになる。なお、カメラ1のフレームレートが30fps、カメラ2のフレームレートが15fpsである場合には、コンテンツ解析を行うフレーム画像の対応は、カメラ1の2つのフレーム画像ごとにカメラ2のフレーム画像が更新されることになる。
次にコンテンツ解析部125の動作について説明する。コンテンツ解析部125は、この実施形態3の場合、図13(A)〜(D)に示したように、カメラ1とカメラ2の対応するフレーム画像間のコンテンツ解析を行い、その解析結果から画面全体の動きの変化及び/又は画面全体の明るさの変化を検出(実施形態3では画面全体の動きの変化及び画面全体の明るさ変化の両方を検出するものとする)する機能と、その検出結果に応じた遅延時間(フレーム数)を設定する機能と、設定された遅延時間(フレーム数)を合成画像データ生成部123に送る機能とを有している。
なお、動きの変化及び明るさの変化の検出のうち、動きの変化の検出を行った結果、動きの変化が大きい場合は遅延時間を短くし、動きの変化が小さい場合は遅延時間を大きくする。これは、動きの激しい場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、動きの緩やかな場面では、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。
一方、動きの変化及び明るさの変化の検出のうち、明るさの変化の検出を行った結果、明るさの変化が大きい場合は遅延時間を短くし、明るさの変化が小さい場合は遅延時間を大きくする。これは、明るさの変化が大きい場合は、場面が変化する可能性が高く、このような場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、明るさの変化が小さい場合は、場面の変化は小さい場合が多く、この場合は、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。
ここで、動きの変化の検出(動き検出という)について説明する。動き検出は、種々の方法によって行うことが可能であるが、ここでは、一般的なブロックマッチング法を用いて、フレーム画像間の動きベクトルを求める例について説明する。
図14は動き検出において用いられるブロックマッチング法について説明する図である。ブロックマッチング法は、ブロック単位で動きを検出する方法であり、現在、注目しているフレーム画像を含む複数のフレーム画像を利用する。この実施形態3では、現在、注目しているフレーム画像(tフレームとする)とその直前のフレーム画像(t−1フレームとする)を利用する。たとえば、図13(A)の例においては、tフレームは、カメラ2のフレーム画像F1’に相当し、t−1フレームは、カメラ1のフレーム画像F1に相当する。
図14に示すように、tフレームにおけるブロックA1(L×Lのブロックサイズであるとする)をt−1フレームで動かして、tフレームのブロックA1と最もデータ値の近いブロックをt−1フレーム内で探索し、その場所と元の場所(破線で示す位置)とのずれ幅を動きベクトルとする。すなわち、以下の式において、Dが最小となるときの(i、j)を動きベクトルとする。
Figure 2006270160
(1)式において、LはブロックA1のサイズ、x,yはブロックA1のx軸方向及びy軸方向における移動方向、i,jはブロックA1の移動量、tはフレームを表す。動きベクトルを求める最も簡単な方法は、(i,j)のすべての組み合わせについて(1)式を計算し、Dが最小となる(i,j)の組み合わせを求めるという方法である。
このようにして、tフレームにおいて、ブロックごとに動きベクトルを求め、求められたブロックごとの動きベクトルから画面全体の動き量を以下の式で計算する。すなわち、動きベクトルをVとし、n個の動きベクトルが得られたとすると、画面全体の動き量Mは、
Figure 2006270160
と表すことができる。この(2)式によって得られた値がtフレームにおける画面全体の動き量となる。
なお、動き量の計算は、上記のように、各フレーム画像の画面全体について行うようにしてもよいが、計算処理を削減するために、画面中央の領域だけに対して行うようにしてもよい。これは、多くの場合、視聴者が注目するのは画面中央であることによるものである。
以上のようにして、tフレームの動き量(t−1フレームに対してどの程度動いたかを示す量)が検出されると、検出された動き量に応じた遅延時間の設定を行う。以下に、動き量に応じた遅延時間設定について説明する。
図15は動き量に対する遅延時間の設定例を示す図である。なお、この場合、動き量は、0〜220の範囲の値に正規化されるものとする。図15に示すように、動き量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)とし、動き量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)とする。また、動き量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)とする。このように、動き量に応じた遅延時間(フレーム数)を予め設定しておくことができる。
そして、このようにして求められる動き量に対する遅延時間は、動き量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図16は動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図16に示すように、たとえば、動き量が「0〜20」の範囲における遅延時間は「1フレーム」、動き量が「21〜40」の範囲における遅延時間は「0.9フレーム」、動き量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、動き量が求められれば容易に動き量に対する遅延時間を設定することができる。
以上、動き検出を行うことによって求められた動き量に応じた遅延時間を設定する例について説明したが、次に、明るさの変化の検出結果に応じた遅延時間を設定する例について説明する。なお、明るさの変化の検出というのは、ここでは輝度差を検出することであるとする。
まず、各フレーム画像に対し、個々のフレーム画像の画素の輝度値を取得する。そして、取得した輝度値の平均値を求め、求められた輝度値の平均値を当該フレーム画像の全体の明るさであるとする。このようにして、各フレーム画像において、輝度値の平均値が求められると、フレーム画像間の輝度値の平均値の差を明るさ変化量とし、その明るさの変化量に基づいて遅延時間としてのフレーム数を設定する。
図17は明るさの変化量に対する遅延時間の設定例を示す図である。なお、この場合、明るさ変化量は、0〜220の範囲の値に正規化されるものとする。図17に示すように、明るさ変化量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)であり、明るさ変化量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)である。また、明るさ変化量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)と設定される。このように、明るさ変化量に応じた遅延時間としてのフレーム数を予め設定しておくことができる。
そして、このようにして求められる明るさ変化量に対する遅延時間は、動き量と同様、明るさ変化量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図18は明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図18に示すように、たとえば、明るさ変化量が「0〜20」の範囲における遅延時間は「1フレーム」、明るさ変化量が「21〜40」の範囲における遅延時間は「0.9フレーム」、明るさ変化量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、明るさ変化量が求められれば容易に明るさ変化量に対する遅延時間を設定することができる。
以上のようにして、動き量に応じた遅延時間の設定と明るさ変化量に応じた遅延時間の設定を行うことができる。動き量に応じた遅延時間と明るさ変化量に応じた遅延時間のいずれか一方のみを用いることも可能であるが、本発明の各実施形態では、動き量と明るさ変化量の両方に基づいた遅延時間の設定を行うものとする。この動き量と明るさ変化量の両方に基づいて設定された遅延時間を、「動き量及び明るさ変化量を考慮した遅延時間」と呼ぶことにする。
この動き量及び明るさ変化量を考慮した遅延時間は、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値とする。たとえば、動き量に応じた遅延時間(フレーム数)が0.3フレームであって、明るさ変化量に応じた遅延時間(フレーム数)が0.7フレームであったとすると、両者の平均を求め、0.5フレームを動き量及び明るさ変化量を考慮した遅延時間として設定する。
なお、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値が、設定可能精度以下の値となった場合には、四捨五入、切り捨て、切り上げのいずれかを行う。
一例として、この実施形態1のように、設定可能精度が小数点1位(0.1フレーム単位)までである場合には、たとえば、「求められた平均値が小数点2位以下の値となった場合には四捨五入する」というように決めておくことができる。これにより、平均値が0.52というように小数点2位以下の値として求められた場合は、遅延時間は0.5フレームとなる。
図19は動き量及び明るさ変化量を考慮して設定された遅延時間(フレーム数)と、該遅延時間に基づいて生成される中間画像データの一例を示す図である。図19に示すように、たとえば、コンテンツ解析を行ったフレーム画像がカメラ1のフレーム画像F1とカメラ2のフレーム画像F1’である場合、フレーム画像F1とフレーム画像F1’間において求められた遅延時間(動き量及び明るさ変化量を考慮した遅延時間)は0.3フレームであり、それによって生成される中間画像データは、1.3フレームであることを示している。
なお、図19における1.3フレーム、2.5フレーム、3.4フレーム、・・・の中間画像データは、カメラ1の各フレーム画像F1,F2,F3,・・・のフレーム番号に、コンテンツ解析によって求められた遅延時間を足した値(フレーム番号+遅延時間)で表したものである。たとえば、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’との間で求められた遅延時間が0.3フレームである場合には、1+0.3=1.3となり、これによって、1.3フレームの中間画像データが生成されることになる。
図20は画像データ処理装置10Cにおける画像データ合成処理を説明するタイムチャートである。図20(A),(B)は、カメラ1,2で撮像された画像データの入力タイミングを示す図であり、これは、実施形態1の説明で用いた図7(A),(B)と同じものである。
この図20(A),(B)に示すカメラ1,2から入力した画像データをコンテンツ解析した結果、図19に示したような中間画像データが求められたとする。この中間画像データとカメラ1から入力した画像データとを合成すると、図20(C)に示すような合成画像データが生成される。
なお、カメラ1のそれぞれのフレーム画像の撮像タイミングは必ずしも等間隔ではないが、合成する際には、カメラ1の撮像タイミングは等間隔であるとして合成を行う。また、合成の際のフレームレートは、カメラ1のフレームレート(この例では、30fps)を基準とする。また、この場合、見かけ上、60fpsのフレームレートとなるように、図20(C)のデータフォーマットにおいて、合成画像データの各フレームの時間長を調整する。
また、図20(C)に示す合成画像データにおいて、中間画像デ−タ2.3フレームがカメラ1の2フレーム目のフレーム画像F2よりも時間的に早い位置に挿入されている。また、同様に、中間画像デ−タ3.5フレームがカメラ1の3フレーム目のフレーム画像F3よりも時間的に早い位置に挿入されている。このように、中間画像デ−タ2.3フレームとカメラ1の2フレーム目のフレーム画像F2、中間画像デ−タ3.5フレームとカメラ1の3フレーム目のフレーム画像F3は、それぞれフレームの順番が逆転しているかのように見える。
これは、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像とカメラ2のフレーム画像の時間的な位置関係によるものである。たとえば、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像F2とカメラ2のフレーム画像F1’を時間的な位置で比べると、フレーム画像F1’の方がフレーム画像F2よりも時間的に早い画像データである。同様に、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像F3とカメラ2のフレーム画像F1’を時間的な位置で比べると、フレーム画像F1’の方がフレーム画像F3よりも時間的に早い画像データである。
なお、カメラ1,2は互いに任意のタイミング(非同期)で撮像を行なっているため、両者の正確な時間的な関係、すなわち、それぞれのフレーム画像においてどちらのカメラが早く撮像したのか否かは特定できないが、ここでは、カメラ2がカメラ1よりも前述した所定の条件のもとで遅れて撮像するとしている。
したがって、カメラ1の各フレーム画像とカメラ2の各フレーム画像の時間的な位置関係は、カメラ1のフレーム画像F1はカメラ2のフレーム画像F1’より時間的に早いので、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’とによって生成された中間画像データ1.3フレームは、カメラ1のフレーム画像F1よりも時間的に遅い位置に挿入される。
また、カメラ1のフレーム画像F2はカメラ2のフレーム画像F1’より時間的に遅いので、カメラ1のフレーム画像F2とカメラ2のフレーム画像F1’とによって生成された中間画像データ2.3フレームは、カメラ1のフレーム画像F2よりも時間的に早い位置に挿入される。
同様に、カメラ1のフレーム画像F3はカメラ2のフレーム画像F1’より時間的に遅いので、カメラ1のフレーム画像F3とカメラ2のフレーム画像F1’とによって生成された中間画像データ3.5フレームは、カメラ1のフレーム画像F3よりも時間的に早い位置に挿入される。
図21は画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理及び合成画像データ生成部123が行う画像データ合成処理を説明するフローチャートである。
図21において、まず、インデクスnを所定の値(この場合、n=3)に設定する(ステップS61)。このインデクスnは、図9のフローチャートで説明したものと同じものであり、本発明の各実施形態では、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsとしているので、ステップS61では、n=3と設定される。
まず、ステップS61においてn=3と設定されたあと、カメラ1で撮像された画像データの有無を判定し(ステップS62)、入力部121が画像データ記録装置13からカメラ1で撮像された画像データを受け取る(ステップS63)。
ここで、n=3か否かを判定し(ステップS64)、このとき、n=3であるので、カメラ2で撮像された画像データの有無を判定し(ステップS65)、カメラ2で撮像された画像データがあれば入力部がカメラ2で撮像された画画像データを受け取る(ステップS66)。
そして、n=0とし(ステップS67)、コンテンツ解析部125がカメラ1で撮像された画像データとカメラ2で撮像された画像データとの間でコンテンツ解析を行う(ステップS68)。続いて、合成画像データ生成部123は、コンテンツ解析結果に基づき、中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し(ステップS69)、合成画像データを出力する(ステップS70)。このステップS69の処理は、図20(C)におけるフレーム画像F1の後に中間画像データ1.3フレームを挿入する処理に対応する。
続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=1であるので、ステップS64におけるn=3か否かの判定の結果、n=3ではないので、ステップS68の処理を行う。
すなわち、この場合、コンテンツ解析部125は、カメラ1で撮像された画像データ(フレーム画像F2)とカメラ2で撮像された画像データ(フレーム画像F1’)との間でコンテンツ解析を行い、該コンテンツ解析結果を用いて合成画像データ生成部123が中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し、合成画像データを出力する(ステップS68,S69,S70)。この場合のステップS69の処理は、図20(C)におけるフレーム画像F2の前に中間画像データ2.3フレームを挿入する処理に対応する。
続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=2であるので、ステップS64におけるn=3か否かの判定の結果、n=3ではないので、ステップS68の処理を行う。この場合、コンテンツ解析部125は、カメラ1で撮像された画像データ(フレーム画像F3)とカメラ2で撮像された(フレーム画像F1’)との間でコンテンツ解析を行う。そして、該コンテンツ解析結果を用いて合成画像データ生成部123が中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し、合成画像データを出力する(ステップS68,S69,S70)。この場合のステップS69の処理は、図20(C)におけるフレーム画像F3の前に中間画像データ3.5フレームを挿入する処理に対応する。
続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=3であるので、ステップS65の処理を行う。すなわち、カメラ2で撮像された画像データの有無を判定し(ステップS65)、カメラ2で撮像された画像データがなければ処理を終了するが、カメラ2で撮像された画像データがあれば入力部がカメラ2で撮像された画像データを受け取る(ステップS66)。
そして、n=0とし(ステップS67)、コンテンツ解析部125がカメラ1で撮像された画像データ(この場合、フレーム画像F4)とカメラ2で撮像された画像データ(この場合、フレーム画像F2’)との間でコンテンツ解析を行う(ステップS68)。続いて、合成画像データ生成部123は、コンテンツ解析結果に基づき、中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し(ステップS69)、該合成画像データを出力する(ステップS70)。このステップS69の処理は、図20(C)におけるフレーム画像F4の後に中間画像データ4.2フレームを挿入する処理に対応する。
以上のような動作を繰り返すことによって、合成画像データ生成部123からは、たとえば、図20(C)に示すような合成画像データが出力される。
ところで、図20で示したような合成画像データは、各フレーム画像の時間長が均等でない画像データ、つまり、各フレーム画像の時間的な間隔が非等間隔な画像データとなる。
この図20(C)の合成画像データは、見かけ上は60fpsのフレームレートであるが、各フレーム画像の時間長が等しくない画像データであるので、一般的な画像データのフォーマットではない。
この図20(C)に示すような合成画像データを、たとえば、プロジェクタなどの画像表示装置で表示する際、画像表示装置が対応表示装置であれば、図20(C)に示すフレーム画像の時間長に対応した表示が可能となる。しかし、画像表示装置が非対応表示装置である場合は、通常の60fpsの画像データとしての表示を行なう。
図22は合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図である。図22に示すように、合成画像データは、大きく分けると、他のフォーマットの画像データと区別するための識別子、データサイズなどが書き込まれるヘッダ領域、実際の画像データが書き込まれる画像データ書き込み領域を有している。
ヘッダ領域には、全フレーム数、各フレーム画像の時間長、画面サイズ(幅及び高さ)などが書き込まれる。また、画像データ書き込み領域には、合成画像データとして各フレーム画像に対する画像データが書き込まれる。
なお、このデータフォーマットを受け取る画像表示装置が本発明の対応表示装置である場合には、図22のデータフォーマットに基づいてデータ表示を行なうことができるが、非対応表示装置である場合には、図22のデータフォーマットでは読み込むことができない。
そこで、画像データ書き込み領域に書き込まれる合成画像データについては一般的に用いられるAVI(Audio Video Interleaving)形式のデータとし、図22のヘッダ領域における「全フレーム数」、「各フレーム画像の時間長」などは別データとして出力することも可能である。
このように、図22のヘッダ領域における「全フレーム数」、「各フレーム画像の時間長」などは別データとして出力することにより、対応表示装置においては、通常のAVI形式のデータと「全フレーム数」、「各フレーム画像の表示時間」などの記述されたデータの両方を読み込んで、その内容に応じた処理を行う。一方、非対応表示装置ではAV1形式のデータのみを読み込んで、その内容に応じた処理を行う。これによって、対応表示装置では、図20(C)に示すような各フレーム画像の時間長に対応した表示が可能となり、非対応表示装置では、通常の60fpsの画像データとしての表示が可能となる。
以上説明したように実施形態3では、実施形態1と同様の効果が得られるほか、コンテンツの内容に応じて遅延時間を設定し、設定された遅延時間に基づいて中間画像データを生成し、生成された中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成して合成画像データを生成するようにしている。このように生成された合成画像データは、たとえば、動きの激しい場面や明るさの変化が大きい場面、動きの緩やかな場面や明るさの変化の小さな場面などに追従した滑らかな動画の再現が可能な画像データとすることができる。
また、各カメラで撮像された画像データ間のコンテンツ解析は、実施形態3の場合、カメラ1のフレーム画像とカメラ2のフレーム画像とを図13(A)〜(D)に示すように対応付けて行うようにしているので、カメラ1とカメラ2の撮像タイミングの違いに対応した適切な中間画像データを生成することができる。このような中間画像データを用いて生成された合成画像データは、より自然な動画の再現が可能な画像データとすることができる。
なお、前述したように、実施形態3は実施形態2においても適用可能であることは勿論である。
[実施形態4]
前述した実施形態3は、初回の撮像においては、カメラ1はカメラ2に対しユーザの設定した遅延時間に対応する時間差で撮像を遅らせるようにしたが、カメラ1,2の撮像タイミングはユーザが設定することなく初回から任意とすることも可能である。
実施形態4は実施形態3において、カメラ1,2の撮像タイミングは初回から任意とした場合である。この場合、カメラ1,2の撮像タイミングは、両者が同じタイミングあってもよく、カメラ1がカメラ2よりも早くてもよい。また、逆にカメラ2がカメラ1よりも早くてもよいが、この実施形態4では、前述した所定の条件、すなわち、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内の任意のタイミングで遅れて撮像を開始するものとする。
実施形態4に係る画像データ処理装置の構成は、実施形態3に係る画像データ処理装置をそのまま用いることができるので、実施形態4に係る画像データ処理装置としての図示は省略する。
なお、説明の都合上、実施形態4に係る画像データ処理装置に10Dの符号を付して画像データ処理装置10Dとして説明する。また、この画像データ処理装置10Dを構成する撮像手段制御部11及び画像データ合成処理部12も実施形態3で説明したものを用いることができるので、これらの図示も省略する。
図23は実施形態4に係る画像データ処理装置10Dの画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Dの処理開始に先立って、まず、ユーザによって撮像開始コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS81)。これにより、カメラ1は撮像を開始し(ステップS82)、撮像された画像データをコンテンツ解析部125に送る(ステップS83)。
一方、カメラ2も所定のタイミングで撮像を開始(ステップS84)、撮像された画像データをコンテンツ解析部125に送る(ステップS83)。なお、カメラ2の撮像開始のタイミングは前述した所定の条件に基づいて行なわれる。
図23におけるステップS85〜S88の処理は、図12のステップS57〜S60の処理と同じであるので、説明は省略する。
この実施形態4によれば、実施形態3と同様の効果が得られるとともに、実施形態4の場合、撮像開始時にユーザがカメラ1に対するカメラ2の撮像タイミングの設定を行わなくても各カメラが任意のタイミングで撮像を行なうことができる。
[実施形態5]
これまで説明した実施形態1〜実施形態4に係る画像データ処理装置10A〜10Dを用いることにより画像表示システムを構成することができる。実施形態5はこの画像表示システムについて説明する。なお、実施形態1〜実施形態4のいずれの画像データ処理装置10A〜10Dを用いても画像表示システムを構成することは可能であることは勿論であるが、ここでは、実施形態1に係る画像データ処理装置10Aを用いた画像表示システムについて説明する。
図24は実施形態5に係る画像表示システムの構成を示す図である。実施形態5に係る画像表示システムは、概略的には、図24に示すように、撮像手段としてのカメラ1,2、画像データ処理装置10A、画像表示装置20、PCなどの情報処理装置30を有している。
このような画像表示システムにおいて、遅延時間の設定や撮像開始・終了などのコマンド入力は情報処理装置30上でマウスやキーボード操作などにより行うことができる。そして、画像データ処理装置10Aから出力される合成画像データ(たとえば、図7(D)参照)は、画像表示装置20に送られて表示される。
なお、図7(D)に示す合成画像データは、見かけ上は60fpsのフレームレートであり、各フレーム画像の時間長が等しい画像データである。このような合成画像データを画像表示装置20で表示する場合、画像表示装置20が対応表示装置であるか否かにかかわらず60fpsの画像データとして表示することができる。
図24に示すような画像表示システムを構築することにより、画像データ処理装置10A側では、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを出力することができる。
図25は図24に示す画像表示システムの変形例を示す図である。図25に示す画像表示システムは、画像データ処理装置10AとしてPCなどの情報処理装置30を用いている。したがって、情報処理装置30には、画像データ合成処理部12としての動作が可能なソフトウエア(画像データ合成処理プログラム)と、撮像手段制御部11としての動作が可能なソフトウエア(撮像手段制御プログラム)が組み込まれている。なお、遅延時間や制御コマンドの入力は情報処理装置30上でマウスやキーボード操作などにより行なうことが可能である。
この図25に示す画像表示システムにおいても図24の画像表示システムと同様の効果が得られる。さらに、この図25に示すような構成とすることにより、画像表示システム全体をより簡素化することができる。なお、本発明の画像表示システムは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2〜実施形態4に係る画像データ処理装置10B,10C,10Dを用いてもよいことは勿論である。
なお、画像データ処理装置として実施形態3に係る画像データ処理装置10Cを用いた場合には、画像データ処理装置10Cからは、図20(C)のようが合成画像データ、すなわち、各フレーム画像の時間長が等しくない合成画像データが出力される。このような合成画像データを画像表示装置20で表示する場合、たとえば、画像表示装置20が対応表示装置であれば、それぞれのフレーム画像の時間長に対応した表示が可能であるが、画像表示装置20が非対応表示装置である場合は、通常の60fpsの画像データとしての表示を行なう。
このように、画像データ処理装置として画像データ処理装置10Cを用いた場合、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データとカメラ1から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。これにより、画像表示装置20側では、高画質な画像データの表示を行うことができる。
本発明は上述の実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、カメラ1,2の設置の仕方としては、図26(A)に示すように、カメラ1,2をそれぞれの光軸が直交するように設置して、ハーフミラー4を用いて被写体3を撮像するような設置の仕方であってもよい。また、カメラは3台以上としてもよいことは勿論であり、その場合の設置に仕方としては、たとえば、図26(B)に示すように、複数のハーフミラー4を設けるような例が考えられる。
また、実施形態1〜実施形態4の各画像データ処理装置10A,10B,10C,10Dは、撮像手段、撮像手段制御部11及び画像データ合成処理部12を含む単体装置として構成することも可能である。
図27は画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図である。図27に示す画像データ処理装置は、実施形態1に係る画像データ処理装置10A(図1参照)に対応するものであり、2台のカメラ1,2としての機能を果たす2つのCCD5a,5b、これら各CCD5a,5bに対応して設けられるCCDドライバ6a,6b、レンズ7、ハーフミラー4と、図1の撮像手段制御部11と画像データ合成処理部12を有している。
画像データ処理装置をこの図27に示すような構成とすることにより、全体の構成を簡素化することができる。なお、このように画像データ処理装置を単体構成とすることは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2〜実施形態4に係る画像データ処理装置10B,10C,10Dについても同様に実施可能である。
また、前述の各実施形態では、画像データを記録する画像データ記録装置13を設けるようにしたが、各カメラから出力される画像データを入力する入力部をカメラごとに設け、これら各入力部にコンテンツ解析などを行うために必要な画像データを記憶するに必要な記憶容量を有するバッファを設けるようにすれば、画像データ記録装置13は必ずしも別個に用意する必要はない。
また、本発明は以上説明した本発明を実現するための画像データ処理手順が記述された画像データ処理プログラムを作成し、その画像データ処理プログラムを各種の記録媒体に記録させておくこともできる。したがって、本発明は、その画像データ処理プログラムの記録された記録媒体をも含むものである。また、ネットワークからその画像データ処理プログラムを得るようにしてもよい。
実施形態1に係る画像データ処理装置10Aの構成を示す図。 画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図。 画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図。 画像データ処理装置10Aの画像データ処理手順を説明するフローチャート。 カメラ1,2の撮像タイミングが互いに同期が取れ、かつ、同時に撮像を開始した場合のカメラ1,2から出力される画像データの出力タイミングを示すタイムチャート。 画像データ処理装置10Aにおけるカメラ1,2の画像データの入力タイミングを示すタイムチャート。 画像データ処理装置10Aにおける画像データ合成処理を説明するタイムチャート。 画像データ記録装置13上における画像データの記録状態の一例を示す図。 画像データ合成処理をより詳細に説明するフローチャート。 実施形態2に係る画像データ処理装置10Bの画像データ処理手順を説明するフローチャート。 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図。 画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャート。 コンテンツ解析を行う際のカメラ1,2の各フレーム画像の対応関係を説明する図。 動き検出において用いられるブロックマッチング法について説明する図。 動き量に対する遅延時間の設定例を示す図。 動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。 明るさ変化量に対する遅延時間の設定例を示す図 明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。 動き量及び明るさ変化量を考慮した遅延時間(フレーム数)と、該遅延時間に基づいて生成される中間画像データの一例を示す図。 画像データ処理装置10Cにおける画像データ合成処理を説明するタイムチャート。 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理と合成画像データ生成部123が行う画像データ合成処理を説明するフローチャート。 画像データ処理装置10Cの合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図。 実施形態4に係る画像データ処理装置10Dの画像データ処理手順を説明するフローチャート。 実施形態5に係る画像表示システムの構成を示す図。 図24に示す画像表示システムの変形例を示す図。 カメラ1,2の設置の仕方の例を説明する図。 画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図。
符号の説明
1,2・・・カメラ、3・・・被写体、10A,10B,10C,10D・・・画像データ処理装置、11・・・撮像手段制御部、12・・・画像データ合成処理部、13・・・画像データ記録装置、111・・・ユーザ設定情報入力部、112・・・遅延時間設定部、121・・・入力部、123・・・合成画像データ生成部、124・・・出力部、125・・・コンテンツ解析部

Claims (17)

  1. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、
    前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段と、
    を有することを特徴とする画像データ処理装置。
  2. 請求項1に記載の画像データ処理装置において、
    前記合成画像データを生成する手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと該最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記最も高いフレームレートを有する撮像手段の画像データに対する前記他の撮像手段の画像データの挿入位置を設定し、該挿入位置で各画像データにおける各フレーム画像を時間的に連続するように合成することで合成画像データを生成することを特徴とする画像データ処理装置。
  3. 請求項1または2に記載の画像データ処理装置において、
    前記複数の撮像手段のうち少なくとも1つの撮像手段に対し、撮像開始時間の設定が可能な撮像手段制御手段を有することを特徴とする画像データ処理装置。
  4. 請求項1〜3のいずれかに記載の画像データ処理装置において、
    前記入力した複数の画像データに対し、位置ずれ補正、色補正、輝度補正のうち少なくとも1つの補正を行う手段を有することを特徴とする画像データ処理装置。
  5. 請求項1〜4のいずれかに記載の画像データ処理装置において、
    前記入力した複数の画像データを記憶する画像データ記録装置を有し、前記合成画像データを生成する手段は、前記画像データ記録装置に記録された前記複数の画像データを用いて合成画像データを生成することを特徴とする画像データ処理装置。
  6. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
    前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップと、
    を有することを特徴とする画像データ処理方法。
  7. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
    前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップと、
    を実行可能であることを特徴とする画像データ処理プログラム。
  8. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段及び前記入力された複数の画像データを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、
    前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
    を有することを特徴とする画像表示システム。
  9. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、
    前記入力した複数の画像データを用いてコンテンツ解析を行う手段と、
    前記コンテンツ解析の結果に基づいて遅延時間を設定する手段と、
    前記遅延時間に基づいて中間画像データを生成する手段と、
    前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段と、
    を有することを特徴とする画像データ処理装置。
  10. 請求項9に記載の画像データ処理装置において、
    前記コンテンツ解析は、前記入力した複数の画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことを特徴とする画像データ処理装置。
  11. 請求項9または10に記載の画像データ処理装置において、
    前記コンテンツ解析を行う手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと前記最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記コンテンツ解析を行う際の前記最も高いフレームレートを有する撮像手段のフレーム画像と前記他の撮像手段のフレーム画像との対応付けを行い、該対応付けられたフレーム画像間でコンテンツ解析を行うことを特徴とする画像データ処理装置。
  12. 請求項11に記載の画像データ処理装置において、
    前記合成画像データを生成する手段は、前記応付けられたフレーム画像間でコンテンツ解析を行うことによって生成された中間画像データと前記最も高いフレームレートを有する撮像手段から入力した画像データとを、前記対応付けられたフレーム画像の時間的な位置関係を考慮して時間的に連続させるように合成することを特徴とする画像データ処理装置。
  13. 請求項9〜12に記載の画像データ処理装置において、
    前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を付加したデータフォーマットのデータとして出力する手段を有することを特徴とする画像データ処理装置。
  14. 請求項9〜12に記載の画像データ処理装置において、
    前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を、前記合成画像データとは別のデータとして出力する手段を有することを特徴とする画像データ処理装置。
  15. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
    前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、
    前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、
    前記遅延時間に基づいて中間画像データを生成するステップと、
    前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップと、
    を有することを特徴とする画像データ処理方法。
  16. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
    前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、
    前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、
    前記遅延時間に基づいて中間画像データを生成するステップと、
    前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップと、
    を実行可能であることを特徴とする画像データ処理プログラム。
  17. 複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段、前記入力した複数の画像データを用いてコンテンツ解析を行う手段、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段、前記遅延時間に基づいて中間画像データを生成する手段及び前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、
    前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
    を有することを特徴とする画像表示システム。
JP2005081197A 2005-03-22 2005-03-22 画像データ処理装置 Withdrawn JP2006270160A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005081197A JP2006270160A (ja) 2005-03-22 2005-03-22 画像データ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005081197A JP2006270160A (ja) 2005-03-22 2005-03-22 画像データ処理装置

Publications (1)

Publication Number Publication Date
JP2006270160A true JP2006270160A (ja) 2006-10-05

Family

ID=37205697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005081197A Withdrawn JP2006270160A (ja) 2005-03-22 2005-03-22 画像データ処理装置

Country Status (1)

Country Link
JP (1) JP2006270160A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193117A (ja) * 2010-03-12 2011-09-29 Casio Computer Co Ltd 画像処理装置及びプログラム
KR101164894B1 (ko) 2010-05-28 2012-07-12 송지을 경기 참여자 관점의 야구공 영상생성 장치, 시스템, 및 그 방법의 기록매체

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193117A (ja) * 2010-03-12 2011-09-29 Casio Computer Co Ltd 画像処理装置及びプログラム
KR101164894B1 (ko) 2010-05-28 2012-07-12 송지을 경기 참여자 관점의 야구공 영상생성 장치, 시스템, 및 그 방법의 기록매체

Similar Documents

Publication Publication Date Title
KR20190109723A (ko) 전자 기기
US8428121B2 (en) Image pick-up apparatus for shooting and reproducing a moving image
JP4556195B2 (ja) 撮像装置、動画再生装置及びそのプログラム
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4924228B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006246307A (ja) 画像データ処理装置
JP2012015830A (ja) カメラ
JP5393237B2 (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP2009111518A (ja) 撮像装置、画像再生装置及びそのプログラム、画像ファイルのデータ構造
JP2007228099A (ja) 撮像装置
JP6351212B2 (ja) 撮像装置、撮像装置の制御方法及びシステム
JP5938655B2 (ja) 再生装置、撮像装置およびプログラム
JP2006203334A (ja) 画像記録装置及びその制御方法、並びにプログラム
KR100943932B1 (ko) 촬상장치
JP2006270160A (ja) 画像データ処理装置
JPH1042307A (ja) キーシステム及び合成画像作成方法
JP4561452B2 (ja) 撮像装置、映像出力方法および映像再生プログラム
JP2008005427A (ja) 撮像装置および撮像方法、並びにプログラム
JP2007166539A (ja) 撮像装置、撮像方法、プログラムおよび記憶媒体
JP6594485B2 (ja) 撮像装置、撮像装置の制御方法及びシステム
JP6602425B2 (ja) 撮像装置、撮像装置の制御方法及びシステム
JP6351213B2 (ja) 撮像装置、撮像装置の制御方法及びシステム
JP2018074523A (ja) 撮像装置、その制御方法、プログラムならびに記録媒体
EP1496684A2 (en) Imaging apparatus, imaging method, imaging system, program
JP2006080651A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070404

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603