JP2006246307A - 画像データ処理装置 - Google Patents

画像データ処理装置 Download PDF

Info

Publication number
JP2006246307A
JP2006246307A JP2005062021A JP2005062021A JP2006246307A JP 2006246307 A JP2006246307 A JP 2006246307A JP 2005062021 A JP2005062021 A JP 2005062021A JP 2005062021 A JP2005062021 A JP 2005062021A JP 2006246307 A JP2006246307 A JP 2006246307A
Authority
JP
Japan
Prior art keywords
image data
imaging
delay time
data processing
imaging means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005062021A
Other languages
English (en)
Inventor
Masanobu Nishitani
正信 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005062021A priority Critical patent/JP2006246307A/ja
Publication of JP2006246307A publication Critical patent/JP2006246307A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動画の撮像が可能な汎用のカメラを用いて時間軸上において高画質な画像データを出力可能とする。
【解決手段】同じ被写体3を同一撮像範囲で撮像可能な複数の撮像手段(カメラ1,2)が該複数の撮像手段間で同期を取って前記被写体3を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部11と、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部12とを有する。
【選択図】 図1

Description

本発明は、複数の撮像手段を用いて同じ被写体の撮像を行なうに好適な画像データ処理装置、画像データ処理方法、画像データ処理プログラムに関し、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムに関する。
画像をデジタルデータとして取り込み可能なデジタルカメラやデジタルビデオカメラ、さらには、携帯電話機、テレビ電話、Webカメラなどのデジタル撮像機器が広く使用されるようになってきている。これらのデジタル撮像機器は普及が進むにつれ、より一層の高画質化が要求されるようになってきている。
静止画については、撮像可能な画像の画素数が増加してきており、空間軸上における高画質化は高いレベルに達しつつある。これに対して、動画は静止画に比べると、画質という点でまだまだ及ばないのが現状である。たとえば、ハイビジョン画像は、画素数でみれば高々200万画素であり、一世代あるいは二世代前のデジタルカメラと同程度かそれ以下である。さらに、動画において最も重要な時間軸上における高画質化については、より一層の改善が要求されている。
気軽に入手できるデジタル撮像機器としては、たとえば、携帯電話機やWebカメラなどがあるが、いずれも動画の品質は高いとはいえない。一般に、画素数(解像度)を優先すればフレームレートを犠牲にすることになり、逆にフレームレートを優先すれば画素数(解像度)を犠牲することになる。なお、フレームレートは時間軸上での画質の高さを示すものであり、高フレームレートであれば、時間軸上において高画質であるともいえる。
動画において時間軸上の高画質化を実現する技術の一例として、特許文献1が挙げられる。
特許文献1は、デジタルカメラまたはフィルムカメラの持つ連写機能を複数のカメラ間でクロックやタイマなどを用いて連携させることで、高速な撮像を実現することを目的としている。
特開2001−166374号公報
しかし、特許文献1は、(i)連写機能を有するカメラが複数台必要、(ii)複数のカメラの連携をとるための複雑な仕組みが必要、(iii)複数のカメラの状態を監視するための仕組みが必要といった問題がある。
(i)については、連写機能を有するカメラは一般的には高価であるということが問題となる。連写枚数が1秒間に数枚程度の比較的安価なカメラもあるが、特許文献1により、一般的な動画のフレームレートを実現するためには、多くの台数のカメラが必要となる。すなわち、30フレーム/秒(以下では、フレーム/秒をfpsと表記する)を実現するには、3枚/秒のカメラでは10台のカメラが必要となり、5枚/秒のカメラでも5台のカメラが必要となる。したがって、たとえば、60fpsの高画質な画像データを実現するには、さらに多くのカメラが必要となり、現実的ではない。
また、(ii)については、特許文献1の場合、静止画用のカメラを用いるため、シャッタの制御や、それに合わせたカメラ間の同期の考慮など、システムの制御が複雑化し、かつ、高精度な制御が要求される。これにより、システムそのものが高価なものとなるという問題もある。
さらに、(iii)については、これも(ii)と同様の静止画用のカメラを用いることによる問題である。一般に、連写機能は、撮像は高速に行なわれるものの、カメラに内蔵されている記録媒体への記録に時間を要する。連続した撮像のためには、各カメラの状態を監視し、連写機能の終了後に次の連写撮像が可能であるか否かを常に監視していなければならない。これは、システムを複雑化する要因にもなる。
そこで本発明は、動画の撮像が可能な汎用のデジタル撮像機器を複数台用いることにより、時間軸上において高画質な画像データを生成可能で、かつ、システムを複雑化することのない画像データ処理装置、画像データ処理方法、画像データ処理プログラムを提供することを目的とするとともに、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムを提供することを目的とする。
(1)本発明の画像データ処理装置は、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部と、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部とを有することを特徴とする。
これにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。なお、撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像機器(デジタルビデオカメラなど)を用いることができる。
(2)前記(1)に記載の画像データ処理装置においては、前記遅延時間は、所定範囲で任意に設定可能であることが好ましい。
これは、遅延時間をユーザなどが任意に設定することができるということである。これによって、コンテンツの内容になどに応じて適切な遅延時間を設定することができる。また、遅延時間をユーザが任意に設定できるということは、撮像中にユーザがコンテンツの内容などに応じてある期間だけそのコンテンツに最適な遅延時間を設定するということも可能となる。
(3)前記(1)または(2)に記載の画像データ処理装置においては、前記遅延時間は、前記合成画像データの各フレームが時間的に等間隔となるような設定が可能であることが好ましい。
このように、各フレームが時間的に等間隔となるように合成された合成画像データであれば、本発明に対応しない画像表示装置であっても表示が可能となる。
(4)前記(1)または(2)に記載の画像データ処理装置においては、前記遅延時間は、前記合成画像データの各フレームが時間的に非等間隔となるような設定が可能であることもまた好ましい。
これは、たとえば、コンテンツに応じてフレームごとに任意の時間差を設定したような場合であり、このように、時間差をユーザが任意に設定した場合にもそれに対応した合成画像データを出力することができる。
(5)前記(1)〜(4)に記載の画像データ処理装置においては、前記複数の撮像手段から出力される各画像データは同じフレームレートであることが好ましい。
このように、複数の撮像手段から出力される各画像データのフレームレートを同一とすることにより、前記画像データ合成処理部が行う画像データ合成処理を容易なものとすることができる。
(6)前記(1)〜(5)に記載の画像データ処理装置においては、前記画像データ合成処理部は、前記複数の撮像手段から出力される各画像データの位置ずれ補正、複数の撮像手段から出力される各画像データの色補正、複数の撮像手段から出力される各画像データの輝度補正の少なくとも1つの補正を行う機能を有することが好ましい。
これにより、複数の撮像手段から得られる各画像データを時間的に連続した合成画像データとしたとき、その合成画像データは各フレーム間で整合性の取れた高品質な画像データとすることができる。
(7)前記(1)〜(6)に記載の画像データ処理装置においては、前記複数の撮像手段から出力される各画像データを記憶する画像データ記録装置を有し、前記画像データ合成処理部は、前記画像データ記録装置に記録された画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成することが好ましい。
このように、各撮像手段で撮像された画像データを記録する画像データ記録装置を設け、この画像データ記録装置に画像データを一時的に記録することで、画像データ合成処理部が合成画像データ生成処理などの処理を時間的な余裕を持って行うことができ、画像データ合成処理部の処理能力をそれほど高いものとする必要がなくなる。また、画像データ記録装置からユーザが任意の時点の画像データを取得することも可能となる。
(8)前記(1)〜(7)に記載の画像データ処理装置においては、前記画像データ合成処理部は、前記合成画像データを該合成画像データに各フレームの時間長を示す情報を付加したデータフォーマットのファイルとして出力することが好ましい。
これにより、合成画像データを表示する画像表示装置側で合成画像データの表示を行なう際に適切な表示が行える。
(9)前記(8)に記載の画像データ処理装置においては、前記画像データ合成処理部は、前記合成画像データの各フレームの時間長を示す情報を、前記合成画像データとは別のファイルとして出力することも可能である。
これにより、本発明に対応する画像表示装置においては、合成画像データのファイルと各フレームの時間長を示す情報のファイルの両方を読み込んで、その内容に応じた処理を行うことが可能であり、また、本発明に対応しない画像表示装置においては、合成画像データのファイルのみを読み込んで、その内容に応じた処理を行うことが可能となる。
(10)本発明の画像データ処理方法は、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を任意の時間差を有して撮像可能となるように撮像制御するステップと、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理方法においても、前記(2)〜(9)の画像データ処理装置と同様の特徴を有することが好ましい。
(11)本発明の画像データ処理プログラムは、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が複数の撮像手段間で同期を取って前記被写体を任意の時間差を有して撮像可能となるように撮像制御するステップと、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成するステップとを実行可能であることを特徴とする。
この画像データ処理プログラムによっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理プログラムにおいても、前記(2)〜(9)の画像データ処理装置と同様の特徴を有することが好ましい。
(12)本発明の画像表示システムは、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が複数の撮像手段間で同期を取って前記被写体を任意の時間差を有して撮像可能となるように撮像制御する撮像手段制御部、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。
このような画像表示システムによれば、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなり、画像表示装置では時間軸上において高画質な画像データを表示することができる。なお、撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像手段(デジタルビデオカメラなど)を用いることができるので、高画質の画像データ表示システムを安価に構成することができる。なお、この画像表示システムにおいても、前記(2)〜(9)の画像データ処理装置と同様の特徴を有することが好ましい。
(13)本発明の画像データ処理装置は、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部と、前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成する機能を有する画像データ合成処理部とを有することを特徴とする。
これによれば、前記(1)に記載の画像データ処理装置と同様の効果が得られるほか、この(13)に記載の画像データ処理装置では、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。なお、この(13)に記載の画像データ処理装置においても、前記(2)、(5)〜(9)の画像データ処理装置と同様の特徴を有することが好ましい。なお、(7)に記載の画像データ処理装置のように、画像データ記録装置を有する場合には、該画像データ記録装置に記録された画像データを用いてコンテンツ解析を行う。
(14)前記(13)に記載の画像データ処理装置においては、前記コンテンツ解析は、前記複数の撮像手段から出力される各画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことが好ましい。
これによれば、動きの変化及び/又は明るさの変化に応じた遅延時間を設定することができる。たとえば、動きの激しい場面や明るさの変化の激しい場面では遅延時間を短くし、逆に、動きの緩やかな場面や明るさの変化の緩やかな場面では遅延時間を長くするというような遅延時間設定を行う。これによって、コンテンツの内容の変化に追従した最適な遅延時間の設定が可能となり、その遅延時間を用いることによりコンテンツの内容に応じた中間画像データを生成することができる。
(15)本発明の画像データ処理方法は、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御するステップと、前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定するステップと、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(13)に記載の画像データ処理装置と同様の効果が得られる。なお、この(15)に記載の画像データ処理方法においても、前記(2)、(5)〜(9)、(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(16)本発明の画像データ処理プログラムは、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御するステップと、前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定するステップと、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理プログラムによっても前記(13)に記載の画像データ処理装置と同様の効果が得られる。なお、この(16)に記載の画像データ処理プログラムにおいても、前記(2)、(5)〜(9)、(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(17)本発明の画像表示システムは、同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部、前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成する機能を有する画像データ合成処理部を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。
この(17)に記載の画像表示システムによっても前記(12)に記載の画像表示システムと同様の効果が得られるほか、この(17)に記載の画像表示システムでは、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。なお、この(17)に記載の画像表示システムにおいても、前記(2)、(5)〜(9)、(14)の画像データ処理装置と同様の特徴を有することが好ましい。
以下、本発明の実施の形態について説明する。
[実施形態1]
図1は実施形態1に係る画像データ処理装置の構成を示す図である。実施形態1に係る画像データ処理装置10Aは、同じ被写体3を同一撮像範囲で撮像可能な複数の撮像手段(実施形態1では2台のカメラ1,2とする)が各カメラ1,2間で同期を取って被写体3を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部11と、カメラ1,2から所定の時間差に対応する遅延時間を有して出力される各フレームごとの画像データを遅延時間に基づいて時間的に連続した合成画像データとして出力可能な画像データ合成処理部12を有している。
また、カメラ1,2は動画をデジタルデータとして取り込み可能なカメラであって、たとえば、デジタルビデオカメラなどを用いることができる。これらカメラ1,2は本発明用として用意された専用のカメラである必要はなく、汎用のカメラの使用が可能である。また、性能的にも特に高性能である必要はなく、たとえば、性能の高さをフレームレートで表すとすれば、30fps程度のフレームレートであればよい。
これらカメラ1,2は、同じ被写体3を撮像可能で、かつ、カメラ1,2の視差が小さくなるように(望ましくは視差が無いように)、すなわち、同一の撮像範囲での撮像が可能となるように設置することが望ましい。また、光軸及び走査線が平行となるように設置されることもまた望ましい。また、カメラ1,2は同一性能の機器を用いることが望ましい。
また、カメラ2はカメラ1に対しユーザの設定した遅延時間に対応する時間差を有して被写体3を撮像する。
図2は実施形態1に係る画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図である。図2に示すように、撮像手段制御部11は、ユーザにより設定された遅延時間及び制御コマンド(撮像開始・終了コマンドなど)を入力するユーザ設定情報入力部111と、ユーザ設定情報入力部111に入力された遅延時間に基づいて遅延時間設定を行なうとともにその遅延時間を記憶可能な遅延時間設定部112と、遅延時間設定部112により設定された遅延時間及びユーザ設定情報入力部111に入力された制御コマンドをカメラ1,2に送信する送信部113を有している。
なお、実施形態1(他の実施形態も同様)ではカメラ2がカメラ1よりも送れて撮像を開始するので、遅延時間はカメラ2に送られる。また、遅延時間は画像データ合成処理部12にも送られる。
また、ユーザによる遅延時間及び制御コマンドは、たとえば、設定値入力ボタンなどによって入力することも可能であり、また、リモートコントローラやパーソナルコンピュータ(PCという)などからネットワークやUSBを介して入力することも可能である。
なお、遅延時間設定部112によって設定された遅延時間は、本発明の各実施形態では、フレーム数で表すものとする。すなわち、カメラ1,2から出力される画像データのフレームレートが30fpsであるとすれば、遅延時間を1/30秒とした場合は、それをフレーム数で表すと1フレームとなり、遅延時間を1/60秒とした場合、それをフレーム数で表すと0.5フレームとなる。したがって、遅延時間として1フレームが設定されたとすれば、遅延時間としては1/30秒が設定されたことになり、また、遅延時間として0.5フレームが設定されたとすれば、遅延時間としては1/60秒が設定されたことになる。
図3は実施形態1に係る画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図である。図3に示すように、画像データ合成処理部12は、カメラ1から出力される画像データを入力する入力部121、カメラ2から出力される画像データを入力する入力部122、入力部121,122に入力された画像データを各フレームごとに時間的に連続した合成画像データとする合成画像データ生成部123、合成画像データ生成部123で生成された合成画像データを出力する出力部124を有している。
なお、カメラ1,2と入力部121,122との間のインタフェースは、ネットワークであってもよいし、一般的なデジタル機器に用いられるIEEE1394やUSBなどであってもよい。また、出力部124からの合成画像データの出力先は、ネットワークであってもよく、プロジェクタなどの画像表示装置であってもよく、また、ハードディスクなどの記録媒体であってもよい。
また、入力部121,122には、それぞれ対応するカメラ1,2から出力される画像データを記憶可能なバッファ121a,122aを有している。
図4は実施形態1に係る画像データ処理装置10Aの画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Aの処理開始に先立って、まず、ユーザによって遅延時間及び制御コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS1)。
カメラ1は撮像開始コマンドにより撮像を開始し(ステップS2)、撮像された画像データは、画像データ合成処理部12に送られる(ステップS3)。一方、カメラ2は遅延時間設定部112で設定された遅延時間が経過したか否かを判定し(ステップS4)、遅延時間が経過すると、撮像を開始する(ステップS5)。
そして、カメラ2で撮像された画像データは画像データ合成処理部12に送られる(ステップS3)。なお、遅延時間はカメラ1,2の同期信号として機能するとともに、画像データ合成処理部12の合成画像データ生成部123にも送られ、合成画像データ生成部123では、その遅延時間に基づいて合成画像データの生成を行う。
画像データ合成処理部12では、合成画像データ生成部123によりカメラ1,2から送られてきた画像データを遅延時間に基づいて合成し(ステップS6)、合成画像データを出力する(ステップS7)。そして、撮像終了コマンドの有無を判定し(ステップS8)、撮像終了コマンドが無ければ、ステップS2及びステップS4に戻り、ステップS2,S4以降の動作をくりかえす。また、撮像終了コマンドがあれば処理を終了する。
図5は画像データ合成処理部12が行う画像データ合成処理を説明するフローチャートである。図5において、まず、合成画像データ生成部123は、撮像手段制御部11からの遅延時間を受け取る(ステップS11)。そして、入力部121がカメラ1から出力される画像データを受け取り(ステップS12)、受け取った画像データをバッファ121aに一時記憶する(ステップS13)。
そして、カメラ2から出力される画像データの有無を判定し(ステップS14)、カメラ2から出力される画像データがあれば、入力部122がカメラ2から出力される画像データを受け取る(ステップS15)。ここで、バッファ121aに記憶されているカメラ1の画像データとカメラ2の画像データが合成画像データ生成部123に送られる(ステップS16)。
合成画像データ生成部123では、設定された遅延時間に基づいてそれぞれの画像データを時間的に連続するように合成して合成画像データを生成し(ステップS17)、生成された合成画像データを順次、出力部124に送る(ステップS18)。そして、撮像終了コマンドの有無を判定し(ステップS19)、撮像終了コマンドが無ければ、ステップS12に戻り、ステップS12以降の動作を繰り返す。また、撮像終了コマンドがあれば処理を終了する。
図6は画像データ処理装置10Aの画像データ合成処理部12が行う画像データ合成処理(その1)を説明するタイムチャートである。この図6は遅延時間設定部112に対し、遅延時間として0.5フレームが設定された場合を示している。なお、カメラ1,2から出力される画像データのフレームレートは同じであり、この場合、共に30fpsであるとする。
図6(A),(B)はカメラ1,2で撮像された画像データの出力タイミングを示す図であり、カメラ1側においては、図6(A)に示すように、撮像開始時刻t0から、画像データがフレームF1,F2,・・・の順で出力される。一方、カメラ2側においては、図6(B)に示すように、カメラ1の撮像開始時刻t0に対して0.5フレーム分の時間差を有して画像データがフレームF1’,F2’,・・・の順で出力される。
これにより、画像データ合成処理部12の合成画像データ生成部123では、設定された遅延時間(この場合、0.5フレーム分の時間)に基づいて、図6(C)に示すような合成画像データを生成する。
すなわち、図6(C)に示すように、カメラ1のフレームF1、カメラ2のフレームF1’、カメラ1のフレームF2、カメラ2のフレームF2’、・・・というように、カメラ1,2それぞれのフレームが0.5フレーム分の時間間隔で出力される。この図6(C)の合成画像データは、カメラ1,2の画像データがそれぞれ30fpsのフレームレートであるので、60fpsのフレームレートの画像データとなる。
この図6(C)の画像データは、前述したように、ネットワーク、プロジェクタなどの画像表示装置またはハードディスクなどの記録媒体などに出力可能である。たとえば、プロジェクタなどの画像表示装置に出力された場合には、該画像表示装置で60fpsのフレームレートの画像として表示される。
以上説明したように、実施形態1では、特に高性能ではない汎用のカメラを複数(実施形態1ではカメラ1,2の2台としている)用いて、カメラ2はカメラ1に対して0.5フレーム分の時間差を有して撮像するようにしている。そして、画像データ合成処理部12では、設定された遅延時間に基づいてカメラ1,2の各フレームを時間的に連続させるように合成する。
すなわち、この場合、設定された遅延時間が0.5フレームであるので、カメラ1の画像データの各フレームF1,F2,・・・に、カメラ2の各フレームF1’,F2’,・・・を0.5フレーム分の時間間隔で挿入した合成画像データが生成される。この合成画像データは、図6(C)に示すように、各フレームの時間的な間隔)が0.5フレームの等間隔となる。すなわち、図6(C)の合成画像データは、各フレームF1,F1’,F2,F2’,・・・の時間長がすべて0.5フレームで等しくなる。なお、フレームの時間長はそれを表示する際の表示時間に相当する。
ところで、図6に示した例は、カメラ2の遅延時間を0.5フレーム分とした場合であったが、この遅延時間はユーザが任意に設定可能である。
図7は画像データ処理装置10Aの画像データ合成処理部12が行う画像データ合成処理(その2)を説明するタイムチャートである。この図7は遅延時間設定部112に対し遅延時間として0.3フレームが設定された場合を示している。なお、この場合もカメラ1,2から出力される画像データのフレームレートは共に30fpsであるとする。
カメラ1側においては、図7(A)に示すように、撮像開始時刻t0から、フレームF1,F2,・・・の順で出力される。一方、カメラ2側においては、図7(B)に示すように、撮像開始時刻t0に対して0.3フレーム分の時間差を有してフレームF1’,F2’,・・・の順で出力される。
これにより、画像データ合成処理部12の合成画像データ生成部123では、設定された遅延時間に基づいて、図7(C)に示すような合成画像データが得られる。すなわち、図7(C)に示すように、カメラ1のフレームF1は0.3フレーム分の時間長、カメラ2のフレームF1’は0.7フレーム分の時間長、カメラ1のフレームF2は0.3フレーム分の時間長、カメラ2のフレームF1’は0.7フレーム分の時間長、・・・というように、合成画像データの各フレームの時間長が等しくない画像データ、つまり、各フレームの時間的な間隔が非等間隔な画像データとなる。
この図7(C)の合成画像データは、見かけ上は60fpsのフレームレートであるが、フレームF1,F1’,F2,F2’,・・・における各フレームの時間長が等しくない画像データであるので、一般的な画像データのフォーマットではない。
このような画像データを、たとえば、プロジェクタなどの画像表示装置で表示する際、画像表示装置が本発明の画像データ処理装置に対応した画像表示装置(以下では対応表示装置という)であれば、図7(C)のようなフレームの時間長に対応した表示が可能となる。しかし、画像表示装置が本発明の画像データ処理装置に対応しない一般的な画像表示装置(非対応表示装置という)の場合は、通常の60fpsの画像データとしての表示を行なう。
図8は合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図である。図8に示すように、合成画像データは、大きく分けると、他のフォーマットの画像データと区別するための識別子、データサイズなどが書き込まれるヘッダ領域、実際の画像データが書き込まれる画像データ書き込み領域を有している。
ヘッダ領域には、全フレーム数、各フレームの時間長、画面サイズ(幅及び高さ)などが書き込まれる。また、画像データ書き込み領域には、合成画像データの各フレームF1,F1’,F2,F2’,・・・に対応する画像データが書き込まれる。
なお、ヘッダ領域に書き込まれる各フレームの時間長は、図8では図示されていないが、たとえば、図7(C)の例においては、フレームF1に対しては0.3フレーム、フレームF1’に対しては0.7フレーム、フレームF2に対しては0.3フレーム、フレームF2’に対しては0.7フレーム、・・・というように各フレームごとの時間長が書き込まれる。
ただし、図6(C)の例のように、各フレームの時間長が同一である場合、あるいは、図7(C)の例のように、各フレームの時間長が所定の規則にしたがって繰り返されるような場合は、それを示す情報を書き込むことも可能であり、その場合、全てのフレームごとに各フレームに対する時間長を書き込む必要はなくなる。
なお、このデータフォーマットを受け取る画像表示装置が本発明の対応表示装置である場合には、図8のデータフォーマットに基づいてデータ表示を行なうことができるが、非対応表示装置である場合には、図8のデータフォーマットでは読み込むことができない。
そこで、画像データ書き込み領域に書き込まれる合成画像データについては一般的に用いられるAVI(Audio Video Interleaving)形式のファイルとし、図8のヘッダ領域における「全フレーム数」、「各フレームの時間長」などは別ファイルとして出力することも可能である。
このように、図8のヘッダ領域における「全フレーム数」、「各フレームの時間長」などは別ファイルとして出力することにより、対応表示装置においては、通常のAVI形式のファイルと「全フレーム数」、「各フレームの表示時間」などの記述されたファイルの両方を読み込んで、その内容に応じた処理を行う。一方、非対応表示装置ではAV1形式のファイルのみを読み込んで、その内容に応じた処理を行う。これによって、対応表示装置では図7(C)のような各フレームの時間長に対応した表示が可能となり、非対応表示装置では、通常の60fpsの画像データとしての表示が可能となる。
以上説明したように実施形態1では、動画の撮像が可能な汎用のカメラを複数台(実施形態1では2台としている)用いることにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、実施形態1によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。
また、このように、2台のカメラを用い、一方のカメラからフレームF1,F2,・・・、もう一方のカメラから時間差を有したフレームF1’,F2’,・・・を出力することによる効果として、画像表示装置側でいわゆる「2度書き」を行なうような場合に有利になることも挙げられる。
なお、実施形態1(以降に示す他の実施形態も同様)を実現するためには、カメラ1,2から出力される各画像データの位置ずれ補正、色補正、輝度補正などを行なうようにすることが望ましい。
カメラ1,2から出力される各画像データの位置ずれ補正は、カメラ1の画像データを基準画像データとして、カメラ2の画像データの位置ずれ補正を行うことが可能である。これは、たとえば、カメラ1の画像データの特定領域をカメラ2の画像データの中からブロックマッチングなどにより探し、カメラ1に対するカメラ2のずれ量を検出し、そのずれ量からカメラ2の全体の画像データをカメラ1の画像データに合わせるといった処理である。
また、カメラ1,2から出力される各画像データの色補正は、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の基準となる色成分(赤R・緑G・青Bなど)それぞれについて両者の画素値の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して画素値の調整を行なう。
また、カメラ1,2から出力される各画像データの輝度補正は、上記した色補正と同様、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の輝度値について両者の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して輝度値を調整する。
これらの各補正を行なうタイミングは、カメラ1,2による撮像開始前、画像データ合成処理部12の合成画像データ生成部123による画像データの合成処理中、カメラ1,2による撮像終了後などが考えられる。
たとえば、カメラ1,2による撮像開始前に行なう場合は、撮像開始前に、各カメラ1,2でテストパターンなどを用いて撮像を試みる。ここで、撮像された画像データに基づいて補正を行なう。このときの補正パラメータを保存しておき、画像データ合成時に適用する。
また、画像データ合成処理中に行う場合は、各カメラ1,2の画像データを合成画像データ生成部123において合成する際に、逐次、実行する。これは前もって補正パラメータを決めておくよりも撮像時における環境の変化(明るさの変化など)を忠実に反映させることができる。
また、撮像終了後に行なう場合は、後に説明する蓄積型に特に有効である。つまり、最終的な画像データの出力までに時間的な余裕がある場合、さらに精度よく補正を行うことができる。
なお、カメラ1,2から出力される各画像データの位置ずれ補正、色補正、輝度補正などの各種の補正は、必ずしもこれをすべて行なう必要はなく、必要に応じて行なえばよい。
[実施形態2]
図9は実施形態2に係る画像データ処理装置10Bの構成を示す図である。実施形態2に係る画像データ処理装置10Bが実施形態1に係る画像データ処理装置10A(図1参照)と構成的に異なるのは、画像データ記録装置13が設けられている点であり、その他の構成要素は図1と同じであるので同一部分には同一符号が付されている。
実施形態2に係る画像データ処理装置10Bは、図9に示すように、カメラ1,2から得られたそれぞれの画像データは一旦、画像データ記録装置13に記録される。なお、画像データ記録装置13は、図9ではカメラ1,2で共用としたが、各カメラ1,2ごとに設けるようにしてもよい。
図10は実施形態2に係る画像データ処理装置10Bに用いられる画像データ合成処理部12の構成を示す図である。図10に示すように、実施形態2に係る画像データ処理装置10Bに用いられる画像データ合成処理部12は、図3とほぼ同様の構成であるが、実施形態2の場合、画像データ記録装置13に記録されているカメラ1,2の画像データが画像データ合成処理部12に入力される構成となっている。このため、画像データ合成処理部12は、入力部が1つ(入力部121とする)となっている点が図3と異なるだけであり、その他の構成要素は図3と同じであるので同一部分には同一符号が付されている。
なお、画像データ記録装置13と入力部121との間のインタフェースは、ネットワークであってもよいし、一般的なデジタル機器に用いられるIEEE1394やUSBなどであってもよい。また、出力部124から出力される画像データの出力先は、ネットワークであってもよく、プロジェクタなどの画像表示装置であってもよく、また、ハードディスクなどの記録媒体であってもよい。また、撮像手段制御部11は図2の構成と同じであるので、図示は省略する。
図11は実施形態2に係る画像データ処理装置10Bにおける画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Bの動作に先立って、まず、ユーザによって遅延時間及び制御コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS21)。
カメラ1は撮像開始コマンドにより撮像を開始し(ステップS22)、撮像された画像データを画像データ記録装置13に送る(ステップS23)。一方、カメラ2は遅延時間設定部112で設定された遅延時間が経過したか否かを判定し(ステップS24)、遅延時間が経過すると、撮像を開始し(ステップS25)、撮像された画像データを画像データ記録装置13に送る(ステップS23)。そして、撮像終了コマンドの有無を判定し(ステップS26)、撮像終了コマンドがなければ、カメラ1はステップS22に戻り、カメラ2はステップS24に戻る。なお、遅延時間はカメラ1,2の同期信号として機能するとともに、画像データ合成処理部12の合成画像データ生成部123にも送られ、合成画像データ生成部123では、その遅延時間に基づいて合成画像データの生成を行う。
そして、撮像終了コマンドが入ると、画像データ合成処理部12では、画像データ記録装置13から画像データを受け取り(ステップS27)、受け取った画像データを画像データ合成処理部12の合成画像データ生成部123が、設定された遅延時間に基づいて合成し(ステップS28)、合成画像データを出力する(ステップS29)。
図12は画像データ合成処理部12が行う画像データ合成処理を説明するフローチャートである。
図12において、まず、合成画像データ生成部123は撮像手段制御部11からの遅延時間を受け取る(ステップS31)。そして、カメラ1の画像データの有無を判定し(ステップS32)、画像データがなければ処理を終了するが、画像データがあれば、入力部121が画像データ記録装置13からカメラ1の画像データ(1フレーム)を受け取り(ステップS33)、受け取った画像データをバッファ121aに一時記憶する(ステップS34)。
次に、カメラ2から出力される画像データの有無を判定し(ステップS35)、カメラ2から出力される画像データがなければ処理を終了するが、画像データがあれば、入力部121が画像データ記録装置13からカメラ2の画像データ(1フレーム)を受け取る(ステップS36)。そして、バッファ121aに記憶しておいたカメラ1の画像データとカメラ2の画像データを合成画像データ生成部123に送り(ステップS37)、設定された遅延時間に基づいてそれぞれの画像データを時間的に連続するように合成する(ステップS38)。そして、合成画像データを順次、出力部124に送り(ステップS39)、ステップS32に戻る。
この実施形態2においても、実施形態1と同様に、ユーザによって設定される遅延時間は、たとえば、0.5フレーム分の遅延時間、0.3フレーム分の遅延時間というように所定範囲で任意に設定可能である。このように設定された遅延時間に基づいて生成された合成画像データの一例は、実施形態1の図6及び図7で説明したので、ここでは説明を省略する。
なお、ステップS33とステップS36の処理は、画像データ記録装置13が複数のカメラに対応して備えられている場合には、各カメラに対応する画像データ記録装置から当該カメラの画像データを受け取る。
図13は画像データ記録装置13上における画像データの記録状態の一例を示す図である。図13に示すように、記憶領域の先頭から撮像順(この場合、カメラ1、カメラ2の順)にそれぞれの画像データのフレームが、カメラ1のフレームF1、カメラ2のフレームF1’、カメラ1のフレームF2、カメラ2のフレームF2’、・・・というように記録されて行く。なお、画像データ記録装置13がカメラに対応して備えられている場合には、各カメラに対応する画像データ記録装置に対して、当該カメラの画像データの各フレームがそれぞれ撮像順に記録されて行く。
以上説明した実施形態2によれば、カメラ1,2から出力される画像データを記憶する画像データ記録装置13を設けることにより、画像データ合成処理部12が合成画像データ生成処理などの処理を、時間的に余裕を持って行うことができる。このため、画像データ合成処理部12の処理能力をそれほど高いものとする必要がなくなる。また、画像データ記録装置13からユーザが任意の時点の画像データを取得することも可能となるといったことも効果の1つとして挙げられる。
[実施形態3]
実施形態3に係る画像データ処理装置は、コンテンツの内容に応じて、遅延時間の設定を可能とするものである。なお、この実施形態3は実施形態1及び実施形態2のいずれにも適用可能であることは勿論であるが、ここでは、実施形態2に適用した例について説明する。また、この実施形態3においても実施形態1及び実施形態2と同様、撮像手段として2台のカメラ1,2を用いた場合について説明する。
実施形態3に係る画像データ処理装置の全体的な構成は、図9に示す画像データ処理装置10Bと同じあるので、実施形態3に係る画像データ処理装置としての図示は省略する。なお、説明の都合上、実施形態3においては、実施形態3に係る画像データ処理装置に10Cの符号を付して画像データ処理装置10Cとして説明する。
図14は実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図である。図14が実施形態2の説明で用いた図10と異なるのは、コンテンツ解析部125を有している点である。そして、その概略的な動作は、コンテンツ解析部125が画像データ記録装置13に記録されているカメラ1,2の画像データ間のコンテンツ解析を行い、その解析結果に基づいて遅延時間を設定し、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データとカメラ1から出力される各フレームの画像データとを時間的に連続させた合成画像データを生成する。
図15は実施形態3に係る画像データ処理装置10Cに用いられる撮像手段制御部11の構成を示す図である。図15に示す撮像手段制御部11は、構成要素としては、実施形態1及び実施形態2の説明で用いた図2と同じであるが、実施形態3ではユーザの設定した遅延時間は、カメラ1,2の撮像時における同期信号のみに使用されるため、画像データ処理装置10Cの合成画像データ生成部123には送る必要がなくなる。
コンテンツ解析部125は、この実施形態3の場合、カメラ1のフレームF1,F2,・・・とカメラ2のフレームF1’,F2’,・・・の対応するフレーム間のコンテンツ解析を行い、その解析結果から画面全体の動きの変化及び/又は画面全体の明るさの変化を検出(実施形態3では画面全体の動きの変化及び画面全体の明るさ変化の両方を検出するものとする)する機能と、その検出結果に応じた遅延時間(フレーム数)を設定する機能と、設定された遅延時間(フレーム数)を合成画像データ生成部123に送る機能とを有している。
また、合成画像データ生成部123は、コンテンツ解析部125によって設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データとカメラ1から出力される各フレームの画像データとを時間的に連続するように合成して合成画像データを生成する。
なお、コンテンツ解析部125が行う動きの変化及び明るさの変化の検出のうち、動きの変化の検出を行った結果、動きの変化が大きい場合は遅延時間を短くし、動きの変化が小さい場合は遅延時間を大きくする。これは、動きの激しい場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、動きの緩やかな場面では、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。
一方、動きの変化及び明るさの変化の検出のうち、明るさの変化の検出を行った結果、明るさの変化が大きい場合は遅延時間を短くし、明るさの変化が小さい場合は遅延時間を大きくする。これは、明るさの変化が大きい場合は、場面が変化する可能性が高く、このような場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、明るさの変化が小さい場合は、場面の変化は小さい場合が多く、この場合は、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。
図16はカメラ1,2で撮像された画像データを用いてコンテンツ解析を行う際のカメラ1,2の各フレームの対応関係を説明する図である。この図16の画像データ出力タイミングは、実施形態1の説明で用いた図6(A),(B)と同じ画像データ出力タイミングの例が示されている。
この実施形態3では、図16に示すように、カメラ1のフレームF1とカメラ2のフレームF1’とのコンテンツ解析を行い、続いて、カメラ1のフレームF2とカメラ2のフレームF2’とのコンテンツ解析を行い、続いて、カメラ1のフレームF3とカメラ2のフレームF3’とのコンテンツ解析を行うというような順序でコンテンツ解析を行うものとする。
ここで、動きの変化の検出(動き検出という)について説明する。動き検出は、種々の方法によって行うことが可能であるが、ここでは、一般的なブロックマッチング法を用いて、フレーム間の動きベクトルを求める例について説明する。
図17は動き検出において用いられるブロックマッチング法について説明する図である。ブロックマッチング法は、ブロック単位で動きを検出する方法であり、現在、注目しているフレームを含む複数のフレームを利用する。この実施形態3では、現在、注目しているフレーム(tフレームとする)とその直前のフレーム(t−1フレームとする)を利用する。なお、図17の例においては、tフレームは、たとえば、図16におけるカメラ2のフレームF1’に相当し、t−1フレームは、たとえば、図16におけるカメラ1のフレームF1に相当する。
図17に示すように、tフレームにおけるブロックA1(L×Lのブロックサイズであるとする)をt−1フレームで動かして、tフレームのブロックA1と最もデータ値の近いブロックをt−1フレーム内で探索し、その場所と元の場所(破線で示す位置)とのずれ幅を動きベクトルとする。すなわち、以下の式において、Dが最小となるときの(i、j)を動きベクトルとする。
Figure 2006246307
(1)式において、LはブロックA1のサイズ、x,yはブロックA1のx軸方向及びy軸方向における移動方向、i,jはブロックA1の移動量、tはフレームを表す。動きベクトルを求める最も簡単な方法は、(i,j)のすべての組み合わせについて(1)式を計算し、Dが最小となる(i,j)の組み合わせを求めるという方法である。
このようにして、tフレームにおいて、ブロックごとに動きベクトルを求め、求められたブロックごとの動きベクトルから画面全体の動き量を以下の式で計算する。すなわち、動きベクトルをVとし、n個の動きベクトルが得られたとすると、画面全体の動き量Mは、
Figure 2006246307
と表すことができる。この(2)式によって得られた値がtフレームにおける画面全体の動き量となる。
なお、動き量の計算は、上記のように、各フレームの画面全体について行うようにしてもよいが、計算処理を削減するために、画面中央の領域だけに対して行うようにしてもよい。これは、多くの場合、視聴者が注目するのは画面中央であることによるものである。
以上のようにして、tフレームの動き量(t−1フレームに対してどの程度動いたかを示す量)が検出されると、検出された動き量に応じた遅延時間の設定を行う。以下に、動き量に応じた遅延時間設定について説明する。
図18は動き量に対する遅延時間の設定例を示す図である。なお、この場合、動き量は、0〜220の範囲の値に正規化されるものとする。図18に示すように、動き量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)とし、動き量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)とする。また、動き量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)とする。このように、動き量に応じた遅延時間(フレーム数)を予め設定しておくことができる。
そして、このようにして求められる動き量に対する遅延時間は、動き量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図19は動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図19に示すように、たとえば、動き量が「0〜20」の範囲における遅延時間は「1フレーム」、動き量が「21〜40」の範囲における遅延時間は「0.9フレーム」、動き量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、動き量が求められれば容易に動き量に対する遅延時間を設定することができる。
以上、動き検出を行うことによって求められた動き量に応じた遅延時間を設定する例について説明したが、次に、明るさの変化の検出結果に応じた遅延時間を設定する例について説明する。なお、明るさの変化の検出というのは、ここでは輝度差を検出することであるとする。
まず、各フレームの画像データに対し、個々のフレームの画像データの画素の輝度値を取得する。そして、取得した輝度値の平均値を求め、求められた輝度値の平均値を当該フレームの全体の明るさであるとする。このようにして、各フレームにおいて、輝度値の平均値が求められると、フレーム間の輝度値の平均値の差を明るさ変化量とし、その明るさの変化量に基づいて遅延時間としてのフレーム数を設定する。
図20は明るさの変化量に対する遅延時間の設定例を示す図である。なお、この場合、明るさ変化量は、0〜220の範囲の値に正規化されるものとする。図20に示すように、明るさ変化量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)であり、明るさ変化量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)である。また、明るさ変化量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)と設定される。このように、明るさ変化量に応じた遅延時間としてのフレーム数を予め設定しておくことができる。
そして、このようにして求められる明るさ変化量に対する遅延時間は、動き量と同様、明るさ変化量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図21は明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図21に示すように、たとえば、明るさ変化量が「0〜20」の範囲における遅延時間は「1フレーム」、明るさ変化量が「21〜40」の範囲における遅延時間は「0.9フレーム」、明るさ変化量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、明るさ変化量が求められれば容易に明るさ変化量に対する遅延時間を設定することができる。
以上のようにして、動き量に応じた遅延時間の設定と明るさ変化量に応じた遅延時間の設定を行うことができる。動き量に応じた遅延時間と明るさ変化量に応じた遅延時間のいずれか一方のみを用いることも可能であるが、実施形態2では、動き量と明るさ変化量の両方に基づいた遅延時間の設定を行うものとする。この動き量と明るさ変化量の両方に基づいて設定された遅延時間を、「動き量及び明るさ変化量を考慮した遅延時間」と呼ぶことにする。
この動き量及び明るさ変化量を考慮した遅延時間は、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値とする。たとえば、動き量に応じた遅延時間(フレーム数)が0.3フレームであって、明るさ変化量に応じた遅延時間(フレーム数)が0.7フレームであったとすると、両者の平均を求め、0.5フレームを動き量及び明るさ変化量を考慮した遅延時間として設定する。
なお、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値が、設定可能精度以下の値となった場合には、四捨五入、切り捨て、切り上げのいずれかを行う。
一例として、この実施形態3のように、設定可能精度が小数点1位(0.1フレーム単位)までである場合には、たとえば、「求められた平均値が小数点2位以下の値となった場合には四捨五入する」というように決めておくことができる。これにより、平均値が0.52というように小数点2位以下の値として求められた場合は、遅延時間は0.5フレームとなる。
図22は動き量及び明るさ変化量を考慮して設定された遅延時間(フレーム数)と、該遅延時間に基づいて生成された中間画像データの一例を示す図である。図22は、たとえば、コンテンツ解析を行ったフレームがカメラ1のフレームF1とカメラ2のフレームF1’である場合、フレームF1とフレームF1’間において求められた遅延時間(動き量及び明るさ変化量を考慮した遅延時間)は0.3フレームであり、それによってカメラ1のフレームF1とフレームF2との間に生成される画像データ(中間画像データという)は、1.3フレームの中間画像データであることを示している。
なお、図22における1.3フレーム、2.5フレーム、3.4フレーム、・・・の中間画像データは、カメラ1の各フレームF1,F2,F3,・・・のフレーム番号に、求められた遅延時間を足した値(フレーム番号+遅延時間)で表される。たとえば、カメラ1のフレームF1とカメラ2のフレームF1’との間で求められた遅延時間が0.3フレームである場合には、1+0.3=1.3となり、これによって、1.3フレームの中間画像データが生成されることになる。
図23は図22に示された遅延時間と中間画像データとに基づいて生成された合成画像データの例を示す図である。なお、カメラ1,2のフレームレートが共に30fpsの場合であるので、合成画像データ生成部123では、見かけ上、60fpsのフレームレートとなるように、各フレームの時間長を調整する。
図24は実施形態3に係る画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャートである。この図24に示すフローチャートにおけるステップS41〜S46は、実施形態2で説明した図11のフローチャートのステップS21〜S26と同じであるので、ステップS47以降の動作について説明する。
すなわち、ステップS46において撮像終了コマンドが入ると、コンテンツ解析部125が画像データ記録装置13に記憶されてカメラ1,2のそれぞれの画像データを受け取り、コンテンツ解析を行う(ステップS47)。そして、合成画像データ生成部123がコンテンツ解析結果に基づいて中間画像データを生成し、カメラ1の画像データと合成し(ステップS48)、合成画像データを出力する(ステップS49)。
図25は画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理と合成画像データ生成部123が行う合成画像データ生成処理を説明するフローチャートである。
図25において、まず、コンテンツ解析部125は、カメラ1で撮像された画像データを受け取り(ステップS51)、カメラ2で撮像された画像データを受け取る(ステップS52)。そして、カメラ1の所定のフレームとカメラ2の所定のフレーム(一例として図16参照)との間(一例として図16参照)で動き検出及び/又は明るさ検出を行い、動き量及び/又は明るさ変化量を計算する(ステップS53)。
なお、この実施形態3では動き量と明るさ変化量の両方を求めるものとする。そして、ステップS53で得られた動き量と明るさ変化量に基づいて、動き量及び明るさ変化量を考慮した遅延時間を挿入位置として求め、コンテンツ解析に用いたフレームの画像データとともに、その結果として求められた遅延時間を合成画像データ生成部123に送る(ステップS54)。
これにより、合成画像データ生成部123では、コンテンツ解析部125から送られてきた遅延時間とコンテンツ解析に用いたフレームの画像データとから中間画像データを生成する(ステップS55)。そして、生成された中間画像データをカメラ1の所定のフレームに対して、遅延時間に基づいて時間的に連続するように合成し(ステップS56)、その合成画像データを順次出力する(ステップS57)。
以上説明したように実施形態3によれば、実施形態2と同様の効果が得られるほか、実施形態3では、コンテンツの内容に応じて遅延時間を設定し、設定された遅延時間に基づいて中間画像データを生成し、生成された中間画像データとカメラ1の画像データとを時間的に連続するように合成して合成画像データを生成するようにしている。
このように生成された合成画像データは、たとえば、動きの激しい場面や明るさの変化が大きい場面、動きの緩やかな場面や明るさの変化の小さな場面などに追従した滑らかな動画の再現が可能な画像データとすることができる。なお、前述したように、実施形態3は実施形態1においても適用可能であることは勿論である。
また、カメラ1,2の各フレーム間におけるコンテンツ解析は、図16に示した例に限られるものではない。たとえば、カメラ1のフレームF1とカメラ2のフレームF1’とのコンテンツ解析を行ったあと、カメラ2のフレームF1’とカメラ2のフレームF2とのコンテンツ解析を行い、カメラ2のフレームF2とカメラ2のフレームF2’とのコンテンツ解析を行うというようにしてもよい。
[実施形態4]
これまで説明した実施形態1〜実施形態3の画像データ処理装置10A,10B,10Cを用いた画像表示システムを構成することができる。実施形態4ではこの画像表示システムについて説明する。なお、実施形態1〜実施形態3のいずれの画像データ処理装置10A,10B,10Cを用いても画像表示システムを構成することは可能であることは勿論であるが、ここでは、実施形態1に係る画像データ処理装置10Aを用いた画像表示システムについて説明する。
図26は実施形態4に係る画像表示システムの構成を示す図である。実施形態4に係る画像表示システムは、概略的には、図26に示すように、撮像手段としてのカメラ1,2、画像データ処理装置10A、画像表示装置20、PCなどの情報処理装置30を有している。
このような画像表示システムにおいて、遅延時間の設定や撮像開始・終了などのコマンド入力は情報処理装置30上でマウスやキーボード操作などにより行うことができる。そして、画像データ処理装置10Aから出力される画像データ、たとえば、図6(C)や図7(C)のような合成画像データは、画像表示装置20に送られて表示される。
図6(C)や図7(C)に示す合成画像データは、カメラ1,2からの30fpsの画像データが時間的に連続するように合成されることで60fpsの合成画像データとして出力された場合である。
なお、画像表示装置20が対応表示装置である場合には、図7(C)のように、フレームごとに時間長(表示時間)が等間隔でない合成画像データであっても、それぞれのフレームの時間長に対応した表示が可能であるが、画像表示装置20が非対応表示装置である場合は、通常の60fpsの画像データとしての表示を行なう。
図26に示すような画像表示システムを構築することにより、画像データ処理装置10A側では、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを出力することができる。これにより、画像表示装置20側では、高画質な画像データの表示を行うことができる。
図27は図26に示す画像表示システムの変形例を示す図である。図27に示す画像表示システムは、画像データ処理装置10AとしてPCなどの情報処理装置30を用いている。したがって、情報処理装置30には、画像データ合成処理部12としての動作が可能なソフトウエア(画像データ合成処理プログラム)と、撮像手段制御部11としての動作が可能なソフトウエア(撮像手段制御プログラム)が組み込まれている。なお、遅延時間や制御コマンドの入力は情報処理装置30上でマウスやキーボード操作などにより行なうことが可能である。
この図27に示す画像表示システムにおいても図26の画像表示システムと同様の効果が得られる。さらに、この図27に示すような構成とすることにより、システム全体をより簡素化することができる。なお、本発明の画像表示システムは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2及び実施形態3に係る画像データ処理装置10B,10Cを用いてもよいことは勿論である。
本発明は上述の実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、カメラ1,2の設置の仕方としては、図28(A)に示すように、カメラ1,2をそれぞれの光軸が直交するように設置して、ハーフミラー4を用いて被写体3を撮像するような設置の仕方であってもよい。また、カメラは3台以上としてもよいことは勿論であり、その場合の設置に仕方としては、たとえば、図28(B)に示すように、複数のハーフミラー4を設けるような例が考えられる。
また、実施形態1〜実施形態3の各画像データ処理装置10A,10B,10Cは、撮像手段、撮像手段制御部11及び画像データ合成処理部12を含む単体装置として構成することも可能である。
図29は画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図である。図29に示す画像データ処理装置は、実施形態1に係る画像データ処理装置10A(図1参照)に対応するものであり、2台のカメラ1,2としての機能を果たす2つのCCD5a,5b、これら各CCD5a,5bに対応して設けられるCCDドライバ6a,6b、レンズ7、ハーフミラー4と、図1の撮像手段制御部11と画像データ合成処理部12を有している。
画像データ処理装置をこの図29に示すような構成とすることにより、全体の構成を簡素化することができる。なお、このように画像データ処理装置を単体構成とすることは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2及び実施形態3に係る画像データ処理装置10B,10Cについても同様に実施可能である。
また、本発明は以上説明した本発明を実現するための画像データ処理手順が記述された画像データ処理プログラムを作成し、その画像データ処理プログラムを各種の記録媒体に記録させておくこともできる。したがって、本発明は、その画像データ処理プログラムの記録された記録媒体をも含むものである。また、ネットワークからその画像データ処理プログラムを得るようにしてもよい。
実施形態1に係る画像データ処理装置10Aの構成を示す図。 実施形態1に係る画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図。 実施形態1に係る画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図。 実施形態1に係る画像データ処理装置10Aの画像データ処理手順を説明するフローチャート。 実施形態1に係る画像データ処理装置10Aの画像データ合成処理部12が行う画像データ合成処理を説明するフローチャート。 実施形態1に係る画像データ処理装置10Aの画像データ合成処理部12が行う画像データ合成処理(その1)を説明するタイムチャート。 実施形態1に係る画像データ処理装置10Aの画像データ合成処理部12が行う画像データ合成処理(その2)を説明するタイムチャート。 実施形態1に係る画像データ処理装置10Aの合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図。 実施形態2に係る画像データ処理装置10Bの構成を示す図。 実施形態2に係る画像データ処理装置10Bに用いられる画像データ合成処理部12の構成を示す図。 実施形態2に係る画像データ処理装置10Bにおける画像データ処理手順を説明するフローチャート。 実施形態2に係る画像データ処理装置10Bの画像データ合成処理部12が行う画像データ合成処理を説明するフローチャート。 画像データ記録装置13上における画像データの記録状態の一例を示す図。 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図。 実施形態3に係る画像データ処理装置10Cに用いられる撮像手段制御部11の構成を示す図。 カメラ1,2で撮像された画像データを用いてコンテンツ解析を行う際のカメラ1,2の各フレームの対応関係を説明する図。 動き検出において用いられるブロックマッチング法について説明する図。 動き量に対する遅延時間の設定例を示す図。 動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。 明るさ変化量に対する遅延時間の設定例を示す図。 明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。 動き量及び明るさ変化量を考慮した遅延時間(フレーム数)と、該遅延時間に基づいて生成された中間画像データの一例を示す図。 図22に示された遅延時間と中間画像データとに基づいて生成された合成画像データの例を示す図。 実施形態3に係る画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャート。 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理と合成画像データ生成部123が行う合成画像データ生成処理を説明するフローチャート。 実施形態4に係る画像表示システムの構成を示す図。 図26に示す画像表示システムの変形例を示す図。 カメラ1,2の設置の仕方の例を説明する図。 画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図。
符号の説明
1,2・・・カメラ、3・・・被写体、10A,10B,10C・・・画像データ処理装置、11・・・撮像手段制御部、12・・・画像データ合成処理部、13・・・画像データ記録装置、111・・・ユーザ設定情報入力部、112・・・遅延時間設定部、121,122・・・入力部、123・・・合成画像データ生成部、124・・・出力部、125・・・コンテンツ解析部

Claims (17)

  1. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部と、
    前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部と、
    を有することを特徴とする画像データ処理装置。
  2. 請求項1に記載の画像データ処理装置において、
    前記遅延時間は、所定範囲で任意に設定可能であることを特徴とする画像データ処理装置。
  3. 請求項1または2に記載の画像データ処理装置において、
    前記遅延時間は、前記合成画像データの各フレームが時間的に等間隔となるような設定が可能であることを特徴とする画像データ処理装置。
  4. 請求項1または2に記載の画像データ処理装置において、
    前記遅延時間は、前記合成画像データの各フレームが時間的に非等間隔となるような設定が可能であることを特徴とする画像データ処理装置。
  5. 請求項1〜4のいずれかに記載の画像データ処理装置において、
    前記複数の撮像手段から出力される各画像データは同じフレームレートであることを特徴とする画像データ処理装置。
  6. 請求項1〜5のいずれかに記載の画像データ処理装置において、
    前記画像データ合成処理部は、前記複数の撮像手段から出力される各画像データの位置ずれ補正、前記複数の撮像手段から出力される各画像データの色補正、前記複数の撮像手段から出力される各画像データの輝度補正の少なくとも1つの補正を行う機能を有することを特徴とする画像データ処理装置。
  7. 請求項1〜6のいずれかに記載の画像データ処理装置において、
    前記複数の撮像手段から出力される各画像データを記憶する画像データ記録装置を有し、前記画像データ合成処理部は、前記画像データ記録装置に記録された画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成することを特徴とする画像データ処理装置。
  8. 請求項1〜7のいずれかに記載の画像データ処理装置において、
    前記画像データ合成処理部は、前記合成画像データを該合成画像データに各フレームの時間長を示す情報を付加したデータフォーマットのファイルとして出力することを特徴とする画像データ処理装置。
  9. 請求項1〜7のいずれかに記載の画像データ処理装置において、
    前記画像データ合成処理部は、前記合成画像データの各フレームの時間長を示す情報を、前記合成画像データとは別のファイルとして出力することを特徴とする画像データ処理装置。
  10. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像するステップと、
    前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する生成するステップと、
    を有することを特徴とする画像データ処理方法。
  11. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像するステップと、
    前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成するステップと、
    を実行可能であることを特徴とする画像データ処理プログラム。
  12. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部、前記複数の撮像手段から前記時間差に対応する遅延時間を有して出力される各画像データを前記遅延時間に基づいて時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部を有する画像データ処理装置と、
    前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
    を有することを特徴とする画像表示システム。
  13. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部と、
    前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成する機能を有する画像データ合成処理部と、
    を有することを特徴とする画像データ処理装置。
  14. 請求項13に記載の画像データ処理装置において、
    前記コンテンツ解析は、前記複数の撮像手段から出力される各画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことを特徴とする画像データ処理装置。
  15. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像するステップと、
    前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定するステップと、
    該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成するステップと、
    を有することを特徴とする画像データ処理方法。
  16. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像するステップと、
    前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定するステップと、
    該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成するステップと、
    を実行可能であることを特徴とする画像データ処理プログラム。
  17. 同じ被写体を同一撮像範囲で撮像可能な複数の撮像手段が該複数の撮像手段間で同期を取って前記被写体を所定の時間差を有して撮像可能となるように撮像制御する撮像手段制御部、前記複数の撮像手段から前記所定の時間差を有して出力される各画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段から出力される画像データとを時間的に連続させるように合成して合成画像データを生成する機能を有する画像データ合成処理部を有する画像データ処理装置と、
    前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
    を有することを特徴とする画像表示システム。
JP2005062021A 2005-03-07 2005-03-07 画像データ処理装置 Withdrawn JP2006246307A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005062021A JP2006246307A (ja) 2005-03-07 2005-03-07 画像データ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005062021A JP2006246307A (ja) 2005-03-07 2005-03-07 画像データ処理装置

Publications (1)

Publication Number Publication Date
JP2006246307A true JP2006246307A (ja) 2006-09-14

Family

ID=37052208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005062021A Withdrawn JP2006246307A (ja) 2005-03-07 2005-03-07 画像データ処理装置

Country Status (1)

Country Link
JP (1) JP2006246307A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084919A1 (ja) * 2009-01-22 2010-07-29 株式会社 明電舎 接触力測定装置及び接触力測定方法
JP2012070336A (ja) * 2010-09-27 2012-04-05 Nikon Corp 撮影装置,撮影システムおよび撮影制御装置
JP2012138671A (ja) * 2010-12-24 2012-07-19 Kyocera Corp ステレオカメラ装置
JP2015033066A (ja) * 2013-08-06 2015-02-16 株式会社ニコン カメラシステム
US20160291387A1 (en) * 2015-04-03 2016-10-06 Kabushiki Kaisha Toshiba Medical monitor, electronic apparatus, and video display unit
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
KR101803577B1 (ko) * 2010-09-15 2017-11-30 삼성전자주식회사 동영상 생성방법 및 시스템
WO2023013108A1 (ja) * 2021-08-02 2023-02-09 日立Astemo株式会社 マルチカメラ装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084919A1 (ja) * 2009-01-22 2010-07-29 株式会社 明電舎 接触力測定装置及び接触力測定方法
JP2010169506A (ja) * 2009-01-22 2010-08-05 Meidensha Corp 接触力測定装置及び接触力測定方法
CN102292235A (zh) * 2009-01-22 2011-12-21 株式会社明电舍 接触力测量装置和接触力测量方法
KR101803577B1 (ko) * 2010-09-15 2017-11-30 삼성전자주식회사 동영상 생성방법 및 시스템
JP2012070336A (ja) * 2010-09-27 2012-04-05 Nikon Corp 撮影装置,撮影システムおよび撮影制御装置
JP2012138671A (ja) * 2010-12-24 2012-07-19 Kyocera Corp ステレオカメラ装置
JP2015033066A (ja) * 2013-08-06 2015-02-16 株式会社ニコン カメラシステム
US20160291387A1 (en) * 2015-04-03 2016-10-06 Kabushiki Kaisha Toshiba Medical monitor, electronic apparatus, and video display unit
US10036908B2 (en) * 2015-04-03 2018-07-31 Toshiba Visual Solutions Corporation Medical monitor, electronic apparatus, and video display unit
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
WO2023013108A1 (ja) * 2021-08-02 2023-02-09 日立Astemo株式会社 マルチカメラ装置

Similar Documents

Publication Publication Date Title
JP2006246307A (ja) 画像データ処理装置
US8428121B2 (en) Image pick-up apparatus for shooting and reproducing a moving image
JP4886888B2 (ja) 画像処理装置及びその制御方法
JP4556195B2 (ja) 撮像装置、動画再生装置及びそのプログラム
JP4924228B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009111518A (ja) 撮像装置、画像再生装置及びそのプログラム、画像ファイルのデータ構造
JP2010258768A (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP2007228099A (ja) 撮像装置
JP5938655B2 (ja) 再生装置、撮像装置およびプログラム
JP2000134549A (ja) 固体撮像装置
JP5105844B2 (ja) 撮像装置及び方法
JP2006203334A (ja) 画像記録装置及びその制御方法、並びにプログラム
JP2010258917A (ja) 撮影装置、プログラム、及び撮影方法
US20050068424A1 (en) Image pickup apparatus and control unit therefor
JP2007221673A (ja) 動画像ファイル生成プログラムおよび電子カメラ
JP5012985B2 (ja) 撮像装置及びそのプログラム
JP4561452B2 (ja) 撮像装置、映像出力方法および映像再生プログラム
JP2006270160A (ja) 画像データ処理装置
JP2008005427A (ja) 撮像装置および撮像方法、並びにプログラム
JP2004158938A (ja) 撮像装置
JP6103850B2 (ja) 表示装置およびその制御方法
JP7110985B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006080651A (ja) 撮像装置及びその制御方法
JP2006270158A (ja) 画像データ処理装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070404

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513