JP2012209896A - Image processor, imaging apparatus and program - Google Patents
Image processor, imaging apparatus and program Download PDFInfo
- Publication number
- JP2012209896A JP2012209896A JP2011075949A JP2011075949A JP2012209896A JP 2012209896 A JP2012209896 A JP 2012209896A JP 2011075949 A JP2011075949 A JP 2011075949A JP 2011075949 A JP2011075949 A JP 2011075949A JP 2012209896 A JP2012209896 A JP 2012209896A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- imaging
- viewpoint
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, and a program.
立体撮影ができる立体カメラが知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開平10−70740号公報
A stereoscopic camera capable of stereoscopic shooting is known (for example, see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-10-70740
撮影した位置を視点とする画像しか提供することができないという課題があった。 There has been a problem that only an image having the viewpoint of the photographed position can be provided.
本発明の第1の態様においては、画像処理装置は、異なる位置で撮像された複数の画像の画像データを取得する画像データ取得部と、複数の画像の撮像位置の相対的な位置関係を取得する位置関係取得部と、複数の画像の撮像位置とは異なる位置に、視点位置を設定する視点位置設定部と、位置関係および視点位置に基づいて複数の画像からそれぞれ選択した複数の部分領域の画像データを用いて、視点位置を視点とする画像を生成する画像生成部とを備える。 In the first aspect of the present invention, the image processing apparatus acquires an image data acquisition unit that acquires image data of a plurality of images captured at different positions and a relative positional relationship between the imaging positions of the plurality of images. A position relationship acquisition unit, a viewpoint position setting unit that sets a viewpoint position at a position different from the imaging positions of the plurality of images, and a plurality of partial areas respectively selected from the plurality of images based on the position relationship and the viewpoint position. And an image generation unit that generates an image having the viewpoint position as a viewpoint using the image data.
本発明の第2の態様においては、撮像装置は、上記画像処理装置と、複数の画像を撮像する撮像部とを備える。 In a second aspect of the present invention, an imaging device includes the image processing device and an imaging unit that captures a plurality of images.
本発明の第3の態様においては、プログラムは、異なる位置で撮像された複数の画像の画像データを取得する画像データ取得ステップと、複数の画像の撮像位置の相対的な位置関係を取得する位置関係取得ステップと、複数の画像の撮像位置とは異なる位置に、視点位置を設定する視点位置設定ステップと、位置関係および視点位置に基づいて複数の画像からそれぞれ選択した複数の部分領域の画像データを用いて、視点位置を視点とする画像を生成する画像生成ステップとをコンピュータに実行させる。 In the third aspect of the present invention, the program acquires an image data acquisition step for acquiring image data of a plurality of images captured at different positions, and a position for acquiring a relative positional relationship between the imaging positions of the plurality of images. A relationship acquisition step, a viewpoint position setting step for setting a viewpoint position at a position different from the imaging positions of the plurality of images, and image data of a plurality of partial areas respectively selected from the plurality of images based on the positional relationship and the viewpoint position Is used to cause the computer to execute an image generation step of generating an image with the viewpoint position as the viewpoint.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る撮像装置100のシステム構成図を示す。撮像装置100は、ズームレンズ、フォーカスレンズ等により構成される光学系101を有する。被写体光は光軸に沿って光学系101に入射し、シャッタ102を通過して撮像素子103の受光面に被写体像として結像する。
FIG. 1 is a system configuration diagram of an
撮像素子103は、被写体像である光学像を光電変換する素子である。撮像素子103としては、例えばCCD、CMOSセンサが用いられる。撮像素子103で光電変換された被写体像は、電荷として読み出されてアナログ信号としてA/D変換器105へ転送され、A/D変換器105でデジタル信号に変換される。撮像素子103の電荷読み出し、シャッタ102の駆動等の制御は、システム制御部114の同期制御を受けたタイミング発生部112が供給するクロック信号により制御される。
The
デジタル信号に変換された被写体像は、画像データとして順次処理される。A/D変換器105によりデジタル信号に変換された画像データは、画像処理部107へ引き渡されて処理される。具体的には、A/D変換器105によりデジタル信号に変換された画像データは、メモリ制御部106の制御により、内部メモリ108に一旦記憶される。
The subject image converted into the digital signal is sequentially processed as image data. The image data converted into a digital signal by the A /
内部メモリ108は、高速で読み書きのできるランダムアクセスメモリであり、例えばDRAM、SRAMなどが用いられる。内部メモリ108は、連写撮影、動画撮影において高速に連続して画像データが生成される場合に、画像処理の順番を待つバッファメモリとしての役割を担う。また、内部メモリ108は、画像処理部107が行う画像処理、圧縮処理において、ワークメモリとしての役割も担う。特に、本実施形態において、画像処理部107は、連写撮影した複数の画像から、後述する接近画像を生成する処理を行う。したがって、内部メモリ108は、これらの役割を担うに相当する十分なメモリ容量を備える。メモリ制御部106は、いかなる作業にどれくらいのメモリ容量を割り当てるかを制御する。
The
画像処理部107は、設定されている撮像モード、ユーザからの指示に従って、画像データを規格化された画像フォーマットの画像データに変換する。例えば、撮像装置100の撮像モードの一部として静止画撮像モードおよび動画撮像モードを有しており、静止画撮像モードで静止画像としてJPEGファイルを生成する場合、画像処理部107は、色変換処理、ガンマ処理、ホワイトバランス補正等の画像処理を行った後に適応離散コサイン変換等を施して圧縮処理を行う。また、例えば動画撮像モードで動画像としてのMPEGファイル、H.264ファイルを生成する場合、画像処理部107は、生成された連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化、量子化、エントロピー符号化等を施して圧縮処理を行う。フレーム間符号化には、動きベクトルを算出する処理が含まれる。画像処理部107は、ASIC等の演算装置によって実装されてよい。
The
変換された画像データは再び内部メモリ108に保管される。画像処理部107によって処理された静止画像データ、動画像データは、システム制御部114の制御により、内部メモリ108から記録媒体IF111を介して、不揮発性メモリである記録媒体122に記録される。記録媒体122は、フラッシュメモリ等により構成される。記録媒体122は、撮像装置100の本体に対して着脱可能な不揮発性メモリであってよい。
The converted image data is stored in the
画像処理部107は、記録用に処理される画像データに並行して、表示用の画像データを生成する。画像処理部107は、記録用に処理される画像データに並行して、後述する変倍処理を施すことによって表示用の画像データを生成する。生成された表示用の画像データは、表示制御部109の制御に従って、液晶パネル等で構成される表示部110に表示される。また、表示制御部109は、画像の表示と共に、もしくは画像を表示することなく、撮像装置100の各種設定に関する様々なメニュー項目を、表示部110に表示することができる。
The
撮像装置100は、上記の画像処理における各々の要素も含めて、システム制御部114により直接的または間接的に制御される。システム制御部114は、MPU等の演算装置によって実装されてよい。システム制御部114は、電気的に消去・記録可能な不揮発性メモリであるシステムメモリを有する。システムメモリは、EEPROM(登録商標)等により構成される。システム制御部114が有するシステムメモリは、撮像装置100の動作時に必要な定数、変数、プログラム等を、撮像装置100の非動作時にも失われないよう記録している。システム制御部114は、定数、変数、プログラム等を適宜内部メモリ108に展開して、撮像装置100の制御に利用する。
The
撮像装置100は、ユーザからの操作を受け付ける操作部材120を備えている。システム制御部114は、操作部材120が操作されたことを検知する。システム制御部114は、検出された操作に応じた動作を実行する。例えば、操作部材120としてのレリーズスイッチが操作されたことを検知したときには、システム制御部114は、被写体像を光電変換して画像データを生成する一連の撮像動作を実行する。
The
加速度センサ124は、撮像装置100の加速度を検出して、加速度情報をシステム制御部114に供給する。システム制御部114は、加速度センサ124が検出した加速度情報を用いて、撮像時の撮像装置100の位置を検出する。本実施形態では、システム制御部114は、連写撮影で撮影した各画像の撮像位置を、加速道情報を用いて算出する。システム制御部114および加速度センサ124は、複数の画像を撮像した位置を検出する位置検出部として機能する。ここで、各画像の撮像位置は、撮像位置の相対的な位置関係を示す。すなわち、システム制御部114および加速度センサ124は、複数の画像の撮像位置の相対的な位置関係を取得する位置関係取得部として機能する。
The acceleration sensor 124 detects the acceleration of the
光学系101は、レンズ制御部113によって制御される。レンズ制御部113は、例えば、ユーザの指示に応じてズームレンズを駆動し、被写体像の画角を変更する。また、レンズ制御部113は、AF情報に基づいてフォーカスレンズを駆動し、被写体像を撮像素子103の受光面上で合焦させる。レンズ制御部113は、操作部材120等を通じてユーザによって指定された被写体に対して、オートフォーカスの制御を実行してよい。また、レンズ制御部113は、画像処理部107が処理した画像データまたは測光センサの出力を解析して露出値を算出する。レンズ制御部113は、算出した露出値に従って、光学系101が有する絞りの制御信号を出力する。
The
図2は、撮像装置100の利用環境の一例を示す。撮像装置100は、異なる位置から撮影した複数の画像の画像データを用いて、いずれの撮像位置とも異なる位置を視点とする画像の画像データを生成する。例えば、撮像装置100は、被写体に近寄った位置を視点とする画像の画像データを生成する。本実施形態の説明において、被写体に近寄った位置を視点とする画像を、接近画像と呼ぶ。
FIG. 2 shows an example of the usage environment of the
例えば、ユーザは、物体200から一定距離離れた位置から、撮像装置100を用いて連写撮影する。例えば、光学系101の光軸に略垂直なxy面内で撮像装置100を移動させながら、連写撮影する。これにより、撮像装置100は、xy面内の異なる位置で撮像した画像データを得ることができる。撮像装置100は、連写撮影中に、xy面内の位置を撮像位置として検出する。撮像装置100は、例えば連写撮影中に加速度センサ124から出力された加速度情報に基づき、各画像を撮像した撮像位置を算出する。なお、本実施形態において、x方向は左右方向に対応し、y方向は上下方向に対応する。
For example, the user performs continuous shooting using the
撮像装置100は、接近画像を生成する指示をユーザから受け付けると、連写撮影で得た複数の画像データを用いて、指定された位置を視点とする接近接近画像250の画像データを生成して表示する。
When receiving an instruction for generating an approach image from the user, the
本図の例では、実線で示した撮像装置100の位置からは、物体200aは遮蔽物350aに遮られて見ることができない。また、物体200cの一部は、遮蔽物350bに視野を遮られてれて見ることができない。しかし、画像処理部107は、破線で示した撮像装置100の位置から撮像した画像を部分的に使用することで、物体200aの一部および物体200cが写り込んだ接近接近画像250を生成する。
In the example of this figure, the
図3は、被写体、撮像位置および視点位置の位置関係を模式的に示す。図4は、連写撮影で得られた撮像画像の一部および接近画像の一例を模式的に示す。 FIG. 3 schematically shows the positional relationship among the subject, the imaging position, and the viewpoint position. FIG. 4 schematically shows an example of a part of a captured image and an approach image obtained by continuous shooting.
撮像装置100は、一定の画角θで連写撮影するものとする。撮像装置100が位置P0にある場合、撮像装置100は範囲310a〜310bを撮影することができる。位置P0からでは、遮蔽物350aおよび350bよりも遠くに位置する物体は、位置A1〜A2の範囲しか撮像することができない。したがって、位置P0を撮像位置とする画像400には、物体200aは写っていない。また、画像400には、物体200cの一部しか写っていない。
The
一方、位置P0よりも被写体に近い位置P0'から視野角θで見た場合、範囲320a〜320bに対応する位置B1〜B2の範囲の物体を見ることができる。したがって、位置P0'からは、物体200aの一部を見ることができる。また、位置P0'からは、物体200cを見ることができる。したがって、単に画像400を拡大するだけでは、位置P0'を視点とする画像を得たことにはならない。
On the other hand, when viewed at a viewing angle θ from a position P0 ′ closer to the subject than the position P0, an object in a range of positions B1 to B2 corresponding to the
ここで、位置P0よりも左方の位置P1から撮影した画像410には、位置P0'から位置B1に向かう方向で見たときの被写体像が含まれる。具体的には、画像410には、物体200cの像が含まれる。また、位置P0よりも右方の位置P2から撮影した画像420には、位置P0'から位置B2に向かう方向で見たときの被写体像が含まれる。具体的には、画像410には、物体200aの一部の像が含まれる。
Here, the
そこで、画像処理部107は、画像400から中央の部分領域402を切り出す。また、画像410の右方の部分領域412を切り出す。また、画像420の左方の部分領域422を切り出す。そして画像処理部107は、切り出した部分領域の画像をつなぎ合わせて、位置P0'を視点とする接近接近画像250を生成する。
Therefore, the
なお、位置P0から被写体に近づいた距離である接近距離Δzが与えられると、仮想の視点となる位置P0'が定まる。そして、位置P0'からの視野角θが与えられると、接近接近画像250の右方の部分領域の画像を提供する位置P1と、接近画像250の左方の部分領域の画像を提供する位置P2が定まる。例えば、位置P0からx軸の両方向にΔz×tan(θ/2)だけ離れた点を、P1およびP2とすることができる。画像処理部107は、位置P1からP2までの範囲内に撮像位置を持つ複数の画像を選択して、接近接近画像250を生成する。具体的には、画像処理部107は、視点P0'からの複数の視線方向のそれぞれについて、視線方向に一致する方向で撮像された部分領域を持つ画像を、撮像位置に基づいて選択して、当該部分領域を切り出す。そして画像処理部107は、切り出した部分画像を、接近画像250の対応する画像領域の部分画像として適用する。
When an approach distance Δz that is a distance approaching the subject from the position P0 is given, a position P0 ′ that is a virtual viewpoint is determined. When the viewing angle θ from the position P0 ′ is given, a position P1 that provides an image of the right partial area of the approaching
図5は、画像から切り出す部分領域の一例を示す。画像処理部107は、画像400の中央の部分画像、画像410の右端の部分画像および画像420の左端の部分画像を、それぞれ接近画像250の中央の画像領域、接近画像250の右端の画像領域、接近画像250の左端の画像領域の部分画像として適用する。
FIG. 5 shows an example of a partial region cut out from the image. The
画像500a、510aおよび520aは、画像400、410および420よりも上方の位置から撮像して得られた画像である。画像500a、510aおよび520aは、接近画像250の下方の画像領域の画像として適用される。具体的には、画像処理部107は、画像500aの中央下端の部分画像、画像510aの右下端の部分画像および画像520aの左下端の部分画像を、それぞれ接近画像250の中央下端の画像領域、接近画像250の右下端の画像領域、接近画像250の左下端の画像領域の部分画像として適用する。
画像500b、510bおよび520bは、画像400、410および420よりも下方の位置から撮影して得られた画像である。画像500b、510bおよび520bは、接近画像250の上方の画像領域の画像として適用される。具体的には、画像処理部107は、画像500bの中央上端の部分画像、画像510bの右上端の部分画像および画像520bの左上端の部分画像を、それぞれ接近画像250の中央上端の画像領域、接近画像250の右上端の画像領域、接近画像250の左上端の画像領域の部分画像として適用する。
本図では、複数の画像のうち、中央の画像400の他に、左端、右端、上端および下端の部分画像を提供する9個の画像を取り上げて、それぞれから切り出した部分画像を接近画像250の対応する部分画像として適用することを説明した。画像処理部107は、これら9個の画像の他、これらの間の位置から撮像した画像からも同様に部分画像を切り出して、接近画像250の対応する部分画像として適用する。
In this figure, among the plurality of images, in addition to the
なお、画像処理部107は、被写体に接近した距離に応じて切り出した部分画像を拡大して、接近画像250の対応する部分画像として適用してよい。画像処理部107は、被写体距離と接近距離とから定まる拡大率に従って、切り出した部分画像を拡大してよい。画像処理部107は、画像データから物体像の視差ズレを特定し、視差ズレに基づいて被写体距離を算出してよい。このように、画像処理部107は、複数の画像の撮像位置と、画像内の被写体の位置とに基づいて、被写体距離を特定することができる。なお、図3の例では、被写体となる物体200、遮蔽物350および360は、互いの近傍に位置する。このような場合、部分領域毎に被写体距離を算出しなくとも、一定の拡大率を適用できる場合がある。
Note that the
以上に説明したように、撮像装置100によれば、撮像位置よりも被写体に接近した位置に自由に視点位置を設定して、その視点位置からの視野を正しく反映した接近画像を生成することができる。
As described above, according to the
図6は、多視点画像を生成するための視点位置の一例を示す。本図において、位置P0'は左眼の視点位置に対応し、位置P0' 'は右眼の視点位置に対応する。例えば、P0''の位置を、人間の両眼の間隔として予め定められた距離だけP0'からx方向にシフトした位置に設定する。例えば、P0''の位置を、P0'から基線長65mmだけx方向にシフトした位置に設定する。位置P0'が左眼の視点位置に対応する場合、左眼に提示すべき画像である左眼用画像として接近画像250を適用することができる。
FIG. 6 shows an example of viewpoint positions for generating a multi-viewpoint image. In the drawing, the position P0 ′ corresponds to the viewpoint position of the left eye, and the position P0 ′ ′ corresponds to the viewpoint position of the right eye. For example, the position of P0 ″ is set to a position shifted in the x direction from P0 ′ by a predetermined distance as the distance between human eyes. For example, the position of P0 ″ is set to a position shifted in the x direction by a base line length of 65 mm from P0 ′. When the position P0 ′ corresponds to the viewpoint position of the left eye, the
右眼用画像を生成する場合、接近画像250と同様に、位置P0''を視点とする範囲620a〜620bに対応する位置P3およびP4を決定する。そして、画像処理部107は、位置P3からP4までの範囲内に撮像位置を持つ複数の画像を選択して、右眼用画像を生成する。具体的には、画像処理部107は、視点P0''からの複数の視線方向のそれぞれについて、視線方向に一致する方向で撮像された部分領域を持つ画像を、撮像位置に基づいて選択して、当該部分領域を切り出す。そして画像処理部107は、切り出した部分画像を、右眼用画像の対応する画像領域の部分画像として適用する。
When generating the right-eye image, as in the
表示部110は、左眼用画像をユーザの左眼に提示し、右眼用画像をユーザの右眼に提示してよい。例えば表示部110は、パララックスバリア方式等を適用して左眼用画像および右眼用画像を表示してよい。
The
図7は、撮像装置100が連写撮影する場合の処理フローを示す。本フローは、撮像装置100の動作モードが、接近画像を生成するための連写撮影モードに設定された場合に、開始される。例えば、動作モードを本連写撮影モードに設定する操作が操作部材120になされたことをシステム制御部114が検出した場合に、開始される。
FIG. 7 shows a processing flow when the
ステップS702において、システム制御部114は、連写撮影で適用する撮像条件を設定する。システム制御部114は、連写撮影が終了するまで、一定のズーム値、露出値および絞り値で撮影するようレンズ制御部113を設定する。また、システム制御部114は、一定のホワイトバランス設定で撮像信号を前処理させる。このように、撮像装置100は、本連写撮影モードに設定されている場合、撮像条件が固定された状態で連写撮影を行う。このため、撮像される画像の明るさ、ぼけ等の条件を均一化することができる。また、システム制御部114は、被写界深度が予め定められた値よりも長くなるよう、絞り値を予め定められた値以上に設定してよい。
In step S702, the
ステップS704において、システム制御部114は連写撮影の開始指示を待って、ステップS706に処理を進める。例えば、システム制御部114は、操作部材120の一部としてのレリーズボタンが押し込まれたことを検出した場合に、ステップS706に処理を進める。
In step S704, the
ステップS706において、システム制御部114が撮像装置100の各部を制御して撮影を行う。ステップS708において、システム制御部114は、撮像制御に同期して、加速度センサ124で検出された加速度を時間積分して、撮像位置を算出する。具体的には、システム制御部114は、xy面内の加速度に基づいてxy面内の撮像位置を算出してよい。ステップS710において、システム制御部114は、内部メモリ108または記録媒体122の少なくとも一方に、画像データを撮像位置に対応づけて記録する。
In step S <b> 706, the
ステップS712において、システム制御部114は、連写撮影を終了するか否かを判断する。例えば、システム制御部114は、操作部材120に対して連写撮影を停止する旨の操作がなされたことを検出した場合に、連写撮影を終了する旨を判断する。なお、システム制御部114は、撮像装置100の移動が終了したことを検出した場合に、連写撮影を終了する旨を判断してもよい。例えば、撮像装置100が実質的に静止した状態が予め定められた期間続いた場合に、連写撮影を終了する旨を判断してもよい。システム制御部114は、撮像装置100の加速度が予め定められた閾値より小さく、かつ、加速度の時間積分値が予め定められた閾値より小さい場合に、撮像装置100が実質的に静止した状態にあると判断してよい。
In step S712, the
連写撮影を終了しないと判断した場合には、ステップS706に処理を進めて、次の画像を撮像する。連写撮影を終了すると判断した場合には、ステップS714に処理を進める。すなわち、連写撮影を終了する旨が判断されるまで、連続して被写体を撮像することにより、連写撮影を行う。 If it is determined not to end the continuous shooting, the process proceeds to step S706 to capture the next image. If it is determined that continuous shooting is to be terminated, the process proceeds to step S714. That is, the continuous shooting is performed by continuously capturing the subject until it is determined that the continuous shooting is to be ended.
ステップS714において、撮像装置100は、全体画像を生成して表示する。例えば、画像処理部107は、連写撮影で得た複数の画像の画像データから、1つのパノラマ画像の画像データを生成する。具体的には、画像処理部107は、テンプレートマッチング処理等により、複数の画像内に同一の被写体が写り込んでいる領域を特定する。そして、画像処理部107は、被写体像を繋ぎ合わせることにより、パノラマ画像の画像データを生成する。そして、表示部110が、生成したパノラマ画像の画像データを表示する。
In step S714, the
続いて、ステップS716において、接近画像を生成して表示する。接近画像を生成するフローについては、図9に関連して説明する。 Subsequently, in step S716, an approach image is generated and displayed. The flow for generating the approach image will be described with reference to FIG.
図8は、全体画像の表示例を示す。表示部110は、パノラマ画像800とともに、接近可能距離を示す文字810を表示する。接近可能距離は、視点位置を被写体に接近させることができる最大の距離を示す。接近可能距離は、連写撮影で得た各画像の撮像位置に基づいて算出することができる。図3等に関連して説明したように、位置P0'を視点とする接近画像を生成するためには、P0から離れた位置P1、P2等から撮像した画像を用いる。したがって、連写撮影時に撮像装置100を大きく移動させるほど、被写体のより近くに視点位置を設定することが可能になる。システム制御部114は、連写撮影で得た各画像の撮像位置に基づいて接近可能距離を算出して、接近可能距離を示す文字810を表示部110に表示させる。
FIG. 8 shows a display example of the entire image. The
撮像装置100は、操作部材120の一部としての操作ダイヤル850を介して、視点位置を設定する指示を受け付ける。具体的には、システム制御部114は、xy面内の位置の設定と、z方向の位置の設定とを、操作ダイヤル850を介して受け付ける。例えば、操作ダイヤル850は、予め定められた上下左右の4つのキー位置のいずれかを押し込むことが可能な4方向キーとして機能する。システム制御部114は、操作ダイヤル850に対して押し込み操作されたキー位置を検出することで、対応する方向にxy面内の視点位置をシフトする指示を受け付ける。例えば、左右方向のキー位置がx方向の移動に対応し、上下方向のキー位置がy方向の移動に対応する場合、左方向のキー位置が押し込まれたときは、画面の左方向に予め定められた量だけ視点位置を移動させ、上方向のキー位置が押し込まれた場合、画面の上方向に予め定められた量だけ視点位置を移動させる旨を検出する。画像処理部107は、設定された視点位置が画像領域の中央に位置するよう、指定された量だけパノラマ画像800をシフトさせる。
The
また、操作部材120の一部としての操作ダイヤル850を回転させることにより、被写体に近づく距離を設定する。例えば、システム制御部114は、操作ダイヤル850が時計回りに回転された場合に、回転量に応じた距離だけ被写体に近い位置に、視点位置を設定する。したがって、操作ダイヤル850を時計回りに回転させることで、視点位置を被写体に近づけることができ、操作ダイヤル850を反時計回りに回転させることで、視点位置を被写体から遠ざけることができる。すなわち、ユーザは、操作ダイヤル850の回転を調節することで、被写体に接近した距離を調節することができる。システム制御部114は、操作ダイヤル850の回転量に基づいて接近距離Δzを算出して、当該距離を示す文字820を表示する。
Further, by rotating the
図9は、接近画像を生成するフローの一例を示す。ステップS902において、システム制御部114はxy面内の視点位置を取得する。具体的には、図8に関連して説明したように、システム制御部114は、4方向キーとして機能する操作ダイヤル850を介して、xy面内の視点位置を設定する指示を取得する。
FIG. 9 shows an example of a flow for generating an approach image. In step S902, the
ステップS904において、z方向の接近距離を取得する。図8に関連して説明したように、システム制御部114は、ダイヤルキーとして機能する操作ダイヤル850を介して、z方向の視点位置を設定する指示を取得する。具体的には、システム制御部114は、操作ダイヤル850の回転量に基づいて接近距離Δzを算出する。
In step S904, the approach distance in the z direction is acquired. As described with reference to FIG. 8, the
ステップS906において、画像処理部107は、xy面内の視点位置および接近距離Δz、ならびに画像の撮像位置に基づいて、複数の画像の中から、接近画像を生成するのに用いる画像データを選択する。例えば、図3の例では、位置P1〜P2の範囲に撮像位置を持つ画像を選択する。そして、ステップS908において、画像処理部107は、選択した複数の画像のそれぞれについて、いずれの部分領域を接近画像の部分領域に適用するかを各画像の撮像位置に基づいて設定する。
In step S906, the
続いて、ステップS910において、画像処理部107は、選択した複数の画像のそれぞれから部分領域を切り出す。ステップS912において、画像処理部107は、切り出した部分領域の画像を、接近画像の対応する画像領域の画像として適用する。例えば、図4、5等に関連して説明したように、切り出した部分画像の画像データを、接近画像において視線方向が対応する画像領域の画像データとして適用する。これにより、接近画像の画像データが内部メモリ108内に生成される。なお、接近画像として立体視用の画像を生成する場合、ステップS906からステップS912の処理を、左眼用画像および右眼用画像をそれぞれ生成すべく適用してよい。
Subsequently, in step S910, the
ステップS914において、システム制御部114は、接近画像の画像データを表示部110に表示させて、処理を終了する。
In step S914, the
以上に説明したように、撮像装置100は、異なる位置で撮像された複数の画像の画像データを取得した場合に、複数の画像の撮像位置とは異なる位置に、視点位置を設定する。そして、撮像装置100は、当該位置関係および視点位置に基づいて複数の画像からそれぞれ選択した複数の部分領域の画像データを用いて、当該視点位置を視点とする画像を生成することができる。以上の説明において、撮像装置100の動作を分かり易く説明すべく、撮像装置100の画角を固定とした。しかし、画角は可変でもよい。画角が可変である場合、画角を考慮して接近画像を生成してよい。すなわち、撮像装置100は、複数の画像が撮像された画角、撮像位置の位置関係および視点位置に基づいて、複数の画像のそれぞれから選択すべき部分領域の位置を特定して、特定した位置の部分領域の画像データを用いて、視点位置を視点とする画像を生成する。具体的には、撮像装置100は、複数の画像が撮像された画角、視点位置を視点とする画像の画角、位置関係および視点位置に基づいて、複数の画像のそれぞれから選択すべき部分領域の位置を特定し、特定した位置の部分領域の画像データを用いて、視点位置を視点とする画像を生成する。
As described above, when the
なお、以上の説明では、多視点画像の一例として、例えば立体視用の左眼用画像および右眼用画像を生成するとした。しかし、撮像装置100による多視点画像は、立体視用途に限らず、計測用途、観測用途等、種々の用途に適用できる。例えば、衛星から撮影した複数の画像から、例えば観測用途としての多視点画像を生成する場面に適用できる。
In the above description, as an example of a multi-viewpoint image, for example, a left-eye image and a right-eye image for stereoscopic viewing are generated. However, the multi-viewpoint image by the
本実施形態の撮像装置100に関連して説明した処理は、撮像装置100の各部、例えばシステム制御部114等が、プログラムに従って動作することにより、実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体を読み込むことによって、当該プログラムをロードすることができる。
The processing described in relation to the
本実施形態において、撮像装置100を取り上げて、画像処理装置の一例としての動作を説明した。撮像装置としては、レンズ交換式の一眼レフカメラ、コンパクトデジタルカメラ、ミラーレス一眼カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置、撮像機能を有する人工衛星等、撮像機能を有する機器を適用の対象とすることができる。しかし、画像処理装置は、パーソナルコンピュータ、テレビ、ビデオ、デジタルフォトフレーム、ゲーム機器等の娯楽装置等の電子機器として実現されてよい。
In this embodiment, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
100 撮像装置、101 光学系、102 シャッタ、103 撮像素子、105 A/D変換器、106 メモリ制御部、107 画像処理部、108 内部メモリ、109 表示制御部、110 表示部、111 記録媒体IF、112 タイミング発生部、113 レンズ制御部、114 システム制御部、120 操作部材、122 記録媒体、124 加速度センサ、200 物体、400、410、420、500、510、520 画像、250 接近画像、310、620 範囲、350 遮蔽物、402、412、422 部分領域、850 操作ダイヤル、800 パノラマ画像、810、820 文字
DESCRIPTION OF
Claims (14)
前記複数の画像の撮像位置の相対的な位置関係を取得する位置関係取得部と、
前記複数の画像の撮像位置とは異なる位置に、視点位置を設定する視点位置設定部と、
前記位置関係および前記視点位置に基づいて前記複数の画像からそれぞれ選択した複数の部分領域の画像データを用いて、前記視点位置を視点とする画像を生成する画像生成部と
を備える画像処理装置。 An image data acquisition unit that acquires image data of a plurality of images captured at different positions;
A positional relationship acquisition unit that acquires a relative positional relationship of imaging positions of the plurality of images;
A viewpoint position setting unit that sets a viewpoint position at a position different from the imaging positions of the plurality of images;
An image processing apparatus comprising: an image generation unit configured to generate an image with the viewpoint position as a viewpoint, using image data of a plurality of partial areas respectively selected from the plurality of images based on the positional relationship and the viewpoint position.
請求項1に記載の画像処理装置。 The image generation unit specifies a position of a partial region to be selected from each of the plurality of images based on an angle of view at which the plurality of images are captured, the positional relationship, and the viewpoint position. The image processing apparatus according to claim 1, wherein an image having the viewpoint position as a viewpoint is generated using image data of a partial area.
請求項2に記載の画像処理装置。 The image generation unit should select from each of the plurality of images based on an angle of view at which the plurality of images are captured, an angle of view of an image with the viewpoint position as a viewpoint, the positional relationship, and the viewpoint position. The image processing apparatus according to claim 2, wherein a position of the partial area is specified, and an image having the viewpoint position as a viewpoint is generated using image data of the partial area at the specified position.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the viewpoint position setting unit sets a viewpoint position that is closer to the subject than the imaging positions of the plurality of images.
請求項4に記載の画像処理装置。 The viewpoint position setting unit acquires distance information indicating a distance from the imaging positions of the plurality of images to the subject from the user, and based on the acquired distance information, the viewpoint position setting unit sets the subject more than the imaging positions of the multiple images The image processing apparatus according to claim 4, wherein a near viewpoint position is set.
をさらに備え、
前記画像生成部は、前記被写体距離および前記接近すべき距離に基づいて、前記視点位置を視点とする画像を生成する
請求項5に記載の画像処理装置。 A distance acquisition unit that identifies a subject distance, which is a distance to the subject, based on the imaging positions of the plurality of images and the position of the subject in the image;
The image processing apparatus according to claim 5, wherein the image generation unit generates an image having the viewpoint position as a viewpoint based on the subject distance and the distance to be approached.
前記複数の画像を撮像する撮像部と
を備える撮像装置。 The image processing apparatus according to any one of claims 1 to 6,
An imaging apparatus comprising: an imaging unit that captures the plurality of images.
をさらに備え、
前記位置関係取得部は、前記位置検出部が検出した位置に基づいて、前記相対的な位置関係を取得する
請求項7に記載の撮像装置。 A position detection unit that detects a position at which the imaging unit images the plurality of images;
The imaging apparatus according to claim 7, wherein the positional relationship acquisition unit acquires the relative positional relationship based on the position detected by the position detection unit.
請求項7または8に記載の撮像装置。 The imaging device according to claim 7 or 8, wherein the imaging unit captures an image with an aperture larger than a predetermined value.
請求項7から9のいずれか一項に記載の撮像装置。 The imaging device according to any one of claims 7 to 9, wherein the imaging unit captures the plurality of images without changing imaging conditions.
請求項10に記載の撮像装置。 The imaging device according to claim 10, wherein the imaging unit captures the plurality of images without changing a zoom value.
請求項10に記載の撮像装置。 The imaging device according to claim 10, wherein the imaging unit captures the plurality of images without changing an exposure setting.
請求項10に記載の撮像装置。 The imaging device according to claim 10, wherein the imaging unit captures the plurality of images without changing a white balance setting.
前記複数の画像の撮像位置の相対的な位置関係を取得する位置関係取得ステップと、
前記複数の画像の撮像位置とは異なる位置に、視点位置を設定する視点位置設定ステップと、
前記位置関係および前記視点位置に基づいて前記複数の画像からそれぞれ選択した複数の部分領域の画像データを用いて、前記視点位置を視点とする画像を生成する画像生成ステップと
をコンピュータに実行させるプログラム。 An image data acquisition step of acquiring image data of a plurality of images taken at different positions;
A positional relationship acquisition step of acquiring a relative positional relationship of imaging positions of the plurality of images;
A viewpoint position setting step of setting a viewpoint position at a position different from the imaging positions of the plurality of images;
A program for causing a computer to execute an image generation step of generating an image having the viewpoint position as a viewpoint, using image data of a plurality of partial areas respectively selected from the plurality of images based on the positional relationship and the viewpoint position .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075949A JP2012209896A (en) | 2011-03-30 | 2011-03-30 | Image processor, imaging apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075949A JP2012209896A (en) | 2011-03-30 | 2011-03-30 | Image processor, imaging apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012209896A true JP2012209896A (en) | 2012-10-25 |
Family
ID=47189265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011075949A Withdrawn JP2012209896A (en) | 2011-03-30 | 2011-03-30 | Image processor, imaging apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012209896A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170168767A1 (en) * | 2015-12-14 | 2017-06-15 | International Business Machines Corporation | Wearable computing eyeglasses that provide unobstructed views |
-
2011
- 2011-03-30 JP JP2011075949A patent/JP2012209896A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170168767A1 (en) * | 2015-12-14 | 2017-06-15 | International Business Machines Corporation | Wearable computing eyeglasses that provide unobstructed views |
US9690534B1 (en) * | 2015-12-14 | 2017-06-27 | International Business Machines Corporation | Wearable computing eyeglasses that provide unobstructed views |
US9958678B2 (en) | 2015-12-14 | 2018-05-01 | International Business Machines Corporation | Wearable computing eyeglasses that provide unobstructed views |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5789793B2 (en) | Three-dimensional imaging device, lens control device, and program | |
JP5931206B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
JP5665013B2 (en) | Image processing apparatus, image processing method, and program | |
KR20140000192A (en) | Portrait image synthesis from multiple images captured on a handheld device | |
JP2009200560A (en) | Imaging apparatus, imaging method, and program | |
US20160330366A1 (en) | Image processing device and method, and program | |
JP7009142B2 (en) | Image pickup device and image processing method | |
US9288472B2 (en) | Image processing device and method, and image capturing device | |
JP2015216485A (en) | Imaging device, control method of imaging device, program, and storage medium | |
JP2011199478A (en) | Imaging device, display control method therefor, and 3d information obtaining system | |
JP2014164172A (en) | Imaging apparatus and program | |
JP2014127965A (en) | Image processing apparatus and image processing method | |
JP2011029701A (en) | Stereoscopic image display apparatus, method, program, and imaging apparatus | |
JPWO2012002017A1 (en) | Imaging apparatus, program, and imaging method | |
JP4866317B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP6155471B2 (en) | Image generating apparatus, imaging apparatus, and image generating method | |
JP5248951B2 (en) | CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM | |
JP2015204470A (en) | Imaging apparatus, control method thereof, and program | |
JP2013123215A (en) | Imaging apparatus, controller, and computer program | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP2015017999A (en) | Imaging device | |
JP2012189944A (en) | Imaging device, imaging method, and program | |
US20130076867A1 (en) | Imaging apparatus | |
WO2011086898A1 (en) | 3d image capturing device and control method therefor | |
JP2012209896A (en) | Image processor, imaging apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |