JP2011259168A - Stereoscopic panoramic image capturing device - Google Patents

Stereoscopic panoramic image capturing device Download PDF

Info

Publication number
JP2011259168A
JP2011259168A JP2010131306A JP2010131306A JP2011259168A JP 2011259168 A JP2011259168 A JP 2011259168A JP 2010131306 A JP2010131306 A JP 2010131306A JP 2010131306 A JP2010131306 A JP 2010131306A JP 2011259168 A JP2011259168 A JP 2011259168A
Authority
JP
Japan
Prior art keywords
image
subject
distance information
images
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010131306A
Other languages
Japanese (ja)
Inventor
Masatoshi Suzuki
匡俊 鈴木
Hiroyuki Otaka
浩幸 大高
Yoichi Sawachi
洋一 沢地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010131306A priority Critical patent/JP2011259168A/en
Publication of JP2011259168A publication Critical patent/JP2011259168A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To capture a panoramic image which is capable of being stereoscopically viewed.SOLUTION: A through image is captured (c) in a capturing range substantially the same as a capturing range (b) of a panoramic photograph or in a capturing range including the capturing range of the panoramic photograph, and distance information of each pixel is acquired. A person is extracted from the through image and the extracted person is determined as a main object. A focus point is determined such that the main object is positioned near the rear end of the depth of field. In this state, first left-viewpoint image data and right-viewpoint image data are captured (d), and second left-viewpoint image data and right-viewpoint image data are captured (e). A panoramic image is obtained (a) by stitching together the first left-viewpoint image data and the second left-viewpoint image data and stitching together the first right-viewpoint image data and the second right-viewpoint image data.

Description

本発明は立体パノラマ画像撮影装置に係り、立体視が可能なパノラマ画像を撮影する技術に関する。   The present invention relates to a stereoscopic panoramic image capturing apparatus, and more particularly to a technique for capturing a panoramic image capable of stereoscopic viewing.

特許文献1には、複数の撮像部を備え、立体画像とパノラマ画像とが撮影可能な複眼カメラが記載されている。立体画像は、複数の撮像部の内、光軸が同一平面上にあり、各光軸が互いに平行または該平面上の前方で交わるような状態にある少なくとも2つの撮像部を利用して撮影する。パノラマ画像は、異なる撮像部を用いて互いに重複する空間を含む連続した空間を撮影し、2つの画像間で重複する部分がなめらかにつながるように合成することにより生成する。   Patent Document 1 describes a compound eye camera that includes a plurality of imaging units and can capture a stereoscopic image and a panoramic image. A three-dimensional image is captured using at least two image capturing units in which the optical axes are on the same plane and the optical axes are parallel to each other or intersect each other in front of the plane. . A panoramic image is generated by photographing a continuous space including overlapping spaces using different imaging units, and compositing so that overlapping portions between two images are smoothly connected.

特開2006−033476号公報JP 2006-033476 A

しかしながら、特許文献1には、立体視可能なパノラマ画像を撮影することは記載されていない。   However, Patent Document 1 does not describe capturing a panoramic image that can be viewed stereoscopically.

パノラマ画像は、特許文献1にも記載されているが、一般的には、互いに重複する空間を含む連続した空間を撮影し、これを合成することで生成される。そのためには、撮影装置を水平方向に回転させ、異なる撮影範囲で画像を撮影する必要がある。しかしながら、三脚や雲台を使用しない限り、平行にカメラを回転させることはほぼ不可能である。   Although a panoramic image is also described in Patent Document 1, generally, a panoramic image is generated by photographing continuous spaces including spaces overlapping each other and synthesizing them. For this purpose, it is necessary to rotate the photographing apparatus in the horizontal direction and photograph images in different photographing ranges. However, unless a tripod or pan head is used, it is almost impossible to rotate the camera in parallel.

三脚や雲台を使用しないで2次元のパノラマ画像を生成する場合には、特開2009−268037に記載されているように、画像データ間の移動ベクトルを求め、この移動ベクトルに基づいて画像を合成し、矩形状のパノラマ画像として抜き出すようにトリミング処理を施す。これにより、互いに重複する空間を含む連続する画像データが傾いたとしても、パノラマ画像を生成することができる。   When generating a two-dimensional panoramic image without using a tripod or a pan head, as described in JP-A-2009-268037, a movement vector between image data is obtained, and an image is obtained based on the movement vector. The images are combined and trimmed so as to be extracted as a rectangular panoramic image. As a result, a panoramic image can be generated even if continuous image data including spaces overlapping each other is tilted.

しかしながら、所定の視差を有する左目用画像と右目用画像とからなる立体画像の場合には、撮像素子が傾くと視差が左右方向でなくなってしまうため、トリミング処理により傾きを補正することはできない。   However, in the case of a stereoscopic image composed of a left-eye image and a right-eye image having a predetermined parallax, the parallax is lost in the left-right direction when the image sensor is tilted, so that the tilt cannot be corrected by trimming processing.

特許文献1に記載された複眼カメラを用いる場合に傾きを補正する方法としては、複眼カメラが傾いた分だけ複数の撮像部をそれぞれ傾かせるという方法も考えられる。しかしながら、複数の撮像部を全く同一の角度で傾かせることは、現実的に不可能である。   As a method of correcting the tilt when using a compound eye camera described in Patent Document 1, a method of tilting a plurality of imaging units by the amount of tilt of the compound eye camera can be considered. However, it is practically impossible to tilt a plurality of imaging units at exactly the same angle.

本発明はこのような事情に鑑みてなされたもので、立体視可能なパノラマ画像を撮影することができる立体パノラマ画像撮影装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a stereoscopic panoramic image photographing apparatus capable of photographing a stereoscopically viewable panoramic image.

請求項1に記載の立体パノラマ画像撮影装置は、撮影光学系と、前記撮影光学系を通過した光束を複数の光束に分割する瞳分割手段と、前記瞳分割手段により分割された光束がそれぞれ結像される第1の画素群及び第2の画素群が同一平面上に2次元状に配設された撮像素子と、前記撮像素子の水平方向に対する回転角度を検出する検出手段と、前記検出された水平方向に対する回転角度に基づいて前記撮像素子が水平になるように前記撮像素子を前記撮影光学系の光軸に垂直な平面内で回転させる撮像素子回転手段と、前記第1の画素群及び前記第2の画素群に被写体像を結像させて第1の被写体像及び第2の被写体像を取得する処理を隣接する撮影範囲の一部が重複するように連続的に行うことで前記第1の被写体像及び前記第2の被写体像をそれぞれ複数取得する本撮影手段と、前記取得された複数の第1の被写体像のうちの重複する部分及び前記取得された複数の第2の被写体像のうちの重複する部分を重ね合わせて前記複数の第1の被写体像及び前記複数の第2の被写体像をそれぞれつなぎ合わせる画像生成手段と、を備えたことを特徴とする。   The stereoscopic panoramic image photographing apparatus according to claim 1 is configured such that a photographing optical system, a pupil dividing unit that divides a light beam that has passed through the photographing optical system into a plurality of light beams, and a light beam divided by the pupil dividing unit are combined. An image sensor in which a first pixel group and a second pixel group to be imaged are two-dimensionally arranged on the same plane; a detection means for detecting a rotation angle of the image sensor with respect to a horizontal direction; An image sensor rotating means for rotating the image sensor in a plane perpendicular to the optical axis of the imaging optical system so that the image sensor is horizontal based on a rotation angle with respect to the horizontal direction; the first pixel group; The process of obtaining a first subject image and a second subject image by forming a subject image on the second pixel group is continuously performed so that a part of adjacent photographing ranges overlaps. One subject image and the second subject A main photographing unit for acquiring a plurality of images, and an overlapping portion of the acquired plurality of first subject images and an overlapping portion of the acquired plurality of second subject images are superimposed. And image generating means for connecting the plurality of first subject images and the plurality of second subject images, respectively.

請求項1に記載の立体パノラマ画像撮影装置によれば、撮影光学系を通過した光束が複数の光束に分割され、第1の画素群及び第2の画素群にそれぞれ結像される。撮像素子の水平方向に対する回転角度が検出され、検出された水平方向に対する回転角度に基づいて撮像素子が撮影光学系の光軸に垂直な平面内で回転されて撮像素子が水平にされ、隣接する撮影範囲の一部が重複するように第1の画素群及び第2の画素群に被写体像を連続的に結像させて複数の第1の被写体像及び複数の第2の被写体像がそれぞれ取得される。複数の第1の被写体像のうちの重複する部分を重ね合わせて複数の第1の被写体像をつなぎ合わせ、かつ複数の第2の被写体像のうちの重複する部分を重ね合わせて複数の第2の被写体像をつなぎ合わせる。これにより、立体視が可能なパノラマ画像を撮影することができる。   According to the three-dimensional panoramic image photographing apparatus of the first aspect, the light beam that has passed through the photographing optical system is divided into a plurality of light beams and formed on the first pixel group and the second pixel group, respectively. The rotation angle of the imaging element with respect to the horizontal direction is detected, and the imaging element is rotated in a plane perpendicular to the optical axis of the imaging optical system based on the detected rotation angle with respect to the horizontal direction so that the imaging element is leveled and adjacent. A plurality of first subject images and a plurality of second subject images are obtained by continuously forming subject images on the first pixel group and the second pixel group so that a part of the photographing range overlaps. Is done. The overlapping portions of the plurality of first subject images are overlapped to connect the plurality of first subject images, and the overlapping portions of the plurality of second subject images are overlapped to overlap the plurality of second subject images. Stitch together the subject images. As a result, a panoramic image capable of stereoscopic viewing can be taken.

請求項2に記載の立体パノラマ画像撮影装置は、請求項1に記載の立体パノラマ画像撮影装置において、前記撮影光学系は、フォーカスレンズを含み、所定の距離にある被写体が合焦するように前記フォーカスレンズを移動させるフォーカスレンズ移動手段を備え、前記本撮影手段は、前記フォーカスレンズが前記所定の距離にある被写体に合焦するように移動された状態で、前記複数の第1の被写体像及び前記複数の第2の被写体像を取得することを特徴とする。   The stereoscopic panoramic image photographing device according to claim 2 is the stereoscopic panoramic image photographing device according to claim 1, wherein the photographing optical system includes a focus lens so that a subject at a predetermined distance is in focus. A focus lens moving unit configured to move a focus lens, wherein the main photographing unit is configured to move the focus lens so as to focus on a subject at the predetermined distance; The plurality of second subject images are acquired.

請求項2に記載の立体パノラマ画像撮影装置によれば、所定の距離にある被写体が合焦するように撮影光学系に含まれるフォーカスレンズが移動され、複数の第1の被写体像及び複数の第2の被写体像が取得される。これにより、つなぎ目が自然で立体感に違和感の無いパノラマ画像を生成することができる。   According to the stereoscopic panoramic image photographing apparatus of claim 2, the focus lens included in the photographing optical system is moved so that the subject at a predetermined distance is in focus, and the plurality of first subject images and the plurality of first subjects are moved. Two subject images are acquired. Accordingly, it is possible to generate a panoramic image in which the joints are natural and the stereoscopic effect is not uncomfortable.

請求項3に記載の立体パノラマ画像撮影装置は、請求項2に記載の立体パノラマ画像撮影装置において、前記複数の第1の被写体像及び前記複数の第2の被写体像を取得する前に、前記第1の画素群及び前記第2の画素群の少なくとも1つに所定の条件下で被写体像を結像させる前撮影手段と、前記前撮影手段により結像された被写体像に基づいて被写体までの距離を示す距離情報を取得する第1の距離情報取得手段と、前記取得された距離情報に基づいて前記所定の距離を決定するフォーカス位置決定手段と、を備えたことを特徴とする。   The stereoscopic panoramic image photographing device according to claim 3 is the stereoscopic panoramic image photographing device according to claim 2, wherein the plurality of first subject images and the plurality of second subject images are acquired before obtaining the plurality of first subject images. A pre-photographing unit that forms a subject image on at least one of the first pixel group and the second pixel group under a predetermined condition; and a subject image based on the subject image formed by the pre-photographing unit. A first distance information acquisition unit that acquires distance information indicating a distance, and a focus position determination unit that determines the predetermined distance based on the acquired distance information.

請求項3に記載の立体パノラマ画像撮影装置によれば、本撮影の前に第1の画素群及び第2の画素群の少なくとも1つに所定の条件下で被写体像が結像され、この被写体像に基づいて被写体までの距離を示す距離情報が取得され、取得された距離情報に基づいてフォーカス位置が決定される。これにより、適切な立体感のあるパノラマ画像を得ることができる。   According to the three-dimensional panoramic image photographing apparatus according to claim 3, a subject image is formed on at least one of the first pixel group and the second pixel group before the actual photographing under a predetermined condition. Distance information indicating the distance to the subject is acquired based on the image, and the focus position is determined based on the acquired distance information. Thereby, a panoramic image having an appropriate stereoscopic effect can be obtained.

請求項4に記載の立体パノラマ画像撮影装置は、請求項3に記載の立体パノラマ画像撮影装置において、前記前撮影手段は、前記本撮影手段により連続的に結像される被写体像と略同じ撮影範囲で前記第1の画素群及び前記第2の画素群の少なくとも1つに被写体像を結像させることを特徴とする。   The stereoscopic panoramic image photographing device according to claim 4 is the stereoscopic panoramic image photographing device according to claim 3, wherein the front photographing means captures substantially the same subject image as that continuously formed by the main photographing means. A subject image is formed on at least one of the first pixel group and the second pixel group within a range.

請求項4に記載の立体パノラマ画像撮影装置によれば、本撮影と略同じ撮影範囲で前撮影を行い、前撮影で得られた画像データに基づいてフォーカス位置が決定される。これにより、パノラマ画像に含まれる全ての被写体に基づいて適切なフォーカス位置を決定することができる。   According to the stereoscopic panoramic image photographing apparatus of the fourth aspect, the pre-photographing is performed in substantially the same photographing range as the main photographing, and the focus position is determined based on the image data obtained by the pre-photographing. Thereby, it is possible to determine an appropriate focus position based on all the subjects included in the panoramic image.

請求項5に記載の立体パノラマ画像撮影装置は、請求項3又は4に記載の立体パノラマ画像撮影装置において、前記第1の距離情報取得手段は、前記前撮影手段により結像された被写体像の距離情報を画素毎に取得し、前記フォーカス位置決定手段は、前記距離情報の略中間値を前記所定の距離と決定することを特徴とする。   The stereoscopic panorama image photographing device according to claim 5 is the stereoscopic panoramic image photographing device according to claim 3 or 4, wherein the first distance information acquisition unit is configured to capture the subject image formed by the front photographing unit. The distance information is acquired for each pixel, and the focus position determination unit determines a substantially intermediate value of the distance information as the predetermined distance.

請求項5に記載の立体パノラマ画像撮影装置によれば、距離情報の略中間値がフォーカス位置と決定される。これにより、適切な立体感のあるパノラマ画像を得ることができる。   According to the stereoscopic panorama image photographing device of the fifth aspect, the substantially intermediate value of the distance information is determined as the focus position. Thereby, a panoramic image having an appropriate stereoscopic effect can be obtained.

請求項6に記載の立体パノラマ画像撮影装置は、請求項3又は4に記載の立体パノラマ画像撮影装置において、前記被写体像から主要被写体を検出する主要被写体検出手段を備え、前記第1の距離情報取得手段は、前記距離情報として前記検出された主要被写体までの距離を取得し、前記フォーカス位置決定手段は、前記検出された主要被写体までの距離に基づいて前記検出された主要被写体が合焦するように前記所定の距離を決定することを特徴とする。   The stereoscopic panorama image photographing device according to claim 6 is the stereoscopic panoramic image photographing device according to claim 3 or 4, further comprising main subject detection means for detecting a main subject from the subject image, and the first distance information. The acquisition means acquires the distance to the detected main subject as the distance information, and the focus position determination means focuses the detected main subject based on the distance to the detected main subject. The predetermined distance is determined as described above.

請求項6に記載の立体パノラマ画像撮影装置によれば、被写体像から主要被写体が検出され、検出された主要被写体が合焦するようにフォーカス位置が決定される。これにより、主要被写体にピントが合ったパノラマ画像を得ることができる。   According to the stereoscopic panoramic image photographing apparatus of the sixth aspect, the main subject is detected from the subject image, and the focus position is determined so that the detected main subject is in focus. Thereby, a panoramic image in which the main subject is in focus can be obtained.

請求項7に記載の立体パノラマ画像撮影装置は、請求項6に記載の立体パノラマ画像撮影装置において、前記フォーカス位置決定手段は、前記検出された主要被写体が被写界深度の前記撮影光学系から遠い側の端と略一致するように前記所定の距離を決定することを特徴とする。   The stereoscopic panorama image photographing device according to claim 7 is the stereoscopic panoramic image photographing device according to claim 6, wherein the focus position determining means is configured to detect the main subject from the photographing optical system having a depth of field. The predetermined distance is determined so as to substantially coincide with the far end.

請求項7に記載の立体パノラマ画像撮影装置によれば、検出された主要被写体が被写界深度の後端と略一致する、すなわち主要被写体の若干手前が合焦するようにフォーカス位置が決定される。これにより、背景をよりボケやすくすることができる。   According to the stereoscopic panorama image photographing device of claim 7, the focus position is determined so that the detected main subject substantially coincides with the rear end of the depth of field, that is, slightly in front of the main subject is in focus. The As a result, the background can be more easily blurred.

請求項8に記載の立体パノラマ画像撮影装置は、請求項6又は7に記載の立体パノラマ画像撮影装置において、前記フォーカス位置決定手段は、前記主要被写体までの距離が所定の距離閾値より遠い主要被写体が合焦するように前記所定の距離を決定することを特徴とする。   The stereoscopic panorama image photographing device according to claim 8 is the stereoscopic panoramic image photographing device according to claim 6 or 7, wherein the focus position determining means is configured to detect a main subject whose distance to the main subject is longer than a predetermined distance threshold. The predetermined distance is determined so as to be in focus.

請求項8に記載の立体パノラマ画像撮影装置によれば、主要被写体までの距離が所定の距離閾値より遠い主要被写体が合焦するようにフォーカス位置が決定される。これにより、距離が近すぎる被写体が合焦することで視差が大きくなり、全体として見にくい写真となることを防止することができる。   According to the stereoscopic panorama image photographing apparatus of the eighth aspect, the focus position is determined so that the main subject whose distance to the main subject is farther than the predetermined distance threshold is focused. Accordingly, it is possible to prevent the parallax from being increased due to focusing on a subject that is too close, and to prevent a photograph that is difficult to see as a whole.

請求項9に記載の立体パノラマ画像撮影装置は、請求項1から8のいずれかに記載の立体パノラマ画像撮影装置において、前記複数の第1の被写体像及び前記複数の第2の被写体像の被写体までの距離を示す距離情報を画素毎に取得する第2の距離情報取得手段を備え、前記画像生成手段は、前記取得された距離情報が等しい画素を重ねあわせることにより前記複数の第1の被写体像及び前記複数の第2の被写体像をそれぞれつなぎ合わせることを特徴とする。   The stereoscopic panoramic image photographing device according to claim 9 is the stereoscopic panoramic image photographing device according to any one of claims 1 to 8, wherein the plurality of first subject images and the plurality of second subject image subjects. Second distance information acquisition means for acquiring distance information indicating the distance to each of the pixels, wherein the image generation means overlaps the pixels having the same acquired distance information to thereby overlap the plurality of first subjects. The image and the plurality of second subject images are connected to each other.

請求項9に記載の立体パノラマ画像撮影装置によれば、本撮影により得られた複数の第1の被写体像及び複数の第2の被写体像の各画素毎に被写体までの距離を示す距離情報が取得され、取得された距離情報が等しい画素を重ねあわせることにより複数の第1の被写体像及び複数の第2の被写体像がそれぞれつなぎ合わされる。これにより、つなぎ目が自然な立体パノラマ画像を得ることができる。   According to the stereoscopic panoramic image photographing device of claim 9, distance information indicating the distance to the subject for each pixel of the plurality of first subject images and the plurality of second subject images obtained by the main photographing. A plurality of first subject images and a plurality of second subject images are joined together by superimposing pixels acquired and having the same distance information. Thereby, it is possible to obtain a stereoscopic panoramic image with natural joints.

請求項10に記載の立体パノラマ画像撮影装置は、請求項9に記載の立体パノラマ画像撮影装置において、前記撮像素子回転手段は、前記撮像素子が水平な状態と、当該水平な状態との重複範囲が最大となるように前記水平な状態から90度回転された垂直な状態との間で前記撮像素子を回転させ、前記本撮影手段は、前記撮像素子が前記水平な状態及び前記垂直な状態で前記第1の画素群及び前記第2の画素群に被写体像を結像させて第1の被写体像及び第2の被写体像を取得する処理を隣接する撮影範囲の一部が重複するように連続的に行うことで、横向きの第1の被写体像と縦向きの第1の被写体像及び横向きの第2の被写体像と縦向きの第2の被写体像をそれぞれ複数取得し、前記第2の距離情報取得手段は、前記横向きの第1の被写体像と前記横向きの第2の被写体像とに基づいて前記横向きの第1の被写体像及び前記横向きの第2の被写体像の被写体までの距離を示す距離情報(以下、第1の距離情報という)を画素毎に取得し、かつ前記縦向きの第1の被写体像と前記縦向きの第2の被写体像とに基づいて前記縦向きの第1の被写体像及び前記縦向きの第2の被写体像の被写体までの距離を示す距離情報(以下、第2の距離情報という)を画素毎に取得し、前記画像生成手段は、前記横向きの第1の被写体像と前記縦向きの第1の被写体像との重なる範囲を前記横向きの第1の被写体像から切り出して第1の切り出し画像を複数生成すると共に前記横向きの第2の被写体像と前記縦向きの第2の被写体像との重なる範囲を前記横向きの第2の被写体像から切り出して第2の切り出し画像を複数生成し、前記第1の距離情報及び前記第2の距離情報の少なくとも1つに基づいて前記生成された複数の第1の切り出し画像及び前記生成された複数の第2の切り出し画像をそれぞれつなぎ合わせることを特徴とする。   The stereoscopic panoramic image photographing device according to claim 10 is the stereoscopic panoramic image photographing device according to claim 9, wherein the imaging element rotating means includes an overlapping range between the horizontal state of the imaging element and the horizontal state. The imaging device is rotated between the horizontal state and a vertical state rotated by 90 degrees so that the maximum is obtained, and the main photographing unit is configured so that the imaging device is in the horizontal state and the vertical state. The process of forming a subject image on the first pixel group and the second pixel group to obtain the first subject image and the second subject image is continued so that a part of the adjacent shooting range overlaps. By doing so, a plurality of horizontal first subject images, vertical first subject images, horizontal second subject images and vertical second subject images are obtained, and the second distance is obtained. The information acquisition means is configured to receive the laterally oriented first object. Distance information (hereinafter referred to as first distance information) indicating the distance to the subject of the first subject image in the lateral direction and the second subject image in the lateral direction based on the body image and the second subject image in the lateral direction. ) For each pixel, and based on the first vertical subject image and the second vertical subject image, the first vertical subject image and the second vertical subject Distance information (hereinafter referred to as second distance information) indicating the distance to the subject of the image is obtained for each pixel, and the image generation means is configured to obtain the first subject image in the horizontal direction and the first subject in the vertical direction. A range overlapping with the image is cut out from the horizontal first subject image to generate a plurality of first cut-out images, and a range where the horizontal second subject image overlaps with the vertical second subject image. Cut out from the horizontal second subject image A plurality of cut-out images of 2 and a plurality of the first cut-out images generated based on at least one of the first distance information and the second distance information; The cut-out images are connected to each other.

請求項10に記載の立体パノラマ画像撮影装置によれば、撮像素子が水平な状態及び垂直な状態で第1の被写体像及び第2の被写体像を取得する処理を隣接する撮影範囲の一部が重複するように連続的に行うことで、横向きの第1の被写体像と縦向きの第1の被写体像及び横向きの第2の被写体像と縦向きの第2の被写体像がそれぞれ複数取得される。横向きの第1の被写体像と縦向きの第1の被写体像との重なる範囲を横向きの第1の被写体像から切り出して第1の切り出し画像が複数生成されると共に、横向きの第2の被写体像と縦向きの第2の被写体像との重なる範囲を横向きの第2の被写体像から切り出して第2の切り出し画像が複数生成される。第1の距離情報及び第2の距離情報が画素毎に取得され、第1の距離情報及び第2の距離情報の少なくとも1つに基づいて複数の第1の切り出し画像及び複数の第2の切り出し画像がそれぞれつなぎ合わされる。これにより、距離情報の誤検出を低減させ、精度の良いパノラマ画像を生成することができる。   According to the stereoscopic panoramic image photographing device according to claim 10, a part of the photographing range adjacent to the process of acquiring the first subject image and the second subject image in a state where the image sensor is horizontal and vertical is obtained. By continuously performing the overlapping, a plurality of first lateral subject images, first longitudinal subject images, second lateral subject images, and second longitudinal subject images are acquired. . A plurality of first cutout images are generated by cutting out the overlapping range of the first horizontal subject image and the first vertical subject image from the first horizontal subject image, and the second horizontal subject image. A plurality of second cut-out images are generated by cutting out a range where the image and the vertical second subject image overlap from the horizontal second subject image. First distance information and second distance information are acquired for each pixel, and a plurality of first cut-out images and a plurality of second cut-out images based on at least one of the first distance information and the second distance information. Images are stitched together. Thereby, erroneous detection of distance information can be reduced, and an accurate panoramic image can be generated.

請求項11に記載の立体パノラマ画像撮影装置は、請求項10に記載の立体パノラマ画像撮影装置において、前記第1の距離情報の画素数が所定の画素数より多いか否かを判断する手段を備え、前記第1の距離情報の画素数が所定の画素数より多い場合には、前記本撮影手段は、前記複数の縦向きの第1の被写体像及び前記複数の縦向きの第2の被写体像を撮影しないことを特徴とする。   The stereoscopic panorama image photographing device according to claim 11 is a stereoscopic panoramic image photographing device according to claim 10, wherein means for determining whether or not the number of pixels of the first distance information is greater than a predetermined number of pixels. And when the number of pixels of the first distance information is greater than a predetermined number of pixels, the main photographing unit is configured to display the plurality of first vertical subject images and the plurality of second vertical subjects. It is characterized by not taking an image.

請求項11に記載の立体パノラマ画像撮影装置によれば、第1の距離情報の画素数が所定の画素数より多い場合には、複数の縦向きの第1の被写体像及び複数の縦向きの第2の被写体像は撮影されない。これにより、必要の無い撮影をする手間を省くことができる。   According to the stereoscopic panorama image capturing device of claim 11, when the number of pixels of the first distance information is greater than the predetermined number of pixels, the plurality of vertical first subject images and the plurality of vertical orientations. The second subject image is not taken. Thereby, it is possible to save the trouble of shooting unnecessary.

請求項12に記載の立体パノラマ画像撮影装置は、請求項10又は11に記載の立体パノラマ画像撮影装置において、前記画像生成手段は、前記第1の距離情報の画素数と、前記第2の距離情報の画素数とを比較し、前記第1の距離情報と前記第2の距離情報とのうちの画素数が多い方の距離情報に基づいて前記生成された複数の第1の切り出し画像及び前記生成された複数の第2の切り出し画像をそれぞれつなぎ合わせることを特徴とする。   The stereoscopic panorama image photographing device according to claim 12 is the stereoscopic panoramic image photographing device according to claim 10 or 11, wherein the image generating means includes the number of pixels of the first distance information and the second distance. A plurality of first cut-out images generated based on distance information having a larger number of pixels of the first distance information and the second distance information; A plurality of generated second cutout images are connected to each other.

請求項12に記載の立体パノラマ画像撮影装置によれば、第1の距離情報の画素数と、第2の距離情報の画素数とが比較され、画素数が多い方の距離情報に基づいて複数の第1の切り出し画像及び複数の第2の切り出し画像がそれぞれつなぎ合わされる。これにより、精度の良い距離情報をつなぎ合わせに用いることができる。   According to the stereoscopic panorama image photographing device of claim 12, the number of pixels of the first distance information is compared with the number of pixels of the second distance information, and a plurality of pixels are determined based on the distance information having the larger number of pixels. The first cutout image and the plurality of second cutout images are connected to each other. Thereby, accurate distance information can be used for stitching.

請求項13に記載の立体パノラマ画像撮影装置は、請求項1から12のいずれかに記載の立体パノラマ画像撮影装置において、前記検出手段は、前記撮像素子と一体となるように配設され、重力加速度を検出する加速度センサと、前記撮像素子と一体となるように配設され、当該撮像素子の回転位置を検出する位置検出装置と、を有し、前記撮像素子回転手段は、前記撮像素子を回転させるアクチュエータと、前記加速度センサ及び前記位置検出装置からの出力に基づいて前記アクチュエータの駆動を制御する駆動制御手段と、を有することを特徴とする。   The stereoscopic panoramic image photographing device according to claim 13 is the stereoscopic panoramic image photographing device according to any one of claims 1 to 12, wherein the detection unit is arranged so as to be integrated with the imaging element, and is An acceleration sensor that detects acceleration, and a position detection device that is disposed so as to be integrated with the image sensor and detects a rotation position of the image sensor, wherein the image sensor rotation means includes the image sensor. It comprises an actuator to be rotated, and drive control means for controlling the drive of the actuator based on outputs from the acceleration sensor and the position detection device.

請求項13に記載の立体パノラマ画像撮影装置によれば、重力加速度を検出する加速度センサと、撮像素子の回転位置を検出する位置検出装置とが撮像素子と一体となるように配設され、加速度センサ及び位置検出装置からの出力に基づいてアクチュエータの駆動が制御される。これにより、撮像素子が常に水平方向になるように制御することができる。また、フィードバック制御によりハンチングを防止することができる。   According to the three-dimensional panoramic image photographing device according to claim 13, the acceleration sensor that detects the gravitational acceleration and the position detection device that detects the rotational position of the image sensor are disposed so as to be integrated with the image sensor, and the acceleration is performed. The drive of the actuator is controlled based on the output from the sensor and the position detection device. Thereby, it can control so that an image sensor may always become a horizontal direction. Further, hunting can be prevented by feedback control.

本発明によれば、立体視可能なパノラマ画像を撮影することができる。   According to the present invention, a stereoscopically panoramic image can be taken.

本発明の第1の実施の形態に係る立体パノラマ画像撮影装置1の正面斜視図1 is a front perspective view of a stereoscopic panorama image photographing apparatus 1 according to a first embodiment of the present invention. 立体パノラマ画像撮影装置1の背面図Rear view of the stereoscopic panoramic image photographing device 1 立体パノラマ画像撮影装置1の側面図Side view of the stereoscopic panoramic image photographing device 1 立体パノラマ画像撮影装置1の位相差CCDの構成例を示す図The figure which shows the structural example of phase difference CCD of the stereo panoramic image imaging device 1. 撮影レンズ、絞り、及び位相差CCDの主、副画素の1画素ずつを示した図The figure which showed one pixel of the main and sub pixel of a photographic lens, an aperture stop, and a phase difference CCD. 図5の部分拡大図Partial enlarged view of FIG. 立体パノラマ画像撮影装置1の撮影光学系の模式図Schematic diagram of photographing optical system of stereoscopic panoramic image photographing apparatus 1 立体パノラマ画像撮影装置1内部のブロック図Block diagram of the interior of the stereoscopic panorama image photographing apparatus 1 傾きの補正の概念を示す図Diagram showing the concept of tilt correction 傾きの補正の概念を示す図Diagram showing the concept of tilt correction 立体パノラマ画像撮影装置1の立体パノラマ撮影モードにおける処理の流れを示すフローチャートThe flowchart which shows the flow of the process in the stereoscopic panorama imaging mode of the stereoscopic panoramic image imaging device 1. 立体パノラマ画像撮影装置1の立体パノラマ撮影モードの処理を説明する図The figure explaining the process of the stereoscopic panorama shooting mode of the stereoscopic panorama image photographing device 1 被写体深度を説明する図Figure explaining depth of field 画像のつなぎあわせを説明する図Diagram explaining stitching of images 本発明の第2の実施の形態に係る立体パノラマ画像撮影装置2の立体パノラマ撮影モードにおける処理の流れを示すフローチャートThe flowchart which shows the flow of a process in the stereo panorama imaging mode of the stereo panorama image imaging device 2 which concerns on the 2nd Embodiment of this invention. 立体パノラマ画像の撮影処理の流れを示すフローチャートFlow chart showing a flow of processing for photographing a stereoscopic panorama image 撮影処理の流れを示すフローチャートFlow chart showing the flow of shooting processing 位相差CCDの受光エリア中心を回転中心にして90度回転する様子を示す図The figure which shows a mode that it rotates 90 degree | times centering | focusing on the light reception area center of phase difference CCD. 位相差CCDの回転中心を受光エリア中心からずらして90度回転する様子を示す図The figure which shows a mode that the rotation center of phase difference CCD rotates 90 degree | times, shifting from the center of a light-receiving area.

以下、添付図面に従って本発明に係る立体パノラマ画像撮影装置の実施の形態について説明する。   Embodiments of a stereoscopic panorama image photographing apparatus according to the present invention will be described below with reference to the accompanying drawings.

<第1の実施の形態>
[撮像装置の全体構成]
図1は本発明に係る第1の実施の形態の撮像装置である立体パノラマ画像撮影装置1の一実施形態を示す斜視図である。図2は、上記立体パノラマ画像撮影装置1の一実施形態を示す背面図である。この立体パノラマ画像撮影装置1は、レンズを通った光を撮像素子で受け、デジタル信号に変換して記憶メディアに記録するデジタルカメラである。
<First Embodiment>
[Overall configuration of imaging device]
FIG. 1 is a perspective view showing an embodiment of a stereoscopic panorama image photographing apparatus 1 which is an imaging apparatus according to a first embodiment of the present invention. FIG. 2 is a rear view showing an embodiment of the stereoscopic panoramic image photographing apparatus 1. This stereoscopic panoramic image photographing apparatus 1 is a digital camera that receives light passing through a lens by an image sensor, converts the light into a digital signal, and records it on a storage medium.

立体パノラマ画像撮影装置1のカメラボディ10は、横長の四角い箱状に形成されており、その正面には、図1に示すように、レンズユニット12、ストロボ21等が配設されている。また、カメラボディ10の上面にはシャッタボタン22、電源/モードスイッチ24、モードダイヤル26等が配設されている。一方、カメラボディ10の背面には、図2に示すように、液晶モニタ28、ズームボタン30、十字ボタン32、MENU/OKボタン34、再生ボタン36、BACKボタン38等が配設されている。   The camera body 10 of the stereoscopic panoramic image photographing apparatus 1 is formed in a horizontally long rectangular box shape, and a lens unit 12, a strobe 21 and the like are disposed on the front surface thereof as shown in FIG. A shutter button 22, a power / mode switch 24, a mode dial 26, and the like are disposed on the upper surface of the camera body 10. On the other hand, as shown in FIG. 2, a liquid crystal monitor 28, a zoom button 30, a cross button 32, a MENU / OK button 34, a playback button 36, a BACK button 38, and the like are disposed on the back of the camera body 10.

なお、図示しないカメラボディ10の下面には、三脚ネジ穴と、開閉自在なカバーを介してバッテリ挿入部とメモリカードスロットとが設けられており、このバッテリ挿入部とメモリカードスロットにバッテリとメモリカードが装填される。   A battery insertion portion and a memory card slot are provided on the lower surface of the camera body 10 (not shown) via a tripod screw hole and an openable / closable cover. The battery insertion portion and the memory card slot have a battery and a memory. The card is loaded.

レンズユニット12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ24によってカメラのモードを撮影モードに設定することにより、カメラボディ10から繰り出される。なお、レンズユニット12のズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。   The lens unit 12 is configured by a retractable zoom lens, and is set out from the camera body 10 by setting the camera mode to the photographing mode by the power / mode switch 24. In addition, since the zoom mechanism and the retracting mechanism of the lens unit 12 are well-known techniques, description of specific configurations thereof is omitted here.

ストロボ21は、主要被写体に向けてストロボ光を照射するものである。   The strobe 21 irradiates strobe light toward the main subject.

シャッタボタン22は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。立体パノラマ画像撮影装置1は、撮影モードで駆動しているときは、このシャッタボタン22が「半押し」されることにより、AE/AFが作動し、「全押し」されることにより、撮影を実行する。また、立体パノラマ画像撮影装置1は、投影モードで駆動しているときは、このシャッタボタン22が「全押し」されることにより、投影を実行する。   The shutter button 22 is configured by a two-stage stroke type switch composed of so-called “half press” and “full press”. When the stereoscopic panorama image photographing apparatus 1 is driven in the photographing mode, the shutter button 22 is “half-pressed”, the AE / AF is activated, and the shutter button 22 is “full-pressed”, thereby taking a picture. Execute. In addition, when the stereoscopic panorama image photographing apparatus 1 is driven in the projection mode, the shutter button 22 is “fully pressed” to perform projection.

電源/モードスイッチ24は、立体パノラマ画像撮影装置1の電源をON/OFFする電源スイッチとしての機能と、立体パノラマ画像撮影装置1のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。立体パノラマ画像撮影装置1は、電源/モードスイッチ24をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ24をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。   The power / mode switch 24 has both a function as a power switch for turning on / off the power of the stereoscopic panorama image photographing apparatus 1 and a function as a mode switch for setting the mode of the stereoscopic panoramic image photographing apparatus 1. Between the “OFF position”, “reproduction position”, and “photographing position”, it is slidably arranged. The stereoscopic panorama image photographing apparatus 1 is turned on by sliding the power / mode switch 24 to the “reproduction position” or “photographing position”, and is turned off by adjusting to the “OFF position”. become. Then, the power / mode switch 24 is slid and set to “playback position” to set “playback mode”, and set to “shooting position” to set “shooting mode”.

モードダイヤル26は、立体パノラマ画像撮影装置1の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、立体パノラマ画像撮影装置1の撮影モードが様々なモードに設定される。例えば、平面画像の撮影を行う「平面画像撮影モード」、立体視画像(3D画像)の撮影を行う「立体視画像撮影モード」、動画撮影を行う「動画撮影モード」、立体パノラマ撮影の撮影を行う「立体パノラマ撮影モード」等である。   The mode dial 26 functions as a shooting mode setting means for setting the shooting mode of the stereoscopic panorama image photographing apparatus 1, and the photographing mode of the stereoscopic panoramic image photographing apparatus 1 is set to various modes depending on the setting position of the mode dial. . For example, “planar image capturing mode” for capturing a planar image, “stereoscopic image capturing mode” for capturing a stereoscopic image (3D image), “moving image capturing mode” for capturing a movie, and stereoscopic panorama capturing. “Stereoscopic panorama shooting mode” to be performed.

この液晶モニタ28は、立体視画像(左視点画像及び右視点画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できる立体表示手段である。立体視画像が液晶モニタ28に入力された場合には、液晶モニタ28のパララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片が交互に配列して表示される。平面画像や使用者インターフェース表示パネルとして利用される場合には、パララックスバリア表示層には何も表示せず、その下層の画像表示面に1枚の画像をそのまま表示する。なお、液晶モニタ28の形態はこれに限らず、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで左視点画像と右視点画像とを個別に見ることができるものでもよい。   The liquid crystal monitor 28 is a stereoscopic display unit that can display a stereoscopic image (left viewpoint image and right viewpoint image) as a directional image having a predetermined directivity by a parallax barrier. When a stereoscopic image is input to the liquid crystal monitor 28, a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch on the parallax barrier display layer of the liquid crystal monitor 28 is generated. In addition, strip-shaped image fragments showing left and right images are alternately arranged and displayed on the lower image display surface. When used as a flat image or a user interface display panel, nothing is displayed on the parallax barrier display layer, and one image is displayed as it is on the lower image display surface. The form of the liquid crystal monitor 28 is not limited to this, and the left viewpoint image and the right viewpoint image can be individually viewed by using a lenticular lens, or wearing dedicated glasses such as polarized glasses or liquid crystal shutter glasses. It may be a thing.

ズームボタン30は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するズームテレボタン30Tと、広角側へのズームを指示するズームワイドボタン30Wとからなる。立体パノラマ画像撮影装置1は、撮影モード時に、このズームテレボタン30Tとズームワイドボタン30Wとが操作されることにより、レンズユニット12の焦点距離が変化する。また、再生モード時に、このズームテレボタン30Tとズームワイドボタン30Wとが操作されることにより、再生中の画像が拡大、縮小する。   The zoom button 30 functions as zoom instruction means for instructing zooming, and includes a zoom tele button 30T for instructing zooming to the telephoto side and a zoom wide button 30W for instructing zooming to the wide angle side. In the stereoscopic panorama image photographing apparatus 1, the focal length of the lens unit 12 is changed by operating the zoom tele button 30T and the zoom wide button 30W in the photographing mode. Further, when the zoom tele button 30T and the zoom wide button 30W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.

十字ボタン32は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。   The cross button 32 is an operation unit for inputting instructions in four directions, up, down, left, and right, and is a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. Function. The left / right key functions as a frame advance (forward / reverse feed) button in the playback mode.

MENU/OKボタン34は、液晶モニタ28の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。   The MENU / OK button 34 is an operation having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 28 and a function as an OK button for instructing confirmation and execution of selection contents. Key.

再生ボタン36は、撮影記録した立体視画像(3D画像)、平面画像(2D画像)の静止画又は動画を液晶モニタ28に表示させる再生モードに切り替えるためのボタンである。   The playback button 36 is a button for switching to a playback mode in which a still image or a moving image of a stereoscopic image (3D image) or a planar image (2D image) that has been recorded is displayed on the liquid crystal monitor 28.

BACKボタン38は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。   The BACK button 38 functions as a button for instructing to cancel the input operation or return to the previous operation state.

[撮影光学系、撮像素子の構成例]
図3は、立体パノラマ画像撮影装置1の要部断面図である。レンズユニット12は、主として撮影レンズ14、リレーレンズ15、絞り16、位相差イメージセンサである固体撮像素子(以下、「位相差CCD」という)17で構成される。
[Configuration example of imaging optical system and imaging device]
FIG. 3 is a cross-sectional view of a main part of the stereoscopic panoramic image photographing device 1. The lens unit 12 is mainly composed of a photographic lens 14, a relay lens 15, a diaphragm 16, and a solid-state imaging device (hereinafter referred to as “phase difference CCD”) 17 that is a phase difference image sensor.

撮影レンズ14は、フォーカスレンズ、ズームレンズを含む多数のレンズから構成される撮像光学系である。図3では、模式的に、撮影レンズ14を複数のレンズを代表する1枚のメインレンズで表している。撮影モード時において、被写体を示す画像光は、撮影レンズ14、絞り16、リレーレンズ15を介して位相差CCD17の受光面に結像される。   The photographing lens 14 is an imaging optical system composed of a number of lenses including a focus lens and a zoom lens. In FIG. 3, the photographing lens 14 is schematically represented by a single main lens representing a plurality of lenses. In the photographing mode, the image light indicating the subject is imaged on the light receiving surface of the phase difference CCD 17 via the photographing lens 14, the diaphragm 16 and the relay lens 15.

位相差CCD17の背面側には、位相差CCD17を回転させるアクチュエータ18が配設されている。アクチュエータ18は、立体パノラマ画像撮影装置1の傾きに応じて位相差CCD17をレンズユニット12の光軸に垂直な同一平面内で光軸を中心に回転させる(後に詳述する)。   An actuator 18 that rotates the phase difference CCD 17 is disposed on the back side of the phase difference CCD 17. The actuator 18 rotates the phase difference CCD 17 around the optical axis in the same plane perpendicular to the optical axis of the lens unit 12 according to the inclination of the stereoscopic panoramic image photographing apparatus 1 (detailed later).

図4は位相差CCD17の構成例を示す図である。   FIG. 4 is a diagram illustrating a configuration example of the phase difference CCD 17.

位相差CCD17は、それぞれマトリクス状に配列された奇数ラインの画素(主画素)と、偶数ラインの画素(副画素)とを有しており、これらの主、副画素にてそれぞれ光電変換された2面分の画像信号は、独立して読み出すことができるようになっている。   The phase difference CCD 17 has odd-numbered lines of pixels (main pixels) and even-numbered lines of pixels (sub-pixels) arranged in a matrix, and photoelectric conversion is performed in these main and sub-pixels. The image signals for the two surfaces can be read independently.

図4に示すように位相差CCD17の奇数ライン(1、3、5、…)には、R(赤)、G(緑)、B(青)のカラーフィルタを備えた画素のうち、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられ、一方、偶数ライン(2、4、6、…)の画素は、奇数ラインと同様に、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられるとともに、偶数ラインの画素に対して画素同士が2分の1ピッチだけライン方向にずれて配置されている。   As shown in FIG. 4, among the pixels provided with R (red), G (green), and B (blue) color filters on the odd lines (1, 3, 5,...) Of the phase difference CCD 17, GRGR. .., And BGBG... Pixel array lines are alternately provided. On the other hand, even-numbered lines (2, 4, 6,...) Have the same GRGR. Lines and lines of a pixel array of BGBG... Are alternately provided, and pixels are arranged so as to be shifted in the line direction by a half pitch with respect to pixels of even lines.

図5は撮影レンズ14、リレーレンズ15、及び位相差CCD17の主、副画素の1画素ずつを示した図であり、図6は図5の要部拡大図である。図5では、図3と同様に、撮影レンズ14を1枚のメインレンズで表している。なお、図5では、図3に示したリレーレンズ15を省略している。   FIG. 5 is a diagram showing each of the main and sub-pixels of the photographing lens 14, the relay lens 15, and the phase difference CCD 17, and FIG. 6 is an enlarged view of the main part of FIG. In FIG. 5, as in FIG. 3, the photographing lens 14 is represented by one main lens. In FIG. 5, the relay lens 15 shown in FIG. 3 is omitted.

位相差CCD17の主画素、副画素の前面には、それぞれ遮光部材17A、17Bが形成されている。図6(A)に示すように通常のCCDの画素(フォトダイオードPD)には、射出瞳を通過する光束が、マイクロレンズLを介して制限を受けずに入射する。図6(B)に示すように遮光部材17Aは、主画素(フォトダイオードPD)の受光面の右半分を遮光する。そのため、主画素には、射出瞳を通過する光束の光軸の左側のみが受光される。また、図6(C)に示すように遮光部材17Bは、副画素(フォトダイオードPD)の受光面の左半分を遮光する。そのため、副画素には、射出瞳を通過する光束の光軸の右側のみが受光される。すなわち、遮光部材17A、17Bは瞳分割機能を有している。   Light shielding members 17A and 17B are formed on the front surface of the main pixel and subpixel of the phase difference CCD 17, respectively. As shown in FIG. 6A, a light beam passing through the exit pupil is incident on a normal CCD pixel (photodiode PD) through the microlens L without being restricted. As shown in FIG. 6B, the light shielding member 17A shields the right half of the light receiving surface of the main pixel (photodiode PD). Therefore, only the left side of the optical axis of the light beam passing through the exit pupil is received by the main pixel. As shown in FIG. 6C, the light shielding member 17B shields the left half of the light receiving surface of the sub-pixel (photodiode PD). For this reason, only the right side of the optical axis of the light beam passing through the exit pupil is received by the sub-pixel. That is, the light shielding members 17A and 17B have a pupil division function.

このように位相差CCD17の主画素に射出瞳を通過する光束の光軸の左側のみを受光させ、副画素に射出瞳を通過する光束の光軸の右側のみを受光させるようにすることで、位相差CCD17で立体視画像を撮影する仕組みについて説明する。   In this way, by allowing the main pixel of the phase difference CCD 17 to receive only the left side of the optical axis of the light beam passing through the exit pupil and allowing the sub-pixel to receive only the right side of the optical axis of the light beam passing through the exit pupil, A mechanism for capturing a stereoscopic image with the phase difference CCD 17 will be described.

図7(A)〜(C)は、フォーカスレンズがそれぞれ前ピン、合焦(ベストフォーカス)、及び後ピンの違いによる撮像素子に結像する像の分離状態を示す図である。尚、図7では、フォーカスによる分離の違いを比較するために絞り16を省略している。   FIGS. 7A to 7C are diagrams illustrating separation states of images formed on the image sensor by the difference between the front lens, the in-focus (best focus), and the rear pin. In FIG. 7, the diaphragm 16 is omitted in order to compare the difference in separation due to focus.

図7(B)に示すように瞳分割された像のうちの合焦している像は、撮像素子上の同一位置に結像する(一致する)が、図7(A)及び(C)に示すように前ピン及び後ピンとなる像は、撮像素子上の異なる位置に結像する(分離する)。   As shown in FIG. 7B, the focused image of the pupil-divided images is formed (matched) at the same position on the image sensor, but FIGS. 7A and 7C. As shown in FIG. 5, the images to be the front pin and the rear pin are formed (separated) at different positions on the image sensor.

従って、左右方向に瞳分割された被写体像を位相差CCD17を介して取得することにより、フォーカス位置に応じて視差の異なる左視点画像及び右視点画像(立体視画像)を取得することができる。   Accordingly, by acquiring the subject image that is pupil-divided in the left-right direction via the phase difference CCD 17, it is possible to acquire a left viewpoint image and a right viewpoint image (stereoscopic image) having different parallaxes depending on the focus position.

尚、上記構成の位相CCD17は、主画素と副画素とでは、遮光部材17A、17Bより光束が制限されている領域(右半分、左半分)が異なるように構成されているが、これに限らず、遮光部材17A、17Bを設けずに、マイクロレンズLとフォトダイオードPDとを相対的に左右方向にずらし、そのずらす方向によりフォトダイオードPDに入射する光束が制限されるものでもよいし、また、2つの画素(主画素と副画素)に対して1つのマイクロレンズを設けることにより、各画素に入射する光束が制限されるものでもよい。   The phase CCD 17 configured as described above is configured such that the main pixel and the sub-pixel have different regions (right half and left half) in which the light flux is limited by the light shielding members 17A and 17B. First, without providing the light shielding members 17A and 17B, the microlens L and the photodiode PD may be relatively shifted in the left-right direction, and the light flux incident on the photodiode PD may be limited by the shifting direction. By providing one microlens for two pixels (main pixel and subpixel), the light flux incident on each pixel may be limited.

[撮像装置の内部構成]
図8は本発明の第1の実施の形態に係る立体パノラマ画像撮影装置1の実施の形態を示すブロック図である。
[Internal configuration of imaging device]
FIG. 8 is a block diagram showing an embodiment of the stereoscopic panorama image photographing apparatus 1 according to the first embodiment of the present invention.

この立体パノラマ画像撮影装置1は、撮像した画像をメモリカード154に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。   The stereoscopic panoramic image capturing apparatus 1 records a captured image on a memory card 154, and the operation of the entire apparatus is centrally controlled by a central processing unit (CPU) 40.

操作部138(シャッタボタン22、電源/モードスイッチ24、モードダイヤル26、ズームボタン30、十字ボタン32、MENU/OKボタン34、再生ボタン36、BACKボタン38等)からの信号はCPU140に入力され、CPU140は入力信号に基づいて立体パノラマ画像撮影装置1の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、立体表示用の液晶モニタ28の表示制御などを行う。   Signals from the operation unit 138 (shutter button 22, power / mode switch 24, mode dial 26, zoom button 30, cross button 32, MENU / OK button 34, playback button 36, BACK button 38, etc.) are input to the CPU 140. The CPU 140 controls each circuit of the stereoscopic panoramic image photographing apparatus 1 based on the input signal. For example, the lens driving control, the aperture driving control, the photographing operation control, the image processing control, the image data recording / reproducing control, and the stereoscopic display are controlled. Display control of the liquid crystal monitor 28 is performed.

CPU140によって制御されるレンズ駆動部136によってフォーカスレンズ、ズームレンズが駆動され、フォーカス制御、ズーム制御等が行われる。   A focus lens and a zoom lens are driven by a lens driving unit 136 controlled by the CPU 140, and focus control, zoom control, and the like are performed.

レンズ駆動部136は、CPU140からの指令に従い、フォーカスレンズを光軸方向に移動させ、焦点位置を可変する。また、レンズ駆動部136は、CPU140からの指令に従い、ズームレンズを光軸方向に進退動作させ、焦点距離を変更させる。   The lens driving unit 136 moves the focus lens in the optical axis direction in accordance with a command from the CPU 140 and changes the focal position. Further, the lens driving unit 136 moves the zoom lens forward and backward in the optical axis direction in accordance with a command from the CPU 140, and changes the focal length.

絞り16は、例えば、5枚の絞り羽根からなり、CPU140によって制御される絞り駆動部134によって駆動され、例えば、絞り値F2.8 〜F11まで1AV刻みで5段階に絞り制御される。   The diaphragm 16 is composed of, for example, five diaphragm blades, and is driven by the diaphragm driving unit 134 controlled by the CPU 140. For example, the diaphragm 16 is controlled in five stages from the aperture values F2.8 to F11 in increments of 1AV.

また、CPU140は、絞り駆動部134を介して絞り16を制御するとともに、CCD制御部132を介して位相差CCD17での電荷蓄積時間(シャッタスピード)や、位相差CCD17からの画像信号の読み出し制御等を行う。   Further, the CPU 140 controls the diaphragm 16 via the diaphragm driving unit 134 and controls the charge accumulation time (shutter speed) in the phase difference CCD 17 and the image signal readout control from the phase difference CCD 17 via the CCD control unit 132. Etc.

さらに、CPU140は、立体パノラマ画像撮影装置1の傾きを検出するジャイロセンサ(図示せず)の検出結果に応じて、検出された傾きを打ち消すように位相差CCD17が回転され、位相差CCD17が水平となるようにアクチュエータ18を制御する。   Further, the CPU 140 rotates the phase difference CCD 17 so as to cancel the detected inclination in accordance with the detection result of a gyro sensor (not shown) that detects the inclination of the stereoscopic panorama image photographing apparatus 1, and the phase difference CCD 17 is horizontal. The actuator 18 is controlled so that

図9A、図9Bは、アクチュエータ18の制御について説明する図であり、図9A(A)はレンズユニット12近傍の要部を示す正面図であり、図9A(B)はレンズユニット12近傍の要部を示す断面図である。同図(B)には、アクチュエータ18の制御のための電気的な内部構成があわせて記載されている。   9A and 9B are diagrams for explaining the control of the actuator 18, FIG. 9A (A) is a front view showing a main part near the lens unit 12, and FIG. 9A (B) is a main part near the lens unit 12. It is sectional drawing which shows a part. FIG. 5B also shows an electrical internal configuration for controlling the actuator 18.

位相差CCD17の背面には基板17Aが配設されており、基板17の背面には、アクチュエータ18の出力軸18Aの中心が位相差CCD17の中央と略一致するように、出力軸18Aが固定されている。   A substrate 17A is disposed on the back surface of the phase difference CCD 17, and an output shaft 18A is fixed on the back surface of the substrate 17 so that the center of the output shaft 18A of the actuator 18 substantially coincides with the center of the phase difference CCD 17. ing.

位置検出装置19は、基板17Aの回転位置を検出するものであり、ホールセンサ19Aと磁石19Bとで構成される。磁石19Bは、基板17Aの上側の辺の中央近傍に固定され、基板17Aと共に移動する。ホールセンサ19Aは、磁石19Bに対向するようにカメラボディ10に固定され、磁石19Bによる磁界を検出し、その大きさに比例したアナログ信号を出力する。これにより、位置検出装置19からは基板17Aの回転角度に応じた信号が出力される。位置検出装置19からの出力は、センサアンプ160で増幅されてアクチュエータ駆動回路165へ入力される。なお、位置検出装置19は、ホールセンサ19Aと磁石19Bとで構成される物に限られず、様々な公知の技術を用いることができる。   The position detection device 19 detects the rotational position of the substrate 17A, and includes a hall sensor 19A and a magnet 19B. The magnet 19B is fixed near the center of the upper side of the substrate 17A and moves together with the substrate 17A. The hall sensor 19A is fixed to the camera body 10 so as to face the magnet 19B, detects a magnetic field generated by the magnet 19B, and outputs an analog signal proportional to the magnitude thereof. Thereby, a signal corresponding to the rotation angle of the substrate 17A is output from the position detection device 19. The output from the position detection device 19 is amplified by the sensor amplifier 160 and input to the actuator drive circuit 165. Note that the position detection device 19 is not limited to the one constituted by the hall sensor 19A and the magnet 19B, and various known techniques can be used.

加速度センサ20Aは、重力加速度を検出するセンサであり、位相差CCD17の傾きを検出するセンサである。角速度センサ20Bは、位相差CCD17のz軸周りの角速度を検出するセンサである。加速度センサ20A、角速度センサ20Bからの出力は、それぞれアンプ161A、161Bで増幅され、A/D変換器162A、162Bでデジタル信号に変換されてマイコン163に入力される。   The acceleration sensor 20 </ b> A is a sensor that detects gravitational acceleration, and is a sensor that detects the inclination of the phase difference CCD 17. The angular velocity sensor 20 </ b> B is a sensor that detects an angular velocity around the z-axis of the phase difference CCD 17. Outputs from the acceleration sensor 20A and the angular velocity sensor 20B are amplified by amplifiers 161A and 161B, converted into digital signals by A / D converters 162A and 162B, and input to the microcomputer 163.

マイコン163は、アクチュエータ駆動回路165を介してアクチュエータ18の駆動を制御するもので、A/D変換器162Bから入力された信号に基づいて角速度センサ20Bの出力を打ち消すように位相差CCD17を回転させることを決定する。マイコン163は、決定した回転量をD/A変換器164を介してアクチュエータ駆動回路165に出力し、アクチュエータ駆動回路165は、マイコン163からの出力に基づいてアクチュエータ18を駆動する。   The microcomputer 163 controls the driving of the actuator 18 via the actuator driving circuit 165, and rotates the phase difference CCD 17 so as to cancel the output of the angular velocity sensor 20B based on the signal input from the A / D converter 162B. Decide that. The microcomputer 163 outputs the determined rotation amount to the actuator drive circuit 165 via the D / A converter 164, and the actuator drive circuit 165 drives the actuator 18 based on the output from the microcomputer 163.

それに加え、マイコン163は、A/D変換器162Aから入力された信号、すなわち加速度センサ20Aからの出力に基づいてアクチュエータ18の駆動量を決定する。図9B(C)は、マイコン163が加速度センサ20Aからの出力に基づいてアクチュエータ18の駆動量を決定する処理の流れを示すフローチャートである。   In addition, the microcomputer 163 determines the drive amount of the actuator 18 based on the signal input from the A / D converter 162A, that is, the output from the acceleration sensor 20A. FIG. 9B (C) is a flowchart showing a flow of processing in which the microcomputer 163 determines the drive amount of the actuator 18 based on the output from the acceleration sensor 20A.

図9B(D)に示すように、加速度センサ20Aでは重力方向の加速度(鉛直下向き)が検出されるが、基板17Aが傾いている場合には、検出された加速度はx方向の成分(以下、x成分という)及びy方向の成分(以下、y成分という)に分解可能である。まず、マイコン163は、A/D変換器162Aからの信号からx成分を検出し、閾値x1、x2と比較することでレベルを判定する(ステップS1)。閾値x1、x2は、少なくとも駆動1パルス分に相当するx成分の変化量となるように設定される。   As shown in FIG. 9B (D), the acceleration sensor 20A detects the acceleration in the gravitational direction (vertically downward). However, when the substrate 17A is tilted, the detected acceleration is a component in the x direction (hereinafter, x component) and y direction component (hereinafter referred to as y component). First, the microcomputer 163 detects the x component from the signal from the A / D converter 162A, and determines the level by comparing with the threshold values x1 and x2 (step S1). The threshold values x1 and x2 are set so as to be a change amount of the x component corresponding to at least one drive pulse.

x成分がx1より大きい場合(ステップS2)には、位相差CCD17が正面から見て時計回りに所定の角度以上回転している場合であるため、マイコン163は、位相差CCD17を反時計回り(図9B(D)L方向)に1パルス移動させることを決定する(ステップS5)。   When the x component is larger than x1 (step S2), since the phase difference CCD 17 is rotated by a predetermined angle or more clockwise as viewed from the front, the microcomputer 163 rotates the phase difference CCD 17 counterclockwise ( It is determined that one pulse is moved in the direction L in FIG. 9B (D) (step S5).

x成分がx1以下、x2以上である場合(ステップS3)は、位相差CCD17の傾きが0又は微小である場合であるため、マイコン163は、位相差CCD17を回転させないことを決定する。   When the x component is equal to or smaller than x1 and equal to or larger than x2 (step S3), the microcomputer 163 determines not to rotate the phase difference CCD 17 because the inclination of the phase difference CCD 17 is 0 or very small.

x成分がx2より小さい場合(ステップS4)には、位相差CCD17が正面から見て反時計回りに所定の角度以上回転している場合であるため、マイコン163は、位相差CCD17を時計回り(図9B(D)R方向)に1パルス移動させることを決定する(ステップS6)。   When the x component is smaller than x2 (step S4), since the phase difference CCD 17 is rotated counterclockwise by a predetermined angle or more when viewed from the front, the microcomputer 163 rotates the phase difference CCD 17 clockwise ( In FIG. 9B (D) direction R), it is determined to move one pulse (step S6).

そして、図9B(C)のフローチャートにより決定された回転量をD/A変換器164を介してアクチュエータ駆動回路165に出力する。アクチュエータ駆動回路165には位置検出装置19からの信号が入力されており、アクチュエータ駆動回路165は、位置検出装置19により基板17A(すなわち位相差CCD17)の回転が0となった場合には、角速度センサ20Bの出力を打ち消すように決定された量だけアクチュエータ18が駆動されていない場合であってもアクチュエータ18の駆動を停止する。このようなフィードバック制御を行うことにより、ハンチングを防止することができる。   Then, the rotation amount determined by the flowchart of FIG. 9B (C) is output to the actuator drive circuit 165 via the D / A converter 164. A signal from the position detection device 19 is input to the actuator drive circuit 165, and the actuator drive circuit 165 receives the angular velocity when the rotation of the substrate 17A (that is, the phase difference CCD 17) is zero by the position detection device 19. Even when the actuator 18 is not driven by an amount determined to cancel the output of the sensor 20B, the driving of the actuator 18 is stopped. By performing such feedback control, hunting can be prevented.

図8の説明に戻る。位相差CCD17に蓄積された信号電荷は、CCD制御部132から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。位相差CCD17から読み出された電圧信号は、アナログ信号処理部120に加えられる。   Returning to the description of FIG. The signal charge accumulated in the phase difference CCD 17 is read out as a voltage signal corresponding to the signal charge based on the readout signal applied from the CCD controller 132. The voltage signal read from the phase difference CCD 17 is applied to the analog signal processing unit 120.

アナログ信号処理部120は、位相差CCD17から出力された電圧信号に対して相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)により各画素ごとのR、G、B信号がサンプリングホールドされ、増幅されたのちA/D変換器121に加えられる。A/D変換器121は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ122に出力する。   The analog signal processing unit 120 performs an correlated double sampling process on the voltage signal output from the phase difference CCD 17 (for the purpose of reducing noise (particularly thermal noise) included in the output signal of the image sensor). R, G, B signals for each pixel are sampled and held by the process of obtaining accurate pixel data by taking the difference between the feedthrough component level and the pixel signal component level included in the output signal for each pixel of After being amplified, it is added to the A / D converter 121. The A / D converter 121 converts R, G, and B signals that are sequentially input into digital R, G, and B signals and outputs them to the image input controller 122.

デジタル信号処理部124は、画像入力コントローラ122を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正及び感度補正を含むゲイン・コントロール処理、ガンマ補正処理、YC処理等の所定の信号処理を行う。   The digital signal processing unit 124 performs predetermined processing such as offset control, gain control processing including white balance correction and sensitivity correction, gamma correction processing, YC processing, and the like on a digital image signal input via the image input controller 122. Perform signal processing.

ここで、図4(B)及び(C)に示すように,位相差CCD17の奇数ラインの主画素から読み出される主画像データは、左視点画像データとして処理され、偶数ラインの副画素から読み出される副画像データは、右視点画像データとして処理される。   Here, as shown in FIGS. 4B and 4C, the main image data read from the odd-line main pixels of the phase difference CCD 17 is processed as the left viewpoint image data and read from the even-line sub-pixels. The sub image data is processed as right viewpoint image data.

デジタル信号処理部124で処理された左視点画像データ及び右視点画像データ(3D画像データ)は、VRAM150に入力される。VRAM150には、それぞれが1コマ分の3D画像を表す3D画像データを記憶するA領域とB領域とが含まれている。VRAM150において1コマ分の3D画像を表す3D画像データがA領域とB領域とで交互に書き換えられる。VRAM150のA領域及びB領域のうち、3D画像データが書き換えられている方の領域以外の領域から、書き込まれている3D画像データが読み出される。VRAM150から読み出された3D画像データはビデオ・エンコーダ128においてエンコーディングされ、カメラ背面に設けられている立体表示用の液晶モニタ28に出力され、これにより3Dの被写体像が液晶モニタ28の表示画面上に表示される。   The left viewpoint image data and right viewpoint image data (3D image data) processed by the digital signal processing unit 124 are input to the VRAM 150. The VRAM 150 includes an A area and a B area each storing 3D image data representing a 3D image for one frame. In the VRAM 150, 3D image data representing a 3D image for one frame is rewritten alternately in the A area and the B area. The written 3D image data is read from an area other than the area in which the 3D image data is rewritten in the A area and the B area of the VRAM 150. The 3D image data read from the VRAM 150 is encoded by the video encoder 128 and output to the stereoscopic display liquid crystal monitor 28 provided on the back of the camera, whereby the 3D subject image is displayed on the display screen of the liquid crystal monitor 28. Is displayed.

また、操作部138のシャッタボタンの第1段階の押下(半押し)があると、CCD40は、AF動作及びAE動作を開始させ、レンズ駆動部136を介して撮影レンズ14内のフォーカスレンズが合焦位置にくるように制御する。また、シャッタボタンの半押し時にA/D変換器121から出力される画像データは、AE検出部144に取り込まれる。   In addition, when the shutter button of the operation unit 138 is pressed (half-pressed) in the first stage, the CCD 40 starts the AF operation and the AE operation, and the focus lens in the photographing lens 14 is aligned via the lens driving unit 136. Control to come to the focal position. In addition, the image data output from the A / D converter 121 when the shutter button is half-pressed is taken into the AE detection unit 144.

AE検出部144では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU140に出力する。CPU140は、AE検出部144から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて絞り16の絞り値及び位相差CCD17の電子シャッタ(シャッタスピード)を所定のプログラム線図にしたがって決定し、その決定した絞り値に基づいて絞り駆動部134を介して絞り16を制御するとともに、決定したシャッタスピードに基づいてCCD制御部132を介して位相差CCD17での電荷蓄積時間を制御する。   The AE detection unit 144 integrates the G signals of the entire screen, or integrates the G signals that are weighted differently in the central portion and the peripheral portion of the screen, and outputs the integrated value to the CPU 140. The CPU 140 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 144, and sets the aperture value of the diaphragm 16 and the electronic shutter (shutter speed) of the phase difference CCD 17 based on this shooting Ev value. The diaphragm 16 is determined according to a predetermined program diagram, and the diaphragm 16 is controlled via the diaphragm driver 134 based on the determined diaphragm value, and at the phase difference CCD 17 via the CCD controller 132 based on the determined shutter speed. To control the charge accumulation time.

AF処理部142は、コントラストAF処理又は位相差AF処理を行う部分である。コントラストAF処理を行う場合には、左視点画像データ及び右視点画像データの少なくとも一方の画像データのうちの所定のフォーカス領域内の画像データの高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるように撮影レンズ14内のフォーカスレンズを制御することによりAF制御が行われる。また、位相差AF処理を行う場合には、左視点画像データ及び右視点画像データのうちの所定のフォーカス領域内の主画素、副画素に対応する画像データの位相差を検出し、この位相差を示す情報に基づいてデフォーカス量を求める。このデフォーカス量が0になるように撮影レンズ14内のフォーカスレンズを制御することによりAF制御が行われる。なお、AF処理は、所定のフォーカス領域内の画像データを対象にしてもよいし、画像データの全画素を対象にしてもよい。また、AF処理部142は、CPU140から合焦すべき被写体の位置(以下、フォーカス位置という)が入力された場合には、このフォーカス位置に合焦させるようにフォーカスレンズを制御する。   The AF processing unit 142 is a part that performs contrast AF processing or phase difference AF processing. When performing contrast AF processing, by extracting a high frequency component of image data in a predetermined focus area from at least one of left viewpoint image data and right viewpoint image data, and integrating the high frequency component An AF evaluation value indicating the in-focus state is calculated. AF control is performed by controlling the focus lens in the photographic lens 14 so that the AF evaluation value is maximized. When performing the phase difference AF process, the phase difference between the image data corresponding to the main pixel and the sub pixel in the predetermined focus area in the left viewpoint image data and the right viewpoint image data is detected, and this phase difference is detected. The defocus amount is obtained based on the information indicating. AF control is performed by controlling the focus lens in the photographic lens 14 so that the defocus amount becomes zero. Note that the AF processing may target image data within a predetermined focus area, or may target all pixels of the image data. Further, when the position of the subject to be focused (hereinafter referred to as a focus position) is input from the CPU 140, the AF processing unit 142 controls the focus lens so as to focus on the focus position.

距離情報取得部146は、AF処理部142がコントラストAF処理を行う場合には、AF評価値が極大となるようにフォーカスレンズが制御された際のレンズ位置から被写体像までの距離を算出する。距離情報取得部146は、AF処理部142が位相差AF処理を行う場合には、AF処理部142で得られたデフォーカス量から距離情報を算出する。距離情報とは被写体までの距離であり、距離情報取得部146は各画素毎に距離情報を算出する。なお、距離情報の算出方法はこれに限られず、外測位相差検出方式、超音波センサ方式、赤外線センサ方式等の任意の方式を採用してもよい。   When the AF processing unit 142 performs contrast AF processing, the distance information acquisition unit 146 calculates the distance from the lens position to the subject image when the focus lens is controlled so that the AF evaluation value is maximized. The distance information acquisition unit 146 calculates distance information from the defocus amount obtained by the AF processing unit 142 when the AF processing unit 142 performs the phase difference AF processing. The distance information is the distance to the subject, and the distance information acquisition unit 146 calculates the distance information for each pixel. The method for calculating the distance information is not limited to this, and any method such as an external measurement phase difference detection method, an ultrasonic sensor method, an infrared sensor method, or the like may be adopted.

AE動作及びAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器121から出力される主画素及び副画素に対応する左視点画像(主画像)及び右視点画像(副画像)の2枚分の画像データが画像入力コントローラ122からメモリ(SDRAM)148に入力し、一時的に記憶される。   When the AE operation and the AF operation are completed and the shutter button is pressed in the second stage (full press), the left corresponding to the main pixel and the sub pixel output from the A / D converter 121 in response to the press. Two pieces of image data of the viewpoint image (main image) and the right viewpoint image (sub-image) are input from the image input controller 122 to the memory (SDRAM) 148 and temporarily stored.

メモリ148に一時的に記憶された2枚分の画像データは、デジタル信号処理部124により適宜読み出され、ここで画像データの輝度データ及び色差データの生成処理(YC処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、再びメモリ148に記憶される。続いて、2枚分のYCデータは、それぞれ圧縮伸張処理部126に出力され、JPEG (joint photographic experts group)などの所定の圧縮処理が実行されたのち、再びメモリ148に記憶される。   The two pieces of image data temporarily stored in the memory 148 are appropriately read out by the digital signal processing unit 124, where predetermined signals including generation processing (YC processing) of luminance data and color difference data of the image data are performed. Processing is performed. The YC-processed image data (YC data) is stored in the memory 148 again. Subsequently, the two pieces of YC data are respectively output to the compression / decompression processing unit 126, subjected to predetermined compression processing such as JPEG (joint photographic experts group), and then stored in the memory 148 again.

メモリ148に記憶された2枚分のYCデータ(圧縮データ)から、マルチピクチャファイル(MPファイル:複数の画像が連結された形式のファイル)が生成され、そのMPファイルは、メディア・コントローラ152により読み出され、メモリカード154に記録される。   A multi-picture file (MP file: a file in which a plurality of images are connected) is generated from two pieces of YC data (compressed data) stored in the memory 148, and the MP file is generated by the media controller 152. It is read and recorded in the memory card 154.

顔検出部156は、CPU140からの指令に従い、画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。   The face detection unit 156 extracts a face area in the image from the image data according to a command from the CPU 140, and detects the position (for example, the center of gravity of the face area). In this face area extraction, for example, skin color data is extracted from an original image, and a cluster of photometric points determined to be in the skin color range is extracted as a face. In addition, as a method for extracting a face area from an image, a method for determining a face area by converting photometric data into hue and saturation, creating a two-dimensional histogram of the converted hue / saturation, and analyzing it. Or a method for extracting a face candidate region corresponding to the shape of a human face and determining the face region from the feature amount in the region, extracting a human face outline from an image, and determining a face region, There are known methods for extracting a human face by preparing a template having the shape of a human face, calculating the correlation between the template and an image, and using the correlation value as a face candidate region. Can be extracted.

[撮像装置の動作の説明]
次に、立体パノラマ画像撮影装置1の動作について説明する。この撮像処理はCPU140によって制御される。この撮像処理をCPU140に実行させるためのプログラムはCPU140内のプログラム格納部に記憶されている。立体パノラマ画像撮影装置1は、平面画像、立体視画像の両方が撮影可能である。
[Description of Operation of Imaging Device]
Next, the operation of the stereoscopic panorama image photographing apparatus 1 will be described. This imaging process is controlled by the CPU 140. A program for causing the CPU 140 to execute the imaging process is stored in a program storage unit in the CPU 140. The stereoscopic panoramic image capturing apparatus 1 can capture both a planar image and a stereoscopic image.

(1)平面画像の撮影処理
モードダイヤル26により平面画像撮影モードに設定されている場合には、CPU140は、位相差CCD17の主画素のみを用いて撮影を行う。
(1) Plane Image Shooting Processing When the mode dial 26 is set to the plane image shooting mode, the CPU 140 performs shooting using only the main pixel of the phase difference CCD 17.

撮影レンズ14を通過した被写体光は、絞り16を介して位相差CCD17の受光面に結像される。CCD制御部132は位相差CCD17の主画素に蓄えられた信号電荷は信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ信号処理部120、A/D変換器121、画像入力コントローラ122を介してデジタル信号処理部124に順次入力され、左視点画像データが順次生成される。生成された左視点画像データは順次VRAM150に入力される。   The subject light that has passed through the photographing lens 14 forms an image on the light receiving surface of the phase difference CCD 17 through the diaphragm 16. The CCD controller 132 sequentially reads out the signal charge stored in the main pixel of the phase difference CCD 17 as a voltage signal (image signal) corresponding to the signal charge, and the analog signal processing unit 120, the A / D converter 121, and the image input. The left viewpoint image data is sequentially generated by sequentially inputting the digital signal processing unit 124 via the controller 122. The generated left viewpoint image data is sequentially input to the VRAM 150.

左視点画像データはVRAM150から順次出力され、デジタル信号処理部124で輝度/色差信号が生成され、その信号がビデオ・エンコーダ128を介して液晶モニタ28に出力される。   The left viewpoint image data is sequentially output from the VRAM 150, a luminance / color difference signal is generated by the digital signal processing unit 124, and the signal is output to the liquid crystal monitor 28 via the video encoder 128.

この処理を順次行うことにより、位相差CCD17の主画素で撮像される画像が液晶モニタ28にリアルタイムに表示される。撮影者は、この液晶モニタ28に液晶モニタ28にリアルタイムに表示される画像(スルー画像)を見ることにより、撮影画角を確認することができる。   By sequentially performing this process, an image captured by the main pixel of the phase difference CCD 17 is displayed on the liquid crystal monitor 28 in real time. The photographer can confirm the angle of view by viewing the image (through image) displayed on the liquid crystal monitor 28 in real time on the liquid crystal monitor 28.

シャッタボタンが半押しされると、S1ON信号がCPU140に入力され、CPU140はAE/AF動作を実施する。平面画像の撮影処理においては、AF処理部142は、コントラストAF処理によりF動作を行う。   When the shutter button is half-pressed, an S1 ON signal is input to the CPU 140, and the CPU 140 performs an AE / AF operation. In the planar image shooting process, the AF processing unit 142 performs the F operation by the contrast AF process.

この後、シャッタボタンが全押しされると、CPU140にS2ON信号が入力され、CPU140は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッター速度、絞り値で位相差CCD17を露光する。   Thereafter, when the shutter button is fully pressed, an S2 ON signal is input to the CPU 140, and the CPU 140 starts photographing and recording processing. That is, the phase difference CCD 17 is exposed with the shutter speed and aperture value determined based on the photometric result.

位相差CCD17から出力された画像信号は、アナログ処理部120、A/D変換器121、画像入力コントローラ122を介してVRAM150に取り込まれ、デジタル信号処理部124において輝度/色差信号に変換されたのち、VRAM150に格納される。VRAM150に格納された左視点画像データは、圧縮伸張処理部126に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ148に格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、メディア・コントローラ152を介してメモリカード154に記録される。これにより、平面画像が撮影、記録される。   The image signal output from the phase difference CCD 17 is taken into the VRAM 150 via the analog processing unit 120, the A / D converter 121, and the image input controller 122, and is converted into a luminance / color difference signal by the digital signal processing unit 124. Stored in the VRAM 150. The left viewpoint image data stored in the VRAM 150 is added to the compression / decompression processing unit 126, compressed in accordance with a predetermined compression format (for example, JPEG format), stored in the memory 148, and then stored in a predetermined image recording format (for example, Exif format). ) Is recorded on the memory card 154 via the media controller 152. As a result, a planar image is taken and recorded.

(2)立体視画像の撮影処理
モードダイヤル26により立体視画像撮影モードに設定されている場合には、CPU140は、位相差CCD17の主画素、副画素の全てを用いて撮影を行う。
(2) Stereoscopic Image Shooting Processing When the mode dial 26 is set to the stereoscopic image shooting mode, the CPU 140 performs shooting using all of the main pixels and subpixels of the phase difference CCD 17.

撮影レンズ14を通過した被写体光は、絞り16を介して位相差CCD17の受光面に結像される。CCD制御部132は位相差CCD17の主画素及び副画素に蓄えられた信号電荷は信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ信号処理部120、A/D変換器121、画像入力コントローラ122を介してデジタル信号処理部124に順次入力され、左視点画像データ及び右視点画像データが順次生成される。生成された左視点画像データ及び右視点画像データは順次VRAM150に入力される。   The subject light that has passed through the photographing lens 14 forms an image on the light receiving surface of the phase difference CCD 17 through the diaphragm 16. The CCD control unit 132 sequentially reads out the signal charges stored in the main pixel and subpixel of the phase difference CCD 17 as a voltage signal (image signal) corresponding to the signal charge, and the analog signal processing unit 120 and the A / D converter 121. Are sequentially input to the digital signal processing unit 124 via the image input controller 122, and left viewpoint image data and right viewpoint image data are sequentially generated. The generated left viewpoint image data and right viewpoint image data are sequentially input to the VRAM 150.

左視点画像データ及び右視点画像データはVRAM150から順次出力され、デジタル信号処理部124で輝度/色差信号が生成され、その信号がビデオ・エンコーダ128を介して液晶モニタ28に出力される。液晶モニタ28には、パララックスバリアが発生されるとともに、その下層の画像表示面に左視点画像データと右視点画像データとの短冊状の画像断片が交互に配列して表示される。   The left viewpoint image data and the right viewpoint image data are sequentially output from the VRAM 150, a luminance / color difference signal is generated by the digital signal processing unit 124, and the signal is output to the liquid crystal monitor 28 via the video encoder 128. On the liquid crystal monitor 28, a parallax barrier is generated, and strip-shaped image fragments of the left viewpoint image data and the right viewpoint image data are alternately arranged and displayed on the lower image display surface.

この処理を順次行うことにより、位相差CCD17の主画素、副画素で撮像される画像を液晶モニタ28にリアルタイムに表示する。撮影者は、この液晶モニタ28に液晶モニタ28にリアルタイムに表示される画像(スルー画像)を見ることにより、撮影画角を確認することができる。   By sequentially performing this processing, an image picked up by the main pixel and sub-pixel of the phase difference CCD 17 is displayed on the liquid crystal monitor 28 in real time. The photographer can confirm the angle of view by viewing the image (through image) displayed on the liquid crystal monitor 28 in real time on the liquid crystal monitor 28.

シャッタボタンが半押しされると、S1ON信号がCPU140に入力され、CPU140はAE/AF動作を実施する。立体視画像の撮影処理においては、AF処理部142は、位相差AF処理によりAF動作を行う。   When the shutter button is half-pressed, an S1 ON signal is input to the CPU 140, and the CPU 140 performs an AE / AF operation. In the stereoscopic image shooting process, the AF processing unit 142 performs an AF operation by phase difference AF processing.

シャッタボタンが全押しされると、CPU140にS2ON信号が入力され、CPU140は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッター速度、絞り値で位相差CCD17を露光する。   When the shutter button is fully pressed, an S2ON signal is input to the CPU 140, and the CPU 140 starts photographing and recording processing. That is, the phase difference CCD 17 is exposed with the shutter speed and aperture value determined based on the photometric result.

位相差CCD17の主画素、副画素からそれぞれ出力された2枚分の画像データは、アナログ処理部120、A/D変換器121、画像入力コントローラ122を介してVRAM150に取り込まれ、デジタル信号処理部124において輝度/色差信号に変換されたのち、VRAM150に格納される。VRAM150に格納された左視点画像データ及び右視点画像データは、圧縮伸張処理部126に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ148に格納される。   Two pieces of image data respectively output from the main pixel and sub-pixel of the phase difference CCD 17 are taken into the VRAM 150 via the analog processing unit 120, the A / D converter 121, and the image input controller 122, and the digital signal processing unit. After being converted into a luminance / color difference signal at 124, it is stored in the VRAM 150. The left viewpoint image data and the right viewpoint image data stored in the VRAM 150 are added to the compression / decompression processing unit 126, compressed according to a predetermined compression format (for example, JPEG format), and then stored in the memory 148.

メモリ148に記憶された2枚分の圧縮データからMPファイルが生成され、そのMPファイルはメディア・コントローラ152を介してメモリカード154に記録される。これにより、立体視画像が撮影、記録される。   An MP file is generated from the two compressed data stored in the memory 148, and the MP file is recorded on the memory card 154 via the media controller 152. As a result, a stereoscopic image is captured and recorded.

(3)立体パノラマ画像の撮影処理
モードダイヤル26により立体パノラマ撮影モードに設定されている場合には、CPU140は、位相差CCD17の主画素、副画素の全てを用いて撮影を行う。図10は、図11(a)に示すパノラマ画像を撮影する場合における立体パノラマ画像の撮影処理の流れを示すフローチャートである。図11(b)は、図11(a)に示すパノラマ画像の撮影範囲を示す図である。
(3) Stereo panoramic image shooting processing When the mode dial 26 is set to the stereoscopic panorama shooting mode, the CPU 140 performs shooting using all of the main pixels and sub-pixels of the phase difference CCD 17. FIG. 10 is a flowchart showing the flow of a stereoscopic panorama image photographing process in the case of photographing the panoramic image shown in FIG. FIG. 11B is a diagram showing the panorama image shooting range shown in FIG.

(ステップS10)CPU140は、通常の立体視画像の撮影処理と同様の方法により、位相差CCD17の主画素、副画素で撮像される画像を液晶モニタ28にリアルタイムに表示する。このスルー画像の撮影は、図11(c)に示すように、パノラマ写真の撮影範囲と略同一の撮影範囲又はパノラマ写真の撮影範囲を含む撮影範囲で行われる。   (Step S10) The CPU 140 displays in real time on the liquid crystal monitor 28 images picked up by the main pixels and sub-pixels of the phase difference CCD 17 by the same method as the normal stereoscopic image capturing process. As shown in FIG. 11C, the through image is shot in a shooting range that is substantially the same as the panoramic photo shooting range or a panoramic photo shooting range.

(ステップS12)AF処理部142は、リアルタイムに主画素、副画素で撮像された左視点画像データ及び右視点画像データのうちの全画素を対象に位相差AF処理を行い、デフォーカス量を求める。距離情報取得部146は、この求められたデフォーカス量を取得し、距離情報を算出する。これにより、パノラマ写真の撮影範囲と略同一の撮影範囲又はパノラマ写真の撮影範囲を含む撮影範囲の全被写体に対して距離情報が取得できる。   (Step S12) The AF processing unit 142 performs a phase difference AF process on all the pixels of the left viewpoint image data and the right viewpoint image data captured by the main pixel and the sub pixels in real time to obtain the defocus amount. . The distance information acquisition unit 146 acquires the obtained defocus amount and calculates distance information. As a result, distance information can be acquired for all subjects in the shooting range including substantially the same shooting range as the panoramic photo shooting range or the panoramic photo shooting range.

算出された距離情報は、CPU140に入力される。CPU140は、主要被写体が被写界深度の後端(撮影レンズ14から遠い側の端)近傍に位置するように、距離情報に基づいてフォーカス位置を決定する。   The calculated distance information is input to the CPU 140. The CPU 140 determines the focus position based on the distance information so that the main subject is located in the vicinity of the rear end of the depth of field (the end far from the photographing lens 14).

本実施の形態では、顔検出部156により顔領域が抽出された人物を主要被写体とするが、他の方法により主要被写体を求めてもよい。顔検出部156により複数の顔領域が検出されている場合には、最も大きい顔領域を主要被写体とすればよい。顔検出部156により顔領域が検出されなかった場合には、スルー画像から特徴点検出等により検出された被写体を主要被写体とすればよい。   In this embodiment, the person whose face area is extracted by the face detection unit 156 is the main subject, but the main subject may be obtained by other methods. When a plurality of face areas are detected by the face detection unit 156, the largest face area may be set as the main subject. When the face area is not detected by the face detection unit 156, the subject detected by the feature point detection or the like from the through image may be set as the main subject.

図12は、被写界深度を説明する図である。厳密に言えば点Bが合焦位置であるが、点A〜点Cまでの範囲にある被写体は感覚的には合焦しているように見える。この点A〜点Cまでの範囲が被写界深度である。被写界深度の後端は、図12の点Aである。   FIG. 12 is a diagram illustrating the depth of field. Strictly speaking, point B is the in-focus position, but a subject in the range from point A to point C seems to be in focus in a sense. The range from point A to point C is the depth of field. The rear end of the depth of field is point A in FIG.

このように、主要被写体が被写界深度の後端に位置する、すなわちフォーカス位置を主要被写体の若干手前にすると、背景がよりボケ易くなる。背景がボケている場合は心理効果によって主要被写体の立体視による浮かび具合が際立つため、立体視画像の品質を向上させることができる。   As described above, when the main subject is located at the rear end of the depth of field, that is, when the focus position is slightly in front of the main subject, the background is more easily blurred. When the background is blurred, the floating state of the main subject in the stereoscopic view is conspicuous due to the psychological effect, so that the quality of the stereoscopic image can be improved.

(ステップS14)CPU140は、ステップS12で決定されたフォーカス位置をAF処理部142へ入力する。AF処理部142は、このフォーカス位置に合焦させるようにフォーカスレンズを制御する。   (Step S14) The CPU 140 inputs the focus position determined in step S12 to the AF processing unit 142. The AF processing unit 142 controls the focus lens so as to focus on this focus position.

シャッタボタンが半押しされると、S1ON信号がCPU140に入力され、CPU140はAE動作を実施する。立体パノラマ写真撮影では、フォーカス位置が決定されているため、AF処理は行われない。   When the shutter button is half-pressed, an S1 ON signal is input to the CPU 140, and the CPU 140 performs an AE operation. In stereoscopic panoramic photography, since the focus position is determined, AF processing is not performed.

シャッタボタンが全押しされると、CPU140にS2ON信号が入力され、CPU140は、図11(d)に示すように、パノラマ写真の撮影範囲の端を含む撮影範囲(図11(a)の撮影範囲A)で1枚目の左視点画像データ及び右視点画像データを取得する。AF処理部142は撮影された左視点画像データ及び右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して各画素毎に距離情報を算出する。   When the shutter button is fully pressed, an S2ON signal is input to the CPU 140, and the CPU 140, as shown in FIG. 11 (d), captures an end of the panoramic photo shooting range (the shooting range of FIG. 11 (a)). In A), the first left viewpoint image data and right viewpoint image data are acquired. The AF processing unit 142 obtains the defocus amount based on the captured left viewpoint image data and right viewpoint image data, and the distance information acquisition unit 146 obtains the obtained defocus amount and obtains the distance information for each pixel. calculate.

(ステップS16)再度シャッタボタンが全押しされると、CPU140に2回目のS2ON信号が入力される。CPU140は、ステップS14のフォーカス位置のまま、図11(e)に示すように1枚目とは異なる撮影範囲(図11(a)の撮影範囲B)で2枚目の左視点画像データ及び右視点画像データを取得する。撮影範囲の移動は、撮影者が立体パノラマ画像撮影装置1の位置を変えないで立体パノラマ画像撮影装置1の向きを左右に振る、すなわちパンニングすることにより行われる。なお、パンニングの方向は特に限定されない。   (Step S16) When the shutter button is fully pressed again, a second S2 ON signal is input to the CPU 140. The CPU 140 remains at the focus position in step S14, as shown in FIG. 11E, and the second left viewpoint image data and the right image in the shooting range different from the first image (shooting range B in FIG. 11A). Obtain viewpoint image data. The movement of the photographing range is performed by the photographer swinging the stereoscopic panoramic image photographing apparatus 1 left and right without changing the position of the stereoscopic panoramic image photographing apparatus 1, that is, panning. The panning direction is not particularly limited.

AF処理部142は撮影された左視点画像データ及び右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して各画素毎に距離情報を算出する。2枚目の撮影範囲は、図11(d)、(e)に示すように1枚目の画像と重複する空間を含み、かつ1枚目の画像と連続した空間となるように設定される。したがって、2枚目の左視点画像データ及び右視点画像データは、1枚目の左視点画像データ及び右視点画像データと一部が重複している。   The AF processing unit 142 obtains the defocus amount based on the captured left viewpoint image data and right viewpoint image data, and the distance information acquisition unit 146 obtains the obtained defocus amount and obtains the distance information for each pixel. calculate. As shown in FIGS. 11D and 11E, the second image capturing range is set so as to include a space overlapping the first image and to be a space continuous with the first image. . Accordingly, the second left viewpoint image data and right viewpoint image data partially overlap with the first left viewpoint image data and right viewpoint image data.

ステップS14、S16で位相差CCD17の主画素、副画素から出力された4枚分の画像データは、アナログ処理部120、A/D変換器121、画像入力コントローラ122を介してVRAM150に取り込まれ、デジタル信号処理部124において輝度/色差信号に変換されたのち、VRAM150に格納される。   The four pieces of image data output from the main pixel and subpixel of the phase difference CCD 17 in steps S14 and S16 are taken into the VRAM 150 via the analog processing unit 120, the A / D converter 121, and the image input controller 122. After being converted into a luminance / color difference signal in the digital signal processing unit 124, it is stored in the VRAM 150.

(ステップS18)CPU140は、VRAM150に格納された1枚目の左視点画像データと2枚目の左視点画像データとをつなぎ合わせてパノラマ画像用の左視点画像データを生成する。CPU140は、距離情報取得部146により算出された1枚目の左視点画像データ及び2枚目の左視点画像データの各画素の距離情報に基づいて1枚目の左視点画像データと2枚目の左視点画像データとの互いに重複する部分のなかから距離情報が同一の領域を検出する。図13の斜線部は、1枚目の左視点画像データと2枚目の左視点画像データとの互いに重複する部分のなかから距離情報が同一の領域である。CPU140は、この領域を重ね合わせるようにして1枚目の左視点画像データと2枚目の左視点画像データとをつなぎ合わせる。   (Step S18) The CPU 140 connects the first left viewpoint image data and the second left viewpoint image data stored in the VRAM 150 to generate left viewpoint image data for a panoramic image. The CPU 140 determines the first left viewpoint image data and the second sheet based on the distance information of each pixel of the first left viewpoint image data and the second left viewpoint image data calculated by the distance information acquisition unit 146. An area having the same distance information is detected from portions overlapping with the left viewpoint image data. The shaded area in FIG. 13 is an area where the distance information is the same from among the overlapping portions of the first left viewpoint image data and the second left viewpoint image data. The CPU 140 joins the first left viewpoint image data and the second left viewpoint image data so as to overlap these areas.

また、CPU140は、左視点画像データと同様の方法により、1枚目の右視点画像データと2枚目の右視点画像データをつなぎ合わせてパノラマ画像用の右視点画像データを生成する。このようにして生成されたパノラマ画像用の左視点画像データ及び右視点画像データはVRAM150に格納される。   Further, the CPU 140 connects the first right viewpoint image data and the second right viewpoint image data by the same method as the left viewpoint image data, and generates right viewpoint image data for a panoramic image. The left viewpoint image data and the right viewpoint image data for the panorama image generated in this way are stored in the VRAM 150.

VRAM150に格納されたパノラマ画像用の左視点画像データ及び右視点画像データは、圧縮伸張処理部126に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ148に格納される。   The panoramic image left viewpoint image data and right viewpoint image data stored in the VRAM 150 are added to the compression / decompression processing unit 126, compressed according to a predetermined compression format (for example, JPEG format), and then stored in the memory 148. .

メモリ148に記憶された2枚分の圧縮データからMPファイルが生成され、そのMPファイルはメディア・コントローラ152を介してメモリカード154に記録される。これにより、立体パノラマ画像が撮影、記録される。   An MP file is generated from the two compressed data stored in the memory 148, and the MP file is recorded on the memory card 154 via the media controller 152. As a result, a stereoscopic panoramic image is captured and recorded.

以上のようにしてメモリカード154に記録された画像は、再生ボタンにより立体パノラマ画像撮影装置1のモードを再生モードに設定することにより、液晶モニタ28で再生表示させることができる。   The image recorded on the memory card 154 as described above can be reproduced and displayed on the liquid crystal monitor 28 by setting the mode of the stereoscopic panorama image photographing apparatus 1 to the reproduction mode with the reproduction button.

再生モードに設定されると、CPU140は、メディア・コントローラ152にコマンドを出力し、メモリカード154に最後に記録された画像ファイルを読み出させる。   When the playback mode is set, the CPU 140 outputs a command to the media controller 152 and causes the memory card 154 to read the last recorded image file.

読み出された画像ファイルの圧縮画像データは、圧縮伸張処理部126に加えられ、非圧縮の輝度/色差信号に伸張されたのち、ビデオ・エンコーダ128を介して液晶モニタ28に出力される。   The compressed image data of the read image file is added to the compression / decompression processing unit 126, decompressed to an uncompressed luminance / color difference signal, and then output to the liquid crystal monitor 28 via the video encoder 128.

画像のコマ送りは、十字キーの左右のキー操作によって行なわれ、十字キーの右キーが押されると、次の画像ファイルがメモリカード154から読み出され、液晶モニタ28に再生表示される。また、十字キーの左キーが押されると、一つ前の画像ファイルがメモリカード154から読み出され、液晶モニタ28に再生表示される。   Image frame advance is performed by operating the left and right keys of the cross key. When the right key of the cross key is pressed, the next image file is read from the memory card 154 and reproduced and displayed on the liquid crystal monitor 28. When the left key of the cross key is pressed, the previous image file is read from the memory card 154 and reproduced and displayed on the liquid crystal monitor 28.

本実施の形態によれば、立体パノラマ画像撮影装置が傾いた場合にも、位相差CCDの傾きを容易に補正することができる。これにより、1枚目の左目用画像データ、右目用画像データの視差の方向と、2枚目の左目用画像データ、右目用画像データの視差の方向とが一致し、1枚目の画像データと2枚目の画像データとの連結が可能となる。すなわち、単眼立体撮影装置で1枚の位相差CCDを用いて立体視画像を撮影することにより、立体パノラマ写真の生成が可能となる。   According to the present embodiment, it is possible to easily correct the tilt of the phase difference CCD even when the stereoscopic panoramic image photographing device is tilted. Thus, the parallax direction of the first left-eye image data and right-eye image data matches the parallax direction of the second left-eye image data and right-eye image data, and the first image data And the second image data can be linked. That is, a stereoscopic panoramic photograph can be generated by photographing a stereoscopic image using a single phase difference CCD with a monocular stereoscopic photographing device.

また、本実施の形態によれば、主要被写体よりも若干手前にくるようにフォーカス位置を決定するため、主要被写体にピントが合いかつ背景がボケた、適切な立体感のパノラマ画像とすることができる。   In addition, according to the present embodiment, since the focus position is determined to be slightly ahead of the main subject, it is possible to obtain a panoramic image with an appropriate stereoscopic effect in which the main subject is in focus and the background is blurred. it can.

また、本実施の形態によれば、同じフォーカス位置で2枚の立体視画像を撮影し、これをつなぎ合わせて立体パノラマ画像を生成するため、つなぎ目が自然で違和感の無い綺麗な立体パノラマ画像を得ることができる。   In addition, according to the present embodiment, two stereoscopic images are taken at the same focus position, and these are joined to generate a stereoscopic panorama image. Therefore, a beautiful stereoscopic panoramic image with a natural joint and no sense of incongruity is obtained. Obtainable.

また、本実施の形態によれば、全画素に対して距離情報を算出し、これを用いて画像をつなぎ合わせるため、高精度に画像をつなぎ合わせることができる。したがって、つなぎ目が自然となり、違和感の無い立体パノラマ画像を得ることができる。   Further, according to the present embodiment, distance information is calculated for all the pixels, and the images are joined using the distance information. Therefore, the images can be joined with high accuracy. Therefore, the joints become natural and a stereoscopic panoramic image without a sense of incongruity can be obtained.

なお、本実施の形態では、主要被写体よりも若干手前にくるようにフォーカス位置を決定したが、主要被写体までの距離に応じてフォーカス位置の設定を変えてもよい。撮影装置からの距離が近い被写体は視差が大きくなる。このため、その被写体に視差を合わせてしまうと、主要被写体以外の被写体は視差が不適切となるため、結果的に全体として見にくい写真となってしまう。したがって、CPU140は、まず主要被写体の距離情報を取得し、主要被写体が所定の閾値よりも近い位置にあると判断した場合は、この主要被写体と異なる被写体を対象にフォーカス位置を決定する。例えば、顔検出部156により複数の顔領域が検出されている場合には所定の閾値よりも遠い人物を異なる被写体とすればよい。なお、この閾値はあらかじめ設定されており、その設定された値がメモリ148等に記憶されている。   In the present embodiment, the focus position is determined so as to be slightly in front of the main subject. However, the focus position setting may be changed according to the distance to the main subject. A subject close to the photographing apparatus has a large parallax. For this reason, if the parallax is adjusted to the subject, the subject other than the main subject has an inappropriate parallax, resulting in a photograph that is difficult to see as a whole. Therefore, the CPU 140 first acquires the distance information of the main subject, and determines that the focus position is a subject different from the main subject when it is determined that the main subject is at a position closer than the predetermined threshold. For example, when a plurality of face regions are detected by the face detection unit 156, a person far from a predetermined threshold may be set as a different subject. This threshold value is set in advance, and the set value is stored in the memory 148 or the like.

また、本実施の形態では、主要被写体が被写界深度の後端(図12の点A)にくるようにフォーカス位置を決定したが、フォーカス位置の設定方法はこれに限られない。例えば、主要被写体が合焦位置(図12の点B)にくるようにフォーカス位置を決定してもよい。この場合には、背景が遠い位置にあれば背景をぼかすことができる。また、主要被写体が確実にボケないようにするため、主要被写体が図12の点Aと点Bと中間にくるようにフォーカス位置を決定してもよい。   In the present embodiment, the focus position is determined so that the main subject comes to the rear end (point A in FIG. 12) of the depth of field, but the method for setting the focus position is not limited to this. For example, the focus position may be determined so that the main subject comes to the in-focus position (point B in FIG. 12). In this case, the background can be blurred if the background is far away. Further, in order to ensure that the main subject does not blur, the focus position may be determined so that the main subject is in the middle of points A and B in FIG.

また、本実施の形態では、スルー画像用の画像データからフォーカス位置決定用の距離情報を取得するが、距離情報を取得する画像データはこれに限らない。フォーカス位置決定用の距離情報は本撮影の前に取得されていればよいのでS1ONの時に取得される画像データから距離情報を求めてもよいし、プリ撮影等距離情報取得用の画像データを別途撮影するようにしてもよい。   In this embodiment, distance information for determining a focus position is acquired from image data for a through image. However, image data for acquiring distance information is not limited to this. Since the distance information for determining the focus position only needs to be acquired before the actual shooting, the distance information may be obtained from the image data acquired at the time of S1 ON, or image data for acquiring distance information such as pre-shooting is separately obtained. You may make it photograph.

また、本実施の形態では、右目用画像データ、左目用画像データの両方についてフォーカス位置決定用の距離情報を取得したが、どちらか一方でもよい。また、本実施の形態では、右目用画像データ、左目用画像データの各画素毎に距離情報を取得したが、各画素毎に距離情報を取得できない場合も考えられる。一般的には、画像のつなぎ合わせに用いる領域(1枚目の画像データと2枚目の画像データとの互いに重複する部分のなかから距離情報が同一の領域)のうちの約20%程度の画素で距離情報が得られているのであれば、つなぎ合わせは可能であるため、全画素で距離情報が取得できなくても問題はない。   In the present embodiment, the distance information for determining the focus position is acquired for both the right-eye image data and the left-eye image data, but either one may be used. In the present embodiment, distance information is acquired for each pixel of the right-eye image data and the left-eye image data. However, there may be a case where distance information cannot be acquired for each pixel. Generally, it is about 20% of the area used for joining images (the area where the distance information is the same from the overlapping part of the first image data and the second image data). If the distance information is obtained from the pixels, it is possible to connect them. Therefore, there is no problem even if the distance information cannot be obtained from all the pixels.

また、本実施の形態では、位相差CCD17の回転用にアクチュエータ18を配設したが、回転方向のθ軸回りに撮像素子を移動させることで手ブレを補正する機械式の手ブレ補正機構を有する場合には、この手ブレ補正機構を用いて位相差CCD17を水平にしてもよい。   In this embodiment, the actuator 18 is provided for rotating the phase difference CCD 17, but a mechanical camera shake correction mechanism that corrects camera shake by moving the image sensor around the θ axis in the rotation direction is provided. If it is, the phase difference CCD 17 may be horizontal using this camera shake correction mechanism.

<第2の実施の形態>
本発明の第1の実施の形態は、主要被写体よりも若干手前にくるようにフォーカス位置を決定するものであるが、フォーカス位置の設定の方法はこれに限られない。
<Second Embodiment>
In the first embodiment of the present invention, the focus position is determined to be slightly ahead of the main subject, but the method for setting the focus position is not limited to this.

本発明の第2の実施の形態は、1枚目の画像の距離情報と2枚目の画像の距離情報とに基づいてすべての被写体までの距離の略中間位置をフォーカス位置とするものである。以下、第2の実施の形態に係る立体パノラマ画像撮影装置2について説明する。なお、立体パノラマ画像撮影装置1と立体パノラマ画像撮影装置2とは、立体パノラマ撮影モードの処理のみが異なるため、立体パノラマ画像撮影装置2については立体パノラマ撮影モードの処理についてのみ説明し、その他は説明を省略する。   In the second embodiment of the present invention, the focus position is set to a substantially intermediate position of the distances to all subjects based on the distance information of the first image and the distance information of the second image. . Hereinafter, the stereoscopic panorama image photographing device 2 according to the second embodiment will be described. The stereoscopic panorama image capturing apparatus 1 and the stereoscopic panorama image capturing apparatus 2 are different only in the processing of the stereoscopic panorama shooting mode. Therefore, the stereoscopic panorama image capturing apparatus 2 will be described only about the processing of the stereoscopic panoramic imaging mode. Description is omitted.

図14は、パノラマ画像を撮影する場合における立体パノラマ画像の撮影処理の流れを示すフローチャートである。   FIG. 14 is a flowchart illustrating a flow of a stereoscopic panorama image photographing process when a panoramic image is photographed.

(ステップS10)CPU140は、通常の立体視画像の撮影処理と同様の方法により、位相差CCD17の主画素、副画素で撮像される画像を液晶モニタ28にリアルタイムに表示する。   (Step S10) The CPU 140 displays in real time on the liquid crystal monitor 28 images picked up by the main pixels and sub-pixels of the phase difference CCD 17 by the same method as the normal stereoscopic image capturing process.

(ステップS20)パノラマ画像を生成する1枚目、2枚目の画像の撮影(本撮影)前にプリ撮影を行う。シャッタボタンが半押しされると、1回目のS1ON信号がCPU140に入力され、CPU140はAE動作及びAF動作を実施する。この1回目のプリ撮影は、本撮影の1枚目の画像撮影(ステップS26、後に詳述)と略同じ撮影範囲で行われる。   (Step S20) Pre-shooting is performed before shooting (main shooting) of the first and second images for generating a panoramic image. When the shutter button is half-pressed, the first S1 ON signal is input to the CPU 140, and the CPU 140 performs the AE operation and the AF operation. The first pre-photographing is performed in substantially the same shooting range as the first image shooting of the main shooting (step S26, detailed later).

AF処理部142は、1回目のプリ撮影により主画素、副画素で撮像された左視点画像データ及び右視点画像データのうちの全画素を対象に位相差AF処理を行い、デフォーカス量を求める。距離情報取得部146は、この求められたデフォーカス量を取得し、距離情報を算出する。   The AF processing unit 142 performs a phase difference AF process on all the pixels of the left viewpoint image data and the right viewpoint image data captured by the main pixel and the sub pixel in the first pre-shooting, and obtains the defocus amount. . The distance information acquisition unit 146 acquires the obtained defocus amount and calculates distance information.

(ステップS22)再度シャッタボタンが半押しされると、2回目のS1ON信号がCPU140に入力され、CPU140はAE動作及びAF動作を実施する。この2回目のプリ撮影は、本撮影の2枚目の画像撮影(ステップS28、後に詳述)と略同じ撮影範囲で行われる。2枚目の画像の撮影範囲は、1枚目の画像と重複する空間を含み、かつ1枚目の画像と連続した空間となるように設定される。   (Step S22) When the shutter button is half-pressed again, the second S1 ON signal is input to the CPU 140, and the CPU 140 performs the AE operation and the AF operation. This second pre-photographing is performed in substantially the same photographing range as the second image photographing of the main photographing (step S28, detailed later). The shooting range of the second image is set so as to include a space overlapping with the first image and to be a space continuous with the first image.

AF処理部142は、2回目のプリ撮影により主画素、副画素で撮像された左視点画像データ及び右視点画像データのうちの全画素を対象に位相差AF処理を行い、デフォーカス量を求める。距離情報取得部146は、この求められたデフォーカス量を取得し、距離情報を算出する。これにより、これにより、パノラマ写真の撮影範囲と略同一の撮影範囲又はパノラマ写真の撮影範囲を含む撮影範囲の全被写体に対して距離情報が取得できる。   The AF processing unit 142 performs a phase difference AF process on all the pixels of the left viewpoint image data and the right viewpoint image data captured by the main pixel and the sub pixel in the second pre-shooting, and obtains the defocus amount. . The distance information acquisition unit 146 acquires the obtained defocus amount and calculates distance information. Thereby, distance information can be acquired for all subjects in the shooting range including substantially the same shooting range as the panoramic photo shooting range or the panoramic photo shooting range.

(ステップS24)CPU140は、ステップS20、S22で算出された距離情報を取得する。そして、距離情報の中間値をフォーカス位置と決定する。距離情報の中間値をフォーカス位置と決定することにより、主要被写体を検出せず適切なフォーカス位置を決定することができる。なお、中間値は、全ての画素に対して算出された距離情報の最大値と最小値との中間値でもよいし、全ての画素に対して算出された距離情報の平均値でもよい。   (Step S24) The CPU 140 acquires the distance information calculated in steps S20 and S22. Then, the intermediate value of the distance information is determined as the focus position. By determining the intermediate value of the distance information as the focus position, an appropriate focus position can be determined without detecting the main subject. The intermediate value may be an intermediate value between the maximum value and the minimum value of the distance information calculated for all pixels, or may be an average value of the distance information calculated for all pixels.

(ステップS26)CPU140は、ステップS24で決定されたフォーカス位置をAF処理部142へ入力する。AF処理部142は、このフォーカス位置に合焦させるようにフォーカスレンズを制御する。   (Step S <b> 26) The CPU 140 inputs the focus position determined in step S <b> 24 to the AF processing unit 142. The AF processing unit 142 controls the focus lens so as to focus on this focus position.

シャッタボタンが全押しされると、CPU140にS2ON信号が入力され、CPU140は、ステップS20と同じ撮影範囲で1枚目の左視点画像データ及び右視点画像データを取得する。AF処理部142は撮影された左視点画像データ及び右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して各画素毎に距離情報を算出する。   When the shutter button is fully pressed, an S2 ON signal is input to the CPU 140, and the CPU 140 acquires the first left viewpoint image data and right viewpoint image data in the same shooting range as in step S20. The AF processing unit 142 obtains the defocus amount based on the captured left viewpoint image data and right viewpoint image data, and the distance information acquisition unit 146 obtains the obtained defocus amount and obtains the distance information for each pixel. calculate.

(ステップS28)再度シャッタボタンが全押しされると、CPU140に2回目のS2ON信号が入力される。CPU140は、ステップS26のフォーカス位置のまま、1枚目とは異なる撮影範囲で2枚目の左視点画像データ及び右視点画像データを取得する。2枚目の左視点画像データ及び右視点画像データは、1枚目の左視点画像データ及び右視点画像データと一部が重複している。AF処理部142は撮影された左視点画像データ及び右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して各画素毎に距離情報を算出する。   (Step S28) When the shutter button is fully pressed again, the second S2 ON signal is input to the CPU 140. The CPU 140 acquires the second left viewpoint image data and the right viewpoint image data in the photographing range different from that of the first image while maintaining the focus position in step S26. The second left viewpoint image data and right viewpoint image data partially overlap with the first left viewpoint image data and right viewpoint image data. The AF processing unit 142 obtains the defocus amount based on the captured left viewpoint image data and right viewpoint image data, and the distance information acquisition unit 146 obtains the obtained defocus amount and obtains the distance information for each pixel. calculate.

ステップS26、S28で位相差CCD17の主画素、副画素から出力された4枚分の画像データは、アナログ処理部120、A/D変換器121、画像入力コントローラ122を介してVRAM150に取り込まれ、デジタル信号処理部124において輝度/色差信号に変換されたのち、VRAM150に格納される。   The four pieces of image data output from the main pixel and subpixel of the phase difference CCD 17 in steps S26 and S28 are taken into the VRAM 150 via the analog processing unit 120, the A / D converter 121, and the image input controller 122. After being converted into a luminance / color difference signal in the digital signal processing unit 124, it is stored in the VRAM 150.

(ステップS18)CPU140は、VRAM150に格納された1枚目の左視点画像データと2枚目の左視点画像データとをつなぎ合わせてパノラマ画像用の左視点画像データを生成する。また、CPU140は、左視点画像データと同様の方法により、1枚目の右視点画像データと2枚目の右視点画像データをつなぎ合わせてパノラマ画像用の右視点画像データを生成する。このようにして生成されたパノラマ画像用の左視点画像データ及び右視点画像データはVRAM150に格納される。   (Step S18) The CPU 140 connects the first left viewpoint image data and the second left viewpoint image data stored in the VRAM 150 to generate left viewpoint image data for a panoramic image. Further, the CPU 140 connects the first right viewpoint image data and the second right viewpoint image data by the same method as the left viewpoint image data, and generates right viewpoint image data for a panoramic image. The left viewpoint image data and the right viewpoint image data for the panorama image generated in this way are stored in the VRAM 150.

VRAM150に格納されたパノラマ画像用の左視点画像データ及び右視点画像データは、圧縮伸張処理部126に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ148に格納される。   The panoramic image left viewpoint image data and right viewpoint image data stored in the VRAM 150 are added to the compression / decompression processing unit 126, compressed according to a predetermined compression format (for example, JPEG format), and then stored in the memory 148. .

メモリ148に記憶された2枚分の圧縮データからMPファイルが生成され、そのMPファイルはメディア・コントローラ152を介してメモリカード154に記録される。これにより、立体パノラマ画像が撮影、記録される。   An MP file is generated from the two compressed data stored in the memory 148, and the MP file is recorded on the memory card 154 via the media controller 152. As a result, a stereoscopic panoramic image is captured and recorded.

本実施の形態によれば、主要被写体を検出せずに適切なフォーカス位置を決定することができる。そのため、立体感に違和感の無い立体パノラマ画像を得ることができる。   According to the present embodiment, an appropriate focus position can be determined without detecting the main subject. Therefore, it is possible to obtain a stereoscopic panoramic image without a sense of incongruity in the stereoscopic effect.

なお、第1の実施の形態と第2の実施の形態とは、別々に実施してもよいし、組み合わせて実施してもよい。また、第1の実施の形態と第2の実施の形態では、2枚の立体視画像をつなぎ合わせて立体パノラマ写真を生成したが、枚数は2枚に限定されない。また、パノラマ画像に限らず、360°の撮影範囲を有する全方位画像の生成を行なうようにしてもよい。   Note that the first embodiment and the second embodiment may be implemented separately or in combination. In the first embodiment and the second embodiment, a stereoscopic panoramic photograph is generated by connecting two stereoscopic images, but the number is not limited to two. Further, not only a panoramic image but also an omnidirectional image having a 360 ° photographing range may be generated.

<第3の実施の形態>
本発明の第1の実施の形態は、同じフォーカス位置で2枚の立体視画像を撮影し、これをつなぎ合わせて立体パノラマ画像を生成するものであるが、立体パノラマ画像の生成の方法はこれに限られない。
<Third Embodiment>
In the first embodiment of the present invention, two stereoscopic images are taken at the same focus position, and these are connected to generate a stereoscopic panorama image. Not limited to.

本発明の第3の実施の形態は、1枚目の画像、2枚目の画像のそれぞれについて縦、横の2通りの画像を撮影することで、画像のつなぎ合わせの精度をよくするものである。以下、第3の実施の形態に係る立体パノラマ画像撮影装置3について説明する。なお、立体パノラマ画像撮影装置1と立体パノラマ画像撮影装置3とは、立体パノラマ撮影モードの処理のみが異なるため、立体パノラマ画像撮影装置3については立体パノラマ撮影モードの処理についてのみ説明し、その他は説明を省略する。   The third embodiment of the present invention improves the accuracy of stitching images by taking two images, vertical and horizontal, for each of the first image and the second image. is there. Hereinafter, the stereoscopic panorama image photographing device 3 according to the third embodiment will be described. The stereoscopic panorama image capturing apparatus 1 and the stereoscopic panorama image capturing apparatus 3 are different only in the processing of the stereoscopic panorama shooting mode. Therefore, the stereoscopic panorama image capturing apparatus 3 will be described only about the processing of the stereoscopic panoramic imaging mode. Description is omitted.

図15は、パノラマ画像を撮影する場合における立体パノラマ画像の撮影処理の流れを示すフローチャートである。   FIG. 15 is a flowchart illustrating a flow of a stereoscopic panorama image photographing process when a panoramic image is photographed.

(ステップS10)CPU140は、通常の立体視画像の撮影処理と同様の方法により、位相差CCD17の主画素、副画素で撮像される画像を液晶モニタ28にリアルタイムに表示する。   (Step S10) The CPU 140 displays in real time on the liquid crystal monitor 28 images picked up by the main pixels and sub-pixels of the phase difference CCD 17 by the same method as the normal stereoscopic image capturing process.

(ステップS12)AF処理部142は、リアルタイムに主画素、副画素で撮像された左視点画像データ及び右視点画像データのうちの全画素を対象に位相差AF処理を行い、デフォーカス量を求める。距離情報取得部146は、この求められたデフォーカス量を取得し、距離情報を算出する。これにより、パノラマ写真の撮影範囲と略同一の撮影範囲又はパノラマ写真の撮影範囲を含む撮影範囲の全被写体に対して距離情報が取得できる。   (Step S12) The AF processing unit 142 performs a phase difference AF process on all the pixels of the left viewpoint image data and the right viewpoint image data captured by the main pixel and the sub pixels in real time to obtain the defocus amount. . The distance information acquisition unit 146 acquires the obtained defocus amount and calculates distance information. As a result, distance information can be acquired for all subjects in the shooting range including substantially the same shooting range as the panoramic photo shooting range or the panoramic photo shooting range.

算出された距離情報は、CPU140に入力される。CPU140は、主要被写体が被写界深度の後端(撮影レンズ14から遠い側の端)近傍に位置するように、距離情報に基づいてフォーカス位置を決定する。   The calculated distance information is input to the CPU 140. The CPU 140 determines the focus position based on the distance information so that the main subject is located in the vicinity of the rear end of the depth of field (the end far from the photographing lens 14).

(ステップS30)CPU140は、ステップS12で決定されたフォーカス位置をAF処理部142へ入力する。AF処理部142は、このフォーカス位置に合焦させるようにフォーカスレンズを制御する。図16は、このようにしてフォーカスレンズが制御された後の撮影処理の流れを示すフローチャートである。   (Step S30) The CPU 140 inputs the focus position determined in step S12 to the AF processing unit 142. The AF processing unit 142 controls the focus lens so as to focus on this focus position. FIG. 16 is a flowchart showing a flow of photographing processing after the focus lens is controlled in this way.

(ステップS40)シャッタボタンが半押しされると、S1ON信号がCPU140に入力され、CPU140はAE動作を実施する。立体パノラマ写真撮影では、フォーカス位置が決定されているため、AF処理は行われない。シャッタボタンが全押しされると、CPU140にS2ON信号が入力され、CPU140は、図17の実線で示すように位相差CCD17が横向き(通常の状態)の場合における1枚目の左視点画像データ(以下、横向きの左視点データという)及び右視点画像データ(以下、横向きの右視点データという)を取得する。この横向きの左視点データと横向きの右視点データは、左右方向に視差を持っている。   (Step S40) When the shutter button is half-pressed, an S1 ON signal is input to the CPU 140, and the CPU 140 performs an AE operation. In stereoscopic panoramic photography, since the focus position is determined, AF processing is not performed. When the shutter button is fully pressed, the S2ON signal is input to the CPU 140, and the CPU 140 displays the first left viewpoint image data (when the phase difference CCD 17 is in the horizontal direction (normal state) as shown by the solid line in FIG. Hereinafter, horizontal viewpoint data and right viewpoint image data (hereinafter referred to as horizontal right viewpoint data) are acquired. The horizontal left viewpoint data and the horizontal right viewpoint data have parallax in the left-right direction.

AF処理部142は撮影された左視点画像データ及び右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して左視点画像データ及び右視点画像データの各画素毎に距離情報を算出する。この場合には、左右方向の視差に基づいて距離情報が算出される。   The AF processing unit 142 obtains the defocus amount based on the taken left viewpoint image data and right viewpoint image data, and the distance information acquisition unit 146 obtains the obtained defocus amount to obtain the left viewpoint image data and the right viewpoint image data. Distance information is calculated for each pixel of the image data. In this case, distance information is calculated based on the parallax in the left-right direction.

(ステップS42)CPU40は、アクチュエータ駆動回路156を介して位相差CCD17を既定回転方向(図17では反時計回り)に既定パルス分だけ、すなわち位相差CCD17が90度回転するようにアクチュエータ18を駆動する。これにより、図17の点線で示すように、位相差CCD17の略中央を中心として位相差CCD17が90度回転された縦向きの状態となる。この縦向きの状態においては、横向きの状態との重複エリア(図17参照)が最大となる。   (Step S42) The CPU 40 drives the actuator 18 via the actuator drive circuit 156 so that the phase difference CCD 17 is rotated by a predetermined pulse in the predetermined rotation direction (counterclockwise in FIG. 17), that is, the phase difference CCD 17 is rotated 90 degrees. To do. As a result, as shown by a dotted line in FIG. 17, the phase difference CCD 17 is rotated 90 degrees around the substantially center of the phase difference CCD 17 and is in a vertically oriented state. In this vertically oriented state, the overlapping area (see FIG. 17) with the horizontally oriented state is maximized.

CPU140は、この状態で撮影を行い、位相差CCD17が縦向きの場合における1枚目の左視点画像データ(以下、縦向きの左視点画像データという)及び右視点画像データ(以下、縦向きの右視点画像データという)を取得する。この縦向きの左視点画像データと縦向きの右視点画像データは、左視点画像データが下側、右視点画像データが上側の上下方向に視差を持っている。   The CPU 140 shoots in this state, and the first left viewpoint image data (hereinafter referred to as vertical left viewpoint image data) and right viewpoint image data (hereinafter referred to as vertical orientation) when the phase difference CCD 17 is in the vertical orientation. Right viewpoint image data). The vertical left viewpoint image data and the vertical right viewpoint image data have a parallax in the vertical direction with the left viewpoint image data on the lower side and the right viewpoint image data on the upper side.

AF処理部142は、撮影された縦向きの左視点画像データ及び縦向きの右視点画像データに基づいてデフォーカス量を求め、距離情報取得部146はこの求められたデフォーカス量を取得して縦向きの左視点画像データ及び縦向きの右視点画像データの各画素毎に距離情報を算出する。この場合には、上下方向の視差に基づいて距離情報が算出される。   The AF processing unit 142 obtains the defocus amount based on the captured vertical left viewpoint image data and the vertical right viewpoint image data, and the distance information acquisition unit 146 acquires the obtained defocus amount. Distance information is calculated for each pixel of the vertical left viewpoint image data and the vertical right viewpoint image data. In this case, distance information is calculated based on the vertical parallax.

(ステップS44)ステップS40、S42で位相差CCD17の主画素、副画素から出力された4枚分の画像データは、アナログ処理部120、A/D変換器121、画像入力コントローラ122を介してVRAM150に取り込まれ、デジタル信号処理部124において輝度/色差信号に変換されたのち、関連付けてVRAM150に格納される。   (Step S44) The image data for the four images output from the main pixel and subpixel of the phase difference CCD 17 in steps S40 and S42 are stored in the VRAM 150 via the analog processing unit 120, A / D converter 121, and image input controller 122. And converted into a luminance / color difference signal by the digital signal processing unit 124 and stored in the VRAM 150 in association with each other.

これにより、1枚目の画像撮影処理が終了される。   Thereby, the first image capturing process is completed.

(ステップS32)再度シャッタボタンが全押しされると、CPU140に2回目のS2ON信号が入力される。CPU140は、ステップS14のフォーカス位置のまま、1枚目とは異なる撮影範囲で2枚目の横向きの左視点画像データ及び横向きの右視点画像データを取得する。ステップS16と同様、2枚目の撮影範囲は、1枚目の画像と重複する空間を含み、かつ1枚目の画像と連続した空間となるように設定される。   (Step S32) When the shutter button is fully pressed again, the second S2 ON signal is input to the CPU 140. The CPU 140 obtains the second lateral left viewpoint image data and the lateral right viewpoint image data in the photographing range different from that of the first image while maintaining the focus position in step S14. Similar to step S16, the shooting range of the second image is set so as to include a space overlapping the first image and to be a space continuous with the first image.

その後、ステップS30と同様、CPU140は図16に示すフローチャートに従って、位相差CCD17が横向きの状態及び縦向きの状態で画像を撮影し、2枚目の縦向きの左視点画像データ及び縦向きの右視点画像データを取得する。   After that, as in step S30, the CPU 140 takes an image with the phase difference CCD 17 in the horizontal state and the vertical state in accordance with the flowchart shown in FIG. 16, and the second vertical left viewpoint image data and the vertical right Obtain viewpoint image data.

さらに、ステップS30と同様の方法により、2枚目の横向きの左視点画像データ及び横向きの右視点画像データと、2枚目の縦向きの左視点画像データ及び縦向きの右視点画像データとについて各画素毎に距離情報が算出され、4枚分の画像データが関連付けてVRAM150に格納される。   Further, the second horizontal left viewpoint image data and the horizontal right viewpoint image data, and the second vertical left viewpoint image data and the vertical right viewpoint image data by the same method as in step S30. Distance information is calculated for each pixel, and image data for four images is stored in the VRAM 150 in association with each other.

(ステップS34)CPU140は、VRAM150に格納された1枚目の横向きの左視点画像データと2枚目の横向きの左視点画像データとをつなぎ合わせてパノラマ画像用の左視点画像データを生成する。   (Step S <b> 34) The CPU 140 generates left viewpoint image data for a panoramic image by connecting the first horizontal left viewpoint image data and the second horizontal left viewpoint image data stored in the VRAM 150.

本実施の形態では、1枚目、2枚目共に位相差CCD17が横向きの状態及び縦向きの状態で画像が撮影されているため、図17に示すように、位相差CCD17が横向きの状態で撮影された画像と、位相差CCD17が縦向きの状態で撮影された画像との重複エリアがパノラマ画像の基となる。   In the present embodiment, since the first and second images are taken with the phase difference CCD 17 in the horizontal state and the vertical direction, as shown in FIG. 17, the phase difference CCD 17 is in the horizontal state. An overlapping area between the photographed image and the image photographed with the phase difference CCD 17 in the vertical orientation is the basis of the panoramic image.

したがって、CPU40は、1枚目の横向きの左視点画像データから重複エリアを切り出し、2枚目の横向きの左視点画像データから重複エリアを切り出す。そして、切り出された1枚目の重複エリアと2枚目の重複エリアとをつなぎ合わせる。   Accordingly, the CPU 40 cuts out an overlapping area from the first horizontal left-view image data and cuts out an overlapping area from the second horizontal left-view image data. Then, the cut out first overlapping area and the second overlapping area are joined together.

この重複エリアについては、位相差CCD17が横向きの状態で撮影された画像及び縦向きの状態で撮影された画像のそれぞれに対して画像距離情報取得部146において距離情報が算出されている。一般的に画像が横縞模様の場合には、水平方向の視差に基づいて算出された距離は誤検出が発生しやすく、垂直方向に視差に基づいて算出された距離のほうが精度が高い。逆に画像の縦縞模様の場合には、垂直方向の視差に基づいて算出された距離は誤検出が発生しやすく、水平方向に視差に基づいて算出された距離のほうが精度が高い。そのため、CPU140は、画像を解析し、横縞模様が含まれる画像が撮影された場合には、縦向きの左視点画像データ及び縦向きの右視点画像データから算出された距離情報を採用し、縦縞模様が含まれる画像が撮影された場合には、横向きの左視点画像データ及び横向きの右視点画像データから算出された距離情報を採用する。これにより、距離情報の誤検出を低減することができる。   For this overlapping area, the distance information is calculated by the image distance information acquisition unit 146 for each of the image taken with the phase difference CCD 17 in the horizontal orientation and the image taken in the vertical orientation. In general, when the image has a horizontal stripe pattern, the distance calculated based on the parallax in the horizontal direction is likely to be erroneously detected, and the distance calculated based on the parallax in the vertical direction is more accurate. Conversely, in the case of a vertical stripe pattern of an image, the distance calculated based on the parallax in the vertical direction is likely to be erroneously detected, and the distance calculated based on the parallax in the horizontal direction is more accurate. Therefore, the CPU 140 analyzes the image and, when an image including a horizontal stripe pattern is captured, adopts distance information calculated from the vertical left viewpoint image data and the vertical right viewpoint image data, and the vertical stripe When an image including a pattern is captured, distance information calculated from the horizontal left viewpoint image data and the horizontal right viewpoint image data is employed. Thereby, the erroneous detection of distance information can be reduced.

なお、CPU140は、ステップS32、S34で距離情報が全ての画素に対して算出されなかった場合には、横向きの左視点画像データ及び横向きの右視点画像データの距離情報の画素数と、縦向きの左視点画像データ及び縦向きの右視点画像データの距離情報の画素数とを比較し、画素数が多い方の距離情報を採用するようにしてもよい。   If the distance information is not calculated for all the pixels in steps S32 and S34, the CPU 140 determines the number of pixels of the distance information of the horizontal left viewpoint image data and the horizontal right viewpoint image data, and the vertical direction. The distance information of the distance information of the left viewpoint image data and the vertical right viewpoint image data may be compared, and the distance information having the larger number of pixels may be adopted.

CPU140は、このようにして採用された1枚目の左視点画像データの重複エリア及び2枚目の左視点画像データの重複エリアの各画素の距離情報に基づいて、1枚目の重複エリアと2枚目の重複エリアとをつなぎ合わせる。   Based on the distance information of each pixel in the overlapping area of the first left viewpoint image data and the overlapping area of the second left viewpoint image data, the CPU 140 determines the first overlapping area and the overlapping area of the first left viewpoint image data. Join the second overlapping area.

また、CPU140は、左視点画像データと同様の方法により、1枚目の横向きの右視点画像データから重複エリアを切り出し、2枚目の横向きの右視点画像データから重複エリアを切り出す。そして、横向きの左視点画像データ及び横向きの右視点画像データの距離情報、又は縦向きの左視点画像データ及び縦向きの右視点画像データの距離情報に基づいて1枚目の右視点画像データの重複エリアと2枚目の右視点画像データの重複エリアとをつなぎ合わせてパノラマ画像用の右視点画像データを生成する。このようにして生成されたパノラマ画像用の左視点画像データ及び右視点画像データはVRAM150に格納される。   In addition, the CPU 140 cuts out the overlapping area from the first horizontal right viewpoint image data by the same method as the left viewpoint image data, and cuts out the overlapping area from the second horizontal right viewpoint image data. Then, based on the distance information between the horizontal left viewpoint image data and the horizontal right viewpoint image data, or the distance information between the vertical left viewpoint image data and the vertical right viewpoint image data, the first right viewpoint image data The overlapping area and the overlapping area of the second right-view image data are connected to generate right-view image data for a panoramic image. The left viewpoint image data and the right viewpoint image data for the panorama image generated in this way are stored in the VRAM 150.

VRAM150に格納されたパノラマ画像用の左視点画像データ及び右視点画像データは、圧縮伸張処理部126に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ148に格納される。   The panoramic image left viewpoint image data and right viewpoint image data stored in the VRAM 150 are added to the compression / decompression processing unit 126, compressed according to a predetermined compression format (for example, JPEG format), and then stored in the memory 148. .

メモリ148に記憶された2枚分の圧縮データからMPファイルが生成され、そのMPファイルはメディア・コントローラ152を介してメモリカード154に記録される。これにより、立体パノラマ画像が撮影、記録される。   An MP file is generated from the two compressed data stored in the memory 148, and the MP file is recorded on the memory card 154 via the media controller 152. As a result, a stereoscopic panoramic image is captured and recorded.

本実施の形態によれば、距離情報の誤検出が低減されるため、より高精度に画像をつなぎ合わせることができる。したがって、つなぎ目が自然となり、違和感の無い立体パノラマ画像を得ることができる。   According to the present embodiment, since erroneous detection of distance information is reduced, images can be stitched together with higher accuracy. Therefore, the joints become natural and a stereoscopic panoramic image without a sense of incongruity can be obtained.

なお、本実施の形態では、横向きの左視点データ及び右視点データ、縦向きの左視点データ及び右視点データのそれぞれについて距離情報を算出し、精度がよいと思われる方や距離情報が算出された画素数の多い方を採用して重複エリアをつなぎ合わせたが、横向きの左視点データ及び右視点データから精度の良い距離情報が算出されるのであれば縦向きの左視点データ及び右視点データの撮影は必須ではない。例えば、横向きの左視点データ及び右視点データの距離情報の画素数が所定の画素数以上であるか(例えば、つなぎ合わせに用いられることが想定される領域の約20%以上の画素であるか。但し、これに限定されるものではない)否かをCPU140が判断し、画素数が所定の画素数以上である場合には、縦向きの左視点データ及び縦向きの右視点データの撮影を行わないようにしてもよい。この場合において、CPU140が横向きの左視点データ及び横向きの右視点データの距離情報の画素数が所定の画素数以下であると判断した場合には、縦向きの左視点データ及び縦向きの右視点データの撮影と距離情報の算出を行い、不足している距離情報を補うようにしてもよいし、横向きの左視点画像データ及び横向きの右視点画像データの距離情報の画素数と、縦向きの左視点画像データ及び縦向きの右視点画像データの距離情報の画素数とを比較し、画素数が多い方の距離情報を採用するようにしてもよい。   In the present embodiment, distance information is calculated for each of the horizontal left viewpoint data and right viewpoint data, and the vertical left viewpoint data and right viewpoint data, and the distance accuracy information and distance information are calculated. The overlapped areas are connected by adopting the one with the larger number of pixels, but if the accurate distance information is calculated from the horizontal left viewpoint data and right viewpoint data, the vertical left viewpoint data and right viewpoint data Shooting is not essential. For example, whether the number of pixels of the distance information of the horizontal left viewpoint data and the right viewpoint data is equal to or greater than a predetermined number of pixels (for example, about 20% or more of a region assumed to be used for joining) (However, the present invention is not limited to this.) The CPU 140 determines whether or not the number of pixels is equal to or larger than the predetermined number of pixels, and shooting of the vertical left viewpoint data and the vertical right viewpoint data is performed. It may not be performed. In this case, when the CPU 140 determines that the number of pixels of the distance information of the horizontal left viewpoint data and the horizontal right viewpoint data is equal to or less than the predetermined number of pixels, the vertical left viewpoint data and the vertical right viewpoint Data may be captured and distance information may be calculated to compensate for the missing distance information. The number of pixels in the distance information of the horizontal left viewpoint image data and the horizontal right viewpoint image data, and the vertical direction The distance information of the distance information of the left viewpoint image data and the vertically oriented right viewpoint image data may be compared and the distance information having the larger number of pixels may be adopted.

また、本実施の形態では、位相差CCD17が横向きの状態(通常状態)と、位相差CCD17の略中央を中心として位相差CCD17が90度回転された縦向きの状態とで画像を撮影したが、重複エリアの大きさが最大となるのであれば縦向きの状態はこの形態に限られない。例えば、図18に示すように、位相差CCD17の受光エリアの角(例えば右上の角)が一致するように位相差CCD17を回転させるようにしてもよい。この場合には、出力軸18Aが回転中心と一致するようにアクチュエータ18を基板17Aに配設するか、位相差CCD17を90度回転させるためのアクチュエータを別途配設するようにすればよい。   In this embodiment, the phase difference CCD 17 is imaged in the horizontal state (normal state) and in the vertical state in which the phase difference CCD 17 is rotated 90 degrees around the approximate center of the phase difference CCD 17. If the size of the overlapping area is maximized, the vertically oriented state is not limited to this form. For example, as shown in FIG. 18, the phase difference CCD 17 may be rotated so that the corners (for example, the upper right corner) of the light receiving area of the phase difference CCD 17 coincide. In this case, the actuator 18 may be disposed on the substrate 17A so that the output shaft 18A coincides with the rotation center, or an actuator for rotating the phase difference CCD 17 by 90 degrees may be separately disposed.

図17に示す場合には、重複エリアをつなぎ合わせに用いたが、図18に示す場合には横向きの左視点画像データ、横向きの右視点画像データ全体をつなぎ合わせに用いることができる。但し、1枚目の画像撮影後に立体パノラマ画像撮影装置を時計回りに回転させて2枚目の画像を撮影した場合には、1枚目の画像は精度の良い距離情報が得られる重複エリアをつなぎ合わせに用いるが、2枚目の画像については重複エリア以外をつなぎ合わせに用いることとなる。この場合には、距離情報の補間、予測等に基づいて距離情報を補うことが可能であるため、重複エリアが無い場合と比較してつなぎ合わせの精度を向上させることができる。   In the case shown in FIG. 17, the overlapping areas are used for joining. In the case shown in FIG. 18, the horizontal left viewpoint image data and the entire horizontal right viewpoint image data can be used for joining. However, when the second image is taken by rotating the stereoscopic panorama image pickup device clockwise after the first image is taken, the first image has an overlapping area where accurate distance information can be obtained. Although used for joining, the second image is used for joining other than the overlapping area. In this case, since distance information can be supplemented based on interpolation, prediction, and the like of distance information, the joining accuracy can be improved as compared with the case where there is no overlapping area.

1、2:立体パノラマ画像撮影装置、13:偏光部材、14:撮影レンズ、15:遮光部材、16:絞り、17、:位相差CCD、132:CCD制御部、134:絞り駆動部、136:レンズ駆動部、140:CPU、154:メモリカード 1, 2: Stereoscopic panoramic image capturing device, 13: Polarizing member, 14: Shooting lens, 15: Light shielding member, 16: Aperture, 17: Phase difference CCD, 132: CCD control unit, 134: Aperture driving unit, 136: Lens drive unit, 140: CPU, 154: memory card

Claims (13)

撮影光学系と、
前記撮影光学系を通過した光束を複数の光束に分割する瞳分割手段と、
前記瞳分割手段により分割された光束がそれぞれ結像される第1の画素群及び第2の画素群が同一平面上に2次元状に配設された撮像素子と、
前記撮像素子の水平方向に対する回転角度を検出する検出手段と、
前記検出された水平方向に対する回転角度に基づいて前記撮像素子が水平になるように前記撮像素子を前記撮影光学系の光軸に垂直な平面内で回転させる撮像素子回転手段と、
前記第1の画素群及び前記第2の画素群に被写体像を結像させて第1の被写体像及び第2の被写体像を取得する処理を隣接する撮影範囲の一部が重複するように連続的に行うことで前記第1の被写体像及び前記第2の被写体像をそれぞれ複数取得する本撮影手段と、
前記取得された複数の第1の被写体像のうちの重複する部分及び前記取得された複数の第2の被写体像のうちの重複する部分を重ね合わせて前記複数の第1の被写体像及び前記複数の第2の被写体像をそれぞれつなぎ合わせる画像生成手段と、
を備えたことを特徴とする立体パノラマ画像撮影装置。
Photographic optics,
Pupil dividing means for dividing the light beam that has passed through the photographing optical system into a plurality of light beams;
An image sensor in which a first pixel group and a second pixel group on which light beams divided by the pupil dividing unit are respectively formed are two-dimensionally arranged on the same plane;
Detecting means for detecting a rotation angle of the image sensor with respect to a horizontal direction;
An image sensor rotating means for rotating the image sensor in a plane perpendicular to the optical axis of the imaging optical system so that the image sensor is horizontal based on the detected rotation angle with respect to the horizontal direction;
The process of forming a subject image on the first pixel group and the second pixel group to obtain the first subject image and the second subject image is continued so that a part of the adjacent shooting range overlaps. A main photographing means for acquiring a plurality of the first subject images and the second subject images respectively by performing
The plurality of first subject images and the plurality of overlapped portions of the acquired plurality of first subject images and the overlapping portions of the plurality of acquired second subject images are overlapped. Image generating means for connecting the second subject images of
A stereoscopic panoramic image photographing device characterized by comprising:
前記撮影光学系は、フォーカスレンズを含み、
所定の距離にある被写体が合焦するように前記フォーカスレンズを移動させるフォーカスレンズ移動手段を備え、
前記本撮影手段は、前記フォーカスレンズが前記所定の距離にある被写体に合焦するように移動された状態で、前記複数の第1の被写体像及び前記複数の第2の被写体像を取得することを特徴とする請求項1に記載の立体パノラマ画像撮影装置。
The photographing optical system includes a focus lens,
A focus lens moving means for moving the focus lens so that a subject at a predetermined distance is in focus;
The main photographing unit acquires the plurality of first subject images and the plurality of second subject images in a state where the focus lens is moved so as to focus on a subject at the predetermined distance. The stereoscopic panoramic image photographing device according to claim 1, wherein:
前記複数の第1の被写体像及び前記複数の第2の被写体像を取得する前に、前記第1の画素群及び前記第2の画素群の少なくとも1つに所定の条件下で被写体像を結像させる前撮影手段と、
前記前撮影手段により結像された被写体像に基づいて被写体までの距離を示す距離情報を取得する第1の距離情報取得手段と、
前記取得された距離情報に基づいて前記所定の距離を決定するフォーカス位置決定手段と、
を備えたことを特徴とする請求項2に記載の立体パノラマ画像撮影装置。
Before acquiring the plurality of first subject images and the plurality of second subject images, subject images are connected to at least one of the first pixel group and the second pixel group under predetermined conditions. Pre-shooting means to image,
First distance information acquisition means for acquiring distance information indicating a distance to the subject based on the subject image formed by the previous photographing means;
Focus position determining means for determining the predetermined distance based on the acquired distance information;
The stereoscopic panorama image photographing device according to claim 2, comprising:
前記前撮影手段は、前記本撮影手段により連続的に結像される被写体像と略同じ撮影範囲で前記第1の画素群及び前記第2の画素群の少なくとも1つに被写体像を結像させることを特徴とする請求項3に記載の立体パノラマ画像撮影装置。   The pre-photographing unit forms a subject image on at least one of the first pixel group and the second pixel group within a substantially same photographing range as a subject image continuously formed by the main photographing unit. The three-dimensional panoramic image photographing apparatus according to claim 3. 前記第1の距離情報取得手段は、前記前撮影手段により結像された被写体像の距離情報を画素毎に取得し、
前記フォーカス位置決定手段は、前記距離情報の略中間値を前記所定の距離と決定することを特徴とする請求項3又は4に記載の立体パノラマ画像撮影装置。
The first distance information acquisition means acquires distance information of the subject image formed by the pre-shooting means for each pixel,
5. The stereoscopic panorama image photographing apparatus according to claim 3, wherein the focus position determination unit determines a substantially intermediate value of the distance information as the predetermined distance.
前記被写体像から主要被写体を検出する主要被写体検出手段を備え、
前記第1の距離情報取得手段は、前記距離情報として前記検出された主要被写体までの距離を取得し、
前記フォーカス位置決定手段は、前記検出された主要被写体までの距離に基づいて前記検出された主要被写体が合焦するように前記所定の距離を決定することを特徴とする請求項3又は4に記載の立体パノラマ画像撮影装置。
A main subject detecting means for detecting a main subject from the subject image;
The first distance information acquisition means acquires a distance to the detected main subject as the distance information,
5. The focus position determining unit determines the predetermined distance based on a distance to the detected main subject so that the detected main subject is in focus. 3D panoramic image shooting device.
前記フォーカス位置決定手段は、前記検出された主要被写体が被写界深度の前記撮影光学系から遠い側の端と略一致するように前記所定の距離を決定することを特徴とする請求項6に記載の立体パノラマ画像撮影装置。   7. The focus position determining unit determines the predetermined distance so that the detected main subject substantially coincides with an end of the depth of field that is far from the photographing optical system. The three-dimensional panoramic image photographing apparatus described. 前記フォーカス位置決定手段は、前記主要被写体までの距離が所定の距離閾値より遠い主要被写体が合焦するように前記所定の距離を決定することを特徴とする請求項6又は7に記載の立体パノラマ画像撮影装置。   The stereoscopic panorama according to claim 6 or 7, wherein the focus position determination unit determines the predetermined distance so that a main subject whose distance to the main subject is farther than a predetermined distance threshold is in focus. Image shooting device. 前記複数の第1の被写体像及び前記複数の第2の被写体像の被写体までの距離を示す距離情報を画素毎に取得する第2の距離情報取得手段を備え、
前記画像生成手段は、前記取得された距離情報が等しい画素を重ねあわせることにより前記複数の第1の被写体像及び前記複数の第2の被写体像をそれぞれつなぎ合わせることを特徴とする請求項1から8のいずれかに記載の立体パノラマ画像撮影装置。
A second distance information acquisition unit configured to acquire, for each pixel, distance information indicating a distance to the subject of the plurality of first subject images and the plurality of second subject images;
2. The image generation means, wherein the plurality of first subject images and the plurality of second subject images are joined together by superimposing pixels having the same acquired distance information. The stereoscopic panoramic image photographing device according to any one of claims 8 to 10.
前記撮像素子回転手段は、前記撮像素子が水平な状態と、当該水平な状態との重複範囲が最大となるように前記水平な状態から90度回転された垂直な状態との間で前記撮像素子を回転させ、
前記本撮影手段は、前記撮像素子が前記水平な状態及び前記垂直な状態で前記第1の画素群及び前記第2の画素群に被写体像を結像させて第1の被写体像及び第2の被写体像を取得する処理を隣接する撮影範囲の一部が重複するように連続的に行うことで、横向きの第1の被写体像と縦向きの第1の被写体像及び横向きの第2の被写体像と縦向きの第2の被写体像をそれぞれ複数取得し、
前記第2の距離情報取得手段は、前記横向きの第1の被写体像と前記横向きの第2の被写体像とに基づいて前記横向きの第1の被写体像と前記横向きの第2の被写体像の被写体までの距離を示す距離情報(以下、第1の距離情報という)を画素毎に取得し、かつ前記縦向きの第1の被写体像と前記縦向きの第2の被写体像とに基づいて前記縦向きの第1の被写体像と前記縦向きの第2の被写体像の被写体までの距離を示す距離情報(以下、第2の距離情報という)を画素毎に取得し、
前記画像生成手段は、前記横向きの第1の被写体像と前記縦向きの第1の被写体像との重なる範囲を前記横向きの第1の被写体像から切り出して第1の切り出し画像を複数生成すると共に前記横向きの第2の被写体像と前記縦向きの第2の被写体像との重なる範囲を前記横向きの第2の被写体像から切り出して第2の切り出し画像を複数生成し、前記第1の距離情報及び前記第2の距離情報の少なくとも1つに基づいて前記生成された複数の第1の切り出し画像及び前記生成された複数の第2の切り出し画像をそれぞれつなぎ合わせることを特徴とする請求項9に記載の立体パノラマ画像撮影装置。
The image pickup device rotating means is configured to move the image pickup device between a horizontal state and a vertical state rotated 90 degrees from the horizontal state so that an overlapping range between the horizontal state and the horizontal state is maximized. Rotate
The main photographing unit forms a subject image on the first pixel group and the second pixel group in a state where the image sensor is in the horizontal state and the vertical state, and thereby forms a first subject image and a second subject image. By performing the process of acquiring the subject image continuously so that a part of the adjacent shooting ranges overlaps, the horizontal first subject image, the vertical first subject image, and the horizontal second subject image. And multiple vertical second subject images,
The second distance information acquisition unit is configured to subject the horizontal first subject image and the horizontal second subject image based on the horizontal first subject image and the horizontal second subject image. Distance information (hereinafter, referred to as first distance information) for each pixel, and the vertical direction based on the first subject image in the vertical direction and the second subject image in the vertical direction. Distance information (hereinafter referred to as second distance information) indicating the distance between the first subject image in the orientation and the subject in the second subject image in the portrait orientation is acquired for each pixel;
The image generation means generates a plurality of first cut-out images by cutting out a range where the horizontal first subject image and the vertical first subject image overlap from the horizontal first subject image. A plurality of second cut-out images are generated by cutting out the overlapping range of the horizontal second subject image and the vertical second subject image from the horizontal second subject image, and the first distance information The plurality of generated first cutout images and the generated plurality of second cutout images based on at least one of the second distance information and the generated plurality of second cutout images are connected to each other. The three-dimensional panoramic image photographing apparatus described.
前記第1の距離情報の画素数が所定の画素数より多いか否かを判断する手段を備え、
前記第1の距離情報の画素数が所定の画素数より多い場合には、前記本撮影手段は、前記複数の縦向きの第1の被写体像及び前記複数の縦向きの第2の被写体像を撮影しないことを特徴とする請求項10に記載の立体パノラマ画像撮影装置。
Means for determining whether or not the number of pixels of the first distance information is greater than a predetermined number of pixels;
When the number of pixels of the first distance information is greater than a predetermined number of pixels, the main photographing unit captures the plurality of first vertical subject images and the plurality of second vertical subject images. The stereoscopic panorama image photographing device according to claim 10, wherein photographing is not performed.
前記画像生成手段は、前記第1の距離情報の画素数と、前記第2の距離情報の画素数とを比較し、前記第1の距離情報と前記第2の距離情報とのうちの画素数が多い方の距離情報に基づいて前記生成された複数の第1の切り出し画像及び前記生成された複数の第2の切り出し画像をそれぞれつなぎ合わせることを特徴とする請求項10又は11に記載の立体パノラマ画像撮影装置。   The image generation means compares the number of pixels of the first distance information with the number of pixels of the second distance information, and the number of pixels of the first distance information and the second distance information. 12. The three-dimensional object according to claim 10, wherein the plurality of generated first cut-out images and the generated plurality of second cut-out images are connected to each other based on distance information having a larger number of distances. Panoramic image shooting device. 前記検出手段は、
前記撮像素子と一体となるように配設され、重力加速度を検出する加速度センサと、
前記撮像素子と一体となるように配設され、当該撮像素子の回転位置を検出する位置検出装置と、を有し、
前記撮像素子回転手段は、
前記撮像素子を回転させるアクチュエータと、
前記加速度センサ及び前記位置検出装置からの出力に基づいて前記アクチュエータの駆動を制御する駆動制御手段と、を有することを特徴とする請求項1から12のいずれかに記載の立体パノラマ画像撮影装置。
The detection means includes
An acceleration sensor disposed so as to be integrated with the image sensor and detecting gravitational acceleration;
A position detection device that is disposed so as to be integrated with the image sensor and detects a rotational position of the image sensor;
The image sensor rotating means includes:
An actuator for rotating the image sensor;
The stereoscopic panorama image photographing device according to any one of claims 1 to 12, further comprising: a drive control unit that controls driving of the actuator based on outputs from the acceleration sensor and the position detection device.
JP2010131306A 2010-06-08 2010-06-08 Stereoscopic panoramic image capturing device Pending JP2011259168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010131306A JP2011259168A (en) 2010-06-08 2010-06-08 Stereoscopic panoramic image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010131306A JP2011259168A (en) 2010-06-08 2010-06-08 Stereoscopic panoramic image capturing device

Publications (1)

Publication Number Publication Date
JP2011259168A true JP2011259168A (en) 2011-12-22

Family

ID=45474871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010131306A Pending JP2011259168A (en) 2010-06-08 2010-06-08 Stereoscopic panoramic image capturing device

Country Status (1)

Country Link
JP (1) JP2011259168A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085608A (en) * 2012-10-26 2014-05-12 Nikon Corp Imaging device
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
CN105472372A (en) * 2014-09-26 2016-04-06 三星电子株式会社 Image generating apparatus and method for generation of 3D panorama image
WO2016067648A1 (en) * 2014-10-30 2016-05-06 オリンパス株式会社 Focal point adjustment device, camera system, and focal point adjustment method
JP2016116120A (en) * 2014-12-16 2016-06-23 日本電信電話株式会社 Image correction device and computer program
CN106651755A (en) * 2016-11-17 2017-05-10 宇龙计算机通信科技(深圳)有限公司 Panoramic image processing method and device for terminal and terminal
WO2018121401A1 (en) * 2016-12-28 2018-07-05 深圳市掌网科技股份有限公司 Splicing method for panoramic video images, and panoramic camera
KR102062736B1 (en) 2018-04-26 2020-01-06 주식회사 텐앤투 Wide angle image providing method and system
KR102062734B1 (en) 2018-04-26 2020-01-06 주식회사 텐앤투 Wide angle image providing method and system
JP2020005108A (en) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control apparatus, imaging apparatus, mobile body, control method, and program
WO2020090420A1 (en) * 2018-10-30 2020-05-07 キヤノン株式会社 Information processing device, control method therefor, program, and storage medium
JP2021057919A (en) * 2020-12-28 2021-04-08 株式会社リコー Imaging apparatus and imaging method
CN112950481A (en) * 2021-04-22 2021-06-11 上海大学 Water bloom shielding image data collection method based on image mosaic network

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085608A (en) * 2012-10-26 2014-05-12 Nikon Corp Imaging device
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
CN105472372A (en) * 2014-09-26 2016-04-06 三星电子株式会社 Image generating apparatus and method for generation of 3D panorama image
US10559063B2 (en) 2014-09-26 2020-02-11 Samsung Electronics Co., Ltd. Image generating apparatus and method for generation of 3D panorama image
CN105472372B (en) * 2014-09-26 2018-06-22 三星电子株式会社 For generating the video generation device of 3D panoramic pictures and method
US10171724B2 (en) 2014-10-30 2019-01-01 Olympus Corporation Focal point adjustment device and focal point adjustment method
WO2016067648A1 (en) * 2014-10-30 2016-05-06 オリンパス株式会社 Focal point adjustment device, camera system, and focal point adjustment method
JP2016090649A (en) * 2014-10-30 2016-05-23 オリンパス株式会社 Focus adjustment device, camera system and focus adjustment method
CN107111102A (en) * 2014-10-30 2017-08-29 奥林巴斯株式会社 Focus-regulating device, camera arrangement and focus adjusting method
JP2016116120A (en) * 2014-12-16 2016-06-23 日本電信電話株式会社 Image correction device and computer program
CN106651755A (en) * 2016-11-17 2017-05-10 宇龙计算机通信科技(深圳)有限公司 Panoramic image processing method and device for terminal and terminal
WO2018090455A1 (en) * 2016-11-17 2018-05-24 宇龙计算机通信科技(深圳)有限公司 Method and device for processing panoramic image of terminal, and terminal
CN108616733B (en) * 2016-12-28 2020-01-10 深圳市掌网科技股份有限公司 Panoramic video image splicing method and panoramic camera
WO2018121401A1 (en) * 2016-12-28 2018-07-05 深圳市掌网科技股份有限公司 Splicing method for panoramic video images, and panoramic camera
CN108616733A (en) * 2016-12-28 2018-10-02 深圳市掌网科技股份有限公司 A kind of joining method and panorama camera of full-view video image
KR102062734B1 (en) 2018-04-26 2020-01-06 주식회사 텐앤투 Wide angle image providing method and system
KR102062736B1 (en) 2018-04-26 2020-01-06 주식회사 텐앤투 Wide angle image providing method and system
JP2020005108A (en) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control apparatus, imaging apparatus, mobile body, control method, and program
WO2020090420A1 (en) * 2018-10-30 2020-05-07 キヤノン株式会社 Information processing device, control method therefor, program, and storage medium
US11729494B2 (en) 2018-10-30 2023-08-15 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, and storage medium
JP2021057919A (en) * 2020-12-28 2021-04-08 株式会社リコー Imaging apparatus and imaging method
JP7215472B2 (en) 2020-12-28 2023-01-31 株式会社リコー Imaging device and imaging method
CN112950481A (en) * 2021-04-22 2021-06-11 上海大学 Water bloom shielding image data collection method based on image mosaic network
CN112950481B (en) * 2021-04-22 2022-12-06 上海大学 Water bloom shielding image data collection method based on image mosaic network

Similar Documents

Publication Publication Date Title
US8885026B2 (en) Imaging device and imaging method
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP5385462B2 (en) Monocular stereoscopic imaging apparatus, shading correction method for monocular stereoscopic imaging apparatus, and program for monocular stereoscopic imaging apparatus
JP5595499B2 (en) Monocular stereoscopic imaging device
JP4875225B2 (en) Stereo imaging device
JP4897940B2 (en) Stereo imaging device
JP5269252B2 (en) Monocular stereoscopic imaging device
WO2011162227A1 (en) Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
JP5469258B2 (en) Imaging apparatus and imaging method
JP5166650B2 (en) Stereo imaging device, image playback device, and editing software
US20110234767A1 (en) Stereoscopic imaging apparatus
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP5087519B2 (en) Imaging device
JP2010103949A (en) Apparatus, method and program for photographing
JP2012124650A (en) Imaging apparatus, and imaging method
JP2010200024A (en) Three-dimensional image display device and three-dimensional image display method