JPH10145649A - Dual eye image pickup device - Google Patents

Dual eye image pickup device

Info

Publication number
JPH10145649A
JPH10145649A JP8304665A JP30466596A JPH10145649A JP H10145649 A JPH10145649 A JP H10145649A JP 8304665 A JP8304665 A JP 8304665A JP 30466596 A JP30466596 A JP 30466596A JP H10145649 A JPH10145649 A JP H10145649A
Authority
JP
Japan
Prior art keywords
imaging
photographing
optical
imaging optical
compound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8304665A
Other languages
Japanese (ja)
Other versions
JP3478686B2 (en
Inventor
Sunao Kurahashi
直 倉橋
Katsumi Iijima
克己 飯島
Kotaro Yano
光太郎 矢野
Katsuhiko Mori
克彦 森
Takeo Sakimura
岳生 崎村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP30466596A priority Critical patent/JP3478686B2/en
Priority to US08/969,285 priority patent/US5937212A/en
Publication of JPH10145649A publication Critical patent/JPH10145649A/en
Application granted granted Critical
Publication of JP3478686B2 publication Critical patent/JP3478686B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To almost prevent the generation of parallax in a simple configuration by providing incident pupils on the side of the object further rather than a lens on the side of the object and arranging them so that the centroides of incident pupils or the intersections of incident pupils and optical axes can be mostly matched. SOLUTION: Incident pupils 1a and 2a are arranged on the side of object further rather than lenses 1b and 2n most on the side of the object of photographic optical system 1 and 2. Such optical image pickup systems L and R are housed in a lens barrel and held on the main body of dual eye camera so as to be turned with axes A and B as centers, and the state of making the optical axes of optical image pickup systems L and R almost parallel can be turned to the state of mostly matching the incident pupils 1a and 2a by a lens barrel driving part. Since the parallax is almost not generated in the images photographed by the optical image pickup systems L and R, when objects E, F, G and H are photographed by the optical image pickup systems L and R, the areas photographed while being superimposed become the same almost subjects (a) and (b). Therefore, the synthesizing the superimposed areas so as to be overlapped, one panoramic image (C) can be easily provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は2つ以上の撮像光学
系を有する複眼カメラ等の複眼撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a compound eye imaging apparatus such as a compound eye camera having two or more image pickup optical systems.

【0002】[0002]

【従来の技術】近年、例えば特開平7−67020号公
報に開示されているようなワイドパノラマ画像生成ある
いは高精細画像の生成を目的として、結像光学系と撮像
素子とから成る撮像系を複数有し、それぞれの撮像素子
で得られた画像信号を用いて1つの合成画像を生成する
複眼撮像装置が提案されている。
2. Description of the Related Art In recent years, for the purpose of generating a wide panoramic image or a high-definition image as disclosed in, for example, Japanese Patent Application Laid-Open No. 7-67020, a plurality of image pickup systems including an image forming optical system and an image pickup device are provided. There has been proposed a compound-eye imaging apparatus which has a single image by using image signals obtained by the respective image sensors.

【0003】[0003]

【発明が解決しようとする課題】しかし上記従来の複眼
撮像装置はそれぞれの撮像系の位置の違いにより、それ
ぞれの撮像素子で得られた画像において前面の被写体に
よってその後方の被写体が撮影されない領域が異なると
いう問題が生じてしまう。図21、図22はこの問題を
説明するための図であり、図21において、131〜1
33はそれぞれ球状の被写体である。また134、13
5はそれぞれ被写体を見る視点位置を示している。図2
2(a)、(b)はそれぞれ視点位置134、135か
ら見た被写体131〜133の様子を示した図である。
まず視点位置134から被写体を見ると、図22(a)
で示すように被写体132は被写体131によって一部
見えなくなっている。一方、視点位置135から被写体
131〜133を見た場合、図22(b)に示すように
被写体132は被写体131に隠されることはないが、
被写体133が被写体131の影に入ってしまい見えな
くなっていることがわかる。このことから異なる視点位
置から撮影領域の一部を重複させて撮影された2つの画
像を、その重複領域を重ねあわせてパノラマ画像を合成
しようとしても、2つの画像の重複領域が一致しないの
で2つの画像の重複領域の繁ぎ目を目立たないように画
像合成することが困難なことがわかる。
However, in the above-described conventional compound-eye imaging apparatus, due to the difference in the positions of the respective imaging systems, an area where the front object is not photographed by the front object in the image obtained by each imaging element. The problem of being different arises. FIG. 21 and FIG. 22 are diagrams for explaining this problem.
33 is a spherical subject. 134, 13
Reference numeral 5 denotes a viewpoint position for viewing the subject. FIG.
FIGS. 2A and 2B are diagrams showing states of subjects 131 to 133 viewed from viewpoint positions 134 and 135, respectively.
First, when the subject is viewed from the viewpoint position 134, FIG.
As shown by, the subject 132 is partially hidden by the subject 131. On the other hand, when the subjects 131 to 133 are viewed from the viewpoint position 135, the subject 132 is not hidden by the subject 131 as shown in FIG.
It can be seen that the subject 133 is in the shadow of the subject 131 and cannot be seen. For this reason, even if an attempt is made to synthesize a panoramic image by superimposing two images photographed by partially overlapping the photographing regions from different viewpoint positions and overlapping the overlapping regions, the overlapping regions of the two images do not match. It can be seen that it is difficult to combine the images so that the overlap between the two images is not noticeable.

【0004】また立体的な被写体を撮影する場合、視点
位置によって被写体自身の形状が異なって見えてしまう
という問題も生じる。図23、図24はこの問題を説明
するための図で、図23において156は被写体で、立
方体形状を有している。また157、158は視点位置
を示している。図24(a)、(b)はそれぞれ視点位
置157、158から見た被写体156の様子を示した
図である。まず視点位置157から被写体156を見る
と、図24(a)のように被写体はほぼ正方形に見え
る。一方、被写体156を視点位置158から見ると、
図24(b)のように一辺を共有する2つの台形のよう
に見える。このことから異なる視点位置から撮影領域の
一部を重複させて撮影された2つの画像を、その重複領
域を重ねあわせてパノラマ画像を合成しようとしても、
2つの画像の重複領域にある被写体自身の形状が異なっ
て見えるので、2つの画像を重ね合わせられないことが
わかる。
When a three-dimensional object is photographed, there is also a problem that the shape of the object itself looks different depending on the viewpoint position. FIGS. 23 and 24 are diagrams for explaining this problem. In FIG. 23, reference numeral 156 denotes a subject having a cubic shape. Reference numerals 157 and 158 indicate viewpoint positions. FIGS. 24A and 24B are views showing the state of the subject 156 viewed from the viewpoint positions 157 and 158, respectively. First, when the subject 156 is viewed from the viewpoint position 157, the subject looks almost square as shown in FIG. On the other hand, when the subject 156 is viewed from the viewpoint position 158,
It looks like two trapezoids sharing one side as shown in FIG. For this reason, even if an attempt is made to synthesize a panoramic image by superimposing two images photographed by partially overlapping the photographing regions from different viewpoint positions and overlapping the overlapping regions,
Since the shape of the subject itself in the overlapping area of the two images looks different, it can be seen that the two images cannot be superimposed.

【0005】このように従来の複眼撮像装置でパノラマ
撮影を行っても、左右の撮像系の撮影位置の違いから上
記問題が生じてパノラマ画像合成がうまくいかないこと
が多かった。尚、このような左右の撮像系の撮影位置の
違いを以後視差と呼ぶことにする。
As described above, even when panoramic image capturing is performed by a conventional compound-eye image capturing apparatus, the above-described problem often occurs due to a difference in image capturing position between the left and right image capturing systems, and panoramic image synthesis often fails. It should be noted that such a difference between the imaging positions of the left and right imaging systems is hereinafter referred to as parallax.

【0006】そこで本発明の目的は、視差がほとんど生
じない撮像系を有する複眼撮像装置を簡単な構成で提供
することである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a compound-eye image pickup apparatus having an image pickup system with almost no parallax with a simple configuration.

【0007】[0007]

【課題を解決するための手段】請求項1の発明において
は、それぞれ被写体光をレンズを介して集光し、撮像素
子の結像面に光学像を形成するように成された複数の撮
像光学手段を有する複眼撮像装置において、上記複数の
撮像光学手段の入射瞳はそれぞれの撮像光学手段の最も
物体側のレンズよりも更に物体側に設けられると共に、
上記複数の撮像光学手段はそれぞれの上記入射瞳の重心
または上記入射瞳と光軸との交点が略一致するように配
置されている。
According to the first aspect of the present invention, a plurality of imaging optics are formed so that subject light is condensed through a lens and an optical image is formed on an imaging surface of an imaging device. In the compound-eye imaging device having the means, the entrance pupils of the plurality of imaging optical means are provided on the object side further than the most object side lens of each imaging optical means,
The plurality of imaging optical units are arranged so that the center of gravity of each of the entrance pupils or the intersection of the optical axis with the entrance pupil substantially coincides.

【0008】また、請求項2の発明のように、上記複数
の撮像光学手段を、それぞれの上記入射瞳の重心または
上記入射瞳と光軸との交点が略一致する第1の位置と、
上記それぞれの入射瞳の重心または上記入射瞳と光軸と
の交点が一致しない第2の位置とに移動させる移動手段
を設けてもよい。
According to a second aspect of the present invention, the plurality of image pickup optical units are provided with a first position at which the center of gravity of each of the entrance pupils or the intersection of the optical axis with the entrance pupil substantially coincides with each other;
Moving means for moving the center of gravity of each entrance pupil or a second position where the intersection of the entrance pupil and the optical axis do not coincide may be provided.

【0009】また、請求項3の発明のように、上記複数
の撮像光学手段が上記第1の位置にあるとき各撮像光学
手段に入射する光量を制御する第1の絞り手段と、上記
複数の撮像光学手段が上記第2の位置にあるとき各撮像
光学手段に入射する光量を制御する第2の絞り手段とを
設けてもよい。
Further, as in the third aspect of the present invention, when the plurality of imaging optical means are at the first position, the first diaphragm means for controlling the amount of light incident on each of the imaging optical means; Second aperture means for controlling the amount of light incident on each imaging optical means when the imaging optical means is at the second position may be provided.

【0010】また、請求項4の発明のように、上記第1
の絞り手段と上記第2の絞り手段は、電気的な制御を行
うことにより光の透過を選択的に制御可能な1枚の電子
−光学素子で構成してもよい。
Further, according to the invention of claim 4, the first
The aperture means and the second aperture means may be constituted by one electro-optical element capable of selectively controlling the transmission of light by performing electrical control.

【0011】請求項5の発明においては、それぞれ被写
体光をレンズを介して集光し、撮像素子の結像面に光学
像を形成すると共に、複数の焦点距離に設定可能な複数
の撮像光学手段を有する複眼撮像装置において、上記複
数の撮像光学手段を、それぞれの入射瞳と光軸との交点
が略一致する第1の位置と、上記それぞれの入射瞳と光
軸との交点が一致しない第2の位置に移動させる移動手
段と、上記複数の撮像光学手段が上記第1の位置にある
とき各撮像光学手段の焦点距離を所定の範囲内に制限す
る制限手段とを設けている。
According to a fifth aspect of the present invention, a plurality of image pickup optical means, each of which condenses subject light through a lens, forms an optical image on an image forming surface of the image pickup device, and can set a plurality of focal lengths. In the compound-eye imaging apparatus having: a plurality of imaging optical units, the first position where the intersection of each entrance pupil and the optical axis substantially coincides with the first position where the intersection of each entrance pupil and the optical axis do not coincide And a limiter that limits the focal length of each imaging optical unit to a predetermined range when the plurality of imaging optical units are at the first position.

【0012】また、請求項6の発明のように、上記制限
手段は、上記複数の撮像光学手段が上記第1の位置にあ
るとき各撮像光学手段の焦点距離が最も短い状態に固定
するようにしてもよい。
According to a sixth aspect of the present invention, when the plurality of imaging optical means are at the first position, the limiting means fixes the focal length of each imaging optical means to the shortest state. You may.

【0013】また、請求項7の発明のように、上記複数
の撮像光学手段が上記第1の位置にあるときに撮影され
た複数の映像を合成するパノラマ撮影モードと上記複数
の撮像光学手段が上記第2の位置にあるときに撮影され
た複数の映像からステレオ立体映像を生成する立体撮影
モードとを選択的に設定するモード設定手段と、上記複
数の撮像光学手段の撮影方向を上記撮影モードに応じて
変更する撮影方向変更手段とを設け、上記パノラマ撮影
モードのときは上記撮影方向変更手段は上記焦点距離に
応じて撮影方向を変更するようにしてもよい。
According to a seventh aspect of the present invention, there is provided a panoramic photographing mode for synthesizing a plurality of images photographed when the plurality of image pickup optical means are at the first position, and the plurality of image pickup optical means. Mode setting means for selectively setting a stereoscopic imaging mode for generating a stereoscopic stereoscopic image from a plurality of images photographed when the camera is at the second position; And a photographing direction changing unit that changes the photographing direction according to the focal length in the panoramic photographing mode.

【0014】また、請求項8の発明のように、上記パノ
ラマ撮影モードにおいて、上記撮影方向変更手段は上記
複数の撮像光学手段のそれぞれの撮影光軸の成す角度と
それぞれの撮影画角との比が常に一定になるように上記
撮影方向を変更するようにしてもよい。
In the panoramic photographing mode, the photographing direction changing means may be a ratio of an angle formed by a photographing optical axis of each of the plurality of photographing optical means to a photographing angle of view. The photographing direction may be changed so that is always constant.

【0015】また、請求項9の発明のように、現在設定
されている上記焦点距離に応じた上記複数の撮像光学手
段の入射瞳と光軸との交点の位置を記憶する記憶手段
と、上記パノラマ撮影モードのときに上記記憶手段に記
憶された上記位置から撮影が適正に行われるかどうかを
判定する判定手段と、上記判定手段により撮影が適正に
行われないと判定されたときに警告を発する警告手段と
を設けてもよい。
According to a ninth aspect of the present invention, there is provided a storage means for storing a position of an intersection between an entrance pupil and an optical axis of the plurality of imaging optical means according to the currently set focal length; Determining means for determining whether or not shooting is performed properly from the position stored in the storage means in the panoramic shooting mode; and issuing a warning when the determining means determines that shooting is not performed properly. Warning means for issuing a warning may be provided.

【0016】また、請求項10の発明のように、上記パ
ノラマ撮影モードのとき上記複数の撮像光学手段の撮影
領域の重複領域またはその近傍付近の被写体距離分布を
検知する検知手段を設け、上記判定手段は、上記検知さ
れた被写体距離分布と上記記憶手段に記憶された上記位
置とによって撮影が適正に行われるかどうかの判定を行
うようにしてもよい。
According to a tenth aspect of the present invention, there is provided a detecting means for detecting an object distance distribution near or near an overlapping area of the photographing areas of the plurality of photographing optical means in the panoramic photographing mode. The means may determine whether photographing is properly performed based on the detected object distance distribution and the position stored in the storage means.

【0017】[0017]

【作用】請求項1の発明において、上記視差の問題を解
消するには二つの光学系の共通の視野内で所定の撮影距
離範囲で、距離による物点のそれぞれの結像位置、(詳
しくは物点から光学系が捕捉した光束の撮像面での強度
重心の位置)の相対的な位置関係が一致するように二つ
の光学系を配置すれば良い。その場合、二つの光学系の
収差が撮影画像の相違に影響する程大きいと画質上に問
題があるが、現実的な光学系では収差は視差に影響しな
いとみなせるので、光学系に入射する光束の広がりを制
限する絞りの像である入射瞳の中心を二つの光学系にお
いて略一致するよう配置することによって、共通の視野
内での距離による物点のそれぞれの結像位置を不変であ
るように二つの光学系を配置することができる。
According to the first aspect of the present invention, in order to solve the problem of parallax, the image forming positions of object points according to distances within a predetermined photographing distance range within a common visual field of the two optical systems. The two optical systems may be arranged so that the relative positional relationship of the light flux captured by the optical system from the object point (the position of the intensity center of gravity on the imaging surface) matches. In this case, there is a problem in image quality if the aberration of the two optical systems is large enough to affect the difference between captured images, but in a real optical system, the aberration can be considered to have no effect on parallax. By arranging the centers of the entrance pupils, which are images of the stop that limits the spread of the two, so as to be substantially coincident in the two optical systems, the respective image positions of the object points according to the distances within the common visual field remain unchanged. Can be provided with two optical systems.

【0018】また光学系の入射瞳と物体側主点の位置が
互いに近傍に存在している場合には、一つの光学系のそ
れぞれの物体側主点が略一致するように配置することに
より、共通の視野内での距離による物点のそれぞれの結
像位置を不変であるように二つの光学系を配置すること
ができる。
When the entrance pupil and the object-side principal point of the optical system are located close to each other, the object-side principal points of one optical system are arranged so as to be substantially coincident with each other. The two optical systems can be arranged such that the respective imaging positions of the object points according to the distance in the common field of view are unchanged.

【0019】以上のことから、二つの撮像光学手段のそ
れぞれの入射瞳の中心、即ち入射瞳の重心または入射瞳
と光軸の交点を略一致させることにより、上記視差の問
題を解決することができる。しかし一般に入射瞳は撮像
光学手段の最も物体側のレンズより結像面側に存在する
場合が多いので、左右の撮像系の視点を略一致させるこ
とは困難である。そこで、本発明では、複数の撮像光学
手段には、それぞれの入射瞳がそれぞれの撮像光学手段
の最も物体側のレンズよりも更に物体側に存在するもの
を用いることによって複数の撮像光学手段は容易にそれ
ぞれの入射瞳と光軸との交点が略一致するように配置す
ることができる。
From the above, it is possible to solve the parallax problem by making the centers of the entrance pupils of the two imaging optical means, that is, the center of gravity of the entrance pupil or the intersection of the entrance pupil and the optical axis substantially coincide. it can. However, in general, the entrance pupil is often located closer to the image plane than the lens closest to the object side of the imaging optical means, so that it is difficult to make the viewpoints of the left and right imaging systems substantially coincide. Therefore, in the present invention, the plurality of imaging optical units can be easily configured by using a plurality of imaging optical units each having an entrance pupil that is further on the object side than the most object side lens of each imaging optical unit. Can be arranged such that the intersection points between the respective entrance pupils and the optical axis substantially coincide with each other.

【0020】また、請求項5の発明においては、上述し
たようにして複数の撮像光学手段のそれぞれの入射瞳の
中心、即ち入射瞳と光軸の交点を略一致させることで上
記視差の問題を解決することができる。一方、近年では
ビデオカメラ等の撮影光学系には焦点距離が変更できる
ズームレンズが用いられるのが一般的である。このズー
ムレンズでは焦点距離を変更すると、入射瞳の位置が変
わってしまう。そのためズームレンズを複眼撮像装置に
用いると、それぞれの撮影レンズの入射瞳と光軸の交点
を略一致させることが困難になるが、本発明では複数の
撮像光学手段が上記第1の位置にあるときに焦点距離を
制限することによりズームレンズを用いた複眼撮像装置
においても視差がほとんど生じないようにすることがで
きる。
According to the fifth aspect of the present invention, the parallax problem can be solved by making the centers of the entrance pupils of the plurality of imaging optical means, that is, the intersections of the entrance pupil and the optical axis substantially coincide with each other as described above. Can be solved. On the other hand, in recent years, a zoom lens whose focal length can be changed is generally used for a photographing optical system such as a video camera. In this zoom lens, when the focal length is changed, the position of the entrance pupil changes. Therefore, when a zoom lens is used in a compound-eye imaging apparatus, it is difficult to make the intersection of the entrance pupil of each imaging lens and the intersection of the optical axis substantially coincident. However, in the present invention, a plurality of imaging optical units are located at the first position. Sometimes, by restricting the focal length, parallax can hardly be generated even in a compound-eye imaging apparatus using a zoom lens.

【0021】[0021]

【発明の実施の形態】以下、本発明の第1〜6の実施の
形態について説明する。 (第1の実施の形態)図1は本発明を実施した複眼カメ
ラの構成を示すブロック図である。図1において、1お
よび2はそれぞれ撮影光学系、1a、2aはそれぞれ撮
影光学系1、2の入射瞳であり、各光軸との交点の位置
を示している。この入射瞳1a、2aは図に示すように
撮影光学系1、2の最も物体側のレンズ1b、2bより
もさらに物体側に存在している。そして図1の状態では
撮影光学系1、2の光軸は略平行となっており、入射瞳
1a、2aは互いに所定距離離れた状態になっている。
この状態で撮影されたそれぞれの映像には所定の視差が
生じているので、撮影光学系1で撮影された映像は鑑賞
者の左目だけに、また撮影光学系2で撮影された映像は
鑑賞者の右目だけに見えるように再生すると立体映像の
再生が可能となる。3および4はそれぞれ撮影光学系
1、2で結像された光学像を電気的な映像信号に変換す
る撮像素子である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, first to sixth embodiments of the present invention will be described. (First Embodiment) FIG. 1 is a block diagram showing the configuration of a compound eye camera embodying the present invention. In FIG. 1, reference numerals 1 and 2 denote imaging optical systems, and reference numerals 1a and 2a denote entrance pupils of the imaging optical systems 1 and 2, respectively, which indicate positions of intersections with respective optical axes. As shown in the figure, the entrance pupils 1a and 2a are located further on the object side than the most object-side lenses 1b and 2b of the imaging optical systems 1 and 2. In the state shown in FIG. 1, the optical axes of the imaging optical systems 1 and 2 are substantially parallel, and the entrance pupils 1a and 2a are separated from each other by a predetermined distance.
Since a predetermined parallax occurs in each of the images shot in this state, the image shot by the shooting optical system 1 is only for the left eye of the viewer, and the image shot by the shooting optical system 2 is the viewer. When the image is reproduced so that it can be seen only by the right eye of the user, a stereoscopic image can be reproduced. Reference numerals 3 and 4 denote imaging elements for converting optical images formed by the imaging optical systems 1 and 2 into electrical video signals.

【0022】Lは撮影光学系1と撮像素子3とから成る
撮像光学系、Rは撮影光学系2と撮像素子4とから成る
撮像光学系Rである。この撮像光学系L、Rは鏡筒内に
収納され、複眼カメラ本体に対してそれぞれ軸A、Bを
中心に回動可能に支持されており、鏡筒駆動部14、1
5により図1の撮像光学系L、Rの光軸がほぼ平行な状
態から図2に示すように入射瞳1a、2aが略一致した
状態にすることができる。図2のC、Dはそれぞれ撮像
光学系L、Rの撮影範囲を示している。またE、F、
G、Hは球状の被写体である。
L is an image pickup optical system composed of the image pickup optical system 1 and the image pickup device 3, and R is an image pickup optical system R composed of the image pickup optical system 2 and the image pickup device 4. The imaging optical systems L and R are housed in a lens barrel, and are rotatably supported about the axes A and B with respect to the compound eye camera body, respectively.
5, it is possible to change the state in which the optical axes of the imaging optical systems L and R in FIG. 1 are substantially parallel to the state in which the entrance pupils 1a and 2a are substantially coincident as shown in FIG. C and D in FIG. 2 indicate the imaging ranges of the imaging optical systems L and R, respectively. E, F,
G and H are spherical subjects.

【0023】先に述べたように撮像光学系L、Rによっ
て撮影されたそれぞれの画像にはほとんど視差が生じな
いので、撮像光学系L、Rで被写体E、F、G、Hを撮
影すると、それぞれ図3(a)、(b)のようになる。
図3からわかるように撮像光学系L、Rで重複して撮影
される領域はほとんど同じ被写体像になるので、図3
(c)のように図3(a)、(b)の重複領域を重あわ
せるように合成して一つのパノラマ画像を容易に得るこ
とが可能である。
As described above, there is almost no parallax between the images taken by the imaging optical systems L and R. Therefore, when the subjects E, F, G and H are taken by the imaging optical systems L and R, 3 (a) and 3 (b) respectively.
As can be seen from FIG. 3, since the areas imaged by the imaging optical systems L and R in an overlapping manner are almost the same subject image, FIG.
As shown in FIG. 3C, it is possible to easily obtain one panoramic image by combining the overlapping regions of FIGS. 3A and 3B so as to overlap each other.

【0024】図1に戻って、5は撮像光学系L、Rに入
射する光量を制御する絞り部である。図4(a)、
(b)は絞り部5を撮像光学系L、Rから見た図で、図
4(a)は絞りを開放した状態を示している。図4にお
いて5aは撮像光学系L、Rが図2の状態のときに撮像
光学系L、Rの共通の絞りとして作用する共通絞りで、
5b(l)、(r)はそれぞれ撮像光学系L、Rが図1
の状態のときに撮像光学系L、Rそれぞれの独立の絞り
として作用する独立絞りである。それぞれの絞りの開口
部は通電することによって光を透過させたり、遮断する
ことが可能な液晶から成り、同心円状領域aからjに分
割されている。また5cは光を全く通さない遮光部であ
る。そして上記同心円領域a、e、hを光が通過しない
ように制御することにより図4(b)の状態となり、各
絞りに入射する光量を、制御することができる。なお本
実施の形態では、共通絞り5aは撮像光学系L、Rの光
軸を絞りの位置で交差させることが困難なので、図に示
すようにそれぞれの光軸を中心に同心円状の開口部を設
けている。
Referring back to FIG. 1, reference numeral 5 denotes a diaphragm for controlling the amount of light incident on the image pickup optical systems L and R. FIG. 4 (a),
4B is a view of the diaphragm unit 5 as viewed from the imaging optical systems L and R, and FIG. 4A shows a state where the diaphragm is opened. In FIG. 4, reference numeral 5a denotes a common stop which acts as a common stop for the imaging optical systems L and R when the imaging optical systems L and R are in the state of FIG.
5b (l) and (r) show the imaging optical systems L and R respectively in FIG.
In this state, the aperture stop acts as an independent aperture for each of the imaging optical systems L and R. The aperture of each of the apertures is made of a liquid crystal capable of transmitting or blocking light when energized, and is divided into concentric regions a to j. Reference numeral 5c denotes a light-shielding portion that does not transmit light at all. By controlling so that light does not pass through the concentric regions a, e, and h, the state shown in FIG. 4B is obtained, and the amount of light incident on each aperture can be controlled. In the present embodiment, since it is difficult for the common stop 5a to cross the optical axes of the imaging optical systems L and R at the position of the stop, as shown in the figure, a concentric opening is formed around each optical axis. Provided.

【0025】図1に戻って、6は被写体の明るさを測定
する測光部である。7は撮像光学系L、Rの合焦状態を
検知するピント検知部である。8は撮像素子3、4で得
られた2つの映像データを1つの連続した映像データに
合成した後、所定の映像信号に変換する信号処理部であ
る。9は信号処理部8で得られた画像データとその画像
データ等を記憶するメモリである。10は複眼カメラ全
体を制御するシステムコントローラである。11は信号
処理部8によって得られた映像信号を表示するモニタで
ある。12はレリーズボタンで、操作されることにより
レリーズ信号を発する。13はパノラマ映像を撮影する
パノラマモードと立体映像を撮影する立体モードといっ
た撮影モードの切り替えを行うモード切替部である。
Returning to FIG. 1, reference numeral 6 denotes a photometry unit for measuring the brightness of the subject. Reference numeral 7 denotes a focus detection unit that detects a focus state of the imaging optical systems L and R. Reference numeral 8 denotes a signal processing unit that combines two video data obtained by the imaging devices 3 and 4 into one continuous video data and then converts the video data into a predetermined video signal. Reference numeral 9 denotes a memory for storing the image data obtained by the signal processing unit 8, the image data, and the like. A system controller 10 controls the entire compound-eye camera. Reference numeral 11 denotes a monitor for displaying a video signal obtained by the signal processing unit 8. A release button 12 generates a release signal when operated. Reference numeral 13 denotes a mode switching unit that switches between a shooting mode such as a panoramic mode for shooting a panoramic video and a stereoscopic mode for shooting a stereoscopic video.

【0026】次に動作を説明する。図5は図1の複眼カ
メラの動作を示すフローチャートである。なお特に断ら
ない限り動作は全てシステムコントローラ10が行うも
のとする。図1、5において、図示しない複眼カメラの
電源スイッチが投入されると、まず撮影モード切替部1
3の検知を行う(S101)。ここで撮影モード切替部
13が操作され、パノラマ撮影モードが選択されると、
撮像光学系L、Rを図2の状態にし、立体撮影モードが
選択されると、撮像光学系L、Rを図1の状態に駆動す
ることによって、立体撮影モードとパノラマ撮影モード
との切り替えができる(S102)。次にレリーズボタ
ン12が操作されてレリーズ信号が発せられると(S1
03)、測光部6によって被写体の明るさが測定され、
測光値に応じて絞りおよびシャッタ速度が決定される
(S104)。
Next, the operation will be described. FIG. 5 is a flowchart showing the operation of the compound eye camera of FIG. All operations are performed by the system controller 10 unless otherwise specified. 1 and 5, when a power switch of a compound eye camera (not shown) is turned on, first, a shooting mode switching unit 1
No. 3 is detected (S101). Here, when the shooting mode switching unit 13 is operated and the panoramic shooting mode is selected,
When the imaging optical systems L and R are set to the state shown in FIG. 2 and the stereoscopic imaging mode is selected, the imaging optical systems L and R are driven to the state shown in FIG. 1 to switch between the stereoscopic imaging mode and the panoramic imaging mode. Yes (S102). Next, when the release button 12 is operated and a release signal is issued (S1).
03), the brightness of the subject is measured by the photometric unit 6,
The aperture and the shutter speed are determined according to the photometric value (S104).

【0027】次にピント検知部7によって撮像光学系
L、撮像光学系Rは被写体に対してピント調節が行われ
る(S105)。次に(S104)で決定された絞り値
に応じて、撮像光学系L、Rが図2の状態のとき、即ち
パノラマ撮影モードのときは、前記共通絞り5aの制御
が行われ、撮像光学系L、Rが図1の状態のとき、即ち
立体撮影モードのときは、前記独立絞り5b(L)、5
b(R)の制御が行われる(S106)。そして(S1
04)で決定されたシャッタ速度で撮像素子3、撮像素
子4へ露光が行われ(S107)、撮像素子3、4で得
られた信号は信号処理部8で撮影モードに応じた処理が
なされる(S108)。この信号処理部8ではパノラマ
撮影モードのときは、撮像光学系L、撮像光学系Rで得
られた2つの映像信号を1つの連続した映像信号に合成
する前に台形歪みの補正を行う。
Next, the focus detection unit 7 adjusts the focus of the imaging optical system L and the imaging optical system R with respect to the subject (S105). Next, in accordance with the aperture value determined in (S104), when the imaging optical systems L and R are in the state of FIG. 2, that is, in the panorama shooting mode, the control of the common aperture 5a is performed, and the imaging optical system When L and R are in the state of FIG. 1, that is, in the stereoscopic shooting mode, the independent apertures 5b (L), 5
The control of b (R) is performed (S106). And (S1
Exposure is performed on the imaging elements 3 and 4 at the shutter speed determined in 04) (S107), and the signals obtained by the imaging elements 3 and 4 are processed by the signal processing unit 8 in accordance with the shooting mode. (S108). In the panoramic shooting mode, the signal processing unit 8 corrects trapezoidal distortion before combining two video signals obtained by the imaging optical system L and the imaging optical system R into one continuous video signal.

【0028】ここで台形歪みについて説明する。図6は
図2の撮像光学系L、Rと撮影範囲が等価な撮像光学系
を示したもので、20は撮影レンズ、21、22は撮像
素子である。同図からわかるように撮像光学系L、Rと
撮影範囲が等価な画角を有する撮影レンズ20の光軸に
対して撮像素子21、22は図2の撮像光学系L、Rの
光軸の交差角に応じてお互いに傾いていることがわか
る。これは撮像光学系L、Rが図2の状態のときはそれ
ぞれの光軸が所定の交差角で交差しており、中心被写体
に対して傾いて配置されているからである。従って、撮
影レンズ20によって結像された像は点線Sで示した1
つの平面に結像された像とは一致せず歪んだ像となり、
これを台形歪みという。そこでこの台形歪みを補正し、
撮像光学系L、Rで撮影された画像が、図6で示した撮
像光学系L、Rの撮影範囲が等しい1つの撮影レンズ2
0によって1つの平面Sに結像された像と等価となるよ
うにしている。
Here, the trapezoidal distortion will be described. FIG. 6 shows an imaging optical system in which the imaging range is equivalent to the imaging optical systems L and R in FIG. 2. Reference numeral 20 denotes an imaging lens, and reference numerals 21 and 22 denote imaging elements. As can be seen from the figure, the image pickup devices 21 and 22 are positioned on the optical axes of the image pickup optical systems L and R in FIG. 2 with respect to the optical axis of the image pickup lens 20 having a field of view equivalent to that of the image pickup optical systems L and R. It can be seen that they are mutually inclined according to the intersection angle. This is because when the imaging optical systems L and R are in the state shown in FIG. 2, their respective optical axes intersect at a predetermined intersection angle and are arranged obliquely with respect to the center subject. Therefore, the image formed by the photographing lens 20 is indicated by a dotted line S 1.
The image formed on one plane is distorted without being matched,
This is called trapezoidal distortion. So I correct this trapezoidal distortion,
An image captured by the imaging optical systems L and R is a single imaging lens 2 having the same imaging range of the imaging optical systems L and R shown in FIG.
A value of 0 is equivalent to an image formed on one plane S.

【0029】図5に戻って、信号処理部8ではさらに、
台形歪みを補正されたそれぞれの映像信号のオーバーラ
ップ部から両画像の対応点を抽出し、得られた対応点か
ら2つの映像のオーバーラップ量を求め、それに応じて
2つの映像の繋ぎ合わせを行うことにより、図3(c)
のような1つの横長の映像を生成する。また立体撮影モ
ードのときは、信号処理部8は撮影された2つの映像に
は互いにペアとなっていることを示す識別信号および撮
影条件等の撮影情報付加するようにしている。このよう
にして信号処理部8で生成された映像信号はメモリ9に
記録される(S109)。
Returning to FIG. 5, the signal processing unit 8 further includes
The corresponding points of the two images are extracted from the overlapped portions of the respective video signals in which the trapezoidal distortion has been corrected, the amount of overlap between the two images is obtained from the obtained corresponding points, and the two images are joined accordingly. By doing so, FIG. 3 (c)
Is generated. In the three-dimensional imaging mode, the signal processing unit 8 adds an identification signal indicating that the two images are paired with each other and imaging information such as imaging conditions to the two captured images. The video signal thus generated by the signal processing unit 8 is recorded in the memory 9 (S109).

【0030】以上で1回の撮影動作を終了するが、メモ
リ9に記録された映像信号は図示しない再生ボタンを操
作して複眼カメラを再生可能状態にすることにより、モ
ニタ11で再生することができる。モニタ11で立体映
像を表示する場合は、撮像光学系L、Rで撮影されたそ
れぞれの映像を時系列的に交互に表示し、映像の鑑賞者
は左目用の映像が表示されているときは右目が遮光さ
れ、右目用の映像が表示されているときは左目が遮光さ
れるようにした、いわゆる液晶シャッタ眼鏡を掛けるこ
とにより立体映像を見ることができる。またパノラマ映
像を表示する場合は、信号処理部8において台形歪みを
補正しているので、より自然なパノラマ映像を得ること
ができる。
One photographing operation is completed as described above. The video signal recorded in the memory 9 can be reproduced on the monitor 11 by operating a reproduction button (not shown) so that the compound eye camera can be reproduced. it can. When displaying a three-dimensional image on the monitor 11, the images captured by the imaging optical systems L and R are alternately displayed in a time-series manner. When the right eye is shielded and the image for the right eye is displayed, stereoscopic images can be viewed by wearing so-called liquid crystal shutter glasses in which the left eye is shielded from light. When displaying a panoramic video, the trapezoidal distortion is corrected in the signal processing unit 8, so that a more natural panoramic video can be obtained.

【0031】なお、本実施の形態では、撮像光学系L、
Rの光量を制御する絞りに液晶を用いているが、これに
限定されるものではなく、例えばエレクトロクロミーを
用いたり、複数の絞り羽根をメカニカルに駆動して開光
量を制御しても良い。
In this embodiment, the imaging optical system L,
Although a liquid crystal is used for the aperture for controlling the amount of R light, the invention is not limited to this. For example, electrochromy may be used, or a plurality of aperture blades may be mechanically driven to control the amount of open light. .

【0032】(第2の実施の形態)また、前記共通絞り
5aは図7に示すように、常に開口部が1つになるよう
に制御しても良い。即ち、共通絞り5aは図7に示すよ
うに撮像光学系L、Rの光軸の中間点を中心として同心
円状に絞りがa′、b′、c′に分割されている。この
場合、絞りを絞るほど撮像光学系L、Rの入射瞳の中心
間の距離が小さくなるので、更に視差の生じない複眼カ
メラを提供することができるという効果がある。
(Second Embodiment) As shown in FIG. 7, the common aperture 5a may be controlled so that the number of openings is always one. That is, as shown in FIG. 7, the common aperture 5a is divided concentrically into a ', b', and c 'around an intermediate point of the optical axes of the imaging optical systems L and R. In this case, since the distance between the centers of the entrance pupils of the imaging optical systems L and R decreases as the aperture is reduced, there is an effect that a compound-eye camera that does not cause parallax can be provided.

【0033】(第3の実施の形態)また絞り5は図8の
ようにしても良い。図8(a)において80は液晶で、
図中の小さな正方形1つ1つが光の透過、不透過を制御
できるようになっている。そして81、82で示した領
域が現在光が透過可能な領域、即ち絞り開口部である。
本実施の形態では上記のように絞りが構成されているの
で、図中の小さな正方形1つ1つが光の透過、不透過を
変化させることにより、絞りの開口領域81、82の位
置を、例えば図8(a)位置から図8(b)の81′、
82′で示す位置に移動することができる。従って、撮
像光学系L、Rの回動に応じて絞りの開口領域の位置を
変更することによって、撮像光学系L、Rは図1および
図2の状態に限らず、所定の範囲内で任意の位置に回動
した状態での撮影が可能になるという効果がある。
(Third Embodiment) The diaphragm 5 may be configured as shown in FIG. In FIG. 8A, reference numeral 80 denotes a liquid crystal;
Each small square in the figure can control transmission and non-transmission of light. The areas indicated by 81 and 82 are areas through which light can be transmitted at present, that is, aperture stops.
In the present embodiment, the apertures are configured as described above, so that each of the small squares in the figure changes the transmission and non-transmission of light, thereby changing the positions of the aperture regions 81 and 82 of the apertures, for example. From the position in FIG. 8A, 81 ′ in FIG.
It can move to the position indicated by 82 '. Therefore, by changing the position of the aperture area of the stop according to the rotation of the imaging optical systems L and R, the imaging optical systems L and R are not limited to the states shown in FIGS. There is an effect that it is possible to take a picture in a state where the camera is turned to the position.

【0034】(第4の実施の形態)第1の実施の形態の
撮像光学系L、Rでは、入射瞳1a、2aと絞り5の位
置が一致していたが、図9(a)、(b)のような撮像
光学系を用いても良い。図9(a)において、91およ
び92はそれぞれ撮影光学系、91a、92aはそれぞ
れ撮影光学系91、92の入射瞳で、光軸との交点の位
置を示している。この入射瞳91a、92aは図示のよ
うに撮影光学系91、92の最も物体側のレンズ91
b、92bよりもさらに物体側に存在している。93お
よび94はそれぞれ撮影光学系91、92で結像された
光学像を電気的な映像信号に変換する撮像素子である。
また95、96は撮影光学系91、92の絞りで、図示
のように撮影光学系91、92の最も物体側のレンズ9
1b、92bよりも撮像素子93、94の結像面側に存
在している。このように本実施の形態では、撮影光学系
91、92に入射する光量を制御する絞り95、96が
入射瞳91a、92aの位置、即ち撮影光学系91、9
2の最も物体側のレンズ91b、92bよりも更に物体
側に存在しないので、撮影光学系91、92を小さくで
きるという効果がある。
(Fourth Embodiment) In the imaging optical systems L and R according to the first embodiment, the positions of the entrance pupils 1a and 2a and the stop 5 coincide with each other. An imaging optical system as in b) may be used. In FIG. 9A, reference numerals 91 and 92 denote imaging optical systems, respectively, and reference numerals 91a and 92a denote entrance pupils of the imaging optical systems 91 and 92, respectively, which indicate positions of intersections with the optical axis. The entrance pupils 91a and 92a are connected to the most object-side lens 91 of the photographing optical systems 91 and 92 as shown in the figure.
b and 92b are present on the object side. Numerals 93 and 94 denote imaging elements for converting optical images formed by the imaging optical systems 91 and 92 into electrical video signals.
Reference numerals 95 and 96 denote diaphragms of the photographing optical systems 91 and 92, as shown in FIG.
It is located closer to the image forming surface of the imaging elements 93 and 94 than 1b and 92b. As described above, in the present embodiment, the stops 95 and 96 for controlling the amount of light incident on the imaging optical systems 91 and 92 are located at the positions of the entrance pupils 91a and 92a, that is, the imaging optical systems 91 and 9
2 is not further on the object side than the most object-side lenses 91b and 92b, so that the photographing optical systems 91 and 92 can be made smaller.

【0035】(第5の実施の形態)図10は本実施の形
態による複眼カメラの構成を示すブロック図である。図
10において、50Lおよび50Rはそれぞれ後述する
焦点距離を変更可能な撮影光学系や撮像素子等を保持す
る鏡筒で、複眼カメラ本体に軸Aを中心に回動可能に固
定されている。図11は上記鏡筒50L、50Rの内部
構成を示す図で、51、52はそれぞれ焦点距離を変更
可能な撮影光学系である。また51w、52wはそれぞ
れ撮影光学系51、52が最も焦点距離が小さい時の撮
影光学系51、52の入射瞳と光軸との交点位置を示
し、51t、52tはそれぞれ撮影光学系51、52が
最も焦点距離が大きい時の撮影光学系51、52の入射
瞳と光軸との交点位置を示している。また51b、52
bはそれぞれ撮影光学系51、52の光軸上を移動する
ことによって焦点距離を変更する変倍レンズである。5
3および54はそれぞれ撮影光学系51、52で結像さ
れた光学像を電気的な映像信号に変換する撮像素子であ
る。55、56はそれぞれ撮影光学系51、52の前面
に配置され、被写体光束を撮影光学系51、52に導く
反射ミラーである。
(Fifth Embodiment) FIG. 10 is a block diagram showing a configuration of a compound eye camera according to the present embodiment. In FIG. 10, reference numerals 50L and 50R denote lens barrels each holding a photographing optical system and an image sensor which can change the focal length, which will be described later, and are fixed to the compound eye camera main body so as to be rotatable about an axis A. FIG. 11 is a diagram showing the internal configuration of the lens barrels 50L and 50R. Numerals 51 and 52 denote photographing optical systems each having a variable focal length. Reference numerals 51w and 52w denote intersection points between the entrance pupils of the imaging optical systems 51 and 52 and the optical axis when the imaging optical systems 51 and 52 have the shortest focal length, respectively, and 51t and 52t denote the imaging optical systems 51 and 52, respectively. Indicates the position of the intersection between the entrance pupils of the imaging optical systems 51 and 52 and the optical axis when the focal length is the longest. 51b, 52
Reference numeral b denotes a variable power lens that changes the focal length by moving on the optical axis of the photographing optical systems 51 and 52, respectively. 5
Reference numerals 3 and 54 denote imaging elements for converting the optical images formed by the imaging optical systems 51 and 52 into electrical video signals. Reference numerals 55 and 56 are reflection mirrors arranged on the front surfaces of the imaging optical systems 51 and 52, respectively, for guiding a subject light beam to the imaging optical systems 51 and 52.

【0036】そして51′、52′および53′、5
4′は反射ミラー55、56による撮影光学系51、5
2と撮像素子53、54の虚像を示し、51w′、52
w′および51t′、52t′は上記撮影光学系51、
52の入射瞳と光軸の交点位置51w、52w、51
t、52tの反射ミラー55、56の虚像を示してい
る。従って、撮影光学系51、52は反射ミラー55、
56による虚像位置51′、52′に配置した場合と等
価となる。つまり図10、図11の鏡筒50L、50R
の状態では撮影光学系51、52の光軸は所定距離離れ
た状態でかつ平行になっている。
And 51 ', 52' and 53 ', 5'
4 'is a photographing optical system 51,5 by reflecting mirrors 55,56.
2 and virtual images of the imaging elements 53 and 54, 51w 'and 52
w 'and 51t' and 52t 'are the above-described photographing optical system 51,
52, intersection points 51w, 52w, 51 between the entrance pupil and the optical axis
The virtual images of the reflection mirrors 55 and 56 at t and 52t are shown. Therefore, the photographing optical systems 51 and 52 include the reflection mirror 55,
56 is equivalent to the case where the image is arranged at the virtual image positions 51 'and 52'. That is, the lens barrels 50L and 50R of FIGS.
In the state (1), the optical axes of the photographing optical systems 51 and 52 are separated by a predetermined distance and are parallel.

【0037】図10に戻って57は操作されることによ
りレリーズ信号を発するレリーズボタンである。58は
被写体の明るさを測定する測光部である。59は撮影光
学系51、52の合焦状態を検知するピント検知部であ
る。60は撮像素子53、54で得られた2つの映像信
号を1つの連続した映像信号に合成した後、所定の映像
信号に変換する信号処理部である。61は信号処理部6
0で得られた映像信号と撮影条件等を記憶するメモリで
ある。62は複眼カメラ全体を制御するシステムコント
ローラである。63は信号処理部60によって得られた
映像信号を表示するモニタである。64は鏡筒50L、
50Rを前記軸Aを中心に回動させるための鏡筒駆動部
で、これを操作することにより鏡筒50L、50Rを図
10の状態から図12に示す状態にすることができ、ま
たその逆の操作も可能である。65は鏡筒50L、50
Rが図10か図12の状態のうちいずれの状態であるか
を検知する鏡筒検知部である。66は操作することによ
り前記変倍レンズ51b、52bを移動させることがで
きるズーム変更部、67は撮影モード変更部である。
Returning to FIG. 10, reference numeral 57 denotes a release button which generates a release signal when operated. Reference numeral 58 denotes a photometry unit that measures the brightness of the subject. Reference numeral 59 denotes a focus detection unit that detects a focus state of the imaging optical systems 51 and 52. Reference numeral 60 denotes a signal processing unit that combines two video signals obtained by the imaging devices 53 and 54 into one continuous video signal, and then converts the combined video signal into a predetermined video signal. 61 is a signal processing unit 6
This is a memory for storing the video signal obtained at 0, shooting conditions, and the like. Reference numeral 62 denotes a system controller that controls the entire compound-eye camera. 63 is a monitor for displaying the video signal obtained by the signal processing unit 60. 64 is a lens barrel 50L,
A lens barrel driving unit for rotating the lens barrel 50R about the axis A. By operating this, the lens barrels 50L and 50R can be changed from the state shown in FIG. 10 to the state shown in FIG. 12, and vice versa. Operation is also possible. 65 is a lens barrel 50L, 50
This is a lens barrel detection unit that detects which state R is in the state of FIG. 10 or FIG. Reference numeral 66 denotes a zoom change unit that can move the variable power lenses 51b and 52b by operating, and 67 denotes a shooting mode change unit.

【0038】次に動作を説明する。図13は図10の複
眼カメラの動作を示すフローチャートである。なお、特
に断らない限り動作は全てシステムコントローラ62が
行うものとする。図10、図13において、まず図示し
ない複眼カメラの電源スイッチが投入されると、鏡筒検
知部65により鏡筒50L、50Rが現在、図10と図
12のどちらの状態になっているかを検知し、図10の
状態であれば立体撮影モードに移行し、図12の状態で
あればパノラマ撮影モードに移行する(S201)。
Next, the operation will be described. FIG. 13 is a flowchart showing the operation of the compound eye camera of FIG. All operations are performed by the system controller 62 unless otherwise specified. 10 and 13, when a power switch of a compound-eye camera (not shown) is turned on, the lens barrel detection unit 65 detects which of the lens barrels 50L and 50R is currently in the state shown in FIG. 10 or FIG. If the state is as shown in FIG. 10, the mode shifts to the stereoscopic shooting mode, and if the state is as shown in FIG. 12, the mode shifts to the panoramic mode (S201).

【0039】まずパノラマ撮影モードの場合を説明す
る。パノラマ撮影モードではまず撮影光学系51、52
の焦点距離を最も短い状態にする(S202)。図12
はこのときの鏡筒50L、50Rの状態を示す図で、図
中C、Dはそれぞれの撮影光学系51、52の撮影画角
を示している。またe、f、g、hは球状の被写体であ
る。図12の状態では撮影光学系51、52は反射ミラ
ー55、56により51′、52′の位置に配置した場
合と等価である。従って、撮影光学系51、52の視点
であるそれぞれの入射瞳と光軸の交差点51w、52w
は51w′、52w′の位置にあることになり、撮影光
学系51、52の各視点が非常に近接した状態にあるこ
とがわかる。
First, the case of the panoramic photographing mode will be described. In the panoramic shooting mode, first, the shooting optical systems 51 and 52 are set.
Is set to the shortest focal length (S202). FIG.
Is a diagram showing the state of the lens barrels 50L and 50R at this time. In the drawings, C and D indicate the imaging angle of view of the imaging optical systems 51 and 52, respectively. Also, e, f, g, and h are spherical subjects. In the state shown in FIG. 12, the photographing optical systems 51 and 52 are equivalent to the case where the reflecting mirrors 55 and 56 are arranged at the positions 51 'and 52'. Therefore, the intersection points 51w and 52w between the respective entrance pupils, which are the viewpoints of the imaging optical systems 51 and 52, and the optical axis.
Are located at positions 51w 'and 52w', and it can be seen that the viewpoints of the imaging optical systems 51 and 52 are very close to each other.

【0040】図13に戻って、レリーズボタン57が操
作されてレリーズ信号が発せられると(S203)、測
光部58によって被写体の明るさが測定され、その測光
値に応じて絞りおよびシャッタ速度が決定される(S2
04)。次にピント検知部59によって撮像光学系5
1、52の被写体に対するピント状態が検出され、ピン
トが合っていない場合は図示しないピント調節レンズを
駆動して被写体に対するピント調節が行われる(S20
5)。次に(S204)で決定された絞り値およびシャ
ッタ速度で撮像素子53、54へ露光が行われる(S2
06)。撮像素子53、54で得られた映像信号は信号
処理部60でまず左右反転を行い、反射ミラー55、5
6による鏡像を補正する(S207)。次に信号部60
は左右反転した映像信号に対して台形歪みの補正を行う
(S208)。
Returning to FIG. 13, when the release button 57 is operated and a release signal is issued (S203), the brightness of the subject is measured by the photometric unit 58, and the aperture and shutter speed are determined according to the photometric value. (S2
04). Next, the image pickup optical system 5 is
The in-focus state of the subject 1 or 52 is detected, and if the subject is out of focus, the focus adjustment lens (not shown) is driven to perform focus adjustment on the subject (S20).
5). Next, exposure is performed on the imaging elements 53 and 54 with the aperture value and shutter speed determined in (S204) (S2).
06). The video signals obtained by the imaging devices 53 and 54 are first horizontally inverted by a signal processing unit 60,
6 is corrected (S207). Next, the signal unit 60
Performs the correction of the trapezoidal distortion on the video signal inverted left and right (S208).

【0041】ここで台形歪みについて説明する。図14
は図10の撮像光学系50L、50Rと撮影範囲が等価
な撮像光学系を示したもので、20は撮影レンズ、2
1、22は撮像素子である。同図からわかるように撮影
光学系51、52と撮影範囲が等価な画角を有する撮影
レンズ20の光軸に対して撮像素子21、22は図10
の撮像光学系50L、50Rの光軸の交差角に応じて互
いに傾いていることがわかる。これは撮影光学系51、
52の光軸が所定の交差角で交差しており、中心被写体
に対して傾いて配置されているからである。従って、撮
影レンズ20によって結像された像は点線Sで示した1
つの平面に結像された像とは一致せず歪んだ像となり、
これを台形歪みという。そこでこの台形歪みを補正し、
撮影光学系51、52で撮影された画像が、図14で示
した撮影光学系51、52の撮影範囲が等しい1つの撮
影レンズ20によって1つの平面Sに結像された像と等
価となるようにしている。
Here, the trapezoidal distortion will be described. FIG.
10 shows an imaging optical system having an imaging range equivalent to the imaging optical systems 50L and 50R of FIG.
Reference numerals 1 and 22 denote imaging elements. As can be seen from FIG. 10, the image pickup devices 21 and 22 are arranged with respect to the optical axis of the photographing lens 20 having an angle of view equivalent to that of the photographing optical systems 51 and 52 in FIG.
It can be seen that they are mutually inclined according to the intersection angle of the optical axes of the imaging optical systems 50L and 50R. This is a shooting optical system 51,
This is because the 52 optical axes intersect at a predetermined intersection angle and are arranged obliquely with respect to the central subject. Therefore, the image formed by the photographing lens 20 is indicated by a dotted line S 1.
The image formed on one plane is distorted without being matched,
This is called trapezoidal distortion. So I correct this trapezoidal distortion,
The images photographed by the photographing optical systems 51 and 52 are equivalent to the image formed on one plane S by one photographing lens 20 having the same photographing range of the photographing optical systems 51 and 52 shown in FIG. I have to.

【0042】図15(a)、(b)は図12の状態で被
写体cからhを撮影し信号処理部60で左右反転および
台形歪み補正を行った後の映像を示している。前述した
ように前記撮影光学系51、52の入射瞳と光軸との交
点、即ち視点はほぼ一致しているので、図15(a)、
(b)の映像には視差がほとんど生じていない。信号処
理部60ではさらに図15(a)、(b)の映像信号の
重複領域を検出し、一方の映像信号から重複領域を削除
した後、他方の映像信号を削除した映像信号を補うよう
に合成して図15(c)に示すような1つ横長の映像、
即ちパノラマ映像を生成する(S209)。
FIGS. 15 (a) and 15 (b) show images obtained by photographing the object c to h in the state shown in FIG. 12 and performing left / right inversion and trapezoidal distortion correction in the signal processing unit 60. FIG. As described above, since the intersections between the entrance pupils of the photographing optical systems 51 and 52 and the optical axis, that is, the viewpoints are almost the same, FIG.
Parallax hardly occurs in the image of (b). The signal processing unit 60 further detects the overlapping area of the video signals in FIGS. 15A and 15B, deletes the overlapping area from one of the video signals, and compensates for the video signal from which the other video signal has been deleted. One horizontal image as shown in FIG.
That is, a panoramic video is generated (S209).

【0043】図13に戻って、信号処理部60で生成さ
れたパノラマ映像信号はメモリ61に記録される(S2
10)。以上でパノラマ撮影モードの撮影動作を終了す
るが、メモリ61に記録された映像信号は図示しない再
生ボタンを操作して複眼カメラを再生可能状態にするこ
とにより、モニタ63で再生することができる。なお、
本実施の形態ではパノラマ撮影モードはズーム変更部6
6を操作しても前記変倍レンズ51b、52bは移動し
ないようになっている。
Returning to FIG. 13, the panoramic video signal generated by the signal processing section 60 is recorded in the memory 61 (S2).
10). The photographing operation in the panoramic photographing mode is completed as described above. The video signal recorded in the memory 61 can be reproduced on the monitor 63 by operating a reproduction button (not shown) to make the compound-eye camera reproducible. In addition,
In the present embodiment, the panorama shooting mode is the zoom changing unit 6
The zoom lenses 51b and 52b do not move even if the user operates the zoom lens 6.

【0044】次に立体撮影モードの場合を説明する。
(S201)で鏡筒50L、50Rが図10の状態であ
った場合は立体撮影モードに移行する。立体撮影モード
ではまずズーム変更部66が操作されているかを検知し
(S221)、操作されていた場合は変倍レンズ51
b、52bを移動させて撮影光学系51、52の焦点距
離を変更する(S229)。次にレリーズボタン57が
操作されてレリーズ信号が発せられると(S222)、
測光部58によって被写体の明るさが測定され、その測
光値に応じて絞りおよびシャッタ速度が決定される(S
223)。次にピント検知部59によって撮像光学系5
1、52の被写体に対するピント状態が検出され、ピン
トが合っていない場合は図示しないピント調節レンズを
駆動して被写体に対するピント調節が行われる(S22
4)。次に(S223)で決定された絞り値およびシャ
ッタ速度で撮像素子53、54へ露光が行われる(S2
25)。撮像素子53、54で得られた映像信号は信号
処理部60により左右反転を行い、反射ミラー55、5
6による鏡像状態を補正し(S226)、それぞれの映
像には互いにペアとなっていることを示す識別信号およ
び撮影条件等の撮影情報付加する(S227)。信号処
理部60で生成された映像信号はメモリ61に記録され
る(S228)。以上で1回の撮影動作を終了する。
Next, the case of the stereoscopic photographing mode will be described.
If the lens barrels 50L and 50R are in the state of FIG. 10 in (S201), the mode shifts to the stereoscopic imaging mode. In the stereoscopic imaging mode, first, it is detected whether or not the zoom changing unit 66 has been operated (S221).
The focal lengths of the photographing optical systems 51 and 52 are changed by moving b and 52b (S229). Next, when the release button 57 is operated and a release signal is issued (S222),
The brightness of the subject is measured by the photometric unit 58, and the aperture and shutter speed are determined according to the photometric value (S
223). Next, the image pickup optical system 5 is
When the in-focus state of the subject is detected, the focus adjustment lens (not shown) is driven to perform focus adjustment on the subject (S22).
4). Next, the image pickup devices 53 and 54 are exposed with the aperture value and the shutter speed determined in (S223) (S2).
25). The video signals obtained by the imaging devices 53 and 54 are inverted left and right by a signal processing unit 60, and are reflected by reflection mirrors 55 and 5.
6 is corrected (S226), and an identification signal indicating that they are paired with each other and shooting information such as shooting conditions are added to each video (S227). The video signal generated by the signal processing unit 60 is recorded in the memory 61 (S228). This completes one shooting operation.

【0045】このように立体撮影モードでは、撮影光学
系51、52は図10の状態であるから、メモリ61に
記憶された1組の映像には前記視差が生じているので、
被写体に向かって左側、本実施の形態では撮影光学系5
1で撮影された映像を観察者の左目だけに見えるように
表示し、また被写体に向かって右側、本実施の形態では
撮影光学系52で撮影された映像を観察者の右目だけに
見えるように表示することにより、ステレオ立体映像の
再生が可能である。本実施の形態では、メモリ61に記
録された映像信号は図示しない再生ボタンを操作して複
眼カメラを再生可能状態にすることにより、モニタ63
で撮影光学系51、52で撮影されたそれぞれの映像を
時系列的に交互に表示し、映像の鑑賞者は左目用の映像
が表示されているときは右目が遮光され、右目用の映像
が表示されているときは左目が遮光されるようにした、
いわゆる液晶シャッタ眼鏡を掛けることにより立体映像
を見ることができる。
As described above, in the stereoscopic photographing mode, since the photographing optical systems 51 and 52 are in the state shown in FIG. 10, the parallax is generated in one set of images stored in the memory 61.
On the left side of the subject, in this embodiment, the photographing optical system 5
1 is displayed so that it can be seen only by the left eye of the observer, and the right side of the subject, in this embodiment, the image photographed by the photographing optical system 52 can be seen only by the right eye of the observer. By displaying, a stereoscopic video can be reproduced. In the present embodiment, the video signal recorded in the memory 61 is turned on by operating a play button (not shown) so that the compound-eye camera can be reproduced.
The images captured by the imaging optical systems 51 and 52 are alternately displayed in chronological order, and the viewer of the image can view the right eye when the left eye image is displayed, and the right eye image can be displayed. When it is displayed, the left eye is shaded,
Stereoscopic images can be viewed by wearing so-called liquid crystal shutter glasses.

【0046】このように本実施の形態によれば、撮影モ
ードの切り替えを鏡筒50L、50Rの位置を検知する
ことにより行っているので、撮影者がいちいち撮影モー
ドの確認をする必要がなく、操作が簡単であるという効
果がある。
As described above, according to the present embodiment, the photographing mode is switched by detecting the positions of the lens barrels 50L and 50R, so that the photographer does not need to check the photographing mode each time. The effect is that the operation is simple.

【0047】なお、本実施の形態ではパノラマ撮影時の
焦点距離を最短の位置に固定しているが、これに限定さ
れるものでなく、パノラマ撮影時においてもパノラマ合
成に不都合が生じない範囲で焦点距離を変更可能にして
も良い。その場合はパノラマ撮影時の撮影の自由度が大
きくなるという効果がある。また本実施の形態ではパノ
ラマ撮影時にそれぞれの撮影光学系の撮影領域が重複す
るように設定されているが、撮影領域がちょうど重複し
ないようにしても良い。その場合はそれぞれの撮影光学
系で得られる映像を全て活用してパノラマ映像を生成で
きるという効果がある。
In this embodiment, the focal length at the time of panoramic photography is fixed to the shortest position. However, the present invention is not limited to this. The focal length may be changeable. In this case, there is an effect that the degree of freedom of photographing during panoramic photographing is increased. Further, in the present embodiment, the shooting areas of the respective shooting optical systems are set to overlap at the time of panoramic shooting, but the shooting areas may not just overlap. In that case, there is an effect that a panoramic image can be generated by utilizing all the images obtained by the respective photographing optical systems.

【0048】(第6の実施の形態)図16は本実施の形
態による複眼カメラの構成を示すブロック図であり、図
10と対応する部分には同一符号を付して重複する説明
を省略する。図10において、鏡筒50L、50Rは第
5の実施の形態で示した鏡筒50L、50Rと全く同一
な構成である。また鏡筒50L、50Rの動作説明は第
5の実施の形態と同様に図12を用いることにする。ま
た、鏡筒L、Rを前記軸Aを中心に回動させるための鏡
筒駆動部64は、本実施の形態では第5の実施の形態と
は異なり、鏡筒50L、50Rを図16と図12の状態
の間の任意の位置に移動および停止させることができる
ものとする。
(Sixth Embodiment) FIG. 16 is a block diagram showing the structure of a compound-eye camera according to the present embodiment. Components corresponding to those in FIG. 10 are denoted by the same reference numerals, and redundant description is omitted. . In FIG. 10, the lens barrels 50L and 50R have exactly the same configuration as the lens barrels 50L and 50R shown in the fifth embodiment. The operation of the lens barrels 50L and 50R will be described with reference to FIG. 12, as in the fifth embodiment. The lens barrel driving unit 64 for rotating the lens barrels L and R about the axis A is different from the fifth embodiment in the present embodiment, and the lens barrels 50L and 50R are different from those in FIG. It can be moved and stopped at any position during the state of FIG.

【0049】図16において、68、69はそれぞれ撮
影光学系51、52の各撮影エリアの被写体距離を検知
するL距離分布検知部、R距離分布検知部である。図1
7は上記L距離分布検知部68、R距離分布検知部69
の測距領域を示す図である。同図において、81、82
はそれぞれ撮影光学系51、52の撮影エリアを示し、
81a〜81gはL距離分布検知部68の、また82a
〜82gはR距離分布検知部69の測距領域を示してい
る。そして撮影者は図示しない被写体選択手段により、
どの領域の被写体に対してピント合わせを行うか選択す
ることができるようになっている。
In FIG. 16, reference numerals 68 and 69 denote an L distance distribution detecting unit and an R distance distribution detecting unit for detecting the subject distance in each photographing area of the photographing optical systems 51 and 52, respectively. FIG.
7 is the L distance distribution detecting section 68 and the R distance distribution detecting section 69
FIG. 4 is a diagram showing a ranging area of FIG. In the figure, 81, 82
Indicates a photographing area of the photographing optical systems 51 and 52, respectively.
81a to 81g correspond to the L distance distribution detecting unit 68 and 82a
“−82 g” indicates a distance measurement area of the R distance distribution detection unit 69. Then, the photographer uses a subject selecting means (not shown)
It is possible to select in which region the subject is to be focused.

【0050】図16に戻って、70は撮影光学系51、
52の各焦点距離に対応した入射瞳と光軸との交点位置
を記憶している入射瞳位置記憶部である。71は撮影光
学系51、52の焦点距離と鏡筒50L、50Rの回動
位置と上記入射瞳位置記憶部70の情報から撮影光学系
51、52の入射瞳と光軸との交点の間隔を求め、それ
を後述する被写体距離分布と比較してパノラマ撮影が適
正に行われるかどうかを判定する判定部である。72は
判定部71によりパノラマ撮影が適正に行われないと判
定された場合に使用者にその旨を告知する警告部であ
る。
Referring back to FIG. 16, reference numeral 70 denotes the photographing optical system 51;
52 is an entrance pupil position storage unit that stores an intersection point between the entrance pupil and the optical axis corresponding to each focal length 52. Reference numeral 71 denotes a distance between intersections of the entrance pupils of the imaging optical systems 51 and 52 and the optical axis based on the focal lengths of the imaging optical systems 51 and 52, the rotational positions of the lens barrels 50L and 50R, and the information of the entrance pupil position storage unit 70. The determination unit determines whether the panoramic shooting is properly performed by comparing the obtained panoramic distance with a subject distance distribution described later. Reference numeral 72 denotes a warning unit that notifies the user when the determination unit 71 determines that panorama shooting is not properly performed.

【0051】次に動作を説明する。図18、図19は図
16の複眼カメラの動作を示すフローチャートである。
なお特に断らない限り動作は全てシステムコントローラ
62が行うものとする。図16、図18、図19におい
て、まず図示しない複眼カメラの電源スイッチが投入さ
れると、撮影モードの検知を行う(S301)。まず撮
影モードがパノラマ撮影モードであった場合を図19と
共に説明する。パノラマ撮影モードではまず前記変倍レ
ンズ51b、52bの位置を検知して撮影光学系51、
52の現在の焦点距離を調べ、設定されるべき撮影光学
系51、52の撮影光軸の角度を演算する(S30
2)。次に鏡筒50L、50Rの現在の位置が演算され
た撮影光軸の角度に対応した位置と同じあるかどうかを
検知し(S303)、異なる場合は鏡筒50L、50R
を演算された撮影光軸の角度に対応した位置まで鏡筒駆
動部64によって駆動する(S318)。
Next, the operation will be described. FIGS. 18 and 19 are flowcharts showing the operation of the compound eye camera of FIG.
All operations are performed by the system controller 62 unless otherwise specified. 16, FIG. 18, and FIG. 19, when a power switch of a compound-eye camera (not shown) is turned on, a photographing mode is detected (S301). First, the case where the shooting mode is the panoramic shooting mode will be described with reference to FIG. In the panoramic shooting mode, first, the positions of the zoom lenses 51b and 52b are detected and the shooting optical system 51,
The current focal length of the photographing optical system 52 is checked, and the angles of the photographing optical axes of the photographing optical systems 51 and 52 to be set are calculated (S30).
2). Next, it is detected whether or not the current position of the lens barrels 50L and 50R is the same as the position corresponding to the calculated angle of the photographing optical axis (S303).
Is driven by the lens barrel drive unit 64 to a position corresponding to the calculated angle of the photographing optical axis (S318).

【0052】図12はこのとき鏡筒50L、50Rの状
態の一例を示した図である。本実施の形態では、図12
の撮影光学系51、52のそれぞれの撮影光軸の成す角
度Eは撮影光学系51、52の各焦点距離における水平
方向の撮影画角C、Dの5分の4に設定されるものとす
る。つまりパノラマ撮影モードにおいては撮影光学系5
1、52の撮影領域の重複量は無限遠の被写体の場合、
それぞれの撮影領域の5分の1となる。
FIG. 12 shows an example of the state of the lens barrels 50L and 50R at this time. In the present embodiment, FIG.
The angle E between the photographing optical axes of the photographing optical systems 51 and 52 is set to 4/5 of the horizontal photographing angle of view C and D at each focal length of the photographing optical systems 51 and 52. . That is, in the panoramic photographing mode, the photographing optical system 5
In the case of an infinitely distant subject,
One-fifth of each shooting area.

【0053】次に使用者はズーム変更部66を操作する
ことによって撮影光学系51、52の焦点距離を変更す
ることができる。(S304)。そしてズーム変更部6
6が操作された場合は、その操作に応じてズームレンズ
51b、52bを駆動し(S319)、(S302)へ
戻る。(S304)でズーム変更部66が操作されなか
った場合は、次のステップに移行する。(S305)で
は撮影モード変更部67の検知を行い、撮影モード変更
部67が操作されると図18の(S331)に移行し
て、撮影モードを変更することができる。(S305)
で撮影モード変更部67が操作されなかった場合は次の
ステップに移行する。(S306)ではレリーズボタン
57の検知を行い、レリーズボタン57が操作されてレ
リーズ信号が発せられると、測光部58によって被写体
の明るさが測定され、その測光値に応じて絞りおよびシ
ャッタ速度が決定される(S307)。次にL距離分布
検知部68、R距離分布検知部69によって撮影光学系
51、52の撮影範囲の被写体距離分布を検知する(S
308)。L距離分布検知部68、R距離分布検知部6
9の測距情報に基づいて前述した図示しない被写体選択
手段により指定された被写体に対してピント調節が行わ
れる(S309)。
Next, the user can change the focal length of the photographing optical systems 51 and 52 by operating the zoom changing section 66. (S304). And the zoom changing unit 6
When 6 is operated, the zoom lenses 51b and 52b are driven according to the operation (S319), and the process returns to (S302). If the zoom change unit 66 has not been operated in (S304), the process moves to the next step. In (S305), the photographing mode changing unit 67 detects the operation. When the photographing mode changing unit 67 is operated, the process shifts to (S331) in FIG. 18 to change the photographing mode. (S305)
If the shooting mode change unit 67 has not been operated in step, the process proceeds to the next step. In step S306, the release button 57 is detected. When the release button 57 is operated and a release signal is issued, the brightness of the subject is measured by the photometric unit 58, and the aperture and the shutter speed are determined according to the photometric value. Is performed (S307). Next, the L distance distribution detecting unit 68 and the R distance distribution detecting unit 69 detect the object distance distribution in the photographing range of the photographing optical systems 51 and 52 (S
308). L distance distribution detector 68, R distance distribution detector 6
Focus adjustment is performed on the subject specified by the above-described subject selecting means (not shown) based on the distance measurement information of No. 9 (S309).

【0054】そして判定手段71ではまず入射瞳位置記
憶手段70から読みだした現在の焦点距離における入射
瞳と光軸との交点の位置情報と前記撮影光軸の角度とか
ら撮影光学系51、52のそれぞれの入射瞳と光軸との
交点の間隔を演算する(S310)。次に判定部71は
L、R距離分布検知部68、69によって得られた上記
被写体距離分布と、撮影光学系51、52のそれぞれの
入射瞳と光軸との交点の間隔とから以下の演算を行う。
Then, the judging means 71 first obtains the photographing optical systems 51 and 52 from the position information of the intersection between the entrance pupil and the optical axis at the current focal length read from the entrance pupil position storage means 70 and the angle of the photographing optical axis. The interval between the intersections of the respective entrance pupils with the optical axis is calculated (S310). Next, the determination unit 71 calculates the following calculation from the subject distance distribution obtained by the L and R distance distribution detection units 68 and 69 and the interval between the intersections of the entrance pupils of the imaging optical systems 51 and 52 and the optical axis. I do.

【0055】図20は上記被写体距離分布と、撮影光学
系51、52のそれぞれの入射瞳と光軸との交点の間隔
との関係を示す図である。同図において、101は被写
体距離分布中の最も近い被写体を示し、102は最も遠
い被写体を示している。また103、104は撮像光学
系51、52の入射瞳と光軸との交点の位置即ち視点を
示している。この図からわかるように、視点103に対
して一直線に並んでいる被写体101、102は視点1
04に対しては角度0ほど水平方向に離れて見えること
になる。そして入射瞳と光軸との交点の間隔をB、最も
近い被写体までの距離をZ、最も近い被写体までの距離
から最も遠い被写体までの距離をZ1とすると、θは θ=arctan(B/Z)−arctan{B/(Z+Z1)} ………(1) で示される。
FIG. 20 is a diagram showing the relationship between the object distance distribution and the distance between the intersections of the entrance pupils of the photographing optical systems 51 and 52 and the optical axis. In the figure, 101 indicates the closest subject in the subject distance distribution, and 102 indicates the farthest subject. Reference numerals 103 and 104 denote the positions of the intersections between the entrance pupils of the imaging optical systems 51 and 52 and the optical axes, that is, the viewpoints. As can be seen from this figure, the subjects 101 and 102 aligned in a straight line with respect to the viewpoint 103
With respect to 04, an angle of 0 causes the image to appear horizontally apart. If the distance between the intersection of the entrance pupil and the optical axis is B, the distance from the closest object to Z is Z, and the distance from the closest object to the farthest object is Z1, θ is θ = arctan (B / Z ) -Arctan {B / (Z + Z1)} (1)

【0056】判定部71は上記θを演算し(S31
1)、これを所定値と比較して(S312)、所定値よ
りも小さい場合は次のステップに移行し、所定値よりも
大きい場合はパノラマ合成が視差により適正に行われな
いと判定して警告部72により警告を行う(S31
9)。なお本実施の形態では、上記所定値は得られる画
像の1画素分に相当する角度であるものとする。次に
(S313)では(S309)で決定された絞り値およ
びシャッタ速度で撮像素子53、54へ露光が行われ
る。そして撮像素子53、54で得られた映像信号は信
号処理部60において第5の実施の形態と同様に左右反
転を行い(S314)、台形歪みの補正を行い(S31
5)、パノラマ映像を生成する(S316)。次に信号
処理部60で生成された映像信号はメモリ63に記録さ
れる(S317)。以上で一回の撮影動作を終了する。
なお本実施の形態では(S320)において警告がなさ
れても、(S321)において撮影者は所定時間レリー
ズボタン57を押し続けることにより、使用者はこの警
告を無視して撮影を行うことができるものとする。以上
でパノラマ撮影モードの説明を終了する。
The judgment section 71 calculates the above θ (S31).
1) Comparing this with a predetermined value (S312), if it is smaller than the predetermined value, proceed to the next step, and if it is larger than the predetermined value, determine that panorama synthesis is not properly performed due to parallax. A warning is issued by the warning unit 72 (S31).
9). In the present embodiment, the predetermined value is an angle corresponding to one pixel of an obtained image. Next, in (S313), the image pickup devices 53 and 54 are exposed with the aperture value and the shutter speed determined in (S309). Then, the video signals obtained by the imaging devices 53 and 54 are inverted left and right in the signal processing unit 60 in the same manner as in the fifth embodiment (S314), and trapezoidal distortion is corrected (S31).
5) A panoramic video is generated (S316). Next, the video signal generated by the signal processing unit 60 is recorded in the memory 63 (S317). This completes one photographing operation.
In the present embodiment, even if a warning is issued in (S320), the user can ignore this warning and perform photographing by holding down the release button 57 for a predetermined time in (S321). And This is the end of the description of the panorama shooting mode.

【0057】次に立体撮影モードの場合を図18と共に
説明する。(S301)において撮影モードが立体撮影
モードであった場合は立体撮影モードに移行する。立体
撮影モードではまず鏡筒50L、50Rを図16の状
態、即ち撮影光学系51、52の光軸が平行の状態にす
る(S330)。次にズーム変更部66が操作されてい
るかを検知し(S331)、操作されていた場合は変倍
レンズ51b、52bを移動させて撮影光学系51、5
2の焦点距離を変更する(S340)。(S331)で
ズーム変更部66が操作されなかった場合は次のステッ
プに移行する。(S332)では撮影モード変更部67
の検知を行い、撮影モード変更部67が操作されると図
19の(S302)に移行して撮影モードを変更するこ
とができる。
Next, the case of the stereoscopic photographing mode will be described with reference to FIG. If the shooting mode is the stereoscopic shooting mode in (S301), the mode shifts to the stereoscopic shooting mode. In the stereoscopic photography mode, first, the lens barrels 50L and 50R are brought into the state shown in FIG. 16, that is, the optical axes of the photographing optical systems 51 and 52 are parallel (S330). Next, it is detected whether or not the zoom changing unit 66 has been operated (S331), and if it has been operated, the variator lenses 51b and 52b are moved and the photographing optical systems 51 and 5 are moved.
The focal length of No. 2 is changed (S340). If the zoom change unit 66 has not been operated in (S331), the process moves to the next step. In (S332), the shooting mode changing unit 67
Is detected and the shooting mode changing unit 67 is operated, and the process shifts to (S302) in FIG. 19 to change the shooting mode.

【0058】(S332)で撮影モード変更部67が操
作されなかった場合は次のステップに移行する。(S3
33)ではレリーズボタン57の検知を行い、レリーズ
ボタン57が操作されてレリーズ信号が発せられると、
測光部58によって被写体の明るさが測定され、その測
光量に応じて絞りおよびシャッタ速度が決定される(S
334)。次にL、R距離分布検知部68、69によっ
てパノラマ撮影モードと同様に被写体距離分布の検知が
行われ、その測距情報に基づいて前述した図示しない被
写体選択手段により指定された被写体に対してピント調
節が行われる(S335)。次に(S334)で決定さ
れた絞り値およびシャッタ速度で撮像素子53、54へ
露光が行われる(S336)。撮像素子53、54で得
られた映像信号は信号処理部60により左右反転を行
い、反射ミラー55、56による鏡像状態を補正し(S
337)、それぞれの映像には互いにペアとなっている
ことを示す識別信号および撮影条件等の撮影情報付加す
る(S338)。そして信号処理部60で生成された映
像信号はメモリ63に記録される(S339)。以上で
立体撮影モードの動作を終了する。なお、再生動作につ
いては第5の実施の形態と同様なので説明を省略する。
If the photographing mode change unit 67 has not been operated in (S332), the flow shifts to the next step. (S3
In 33), the release button 57 is detected, and when the release button 57 is operated and a release signal is issued,
The brightness of the subject is measured by the photometric unit 58, and the aperture and the shutter speed are determined according to the measured light intensity (S
334). Next, the subject distance distribution is detected by the L and R distance distribution detecting units 68 and 69 in the same manner as in the panoramic shooting mode, and based on the distance measurement information, the subject designated by the subject selecting means (not shown) is used. Focus adjustment is performed (S335). Next, the image pickup devices 53 and 54 are exposed with the aperture value and the shutter speed determined in (S334) (S336). The video signals obtained by the imaging devices 53 and 54 are inverted left and right by the signal processing unit 60 to correct the mirror image state by the reflection mirrors 55 and 56 (S
337), an identification signal indicating that they are paired with each other, and shooting information such as shooting conditions are added to each video (S338). Then, the video signal generated by the signal processing unit 60 is recorded in the memory 63 (S339). Thus, the operation in the stereoscopic imaging mode ends. Note that the reproduction operation is the same as in the fifth embodiment, and a description thereof will not be repeated.

【0059】このように本実施の形態によれば次の効果
がある。 (1)L、R距離分布検知部68、69は図17のよう
にそれぞれの撮影光学系の一部の領域しか測距していな
いが、両方合わせることにより撮影領域のほとんどを測
距できるので効率が良い。 (2)警告部72によって警告された場合でもレリーズ
ボタン57を押し続けることにより撮影できるようにな
っているので、撮影者の意志に反して撮影ができないと
いった不都合を未然に防止できる。
As described above, the present embodiment has the following effects. (1) As shown in FIG. 17, the L and R distance distribution detection units 68 and 69 measure the distance of only a part of each imaging optical system. However, by combining both, the distance of most of the imaging area can be measured. Efficient. (2) Even when a warning is issued by the warning section 72, the photographing can be performed by keeping the release button 57 pressed, so that it is possible to prevent the inconvenience that the photographing cannot be performed against the intention of the photographer.

【0060】なお本実施の形態では、前記所定値は固定
値としているが、例えば被写体の空間周波数を検知し
て、空間周波数が低い被写体の場合は上記所定値を大き
くするといったように、被写体に応じて変更しても良
い。この場合、パノラマ撮影可能な条件を多くすること
ができるという効果がある。また本実施の形態では、鏡
筒駆動部64は撮影光学系51、52のそれぞれの撮影
光軸の成す角度と撮影画角の比とが常に一定になるよう
に鏡筒50L、50Rを駆動していたが、この比を使用
者の操作によって変更できるようにしても良い。その場
合は使用者の好みに応じてアスペクト比が自由に設定で
きるという効果がある。
In this embodiment, the predetermined value is a fixed value. However, for example, the spatial frequency of the subject is detected, and if the spatial frequency of the subject is low, the predetermined value is increased. It may be changed accordingly. In this case, there is an effect that the conditions under which panoramic shooting is possible can be increased. In the present embodiment, the lens barrel driving unit 64 drives the lens barrels 50L and 50R such that the ratio between the angle of the optical axis of each of the imaging optical systems 51 and 52 and the angle of view is always constant. However, the ratio may be changed by a user operation. In that case, there is an effect that the aspect ratio can be freely set according to the user's preference.

【0061】また第5、6の実施の形態では、パノラマ
合成を複眼カメラ内で行っているが、パノラマ合成は別
体の再生手段にて行っても良い。その場合は複雑な信号
処理回路等が必要ないので、複眼カメラを小型にできる
という効果がある。また第5、6の実施の形態では、反
射ミラー55、56による鏡像の補正を信号処理部60
で行っているが、撮像素子53、54の映像の読みだし
方向を左右逆にしても良い。その場合は信号処理部60
による左右反転処理が必要ないので一回の撮影にかかる
時間を短縮できるという効果がある。また第5、6の実
施の形態では、撮影モードとしてパノラマ撮影モードと
立体撮影モードとについてしか説明しなかったが、複数
ある撮影光学系の内1つだけを撮影に用いる単眼撮影モ
ードを設けても良い。その場合は複眼カメラを単眼のビ
デオカメラとして用いることもできるという効果があ
る。
In the fifth and sixth embodiments, the panorama synthesis is performed in the compound-eye camera. However, the panorama synthesis may be performed by a separate reproducing unit. In that case, since a complicated signal processing circuit or the like is not required, there is an effect that the compound eye camera can be downsized. In the fifth and sixth embodiments, the correction of the mirror image by the reflection mirrors 55 and 56 is performed by the signal processing unit 60.
However, the image reading directions of the image sensors 53 and 54 may be reversed left and right. In that case, the signal processing unit 60
This eliminates the necessity of the left-right reversal process, so that the time required for one shooting can be reduced. In the fifth and sixth embodiments, only the panoramic photographing mode and the stereoscopic photographing mode have been described as photographing modes. However, a monocular photographing mode in which only one of a plurality of photographing optical systems is used for photographing is provided. Is also good. In that case, there is an effect that the compound eye camera can be used as a monocular video camera.

【0062】[0062]

【発明の効果】以上説明したように、請求項1の発明の
ように構成することにより、視差のほとんど生じない複
眼撮像装置を簡単な構成で実現することができる。
As described above, with the configuration according to the first aspect of the present invention, it is possible to realize a compound-eye imaging apparatus with almost no parallax with a simple configuration.

【0063】また請求項2の発明のように構成すること
により、撮像光学手段が前記第1の位置にあるときはパ
ノラマ画像を、また前記第2の位置にあるときは各撮像
光学手段で撮影された画像の撮影位置の違いによる被写
体変化、いわゆる視差を利用した立体画像を撮影すると
いったように、異なる画像の撮影ができるという効果が
ある。
According to the second aspect of the present invention, a panoramic image is taken by the image pickup optical means when the image pickup optical means is at the first position and by each image pickup optical means when the image pickup optical means is at the second position. There is an effect that different images can be captured, such as capturing a stereoscopic image using a subject change due to a difference in the capturing position of the obtained image, that is, a so-called parallax.

【0064】また請求項3の発明のように構成すること
により、撮像光学手段の移動に応じて絞り手段を移動さ
せる必要がなく、撮像光学手段の機構を簡単にできると
いう効果がある。
Further, according to the third aspect of the invention, there is no need to move the stop means in accordance with the movement of the image pickup optical means, and there is an effect that the mechanism of the image pickup optical means can be simplified.

【0065】さらに請求項4の発明のように構成するこ
とにより、次の効果がある。 (1)絞り自体の構成が簡単で、コストも安い。 (2)鏡筒の移動に応じて絞りを移動させる必要がな
い。 (3)消費電力が小さい。 (4)撮影レンズを保護するカバーと兼用できる。
Further, the configuration according to the fourth aspect of the present invention has the following effects. (1) The configuration of the diaphragm itself is simple and the cost is low. (2) It is not necessary to move the stop according to the movement of the lens barrel. (3) Low power consumption. (4) It can also be used as a cover for protecting the taking lens.

【0066】請求項5の発明のように構成することによ
り、以下の効果がある。 (1)ズームレンズを用いた複眼撮像装置において、視
差による被写体変化のほとんどないパノラマ合成を行う
ことができる。 (2)パノラマ撮影時に焦点距離変更に伴う鏡筒移動を
行う必要がないので機構が簡単になる。
The following effects can be obtained by the configuration according to the fifth aspect of the present invention. (1) In a compound-eye imaging apparatus using a zoom lens, panorama synthesis with almost no change in a subject due to parallax can be performed. (2) The mechanism is simplified because it is not necessary to move the lens barrel for changing the focal length during panoramic shooting.

【0067】請求項6の発明のように構成することによ
り、以下の効果がある。 (1)パノラマ撮影時には使用者が煩わしい操作をする
ことなく常に最もワイドな映像が得られる。 (2)パノラマ撮影時にそれぞれの撮影光学系の撮影方
向を変更する必要がないので機構が簡単になる。
With the configuration according to the sixth aspect of the invention, the following effects can be obtained. (1) The widest image can always be obtained without troublesome operation by the user during panoramic shooting. (2) Since it is not necessary to change the photographing direction of each photographing optical system during panoramic photographing, the mechanism is simplified.

【0068】請求項7の発明のように構成することによ
り、パノラマ撮影時においても焦点距離変更が可能であ
るという効果がある。
With the configuration according to the seventh aspect of the present invention, there is an effect that the focal length can be changed even during panoramic photographing.

【0069】請求項8の発明のように構成することによ
り、焦点距離変更を行っても合成後のパノラマ映像のア
スペトク比をほぼ一定にできるという効果がある。
With the configuration according to the eighth aspect of the invention, there is an effect that the aspect ratio of the synthesized panoramic image can be made substantially constant even when the focal length is changed.

【0070】請求項9の発明のように構成することによ
り、焦点距離の変更によってパノラマ撮影が失敗するこ
とを未然に防止することが可能であるという効果があ
る。
With the configuration according to the ninth aspect of the invention, there is an effect that it is possible to prevent panoramic photographing from failing due to a change in focal length.

【0071】請求項10の発明のように構成することに
より、被写体に応じてより精密にパノラマ撮影の可否を
判定できるという効果がある。
With the configuration according to the tenth aspect of the present invention, there is an effect that it is possible to more accurately determine whether or not panoramic shooting can be performed according to a subject.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態による複眼撮像装置
を示すブロック図である。
FIG. 1 is a block diagram showing a compound eye imaging apparatus according to a first embodiment of the present invention.

【図2】第1の実施の形態の撮像光学系L、Rの動作例
を示す構成図である。
FIG. 2 is a configuration diagram illustrating an operation example of imaging optical systems L and R according to the first embodiment.

【図3】それぞれの撮像光学系で撮影された被写体像と
合成後の状態を示す構成図である。
FIG. 3 is a configuration diagram showing a subject image captured by each imaging optical system and a state after combination.

【図4】絞りを光軸方向から見た構成図である。FIG. 4 is a diagram illustrating the configuration of the stop viewed from the optical axis direction.

【図5】第1の実施の形態による複眼撮像装置の動作を
示すフローチャートである。
FIG. 5 is a flowchart illustrating an operation of the compound-eye imaging device according to the first embodiment.

【図6】台形歪みが生じる原理を示す構成図である。FIG. 6 is a configuration diagram illustrating a principle of generating trapezoidal distortion.

【図7】第2の実施の形態による絞りを示した構成図で
ある。
FIG. 7 is a configuration diagram illustrating an aperture according to a second embodiment.

【図8】第3の実施の形態による絞りを示した構成図で
ある。
FIG. 8 is a configuration diagram illustrating an aperture according to a third embodiment.

【図9】第4の実施の形態による撮像光学系を示す構成
図である。
FIG. 9 is a configuration diagram illustrating an imaging optical system according to a fourth embodiment.

【図10】第5の実施の形態による複眼撮像装置を示す
ブロック図である。
FIG. 10 is a block diagram showing a compound-eye imaging device according to a fifth embodiment.

【図11】鏡筒L、Rの内部構成を示す斜視図である。FIG. 11 is a perspective view showing an internal configuration of lens barrels L and R.

【図12】鏡筒L、Rのパノラマ撮影時の状態を示す構
成図である。
FIG. 12 is a configuration diagram showing a state of the lens barrels L and R during panoramic shooting.

【図13】第5の実施の形態による複眼撮像装置の動作
を示すフローチャートである。
FIG. 13 is a flowchart illustrating an operation of the compound eye imaging apparatus according to the fifth embodiment.

【図14】台形歪みが生じる原理を示す構成図である。FIG. 14 is a configuration diagram illustrating the principle of trapezoidal distortion.

【図15】パノラマ合成の様子を示す構成図である。FIG. 15 is a configuration diagram showing a state of panorama synthesis.

【図16】第6の実施の形態による複眼撮像装置を示す
ブロック図である。
FIG. 16 is a block diagram illustrating a compound-eye imaging device according to a sixth embodiment.

【図17】第6の実施の形態による複眼撮像装置の測距
領域を示す構成図である。
FIG. 17 is a configuration diagram illustrating a ranging area of the compound-eye imaging device according to the sixth embodiment.

【図18】第6の実施の形態による複眼撮像装置の動作
を示すフローチャートである。
FIG. 18 is a flowchart illustrating an operation of the compound eye imaging apparatus according to the sixth embodiment.

【図19】第6の実施の形態による複眼撮像装置の動作
を示すフローチャートである。
FIG. 19 is a flowchart illustrating an operation of the compound eye imaging apparatus according to the sixth embodiment.

【図20】被写体距離分布と入射瞳と光軸の交点の間隔
との関係を示す構成図である。
FIG. 20 is a configuration diagram illustrating a relationship between a subject distance distribution and an interval between intersections of an entrance pupil and an optical axis.

【図21】被写体と視点との位置関係を示した構成図で
ある。
FIG. 21 is a configuration diagram showing a positional relationship between a subject and a viewpoint.

【図22】図21の各視点位置での被写体の見え方を示
した構成図である。
FIG. 22 is a configuration diagram showing how a subject looks at each viewpoint position in FIG. 21;

【図23】被写体と視点との他の位置関係を示した構成
図である。
FIG. 23 is a configuration diagram showing another positional relationship between a subject and a viewpoint.

【図24】図23の各視点位置での被写体の見え方を示
した構成図である。
24 is a configuration diagram showing how a subject looks at each viewpoint position in FIG. 23;

【符号の説明】[Explanation of symbols]

1、2 撮影光学系 1a、2a 入射瞳 1b、2b レンズ 3、4 撮像素子 5 絞り 7 システムコントローラ 8 信号処理部 13 モード切替部 14、15 鏡筒駆動部 91、92 撮影光学系 91a、92a 入射瞳 91b、92b レンズ 93、94 撮像素子 95、96 絞り 50L、50R 鏡筒、撮像光学系 51、52 撮影光学系 51b、52b レンズ 51w、52w 焦点距離最小時の入射瞳と光軸との交
点 51t、52t 焦点距離最大時の入射瞳と光軸との交
点 53、54 撮像素子 60 信号処理部 62 システムコントローラ 64 鏡筒駆動部 65 鏡筒検知部 66 ズーム変更部 67 撮影モード変更部 68 L距離分布検知部 69 R距離分布検知部 70 入射瞳位置記憶部 71 判定部 72 警告部
1, 2 shooting optical system 1a, 2a entrance pupil 1b, 2b lens 3, 4 image sensor 5 stop 7 system controller 8 signal processing unit 13 mode switching unit 14, 15 lens barrel drive unit 91, 92 shooting optical system 91a, 92a Pupil 91b, 92b Lens 93, 94 Image sensor 95, 96 Aperture 50L, 50R Lens barrel, Imaging optical system 51, 52 Imaging optical system 51b, 52b Lens 51w, 52w Intersection 51t between entrance pupil and optical axis at minimum focal length 51t , 52t Intersection between the entrance pupil and the optical axis at the maximum focal length 53, 54 Image sensor 60 Signal processing unit 62 System controller 64 Lens barrel drive unit 65 Lens barrel detection unit 66 Zoom change unit 67 Shooting mode change unit 68 L distance distribution Detector 69 R distance distribution detector 70 Entry pupil position storage unit 71 Judgment unit 72 Warning unit

フロントページの続き (72)発明者 森 克彦 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 崎村 岳生 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内Continuing on the front page (72) Katsuhiko Mori 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Takeo Sakimura 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ被写体光をレンズを介して集光
し、撮像素子の結像面に光学像を形成するように成され
た複数の撮像光学手段を有する複眼撮像装置において、 上記複数の撮像光学手段の入射瞳はそれぞれの撮像光学
手段の最も物体側のレンズよりも更に物体側に設けられ
ると共に、上記複数の撮像光学手段はそれぞれの上記入
射瞳の重心または上記入射瞳と光軸との交点が略一致す
るように配置されていることを特徴とする複眼撮像装
置。
1. A compound-eye imaging apparatus having a plurality of imaging optical means configured to collect subject light via a lens and form an optical image on an imaging surface of an imaging device, respectively. The entrance pupil of the optical means is provided further on the object side than the most object side lens of each imaging optical means, and the plurality of imaging optical means are the center of gravity of each of the entrance pupils or the optical axis of the entrance pupil and the optical axis. A compound-eye imaging device, wherein the intersections are arranged so as to substantially coincide with each other.
【請求項2】 上記複数の撮像光学手段を、それぞれの
上記入射瞳の重心または上記入射瞳と光軸との交点が略
一致する第1の位置と、上記それぞれの入射瞳の重心ま
たは上記入射瞳と光軸との交点が一致しない第2の位置
とに移動させる移動手段を設けたことを特徴とする請求
項1記載の複眼撮像装置。
2. The method according to claim 1, wherein the plurality of imaging optical units are arranged such that a center of gravity of each of the entrance pupils or a first position where an intersection of the entrance pupil and the optical axis substantially coincides with each other, and a center of gravity of each of the entrance pupils or the entrance of the entrance pupil. 2. The compound eye imaging apparatus according to claim 1, further comprising a moving unit configured to move to a second position where the intersection of the pupil and the optical axis does not coincide.
【請求項3】 上記複数の撮像光学手段が上記第1の位
置にあるとき各撮像光学手段に入射する光量を制御する
第1の絞り手段と、上記複数の撮像光学手段が上記第2
の位置にあるとき各撮像光学手段に入射する光量を制御
する第2の絞り手段とを設けたことを特徴とする請求項
2記載の複眼撮像装置。
3. The first diaphragm means for controlling the amount of light incident on each of the plurality of imaging optical means when the plurality of imaging optical means are at the first position, and the plurality of imaging optical means being provided on the second imaging means.
3. A compound-eye imaging apparatus according to claim 2, further comprising a second diaphragm means for controlling the amount of light incident on each of the imaging optical means at the position.
【請求項4】 上記第1の絞り手段と上記第2の絞り手
段は、電気的な制御を行うことにより光の透過を選択的
に制御可能な1枚の電子−光学素子で構成されているこ
とを特徴とする請求項3記載の複眼撮像装置。
4. The first stop means and the second stop means are constituted by one electro-optical element capable of selectively controlling light transmission by performing electrical control. 4. The compound eye imaging apparatus according to claim 3, wherein:
【請求項5】 それぞれ被写体光をレンズを介して集光
し、撮像素子の結像面に光学像を形成すると共に、複数
の焦点距離に設定可能な複数の撮像光学手段を有する複
眼撮像装置において、 上記複数の撮像光学手段を、それぞれの入射瞳と光軸と
の交点が略一致する第1の位置と、上記それぞれの入射
瞳と光軸との交点が一致しない第2の位置に移動させる
移動手段と、 上記複数の撮像光学手段が上記第1の位置にあるとき各
撮像光学手段の焦点距離を所定の範囲内に制限する制限
手段とを設けたことを特徴とする複眼撮像装置。
5. A compound-eye imaging apparatus having a plurality of imaging optical units, each of which condenses subject light via a lens to form an optical image on an imaging surface of an imaging device and which can be set to a plurality of focal lengths. Moving the plurality of imaging optical means to a first position where the intersection of each of the entrance pupils and the optical axis substantially coincides with each other, and to a second position where the intersection of each of the entrance pupils and the optical axis does not coincide with each other; A compound-eye imaging apparatus comprising: a moving unit; and a limiting unit that limits a focal length of each of the imaging optical units to a predetermined range when the plurality of imaging optical units are at the first position.
【請求項6】 上記制限手段は、上記複数の撮像光学手
段が上記第1の位置にあるとき各撮像光学手段の焦点距
離が最も短い状態に固定することを特徴とする請求項5
記載の複眼撮像装置。
6. The apparatus according to claim 5, wherein said restricting means fixes the focal length of each of the plurality of imaging optical means to the shortest when the plurality of imaging optical means are at the first position.
The compound eye imaging device according to claim 1.
【請求項7】 上記複数の撮像光学手段が上記第1の位
置にあるときに撮影された複数の映像を合成するパノラ
マ撮影モードと上記複数の撮像光学手段が上記第2の位
置にあるときに撮影された複数の映像からステレオ立体
映像を生成する立体撮影モードとを選択的に設定するモ
ード設定手段と、上記複数の撮像光学手段の撮影方向を
上記撮影モードに応じて変更する撮影方向変更手段とを
設け、上記パノラマ撮影モードのときは上記撮影方向変
更手段は上記焦点距離に応じて撮影方向を変更すること
を特徴とする請求項5記載の複眼撮像装置。
7. A panoramic photographing mode for synthesizing a plurality of images photographed when said plurality of imaging optical means are at said first position, and when said plurality of imaging optical means is at said second position. Mode setting means for selectively setting a stereoscopic shooting mode for generating a stereoscopic three-dimensional image from a plurality of shot images, and a shooting direction changing means for changing the shooting direction of the plurality of imaging optical means according to the shooting mode 6. The compound-eye imaging apparatus according to claim 5, wherein in the panoramic shooting mode, the shooting direction changing means changes a shooting direction according to the focal length.
【請求項8】 上記パノラマ撮影モードにおいて、上記
撮影方向変更手段は上記複数の撮像光学手段のそれぞれ
の撮影光軸の成す角度とそれぞれの撮影画角との比が常
に一定になるように上記撮影方向を変更することを特徴
とする請求項7記載の複眼撮像装置。
8. In the panoramic photographing mode, the photographing direction changing means performs the photographing so that a ratio between an angle formed by a photographing optical axis of each of the plurality of photographing optical means and a photographing angle of view is always constant. The compound eye imaging apparatus according to claim 7, wherein the direction is changed.
【請求項9】 現在設定されている上記焦点距離に応じ
た上記複数の撮像光学手段の入射瞳と光軸との交点の位
置を記憶する記憶手段と、上記パノラマ撮影モードのと
きに上記記憶手段に記憶された上記位置から撮影が適正
に行われるかどうかを判定する判定手段と、上記判定手
段により撮影が適正に行われないと判定されたときに警
告を発する警告手段とを設けたことを特徴とする請求項
7記載の複眼撮像装置。
9. A storage device for storing a position of an intersection between an entrance pupil and an optical axis of the plurality of imaging optical devices according to the currently set focal length, and the storage device in the panoramic shooting mode. Determining means for determining whether or not shooting is performed properly from the position stored in the storage means, and warning means for issuing a warning when the determining means determines that shooting is not performed properly. The compound-eye imaging device according to claim 7, wherein:
【請求項10】 上記パノラマ撮影モードのとき上記複
数の撮像光学手段の撮影領域の重複領域またはその近傍
付近の被写体距離分布を検知する検知手段を設け、上記
判定手段は、上記検知された被写体距離分布と上記記憶
手段に記憶された上記位置とによって撮影が適正に行わ
れるかどうかの判定を行うことを特徴とする請求項9記
載の複眼撮像装置。
10. A detecting means for detecting a subject distance distribution near or near an overlapping area of the photographing areas of the plurality of image pickup optical means in the panoramic photographing mode, wherein the determining means detects the detected subject distance. 10. The compound eye imaging apparatus according to claim 9, wherein it is determined whether or not photographing is properly performed based on the distribution and the position stored in the storage unit.
JP30466596A 1996-11-15 1996-11-15 Compound eye imaging device Expired - Fee Related JP3478686B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP30466596A JP3478686B2 (en) 1996-11-15 1996-11-15 Compound eye imaging device
US08/969,285 US5937212A (en) 1996-11-15 1997-11-13 Image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30466596A JP3478686B2 (en) 1996-11-15 1996-11-15 Compound eye imaging device

Publications (2)

Publication Number Publication Date
JPH10145649A true JPH10145649A (en) 1998-05-29
JP3478686B2 JP3478686B2 (en) 2003-12-15

Family

ID=17935761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30466596A Expired - Fee Related JP3478686B2 (en) 1996-11-15 1996-11-15 Compound eye imaging device

Country Status (1)

Country Link
JP (1) JP3478686B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232789A (en) * 2001-02-05 2002-08-16 Univ Tokyo Imaging method and imaging apparatus
JP2006158452A (en) * 2004-12-02 2006-06-22 Olympus Corp Medical three-dimensional imaging apparatus
JP2007264396A (en) * 2006-03-29 2007-10-11 Canon Inc Camera system
JP2009049854A (en) * 2007-08-22 2009-03-05 Fujifilm Corp Compound-eye photographing apparatus
JP2010507116A (en) * 2006-10-17 2010-03-04 ピルツ ゲーエムベーハー アンド コー.カーゲー Spatial area monitoring camera system
JP2010157989A (en) * 2008-12-03 2010-07-15 Panasonic Corp Pixel display
CN101930162A (en) * 2009-06-22 2010-12-29 富士胶片株式会社 Imaging device and control method thereof
CN105187698A (en) * 2015-08-13 2015-12-23 南昌欧菲光电技术有限公司 Dual-camera module assembling device and method
WO2021152994A1 (en) * 2020-01-28 2021-08-05 株式会社ジャパンディスプレイ Electronic device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232789A (en) * 2001-02-05 2002-08-16 Univ Tokyo Imaging method and imaging apparatus
JP2006158452A (en) * 2004-12-02 2006-06-22 Olympus Corp Medical three-dimensional imaging apparatus
US7768701B2 (en) 2004-12-02 2010-08-03 Olympus Corporation Three-dimensional medical imaging apparatus
JP2007264396A (en) * 2006-03-29 2007-10-11 Canon Inc Camera system
US7388719B2 (en) 2006-03-29 2008-06-17 Canon Kabushiki Kaisha Camera system
US9503618B2 (en) 2006-10-17 2016-11-22 Pilz Gmbh & Co. Kg Camera system for monitoring a space area
JP2010507116A (en) * 2006-10-17 2010-03-04 ピルツ ゲーエムベーハー アンド コー.カーゲー Spatial area monitoring camera system
JP2009049854A (en) * 2007-08-22 2009-03-05 Fujifilm Corp Compound-eye photographing apparatus
JP2010157989A (en) * 2008-12-03 2010-07-15 Panasonic Corp Pixel display
JP2011004340A (en) * 2009-06-22 2011-01-06 Fujifilm Corp Imaging apparatus and control method therefor
CN101930162A (en) * 2009-06-22 2010-12-29 富士胶片株式会社 Imaging device and control method thereof
CN105187698A (en) * 2015-08-13 2015-12-23 南昌欧菲光电技术有限公司 Dual-camera module assembling device and method
WO2021152994A1 (en) * 2020-01-28 2021-08-05 株式会社ジャパンディスプレイ Electronic device

Also Published As

Publication number Publication date
JP3478686B2 (en) 2003-12-15

Similar Documents

Publication Publication Date Title
US8780185B2 (en) Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
US5937212A (en) Image pickup apparatus
US6377305B2 (en) Image sensing apparatus
JP3478687B2 (en) Compound eye imaging device
JP2000338556A (en) Finder device for camera
US6112033A (en) Multiple-lens image pickup apparatus for viewing in stereoscopic panoramic, and ordinary photographing modes
JP3478686B2 (en) Compound eye imaging device
JPH0918750A (en) Electronic camera, electronic camera system using it image pickup device and signal processing unit
JPH1066106A (en) Double-eye camera system
JPH03235491A (en) Binoculars with recording/reproducing function
WO2011086890A1 (en) Lens barrel adapter, lens barrel and imaging device
JP2001188310A (en) 3d photographic device, 3d image display system and 3d image appreciation system
JP2986659B2 (en) Stereoscopic image imaging and display system
JP2000056412A (en) Attachment for photographing stereoscopic picture
JP2001016620A (en) Image pickup device, its convergence distance decision method, storage medium and optical device
JP5551517B2 (en) Imaging device
JPH10145656A (en) Dual eye image pickup device
JP4609844B2 (en) Stereoscopic fundus camera
JPH1096981A (en) Real image type finder
JPH0723429A (en) Double-eye image pickup device
JP3420506B2 (en) 3D image input device
JP4343648B2 (en) Surveying instrument
JP2001312018A (en) Two-in-a-set image and stereo camera for obtaining the image
JP2002027498A (en) Apparatus for imaging three-dimensional video
JP2004101665A (en) Stereoscopic image photographing method and device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101003

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101003

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees