JP5543762B2 - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP5543762B2
JP5543762B2 JP2009268136A JP2009268136A JP5543762B2 JP 5543762 B2 JP5543762 B2 JP 5543762B2 JP 2009268136 A JP2009268136 A JP 2009268136A JP 2009268136 A JP2009268136 A JP 2009268136A JP 5543762 B2 JP5543762 B2 JP 5543762B2
Authority
JP
Japan
Prior art keywords
camera
lens
imaging
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009268136A
Other languages
Japanese (ja)
Other versions
JP2011112809A (en
Inventor
澄夫 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009268136A priority Critical patent/JP5543762B2/en
Publication of JP2011112809A publication Critical patent/JP2011112809A/en
Application granted granted Critical
Publication of JP5543762B2 publication Critical patent/JP5543762B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Accessories Of Cameras (AREA)

Description

本発明は、視差を有する複数の視点から被写体を撮影することによって立体視画像を得るカメラシステムに関する。   The present invention relates to a camera system that obtains a stereoscopic image by photographing a subject from a plurality of viewpoints having parallax.

視差を有する複数の異なる視点から同一の被写体を撮影することによって、立体視可能な静止画像又は立体視可能な動画像(以下では、単に立体視画像と称する)を撮影する技術が知られている。立体視画像は、ステレオ画像、3D画像、又は立体画像等とも称される。   A technique for capturing a stereoscopically-capable still image or a stereoscopically-capable moving image (hereinafter simply referred to as a stereoscopic image) by capturing the same subject from a plurality of different viewpoints having parallax is known. . The stereoscopic image is also referred to as a stereo image, a 3D image, or a stereoscopic image.

立体視画像を撮影する方法としては、例えば特開平11−27702号公報に開示されているように、2つの撮影用レンズを備えたカメラを用いて撮影する方法や、例えば特開2006−33395号公報に開示されているように、2台のカメラを離して配置し撮影する方法等が知られている。   As a method for photographing a stereoscopic image, for example, as disclosed in Japanese Patent Laid-Open No. 11-27702, a method of photographing using a camera including two photographing lenses, or for example, Japanese Patent Laid-Open No. 2006-33395 is disclosed. As disclosed in the official gazette, a method is known in which two cameras are placed apart and photographed.

特開平11−27702号公報JP-A-11-27702 特開2006−33395号公報JP 2006-33395 A

なお、人が立体感(奥行き感)を感じられる視差(視差量)を有する立体視画像を撮影するためには、カメラと被写体と間の距離(被写体距離)に応じて基線長及び輻輳角を変化させなければならない。例えば風景や建築物等の撮影のように被写体距離が長い場合には、基線長を長くすることによって、異なる視点の画像間の視差を大きくしなければならない。   In order to capture a stereoscopic image having a parallax (parallax amount) that allows a person to feel a stereoscopic effect (a sense of depth), the baseline length and the convergence angle are set according to the distance between the camera and the subject (subject distance). Must be changed. For example, when the subject distance is long, such as when shooting landscapes or buildings, the parallax between images from different viewpoints must be increased by increasing the base length.

また反対に、例えば接写のように被写体距離が短い場合には、基線長を短くしなければならない。これは、基線長に比して被写体距離が短い場合、異なる視点の画像間の視差が大きくなりすぎてしまい、立体視できなくなってしまうからである。また、被写体距離が短い場合には、異なる視点の画像中に同一の被写体が収まるように輻輳角も変更しなければならない。   On the other hand, when the subject distance is short, for example, close-up, the base line length must be shortened. This is because when the subject distance is shorter than the base line length, the parallax between the images of different viewpoints becomes too large and stereoscopic viewing becomes impossible. In addition, when the subject distance is short, the convergence angle must be changed so that the same subject can be contained in images of different viewpoints.

例えば、特開平11−27702号公報に開示されているカメラでは、基線長及び輻輳角が固定されているため、撮影時にこれらの情報を得ることは容易である。しかしながら、被写体距離に応じて基線長及び輻輳角を変化させることができないため、多様な被写体について立体視画像を撮影することができない。   For example, in the camera disclosed in Japanese Patent Application Laid-Open No. 11-27702, since the baseline length and the convergence angle are fixed, it is easy to obtain such information at the time of shooting. However, since the baseline length and the convergence angle cannot be changed according to the subject distance, stereoscopic images cannot be taken for various subjects.

また、特開2006−33395号公報に開示されているような、2台のカメラを離して配置し撮影する方法では、被写体距離に応じて基線長及び輻輳角を適切な値に変化させることができる。しかしながら、2台の分離して配置されたカメラ同士を、立体視画像が得られるように正確に配置することは困難である。   Moreover, in the method of disposing and photographing two cameras as disclosed in Japanese Patent Laid-Open No. 2006-33395, the baseline length and the convergence angle can be changed to appropriate values according to the subject distance. it can. However, it is difficult to accurately arrange two cameras arranged separately so that a stereoscopic image can be obtained.

本発明は、上記問題点に鑑みてなされたものであり、被写体距離の変化及び撮像レンズの変化に応じて基線長を適切な値とすることができ、立体視画像を容易に撮影可能なカメラシステムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a camera capable of taking a stereoscopic image easily by setting the base line length to an appropriate value in accordance with a change in subject distance and a change in imaging lens. The purpose is to provide a system.

本発明のカメラシステムは、被写体の光学像を結像する第1の撮影レンズ、及び前記第1の撮影レンズの結像位置に配置された第1の撮像素子を有し前記被写体の画像を生成する第1撮像部を具備する第1カメラと、前記第1カメラに結合部を介して着脱自在であって、前記被写体の光学像を結像する第2の撮影レンズ、前記第2の撮影レンズの結像位置に配置され受光面の大きさが前記第1の撮像素子とは異なる第2の撮像素子を有し前記被写体の画像を生成する第2撮像部、及び前記第1の撮影レンズの光軸と前記第2の撮影レンズの光軸とのなす角度を調整する機構を具備する第2カメラと、前記角度を検出する検出部と、を具備し、前記第2の撮影レンズの像面から節点までの節点距離、前記角度及び前記第1カメラまたは前記第2カメラの記録している位置情報に基づいて、前記第1の撮影レンズの節点と前記第2の撮影レンズの節点の相対位置を算出する算出部を有することを特徴とする。 The camera system of the present invention includes a first photographing lens that forms an optical image of a subject, and a first imaging element that is disposed at an imaging position of the first photographing lens, and generates an image of the subject. A first camera having a first imaging unit, a second photographic lens that is detachably attached to the first camera via a coupling unit, and forms an optical image of the subject, and the second photographic lens A second imaging unit that has a second imaging element that is disposed at the imaging position and has a light receiving surface different from the first imaging element and generates an image of the subject, and the first imaging lens. comprising a second camera having a mechanism for adjusting the angle between the optical axis of the optical axis the second imaging lens, and a detector for detecting the angle, the image plane of the second imaging lens node distance from the nodal point, the angle and the first camera or the second Based on the position information recorded in the camera, characterized by having a calculation unit for calculating a relative position of the nodes of the node and the second imaging lens of the first imaging lens.

本発明によれば被写体距離の変化及び撮像レンズの変化に応じて基線長を適切な値とすることができ、立体視画像を容易に撮影可能なカメラシステムを提供することができる。   According to the present invention, it is possible to provide a camera system in which the base line length can be set to an appropriate value in accordance with a change in subject distance and a change in imaging lens, and a stereoscopic image can be easily taken.

カメラシステムの前面側を示す斜視図である。It is a perspective view which shows the front side of a camera system. カメラシステムの背面側を示す斜視図である。It is a perspective view which shows the back side of a camera system. 第1カメラの構成を説明する図である。It is a figure explaining the structure of a 1st camera. 第2カメラの構成を説明する図である。It is a figure explaining the structure of a 2nd camera. 被写体とカメラシステム1の配置を示す上視図である。2 is a top view showing an arrangement of a subject and a camera system 1. FIG. 被写体とカメラシステム1の配置を示す上視図である。2 is a top view showing an arrangement of a subject and a camera system 1. FIG. 人間が両眼視した場合の被写体距離と視差角の関係を示す図である。It is a figure which shows the relationship between a to-be-photographed object distance and a parallax angle when a human sees with both eyes. 被写体距離3mの場合の視差量を各被写体距離での像界側での視差量を節点距離で換算した図である。FIG. 6 is a diagram in which the parallax amount in the case of a subject distance of 3 m is converted into a parallax amount on the image field side at each subject distance by a nodal distance. カメラシステム1の撮像素子間隔と視差量の関係を示す図である。It is a figure which shows the relationship between the image pick-up element space | interval of a camera system 1, and the amount of parallax. 第1カメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a 1st camera.

以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each drawing used for the following description, the scale is different for each component in order to make each component large enough to be recognized on the drawing. It is not limited only to the quantity of the component described in the drawing, the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.

本実施形態のカメラシステム1は、立体視可能な静止画像及び立体視可能な動画像の少なくとも一方(以下、単に立体視画像と称する)を撮影可能な装置である。カメラシステム1は、視差を有する複数の異なる視点から同一の被写体を撮影するための2つのカメラを具備して構成されている。   The camera system 1 of the present embodiment is an apparatus that can capture at least one of a stereoscopically viewable still image and a stereoscopically viewable moving image (hereinafter simply referred to as a stereoscopic image). The camera system 1 includes two cameras for photographing the same subject from a plurality of different viewpoints having parallax.

本実施形態では図1に示すように、カメラシステム1は、詳しくは後述する結合部を介して離合可能な第1カメラ10及び第2カメラ300を具備して構成されている。また、詳しくは後述するが、第1カメラ10及び第2カメラ300は、通信部によって通信可能に構成されている。   In the present embodiment, as shown in FIG. 1, the camera system 1 includes a first camera 10 and a second camera 300 that can be separated from each other via a coupling portion described in detail later. Moreover, although mentioned later in detail, the 1st camera 10 and the 2nd camera 300 are comprised so that communication is possible by the communication part.

結合部は、第1カメラ10及び第2カメラ300を機械的に結合するためのものである。また、図1及び図2に示すように、結合部は、第1カメラ10及び第2カメラ300の間に、中間部材400を配設した状態で第1カメラ10及び第2カメラ300を機械的に結合することもできる。図1は、中間部材400を介して第1カメラ10及び第2カメラ300を機械的に結合した状態を示している。   The coupling unit is for mechanically coupling the first camera 10 and the second camera 300. As shown in FIGS. 1 and 2, the coupling unit mechanically connects the first camera 10 and the second camera 300 with the intermediate member 400 disposed between the first camera 10 and the second camera 300. Can also be combined. FIG. 1 shows a state in which the first camera 10 and the second camera 300 are mechanically coupled via the intermediate member 400.

まず、第1カメラ10の構成について説明する。図3に示すように、第1カメラ10は、撮像素子である電荷結合素子(以下、CCDと称する)117を保持するボディユニット100と、CCD117の受光面(画素領域)上に被写体像を結像する撮影レンズ202を保持するレンズユニット200と、を具備して構成されている。レンズユニット200は、ボディユニット100の前面に設けられた図示しないレンズマウントを介して着脱自在である。   First, the configuration of the first camera 10 will be described. As shown in FIG. 3, the first camera 10 forms a subject image on a body unit 100 that holds a charge coupled device (hereinafter referred to as a CCD) 117 that is an imaging device, and a light receiving surface (pixel region) of the CCD 117. And a lens unit 200 that holds a photographing lens 202 for imaging. The lens unit 200 is detachable through a lens mount (not shown) provided on the front surface of the body unit 100.

なお、CCD117は、受光面に入射される光に応じた電気信号を所定のタイミングで出力する、例えばCMOS(相補型金属酸化膜半導体)センサと称される形態の撮像素子であってもよい。   Note that the CCD 117 may be an imaging device of a form called, for example, a CMOS (complementary metal oxide semiconductor) sensor that outputs an electrical signal corresponding to light incident on the light receiving surface at a predetermined timing.

以下の説明において、撮影レンズ202の光軸O1に平行な軸をZ方向とし、光軸O1に直交する平面(CCD117の受光面と平行な平面)上において互いに直交する2つの方向をX軸及びY軸とする。本実施形態では一例として、CCD117は矩形状の受光面を有するものとし、X軸が該受光面の長辺と平行であり、Y軸が短辺と平行であるものとする。   In the following description, an axis parallel to the optical axis O1 of the photographing lens 202 is defined as the Z direction, and two directions orthogonal to each other on a plane orthogonal to the optical axis O1 (a plane parallel to the light receiving surface of the CCD 117) are defined as the X axis and The Y axis is assumed. In this embodiment, as an example, the CCD 117 has a rectangular light receiving surface, the X axis is parallel to the long side of the light receiving surface, and the Y axis is parallel to the short side.

本実施形態の第1カメラ10では、レンズユニット200の動作は、レンズユニット200に配設されたレンズ制御用マイクロコンピュータ(以下、“Lucom”と称する)201によって制御される。また、ボディユニット100の動作は、ボディユニット100に配設されたボディ制御用マイクロコンピュータ(以下、“Bucom”と称する)101によって制御される。   In the first camera 10 of the present embodiment, the operation of the lens unit 200 is controlled by a lens control microcomputer (hereinafter referred to as “Lucom”) 201 disposed in the lens unit 200. The operation of the body unit 100 is controlled by a body control microcomputer (hereinafter referred to as “Bucom”) 101 disposed in the body unit 100.

これらLucom201とBucom201とは、ボディユニット100にレンズユニット200を装着した状態において通信コネクタ102を介して互いに通信可能に電気的に接続される。そして、Lucom201はBucom201に従属的に協働しながら稼動するように構成されている。詳しくは後述するが、Bucom201は、本発明における制御部、識別部及び算出部を構成する。   The Lucom 201 and Bucom 201 are electrically connected to each other via the communication connector 102 in a state where the lens unit 200 is mounted on the body unit 100. The Lucom 201 is configured to operate in cooperation with the Bucom 201 in a dependent manner. As will be described in detail later, Bucom 201 constitutes a control unit, an identification unit, and a calculation unit in the present invention.

なお、レンズユニット200は、ボディユニット100と一体に構成される形態であってもよい。また、レンズユニット200の動作は、Bucom201のみによって制御される構成であってもよい。   The lens unit 200 may be configured integrally with the body unit 100. The operation of the lens unit 200 may be controlled only by the Bucom 201.

レンズユニット200は、撮影レンズ202と絞り203を備えて構成されている。本実施形態では、撮影レンズ202は、フォーカスレンズ202aと変倍レンズ202bとによって構成されている。フォーカスレンズ202aは、レンズ駆動機構204内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。変倍レンズ202bは、ズーム駆動機構206内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。また、絞り203は、絞り駆動機構205内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。   The lens unit 200 includes a photographic lens 202 and a diaphragm 203. In the present embodiment, the photographing lens 202 includes a focus lens 202a and a variable power lens 202b. The focus lens 202a is driven by an actuator such as a stepping motor (not shown) provided in the lens driving mechanism 204. The variable magnification lens 202b is driven by an actuator such as a stepping motor (not shown) provided in the zoom drive mechanism 206. The diaphragm 203 is driven by an actuator such as a stepping motor (not shown) provided in the diaphragm driving mechanism 205.

撮影レンズ202の合焦距離、焦点距離、及び絞り値は、図示しない位置エンコーダ等によって検出され、Lucom201及び通信コネクタ102を介して、Bucom201に入力される。   The in-focus distance, focal length, and aperture value of the photographic lens 202 are detected by a position encoder (not shown) or the like, and input to the Bucom 201 via the Lucom 201 and the communication connector 102.

ボディユニット100は、Bucom201の他に、第1撮像部116、電源回路135、記憶部である不揮発性メモリ128、結合部180、及び通信部である通信コネクタ181等を具備して構成されている。第1撮像部116は、撮影レンズ202によって結像された被写体像を光電変換して第1画像を得るためのもので、撮影レンズ202の像側(後側)に配設されている。本実施形態では、第1撮像部116は、CCD117と、その前側に配設された光学ローパスフィルタ(LPF)118と、防塵フィルタ119とを具備して構成されている。   In addition to the Bucom 201, the body unit 100 includes a first imaging unit 116, a power supply circuit 135, a nonvolatile memory 128 that is a storage unit, a coupling unit 180, a communication connector 181 that is a communication unit, and the like. . The first imaging unit 116 is for photoelectrically converting a subject image formed by the photographing lens 202 to obtain a first image, and is disposed on the image side (rear side) of the photographing lens 202. In the present embodiment, the first imaging unit 116 includes a CCD 117, an optical low-pass filter (LPF) 118 disposed on the front side thereof, and a dust filter 119.

上記防塵フィルタ119の周縁部には、圧電素子120が取り付けられている。圧電素子120は、防塵フィルタ制御回路121によって、防塵フィルタ119を寸法や材質によって定まる所定の周波数で振動させるように構成されている。防塵フィルタ119が振動することによって、フィルタ表面に付着した塵埃を除去することができる。   A piezoelectric element 120 is attached to the peripheral edge of the dust filter 119. The piezoelectric element 120 is configured to vibrate the dust filter 119 at a predetermined frequency determined by the size and material by the dust filter control circuit 121. When the dust filter 119 vibrates, dust attached to the filter surface can be removed.

なお、LPF118及び防塵フィルタ119は、必要に応じて適宜に配設されるものであり、第1撮像部116は、撮像素子であるCCD117のみで構成される形態であってもよい。   Note that the LPF 118 and the dustproof filter 119 may be appropriately disposed as necessary, and the first imaging unit 116 may be configured by only the CCD 117 that is an imaging element.

第1撮像部116の前側には、シャッタ108が配設されている。また、ボディユニット100内には、シャッタ108の先幕と後幕を駆動するばねをチャージするシャッターチャージ機構112と、これら先幕と後幕の動きを制御するシャッタ制御回路113が設けられている。なお、本実施形態のシャッタ108は、フォーカルプレーンシャッタであるが、シャッタ108はレンズシャッタであってもよい。   A shutter 108 is disposed on the front side of the first imaging unit 116. The body unit 100 also includes a shutter charge mechanism 112 that charges a spring that drives the front curtain and rear curtain of the shutter 108, and a shutter control circuit 113 that controls the movement of the front curtain and rear curtain. . Although the shutter 108 of this embodiment is a focal plane shutter, the shutter 108 may be a lens shutter.

また、本実施形態における第1カメラ10は、CCD117に接続したCCDインターフェース回路122と、液晶モニタ123と、記憶領域として機能するSDRAM124やFlashROM125などを利用して画像処理する画像処理コントローラ126を備え、電子撮像機能とともに電子記録表示機能を提供できるように構成されている。   In addition, the first camera 10 in this embodiment includes a CCD interface circuit 122 connected to the CCD 117, a liquid crystal monitor 123, an image processing controller 126 that performs image processing using an SDRAM 124, a Flash ROM 125, or the like that functions as a storage area. The electronic recording display function can be provided together with the electronic imaging function.

ここで、記録メディア127は、各種のメモリカードや外付けのHDD等の外部記録媒体であり、通信コネクタを介してボディユニット100と通信可能且つ交換可能に装着される。そして、この記録メディア127に、第1撮像部116で撮影して得られた画像データが記録される。   Here, the recording medium 127 is an external recording medium such as various memory cards or an external HDD, and is mounted so as to be communicable and replaceable with the body unit 100 via a communication connector. Then, image data obtained by photographing with the first imaging unit 116 is recorded on the recording medium 127.

その他の記憶領域としては、カメラ制御に必要な所定の制御パラメータを記憶する、例えばEEPROMからなる記憶部である不揮発性メモリ128がBucom201からアクセス可能に設けられている。不揮発性メモリ128には、詳しくは後述するが、立体視画像の基線長を求めるために必要な、第1カメラ10の形状情報等が記憶されている。   As the other storage area, a nonvolatile memory 128 that stores a predetermined control parameter necessary for camera control, for example, a storage unit made of an EEPROM, is provided so as to be accessible from the Bucom 201. As will be described in detail later, the nonvolatile memory 128 stores shape information of the first camera 10 and the like necessary for obtaining the baseline length of the stereoscopic image.

Bucom201には、第1カメラ10の動作状態を表示出力によってユーザへ告知するための動作表示用LED130と、カメラ操作SW131と、外部ストロボ1を駆動するストロボ制御回路133と、が接続されている。カメラ操作SW131は、例えばレリーズSW、モード変更SW及びパワーSWなど、第1カメラ10を操作するために必要な操作釦を含むスイッチ群である。さらに、該ボディユニット100内には、電源としての電池134と、該電池134の電圧を、当該第1カメラ10を構成する各回路ユニットが必要とする電圧に変換して供給する電源回路135が設けられ、また、外部電源から不図示のジャックを介して電流が供給されたときの電圧変化を検知する電圧検出回路(図示せず)も設けられている。   The Bucom 201 is connected to an operation display LED 130 for notifying the user of the operation state of the first camera 10 by display output, a camera operation SW 131, and a strobe control circuit 133 that drives the external strobe 1. The camera operation SW 131 is a switch group including operation buttons necessary for operating the first camera 10 such as a release SW, a mode change SW, and a power SW. Further, in the body unit 100, a battery 134 as a power source, and a power supply circuit 135 that converts the voltage of the battery 134 into a voltage required by each circuit unit constituting the first camera 10 and supplies the converted voltage. There is also provided a voltage detection circuit (not shown) for detecting a voltage change when current is supplied from an external power source via a jack (not shown).

上述のように構成された第1カメラ10の各部は、概略的には以下のように稼動する。まず、画像処理コントローラ126は、Bucom201の指令に従ってCCDインターフェース回路122を制御してCCD117から画像データを取り込む。この画像データは画像処理コントローラ126でビデオ信号に変換され、液晶モニタ123で出力表示される。ユーザは、この液晶モニタ123の表示画像をファインダ像として被写体の確認に用いるとともに、撮影した画像を表示することによって撮影画面が確認できる。   Each part of the 1st camera 10 comprised as mentioned above operates as follows roughly. First, the image processing controller 126 takes in image data from the CCD 117 by controlling the CCD interface circuit 122 in accordance with an instruction from the Bucom 201. This image data is converted into a video signal by the image processing controller 126 and output and displayed on the liquid crystal monitor 123. The user can use the display image on the liquid crystal monitor 123 as a finder image for confirmation of the subject and can check the shooting screen by displaying the shot image.

SDRAM124は、画像データの一時的保管用メモリであり、画像データが変換される際のワークエリアなどに使用される。画像データは、JPEG形式等に変換された後に、記録メディア127に保管される。   The SDRAM 124 is a memory for temporarily storing image data, and is used as a work area when image data is converted. The image data is stored in the recording medium 127 after being converted into the JPEG format or the like.

また、本実施の形態の第1カメラ10は、画像処理コントローラ126で生成される画像データの所定の領域(フォーカスエリア)のコントラスト値に基づいてフォーカスレンズ202aを移動させる、いわゆるコントラスト検出方式のオートフォーカスを行う。   Also, the first camera 10 of the present embodiment is a so-called contrast detection type auto that moves the focus lens 202a based on the contrast value of a predetermined area (focus area) of image data generated by the image processing controller 126. Focus.

結合部180は、第1カメラ10のボディユニット100及び第2カメラ300、又はボディユニット100及び中間部材400を、着脱可能に機械的に結合するためのものである。本実施形態では結合部180は、外部ストロボ装置を着脱可能な、一般にアクセサリーシュー又はホットシュー等と称される形状を有する。結合部180には、外部ストロボ装置とストロボ制御回路133とを電気的に接続するためのストロボ接点136が設けられている。   The coupling unit 180 is for detachably mechanically coupling the body unit 100 and the second camera 300 of the first camera 10 or the body unit 100 and the intermediate member 400. In the present embodiment, the connecting portion 180 has a shape generally called an accessory shoe or a hot shoe, to which an external strobe device can be attached and detached. The coupling unit 180 is provided with a strobe contact 136 for electrically connecting the external strobe device and the strobe control circuit 133.

なお、結合部180の構成は本実施形態に限られるものではなく、第1カメラ10と、第2カメラ300又は中間部材400とを、機械的に結合する構成であればよい。例えば、結合部180は、ネジ機構やバヨネット機構を用いた構成であってもよい。   In addition, the structure of the coupling | bond part 180 is not restricted to this embodiment, What is necessary is just the structure which couple | bonds the 1st camera 10 and the 2nd camera 300 or the intermediate member 400 mechanically. For example, the coupling unit 180 may have a configuration using a screw mechanism or a bayonet mechanism.

結合部180には、第1カメラ10と第2カメラ300との間の通信を行うための通信部を構成する通信コネクタ181が配設されている。通信コネクタ181は、前記結合部180を介して第1カメラ10と第2カメラ300とを機械的に結合した場合に、第1カメラ10と第2カメラ300とを電気的に接続する構成を有する。   The coupling unit 180 is provided with a communication connector 181 that constitutes a communication unit for performing communication between the first camera 10 and the second camera 300. The communication connector 181 has a configuration for electrically connecting the first camera 10 and the second camera 300 when the first camera 10 and the second camera 300 are mechanically coupled via the coupling unit 180. .

本実施形態では、通信コネクタ181は、第1カメラ10及び第2カメラ300間の通信用の端子以外に、第1カメラ10から第2カメラ300へ電力を供給するための端子も設けられている。なお、第2カメラ300が、第1カメラ10とは独立した電源を具備する場合には、通信コネクタ181は、光によって第1カメラ10及び第2カメラ300間の通信を行う、光通信用のコネクタであってもよい。   In the present embodiment, the communication connector 181 is provided with a terminal for supplying power from the first camera 10 to the second camera 300 in addition to a terminal for communication between the first camera 10 and the second camera 300. . Note that when the second camera 300 includes a power source independent of the first camera 10, the communication connector 181 performs communication between the first camera 10 and the second camera 300 using light, and is used for optical communication. It may be a connector.

本実施形態の第1カメラ10は、第1カメラ10の動きに応じてCCD117をX軸方向及びY軸方向に移動させることで、受光面上における像のブレを防止する、いわゆる手振れ補正機構と称される防振機構を具備している。   The first camera 10 of the present embodiment is a so-called camera shake correction mechanism that prevents image blur on the light receiving surface by moving the CCD 117 in the X-axis direction and the Y-axis direction according to the movement of the first camera 10. It is equipped with a so-called anti-vibration mechanism.

防振機構は、X軸ジャイロ160、Y軸ジャイロ161、防振制御回路162、X軸アクチュエータ163、Y軸アクチュエータ164、X枠165、Y枠166、フレーム167、位置検出センサ168及びアクチュエータ駆動回路169を具備して構成されている。   The anti-vibration mechanism includes an X-axis gyro 160, a Y-axis gyro 161, an anti-vibration control circuit 162, an X-axis actuator 163, a Y-axis actuator 164, an X frame 165, a Y frame 166, a frame 167, a position detection sensor 168, and an actuator drive circuit. 169.

フレーム167は、ボディユニット100に固定されており、該フレーム167によって、X枠165がX軸方向に移動可能に支持されている。また、X枠165によって、CCD117を保持するY枠166が、Y軸方向に移動可能に支持されている。そして、X軸アクチュエータ163及びY軸アクチュエータ164は、X枠165及びY枠166をそれぞれX軸方向及びY軸方向に駆動する構成を有する。X枠165及びY枠166の位置制御は、X枠165及びY枠166の位置を検出する位置検出センサ168と、X軸アクチュエータ163及びY軸アクチュエータ164の動作を制御するアクチュエータ駆動回路169によって行われる。   The frame 167 is fixed to the body unit 100, and the X frame 165 is supported by the frame 167 so as to be movable in the X-axis direction. Further, the Y frame 166 holding the CCD 117 is supported by the X frame 165 so as to be movable in the Y axis direction. The X-axis actuator 163 and the Y-axis actuator 164 are configured to drive the X frame 165 and the Y frame 166 in the X axis direction and the Y axis direction, respectively. The position control of the X frame 165 and the Y frame 166 is performed by a position detection sensor 168 that detects the positions of the X frame 165 and the Y frame 166 and an actuator drive circuit 169 that controls the operations of the X axis actuator 163 and the Y axis actuator 164. Is called.

X軸ジャイロ160は、第1カメラ10のX軸回りの回動(ブレ)の角速度を検出し、Y軸ジャイロ161は、第1カメラ10のY軸周りの回動の角速度を検出する。防振制御回路162は、検出された第1カメラ10の角速度から、手ブレ補償量を演算し、CCD117をブレを補償するように変位移動させる。なお、防振機構において、CCD117を移動させるアクチュエータの構成は、回転モータ、リニアモータ、超音波モータ等、特に限定されるものではない。   The X-axis gyro 160 detects the angular velocity of rotation (blur) around the X axis of the first camera 10, and the Y-axis gyro 161 detects the angular velocity of rotation of the first camera 10 around the Y axis. The image stabilization control circuit 162 calculates a camera shake compensation amount from the detected angular velocity of the first camera 10 and moves the CCD 117 so as to compensate for the shake. In the vibration isolation mechanism, the configuration of the actuator that moves the CCD 117 is not particularly limited, such as a rotary motor, a linear motor, or an ultrasonic motor.

次に、第2カメラ300の構成について説明する。図4に示すように、第2カメラ300は、CCD317と、CCD317の受光面上に被写体像を結像する撮影レンズ302と、を具備して構成されている。本実施形態では、第2カメラ300は、CCD317を保持するボディ部と、撮影レンズ302を保持するレンズ鏡筒部とが一体に構成されている。以下の説明では、撮影レンズ302の光軸を光軸O2と称するものとする。   Next, the configuration of the second camera 300 will be described. As shown in FIG. 4, the second camera 300 includes a CCD 317 and a photographing lens 302 that forms a subject image on the light receiving surface of the CCD 317. In the present embodiment, in the second camera 300, a body portion that holds the CCD 317 and a lens barrel portion that holds the photographing lens 302 are integrally configured. In the following description, the optical axis of the photographing lens 302 is referred to as an optical axis O2.

なお、第2カメラ300は、第1カメラ10に対して、受光面のサイズが小さいCCD317(撮像素子)を有している。より具体的には、CCD317は、画素数はCCD117と同等であり、受光面の寸法はCCD117の1/2である。すなわち、CCD317の受光面の面積(画素面積)はCCD117の1/4になっている。   Note that the second camera 300 has a CCD 317 (imaging device) having a smaller light receiving surface than the first camera 10. More specifically, the number of pixels of the CCD 317 is the same as that of the CCD 117, and the size of the light receiving surface is 1/2 that of the CCD 117. That is, the area (pixel area) of the light receiving surface of the CCD 317 is ¼ that of the CCD 117.

そして、CCD117及びCCD317で撮影される画角が一致するように、撮影レンズ202及び撮影レンズ302の焦点距離が定められている。すなわち、撮影レンズ302の焦点距離は、撮影レンズ202の焦点距離の1/2である。   The focal lengths of the photographing lens 202 and the photographing lens 302 are determined so that the angles of view photographed by the CCD 117 and the CCD 317 coincide with each other. That is, the focal length of the photographic lens 302 is ½ of the focal length of the photographic lens 202.

なお、本実施形態では、レンズユニット200が交換可能であることから、撮影レンズ302は、レンズユニット200の交換に伴う焦点距離の変化に対応可能な、焦点距離の可変範囲を有することが好ましい。たとえば、所定の撮影レンズ202の焦点距離が広角端でfW1[mm]、望遠端でfT1[mm]の間で変更可能である場合には、撮影レンズ302の焦点距離の可変範囲は、広角端がfW1/2[mm]よりも短く、望遠端がfT1/2[mm]よりも長いことが好ましい。   In the present embodiment, since the lens unit 200 can be replaced, it is preferable that the photographing lens 302 has a variable focal length range that can cope with a change in focal length accompanying the replacement of the lens unit 200. For example, when the focal length of the predetermined photographing lens 202 can be changed between fW1 [mm] at the wide-angle end and fT1 [mm] at the telephoto end, the variable range of the focal length of the photographing lens 302 is the wide-angle end. Is shorter than fW1 / 2 [mm], and the telephoto end is preferably longer than fT1 / 2 [mm].

第2カメラ300のレンズ鏡筒部は、前述した第1カメラ10と同様に、制御部であるLucom301、撮影レンズ302及び絞り303を備えて構成されている。撮影レンズ302は、フォーカスレンズ302aと変倍レンズ302bとによって構成されている。フォーカスレンズ302aは、レンズ駆動機構304内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。変倍レンズ302bは、ズーム駆動機構306内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。また、絞り303は、絞り駆動機構305内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。   Similar to the first camera 10 described above, the lens barrel of the second camera 300 is configured to include a Lucom 301, a photographing lens 302, and a diaphragm 303, which are control units. The photographing lens 302 includes a focus lens 302a and a variable power lens 302b. The focus lens 302 a is driven by an actuator such as a stepping motor (not shown) provided in the lens driving mechanism 304. The variable power lens 302b is driven by an actuator such as a stepping motor (not shown) provided in the zoom drive mechanism 306. The diaphragm 303 is driven by an actuator such as a stepping motor (not shown) provided in the diaphragm driving mechanism 305.

また、本実施形態の第2カメラ300は、第1カメラ10と異なり、いわゆるレンズシャッタ形式のシャッタ308を備えている。すなわち、シャッタ308は、レンズ鏡筒部に配設されている。シャッタ308は、バネで付勢された遮光羽根を、プランジャにより駆動する一般的な形式で、第1カメラ10が有するシャッターチャージ機構112は不用である。なお、シャッタ308は、第1カメラ10と同様に、フォーカルプレーンシャッタ形式であってもよい。   Further, unlike the first camera 10, the second camera 300 of the present embodiment includes a so-called lens shutter type shutter 308. That is, the shutter 308 is disposed in the lens barrel portion. The shutter 308 is a general type in which a light shielding blade biased by a spring is driven by a plunger, and the shutter charge mechanism 112 of the first camera 10 is unnecessary. Note that the shutter 308 may be of a focal plane shutter type, similar to the first camera 10.

撮影レンズ302の合焦距離、焦点距離、及び絞り値は、図示しない位置エンコーダ等によって検出され、Lucom301を介して、Bucom321に入力される。   The in-focus distance, the focal length, and the aperture value of the photographic lens 302 are detected by a position encoder (not shown) or the like and input to the Bucom 321 via the Lucom 301.

第2カメラ300のボディ部は、前述した第1カメラ10と同様に、制御部であるBucom321、第2撮像部316、電源回路335、記憶部である不揮発性メモリ328、結合部380、通信部である通信コネクタ381、及び輻輳角検出機構353、等を具備して構成されている。   Similar to the first camera 10 described above, the body part of the second camera 300 includes a Bucom 321 as a control unit, a second imaging unit 316, a power supply circuit 335, a nonvolatile memory 328 as a storage unit, a coupling unit 380, and a communication unit. The communication connector 381 and the convergence angle detection mechanism 353 are provided.

第2撮像部316は、撮影レンズ302によって結像された被写体像を光電変換して第2画像を得るためのもので、撮影レンズ302の像側(後側)に配設されている。本実施形態では、第2撮像部316は、CCD317と、その前側に配設された光学ローパスフィルタ(LPF)318とを具備して構成されている。なお、LPF318は、必要に応じて適宜に配設されるものであり、第2撮像部316は、撮像素子であるCCD317のみで構成される形態であってもよい。   The second imaging unit 316 is for photoelectrically converting a subject image formed by the photographing lens 302 to obtain a second image, and is disposed on the image side (rear side) of the photographing lens 302. In the present embodiment, the second imaging unit 316 includes a CCD 317 and an optical low-pass filter (LPF) 318 disposed on the front side thereof. Note that the LPF 318 is appropriately disposed as necessary, and the second imaging unit 316 may be configured only by the CCD 317 that is an imaging element.

また、本実施形態における第2カメラ300は、CCD117に接続したCCDインターフェース回路322と、記憶領域として機能するSDRAM324、FlashROM325などを利用して画像処理する画像処理コントローラ326を備え、電子撮像機能を提供できるように構成されている。第2撮像部316で撮影して得られた画像データは、後述する通信コネクタ381を介して、第1カメラ10へ送られる。   In addition, the second camera 300 in this embodiment includes a CCD interface circuit 322 connected to the CCD 117, an image processing controller 326 that performs image processing using an SDRAM 324, a Flash ROM 325, and the like that function as a storage area, and provides an electronic imaging function. It is configured to be able to. Image data obtained by photographing with the second imaging unit 316 is sent to the first camera 10 via a communication connector 381 described later.

また、第2カメラ300には、カメラ制御に必要な所定の制御パラメータを記憶する、例えばEEPROMからなる記憶部である不揮発性メモリ328がBucom321からアクセス可能に設けられている。不揮発性メモリ328には、詳しくは後述するが、立体視画像の基線長及び輻輳角を求めるために必要な、第2カメラ300の形状情報等が記憶されている。   The second camera 300 is provided with a non-volatile memory 328 that stores predetermined control parameters necessary for camera control, for example, a storage unit made of an EEPROM, and is accessible from the Bucom 321. As will be described in detail later, the nonvolatile memory 328 stores shape information and the like of the second camera 300 necessary for obtaining the base line length and the convergence angle of the stereoscopic image.

また、第2カメラ300には、後述する通信コネクタ381を介して第1カメラ10から供給された電力を当該第2カメラ300を構成する各回路ユニットへ分配する電源回路135が配設されている。   Further, the second camera 300 is provided with a power supply circuit 135 that distributes the power supplied from the first camera 10 to the circuit units constituting the second camera 300 via a communication connector 381 described later. .

なお、第2カメラ300は、第1カメラ10が有するような表示機能、操作機能を具備していない。本実施形態ではこれらの機能は通信コネクタ381を介した通信によって、第1カメラ10側で実現される。すなわち、第2カメラ300と第1カメラ10とを結合した状態での第2カメラ300の操作は、第1カメラ10に備えられたカメラ操作SW131及び液晶モニタ123等を使用して行われる。   Note that the second camera 300 does not have a display function and an operation function that the first camera 10 has. In the present embodiment, these functions are realized on the first camera 10 side by communication via the communication connector 381. That is, the operation of the second camera 300 in a state where the second camera 300 and the first camera 10 are coupled is performed using the camera operation SW 131 and the liquid crystal monitor 123 provided in the first camera 10.

また、本実施形態では、第2カメラ300は電池及び記録メディアを具備していないが、第2カメラ300は、第1カメラ10とは独立してこれらを具備する構成であってもよい。また逆に、Bucom321、Lucom301及び画像処理コントローラ326等の、第1カメラ10が有する回路と機能が重複する構成は、第1カメラ10側に集約して、第2カメラ300に配設しない構成であってもよい。   In the present embodiment, the second camera 300 does not include a battery and a recording medium, but the second camera 300 may be configured to include these independently of the first camera 10. Conversely, the configuration in which the functions of the circuits of the first camera 10 such as the Bucom 321, the Lucom 301, and the image processing controller 326 are duplicated in the first camera 10 side and not arranged in the second camera 300. There may be.

結合部380は、第1カメラ10に設けられた結合部180と機械的に結合する構成を有する。具体的には、アクセサリーシューに係合して、第1カメラ10と第2カメラ300とを機械的に結合する形状を有する。   The coupling unit 380 has a configuration that mechanically couples with the coupling unit 180 provided in the first camera 10. Specifically, the first camera 10 and the second camera 300 are mechanically coupled by engaging with the accessory shoe.

結合部380には、第1カメラ10と第2カメラ300との間の通信を行うための通信部を構成する通信コネクタ381が配設されている。通信コネクタ381は、第1カメラ10に設けられた通信コネクタ181と係合し、第1カメラ10と第2カメラ300とを電気的に接続する構成を有する。第1カメラ10と第2カメラ300とが電気的に接続されることによって、第1カメラ10及び第2カメラ300間の通信、及び第1カメラ10から第2カメラ300への電力の供給が可能となる。   The coupling unit 380 is provided with a communication connector 381 that forms a communication unit for performing communication between the first camera 10 and the second camera 300. The communication connector 381 is configured to engage with a communication connector 181 provided on the first camera 10 and to electrically connect the first camera 10 and the second camera 300. By electrically connecting the first camera 10 and the second camera 300, communication between the first camera 10 and the second camera 300 and power supply from the first camera 10 to the second camera 300 are possible. It becomes.

また、本実施形態では、第1カメラ10の光軸O1と、第2カメラ300の光軸O2とがなす角度、すなわち輻輳角αを変更可能に構成されている。図1及び図5に示すように、第2カメラ300が第1カメラ10に機械的に結合された状態において、第2カメラ300は、CCD317の画像中心位置を通りX軸と平行なR軸周りに回動可能に支持されている。   In the present embodiment, the angle formed by the optical axis O1 of the first camera 10 and the optical axis O2 of the second camera 300, that is, the convergence angle α can be changed. As shown in FIGS. 1 and 5, when the second camera 300 is mechanically coupled to the first camera 10, the second camera 300 passes through the center of the image of the CCD 317 and is around the R axis parallel to the X axis. Is rotatably supported.

具体的には、第2カメラ300は、結合部380からフォーク状に延出する一対の支持腕383によって、R軸周りに回動可能に支持されている。第2カメラ300のR軸周りの回動は、回動軸端部に設けられたネジ381を締め付けることによって、任意の位置に位置決めして固定することができる。なお、第2カメラ300は、電動モータ等のアクチュエータによってR軸周りに駆動される構成であってもよい。   Specifically, the second camera 300 is supported by a pair of support arms 383 extending from the coupling portion 380 in a fork shape so as to be rotatable around the R axis. The rotation of the second camera 300 around the R axis can be positioned and fixed at an arbitrary position by tightening a screw 381 provided at the end of the rotation shaft. The second camera 300 may be configured to be driven around the R axis by an actuator such as an electric motor.

そして、第2カメラ300には、輻輳角αを検出する輻輳角検出機構353が配設されている。輻輳角検出機構353の構成は、第2カメラ300のR軸周りの回動位置を検出可能な構成であれば特に限定されるものではないが、磁気スケールや用いたロータリーエンコーダ、光学式ロータリーエンコーダ、可変抵抗を用いたロータリーポテンショメータ等を用いることが可能である。   The second camera 300 is provided with a convergence angle detection mechanism 353 that detects the convergence angle α. The configuration of the convergence angle detection mechanism 353 is not particularly limited as long as the rotation position around the R axis of the second camera 300 can be detected, but a magnetic scale, a rotary encoder used, or an optical rotary encoder It is possible to use a rotary potentiometer using a variable resistor.

また第2カメラ300は、第1カメラ10に機械的に結合された状態において、CCD117に対してCCD317がY軸方向に所定の距離Dだけ離間するように、支持腕383によって支持されている。   The second camera 300 is supported by a support arm 383 so that the CCD 317 is separated from the CCD 117 by a predetermined distance D in the Y-axis direction when mechanically coupled to the first camera 10.

具体的には、図5に示すように、第2カメラ300及び第1カメラ10の撮像素子であるCCD317及びCCD117の画像中心位置(撮影レンズの光軸と受光面の交点)C1及びC2が、X軸座標及びZ軸座標は一致し、かつY軸方向のみに所定の距離Dだけ離間するように、第2カメラ300は第1カメラ10に対して固定される。以下、このCCD317及びCCD117の画像中心位置の間隔(図5中のC1及びC2間の距離)を、中心位置間隔Dと称するものとする。   Specifically, as shown in FIG. 5, the image center positions (intersections of the optical axis of the photographing lens and the light receiving surface) C1 and C2 of the CCD 317 and the CCD 117 which are the imaging elements of the second camera 300 and the first camera 10 are The second camera 300 is fixed with respect to the first camera 10 so that the X-axis coordinate and the Z-axis coordinate coincide with each other and are separated by a predetermined distance D only in the Y-axis direction. Hereinafter, an interval between the image center positions of the CCD 317 and the CCD 117 (a distance between C1 and C2 in FIG. 5) is referred to as a center position interval D.

ここで、中間部材400は、一端に、第1カメラ10に設けられた結合部180と機械的に結合可能な結合部401が設けられており、他端に、第2カメラ300の結合部380と機械的に結合可能な結合部403が設けられた部材である。すなわち、中間部材400の一端は、第2カメラ300の結合部380と同等の形状であり、中間部材400の他端は、第1カメラ10の結合部180と同等の形状である。これにより、中間部材400を間に配設した状態で、第1カメラ10及び第2カメラ300を機械的に結合することができる。   Here, the intermediate member 400 is provided with a coupling portion 401 that can be mechanically coupled to the coupling portion 180 provided in the first camera 10 at one end, and the coupling portion 380 of the second camera 300 at the other end. And a connecting portion 403 that can be mechanically connected to the member. That is, one end of the intermediate member 400 has a shape equivalent to that of the coupling portion 380 of the second camera 300, and the other end of the intermediate member 400 has a shape equivalent to that of the coupling portion 180 of the first camera 10. Accordingly, the first camera 10 and the second camera 300 can be mechanically coupled with the intermediate member 400 disposed therebetween.

また、中間部材400の結合部401には、第1カメラ10の通信コネクタ181と係合する通信コネクタ402が設けられており、結合部403には、第2カメラ300の通信コネクタ381と係合する通信コネクタ404が設けられている。そして、中間部材400の通信コネクタ402及び404は、電気的に接続されている。これにより、中間部材400を間に配設した状態で、第1カメラ10及び第2カメラ300を機械的に結合した場合において、第1カメラ10及び第2カメラ300を電気的に接続することができる。   The connecting portion 401 of the intermediate member 400 is provided with a communication connector 402 that engages with the communication connector 181 of the first camera 10. The connecting portion 403 is engaged with the communication connector 381 of the second camera 300. A communication connector 404 is provided. The communication connectors 402 and 404 of the intermediate member 400 are electrically connected. Thus, when the first camera 10 and the second camera 300 are mechanically coupled with the intermediate member 400 disposed therebetween, the first camera 10 and the second camera 300 can be electrically connected. it can.

以上のように、中間部材400は、第1カメラ10と第2カメラ300との間に配設されることによって両者間の距離を変更する、いわゆるスペーサとしての役割を有する。   As described above, the intermediate member 400 has a role as a so-called spacer that is disposed between the first camera 10 and the second camera 300 to change the distance between the two.

また、中間部材400には、例えばEEPROMからなる記憶部である不揮発性メモリ405が配設されている。不揮発性メモリ405は、中間部材400が第1カメラ10に機械的に結合された状態において、第1カメラ10のBucom201との間で通信可能なように設けられている。不揮発性メモリ405には、詳しくは後述するが、中間部材400の形状情報が記憶されている。また、Bucom201は、不揮発性メモリ405と通信可能である場合に、第1カメラ10の結合部180に中間部材400が結合されていると認識する。   Further, the intermediate member 400 is provided with a nonvolatile memory 405 that is a storage unit made of, for example, an EEPROM. The nonvolatile memory 405 is provided so as to be able to communicate with the Bucom 201 of the first camera 10 in a state where the intermediate member 400 is mechanically coupled to the first camera 10. The nonvolatile memory 405 stores shape information of the intermediate member 400, which will be described in detail later. Further, the Bucom 201 recognizes that the intermediate member 400 is coupled to the coupling unit 180 of the first camera 10 when communication with the nonvolatile memory 405 is possible.

これは、間に中間部材400を配設した場合にも同様である。すなわち、間に中間部材400を配して第1カメラ10及び第2カメラ300を機械的に結合した場合には、中間部材400の大きさだけ、中心位置間隔Dの値が大きくなる。   The same applies to the case where the intermediate member 400 is disposed therebetween. That is, when the intermediate member 400 is disposed therebetween and the first camera 10 and the second camera 300 are mechanically coupled, the value of the center position interval D increases by the size of the intermediate member 400.

そして、第1カメラ10の不揮発性メモリ128には、結合部180とCCD117の画像中心位置C1とのY方向間隔D1が記憶されている。また、第2カメラ300の不揮発性メモリ328には、結合部380とCCD317の画像中心位置C2とのY方向間隔D2が記憶されている。また、中間部材400の不揮発性メモリ405には、結合部401と結合部403のY方向間隔D3が記憶されている。   The nonvolatile memory 128 of the first camera 10 stores a Y-direction interval D1 between the coupling unit 180 and the image center position C1 of the CCD 117. Further, the non-volatile memory 328 of the second camera 300 stores a Y-direction interval D2 between the coupling unit 380 and the image center position C2 of the CCD 317. Further, the non-volatile memory 405 of the intermediate member 400 stores the Y-direction interval D3 between the coupling portion 401 and the coupling portion 403.

本実施形態では、Bucom201が通信部を介して、D1、D2及びD3の値を取得し、これらの値に基づいて、CCD317及びCCD117の中心位置間隔Dを算出する。例えば、中間部材400を介さずに第1カメラ10及び第2カメラ300が機械的に結合されている場合には、D=D1+D2で求められる。また例えば、中間部材400を介して第1カメラ10及び第2カメラ300が機械的に結合されている場合には、D=D1+D2+D3で求められる。   In the present embodiment, the Bucom 201 acquires the values of D1, D2, and D3 via the communication unit, and calculates the center position interval D of the CCD 317 and the CCD 117 based on these values. For example, when the first camera 10 and the second camera 300 are mechanically coupled without the intermediate member 400, D = D1 + D2. Further, for example, when the first camera 10 and the second camera 300 are mechanically coupled via the intermediate member 400, D = D1 + D2 + D3.

言い換えれば、本実施形態のカメラシステム1における結合部は、第1カメラ10及び第2カメラ300の間での通信を可能としながら、CCD317及びCCD117の中心位置間隔Dを変化させることができるように構成されている。そして、本実施形態のカメラシステム1では、CCD317及びCCD117の中心位置間隔Dを算出可能な情報が記憶部に記憶されている。   In other words, the coupling unit in the camera system 1 of the present embodiment can change the center position interval D of the CCD 317 and the CCD 117 while enabling communication between the first camera 10 and the second camera 300. It is configured. In the camera system 1 of the present embodiment, information that can calculate the center position interval D between the CCD 317 and the CCD 117 is stored in the storage unit.

以上に述べた構成を有する本実施形態のカメラシステム1では、第1カメラ10の制御部であるBucom201は、撮影レンズ202の焦点距離及び合焦距離の情報、及び不揮発性メモリ128に記憶されたD1の値を取得する。またBucom201は、通信部を介して、第2カメラ30の撮影レンズ302の焦点距離及び合焦距離の情報、不揮発性メモリ328に記憶されたD2の値、及び輻輳角検出機構353によって検出された輻輳角αの値を取得する。また、Bucom201は、第1カメラ10に中間部材400が結合されていると判定した場合には、通信部を介して、中間部材400の不揮発性メモリ405に記憶されたD3の値を取得する。   In the camera system 1 of the present embodiment having the above-described configuration, the Bucom 201 that is the control unit of the first camera 10 is stored in the nonvolatile memory 128 and information on the focal length and the focusing distance of the photographing lens 202. Get the value of D1. The Bucom 201 is detected by the information on the focal length and the focusing distance of the photographing lens 302 of the second camera 30, the value of D2 stored in the nonvolatile memory 328, and the convergence angle detection mechanism 353 via the communication unit. Get the value of the convergence angle α. If the Bucom 201 determines that the intermediate member 400 is coupled to the first camera 10, the Bucom 201 acquires the value of D3 stored in the nonvolatile memory 405 of the intermediate member 400 via the communication unit.

そして、これらの情報に基づいて、Bucom201は、基線長BLを算出する。図5に示すように、基線長BLは、例えば、撮影レンズ302の象面から節点までの接点距離Nを用いて、BL=D−N・sinαの式から求められる。すなわち、CCD317及びCCD117の中心位置間隔Dは、基線長BLを算出するための値である。基線長BLの値は、立体視画像の撮影時に利用される(詳細は後で述べる)。   Based on these pieces of information, Bucom 201 calculates a baseline length BL. As shown in FIG. 5, the base line length BL is obtained from the equation BL = D−N · sin α using, for example, the contact distance N from the elephant surface of the photographing lens 302 to the node. That is, the center position interval D between the CCD 317 and the CCD 117 is a value for calculating the baseline length BL. The value of the baseline length BL is used when capturing a stereoscopic image (details will be described later).

ここで、第1実施形態のカメラシステム1を用いた立体視画像の撮影について、図6から図9を参照してさらに詳しく説明する。図6は、被写体とカメラシステム1の配置を示す上視図である。図7は人間が両眼視した場合の被写体距離と視差角の関係を示す図である。図8は図7で示した視差角に対応する被写体距離3m(立体視画像を観察する距離を3mと想定)での場合の被写界での視差量を各被写体距離での像界側での視差量を節点距離50mm(焦点距離とほぼ等しい)で換算したものである。図7での眼幅65mm、70mmは図8での基線長BLに対応している。図9はカメラシステム1の撮像素子間隔Dと視差量の関係を示す図である。被写体距離は3mに設定し、節点距離(ほぼ焦点距離と同じ)は50mm、100mm、150mmの場合が示してある。   Here, taking a stereoscopic image using the camera system 1 of the first embodiment will be described in more detail with reference to FIGS. FIG. 6 is a top view showing the arrangement of the subject and the camera system 1. FIG. 7 is a diagram showing the relationship between the subject distance and the parallax angle when a human views with both eyes. FIG. 8 shows the amount of parallax in the object scene when the subject distance corresponds to the parallax angle shown in FIG. 7 (assuming the distance for observing a stereoscopic image is 3 m) on the image field side at each subject distance. Is converted at a nodal distance of 50 mm (approximately equal to the focal length). The eye widths 65 mm and 70 mm in FIG. 7 correspond to the baseline length BL in FIG. FIG. 9 is a diagram illustrating the relationship between the imaging element interval D and the parallax amount of the camera system 1. The object distance is set to 3 m, and the nodal distance (substantially the same as the focal distance) is shown as 50 mm, 100 mm, and 150 mm.

図6に示すように、立体視画像のもととなる複数の2次元画像上では、基準の被写体点On、Ofに対する視差角は第1カメラ10では撮影レンズ202の光軸O1上に被写体点On、Ofがあるため零度となる。一方、第2カメラ300では被写体点On、Ofからの光線は撮影レンズ303の光学上の節点をNW2とすると、撮影レンズの光軸に対する角度は変化しないので、図6におけるθWが視差角となる。撮像素子の中心点C2から節点NW2までの距離fWは第2カメラ300の撮影レンズの固有なデータであり、撮影レンズの焦点距離と被写体までの距離によって一意に決る。被写体までの距離は先に述べた自動焦点で合焦した時のフォーカスレンズ位置から求めることができる。   As shown in FIG. 6, the parallax angle with respect to the reference subject points On and Of is a subject point on the optical axis O1 of the photographing lens 202 in the first camera 10 on a plurality of two-dimensional images that are the basis of the stereoscopic image. Since there is On and Of, it becomes zero degree. On the other hand, in the second camera 300, if the optical node of the photographing lens 303 is NW2 with respect to the light rays from the subject points On and Of, the angle with respect to the optical axis of the photographing lens does not change, so θW in FIG. 6 becomes the parallax angle. . The distance fW from the center point C2 of the image sensor to the node NW2 is unique data of the photographing lens of the second camera 300, and is uniquely determined by the focal length of the photographing lens and the distance to the subject. The distance to the subject can be obtained from the focus lens position when the above-described automatic focus is achieved.

一方、図7には人間の目に生ずる視差角と被写体距離の関係を示してある。ここでは眼の焦点距離を16.68mm、眼幅を65mmと70mm、視差を生ずる被写体は被写体距離にある被写体の1.1倍の距離にあるとして算出したものである。人間の眼福は65mmから70mmの間にあるので、上記のような被写体の距離に対して図7のような視差角を得る画像から立体視画像を生成するようにするのが最も自然な立体画像を与えることになる。   On the other hand, FIG. 7 shows the relationship between the parallax angle generated by the human eye and the subject distance. Here, the calculation is performed assuming that the focal distance of the eyes is 16.68 mm, the eye widths are 65 mm and 70 mm, and the subject causing the parallax is 1.1 times as long as the subject at the subject distance. Since a human eye is between 65 mm and 70 mm, it is most natural to generate a stereoscopic image from an image that obtains a parallax angle as shown in FIG. 7 with respect to the distance of the subject as described above. Will give.

より具体的な画像として3mの距離に立体視画像を得るための2次元画像を表示した場合の図7の視差角に対応する被写界での視差量を節点距離50mm(ほぼ焦点距離50mmに相当)のレンズで結像させた場合に像界側での視差量とした場合を示したのが図8である。視差量も図7と同様な双曲線的なグラフとなる。   When a two-dimensional image for obtaining a stereoscopic image at a distance of 3 m is displayed as a more specific image, the amount of parallax in the object scene corresponding to the parallax angle in FIG. 7 is set to a nodal distance of 50 mm (approximately a focal length of 50 mm). FIG. 8 shows a case where the parallax amount on the image field side is obtained when the image is formed by a corresponding lens. The parallax amount is also a hyperbolic graph similar to FIG.

また、図7より、主要被写体距離が遠方になった場合は視差角が小さくなり、人間の眼の判別可能な視差角は1分(視力が1.0)程度であるので、およそ30m以上の距離にある主要被写体を裸眼で見た場合にその距離の10%程度以上主要被写体から離れた被写体の立体感は無くなることになる。   Further, from FIG. 7, when the main subject distance is far away, the parallax angle is small, and the parallax angle that can be discerned by the human eye is about 1 minute (visual acuity is 1.0). When the main subject at a distance is viewed with the naked eye, the stereoscopic effect of a subject away from the main subject by about 10% or more of the distance is lost.

このような問題に対し、本実施形態のシステムカメラ1では、被写体が遠方にあって立体感がなくなる視差角度になる場合には、中間部材400を使用して中心位置間隔Dを変更し、撮影レンズの焦点距離と撮影画面サイズを調整することによって図7の2〜3m付近の視差角になるように自動的に調整する。その結果、本実施形態では、例え遠方の被写体であっても立体感のある立体視画像を撮影することができる。   With respect to such a problem, in the system camera 1 of the present embodiment, when the subject is far away and the parallax angle disappears, the intermediate position 400 is used to change the center position interval D and the shooting is performed. By adjusting the focal length of the lens and the shooting screen size, the parallax angle is automatically adjusted to be in the vicinity of 2 to 3 m in FIG. As a result, in the present embodiment, a stereoscopic image having a stereoscopic effect can be taken even if the subject is far away.

図9に同じ撮像素子の撮影範囲の同じ2つのカメラで撮影した場合の撮影レンズの節点距離(被写体距離3m設定としてあり、ほぼ撮影レンズの焦点距離と同じ)間隔Dと像面側の視差量の関係を示す。視差量を変化できるパラメータとして撮像素子の中心から撮影レンズの節点までの距離(節点距離)fWを変化した場合も示してある。ここで、主要被写体より遠方にある被写体は主要被写体距離の1.1倍(10%遠方)の距離が設定してある。Lnが3mの時の視差角と同じ視差量を得ようとすると節点距離fW(焦点距離)、カメラの間隔Dを調節すれば良いことがわかる。図9に示すように節点距離fWと間隔Dに比例して視差量は変化している。つまり、適正な視差量を得るためには節点距離fW(撮影レンズの焦点距離)のみでなくカメラの間隔D(図6では撮像素子間隔としているが直接に視差量と関係するのは節点間隔である。節点間隔は撮像素子間隔Dから算出することができる)を調節する必要がある。なお、節点距離fWで視差量を調整すると、撮影する画像の画角が変化するが、撮像素子間隔Dの調整では画角が変化することはない。   FIG. 9 shows the distance D between the nodal distance of the photographing lens (subject distance is set to 3 m, which is almost the same as the focal length of the photographing lens) and the amount of parallax on the image plane when photographing with two cameras having the same photographing range of the same image sensor. The relationship is shown. Also shown is a case where the distance (node distance) fW from the center of the image sensor to the nodal point of the taking lens is changed as a parameter capable of changing the amount of parallax. Here, the distance of the subject farther from the main subject is set to 1.1 times the distance of the main subject (10% farther). In order to obtain the same amount of parallax as the parallax angle when Ln is 3 m, it is understood that the nodal distance fW (focal length) and the camera interval D may be adjusted. As shown in FIG. 9, the amount of parallax changes in proportion to the nodal distance fW and the interval D. That is, in order to obtain an appropriate amount of parallax, not only the nodal distance fW (focal length of the photographing lens) but also the camera distance D (in FIG. 6, the distance between the image sensors is directly related to the amount of parallax. There is a need to adjust the node spacing (which can be calculated from the imaging element spacing D). Note that when the parallax amount is adjusted with the nodal distance fW, the angle of view of the image to be captured changes, but the angle of view does not change when the imaging element interval D is adjusted.

本実施形態では第2カメラ300は第1カメラ10に容易に着脱可能であり、また中間部材400も容易に着脱可能である。このため、容易な操作で、基線長BLを変更し、適切な視差量を持つ2枚の2次元画像を得ることができる。   In the present embodiment, the second camera 300 can be easily attached to and detached from the first camera 10, and the intermediate member 400 can be easily attached and detached. Therefore, it is possible to change the baseline length BL and obtain two two-dimensional images having an appropriate amount of parallax with an easy operation.

また本実施形態では、第2カメラ300は、それぞれ距離D2の情報を記憶しており、また、第1カメラ10と第2カメラ300とは通信可能である。このため、第2カメラ300を交換した場合でも、自動的に撮像素子間隔Dを算出し、適正な視差量が得られる状態にカメラがあるか否かを判定することができる。   In the present embodiment, the second camera 300 stores information on the distance D2, and the first camera 10 and the second camera 300 can communicate with each other. For this reason, even when the second camera 300 is replaced, it is possible to automatically calculate the image sensor interval D and determine whether or not the camera is in a state where an appropriate amount of parallax can be obtained.

また、立体視画像では、第1カメラ10の撮影レンズ203の光学倍率とCCD117のサイズから決る視野角と、第2カメラ300の撮影レンズ303の光学倍率と撮像素子317のサイズから決る視野角を同じにする必要があるが、これらの情報も各カメラにカメラ固有の情報として記憶されているので、カメラシステム1が立体視画像の撮影に適正な状態にあるか否かの判定を自動で行うことができる。なお、撮影レンズの光学倍率は焦点距離の調整によって調整することができる。   In the stereoscopic image, the viewing angle determined by the optical magnification of the photographing lens 203 of the first camera 10 and the size of the CCD 117, and the viewing angle determined by the optical magnification of the photographing lens 303 of the second camera 300 and the size of the image sensor 317. Although it is necessary to make them the same, since these pieces of information are also stored as camera-specific information in each camera, it is automatically determined whether or not the camera system 1 is in an appropriate state for taking a stereoscopic image. be able to. The optical magnification of the photographic lens can be adjusted by adjusting the focal length.

上述の特徴を詳しく説明する為、Bucom201が行なう制御について、図10を参照しながら具体的な制御動作について説明する。図10は、本実施形態の第1カメラ10の動作をフローチャートで表わしている。これらの動作は、Bucom201によって制御される。   In order to explain the above-described features in detail, a specific control operation of the control performed by the Bucom 201 will be described with reference to FIG. FIG. 10 is a flowchart showing the operation of the first camera 10 of this embodiment. These operations are controlled by the Bucom 201.

Bucom201で稼動可能なに図10示すフローチャートに係わる制御プログラムは、カメラのボディユニット100の電源SW(不図示)がON操作されると、その稼動を開始する。   The control program according to the flowchart shown in FIG. 10 that can be operated by the Bucom 201 starts its operation when the power SW (not shown) of the camera body unit 100 is turned on.

最初に、当該第1カメラ10を起動するための処理が実行される(ステップS100)。即ち、電源回路135を制御して当該第1カメラ10を構成する各回路ユニットへ電力を供給する。また、各回路の初期設定を行なう。また、第1カメラ10に装着されているレンズユニット200の初期化動作も行う。   First, a process for starting the first camera 10 is executed (step S100). That is, the power supply circuit 135 is controlled to supply power to each circuit unit constituting the first camera 10. Also, initial setting of each circuit is performed. The initialization operation of the lens unit 200 attached to the first camera 10 is also performed.

また、ステップS100では、被写体距離3mでの視差量(図7の節点距離50mm)演算に必要な各撮影レンズの焦点距離(フォーカスレンズの繰り出し量と合わせて節点距離が演算できる)、輻輳角αが第1カメラ10のBucom201に読み込まれる。   In step S100, the focal length of each photographing lens necessary for calculating the parallax amount at the subject distance of 3 m (the node distance of 50 mm in FIG. 7) (the node distance can be calculated together with the amount of extension of the focus lens), the convergence angle α Is read into the Bucom 201 of the first camera 10.

次に、ステップS101において、使用者によって立体視画像の撮影モードが選択されているかを判定する。立体視画像の撮影モードが選択されていない場合には、通常の2次元画像の撮影動作を実行する。通常の2次元画像の撮影動作は、周知のものであるため説明を省略する。   Next, in step S101, it is determined whether or not the stereoscopic image shooting mode is selected by the user. When the stereoscopic image capturing mode is not selected, a normal two-dimensional image capturing operation is executed. A normal two-dimensional image capturing operation is well known and will not be described.

一方、立体視画像の撮影モードが選択されている場合には、ステップS102へ移行する。ステップS102では、アクセサリである第2カメラ300及び中間部材400の検出動作を実行する。そして、ステップS103において、立体視画像の撮影に必要である第2カメラ300が装着されているか否かを判定する。第2カメラ300が装着されていない場合には、ステップS104に移行し、液晶モニタ123等に、使用者に第2カメラ300の装着を促す警告表示をする。   On the other hand, if the stereoscopic image shooting mode is selected, the process proceeds to step S102. In step S102, the detection operation of the second camera 300 and the intermediate member 400, which are accessories, is executed. In step S103, it is determined whether or not the second camera 300 necessary for capturing a stereoscopic image is attached. If the second camera 300 is not attached, the process proceeds to step S104, and a warning display for prompting the user to attach the second camera 300 is displayed on the liquid crystal monitor 123 or the like.

一方、第2カメラ300が装着されている場合には、ステップS105において、被写体に応じて輻輳角αを調整する。ここでは、液晶モニタ123に第1カメラ10及び第2カメラ300によって撮影された画像を重ね合わせて表示する。使用者は、主要被写体が2つの画像に写り込むように第2カメラ300を軸Rの周りに回転させ、ネジ381を締め付けて輻輳角αを固定する。この状態で検出された輻輳角αはBucom301に送られた後、送信部を介してBucom201に伝達される。   On the other hand, when the second camera 300 is attached, the convergence angle α is adjusted according to the subject in step S105. Here, the images captured by the first camera 10 and the second camera 300 are superimposed on the liquid crystal monitor 123 and displayed. The user rotates the second camera 300 around the axis R so that the main subject appears in the two images, and tightens the screw 381 to fix the convergence angle α. The convergence angle α detected in this state is sent to the Bucom 301 and then transmitted to the Bucom 201 via the transmitter.

次に、ステップS106において、Bucom201は、D1、D2及びD3の値と、各撮影レンズの焦点距離と合焦距離から算出される節点距離fWと、輻輳角αとから被写体距離3mでの視差量を算出する。   Next, in step S106, the Bucom 201 determines the amount of parallax at the subject distance 3m from the values of D1, D2, and D3, the nodal distance fW calculated from the focal length and the focusing distance of each photographing lens, and the convergence angle α. Is calculated.

そしてステップS107において、この視差量が、事前に設定された設定視差量範囲(例えば図7の節点距離50mmでの基線長59mmから70mmの範囲の視差量)にあるか否かを判定する。算出された視差量が、設定視差量範囲内に入っていれば、第1カメラ10の第1撮像部116及び第2カメラ300の第2撮像部316によって2次元画像を撮影する。撮影された一対の画像は、紐付けされて記録メディア127に記録される。   In step S107, it is determined whether or not the parallax amount is within a preset parallax amount range (for example, a parallax amount in a range of a base length of 59 mm to 70 mm at a node distance of 50 mm in FIG. 7). If the calculated parallax amount is within the set parallax amount range, the first imaging unit 116 of the first camera 10 and the second imaging unit 316 of the second camera 300 capture a two-dimensional image. The pair of captured images are linked and recorded on the recording medium 127.

一方、ステップS107で算出された視差量が設定視差量範囲外であった場合には、ステップS108へ移行する。ステップS108では、撮影レンズの節点距離(実際に変えるの焦点距離)を変更することによって、視差量が設定視差量範囲になるかを判定する。   On the other hand, when the parallax amount calculated in step S107 is outside the set parallax amount range, the process proceeds to step S108. In step S108, it is determined whether the parallax amount falls within the set parallax amount range by changing the nodal distance (the focal length that is actually changed) of the photographing lens.

ステップS108の判定において、撮影レンズの節点調節によって視差量を設定視差量範囲内に設定可能であれば、ステップS109へ移行して撮影レンズの焦点距離をその値に設定し、ステップS106へ戻る。   If it is determined in step S108 that the parallax amount can be set within the set parallax amount range by adjusting the nodal point of the photographic lens, the process proceeds to step S109, the focal length of the photographic lens is set to that value, and the process returns to step S106.

一方、ステップS108の判定において、撮影レンズの節点調節によって視差量を設定視差量範囲内に設定することが不可能であれば、ステップS110へ移行して、撮影レンズの交換で視差量を設定視差量範囲に設定できるかを判定する。   On the other hand, if it is not possible to set the parallax amount within the set parallax amount range by adjusting the nodal point of the photographing lens in the determination in step S108, the process proceeds to step S110 and the parallax amount is set by exchanging the photographing lens. Judge whether it can be set to the amount range.

ステップS110の判定において、撮影レンズの交換で視差量を設定視差量範囲内に設定可能な場合には、ステップS111へ移行し、交換すべき焦点距離値を液晶モニタ123に表示して使用者に告知する。   If it is determined in step S110 that the parallax amount can be set within the set parallax amount range by exchanging the photographic lens, the process proceeds to step S111, and the focal length value to be exchanged is displayed on the liquid crystal monitor 123 to the user. Notice.

ステップS110の判定において、撮影レンズを交換しても、視差量を設定視差量範囲内に設定できない場合は、ステップS112へ移行し、中間部材400の装着もしくは取り外しにより、視差量を設定視差量範囲に設定できるかを判定する。   If it is determined in step S110 that the parallax amount cannot be set within the set parallax amount range even after the taking lens is replaced, the process proceeds to step S112, and the parallax amount is set or set by attaching or removing the intermediate member 400. Judge whether it can be set.

ステップS112において、中間部材400の脱着によって視差量を設定視差量範囲内に設定可能な場合には、ステップS113へ移行し、装着すべき中間部材400のD3の値、もしくは中間部材400を取り外すべき警告を、液晶モニタ123に表示し、使用者に告知する。   In step S112, when the parallax amount can be set within the set parallax amount range by detaching the intermediate member 400, the process proceeds to step S113, and the value of D3 of the intermediate member 400 to be attached or the intermediate member 400 should be removed. A warning is displayed on the liquid crystal monitor 123 to notify the user.

一方、ステップS112において、中間部材400の脱着によっても視差量を設定視差量範囲内に設定することができない場合には、ステップS114へ移行し、「3D撮影不可」等の警告表示を液晶モニタ123に表示し、使用者に告知する。   On the other hand, if the amount of parallax cannot be set within the set parallax amount range even when the intermediate member 400 is attached or detached in step S112, the process proceeds to step S114, and a warning display such as “3D shooting impossible” is displayed on the liquid crystal monitor 123. Display to the user and notify the user.

さらに、別アクセサリの推奨情報を表示してもよい。また、液晶モニタ123を立体視画像を表示可能なものとして、立体視の効果を目視で確認できるようにしてもよい。本発明では、立体視画像の撮影時に利用するアクセサリの選択や輻輳角の調整などが簡単にでき、これらの調整によって、近い被写体から遠い被写体まで、様々な条件の被写体に対応した立体視画像撮影システムを提供することができる。   Furthermore, recommendation information of another accessory may be displayed. Further, the liquid crystal monitor 123 may be configured to display a stereoscopic image so that the stereoscopic effect can be confirmed visually. In the present invention, it is possible to easily select an accessory to be used at the time of shooting a stereoscopic image, adjust the convergence angle, and the like. By these adjustments, stereoscopic image shooting corresponding to subjects under various conditions from a close subject to a far subject can be performed. A system can be provided.

なお、本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うカメラ及びカメラシステムもまた本発明の技術的範囲に含まれるものである。   Note that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit or idea of the invention that can be read from the claims and the entire specification. A camera system is also included in the technical scope of the present invention.

本発明は、上述の実施形態で説明したデジタルカメラの形態に限らず、撮影機能を備えた録音機器、携帯電話、PDA、パーソナルコンピューター、ゲーム機、デジタルメディアプレーヤー、テレビ、GPS、時計等の電子機器にも適用可能である。   The present invention is not limited to the form of the digital camera described in the above-described embodiment, but is an electronic device such as a recording device, a mobile phone, a PDA, a personal computer, a game machine, a digital media player, a television, a GPS, a clock, etc. It can also be applied to equipment.

1 カメラシステム、
10 第1カメラ、
100 カメラボディ、
101 ボディ制御用マイクロコンピュータ(制御部、識別部、算出部)、
116 第1撮像部、
117 CCD、
128 不揮発性メモリ(記憶部)、
135 電源回路、
180 結合部、
181 通信コネクタ(通信部)、
200 レンズユニット、
201 レンズ制御用マイクロコンピュータ、
202 撮影レンズ、
300 第2カメラ、
302 撮影レンズ、
316 第2撮像部、
317 CCD、
321 ボディ制御用マイクロコンピュータ、
328 不揮発性メモリ(記憶部)、
335 電源回路、
353 輻輳角検出機構、
380 結合部、
381 通信コネクタ(通信部)、
400 中間部材、
401 結合部、
402 通信コネクタ(通信部)、
403 結合部、
404 通信コネクタ、
405 不揮発性メモリ(記憶部)。
1 camera system,
10 First camera,
100 camera body,
101 microcomputer for body control (control unit, identification unit, calculation unit),
116 first imaging unit;
117 CCD,
128 non-volatile memory (storage unit),
135 power supply circuit,
180 joints,
181 communication connector (communication unit),
200 lens unit,
201 a lens control microcomputer;
202 photographic lens,
300 Second camera,
302 photographic lens,
316 second imaging unit,
317 CCD,
321 microcomputer for body control,
328 nonvolatile memory (storage unit),
335 power circuit,
353 convergence angle detection mechanism,
380 joint,
381 communication connector (communication unit),
400 intermediate member,
401 coupling part,
402 communication connector (communication unit),
403 coupling part,
404 communication connector,
405 Nonvolatile memory (storage unit).

Claims (6)

被写体の光学像を結像する第1の撮影レンズ、及び前記第1の撮影レンズの結像位置に配置された第1の撮像素子を有し前記被写体の画像を生成する第1撮像部を具備する第1カメラと、
前記第1カメラに結合部を介して着脱自在であって、前記被写体の光学像を結像する第2の撮影レンズ、前記第2の撮影レンズの結像位置に配置され受光面の大きさが前記第1の撮像素子とは異なる第2の撮像素子を有し前記被写体の画像を生成する第2撮像部、及び前記第1の撮影レンズの光軸と前記第2の撮影レンズの光軸とのなす角度を調整する機構を具備する第2カメラと、
前記角度を検出する検出部と、を具備し、
前記第2の撮影レンズの像面から節点までの節点距離、前記角度及び前記第1カメラまたは前記第2カメラの記録している位置情報に基づいて、前記第1の撮影レンズの節点と前記第2の撮影レンズの節点の相対位置を算出する算出部を有するカメラシステム。
A first imaging lens that forms an optical image of the subject; and a first imaging unit that has a first imaging element disposed at an imaging position of the first imaging lens and generates an image of the subject. A first camera to
A second photographic lens that is detachable from the first camera via a coupling portion and forms an optical image of the subject, and is disposed at an imaging position of the second photographic lens, and the size of the light receiving surface is A second imaging unit having a second imaging element different from the first imaging element and generating an image of the subject; an optical axis of the first imaging lens; and an optical axis of the second imaging lens A second camera comprising a mechanism for adjusting the angle formed by
A detection unit for detecting the angle,
On the basis of the nodal distance from the image plane to the nodes of the second imaging lens, the angle and the first camera or recording to have the location information of the second camera, said the nodes of the first imaging lens first The camera system which has a calculation part which calculates the relative position of the node of 2 taking lenses.
前記相対位置は、前記第1カメラに記憶された前記第1撮像部の中心を基準とした前記結合部までの位置情報と、前記第2カメラに記憶された前記第2撮像部の中心を基準とした前記結合部までの位置情報と、に基づいて算出されることを特徴とする請求項1に記載のカメラシステム。   The relative position is based on the position information up to the coupling unit based on the center of the first imaging unit stored in the first camera and the center of the second imaging unit stored in the second camera. The camera system according to claim 1, wherein the camera system is calculated based on position information up to the coupling unit. 前記第2カメラは中間部材を介して前記第1カメラに装着され、前記中間部材は、前記中間部材の前記第1カメラとの結合部及び前記第2カメラとの結合部間の位置情報を記録していることを特徴とする請求項2に記載のカメラシステム。   The second camera is attached to the first camera via an intermediate member, and the intermediate member records positional information between the connecting portion of the intermediate member with the first camera and the connecting portion with the second camera. The camera system according to claim 2, wherein: 前記第1の撮影レンズの合焦距離から被写体距離を算出し、A subject distance is calculated from an in-focus distance of the first photographing lens;
前記相対位置及び前記被写体距離において得られる視差量が所定の範囲内であるか否かを判定することを特徴とする請求項3に記載のカメラシステム。4. The camera system according to claim 3, wherein it is determined whether or not a parallax amount obtained at the relative position and the subject distance is within a predetermined range.
前記第1の撮影レンズ及び前記第2の撮影レンズはアクチュエータによって焦点距離が可変に構成されており、The first photographing lens and the second photographing lens are configured such that a focal length is variable by an actuator,
前記視差量が前記所定の範囲外であると判定した場合には、前記第1の撮影レンズ及び前記第2の撮影レンズの焦点距離を変更することによって前記視差量を前記所定の範囲内の値とすることが可能であるか否かを判定し、当該判定において可能であると判定した場合には、前記視差量が前記所定の範囲内に入るように前記第1の撮影レンズ及び前記第2の撮影レンズの焦点距離を変更することを特徴とする請求項4に記載のカメラシステム。When it is determined that the parallax amount is outside the predetermined range, the parallax amount is a value within the predetermined range by changing a focal length of the first photographing lens and the second photographing lens. In the case where it is determined that it is possible, the first photographing lens and the second lens so that the parallax amount falls within the predetermined range. The camera system according to claim 4, wherein the focal length of the photographing lens is changed.
前記視差量が前記所定の範囲外であると判定した場合には、前記中間部材を装着又は取り外すことによって前記視差量を前記所定の範囲内の値とすることが可能であるか否かを判定し、前記中間部材を装着又は取り外すことによって前記視差量を前記所定の範囲内の値とすることが可能であると判定した場合には、その旨を表示することを特徴とする請求項4又は5に記載のカメラシステム。When it is determined that the parallax amount is outside the predetermined range, it is determined whether the parallax amount can be set to a value within the predetermined range by attaching or removing the intermediate member. Then, when it is determined that the parallax amount can be set to a value within the predetermined range by mounting or removing the intermediate member, a message to that effect is displayed. 5. The camera system according to 5.
JP2009268136A 2009-11-25 2009-11-25 Camera system Expired - Fee Related JP5543762B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009268136A JP5543762B2 (en) 2009-11-25 2009-11-25 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009268136A JP5543762B2 (en) 2009-11-25 2009-11-25 Camera system

Publications (2)

Publication Number Publication Date
JP2011112809A JP2011112809A (en) 2011-06-09
JP5543762B2 true JP5543762B2 (en) 2014-07-09

Family

ID=44235193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009268136A Expired - Fee Related JP5543762B2 (en) 2009-11-25 2009-11-25 Camera system

Country Status (1)

Country Link
JP (1) JP5543762B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013031227A1 (en) 2011-09-01 2013-03-07 パナソニック株式会社 Image pickup device and program
KR101864450B1 (en) * 2011-10-31 2018-06-04 엘지이노텍 주식회사 Camera module and method for compensating image of the same
JP6777474B2 (en) * 2016-09-07 2020-10-28 株式会社シータ Imaging device fixture
JP7138472B2 (en) * 2018-05-01 2022-09-16 キヤノン株式会社 IMAGING SYSTEM AND CONTROL METHOD THEREOF, IMAGING DEVICE, PROGRAM, STORAGE MEDIUM
CN113821009B (en) * 2021-11-24 2022-03-11 北京和利时***工程有限公司 Edge controller and quality detection system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4448844B2 (en) * 2006-11-22 2010-04-14 富士フイルム株式会社 Compound eye imaging device
JP2008046652A (en) * 2007-09-18 2008-02-28 Fujifilm Corp Photographing apparatus

Also Published As

Publication number Publication date
JP2011112809A (en) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5800611B2 (en) Imaging device
JP5789793B2 (en) Three-dimensional imaging device, lens control device, and program
US7324748B2 (en) Focal plane shutter and image sensing apparatus
US20070047936A1 (en) Image sensing apparatus
JP2011166756A (en) Photographing apparatus and photographing system
JP2001218228A (en) Optical system for stereoscopic image photographing, and stereoscopic image photographing device using the same
JP5543762B2 (en) Camera system
US20120224031A1 (en) Image pickup apparatus
JP2011114487A (en) Imaging apparatus
EP2600624A1 (en) Image capturing device
JP2011250022A (en) Camera system
US20120026300A1 (en) Imaging apparatus
JP2009077090A (en) Imaging apparatus, imaging system, and image reading system
US20120307016A1 (en) 3d camera
JP5293947B2 (en) Imaging device
JP2012053303A (en) Stereoscopic camera device and electronic information device
JP2016020977A (en) Stereoscopic image imaging device
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP2013061560A (en) Distance measuring device, and imaging device
JP2011146815A (en) Deviation correcting device, three-dimensional digital camera with the same, deviation correcting method and deviation correcting program
JP6764308B2 (en) Correction device and its control method, imaging device, program and storage medium
JP6456093B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2011135374A (en) Three-dimensional digital camera
JP2013109079A (en) Compound-eye imaging device, focusing method of the same and electronic information device
JP5943693B2 (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140509

R151 Written notification of patent or utility model registration

Ref document number: 5543762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees