JP2011172178A - Image pickup apparatus - Google Patents

Image pickup apparatus Download PDF

Info

Publication number
JP2011172178A
JP2011172178A JP2010036434A JP2010036434A JP2011172178A JP 2011172178 A JP2011172178 A JP 2011172178A JP 2010036434 A JP2010036434 A JP 2010036434A JP 2010036434 A JP2010036434 A JP 2010036434A JP 2011172178 A JP2011172178 A JP 2011172178A
Authority
JP
Japan
Prior art keywords
imaging device
image
image data
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010036434A
Other languages
Japanese (ja)
Inventor
Norifumi Kamimura
昇史 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010036434A priority Critical patent/JP2011172178A/en
Publication of JP2011172178A publication Critical patent/JP2011172178A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance convenience of a user when the user captures stereoscopic image data by images for the left eye and the right eye, using two image pickup apparatuses. <P>SOLUTION: Each of the image pickup apparatuses 1a, 1b for capturing stereoscopic image data by images for the left eye and right eye includes: a relative position relation detection unit 101 for detecting a relative position relation between the image pickup apparatus 1a and the other image pickup apparatus 1b; and an imaging unit 102 that captures an incident light flux and outputs image data for the left eye or for the right eye according to the position relation detected by the relative position relation detection unit 101. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、左目用と右目用との画像により立体視される立体画像用の画像データを撮像する撮像装置に関する。   The present invention relates to an imaging apparatus that captures image data for a stereoscopic image that is stereoscopically viewed by left-eye and right-eye images.

立体写真撮影可能とするため、立体画像とする左目用と右目用との2つの画像を、それぞれ撮像する2つの撮像手段を持つカメラが提案されている(例えば、特許文献1参照)。   In order to enable stereoscopic photography, a camera has been proposed that has two imaging means for imaging two images for a left eye and a right eye, which are stereoscopic images (see, for example, Patent Document 1).

特開2006−33476号公報JP 2006-33476 A

上述の特許文献1は、立体画像のために特別に構成されたカメラであり、汎用的な構成とはなっていない。
このため、通常の一眼レフカメラを用いて、左目用と右目用との画像により立体視される立体画像用の画像データを撮像する場合には、ユーザーが撮像装置の固定方法などを工夫して立体画像用の画像データを撮像し、それを表示や保存し、さらに保存された画像データに対して立体画像への変換処理等の処理を行っていた。
その場合に、例えば垂直に立てた2台のカメラを用いた立体画像撮影においてユーザーにとって便利となるような機能は提供されていなかった。
The above-mentioned Patent Document 1 is a camera specially configured for stereoscopic images, and is not a general-purpose configuration.
For this reason, when using a normal single-lens reflex camera to capture image data for a stereoscopic image that is stereoscopically viewed with left-eye and right-eye images, the user devises a method for fixing the imaging device, etc. Image data for a stereoscopic image is captured, displayed and stored, and processing such as conversion to a stereoscopic image is performed on the stored image data.
In such a case, for example, a function that is convenient for the user in stereoscopic image shooting using two vertically arranged cameras has not been provided.

本発明は、このような事情を考慮してなされたものであり、2台の撮像装置を用いて左目用と右目用との画像により立体視される立体画像用の画像データを撮像する場合に、ユーザーの利便性を向上させることができる撮像装置を提供することを目的とする。   The present invention has been made in consideration of such circumstances, and in the case of imaging image data for a stereoscopic image that is stereoscopically viewed by left-eye and right-eye images using two imaging devices. An object of the present invention is to provide an imaging apparatus capable of improving user convenience.

上記課題を解決するため、本発明は、左目用と右目用との画像により立体視される立体画像用の画像データを撮像する撮像装置であり、前記撮像装置と、他の撮像装置との相対的な位置関係を検出する検出手段と、入力された光束を撮像して、前記検出手段が検出した位置関係に対応して左目用または右目用の前記画像データを出力する撮像部とを有することを特徴とする。   In order to solve the above-described problem, the present invention is an imaging device that captures image data for a stereoscopic image that is stereoscopically viewed by left-eye and right-eye images, and the relative relationship between the imaging device and another imaging device. A detection unit that detects a general positional relationship, and an imaging unit that images the input light flux and outputs the image data for the left eye or the right eye corresponding to the positional relationship detected by the detection unit It is characterized by.

本発明の撮像装置によれば、2台の撮像装置の相対的な位置関係に対応して左目用または右目用の画像データが出力される。すなわち、出力された画像データは、相対的な位置関係に対応して自動的に左目用または右目用として出力されるので、例えば立体画像の表示や立体画像生成用の処理などを効率的に行うことが可能となる。   According to the imaging apparatus of the present invention, left-eye or right-eye image data is output corresponding to the relative positional relationship between the two imaging apparatuses. In other words, the output image data is automatically output for the left eye or the right eye corresponding to the relative positional relationship, so that, for example, a stereoscopic image display process or a stereoscopic image generation process is efficiently performed. It becomes possible.

本発明による撮像装置の一実施形態の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of one Embodiment of the imaging device by this invention. 図1に示す撮像装置1aと撮像装置1bの固定状態の一例を示す側面図である。It is a side view which shows an example of the fixed state of the imaging device 1a and the imaging device 1b shown in FIG. 図2の撮像装置1a及び1bと異なる外観形状を有する撮像装置1c及び1dの固定状態の一例を示す側面図である。It is a side view which shows an example of the fixed state of the imaging devices 1c and 1d which have a different external shape from the imaging devices 1a and 1b of FIG. 図1に示す撮像装置1aの背面モニター24の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the back monitor 24 of the imaging device 1a shown in FIG. 図2の撮像装置1a及び1bの背面モニター24a及び24bにおける表示例と、画像データのトリミング例を説明するための模式図である。FIG. 3 is a schematic diagram for explaining a display example on the rear monitors 24a and 24b of the imaging devices 1a and 1b of FIG. 2 and a trimming example of image data. 図3の撮像装置1c及び1dの背面モニター24c及び24dにおける表示例と、画像データのトリミング例を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a display example on the rear monitors 24c and 24d of the imaging devices 1c and 1d of FIG. 3 and a trimming example of image data. 図3の撮像装置1c及び1dの背面モニター24c及び24dにおける他の表示例を説明するための模式図である。It is a schematic diagram for demonstrating the other example of a display in the rear monitors 24c and 24d of the imaging devices 1c and 1d of FIG. 図1に示す撮像装置1aと撮像装置1bの他の固定及び接続状態を説明するための側面図である。It is a side view for demonstrating other fixation and a connection state of the imaging device 1a and the imaging device 1b which are shown in FIG. 図1に示す撮像装置1aと撮像装置1bのさらに他の固定及び接続状態を説明するための側面図である。It is a side view for demonstrating the further another fixed and connected state of the imaging device 1a and the imaging device 1b shown in FIG. 図1に示す撮像装置1aと撮像装置1bの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the imaging device 1a and the imaging device 1b shown in FIG. 図1に示す撮像装置1aと撮像装置1bの他の動作例を示すシーケンス図である。It is a sequence diagram which shows the other operation example of the imaging device 1a and the imaging device 1b shown in FIG.

以下、図面を参照して本発明の実施形態について説明する。図1は、本発明による撮像装置の一実施形態の構成を説明するためのブロック図であり、図2は、図1に示す撮像装置1aと撮像装置1bの固定例を示す側面図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a configuration of an embodiment of an imaging apparatus according to the present invention, and FIG. 2 is a side view showing a fixed example of the imaging apparatus 1a and the imaging apparatus 1b shown in FIG.

図1の撮像装置1aは、他の同一構成の撮像装置1bとともに、左目用と右目用との画像により立体視される立体画像用の画像データを撮像する。本実施形態の撮像装置1a及び1bは、例えば、一般的な一眼レフデジタルカメラに、本発明が特徴とする機能を追加することで構成されている。その場合に、後述する追加機能を除き、撮像素子、光学系、それらの制御装置等についての基本的な構成・動作については従来の一眼レフデジタルカメラと同様である。   The imaging device 1a of FIG. 1 captures image data for a stereoscopic image that is stereoscopically viewed with left-eye and right-eye images together with another imaging device 1b having the same configuration. The imaging devices 1a and 1b of the present embodiment are configured by adding a function that is characteristic of the present invention to, for example, a general single-lens reflex digital camera. In this case, except for the additional functions described later, the basic configuration and operation of the image sensor, the optical system, and their control devices are the same as those of a conventional single-lens reflex digital camera.

また、立体画像用の画像データを撮像する際には、撮像装置1a及び撮像装置1bは、図2に示すように固定されて使用されるものとする。図2は、撮像装置1a及び撮像装置1bを背面からみた図であり、固定器具4に互いの底面を向き合わせるようにして、撮像装置1a及び撮像装置1bの三脚用ねじ穴に、固定ねじ43a及び43bを締め付けることで縦位置方向に固定されている。図2の固定器具4は、水平部材41と、垂直部材42a及び42bとから構成されていて、撮像装置1a及び撮像装置1bは、垂直部材42a及び42bに固定ねじ43a及び43bを用いて固定されている。この固定ねじ43a及び43bは、垂直位置(y方向の高さ)が一致するように、回転自在に垂直部材42a及び42bに取り付けられている。また、図2では、撮像装置1aのレンズ等の光学系及び撮像素子の中心31aが黒丸に十字を付けた記号で、背面モニター24aの中心32aが白丸に十字を付けた記号で示されている。同様に、撮像装置1bの光学系及び撮像素子の中心31bが黒丸に十字を付けた記号で、背面モニター24bの中心32bが白丸に十字を付けた記号で示されている。この場合、撮像装置1aが右目用の画像を撮像し、撮像装置1bが左目用の画像を撮像するために使用される。   Further, when imaging image data for a stereoscopic image, the imaging device 1a and the imaging device 1b are fixedly used as shown in FIG. FIG. 2 is a view of the imaging device 1a and the imaging device 1b as viewed from the back. The fixing screw 43a is inserted into the tripod screw hole of the imaging device 1a and the imaging device 1b so that the bottom surfaces of the imaging device 1a and the imaging device 1b face each other. And 43b are fixed in the vertical direction. The fixing device 4 in FIG. 2 includes a horizontal member 41 and vertical members 42a and 42b. The imaging device 1a and the imaging device 1b are fixed to the vertical members 42a and 42b using fixing screws 43a and 43b. ing. The fixing screws 43a and 43b are rotatably attached to the vertical members 42a and 42b so that the vertical positions (the heights in the y direction) coincide with each other. In FIG. 2, the center 31a of the optical system such as the lens of the image pickup apparatus 1a and the image pickup element is indicated by a black circle symbol, and the center 32a of the rear monitor 24a is indicated by a white circle symbol. . Similarly, the center 31b of the optical system and the image sensor of the image pickup apparatus 1b is indicated by a black circle with a cross, and the center 32b of the rear monitor 24b is indicated by a white circle with a cross. In this case, the imaging device 1a is used to capture an image for the right eye, and the imaging device 1b is used to capture an image for the left eye.

また、図3は、図2の撮像装置1a及び1bと異なる外観形状を有する撮像装置1c及び1dの固定状態の一例を示す側面図である。撮像装置1c及び1dは、撮像装置1a及び1bと同様の内部構成を有して構成されている。図3に示す例では、撮像装置1cの光学系の中心31c(あるいは背面モニター24cの中心32c)と撮像装置1dの光学系の中心31d(あるいは背面モニター24dの中心32d)との縦方向(y方向)のずれが、図2に示す撮像装置1a及び1bの光学系の中心31a及び31b間のずれ(あるいは背面モニター24a及び24bの中心32a及び32b間のずれ)と比べて、大きくなっている。   FIG. 3 is a side view showing an example of a fixed state of the imaging devices 1c and 1d having an external shape different from that of the imaging devices 1a and 1b of FIG. The imaging devices 1c and 1d have the same internal configuration as the imaging devices 1a and 1b. In the example shown in FIG. 3, the longitudinal direction (y) between the center 31c of the optical system of the imaging device 1c (or the center 32c of the rear monitor 24c) and the center 31d of the optical system of the imaging device 1d (or the center 32d of the rear monitor 24d). 2) is larger than the shift between the centers 31a and 31b of the optical systems of the imaging devices 1a and 1b shown in FIG. 2 (or the shift between the centers 32a and 32b of the rear monitors 24a and 24b). .

図1に示す本実施形態の撮像装置1aは、各部を制御する画像処理制御回路11、通信制御回路21、通信端子22、メモリー23、背面モニター24、撮像素子25、姿勢センサー26、AF(オートフォーカス)/AWB(オートホワイトバランス)制御回路27、操作部28、メモリーカード29及び光学系30を備えている。ここで、背面モニター24は、図2の背面モニター24aに対応している。また、撮像装置1aは、図示していないバッテリー、時計回路、マイクロフォン、映像音声出力端子、リモートコントロール信号の信号受信回路、レリーズの接続端子等の構成を有している。   An image pickup apparatus 1a according to this embodiment shown in FIG. 1 includes an image processing control circuit 11, a communication control circuit 21, a communication terminal 22, a memory 23, a rear monitor 24, an image sensor 25, an attitude sensor 26, and AF (auto A focus) / AWB (auto white balance) control circuit 27, an operation unit 28, a memory card 29, and an optical system 30 are provided. Here, the rear monitor 24 corresponds to the rear monitor 24a of FIG. Further, the imaging device 1a has a configuration such as a battery, a clock circuit, a microphone, a video / audio output terminal, a signal receiving circuit for a remote control signal, a release connection terminal, etc. (not shown).

画像処理制御回路11は、CPU(中央処理装置)と、メモリと、各部21、23〜29との信号入出力回路あるいは各部21、23〜29のドライブ回路等を備えて構成されていて、メモリに記憶されている所定のプログラムを実行することで各部21、23〜29の制御を行う。また、メモリには、図2のように同一水平線44上で三脚用ねじ穴を用いて固定されている他の撮像装置1bの光学系30の中心31bと自装置の光学系30の中心31aとのy方向のずれ量と、光学系30の動作状態やAF/AWB制御回路27における制御状態から推定される(例えば、光学系30におけるレンズの焦点距離の調整量から求める)被写体及び撮像素子25間の距離情報と、撮像装置1a、1b、…等の機種情報とに対応づけて予め算出されている、画像データの縦方向の位置調整量を示すデータテーブルが格納されている。また、画像処理制御回路11は、背面モニター24に図4に示すようなメニュー表示を行うことで、ユーザーによる立体画像撮像等のための設定を受け付け、それに従って各処理を実行する。   The image processing control circuit 11 includes a CPU (central processing unit), a memory, a signal input / output circuit for each unit 21, 23-29, a drive circuit for each unit 21, 23-29, and the like. Each unit 21, 23 to 29 is controlled by executing a predetermined program stored in. Further, in the memory, as shown in FIG. 2, the center 31b of the optical system 30 of the other imaging device 1b and the center 31a of the optical system 30 of the own device are fixed on the same horizontal line 44 using a screw hole for a tripod. Of the subject and the image sensor 25 (e.g., obtained from the adjustment amount of the focal length of the lens in the optical system 30) estimated from the operation amount of the optical system 30 and the control state in the AF / AWB control circuit 27. A data table indicating the amount of vertical position adjustment of image data, which is calculated in advance in association with the distance information between them and the model information of the imaging devices 1a, 1b,. Further, the image processing control circuit 11 displays a menu as shown in FIG. 4 on the rear monitor 24, thereby accepting a setting for capturing a stereoscopic image by the user, and executes each process accordingly.

図4は、背面モニター24の表示例を示す模式図である。図4(a)の表示において、操作部28のカーソルキー、エンターキー等を用いたユーザーによる操作によって、「縦位置立体撮影」が設定された場合、図4(b)の表示が行われる。図4(b)の表示において、「有効」が選択・設定され、さらに「その他の設定」が選択されると、図4(c)の表示が行われる。ここで、「ボディ位置設定」が選択されると図4(d)の表示が行われ、「他ボディとのペアリング設定」が選択されると図4(e)の表示が行われ、「背面モニター調整」が選択されると図4(f)の表示が行われ、そして、「記録画像設定」が選択されると図4(g)の表示が行われる。   FIG. 4 is a schematic diagram illustrating a display example of the rear monitor 24. In the display of FIG. 4A, when “vertical stereo shooting” is set by a user operation using the cursor key, enter key, or the like of the operation unit 28, the display of FIG. 4B is performed. In the display of FIG. 4B, when “valid” is selected and set and “other setting” is selected, the display of FIG. 4C is performed. When “Body position setting” is selected, the display of FIG. 4D is performed. When “Pairing setting with other body” is selected, the display of FIG. 4E is performed. When “rear monitor adjustment” is selected, the display of FIG. 4F is performed, and when “recorded image setting” is selected, the display of FIG. 4G is performed.

図4(d)の表示では、「AUTO」(オート)が選択された場合、後述する制御によって自動的にボディ位置の右目用又は左目用の設定が行われる。他方、「右」又は「左」が選択された場合には手動でボディ位置が右目用又は左目用に設定される。図4(e)の表示では、「AUTO」が選択された場合、図4(d)の表示画面で例えば右目用にボディ位置が設定されている撮像装置の主従関係がマスターに設定され、他の撮像装置がスレーブに設定される。他方、「マスター」、「スレーブ」又は「独立」が選択された場合には手動でマスター、スレーブ又は独立(他の撮像装置との主従関係なし)に設定される。   In the display of FIG. 4D, when “AUTO” (automatic) is selected, the body position is automatically set for the right eye or the left eye by the control described later. On the other hand, when “right” or “left” is selected, the body position is manually set for the right eye or the left eye. In the display of FIG. 4E, when “AUTO” is selected, the master-slave relationship of the imaging device whose body position is set for the right eye, for example, on the display screen of FIG. Are set as slaves. On the other hand, when “master”, “slave”, or “independent” is selected, it is manually set to master, slave, or independent (no master-slave relationship with other imaging devices).

図4(f)の表示では、「する」が選択された場合に、別表示にて背面モニター24の表示位置を調整する設定が行われる。図4(g)の表示では、「最大」が選択された場合、縦画像での撮影を行うことが設定され、他方、「横画像で撮影」が選択された場合には、予め(あるいは別表示で)設定される縦横比にて縦画像をトリミングすることで作成された横画像にて画像データの撮像、表示及び保存が行われるとの設定が行われる。   In the display of FIG. 4F, when “Yes” is selected, a setting for adjusting the display position of the rear monitor 24 is performed in a separate display. In the display of FIG. 4G, when “maximum” is selected, shooting is set to be performed in a vertical image, whereas when “shooting in a horizontal image” is selected, (or different) A setting is made such that image data is captured, displayed, and stored in a horizontal image created by trimming a vertical image at a set aspect ratio.

図1において、通信制御回路21は、例えばUSB(Universal Serial Bus)ホスト及びデバイス両対応のコントローラとして構成されている。この場合、通信端子22は、USBホスト、USBデバイス用の2つの端子を有して構成されている。撮像装置1aは、通信制御回路21及び通信端子22によって、通信ケーブル6を介して、他の撮像装置1bと接続することで、画像(映像)データ、音声データ、撮像装置1bの機種情報や図2に示す光学系30及び撮像素子の中心31bや背面モニター24bの中心32bの仕様を表す情報や、他の制御データを送受信することができるようになっている。なお、通信制御回路21は、USBその他の有線の通信規格に限らず、無線LAN(ローカルエリアネットワーク)ほかの無線通信の規格を用いるもの、あるいはその両方に対応するものであってもよい。   In FIG. 1, the communication control circuit 21 is configured as a controller that supports both a USB (Universal Serial Bus) host and a device, for example. In this case, the communication terminal 22 has two terminals for a USB host and a USB device. The imaging device 1a is connected to the other imaging device 1b via the communication cable 6 by the communication control circuit 21 and the communication terminal 22, so that image (video) data, audio data, model information of the imaging device 1b, Information indicating the specifications of the optical system 30 and the center 31b of the image pickup device shown in 2 and the center 32b of the rear monitor 24b and other control data can be transmitted and received. The communication control circuit 21 is not limited to a USB or other wired communication standard, but may be a circuit that uses a wireless communication standard other than a wireless LAN (local area network), or both.

メモリー23は、撮像装置1aで撮影された画像データ、音声データ等を所定の階層構造を用いて記憶するとともに、通信制御回路21及び通信端子22を介して他の撮像装置1bから受信した画像データ、音声データ等を所定の階層構造を用いて記憶する。また、メモリー23は、メモリーカード29との間で記憶データを転送することも可能となっている。   The memory 23 stores image data, audio data, and the like captured by the imaging device 1a using a predetermined hierarchical structure, and image data received from another imaging device 1b via the communication control circuit 21 and the communication terminal 22. Audio data and the like are stored using a predetermined hierarchical structure. The memory 23 can also transfer stored data to and from the memory card 29.

背面モニター24は、液晶表示パネル等を用いて構成されていて、撮像素子25から出力されている画像データ、メモリー23又はメモリーカード29に記憶されている画像データや、画像処理制御回路11から指示された種々の文字、図形情報等を表示する。また、背面モニター24には、ライブビューモードとして、光学系30を介して入力される光束を受光面において結像することで撮像素子25が出力する画像データを、スルー画データとして表示される。   The rear monitor 24 is configured by using a liquid crystal display panel or the like, and image data output from the image sensor 25, image data stored in the memory 23 or the memory card 29, and instructions from the image processing control circuit 11 The displayed various characters, graphic information, and the like are displayed. Further, on the rear monitor 24, as live view mode, image data output from the image sensor 25 by forming an image of a light beam input via the optical system 30 on the light receiving surface is displayed as through image data.

光学系30は、例えば、ズームレンズ、焦点調整レンズ(AFレンズ)、これら各レンズを駆動するレンズ駆動部などから構成されている。なお、この光学系30は、撮像装置1a(あるいは1b)に取り付けられて一体とされていても良いし、着脱可能に取り付けられても良い。
撮像素子25は、光学系30の各レンズを介して受光した光束を、受光面において結像し、結像された光学像を電気信号に変換し、画像データとして画像処理制御回路11に出力する。
撮像素子25は、例えば、操作部28を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データとして、内部のA/D変換部や撮像部102を介して画像表示部105に出力する。
The optical system 30 includes, for example, a zoom lens, a focus adjustment lens (AF lens), and a lens driving unit that drives these lenses. In addition, this optical system 30 may be attached to the imaging apparatus 1a (or 1b) and may be integrated, or may be attached detachably.
The image pickup device 25 forms an image of the light beam received through each lens of the optical system 30 on the light receiving surface, converts the formed optical image into an electrical signal, and outputs it to the image processing control circuit 11 as image data. .
For example, in a state where an imaging instruction is not received via the operation unit 28, the imaging element 25 uses image data obtained continuously as through image data as an image via the internal A / D conversion unit or the imaging unit 102. The data is output to the display unit 105.

姿勢センサー26は、例えば傾斜角センサーとして構成されていて、地球重心の方向に対する傾きを電気信号に変換し、撮像装置1aの姿勢を表す姿勢データとして出力する。傾斜角センサーとしては、ポテンショメーター式、トルクバランス式、静電容量式等の種々のものを用いることができる。姿勢センサー26は、図2に示すように撮像装置1aが縦位置となっている場合には、縦位置であることと、どちらの側面が下側であるのかを示す信号を出力するとともに、撮像装置1aが横位置となっている場合にはその旨を示す信号を出力する。ただし、姿勢センサー26は、例えばジャイロセンサー等を用いて角度を検知するものとして構成したり、地磁気センサーを利用した電子コンパスを用いて撮像装置1の方位を検知するものとして構成したり、キネマティック測位システム(RTK−GPS測量システム)などを用いて数cm単位の精度で緯度経度や高度を測位するものとして構成したり、あるいはそれらを組み合わせて構成したりすることができる。   The attitude sensor 26 is configured as, for example, an inclination angle sensor, converts an inclination with respect to the direction of the center of gravity of the earth into an electric signal, and outputs the electric signal as attitude data representing the attitude of the imaging device 1a. As the tilt angle sensor, various sensors such as a potentiometer type, a torque balance type, and a capacitance type can be used. When the imaging device 1a is in the vertical position as shown in FIG. 2, the posture sensor 26 outputs a signal indicating the vertical position and which side is the lower side, and performs imaging. If the device 1a is in the horizontal position, a signal indicating that is output. However, the attitude sensor 26 is configured to detect an angle using, for example, a gyro sensor or the like, or configured to detect the orientation of the imaging apparatus 1 using an electronic compass using a geomagnetic sensor, or kinematic A positioning system (RTK-GPS surveying system) or the like can be used to measure latitude and longitude and altitude with an accuracy of several centimeters, or a combination thereof.

AF/AWB制御回路27は、光学系30やそれに付随する各種センサを制御し、光学系30のレンズ駆動部を介してフォーカスを自動的に制御したり、ホワイトバランスの調整値を算出したりする。また、AF/AWB制御回路27からは、ホワイトバランスの調整値、光学系30の焦点距離の情報などが出力される。   The AF / AWB control circuit 27 controls the optical system 30 and various sensors associated therewith, and automatically controls the focus through the lens driving unit of the optical system 30 and calculates a white balance adjustment value. . The AF / AWB control circuit 27 outputs white balance adjustment values, information on the focal length of the optical system 30, and the like.

操作部28は、カーソルキー、エンターキー、各種押しボタン、ダイヤルキー等の操作子から構成されていて、ユーザーによるそれら操作子に対する操作に応じた電気信号を出力する。   The operation unit 28 includes operation elements such as a cursor key, an enter key, various push buttons, a dial key, and the like, and outputs an electrical signal corresponding to an operation performed on the operation elements by the user.

メモリーカード29は、着脱自在に装着されているフラッシュメモリー等からなる記憶装置である。   The memory card 29 is a storage device including a flash memory or the like that is detachably attached.

また、上述した画像処理制御回路11によって、その内部のメモリに格納されているプログラムを実行することで提供される機能の構成単位(ブロック)として、相対的位置関係検出部101、撮像部102、第1の画像処理部103、第2の画像処理部104、画像表示部105、情報付加部106、設定制御部107、焦点距離比較部108、及び記憶制御部109が実現される。   In addition, as a structural unit (block) of a function provided by executing the program stored in the internal memory by the image processing control circuit 11 described above, a relative positional relationship detection unit 101, an imaging unit 102, A first image processing unit 103, a second image processing unit 104, an image display unit 105, an information addition unit 106, a setting control unit 107, a focal length comparison unit 108, and a storage control unit 109 are realized.

相対的位置関係検出部101は、他の撮像装置1bとの相対的な位置関係を検出する機能を提供する機能ブロックである。姿勢センサー26が傾きセンサーから構成されている場合、図2に示すように、撮像装置1aと撮像装置1bとが底面を合わせるように固定されているという前提条件の下、撮像装置1a内の姿勢センサー26から縦位置であることと、ボディの一方の側(この場合、後ろから見て右側)が下であるということを示す情報が入力される。この場合、相対的位置関係検出部101は、撮像装置1aと撮像装置1bとの設置に係る上記前提条件に基づき、撮像装置1aが右目用の位置に配置されていることを検知することができる。他方、他の撮像装置1bでは、撮像装置1b内の姿勢センサーから撮像装置1bが縦位置であることと、ボディの撮像装置1aとは反対側が下であることが入力されるので、撮像装置1bの相対的位置関係検出部では、撮像装置1bが左目用の位置に配置されていることを検知することができる。このように、相対的位置関係検出部101は、姿勢センサー26からの出力に基づき、撮像装置1aと撮像装置1bとが底面を合わせるように固定されているという前提条件のもと、自装置が右目側と左目側のどちらに設置されているのかということを検知するとともに、他の撮像装置1bが、自装置について検知した側と異なる側に設置されていることを検知することができる。   The relative positional relationship detection unit 101 is a functional block that provides a function of detecting a relative positional relationship with another imaging device 1b. When the posture sensor 26 is composed of a tilt sensor, as shown in FIG. 2, the posture in the image pickup device 1a is assumed under the precondition that the image pickup device 1a and the image pickup device 1b are fixed so that their bottom surfaces are aligned. Information indicating that the sensor 26 is in the vertical position and that one side of the body (in this case, the right side as viewed from the back) is down is input. In this case, the relative positional relationship detection unit 101 can detect that the imaging device 1a is disposed at the position for the right eye based on the above-described preconditions related to the installation of the imaging device 1a and the imaging device 1b. . On the other hand, in the other imaging device 1b, it is input from the attitude sensor in the imaging device 1b that the imaging device 1b is in the vertical position and that the opposite side of the body to the imaging device 1a is down. Can detect that the imaging device 1b is arranged at the position for the left eye. As described above, the relative positional relationship detection unit 101 is based on the precondition that the imaging device 1a and the imaging device 1b are fixed so that the bottom surfaces are aligned based on the output from the attitude sensor 26. While detecting whether it is installed on the right eye side or the left eye side, it is possible to detect that the other imaging device 1b is installed on a side different from the side detected for the own device.

なお、姿勢センサー26から位置情報や向きの情報が出力されるようになっている場合には、相対的位置関係検出部101は、通信制御回路21を介して、他の撮像装置1bから位置情報や向きの情報を受け取ることで、自装置と他の撮像装置1bとの相対的な位置関係を上記の前提条件が無い場合であっても求めることができる。   When position information and orientation information are output from the posture sensor 26, the relative positional relationship detection unit 101 receives position information from another imaging device 1 b via the communication control circuit 21. By receiving the orientation information, the relative positional relationship between the own device and the other imaging device 1b can be obtained even when the above preconditions are not present.

撮像部102は、操作部28や、レリーズ、リモートコントローラを用いてユーザーによって指示されたタイミングで、光学系30を介して入力された光束が結像された撮像素子25の表示面における光学像の画像データを、相対的位置関係検出部101が検出した位置関係に対応して左目用または右目用の画像データとしてメモリー23又はメモリカード29に記憶する。図2に示す例では、撮像装置1aによって撮影された画像が、右目用の画像データとして記憶される。他方、撮像装置1bによって撮影された画像が、左目用の画像データとして記憶される。   The imaging unit 102 captures an optical image on the display surface of the imaging device 25 on which a light beam input via the optical system 30 is imaged at a timing instructed by a user using the operation unit 28, a release, or a remote controller. The image data is stored in the memory 23 or the memory card 29 as left-eye or right-eye image data corresponding to the positional relationship detected by the relative positional relationship detection unit 101. In the example illustrated in FIG. 2, an image photographed by the imaging device 1a is stored as image data for the right eye. On the other hand, an image photographed by the imaging device 1b is stored as image data for the left eye.

第1の画像処理部103は、他の撮像装置1bとの光学系30の中心のずれ量を元に、自身の撮像部102によって撮像された画像データと他の撮像装置1bの撮像部が撮像した画像データとの相対的な位置関係を調整する。例えば、図2に示すように、撮像装置1aの光学系30及び撮像素子の中心31aと、固定ねじ43a及び43bの軸中心44と、撮像装置1bの光学系30及び撮像素子の中心31bとが横方向(x方向)でほぼ一直線上に並んでいる場合、縦方向(y方向)の光学系30の中心のずれ量はほぼ零となる。この場合、第1の画像処理部103は、各画像データ間の位置関係の調整を行わないか、あるいは小さなずれ量に応じて各画像データ間の位置関係の調整を行う。調整を行う場合、具体的には、ずれ量と、焦点を合わせた被写体と撮像素子25との間の距離との各情報等に基づいて、画像処理制御回路11内のメモリに図2の撮像装置1a及び1bの機種情報に対応して格納されている上記のデータテーブルを参照し、撮像した画像データにおける縦方向(y方向)の調整量を決定する。   The first image processing unit 103 captures the image data captured by the imaging unit 102 and the imaging unit of the other imaging device 1b based on the shift amount of the center of the optical system 30 from the other imaging device 1b. The relative positional relationship with the image data thus adjusted is adjusted. For example, as shown in FIG. 2, the optical system 30 and the center 31a of the imaging device 1a of the imaging device 1a, the axial center 44 of the fixing screws 43a and 43b, and the optical system 30 and the center 31b of the imaging device 1b of the imaging device 1b. In the case where the optical system 30 is arranged in a substantially straight line in the horizontal direction (x direction), the amount of deviation of the center of the optical system 30 in the vertical direction (y direction) is substantially zero. In this case, the first image processing unit 103 does not adjust the positional relationship between the image data, or adjusts the positional relationship between the image data in accordance with a small shift amount. When the adjustment is performed, specifically, the image pickup in FIG. 2 is stored in the memory in the image processing control circuit 11 on the basis of information such as the shift amount and the distance between the focused subject and the image pickup device 25. With reference to the data table stored corresponding to the model information of the devices 1a and 1b, the adjustment amount in the vertical direction (y direction) in the captured image data is determined.

そして、自装置の光学系の中心31aが他の撮像装置1bよりも例えば縦方向(y方向)で上側の場合には、決定した調整量の半分に対応する量だけ画像データの中心を下側にシフトさせるとともに、シフトさせた分だけ画像データのトリミングを実行する。反対に、撮像装置1bでは、調整量の半分だけ画像データの中心を反対方向にシフトさせるとともに、シフトさせた分だけ画像データのトリミングを実行する。このようにして、第1の画像処理部103によって、他の撮像装置1bとの光学系の中心のずれ量を元に、自身の撮像部102によって撮像された画像データと他の撮像装置1bの撮像部が撮像した画像データとの相対的な位置関係が調整される。   Then, when the center 31a of the optical system of the own apparatus is on the upper side in the vertical direction (y direction), for example, with respect to the other imaging device 1b, the center of the image data is set to the lower side by an amount corresponding to half of the determined adjustment amount And trimming of the image data is executed by the amount of the shift. On the other hand, in the imaging apparatus 1b, the center of the image data is shifted in the opposite direction by half of the adjustment amount, and the image data is trimmed by the shifted amount. In this way, the first image processing unit 103 and the image data captured by its own imaging unit 102 based on the deviation amount of the center of the optical system from the other imaging device 1b and the other imaging device 1b. The relative positional relationship with the image data captured by the imaging unit is adjusted.

また、第2の画像処理部104は、画像データが縦長の場合に、他の撮像装置1bとの間で予め設定された縦横比となるよう、その画像データの上下をトリミングする。図5(a)は、図2に示す背面モニター24a及び24bの表示例、図5(b)は、第2の画像処理部104によって、図5(a)に示すような縦長の画像データを、他の撮像装置1bとの間で予め設定された縦横比(ここでは縦:横=3:4)となるよう、その画像データの上下をトリミングした画像データ51a(撮像装置1a内の画像データ)と画像データ51b(撮像装置1b内の画像データ)を示している。また、図6(a)は、図3に示す背面モニター24c及び24dの表示例、図6(b)は、第2の画像処理部104によって、図6(a)に示すような縦長の画像データを、他の撮像装置1dとの間で予め設定された縦横比(ここでは3:4)となるよう、その画像データの上下をトリミングした画像データ51c(撮像装置1c内の画像データ)と画像データ51d(撮像装置1d内の画像データ)を示している。   In addition, when the image data is vertically long, the second image processing unit 104 trims the top and bottom of the image data so as to have a preset aspect ratio with the other imaging device 1b. 5A shows a display example of the rear monitors 24a and 24b shown in FIG. 2, and FIG. 5B shows the vertically long image data shown in FIG. 5A by the second image processing unit 104. The image data 51a (image data in the imaging device 1a) obtained by trimming the upper and lower sides of the image data so as to have a preset aspect ratio (here, vertical: horizontal = 3: 4) with the other imaging device 1b. ) And image data 51b (image data in the image pickup apparatus 1b). 6A shows a display example of the rear monitors 24c and 24d shown in FIG. 3, and FIG. 6B shows a vertically long image as shown in FIG. 6A by the second image processing unit 104. Image data 51c (image data in the imaging device 1c) obtained by trimming the top and bottom of the image data so that the data has a preset aspect ratio (here, 3: 4) with the other imaging device 1d. Image data 51d (image data in the imaging device 1d) is shown.

画像表示部105は、撮像素子25によって撮像された画像データあるいはさらに第1の画像処理部103や第2の画像処理部104によって処理された画像データを、背面モニター24a(あるいは背面モニター24c)において、他の撮像装置1bの背面モニター24b(あるいは背面モニター24d)に表示されている画像データに対応する表示位置に表示させる処理を行う。図7は、図6(b)の画像データ51cと画像データ51dを、第1の画像処理部103や第2の画像処理部104で処理した後、画像表示部105によって、背面モニター24cと背面モニター24dに表示する場合の一例を示している。図3に示すように、撮像装置1cの背面モニター24cの中心32cは、撮像装置1dの背面モニター24dの中心32dに対して、y方向上側にやや大きくずれている。撮像装置1cの画像表示部105は、背面モニター24cにおいて、画像データ52cをこの中心32cからのずれの大きさの分だけy方向の下向きにずらして表示を行う。これによって、撮像装置1cの背面モニター24cに表示された画像データ52cのy方向の表示位置と、撮像装置1dの背面モニター24dに表示された画像データ52cのy方向の表示位置とが一致される。なお、表示位置は、さらに手動で調整できるようにしてもよい。   The image display unit 105 displays image data picked up by the image sensor 25 or image data processed by the first image processing unit 103 or the second image processing unit 104 on the rear monitor 24a (or the rear monitor 24c). Then, a process of displaying at a display position corresponding to the image data displayed on the rear monitor 24b (or the rear monitor 24d) of the other imaging apparatus 1b is performed. FIG. 7 shows the case where the image data 51c and the image data 51d of FIG. 6B are processed by the first image processing unit 103 and the second image processing unit 104, and then the rear display 24c and the rear surface are displayed by the image display unit 105. An example of display on the monitor 24d is shown. As shown in FIG. 3, the center 32c of the rear monitor 24c of the imaging device 1c is slightly shifted upward in the y direction with respect to the center 32d of the rear monitor 24d of the imaging device 1d. The image display unit 105 of the imaging device 1c displays the image data 52c on the rear monitor 24c while shifting the image data 52c downward in the y direction by the amount of deviation from the center 32c. As a result, the display position in the y direction of the image data 52c displayed on the rear monitor 24c of the imaging device 1c matches the display position in the y direction of the image data 52c displayed on the rear monitor 24d of the imaging device 1d. . Note that the display position may be further manually adjustable.

なお、画像表示部105は、背面モニター24a(あるいは背面モニター24c)に対し、画像データの表示のほか、図4に示すようなメニュー表示を指示したり、他の撮像装置1b(あるいは撮像装置1d)から入力される姿勢データと、自身の姿勢センサー26から出力された姿勢データとを並べて表示する指示を行うことができるようになっている。   Note that the image display unit 105 instructs the rear monitor 24a (or the rear monitor 24c) to display a menu as shown in FIG. 4 in addition to displaying image data, or other image pickup apparatus 1b (or image pickup apparatus 1d). ) And the posture data output from its own posture sensor 26 can be instructed to be displayed side by side.

情報付加部106は、画像データをメモリー23あるいはメモリカード29に保存する際に、他の撮像装置1bと同期して撮像されたことを示す識別情報を付加する処理を行う。例えば、あらかじめ、図示していない撮像装置1aに設けられた時計回路と、撮像装置1bに設けられた時計回路との時刻の同期をとっておき、情報付加部106によってその時計回路から得た時刻を表す情報を画像データに付加する処理を行う。あるいは、撮像装置1a及び撮像装置1bによって動画撮影を行う場合には、その同期がとれた時計回路の出力に基づく時刻情報を各フレームあるいは所定のフレームおきに付加する処理を、情報付加部106によって行うようにする。さらに、情報付加部106は、ユーザーによる設定に応じて、相対的位置関係検出部101によって検出された情報、すなわち、例えば撮像装置1aが右目用の位置に配置されていて、撮像装置1bが左目用の位置に配置されているという位置関係の情報に対応させて、右目用あるいは左目用のいずれかであるかを示す左右識別情報を、画像データに付加する処理を行うようにすることができる。具体的には、情報付加部106は、例えば、撮像装置1aで同じファイル名の末尾に右目用であることを示す「R」の文字を付加するとともに、撮像装置1bで同じファイル名の末尾に左目用であることを示す「L」の文字を付加する処理を行う。   The information adding unit 106 performs processing for adding identification information indicating that the image data is captured in synchronization with the other imaging device 1b when the image data is stored in the memory 23 or the memory card 29. For example, the time of a clock circuit provided in the imaging apparatus 1a (not shown) and the clock circuit provided in the imaging apparatus 1b are synchronized in advance, and the time obtained from the clock circuit by the information adding unit 106 is expressed. A process of adding information to image data is performed. Alternatively, when moving image shooting is performed by the imaging device 1a and the imaging device 1b, the information adding unit 106 performs processing for adding time information based on the output of the synchronized clock circuit to each frame or every predetermined frame. To do. Furthermore, the information adding unit 106 detects the information detected by the relative positional relationship detection unit 101 according to the setting by the user, that is, for example, the imaging device 1a is arranged at the position for the right eye, and the imaging device 1b is set to the left eye. Corresponding to the positional relationship information that is placed at the position for the left and right, it is possible to perform processing for adding left and right identification information indicating whether the eye is for the right eye or the left eye to the image data . Specifically, the information adding unit 106 adds, for example, a letter “R” indicating that it is for the right eye to the end of the same file name in the imaging device 1a, and also adds the letter “R” to the end of the same file name in the imaging device 1b. A process of adding a character “L” indicating that it is for the left eye is performed.

設定制御部107は、ユーザーによる設定に従い、自身がスレーブ、他の撮像装置1bがマスターとして設定されている場合に、マスターである他の撮像装置1bの撮影設定のデータを読み込み、マスターの設定と同一の撮影設定とする処理を行う。例えば、画像データの保存画質(圧縮率)、保存フォーマット、画像サイズ、AWBの設定値、露出の値、シャッター速度の設定等を読み込み、スレーブ側の設定をマスター側に一致させる。   The setting control unit 107 reads the shooting setting data of the other imaging device 1b that is the master, and sets the master setting and the other imaging device 1b when the user is set as the slave and the other imaging device 1b is set as the master. Processing to set the same shooting setting is performed. For example, the image data storage image quality (compression ratio), storage format, image size, AWB setting value, exposure value, shutter speed setting, and the like are read, and the slave side setting is matched with the master side.

焦点距離比較部108は、自身がマスター、他の撮像装置1bがスレーブとして設定されている場合に、撮像する際、他のスレーブの撮像装置1bの焦点距離を読み込み、読み込んだ焦点距離と、自身の焦点距離とを比較し、異なる焦点距離の場合に警報を通知する処理を行う。警報の通知は、背面モニター24にその旨を示す情報を表示することで行う。   The focal length comparison unit 108 reads the focal length of the imaging device 1b of the other slave when the imaging is performed when the imaging device 1b is set as the master and the other imaging device 1b is set as the slave. Are compared with each other, and processing for notifying an alarm when the focal length is different is performed. The notification of the alarm is performed by displaying information indicating that on the rear monitor 24.

そして、記憶制御部109は、予め設定された記憶先を示す情報に基づいて、画像データを自身のメモリー23あるいはメモリーカード29に記憶させるか、あるいは他の撮像装置1bに出力するかの制御を行う。その際、記憶制御部109は、例えば右目用の撮像装置1aにおいては撮影された画像データの向きの変換処理を行わずに方向そのままで画像データを保存し、左目用の撮像装置1bにおいては撮影された画像データの向きの180°回転させる変換処理を行った後画像データを保存する処理などを行うようにすることができる。この場合、例えば3D画像作成処理の際に、画像データを撮像装置1a又は1bの配置に合わせて回転させる処理が不要となる。   Then, the storage control unit 109 controls whether to store the image data in its own memory 23 or the memory card 29 or to output it to another imaging device 1b based on information indicating a preset storage destination. Do. At this time, for example, the storage control unit 109 stores the image data as it is without converting the direction of the captured image data in the imaging device 1a for the right eye, and captures the image in the imaging device 1b for the left eye. The image data can be stored after the conversion process for rotating the orientation of the image data 180 ° is performed. In this case, for example, in the 3D image creation process, a process of rotating the image data in accordance with the arrangement of the imaging device 1a or 1b becomes unnecessary.

なお、図8は、図2の撮像装置1aと撮像装置1b間を通信ケーブル6で接続する例を示している。また、図9は、図2の撮像装置1aと撮像装置1bの他の配置例を示している。このような配置がなされ、かつ、撮像装置1aと撮像装置1bに縦位置での撮影モードが設定されている場合には、例えば撮像装置1bの背面モニター24に左目用に設定されているのに右目用の配置がなされている旨の警報表示を行うようにすることができる。   FIG. 8 shows an example in which the imaging device 1a and the imaging device 1b in FIG. FIG. 9 shows another arrangement example of the imaging device 1a and the imaging device 1b in FIG. When such an arrangement is made and the shooting mode in the vertical position is set in the imaging device 1a and the imaging device 1b, for example, the rear monitor 24 of the imaging device 1b is set for the left eye. An alarm display indicating that the arrangement for the right eye is made can be performed.

また、図10は、撮像装置1bで撮像された画像データを、撮像装置1aのメモリー23又はメモリーカード29に転送して保存する場合の動作を示している。この場合、撮像装置1aがマスターに、撮像装置1bがスレーブに設定されているものとする。撮像装置1aでユーザーがレリーズによる撮像指示を行ったとすると、画像処理制御回路11によってレリーズ信号が検出され(S11)、撮像装置1aから撮像装置1bレリーズ要求が送信される(S12)。撮像装置1bでは、撮像及び画像処理が実施され(S14)、撮像された画像データが撮像装置1aへ送信される(S16)。次に、撮像装置1aでは、自装置で撮像した画像データと撮像装置1bで撮像された画像データとがあらかじめ設定されている形式に変換され、メモリーカード29等に記録される。その際、あらかじめ設定されているファイル名やフォルダ階層が用いられる。   FIG. 10 shows an operation when image data captured by the imaging device 1b is transferred to the memory 23 or the memory card 29 of the imaging device 1a and stored. In this case, it is assumed that the imaging device 1a is set as a master and the imaging device 1b is set as a slave. Assuming that the user has issued an image capturing instruction using the image capturing apparatus 1a, a release signal is detected by the image processing control circuit 11 (S11), and an image capturing apparatus 1b release request is transmitted from the image capturing apparatus 1a (S12). The imaging device 1b performs imaging and image processing (S14), and the captured image data is transmitted to the imaging device 1a (S16). Next, in the image pickup apparatus 1a, the image data picked up by the own apparatus and the image data picked up by the image pickup apparatus 1b are converted into a preset format and recorded in the memory card 29 or the like. At that time, a preset file name or folder hierarchy is used.

また、図11は、撮像装置1aの背面モニター24で撮像装置1aと撮像装置1bの両方の撮像情報のライブビュー表示を行う場合の処理の流れを示している。撮像装置1a(マスター設定)においてユーザーの所定の操作部28に対する操作によってライブビュー処理が指示されると、撮像装置1aの画像処理制御回路11によってライブビュースタート信号が検出される(S21)。次に、撮像装置1aからライブビュー要求が送信されるとともに(S22)、撮像装置1aで1フレーム分の処理が行われる(S23)。撮像装置1bでは、1フレーム分の処理なされたのち(S24)、データ転送処理が行われる(S25)。1フレーム分のフレームデータが撮像装置1aへ転送されると(S26)、撮像装置1aでは出力処理が行われる(S27)。撮像装置1aでは、出力処理(S27)に続いて1フレーム分の処理が行われる(S28)。他方、撮像装置1bでは、データ転送処理(S25)に続いて、1フレーム分の処理なされたのち(S29)、データ転送処理が行われる(S30)。撮像装置1aでは、転送されたフレームデータ(S31)を受信すると、出力処理(S32)が実行される。このようにして、撮像装置1aで両方の撮影画像を確認することが可能となる。   FIG. 11 shows the flow of processing when live view display of imaging information of both the imaging device 1a and the imaging device 1b is performed on the rear monitor 24 of the imaging device 1a. When live view processing is instructed by a user's operation on a predetermined operation unit 28 in the imaging apparatus 1a (master setting), a live view start signal is detected by the image processing control circuit 11 of the imaging apparatus 1a (S21). Next, a live view request is transmitted from the imaging device 1a (S22), and processing for one frame is performed in the imaging device 1a (S23). In the imaging device 1b, after one frame is processed (S24), a data transfer process is performed (S25). When the frame data for one frame is transferred to the imaging device 1a (S26), output processing is performed in the imaging device 1a (S27). In the imaging device 1a, the process for one frame is performed following the output process (S27) (S28). On the other hand, in the imaging device 1b, after the data transfer process (S25), the process for one frame is performed (S29), and then the data transfer process is performed (S30). In the imaging device 1a, when the transferred frame data (S31) is received, an output process (S32) is executed. In this way, both captured images can be confirmed by the imaging apparatus 1a.

なお、本発明の実施形態は上記のものに限定されず、例えば、撮像装置1aと撮像装置1bに装着されているレンズが異なる場合にはその旨の警報表示を行う機能を追加したり、外部に3D表示を行うことができるモニターを接続した場合には、その表示に適したデータを一方の撮像装置で生成・出力する機能を追加したり、背面モニター24を3D表示可能な構成としたり、背面モニター24に画像データを表示する場合に撮像装置1aと撮像装置1bで画像認識を用いて基準となる同一の被写体にマークを付けて表示する機能を追加したり、どちらかの撮像装置において両方の撮像装置の水準器情報を表示させる機能を追加したり、音声についてもスレーブ側の撮像装置で記録されたデータをマスター側の撮像装置へ転送してステレオ音声に変換する機能を追加したり、オートフォーカスの補助光などの反射光の最も強い位置を背面モニター24に各撮像装置において表示することで位置あわせを容易とするような機能を追加したりすることが可能である。   The embodiment of the present invention is not limited to the above-described one. For example, when the lenses mounted on the imaging device 1a and the imaging device 1b are different, a function for displaying an alarm to that effect is added, or an external When a monitor capable of performing 3D display is connected to the camera, a function for generating and outputting data suitable for the display by one imaging device is added, or the rear monitor 24 is configured to be capable of 3D display, When image data is displayed on the rear monitor 24, a function is added to display the same subject as a reference by using image recognition in the imaging device 1a and the imaging device 1b, or both in either imaging device. Add a function to display the level information of the image pickup device, or transfer the data recorded by the slave image pickup device to the master image pickup device for stereo sound. Or a function for facilitating alignment by displaying the position of the strongest reflected light such as autofocus auxiliary light on the rear monitor 24 on each imaging device. Is possible.

1a、1b、1b、1d…撮像装置、11…画像処理制御回路、24、24a、24b、24c、24d…背面モニター、30…光学系、31a、31b、31c、31d…光学系の中心、101…相対的位置関係検出部、102…撮像部 DESCRIPTION OF SYMBOLS 1a, 1b, 1b, 1d ... Imaging device, 11 ... Image processing control circuit, 24, 24a, 24b, 24c, 24d ... Rear monitor, 30 ... Optical system, 31a, 31b, 31c, 31d ... Center of optical system, 101 ... Relative positional relationship detection unit, 102 ... Imaging unit

Claims (10)

左目用と右目用との画像により立体視される立体画像用の画像データを撮像する撮像装置であり、
前記撮像装置と、他の撮像装置との相対的な位置関係を検出する検出手段と、
入力された光束を撮像して、前記検出手段が検出した位置関係に対応して左目用または右目用の前記画像データを出力する撮像部と
を有することを特徴とする撮像装置。
An imaging device that captures image data for a stereoscopic image that is stereoscopically viewed by left-eye and right-eye images;
Detecting means for detecting a relative positional relationship between the imaging device and another imaging device;
An imaging apparatus comprising: an imaging unit that images an input light beam and outputs the image data for the left eye or the right eye corresponding to the positional relationship detected by the detection unit.
前記他の撮像装置との光学系の中心のずれ量を元に、自身の撮像部が撮像した画像データと前記他の撮像装置の撮像部が撮像した画像データとの相対的な位置関係を調整する第1の画像処理部
をさらに有することを特徴とする請求項1に記載の撮像装置。
Adjusting the relative positional relationship between the image data captured by the image capturing unit and the image data captured by the image capturing unit of the other image capturing apparatus based on the amount of deviation of the center of the optical system from the other image capturing apparatus. The imaging apparatus according to claim 1, further comprising: a first image processing unit that performs the following operation.
前記画像データが縦長の場合に、前記他の撮像装置との間で予め設定された縦横比となるよう、その画像データの上下をトリミングする第2の画像処理部
をさらに有することを特徴とする請求項1または請求項2に記載の撮像装置。
When the image data is vertically long, the image data further includes a second image processing unit that trims the top and bottom of the image data so as to have a preset aspect ratio with the other imaging device. The imaging device according to claim 1 or 2.
前記画像データを表示する表示部と、
前記画像データを前記表示部に、他の撮像装置の表示部に表示されている画像データに対応する表示位置に表示させる画像表示部と
をさらに有することを特徴とする請求項1から請求項3のいずれかに記載の撮像装置。
A display unit for displaying the image data;
The image display unit further comprising: an image display unit configured to display the image data on the display unit at a display position corresponding to image data displayed on a display unit of another imaging apparatus. The imaging device according to any one of the above.
前記他の撮像装置と同期して撮像されたことを示す識別情報を付加する情報付加部
をさらに有することを特徴とする請求項1から請求項4のいずれかに記載の撮像装置。
The imaging apparatus according to claim 1, further comprising: an information adding unit that adds identification information indicating that the image is captured in synchronization with the other imaging apparatus.
前記検出手段は、右目用あるいは左目用のいずれの位置に配置されているかの前記位置関係を検出し、
前記情報付加部が前記位置関係に対応し、右目用あるいは左目用のいずれかであるかを示す左右識別情報を、前記画像データに付加する
ことを特徴とする請求項5に記載の撮像装置。
The detection means detects the positional relationship of the right eye or the left eye for the position,
The imaging apparatus according to claim 5, wherein the information adding unit adds left and right identification information corresponding to the positional relationship and indicating whether the information is for a right eye or a left eye to the image data.
前記撮像装置の姿勢を表す姿勢データを出力する姿勢センサをさらに有し、
前記画像表示部が、前記表示部に対し、前記他の撮像装置から入力される姿勢データと、自身の姿勢データとを並べて表示させる
ことを特徴とする請求項4から請求項6のいずれかに記載の撮像装置。
An attitude sensor that outputs attitude data representing the attitude of the imaging device;
The image display unit causes the display unit to display the posture data input from the other imaging device and its own posture data side by side. 7. The imaging device described.
自身がスレーブ、他の撮像装置がマスターとして設定されている場合に、マスターである他の撮像装置の撮影設定のデータを読み込み、マスターの設定と同一の撮影設定とする設定制御部
をさらに有することを特徴とする請求項1から請求項7のいずれかに記載の撮像装置。
When the device itself is set as the slave and the other image pickup device is set as the master, it further has a setting control unit that reads the shooting setting data of the other image pickup device that is the master and sets the same shooting setting as the master setting. The imaging device according to any one of claims 1 to 7, wherein
自身がマスター、他の撮像装置がスレーブとして設定されている場合に、撮像する際、他のスレーブの撮像装置の焦点距離を読み込み、読み込んだ焦点距離と、自身の焦点距離とを比較し、異なる焦点距離の場合に警報を通知する焦点距離比較部
をさらに有することを特徴とする請求項1から請求項8のいずれかに記載の撮像装置。
When the camera itself is set as the master and the other imaging device is set as the slave, when imaging, the focal length of the imaging device of the other slave is read, and the read focal length is compared with the focal length of the own device. The imaging apparatus according to claim 1, further comprising a focal length comparison unit that notifies an alarm in the case of a focal length.
予め設定された記憶先を示す情報に基づいて、前記画像データを自身の記憶部に記憶させるか、あるいは他の撮像装置に出力するかの制御を行う記憶制御部
をさらに有することを特徴とする請求項1から請求項9のいずれかに記載の撮像装置。
And a storage control unit that controls whether the image data is stored in its own storage unit or output to another imaging device based on information indicating a preset storage destination. The imaging device according to any one of claims 1 to 9.
JP2010036434A 2010-02-22 2010-02-22 Image pickup apparatus Pending JP2011172178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010036434A JP2011172178A (en) 2010-02-22 2010-02-22 Image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010036434A JP2011172178A (en) 2010-02-22 2010-02-22 Image pickup apparatus

Publications (1)

Publication Number Publication Date
JP2011172178A true JP2011172178A (en) 2011-09-01

Family

ID=44685795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010036434A Pending JP2011172178A (en) 2010-02-22 2010-02-22 Image pickup apparatus

Country Status (1)

Country Link
JP (1) JP2011172178A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9523836B2 (en) 2011-09-01 2016-12-20 Panasonic Intellectual Property Management Co., Ltd. Image pickup device and program
WO2018051491A1 (en) * 2016-09-16 2018-03-22 三菱電機株式会社 Multiple-lens camera display control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9523836B2 (en) 2011-09-01 2016-12-20 Panasonic Intellectual Property Management Co., Ltd. Image pickup device and program
WO2018051491A1 (en) * 2016-09-16 2018-03-22 三菱電機株式会社 Multiple-lens camera display control device
JP6328361B1 (en) * 2016-09-16 2018-05-23 三菱電機株式会社 Multi-camera display control device

Similar Documents

Publication Publication Date Title
JP5681329B2 (en) Imaging apparatus and image display method
JP6187571B2 (en) Imaging device
JP6071436B2 (en) Imaging apparatus, imaging method, and program
JP2011211541A (en) Imaging device, method for controlling the same, program, and recording medium
KR20130069123A (en) Image pickup apparatus, method for providing composition of pickup and computer-readable recording medium
JP2011166756A (en) Photographing apparatus and photographing system
JPH11341522A (en) Stereoscopic image photographing device
JP2012239229A (en) Imaging device, printing device, printing system, printing method, display device, display system, and display method
JP5275789B2 (en) camera
JP2008205569A (en) Imaging apparatus and method
JP2012049999A (en) Imaging apparatus and posture adjustment program
JP2007166420A (en) Camera system and digital camera
JP2009077090A (en) Imaging apparatus, imaging system, and image reading system
JP2010157851A (en) Camera and camera system
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
US20130088580A1 (en) Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded
JP2011172178A (en) Image pickup apparatus
JP2009260599A (en) Image display apparatus and electronic camera
JP2011041133A (en) Photographing device and photographing method
JP2009111827A (en) Photographing apparatus and image file providing system
JP2006148701A (en) System and method of calibrating position of digital camera
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP2006033395A (en) Image pickup device and stereoscopic image pickup system
JP2011182328A (en) Compound-eye imaging apparatus
JP2008294954A (en) Camera system and remote control unit