JP6858059B2 - Imaging device and its control method, program, storage medium - Google Patents

Imaging device and its control method, program, storage medium Download PDF

Info

Publication number
JP6858059B2
JP6858059B2 JP2017074750A JP2017074750A JP6858059B2 JP 6858059 B2 JP6858059 B2 JP 6858059B2 JP 2017074750 A JP2017074750 A JP 2017074750A JP 2017074750 A JP2017074750 A JP 2017074750A JP 6858059 B2 JP6858059 B2 JP 6858059B2
Authority
JP
Japan
Prior art keywords
focus
panning
image
imaging
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017074750A
Other languages
Japanese (ja)
Other versions
JP2018180063A (en
Inventor
平 池田
平 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017074750A priority Critical patent/JP6858059B2/en
Publication of JP2018180063A publication Critical patent/JP2018180063A/en
Application granted granted Critical
Publication of JP6858059B2 publication Critical patent/JP6858059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、パノラマ画像を撮像可能な撮像装置に関する。 The present invention relates to an imaging device capable of capturing a panoramic image.

従来より、例えば特許文献1に開示されているように、撮像装置をパンニングさせながら静止画を連続撮影し、連続撮影した静止画を合成することによりパノラマ画像を生成する手法が提案されている。 Conventionally, for example, as disclosed in Patent Document 1, a method has been proposed in which a still image is continuously photographed while panning an imaging device, and a panoramic image is generated by synthesizing the continuously photographed still images.

特開2010−28764号公報Japanese Unexamined Patent Publication No. 2010-28764

特許文献1に記載された撮像装置では、フォーカス、絞り、シャッター速度等の撮影条件を1枚目の画像を撮影する前に決定した撮影条件に固定して連続撮影を行う。しかしながら、パンニング撮影中に最初にピントを合わせた被写体の距離とは異なる距離にある被写体が入ってきた場合には、ピントの合っていない被写体が含まれるパノラマ画像となってしまう。例えば、主要な被写体にピントを合わせてからパンニング撮影を始めた場合は良い結果が得られる場合もある。しかし、主要な被写体ではないパンニング開始位置の被写体にピントを合わせてしまった場合などでは、撮影したかった主要な被写体にピントが合っていないパノラマ画像となってしまうことが考えられる。 In the image pickup apparatus described in Patent Document 1, shooting conditions such as focus, aperture, and shutter speed are fixed to shooting conditions determined before shooting the first image, and continuous shooting is performed. However, if a subject at a distance different from the distance of the subject that was first focused during panning shooting comes in, the panoramic image will include the subject that is out of focus. For example, good results may be obtained if panning shooting is started after focusing on the main subject. However, if the subject at the panning start position, which is not the main subject, is in focus, the panoramic image may be out of focus on the main subject to be photographed.

本発明は上述した課題に鑑みてなされたものであり、その目的は、被写界全体にピントの合ったパノラマ画像の生成が可能な撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an imaging device capable of generating a panoramic image in focus over the entire field of view.

本発明に係わる撮像装置は、被写体像を撮像する撮像手段と、前記撮像手段により撮像された画像に基づいて、撮影光学系の焦点状態を検出する焦点検出手段と、前記焦点検出手段により検出された焦点状態に基づいて、前記撮影光学系の焦点を調節する焦点調節手段と、撮像装置をパンニングさせながら前記撮像手段により複数回の撮像を行って得られた複数の画像のそれぞれから一部領域を切り出して、前記複数の画像のそれぞれの一部領域を合成してパノラマ画像を生成する生成手段と、前記撮像装置をパンニングさせるときに、前記それぞれの画像の前記一部領域よりも前記パンニングの進行方向前方側に前記焦点検出手段による焦点の評価領域を設定する設定手段と、前記複数回の撮像のうちの連続する2つの撮像の間の前記焦点調節手段による焦点調節の移動量が所定の閾値以上である場合に、ユーザに前記パンニングの速度を遅くするように警告する警告手段と、を備えることを特徴とする。 The imaging apparatus according to the present invention is detected by an imaging means for capturing a subject image, a focus detecting means for detecting a focal state of a photographing optical system based on an image captured by the imaging means, and the focal detecting means. A part of a region from each of the focus adjusting means for adjusting the focus of the photographing optical system based on the focused state and the plurality of images obtained by performing multiple imagings by the imaging means while panning the imaging device. And a generation means for generating a panoramic image by synthesizing a part of each region of the plurality of images, and when panning the image pickup apparatus, the panning of the panning is more than the part of the region of each image. The amount of movement of the focus adjustment by the focus adjustment means between the setting means for setting the evaluation area of the focus by the focus detection means on the front side in the traveling direction and the two consecutive imagings in the plurality of imagings is predetermined. It is characterized by providing a warning means for warning the user to slow down the panning speed when the value is equal to or higher than the threshold value.

本発明によれば、被写界全体にピントの合ったパノラマ画像の生成が可能な撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging device capable of generating a panoramic image in focus over the entire field of view.

本発明の一実施形態に係わる撮像装置の外観を示す図。The figure which shows the appearance of the image pickup apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係わる撮像装置の構成を示すブロック図。The block diagram which shows the structure of the image pickup apparatus which concerns on one Embodiment of this invention. 撮像素子の1画素の構成を示す概略図。The schematic diagram which shows the structure of 1 pixel of an image sensor. 物体の結像関係を模式的に示す図。The figure which shows typically the image formation relation of an object. パンニングの方向と画像の切り抜き領域を示す図。The figure which shows the direction of panning and the cropping area of an image. パノラマ撮影の処理の流れと画像データとの対応関係を示す図。The figure which shows the correspondence relationship between the process flow of panoramic photography and image data. パノラマ撮影の動作を示すフローチャート。A flowchart showing the operation of panoramic shooting.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の撮像装置の一実施形態であるデジタルカメラ100の外観図である。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is an external view of a digital camera 100, which is an embodiment of the imaging device of the present invention.

図1において、表示部28は画像や各種情報を表示する表示部である。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。コネクタ112は接続ケーブル111とデジタルカメラ100とのコネクタである。操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材から成る操作部である。電源スイッチ72は、電源のオン、オフを切り替える。記録媒体200はメモリカードやハードディスク等の記録媒体である。記録媒体スロット201は記録媒体200を格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となる。蓋203は記録媒体スロット201の蓋である。 In FIG. 1, the display unit 28 is a display unit that displays images and various information. The shutter button 61 is an operation unit for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The connector 112 is a connector between the connection cable 111 and the digital camera 100. The operation unit 70 is an operation unit composed of operation members such as various switches, buttons, and a touch panel that receive various operations from the user. The power switch 72 switches the power on and off. The recording medium 200 is a recording medium such as a memory card or a hard disk. The recording medium slot 201 is a slot for storing the recording medium 200. The recording medium 200 stored in the recording medium slot 201 can communicate with the digital camera 100. The lid 203 is a lid of the recording medium slot 201.

図2は、デジタルカメラ100の構成を示すブロック図である。図2において、撮影レンズ103(撮影光学系)はズームレンズ、フォーカスレンズを含むレンズ群を有し、被写体像を結像させる。シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子と、AF評価値検出部23とを有する。撮像素子は、二次元状に配置された画素のそれぞれが複数の光電変換領域を有する。そして、各画素内で同じ位置に存在する光電変換領域群の出力から1つの視点の画像がそれぞれ形成されるため、1つの撮像素子で視点の異なる複数の視差画像を取得することができる。また、同時に画素ごとに複数の光電変換領域の出力を加算することで、各画素が1つの光電変換領域を有する通常の撮像素子で得られる撮像画像を取得することができる。 FIG. 2 is a block diagram showing the configuration of the digital camera 100. In FIG. 2, the photographing lens 103 (photographing optical system) has a lens group including a zoom lens and a focus lens, and forms a subject image. The shutter 101 is a shutter having an aperture function. The image pickup unit 22 includes an image pickup element composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal, and an AF evaluation value detection unit 23. In the image pickup device, each of the pixels arranged in two dimensions has a plurality of photoelectric conversion regions. Then, since an image of one viewpoint is formed from the output of the photoelectric conversion region group existing at the same position in each pixel, it is possible to acquire a plurality of parallax images having different viewpoints with one image sensor. Further, by simultaneously adding the outputs of a plurality of photoelectric conversion regions for each pixel, it is possible to acquire an image captured by a normal image sensor in which each pixel has one photoelectric conversion region.

本実施形態では、各画素が独立した2つの光電変換領域(フォトダイオード)A,Bを有して構成されている。光電変換領域Aの出力と、光電変換領域Bの出力とをそれぞれ独立した画像として取得することにより、2つの視差画像A,Bを取得することができる。また、光電変換領域AとBの出力を画素ごとに加算することにより、通常の撮像画像を取得することができる。なお、撮像画像は、例えば後述する画像処理部24でそれぞれの画素の複数の光電変換部の信号を加算合成して得られる例について説明するが、撮像部22で加算合成を行って取得してもよい。このように、視差画像A,Bと撮像画像は一度の撮影(露光)で取得できる。 In this embodiment, each pixel has two independent photoelectric conversion regions (photodiodes) A and B. By acquiring the output of the photoelectric conversion region A and the output of the photoelectric conversion region B as independent images, the two parallax images A and B can be acquired. Further, by adding the outputs of the photoelectric conversion regions A and B for each pixel, a normal captured image can be acquired. An example in which the captured image is obtained by adding and synthesizing the signals of a plurality of photoelectric conversion units of each pixel by the image processing unit 24, which will be described later, will be described. May be good. In this way, the parallax images A and B and the captured image can be acquired by one shooting (exposure).

なお、本実施形態の説明においては2つの視差画像を同時に取得する場合について説明するが、撮像面近傍に入射する光束をより多数の画素(例えば3×3画素)で受光してより多くの視差画像を同時に取得する構成であってもよい。また撮像部22はA/D変換処理機能を備えている。 In the description of the present embodiment, the case where two parallax images are acquired at the same time will be described, but the light flux incident on the vicinity of the imaging surface is received by a larger number of pixels (for example, 3 × 3 pixels) to receive more parallax. The configuration may be such that images are acquired at the same time. Further, the imaging unit 22 has an A / D conversion processing function.

AF評価値検出部(焦点検出部)23ではデジタル画像信号から得られるコントラスト情報や視差画像から得られる位相差からAF評価値(焦点状態)を算出し、得られたAF評価値を撮像部22からシステム制御部50に出力する。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッター101、撮像部22を含む撮像系の汚れや破損を防止する。ストロボ90は、撮影時に発光させることにより低照度シーンでの撮影や逆光シーンでの撮影時に照度を補うことができる。 The AF evaluation value detection unit (focus detection unit) 23 calculates the AF evaluation value (focus state) from the contrast information obtained from the digital image signal and the phase difference obtained from the parallax image, and the obtained AF evaluation value is used in the imaging unit 22. Is output to the system control unit 50. The barrier 102 covers the imaging system including the photographing lens 103 of the digital camera 100 to prevent the imaging system including the photographing lens 103, the shutter 101, and the imaging unit 22 from being soiled or damaged. By emitting light at the time of shooting, the strobe 90 can supplement the illuminance at the time of shooting in a low illuminance scene or in a backlit scene.

画像処理部24は、撮像部22から出力される画像データ、又はメモリ制御部15からの画像データに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では被写体の距離情報を取得することができる。入力した2つの視差画像から位相差を検出することで被写体までの距離を取得し、撮像部22から被写体までの距離情報を画素ごとに取得することが可能である。さらに、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAE(自動露出)処理、EF(フラッシュ自動調光発光)処理が行われる。また画像処理部24ではAF(オートフォーカス)処理が行われるが、このとき撮像部22に備えるAF評価値検出部23の出力が用いられることもある。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。また、画像処理部24では、複数回の撮像により得られた複数枚の画像を合成する処理を行い、パノラマ画像の生成も行う。 The image processing unit 24 performs resizing processing and color conversion processing such as predetermined pixel interpolation and reduction on the image data output from the imaging unit 22 or the image data from the memory control unit 15. In addition, the image processing unit 24 can acquire distance information of the subject. It is possible to acquire the distance to the subject by detecting the phase difference from the two input parallax images, and to acquire the distance information from the imaging unit 22 to the subject for each pixel. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through the lens) type AE (automatic exposure) processing and EF (flash automatic dimming / light emission) processing are performed. Further, the image processing unit 24 performs AF (autofocus) processing, and at this time, the output of the AF evaluation value detection unit 23 provided in the image pickup unit 22 may be used. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL-type AWB (auto white balance) process based on the obtained calculation result. In addition, the image processing unit 24 performs a process of synthesizing a plurality of images obtained by a plurality of imagings, and also generates a panoramic image.

撮像部22の出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって取得およびA/D変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。撮像部22で一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、表示部28が電子ビューファインダとして機能し、スルー画像表示を行うことができる。 The output data of the imaging unit 22 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores image data acquired and A / D converted by the imaging unit 22 and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio. Further, the memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. In this way, the display image data written in the memory 32 is displayed by the display unit 28 via the D / A converter 13. The display unit 28 displays on a display such as an LCD according to the analog signal from the D / A converter 13. The digital signal once A / D converted by the imaging unit 22 and stored in the memory 32 is analog-converted by the D / A converter 13 and sequentially transferred to the display unit 28 for display, so that the display unit 28 displays the electronic viewfinder. It functions as a through image display.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばフラッシュメモリ等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態において後述するフローチャートを実行するためのプログラムのことである。 The non-volatile memory 56 is a memory that can be electrically erased and recorded, and for example, a flash memory or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing the flowchart described later in this embodiment.

システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。 The system control unit 50 controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment described later is realized. For the system memory 52, for example, RAM is used. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ63、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock. The mode changeover switch 60, the first shutter switch 62, the second shutter switch 63, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50.

モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード、パノラマ撮影モード等がある。モード切り替えスイッチ60で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切り替えスイッチ60で静止画撮影モードに一旦切り換えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a playback mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each shooting scene, a program AE mode, a custom mode, a panoramic shooting mode, and the like. The mode changeover switch 60 directly switches to any of these modes included in the still image shooting mode. Alternatively, after switching to the still image shooting mode once with the mode changeover switch 60, the mode may be switched to any of these modes included in the still image shooting mode by using another operating member. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュ自動調光発光)処理等の動作を開始する。 The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash automatic dimming / light emission) processing.

第2シャッタースイッチ63は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The second shutter switch 63 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processing operations from reading the signal from the imaging unit 22 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 and the up / down / left / right four-direction buttons and the SET button.

電源制御部41は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部41は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。 The power supply control unit 41 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 41 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

電源部40は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池やLiイオン電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The power supply unit 40 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery or a Li ion battery, an AC adapter or the like. The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

検出部80は、ジャイロセンサやその他のセンサを含み、デジタルカメラ100の角速度情報、姿勢情報等を取得する。なお、角速度情報は、デジタルカメラ100によるパンニング撮影時の角速度及び角加速度の情報を含む。また、姿勢情報は、水平方向に対するデジタルカメラ100の傾き等の情報を含む。 The detection unit 80 includes a gyro sensor and other sensors, and acquires angular velocity information, attitude information, and the like of the digital camera 100. The angular velocity information includes information on the angular velocity and the angular acceleration during panning shooting by the digital camera 100. Further, the posture information includes information such as the inclination of the digital camera 100 with respect to the horizontal direction.

図3は撮像部22に含まれる撮像素子22aの1画素の構成を概略的に示した図である。301は画素を表す。1つの画素は、マイクロレンズ302を有する。また一つの画素は、複数の光電変換領域としての複数のフォトダイオード(以下、PD)を有する。図3では、1つの画素が2つのPD303,304を有する例を示しているが、2つ以上であれば個数に限定はない。 FIG. 3 is a diagram schematically showing the configuration of one pixel of the image pickup device 22a included in the image pickup unit 22. 301 represents a pixel. One pixel has a microlens 302. Further, one pixel has a plurality of photodiodes (hereinafter, PD) as a plurality of photoelectric conversion regions. FIG. 3 shows an example in which one pixel has two PDs 303 and 304, but the number is not limited as long as it is two or more.

図4は、撮影レンズ103の射出瞳406から出射した光束が撮像素子22aに入射する様子を概念的に示した図である。図4において、401は画素アレイの断面、302はマイクロレンズ、403はカラーフィルタ、303,304は図3に示したPDである。406は撮影レンズ103の射出瞳を示す。 FIG. 4 is a diagram conceptually showing how the luminous flux emitted from the exit pupil 406 of the photographing lens 103 is incident on the image sensor 22a. In FIG. 4, 401 is a cross section of a pixel array, 302 is a microlens, 403 is a color filter, and 303 and 304 are PDs shown in FIG. Reference numeral 406 indicates the exit pupil of the photographing lens 103.

ここではマイクロレンズ302を有する画素に対して、射出瞳406から出射した光束の中心を光軸409とする。射出瞳406から出射した光は光軸409を中心として撮像素子22aに入射される。407,408は撮影レンズ103の射出瞳の一部領域を示す。射出瞳406の一部領域407を通過する光の最外周の光線を410,411で示し、射出瞳の一部領域408を通過する光の最外周の光線を412,413で示す。 Here, with respect to the pixel having the microlens 302, the center of the light flux emitted from the exit pupil 406 is set to the optical axis 409. The light emitted from the exit pupil 406 is incident on the image sensor 22a centering on the optical axis 409. Reference numerals 407 and 408 indicate a part of the exit pupil of the photographing lens 103. The outermost light rays passing through the partial region 407 of the exit pupil 406 are indicated by 410 and 411, and the outermost light rays passing through the partial region 408 of the exit pupil are indicated by 421 and 413.

図4からわかるように、射出瞳406から出射する光束のうち、光軸409を境にして、上側の光束はPD304に入射し、下側の光束はPD303に入射する。つまり、PD303,304はそれぞれ撮影レンズ103の射出瞳406の異なる領域の光を受光している。ここでPD303で受光した信号をA像、PD304で受光した信号をB像とすると、A像とB像の対の信号の位相差に基づいて焦点ズレ量を算出でき、距離情報を取得することができる。 As can be seen from FIG. 4, of the luminous flux emitted from the exit pupil 406, the upper luminous flux is incident on the PD 304 and the lower luminous flux is incident on the PD 303 with the optical axis 409 as a boundary. That is, PD 303 and 304 receive light in different regions of the exit pupil 406 of the photographing lens 103, respectively. Here, assuming that the signal received by the PD 303 is an A image and the signal received by the PD 304 is a B image, the amount of defocus can be calculated based on the phase difference between the paired signals of the A image and the B image, and the distance information can be acquired. Can be done.

次にパンニングによるパノラマ画像の撮影方法とその画像合成方法の詳細について、図5、図6を用いて説明する。 Next, the details of the panoramic image capturing method and the image composition method by panning will be described with reference to FIGS. 5 and 6.

図5の間隔の広い斜線のハッチング領域は画像データの切り抜き領域を示し、狭い斜線のハッチング領域は次の撮影時のフォーカス位置を決定するための距離情報評価領域を示し、黒く塗りつぶされた矢印はパンニングの方向を示す。 The hatched areas with wide diagonal lines in FIG. 5 indicate the cropped areas of image data, the hatched areas with narrow diagonal lines indicate the distance information evaluation area for determining the focus position at the next shooting, and the arrows filled in black indicate the distance information evaluation area. Indicates the direction of panning.

図5(a)は、撮像素子22aの有効画像領域を示しており、Wvが水平方向の有効画素数で、Hvが垂直方向の有効画素数である。図5(b)は、画像データの切り抜き領域を示しており、Wcropが水平方向の切り抜き画素数で、Hcropが垂直方向の切り抜き画素数である。図5(c)は右方向に、図5(d)は左方向に、図5(e)は上方向に、図5(f)は下方向にパンニングした場合の画像の切り抜き領域および距離情報評価領域を示している。右または左方向にパンニングした場合の水平方向の画像データの切り抜きは、Wv>Wcropとし、垂直方向の画像データの切り抜きは、Hv=Hcropとする。上または下方向にパンニングした場合の水平方向の画像データの切り抜きは、Wv=Wcropとし、垂直方向の画像データの切り抜きは、Hv>Hcropとする。 FIG. 5A shows an effective image region of the image sensor 22a, where Wv is the number of effective pixels in the horizontal direction and Hv is the number of effective pixels in the vertical direction. FIG. 5B shows a cropped area of image data, in which Wcrop is the number of cropped pixels in the horizontal direction and Hcrop is the number of cropped pixels in the vertical direction. FIG. 5 (c) is to the right, FIG. 5 (d) is to the left, FIG. 5 (e) is to the top, and FIG. 5 (f) is the cropped area and distance information of the image when panned downward. The evaluation area is shown. When panning to the right or left, the crop of the image data in the horizontal direction is Wv> Wcrop, and the crop of the image data in the vertical direction is Hv = Hcrop. When panning in the upward or downward direction, the cropping of the image data in the horizontal direction is Wv = Wcrop, and the cropping of the image data in the vertical direction is Hv> Hcrop.

撮影した画像データの切り抜き領域は、画像データ毎に異なる大きさの切り抜き領域としてもよい。また、パンニング開始時とパンニング終了時の画像データは、画角を広くするために切り抜き領域を広くしてもよい。画像データの切り抜き領域の決定方法は、例えば撮影直後のカメラの角度と1フレーム前のカメラの角度の差などにより決定する。このように画像データを切り抜いてパノラマ合成処理に必要な画像データ領域を保存することで、メモリ容量を節約することができる。 The cut-out area of the captured image data may be a cut-out area having a different size for each image data. Further, the image data at the start of panning and at the end of panning may have a wide cutout area in order to widen the angle of view. The method of determining the cropped area of the image data is determined by, for example, the difference between the angle of the camera immediately after shooting and the angle of the camera one frame before. By cutting out the image data in this way and saving the image data area required for the panoramic composition processing, the memory capacity can be saved.

距離情報評価領域はパンニングの進行方向前方側かつ画像の切り抜き領域の外側の領域を含むように設定する。つまり、距離情報評価領域は図5(c)のように右方向にパンニングした場合、画像の切り抜き領域の右側を含むように、図5(d)のように左方向にパンニングした場合、画像の切り抜き領域の左側を含むようにする。また、図5(e)のように上方向にパンニングした場合、画像の切り抜き領域の上側を含むように、図5(f)のように下方向にパンニングした場合、画像の切り抜き領域の下側を含むようにする。このように、距離情報評価領域をパンニングの進行方向に応じて設定することで、次の撮影における画像データの切り抜き領域に含まれる被写体の距離情報に基づいてフォーカス位置を決定することができる。そして、被写界全体にピントの合ったパノラマ画像を生成することができる。 The distance information evaluation area is set so as to include an area on the front side in the panning traveling direction and outside the cropping area of the image. That is, when the distance information evaluation area is panned to the right as shown in FIG. 5 (c) and panned to the left as shown in FIG. 5 (d) so as to include the right side of the cropped area of the image, the image is displayed. Include the left side of the crop area. Further, when panning upward as shown in FIG. 5 (e), the upper side of the cropped area of the image is included, and when panning downward as shown in FIG. 5 (f), the lower side of the cropped area of the image is included. To include. By setting the distance information evaluation area according to the panning traveling direction in this way, the focus position can be determined based on the distance information of the subject included in the cutout area of the image data in the next shooting. Then, it is possible to generate a panoramic image in which the entire field of view is in focus.

次にパノラマ画像の合成方法について説明する。システム制御部50は、パンニング撮影時に切り抜かれて保存された画像データをメモリ32から読み出し、読み出した画像データに対応する画像間の位置ずれを検出する。位置ずれの検出は、切り抜き領域を任意のサイズの小ブロックに分割して、小ブロック毎に輝度のSAD(Sum of Absolute Difference)が最小となる対応点を算出して動きベクトルを算出する方法等により行うことができる。なお、動きベクトルの算出は、検出部80によって検出される角速度情報あるいは位置情報、姿勢情報等を用いて行ってもよいし、両方の情報を総合して算出するようにしてもよい。続いて、システム制御部50は、隣り合う切り抜き領域の画像間で算出した動きベクトルに基づいて、切り抜き領域の画像間の位置ずれを補正し、切り抜き領域の画像間の重複部を加重加算等により合成する。 Next, a method of synthesizing panoramic images will be described. The system control unit 50 reads the image data cut out and saved at the time of panning shooting from the memory 32, and detects the positional deviation between the images corresponding to the read image data. To detect misalignment, a method of dividing the cutout area into small blocks of an arbitrary size, calculating the corresponding point at which the brightness SAD (Sum of Absolute Difference) is minimized for each small block, and calculating the motion vector, etc. Can be done by. The motion vector may be calculated by using the angular velocity information, the position information, the posture information, or the like detected by the detection unit 80, or the motion vector may be calculated by combining both information. Subsequently, the system control unit 50 corrects the positional deviation between the images in the cropped region based on the motion vector calculated between the images in the adjacent cropped regions, and weights and adds the overlapping portions between the images in the cropped region. Synthesize.

図6は、本実施形態における合成処理の流れと、画像データとの対応関係を示す図である。図6の601,602は、被写界にある近距離の被写体(家および木)を、603は遠距離の被写体(並木)を示す。また、図5と同様に、広い斜線のハッチング領域は画像データの切り抜き領域を示し、狭い斜線のハッチング領域は次の撮影時のフォーカス位置を決定するための距離情報評価領域を示し、黒く塗りつぶされた矢印はパンニングの方向を示す。さらに、大きいドットで示された領域はピントの合っている領域、小さいドットで示された領域はピントの合っていない領域を模式的に表す。 FIG. 6 is a diagram showing a correspondence relationship between the flow of the synthesis process in the present embodiment and the image data. 601 and 602 in FIG. 6 show short-distance subjects (houses and trees) in the field of view, and 603 shows long-distance subjects (row of trees). Further, as in FIG. 5, the hatched area with wide diagonal lines indicates the cutout area of the image data, and the hatched area with narrow diagonal lines indicates the distance information evaluation area for determining the focus position at the time of the next shooting, and is filled in black. The arrow indicates the direction of panning. Further, the region indicated by the large dot schematically represents the in-focus region, and the region indicated by the small dot schematically represents the out-of-focus region.

図6(a)は、第1シャッタースイッチ62および第2シャッタースイッチ63が押された場所とする。ユーザは、合成しようとしているパノラマ画像の一方の端に被写界を設定している。図6(b)、図6(c)は、合成しようとしているパノラマ画像の他方の端に向けてデジタルカメラ100をパンニングさせながら、連続撮影を行っている状態を模式的に示している。図6(b)においては、近距離の被写体601,602にピントが合っている状態で撮影が行われる。このとき、パンニングの進行方向、つまり画像データの切り抜き領域の右側の距離情報評価領域における距離情報から、次の撮影での画像データの切り抜き領域の被写体の距離を判定する。図6(b)では、距離情報評価領域、つまり、次の撮影での画像データの切り抜き領域の被写体が遠距離の被写体603であるため、遠距離の被写体603にピントを合わせて、図6(c)においては、遠距離の被写体603にピントが合っている状態で撮影が行われる。図6(d)は、設定された角度までデジタルカメラ100のパンニングが行われ、連続撮影が終了した状態を示している。図6(f)は、撮影された複数の画像(静止画)から合成されたパノラマ画像を示している。 FIG. 6A is a place where the first shutter switch 62 and the second shutter switch 63 are pressed. The user sets the field of view at one end of the panoramic image to be combined. 6 (b) and 6 (c) schematically show a state in which continuous shooting is performed while panning the digital camera 100 toward the other end of the panoramic image to be combined. In FIG. 6B, shooting is performed in a state where the subjects 601 and 602 at a short distance are in focus. At this time, the distance of the subject in the cutout area of the image data in the next shooting is determined from the distance information in the distance information evaluation area on the right side of the panning traveling direction, that is, the cutout area of the image data. In FIG. 6B, since the subject in the distance information evaluation area, that is, the image data cropping area in the next shooting is the long-distance subject 603, the subject in the long-distance subject 603 is focused and shown in FIG. 6 (b). In c), shooting is performed in a state where the subject 603 at a long distance is in focus. FIG. 6D shows a state in which the digital camera 100 is panned to a set angle and continuous shooting is completed. FIG. 6 (f) shows a panoramic image synthesized from a plurality of captured images (still images).

このように、撮影時にパンニングの進行方向に位置する距離情報評価領域における距離情報に基づき、次の撮影時のフォーカス位置を決定することで、被写界全体にピントの合ったパノラマ画像を生成することができる。 In this way, by determining the focus position at the time of the next shooting based on the distance information in the distance information evaluation area located in the traveling direction of panning at the time of shooting, a panoramic image in focus over the entire field of view is generated. be able to.

図7は、本実施形態の処理の流れを示すフローチャートである。ユーザがモード切替スイッチ60によりパノラマ撮影モードを選択した場合に図7の処理が実行される。図7の各ステップの処理は、システム制御部50が、不揮発性メモリ56から読み出した所定のプログラムをシステムメモリ52上に展開し、デジタルカメラ100を構成する各部の動作や処理を制御することによって実現される。 FIG. 7 is a flowchart showing the processing flow of the present embodiment. When the user selects the panoramic shooting mode with the mode changeover switch 60, the process of FIG. 7 is executed. The processing of each step in FIG. 7 is performed by the system control unit 50 deploying a predetermined program read from the non-volatile memory 56 on the system memory 52 and controlling the operation and processing of each unit constituting the digital camera 100. It will be realized.

ステップS101において、システム制御部50は、操作部70が操作されたことによってパンニング条件設定ボタンが押下されたか否かを判定する。なお、パンニング条件設定ボタンは、操作部70により実現される機能ボタンの1つである。システム制御部50は、パンニング条件設定ボタンが押下された場合(S101でYES)、処理をステップS102へ進め、パンニング条件設定ボタンが押下されない場合(S101でNO)、処理をステップS103へ進める。 In step S101, the system control unit 50 determines whether or not the panning condition setting button has been pressed due to the operation of the operation unit 70. The panning condition setting button is one of the function buttons realized by the operation unit 70. The system control unit 50 advances the process to step S102 when the panning condition setting button is pressed (YES in S101), and proceeds to step S103 when the panning condition setting button is not pressed (NO in S101).

システム制御部50は、ステップS102においてユーザによるパンニング撮影の撮影条件(パンニングの方向や角度、AFの固定/追従(焦点設定))の変更を受け付け、受け付けた条件を不揮発性メモリ56に記憶し、その後、処理をステップS103へ進める。なお、パンニング条件設定ボタンが押下されなかった場合であって、パンニング撮影を初めて行う場合には、デフォルトの設定条件が適用される。 The system control unit 50 receives a change in the shooting conditions (panning direction and angle, AF fixing / following (focus setting)) of the panning shooting by the user in step S102, stores the received conditions in the non-volatile memory 56, and stores the received conditions in the non-volatile memory 56. After that, the process proceeds to step S103. If the panning condition setting button is not pressed and the panning shooting is performed for the first time, the default setting condition is applied.

ステップS103においてシステム制御部50は、シャッターボタン61の第1シャッタースイッチ62がオンした否か(第1シャッタースイッチ信号SW1が発生したか否か)を判定する。システム制御部50は、第1シャッタースイッチ62がオンした場合(S103でYES)、処理をステップS104へ進め、第1シャッタースイッチ62がオンしていない場合(S103でNO)、処理をステップS101へ戻す。 In step S103, the system control unit 50 determines whether or not the first shutter switch 62 of the shutter button 61 is turned on (whether or not the first shutter switch signal SW1 is generated). When the first shutter switch 62 is turned on (YES in S103), the system control unit 50 advances the process to step S104, and when the first shutter switch 62 is not turned on (NO in S103), the system control unit 50 advances the process to step S101. return.

ステップS104においてシステム制御部50は、AE処理とAF処理(自動焦点調節処理)を行う。続くステップS105においてシステム制御部50は、ステップS104でのAE処理結果に基づき撮影条件(露出、撮影感度、WB等)を決定する。なお、後のステップS109では、ステップS102においてAFの固定設定がなされていた場合、ステップS104のAF処理で被写体にフォーカスを合わせたときのレンズ位置に撮影レンズ103が固定された状態で撮影が行われる。 In step S104, the system control unit 50 performs AE processing and AF processing (automatic focus adjustment processing). In the following step S105, the system control unit 50 determines the shooting conditions (exposure, shooting sensitivity, WB, etc.) based on the AE processing result in step S104. In the subsequent step S109, if the AF is fixed in step S102, shooting is performed with the photographing lens 103 fixed at the lens position when the subject is focused by the AF process in step S104. It is said.

次に、ステップS106においてシステム制御部50は、第2シャッタースイッチ63がオンしたか否か(第2シャッタースイッチ信号SW2が発生したか否か)を判定する。システム制御部50は、第2シャッタースイッチ63がオンしない場合(S106でNO)、処理をステップS107へ進め、第2シャッタースイッチ63がオンした場合(S106でYES)、処理をステップS108へ進める。 Next, in step S106, the system control unit 50 determines whether or not the second shutter switch 63 is turned on (whether or not the second shutter switch signal SW2 is generated). The system control unit 50 advances the process to step S107 when the second shutter switch 63 is not turned on (NO in S106), and proceeds to step S108 when the second shutter switch 63 is turned on (YES in S106).

ステップS107においてシステム制御部50は、第1シャッタースイッチ62がオンされたままか否かを判定する。システム制御部50は、第1シャッタースイッチ62がオンしたままの場合(S107でYES)、ステップS106に戻りステップS106で第2シャッタースイッチ63がオンされるまで繰り返す。第1シャッタースイッチ62がオフされていた場合(S107でNO)、ステップS101に戻る。 In step S107, the system control unit 50 determines whether or not the first shutter switch 62 remains on. If the first shutter switch 62 remains on (YES in S107), the system control unit 50 returns to step S106 and repeats until the second shutter switch 63 is turned on in step S106. When the first shutter switch 62 is turned off (NO in S107), the process returns to step S101.

ステップS108においてシステム制御部50は、デジタルカメラ100の各部を制御して撮影処理(1枚の画像の撮影)を実行する。その際、撮像画像と同時に視差画像A,Bを一度の撮影(露光)で取得し、メモリ32に保存する。 In step S108, the system control unit 50 controls each unit of the digital camera 100 to execute a shooting process (shooting one image). At that time, the parallax images A and B are acquired at the same time as the captured image in one shooting (exposure) and stored in the memory 32.

そして、ステップS109においてシステム制御部50は、撮影された画像データを画像処理部24によりパンニングの方向に応じて短冊状に切り抜き、逐次、合成することによりパノラマ画像を合成する。このとき、各回の撮影が行われる度に、前回までの撮影によって得られた合成画像の端部に、今回の撮影で得られた画像から切り抜いた短冊状の切り抜き領域の画像を付加するように合成することにより、パノラマ画像を合成していく。 Then, in step S109, the system control unit 50 synthesizes the panoramic image by cutting out the captured image data into strips according to the panning direction by the image processing unit 24 and sequentially combining them. At this time, each time each shooting is performed, an image of a strip-shaped cropped area cut out from the image obtained in this shooting is added to the edge of the composite image obtained in the previous shooting. By synthesizing, the panoramic image is combined.

この際、前回の撮影後にフォーカス移動があったか否かに応じて、合成処理における画像間の位置ずれの検出方法を変更するようにしてもよい。前回の撮影後にフォーカス移動がなかった、つまり、前回の撮影からフォーカス位置が変わってない場合、合成処理における画像間の位置ずれの検出を輝度のSADに基づき算出した動きベクトルを用いて行う。一方、前回の撮影後にフォーカス移動があった、つまり、前回の撮影からフォーカス位置が変わった場合、検出部80によって検出される角速度情報に基づき算出した動きベクトルを用いて行う。このようにすることで、撮影間でフォーカス移動があった、つまり、ピントの変動がある場合には、画像間の位置ずれの検出を信頼度の低下する画像情報からではなく、検出部80によって検出される情報を用いて行うことができる。こうして合成されるパノラマ画像の画像データは、メモリ32に保存される。 At this time, the method of detecting the positional deviation between the images in the compositing process may be changed depending on whether or not the focus has been moved since the previous shooting. If there is no focus movement after the previous shooting, that is, the focus position has not changed since the previous shooting, the position shift between the images in the compositing process is detected using the motion vector calculated based on the luminance SAD. On the other hand, when the focus is moved after the previous shooting, that is, when the focus position is changed from the previous shooting, the motion vector calculated based on the angular velocity information detected by the detection unit 80 is used. By doing so, when there is a focus shift between shootings, that is, when there is a change in focus, the detection of the positional deviation between the images is not performed from the image information whose reliability is lowered, but by the detection unit 80. This can be done using the detected information. The image data of the panoramic image synthesized in this way is stored in the memory 32.

次に、ステップS110においてシステム制御部50は、デジタルカメラ100のパンニングの方向の角度(以下「カメラ角度」という)を検出する。続いて、ステップS111においてシステム制御部50は、ステップS110で検出したカメラ角度から、デジタルカメラ100のパンニング角度を算出する。具体的には、撮影時のカメラ角度と1フレーム前の撮影時のカメラ角度から撮影間の角度変化量を求め、それをパンニング角度とする。 Next, in step S110, the system control unit 50 detects an angle in the panning direction of the digital camera 100 (hereinafter referred to as “camera angle”). Subsequently, in step S111, the system control unit 50 calculates the panning angle of the digital camera 100 from the camera angle detected in step S110. Specifically, the amount of change in angle between shootings is obtained from the camera angle at the time of shooting and the camera angle at the time of shooting one frame before, and this is used as the panning angle.

次に、ステップS112においてシステム制御部50は、ステップS111で算出したデジタルカメラ100のパンニング角度が閾値以上か否かを判定する。システム制御部50は、デジタルカメラ100のパンニング角度が閾値以上と判定した場合(S112でYES)、処理をステップS113へ進め、パンニング角度が閾値未満と判定した場合(S106でNO)、処理をステップS114へ進める。なお、パンニング角度の閾値は、連続した画像間で画像データの切り抜き領域、すなわちパノラマ画像の合成に用いられる領域の重複部分が十分確保できるような角度になるよう、撮影間隔や焦点距離に応じて決定する。 Next, in step S112, the system control unit 50 determines whether or not the panning angle of the digital camera 100 calculated in step S111 is equal to or greater than the threshold value. When the system control unit 50 determines that the panning angle of the digital camera 100 is equal to or greater than the threshold value (YES in S112), the process proceeds to step S113, and when it is determined that the panning angle is less than the threshold value (NO in S106), the process is stepped. Proceed to S114. The panning angle threshold is set according to the shooting interval and focal length so that the cropped area of the image data, that is, the overlapping part of the area used for synthesizing the panoramic image can be sufficiently secured between the continuous images. decide.

システム制御部50は、デジタルカメラ100のパンニング角度が閾値以上と判定した場合(S112でYES)、ステップS113において表示部28にゆっくりパンニングするように警告するメッセージを表示する。このようにすることで、画像の合成に失敗しない条件で撮影するようユーザに報知することができる。つまり、連続した画像間で画像データの切り抜き領域、すなわちパノラマ画像の合成に用いられる領域の重複部分が少なくなり、画像の合成に失敗することを防ぐことができる。またその際、ステップS102で設定した撮影条件のAF設定がAF追従設定かAF固定設定かに応じて閾値を変えるようにする。具体的には、ステップS112におけるパンニング角度の閾値を、AF追従設定にはAF固定設定時より小さくなるようにする。このようにすることで、AF追従設定時にも、AF固定設定時に比べて画像の合成に失敗することが多くならないように、画像の合成に失敗しない条件で撮影するようユーザに報知することができる。つまり、AF追従設定時は、次の撮影におけるフォーカス位置の決定やフォーカスレンズ移動処理の分、AF固定設定時に比べて撮影間隔が長くなる。そのため、同じパンニング速度でも撮影間のパンニング角度が大きくなり、画像の合成に失敗しやすくなる。これをユーザに報知することにより、画像の合成に失敗することを防ぐことができる。また、撮影間でのフォーカス移動量つまりピント変動量が大きくなり、画像の合成に失敗することも防ぐことができる。 When the system control unit 50 determines that the panning angle of the digital camera 100 is equal to or greater than the threshold value (YES in S112), the system control unit 50 displays a message warning the display unit 28 to slowly pan in step S113. By doing so, it is possible to notify the user to take a picture under the condition that the image composition does not fail. That is, it is possible to prevent the image data from failing to be combined because the cutout area of the image data, that is, the overlapping part of the area used for synthesizing the panoramic image is reduced between the continuous images. At that time, the threshold value is changed according to whether the AF setting of the shooting conditions set in step S102 is the AF tracking setting or the AF fixed setting. Specifically, the threshold value of the panning angle in step S112 is set to be smaller in the AF tracking setting than in the AF fixed setting. By doing so, it is possible to notify the user to shoot under the condition that the image composition does not fail even when the AF tracking is set so that the image composition does not fail more often than when the AF fixed setting is set. .. That is, when the AF tracking is set, the shooting interval becomes longer than when the AF is fixed because the focus position is determined and the focus lens movement process is performed in the next shooting. Therefore, even at the same panning speed, the panning angle between shootings becomes large, and image composition tends to fail. By notifying the user of this, it is possible to prevent the image composition from failing. In addition, it is possible to prevent the image composition from failing due to a large amount of focus movement, that is, the amount of focus fluctuation between shootings.

次に、ステップS114においてシステム制御部50は、ステップS102で設定した撮影条件のAF設定がAF追従設定か否かを判定する。システム制御部50は、AF設定がAF追従設定であった場合(S114でYES)、処理をステップS115へ進め、AF設定がAF固定設定であった場合(S114でNO)、処理をステップS120へ進める。 Next, in step S114, the system control unit 50 determines whether or not the AF setting of the shooting conditions set in step S102 is the AF tracking setting. When the AF setting is the AF tracking setting (YES in S114), the system control unit 50 advances the process to step S115, and when the AF setting is the AF fixed setting (NO in S114), the system control unit 50 advances the process to step S120. Proceed.

ステップS115においてシステム制御部50は、ステップS108で撮影した視差画像A,Bを用いて、画像処理部24で被写体の距離情報を取得する。具体的には、入力した2つの視差画像から位相差を検出することで被写体までの距離を取得し、撮像部から被写体までの距離情報を画素ごとに取得する。 In step S115, the system control unit 50 acquires distance information of the subject in the image processing unit 24 using the parallax images A and B captured in step S108. Specifically, the distance to the subject is acquired by detecting the phase difference from the two input parallax images, and the distance information from the imaging unit to the subject is acquired for each pixel.

次に、ステップS116においてシステム制御部50は、ステップS115で取得した被写体の距離情報に基づき次の撮影におけるフォーカス位置を決定する。ここで、次の撮影におけるフォーカス位置を決定するために距離情報を評価する領域として、図5、図6を用いて前述したように、パンニングの進行方向に応じた領域を設定する。また、フォーカス位置は、撮影間のパンニング角度変動量、すなわちパンニング速度とステップS115で取得した被写体の距離情報に基づき決定する。具体的には、ピントを合わせたい被写体がパノラマ画像の合成に用いられる画像データの切り抜き領域に入っている度合いに応じて、1回の撮影におけるフォーカス移動量を決定する。つまり、パンニング速度が遅い場合には、パンニング速度が速い場合に比べて、ピントを合わせたい被写体が画像データの切り抜き領域内に捉えられるまでの撮影回数が多くなり、1回の撮影におけるフォーカス移動量を小さくできる。このようにすることで、パンニングしながらの連続撮影において所望の被写体にAF追従が可能となり、被写界全体にピントの合ったパノラマ画像を生成することができる。 Next, in step S116, the system control unit 50 determines the focus position in the next shooting based on the distance information of the subject acquired in step S115. Here, as a region for evaluating the distance information in order to determine the focus position in the next shooting, as described above with reference to FIGS. 5 and 6, a region corresponding to the traveling direction of panning is set. Further, the focus position is determined based on the amount of change in the panning angle between shootings, that is, the panning speed and the distance information of the subject acquired in step S115. Specifically, the amount of focus movement in one shooting is determined according to the degree to which the subject to be focused is included in the cropped area of the image data used for synthesizing the panoramic image. That is, when the panning speed is slow, the number of shots until the subject to be focused is captured in the cropped area of the image data is larger than when the panning speed is fast, and the amount of focus movement in one shot is increased. Can be made smaller. By doing so, AF tracking can be performed on a desired subject in continuous shooting while panning, and a panoramic image in focus over the entire field of view can be generated.

ステップS117においてシステム制御部50は、ステップS116で決定した次の撮影におけるフォーカス位置へのフォーカス移動量が閾値以上であるか否かを判定する。システム制御部50は、フォーカス移動量が閾値以上であると判定した場合(S117でYES)、処理をステップS118へ進め、フォーカス移動量が閾値未満であると判定した場合(S117でNO)、処理をステップS119へ進める。 In step S117, the system control unit 50 determines whether or not the amount of focus movement to the focus position in the next shooting determined in step S116 is equal to or greater than the threshold value. When the system control unit 50 determines that the focus movement amount is equal to or greater than the threshold value (YES in S117), the process proceeds to step S118, and when it is determined that the focus movement amount is less than the threshold value (NO in S117), the process proceeds. To step S119.

システム制御部50は、次の撮影におけるフォーカス位置へのフォーカス移動量が閾値以上と判定した場合(S117でYES)、ステップS118において表示部28にゆっくりパンニングするように警告するメッセージを表示する。ここでは、警告メッセージを表示する例について説明したが、次の撮影までの間隔を短くするように制御してもよい。つまり、撮影間隔を短くすることで、相対的にパンニング速度が遅くでき、1回の撮影におけるフォーカス移動量を小さくできるようにしてもよい。 When the system control unit 50 determines that the amount of focus movement to the focus position in the next shooting is equal to or greater than the threshold value (YES in S117), the system control unit 50 displays a message warning the display unit 28 to slowly pan in step S118. Here, an example of displaying a warning message has been described, but the interval until the next shooting may be controlled to be short. That is, by shortening the shooting interval, the panning speed may be relatively slowed down, and the amount of focus movement in one shooting may be reduced.

ステップS119においてシステム制御部50は、ステップS116で決定した次の撮影におけるフォーカス位置へ、撮影レンズ103に含まれるフォーカスレンズを移動させる。 In step S119, the system control unit 50 moves the focus lens included in the photographing lens 103 to the focus position in the next photographing determined in step S116.

ステップS120においてシステム制御部50は、ステップS110で検出したカメラ角度が、パンニング終了角度であるか否かを判定する。システム制御部50は、カメラ角度がパンニング終了角度である場合(S120でYES)、本フローの処理を終了させ、カメラ角度がパンニング終了角度でない場合(S120でNO)、処理をステップS121へ進める。なお、ステップS120の判定がYESとなることで、所望するパノラマ画像が得られたことになる。 In step S120, the system control unit 50 determines whether or not the camera angle detected in step S110 is the panning end angle. The system control unit 50 ends the processing of this flow when the camera angle is the panning end angle (YES in S120), and proceeds to the process in step S121 when the camera angle is not the panning end angle (NO in S120). When the determination in step S120 is YES, a desired panoramic image is obtained.

ステップS121においてシステム制御部50は、ステップS110で検出したカメラ角度からパンニングが終了されたか否かを判定する。具体的には、撮影時のデジタルカメラ100の角度と1フレーム前の撮影時のデジタルカメラ100の角度とを比較し、パンニングの方向に角度が増加しているか否かを判定することにより行う。その結果、パンニングの方向に角度が増加していない場合には、パンニング終了と判定される。 In step S121, the system control unit 50 determines whether or not panning is completed from the camera angle detected in step S110. Specifically, the angle of the digital camera 100 at the time of shooting is compared with the angle of the digital camera 100 at the time of shooting one frame before, and it is determined whether or not the angle is increasing in the panning direction. As a result, if the angle does not increase in the panning direction, it is determined that the panning is completed.

システム制御部50は、パンニングが終了されたと判定した場合(S121でYES)、処理をステップS122へ進め、ステップS122において表示部28に撮影が失敗したことを示す通知を表示し、本フローの処理は終了となる。システム制御部50は、パンニングが終了されていないと判定した場合(S121でNO)、処理をステップS108へ戻す。これにより、ステップS108〜S120の処理が撮影終了まで繰り返されることで、パンニングしながらの連続撮影が行われる。 When the system control unit 50 determines that the panning has been completed (YES in S121), the process proceeds to step S122, and in step S122, the display unit 28 displays a notification indicating that the shooting has failed, and the process of this flow. Is the end. When the system control unit 50 determines that the panning has not been completed (NO in S121), the system control unit 50 returns the process to step S108. As a result, the processes of steps S108 to S120 are repeated until the end of shooting, so that continuous shooting is performed while panning.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

22:撮像部、23:AF評価値検出部、24:画像処理部、28:表示部、32:メモリ、50:システム制御部、52:システムメモリ、80:検出部、100:デジタルカメラ、103:撮影レンズ 22: Imaging unit, 23: AF evaluation value detection unit, 24: Image processing unit, 28: Display unit, 32: Memory, 50: System control unit, 52: System memory, 80: Detection unit, 100: Digital camera, 103 : Shooting lens

Claims (12)

被写体像を撮像する撮像手段と、
前記撮像手段により撮像された画像に基づいて、撮影光学系の焦点状態を検出する焦点検出手段と、
前記焦点検出手段により検出された焦点状態に基づいて、前記撮影光学系の焦点を調節する焦点調節手段と、
撮像装置をパンニングさせながら前記撮像手段により複数回の撮像を行って得られた複数の画像のそれぞれから一部領域を切り出して、前記複数の画像のそれぞれの一部領域を合成してパノラマ画像を生成する生成手段と、
前記撮像装置をパンニングさせるときに、前記それぞれの画像の前記一部領域よりも前記パンニングの進行方向前方側に前記焦点検出手段による焦点の評価領域を設定する設定手段と、
前記複数回の撮像のうちの連続する2つの撮像の間の前記焦点調節手段による焦点調節の移動量が所定の閾値以上である場合に、ユーザに前記パンニングの速度を遅くするように警告する警告手段と、
を備えることを特徴とする撮像装置。
An imaging means for capturing a subject image and
A focus detecting means for detecting the focal state of the photographing optical system based on the image captured by the imaging means, and
A focus adjusting means for adjusting the focus of the photographing optical system based on the focus state detected by the focus detecting means, and
A panoramic image is obtained by cutting out a part of a region from each of a plurality of images obtained by performing multiple imagings by the imaging means while panning the imaging apparatus, and synthesizing a part of each region of the plurality of images. The generation means to generate and
When the image pickup device is panned, a setting means for setting a focus evaluation region by the focus detection means on the front side in the traveling direction of the panning with respect to the partial region of each image, and a setting means.
A warning to warn the user to slow down the panning when the amount of movement of the focus adjustment by the focus adjustment means between two consecutive imagings of the plurality of imagings is equal to or greater than a predetermined threshold value. Means and
An imaging device characterized by comprising.
前記焦点調節手段は、前記一部領域の撮像を行った次の撮像において、前記焦点の評価領域において検出された焦点状態に基づいて、前記撮影光学系の焦点を調節することを特徴とする請求項1に記載の撮像装置。 The focus adjusting means adjusts the focus of the photographing optical system based on the focal state detected in the evaluation region of the focus in the next imaging in which the partial region is imaged. Item 1. The imaging apparatus according to item 1. 前記警告手段は、ユーザに前記パンニングの速度を遅くするように警告する表示を行う表示手段であることを特徴とする請求項1または2に記載の撮像装置。 The imaging device according to claim 1 or 2 , wherein the warning means is a display means for displaying a warning to the user to slow down the panning speed. 前記複数回の撮像のうちの連続する2つの撮像の間の前記焦点調節手段による焦点調節の移動量が前記所定の閾値以上である場合に、前記複数回の撮像の間隔を短くするように制御する制御手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 When the moving amount of the focusing by the focus adjusting means between the two imaging successive one of said plurality of imaging is greater than or equal to the predetermined threshold value, the control so as to shorten the distance between the plurality of times of imaging The imaging apparatus according to any one of claims 1 to 3, further comprising a control means. 前記生成手段は、前記複数回の撮像のうちの連続する2つの撮像の間で前記焦点調節手段による焦点の移動があったか否かに基づいて、前記複数の画像のそれぞれの一部領域の合成方法を変更することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The generation means is a method of synthesizing a part of each region of the plurality of images based on whether or not the focus has been moved by the focus adjusting means between two consecutive images of the plurality of images. The imaging apparatus according to any one of claims 1 to 4 , wherein the image pickup apparatus is changed. 前記一部領域の合成方法を変更する場合に、前記複数の画像間での動きベクトルに基づいて前記複数の画像間の位置ずれを補正するか、撮像装置の動きを検出する検出手段により検出された撮像装置の動きに基づいて前記複数の画像間の位置ずれを補正するかを判定する判定手段をさらに備えることを特徴とする請求項に記載の撮像装置。 When the method of synthesizing the partial region is changed, the positional deviation between the plurality of images is corrected based on the motion vector between the plurality of images, or the detection means is detected by a detection means for detecting the motion of the imaging device. The imaging device according to claim 5 , further comprising a determination means for determining whether to correct the positional deviation between the plurality of images based on the movement of the imaging device. 前記焦点調節手段は、前記パンニングの速度と、前記焦点検出手段により前記焦点の評価領域で得られる被写体の距離の情報とに基づいて、前記撮影光学系の焦点を調節することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The focus adjusting means adjusts the focus of the photographing optical system based on the panning speed and information on the distance of a subject obtained in the evaluation region of the focus by the focus detecting means. Item 2. The imaging apparatus according to any one of Items 1 to 6. 前記警告手段は、前記パンニングの速度が第2の閾値以上である場合に、ユーザに前記パンニングの速度を遅くするように警告するとを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 The warning unit, when the speed of the panning is not smaller than the second threshold value, in any one of claims 1 to 7, characterized that you are warned to slow the speed of the panning user The imaging apparatus described. 前記焦点調節手段により焦点の調節を行わせるか、前記撮影光学系の焦点の位置を固定するかを設定する焦点設定手段をさらに備え、該焦点設定手段の設定に応じて、前記第2の閾値を変更することを特徴とする請求項に記載の撮像装置。 A focus setting means for setting whether the focus is adjusted by the focus adjusting means or the position of the focal point of the photographing optical system is fixed is further provided, and the second threshold value is set according to the setting of the focus setting means. The imaging device according to claim 8 , wherein the image pickup apparatus is changed. 被写体像を撮像する撮像手段と、前記撮像手段により撮像された画像に基づいて、撮影光学系の焦点状態を検出する焦点検出手段と、前記焦点検出手段により検出された焦点状態に基づいて、前記撮影光学系の焦点を調節する焦点調節手段と、を備える撮像装置を制御する方法であって、
撮像装置をパンニングさせながら前記撮像手段により複数回の撮像を行って得られた複数の画像のそれぞれから一部領域を切り出して、前記複数の画像のそれぞれの一部領域を合成してパノラマ画像を生成する生成工程と、
前記撮像装置をパンニングさせるときに、前記それぞれの画像の前記一部領域よりも前記パンニングの進行方向前方側に前記焦点検出手段による焦点の評価領域を設定する設定工程と、
前記複数回の撮像のうちの連続する2つの撮像の間の前記焦点調節手段による焦点調節の移動量が所定の閾値以上である場合に、ユーザに前記パンニングの速度を遅くするように警告する警告工程と、
を有することを特徴とする撮像装置の制御方法。
The imaging means for capturing a subject image, the focus detecting means for detecting the focal state of the photographing optical system based on the image captured by the imaging means, and the focal state detected by the focal detecting means. A method of controlling an imaging device including a focus adjusting means for adjusting the focus of a photographing optical system.
A panoramic image is obtained by cutting out a part of a region from each of a plurality of images obtained by performing multiple imagings by the imaging means while panning the image pickup apparatus, and synthesizing a part of each region of the plurality of images. The generation process to generate and
When the image pickup device is panned, a setting step of setting a focus evaluation region by the focus detecting means on the front side in the traveling direction of the panning with respect to the partial region of each image, and a setting step.
A warning to warn the user to slow down the panning when the amount of movement of the focus adjustment by the focus adjustment means between two consecutive imagings of the plurality of imagings is equal to or greater than a predetermined threshold value. Process and
A method for controlling an imaging device, which comprises.
請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 10. 請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to claim 10.
JP2017074750A 2017-04-04 2017-04-04 Imaging device and its control method, program, storage medium Active JP6858059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017074750A JP6858059B2 (en) 2017-04-04 2017-04-04 Imaging device and its control method, program, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017074750A JP6858059B2 (en) 2017-04-04 2017-04-04 Imaging device and its control method, program, storage medium

Publications (2)

Publication Number Publication Date
JP2018180063A JP2018180063A (en) 2018-11-15
JP6858059B2 true JP6858059B2 (en) 2021-04-14

Family

ID=64275188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074750A Active JP6858059B2 (en) 2017-04-04 2017-04-04 Imaging device and its control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP6858059B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02139529A (en) * 1989-09-13 1990-05-29 Olympus Optical Co Ltd Focus adjusting device
JP2000305207A (en) * 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2009232275A (en) * 2008-03-24 2009-10-08 Olympus Imaging Corp Image pickup device
JP2011193285A (en) * 2010-03-15 2011-09-29 Fujifilm Corp Imaging apparatus
JP2011259245A (en) * 2010-06-09 2011-12-22 Fujifilm Corp Imaging device and imaging method
JP5656507B2 (en) * 2010-08-19 2015-01-21 キヤノン株式会社 Shooting system
JP6124700B2 (en) * 2012-07-27 2017-05-10 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2014066959A (en) * 2012-09-27 2014-04-17 Xacti Corp Imaging apparatus
JP2014215550A (en) * 2013-04-26 2014-11-17 キヤノン株式会社 Imaging device and control method of the same, program, and recording medium
JP2015106116A (en) * 2013-12-02 2015-06-08 三星電子株式会社Samsung Electronics Co.,Ltd. Imaging apparatus

Also Published As

Publication number Publication date
JP2018180063A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP5779959B2 (en) Imaging device
JP5450200B2 (en) Imaging apparatus, method and program
JP5676988B2 (en) Focus adjustment device
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
US10530986B2 (en) Image capturing apparatus, image capturing method, and storage medium
JP6584059B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5051812B2 (en) Imaging apparatus, focusing method thereof, and recording medium
US10477101B2 (en) Focus detection apparatus, control method and storage medium
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
US11245846B2 (en) Image capturing control apparatus and control method therefor
US11240423B2 (en) Display control apparatus, method of controlling the same, image capturing apparatus, and storage medium
CN107800956B (en) Image pickup apparatus, control method, and storage medium
JP2012019343A (en) Imaging device, control method thereof, and program
JP6858059B2 (en) Imaging device and its control method, program, storage medium
JP7129864B2 (en) Imaging device and its control method
JP2020141351A (en) Imaging apparatus
US10536632B2 (en) Imaging apparatus, control method, and non-transitory storage medium
US10321042B2 (en) Imaging apparatus and method for controlling the same for focus detection using focus detection area based on defocus amount
CN107666571B (en) Image pickup apparatus having focus detection technology, control method therefor, and storage medium
JP2023092144A (en) Imaging apparatus, imaging method, program, and recording medium
JP2023092143A (en) Image processing device, imaging apparatus, image processing method, program, and recording medium
JP2022150647A (en) Image processing device, image processing method, imaging apparatus, program, and recording medium
JP2023086270A (en) Image processing device, image processing method, imaging apparatus, program, and recording medium
JP5333949B2 (en) Imaging device
JP2021016128A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201127

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210323

R151 Written notification of patent or utility model registration

Ref document number: 6858059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151