JP2018180336A - Imaging device, control method thereof, and program - Google Patents

Imaging device, control method thereof, and program Download PDF

Info

Publication number
JP2018180336A
JP2018180336A JP2017080710A JP2017080710A JP2018180336A JP 2018180336 A JP2018180336 A JP 2018180336A JP 2017080710 A JP2017080710 A JP 2017080710A JP 2017080710 A JP2017080710 A JP 2017080710A JP 2018180336 A JP2018180336 A JP 2018180336A
Authority
JP
Japan
Prior art keywords
imaging device
main subject
angular velocity
display
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017080710A
Other languages
Japanese (ja)
Inventor
貴史 今
Takafumi Kon
貴史 今
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017080710A priority Critical patent/JP2018180336A/en
Publication of JP2018180336A publication Critical patent/JP2018180336A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that improves the success rate of panning.SOLUTION: When doing panning shots, the following is performed: setting a vector detection position for detecting the motion vector of a main subject; detecting the angular speed of an imaging device 100 when the imaging device 100 is shaken in conjunction with the movement of the main subject; detecting the motion vector of the main subject at the vector detection position from a plurality of images acquired in an imaging element of a photometric sensor 128; calculating the angular speed of the main subject using the amount of movement of the main subject on image surface of the imaging element calculated using the motion vector and the angular speed of the imaging device 100; calculating a difference between the angular speed of the imaging device 100 and the angular speed of the main subject; and displaying, using information that indicates a distance measuring point in a finder, the information that represents the direction and magnitude of correcting the shaking motion of the imaging device 100 in accordance with whether the calculated difference is within a range correctable by a shift lens that corrects the shaking of the main subject at the time of shooting.SELECTED DRAWING: Figure 4

Description

本発明は、撮像装置とその制御方法及びプログラムに関し、特に、流し撮り撮影時の主被写体のぶれを抑制する機能を備える撮像装置に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a program, and more particularly to an imaging apparatus having a function of suppressing blurring of a main subject during continuous shooting.

撮像装置を用いた撮影方法の1つに、移動している主被写体にフォーカスを合わせながら撮像装置を振って撮影することにより、主被写体を静止させて背景を流した躍動感のある画像を撮影することができる流し撮りと呼ばれる撮影方法がある。しかし、主被写体の移動速度に合わせて撮像装置を振ることは容易でないため、流し撮りに慣れていないユーザが流し撮りを行うと、主被写体が静止せずに主被写体がぶれる(ぶれ残りが生じる)可能性が高い。   One of the imaging methods using an imaging device is to shoot an image with a sense of movement in which the main subject is stopped and the background is flowed by shooting while shaking the imaging device while focusing on a moving main subject. There is a shooting method called pantry that can be done. However, it is not easy to shake the imaging device according to the moving speed of the main subject, so if the user who is not accustomed to follow-up shoots, the main subject does not stand still, and the main subject is blurred (the blurring remaining occurs) )Probability is high.

そこで、流し撮りを簡単に行うことができるように、主被写体の移動速度と撮像装置を振る速度との差分を検出し、検出した差分をシフトレンズで補正することによって流し撮りを成功させる方法が知られている。例えば、撮影直前に、主被写体を追うために撮像装置を振るときの角速度(以下「パンニング角速度」という)を角速度センサで検出すると同時に撮像面上における主被写体の移動量を検出し、これらの情報から主被写体の角速度を計算する。そして、露光中には、露光直前まで求めていた主被写体の角速度と露光中の撮像装置のパンニング角速度との角速度差を算出し、算出した角速度差に基づいてシフトレンズを駆動させることにより主被写体のぶれを補正する。   Therefore, there is a method of detecting the difference between the moving speed of the main subject and the speed of shaking the imaging device and correcting the detected difference with the shift lens so that the follow shot can be performed successfully so that the follow shot can be easily performed. Are known. For example, just before shooting, an angular velocity sensor detects an angular velocity (hereinafter referred to as "panning angular velocity") when shaking the imaging device to follow the main subject, and simultaneously detects the amount of movement of the main subject on the imaging surface. Calculate the angular velocity of the main subject from Then, during exposure, the angular velocity difference between the angular velocity of the main subject obtained until immediately before exposure and the panning angular velocity of the imaging device during exposure is calculated, and the shift lens is driven based on the calculated angular velocity difference. To compensate for camera shake.

このような補正方法では、撮像装置のパンニング角速度と撮影画像において静止させたい主被写体の実際の角速度との角速度差が大きくなるにしたがって、補正誤差が大きくなり、ぶれ残りが生じてしまう。よって、移動している主被写体の角速度を正確に求めることが重要になる。つまり、撮影者が主被写体の移動に合わせて撮像装置を振る方向とパンニング角速度を正確に求めることが必要になる。   In such a correction method, as the angular velocity difference between the panning angular velocity of the imaging apparatus and the actual angular velocity of the main subject to be stopped in the photographed image becomes large, the correction error becomes large and the blurring remaining occurs. Therefore, it is important to accurately determine the angular velocity of the moving main subject. That is, it is necessary to accurately obtain the direction in which the imaging device is shaken and the panning angular velocity in accordance with the movement of the main subject as the photographer.

このような課題に対して、特許文献1には、撮像装置が実際に振られたパンニング方向と予め設定されている基準パンニング方向との比較結果に基づき、撮影画像を基準パンニング方向に近付くように補正して、モニタに表示する技術が提案されている。また、特許文献2には、撮像装置のパンニング角速度と主被写体の角速度との差分を計算し、撮影時にぶれ残りが生じるか否かの警告表示をファインダに表示する技術が提案されている。   In order to address such problems, according to Patent Document 1, based on the comparison result between the panning direction in which the imaging apparatus is actually shaken and the reference panning direction set in advance, the captured image is made to approach the reference panning direction. A technique for correcting and displaying on a monitor has been proposed. Further, Patent Document 2 proposes a technique for calculating the difference between the panning angular velocity of the imaging device and the angular velocity of the main subject, and displaying a warning display on the finder as to whether or not blurring remains when shooting.

特開2006−115322号公報Unexamined-Japanese-Patent No. 2006-115322 特開2001−42379号公報JP 2001-42379 A

流し撮りの撮影チャンスは少ないことが多いため、撮影に失敗する可能性をできる限り低くすること、つまり、流し撮りの成功率を向上させる技術が望まれている。しかしながら、上記特許文献1に記載された技術では、基準パンニング方向と主被写体の移動方向とに誤差がある場合に、流し撮りが失敗する可能性がある。また、上記特許文献2に記載された技術では、撮影者は、そのまま撮影を行った場合にぶれ残りが生じるか否かを判断することはできても、流し撮りを成功させるために撮像装置を振る方向や角速度を知ることはできない。   Since there are often few chances to shoot a pant, it is desirable to reduce the possibility of shooting failure as much as possible, that is, to improve the success rate of the pant. However, according to the technique described in Patent Document 1, if there is an error between the reference panning direction and the moving direction of the main subject, the follow shot may fail. Further, with the technology described in Patent Document 2 above, even if the photographer can judge whether or not the remaining blur occurs when photographing is performed as it is, the imaging apparatus is required to be successful in follow-up shooting. It is not possible to know the swing direction or angular velocity.

本発明は、流し撮りの成功率を向上させる技術を提供することを目的とする。   An object of the present invention is to provide a technique for improving the success rate of follow shot.

本発明に係る撮像装置は、撮像装置の角速度を検出する角速度検出手段と、動きベクトルを検出するためのベクトル検出位置を設定する設定手段と、撮像素子により取得された複数の画像から前記ベクトル検出位置で主被写体の動きベクトルを検出するベクトル検出手段と、前記主被写体の移動に合わせて前記主被写体に合焦させながら前記撮像装置を振ったときに前記角速度検出手段により検出された前記撮像装置の角速度と、前記動きベクトルを用いて算出される前記撮像素子の像面上での前記主被写体の移動量とを用いて、前記主被写体の角速度を算出する算出手段と、撮影時における前記主被写体のぶれを補正する補正手段と、ファインダ内に前記主被写体と共に測距点を表示する表示手段と、前記撮像装置の角速度と前記主被写体の角速度の差分が前記補正手段による補正の可能な範囲内か否かに応じて、前記撮像装置を振る動作を修正する方向と大きさを表す情報を前記ファインダ内の測距点を示す情報を用いて前記表示手段に表示する制御手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes: an angular velocity detection unit that detects an angular velocity of the imaging apparatus; a setting unit that sets a vector detection position for detecting a motion vector; and the vector detection from a plurality of images acquired by an imaging element. A vector detection unit for detecting a motion vector of a main subject at a position; and the imaging apparatus detected by the angular velocity detection means when the imaging apparatus is shaken while focusing on the main subject according to the movement of the main subject Calculating means for calculating the angular velocity of the main subject using the angular velocity of the main subject and the movement amount of the main subject on the image plane of the image pickup element calculated using the motion vector; Correction means for correcting blurring of the subject, display means for displaying the distance measuring point together with the main subject in the finder, angular velocity of the imaging device, and the main subject Information indicating the direction and magnitude for correcting the motion of shaking the imaging device is used as information indicating the distance measurement point in the finder depending on whether the difference in angular velocity is within the range where correction by the correction means is possible. Control means for displaying on the display means.

本発明によれば、流し撮りの成功率を向上させることができる。   According to the present invention, the success rate of panning can be improved.

本発明の実施形態に係る撮像装置の基本構成を示すブロック図である。It is a block diagram showing basic composition of an imaging device concerning an embodiment of the present invention. 撮像装置の概略構成を示す断面図である。It is a sectional view showing a schematic structure of an imaging device. 撮像装置が備える焦点検出部でのAF測距点を説明する図である。It is a figure explaining AF ranging point in a focus detection part with which an imaging device is provided. 撮像装置の第1実施形態に係る流し撮りアシスト動作を説明するフローチャートである。It is a flowchart explaining the follow shot assistance operation concerning a 1st embodiment of an imaging device. 撮像装置の光学ファインダ内での表示例を示す図である。It is a figure which shows the example of a display in the optical finder of an imaging device. 主被写体の角速度と撮像装置のパンニング角速度の算出方法の説明図である。It is explanatory drawing of the calculation method of the angular velocity of a main to-be-photographed object, and the panning angular velocity of an imaging device. ステップS406の処理のフローチャートである。It is a flowchart of a process of step S406. ステップS705の処理のフローチャートである。It is a flowchart of a process of step S705. ステップS706の処理のフローチャートである。It is a flowchart of a process of step S706. ファインダ内でのガイダンス表示を説明する模式図である。It is a schematic diagram explaining the guidance display in a finder. 第2実施形態での撮像装置の流し撮りアシスト動作を説明するフローチャートである。It is a flowchart explaining the follow shot assistance operation of the imaging device in a 2nd embodiment. 第2実施形態での撮像装置の流し撮りアシスト動作のタイミングチャート及び測距点の選択状態を示す模式図である。It is a schematic diagram which shows the selection state of the timing chart of the imaging | photography imaging | photography assistance operation of the imaging device in 2nd Embodiment, and a ranging point. ステップS1108の処理のフローチャートである。It is a flowchart of a process of step S1108. ステップS1303,S1306でのガイダンス表示例の模式図である。It is a schematic diagram of the guidance display example in step S1303, S1306. ステップS1108の別の処理のフローチャートである。It is a flowchart of another process of step S1108. ステップS1504,S1508でのガイダンス表示例の模式図である。It is a schematic diagram of the guidance display example in step S1504, S1508. ステップS1108の更に別の処理のフローチャートである。It is a flowchart of another process of step S1108. ステップS1701の判定に用いられるテーブルを示す図である。It is a figure which shows the table used for determination of step S1701. ガイダンス表示での点滅速度の決定関数のグラフである。It is a graph of the determination function of the blink speed in a guidance display. ステップS1706,S1707でのガイダンス表示例の模式図である。It is a schematic diagram of the guidance display example in step S1706 and S1707.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の実施形態に係る撮像装置100の基本構成を示すブロック図である。なお、図1には、撮像装置100を用いて流し撮りを行う際の種々の制御に関係する構成要素を主に示しており、流し撮りでの制御と関係性の低い要素の図示を省略している。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. FIG. 1 is a block diagram showing a basic configuration of an imaging device 100 according to an embodiment of the present invention. Note that FIG. 1 mainly shows components related to various controls at the time of performing a follow shot using the imaging device 100, and an illustration of elements having a low relation to the control at the follow shot is omitted. ing.

撮像装置100は、光学系101、撮像素子102、焦点検出部103、CPU104、メモリ105、角速度センサ106、画像処理部107、記憶媒体108、LPU109、表示部110、操作部111及び動きベクトル検出部112を備える。メモリ105は、一次メモリ105aと二次メモリ105bを有する。   The imaging apparatus 100 includes an optical system 101, an imaging element 102, a focus detection unit 103, a CPU 104, a memory 105, an angular velocity sensor 106, an image processing unit 107, a storage medium 108, an LPU 109, a display unit 110, an operation unit 111, and a motion vector detection unit. And 112. The memory 105 includes a primary memory 105 a and a secondary memory 105 b.

撮像装置100は、デジタルカメラやデジタルビデオカメラのような撮像を主たる目的とする機器が代表的な例であるが、これに限られず、撮像機能を有する携帯電話、スマートフォン、タブレット型パーソナルコンピュータ等の電子機器であってもよい。但し、後述するように、本実施形態では、AF測距点の位置を撮影者に視認させるための測距点表示を用いて撮影者に流し撮りをアシストするためのガイダンス表示を行う。よって、本発明に係る撮像装置(電子機器)は、測距点に対応する測距点表示を行う表示部を備える必要がある。   The imaging apparatus 100 is a device whose main purpose is imaging, such as a digital camera or digital video camera, but the invention is not limited to this. A mobile phone having an imaging function, a smartphone, a tablet personal computer, etc. It may be an electronic device. However, as described later, in the present embodiment, guidance display for assisting the follow-up shooting is performed using the distance measurement point display for making the position of the AF distance measurement point visible to the user. Therefore, the imaging apparatus (electronic apparatus) according to the present invention needs to be provided with a display unit that displays distance measurement points corresponding to distance measurement points.

光学系101は、レンズやシャッタ123(図2参照)、絞り等を含み、CPU104の制御によって被写体からの光を所定の光量で撮像素子102に結像させる。本実施形態では、光学系101はシフトレンズを備えており、LPU109は不図示のアクチュエータを駆動してシフトレンズを光軸と直交する面内で駆動することにより像ぶれ防止(主被写体のぶれ補正)を行う。撮像素子102は、CCDイメージセンサ、CMOSイメージセンサ等であり、撮像面に結像した光学像を電気信号(画像信号)に変換する。なお、撮像素子102は、赤外カットフィルタやローパスフィルタ等の各種フィルタを備えていても構わない。焦点検出部103は、例えば、位相差検出方式等を用いて被写体に焦点を合わせるオートフォーカスを実行し、合焦情報を生成するAFセンサである。   The optical system 101 includes a lens, a shutter 123 (see FIG. 2), an aperture, and the like, and forms an image of light from an object on the imaging element 102 with a predetermined light amount under the control of the CPU 104. In the present embodiment, the optical system 101 includes a shift lens, and the LPU 109 drives an actuator (not shown) to drive the shift lens in a plane orthogonal to the optical axis to prevent image blurring (deflection of the main subject )I do. The imaging device 102 is a CCD image sensor, a CMOS image sensor, or the like, and converts an optical image formed on an imaging surface into an electrical signal (image signal). The imaging device 102 may include various filters such as an infrared cut filter and a low pass filter. The focus detection unit 103 is, for example, an AF sensor that performs autofocusing to focus on a subject using a phase difference detection method or the like, and generates focusing information.

角速度センサ106は、例えば、ジャイロセンサ等であり、撮像装置100の移動(流し撮りのための振り)を表す角速度を検出する角速度検出手段である。本実施形態では後述するように、角速度センサ106は、レンズ鏡筒(図2参照)内に配置されており、検出した角速度を電気信号としてLPU109へ通知する。なお、角速度センサ106は、撮像装置100の本体内(ボディ内)に配置されていてもよい。CPU104は、操作部111を通じて入力された信号にしたがって二次メモリ105bに格納された所定のプログラムを実行することにより撮像装置100を構成する各部を制御することで、撮像装置100の全体的な動作を制御するマイクロプロセッサである。一次メモリ105aは、例えば、RAM等の揮発性記憶装置であり、一時的なデータの記憶を記憶し、また、CPU104の作業領域として用いられる。二次メモリ105bは、例えば、EEPROM等の不揮発性記憶装置であり、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶している。   The angular velocity sensor 106 is, for example, a gyro sensor or the like, and is an angular velocity detection unit that detects an angular velocity that represents movement of the imaging device 100 (swing for follow shot). In the present embodiment, as described later, the angular velocity sensor 106 is disposed in the lens barrel (see FIG. 2), and notifies the LPU 109 of the detected angular velocity as an electric signal. The angular velocity sensor 106 may be disposed in the main body (in the body) of the imaging device 100. The CPU 104 executes the predetermined program stored in the secondary memory 105 b in accordance with the signal input through the operation unit 111 to control the respective units constituting the imaging device 100, whereby the entire operation of the imaging device 100 is performed. Is a microprocessor that controls The primary memory 105 a is, for example, a volatile storage device such as a RAM, stores temporary data storage, and is used as a work area of the CPU 104. The secondary memory 105 b is, for example, a nonvolatile storage device such as an EEPROM, and stores a program (firmware) for controlling the imaging apparatus 100 and various setting information.

画像処理部107は、撮像素子102から出力される画像信号に対する現像処理、撮影モードに応じた色調調整等の各種の画像処理を行う。画像処理部107は、撮影画像に適用する画像処理のパターンを複数有し、撮影者は操作部111を介して所望するパターンを設定することができるようになっている。なお、画像処理部107の機能の少なくとも一部は、CPU104が担う構成となっていてもよい。記憶媒体108は、例えば、撮像装置100の本体に対して着脱可能な半導体メモリカード等であり、撮影画像の画像データ等を記憶する。LPU109は、撮像装置100のレンズ鏡筒内に設けられており、レンズ鏡筒での各種動作を制御するマイクロプロセッサである。LPU109は、撮像装置100から被写体までの距離情報、角速度センサ106からの出力に基づく角速度情報等をCPU104へ送信する。   An image processing unit 107 performs various types of image processing such as development processing on an image signal output from the imaging element 102 and color tone adjustment according to a shooting mode. The image processing unit 107 has a plurality of patterns of image processing to be applied to a photographed image, and the photographer can set a desired pattern via the operation unit 111. Note that at least a part of the functions of the image processing unit 107 may be borne by the CPU 104. The storage medium 108 is, for example, a semiconductor memory card that can be attached to and detached from the main body of the imaging device 100, and stores image data and the like of a captured image. The LPU 109 is provided in the lens barrel of the imaging apparatus 100, and is a microprocessor that controls various operations in the lens barrel. The LPU 109 transmits, to the CPU 104, distance information from the imaging apparatus 100 to the subject, angular velocity information based on an output from the angular velocity sensor 106, and the like.

表示部110は、撮影時の光学ファインダ内での画像表示、撮影画像の表示や対話的な操作のためのGUI画像等の表示を行う。操作部111は、ユーザの操作を受け付けてCPU104へ入力情報を伝達するボタン、レバー、タッチパネル等であるが、音声や視線等を用いた入力手段であってもよい。動きベクトル検出部112は、測光センサ128が取得する画像から動きベクトルを出力する。   The display unit 110 displays an image in the optical finder at the time of shooting, displays a shot image, and displays a GUI image and the like for interactive operation. The operation unit 111 is a button, a lever, a touch panel or the like that receives an operation of the user and transmits input information to the CPU 104. However, the operation unit 111 may be an input unit using voice or a line of sight. The motion vector detection unit 112 outputs a motion vector from the image acquired by the photometric sensor 128.

図2は、撮像装置100の概略構成を示す断面図である。なお、図2に示す構成要素のうち、図1に示した各部に対応するものについては、同じ符号を付して重複する説明を省略する。撮像装置100は、図1に示した各部に加えて、ハーフミラー121、AFミラー122、シャッタ123、APU用メモリ124、APU125、ピント板126、表示素子127、測光センサ128及びペンタプリズム129を備える。   FIG. 2 is a cross-sectional view showing a schematic configuration of the imaging device 100. As shown in FIG. In addition, about the thing corresponding to each part shown in FIG. 1 among the structural elements shown in FIG. 2, the same code | symbol is attached | subjected and the overlapping description is abbreviate | omitted. The imaging apparatus 100 includes a half mirror 121, an AF mirror 122, a shutter 123, a memory for APU 124, an APU 125, a focusing plate 126, a display element 127, a photometric sensor 128, and a pentaprism 129 in addition to the components shown in FIG. .

AFミラー122は、光学系101を通して入射してハーフミラー121を通過した光線の一部を焦点検出部103に導く。シャッタ123は、非撮影時には撮影光路を閉じて撮像素子102への光の入射を遮断し、撮影時には撮影光路を開いて撮像素子102へ入射光を導く。ハーフミラー121は、非撮影時に光学系101より入射する光の一部を反射し、ピント板126に結像させる。表示素子127は、焦点検出部103のAF測距点を表示するPN液晶素子であり、撮影者が光学ファインダ(不図示)を覗いたときに、撮影範囲のどの位置に合焦しているかを撮影者に示す。焦点検出部103のAF測距点については、図3を参照して後述する。ペンタプリズム129は、ピント板126に結像した被写体像を測光センサ128と光学ファインダ(不図示)に導く。   The AF mirror 122 guides a part of the light beam incident through the optical system 101 and passing through the half mirror 121 to the focus detection unit 103. The shutter 123 closes the imaging light path when not photographing and blocks the incidence of light on the imaging element 102, and opens the photographing optical path when guiding and guides incident light to the imaging element 102. The half mirror 121 reflects part of light incident from the optical system 101 at the time of non-shooting, and forms an image on the focusing plate 126. The display element 127 is a PN liquid crystal element that displays the AF distance measurement point of the focus detection unit 103, and when the photographer looks into an optical finder (not shown), which position in the imaging range is in focus Show to photographer. The AF distance measurement point of the focus detection unit 103 will be described later with reference to FIG. The pentaprism 129 guides the subject image formed on the focusing plate 126 to the photometric sensor 128 and an optical finder (not shown).

測光センサ128は、CCDセンサやCOMSセンサ等の撮像素子(以下「AE用撮像素子」という)を有する。測光センサ128は、ペンタプリズム129を通してAE用撮像素子に入射した被写体像から被写体輝度を測光する。APU125は、測光センサ128の画像処理や演算用を行うマイクロプロセッサであり、動きベクトル検出部112の機能を有する。APU125は、測光センサ128からの出力信号を画像処理し、得られた画像信号に対して動きベクトル検出部112として機能してすることで主被写体の動きベクトルを検知する。なお、本実施形態では、測光センサ128に対して専用のAPU125を設けたが、APU125の機能はCPU104が担っていてもよい。APU用メモリ124は、RAMとROMを有しており、APU125が実行するプログラムを格納し、APU125の作業領域を提供し、APU125が実行する演算処理に用いられる各種データを一時的に記憶する。   The photometric sensor 128 includes an imaging device such as a CCD sensor or a COMS sensor (hereinafter referred to as an “imaging device for AE”). The photometry sensor 128 measures subject brightness from the subject image incident on the AE imaging device through the pentaprism 129. The APU 125 is a microprocessor for performing image processing and calculation of the photometric sensor 128, and has a function of the motion vector detection unit 112. The APU 125 processes the output signal from the photometric sensor 128 and functions as a motion vector detection unit 112 on the obtained image signal to detect a motion vector of the main subject. Although the APU 125 dedicated to the photometric sensor 128 is provided in the present embodiment, the CPU 104 may be responsible for the function of the APU 125. The APU memory 124 has a RAM and a ROM, stores a program executed by the APU 125, provides a work area for the APU 125, and temporarily stores various data used for arithmetic processing executed by the APU 125.

図3は、焦点検出部103でのAF測距点を説明する図である。図3(a)は、焦点検出部103での測距点の配置形態、撮像素子102の撮像領域及び測光センサ128の測光領域の関係を説明する図である。撮影者は、撮像装置100の光学ファインダを覗くと、図3(a)に示す通りに、撮像領域に映る被写体と共に焦点検出部103に設けられているAF測距点の位置を示す表示(以下「測距点表示」という)を表示素子127を通じて視認することができる。焦点検出部103は45カ所の測距点を有しており、表示素子127には45カ所のAF測距点に対応する測距点表示が設けられている。   FIG. 3 is a diagram for explaining the AF distance measurement point in the focus detection unit 103. As shown in FIG. FIG. 3A is a view for explaining the relationship between the arrangement of distance measurement points in the focus detection unit 103, the imaging area of the imaging device 102, and the photometric area of the photometric sensor 128. FIG. When the photographer looks into the optical finder of the imaging apparatus 100, as shown in FIG. 3A, a display showing the position of the AF distance measurement point provided in the focus detection unit 103 together with the subject shown in the imaging region The “distance measurement point display” can be viewed through the display element 127. The focus detection unit 103 has 45 distance measurement points, and the display element 127 is provided with distance measurement point displays corresponding to 45 AF distance measurement points.

図3(b)は、1つの測距点表示の拡大図である。1つの測距点表示の内部には、より精密な測距を行うスポット測距点を示す領域(以下「スポット測距点表示」という)が設けられており、測距点全体の点灯/点滅のみならず、スポット測距点表示のみの点灯/点滅が可能となっている。図3(a)に示すように、ファインダ内表示に向かって右方向を水平に関する+方向、下方向を垂直(鉛直)に関する+方向とする。これらの方向規定は、後述するように被写体を追って撮像装置100を振ったときの方向規定に用いられる。   FIG. 3B is an enlarged view of one ranging point display. An area (hereinafter referred to as "spot distance measurement point display") indicating a spot distance measurement point where more precise distance measurement is performed is provided inside one distance measurement point display, and lighting / flashing of the entire distance measurement point is performed. In addition to this, it is possible to turn on / blink only the spot distance measurement point display. As shown in FIG. 3A, the rightward direction toward the display in the finder is taken as a + direction with respect to the horizontal, and the downward direction as a + direction with respect to the vertical (vertical). These direction specifications are used for direction specifications when the imaging device 100 is shaken following an object as described later.

図3(c)は、45カ所の測距点の測光領域上での座標を説明する図である。45カ所の測距点表示に1〜45の測距点番号を振ると、測光センサ128による測光領域上の水平位置x[pixel]と垂直位置y[pixel]を用いて各測距点番号を表すことができる。図3(c)の測距点番号と測光領域上での位置(座標)との対応表は、APU用メモリ124に記憶されている。なお、図3(c)の対応表は、選択可能な全ての測距点表示について規定されている。   FIG. 3C is a view for explaining the coordinates of 45 distance measurement points on the photometry area. If the 1st to 45th AF point numbers are assigned to 45 AF point indications, each AF point number is calculated using the horizontal position x [pixel] and the vertical position y [pixel] on the photometric area by the photometric sensor 128. Can be represented. The correspondence table between the ranging point numbers and the positions (coordinates) on the photometry area in FIG. 3C is stored in the APU memory 124. The correspondence table in FIG. 3C is defined for all selectable distance measurement point displays.

図3(d)は、測距点番号の配列表であり、メモリ105に記憶されている。本実施形態では、図3(a)に示すように、大凡、測距点表示(つまり、AF測距点)は5行9列に配置されている。そこで、45カ所の測距点表示に対して、水平方向にx=0〜9、垂直方向にy=0〜4を取り、左上の測距点表示を「1」とし、ラスタ走査的に番号を1ずつ増やしている。これにより、例えば、[x][y]=[4][3]は、測距点番号「31」の測距点表示を示すことになる。   FIG. 3D is an array table of ranging point numbers, which is stored in the memory 105. In the present embodiment, as shown in FIG. 3A, the distance measurement point display (that is, AF distance measurement points) is generally arranged in 5 rows and 9 columns. Therefore, for 45 distance measurement point displays, x = 0 to 9 in the horizontal direction and y = 0 to 4 in the vertical direction, the upper left distance measurement point display is "1", and raster scanning numbering Is increased by one. Thus, for example, [x] [y] = [4] [3] indicates the distance measurement point display of the distance measurement point number “31”.

図4は、撮像装置100を用いて流し撮りを行う際の撮像装置100の第1実施形態に係る流し撮りアシスト動作(補助動作)を説明するフローチャートである。流し撮りを行う場合には、撮像素子102の長辺と略平行な方向に撮像装置100を振ることが多い。そのため、以下の説明では、撮像装置100を正姿勢で構えて、水平方向に大きく、垂直(鉛直)方向には小さく撮像装置100を振って流し撮りを行うシーンを取り上げ、便宜上、撮像装置100を振る動作をパンニングと称呼する。なお、図4のフローチャートに示す各処理は、CPU104がメモリ105に格納されたプログラムをメモリ105に展開して撮像装置100を構成する各部の動作を制御することによって実現される。   FIG. 4 is a flowchart for explaining a follow shot assist operation (assisting operation) according to the first embodiment of the imaging device 100 when performing the follow shot using the imaging device 100. When performing panning, the imaging device 100 is often swung in a direction substantially parallel to the long side of the imaging element 102. Therefore, in the following description, the imaging apparatus 100 is held in a normal posture, and the imaging apparatus 100 is picked up in a horizontal direction and a small size in the vertical (vertical) direction, and the imaging apparatus 100 is picked up. The action of shaking is referred to as panning. Each process shown in the flowchart of FIG. 4 is realized by the CPU 104 developing a program stored in the memory 105 in the memory 105 and controlling the operation of each unit constituting the imaging apparatus 100.

撮影者が操作部111を操作して、焦点検出部103が有するAF測距点に対応する測距点表示から任意の1点を選択すると、本処理が開始される。ステップS401においてCPU104は、選択された測距点表示の測距点番号をAPU125へ通知し、APU125はCPU104から通知された測距点番号をAPU用メモリ124に記憶する。そして、APU125は、取得した測距点番号とAPU用メモリ124に格納されている図3(c)の対応表から、取得した測距点番号の測光領域上でのベクトル検出位置を決定し、APU用メモリ124に記憶する。なお、ベクトル検出位置として選択可能な測距点表示は、光学系101や設定された撮影モードによらず、全ての測距点表示の中から選択することができる。また、撮影モードがMF(マニュアルフォーカス)モードに設定されている場合には、ステップS401で選択された測距点表示は、ベクトル検出位置の決定にのみ用いられる。一方、撮影モードがAFモードに設定されている場合には、選択された測距点表示は、主被写体に対するAF状態を示す表示にも用いられる。   When the photographer operates the operation unit 111 to select an arbitrary one of the ranging point displays corresponding to the AF ranging points of the focus detection unit 103, the present process is started. In step S401, the CPU 104 notifies the APU 125 of the distance measuring point number of the selected distance measuring point display, and the APU 125 stores the distance measuring point number notified from the CPU 104 in the APU memory 124. Then, the APU 125 determines the vector detection position on the photometric area of the acquired ranging point number from the acquired ranging point number and the correspondence table of FIG. 3C stored in the memory 124 for APU, It is stored in the APU memory 124. The distance measurement point display selectable as the vector detection position can be selected from all the distance measurement point displays regardless of the optical system 101 and the set photographing mode. When the shooting mode is set to the MF (manual focus) mode, the distance measurement point display selected in step S401 is used only for determining the vector detection position. On the other hand, when the shooting mode is set to the AF mode, the selected distance measurement point display is also used to display the AF state for the main subject.

図5(a)は、ステップS401において任意の1点の測距点表示が選択されたときの表示素子127の状態(光学ファインダ内表示)を示す図である。決定されたベクトル検出位置に対応する測距点表示501の内側に配置されたスポット測距点表示のみを点灯させることにより、ベクトル検出位置が決定されている状態にあることを撮影者に認識させることができる。   FIG. 5A is a diagram showing the state of the display element 127 (display within the optical finder) when display of an arbitrary one of the distance measurement points is selected in step S401. The photographer is made to recognize that the vector detection position is determined by lighting only the spot distance measurement point display disposed inside the distance measurement point display 501 corresponding to the determined vector detection position. be able to.

ステップS402においてCPU104は、角速度センサ106からの出力信号(LPU109からの角速度情報)に基づいて撮像装置100のパンニングが開始されたか否かを判定する。CPU104は、パンニングを検知していない場合、つまり、パンニングが開始されていないと判定した場合(S402でNO)、ステップS402の判定を繰り返することでパンニングを検知するまで待機する。CPU104は、パンニングを検知した場合に流し撮りが開始されたと判定し(S402でYES)、処理をステップS403へ進める。   In step S402, the CPU 104 determines whether panning of the imaging device 100 has started based on the output signal from the angular velocity sensor 106 (angular velocity information from the LPU 109). When the panning is not detected, that is, when it is determined that the panning is not started (NO in S402), the CPU 104 stands by until the panning is detected by repeating the determination of step S402. The CPU 104 determines that panning is started when panning is detected (YES in S402), and advances the process to step S403.

ステップS403では、CPU104の制御下でAPU125が、測光センサ128上のベクトル検出位置(図5(a)の測距点表示501)で主被写体を抽出する。主被写体抽出には、測光センサ128で撮像された画像をAPU125(動きベクトル検出部112)に入力し、得られた動きベクトルを用いて被写体エリアを抽出する手法が用いられる。動きベクトルから被写体エリアを抽出する手法についてはテンプレートマッチング等の様々な周知の手法を用いることができ、その詳細についての説明は省略する。なお、主被写体を抽出することができなかった場合には、主被写体の角速度を算出することができない。よって、CPU104は、APU125が主被写体を検出することができなかったことを示す通知を受けた場合、シフトレンズを駆動する流し撮りアシスト(補助)機能を用いず、後のステップS409においてシフトレンズを駆動しない通常の撮影方法を行う。   In step S403, under the control of the CPU 104, the APU 125 extracts the main subject at the vector detection position (the distance measurement point display 501 in FIG. 5A) on the photometric sensor 128. For main subject extraction, a method is used in which an image captured by the photometric sensor 128 is input to the APU 125 (motion vector detection unit 112), and a subject area is extracted using the obtained motion vector. As a method of extracting a subject area from a motion vector, various known methods such as template matching can be used, and the detailed description thereof will be omitted. If the main subject can not be extracted, the angular velocity of the main subject can not be calculated. Therefore, when the CPU 104 receives a notification indicating that the APU 125 could not detect the main subject, the CPU 104 does not use the follow shot assist function for driving the shift lens, and the shift lens is not moved in step S409. Do not drive a normal shooting method.

ステップS404においてCPU104は、角速度センサ106からの出力に基づく撮像装置100の角速度情報をLPU109から取得し、撮像装置100のパンニング角速度ωpを計算する。続いて、ステップS405においてCPU104は、主被写体の角速度ωs(以下「被写体角速度ωs」と記す)を算出する。図6は、被写体角速度ωs及びパンニング角速度ωpの算出方法を模式的に説明する図である。主被写体がt秒の間に点Aから点Bへ移動したことに応じて、測光センサ128のAE用撮像素子の像面上に結像した主被写体の像は点Cから点Dへと移動する。点C,D間の距離d[pixel]、焦点距離f[mm]、AE用撮像素子の画素ピッチp[μm/pixel]を用いて、像面上の被写体の角速度ω[rad/sec]は、下記式1の関係から下記式2の通りに求めることができる。なお、APU125は、動きベクトル検出部112として機能することにより検出した動きベクトルに基づいて点C,D間の距離dを求め、CPU104へ通知する。   In step S404, the CPU 104 acquires angular velocity information of the imaging device 100 based on the output from the angular velocity sensor 106 from the LPU 109, and calculates the panning angular velocity ωp of the imaging device 100. Subsequently, in step S405, the CPU 104 calculates the angular velocity ωs of the main subject (hereinafter referred to as “subject angular velocity ωs”). FIG. 6 is a diagram schematically illustrating a method of calculating the object angular velocity ωs and the panning angular velocity ωp. In response to the main subject moving from point A to point B during t seconds, the image of the main subject formed on the image surface of the AE image sensor of the photometric sensor 128 moves from point C to point D Do. Using the distance d [pixel] between points C and D, focal length f [mm], and pixel pitch p [μm / pixel] of the image sensor for AE, the angular velocity ω [rad / sec] of the object on the image plane is The following equation 2 can be obtained from the relationship of the following equation 1. The APU 125 obtains the distance d between the points C and D based on the motion vector detected by functioning as the motion vector detection unit 112, and notifies the CPU 104 of the distance d.

ここで、撮像装置100をパンニングさせた場合、像面上の被写体の角速度ωは、被写体角速度ωsからパンニング角速度ωpを減算したものとなるため、下記式3が成立する。前述の通り、パンニング角速度ωpは角速度センサ106からの出力に基づいて求められるため、下記式3から下記式4の通りに、被写体角速度ωsを算出することができる。   Here, when the imaging apparatus 100 is panned, the angular velocity ω of the object on the image plane is the object angular velocity ωs minus the panning angular velocity ωp, so the following Expression 3 is established. As described above, since the panning angular velocity ωp is obtained based on the output from the angular velocity sensor 106, the subject angular velocity ωs can be calculated as in the following Equation 3 to the following Equation 4.

Figure 2018180336
Figure 2018180336

ステップS406においてCPU104は、流し撮り時の光学ファインダ内ガイダンス表示(ステップS407で処理がステップS403に戻された後のステップS406では光学ファインダ内ガイダンス表示更新)を行う。なお、ステップS406の処理の詳細については後述する。ステップS407においてCPU104は、レリーズスイッチがオンになったか否か(撮影のための露光動作を行うか否か)を判定する。例えば、撮像装置100のシャッタボタンには、半押しでAF処理とAE処理が開始され、全押しで露光処理が開始されるように構成されているものが多く、ステップS407ではシャッタボタンが全押しされたか否かが判定される。CPU104は、レリーズスイッチがオフのままであると判定した場合(S407でNO)、処理をステップS403へ戻し、レリーズスイッチがオンになったと判定した場合(S407でYES)、処理をステップS408へ進める。   In step S406, the CPU 104 performs guidance display in the optical finder at the time of shooting (in step S406, after the process is returned to step S403 in step S407, guidance display update in the optical finder). The details of the process of step S406 will be described later. In step S407, the CPU 104 determines whether the release switch has been turned on (whether to perform the exposure operation for photographing). For example, many shutter buttons of the imaging apparatus 100 are configured such that AF processing and AE processing are started by half pressing and exposure processing is started by full pressing, and the shutter button is fully pressed in step S407. It is determined whether or not it has been done. If the CPU 104 determines that the release switch remains off (NO in S407), the process returns to step S403, and if it is determined that the release switch is on (YES in S407), the process proceeds to step S408. .

ステップS408においてCPU104は、シャッタ123を制御してシャッタ走行を開始する。ステップS409においてCPU104は、光学系101のシフトレンズを駆動して流し撮りをアシストする。ステップS410においてCPU104は、設定露光時間が経過したか否かを判定する。CPU104は、設定露光時間が経過していないと判定した場合(S410でNO)、処理をステップS408へ戻し、設定露光時間が経過した判定した場合(S410でYES)、露光を終了し、これにより流し撮りした画像データが生成されて、本処理は終了する。   In step S408, the CPU 104 controls the shutter 123 to start the shutter travel. In step S409, the CPU 104 drives the shift lens of the optical system 101 to assist the follow shot. In step S410, the CPU 104 determines whether the set exposure time has elapsed. If the CPU 104 determines that the set exposure time has not elapsed (NO in S410), the process returns to step S408, and if it is determined that the set exposure time has elapsed (YES in S410), the exposure ends. The image data taken by panning is generated, and the process ends.

続いて、ステップS406の光学ファインダ内ガイダンス表示について説明する。図7は、ステップS406の処理のフローチャートである。ステップS701においてCPU104は、撮像装置100のパンニング角速度ωpを取得する。ステップS702においてCPU104は、パンニング角速度ωpとステップS405で算出した被写体角速度ωsとの差分Δωを、下記式5により求める。ステップS703においてCPU104は、差分Δωが、流し撮りアシストによる補正範囲内か否かを判定する。なお、流し撮りアシストの補正範囲とは、シフトレンズを駆動することによって主被写体の像ぶれを抑制する補正が可能な範囲を指す。このとき、流し撮りアシストの最大補正角度θと露光時間tを用いて、下記式6が成立するか否かによって、差分Δωが流し撮りアシストの補正範囲内か否かを判定することができる。なお、下式6が成立する場合には、差分Δωは流し撮りアシストの補正範囲外であると判定される。CPU104は、差分Δωが補正範囲内であると判定した場合(S703でYES)、処理をステップS704へ進め、差分Δωが補正範囲外であると判定した場合(S703でNO)、処理をステップS705へ進める。   Subsequently, guidance display in the optical finder in step S406 will be described. FIG. 7 is a flowchart of the process of step S406. In step S701, the CPU 104 acquires the panning angular velocity ωp of the imaging device 100. In step S702, the CPU 104 obtains the difference Δω between the panning angular velocity ωp and the object angular velocity ωs calculated in step S405 according to the following equation 5. In step S703, the CPU 104 determines whether the difference Δω is within the correction range by the follow shot assist. Note that the correction range of the follow shot assist refers to a range in which correction that suppresses image blurring of the main subject is possible by driving the shift lens. At this time, it is possible to determine whether or not the difference Δω is within the correction range of the follow shot assist by using the maximum correction angle θ of the follow shot assist and the exposure time t and whether the following equation 6 is satisfied. When the following formula 6 is established, it is determined that the difference Δω is out of the correction range of the follow shot assist. If CPU 104 determines that difference Δω is within the correction range (YES in S703), the process proceeds to step S704, and if it is determined that difference Δω is outside the correction range (NO in S703), the process proceeds to step S705. Go to

Figure 2018180336
Figure 2018180336

ステップS704においてCPU104は、表示モード1を設定する。図5(b)は、表示モード1のガイダンス表示を説明する図である。表示モード1では、CPU104は、ステップS401で選択したベクトル検出位置に対応する測距点表示501を点灯させることで、撮影者に現状のパンニングで流し撮りを成功させる可能性が高いことを通知する。一方、ステップS705においてCPU104は、表示モード2を設定する。図5(c)は、表示モード2のガイダンス表示例を説明する図である。表示モード2では、CPU104は、ステップS401で選択したベクトル検出位置に対応する測距点表示501を点灯させると共に、パンニングを修正する方向と大きさ(速さ)に応じて測距点表示502を点滅させるガイダンス表示を行う。すなわち、表示モード2では、撮像装置100を振る動作を修正する方向と大きさを表す情報をファインダ内の測距点を示す情報を用いて表示する。なお、ガイダンス表示の方向と大きさの設定方法については後述する。ステップS704又はステップS705で表示モードが設定された後のステップS706においてCPU104は、設定された表示モードで表示素子127の表示を更新する。CPU104は、ステップS706により本処理を終了させ、その後、処理をステップS407へ進める。   In step S704, the CPU 104 sets display mode 1. FIG. 5B is a view for explaining the guidance display in the display mode 1. In the display mode 1, the CPU 104 notifies the photographer that there is a high possibility of success in panning according to the current panning by turning on the ranging point display 501 corresponding to the vector detection position selected in step S401. . On the other hand, in step S 705, the CPU 104 sets display mode 2. FIG. 5C is a view for explaining a guidance display example of the display mode 2. In the display mode 2, the CPU 104 turns on the distance measurement point display 501 corresponding to the vector detection position selected in step S401, and changes the distance measurement point display 502 according to the direction and size (speed) for correcting panning. Display guidance to blink. That is, in the display mode 2, the information indicating the direction and the size for correcting the operation of shaking the imaging device 100 is displayed using the information indicating the distance measurement point in the finder. In addition, the setting method of the direction and magnitude | size of a guidance display is mentioned later. In step S706 after the display mode is set in step S704 or step S705, the CPU 104 updates the display of the display element 127 in the set display mode. The CPU 104 ends the present process at step S706, and thereafter advances the process to step S407.

ステップS705で実行される表示モード2について詳細に説明する。図8は、ステップS705の処理のフローチャートである。ステップS801においてCPU104は、ステップS702で求めた差分Δωを解析する。Δω<0であれば、式5より、被写体角速度ωsよりもパンニング角速度ωpの方が大きいということになるため、撮影者が被写体に対して撮像装置100を振り過ぎていると判断することができる。一方、Δω>0であれば、被写体角速度ωsに対してパンニング角速度ωpが小さいということになるため、撮影者が被写体に対して撮像装置100を振り遅れていると判断することができる。本実施形態では、これら2つの状態を振り遅れフラグを0又は1とすることで区別することとする。Δω<0の場合(振り過ぎ)には振り遅れフラグを0とし、Δω>0(振り遅れ)の場合には振り遅れフラグを1とする。振り遅れフラグは、水平方向と垂直方向それぞれに用意されており、メモリ105に記憶される。   The display mode 2 executed in step S705 will be described in detail. FIG. 8 is a flowchart of the process of step S705. In step S801, the CPU 104 analyzes the difference Δω obtained in step S702. If Δω <0, it means that the panning angular velocity ωp is larger than the object angular velocity ωs according to Expression 5, so it can be determined that the photographer shakes the imaging device 100 too much with respect to the object. . On the other hand, if Δω> 0, it means that the panning angular velocity ωp is smaller than the object angular velocity ωs, it can be determined that the photographer is behind the subject with the imaging device 100 behind. In the present embodiment, these two states are distinguished by setting the delay flag to 0 or 1. If Δω <0 (overswing), the swing delay flag is set to 0, and if Δω> 0 (swing delay), the swing delay flag is set to 1. The delay flag is prepared in each of the horizontal direction and the vertical direction, and is stored in the memory 105.

ステップS802においてCPU104は、ステップS801で解析した差分Δωの水平方向成分Δωxに基づき、水平方向において撮像装置100に振り遅れが生じているか否かを判定する。ステップS802では、Δωx>0であれば振り遅れていると判定され、Δωx<0であれば振り過ぎていると判定される。CPU104は、水平方向で振り遅れていると判定した場合(S802でYES)、処理をステップS803へ進め、水平方向で振り過ぎていると判定した場合(S802でNO)、処理をステップS804へ進める。ステップS803においてCPU104は、水平方向の振り遅れフラグを1に設定し、メモリ105に記憶する。ステップS804においてCPU104は、水平方向の振り遅れフラグを0に設定し、メモリ105に記憶する。   In step S802, the CPU 104 determines whether or not a swing delay has occurred in the imaging device 100 in the horizontal direction based on the horizontal direction component Δωx of the difference Δω analyzed in step S801. In step S802, it is determined that the swing is delayed if Δωx> 0, and it is determined that the swing is excessive if Δωx <0. If the CPU 104 determines that the swing is delayed in the horizontal direction (YES in S802), the process proceeds to step S803, and if it is determined that the swing is excessive in the horizontal direction (NO in S802), the process proceeds to step S804. . In step S 803, the CPU 104 sets the horizontal swing delay flag to 1 and stores the flag in the memory 105. In step S 804, the CPU 104 sets the horizontal swing delay flag to 0 and stores the flag in the memory 105.

ステップS805においてCPU104は、ステップS801で解析した差分Δωの垂直方向成分Δωyを基づいて、垂直方向において撮像装置100に振り遅れが生じているか否かを判定する。ステップS805では、Δωy>0であれば振り遅れていると判定され、Δωy<0であれば振り過ぎていると判定される。CPU104は、垂直方向で振り遅れていると判定した場合(S805でYES)、処理をステップS806へ進め、垂直方向で振り過ぎていると判定した場合(S805でNO)、処理をステップS807へ進める。ステップS806においてCPU104は、垂直方向の振り遅れフラグを1に設定し、メモリ105に記憶する。ステップS807においてCPU104は、垂直方向の振り遅れフラグを0に設定し、メモリ105に記憶する。   In step S805, the CPU 104 determines whether or not the imaging apparatus 100 has a delay in the vertical direction based on the vertical direction component Δωy of the difference Δω analyzed in step S801. In step S805, it is determined that the swing is delayed if Δωy> 0, and it is determined that the swing is excessive if Δωy <0. If it is determined that the swing is delayed in the vertical direction (YES in S805), the process proceeds to step S806, and if it is determined that the swing is excessive in the vertical direction (NO in S805), the process proceeds to step S807. . In step S 806, the CPU 104 sets the vertical swing delay flag to 1 and stores the flag in the memory 105. In step S 807, the CPU 104 sets the vertical swing delay flag to 0 and stores the flag in the memory 105.

ステップS808においてCPU104は、水平方向に表示する測距点表示の数を決定する。具体的には、流し撮りアシストの補正範囲を超えた水平方向の角度の大きさΔθxは、ステップS802で用いたΔωx及び露光時間tから下記式7により求められる。そして、ガイダンス表示のために点滅表示させる測距点表示の数kは、流し撮りアシストの最大補正角度θの水平方向成分θxを用いて、下記式8の関係を満たす最大の正の整数として求めることができる。CPU104は、下記式8により求められた、水平方向でガイダンス表示する測距点表示の数kをメモリ105に記憶する。   In step S808, the CPU 104 determines the number of distance measurement point displays displayed in the horizontal direction. Specifically, the size Δθx of the angle in the horizontal direction beyond the correction range of the follow shot assist is obtained by the following equation 7 from Δωx used in step S802 and the exposure time t. Then, the number k of ranging point displays displayed in a blinking manner for guidance display is determined as the maximum positive integer satisfying the relationship of the following formula 8 using the horizontal direction component θx of the maximum correction angle θ of the follow shot assist be able to. The CPU 104 stores, in the memory 105, the number k of distance measurement point displays for guidance display in the horizontal direction, which is obtained by the following equation 8.

Figure 2018180336
Figure 2018180336

ステップS809においてCPU104は、垂直方向に表示する測距点表示の数を決定する。具体的には、流し撮りアシストの補正範囲を超えた垂直方向の角度の大きさΔθyは、ステップS802で用いたΔωy及び露光時間tから下記式9により求められる。そして、ガイダンスのために点滅表示させる測距点表示素子の数jは、流し撮りアシストの最大補正角度θの垂直方向成分θyを用いて、下記式10の関係を満たす最大の正の整数として求めることができる。CPU104は、下記式10により求められた、垂直方向でガイダンス表示する測距点表示の数jをメモリ105に記憶する。CPU104は、ステップS809で本処理を終了させ、処理をステップS706へ進める。   In step S809, the CPU 104 determines the number of distance measurement point displays displayed in the vertical direction. Specifically, the size Δθy of the angle in the vertical direction beyond the correction range of the follow shot assist is obtained by the following equation 9 from Δωy used in step S802 and the exposure time t. Then, the number j of the distance measurement point display elements to be blinked for guidance is determined as the maximum positive integer satisfying the relationship of the following equation 10 using the vertical direction component θy of the maximum correction angle θ of the follow shot assist be able to. The CPU 104 stores in the memory 105 the number j of distance measurement point displays for guidance display in the vertical direction, which is obtained by the following equation 10. The CPU 104 ends the present process in step S809, and advances the process to step S706.

Figure 2018180336
Figure 2018180336

図9は、ステップS706の処理のフローチャートである。ステップS901においてCPU104は、メモリ105に記憶されている水平方向の振り遅れフラグを参照する。ステップS902においてCPU104は、水平方向の振り遅れフラグが1か否かを判定する。CPU104は、水平方向の振り遅れフラグが1である場合(S902でYES)、処理をステップS903へ進め、水平方向の振り遅れフラグが0である場合(S902でNO)、処理をステップS904へ進める。ステップS903においてCPU104は、水平方向に振り遅れている状態であるため、撮影者により速く撮像装置100を振らせるように、パンニング方向の水平方向成分の向きと同じ向きにガイダンス表示を行う。一方、ステップS904においてCPU104は、水平方向に振り過ぎている状態であるため、撮影者により遅く撮像装置100を振らせるように、パンニング方向の水平方向成分の向きとは逆の向きにガイダンス表示を行う。   FIG. 9 is a flowchart of the process of step S706. In step S901, the CPU 104 refers to the horizontal swing delay flag stored in the memory 105. In step S902, the CPU 104 determines whether the horizontal swing delay flag is 1 or not. If the horizontal swing delay flag is 1 (YES in S902), the CPU 104 advances the process to step S903. If the horizontal swing delay flag is 0 (NO in S902), the CPU 104 advances the process to step S904. . In step S 903, since the CPU 104 is in the state of being delayed in the horizontal direction, guidance display is performed in the same direction as the horizontal direction component of the panning direction so that the imaging device 100 can be shaken faster by the photographer. On the other hand, in step S904, since the CPU 104 is in the state of swinging too much in the horizontal direction, the guidance display is displayed in the opposite direction of the horizontal direction component of the panning direction so that the photographer shakes the imaging device 100 later. Do.

ステップS903,S904のガイダンス表示には、メモリ105に格納されている測距点番号の配列表(図3(d))が用いられる。図10(a)は、ステップS903でのガイダンス表示を説明する模式図である。ステップS401において、測距点番号23の測距点表示がベクトル検出位置に設定されたものとする。その場合、ステップS903においてCPU104は、まず、ステップS401で選択された測距点番号をメモリ105から読み出し、図10(a)に示すように対応する測距点番号23の測距点表示を点灯させる。続いて、LPU109からの角速度情報(角速度センサ106からの出力信号)から、撮像装置100のパンニングの水平方向成分の向きが+方向か−方向か(図3(a)参照)を判定する。例えば、パンニングの水平方向成分が+方向、ステップS808で求めた表示個数が2個である場合、点滅させる測距点番号は23から+方向に2つ分となるので、測距点番号の配列表から測距点番号24,25を求め、対応する測距点表示を点滅させる。   For the guidance display in steps S 903 and S 904, an array table of distance measurement point numbers stored in the memory 105 (FIG. 3D) is used. FIG. 10A is a schematic view for explaining the guidance display in step S903. In step S401, it is assumed that the distance measurement point display of the distance measurement point number 23 is set to the vector detection position. In that case, in step S903, the CPU 104 first reads the distance measuring point number selected in step S401 from the memory 105, and lights the distance measuring point display of the corresponding distance measuring point number 23 as shown in FIG. Let Subsequently, it is determined from the angular velocity information (output signal from the angular velocity sensor 106) from the LPU 109 whether the direction of the horizontal component of the panning of the imaging device 100 is the + direction or the − direction (see FIG. 3A). For example, when the horizontal direction component of panning is + direction and the number of displayed images obtained in step S 808 is 2, the distance measurement point numbers to be blinked are from 23 to 2 in the + direction. The distance measuring point numbers 24 and 25 are obtained from the row table, and the corresponding distance measuring point display is blinked.

図10(b)は、ステップS904でのガイダンス表示を説明する模式図である。図10(a)での説明と同様に、ステップS401において、ベクトル検出位置である測距点番号23の測距点表示が点灯している。CPU104は、角速度センサ106からの出力信号から、パンニングの水平方向成分の向きが+方向か−方向かを判定する。例えば、パンニングの水平方向成分が−方向、ステップS808で求めた表示個数が2個である場合、点滅させる測距点番号は23から−方向に2つ分となるので、測距点番号の配列表から測距点番号21,22を求め、対応する測距点表示を点滅させる。   FIG. 10B is a schematic view illustrating guidance display in step S904. Similar to the description in FIG. 10A, in step S401, the distance measurement point display of the distance measurement point number 23, which is a vector detection position, is on. From the output signal from the angular velocity sensor 106, the CPU 104 determines whether the direction of the horizontal component of panning is the + direction or the-direction. For example, if the horizontal direction component of panning is in the negative direction, and the number of displayed images obtained in step S808 is 2, the distance measurement point numbers to be blinked are from 23 to 2 in the-direction. The distance measuring point numbers 21 and 22 are obtained from the row table, and the corresponding distance measuring point display is blinked.

ステップS903,S904の処理後のステップS905においてCPU104は、メモリ105に記憶されている垂直方向の振り遅れフラグを参照する。ステップS906においてCPU104は、垂直方向の振り遅れフラグが1か否かを判定する。CPU104は、垂直方向の振り遅れフラグが1である場合(S906でYES)、処理をステップS907へ進め、垂直方向の振り遅れフラグが0である場合(S906でNO)、処理をステップS908へ進める。ステップS907においてCPU104は、垂直方向に振り遅れている状態であるため、撮影者により速く撮像装置100を振らせるように、パンニング方向の垂直方向成分の向きと同じ向きにガイダンス表示を行う。一方、ステップS908においてCPU104は、垂直方向に振り過ぎている状態であるため、撮影者により遅く撮像装置100を振らせるように、パンニング方向の垂直方向成分の向きとは逆の向きにガイダンス表示を行う。   In step S 905 after the processing in steps S 903 and S 904, the CPU 104 refers to the vertical swing delay flag stored in the memory 105. In step S 906, the CPU 104 determines whether the vertical swing delay flag is 1 or not. If the vertical swing delay flag is 1 (YES in S906), the CPU 104 advances the process to step S907. If the vertical swing delay flag is 0 (NO in S906), the CPU 104 advances the process to step S908. . In step S 907, the CPU 104 displays the guidance in the same direction as the direction of the vertical direction component in the panning direction so that the imaging apparatus 100 can be swung more quickly because the CPU 104 is behind in the vertical direction. On the other hand, in step S 908, the CPU 104 is in the state of swinging too much in the vertical direction, so guidance display is performed in the direction opposite to the direction of the vertical component of the panning direction so as to shake the imaging device 100 later by the photographer. Do.

ステップS907,S908のガイダンス表示は、ステップS903,S904のガイダンス表示に準ずる。図10(c)は、ステップS906でのガイダンス表示を説明する模式図である。ステップS401において、測距点番号23の測距点表示がベクトル検出位置に設定されたものとする。その場合、ステップS907においてCPU104は、まず、ステップS401で選択された測距点番号をメモリ105から読み出し、図10(c)に示すように対応する測距点番号23の測距点表示を点灯させる。続いて、角速度センサ106からの出力信号から、パンニングの垂直方向成分の向きが+方向か−方向かを判定する。例えば、パンニングの垂直方向成分が+方向、ステップS809で求めた表示個数が1個である場合、点滅させる測距点番号は23から+方向に1つ分となるので、測距点番号の配列表から測距点番号32を求め、対応する測距点表示を点滅させる。   The guidance display in steps S 907 and S 908 conforms to the guidance display in steps S 903 and S 904. FIG. 10C is a schematic view for explaining the guidance display in step S906. In step S401, it is assumed that the distance measurement point display of the distance measurement point number 23 is set to the vector detection position. In that case, in step S 907, the CPU 104 first reads the distance measuring point number selected in step S 401 from the memory 105, and lights the distance measuring point display of the corresponding distance measuring point number 23 as shown in FIG. Let Subsequently, it is determined from the output signal from the angular velocity sensor 106 whether the direction of the vertical direction component of panning is the + direction or the-direction. For example, when the vertical direction component of panning is + direction and the display number obtained in step S 809 is one, the distance measuring point number to be blinked is from 23 to + one direction, so the arrangement of the distance measuring point numbers The distance measuring point number 32 is obtained from the row table, and the corresponding distance measuring point display is blinked.

図10(d)は、ステップS908でのガイダンス表示を説明する模式図である。ここでも、ステップS401において、ベクトル検出位置である測距点番号23の測距点表示が点灯しているものとする。CPU104は、角速度センサ106からの出力信号から、パンニングの垂直方向成分の向きが+方向か−方向かを判定する。例えば、パンニングの垂直方向成分が−方向、ステップS809で求めた表示個数が1個である場合、点滅させる測距点番号は23から−方向に1つ分となるので、測距点番号の配列表から測距点番号14を求め、対応する測距点表示を点滅させる。CPU104は、ステップS907,S908が終了すると本処理を終了させる。   FIG. 10D is a schematic view illustrating guidance display in step S908. Also here, in step S401, it is assumed that the distance measurement point display of the distance measurement point number 23, which is a vector detection position, is on. The CPU 104 determines from the output signal from the angular velocity sensor 106 whether the direction of the vertical component of the panning is the + direction or the − direction. For example, when the vertical component of panning is in the negative direction, and the number of displayed images obtained in step S809 is one, the distance measuring point number to be blinked is from 23 to one in the negative direction. The distance measuring point number 14 is obtained from the row table, and the corresponding distance measuring point display is blinked. The CPU 104 ends the present process when steps S 907 and S 908 end.

流し撮りでの露光が行われている間に、上記説明の通りに光学ファインダ内でのガイダンス表示を更新することで、撮影者はガイダンス表示にしたがって撮像装置100の振り方(パンニング角速度とその方向)を修正することができる。これにより、流し撮りが成功する確率(成功率)を高めることができる。   By updating the guidance display in the optical finder as described above while the exposure in the follow shot is being performed, the photographer swings the imaging apparatus 100 according to the guidance display (the panning angular velocity and its direction). ) Can be corrected. As a result, it is possible to increase the probability (success rate) of successful follow-up shooting.

<第2実施形態>
本実施形態では、撮影者が多点AFモードを選択し、移動する主被写体を追尾するAFモードを選択している場合に流し撮りをアシストするガイダンス表示について説明する。図11は、撮像装置100を用いて流し撮りを行う際の撮像装置100の第2実施形態に係る流し撮りアシスト動作を説明するフローチャートである。図11のフローチャートに示す各処理は、CPU104がメモリ105に格納されたプログラムをメモリ105に展開して撮像装置100を構成する各部の動作を制御することによって実現される。
Second Embodiment
In the present embodiment, guidance display for assisting the follow shot will be described when the photographer selects the multipoint AF mode and selects the AF mode for tracking the moving main subject. FIG. 11 is a flowchart for describing a follow shot assist operation according to the second embodiment of the imaging device 100 when performing the follow shot using the imaging device 100. Each process shown in the flowchart of FIG. 11 is realized by the CPU 104 developing a program stored in the memory 105 in the memory 105 and controlling the operation of each unit constituting the imaging apparatus 100.

図12(a)は、図11のフローチャートに対応する流し撮りアシスト動作のタイミングチャートであり、CPU104によるAF制御、流し撮りアシスト、ファインダ内表示更新の動作タイミングを示している。ステップS1101においてCPU104は、レリーズボタンが半押しされたことを検知すると、焦点検出部103に対してAF制御の開始要求を行う。焦点検出部103は、流し撮りアシストが開始されると主被写体を追尾するために所定の時間間隔で測距を繰り返し、CPU104からのAF情報要求に対してAF合焦位置情報を返す。レリーズボタンが半押しされている間、焦点検出部103はこの動作を繰り返し、半押し状態が解除され又はレリーズボタンが全押しされて撮影が開始されると終了する。ステップS1102においてCPU104は、焦点検出部103から取得したAF合焦情報に基づき、主被写体に対して合焦しているか否かを判定する。CPU104は、主被写体に対して合焦していないと判定した場合(S1102でNO)、合焦していると判定することができるまで、ステップS1102の判定を繰り返す。CPU104は、主被写体に対して合焦したと判定した場合(S1102でYES)、処理をステップS1103へ進める。   FIG. 12A is a timing chart of the follow shot assist operation corresponding to the flowchart of FIG. 11, and shows the operation timing of AF control by the CPU 104, the follow shot assist, and display update in the finder. In step S 1101, when detecting that the release button has been pressed halfway, the CPU 104 requests the focus detection unit 103 to start AF control. When the follow shot assist is started, the focus detection unit 103 repeats distance measurement at predetermined time intervals to track the main subject, and returns AF in-focus position information in response to the AF information request from the CPU 104. While the release button is half-depressed, the focus detection unit 103 repeats this operation, and ends when the half-depressed state is released or the release button is fully pressed to start shooting. In step S1102, the CPU 104 determines whether the main subject is in focus based on the AF focusing information acquired from the focus detection unit 103. If the CPU 104 determines that the main subject is not in focus (NO in S1102), the determination in step S1102 is repeated until it can be determined that the main subject is in focus. If the CPU 104 determines that the main subject is in focus (YES in step S1102), the process advances to step S1103.

ステップS1103においてCPU104は、焦点検出部103から主被写体に合焦している測距点として主測距点と副測距点を選択する。主測距点は動きベクトルを検出するための中心位置であり、副測距点は主測距点の周囲から選択される。図12(b)は、測距点の選択例を模式的に示す図であり、1点の主測距点と3点の副測距点が選択された状態が示されている。多点AF時には同一の深度にある全ての測距点がCPU104に通知され、CPU104は、通知された複数の測距点のうちの1点を主測距点とし、残りの測距点を副測距点として選択する。選択された主測距点及び副測距点はメモリ105に記憶され、CPU104は、主測距点及び副測距点に対応する測距点表示を点灯させる。なお、主測距点と副測距点に対応するそれぞれの測距点表示は、ファインダ内表示において同等に表示されているが、CPU104は主測距点と副測距点とを区別している。   In step S 1103, the CPU 104 selects the main distance measurement point and the sub distance measurement point as distance measurement points focusing on the main subject from the focus detection unit 103. The main ranging point is a central position for detecting a motion vector, and the sub ranging point is selected from around the main ranging point. FIG. 12B is a view schematically showing a selection example of distance measurement points, in which one main distance measurement point and three sub distance measurement points are selected. At the time of multipoint AF, all the distance measuring points at the same depth are notified to the CPU 104, and the CPU 104 sets one of the notified plurality of distance measuring points as the main distance measuring point and the remaining distance measuring points Select as a ranging point. The selected main distance measurement point and sub distance measurement point are stored in the memory 105, and the CPU 104 turns on the distance measurement point display corresponding to the main distance measurement point and the sub distance measurement point. Although each distance measurement point display corresponding to the main distance measurement point and the sub distance measurement point is displayed equally in the display in the finder, the CPU 104 distinguishes the main distance measurement point from the sub distance measurement point. .

ステップS1104においてCPU104は、LPU109からの角速度情報(角速度センサ106からの出力信号)に基づき、撮影者が撮像装置100のパンニングを開始したか(流し撮りを開始したか)否かを判定する。なお、撮像装置100のパンニングが開始されたか否かの判定方法には、主被写体の動きベクトルから検知する方法等の他の方法を用いてもよい。CPU104は、パンニングが開始されていない判定した場合(S1104でNO)、処理をステップS1102へ戻し、パンニングが開始されたと判定した場合(S1104でYES)、処理をステップS1105へ進める。   In step S1104, the CPU 104 determines, based on angular velocity information (output signal from the angular velocity sensor 106) from the LPU 109, whether the photographer has started panning of the imaging apparatus 100 (whether panning has been started). Note that as a method of determining whether or not panning of the imaging device 100 has started, another method such as a method of detecting from the motion vector of the main subject may be used. If it is determined that the panning is not started (NO in S1104), the process returns to step S1102, and if it is determined that the panning is started (YES in S1104), the CPU 104 advances the process to step S1105.

ステップS1105〜S1107の処理は、流し撮りアシストの補正処理に必要なパラメータを求める処理(主被写体の動きベクトル検出、パンニング角速度ωpの取得、被写体角速度ωsの算出)である。ステップS1105〜S1107の処理は、図4のフローチャートのステップS403〜S405の処理と同様であり、説明済みであるため、ここでの説明を省略する。   The processes in steps S1105 to S1107 are processes for obtaining parameters necessary for the correction process of the follow shot assist (detection of motion vector of main subject, acquisition of panning angular velocity ωp, calculation of object angular velocity ωs). The processes of steps S1105 to S1107 are the same as the processes of steps S403 to S405 in the flowchart of FIG. 4 and have already been described.

ステップS1108においてCPU104は、ファインダ内ガイダンス表示を更新する。移動する主被写体を追従するAFモードが選択されている場合には、ガイダンス表示の更新のみならず、AF合焦位置を示す測距点表示を更新して表示する必要がある。図13は、ステップS1108の処理を説明するフローチャートである。ステップS1301においてCPU104は、焦点検出部103からAF合焦位置情報を取得する。ステップS1302においてCPU104は、撮像装置100のパンニング角速度ωpとステップS1107で算出した被写体角速度ωsとの差分Δωが流し撮りアシストの補正範囲内か否かを判定する。ステップS1302の処理は、ステップS703の処理と同じであるため、詳細な説明は省略する。CPU104は、差分Δωが補正範囲内であると判定した場合(S1302でYES)、処理をステップS1303へ進め、差分Δωが補正範囲外であると判定した場合(S1302でNO)、処理をステップS1304へ進める。   In step S1108, the CPU 104 updates the in-finder guidance display. When the AF mode for following the moving main subject is selected, it is necessary to update and display not only the guidance display but also the distance measurement point display indicating the AF in-focus position. FIG. 13 is a flowchart illustrating the process of step S1108. In step S1301, the CPU 104 acquires AF in-focus position information from the focus detection unit 103. In step S1302, the CPU 104 determines whether the difference Δω between the panning angular velocity ωp of the imaging apparatus 100 and the object angular velocity ωs calculated in step S1107 is within the correction range of the follow shot assist. Since the process of step S1302 is the same as the process of step S703, detailed description will be omitted. If the CPU 104 determines that the difference Δω is within the correction range (YES in S1302), the process proceeds to step S1303, and if it is determined that the difference Δω is out of the correction range (NO in S1302), the process proceeds to step S1304. Go to

ステップS1303においてCPU104は、ステップS1301で取得したAF合焦位置情報に基づき、主測距点と副測距点のそれぞれに対応する測距点表示を点灯させる。図14(a)は、ステップS1303でのガイダンス表示を説明する模式図である。差分Δωが流し撮りアシストの補正範囲内である場合、CPU104は、AF合焦位置情報に基づく新たな主測距点と副測距点に対応する測距点表示を点灯させる。図14(a)では、主被写体がファインダ内表示において左側へシフトしていることに伴って、点灯表示される主測距点と副測距点も主被写体と共に左側へシフトしている。   In step S1303, based on the AF in-focus position information acquired in step S1301, the CPU 104 turns on distance measurement point displays corresponding to the main distance measurement point and the sub distance measurement point. FIG. 14A is a schematic diagram for explaining the guidance display in step S1303. If the difference Δω is within the correction range of the follow shot assist, the CPU 104 turns on the distance measurement point display corresponding to the new main distance measurement point and the sub distance measurement point based on the AF in-focus position information. In FIG. 14A, as the main subject is shifted to the left in display in the finder, the main ranging point and the sub-ranging point to be lit are also shifted to the left together with the main subject.

ステップS1304においてCPU104は、ステップS1301で取得したAF合焦位置情報に基づき、主測距点に対応する測距点表示のみを点灯させる。続くステップS1305においてCPU104は、ガイダンス表示を行う始点をステップS1304で点灯させた測距点表示に設定し、メモリ105に記憶する。ステップS1306においてCPU104は、流し撮りアシストのガイダンス表示を行う。ステップS1306の処理は、第1実施形態で説明したステップS406の処理に準ずるため、ここでの詳細な説明は省略する。図14(b)は、ステップS1306でのガイダンス表示を説明する模式図である。差分Δωが流し撮りアシストの補正範囲外である場合、CPU104は、主測距点に対応する測距点表示を始点として点灯させ、撮像装置100を振る方向と大きさを撮影者に知らせるための測距点表示を点滅させる。図14(b)は、ファインダ内表示に向かって左方向に移動する主被写体に対して、撮影者が振り遅れている場合の(左方向へ撮像装置100をより速く振るようにアドバイスする)表示例を示している。CPU104は、ステップS1303,S1306のいずれかの処理の終了後に、処理をステップS1109へ進める。   In step S1304, based on the AF in-focus position information acquired in step S1301, the CPU 104 turns on only the focus detection point display corresponding to the main focus detection point. In the subsequent step S1305, the CPU 104 sets the starting point for guidance display to the ranging point display lit in step S1304 and stores the same in the memory 105. In step S1306, the CPU 104 performs guidance display of the follow shot assist. The processing in step S1306 conforms to the processing in step S406 described in the first embodiment, and thus detailed description thereof will be omitted. FIG. 14B is a schematic diagram for explaining the guidance display in step S1306. When the difference Δω is out of the correction range of the panning assist, the CPU 104 lights up with the distance measurement point display corresponding to the main distance measurement point as the start point, and informs the photographer of the direction and size of shaking the imaging device 100. Flash the AF point display. FIG. 14B is a table for the case where the photographer is behind the swing for the main subject moving to the left toward display in the finder (advising to shake the imaging device 100 more quickly to the left). An example is shown. After the process of either step S1303 or S1306 ends, the CPU 104 advances the process to step S1109.

ステップS1109〜ステップS1112の処理は、図4のフローチャートのステップS407〜S410の処理と同じであるため、詳細は説明を省略する。なお、CPU104は、ステップS1109の判定がNOとなる場合には処理をステップS1105へ戻し、ステップS1112の判定がNOとなる場合には処理をステップS1110へ戻す。   The processes in steps S1109 to S1112 are the same as the processes in steps S407 to S410 in the flowchart of FIG. When the determination in step S1109 is NO, the CPU 104 returns the process to step S1105, and when the determination in step S1112 is NO, returns the process to step S1110.

本実施形態においても、撮影者が撮像装置100をパンニングさせたときの撮像装置100のパンニング角速度ωpと被写体角速度ωsとの差分Δωが流し撮りアシストの補正範囲内かを判定する。そして、撮像装置100を振る方向と大きさをガイダンスするために点滅表示させる測距点表示の起点となる測距点表示をAF合焦情報に基づいて決定して点灯表示させる。これにより、多点AFモードが選択されている場合であっても、流し撮りガイダンスを適切に表示して撮影者に提供することができる。   Also in this embodiment, it is determined whether the difference Δω between the panning angular velocity ωp of the imaging device 100 and the object angular velocity ωs when the photographer pans the imaging device 100 is within the correction range of the follow shot assist. Then, based on the AF focusing information, the distance measuring point display serving as the starting point of the distance measuring point display to be blinked and displayed to give guidance on the swing direction and the size of the imaging device 100 is determined and lit. As a result, even when the multipoint AF mode is selected, the follow shot guidance can be appropriately displayed and provided to the photographer.

<第3実施形態>
本実施形態では、上述した第2実施形態でのステップS1108のファインダ内ガイダンス表示を、図14を参照して説明した表示制御とは異なる表示制御により実行する。図15は、第3実施形態でのステップS1108の処理のフローチャートである。ステップS1501,S1502の処理はそれぞれ、図13のフローチャートを参照して説明したステップS1301,S1302の処理と同じであるため、説明を省略する。
Third Embodiment
In the present embodiment, the in-finder guidance display in step S1108 in the above-described second embodiment is executed by display control different from the display control described with reference to FIG. FIG. 15 is a flowchart of the process of step S1108 in the third embodiment. The processes of steps S1501 and S1502 are the same as the processes of steps S1301 and S1302 described with reference to the flowchart of FIG.

撮像装置100パンニング角速度ωpと被写体角速度ωsとの差分Δωが流し撮りアシストの補正範囲内であると判定された後のステップS1503においてCPU104は、主測距点に対応する測距点表示を点灯させる。続くステップS1504においてCPU104は、副測距点に対応する測距点表示のスポット測距点表示を点灯させる。図16(a)は、ステップS1504後のガイダンス表示を説明する模式図である。撮像装置100の振り遅れや振り過ぎはないため、点滅表示される測距点表示はない。主測距点と副測距点との区別が可能な表示とすることにより、撮影者は自分が撮影しようとしている主被写体に対する合焦位置をより詳細に認識することができる。   In step S1503 after it is determined that the difference .DELTA..omega. Between the imaging apparatus 100 panning angular velocity .omega.p and the object angular velocity .omega.s is within the correction range of the panning assist, the CPU 104 turns on the distance measurement point display corresponding to the main distance measurement point. . In the subsequent step S1504, the CPU 104 turns on the spot distance measurement point display of the distance measurement point display corresponding to the sub distance measurement point. FIG. 16A is a schematic diagram for explaining the guidance display after step S1504. Since there is no delay or excessive swinging of the imaging device 100, there is no range-finding point display that blinks. With the display capable of distinguishing between the main ranging point and the sub ranging point, the photographer can more precisely recognize the in-focus position with respect to the main subject he is about to shoot.

パンニング角速度ωpと被写体角速度ωsとの差分Δωが流し撮りアシストの補正範囲外であると判定された後のステップS1505においてCPU104は、主測距点に対応する測距点表示を点灯させる。ステップS1506においてCPU104は、副測距点に対応する測距点表示のスポット測距点表示を点灯させる。ステップS1507においてCPU104は、主測距点をガイダンス表示の始点に設定し、メモリ105に記憶する。ステップS1508においてCPU104は、ステップS1507で設定した始点をメモリ105から読み出し、ガイダンス表示を行う。ステップS1508の処理は、第1実施形態で説明したステップS406の処理に準ずるため、ここでの詳細な説明は省略する。図16(b)は、ステップS1508でのガイダンス表示を説明する模式図である。図16(b)には、ファインダ内表示に向かって左方向に主被写体が移動しており、撮影者が主被写体に対して撮像装置100を振り遅れている場合のガイダンス表示が示されている。CPU104は、ステップS1504,S1508のいずれかの処理の終了により、本処理を終了させる。   In step S1505 after it is determined that the difference .DELTA..omega. Between the panning angular velocity .omega.p and the object angular velocity .omega.s is outside the correction range of the follow shot assist, the CPU 104 turns on the distance measurement point display corresponding to the main distance measurement point. In step S1506, the CPU 104 turns on spot distance measurement point display of distance measurement point display corresponding to the sub distance measurement point. In step S1507, the CPU 104 sets the main ranging point as the start point of the guidance display, and stores it in the memory 105. In step S1508, the CPU 104 reads the start point set in step S1507 from the memory 105, and performs guidance display. The process of step S1508 conforms to the process of step S406 described in the first embodiment, and thus detailed description thereof will be omitted. FIG. 16B is a schematic diagram for explaining the guidance display in step S1508. FIG. 16B shows a guidance display when the main subject is moving leftward toward the display in the finder, and the photographer is behind the main subject with respect to the main subject. . The CPU 104 ends the present processing when the processing in any of steps S1504 and S1508 ends.

本実施形態では、測距点表示を点灯させて主測距点を表し、スポット測距点表示を点灯させて副測距点を表し、測距点表示を点滅させることでガイダンス表示を行う。これにより、第2実施形態と同じ効果を得ることができると共に、直観的な理解を容易とするガイダンス表示を撮影者に対して提供することができる。   In the present embodiment, the distance measurement point display is turned on to indicate the main distance measurement point, and the spot distance measurement point display is turned on to indicate the sub distance measurement point, and the distance measurement point display is blinked to perform guidance display. Thus, the same effect as that of the second embodiment can be obtained, and a guidance display that facilitates intuitive understanding can be provided to the photographer.

<第4実施形態>
本実施形態では、上述した第2実施形態でのステップS1108のファインダ内ガイダンス表示を、第2実施形態及び第3実施形態とは異なる表示制御により実行する。図17は、第4実施形態でのステップS1108の処理のフローチャートである。ステップS1701においてCPU104は、ガイダンス表示においてパンニングを修正する方向と大きさに応じて点滅表示させる測距点表示が必要な数だけパンニングを修正する方向(表示方向)にあるか否かを判定する。図18は、ステップS1701の判定に用いられるテーブルを示す図である。図18(a)は、測距点番号テーブルを示しており、測距点番号テーブルは図3(d)の測距点番号の配列表と同等である。図18(b)は、点滅表示が可能な測距点表示の数を測距点ごとに示すテーブルである。図18(b)には不図示であるが、例えば、測距点番号22の測距点表示がガイダンス表示の始点(点灯表示する測距点表示)である場合、点滅表示が可能な測距点表示の数は、上方向に2つ、下方向に2つ、右方向に5つ、左方向に3つとなる。図18(a),(b)の各テーブルは、予め二次元配列や構造体の形式でメモリ105上に格納されている。
Fourth Embodiment
In the present embodiment, the in-finder guidance display in step S1108 in the above-described second embodiment is executed by display control different from those in the second and third embodiments. FIG. 17 is a flowchart of the process of step S1108 in the fourth embodiment. In step S1701, the CPU 104 determines whether there is a direction (display direction) of correcting the panning by the required number of distance measurement point displays to be blinked according to the direction and the size of correcting the panning in the guidance display. FIG. 18 is a diagram showing a table used for the determination of step S1701. FIG. 18A shows a distance measurement point number table, and the distance measurement point number table is equivalent to the array table of distance measurement point numbers in FIG. FIG. 18B is a table showing, for each distance measurement point, the number of distance measurement point displays that can be blinked and displayed. Although not shown in FIG. 18B, for example, when the distance measurement point display of the distance measurement point number 22 is the start point of the guidance display (the distance measurement point display to be lit), the distance measurement capable of blinking display The number of point displays is two in the upward direction, two in the downward direction, five in the right direction, and three in the left direction. Each table in FIGS. 18A and 18B is stored in advance in the form of a two-dimensional array or a structure on the memory 105.

例えば、撮影者がファインダ内表示に向かって左方向に移動する主被写体を流し撮りしており、振り遅れが生じている場面を想定する。ここで、ガイダンス表示の始点が測距点番号1の測距点表示であったもとのとする。その場合には、測距点番号1の測距点表示の左方向に点滅表示を行う必要がある。しかし、図18(b)のテーブルから、CPU104は、測距点番号1の測距点表示の左方向には点滅表示が可能な測距点表示は存在しないと判定する。このようにして、撮影者に撮像装置100の振り遅れ/振り過ぎをガイダンスするための点滅表示に必要な数の測距点表示があるか否かを判定することができる。   For example, it is assumed that a photographer is shooting a main subject moving leftward toward display in the finder and a swing delay is occurring. Here, it is assumed that the guidance display start point is the distance measurement point display of the distance measurement point No. 1. In that case, it is necessary to perform blinking display in the left direction of the ranging point display of the ranging point No. 1. However, from the table of FIG. 18B, the CPU 104 determines that there is no ranging point display capable of blinking display in the left direction of the ranging point display of the ranging point number 1. In this manner, it can be determined whether or not the photographer has the necessary number of distance measurement point displays for flickering to provide guidance for delay / over swing of the imaging device 100.

CPU104は、必要な数の測距点表示があると判定した場合(S1701でYES)、処理をステップS1702に進め、必要な数の測距点表示がないと判定した場合(S1701でNO)、処理をステップS1703へ進める。ステップS1702においてCPU104は、第2実施形態又は第3実施形態で説明したガイダンス表示を行う。ステップS1703においてCPU104は、点滅表示に用いる測距点表示の点滅速度を決定する。本実施形態では、一方向について点滅表示が可能な測距点表示子の最大数は8個であるため、点滅速度を8段階で設定可能とする。但し、これに限定されるものではなく、点滅速度はより多く又はより少なく設定可能としてもよい。図19は、点滅速度の決定関数を示すグラフである。図19では、横軸に撮像装置100のパンニング角速度ωpと被写体角速度ωsの差分Δωを閾値1〜8に分けて取り、縦軸に点滅速度を取っている。例えば、差分Δωが閾値4以上で閾値5未満の場合、点滅速度は4となる。なお、閾値と点滅速度との関係には、図19に示すような段階的な関係に限らず、直線的な関係等を用いてもよい。また、本実施形態では、振り遅れているほど又振り過ぎているほど点滅速度が速くなるようにしているが、逆に、点滅速度が遅くなるようにしてもよい。   If the CPU 104 determines that the required number of distance measurement points are displayed (YES in S1701), the process advances to step S1702, and if it is determined that the required number of distance measurement points are not displayed (NO in S1701) The process advances to step S1703. In step S1702, the CPU 104 performs the guidance display described in the second embodiment or the third embodiment. In step S1703, the CPU 104 determines the blink speed of the distance measurement point display used for the blink display. In the present embodiment, since the maximum number of distance measurement point indicators capable of blinking display in one direction is eight, the blinking speed can be set in eight stages. However, the present invention is not limited to this, and the blink rate may be set to be more or less. FIG. 19 is a graph showing the determination function of the blink rate. In FIG. 19, the horizontal axis represents the difference Δω between the panning angular velocity ωp of the imaging apparatus 100 and the object angular velocity ωs divided into thresholds 1 to 8, and the vertical axis represents the blinking speed. For example, when the difference Δω is greater than or equal to the threshold 4 and less than the threshold 5, the blink rate is four. The relationship between the threshold value and the blinking speed is not limited to the stepwise relationship as shown in FIG. 19, but a linear relationship or the like may be used. Further, in the present embodiment, as the swing is delayed, the blink rate is made faster as it is shaken too much, but conversely, the blink rate may be made slower.

ステップS1704においてCPU104は、点滅表示に使用可能な測距点表示が1つ以上あるか否かを判定する。ステップS1704での判定方法は、図18に示した各テーブルを用いて、ステップS1701での判定方法に準じて行うことができる。CPU104は、点滅表示に使用可能な測距点表示が1つ以上あると判定した場合(S1704でYES)、処理をステップS1705へ進める。ステップS1705においてCPU104は、点滅表示に利用する測距点表示を1つに固定する。ステップS1706においてCPU104は、ステップS1703で決定した点滅速度でガイダンス表示を行う。図20(a)は、ステップS1706でのガイダンス表示を説明する模式図である。図20(a)は、本来は4つの測距点表示を用いてガイダンス表示を行いたい場合に、点滅可能な測距点表示が表示方向に2つしかないために、主測距点の隣の1つの測距点表示を点滅表示させた状態を示している。   In step S1704, the CPU 104 determines whether or not there is one or more distance measurement point displays that can be used for blinking display. The determination method in step S1704 can be performed according to the determination method in step S1701 using each table shown in FIG. If the CPU 104 determines that there is one or more distance measurement point displays that can be used for blinking display (YES in step S1704), the process advances to step S1705. In step S1705, the CPU 104 fixes the distance measurement point display used for the blinking display to one. In step S1706, the CPU 104 performs guidance display at the blink rate determined in step S1703. FIG. 20A is a schematic diagram for explaining the guidance display in step S1706. In FIG. 20 (a), when guidance display is originally intended to be performed using four ranging point displays, there are only two flashable ranging point displays in the display direction, so next to the main ranging points. It shows a state in which one of the distance measurement point displays is displayed in a blinking manner.

ステップS1704の判定において、CPU104は、点滅表示に使用可能な測距点表示がないと判定した場合(S1704でNO)、処理をステップS1707へ進める。ステップS1707においてCPU104は、ステップS1703で決定した点滅速度で、主測距点の点灯表示を点滅表示に切り替える。図20(b)は、ステップS1707でのガイダンス表示を説明する模式図である。図20(b)は、本来は4つ分の測距点表示を点滅させるガイダンス表示を行いたい場合に、表示方向に1つも点滅可能な測距点表示がないために、主測距点を点滅表示させた状態を示している。   If it is determined in step S1704 that the CPU 104 determines that there is no display of a distance measuring point that can be used for blinking display (NO in S1704), the process advances to step S1707. In step S1707, the CPU 104 switches the lighting display of the main ranging point to the blinking display at the blinking speed determined in step S1703. FIG. 20B is a schematic diagram for explaining the guidance display in step S1707. In (b) of FIG. 20, when it is desired to perform guidance display in which four ranging point displays are originally required to blink, there is no ranging point display that can blink at least one in the display direction. It shows a state in which it blinks.

CPU104は、ステップS1702,S1706,S1707のいずれかの処理の終了により、本処理を終了させる。本実施形態によれば、第2実施形態及び第3実施形態で得られる効果と同じ効果を得ることができ、更に、ガイダンス表示に必要な測距点表示の数が足りない場合であっても、撮影者に対してパンニングをアシストするガイダンス表示を行うことができる。   The CPU 104 ends the present process when one of the processes in steps S1702, S1706, and S1707 ends. According to the present embodiment, the same effects as the effects obtained in the second and third embodiments can be obtained, and furthermore, even if the number of ranging point displays required for guidance display is insufficient. The guidance display for assisting the photographer with panning can be performed.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<Other Embodiments>
Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of the present invention, and it is also possible to combine each embodiment suitably.

本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 撮像装置
102 撮像素子
103 焦点検出部
106 角速度センサ
110 表示部
112 動きベクトル検出部
125 APU
127 表示素子
128 測光センサ
Reference Signs List 100 image pickup apparatus 102 image pickup element 103 focus detection unit 106 angular velocity sensor 110 display unit 112 motion vector detection unit 125 APU
127 Display element 128 Photometric sensor

Claims (9)

撮像装置の角速度を検出する角速度検出手段と、
動きベクトルを検出するためのベクトル検出位置を設定する設定手段と、
撮像素子により取得された複数の画像から前記ベクトル検出位置で主被写体の動きベクトルを検出するベクトル検出手段と、
前記主被写体の移動に合わせて前記主被写体に合焦させながら前記撮像装置を振ったときに前記角速度検出手段により検出された前記撮像装置の角速度と、前記動きベクトルを用いて算出される前記撮像素子の像面上での前記主被写体の移動量とを用いて、前記主被写体の角速度を算出する算出手段と、
撮影時における前記主被写体のぶれを補正する補正手段と、
ファインダ内に前記主被写体と共に測距点を示す情報を表示する表示手段と、
前記撮像装置の角速度と前記主被写体の角速度の差分が前記補正手段による補正の可能な範囲内か否かに応じて、前記撮像装置を振る動作を修正する方向と大きさを表す情報を前記ファインダ内の測距点を示す情報を用いて前記表示手段に表示する制御手段と、を備えることを特徴とする撮像装置。
Angular velocity detection means for detecting the angular velocity of the imaging device;
Setting means for setting a vector detection position for detecting a motion vector;
Vector detection means for detecting a motion vector of a main subject at the vector detection position from a plurality of images acquired by an imaging device;
The imaging calculated using the motion vector and the angular velocity of the imaging device detected by the angular velocity detection unit when the imaging device is shaken while focusing on the main subject in accordance with the movement of the main subject Calculating means for calculating the angular velocity of the main subject using the amount of movement of the main subject on the image plane of the element;
Correction means for correcting blurring of the main subject at the time of shooting;
Display means for displaying information indicating a distance measuring point together with the main subject in the finder;
The information representing the direction and the magnitude for correcting the operation of shaking the imaging device according to whether or not the difference between the angular velocity of the imaging device and the angular velocity of the main subject is within the range where correction by the correction means is possible An image pickup apparatus comprising: control means for displaying information on the display means using information indicating a distance measurement point within the image pickup means.
複数の前記測距点が前記表示手段に表示されており、
前記制御手段は、前記差分が前記補正の可能な範囲内である場合には前記ベクトル検出位置に対応する測距点を示す情報を点灯させ、前記差分が前記補正の可能な範囲外である場合には前記ベクトル検出位置に対応する測距点を示す情報を点灯させると共に前記ベクトル検出位置から前記撮像装置を振る動作を修正する方向にある測距点を示す情報を点滅させることを特徴とする請求項1に記載の撮像装置。
A plurality of the distance measuring points are displayed on the display means,
The control means turns on information indicating a distance measuring point corresponding to the vector detection position when the difference is within the possible range of the correction, and when the difference is outside the possible range of the correction The information on the distance measuring point corresponding to the vector detection position is turned on, and the information on the distance measurement point in the direction to correct the operation of shaking the imaging device from the vector detection position is blinked. The imaging device according to claim 1.
前記制御手段は、前記差分が前記補正の可能な範囲外である場合に、前記差分が前記補正手段による補正の可能な範囲から大きく外れるにしたがって前記点滅させる測距点を示す情報の数を多くすることを特徴とする請求項2に記載の撮像装置。   When the difference is outside the possible range of the correction, the control means increases the number of pieces of information indicating the distance measuring points to be blinked as the difference is largely out of the possible range of the correction by the correction means. The imaging device according to claim 2, wherein: 前記制御手段は、前記点滅させる測距点を示す情報の数が足りない場合に、前記点滅させる測距点を示す情報の数を1つとし、前記1つの測距点を示す情報の点滅速度を前記差分が前記補正手段による補正の可能な範囲から大きく外れるにしたがって速く又は遅くすることを特徴とする請求項3に記載の撮像装置。   When the number of pieces of information indicating the distance measuring point to be blinked is insufficient, the control means sets the number of pieces of information indicating the distance measuring point to be blinked to one, and the blinking speed of the information indicating the one distance measuring point 4. The image pickup apparatus according to claim 3, wherein the difference is made faster or later as the difference is largely out of the possible range of the correction by the correction means. 前記制御手段は、前記点滅させる測距点を示す情報がない場合に、前記ベクトル検出位置に対応する測距点を示す情報を点灯から点滅へ切り替え、前記測距点を示す情報の点滅速度を前記差分が前記補正手段による補正の可能な範囲から大きく外れるにしたがって速く又は遅くすることを特徴とする請求項3に記載の撮像装置。   The control means switches the information indicating the ranging point corresponding to the vector detection position from lighting to blinking when there is no information indicating the ranging point to be blinked, and blinks the information indicating the ranging point 4. The image pickup apparatus according to claim 3, wherein the difference is made faster or later as it greatly deviates from a possible range of correction by the correction means. 前記設定手段は、前記ベクトル検出位置を、操作手段を通じて入力された位置または前記主被写体に対するオートフォーカスにより検出された前記主被写体に対する合焦位置に設定することを特徴とする請求項2乃至5のいずれか1項に記載の撮像装置。   6. The apparatus according to claim 2, wherein the setting means sets the vector detection position to a position input through the operation means or an in-focus position with respect to the main subject detected by autofocus on the main subject. An imaging device according to any one of the items. 前記ファインダは光学ファインダであり、前記測距点を示す情報はAF測距点に対応していることを特徴とする請求項2乃至6のいずれか1項に記載の撮像装置。   The image pickup apparatus according to any one of claims 2 to 6, wherein the finder is an optical finder, and the information indicating the distance measuring point corresponds to an AF distance measuring point. 撮像装置の制御方法であって、
動きベクトルを検出するためのベクトル検出位置を設定するステップと、
主被写体の移動に合わせて前記主被写体に合焦させながら前記撮像装置を振ったときの前記撮像装置の角速度を検出するステップと、
撮像素子により取得された複数の画像から前記ベクトル検出位置で主被写体の動きベクトルを検出するステップと、
前記動きベクトルを用いて算出される前記撮像素子の像面上での前記主被写体の移動量と前記撮像装置の角速度を用いて前記主被写体の角速度を算出し、前記撮像装置の角速度と前記主被写体の角速度との差分を算出するステップと、
前記差分が撮影時における前記主被写体のぶれを補正する補正手段による補正の可能な範囲内か否かに応じて、前記撮像装置を振る動作を修正する方向と大きさを表す情報をファインダ内の測距点を示す情報を用いて前記ファインダ内の表示手段に表示するステップと、を有することを特徴とする撮像装置の制御方法。
It is a control method of an imaging device, and
Setting a vector detection position for detecting a motion vector;
Detecting an angular velocity of the imaging device when the imaging device is shaken while focusing on the main subject according to the movement of the main subject;
Detecting a motion vector of a main subject at the vector detection position from a plurality of images acquired by an imaging device;
The angular velocity of the main object is calculated using the movement amount of the main object on the image plane of the image pickup element calculated using the motion vector and the angular velocity of the imaging device, and the angular velocity of the image pickup device and the main Calculating a difference from the angular velocity of the subject;
Information representing the direction and the magnitude of correction of the operation of shaking the imaging device according to whether or not the difference is within the possible range of correction by the correction means for correcting the shake of the main subject at the time of shooting And d. Displaying on a display means in the finder using information indicating a distance measurement point.
請求項8に記載の撮像装置の制御方法の各ステップを撮像装置のコンピュータに実行させることを特徴とするプログラム。   A program causing a computer of an imaging apparatus to execute the steps of the control method of an imaging apparatus according to claim 8.
JP2017080710A 2017-04-14 2017-04-14 Imaging device, control method thereof, and program Pending JP2018180336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017080710A JP2018180336A (en) 2017-04-14 2017-04-14 Imaging device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080710A JP2018180336A (en) 2017-04-14 2017-04-14 Imaging device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2018180336A true JP2018180336A (en) 2018-11-15

Family

ID=64276349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080710A Pending JP2018180336A (en) 2017-04-14 2017-04-14 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2018180336A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838658B2 (en) 2020-04-01 2023-12-05 Canon Kabushiki Kaisha Imaging device controlling correction of subject blur and control method for imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838658B2 (en) 2020-04-01 2023-12-05 Canon Kabushiki Kaisha Imaging device controlling correction of subject blur and control method for imaging device

Similar Documents

Publication Publication Date Title
US9888182B2 (en) Display apparatus
US10104299B2 (en) Zoom control apparatus, zoom control method, and storage medium
US9774782B2 (en) Image pickup apparatus and image pickup method
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2016129287A (en) Exposure control device, control method thereof, control program, and imaging device
JP2021124669A (en) Electronic apparatus
JP2017090711A (en) Image tremor correction device, and control method of the same, program thereof, and recording medium
JP2018097253A (en) Focus adjustment unit and focus adjustment method
JP6489817B2 (en) Imaging apparatus and control method thereof
JP2017227725A (en) Focus detection device, control method and program, as well as imaging device
JP2012226206A (en) Image tracking device and imaging apparatus
JP6431429B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11483466B2 (en) Imaging apparatus capable of displaying a focusing graph to assist user during focusing operation
US11283988B2 (en) Imaging apparatus
JP6140945B2 (en) Focus adjustment device and imaging device
JP2018180336A (en) Imaging device, control method thereof, and program
EP2753063B1 (en) Digital photographing apparatus and method of controlling the same
JP6544936B2 (en) Control device of imaging device, imaging device and control method thereof
EP3282297A1 (en) Focal point adjustment device and control method for focal point adjustment device
JP2018004904A (en) Subject tracking device and imaging device
JP2016114720A (en) Imaging apparatus and method of controlling the same
JP6205147B2 (en) Imaging apparatus, focusing method thereof, and focusing program
JP5772897B2 (en) Focus adjustment device and photographing device
JP5418797B2 (en) Autofocus device and camera
US11924549B2 (en) Imaging apparatus