JP6587014B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6587014B2
JP6587014B2 JP2018128290A JP2018128290A JP6587014B2 JP 6587014 B2 JP6587014 B2 JP 6587014B2 JP 2018128290 A JP2018128290 A JP 2018128290A JP 2018128290 A JP2018128290 A JP 2018128290A JP 6587014 B2 JP6587014 B2 JP 6587014B2
Authority
JP
Japan
Prior art keywords
subject
distance
shooting
imaging device
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018128290A
Other languages
Japanese (ja)
Other versions
JP2018186543A (en
Inventor
顕之 利根川
顕之 利根川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018128290A priority Critical patent/JP6587014B2/en
Publication of JP2018186543A publication Critical patent/JP2018186543A/en
Application granted granted Critical
Publication of JP6587014B2 publication Critical patent/JP6587014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

被写体距離を予め設定し、その被写体距離に被写体が位置したときに自動的に撮影動作を開始する撮像装置が知られている(例えば、特許文献1)。   An imaging apparatus is known in which a subject distance is set in advance and a photographing operation is automatically started when the subject is located at the subject distance (for example, Patent Document 1).

実公昭64−4095号公報Japanese Utility Model Publication No. 64-4095

自動撮影を開始する距離を予め設定する方法ではカメラが移動する場合などにおいて、被写体が意図した位置にいるタイミングに合わせて撮影を行うことは困難であった。   In the method of setting the distance for starting automatic shooting in advance, it is difficult to perform shooting in accordance with the timing at which the subject is at the intended position when the camera moves.

本発明の一の態様によると、被写体の像を撮像する撮像装置は、前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、前記第1の距離が前記第2の距離に到達すると動画撮影または連写撮影の撮影動作を開始し、前記第1の距離が前記第3の距離に到達すると前記撮影動作を終了する制御部と、を備える。 According to one aspect of the present invention, an imaging device that captures an image of a subject selects a first subject that moves among the subjects, and a second subject and a third subject among the subjects. A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit that measures the distance of the first and the first distance reaches the second distance , and when the first distance reaches the second distance, a shooting operation of moving image shooting or continuous shooting starts, and the first distance becomes the third distance. And a control unit that terminates the photographing operation when it arrives .

本発明によれば、被写体が意図した位置にいるタイミングで適切に撮影できる。   According to the present invention, it is possible to appropriately shoot at the timing when the subject is at the intended position.

本発明の第1の実施の形態による撮像装置のブロック構成図である。It is a block block diagram of the imaging device by the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。3 is a flowchart relating to an operation in an automatic shooting mode of the imaging apparatus according to the first embodiment of the present invention. 本発明の第2の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 3rd Embodiment of this invention. 本発明の第4の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 4th Embodiment of this invention. 本発明の第4の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 4th Embodiment of this invention.

(第1の実施の形態)
図1は、本発明の第1の実施の形態による撮像装置のブロック構成図である。図1に例示された撮像装置はデジタルカメラ100(以降、カメラ100と略記する)である。カメラ100は、撮影モードと再生モードと自動撮影モードとを有する。
(First embodiment)
FIG. 1 is a block diagram of an imaging apparatus according to the first embodiment of the present invention. The imaging device illustrated in FIG. 1 is a digital camera 100 (hereinafter abbreviated as camera 100). The camera 100 has a shooting mode, a playback mode, and an automatic shooting mode.

カメラ100の撮影レンズ11を透過した被写体光束は、撮像素子12で撮像され、その撮像信号は画像処理部13に入力される。画像処理部13を構成する画像処理回路13aは、入力された撮像信号に種々の処理を施して画像データを生成する。画像データは、表示回路13bによる処理を経て液晶モニタ14に画像として表示される。液晶モニタ14は、例えばカメラの背面に設けられる。   The subject light flux that has passed through the photographing lens 11 of the camera 100 is picked up by the image pickup device 12, and the image pickup signal is input to the image processing unit 13. The image processing circuit 13a constituting the image processing unit 13 performs various processes on the input imaging signal to generate image data. The image data is displayed as an image on the liquid crystal monitor 14 through processing by the display circuit 13b. The liquid crystal monitor 14 is provided on the back surface of the camera, for example.

カメラ100が撮影モードに設定されているときは、上記撮像(表示のための撮影)が繰り返され、その都度得られる画像データに基づく画像が液晶モニタ14に逐次更新表示される。この逐次更新表示は、ライブビュー表示またはスルー画表示と呼ばれる。撮影者は、ライブビュー表示により表示される画像を見ながら構図を決定する。   When the camera 100 is set to the shooting mode, the above imaging (shooting for display) is repeated, and images based on the image data obtained each time are sequentially updated and displayed on the liquid crystal monitor 14. This sequential update display is called live view display or live view display. The photographer determines the composition while viewing the image displayed by the live view display.

ライブビュー表示が行われているときに撮影者が操作部17を用いてレリーズ操作を行うと、改めて撮像(記録のための撮影)が行われる。その撮像によって生成された画像データは、コンピュータで扱うことが可能な画像ファイルとして、記録/再生回路13cによりメモリカード等の記録媒体15へ記録される。なお、カメラ100は、静止画像撮影、連写撮影、動画像撮影を行うことができる。   When the photographer performs a release operation using the operation unit 17 while the live view display is performed, imaging (shooting for recording) is performed again. The image data generated by the imaging is recorded on the recording medium 15 such as a memory card by the recording / reproducing circuit 13c as an image file that can be handled by a computer. The camera 100 can perform still image shooting, continuous shooting, and moving image shooting.

カメラ100が再生モードに設定されているときは、記録媒体15に記録された画像データ(静止画像、動画像)が記録/再生回路13cにより読み出される。そして、その画像データは、画像処理回路13aおよび表示回路13bを経て、液晶モニタ14に画像として表示される。   When the camera 100 is set to the reproduction mode, the image data (still image, moving image) recorded on the recording medium 15 is read by the recording / reproducing circuit 13c. The image data is displayed as an image on the liquid crystal monitor 14 through the image processing circuit 13a and the display circuit 13b.

CPU16は、操作部17からの入力に応答して、画像処理部13やAF駆動回路18、その他の不図示の回路を制御し、上述したライブビュー表示、撮影(撮像)、再生等の種々の動作を行う。また、CPU16は、位相差検出方式による焦点検出処理を実行して、AF駆動回路18へ光学系の駆動に関する指示を行う。AF駆動回路18は、CPU16からの指示に応じてAFモータ19を駆動し、撮影レンズ11の焦点調節を行う。さらに、CPU16は、撮影者が指定した被写体を追尾するターゲット追尾処理を実行する。   In response to an input from the operation unit 17, the CPU 16 controls the image processing unit 13, the AF driving circuit 18, and other circuits (not shown), and performs various operations such as the above-described live view display, shooting (imaging), and reproduction. Perform the action. Further, the CPU 16 executes focus detection processing by a phase difference detection method, and instructs the AF drive circuit 18 regarding driving of the optical system. The AF driving circuit 18 drives the AF motor 19 in accordance with an instruction from the CPU 16 to adjust the focus of the photographing lens 11. Further, the CPU 16 executes target tracking processing for tracking the subject designated by the photographer.

操作部17は、レリーズボタン、録画ボタン、電源ボタン、液晶モニタ14上に配置されたタッチパネル、その他の複数の操作部材を含む。   The operation unit 17 includes a release button, a recording button, a power button, a touch panel disposed on the liquid crystal monitor 14, and a plurality of other operation members.

カメラ100の自動撮影モードについて説明する。カメラ100が自動撮影モードに設定されているとき、撮影者は、ライブビュー画面(撮影画面)の中から被写体を指定する。この被写体がターゲット追尾処理による追尾対象となる。さらに撮影者は、実空間上の位置を指定するため、ライブビュー画面の中からその位置にある物体を指定する。カメラ100は、その物体を用いて指定された実空間上の位置に被写体が達したとき、CPU16の制御により自動的に記録のための撮影動作を開始する。   The automatic shooting mode of the camera 100 will be described. When the camera 100 is set to the automatic shooting mode, the photographer designates a subject from the live view screen (shooting screen). This subject is a tracking target by the target tracking process. Further, the photographer designates an object at the position from the live view screen in order to designate a position in the real space. When the subject reaches the position in the real space designated by using the object, the camera 100 automatically starts a shooting operation for recording under the control of the CPU 16.

図2(a)および(b)を用いてカメラ100の自動撮影モードについて説明する。図2(a)および(b)には、カメラ100と被写体Xと物体Yが図示されている。図2(a)および(b)の例では、被写体Xは陸上選手であり、物体Yはハードルである。被写体Xは物体Yに向けて走っている。カメラ100は、物体Yを挟んで被写体Xの反対側に設置されており、被写体Xを撮影するため撮影レンズ11(図2では不図示)が被写体Xに向けられている。   The automatic shooting mode of the camera 100 will be described with reference to FIGS. 2 (a) and 2 (b). 2A and 2B show the camera 100, the subject X, and the object Y. In the example of FIGS. 2A and 2B, the subject X is a track and field athlete and the object Y is a hurdle. The subject X is running toward the object Y. The camera 100 is installed on the opposite side of the subject X across the object Y, and a photographing lens 11 (not shown in FIG. 2) is directed toward the subject X in order to photograph the subject X.

カメラ100の液晶モニタ14(図2では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Yとが含まれている。撮影者は、そのライブビュー画面の中から被写体Xと物体Yを選択している。   A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 2) of the camera 100, and the live view screen includes a subject X and an object Y. The photographer has selected the subject X and the object Y from the live view screen.

被写体Xの位置と物体Yの位置Pは、焦点検出処理により繰り返し測距される。また、被写体Xは、ターゲット追尾処理により追尾される。カメラ100は、図2(b)のように被写体Xが物体Yの位置Pに到達したときに静止画撮影の撮影動作を開始する。   The position of the subject X and the position P of the object Y are repeatedly measured by focus detection processing. The subject X is tracked by the target tracking process. The camera 100 starts a still image shooting operation when the subject X reaches the position P of the object Y as shown in FIG.

カメラ100が物体Yを繰り返し測距しているため、撮影者がカメラ100を光軸方向に動かす場合や物体Yがカメラ100の画角内で移動した場合などでも、カメラ100は適切なタイミングで撮影動作を開始することができる。   Since the camera 100 repeatedly measures the distance of the object Y, even when the photographer moves the camera 100 in the optical axis direction or when the object Y moves within the angle of view of the camera 100, the camera 100 is at an appropriate timing. The shooting operation can be started.

図3は、自動撮影モードにおけるカメラ100の動作に関するフローチャートである。図3に示される処理は、CPU16によって実行される。ステップS1000では、CPU16は、カメラ100から物体Yまでの距離L(図2)を測距する。測距した距離Lは、RAMなどに一時的に記録される。 FIG. 3 is a flowchart regarding the operation of the camera 100 in the automatic shooting mode. The process shown in FIG. 3 is executed by the CPU 16. In step S1000, the CPU 16 measures the distance L Y (FIG. 2) from the camera 100 to the object Y. The measured distance L Y is temporarily recorded in a RAM or the like.

ステップS1001では、CPU16は、被写体Xまでの距離Lを測距する。ステップS1002では、CPU16は、ターゲット追尾処理により被写体Xを追尾する。ステップS1003では、CPU16は、被写体Xが物体Yの位置Pに到達したか否かを判定する。すなわち、被写体Xまでの距離Lと物体Yまでの距離Lとが一致したか否かを判定する。CPU16は、ステップS1003が肯定判定された場合はステップS1004に処理を進め、ステップS1003が否定判定された場合はステップS1000に処理を進める。ステップS1004では、CPU16は、静止画撮影の撮影動作を開始する。 In step S1001, CPU 16 is ranging the distance L X to the object X. In step S1002, the CPU 16 tracks the subject X by target tracking processing. In step S1003, the CPU 16 determines whether or not the subject X has reached the position P of the object Y. That is, it is determined whether the distance L Y Distance to L X and the object Y to the subject X matches. If the determination in step S1003 is affirmative, the CPU 16 proceeds to step S1004, and if the determination in step S1003 is negative, the CPU 16 proceeds to step S1000. In step S1004, the CPU 16 starts a still image shooting operation.

(第2の実施の形態)
本発明による第2の実施の形態について説明する。第2の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Second Embodiment)
A second embodiment according to the present invention will be described. In the second embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図4を用いて第2の実施の形態における自動撮影モードの動作内容について説明する。図4には、図2と同様にカメラ100と被写体Xとが図示されており、図2の物体Yの代わりに物体Y1およびY2が図示されている。図4の例では、物体Y1およびY2は、図2の物体Yと同様にハードルである。物体Y2の位置P2は、物体Y1の位置P1より被写体Xから遠く離れている。   The operation content of the automatic shooting mode in the second embodiment will be described with reference to FIG. 4 shows the camera 100 and the subject X as in FIG. 2, and objects Y1 and Y2 are shown instead of the object Y in FIG. In the example of FIG. 4, the objects Y1 and Y2 are hurdles like the object Y of FIG. The position P2 of the object Y2 is farther from the subject X than the position P1 of the object Y1.

カメラ100の液晶モニタ14(図4では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Y1と物体Y2が含まれる。撮影者は、そのライブビュー画面から被写体Xと物体Y1と物体Y2を選択している。   A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 4) of the camera 100, and the live view screen includes a subject X, an object Y1, and an object Y2. The photographer has selected subject X, object Y1, and object Y2 from the live view screen.

被写体Xの位置と物体Y1の位置P1と物体Y2の位置P2は、焦点検出処理により繰り返し測距される。カメラ100は、被写体Xが物体Y1の位置P1に到達したとき連写撮影または動画撮影を開始し、被写体Xが物体Y2の位置P2に到達したとき連写撮影または動画撮影を終了する。   The position of the subject X, the position P1 of the object Y1, and the position P2 of the object Y2 are repeatedly measured by the focus detection process. The camera 100 starts continuous shooting or moving image shooting when the subject X reaches the position P1 of the object Y1, and ends continuous shooting or moving image shooting when the subject X reaches the position P2 of the object Y2.

図5は、第2の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図5に示される処理は、CPU16によって実行される。なお、図3と同様の処理には、図3と同一の符号を付して、その処理の説明を省略する。   FIG. 5 is a flowchart relating to the operation content of the automatic shooting mode according to the second embodiment. The process shown in FIG. 5 is executed by the CPU 16. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals as those in FIG.

ステップS2000では、CPU16は、カメラ100から物体Y1およびY2までの距離LY1(図4)および距離LY2(図4)を測距する。測距した距離LY1および距離LY2は、RAMなどに一時的に記録される。 In step S2000, the CPU 16 measures the distance L Y1 (FIG. 4) and the distance L Y2 (FIG. 4) from the camera 100 to the objects Y1 and Y2. The measured distance L Y1 and distance L Y2 are temporarily recorded in a RAM or the like.

ステップS2003では、CPU16は、被写体Xが物体Y1の位置P1に到達したか否かを判定する。CPU16は、ステップS2003が肯定判定された場合はステップS2004に処理を進め、ステップS2003が否定判定された場合はステップS2005に処理を進める。ステップS2004では、CPU16は、静止画像の連写撮影または動画撮影の撮影動作を開始する。   In step S2003, the CPU 16 determines whether or not the subject X has reached the position P1 of the object Y1. When step S2003 is positively determined, the CPU 16 proceeds to step S2004, and when step S2003 is negative, the process proceeds to step S2005. In step S2004, the CPU 16 starts a shooting operation for continuous shooting or moving image shooting of still images.

ステップS2005では、CPU16は、被写体Xが物体Y2の位置P2に到達したか否かを判定する。CPU16は、ステップS2005が肯定判定された場合はステップS2006に処理を進め、ステップS2005が否定判定された場合はステップS2000に処理を進める。ステップS2006では、CPU16は、ステップS2004で開始した静止画像の連写撮影または動画撮影の撮影動作を終了する。   In step S2005, the CPU 16 determines whether or not the subject X has reached the position P2 of the object Y2. If the determination in step S2005 is affirmative, the CPU 16 proceeds to step S2006, and if the determination in step S2005 is negative, the CPU 16 proceeds to step S2000. In step S2006, the CPU 16 ends the still image continuous shooting or moving image shooting operation started in step S2004.

(第3の実施の形態)
本発明による第3の実施の形態について説明する。第3の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Third embodiment)
A third embodiment according to the present invention will be described. In the third embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図6を用いて第3の実施の形態における自動撮影モードの動作内容について説明する。図6には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第3の実施の形態では、物体Yを測距する際に静止画の連写撮影または動画像の撮影を行う自動撮影範囲Aを設定する。自動撮影範囲Aは、撮影レンズ11を物体Yに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点A1および端点A2は、撮影レンズ11の焦点距離、物体Yまでの距離Lなどに基づいてCPU16が公知の方法で算出する。 The operation content of the automatic shooting mode in the third embodiment will be described with reference to FIG. 6 shows the camera 100, the subject X, and the object Y as in FIG. In the third embodiment, when the object Y is measured, an automatic shooting range A is set in which continuous shooting of still images or moving images is shot. The automatic shooting range A matches the depth of field of the shooting lens 11 when the shooting lens 11 is focused on the object Y. Endpoint A1 and the end point A2 of depth of field, focal length of the taking lens 11, CPU 16 based on such as the distance L Y to the object Y is calculated in a known manner.

第3の実施の形態では、カメラ100は、被写体Xが端点A1に到達したとき連写撮影または動画撮影の撮影動作を開始し、被写体Xが端点A2に到達したとき連写撮影または動画撮影の撮影動作を終了する。   In the third embodiment, the camera 100 starts the continuous shooting or moving image shooting operation when the subject X reaches the end point A1, and the continuous shooting or moving image shooting operation when the subject X reaches the end point A2. End the shooting operation.

図7は、第3の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図7に示される処理は、CPU16によって実行される。なお、図3および図5と同様の処理には、図3および図5と同一の符号を付して、その処理の説明を省略する。   FIG. 7 is a flowchart relating to the operation content of the automatic shooting mode according to the third embodiment. The process shown in FIG. 7 is executed by the CPU 16. 3 and FIG. 5 are denoted by the same reference numerals as those in FIG. 3 and FIG.

ステップS3000では、CPU16は、カメラ100から物体Yの距離L(図6)を測距し、撮影レンズ11の焦点距離、物体Yの距離Lから被写界深度の端点A1と端点A2の位置を算出する。
ステップS3003では、CPU16は、被写体Xが端点A1の位置に到達したか否かを判定する。CPU16は、ステップS3003が肯定判定された場合は図7のステップS2004に処理を進め、ステップS3003が否定判定された場合はステップS3005に処理を進める。
ステップS3005では、CPU16は、被写体Xが端点A2の位置に到達したか否かを判定する。CPU16は、ステップS3005が肯定判定された場合は図7のステップS2006に処理を進め、ステップS3005が否定判定された場合はステップS3000に処理を進める。
In step S3000, the CPU 16 measures the distance L Y (FIG. 6) from the camera 100 to the object Y, and determines the focal length of the taking lens 11 and the distance Y of the object Y from the end points A1 and A2 of the depth of field. Calculate the position.
In step S3003, the CPU 16 determines whether or not the subject X has reached the position of the end point A1. If the determination in step S3003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 7. If the determination in step S3003 is negative, the CPU 16 proceeds to step S3005.
In step S3005, the CPU 16 determines whether or not the subject X has reached the position of the end point A2. If the determination in step S3005 is affirmative, the CPU 16 proceeds to step S2006 in FIG. 7. If the determination in step S3005 is negative, the CPU 16 proceeds to step S3000.

(第4の実施の形態)
図面を参照して、本発明による第4の実施の形態について説明する。第4の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Fourth embodiment)
A fourth embodiment according to the present invention will be described with reference to the drawings. In the fourth embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図8を用いて第4の実施の形態における自動撮影モードの動作内容について説明する。図8には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第4の実施の形態では、被写体Xを測距する際に範囲Bを設定する。範囲Bは、撮影レンズ11を被写体Xに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点B1および端点B2は、撮影レンズ11の焦点距離、物体Xの距離Lなどに基づいてCPU16が公知の方法で演算する。 The operation content of the automatic shooting mode in the fourth embodiment will be described with reference to FIG. FIG. 8 shows the camera 100, the subject X, and the object Y as in FIG. In the fourth embodiment, a range B is set when the subject X is measured. The range B matches the depth of field of the photographic lens 11 when the photographic lens 11 is focused on the subject X. The end point B1 and the end point B2 of the depth of field are calculated by the CPU 16 by a known method based on the focal length of the photographing lens 11, the distance L X of the object X, and the like.

第4の実施の形態では、カメラ100は、端点B2が物体Yの位置に到達したとき連写撮影または動画撮影の撮影動作を開始し、端点B1が物体Yに到達したとき連写撮影または動画撮影の撮影動作を終了する。   In the fourth embodiment, the camera 100 starts the continuous shooting or moving image shooting operation when the end point B2 reaches the position of the object Y, and the continuous shooting or moving image when the end point B1 reaches the object Y. Ends the shooting operation.

図9は、第4の実施の形態における自動撮影モードのカメラ100の動作内容に関するフローチャートである。図9に示される処理は、CPU16によって実行される。なお、図3、図5、図7と同様の処理には、それぞれ同一の符号を付して、その処理の説明を省略する。
ステップS4001では、CPU16は、被写体Xまでの距離Lを測距し、範囲Bの端点B1およびB2の位置を算出する。
ステップS4003では、CPU16は、端点B2が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4003が肯定判定された場合は図9のステップS2004に処理を進め、ステップS4003が否定判定された場合はステップS4005に処理を進める。ステップS4005では、CPU16は、端点B1が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4005が肯定判定された場合は図9のステップS2006に処理を進め、ステップS4005が否定判定された場合は図9のステップS1000に処理を進める。
FIG. 9 is a flowchart regarding the operation content of the camera 100 in the automatic shooting mode according to the fourth embodiment. The process shown in FIG. 9 is executed by the CPU 16. In addition, the same code | symbol is attached | subjected to each process similar to FIG.3, FIG.5, FIG.7, and description of the process is abbreviate | omitted.
In step S4001, the CPU 16 measures the distance L X to the subject X and calculates the positions of the end points B1 and B2 of the range B.
In step S4003, the CPU 16 determines whether or not the end point B2 has reached the position P of the object Y. If the determination in step S4003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 9, and if the determination in step S4003 is negative, the CPU 16 proceeds to step S4005. In step S4005, the CPU 16 determines whether or not the end point B1 has reached the position P of the object Y. If step S4005 is positively determined, the CPU 16 proceeds to step S2006 in FIG. 9, and if step S4005 is negatively determined, the process proceeds to step S1000 in FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)本発明の第1の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離Lを測距して(図3のステップS1000)、実空間内に位置Pを設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾して(図3のステップS1002)、被写体Xが物体Yの位置Pに到達したとき撮影動作を開始する。これにより、被写体が意図した位置にいるタイミングで適切に撮影できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging apparatus according to the first embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance L Y to the object Y selected by the user (step S1000 in FIG. 3), and sets the position P in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 3), and starts the shooting operation when the subject X reaches the position P of the object Y. Thereby, it is possible to appropriately shoot at the timing when the subject is at the intended position.

(2)本発明の第2の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Y1およびY2までの距離LY1およびLY2を測距して(図5のステップS2000)、実空間内に位置P1およびP2を設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾する(図5のステップS1002)。CPU16は、被写体Xが物体Y1の位置P1に到達したとき(図5のステップS2003 YES)撮影動作を開始する(図5のステップS2004)。CPU16は、被写体Xが物体Y2の位置P2に到達したとき(図5のステップS2005 YES)静止画像の連写撮影や動画撮影の撮影動作を終了する(図5のステップS2006)。これにより、被写体が意図した位置にいるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (2) An imaging apparatus according to the second embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distances L Y1 and L Y2 to the objects Y1 and Y2 selected by the user (step S2000 in FIG. 5), and sets the positions P1 and P2 in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 5). When the subject X reaches the position P1 of the object Y1 (YES in step S2003 in FIG. 5), the CPU 16 starts a photographing operation (step S2004 in FIG. 5). When the subject X reaches the position P2 of the object Y2 (YES in step S2005 in FIG. 5), the still image continuous shooting or moving image shooting operation ends (step S2006 in FIG. 5). Accordingly, it is possible to appropriately start and end continuous shooting and moving image shooting at the timing when the subject is at the intended position.

(3)本発明の第3の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して端点A1と端点A2を含む被写界深度Aを算出する(図7のステップS3000)。そして、CPU16は、ターゲット追尾処理により被写体Xを追尾する(図7のステップS1002)。CPU16は、被写体Xが端点A1に到達したとき(図7のステップS3003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図7のステップS2004)。また、被写体Xが端点A2に到達したとき(図7のステップS3005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図7のステップS2006)。これにより、実空間上の位置を一つ指定するだけで、被写体Xと物体Yの両方が合焦状態となるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (3) An imaging apparatus according to the third embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user and calculates the depth of field A including the end points A1 and A2 (step S3000 in FIG. 7). Then, the CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 7). When the subject X reaches the end point A1 (YES in step S3003 in FIG. 7), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 7). When the subject X reaches the end point A2 (YES in step S3005 in FIG. 7), the still image continuous shooting and moving image shooting operation ends (step S2006 in FIG. 7). Thus, it is possible to appropriately start and end the continuous shooting and the moving image shooting at the timing when both the subject X and the object Y are in focus by only specifying one position in the real space.

(4)本発明の第4の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して(図9のステップS1000)、実空間内に位置Pを設定する。CPU16は、被写体追尾処理により被写体Xを追尾する(図9のステップS1002)。CPU16は、被写体Xを測距するとき被写界深度Bを算出する(図9のステップS4001)。CPU16は、被写界深度Bの端点B2が位置P1に到達したとき(図9のステップS4003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図9のステップS2004)。また、被写界深度Bの端点B1が位置P1に到達したとき(図9のステップS4005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図9のステップS2006)。これにより、被写体が意図した位置に到達するまでに、確実に連写撮影や動画撮影を開始することができる。 (4) An imaging apparatus according to the fourth embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user (step S1000 in FIG. 9), and sets the position P in the real space. The CPU 16 tracks the subject X by subject tracking processing (step S1002 in FIG. 9). The CPU 16 calculates the depth of field B when measuring the subject X (step S4001 in FIG. 9). When the end point B2 of the depth of field B reaches the position P1 (YES in step S4003 in FIG. 9), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 9). When the end point B1 of the depth of field B has reached the position P1 (YES in step S4005 in FIG. 9), the still image continuous shooting and moving image shooting operations are terminated (step S2006 in FIG. 9). Thus, continuous shooting and moving image shooting can be surely started before the subject reaches the intended position.

(変形例1)本発明は、一眼レフデジタルカメラ、コンパクトカメラ、カメラ付き携帯端末など、様々な撮像装置に適用できる。 (Modification 1) The present invention can be applied to various imaging apparatuses such as a single-lens reflex digital camera, a compact camera, and a portable terminal with a camera.

(変形例2)第2および第3の実施の形態では、被写体Xが位置P2や端点A2に到達したとき(たとえば、被写体Xがカメラ100に接近する猫の場合、猫の頭が位置P2に到達したとき)静止画撮影の連写撮影や動画撮影を終了することとした。しかし、被写体Xが位置P2や端点A2を通過したとき(たとえば、前述の猫の尻尾が位置P2に到達したとき)に静止画撮影の連写撮影や動画撮影を終了することにしてもよい。 (Modification 2) In the second and third embodiments, when the subject X reaches the position P2 or the end point A2 (for example, when the subject X is a cat approaching the camera 100, the head of the cat is at the position P2. When it arrives), we decided to end the continuous shooting and still image shooting. However, when the subject X passes the position P2 or the end point A2 (for example, when the aforementioned cat's tail reaches the position P2), the continuous shooting or the moving image shooting of the still image shooting may be ended.

(変形例3)第2の実施の形態では、被写体Xが位置P1に到達したとき静止画像の連写撮影または動画撮影の撮影動作を開始し、被写体Xが位置P2に到達したとき静止画像の連写撮影または動画撮影の撮影動作を終了することとした。しかし、被写体Xが位置P1に到達したときと位置P2に到達したときにそれぞれ静止画像撮影の撮影動作を行うことにしてもよい。第3の実施の形態および第4の実施の形態についても同様である。 (Modification 3) In the second embodiment, when the subject X reaches the position P1, the continuous shooting or moving image shooting operation is started when the subject X reaches the position P1, and when the subject X reaches the position P2, the still image is captured. The shooting operation for continuous shooting or movie shooting was ended. However, when the subject X reaches the position P1, and when the subject X reaches the position P2, a still image shooting operation may be performed. The same applies to the third embodiment and the fourth embodiment.

(変形例4)上記の実施の形態では、カメラ100から物体Y、物体Y1、物体Y2までの距離をパッシブ方式で測距したが、それ以外の方法で測距してもよい。たとえば、カメラ100に超音波測距部やレーザ測距部を備えて、物体Y、物体Y1、物体Y2までの距離をアクティブ方式で測距することにしてもよい。 (Modification 4) In the above embodiment, the distances from the camera 100 to the object Y, the object Y1, and the object Y2 are measured by the passive method, but may be measured by other methods. For example, the camera 100 may be provided with an ultrasonic distance measuring unit or a laser distance measuring unit, and the distances to the object Y, the object Y1, and the object Y2 may be measured by an active method.

(変形例5)第2の実施の形態と第3の実施の形態とは組み合わせて実施をしてもよい。すなわち、物体Y1に合焦して測距するときに物体Y1の位置P1を基準とする被写界深度Cを算出し、物体Y2に合焦して測距するときに物体Y2の位置P2を基準とする被写界深度Dを算出することにしてもよい。そして、被写体Xが被写界深度Cおよび被写界深度Dの中にいるとき、連写撮影や動画撮影を行うことにしてもよいし、被写界深度CおよびDの各々の両端で被写体Xが到達したときに静止画撮影の撮影動作を開始することにしてもよい。 (Modification 5) The second embodiment and the third embodiment may be implemented in combination. That is, the depth of field C is calculated based on the position P1 of the object Y1 when the object Y1 is focused and the distance is measured, and the position P2 of the object Y2 is determined when the object Y2 is focused and the distance is measured. A reference depth of field D may be calculated. Then, when the subject X is in the depth of field C and the depth of field D, continuous shooting or moving image shooting may be performed, and the subject is captured at both ends of the depth of field C and D. When X arrives, a still image shooting operation may be started.

(変形例6)第1の実施の形態では、図3のステップS1003が肯定判定されて撮影動作を開始するまでの間、CPU16は、物体Yまでの距離Lを繰り返し測距することとした。しかし、図3の処理を開始したときのみ物体Yまでの距離Lを測距することにしてもよい。すなわち、図3のステップS1003が否定判定されたとき、ステップS1000ではなくステップS1001に進むことにしてもよい。また、カメラ100の姿勢が大きく変化したときにのみ物体Yまでの距離Lを再び測距することにしてもよい。 (Modification 6) In the first embodiment, step S1003 of FIG. 3 until the start of the photographing operation is affirmative determination, CPU 16, it was decided to repeat the distance measurement of the distance L Y to the object Y . However, it may be to the distance measuring the distance L Y to see the object Y at the start of the process of FIG. That is, when a negative determination is made in step S1003 of FIG. 3, the process may proceed to step S1001 instead of step S1000. Further, the distance L Y to the object Y may be possible to re-ranging only when the posture of the camera 100 has changed significantly.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。   The above description is merely an example, and is not limited to the configuration of the above embodiment. Further, the embodiments and modifications described above may be combined and executed as long as the features of the invention are not impaired.

100:カメラ,16:CPU
X:被写体,Y:物体,Y1:物体,Y2:物体
100: Camera, 16: CPU
X: Subject, Y: Object, Y1: Object, Y2: Object

Claims (6)

被写体の像を撮像する撮像装置において、
前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、
前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、
前記第1の距離が前記第2の距離に到達すると動画撮影または連写撮影の撮影動作を開始し、前記第1の距離が前記第3の距離に到達すると前記撮影動作を終了する制御部と、
を備える撮像装置。
In an imaging device that captures an image of a subject,
A selection unit that selects a first subject that moves among the subjects , and a second subject and a third subject among the subjects ;
A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit for measuring
When the first distance reaches the second distance, a control unit that starts a shooting operation of moving image shooting or continuous shooting, and ends the shooting operation when the first distance reaches the third distance ; ,
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記測距部は、前記撮像装置の姿勢が変化した場合に再び前記第2の距離および前記第3の距離の少なくともいずれかを測定する撮像装置。
The imaging device according to claim 1,
The distance measuring unit is an image pickup apparatus that measures at least one of the second distance and the third distance again when the posture of the image pickup apparatus changes.
請求項1または2に記載の撮像装置において、
前記撮像装置の撮影者が操作可能である操作部を備え、
前記操作部により、前記撮影者による前記選択部の選択操作を受け付ける撮像装置。
The imaging device according to claim 1 or 2,
An operation unit that can be operated by a photographer of the imaging apparatus;
An imaging apparatus that receives a selection operation of the selection unit by the photographer by the operation unit.
請求項1から3のいずれか一項に記載の撮像装置において、
前記制御部は、前記撮像装置から前記第1の被写体の一端または他端のいずれか一方が前記第3の距離に到達したとき、撮影動作を終了する撮像装置。
In the imaging device according to any one of claims 1 to 3 ,
Wherein, when said the either one of the imaging apparatus of one end or the other of said first object has reached the third distance, the image pickup device to end the photographing operation.
被写体の像を撮像する撮像装置において、  In an imaging device that captures an image of a subject,
前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、  A selection unit that selects a first subject that moves among the subjects, and a second subject and a third subject among the subjects;
前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、  A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit for measuring
前記第1の距離が前記第2の距離に基づいた距離に到達したときと、前記第1の距離が前記第3の距離に基づいた距離に到達したときに撮影をする制御部と、  A controller that takes a picture when the first distance reaches a distance based on the second distance and when the first distance reaches a distance based on the third distance;
を備える撮像装置。An imaging apparatus comprising:
請求項1から5のいずれか一項に記載の撮像装置において、
前記測距部が前記第2の距離の測距を開始してから前記制御部が撮像動作を開始するまでの間に、前記撮像装置は移動可能である撮像装置。
In the imaging device according to any one of claims 1 to 5 ,
The imaging apparatus is movable between the time when the distance measurement unit starts measuring the second distance and the time when the control unit starts the imaging operation.
JP2018128290A 2018-07-05 2018-07-05 Imaging device Active JP6587014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018128290A JP6587014B2 (en) 2018-07-05 2018-07-05 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018128290A JP6587014B2 (en) 2018-07-05 2018-07-05 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017158413A Division JP6365748B2 (en) 2017-08-21 2017-08-21 Imaging device

Publications (2)

Publication Number Publication Date
JP2018186543A JP2018186543A (en) 2018-11-22
JP6587014B2 true JP6587014B2 (en) 2019-10-09

Family

ID=64355226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018128290A Active JP6587014B2 (en) 2018-07-05 2018-07-05 Imaging device

Country Status (1)

Country Link
JP (1) JP6587014B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074431A1 (en) * 2021-10-25 2023-05-04 株式会社ニコン Imaging control device, imaging device, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH055830A (en) * 1991-06-27 1993-01-14 Nikon Corp Automatic focusing camera
JPH05188266A (en) * 1992-01-09 1993-07-30 Nikon Corp Electric driving device fop lens distance ring
JPH11142725A (en) * 1997-11-13 1999-05-28 Casio Comput Co Ltd Camera apparatus and autofocusing control method
JP2000193878A (en) * 1998-12-25 2000-07-14 Canon Inc Camera
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
JP5402341B2 (en) * 2009-01-26 2014-01-29 株式会社Jvcケンウッド Automatic imaging apparatus and automatic imaging method

Also Published As

Publication number Publication date
JP2018186543A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP2007316497A5 (en)
JP2016201626A (en) Shift element controller, shift element control program and optical apparatus
US9781346B2 (en) Image capturing control apparatus, image capturing apparatus and storage medium storing image capturing control program for driving a movable element when motion vectors have mutually different magnitudes
JP2010171748A (en) Imaging apparatus and imaging control program
JP6587014B2 (en) Imaging device
JP2015194686A (en) Imaging apparatus
JP2015210493A (en) Blur correction device, blur correction method and program, and imaging device
JP2009206920A (en) Camera
US10917556B2 (en) Imaging apparatus
JP6365748B2 (en) Imaging device
JP2013243529A (en) Imaging apparatus
JP2006033242A (en) Image reproducing method and image pickup device
JP6613149B2 (en) Image blur correction apparatus and control method therefor, imaging apparatus, program, and storage medium
JP5188293B2 (en) Imaging apparatus, control method thereof, and program
JP2009260413A (en) Image pickup apparatus and method for controlling image pickup apparatus
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP3105515B2 (en) Electronic camera
JP5635340B2 (en) Movie shooting device, movie shooting method, program, and image processing device
JP2007274220A (en) Imaging apparatus and imaging method
JP5135813B2 (en) Optical system drive device and camera
JP6278798B2 (en) Imaging apparatus, control method thereof, and program
JP5473295B2 (en) Imaging apparatus, control method thereof, and program thereof
JP5379449B2 (en) Imaging apparatus and control method thereof
JP5544755B2 (en) Imaging device
JP5573311B2 (en) camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6587014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250