JP6587014B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP6587014B2 JP6587014B2 JP2018128290A JP2018128290A JP6587014B2 JP 6587014 B2 JP6587014 B2 JP 6587014B2 JP 2018128290 A JP2018128290 A JP 2018128290A JP 2018128290 A JP2018128290 A JP 2018128290A JP 6587014 B2 JP6587014 B2 JP 6587014B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- distance
- shooting
- imaging device
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
被写体距離を予め設定し、その被写体距離に被写体が位置したときに自動的に撮影動作を開始する撮像装置が知られている(例えば、特許文献1)。 An imaging apparatus is known in which a subject distance is set in advance and a photographing operation is automatically started when the subject is located at the subject distance (for example, Patent Document 1).
自動撮影を開始する距離を予め設定する方法ではカメラが移動する場合などにおいて、被写体が意図した位置にいるタイミングに合わせて撮影を行うことは困難であった。 In the method of setting the distance for starting automatic shooting in advance, it is difficult to perform shooting in accordance with the timing at which the subject is at the intended position when the camera moves.
本発明の一の態様によると、被写体の像を撮像する撮像装置は、前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、前記第1の距離が前記第2の距離に到達すると動画撮影または連写撮影の撮影動作を開始し、前記第1の距離が前記第3の距離に到達すると前記撮影動作を終了する制御部と、を備える。 According to one aspect of the present invention, an imaging device that captures an image of a subject selects a first subject that moves among the subjects, and a second subject and a third subject among the subjects. A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit that measures the distance of the first and the first distance reaches the second distance , and when the first distance reaches the second distance, a shooting operation of moving image shooting or continuous shooting starts, and the first distance becomes the third distance. And a control unit that terminates the photographing operation when it arrives .
本発明によれば、被写体が意図した位置にいるタイミングで適切に撮影できる。 According to the present invention, it is possible to appropriately shoot at the timing when the subject is at the intended position.
(第1の実施の形態)
図1は、本発明の第1の実施の形態による撮像装置のブロック構成図である。図1に例示された撮像装置はデジタルカメラ100(以降、カメラ100と略記する)である。カメラ100は、撮影モードと再生モードと自動撮影モードとを有する。
(First embodiment)
FIG. 1 is a block diagram of an imaging apparatus according to the first embodiment of the present invention. The imaging device illustrated in FIG. 1 is a digital camera 100 (hereinafter abbreviated as camera 100). The
カメラ100の撮影レンズ11を透過した被写体光束は、撮像素子12で撮像され、その撮像信号は画像処理部13に入力される。画像処理部13を構成する画像処理回路13aは、入力された撮像信号に種々の処理を施して画像データを生成する。画像データは、表示回路13bによる処理を経て液晶モニタ14に画像として表示される。液晶モニタ14は、例えばカメラの背面に設けられる。
The subject light flux that has passed through the photographing lens 11 of the
カメラ100が撮影モードに設定されているときは、上記撮像(表示のための撮影)が繰り返され、その都度得られる画像データに基づく画像が液晶モニタ14に逐次更新表示される。この逐次更新表示は、ライブビュー表示またはスルー画表示と呼ばれる。撮影者は、ライブビュー表示により表示される画像を見ながら構図を決定する。
When the
ライブビュー表示が行われているときに撮影者が操作部17を用いてレリーズ操作を行うと、改めて撮像(記録のための撮影)が行われる。その撮像によって生成された画像データは、コンピュータで扱うことが可能な画像ファイルとして、記録/再生回路13cによりメモリカード等の記録媒体15へ記録される。なお、カメラ100は、静止画像撮影、連写撮影、動画像撮影を行うことができる。
When the photographer performs a release operation using the operation unit 17 while the live view display is performed, imaging (shooting for recording) is performed again. The image data generated by the imaging is recorded on the recording medium 15 such as a memory card by the recording / reproducing circuit 13c as an image file that can be handled by a computer. The
カメラ100が再生モードに設定されているときは、記録媒体15に記録された画像データ(静止画像、動画像)が記録/再生回路13cにより読み出される。そして、その画像データは、画像処理回路13aおよび表示回路13bを経て、液晶モニタ14に画像として表示される。
When the
CPU16は、操作部17からの入力に応答して、画像処理部13やAF駆動回路18、その他の不図示の回路を制御し、上述したライブビュー表示、撮影(撮像)、再生等の種々の動作を行う。また、CPU16は、位相差検出方式による焦点検出処理を実行して、AF駆動回路18へ光学系の駆動に関する指示を行う。AF駆動回路18は、CPU16からの指示に応じてAFモータ19を駆動し、撮影レンズ11の焦点調節を行う。さらに、CPU16は、撮影者が指定した被写体を追尾するターゲット追尾処理を実行する。 In response to an input from the operation unit 17, the CPU 16 controls the image processing unit 13, the AF driving circuit 18, and other circuits (not shown), and performs various operations such as the above-described live view display, shooting (imaging), and reproduction. Perform the action. Further, the CPU 16 executes focus detection processing by a phase difference detection method, and instructs the AF drive circuit 18 regarding driving of the optical system. The AF driving circuit 18 drives the AF motor 19 in accordance with an instruction from the CPU 16 to adjust the focus of the photographing lens 11. Further, the CPU 16 executes target tracking processing for tracking the subject designated by the photographer.
操作部17は、レリーズボタン、録画ボタン、電源ボタン、液晶モニタ14上に配置されたタッチパネル、その他の複数の操作部材を含む。 The operation unit 17 includes a release button, a recording button, a power button, a touch panel disposed on the liquid crystal monitor 14, and a plurality of other operation members.
カメラ100の自動撮影モードについて説明する。カメラ100が自動撮影モードに設定されているとき、撮影者は、ライブビュー画面(撮影画面)の中から被写体を指定する。この被写体がターゲット追尾処理による追尾対象となる。さらに撮影者は、実空間上の位置を指定するため、ライブビュー画面の中からその位置にある物体を指定する。カメラ100は、その物体を用いて指定された実空間上の位置に被写体が達したとき、CPU16の制御により自動的に記録のための撮影動作を開始する。
The automatic shooting mode of the
図2(a)および(b)を用いてカメラ100の自動撮影モードについて説明する。図2(a)および(b)には、カメラ100と被写体Xと物体Yが図示されている。図2(a)および(b)の例では、被写体Xは陸上選手であり、物体Yはハードルである。被写体Xは物体Yに向けて走っている。カメラ100は、物体Yを挟んで被写体Xの反対側に設置されており、被写体Xを撮影するため撮影レンズ11(図2では不図示)が被写体Xに向けられている。
The automatic shooting mode of the
カメラ100の液晶モニタ14(図2では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Yとが含まれている。撮影者は、そのライブビュー画面の中から被写体Xと物体Yを選択している。
A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 2) of the
被写体Xの位置と物体Yの位置Pは、焦点検出処理により繰り返し測距される。また、被写体Xは、ターゲット追尾処理により追尾される。カメラ100は、図2(b)のように被写体Xが物体Yの位置Pに到達したときに静止画撮影の撮影動作を開始する。
The position of the subject X and the position P of the object Y are repeatedly measured by focus detection processing. The subject X is tracked by the target tracking process. The
カメラ100が物体Yを繰り返し測距しているため、撮影者がカメラ100を光軸方向に動かす場合や物体Yがカメラ100の画角内で移動した場合などでも、カメラ100は適切なタイミングで撮影動作を開始することができる。
Since the
図3は、自動撮影モードにおけるカメラ100の動作に関するフローチャートである。図3に示される処理は、CPU16によって実行される。ステップS1000では、CPU16は、カメラ100から物体Yまでの距離LY(図2)を測距する。測距した距離LYは、RAMなどに一時的に記録される。
FIG. 3 is a flowchart regarding the operation of the
ステップS1001では、CPU16は、被写体Xまでの距離LXを測距する。ステップS1002では、CPU16は、ターゲット追尾処理により被写体Xを追尾する。ステップS1003では、CPU16は、被写体Xが物体Yの位置Pに到達したか否かを判定する。すなわち、被写体Xまでの距離LXと物体Yまでの距離LYとが一致したか否かを判定する。CPU16は、ステップS1003が肯定判定された場合はステップS1004に処理を進め、ステップS1003が否定判定された場合はステップS1000に処理を進める。ステップS1004では、CPU16は、静止画撮影の撮影動作を開始する。 In step S1001, CPU 16 is ranging the distance L X to the object X. In step S1002, the CPU 16 tracks the subject X by target tracking processing. In step S1003, the CPU 16 determines whether or not the subject X has reached the position P of the object Y. That is, it is determined whether the distance L Y Distance to L X and the object Y to the subject X matches. If the determination in step S1003 is affirmative, the CPU 16 proceeds to step S1004, and if the determination in step S1003 is negative, the CPU 16 proceeds to step S1000. In step S1004, the CPU 16 starts a still image shooting operation.
(第2の実施の形態)
本発明による第2の実施の形態について説明する。第2の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Second Embodiment)
A second embodiment according to the present invention will be described. In the second embodiment, the operation content of the
図4を用いて第2の実施の形態における自動撮影モードの動作内容について説明する。図4には、図2と同様にカメラ100と被写体Xとが図示されており、図2の物体Yの代わりに物体Y1およびY2が図示されている。図4の例では、物体Y1およびY2は、図2の物体Yと同様にハードルである。物体Y2の位置P2は、物体Y1の位置P1より被写体Xから遠く離れている。
The operation content of the automatic shooting mode in the second embodiment will be described with reference to FIG. 4 shows the
カメラ100の液晶モニタ14(図4では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Y1と物体Y2が含まれる。撮影者は、そのライブビュー画面から被写体Xと物体Y1と物体Y2を選択している。
A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 4) of the
被写体Xの位置と物体Y1の位置P1と物体Y2の位置P2は、焦点検出処理により繰り返し測距される。カメラ100は、被写体Xが物体Y1の位置P1に到達したとき連写撮影または動画撮影を開始し、被写体Xが物体Y2の位置P2に到達したとき連写撮影または動画撮影を終了する。
The position of the subject X, the position P1 of the object Y1, and the position P2 of the object Y2 are repeatedly measured by the focus detection process. The
図5は、第2の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図5に示される処理は、CPU16によって実行される。なお、図3と同様の処理には、図3と同一の符号を付して、その処理の説明を省略する。 FIG. 5 is a flowchart relating to the operation content of the automatic shooting mode according to the second embodiment. The process shown in FIG. 5 is executed by the CPU 16. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals as those in FIG.
ステップS2000では、CPU16は、カメラ100から物体Y1およびY2までの距離LY1(図4)および距離LY2(図4)を測距する。測距した距離LY1および距離LY2は、RAMなどに一時的に記録される。
In step S2000, the CPU 16 measures the distance L Y1 (FIG. 4) and the distance L Y2 (FIG. 4) from the
ステップS2003では、CPU16は、被写体Xが物体Y1の位置P1に到達したか否かを判定する。CPU16は、ステップS2003が肯定判定された場合はステップS2004に処理を進め、ステップS2003が否定判定された場合はステップS2005に処理を進める。ステップS2004では、CPU16は、静止画像の連写撮影または動画撮影の撮影動作を開始する。 In step S2003, the CPU 16 determines whether or not the subject X has reached the position P1 of the object Y1. When step S2003 is positively determined, the CPU 16 proceeds to step S2004, and when step S2003 is negative, the process proceeds to step S2005. In step S2004, the CPU 16 starts a shooting operation for continuous shooting or moving image shooting of still images.
ステップS2005では、CPU16は、被写体Xが物体Y2の位置P2に到達したか否かを判定する。CPU16は、ステップS2005が肯定判定された場合はステップS2006に処理を進め、ステップS2005が否定判定された場合はステップS2000に処理を進める。ステップS2006では、CPU16は、ステップS2004で開始した静止画像の連写撮影または動画撮影の撮影動作を終了する。 In step S2005, the CPU 16 determines whether or not the subject X has reached the position P2 of the object Y2. If the determination in step S2005 is affirmative, the CPU 16 proceeds to step S2006, and if the determination in step S2005 is negative, the CPU 16 proceeds to step S2000. In step S2006, the CPU 16 ends the still image continuous shooting or moving image shooting operation started in step S2004.
(第3の実施の形態)
本発明による第3の実施の形態について説明する。第3の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Third embodiment)
A third embodiment according to the present invention will be described. In the third embodiment, the operation content of the
図6を用いて第3の実施の形態における自動撮影モードの動作内容について説明する。図6には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第3の実施の形態では、物体Yを測距する際に静止画の連写撮影または動画像の撮影を行う自動撮影範囲Aを設定する。自動撮影範囲Aは、撮影レンズ11を物体Yに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点A1および端点A2は、撮影レンズ11の焦点距離、物体Yまでの距離LYなどに基づいてCPU16が公知の方法で算出する。
The operation content of the automatic shooting mode in the third embodiment will be described with reference to FIG. 6 shows the
第3の実施の形態では、カメラ100は、被写体Xが端点A1に到達したとき連写撮影または動画撮影の撮影動作を開始し、被写体Xが端点A2に到達したとき連写撮影または動画撮影の撮影動作を終了する。
In the third embodiment, the
図7は、第3の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図7に示される処理は、CPU16によって実行される。なお、図3および図5と同様の処理には、図3および図5と同一の符号を付して、その処理の説明を省略する。 FIG. 7 is a flowchart relating to the operation content of the automatic shooting mode according to the third embodiment. The process shown in FIG. 7 is executed by the CPU 16. 3 and FIG. 5 are denoted by the same reference numerals as those in FIG. 3 and FIG.
ステップS3000では、CPU16は、カメラ100から物体Yの距離LY(図6)を測距し、撮影レンズ11の焦点距離、物体Yの距離LYから被写界深度の端点A1と端点A2の位置を算出する。
ステップS3003では、CPU16は、被写体Xが端点A1の位置に到達したか否かを判定する。CPU16は、ステップS3003が肯定判定された場合は図7のステップS2004に処理を進め、ステップS3003が否定判定された場合はステップS3005に処理を進める。
ステップS3005では、CPU16は、被写体Xが端点A2の位置に到達したか否かを判定する。CPU16は、ステップS3005が肯定判定された場合は図7のステップS2006に処理を進め、ステップS3005が否定判定された場合はステップS3000に処理を進める。
In step S3000, the CPU 16 measures the distance L Y (FIG. 6) from the
In step S3003, the CPU 16 determines whether or not the subject X has reached the position of the end point A1. If the determination in step S3003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 7. If the determination in step S3003 is negative, the CPU 16 proceeds to step S3005.
In step S3005, the CPU 16 determines whether or not the subject X has reached the position of the end point A2. If the determination in step S3005 is affirmative, the CPU 16 proceeds to step S2006 in FIG. 7. If the determination in step S3005 is negative, the CPU 16 proceeds to step S3000.
(第4の実施の形態)
図面を参照して、本発明による第4の実施の形態について説明する。第4の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Fourth embodiment)
A fourth embodiment according to the present invention will be described with reference to the drawings. In the fourth embodiment, the operation content of the
図8を用いて第4の実施の形態における自動撮影モードの動作内容について説明する。図8には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第4の実施の形態では、被写体Xを測距する際に範囲Bを設定する。範囲Bは、撮影レンズ11を被写体Xに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点B1および端点B2は、撮影レンズ11の焦点距離、物体Xの距離LXなどに基づいてCPU16が公知の方法で演算する。
The operation content of the automatic shooting mode in the fourth embodiment will be described with reference to FIG. FIG. 8 shows the
第4の実施の形態では、カメラ100は、端点B2が物体Yの位置に到達したとき連写撮影または動画撮影の撮影動作を開始し、端点B1が物体Yに到達したとき連写撮影または動画撮影の撮影動作を終了する。
In the fourth embodiment, the
図9は、第4の実施の形態における自動撮影モードのカメラ100の動作内容に関するフローチャートである。図9に示される処理は、CPU16によって実行される。なお、図3、図5、図7と同様の処理には、それぞれ同一の符号を付して、その処理の説明を省略する。
ステップS4001では、CPU16は、被写体Xまでの距離LXを測距し、範囲Bの端点B1およびB2の位置を算出する。
ステップS4003では、CPU16は、端点B2が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4003が肯定判定された場合は図9のステップS2004に処理を進め、ステップS4003が否定判定された場合はステップS4005に処理を進める。ステップS4005では、CPU16は、端点B1が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4005が肯定判定された場合は図9のステップS2006に処理を進め、ステップS4005が否定判定された場合は図9のステップS1000に処理を進める。
FIG. 9 is a flowchart regarding the operation content of the
In step S4001, the CPU 16 measures the distance L X to the subject X and calculates the positions of the end points B1 and B2 of the range B.
In step S4003, the CPU 16 determines whether or not the end point B2 has reached the position P of the object Y. If the determination in step S4003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 9, and if the determination in step S4003 is negative, the CPU 16 proceeds to step S4005. In step S4005, the CPU 16 determines whether or not the end point B1 has reached the position P of the object Y. If step S4005 is positively determined, the CPU 16 proceeds to step S2006 in FIG. 9, and if step S4005 is negatively determined, the process proceeds to step S1000 in FIG.
以上説明した実施形態によれば、次の作用効果が得られる。
(1)本発明の第1の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離LYを測距して(図3のステップS1000)、実空間内に位置Pを設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾して(図3のステップS1002)、被写体Xが物体Yの位置Pに到達したとき撮影動作を開始する。これにより、被写体が意図した位置にいるタイミングで適切に撮影できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging apparatus according to the first embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance L Y to the object Y selected by the user (step S1000 in FIG. 3), and sets the position P in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 3), and starts the shooting operation when the subject X reaches the position P of the object Y. Thereby, it is possible to appropriately shoot at the timing when the subject is at the intended position.
(2)本発明の第2の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Y1およびY2までの距離LY1およびLY2を測距して(図5のステップS2000)、実空間内に位置P1およびP2を設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾する(図5のステップS1002)。CPU16は、被写体Xが物体Y1の位置P1に到達したとき(図5のステップS2003 YES)撮影動作を開始する(図5のステップS2004)。CPU16は、被写体Xが物体Y2の位置P2に到達したとき(図5のステップS2005 YES)静止画像の連写撮影や動画撮影の撮影動作を終了する(図5のステップS2006)。これにより、被写体が意図した位置にいるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (2) An imaging apparatus according to the second embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distances L Y1 and L Y2 to the objects Y1 and Y2 selected by the user (step S2000 in FIG. 5), and sets the positions P1 and P2 in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 5). When the subject X reaches the position P1 of the object Y1 (YES in step S2003 in FIG. 5), the CPU 16 starts a photographing operation (step S2004 in FIG. 5). When the subject X reaches the position P2 of the object Y2 (YES in step S2005 in FIG. 5), the still image continuous shooting or moving image shooting operation ends (step S2006 in FIG. 5). Accordingly, it is possible to appropriately start and end continuous shooting and moving image shooting at the timing when the subject is at the intended position.
(3)本発明の第3の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して端点A1と端点A2を含む被写界深度Aを算出する(図7のステップS3000)。そして、CPU16は、ターゲット追尾処理により被写体Xを追尾する(図7のステップS1002)。CPU16は、被写体Xが端点A1に到達したとき(図7のステップS3003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図7のステップS2004)。また、被写体Xが端点A2に到達したとき(図7のステップS3005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図7のステップS2006)。これにより、実空間上の位置を一つ指定するだけで、被写体Xと物体Yの両方が合焦状態となるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (3) An imaging apparatus according to the third embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user and calculates the depth of field A including the end points A1 and A2 (step S3000 in FIG. 7). Then, the CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 7). When the subject X reaches the end point A1 (YES in step S3003 in FIG. 7), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 7). When the subject X reaches the end point A2 (YES in step S3005 in FIG. 7), the still image continuous shooting and moving image shooting operation ends (step S2006 in FIG. 7). Thus, it is possible to appropriately start and end the continuous shooting and the moving image shooting at the timing when both the subject X and the object Y are in focus by only specifying one position in the real space.
(4)本発明の第4の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して(図9のステップS1000)、実空間内に位置Pを設定する。CPU16は、被写体追尾処理により被写体Xを追尾する(図9のステップS1002)。CPU16は、被写体Xを測距するとき被写界深度Bを算出する(図9のステップS4001)。CPU16は、被写界深度Bの端点B2が位置P1に到達したとき(図9のステップS4003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図9のステップS2004)。また、被写界深度Bの端点B1が位置P1に到達したとき(図9のステップS4005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図9のステップS2006)。これにより、被写体が意図した位置に到達するまでに、確実に連写撮影や動画撮影を開始することができる。 (4) An imaging apparatus according to the fourth embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user (step S1000 in FIG. 9), and sets the position P in the real space. The CPU 16 tracks the subject X by subject tracking processing (step S1002 in FIG. 9). The CPU 16 calculates the depth of field B when measuring the subject X (step S4001 in FIG. 9). When the end point B2 of the depth of field B reaches the position P1 (YES in step S4003 in FIG. 9), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 9). When the end point B1 of the depth of field B has reached the position P1 (YES in step S4005 in FIG. 9), the still image continuous shooting and moving image shooting operations are terminated (step S2006 in FIG. 9). Thus, continuous shooting and moving image shooting can be surely started before the subject reaches the intended position.
(変形例1)本発明は、一眼レフデジタルカメラ、コンパクトカメラ、カメラ付き携帯端末など、様々な撮像装置に適用できる。 (Modification 1) The present invention can be applied to various imaging apparatuses such as a single-lens reflex digital camera, a compact camera, and a portable terminal with a camera.
(変形例2)第2および第3の実施の形態では、被写体Xが位置P2や端点A2に到達したとき(たとえば、被写体Xがカメラ100に接近する猫の場合、猫の頭が位置P2に到達したとき)静止画撮影の連写撮影や動画撮影を終了することとした。しかし、被写体Xが位置P2や端点A2を通過したとき(たとえば、前述の猫の尻尾が位置P2に到達したとき)に静止画撮影の連写撮影や動画撮影を終了することにしてもよい。
(Modification 2) In the second and third embodiments, when the subject X reaches the position P2 or the end point A2 (for example, when the subject X is a cat approaching the
(変形例3)第2の実施の形態では、被写体Xが位置P1に到達したとき静止画像の連写撮影または動画撮影の撮影動作を開始し、被写体Xが位置P2に到達したとき静止画像の連写撮影または動画撮影の撮影動作を終了することとした。しかし、被写体Xが位置P1に到達したときと位置P2に到達したときにそれぞれ静止画像撮影の撮影動作を行うことにしてもよい。第3の実施の形態および第4の実施の形態についても同様である。 (Modification 3) In the second embodiment, when the subject X reaches the position P1, the continuous shooting or moving image shooting operation is started when the subject X reaches the position P1, and when the subject X reaches the position P2, the still image is captured. The shooting operation for continuous shooting or movie shooting was ended. However, when the subject X reaches the position P1, and when the subject X reaches the position P2, a still image shooting operation may be performed. The same applies to the third embodiment and the fourth embodiment.
(変形例4)上記の実施の形態では、カメラ100から物体Y、物体Y1、物体Y2までの距離をパッシブ方式で測距したが、それ以外の方法で測距してもよい。たとえば、カメラ100に超音波測距部やレーザ測距部を備えて、物体Y、物体Y1、物体Y2までの距離をアクティブ方式で測距することにしてもよい。
(Modification 4) In the above embodiment, the distances from the
(変形例5)第2の実施の形態と第3の実施の形態とは組み合わせて実施をしてもよい。すなわち、物体Y1に合焦して測距するときに物体Y1の位置P1を基準とする被写界深度Cを算出し、物体Y2に合焦して測距するときに物体Y2の位置P2を基準とする被写界深度Dを算出することにしてもよい。そして、被写体Xが被写界深度Cおよび被写界深度Dの中にいるとき、連写撮影や動画撮影を行うことにしてもよいし、被写界深度CおよびDの各々の両端で被写体Xが到達したときに静止画撮影の撮影動作を開始することにしてもよい。 (Modification 5) The second embodiment and the third embodiment may be implemented in combination. That is, the depth of field C is calculated based on the position P1 of the object Y1 when the object Y1 is focused and the distance is measured, and the position P2 of the object Y2 is determined when the object Y2 is focused and the distance is measured. A reference depth of field D may be calculated. Then, when the subject X is in the depth of field C and the depth of field D, continuous shooting or moving image shooting may be performed, and the subject is captured at both ends of the depth of field C and D. When X arrives, a still image shooting operation may be started.
(変形例6)第1の実施の形態では、図3のステップS1003が肯定判定されて撮影動作を開始するまでの間、CPU16は、物体Yまでの距離LYを繰り返し測距することとした。しかし、図3の処理を開始したときのみ物体Yまでの距離LYを測距することにしてもよい。すなわち、図3のステップS1003が否定判定されたとき、ステップS1000ではなくステップS1001に進むことにしてもよい。また、カメラ100の姿勢が大きく変化したときにのみ物体Yまでの距離LYを再び測距することにしてもよい。
(Modification 6) In the first embodiment, step S1003 of FIG. 3 until the start of the photographing operation is affirmative determination, CPU 16, it was decided to repeat the distance measurement of the distance L Y to the object Y . However, it may be to the distance measuring the distance L Y to see the object Y at the start of the process of FIG. That is, when a negative determination is made in step S1003 of FIG. 3, the process may proceed to step S1001 instead of step S1000. Further, the distance L Y to the object Y may be possible to re-ranging only when the posture of the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。 The above description is merely an example, and is not limited to the configuration of the above embodiment. Further, the embodiments and modifications described above may be combined and executed as long as the features of the invention are not impaired.
100:カメラ,16:CPU
X:被写体,Y:物体,Y1:物体,Y2:物体
100: Camera, 16: CPU
X: Subject, Y: Object, Y1: Object, Y2: Object
Claims (6)
前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、
前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、
前記第1の距離が前記第2の距離に到達すると動画撮影または連写撮影の撮影動作を開始し、前記第1の距離が前記第3の距離に到達すると前記撮影動作を終了する制御部と、
を備える撮像装置。 In an imaging device that captures an image of a subject,
A selection unit that selects a first subject that moves among the subjects , and a second subject and a third subject among the subjects ;
A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit for measuring
When the first distance reaches the second distance, a control unit that starts a shooting operation of moving image shooting or continuous shooting, and ends the shooting operation when the first distance reaches the third distance ; ,
An imaging apparatus comprising:
前記測距部は、前記撮像装置の姿勢が変化した場合に再び前記第2の距離および前記第3の距離の少なくともいずれかを測定する撮像装置。 The imaging device according to claim 1,
The distance measuring unit is an image pickup apparatus that measures at least one of the second distance and the third distance again when the posture of the image pickup apparatus changes.
前記撮像装置の撮影者が操作可能である操作部を備え、
前記操作部により、前記撮影者による前記選択部の選択操作を受け付ける撮像装置。 The imaging device according to claim 1 or 2,
An operation unit that can be operated by a photographer of the imaging apparatus;
An imaging apparatus that receives a selection operation of the selection unit by the photographer by the operation unit.
前記制御部は、前記撮像装置から前記第1の被写体の一端または他端のいずれか一方が前記第3の距離に到達したとき、撮影動作を終了する撮像装置。 In the imaging device according to any one of claims 1 to 3 ,
Wherein, when said the either one of the imaging apparatus of one end or the other of said first object has reached the third distance, the image pickup device to end the photographing operation.
前記被写体のうちで移動する第1の被写体、並びに前記被写体のうちの第2の被写体および第3の被写体を選択する選択部と、 A selection unit that selects a first subject that moves among the subjects, and a second subject and a third subject among the subjects;
前記撮像装置から前記第1の被写体までの第1の距離と、前記撮像装置から前記第2の被写体までの第2の距離と、前記撮像装置から前記第3の被写体までの第3の距離とを測定する測距部と、 A first distance from the imaging device to the first subject, a second distance from the imaging device to the second subject, and a third distance from the imaging device to the third subject. A distance measuring unit for measuring
前記第1の距離が前記第2の距離に基づいた距離に到達したときと、前記第1の距離が前記第3の距離に基づいた距離に到達したときに撮影をする制御部と、 A controller that takes a picture when the first distance reaches a distance based on the second distance and when the first distance reaches a distance based on the third distance;
を備える撮像装置。An imaging apparatus comprising:
前記測距部が前記第2の距離の測距を開始してから前記制御部が撮像動作を開始するまでの間に、前記撮像装置は移動可能である撮像装置。 In the imaging device according to any one of claims 1 to 5 ,
The imaging apparatus is movable between the time when the distance measurement unit starts measuring the second distance and the time when the control unit starts the imaging operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128290A JP6587014B2 (en) | 2018-07-05 | 2018-07-05 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128290A JP6587014B2 (en) | 2018-07-05 | 2018-07-05 | Imaging device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017158413A Division JP6365748B2 (en) | 2017-08-21 | 2017-08-21 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018186543A JP2018186543A (en) | 2018-11-22 |
JP6587014B2 true JP6587014B2 (en) | 2019-10-09 |
Family
ID=64355226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128290A Active JP6587014B2 (en) | 2018-07-05 | 2018-07-05 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6587014B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023074431A1 (en) * | 2021-10-25 | 2023-05-04 | 株式会社ニコン | Imaging control device, imaging device, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH055830A (en) * | 1991-06-27 | 1993-01-14 | Nikon Corp | Automatic focusing camera |
JPH05188266A (en) * | 1992-01-09 | 1993-07-30 | Nikon Corp | Electric driving device fop lens distance ring |
JPH11142725A (en) * | 1997-11-13 | 1999-05-28 | Casio Comput Co Ltd | Camera apparatus and autofocusing control method |
JP2000193878A (en) * | 1998-12-25 | 2000-07-14 | Canon Inc | Camera |
JP2005215373A (en) * | 2004-01-30 | 2005-08-11 | Konica Minolta Photo Imaging Inc | Imaging apparatus |
JP5402341B2 (en) * | 2009-01-26 | 2014-01-29 | 株式会社Jvcケンウッド | Automatic imaging apparatus and automatic imaging method |
-
2018
- 2018-07-05 JP JP2018128290A patent/JP6587014B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018186543A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007316497A5 (en) | ||
JP2016201626A (en) | Shift element controller, shift element control program and optical apparatus | |
US9781346B2 (en) | Image capturing control apparatus, image capturing apparatus and storage medium storing image capturing control program for driving a movable element when motion vectors have mutually different magnitudes | |
JP2010171748A (en) | Imaging apparatus and imaging control program | |
JP6587014B2 (en) | Imaging device | |
JP2015194686A (en) | Imaging apparatus | |
JP2015210493A (en) | Blur correction device, blur correction method and program, and imaging device | |
JP2009206920A (en) | Camera | |
US10917556B2 (en) | Imaging apparatus | |
JP6365748B2 (en) | Imaging device | |
JP2013243529A (en) | Imaging apparatus | |
JP2006033242A (en) | Image reproducing method and image pickup device | |
JP6613149B2 (en) | Image blur correction apparatus and control method therefor, imaging apparatus, program, and storage medium | |
JP5188293B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2009260413A (en) | Image pickup apparatus and method for controlling image pickup apparatus | |
JP5962974B2 (en) | Imaging apparatus, imaging method, and program | |
JP3105515B2 (en) | Electronic camera | |
JP5635340B2 (en) | Movie shooting device, movie shooting method, program, and image processing device | |
JP2007274220A (en) | Imaging apparatus and imaging method | |
JP5135813B2 (en) | Optical system drive device and camera | |
JP6278798B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5473295B2 (en) | Imaging apparatus, control method thereof, and program thereof | |
JP5379449B2 (en) | Imaging apparatus and control method thereof | |
JP5544755B2 (en) | Imaging device | |
JP5573311B2 (en) | camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6587014 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |