JP2019159340A - Imaging device and electronic apparatus - Google Patents

Imaging device and electronic apparatus Download PDF

Info

Publication number
JP2019159340A
JP2019159340A JP2019110285A JP2019110285A JP2019159340A JP 2019159340 A JP2019159340 A JP 2019159340A JP 2019110285 A JP2019110285 A JP 2019110285A JP 2019110285 A JP2019110285 A JP 2019110285A JP 2019159340 A JP2019159340 A JP 2019159340A
Authority
JP
Japan
Prior art keywords
subject
image
focus detection
camera
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110285A
Other languages
Japanese (ja)
Other versions
JP6897715B2 (en
Inventor
直之 大西
Naoyuki Onishi
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014212872A external-priority patent/JP6539979B2/en
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019110285A priority Critical patent/JP6897715B2/en
Publication of JP2019159340A publication Critical patent/JP2019159340A/en
Application granted granted Critical
Publication of JP6897715B2 publication Critical patent/JP6897715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To simplify setting change of an AF picture-taking condition.SOLUTION: A camera is configured to: obtain a first presumption result about a category of a competition being implemented at a current data/time in a current location on the basis of information acquired from a server; and provisionally set an AF picture-taking condition suitable for the category of the competition; presume one or more candidates of a subject category by an image in a focus detection area provisionally selected on the basis of the provisionally set AF picture-taking condition to obtain a second presumption result; presume one or more candidates of the subject category by an image of a focus detection area of a periphery of the provisionally selected focus detection area when the first presumption result is not included in the second presumption result to obtain a third presumption result; officially set the AF picture-taking condition suitable for the competition category serving as the first presumption result when the first presumption result is included in one of the second presumption result and the third presumption result; and officially set an AF picture-taking condition suitable for other subject category different from the category of the competition of the second presumption result when the first presumption result is not included in any of the second presumption result and the third presumption result.SELECTED DRAWING: Figure 8

Description

本発明は、撮像装置および電子機器に関する。   The present invention relates to an imaging apparatus and an electronic apparatus.

スポーツモードを含む複数の撮影モードを有し、設定されている撮影モードに応じて被写体情報を認識するためのアルゴリズムを変更するカメラが知られている(特許文献1)。   There is known a camera that has a plurality of shooting modes including a sports mode and changes an algorithm for recognizing subject information according to a set shooting mode (Patent Document 1).

特開2001−330882号公報JP 2001-330882 A

スポーツの競技写真を撮影する際、撮影する競技ごとに適正な撮影条件の設定が異なっている。特にオートフォーカスの設定(AF撮影条件)については、競技を行う場所の明るさ、被写体の動き、被写体のコントラストなど種々の要素が絡み合い、適正に設定することが困難である。従来、スポーツモードを有するカメラでは、フォーカスモード(たとえば、シングルAFやコンティニュアスAF)、後述するエリアモードなどのAF撮影条件を自動設定することができる。しかし、撮影する競技ごとに適正な設定にするためには、AF撮影条件を手動で微調整する必要があり、煩雑である。特にカメラの設定に不慣れな初心者の場合には、AF撮影条件を適正に設定するまでに時間がかかり、シャッターチャンスを逃すことがある。   When shooting sports competition photos, the appropriate shooting conditions are different for each competition. In particular, it is difficult to set the autofocus (AF shooting conditions) properly because various factors such as the brightness of the competition place, the movement of the subject, and the contrast of the subject are intertwined. Conventionally, a camera having a sports mode can automatically set AF shooting conditions such as a focus mode (for example, single AF or continuous AF) and an area mode to be described later. However, in order to obtain an appropriate setting for each competition to be photographed, it is necessary to finely adjust AF photographing conditions manually, which is complicated. Especially for beginners who are unfamiliar with camera settings, it takes time to properly set AF shooting conditions, and a photo opportunity may be missed.

本発明の第1の態様による撮像装置は、光学系により形成される被写体の像を撮像する撮像素子と、前記光学系による前記被写体の像の合焦状態を検出する検出部と、スポーツの種類に関する情報を取得する取得部と、複数のスポーツの種類のそれぞれに対応する、前記検出部の検出条件を記憶する記憶部と、前記取得部で取得した前記スポーツの種類と、前記記憶部に記憶された前記検出条件とに基づいて、前記検出部の検出条件を設定する制御部と、を有する。
本発明の第2の態様による電子機器は、第1の態様による撮像装置を備える。
An image pickup apparatus according to a first aspect of the present invention includes an image pickup element that picks up an image of a subject formed by an optical system, a detection unit that detects a focus state of the image of the subject by the optical system, and a type of sport An acquisition unit that acquires information on the storage unit, a storage unit that stores detection conditions of the detection unit corresponding to each of a plurality of types of sports, the type of sports acquired by the acquisition unit, and the storage unit And a control unit that sets a detection condition of the detection unit based on the detected condition.
An electronic apparatus according to a second aspect of the present invention includes the imaging device according to the first aspect.

本発明の第1および第2の実施の形態によるカメラシステムの構成例を示す図である。It is a figure which shows the structural example of the camera system by the 1st and 2nd embodiment of this invention. イベント情報の一例を示す図である。It is a figure which shows an example of event information. 本発明の第1および第2の実施の形態によるカメラの構成例を示す図である。It is a figure which shows the structural example of the camera by the 1st and 2nd embodiment of this invention. 焦点検出エリアを示す図である。It is a figure which shows a focus detection area. 競技種別ごとのAF撮影条件の一例を示す図である。It is a figure which shows an example of AF imaging | photography conditions for every competition classification. 第2および第3の被写体推定で用いる対応表の一例を示す図である。It is a figure which shows an example of the correspondence table used by the 2nd and 3rd object estimation. 本発明の第1および第2の実施の形態におけるカメラの動作に関するフローチャートである。It is a flowchart regarding the operation | movement of the camera in the 1st and 2nd embodiment of this invention. 本発明の第1の実施の形態におけるカメラの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the camera in the 1st Embodiment of this invention. 第1の被写体推定に関するフローチャートである。It is a flowchart regarding the first subject estimation. 第2の被写体推定に関するフローチャートである。It is a flowchart regarding the second subject estimation. 第3の被写体推定に関するフローチャートである。It is a flowchart regarding the third subject estimation. 本発明の第2の実施の形態におけるカメラの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the camera in the 2nd Embodiment of this invention. 本発明の第3および第4の実施の形態におけるカメラの動作に関するフローチャートである。It is a flowchart regarding the operation | movement of the camera in the 3rd and 4th embodiment of this invention. 本発明の第4の実施の形態における被写体推定部に関するフローチャートである。It is a flowchart regarding the to-be-photographed object estimation part in the 4th Embodiment of this invention.

(第1の実施の形態)
図1は、本発明の第1の実施の形態によるカメラシステムの構成例を示す。図1に例示されるカメラシステム300は、本発明の一実施の形態によるカメラ100と、サーバ装置200とを備える。カメラ100とサーバ装置200は、通信回線網150に接続されている。
(First embodiment)
FIG. 1 shows a configuration example of a camera system according to the first embodiment of the present invention. A camera system 300 illustrated in FIG. 1 includes a camera 100 and a server device 200 according to an embodiment of the present invention. The camera 100 and the server device 200 are connected to a communication network 150.

サーバ装置200には、競技場などの施設で実施されるスポーツイベントについてのイベント情報に関するイベントデータベース201が構築されている。図2は、イベント情報の一例を示す。図2に示すイベント情報には、イベントが行われる施設の位置と、施設の名称と、イベントが実施される日付と、イベントが実施される時間と、イベントで実施される競技種別に関する情報とが含まれる。施設の位置情報は、たとえば、施設の敷地内の1点の緯度と経度を含む。   In the server device 200, an event database 201 relating to event information regarding a sporting event performed at a facility such as a stadium is constructed. FIG. 2 shows an example of event information. The event information shown in FIG. 2 includes the location of the facility where the event is performed, the name of the facility, the date when the event is performed, the time when the event is performed, and information regarding the type of competition performed at the event. included. The location information of the facility includes, for example, the latitude and longitude of one point in the site of the facility.

カメラ100は、撮影モードとして、スポーツの競技写真を撮影するのに適したスポーツモードを有するデジタルカメラである。ユーザが競技場などの施設内でカメラ100を起動し、スポーツモードに設定すると、カメラ100は、Wi−Fi(登録商標)などの無線通信技術を用いて通信回線網150を介してサーバ装置200に接続される。カメラ100は、カメラ100の現在位置に関する位置情報と、現在日時に関する日時情報とをサーバ装置200へ送信する。   The camera 100 is a digital camera having a sports mode suitable for taking a sports competition photo as a shooting mode. When the user activates the camera 100 in a facility such as a stadium and sets the sport mode, the camera 100 uses the wireless communication technology such as Wi-Fi (registered trademark) to connect the server device 200 via the communication network 150. Connected to. The camera 100 transmits position information regarding the current position of the camera 100 and date / time information regarding the current date and time to the server device 200.

サーバ装置200は、位置情報と日時情報とを受信すると、カメラ100の現在位置で現在日時に実施されているスポーツイベントをイベントデータベース201から検索する。サーバ装置200は、検索したそのスポーツイベントで実施される競技種別を推定して、その競技種別に関する情報をカメラ100へ送信する。   When the server apparatus 200 receives the position information and the date / time information, the server apparatus 200 searches the event database 201 for a sporting event that is currently being performed at the current position of the camera 100. The server device 200 estimates a competition type to be executed at the searched sport event, and transmits information regarding the competition type to the camera 100.

カメラ100は、予め設定された複数の焦点検出エリアにおいて位相差検出AFにより像面に結像している被写体像の焦点調節状態を検出する焦点検出装置を有する。カメラ100には、AF撮影条件に関する設定情報が競技種別ごとに予め記録されている。カメラ100は、競技種別に関する情報を受信すると、その情報に基づいて競技種別に応じた設定情報を読み出して、その設定情報に基づいてAF撮影条件を仮設定する。
以降、AF撮影条件を仮設定するため、サーバ装置200が推定した競技種別に関する情報を取得することを第1の被写体推定と呼ぶ。
The camera 100 includes a focus detection device that detects a focus adjustment state of a subject image formed on the image plane by phase difference detection AF in a plurality of preset focus detection areas. In the camera 100, setting information regarding AF shooting conditions is recorded in advance for each competition type. When the camera 100 receives the information regarding the competition type, the camera 100 reads setting information corresponding to the competition type based on the information, and temporarily sets the AF shooting condition based on the setting information.
Henceforth, in order to temporarily set AF shooting conditions, obtaining information related to the competition type estimated by the server device 200 is referred to as first subject estimation.

カメラ100には、位相差検出AFに用いる焦点検出エリアが複数設定されている。仮設定したAF撮影条件に基づいて、それら複数の焦点検出エリアの中から位相差検出AFにより合焦させる焦点検出エリアが仮選択される。カメラ100は、仮選択された焦点検出エリアの画像について、人物像の有無など、後述する種々の項目について評価を行い、その評価に基づいて被写体の種別の候補を検出する。被写体の種別には、サーバ装置200が推定するスポーツの競技種別が少なくとも含まれ、さらに人物スナップ、静止物、風景など、スポーツの競技以外の種別も含まれる。カメラ100は、こうして検出された候補の中に第1の被写体推定で推定された競技種別が含まれる場合、実際にその競技を撮影しているものと判断する。含まれない場合、観客など競技者以外の人物、スコアボードなどの静止物、風景など競技とは別の種別の被写体を撮影していると判断する。
以降、仮選択された焦点検出エリアの画像に基づいて被写体の種別を推定することを第2の被写体推定と呼ぶ。
In the camera 100, a plurality of focus detection areas used for phase difference detection AF are set. A focus detection area to be focused by phase difference detection AF is temporarily selected from the plurality of focus detection areas based on the temporarily set AF shooting conditions. The camera 100 evaluates various items to be described later, such as the presence or absence of a human image, on the temporarily selected focus detection area image, and detects a subject type candidate based on the evaluation. The type of subject includes at least a sport competition type estimated by the server apparatus 200, and further includes a type other than a sport competition such as a person snap, a stationary object, and a landscape. When the competition type estimated by the first subject estimation is included in the candidates detected in this way, the camera 100 determines that the competition is actually shot. If not included, it is determined that a person other than the spectator, such as a spectator, a stationary object such as a scoreboard, or a subject other than the competition, such as a landscape, is being photographed.
Hereinafter, estimating the type of the subject based on the temporarily selected focus detection area image is referred to as second subject estimation.

カメラ100は、第2の被写体推定において競技以外を撮影していると判断した場合に、仮選択された焦点検出エリアの周囲の画像についても、人物像の有無など、種々の項目について評価を行い、その評価に基づいて被写体の種別の候補を検出する。この候補の中に第1の被写体推定で推定された競技種別が含まれる場合、カメラ100は、その競技を撮影しているものと判断し、含まれない場合、観客など競技者以外の人物、スコアボードなどの静止物、風景など競技とは別の種別の被写体を撮影していると判断する。
以降、仮選択された焦点検出エリアの周囲の画像に基づいて被写体の種別を推定することを第3の被写体推定と呼ぶ。
When it is determined that the camera 100 is shooting other than a game in the second subject estimation, the camera 100 evaluates various items such as the presence or absence of a person image with respect to the image around the temporarily selected focus detection area. Based on the evaluation, a candidate for the type of subject is detected. When the candidate includes the competition type estimated by the first subject estimation, the camera 100 determines that the competition is being photographed. It is determined that a subject of a different type from the competition, such as a stationary object such as a scoreboard or a landscape, is being photographed.
Hereinafter, estimating the type of the subject based on the image around the temporarily selected focus detection area is referred to as third subject estimation.

カメラ100は、第3の被写体推定において、第1の被写体推定で推定された競技を撮影しているものと判断した場合、仮設定していたその競技種別に対応するAF撮影条件を本設定する。一方、第3の被写体推定において、競技とは別の種別の被写体を撮影していると判断した場合、カメラ100は、人物スナップ、静止物、風景など、スポーツの競技以外の種別に応じたAF撮影条件を本設定する。   When the camera 100 determines in the third subject estimation that the competition estimated by the first subject estimation is being photographed, the camera 100 permanently sets the AF shooting conditions corresponding to the temporarily set competition type. . On the other hand, if it is determined in the third subject estimation that a subject of a type different from the competition is being shot, the camera 100 performs AF according to the type other than the sport competition, such as a person snap, a stationary object, or a landscape. Set the shooting conditions.

このようにすることで、スポーツモードに設定されたカメラ100は、ユーザの手を煩わせることなく被写体の種別を判断して、AF撮影条件をその種別に適正な設定に変更することができる。以降、カメラ100の詳細について図を用いて説明する。   By doing in this way, the camera 100 set to the sport mode can determine the type of the subject without bothering the user and change the AF shooting condition to a setting appropriate for the type. Hereinafter, details of the camera 100 will be described with reference to the drawings.

図3は、カメラ100の要部構成例を示す。カメラ100は、カメラボディとレンズ鏡筒を有しており、カメラボディにレンズ鏡筒が交換可能に装着されている。レンズ鏡筒内には、レンズ光学系1と、レンズ駆動用モータ15が設けられている。レンズ光学系1は、被写体像を結像面に結像させるための光学系であり、フォーカシングレンズを含む複数のレンズによって構成される。フォーカシングレンズは、レンズ駆動用モータ15の動作により光軸方向に移動可能である。   FIG. 3 shows a configuration example of a main part of the camera 100. The camera 100 has a camera body and a lens barrel, and the lens barrel is replaceably attached to the camera body. A lens optical system 1 and a lens driving motor 15 are provided in the lens barrel. The lens optical system 1 is an optical system for forming a subject image on an image forming surface, and includes a plurality of lenses including a focusing lens. The focusing lens can be moved in the optical axis direction by the operation of the lens driving motor 15.

カメラボディの内部には、クイックリターンミラー2と、ファインダースクリーン3と、ペンタプリズム4と、接眼レンズ5と、撮像素子6と、サブミラー7と、位相差AF検出素子8と、顔領域抽出部9と、AF−CCD制御部10と、デフォーカス演算部11と、フォーカスエリア位置決定部12と、レンズ駆動量演算部13と、レンズ駆動制御部14と、測光用レンズ16と、測光センサ17と、操作部材18と、制御装置19と、GPSモジュール20と、通信モジュール21が設けられている。なお、顔領域抽出部9と、AF−CCD制御部10と、デフォーカス演算部11と、フォーカスエリア位置決定部12と、レンズ駆動量演算部13と、レンズ駆動制御部14と、GPSモジュール20と、通信モジュール21は、制御装置19に実装されたプログラムを実行することにより実現される。   Inside the camera body are a quick return mirror 2, a viewfinder screen 3, a pentaprism 4, an eyepiece lens 5, an image sensor 6, a sub mirror 7, a phase difference AF detector 8, and a face area extractor 9. AF-CCD control unit 10, defocus calculation unit 11, focus area position determination unit 12, lens drive amount calculation unit 13, lens drive control unit 14, photometric lens 16, and photometric sensor 17 An operation member 18, a control device 19, a GPS module 20, and a communication module 21 are provided. It should be noted that the face area extraction unit 9, the AF-CCD control unit 10, the defocus calculation unit 11, the focus area position determination unit 12, the lens drive amount calculation unit 13, the lens drive control unit 14, and the GPS module 20 And the communication module 21 is implement | achieved by running the program mounted in the control apparatus 19. FIG.

撮像素子6には、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されている。撮像素子6は、レンズ光学系1によって結像される結像面の画像情報を撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を出力する。撮像素子6から出力された画像信号は、制御装置19の制御によって画像データに変換される。これにより、カメラにおいて撮像画像が取得される。撮像素子6には、たとえばCCDやCMOS等が使用される。   In the image sensor 6, red (R), green (G), and blue (B) pixels are arranged in a predetermined arrangement pattern. The image pickup device 6 picks up image information of an image forming surface formed by the lens optical system 1 and outputs an image signal corresponding to color information and luminance information corresponding to each pixel. The image signal output from the image sensor 6 is converted into image data under the control of the control device 19. Thereby, a captured image is acquired in the camera. For example, a CCD or a CMOS is used for the image sensor 6.

レンズ光学系1と撮像素子6との間には、レンズ光学系1を通過した被写体からの入射光束をファインダー光学系へと反射するクイックリターンミラー2が配設されている。入射光束の一部はクイックリターンミラー2の半透過領域を透過し、サブミラー7にて下方に反射された後に位相差AF検出素子8へ入射される。   A quick return mirror 2 is disposed between the lens optical system 1 and the imaging device 6 to reflect an incident light beam from a subject that has passed through the lens optical system 1 to the finder optical system. A part of the incident light beam passes through the semi-transmissive region of the quick return mirror 2, is reflected downward by the sub mirror 7, and then enters the phase difference AF detection element 8.

クイックリターンミラー2で反射された入射光束により撮像素子6と光学的に等価な位置に設けられたファインダースクリーン3上に被写体像が結像される。ファインダースクリーン3上に結像された被写体像は、ペンタプリズム4および接眼レンズ5を通って撮影者の目へと導かれ、撮影者によって視認される。   A subject image is formed on the finder screen 3 provided at a position optically equivalent to the image sensor 6 by the incident light beam reflected by the quick return mirror 2. The subject image formed on the finder screen 3 is guided to the photographer's eyes through the pentaprism 4 and the eyepiece 5 and is visually recognized by the photographer.

ファインダースクリーン3上に結像された被写体像は、ペンタプリズム4および測光用レンズ16を通って測光センサ17へと導かれる。測光センサ17は、撮像素子6と同様に、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されており、レンズ光学系1により結像される結像面の画像情報を撮像する。そして、測光センサ17は、各画素に対応する色情報や輝度情報に応じた測光信号を制御装置19へ出力する。制御装置19は、この測光センサ17からの測光信号に基づいて、結像面の明るさを検出したり、予め追尾対象に設定された色の結像面における位置を認識し、その色の位置を追尾する色追尾を行ったりする。   The subject image formed on the finder screen 3 is guided to the photometric sensor 17 through the pentaprism 4 and the photometric lens 16. Similar to the image sensor 6, the photometric sensor 17 has red (R), green (G), and blue (B) pixels arranged in a predetermined arrangement pattern, and is imaged by the lens optical system 1. Image information on the image plane is captured. Then, the photometric sensor 17 outputs a photometric signal corresponding to the color information and luminance information corresponding to each pixel to the control device 19. Based on the photometric signal from the photometric sensor 17, the control device 19 detects the brightness of the imaging plane, recognizes the position of the color set as the tracking target in advance on the imaging plane, and determines the position of the color. Or color tracking to track.

カメラが撮影を行う際には、クイックリターンミラー2およびサブミラー7が光路上から光路外へと移動され、入射光束により撮像素子6上に被写体像が結像される。この被写体像を撮像素子6により撮像することで撮像画像が取得され、不図示のメモリカードに記録される。こうしたクイックリターンミラー2およびサブミラー7の動作は、制御装置19により制御される。   When the camera performs shooting, the quick return mirror 2 and the sub mirror 7 are moved from the optical path to the outside of the optical path, and a subject image is formed on the image sensor 6 by the incident light flux. A captured image is acquired by capturing the subject image with the image sensor 6 and recorded in a memory card (not shown). The operations of the quick return mirror 2 and the sub mirror 7 are controlled by the control device 19.

位相差AF検出素子8は、不図示のマスク部、再結像レンズ、複数位置に配置されたAF用のCCDラインセンサなどを有している。この位相差AF検出素子8には、レンズ光学系1を通して入射され、クイックリターンミラー2を透過してサブミラー7により反射された被写体からの光束が入力される。この入射光束をマスク部により撮影レンズの異なる領域を通過する二つの光束に分けた後、再結像レンズにより一対の被写体像をCCDラインセンサ上に再結像し、その像位置の検出結果を表す像信号をCCDラインセンサから出力する。   The phase difference AF detection element 8 includes a mask unit (not shown), a re-imaging lens, an AF CCD line sensor arranged at a plurality of positions, and the like. The phase difference AF detection element 8 receives a light beam from the subject that is incident through the lens optical system 1, passes through the quick return mirror 2, and is reflected by the sub mirror 7. This incident light beam is divided into two light beams that pass through different areas of the photographing lens by the mask portion, and then a pair of subject images are re-imaged on the CCD line sensor by the re-imaging lens, and the detection result of the image position is obtained. A representative image signal is output from the CCD line sensor.

位相差AF検出素子8においてCCDラインセンサ上に再結像される一対の被写体像は、たとえばレンズ光学系1が予定焦点面よりも前に被写体の鮮鋭像を結ぶ状態では互いに近づき、逆に予定焦点面より後ろに被写体の鮮鋭像を結ぶ状態では互いに遠ざかる。また、レンズ光学系1が予定焦点面において被写体の鮮鋭像を結ぶ合焦状態では、一対の被写体像が相対的に一致する。したがって、上記のように一対の被写体像を再結像し、その像位置をCCDラインセンサによって検出することにより、レンズ光学系1からの入射光束に基づいて、レンズ光学系1の焦点調節状態が検出される。   The pair of subject images re-imaged on the CCD line sensor in the phase difference AF detection element 8 approach each other, for example, when the lens optical system 1 forms a sharp image of the subject before the intended focal plane, and conversely In a state where a sharp image of the subject is formed behind the focal plane, they are moved away from each other. In addition, in a focused state where the lens optical system 1 connects a sharp image of a subject on the planned focal plane, the pair of subject images relatively match. Therefore, by re-imaging the pair of subject images as described above and detecting the image position by the CCD line sensor, the focus adjustment state of the lens optical system 1 is based on the incident light beam from the lens optical system 1. Detected.

顔領域抽出部9は、測光センサ17から画像情報を読み込み、周知の顔画像検出手法を用いてその画像情報から顔画像を抽出し、抽出した顔画像の位置に関する情報等をAF−CCD制御部10へ出力する。   The face area extraction unit 9 reads image information from the photometric sensor 17, extracts a face image from the image information using a known face image detection method, and stores information about the position of the extracted face image and the like in the AF-CCD control unit 10 is output.

AF−CCD制御部10は、位相差AF検出素子8に設けられたCCDラインセンサに対して像信号の読み出し制御を行う。レンズ光学系1からの入射光束による像面内には、図4に例示するように、51点の焦点検出エリア30が設定されている。AF−CCD制御部10は、AF撮影条件の一つであるエリアモードに基づいて、これらの焦点検出エリアのうち、デフォーカス量の演算に用いられる焦点検出エリアを選択する。   The AF-CCD control unit 10 performs image signal readout control on the CCD line sensor provided in the phase difference AF detection element 8. As illustrated in FIG. 4, 51 focus detection areas 30 are set in the image plane of the incident light beam from the lens optical system 1. The AF-CCD control unit 10 selects a focus detection area used for calculating a defocus amount from these focus detection areas based on an area mode which is one of AF shooting conditions.

エリアモードの設定には、たとえば「9点」、「21点」、「シングル」、「全点」の四つが含まれる。9点モードの場合には、51点ある焦点検出エリア30のうち最大9点の焦点検出エリア30から読み出された像信号がデフォーカス量の演算に用いられる。21点モードの場合には、最大21点の焦点検出エリア30から読み出された像信号が用いられ、シングルモードの場合には、1個の焦点検出エリア30から読み出された像信号が用いられ、全点モードの場合には、51点すべての焦点検出エリア30から読み出された像信号が用いられる。9点モード、21点モード、シングルモードでは、顔領域抽出部9が検出した顔画像を含む焦点検出エリア30が含なれるように、エリアモードにより設定された個数の焦点検出エリア30を選択する。   The area mode setting includes, for example, “9 points”, “21 points”, “single”, and “all points”. In the nine-point mode, image signals read out from a maximum of nine focus detection areas 30 out of 51 focus detection areas 30 are used to calculate the defocus amount. In the 21-point mode, image signals read from up to 21 focus detection areas 30 are used, and in the single mode, the image signals read from one focus detection area 30 are used. In the all-point mode, image signals read from the focus detection areas 30 of all 51 points are used. In the 9-point mode, the 21-point mode, and the single mode, the number of focus detection areas 30 set in the area mode is selected so that the focus detection area 30 including the face image detected by the face area extraction unit 9 is included.

AF−CCD制御部10は、位相差AF検出素子8のCCDラインセンサから読み出された像信号を所定のゲインで増幅して、デフォーカス演算部11へ出力する。以降、AF−CCD制御部10がデフォーカス演算部11に出力する一対の被写体像に関する像信号のことを像信号A[n,i]およびB[n,i]と記載する。nは、選択された焦点検出エリアを表す。iは、CCDラインセンサ上の焦点検出画素の画素位置を表す。   The AF-CCD control unit 10 amplifies the image signal read from the CCD line sensor of the phase difference AF detection element 8 with a predetermined gain and outputs the amplified signal to the defocus calculation unit 11. Hereinafter, the image signals related to a pair of subject images output from the AF-CCD control unit 10 to the defocus calculation unit 11 will be referred to as image signals A [n, i] and B [n, i]. n represents the selected focus detection area. i represents the pixel position of the focus detection pixel on the CCD line sensor.

デフォーカス演算部11は、デフォーカス量の演算に用いられる焦点検出エリア30の像信号A[n,i]およびB[n,i]に基づいて、それらの焦点検出エリアごとに、レンズ光学系1の焦点調節状態(ピントのずれ量)を表すデフォーカス量を算出する。デフォーカス演算部11は、像信号A[n,i]に対して像信号B[n,i]を相対的にずらしながら(1)式の相関演算を行い、一対の像信号のシフト量kにおける相関量C[n,k]を演算する。
C[n,k]=Σ|A[n,i]・B[n,i+1+k]−B[n,i+k]・A [n,i+1]| …(1)
なお、(1)式において、Σ演算はiについて累積される。iのとる範囲は、シフト量kに応じてA[n,i]、A[n,i+1]、B[n,i+k]、B[n,i+1+k]のデータが存在する範囲に限定される。
Based on the image signals A [n, i] and B [n, i] of the focus detection area 30 used for calculating the defocus amount, the defocus calculation unit 11 performs lens optical system for each focus detection area. A defocus amount representing one focus adjustment state (a focus shift amount) is calculated. The defocus calculation unit 11 performs the correlation calculation of equation (1) while relatively shifting the image signal B [n, i] with respect to the image signal A [n, i], and the shift amount k of the pair of image signals The correlation amount C [n, k] at is calculated.
C [n, k] = Σ | A [n, i] · B [n, i + 1 + k] −B [n, i + k] · A [n, i + 1] | (1)
In the equation (1), the Σ operation is accumulated for i. The range of i is limited to a range in which data of A [n, i], A [n, i + 1], B [n, i + k], and B [n, i + 1 + k] exists according to the shift amount k.

デフォーカス演算部11は、デフォーカス量の演算に用いられる焦点検出エリアごとに、相関量C[n,k]が極小となるシフト量k1[n]を演算する。そして、デフォーカス演算部11は、デフォーカス量の演算に用いられる焦点検出エリアごとに、(2)式から(5)式の3点内挿の手法を用いて連続的な相関量に対する極小値C[n,k2]を与えるシフト量k2[n]を演算する。ここで、SLOP[n]は、シフト量k1[n]の前後のシフト量kに対する相関量C[n,k]の傾きである。
k2[n]=k1[n]+D[n]/SLOP[n] ・・・(2)
C[n,k2]=C[n,k1]-|D[n]| ・・・(3)
D[n]={C[n,k1-1]-C[n,k1+1]}/2 ・・・(4)
SLOP[n]=MAX{C[n,k1+1]-C[n,k1],C[n,k1-1]-C[n,k1]}・・・(5)
The defocus calculation unit 11 calculates a shift amount k1 [n] that minimizes the correlation amount C [n, k] for each focus detection area used for calculating the defocus amount. Then, the defocus calculation unit 11 uses, for each focus detection area used for the calculation of the defocus amount, a minimum value with respect to the continuous correlation amount using the three-point interpolation method of Equations (2) to (5). A shift amount k2 [n] giving C [n, k2] is calculated. Here, SLOP [n] is the slope of the correlation amount C [n, k] with respect to the shift amount k before and after the shift amount k1 [n].
k2 [n] = k1 [n] + D [n] / SLOP [n] (2)
C [n, k2] = C [n, k1]-| D [n] | (3)
D [n] = {C [n, k1-1] -C [n, k1 + 1]} / 2 (4)
SLOP [n] = MAX {C [n, k1 + 1] -C [n, k1], C [n, k1-1] -C [n, k1]} (5)

カメラ100は、AF撮影条件の一つとして、シフト量k2[n]の信頼性の評価基準となるコントラストしきい値を有する。デフォーカス演算部11は、デフォーカス量の演算に用いられる焦点検出エリアごとに、被写体像のコントラストに比例した値となる傾きSLOP[n]が所定のコントラストしきい値より大きいか否かを判定する。デフォーカス演算部11は、傾きSLOP[n]が所定のコントラストしきい値より大きい場合は、算出されたシフト量k2[n]の信頼性が高いと判定し、算出されたシフト量k2[n]に基づいてデフォーカス量D[n]を算出する。デフォーカス演算部11は、傾きSLOP[n]が所定のコントラストしきい値以下の場合は、被写体が低コントラストであり、算出されたシフト量k2[n]の信頼性が低いと判定し、算出されたシフト量k2をキャンセルする。   The camera 100 has a contrast threshold value that is an evaluation criterion for the reliability of the shift amount k2 [n] as one of AF shooting conditions. The defocus calculation unit 11 determines whether or not the slope SLOP [n], which is a value proportional to the contrast of the subject image, is larger than a predetermined contrast threshold for each focus detection area used for calculating the defocus amount. To do. When the slope SLOP [n] is larger than a predetermined contrast threshold, the defocus calculation unit 11 determines that the calculated shift amount k2 [n] is highly reliable, and calculates the calculated shift amount k2 [n. ], The defocus amount D [n] is calculated. When the slope SLOP [n] is equal to or less than a predetermined contrast threshold, the defocus calculation unit 11 determines that the subject has low contrast and the reliability of the calculated shift amount k2 [n] is low. Canceled shift amount k2.

コントラストしきい値の設定値は、競技種別ごとに設定される。たとえば、コート全体を撮影画角内におさめて撮影すると低コントラストになりやすいバスケットボール、バレーボール、テニスや、水面の影響で低コントラストになりやすい水泳などに対しては、コントラストしきい値は、他の競技種別と比べて高く設定され、不鮮明な画像を撮像することが抑制される。   The setting value of the contrast threshold is set for each competition type. For example, for basketball, volleyball, tennis, which tends to have low contrast when the entire court is within the field of view, and swimming that tends to have low contrast due to the influence of the water surface, the contrast threshold is It is set higher than the competition type, and it is suppressed to take a blurred image.

フォーカスエリア位置決定部12は、デフォーカス演算部11によって算出されたデフォーカス量D[n]に基づいて、レンズ光学系1を最終的に合焦させる焦点検出エリアを決定する。たとえば、フォーカスエリア位置決定部12は、デフォーカス量D[n]の絶対値が所定のしきい値以下の焦点検出エリア30の中から最もゼロに近い焦点検出エリア30を選択する。フォーカスエリア位置決定部12は、デフォーカス演算部11によって算出されたすべてのデフォーカス量D[n]の絶対値が所定のしきい値より大きい場合、デフォーカス量の信頼性が低いと判断し、AF−CCD制御部10に対して、デフォーカス量の演算に用いられる焦点検出エリア30として選択する焦点検出エリア30を周囲の焦点検出エリア30に移動するように指示する。カメラ100は、エリア移動特性と呼ばれるAF撮影条件を有しており、このAF撮影条件の設定に基づいてフォーカスエリア位置決定部12が用いるデフォーカス量D[n]の絶対値に対するしきい値が設定される。エリア移動特性の設定は、たとえば、「0」と「+1」のいずれかに設定される。エリア移動特性が「+1」に設定されている場合、「0」に設定されている場合よりもしきい値が高く設定される。すなわち、エリア移動特性が「+1」に設定されている場合、AF−CCD制御部10が選択する焦点検出エリアの移動が起こり難くなる。サッカーのナイターやフィギュアスケートのエキシビションのように被写体が暗い場合、走り幅跳びの着地時や競泳の水しぶきのように顔の周辺に砂埃や水しぶきが有る場合などには、エリア移動特性を「+1」に設定し、焦点検出エリアの移動を抑制する。   The focus area position determination unit 12 determines a focus detection area for finally focusing the lens optical system 1 based on the defocus amount D [n] calculated by the defocus calculation unit 11. For example, the focus area position determination unit 12 selects the focus detection area 30 that is closest to zero from the focus detection areas 30 in which the absolute value of the defocus amount D [n] is a predetermined threshold value or less. The focus area position determination unit 12 determines that the reliability of the defocus amount is low when the absolute values of all the defocus amounts D [n] calculated by the defocus calculation unit 11 are larger than a predetermined threshold value. The AF-CCD control unit 10 is instructed to move the focus detection area 30 selected as the focus detection area 30 used for the calculation of the defocus amount to the surrounding focus detection area 30. The camera 100 has AF shooting conditions called area movement characteristics, and a threshold for the absolute value of the defocus amount D [n] used by the focus area position determination unit 12 based on the setting of the AF shooting conditions is set. Is set. For example, the area movement characteristic is set to “0” or “+1”. When the area movement characteristic is set to “+1”, the threshold value is set higher than when the area movement characteristic is set to “0”. That is, when the area movement characteristic is set to “+1”, the focus detection area selected by the AF-CCD control unit 10 is unlikely to move. Set the area movement characteristics to +1 when the subject is dark, such as a soccer night game or figure skating exhibition, or when there is dust or splashes around the face, such as when landing a long jump or splashing water during a race. Then, the movement of the focus detection area is suppressed.

フォーカスエリア位置決定部12は、決定した焦点検出エリアのデフォーカス量D[n]をレンズ駆動量演算部13に出力すると共に、そのデフォーカス量D[n]を履歴情報として不図示のメモリに記録する。   The focus area position determination unit 12 outputs the determined defocus amount D [n] of the focus detection area to the lens drive amount calculation unit 13 and stores the defocus amount D [n] as history information in a memory (not shown). Record.

レンズ駆動量演算部13は、フォーカスエリア位置決定部12から出力されたデフォーカス量D[n]に基づいて、フォーカシングレンズの駆動量を演算する。また、レンズ駆動量演算部13は、周知の予測駆動技術を用いて、デフォーカス量に関する履歴情報に基づいて光軸方向の被写体の移動を予測して、フォーカシングレンズの駆動量を補正する。   The lens driving amount calculation unit 13 calculates the focusing lens driving amount based on the defocus amount D [n] output from the focus area position determination unit 12. Further, the lens driving amount calculation unit 13 corrects the driving amount of the focusing lens by predicting the movement of the subject in the optical axis direction based on the history information regarding the defocus amount using a known prediction driving technique.

レンズ駆動量演算部13は、不図示のメモリに記録されているデフォーカス量D[n]に関する履歴情報の中から所定数の履歴を読み出して、その履歴に基づいて被写体の光軸方向の移動を予測する。カメラ100は、駆動敏感度と呼ばれるAF撮影条件を有しており、予測駆動に用いる履歴情報の個数が設定される。駆動敏感度の設定は、たとえば、「0」と「+1」と「−1」の三つのいずれかに設定される。予測駆動に用いる履歴情報の個数は、駆動敏感度が「0」の場合を基準として、駆動敏感度が「+1」の場合は低く、駆動敏感度が「−1」の場合は高い。その結果、駆動敏感度が「+1」の場合は、駆動敏感度が「0」の場合と比べて、予測駆動による補正量がデフォーカス量D[n]の変化と共に変化しやすく、「−1」の場合は、駆動敏感度が「0」の場合と比べて、予測駆動による補正量がデフォーカス量D[n]の変化と共に変化しにくい。陸上のトラック競技、スピードスケート、フィギュアスケートなど、被写体の加速度が大きい競技種別では、駆動敏感度は「+1」に設定される。トラック競技以外の陸上競技、水泳、野球、バレーボールなど、被写体の加速度が小さい競技種別では、駆動敏感度は「−1」に設定される。それ以外の競技種別では、駆動敏感度は「0」に設定される。   The lens driving amount calculation unit 13 reads a predetermined number of histories from the history information regarding the defocus amount D [n] recorded in a memory (not shown), and moves the subject in the optical axis direction based on the history. Predict. The camera 100 has an AF shooting condition called driving sensitivity, and the number of history information used for predictive driving is set. For example, the drive sensitivity is set to any one of “0”, “+1”, and “−1”. The number of pieces of history information used for predictive driving is low when the driving sensitivity is “+1” and high when the driving sensitivity is “−1”, based on the case where the driving sensitivity is “0”. As a result, when the drive sensitivity is “+1”, the correction amount by the predictive drive is likely to change with the change of the defocus amount D [n] as compared with the case where the drive sensitivity is “0”. In the case of “”, the correction amount by the predictive drive is less likely to change with the change of the defocus amount D [n], compared to the case where the drive sensitivity is “0”. The driving sensitivity is set to “+1” in competition types where the acceleration of the subject is large, such as track and field skate, speed skating, and figure skating. The driving sensitivity is set to “−1” in a competition type in which the acceleration of the subject is small, such as athletics other than the track competition, swimming, baseball, and volleyball. In other game types, the driving sensitivity is set to “0”.

レンズ駆動制御部14は、レンズ駆動量演算部13によって演算されたレンズ駆動量に基づいて、レンズ駆動用モータ15へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ15がフォーカシングレンズを駆動して、レンズ光学系1の焦点調節が行われる。   The lens drive control unit 14 outputs a drive control signal to the lens drive motor 15 based on the lens drive amount calculated by the lens drive amount calculation unit 13. In response to the drive control signal, the lens driving motor 15 drives the focusing lens, and the focus adjustment of the lens optical system 1 is performed.

操作部材18は、カメラ100の操作を行うための各種スイッチ類によって構成される。たとえば、カメラ100の動作モードを選択するためのモード選択スイッチ、レリーズボタンなどが操作部材18に含まれる。カメラ100は、レリーズボタンが半押し操作された場合は焦点調節動作を行い、全押し操作された場合は撮像素子6を露光させて、静止画像データを生成して、不図示のメモリカード等にその静止画像データを記録する。   The operation member 18 includes various switches for operating the camera 100. For example, the operation member 18 includes a mode selection switch for selecting an operation mode of the camera 100, a release button, and the like. When the release button is pressed halfway, the camera 100 performs a focus adjustment operation. When the release button is pressed fully, the camera 100 exposes the image sensor 6 to generate still image data, which is stored in a memory card (not shown). The still image data is recorded.

GPSモジュール20は、GPS衛星から出力される電波を検出して、カメラ100が存在する位置、たとえば緯度や経度に関する情報を算出する。
通信モジュール21は、Wi−Fi(登録商標)やBluetooth(登録商標)などを用いて、図1に示した通信回線網150に接続する。
The GPS module 20 detects radio waves output from GPS satellites, and calculates information relating to the position where the camera 100 exists, for example, latitude and longitude.
The communication module 21 is connected to the communication line network 150 shown in FIG. 1 using Wi-Fi (registered trademark), Bluetooth (registered trademark), or the like.

制御装置19は、マイコンやメモリ等によって構成されており、上記の顔領域抽出部9と、AF−CCD制御部10と、デフォーカス演算部11と、フォーカスエリア位置決定部12と、レンズ駆動量演算部13と、レンズ駆動制御部14と、GPSモジュール20と、通信モジュール21の各機能を実現するための処理を実行したり、カメラの動作制御を行ったりする。また、不図示のメモリを有し、これらの処理や制御において必要な情報を一時的に記憶する。   The control device 19 is configured by a microcomputer, a memory, and the like, and includes the face area extraction unit 9, AF-CCD control unit 10, defocus calculation unit 11, focus area position determination unit 12, and lens driving amount. Processing for realizing each function of the calculation unit 13, the lens drive control unit 14, the GPS module 20, and the communication module 21 is executed, and operation control of the camera is performed. In addition, it has a memory (not shown) and temporarily stores information necessary for these processes and controls.

(競技種別ごとのAF撮影条件)
図5(a)は、競技種別ごとに設定されるAF撮影条件の一例を示す図である。図5(a)には、陸上のトラック競技と、トラック競技以外の陸上競技と、水泳と、野球と、デーゲームおよびナイターのサッカーと、バスケットボールと、バレーボールと、テニスと、スピードスケートと、フィギュアスケートなどに対するAF撮影条件の設定値が示されている。図5(a)には、AF撮影条件の例として、エリアモード、コントラストしきい値、エリア移動特性、駆動敏感度の四つの設定が示されている。エリアモードの設定は、前述したとおり、デフォーカス量の演算に用いられる焦点検出エリアの個数に関係する。コントラストしきい値は、前述したとおり、デフォーカス演算部11が算出するシフト量k2[n]の信頼性の評価基準となる。エリア移動特性は、前述したデフォーカス量の信頼性の判断により、フォーカスエリア位置決定部12がレンズ光学系1を合焦させるべき焦点検出エリアの有無を判断する際の基準として用いられる。駆動敏感度は、前述したとおり、レンズ駆動量演算部13が予測駆動に用いる履歴情報の個数に関わる。
(AF shooting conditions for each competition type)
FIG. 5A is a diagram illustrating an example of AF shooting conditions set for each competition type. FIG. 5 (a) shows track and field events other than track events, swimming, baseball, day games and night games, basketball, volleyball, tennis, speed skating, and figures. A set value of AF shooting conditions for skating or the like is shown. FIG. 5A shows four settings of area mode, contrast threshold, area movement characteristics, and drive sensitivity as examples of AF shooting conditions. As described above, the setting of the area mode is related to the number of focus detection areas used for calculating the defocus amount. As described above, the contrast threshold is a criterion for evaluating the reliability of the shift amount k2 [n] calculated by the defocus calculation unit 11. The area movement characteristic is used as a reference when the focus area position determination unit 12 determines the presence or absence of a focus detection area where the lens optical system 1 should be focused by the above-described determination of the reliability of the defocus amount. As described above, the drive sensitivity is related to the number of history information used by the lens drive amount calculation unit 13 for predictive drive.

図5(b)は、カメラ100の現在位置に関する情報ごとに設定されるAF撮影条件の一例を示す図である。図5(b)には、デーゲームの時間帯における屋外、ナイターの時間帯における屋外、屋内などに対するゲインの設定値が示されている。カメラ100の現在位置がナイターの時間帯における屋外や屋内である場合には、デーゲームの時間帯における屋外よりもゲインを大きく設定する。たとえば、競技種別がデーゲームのサッカーの場合には、デーゲームの時間帯における屋外のゲインを用いる。デーゲームの時間帯かナイターの時間帯かは、現在日時に基づいて判別される。屋外か屋内かは、カメラ100の現在位置に関する情報に基づいて判断される。   FIG. 5B is a diagram illustrating an example of AF shooting conditions set for each piece of information related to the current position of the camera 100. FIG. 5B shows gain setting values for outdoors in the day game time zone, outdoors in the night game time zone, indoors, and the like. When the current position of the camera 100 is outdoors or indoors in the night game time zone, the gain is set larger than that in the outdoors during the day game time zone. For example, when the game type is a day game soccer, an outdoor gain in the day game time zone is used. Whether it is a day game time zone or a night game time zone is determined based on the current date and time. Whether it is outdoor or indoor is determined based on information on the current position of the camera 100.

図5(a)および(b)に示す表は、制御装置19の不図示のメモリにルックアップテーブルとして記憶されている。制御装置19は、推定された競技種別、カメラ100の現在位置、現在日時に関する情報に基づいて、ルックアップテーブルを参照して、各AF撮影条件に関する情報を取得する。   The tables shown in FIGS. 5A and 5B are stored as look-up tables in a memory (not shown) of the control device 19. The control device 19 refers to the lookup table based on the estimated game type, the current position of the camera 100, and the current date and time, and acquires information regarding each AF shooting condition.

(第2および第3の被写体推定)
第2の被写体推定では、制御装置19は、合焦させる焦点検出エリアとして仮選択された焦点検出エリアの画像に基づいて、たとえば、以下の5項目について評価を行う。
〔1〕人物像の有無
〔2〕色追尾の信頼性
〔3〕被写体速度v1
〔4〕レンズ光学系1の主点から被写体までの距離a
〔5〕焦点距離f
(Second and third subject estimation)
In the second subject estimation, the control device 19 evaluates, for example, the following five items based on the image of the focus detection area temporarily selected as the focus detection area to be focused.
[1] Presence / absence of person image [2] Reliability of color tracking [3] Subject speed v1
[4] Distance a from the principal point of the lens optical system 1 to the subject a
[5] Focal length f

人物像の有無については、制御装置19は、顔領域抽出部9の抽出結果を用いて判断する。顔領域抽出部9は、仮選択された焦点検出エリアに関する画像情報を測光センサ17から読み込み、その画像情報から顔画像を抽出する。制御装置19は、顔領域抽出部9により顔画像が抽出された場合は、仮選択された焦点検出エリアに人物像が含まれると判断し、顔領域抽出部9により顔画像が抽出されていない場合は、仮選択された焦点検出エリアに人物像が含まれないと判断する。   The presence or absence of a person image is determined by the control device 19 using the extraction result of the face area extraction unit 9. The face area extraction unit 9 reads image information related to the temporarily selected focus detection area from the photometric sensor 17 and extracts a face image from the image information. When a face image is extracted by the face area extraction unit 9, the control device 19 determines that a person image is included in the temporarily selected focus detection area, and no face image is extracted by the face area extraction unit 9. In this case, it is determined that the person image is not included in the temporarily selected focus detection area.

色追尾の信頼性とは、測光センサ17からの測光信号に基づいて行われる色追尾の追尾結果がどの程度信頼できるかを数値化したものである。たとえば、サッカー、バスケットボール、バレーボールのように、同一のユニフォームを複数人が着用する競技種別では、ユニフォームの色を追尾対象に選択すると、追尾する選手が途中で変わるおそれがあり、色追尾の信頼性は低くなりやすい。制御装置19は、仮選択された焦点検出エリアと、その周囲の焦点検出エリアとの各色情報が類似している場合、色追尾の信頼性を低と判断する。仮選択された焦点検出エリアと、その周囲の焦点検出エリアとの各色情報が類似していない場合、色追尾の信頼性を高と判断する。   The color tracking reliability is a numerical value representing how reliable the result of color tracking performed based on the photometric signal from the photometric sensor 17 is. For example, in competition types where multiple people wear the same uniform, such as soccer, basketball, and volleyball, if the color of the uniform is selected as the tracking target, the player to be tracked may change in the middle, and the reliability of color tracking Tends to be low. When the color information of the temporarily selected focus detection area and the surrounding focus detection areas are similar, the control device 19 determines that the color tracking reliability is low. When the color information of the temporarily selected focus detection area and the surrounding focus detection areas are not similar, it is determined that the color tracking reliability is high.

被写体速度v1は、レンズ光学系1の焦点距離fと、被写体の像面移動速度v2と、レンズ光学系1の主点から被写体までの距離aとに基づき、たとえば下式(6)に基づいて算出する。レンズ光学系1の焦点距離fは、レンズ鏡筒に内蔵される図3には不図示のレンズ側CPUから取得する。被写体の像面移動速度v2は、測光センサ17から測光信号を連続して複数回取得し、それらの測光信号における人物像の位置の変化に基づいて算出する。距離aは、焦点距離fと、レンズ光学系1から撮像素子6までの距離bとに基づいて、レンズの公式により算出される。
1/f=1/(a−v1・t)+1/(b−v2・t)・・・(6)
The subject speed v1 is based on the focal length f of the lens optical system 1, the subject image plane moving speed v2, and the distance a from the principal point of the lens optical system 1 to the subject, for example, based on the following equation (6). calculate. The focal length f of the lens optical system 1 is acquired from a lens side CPU (not shown in FIG. 3) built in the lens barrel. The image plane moving speed v2 of the subject is calculated based on a change in the position of the person image in the photometric signals obtained by continuously obtaining the photometric signals from the photometric sensor 17 a plurality of times. The distance a is calculated by the lens formula based on the focal length f and the distance b from the lens optical system 1 to the image sensor 6.
1 / f = 1 / (a−v1 · t) + 1 / (b−v2 · t) (6)

第3の被写体推定では、仮選択された焦点検出エリアの周囲の焦点検出エリアについて、第2の被写体推定と同様に上記〔1〕〜〔5〕の5項目の評価を行う。   In the third subject estimation, the five items [1] to [5] are evaluated for the focus detection area around the temporarily selected focus detection area in the same manner as the second subject estimation.

図6は、上記〔1〕〜〔5〕の5項目と、被写体の種別との対応関係を示す。図6に例示されている被写体の種別には、図5(a)に例示されている競技種別の他に「レース、乗り物」、「人物スナップ」、「静止物」、「風景」の四つを含む。「人物スナップ」に推定される被写体としては、観客など競技者以外の人物が想定されている。「静止物」に推定される被写体としては、スコアボードなどの静止物が想定されている。   FIG. 6 shows the correspondence between the above five items [1] to [5] and the type of subject. In addition to the competition types illustrated in FIG. 5A, there are four types of subjects illustrated in FIG. 6: “race, vehicle”, “person snap”, “stationary object”, and “landscape”. including. As a subject presumed to be “person snap”, a person other than an athlete such as a spectator is assumed. As a subject estimated to be a “stationary object”, a stationary object such as a scoreboard is assumed.

競技者がヘルメット、ゴーグル、レーシングスーツ、水泳帽等を着用している「レース、乗り物」、「スピードスケート」、「水泳」は、顔領域抽出部9により顔が抽出されないため、人物像なしに分類されている。なお、顔抽出の精度が向上し、これらの競技でも顔が検出されるようになった場合は、人物像ありに分類することにしてもよい。   “Race, vehicle”, “speed skating”, and “swimming”, in which athletes wear helmets, goggles, racing suits, swimming caps, etc., are not extracted by the face area extraction unit 9, so there is no person image It is classified. If the face extraction accuracy is improved and a face is detected in these competitions, it may be classified as a person image.

図6に示す表は、制御装置19の不図示のメモリにルックアップテーブルとして記憶されている。第2および第3の被写体推定では、制御装置19は、上記〔1〕〜〔5〕の5項目の評価結果に基づいて、ルックアップテーブルを参照して、被写体の種別を推定する。この推定結果には、複数の被写体の種別が含まれることがある。たとえば、人物像が有り、色追尾の信頼性が高く、被写体速度が8m/s、被写体距離が20m、焦点距離が300mmの場合、陸上とテニスが被写体の種別として推定される。   The table shown in FIG. 6 is stored as a lookup table in a memory (not shown) of the control device 19. In the second and third subject estimation, the control device 19 estimates the subject type with reference to the lookup table based on the evaluation results of the five items [1] to [5]. This estimation result may include a plurality of types of subjects. For example, when there is a human image, the color tracking is highly reliable, the subject speed is 8 m / s, the subject distance is 20 m, and the focal length is 300 mm, land and tennis are estimated as subject types.

図7は、カメラ100の動作に関するフローチャートであり、制御装置19に実装したプログラムを実行することにより実行される。なお、図7に示す動作の開始時には、カメラ100のAF撮影条件は、図5(a)および(b)に示すデフォルトの設定になっているものとする。   FIG. 7 is a flowchart regarding the operation of the camera 100, and is executed by executing a program installed in the control device 19. At the start of the operation shown in FIG. 7, it is assumed that the AF shooting conditions of the camera 100 are the default settings shown in FIGS. 5 (a) and 5 (b).

ステップS100では、制御装置19は、カメラ内のタイマーがオン状態にあるか否かを判定する。制御装置19は、位相差AF検出素子8を含めカメラ内の一部の機能が起動している場合はステップS101の処理に進み、起動していない場合はステップS100で待機する。   In step S100, the control device 19 determines whether or not the timer in the camera is on. The control device 19 proceeds to the processing of step S101 when some functions in the camera including the phase difference AF detection element 8 are activated, and waits at step S100 when not activated.

ステップS101では、制御装置19は、カメラ100がスポーツモードに設定されているか否かを判定する。制御装置19は、カメラ100がスポーツモードに設定されている場合は、ステップS102に進む。
ステップS102では、制御装置19は、図9に示す第1の被写体推定を行い、被写体で行われている競技種別に関する情報をサーバ装置200から取得する。
ステップS103では、制御装置19は、ステップS102にて取得した競技種別に関する情報に基づいて、図5(a)および(b)に関するルックアップテーブルを参照して、AF撮影条件、たとえば、エリアモード、コントラストしきい値、エリア移動特性、駆動敏感度、ゲインを仮設定する。
In step S101, the control device 19 determines whether or not the camera 100 is set to the sports mode. When the camera 100 is set to the sport mode, the control device 19 proceeds to step S102.
In step S <b> 102, the control device 19 performs the first subject estimation shown in FIG. 9, and acquires information about the type of competition being performed on the subject from the server device 200.
In step S103, the control device 19 refers to the look-up table relating to FIGS. 5A and 5B based on the information regarding the competition type acquired in step S102, and performs AF shooting conditions such as area mode, Temporarily set the contrast threshold, area movement characteristics, drive sensitivity, and gain.

ステップS101において、制御装置19は、カメラ100がスポーツモードに設定されていない場合はステップS104に進む。すなわち、ステップS102およびステップS103をスキップして、AF撮影条件をデフォルトの設定から変更しない。   In step S101, if the camera 100 is not set to the sport mode, the control device 19 proceeds to step S104. That is, step S102 and step S103 are skipped and the AF shooting condition is not changed from the default setting.

ステップS104では、制御装置19は、レリーズボタンが半押し操作されたか否かを判定する。半押し操作が行われるまでステップS104で待機し、半押し操作が行われると、ステップS105に進む。   In step S104, the control device 19 determines whether or not the release button has been pressed halfway. The process waits in step S104 until the half-press operation is performed, and when the half-press operation is performed, the process proceeds to step S105.

ステップS105では、制御装置19は、AF−CCD制御部10として機能して、位相差AF検出素子8のCCDラインセンサの電荷蓄積制御を行う。AF−CCD制御部10により、位相差AF検出素子8のCCDラインセンサから像信号が読み出される。また、AF−CCD制御部10は、エリアモードの設定に基づいてデフォーカス量の演算に用いる焦点検出エリアを仮選択する。ステップS105の動作により、制御装置19は、仮選択された焦点検出エリア各々の一対の被写体像に関する像信号A[n,i]、B[n,i]を取得する。   In step S <b> 105, the control device 19 functions as the AF-CCD control unit 10 and performs charge accumulation control of the CCD line sensor of the phase difference AF detection element 8. The AF-CCD control unit 10 reads an image signal from the CCD line sensor of the phase difference AF detection element 8. Further, the AF-CCD control unit 10 temporarily selects a focus detection area used for calculating the defocus amount based on the setting of the area mode. By the operation in step S105, the control device 19 acquires image signals A [n, i] and B [n, i] relating to a pair of subject images in each of the temporarily selected focus detection areas.

ステップS106では、制御装置19は、デフォーカス演算部11として機能して、ステップS105で取得した像信号A[n,i]、B[n,i]について相関演算を行い、シフト量k2[n]と、相関量C[n,k]の傾きSLOP[n]を算出する。   In step S106, the control device 19 functions as the defocus calculation unit 11, performs a correlation calculation on the image signals A [n, i] and B [n, i] acquired in step S105, and performs a shift amount k2 [n. ] And the slope SLOP [n] of the correlation amount C [n, k].

ステップS107では、制御装置19は、ステップS106で算出した傾きSLOP[n]の中にコントラストしきい値よりも大きいものが存在するか否かを判定する。制御装置19は、コントラストしきい値よりも大きい傾きSLOP[n]が無い場合、シフト量k2[n]の信頼性が低いと判定し、ステップS106の算出結果を破棄し、フォーカシングレンズの駆動を行わずに図8のステップS128に進む。制御装置19は、一つでもコントラストしきい値よりも大きい傾きSLOP[n]が存在する場合、コントラストしきい値よりも大きい傾きSLOP[n]を選択し、ステップS108に進む。   In step S107, the control device 19 determines whether there is a slope SLOP [n] calculated in step S106 that is larger than the contrast threshold. When there is no inclination SLOP [n] larger than the contrast threshold, the control device 19 determines that the reliability of the shift amount k2 [n] is low, discards the calculation result in step S106, and drives the focusing lens. The process proceeds to step S128 in FIG. If at least one slope SLOP [n] larger than the contrast threshold exists, the control device 19 selects a slope SLOP [n] larger than the contrast threshold, and proceeds to step S108.

ステップS108では、制御装置19は、デフォーカス演算部11として機能して、ステップS107で選択した傾きSLOP[n]に応じたシフト量k2[n]をそれぞれデフォーカス量D[n]に変換する。
ステップS109では、制御装置19は、ステップS108で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在するか否かを判定する。ステップS108で算出したデフォーカス量D[n]の中に絶対値がしきい値より大きいものしかない場合は、ステップS110に進み、デフォーカス量の演算に用いる焦点検出エリアを周囲に移動させて、ステップS104に戻る。たとえば、仮選択した焦点検出エリアの周囲に位置する焦点検出エリアから読み出された像信号に基づいてデフォーカス量を算出し、デフォーカス量が最小となる焦点検出エリアの位置する方向に焦点検出エリアを移動させる。
ステップS109においてステップS108で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在した場合、ステップS111に進む。
ステップS111では、制御装置19は、絶対値がしきい値以上のデフォーカス量D[n]のうちデフォーカス量がゼロに最も近い焦点検出エリアを、合焦させる焦点検出エリアとして仮選択する。
In step S108, the control device 19 functions as the defocus calculation unit 11, and converts the shift amount k2 [n] corresponding to the slope SLOP [n] selected in step S107 into the defocus amount D [n]. .
In step S109, the control device 19 includes a defocus amount D [n] whose absolute value is equal to or smaller than a threshold corresponding to the setting of the area movement characteristic in the defocus amount D [n] calculated in step S108. It is determined whether or not to do. If the defocus amount D [n] calculated in step S108 has only an absolute value larger than the threshold value, the process proceeds to step S110, and the focus detection area used for calculating the defocus amount is moved to the periphery. Return to step S104. For example, the defocus amount is calculated based on the image signal read from the focus detection area located around the temporarily selected focus detection area, and the focus detection is performed in the direction of the focus detection area where the defocus amount is the smallest. Move the area.
In step S109, when the defocus amount D [n] calculated in step S108 includes a defocus amount D [n] whose absolute value is equal to or smaller than a threshold value according to the setting of the area movement characteristic, the process proceeds to step S111. move on.
In step S111, the control device 19 temporarily selects a focus detection area whose defocus amount is closest to zero among defocus amounts D [n] whose absolute value is equal to or greater than a threshold value as a focus detection area to be focused.

ステップS112では、制御装置19は、レンズ駆動量演算部13として機能して、ステップS111で仮選択された焦点検出エリアにおけるデフォーカス量と、その履歴データと、駆動敏感度に関する設定とに基づいて、フォーカシングレンズの駆動量を算出する。制御装置19は、たとえば、仮選択された焦点検出エリアにおけるデフォーカス量をフォーカシングレンズの駆動量に変換し、駆動敏感度に応じた個数の履歴情報を読み出して被写体の光軸方向の移動を予測し、その予測結果に応じてフォーカシングレンズの駆動量を補正する。   In step S112, the control device 19 functions as the lens drive amount calculation unit 13 and is based on the defocus amount in the focus detection area temporarily selected in step S111, its history data, and settings related to drive sensitivity. Then, the driving amount of the focusing lens is calculated. For example, the control device 19 converts the defocus amount in the temporarily selected focus detection area into the driving amount of the focusing lens, reads the history information of the number corresponding to the driving sensitivity, and predicts the movement of the subject in the optical axis direction. Then, the driving amount of the focusing lens is corrected according to the prediction result.

ステップS113では、制御装置19は、図10に示す第2の被写体推定を行い、図8のステップS114に進む。すなわち、制御装置19は、ステップS111で仮選択された焦点検出エリアについて、上記〔1〕〜〔5〕の項目について評価し、その評価結果に基づいて図6の表を参照し、被写体の種別の候補を推定する。   In step S113, the control device 19 performs second subject estimation shown in FIG. 10, and proceeds to step S114 in FIG. That is, the control device 19 evaluates the items [1] to [5] for the focus detection area temporarily selected in step S111, and refers to the table of FIG. Estimate candidates.

図8のステップS114では、制御装置19は、第1の被写体推定の推定結果が第2の被写体推定の推定結果に含まれるか否かを判定する。たとえば、第1の被写体推定の推定結果がテニスで、第2の被写体推定の推定結果が陸上とテニスであった場合、第1の被写体推定の推定結果が第2の被写体推定の推定結果に含まれると判定される。第1の被写体推定の推定結果が第2の被写体推定の推定結果に含まれると判定された場合、ステップS115に進み、第1の被写体推定の推定結果が信頼できると判断して、第1の被写体推定の推定結果を採用し、ステップS127に進む。   In step S114 of FIG. 8, the control device 19 determines whether or not the estimation result of the first subject estimation is included in the estimation result of the second subject estimation. For example, when the estimation result of the first subject estimation is tennis and the estimation result of the second subject estimation is land and tennis, the estimation result of the first subject estimation is included in the estimation result of the second subject estimation. It is determined that When it is determined that the estimation result of the first subject estimation is included in the estimation result of the second subject estimation, the process proceeds to step S115, where it is determined that the estimation result of the first subject estimation is reliable, The estimation result of the subject estimation is adopted, and the process proceeds to step S127.

ステップS114において第1の被写体推定の推定結果が第2の被写体推定の推定結果に含まれないと判定された場合、制御装置19は、ステップS116に進み、図11に示す第3の被写体推定を行い、ステップS117に進む。すなわち、制御装置19は、ステップS111で仮選択された焦点検出エリアの周囲に位置する焦点検出エリアについて、上記〔1〕〜〔5〕の項目について評価し、その評価結果に基づいて図6の表を参照し、被写体の種別の候補を推定する。
ステップS117では、制御装置19は、第1の被写体推定の推定結果が第3の被写体推定の推定結果に含まれるか否かを判定する。第1の被写体推定の推定結果が第3の被写体推定の推定結果に含まれると判定された場合、ステップS115に進み、第1の被写体推定の推定結果を採用し、ステップS127に進む。
When it is determined in step S114 that the estimation result of the first subject estimation is not included in the estimation result of the second subject estimation, the control device 19 proceeds to step S116 and performs the third subject estimation shown in FIG. And proceed to step S117. That is, the control device 19 evaluates the items [1] to [5] with respect to the focus detection area positioned around the focus detection area temporarily selected in step S111, and based on the evaluation result, the control device 19 shown in FIG. Referring to the table, the subject type candidate is estimated.
In step S117, the control device 19 determines whether or not the estimation result of the first subject estimation is included in the estimation result of the third subject estimation. If it is determined that the estimation result of the first subject estimation is included in the estimation result of the third subject estimation, the process proceeds to step S115, the estimation result of the first subject estimation is adopted, and the process proceeds to step S127.

ステップS117において第1の被写体推定の推定結果が第3の被写体推定の推定結果に含まれないと判定された場合、制御装置19は、ステップS118に進み、人物スナップ、静止物、風景のうち第2の被写体推定の推定結果に含まれる被写体種別を採用し、ステップS119に進む。
ステップS119では、制御装置19は、第2の被写体推定の推定結果を用いて、ステップS105と同様の制御を行う。
ステップS120では、制御装置19は、ステップS106と同様に、デフォーカス演算部11として機能して、ステップS119で取得した像信号A[n,i]、B[n,i]について相関演算を行い、シフト量k2[n]と、相関量C[n,k]の傾きSLOP[n]を算出する。
ステップS121では、制御装置19は、ステップS107と同様に、ステップS120で算出した傾きSLOP[n]の中にコントラストしきい値よりも大きいものが存在するか否かを判定する。制御装置19は、コントラストしきい値よりも大きい傾きSLOP[n]が無い場合、ステップS120の算出結果を破棄し、フォーカシングレンズの駆動を行わずに図8のステップS128に進む。制御装置19は、一つでもコントラストしきい値よりも大きい傾きSLOP[n]が存在する場合、コントラストしきい値よりも大きい傾きSLOP[n]のみを残し、ステップS122に進む。
ステップS122では、制御装置19は、ステップS108と同様に、デフォーカス演算部11として機能して、ステップS121で残した傾きSLOP[n]に応じたシフト量k2[n]をそれぞれデフォーカス量D[n]に変換する。
ステップS123では、制御装置19は、ステップS109と同様に、ステップS122で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在するか否かを判定する。ステップS122で算出したデフォーカス量D[n]の中に絶対値がしきい値より大きいものしかない場合は、ステップS124に進み、デフォーカス量の演算に用いる焦点検出エリアを周囲に移動させて、ステップS119に戻る。
ステップS123において、ステップS122で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在した場合、制御装置19は、ステップS125に進む。
ステップS125では、制御装置19は、絶対値がしきい値以上のデフォーカス量D[n]のうちデフォーカス量がゼロに最も近い焦点検出エリアを合焦させる焦点検出エリアとして本設定する。
ステップS126では、制御装置19は、ステップS112と同様にレンズ駆動量演算部13として機能して、ステップS125で本設定された焦点検出エリアにおけるデフォーカス量と、その履歴データと、駆動敏感度に関する設定とに基づいて、フォーカシングレンズの駆動量を算出する。
When it is determined in step S117 that the estimation result of the first subject estimation is not included in the estimation result of the third subject estimation, the control device 19 proceeds to step S118, and among the person snap, the stationary object, and the landscape, The subject type included in the estimation result of the second subject estimation is adopted, and the process proceeds to step S119.
In step S119, the control device 19 performs the same control as in step S105 using the estimation result of the second subject estimation.
In step S120, similarly to step S106, the control device 19 functions as the defocus calculation unit 11 and performs a correlation calculation on the image signals A [n, i] and B [n, i] acquired in step S119. The slope SLOP [n] of the shift amount k2 [n] and the correlation amount C [n, k] is calculated.
In step S121, as in step S107, the control device 19 determines whether there is a slope SLOP [n] calculated in step S120 that is greater than the contrast threshold. If there is no inclination SLOP [n] greater than the contrast threshold, the control device 19 discards the calculation result of step S120, and proceeds to step S128 of FIG. 8 without driving the focusing lens. If at least one slope SLOP [n] larger than the contrast threshold exists, the control device 19 leaves only the slope SLOP [n] larger than the contrast threshold, and proceeds to step S122.
In step S122, as in step S108, the control device 19 functions as the defocus calculation unit 11, and each shift amount k2 [n] corresponding to the gradient SLOP [n] left in step S121 is defocused amount D. Convert to [n].
In step S123, similarly to step S109, the control device 19 includes a defocus amount whose absolute value is equal to or less than a threshold value according to the setting of the area movement characteristic in the defocus amount D [n] calculated in step S122. It is determined whether or not D [n] exists. If the defocus amount D [n] calculated in step S122 has only an absolute value larger than the threshold value, the process proceeds to step S124, and the focus detection area used for calculating the defocus amount is moved to the periphery. Return to step S119.
In step S123, if the defocus amount D [n] calculated in step S122 includes a defocus amount D [n] whose absolute value is less than or equal to the threshold value according to the setting of the area movement characteristic, the control device In step 19, the process proceeds to step S125.
In step S125, the control device 19 performs the main setting as a focus detection area for focusing on the focus detection area whose defocus amount is closest to zero among the defocus amounts D [n] whose absolute value is equal to or greater than the threshold value.
In step S126, the control device 19 functions as the lens drive amount calculation unit 13 as in step S112, and relates to the defocus amount in the focus detection area set in step S125, its history data, and drive sensitivity. The driving amount of the focusing lens is calculated based on the setting.

ステップS127では、ステップS115で採用されたフォーカシングレンズの駆動量またはステップS126で算出されたフォーカシングレンズの駆動量に基づいて、フォーカシングレンズを駆動する。
ステップS128では、制御装置19は、レリーズボタンが全押し操作されたか否かを判定する。全押し操作された場合は、ステップS129に進み、撮像素子6を露光させて、被写体像を撮像して、撮像画像に基づいて静止画像を生成し、不図示のメモリカードにその静止画像を記録し、ステップS100に進む。ステップS128において全押し操作されていない場合、制御装置19は、ステップS100に進む。
In step S127, the focusing lens is driven based on the driving amount of the focusing lens employed in step S115 or the driving amount of the focusing lens calculated in step S126.
In step S128, the control device 19 determines whether or not the release button has been fully pressed. If the button has been fully pressed, the process proceeds to step S129, where the image sensor 6 is exposed, the subject image is captured, a still image is generated based on the captured image, and the still image is recorded on a memory card (not shown). Then, the process proceeds to step S100. If the full-press operation has not been performed in step S128, the control device 19 proceeds to step S100.

図9は、図7のステップS102で実行される第1の被写体推定に関するフローチャートである。カメラ100とサーバ装置200とは接続されているものとする。
ステップS201では、制御装置19は、GPSモジュール20を起動する。
ステップS202では、制御装置19は、ステップS201で起動したGPSモジュール20から現在位置に関する位置情報を取得し、不図示のタイマー等から現在日時に関する日時情報を取得する。
ステップS203では、制御装置19は、通信モジュール21を介してサーバ装置200に接続し、ステップS202で取得した位置情報と日時情報とをサーバ装置200へ送信する。
FIG. 9 is a flowchart regarding the first subject estimation executed in step S102 of FIG. Assume that the camera 100 and the server apparatus 200 are connected.
In step S201, the control device 19 activates the GPS module 20.
In step S202, the control device 19 acquires position information related to the current position from the GPS module 20 activated in step S201, and acquires date / time information related to the current date and time from a timer or the like (not shown).
In step S <b> 203, the control device 19 connects to the server device 200 via the communication module 21, and transmits the position information and date / time information acquired in step S <b> 202 to the server device 200.

ステップS211では、サーバ装置200は、ステップS203で送信された位置情報と日時情報とを受信する。
ステップS212では、サーバ装置200は、ステップS211で受信した位置情報と日時情報とに基づいてイベントデータベース201を検索して、カメラ100の現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を取得する。たとえば、カメラ100の現在位置が(X1,Y1)、現在日時が3月18日14:00の場合、サーバ装置200は、○○競技場で実施されているデーゲームのサッカーの試合に関するイベント情報を取得する。
ステップS213では、サーバ装置200は、取得したイベント情報に基づいて、現在位置で現在日時に実施される競技種別に関する情報を推定する。たとえば、制御装置19は、○○競技場で実施されているデーゲームのサッカーの試合に関するイベント情報に基づいて、競技種別をデーゲームのサッカーと推定する。
ステップS214では、サーバ装置200は、ステップS212で取得した競技場所に関する情報と、ステップS213で推定した競技種別に関する情報とをカメラ100へ送信する。
In step S211, the server apparatus 200 receives the position information and date / time information transmitted in step S203.
In step S212, the server device 200 searches the event database 201 based on the position information and date / time information received in step S211, and obtains event information related to the sports event being performed at the current date / time at the current position of the camera 100. get. For example, when the current position of the camera 100 is (X1, Y1) and the current date and time is 14:00 on March 18, the server device 200 has event information relating to the soccer game of the day game being performed at the XX stadium. To get.
In step S213, the server apparatus 200 estimates information related to the competition type to be executed at the current position and the current date and time based on the acquired event information. For example, the control device 19 estimates the competition type as soccer of the day game based on the event information regarding the soccer game of the day game executed at the XX stadium.
In step S214, the server apparatus 200 transmits to the camera 100 information regarding the competition place acquired in step S212 and information regarding the competition type estimated in step S213.

ステップS204では、カメラ100は、ステップS213で送信された競技場所と競技種別に関する情報を受信する。   In step S204, the camera 100 receives the information regarding the competition place and the competition type transmitted in step S213.

図10は、図7のステップS113で実行される第2の被写体推定に関するフローチャートである。
ステップS301では、制御装置19は、ステップS105で仮選択された焦点検出エリアについて、顔領域抽出部9による人物像の抽出結果を取得する。顔領域抽出部9は、仮選択された焦点検出エリアについて、測光センサ17から画像情報を読み込み、その画像情報から顔画像を抽出する。
FIG. 10 is a flowchart regarding the second subject estimation executed in step S113 of FIG.
In step S301, the control device 19 acquires a human image extraction result by the face area extraction unit 9 for the focus detection area temporarily selected in step S105. The face area extraction unit 9 reads image information from the photometric sensor 17 for the temporarily selected focus detection area, and extracts a face image from the image information.

ステップS302では、制御装置19は、仮選択された焦点検出エリアについて、色追尾の信頼性に関する評価値を取得する。制御装置19は、仮選択された焦点検出エリアとその周囲の焦点検出エリアについて測光センサ17から測光信号を取得し、それらの測光信号に基づいて色追尾の信頼性を評価する。たとえば、制御装置19は、仮選択された焦点検出エリアと、その周囲の焦点検出エリアとの各色情報が類似している場合、色追尾の信頼性を低と判断する。   In step S302, the control device 19 acquires an evaluation value related to the reliability of color tracking for the temporarily selected focus detection area. The control device 19 acquires a photometric signal from the photometric sensor 17 for the temporarily selected focus detection area and the surrounding focus detection areas, and evaluates the reliability of color tracking based on the photometric signals. For example, when the color information of the temporarily selected focus detection area and the surrounding focus detection areas are similar, the control device 19 determines that the color tracking reliability is low.

ステップS303では、制御装置19は、仮選択された焦点検出エリアについて、前述した式(6)を用いて被写体速度v1を算出する。   In step S303, the control device 19 calculates the subject speed v1 using the above-described equation (6) for the temporarily selected focus detection area.

ステップS304では、制御装置19は、ステップS301で取得された人物像の検出結果と、ステップS302で取得された色追尾の信頼性の評価結果と、ステップS303で算出された被写体速度v1と、被写体速度v1の算出に用いた被写体距離aおよび焦点距離fとを用いて、図6のルックアップテーブルを参照し、被写体の種別の候補を推定する。被写体の種別の候補は、複数推定されることがある。   In step S304, the control device 19 detects the person image detection result acquired in step S301, the color tracking reliability evaluation result acquired in step S302, the subject speed v1 calculated in step S303, and the subject. Using the subject distance a and the focal length f used to calculate the velocity v1, the look-up table in FIG. 6 is referenced to estimate the subject type candidate. A plurality of subject type candidates may be estimated.

図11は、図8のステップS116で実行される第3の被写体推定に関するフローチャートである。
ステップS401では、制御装置19は、仮選択された焦点検出エリアの周囲に位置する焦点検出エリアについて、顔領域抽出部9による人物像の抽出結果を取得する。顔領域抽出部9は、ステップS105で仮選択された焦点検出エリアの周囲の焦点検出エリアについて、測光センサ17から画像情報を読み込み、その画像情報から顔画像を抽出する。
FIG. 11 is a flowchart regarding the third subject estimation executed in step S116 of FIG.
In step S <b> 401, the control device 19 acquires a human image extraction result by the face area extraction unit 9 for a focus detection area positioned around the temporarily selected focus detection area. The face area extraction unit 9 reads image information from the photometric sensor 17 for the focus detection area around the focus detection area temporarily selected in step S105, and extracts a face image from the image information.

ステップS402では、制御装置19は、仮選択された焦点検出エリアの周囲に位置する焦点検出エリアについて、色追尾の信頼性に関する評価値を取得する。制御装置19は、仮選択された焦点検出エリアの周囲に位置する焦点検出エリアと、それらの周囲の焦点検出エリアについて測光センサ17から測光信号を取得し、それらの測光信号に基づいて色追尾の信頼性を評価する。たとえば、制御装置19は、それらの焦点検出エリアの各色情報が互いに類似している場合、色追尾の信頼性を低と判断する。   In step S402, the control device 19 acquires an evaluation value related to the reliability of color tracking for the focus detection area positioned around the temporarily selected focus detection area. The control device 19 acquires a photometric signal from the photometric sensor 17 for the focus detection area positioned around the temporarily selected focus detection area and the focus detection areas around them, and performs color tracking based on the photometric signals. Evaluate reliability. For example, the control device 19 determines that the color tracking reliability is low when the pieces of color information in the focus detection areas are similar to each other.

ステップS403では、制御装置19は、仮選択された焦点検出エリアの周囲に位置する焦点検出エリアについて、前述した式(6)を用いて被写体速度v1を算出する。   In step S403, the control device 19 calculates the subject speed v1 using the above-described equation (6) for the focus detection area positioned around the temporarily selected focus detection area.

ステップS404では、制御装置19は、ステップS401で取得された人物像の有無の検出結果と、ステップS402で取得された色追尾の信頼性の評価結果と、ステップS403で算出された被写体速度v1と、被写体速度v1の算出に用いた被写体距離aおよび焦点距離fとを用いて、図6のルックアップテーブルを参照し、被写体の種別の候補を推定する。被写体の種別の候補は、複数推定されることがある。   In step S404, the control device 19 detects the presence / absence of the human image acquired in step S401, the color tracking reliability evaluation result acquired in step S402, and the subject speed v1 calculated in step S403. Then, using the subject distance a and the focal length f used for calculating the subject speed v1, the candidate of the subject type is estimated with reference to the lookup table of FIG. A plurality of subject type candidates may be estimated.

以上説明したように、第1の実施の形態では、カメラ100には、競技種別ごとにAF撮影条件が予め定められている。カメラ100は、現在位置で現在日時に実施されているスポーツの競技種別に関する情報を取得し、AF撮影条件をその競技種別に応じた設定に自動的に変更することができる。したがって、スポーツモードでのAF撮影条件の設定変更が簡素化され、初心者であっても競技種別ごとに適正なAF撮影条件に変更することができる。   As described above, in the first embodiment, the camera 100 has AF shooting conditions set in advance for each competition type. The camera 100 can acquire information related to the sport type of the sport being performed at the current position at the current date and time, and can automatically change the AF shooting condition to a setting corresponding to the game type. Accordingly, the setting change of the AF shooting condition in the sport mode is simplified, and even a beginner can change to an appropriate AF shooting condition for each competition type.

また、カメラ100は、第2および第3の被写体推定を実行可能であり、第2の被写体推定では、第1の被写体推定の推定結果により仮選択された焦点検出エリアの画像に基づいて被写体の種別の候補を推定する。第2の被写体推定の推定結果に第1の被写体推定の推定結果が含まれる場合、カメラ100は、第1の被写体推定の推定結果を採用する。第2の被写体推定の推定結果に第1の被写体推定の推定結果が含まれない場合、カメラ100は、第3の被写体推定を行い、仮選択された焦点検出エリアの周囲の焦点検出エリアの画像に基づいて被写体の種別の候補を推定する。第3の被写体推定の推定結果に第1の被写体推定の推定結果が含まれる場合、カメラ100は、第1の被写体推定の推定結果を採用する。第3の被写体推定の推定結果に第1の被写体推定の推定結果が含まれない場合、カメラ100は、スポーツの競技以外を撮影しているものと判断して、第2の被写体推定の推定結果に含まれる競技以外の被写体の種別を採用する。
スポーツモードに設定した競技以外、たとえば観客、静止物、背景などを撮影する場合、AF撮影条件をそのままにして撮影するとAFの精度が低くなるおそれがある。本発明では、第2および第3の被写体推定により競技以外にカメラ100を向けていることを検出することができ、被写体の種別に応じた設定に自動的に変更することができる。スポーツモードでのAF撮影条件の設定変更がより一層簡素化され、初心者であっても被写体ごとに適正なAF撮影条件に変更することができる。
In addition, the camera 100 can execute second and third subject estimation. In the second subject estimation, the subject 100 is detected based on the image of the focus detection area temporarily selected based on the estimation result of the first subject estimation. Estimate type candidates. When the estimation result of the first subject estimation is included in the estimation result of the second subject estimation, the camera 100 employs the estimation result of the first subject estimation. When the estimation result of the first subject estimation is not included in the estimation result of the second subject estimation, the camera 100 performs the third subject estimation and the image of the focus detection area around the temporarily selected focus detection area. Based on the above, a candidate for the type of subject is estimated. When the estimation result of the first subject estimation is included in the estimation result of the third subject estimation, the camera 100 employs the estimation result of the first subject estimation. When the estimation result of the first subject estimation is not included in the estimation result of the third subject estimation, the camera 100 determines that it is shooting other than a sporting competition, and the estimation result of the second subject estimation The type of subject other than the competition included in is adopted.
When shooting a spectator, a stationary object, a background, or the like other than the competition set in the sport mode, if the AF shooting condition is left as it is, there is a possibility that the AF accuracy is lowered. In the present invention, it is possible to detect that the camera 100 is pointed in addition to the competition by the second and third subject estimation, and it is possible to automatically change the setting according to the type of the subject. Changing the setting of the AF shooting condition in the sport mode is further simplified, and even a beginner can change to an appropriate AF shooting condition for each subject.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)第1の実施の形態におけるカメラ100は、次の工程を実行する。カメラ100が存在する現在位置で現在日時に実施されているスポーツの競技種別に関する第1の推定結果を外部サーバから取得する(第1の推定方法、図7のステップS102、図9)。第1の推定結果に基づいて合焦させる焦点検出エリアを少なくとも含むAF撮影条件を仮に設定する(図7のステップS103)。仮選択された焦点検出エリアの中の画像に基づいて、第1の推定方法で推定することができる各競技種別と、競技種別とは別の被写体種別、たとえば人物スナップ、静止物、風景との中から被写体の種別の候補を一つ以上推定し、第2の推定結果を得る(第2の推定方法、図7のステップS113、図10)。第1の推定結果である競技種別が第2の推定結果である被写体種別の候補に含まれないとき、仮選択された焦点検出エリアの周囲に位置する焦点検出エリアの中の画像に基づいて、第1の推定方法で推定され得る競技種別と、競技種別とは別の被写体種別との中から被写体の種別の候補を一つ以上推定し、第3の推定結果を得る(第3の推定方法、図8のステップS116)。第1乃至第3の推定結果に基づいて第1又は第2の推定結果を採用し、採用した推定結果に基づいてAF撮影条件を本設定する(図8のステップS115、ステップS118など)。具体的には、第1の推定結果が第2および第3の推定結果のいずれか一方に含まれる場合、第1の推定結果である競技種別に適したAF撮影条件を本設定し(ステップS115)、第1の推定結果が第2および第3の推定結果のどちらにも含まれない場合、第2の推定結果のうちの競技種別とは別の被写体種別に適したAF撮影条件を本設定する(ステップ118)。
したがって、スポーツモードでのAF撮影条件の設定変更が簡素化される。
According to the first embodiment described above, the following operational effects are obtained.
(1) The camera 100 in the first embodiment performs the following steps. A first estimation result relating to the sporting type of the sport being performed at the current date and time at the current position where the camera 100 is present is acquired from an external server (first estimation method, step S102 in FIG. 7, FIG. 9). An AF shooting condition including at least a focus detection area to be focused based on the first estimation result is temporarily set (step S103 in FIG. 7). Based on the image in the temporarily selected focus detection area, each competition type that can be estimated by the first estimation method and a subject type different from the competition type, such as a person snap, a stationary object, and a landscape One or more candidates for the type of subject are estimated from the inside, and a second estimation result is obtained (second estimation method, step S113 in FIG. 7, FIG. 10). When the competition type that is the first estimation result is not included in the candidate for the subject type that is the second estimation result, based on the image in the focus detection area located around the temporarily selected focus detection area, One or more candidates of the subject type are estimated from the competition type that can be estimated by the first estimation method and the subject type different from the competition type, and a third estimation result is obtained (third estimation method) , Step S116 of FIG. The first or second estimation result is adopted based on the first to third estimation results, and the AF shooting condition is set based on the adopted estimation result (step S115, step S118, etc. in FIG. 8). Specifically, when the first estimation result is included in one of the second and third estimation results, the AF shooting conditions suitable for the competition type that is the first estimation result are fully set (step S115). ) When the first estimation result is not included in either the second or the third estimation result, the AF shooting condition suitable for the subject type different from the competition type in the second estimation result is set as the main setting. (Step 118).
Therefore, changing the AF shooting condition setting in the sport mode is simplified.

(2)図10に例示する第2の推定方法に関する工程は次のとおりである。仮選択された焦点検出エリアの中の画像の中に顔画像が検出されたか否かを判定する(ステップS301)。仮選択された焦点検出エリアの中の画像と、仮選択された焦点検出エリアの周囲の画像とに基づいて、色追尾の信頼性が高いか否かを判定する(ステップS302)。被写体の実空間での移動速度を算出する(ステップS303)。これらの結果に基づいて、被写体種別に関する第2の推定結果を得る(ステップS304)。
したがって、被写体種別の候補を精度よく推定することができる。
(2) The steps related to the second estimation method illustrated in FIG. 10 are as follows. It is determined whether or not a face image is detected in an image in the temporarily selected focus detection area (step S301). Whether or not the color tracking reliability is high is determined based on the image in the temporarily selected focus detection area and the image around the temporarily selected focus detection area (step S302). The moving speed of the subject in real space is calculated (step S303). Based on these results, a second estimation result regarding the subject type is obtained (step S304).
Accordingly, it is possible to accurately estimate the subject type candidate.

(3)図11に例示する第3の推定方法に関する工程は次のとおりである。仮選択された焦点検出エリアの周囲の焦点検出エリアの中の画像の中に顔画像が検出されたか否かを判定する(ステップS401)。周囲の焦点検出エリアの中の画像と、周囲の焦点検出エリアのさらに周囲の画像に基づいて色追尾の信頼性が高いか否かを判定する(ステップS402)。被写体の実空間での移動速度を算出する(ステップS403)。これらの結果に基づいて、被写体種別に関する第3の推定結果を得る(ステップS404)。
したがって、被写体種別の候補を精度よく推定することができる。
(3) The steps related to the third estimation method illustrated in FIG. 11 are as follows. It is determined whether or not a face image has been detected in the image in the focus detection area around the temporarily selected focus detection area (step S401). It is determined whether or not the reliability of color tracking is high based on the image in the surrounding focus detection area and the surrounding image in the surrounding focus detection area (step S402). The moving speed of the subject in the real space is calculated (step S403). Based on these results, a third estimation result regarding the subject type is obtained (step S404).
Accordingly, it is possible to accurately estimate the subject type candidate.

(4)第1の実施の形態におけるカメラ100は、図10に例示する第2の推定方法(図7のステップS113)と、図11に例示する第3の推定方法(図8のステップS116)の両方を利用することにより、被写体種別の候補をより精度よく推定することができる。 (4) The camera 100 according to the first embodiment includes the second estimation method illustrated in FIG. 10 (step S113 in FIG. 7) and the third estimation method illustrated in FIG. 11 (step S116 in FIG. 8). By using both of these, it is possible to estimate the subject type candidate more accurately.

(5)AF撮影条件には、位相差検出AFで信号読み出しを行う焦点検出エリアを複数の焦点検出エリアの中から選択する条件に関する第1の設定パラメータ、たとえば図5(a)のエリアモードが含まれる。また、AF撮影条件には、デフォーカス量の信頼性の評価に関する第2の設定パラメータ、たとえば図5(a)のエリア移動特性が含まれる。AF撮影条件には、デフォーカス量の演算に用いる数値の信頼性の評価に関する第3の設定パラメータ、たとえば図5(a)のコントラストしきい値が含まれる。AF撮影条件には、レンズ駆動量演算部13によるレンズ光学系1の予測駆動に関する第4の設定パラメータ、たとえば図5(a)の駆動敏感度が含まれる。AF撮影条件には、信号読み出しにおけるゲインの設定に関する第5の設定パラメータ、たとえば図5(b)のゲインが含まれる。
したがって、カメラ100は、被写体種別に合わせた設定で焦点検出を行うことができる。
(5) The AF shooting condition includes a first setting parameter relating to a condition for selecting a focus detection area from which signals are read out by phase difference detection AF from a plurality of focus detection areas, for example, the area mode of FIG. included. Further, the AF shooting condition includes a second setting parameter relating to the evaluation of the reliability of the defocus amount, for example, the area movement characteristic shown in FIG. The AF shooting condition includes a third setting parameter relating to the evaluation of the reliability of the numerical value used for calculating the defocus amount, for example, the contrast threshold value shown in FIG. The AF shooting condition includes a fourth setting parameter related to the predictive driving of the lens optical system 1 by the lens driving amount calculation unit 13, for example, the driving sensitivity shown in FIG. The AF shooting condition includes a fifth setting parameter related to gain setting in signal readout, for example, the gain shown in FIG.
Therefore, the camera 100 can perform focus detection with a setting according to the subject type.

(6)第1の実施の形態におけるカメラシステム300は、カメラ100と、現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を検索し(ステップS212)、検索したイベント情報に基づいて競技種別に関する情報を推定し(ステップS213)、推定した競技種別に関する情報をカメラ100へ送信するサーバ装置200とを備える。
したがって、サーバ装置200で競技種別を推定することができるため、カメラ100の演算負荷を軽減することができる。
(6) The camera system 300 in the first embodiment searches the camera 100 and event information related to a sporting event that is being carried out at the current position at the current date and time (step S212), and competes based on the searched event information. The server apparatus 200 which estimates the information regarding a classification (step S213) and transmits the information regarding the estimated competition classification to the camera 100 is provided.
Therefore, since the game type can be estimated by the server device 200, the calculation load of the camera 100 can be reduced.

(第2の実施の形態)
本発明の第2の実施の形態におけるカメラシステムについて説明する。第2の実施の形態におけるカメラシステムでは、第3の被写体推定を行わず、第1の被写体推定の推定結果が第2の被写体推定の推定結果の中に含まれない場合、ただちに人物スナップ、静止物、風景のうち第2の被写体推定の推定結果に含まれる被写体種別を採用する。このようにすることで、被写体推定に関する演算速度を高速化することができる。
(Second Embodiment)
A camera system according to the second embodiment of the present invention will be described. In the camera system according to the second embodiment, when the third subject estimation is not performed and the estimation result of the first subject estimation is not included in the estimation result of the second subject estimation, the person snap or stationary immediately The subject type included in the estimation result of the second subject estimation is used among the objects and the landscape. By doing in this way, the calculation speed regarding subject estimation can be increased.

第2の実施の形態におけるカメラ100の動作は、図7と、図12とを用いて示される。図7に示す動作は、ステップS113の後、図12のステップS114に進むこと以外は、第1の実施の形態と同じである。図12に示す動作は、図8のフローチャートからステップS116とステップS117とが省略された点、ステップS114が否定判定された場合、すなわち第1の被写体推定の推定結果が第2の被写体推定の推定結果の中に含まれない場合、ステップS118に進む点以外は、図8に示した動作と同様である。   The operation of the camera 100 in the second embodiment is shown using FIG. 7 and FIG. The operation shown in FIG. 7 is the same as that of the first embodiment except that the process proceeds to step S114 in FIG. 12 after step S113. The operation shown in FIG. 12 is that the steps S116 and S117 are omitted from the flowchart of FIG. 8, and the negative determination is made in the step S114, that is, the estimation result of the first subject estimation is the second subject estimation estimation. If not included in the result, the operation is the same as that shown in FIG. 8 except that the process proceeds to step S118.

上述した第2の実施の形態によれば、次の作用効果が得られる。
(1)第2の実施の形態におけるカメラ100は、カメラ100が存在する現在位置で現在日時に実施されているスポーツの競技種別に関する第1の推定結果を外部サーバから取得する(第1の推定方法、図7のステップS102、図9)。第1の推定結果に基づいて合焦させる焦点検出エリアを少なくとも含むAF撮影条件を仮に設定する(図7のステップS103)。仮選択された焦点検出エリアの中の画像に基づいて、第1の推定方法で推定することができる競技種別と、競技種別とは別の被写体種別の中から被写体の種別の候補を一つ以上推定し、第2の推定結果を得る(第2の推定方法、図7のステップS113、図10)。第1及び第2の推定結果に基づいて第1又は第2の推定結果を採用し、採用した推定結果に基づいてAF撮影条件を設定する(図8のステップS115、ステップS118など)。具体的には、第1の推定結果が第2の推定結果に含まれる場合、第1の推定結果を採用し(ステップS115)、第1の推定結果が第2の推定結果に含まれない場合、第2の推定結果の候補の中から競技種別とは別の被写体種別を採用する(ステップ118)。
したがって、スポーツモードでのAF撮影条件の設定変更が簡素化される。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The camera 100 according to the second embodiment obtains, from an external server, a first estimation result relating to a sport competition type that is being implemented at the current date and time at the current position where the camera 100 exists (first estimation). Method, step S102 of FIG. 7, FIG. 9). An AF shooting condition including at least a focus detection area to be focused based on the first estimation result is temporarily set (step S103 in FIG. 7). Based on the temporarily selected image in the focus detection area, the competition type that can be estimated by the first estimation method and one or more candidates for the subject type from among the subject types different from the competition type Then, a second estimation result is obtained (second estimation method, step S113 in FIG. 7, FIG. 10). The first or second estimation result is adopted based on the first and second estimation results, and AF shooting conditions are set based on the adopted estimation result (step S115, step S118, etc. in FIG. 8). Specifically, when the first estimation result is included in the second estimation result, the first estimation result is adopted (step S115), and the first estimation result is not included in the second estimation result. A subject type different from the competition type is selected from the candidates for the second estimation result (step 118).
Therefore, changing the AF shooting condition setting in the sport mode is simplified.

(第3の実施の形態)
本発明の第3の実施の形態におけるカメラシステムについて説明する。第3の実施の形態におけるカメラシステムでは、第2および第3の被写体推定を行わず、第1の被写体推定の推定結果に基づいてAF撮影条件を本設定する。このようにすることで、被写体推定に関する演算速度を高速化することができる。
(Third embodiment)
A camera system according to the third embodiment of the present invention will be described. In the camera system according to the third embodiment, the second and third subject estimation is not performed, and the AF shooting condition is set based on the estimation result of the first subject estimation. By doing in this way, the calculation speed regarding subject estimation can be increased.

図13は、本発明の第3の実施の形態におけるカメラ100の動作に関するフローチャートであり、制御装置19に実装したプログラムを実行することにより実行される。図13に示す動作の開始時には、カメラ100のAF撮影条件は、図5(a)および(b)に示すデフォルトの設定になっているものとする。なお、図13に示す処理のうち、図7および図8に示した処理と同様のものについては、同一のステップ番号を付すとともにその説明を省略する。   FIG. 13 is a flowchart regarding the operation of the camera 100 according to the third embodiment of the present invention, and is executed by executing a program installed in the control device 19. At the start of the operation shown in FIG. 13, it is assumed that the AF shooting conditions of the camera 100 are the default settings shown in FIGS. Of the processes shown in FIG. 13, the same processes as those shown in FIGS. 7 and 8 are denoted by the same step numbers and description thereof is omitted.

図13のステップS102に続くステップS1103では、制御装置19は、ステップS102にて取得した競技種別に関する情報と位置情報と日時情報に基づいて、図5(a)および(b)に関するルックアップテーブルを参照して、AF撮影条件、たとえば、エリアモード、コントラストしきい値、エリア移動特性、駆動敏感度、ゲインを本設定する。   In step S1103 following step S102 in FIG. 13, the control device 19 creates a lookup table in FIGS. 5A and 5B based on the information on the competition type, the position information, and the date / time information acquired in step S102. Referring to this, the AF shooting conditions, such as area mode, contrast threshold, area movement characteristics, drive sensitivity, and gain are set here.

ステップS1107では、制御装置19は、図13のステップS106で算出した傾きSLOP[n]の中にコントラストしきい値よりも大きいものが存在するか否かを判定する。制御装置19は、コントラストしきい値よりも大きい傾きSLOP[n]が無い場合、シフト量k2[n]の信頼性が低いと判定し、図13のステップS106の算出結果を破棄し、フォーカシングレンズの駆動を行わずに図13のステップS128に進む。制御装置19は、一つでもコントラストしきい値よりも大きい傾きSLOP[n]が存在する場合、コントラストしきい値よりも大きい傾きSLOP[n]のみを残し、図13のステップS108に進み、ステップS1107で残したシフト量k2[n]をそれぞれデフォーカス量D[n]に変換する。   In step S1107, the control device 19 determines whether there is a slope SLOP [n] calculated in step S106 of FIG. 13 that is larger than the contrast threshold. When there is no inclination SLOP [n] larger than the contrast threshold, the control device 19 determines that the reliability of the shift amount k2 [n] is low, discards the calculation result in step S106 in FIG. 13, and focuses on the focusing lens. The process proceeds to step S128 in FIG. When at least one slope SLOP [n] larger than the contrast threshold exists, the control device 19 leaves only the slope SLOP [n] larger than the contrast threshold, and proceeds to step S108 in FIG. The shift amount k2 [n] left in S1107 is converted into the defocus amount D [n].

ステップS1109では、制御装置19は、図13のステップS108で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在するか否かを判定する。ステップS108で算出したデフォーカス量D[n]の中に絶対値がしきい値より大きいものしかない場合は、図13のステップS110に進み、デフォーカス量の演算に用いる焦点検出エリアを周囲に移動させて、図13のステップS104に戻る。たとえば、仮選択した焦点検出エリアの周囲に位置する焦点検出エリアから読み出された像信号に基づいてデフォーカス量を算出し、デフォーカス量が最小となる焦点検出エリアの位置する方向に焦点検出エリアを移動させる。
ステップS1109において、ステップS108で算出したデフォーカス量D[n]の中にその絶対値がエリア移動特性の設定に応じたしきい値以下のデフォーカス量D[n]が存在した場合、ステップS1111に進む。
ステップS1111では、制御装置19は、絶対値がしきい値以上のデフォーカス量D[n]のうちデフォーカス量がゼロに最も近い焦点検出エリアを合焦させる焦点検出エリアとして選択する。
In step S1109, the control device 19 includes the defocus amount D [n] whose absolute value is equal to or less than the threshold value according to the setting of the area movement characteristic in the defocus amount D [n] calculated in step S108 of FIG. ] Exists. If the defocus amount D [n] calculated in step S108 has only an absolute value larger than the threshold value, the process proceeds to step S110 in FIG. 13, and the focus detection area used for calculating the defocus amount is set to the periphery. Then, the process returns to step S104 in FIG. For example, the defocus amount is calculated based on the image signal read from the focus detection area located around the temporarily selected focus detection area, and the focus detection is performed in the direction of the focus detection area where the defocus amount is the smallest. Move the area.
If, in step S1109, the defocus amount D [n] calculated in step S108 includes a defocus amount D [n] whose absolute value is equal to or smaller than a threshold corresponding to the setting of the area movement characteristic, step S1111 is performed. Proceed to
In step S <b> 1111, the control device 19 selects a focus detection area whose defocus amount is closest to zero among the defocus amounts D [n] whose absolute value is equal to or greater than the threshold value as a focus detection area for focusing.

ステップS1112では、制御装置19は、レンズ駆動量演算部13として機能して、合焦させる焦点検出エリアにおけるデフォーカス量と、その履歴情報と、駆動敏感度に関する設定とに基づいて、フォーカシングレンズの駆動量を算出する。制御装置19は、たとえば、合焦させる焦点検出エリアにおけるデフォーカス量をフォーカシングレンズの駆動量に変換し、駆動敏感度に応じた個数の履歴情報を読み出して被写体の光軸方向の移動を予測し、その予測結果に応じてフォーカシングレンズの駆動量を補正する。   In step S <b> 1112, the control device 19 functions as the lens driving amount calculation unit 13, and based on the defocus amount in the focus detection area to be focused, its history information, and the setting related to the driving sensitivity, The driving amount is calculated. For example, the control device 19 converts the defocus amount in the focus detection area to be focused into the driving amount of the focusing lens, reads the number of history information corresponding to the driving sensitivity, and predicts the movement of the subject in the optical axis direction. The driving amount of the focusing lens is corrected according to the prediction result.

上述した第3の実施の形態によれば、次の作用効果が得られる。
(1)第3の実施の形態におけるカメラ100は、通信モジュール21を用いて、現在位置と現在日時とに関する情報をサーバ装置200に送信し(図13のステップS102から参照される図9のステップS203)、現在位置で現在日時に実施されているスポーツの競技種別に関する情報をサーバ装置200から受信し(図13のステップS102から参照される図9のステップS204)、受信した競技種別に関する情報に基づいて、AF撮影条件を設定する(図13のステップS1103)。すなわち、競技名に適したAF撮影条件を設定する。
したがって、スポーツモードでのAF撮影条件の設定変更が簡素化され、初心者であっても競技種別ごとに適正なAF撮影条件に変更することができる。
According to the third embodiment described above, the following operational effects can be obtained.
(1) The camera 100 in the third embodiment uses the communication module 21 to transmit information on the current position and the current date and time to the server device 200 (step of FIG. 9 referred to from step S102 of FIG. 13). S203), information relating to the sporting type of the sport being performed at the current position and the current date and time is received from the server device 200 (step S204 in FIG. 9 referred to from step S102 in FIG. 13). Based on this, AF shooting conditions are set (step S1103 in FIG. 13). That is, AF shooting conditions suitable for the competition name are set.
Accordingly, the setting change of the AF shooting condition in the sport mode is simplified, and even a beginner can change to an appropriate AF shooting condition for each competition type.

(2)AF撮影条件には、位相差検出AFで信号読み出しを行う焦点検出エリアを複数の焦点検出エリアの中から選択する条件に関する第1の設定パラメータ、たとえば図5(a)のエリアモードが含まれる。また、AF撮影条件には、デフォーカス量の信頼性の評価に関する第2の設定パラメータ、たとえば図5(a)のエリア移動特性が含まれる。AF撮影条件には、デフォーカス量の演算に用いる数値の信頼性の評価に関する第3の設定パラメータ、たとえば図5(a)のコントラストしきい値が含まれる。AF撮影条件には、レンズ駆動量演算部13によるレンズ光学系1の予測駆動に関する第4の設定パラメータ、たとえば図5(a)の駆動敏感度が含まれる。AF撮影条件には、信号読み出しにおけるゲインの設定に関する第5の設定パラメータ、たとえば図5(b)のゲインが含まれる。
したがって、カメラ100は、被写体種別に合わせた設定で焦点検出を行うことができる。
(2) The AF shooting conditions include a first setting parameter relating to a condition for selecting a focus detection area from which signals are read out by phase difference detection AF from a plurality of focus detection areas, for example, the area mode of FIG. included. Further, the AF shooting condition includes a second setting parameter relating to the evaluation of the reliability of the defocus amount, for example, the area movement characteristic shown in FIG. The AF shooting condition includes a third setting parameter relating to the evaluation of the reliability of the numerical value used for calculating the defocus amount, for example, the contrast threshold value shown in FIG. The AF shooting condition includes a fourth setting parameter related to the predictive driving of the lens optical system 1 by the lens driving amount calculation unit 13, for example, the driving sensitivity shown in FIG. The AF shooting condition includes a fifth setting parameter related to gain setting in signal readout, for example, the gain shown in FIG.
Therefore, the camera 100 can perform focus detection with a setting according to the subject type.

(3)第3の実施の形態におけるカメラシステム300は、カメラ100と、現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を検索し(図13のステップS102から参照されるステップS212)、検索したイベント情報に基づいて競技種別に関する情報を推定し(図13のステップS102から参照されるステップS213)、推定した競技種別に関する情報をカメラ100へ送信するサーバ装置200とを備える。したがって、サーバ装置200で競技種別を推定することができるため、カメラ100の演算負荷を軽減することができる。 (3) The camera system 300 according to the third embodiment searches the camera 100 and event information relating to the sporting event being performed at the current position at the current date and time (step S212 referred to from step S102 in FIG. 13). The server apparatus 200 includes the server apparatus 200 that estimates information on the competition type based on the retrieved event information (step S213 referred to from step S102 in FIG. 13) and transmits the information on the estimated competition type to the camera 100. Therefore, since the game type can be estimated by the server device 200, the calculation load of the camera 100 can be reduced.

(第4の実施の形態)
本発明の第4の実施の形態におけるカメラシステムについて説明する。第4の実施の形態におけるカメラシステムでは、カメラ100は、位置情報と日時情報とをサーバ装置200へ送信した後、サーバ装置200からイベント情報を取得して、そのイベント情報から競技種別を推定する。それ以外の点は、第3の実施の形態と同様である。すなわち、第4の実施の形態におけるカメラシステムでは、第2および第3の被写体推定を行わず、第1の被写体推定の推定結果に基づいてAF撮影条件を本設定する。
(Fourth embodiment)
A camera system according to the fourth embodiment of the present invention will be described. In the camera system according to the fourth embodiment, the camera 100 transmits the position information and the date / time information to the server device 200, acquires event information from the server device 200, and estimates the competition type from the event information. . The other points are the same as in the third embodiment. That is, in the camera system according to the fourth embodiment, the AF shooting conditions are set based on the estimation result of the first subject estimation without performing the second and third subject estimation.

図14は、本発明の第4の実施の形態における被写体推定に関するフローチャートである。図14に示す処理のうち、図9に示した処理と同様のものには同一のステップ番号を付し、その説明を省略する。   FIG. 14 is a flowchart relating to subject estimation in the fourth exemplary embodiment of the present invention. Of the processes shown in FIG. 14, the same processes as those shown in FIG. 9 are denoted by the same step numbers, and the description thereof is omitted.

制御装置19は、ステップS202の処理の後、ステップS223に進み、ステップS202で取得した位置情報と日時情報とに基づいて、カメラ100の現在位置で現在日時に行われているスポーツイベントに関するイベント情報をサーバ装置200から取得する。たとえば、制御装置19は、ステップS202で取得した位置情報と日時情報とをサーバ装置200へ送信し、サーバ装置200に現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を検索させ、サーバ装置200にそのイベント情報を送信させる。これにより、カメラ100は、たとえば、○○競技場で実施されているデーゲームのサッカーの試合に関するイベント情報を取得することができる。   After the process of step S202, the control device 19 proceeds to step S223, and based on the position information and date / time information acquired in step S202, event information related to the sporting event being performed at the current date / time at the current position of the camera 100. Is acquired from the server apparatus 200. For example, the control device 19 transmits the position information and date / time information acquired in step S202 to the server device 200, and causes the server device 200 to search for event information related to a sporting event that is being performed at the current position at the current date and time. The device 200 is caused to transmit the event information. Thereby, the camera 100 can acquire the event information regarding the soccer game of the day game currently implemented at XX stadium, for example.

ステップS224では、制御装置19は、現在位置でスポーツイベントを行っている競技場所があるか否かを判定する。すなわち、制御装置19は、ステップS223でイベント情報を1個以上取得することができたか否かを判定する。制御装置19は、現在位置にスポーツイベントを行っている競技場所がある場合、ステップS225に進み、現在位置でスポーツイベントを行っている競技場所がない場合、図14の処理を終了する。
ステップS225では、制御装置19は、ステップS223で取得したイベント情報に基づいて、競技場所と競技種別を推定する。たとえば、制御装置19は、○○競技場で実施されているデーゲームのサッカーの試合に関するイベント情報に基づいて、競技場所を○○競技場、競技種別をデーゲームのサッカーと推定し、図14の処理を終了する。
In step S224, the control device 19 determines whether there is a competition place where a sports event is performed at the current position. That is, the control device 19 determines whether or not one or more pieces of event information have been acquired in step S223. If there is a competition place where a sports event is performed at the current position, the control device 19 proceeds to step S225. If there is no competition place where a sports event is performed at the current position, the control device 19 ends the process of FIG.
In step S225, the control device 19 estimates the competition place and the competition type based on the event information acquired in step S223. For example, the control device 19 estimates the competition place as the XX stadium and the competition type as the Day game soccer based on the event information related to the soccer game of the Day game being conducted at the XX stadium. Terminate the process.

上述した第4の実施の形態によれば、次の作用効果が得られる。
(1)第4の実施の形態におけるカメラ100は、通信モジュール21を用いてサーバ装置200に接続し、カメラ100が存在する現在位置と現在日時とに関する情報に基づいて、現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を取得する(ステップS223)。その後、カメラ100は、取得したイベント情報に基づいて、現在位置で現在日時に実施されている競技種別に関する情報を推定する(ステップS225)。カメラ100は、推定した競技種別に関する情報に基づいて、AF撮影条件を設定する(図13のステップS1103)。すなわち、競技名に適したAF撮影条件を設定する。
したがって、スポーツモードでのAF撮影条件の設定変更が簡素化され、初心者であっても競技種別ごとに適正なAF撮影条件に変更することができる。
According to the fourth embodiment described above, the following operational effects can be obtained.
(1) The camera 100 according to the fourth embodiment is connected to the server device 200 using the communication module 21, and based on the information about the current position where the camera 100 exists and the current date and time, Event information relating to the sport event being executed is acquired (step S223). Thereafter, the camera 100 estimates information related to the competition type being executed at the current position and the current date and time based on the acquired event information (step S225). The camera 100 sets AF shooting conditions based on information on the estimated competition type (step S1103 in FIG. 13). That is, AF shooting conditions suitable for the competition name are set.
Accordingly, the setting change of the AF shooting condition in the sport mode is simplified, and even a beginner can change to an appropriate AF shooting condition for each competition type.

(2)AF撮影条件には、位相差検出AFで信号読み出しを行う焦点検出エリアを複数の焦点検出エリアの中から選択する条件に関する第1の設定パラメータ、たとえば図5(a)のエリアモードが含まれる。また、AF撮影条件には、デフォーカス量の信頼性の評価に関する第2の設定パラメータ、たとえば図5(a)のエリア移動特性が含まれる。AF撮影条件には、デフォーカス量の演算に用いる数値の信頼性の評価に関する第3の設定パラメータ、たとえば図5(a)のコントラストしきい値が含まれる。AF撮影条件には、レンズ駆動量演算部13によるレンズ光学系1の予測駆動に関する第4の設定パラメータ、たとえば図5(a)の駆動敏感度が含まれる。AF撮影条件には、信号読み出しにおけるゲインの設定に関する第5の設定パラメータ、たとえば図5(b)のゲインが含まれる。
したがって、カメラ100は、被写体種別に合わせた設定で焦点検出を行うことができる。
(2) The AF shooting conditions include a first setting parameter relating to a condition for selecting a focus detection area from which signals are read out by phase difference detection AF from a plurality of focus detection areas, for example, the area mode of FIG. included. Further, the AF shooting condition includes a second setting parameter relating to the evaluation of the reliability of the defocus amount, for example, the area movement characteristic shown in FIG. The AF shooting condition includes a third setting parameter relating to the evaluation of the reliability of the numerical value used for calculating the defocus amount, for example, the contrast threshold value shown in FIG. The AF shooting condition includes a fourth setting parameter related to the predictive driving of the lens optical system 1 by the lens driving amount calculation unit 13, for example, the driving sensitivity shown in FIG. The AF shooting condition includes a fifth setting parameter related to gain setting in signal readout, for example, the gain shown in FIG.
Therefore, the camera 100 can perform focus detection with a setting according to the subject type.

(3)第4の実施の形態におけるカメラシステム300は、カメラ100と、現在位置で現在日時に実施されているスポーツイベントに関するイベント情報を検索し、検索したイベント情報をカメラ100へ送信するサーバ装置200とを備える。したがって、最新のイベント情報を取得する処理をサーバ装置200で実施することができるため、最新のカメラ100の演算負荷を軽減することができる。 (3) The camera system 300 according to the fourth embodiment searches the camera 100 and event information related to a sporting event that is being executed at the current position at the current date and time, and transmits the searched event information to the camera 100. 200. Therefore, since the server apparatus 200 can execute the process of acquiring the latest event information, the calculation load of the latest camera 100 can be reduced.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上記の実施の形態では、AF撮影条件は、エリアモード、コントラストしきい値、エリア移動特性、駆動敏感度、ゲインの五つを含むものとしたが、この五つのうち少なくとも一つを含んでいればどのような組み合わせでもよい。たとえば、五つのパラメータのうちのいくつかを含まないことにしてもよいし、CCDラインセンサの電荷蓄積時間など他のパラメータをさらに含むことにしてもよい。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
In the above embodiment, the AF shooting conditions include five areas: area mode, contrast threshold, area movement characteristics, drive sensitivity, and gain. However, at least one of these five may be included. Any combination is acceptable. For example, some of the five parameters may not be included, or other parameters such as the charge accumulation time of the CCD line sensor may be further included.

(変形例2)
上記の実施の形態では、位相差AF検出素子8から一対の被写体像に関する像信号を読み出して、位相差検出AFを行うことにした。しかし、本発明は、焦点検出装置を有する撮像装置であれば、いかなる撮像装置にも適用することができる。たとえば、撮像素子6の撮像画素配列のうち焦点検出エリア30に対応する画素位置に、レンズ光学系1の瞳の異なる部分を通過した一対の光束を受光する焦点検出用画素を配置するようにし、この焦点検出用画素の出力を用いて位相差検出AFを行うことにしてもよい。また、焦点検出装置によって用いられる焦点検出方法は、位相差検出AFでなくてもよく、コントラスト検出AFなど、他の焦点検出方法を用いることにしてもよい。
(Modification 2)
In the above embodiment, the phase difference detection AF is performed by reading out the image signals related to the pair of subject images from the phase difference AF detection element 8. However, the present invention can be applied to any imaging device as long as the imaging device has a focus detection device. For example, a focus detection pixel that receives a pair of light beams that have passed through different portions of the pupil of the lens optical system 1 is disposed at a pixel position corresponding to the focus detection area 30 in the imaging pixel array of the image sensor 6. You may decide to perform phase difference detection AF using the output of this focus detection pixel. Further, the focus detection method used by the focus detection apparatus may not be the phase difference detection AF, and may use another focus detection method such as contrast detection AF.

(変形例3)
上記の実施の形態では、像面中に焦点検出エリア30が51点設定されていることにしたが、像面中に設定されている焦点検出エリア30の個数は、51点に限られない。
(Modification 3)
In the above embodiment, 51 focus detection areas 30 are set in the image plane. However, the number of focus detection areas 30 set in the image plane is not limited to 51.

(変形例4)
第1および第2の実施の形態では、第1の被写体推定において、サーバ装置200がイベント情報に基づいて競技種別を推定し、推定した競技種別に関する情報をカメラ100へ送信することにした。しかし、第1および第2の実施の形態における第1の被写体推定においても、第4の実施の形態のように、サーバ装置200が検索したイベント情報をカメラ100へ送信し、カメラ100がそのイベント情報に基づいて競技種別を推定することにしてもよい。
(Modification 4)
In the first and second embodiments, in the first subject estimation, the server device 200 estimates the competition type based on the event information, and transmits information on the estimated competition type to the camera 100. However, also in the first subject estimation in the first and second embodiments, the event information searched by the server device 200 is transmitted to the camera 100 as in the fourth embodiment, and the camera 100 transmits the event information. The competition type may be estimated based on the information.

(変形例5)
上記の実施の形態では、カメラ100は、デジタルカメラであることにしたが、デジタルカメラ以外の撮像装置、たとえばインターネット接続機能とカメラ機能を有するスマートフォンなどの情報端末であってもよい。
(Modification 5)
In the above embodiment, the camera 100 is a digital camera, but may be an imaging device other than a digital camera, for example, an information terminal such as a smartphone having an Internet connection function and a camera function.

(変形例6)
第1の実施の形態において、第2および第3の被写体推定のいずれか少なくとも一方を、顔領域抽出部9による人物像の抽出結果、色追尾の信頼性に関する評価結果および被写体速度v1を用いない被写体種別を推定する他の方法に替えてもよい。
(Modification 6)
In the first embodiment, at least one of the second and third subject estimations is not performed using the person image extraction result by the face area extraction unit 9, the evaluation result regarding the color tracking reliability, and the subject speed v1. Another method for estimating the subject type may be used.

(変形例7)
上記の実施の形態における第2の被写体推定では、ステップS301で取得された顔領域抽出部9による人物像の抽出結果、ステップS302で取得した色追尾の信頼性に関する評価結果、ステップS303で算出された被写体速度v1ならびに被写体速度v1の算出に用いた被写体距離aおよび焦点距離fとを用いて、図6のルックアップテーブルを参照し、被写体の種別の候補を推定することにした。しかし、被写体速度v1の算出に用いた被写体距離aおよび焦点距離fの少なくともいずれか一方を用いずに被写体の種別の候補を大まかに推定することにしてもよい。
第3の被写体推定についても同様に、被写体速度v1の算出に用いた被写体距離aおよび焦点距離fの少なくともいずれか一方を用いずに被写体の種別の候補を大まかに推定することにしてもよい。たとえば、ステップS401で取得された顔領域抽出部9による人物像の抽出結果、ステップS402で取得された色追尾の信頼性の評価結果およびステップS403で算出された被写体速度v1とを用いて、被写体の種別の候補を推定することにしてもよい。被写体距離aおよび焦点距離fの少なくともいずれか一方を用いずに被写体の種別の候補を大まかに推定する場合には、用いない項目はルックアップテーブルの中から省略することができる。
(Modification 7)
In the second subject estimation in the above embodiment, the extraction result of the human image by the face area extraction unit 9 acquired in step S301, the evaluation result regarding the reliability of color tracking acquired in step S302, and the calculation result in step S303. The subject type candidate is estimated by referring to the lookup table in FIG. 6 using the subject speed v1 and the subject distance a and the focal length f used for calculating the subject speed v1. However, the subject type candidates may be roughly estimated without using at least one of the subject distance a and the focal length f used for calculating the subject speed v1.
Similarly, in the third subject estimation, the subject type candidates may be roughly estimated without using at least one of the subject distance a and the focal length f used for calculating the subject speed v1. For example, the subject image extraction result obtained by the face area extraction unit 9 obtained in step S401, the reliability evaluation result of color tracking obtained in step S402, and the subject speed v1 calculated in step S403 are used. It is also possible to estimate the type candidates. When roughly estimating the subject type candidate without using at least one of the subject distance a and the focal length f, items that are not used can be omitted from the lookup table.

以上では、本発明をカメラシステムについて説明したが、本発明の範囲内にはカメラシステムに備わるカメラの発明も含まれる。   Although the present invention has been described above with respect to the camera system, the scope of the present invention includes the invention of a camera provided in the camera system.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

8:位相差AF検出素子、9:顔領域抽出部、10:AF−CCD制御部、11:デフォーカス演算部、12:フォーカスエリア位置決定部、13:レンズ駆動量演算部、14:レンズ駆動制御部、18:操作部材、19:制御装置、20:GPSモジュール、21:通信モジュール、30:焦点検出エリア、100:カメラ、200:サーバ装置、201:イベントデータベース、300:カメラシステム 8: Phase difference AF detection element, 9: Face area extraction unit, 10: AF-CCD control unit, 11: Defocus calculation unit, 12: Focus area position determination unit, 13: Lens drive amount calculation unit, 14: Lens drive Control unit, 18: operation member, 19: control device, 20: GPS module, 21: communication module, 30: focus detection area, 100: camera, 200: server device, 201: event database, 300: camera system

Claims (10)

光学系により形成される被写体の像を撮像する撮像素子と、
前記光学系による前記被写体の像の合焦状態を検出する検出部と、
スポーツの種類に関する情報を取得する取得部と、
複数のスポーツの種類のそれぞれに対応する、前記検出部の検出条件を記憶する記憶部と、
前記取得部で取得した前記スポーツの種類と、前記記憶部に記憶された前記検出条件とに基づいて、前記検出部の検出条件を設定する制御部と、
を有する撮像装置。
An image sensor that captures an image of a subject formed by an optical system;
A detection unit for detecting a focused state of the image of the subject by the optical system;
An acquisition unit for acquiring information on the type of sport;
A storage unit that stores detection conditions of the detection unit corresponding to each of a plurality of sports types;
A control unit that sets the detection condition of the detection unit based on the type of sport acquired by the acquisition unit and the detection condition stored in the storage unit;
An imaging apparatus having
請求項1に記載の撮像装置において、
前記制御部は、前記被写体に基づいて前記検出部の検出条件を設定する撮像装置。
The imaging device according to claim 1,
The control unit is an imaging device that sets detection conditions of the detection unit based on the subject.
請求項2に記載の撮像装置において、
前記制御部は、前記被写体に顔があるか否かに基づいて前記検出部の検出条件を設定する撮像装置。
The imaging device according to claim 2,
The control unit is an imaging device that sets detection conditions of the detection unit based on whether or not the subject has a face.
請求項3に記載の撮像装置において、
前記制御部は、前記被写体の動きに基づいて前記検出部の検出条件を設定する撮像装置。
The imaging device according to claim 3.
The said control part is an imaging device which sets the detection conditions of the said detection part based on the motion of the said to-be-photographed object.
請求項1に記載の撮像装置において、
前記制御部は、前記撮像素子が前記被写体の像を撮像して出力した信号に基づいて、前記検出部の検出条件を設定する撮像装置。
The imaging device according to claim 1,
The control unit is an image pickup apparatus that sets a detection condition of the detection unit based on a signal output by the image pickup device picking up an image of the subject.
請求項5に記載の撮像装置において、
前記制御部は、前記信号より生成された画像に基づいて前記検出部の検出条件を設定する撮像装置。
The imaging apparatus according to claim 5,
The said control part is an imaging device which sets the detection conditions of the said detection part based on the image produced | generated from the said signal.
請求項5または6に記載の撮像装置において、
前記制御部は、前記信号により生成された画像に顔が検出されているか否かに基づいて、前記検出部の検出条件を設定する撮像装置。
In the imaging device according to claim 5 or 6,
The said control part is an imaging device which sets the detection conditions of the said detection part based on whether the face is detected in the image produced | generated by the said signal.
請求項5から7のいずれか一項に記載の撮像装置において、
前記制御部は、前記撮像素子が複数回撮像して出力した複数の前記信号と、前記光学系の焦点距離と、前記検出部で検出した前記被写体の像の合焦状態と、に基づいて算出した前記被写体の動きに基づいて、前記検出部の検出条件を設定する撮像装置。
In the imaging device according to any one of claims 5 to 7,
The control unit calculates based on the plurality of signals output by the image pickup device picked up a plurality of times, the focal length of the optical system, and the in-focus state of the subject image detected by the detection unit. An imaging device that sets detection conditions of the detection unit based on the movement of the subject.
請求項1から8のいずれか一項に記載の撮像装置において、
位置情報を検出する位置情報検出部を有し、
前記制御部は、前記位置情報および時刻により決定される光源の情報に基づいて前記検出条件を設定する撮像装置。
In the imaging device according to any one of claims 1 to 8,
Having a position information detection unit for detecting position information;
The said control part is an imaging device which sets the said detection conditions based on the information of the light source determined by the said positional information and time.
請求項1から9のいずれか一項に記載の撮像装置を備える電子機器。   An electronic apparatus comprising the imaging device according to any one of claims 1 to 9.
JP2019110285A 2014-10-17 2019-06-13 Imaging equipment and electronic equipment Active JP6897715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110285A JP6897715B2 (en) 2014-10-17 2019-06-13 Imaging equipment and electronic equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014212872A JP6539979B2 (en) 2014-10-17 2014-10-17 Camera and program
JP2019110285A JP6897715B2 (en) 2014-10-17 2019-06-13 Imaging equipment and electronic equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014212872A Division JP6539979B2 (en) 2014-10-17 2014-10-17 Camera and program

Publications (2)

Publication Number Publication Date
JP2019159340A true JP2019159340A (en) 2019-09-19
JP6897715B2 JP6897715B2 (en) 2021-07-07

Family

ID=67996917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110285A Active JP6897715B2 (en) 2014-10-17 2019-06-13 Imaging equipment and electronic equipment

Country Status (1)

Country Link
JP (1) JP6897715B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03256015A (en) * 1990-03-06 1991-11-14 Nikon Corp Automatic focus adjustor
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP2006317701A (en) * 2005-05-12 2006-11-24 Nikon Corp Camera
JP2007212746A (en) * 2006-02-09 2007-08-23 Seiko Epson Corp Setting of photographic parameter value
JP2007336099A (en) * 2006-06-13 2007-12-27 Canon Inc Imaging apparatus and imaging method
JP2010093718A (en) * 2008-10-10 2010-04-22 Riko Sangyo Kk Image generating system and image generation method
JP2012237809A (en) * 2011-05-10 2012-12-06 Canon Inc Imaging apparatus
JP2013003471A (en) * 2011-06-20 2013-01-07 Canon Inc Imaging apparatus
JP2013076766A (en) * 2011-09-29 2013-04-25 Canon Inc Imaging apparatus, method for controlling imaging apparatus, and imaging system
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03256015A (en) * 1990-03-06 1991-11-14 Nikon Corp Automatic focus adjustor
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP2006317701A (en) * 2005-05-12 2006-11-24 Nikon Corp Camera
JP2007212746A (en) * 2006-02-09 2007-08-23 Seiko Epson Corp Setting of photographic parameter value
JP2007336099A (en) * 2006-06-13 2007-12-27 Canon Inc Imaging apparatus and imaging method
JP2010093718A (en) * 2008-10-10 2010-04-22 Riko Sangyo Kk Image generating system and image generation method
JP2012237809A (en) * 2011-05-10 2012-12-06 Canon Inc Imaging apparatus
JP2013003471A (en) * 2011-06-20 2013-01-07 Canon Inc Imaging apparatus
JP2013076766A (en) * 2011-09-29 2013-04-25 Canon Inc Imaging apparatus, method for controlling imaging apparatus, and imaging system
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera

Also Published As

Publication number Publication date
JP6897715B2 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
EP1909229B1 (en) Tracking device and image-capturing apparatus
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP6049333B2 (en) FOCUS DETECTION DEVICE AND FOCUS DETECTION DEVICE CONTROL METHOD
JP2010119097A (en) Image evaluation apparatus, and camera
JP2009015117A (en) Focusing device and image pickup apparatus
US20180027172A1 (en) Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
JP6742173B2 (en) Focus adjusting device and method, and imaging device
JP6825203B2 (en) Imaging controller and camera
US7860385B2 (en) Autofocus system
JP4269908B2 (en) Electronic camera, electronic camera control program
JP5879736B2 (en) Image tracking device and imaging device
JP2007024941A (en) Focus detecting apparatus, focusing apparatus and imaging apparatus
US7830445B2 (en) Image-pickup apparatus and focus control method for the same
JP6253454B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP6539979B2 (en) Camera and program
JP6897715B2 (en) Imaging equipment and electronic equipment
JP5359150B2 (en) Imaging device
JP6492557B2 (en) Focus adjustment device and camera
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP2012128343A (en) Camera
JP6699679B2 (en) Imaging device
JP5541396B2 (en) Image tracking device
US20230247290A1 (en) Image capture apparatus and control method thereof
JP2010113130A (en) Focus detecting device, imaging apparatus, focus detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715