JP6269014B2 - フォーカス制御装置およびフォーカス制御方法 - Google Patents

フォーカス制御装置およびフォーカス制御方法 Download PDF

Info

Publication number
JP6269014B2
JP6269014B2 JP2013257770A JP2013257770A JP6269014B2 JP 6269014 B2 JP6269014 B2 JP 6269014B2 JP 2013257770 A JP2013257770 A JP 2013257770A JP 2013257770 A JP2013257770 A JP 2013257770A JP 6269014 B2 JP6269014 B2 JP 6269014B2
Authority
JP
Japan
Prior art keywords
focus
focus distance
unit
dimensional map
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013257770A
Other languages
English (en)
Other versions
JP2015115851A5 (ja
JP2015115851A (ja
Inventor
浩二 神谷
浩二 神谷
浩昭 松村
浩昭 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013257770A priority Critical patent/JP6269014B2/ja
Priority to US14/534,389 priority patent/US9787891B2/en
Publication of JP2015115851A publication Critical patent/JP2015115851A/ja
Publication of JP2015115851A5 publication Critical patent/JP2015115851A5/ja
Application granted granted Critical
Publication of JP6269014B2 publication Critical patent/JP6269014B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/16Viewfinders combined with focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/24Focusing screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本技術は、フォーカス制御装置およびフォーカス制御方法に関する。
従来、4Kなどの高精細カメラが知られている(例えば、特許文献1参照)。そして、従来、この4Kなどの高精細カメラで撮像し、撮像画像の一部をカットアウトし、HDのズーム画像を取り出す運用方法が考えられている。このとき、高精細カメラでは、固定画枠の引き気味の広角で、全体をとらえるようにして撮像することが行われる。広角でとらえることで、フォーカスの被写界深度が深くなり、画面全体で、フォーカスが取れていることが期待される。
しかし、4Kなどの高精細カメラでは、例えば、撮像面が大きな35mmセンサーと呼ばれる撮像素子と35mmレンズが使われることが多く、被写界深度は浅くなる傾向にある。そのため、広角で撮像しても、手前の画像が映っている箇所と、奥側の画像が映っている箇所では、フォーカス距離の違いによるジャストピン画像が得られにくい。そのため、カットアウトする位置によっては、フォーカスが甘い画像を切り出すことになる。
特開2012−244411号公報
本技術は、所定のフォーカス状態の画像を容易に取得可能とすることにある。
本技術の概念は、
フォーカス距離の二次元マップを用いて該二次元マップ上の所定位置のフォーカス距離情報を取得する情報取得部と、
上記情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行うフォーカス制御部を備える
フォーカス制御装置にある。
本技術において、情報取得部により、フォーカス距離の二次元マップを用いてこの二次元マップ上の所定位置のフォーカス距離情報が得される。そして、フォーカス制御部により、情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御が行われる。例えば、フォーカス自動制御モードに設定するモード設定部をさらに備え、フォーカス制御部は、フォーカス自動制御モードに設定されているとき、情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行う、ようにされてもよい。
例えば、フォーカス距離の二次元マップは撮像画面上の複数位置のフォーカス距離情報を持ち、情報取得部は、この二次元マップを用いて、撮像画面上に設定されるカットアウト位置に対応したフォーカス距離情報を取得する、ようにされてもよい。そして、この場合、例えば、撮像画面上の複数の位置のフォーカス距離に基づいて二次元マップを生成するマップ生成部をさらに備える、ようにされてもよい。
また、例えば、フォーカス距離の二次元マップは撮像範囲内の複数のカメラポジションのフォーカス距離情報を持ち、情報取得部は、この二次元マップを用いて、現在のカメラポジションに対応したフォーカス距離情報を取得する、ようにされてもよい。そして、この場合、例えば、複数のカメラポジションのフォーカス距離に基づいて二次元マップを生成するマップ生成部をさらに備える、ようにされてもよい。また、この場合、情報取得部には、現在のカメラポジションの情報が、カメラ装置が固定される三脚が備えるポテンショメータから与えられる、ようにされてもよい。
このように本技術においては、フォーカス距離の二次元マップから取得されたフォーカス距離情報に基づいてフォーカス制御が行われるものであり、所定のフォーカス状態の画像が容易に得られる。例えば、任意のカットアウト位置でカットアウトされた画像、あるいは任意のカメラポジションで撮像された画像として、ユーザのフォーカス調整操作がなくても、所定のフォーカス状態の画像を容易に得ることが可能となる。
なお、本技術において、例えば、情報取得部で取得されたフォーカス距離情報に対してフォーカス距離の上乗せ調整を行う上乗せ調整部をさらに備え、フォーカス制御部は、この上乗せ調整部で調整されたフォーカス距離情報に基づいてフォーカス制御を行う、ようにされてもよい。このようにフォーカス距離の上乗せ調整が可能とされることで、撮像画像の変化に適応的に対処可能となる。
また、本技術において、例えば、上乗せ調整部で上乗せされたフォーカス距離の上乗せ量の絶対値を二次元マップ上の所定位置の移動量が大きくなるほど大きく減じる上乗せ量制御部をさらに備える、ようにされてもよい。これにより、変化後の位置においては、変化前の位置に係る上乗せ量の影響を軽減でき、二次元マップに基づく本来のフォーカス制御に近づけることが可能となる。
本技術によれば、所定のフォーカス状態の画像を容易に取得できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
第1の実施の形態としてのカメラシステムの構成例を示すブロック図である。 撮像画面上の複数位置のフォーカス距離情報を持つフォーカス距離の二次元マップを説明するための図である。 各登録位置を頂点とする三角形のエリアを自動結線するための自動結線アルゴリズムを説明するための図である。 第2の実施の形態としてのカメラシステムの構成例を示すブロック図である。 三脚によるカメラポジション(水平角、仰俯角)の変更範囲を説明するための図である。 撮像範囲内の複数のカメラポジションのフォーカス距離情報を持つフォーカス距離の二次元マップを説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
<1.第1の実施の形態>
[カメラシステムの構成例]
図1は、第1の実施の形態としてのカメラシステム10の構成例を示している。このカメラシステム10は、カメラ装置100にケーブル600を介してCCU(カメラコントロールユニット)500が接続された構成となっている。
カメラ装置100には、レンズ装置200とビューファインダ300とが接続されている。レンズ装置200は、カメラ装置100の前部のレンズマウント部に取り付けられている。レンズ装置200は、フォーカスデマンド(フォーカスコントローラ)400によるフォーカス調整が可能とされていると共に、CCU500側からのフォローフォーカスコントローラによるフォーカス調整も可能とされている。
レンズ装置200は、その各部の動作を制御するレンズCPU201を有している。レンズCPU201は、フォーカスデマンド400からケーブル401を通じて送られてくるフォーカス調整信号に基づいて、あるいは、カメラ装置100からケーブル202を通じて送られてくるフォーカス調整信号に基づいて、フォーカス制御を行う。
カメラ装置100は、カメラCPU101と、ユーザ操作部102と、センサー部103と、カメラ信号処理部104と、VF信号処理部105を有している。カメラCPU101は、カメラ装置100の各部の動作を制御する。また、このカメラCPU101は、レンズ装置200のレンズCPU201との間、およびCCU500のCPU501との間で、必要な信号の通信を行う。ユーザ操作部102は、カメラCPU101に接続されており、ユーザが種々の操作を行うためのユーザインタフェースを構成する。
センサー部103は、例えば4Kあるいは8Kなどの高精細(高解像度)のイメージセンサを持ち、被写体に対応した高精細な撮像画像信号を出力する。上述のレンズ装置200により、イメージセンサの撮像面に、被写体が結像される。カメラ信号処理部104は、センサー部103から出力される撮像画像信号を処理し、カメラ装置100の出力としての画像信号(カメラ映像信号)を出力する。カメラ信号処理部104は、例えば、利得制御、ホワイトバランス調整、ガンマ補正等の処理を行う。
VF信号処理部105は、カメラ信号処理部104から出力される画像信号に基づいて、ビューファインダ用の、例えばHD解像度の画像信号を生成し、ビューファインダ300に送る。VF信号処理部105は、カメラCPU101から送られてくる表示制御信号に基づいて、例えば、CCU500におけるカットアウト位置(領域)を示す矩形枠表示信号などの表示信号を発生する。そして、VF信号処理部105は、この表示信号を、カメラ信号処理部104から出力される画像信号(撮像画像信号)に合成して、ビューファインダ用の画像信号を生成する。
CCU500は、CPU501と、ユーザ操作部502と、ビデオ処理部503と、カットアウト処理部504を有している。CPU501は、CCU500の各部の動作を制御する。また、このCPU501は、カメラ装置100のカメラCPU101との間で、必要な信号の通信を行う。ユーザ操作部502は、CPU501に接続されており、ユーザが種々の操作を行うためのユーザインタフェースを構成する。
ビデオ処理部503は、カメラ装置100からケーブル600を通じて送られてくる、例えば4Kあるいは8Kなどの高精細な画像信号を処理し、処理後の高精細な画像信号を出力する。カットアウト処理部504は、ビデオ処理部503で得られる高精細な画像信号からカットアウト位置(領域)のHD解像度の画像信号を取り出して出力する。このカットアウト位置(領域)は、カットアウトコントローラ700からケーブル701を通じてCPU501に指示される。
ユーザは、カットアウトコントローラ700を操作して、カットアウト位置(領域)を任意の位置に変更することが可能である。図示していないが、CCU500のモニタには、高精細な画像信号の内容を確認するための例えばHD解像度の画像が表示され、この画像には、カットアウト位置(領域)を示す矩形枠が表示される。ユーザは、この矩形枠の表示を参照して、カットアウト位置(領域)を適宜な位置に移動できる。
また、CPU501には、フォローフォーカスコントローラ800がケーブル801を介して接続されている。ユーザは、このフォローフォーカスコントローラ800を操作することで、レンズ装置200におけるフォーカス調整を行うことができる。この場合、CPU501から、カメラ装置100のカメラCPU101を通じて、レンズ装置200のレンズCPU201に、フォーカス調整信号が供給される。
この実施の形態において、CCU500では、ユーザ操作に基づいて、フォーカス距離の二次元マップの生成が可能とされている。この二次元マップは、撮像画面上の複数の位置、例えば各画素位置のフォーカス距離情報を持つものである。この二次元マップは、マップデータ登録モードで、例えば、以下の手順で生成される。このマップデータ登録モードは、ユーザによるユーザ操作部502からの操作により設定される。
最初に、ユーザの操作に基づき、CPU501は、図2(a)に星印で示すように、撮像画面上で選択された複数の登録位置に対してフォーカス距離情報を登録する。この場合、ユーザは、各登録位置に関し、フォローフォーカスコントローラ800を操作することで、フォーカス距離情報を登録する。例えば、この登録位置として、フォーカス距離が大きく変化する箇所が重点的に選択される。また、登録されるフォーカス距離情報は、必ずしもその登録位置の被写体にジャストフォーカスとなるフォーカス距離を示すものである必要はなく、カットアウトとしてその位置を含む領域を切り出す際に合わせたいフォーカス距離であればよい。
次に、カメラCPU101は、複数の登録位置の位置情報と、フォーカス距離情報に基づいて、撮像画面上の各画素位置に対応したフォーカス距離を求め、二次元マップを完成させる。この場合、CPU501は、図2(b)に示すように、各登録位置を頂点とする三角形のエリアを形成する。そして、三角形のエリア内の各画素位置については、三角形による平面近似により、三点からの距離に応じてフォーカス距離を求める。
また、三角形のエリア外の各画素位置については、画面中心からその画素位置を通過する放射線を想定し、その放射線と交わる外枠の辺の交点位置のフォーカス距離を維持する。例えば、図2(b)に示すように、画面中心をPとし、フォーカス距離を求めたい画素位置をQとするとき、このQのフォーカス距離は、PからQに延びる放射線Lと、これと交わる外枠の辺Mとの交点位置Rのフォーカス距離と同じくされる。なお、Qのフォーカス距離を、Pのフォーカス距離とRのフォーカス距離とから外挿により求めることも考えられる。
また、CPU501は、各登録位置を頂点とする三角形のエリアを自動結線により生成する。この自動結線のアルゴリズムを、図3を参照して、以下に説明する。すなわち、最初に、画面中心に近い登録位置「1」と、それから最も近い登録位置「2」とをライン2で結ぶ。次に、ライン2の中点から最も近い登録位置「3」を選択し(両サイドに最も近い登録位置「3」が見つかるときは、両方を選択する)、この登録位置「3」と登録位置「1」、「2」をライン3で結ぶ。
次に、ライン3の中点から、他の辺と交差せず、かつ、ライン3の両端の登録位置と結ばれていない最も近い登録位置「4」を選択し、この登録位置「4」とライン3の両端の登録位置のうち結ばれていない部分をライン4で結ぶ。以下、同様の処理を続けていき、新たなラインから、他の辺と交差せず、かつ、そのラインの両端の登録位置と結ばれていない最も近い登録位置が存在しなくなるとき、処理を終了する。
なお、各登録位置を頂点とする三角形のエリアを形成することはユーザがユーザ操作部502を操作して行って、その後の各画素位置のフォーカス距離を求める処理のみをCPU501が行う構成とすることも考えられる。
このようにCCU500のCPU501で生成されたフォーカス距離の二次元マップは、CCU500側、例えば、CPU501が持つメモリ501aに保持される。上述したように、ユーザは、カットアウトコントローラ700を操作して、カットアウト位置(領域)を任意の位置に変更できる。
この実施の形態において、CCU500のCPU501は、ユーザのユーザ操作部502からの操作に基づいて、フォーカス自動制御モードに設定することが可能とされる。フォーカス自動制御モードにあるとき、カットアウト位置(領域)の変更に伴って、CPU501は、メモリ501aに保持するフォーカス距離の二次元マップに基づいて、カットアウト位置(領域)に対応したフォーカス距離情報を取得する。ここで、カットアウト位置(領域)に対応したフォーカス距離情報とは、例えば、カットアウト位置(領域)の中心画素位置あるいはその中心画素位置を含む所定範囲の複数の画素位置の平均フォーカス距離の情報、カットアウト位置(領域)の予め設定された画素位置あるいはその画素位置を含む所定範囲の複数の画素位置の平均フォーカス距離の情報などを意味する。
そして、CPU501は、このカットアウト位置(領域)に対応したフォーカス距離情報を、カメラ装置100のカメラCPU101を通じて、レンズ装置200のレンズCPU201に送る。レンズCPU201は、このように送られてくるフォーカス距離情報に基づいて、フォーカス制御を行う。これにより、カットアウト位置(領域)のフォーカス状態は、二次元マップに予め登録されたフォーカス状態に自動的に調整される。
なお、この実施の形態において、フォーカス自動制御モードにあり、さらにユーザのユーザ操作部502からの操作に基づいて上乗せ調整モードがオンとされている場合には、フォーカス距離の上乗せ量の調整が可能となる。この場合、ユーザによりフォローフォーカスコントローラ800が操作されるとき、CPU501は、二次元マップに基づいて取得されたカットアウト位置(領域)に対応したフォーカス距離情報に対してフォーカス距離の上乗せ調整を行う。そして、CPU501は、上乗せ調整されたフォーカス距離情報を、カメラ装置100のカメラCPU101を通じて、レンズ装置200のレンズCPU201に送る。そのため、ユーザは、フォローフォーカスコントローラ800を操作することで、二次元マップで決まるフォーカス状態から、例えば、撮像画像内容の変化等に応じてフォーカス状態を変更することが可能となる。
上述したように、図1に示すカメラシステム10においては、フォーカス自動制御モードでは、フォーカス距離の二次元マップからカットアウト位置(領域)に対応したフォーカス距離情報が取得され、このフォーカス距離情報に基づいて自動的にフォーカス制御が行われるものである。そのため、例えば、カットアウト位置(領域)の変更がある場合にも、変更後のカットアウト位置(領域)に対応したフォーカス状態を自動的に得ることができ、ユーザのフォーカス調整手間を減じることができる。
なお、上述では、CCU500生成されたフォーカス距離の二次元マップがCCU500側で保持されるように説明したが、カメラ装置100側、例えばカメラ装置100のカメラCPU101が持つメモリ101aに保持されていてもよい。その場合、CCU500のCPU501からカットアウト位置(領域)の情報がカメラ装置100のカメラCPU101に送られる。そして、カメラCPU101が、メモリ101aに保持するフォーカス距離の二次元マップに基づいてカットアウト位置(領域)に対応したフォーカス距離情報を取得し、レンズ装置200のレンズCPU201に送る構成となる。
また、上述では、CCU500でカットアウト処理が行われるように説明したが、カメラ装置100がカットアウト処理部を備えて、カットアウト処理を行うことも考えられる。本技術は、その場合にあって、同様に適用できる。
<2.第2の実施の形態>
[カメラシステムの構成例]
図4は、第2の実施の形態としてのカメラシステム20の構成例を示している。この図4において、図1と対応する部分には同一符号を付して示している。このカメラシステム20は、カメラ装置100と、レンズ装置200と、ビューファインダ300とからなっている。レンズ装置200は、カメラ装置100の前部のレンズマウント部に取り付けられている。
レンズ装置200は、このレンズ装置200の各部の動作を制御するレンズCPU201を有している。レンズCPU201は、通常モードでは、フォーカスデマンド400からケーブル401を通じて送られてくるフォーカス調整信号(デマンド制御値)に基づいて、フォーカス制御を行う。一方、カメラ装置100側から制御するモードでは、レンズCPU201は、カメラ装置100側から送られてくるフォーカス距離情報に基づいて、フォーカス制御を行う。この場合、フォーカスデマンド400は、フォーカス距離の上乗せ調整のために使用され、フォーカスデンマンド400からのフォーカス調整信号は、破線図示するように、レンズCPU201を通じて、カメラ装置100側に送られる。
カメラ装置100は、カメラCPU101と、ユーザ操作部102と、センサー部103と、カメラ信号処理部104と、VF信号処理部105を有している。カメラCPU101は、カメラ装置100の各部の動作を制御する。また、このカメラCPU101は、レンズ装置200のレンズCPU201との間で、必要な信号の通信を行う。ユーザ操作部102は、カメラCPU101に接続されており、ユーザが種々の操作を行うためのユーザインタフェースを構成する。
センサー部103は、イメージセンサを持ち、被写体に対応した撮像画像信号を出力する。上述のレンズ装置200により、イメージセンサの撮像面に、被写体が結像される。カメラ信号処理部104は、センサー部103から出力される撮像画像信号を処理し、カメラ装置100の出力としての画像信号(カメラ映像信号)を出力する。カメラ信号処理部104は、例えば、利得制御、ホワイトバランス調整、ガンマ補正等の処理を行う。
VF信号処理部105は、カメラ信号処理部104から出力される画像信号に基づいて、ビューファインダ用の、例えばHD解像度の画像信号を生成し、ビューファインダ300に送る。VF信号処理部105は、カメラCPU101から送られてくる表示制御信号に基づいて、例えば、CCU500におけるカットアウト位置(領域)を示す矩形枠表示信号などの表示信号を発生する。そして、VF信号処理部105は、この表示信号を、カメラ信号処理部104から出力される画像信号(撮像画像信号)に合成して、ビューファインダ用の画像信号を生成する。
カメラ装置100は、三脚150に固定されている。この三脚150により、カメラポジション、つまりカメラ装置100の水平角(パン)と仰俯角(ティルト)を変更できる。図5(a)は、三脚150による水平角の変更範囲の一例を示している。図5(b)は、三脚150による仰俯角の変更範囲の一例を示している。この水平角、仰俯角の変更範囲がカメラの撮像範囲となる。三脚150は、ポテンショメータ151を備えており、カメラポジション(水平角と仰俯角)の情報を、ケーブル152を通じて、カメラ装置100のカメラCPU101に送る。
この実施の形態において、カメラCPU101は、ユーザ操作に基づいて、フォーカス距離の二次元マップの生成が可能とされている。この二次元マップは、撮像範囲内の複数のカメラポジションのフォーカス距離情報を持つものである。この二次元マップは、マップデータ登録モードで、例えば、以下の手順で生成される。このマップデータ登録モードは、ユーザによるユーザ操作部102からの操作により設定される。
最初に、ユーザの操作に基づき、CPU501は、図6(a)に星印で示すように、撮像範囲内で選択された複数の登録カメラポジションに対してフォーカス距離情報を登録する。この場合、ユーザは、撮像範囲内において、複数の登録カメラポジションに対応する複数の対象物を決める。例えば、この対象物として、フォーカス距離が大きく変化する対象物が重点的に選択される。
ユーザは、各対象物に関し、撮像面の中心がその対象物に来るように画角を決め、フォーカスデマンド400を操作することで、複数の登録カメラポジションに対するフォーカス距離情報を登録する。なお、この登録されるフォーカス距離情報は、必ずしもそのカメラポジションの被写体にジャストフォーカスのフォーカス距離を示すものである必要はなく、そのカメラポジションにおいて合わせたいフォーカス距離であればよい。
次に、CPU501は、複数の登録カメラポジションの情報と、フォーカス距離情報に基づいて、撮像範囲内の各カメラポジションに対応したフォーカス距離を求め、二次元マップを完成させる。この撮像範囲内の各カメラポジションのフォーカス距離の求め方は、上述の第1の実施の形態における撮像画面上の各画素位置のフォーカス距離の求め方と同様である。
すなわち、カメラCPU101は、図6(b)に示すように、各登録カメラポジションを頂点とする三角形のエリアを形成する。そして、三角形のエリア内の各カメラポジションについては、三角形による平面近似により、三点からの距離に応じてフォーカス距離を求める。また、三角形のエリア外の各カメラポジションについては、撮像範囲中心からそのカメラポジションを通過する放射線を想定し、その放射線と交わる外枠の辺の交点位置のフォーカス距離を維持する。
このようにカメラ装置100のカメラCPU101で生成されたフォーカス距離の二次元マップは、例えば、カメラCPU101が持つメモリ101aに保持される。この実施の形態において、CPU101は、ユーザのユーザ操作部102からの操作に基づいて、フォーカス自動制御モードに設定することが可能とされる。フォーカス自動制御モードにあるとき、カメラマンのカメラポジションの変更に伴って、カメラCPU101は、メモリ101aに保持するフォーカス距離の二次元マップに基づいて、カメラポジションに対応したフォーカス距離情報を取得する。
そして、カメラCPU101は、このカメラポジションに対応したフォーカス距離情報を、レンズ装置200のレンズCPU201に送る。レンズCPU201は、このように送られてくるフォーカス距離情報に基づいて、フォーカス制御を行う。これにより、フォーカス状態は、現在のカメラポジションに応じたフォーカス状態に自動的に調整される。
なお、実際の運用では、カメラポジション(カメラの向き)だけでは、フォーカス距離を決められないケースが多い。そのため、この実施の形態においては、手動によるフォーカス距離の上乗せ調整を可能にするモードが搭載される。フォーカス自動制御モードにあり、さらにユーザのユーザ操作部102からの操作に基づいて上乗せ調整モードがオンとされている場合には、フォーカス距離の上乗せ量の調整が可能となる。この場合、ユーザによりフォーカスデマンド400が操作された場合、フォーカス調整信号(デマンド制御値)が、レンズCPU201を通じて、カメラ装置100のカメラCPU101に送られる。
カメラCPU101は、このフォーカス調整信号に基づいて、二次元マップに基づいて取得されたカメラポジションに対応したフォーカス距離情報に対してフォーカス距離の上乗せ調整を行って、上乗せ調整されたフォーカス距離情報をレンズCPU201に送る。これにより、ユーザは、フォーカスデマンド400を操作することで、二次元マップで決まるフォーカス状態から、例えば、撮像画像内容の変化等に応じてフォーカス状態を変更することが可能となる。
ここで、上乗せの方法として第1、第2の2つの方法が考えられる。第1の方法は、フォーカスデマンド400からの、その可変範囲のセンター値を0として、センターからのずれ量を上乗せ量として二次元マップからのフォーカス距離に上乗せする方法である。例えば、二次元マップからのフォーカス距離をODmap(x,y)とし、フォーカスデマンド400による上乗せ量をZとすると、上乗せ調整後のフォーカス距離Lは、以下の数式(1)で表される。この場合、フォーカスデマンド400のポジションをセンターに戻すことで、上乗せ量はゼロになる。
L = ODmap(x,y) + Z ・・・(1)
第2の方法は、フォーカスデマンド400からのデマンド制御値に変化があったときだけ、その変化量分を、二次元マップからのフォーカス距離に上乗せしていく方法である。この場合には、例えば、カメラポジションの変化量に応じて、ある一定比率で、上乗せ量の絶対値を減じていくなど、上乗せ量をキャンセルできる機能が設けられる。これにより、変化後のカメラポジションにおいては、変化前のカメラポジションにおける上乗せ量の影響を軽減でき、二次元マップに基づく本来のフォーカス制御に近づけることが可能となる。
例えば、カメラポジションを(x ,y)だけ移動する前の上乗せ量をZ´とし、一定比率をaとするとき、移動後の上乗せ量Zの絶対値は、以下の数式(2)で求められる。なお、数式(2)の右辺が0以下の場合には、|Z|=0とされる。
|Z|=|Z´|−a*√(x**2 + y**2) ・・・(2)
上述したように上乗せ調整をオンとする場合、この実施の形態では、カメラCPU101の制御に基づいて、ビューファインダ300に、上乗せ量の状態を示す表示がなされる。例えば、上乗せ量がプラスのときは、上向きの矢印マークが表示され、上乗せ量がマイナスのときは下向きの矢印マークが表示され、さらに上乗せ量がほぼゼロのときは丸印が表示される。図示の例は、上乗せ量がプラスの場合を示している。なお、この上乗せ状態の表示は、数値あるいはテキストの表示で行うことも考えられる。
上述したように、図4に示すカメラシステム20においては、フォーカス自動制御がオンの状態においては、フォーカス距離の二次元マップからカメラポジションに対応したフォーカス距離情報が取得され、このフォーカス距離情報に基づいて自動的にフォーカス制御が行われるものである。そのため、例えば、カメラポジションの変更がある場合にも、変更後のカメラポジションに対応したフォーカス状態を自動的に得ることができ、ユーザのフォーカス調整手間を減じることができる。
<3.変形例>
なお、図4に示す第2の実施の形態のカメラシステム20では、カメラポジションの変化量に応じて、ある一定比率で、上乗せ量の絶対値を減じていくことを説明した。このことは、上述していないが、図1に示す第1の実施の形態のカメラシステム10にも適用することが可能である。この場合には、カットアウト位置(領域)の変化量に応じて、ある一定比率で、上乗せ量の絶対値を減じていくこととなる。
また、本技術は、以下のような構成を取ることもできる。
(1)フォーカス距離の二次元マップを用いて該二次元マップ上の所定位置のフォーカス距離情報を取得する情報取得部と、
上記情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行うフォーカス制御部を備える
フォーカス制御装置。
(2)上記フォーカス距離の二次元マップは、撮像画面上の複数位置のフォーカス距離情報を持ち、
上記情報取得部は、上記二次元マップを用いて、上記撮像画面上に設定されるカットアウト位置に対応したフォーカス距離情報を取得する
前記(1)に記載のフォーカス制御装置。
(3)撮像画面上の複数の位置のフォーカス距離に基づいて上記二次元マップを生成するマップ生成部をさらに備える
前記(2)に記載のフォーカス制御装置。
(4)上記フォーカス距離の二次元マップは、撮像範囲内の複数のカメラポジションのフォーカス距離情報を持ち、
上記情報取得部は、上記二次元マップを用いて、現在のカメラポジションに対応したフォーカス距離情報を取得する
前記(1)に記載のフォーカス制御装置。
(5)上記情報取得部には、上記現在のカメラポジションの情報が、カメラ装置が固定される三脚が備えるポテンショメータから与えられる
前記(4)に記載のフォーカス制御装置。
(6)複数のカメラポジションのフォーカス距離に基づいて上記二次元マップを生成するマップ生成部をさらに備える
前記(4)または(5)に記載のフォーカス制御装置。
(7)上記情報取得部で取得されたフォーカス距離情報に対してフォーカス距離の上乗せ調整を行う上乗せ調整部をさらに備え、
上記フォーカス制御部は、上記上乗せ調整部で調整されたフォーカス距離情報に基づいてフォーカス制御を行う
前記(1)から(6)のいずれかに記載のフォーカス制御装置。
(8)上記上乗せ調整部で上乗せされたフォーカス距離の上乗せ量の絶対値を上記二次元マップ上の上記所定位置の移動量が大きくなるほど大きく減じる上乗せ量制御部をさらに備える
前記(7)に記載のフォーカス制御装置。
(9)上記上乗せ調整部で上乗せされる上乗せ量の状態をビューファインダに表示する表示制御部をさらに備える
前記(7)または(8)に記載のフォーカス制御装置。
(10)フォーカス自動制御モードに設定するモード設定部をさらに備え、
上記フォーカス制御部は、上記フォーカス自動制御モードに設定されているとき、上記情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行う
前記(1)から(9)のいずれかに記載のフォーカス制御装置。
(11)フォーカス距離の二次元マップを用いて該二次元マップ上の所定位置のフォーカス距離情報を取得し、
フォーカス制御部により、上記取得されたフォーカス距離情報に基づいてフォーカス制御を行う
フォーカス制御方法。
10,20・・・カメラシステム
100・・・カメラ装置
101・・・カメラCPU
101a・・・メモリ
102・・・ユーザ操作部
103・・・センサー部
104・・・カメラ信号処理部
105・・・VF信号処理部
150・・・三脚
151・・・ポテンショメータ
152・・・ケーブル
200・・・レンズ装置
201・・・レンズCPU
202・・・ケーブル
300・・・ビューファインダ
400・・・フォーカスデマンド
401・・・ケーブル
500・・・CCU
501・・・CPU
501a・・・メモリ
502・・・ユーザ操作部
503・・・ビデオ処理部
504・・・カットアウト処理部
600・・・ケーブル
700・・・カットアウトコントローラ
701・・・ケーブル
800・・・フォローフォーカスコントローラ
801・・・ケーブル

Claims (7)

  1. フォーカス距離の二次元マップを用いて該二次元マップ上の所定位置のフォーカス距離情報を取得する情報取得部と、
    上記情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行うフォーカス制御部を備え
    上記フォーカス距離の二次元マップは、第1の解像度の撮像画面上の複数位置のフォーカス距離情報を持ち、
    上記情報取得部は、上記二次元マップを用いて、上記撮像画面上に設定される上記第1の解像度より小さな第2の解像度のカットアウト位置に対応したフォーカス距離情報を取得す
    フォーカス制御装置。
  2. 撮像画面上の複数の位置のフォーカス距離に基づいて上記二次元マップを生成するマップ生成部をさらに備える
    請求項に記載のフォーカス制御装置。
  3. 上記情報取得部で取得されたフォーカス距離情報に対してフォーカス距離の上乗せ調整を行う上乗せ調整部をさらに備え、
    上記フォーカス制御部は、上記上乗せ調整部で調整されたフォーカス距離情報に基づいてフォーカス制御を行う
    請求項1または2に記載のフォーカス制御装置。
  4. 上記上乗せ調整部で上乗せされたフォーカス距離の上乗せ量の絶対値を上記二次元マップ上の上記所定位置の移動量が大きくなるほど大きく減じる上乗せ量制御部をさらに備える
    請求項に記載のフォーカス制御装置。
  5. 上記上乗せ調整部で上乗せされる上乗せ量の状態をビューファインダに表示する表示制御部をさらに備える
    請求項またはに記載のフォーカス制御装置。
  6. フォーカス自動制御モードに設定するモード設定部をさらに備え、
    上記フォーカス制御部は、上記フォーカス自動制御モードに設定されているとき、上記情報取得部で取得されたフォーカス距離情報に基づいてフォーカス制御を行う
    請求項1からのいずれかに記載のフォーカス制御装置。
  7. 情報取得部が、フォーカス距離の二次元マップを用いて該二次元マップ上の所定位置のフォーカス距離情報を取得する情報取得ステップと
    フォーカス制御部、上記情報取得ステップで取得されたフォーカス距離情報に基づいてフォーカス制御を行うフォーカス制御ステップを有し、
    上記フォーカス距離の二次元マップは、第1の解像度の撮像画面上の複数位置のフォーカス距離情報を持ち、
    上記情報取得ステップでは、上記二次元マップを用いて、上記撮像画面上に設定される上記第1の解像度より小さな第2の解像度のカットアウト位置に対応したフォーカス距離情報を取得す
    フォーカス制御方法。
JP2013257770A 2013-12-13 2013-12-13 フォーカス制御装置およびフォーカス制御方法 Active JP6269014B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013257770A JP6269014B2 (ja) 2013-12-13 2013-12-13 フォーカス制御装置およびフォーカス制御方法
US14/534,389 US9787891B2 (en) 2013-12-13 2014-11-06 Focus control apparatus and focus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013257770A JP6269014B2 (ja) 2013-12-13 2013-12-13 フォーカス制御装置およびフォーカス制御方法

Publications (3)

Publication Number Publication Date
JP2015115851A JP2015115851A (ja) 2015-06-22
JP2015115851A5 JP2015115851A5 (ja) 2016-11-17
JP6269014B2 true JP6269014B2 (ja) 2018-01-31

Family

ID=53368261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013257770A Active JP6269014B2 (ja) 2013-12-13 2013-12-13 フォーカス制御装置およびフォーカス制御方法

Country Status (2)

Country Link
US (1) US9787891B2 (ja)
JP (1) JP6269014B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105519093B (zh) * 2015-04-29 2019-10-01 深圳市大疆创新科技有限公司 跟焦器、具有该跟焦器的遥控跟焦***及飞行器
JP2018148446A (ja) * 2017-03-07 2018-09-20 オリンパス株式会社 撮影装置および撮影方法
EP3422068B1 (en) * 2017-06-26 2019-05-01 Axis AB A method of focusing a camera
US11711616B2 (en) * 2020-05-12 2023-07-25 Electroapp, Llc Portable system including motorized base controller and transmitter for tracking a moving target

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2770451B2 (ja) * 1989-07-26 1998-07-02 ミノルタ株式会社 カメラ
JPH04367175A (ja) * 1991-06-13 1992-12-18 Canon Inc 撮影装置
JPH05236316A (ja) 1992-02-20 1993-09-10 Nec Corp テレビジョンカメラ装置
JP3497183B2 (ja) * 1992-02-25 2004-02-16 富士写真光機株式会社 雲台を用いたテレビカメラ動作制御装置
JPH09506217A (ja) * 1993-10-20 1997-06-17 ヴィデオコンファレンスィング システムズ インコーポレイテッド 適応型テレビ会議システム
US5517236A (en) * 1994-06-22 1996-05-14 Philips Electronics North America Corporation Video surveillance system
JP3969844B2 (ja) * 1998-05-15 2007-09-05 キヤノン株式会社 撮影装置
US20050036036A1 (en) * 2001-07-25 2005-02-17 Stevenson Neil James Camera control apparatus and method
US7750944B2 (en) * 2005-05-02 2010-07-06 Ge Security, Inc. Methods and apparatus for camera operation
JP4712661B2 (ja) * 2006-09-22 2011-06-29 オリンパスイメージング株式会社 撮像装置
JP4858525B2 (ja) * 2008-11-04 2012-01-18 ソニー株式会社 カメラ制御装置及びカメラ制御方法
JP5729989B2 (ja) 2010-11-30 2015-06-03 キヤノン株式会社 スイッチング電源、及び、スイッチング電源を搭載した画像形成装置
JP5379118B2 (ja) * 2010-12-17 2013-12-25 株式会社日立製作所 撮像装置、撮像装置制御方法およびそのプログラム
JP2012244411A (ja) 2011-05-19 2012-12-10 Sony Corp 画像データ送信装置、画像データ送信方法および画像データ受信装置

Also Published As

Publication number Publication date
US20150168809A1 (en) 2015-06-18
US9787891B2 (en) 2017-10-10
JP2015115851A (ja) 2015-06-22

Similar Documents

Publication Publication Date Title
JP6587113B2 (ja) 画像処理装置及び画像処理方法
EP2426637B1 (en) Method for generating panoramic image
US8854359B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
KR20190000591A (ko) 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
JP2018107583A (ja) 情報処理装置、情報処理方法及びプログラム
KR102225617B1 (ko) 영상 정합 알고리즘을 설정하는 방법
JP2008011497A (ja) カメラ装置
JP2013236215A (ja) 表示映像形成装置及び表示映像形成方法
JP6269014B2 (ja) フォーカス制御装置およびフォーカス制御方法
JP7204346B2 (ja) 情報処理装置、システム、情報処理方法及びプログラム
KR20140090775A (ko) 어안 렌즈를 사용하여 얻은 왜곡영상에 대한 보정방법 및 이를 구현하기 위한 영상 디스플레이 시스템
US10432843B2 (en) Imaging apparatus, control method of imaging apparatus, and non-transitory recording medium for judging an interval between judgement targets
JP5183152B2 (ja) 画像処理装置
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
JP2020088708A (ja) 制御装置、撮像装置およびプログラム
JP6231757B2 (ja) 撮像装置、情報処理装置及びそれらの制御方法、プログラム
JP6700706B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6980450B2 (ja) 制御装置、制御方法、及びプログラム
KR101670247B1 (ko) Cctv 실시간 영상의 원클릭 선택을 이용한 객체 확대 이동 시스템 및 그 방법
JP6364782B2 (ja) フォーカス制御装置、フォーカス制御方法、カメラ装置およびカメラ装置におけるフォーカス制御方法
KR20170055455A (ko) 초광각 카메라를 이용한 렌즈 왜곡 영상 보정 카메라 시스템 및 그가 적용된 tvi 장치
JP7237520B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2021040249A (ja) クライアント装置、撮像装置およびそれらの制御方法
JP2005333628A (ja) カメラ制御装置およびこれを用いた監視カメラシステム
JP6335668B2 (ja) 撮影装置、その制御方法、撮影システム、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R151 Written notification of patent or utility model registration

Ref document number: 6269014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151