JP2011234281A - 雲台システム、及び撮影システム - Google Patents

雲台システム、及び撮影システム Download PDF

Info

Publication number
JP2011234281A
JP2011234281A JP2010105133A JP2010105133A JP2011234281A JP 2011234281 A JP2011234281 A JP 2011234281A JP 2010105133 A JP2010105133 A JP 2010105133A JP 2010105133 A JP2010105133 A JP 2010105133A JP 2011234281 A JP2011234281 A JP 2011234281A
Authority
JP
Japan
Prior art keywords
pan
motion
position information
video
predicted position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010105133A
Other languages
English (en)
Other versions
JP5566176B2 (ja
JP2011234281A5 (ja
Inventor
Kenji Kagei
健司 影井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010105133A priority Critical patent/JP5566176B2/ja
Priority to US13/094,412 priority patent/US8558924B2/en
Priority to EP11164041.3A priority patent/EP2383979B1/en
Publication of JP2011234281A publication Critical patent/JP2011234281A/ja
Publication of JP2011234281A5 publication Critical patent/JP2011234281A5/ja
Application granted granted Critical
Publication of JP5566176B2 publication Critical patent/JP5566176B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • G03B3/12Power-operated focusing adapted for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

【課題】高価な位置検出機構を別途必要としない簡素な構成で、しかも操作器とリモコン雲台との間の伝送路による信号遅延の影響を受け難くし得て、より精度の高い位置情報を出力することができる雲台システムを提供する。
【解決手段】操作器10から出力された操作命令をズーム・フォーカス・チルト・パン・アイリスの動作に応じた駆動制御信号に変換するとともに、変換した駆動制御信号に基づいてズーム・フォーカス・チルト・パン・アイリスの動作予測位置を算出するCPU211と、算出した動作予測位置を動作予測位置情報として出力する位置情報通信部217と、を備えている。
【選択図】図1

Description

本発明は、撮影システムに関し、特に、ズーム・フォーカス・チルト・パン等を遠隔駆動可能な雲台システムに関するものである。
従来、実写映像にコンピュータグラフィック(以下、「CG」と称する。)映像を合成した合成映像を取得するための撮影システム(バーチャルスタジオシステム)が周知である。このバーチャルスタジオシステムでは、実写映像の動きに合わせて、その背景(又は前景)とするCG映像を変化させる必要がある。また、実写映像を撮像する撮像装置としてのカメラは、カメラの向きを左右に振るパンニングや上下に振るチルティング(パン・チルト)、レンズのズーム・フォーカスを遠隔制御するリモコン雲台に搭載されている。さらに、カメラ、レンズ、リモコン雲台から構成された雲台システムは、これらをリモートコントロールする操作器と、実写映像にCG映像を合成するための映像合成システムと、でバーチャルスタジオシステムを構成している。また、カメラによって撮像された実写映像は、カメラのパン・チルト位置情報及びレンズのズーム・フォーカス位置情報とは別に、雲台システムから映像合成システムに伝送される。映像合成システムは、雲台システムから伝送された実写映像(信号)と、カメラ・レンズの各位置情報をもとに、伝送された実写映像(信号)にタイミングを合わせてCG映像(信号)を変化させた合成映像を作成する。
この際、実写映像(信号)とCG映像(信号)とのタイミング合わせとしては、例えば、エンコーダを使用した位置情報を出力する機能を持つレンズ装置を備えた撮影システムが知られている(例えば、特許文献1参照)。また、リモコン雲台の駆動部の遅れ要素を考慮して、指令する位置信号から現在位置を示す操作器を備えた撮影装置の操作ユニットが知られている(例えば、特許文献2参照)。
特許3478740号公報 特開平11−112856号公報
しかしながら、エンコーダを用いた撮影システムでは、レンズ装置側にエンコーダを配置したことにより、映像構成システム側にエンコーダ用のカウンタなどの位置検出機構を別途構成する必要があるため、装置の大型化並びに製品コストが高騰する要因となる。また、雲台システムとして適用する場合には、搭載するレンズが位置検出機構付きである必要性が生じ、リモコン雲台に搭載できるレンズの機種が限定されてしまう。
一方、リモコン雲台の駆動部の遅れ要素を考慮した装置では、例えば、ゴルフ中継等のように操作器とリモコン雲台との間が長距離の場合や、その他の機器を介して接続するシステムに採用した場合には、伝送遅延の影響を大きく受けてしまう。特に、公衆回線を使用して接続する場合のように、遅延時間が一定でないような場合には、遅延時間の変化が位置信号の精度に大きく影響を及ぼすことになってしまう。さらに、ゴルフ・野球といったスポーツ中継などのように、操作器と複数台のリモコン雲台を切り替えて接続するようなシステムにおいては、操作器が全てのリモコン雲台の遅延量などの情報を認識しておく必要があるため、より複雑な構成ものとなってしまう。
このように、従来のリモコン雲台を用いた撮影システムでは、実写映像とCG映像とを同期させるために、高価な機械や複雑な伝送路を構築する必要が生じ、利用目的に応じた撮影システムの構築を余儀なくされてしまい、汎用性に劣るという問題があった。
そこで、本発明は、高価な位置検出機構を別途必要としない簡素な構成で、しかも操作器とリモコン雲台との間の伝送路による信号遅延の影響を受け難くし得て、より精度の高い位置情報を出力することができるリモコン雲台を提供することを目的とする。
上記目的を達成するために、本発明は、操作器から出力された操作命令に応じて搭載したカメラ又はレンズのズーム・フォーカス・チルト・パン・アイリスの少なくとも何れか一つを動作させる雲台システムにおいて、前記操作器から出力された操作命令を前記ズーム・フォーカス・チルト・パン・アイリスの動作に応じた駆動制御信号に変換する駆動制御手段と、前記駆動制御手段で変換した駆動制御信号に基づいて前記ズーム・フォーカス・チルト・パン・アイリスの動作予測位置を算出する動作予測位置算出手段と、前記動作予測位置算出手段で算出した前記動作予測位置を動作予測位置情報として出力する動作予測位置出力手段と、備えていることを特徴とする。
本発明によれば、高価な位置検出機構を別途必要としない簡素な構成で、しかも操作器とリモコン雲台との間の伝送路による信号遅延の影響を受け難くし得て、より精度の高い位置情報を出力することができるリモコン雲台を提供することができる。
本発明の第1実施形態に係る撮影システムの構成を示すブロック図である。 本発明の撮影システムによる映像の一例を示し、(A)は実写映像の例の説明図、(B)はCG映像の例の説明図、(C)は合成映像の例の説明図である。 本発明の撮影システムによる位置情報の更新方法を表す説明図である。 本発明の撮影システムによる位置情報の更新方法を表し、(A)は同一方向へ動作させた際のパンモータの制御に対する位置情報の更新方法を表した説明図、(B)は反転方向へ動作させた際のパンモータの制御に対するバックラッシュ補正を加えた位置情報の更新方法を表した説明図である。 第2実施形態に係る撮影システムの構成を示すブロック図である。 第2実施形態に係るCPUの処理の流れを示すフローチャートである。 本発明の第3実施形態に係る撮影システムの構成を示すブロック図である。 本発明の第4実施形態に係る撮影システムの構成を示すブロック図である。 パラメータ設定コンピュータの処理の流れを示すフローチャートである。 パラメータ設定コンピュータの処理の流れを示すフローチャートである。 第5実施形態に係る撮影システムの構成を示すブロック図である。 第5実施形態に係るパン原点検出機構の構成を示す概略図である。 第5実施形態に係るフォトインタラプタの出力波形の説明図である。 第5実施形態に係るCPUの処理の流れを示すフローチャートである。
次に、本発明の一実施形態に係る撮影システムについて、図面を参照して説明する。尚、以下に示す実施形態は本発明の撮影システムにおける好適な具体例であり、技術的に好ましい種々の限定を付している場合もあるが、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。また、以下に示す実施形態における構成要素は適宜、既存の構成要素等との置き換えが可能であり、かつ、他の既存の構成要素との組合せを含む様々なバリエーションが可能である。したがって、以下に示す実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
(第1実施形態)
以下、図1を参照して、本発明の第1実施形態による構成について説明する。図1は本発明の第1実施形態に係る撮影システムの構成を示すブロック図である。図1において、本実施形態の撮影システムは、操作器10、雲台システム20、及び映像合成システム30とから構成される。操作者は操作器10を操作し、雲台システム20を遠隔操作しズーム・フォーカス・チルト・パン及びカメラの各種機能を調整することで、所望の映像を取得することができる。雲台システム20で取得された実写映像は、映像合成システム30によってCG映像と合成される。
雲台システム20は、雲台21、レンズ22、カメラ23から構成される。雲台21はCPU211、操作命令通信部212、パン駆動制御部213a、チルト駆動制御部213b、パンモータ214a、チルトモータ214b、レンズ駆動制御部215、カメラ駆動制御部216、位置情報通信部217から構成されている。CPU211は、操作命令通信部212を介して操作器10からの操作命令を受信する。受信した操作命令がパン・チルト操作命令であった場合には、その操作命令を駆動制御信号に変換して、パン駆動制御部213aとチルト駆動制御部213bに出力し、パンモータ214aとチルトモータ214bとを動作させる。受信した操作命令がズーム・フォーカス操作命令であった場合には、その操作命令を駆動制御信号に変換して、レンズ22のズーム・フォーカスの制御を行う。カメラ23の操作命令であった場合には、その操作命令を駆動制御信号に変換して、カメラ23の制御を行う。また、CPU211は、一定時間おきに、ズーム・フォーカス・チルト・パン・アイリス(等の被駆動物体)の現在位置である動作予測位置に関する動作予測位置情報を、位置情報通信部217に出力する。したがって、CPU211は、操作器10から出力された操作命令をズーム・フォーカス・チルト・パン・アイリスの動作に応じた駆動制御信号に変換して各駆動制御部213a、213b、215、216に出力する動作予測位置算出手段として機能する。また、CPU211は、変換した駆動制御信号に基づいてズーム・フォーカス・チルト・パン・アイリスの動作予測位置を出力する動作予測位置出力手段として機能する。さらに、位置情報通信部217は、その動作予測位置情報を映像合成システム30に送信する動作予測位置出力手段として機能する。尚、雲台システム20の全体を制御するプログラムが、図示しないハードディスク等の記憶部に記憶されている。また、この記憶部には、上述した駆動制御信号を変換してから動作予測位置算出までの遅延時間を補正するためのパラメータを記憶する記憶手段としても用いる。さらに、この記憶手段は、ズーム・フォーカス・チルト・パンを動作させる際のバックラッシュ(による時間遅れや位置ずれ)を補正するためのパラメータを記憶する記憶手段としても用いる。尚、ここではCPU211が一定時間おきに、現在位置としての動作予測位置(指令値の積算値)を算出していたが、操作器10から位置指令(目標位置を指定する指令信号)が来た場合には、現在を含めて未来の一定時間ごとの動作予測位置を算出しても良い。
映像合成システム30は、映像合成用コンピュータ31とモニタ32とから構成されている。映像合成用コンピュータ30には、汎用のパーソナルコンピュータ(PC)等が用いられている。また、映像合成用コンピュータ30は、図示を略するハードディスク等に記憶されて、本発明に係る撮影システムのうち、少なくとも画像合成に関する制御を行うためのプログラムに基づいて動作する。また、図示を省略するが、公知のキーボード・マウス等の操作手段を用いて映像合成用コンピュータ31で作成、又は、他のPCで作成されたCG映像は、ハードディスクやメモリ等の記憶領域311に記憶されている。さらに、この記憶領域311に記憶されたCG映像は、操作器10から出力された操作命令によってミキシング回路312に出力される。尚、操作器10及び雲台システム20を含めた撮影システム全体を制御するプログラムを映像合成システム30に格納してもよい。
これにより、映像合成用コンピュータ31は、雲台21から受信した位置情報をもとに、カメラ23で撮像した実写映像と、メモリ311に記憶したCG映像とをミキシング回路312で合成することによって合成映像を作り出す。例えば、映像合成システム30がカメラ23から図2(A)のような映像を取得したとする。映像合成用コンピュータ31は、雲台システム20から取得した位置情報をもとに、記憶領域311に記憶したCG映像の中から、図2(B)のような必要な領域を切り出す。さらに、図2(A)の実写映像の背景色を透過させる処理を行うなどの処理をしたうえで、図2(C)のような合成映像を作成する。作成された合成映像はモニタ32に表示することによって、実写映像の中の被写体があたかもCG映像の中に存在するような映像を見ることができる。
次に、パンの動作予測位置情報の算出方法について説明する。パンの駆動方法は、パンモータ214aにステッピングモータを使用し、CPU211でパン駆動制御部213aをドライバ制御することでパンモータ214aを駆動させるような、オープンループ制御をしているものとする。パンの駆動を行う際には、CPU211から、CW方向またはCCW方向の動作方向にあわせた動作方向指令と、駆動速度に応じた周期の制御パルスを発生させ、パンモータドライバを制御することで、任意の速度と方向に動作させる。尚、CW方向とは、本実施例においては、パンモータ214aの動作方向(正転・逆転)のうち、前回動作方向と同一方向に駆動することを意味する。また、CCW方向とは、パンモータ214aの動作方向(正転・逆転)のうち、前回動作方向と反転方向に駆動することを意味する。CPU211は発生させたパルス数によって、現在のパン位置を管理し、このパン位置に以下に記述の遅延時間補正とバックラッシュ補正を行った値(パラメータ)を、動作予測位置情報として映像合成システム30に送信する。ここでのバックラッシュ補正とは、バックラッシュの影響による被駆動物体の位置誤差(位置ずれ)の補正を意味する。
まず、遅延時間補正について説明する。図3に示すように、CPU211から制御パルスを発生してから、実際に取得映像が動くまでには、パンモータ214aまでの信号遅延の他に、各駆動系のしなりなどのメカ要素に起因する遅延時間が発生する。このため、遅延時間補正値としての補正時間tが「0」の場合のように、CPU211からパルスを発生させたタイミングで位置情報を更新してしまうと、合成映像の中で、CG映像に対して実際の実写映像が遅れて動くような遅延合成映像となってしまう。そこで、CPU211は、遅延時間補正値としての補正時間tに対して、ある一定時間前の制御位置情報を動作予測位置情報として加減する。こうすることで、取得映像とのずれの少ない位置情報を映像合成システム30に送信することが可能となる。
次に、バックラッシュ補正について説明する。各駆動系には、ギアの噛み合わせなどに起因するメカ要素のバックラッシュ成分がある。このため、前回駆動方向と同一方向にモータを駆動させる際には問題とはならないが、前回駆動方向とは反転方向にモータを駆動させようとした場合には、CPU211の制御位置は更新されていても、実際に取得される映像は動いていない領域が発生してしまう。このため、反転動作させた際の合成映像は、ある一定領域の間は、CG映像が動いているのにもかかわらず、実写映像の部分が動いていないような映像となってしまう。そこで、停止後に再度動作させる際に、同一方向(CW方向からCW方向)への動作の場合には、図4(A)に示すように、1パルス目から位置情報を更新する。一方、停止後に再度動作させる際に、反転方向(CW方向からCCW方向)へ動作させる際には、図4(B)に示すように、バックラッシュ補正領域として、ある一定パルス数動作させた後に、位置情報を更新するようにする。こうすることで、取得映像とのずれの少ない位置情報をバーチャルシステムに送信することが可能となる。
上記実施形態では、パンの遅延時間補正とバックラッシュ補正について説明したが、ズーム・フォーカス・チルトに関しても同様の方法で、補正することができる。また、本実施形態の派生するシステムとして、操作命令通信部212、パン駆動制御部213a、チルト駆動制御部213b、レンズ駆動制御部215、カメラ駆動制御部216、位置情報通信部217は、その全て若しくは一部をCPU211で制御しても良い。さらに、レンズ22とカメラ23とは別系統で制御する例としたが、カメラ23とレンズ22とが一体となった機種を搭載し、カメラ駆動制御部216とレンズ駆動制御部215とを一つにしたカメラ・レンズ駆動制御部から両方を制御するような構成にしても良い。また、遅延時間補正値やバックラッシュ補正値は、あらかじめ設定されている値(パラメータ)を用いても良いし、外部から変更可能にしても良い。さらに、動作予測位置情報は、雲台システム20から一定時間おきに映像合成システム30に送信するとしたが、映像合成システム30から雲台システム20に位置情報要求を送信し、それに応答する形で動作予測位置情報を返信するようにしても良い。
(第2実施形態)
図5は、本発明の第2実施形態に係る撮影システムを示すブロック図である。第2実施形態(図5)は、第1実施形態(図1)と比較し、CPU211とレンズ駆動制御部215との間、及び、レンズ駆動制御部215とレンズ22との間において双方向の通信が可能となっている点で異なる。尚、上記第1実施形態と実質的に同一な構成には同一の符号を付してその詳細な説明は省略する。以下、レンズ22の位置情報を映像合成システム30に送信するまでのCPU211の処理の流れについて、図6のフローチャートに基づいて説明する。
CPU211は、レンズ駆動制御部215でレンズ22の機種を認識するレンズ機種認識を行い、その機種に関する情報を記憶しておく(ステップS11)。この機種に関する情報には、レンズの精度や位置検出機構の有無に関する情報が含まれる。次に、CPU211は、一定時間おきに位置情報を映像合成システム30に送信するために、位置情報を送信するタイミングであるかを判断する(ステップS12)。ここで、CPU211は、送信するタイミングでないと判断した場合には(N)、一定時間が経過するまでこのルーチンを待機する。また、CPU211は、送信するタイミングであると判断した場合には(Y)、レンズ22が位置情報を取得可能な位置検出機構付の機種であるかを判断する(ステップS13)。レンズ22が位置情報を取得可能な機種である場合には(Y)、CPU211は、レンズ22からの実位置情報の取得可能な間隔が、映像合成システム30への位置情報送信する間隔よりも短いかを判断する(ステップS14)。さらに、実位置情報の取得可能な間隔が送信間隔よりも短い場合には(Y)、CPU211は、レンズ22から位置情報を取得しながら、その位置情報を映像合成システム30に送信する(ステップS15)。これにより、精度の高い実位置情報を取得することができる。
一方、実位置情報の取得可能な間隔が送信間隔よりも長い場合には(ステップS14におけるN)、CPU211は、実位置情報をもとに動作予測位置算出を行う(ステップS16)。この際、CPU211は、例えば、レンズ22から位置情報を取得する際に、取得した時間と、前回取得した位置との差分から算出される移動速度を記憶しておく。また、CPU211は、映像合成システム30に動作予測位置情報を送信する際には、記憶した速度と前回のレンズ位置情報とを取得してからの経過時間から計算される予測移動距離を、前回の位置情報に加えた値を動作予測位置情報とすることで補完する。さらに、CPU211は、補完した動作予測位置情報を映像合成システム30に送信する(ステップS17)。
他方、位置情報が取得可能でないレンズ22の場合には(ステップS13におけるN)、CPU211は、第1実施形態と同様の方法で、動作予測位置を算出する(ステップS18)。この際、レンズ22の機種によってバックラッシュ補正の大きさや各駆動系のしなりなどの大きさは異なる。このため、CPU211は、第1実施形態に記述のバックラッシュ補正値を、取得したレンズ22の機種に関する情報に応じて変更し、動作予測位置の算出方法を変更するとともに、算出した動作予測位置情報を映像合成システム30に送信する(ステップS19)。
最後に、CPU211は、映像合成システム30が未接続になったことを認識した場合など、位置情報出力を終了するかを判定し(ステップS20)、継続する場合にはステップS12の位置情報送信判断ステップにループする。
ところで、第2実施形態の派生する撮影システムとしては、レンズ22だけでなく、パン・チルトに関しても位置情報が取得可能かの情報を取得するようにして、レンズ22の場合と同様に位置情報の算出方法を変更しても良い。また、カメラ23が撮像した映像を補正するような機能を持ち、ズーム・フォーカスの変化に影響を及ぼすような場合には、カメラ駆動制御部216でカメラ23の機種を認識するカメラ機種認識を行う。そして、認識したカメラ23の機種によって位置情報の算出方法を変更可能としても良い。
以上の方法によって、雲台システム20は、搭載しているレンズ22とカメラ23、及びパン駆動制御部213aとチルト駆動制御部213bとに適した方法で算出した位置情報を映像合成システム30に送信することができる。これにより、より一層精度の高い合成映像を得ることが可能となる。また、雲台システム20に搭載されるレンズ22やカメラ23には、例えば、位置検出機能付であるか無いかといったレンズ22やカメラ23の機種に依存することなく、動作予測位置情報を算出することができるので、汎用性を向上することができる。
(第3実施形態)
図7は、本発明の第3実施形態に係る撮影システムを示すブロック図である。第3実施形態(図7)は、第1実施形態(図1)と比較し、位置情報通信部217が削除された変わりに、位置信号重畳部218が追加されている点で異なる。尚、上記第1実施形態と実質的に同一な構成には同一の符号を付してその詳細な説明は省略する。
位置信号重畳部218は、第1実施形態と同様に取得された動作予測位置情報をカメラ23からの映像信号に重畳する。例えば、HD−SDI(High Definition television-Serial Digital Interface)信号のブランキング領域を使用することができる。すなわち、HD−SDI信号のブランキング領域に、動作予測位置情報を埋め込むことで、ある時点での取得された実写映像に対する動作予測位置情報を、1フレームごとに映像信号に重畳することができる。動作予測位置情報が重畳された映像信号は映像合成用コンピュータ31に送信され、映像合成コンピュータ31が映像信号に埋め込まれた動作予測位置情報をもとに、実写映像とCG映像の合成映像とを作成する。
このように、実写映像に動作予測位置情報を重畳することにより、実質的な信号送信ラインを簡素化することができ、特に、長距離間での信号送信が必要な場合等、汎用性を向上することができる。尚、本実施例の派生するシステムとして、実写映像と動作予測位置情報とを重畳させる機能を雲台システム20内に持たせるのではなく、別の専用機器で行っても良い。これにより、複数代の雲台システム20を用いた場合など、集中的な管理を容易に行うことができる。
以上の方法によって、操作器10と雲台システム20との間における制御信号が遅延しても、実写映像とCG映像の動きがずれることの無い合成映像作成することが可能となる。また、雲台システム20と映像合成システム30との間における動作予測位置情報と映像信号の遅延の差が一定ではなくとも、実写映像とCG映像の動きがずれることの無い合成映像作成することが可能となる。
(第4実施形態)
図8は、本発明の第4実施形態に係る撮影システムを示すブロック図である。第4実施形態(図8)は、第1実施形態(図1)と比較し、操作器10と映像合成システム30とが削除され、第1実施形態に記載の遅延時間補正値とバックラッシュ補正値とを自動で補正・設定するためのパラメータ設定用コンピュータ41が追加されている。パラメータ設定用コンピュータ41は、雲台システム20に操作命令を送信し、ズーム・フォーカス・チルト・パンを操作することが可能であることに加え、実写映像と動作予測位置情報とを雲台システム20から取得し、それぞれに変化があったかどうかを認識する。
まず、第1実施形態に記載の遅延時間補正値を自動で設定する際の、パラメータ設定用コンピュータ41の処理の流れについて図9のフローチャートをもとに説明する。パラメータ設定用コンピュータ41は、まず、雲台21から取得される動作予測位置情報がCPU211の制御位置と等しくなるよう、雲台21の遅延時間補正値を「0」に設定しておく(ステップS31)。次に、パラメータ設定用コンピュータ41は、パンのバックラッシュの影響を受けないようにするため、雲台システム20に右方向へ動作するように操作命令を送信する(ステップS32)。また、パラメータ設定用コンピュータ41は、取得した実写映像を1フレームごとに比較することで、実際に映像が変化したかを確認する(ステップS33)。映像に変化があった場合には(Y)、パラメータ設定用コンピュータ41は、システム雲台20を一度停止させる(ステップS34)。さらに、パラメータ設定用コンピュータ41は、タイマをスタートさせた後に(ステップS35)、再度同一方向である右方向へシステム雲台20を動作させる(ステップS36)。この際、パラメータ設定用コンピュータ41は、CPU211の制御位置情報である動作予測位置情報が変化するかを確認する(ステップS37)。そして、動作予測位置情報に変化があった場合には(Y)、パラメータ設定用コンピュータ41は、その時間を動作予測位置情報が変化するまでの時間t1として記憶しておく(ステップS38)。さらに、パラメータ設定用コンピュータ41は、実際の映像が変化したかを確認し(ステップS39)、映像が変化した場合には(Y)、その時間を映像が変化するまでの時間t2として記憶し(ステップS40)、時間差t2−t1を算出する(ステップS41)。この時間差は、CPU211からパン駆動制御部213aへの制御を開始してから実際に実写映像が変化するまでの遅延時間を表す。このため、パラメータ設定用コンピュータ41は、算出した時間を第1実施形態に記述の遅延時間補正値として雲台21に設定する(ステップS42)。
次に、第1実施形態に記載のバックラッシュ補正値を自動で設定する際の、パラメータ設定用コンピュータ41の処理の流れについて図10のフローチャートをもとに説明する。パラメータ設定用コンピュータ41は、まず、雲台21のバックラッシュ補正値を「0」に設定しておく(ステップS51)。次に、パラメータ設定用コンピュータ41は、雲台21が右方向に動作するように操作命令を送信する(ステップS52)。また、パラメータ設定用コンピュータ41は、実際に映像が変化したことを確認することで雲台21が右方向に動作したかを確認する(ステップS53)。変化があった場合には(Y)、パラメータ設定用コンピュータ41は、雲台21を一度停止させ(ステップS54)、現在の動作予測位置情報p1を記憶しておく(ステップS55)。その後、パラメータ設定用コンピュータ41は、雲台21を反転方向である左方向へ動作させ(ステップS56)、動作予測位置情報を取得しながら映像の変化を確認し、映像が変化するまで動作させる(ステップS57)。映像が変化した場合には(Y)、パラメータ設定用コンピュータ41は、その際の動作予測位置情報p2を記憶し(ステップS58)、動作前の動作予測位置情報p1とで比較し、その差分を算出する(ステップS59)。この差分は、パンのバックラッシュ量を表すため、算出した差分値(パラメータ)を実施例1に記述のバックラッシュ補正値として雲台21に設定する(ステップS60)。
以上、パンの遅延時間補正値とバックラッシュ補正値の自動設定方法について記述したが、ズーム・フォーカス・チルトに関しても同様の方法を行うことで、自動設定が可能である。本実施例の派生するシステムとして、パラメータ設定用コンピュータ41の機能を、第1〜3実施形態で使用した映像合成用コンピュータ31に持たせ、設置時もしくは電源投入時など定期的に行うようにしても良い。また、パラメータ設定用コンピュータ41の処理もCPU211で行うことで、パラメータ設定用コンピュータ41の機能を雲台システム20内に持たせても良い。以上のような方法によって、遅延時間補正値やバックラッシュ補正値を自動で設定することが可能となる。
(第5実施形態)
図11は、本発明の第5実施形態に係る撮影システムを示すブロック図である。第5実施形態(図11)は、第1実施形態(図1)と比較し、原点検出手段としてパン原点検出機構219aとチルト原点検出機構219bとが追加されている。
パン原点検出機構219aは、図12に示すように、パンフォトインタラプタ219a1と半円状のパン遮蔽板219a2とから構成されている。パンが回転した際に、パンフォトインタラプタ219a1は回転しないよう固定軸(図示せず)に取り付けられているのに対し、パン遮蔽板219a2は回転するよう回転軸に取り付けられている。第5実施形態では、パン遮蔽板219a2の切れ目を原点とし、パンフォトインタラプタ219a1のフォトカプラ(図示せず)が遮られている状態の場合は原点よりも左方向、フォトカプラが遮られていない状態の場合には原点よりも右方向を雲台21が向いている。したがって、パンフォトインタラプタ219a1の出力は、図13に示すように、原点を基準として、左方向でHighレベル(以下、「Hレベル」と称する。)、右方向でLowレベル(以下、「Lレベル」と称する。)を出力する。このため、CPU211がパンフォトインタラプタ219a1の出力を取り込むことで、出力がHレベルであった場合には原点より左方向を向いていると認識することができる。また、出力がLレベルであった場合には原点よりも右方向を向いていると認識することができる。CPU211は、原点を検出する際には、まず、フォトインタラプタ219a1の出力から現在の方向を検知し、原点方向へ動作させ、フォトインタラプタ219a1の出力が切り替わった場所を原点と認識する。
以下、雲台システム20の単体で第1実施形態に記載のパンのバックラッシュ補正値を設定する際の、CPU211の処理の流れを図14のフローチャートをもとに説明する。CPU211は、パン原点検出機構のフォトインタラプタ219a1の出力をもとに、原点方向へ動作させる(ステップS71)。また、CPU211は、フォトインタラプタ219a1の出力がHレベル・Lレベルで切り替わった際には、原点を通過したと判断し(ステップS72におけるY)、雲台21の動作を停止させる(ステップS73)。また、雲台2の動作が停止すると、CPU211は、バックラッシュ測定用カウンタ値Pcntをクリアする(ステップS74)。次に、CPU211は、雲台21を反転方向へ動作させる(ステップS75)。さらに、出力するパルス数分だけバックラッシュ測定用カウンタ値Pcntをインクリメントしながら、再度Hレベル・Lレベルが切り替わる、即ち、再度原点を通過するまで動作させる(ステップS76)。ここで、再度Hレベル・Lレベルが切り替わった際(ステップS76におけるY)のバックラッシュ測定用カウンタ値Pcntがバックラッシュ量を表す。このため、CPU211は、この値若しくはフォトインタラプタ219a1のレベルがHレベル・Lレベルで切り替わる際の誤差分を加味した値をバックラッシュ補正値として算出する(ステップS77)。また、算出したバックラッシュ補正値は、実施例1に記述のバックラッシュ補正値として保持し、動作予測位置情報を算出する際に使用する。
以上、パンのバックラッシュ補正値の自動設定方法について記述したが、チルトに関しても同様の方法で設定が可能である。また、ズーム・フォーカスについても同様の原点検出機構を持つ場合には、自動での設定が可能である。本実施例の派生するシステムとして、原点検出機構を使用する変わりに、実際に動作したかどうかを加速度センサにて認識するようにしても良い。また、従来技術で説明した位置検出機構付のレンズ22が搭載されていた場合には、その位置検出機構をそのまま優先して利用してもよいし、その位置検出機構は無効としても良い。以上のような方法によって、他の機器を接続することなく、雲台システム20単体でバックラッシュ補正値を自動で設定することが可能となる。
10 操作器
20 雲台システム
21 雲台
211 CPU
212 操作命令通信部
213a パン駆動制御部
213b チルト駆動制御部
214a パンモータ
214b チルトモータ
215 レンズ駆動制御部
216 カメラ駆動制御部
217 位置情報通信部
22 レンズ
23 カメラ
30 映像合成システム
31 映像合成用コンピュータ
32 モニタ

Claims (10)

  1. 操作器から出力された操作命令に応じて搭載したカメラ又はレンズのズーム・フォーカス・チルト・パン・アイリスの少なくとも何れか一つを動作させる雲台システムにおいて、
    前記操作器から出力された操作命令を前記ズーム・フォーカス・チルト・パン・アイリスの何れかの動作に応じた駆動制御信号に変換する駆動制御手段と、
    前記駆動制御手段で変換した駆動制御信号に基づいて前記ズーム・フォーカス・チルト・パン・アイリスの何れかの動作予測位置を算出する動作予測位置算出手段と、
    前記動作予測位置算出手段で算出した前記動作予測位置を動作予測位置情報として出力する動作予測位置出力手段と、
    を備えていることを特徴とする雲台システム。
  2. 前記駆動制御信号を変換してから前記動作予測位置を算出するまでの遅延時間を補正するための遅延時間補正値を記憶する記憶手段を有し、
    前記動作予測位置算出手段は、前記遅延時間補正値をもとに動作予測位置を算出することを特徴とする請求項1記載の雲台システム。
  3. ズーム・フォーカス・チルト・パンの何れかを動作させる際のバックラッシュを補正するためのバックラッシュ補正値を記憶する記憶手段を有し、
    前記動作予測位置算出手段は、前記バックラッシュ補正値をもとに動作予測位置を算出することを特徴とする請求項1又は請求項2に記載の雲台システム。
  4. 搭載されているレンズの機種を認識するレンズ機種認識手段を有し、
    前記動作予測位置算出手段は、前記搭載されている前記レンズの機種によって動作予測位置の算出方法を変化させることを特徴とする請求項1〜請求項3の何れか1項に記載の雲台システム。
  5. 前記レンズ機種認識手段は、搭載されているレンズの機種が位置検出機構付であるか否かを認識し、
    前記動作予測位置算出手段は、位置検出機構付である場合には前記位置検出機構からの動作予測位置情報をもとに動作予測位置を算出することを特徴とする請求項4に記載の雲台システム。
  6. 搭載されているカメラの機種を認識するカメラ機種認識手段を有し、
    前記動作予測位置算出手段は、前記搭載されている前記カメラの機種によって動作予測位置の算出方法を変化させることを特徴とする請求項1〜請求項5の何れか1項に記載の雲台システム。
  7. 前記動作予測位置情報を撮像した実写映像に重畳することを特徴とする請求項1〜請求項6の何れか1項に記載の雲台システム。
  8. ズーム・フォーカス・チルト・パンの何れかの動作の際の原点を検出する原点検出手段を有し、
    前記原点検出手段を用いて、バックラッシュ補正値の補正を行うことを特徴とする請求項1〜請求項7の何れか1項に記載の雲台システム。
  9. 請求項1乃至請求項8の何れか1項に記載の雲台システムを備えた撮影システムであって、
    前記雲台システムから前記動作予測位置情報と実写映像とを取得する映像合成システムを備え、
    前記映像合成システムは、前記動作予測位置情報が変化するまでの時間と前記実写映像が変化するまでの時間差から、前記遅延時間補正値を算出することを特徴とする撮影システム。
  10. 前記映像合成システムは、前記実写映像が変化するまでの前記動作予測位置情報の変化の量から、前記バックラッシュ補正値を自動で補正することを特徴とする請求項9に記載の撮影システム。
JP2010105133A 2010-04-30 2010-04-30 雲台システム、及び撮影システム Active JP5566176B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010105133A JP5566176B2 (ja) 2010-04-30 2010-04-30 雲台システム、及び撮影システム
US13/094,412 US8558924B2 (en) 2010-04-30 2011-04-26 Camera platform system and imaging system
EP11164041.3A EP2383979B1 (en) 2010-04-30 2011-04-28 Camera platform system and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010105133A JP5566176B2 (ja) 2010-04-30 2010-04-30 雲台システム、及び撮影システム

Publications (3)

Publication Number Publication Date
JP2011234281A true JP2011234281A (ja) 2011-11-17
JP2011234281A5 JP2011234281A5 (ja) 2013-06-20
JP5566176B2 JP5566176B2 (ja) 2014-08-06

Family

ID=44263071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010105133A Active JP5566176B2 (ja) 2010-04-30 2010-04-30 雲台システム、及び撮影システム

Country Status (3)

Country Link
US (1) US8558924B2 (ja)
EP (1) EP2383979B1 (ja)
JP (1) JP5566176B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5375744B2 (ja) * 2010-05-31 2013-12-25 カシオ計算機株式会社 動画再生装置、動画再生方法及びプログラム
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8982061B2 (en) 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
JP2013181837A (ja) * 2012-03-01 2013-09-12 Canon Inc 撮像装置
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
JP6444073B2 (ja) * 2014-06-25 2018-12-26 キヤノン株式会社 画像処理装置
CN107431749B (zh) * 2015-11-25 2021-07-30 深圳市大疆灵眸科技有限公司 一种跟焦器控制方法和装置及***
US10061984B2 (en) * 2016-10-24 2018-08-28 Accenture Global Solutions Limited Processing an image to identify a metric associated with the image and/or to determine a value for the metric
KR101919132B1 (ko) * 2017-05-15 2019-02-08 주식회사 뷰오 동영상 처리 장치, 방법 및 그 방법을 실행시키기 위한 컴퓨터 프로그램
US11765845B2 (en) * 2021-07-28 2023-09-19 Nanning Fulian Fugui Precision Industrial Co., Ltd. Electronic apparatus with mounting mechanism

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281380A (ja) * 1996-04-11 1997-10-31 Canon Inc 停止位置制御装置および光学機器
JPH11341335A (ja) * 1998-05-28 1999-12-10 Mitsubishi Electric Corp カメラシステム
JP2003283913A (ja) * 2002-03-22 2003-10-03 Mitsubishi Electric Corp 遠隔制御システム
JP2006065080A (ja) * 2004-08-27 2006-03-09 Canon Inc 撮像装置
JP2009017480A (ja) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> カメラキャリブレーション装置およびそのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313062A (ja) * 1992-05-07 1993-11-26 Canon Inc 制御装置
JP4402177B2 (ja) 1997-09-30 2010-01-20 フジノン株式会社 撮影装置の操作ユニット
JP3478740B2 (ja) 1998-09-28 2003-12-15 キヤノン株式会社 撮影システムおよびテレビレンズ装置
JP2000258682A (ja) 1999-03-08 2000-09-22 Olympus Optical Co Ltd 自動焦点調節装置
JP4989977B2 (ja) 2007-01-05 2012-08-01 株式会社エルモ社 焦点調整装置、撮影装置および焦点調整方法
JP4928275B2 (ja) * 2007-01-10 2012-05-09 キヤノン株式会社 カメラ制御装置及びその制御方法
JP5072764B2 (ja) * 2008-08-01 2012-11-14 キヤノン株式会社 光学機器及びカメラシステム
US8405720B2 (en) * 2008-08-08 2013-03-26 Objectvideo, Inc. Automatic calibration of PTZ camera system
JP4683242B2 (ja) 2008-10-31 2011-05-18 原田 哲男 集塵ブロアー装置とそのブロアー羽根補修方法
EP2499827A4 (en) * 2009-11-13 2018-01-03 Pixel Velocity, Inc. Method for tracking an object through an environment across multiple cameras

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281380A (ja) * 1996-04-11 1997-10-31 Canon Inc 停止位置制御装置および光学機器
JPH11341335A (ja) * 1998-05-28 1999-12-10 Mitsubishi Electric Corp カメラシステム
JP2003283913A (ja) * 2002-03-22 2003-10-03 Mitsubishi Electric Corp 遠隔制御システム
JP2006065080A (ja) * 2004-08-27 2006-03-09 Canon Inc 撮像装置
JP2009017480A (ja) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> カメラキャリブレーション装置およびそのプログラム

Also Published As

Publication number Publication date
JP5566176B2 (ja) 2014-08-06
US8558924B2 (en) 2013-10-15
EP2383979A1 (en) 2011-11-02
US20110267481A1 (en) 2011-11-03
EP2383979B1 (en) 2016-09-28

Similar Documents

Publication Publication Date Title
JP5566176B2 (ja) 雲台システム、及び撮影システム
JP4942185B2 (ja) 撮像装置及び雲台制御方法並びにプログラム及び記憶媒体
JP4589261B2 (ja) 監視カメラ装置
JP5809538B2 (ja) 自動追尾カメラシステム
WO2010098228A2 (ja) 撮像装置と撮像方法
US10447919B2 (en) Imaging device, external device, imaging system, imaging method, operating method, and computer-readable recording medium
JP2008311804A (ja) 撮像装置および撮像方法
US7502056B2 (en) Movement signal generation apparatus, optical device, optical device control apparatus, and video production system
US20130128094A1 (en) Imaging apparatus, imaging control method, and program
JP5317607B2 (ja) 自動追尾カメラの制御装置及び自動追尾カメラシステム及び自動追尾カメラの制御方法
EP0989747A2 (en) Television lens apparatus adapted for a virtual studio
US20230069440A1 (en) Information processing apparatus, information processing method, and storage medium
JP2014027587A (ja) 撮像装置、評価枠設定システムおよび撮像装置の制御方法
JP3549332B2 (ja) 自動撮影カメラシステム
JP5083293B2 (ja) 監視テレビカメラシステム及び監視テレビカメラの制御方法
KR20100081465A (ko) 카메라의 팬 틸트 방법 및 장치
JP2012212017A (ja) レンズ、ステレオ撮影システム、及び方法
US11388328B2 (en) Imaging apparatus, control device, and imaging system
US11653096B2 (en) Calculation device, interchangeable lens, camera body, and imaging device
JP6343190B2 (ja) レンズシステム及びそれを有する撮像システム
US20240236475A9 (en) Imaging apparatus
US20240137642A1 (en) Imaging apparatus
US20230185163A1 (en) Interchangeable lens device, imaging device, imaging system, method, and program
JP2024010640A (ja) 撮像システム及びそれを構成する制御装置、撮像装置、制御方法
JP2008294954A (ja) カメラシステム及び遠隔操作装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130430

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140617

R151 Written notification of patent or utility model registration

Ref document number: 5566176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151