JP2017535755A - 動画カメラフォーカス用途における距離測定デバイス - Google Patents

動画カメラフォーカス用途における距離測定デバイス Download PDF

Info

Publication number
JP2017535755A
JP2017535755A JP2017516929A JP2017516929A JP2017535755A JP 2017535755 A JP2017535755 A JP 2017535755A JP 2017516929 A JP2017516929 A JP 2017516929A JP 2017516929 A JP2017516929 A JP 2017516929A JP 2017535755 A JP2017535755 A JP 2017535755A
Authority
JP
Japan
Prior art keywords
interest
view
camera
field
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017516929A
Other languages
English (en)
Other versions
JP2017535755A5 (ja
Inventor
ナラング リテシュ
ナラング リテシュ
ベネット ホグエ ウイリアム
ベネット ホグエ ウイリアム
オウスチン タウンドロウ クリブ
オウスチン タウンドロウ クリブ
Original Assignee
パナビジョン インターナショナル,エル.ピー.
パナビジョン インターナショナル,エル.ピー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナビジョン インターナショナル,エル.ピー., パナビジョン インターナショナル,エル.ピー. filed Critical パナビジョン インターナショナル,エル.ピー.
Publication of JP2017535755A publication Critical patent/JP2017535755A/ja
Publication of JP2017535755A5 publication Critical patent/JP2017535755A5/ja
Priority to JP2020104960A priority Critical patent/JP7293169B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

関心領域までの距離を決定するためのシステム。システムを使用して、動画カメラの焦点を調節してもよい。システムは、第1視野を有するように構成された第1カメラと、第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラとを含んでもよい。システムは、第1視野の選択された関心領域の位置を第2視野の選択された関心領域の位置と比較することによって、あるロケーションに対する選択された関心領域の距離を算出するように構成されたプロセッサを含んでもよい。【選択図】図7

Description

(分野)
本開示は、関心領域までの距離を決定するためのシステム、装置、及び方法に関する。
(背景)
関心領域までの距離を決定することは、撮影カメラのフォーカスの適切な設定を含む、適切なカメラ動作と関連している。動画及びテレビジョンの撮影を含む、プロレベルの撮影では、関心領域までの距離を適切に決定することに特に関連している。カメラアシスタントが、関心領域までの距離を決定した後に、その距離に基づいて、撮影カメラのフォーカスを設定する任務を負ってもよい。
関心領域までの距離を決定するための従来のシステム、装置、及び方法は、一連の欠点がある。音響又は赤外測定デバイスなどのシステムは、所望の関心領域を適切に識別しない場合があり、関心領域の動きを適切に追跡しない場合がある。加えて、従来のシステムは、所望の関心領域を容易に視覚化できない場合がある。
(概要)
本明細書に開示されているシステム、装置、及び方法は、関心領域までの距離の改善された決定を提供することを目的とするものである。距離の決定を使用して、撮影カメラのフォーカスを適切に設定してもよい。
本開示の実施態様は、立体配向に位置したカメラの使用を介した関心領域までの距離の決定を含んでもよい。2台のカメラのビューを介した関心領域の視差は、カメラからの関心領域の距離に反比例する。関心領域までの距離は、この視差に基づいて決定してもよい。
本開示の実施態様は、関心領域の動きを追跡することができる。本開示の実施態様は、関心領域までの距離をリアルタイム算出することができる。本開示の実施態様は、複数の関心領域を同時に追跡することができ、いずれかのカメラの視野をディスプレイ上に生成することができる。
本明細書に開示されているシステム、装置、及び方法は、関心領域までの距離の決定しやすさを向上させ、関心領域までの距離に関する改善された情報を生成する。
(図面の簡単な説明)
本明細書に開示されているシステム、装置、及び方法の特徴及び利点は、明細書、特許請求の範囲、及び添付図面を参照することによってより良く理解するにつれて分かるであろう。
図1は、本開示の実施態様によるシステムの概略図を示す。
図2は、本開示の実施態様による装置の上面図を示す。
図3は、本開示の実施態様による図2に示す装置の側面図を示す。
図4は、本開示の実施態様による図2に示す装置の正面図を示す。
図5は、本開示の実施態様による、部品を別々にした図2に示す装置の上面斜視図を示す。
図6は、本開示の実施態様による、筺体の蓋を除去した図2に示す装置の上面斜視図を示す。
図7は、本開示の実施態様による視野の概略図を示す。
図8は、本開示の実施態様による視野の画像を示す。
図9は、本開示の実施態様によるアルゴリズムを示す。
図10は、本開示の実施態様による関心領域を示す。
図11は、本開示の実施態様による校正表を示す。
図12は、本開示の実施態様による解像度表を示す。
図13は、本開示の実施態様による解像度グラフを示す。
図14は、本開示の実施態様による装置の画像を示す。
図15は、本開示の実施態様による装置の画像を示す。
図16は、本開示の実施態様による装置の画像を示す。
図17は、本開示の実施態様による、部品を別々にした装置の上面斜視図を示す。
図18は、本開示の実施態様による図17に示す装置の上面図を示す。
図19は、本開示の実施態様による図18に示す装置の側面図を示す。
図20は、本開示の実施態様によるハードウェア構成の概略図を示す。
図21は、本開示の実施態様によるシステムの有線接続の概略図を示す。
図22は、本開示の実施態様によるプロセスマップを示す。
図23は、本開示の実施態様による、カメラ制御器にデータを送受信するプロセスを示す。
図24は、本開示の実施態様による、カメラ制御器に距離データを送信するプロセスを示す。
(詳細な説明)
図1は、関心領域までの距離を決定するためのシステム10の実施態様を示す。システム10は、撮影カメラが所望の関心領域上に焦点をより簡単に合わせられるように、動画カメラ用途に使用してもよい。
システム10は、カメラデバイス12を含んでもよい。カメラデバイス12は、各々がそれぞれの視野を有する2台のカメラ14、16を含んでもよい。システム10は、カメラ14、16の1つの視野の関心領域を選択するための制御デバイス18を含んでもよい。システム10は、システム10のプロセッサによって算出された関心領域までの距離を表示するように構成された表示デバイス20を含んでもよい。
システム10は、撮影カメラ22、表示デバイス24、カメラ制御器26、及び表示デバイス28を含んでもよい。撮影カメラ22は、カメラ14、16の視野と重なる視野における画像を生成するように構成されてもよい。表示デバイス24は、システム10のプロセッサによって算出された距離を撮影カメラ24からの画像上に重ねるためのオーバーレイデバイスの形態であってもよい。カメラ制御器26は、カメラ14、16の動作を制御するように構成されてもよい。表示デバイス28は、撮影デバイス22からの画像、例えば、オーバーレイデバイスからのオーバーレイを表示してもよい。所望の結果を生成するように、システム10の要素を除外してもよく、又は追加要素を含めてもよい。
カメラデバイス12は、2台のカメラ14、16を含んでもよい。2台のカメラ14、16は、立体配向で位置してもよい。1台のカメラ14の視野は、他のカメラ16の視野の全体に、又はそれぞれの視野の少なくとも一部が重なるように他のカメラ16の視野の一部のみに重なってもよい。
図2を参照すると、各カメラ14、16は、筺体30と連結してもよい。筺体30は、カメラ14、16を互いに距離32で保持してもよい。筺体30は、カメラ14、16を適所に設定し、2台のカメラ14、16間の距離32を定義してもよい。
各カメラ14、16は、それぞれの軸34、36に沿って位置合わせされてもよい。軸34、36は、互いに実質的に平行であってもよい。カメラ14、16は、互いに実質的に同一平面上に配向され、実質的に同様の水平に、又は図3の頁から伸びているx次元の平面38に位置合わせされてもよい。図5に示すカメラ画像センサ40、42は、互いに実質的に同一平面上に配向され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせされてもよい。カメラ14、16は、同じ方向に面しているように配向されてもよい。カメラ14、16は、各カメラ14、16の配向が固定されるように、筺体30によって保持されてもよい。一実施態様では、カメラ14、16のいずれかは、筺体30及び/又は他のカメラ14、16に対して移動可能であるように構成されてもよい。一実施態様では、カメラ14、16のいずれかは、筺体30に連結しなくてもよい。カメラは、筺体30に連結したカメラに関して説明した配向を含む、所望の配向でセットアップできる分離可能なカメラであってもよい。
各カメラの焦点距離は、必要に応じて設定してもよく、2台のカメラ14、16の視野が重なるように設定するのが好ましい。一実施態様では、各カメラ14、16の焦点距離は、おおよそ12mm以上16mm以下であってもよい。一実施態様では、各カメラ14、16の焦点距離は、同じか又は実質的に同様に設定してもよい。そのような実施態様では、同様又は同一の焦点距離は、距離を決定するのに使用されるプロセスの量を減少させることができる。一実施態様では、カメラの異なる焦点距離は、必要に応じて使用してもよい。
カメラユニット12は、軽量且つ携帯型であるように構成されてもよい。図2に示すように、カメラユニット12の長さは、おおよそ7.29インチ(18.52センチメートル)であってもよく、その幅は、おおよそ10.5インチ(26.67センチメートル)であってもよい。図3に示す高さは、おおよそ2.65インチ(6.73センチメートル)であってもよい。図2及び3に示す寸法は、例示であり、おおよそ5〜10インチ(12.7〜25.4センチメートル)の長さ、おおよそ7〜13インチ(17.78〜33.02センチメートル)の幅、及びおおよそ1〜5インチ(2.54〜12.7センチメートル)の高さを含む様々な寸法を利用してもよい。一実施態様では、本明細書に記載されたものとは異なる寸法を利用してもよい。筺体30は、カメラユニット12を他の構造体又はシステム10の要素に接続させるように構成された取付デバイス46、48を含んでもよい。取付デバイス46、48のいずれかは、カメラユニット12を所望の配向で保持させてもよい。取付デバイス46、48のいずれかは、カメラユニット12を撮影カメラ22に連結させてもよい。取付デバイス46、48は、図2に示すようなダブテールデバイスであってもよく、又は必要に応じて他の形態を有してもよい。
図4は、カメラユニット12の正面図を示す。図5は、蓋50を除去した筺体30を示す。カメラ14、16は、部品に分けて示している。カメラユニット12の内部ハードウェアを見ることができる。カメラ14、16は、それぞれ前窓54、56、それぞれレンズアセンブリ58、60、及びそれぞれ画像センサ40、42を含んでもよい。それぞれのフロントベゼル62、64は、レンズアセンブリ58、60を筺体30に固定することができる。各レンズアセンブリ58、60は、単一レンズ又はマルチレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は、ズームレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は、それぞれのカメラ14、16のフォーカス、ズーム、及び/又は絞りを制御するように構成されてもよい。画像センサ40、42は、各々、それぞれの視野の画像を捕捉し、それをデジタル化して処理するように構成されてもよい。画像センサ40、42は、CCDセンサ、CMOSセンサ、又は他の形態の画像センサであってもよい。画像センサ40、42は、720p、1080i、1080PsF、1080pの解像度を生成することができてもよいが、必要に応じて他の解像度を使用してもよい。画像センサは、ビデオ画像を捕捉するように構成されるのが好ましい。23、98、24、25、29、97、30、48、50、59、94、及び60のフレームレートを利用してもよいが、必要に応じて他のフレームレートを使用してもよい。一実施態様では、カメラ14、16は、静止画像を捕捉するように構成されてもよい。
カメラ14、16は、各々、水平又はx次元において、おおよそ80度以上90度以下の視野を有するように構成されてもよい。好ましくは、各カメラ14、16は、水平又はx次元において、おおよそ90度の視野を有する。一実施態様では、各カメラ14、16のより小さな又はより大きな角度を必要に応じて利用してもよい。
一実施態様では、カメラ14、16の特徴は、同じか又は実質的に同様になるように設定してもよい。そのような実施態様では、カメラ14、16の同様又は同一の特徴は、距離を決定するのに使用されるプロセスの量を減少させることができる。
図2を参照すると、2台のカメラ14、16間の距離32は、おおよそ5以上14インチ(12.7以上35.56センチメートル)以下であってもよい。距離32は、おおよそ8インチ(20.32センチメートル)であるのが好ましい。一実施態様では、カメラ14、16間のより小さな又はより大きな距離32を必要に応じて利用してもよい。
図5を再び参照すると、カメラデバイス12は、入力デバイスを含んでもよく、出力デバイスを含んでもよい。図5に示す実施態様では、入力デバイス及び出力デバイスは、アンテナ66の形態の無線通信デバイスである。一実施態様では、入力デバイス及び出力デバイスは、図5に示すコネクタ68などのコネクタを含んでもよい。一実施態様では、入力デバイス及び出力デバイスは、異なる構造体を含んでもよい。入力デバイスは、データを受信するように構成されてもよく、出力デバイスは、データを出力するように構成されてもよい。カメラデバイス12は、カメラデバイス12を動作させる電力を受電する電力コネクタ68も含んでもよい。カメラデバイス12に利用される電圧は、おおよそ12V以上24V以下、又はおおよそ10V以上35V以下の範囲であってもよい。一実施態様では、より小さな又はより大きな量の電圧を必要に応じて利用してもよい。電力コネクタ68及び他の形態のコネクタを筺体30上に近接して一緒にまとめてもよい。
カメラデバイス12は、無線通信カード70を含んでもよい。無線通信カード70は、データをアンテナ66に送受信するように動作してもよい。無線通信カード70は、ルータの形態であってもよく、システム10に使用してもよい他のデバイスと無線通信するためのネットワークハブとして動作してもよい。カメラデバイス12は、第1カメラ14及び/又は第2カメラ16と通信するためのインタフェースデバイス72を含んでもよい。インタフェースデバイス72は、USBカードの形態であってもよい。カメラデバイス12は、処理し、電力をカメラデバイス12の部品に供給するための電源74を含んでもよい。電力は、電力コネクタ68から電源74に入力してもよい。一実施態様では、電源74は、DC-DCコンバータの形態であってもよいが、他の形態の電源74を必要に応じて実施態様で使用してもよい。
カメラデバイス12は、プロセッサカード76を含んでもよい。プロセッサカード76は、第1カメラ14及び第2カメラ16から受信する画像を処理するように構成されているプロセッサ77を含んでもよい。プロセッサ77を使用して、関心領域までの距離を算出してもよい。
図6は、筺体30の蓋50を除去した、筺体30における適所のカメラデバイス12の部品を示す。
図7を参照すると、第1カメラ14の視野78、及び第2カメラ16の視野80は、重なり視野82の部分を有してもよい。一実施態様では、撮影カメラ22の視野84は、視野78、80のいずれかの少なくとも一部と重なってもよい。関心領域は、視野78及び/又は視野80内で選択してもよい。関心領域は、物体又は領域などの、視野78、80のいずれかを示す任意の画像であってもよい。関心領域は、1点又は点の集合であってもよい。一実施態様では、関心領域は、80×80ピクセルのサイズなどの所定のサイズを有してもよい。一実施態様では、関心領域は、異なるサイズを有してもよく、又は必要に応じて所定のサイズを有していなくてもよい。
図8は、図8の左側で、カメラ14によって生成された視野78の画像の一例を示す。図8は、図8の右側で、カメラ16によって生成された視野80の画像の一例を示す。視野78、80は、両方の画像で同様な視野78、80の画像の一部で示されるように重なる。視野78、80は、視野80で示されない視野78の部分で示されるようにずれている。関心領域86が選択されている。一実施態様では、関心領域86は、プロセッサ77又は他の自動プロセスによって自動的に選択してもよい。一実施態様では、関心領域86は、ユーザの入力によって選択してもよい。
一実施態様では、関心領域86は、視野78、80の1つで選択してもよい。例えば、関心領域86は、第1視野78と呼んでもよい視野78で選択してもよい。プロセッサ77は、関心領域86の特徴、例えば、選択された関心領域86の外観を識別するように構成されてもよく、アルゴリズムを使用して、選択された関心領域86の外観を、第2視野80と呼んでもよい他の視野80に整合させてもよい。アルゴリズムは、第1視野78の選択された関心領域86の外観を、第2視野80の選択された関心領域86の外観と相関させてもよい。
図9は、第1視野78の選択された関心領域86の外観を第2視野80の選択された関心領域86の外観と相関させるために使用してもよいアルゴリズムの実施態様を示す。要素「T」は、選択された関心領域86の画像の外観を表す。要素「I」は、第2視野80の画像を表す。「x」及び「y」要素は、図8に示したような視野の「x」及び「y」次元にそれぞれ対応する。「w」及び「h」要素は、視野の幅及び高さに対応する。要素「R」は、第1視野78の選択された関心領域86の外観と第2視野80の選択された関心領域86の外観との間の相関を表す。プロセッサ77は、アルゴリズムを使用して、第2視野80の画像をスキャンし、ピーク相関を見つけてもよい。一実施態様では、図9に示すアルゴリズムとは異なるアルゴリズムをプロセッサ77で使用してもよい。
一実施態様では、整合アルゴリズムを使用しなくてもよく、ユーザは、第1視野78及び第2視野80の両方の選択された関心領域86を識別してもよい。
プロセッサ77は、第1視野78の関心領域86の位置を第2視野80の関心領域86の位置と比較することによって、あるロケーションに対する関心領域86の距離を算出するように構成されてもよい。例えば、図10は、第2カメラ16を通じて示された関心領域86(下画像)の位置と比較した、第1カメラ14を通じて示された関心領域86(上画像)の相対位置を表示する。プロセッサ77は、上記の整合アルゴリズムを通じて、又は必要に応じて代替プロセスを通じて第2視野80の関心領域の位置を識別してもよい。第1視野78及び第2視野80の関心領域86のロケーションの差は、ロケーションの視差である。関心領域86のロケーションの差は、整合アルゴリズムを用いて算出されたピーク相関のロケーションの差であってもよい。
視差は、水平又はx次元における第2視野80の関心領域86の位置に対する第1視野78の関心領域86の水平又はx次元における位置の差として算出されてもよい。視差は、第1視野78及び第2視野80の関心領域86のピクセルロケーションの差に基づいて算出されてもよい。一実施態様では、視差は、中心線に対する第1視野78及び第2視野80の関心領域86のロケーションに基づいて算出されてもよい。
プロセッサ77は、カメラ14、16の間の距離と関心領域86の視差に基づいて、関心領域86の距離を算出するように構成されてもよい。視差が増加すると、カメラ14、16からの関心領域86の相対距離は減少する。カメラ14、16の間の距離が増加すると、見掛けの視差は増加する。距離測定は、カメラベースラインが2台のカメラ14、16のレンズの間の距離(2台のカメラ14、16のレンズの中心の眼間間隔であってもよい)である以下の関係に基づいてもよい:
距離∝((カメラ焦点距離)(カメラベースライン))/(視差)
前述の関係の定数要素は、プロセッサ77で自動的に決定してもよく、又はプロセッサ77に入力してもよい。カメラ焦点距離、及びカメラベースライン、例えば、又は任意の他の定数要素は、その距離算出に使用するためにプロセッサ77に入力してもよい。一実施態様では、プロセッサ77は、例えば、カメラデバイス12で利用される特定種類のカメラに基づいて、上述の関係の定数要素を自動的に検出してもよい。一実施態様では、プロセッサ77は、カメラ14、16の配向、及び/又は、カメラ14、16の互いの距離を自動的に検出してもよい。一実施態様では、プロセッサ77は、メモリーに保存されたルックアップ表を含んでもよく、ルックアップ表は、保存された定数をユーザが提供した入力に整合させるために使用してもよい。入力は、利用されているカメラの種類であってもよい。一実施態様では、メモリーを使用して、任意の定数、又はプロセッサ77が使用した他の情報を保存してもよい。一実施態様では、上で識別したものとは異なる定数又は変数を含む距離関係を利用してもよい。
一実施態様では、カメラデバイス12は、あるロケーションに対する距離をプロセッサ77に算出させるように校正されるように構成されてもよい。図11は、例えば、プロセッサ77を校正するために使用してもよい表88を示す。校正プロセスでは、ユーザは、関心領域を所定の距離で設定してもよい。プロセッサ77は、関心領域の視差をその距離で決定してもよい。ユーザは、その視差に対応する距離をプロセッサ77又はプロセッサのメモリーに入力してもよい。ユーザは、このプロセスを様々な距離で繰り返してもよい。校正後、プロセッサ77が視差を算出する際に、プロセッサ77は、この視差を校正中にメモリーに保存された距離に整合させて、距離を出力できるようにしてもよい。校正プロセスにより、プロセッサ77は、距離の算出に使用した任意の定数の変化をより簡単に説明することができる。校正データは、カメラの種類、カメラ焦点距離、カメラ配向又はカメラ間の距離、又は他の因子などの異なる定数についてメモリーに保存してもよい。校正データは、算出された視差に基づいて距離を出力するように、プロセッサ77によって検索されてもよい。
プロセッサ77が相対距離を算出するロケーションは、デフォルトで設定してもよく、又はプロセッサ77に入力してもよく、又はプロセッサ77によって自動的に決定してもよい。ロケーションは、校正プロセス中に設定してもよい。一実施態様では、ロケーションは、撮影カメラ22の位置として設定してもよい。撮影カメラ22の位置は、撮影カメラ22のレンズ又はセンサ平面のいずれかとしてさらに定義してもよい。一実施態様では、カメラデバイス12は、所定の位置で撮影カメラ22に連結するように構成されてもよく、ロケーションは、所定の位置に基づいて、撮影カメラ22に設定してもよい。一実施態様では、ロケーションは、撮影カメラの種類をプロセッサ77に入力することによって、プロセッサ77に入力してもよい。プロセッサ77は、撮影カメラ22の位置を提供するルックアップ表、又は使用した撮影カメラ22の種類に基づいて、レンズ又はセンサ平面などのカメラの構成要素を含んでもよい。一実施態様では、ロケーションは、必要に応じて異なる位置で設定してもよく、例えば、ユーザは、ロケーションをプロセッサ77に入力してもよい。
一実施態様では、カメラデバイス12は、関心領域86を動かしながら、あるロケーションに対する関心領域86の距離を算出するように構成されてもよい。プロセッサ77は、選択された関心領域86の位置を追跡するように構成されてもよい。図8を参照すると、関心領域86を選択した際に、プロセッサ77は、関心領域86が動いたかどうかを決定するように構成されてもよい。プロセッサ77は、関心領域86の外観を決定した後、連続するフレームにおける関心領域86の外観を識別して、関心領域86の動きを追跡してもよい。一実施態様では、プロセッサ77は、ピクセルデータが元のピクセル以外の異なるピクセルに変換されているかどうかを算出することによって関心領域86を追跡してもよい。一実施態様では、関心領域86を追跡する異なるプロセスを使用してもよい。プロセッサ77は、各フレームにおける関心領域86を追跡してもよい。一実施態様では、プロセッサ77は、所定の間隔のフレームごとに関心領域86を追跡してもよい。
一実施態様では、制御デバイスなどの別個のデバイスは、プロセッサ77を支援して、関心領域86を追跡してもよい。別個のデバイスは、関心領域86の動きを識別してもよく、プロセッサ77は、関心領域86を表すピクセルのサブセットから画像データを使用して、関心領域86が動くにつれて関心領域86の動きを追跡してもよい。ピクセルのサブセットからの画像データを使用して、第2視野80からの画像と比較してもよい。
プロセッサ77は、第2視野80の関心領域86の位置を追跡するように構成されてもよい。プロセッサ77は、この用途では上記のプロセスで第1視野78の関心領域86の外観を第2視野80に整合させることによって第2視野80の位置を追跡してもよい。例えば、プロセッサ77は、アルゴリズムを使用して、他の視野82の選択された関心領域86の外観に整合させてもよい。アルゴリズムは、第1視野78の選択された関心領域86の外観を、第2視野80の選択された関心領域86の外観と相関させてもよい。アルゴリズムは、図9に示すアルゴリズムであってもよく、又は異なるアルゴリズムであってもよい。一実施態様では、プロセッサ77は、第1視野78の関心領域86の動きを表すデータを適用して、第2視野78の関心領域86の動きを算出するプロセスにおいて、第2視野80の関心領域86を追跡してもよい。一実施態様では、第2視野78の関心領域86を追跡する異なるプロセスを使用してもよい。
プロセッサ77は、第1視野78の関心領域86の位置を第2視野80の関心領域86の位置と比較することによって、関心領域86を動かしながら、あるロケーションに対する関心領域86の距離を算出するように構成されてもよい。距離は、この用途では上記のプロセスで算出されてもよい。距離は、関心領域86が、例えば、第1視野78で動くにつれてリアルタイムで算出されてもよい。距離は、フレームごとに算出されてもよい。一実施態様では、距離は、所定の間隔のフレームごとに算出されてもよい。
一実施態様では、カメラデバイス12は、複数の関心領域86の距離を算出するように構成されてもよい。一実施態様では、プロセッサ77は、複数の関心領域86を追跡し、複数の関心領域86の距離を算出するように構成されてもよい。一実施態様では、最大12個の異なる関心領域を追跡してもよく、及び/又は、算出されたそれぞれの距離を有してもよい。一実施態様では、より多い又はより少ない数の関心領域を追跡してもよく、及び/又は、算出されたそれぞれの距離を有してもよい。複数の関心領域の距離及び/又は追跡は、同時に生じてもよい。追跡、整合、及び距離のプロセスは、個々の関心領域86について上記と同様のプロセスを通じて関心領域86ごとに生じてもよい。距離は、フレームごとの関心領域ごとに算出されてもよい。一実施態様では、距離は、所定間隔のフレームについて関心領域ごとに算出されてもよい。一実施態様では、プロセッサ77は、様々な関心領域86の視差の視差マップを生成するように構成されてもよい。
カメラデバイス12は、プロセッサ77が算出した距離データを出力するように構成されてもよい。
一実施態様では、プロセッサ77は、筺体30の外部に位置してもよい。
一実施態様では、距離算出は、筺体30に連結していない、及び/又は、例えば、図2又は7に示すものと異なる配向に位置するカメラ12、14を用いて行ってもよい。異なる配向のカメラ12、14は、その距離算出において、プロセッサ77によって利用されてもよく、例えば、異なるカメラベースライン値を使用してもよい。
図12は、カメラデバイス12からある一定の距離でのカメラデバイス12のカメラ14、16の解像度を表す表を示す。図13は、カメラデバイス12からある一定の距離でのカメラデバイス12のカメラ14、16の解像度のグラフを示す。図12及び13に示すデータは、カメラデバイス12の一実施態様を表し、他の解像度は、カメラデバイス12の他の実施態様で生じてもよい。
図1を再び参照すると、システム10は、制御デバイス18を含んでもよい。制御デバイス18は、関心領域をユーザに選択させるように構成されてもよい。制御デバイス18からの制御データは、カメラデバイス12に入力され、プロセッサ77で受信されてもよい。制御デバイス18は、カメラデバイス12に接続されてもよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、制御デバイス18と通信してもよい。制御デバイス18は、システム10の任意の構成要素と通信するように、無線通信デバイスを含んでもよい。
図14は、制御デバイス18の拡大図を示す。制御デバイス18は、携帯型デバイスとして構成されてもよく、又はカメラデバイス12の動作を制御するように構成された任意のデバイスとして構成されてもよい。図14に示す実施態様では、制御デバイス18は、他の形態のコンピュータを必要に応じて使用してもよいが、ラップトップコンピュータなどのタブレットコンピュータである。制御デバイス18は、ディスプレイ90を含んでもよい。ディスプレイ90は、それぞれのカメラ14、16のいずれかからの視野78、80、及び/又は、撮影カメラ22の視野82の画像を表示するように構成されてもよい。一実施態様では、ディスプレイ90は、視野78、80の重なり部分、及び/又は、撮影カメラ22の視野82の重なり部分を表示するように構成されてもよい。
一実施態様では、制御デバイス18は、視野78、80、84のいずれかの重なりを示すインジケータ92を生成するように構成されてもよい。図14に示す実施態様では、例えば、インジケータ92は、撮影カメラ22の視野84と第1視野78の重なりを示す。一実施態様では、第1視野78と第2視野80の間の重なり、及び/又は、撮影カメラ22の視野84と第2視野80の間の重なりを示してもよい。インジケータ92は、他の実施態様では、他の形態のインジケータ92を必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態を取ってもよい。
制御デバイス18は、ユーザに関心領域86を選択させるように構成されたタッチスクリーン94を含んでもよい。ユーザは、所望の関心領域86を表示する視野78、80、84のいずれかから画像の一部に触れて、関心領域86を選択してもよい。ユーザは、関心領域の画像に再び触れることで、所望の関心領域86を選択しなくてもよい。一実施態様では、制御デバイス18は、視野78、80、84のいずれかにおける顔の特徴を自動的に識別するための顔認識プロセスを含んでもよい。制御デバイス18は、これらの顔の特徴に対応する関心領域86を自動的に選択するように構成されてもよく、又はこれらの顔の特徴に対応するユーザに関心領域86を提案するように構成されてもよい。一実施態様では、制御デバイス18は、関心領域86を選択するための代替方法を利用してもよく、例えば、制御デバイス18は、関心領域86を示すのに使用したマーカーに反応するように構成されてもよい。マーカーは、関心領域86に位置した物理的構造体であってもよく、又は関心領域86に向けたレーザービームなどの光デバイスであってもよく、又は別の形態を有してもよい。
制御デバイス18は、自動又はユーザ選択に基づいてのいずれかで、複数の関心領域86を選択してもよい。制御デバイス18がタッチスクリーン94を含む実施態様では、ユーザは、視野78、80、84のいずれかから画像の複数の部分に触れて、関心領域86を選択してもよい。一実施態様では、最大12個の異なる関心領域を選択してもよい。一実施態様では、より多い又はより少ない数の関心領域を選択してもよい。
制御デバイス18は、選択されている関心領域86を示すインジケータ96を生成するように構成されてもよい。インジケータ96は、他の実施態様では、他の形態のインジケータ96を必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態を取ってもよい。さらなるインジケータ98、100を使用して、選択されている複数の関心領域86を示してもよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態様では、対応するインジケータ96、98、100は、関心領域86と共に動いてもよい。
制御デバイス18は、プロセッサ77によって算出された距離を表示するように構成されてもよい。距離は、ディスプレイ90上に提供されてもよい。プロセッサ77が距離のリアルタイム算出を提供する実施態様では、制御デバイス18上に表示された距離も、リアルタイムで更新してもよい。複数の関心領域にそれぞれ対応する複数の距離を表示してもよい。制御デバイス18は、視野78、80、84の重なり部分の外側の距離を表示してもよい。例えば、図14では、撮影カメラ22の視野84の外側の距離をインジケータ100に示す。この距離は、この関心領域までの距離がすでに表示されているように表示してもよく、撮影カメラ22の視野84は、この関心領域を包含するように動くべきである。
制御デバイス18は、カメラ14、16の特性又は撮影カメラ22の特性の入力を受信するように構成されてもよい。特性は、いくつかある特性の中でとりわけ、カメラのいずれかの焦点距離、カメラのいずれかの視野、カメラ14、16の間の距離、カメラのいずれかのフォーカス、絞り、及び/又はズーム、及び/又は使用しているカメラ又はレンズの種類を含んでもよい。制御デバイス18は、プロセッサ77が相対距離を算出するロケーションの入力を受信するように構成されてもよい。制御デバイス18は、ユーザがこのデータを制御デバイス18に入力するように構成されてもよい。
一実施態様では、制御デバイス18は、カメラ14、16のフォーカス、絞り、及び/又はズームを含むカメラ14、16の特性を制御するように構成されてもよい。制御デバイス18は、ユーザがフォーカス、絞り、及び/又はズームを含む特性を制御するタッチスクリーンを有するように構成されてもよい。制御デバイス18は、これらの特性を表示するように構成されてもよい。
制御デバイス18は、システム10についての情報を提供する画像の複数のスクリーンを表示するように構成されてもよい。例えば、図14に示すような1つのスクリーンは、カメラ14からの視野78のビデオ画像を表示してもよい。制御デバイス18は、カメラ14、16のフォーカス、絞り、及び/又はズームに関する情報を提供する別のスクリーンを表示してもよい。制御デバイス18は、ユーザが制御デバイス18上に表示されるスクリーンを変えてもよいように構成されてもよい。
一実施態様では、制御デバイス18のプロセスは、制御デバイス18のプロセッサによって操作されるプログラムで具現化してもよい。プログラムは、非一時的な機械読み出し可能な媒体で具現化してもよい。プログラムは、制御デバイス18のメモリーに保存されてもよい。プログラムは、制御デバイス18によってダウンロード可能であるように構成されてもよい。プログラムは、制御デバイス18によって操作されるアプリケーション又は「app」であってもよい。制御デバイス18は、例えば、Appleが販売しているiPad、又はSamsungが販売しているGalaxyなどのタブレットコンピュータであってもよく、本明細書に記載された制御デバイス18のプロセスを制御デバイス18にロードしてもよい。プログラムによって、制御デバイス18のプロセッサに本明細書に記載されたプロセスを実行させてもよい。
一実施態様では、制御デバイス18は、カメラデバイス12の筺体30と連結してもよい。一実施態様では、制御デバイス18は、カメラデバイス12内に組み込まれてもよい。例えば、一実施態様では、カメラデバイス12内に組み込まれた制御デバイス18は、関心領域の顔の特徴又は他の所望の特徴を自動的に検出するように働いてもよい。
制御デバイス18は、無線で又は有線接続を介してのいずれかで、カメラデバイス12と通信するように構成されてもよい。制御デバイス18は、関心領域の選択、カメラ14、16の特性、及び/又は撮影カメラ22の特性をカメラデバイス12又はシステム10の別の要素に出力してもよい。また、制御デバイス18は、カメラ14、16の制御をカメラデバイス12に出力してもよい。制御デバイス18は、制御デバイス18又はシステム10の他の要素からデータを受信してもよい。
一実施態様では、制御デバイス18は、視野における関心領域又は複数の関心領域の動きを追跡するようにプロセッサ77を支援してもよい。制御デバイス12は、選択された関心領域が動いている間に、その位置についてプロセッサ77にデータを提供するように構成されてもよい。例えば、制御デバイス18によって識別された顔認識特徴をプロセッサ77に提供して、関心領域の動きを追跡するようにプロセッサ77を支援してもよい。
制御デバイス18は、制御デバイス18のオペレータがカメラデバイス12の作動中により簡単に動かせるように、軽量及び携帯型に構成されてもよい。
図1を再び参照すると、システム10は、システム10プロセッサによって算出された関心領域までの距離、又は複数の関心領域までの距離を表示するように構成された表示デバイス20を含んでもよい。表示デバイス20は、カメラデバイス12に接続してもよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、表示デバイス20と通信してもよい。表示デバイス20は、システム10の任意の他の構成要素と通信するための無線通信デバイスを含んでもよい。
図15は、表示デバイス20の拡大図を示す。表示デバイス20は、携帯型デバイスとして構成されてもよく、又は関心領域までの距離を表示するように構成された任意のデバイスとして構成されてもよい。図15に示す実施態様では、制御デバイス18は、他の形態のデバイスを必要に応じて使用してもよいが、モバイル通信デバイスである。制御デバイス18は、iPhone、iPod、又は他のモバイルデバイスなどのモバイル通信デバイスであってもよい。表示デバイス20は、ディスプレイ104を含んでもよい。ディスプレイ104は、関心領域までの距離を表示するように構成されてもよい。
表示デバイス20は、プロセッサ77によって算出された単一距離又は複数の距離を表示するように構成されてもよい。表示デバイス20は、プロセッサ77が距離をリアルタイムで算出する場合に、1つ又は複数の関心領域が動く場合に、距離又は複数の距離を表示するように構成されてもよい。図15に示す実施態様では、複数行表示が、異なる関心領域までの算出された距離を示す。距離は、一次及び二次関心領域に分割してもよい。距離は、数値として示してもよい。一実施態様では、とりわけ、表、チャート、又は他の代表的な図などの別の形態の距離のインジケータを使用してもよい。
表示デバイス20は、軽量及び携帯型に構成されてもよい。一実施態様では、表示デバイス20は、カメラデバイス12内に組み込まれるように構成されてもよい。一実施態様では、表示デバイス20は、システム10の任意の要素に連結するように構成されてもよい。図16は、例えば、撮影カメラ22に連結した表示デバイス106の実施態様を示す。関心領域までの距離は、10フィートであるとして表示デバイスの右側に示される。
図1を再び参照すると、システムは、プロセッサ77によって算出された距離又は複数の関心領域までの距離を撮影カメラ22からの画像上に重ねるためのオーバーレイデバイスの形態で表示デバイス24を含んでもよい。表示デバイス24は、カメラデバイス12に接続してもよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、表示デバイス24と通信してもよい。表示デバイス24は、システム10の任意の他の構成要素と通信するための無線通信デバイスを含んでもよい。
図17は、筺体110の蓋108を筺体110の残り部分から分離し、且つ、表示デバイス24の他の部品を分離した、表示デバイス24の拡大図を示す。表示デバイス24は、表示デバイス24を動作させる電力を受電する電力コネクタ112を含んでもよい。表示デバイス24は、撮影カメラ22からの画像を含む、システム10の要素からのケーブルデータを受信するためのデータコネクタ114を含んでもよい。表示デバイス24は、入力デバイスを含んでもよく、且つ、出力デバイスを含んでもよい。図17に示す実施態様では、入力デバイス及び出力デバイスは、アンテナ116の形態の無線通信デバイスである。一実施態様では、入力デバイス及び出力デバイスは、コネクタ114などのコネクタを含んでもよい。一実施態様では、入力デバイス及び出力デバイスは、異なる構造体を含んでもよい。
表示デバイス24は、オーバーレイプロセッサカード118を含んでもよい。プロセッサカード118は、プロセッサ77から算出された距離を他のカメラからの他の画像上に重ねるように構成されているプロセッサ120を含んでもよい。プロセッサ120は、カメラデバイス12から距離データを受信し、例えば、撮影カメラ22から画像を受信し、距離データを画像と一致させてもよい。図1を参照すると、表示デバイス24は、選択されている関心領域86を示すインジケータを生成してもよい。インジケータは、他の実施態様では、他の形態のインジケータを必要に応じて使用してもよいが、図1に示すようなボックスの形態を取ってもよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態様では、対応するインジケータは、関心領域86と共に動いてもよい。
表示デバイス24は、プロセッサ77によって算出された距離又は複数の距離を別の表示デバイス28上に表示してもよい。距離は、表示デバイス28のディスプレイ上に提供されてもよい。プロセッサ77が距離のリアルタイム算出を提供する実施態様では、表示デバイス28上に表示された距離は、リアルタイムで更新してもよい。複数の関心領域にそれぞれ対応する複数の距離を表示してもよい。表示デバイス24は、撮影カメラ22の視野の画像のみを表示するように構成されてもよい。図1に示すように、表示デバイス28上の画像は、図14に示すインジケータ92内に示された画像と一致する。
表示デバイス24は、軽量及び携帯型に構成されてもよい。図18及び19は、表示デバイス24の長さがおおよそ7.37インチ(18.72センチメートル)であり、筺体110の長さがおおよそ6.75インチ(17.15センチメートル)であるものを示す。幅は、おおよそ4.75インチ(12.07センチメートル)であってもよい。図19に示すような高さは、おおよそ1.35インチ(3.43センチメートル)であってもよい。図18及び19に示す寸法は例示であり、おおよそ5〜10インチ(12.7〜25.4センチメートル)の全長、おおよそ2〜7インチ(5.08〜17.78センチメートル)の幅、及びおおよそ1〜3インチ(2.54〜7.62センチメートル)の高さを含む、様々な寸法を利用してもよい。一実施態様では、本明細書に記載されたものとは異なる寸法を利用してもよい。
本明細書に記載された表示デバイスのいずれかは、カメラの型式、ズーム、絞り、及びフォーカスなどの、撮影カメラ22及び/又はカメラデバイス12のカメラ14、16に関連付けられたデータを表示してもよい。
図1を再び参照すると、システムは、カメラ14、16の動作を制御するように構成されたカメラ制御器26を含んでもよい。カメラ制御器26は、絞り、フォーカス、及び/又はズームなどのレンズ制御を含む、カメラ14、16の特徴を動作するように構成されてもよい。カメラ制御器26は、カメラ14、16の特徴が同様であるように、カメラ14、16の両方を同時に動作するように構成されてもよい。一実施態様では、カメラ制御器26は、制御デバイス18を介して動作してもよい。
一実施態様では、カメラ制御器26は、撮影カメラ22及び/又はカメラ14、16を制御するように構成されてもよい。カメラ制御器26は、撮影カメラ22のこれらの特徴がカメラ14、16の特徴と一致するように、絞り、フォーカス、及び/又はズームなどのレンズ制御を含む撮影カメラ22の特徴を動作するように構成されてもよい。一実施態様では、カメラ制御器26は、カメラデバイス12によって提供された距離測定に基づいて、撮影カメラ22のフォーカスを自動的に調節するように構成されてもよい。
カメラ制御器26は、カメラデバイス12に接続してもよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、カメラ制御器26と通信してもよい。カメラ制御器26は、システム10の任意の他の構成要素と通信するための無線通信デバイスを含んでもよい。カメラ制御器26は、撮影カメラ22に有線又は無線接続を含んでもよい。
一実施態様では、カメラ制御器26は、モータドライバであってもよい。モータドライバは、Preston MDR、又は他の種類のモータドライバであってもよい。
システム10は、カメラ14、16の視野と重なる視野において画像を生成するように構成されている撮影カメラ22を含んでもよい。画像は、静止画像であってもよく、又はビデオ画像であってもよい。撮影カメラ22は、フィルムテレビジョン又は動画を撮影するのに典型的に使用されるスタイルであってもよく、デジタル又はフィルムメラであってもよい。撮影カメラ22は、HD画像を出力するように構成されてもよい。撮影カメラとしては、他の種類の撮影カメラのうちで、Arri Alexa、Red Epic、Sony F55、Sony F65、Genesis、及びPanavisionフィルムカメラが挙げられるが、これらに限定されない。
一実施態様では、撮影カメラ22は、カメラデバイス12に対して所定の配向で利用してもよい。例えば、撮影カメラ22は、撮影カメラ22のレンズが、カメラ14、16の1台又は両方のそれぞれの軸34、36に実質的に平行に配向されるように配向されてもよい。撮影カメラ22は、カメラ14、16の1台又は両方と実質的に同一平面上に配向され、実質的に同様の水平に、又は図3の頁から伸びているx次元の平面38に位置合わせされてもよい。撮影カメラ22のカメラセンサは、カメラ14、16の1台又は両方のセンサと実質的に同一平面上に配向され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせされてもよい。撮影カメラ22は、カメラ14、16の1台又は両方と同じ方向に面するように配向されてもよい。一実施態様では、撮影カメラ22は、撮影カメラ22を2台のカメラ14、16の間に位置して、図7に示すように配向されてもよい。撮影カメラ22の視野84は、中心に位置し、カメラ14、16のそれぞれの視野78、80と重なってもよい。
撮影カメラ22は、カメラデバイス12に対して撮影カメラ22を所望の配向に保持するようにカメラデバイス12と連結してもよい。一実施態様では、撮影カメラ22は、カメラデバイス12と別個のものであってもよい。本明細書に記載された表示デバイス20、24、28、106又は制御デバイス18のいずれかは、必要に応じて撮影カメラ22と連結してもよい。
システム10及び/又はシステムのデバイスによって行われた距離の算出を使用して、撮影カメラ22のフォーカスを設定してもよい。撮影中、関心領域までの距離を容易に確認し、撮影カメラ22のフォーカスをこれらの領域にどのように効率的に設定するかを決定することに関連する。本明細書に記載されたシステム、デバイス、及びプロセスは、距離を容易に確認する能力を向上させるため、撮影カメラ22のフォーカスを設定する能力を向上させる。一実施態様では、撮影カメラ22のフォーカスは、カメラデバイス12によって提供された距離算出に基づいて、ユーザによって設定してもよい。ユーザは、表示デバイス、又は制御デバイス、又はシステム10に関連する別のデバイスの1つからの出力を再検討することによって距離算出を決定してもよい。例えば、ユーザは、算出された距離と撮影カメラ22からの画像の重なりを示す表示デバイス28上で距離を見てもよい。ユーザは、カメラアシスタントなどの個人であってもよい。一実施態様では、撮影カメラ22のフォーカスは、カメラデバイス12によって提供された距離算出に基づいて、自動的に設定してもよい。例えば、カメラ制御器26、又はシステム10の他のデバイスは、フォーカスを自動的に調節してもよい。
本明細書に記載されたシステム10、デバイス、及びプロセスのさらなる利点としては、それらの外観に基づいて関心領域を選択する能力、例えば、顔認識が挙げられる。さらなる利点としては、1つ又は複数の関心領域が動くにつれて1つ又は複数の関心領域のロケーションを追跡する能力が挙げられる。さらなる利点としては、移動中に生じ得る、1つ又は複数の関心領域までの距離のリアルタイム算出が挙げられる。
本明細書に記載されたシステム10、デバイス、及びプロセスは、距離を決定する従来の方法、例えば、音響又は赤外測定デバイスの使用を上回る飛躍的な向上を表す。
システム10の要素は、通常のカメラシステムの一部として有利に現れ得、使いやすさやシステムの市場性が高まる。例えば、カメラデバイス12、制御デバイス18、及び/又は表示デバイスを撮影カメラ22と連結して、使用する総部品数を減らしてもよい。システム10の要素は、携帯型にしてもよく、軽量であるのが好ましい。一実施態様では、カメラデバイス12は、おおよそ4ポンド未満の重量を有してもよい。一実施態様では、表示デバイス24は、2ポンド未満の重量を有してもよい。
システム10は、おおよそ1フィート〜45フィートの距離で動作してもよいが、さらなる範囲も利用してよい。システム10は、撮影カメラ22の被写界深度の精度と共にある距離で有利に動作してもよい。システム10は、非常に暗い光と明るい光の間の輝度レベル、おおよそ10ルクス〜25,000ルクスで動作してもよい。他の輝度レベルも利用してよい。
図20は、カメラデバイス12及び表示デバイス24のハードウェア構成の一実施態様を示す。他のハードウェア構成を他の実施態様で使用してもよい。カメラデバイス12は、プロセッサカード76を使用してもよい。一実施態様では、プロセッサカード76は、最大2ギガバイトの内部メモリー、及び最大16ギガバイトのフラッシュメモリーを含んでもよい。他の実施態様では、他の形態のプロセッサカード76を利用してもよい。一実施態様では、インタフェースデバイス72は、PCT USB3カードの形態であってもよい。他の実施態様では、他の形態のインタフェースデバイスを利用してもよい。表示デバイス24は、オーバーレイプロセッサカード118を使用してもよい。一実施態様では、オーバーレイプロセッサカード76は、HD-SDI入力、及びHD-SDI出力を含んでもよい。他の実施態様では、他の形態のプロセッサカード76を利用してもよい。表示デバイス24は、無線通信カード122、及び電源124を含んでもよい。
一実施態様では、カメラ14、16は、ビニング、ウィンドウイング、高速読み取りするように構成されてもよい。カメラ14、16は、最大5メガピクセルを有する画像センサを含んでもよい。カメラ14、16は、所望の解像度に応じて、毎秒最大33枚の画像、又は毎秒最大15枚の画像を生成するように構成されてもよい。他の実施態様では、カメラ14、16の特徴は、必要に応じて変化してもよい。
図21は、システム10の要素間の有線接続の一実施態様を示す。ケーブルを使用して、有線接続を行ってもよい。画像データを転送するためのケーブルは、HD-SDIケーブルの形態であってもよいが、他の形態のケーブルを必要に応じて使用してもよい。電力ケーブルは、電池パック126から電力を供給してもよいが、他の形態の電源を必要に応じて使用してもよい。
図22は、関心領域までの距離を決定するためのプロセスマップの一実施態様を示す。プロセス128は、1つ以上の関心領域の選択で生じてもよい。プロセス128は、制御デバイス18の使用を介して生じてもよい。プロセス128は、顔の特徴検出、又はマークを追跡する検出のプロセスを含んでもよい。プロセス130は、カメラデバイス12の使用を介して生じてもよい。カメラデバイス12は、第1視野における選択された1つ又は複数の関心領域を第2視野と一致させてもよい。カメラデバイス12は、視差算出を行ってもよい。プロセス132は、カメラデバイス12に入力されているシステム10又はカメラデバイス12のカメラのパラメータを介して生じてもよい。そのようなパラメータは、カメラベースライン、カメラ焦点距離、及び本明細書に基づく他の特徴などの特徴を含んでもよい。プロセス134は、視差算出、及びプロセス132で入力したパラメータに基づいて、1つ又は複数の関心領域までの距離又は複数の距離を算出するカメラデバイス12を介して生じてもよい。プロセス136は、制御デバイス18、又はカメラ12、14又は22の1つからの画像上に距離を重ねる表示デバイス24を介して生じてもよい。図22のプロセスは、工程を含むか又は除外するように変更してもよく、本明細書に記載された任意のプロセスを含んでもよい。
図23は、カメラ制御器26とデータを送受信するプロセスの一実施態様を示す。システム10の要素は、カメラ制御器26からフォーカス、ズーム、及び/又は絞りのデータを要求してもよい。データは、カメラデバイス12及び/又は撮影カメラ22のステータスを表してもよい。図23に示すプロセスは、必要に応じて変更又は除外してもよい。図24は、距離データをカメラ制御器26に送信するプロセスの一実施態様を示す。図23に示すプロセス、必要に応じて変更又は除外してもよい。
本明細書に開示されている実施態様は、以下のプロセスを含んでもよい。本明細書に開示されているさらなるプロセスは、以下に列挙する工程に組み込んでもよい:
カメラのフォーカスを調節するための方法は、制御デバイスが第1カメラの第1視野における関心領域を選択すること;第1視野における選択された関心領域の位置を、第2カメラの、第1視野の少なくとも一部と重なる第2視野における選択された関心領域の位置と比較することによって、あるロケーションに対する選択された関心領域の距離をプロセッサで算出すること;プロセッサによって算出された距離に基づいて、第3カメラのフォーカスを選択された関心領域上で調節することを含んでもよい。
方法は、第1カメラによって生成された第1視野の画像を表示するように構成されたタッチスクリーンを含む制御デバイスを含んでもよく、関心領域は、ユーザが、画像における関心領域を表示するタッチスクリーンの一部に触れることによって選択される。
方法は、第1カメラと第2カメラを含んでもよく、各々は、第1カメラと第2カメラを互いにある距離に保持する筺体に連結されている。
方法は、第1カメラと第2カメラの間の距離に基づいて、ロケーションに対する選択された関心領域の距離を算出することをさらに含む算出工程を含んでもよい。
方法は、プロセッサによって算出された距離を第3カメラによって生成された画像のオーバーレイ上に表示する工程をさらに含んでもよい。
方法は、プロセッサが、選択された関心領域を第1視野で移動させながら、第1視野における選択された関心領域の位置を追跡する工程をさらに含んでもよい。
方法は、選択された関心領域を第1視野で移動させながら、ロケーションに対する選択された関心領域の距離をリアルタイムで算出することをさらに含む算出工程を含んでもよい。
方法は、選択された関心領域を第1視野で移動させながら、プロセッサによって算出された距離をリアルタイムで表示する工程をさらに含んでもよい。
方法は、選択された関心領域を第1視野で移動させながら、プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイムで重ねることをさらに含む表示工程を含んでもよい。
方法は、動いている選択された関心領域を表示するビデオ画像である、第3カメラによって生成された画像を含んでもよい。
本明細書に開示されている実施態様は、以下の装置を含んでもよい。本明細書に開示されているさらなる特徴は、以下に列挙する装置に組み込んでもよい:
関心領域までの距離を決定するための装置は、筺体と;筺体に連結され、第1視野を有するように配向された第1カメラと;筺体に連結され、第1視野の少なくとも一部と重なる第2視野を有するように配向された第2カメラと;筺体に連結され、第1視野における選択された関心領域の位置を第2視野における選択された関心領域の位置と比較することによって、あるロケーションに対する選択された関心領域の距離を算出するように構成されたプロセッサとを含む。
装置は、第1カメラが第1縦軸に沿って位置合わせされ、第2カメラが第1縦軸に実質的に平行な第2縦軸に沿って位置合わせされるように構成されてもよい。
装置は、第1カメラが第1画像センサを有し、第2カメラが第2画像センサを有し、第1画像センサが第2画像センサと実質的に同一平面上に位置するように構成されてもよい。
装置は、第1カメラがおおよそ12ミリメートル以上16ミリメートル以下の焦点距離を有し、第2カメラがおおよそ12ミリメートル以上16ミリメートル以下の焦点距離を有するように構成されてもよい。
装置は、第1視野が水平次元及び垂直次元を含み、第2視野が水平次元及び垂直次元を含み;プロセッサが、第1視野の水平次元における選択された関心領域の位置を第2視野の水平次元における選択された関心領域の位置と比較することによって、ロケーションに対する選択された関心領域の距離を算出するようにさらに構成されているように構成されてもよい。
装置は、プロセッサが、選択された関心領域を第1視野で移動させながら、第1視野における選択された関心領域の位置を追跡するようにさらに構成されているように構成されてもよい。
装置は、プロセッサが、選択された関心領域を第1視野で移動させながら、ロケーションに対する選択された関心領域の距離をリアルタイムで算出するように構成されているように構成されてもよい。
装置は、筺体に連結され、選択された関心領域を示すデータを受信するように構成された入力デバイスをさらに含んでもよい。
装置は、入力デバイスが無線通信デバイスであるように構成されてもよい。
装置は、筺体に連結され、プロセッサによって算出された距離を示すデータを出力するように構成された出力デバイスをさらに含んでもよい。
締めくくりとして、本明細書の態様は具体的な実施態様を参照して強調されているが、当業者であれば、これらの開示されている実施態様は、本明細書に開示されている主題の原理の単に例示であることが容易に分かるであろうことを理解すべきである。従って、開示されている主題は、決して本明細書に記載されている特定の方法論、手順、及び/又は試薬などに限定されないことを理解すべきである。従って、本明細書の趣旨から逸脱することなく、本明細書中の教示に従って、開示されている主題に対する様々な修正又は変更又はそれらの他の構成が可能である。最後に、本明細書中で使用されている専門用語は、単に特定の実施態様を記述するためのものであり、本明細書に開示されているシステム、装置、及び方法の範囲を限定するものではく、特許請求の範囲によってのみ定義される。従って、システム、装置、及び方法は、詳細に図示及び記載されているものに限定されない。
本発明者らに知られている本発明を実施するための最良の形態を含むシステム、装置、及び方法の特定の実施態様が、本明細書に記載されている。当然のことながら、これらの記載されている実施態様の変形形態は、上記記載を読めば当業者には明らかである。本発明者は、当業者がそのような変形形態を適宜用いることを想定しており、本発明者らは、本明細書に具体的に記載されているものとは異なる方法でシステム、装置、及び方法が実施されることを企図している。従って、システム、装置、及び方法は、本明細書に添付されている特許請求の範囲に列挙されている主題の全ての変形形態及び均等物を適用法により認められるものとして含むものである。さらに、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、その全ての可能な変形形態における上記実施態様の任意の組み合わせがシステム、装置、及び方法により包含される。
システム、装置、及び方法の他の実施態様、要素、又は工程のグループ化は、本発明を限定するものとして解釈されるべきではない。各グループの構成要素は、個々に、あるいは本明細書に開示されている他のグループの構成要素との任意の組み合わせで参照及び特許請求することができる。グループの1つ以上の構成要素は、利便性及び/又は特許性を理由に、グループに含めたり、そこから削除したりすることができるものと想定される。任意のそのような包含又は削除が生じた場合、本明細書は、そのグループを修正されたものとして含めるものとし、従って、添付の特許請求の範囲に使用されている全てのマーカッシュ群の記載を満たすものとする。
特に明記しない限り、本明細書及び特許請求の範囲に使用されている特性、項目、量、パラメータ、性質、用語などを表わす全ての数は、「約」という用語により、全ての場合に修正されるものとして理解されるべきである。本明細書で使用される「約」という用語は、そのように評された特性、項目、量、パラメータ、性質又は用語が、変動し得る近似値を包含することを意味する。「おおよそ[で]」及び「実質的[に]」という用語は、指定した量から変化し得る量を表すが、本明細書に記載された所望の動作又はプロセスを実施することが可能である。
システム、装置、及び方法を記載する文脈(特に、以下の特許請求の範囲の文脈)に使用される「1つの(a)」「1つの(an)」「その(前記)(the)」という用語及び同様の指示物は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、単数及び複数の両方を包含するものと解釈されるべきである。本明細書に記載されている全ての方法は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、任意の好適な順序で実施することができる。本明細書に提供されているありとあらゆる例又は例を表わす言葉(例えば、「など」)の使用は、システム、装置、及び方法を単により良く理解するためのものであり、特許請求の範囲に別段の記載がない限り、システム、装置、及び方法の範囲に限定を課すものではない。本明細書中のいずれの言葉も、システム、装置、及び方法の実施に必須なあらゆる特許請求されていない要素を示すものとして解釈されるべきではない。
本明細書で参照及び特定されている全ての特許、特許公開公報、及び他の刊行物の開示内容全体が、例えば、システム、装置、及び方法に関して使用され得るそのような刊行物に記載されている組成物及び方法論を記載及び開示するために、個々に、かつ明確に参照により本明細書に組み込まれる。これらの刊行物は単に、本出願の出願日より前のそれらの開示のために提供されている。この点に関してはいずれも、本発明者らが、先願発明により、あるいはあらゆる他の理由のために、そのような開示に先行する権利がないということを認めるものとして解釈されるべきではない。これらの文献の日付に関する全ての記載又は内容に関する表現は、本出願人に利用可能な情報に基づくものであり、これらの文献の日付又は内容の正確性に関するいかなる承認も構成するものではない。

Claims (14)

  1. 関心領域までの距離を決定するためのシステムであって:
    第1視野を有するように構成された第1カメラと;
    該第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラと;
    該第2視野と重なる該第1視野の少なくとも一部の関心領域をユーザに選択させるように構成された制御デバイスと;
    該第1視野における該選択された関心領域の位置を該第2視野における該選択された関心領域の位置と比較することによって、あるロケーションに対する該選択された関心領域の距離を算出するように構成されたプロセッサと;及び
    該プロセッサによって算出された距離の表示を生成するように構成された表示デバイスと
    を含む、前記システム。
  2. 前記第1カメラと前記第2カメラを互いにある距離に保持する筺体をさらに含む、請求項1に記載のシステム。
  3. 前記プロセッサが、前記第1カメラと前記第2カメラの間の距離に基づいて、前記選択された関心領域の距離を算出するように構成されている、請求項2に記載のシステム。
  4. 前記筺体が、該第2視野が前記第1視野の少なくとも一部と重なるように、前記第1カメラと前記第2カメラをある配向に保持する、請求項2に記載のシステム。
  5. 前記表示デバイスが、前記プロセッサによって算出された距離を第3カメラによって生成された画像上に重ねるように構成されたオーバーレイデバイスを含む、請求項1に記載のシステム。
  6. 前記画像が、ビデオ画像を含む、請求項5に記載のシステム。
  7. 前記第1視野が、水平次元及び垂直次元を含み、前記第2視野が、水平次元及び垂直次元を含み;及び
    前記プロセッサが、前記第1視野の水平次元における前記選択された関心領域の位置を前記第2視野の水平次元における前記選択された関心領域の位置と比較することによって、前記ロケーションに対する前記選択された関心領域の距離を算出するようにさらに構成されている、請求項1に記載のシステム。
  8. 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を識別するようにさらに構成されている、請求項1に記載のシステム。
  9. 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記第1視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、請求項1に記載のシステム。
  10. 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、請求項9に記載のシステム。
  11. 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記ロケーションに対する前記選択された関心領域の距離をリアルタイムで算出するように構成されている、請求項10に記載のシステム。
  12. 前記表示デバイスが、前記選択された関心領域を前記第1視野で移動させながら、前記プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイムで重ねるように構成されたオーバーレイデバイスを含む、請求項11に記載のシステム。
  13. 前記制御デバイスが、前記第2視野と重なる前記第1視野の少なくとも一部における複数の関心領域をユーザに選択させるように構成されており;
    前記プロセッサが、前記第1視野における前記複数の選択された関心領域の各々の位置を前記第2視野における前記複数の選択された関心領域の対応するものの位置と比較することによって、あるロケーションに対する前記複数の選択された関心領域の各々の距離を算出するように構成されており;
    前記表示デバイスが、前記複数の選択された関心領域の各々について、前記プロセッサによって算出された距離の表示を生成するように構成されている、請求項1に記載のシステム。
  14. 前記制御デバイスが、前記第1カメラによって生成された前記第1視野の画像を表示するように構成されたタッチスクリーンを含み、前記画像における前記関心領域を表示する前記タッチスクリーンの一部に触れることによって、前記関心領域を前記ユーザに選択させるように構成されている、請求項1に記載のシステム。
JP2017516929A 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス Pending JP2017535755A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020104960A JP7293169B2 (ja) 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/495,862 US9609200B2 (en) 2014-09-24 2014-09-24 Distance measurement device for motion picture camera focus applications
US14/495,862 2014-09-24
PCT/US2015/051598 WO2016049113A1 (en) 2014-09-24 2015-09-23 Distance measurement device for motion picture camera focus applications

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020104960A Division JP7293169B2 (ja) 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス

Publications (2)

Publication Number Publication Date
JP2017535755A true JP2017535755A (ja) 2017-11-30
JP2017535755A5 JP2017535755A5 (ja) 2018-08-30

Family

ID=54252427

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017516929A Pending JP2017535755A (ja) 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス
JP2020104960A Active JP7293169B2 (ja) 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020104960A Active JP7293169B2 (ja) 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス

Country Status (9)

Country Link
US (3) US9609200B2 (ja)
EP (2) EP3451285B1 (ja)
JP (2) JP2017535755A (ja)
KR (1) KR102391828B1 (ja)
CN (1) CN107209943B (ja)
AU (1) AU2015320751B2 (ja)
CA (1) CA2962065C (ja)
NZ (1) NZ730031A (ja)
WO (1) WO2016049113A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
KR102636272B1 (ko) 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
US10936089B2 (en) * 2017-11-08 2021-03-02 Hewlett-Packard Development Company, L.P. Determining locations of electro-optical pens
TWI650530B (zh) * 2018-01-22 2019-02-11 國立臺灣科技大學 檢測系統及其方法
US10739552B2 (en) * 2018-02-21 2020-08-11 Panavision International, L.P. Internally slotted cam for lens system
CN111885295A (zh) * 2018-03-26 2020-11-03 华为技术有限公司 一种拍摄方法、装置与设备
AT521845B1 (de) * 2018-09-26 2021-05-15 Waits Martin Verfahren zur Fokuseinstellung einer Filmkamera
DE102019003510B4 (de) * 2019-05-20 2023-02-23 Florian Maier Verfahren und Vorrichtung zur Steuerung von Motoren im Film- und Broadcastbereich
CN112815911B (zh) * 2020-12-30 2022-01-04 河海大学 基于三目视觉的输电线路交跨距离测量方法
KR20230018069A (ko) * 2021-07-29 2023-02-07 삼성전자주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
JP2608996B2 (ja) * 1991-03-13 1997-05-14 三菱電機株式会社 車両の走行状態記憶装置
JP2012245066A (ja) * 2011-05-25 2012-12-13 Ricoh Co Ltd 撮像装置
JP2013086959A (ja) * 2011-10-21 2013-05-13 Sumitomo Heavy Ind Ltd フォークリフトのフォーク位置決め支援装置および方法
JP2013174510A (ja) * 2012-02-24 2013-09-05 Resonant Systems Inc ステレオカメラユニット及び自動車用モニタシステム
WO2014006832A1 (ja) * 2012-07-02 2014-01-09 パナソニック株式会社 サイズ測定装置及びサイズ測定方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
KR940000019B1 (ko) * 1989-12-25 1994-01-05 미쯔비시 덴끼 가부시기가이샤 거리측정장치
JP2000112019A (ja) 1998-10-08 2000-04-21 Olympus Optical Co Ltd 電子3眼カメラ装置
AU6355799A (en) * 1998-10-28 2000-05-15 Measurement Devices Limited Apparatus and method for obtaining 3d images
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2004312249A (ja) * 2003-04-04 2004-11-04 Olympus Corp カメラ
JP2009522591A (ja) * 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置
US7697724B1 (en) * 2006-05-23 2010-04-13 Hewlett-Packard Development Company, L.P. Displacement determination system and method using separated imaging areas
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP2010093422A (ja) 2008-10-06 2010-04-22 Canon Inc 撮像装置
US8436918B2 (en) 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content
US7933512B2 (en) * 2009-03-24 2011-04-26 Patrick Campbell Stereo camera with controllable pivot point
WO2010127285A2 (en) * 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via media device
KR20110021500A (ko) 2009-08-26 2011-03-04 유지상 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
US8853631B2 (en) * 2009-11-23 2014-10-07 Flir Systems Ab Camera with two visual imaging subsystems for determining parallax and for focusing an infrared imaging subsystem
JP5409483B2 (ja) 2010-03-30 2014-02-05 富士フイルム株式会社 撮像装置
JP2012028915A (ja) 2010-07-21 2012-02-09 Kantatsu Co Ltd 撮像装置
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP5834410B2 (ja) 2011-01-13 2015-12-24 株式会社リコー 撮像装置および撮像方法
JP5594157B2 (ja) 2011-01-14 2014-09-24 株式会社Jvcケンウッド 撮像装置および撮像方法
WO2012176556A1 (ja) * 2011-06-24 2012-12-27 コニカミノルタホールディングス株式会社 対応点探索装置、および距離測定装置
JP5546692B2 (ja) 2011-09-30 2014-07-09 富士フイルム株式会社 撮影装置、撮影方法およびプログラム
KR20130073344A (ko) 2011-12-23 2013-07-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN102609724B (zh) * 2012-02-16 2014-05-14 北京航空航天大学 一种基于双摄像头的周围环境信息提示方法
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP2014044345A (ja) * 2012-08-28 2014-03-13 Ricoh Co Ltd 撮像装置
CN104156946B (zh) * 2014-07-17 2017-04-19 西北工业大学 一种空间绳系机器人抓捕区域内的障碍物检测方法
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
JP6900174B2 (ja) 2016-06-27 2021-07-07 芝浦メカトロニクス株式会社 錠剤印刷装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
JP2608996B2 (ja) * 1991-03-13 1997-05-14 三菱電機株式会社 車両の走行状態記憶装置
JP2012245066A (ja) * 2011-05-25 2012-12-13 Ricoh Co Ltd 撮像装置
JP2013086959A (ja) * 2011-10-21 2013-05-13 Sumitomo Heavy Ind Ltd フォークリフトのフォーク位置決め支援装置および方法
JP2013174510A (ja) * 2012-02-24 2013-09-05 Resonant Systems Inc ステレオカメラユニット及び自動車用モニタシステム
WO2014006832A1 (ja) * 2012-07-02 2014-01-09 パナソニック株式会社 サイズ測定装置及びサイズ測定方法

Also Published As

Publication number Publication date
EP3198864A1 (en) 2017-08-02
CN107209943B (zh) 2021-08-06
CN107209943A (zh) 2017-09-26
US20160088212A1 (en) 2016-03-24
JP2020174361A (ja) 2020-10-22
US9609200B2 (en) 2017-03-28
AU2015320751A1 (en) 2017-04-06
US20170264815A1 (en) 2017-09-14
US10587792B2 (en) 2020-03-10
WO2016049113A1 (en) 2016-03-31
JP7293169B2 (ja) 2023-06-19
AU2015320751B2 (en) 2020-03-12
NZ730031A (en) 2022-02-25
US11494929B2 (en) 2022-11-08
US20200280672A1 (en) 2020-09-03
KR20170086476A (ko) 2017-07-26
EP3451285B1 (en) 2022-11-23
CA2962065A1 (en) 2016-03-31
EP3451285A1 (en) 2019-03-06
KR102391828B1 (ko) 2022-04-27
CA2962065C (en) 2023-11-21

Similar Documents

Publication Publication Date Title
JP7293169B2 (ja) 動画カメラフォーカス用途における距離測定デバイス
US10116922B2 (en) Method and system for automatic 3-D image creation
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
US10178373B2 (en) Stereo yaw correction using autofocus feedback
US20130271579A1 (en) Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones
WO2013146269A1 (ja) 画像撮像装置、画像処理方法およびプログラム
US10229656B2 (en) Image processing apparatus and image processing method to display full-size image of an object
CN102724398B (zh) 图像数据提供方法、组合方法及呈现方法
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
JP2013207745A (ja) 画像撮像装置、画像処理方法およびプログラム
TW201205344A (en) Adjusting system and method for screen, advertisement board including the same
KR20110088275A (ko) 영상 변환 기능을 구비한 이동통신 단말기
KR20200082441A (ko) 촬영영상을 이용한 실내공간 실측 시스템
KR101283825B1 (ko) 3-d 오토-컨버전스 카메라
JP5980541B2 (ja) 撮像装置、及び撮像制御方法
KR20160008666A (ko) 스테레오 카메라 칼리브레이션 시스템 및 스테레오 카메라 칼리브레이션 방법
TW201623918A (zh) 距離估算系統、距離估算方法及電腦可讀取媒體

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200618

C116 Written invitation by the chief administrative judge to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C116

Effective date: 20200721

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200721

C27A Decision to dismiss

Free format text: JAPANESE INTERMEDIATE CODE: C2711

Effective date: 20200908

C032 Notice prior to dismissal

Free format text: JAPANESE INTERMEDIATE CODE: C032

Effective date: 20201006

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201006