JP2017529549A - 画像を取得するシステム及び無人航空機 - Google Patents
画像を取得するシステム及び無人航空機 Download PDFInfo
- Publication number
- JP2017529549A JP2017529549A JP2016554739A JP2016554739A JP2017529549A JP 2017529549 A JP2017529549 A JP 2017529549A JP 2016554739 A JP2016554739 A JP 2016554739A JP 2016554739 A JP2016554739 A JP 2016554739A JP 2017529549 A JP2017529549 A JP 2017529549A
- Authority
- JP
- Japan
- Prior art keywords
- image
- lens module
- view
- field
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 625
- 238000003384 imaging method Methods 0.000 claims abstract description 191
- 238000000034 method Methods 0.000 claims description 344
- 230000004927 fusion Effects 0.000 claims description 59
- 230000008901 benefit Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 description 57
- 230000006854 communication Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 30
- 239000010408 film Substances 0.000 description 17
- 230000008859 change Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282465 Canis Species 0.000 description 1
- 241001481833 Coryphaena hippurus Species 0.000 description 1
- 241000283073 Equus caballus Species 0.000 description 1
- 241000282324 Felis Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000283984 Rodentia Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/17—Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/106—Beam splitting or combining systems for splitting or combining a plurality of identical beams or images, e.g. image replication
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/005—Diaphragms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Lenses (AREA)
- Accessories Of Cameras (AREA)
Abstract
Description
[項目1]
画像を捕捉する方法であって、上記方法は、
光学要素の補助で、光を第1の光線及び第2の光線に分離するステップと、
第1の焦点距離を有する第1のレンズモジュールの補助で、上記第1の光線を焦点に合わせるステップと、
第2の焦点距離を有する第2のレンズモジュールの補助で、上記第2の光線を焦点に合わせるステップであって、上記第2の焦点距離は、上記第1の焦点距離とは異なる、ステップと、
第1のセンサの補助で、上記第1のレンズモジュールによって上記第1のセンサ上で焦点に合わされた上記第1の光線から第1の画像を捕捉するステップと、
第2のセンサの補助で、上記第2のレンズモジュールによって上記第2のセンサ上で焦点に合わされた上記第2の光線から第2の画像を捕捉するステップと
を含む、方法。
[項目2]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目1に記載の方法。
[項目3]
上記第2の視野は、上記第2の視野を覆う、項目2に記載の方法。
[項目4]
上記第1の視野は、上記第2の視野を覆う、項目2に記載の方法。
[項目5]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目1に記載の方法。
[項目6]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目5に記載の方法。
[項目7]
上記第1のレンズモジュールは、広角レンズモジュールを備え、及び上記第2のレンズモジュールは、望遠レンズモジュールを備える、項目5に記載の方法。
[項目8]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目5に記載の方法。
[項目9]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は相互に一致する、項目1に記載の方法。
[項目10]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は垂直である、項目9に記載の方法。
[項目11]
上記光は、上記光学要素の接触の前に単一の開口部を通過する、項目1に記載の方法。
[項目12]
上記第1の画像及び上記第2の画像の中心は一致する、項目1に記載の方法。
[項目13]
上記光学要素は、半透明フィルム反射体である、項目1に記載の方法。
[項目14]
上記光学要素は、ビームスプリッタである、項目1に記載の方法。
[項目15]
上記第1のレンズモジュール及び上記第2のレンズモジュールは各々、主レンズのみを備える、項目1に記載の方法。
[項目16]
上記第1のセンサ及び上記第2のセンサは、同一のタイプのセンサである、項目1に記載の方法。
[項目17]
上記第1のセンサ及び上記第2のセンサは、同一のサイズを有する、項目1に記載の方法。
[項目18]
上記第1のセンサ及び上記第2のセンサ上の各々の画素のサイズは同一である、項目17に記載の方法。
[項目19]
上記第1のセンサ及び上記第2のセンサは異なるタイプのセンサである、項目1に記載の方法。
[項目20]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目1に記載の方法。
[項目21]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目1に記載の方法。
[項目22]
1つ又は複数のプロセッサの補助で、上記第1の画像を上記第2の画像と組み合わせるステップを更に備える、項目1に記載の方法。
[項目23]
1つ又は複数のプロセッサにおいて、所望の焦点距離を受信するステップであって、上記組み合わされた画像は、上記所望の焦点距離に対応する視野を有する、項目22に記載の方法。
[項目24]
上記所望の焦点距離は、所望の視野に対応する、項目23に記載の方法。
[項目25]
上記所望の焦点距離は、上記第1の焦点距離又は上記第2の焦点距離の少なくとも1つ以上である、項目23に記載の方法。
[項目26]
上記第1の画像を上記第2の画像と組み合わせるステップは、
[項目27]
上記第1の画像及び上記第2の画像を拡大縮小するステップは、三次補間アルゴリズム又は双線形補間アルゴリズムを利用する、項目26に記載の方法。
[項目28]
上記第1の画像を上記第2の画像と組み合わせるステップは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップを備える、項目26に記載の方法。
[項目29]
上記組み合わされた画像は、上記所望の焦点距離が上記第1の焦点距離及び上記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、項目28に記載の方法。
[項目30]
上記組み合わされた画像は、融合された部分から構成される内部視野、並びにそのいずれかが、上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときより広い視野を有しているとしても、上記第1の拡大縮小された画像又は上記第2の拡大縮小された画像から構成される外部視野から構成される、項目28に記載の方法。
[項目31]
上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、項目28に記載の方法。
[項目32]
上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像は、画素融合を備える、項目28に記載の方法。
[項目33]
画素融合は、上記第1の拡大縮小された画像の視野及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、項目32に記載の方法。
[項目34]
上記第1のレンズモジュールは、少なくとも1つのレンズを備える、項目1に記載の方法。
[項目35]
上記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、項目34に記載の方法。
[項目36]
上記第2のレンズモジュールは、少なくとも1つのレンズを備える、項目1に記載の方法。
[項目37]
上記第2のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、項目36に記載の方法。
[項目38]
画像を取得するシステムであって、
光を第1の光線及び第2の光線に分離する光学要素と、
上記第1の光線を焦点に合わせ、第1の焦点距離を有する第1のレンズモジュールと、
上記第2の光線を焦点に合わせ、上記第1の焦点距離とは異なる焦点距離を有する第2の焦点距離を有する第2のレンズモジュールと、
上記第1のレンズモジュールによって上記第1のセンサで焦点が合わされた上記第1の光線から第1の画像を取得する第1のセンサと、
上記第2のレンズモジュールによって上記第2のセンサで焦点が合わされた上記第2の光線から第2の画像を取得する第2のセンサと
を備える、システム。
[項目39]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目38に記載のシステム。
[項目40]
上記第2の視野は、上記第2の視野を覆う、項目39に記載のシステム。
[項目41]
上記第1の視野は、上記第2の視野を覆う、項目39に記載のシステム。
[項目42]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目38に記載のシステム。
[項目43]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目42に記載のシステム。
[項目44]
上記第1のレンズモジュールは、広角レンズモジュールを備え、上記第2のレンズモジュールは、望遠レンズモジュールを備える、項目42に記載のシステム。
[項目45]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目42に記載のシステム。
[項目46]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は相互に一致する、項目38に記載のシステム。
[項目47]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は垂直である、項目46に記載のシステム。
[項目48]
上記光は、光学要素との接触の前に単一の開口部を通過する、項目38に記載のシステム。
[項目49]
上記第1の画像及び上記第2の画像の中心は一致する、項目38に記載のシステム。
[項目50]
上記光学要素は、半透明フィルム反射体である、項目38に記載のシステム。
[項目51]
上記光学要素は、ビームスプリッタである、項目38に記載のシステム。
[項目52]
上記第1のレンズモジュール及び上記第2のレンズモジュールは各々、主レンズのみを備える、項目38に記載のシステム。
[項目53]
上記第1のセンサ及び上記第2のセンサは同一のタイプのセンサである、項目38に記載のシステム。
[項目54]
上記第1のセンサ及び上記第2のセンサは同一のサイズを有する、項目38に記載のシステム。
[項目55]
上記第1のセンサ及び上記第2のセンサの各画素のサイズは同一である、項目54に記載のシステム。
[項目56]
上記第1のセンサ及び上記第2のセンサは異なるタイプのセンサである、項目38に記載のシステム。
[項目57]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目38に記載のシステム。
[項目58]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目38に記載のシステム。
[項目59]
1つ又は複数のプロセッサを更に備え、上記1つ又は複数のプロセッサは、上記第1の画像を上記第2の画像と組み合わせる、項目38に記載のシステム。
[項目60]
上記1つ又は複数のプロセッサは、所望の焦点距離を受信し、かつ組み合わされた画像を生成し、上記組み合わされた画像は、上記所望の焦点距離に対応する視野を有する、項目59に記載のシステム。
[項目61]
上記所望の焦点距離は、所望の視野に対応する、項目60に記載のシステム。
[項目62]
上記所望の焦点距離は、上記第1の焦点距離又は上記第2の焦点距離の少なくとも1つ以上である、項目60に記載のシステム。
[項目63]
上記1つ又は複数のプロセッサは、
[項目64]
上記1つ又は複数のプロセッサは、三次補間アルゴリズム又は双線形補間アルゴリズムを利用して、上記第1の画像及び上記第2の画像を拡大縮小する、項目63に記載のシステム。
[項目65]
上記1つ又は複数のプロセッサは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を組み合わせる、項目63に記載のシステム。
[項目66]
上記組み合わされた画像は、上記所望の焦点距離が上記第1の焦点距離及び上記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、項目65に記載のシステム。
[項目67]
上記組み合わされた画像は、融合された部分から構成される内部視野、並びにそのいずれかが、上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときより広い視野を有しているとしても、上記第1の拡大縮小された画像又は上記第2の拡大縮小された画像から構成される外部視野から構成される、項目65に記載のシステム。
[項目68]
上記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を組み合わせる、項目65に記載のシステム。
[項目69]
上記1つ又は複数のプロセッサは、画素融合を介して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を組み合わせる、項目65に記載のシステム。
[項目70]
上記画素融合は、上記第1の拡大縮小された画像の視野及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、項目69に記載のシステム。
[項目71]
上記第1のレンズモジュールは、少なくとも1つのレンズを備える、項目38に記載のシステム。
[項目72]
上記第1のレンズモジュールは、少なくとも1つのレンズを支える鏡筒を備える、項目71に記載のシステム。
[項目73]
上記第2のレンズモジュールは、少なくとも1つのレンズを備える、項目1から項目25の何れか1項に記載のシステム。
[項目74]
上記第2のレンズモジュールは、少なくとも1つのレンズを支える鏡筒を備える、項目73に記載のシステム。
[項目75]
組み合わされた画像を生成する方法であって、上記方法は、
第1のレンズモジュールの補助で、第1の画像を取得するステップと、
第2のレンズモジュールの補助で、第2の画像を取得するステップであって、上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸が一致し、及び垂直である、ステップと、
1つ又は複数のプロセッサにおいて、上記第1の画像を受信するステップと、
1つ又は複数のプロセッサにおいて、上記第2の画像を受信するステップと、
1つ又は複数のプロセッサの補助で、上記第1の画像を上記第2の画像と組み合わせるステップと
を含む、方法。
[項目76]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目75に記載の方法。
[項目77]
上記第1のレンズモジュールは、第1の焦点距離f1を有し、及び上記第2のレンズモジュールは、第2の焦点距離f2を有し、f1はf2よりも長い、項目75に記載の方法。
[項目78]
上記第2のレンズモジュールの視野は、上記第1のレンズモジュールの視野よりも広い、項目77に記載の方法。
[項目79]
1つ又は複数のプロセッサにおいて、所望の焦点距離fを受信するステップを含み、上記組み合わされた画像は、上記所望の焦点距離fに対応する視野を有する、項目77に記載の方法。
[項目80]
上記第1の画像を上記第2の画像と組み合わせるステップは、
[項目81]
上記第1の画像及び上記第2の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、項目80に記載の方法。
[項目82]
上記第1の画像を上記第2の画像と組み合わせるステップは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップを備える、項目81に記載の方法。
[項目83]
上記組み合わされた画像は、fがf1よりも長いときの融合された部分から全体的に構成される、項目82に記載の方法。
[項目84]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときの上記第2の拡大縮小された部分から構成される外部視野から構成される、項目82に記載の方法。
[項目85]
上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、項目82に記載の方法。
[項目86]
上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップは、画素融合を備える、項目82に記載の方法。
[項目87]
画素融合は、上記第1の拡大縮小された画像及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、項目86に記載の方法。
[項目88]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目77に記載の方法。
[項目89]
上記第1のレンズモジュール及び上記第2のレンズモジュールは各々、主レンズのみを備える、項目75に記載の方法。
[項目90]
上記第1の画像は、第1のセンサの補助で取得され、及び上記第2の画像は、第2のセンサの補助で取得される、項目75に記載の方法。
[項目91]
上記第1のセンサは、第1のセンササイズを有し、及び上記第2のセンサは、第2のセンササイズを有し、上記第1のセンササイズは、上記第2のセンササイズよりも大きい、項目90に記載の方法。
[項目92]
上記第1のセンサ上の第1の画素サイズを有する各々の個々の画素は、上記第2のセンサ上の第2の画素サイズを有する各々の個々の画素以上である、項目91に記載の方法。
[項目93]
第1の視野を有する上記第1の画像の視野は、第2の視野を有する上記第2の画像の視野よりも広い、項目92に記載の方法。
[項目94]
上記1つ又は複数のプロセッサにおいて、所望の視野を受信するステップを更に含み、上記組み合わされた画像は、上記所望の視野に対応する視野を有する、項目93に記載の方法。
[項目95]
上記第1の画像を上記第2の画像と組み合わせるステップは、
[項目96]
上記第1の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、項目95に記載の方法。
[項目97]
上記第1の画像を上記第2の画像と組み合わせるステップは、上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップを備える、項目95に記載の方法。
[項目98]
上記組み合わされた画像は、上記所望の視野が上記第1の視野及び上記第2の視野よりも狭いときの融合された部分から全体的に構成される、項目97に記載の方法。
[項目99]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の視野が上記第1の視野と上記第2の視野との間にあるときの上記第1の拡大縮小された画像から構成される外部視野から構成される、項目97に記載の方法。
[項目100]
上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、項目97に記載の方法。
[項目101]
上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップは、画素融合を備える、項目97に記載の方法。
[項目102]
画素融合は、上記第1の拡大縮小された画像及び上記第2の画像の視野が重なるエリアに対して発生する、項目101に記載の方法。
[項目103]
光学視差は、上記第1のレンズの光軸と上記第2のレンズの光軸との間では存在しない、項目75に記載の方法。
[項目104]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目75に記載の方法。
[項目105]
上記組み合わされた画像は、モバイルデバイス上で表示される、項目75に記載の方法。
[項目106]
上記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、項目105に記載の方法。
[項目107]
上記組み合わされた画像は、リアルタイムで表示される、項目105に記載の方法。
[項目108]
組み合わされた画像を生成する撮像システムであって、上記システムは、
第1の画像を取得することを補助するように構成された第1のレンズモジュールと、
第2の画像を取得することを補助するように構成された第2のレンズモジュールであって、上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸が一致し、及び垂直である、第2のレンズモジュールと、
上記第1の画像を受信し、
上記第2の画像を受信し、及び
上記第1の画像を上記第2の画像と組み合わせる、
ように個々に又は集合的に構成された1つ又は複数のプロセッサと
を備えるシステム。
[項目109]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目108に記載のシステム。
[項目110]
上記第1のレンズモジュールは、第1の焦点距離f1を有し、及び上記第2のレンズモジュールは、第2の焦点距離f2を有し、f1はf2よりも長い、項目108に記載のシステム。
[項目111]
上記第2のレンズモジュールの視野は、上記第1のレンズモジュールの視野よりも広い、項目110に記載のシステム。
[項目112]
上記1つ又は複数のプロセッサは、所望の焦点距離fを受信し、及び組み合わされた画像を生成するように構成され、上記組み合わされた画像は、上記所望の焦点距離fに対応する視野を有する、項目110に記載のシステム。
[項目113]
上記1つ又は複数のプロセッサは、
[項目114]
上記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、上記第1の画像及び上記第2の画像を拡大縮小するように構成される、項目113に記載のシステム。
[項目115]
上記1つ又は複数のプロセッサは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるように構成される、項目114に記載のシステム。
[項目116]
上記組み合わされた画像は、fがf1よりも長いときの融合された部分から全体的に構成される、項目115に記載のシステム。
[項目117]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときの上記第2の拡大縮小された画像から構成される外部視野から構成される、項目115に記載のシステム。
[項目118]
上記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるように構成される、項目115に記載のシステム。
[項目119]
上記1つ又は複数のプロセッサは、画素融合を利用して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるように構成される、項目115に記載のシステム。
[項目120]
上記1つ又は複数のプロセッサは、上記第1の拡大縮小された画像の視野及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する画素融合を利用するように構成される、項目119に記載のシステム。
[項目121]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目110に記載のシステム。
[項目122]
上記第1のレンズモジュール及び上記第2のレンズモジュールは各々、主レンズのみを備える、項目108に記載のシステム。
[項目123]
上記第1の画像を取得することを補助するように構成された第1のセンサ、及び上記第2の画像を取得することを補助するように構成された第2のセンサを更に備える、項目108に記載のシステム。
[項目124]
上記第1のセンサは、第1のセンササイズを有し、及び上記第2のセンサは、第2のセンササイズを有し、上記第1のセンササイズは、上記第2のセンササイズよりも大きい、項目123に記載のシステム。
[項目125]
上記第1のセンサ上の第1の画素サイズを有する各々の個々の画素は、上記第2のセンサ上の第2の画素サイズを有する各々の個々の画素以上である、項目124に記載のシステム。
[項目126]
第1の視野を有する上記第1の画像の視野は、第2の視野を有する上記第2の画像の視野よりも広い、項目125に記載のシステム。
[項目127]
上記1つ又は複数のプロセッサは、所望の視野を受信し、及び上記所望の視野に対応する視野を有する組み合わされた画像を生成するように構成される、項目126に記載のシステム。
[項目128]
上記1つ又は複数プロセッサは、
[項目129]
上記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用するように構成される、項目128に記載のシステム。
[項目130]
上記1つ又は複数のプロセッサは、上記第1の拡大縮小された画像及び上記第2の画像を融合させるように構成される、項目128に記載のシステム。
[項目131]
上記組み合わされた画像は、上記所望の視野が上記第1の視野及び上記第2の視野よりも狭いときの融合された部分から全体的に構成される、項目130に記載のシステム。
[項目132]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の視野が上記第1の視野と上記第2の視野との間にあるときの上記第1の拡大縮小された画像から構成される外部視野から構成される、項目130に記載のシステム。
[項目133]
上記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを使用して、上記第1の拡大縮小された画像及び上記第2の画像を融合させるように構成される、項目130に記載のシステム。
[項目134]
上記1つ又は複数プロセッサは、画素融合を介して、上記拡大縮小された第1の画像及び上記第2の画像を融合させるように構成される、項目130に記載のシステム。
[項目135]
画素融合は、上記第1の拡大縮小された画像及び上記第2の画像の視野が重なるエリアに対して発生する、項目134に記載のシステム。
[項目136]
光学視差は、上記第1のレンズの光軸と上記第2のレンズの光軸との間では存在しない、項目108に記載のシステム。
[項目137]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目108に記載のシステム。
[項目138]
上記組み合わされた画像を表示するように構成されたモバイルデバイスを更に備える、項目108に記載のシステム。
[項目139]
上記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、項目138に記載のシステム。
[項目140]
上記組み合わされた画像は、リアルタイムで表示される、項目138に記載のシステム。
[項目141]
可動システムであって、上記可動システムは、
可動プラットフォームと、
上記可動プラットフォーム上で据え付けられるように構成された、項目108に記載の撮像システムと、
上記撮像システムを固定するように構成されたジンバルと
を備える、可動システム。
[項目142]
上記ジンバルは、上記可動プラットフォームに対して上記撮像システムを回転させるように構成される、項目141に記載の可動システム。
[項目143]
画像を捕捉する方法であって、上記方法は、
可動プラットフォームの移動を生じさせるステップと、
撮像デバイスにおいて、光を受信するステップであって、上記撮像デバイスは、光学要素、第1のレンズモジュール、第2のレンズモジュール、第1のセンサ、及び第2のセンサを備える、ステップと、
上記光学要素の補助で、上記光を第1の光線及び第2の光線に分離するステップと、
上記第1のレンズモジュールの補助で、上記第1の光線を焦点に合わせるステップと、
上記第2のレンズモジュールの補助で、上記第2の光線を焦点に合わせるステップと、
上記第1のセンサの補助で、上記第1のレンズモジュールによって上記第1のセンサ上で焦点に合わされた上記第1の光線から第1の画像を捕捉するステップと、
上記第2のセンサの補助で、上記第2のレンズモジュールによって上記第2のセンサ上で焦点に合わされた上記第2の光線から第2の画像を捕捉するステップと
を含む、方法。
[項目144]
上記可動プラットフォームは、無人航空機である、項目143に記載の方法。
[項目145]
上記可動プラットフォームの移動は、1つ又は複数の推進装置の補助で生じる、項目144に記載の方法。
[項目146]
上記第1のレンズモジュールは、第1の焦点距離を有し、及び上記第2のレンズモジュールは、上記第1の焦点距離とは異なる第2の焦点距離を有する、項目143に記載の方法。
[項目147]
上記第1の焦点距離は、第2の焦点距離よりも長い、項目146に記載の方法。
[項目148]
上記第2のレンズモジュールの視野は、上記第1のレンズモジュールの視野よりも広い、項目147に記載の方法。
[項目149]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目147に記載の方法。
[項目150]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目149に記載の方法。
[項目151]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目147に記載の方法。
[項目152]
上記第1のレンズモジュールは、少なくとも1つのレンズを備える、項目151に記載の方法。
[項目153]
上記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、項目152に記載の方法。
[項目154]
上記第1のレンズモジュールは、広角レンズモジュールであり、及び上記第2のレンズは、望遠レンズモジュールである、項目147に記載の方法。
[項目155]
1つ又は複数のプロセッサの補助で、上記第1の画像を上記第2の画像と組み合わせるステップを更に備える、項目146に記載の方法。
[項目156]
1つ又は複数のプロセッサにおいて、所望の焦点距離を受信するステップを更に含み、上記組み合わされた画像は、上記所望の焦点距離に対応する視野を有する、項目155に記載の方法。
[項目157]
上記所望の焦点距離は、上記第1の焦点距離又は上記第2の焦点距離の少なくとも1つ以上である、項目156に記載の方法。
[項目158]
上記組み合わされた画像をモバイルデバイス上に表示するステップを更に備える、項目156に記載の方法。
[項目159]
上記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、項目158に記載の方法。
[項目160]
上記組み合わされた画像は、リアルタイムで表示される、項目158に記載の方法。
[項目161]
上記第1の画像を上記第2の画像と組み合わせるステップは、
[項目162]
上記第1の画像及び上記第2の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、項目161に記載の方法。
[項目163]
上記第1の画像を上記第2の画像と組み合わせるステップは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップを備える、項目161に記載の方法。
[項目164]
上記組み合わされた画像は、上記所望の焦点距離が上記第1の焦点距離及び上記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、項目163に記載の方法。
[項目165]
上記組み合わされた画像は、融合された部分から構成される内部視野、及びそのいずれかが上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときより広い視野を有しているとしても、上記第1の拡大縮小された画像又は上記第2の拡大縮小された画像から構成される外部視野から構成される、項目163に記載の方法。
[項目166]
上記拡大縮小された第1の画像及び拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、項目163に記載の方法。
[項目167]
上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるステップは、画素融合を備える、項目163に記載の方法。
[項目168]
画素融合は、上記第1の拡大縮小された画像の視野及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、項目167に記載の方法。
[項目169]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は一致する、項目143に記載の方法。
[項目170]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は垂直である、項目169に記載の方法。
[項目171]
上記光は、光学要素との接触の前に単一の開口部を通過する、項目143に記載の方法。
[項目172]
上記第1の画像及び上記第2の画像の中心は一致する、項目143に記載の方法。
[項目173]
上記光学要素は、半透明フィルム反射体である、項目143に記載の方法。
[項目174]
上記光学要素は、ビームスプリッタである、項目143に記載の方法。
[項目175]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、主レンズのみを備える、項目143に記載の方法。
[項目176]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目143に記載の方法。
[項目177]
上記第1のセンサ及び第2のセンサは、同一のタイプのセンサである、項目143に記載の方法。
[項目178]
上記第1のセンサ及び上記第2のセンサは、異なるタイプのセンサである、項目143に記載の方法。
[項目179]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目143に記載の方法。
[項目180]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目143に記載の方法。
[項目181]
上記撮像デバイスをジンバルで上記可動プラットフォームに据え付けるステップを更に備える、項目143に記載の方法。
[項目182]
上記ジンバルは、上記撮像デバイスを固定するように構成される、項目181に記載の方法。
[項目183]
上記ジンバルは、上記可動プラットフォームに対して上記撮像デバイスを回転させるように構成される、項目181に記載の方法。
[項目184]
画像を捕捉するシステムであって、上記システムは、
可動プラットフォームと、
光を受信するように構成された、可動プラットフォーム上に据え付けられた撮像デバイスであって、上記撮像デバイスは、
上記光を第1の光線及び第2の光線に分離するように構成された光学要素と、
上記第1の光線を焦点に合わせるように構成された第1のレンズモジュールと、
上記第2の光線を焦点に合わせるように構成された第2のレンズモジュールと、
上記第1のレンズモジュールによって上記第1のセンサ上で焦点に合わされた上記第1の光線から第1の画像を捕捉するように構成された第1のセンサと、
上記第2のレンズモジュールによって上記第2のセンサ上で焦点に合わされた上記第2の光線から第2の画像を捕捉するように構成された第2のセンサと
を備える、撮像デバイスと
を備える、システム。
[項目185]
上記可動プラットフォームは、無人航空機である、項目184に記載のシステム。
[項目186]
上記可動プラットフォームの移動は、1つ又は複数の推進装置の補助で生じる、項目185に記載のシステム。
[項目187]
上記第1のレンズモジュールは、第1の焦点距離を有し、及び上記第2のレンズモジュールは、上記第1の焦点距離とは異なる第2の焦点距離を有する、項目184に記載のシステム。
[項目188]
上記第1の焦点距離は、第2の焦点距離よりも長い、項目187に記載のシステム。
[項目189]
上記第2のレンズモジュールの視野は、上記第1のレンズモジュールの視野よりも広い、項目188に記載のシステム。
[項目190]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目188に記載のシステム。
[項目191]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目190に記載のシステム。
[項目192]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目188に記載のシステム。
[項目193]
上記第1のレンズモジュールは、少なくとも1つのレンズを備える、項目192に記載のシステム。
[項目194]
上記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、項目193に記載のシステム。
[項目195]
上記第1のレンズモジュールは、広角レンズモジュールであり、及び上記第2のレンズは、望遠レンズモジュールである、項目188に記載のシステム。
[項目196]
1つ又は複数のプロセッサを更に備え、上記1つ又は複数のプロセッサは、上記第1の画像を上記第2の画像と組み合わせるように構成される、項目187に記載のシステム。
[項目197]
上記1つ又は複数のプロセッサは、所望の焦点距離を受信し、及び上記所望の焦点距離に対応する視野を有する組み合わされた画像を生成するように構成される、項目196に記載のシステム。
[項目198]
上記所望の焦点距離は、上記第1の焦点距離又は上記第2の焦点距離の少なくとも1つ以上である、項目197に記載のシステム。
[項目199]
上記組み合わされた画像を表示するように構成されたモバイルデバイスを更に備える、項目197に記載のシステム。
[項目200]
上記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、項目199に記載のシステム。
[項目201]
上記組み合わされた画像は、リアルタイムで表示される、項目199に記載のシステム。
[項目202]
上記1つ又は複数のプロセッサは、
[項目203]
上記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、上記第1の画像及び上記第2の画像を拡大縮小するように構成される、項目202に記載のシステム。
[項目204]
上記1つ又は複数のプロセッサは、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させて、上記組み合わされた画像を生成するように構成される、項目202に記載のシステム。
[項目205]
上記組み合わされた画像は、上記所望の焦点距離が上記第1の焦点距離及び上記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、項目204に記載のシステム。
[項目206]
上記組み合わされた画像は、融合された部分から構成される内部視野、及びそのいずれかが上記所望の焦点距離が上記第1の焦点距離と上記第2の焦点距離との間にあるときより広い視野を有しているとしても、上記第1の拡大縮小された画像又は上記第2の拡大縮小された画像から構成される外部視野から構成される、項目204に記載のシステム。
[項目207]
上記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるように構成される、項目204に記載のシステム。
[項目208]
上記1つ又は複数のプロセッサは、画素融合を介して、上記拡大縮小された第1の画像及び上記拡大縮小された第2の画像を融合させるように構成される、項目204に記載のシステム。
[項目209]
画素融合は、上記第1の拡大縮小された画像の視野及び上記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、項目208に記載のシステム。
[項目210]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は一致する、項目184に記載のシステム。
[項目211]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は垂直である、項目210に記載のシステム。
[項目212]
上記光は、上記光学要素との接触前に単一の開口部を通過する、項目184に記載のシステム。
[項目213]
上記第1の画像及び上記第2の画像の中心は一致する、項目184に記載のシステム。
[項目214]
上記光学要素は、半透明フィルム反射体である、項目184に記載のシステム。
[項目215]
上記光学要素は、ビームスプリッタである、項目184に記載のシステム。
[項目216]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、主レンズのみを備える、項目184に記載のシステム。
[項目217]
上記第1のレンズモジュールは、望遠レンズモジュールであり、及び上記第2のレンズモジュールは、広角レンズモジュールである、項目184に記載のシステム。
[項目218]
上記第1のセンサ及び上記第2のセンサは、同一のタイプのセンサである、項目184に記載のシステム。
[項目219]
上記第1のセンサ及び上記第2のセンサは、異なるタイプのセンサである、項目184に記載のシステム。
[項目220]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目184に記載のシステム。
[項目221]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目184に記載のシステム。
[項目222]
上記撮像デバイスを上記可動プラットフォームに据え付けるように構成されたジンバルを更に備える、項目184に記載のシステム。
[項目223]
上記ジンバルは、上記撮像デバイスを固定するように構成される、項目222に記載のシステム。
[項目224]
上記ジンバルは、上記可動プラットフォームに対して上記撮像デバイスを回転させるように構成される、項目222に記載のシステム。
[項目225]
画像を捕捉する方法であって、上記方法は、
光学要素の補助で、光を第1の光線及び第2の光線に分離するステップと、
第1のレンズモジュールの補助で、上記第1の光線を焦点に合わせるステップと、
第2のレンズモジュールの補助で、上記第2の光線を焦点に合わせるステップと、
第1のセンサの補助で、上記第1のレンズモジュールによって上記第1のセンサ上で焦点に合わされた上記第1の光線から第1の画像を捕捉するステップであって、上記第1のセンサは、第1のセンササイズを有する、ステップと、
第2のセンサの補助で、上記第2のレンズモジュールによって上記第2のセンサ上で焦点に合わされた上記第2の光線から第2の画像を捕捉するステップであって、上記第2のセンサは、上記第1のサイズとは異なる第2のセンササイズを有する、ステップと
を含む、方法。
[項目226]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目225に記載の方法。
[項目227]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目225に記載の方法。
[項目228]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目227に記載の方法。
[項目229]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、同一の焦点距離を有する、項目225に記載の方法。
[項目230]
上記第1のセンササイズは、第2のセンササイズよりも大きい、項目225に記載の方法。
[項目231]
上記第1のセンサ上の各々の個々の画素は、上記第2のセンサ上の各々の個々の画素以上である、項目230に記載の方法。
[項目232]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は一致する、項目225に記載の方法。
[項目233]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は垂直である、項目232に記載の方法。
[項目234]
上記光は、光学要素との接触の前に単一の開口部を通過する、項目225に記載の方法。
[項目235]
上記第1の画像及び上記第2の画像の中心は一致する、項目225に記載の方法。
[項目236]
上記光学要素は、半透明フィルム反射体である、項目225に記載の方法。
[項目237]
上記光学要素は、ビームスプリッタである、項目225に記載の方法。
[項目238]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、主レンズのみを備える、項目225に記載の方法。
[項目239]
上記第1のセンサ及び上記第2のセンサは、同一のタイプのセンサである、項目225に記載の方法。
[項目240]
上記第1のセンサ及び上記第2のセンサは、異なるタイプのセンサである、項目225に記載の方法。
[項目241]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目225に記載の方法。
[項目242]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目225に記載の方法。
[項目243]
1つ又は複数のプロセッサの補助で、上記第1の画像を上記第2の画像と組み合わせるステップを更に備える、項目225に記載の方法。
[項目244]
1つ又は複数のプロセッサにおいて、所望の視野を受信するステップを含み、上記組み合わされた画像は、上記所望の視野に対応する組み合わされた視野を有する、項目243に記載の方法。
[項目245]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目244に記載の方法。
[項目246]
上記所望の視野は、上記第1の視野又は上記第2の視野の少なくとも1つと同じ、又はそれよりも狭い、項目245に記載の方法。
[項目247]
上記第1のセンサのサイズは、上記第2のセンササイズよりも大きい、項目245に記載の方法。
[項目248]
上記第1の視野は、上記第2の視野よりも広い、項目247に記載の方法。
[項目249]
上記第1のセンサは、第1の画素サイズを有する画素を備え、及び上記第2のセンサは、第2の画素サイズを有する画素を備え、上記第1の画素サイズは、上記第2の画素サイズ以上である、項目247に記載の方法。
[項目250]
上記第1の画像を上記第2の画像と組み合わせるステップは、
[項目251]
上記第1の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、項目250に記載の方法。
[項目252]
上記第1の画像を上記第2の画像と組み合わせるステップは、上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップを備える、項目250に記載の方法。
[項目253]
上記組み合わされた画像は、上記所望の焦点視野が上記第1の視野及び上記第2の視野よりも狭いときの融合された部分から全体的に構成される、項目252に記載の方法。
[項目254]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の視野が上記第1の視野と上記第2の視野との間にあるときの上記第1の拡大縮小された画像から構成される外部視野から構成される、項目252に記載の方法。
[項目255]
上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、項目252に記載の方法。
[項目256]
上記拡大縮小された第1の画像及び上記第2の画像を融合させるステップは、画素融合を備える、項目252に記載の方法。
[項目257]
画素融合は、上記第1の拡大縮小された画像及び上記第2の拡大縮小された画像が重なるエリアに対して発生する、項目256に記載の方法。
[項目258]
上記融合された画像を所望のサイズに拡大縮小するステップを更に備える、項目252に記載の方法。
[項目259]
画像を捕捉する撮像システムであって、上記システムは、
光を第1の光線及び第2の光線に分離するように構成された光学要素と、
第1の光線を焦点に合わせるように構成された第1のレンズモジュールと、
第2の光線を焦点に合わせるように構成された第2のレンズモジュールと、
上記第1のレンズモジュールによって第1のセンサ上で焦点に合わされた上記第1の光線から第1の画像を捕捉するように構成された第1のセンサであって、上記第1のセンサは、第1のセンササイズを有する、第1のセンサと、
上記第2のレンズモジュールによって第2のセンサ上で焦点に合わされた上記第2の光線から第2の画像を捕捉するように構成された第2のセンサであって、上記第2のセンサは、上記第1のセンササイズとは異なる第2のセンササイズを有する、第2のセンサと
を備える、システム。
[項目260]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目259に記載のシステム。
[項目261]
上記第1の光線は、上記光の反射された部分であり、及び上記第2の光線は、上記光の屈折された部分である、項目259に記載のシステム。
[項目262]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、項目261に記載のシステム。
[項目263]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、同一の焦点距離を有する、項目259に記載のシステム。
[項目264]
上記第1のセンササイズは、上記第2のセンササイズよりも大きい、項目259に記載のシステム。
[項目265]
上記第1のセンサ上の各々の個々の画素は、上記第2のセンサ上の各々の個々の画素以上である、項目264に記載のシステム。
[項目266]
上記第1のレンズモジュールの光軸及び上記第2のレンズモジュールの光軸は一致する、項目259に記載のシステム。
[項目267]
上記第1のレンズモジュールの上記光軸及び上記第2のレンズモジュールの上記光軸は垂直である、項目266に記載のシステム。
[項目268]
上記光は、上記光学要素との接触の前に単一の開口部を通過する、項目259に記載のシステム。
[項目269]
上記第1の画像及び上記第2の画像の中心は一致する、項目259に記載のシステム。
[項目270]
上記光学要素は、半透明フィルム反射体である、項目259に記載のシステム。
[項目271]
上記光学要素は、ビームスプリッタである、項目259に記載のシステム。
[項目272]
上記第1のレンズモジュール及び上記第2のレンズモジュールは、主レンズのみを備える、項目259に記載のシステム。
[項目273]
上記第1のセンサ及び上記第2のセンサは、同一のタイプのセンサである、項目259に記載のシステム。
[項目274]
上記第1のセンサ及び上記第2のセンサは、異なるタイプのセンサである、項目259に記載のシステム。
[項目275]
光学視差は、上記第1のレンズモジュールの光軸と上記第2のレンズモジュールの光軸との間では存在しない、項目259に記載のシステム。
[項目276]
視差は、上記第1の画像と上記第2の画像との間では存在しない、項目259に記載のシステム。
[項目277]
1つ又は複数のプロセッサを更に備え、上記1つ又は複数のプロセッサは、上記第1の画像を上記第2の画像と組み合わせるように構成される、項目259に記載のシステム。
[項目278]
上記1つ又は複数のプロセッサは、所望の視野を受信し、及び組み合わされた画像を生成するように構成され、上記組み合わされた画像は、上記所望の視野に対応する組み合わされた視野を有する、項目277に記載のシステム。
[項目279]
上記第1の画像は、第1の視野を有し、及び上記第2の画像は、上記第1の視野とは異なる第2の視野を有する、項目278に記載のシステム。
[項目280]
上記所望の視野は、上記第1の視野又は上記第2の視野の少なくとも1つと同じ、またはそれよりも狭い、項目279に記載のシステム。
[項目281]
上記第1のセンササイズは、上記第2のセンササイズよりも大きい、項目279に記載のシステム。
[項目282]
上記第1の視野は、上記第2の視野よりも広い、項目281に記載のシステム。
[項目283]
上記第1のセンサは、第1の画素サイズを有する画素を備え、及び上記第2のセンサは、第2の画素サイズを有する画素を備え、上記第1の画素サイズは、上記第2の画素サイズ以上である、項目281に記載のシステム。
[項目284]
上記1つ又は複数のプロセッサは、
[項目285]
上記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、上記第1の画像を拡大縮小するように構成される、項目284に記載のシステム。
[項目286]
上記1つ又は複数のプロセッサは、上記拡大縮小された第1の画像及び上記第2の画像を融合させて、上記組み合わされた画像を生成するように構成される、項目284に記載のシステム。
[項目287]
上記組み合わされた画像は、上記所望の焦点視野が上記第1の視野及び上記第2の視野よりも狭いときの融合された部分から全体的に構成される、項目286に記載のシステム。
[項目288]
上記組み合わされた画像は、融合された部分から構成される内部視野、及び上記所望の視野が上記第1の視野と上記第2の視野との間にあるときの上記第1の拡大縮小された画像から構成される外部視野から構成される、項目286に記載のシステム。
[項目289]
上記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、上記拡大縮小された第1の画像及び上記第2の画像を融合させるように構成される、項目286に記載のシステム。
[項目290]
上記1つ又は複数のプロセッサは、画素融合を介して、上記拡大縮小された第1の画像及び上記第2の画像を融合させるように構成される、項目286に記載のシステム。
[項目291]
画素融合は、上記第1の拡大縮小された画像及び上記第2の拡大縮小された画像が重なるエリアに対して発生する、項目290に記載のシステム。
[項目292]
上記1つ又は複数のプロセッサは、上記組み合わされた画像を所望のサイズに拡大縮小するように構成される、項目286に記載のシステム。
[項目293]
可動システムであって、上記可動システムは、
可動プラットフォームと、
上記可動プラットフォーム上に据え付けられるように構成された、項目259に記載の撮像システムと、
上記撮像システムを固定するように構成されたジンバルと
を備える、可動システム。
[項目294]
上記ジンバルは、上記可動プラットフォームに対して、上記撮像システムを回転させるように構成される、項目293に記載の可動システム。
Claims (294)
- 画像を捕捉する方法であって、前記方法は、
光学要素の補助で、光を第1の光線及び第2の光線に分離するステップと、
第1の焦点距離を有する第1のレンズモジュールの補助で、前記第1の光線を焦点に合わせるステップと、
第2の焦点距離を有する第2のレンズモジュールの補助で、前記第2の光線を焦点に合わせるステップであって、前記第2の焦点距離は、前記第1の焦点距離とは異なる、ステップと、
第1のセンサの補助で、前記第1のレンズモジュールによって前記第1のセンサ上で焦点に合わされた前記第1の光線から第1の画像を捕捉するステップと、
第2のセンサの補助で、前記第2のレンズモジュールによって前記第2のセンサ上で焦点に合わされた前記第2の光線から第2の画像を捕捉するステップと
を含む、方法。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項1に記載の方法。
- 前記第2の視野は、前記第2の視野を覆う、請求項2に記載の方法。
- 前記第1の視野は、前記第2の視野を覆う、請求項2に記載の方法。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項1に記載の方法。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項5に記載の方法。
- 前記第1のレンズモジュールは、広角レンズモジュールを備え、及び前記第2のレンズモジュールは、望遠レンズモジュールを備える、請求項5に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項5に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は相互に一致する、請求項1に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は垂直である、請求項9に記載の方法。
- 前記光は、前記光学要素の接触の前に単一の開口部を通過する、請求項1に記載の方法。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項1に記載の方法。
- 前記光学要素は、半透明フィルム反射体である、請求項1に記載の方法。
- 前記光学要素は、ビームスプリッタである、請求項1に記載の方法。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは各々、主レンズのみを備える、請求項1に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは、同一のタイプのセンサである、請求項1に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは、同一のサイズを有する、請求項1に記載の方法。
- 前記第1のセンサ及び前記第2のセンサ上の各々の画素のサイズは同一である、請求項17に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは異なるタイプのセンサである、請求項1に記載の方法。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項1に記載の方法。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項1に記載の方法。
- 1つ又は複数のプロセッサの補助で、前記第1の画像を前記第2の画像と組み合わせるステップを更に備える、請求項1に記載の方法。
- 1つ又は複数のプロセッサにおいて、所望の焦点距離を受信するステップであって、前記組み合わされた画像は、前記所望の焦点距離に対応する視野を有する、請求項22に記載の方法。
- 前記所望の焦点距離は、所望の視野に対応する、請求項23に記載の方法。
- 前記所望の焦点距離は、前記第1の焦点距離又は前記第2の焦点距離の少なくとも1つ以上である、請求項23に記載の方法。
- 前記第1の画像及び前記第2の画像を拡大縮小するステップは、三次補間アルゴリズム又は双線形補間アルゴリズムを利用する、請求項26に記載の方法。
- 前記第1の画像を前記第2の画像と組み合わせるステップは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップを備える、請求項26に記載の方法。
- 前記組み合わされた画像は、前記所望の焦点距離が前記第1の焦点距離及び前記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、請求項28に記載の方法。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、並びにそのいずれかが、前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときより広い視野を有しているとしても、前記第1の拡大縮小された画像又は前記第2の拡大縮小された画像から構成される外部視野から構成される、請求項28に記載の方法。
- 前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、請求項28に記載の方法。
- 前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像は、画素融合を備える、請求項28に記載の方法。
- 画素融合は、前記第1の拡大縮小された画像の視野及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、請求項32に記載の方法。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを備える、請求項1に記載の方法。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、請求項34に記載の方法。
- 前記第2のレンズモジュールは、少なくとも1つのレンズを備える、請求項1に記載の方法。
- 前記第2のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、請求項36に記載の方法。
- 画像を取得するシステムであって、
光を第1の光線及び第2の光線に分離する光学要素と、
前記第1の光線を焦点に合わせ、第1の焦点距離を有する第1のレンズモジュールと、
前記第2の光線を焦点に合わせ、前記第1の焦点距離とは異なる焦点距離を有する第2の焦点距離を有する第2のレンズモジュールと、
前記第1のレンズモジュールによって前記第1のセンサで焦点が合わされた前記第1の光線から第1の画像を取得する第1のセンサと、
前記第2のレンズモジュールによって前記第2のセンサで焦点が合わされた前記第2の光線から第2の画像を取得する第2のセンサと
を備える、システム。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項38に記載のシステム。
- 前記第2の視野は、前記第2の視野を覆う、請求項39に記載のシステム。
- 前記第1の視野は、前記第2の視野を覆う、請求項39に記載のシステム。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項38に記載のシステム。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項42に記載のシステム。
- 前記第1のレンズモジュールは、広角レンズモジュールを備え、前記第2のレンズモジュールは、望遠レンズモジュールを備える、請求項42に記載のシステム。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項42に記載のシステム。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は相互に一致する、請求項38に記載のシステム。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は垂直である、請求項46に記載のシステム。
- 前記光は、光学要素との接触の前に単一の開口部を通過する、請求項38に記載のシステム。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項38に記載のシステム。
- 前記光学要素は、半透明フィルム反射体である、請求項38に記載のシステム。
- 前記光学要素は、ビームスプリッタである、請求項38に記載のシステム。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは各々、主レンズのみを備える、請求項38に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは同一のタイプのセンサである、請求項38に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは同一のサイズを有する、請求項38に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサの各画素のサイズは同一である、請求項54に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは異なるタイプのセンサである、請求項38に記載のシステム。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項38に記載のシステム。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項38に記載のシステム。
- 1つ又は複数のプロセッサを更に備え、前記1つ又は複数のプロセッサは、前記第1の画像を前記第2の画像と組み合わせる、請求項38に記載のシステム。
- 前記1つ又は複数のプロセッサは、所望の焦点距離を受信し、かつ組み合わされた画像を生成し、前記組み合わされた画像は、前記所望の焦点距離に対応する視野を有する、請求項59に記載のシステム。
- 前記所望の焦点距離は、所望の視野に対応する、請求項60に記載のシステム。
- 前記所望の焦点距離は、前記第1の焦点距離又は前記第2の焦点距離の少なくとも1つ以上である、請求項60に記載のシステム。
- 前記1つ又は複数のプロセッサは、三次補間アルゴリズム又は双線形補間アルゴリズムを利用して、前記第1の画像及び前記第2の画像を拡大縮小する、請求項63に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を組み合わせる、請求項63に記載のシステム。
- 前記組み合わされた画像は、前記所望の焦点距離が前記第1の焦点距離及び前記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、請求項65に記載のシステム。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、並びにそのいずれかが、前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときより広い視野を有しているとしても、前記第1の拡大縮小された画像又は前記第2の拡大縮小された画像から構成される外部視野から構成される、請求項65に記載のシステム。
- 前記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を組み合わせる、請求項65に記載のシステム。
- 前記1つ又は複数のプロセッサは、画素融合を介して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を組み合わせる、請求項65に記載のシステム。
- 前記画素融合は、前記第1の拡大縮小された画像の視野及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、請求項69に記載のシステム。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを備える、請求項38に記載のシステム。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを支える鏡筒を備える、請求項71に記載のシステム。
- 前記第2のレンズモジュールは、少なくとも1つのレンズを備える、請求項1から請求項25の何れか1項に記載のシステム。
- 前記第2のレンズモジュールは、少なくとも1つのレンズを支える鏡筒を備える、請求項73に記載のシステム。
- 組み合わされた画像を生成する方法であって、前記方法は、
第1のレンズモジュールの補助で、第1の画像を取得するステップと、
第2のレンズモジュールの補助で、第2の画像を取得するステップであって、前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸が一致し、及び垂直である、ステップと、
1つ又は複数のプロセッサにおいて、前記第1の画像を受信するステップと、
1つ又は複数のプロセッサにおいて、前記第2の画像を受信するステップと、
1つ又は複数のプロセッサの補助で、前記第1の画像を前記第2の画像と組み合わせるステップと
を含む、方法。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項75に記載の方法。
- 前記第1のレンズモジュールは、第1の焦点距離f1を有し、及び前記第2のレンズモジュールは、第2の焦点距離f2を有し、f1はf2よりも長い、請求項75に記載の方法。
- 前記第2のレンズモジュールの視野は、前記第1のレンズモジュールの視野よりも広い、請求項77に記載の方法。
- 1つ又は複数のプロセッサにおいて、所望の焦点距離fを受信するステップを含み、前記組み合わされた画像は、前記所望の焦点距離fに対応する視野を有する、請求項77に記載の方法。
- 前記第1の画像及び前記第2の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、請求項80に記載の方法。
- 前記第1の画像を前記第2の画像と組み合わせるステップは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップを備える、請求項81に記載の方法。
- 前記組み合わされた画像は、fがf1よりも長いときの融合された部分から全体的に構成される、請求項82に記載の方法。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときの前記第2の拡大縮小された部分から構成される外部視野から構成される、請求項82に記載の方法。
- 前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、請求項82に記載の方法。
- 前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップは、画素融合を備える、請求項82に記載の方法。
- 画素融合は、前記第1の拡大縮小された画像及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、請求項86に記載の方法。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項77に記載の方法。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは各々、主レンズのみを備える、請求項75に記載の方法。
- 前記第1の画像は、第1のセンサの補助で取得され、及び前記第2の画像は、第2のセンサの補助で取得される、請求項75に記載の方法。
- 前記第1のセンサは、第1のセンササイズを有し、及び前記第2のセンサは、第2のセンササイズを有し、前記第1のセンササイズは、前記第2のセンササイズよりも大きい、請求項90に記載の方法。
- 前記第1のセンサ上の第1の画素サイズを有する各々の個々の画素は、前記第2のセンサ上の第2の画素サイズを有する各々の個々の画素以上である、請求項91に記載の方法。
- 第1の視野を有する前記第1の画像の視野は、第2の視野を有する前記第2の画像の視野よりも広い、請求項92に記載の方法。
- 前記1つ又は複数のプロセッサにおいて、所望の視野を受信するステップを更に含み、前記組み合わされた画像は、前記所望の視野に対応する視野を有する、請求項93に記載の方法。
- 前記第1の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、請求項95に記載の方法。
- 前記第1の画像を前記第2の画像と組み合わせるステップは、前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップを備える、請求項95に記載の方法。
- 前記組み合わされた画像は、前記所望の視野が前記第1の視野及び前記第2の視野よりも狭いときの融合された部分から全体的に構成される、請求項97に記載の方法。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の視野が前記第1の視野と前記第2の視野との間にあるときの前記第1の拡大縮小された画像から構成される外部視野から構成される、請求項97に記載の方法。
- 前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、請求項97に記載の方法。
- 前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップは、画素融合を備える、請求項97に記載の方法。
- 画素融合は、前記第1の拡大縮小された画像及び前記第2の画像の視野が重なるエリアに対して発生する、請求項101に記載の方法。
- 光学視差は、前記第1のレンズの光軸と前記第2のレンズの光軸との間では存在しない、請求項75に記載の方法。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項75に記載の方法。
- 前記組み合わされた画像は、モバイルデバイス上で表示される、請求項75に記載の方法。
- 前記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、請求項105に記載の方法。
- 前記組み合わされた画像は、リアルタイムで表示される、請求項105に記載の方法。
- 組み合わされた画像を生成する撮像システムであって、前記システムは、
第1の画像を取得することを補助するように構成された第1のレンズモジュールと、
第2の画像を取得することを補助するように構成された第2のレンズモジュールであって、前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸が一致し、及び垂直である、第2のレンズモジュールと、
前記第1の画像を受信し、
前記第2の画像を受信し、及び
前記第1の画像を前記第2の画像と組み合わせる、
ように個々に又は集合的に構成された1つ又は複数のプロセッサと
を備えるシステム。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項108に記載のシステム。
- 前記第1のレンズモジュールは、第1の焦点距離f1を有し、及び前記第2のレンズモジュールは、第2の焦点距離f2を有し、f1はf2よりも長い、請求項108に記載のシステム。
- 前記第2のレンズモジュールの視野は、前記第1のレンズモジュールの視野よりも広い、請求項110に記載のシステム。
- 前記1つ又は複数のプロセッサは、所望の焦点距離fを受信し、及び組み合わされた画像を生成するように構成され、前記組み合わされた画像は、前記所望の焦点距離fに対応する視野を有する、請求項110に記載のシステム。
- 前記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、前記第1の画像及び前記第2の画像を拡大縮小するように構成される、請求項113に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるように構成される、請求項114に記載のシステム。
- 前記組み合わされた画像は、fがf1よりも長いときの融合された部分から全体的に構成される、請求項115に記載のシステム。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときの前記第2の拡大縮小された画像から構成される外部視野から構成される、請求項115に記載のシステム。
- 前記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるように構成される、請求項115に記載のシステム。
- 前記1つ又は複数のプロセッサは、画素融合を利用して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるように構成される、請求項115に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記第1の拡大縮小された画像の視野及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する画素融合を利用するように構成される、請求項119に記載のシステム。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項110に記載のシステム。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは各々、主レンズのみを備える、請求項108に記載のシステム。
- 前記第1の画像を取得することを補助するように構成された第1のセンサ、及び前記第2の画像を取得することを補助するように構成された第2のセンサを更に備える、請求項108に記載のシステム。
- 前記第1のセンサは、第1のセンササイズを有し、及び前記第2のセンサは、第2のセンササイズを有し、前記第1のセンササイズは、前記第2のセンササイズよりも大きい、請求項123に記載のシステム。
- 前記第1のセンサ上の第1の画素サイズを有する各々の個々の画素は、前記第2のセンサ上の第2の画素サイズを有する各々の個々の画素以上である、請求項124に記載のシステム。
- 第1の視野を有する前記第1の画像の視野は、第2の視野を有する前記第2の画像の視野よりも広い、請求項125に記載のシステム。
- 前記1つ又は複数のプロセッサは、所望の視野を受信し、及び前記所望の視野に対応する視野を有する組み合わされた画像を生成するように構成される、請求項126に記載のシステム。
- 前記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用するように構成される、請求項128に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記第1の拡大縮小された画像及び前記第2の画像を融合させるように構成される、請求項128に記載のシステム。
- 前記組み合わされた画像は、前記所望の視野が前記第1の視野及び前記第2の視野よりも狭いときの融合された部分から全体的に構成される、請求項130に記載のシステム。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の視野が前記第1の視野と前記第2の視野との間にあるときの前記第1の拡大縮小された画像から構成される外部視野から構成される、請求項130に記載のシステム。
- 前記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを使用して、前記第1の拡大縮小された画像及び前記第2の画像を融合させるように構成される、請求項130に記載のシステム。
- 前記1つ又は複数プロセッサは、画素融合を介して、前記拡大縮小された第1の画像及び前記第2の画像を融合させるように構成される、請求項130に記載のシステム。
- 画素融合は、前記第1の拡大縮小された画像及び前記第2の画像の視野が重なるエリアに対して発生する、請求項134に記載のシステム。
- 光学視差は、前記第1のレンズの光軸と前記第2のレンズの光軸との間では存在しない、請求項108に記載のシステム。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項108に記載のシステム。
- 前記組み合わされた画像を表示するように構成されたモバイルデバイスを更に備える、請求項108に記載のシステム。
- 前記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、請求項138に記載のシステム。
- 前記組み合わされた画像は、リアルタイムで表示される、請求項138に記載のシステム。
- 可動システムであって、前記可動システムは、
可動プラットフォームと、
前記可動プラットフォーム上で据え付けられるように構成された、請求項108に記載の撮像システムと、
前記撮像システムを固定するように構成されたジンバルと
を備える、可動システム。 - 前記ジンバルは、前記可動プラットフォームに対して前記撮像システムを回転させるように構成される、請求項141に記載の可動システム。
- 画像を捕捉する方法であって、前記方法は、
可動プラットフォームの移動を生じさせるステップと、
撮像デバイスにおいて、光を受信するステップであって、前記撮像デバイスは、光学要素、第1のレンズモジュール、第2のレンズモジュール、第1のセンサ、及び第2のセンサを備える、ステップと、
前記光学要素の補助で、前記光を第1の光線及び第2の光線に分離するステップと、
前記第1のレンズモジュールの補助で、前記第1の光線を焦点に合わせるステップと、
前記第2のレンズモジュールの補助で、前記第2の光線を焦点に合わせるステップと、
前記第1のセンサの補助で、前記第1のレンズモジュールによって前記第1のセンサ上で焦点に合わされた前記第1の光線から第1の画像を捕捉するステップと、
前記第2のセンサの補助で、前記第2のレンズモジュールによって前記第2のセンサ上で焦点に合わされた前記第2の光線から第2の画像を捕捉するステップと
を含む、方法。 - 前記可動プラットフォームは、無人航空機である、請求項143に記載の方法。
- 前記可動プラットフォームの移動は、1つ又は複数の推進装置の補助で生じる、請求項144に記載の方法。
- 前記第1のレンズモジュールは、第1の焦点距離を有し、及び前記第2のレンズモジュールは、前記第1の焦点距離とは異なる第2の焦点距離を有する、請求項143に記載の方法。
- 前記第1の焦点距離は、第2の焦点距離よりも長い、請求項146に記載の方法。
- 前記第2のレンズモジュールの視野は、前記第1のレンズモジュールの視野よりも広い、請求項147に記載の方法。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項147に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項149に記載の方法。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項147に記載の方法。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを備える、請求項151に記載の方法。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、請求項152に記載の方法。
- 前記第1のレンズモジュールは、広角レンズモジュールであり、及び前記第2のレンズは、望遠レンズモジュールである、請求項147に記載の方法。
- 1つ又は複数のプロセッサの補助で、前記第1の画像を前記第2の画像と組み合わせるステップを更に備える、請求項146に記載の方法。
- 1つ又は複数のプロセッサにおいて、所望の焦点距離を受信するステップを更に含み、前記組み合わされた画像は、前記所望の焦点距離に対応する視野を有する、請求項155に記載の方法。
- 前記所望の焦点距離は、前記第1の焦点距離又は前記第2の焦点距離の少なくとも1つ以上である、請求項156に記載の方法。
- 前記組み合わされた画像をモバイルデバイス上に表示するステップを更に備える、請求項156に記載の方法。
- 前記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、請求項158に記載の方法。
- 前記組み合わされた画像は、リアルタイムで表示される、請求項158に記載の方法。
- 前記第1の画像及び前記第2の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、請求項161に記載の方法。
- 前記第1の画像を前記第2の画像と組み合わせるステップは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップを備える、請求項161に記載の方法。
- 前記組み合わされた画像は、前記所望の焦点距離が前記第1の焦点距離及び前記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、請求項163に記載の方法。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及びそのいずれかが前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときより広い視野を有しているとしても、前記第1の拡大縮小された画像又は前記第2の拡大縮小された画像から構成される外部視野から構成される、請求項163に記載の方法。
- 前記拡大縮小された第1の画像及び拡大縮小された第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、請求項163に記載の方法。
- 前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるステップは、画素融合を備える、請求項163に記載の方法。
- 画素融合は、前記第1の拡大縮小された画像の視野及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、請求項167に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は一致する、請求項143に記載の方法。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は垂直である、請求項169に記載の方法。
- 前記光は、光学要素との接触の前に単一の開口部を通過する、請求項143に記載の方法。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項143に記載の方法。
- 前記光学要素は、半透明フィルム反射体である、請求項143に記載の方法。
- 前記光学要素は、ビームスプリッタである、請求項143に記載の方法。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、主レンズのみを備える、請求項143に記載の方法。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項143に記載の方法。
- 前記第1のセンサ及び第2のセンサは、同一のタイプのセンサである、請求項143に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは、異なるタイプのセンサである、請求項143に記載の方法。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項143に記載の方法。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項143に記載の方法。
- 前記撮像デバイスをジンバルで前記可動プラットフォームに据え付けるステップを更に備える、請求項143に記載の方法。
- 前記ジンバルは、前記撮像デバイスを固定するように構成される、請求項181に記載の方法。
- 前記ジンバルは、前記可動プラットフォームに対して前記撮像デバイスを回転させるように構成される、請求項181に記載の方法。
- 画像を捕捉するシステムであって、前記システムは、
可動プラットフォームと、
光を受信するように構成された、可動プラットフォーム上に据え付けられた撮像デバイスであって、前記撮像デバイスは、
前記光を第1の光線及び第2の光線に分離するように構成された光学要素と、
前記第1の光線を焦点に合わせるように構成された第1のレンズモジュールと、
前記第2の光線を焦点に合わせるように構成された第2のレンズモジュールと、
前記第1のレンズモジュールによって前記第1のセンサ上で焦点に合わされた前記第1の光線から第1の画像を捕捉するように構成された第1のセンサと、
前記第2のレンズモジュールによって前記第2のセンサ上で焦点に合わされた前記第2の光線から第2の画像を捕捉するように構成された第2のセンサと
を備える、撮像デバイスと
を備える、システム。 - 前記可動プラットフォームは、無人航空機である、請求項184に記載のシステム。
- 前記可動プラットフォームの移動は、1つ又は複数の推進装置の補助で生じる、請求項185に記載のシステム。
- 前記第1のレンズモジュールは、第1の焦点距離を有し、及び前記第2のレンズモジュールは、前記第1の焦点距離とは異なる第2の焦点距離を有する、請求項184に記載のシステム。
- 前記第1の焦点距離は、第2の焦点距離よりも長い、請求項187に記載のシステム。
- 前記第2のレンズモジュールの視野は、前記第1のレンズモジュールの視野よりも広い、請求項188に記載のシステム。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項188に記載のシステム。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項190に記載のシステム。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項188に記載のシステム。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを備える、請求項192に記載のシステム。
- 前記第1のレンズモジュールは、少なくとも1つのレンズを受けるように構成された鏡筒を備える、請求項193に記載のシステム。
- 前記第1のレンズモジュールは、広角レンズモジュールであり、及び前記第2のレンズは、望遠レンズモジュールである、請求項188に記載のシステム。
- 1つ又は複数のプロセッサを更に備え、前記1つ又は複数のプロセッサは、前記第1の画像を前記第2の画像と組み合わせるように構成される、請求項187に記載のシステム。
- 前記1つ又は複数のプロセッサは、所望の焦点距離を受信し、及び前記所望の焦点距離に対応する視野を有する組み合わされた画像を生成するように構成される、請求項196に記載のシステム。
- 前記所望の焦点距離は、前記第1の焦点距離又は前記第2の焦点距離の少なくとも1つ以上である、請求項197に記載のシステム。
- 前記組み合わされた画像を表示するように構成されたモバイルデバイスを更に備える、請求項197に記載のシステム。
- 前記モバイルデバイスは、携帯電話、PDA、タブレット、又はコントローラである、請求項199に記載のシステム。
- 前記組み合わされた画像は、リアルタイムで表示される、請求項199に記載のシステム。
- 前記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、前記第1の画像及び前記第2の画像を拡大縮小するように構成される、請求項202に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させて、前記組み合わされた画像を生成するように構成される、請求項202に記載のシステム。
- 前記組み合わされた画像は、前記所望の焦点距離が前記第1の焦点距離及び前記第2の焦点距離よりも長いときの融合された部分から全体的に構成される、請求項204に記載のシステム。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及びそのいずれかが前記所望の焦点距離が前記第1の焦点距離と前記第2の焦点距離との間にあるときより広い視野を有しているとしても、前記第1の拡大縮小された画像又は前記第2の拡大縮小された画像から構成される外部視野から構成される、請求項204に記載のシステム。
- 前記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるように構成される、請求項204に記載のシステム。
- 前記1つ又は複数のプロセッサは、画素融合を介して、前記拡大縮小された第1の画像及び前記拡大縮小された第2の画像を融合させるように構成される、請求項204に記載のシステム。
- 画素融合は、前記第1の拡大縮小された画像の視野及び前記第2の拡大縮小された画像の視野が重なるエリアに対して発生する、請求項208に記載のシステム。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は一致する、請求項184に記載のシステム。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は垂直である、請求項210に記載のシステム。
- 前記光は、前記光学要素との接触前に単一の開口部を通過する、請求項184に記載のシステム。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項184に記載のシステム。
- 前記光学要素は、半透明フィルム反射体である、請求項184に記載のシステム。
- 前記光学要素は、ビームスプリッタである、請求項184に記載のシステム。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、主レンズのみを備える、請求項184に記載のシステム。
- 前記第1のレンズモジュールは、望遠レンズモジュールであり、及び前記第2のレンズモジュールは、広角レンズモジュールである、請求項184に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは、同一のタイプのセンサである、請求項184に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは、異なるタイプのセンサである、請求項184に記載のシステム。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項184に記載のシステム。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項184に記載のシステム。
- 前記撮像デバイスを前記可動プラットフォームに据え付けるように構成されたジンバルを更に備える、請求項184に記載のシステム。
- 前記ジンバルは、前記撮像デバイスを固定するように構成される、請求項222に記載のシステム。
- 前記ジンバルは、前記可動プラットフォームに対して前記撮像デバイスを回転させるように構成される、請求項222に記載のシステム。
- 画像を捕捉する方法であって、前記方法は、
光学要素の補助で、光を第1の光線及び第2の光線に分離するステップと、
第1のレンズモジュールの補助で、前記第1の光線を焦点に合わせるステップと、
第2のレンズモジュールの補助で、前記第2の光線を焦点に合わせるステップと、
第1のセンサの補助で、前記第1のレンズモジュールによって前記第1のセンサ上で焦点に合わされた前記第1の光線から第1の画像を捕捉するステップであって、前記第1のセンサは、第1のセンササイズを有する、ステップと、
第2のセンサの補助で、前記第2のレンズモジュールによって前記第2のセンサ上で焦点に合わされた前記第2の光線から第2の画像を捕捉するステップであって、前記第2のセンサは、前記第1のサイズとは異なる第2のセンササイズを有する、ステップと
を含む、方法。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項225に記載の方法。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項225に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項227に記載の方法。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、同一の焦点距離を有する、請求項225に記載の方法。
- 前記第1のセンササイズは、第2のセンササイズよりも大きい、請求項225に記載の方法。
- 前記第1のセンサ上の各々の個々の画素は、前記第2のセンサ上の各々の個々の画素以上である、請求項230に記載の方法。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は一致する、請求項225に記載の方法。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は垂直である、請求項232に記載の方法。
- 前記光は、光学要素との接触の前に単一の開口部を通過する、請求項225に記載の方法。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項225に記載の方法。
- 前記光学要素は、半透明フィルム反射体である、請求項225に記載の方法。
- 前記光学要素は、ビームスプリッタである、請求項225に記載の方法。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、主レンズのみを備える、請求項225に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは、同一のタイプのセンサである、請求項225に記載の方法。
- 前記第1のセンサ及び前記第2のセンサは、異なるタイプのセンサである、請求項225に記載の方法。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項225に記載の方法。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項225に記載の方法。
- 1つ又は複数のプロセッサの補助で、前記第1の画像を前記第2の画像と組み合わせるステップを更に備える、請求項225に記載の方法。
- 1つ又は複数のプロセッサにおいて、所望の視野を受信するステップを含み、前記組み合わされた画像は、前記所望の視野に対応する組み合わされた視野を有する、請求項243に記載の方法。
- 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項244に記載の方法。
- 前記所望の視野は、前記第1の視野又は前記第2の視野の少なくとも1つと同じ、又はそれよりも狭い、請求項245に記載の方法。
- 前記第1のセンサのサイズは、前記第2のセンササイズよりも大きい、請求項245に記載の方法。
- 前記第1の視野は、前記第2の視野よりも広い、請求項247に記載の方法。
- 前記第1のセンサは、第1の画素サイズを有する画素を備え、及び前記第2のセンサは、第2の画素サイズを有する画素を備え、前記第1の画素サイズは、前記第2の画素サイズ以上である、請求項247に記載の方法。
- 前記第1の画像を拡大縮小するステップは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用する、請求項250に記載の方法。
- 前記第1の画像を前記第2の画像と組み合わせるステップは、前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップを備える、請求項250に記載の方法。
- 前記組み合わされた画像は、前記所望の焦点視野が前記第1の視野及び前記第2の視野よりも狭いときの融合された部分から全体的に構成される、請求項252に記載の方法。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の視野が前記第1の視野と前記第2の視野との間にあるときの前記第1の拡大縮小された画像から構成される外部視野から構成される、請求項252に記載の方法。
- 前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用する、請求項252に記載の方法。
- 前記拡大縮小された第1の画像及び前記第2の画像を融合させるステップは、画素融合を備える、請求項252に記載の方法。
- 画素融合は、前記第1の拡大縮小された画像及び前記第2の拡大縮小された画像が重なるエリアに対して発生する、請求項256に記載の方法。
- 前記融合された画像を所望のサイズに拡大縮小するステップを更に備える、請求項252に記載の方法。
- 画像を捕捉する撮像システムであって、前記システムは、
光を第1の光線及び第2の光線に分離するように構成された光学要素と、
第1の光線を焦点に合わせるように構成された第1のレンズモジュールと、
第2の光線を焦点に合わせるように構成された第2のレンズモジュールと、
前記第1のレンズモジュールによって第1のセンサ上で焦点に合わされた前記第1の光線から第1の画像を捕捉するように構成された第1のセンサであって、前記第1のセンサは、第1のセンササイズを有する、第1のセンサと、
前記第2のレンズモジュールによって第2のセンサ上で焦点に合わされた前記第2の光線から第2の画像を捕捉するように構成された第2のセンサであって、前記第2のセンサは、前記第1のセンササイズとは異なる第2のセンササイズを有する、第2のセンサと
を備える、システム。 - 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項259に記載のシステム。
- 前記第1の光線は、前記光の反射された部分であり、及び前記第2の光線は、前記光の屈折された部分である、請求項259に記載のシステム。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は、反射角及び屈折角の角の二等分線に対して一致する、請求項261に記載のシステム。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、同一の焦点距離を有する、請求項259に記載のシステム。
- 前記第1のセンササイズは、前記第2のセンササイズよりも大きい、請求項259に記載のシステム。
- 前記第1のセンサ上の各々の個々の画素は、前記第2のセンサ上の各々の個々の画素以上である、請求項264に記載のシステム。
- 前記第1のレンズモジュールの光軸及び前記第2のレンズモジュールの光軸は一致する、請求項259に記載のシステム。
- 前記第1のレンズモジュールの前記光軸及び前記第2のレンズモジュールの前記光軸は垂直である、請求項266に記載のシステム。
- 前記光は、前記光学要素との接触の前に単一の開口部を通過する、請求項259に記載のシステム。
- 前記第1の画像及び前記第2の画像の中心は一致する、請求項259に記載のシステム。
- 前記光学要素は、半透明フィルム反射体である、請求項259に記載のシステム。
- 前記光学要素は、ビームスプリッタである、請求項259に記載のシステム。
- 前記第1のレンズモジュール及び前記第2のレンズモジュールは、主レンズのみを備える、請求項259に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは、同一のタイプのセンサである、請求項259に記載のシステム。
- 前記第1のセンサ及び前記第2のセンサは、異なるタイプのセンサである、請求項259に記載のシステム。
- 光学視差は、前記第1のレンズモジュールの光軸と前記第2のレンズモジュールの光軸との間では存在しない、請求項259に記載のシステム。
- 視差は、前記第1の画像と前記第2の画像との間では存在しない、請求項259に記載のシステム。
- 1つ又は複数のプロセッサを更に備え、前記1つ又は複数のプロセッサは、前記第1の画像を前記第2の画像と組み合わせるように構成される、請求項259に記載のシステム。
- 前記1つ又は複数のプロセッサは、所望の視野を受信し、及び組み合わされた画像を生成するように構成され、前記組み合わされた画像は、前記所望の視野に対応する組み合わされた視野を有する、請求項277に記載のシステム。
- 前記第1の画像は、第1の視野を有し、及び前記第2の画像は、前記第1の視野とは異なる第2の視野を有する、請求項278に記載のシステム。
- 前記所望の視野は、前記第1の視野又は前記第2の視野の少なくとも1つと同じ、またはそれよりも狭い、請求項279に記載のシステム。
- 前記第1のセンササイズは、前記第2のセンササイズよりも大きい、請求項279に記載のシステム。
- 前記第1の視野は、前記第2の視野よりも広い、請求項281に記載のシステム。
- 前記第1のセンサは、第1の画素サイズを有する画素を備え、及び前記第2のセンサは、第2の画素サイズを有する画素を備え、前記第1の画素サイズは、前記第2の画素サイズ以上である、請求項281に記載のシステム。
- 前記1つ又は複数のプロセッサは、三次補間法アルゴリズム又は双線形補間アルゴリズムを利用して、前記第1の画像を拡大縮小するように構成される、請求項284に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記拡大縮小された第1の画像及び前記第2の画像を融合させて、前記組み合わされた画像を生成するように構成される、請求項284に記載のシステム。
- 前記組み合わされた画像は、前記所望の焦点視野が前記第1の視野及び前記第2の視野よりも狭いときの融合された部分から全体的に構成される、請求項286に記載のシステム。
- 前記組み合わされた画像は、融合された部分から構成される内部視野、及び前記所望の視野が前記第1の視野と前記第2の視野との間にあるときの前記第1の拡大縮小された画像から構成される外部視野から構成される、請求項286に記載のシステム。
- 前記1つ又は複数のプロセッサは、ラプラシアンピラミッドアルゴリズム又は加重平均アルゴリズムを利用して、前記拡大縮小された第1の画像及び前記第2の画像を融合させるように構成される、請求項286に記載のシステム。
- 前記1つ又は複数のプロセッサは、画素融合を介して、前記拡大縮小された第1の画像及び前記第2の画像を融合させるように構成される、請求項286に記載のシステム。
- 画素融合は、前記第1の拡大縮小された画像及び前記第2の拡大縮小された画像が重なるエリアに対して発生する、請求項290に記載のシステム。
- 前記1つ又は複数のプロセッサは、前記組み合わされた画像を所望のサイズに拡大縮小するように構成される、請求項286に記載のシステム。
- 可動システムであって、前記可動システムは、
可動プラットフォームと、
前記可動プラットフォーム上に据え付けられるように構成された、請求項259に記載の撮像システムと、
前記撮像システムを固定するように構成されたジンバルと
を備える、可動システム。 - 前記ジンバルは、前記可動プラットフォームに対して、前記撮像システムを回転させるように構成される、請求項293に記載の可動システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/083783 WO2017008206A1 (en) | 2015-07-10 | 2015-07-10 | Dual lens system having a light splitter |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017529549A true JP2017529549A (ja) | 2017-10-05 |
JP6281730B2 JP6281730B2 (ja) | 2018-02-21 |
Family
ID=57756596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016554739A Expired - Fee Related JP6281730B2 (ja) | 2015-07-10 | 2015-07-10 | 画像を取得するシステム及び無人航空機 |
Country Status (5)
Country | Link |
---|---|
US (5) | US9967477B2 (ja) |
EP (2) | EP3687156B1 (ja) |
JP (1) | JP6281730B2 (ja) |
CN (2) | CN107852453B (ja) |
WO (1) | WO2017008206A1 (ja) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2820241C (en) * | 2012-06-13 | 2020-01-14 | Robert G. Hilkes | An apparatus and method for enhancing human visual performance in a head worn video system |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
CN107852453B (zh) * | 2015-07-10 | 2020-06-23 | 深圳市大疆创新科技有限公司 | 具有分光器的双镜头*** |
US10269257B1 (en) | 2015-08-11 | 2019-04-23 | Gopro, Inc. | Systems and methods for vehicle guidance |
CN105346706B (zh) * | 2015-11-13 | 2018-09-04 | 深圳市道通智能航空技术有限公司 | 飞行装置、飞行控制***及方法 |
US9896205B1 (en) * | 2015-11-23 | 2018-02-20 | Gopro, Inc. | Unmanned aerial vehicle with parallax disparity detection offset from horizontal |
US9720413B1 (en) | 2015-12-21 | 2017-08-01 | Gopro, Inc. | Systems and methods for providing flight control for an unmanned aerial vehicle based on opposing fields of view with overlap |
US9663227B1 (en) | 2015-12-22 | 2017-05-30 | Gopro, Inc. | Systems and methods for controlling an unmanned aerial vehicle |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
US10721451B2 (en) * | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US10642271B1 (en) * | 2016-08-26 | 2020-05-05 | Amazon Technologies, Inc. | Vehicle guidance camera with zoom lens |
US10297034B2 (en) | 2016-09-30 | 2019-05-21 | Qualcomm Incorporated | Systems and methods for fusing images |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
GB2559733B (en) * | 2017-02-08 | 2022-10-05 | Sesanti Ltd | Long-range viewing apparatus |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
AU2018261257B2 (en) | 2017-05-01 | 2020-10-08 | Symbol Technologies, Llc | Method and apparatus for object status detection |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
WO2018201423A1 (en) | 2017-05-05 | 2018-11-08 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
US11410330B2 (en) * | 2017-05-30 | 2022-08-09 | Edx Technologies, Inc. | Methods, devices, and systems for determining field of view and producing augmented reality |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US11048257B2 (en) * | 2018-01-23 | 2021-06-29 | Gopro, Inc. | Relative image capture device orientation calibration |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
CN108833789A (zh) * | 2018-07-27 | 2018-11-16 | 苏州睿仟医疗科技有限公司 | 一种实时自动聚焦装置及自动聚焦方法 |
WO2020065719A1 (ja) * | 2018-09-25 | 2020-04-02 | 株式会社エアロネクスト | 飛行体 |
US10924667B2 (en) | 2018-10-04 | 2021-02-16 | Samsung Electronics Co., Ltd. | Image sensor and image sensing method |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
CN109361835B (zh) * | 2018-10-25 | 2021-02-26 | 浙江大华技术股份有限公司 | 一种图像采集设备和图像处理方法 |
CN109327572B (zh) * | 2018-11-06 | 2021-02-19 | Oppo广东移动通信有限公司 | 成像模组、摄像头组件及电子装置 |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11399129B2 (en) | 2019-07-30 | 2022-07-26 | Gopro, Inc. | Image capture device with extended depth of field |
CN112449149B (zh) * | 2019-08-30 | 2023-04-07 | 杭州海康威视数字技术股份有限公司 | 摄像机 |
CN111050066A (zh) * | 2019-11-01 | 2020-04-21 | 深圳市道通智能航空技术有限公司 | 变焦方法、装置、飞行器、飞行***及存储介质 |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
WO2021141935A1 (en) * | 2020-01-06 | 2021-07-15 | Gentex Corporation | Full display mirror system with ruggedized portable imager |
CN111294517B (zh) * | 2020-03-03 | 2021-12-17 | 荣耀终端有限公司 | 一种图像处理的方法及移动终端 |
CN111327808A (zh) * | 2020-03-12 | 2020-06-23 | Oppo广东移动通信有限公司 | 摄像头组件及电子设备 |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11509837B2 (en) | 2020-05-12 | 2022-11-22 | Qualcomm Incorporated | Camera transition blending |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
KR20220075028A (ko) * | 2020-11-26 | 2022-06-07 | 삼성전자주식회사 | 다중 크롭 기능을 갖는 이미지 센서를 포함하는 전자 장치 |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
TWI777876B (zh) * | 2021-12-21 | 2022-09-11 | 亞泰影像科技股份有限公司 | 透鏡置中模組及其置中方法,掃描裝置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103466A (ja) * | 1999-09-30 | 2001-04-13 | Canon Inc | 画像遠隔送受信方法及びシステム並びに撮像装置並びに記憶媒体 |
US20020167593A1 (en) * | 2001-05-11 | 2002-11-14 | Fujitsu Limited | Image pickup device |
JP2003319231A (ja) * | 2002-04-26 | 2003-11-07 | Fuji Photo Film Co Ltd | デジタルカメラ |
JP2004297332A (ja) * | 2003-03-26 | 2004-10-21 | Fuji Photo Film Co Ltd | 撮像装置 |
JP2006186983A (ja) * | 2004-12-01 | 2006-07-13 | Univ Of Tokushima | カラー画像の露出補正方法 |
JP2007050841A (ja) * | 2005-08-19 | 2007-03-01 | Osaka Prefecture Univ | 小型回転翼機 |
US20070146503A1 (en) * | 2005-12-27 | 2007-06-28 | Hidenori Shiraki | Digital camera and data management method |
EP1976268A1 (en) * | 2005-12-28 | 2008-10-01 | Olympus Corporation | Imaging system and image processing program |
US20090187299A1 (en) * | 2008-01-23 | 2009-07-23 | Fregene Kingsley Oc | Method and System for Autonomous Tracking of a Mobile Target by an Unmanned Aerial Vehicle |
JP2009194425A (ja) * | 2008-02-12 | 2009-08-27 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム |
US20100238327A1 (en) * | 2009-03-19 | 2010-09-23 | Griffith John D | Dual Sensor Camera |
JP2011055246A (ja) * | 2009-09-02 | 2011-03-17 | Panasonic Corp | 望遠撮像装置 |
CN102109741A (zh) * | 2009-12-28 | 2011-06-29 | 索尼公司 | 成像装置 |
WO2013144508A1 (fr) * | 2012-03-30 | 2013-10-03 | Parrot | Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral et du biais des accelerometres. |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4354742A (en) | 1980-11-10 | 1982-10-19 | Honeywell Inc. | Optical system having a dual field of view |
DE3927334C1 (ja) | 1989-08-18 | 1991-01-10 | Messerschmitt-Boelkow-Blohm Gmbh, 8012 Ottobrunn, De | |
US6522475B2 (en) | 1996-02-15 | 2003-02-18 | Canon Kabushiki Kaisha | Zoom lens |
US7057647B1 (en) * | 2000-06-14 | 2006-06-06 | E-Watch, Inc. | Dual-mode camera system for day/night or variable zoom operation |
US20020097505A1 (en) | 2000-11-30 | 2002-07-25 | Delong James A. | Single-element catadioptric condenser lens |
US7049597B2 (en) | 2001-12-21 | 2006-05-23 | Andrew Bodkin | Multi-mode optical imager |
US6801719B1 (en) * | 2003-03-14 | 2004-10-05 | Eastman Kodak Company | Camera using beam splitter with micro-lens image amplification |
US6870690B1 (en) | 2003-09-09 | 2005-03-22 | Cbc-America | Dual-band lens |
JP2005141527A (ja) * | 2003-11-07 | 2005-06-02 | Sony Corp | 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム |
US7119969B1 (en) | 2004-05-27 | 2006-10-10 | Lockheed Martin Corporation | Pixel matched camera optics |
CN100501485C (zh) | 2004-11-11 | 2009-06-17 | 鸿富锦精密工业(深圳)有限公司 | 变焦装置和方法 |
CN100365461C (zh) | 2004-11-26 | 2008-01-30 | 鸿富锦精密工业(深圳)有限公司 | 变焦装置及方法 |
JP4681995B2 (ja) | 2005-09-16 | 2011-05-11 | 積水樹脂株式会社 | 自発光式道路標識板及び自発光装置 |
JP4624245B2 (ja) * | 2005-11-29 | 2011-02-02 | イーストマン コダック カンパニー | 撮像装置 |
US20080030592A1 (en) | 2006-08-01 | 2008-02-07 | Eastman Kodak Company | Producing digital image with different resolution portions |
US7676146B2 (en) * | 2007-03-09 | 2010-03-09 | Eastman Kodak Company | Camera using multiple lenses and image sensors to provide improved focusing capability |
US7764440B2 (en) | 2007-11-27 | 2010-07-27 | Eastman Kodak Company | Dual focal length lens system |
US7573654B2 (en) | 2007-11-27 | 2009-08-11 | Eastman Kodak Company | Dual focal length lens system |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
KR20100084819A (ko) * | 2009-01-19 | 2010-07-28 | 삼성전자주식회사 | 파장검출장치 및 이를 구비하는 초점검출장치 |
DK2399157T3 (da) * | 2009-02-20 | 2013-07-29 | Thales Canada Inc | Optisk billeddannelsessystem med dobbelt synsfelt og dobbeltfokuslinse |
US8553106B2 (en) * | 2009-05-04 | 2013-10-08 | Digitaloptics Corporation | Dual lens digital zoom |
US7948515B1 (en) | 2009-06-05 | 2011-05-24 | Hines Stephen P | Mini 3-D camera rig |
US8228373B2 (en) | 2009-06-05 | 2012-07-24 | Hines Stephen P | 3-D camera rig with no-loss beamsplitter alternative |
US8542286B2 (en) * | 2009-11-24 | 2013-09-24 | Microsoft Corporation | Large format digital camera with multiple optical systems and detector arrays |
US8675085B2 (en) * | 2010-07-14 | 2014-03-18 | James Randall Beckers | Camera that combines images of different scene depths |
TWI537670B (zh) | 2011-12-13 | 2016-06-11 | 鴻海精密工業股份有限公司 | 雙鏡頭拍攝裝置 |
KR101899877B1 (ko) * | 2012-04-04 | 2018-09-19 | 삼성전자주식회사 | 확대된 영상의 화질을 개선하기 위한 장치 및 방법 |
CN113472989A (zh) | 2012-11-28 | 2021-10-01 | 核心光电有限公司 | 多孔径成像***以及通过多孔径成像***获取图像的方法 |
CN109040553B (zh) * | 2013-06-13 | 2021-04-13 | 核心光电有限公司 | 双孔径变焦数字摄影机 |
US20150029424A1 (en) | 2013-07-25 | 2015-01-29 | International Business Machines Corporation | Variable focal length lens |
CN107852453B (zh) * | 2015-07-10 | 2020-06-23 | 深圳市大疆创新科技有限公司 | 具有分光器的双镜头*** |
-
2015
- 2015-07-10 CN CN201580081589.5A patent/CN107852453B/zh not_active Expired - Fee Related
- 2015-07-10 EP EP19210982.5A patent/EP3687156B1/en active Active
- 2015-07-10 CN CN202010471157.8A patent/CN111556253B/zh active Active
- 2015-07-10 WO PCT/CN2015/083783 patent/WO2017008206A1/en active Application Filing
- 2015-07-10 EP EP15874391.4A patent/EP3152893B1/en active Active
- 2015-07-10 JP JP2016554739A patent/JP6281730B2/ja not_active Expired - Fee Related
-
2016
- 2016-10-12 US US15/291,990 patent/US9967477B2/en active Active
-
2018
- 2018-04-05 US US15/946,088 patent/US10397493B2/en active Active
-
2019
- 2019-07-19 US US16/516,735 patent/US10687001B2/en active Active
-
2020
- 2020-06-10 US US16/898,100 patent/US11039086B2/en active Active
-
2021
- 2021-06-11 US US17/346,164 patent/US20210306574A1/en not_active Abandoned
Patent Citations (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001103466A (ja) * | 1999-09-30 | 2001-04-13 | Canon Inc | 画像遠隔送受信方法及びシステム並びに撮像装置並びに記憶媒体 |
US20020167593A1 (en) * | 2001-05-11 | 2002-11-14 | Fujitsu Limited | Image pickup device |
JP2002335435A (ja) * | 2001-05-11 | 2002-11-22 | Fujitsu Ltd | 映像撮影装置 |
JP2003319231A (ja) * | 2002-04-26 | 2003-11-07 | Fuji Photo Film Co Ltd | デジタルカメラ |
JP2004297332A (ja) * | 2003-03-26 | 2004-10-21 | Fuji Photo Film Co Ltd | 撮像装置 |
JP2006186983A (ja) * | 2004-12-01 | 2006-07-13 | Univ Of Tokushima | カラー画像の露出補正方法 |
JP2007050841A (ja) * | 2005-08-19 | 2007-03-01 | Osaka Prefecture Univ | 小型回転翼機 |
US20070146503A1 (en) * | 2005-12-27 | 2007-06-28 | Hidenori Shiraki | Digital camera and data management method |
JP2007180730A (ja) * | 2005-12-27 | 2007-07-12 | Eastman Kodak Co | デジタルカメラおよびデータ管理方法 |
EP1976268A1 (en) * | 2005-12-28 | 2008-10-01 | Olympus Corporation | Imaging system and image processing program |
US20080266432A1 (en) * | 2005-12-28 | 2008-10-30 | Takao Tsuruoka | Image pickup system, image processing method, and computer program product |
JPWO2007077730A1 (ja) * | 2005-12-28 | 2009-06-11 | オリンパス株式会社 | 撮像システム、画像処理方法、画像処理プログラム |
JP2009173263A (ja) * | 2008-01-23 | 2009-08-06 | Honeywell Internatl Inc | 無人航空機(uav)によって移動目標物を自律的に追跡するための方法及びシステム |
US20090187299A1 (en) * | 2008-01-23 | 2009-07-23 | Fregene Kingsley Oc | Method and System for Autonomous Tracking of a Mobile Target by an Unmanned Aerial Vehicle |
EP2083341A2 (en) * | 2008-01-23 | 2009-07-29 | Honeywell International Inc. | Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle |
JP2009194425A (ja) * | 2008-02-12 | 2009-08-27 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム |
US20090262140A1 (en) * | 2008-02-12 | 2009-10-22 | Sony Corporation | Image processing apparatus, image processing method, and computer program |
CN102356630A (zh) * | 2009-03-19 | 2012-02-15 | 弗莱克斯电子有限责任公司 | 双传感器照相机 |
US20100238327A1 (en) * | 2009-03-19 | 2010-09-23 | Griffith John D | Dual Sensor Camera |
WO2010108119A2 (en) * | 2009-03-19 | 2010-09-23 | Flextronics Ap, Llc | Dual sensor camera |
JP2012521673A (ja) * | 2009-03-19 | 2012-09-13 | フレクストロニクス エイピー エルエルシー | デュアルセンサカメラ |
JP2011055246A (ja) * | 2009-09-02 | 2011-03-17 | Panasonic Corp | 望遠撮像装置 |
US20110164157A1 (en) * | 2009-12-28 | 2011-07-07 | Sony Corporation | Imaging apparatus |
JP2011139325A (ja) * | 2009-12-28 | 2011-07-14 | Sony Corp | 撮像装置 |
CN102109741A (zh) * | 2009-12-28 | 2011-06-29 | 索尼公司 | 成像装置 |
WO2013144508A1 (fr) * | 2012-03-30 | 2013-10-03 | Parrot | Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral et du biais des accelerometres. |
EP2831685A1 (fr) * | 2012-03-30 | 2015-02-04 | Parrot | Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral et du biais des accelerometres. |
CN104335128A (zh) * | 2012-03-30 | 2015-02-04 | 鹦鹉股份有限公司 | 用于用侧风和加速度计偏差估计和补偿来控制多旋翼的旋翼无人机的方法 |
US20150057844A1 (en) * | 2012-03-30 | 2015-02-26 | Parrot | Method for controlling a multi-rotor rotary-wing drone, with cross wind and accelerometer bias estimation and compensation |
JP2015514263A (ja) * | 2012-03-30 | 2015-05-18 | パロット | 横風及び加速度計バイアスの推定及び補償を有するマルチロータ回転翼無人機を制御するための方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2017008206A1 (en) | 2017-01-19 |
US20200304727A1 (en) | 2020-09-24 |
CN111556253B (zh) | 2022-06-14 |
EP3152893A4 (en) | 2017-05-10 |
US20210306574A1 (en) | 2021-09-30 |
EP3687156A1 (en) | 2020-07-29 |
CN107852453B (zh) | 2020-06-23 |
EP3152893B1 (en) | 2020-04-08 |
JP6281730B2 (ja) | 2018-02-21 |
US9967477B2 (en) | 2018-05-08 |
CN111556253A (zh) | 2020-08-18 |
CN107852453A (zh) | 2018-03-27 |
US10687001B2 (en) | 2020-06-16 |
US20180234636A1 (en) | 2018-08-16 |
US20190342506A1 (en) | 2019-11-07 |
US10397493B2 (en) | 2019-08-27 |
EP3687156B1 (en) | 2022-03-16 |
US20170041553A1 (en) | 2017-02-09 |
EP3152893A1 (en) | 2017-04-12 |
US11039086B2 (en) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6281730B2 (ja) | 画像を取得するシステム及び無人航空機 | |
US10979651B2 (en) | Imaging system | |
CN108351574B (zh) | 用于设置相机参数的***、方法和装置 | |
US11288824B2 (en) | Processing images to obtain environmental information | |
US20210231968A1 (en) | Imaging system | |
JP2021064951A (ja) | システム、方法、装置、および非一時的コンピュータ読取可能媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6281730 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |