JP7286024B2 - 回転可能なリフレクターを備えた撮像システム - Google Patents

回転可能なリフレクターを備えた撮像システム Download PDF

Info

Publication number
JP7286024B2
JP7286024B2 JP2022536649A JP2022536649A JP7286024B2 JP 7286024 B2 JP7286024 B2 JP 7286024B2 JP 2022536649 A JP2022536649 A JP 2022536649A JP 2022536649 A JP2022536649 A JP 2022536649A JP 7286024 B2 JP7286024 B2 JP 7286024B2
Authority
JP
Japan
Prior art keywords
image
image sensor
reflector
view
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022536649A
Other languages
English (en)
Other versions
JP2022552430A (ja
Inventor
アッタール ジブ
Original Assignee
グラス イメージング インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グラス イメージング インコーポレイテッド filed Critical グラス イメージング インコーポレイテッド
Publication of JP2022552430A publication Critical patent/JP2022552430A/ja
Application granted granted Critical
Publication of JP7286024B2 publication Critical patent/JP7286024B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/105Scanning systems with one or more pivoting mirrors or galvano-mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本開示は、概して、撮像システムの分野に関し、特に、回転可能なリフレクター(reflector)を有する撮像システムに関する。
(関連出願の相互参照)
この出願は、2019年12月14日に出願された米国仮出願第62/948,200号「イメージングデバイスのための新しいアーキテクチャ」の利益、2020年1月11日に出願された米国仮出願第62/959,884号「イメージングデバイスのための新しいアーキテクチャ」の利益、2020年12月14日に出願された米国非仮出願第17/121,239号「回転可能なリフレクターを備えたイメージングシステム」の利益、および2020年12月14日に出願された米国非仮出願第17/121,315号「回転可能なリフレクターを備えたイメージングシステムによる結合画像の形成」の利益を主張する。前述の全ての主題は、それらの全体が参照により本明細書に組み込まれる。
写真用カメラは、ハウジング(a housing)、感光面、および感光面上にシーン(scene)を撮像するレンズを含む。以前は、感光面はフィルムであった。モバイルデバイスや写真カメラ(例えば、一眼レフ(SLR)カメラ、ドローンカメラ、ビデオカメラ)などの現代のデバイスでは、フィルムは、ピクセルと呼ばれる小さな領域の光の量を電気信号に変換することができるイメージセンサに置き換えられている。一般的なイメージセンサデバイスは、電荷結合デバイス(CCD)センサおよび相補型金属酸化膜半導体(CMOS)センサである。
カメラのサイズは、一般に、イメージセンサのサイズ、レンズのサイズ、およびハウジングのサイズに依存する。イメージセンサが大きくなると、レンズは大きくなる。レンズのサイズは、カメラの視野を決定するレンズの焦点距離にも依存する。また、レンズ設計も、レンズのサイズに寄与し得る。
イメージセンサ、レンズ設計、レンズ製造、および機械筐体技術の長年の進化と技術の進歩を経て、カメラは用途によって異なるいくつかの寸法に収束した。例えば、モバイルデバイス内のカメラシステムは、3次元全てにおいて数ミリメートルであり得る。このサイズは、モバイルデバイスがパンツポケットや小さな財布などの小さなスペースに収まるほど小さいことを望んでいることに由来する場合がある。その結果、場合によっては、そのようなデバイスで使用され得る最大の撮像素子は、数ミリメートル×数ミリメートルに制限され得る。場合によっては、イメージセンサは、イメージセンサ上に画像を形成するレンズのサイズによってさらに制限され得る。これらの制限を補うために、最近のモバイルデバイスは、複数のカメラを有し得、様々なカメラを使用して、様々な視野をキャプチャし、良好な画像品質を維持しながら、ユーザがズームインなどのアクションを実行することを可能にし得る。
前述したように、モバイルデバイスにおけるイメージセンサの大きさは制限される。そのため、イメージセンサの画像の取得中に多くの光を集める能力が制限される。センササイズに加えて、センサによってキャプチャできる光の量は、レンズ開口(aperture)および露光時間に依存し得る。長年にわたり、F/#としても知られるレンズ開口(lens aperture)は、より良い製造能力と組み立て技術のおかげで減少してきたが、モバイルデバイスにとって、レンズ開口は約F/1.8の限界に達している。これは、例えば、視野が動いたり揺れたりする場合など、画質への配慮が制限される。具体的には、カメラを静止させるユーザの能力と、シーン内の被写体の動きによって露光時間が制限され得る。光学式手振れ補正(OIS)法は、この露光時間を長くするのに役立ち得る。しかしながら、これらのOIS法は、シーン内のオブジェクトの動きに由来するブラー効果に影響を与えることができない。
以上の制約により、露光時間の制限は限界に達し、広角レンズでは約50ミリ秒となる。これは、OIS法を使用して200-300ミリ秒まで延長することができるが、前述のように、OIS法はシーン内の物体を移動させることによって生じるブラー(blur)を回避することはできない。いくつかの場合では、モバイルデバイスは、短時間および長時間露光をキャプチャし、短い露光からの情報を利用して、長い露光におけるモーションブラー(motion blur)を低減するブラケティングスキームを使用する。
したがって、露光時間、レンズ開口、およびイメージセンササイズのこれらの制限は、カメラがキャプチャすることができる光量を制限し、そのため、ノイズ、解像度、ダイナミックレンジ、色などの点で、カメラが提供可能な画質を制限する。
開示された実施形態は、詳細な説明、添付の特許請求の範囲、および添付の図(または図面)からより容易に明らかとなる利点、および特徴を有する。図の簡単な説明は、以下のとおりである。
図1Aは、一実施形態による、モバイルデバイスに含まれる撮像システムを示す図である。 図1Bは、一実施形態による、モバイルデバイスに含まれる撮像システムを示す図である。 図2Aは、一実施形態による、外部環境のビューの異なる部分の画像をキャプチャする撮像システムを示す図である。 図2Bは、一実施形態による、外部環境のビューの異なる部分の画像をキャプチャする撮像システムを示す図である。 図2Cは、一実施形態による、外部環境のビューの異なる部分の画像をキャプチャする撮像システムを示す図である。 図2Dは、一実施形態によるビューの一部の画像を示す図である。 図2Eは、一実施形態による、図2Dの画像から形成された外部環境のビューの画像を示す図である。 図3は、一実施形態による、ハウジングの前方の環境の画像およびハウジングの後方の環境の画像をキャプチャする撮像システムを示す図である。 図4は、一実施形態による、外部環境からの光が撮像システムのイメージセンサに向かって伝播するのを遮断する位置にあるリフレクターを示す図である。 図5は、一実施形態による、異なるイメージセンサに向けて光を方向付けるための異なる位置にあるリフレクターを示す図である。 図6は、一実施形態による、第2のカメラを含む撮像システムを示す図である。 図7は、一実施形態による、片面にフィルタを有する両面リフレクターを示す。 図8は、一実施形態による、デュアルレンズ撮像システム801を示す図である。 図9は、様々な実施形態による、様々な光学フィルタを有する画像センサ上のピクセルのグループを示す図である。 図10は、様々な実施形態による、様々な光学フィルタを有する画像センサ上のグループを示す図である。 図11は、様々な実施形態による、様々な光学フィルタを有する画像センサ上のピクセルのグループを示す図である。 図12は、一実施形態による、外部環境のビューの結合画像を形成する方法を示すフローチャートである。 図13は、一実施形態による、マシン読み取り可能媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)で実行することができる例示的なマシンの構成要素を示すブロック図である。 図14Aは、いくつかの実施形態による、家の結合画像を示す図である。 図14Bは、いくつかの実施形態による、家の結合画像を示す図である。 図14Cは、いくつかの実施形態による、家の結合画像を示す図である。 図14Dは、いくつかの実施形態による、家の結合画像を示す図である。 図14Eは、いくつかの実施形態による、家の結合画像を示す図である。 図14Fは、いくつかの実施形態による、家の結合画像を示す図である。 図14Gは、いくつかの実施形態による、家の結合画像を示す図である。 図15は、一実施形態による、レンズモジュールおよびイメージセンサを示す図である。 図16Aは、いくつかの実施形態による、イメージセンサのピクセルのグループ上のレンズアレイのレンズを示す図である。 図16Bは、いくつかの実施形態による、イメージセンサのピクセルのグループ上のレンズアレイのレンズを示す図である。 図17は、一実施形態による、イメージセンサのカラーフィルタアレイを示す図である。 図18は、一実施形態による、ダイクロイックビームスプリッタを備えた撮像システムの側面図を示す図である。
図(FIG)および以下の説明は、例示のためのみの、好適な実施形態に関する。以下の説明から、本明細書に開示される構造、および方法の代替的な実施形態は、特許請求されているものの原理から逸脱することなく、採用され得る実行可能な代替として容易に認識されることに留意されたい。
つぎに、いくつかの実施形態について詳細に言及し、それらの例を添付の図面に示す。可能な限り、類似または同様の参照番号が、図面において用いられ、類似または同様の機能性を示し得ることに留意されたい。図面は、例示のみを目的として、開示されているシステム(または方法)の実施形態を示している。当業者は、本明細書で例示される構造および方法の代替的な実施形態が、本明細書で説明される原理から逸脱せずに採用され得ることを、以下の記載から容易に認識するであろう。
(構成の概要)
例示的な実施形態は、イメージセンサのサイズを著しく増加させるが、撮像システムの寸法をモバイルデバイスに適合するように十分に小さく保つ新しい撮像システム(画像キャプチャアセンブリとも呼ばれる)に関する。撮像システムは、イメージセンサ、リフレクター(reflector)、およびコントローラ(controller)を含み得る。リフレクターは、軸の周りでイメージセンサに対して回転可能であり得る。リフレクターは、外部環境のビュー(view)の一部からの光をイメージセンサに向ける。コントローラは、イメージセンサおよびリフレクターに(例えば、モータを介して)結合され得る。コントローラは、リフレクターを軸の周りに回転させて、ビューの異なる部分からの光をイメージセンサに向ける。コントローラは、イメージセンサをリフレクターと同期させて、ビューの異なる部分の画像をキャプチャする。コントローラは、イメージセンサからの画像を結合して、外部環境のビューを含む画像を形成する。
他の例示的な実施形態は、イメージセンサ、リフレクター、および、画像処理回路を含む撮像システムに関する。リフレクターはイメージセンサに近接して配置され、第1の位置から第2の位置まで軸の周りで、イメージセンサに対して回転可能である。第1の位置では、リフレクターは、環境の第1の部分からの光をイメージセンサに向ける。第2の位置では、リフレクターは、環境の第2の部分からの光をイメージセンサに向ける。画像処理回路は、イメージセンサと結合されている。回路は、第1の画像と第2の画像を結合して、環境の合成画像を形成する。第1の画像は、環境の第1の部分(リフレクターの第1の位置でキャプチャされた)を描画し、第2の画像は、環境の第2の部分(リフレクターの第2の位置でキャプチャされた)を描画する。
他の例示的な実施形態は、回転可能なリフレクターを有する撮像システムによって結合画像を形成することに関する。リフレクターは、軸の周りで、イメージセンサに対して第1の位置まで回転する。第1の位置では、リフレクターは、外部環境に対応するビューの第1の部分からの光をイメージセンサに向ける。イメージセンサによって、ビューの第1の部分の画像がキャプチャされる。リフレクターは、軸の周りで、イメージセンサに対して第2の位置まで回転する。第2の位置では、リフレクターは、外部環境に対応するビューの第2の部分からの光をイメージセンサに向ける。イメージセンサによって、ビューの第2の部分の画像がキャプチャされる。第1の部分の画像と第2の部分の画像とを結合して、ビューに対応する画像を形成する。
いくつかの実施形態では、撮像システムは、イメージセンサおよびリフレクターを少なくとも含むハウジングを含む。ハウジングは、環境からの光がリフレクターに向かって伝播するウィンドウを含む。ウィンドウの平面は、イメージセンサのセンサ面に実質的に垂直であり得る。
(撮像システム)
図1A~図1Bは、一実施形態による、例示的なモバイルデバイス103に含まれる例示的な撮像システム101を示す図である。具体的には、図1Aは、モバイルデバイス103の前面図、背面図、および側面図を示し、図1Bは、モバイルデバイス103の断面の背面図および断面の側面図を示している。モバイルデバイス103は、撮像システム101、ウィンドウ102を有するハウジング117、およびディスプレイ119を含む。撮像システム101は、回転可能なリフレクター105、モータ111、レンズモジュール107、イメージセンサ109、およびコントローラモジュール113を含む。
リフレクター105は、ウィンドウ102を通過する光をレンズモジュール107に向けて下に向ける。レンズモジュール107は、イメージセンサ109に光を集光する。モータ111は、リフレクター105を、イメージセンサ平面に対して実質的に平行である(例えば、1度または2度以内である)軸115の周りで回転させる。リフレクター105を回転させることにより、リフレクター105は、外部環境の異なる部分からの光をイメージセンサ109の方向に向けることができる。コントローラ113は、イメージセンサ109とモータ111とを電気的に結合する。撮像システム101は、外部環境の画像を形成するために、リフレクター105を回転させながら外部環境のビューの部分の画像をキャプチャする。初期角度位置から最終角度位置へのリフレクター105の回転は、走査(scan)と称され得る。キャプチャされた画像の組は、環境のいくつかの隣接部分の情報を含み、画像を結合(例えば、ステッチ(stitching)または融合(fusing))した後、撮像システム101は、所定のアスペクト比で外部環境のより大きな画像を形成する。
ハウジング117は、撮像システム101の構成要素のうちの1つまたは複数を含む。撮像システムの構成要素の位置および向きは、ハウジング117およびハウジングウィンドウ102を基準に説明され得る。例えば、ハウジング117は、撮像システム101を含む複数の壁によって定義され、壁のうちの1つは、例えば、ウィンドウ102の境界によって定義される平面を有するハウジングウィンドウ102を含む。平面は、3次元基準系においてy-z(またはyz-)平面に平行であり得る。ハウジング117は、ウィンドウ102の平面に垂直な軸に沿って(例えばx軸に沿って)小さい寸法(a low profile)を有し得る。x軸に沿ったハウジングの長さは、ハウジング117の厚さと称され、例えば5~15ミリメートルの範囲であり得る。ハウジング117がモバイルデバイス103の一部である実施形態においては、ウィンドウ平面は、モバイルデバイス103のディスプレイ119に平行であり得る。従来の撮像システムとは異なり、イメージセンサ表面は、ウィンドウ平面に面していない。例えば、イメージセンサ面は、ウィンドウ平面に垂直であり(例えば、xy-平面に平行である)、ウィンドウ102の境界の外側にある。これに起因して、リフレクター105は、ウィンドウ102を通って伝搬する光をイメージセンサ面に向けるために、ウィンドウ102と整列され得る。レンズモジュール107は、リフレクター105とイメージセンサ109の間であり得る。開口面は、リフレクター105とレンズモジュール107との間であり得、ウィンドウ平面に対して垂直で、イメージセンサ面に対して平行であり得る。リフレクターは、撮像システム101の光路をyz平面に折り畳むことを可能にする。この折り畳みは、光路を、ハウジングの厚さの限界を超えて、ハウジングの厚さよりも典型的に大きい、ハウジングの幅(例えば、y軸に沿った長さ)および高さ(例えば、z軸に沿った長さ)に増加させることを可能にする。したがって、リフレクター、イメージセンサ、および/またはレンズモジュール107の開口は、1:1ではないアスペクト比を有し得、それらの長軸は互いに平行であり得る。
本明細書で使用される「平行」および「垂直」という用語は、完全に平行または垂直である製造による構成要素を現実的にことが困難であり得るため、実質的に平行または実質的に垂直である構成要素(例えば、1または2度以内)を指し得る。
イメージセンサ109は、外部環境の一部の画像をキャプチャする撮像デバイスである。イメージセンサ109の例には、CCDセンサおよびCMOSセンサが含まれる。図1に示すように、イメージセンサ面は、モバイルデバイス103のxy平面に対してxy平面にあり、イメージセンサ面は、xy平面の表面から垂直方向(z軸に沿って)に面し得る。この位置合わせにより、イメージセンサ109のセンサ面は、外部環境のビューに対面しない。イメージセンサ109をxy平面に配置することで、従来のカメラのイメージセンサよりもイメージセンサ109のサイズを大きくすることができる。イメージセンサ面の小さい方の寸法(x軸に沿った)は、モバイルデバイスの厚さによって制限され得、長い方の寸法(y軸に沿った)は、長さが何センチメートルにもなり得るモバイルデバイスの幅によって制限され得る。これにより、イメージセンサ109が、17:9(例えば、1:10)以上のアスペクト比のような高いアスペクト比を有することができる。従来のカメラは、それほど高くないアスペクト比(例えば、2:3,3:4,または16:9に制限されるセンサ)を有するシーンの画像を生成する。イメージセンサ109のアスペクト比が大きいため、イメージセンサ109は、シーンの狭いビューに対応する狭い画像(「画像ストリップ」)を作成し得る。モバイルデバイスにおける従来の撮像システムでは、イメージセンサのサイズは、カメラのレンズの焦点距離によって制限され得る。しかしながら、本明細書に記載されるようにイメージセンサ109の位置および向きを変更することによって、イメージセンサのサイズは、同じまたは類似のハウジングを有する従来の撮像システムにおけるイメージセンサよりも大きくし得る。
上述したように、リフレクター105(走査ミラーとも呼ばれる)は、軸115の周りで回転してイメージセンサ109に光を向ける光学的構成要素である。一般に、軸115は、イメージセンサ面の長い寸法(a long dimension of)に実質的に平行であり、リフレクター105は、ウィンドウ102の中心にある。ウィンドウ102の面(例えば、yz平面)がイメージセンサ109の面(例えば、xy平面)に垂直である場合、リフレクター105は、イメージセンサ面に対して45度ぐらいの位置で光をイメージセンサ109に向け得る。イメージセンサ109のアスペクト比が高いため、リフレクター105はまた、イメージセンサ109の表面全体に光が反射されることを確実にするために高いアスペクト比を有し得る。リフレクター105は、長方形平面を有するものとして図1Bに示されるが、凹状または凸状(例えば、ビューを拡大または縮小するために使用され得る)などの他の形状が可能である。
リフレクター105は、本明細書において、光を「向ける(directing)」という点で説明されているが、これは説明を容易にするためのものである。リフレクター105は、撮像システム101内を伝搬する光の光学的な方向、拡大、スリム化、反射、回折、屈折、分散、増幅、減衰、結合、分離、偏光、またはそれ以外の特性を変化させ得る。これを行うために、リフレクター105は、反射コーティング、金属化された特徴、光学格子、ミラー、プリズム構造、フレネル構造、コーナーリフレクター、再起反射器などをその1つまたは複数の表面に含み得る。
レンズモジュール107は、1つまたは複数の光学的構成要素を含み、イメージセンサ109上に画像を形成するように設計される。レンズモジュール107は、それを通過する光を拡散し、収束し(焦点に集める)、方向を変化し、およびそれ以外の方法で修正し得る。レンズモジュール107は、単一のレンズと同様に単純であり得、または、拡散器、位相スクリーン、ビームエクスパンダー、鏡、およびレンズ(例えば、アナモルフィックレンズ)などの追加の光学的構成要素を含み得る。いくつかの実施形態では、レンズモジュール107の入射瞳は、リフレクター105に隣接する。これは、リフレクター105をより小さいサイズとすることを可能にし得る。
イメージセンサ109のアスペクト比が高いため、レンズモジュール107は、非円形および/または非対称に設計および製造され得、レンズモジュールの開口の観点から、イメージセンサ109の寸法に追従し得る。非対称開口を有するレンズモジュール107を用いることにより、それがモバイルデバイスのハウジング117内に収まることを可能にし得る。また、レンズモジュール107の焦点距離は、x方向とy方向で異なり得る。いくつかの実施形態では、これは、撮像システム101において、アスペクト比を保持しない結果となるため、例えば、4:3のシーンが、8:3のイメージセンサによって撮像され得る。1つまたは複数のレンズモジュール107の光学的構成要素は、円筒対称性を備える表面を有し得るが、他の構成要素の開口は、長方形または別の細長い形状であり得る。レンズモジュール107は、ウェーハレベル技術を使用して製造され得、これは、所望のアスペクト比でレンズ表面をダイシングすることによって長方形状の光学構成要素を作成するのに有益であり得る。いくつかの実施形態では、レンズモジュール107は、非対称開口を有する型を作成することによって、射出成形技術を使用して製造される。レンズモジュール107の構成要素は、射出成形、または機械加工(例えば、ウェハーレベル技術によって)によるガラスまたはプラスチックであり得る。
上述したように、モータ111は、リフレクター105を軸115の周りで回転させる。これを行うために、モータ111は、アクチュエータ型機構、ガルバノメータ型機構、MEMS型機構、電動型機構、またはステッピングモータ型機構の一つまたは複数を含み得る。いくつかの実施形態では、以下にさらに説明するように、モータ111は、リフレクター105を他の方向に移動させることができる。例えば、モータ111は、リフレクター105をx軸、y軸、および/またはz軸に沿って並進および/または回転移動させることができる。
いくつかの実施形態では、モータ111は、イメージセンサ109がシーンの一部の画像をキャプチャしている間に、動き(例えば、手の動き)を補償するために、リフレクター105を(例えば、いずれかの方向に数度)傾ける。例えば、ユーザがモバイルデバイス103をわずかに下方に傾ける場合、モータは、傾けたにもかかわらずイメージセンサ109がシーンの同じ部分を受信するように、リフレクター105を上方に傾けて動きを補償し得る。いくつかの実施形態では、撮像システム101は、この動きを補償するために、1つまたは複数の方向(例えば、xy平面内)においてイメージセンサ109をシフトさせるセンサシフト機構(例えば、別のモータ)を含む。いくつかの実施形態では、撮像システム101は、この動きを補償するために、1つまたは複数の方向(例えば、xy平面内)においてレンズモジュール107(またはその構成要素)をシフトさせるレンズシフト機構(例えば、別のモータ)を含む。撮像システム101が複数の動き補償機構を含む場合、コントローラ113は、動きを相殺するために複数の機構を連携して動作するように調整し得る。例えば、モータ111は、リフレクター105を傾けて、一方向の動きを補償し、センサシフト機構またはレンズシフト機構は、別の方向の動きを補償する。いくつかの実施形態では、リフレクター105は、動きを補償するために(例えば、センサまたはレンズシフト機構の代わりに)、複数の実質的に垂直な軸(例えば、x軸およびz軸)の周りで回転する。
モータ111およびシフト機構はまた、オートフォーカス機構として機能し得る。例えば、レンズシフト機構は、所望の焦点を達成するために、レンズモジュール107(またはその構成要素)を(例えばz軸に沿って)イメージセンサ109に近づけたり、または遠ざけたりする。別の例では、センサシフト機構は、所望の焦点を達成するために、イメージセンサ109を(例えば、z軸に沿って)レンズモジュール107に近づけたり、または遠ざけたりする。
コントローラモジュール113は、モータ111およびイメージセンサ109に制御信号を提供するためのソフトウェア(例えば、マシン読み取り可能媒体上または伝送信号内に具体化されたコード)および/または、ハードウェアを構成し得る。したがって、コントローラ113は、リフレクター105を回転させて、外部環境の異なる部分からの光をイメージセンサ109に向け、イメージセンサ109をリフレクター105と同期させて、環境の異なる部分の画像をキャプチャする。さらに、コントローラ113は、キャプチャされた画像を受信し得、それらを結合して外部環境のより大きな(larger)連続画像を形成し得る。
いくつかの実施形態では、撮像システム101は、外部環境に対する撮像システムの動きを追跡するための1つまたは複数のモーションセンサ(例えば、加速度計、ジャイロスコープなど)を含む。コントローラモジュール113は、モーションセンサからの動きデータを受信し得る。決定された動きが閾値量を超える場合、モジュール113は、動きを補償するためにモータ111および/またはセンサシフト機構に命令を提供し得る。
いくつかの実施形態では、撮像システム101は、モバイルデバイス103に含まれていない。例えば、撮像システム101は、モバイルデバイス103のケースなどのスタンドアロンデバイスに収容される。
図2A-図2Cは、一実施形態による、外部環境のビューの異なる部分の画像をキャプチャする撮像システムを示す図である。図2A-図2Cの例では、外部環境は、ビューの領域内の1つまたは複数のオブジェクトを含む。この例では、説明を簡単にするために、オブジェクトは、垂直に整列された立方体211A、球体211B、およびピラミッド211cである。図2Aにおいて、リフレクター105は、外部環境の上部からの光をイメージセンサ109に向けるために、第1の回転位置(例えば、yz平面に対して角度θ1を形成する)で傾けられる。したがって、イメージセンサ109は、立方体211Aの画像をキャプチャする。図2Bでは、外部環境の中央部分からの光をイメージセンサ109に向けるために、リフレクターは第2の回転位置(例えば、yz平面に対して角度θ2>θ1を形成する)に傾けられる。したがって、イメージセンサ109は、球体211Bの画像をキャプチャする。図2Cでは、リフレクターは、外部環境の下部からの光をイメージセンサ109に向けるために、第3の回転位置(例えば、yz平面に対して角度θ3>θ2を形成する)で傾けられる。したがって、イメージセンサ109は、ピラミッド211Cの画像をキャプチャする。いくつかの例示的な実施形態では、一組の画像をキャプチャするために、リフレクターの角度θは、xy平面に対して45度あたりの(例えば、25~65度)対称的な範囲とすることができる。
図2Dは、一実施形態による、イメージセンサ109によってキャプチャされた3つの画像ストリップを示している。各画像ストリップは、リフレクター105が異なる回転位置にある間に各ストリップがキャプチャされた結果、外部環境の異なる部分の画像である。画像ストリップは、リフレクター105、レンズモジュール107、およびイメージセンサ109のアスペクト比が高いため、アスペクト比が高い。画像ストリップAは、立方体211Aの画像であり、図2Aの画像システム101によってキャプチャされた。画像ストリップBは、球体211Bの画像であり、図2Bの画像システム101によってキャプチャされた。画像ストリップCはピラミッド211Cの画像であり、図2Cの画像システム101によってキャプチャされた。
各画像ストリップをキャプチャするための露光時間は、ユーザの動き(ユーザが意図せずデバイス103を保持したまま動かす)およびシーン内で動くオブジェクトによって制限され得る。さらに、画像ストリップの総露光時間は、複数の画像ストリップのキャプチャの間の外部環境の変化の可能性によって制限され得る。画像ストリップ露光時間および総露光時間は、所定の閾値時間に制限され得、または(例えば、モバイルデバイス103の移動量に基づいて)動的に決定され得る。
図2Eは、一実施形態による、外部環境のビューの画像201を示している。画像201は、図2Dに示す画像ストリップA-Cの結合(例えば、融合またはステッチ)によって形成される。結合画像201は、合成画像と称し得る。結合画像201のビューの水平領域は、ウィンドウ102、リフレクター105、レンズモジュール107(例えば、その開口)、および/またはイメージセンサ109の幅(y軸に沿って)に基づき得、結合画像201のビューの垂直領域は、リフレクター105の走査範囲に基づき得る。通常、ビューの垂直領域はビューの水平領域よりも大きい。
画像ストリップがキャプチャされるときのリフレクター105の位置に応じて、画像ストリップは、互いにいくらかの重複(例えば、10-300行のピクセル)を有し得る。重複を有する画像ストリップをキャプチャすることは、画像ストリップが環境のビューの欠落した部分でないこと(例えば、ビュー全体がキャプチャされるように)を保証するのに役立ち得、結合画像201のノイズ値を低減し得る。重複を有する画像ストリップをキャプチャすることは、また、画像ストリップが適切に結合されることを保証するために結合プロセスを支援し得る。例えば、コントローラ113は、結合処理中に画像ストリップを位置合わせするために重複部分を用いる。別の例では、環境内のオブジェクトが複数の画像ストリップのキャプチャの間に動く場合、または、モバイルデバイス103が複数の画像ストリップのキャプチャの間に動く場合、制御システム101は、この動きによって引き起こされるアーチファクトを補正するために重複部分を使用し得る。
(リフレクターの回転)
リフレクター105の回転は、リフレクター105の初期(例えば、最大)の角度位置から、最終(例えば、最小)の角度位置まで、結合画像を形成する画像ストリップの数であるN回の停止を伴って回転するような離散的なものであり得る。Nは2ぐらい小さくし得る。Nは、結合される画像の所望の露光時間、ならびに/または、イメージセンサ109の小さい方の寸法のサイズおよび結合画像の所望のサイズもしくはアスペクト比に依存し得る。例えば、イメージセンサが24,000ピクセル×6,000ピクセルを有し、最終的な結合画像が4:3のアスペクト比を有する場合、リフレクター105は3つの離散位置を有し、結合画像は24,000ピクセル×18,000ピクセルになる。これまでの走査の例では、画像ストリップに重複部分は含まれていなかった。Nを大きくすると、シーン内のいくつかの領域が、画像ストリップに複数回表示されるようになる。たとえば、6つの離散的な角度位置を使用して走査を行うと、シーン内の各ポイントが2つの画像ストリップに表示されるようになる。
撮像システム101は、ビデオをキャプチャ可能であり得る。これらの場合、結合画像は、ビデオのフレームを形成し得る。ビデオフレームレートまたはプレビューフレームレートが例えば25FPS(1秒あたりのフレーム数)の場合、各結合画像の総露光時間は40ミリ秒以下である。3つの離散位置の走査の場合、各位置は13.33ミリ秒間露光され得る。しかしながら、リフレクター105は、位置を変更し、停止するまでの時間が必要であり、これは、各画像ストリップの露光時間が約10ミリ秒であり得ることを意味する。
静止画のキャプチャでは、ユーザがキャプチャボタンを押すとユーザに表示される画像プレビューを中断して、画像プレビュー速度によって制限されるよりも長い露光を可能にする。
上記の考察は、ビューの全領域を考慮したものである。撮像システム101がビューのより狭い領域をキャプチャする場合、リフレクター105の走査範囲を縮小し得る。例えば、ユーザが3倍ズームイン(すなわち、3倍ズーム)した場合、撮像システム101はいかなる走査も実行しなくてよい。したがって、リフレクター105は静止し得る。例えば、イメージセンサ109が24,000ピクセル×6,000ピクセルを有し、最終的な画像が6,000ピクセルの高さおよび4:3のアスペクト比を有する場合、リフレクター105は回転しなくてもよく、画像の他の寸法は8,000ピクセルであり得る(例えば、24,000ピクセルの寸法のイメージセンサ109から読み出され、切り出される)。
いくつかの実施形態では、リフレクター105の回転は、離散的ではなく連続的である。連続走査モードでは、リフレクター105は、キャプチャされた画像がぼやけないように十分遅く、所望のフレームレート(例えば、40ミリ秒)で所望のビューの領域の走査を終えるのに十分な速さで連続的に回転する。連続モードでは、リフレクター105の回転速度は、所望のフレームレートによって決定され得る。例えば、フレームレートが30FPS(フレーム間で33ミリ秒)である場合、シーン走査は、25ミリ秒程度を要し、次いで、リフレクター105を回転させて初期位置に戻す。リフレクターをその初期位置に戻すことができる速度に応じて、30ミリ秒のような他の例示的な値が可能である。リフレクター105が両側である実施形態では、リフレクター105は回転させてその初期位置に戻る必要をなくし得る。
連続走査モードでは、外部環境における点は、走査中のピクセルのすべての行に表示され得る。イメージセンサ109は、連続した画像ストリップについて、各ピクセルの列によって点がキャプチャされるように、十分な画像をキャプチャし得る。例えば、イメージセンサ109が6,000行のピクセルを含む場合、1回の走査中に6000枚の画像をキャプチャし得る。そのために、例えば、イメージセンサは、1ピクセルの電荷を特定の数ミリ秒間積分する代わりに、ピクセルの変化による電荷を積分し得る。この変化(走査)がリフレクターの回転速度と同期されている場合、出力は空間内の1点に対応することができる。イメージセンサ109にこれを実装した例は、1ピクセル行のみを読み出すことであり、これは非常に早く実行できる。たとえば、30FPS(1秒あたりのフレーム数)で、6,000行のセンサは、1行だけ読み出して15,000FPSを実行することができる。点がピクセルの各行によってキャプチャされるように十分な画像をキャプチャすることに代えて、ピクセルの行数よりも少ない走査中に、所定の数の画像をキャプチャし得る。
(前面および背面モード)
いくつかの実施形態では、撮像システム101は、リフレクター105を回転させることによって、ハウジング117の前方および後方の外部環境の画像をキャプチャする。図3は、一実施形態による、ハウジング117の前方の環境の画像(前面モード中)および、ハウジング117の後方の環境の画像(背面モード中)をキャプチャする撮像システム101を示す。
背面モードは、図1Aおよび図1Bを参照して上述している。前面モードでは、回転可能リフレクター105は、ディスプレイ119を通過する光をイメージセンサ109に向ける。ディスプレイ119を通過する光を向けることによって、モバイルデバイス103の前面のウィンドウのノッチまたは専用領域を縮小または排除し得る。したがって、ディスプレイ119のサイズは、例えば、ディスプレイ119をモバイルデバイス103の前面の縁まで延長することにより増加し得る。
いくつかの撮像システムは、ディスプレイを通過する光をキャプチャすることができるが、それらは、発光ダイオード(LED)および配線のようなディスプレイの構成要素がディスプレイを通過する光を回折および散乱させるため、撮像性能の貧弱さに苦しむ。しかしながら、本明細書に記載の画像システム101は、より大きなウィンドウ(図3に図示せず)およびより大きなレンズ開口により、ディスプレイを通過するより多くの光をキャプチャすることができる。したがって、撮像システム101は、モバイルデバイスの前方のシーンを撮像するための改善された性能を有する。
(不均一性補正(NUC)モード)
図4は、一実施形態による、外部環境からの光がイメージセンサ109に向かって伝播するのを遮断するように位置付けられたリフレクター105(不均一性補正(NUC)モード中)を示している。具体的には、リフレクター105は、イメージセンサ109に面するように配向される(例えば、イメージセンサ平面に平行である)。NUCモードは、(例えば、モバイルデバイスがピクセルを損傷する可能性のある波長に露出している場合に)イメージセンサ109のピクセルを保護するために使用され得る。例えば、モバイルデバイス103が晴れた日にテーブルの上にある場合、太陽はセンサによって撮像され得、センサはこれに起因して損傷し得る。リフレクターの回転により太陽の放射を遮断することができることは、センサ109およびその光学的コーティング(例えば、フィルタ)への損傷を防止することができる。NUCはまた、イメージセンサ109のピクセルをゼロにしたり、風袋引きするために使用されてもよい。例えば、リフレクター105をイメージセンサ109に向けることによって、イメージセンサ109は、撮像システム101自体からのIR放射を測定し得る(センサ109がIR感度を有するか、またはセンサ109に隣接する熱センサがあると仮定する)。撮像システム101は、その時、これらの読み取り値に基づいて調整を行ない得る。例えば、撮像システム101は、各ピクセルのゲインおよびオフセットを調整し、これにより、より高品質でより正確な画像を生成し得る。CCD、CMOS、またはその他のイメージセンサは、一般的に、固定パターンノイズ(FPN)および暗電流を引き起こす変動を有する。例えば、CMOSイメージセンサにおいて、ピクセルトランジスタはピクセルFPNを引き起こし、カラム増幅器はカラムFPNを引き起こす。センサ109への光を遮断し、暗い画像をキャプチャできることは、望む時にセンサパラメータをキャリブレーションするのに役立つことができる。これらのパラメータの一部は固定され、工場で較正されているが、FPNと変動の原因は温度に依存し、空間的に変化し得る。
(複数のセンサ)
いくつかの実施形態では、撮像システム101は、複数のレンズモジュール107およびイメージセンサ109を含む。図5は、イメージセンサ509Aへの上方と、イメージセンサ509Bへの下方へ、同時に光を向けるための異なる位置の両面リフレクター105を示す。したがって、図5の撮像システム101は、モバイルデバイスの前方および後方の画像が単一のリフレクター105を使用して(例えば、同時に)キャプチャされることを可能にする。リフレクター105を回転させることによって、コントローラ113は、モバイルデバイスの前面または背面からの光をセンサ509のいずれかに向けることができる。これとは異なり、撮像システム101は、単一のリフレクター105を共有する2つのカメラを含むことができる。これは、製造コストを削減し、システムのサイズを縮小し得る。センサ509またはレンズモジュールが互いに異なる場合(例えば、異なるサイズ、タイプ、光学フィルタ)、リフレクター105は、例えば、所与の状況またはユーザからの命令に基づいて、特定のセンサに光を向けることができる。いくつかの実施形態では、リフレクター105は(両面ではなく)片面であり、光をセンサ509Aまたはセンサ509Bに向けるように回転する。
いくつかの実施形態では、下部レンズモジュール107およびセンサ509Bは、広視野カメラ(図5では「W」とラベル付けされる)を形成し、上部レンズモジュール107およびセンサ509Aは、より狭い視野を有する望遠カメラ(図5では「T」とラベル付けされる)を形成する。したがって、リフレクター105がどのように位置決めされるかに応じて、リフレクター105は、WカメラまたはTカメラのいずれかに光を向けることができる。
(2番目(または3番目以上)のカメラ画像)
いくつかの実施形態では、撮像システム101は、1つまたは複数の追加のカメラを含む。図6は、一実施形態による、画像(「2番目のカメラ画像」)をキャプチャするように構成された第2のカメラ601を含む撮像システム101を示す。図6の例では、第2のカメラ601は左上隅に配置されている。第2のカメラ601は、モバイルデバイス103の背面の環境の画像をキャプチャするように配置されるが、代替的に、モバイルデバイス103の前面の環境の画像をキャプチャするように配置され得る。第2のカメラ601は、イメージセンサ109によってキャプチャされる2つまたは3つ以上の部分を含むビューの領域を有するように位置決めまたは、構成し得る。例えば、2番目のカメラ画像のビューは、画像ストリップのステッチ領域を含むか、または、結合画像のビューよりも大きい。これにより、コントローラ113は、画像ストリップの処理および結合の際に、2番目のカメラ画像を参照として使用することができる。例えば、2番目のカメラ画像は、画像ストリップを処理および結合するアルゴリズムのためのグラウンドトゥルース情報(ground truth information)を提供する。例えば、コントローラ113は、2番目のカメラ画像を使用して、画像ストリップを整列させ、動き効果を補正する。別の例では、2番目のカメラ画像は、結合画像からの欠落情報(例えば、シーン内の動くオブジェクトの遮蔽によって引き起こされる)を埋めるために使用される。
第2のカメラ601を備えた撮像システム101の利点は、図14A-図14Gを参照してさらに説明される。図14Aは、家を含む結合画像を示す。結合画像は、一組の画像ストリップ(Pic1-5)から形成される。モバイルデバイス103が静止している間に、画像ストリップはキャプチャされた。したがって、画像ストリップは、家の画像を形成するために、いかなるミスマッチ(mismatches)もなしで、整列され得る。
図14Bは、別の家の結合画像を示す。この例では、モバイルデバイス103が、画像をキャプチャしている間に動いた。例えば、モバイルデバイス103を保持しているユーザは、画像ストリップをキャプターしているときに、意図せずにそれを動かした。このため、家の一部は互いに揃っていない。
図14Cは、別の家の結合画像を示す。この例では、家の画像は、隣接する画像ストリップ内の特徴およびエッジを互いに揃えることによって改善される。しかしながら、特徴およびエッジ揃えは、家が完全に揃わないことがあり得る(例えば、特徴が明瞭でない場合、またはステッチ領域が特徴を欠く場合)。
図14Dは、画像ストリップ(Pic1-5)を結合する前の家の結合画像(左側画像)と、第2のカメラ601によってキャプチャされた画像1405(右画像)とを示す。2番目のカメラ画像1403は、画像ストリップのステッチ領域を含むため、画像ストリップの結合処理を改善するために用いることができる。例えば、図14Eに見られるように、2番目のカメラ画像1403は一時的に拡大され、画像ストリップ上にオーバーレイされて、画像ストリップを揃えるための参照またはテンプレートとして機能する。これを行うことによって、画像ストリップの位置揃えが改善され(例えば、図14Fに見られるように)、したがって、家の結合画像が改善される(例えば、図14Fの結合画像を図14Cの結合画像と比較して)。いくつかの実施形態では、2番目のカメラ画像は、画像ストリップと比較して、解像度を欠き、ノイズが多いものであり得るため、画像ストリップの粗い位置決めの後、細かい位置揃えが、画像ストリップ間のエッジ連続性を改善するために追加され得る。
図14Gは、結合画像の例示的なビュー1403と比較した、2番目のカメラ画像の例示的なビュー1401を示す。この例では、ビュー1401はビュー1403よりも水平方向の大きさが小さいが、それでも結合画像のステッチ領域を含んでいる。いくつかの実施形態では、ビュー1401は、(例えば、図14Gに見られるように)ビュー1403よりも垂直方向に大きいため、2番目のカメラ画像は、キャプチャプロセス中にモバイルデバイスが動いた場合においても、ステッチ領域を含む。ビュー1401の水平方向は、また、水平方向の動きを考慮するようなサイズにし得る。いくつかの実施形態では、ビュー1401は、結合画像のビュー1403全体を含む。
(画像の結合)
このセクションでは、画像ストリップがどのように結合し得るか(登録(registration)とも称される)について説明する。登録には2つの課題があり得る。第1の課題は、画像ストリップのキャプチャ中に、シーンと撮像システム101が動いたり、変化したりしていない、静的シーンを登録することである。この場合、登録は、ステッチ後にストリップの境界(ステッチ領域)の特徴が連続するように、画像ストリップの位置揃えを望み得る。この場合、動きがないため、絶対差の合計(SAD)、相関、または画像の詳細を位置揃えのために訓練されたニューラルネットワークなどの特徴マッチング操作を使用してステッチングを実行し得る。画像ストリップのグラデーションに、または、直接信号自体に適用し得る。ステッチ領域(またはライン)に、明確な特徴またはエッジが十分含まれていない場合があり得る。その場合、ステッチガイドとして、2番目のカメラ画像(第2のカメラ601でキャプチャされた)を使用し得る。この場合、特徴マッチングはステッチ領域に限定されず、登録されている画像ストリップ内の任意の位置にある特徴を用いて実現され得る。
いくつかの場合には、撮像システム101またはシーン内のオブジェクトによる動きが発生する。これは、非連続ステッチングをもたらし得る(例えば、各画像ストリップは、連続した結合画像を形成するために、異なる量および異なる方向にシフトされる)。登録は、高密度のオプティカルフロー登録アルゴリズムを使用して実行され得るが、これらは計算量が極めて多くなり、誤差が存在し得る。第2のカメラ601からの2番目のカメラ画像を使用することは、連続的に見える解(例えば、別の部分に一致する必要がある人間の手の一部など)を見つける必要がなく、2番目のカメラ画像の対応する同様の領域にのみ領域を登録するだけでよいため、この登録を簡単にし得る。
複雑なテクスチャ(textures)をステッチするための別の可能性は、画像ストリップのキャプチャ中に、リフレクター105をビューの領域よりもわずかに小さく回転させることによって作成されるオーバーラップを活用することである。そのような場合、ステッチラインの近くのオブジェクトは、ステッチラインの両側の両方の画像ストリップに現れ得、ステッチは、検出アルゴリズムを使用して検出することができる顔または他のオブジェクトのようなオブジェクトを通過することを回避するように、曲線(例えば、非直線)上で発生し得る。シーン内のオブジェクトが異なる画像ストリップの露光の間に移動すると、遮蔽が発生し得る。これは、撮像システム101により近いオブジェクトによってシーン内のいくつかの領域がブロックされることの原因となり得る。2つの画像ストリップに異なる情報があると、アーチファクトを表示せずに適切にステッチすることが困難になり得る。2番目のカメラ画像の使用は、ガイドとしての役割を務めることができ、動きによって遮蔽された領域についての欠落情報を埋めるために、典型的には中心(例えば、45度に最も近い位置)である特定のリフレクター位置に対応する画像ストリップの1つと同時にキャプチャできる。2番目のカメラ画像は、ノイズや色などの点で異なる特性を有し得るため、正規化処理が2番目のカメラ画像からの情報をステッチされた画像にブレンドする前に実行され得る。そのような正規化は、ノイズ除去、色調、階調の操作、ぼかしなどを含み得る。
(リフレクターの変更)
いくつかの実施形態では、リフレクター105の1つまたは複数の側面は、光学フィルタを含む。つぎに図7を参照すると、一実施形態による、一面側にフィルタを有する両面リフレクター105を示している。一面側にフィルタ701を有するリフレクター105は、コントローラ113がフィルタされた光で画像をキャプチャするか、またはフィルタされていない光で画像をキャプチャするかを選択することを可能にする。図7は、単一のフィルタ701を有するリフレクター105を示しているが、フィルタは、また、反対面側(例えば、異なるフィルタ)に存在し得る。さらに、図7のフィルタ701のサイズは、例示的な目的のために、誇張されることに留意されたい。例えば、フィルタ701は、リフレクター105の表面に塗布された薄いコーティングである。
フィルタの種類の例としては、偏光子、色フィルタ、ニュートラルデンシティフィルタフィルタ(neutral density filter)、UV (紫外線)フィルタ、波長フィルタ(例えば、カラーフィルタ、狭帯域IR (赤外線)フィルタ、またはブロードバンドIRフィルタ)が挙げられる。フィルタ701がIRフィルタであれば、撮像システム101は、IR光またはIR光なしの画像をキャプチャすることができる。IR光でキャプチャされた画像は、深度データを収集するため(図9を参照して以下で説明するように)、または低照度撮影用(より広いスペクトルを記録することは、画像品質を改善し得る)に使用され得る。コントローラ113は、シーン内の光レベル、シーン内の光の種類、および深度データが(例えば、ユーザまたはアプリケーションによって)所望されるかどうかに基づいて、リフレクター105を介して光をフィルタリングするかどうかを決定し得る。
フィルタリングされた光で画像をキャプチャするか、フィルタリングされていない光で画像をキャプチャするかを選択する代わりに、コントローラ113は、他のすべての結合画像がフィルタされた光を含むようにリフレクター105を回転させ得る。例えば、走査を完了した後、リフレクター105は、その反対側が後続の走査のために光を方向付けるように回転し続ける。したがって、フィルタ701の種類に応じて、後続のすべての結合画像は、異なる波長を含み得る。走査間でリフレクター105を反転させることは、ビデオをキャプチャしながら実行され得る。例えば、フィルタ701がIRフィルタである場合、2番目ごとの結合画像はIR情報を含む。このIR情報は、構造化された光または飛行時間(ToF)情報と結合して、正確であり、他の結合画像からのカラーデータと位置合わせされた深度データを作成し得る。
いくつかの実施形態では、リフレクター105は両面であり、面のうちの1つは、所定の距離だけ軸115から逸脱している。走査間でリフレクター105を反転させることによって、後続の画像はビューの異なる基準点を有し得る。コントローラ113は、例えば、2つの異なる並んだカメラから深度が計算されるのと同じ方法で、ステレオ深度計算を実行するために、ビューの異なる基準点を有する画像を使用し得る。
いくつかの実施形態では、リフレクター105の一つの面は、イメージセンサ109の狭い寸法に沿って焦点距離を変更するレンズを含む。これは、リフレクター105がモータ111がサポートすることができるよりも速い速度で回転することを必要とする高フレームレートビデオを記録するために有用であり得る。これらの状況では、レンズを有するリフレクター105の面は、狭い寸法においてビューの領域が係数(例えば、3)だけ増加するように光を方向づけることができる。これは、ビデオのキャプチャ中にリフレクター105が比較的静的な状態を維持することを可能にし得る。これはまた、画像ストリップの結合プロセスを排除し得る。これを達成するための代替手段は、撮像システム101が有するモードに基づいて、光路に出入りするレンズまたはレンズ群を追加することによる。
(デュアルレンズシステム)
図8は、一実施形態による、デュアルレンズ撮像システム801を示している。デュアルレンズ撮像システム801は、間隔を開けて配置した2つのウィンドウ803と、2つのレンズモジュール807と、2つのリフレクター805と、1つのイメージセンサ809とを含む。上部ウィンドウ803Aを通過する光は、上部リフレクター805Aによって下方に向けられ、上部レンズモジュール807Aを通過する。上部レンズモジュール807Aを通過した後、光は、上部固定ミラー811Aによってイメージセンサ809の上半分(センサ809の第1の部分とも呼ばれる)に向けられる。イメージセンサ809の平面は、ディスプレイ119の平面に平行である(例えば、yz平面内)。デュアルレンズ撮像システム801下半分は、上半分の鏡像であり得る。例えば、下部ウィンドウ803Bを通過する光は、下部リフレクター805Bによって上方に向けられ、下部レンズモジュール807Bを通過する。下部レンズモジュール807Bを通過した後、光は、下部固定ミラー811Bによってイメージセンサ809の下半分(センサ809の第2の部分とも呼ばれる)に向けられる。図8に示すように、撮像システム801は、両方のウィンドウ803からの光を1つのイメージセンサ809に向ける。このことと、イメージセンサ平面がディスプレイと平行であることから、イメージセンサ809は、図1Aおよび図1Bを参照して説明したイメージセンサ109よりも大きくし得る。単一のイメージセンサ809を備えることは、システム801の電子的な構成要素の数を減らし得る。いくつかの実施形態では、システム801は、例えば、固定ミラー811を取り外し、上向きになるxy平面内に上部センサを追加し、下向きになるxy平面内に下部センサを追加することによって、2つのイメージセンサを含む。
間隔を開けて配置された2つのウィンドウ803を有することによって、システム801は、単一のリフレクターを有するシステム(例えば、図1Bに示されているように)によって生成された結合画像よりも大きな外部環境のビューの領域を有する結合画像を生成し得る。例えば、上部リフレクター805Aは、下部リフレクター805Bが向けることができない光をイメージセンサ809に向ける。同様に、下部リフレクター805Bは、上部リフレクター805Aが向けることができない光をイメージセンサ809に向け得る。いくつかの実施形態では、ハウジング上のウィンドウ803Aと803Bとの間の間隔は、ユーザがカメラ間で切り替えたとき、視点(point of view)の変化を減少させるために減少されるが、視点の変化は、より遠くにあるオブジェクトでは目立たなくなり得る。単一のセンサ(例えば、センサ809)が2つのレンズモジュールについて使用される例示的な実施形態では、ウィンドウ803間の間隔は、より大きくし得る。これは、レンズモジュール807の一方または両方がより大きな焦点距離を有する場合に有利であり得る(より大きな焦点距離は、システムがより遠いオブジェクトを撮像することを可能にし得る)。
デュアルレンズ撮像システム801のウィンドウ803は、異なるウィンドウ803からキャプチャされた画像を比較することによって、システム801が深度情報を決定することを可能にし得る。ステレオ原理およびウィンドウ803間の距離は、深さの精度および範囲を決定し得る。例えば、より大きなウィンドウ803の分離は、より大きな距離での深さ情報の計算を可能にする。ウィンドウ803が数センチメートル離れている場合、システムは、数十メートル先、さらには100メートルを超えるオブジェクトの深さ情報を決定し得る。
(ピクセルグループを有するイメージセンサ)
いくつかの実施形態では、イメージセンサ109は、IRフィルタを有するピクセル、偏光フィルタを有するピクセル、および広帯域フィルタを有するピクセル、ToFピクセル、ならびに、可視光ピクセル(「カラーピクセル」)などの異なるピクセルのグループ(例えば、行)を含む。イメージセンサ109は、異なるピクセルグループの任意の組み合わせを含み得る。異なるピクセルグループを有する例示的なイメージセンサ109は、以下でさらに説明される。
図9は、IRフィルタを有するカラーピクセル(「IRフィルタピクセル901」)行の第1のグループ、および、IRフィルタを有しないカラーピクセル(「IRピクセル903」)行の第2のグループを含むイメージセンサ109を示している。したがって、IRピクセル903は、IR情報を記録し得る。IR情報は、例えば、画像システム101がパターンプロジェクタと結合されているときには構造化光によって、または画像システム101が時限IR光源と結合されているときにはTOFによって、深度データの生成に用いることができる。
撮像システム101(例えば、コントローラ113を介して)は、記録されたIR情報を使用して深度マップを生成し、IRフィルタピクセル901によってキャプチャされたカラー画像上にそれをオーバーレイ(overlay)し得る。IR情報はカラー画像と同じイメージセンサ109上に記録されたため、IR情報はカラー画像と同様のビューを有し得る。したがって、深度マップの位置合わせは、従来のシステムよりも正確であり得る。これは、深度情報に基づいて光学ブレをエミュレートする合成被写界深度アプリケーション(ポートレートモードとしても知られる)に有用であり得る。従来のシステムは、カラーカメラと別体のIRカメラからのデータを結合することによって、深度マップを作成する。このため、IRカメラは外部環境の異なるビューを有することになり、その結果、カラー画像との深度マップの位置合わせは、精度が落ち得る。
十分なIR情報を記録するために、わずか数行のピクセルをIR波長を記録するために使用し得る。わずか数センサ行を使用し、シーンから有用なIR情報を取得する能力は、IRピクセル903が、結合されて一緒になると大きな所望のビューの領域をカバーする数個のストリップをキャプチャするように、リフレクター105がビューを走査することができるという事実によって可能とされる。
図10は、IRフィルタ付きのピクセル行901の第1のグループと、IRフィルタおよび偏光フィルタまたはコーティングを有するカラーピクセル行の第2のグループ(「偏光ピクセル1001」)とを含むイメージセンサ109を示す。偏光をキャプチャすることは、例えば、空の外観がより深い色の区別を有し、および/または、表面反射が水または他の反射面から除去されるなど、画像の見栄えを改善するのに有益であり得る。
図11は、IRフィルタピクセルの第1のグループ901と、IRフィルタと第1の偏光フィルタとを有するカラーピクセル行の第2のグループ(「第1の偏光ピクセル1101」)と、IRフィルタと第2の偏光フィルタとを有するカラーピクセル行の第3のグループ(「第2の偏光ピクセル1103」)とを含むイメージセンサ109を示し、第2の偏光フィルタは、第1の偏光フィルタの方向に直交する偏光方向を有する。これにより、撮像システム101が水平に配向されているか垂直に配向されているかにかかわらず、撮像システム101が所望の偏光フィルタ効果を実現することが可能になり得る。
イメージセンサ109が偏光ピクセルおよび非偏光ピクセルの行を含む実施形態では、撮像システム101は、(偏光ピクセルデータを使用して形成された)偏光画像の画質を向上させるために非偏光ピクセルデータを使用し得る。例えば、撮像システム101は、外部環境のビューに関連付けられた偏光ピクセルデータを、同じビューに関連付けられた非偏光ピクセルデータと比較するためのアルゴリズムを使用する。偏光画像は、例えば低い光量のビューを撮像するときに、より低い品質を有し得るため、これは有利であり得る。
いくつかの実施形態では、イメージセンサ109は、ピクセルがIRおよび/または紫外線波長を検出することを可能にする広帯域フィルタを有するモノクロピクセルの列を含む。フィルタの波長範囲は、これらのモノクロピクセルによって検出される光の量を制御し得る。これらのモノクロピクセル行は、低い照明条件でより多くの光を取り込み、また、すべての照明条件での解像度およびエッジ忠実度を向上させるために使用され得る。
いくつかの実施形態では、イメージセンサ109は、ニュートラルデンシティフィルタを有する1つ以上のピクセルグループを含む。このようなイメージセンサ109を用いる場合、ニュートラルデンシティフィルタを有しないピクセルグループとニュートラルデンシティフィルタを有するピクセルグループとにより、ビューの所望の領域を撮像するように走査を適用し得る。これにより、各ピクセルグループからのピクセルデータを結合することにより、画像を融合してHDR(High-dynamic range)出力を行うことができる。
離散走査方式の場合、リフレクター105は、走査中に露光のために停止する。リフレクター105の停止位置は、各ピクセルグループのサイズ、および結合画像の所望のビューの領域に依存し得、これは、所望のズームレベルに基づいて変化し得る。例えば、イメージセンサ109が第1のピクセルグループに3000ピクセル行、第2のピクセルグループに3000ピクセル行を有する場合、各グループが走査方向の10度のビューの領域に対応し、走査方向の所望のビューの領域が60度である場合、リフレクター105は第1のピクセルグループで60度のビューの領域をカバーするために6つの異なる位置に停止し得る。
撮像システム101は、ピクセルグループの異なる組み合わせによるシーンのカバレッジ(coverage)を確実にするために異なる走査方法を有し得る。例えば、コントローラ113が深度マップを形成するように指示された場合、コントローラ113は、シーンの一部をイメージセンサ109のカラーピクセルおよびIRピクセルに向ける第1のスキームを開始する。しかしながら、深度マップが所望されない場合(例えば、異なるアプリケーションの場合)、コントローラ113は、シーンの部分をカラーピクセルだけに向ける第2のスキームを開始し得る。撮像システム101は、外部光条件、システムロジック、ユーザ命令、および/またはアプリケーション命令などの1つまたは複数の要因に基づいて、特定の走査方法を開始し得る。
(レンズモジュールの例)
いくつかの例示的な実施形態では、画像ストリップの所望の出力アスペクト比は、画像センサ109のアスペクト比とは異なる。例えば、撮像システム101は、アスペクト比が4:3または16:9(または他の所望の比)のシーンを、5:1または10:1などのはるかに高いアスペクト比でイメージセンサ109上に撮像する。
そのために、レンズモジュール107は、X軸およびY軸(Zは、光軸)に沿って異なる焦点距離を有し得る。異なる焦点距離を達成することは、フリーフォーム光学素子(アナモルフィックレンズとしても知られる)を使用することによって、または1つの方向にのみ光学的パワーを有する円筒形光学素子を使用することによって行われ得る。このようなレンズモジュール107を使用した結果、センサ上の各ピクセル(対称ピクセル(例えば、正方形状)であると仮定する)は、シーン内の長方形の領域から光子を集め得る。
X方向およびY方向で同様の解像度を達成するために、イメージセンサ109は、非対称ピクセル(例えば、長方形のピクセル)を有することが有利であり得る。別のオプションは、(例えば、コントローラモジュール113によって)画像センサ109の長い方の寸法(例えば、y方向に沿って)にアナログまたはデジタルビニングを適用して、その次元(dimension)における解像度を、所望の出力アスペクト比に対応する解像度に低減することである。
光軸に垂直な2つの次元の異なる焦点距離を有するレンズモジュール107を設計するために、レンズ要素表面の少なくとも2つは非対称であり得る。1つの非対称面のみを使用することは、異なる焦点距離となり得るが、焦点面も異なり得るため、単一のイメージセンサ109を使用して画像をキャプチャすることが困難または不可能になり得る。したがって、これらの実施形態では、レンズモジュール107は、非対称面を有する少なくとも2つの光学表面を有する光学設計を備え得る。
例えば、図15は、一実施形態による、例示的なレンズモジュール107およびイメージ画像センサ109の側面図および背面図を示す。イメージセンサ109は、高いアスペクト比を有し、そのことはx軸とy軸に沿った長さを比較することによって見ることができる。図15の例示的なレンズモジュール107は、3つのレンズ要素を有する。レンズモジュール107は、xz平面ではより短い焦点距離を有し、yz平面ではより長い焦点距離を有する。これを行うために、図15のレンズモジュール107は、レンズモジュール107が画像をイメージセンサの平面上に焦点を合わせることができることを確実にするために、少なくとも2つの非対称レンズ素子(図示せず)を有し得る。
(マイクロレンズアレイ付きイメージセンサ)
いくつかの実施形態では、撮像システム101は、イメージセンサ109の上方、またはイメージセンサ109上にレンズアレイ(例えば、マイクロレンズアレイ)を含む。レンズアレイは、イメージセンサ109のピクセルに光を集中させるレンズ(例えば、マイクロレンズ)のアレイ(例えば、グリッド)である。各レンズは、イメージセンサ上のピクセルのサブセット(例えば、2,3,または4ピクセル)に光を集中させ得る。いくつかの実施形態では、アレイのレンズは、(例えば、y軸に沿って)センサの長い寸法の2つ以上のピクセルのグループに光を集中する。これは、アレイのレンズの下の各グループ内の左右のピクセル間の視差をもたらし得る。各レンズの下に2つ以上のピクセルを使用することは、各ピクセルの対がそのサイズが異なる有効なベースラインを有するため、撮像システム101が生画像データから深度情報を導出する能力の観点において有利であり得る。このことについて、さらに後述する。
この文脈で、視差は、別の画像と比較したある画像内のオブジェクトの位置のオフセットを意味し得る。例えば、レンズアレイの各レンズが2つのピクセルの別のグループの上にある場合、撮像システム101は2つの画像を生成することができる。例えば、左の画像はレンズの下の左のピクセルによってキャプチャされ、右の画像はレンズの下の右のピクセルによってキャプチャされる。左のピクセルはレンズ開口の左側を通して外部環境を「見る」、そして、右のピクセルはレンズ開口の右側を通して外部環境を「見る」から、左と右の画像は、ステレオカメラと同様に、それらの間に視差を有する。各レンズが3つのピクセルのグループをカバーする場合、撮像システムは、視差情報をそこから抽出するために3つの画像(例えば、左、右、および中央の画像)を生成し得る。
レンズアレイは、開口からの位相検出およびステレオビューの作成のために使用され得る。レンズモジュール107の非対称開口のため、異なるピクセルは、異なる視差情報を提供し得る。イメージセンサ平面の大きな方の寸法では、視差は大きくし得、小さい方の寸法では、視差は小さくし得る。視差情報を決定することは、深度計算アルゴリズムおよび合焦(例えば、位相検出オートフォーカス(PDAF))にとって有益であり得る。深度計算では、誤差の低減、遮蔽効果の低減、深度計算可能範囲の拡大のために、大きな視差情報と小さな視差情報を有することは有用である。したがって、レンズアレイの使用は、短距離(例えば、1メートル未満)および長距離(例えば、2-10メートル)の範囲でのオートフォーカスを可能にし得る。
例えば、図16Aおよび図16Bは、いくつかの実施形態による、イメージセンサ109のピクセルグループにわたるレンズアレイのレンズ1603を示す。例示の目的のために、アレイの単一のレンズ1603のみが示される。いくつかの実施形態では、レンズアレイは、センサ109のすべてのピクセルをカバーするのに十分なレンズを含む。図16Aおよび図16Bの例では、レンズ1603は連続した3つのピクセル(ピクセル1605L、1605C、1605R)をカバーしている。レンズ1603の左側を通って伝播する光子は左ピクセル1605Lによって受光され、レンズ1603の右側を通って伝播する光子は右ピクセル1605Rに受光され、レンズ1603の中心を通って伝播する光子は中心ピクセル1605Cによって受光される。これにより、ピクセルグループ1605からの任意のピクセルの対を用いて、視差情報を算出することが可能となる。これは、フォーカスの目的と深度の品質に役立ち得る。右ピクセル1605Rと左ピクセル1605Lとの間の視差はより大きなものとなり得、一方、左ピクセルまたは右ピクセルと中心ピクセル1605Cとの間の視差はより小さくなり得る。他の利点の中でも、異なるベースライン対からの情報を使用することは、深度計算することができる範囲を増加させ、その精度を向上させるのに役立ち得る。
(カラーフィルタアレイ)
いくつかの実施形態では、イメージセンサ109は、カラーフィルタアレイ(CFA)を含む。CFAは、通常のベイヤパターン、または、CMOSセンサでよく使用されるRGBYなどの他のパターンとは異なる。CFAでは、各カラーフィルタは1以上のピクセルをカバーし、カバーピクセル数はアスペクト比の差に対応する。例えば、アスペクト比が4:3のシーンを画像化するアナモフィックレンズ(例えば、モジュール107内)によって向けられた光を受光するアスペクト比が8:3のイメージセンサ109は、長い方のセンサ寸法(例えば、y軸に沿って)において2つのピクセル、および、小さい方のセンサ寸法(例えばX軸に沿って)において1つのピクセルをカバーするCFAを有することになる。別の例は、アスペクト比が4:3のシーンを画像化するアナモフィックレンズ(例えば、モジュール107内)によって向けられた光を受光するアスペクト比が12:3のイメージセンサ109であり、長い方のセンサ寸法において3つのピクセル、および、短い方の、短い、小さい方の寸法において1つのピクセルをカバーするCFAを有することになる(例えば、図17を参照されたい)。CFAは、同じ色特性のピクセルをビニングする目的で、また、同じ色ファミリーのピクセルを使用してPDAF(位相検出オートフォーカス)を可能にする目的でも有益である。
例えば、図17は、一実施形態による、イメージセンサ109上の例示的なCFAを示す。CFAは、センサ109のピクセル上に赤色フィルタ1705、緑色フィルタ1703、および青色フィルタ1707のパターンを含む。各カラーフィルタは、横一列に3ピクセルのグループをカバーする。これは、(例えば、レンズモジュール107内の)非対称レンズの焦点距離の差異に対応するアスペクト比を有する分布をもたらす。CFAは、撮像システム101を参照して説明されるが、CFAは、他の撮像システムで使用することができる。例えば、CFAは、レンズとイメージセンサとの間にアスペクト比の差異を有する撮像システムで使用することができる。
いくつかの実施形態では、撮像システム101は、レンズアレイおよびCFAを含む。2×2としてグループ化された4つのピクセルをそれぞれカバーするアレイのレンズを有するイメージセンサは、CFAも2×2分布で適用されている場合に、ピクセルの各2×2グループにカラーフィルタ(例えば、赤、緑、青)が適用されているという意味で「クワドラ(quadra)」と呼ばれ得る。
(ダイクロイックビームスプリッタ(DICHROIC BEAM SPLITTER))
図18を参照すると、いくつかの例示的な実施形態においては、リフレクターは、ダイクロイックビームスプリッタ1803である。ダイクロイックビームスプリッタは、入射光の波長に依存する分割比を有する。例えば、ダイクロイックビームスプリッタ1803は、可視波長の光をセンサ109に向け、赤外線波長の光をダイクロイックビームスプリッタ1803の後ろに配置された赤外線カメラ1805に透過させる(例えば、ダイクロイックビームスプリッタ1803は、ウィンドウ102(図18に図示せず)と赤外線カメラ1805との間にある)。このような設定の利点は、赤外線カメラ1805(例えば、ToFを使用して、または構造化光視差計算を用いる赤外線視差パターンプロジェクタに結合された場合)によって決定された深度画像が、イメージセンサ109によってキャプチャされた可視画像と共に位置合わせされ得ることである。したがって、(例えば、別々のカメラを持つ深度画像システムで行われるように)一方の画像を他方の画像にワープ(warp)させて、それらを位置合わせする必要をなくし得る。深度と可視(典型的には、赤色、緑色、および青色)の画像を位置合わせすることは、合成被写界深度、背景置換または除去、ポートレートモード、深度ベースの照明効果などの深度および色情報を使用する画像処理プロセスに有益であり得る。
(深度情報の例示的な使用)
本明細書で説明されるように、深度情報は、センサ109上の集積化分割フォトダイオード技術(図9-図11を参照して説明される)を使用して、ステレオカメラを使用して(例えば、レンズアレイを使用して)、または統合された深度カメラを使用して決定され得る。いくつかの実施形態では、深度情報は、レンズモジュール107およびその開口部によってピントがあっていないシーン内のオブジェクトに導入されるぼけ(blur)を操作するために用いられ得る。このようなぼけは、レンズ開口形状に起因して非対称であり得る。対称的なぼけ(例えば、円形のぼけ)が要求される場合、深さ情報は、ぼけの少ないまたはぼけのない画像の方向または領域におけるぼけに適用されるために使用し得る。したがって、適用されたぼけが非対称のぼけと組み合わされる場合に、画像は、円形対称のぼけを有し得る。
いくつかの実施形態では、ハイパスフィルタまたはエッジ検出アルゴリズム(例えば、勾配ベースである)は、焦点があっている、または焦点があっていない、そして、いかなる高周波エネルギーも含んでいないオブジェクトの検出に使用される。
いくつかの実施形態では、レンズの開口は、開口の周辺に近いほど減少する透過率を有するアポダイゼーションフィルタを含む。開口は円形ではなくし得、アポダイゼーションプロファイルは、透過率が開口の外側輪郭からの距離によって画定されるような方法で開口部形状に従い得る。アポダイゼーションの目的は、焦点が合っていないオブジェクトからの高周波情報を除去することである。これは、ポートレートモードなどの背景/前景分離に依存する画像処理プロセスにとって、画像の背景/前景分離をより良くすることを可能にし得る。
(結合画像を形成する例示的な方法)
ここで図12を参照すると、一実施形態による、外部環境のビューの結合画像を形成する方法を示すフローチャートである。方法は、コントローラ113の視点から実行され得る。方法のステップは、異なる順序で実行され得、方法は、異なるステップ、追加のステップ、またはより少ないステップを含み得る。説明されるステップのうちの1つまたは複数は、マシン読み取り可能媒体上に命令として記憶され、プロセッサによって(例えば、図1 3を参照して説明されるように)実行され得る。
コントローラ113は、リフレクター(例えば、リフレクター105)を軸(例えば、軸115)の周りで、イメージセンサ(例えば、センサ109)に対して第1の位置まで回転させる(1201)。第1の位置では、リフレクターは、外部環境に対応するビューの第1の部分からの光をイメージセンサに向ける。イメージセンサは、ビューの第1の部分の画像をキャプチャする(1203)。コントローラ113は、リフレクターを軸の周りで、イメージセンサに対して第2の位置に回転させる(1205)。第2の位置では、リフレクターは、外部環境に対応するビューの第2の部分からの光をイメージセンサに向ける。第2の位置は、第1の位置とは異なり得る。イメージセンサは、ビューの第2の部分の画像をキャプチャする(1207)。コントローラ113は、第1の部分の画像と第2の部分の画像とを結合して、外部環境のビューに対応する結合画像を形成する(1209)。コントローラ113は、画像ステッチを実行することにより、画像を結合し得る。
ビューの第2の部分は、ビューの第1の部分と少なくともいくらかの重複を有し得る。
いくつかの実施形態では、リフレクターは、イメージセンサによる第1の部分の画像のキャプチャ、またはイメージセンサによるビューの第2の部分の画像のキャプチャのうちの少なくとも1つの期間、継続的に回転される。
いくつかの実施形態では、リフレクターは、イメージセンサによるビューの第1の部分の画像のキャプチャ、またはイメージセンサによるビューの第2の部分の画像のキャプチャのうちの少なくとも1つの期間、総体的に静止している。この文脈において、総体的に静止しているとは、イメージセンサが画像をキャプチャしている間に、リフレクターが軸の周りに2度未満回転することを示し得る。例えば、50ミリ秒での手振れ(hand shake)効果は、最大0.2度である。したがって、リフレクターは、露光中にいずれかの方向に0.1度回転して、ハンドシェイクを補償し得る。
画像を結合するために、コントローラ113は、第1の部分の画像の特徴およびエッジを第2の部分の画像の特徴およびエッジと位置合わせし得る。
いくつかの実施形態では、コントローラ113は、外部環境に対応する第2のビューの画像をキャプチャする(画像1405は、外部環境の第2のビュー(ビュー1401)の例示的な画像である)。第2のビューは、第1および第2の部分の少なくともいくらか(例えば、少なくとも第1および第2の部分の画像のステッチ領域)を含む。第1の部分の画像と第2の部分の画像の結合は、第2のビューの画像に基づき得る。第2のビューの画像は、イメージセンサから物理的に分離された第2のイメージセンサによってキャプチャされ得る。
コントローラ113は、外部環境のビューに対するイメージセンサの動きを示すモーションデータをモーションセンサから受信し得る。外部環境のビューに対するイメージセンサの動きが閾値を超えていると決定することに応答して、コントローラ113は、動きを補償するために、リフレクターの第1の位置を修正し得る。修正された第1の位置にあるリフレクターは、前記外部環境のビューの第1の部分からの光をイメージセンサに向ける。代替的または追加的に、コントローラ113は、リフレクターに対するイメージセンサの位置をずらし得、ずらした位置のイメージセンサは、外部環境のビューの第1の部分からの光を受光する。
リフレクターおよびイメージセンサは、ディスプレイを有するモバイルデバイスに収容され得、光は、リフレクターによって向けられる前にディスプレイを通って伝播する。
いくつかの実施形態では、第1の位置において、リフレクターの反対側は、第2のイメージセンサの方に光を向ける。第2のイメージセンサは、イメージセンサとは物理的に分離されている。
いくつかの実施形態では、コントローラ113は、軸の周りでイメージセンサに対して第3の位置までリフレクターを回転させる。第3の位置では、リフレクターの反対側は、ビューの第1の部分からの光をイメージセンサに向ける。コントローラ113は、イメージセンサによって、ビューの第1の部分の第2の画像をキャプチャする。リフレクターの反対側は、波長フィルタを含み得る。
コントローラ113は、第2のリフレクターを第2の軸の周りでイメージセンサに対して回転させ得る。第2のリフレクターは、外部環境のビューの第3の部分からの光をイメージセンサに向ける。コントローラ113は、イメージセンサによって、ビューの第3の部分の画像をキャプチャする。いくつかの実施形態では、リフレクターは、イメージセンサの第1の部分に光を向け、第2のリフレクターは、イメージセンサの第2の部分に光を向ける。
いくつかの実施形態では、第1の位置は、ビューの第1の部分からの光をイメージセンサの第1の部分に向ける。コントローラ113は、リフレクターを軸の周りで、イメージセンサに対して第3の位置に回転させる。第3の位置において、リフレクターは、ビューの第1の部分からイメージセンサの第2の部分に光を向ける。イメージセンサの第2の部分は、イメージセンサの第1の部分に存在しない波長フィルタを含み得る。
いくつかの実施形態では、リフレクターは、1つまたは複数の赤外線波長に対して透明である。コントローラは、赤外線カメラによってビューの一部分の画像をキャプチャし、リフレクターは、赤外線カメラとウィンドウとの間に配置される。
(例示的なマシンアーキテクチャ)
ここで図13を参照すると、図13は、マシン読み取り可能媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的なマシンの構成要素を示すブロック図である。具体的には、図13は、コンピュータシステム1300の例示的な形態におけるモバイルデバイス103の模式図を示す。コンピュータシステム1300は、本明細書で説明される方法論(またはプロセス)(例えば、図12を参照して説明される方法)のうちのいずれか1つまたは複数をマシンに実行させるための命令1324(例えば、プログラムコードまたはソフトウェア)を実行するために使用することができる。代替的な実施形態において、マシンは、スタンドアロンデバイス、または他のマシンに接続する接続された(例えば、ネットワーク化された)デバイスとして動作する。ネットワーク化されたデプロイメントにおいて、マシンは、サーバー・クライアントネットワーク環境におけるサーバーマシンもしくはクライアントマシンとして、またはピア・ツー・ピア(または分散)ネットワーク環境におけるピアマシンとして動作し得る。
マシンは、後述するように、プロセッサおよびストレージを有する処理構成要素を備えるスタンドアロンカメラであり得る。マシンはまた、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、スマートフォン、モノのインターネット(IoT)アプライアンス、またはそのマシンによって実行されるべき動作を指定する命令1324(順次またはそれ以外)を実行することができる任意のマシンと結合したカメラを含むシステムの一部であり得、本明細書に記載されるように撮像システムを組み込むための小さな体積領域を有し得るシステムの一部であり得る。さらに、1つのマシンだけが示されているが、「マシン」という用語は、また、本明細書で説明される方法論のうちのいずれか1つまたは複数を実行するための命令1324を個々にまたは共同して実行するマシンの任意の集合を含むものと解釈される。命令は、例えば、図1-図18に関して説明される撮像システムの構成要素、および/または画像処理システムを制御するための命令であり得る。
例示的なコンピュータシステム1300は、1つまたは複数の処理ユニット(一般に、プロセッサ1302)を含む。プロセッサ1302は、例えば、中央処理装置(CPU)、グラフィック処理装置(GPU)、デジタルシグナルプロセッサ(DSP)、コントローラ、状態マシン、1つもしくは複数の特定用途向け集積回路(ASIC)、1つもしくは複数の無線周波数集積回路(RFIC)、またはこれらの任意の組み合わせである。コンピュータシステム1300は、また、メインメモリ1304を含む。コンピュータシステムは、ストレージユニット1316を含み得る。プロセッサ1302、メモリ1304、およびストレージユニット1316は、バス1308を介して通信する。
さらに、コンピュータシステム1300は、スタティックメモリ1306、ディスプレイドライバー1310(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクターを駆動するために)を含むことができる。コンピュータシステム1300は、また、英数字入力デバイス1312(例えば、キーボード)、カーソル制御デバイス1314(例えば、マウス、トラックボール、ジョイスティック、モーションセンサ、または他のポインティング機器)、信号生成デバイス1318(例えば、スピーカ)、およびネットワークインタフェースデバイス1320を含み得、これらは、また、バス1308を介して通信するように構成されている。
ストレージユニット1316は、本明細書で説明される1つもしくは複数の方法論、または機能のいずれかを具現化する命令1324(例えば、ソフトウェア)が格納されるマシン読み取り可能媒体1322を含む。命令1324は、また、コンピュータシステム1300によるその実行中に、メインメモリ1304内、またはプロセッサ1302内(例えば、プロセッサのキャッシュメモリ内)に完全にまたは少なくとも部分的に存在し得、メインメモリ1304、およびプロセッサ1302は、また、マシン読み取り可能媒体を構成する。命令1324は、ネットワークインタフェースデバイス1320を介してネットワーク1326の上で送信または受信され得る。
マシン読み取り可能媒体1322は、例示的な一実施形態においては、1つの媒体であるように示されているが、「マシン読み取り可能媒体」という用語は、命令1324を格納することが可能である1つの媒体または複数の媒体(例えば、集中型または分散型データベース、もしくは関連するキャッシュおよびサーバー)を含むものと解釈される。「マシン読み取り可能媒体」という用語は、また、マシンによる実行のための命令1324を格納することが可能であり、マシンに本明細書に開示される1つまたは複数の方法論のうちの任意のものを実行させる任意の媒体を含むものと解釈される。「マシン読み取り可能媒体」という用語は、限定するわけではないが、固体メモリ、光学媒体、および磁気媒体の形態でのデータリポジトリを含む。
(さらなる考慮事項)
本明細書に記載の撮像システムおよび関連するアルゴリズムは、サイズ、体積、形状、および性能の点で、従来のカメラよりもいくつかの利点を有する。例えば、他の利点の中で、本明細書に記載の撮像システムは、同等のサイズの従来のシステムよりも大きな解像度を有する画像を生成し得る。さらに、撮像システムは、画像ストリップのキャプチャ中に、システムの意図しない動きを補償するために、リフレクターを調整することができる。さらに、ハウジングの前方または後方の外部環境の画像は、リフレクターを回転させることによってキャプチャされ得る。複数の画像センサがハウジングに含まれる場合、撮像システムは、ハウジングの前方および後方の画像を同時にキャプチャし得る。これらは、本明細書に記載の撮像システムの利点のほんの一部にすぎない。
本明細書を通じて、複数の例示は、1つの例示として説明されるコンポーネント、動作、または構造を実装し得る。1つまたは複数の方法の個々の動作が、別個の動作として図示、および説明されているが、1つまたは複数の個々の動作は、同時に実行され得、動作を図示されている順序で実行する必要はない。例示的な構成において、別個の構成要素として提示される構造および機能は、組み合わされた構造または構成要素として実装され得る。同様に、1つの構成要素として提示される構造および機能は、別個の構成要素として実装され得る。これら、および他の変形例、修正、追加、および改善は、本明細書の主題の範囲内にある。
特定の実施形態は、本明細書において、論理またはいくつかの構成要素、モジュール、またはメカニズム、例えば、コントローラモジュール113を含むものとして説明される。モジュールは、ソフトウェアモジュール(例えば、マシン読み取り可能媒体上、または伝送信号内で具体化されたコード)、またはハードウェアモジュールのいずれかを構成し得る。ハードウェアモジュールは、特定の動作を実行することが可能である有形のユニットであり、特定の方法で構成、または配置され得る。例示的な実施形態において、1つもしくは複数のコンピュータシステム(例えば、スタンドアローン、クライアント、もしくはサーバーコンピュータシステム)、またはコンピュータシステムの1つもしくは複数のハードウェアモジュール(例えば、プロセッサ、もしくはプロセッサのグループ)は、本明細書で説明される特定の動作を実行するために動作するハードウェアモジュールのように、ソフトウェア(例えば、アプリケーション、またはアプリケーションの一部)によって構成され得る。
さまざまな実施形態において、ハードウェアモジュールは、機械的に、または電子的に実装され得る。例えば、ハードウェアモジュールは、特定の動作を実行するための永続的に構成される専用の回路、または論理(例えば、フィールドプログラマブルゲートアレイ(FPGA)、もしくは特定用途向け集積回路(ASIC)などの特定用途プロセッサとして)含み得る。また、ハードウェアモジュールは、特定の動作を実行するためのソフトウェアによって一時的に構成されるプログラム可能な論理、または回路(例えば、汎用プロセッサ、もしくは他のプログラム可能なプロセッサに包含されるもの)を含み得る。ハードウェアモジュールを機械的に、専用の恒久的に構成された回路に、または一時的に構成された回路(例えば、ソフトウェアによって構成された)に実装する決定は、コストおよび時間の考慮によって決定され得ることが理解されよう。
本明細書で説明される例示的な方法のさまざまな動作は、関連する動作を実行するように一時的に構成される(例えば、ソフトウェアによって)、または永続的に構成される1つまたは複数のプロセッサ、例えばプロセッサ1302によって少なくとも部分的に実行され得る。一時的に、恒久的に構成されるかにかかわらず、そのようなプロセッサは、1つまたは複数の動作または機能を実行するために動作するプロセッサ実装モジュールを構成し得る。本明細書で参照されるモジュールは、いくつかの例示的な実施形態において、プロセッサ実装モジュールを含み得る。
1つまたは複数のプロセッサは、また、「クラウドコンピューティング」環境において、または「サービスとしてのソフトウェア」(SaaS)として関連する動作の実行をサポートするために動作し得る。例えば、少なくともいくつかの動作は、コンピュータのグループ(プロセッサを含むマシンの例示として)によって実行され得、これらの動作は、ネットワーク(例えば、インターネット)、および1つまたは複数の適切なインタフェース(例えば、アプリケーションプログラムインタフェース(APIs))を介してアクセス可能である。
特定の動作の実行は、1つのマシン内に存在するだけではなく、複数のマシンにわたって展開される、1つまたは複数のプロセッサ間で分散され得る。いくつかの例示的な実施形態において、1つもしくは複数のプロセッサまたはプロセッサ実装モジュールは、1つの地理的位置(例えば、家庭環境内、オフィス環境内、またはサーバーファーム内)に配置され得る。他の例示的な実施形態において、1つもしくは複数のプロセッサまたはプロセッサ実装モジュールは、複数の地理的位置にわたって分散され得る。
本明細書のいくつかの部分は、マシンメモリ(例えば、コンピュータメモリ)内のビット、もしくはバイナリデジタル信号として格納されるデータに対する動作のアルゴリズム、または記号表現の観点から提示される。これらのアルゴリズム、または記号表現は、彼らの仕事の内容を他の当業者に伝えるためにデータ処理技術における当業者によって用いられる技術の例である。本明細書で用いられるように、「アルゴリズム」は、所望の結果へと導く首尾一貫した一連の動作、または同様の処理である。この文脈において、アルゴリズム、および動作は、物理量の物理的操作を含む。通常、必ずしもそういうわけではないが、このような量は、マシンによって、格納されること、アクセスされること、転送されること、組み合わされること、比較されること、もしくはその他の方法で操作されることが可能である電気的な、磁気的な、または光学的な信号の形態をとり得る。主に共通使用の理由で、「データ」、「コンテンツ」、「ビット」、「値」、「要素」、「記号」、「文字」、「用語」、「数」、または「数字」などのような単語を用いてこのような信号を参照することは、時には便利である。しかしながら、これらの単語は、単に便利なラベルであり、適切な物理量に関連付けられるべきものである。
特に明記しない限り、「処理(processing)」、「演算(computing)」、「計算(caluculating)」、「決定(determining)」、「提示(presenting)」、または「表示(dysplaying)」などのような単語を用いる本明細書での議論は、1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、もしくはそれらの組み合わせ)、レジスタ、または情報を受信、格納、伝送、もしくは表示する他のマシンコンポーネント内に、物理(例えば、電子、磁気、または光学)量として表現されるデータを操作もしくは転送するマシン(例えば、コンピュータ)のアクション、またはプロセスを指し得る。
本明細書で用いられるように、「一実施形態」、または「実施形態」への参照は、この実施形態に関連して説明される特定の要素、特性、構造、または特徴が少なくとも1つの実施形態において含まれることを意味する。明細書のさまざまな箇所における「一実施形態において」というフレーズの出現は、必ずしもすべてが同一の実施形態を参照しているとは限らない。
いくつかの実施形態は、「結合される」、および「接続される」という表現をそれらの派生語と共に用いて説明され得る。例えば、いくつかの実施形態は、2つまたは3つ以上の要素が直接物理的または電気的に接触していることを示すために「結合する」という用語を用いて説明され得る。しかしながら、「結合する」という用語は、2つまたは3つ以上の要素が互いに直接接触していないが、依然として互いに協働または相互作用することも意味し得る。実施形態は、この文脈において限定されない。
本明細書で用いられる場合、「含む(comprises)」、「含んでいる(comprising)」、「含む(includes)」、「含んでいる(including)」、「有する(has)」、「有している(having)」、またはそれらの任意の他の変形例は、非排他的な包含をカバーすることが意図されている。例えば、要素のリストから構成されるプロセス、方法、物品、または装置は、必ずしもそれらの要素のみに限定されるのではなく、そのようなプロセス、方法、物品、もしくは装置に明示的に記載されていない、または固有の他の要素を含み得る。さらに、そうではないと明示的に述べられていない限り、「または」は、包括的な「または」を指し、排他的な「または」ではない。例えば、条件AまたはBは、以下のいずれか1つによって満たされる:Aは真(または存在する)およびBは偽(または存在しない)、Aは偽(または存在しない)およびBは真(または存在する)、ならびに、AおよびBの両方が真(または存在する)。
さらに、「a」または「an」の使用は、本明細書における実施形態の要素およびコンポーネントを説明するために採用される。これは、単に便宜上、および本発明の一般的な意味を付与するために行われているに過ぎない。この説明は、1つまたは少なくとも1つを含むと読まれるべきであり、また、そうでないことを意味することが明らかでない限り、単数形が複数形を含む。
本開示を読めば、当業者は、本明細書で開示される原理を通じて、結合画像を形成するためのシステムおよびプロセスのための付加的な代替的構造および機能設計を認識するであろう。このように、特定の実施形態および用途が例示され、ならびに説明されてきたが、開示された実施形態は、本明細書で開示されたとおりの構造および構成要素に限定されないことを理解されたい。当業者にとって明らかであろうさまざまな修正、変更および変形は、添付の特許請求の範囲において定義される趣旨および範囲から逸脱せずに、本明細書で開示される方法および装置の配置、動作および詳細においてなされ得る。

Claims (39)

  1. 大きい方のエッジ寸法と小さい方のエッジ寸法とを含むセンサ平面アスペクト比を有するイメージセンサであって、17:9よりも大きなアスペクト比を有するイメージセンサと、
    軸の周りで前記イメージセンサに対して回転可能であり、前記イメージセンサへ外部環境のビューの一部からの光を向けるよう構成されたリフレクターであって、前記軸が前記イメージセンサの前記大きい方のエッジ寸法と実質的に平行であるリフレクターと、
    前記リフレクターおよび前記イメージセンサの間に1つまたは複数のレンズを含むレンズモジュールであって、レンズモジュールの開口は非対称であり、大きい方の寸法と小さい方の寸法を含み、前記開口の前記大きい方の寸法は前記イメージセンサの前記大きい方のエッジ寸法と実質的に平行であるレンズモジュールと、
    前記イメージセンサおよび前記リフレクターと結合されたコントローラであって、
    前記イメージセンサへ前記外部環境の前記ビューの部分からの光を向けるために前記リフレクターを前記軸の周りで回転させ、
    前記外部環境の前記ビューの前記部分の画像をキャプチャするために前記イメージセンサと前記リフレクターを同期させ、および
    前記外部環境の前記ビューを含む画像を形成するために前記イメージセンサからの前記画像を結合するように構成されているコントローラとを
    含む撮像システム。
  2. 前記リフレクターが長方形のアスペクト比を有し、前記リフレクターの長い軸は前記イメージセンサの前記大きい方の寸法に実質的に平行である、請求項1に記載の撮像システム。
  3. 前記ビューの第1の部分は前記リフレクターが前記イメージセンサに対して第1の回転位置にある間にキャプチャされ、前記ビューの第2の部分は前記リフレクターが前記イメージセンサに対して第2の異なる回転位置にある間にキャプチャされる、請求項1に記載の撮像システム。
  4. 前記外部環境の画像をキャプチャするために配置された第2のイメージセンサをさらに含み、前記画像は前記外部環境の前記ビューの2または3つ以上の前記部分を含む、請求項1に記載の撮像システム。
  5. 前記コントローラが前記第2のイメージセンサによってキャプチャされた画像に基づいて前記イメージセンサからの画像を結合するように構成されている、請求項4に記載の撮像システム。
  6. 前記イメージセンサによってキャプチャされた前記ビューの部分が、前記イメージセンサによってキャプチャされた前記ビューの別の部分と少なくともいくらかの重複を有する、 請求項1に記載の撮像システム。
  7. 前記軸は、前記イメージセンサのセンサ平面と実質的に平行である、請求項1に記載の撮像システム。
  8. 前記リフレクターが両面である、請求項1に記載の撮像システム。
  9. 前記リフレクターが光学フィルタを含む、請求項1に記載の撮像システム。
  10. 前記リフレクターが前記軸に対して実質的に直交する別の軸の周りを回転可能である、請求項1に記載の撮像システム。
  11. 前記リフレクターが前記軸に沿って移動するようにさらに構成されている、請求項1に記載の撮像システム。
  12. 前記コントローラが前記撮像システムの動きを補償するために、前記軸の周りで前記リフレクターを回転させるようにさらに構成されている、請求項1に記載の撮像システム。
  13. 前記コントローラが前記撮像システムの動きを補償するために、前記イメージセンサ、または、前記レンズモジュールを動かすようにさらに構成されている、請求項1に記載の撮像システム。
  14. 前記レンズの入射瞳が前記リフレクターに隣接している、請求項1に記載の撮像システム。
  15. 前記イメージセンサが、1つまたは複数のピクセルの上のフィルタを含む、請求項1に記載の撮像システム。
  16. 前記イメージセンサおよび前記リフレクターを収容するモバイルデバイスのハウジングをさらに含み、前記モバイルデバイスはディスプレイを含み、前記外部環境の前記ビューからの光が前記リフレクターによって向けられる前に前記ディスプレイを通って伝搬する、請求項1に記載の撮像システム。
  17. 第2のリフレクターをさらに含み、前記第2のリフレクターが前記イメージセンサに対して、前記軸に対して実質的に平行な第2の軸の周りで回転可能であり、前記リフレクターが前記イメージセンサの第1の部分へ光を向け、前記第2のリフレクターが前記イメージセンサの第2の異なる部分へ光を向ける、請求項1に記載の撮像システム。
  18. 前記レンズモジュールのレンズ面が対称である、請求項1に記載の撮像システム。
  19. 前記レンズモジュールが、前記レンズモジュールに2つの異なる焦点距離を生じさせる少なくとも2つの非対称レンズ面を含む、請求項1に記載の撮像システム。
  20. 少なくとも17:9のアスペクト比を有するイメージセンサと、
    外部環境のビューの部分からの光を前記イメージセンサに向けるように配置されたリフレクターと、
    前記イメージセンサと前記リフレクターとの間に配置されたレンズモジュールであって、前記レンズモジュールは、前記イメージセンサ上に前記ビューの前記部分の画像を形成するように構成されており、前記レンズモジュールは、前記レンズモジュールに2つの異なる焦点距離を生じさせる少なくとも2つの非対称レンズ面を含むものであるレンズモジュールと、
    前記イメージセンサと結合され、前記外部環境の前記ビューの前記部分の前記画像をキャプチャするように前記イメージセンサに命令するよう構成されたコントローラとを含む撮像システムであって、
    前記レンズモジュールの開口は非対称であり、
    前記レンズモジュールの前記非対称の開口は、大きい方の寸法および小さい方の寸法を含み、
    前記イメージセンサの前記アスペクト比は大きい方の寸法および小さい方の寸法を含み、
    前記開口の大きい方の寸法は、前記イメージセンサの前記アスペクト比の大きい方の寸法と実質的に平行である、
    撮像システム。
  21. 前記リフレクターは、前記イメージセンサおよび前記撮像システムに対して回転可能である、請求項20に記載の撮像システム。
  22. 前記リフレクターは、長い軸および小さい軸を含み、
    前記リフレクターの前記長い軸は、前記イメージセンサの前記アスペクト比の前記大きい方の寸法に実質的に平行である、
    請求項20に記載の撮像システム。
  23. 格納された命令を含む非一時的なコンピュータ読み取り可能な記録媒体であって、前記命令は実行されたとき、少なくとも一つのプロセッサに
    リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させ、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第2の位置まで回転させ、前記リフレクターが前記第2の位置にある場合、前記外部環境に対応する前記ビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境に対応する第2のビューの画像を前記イメージセンサとは物理的に分離された第2のイメージセンサによってキャプチャすることであって、前記第2のビューは前記第1および第2の部分を含むことと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記第2のビューの前記画像に基づいて、前記第1の部分の前記画像および前記第2の部分の前記画像を結合することとを行わせる、
    非一時的なコンピュータ読み取り可能な記録媒体。
  24. 前記ビューの前記第2の部分が前記ビューの前記第1の部分と少なくともいくらかの重複を有する、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  25. 結合画像を形成するために前記第1の部分の前記画像と前記第2の部分の前記画像とを結合する前記命令は、前記第1の部分の前記画像と前記第2の部分の前記画像とをステッチする命令を含む、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  26. 前記イメージセンサによって前記第1の部分の前記画像をキャプチャする前記命令、または、前記イメージセンサによって前記ビューの前記第2の部分の前記画像をキャプチャする前記命令の少なくとも一つは、前記プロセッサによって実行されるとき、前記リフレクターを連続的に回転させる命令をさらに含む、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  27. 前記イメージセンサによって前記第1の部分の前記画像をキャプチャする前記命令、または、前記イメージセンサによって前記ビューの前記第2の部分の前記画像をキャプチャする前記命令の少なくとも一つは、前記プロセッサによって実行されるとき、前記リフレクターを前記イメージセンサに対して比較的静止したままとする命令をさらに含む、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  28. 前記記録媒体は
    モーションセンサからの動きデータを受信することであって、前記動きデータは前記外部環境の前記ビューに対する前記イメージセンサの動きを示すことと、
    前記外部環境の前記ビューに対する前記イメージセンサの動きが閾値以上であると決定されることに応答して、前記動きを補償するために前記リフレクターの前記第1の位置を調整し、前記調整された第1の位置での前記リフレクターは、前記外部環境の前記ビューの前記第1の部分からの光を前記イメージセンサに向けること
    行わせる命令をさらに含む、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  29. 格納された命令を含む非一時的なコンピュータ読み取り可能な記録媒体であって、前記命令は実行されたとき、少なくとも一つのプロセッサに
    リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させ、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第2の位置まで回転させ、前記リフレクターが前記第2の位置にある場合、前記外部環境に対応する前記ビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記第1の部分の前記画像および前記第2の部分の前記画像を結合することと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第3の位置まで回転させ、前記リフレクターが前記第3の位置にある場合、前記リフレクターの反対側が前記ビューの前記第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の第2の画像をキャプチャすることとを行わせる、
    非一時的なコンピュータ読み取り可能な記録媒体。
  30. 格納された命令を含む非一時的なコンピュータ読み取り可能な記録媒体であって、前記命令は実行されたとき、少なくとも一つのプロセッサに
    リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させ、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第2の位置まで回転させ、前記リフレクターが前記第2の位置にある場合、前記外部環境に対応する前記ビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記第1の部分の前記画像および前記第2の部分の前記画像を結合することと、
    第2のリフレクターを第2の軸の周りで前記イメージセンサに対して回転させ、前記第2のリフレクターは、ビューの第3の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第3の部分の画像をキャプチャすることとを行わせる、
    非一時的なコンピュータ読み取り可能な記録媒体。
  31. 格納された命令を含む非一時的なコンピュータ読み取り可能な記録媒体であって、前記命令は実行されたとき、少なくとも一つのプロセッサに
    リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させ、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることであって、前記第1の位置の前記リフレクターが、前記ビューの前記第1の部分からの光を前記イメージセンサの第1の部分に向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第2の位置まで回転させ、前記リフレクターが前記第2の位置にある場合、前記外部環境に対応する前記ビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記第1の部分の前記画像および前記第2の部分の前記画像を結合することと、
    前記リフレクターを前記軸の周りでおよび前記イメージセンサに対して、第3の位置まで回転させ、前記リフレクターは前記ビューの前記第1の部分からの光を前記イメージセンサの第2の部分に向けることとを行わせる、
    非一時的なコンピュータ読み取り可能な記録媒体。
  32. 前記記録媒体は、
    赤外カメラにより前記ビューの部分の画像をキャプチャすることであって、前記リフレクターが1または複数の赤外波長に対して透明であり、前記赤外カメラと開口の間に配置されていることを行わせる命令をさらに含む、請求項23に記載の非一時的なコンピュータ読み取り可能な記録媒体。
  33. リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させることであって、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りでイメージセンサに対して第2の位置まで回転させることであって、前記リフレクターが前記第2の位置にある場合、前記外部環境のビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境の前記ビューの第3の部分の画像を前記イメージセンサとは物理的に分離された第2のイメージセンサによってキャプチャすることであって、前記第3の部分が前記第1および第2の部分を含むことと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記ビューの前記第3の部分の前記画像に基づいて、前記第1の部分の前記画像と前記第2の部分の前記画像とを結合することとを、
    含む方法。
  34. 前記ビューの前記第2の部分は、前記ビューの前記第1の部分と少なくともいくらかの重複を有する、請求項33に記載の方法。
  35. 結合画像を形成するために前記第1の部分の前記画像と前記第2の部分の前記画像とを結合することは、前記第1の部分の前記画像と前記第2の部分の前記画像とをステッチすることを含む、請求項33に記載の方法。
  36. 前記イメージセンサによる前記ビューの前記第1の部分の前記画像の前記キャプチャ、または、前記イメージセンサによる前記画像の前記第2の部分の前記画像の前記キャプチャの少なくとも一方の間に、前記リフレクターが比較的静止している、請求項33に記載の方法。
  37. ーションセンサからの動きデータを受信することであって、前記動きデータは、前記外部環境の前記ビューに対する前記イメージセンサの動きを示すことと、
    前記外部環境の前記ビューに対する前記イメージセンサの前記動きが閾値を超えると決定されることに応答して、前記動きを補償するために前記リフレクターの前記第1の位置を調整することであって、前記調整された第1の位置の前記リフレクターが前記外部環境の前記ビューの前記第1の部分からの光を前記イメージセンサに向けることと
    さらに含む、請求項33に記載の方法。
  38. 少なくとも1つのプロセッサと、
    実行可能なコンピュータプログラムコードを含むコンピュータ読み取り可能な記録媒体とを含む
    コンピュータシステムであって、
    前記コンピュータプログラムコードは、実行されたとき、少なくとも一つのプロセッサに
    リフレクターを軸の周りでイメージセンサに対して第1の位置まで回転させ、前記リフレクターが前記第1の位置にある場合、外部環境に対応するビューの第1の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第1の部分の画像をキャプチャすることと、
    前記リフレクターを前記軸の周りで前記イメージセンサに対して第2の位置まで回転させ、前記リフレクターが前記第2の位置にある場合、前記外部環境に対応するビューの第2の部分からの光を前記イメージセンサに向けることと、
    前記イメージセンサによって前記ビューの前記第2の部分の画像をキャプチャすることと、
    前記外部環境に対応する第2のビューの画像を前記イメージセンサとは物理的に分離された第2のイメージセンサによってキャプチャすることであって、前記第2のビューは前記第1および第2の部分を含むことと、
    前記外部環境の前記ビューに対応する結合画像を形成するために、前記第2のビューの前記画像に基づいて、前記第1の部分の前記画像および前記第2の部分の前記画像を結合することとを行わせる、
    コンピュータシステム。
  39. 前記ビューの前記第2の部分が前記ビューの前記第1の部分と少なくともいくらかの重複を有する、請求項38に記載のコンピュータシステム。
JP2022536649A 2019-12-14 2020-12-14 回転可能なリフレクターを備えた撮像システム Active JP7286024B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201962948200P 2019-12-14 2019-12-14
US62/948,200 2019-12-14
US202062959884P 2020-01-11 2020-01-11
US62/959,884 2020-01-11
US17/121,239 2020-12-14
US17/121,239 US11457133B2 (en) 2019-12-14 2020-12-14 Imaging system with rotatable reflector
US17/121,315 US11089190B2 (en) 2019-12-14 2020-12-14 Forming combined image by imaging system with rotatable reflector
PCT/US2020/064931 WO2021119617A1 (en) 2019-12-14 2020-12-14 Imaging system with rotatable reflector
US17/121,315 2020-12-14

Publications (2)

Publication Number Publication Date
JP2022552430A JP2022552430A (ja) 2022-12-15
JP7286024B2 true JP7286024B2 (ja) 2023-06-02

Family

ID=76318356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536649A Active JP7286024B2 (ja) 2019-12-14 2020-12-14 回転可能なリフレクターを備えた撮像システム

Country Status (4)

Country Link
US (3) US11457133B2 (ja)
JP (1) JP7286024B2 (ja)
CN (2) CN115335768B (ja)
WO (1) WO2021119617A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305485B2 (ja) * 2019-08-29 2023-07-10 キヤノン株式会社 制御装置、撮像装置、レンズ装置、制御方法、および、プログラム
KR102286945B1 (ko) * 2020-01-31 2021-08-09 주식회사 가치소프트 영상 촬영 시스템 및 그 방법
EP4085607A4 (en) * 2020-12-26 2023-09-20 Corephotonics Ltd. VIDEO SUPPORT IN A MULTI-APERTURE MOBILE CAMERA HAVING A SCANNING ZOOM CAMERA
US11706517B2 (en) * 2021-03-10 2023-07-18 Google Llc Vertically long apertures for computing device cameras
US11722775B2 (en) * 2021-08-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus and controlling method thereof
US20230118441A1 (en) * 2021-10-20 2023-04-20 Dell Products L.P. Apparatus and method to enable a central focal point on an image sensor via a pan, tilt and zoom camera
WO2023196650A1 (en) * 2022-04-08 2023-10-12 Glass Imaging Inc. Imaging system with movable non-symmetric lens

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069380A (ja) 1999-06-25 2001-03-16 Nec Corp 2軸駆動機構とそれを利用した画像入力装置及び光投射装置
JP2004056779A (ja) 1999-01-21 2004-02-19 Nec Corp 画像入力装置
JP2004094050A (ja) 2002-09-02 2004-03-25 Usk:Kk 光学部を兼用化した監視カメラ装置
JP2012242488A (ja) 2011-05-17 2012-12-10 Canon Inc 撮像装置、立体撮像光学系、およびプログラム
JP2013246313A (ja) 2012-05-25 2013-12-09 Panasonic Corp カメラおよび携帯端末装置
WO2018211926A1 (ja) 2017-05-16 2018-11-22 富士フイルム株式会社 画像生成装置、画像生成システム、画像生成方法、及び画像生成プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8353457B2 (en) 2008-02-12 2013-01-15 Datalogic ADC, Inc. Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives
US20090219432A1 (en) * 2008-02-29 2009-09-03 Palum Russell J Sensor with multi-perspective image capture
JP5254291B2 (ja) 2010-09-07 2013-08-07 株式会社東芝 固体撮像装置
US8878969B2 (en) 2011-07-27 2014-11-04 Aptina Imaging Corporation Imaging systems with color filter barriers
JP6582987B2 (ja) * 2013-10-23 2019-10-02 日本電気株式会社 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ
CN105527782A (zh) * 2015-02-13 2016-04-27 福州瑞芯微电子股份有限公司 便携式电子设备,及其中的摄像结构与获取影像的方法
US9816804B2 (en) 2015-07-08 2017-11-14 Google Inc. Multi functional camera with multiple reflection beam splitter
US9762781B2 (en) 2015-10-30 2017-09-12 Essential Products, Inc. Apparatus and method to maximize the display area of a mobile device by increasing the size of the display without necessarily increasing the size of the phone
EP3165874B1 (en) * 2015-11-04 2020-08-19 Hexagon Technology Center GmbH Method and device for triangulation-based distance measurement
CN106550181B (zh) * 2016-11-09 2020-01-03 华为机器有限公司 摄像头模组和终端设备
US10502935B2 (en) * 2017-03-03 2019-12-10 Ideal Industries Lighting Llc Image sensor modules and luminaires incorporating the same
KR102378472B1 (ko) 2017-08-10 2022-03-25 삼성전자주식회사 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056779A (ja) 1999-01-21 2004-02-19 Nec Corp 画像入力装置
JP2001069380A (ja) 1999-06-25 2001-03-16 Nec Corp 2軸駆動機構とそれを利用した画像入力装置及び光投射装置
JP2004094050A (ja) 2002-09-02 2004-03-25 Usk:Kk 光学部を兼用化した監視カメラ装置
JP2012242488A (ja) 2011-05-17 2012-12-10 Canon Inc 撮像装置、立体撮像光学系、およびプログラム
JP2013246313A (ja) 2012-05-25 2013-12-09 Panasonic Corp カメラおよび携帯端末装置
WO2018211926A1 (ja) 2017-05-16 2018-11-22 富士フイルム株式会社 画像生成装置、画像生成システム、画像生成方法、及び画像生成プログラム

Also Published As

Publication number Publication date
US11785322B2 (en) 2023-10-10
US20220006930A1 (en) 2022-01-06
CN118259532A (zh) 2024-06-28
US20210185198A1 (en) 2021-06-17
JP2022552430A (ja) 2022-12-15
CN115335768B (zh) 2024-03-26
CN115335768A (zh) 2022-11-11
US11457133B2 (en) 2022-09-27
US20210185197A1 (en) 2021-06-17
US11089190B2 (en) 2021-08-10
WO2021119617A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7286024B2 (ja) 回転可能なリフレクターを備えた撮像システム
US11470235B2 (en) Thin multi-aperture imaging system with autofocus and methods for using same
US10044919B2 (en) Structures and methods for capturing images by a portable electronic device
TWI692967B (zh) 影像裝置
Venkataraman et al. Picam: An ultra-thin high performance monolithic camera array
US9848118B2 (en) Phase detection autofocus using opposing filter masks
JP6821028B2 (ja) 撮像装置および画像データ読み出し方法
US11086099B2 (en) Light-folding camera and mobile device including the same
US11924395B2 (en) Device comprising a multi-aperture imaging device for generating a depth map
JP2014026051A (ja) 撮像装置、画像処理装置
US20240111203A1 (en) Imaging method and device for autofocusing
JP2022514766A (ja) 画像情報を蓄積するための多開口撮像装置を備える装置
US20220308355A1 (en) Striped mirror image splitter
JP2002148732A (ja) 3次元動画入力装置
Liang et al. High-Quality Light Field Acquisition and Processing
JP5399986B2 (ja) 撮像装置、画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230523

R150 Certificate of patent or registration of utility model

Ref document number: 7286024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150