JP2008157851A - カメラモジュール - Google Patents
カメラモジュール Download PDFInfo
- Publication number
- JP2008157851A JP2008157851A JP2006349166A JP2006349166A JP2008157851A JP 2008157851 A JP2008157851 A JP 2008157851A JP 2006349166 A JP2006349166 A JP 2006349166A JP 2006349166 A JP2006349166 A JP 2006349166A JP 2008157851 A JP2008157851 A JP 2008157851A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- camera module
- light
- distance
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Lens Barrels (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
【課題】赤外カットフィルタをON/OFFするための機械的な機構を設けることなく、昼間の色再現性と夜間の感度とを両立して昼夜連続で利用可能な小型、薄型で、対象物までの距離を測定することのできるカメラモジュールを提供する。
【解決手段】レンズ1と、光学フィルタ2と、多数の画素を有する撮像領域4とを有する撮像ユニットを複数備えたカメラモジュールであって、前記複数の撮像ユニットは、赤色光撮像ユニットと、青色光撮像ユニットと、緑色光撮像ユニットと、赤外光撮像ユニットとを有し、前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路5を備え、前記複数の撮像ユニットのそれぞれの前記レンズを一体化する。
【選択図】図1
【解決手段】レンズ1と、光学フィルタ2と、多数の画素を有する撮像領域4とを有する撮像ユニットを複数備えたカメラモジュールであって、前記複数の撮像ユニットは、赤色光撮像ユニットと、青色光撮像ユニットと、緑色光撮像ユニットと、赤外光撮像ユニットとを有し、前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路5を備え、前記複数の撮像ユニットのそれぞれの前記レンズを一体化する。
【選択図】図1
Description
本発明は、昼夜兼用で利用可能な、小型、薄型で、かつ対象物までの距離を測定することのできるカメラモジュールに関するものである。
従来、2台のカメラ、すなわちステレオカメラを用いて、対象物までの距離を視差により測定する方法では、それぞれのカメラの機械的な取付け誤差が存在する。例えば、2台のカメラの各光軸間距離や光軸間の平行度のずれはステレオ画像における視差の誤差となって現れ、それによって算出された距離は正確な距離からかけ離れた値となってしまう。そのため信頼度の高い距離情報を得るためには、高精度な取付け機構や、取付け誤差を補正するための複雑な画像処理が必要となる。例えば特許文献1には、ステレオカメラの取付け誤差を補正する方法として、一方の撮像画像平面において、距離方向に延在する互いに空間的に平行な複数の近似直線の交点から第1の消失点を算出し、同様に他方の撮像平面において、距離方向に延在する互いに平行な複数の近似直線の交点から第2の消失点を算出し、第1の消失点と第2の消失点のズレ量に基づいて誤差を補正している。具体的には、左右両側に存在する道路の白線を検出し、その白線のエッジを利用して、消失点を算出している。
一方、夜間の認識率を上げるため、1台の可視光カメラと、1台の赤外線カメラとを組み合わせて、それぞれの撮像情報を画像処理し、夜間の認識率を高くするような画像処理方法が提案されている。例えば特許文献2には、2値化された可視画像のテールランプ等の高輝度部分に対応する温度情報に基づいて赤外画像の2値化用閾値を決定し、2値化された赤外画像に基づき車両を認識している。
近年、特に車載や監視カメラにおいては、昼間における対象物までの距離計測だけでなく、夜間における距離計測の必要性が高まっている。
そのため、昼間測定用の可視光カメラ2台と夜間測定用の近赤外カメラ2台を組み合わせる距離測定システムが提案されている。
特開2003−83742号公報
特開平10−255019号公報
特開2004−12863号公報
しかしながら、ステレオ視により距離を算出する場合、可視光用、近赤外用の各2台のカメラの取付け精度を高精度化、もしくは、誤差補正のための複雑な演算処理が必要となり、レイアウト性、コストアップの要因となっている。
また、特許文献3では、被写体までの距離を演算するための近赤外用の2個の測距レンズと、可視光用の撮影レンズ1個とを、同一平面上に配置したレンズモジュールを用いている。しかし、この構成では、測距レンズ群と撮影レンズとが別構成であり、あくまでも、測距レンズは自動焦点調節機能(AF)のための撮影レンズの移動量を算出するものであり、対象物の撮像は撮影レンズで行っている。したがって、測距用と撮影用とで独立した光学系が必要となり、部品点数、スペースが多く必要となり、コストアップや、カメラが大型化する問題がある。
上記課題を解決するため、本発明に係るカメラモジュールは、レンズと、光学フィルタと、多数の画素を有する撮像領域とを有する撮像ユニットを複数備えたカメラモジュールであって、前記複数の撮像ユニットは、赤色光を撮像する赤色光撮像ユニットと、青色光を撮像する青色光撮像ユニットと、緑色光を撮像する緑色光撮像ユニットと、赤外波長帯の光を撮像する赤外光撮像ユニットとを有し、前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路を備え、前記複数の撮像ユニットのそれぞれの前記レンズが一体化されているカメラモジュールである。
本発明のカメラモジュールは、カラー画像の撮影のみならず、昼間、夜間を問わず対象物の距離測定が可能となる。また、昼間、夜間の距離測定用の演算回路を共有化することにより、システムの小型化に有利である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、実施の形態1のカメラモジュールの分解斜視図であり、図2はカメラモジュールの側面からみた断面図である。
図1は、実施の形態1のカメラモジュールの分解斜視図であり、図2はカメラモジュールの側面からみた断面図である。
図2において、1はレンズモジュール、2は光学フィルタモジュール、3は基板、4a〜4cは撮像領域、5はデジタルシグナルプロセッサ(DSP)等からなる演算回路である。図1の図中の矢印は被写体からの光線を意味している。図2において、6は、レンズモジュール1、光学フィルタモジュール2を支持固定し、基板3と固定を行う固定台である。
図1において、レンズモジュール1は、同一平面内に1a〜1fのレンズ6個が一体で形成されている。各レンズは、光の3原色である、赤色、青色、緑色及び赤外(IR)の光に対して、要求されるMTF等の光学仕様を満足するよう個々に設計されている。レンズ1a〜1fは、ガラス、あるいはプラスチックなどで構成され、光学フィルタモジュール2を通過した対象物からの光を、各撮像領域4a〜4f上に結像させる役割を果たす。レンズ1aは緑色、1bは赤色、1cは赤外、1dは青色、1eは緑色、1fは赤外の各波長帯域に合わせた設計となっている。
光学フィルタモジュール2も、レンズモジュール1と同様、2a〜2fの光学フィルタから形成されており、対応するレンズ毎に赤色、青色、緑色及び赤外それぞれの波長帯域のみを透過するように設計されている。すなわち、2aは緑色、2bは赤色、2cは赤外、2dは青色、2eは緑色、2fは赤外の各波長帯域の光を透過させる。撮像領域4a〜4fは、CCD等の撮像センサである。上記レンズモジュール1の各レンズ1a〜1fを通過した光は、2a〜2fの各光学フィルタを透過し、赤色、青色、緑色、赤外の各波長帯域のそれぞれの光がそれぞれの撮像領域に結像する。その結果、撮像領域4aは緑色の波長帯域の光を結像し、撮像領域4bは赤色の波長帯域の光を結像し、撮像領域4cは赤外の波長帯域の光を結像し、撮像領域4dは青色の波長帯域の光を結像し、撮像領域4eは緑色の波長帯域の光を結像し、4fは赤外の波長帯域の光を結像することになる。即ち、対象物からの光を、赤色、緑色、青色、赤外の各波長帯域に分離してそれぞれ結像することになる。各撮像領域4a〜4fは、色毎に分離した光を各撮像領域上に結像し、受光した光の強度に応じて、光電変換した電気信号(図示せず)として、画像情報をそれぞれ出力する。光電変換されたそれぞれの電気信号に対して、様々な演算処理、即ち、画像処理を行う。たとえば4a、4b、4d、4eの4つの撮像領域で撮影された画像を合成してカラー画像を作成する等の画像処理を行う。これらの演算処理は、DSP5等を用いて実施される。
なお、1つのレンズと、それに対応する光学フィルタ、撮像領域からなる一組の撮像単位を撮像ユニットと定義する。
以上のように構成されたカメラモジュールにおいて、昼間においては、被写体からの緑色の光はレンズ1a、1e、光学フィルタ2a、2eをそれぞれ透過し、撮像領域4a、4eにそれぞれ結像する。撮像領域4a、4eで撮像される画像は同じ緑色であるため、視差の分だけずれた画像となる。したがって、それぞれ光電変換した結果得られる電気信号、即ち画像情報を演算処理することによって、各撮像ユニット間の視差を算出し、視差から対象物までの距離が演算できる。
同様に夜間においては、赤外光源で被写体を照明すると、被写体からの赤外光はレンズ1c、1f、光学フィルタ2c、2fをそれぞれ透過し、撮像領域4c、4fでそれぞれ結像する。撮像領域4c、4fで撮像される画像は同じ赤外光の画像情報であるため、視差の分だけずれた画像となる。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
図4を用いて測定原理について説明する。撮像領域(撮像面)4aの画像を基準画像とする。撮像領域4aをある特定のブロックに分割し、たとえば、8×8画素のブロック毎に分割する。そして、4aのあるブロックと相関を有する領域を他方の撮像領域4eの画像において探索し特定する。そしてこの画素ブロックの視差、すなわち画素ブロックの相対的なズレ量すなわち視差に基づき対象物までの距離を算出する。
図5は、本実施の形態におけるカメラモジュールの各ユニットの配置図を示す。
昼間時について、図4において、対象物までの距離をDとし、レンズ1а、1eは同一レンズであり、その焦点距離をfとし、レンズ1a、1eのレンズ間距離をLとし、そして、視差をΔaとすると、対象物までの距離は(数1)を用いて求めることができる。
上記構成においては、レンズ1a、1eはレンズモジュールとして一体的に形成されているため、レンズ間の距離は、2台のカメラを用いて組み立てた場合に比べてはるかに高精度、かつ安定にレンズ間距離を保持することができ、高精度に対象物までの距離を演算で求めることができる。
昼間においては赤、緑、青色の波長帯域の光が対象物からカメラモジュールに入射するため、例えば、4a、4b、4dの撮像領域から得られた映像信号を、視差を考慮して合成することで、1枚のカラー画像を得ることも同時に可能となる。緑色の撮像領域4a、4eの画像情報より、基準画像4aに対する4eの相対的なズレ量から、赤、青色のそれぞれの画像の基準画像4aに対するズレ量を算出し、算出結果に基づき赤、青色の画像を補正し、基準画像4aと合成することで、視差補正をした後、色ずれのないカラー画像を得ることができる。
また、カラー画像を用いて、形状認識を実施する場合、赤、緑、青色の波長成分より、輝度、色相、彩度の3成分を抽出することが可能となり、幾何的に連結したひとつの領域は色が似ていることより、色情報を特徴量とすることができ、白黒画像に比べて形状認識精度も格段に向上することが可能となる。
また、夜間時における距離の測定原理についても、基本的には昼間時と同様である。すなわち、レンズ1c、1fが同一レンズであり、その焦点距離をfとし、レンズ1c、1fのレンズ間距離はL/√2とし、距離がDの対象物を見る場合、視差Δbは(数2)により求められる。なお、夜間においては、赤外波長の光源を設けて対象物を照らことが好ましい。
距離Dにある対象物はレンズ1a、1eの比較ではΔaの視差分だけずれ、レンズ1c、1fの比較ではΔa/√2の視差分だけずれている。
その一方で撮像領域の単位ピクセルをpとした場合、71a、71b方向の画素のピッチはそれぞれ√2p、pとなる。
すなわち、レンズ1a、1eでは視差量は大きいが、視差が生じる方向(ここでは71a)の画素ピッチも粗くなる。
(数1)より対象物の距離Dが大きくなるほど視差は小さくなる。したがって、細かい視差まで読み取れるほど、遠くの対象物の距離測定が可能となる。
各画素を直接比較して視差の読み取りを行う場合、71a、71b方向の画素のピッチはそれぞれ√2p、pであり、距離Dにある対象物はレンズ1a、1eの比較ではΔaの視差分だけずれ、レンズ1c、1fの比較ではΔa/√2の視差分だけずれているので、71a、71b方向の画素のピッチに相当する視差を持つ対象物の距離はまったく同じになる。
また、夜間においては赤外の波長帯域に感度を有しているため、例えば、撮像領域4cから得られた画像情報を用いて1枚の白黒画像を得ることも同時に可能となる。
そして、レンズ1a、1e、あるいは1c、1fはレンズモジュールとして一体的に形成されているため、レンズ間の距離は、2台のカメラを用いて組み立てた場合に比べてはるかに高精度にレンズ間距離を確保することができ、高精度に対象物までの距離を演算で求めることができる。
ここで、3原色の各色フィルタはそのまま用いても構わないが、好ましくは、当該3原色の色フィルタは、必ずしも1枚のフィルタである必要はなく、赤外光を遮断する特性を有していることが望ましい。例えば、3原色の色フィルタと赤外カットフィルタとを重ねて配置してもよいし、RGBの各分光特性に赤外カットフィルタの分光特性を掛け合わせた特性を有する色フィルタを構成し、これを配置するようにしても良い。
本カメラモジュールでは昼間と、夜間では動作モードの変更を行う。
第1のモードでは、可視光の光電変換信号、すなわち、RGBの色フィルタ(赤外カットフィルタの分光特性が掛け合わされたもの)が配置された撮像領域の情報を主に利用して測距演算を行う。ここで言う「主に利用する」とは、Gフィルタが配置された撮像領域からの信号出力が、赤外フィルタが配置された撮像領域からの信号出力よりも大きいことを意味する。この第1のモードはカラー画像に適しており、昼間時に利用するモードである。
一方、第2のモードでは、赤外光の光電変換信号、すなわち、IRフィルタが配置された撮像領域の情報を主に利用して測距演算を行う。ここで言う「主に利用する」とは、IRフィルタが配置された撮像領域からの信号出力が、緑フィルタが配置された撮像領域からの信号出力よりも大きいことを意味する。この第2のモードは感度が高く、夜間時に利用するモードである。
以上詳しく説明したように、本実施の形態によれば、昼間などの比較的明るいときは第1のモードで、夜間などの比較的暗いときは第2のモードで画像生成と対象物の距離測定を行い、昼間のカラー画像の色再現性向上と夜間の感度向上との両立を図ることができる。
また、本実施の形態では、光学フィルタ2のフィルタ配列を工夫し、RGBGの4つの撮像領域に対してのみ赤外カットフィルタをかけ、IRの2撮像領域には赤外カットフィルタはかけないようにしている。そして、第1のモードと第2のモードの切り替えを撮像領域からの電気信号に基づいてソフトウェア的に決めているので、赤外カットフィルタをON/OFFするための機械的な機構を設ける必要がなく、撮像装置の小型軽量化、コストダウン、信頼性の向上を図ることができる。
また、上記実施の形態では、各撮像領域の信号出力からモードの切り替えを行ったが、可視光の照度を検出するための専用の受光素子を設けても良い。
そして、第2のモードにおいて、被写体に赤外光を照射して撮影を行うことにより、いままで撮影できなかったより暗い被写体の撮影(例えば、真っ暗闇での撮影)も可能となる。上記実施の形態ではレンズモジュール1を図1のように構成したが、これらの構成要素に加えて、赤外照明用の発光素子(赤外発光LEDなど)を更に備えるようにしても良い。
また、上記実施の形態では、本実施の形態のカメラモジュールはデジタルカメラに限定されない。例えば、デジタルビデオカメラ、カメラ付き携帯電話機、監視カメラ、カメラ付きPDA(Personal Digital Assistant)などにも適用することが可能である。これらの端末は、昼間の明るい被写体から夜間の暗い対象物を撮影する機会が多いので、本実施の形態を適用して好適なものである。
また、以上に説明した撮像領域4は、光電変換信号の読み出し方式としてプログレッシブ方式(全画素読み出し方式)およびフレーム読み出し方式の双方に適用することが可能である。
(実施の形態2)
図6は、実施の形態2のカメラモジュールのユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図6の9aと9eは赤外領域の波長のユニット、9bと9dは緑色の波長を撮像するユニット、9cは青色、9fは赤色の波長をそれぞれ撮像するユニットである。
図6は、実施の形態2のカメラモジュールのユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図6の9aと9eは赤外領域の波長のユニット、9bと9dは緑色の波長を撮像するユニット、9cは青色、9fは赤色の波長をそれぞれ撮像するユニットである。
昼間においては、図1において、被写体からの緑色の光線はレンズ1b、1d、光学フィルタ2b、2dをそれぞれ透過し、撮像領域4b、4dでそれぞれ結像する。撮像領域4b、4dで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1a、1e、光学フィルタ2a、2eをそれぞれ透過し、撮像領域4a、4eでそれぞれ結像する。撮像領域4a、4eで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
また、2つの赤外光を撮像するユニットおよび2つの緑色光を撮像するユニットはそれぞれ斜め方向に配置している為、縦線、横線のいずれか一方の模様や外形がある場合でも、両方の対象物の検知が可能である。
なお、各ユニットの撮像領域は、複数の撮像領域を用いるよりも一つの撮像領域から分割して構成したほうが、対象物の距離測定の精度、測定安定性が向上し望ましい。
(実施の形態3)
図7は、実施の形態3のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図7の10aと10fは赤外領域の波長のユニット、10cと10dは緑色の波長を撮像するユニット、10bは青色、10eは赤色の波長をそれぞれ撮像するユニットである。
図7は、実施の形態3のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図7の10aと10fは赤外領域の波長のユニット、10cと10dは緑色の波長を撮像するユニット、10bは青色、10eは赤色の波長をそれぞれ撮像するユニットである。
昼間においては、図1において、被写体からの緑色の光線はレンズ1c、1d、光学フィルタ2c、2dをそれぞれ透過し、撮像領域4c、4dでそれぞれ結像する。撮像領域4c、4dで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1a、1f、光学フィルタ2a、2fをそれぞれ透過し、撮像領域4a、4fでそれぞれ結像する。撮像領域4a、4fで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
また、2つの赤外光を撮像するユニットおよび2つの緑色光を撮像するユニットはそれぞれ斜め方向に配置している為、縦線、横線のいずれか一方の模様や外形がある場合でも、両方の対象物の検知が可能である。
(実施の形態4)
図8は、実施の形態4のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図8の11aと11cは赤外領域の波長のユニット、11dと11fは緑色の波長を撮像するユニット、11bは青色、11eは赤色の波長をそれぞれ撮像するユニットである。
図8は、実施の形態4のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図8の11aと11cは赤外領域の波長のユニット、11dと11fは緑色の波長を撮像するユニット、11bは青色、11eは赤色の波長をそれぞれ撮像するユニットである。
昼間においては、図1において、被写体からの緑色の光線はレンズ1d、1f、光学フィルタ2d、2fをそれぞれ透過し、撮像領域4d、4fでそれぞれ結像する。撮像領域4d、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において、別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1a、1c、光学フィルタ2a、2cをそれぞれ透過し、撮像領域4a、4cでそれぞれ結像する。撮像領域4a、4cで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
また、昼夜それぞれの波長帯域で視差検出を行うので測定分解能も向上する。
例えば3フィールドのインターレース型の撮像素子を用いる場合、撮像領域の横方向に第1の走査線、第2の走査線、第3の走査線、第1の走査線・・・の順で配列しておき、第1の時間フィールドでは第1の各走査線上の画素情報を一度に読み出し、第2の時間フィールドでは第2の各走査線上の画素情報を一度に読み出し、第3の時間フィールドでは第3の各走査線上の画素情報を一度に読み出す。
本実施の形態では、11aと11cは赤外領域の波長のユニット、11dと11fは緑色の波長を撮像するユニットはそれぞれ走査線と平行に配置しているため、第1〜第3の全時間フィールドの画素情報は必要なく、第1の時間フィールドだけで視差検出ができる。
このため、距離測定の演算処理に必要な画素情報データが少なくすむために、距離検出時間が短縮でき、応答性の向上や、演算回路規模の縮小が可能であるとともに、同じフィールドの画素情報を比較するために、動きの激しい対象物であっても、時間差による被写体像のずれが起こりにくく、距離測定精度の低下が防げるという特長を有する。
(実施の形態5)
図9は、実施の形態5のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図9の12dと12eは赤外領域の波長のユニット、12bと12cは緑色の波長を撮像するユニット、12aは青色、12fは赤色の波長をそれぞれ撮像するユニットである。
図9は、実施の形態5のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図9の12dと12eは赤外領域の波長のユニット、12bと12cは緑色の波長を撮像するユニット、12aは青色、12fは赤色の波長をそれぞれ撮像するユニットである。
昼間においては、図1において、対象物からの緑色の光線はレンズ1b、1c、光学フィルタ2b、2cをそれぞれ透過し、撮像領域4b、4cでそれぞれ結像する。撮像領域4b、4cで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において、別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1d、1e、光学フィルタ2d、2eをそれぞれ透過し、撮像領域4d、4eでそれぞれ結像する。撮像領域4d、4eで撮像される画像は同じ赤外光の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
例えば3フィールドのインターレース型の撮像素子を用いる場合、撮像領域の横方向に第1の走査線、第2の走査線、第3の走査線、第1の走査線・・・の順で配列しておき、第1の時間フィールドでは第1の各走査線上の画素情報を一度に読み出し、第2の時間フィールドでは第2の各走査線上の画素情報を一度に読み出し、第3の時間フィールドでは第3の各走査線上の画素情報を一度に読み出す。
本実施の形態では12dと12eは赤外領域の波長のユニット、12bと12cは緑色の波長を撮像するユニットはそれぞれ走査線と平行に配置しているため、第1〜第3の全時間フィールドの画素情報は必要なく、第1の時間フィールドだけで視差検出ができる。
このため、距離測定の演算処理に必要な画素情報データが少なくすむために、距離検出時間が短縮でき、応答性の向上や、演算回路規模の縮小が可能であるとともに、同じフィールドの画素情報を比較するために、動きの激しい対象物であっても、時間差による被写体像のずれが起こりにくく、距離測定精度の低下が防げるという特長を有する。
(実施の形態6)
CCD等の撮像素子を通して得られる画像の各画素からの出力は、受光面すなわち光センサに入射する照度で決定される。このとき受光面は面積を持っているので、CCDの1画素に入射した光の画素値は、受光面の各点における光の強さを積分した値となる。図10においてハッチングを施した領域が1画素の領域となる。また、画素の中心間距離が画素ピッチとなる。
CCD等の撮像素子を通して得られる画像の各画素からの出力は、受光面すなわち光センサに入射する照度で決定される。このとき受光面は面積を持っているので、CCDの1画素に入射した光の画素値は、受光面の各点における光の強さを積分した値となる。図10においてハッチングを施した領域が1画素の領域となる。また、画素の中心間距離が画素ピッチとなる。
実施の形態1で説明してきた三角測量法を用いて被写体までの距離を測定する方法では、2つの画像から得られる相対的なズレ量を、上述したような、CCDの1画素から出力される輝度値を用いて演算していることになる。すなわち、1画素内に異なる距離情報等をもつ画像を撮像しているが、実際には、各点の情報を平均化した1画素の情報を用いて処理していることになる。
そこで、各画素の情報だけではなく、画素間の輝度情報を求めることができれば、対象物までの距離の測定精度を上げることが可能となることがわかる。その場合、レンズ間距離を短く保ったままで、被写体までの距離を測定する際、より遠くの距離まで精度よく測定することが可能となることがわかる。
そこで、図11(a)に示すように、1画素よりも小さい領域(これをサブピクセルとよぶ)を設定する。この場合、1画素は5×5のサブピクセルの集合で構成されることになる。図11(a)において、実線で囲まれた領域が1画素、点線で囲まれた領域がサブピクセルである。一つのサブピクセルはハッチングを施した領域となる。
対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となる4aのあるブロックと相関を有する領域を他方4eの画像において探索し特定する際に、1画素単位で相関をとるのではなく、前述のサブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。また、レンズ間距離を短く保ったままで、対象物までの距離を測定する際、近くの距離から、より遠くの距離まで精度よく測定することが可能となる。実施の形態1で説明した例では1画素ピッチで視差を測定し距離を算出した。その場合、1ピクセルのズレ量である約20cm以上はなれた対象物の距離算出ができなくなる。その一方で、1画素を1/5のブロックのサブピクセル化することで、その被写体までの距離は約10mまで測定が可能となる。サブピクセルの画素値を求める方法として、撮像領域の1画素より出力される画素値から、線形補間により内挿して求める方法がある。
図11(b)で2×2のサブピクセルに分割した例で説明する。
1画素より出力される画素値は画素の中心位置にあるとし、サブピクセルより出力される画素値もその画素の中心位置にあると表現し、1画素の各画素値をそれぞれ、P(i、j)、P(i,j)、P(i,j)、P(i,j)とし、求めたいサブピクセルの画素値をP、各画素値からサブピクセルの画素値までの距離をそれぞれa1、a2、b1、b2とすると、算出したいサブピクセルの画素値Pは(数3)で求めることができる。
なお、サブピクセルの画素値を求める際に、サブピクセル内のエッジの有無を検出し、近接するサブピクセルの画素値を用いて補間する方法や、線形補間とエッジ検出とを組み合わせて補間する等して求めることができる。また、本実施の形態では、2×2、5×5のサブピクセルに分割した事例を説明したが、必要な精度等により、分割数を決定すればよい。
(実施の形態7)
図12は、実施の形態7のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図12の13bと13eは赤外領域の波長のユニット、13aと13fは緑色の波長を撮像するユニット、13cは青色、13dは赤色の波長をそれぞれ撮像するユニットである。
図12は、実施の形態7のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図12の13bと13eは赤外領域の波長のユニット、13aと13fは緑色の波長を撮像するユニット、13cは青色、13dは赤色の波長をそれぞれ撮像するユニットである。
昼間においては、図1において、対象物からの緑色の光線はレンズ1a、1f、光学フィルタ2a、2fをそれぞれ透過し、撮像領域4a、4fでそれぞれ結像する。撮像領域4a、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1b、1e、光学フィルタ2b、2eをそれぞれ透過し、撮像領域4b、4eでそれぞれ結像する。撮像領域4b、4eで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
また、図4において、距離Dにある対象物はレンズ1a、1fの比較ではΔcの視差分だけずれ、レンズ1a、1fの比較ではΔc/√5の視差分だけずれている。
その一方で撮像領域の単位ピクセルをpとした場合、71b、71c方向の画素のピッチはそれぞれ√5p、pとなる。
すなわち、レンズ1a、1fでは視差量は大きいが、視差が生じる方向(ここでは71c)の画素ピッチも粗くなる。
(数1)より対象物の距離Dが大きくなるほど視差は小さくなる。細かい視差まで読み取れるほど、遠くの対象物の距離測定が可能となる。
各画素を直接比較して視差の読み取りを行う場合、71b、71c方向の画素のピッチはそれぞれp、√5pであり、距離Dにある対象物はレンズ1a、1cの比較ではΔaの視差分だけずれ、レンズ1a、1fの比較ではΔc/√5の視差分だけずれているので、71b、61c方向の画素のピッチに相当する視差を持つ対象物の距離はまったく同じになり検知には有効である。
対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となるブロックと相関を有する領域を他方の画像において探索し特定する際に、1画素単位で相関をとるのではなく、サブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。
(実施の形態8)
図13は、実施の形態8のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図13の14aと14cは赤外領域の波長のユニット、14eと14fは緑色の波長を撮像するユニット、14bは青色、14dは赤色の波長をそれぞれ撮像するユニットである。
図13は、実施の形態8のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図13の14aと14cは赤外領域の波長のユニット、14eと14fは緑色の波長を撮像するユニット、14bは青色、14dは赤色の波長をそれぞれ撮像するユニットである。
昼間においては図1において、被写体からの緑色の光線はレンズ1e、1f、光学フィルタ2e、2fをそれぞれ透過し、撮像領域4e、4fでそれぞれ結像する。撮像領域4e、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1a、1c、光学フィルタ2a、2cをそれぞれ透過し、撮像領域4a、4cでそれぞれ結像する。撮像領域4a、4cで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。
対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となるブロックと相関を有する領域を他方の画像において探索し特定する際に、1画素単位で相関をとるのではなく、サブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。
(実施の形態9)
図14において、100は自動車を上から見た図である。101〜104はカメラモジュール、101a〜104aはカメラの画角である。105は先行車両、106は対向車両、107は道路の白線、108は歩行者である。複数のカメラモジュールを図14のように各々画角ができるだけ重なり合うように配置することで、運転席からの死角をなくし、カメラモジュールから得られる撮像情報を用いて、歩行者108や、白線107、対向車両106、先行車両105の情報を検出することができる。なお、各々のカメラモジュールから得られる撮像結果を表示装置(図示せず)を用いて表示することも可能である。車両のデザイン、空力特性等を考慮すると、車両に複数個のカメラモジュールを搭載するには、形状として薄く小さいものが望まれる。本発明のカメラモジュールは、波長帯域毎にレンズ、光学フィルタ、撮像領域を使用しているため、単レンズ構成で実現することが可能であり、非常に薄型化が可能となる。また、同一波長帯域の光学系を少なくとも2つ有しているため、三角測量法を用い、対象物までの距離を測定することができ、車速、ハンドル舵角信号と組み合わせることで、さらなる予防安全を図ることが可能となる。さらに、可視光領域と赤外線領域の2つの撮像情報をあわせもつことから、対向車量のヘッドライト等の明るい状況から、夜間での歩行者等の暗い状況まで、距離情報と合わせて認識することが可能となる。さらには、可視光領域では、カラー画像を取得することが可能であるため、赤、緑、青色の波長成分より、輝度、色相、彩度の3成分を抽出することが可能となり、幾何的に連結したひとつの領域は色が似ていることより、色情報を特徴量とすることができ、白黒画像に比べて形状認識精度も格段に向上することが可能となる。なお、周囲の状況情報として車室外を想定しているが、車室内でも有効であることは言うまでもない。
図14において、100は自動車を上から見た図である。101〜104はカメラモジュール、101a〜104aはカメラの画角である。105は先行車両、106は対向車両、107は道路の白線、108は歩行者である。複数のカメラモジュールを図14のように各々画角ができるだけ重なり合うように配置することで、運転席からの死角をなくし、カメラモジュールから得られる撮像情報を用いて、歩行者108や、白線107、対向車両106、先行車両105の情報を検出することができる。なお、各々のカメラモジュールから得られる撮像結果を表示装置(図示せず)を用いて表示することも可能である。車両のデザイン、空力特性等を考慮すると、車両に複数個のカメラモジュールを搭載するには、形状として薄く小さいものが望まれる。本発明のカメラモジュールは、波長帯域毎にレンズ、光学フィルタ、撮像領域を使用しているため、単レンズ構成で実現することが可能であり、非常に薄型化が可能となる。また、同一波長帯域の光学系を少なくとも2つ有しているため、三角測量法を用い、対象物までの距離を測定することができ、車速、ハンドル舵角信号と組み合わせることで、さらなる予防安全を図ることが可能となる。さらに、可視光領域と赤外線領域の2つの撮像情報をあわせもつことから、対向車量のヘッドライト等の明るい状況から、夜間での歩行者等の暗い状況まで、距離情報と合わせて認識することが可能となる。さらには、可視光領域では、カラー画像を取得することが可能であるため、赤、緑、青色の波長成分より、輝度、色相、彩度の3成分を抽出することが可能となり、幾何的に連結したひとつの領域は色が似ていることより、色情報を特徴量とすることができ、白黒画像に比べて形状認識精度も格段に向上することが可能となる。なお、周囲の状況情報として車室外を想定しているが、車室内でも有効であることは言うまでもない。
(実施の形態10)
自動車はある速度で移動しているため、進むべく方向の状況情報をより早く、正確に入手することが必要となる。図15において、カメラモジュール103は車両前方の状況情報を得るためのカメラモジュールである。カメラが固定されて取付けられていると、車体の進行方向が変化して初めて、前方の状況情報を得ることが可能となる。より安全に、より早く前方の状況情報を得るために、図15に示すように、カメラモジュール103を、z軸202を中心に回転機構200によって回転させる。ここで、x、y、z軸は図16に示す方向とする。車両進行方向をx軸、水平方向をy軸、それぞれと直交する方向をz軸とする。回転させる角度および位置決め整定までの時間は車速信号、ハンドル舵角信号を用いて、車両の進行方向を推定して決定する。このように、車両の進行方向を予測して、カメラモジュールをz軸を中心にして回転させることで、車体の進行方向が変化するより前に、進行方向の状況情報を得ることが可能となり、より高い安全性を提供することが可能となる。なお、カメラモジュールをz軸を中心に回転移動させるために、図15では、回転台200を用いているが、この例に限らず、図17の例のように回転中心にトーションバー301を設け、x軸方向に力F1(302)およびF2(303)を最適に加えることで、z軸を中心に回転させる等レンズモジュールを回転させる機構は車両に取付けるスペース等に応じて最適な機構を採用すればよい。また、本実施の形態では、レンズが6個あるカメラモジュールについて説明したが、レンズが2つ以上であれば上記した高精度な測距が可能である。また、対象物までの距離を測定するために用いるレンズの配置も、視差、測距精度等より適切な配置を選択すればよい。そして、本実施の形態では、レンズから撮像領域までの光路は直線状であるが、プリズム等を用いて光路を曲げた反射型でも同様な効果が得られる。
自動車はある速度で移動しているため、進むべく方向の状況情報をより早く、正確に入手することが必要となる。図15において、カメラモジュール103は車両前方の状況情報を得るためのカメラモジュールである。カメラが固定されて取付けられていると、車体の進行方向が変化して初めて、前方の状況情報を得ることが可能となる。より安全に、より早く前方の状況情報を得るために、図15に示すように、カメラモジュール103を、z軸202を中心に回転機構200によって回転させる。ここで、x、y、z軸は図16に示す方向とする。車両進行方向をx軸、水平方向をy軸、それぞれと直交する方向をz軸とする。回転させる角度および位置決め整定までの時間は車速信号、ハンドル舵角信号を用いて、車両の進行方向を推定して決定する。このように、車両の進行方向を予測して、カメラモジュールをz軸を中心にして回転させることで、車体の進行方向が変化するより前に、進行方向の状況情報を得ることが可能となり、より高い安全性を提供することが可能となる。なお、カメラモジュールをz軸を中心に回転移動させるために、図15では、回転台200を用いているが、この例に限らず、図17の例のように回転中心にトーションバー301を設け、x軸方向に力F1(302)およびF2(303)を最適に加えることで、z軸を中心に回転させる等レンズモジュールを回転させる機構は車両に取付けるスペース等に応じて最適な機構を採用すればよい。また、本実施の形態では、レンズが6個あるカメラモジュールについて説明したが、レンズが2つ以上であれば上記した高精度な測距が可能である。また、対象物までの距離を測定するために用いるレンズの配置も、視差、測距精度等より適切な配置を選択すればよい。そして、本実施の形態では、レンズから撮像領域までの光路は直線状であるが、プリズム等を用いて光路を曲げた反射型でも同様な効果が得られる。
本発明のカメラモジュールは、小型、薄型でカメラ機能を備えた携帯電話、デジタルスチルカメラ、監視用カメラ、車載カメラなどに有用である。
1 レンズモジュール
1a〜1f レンズ
2 光学フィルタモジュール
2a〜2f 光学フィルタ
3 基板
4a〜4f 撮像領域
5 デジタルシグナルプロセッサ
6 固定台
7 カメラモジュールの各ユニット
8 カメラモジュールの各ユニット
9 カメラモジュールの各ユニット
10 カメラモジュールの各ユニット
11 カメラモジュールの各ユニット
12 カメラモジュールの各ユニット
13 カメラモジュールの各ユニット
14 カメラモジュールの各ユニット
1a〜1f レンズ
2 光学フィルタモジュール
2a〜2f 光学フィルタ
3 基板
4a〜4f 撮像領域
5 デジタルシグナルプロセッサ
6 固定台
7 カメラモジュールの各ユニット
8 カメラモジュールの各ユニット
9 カメラモジュールの各ユニット
10 カメラモジュールの各ユニット
11 カメラモジュールの各ユニット
12 カメラモジュールの各ユニット
13 カメラモジュールの各ユニット
14 カメラモジュールの各ユニット
Claims (8)
- レンズと、光学フィルタと、多数の画素を有する撮像領域とを有する撮像ユニットを複数備えたカメラモジュールであって、
前記複数の撮像ユニットは、赤色光を撮像する赤色光撮像ユニットと、青色光を撮像する青色光撮像ユニットと、緑色光を撮像する緑色光撮像ユニットと、赤外波長帯の光を撮像する赤外光撮像ユニットとを有し、
前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、
前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路を備え、
前記複数の撮像ユニットのそれぞれの前記レンズが一体化されているカメラモジュール。 - 前記演算回路は、同じ波長帯の光を撮像する2つの前記撮像ユニットの撮像領域から出力される画像情報より、撮影された対象物までの距離を算出する請求項1記載のカメラモジュール。
- 前記演算回路は、同じ波長帯の光を撮像する2つの前記撮像ユニットの撮像領域から出力される画像情報より、撮影された対象物までの距離を算出し、前記算出された距離に基づいて前記赤色光撮像ユニットと前記青色光撮像ユニットと前記緑色光撮像ユニットのそれぞれの撮像領域から出力される画像情報を合成したカラー画像の画像情報を出力する請求項1記載のカメラモジュール。
- 同じ波長帯の光を撮像する2つの前記撮像ユニットが前記撮像領域の画素配列に対して斜めに配置されている請求項1記載のカメラモジュール。
- 同じ波長帯の光を撮像する2つの前記撮像ユニットが前記撮像領域の走査線方向と平行に配置されている請求項1記載のカメラモジュール。
- 前記演算回路は、前記撮像領域から出力される画像情報より内挿により画素間の画像情報を算出し、前記撮像領域から出力される画像情報及び前記内容により算出された画素間の画像情報より、撮影された対象物までの距離を算出する請求項2に記載のカメラモジュール。
- 赤外光照明用の発光素子をさらに備えた請求項1から6のいずれか1項に記載のカメラモジュール。
- 自動車に搭載され、周囲の状況情報を得る請求項1から7のいずれか1項に記載のカメラモジュール。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006349166A JP2008157851A (ja) | 2006-12-26 | 2006-12-26 | カメラモジュール |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006349166A JP2008157851A (ja) | 2006-12-26 | 2006-12-26 | カメラモジュール |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008157851A true JP2008157851A (ja) | 2008-07-10 |
Family
ID=39658906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006349166A Pending JP2008157851A (ja) | 2006-12-26 | 2006-12-26 | カメラモジュール |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008157851A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247356A (ja) * | 2011-05-30 | 2012-12-13 | Canon Inc | 撮像モジュール、撮像装置、画像処理装置及び画像処理方法。 |
JP2013044893A (ja) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | 複眼撮像装置及び距離画像取得装置 |
WO2013108656A1 (ja) * | 2012-01-16 | 2013-07-25 | ソニー株式会社 | 固体撮像素子およびカメラシステム |
CN103354611A (zh) * | 2013-06-22 | 2013-10-16 | 太仓博天网络科技有限公司 | 一种可基于zoran芯片的智能数码相机*** |
JP2015159397A (ja) * | 2014-02-24 | 2015-09-03 | 株式会社リコー | 画像処理装置、画像処理システム、画像処理方法 |
WO2016104235A1 (ja) * | 2014-12-26 | 2016-06-30 | コニカミノルタ株式会社 | ステレオ撮像装置及び移動体 |
WO2021166542A1 (ja) * | 2020-02-18 | 2021-08-26 | 株式会社デンソー | 物体検出装置、受光部および物体検出装置の制御方法 |
-
2006
- 2006-12-26 JP JP2006349166A patent/JP2008157851A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247356A (ja) * | 2011-05-30 | 2012-12-13 | Canon Inc | 撮像モジュール、撮像装置、画像処理装置及び画像処理方法。 |
US8749652B2 (en) | 2011-05-30 | 2014-06-10 | Canon Kabushiki Kaisha | Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof |
JP2013044893A (ja) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | 複眼撮像装置及び距離画像取得装置 |
WO2013108656A1 (ja) * | 2012-01-16 | 2013-07-25 | ソニー株式会社 | 固体撮像素子およびカメラシステム |
CN104012082A (zh) * | 2012-01-16 | 2014-08-27 | 索尼公司 | 固态图像拾取装置和相机*** |
CN103354611A (zh) * | 2013-06-22 | 2013-10-16 | 太仓博天网络科技有限公司 | 一种可基于zoran芯片的智能数码相机*** |
JP2015159397A (ja) * | 2014-02-24 | 2015-09-03 | 株式会社リコー | 画像処理装置、画像処理システム、画像処理方法 |
WO2016104235A1 (ja) * | 2014-12-26 | 2016-06-30 | コニカミノルタ株式会社 | ステレオ撮像装置及び移動体 |
WO2021166542A1 (ja) * | 2020-02-18 | 2021-08-26 | 株式会社デンソー | 物体検出装置、受光部および物体検出装置の制御方法 |
JP2021131229A (ja) * | 2020-02-18 | 2021-09-09 | 株式会社デンソー | 物体検出装置、受光部および物体検出装置の制御方法 |
JP7255513B2 (ja) | 2020-02-18 | 2023-04-11 | 株式会社デンソー | 物体検出装置、受光部および物体検出装置の制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7385680B2 (en) | Camera module | |
US20110211068A1 (en) | Image pickup apparatus and rangefinder | |
JP5273356B2 (ja) | 複眼画像入力装置及びそれを用いた距離測定装置 | |
CN104512411B (zh) | 车辆控制***及图像传感器 | |
JP6156724B2 (ja) | ステレオカメラ | |
JP6480441B2 (ja) | 飛行時間型カメラシステム | |
JP5012495B2 (ja) | 撮像素子、焦点検出装置、焦点調節装置および撮像装置 | |
KR100804719B1 (ko) | 촬상 모듈 | |
US6420704B1 (en) | Method and system for improving camera infrared sensitivity using digital zoom | |
JP2008157851A (ja) | カメラモジュール | |
JP4992481B2 (ja) | 焦点検出装置および撮像装置 | |
US20080112643A1 (en) | Correlation operation method, correlation operation device, focus detection device and imaging device | |
US20170264811A1 (en) | Phase detection autofocus using opposing filter masks | |
JP2002171537A (ja) | 複眼撮像系、撮像装置および電子機器 | |
JP2020056839A (ja) | 撮像装置 | |
US10992920B2 (en) | Stereo image processing device | |
JP2008211631A (ja) | 焦点検出素子、焦点検出装置および撮像装置 | |
WO2013140873A1 (ja) | 車載用画像処理装置及び方法 | |
JP2004258266A (ja) | ステレオアダプタ及びそれを用いた距離画像入力装置 | |
JP2020057869A (ja) | 撮像装置 | |
JP2006322795A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US20050151863A1 (en) | Arrangement in a measuring system | |
US20220368873A1 (en) | Image sensor, imaging apparatus, and image processing method | |
JP6202364B2 (ja) | ステレオカメラ及び移動体 | |
JP6949086B2 (ja) | カメラ装置、運転支援システムおよび車両 |