JP2018117309A - 撮像装置、画像処理方法および画像処理システム - Google Patents

撮像装置、画像処理方法および画像処理システム Download PDF

Info

Publication number
JP2018117309A
JP2018117309A JP2017008180A JP2017008180A JP2018117309A JP 2018117309 A JP2018117309 A JP 2018117309A JP 2017008180 A JP2017008180 A JP 2017008180A JP 2017008180 A JP2017008180 A JP 2017008180A JP 2018117309 A JP2018117309 A JP 2018117309A
Authority
JP
Japan
Prior art keywords
pixel
signal
image
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017008180A
Other languages
English (en)
Inventor
順一 坂本
Junichi Sakamoto
順一 坂本
加野 靖紀
Yasunori Kano
靖紀 加野
泰史 佐藤
Yasushi Sato
泰史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2017008180A priority Critical patent/JP2018117309A/ja
Priority to PCT/JP2018/000083 priority patent/WO2018135315A1/ja
Priority to US16/469,434 priority patent/US10958847B2/en
Publication of JP2018117309A publication Critical patent/JP2018117309A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Measurement Of Optical Distance (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】1つの撮像素子によりセンシング画像とビューイング画像を得る。
【解決手段】撮像装置は、不可視光の照射を制御する制御部と、前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子と、前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成部とを備える。本技術は、例えば、監視カメラに適用できる。
【選択図】図1

Description

本技術は、撮像装置、画像処理方法および画像処理システムに関し、特に、不可視光を照射して撮像する場合に用いて好適な撮像装置、画像処理方法および画像処理システムに関する。
従来、コヒーレントなランダムスペックルパターンを対象物に投影して撮像し、得られた画像におけるパターンと参照画像におけるパターンとのズレに基づいて、対象物の3次元マップを構築することが提案されている(例えば、特許文献1参照)。
国際公開第2007/043036号
しかしながら、特許文献1に記載の発明では、3次元マップを構築するためのセンシング画像とは別に、対象物を観察するための可視光成分からなるビューイング画像を撮像することは考慮されていない。
また、一般的に、デプスセンシングを行う場合、ToF(Time-of-Flight)センサ、ステレオカメラ、IRセンサ等のセンシング用センサが、ビューイング画像を撮像するためのビューイング用センサとは別に設けられる。しかし、センシング用センサとビューイング用センサとが別に設けられると、両者の間に視差が生じるため、例えば、デプスセンシングの結果をビューイング画像に適用する場合、視差補正を行う必要がある。
本技術は、このような状況に鑑みてなされたものであり、1つの撮像素子によりセンシング画像とビューイング画像を得ることができるようにするものである。
本技術の第1の側面の撮像装置は、不可視光の照射を制御する制御部と、前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子と、前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成部とを備える。
前記第1の画像に基づいて物体までの距離の検出を行い、物体までの距離の検出結果に基づいて、前記第2の画像内の物体の検出を行う物体検出部をさらに設けることができる。
前記制御部には、所定のパターンを投影する前記不可視光の照射を制御させることができる。
前記撮像素子には、各前記第2の画素の受光部への入射光に含まれる前記不可視光成分を減衰するフィルタを設けることができる。
前記制御部には、前記不可視光を連続して照射するように制御させることができる。
前記制御部には、各フレーム期間において前記第1の画素および前記第2の画素の露光期間を設けながら、前記第1の画素のみが露光している期間である単独露光期間を設けるとともに、前記単独露光期間内に前記不可視光を照射するように制御させることができる。
前記制御部には、フレーム期間毎に前記不可視光の照射の有無を制御させ、前記画像生成部には、前記不可視光が照射されたフレーム期間における前記第1の画素信号に基づいて、前記第1の画像を生成させ、前記不可視光が照射されていないフレーム期間における前記第2の画素信号に基づいて、前記第2の画像を生成させることができる。
前記第1の画素には、赤外光の検出に用いるIR画素を含ませ、前記第2の画素には、所定の色の検出に用いるカラー画素を含ませ、前記不可視光を、赤外光とすることができる。
前記カラー画素には、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含ませることができる。
前記第1の画素には、ホワイト画素を含ませ、前記第2の画素には、所定の色の検出に用いるカラー画素を含ませ、前記不可視光を、赤外光とすることができる。
前記カラー画素には、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含ませることができる。
前記不可視光を照射する照射部をさらに設けることができる。
前記照射部には、明るさが一様な前記不可視光、または、所定のパターンを投影する前記不可視光を照射させることができる。
本技術の第1の側面の画像処理方法は、不可視光の照射を制御する制御ステップと、撮像素子の前記不可視光を検出可能な第1の画素からの第1の画素信号、および、前記撮像素子の可視光を検出可能な第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成ステップとを含む。
本技術の第2の側面の画像処理システムは、不可視光を照射する照射装置と、前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子を備える撮像装置と、前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像処理装置とを備える。
本技術の第1の側面においては、不可視光の照射が制御され、撮像素子の前記不可視光を検出可能な第1の画素からの第1の画素信号、および、前記撮像素子の可視光を検出可能な第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像が生成される。
本技術の第2の側面においては、不可視光が照射され、撮像素子の前記不可視光を検出可能な第1の画素からの第1の画素信号、および、前記撮像素子の可視光を検出可能な第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像が生成される。
本技術の第1の側面または第2の側面によれば、1つの撮像素子によりセンシング画像とビューイング画像を得ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した撮像装置の構成例を示すブロック図である。 赤外光の波長特性の例を示すグラフである。 光学フィルタの透過特性の例を示すグラフである。 撮像素子の構成例を示すブロック図である。 撮像素子の画素配列の例を示す図である。 撮像素子の各画素のフィルタの構成例を示す模式図である。 IRカットフィルタの透過特性の例を示すグラフである。 画素ごとの感度特性の第1の例を示すグラフである。 画像生成部の構成例を示すブロック図である。 補間前後の画像信号の例を示す図である。 各画素の成分分離後の感度特性の例を示す図である。 成分分離後の色信号の例を示す図である。 ベイヤ化前後の画像信号の例を示す図である。 色差調整部の構成例を示すブロック図である。 色差信号補正部の構成例を示すブロック図である。 クロマゲインの設定例を示すグラフである。 画像変換部の構成例を示すブロック図である。 センシング部の構成例を示すブロック図である。 撮像モード設定処理の例を示すフローチャートである。 ビューイングモード設定処理の例を示すフローチャートである。 周囲の明るさの判定処理に用いる閾値の例を示す図である。 環境赤外光の強度の判定処理に用いる閾値の例を示す図である。 センシングモードまたはCNVモード時の赤外光の照射期間および各画素の露光期間の例を示す図である。 デイモード時の赤外光の照射期間および各画素の露光期間の例を示す図である。 ナイトモード時の赤外光の照射期間および各画素の露光期間の例を示す図である。 赤外光のパターンの例を示す図である。 撮像処理の例を示すフローチャートである。 画像生成処理の例を示すフローチャートである。 物体検出処理の例を示すフローチャートである。 被写体の例を示す図である。 ベイヤ画像の例を示す図である。 IR画像の例を示す図である。 キャリブレーション画像の例を示す図である。 物体までの距離の検出方法を説明するための図である。 物体の領域の検出方法を説明するための図である。 物体の検出結果の例を示す図である。 輝度・色差調整部の構成例を示すブロック図である。 輝度信号補正部の構成例を示すブロック図である。 合成比率の設定例を示すグラフである。 撮像素子の画素配列の第1の変形例を示す図である。 撮像素子の画素配列の第2の変形例を示す図である。 撮像素子の画素配列の第3の変形例を示す図である。 画素ごとの感度特性の第2の例を示すグラフである。 コンピュータの構成例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 図45に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。
説明は以下の順序により行う。
1.実施の形態
2.変形例
3.応用例
<1.第1の実施の形態>
まず、図1乃至図36を参照して、本技術の実施の形態について説明する。
{撮像装置100の構成例}
図1は、本技術の一実施の形態である撮像装置100の構成例を示すブロック図である。撮像装置100は、測光部101、制御部102、赤外光照射部103、撮像レンズ104、光学フィルタ105、撮像素子106、画像処理部107および出力部108を備える。また、画像処理部107は、画像生成部121、画像変換部122およびセンシング部123を備える。
測光部101は、撮像装置100の周囲の明るさを測定し、測定結果を示す測光量Qを制御部102および画像生成部121に供給する。
制御部102は、撮像装置100全体を制御する。例えば、制御部102は、画像信号における可視光成分の比率を示す可視光比率Rcを画像生成部121から取得する。そして、制御部102は、ユーザ設定、測光量Qおよび可視光比率Rcに基づいて、撮像装置100の撮像モードを設定する。制御部102は、設定した撮像モードを示すモード信号を画像生成部121に供給する。
撮像モードは、例えば、センシングモードおよびビューイングモードの2つに分かれる。センシングモードは、例えば物体の検出等のセンシングを行う場合のモードであり、ビューイングモードは、センシングを行わずに、被写体の観察を行う場合のモードである。なお、センシングモードにおいても、センシングと並行して、被写体を観察することが可能である。
ビューイングモードは、さらにデイモード、CNVモード、ナイトモードの3つに分かれる。デイモードは、例えば、撮像装置100の周囲が明るい状態で撮像する場合に用いられるモードである。CNVモードは、例えば、撮像装置100の周囲が暗く、環境光に含まれる赤外光(以下、環境赤外光と称する)の強度が低い状態で撮像する場合に用いられるモードである。ナイトモードは、例えば、撮像装置100の周囲が非常に暗い状態、または、撮像装置100の周囲が暗く、環境赤外光の強度が高い状態で撮像する場合に用いられるモードである。デイモードとCNVモードでは、カラー画像およびモノクロ画像が得られ、ナイトモードでは、モノクロ画像が得られる。
なお、各撮像モードの詳細は、後述する。
また、例えば、制御部102は、ユーザの操作などに従って撮像素子106を制御して画像信号を生成させる。例えば、制御部102は、撮像のタイミングを示す垂直同期信号VSYNCを生成して撮像素子106に供給する。また、制御部102は、撮像モードに応じて、撮像素子106の画素別シャッタのオン/オフを制御する。画素別シャッタとは、後述するように、画素の色毎に露光期間を制御する機能である。
さらに、例えば、制御部102は、撮像モードに応じて、赤外光照射部103の照射期間を制御する。
また、例えば、制御部102は、撮像モードに応じて、画像生成部121の成分分離部303(図9)のオン、オフを制御する。
赤外光照射部103は、制御部102の制御に従って、赤外光を撮像範囲(被写体)に照射する。
図2は、赤外光照射部103から照射される赤外光の波長特性の例を示すグラフである。同図において横軸は、光の波長を示し、縦軸は、赤外光の強度を正規化した値を示す。同図に例示するように、赤外光照射部103は、例えば、845nm付近をピークとし、半値幅が約820nmから約865nmの範囲となる赤外光を照射する。
撮像レンズ104は、被写体からの光を集光して、光学フィルタ105を介して撮像素子106に導く。
光学フィルタ105は、例えば、撮像レンズ104からの光のうち可視光および赤外光を透過するデュアルバンドパスフィルタにより構成される。
図3は、光学フィルタ105の透過特性の例を示すグラフである。同図の横軸は、光の波長を示し、縦軸は、光学フィルタ105の分光透過率を示す。同図に例示するように、光学フィルタ105は、例えば、380nm乃至650nm付近の波長域の可視光と、830nm乃至870nm付近の波長域の赤外光とを透過する。
なお、光学フィルタ105を設けない構成とすることもできるが、赤外光を高い精度で分離する観点から、光学フィルタ105を設けることが望ましい。
撮像素子106は、撮像レンズ104および光学フィルタ105を介して受光した光を電気信号に変換して、画像データを生成する。撮像素子106には、例えば、図5を参照して後述するように、赤色の検出に用いるR(Red)画素、緑色の検出に用いるG(Green)画素、青色の検出に用いるB(Blue)画素、および、赤外光の検出に用いるIR(Infrared)画素のそれぞれが2次元格子状に設けられる。
撮像素子106は、各画素で光電変換したアナログの電気信号を画素毎にAD(Analog to Digital)変換し、デジタル信号である画素信号を生成し、これらの画素信号を含む画像信号(以下、RAW画像信号と称する)を生成する。撮像素子106としては、例えば、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサが用いられる。撮像素子106は、生成したRAW画像信号を画像生成部121に供給する。
画像生成部121は、RAW画像信号から不可視光成分(例えば、赤外光成分)を除去し、不可視光成分を除去したRAW画像信号を、画素信号がベイヤ配列に従って並べられたベイヤ画像信号に変換する。また、画像生成部121は、RAW画像信号から不可視光成分(例えば、赤外光成分)を抽出し、抽出した不可視光成分からなるIR画像信号を生成する。画像生成部121は、ベイヤ画像信号を画像変換部122およびセンシング部123に供給する。また、画像生成部121は、IR画像信号をセンシング部123および出力部108に供給する。
画像変換部122は、デモザイク処理などの所定の信号処理をベイヤ画像信号に対して行う。画像変換部122は、デモザイク処理後の画像信号を、輝度信号および色差信号を画素毎に含むYC画像信号に変換し、出力部108に供給する。
センシング部123は、IR画像信号およびベイヤ画像信号に基づいて、物体の検出等のセンシングを行う。センシング部123は、センシング結果を出力部108に供給する。
出力部108は、YC画像信号、IR画像信号およびセンシング結果を撮像装置100の外部の装置(例えば、表示装置等)へ出力する。
なお、撮像装置100は、YC画像信号、IR画像信号およびセンシング結果を外部へ出力しているが、この構成に限定されない。例えば、撮像装置100は、メモリ等の記録部をさらに備え、その記録部にYC画像信号、IR画像信号およびセンシング結果を記録してもよい。また、撮像装置100は、液晶モニタなどの表示部をさらに備え、その表示部にYC画像信号に基づく画像、IR画像信号に基づく画像またはセンシング結果を表示してもよい。
また、図1では、測光部101、制御部102、赤外光照射部103、撮像レンズ104、光学フィルタ105、撮像素子106、画像処理部107および出力部108を全て撮像装置100内に設ける例を示しているが、これらを複数の装置に分散して設けてもよい。例えば、測光部101、制御部102、撮像レンズ104、光学フィルタ105および撮像素子106を撮像装置100に設け、画像処理部107および出力部108を画像処理装置に設けてもよい。また、例えば、赤外光照射部103を撮像装置100とは別に設けるようにしてもよい。
{撮像素子の構成例}
図4は、撮像素子106の構成例を示すブロック図である。撮像素子106は、行走査回路201、画素アレイ部202、タイミング制御回路203、AD(Analog to Digital)変換部204および列走査回路205を備える。画素アレイ部202には、2次元格子状に複数の画素211が設けられる。
タイミング制御回路203は、行および列の走査のタイミングを制御する。ここで、行は画素アレイ部202において、ある一方向に複数の画素211が配列されたものであり、ラインとも呼ばれる。また、列は画素アレイ部202において行と直交する方向に複数の画素211が配列されたものである。画素アレイ部202には、n行、m列の画素211が配列される。ここで、nおよびmは整数である。
タイミング制御回路203は、制御部102からの垂直同期信号VSYNCに同期して、行を走査するタイミングを指示する水平同期信号HSYNCを生成し、行走査回路201に供給する。また、タイミング制御回路203は、水平同期信号HSYNCに同期して列を走査するタイミングを指示するタイミング信号を生成し、列走査回路205に供給する。
行走査回路201は、水平同期信号HSYNCに同期して行の各々を選択する。行走査回路201は、行選択信号を行の各々へ信号線206を介して順に出力することにより行を選択する。また、行走査回路201は、行を選択するたびに、その行の画素211を、撮像モードに応じて、所定の露光期間に亘って露光させる。
画素211は、入射光を電気信号に変換し、対応する列の信号線207を介して、生成した電気信号をAD変換部204に供給する。
図5は、画素アレイ部202の画素211の配列の例を示している。この例では、縦4画素×横4画素からなるパターンを1単位とする画素配列の例が示されており、R画素:G画素:B画素:IR画素=2:8:2:4の割合で、画素211が配置されている。より具体的には、G画素は、市松状に配置されている。R画素は、1行目の1列目と3行目の3列目に配置されている。B画素は、1行目の3列目と3行目の1列目に配置されている。IR画素は、残りの画素位置に配置されている。そして、この画素配列のパターンが、画素アレイ部202上の行方向及び列方向に繰り返し配置される。
図6は、各画素211のフィルタの構成例を模式的に示している。この例では、B画素、G画素、R画素、IR画素が、左から右に並べられている。
R画素、G画素およびB画素においては、光の入射側から順に、マイクロレンズアレイ231、カラーフィルタ232、IRカットフィルタ233が積層されている。カラーフィルタ232においては、R画素に対して赤及び赤外光の波長域を透過するRフィルタが設けられ、G画素に対して緑及び赤外光の波長域を透過するGフィルタが設けられ、B画素に対して青及び赤外光の波長域を透過するBフィルタが設けられている。
図7は、IRカットフィルタ233の透過特性の例を示すグラフである。同図の横軸は、光の波長を示し、縦軸は、分光透過率を示す。また、点線は、IRカットフィルタ233の透過特性を示し、実線は、図3と同様に、光学フィルタ105の透過特性を示す。
IRカットフィルタ233は、光学フィルタ105が透過する830nm乃至870nm付近の波長域の赤外光を主に減衰させる。従って、R画素、G画素、B画素の図示せぬ受光部(例えば、フォトダイオード)への入射光に含まれる赤外光成分が、IRカットフィルタ233により減衰される。
IR画素においては、光の入射側から順に、マイクロレンズアレイ231、カラーフィルタ232が積層されおり、IRカットフィルタ233は積層されていない。カラーフィルタ232においては、IR画素に対して、可視光を減衰させ、赤外光を透過するIRフィルタが設けられている。
図8は、画素211ごとの感度特性の例を示すグラフである。同図の横軸は、光の波長を示し、縦軸は、その波長の光に対する画素211の感度を示す。また、実線は、IR画素の感度特性を示し、細かい点線は、R画素の感度特性を示す。また、一点鎖線は、G画素の感度特性を示し、粗い点線は、B画素の感度特性を示す。
R画素、G画素およびB画素のそれぞれの感度は、赤、緑および青のそれぞれの可視光に対してピークを示す。また、IRカットフィルタ233が完全には赤外光を遮断できないため、R画素、G画素およびB画素のそれぞれは、赤外光に対しても若干の感度を有する。なお、R画素、G画素およびB画素の赤外光に対する感度は、同程度であり、IR画素と比べて極めて低い。
IR画素の感度は、波長が845nm付近の赤外光に対してピークを示す。また、IRフィルタ(Rフィルタ+Bフィルタ)が完全には可視光を遮断できないため、IR画素は、可視光に対しても若干の感度を有する。なお、IR画素の可視光に対する感度は、R画素、G画素およびB画素と比べて極めて低い。
図4に戻り、AD変換部204は、列ごとに設けられ、画素211からの電気信号をAD変換してデジタル信号を生成する。また、列走査回路205により選択された列のAD変換部204は、生成したデジタル信号を画素信号として画像処理部107の画像生成部121に供給する。
列走査回路205は、タイミング信号に従って、列選択信号をAD変換部204のそれぞれに順に出力することにより列を選択する。
{画像生成部の構成例}
図9は、画像生成部121の構成例を示すブロック図である。画像生成部121は、RGBIR補間フィルタ301、高周波用G補間フィルタ302、成分分離部303、ホワイトバランス処理部304、比率算出部305、色差調整部306、高周波成分抽出部307、高周波成分復元部308、ベイヤ画像信号出力部309およびIR画像信号出力部310を備える。
RGBIR補間フィルタ301は、RAW画像信号において、画素信号ごとに色信号の全てを補間する。
ここで、図8を参照して上述したように、R画素、G画素およびB画素のそれぞれは、赤外光に対して若干の感度を有している。このため、これらの画素の色信号は、可視光から光電変換された信号である可視光成分と、赤外光から光電変換された信号である赤外光成分とを含む。したがって、赤外光成分を分離する前のR画素、G画素およびB画素の各色信号を以下、「R+ΔIR」、「G+ΔIR」および「B+ΔIR」と称する。添え字の「+ΔIR」は、色信号に若干の赤外光成分が含まれていることを示す。
また、図8を参照して上述したように、IR画素は、可視光に対して若干の感度を有している。このため、IR画素の色信号(以下、赤外光信号またはIR信号と称する)は、赤外光から光電変換された信号である赤外光成分と、可視光から光電変換された信号である可視光成分とを含む。したがって、可視光成分を分離する前のIR画素の赤外光信号を以下、「IR+ΔV」と称する。添え字の「+ΔV」は、赤外光信号に若干の可視光成分が含まれていることを示す。
RGBIR補間フィルタ301は画素信号に順に着目し、着目した画素信号を補間対象として、その周囲の画素信号を用いて、例えば、次の式(1)乃至(4)を使用して色信号を補間する。
Figure 2018117309
式(1)乃至(4)において、Mは、補間に用いられる画素信号の個数であり、以下、タップ数と称する。iは、0乃至M−1の整数であり、補間に用いられる画素信号を識別する番号を示す。kiは実数の係数である。係数kiは、iに係る画素信号から補間対象までの距離が近いほど大きな値に設定され、その距離が同一であれば同じ値に設定される。例えば、補間対象の上下左右のR+ΔIR_0乃至R+ΔIR_3が補間に用いられる場合には、それらの補間対象までの距離は同一であるため、係数k0乃至k3の全てに1/4が設定される。
RGBIR補間フィルタ301は、補間後のR+ΔIR_L信号、B+ΔIR_L信号およびIR+ΔV_Lを成分分離部303に供給し、G+ΔIR_L信号を成分分離部303、高周波成分抽出部307および高周波成分復元部308に供給する。
図10は、RGBIR補間フィルタ301による補間前後の画像信号の例を示している。補間前のRAW画像信号321において、R+ΔIR信号、G+ΔIR信号、B+ΔIR信号およびIR+ΔV信号のそれぞれが、上述した図5と同様の配列により並べられている。
データ322IRは、補間後のIR+ΔV_L信号からなるデータの例を示している。データ322Rは、補間後のR+ΔIR_L信号からなるデータの例を示している。データ322Gは、補間後のG+ΔIR_L信号からなるデータの例を示している。データ322Bは、補間後のB+ΔIR_L信号からなるデータの例を示している。これらのデータ322IR乃至322Gに示すように、画素ごとに、全ての色信号が補間される。
高周波用G補間フィルタ302は、RGB画像信号において、画素ごとにG信号のみを補間する。
例えば、高周波用G補間フィルタ302は、次式(5)を使用して、G信号を補間する。
Figure 2018117309
なお、式(5)において、Nはタップ数である。i、kiは、それぞれ上述した式(2)と同様のものである。なお、タップ数Nは、例えば、RGBIR補間フィルタ301のタップ数Mより小さな値に設定される。例えば、RGBIR補間フィルタ301では、タップ数Mは81(=9行×9列)に設定される。一方、高周波用G補間フィルタ302では、タップ数Nは、25(=5行×5列)に設定される。
高周波用G補間フィルタ302は、補間後のG+ΔIR_H信号を高周波成分抽出部307に供給する。
なお、高周波用G補間フィルタ302は、特定方向におけるエッジを検出し、そのエッジの方向に沿った画素信号を優先的に用いて補間を行ってもよい。例えば、高周波用G補間フィルタ302は、水平方向や垂直方向におけるエッジを検出する。そして、高周波用G補間フィルタ302は、水平方向のエッジを検出した場合には、補間対象の上下の画素信号の平均により補間し、垂直方向のエッジを検出した場合には、補間対象の左右の画素信号の平均により補間する。RGBIR補間フィルタ301も同様に、エッジを検出し、そのエッジの方向に沿った画素信号を優先的に用いて補間を行ってもよい。
成分分離部303は、制御部102の制御に従って、オンまたはオフする。成分分離部303は、オンしている場合、例えば、次式(6)を使用して、R+ΔIR_L信号、G+ΔIR_L信号およびB+ΔIR_L信号のそれぞれから赤外光成分を分離して除去し、IR+ΔV_L信号から可視光成分を分離して除去する。
Figure 2018117309
式(6)において、RL、GLおよびBLは、赤外光成分が除去された色信号を示し、IRは、可視光成分が除去された赤外光信号を示す。
次式(7)は、式(6)の右辺の分離マトリクスの係数の例を示している。
Figure 2018117309
なお、式(6)は、赤外光成分又は可視光成分の分離および除去を行うための数式の一例であり、成分分離部303は、他の数式を用いて赤外光成分又は可視光成分の分離および除去を行うことも可能である。
成分分離部303は、RL信号、GL信号およびBL信号をホワイトバランス処理部304および比率算出部305に供給する。また、成分分離部303は、IR信号を比率算出部305およびIR画像信号出力部310に供給する。
図11は、各画素の成分分離後の感度特性の例を示すグラフである。同図の横軸は、光の波長を示し、縦軸は、その光に対する画素の感度を示す。実際には、感度でなく、画素信号から赤外光成分と可視光成分とが分離されるが、同図では、これらの成分を感度に置き換えて表している。同図の実線は、IR信号の感度特性を示し、細かい点線は、RL信号の感度特性を示す。また、一点鎖線は、GL信号の感度特性を示し、粗い点線は、BL信号の感度特性を示す。同図に例示するように、RL信号、GL信号およびBL信号のそれぞれにおいて、ある程度、赤外光成分が除去されている。また、IRL信号において、ある程度、可視光成分が除去されている。
図12は、赤外線分離後の色信号の例を示している。データ323Rは、図10のデータ322Rに対して赤外線分離を行った後のRL信号からなるデータの例を示している。データ323Gは、図10のデータ322Gに対して赤外線分離を行った後のGL信号からなるデータの例を示している。データ323Bは、図10のデータ322Bに対して赤外線分離を行った後のBL信号からなるデータの例を示している。これらのデータ323R乃至323Bに示すように、色信号のそれぞれから赤外光成分が除去される。
また、データ323IRは、図10のデータ322IRに対して可視光分離を行った後のIR信号からなるデータの例を示している。データ323IRに示すように、赤外光信号のそれぞれから可視光成分が除去される。
一方、成分分離部303は、オフしている場合、R+ΔIR_L信号、G+ΔIR_L信号およびB+ΔIR_L信号のそれぞれから赤外光成分を分離および除去せずに、そのままRL信号、GL信号およびBL信号としてホワイトバランス処理部304および比率算出部305に供給する。また、成分分離部303は、オフしている場合、IR+ΔV_L信号から可視光成分を分離および除去せずに、そのままIR信号として比率算出部305およびIR画像信号出力部310に供給する。この場合、R+ΔIR_L信号、G+ΔIR_L信号、B+ΔIR_L信号およびIR+ΔV_L信号と、RL信号、GL信号、BL信号およびIR信号との関係は、次の式(8)乃至(11)のようになる。
L=R+ΔIR_L ・・・(8)
L=G+ΔIR_L ・・・(9)
L=B+ΔIR_L ・・・(10)
IR=IR+ΔV_L ・・・(11)
なお、成分分離部303がオンしている場合にも、式(11)を使用して、IR+ΔV_L信号を、そのままIR信号として出力するようにしてもよい。
ホワイトバランス処理部304は、RL信号、GL信号およびBL信号においてホワイトバランスを調整する。ホワイトバランス処理部304は、例えば、RL信号およびBL信号のそれぞれに対して、ゲインを乗算することにより、ホワイトバランスを調整する。ホワイトバランス処理部304は、ホワイトバランスを調整したRL信号、GL信号およびBL信号を色差調整部306に供給する。
比率算出部305は、例えば、次の式(12)乃至(15)を使用して可視光比率Rcを算出し、制御部102および色差調整部306に供給する。
Figure 2018117309
式(12)において、RL_j、L_j、L_jは、それぞれj(jは、0乃至N−1の整数)番目のRL信号、GL信号、BL信号を示す。Yjは、j番目の画素信号内の輝度成分を示す。式(13)において、Nは、画像信号内の画素信号の個数である。IRjは、j番目のIR信号を示す。IRavは、IR信号の平均値である。式(14)において、Yavは、輝度成分の平均値である。
色差調整部306は、撮像モードに応じて、可視光比率Rcおよび測光量Qに基づいて、色差信号を調整する。具体的には、色差調整部306は、画素信号ごとに、その画素信号内のRL信号、GL信号およびBL信号を輝度信号および色差信号に変換する。そして、色差調整部306は、色差信号を撮像モードに応じて、可視光比率Rcおよび測光量Qに基づいて調整し、輝度信号および色差信号を、RL信号、GL信号およびBL信号に戻して高周波成分復元部308に供給する。
高周波成分抽出部307は、低周波用RGBIR補間フィルタ301からのG+ΔIR_L信号と、高周波用G補間フィルタ302からのG+ΔIR_H信号との差分を高周波成分GHとして抽出する。前述したように、高周波用G補間フィルタ302のタップ数Nは、RGBIR補間フィルタ301のタップ数Mより小さい。このため、高周波用G補間フィルタ302からのG+ΔIR_H信号には、RGBIR補間フィルタ301からのG+ΔIR_L信号よりも高い周波数成分が含まれている。したがって、それらの差分をとることにより、その高周波成分GHを抽出することができる。高周波成分抽出部307は、抽出した高周波成分GHを高周波成分復元部308に供給する。
高周波成分復元部308は、RL信号、GL信号およびBL信号において高周波成分GHを復元する。高周波成分復元部308は、例えば、次の式(16)乃至(18)を使用して、高周波成分GHを復元する。
R=RL+(GH/G+ΔIR_L)×RL ・・・(16)
G=GL+(GH/G+ΔIR_L)×GL ・・・(17)
B=BL+(GH/G+ΔIR_L)×BL ・・・(18)
式(16)乃至(18)において、R、GおよびBは、復元後の色信号である。RGBIR補間フィルタ301における補間により、各色信号の高周波成分が失われるため、そのままでは画像の画質が低下してしまう。しかし、その高周波成分を高周波成分復元部308において復元することにより、復元しない場合と比較して画質が向上する。高周波成分復元部308は、復元したR信号、G信号およびB信号をベイヤ画像信号出力部309に供給する。
ベイヤ画像信号出力部309は、R信号、G信号およびB信号をベイヤ配列に従って並べ、ベイヤ画像信号として画像変換部122およびセンシング部123へ出力する。
図13は、ベイヤ化前後の画像信号の例を示している。データ324Rは、高周波成分を復元した後のR信号からなるデータの例を示している。データ324Gは、高周波成分を復元した後のG信号からなるデータの例を示している。データ324Bは、高周波成分を復元した後のB信号からなるデータの例を示している。なお、データ324R乃至324Bにおいて、R信号、G信号およびB信号のそれぞれの添え字は、画素信号が並べられる行および列の位置を示す。例えば、1行目および1列目のR信号は、R11と表記され、1行目および2列目のR信号は、R12と表記される。
そして、高周波成分復元後のR信号、G信号およびB信号のそれぞれが、ベイヤ配列に従って並べられ、ベイヤ画像信号325が生成される。例えば、データ324Rの4×4のR信号のうち、R21、R23、R41およびR43が選択され、ベイヤ画像信号325において行および列の位置を変えずに並べられる。また、例えば、データ324Gの4×4のG信号のうち、G11、G13、G22、G24、G31、G33、G42およびG44が選択され、ベイヤ画像信号325において行および列の位置を変えずに並べられる。また、例えば、データ324Bの4×4のB信号のうち、B12、B14、B32およびB34が選択され、ベイヤ画像信号325において行および列の位置を変えずに並べられる。このようにして、R信号、G信号およびB信号がベイヤ配列で並べられたベイヤ画像信号325が生成される。
IR画像信号出力部310は、IR信号を2次元格子状に並べ、IR画像信号として出力部108およびセンシング部123へ出力する。
なお、高周波用G補間フィルタ302、高周波成分抽出部307および高周波成分復元部308により、高周波成分の抽出および復元を行っているが、これらを設けない構成としてもよい。ただし、画質を向上させる観点から、高周波用G補間フィルタ302、高周波成分抽出部307および高周波成分復元部308を設けることが望ましい。
また、比率算出部305および色差調整部306を画像生成部121に設けているが、これらを後段の画像変換部122に設けてもよい。ただし、画質を向上させる観点から、比率算出部305および色差調整部306を画像生成部121に設けることが望ましい。
さらに、ベイヤ画像信号出力部309を設けない構成とし、画像信号をベイヤ化せずに画像変換部122およびセンシング部123に供給するようにしてもよい。
{色差調整部の構成例}
図14は、色差調整部306の構成例を示すブロック図である。色差調整部306は、YC変換部351、色差信号補正部352およびRGB変換部353を備える。
YC変換部351は、画素毎に、RL信号、GL信号およびBL信号を輝度信号YLと色差信号CrおよびCbとに変換する。YC変換部351は、例えば、ITU−R(International Telecommunication Union Radiocommunication Sector) BT.601の規格に基づいて次の式(19)乃至(21)により変換を行う。YC変換部351は、色差信号CrおよびCbを色差信号補正部352に供給し、輝度信号YLをRGB変換部353に供給する。
L=0.299×RL+0.587×GL+0.144×BL
・・・(19)
Cb=−0.168736×RL−0.331264×GL+0.5×BL
・・・(20)
Cr=0.5×RL−0.418688×GL−0.081312×BL
・・・(21)
色差信号補正部352は、色差信号CrおよびCbを補正する。具体的には、色差信号補正部352は、撮像モード、測光量Qおよび可視光比率Rcに基づいて、クロマゲインGcを設定する。そして、色差信号補正部352は、設定したゲインを色差信号CrおよびCbのそれぞれに乗じる補正を行い、補正後の色差信号Cr’およびCb’信号をRGB変換部353に供給する。クロマゲインの設定方法の詳細については後述する。
RGB変換部353は、画素毎に、輝度信号YLおよび色差信号Cr’,Cb’をRL信号、GL信号およびBL信号に変換して高周波成分復元部308に供給する。RGB変換部353は、例えば、ITU−R BT.601の規格に基づいて次の式(22)乃至(24)を使用して変換を行う。
L=YL+1.402×Cr’ ・・・(22)
L=YL−0.344136×Cr’−0.714136×Cb’
・・・(23)
L=YL+1.772×Cb’ ・・・(24)
{色差信号補正部の構成例}
図15は、色差信号補正部352の構成例を示すブロック図である。色差信号補正部352は、クロマゲイン制御部401と、乗算器402および403とを備える。
クロマゲイン制御部401は、撮像モード、測光量Qおよび可視光比率Rcに基づいて、色差信号に乗算するゲインであるクロマゲインGcを制御する。
例えば、クロマゲイン制御部401は、センシングモード、デイモードまたはCNVモードに設定されている場合、図16のグラフを用いて、クロマゲインGcを設定する。
図16の縦軸は、クロマゲインGcを示し、横軸は測光量Qを示す。また、同図の一点鎖線は、可視光比率Rcが1.0の場合のクロマゲインGcの設定例であり、実線は、可視光比率Rcが0.9の場合のクロマゲインGcの設定例である。また、点線は、可視光比率Rcが0.8の場合のクロマゲインGcの設定例である。同図に例示するように、測光量Qが小さいほど、また、可視光比率Rcが低い(すなわち、赤外光成分の割合が高い)ほど、小さなクロマゲインGcが設定される。この結果、撮像装置100の周囲が暗いほど、あるいは、赤外光成分の割合が高いほど、画像をモノクロ画像に近づけて、画像信号のSN(Signal-to-Noise)比を良好に保つことができる。
一方、クロマゲイン制御部401は、ナイトモードに設定されている場合、クロマゲインGcの値を0に設定する。
クロマゲイン制御部401は、設定したクロマゲインGcを乗算器402および403に供給する。
なお、クロマゲイン制御部401を画像処理部107内に設けているが、例えば、このクロマゲイン制御部401を制御部102内に設けてもよい。
乗算器402は、色差信号CrにクロマゲインGcを乗算し、乗算結果である色差信号Cr’をRGB変換部353に供給する。
乗算器403は、色差信号CbにクロマゲインGcを乗算し、乗算結果である色差信号Cb’をRGB変換部353に供給する。
従って、センシングモード、デイモードまたはCNVモードに設定されている場合、色差信号Cr’、Cb’は、次の式(25)および(26)のようになる。
Cr’=Gc×Cr ・・・(25)
Cb’=Gc×Cb ・・・(26)
一方、ナイトモードに設定されている場合、色差信号Cr’、Cb’は、次の式(27)および(28)のようになる。
Cr’=0 ・・・(27)
Cb’=0 ・・・(28)
従って、ナイトモードに設定されている場合、RGB変換部353から出力されるRL信号、GL信号およびBL信号は、輝度信号YLのみを含むようになり、モノクロの画像信号となる。
{画像変換部の構成例}
図17は、画像変換部122の構成例を示すブロック図である。画像変換部122は、デモザイク処理部501、リニアマトリックス演算部502、ガンマ補正部503およびYC変換部504を備える。
デモザイク処理部501は、所定のデモザイクアルゴリズムを使用して、ベイヤ画像信号を、画像信号ごとにR信号、G信号およびB信号を含むデモザイク画像信号に変換する。デモザイク処理部501は、変換後のデモザイク画像信号をリニアマトリックス演算部502に供給する。
リニアマトリックス演算部502は、色再現性を高める目的でリニアマトリックス演算を行う。リニアマトリックス演算部502は、例えば、次の式(29)乃至(31)に示すリニアマトリックス演算を行う。
R’=R+ka×(R−G)+kb×(R−B) ・・・(29)
G’=R+kc×(G−R)+kd×(G−B) ・・・(30)
B’=B+ke×(B−R)+kf×(B−G) ・・・(31)
式(29)乃至(31)において、ka、kb、kc、kd、keおよびkfは、実数の係数である。
リニアマトリックス演算部502は、演算後のR’信号、G’信号およびB’信号をガンマ補正部503に供給する。このリニアマトリックス演算により、輝度信号や色差信号の信号レベルが変化する。このため、リニアマトリックス演算の前に、色差信号補正部352における色信号の補正を行うことが望ましい。この補正を、前述したように画像生成部121で行うことにより、画質を向上させることができる。
ガンマ補正部503は、ディスプレイの特性に合わせて、ガンマ補正を行う。ガンマ補正部503は、補正後のデモザイク画像信号をYC変換部504に供給する。
YC変換部504は、デモザイク画像において、R’信号、G’信号およびB’信号を輝度信号および色差信号に変換する。YC変換部504は、例えば、上述した式(19)乃至(21)を使用して変換を行い、変換後の画像信号をYC画像信号として出力する。なお、YC変換部504は、式(19)乃至(21)において、RL信号、GL信号およびBL信号の代わりに、R’信号、G’信号およびB’信号を用いる。
なお、上述したように画像生成部121においてベイヤ画像信号出力部309を設けない構成とした場合、画像変換部122において、デモザイク処理部501を設けない構成とすることが可能である。
{センシング部の構成例}
図18は、センシング部123の構成例を示すブロック図である。センシング部123は、物体検出部551を備える。物体検出部551は、距離計測部561、記憶部563および認識部562を備える。
距離計測部561は、IR画像信号出力部310から供給されるIR画像信号に基づくIR画像、および、記憶部563に予め記憶されているキャリブレーション画像に基づいて、デプスセンシングを行い、IR画像内の各物体までの距離を計測する。そして、距離計測部561は、各物体までの距離の分布を示すデプスマップを生成し、認識部562に供給する。
認識部562は、デプスマップに基づいて、物体が存在する領域を検出する。また、認識部562は、検出した領域を対象にして、ベイヤ画像信号出力部309から供給されるベイヤ画像内の物体の認識を行う。そして、認識部562は、物体の検出結果を出力部108に供給する。
{撮像装置100の処理}
次に、図19乃至図36を参照して、撮像装置100の処理について説明する。
(撮像モード設定処理)
まず、図19
のフローチャートを参照して、撮像装置100により実行される撮像モード設定処理について説明する。この処理は、例えば、撮像を開始するときや、撮像中の所定の間隔ごと等の所定のタイミングで実行される。
ステップS1において、制御部102は、ユーザ設定等に基づいて、センシングを行うか否かを判定する。センシングを行うと判定された場合、処理はステップS2に進む。
ステップS2において、制御部102は、センシングモードに設定する。制御部102は、センシングモードに設定したことを示すモード信号をクロマゲイン制御部401に供給する。
ステップS3において、撮像装置100は、赤外光の間欠照射を開始し、画素別シャッタをオンする。具体的には、制御部102は、赤外光照射部103を制御して、赤外光の間欠照射を開始させる。また、制御部102は、撮像素子106を制御して、画素別シャッタをオンする。
なお、センシングモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例は、図23を参照して後述する。
ステップS4において、制御部102は、成分分離部303をオフする。
その後、撮像モード設定処理は終了する。
一方、ステップS1において、センシングを行わないと判定された場合、処理はステップS5に進む。
ステップS5において、撮像装置100は、ビューイングモード設定処理を実行し、その後、撮像モード設定処理は終了する。
ここで、図20のフローチャートを参照して、ビューイングモード設定処理の詳細について説明する。
ステップS21において、撮像装置100は、赤外光の照射、画素別シャッタをオフする。具体的には、制御部102は、赤外光照射部103を制御して消灯させる。また、制御部102は、撮像素子106を制御して、画素別シャッタをオフする。
ステップS22において、制御部102は、成分分離部303をオンする。
ステップS23において、制御部102は、周囲の明るさの判定を行う。例えば、制御部102は、図21に示されるように、測光部101による測光量Qに基づいて、周囲の明るさを「明るい」、「暗い」、「非常に暗い」の3段階に分ける。具体的には、測光量Qが0から撮像素子106の光電変換素子が飽和するレベルまでの範囲内において、閾値THQ0及び閾値THQ1が予め設定されている。そして、制御部102は、測光量Q≧閾値THQ1の場合、周囲が明るいと判定し、閾値THQ0≦測光量Q<閾値THQ1の場合、周囲が暗いと判定し、測光量Q<閾値THQ0の場合、周囲が非常に暗いと判定する。そして、周囲が暗いと判定された場合、処理はステップS24に進む。
ステップS24において、制御部102は、環境赤外光の強度の判定を行う。具体的には、上述したように、比率算出部305は、式(12)乃至(15)を使用して可視光比率Rcを算出し、制御部102に供給する。
制御部102は、可視光比率Rcに基づいて、環境赤外光の強度の判定を行う。例えば、図22に示されるように、可視光比率Rcの0から1までの範囲内において、閾値THRcが予め設定されている。制御部102は、可視光比率Rc≧THRcの場合、環境赤外光の強度が低いと判定し、可視光比率Rc<THRcの場合、環境赤外光の強度が高いと判定する。そして、環境赤外光の強度が高いと判定された場合、処理はステップS25に進む。
一方、ステップS23において、周囲が非常に暗いと判定された場合、ステップS24の処理はスキップされ、処理はステップS25に進む。
ステップS25において、制御部102は、ナイトモードに設定する。すなわち、制御部102は、周囲が非常に暗い状態、または、周囲が暗く、環境赤外光の強度が高い状態の場合、ナイトモードに設定する。制御部102は、ナイトモードに設定したことを示すモード信号をクロマゲイン制御部401に供給する。
ステップS26において、赤外光照射部103は、制御部102の制御に従って、赤外光の連続照射を開始する。このとき、画素別シャッタはオフされたままとなる。また、成分分離部303は、オンされたままとなる。
なお、ナイトモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例は、図25を参照して後述する。
その後、ビューイングモード設定処理は終了する。
一方、ステップS24において、環境赤外光の強度が低いと判定された場合、処理はステップS27に進む。
ステップS27において、制御部102は、CNVモードに設定する。すなわち、制御部102は、周囲が暗く、環境赤外光の強度が低い状態の場合、CNVモードに設定する。制御部102は、CNVモードに設定したことを示すモード信号をクロマゲイン制御部401に供給する。
ステップS28において、図19のステップS3の処理と同様に、赤外光の間欠照射が開始され、画素別シャッタがオンされる。
なお、CNVモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例は、図23を参照して後述する。
ステップS29において、図19のステップS4の処理と同様に、成分分離部303がオフされる。
その後、ビューイングモード設定処理は終了する。
一方、ステップS23において、周囲が明るいと判定された場合、処理はステップS30に進む。
ステップS30において、制御部102は、デイモードに設定する。制御部102は、デイモードに設定したことを示すモード信号をクロマゲイン制御部401に供給する。このとき、画素別シャッタはオフされたままとなる。また、赤外光照射部103は消灯したままとなる。さらに、成分分離部303は、オンされたままとなる。
なお、デイモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例は、図24を参照して後述する。
その後、ビューイングモード設定処理は終了する。
ここで、図23乃至図25を参照して、各撮像モードにおける赤外光の照射期間および各画素の露光期間の例について説明する。なお、図23乃至図25において、時刻t0からt4の期間、時刻t4から時刻t8の期間が、それぞれ1フレーム期間である。
図23は、センシングモードまたはCNVモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例を示している。センシングモードまたはCNVモードに設定されている場合、撮像素子106の画素アレイ部202の1行目から最終行に向かう掃引方向に従って、行単位に露光期間がずらされる。また、画素別シャッタがオンされることにより、同じ行の画素であっても、R画素、G画素およびB画素(以下、カラー画素と称する)とIR画素とで異なる露光期間が設定される。
例えば、時刻t2において、画素アレイ部202の1行目のカラー画素の露光期間が開始される。その後、所定の時間間隔で、掃引方向の順に画素アレイ部202の各行のカラー画素の露光期間が開始される。そして、時刻t3において、画素アレイ部202の最終行のカラー画素の露光期間が開始される。このように、時刻t2から時刻t3の期間において、カラー画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t4において、画素アレイ部202の1行目のカラー画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。その後、所定の時間間隔で、掃引方向の順に画素アレイ部202の各行のカラー画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。そして、時刻t5において、画素アレイ部202の最終行のカラー画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。このように、時刻t4から時刻t5の期間において、カラー画素の露光期間が、掃引方向の順に所定の時間間隔で終了し、露光期間中に得られた電荷信号が読み出される。
次に、時刻t6から時刻t7の期間において、時刻t2から時刻t3の期間と同様に、カラー画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t8から時刻t9の期間において、時刻t4から時刻t5の期間と同様に、カラー画素の露光期間が、掃引方向の順に所定の時間間隔で終了し、露光期間中に得られた電荷信号が読み出される。
以降、同様の処理が繰り返される。
一方、時刻t0において、画素アレイ部202の1行目のIR画素の露光期間が開始される。その後、所定の時間間隔で、掃引方向の順に画素アレイ部202の各行のIR画素の露光期間が開始される。そして、時刻t1において、画素アレイ部202の最終行のIR画素の露光期間が開始される。このように、時刻t0から時刻t1の期間において、IR画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t4において、画素アレイ部202の1行目のIR画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。その後、所定の時間間隔で、掃引方向の順に画素アレイ部202の各行のIR画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。そして、時刻t5において、画素アレイ部202の最終行のIR画素の露光期間が終了し、露光期間中に得られた電荷信号が読み出される。このように、時刻t4から時刻t5の期間において、IR画素の露光期間が、掃引方向の順に所定の時間間隔で終了し、露光期間中に得られた電荷信号が読み出される。
次に、時刻t4から時刻t5の期間において、時刻t0から時刻t1の期間と同様に、IR画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t8から時刻t9の期間において、時刻t4から時刻t5の期間と同様に、IR画素の露光期間が、掃引方向の順に所定の時間間隔で終了し、露光期間中に得られた電荷信号が読み出される。
以降、同様の処理が繰り返される。
このように、各フレーム期間内にカラー画素とIR画素の露光期間が設定される。また、赤外光受光用のIR画素の露光期間が、赤外光の受光に用いられないカラー画素の露光期間より長く設定される。さらに、各フレーム期間において、時刻t1から時刻t2の期間、時刻t5から時刻t6の期間、および、時刻t9から時刻t10の期間のように、IR画素とカラー画素の露光期間が重複していない期間、より具体的には、全てのIR画素が露光しており、全てのカラー画素が露光していない期間(以下、単独露光期間と称する)が設けられる。
一方、赤外光は、各フレーム期間の一部の期間のみ照射される。具体的には、赤外光は、各フレーム期間のうち単独露光期間内に集中的に照射される。
なお、必ずしも単独露光期間の全期間において赤外光を照射する必要はなく、単独露光期間の一部の期間においてのみ赤外光を照射するようにしてもよい。
このように、センシングモードまたはCNVモードに設定されている場合、IR画素のみが赤外光照射部103からの赤外光を受光し、カラー画素は赤外光照射部103からの赤外光を受光しない。また、図6を参照して上述したように、カラー画素にはIRカットフィルタ233が設けられており、カラー画素は環境赤外光を受光しない。ここで、上述したように、R、G、Bの色情報はカラー画素の画素信号から生成されるが、カラー画素は、照射した赤外光および環境赤外光を受光しないため、色再現性の低下が防止される。
一方、IR画素は、赤外光照射部103からの赤外光を受光するため、高画質のIR画像を得ることができる。
また、CNVモードに設定することにより、周囲が暗くても、赤外光を照射しながら、フレームレートを落とすことなく、高画質のカラー画像を得ることができる。
以上のように、センシングモードまたはCNVモードに設定することにより、1つの撮像素子106を用いて、各フレーム期間内に高画質のカラー画像とIR画像を並行して得ることができる。
図24は、デイモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例を示している。デイモードに設定されている場合、センシングモードまたはCNVモードに設定されている場合と同様に、撮像素子106の画素アレイ部202の1行目から最終行に向かう掃引方向に従って、行単位に露光期間がずらされる。また、画素別シャッタがオフされることにより、カラー画素とIR画素の露光期間が合わせられる。
例えば、時刻t0から時刻t1の期間において、カラー画素およびIR画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t4から時刻t5の期間において、カラー画素およびIR画素の露光期間が掃引方向の順に終了し、露光期間中に得られた電荷信号が読み出され、新たな露光期間が開始される。
次に、時刻t8から時刻t9の期間において、カラー画素およびIR画素の露光期間が掃引方向の順に終了し、露光期間中に得られた電荷信号が読み出され、新たな露光期間が開始される。
以降、同様の処理が繰り返される。
なお、デイモードに設定されている場合、環境光の強度が十分であるため、赤外光の照射は行われない。
図25は、ナイトモードに設定されている場合の赤外光の照射期間および各画素の露光期間の例を示している。ナイトモードに設定されている場合、他のモードに設定されている場合と同様に、撮像素子106の画素アレイ部202の1行目から最終行に向かう掃引方向に従って、行単位に露光期間がずらされる。また、画素別シャッタがオフされることにより、カラー画素とIR画素の露光期間が合わせられる。
例えば、時刻t0から時刻t1の期間において、カラー画素およびIR画素の露光期間が、掃引方向の順に所定の時間間隔で開始される。
次に、時刻t4から時刻t5の期間において、カラー画素およびIR画素の露光期間が掃引方向の順に終了し、露光期間中に得られた電荷信号が読み出され、新たな露光期間が開始される。
次に、時刻t8から時刻t9の期間において、カラー画素およびIR画素の露光期間が掃引方向の順に終了し、露光期間中に得られた電荷信号が読み出され、新たな露光期間が開始される。
以降、同様の処理が繰り返される。
一方、赤外光は連続して照射される。
上述したように、ナイトモードに設定されている場合、色情報を用いずに、モノクロの画像が生成される。従って、赤外光を連続照射することにより、輝度情報の再現性が向上し、撮像装置100により生成される画像の画質が向上する。
なお、センシングモードに設定されている場合、所定のパターンを示す赤外光(以下、ストラクチャードライトと称する)が赤外光照射部103から照射される。例えば、図26に示されるドットパターンを示すストラクチャードライトが赤外光照射部103から照射される。一方、CNVモードまたはナイトモードに設定されている場合、特定のパターンがなく、明るさが一様な赤外光(以下、フラットライトと称する)が赤外光照射部103から照射される。
(撮像処理)
次に、図27のフローチャートを参照して、撮像装置100により実行される撮像処理について説明する。
ステップS101において、撮像素子106は、RAW画像を撮像する。具体的には、撮像素子106は、撮像レンズ104および光学フィルタ105を介して受光した光の像を撮像し、撮像の結果得られたRAW画像信号をRGBIR補間フィルタ301および高周波用G補間フィルタ302に供給する。
ステップS102において、撮像装置100は、画像生成処理を実行する。ここで、図28のフローチャートを参照して、画像生成処理の詳細について説明する。
ステップS151において、RGBIR補間フィルタ301および高周波用G補間フィルタ302は、画素の補間を行う。
具体的には、RGBIR補間フィルタ301は、上述したように、RAW画像信号において、画素ごとに色信号の全てを補間する。RGBIR補間フィルタ301は、補間後のR+ΔIR_L信号、B+ΔIR_L信号およびIR+ΔV_L信号を成分分離部303に供給し、G+ΔIR_L信号を成分分離部303、高周波成分抽出部307および高周波成分復元部308に供給する。
高周波用G補間フィルタ302は、上述したように、RAW画像信号において、画素ごとにG信号のみを補間する。高周波用G補間フィルタ302は、補間後のG+ΔIR_H信号を高周波成分抽出部307に供給する。
ステップS152において、成分分離部303がオンされているか否かが判定される。成分分離部303がオンされていると判定された場合、処理はステップS153に進む。
ステップS153において、成分分離部303は、不要な成分を分離、除去する。具体的には、成分分離部303は、上述したように、R+ΔIR_L信号、G+ΔIR_L信号およびB+ΔIR_L信号のそれぞれから赤外光成分を分離して除去する。成分分離部303は、赤外光成分が除去されたRL信号、GL信号およびBL信号をホワイトバランス処理部304に供給する。
また、成分分離部303は、上述したように、IR+ΔV_L信号から可視光成分を分離して除去する。成分分離部303は、可視光成分が除去されたIR信号をIR画像信号出力部310に供給する。
その後、処理はステップS154に進む。
一方、ステップS152において、成分分離部303がオフされていると判定された場合、ステップS153の処理はスキップされ、処理はステップS154に進む。このとき、成分分離部303に入力されたR+ΔIR_L信号、G+ΔIR_L信号およびB+ΔIR_L信号は、赤外光成分の分離および除去が行われることなく、そのままRL信号、GL信号およびBL信号としてホワイトバランス処理部304に供給される。また、成分分離部303に入力されたIR+ΔV_L信号は、可視光成分の分離および除去が行われることなく、そのままIR信号としてIR画像信号出力部310に供給される。
ステップS154において、ホワイトバランス処理部304は、ホワイトバランス処理を行う。具体的には、ホワイトバランス処理部304は、上述したように、RL信号、GL信号およびBL信号においてホワイトバランスを調整し、ホワイトバランスを調整したRL信号、GL信号およびBL信号をYC変換部351に供給する。
ステップS155において、クロマゲイン制御部401は、ナイトモードに設定されているか否かを判定する。ナイトモードに設定されていると判定された場合、処理はステップS156に進む。
ステップS156において、色差調整部306は、ナイトモード用の色差の調整を行う。
具体的には、YC変換部351は、上述したように、画素毎に、RL信号、GL信号およびBL信号を輝度信号YLと色差信号CrおよびCbとに変換する。YC変換部351は、輝度信号YLをRGB変換部353に供給する。また、YC変換部351は、色差信号Crを乗算器402に供給し、色差信号Cbを乗算器403に供給する。
クロマゲイン制御部401は、クロマゲインGcを0に設定する。クロマゲイン制御部401は、設定したクロマゲインGcを乗算器402および403に供給する。
乗算器402は、色差信号CrにクロマゲインGc(=0)を乗算し、乗算結果である色差信号Cr’をRGB変換部353に供給する。
乗算器403は、色差信号CbにクロマゲインGc(=0)を乗算し、乗算結果である色差信号Cb’をRGB変換部353に供給する。
RGB変換部353は、上述したように、画素毎に、輝度信号YLおよび色差信号Cr’,Cb’を、RL信号、GL信号およびBL信号に変換して高周波成分復元部308に供給する。
ここで、色差信号Cr’,Cb’は0なので、RL信号、GL信号およびBL信号からなる画像はモノクロ画像となる。
その後、処理はステップS158に進む。
一方、ステップS155において、センシングモード、デイモードまたはCNVモードに設定されていると判定された場合、処理はステップS157に進む。
ステップS157において、色差調整部306は、センシングモード、デイモード、CNVモード用の色差の調整を行う。
具体的には、YC変換部351は、上述したように、画素毎に、RL信号、GL信号およびBL信号を輝度信号YLと色差信号CrおよびCbとに変換する。YC変換部351は、輝度信号YLをRGB変換部353に供給する。また、YC変換部351は、色差信号Crを乗算器402に供給し、色差信号Cbを乗算器403に供給する。
比率算出部305は、上述したように、可視光比率Rcを算出し、制御部102およびクロマゲイン制御部401に供給する。
クロマゲイン制御部401は、上述したように、測光量Qおよび可視光比率Rcに基づいて、図16のグラフを用いて、クロマゲインGcを設定する。クロマゲイン制御部401は、設定したクロマゲインGcを乗算器402および403に供給する。
乗算器402は、色差信号CrにクロマゲインGcを乗算し、乗算結果である色差信号Cr’をRGB変換部353に供給する。
乗算器403は、色差信号CbにクロマゲインGcを乗算し、乗算結果である色差信号Cb’をRGB変換部353に供給する。
RGB変換部353は、上述したように、画素毎に、輝度信号YLおよび色差信号Cr’,Cb’をRL信号、GL信号およびBL信号に変換して高周波成分復元部308に供給する。
その後、処理はステップS158に進む。
ステップS158において、高周波成分抽出部307は、上述したように、G+ΔIR_L信号およびG+ΔIR_H信号に基づいて、高周波成分GHを抽出する。高周波成分抽出部307は、抽出した高周波成分GHを高周波成分復元部308に供給する。
ステップS159において、高周波成分復元部308は、上述したように、RL信号、GL信号およびBL信号において高周波成分GHを復元する。高周波成分復元部308は、高周波成分を復元したR信号、G信号およびB信号をベイヤ画像信号出力部309に供給する。
ステップS160において、画像生成部121は、ベイヤ画像信号およびIR画像信号を出力する。具体的には、ベイヤ画像信号出力部309は、R信号、G信号およびB信号をベイヤ配列に従って並べ、ベイヤ画像信号としてデモザイク処理部501および認識部562に供給する。IR画像信号出力部310は、IR信号を2次元格子状に並べ、IR画像信号として出力部108および距離計測部561に供給する。
その後、画像生成処理は終了する。
図27に戻り、物体検出部551は、ユーザ設定等に基づいて、物体検出を行うか否かを判定する。物体検出を行わないと判定された場合、処理はステップS104に進む。
ステップS104において、画像変換部122は、画像変換を行う。
具体的には、デモザイク処理部501は、上述したように、ベイヤ画像信号を、画像信号ごとにR信号、G信号およびB信号を含むデモザイク画像信号に変換し、変換後のデモザイク画像信号をリニアマトリックス演算部502に供給する。
リニアマトリックス演算部502は、上述したように、デモザイク画像信号に対してリニアマトリックス演算を行い、演算後のデモザイク画像信号をガンマ補正部503に供給する。
ガンマ補正部503は、ディスプレイの特性に合わせて、デモザイク画像信号のガンマ補正を行い、補正後のデモザイク画像信号をYC変換部504に供給する。
YC変換部504は、上述したように、デモザイク画像信号をYC画像信号に変換し、変換後のYC画像信号を出力部108に供給する。
ステップS105において、出力部108は、画像信号を出力する。すなわち、出力部108は、YC画像信号およびIR画像信号を出力する。
その後、処理はステップS109に進む。
一方、ステップS103において、物体検出を行うと判定された場合、処理はステップS106に進む。
ステップS106において、物体検出部551は、物体検出処理を実行する。ここで、図29のフローチャートを参照して、物体検出処理の詳細について説明する。
なお、以下、図30に示される被写体を撮像した場合を適宜例に挙げて説明する。なお、図30では、各被写体がモノクロで表されているが、実際には色が付いている。
また、図31及び図32は、S102の画像生成処理により得られるベイヤ画像信号に基づくベイヤ画像、および、IR画像信号に基づくIR画像の例を示している。図31のベイヤ画像および図32のIR画像は、ともに同じフレーム期間内に図30の被写体を撮像した画像の一部である。また、図32のIR画像は、図30の被写体にストラクチャードライトを照射した状態で撮像されたものである。なお、図31のベイヤ画像は、モノクロで表されているが、実際にはカラーの画像である。
ステップS201において、距離計測部561は、キャリブレーション画像を取得する。
ここで、キャリブレーション画像とは、撮像装置100(撮像レンズ104)の光軸に対して垂直に設置された模様のない平面を、ストラクチャードライトを照射した状態で撮像装置100により撮像することにより得られるIR画像のことである。従って、図33に示されるように、キャリブレーション画像は、ストラクチャードライトのパターンがそのまま投影された画像となる。
キャリブレーション画像は予め撮像され、キャリブレーション画像を示すIR画像信号(以下、キャリブレーション画像信号と称する)が記憶部563に記憶されている。距離計測部561は、キャリブレーション画像信号を記憶部563から読み出す。
ステップS202において、距離計測部561は、距離計測を行う。例えば、距離計測部561は、キャリブレーション画像における各ドットと、被写体を撮像したIR画像における各ドットとの対応付けを行う。例えば、図34に示されるように、距離計測部561は、IR画像において、キャリブレーション画像におけるドットD1乃至D3に対応するドットD1’乃至D3’の検出を行う。そして、距離計測部561は、対応するドット間の距離に基づいて、IR画像の各ドットにおける物体までの距離を算出する。
例えば、図34の例において、物体601にストラクチャードライトが投影されることにより、IR画像のドットD2’は、対応するキャリブレーション画像のドットD2の位置から左方向に移動している。距離計測部561は、このドットD2’とドットD2の間の距離に基づいて、IR画像のドットD2’の位置における物体までの距離を算出する。そして、距離計測部561は、IR画像の全てのドットについて同様の処理を行うことにより、各ドットの位置における物体までの距離を算出する。また、距離計測部561は、物体までの距離の分布を示すデプスマップを生成し、生成したデプスマップを認識部562に供給する。
図35は、デプスマップの例を示している。この例では、デプスマップがモノクロの画像により示されているが、実際の画像では、物体までの距離に応じて画素の色が変化する。
ステップS203において、認識部562は、物体の認識を行う。例えば、認識部562は、デプスマップに基づいて、物体が存在する領域を検出する。例えば、図35の例において、領域R1乃至R6が検出される。
そして、認識部562は、ベイヤ画像に基づいて、検出した各領域内の物体の認識を行う。認識部562の物体の認識方法には、任意の方法を採用することが可能であるが、例えば、CNN(Convolutional Neural Network)が用いられる。これにより、例えば、図36に示されるように、領域R1およびR3乃至R6内の人形、並びに、領域R2内のカラーチャートが認識される。
認識部562は、物体の検出結果を出力部108に供給する。
その後、物体検出処理は終了する。
このように、IR画像に基づいて物体が存在する領域を検出してから、検出した領域を対象に物体の認識処理が行われる。その結果、計算量が削減され、処理の高速化や負荷の軽減が実現される。また、IR画像とベイヤ画像が同じ撮像素子106により撮像され、撮像範囲が同じになるため、視差補正を行う必要がない。さらに、IR画像とベイヤ画像が同じフレーム期間内に撮像されるため、物体の動き等を考慮する必要がない。
従って、少ない処理量で高精度の物体検出が実現される。
図27に戻り、ステップS107において、ステップS104の処理と同様に、画像変換が行われる。
ステップS108において、出力部108は、画像信号および検出結果を出力する。すなわち、出力部108は、YC画像信号およびIR画像信号、並びに、物体の検出結果を出力する。
ステップS109において、制御部102は、撮像を停止するか否かを判定する。撮像を停止しないと判定された場合、処理はステップS101に戻り、ステップS109において、撮像を停止すると判定されるまで、ステップS101乃至S109の処理が繰り返し実行される。
一方、ステップS109において、制御部102は、例えば、ユーザにより所定の操作が行われた場合や、撮像を継続する時間が経過した場合等に、撮像を停止すると判定し、撮像処理は終了する。
<2.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
上述したように、撮像装置100は、1つの撮像素子106を用いて、同じフレーム期間内にカラー画像とIR画像を並行して取得することができる。以上の説明では、IR画像を用いて、物体までの距離の検出(デプスセンシング)を行い、デプスセンシングの結果を用いて物体の検出を行う例を示したが、デプスセンシングの結果を他の用途に用いることも可能である。
例えば、カラー画像を用いた顔検出や顔認識では、写真等の画像を用いたなりすましを検出することが困難である。これに対して、IR画像を用いたデプスセンシングにより平面検出を行うことにより、なりすましの検出が容易になる。
また、IR画像を他のセンシング用途に用いてもよい。
例えば、フラットライトを用いて撮像したIR画像を用いて、虹彩認証、オートフォーカス、オートホワイトバランス、逆光補正等の処理を行うことができる。IR画像を用いることにより、カラー画像を用いる場合と比較して、暗時や暗所における上記の処理の性能が向上する。
さらに、例えば、フラットライトを用いて撮像したIR画像を、特に暗時や暗所のビューイング用途(例えば、監視等)に用いることができる。
また、例えば、撮像装置100に2つの撮像素子106を設けることにより、カラー画像とIR画像のステレオ撮像を並行して行うことができる。
さらに、例えば、図9の画像生成部121において、色差調整部306の代わりに、図37の輝度・色差調整部701を設け、色差信号だけでなく、輝度信号の補正も行うようにしてもよい。なお、図37において、図14と対応する部分には同じ符号を付してある。
図37の輝度・色差調整部701は、図14の色差調整部306と比較して、輝度信号生成部711および輝度信号補正部712が追加されている点が異なる。
輝度信号生成部711は、次の式(32)を使用して、撮像素子106から供給されるR+ΔIR信号、G+ΔIR信号およびB+ΔIR信号から輝度信号Y+ΔIRを生成する。
+ΔIR=(5G+ΔIR+2R+ΔIR+B+ΔIR)/8 ・・・(32)
輝度信号生成部711は、生成した輝度信号Y+ΔIRを輝度信号補正部712に供給する。
図38は、輝度信号補正部712の構成例を示すブロック図である。輝度信号補正部712は、合成比率制御部751と、乗算器752および753と、加算器754とを備える。
合成比率制御部751は、撮像モード、測光量Qおよび可視光比率Rcに基づいて、合成比率αを制御する。
例えば、合成比率制御部751は、センシングモード、デイモードまたはCNVモードに設定されている場合、図39のグラフを用いて、合成比率αを設定する。
図39の縦軸は、合成比率αを示し、横軸は測光量Qを示す。また、同図の一点鎖線は、可視光比率Rcが1.0の場合の合成比率αの設定例であり、実線は、可視光比率Rcが0.9の場合の合成比率αの設定例である。また、点線は、可視光比率Rcが0.8の場合の合成比率αの設定例である。
同図に例示するように、測光量Qが小さいほど、また、赤外光成分の割合が高いほど、小さな合成比率αが設定される。
一方、合成比率制御部751は、ナイトモードに設定されている場合、合成比率αの値を0に設定する。
合成比率制御部751は、設定した合成比率αを乗算器752に供給し、合成比率αを1から減算した減算結果1−αを乗算器753に供給する。
なお、合成比率制御部751を画像処理部107内に設けているが、例えば、この合成比率制御部751を制御部102内に設けてもよい。
乗算器752は、合成比率αを輝度信号YLに乗算して乗算結果を加算器754に供給する。
乗算器753は、合成比率制御部751からの減算結果1−αをY+ΔIR信号に乗算して乗算結果を加算器754に供給する。
加算器754は、乗算器752および753のそれぞれの乗算結果を加算し、その加算結果を輝度信号YL’としてRGB変換部353に供給する。
従って、センシングモード、デイモードまたはCNVモードに設定されている場合、輝度信号YL’は、次の式(33)のようになる。
L’=α×YL+(1−α)×Y+ΔIR ・・・(33)
一方、ナイトモードに設定されている場合、輝度信号YL’は、次の式(34)のようになる。
L’=Y+ΔIR ・・・(34)
輝度信号補正部712は、輝度信号YL’をRGB変換部353に供給する。
RGB変換部353は、上述した式(22)乃至(24)を使用して、輝度信号YL’と色差信号Cr’およびCb’を、RL信号、GL信号およびBL信号に変換する。RGB変換部353は、変換後のRL信号、GL信号およびBL信号を高周波成分復元部308に供給する。
また、上述した画素の配列は、その一例であり、他の配列を用いることも可能である。
例えば、図40に示されるように、縦2画素×横2画素からなるパターンを1単位として、各パターン内にR画素:G画素:B画素:IR画素=1:1:1:1の割合で、画素211を配置するようにしてもよい。
また、例えば、図41および図42に示されるように、IR画素の代わりに、W(ホワイト)画素を用いるようにしてもよい。図41は、図5の画素配列のIR画素をG画素に置き換え、G画素をW画素に置き換えたものである。図42は、図40の画素配列のIR画素をW画素に置き換えたものである。
図43は、画素211ごとの感度特性の例を示すグラフである。同図の横軸は、光の波長を示し、縦軸は、その波長の光に対する画素211の感度を示す。また、実線は、W画素の感度特性を示し、細かい点線は、R画素の感度特性を示す。また、一点鎖線は、G画素の感度特性を示し、粗い点線は、B画素の感度特性を示す。
R画素、G画素およびB画素のそれぞれの感度は、赤、緑および青のそれぞれの可視光に対してピークを示す。W画素の感度は、R画素、G画素およびB画素の感度の波形を包含するような波形を示す。R、G、BおよびW画素の赤外光に対する感度は同程度である。
W画素を用いた場合、例えば、W画素の画素信号から可視光成分が除去されることにより、赤外光成分が抽出され、IR画像が生成される。
また、赤外光以外の不可視光(例えば、紫外光)を用いるとともに、その不可視光を検出可能な画素をIR画素の代わりに設け、その不可視光による画像を取得するようにしてもよい。
さらに、例えば、カラー画素として、R画素、G画素、B画素以外の3色以上の画素の組合せを用いるようにしてもよい。
また、例えば、ビューイングモードにおいて、ナイトモードを設けずに、デイモードとCNVモードのみを設けるようにしてもよい。例えば、周囲の明るさを「明るい」、「暗い」の2段階に分け、周囲が明るい場合に、デイモードに設定し、周囲が暗い場合に、CNVモードに設定するようにしてもよい。
さらに、例えば、センシングモード及びCNVモードにおいて、画素別シャッタをオンせずに、フレーム期間毎にIR光の照射の有無を制御するようにしてもよい。この場合、例えば、IR光を照射するフレーム期間とIR光を照射しないフレーム期間とが交互に繰り返される。そして、IR光が照射されているフレーム期間のRAW画像信号(特に、IR画素またはW画素の信号)に基づいて、IR画像信号が生成され、IR光が照射されていないフレーム期間のRAW画像信号(特に、R画素、G画素およびB画素の信号)に基づいて、ベイヤ画像信号およびYC画像信号が生成される。
また、例えば、IRカットフィルタ233がほぼ完全に赤外光成分を除去できる場合、センシングモードおよびCNVモードをナイトモードと同様のモードに設定することが可能である。すなわち、画素別シャッタを用いずに、赤外光を連続して照射しても、カラー画素が赤外光を受光しないため、高画質のカラー画像およびIR画像を取得することができる。
さらに、例えば、撮像素子106にIRカットフィルタ233を設けずに、成分分離部303において、R信号、G信号、B信号の赤外光成分を分離して除去するようにしてもよい。
また、以上の説明では、撮像装置100からYC画像信号を出力する例を示したが、他のフォーマットの画像信号を出力するようにしてもよい。例えば、ベイヤ配列の画像信号や、各画素がR、GおよびBの各信号を含む画像信号を出力するようにしてもよい。
<3.応用例>
{コンピュータの構成例}
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図44は、上述した一連の処理をプログラムにより実行するコンピュータ900のハードウエアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
{内視鏡手術システムへの適用例}
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
図45は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図45では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a〜5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a〜5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
(支持アーム装置)
支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
(内視鏡)
内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
(カートに搭載される各種の装置)
CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
(支持アーム装置)
支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図45では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a〜5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a〜5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
関節部5033a〜5033cにはアクチュエータが設けられており、関節部5033a〜5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a〜5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a〜5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a〜5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
(光源装置)
光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(カメラヘッド及びCCU)
図46を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図46は、図45に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
図46を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
本開示に係る技術は、以上説明した構成のうち、カメラヘッド5005およびCCU5039の少なくとも一方に好適に適用され得る。具体的には、例えば、図1の制御部102および撮像素子106をカメラヘッド制御部5015および撮像部5009に適用し、図1の撮像レンズ104および光学フィルタ105をレンズユニット5007に適用し、図1の画像処理部107を画像処理部5061に適用し、赤外光照射部103をカメラヘッド5005に設けることができる。これにより、例えば、より鮮明な術部画像を得たり、術部画像における物体の検出精度が向上するため、手術をより安全にかつより確実に行うことが可能になる。
{車両制御システムへの適用例}
また、例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図47は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図47に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図47では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図48は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図48には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図47に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図47の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図47に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム7000において、図1を用いて説明した本実施形態に係る撮像装置100は、図47に示した応用例の撮像部7410や運転状態検出部7510に適用することができる。これにより、例えば、暗時や暗所において、車外の物体の検出精度や、車内の運転者の顔および顔の各部の検出精度が向上し、危険回避や自動運転等の運転支援の精度が向上する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、例えば、本技術は以下のような構成も取ることができる。
(1)
不可視光の照射を制御する制御部と、
前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子と、
前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成部と
を備える撮像装置。
(2)
前記第1の画像に基づいて物体までの距離の検出を行い、物体までの距離の検出結果に基づいて、前記第2の画像内の物体の検出を行う物体検出部を
さらに備える前記(1)に記載の撮像装置。
(3)
前記制御部は、所定のパターンを投影する前記不可視光の照射を制御する
前記(2)に記載の撮像装置。
(4)
前記撮像素子は、各前記第2の画素の受光部への入射光に含まれる前記不可視光成分を減衰するフィルタを備える
前記(1)乃至(3)のいずれかに記載の撮像装置。
(5)
前記制御部は、前記不可視光を連続して照射するように制御する
前記(4)に記載の撮像装置。
(6)
前記制御部は、各フレーム期間において前記第1の画素および前記第2の画素の露光期間を設けながら、前記第1の画素のみが露光している期間である単独露光期間を設けるとともに、前記単独露光期間内に前記不可視光を照射するように制御する
前記(1)乃至(5)のいずれかに記載の撮像装置。
(7)
前記制御部は、フレーム期間毎に前記不可視光の照射の有無を制御し、
前記画像生成部は、前記不可視光が照射されたフレーム期間における前記第1の画素信号に基づいて、前記第1の画像を生成し、前記不可視光が照射されていないフレーム期間における前記第2の画素信号に基づいて、前記第2の画像を生成する
前記(1)乃至(5)のいずれかに記載の撮像装置。
(8)
前記第1の画素は、赤外光の検出に用いるIR画素を含み、
前記第2の画素は、所定の色の検出に用いるカラー画素を含み、
前記不可視光は、赤外光である
前記(1)乃至(7)のいずれかに記載の撮像装置。
(9)
前記カラー画素は、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含む
前記(8)に記載の撮像装置。
(10)
前記第1の画素は、ホワイト画素を含み、
前記第2の画素は、所定の色の検出に用いるカラー画素を含み、
前記不可視光は、赤外光である
前記(1)乃至(7)のいずれかに記載の撮像装置。
(11)
前記カラー画素は、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含む
前記(10)に記載の撮像装置。
(12)
前記不可視光を照射する照射部を
さらに備える前記(1)乃至(11)のいずれかに記載の撮像装置。
(13)
前記照射部は、明るさが一様な前記不可視光、または、所定のパターンを投影する前記不可視光を照射する
前記(12)に記載の撮像装置。
(14)
不可視光の照射を制御する制御ステップと、
撮像素子の前記不可視光を検出可能な第1の画素からの第1の画素信号、および、前記撮像素子の可視光を検出可能な第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成ステップと
を含む画像処理方法。
(15)
不可視光を照射する照射装置と、
前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子を備える撮像装置と、
前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像処理装置と
を備える画像処理システム。
100 撮像装置, 101 測光部, 102 制御部, 103 赤外光照射部, 104 撮像レンズ, 105 光学フィルタ, 106 撮像素子, 107 画像処理部, 108 出力部, 121 画像生成部, 122 画像変換部, 123 センシング部, 202 画素アレイ部, 211 画素, 231 マイクロレンズアレイ, 232 カラーフィルタ, 233 IRカットフィルタ, 234 カラーフィルタ, 301 RGBIR補間フィルタ, 302 高周波用G補間フィルタ, 303 成分分離部, 305 比率算出部, 309 ベイヤ画像信号出力部, 310 IR画像信号出力部, 551 物体検出部, 561 距離計測部, 562 認識部

Claims (15)

  1. 不可視光の照射を制御する制御部と、
    前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子と、
    前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成部と
    を備える撮像装置。
  2. 前記第1の画像に基づいて物体までの距離の検出を行い、物体までの距離の検出結果に基づいて、前記第2の画像内の物体の検出を行う物体検出部を
    さらに備える請求項1に記載の撮像装置。
  3. 前記制御部は、所定のパターンを投影する前記不可視光の照射を制御する
    請求項2に記載の撮像装置。
  4. 前記撮像素子は、各前記第2の画素の受光部への入射光に含まれる前記不可視光成分を減衰するフィルタを備える
    請求項1に記載の撮像装置。
  5. 前記制御部は、前記不可視光を連続して照射するように制御する
    請求項4に記載の撮像装置。
  6. 前記制御部は、各フレーム期間において前記第1の画素および前記第2の画素の露光期間を設けながら、前記第1の画素のみが露光している期間である単独露光期間を設けるとともに、前記単独露光期間内に前記不可視光を照射するように制御する
    請求項1に記載の撮像装置。
  7. 前記制御部は、フレーム期間毎に前記不可視光の照射の有無を制御し、
    前記画像生成部は、前記不可視光が照射されたフレーム期間における前記第1の画素信号に基づいて、前記第1の画像を生成し、前記不可視光が照射されていないフレーム期間における前記第2の画素信号に基づいて、前記第2の画像を生成する
    請求項1に記載の撮像装置。
  8. 前記第1の画素は、赤外光の検出に用いるIR画素を含み、
    前記第2の画素は、所定の色の検出に用いるカラー画素を含み、
    前記不可視光は、赤外光である
    請求項1に記載の撮像装置。
  9. 前記カラー画素は、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含む
    請求項8に記載の撮像装置。
  10. 前記第1の画素は、ホワイト画素を含み、
    前記第2の画素は、所定の色の検出に用いるカラー画素を含み、
    前記不可視光は、赤外光である
    請求項1に記載の撮像装置。
  11. 前記カラー画素は、赤色の検出に用いるR画素、緑色の検出に用いるG画素、および、青色の検出に用いるB画素を含む
    請求項10に記載の撮像装置。
  12. 前記不可視光を照射する照射部を
    さらに備える請求項1に記載の撮像装置。
  13. 前記照射部は、明るさが一様な前記不可視光、または、所定のパターンを投影する前記不可視光を照射する
    請求項12に記載の撮像装置。
  14. 不可視光の照射を制御する制御ステップと、
    撮像素子の前記不可視光を検出可能な第1の画素からの第1の画素信号、および、前記撮像素子の可視光を検出可能な第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像生成ステップと
    を含む画像処理方法。
  15. 不可視光を照射する照射装置と、
    前記不可視光を検出可能な第1の画素、および、可視光を検出可能な第2の画素を備える撮像素子を備える撮像装置と、
    前記第1の画素からの第1の画素信号および前記第2の画素からの第2の画素信号に基づいて、前記不可視光成分からなる第1の画像、および、可視光成分からなる第2の画像を生成する画像処理装置と
    を備える画像処理システム。
JP2017008180A 2017-01-20 2017-01-20 撮像装置、画像処理方法および画像処理システム Pending JP2018117309A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017008180A JP2018117309A (ja) 2017-01-20 2017-01-20 撮像装置、画像処理方法および画像処理システム
PCT/JP2018/000083 WO2018135315A1 (ja) 2017-01-20 2018-01-05 撮像装置、画像処理方法および画像処理システム
US16/469,434 US10958847B2 (en) 2017-01-20 2018-01-05 Imaging device, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017008180A JP2018117309A (ja) 2017-01-20 2017-01-20 撮像装置、画像処理方法および画像処理システム

Publications (1)

Publication Number Publication Date
JP2018117309A true JP2018117309A (ja) 2018-07-26

Family

ID=62907985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017008180A Pending JP2018117309A (ja) 2017-01-20 2017-01-20 撮像装置、画像処理方法および画像処理システム

Country Status (3)

Country Link
US (1) US10958847B2 (ja)
JP (1) JP2018117309A (ja)
WO (1) WO2018135315A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045682A1 (ja) * 2018-08-31 2020-03-05 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
KR20200026547A (ko) * 2018-09-03 2020-03-11 현대자동차주식회사 차량 및 그 제어방법
JP2020178247A (ja) * 2019-04-18 2020-10-29 キヤノン株式会社 撮像装置、撮像システム、プログラム、記録媒体、及び制御方法
CN112243117A (zh) * 2019-07-17 2021-01-19 杭州海康威视数字技术股份有限公司 图像处理装置、方法及摄像机
JP2022020511A (ja) * 2020-07-20 2022-02-01 トヨタ自動車株式会社 車両の周辺検知装置
WO2024004321A1 (ja) * 2022-06-28 2024-01-04 キヤノン株式会社 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7020471B2 (ja) * 2017-02-24 2022-02-16 ソニーグループ株式会社 画像処理装置及び撮像装置
CN110868506A (zh) * 2018-08-10 2020-03-06 南昌欧菲生物识别技术有限公司 图像处理方法和电子装置
KR102521834B1 (ko) * 2018-08-21 2023-04-17 삼성전자주식회사 차량으로 영상을 제공하는 방법 및 이를 위한 전자 장치
DE102018127287B4 (de) * 2018-10-31 2023-01-12 Schölly Fiberoptic GmbH Bildaufnahmeverfahren und Bildaufnahmevorrichtung
US20200191919A1 (en) * 2018-12-12 2020-06-18 Stmicroelectronics (Research & Development) Limited Time-of-flight optical systems including a fresnel surface
JP2020108061A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 撮像装置及び撮像システム
TWI705269B (zh) * 2019-03-27 2020-09-21 群光電子股份有限公司 影像擷取裝置、濾光膜及濾光膜的製作方法
EP3820144B1 (en) * 2019-11-07 2021-12-29 Axis AB Method for displaying a video stream of a scene
US11930308B2 (en) 2019-11-19 2024-03-12 Sony Group Corporation Image processing device and image processing method that reduce variation in output value among imaging devices
JP2021124323A (ja) * 2020-02-03 2021-08-30 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距方法
CN111784743B (zh) * 2020-07-03 2022-03-29 电子科技大学 一种红外弱小目标检测方法
DE102021202427A1 (de) 2021-03-12 2022-09-15 Continental Automotive Gmbh Detektorvorrichtung und Sensoreinheit
JP2022188888A (ja) * 2021-06-10 2022-12-22 株式会社ソシオネクスト 画像処理装置および画像処理方法
CN116962886A (zh) * 2022-04-07 2023-10-27 安霸国际有限合伙企业 用于rgb-ir传感器的智能自动曝光控制

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6741279B1 (en) * 1998-07-21 2004-05-25 Hewlett-Packard Development Company, L.P. System and method for capturing document orientation information with a digital camera
KR101475464B1 (ko) * 2008-05-09 2014-12-22 삼성전자 주식회사 적층형 이미지 센서
JP5485004B2 (ja) * 2010-04-23 2014-05-07 パナソニック株式会社 撮像装置
EP2710536A4 (en) * 2011-05-11 2015-07-22 Proiam Llc REGISTRATION APPARATUS, SYSTEM AND METHOD WITH THREE-DIMENSIONAL CAMERA
JP2014207493A (ja) 2011-08-24 2014-10-30 パナソニック株式会社 撮像装置
JP6582987B2 (ja) 2013-10-23 2019-10-02 日本電気株式会社 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ
JP2017005401A (ja) 2015-06-08 2017-01-05 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに撮像装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020045598A1 (ja) * 2018-08-31 2021-09-24 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
US11741700B2 (en) 2018-08-31 2023-08-29 Sony Corporation Imaging apparatus, imaging system, imaging method, and imaging program
WO2020045682A1 (ja) * 2018-08-31 2020-03-05 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
JP2020039125A (ja) * 2018-08-31 2020-03-12 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
JP2020043615A (ja) * 2018-08-31 2020-03-19 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
US11889177B2 (en) 2018-08-31 2024-01-30 Sony Semiconductor Solutions Corporation Electronic device and solid-state imaging device
JP7386792B2 (ja) 2018-08-31 2023-11-27 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
EP3846442A4 (en) * 2018-08-31 2021-09-15 Sony Semiconductor Solutions Corporation ELECTRONIC APPARATUS AND IMAGE CAPTURING SOLID STATE DEVICE
JP7380180B2 (ja) 2018-08-31 2023-11-15 ソニーグループ株式会社 固体撮像素子、撮像装置、撮像方法および撮像プログラム
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
KR102632092B1 (ko) 2018-09-03 2024-02-02 현대자동차주식회사 차량 및 그 제어방법
KR20200026547A (ko) * 2018-09-03 2020-03-11 현대자동차주식회사 차량 및 그 제어방법
JP7277236B2 (ja) 2019-04-18 2023-05-18 キヤノン株式会社 撮像装置、撮像システム、プログラム、記録媒体、及び制御方法
JP2020178247A (ja) * 2019-04-18 2020-10-29 キヤノン株式会社 撮像装置、撮像システム、プログラム、記録媒体、及び制御方法
CN112243117B (zh) * 2019-07-17 2022-09-16 杭州海康威视数字技术股份有限公司 图像处理装置、方法及摄像机
CN112243117A (zh) * 2019-07-17 2021-01-19 杭州海康威视数字技术股份有限公司 图像处理装置、方法及摄像机
JP7298562B2 (ja) 2020-07-20 2023-06-27 トヨタ自動車株式会社 車両の周辺検知装置
JP2022020511A (ja) * 2020-07-20 2022-02-01 トヨタ自動車株式会社 車両の周辺検知装置
WO2024004321A1 (ja) * 2022-06-28 2024-01-04 キヤノン株式会社 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
US10958847B2 (en) 2021-03-23
WO2018135315A1 (ja) 2018-07-26
US20200112662A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
WO2018135315A1 (ja) 撮像装置、画像処理方法および画像処理システム
US11372200B2 (en) Imaging device
JP7147562B2 (ja) 測光装置、測光方法、プログラムおよび撮像装置
US20210217134A1 (en) Image processing device, image processing method, and image processing program
US10873712B2 (en) Signal processing device, imaging device, and signal processing method
WO2018020857A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2018003305A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
JP7229988B2 (ja) 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
US11119633B2 (en) Information processing device and method
JP7306269B2 (ja) 制御装置と制御方法およびプログラム
WO2018037680A1 (ja) 撮像装置、撮像システム、及び、信号処理方法
WO2018100992A1 (ja) 撮像光学系、カメラモジュール、及び、電子機器
US11482159B2 (en) Display control device, display control method, and display control program
EP3761636B1 (en) Signal processing device, signal processing method, and imaging device
WO2022196210A1 (ja) 撮像装置、撮像方法及び電子機器
WO2020202648A1 (ja) 撮像装置、撮像信号処理装置、撮像信号処理方法
WO2019082686A1 (ja) 撮像装置
JPWO2020174876A1 (ja) レンズ鏡筒及び撮像装置