JP7183616B2 - 撮像装置、信号処理装置、信号処理方法およびプログラム - Google Patents

撮像装置、信号処理装置、信号処理方法およびプログラム Download PDF

Info

Publication number
JP7183616B2
JP7183616B2 JP2018146164A JP2018146164A JP7183616B2 JP 7183616 B2 JP7183616 B2 JP 7183616B2 JP 2018146164 A JP2018146164 A JP 2018146164A JP 2018146164 A JP2018146164 A JP 2018146164A JP 7183616 B2 JP7183616 B2 JP 7183616B2
Authority
JP
Japan
Prior art keywords
light
unit
signal
wavelength
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146164A
Other languages
English (en)
Other versions
JP2020022121A (ja
Inventor
昌利 高嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2018146164A priority Critical patent/JP7183616B2/ja
Priority to PCT/JP2019/028765 priority patent/WO2020026882A1/en
Priority to US17/263,368 priority patent/US11953376B2/en
Publication of JP2020022121A publication Critical patent/JP2020022121A/ja
Application granted granted Critical
Publication of JP7183616B2 publication Critical patent/JP7183616B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0262Constructional arrangements for removing stray light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/03Circuitry for demodulating colour component signals modulated spatially by colour striped filters by frequency separation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1213Filters in general, e.g. dichroic, band
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1282Spectrum tailoring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • G01J2003/284Spectral construction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本開示は、撮像装置、信号処理装置、信号処理方法およびプログラムに関する。
近年、RGBの3バンドより多くのマルチバンドの画像を取得可能な装置またはシステムが開発されている。例えば、特許文献1には、従来のRGB3バンドカメラと比べ、ほぼ遜色ない解像度および感度でマルチバンドの画像を取得することができるマルチスペクトルカメラが開示されている。
特開2008-136251号公報
しかし、特許文献1をはじめとするマルチスペクトルカメラを用いて所望の波長帯域の画像を抽出する際に(以降、所望の波長帯域の画像を抽出可能であるという特長を「チューナブルである」と呼称する)、波長再現性およびSN比を高く維持することができない場合があった。より具体的には、可視光帯域から可視光帯域以外の帯域(例えば、近赤外(NIR:Near InfraRed)帯域)に至る広い波長帯域を1つのマルチスペクトルフィルタでカバーしようとすると、抽出対象である波長の再現性が著しく劣化してしまう。また、抽出対象である波長以外の信号成分が大きいことなどによって、抽出対象である波長の信号成分が小さくなる場合がある。
そこで、本開示は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、波長再現性およびSN比を高く維持しつつ、チューナブルに波長を抽出することができる、新規かつ改良された撮像装置、信号処理装置、信号処理方法およびプログラムを提供することにある。
本開示によれば、入射光を可視光の波長以下波長帯域の第1の光と、前記可視光の波長より長い波長の波長帯域の第2の光とに分離する分離部と、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有して前記第1の光を検出し、後処理でチューナブルに波長抽出が可能な信号を出力する第1の検出部と、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有して前記第2の光を検出し、後処理でチューナブルに波長抽出が可能な信号を出力する第2の検出部と、を備える、撮像装置が提供される。
また、本開示によれば、分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得する取得部と、前記信号を用いて所望の波長帯域の信号を抽出する信号処理部と、を備える、信号処理装置が提供される。
また、本開示によれば、分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得することと、前記信号を用いて所望の波長帯域の信号を抽出することと、を有する、コンピュータにより実行される信号処理方法が提供される。
また、本開示によれば、分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得することと、前記信号を用いて所望の波長帯域の信号を抽出することと、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、波長再現性およびSN比を高く維持しつつ、チューナブルに波長を抽出することを可能にする。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
従来のRGBカメラとマルチスペクトルカメラとの違いを示す図である。 撮像装置100が備えるチューナブルフィルタ113を示す図である。 撮像装置100による入射光の分離と、分離された光の検出の態様を示す図である。 ダイクロイックフィルタの分光特性を示す図である。 撮像装置100による入射光の分離と、分離された光の検出の態様を示す図である。 第1の実施例に係るUAV20の構成例を示す図である。 第1の実施例に係る撮像装置100の構成例を示すブロック図である。 本開示の効果について説明するための図である。 第1の実施例に係る撮像装置100の構成例を示すブロック図である。 第1の実施例に係る撮像装置100の構成例を示すブロック図である。 信号処理例を示すフローチャートである。 第2の実施例に係るUAV20の構成例を示す図である。 第2の実施例に係る撮像装置100aおよび撮像装置100bの構成例を示すブロック図である。 第2の実施例に係る撮像装置100aによって取得された太陽光の分光特性の具体例を示す図である。 第2の実施例に係る撮像装置100aによって取得された太陽光の分光特性の具体例を示す図である。 第2の実施例に係る撮像装置100aによって取得された太陽光の分光特性の具体例を示す図である。 本開示に係る技術が医療用撮像装置へ応用された場合の一例について説明する図である。 医療用撮像装置の処理の流れの一例を示すフローチャートである。 手術室システムの全体構成を概略的に示す図である。 集中操作パネルにおける操作画面の表示例を示す図である。 手術室システムが適用された手術の様子の一例を示す図である。 図21に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
2.第1の実施例
2.1.概要
2.2.構成例
2.3.信号処理の流れの例
3.第2の実施例
4.応用例
4.1.医療用撮像装置への応用例
4.2.手術室システムへの応用例
4.3.車両制御システムへの応用例
<1.背景>
近年、RGBの3バンドより多くのマルチバンドの画像を取得可能な装置またはシステムが開発されている。例えば、上記の特許文献1には、従来のRGB3バンドカメラと比べ、ほぼ遜色ない解像度および感度でマルチバンドの画像を取得することができるマルチスペクトルカメラが開示されている。
ここで、図1を参照して、従来のRGBカメラと、マルチスペクトルカメラとの違いについて説明する。図1のaは、従来のRGBカメラの構成の概要を示しており、当該RGBカメラについては、レンズ、カラーフィルタ(例えば、べイヤ配列のカラーフィルタ)およびイメージセンサの順に光が入射し、その後の信号処理(または、現像処理)によってRGB画像が取得される。
図1のbは、マルチスペクトルカメラの構成の概要を示しており、当該マルチスペクトルカメラについては、RGBカメラにおけるカラーフィルタの代りにマルチスペクトルフィルタが備えられることで、入射光がRGBよりも多くの波長帯域に分離され、その後の信号処理によってマルチスペクトル画像が取得される。
マルチスペクトル画像を取得する方法は、大きく分けて2種類存在する。一つ目の方法としては、マルチスペクトルフィルタがそれぞれ狭帯域の光を透過する分光特性を有する場合において、入射光が各マルチスペクトルフィルタを透過することで生成された画素データを集めることでマルチスペクトル画像を取得する方法が挙げられる。例えば、イメージセンサの上部に画素毎に高さの異なる共振パスが構成されることで、それぞれ狭帯域(半値幅約10~20[nm])の分光特性を有するマルチスペクトルフィルタが構成されたイメージセンサが既に開発されている。例えば、4×4画素単位で16種類の狭帯域のマルチスペクトルフィルタが構成された2048×1088画素のイメージセンサが開発されており、当該イメージセンサから取得されたRawデータに対してデモザイク処理(各画素の収集、空間内フィルタ処理など)が施されることでマルチスペクトル画像が取得される。なお、本書にて使用される半値幅とは、約50[%]のフィルタ透過率を有する波長間の幅であることを想定している(これに限定されない)。
もう一つの方法としては、マルチスペクトルフィルタが広帯域の光を透過する分光特性を有する場合において、それぞれのマルチスペクトルフィルタを透過した後の画素に対して逆マトリクス演算を行うことで、所望の波長帯域の画像を取得する方法である。例えば、イメージセンサに、32×32(1024)種類の異なるフィルタを形成し、イメージセンサから取得されたRawデータに対してデモザイク処理を施した上で逆マトリクス演算を行うことで、超狭帯域(半値幅が数[nm])の画像を取得する技術が開発されている。当該技術においては、入射光によって誘導されるプラズモン共鳴を利用するマルチスペクトルフィルタが用いられ得る。
ここで、上記のとおり、特許文献1をはじめとする従来のマルチスペクトルカメラを用いてチューナブルな波長を抽出する際に、波長再現性およびSN比を高く維持することができない場合があった。より具体的には、可視光帯域から可視光帯域以外の帯域(例えば、近赤外帯域)に至る広い波長帯域を1つのマルチスペクトルフィルタでカバーしようとすると、抽出対象である波長の再現性が著しく劣化してしまう。また、抽出対象である波長以外の信号成分が大きいことなどによって、抽出対象である波長の信号成分が小さくなる場合がある。
例えば、植生(植物)が被写体であり、植生が太陽光を反射するときの分光特性に基づいて植生指数が算出される場合について考える。植生の反射率は、可視光帯域と近赤外帯域で大きく異なる。これに起因して、植生によって反射された反射光が1つのマルチスペクトルフィルタによってカバーされた場合、全体の信号成分における近赤外帯域の信号成分の割合が大きくなるため、可視光帯域の信号成分の波長再現性およびSN比が大きく損なわれることがある。
そこで、本件の開示者は、上記事情に鑑みて、本開示の技術を創作するに至った。本開示に係る撮像装置100は、入射光を2種類以上の波長帯域の光に分離する分離部と、2種類以上の波長帯域の光をそれぞれ検出し、後処理でチューナブルに波長抽出が可能な信号を出力する2以上の検出部と、を備える。これによって例えば、撮像装置100は、入射光を可視光帯域の光と近赤外帯域の光に分離し、それぞれを2つのマルチスペクトルフィルタでカバーすることによって、波長再現性およびSN比を高く維持しつつ、チューナブルに波長を抽出することを可能にする。以降では、本開示について詳細に説明していく。
<2.第1の実施例>
(2.1.概要)
まず、本開示に係る第1の実施例の概要について説明する。以降では、植生(植物)が被写体であり、植生が太陽光を反射するときの分光特性が出力され、さらに当該分光特性に基づいて植生指数が出力される場合を一例として説明する。なお、これはあくまで一例であり、本開示が適用される対象は特に限定されない。
本実施例に係る撮像装置100は、イメージセンサ114の前段に、チューナブルに波長抽出が可能な波長帯域の光を透過するフィルタ(以降、便宜的に「チューナブルフィルタ113」と呼称する場合がある)を備える。チューナブルフィルタ113は、広帯域の光を透過する分光特性を有しており、後段のイメージセンサ114と組み合わされた場合にセンシング感度が高くなる傾向がある。
ここで、図2を参照して、撮像装置100が備えるチューナブルフィルタ113について説明する。図2はチューナブルフィルタ113の例を示す図である。図2のaに示すように、撮像装置100には、M×N(本図では、4×4)のアレイ状に配置された画素10単位で分光特性の異なるフィルタが周期的に配置されている。
そして、図2のbに示すように、当該M×Nの画素10がX×Yのアレイ状に配置されることで、1つのチューナブルフィルタ113が構成されている。したがって、撮像装置100は、横M×X画素、縦N×Y画素を撮像可能である。なお、撮像装置100が備えるチューナブルフィルタ113は、図2の例に限定されない。例えば、図2のaにおいて、チューナブルフィルタ113を構成するフィルタの種類の数は特に限定されない。また、フィルタの周期的な配置は適宜変更されてもよいし、フィルタは周期的に配置されていなくてもよい。
撮像装置100は、分離部によって入射光を2種類以上の波長帯域の光に分離し、分離数に応じた数のチューナブルフィルタ113(およびイメージセンサ114)を備えている。例えば図3に示すように、撮像装置100は、入射光を取り込むレンズと、入射光を2種類の波長帯域の光に分離する分離部として機能するダイクロイックフィルタとを含む撮像光学系111を備えている。図4は、ダイクロイックフィルタの分光特性の例を示している。図4に示すように、ダイクロイックフィルタは、約750[nm]以下の波長の光を透過することなく反射し、約750[nm]より長い波長の光をほぼ100[%]透過することによって、入射光を2種類の波長帯域の光に分離する。換言すると、ダイクロイックフィルタは、入射光を可視光の波長以下(約750[nm]以下)の光と、可視光の波長より長い波長の光に分離する機能を有する。なお、入射光を可視光と、より長波長側の光に大まかに分離することができれば、その分離点となる波長は750[nm]に限定されない。
そして、ダイクロイックフィルタによって分離された光は、互いに略同一の分光特性を有するチューナブルフィルタ113によって透過されてイメージセンサ114によって検出される。これによって、例えば、可視光帯域と近赤外帯域で反射率が大きく異なる植生の分光特性を求めるにあたり、撮像装置100は、可視光帯域の信号成分が近赤外帯域の信号成分に埋もれることを防ぐことでSN比を高く維持し、かつ波長再現性も高く維持することができる。
また、撮像装置100は、互いに異なる分光特性を有するチューナブルフィルタ113を備えていてもよい(なお、ダイクロイックフィルタの透過特性は図4に示すものと同様であるとする)。例えば、図5に示すように、撮像装置100は、ダイクロイックフィルタによって反射された光(約750[nm]以下の波長の光)が入射するチューナブルフィルタ113aに約750[nm]以下の波長帯域に対してより強い分光感度を有するものを用い、ダイクロイックフィルタによって透過された光(約750[nm]より長い波長の光)が入射するチューナブルフィルタ113bに約750[nm]より長い波長帯域に対してより強い分光感度を有するものを用いてもよい。換言すると、2以上の検出部(チューナブルフィルタ113およびイメージセンサ114)のそれぞれの分光特性は、検出対象となる光の波長帯域に応じて決められてもよい。これによって、撮像装置100は、図3に示した構成よりもSN比および波長再現性を向上させることができる。
ここで、図3および図5に示したように、撮像装置100は、分離部として機能するダイクロイックフィルタを用いて入射光の光路を2以上に分離する。より具体的には、撮像装置100は、入射光の光軸に対して所定の角度(例えば45度程度)を有するように分離面が配置されたダイクロイックフィルタを備えることによって、入射光の光路を2以上に分離する。ここで「入射光の光軸」とは、入射光の光束を代表する光線であり、例えば光束の中心を通る光線である。また、「分離面」とは、入射光を2種類以上の波長帯域の光に分離する面であり、これにより入射光は、分離面で反射する光と分離面を透過する光とに分離される。そして、図3および図5に示したように、撮像装置100は、ダイクロイックフィルタの後段に分離数(分離後の光路数)に応じた数のチューナブルフィルタ113(およびイメージセンサ114)を配置している。
なお、撮像装置100が備える撮像光学系111やチューナブルフィルタ113などの態様は図3および図5で説明したものに限定されない。例えば、入射光は3以上の光に分離されてもよい。また、分離部には、ダイクロイックフィルタ以外の任意の光学系が用いられてもよい。また、ダイクロイックフィルタやチューナブルフィルタ113の分光特性も特に限定されない。
別の観点から本実施例の概要について説明すると、本実施例に係る撮像装置100は、ドローンなどを含むUAV(無人航空機:Unmanned Aerial Vehicle)20に搭載されて、上空から地上を撮像する。そして、撮像装置100によって撮像された画像データは、地上における植生の分光特性や植生状態を示す所定の植生指数の算出に用いられる。
このとき、植物の種類および成長段階に応じて、解析すべき植生指数の種類が異なる。例えば、濃い緑色の植物については、成長段階では、その変化を的確にとらえるために、NDVI(正規化植生指標:Normalized Difference Vegetation Index)という植生指数の解析が有効である。NDVIの算出には、赤色光の波長帯域の画像データおよび近赤外帯域の画像データが取得される必要がある。また、植物がある程度成長した後においては、その変化を的確にとらえるためには、GNDVI(Green Normalized Difference Vegetation Index)という植生指数の解析が有効である。GNDVIの算出には、緑色光の波長帯域の画像データおよび近赤外帯域の画像データが取得される必要がある。さらに、稲、麦などについては、収穫期においてそれらの変化を的確にとらえるために、再度NDVIの解析が有効となる。
このように、植物の種類および成長段階に応じて、解析すべき植生指数の種類が異なるため、撮像後にデータ解析を行う際に、チューナブルに波長抽出が可能な本実施例に係る撮像装置100が有効である。上記の植生指数の解析に用いられる信号の半値幅は、約50~100[nm]と比較的大きいため、撮像装置100は、数~数十種類程度のフィルタを用いて処理を行うことができるため、解像度を維持しつつ、チューナブルに波長を抽出することができる。
なお、本実施例は上記に限定されない。例えば、撮像装置100は、UAV20に搭載されていなくてもよい。また、撮像装置100による撮像処理の対象は植生に限定されない。例えば、撮像装置100は、人工衛星、トラクターなどの車両に搭載されてもよい。また、撮像装置100による撮像処理の対象は、インフラ点検の対象となるビルや橋梁などの構造物であってもよいし、FA(Factory Automation)における検品対象などであってもよい。また、分離部は、入射光を、可視光と近赤外光だけでなく短波赤外(SWIR)、中波赤外(MWIR)、長波赤外(LWIR)などの波長の光に分離してもよい。このとき、分離される光に応じて分離部または検出部の構成は適宜変更され得る。
(2.2.構成例)
上記では、本開示に係る第1の実施例の概要について説明した。続いて、本実施例に係る装置の構成例について説明する。
まず、図6を参照して、本実施例に用いられるUAV20の構成例について説明する。図6のaはUAV20を上方向から見たとき図であり、図6のbはUAV20を横方向から見たときの図である。図6のaおよびbに示すように、UAV20は、下部に地上を撮像可能な態様で撮像装置100を備え、上部に太陽(光源)からの出射光が照射される態様で分光器200を備えている。なお、UAV20の形状や、撮像装置100および分光器200の設置態様は図6のaおよびbの例に限定されない。
続いて、図7を参照して撮像装置100の構成例について説明する。図7に示すように、撮像装置100は、撮像処理部110と、信号処理部120と、記憶部130と、制御部140と、を備える。
撮像処理部110は、撮像処理全般を行う構成であり、図7に示すように、撮像光学系111と、露光処理部112と、チューナブルフィルタ113と、イメージセンサ114と、を備える。
撮像光学系111は、撮像時に使用される光学素子を備える構成である。図3および図5を参照して説明したように、撮像光学系111は、例えば入射光を取り込むレンズと、入射光を2種類の波長帯域の光に分離する分離部として機能するダイクロイックフィルタなどを備えるが、撮像光学系111の構成はこれに限定されない。入射光は、撮像光学系111を介して後段の露光処理部112へ導光される。
露光処理部112は、露光に関する処理を行う構成である。より具体的には、露光処理部112は、制御部140からの制御信号に基づいてシャッタや絞り(IRIS)の開放及び閉鎖を制御することにより露光を開始及び停止する。なお、露光処理部112が備える露光処理のための機構は特に限定されない。
チューナブルフィルタ113は、図2を参照して説明したように、分光特性の異なる複数のフィルタがアレイ状に周期的に配置されたものであり、各フィルタは広帯域の光を透過する分光特性を有している。
イメージセンサ114は、例えばCCD(Charge-Coupled Device)センサまたはCMOS(Complementary
MOS)センサなどの撮像素子であり、受光面を構成する画素ごとに受光した光量に応じた強度の信号を出力することにより、当該受光面への入射光に応じた画像データを取得する構成である。前段のチューナブルフィルタ113および当該イメージセンサ114によって、チューナブルに波長抽出が可能な信号を出力する検出部が具現される。本実施例においては、チューナブルフィルタ113およびイメージセンサ114によって具現される検出部は、基本的に入射光の分離数に応じた数だけ備えられる。なお、イメージセンサ114の種類は特に限定されない。また、イメージセンサ114は、画像データだけでなく、像として視覚化されていない測定値など(例えば、輝度の測定値など)を出力してもよい。
信号処理部120は、分離後の光を検出した2以上の検出部(チューナブルフィルタ113およびイメージセンサ114)によって出力された信号を取得する取得部としても機能し、当該信号を用いて各種信号処理を行う構成である。例えば、信号処理部120は、イメージセンサ114によって出力された画像データに対してデモザイク処理、逆マトリクス演算処理等を行うことでマルチスペクトル画像を生成することもできる。ここで、デモザイク処理とは、単に各画素の画像データを収集することを指してもよいし、欠陥画素となっている画素を、周囲の画素を利用して補間することを指してもよい。信号処理部120は、後者のデモザイク処理を行うことで、マルチスペクトル画像をより滑らかにすることができる。また、信号処理部120は、前者のデモザイク処理(単に各画素の画像データを収集すること)を行うことで、信号処理の負荷を低減させることができる。なお、デモザイク処理は必須ではなく、取得された画像データに応じて適宜省略され得る。そして、信号処理部120は、マルチスペクトル画像を用いて所望の波長帯域の画像データを抽出することができる。
また、信号処理部120は、被写体である植生の分光特性を出力することができる。より具体的に説明すると、太陽光は分光器200に直接入射するため、太陽光の分光特性をL(λ)(出射光の分光特性に関する値)、分光器200の分光特性をS(λ)とすると、分光器200の出力S_OUT(λ)は、以下の式1によって表される。
Figure 0007183616000001
そして、信号処理部120は、式1を変形して得られる以下の式2を用いて、太陽光の分光特性L(λ)を算出する。
Figure 0007183616000002
また、太陽光が植物に射して撮像装置100に届くため反、植物の反射率の分光特性をP(λ)(反射光の分光特性に関する値)、撮像装置100の分光特性(チューナブルフィルタ113およびイメージセンサ114の分光特性)をC(λ)とすると、撮像装置100の出力C_OUT(λ)は、以下の式3によって表される。
Figure 0007183616000003
信号処理部120は、式3を変形して得られる以下の式4を用いて、植物の反射率の分光特性P(λ)を算出する。その際、信号処理部120は、上記の式2を用いて算出した太陽光の分光特性L(λ)を式4に代入する。
Figure 0007183616000004
すなわち信号処理部120は、上記の式1~式4に基づいて、以下の式5を用いて植物の反射率の分光特性P(λ)を算出すると言える。
Figure 0007183616000005
信号処理部120は、分離後の光が入射する2以上の検出部(チューナブルフィルタ113およびイメージセンサ114)それぞれについて植物の反射率の分光特性P(λ)を算出する。例えば、信号処理部120は、可視光の波長以下(約750[nm]以下)の光と、可視光の波長より長い波長の光それぞれについてP(λ)を算出する。
このように、分離部によって入射光が2種類以上の波長帯域の光に分離され、分離数に応じた数の検出部(チューナブルフィルタ113およびイメージセンサ114)によって光が検出されることによって、信号処理部120は、植物の反射率の分光特性P(λ)についての半値幅をより小さくすることができ、分解能を向上させることができる。
図8には、一例として、分解能がそれぞれ5[nm]、50[nm]、100[nm]である場合における、アジサイの反射率の分光特性P(λ)を示している。図8に示すように、約700[nm]付近でP(λ)の急峻な変化が発生しているところ、本開示によって、信号処理部120は分解能をより向上させることができ(例えば、分解能を5[nm]に近づけることができ)、約700[nm]付近でのP(λ)の急峻な変化を再現することができる。
そして、信号処理部120は、上記処理によって算出した植物の反射率の分光特性P(λ)を用いて各種植生指数を算出する。なお、信号処理部120が算出する植生指数の種類は特に限定されない。例えば、信号処理部120は、NDVI(Normalized Difference
Vegetation Index)、GNDVI(Green
Normalized Difference Vegetation Index)、PRI(Photochemical Reflectance Index)またはSIF(Sun-Induced
Fluorescence)などの植生指数を算出することができる。
記憶部130は、各種情報を記憶する構成である。例えば、記憶部130は、信号処理部120によって出力されたマルチスペクトル画像、植物の反射率の分光特性P(λ)、または各種植生指数などを記憶することができる。なお、記憶部130が記憶する情報はこれらに限定されない。例えば、記憶部130は、撮像装置100の各構成によって使用されるプログラムやパラメータなどを記憶することもできる。
制御部140は、撮像装置100が行う処理全般を統括的に制御する構成である。例えば、制御部140は、撮像処理部110による撮像処理や、信号処理部120による信号処理などの起動や停止を制御することができる。その際、制御部140は、チューナブルフィルタ113およびイメージセンサ114の分光感度などに応じて露光処理部112による露光の制御なども適宜行う。また、制御部140は、分光器200が光源からの出射光(例えば、太陽光)を分光することで得られる分光データを取得し、信号処理部120に提供することで上記にて説明した信号処理を実現することができる。なお、制御部140の制御内容はこれらに限定されない。
分光器200は、光源からの出射光(例えば、太陽光)を分光することで分光データを生成する構成である。より具体的には、分光器200は、グレーティング(回折素子)やプリズム(屈折素子)などの各種光学素子を備えており、これらの素子を用いて光源からの出射光を分光し、分光後の光の強度を示す分光データを生成する。分光器200に備えられる光学素子や、分光の方法は特に限定されない。
以上、撮像装置100(および分光器200)の構成例について説明した。なお、図7を参照して説明した上記の構成はあくまで一例であり、撮像装置100の構成は係る例に限定されない。例えば、図7に示した例では、撮像処理から信号処理に至るまでの処理が撮像装置100内で完結していたが、これらの処理の一部または全部が外部装置によって実現されてもよい。
例えば、信号処理部120の一部または全部の機能が、外部装置によって実現されてもよい。より具体的には、図9に示すように、信号処理部120の機能が、撮像装置100と通信可能な情報処理装置300a(例えば、PC(Personal Computer)など)によって実現されてもよい。この場合、信号処理部120は上記で説明した処理の一部または全部を行うことなく記憶部130にデータを記憶させる。そして、撮像装置100が、情報処理装置300aと通信を行う通信部150をさらに備えることで、当該通信部150は、記憶部130に記憶されているデータを情報処理装置300aに送信する。なお、通信部150と情報処理装置300aとの通信に用いられる通信方式または回線の種類などは特に限定されない。また、通信帯域の確保のため、通信部150は、所定の可逆圧縮方式によって圧縮した後のデータを情報処理装置300aへ送信してもよい。
そして、情報処理装置300aは、撮像装置100から受信したデータを用いて上記の信号処理を行うことで、植物の反射率の分光特性P(λ)を算出したり、植生指数を算出したりする。撮像装置100の処理性能は、小型化の要請などによって情報処理装置300aに比べて低い場合があるため、より処理負荷の高い信号処理が情報処理装置300aによって実現されることで、処理全体の速度または効率が向上し得る。なお、撮像装置100および情報処理装置300aの処理内容は上記に限定されない。また、撮像装置100と情報処理装置300aそれぞれが分担する処理の内容は特に限定されない。
また、図10に示すように、撮像装置100の通信部150が、情報処理装置300aではなく、クラウドネットワーク上に設置されたクラウドサーバ300bと通信することで、当該クラウドサーバ300bによって信号処理部120の一部または全部の機能が実現されてもよい。これによって、処理全体の速度または効率がさらに向上し得る。なお、クラウドサーバ300bは、撮像装置100と通信をするのではなく、撮像装置100と通信をする他の情報処理装置を介して画像データなどを取得してもよい。ここで、信号処理部120の一部または全部の機能を実現する構成を備えている装置(例えば、上記の撮像装置100、情報処理装置300a、およびクラウドサーバ300b)は、「信号処理装置」として機能すると言える点に留意されたい。
(2.3.信号処理の流れの例)
上記では、本実施例に係る装置の構成例について説明した。続いて、図11を参照して、本実施例に係る信号処理の流れの一例について説明する。上記のとおり、外部装置である情報処理装置300aまたはクラウドサーバ300bは撮像装置100の信号処理部120の機能を実現することができるが、以下では、一例として、撮像装置100の信号処理部120が全ての信号処理を実現する場合について説明する。
ステップS1000では、撮像装置100の信号処理部120が、分光器200によって生成された分光データを制御部140から取得し、イメージセンサ114から画像データを取得する。ステップS1004では、信号処理部120が分光データ処理を実施する。より具体的には、信号処理部120は、上記の式2を行うことで太陽光の分光特性L(λ)を算出する。
ステップS1008では、信号処理部120が画像データ処理を実施する。より具体的には、信号処理部120は、上記の式4を行うことで植物の反射率の分光特性P(λ)を算出する。その際、信号処理部120は、ステップS1004で算出した太陽光の分光特性L(λ)を式4に代入する。
ステップS1012では、信号処理部120が植物の反射率の分光特性P(λ)を用いて各種植生指数を算出することで一連の信号処理が終了する。例えば、信号処理部120は、P(λ)を用いてNDVIやGNDVIなどを算出する。
なお、図11に示したフローチャートにおける各ステップは、必ずしも記載された順序に沿って時系列に処理する必要はない。すなわち、フローチャートにおける各ステップは、記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
<3.第2の実施例>
上記では、本開示に係る第1の実施例について説明した。続いて、本開示に係る第2の実施例について説明する。
本開示に係る第1の実施例では、植物の反射率の分光特性P(λ)の算出に用いられる太陽光の分光特性L(λ)は分光器200によって取得されていた。本開示に係る第2の実施例では、撮像装置100が分光器200として使用される。より具体的には、図12のaおよびbに示すように、UAV20は、上部に太陽光が照射される態様で、分光器200として使用される撮像装置100aを備えている。なお、UAV20は、下部には第1の実施例と同様に、地上を撮像可能な態様で撮像装置100bを備えている。なお、本実施例に係るUAV20の形状や、撮像装置100aおよび撮像装置100bの設置態様は図12のaおよびbの例に限定されない。
続いて、図13を参照して本実施例に係る撮像装置100aおよび撮像装置100bの構成例について説明する。図13に示すように、分光器200として使用される撮像装置100aは、撮像処理部110aと、信号処理部120aと、記憶部130aと、制御部140aと、を備える。そして、撮像処理部110aは、撮像光学系111aと、露光処理部112aと、チューナブルフィルタ113aと、イメージセンサ114aと、を備える。
撮像光学系111aは、第1の実施例に係る撮像光学系111のレンズの代わりに拡散板を備えており、その後段に分離部として機能するダイクロイックフィルタを備えている。なお、入射光を拡散可能な光学素子であれば拡散板以外の素子が用いられてもよい。露光処理部112a、チューナブルフィルタ113a、およびイメージセンサ114aについては第1の実施例に係る撮像装置100の構成と同様であるため説明を省略する。
信号処理部120aは、2以上の検出部(チューナブルフィルタ113およびイメージセンサ114)それぞれからの出力を用いて太陽光の分光特性L(λ)を算出することができる。例えば、信号処理部120aは、可視光の波長以下(約750[nm]以下)の光と、可視光の波長より長い波長の光それぞれについてL(λ)を算出する。なお、L(λ)の算出処理は、撮像装置100bの信号処理部120bによって行われてもよい。
記憶部130aは、信号処理部120aによって出力された、太陽光の分光特性L(λ)などを記憶する。制御部140aは、信号処理部120aによって出力された、太陽光の分光特性L(λ)などを撮像装置100bへ提供する。
以上、撮像装置100aの構成例について説明した。なお、図13を参照して説明した上記の構成はあくまで一例であり、撮像装置100aの構成は係る例に限定されない。一方、撮像装置100bの構成は、図7を参照して説明した第1の実施例に係る撮像装置100の構成と同様であるため説明を省略する。また、撮像装置100aの機能の一部または全部を撮像装置100bが実現してもよいし、その逆に撮像装置100bの機能の一部または全部を撮像装置100aが実現してもよい。また、本実施例においても、図9および図10を参照して説明したように、撮像処理から信号処理に至るまでの処理の一部または全部が外部装置(例えば、情報処理装置300aまたはクラウドサーバ300b)によって実現されてもよい。
続いて、上記の図11を参照しながら、本実施例に係る信号処理について説明すると、ステップS1004の「分光データ処理」については、可視光の波長以下(約750[nm]以下)の光と、可視光の波長より長い波長の光それぞれについてL(λ)の算出が行われる。そして、ステップS1008の「画像データ処理」において、信号処理部120bは、可視光の波長以下(約750[nm]以下)の光についてのP(λ)を算出する際には可視光の波長以下(約750[nm]以下)の光についてのL(λ)を用い、可視光の波長より長い波長の光についてのP(λ)を算出する際には可視光の波長より長い波長の光についてのL(λ)を用いる。その他の処理については、第1の実施例に係る処理フローと同様であるため、説明を省略する。
本開示に係る第2の実施例によって、太陽光の分光特性を再現可能な周波数帯域が広げられ得る。特に、図5に示したチューナブルフィルタ113(換言すると、分離後の光の波長帯域に特化したチューナブルフィルタ113)が用いられた場合、太陽光の分光特性を再現可能な周波数帯域が特に広げられ得る。例えば、図14~図16には色温度が6500[K]、7000[K]、7500[K]である場合の太陽光の分光特性が示されているところ、これらの図に示すように、約450[nm]前後の急峻な変化がより高い分解能で再現される。なお、入射光の分離に用いられるチューナブルフィルタ113には、図3に示したチューナブルフィルタ113(換言すると、互いに略同一の分光特性を有するチューナブルフィルタ113)が用いられてもよい。また、本実施例においても、信号処理部120bは、植物の反射率の分光特性P(λ)についての半値幅をより小さくすることができ、分解能を向上させることができる。
<4.応用例>
上記では、本開示に係る第2の実施例について説明した。続いて、本開示の応用例について説明する。本開示に係る技術は、様々な装置またはシステムへ応用することができる。例えば、本開示に係る技術は、医療用顕微鏡または医療用内視鏡などを含む医療用撮像装置や、これらの装置を備える医療用撮像システム(医療用顕微鏡システムまたは医療用内視鏡システムなど)へ応用されてもよい。
(4.1.医療用撮像装置への応用例)
ここで、図17を参照して、本開示に係る技術が、医療用撮像装置へ応用された場合の一例について説明する。図17に示すように、本開示が応用された医療用撮像装置は、顕微鏡400と、データ処理部410とを備える。
本応用例に係る顕微鏡400は、入射光を2種類以上の波長帯域の光に分離する分離部と、2種類以上の波長帯域の光をそれぞれ検出し、後処理でチューナブルに波長抽出が可能な信号を出力する2以上の検出部を備えている。より具体的には、チューナブルフィルタが前段に備えられた、検出部として機能するイメージセンサ46が備えられている。なお、図17には便宜的に、検出部として機能するイメージセンサ46が1つのみ示されており、他のイメージセンサ46は示されていない点に留意されたい。また、ダイクロイックフィルタ54が分離部として機能する点に留意されたい。すなわち、入射光はダイクロイックフィルタ54によって2種類以上の波長帯域の光に分離され、分離後の光はそれぞれ別のイメージセンサ46によって検出される。ここで、顕微鏡400が備える分離部および検出部の態様は特に限定されない。
本応用例に係るデータ処理部410は、2以上の検出部それぞれから出力されたデータを異なる用途で使用することができる。例えば、データ処理部410は、2以上の検出部のいずれか一つの画像データを用いて合焦を行った後に、他の検出部の画像データを用いて撮像を行うなどの態様が考えられる。なお、2以上の検出部の使用態様はこれに限定されない。また、分離部による分離点は、上記のように約750[nm]に限定されず、撮像対象によって決定され得る。
従来、ユーザは、特定の波長帯域の画像データを用いて合焦を行うために、フィルタの入れ替え等を行っていたため、合焦に相当の時間を要していた。一方、本応用例においては、上記のとおり、入射光を2種類の波長帯域の光に分離する分離部および、入射光の分離数に応じた検出部が顕微鏡400に備えられるため、データ処理部410は、フィルタを入れ替えることなく合焦と、合焦後の撮像を行うことができる。医療の分野においては、短時間に大量の病理画像または医療画像を取得することが求められる場合があるため、合焦と、合焦後の撮像をより短時間で行うことができる本開示は有用である。
また、データ処理部410は、合焦後の撮像によって得られた画像データに対して上記で説明してきた信号処理を行うことによって、所望の波長帯域の画像を抽出することができる。これによって、ユーザに対する利便性が向上する。以降では、顕微鏡400の構成をはじめとする本応用例の詳細について説明していく。
また、顕微鏡400は、複数種類の光源を備えており、これらの光源を制御することによって明視野撮像モードおよび暗視野撮像モードを切り替えることができる。ここで、明視野撮像モードとは、通常の照明光が生体サンプルSPLへ照射されることによって、生体サンプルSPLにおける全体又は部位の明視野像(明視野全体像または明視野部位像)を取得することができるモードである。一方、暗視野撮像モードとは、一部分が蛍光染色された生体サンプルSPLに対して、当該一部分を励起する光が照射されることによって、生体サンプルSPLにおける一部分の蛍光像(以下、「暗視野部位像」とも呼称する)を取得することができるモードである。そして、明視野撮像モードおよび暗視野撮像モードのいずれについても、データ処理部410は、上記のように2以上の検出部それぞれから出力されたデータを異なる用途で使用することができる。
(顕微鏡400の構成等の詳細)
顕微鏡400は、ガラス板等のスライドSGが配される面(以下、これをスライド配置面とも呼ぶ)に対して平行方向及び直交方向(x軸、y軸及びz軸方向)にそれぞれ移動可能なステージ(以下、これを可動ステージとも呼ぶ)31を有する。このスライド配置面にはスライドホルダー32が設けられる。
スライドホルダー32は、スライドSGがセットされる場合、セット場所として指定される位置(以下、これをスライドセット位置とも呼ぶ)に移動される。スライドセット位置では、スライド収容器(図示せず)に収容されるスライドSGが、スライドセット機構(図示せず)によって取り出されスライドホルダー32にセットされる。
スライド収容器(図示せず)に収容されるスライドSGには、血液等の結合組織、上皮組織又はそれらの双方の組織などの組織切片または塗抹細胞が、生体サンプルSPLとして所定の固定手法により固定され、必要に応じて染色される。
この染色には、HE(ヘマトキシリン・エオジン)染色、ギムザ染色又はパパニコロウ染色などに代表される一般染色のみならず、FISH(Fluorescence In-Situ Hybridization)や酵素抗体法等の蛍光染色が含まれる。
蛍光染色では、一般に、プローブに付される蛍光標識体(以下、これを蛍光マーカーとも呼ぶ)のほかに、当該プローブの蛍光マーカーと対比させるべき蛍光標識体(以下、これを対照マーカーとも呼ぶ)が用いられる。
対照マーカーは、蛍光マーカーにおける励起波長とは異なる励起波長とされる。例えば、おおよそ365[nm]の励起波長でなり、DAPI(4’,6-diamidino-2-pheylindole)が慣用される。DAPIでは、細胞核が、蛍光マーカーのターゲットと対比すべきターゲット(以下、これを対照ターゲットとも呼ぶ)とされる。
生体サンプルSPLが撮像される場合、鏡検場所として指定される位置(以下、これを鏡検位置とも呼ぶ)にスライドホルダー32が移動される。この場合、明視野撮像モード又は暗視野撮像モードが実行される。
明視野撮像モードの場合、明視野光源41から、生体サンプルSPLに対する照明光が照射される。この照明光は、反射ミラー42により折り曲げられ、明視野フィルタ43を介して可視光帯域の光として、鏡検位置にある生体サンプルSPLに照射され、対物レンズ44に到達する。
対物レンズ44は、生体サンプルSPL全体が含まれる像(以下、これを明視野全体像とも呼ぶ)として結像される程度の低倍率、若しくは、生体サンプルSPLにおける一部分の像(以下、これを明視野部位像とも呼ぶ)として結像される程度の高倍率とされる。
顕微鏡400は、照明光を通して得られる生体サンプルSPLの像を、対物レンズ44と結像レンズ45とでそれぞれ拡大し、明視野全体像又は明視野部位像としてイメージセンサ46の撮像面に結像する。
このように顕微鏡400は、明視野撮像モードでは、生体サンプルSPLにおける全体又は部位の明視野像(明視野全体像又は明視野部位像)を取得することができるようになされている。
なお、図17では、対物レンズ44と結像レンズ45との光路間に分離部として機能するダイクロイックフィルタ54、エミッションフィルタ55が存在する。しかし明視野撮像モードの場合、明視野フィルタ43から入射される可視光帯域の光がこれらフィルタに吸収あるいは反射されないように、当該ダイクロイックフィルタ54及びエミッションフィルタ55は、当該光路以外の位置に退避される。
一方、暗視野撮像モードの場合、励起光源51から、プローブの蛍光マーカー及び対照マーカーの双方を励起する光(以下、これを励起光とも呼ぶ)が照射される。励起光が照射される際の対物レンズ44は、生体サンプルSPLにおける一部分の蛍光像として結像される程度の高倍率とされる。
励起光源51から照射される励起光は、コリメートレンズ52によって平行光線とされ、エキサイトフィルタ53によって励起光以外の光が除かれる。エキサイトフィルタ53を透過する励起光は、ダイクロイックフィルタ54を反射し、対物レンズ44によって鏡検位置に集光される。
鏡検位置に配される生体サンプルSPLのターゲット及び対比ターゲットにプローブが結合する場合、当該プローブに付される蛍光マーカー及び対照マーカーが励起光により発光する。この発光は、対物レンズ44を介してダイクロイックフィルタ54を透過し、エミッションフィルタ55によって蛍光体の発光以外の光が吸収され、結像レンズ45に到達する。
顕微鏡400は、この蛍光マーカー及び対照マーカーの発光を通して得られる像を、対物レンズ44と結像レンズ45とでそれぞれ拡大し、暗視野部位像としてイメージセンサ46の撮像面に結像する。
このように顕微鏡400は、暗視野撮像モードでは、サンプル部位の蛍光像(暗視野部位像)を取得することができるようになされている。
なお、図17では、エキサイトフィルタ53とダイクロイックフィルタ54との光路間にはダイクロイックフィルタ63が存在するが、当該ダイクロイックフィルタ63ではエキサイトフィルタ53を透過する励起光は透過される。
かかる構成に加えてこの顕微鏡400は、蛍光マーカーに対して未励起状態であり、対照マーカーを励起状態とする励起光(以下、これを対照専用励起光とも呼ぶ)を照射する光源(以下、これを対照励起光源とも呼ぶ)61を有する。
この対照専用励起光は、生体サンプルSPLに対する暗視野部位像を取得する場合、その合焦過程において対照励起光源61から照射される。
対照励起光源61から照射される対照専用励起光は、コリメートレンズ62によって平行光線とされ、ダイクロイックフィルタ63及びダイクロイックフィルタ54をそれぞれ反射し、対物レンズ44によって鏡検位置に集光される。
鏡検位置に配される生体サンプルSPLの対比ターゲットにプローブが結合する場合、当該プローブに付される対照マーカーが、対照専用励起光により発光する。この発光は、対物レンズ44を介してダイクロイックフィルタ54を透過し、エミッションフィルタ55によって蛍光体の発光以外の光が吸収され、結像レンズ45に到達する。
顕微鏡400は、この対照マーカーの発光を通して得られる像を、対物レンズ44と結像レンズ45とでそれぞれ拡大し、暗視野部位像としてイメージセンサ46の撮像面に結像する。
データ処理部410は、この暗視野部位像を用いて、対応するサンプル部位に焦点が合うよう可動ステージ31を制御する。またデータ処理部410は、サンプル部位に焦点が合った場合、対照励起光源61に代えて励起光源51から励起光を照射させ、当該励起光によって得られる暗視野部位像を保存する。
このように医療用撮像装置は、対照専用励起光によって得られる暗視野部位像を合焦対象の暗視野部位像とし、励起光によって得られる暗視野部位像を保存対象の暗視野部位像として取得するようになされている。
(処理の流れ)
上記では、顕微鏡400の構成等の詳細について説明した。続いて、図18を参照して、医療用撮像装置における処理の流れの一例について説明する。
ステップS1100では、データ処理部410が、鏡検位置にスライドホルダー32を配置し、ダイクロイックフィルタ54と結像レンズ45との間における光軸上に高倍率の対物レンズ44を配置する。データ処理部410は、その他の構成を所定の位置に配置してもよい。
ステップS1104では、データ処理部410が、スライドホルダー32に配される生体サンプルSPLにおける取得対象のサンプル部位を決定する。取得対象のサンプル部位の決定方法は特に限定されず、例えば、ユーザからの指定に基づいて取得対象のサンプル部位が決定されてもよい。
ステップS1108では、データ処理部410が、対照励起光源61を駆動させて、2以上の検出部のいずれか一つの画像データを取得する。ステップS1112では、データ処理部410が、取得対象のサンプル部位における対照マーカーの暗視野像(暗視野部位像)における一部のコントラストに基づいて、当該取得対象のサンプル部位に焦点を合わせる。
ステップS1116では、データ処理部410が、対照励起光源61の駆動を停止させるとともに励起光源51を駆動する。ステップS1120では、データ処理部410が、合焦に用いられた検出部とは異なる検出部を用いて、取得対象のサンプル部位における蛍光マーカーの暗視野像を記録対象の暗視野部位像として取得することで一連の処理が終了する。
なお、図18に示したフローチャートにおける各ステップは、必ずしも記載された順序に沿って時系列に処理する必要はない。すなわち、フローチャートにおける各ステップは、記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
上記では、本開示に係る技術が、医療用撮像装置へ応用される場合の例について説明したが、本開示に係る技術が適用される装置やシステムは特に限定されない。より具体的には、本開示に係る技術は、医療用撮像装置以外の任意の装置に適用されてもよい。
(4.2.手術室システムへの応用例)
続いて、本開示に係る技術が、手術室システムへ応用された場合の一例について説明する。
図19は、本開示に係る技術が適用され得る手術室システム5100の全体構成を概略的に示す図である。図19を参照すると、手術室システム5100は、手術室内に設置される装置群が視聴覚コントローラ(AV Controller)5107及び手術室制御装置5109を介して互いに連携可能に接続されることにより構成される。
手術室には、様々な装置が設置され得る。図19では、一例として、内視鏡下手術のための各種の装置群5101と、手術室の天井に設けられ術者の手元を撮像するシーリングカメラ5187と、手術室の天井に設けられ手術室全体の様子を撮像する術場カメラ5189と、複数の表示装置5103A~5103Dと、レコーダ5105と、患者ベッド5183と、照明5191と、を図示している。
ここで、これらの装置のうち、装置群5101は、後述する内視鏡手術システム5113に属するものであり、内視鏡や当該内視鏡によって撮像された画像を表示する表示装置等からなる。内視鏡手術システム5113に属する各装置は医療用機器とも呼称される。一方、表示装置5103A~5103D、レコーダ5105、患者ベッド5183及び照明5191は、内視鏡手術システム5113とは別個に、例えば手術室に備え付けられている装置である。これらの内視鏡手術システム5113に属さない各装置は非医療用機器とも呼称される。視聴覚コントローラ5107及び/又は手術室制御装置5109は、これら医療機器及び非医療機器の動作を互いに連携して制御する。
視聴覚コントローラ5107は、医療機器及び非医療機器における画像表示に関する処理を、統括的に制御する。具体的には、手術室システム5100が備える装置のうち、装置群5101、シーリングカメラ5187及び術場カメラ5189は、手術中に表示すべき情報(以下、表示情報ともいう)を発信する機能を有する装置(以下、発信元の装置とも呼称する)であり得る。また、表示装置5103A~5103Dは、表示情報が出力される装置(以下、出力先の装置とも呼称する)であり得る。また、レコーダ5105は、発信元の装置及び出力先の装置の双方に該当する装置であり得る。視聴覚コントローラ5107は、発信元の装置及び出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、当該表示情報を出力先の装置に送信し、表示又は記録させる機能を有する。なお、表示情報とは、手術中に撮像された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報等)等である。
具体的には、視聴覚コントローラ5107には、装置群5101から、表示情報として、内視鏡によって撮像された患者の体腔内の術部の画像についての情報が送信され得る。また、シーリングカメラ5187から、表示情報として、当該シーリングカメラ5187によって撮像された術者の手元の画像についての情報が送信され得る。また、術場カメラ5189から、表示情報として、当該術場カメラ5189によって撮像された手術室全体の様子を示す画像についての情報が送信され得る。なお、手術室システム5100に撮像機能を有する他の装置が存在する場合には、視聴覚コントローラ5107は、表示情報として、当該他の装置からも当該他の装置によって撮像された画像についての情報を取得してもよい。
あるいは、例えば、レコーダ5105には、過去に撮像されたこれらの画像についての情報が視聴覚コントローラ5107によって記録されている。視聴覚コントローラ5107は、表示情報として、レコーダ5105から当該過去に撮像された画像についての情報を取得することができる。なお、レコーダ5105には、手術に関する各種の情報も事前に記録されていてもよい。
視聴覚コントローラ5107は、出力先の装置である表示装置5103A~5103Dの少なくともいずれかに、取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を表示させる。図示する例では、表示装置5103Aは手術室の天井から吊り下げられて設置される表示装置であり、表示装置5103Bは手術室の壁面に設置される表示装置であり、表示装置5103Cは手術室内の机上に設置される表示装置であり、表示装置5103Dは表示機能を有するモバイル機器(例えば、タブレットPC(Personal Computer))である。
また、図19では図示を省略しているが、手術室システム5100には、手術室の外部の装置が含まれてもよい。手術室の外部の装置は、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが用いるPC、病院の会議室に設置されるプロジェクタ等であり得る。このような外部装置が病院外にある場合には、視聴覚コントローラ5107は、遠隔医療のために、テレビ会議システム等を介して、他の病院の表示装置に表示情報を表示させることもできる。
手術室制御装置5109は、非医療機器における画像表示に関する処理以外の処理を、統括的に制御する。例えば、手術室制御装置5109は、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191の駆動を制御する。
手術室システム5100には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、視聴覚コントローラ5107に対して画像表示についての指示を与えたり、手術室制御装置5109に対して非医療機器の動作についての指示を与えることができる。集中操作パネル5111は、表示装置の表示面上にタッチパネルが設けられて構成される。
図20は、集中操作パネル5111における操作画面の表示例を示す図である。図20では、一例として、手術室システム5100に、出力先の装置として、2つの表示装置が設けられている場合に対応する操作画面を示している。図20を参照すると、操作画面5193には、発信元選択領域5195と、プレビュー領域5197と、コントロール領域5201と、が設けられる。
発信元選択領域5195には、手術室システム5100に備えられる発信元装置と、当該発信元装置が有する表示情報を表すサムネイル画面と、が紐付けられて表示される。ユーザは、表示装置に表示させたい表示情報を、発信元選択領域5195に表示されているいずれかの発信元装置から選択することができる。
プレビュー領域5197には、出力先の装置である2つの表示装置(Monitor1、Monitor2)に表示される画面のプレビューが表示される。図示する例では、1つの表示装置において4つの画像がPinP表示されている。当該4つの画像は、発信元選択領域5195において選択された発信元装置から発信された表示情報に対応するものである。4つの画像のうち、1つはメイン画像として比較的大きく表示され、残りの3つはサブ画像として比較的小さく表示される。ユーザは、4つの画像が表示された領域を適宜選択することにより、メイン画像とサブ画像を入れ替えることができる。また、4つの画像が表示される領域の下部には、ステータス表示領域5199が設けられており、当該領域に手術に関するステータス(例えば、手術の経過時間や、患者の身体情報等)が適宜表示され得る。
コントロール領域5201には、発信元の装置に対して操作を行うためのGUI(Graphical User Interface)部品が表示される発信元操作領域5203と、出力先の装置に対して操作を行うためのGUI部品が表示される出力先操作領域5205と、が設けられる。図示する例では、発信元操作領域5203には、撮像機能を有する発信元の装置におけるカメラに対して各種の操作(パン、チルト及びズーム)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、発信元の装置におけるカメラの動作を操作することができる。なお、図示は省略しているが、発信元選択領域5195において選択されている発信元の装置がレコーダである場合(すなわち、プレビュー領域5197において、レコーダに過去に記録された画像が表示されている場合)には、発信元操作領域5203には、当該画像の再生、再生停止、巻き戻し、早送り等の操作を行うためのGUI部品が設けられ得る。
また、出力先操作領域5205には、出力先の装置である表示装置における表示に対する各種の操作(スワップ、フリップ、色調整、コントラスト調整、2D表示と3D表示の切り替え)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、表示装置における表示を操作することができる。
なお、集中操作パネル5111に表示される操作画面は図示する例に限定されず、ユーザは、集中操作パネル5111を介して、手術室システム5100に備えられる、視聴覚コントローラ5107及び手術室制御装置5109によって制御され得る各装置に対する操作入力が可能であってよい。
図21は、以上説明した手術室システムが適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、図19に示すように、視聴覚コントローラ5107及び手術室制御装置5109(図21では図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、上述したように、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、気腹チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
(支持アーム装置)
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
(内視鏡)
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
(カートに搭載される各種の装置)
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図19に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。気腹装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、気腹チューブ5133を介して当該体腔内にガスを送り込む。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
(支持アーム装置)
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図21では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
(光源装置)
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(カメラヘッド及びCCU)
図22を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図22は、図21に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
図22を参照すると、カメラヘッド5119は、その機能として、レンズユニット5121と、撮像部5123と、駆動部5125と、通信部5127と、カメラヘッド制御部5129と、を有する。また、CCU5153は、その機能として、通信部5173と、画像処理部5175と、制御部5177と、を有する。カメラヘッド5119とCCU5153とは、伝送ケーブル5179によって双方向に通信可能に接続されている。
まず、カメラヘッド5119の機能構成について説明する。レンズユニット5121は、鏡筒5117との接続部に設けられる光学系である。鏡筒5117の先端から取り込まれた観察光は、カメラヘッド5119まで導光され、当該レンズユニット5121に入射する。レンズユニット5121は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5121は、撮像部5123の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部5123は撮像素子によって構成され、レンズユニット5121の後段に配置される。レンズユニット5121を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5123によって生成された画像信号は、通信部5127に提供される。
撮像部5123を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5181は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部5123を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5181は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5123が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5121も複数系統設けられる。
また、撮像部5123は、必ずしもカメラヘッド5119に設けられなくてもよい。例えば、撮像部5123は、鏡筒5117の内部に、対物レンズの直後に設けられてもよい。
駆動部5125は、アクチュエータによって構成され、カメラヘッド制御部5129からの制御により、レンズユニット5121のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5123による撮像画像の倍率及び焦点が適宜調整され得る。
通信部5127は、CCU5153との間で各種の情報を送受信するための通信装置によって構成される。通信部5127は、撮像部5123から得た画像信号をRAWデータとして伝送ケーブル5179を介してCCU5153に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5181が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5127には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5179を介してCCU5153に送信される。
また、通信部5127は、CCU5153から、カメラヘッド5119の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5127は、受信した制御信号をカメラヘッド制御部5129に提供する。なお、CCU5153からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5127には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5129に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5153の制御部5177によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5115に搭載される。
カメラヘッド制御部5129は、通信部5127を介して受信したCCU5153からの制御信号に基づいて、カメラヘッド5119の駆動を制御する。例えば、カメラヘッド制御部5129は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5123の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5129は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5125を介してレンズユニット5121のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5129は、更に、鏡筒5117やカメラヘッド5119を識別するための情報を記憶する機能を備えてもよい。
なお、レンズユニット5121や撮像部5123等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5119について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU5153の機能構成について説明する。通信部5173は、カメラヘッド5119との間で各種の情報を送受信するための通信装置によって構成される。通信部5173は、カメラヘッド5119から、伝送ケーブル5179を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5173には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5173は、電気信号に変換した画像信号を画像処理部5175に提供する。
また、通信部5173は、カメラヘッド5119に対して、カメラヘッド5119の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
画像処理部5175は、カメラヘッド5119から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5175は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
画像処理部5175は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5175が複数のGPUによって構成される場合には、画像処理部5175は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部5177は、内視鏡5115による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5177は、カメラヘッド5119の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5177は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5115にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5177は、画像処理部5175による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部5177は、画像処理部5175によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5155に表示させる。この際、制御部5177は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5177は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5135使用時のミスト等を認識することができる。制御部5177は、表示装置5155に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5181に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド5119及びCCU5153を接続する伝送ケーブル5179は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル5179を用いて有線で通信が行われていたが、カメラヘッド5119とCCU5153との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5179を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5179によって妨げられる事態が解消され得る。
以上、本開示に係る技術が適用され得る手術室システム5100の一例について説明した。なお、ここでは、一例として手術室システム5100が適用される医療用システムが内視鏡手術システム5113である場合について説明したが、手術室システム5100の構成はかかる例に限定されない。例えば、手術室システム5100は、内視鏡手術システム5113に代えて、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
本開示に係る技術は、カメラヘッド5119における撮像部5123に適用され得る。より具体的には、撮像部5123は、レンズユニット5121からの入射光を2種類以上の波長帯域の光に分離する分離部と、2種類以上の波長帯域の光をそれぞれ検出し、後処理でチューナブルに波長抽出が可能な信号を出力する2以上の検出部を備えていてもよい。これによって、手術室システム5100は、波長再現性およびSN比を高く維持しつつ、チューナブルに波長を抽出することができる。
(4.3.車両制御システムへの応用例)
続いて、本開示に係る技術が、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体についての車両制御システムへ応用された場合の一例について説明する。
図23は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図23に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図23では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図24は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図24には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図23に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図23の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図23に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、上記で説明した第1の実施例に係る撮像装置100(または、第2の実施例に係る撮像装置100aおよび撮像装置100b)の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
また、車両制御システム7000において、上記で説明した第1の実施例に係る撮像装置100(または、第2の実施例に係る撮像装置100aおよび撮像装置100b)は、撮像部7410(または、車両状態検出部7110、車外情報検出部7420、運転者状態検出部7510など)によって具現され得る。
また、第1の実施例に係る撮像装置100(または、第2の実施例に係る撮像装置100aおよび撮像装置100b)の少なくとも一部の構成要素は、図23に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、第1の実施例に係る撮像装置100(または、第2の実施例に係る撮像装置100aおよび撮像装置100b)が、図23に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入射光を2種類以上の波長帯域の光に分離する分離部と、
前記2種類以上の波長帯域の光をそれぞれ検出し、後処理でチューナブルに波長抽出が可能な信号を出力する2以上の検出部と、を備える、
撮像装置。
(2)
前記2以上の検出部のそれぞれは、画素単位で分光特性の異なるフィルタを備える、
前記(1)に記載の撮像装置。
(3)
前記2以上の検出部は、互いに略同一の分光特性を有する、
前記(2)に記載の撮像装置。
(4)
前記2以上の検出部は、互いに異なる分光特性を有する、
前記(2)に記載の撮像装置。
(5)
前記2以上の検出部のそれぞれの分光特性は、検出対象となる前記光の波長帯域に応じて決められる、
前記(4)に記載の撮像装置。
(6)
前記分離部は、前記入射光を可視光の波長以下の光と、前記可視光の波長より長い波長の光とに分離する、
前記(1)から(5)のいずれか1項に記載の撮像装置。
(7)
前記分離部は、前記入射光を2種類以上の波長帯域の光に分離する分離面を備え、
前記分離面は、前記入射光の光軸に対して所定の角度を有するように配置される、
前記(1)から(6)のいずれか1項に記載の撮像装置。
(8)
前記分離部は、ダイクロイックフィルタであり、
前記ダイクロイックフィルタは、前記入射光を、前記分離面で反射する光と前記分離面を透過する光とに分離する、
前記(7)に記載の撮像装置。
(9)
前記入射光は、光源からの出射光、または前記出射光が被写体によって反射された反射光である、
前記(1)から(8)のいずれか1項に記載の撮像装置。
(10)
分離部によって入射光から分離された2種類以上の波長帯域の光をそれぞれ検出した2以上の検出部によって出力された信号を取得する取得部と、
前記信号を用いて所望の波長帯域の信号を抽出する信号処理部と、を備える、
信号処理装置。
(11)
前記入射光が、光源からの出射光が被写体によって反射された反射光である場合、
前記信号処理部は、前記信号を用いて前記反射光の分光特性に関する値を出力する、
前記(10)に記載の信号処理装置。
(12)
前記入射光が、前記出射光である場合、
前記信号処理部は、前記信号を用いて前記出射光の分光特性に関する値を出力し、前記出射光の分光特性に関する値を用いて前記反射光の分光特性に関する値を出力する、
前記(11)に記載の信号処理装置。
(13)
前記被写体は、植物であり、
前記信号処理部は、前記反射光の分光特性に関する値を用いて植生指数を算出する、
前記(11)または(12)に記載の信号処理装置。
(14)
分離部によって入射光から分離された2種類以上の波長帯域の光をそれぞれ検出した2以上の検出部によって出力された信号を取得することと、
前記信号を用いて所望の波長帯域の信号を抽出することと、を有する、
コンピュータにより実行される信号処理方法。
(15)
分離部によって入射光から分離された2種類以上の波長帯域の光をそれぞれ検出した2以上の検出部によって出力された信号を取得することと、
前記信号を用いて所望の波長帯域の信号を抽出することと、
をコンピュータに実現させるためのプログラム。
100 撮像装置
110 撮像処理部
111 撮像光学系
112 露光処理部
113 チューナブルフィルタ
114 イメージセンサ
120 信号処理部
130 記憶部
140 制御部
150 通信部
200 分光器
300a 情報処理装置
300b クラウドサーバ

Claims (13)

  1. 入射光を可視光の波長以下波長帯域の第1の光と、前記可視光の波長より長い波長の波長帯域の第2の光とに分離する分離部と、
    画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有して前記第1の光を検出し、後処理でチューナブルに波長抽出が可能な信号を出力する第1の検出部と、
    画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有して前記第2の光を検出し、後処理でチューナブルに波長抽出が可能な信号を出力する第2の検出部と、
    を備える、
    撮像装置。
  2. 前記第1の検出部および前記第2の検出部のそれぞれの分光特性は、検出対象となる前記第1の光および前記第2の光の波長帯域に応じて決められる、
    請求項に記載の撮像装置。
  3. 前記分離部は、前記入射光を前記第1の光および前記第2の光に分離する分離面を備え、
    前記分離面は、前記入射光の光軸に対して所定の角度を有するように配置される、
    請求項1に記載の撮像装置。
  4. 前記分離部は、ダイクロイックフィルタであり、
    前記ダイクロイックフィルタは、前記入射光を、前記分離面で反射する光と前記分離面を透過する光とに分離する、
    請求項に記載の撮像装置。
  5. 前記入射光は、光源からの出射光、または前記出射光が被写体によって反射された反射光である、
    請求項1に記載の撮像装置。
  6. 無人航空機の少なくとも下部に設けられる、
    請求項1に記載の撮像装置。
  7. 前記無人航空機の上部にさらに設けられる、
    請求項6に記載の撮像装置。
  8. 分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得する取得部と、
    前記信号を用いて所望の波長帯域の信号を抽出する信号処理部と、を備える、
    信号処理装置。
  9. 前記入射光が、光源からの出射光が被写体によって反射された反射光である場合、
    前記信号処理部は、前記信号を用いて前記反射光の分光特性に関する値を出力する、
    請求項に記載の信号処理装置。
  10. 前記入射光が、前記出射光である場合、
    前記信号処理部は、前記信号を用いて前記出射光の分光特性に関する値を出力し、前記出射光の分光特性に関する値を用いて前記反射光の分光特性に関する値を出力する、
    請求項に記載の信号処理装置。
  11. 前記被写体は、植物であり、
    前記信号処理部は、前記反射光の分光特性に関する値を用いて植生指数を算出する、
    請求項に記載の信号処理装置。
  12. 分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得することと、
    前記信号を用いて所望の波長帯域の信号を抽出することと、を有する、
    コンピュータにより実行される信号処理方法。
  13. 分離部によって入射光から分離された可視光の波長以下の波長帯域の第1の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第1の光に対してより強い分光感度を有する第1の検出部と、分離部によって入射光から分離された可視光の波長より長い波長の波長帯域の第2の光を検出した、画素単位で分光特性の異なるフィルタを備え、前記第2の光に対してより強い分光感度を有する第2の検出部と、によって出力された信号を取得することと、
    前記信号を用いて所望の波長帯域の信号を抽出することと、
    をコンピュータに実現させるためのプログラム。
JP2018146164A 2018-08-02 2018-08-02 撮像装置、信号処理装置、信号処理方法およびプログラム Active JP7183616B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018146164A JP7183616B2 (ja) 2018-08-02 2018-08-02 撮像装置、信号処理装置、信号処理方法およびプログラム
PCT/JP2019/028765 WO2020026882A1 (en) 2018-08-02 2019-07-23 Imaging apparatus, signal processing apparatus, signal processing method, and program
US17/263,368 US11953376B2 (en) 2018-08-02 2019-07-23 Imaging apparatus, signal processing apparatus, signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146164A JP7183616B2 (ja) 2018-08-02 2018-08-02 撮像装置、信号処理装置、信号処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020022121A JP2020022121A (ja) 2020-02-06
JP7183616B2 true JP7183616B2 (ja) 2022-12-06

Family

ID=67551667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146164A Active JP7183616B2 (ja) 2018-08-02 2018-08-02 撮像装置、信号処理装置、信号処理方法およびプログラム

Country Status (3)

Country Link
US (1) US11953376B2 (ja)
JP (1) JP7183616B2 (ja)
WO (1) WO2020026882A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9615728B2 (en) 2012-06-27 2017-04-11 Camplex, Inc. Surgical visualization system with camera tracking
US9642606B2 (en) 2012-06-27 2017-05-09 Camplex, Inc. Surgical visualization system
US20230384158A1 (en) * 2020-10-26 2023-11-30 Sony Group Corporation Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008518229A (ja) 2004-10-25 2008-05-29 アールピー ベンチャーズ テクノロジー オフィス アーベー マルチスペクトル及びハイパースペクトル撮像を行うシステム
JP2011528918A (ja) 2008-03-18 2011-12-01 ノヴァダク テクノロジーズ インコーポレイテッド 組み合わされたフルカラー反射および近赤外線画像化のための画像化システム
JP2013108788A (ja) 2011-11-18 2013-06-06 Tokyo Institute Of Technology マルチスペクトル画像情報取得装置及びマルチスペクトル画像情報取得方法
WO2016208415A1 (ja) 2015-06-26 2016-12-29 ソニー株式会社 検査装置、センシング装置、感度制御装置、検査方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4633129B2 (ja) 2003-11-11 2011-02-16 オリンパス株式会社 マルチスペクトル画像撮影装置
EP1952106B1 (en) * 2005-11-04 2014-08-27 George Themelis System for multispectral imaging
WO2011014207A1 (en) * 2009-07-31 2011-02-03 University Of Utah Research Foundation Beam splitter module
EP2832302B1 (en) * 2012-03-28 2022-08-24 Terumo Kabushiki Kaisha Probe
EP3307134B1 (en) * 2015-06-15 2019-03-13 Koninklijke Philips N.V. Optical shape sensing system and method for sensing a position and/or shape of a medical device using backscatter reflectometry
US11137271B2 (en) * 2019-02-22 2021-10-05 Ryan Seeley Multi-spectral features sensing techniques and sensors comprising plural gratings with plural chirp slopes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008518229A (ja) 2004-10-25 2008-05-29 アールピー ベンチャーズ テクノロジー オフィス アーベー マルチスペクトル及びハイパースペクトル撮像を行うシステム
JP2011528918A (ja) 2008-03-18 2011-12-01 ノヴァダク テクノロジーズ インコーポレイテッド 組み合わされたフルカラー反射および近赤外線画像化のための画像化システム
JP2013108788A (ja) 2011-11-18 2013-06-06 Tokyo Institute Of Technology マルチスペクトル画像情報取得装置及びマルチスペクトル画像情報取得方法
WO2016208415A1 (ja) 2015-06-26 2016-12-29 ソニー株式会社 検査装置、センシング装置、感度制御装置、検査方法、並びにプログラム

Also Published As

Publication number Publication date
JP2020022121A (ja) 2020-02-06
US11953376B2 (en) 2024-04-09
WO2020026882A1 (en) 2020-02-06
US20210144345A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
US10958847B2 (en) Imaging device, image processing method, and image processing system
US10834315B2 (en) Image transfer apparatus and moving image generating system for transferring moving image data
US11372200B2 (en) Imaging device
JP7322708B2 (ja) 撮像素子
CN113056768B (zh) 图像处理设备、图像处理方法和程序
KR20210029205A (ko) 적층형 수광 센서 및 전자기기
US11119633B2 (en) Information processing device and method
EP3757603A1 (en) Ranging system, light receiving module, and method for manufacturing band-pass filter
JPWO2018150768A1 (ja) 測光装置、測光方法、プログラムおよび撮像装置
JP7183616B2 (ja) 撮像装置、信号処理装置、信号処理方法およびプログラム
JPWO2020174865A1 (ja) 可変焦点距離レンズ系及び撮像装置
JP7306269B2 (ja) 制御装置と制御方法およびプログラム
WO2018037680A1 (ja) 撮像装置、撮像システム、及び、信号処理方法
WO2021117497A1 (ja) 撮像レンズおよび撮像装置
US11156751B2 (en) Imaging optical system, camera module, and electronic device
US11482159B2 (en) Display control device, display control method, and display control program
EP3761636B1 (en) Signal processing device, signal processing method, and imaging device
US20240118571A1 (en) Liquid crystal display element, display device, electronic device, drive substrate, and method for manufacturing drive substrate
WO2020174866A1 (ja) 可変焦点距離レンズ系及び撮像装置
WO2019082686A1 (ja) 撮像装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151