JP6904348B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6904348B2
JP6904348B2 JP2018527391A JP2018527391A JP6904348B2 JP 6904348 B2 JP6904348 B2 JP 6904348B2 JP 2018527391 A JP2018527391 A JP 2018527391A JP 2018527391 A JP2018527391 A JP 2018527391A JP 6904348 B2 JP6904348 B2 JP 6904348B2
Authority
JP
Japan
Prior art keywords
candidate
candidate region
far
region
infrared image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018527391A
Other languages
English (en)
Other versions
JPWO2018012053A1 (ja
Inventor
横山 正幸
正幸 横山
祐基 明壁
祐基 明壁
厚史 伊藤
厚史 伊藤
小柳津 秀紀
秀紀 小柳津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018012053A1 publication Critical patent/JPWO2018012053A1/ja
Application granted granted Critical
Publication of JP6904348B2 publication Critical patent/JP6904348B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/10Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Geophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Radiation Pyrometers (AREA)

Description

本開示は、画像処理装置及び画像処理方法に関する。
近年、物体の温度を検出する等の目的で、遠赤外画像が利用されている。遠赤外画像は、物体からの黒体放射によって発せられる遠赤外線を撮像素子により捕捉することによって生成される。このような遠赤外画像を利用することによって、夜間又は悪天候時のように可視光画像から人体等の被写体を検出することが困難な場合であっても、被写体を検出することができる場合がある。しかしながら、遠赤外画像は、可視光画像と比較して、解像度が低いこと等に起因して、被写体の検出において所望の検出精度が得られない場合があった。そこで、被写体の検出精度を向上させるための技術が提案されている。
例えば、特許文献1では、環境の影響によりカメラの撮像画像の信頼性が低下した場合に、物体の種別判定の精度が低くなることを防止するために、車両に搭載されて該車両の周辺の第1監視範囲内に所在する物体と該車両との相対位置を検出するレーダーと、該車両に搭載されて該第1監視範囲と重複する第2監視範囲を撮像する赤外線カメラと、該レーダーによる検出データと該赤外線カメラによる撮像画像に基づいて、車両周辺に所在する物体の種別を判定する種別判定部とを備え、当該種別判定部は、該赤外線カメラによる撮像画像に基づいて種別が判定できた物体を除外した上で、種別判定ができていない物体に対して、前記レーダーの検出データに基づく種別判定を行う技術が提案されている。
特開2014−209387号公報
ところで、被写体の検出に関する分野において、被写体の検出精度をより安価に向上させることが望ましいと考えられる。例えば、特許文献1に開示されている技術では、赤外線カメラに加えてレーダーが利用されている。ゆえに、被写体の検出におけるコストが増大し得る。
そこで、本開示では、被写体の検出精度をより安価に向上させることが可能な、新規かつ改良された画像処理装置及び画像処理方法を提案する。
本開示によれば、遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出する複数の検出部と、検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、前記遠赤外画像に前記所定の被写体が映っているか否かを判定する判定部と、を備える、画像処理装置が提供される。
また、本開示によれば、遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出することと、検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、画像処理装置によって、前記遠赤外画像に前記所定の被写体が映っているか否かを判定することと、を含む、画像処理方法が提供される。
以上説明したように本開示によれば、被写体の検出精度をより安価に向上させることが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
波長に依存する赤外線画像の多様な用途について説明するための説明図である。 本開示の実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 同実施形態に係る画像処理装置の機能構成の一例を示すブロック図である。 同実施形態に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 同実施形態に係る画像処理装置が行う各候補領域の検出処理の流れの一例を示すフローチャートである。 第1の応用例に係る画像処理装置の機能構成の一例を示すブロック図である。 人体が映る遠赤外画像の一例を示す説明図である。 記憶部に記憶されるデータテーブルの一例を示す説明図である。 各検出部によるスコア値の算出結果の一例を示す説明図である。 各画素についての画素値から尤度への変換後の画像の一例を示す説明図である。 第1の応用例に係る画像処理装置が行う処理の流れの第1の例を示すフローチャートである。 第1の応用例に係る画像処理装置が行う顔候補領域及び胴体候補領域の各々の検出処理の流れの一例を示すフローチャートである。 第1の応用例に係る画像処理装置が行う処理の流れの第2の例を示すフローチャートである。 第1の応用例に係る画像処理装置が行う顔部分候補領域の検出処理の流れの一例を示すフローチャートである。 第2の応用例に係る画像処理装置の機能構成の一例を示すブロック図である。 車両が映る遠赤外画像の一例を示す説明図である。 記憶部に記憶されるデータテーブルの一例を示す説明図である。 各検出部によるスコア値の算出結果の一例を示す説明図である。 第2の応用例に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 第2の応用例に係る画像処理装置が行う非通過部顔候補領域、通過部候補領域、及びマフラー候補領域の各々の検出処理の流れの一例を示すフローチャートである。 第3の応用例に係る画像処理装置の機能構成の一例を示すブロック図である。 顕微鏡装置を用いた手術の様子を示す説明図である。 患者の開腹部における異常部が映る遠赤外画像の一例を示す説明図である。 記憶部に記憶されるデータテーブルの一例を示す説明図である。 各検出部によるスコア値の算出結果の一例を示す説明図である。 第3の応用例に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 第3の応用例に係る画像処理装置が行う体表候補領域、開腹部候補領域、及び異常部候補領域の各々の検出処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.導入
2.画像処理装置の概要
2−1.ハードウェア構成
2−2.機能構成
2−3.動作
3.応用例
3−1.第1の応用例
3−2.第2の応用例
3−3.第3の応用例
4.まとめ
<1.導入>
図1は、波長に依存する赤外線画像の多様な用途について説明するための説明図である。図1の水平方向は赤外線の波長に対応し、左から右へと波長は長くなる。0.7μm以下の波長を有する光線は可視光線であり、人間の視覚はこの可視光線を感知する。可視光領域に隣接する波長領域は近赤外(NIR)領域であり、NIR領域に属する赤外線を近赤外線という。NIR領域の波長の上限は、定義に依存して異なるものの、2.5μmから4.0μmの間にあるとされることが多い。NIR領域のうち相対的に波長の長い部分は、短波長赤外(SWIR)領域と呼ばれることもある。近赤外線は、例えば、暗視(night vision)、透視、光通信、及び測距のために利用され得る。近赤外画像を撮像するカメラは、通常、まず近傍に赤外線を照射し、その反射光を捕捉する。NIR領域に長波長側で隣接する波長領域は遠赤外(FIR)領域であり、FIR領域に属する赤外線を遠赤外線という。FIR領域のうち相対的に波長の短い部分は、中波長赤外(MWIR)領域と呼ばれることもある。中波長赤外線の波長範囲では物質固有の吸収スペクトルが現れることから、中波長赤外線は、物質の同定のために利用され得る。遠赤外線は、暗視、サーモグラフィ、及び加熱のために利用され得る。物体からの黒体放射によって発せられる赤外線は、遠赤外線に相当する。そのため、遠赤外線を用いた暗視装置は、赤外線を照射せずとも、物体からの黒体放射を捕捉することにより遠赤外画像を生成することができる。なお、図1に示した波長の範囲の境界値は例に過ぎない。赤外線の分類の境界値には様々な定義が存在しており、本開示に係る技術の後述する利点は、いかなる定義の下でも享受され得る。
物体から放射される遠赤外線のエネルギと当該物体の温度とは相関関係を有するので、当該遠赤外線を受光することによって生成された遠赤外画像から、当該遠赤外画像に映る複数の物体の温度差を検出することができる。それにより、遠赤外画像から特定の物体が映る領域を、他の領域と区別して抽出することができる。例えば、遠赤外画像に映る生体の温度は、当該生体の周囲の物体の温度と比較して、一般的に高いので、当該生体と周囲の物体の温度差を検出することによって、遠赤外画像から生体領域を抽出することができる。また、抽出された領域について、テンプレートマッチング等の画像処理を利用することによって、当該領域に対応する被写体を検出することができる。ゆえに、当該領域に対応する被写体の種類を判別することができる。
しかしながら、遠赤外画像は、一般的に可視光画像と比較して、解像度が低い傾向にある。ゆえに、上記のような画像処理を利用した被写体の検出において、所望の検出精度が得られない場合があった。ここで、上述したように、赤外線カメラと異なる他のデバイスを用いて、遠赤外画像と異なるデータを取得し、遠赤外画像と当該データを併用することによって、被写体の検出精度を向上させることが考えられる。しかしながら、そのような方法によれば、赤外線カメラに加えて当該他のデバイスが利用されるので、コストが増大し得る。そこで、本明細書では、被写体の検出精度をより安価に向上させることができる仕組みを提案する。
<2.画像処理装置の概要>
続いて、図2〜図5を参照して、本開示の実施形態に係る画像処理装置1の概要について説明する。
[2−1.ハードウェア構成]
まず、図2を参照して、本実施形態に係る画像処理装置1のハードウェア構成について説明する。
図2は、本実施形態に係る画像処理装置1のハードウェア構成の一例を示すブロック図である。図2に示したように、画像処理装置1は、赤外線カメラ102と、入力インタフェース104と、メモリ106と、ディスプレイ108と、通信インタフェース110と、ストレージ112と、プロセッサ114と、バス116と、を備える。
(赤外線カメラ)
赤外線カメラ102は、赤外線を利用した撮像を行い、非カラー画像である赤外線画像を得る撮像モジュールである。赤外線カメラ102は、本開示に係る撮像部に相当する。赤外線カメラ102は、具体的には、FIR領域に属する波長を有する遠赤外線を感知する撮像素子の配列を有しており、遠赤外画像を撮像する。赤外線カメラ102は、例えば、一定の時間間隔で遠赤外画像を撮像する。また、赤外線カメラ102により得られる一連の遠赤外画像は、映像を構成してもよい。
(入力インタフェース)
入力インタフェース104は、ユーザが画像処理装置1を操作し又は画像処理装置1へ情報を入力するために使用される。例えば、入力インタフェース104は、タッチセンサ、キーボード、キーパッド、ボタン、又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース104は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。また、入力インタフェース104は、ユーザにより選択される命令をリモートデバイスから受信する遠隔制御モジュールを含んでもよい。
(メモリ)
メモリ106は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み得る記憶媒体である。メモリ106は、プロセッサ114に連結され、プロセッサ114により実行される処理のためのプログラム及びデータを記憶する。
(ディスプレイ)
ディスプレイ108は、画像を表示する画面を有する表示モジュールである。例えば、ディスプレイ108は、LCD(Liquid Crystal Display)、OLED(Organic light−Emitting Diode)、又はCRT(Cathode Ray Tube)などであってもよい。
(通信インタフェース)
通信インタフェース110は、画像処理装置1と他の装置との間の通信を仲介するモジュールである。通信インタフェース110は、任意の無線通信プロトコル又は有線通信プロトコルに従って、通信接続を確立する。
(ストレージ)
ストレージ112は、赤外線画像データを蓄積し又は画像処理において利用されるデータベースを記憶する記憶デバイスである。ストレージ112は、半導体メモリ又はハードディスクなどの記憶媒体を内蔵する。なお、本明細書で説明するプログラム及びデータは、画像処理装置1の外部のデータソース(例えば、データサーバ、ネットワークストレージ、又は外付けメモリなど)から取得されてもよい。
(プロセッサ)
プロセッサ114は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などの処理モジュールである。プロセッサ114は、メモリ106又は他の記憶媒体に記憶されるプログラムを実行することにより、被写体の検出精度をより安価に向上させることを可能とするための機能を動作させる。
(バス)
バス116は、赤外線カメラ102、入力インタフェース104、メモリ106、ディスプレイ108、通信インタフェース110、ストレージ112、及びプロセッサ114を相互に接続する。
[2−2.機能構成]
続いて、図3を参照して、本実施形態に係る画像処理装置1の機能構成について説明する。なお、以下では、各機能構成が行う処理を概要的に説明しており、各機能構成が行う処理の詳細については、後述する各応用例にて、説明する。
図3は、図2に示した画像処理装置1の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図3に示したように、画像処理装置1は、第1検出部41と、第2検出部42と、判定部50と、記憶部60と、を備える。図3に示した第1検出部41及び第2検出部42は、本開示に係る複数の検出部に相当する。なお、本実施形態に係る画像処理装置1は、少なくとも2つの検出部を備えればよく、図3に示した検出部の数は、一例に過ぎない。
(記憶部)
記憶部60は、画像処理装置1が行う各処理において参照されるデータを記憶する。例えば、記憶部60は、第1検出部41及び第2検出部42の各々が行う候補領域の検出処理において用いられる情報を記憶する。また、記憶部60は、判定部50が行う判定処理において用いられるモデリングを記憶する。モデリングは、遠赤外画像に所定の被写体が映っているか否かを判定するために用いられる指標である。また、記憶部60には、赤外線カメラ102によって撮像された各フレームについての遠赤外画像が記憶されてもよい。各機能部は、記憶部60から、赤外線カメラ102によって撮像された遠赤外画像を取得し得る。また、各機能部は、赤外線カメラ102から直接的に遠赤外画像を取得してもよい。また、各機能部は、通信インタフェース110を介して他の装置から遠赤外画像を取得してもよい。
(第1検出部)
第1検出部41は、遠赤外画像から第1設定温度範囲内の温度を示す第1検出領域を検出する。また、第1検出部41は、検出結果を判定部50へ出力する。第1設定温度範囲は、第1検出部41に対応する第1対象物の想定温度に応じた温度範囲である。当該想定温度は、第1対象物の一般的な温度として想定される温度である。また、第1設定温度範囲内の温度を示す上記第1検出領域は、第1対象物が映る候補である第1候補領域に相当する。ゆえに、第1設定温度範囲は、遠赤外画像内において、第1対象物が映っている可能性が比較的高い領域が示す温度の範囲に相当する。このように、第1検出部41は、換言すると、遠赤外画像から第1候補領域を検出する。第1検出部41は、例えば、図3に示したように、第1抽出部41aと、第1スコア算出部41bと、第1スコア比較部41cと、を含む。
第1抽出部41aは、遠赤外画像から部分領域を抽出し、抽出結果を第1スコア算出部41bへ出力する。部分領域は、例えば、矩形であり、所定の寸法を有する。当該所定の寸法は、第1対象物に応じて設定される。具体的には、当該所定の寸法は、遠赤外画像における第1対象物が映る領域の寸法として想定される寸法と略一致する。なお、当該所定の寸法を示す情報は記憶部60に記憶され得る。後述するように、第1検出部41は、部分領域が所定の条件を満たす場合に、当該部分領域を第1候補領域として検出する。ゆえに、第1検出部41は、第1対象物に応じて設定される当該所定の寸法を有する領域を、第1候補領域として、検出することができる。それにより、検出される第1候補領域に第1対象物が映っている可能性をより向上させることができる。また、第1抽出部41aは、例えば、遠赤外画像の全領域を走査するように部分領域の抽出を繰り返す。そして、抽出された各部分領域を示す情報を抽出結果として、第1スコア算出部41bへ出力する。
第1スコア算出部41bは、抽出された部分領域によって示される温度が第1対象物の想定温度である尤度として、スコア値を算出し、算出結果を第1スコア比較部41cへ出力する。第1スコア算出部41bは、具体的には、第1対象物の想定温度と対応する確率密度関数に基づいて、スコア値を算出してもよい。確率密度関数は、部分領域によって示される温度と上記尤度との関係性を規定する。また、確率密度関数として、例えば、中央値が想定温度と一致するガウス分布に従った確率密度関数が用いられ得る。なお、想定温度が幅を有する場合、確率密度関数として、例えば、中央値が想定温度の中央値と一致するガウス分布に従った確率密度関数が用いられ得る。第1スコア算出部41bは、具体的には、部分領域によって示される温度として、当該部分領域内の各画素の画素値に対応する温度の平均値を算出し、確率密度関数において当該平均値と対応する尤度をスコア値として、算出し得る。
なお、確率密度関数又は想定温度を示す情報は、記憶部60に予め記憶され得る。また、第1スコア算出部41bは、想定温度に基づいて、確率密度関数を生成してもよい。また、想定温度が幅を有し、かつ、下限値又は上限値のいずれか一方のみを有する場合、当該確率密度関数として、部分領域によって示される温度が大きい又は小さいほど、上記尤度が大きくなるような関係性を規定する確率密度関数が用いられ得る。
第1スコア比較部41cは、算出されたスコア値と閾値との比較を行う。当該閾値は、赤外線カメラ102における複数の撮像素子間の受光感度のバラツキ等の画像処理装置1の各種設計仕様等に応じて適宜設定され得る。第1検出部41は、スコア値が閾値より高い場合に、対応する部分領域を第1候補領域として検出する。一方、第1検出部41は、スコア値が閾値以下である場合に、対応する部分領域を第1候補領域として検出しない。それにより、第1対象物が映る候補である第1候補領域として、より尤もらしい領域を検出することができる。
第1検出部41は、第1抽出部41aによる部分領域の抽出処理、第1スコア算出部41bによるスコア値の算出処理、及び第1スコア比較部41cによるスコア値と閾値との比較処理が繰り返されることによって、遠赤外画像の全領域について、第1候補領域の検出を行う。
(第2検出部)
第2検出部42は、遠赤外画像から第1設定温度範囲と異なる第2設定温度範囲内の温度を示す第2検出領域を検出する。また、第2検出部42は、検出結果を判定部50へ出力する。第2設定温度範囲は、第2検出部42に対応する第2対象物の想定温度に応じた温度範囲である。なお、第2対象物は、第1対象物と異なる対象物である。当該想定温度は、第2対象物の一般的な温度として想定される温度である。また、第2設定温度範囲内の温度を示す上記第2検出領域は、第2対象物が映る候補である第2候補領域に相当する。ゆえに、第2設定温度範囲は、遠赤外画像内のある領域に第2対象物が映っている可能性が比較的高いか否かを判定し得る温度範囲である。このように、第2検出部42は、換言すると、遠赤外画像から第2候補領域を検出する。第2検出部42は、例えば、図3に示したように、第2抽出部42aと、第2スコア算出部42bと、第2スコア比較部42cと、を含む。
第2検出部42における第2抽出部42a、第2スコア算出部42b、及び第2スコア比較部42cは、第1検出部41における第1抽出部41a、第1スコア算出部41b、及び第1スコア比較部41cとそれぞれ対応し、同様の処理を実行し得る。具体的には、第2抽出部42aは、遠赤外画像から部分領域を抽出し、抽出結果を第2スコア算出部42bへ出力する。第2スコア算出部42bは、抽出された部分領域によって示される温度が第2対象物の想定温度である尤度として、スコア値を算出し、算出結果を第2スコア比較部42cへ出力する。第2スコア比較部42cは、算出されたスコア値と閾値との比較を行う。第2検出部42は、スコア値が閾値より高い場合に、対応する部分領域を第2候補領域として検出する。一方、第2検出部42は、スコア値が閾値以下である場合に、対応する部分領域を第2候補領域として検出しない。
なお、第2抽出部42aが行う部分領域の抽出処理における、当該部分領域の寸法は、第2対象物に応じて設定され得る。また、第2スコア算出部42bが行うスコア値の算出処理において用いられる確率密度関数は、第2対象物の想定温度と対応し得る。また、第2スコア比較部42cが行う比較処理において用いられる閾値は、第1スコア比較部41cが用いる閾値と一致してもよく、異なってもよい。
(判定部)
判定部50は、検出された複数の検出領域間の位置関係と、モデリングとに基づいて、遠赤外画像に所定の被写体が映っているか否かを判定する。当該モデリングは、上述したように、遠赤外画像に所定の被写体が映っているか否かを判定するために用いられる指標である。具体的には、当該モデリングは、遠赤外画像において所定の被写体が映る場合における上記複数の検出領域間の位置関係を規定する。
具体的には、判定部50は、第1検出部41によって検出された第1候補領域、及び第2検出部42によって検出された第2候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像に所定の被写体が映っているか否かを判定する。ここで、第1対象物及び第2対象物は、当該所定の被写体と対応して存在し、所定の位置関係を有する。例えば、第1対象物又は第2対象物は、当該所定の被写体における各部位であってもよい。また、第1対象物又は第2対象物は、当該所定の被写体と異なる物体であってもよい。モデリングは、当該所定の被写体について想定されるこのような各対象物間の所定の位置関係を、遠赤外画像において当該所定の被写体が映る場合における各候補領域間の位置関係として、規定する。
より具体的には、判定部50は、各候補領域間の位置関係がモデリングによって規定される位置関係と略一致する場合に、各候補領域間の位置関係は妥当であると判定する。そして、判定部50は、各候補領域間の位置関係は妥当であると判定したことをもって、遠赤外画像に所定の被写体が映っていると判定する。
このように、本実施形態では、互いに異なる設定温度範囲内の温度を示す複数の検出領域間の位置関係と、モデリングとに基づいて、遠赤外画像に所定の被写体が映っているか否かが判定される。ゆえに、遠赤外画像に所定の被写体が映っているか否かの判定において、より尤もらしい判定結果を得ることができる。よって、赤外線カメラ102と異なる他のデバイスを利用することなく、被写体の検出精度を向上させることができる。従って、被写体の検出精度をより安価に向上させることが可能となる。
また、判定部50は、判定結果を出力してもよい。例えば、判定部50は、判定結果を記憶部60へ出力することによって、登録してもよい。また、判定部50は、判定結果をディスプレイ108へ出力することにより、報知してもよい。また、判定部50は、判定結果を、通信インタフェース110を介して、外部の装置へ出力してもよい。
また、判定部50は、第1検出部41及び第2検出部42から出力される検出結果に応じて、遠赤外画像に所定の被写体が映っているか否かを判定する判定処理を実行するか否かを決定してもよい。例えば、判定部50は、第1候補領域及び第2候補領域の双方が検出された場合に、判定処理を実行してもよい。一方、判定部50は、第1候補領域及び第2候補領域のうち少なくとも一方が検出されなかった場合には、判定処理を実行しなくてもよい。
[2−3.動作]
続いて、図4及び図5を参照して、本実施形態に係る画像処理装置1が行う処理の流れについて説明する。図4は、本実施形態に係る画像処理装置1が行う処理の流れの一例を示すフローチャートである。図4に示した処理は、例えば、各フレームについて、実行され得る。
図4に示したように、まず、画像処理装置1は、遠赤外画像の撮像を行う(ステップS501)。次に、第1検出部41は、撮像された遠赤外画像から第1候補領域を検出する検出処理を実行し(ステップS510)、検出結果を判定部50へ出力する。そして、判定部50は、第1候補領域が検出されたか否かを判断する(ステップS503)。第1候補領域が検出されたと判断されなかった場合(ステップS503/NO)、ステップS501の処理へ戻る。
一方、第1候補領域が検出されたと判断された場合(ステップS503/YES)、判定部50から第2検出部42へ判断結果が出力され、第2検出部42は、第2候補領域を検出する検出処理を実行し(ステップS530)、検出結果を判定部50へ出力する。そして、判定部50は、第2候補領域が検出されたか否かを判断する(ステップS505)。第2候補領域が検出されたと判断されなかった場合(ステップS505/NO)、ステップS501の処理へ戻る。
一方、第2候補領域が検出されたと判断された場合(ステップS505/YES)、判定部50は、各候補領域間の位置関係が妥当であるか否かを判定する(ステップS507)。各候補領域間の位置関係がモデリングによって規定される位置関係と略一致しない場合には、各候補領域間の位置関係は妥当であると判定されず(ステップS507/NO)、ステップS501の処理へ戻る。一方、各候補領域間の位置関係がモデリングによって規定される位置関係と略一致する場合には、各候補領域間の位置関係は妥当であると判定され(ステップS507/YES)、判定部50は、判定結果を記憶部60へ登録し(ステップS509)、図4に示した処理は終了する。
続いて、図5を参照して、本実施形態に係る画像処理装置1が行う各候補領域の検出処理(図4に示したステップS510,S530)について、より詳細に説明する。図5は、本実施形態に係る画像処理装置1が行う各候補領域の検出処理の流れの一例を示すフローチャートである。
図5に示したように、まず、第1抽出部41a(第2抽出部42a)は、遠赤外画像から部分領域を抽出し(ステップS511(ステップS531))、抽出結果を第1スコア算出部41b(第2スコア算出部42b)へ出力する。次に、第1スコア算出部41b(第2スコア算出部42b)は、抽出された部分領域についてのスコア値を算出し(ステップS513(ステップS533))、算出結果を第1スコア比較部41c(第2スコア比較部42c)へ出力する。次に、第1スコア比較部41c(第2スコア比較部42c)は、算出されたスコア値と閾値との比較を行う(ステップS515(ステップS535))。そして、第1検出部41(第2検出部42)は、遠赤外画像の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS517(ステップS537))。遠赤外画像の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS517/NO(ステップS537/NO))、ステップS511(ステップS531)の処理へ戻る。一方、遠赤外画像の全領域について、部分領域の抽出が終了したと判定された場合(ステップS517/YES(ステップS537/YES))、図5に示した処理は終了する。
<3.応用例>
続いて、上記で説明した本開示に係る技術を各種被写体の検出に適用した各種応用例について説明する。
[3−1.第1の応用例]
まず、図6〜図14を参照して、第1の応用例に係る画像処理装置10について説明する。第1の応用例は、本開示に係る技術を被写体としての人体の検出に適用した例である。第1の応用例に係る画像処理装置10は、遠赤外画像に所定の被写体として人体が映っているか否かを判定する。
(機能構成)
まず、図6を参照して、第1の応用例に係る画像処理装置10の機能構成について説明する。第1の応用例に係る画像処理装置10のハードウェア構成は、図2を参照して説明した画像処理装置1のハードウェア構成と同様であってもよい。図6は、そのような画像処理装置10の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。
図6に示したように、画像処理装置10は、顔検出部141と、胴体検出部142と、目検出部143と、眼鏡検出部144と、頭髪検出部145と、判定部150と、記憶部160と、を備える。第1の応用例における顔検出部141、胴体検出部142、目検出部143、眼鏡検出部144、及び頭髪検出部145は、本開示に係る複数の検出部に相当する。また、第1の応用例における判定部150及び記憶部160は、図3を参照して説明した画像処理装置1の判定部50及び記憶部60とそれぞれ対応する。
記憶部160は、画像処理装置10が行う各処理において参照されるデータを記憶する。例えば、記憶部160は、顔検出部141、胴体検出部142、目検出部143、眼鏡検出部144、及び頭髪検出部145の各々が行う候補領域の検出処理において用いられる情報を記憶する。また、記憶部160は、判定部150が行う判定処理において用いられるモデリングを記憶する。具体的には、記憶部160には、図8に示した後述するデータテーブルD10が記憶され、当該データテーブルD10に各種情報が含まれる。
顔検出部141は、遠赤外画像から人体の顔が映る候補である顔候補領域を、候補領域として、検出する。また、胴体検出部142は、遠赤外画像から人体の胴体が映る候補である胴体候補領域を、候補領域として、検出する。また、目検出部143は、遠赤外画像から人体の目が映る候補である目候補領域を、候補領域として、検出する。また、眼鏡検出部144は、遠赤外画像から人体に装着される眼鏡が映る候補である眼鏡候補領域を、候補領域として、検出する。また、頭髪検出部145は、遠赤外画像から人体の頭髪が映る候補である頭髪候補領域を、候補領域として、検出する。これらの検出部は、遠赤外画像から互いに異なる設定温度範囲内の温度を示す領域を検出する。
ここで、人体の目、人体に装着される眼鏡、及び人体の頭髪は、顔に関連する部分(以下、顔部分とも称する。)に相当する。また、目候補領域、眼鏡候補領域、及び頭髪候補領域は、顔部分が映る候補である顔部分候補領域に相当する。また、目検出部143、眼鏡検出部144、及び頭髪検出部145は、遠赤外画像から顔部分候補領域を候補領域として検出する顔部分検出部に相当する。
第1の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の第1検出部41(第2検出部42)における第1抽出部41a(第2抽出部42a)、第1スコア算出部41b(第2スコア算出部42b)、及び第1スコア比較部41c(第2スコア比較部42c)の機能を有する。具体的には、第1の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の各検出部と同様に、遠赤外画像から部分領域を抽出し、抽出された部分領域についてのスコア値を算出し、算出されたスコア値と閾値との比較を行う。また、第1の応用例に係る各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出し、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。また、第1の応用例に係る各検出部は、検出結果を判定部150へ出力する。
図7は、人体P10が映る遠赤外画像Im10の一例を示す説明図である。図7に示したように、遠赤外画像Im10には、被写体としての2つの人体P10が映っている。また、遠赤外画像Im10において、右側の人体P10について、対象物としての顔C11、胴体C12、眼鏡C14、及び頭髪C15が示されている。また、遠赤外画像Im10において、左側の人体P10について、対象物としての顔C11、胴体C12、目C13、及び頭髪C15が示されている。第1の応用例に係る各検出部は、例えば、このような遠赤外画像Im10について、対象物が映る候補の候補領域を検出し得る。図7に示した遠赤外画像Im10において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。換言すると、当該ハッチングが濃い区域ほど、当該区域によって示される温度が低い区域である。
例えば、各検出部は、遠赤外画像Im10から所定の寸法を有する部分領域を抽出する。具体的には、各検出部は、記憶部160に記憶されるデータテーブルD10を参照することによって、部分領域の寸法を設定し得る。データテーブルD10において、例えば、図8に示したように、各対象物を示す情報と、当該各対象物に応じた寸法を示す情報とが紐付けられている。
具体的には、顔検出部141は、対象物である顔C11に対応する「高さ20〜30cm、幅15〜20cm」という寸法を、部分領域の寸法として、設定する。また、胴体検出部142は、対象物である胴体C12に対応する「高さ50〜100cm、幅30〜60cm」という寸法を、部分領域の寸法として、設定する。また、目検出部143は、対象物である目C13に対応する「幅2〜4cm」という寸法を、部分領域の寸法として、設定する。また、眼鏡検出部144は、対象物である眼鏡C14に対応する「幅15〜20cm、高さ3〜6cm」という寸法を、部分領域の寸法として、設定する。また、頭髪検出部145は、対象物である頭髪C15に対応する「高さ1〜15cm、幅15〜20cm」という寸法を、部分領域の寸法として、設定する。図7では、一例として、顔C11、胴体C12、及び眼鏡C14とそれぞれ対応し、上記のように寸法が設定された部分領域B11、部分領域B12、及び部分領域B14が模式的に示されている。
そして、各検出部は、対象物の想定温度と対応する確率密度関数に基づいて、部分領域についてのスコア値を算出する。具体的には、各検出部は、記憶部160に記憶されるデータテーブルD10を参照することによって、対象物の想定温度と対応する確率密度関数を生成し得る。データテーブルD10において、例えば、図8に示したように、各対象物を示す情報と、当該各対象物の想定温度を示す情報とが紐付けられている。なお、記憶部160に各対象物と対応する確率密度関数を示す情報が記憶されていてもよく、その場合、各検出部は、記憶部160から当該確率密度関数を示す情報を取得し得る。また、図8に示した各対象物の想定温度は、例えば、環境温度が25℃である場合における値である。記憶部160には、環境温度の各々についてデータテーブルが記憶されてもよく、各データテーブルにおける各対象物の想定温度は、対応する環境温度に応じて設定され得る。
具体的には、顔検出部141は、対象物である顔C11の想定温度を「33〜36℃」として、スコア値を算出する。また、胴体検出部142は、対象物である胴体C12の想定温度を「顔温度より2℃低い温度〜顔温度より4℃低い温度」として、スコア値を算出する。また、目検出部143は、対象物である目C13の想定温度を「顔温度より1℃高い温度以上」として、スコア値を算出する。また、眼鏡検出部144は、対象物である眼鏡C14の想定温度を「環境温度より2℃低い温度〜環境温度より2℃高い温度」として、スコア値を算出する。また、頭髪検出部145は、対象物である頭髪C15の想定温度を「顔温度より3℃低い温度〜顔温度より6℃低い温度」として、スコア値を算出する。なお、顔温度として、顔検出部141によって検出された顔候補領域によって示される温度が適用され得る。また、環境温度として、遠赤外画像Im10における所定の位置の領域によって示される温度が適用され得る。当該所定の位置は、遠赤外画像Im10において人体P10に対する背景が映る可能性が比較的高い位置であり、例えば、遠赤外画像Im10における上端部であってもよい。なお、環境温度は、環境の温度を検出可能な温度センサを利用することによって、取得されてもよい。
そして、各検出部は、算出されたスコア値と閾値との比較を行う。スコア値は、例えば、0から1の間の値をとり、スコア値が大きいほど、部分領域によって示される温度が対象物の想定温度である可能性が高くなる。ここで、各検出部は、上述したように、遠赤外画像Im10の全領域を走査するように部分領域の抽出を繰り返す。ゆえに、各検出部は、繰り返し抽出される複数の部分領域と対応する複数のスコア値を算出する。各検出部についての当該複数のスコア値における最大値の組み合わせの例を、図9に示す。図9では、3つの組み合わせ例が示されている。
具体的には、図9に示したように、組み合わせ例11では、顔検出部141、胴体検出部142、目検出部143、眼鏡検出部144、及び頭髪検出部145の各々についてのスコア値の最大値は、「0.7」、「0.8」、「0.6」、「0.1」、及び「0.2」である。また、組み合わせ例12では、顔検出部141、胴体検出部142、目検出部143、眼鏡検出部144、及び頭髪検出部145の各々についてのスコア値の最大値は、「0.7」、「0.8」、「0.1」、「0.7」、及び「0.2」である。また、組み合わせ例13では、顔検出部141、胴体検出部142、目検出部143、眼鏡検出部144、及び頭髪検出部145の各々についてのスコア値の最大値は、「0.7」、「0.8」、「0.1」、「0.1」、及び「0.8」である。
ここで、各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出する。一方、検出部は、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。ゆえに、各検出部についてのスコア値の最大値が閾値より高い場合は、当該各検出部によって、候補領域が検出された場合に相当する。一方、各検出部についてのスコア値の最大値が閾値以下である場合は、当該各検出部によって、候補領域が検出されなかった場合に相当する。
例えば、閾値が0.5に設定されている場合、組み合わせ例11では、顔候補領域、胴体候補領域、及び目候補領域は、顔検出部141、胴体検出部142、及び目検出部143によって、それぞれ検出されており、眼鏡候補領域、及び頭髪候補領域は、眼鏡検出部144、及び頭髪検出部145によって、それぞれ検出されていない。また、組み合わせ例12では、顔候補領域、胴体候補領域、及び眼鏡候補領域は、顔検出部141、胴体検出部142、及び眼鏡検出部144によって、それぞれ検出されており、目候補領域、及び頭髪候補領域は、目検出部143、及び頭髪検出部145によって、それぞれ検出されていない。また、組み合わせ例13では、顔候補領域、胴体候補領域、及び頭髪候補領域は、顔検出部141、胴体検出部142、及び頭髪検出部145によって、それぞれ検出されており、目候補領域、及び眼鏡候補領域は、目検出部143、及び眼鏡検出部144によって、それぞれ検出されていない。
第1の応用例に係る判定部150は、検出された顔候補領域及び胴体候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im10に所定の被写体として人体P10が映っているか否かを判定する。当該モデリングは、遠赤外画像Im10に人体P10が映っているか否かを判定するために用いられる指標である。当該モデリングは、遠赤外画像Im10において人体P10が映る場合における顔候補領域及び胴体候補領域の間の位置関係を規定する。
具体的には、判定部150は、顔候補領域及び胴体候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合に、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定する。そして、判定部150は、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定したことをもって、遠赤外画像Im10に人体P10が映っていると判定する。
より具体的には、判定部150は、記憶部160に記憶されるデータテーブルD10を参照することによって、顔候補領域及び胴体候補領域の間の位置関係が妥当であるか否かを判定し得る。データテーブルD10において、例えば、図8に示したように、各対象物を示す情報と、遠赤外画像Im10において人体P10が映る場合における当該各対象物の他の対象物に対する相対位置を示す情報とが紐付けられている。このような相対位置が、第1の応用例におけるモデリングによって規定される。
具体的には、判定部150は、顔候補領域が胴体候補領域より上方に位置する場合に、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定する。換言すると、判定部150は、胴体候補領域が顔候補領域より下方に位置する場合に、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定する。
このように、第1の応用例では、互いに異なる設定温度範囲内の温度を示す顔候補領域及び胴体候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im10に人体P10が映っているか否かが判定される。ここで、顔C11及び胴体C12は、人体P10と対応して存在し、モデリングによって規定される位置関係を有する。ゆえに、遠赤外画像Im10に人体P10が映っているか否かの判定において、より尤もらしい判定結果を得ることができる。よって、赤外線カメラ102と異なる他のデバイスを利用することなく、被写体としての人体P10の検出精度を向上させることができる。従って、被写体としての人体P10の検出精度をより安価に向上させることが可能となる。
なお、図7に示した遠赤外画像Im10のように、遠赤外画像に被写体としての人体P10が複数映る場合、顔候補領域又は胴体候補領域が複数検出され得る。そのような場合には、判定部150は、例えば、顔候補領域及び胴体候補領域の組み合わせの全てについて、顔候補領域及び胴体候補領域の間の位置関係が妥当であるか否かの判定を実行する。位置関係が妥当であると判定される顔候補領域及び胴体候補領域の組み合わせの数が複数である場合に、判定部150は、遠赤外画像に当該複数の組み合わせの各々に対応する人体P10が映っていると判定し得る。
また、判定部150は、検出された顔候補領域及び顔部分候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im10に所定の被写体として人体P10が映っているか否かを判定してもよい。当該モデリングは、遠赤外画像Im10において人体P10が映る場合における顔候補領域及び顔部分候補領域の間の位置関係を規定する。
具体的には、判定部150は、顔候補領域及び顔部分候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合に、顔候補領域及び顔部分候補領域の間の位置関係は妥当であると判定する。また、判定部150は、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定し、さらに、顔候補領域及び顔部分候補領域の間の位置関係は妥当であると判定したことをもって、遠赤外画像Im10に人体P10が映っていると判定する。例えば、判定部150は、顔候補領域及び胴体候補領域の間の位置関係が妥当であると判定し、かつ、顔候補領域及び顔部分候補領域の間の位置関係のうち少なくとも1つの顔部分についての位置関係が妥当であると判定した場合に、遠赤外画像Im10に人体P10が映っていると判定してもよい。
より具体的には、判定部150は、記憶部160に記憶されるデータテーブルD10を参照することによって、顔候補領域及び顔部分候補領域の間の位置関係が妥当であるか否かを判定し得る。データテーブルD10において、例えば、図8に示したように、対象物としての顔部分の各々を示す情報と、遠赤外画像Im10において人体P10が映る場合における当該各対象物の他の対象物に対する相対位置を示す情報とが紐付けられている。このような相対位置が、第1の応用例におけるモデリングによって規定される。
具体的には、判定部150は、目候補領域が顔候補領域の内部に位置する場合に、顔候補領域及び目候補領域の間の位置関係は妥当であると判定する。また、判定部150は、眼鏡候補領域が顔候補領域の内部に位置する場合に、顔候補領域及び眼鏡候補領域の間の位置関係は妥当であると判定する。また、判定部150は、頭髪候補領域が顔候補領域の上方に隣接する場合に、顔候補領域及び頭髪候補領域の間の位置関係は妥当であると判定する。
ここで、顔C11及び各顔部分は、顔C11と対応して存在し、モデリングによって規定される位置関係を有する。ゆえに、顔候補領域及び顔部分候補領域の間の位置関係が、モデリングに基づいて、妥当であると判定される場合に、遠赤外画像Im10に人体P10が映っていると判定することによって、遠赤外画像Im10に人体P10が映っているか否かの判定において、さらに尤もらしい判定結果を得ることができる。ゆえに、被写体としての人体P10の検出精度をより効果的に向上させることができる。
なお、図7に示した遠赤外画像Im10のように、遠赤外画像に被写体としての人体P10が複数映る場合、上述したように、判定部150は、顔候補領域及び胴体候補領域の複数の組み合わせについて、位置関係が妥当であると判定し得る。そのような場合には、判定部150は、例えば、当該複数の組み合わせの各々について、顔候補領域及び顔部分候補領域の間の位置関係が妥当であるか否かの判定を実行する。
また、判定部150は、判定結果を記憶部160へ出力することによって、登録してもよい。
また、判定部150は、各検出部から出力される検出結果に応じて、遠赤外画像Im10に人体P10が映っているか否かを判定する判定処理を実行するか否かを決定してもよい。
例えば、判定部150は、顔候補領域及び胴体候補領域の双方が検出された場合に、顔候補領域及び胴体候補領域の間の位置関係についての判定処理を実行してもよい。一方、判定部150は、顔候補領域及び胴体候補領域のうち少なくとも一方が検出されなかった場合には、顔候補領域及び胴体候補領域の間の位置関係についての判定処理を実行しなくてもよい。
また、判定部150は、顔候補領域及び胴体候補領域の双方が検出された場合において、顔部分候補領域のうち少なくとも1つが検出された場合に、顔候補領域及び顔部分候補領域の間の位置関係についての判定処理を実行してもよい。一方、判定部150は、顔候補領域及び胴体候補領域のうち少なくとも一方が検出されなかった場合、又は、顔部分候補領域のいずれもが検出されなかった場合に、顔候補領域及び顔部分候補領域の間の位置関係についての判定処理を実行しなくてもよい。
例えば、図9に示した組み合わせ例11〜13の各々では、顔候補領域及び胴体候補領域の双方が検出され、かつ、顔部分候補領域のうち少なくとも1つが検出されているので、判定部150は、顔候補領域及び胴体候補領域の間の位置関係についての判定処理及び顔候補領域及び顔部分候補領域の間の位置関係についての判定処理を実行する。
上記では、部分領域の抽出処理、スコア値の算出処理、及びスコア値と閾値との比較処理を実行することによって、遠赤外画像からの候補領域の検出が実現される例について説明したが、候補領域の検出の具体的な方法は、係る例に限定されない。
例えば、画像処理装置10は、遠赤外画像に対して対象物に応じたテンプレートマッチング等の画像処理を施すことによって、当該遠赤外画像から互いに異なる設定温度範囲内の温度を示す複数の候補領域を検出してもよい。また、画像処理装置10は、事前に学習される予測モデルを用いることによって、遠赤外画像から互いに異なる設定温度範囲内の温度を示す複数の候補領域を検出してもよい。このような予測モデルは、例えば、用意された遠赤外画像と候補領域の検出結果のペアを利用することによって、ブースティング又はサポートベクタマシンといった既存のアルゴリズムに従って、構築され得る。
また、画像処理装置10は、遠赤外画像の各画素について、当該各画素の画素値を、当該各画素によって示される温度が各対象物の想定温度である尤度へ変換し、変換後の画像に対して、テンプレートマッチング等の画像処理を施すことによって、互いに異なる設定温度範囲内の温度を示す複数の候補領域を検出してもよい。具体的には、中央値が各対象物の想定温度と一致するガウス分布に従った確率密度関数を利用することによって、遠赤外画像の各画素の画素値を上記尤度へ変換し得る。なお、想定温度が幅を有する場合、中央値が各対象物の想定温度の中央値と一致するガウス分布に従った確率密度関数が利用され得る。図10では、各画素についての画素値から尤度への変換後の画像Im12が示されている。具体的には、図10に示した画像Im12は、図7に示した遠赤外画像Im10の各画素について、当該各画素の画素値を、当該各画素によって示される温度が対象物としての顔C11の想定温度である尤度へ変換することによって得られる画像である。図10に示した画像Im12において、ハッチングの濃淡は尤度の異同を示す。当該ハッチングが濃い区域ほど、尤度が低い区域である。
(動作)
続いて、図11〜図14を参照して、第1の応用例に係る画像処理装置10が行う処理の流れについて説明する。
まず、図11及び図12を参照して、第1の応用例に係る画像処理装置10が行う処理の流れの第1の例について説明する。図11は、第1の応用例に係る画像処理装置10が行う処理の流れの第1の例を示すフローチャートである。図11に示した処理は、例えば、各フレームについて、実行され得る。
第1の例では、図11に示したように、まず、画像処理装置10は、遠赤外画像Im10の撮像を行う(ステップS601)。次に、顔検出部141は、撮像された遠赤外画像Im10から顔候補領域を検出する検出処理を実行し(ステップS610)、検出結果を判定部150へ出力する。そして、判定部150は、顔候補領域が検出されたか否かを判断する(ステップS603)。顔候補領域が検出されたと判断されなかった場合(ステップS603/NO)、ステップS601の処理へ戻る。
一方、顔候補領域が検出されたと判断された場合(ステップS603/YES)、判定部150から胴体検出部142へ判断結果が出力され、胴体検出部142は、胴体候補領域を検出する検出処理を実行し(ステップS630)、検出結果を判定部150へ出力する。そして、判定部150は、胴体候補領域が検出されたか否かを判断する(ステップS605)。胴体候補領域が検出されたと判断されなかった場合(ステップS605/NO)、ステップS601の処理へ戻る。
一方、胴体候補領域が検出されたと判断された場合(ステップS605/YES)、判定部150は、顔候補領域及び胴体候補領域の間の位置関係が妥当であるか否かを判定する(ステップS607)。顔候補領域及び胴体候補領域の間の位置関係がモデリングによって規定される位置関係と略一致しない場合には、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定されず(ステップS607/NO)、ステップS601の処理へ戻る。一方、顔候補領域及び胴体候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合には、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定され(ステップS607/YES)、判定部150は、判定結果を記憶部160へ登録し(ステップS609)、図11に示した処理は終了する。
続いて、図12を参照して、第1の応用例に係る画像処理装置10が行う顔候補領域及び胴体候補領域の各々の検出処理(図11に示したステップS610,S630)について、より詳細に説明する。図12は、第1の応用例に係る画像処理装置10が行う顔候補領域及び胴体候補領域の各々の検出処理の流れの一例を示すフローチャートである。
図12に示したように、まず、顔検出部141(胴体検出部142)は、遠赤外画像Im10から部分領域を抽出する(ステップS611(ステップS631))。次に、顔検出部141(胴体検出部142)は、抽出された部分領域についてのスコア値を算出する(ステップS613(ステップS633))。次に、顔検出部141(胴体検出部142)は、算出されたスコア値と閾値との比較を行う(ステップS615(ステップS635))。そして、顔検出部141(胴体検出部142)は、遠赤外画像Im10の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS617(ステップS637))。遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS617/NO(ステップS637/NO))、ステップS611(ステップS631)の処理へ戻る。一方、遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定された場合(ステップS617/YES(ステップS637/YES))、図12に示した処理は終了する。
続いて、図13及び図14を参照して、第1の応用例に係る画像処理装置10が行う処理の流れの第2の例について説明する。図13は、第1の応用例に係る画像処理装置10が行う処理の流れの第2の例を示すフローチャートである。第2の例では、図11を参照して説明した第1の例と比較して、顔候補領域及び胴体候補領域の間の位置関係についての判定処理(ステップS607)において、当該位置関係が妥当であると判定された場合(ステップS607/YES)における処理が異なる。以下では、当該位置関係が妥当であると判定された場合(ステップS607/YES)における処理の流れについて、説明する。
第2の例では、図13に示したように、ステップS607の判定処理において、顔候補領域及び胴体候補領域の間の位置関係は妥当であると判定された場合(ステップS607/YES)、判定部150から目検出部143、眼鏡検出部144、及び頭髪検出部145へ判断結果が出力される。そして、目検出部143、眼鏡検出部144、及び頭髪検出部145は、顔部分候補領域を検出する検出処理を実行し(ステップS650)、検出結果を判定部150へ出力する。そして、判定部150は、顔部分候補領域が少なくとも1つ検出されたか否かを判断する(ステップS611)。顔部分候補領域が少なくとも1つ検出されたと判断されなかった場合(ステップS611/NO)、ステップS601の処理へ戻る。
一方、顔部分候補領域が少なくとも1つ検出されたと判断された場合(ステップS611/YES)、判定部150は、顔候補領域及び顔部分候補領域の間の位置関係が妥当であるか否かを判定する(ステップS613)。顔候補領域及び顔部分候補領域の間の位置関係がモデリングによって規定される位置関係と略一致しない場合には、顔候補領域及び顔部分候補領域の間の位置関係は妥当であると判定されず(ステップS613/NO)、ステップS601の処理へ戻る。一方、顔候補領域及び顔部分候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合には、顔候補領域及び顔部分候補領域の間の位置関係は妥当であると判定され(ステップS613/YES)、判定部150は、判定結果を記憶部160へ登録し(ステップS609)、図13に示した処理は終了する。
続いて、図14を参照して、第1の応用例に係る画像処理装置10が行う顔部分候補領域の検出処理(図13に示したステップS650)について、より詳細に説明する。図14は、第1の応用例に係る画像処理装置10が行う顔部分候補領域の検出処理の流れの一例を示すフローチャートである。
図14に示したように、まず、目検出部143は、遠赤外画像Im10から部分領域を抽出する(ステップS651)。次に、目検出部143は、抽出された部分領域についてのスコア値を算出する(ステップS653)。次に、目検出部143は、算出されたスコア値と閾値との比較を行う(ステップS655)。そして、目検出部143は、遠赤外画像Im10の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS657)。遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS657/NO)、ステップS651の処理へ戻る。
一方、遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定された場合(ステップS657/YES)、眼鏡検出部144は、遠赤外画像Im10から部分領域を抽出する(ステップS659)。次に、眼鏡検出部144は、抽出された部分領域についてのスコア値を算出する(ステップS661)。次に、眼鏡検出部144は、算出されたスコア値と閾値との比較を行う(ステップS663)。そして、眼鏡検出部144は、遠赤外画像Im10の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS665)。遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS665/NO)、ステップS659の処理へ戻る。
一方、遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定された場合(ステップS665/YES)、頭髪検出部145は、遠赤外画像Im10から部分領域を抽出する(ステップS667)。次に、頭髪検出部145は、抽出された部分領域についてのスコア値を算出する(ステップS669)。次に、頭髪検出部145は、算出されたスコア値と閾値との比較を行う(ステップS671)。そして、頭髪検出部145は、遠赤外画像Im10の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS673)。遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS673/NO)、ステップS667の処理へ戻る。一方、遠赤外画像Im10の全領域について、部分領域の抽出が終了したと判定された場合(ステップS673/YES)、図14に示した処理は終了する。
上記では、目検出部143、眼鏡検出部144、及び頭髪検出部145がこの順に各候補領域についての検出処理を行う例について説明したが、各検出部による検出処理の順序は係る例に限定されない。また、各検出部による検出処理は、並列的に実行されてもよい。
[3−2.第2の応用例]
続いて、図15〜図20を参照して、第2の応用例に係る画像処理装置20について説明する。第2の応用例は、本開示に係る技術を被写体としての車両の検出に適用した例である。第2の応用例に係る画像処理装置20は、遠赤外画像に所定の被写体として車両が映っているか否かを判定する。
(機能構成)
まず、図15を参照して、第2の応用例に係る画像処理装置20の機能構成について説明する。第2の応用例に係る画像処理装置20のハードウェア構成は、図2を参照して説明した画像処理装置1のハードウェア構成と同様であってもよい。図15は、そのような画像処理装置20の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。
図15に示したように、画像処理装置20は、マフラー検出部241と、通過部検出部242と、非通過部検出部243と、判定部250と、記憶部260と、を備える。第2の応用例におけるマフラー検出部241、通過部検出部242、及び非通過部検出部243は、本開示に係る複数の検出部に相当する。また、第2の応用例における判定部250及び記憶部260は、図3を参照して説明した画像処理装置1の判定部50及び記憶部60とそれぞれ対応する。
記憶部260は、画像処理装置20が行う各処理において参照されるデータを記憶する。例えば、記憶部260は、マフラー検出部241、通過部検出部242、及び非通過部検出部243の各々が行う候補領域の検出処理において用いられる情報を記憶する。また、記憶部260は、判定部250が行う判定処理において用いられるモデリングを記憶する。具体的には、記憶部260には、図17に示した後述するデータテーブルD20が記憶され、当該データテーブルD20に各種情報が含まれる。
マフラー検出部241は、遠赤外画像から車両のマフラーが映る候補であるマフラー候補領域を、候補領域として、検出する。また、通過部検出部242は、遠赤外画像から路面上において車両の車輪が通過した部分が映る候補である通過部候補領域を、候補領域として、検出する。また、非通過部検出部243は、遠赤外画像から路面上において車両の車輪が通過していない部分が映る候補である非通過部候補領域を、候補領域として、検出する。これらの検出部は、遠赤外画像から互いに異なる設定温度範囲内の温度を示す領域を検出する。
第2の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の第1検出部41(第2検出部42)における第1抽出部41a(第2抽出部42a)、第1スコア算出部41b(第2スコア算出部42b)、及び第1スコア比較部41c(第2スコア比較部42c)の機能を有する。具体的には、第2の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の各検出部と同様に、遠赤外画像から部分領域を抽出し、抽出された部分領域についてのスコア値を算出し、算出されたスコア値と閾値との比較を行う。また、第2の応用例に係る各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出し、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。また、第2の応用例に係る各検出部は、検出結果を判定部250へ出力する。
図16は、車両P20が映る遠赤外画像Im20の一例を示す説明図である。図16に示したように、遠赤外画像Im20には、路面上を走行する被写体としての車両P20が映っている。第2の応用例に係る画像処理装置20は、例えば、車両P20の後続車に搭載されており、当該後続車における前方側に赤外線カメラ102が設けられ得る。画像処理装置20では、主に赤外線カメラ102が設けられる車両の直前方の車両P20が検出対象の被写体となる。また、遠赤外画像Im20において、対象物として、車両P20のマフラーC21、路面上において車両の車輪が通過した部分である通過部C22、及び路面上において車両の車輪が通過していない部分である非通過部C23が示されている。第2の応用例に係る各検出部は、例えば、このような遠赤外画像Im20について、対象物が映る候補の候補領域を検出し得る。なお、図16に示したように、遠赤外画像Im20には、例えば、路面の比較的前方に位置する車両群E21、路面の両脇側に位置する林E22、上方に位置する空E23が映っている。図16に示した遠赤外画像において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。換言すると、当該ハッチングが濃い区域ほど、当該区域によって示される温度が低い区域である。
例えば、各検出部は、遠赤外画像Im20から所定の寸法を有する部分領域を抽出する。具体的には、各検出部は、記憶部260に記憶されるデータテーブルD20を参照することによって、部分領域の寸法を設定し得る。データテーブルD20において、例えば、図17に示したように、各対象物を示す情報と、当該各対象物に応じた寸法を示す情報とが紐付けられている。
具体的には、マフラー検出部241は、対象物であるマフラーC21に対応する「直径6〜10cm」という寸法を、部分領域の寸法として、設定する。また、通過部検出部242は、対象物である通過部C22に対応する「線幅15〜25cm、線間隔1.5〜2.5m」という寸法を、部分領域の寸法として、設定する。また、非通過部検出部243は、対象物である非通過部C23について、任意の寸法(例えば幅50cm)を、部分領域の寸法として、設定する。
そして、各検出部は、対象物の想定温度と対応する確率密度関数に基づいて、部分領域についてのスコア値を算出する。具体的には、各検出部は、記憶部260に記憶されるデータテーブルD20を参照することによって、対象物の想定温度と対応する確率密度関数を生成し得る。データテーブルD20において、例えば、図17に示したように、各対象物を示す情報と、当該各対象物の想定温度を示す情報とが紐付けられている。なお、記憶部260に各対象物と対応する確率密度関数を示す情報が記憶されていてもよく、その場合、各検出部は、記憶部260から当該確率密度関数を示す情報を取得し得る。また、図17に示した各対象物の想定温度は、例えば、環境温度が25℃である場合における値である。記憶部260には、環境温度の各々についてデータテーブルが記憶されてもよく、各データテーブルにおける各対象物の想定温度は、対応する環境温度に応じて設定され得る。
具体的には、マフラー検出部241は、対象物であるマフラーC21の想定温度を「100℃以上」として、スコア値を算出する。また、通過部検出部242は、対象物である通過部C22の想定温度を「非通過部温度より10℃高い温度以上」として、スコア値を算出する。また、非通過部検出部243は、対象物である非通過部C23の想定温度を「20℃〜30℃」として、スコア値を算出する。なお、非通過部温度として、非通過部検出部243によって検出された非通過部候補領域によって示される温度が適用され得る。このように、通過部C22の温度は、非通過部C23と比較して、高いことが想定される。
そして、各検出部は、算出されたスコア値と閾値との比較を行う。スコア値は、例えば、0から1の間の値をとり、スコア値が大きいほど、部分領域によって示される温度が対象物の想定温度である可能性が高くなる。ここで、各検出部は、上述したように、遠赤外画像Im20の全領域を走査するように部分領域の抽出を繰り返す。ゆえに、各検出部は、繰り返し抽出される複数の部分領域と対応する複数のスコア値を算出する。なお、非通過部検出部243は、遠赤外画像Im20における所定の位置についてのみ部分領域の抽出を行ってもよい。当該所定の位置は、遠赤外画像Im20において非通過部が映る可能性が比較的高い位置であり、例えば、遠赤外画像Im20における下端部であってもよい。その場合、非通過部検出部243は、所定の位置について抽出される部分領域と対応する1つのスコア値を算出する。各検出部についての当該複数のスコア値における最大値の組み合わせの例を、図18に示す。
具体的には、図18に示したように、組み合わせ例21では、マフラー検出部241、通過部検出部242、及び非通過部検出部243の各々についてのスコア値の最大値は、「0.9」、「0.6」、及び「0.8」である。
ここで、各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出する。一方、検出部は、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。ゆえに、各検出部についてのスコア値の最大値が閾値より高い場合は、各検出部によって、候補領域が検出された場合に相当する。一方、各検出部についてのスコア値の最大値が閾値以下である場合は、各検出部によって、候補領域が検出されなかった場合に相当する。
例えば、閾値が0.5に設定されている場合、組み合わせ例21では、マフラー候補領域、通過部候補領域、及び非通過部候補領域は、マフラー検出部241、通過部検出部242、及び非通過部検出部243によって、それぞれ検出されている。
第2の応用例に係る判定部250は、検出されたマフラー候補領域及び通過部候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im20に所定の被写体として車両P20が映っているか否かを判定する。当該モデリングは、遠赤外画像Im20に車両P20が映っているか否かを判定するために用いられる指標である。当該モデリングは、遠赤外画像Im20において車両P20が映る場合におけるマフラー候補領域及び通過部候補領域の間の位置関係を規定する。
具体的には、判定部250は、マフラー候補領域及び通過部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合に、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定する。そして、判定部250は、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定したことをもって、遠赤外画像Im20に車両P20が映っていると判定する。
より具体的には、判定部250は、記憶部260に記憶されるデータテーブルD20を参照することによって、マフラー候補領域及び通過部候補領域の間の位置関係が妥当であるか否かを判定し得る。データテーブルD20において、例えば、図17に示したように、各対象物を示す情報と、遠赤外画像Im20において車両P20が映る場合における当該各対象物の他の対象物に対する相対位置を示す情報とが紐付けられている。このような相対位置が、第2の応用例におけるモデリングによって規定される。なお、非通過部候補領域は、基本的に通過部C22の想定温度を算出するために検出されるので、非通過部C23の他の対象物に対する相対位置は、図17に示したように、データテーブルD20において、規定されていなくともよい。
具体的には、判定部250は、マフラー候補領域が通過部候補領域より上方に位置する場合に、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定する。換言すると、判定部250は、通過部候補領域がマフラー候補領域より下方に位置する場合に、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定する。
このように、第2の応用例では、互いに異なる設定温度範囲内の温度を示すマフラー候補領域及び通過部候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im20に車両P20が映っているか否かが判定される。ここで、マフラーC21及び通過部C22は、車両P20と対応して存在し、モデリングによって規定される位置関係を有する。ゆえに、遠赤外画像Im20に車両P20が映っているか否かの判定において、より尤もらしい判定結果を得ることができる。よって、赤外線カメラ102と異なる他のデバイスを利用することなく、被写体としての車両P20の検出精度を向上させることができる。従って、被写体としての車両P20の検出精度をより安価に向上させることが可能となる。
なお、遠赤外画像に被写体としての車両P20が複数映る場合、マフラー候補領域又は通過部候補領域が複数検出され得る。そのような場合には、判定部250は、例えば、マフラー候補領域及び通過部候補領域の組み合わせの全てについて、マフラー候補領域及び通過部候補領域の間の位置関係が妥当であるか否かの判定を実行する。位置関係が妥当であると判定されるマフラー候補領域及び通過部候補領域の組み合わせの数が複数である場合に、判定部250は、遠赤外画像に当該複数の組み合わせの各々に対応する車両P20が映っていると判定し得る。
また、判定部250は、判定結果を記憶部260へ出力することによって、登録してもよい。
また、判定部250は、各検出部から出力される検出結果に応じて、遠赤外画像Im20に車両P20が映っているか否かを判定する判定処理を実行するか否かを決定してもよい。
例えば、判定部250は、マフラー候補領域、通過部候補領域、及び非通過部候補領域のいずれもが検出された場合に、マフラー候補領域及び通過部候補領域の間の位置関係についての判定処理を実行してもよい。一方、判定部250は、マフラー候補領域、通過部候補領域、及び非通過部候補領域のうち少なくとも一方が検出されなかった場合には、マフラー候補領域及び通過部候補領域の間の位置関係についての判定処理を実行しなくてもよい。
例えば、図18に示した組み合わせ例21では、マフラー候補領域、通過部候補領域、及び非通過部候補領域のいずれもが検出されているので、判定部250は、マフラー候補領域及び通過部候補領域の間の位置関係についての判定処理を実行する。
上記では、部分領域の抽出処理、スコア値の算出処理、及びスコア値と閾値との比較処理を実行することによって、遠赤外画像からの候補領域の検出が実現される例について説明したが、候補領域の検出の具体的な方法は、第1の応用例と同様に、係る例に限定されない。例えば、第2の応用例では、円又は楕円形状をマフラーC21の形状として、テンプレートマッチングを実行することによって、マフラー候補領域を検出することが考えられる。また、下側へ向かうにつれて互いに遠ざかるように傾斜する左右一対の線分形状を通過部C22の形状として、テンプレートマッチングを実行することによって、通過部候補領域を検出することが考えられる。
また、上記では、マフラー候補領域及び通過部候補領域を検出し、マフラー候補領域及び通過部候補領域の間の位置関係と、モデリングとに基づいて、車両P20の検出が行われる例について説明したが、車両P20の検出は、他の対象物についての候補領域を検出することによっても実現され得る。例えば、対象物としての車両P20のバックライト又はタイヤについての候補領域を検出し、当該候補領域と他の候補領域との間の位置関係と、モデリングとに基づいて、車両P20の検出が行われ得る。このような候補領域の組み合わせとして、例えば、バックライトについての候補領域であるバックライト候補領域及びタイヤについての候補領域であるタイヤ候補領域の組み合わせや、タイヤ候補領域及び通過部候補領域の組み合わせ等の種々の組み合わせが適用され得る。なお、バックライトの想定温度として、バックライトの種類(例えば、ハロゲンライトやLED(light emitting diode)等)に応じた温度を示す情報が記憶部260に記憶され得る。
(動作)
続いて、図19及び図20を参照して、第2の応用例に係る画像処理装置20が行う処理の流れについて説明する。図19は、第2の応用例に係る画像処理装置20が行う処理の流れの一例を示すフローチャートである。図19に示した処理は、例えば、各フレームについて、実行され得る。
図19に示したように、まず、画像処理装置20は、遠赤外画像Im20の撮像を行う(ステップS701)。次に、非通過部検出部243は、撮像された遠赤外画像Im20から非通過部候補領域を検出する検出処理を実行し(ステップS710)、検出結果を判定部250へ出力する。そして、判定部250は、非通過部候補領域が検出されたか否かを判断する(ステップS703)。非通過部候補領域が検出されたと判断されなかった場合(ステップS703/NO)、ステップS701の処理へ戻る。
一方、非通過部候補領域が検出されたと判断された場合(ステップS703/YES)、判定部250から通過部検出部242へ判断結果が出力され、通過部検出部242は、通過部候補領域を検出する検出処理を実行し(ステップS730)、検出結果を判定部250へ出力する。そして、判定部250は、通過部候補領域が検出されたか否かを判断する(ステップS705)。通過部候補領域が検出されたと判断されなかった場合(ステップS705/NO)、ステップS701の処理へ戻る。
一方、通過部候補領域が検出されたと判断された場合(ステップS705/YES)、判定部250からマフラー検出部241へ判断結果が出力され、マフラー検出部241は、マフラー候補領域を検出する検出処理を実行し(ステップS750)、検出結果を判定部250へ出力する。そして、判定部250は、マフラー候補領域が検出されたか否かを判断する(ステップS707)。マフラー候補領域が検出されたと判断されなかった場合(ステップS707/NO)、ステップS701の処理へ戻る。
一方、マフラー候補領域が検出されたと判断された場合(ステップS707/YES)、判定部250は、マフラー候補領域及び通過部候補領域の間の位置関係が妥当であるか否かを判定する(ステップS709)。マフラー候補領域及び通過部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致しない場合には、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定されず(ステップS709/NO)、ステップS701の処理へ戻る。一方、マフラー候補領域及び通過部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合には、マフラー候補領域及び通過部候補領域の間の位置関係は妥当であると判定され(ステップS709/YES)、判定部250は、判定結果を記憶部260へ登録し(ステップS711)、図19に示した処理は終了する。
なお、通過部候補領域についての検出処理(ステップS730)及びマフラー候補領域についての検出処理(ステップS750)の順序は係る例に限定されない。また、通過部候補領域についての検出処理(ステップS730)及びマフラー候補領域についての検出処理(ステップS750)は、並列的に実行されてもよい。
続いて、図20を参照して、第2の応用例に係る画像処理装置20が行う非通過部顔候補領域、通過部候補領域、及びマフラー候補領域の各々の検出処理(図19に示したステップS710,S730,S750)について、より詳細に説明する。図20は、第2の応用例に係る画像処理装置20が行う非通過部顔候補領域、通過部候補領域、及びマフラー候補領域の各々の検出処理の流れの一例を示すフローチャートである。
図20に示したように、まず、非通過部検出部243(通過部検出部242、マフラー検出部241)は、遠赤外画像Im20から部分領域を抽出する(ステップS711(ステップS731,S751))。次に、非通過部検出部243(通過部検出部242、マフラー検出部241)は、抽出された部分領域についてのスコア値を算出する(ステップS713(ステップS733,S753))。次に、非通過部検出部243(通過部検出部242、マフラー検出部241)は、算出されたスコア値と閾値との比較を行う(ステップS715(ステップS735,S755))。そして、非通過部検出部243(通過部検出部242、マフラー検出部241)は、遠赤外画像Im20の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS717(ステップS737,S757))。遠赤外画像Im20の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS717/NO(ステップS737/NO,S757/NO))、ステップS711(ステップS731,S735)の処理へ戻る。一方、遠赤外画像Im20の全領域について、部分領域の抽出が終了したと判定された場合(ステップS717/YES(ステップS737/YES,S757/YES))、図20に示した処理は終了する。
なお、上述したように、非通過部検出部243は、遠赤外画像Im20における所定の位置についてのみ部分領域の抽出を行ってもよい。その場合、非通過部検出部243による非通過部候補領域についての検出処理の流れから、遠赤外画像Im20の全領域について、部分領域の抽出が終了したか否かの判定処理(ステップS717)は省略される。
[3−3.第3の応用例]
続いて、図21〜図27を参照して、第3の応用例に係る画像処理装置30について説明する。第3の応用例は、本開示に係る技術を被写体としての患者の開腹部における異常状態の患部である異常部の検出に適用した例である。なお、開腹部は、切開部の一例であり、本開示に係る技術は、例えば、被写体としての患者の開胸部における異常状態の患部である異常部の検出にも適用され得る。第3の応用例に係る画像処理装置30は、遠赤外画像に所定の被写体として異常部が映っているか否かを判定する。
(機能構成)
まず、図21を参照して、第3の応用例に係る画像処理装置30の機能構成について説明する。第3の応用例に係る画像処理装置30のハードウェア構成は、図2を参照して説明した画像処理装置1のハードウェア構成と同様であってもよい。図21は、そのような画像処理装置30の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。
図21に示したように、画像処理装置30は、体表検出部341と、開腹部検出部342と、異常部検出部343と、判定部350と、記憶部360と、を備える。第3の応用例における体表検出部341、開腹部検出部342、及び異常部検出部343は、本開示に係る複数の検出部に相当する。また、第3の応用例における判定部350及び記憶部360は、図3を参照して説明した画像処理装置1の判定部50及び記憶部60とそれぞれ対応する。
記憶部360は、画像処理装置30が行う各処理において参照されるデータを記憶する。例えば、記憶部360は、体表検出部341、開腹部検出部342、及び異常部検出部343の各々が行う候補領域の検出処理において用いられる情報を記憶する。また、記憶部360は、判定部350が行う判定処理において用いられるモデリングを記憶する。具体的には、記憶部360には、図24に示した後述するデータテーブルD30が記憶され、当該データテーブルD30に各種情報が含まれる。
体表検出部341は、遠赤外画像から患者の体表が映る候補である体表候補領域を、候補領域として、検出する。また、開腹部検出部342は、遠赤外画像から患者の開腹部が映る候補である開腹部候補領域を、候補領域として、検出する。また、異常部検出部343は、遠赤外画像から開腹部における異常部が映る候補である異常部候補領域を、候補領域として、検出する。これらの検出部は、遠赤外画像から互いに異なる設定温度範囲内の温度を示す領域を検出する。
ここで、開腹部は、上述したように、切開部の一例である。また、開腹部候補領域は、切開部が映る候補である切開部候補領域に相当する。また、開腹部検出部342は、遠赤外画像から切開部候補領域を候補領域として検出する切開部検出部に相当する。
第3の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の第1検出部41(第2検出部42)における第1抽出部41a(第2抽出部42a)、第1スコア算出部41b(第2スコア算出部42b)、及び第1スコア比較部41c(第2スコア比較部42c)の機能を有する。具体的には、第3の応用例に係る各検出部は、図3を参照して説明した画像処理装置1の各検出部と同様に、遠赤外画像から部分領域を抽出し、抽出された部分領域についてのスコア値を算出し、算出されたスコア値と閾値との比較を行う。また、第3の応用例に係る各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出し、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。また、第3の応用例に係る各検出部は、検出結果を判定部350へ出力する。
第3の応用例に係る画像処理装置30は、患者の微細部位を拡大観察しながら行う、いわゆるマイクロサージェリーに用いられる顕微鏡装置に適用される。図22は、顕微鏡装置31を用いた手術の様子を示す説明図である。図22では、手術において、患者ベッド33上の患者37の術部を顕微鏡装置31が撮像している様子が概略的に示されている。患者37の術部を除く部分は、不織布35によって覆われている。また、図22に示したように、顕微鏡装置31の先端には、カメラ31aが設けられており、当該カメラ31aが患者37の術部を撮像する。顕微鏡装置31は、複数の回動自在なアーム部を含み、当該複数のアーム部を適宜回動させることによって、カメラ31aの位置及び姿勢を調整することができる。顕微鏡装置31は、図示しない表示装置と接続されており、当該表示装置へ術部の画像が映され、術者が当該画像を確認しながら手術を行うことができる。顕微鏡装置31には図示しない制御装置を含む。第3の応用例に係る画像処理装置30は、例えば、このような顕微鏡装置31に適用され得る。その場合、カメラ31aが赤外線カメラ102に相当する。
図23は、患者の開腹部C32における異常部P30が映る遠赤外画像Im30の一例を示す説明図である。図23に示したように、遠赤外画像Im30には、被写体としての異常部P30が映っている。また、遠赤外画像Im30において、対象物として、患者の体表C31及び当該患者の開腹部C32が示されている。また、開腹部C32における異常部P30は、検出対象の被写体に相当するとともに、異常部検出部343による候補領域の検出における対象物にも相当する。第3の応用例に係る各検出部は、例えば、このような遠赤外画像Im30について、対象物が映る候補の候補領域を検出し得る。なお、図23に示したように、遠赤外画像Im30には、例えば、開腹部C32の縁部を支持する鉗子等の器具E31が複数映っている。図23に示した遠赤外画像において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。換言すると、当該ハッチングが濃い区域ほど、当該区域によって示される温度が低い区域である。
例えば、各検出部は、遠赤外画像Im30から所定の寸法を有する部分領域を抽出する。具体的には、各検出部は、記憶部360に記憶されるデータテーブルD30を参照することによって、部分領域の寸法を設定し得る。データテーブルD30において、例えば、図24に示したように、各対象物を示す情報と、当該各対象物に応じた寸法を示す情報とが紐付けられている。
具体的には、体表検出部341は、対象物である体表C31について、画像全体を、部分領域の寸法として、設定する。また、開腹部検出部342は、対象物である開腹部C32に対応する「直径10〜30cm」という寸法を、部分領域の寸法として、設定する。また、異常部検出部343は、対象物である異常部P30に対応する「直径1〜5cm」という寸法を、部分領域の寸法として、設定する。
そして、各検出部は、対象物の想定温度と対応する確率密度関数に基づいて、部分領域についてのスコア値を算出する。具体的には、各検出部は、記憶部360に記憶されるデータテーブルD30を参照することによって、対象物の想定温度と対応する確率密度関数を生成し得る。データテーブルD30において、例えば、図24に示したように、各対象物を示す情報と、当該各対象物の想定温度を示す情報とが紐付けられている。なお、記憶部360に各対象物と対応する確率密度関数を示す情報が記憶されていてもよく、その場合、各検出部は、記憶部360から当該確率密度関数を示す情報を取得し得る。また、記憶部360には、第1の応用例及び第2の応用例と同様に、環境温度の各々についてデータテーブルが記憶されてもよく、各データテーブルにおける各対象物の想定温度は、対応する環境温度に応じて設定され得る。
具体的には、体表検出部341は、対象物である体表C31の想定温度を「35℃」として、スコア値を算出する。また、開腹部検出部342は、対象物である開腹部C32の想定温度を「37℃」として、スコア値を算出する。また、異常部検出部343は、対象物である異常部P30の想定温度を「39℃」として、スコア値を算出する。異常部P30では、腫れや出血が生じている場合があるので、異常部P30の温度は、このように、開腹部C32と比較して、高いことが想定される。
そして、各検出部は、算出されたスコア値と閾値との比較を行う。スコア値は、例えば、0から1の間の値をとり、スコア値が大きいほど、部分領域によって示される温度が対象物の想定温度である可能性が高くなる。ここで、各検出部は、上述したように、遠赤外画像Im30の全領域を走査するように部分領域の抽出を繰り返す。ゆえに、開腹部検出部342及び異常部検出部343は、繰り返し抽出される複数の部分領域と対応する複数のスコア値を算出する。なお、体表検出部341は、上述したように、画像全体を部分領域の寸法として設定した場合、遠赤外画像Im30についての部分領域の抽出を複数回行わない。開腹部検出部342及び異常部検出部343についての当該複数のスコア値における最大値と、体表検出部341についてのスコア値の組み合わせの例を、図25に示す。
具体的には、図25に示したように、組み合わせ例31では、開腹部検出部342及び異常部検出部343の各々についてのスコア値の最大値は、「1.0」及び「1.0」であり、体表検出部341についてのスコア値は、「0.8」である。
ここで、各検出部は、スコア値が閾値より高い場合に、対応する部分領域を候補領域として検出する。一方、検出部は、スコア値が閾値以下である場合に、対応する部分領域を候補領域として検出しない。ゆえに、開腹部検出部342及び異常部検出部343の各々についてのスコア値の最大値が閾値より高い場合は、開腹部検出部342及び異常部検出部343の各々によって、候補領域が検出された場合に相当する。一方、開腹部検出部342及び異常部検出部343の各々についてのスコア値の最大値が閾値以下である場合は、開腹部検出部342及び異常部検出部343の各々によって、候補領域が検出されなかった場合に相当する。
例えば、閾値が0.5に設定されている場合、組み合わせ例31では、体表候補領域、開腹部候補領域、及び異常部候補領域は、体表検出部341、開腹部検出部342、及び異常部検出部343によって、それぞれ検出されている。
第3の応用例に係る判定部350は、検出された体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im30に所定の被写体として異常部P30が映っているか否かを判定する。当該モデリングは、遠赤外画像Im30に異常部P30が映っているか否かを判定するために用いられる指標である。当該モデリングは、遠赤外画像Im30において異常部P30が映る場合における体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係を規定する。
具体的には、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合に、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定する。そして、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定したことをもって、遠赤外画像Im30に異常部P30が映っていると判定する。
より具体的には、判定部350は、記憶部360に記憶されるデータテーブルD30を参照することによって、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係が妥当であるか否かを判定し得る。データテーブルD30において、例えば、図24に示したように、各対象物を示す情報と、遠赤外画像Im30において異常部P30が映る場合における当該各対象物の他の対象物に対する相対位置を示す情報とが紐付けられている。このような相対位置が、第3の応用例におけるモデリングによって規定される。
具体的には、判定部350は、体表候補領域の外周部が開腹部候補領域より外側に位置し、かつ、異常部候補領域が開腹部候補領域より内側に位置する場合に、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定する。換言すると、判定部350は、開腹部候補領域が体表候補領域より内側に位置し、かつ、異常部候補領域が開腹部候補領域より内側に位置する場合に、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定する。
このように、第3の応用例では、互いに異なる設定温度範囲内の温度を示す体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係と、モデリングとに基づいて、遠赤外画像Im30に異常部P30が映っているか否かが判定される。ここで、体表C31、開腹部C32、及び異常部P30は、異常部P30と対応して存在し、モデリングによって規定される位置関係を有する。ゆえに、遠赤外画像Im30に異常部P30が映っているか否かの判定において、より尤もらしい判定結果を得ることができる。よって、赤外線カメラ102と異なる他のデバイスを利用することなく、被写体としての異常部P30の検出精度を向上させることができる。従って、被写体としての異常部P30の検出精度をより安価に向上させることが可能となる。
なお、遠赤外画像に被写体としての異常部P30が複数映る場合、体表候補領域、開腹部候補領域、又は異常部候補領域が複数検出され得る。そのような場合には、判定部350は、例えば、体表候補領域、開腹部候補領域、及び異常部候補領域の組み合わせの全てについて、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係が妥当であるか否かの判定を実行する。位置関係が妥当であると判定される体表候補領域、開腹部候補領域、及び異常部候補領域の組み合わせの数が複数である場合に、判定部350は、遠赤外画像に当該複数の組み合わせの各々に対応する異常部P30が映っていると判定し得る。
また、判定部350は、判定結果をディスプレイ108へ出力することにより、報知する。それにより、例えば、術者への警告がなされる。
また、判定部350は、各検出部から出力される検出結果に応じて、遠赤外画像Im30に異常部P30が映っているか否かを判定する判定処理を実行するか否かを決定してもよい。
例えば、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域のいずれもが検出された場合に、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係についての判定処理を実行してもよい。一方、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域のうち少なくとも1つが検出されなかった場合には、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係についての判定処理を実行しなくてもよい。
例えば、図25に示した組み合わせ例31では、体表候補領域、開腹部候補領域、及び異常部候補領域のいずれもが検出されているので、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係についての判定処理を実行する。
上記では、部分領域の抽出処理、スコア値の算出処理、及びスコア値と閾値との比較処理を実行することによって、遠赤外画像からの候補領域の検出が実現される例について説明したが、候補領域の検出の具体的な方法は、第1の応用例及び第2の応用例と同様に、係る例に限定されない。
(動作)
続いて、図26及び図27を参照して、第3の応用例に係る画像処理装置30が行う処理の流れについて説明する。図26は、第3の応用例に係る画像処理装置30が行う処理の流れの一例を示すフローチャートである。図26に示した処理は、例えば、各フレームについて、実行され得る。
図26に示したように、まず、画像処理装置30は、遠赤外画像Im30の撮像を行う(ステップS801)。次に、体表検出部341は、撮像された遠赤外画像Im30から体表候補領域を検出する検出処理を実行し(ステップS810)、検出結果を判定部350へ出力する。そして、判定部350は、体表候補領域が検出されたか否かを判断する(ステップS803)。体表候補領域が検出されたと判断されなかった場合(ステップS803/NO)、ステップS801の処理へ戻る。
一方、体表候補領域が検出されたと判断された場合(ステップS803/YES)、判定部350から開腹部検出部342へ判断結果が出力され、開腹部検出部342は、開腹部候補領域を検出する検出処理を実行し(ステップS830)、検出結果を判定部350へ出力する。そして、判定部350は、開腹部候補領域が検出されたか否かを判断する(ステップS805)。開腹部候補領域が検出されたと判断されなかった場合(ステップS805/NO)、ステップS801の処理へ戻る。
一方、開腹部候補領域が検出されたと判断された場合(ステップS805/YES)、判定部350から異常部検出部343へ判断結果が出力され、異常部検出部343は、異常部候補領域を検出する検出処理を実行し(ステップS850)、検出結果を判定部350へ出力する。そして、判定部350は、異常部候補領域が検出されたか否かを判断する(ステップS807)。異常部候補領域が検出されたと判断されなかった場合(ステップS807/NO)、ステップS801の処理へ戻る。
一方、異常部候補領域が検出されたと判断された場合(ステップS807/YES)、判定部350は、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係が妥当であるか否かを判定する(ステップS809)。体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致しない場合には、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定されず(ステップS809/NO)、ステップS801の処理へ戻る。一方、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係がモデリングによって規定される位置関係と略一致する場合には、体表候補領域、開腹部候補領域、及び異常部候補領域の間の位置関係は妥当であると判定され(ステップS809/YES)、判定部350は、判定結果をディスプレイ108へ出力することにより、術者へ警告し(ステップS811)、図26に示した処理は終了する。
なお、体表候補領域についての検出処理(ステップS810)、開腹部候補領域についての検出処理(ステップS830)、及び異常部候補領域についての検出処理(ステップS850)の順序は係る例に限定されない。また、体表候補領域についての検出処理(ステップS810)、開腹部候補領域についての検出処理(ステップS830)、及び異常部候補領域についての検出処理(ステップS850)は、並列的に実行されてもよい。
続いて、図27を参照して、第3の応用例に係る画像処理装置30が行う体表候補領域、開腹部候補領域、及び異常部候補領域の各々の検出処理(図26に示したステップS810,S830,S850)について、より詳細に説明する。図27は、第3の応用例に係る画像処理装置30が行う体表候補領域、開腹部候補領域、及び異常部候補領域の各々の検出処理の流れの一例を示すフローチャートである。
図27に示したように、まず、体表検出部341(開腹部検出部342、異常部検出部343)は、遠赤外画像Im30から部分領域を抽出する(ステップS811(ステップS831,S851))。次に、体表検出部341(開腹部検出部342、異常部検出部343)は、抽出された部分領域についてのスコア値を算出する(ステップS813(ステップS833,S853))。次に、体表検出部341(開腹部検出部342、異常部検出部343)は、算出されたスコア値と閾値との比較を行う(ステップS815(ステップS835,S855))。そして、体表検出部341(開腹部検出部342、異常部検出部343)は、遠赤外画像Im30の全領域について、部分領域の抽出が終了したか否かを判定する(ステップS817(ステップS837,S857))。遠赤外画像Im30の全領域について、部分領域の抽出が終了したと判定されなかった場合(ステップS817/NO(ステップS837/NO,S857/NO))、ステップS811(ステップS831,S851)の処理へ戻る。一方、遠赤外画像Im30の全領域について、部分領域の抽出が終了したと判定された場合(ステップS817/YES(ステップS837/YES,S857/YES))、図27に示した処理は終了する。
なお、上述のような本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置10,20,30の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置10,20,30は、コンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置10,20,30の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。
<4.まとめ>
以上説明したように、本開示の実施形態によれば、互いに異なる設定温度範囲内の温度を示す複数の検出領域間の位置関係と、モデリングとに基づいて、遠赤外画像に所定の被写体が映っているか否かが判定される。ゆえに、遠赤外画像に所定の被写体が映っているか否かの判定において、より尤もらしい判定結果を得ることができる。よって、赤外線カメラ102と異なる他のデバイスを利用することなく、被写体の検出精度を向上させることができる。従って、被写体の検出精度をより安価に向上させることが可能となる。
上記では、各検出部が所定の寸法の部分領域を抽出する例を主に説明したが、各検出部は、複数の寸法について部分領域の抽出を行ってもよい。それにより、対象物と赤外線カメラ102との距離によらず、より確実に部分領域を抽出することができる。
なお、上述した本開示に係る技術は、様々な用途に利用することができる。具体的には、本開示に係る技術は、人体以外の生体の検出に適用され得る。また、本開示に係る画像処理装置は、車両システム、医療システム、自動生産システム等に適用され得る。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non−transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。各プログラムを実行するプロセッサは、単数であっても複数であってもよい。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出する複数の検出部と、
検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、前記遠赤外画像に前記所定の被写体が映っているか否かを判定する判定部と、
を備える、画像処理装置。
(2)
前記設定温度範囲は、前記検出部の各々に対応する対象物の想定温度に応じた温度範囲であり、
前記検出領域は、前記対象物が映る候補である候補領域に相当する、
前記(1)に記載の画像処理装置。
(3)
前記検出部は、前記対象物に応じて設定される寸法を有する領域を、前記候補領域として、検出する、前記(2)に記載の画像処理装置。
(4)
前記検出部は、前記対象物の前記想定温度である尤度が閾値より高い温度を示す領域を、前記候補領域として、検出する、前記(2)又は(3)に記載の画像処理装置。
(5)
前記複数の検出部は、前記遠赤外画像から人体の顔が映る候補である顔候補領域を前記候補領域として検出する顔検出部、及び、前記遠赤外画像から前記人体の胴体が映る候補である胴体候補領域を前記候補領域として検出する胴体検出部を含み、
前記判定部は、検出された前記顔候補領域及び前記胴体候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記人体が映っているか否かを判定する、
前記(2)〜(4)のいずれか一項に記載の画像処理装置。
(6)
前記複数の検出部は、前記遠赤外画像から前記顔に関連する部分が映る候補である顔部分候補領域を前記候補領域として検出する顔部分検出部をさらに含み、
前記判定部は、検出された前記顔候補領域及び前記顔部分候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記人体が映っているか否かを判定する、
前記(5)に記載の画像処理装置。
(7)
前記複数の検出部は、前記遠赤外画像から車両のマフラーが映る候補であるマフラー候補領域を前記候補領域として検出するマフラー検出部、及び、前記遠赤外画像から路面上において前記車両の車輪が通過した部分が映る候補である通過部候補領域を前記候補領域として検出する通過部検出部を含み、
前記判定部は、検出された前記マフラー候補領域及び前記通過部候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記車両が映っているか否かを判定する、
前記(2)〜(4)のいずれか一項に記載の画像処理装置。
(8)
前記複数の検出部は、前記遠赤外画像から患者の体表が映る候補である体表候補領域を前記候補領域として検出する体表検出部、前記遠赤外画像から前記患者の切開部が映る候補である切開部候補領域を前記候補領域として検出する切開部検出部、及び、前記遠赤外画像から前記切開部における異常部が映る候補である異常部候補領域を前記候補領域として検出する異常部検出部を含み、
前記判定部は、検出された前記体表候補領域、前記切開部候補領域、及び前記異常部候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記異常部が映っているか否かを判定する、
前記(2)〜(4)のいずれか一項に記載の画像処理装置。
(9)
前記遠赤外画像を撮像する撮像部を備える、前記(1)〜(8)のいずれか一項に記載の画像処理装置。
(10)
遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出することと、
検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、画像処理装置によって、前記遠赤外画像に前記所定の被写体が映っているか否かを判定することと、
を含む、画像処理方法。
1,10,20,30 画像処理装置
31 顕微鏡装置
31a カメラ
33 患者ベッド
35 不織布
37 患者
41 第1検出部
41a 第1抽出部
41b 第1スコア算出部
41c 第1スコア比較部
42 第2検出部
42a 第2抽出部
42b 第2スコア算出部
42c 第2スコア比較部
50,150,250,350 判定部
60,160,260,360 記憶部
102 赤外線カメラ
104 入力インタフェース
106 メモリ
108 ディスプレイ
110 通信インタフェース
112 ストレージ
114 プロセッサ
116 バス
141 顔検出部
142 胴体検出部
143 目検出部
144 眼鏡検出部
145 頭髪検出部
241 マフラー検出部
242 通過部検出部
243 非通過部検出部
341 体表検出部
342 開腹部検出部
343 異常部検出部

Claims (8)

  1. 遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出する複数の検出部と、
    検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、前記遠赤外画像に前記所定の被写体が映っているか否かを判定する判定部と、
    を備え、前記設定温度範囲は、前記検出部の各々に対応する対象物の想定温度に応じた温度範囲であり、
    前記検出領域は、前記対象物が映る候補である候補領域に相当し、
    前記複数の検出部は、前記遠赤外画像から人体の顔が映る候補である顔候補領域を前記候補領域として検出する顔検出部、及び、前記遠赤外画像から前記顔に関連する部分が映る候補である顔部分候補領域を前記候補領域として検出する顔部分検出部を含み、
    前記判定部は、検出された前記顔候補領域及び前記顔部分候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記人体が映っているか否かを判定する、画像処理装置。
  2. 前記検出部は、前記対象物に応じて設定される寸法を有する領域を、前記候補領域として、検出する、請求項に記載の画像処理装置。
  3. 前記検出部は、前記対象物の前記想定温度である尤度が閾値より高い温度を示す領域を、前記候補領域として、検出する、請求項に記載の画像処理装置。
  4. 前記複数の検出部は、前記遠赤外画像から前記人体の胴体が映る候補である胴体候補領域を前記候補領域として検出する胴体検出部をさらに含み、
    前記判定部は、検出された前記顔候補領域及び前記胴体候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記人体が映っているか否かを判定する、
    請求項に記載の画像処理装置。
  5. 遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出する複数の検出部と、
    検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、前記遠赤外画像に前記所定の被写体が映っているか否かを判定する判定部と、
    を備え、前記設定温度範囲は、前記検出部の各々に対応する対象物の想定温度に応じた温度範囲であり、
    前記検出領域は、前記対象物が映る候補である候補領域に相当し、
    前記複数の検出部は、前記遠赤外画像から車両のマフラーが映る候補であるマフラー候補領域を前記候補領域として検出するマフラー検出部、及び、前記遠赤外画像から路面上において前記車両の車輪が通過した部分が映る候補である通過部候補領域を前記候補領域として検出する通過部検出部を含み、
    前記判定部は、検出された前記マフラー候補領域及び前記通過部候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記車両が映っているか否かを判定する、画像処理装置。
  6. 遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出する複数の検出部と、
    検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、前記遠赤外画像に前記所定の被写体が映っているか否かを判定する判定部と、
    を備え、前記設定温度範囲は、前記検出部の各々に対応する対象物の想定温度に応じた温度範囲であり、
    前記検出領域は、前記対象物が映る候補である候補領域に相当し、
    前記複数の検出部は、前記遠赤外画像から患者の体表が映る候補である体表候補領域を前記候補領域として検出する体表検出部、前記遠赤外画像から前記患者の切開部が映る候補である切開部候補領域を前記候補領域として検出する切開部検出部、及び、前記遠赤外画像から前記切開部における異常部が映る候補である異常部候補領域を前記候補領域として検出する異常部検出部を含み、
    前記判定部は、検出された前記体表候補領域、前記切開部候補領域、及び前記異常部候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記異常部が映っているか否かを判定する、画像処理装置。
  7. 前記遠赤外画像を撮像する撮像部を備える、請求項1に記載の画像処理装置。
  8. 遠赤外画像から互いに異なる設定温度範囲内の温度を示す検出領域をそれぞれ検出することと、
    検出された複数の前記検出領域間の位置関係と、前記遠赤外画像において所定の被写体が映る場合における前記位置関係を規定するモデリングとに基づいて、画像処理装置によって、前記遠赤外画像に前記所定の被写体が映っているか否かを判定することと、
    を含む、画像処理方法であって、
    前記設定温度範囲は、対象物の想定温度に応じた温度範囲であり、
    前記検出領域は、前記対象物が映る候補である候補領域に相当し、
    前記画像処理方法は、
    前記遠赤外画像から人体の顔が映る候補である顔候補領域を前記候補領域として検出することと、
    前記遠赤外画像から前記顔に関連する部分が映る候補である顔部分候補領域を前記候補領域として検出することと、
    検出された前記顔候補領域及び前記顔部分候補領域の間の位置関係と、前記モデリングとに基づいて、前記遠赤外画像に前記所定の被写体として前記人体が映っているか否かを判定することと、
    をさらに含む、画像処理方法。
JP2018527391A 2016-07-13 2017-03-31 画像処理装置及び画像処理方法 Active JP6904348B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016138848 2016-07-13
JP2016138848 2016-07-13
PCT/JP2017/013701 WO2018012053A1 (ja) 2016-07-13 2017-03-31 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2018012053A1 JPWO2018012053A1 (ja) 2019-04-25
JP6904348B2 true JP6904348B2 (ja) 2021-07-14

Family

ID=60952381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527391A Active JP6904348B2 (ja) 2016-07-13 2017-03-31 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US20190316966A1 (ja)
JP (1) JP6904348B2 (ja)
WO (1) WO2018012053A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361589B2 (en) * 2020-04-01 2022-06-14 Sensetime International Pte. Ltd. Image recognition method, apparatus, and storage medium
SG10202003027QA (en) * 2020-04-01 2020-10-29 Sensetime Int Pte Ltd Image recognition method, apparatus, and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108758A (ja) * 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP2006176020A (ja) * 2004-12-22 2006-07-06 Nissan Motor Co Ltd 歩行者報知装置及び方法
CN104471362B (zh) * 2013-05-17 2018-09-07 松下电器(美国)知识产权公司 热图像传感器、以及用户界面

Also Published As

Publication number Publication date
WO2018012053A1 (ja) 2018-01-18
JPWO2018012053A1 (ja) 2019-04-25
US20190316966A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
TWI617948B (zh) 用於眼部追蹤的校正模組及其方法及電腦可讀取紀錄媒體
US20160341961A1 (en) Context-based augmented reality content delivery
US20110137157A1 (en) Image processing apparatus and image processing method
Jafari et al. Automatic detection of melanoma using broad extraction of features from digital images
KR102554391B1 (ko) 홍채 인식 기반 사용자 인증 장치 및 방법
US20180053055A1 (en) Integrating augmented reality content and thermal imagery
CN111967296B (zh) 虹膜活体检测方法、门禁控制方法及装置
US9418422B2 (en) Skin image analysis
JP6904348B2 (ja) 画像処理装置及び画像処理方法
US20180060651A1 (en) Method for recognizing facial expression of headset wearing user and apparatus enabling the same
JP2019503214A (ja) ヒューリスティックグラフ探索による階層画像の高速自動区分化
Zeng et al. Automated detection of diabetic retinopathy using a binocular siamese-like convolutional network
US12029487B2 (en) System and method for retina template matching in teleophthalmology
Mohan et al. Exudate localization in retinal fundus images using modified speeded up robust features algorithm
Strzelecki et al. Artificial Intelligence in the detection of skin cancer: state of the art
JP7439990B2 (ja) 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法
US11896375B2 (en) Assessment of facial paralysis and gaze deviation
Zhang et al. 3D CNN-based fingerprint anti-spoofing through optical coherence tomography
KR102427395B1 (ko) 인공지능 기반 피부암 판단을 위한 제어 방법, 장치 및 프로그램
CN115375611A (zh) 一种基于模型训练的屈光检测方法和检测***
WO2024095362A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体
Kim et al. Toward better ear disease diagnosis: A multi-modal multi-fusion model using endoscopic images of the tympanic membrane and pure-tone audiometry
Xie et al. SEmbedNet: Hardware-friendly CNN for ectopic beat classification on STM32-based edge device
US20240013394A1 (en) Skin cancer diagnosis method based on image analysis using artificial intelligence
Ala'a Automatic Enlarged Lymph Node Detection by Volume Estimation from 3D Abdominal CT Images Based on Speed Up Robust Features and Maximum Intensity Projection

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R151 Written notification of patent or utility model registration

Ref document number: 6904348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151