JP7449004B2 - 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法 - Google Patents

周波数帯域を用いたハイパースペクトルによる物体画像の検出方法 Download PDF

Info

Publication number
JP7449004B2
JP7449004B2 JP2023015049A JP2023015049A JP7449004B2 JP 7449004 B2 JP7449004 B2 JP 7449004B2 JP 2023015049 A JP2023015049 A JP 2023015049A JP 2023015049 A JP2023015049 A JP 2023015049A JP 7449004 B2 JP7449004 B2 JP 7449004B2
Authority
JP
Japan
Prior art keywords
image
host
hyperspectral
object image
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023015049A
Other languages
English (en)
Other versions
JP2023129277A (ja
Inventor
ワン シャン-チェン
チ ユ-シェン
ツァオ ユ-ミン
シー シアン-ホン
Original Assignee
ナショナル チュン チェン ユニバーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ナショナル チュン チェン ユニバーシティ filed Critical ナショナル チュン チェン ユニバーシティ
Publication of JP2023129277A publication Critical patent/JP2023129277A/ja
Application granted granted Critical
Publication of JP7449004B2 publication Critical patent/JP7449004B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2733Oesophagoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18114Extraction of features or characteristics of the image involving specific hyperspectral computations of features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像識別方法に関し、特に、周波数帯域を用いたハイパースペクトルによる物体画像の検出方法に関する。
現在、内視鏡画像による消化器官の疾病、特に食道癌を診断することがよく行われている。早期の食道癌はほとんど症状がないため、多くの患者は飲み込み問題が発生してから発覚する。臨床上では食道内視鏡により食道癌を診断する。
食道は咽頭と胃を接続する管状器官であり、主に口から飲み込んだ食物を胃に送るための器官である。正常な食道粘膜は、多層の扁平上皮細胞を有し、厚さは約200~500μmであり、表面から下へは、粘膜上皮層(EP)、粘膜固有層(LPM)、粘膜筋板層(MM)、粘膜下層(SM)および固有筋層(MP)に分けることができる。上皮組織に発生する悪性腫瘍はがんと呼ばれ、世界では食道がんは8番目に多いがんである。また、通常、悪性腫瘍(CancerまたはMalignant tumorと呼ばれる)は、生理機能に影響を及ぼし、肉腫(Sarcoma)、リンパ腫(lymphoma)、白血病(leukemia)、メラノーマ(melanoma)、癌肉腫(carcinosarcoma)、悪性神経膠腫(Malignant glioma)などを含む。
結合組織に発生する悪性腫瘍は肉腫と呼ばれる。いわゆる結合組織は、繊維組織、脂肪組織、筋肉、血管、骨および軟骨を含む。また、リンパ腫や白血病は造血組織に発生する。メラノーマは皮膚細胞に発生する。上皮組織および結合組織に同時に発生する悪性腫瘍は癌肉腫と呼ばれる。また、悪性グリオーマは神経組織に発生する悪性腫瘍である。食道がんの悪性腫瘍は食道の上皮組織に浸潤するだけでなく、後期には結合組織にも浸潤する。
現在の疾病診断技術は、通常、体温、血圧、身体スキャン画像などの単一のマクロ資料と情報に依存している。例えば、がんのような重大な疾患を検出するために、現在一般的に使用されている機器のほとんどは、X線、CTスキャン、核磁気共鳴(NMR:Nuclear mMagnetic Resonance)画像化技術を含む画像技術に基づいた装置である。これらの診断装置を組み合わせて使用すると、程度の差があるが、疾患の診断に有用である。しかし、これらの装置を単独で使用する場合、重大な疾病が発病した早期段階では、正確的で、高精度で、効率的で、経済的な検出ができない。さらに、X線、CTスキャン、核磁気共鳴(NMR)画像化などの上記従来の装置の多くは、大型であり侵襲性がある。そこで、消化器官の病巣を観察するために、内視鏡検査が開発され、消化器官に病巣が存在するかどうかを検査する。
また、早期の食道がんは診断が容易ではないが、早期にはほとんど症状がなかったたけでなく、食道内視鏡検査を受けても一部の早期食道がんは発見されにくい。これらの病巣の変化は非常に細かく、わずかな色の変化しかない場合が多いため、従来の内視鏡検査では多くの早期食道がん病変が見落とされ、治療が手遅れになる。そのため、発見されにくい病巣に対して、ヨウ素染色体内視鏡(Lugol chromoendoscopy)、狭帯域画像技術(Narrow Band Image、NBI)、拡大内視鏡(Magnifying Endoscopy)が開発された。
白色光内視鏡画像(WLI:White Light Image):これは伝統的な内視鏡技術であり、白色光を食道粘膜に照射し、反射によって食道の画像を得るが、早期病巣を極め出す能力が低く、末期食道癌のような明らかな病巣のみを発見できる。そのため、他の多くの内視鏡技術が派生し、画像中の特徴をより明らかにするために医師の判断を支援している。
狭帯域内視鏡画像(NBI:Narrow band Image):NBIはIPCL血管の変化を明らかにすることができ、選択した415nm、540nmの光線を利用し、血管、細胞内の組織に対して散乱・吸収を行い、血管内のヘモグロブリンが青色光および緑色光を吸収したため、浅層の毛細血管は茶色を表わすことができる。他の太い血管は青色を呈し、伝統的な白色光より優れる。
色素内視鏡(Chromoendoscopy): 光源の交換に加えて、がんによる細胞への変化を利用して染色により病巣の位置を判断するが、誤吸入のリスクがあるため食道染色には特に注意が必要である。ヨウ素染色内視鏡(Lugol chromoendoscopy)が良く用いられ、ヨウ素液で肝糖を茶色に染色するが、癌細胞はグルコーゲンをエネルギーに変化させるため、染色することができないことを利用して病巣の可能性が大きい位置を発見し、この部分をスライスして癌になったか否かを確認するが、ヨウ素染色により胸部に不快感をもたらし、患者がアレルギー反応をする可能性もある。
拡大内視鏡(ME:Magnifying endoscopy):他の内視鏡技術とは異なり、MEはズーム技術を利用して画像の品質を保ちながら画像を拡大する。これにより病巣の些細な変化を観察する。NBIのような他の画像増強技術と組み合わせると、IPCLの形状に対してステージ分けを行い、癌の浸潤度合いを判断できる。
しかし、内視鏡の操作は非常に複雑で、資格のある医療スタッフのみが内視鏡検査を行うことができる。さらに医療スタッフは内視鏡を操作しながら、病巣を識別しなければならない。内視鏡検査の方法は様々な改良が行われてきたが、人為的な操作ミスや内視鏡画像の識別が困難などの課題は依然存在する。
また、新型の内視鏡、例えばカプセル内視鏡について、身体へのアクセスの利便性のために、患者の不快感を軽減するため、狭帯域画像の機能を犠牲にして、白色光画像の機能のみを備えているため、医師の画像判読の困難性を高めている。
このため、食道癌診断過程を改善した方法が必要になる。コンピュータ支援診断技術(CAD:Computer Aided Diagnosis)が生物医学研究の重点になり、コンピュータ支援診断医学画像を用いて医師の疾病の類型および病巣の区域への正確な判断を補助でき、画像確認効率も向上する。畳み込みニューラルネットワークをコンピュータビジョン(CV:Computer Vision)分野に用いることは現在の技術的なトレンドであり、いくつかの応用方式がある。
1、画像分類(Image Classification)、画像に対して類別のスクリーニングを行い、深層学習の方法によって画像がどの分類類別に属するかを識別し、その重点は、当該画像の内容に複数の目標があっても、1枚の画像が1種類の分類類別を含むことにある。よって、単純な画像分類の応用が普及されていない。しかし、ディープラーニング演算法にとって単一目標識別は正確率が最も高いため、実務上での応用において物体検知方法によって当該目標を探し出し、取込画像範囲を縮小して画像分類を行う。このため、物体検出の応用可能範囲であれば、通常は画像分類手法を用いる。
2、物体検出(Object Detection)、1枚の画像には1または複数の目標物体があってもよい。目標物体が異なる類別に属してもよい。そのアルゴリズムは下記の2つの目標を達成できる:目標座標を見つけることと目標の類別を識別すること。顔認識関連技術の結合応用、あるいは製造業における瑕疵検査、ひいては病院でX線、超音波で特定の身体部位の病気状況の検査にも応用可能である。物体検出の基礎は、画像分類上に位置を標識する機能を増加したと想像できるため、画像分類の基礎とも離れない。物体検出における標識される座標は通常矩形または四方形であり、目標の位置をわかっただけでは目標の周縁に対して描画できないため、通常に応用では「目標の位置をわかればよい」を目標とする。
口腔癌病巣の検査では通常、どこかにその病巣があるかないかを判断するだけでよいが、物体検出を用いて病巣の位置と病巣の範囲を判断するのは非常に適切であるため、物体検出の方法を開発することは早急な解決を待たなければならない問題である。
上記の課題に基づき、本発明は周波数帯域を用いたハイパースペクトルによる物体画像の検出方法を提供する。この方法では、ホストによって畳み込み演算を実行し、入力画像を畳み込みニューラルネットワークに適用することで、特徴画像を取得して周波数帯域に基づいて選択し、測定対象物画像を推定し、さらに、測定対象物画像とサンプル画像とを比較して、測定対象物画像を目標物体画像または非目標物体画像に分類することにより、人工画像認識の困難性を回避し、白色光画像機能のみを有する内視鏡により模擬狭帯域画像を生成して識別を支援することもできる。
本発明の主な目的は、本発明は周波数帯域を用いたハイパースペクトルによる物体画像の検出方法を提供する。畳み込みニューラルネットワークの演算によって、特徴画像を取得し、かつ周波数帯域によって選択し、測定対象物画像を推定し、さらに、測定対象物画像とサンプル画像とを比較することにより、測定対象物画像を目標物体画像または非目標物体画像に分類する。
上記目的を達成するために、周波数帯域を用いたハイパースペクトルによる物体画像の検出方法であって、まず参照画像をハイパースペクトル参照画像に変換するハイパースペクトル画像情報を取得し、画像キャプチャユニットは入力画像をキャプチャしてホストに提供し、前記入力画像は、少なくとも1つの測定対象物画像と背景画像とを含み、その後、前記ホストは、前記ハイパースペクトル画像情報に基づいて前記入力画像を変換することによって、ハイパースペクトル画像を取得し、前記ホストは、前記ハイパースペクトル画像に基づいて分析を行うことによって、複数の第1のハイパースペクトル特徴値を取得し、続いて、前記ホストは、前記第1のハイパースペクトル特徴値を、細胞の周波数帯域に基づく選択及び主成分分析演算を行うことによって、対応する複数の第2の特徴値を生成する。そして、前記ホストは、複数の畳み込みカーネルに基づいて、前記第2の特徴値に対して少なくとも1つの畳み込み演算を行って畳み込み結果を取得し、前記畳み込み結果および前記少なくとも1つの測定対象物画像に基づいて少なくとも1つの選択画像を取得し、前記畳み込みカーネルは、複数の選択特徴値と、複数の周辺特徴値とを含み、前記少なくとも1つの測定対象物画像は、複数の周辺画像および前記少なくとも1つの選択画像を含み、これらの周辺画像は前記少なくとも1つの選択画像を取囲み、前記少なくとも1つの選択画像は、前記選択特徴値に対応し、前記周辺画像は、前記周辺特徴値に対応する。続いて、前記ホストは、前記少なくとも1つの選択画像のエッジに基づいて、少なくとも1つの予測ボックスを生成し、かつ入力画像の境界ボックスを取得し、前記ホストは、前記予測ボックスの第1の中心点と、当該入力画像の境界ボックスの第2の中心点と比較し、予測ボックスと境界ボックスの中心オフセットを取得し、それにより、前記ホストは、前記中心オフセットに基づいて回帰演算を行い、予測ボックス内の測定対象物画像を位置合わせし、前記予測ボックスと前記境界ボックスとの中心点を重畳させるとともに前記選択画像を境界ボックスの中心点まで移動させる。最後に、前記ホストは、前記測定対象物画像と少なくとも1つのサンプル画像とを比較して比較結果を得て、前記ホストは、前記比較結果に基づいて、前記入力画像を目標物体画像または非目標物体画像に分類する。このように、本発明は、測定対象物画像を、ホストによって周波数帯域フィルタリングおよび畳み込みによって特徴検出することができ、さらに、このホストは、このサンプル画像に基づいて予測ボックスで選択された測定対象物画像を比較し、入力画像を目標物体画像または非目標物体画像に分類することにより、認識を自動化するとともに認識しにくい問題を回避することができ、模擬狭帯域画像を生成する機能も提供する。
本発明の一実施例では、前記ホストが複数の畳み込みカーネルを利用してこれらの第2の特徴値を比較するステップにおいて、前記ホストはこれらの畳み込みカーネルをm×n×pとして、かつ当該入力画像の複数の画素値を複数の画素正規値となるように正規化し、これらの畳み込みカーネルとこれらの画素正規値とをかけ算して畳み込み層でこれらの第2の特徴値を取込み、かつm=nであり、mは1、3、5、10、19または38である。
本発明の一実施例では、前記畳み込み結果と前記少なくとも1つの測定対象物画像とに基づいて少なくとも1つの選択画像を取得するステップにおいて、前記ホストが前記複数の選択特徴値の所在エリアを統合して前記入力画像に少なくとも1つの分布エリアを取得して、更に前記少なくとも1つの分布エリアで前記予測ボックスを確立する。
本発明の一実施例では、前記ホストが前記入力画像を複数の特徴値に変換し、かつ複数の畳み込みカーネルによりこれらの特徴値を検出するステップにおいて、前記ホストがSSMD(Single Shot Multibox Detector)モデルによって、前記入力画像のそれぞれの画素を畳み込んで前記第2の特徴値を検出する。
本発明の一実施例では、前記ホストが前記中心オフセットに基づいて回帰演算を行うステップにおいて、前記ホストが前記予測ボックスの第1の位置、前記境界ボックスの第2の位置およびズーム因子によって前記回帰演算を行うことによって、前記測定対象物画像を位置決めする。
本発明の一実施例では、前記ホストが前記測定対象物画像と少なくとも1つのサンプル画像とを比較するステップでは、前記ホストが完全接続層において前記測定対象物画像と前記少なくとも1つのサンプル画像との分類比較を行う。
本発明の一実施例では、前記ホストが比較結果に基づいて前記入力画像を目標物体画像または非目標物体画像に分類するステップにおいて、前記ホストが、前記予測ボックス内の前記測定対象物画像に対して前記少なくとも1つのサンプル画像と一致することを識別できなかった場合、前記ホストは、前記入力画像を前記非目標物体画像に分類し、逆に、前記ホストは前記入力画像を前記目標物体画像に分類する。
本発明の一実施例では、前記ホストは比較結果に基づいて前記入力画像を目標物体画像または非目標物体画像に分類するステップにおいて、前記ホストは前記入力画像を前記非目標物体画像に分類する時、前記ホストは2回目に前記少なくとも1つのサンプル画像と前記測定対象物画像を比較し、前記ホストは前記測定対象物画像の近似度が近似閾値よりも大きいと判断する時、前記ホストは前記入力画像を前記目標物体画像に分類し、逆に、前記ホストは前記入力画像を前記非目標物体画像に分類する。
本発明の一実施例では、前記ハイパースペクトル画像情報は、複数の白色光画像および複数の狭帯域画像に対応し、かつ複数の配色関数、補正マトリックスおよび変換マトリックスを含む。
本発明の一実施例では、当該細胞は食道癌細胞である。
本発明の一実施例では、前記周波数帯域は415nmおよび540nmである。
本発明の一実施例では、前記ホストは前記複数の第1のハイパースペクトル特徴値に対して細胞の周波数帯域によって選択しかつ主成分分析演算を行い、前記ハイパースペクトル画像を簡略化して対応する複数の第2の特徴値を生成するステップの後に、前記ホストはこれらの第1のハイパースペクトル特徴値に対して周波数帯域によって選択しかつ前記ハイパースペクトル画像情報によって模擬画像に変換する。
本発明の一実施例の方法の流れを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の一部のステップを示す図である。 本発明の一実施例の畳み込みカーネルおよび入力画像を示す図である。 本発明の一実施例の所在エリアを示す図である。 本発明の一実施例のプリセットボックスを構築することを示す図である。 本発明の一実施例の中心点の遷移を示す図である。 本発明の一実施例のプリセットボックスと境界ボックスとを位置合わせすることを示す図である。 本発明の一実施例の画像を示す図である。 本発明の一実施例の具体的な実施例の画像を示す図である。 本発明の一実施例の具体的な実施例の画像を示す図である。 本発明の一実施例の具体的な実施例の画像を示す図である。 本発明の一実施例の具体的な実施例の画像を示す図である。
貴審査委員に本発明の特徴および達成できる効果について更なる理解と認識をしていただくため、下記のように実施例を参照しながら説明する。
内視鏡の操作が複雑であるため人為的な操作ミスまたは画像の認識が困難になることが知られている。本発明は、内視鏡技術に起因する人為的な操作ミスまたは画像の認識の困難さという周知の課題を解決するために、周波数帯域を用いたハイパースペクトルによる物体画像の検出方法を提案する。
以下では、周波数帯域を用いたハイパースペクトルによる物体画像の検出方法の特性、および対応するシステムをさらに説明する。
まず、本発明の方法の流れを示す図である。図示のように、本発明の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法は次のステップを含む。
参照画像をハイパースペクトル参照画像に変換するハイパースペクトル画像情報を取得するステップS05。
画像キャプチャユニットが入力画像をキャプチャしてホストに提供するステップS10。
ハイパースペクトル画像情報に基づいて入力画像を変換することによって、ハイパースペクトル画像を取得するステップS15。
ハイパースペクトル画像情報に基づいて分析を行うことによって、第1のハイパースペクトル特徴値を取得するステップS20。
第1のハイパースペクトル特徴値を、細胞の周波数帯域に基づく選択及び主成分分析演算を行うことによって、対応する第2の特徴値を生成するステップS25。
畳み込みカーネルに基づいて、第2の特徴値に対して畳み込み演算を行い、畳み込みの結果に基づいて、測定対象物画像から選択画像を取得するステップS30。
ホストが選択画像のエッジに基づいて予測ボックスを生成するステップS35。
ホストが入力画像の境界ボックスをキャプチャして予測ボックスの第1の中心点と境界ボックスの第2の中心点と比較することによって、予測ボックスと境界ボックスとの中心オフセットを取得するステップS40。
ホストが中心オフセットに基づいて回帰演算を行い、回帰演算結果を取得するステップS45。
ホストが回帰演算結果および予測ボックスに基づいて測定対象物画像の位置合わせ調整をし、第1の中心点を第2の中心点まで移動させるとともに選択画像を第2の中心点まで移動させるステップS50。
ホストが測定対象物画像とサンプル画像とを比較することによって比較結果を生成するステップS55。
ホストが比較結果に基づいて入力画像を目標物体画像または非目標物体画像に分類するステップS60。
図2A~図2Hを合わせて参照する。本発明の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法に関連する検出システム1は、ホスト10と画像キャプチャユニット20とを含み、本実施例は、ホスト10として、処理ユニット12、メモリ14および格納ユニット16を有するホストが挙げられるが、これに限定されない。サーバ、ノートパソコン、タブレットまたは基礎的な演算能力を有する電子装置は何れも本発明のホスト10である。リポジトリ30は、格納ユニット16に設けられるが、これに限定されず、ホスト10の外部接続格納ユニットであってもよい。ホスト10は、処理ユニット12により畳み込みプログラム120を実行し、対応するニューラルネットワーク124を形成する。さらに、本実施例では、画像キャプチャユニット20は、例えば、膀胱鏡、胃鏡、大腸鏡、気管支鏡、腹腔鏡など、体内の器官組織を検査するための内視鏡である。
ステップS05では、図2Aに示すように、図2Aに示すように、当該ホスト10は、画像キャプチャユニット20が対応した参照画像REFを読み取り、当該参照画像REFは、少なくとも1つの物体参照画像O1Rおよび1つの背景参照画像BGRを含み、当該入力画像REFはリポジトリ30に格納されている白色光画像(White light image)と狭帯域画像(Narrow band image)であってもよく、または、画像キャプチャユニット20により24カラーチェッカーから取り込まれた参照色であってもよい。本実施例の画像キャプチャユニット20は、白色光内視鏡OLYMPUS EVIS LUCERA CV-260 SLにより、対応する白色光参照画像を取得し、狭帯域内視鏡OLYMPUS EVIS LUCERA CLV-260により、対応する白色光参照画像を得る。かつ狭帯域内視鏡OLYMPUS EVIS LUCERA CLV-260により、対応する狭帯域参照画像を得る。つまり、当該少なくとも1つの物体参照画像O1Rおよび背景参照画像BGRが当該参照画像REFの白色光参照画像および狭帯域参照画像に存在する。
図2Aを参照すると、当該ホスト10は当該参照画像REFに基づいてハイパースペクトル画像情報HSAを取得し、即ち、可視光ハイパースペクトル技術(Visible Hyperspectral Algorithm, VIS-HSA)によって、画像キャプチャユニット20が取り込んだ入力画像に対して演算を行い、一般画像色域空間(つまり取込画像の色域空間)をXYZ色域空間(CIE1931XYZ Color space)に変換する(例えば、sRGB色域空間からXYZ色域空間へ変換する)ための変換方程式を得る。本発明のハイパースペクトル画像情報は、可視光ハイパースペクトル技術に対応する可視光帯域ハイパースペクトルであり、且つ、自然界でよく見られる主な色(赤、緑、青、灰)を含む24カラーチェッカー(X-Rite Classic, 24 Color Checkers)に対応する。ハイパースペクトル画像情報HSAは当該複数の白色光画像と複数の狭帯域画像に対応し、且つ、複数の配色関数(Color matching functions, CMF)、補正マトリックスCおよび変換マトリックスMを含む。
続いて、変換するための最初のステップは、参照画像REFと分光器(Ocean Optics QE65000)を同じXYZ色域空間に変換する必要がある。以下は参照画像REFの変換式。
Figure 0007449004000001
Figure 0007449004000002
Figure 0007449004000003
Figure 0007449004000004
f(n)はgamma関数であり、sRGB値を線性RGB値に変換でき、Tは変換マトリックスであり、[MA]は色順応変換マトリックスである。式(一)に基づいて線性RGB値をXYZ色域空間に規定されたXYZ値(XYZ Endoscope)に変換できる。
以下は、分光器が取り込んだ反射スペクトルデータをXYZ色域空間に変換するための式である。
Figure 0007449004000005
Figure 0007449004000006
Figure 0007449004000007
kは下記式(八)のとおりである。
Figure 0007449004000008
Figure 0007449004000009
Figure 0007449004000010
Figure 0007449004000011
は配色関数(CMF:Color matching functions)であり、
Figure 0007449004000012
は内視鏡で撮影した光源スペクトルである。XYZ色域空間のY値は輝度と正比例するため、式(九)により光源スペクトルY値の最大輝度(飽和輝度)が得られる。さらに、Y値の上限を100とすることにより、輝度の所期の比例kが得られ、式(五)~式(七)で反射スペクトルデータをXYZ色域空間に規定されたXYZ値[XYZspectrum]がに変換する。
さらに、下記式(十)の補正マトリックスCで内視鏡画像の補正を行う。
Figure 0007449004000013
内視鏡の非線性応答、内視鏡の暗電流、カラーフィルタの色分離の不正確さ、および、色ずれ(例えばホワイトバランス)などを含む内視鏡の誤差を引き起こす要因を分析することにより変数マトリックス[V]が得られ、XYZ値[XYZspectrum]を補正する。
狭帯域画像と白色光画像は3階演算の演算結果が近似するため、非線性応答の補正は3階方程式で行われ、内視鏡の非線性応答は下記式(十一)を用いた。
Figure 0007449004000014
一般的に、内視鏡における暗電流は一定値であり、入光量の変化に伴う大幅な変化はないため、暗電流の影響を定数と見なし、暗電流の補正変数をVDarkと定義し、以下記式(十二)で暗電流の影響を補正する。
Figure 0007449004000015
カラーフィルタの色分離の不正確さ、および、色ずれの補正変数はVcolorと定義し、
Figure 0007449004000016
Figure 0007449004000017
Figure 0007449004000018
はRGB色域空間からXYZ色域空間へ変換するための配色関数であり、
Figure 0007449004000019
Figure 0007449004000020
Figure 0007449004000021
の3者間の関連性によってX、Y、Zの間の可能性を下記式(十三)のように順列・組み合わせる。これにより、内視鏡画像のカラーフィルタの色分離の不正確さ、および、色ずれを補正する。
Figure 0007449004000022
上記式(十一)~式(十三)により,下記式(十四)の補正変数マトリックスVが推定される。
Figure 0007449004000023
上記変数マトリックスVに補正マトリックスCを組み合わせることにより,下記式(十五)のように、補正後のX、Y、Z値[XYZCorrect]を得る。
Figure 0007449004000024
白色光画像は[XYZCorrect]と[XYZspectrum]では平均誤差値は1.40であり、狭帯域画像は[XYZCorrect]と[XYZspectrum]では平均誤差値は2.39である。
以上の計算は可視光帯域380nm~780nmの光波長帯域を用いるため、内視鏡の補正結果は色収差で示され、[XYZCorrect]と[XYZspectrum]はCIE DE2000の対応するLab色域空間に変換され、色域空間変換関数式は下記式(十六)~式(十八)の通りである。
Figure 0007449004000025
Figure 0007449004000026
Figure 0007449004000027
f(n)は下記式(十九)の通りである。
Figure 0007449004000028
白色光画像は補正前の色差値が平均11.60、補正後の色差値が平均2.84であるが、狭帯域画像は補正前の色差値が平均29.14、補正後の色差値が平均2.58である。
ステップS10において、図2Bに示すように、ホスト10は、画像キャプチャユニット20から入力画像IMGを取得し、当該入力画像IMGは、参照画像REFと同様に、白色光画像と狭帯域画像とを有してもよい。本実施例の画像キャプチャユニット20は、白色光内視鏡OLYMPUS EVIS LUCERA CV-260 SLに対応する白色光画像、または、狭帯域内視鏡OLYMPUS EVIS LUCERA CLV-260に対応する狭帯域画像である。ステップS15において、ホスト10は、当該入力画像IMGの解像度が例えば10nmなどの解像度閾値を満たす場合、当該入力画像IMGがハイパースペクトル画像(hyperspectral image)の解像度閾値に合致すると判断する。ステップS05で得られたハイパースペクトル画像情報HSAに基づいて、入力画像IMGをハイパースペクトル画像HYIに変換し、その後、ステップS20を実行する。
続いて、ステップS20において、当該ホストは、当該ハイパースペクトル画像HYIに基づいて対応する複数の第1のハイパースペクトル特徴値F1を取得する。ステップS25において、当該ホスト10は、ステップS20でこれらの第1のハイパースペクトル特徴値F1を取得し、細胞CELLの周波数帯域BNDに基づいてこれらの第1のハイパースペクトル特徴値F1に対して選択(Band selection)して主成分分析(PCA:Principal components analysis)演算を行い、演算結果を簡略化するため、変化量の低い特徴値をフィルタリングし、ハイパースペクトル画像HYIを簡素略化し、複数の第2の特徴値F2を生成する。
PCAの演算式は下記式(二十)の通りである。
Figure 0007449004000029
また、
Figure 0007449004000030

Figure 0007449004000031
は1番目~n番目の波長のスペクトル強度値を表し、
Figure 0007449004000032

Figure 0007449004000033
は1番目~n番目の波長のスペクトル所期値(平均スペクトル強度値)を表し、aj1~ajnは、スペクトルにより共分散計算を行う際の共分散マトリックスの特徴ベクトル係数を表す。主成分分析により、401次元スペクトル情報の次元を下げ、最初の3次元のみを求め、演算の複雑さを低減させる。本実施例では、2つの周波数帯域がそれぞれ415nmおよび540nmのスペクトル強度値をとる。
周波数帯域に基づいて選択することの原理は以下である。赤光が深さが異なる血管内のグロブリンに吸収される場合に、浅い層の粘膜組織の微細血管は茶褐色を呈し、粘膜下組織の血管は緑色を呈し、強烈な分層感を表わすため、粘膜組織の病変の識別に有利であるため、本実施例ではハイパースペクトル画像HYIから食道癌細胞検出に関連する血球蛋白の周波数帯域の415nmおよび540nmを選択したが、これに限定しない。異なる細胞に対して異なる周波数帯域を選択してもよい。また、さらに、まず、下記式(二十一)のように、上記得られた補正値[XYZCorrect]と、上記24カラーチェッカーに対応する反射スペクトルデータ[Rspectrum]とを組み合わせ、演算により対応する変換マトリックスMを求める。pinv[V]はマトリックスVの虚反マトリックスである。
Figure 0007449004000034
Figure 0007449004000035
反射スペクトルデータ[Rspectrum]を主成分分析し、複数組の主成分(EV)を求める。主成分を取得することにより主成分分数[Score]を取得する。本実施例は、解釈能力(重み百分比88.0417%、8.2212%、2.6422%、0.609%、0.22382%、0.10432%、0.054658%、0.0472%、0.02638%、0.012184%)が比較的に良い10組の主成分を用いて次元を下げる演算を行う。模擬スペクトル[Sspectrum]380-780を取得し、模擬スペクトル[Sspectrum]380-780は、入力画像IMGに対応する[XYZspectrum]の誤差が、白色光画像では11.60から2.85に補正され、狭帯域画像では29.14から2.60補正される。肉眼では容易に認識できない色誤差が達成され、使用者が色再現を必要とする場合には、良好な色再現効果が得られ、可視光帯域内の良好なハイパースペクトル画像をシミュレートすることができる。
ステップS30において、図2Cと図3に示すように、ホスト10は、ステップS20~ステップS25で当該入力画像IMGから得られた第2の特徴値F2について、特に0~1の間で、複数の畳み込みカーネルCを用いて、当該入力画像IMGに対応する複数の第2の特徴値F2を検出する。これらの畳み込みカーネルCは、少なくとも1つの当該測定対象物画像O2の複数の選択画像O2に対応する選択特徴値F22、および、少なくとも1つの測定対象物画像O1の隣接周辺画像BGIに対応するエッジ特徴値F24を含み、これにより、測定対象物画像O1を含まない背景画像BGをフィルタリングすることができる。当該ホストは、1回多フレーム目標検出器(SSMD(Single Shot Multibox Detector))モデルに基づいて、当該入力画像の各画素ユニットに対して畳み込みを行い、当該特徴値を検出する。これらの畳み込みカーネルCは、当該少なくとも1つの測定対象物画像O1の複数の選択画像O2が対応する選択特徴値F22、および隣接周辺画像BGIに対応するエッジ特徴値F24に対応する。
図2Cと図3に示すように、当該入力画像IMGはm×n画素ユニットであり、かつP個のチャネルを通して特徴抽出を行い、そのため当該複数の畳み込みカーネルO1はm×m×pユニットであり、かつm=nは、例えば:1×1×p、3×3×p、5×5×p、10×10×p、19×19×pまたは38×38×pであり、従って畳み込みカーネルCを通して当該入力画像IMG上の測定対象物画像O1と当該背景画像BGを測定し、当該背景画像BGをフィルタリングして除去し、従って当該背景画像BGに対する後続ステップの処理を減少し、当該入力画像IMGが対応する第2の特徴値F2は処理ユニット12を通して対応する選択特徴値F22と周辺特徴値F24に変換し、処理ユニット12は畳み込みカーネルCを通して当該入力画像IMGが対応する第2の特徴値F2と乗算し、異なる畳み込み結果Rを得て、同じであれば1、異なると-1の値を得て、従って非相関の背景画像BGをフィルタリングし、図4に示すように、入力画像IMGが対応する第2の特徴値F2で一部の当該選択特徴値F22が対応する一部または全部の当該少なくとも1つの測定対象物画像O1を取得し、従って一部または全部の当該少なくとも1つの測定対象物画像O1の所在エリアAを取得する。
ステップS35において、図2Dと図5に示すように、ホスト10は当該少なくとも1つの測定対象物画像O1の所在エリアAによって少なくとも1つの選択画像O2を取得して、即ち畳み込みプログラムPによって選択特徴値F22と周辺特徴値F24を取得して更に少なくとも1つの予測ボックスDを対応して確立し、且つ図6に示すように、当該入力画像IMGに対するエッジは初期の境界ボックスBであり、予測ボックスDの辺長寸法は、
Figure 0007449004000036
であり、
最大辺長は、
Figure 0007449004000037
であり、
下式の式(二十三)によって辺長寸法sを求められる。
Figure 0007449004000038
また、次の式(二十四)、式(二十五)により辺長寸法sに基づいて高さと幅を算出する。
Figure 0007449004000039
Figure 0007449004000040
はk番目の特徴図の矩形先験的ボックスの高さ寸法で、wは矩形先験的ボックスの幅寸法で、aは予測ボックスDの縦横比で、aは0より大きい。
ステップS40において、図2Fと図6に示すように、ホスト10は処理ユニット12によって入力画像IMGに対応する境界ボックスBを取込んでかつ畳み込みプログラムPを実行し、当該予測ボックスDの第1の中心点Dcと当該入力画像IMGの境界ボックスBの第2中心点Bcを取込んで、且つ第1の中心点Dcと第2の中心点Bcに対して対応する中心オフセットDISを取得し、ステップS45において、図2Eと図7に示すように、ホスト10の処理ユニット12は、当該予測ボックスDと当該境界ボックスBの中心オフセットDISによって回帰計算LOOPを行う、その計算は以下の通りである。
予測ボックスDの位置
Figure 0007449004000041
境界ボックスBの位置
Figure 0007449004000042
ズーム因子
Figure 0007449004000043
Figure 0007449004000044
Figure 0007449004000045
Figure 0007449004000046
Figure 0007449004000047
まず境界ボックスBの中心座標を予測ボックスDの中心座標に揃え、意味は境界ボックスBの中心を「先に平行移動」して予測ボックスDの中心点まで移動させ、即ち図6の第1の中心点Dcと第2の中心点Bcを重畳し、式(二十九)と式(三十)のように、また境界ボックスの寸法の大きさを「後ズーム」して予測ボックスDに接近させ、式(三十一)と式(三十二)のように、当該平行移動変換とスケールスケーリングを経て、境界ボックスBを無限に予測ボックスDの位置に接近させることができ、これによってステップS50において、ホスト10は処理ユニット12により実行する畳み込みプログラムPが組み合わせる畳み込みニューラルネットワークCNNによって、絶えず境界ボックスBの寸法の大きさが無限に予測ボックスDの位置に接近するまで回帰演算し、これによって測定対象物画像O1を予測ボックスDに対して境界ボックスBと重畳し、したがって正確に測定対象物画像O1の位置を定義し、即ち当該第1の中心点Dcを当該第2の中心点Bcに移動する時に、関連して当該選択画像(即ち予測ボックスD内の画像)を当該第2の中心点Bcに移動する。
また、測定対象物画像O1の位置をより正確に定義するために、さらに損失方程式を組み合わせると、次の式(三十三)となる。
Figure 0007449004000048
そこで、予測ボックスDの位置と測定対象物画像O1の位置との誤差を検証する。
ステップS55において、ホスト10は、図2Gに示すように、処理ユニット12が測定対象物画像O1の位置を突き止めた後、測定対象物画像O1をリポジトリ30内のサンプル像SAと1回目の比較を行い、ステップS60において、図2Hに示すように、ホスト10は、比較結果Rに基づいて、ホスト10の処理ユニット12によって実行される畳み込みプログラムPに基づいて、当該入力画像IMGを目標物体画像TAまたは非目標物体画像NTAに分類する。例えば、悪性腫瘍の場合、ホスト10の処理ユニット12によって実行される畳み込みプログラムPが、予測ブロックD内の測定対象物画像O1について少なくとも1つのサンプル画像SAに一致することを認識しなかった場合、ホスト10は、入力画像IMGを非目標物体画像NTAに分類し、逆に、ホスト10の処理ユニット12によって実行される畳み込みプログラムPが、入力画像IMGを目標物体画像TAに分類する。ホスト10の処理ユニット12によって実行される畳み込みプログラムPが、入力画像IMGを非目標物体画像NTAに分類した場合、畳み込みプログラムPは、少なくとも1つのサンプル画像SAと測定対象物画像O1とを改めて比較し、畳み込みプログラムPは、測定対象物画像O1の比較結果Rと目標物体画像TAの近似度が近似閾値より大きいと判断した場合(例えば、近似度0~1の場合、0.5を閾値とする)、畳み込みプログラムPは入力画像IMGを目標物体画像TAに分類し、逆に、畳み込みプログラムPは入力画像IMGを非目標物体画像NTAに分類する。畳み込みプログラムPは、Intersection over Union(IOU)に従い、目標物体画像TAの近似度が大きい方が、当該対目標物体画像TAの近似度が小さい方の交差度が交差閾値よりも大きい(例えば、交差度0~1の間で、交差閾値として0.5をとる)場合、畳み込みプログラムPは、当該目標物体画像TAの近似度が小さい方を当該目標物体画像TAから除外する。
図8に示すように、それは本発明の実施例の見取り図である。入力画像IMGは食道内視鏡画像であり、入力画像IMGに対して本発明の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法によって、予測ボックスDと境界ボックスBを重畳し、且つサンプル画像(形成異常(Dysplasia)区域の食道内視鏡画像)との比較を行い、比較結果Rを得て、正確率は93.0%に達する。
本発明の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法では、ハイパースペクトル画像HYIから周波数帯域によって選択し、ハイパースペクトル画像HYIは可視色を構成する異なる周波数帯域(本実施例では380nm~780nmの計401個の周波数帯域)のスペクトル強度を認識することができるが、複数次元のハイパースペクトル画像HYIに対して必要な周波数帯域(本実施例では415nmおよび540nmの計2個の周波数帯域)をフィルタリングして次元を下げ(401個の周波数帯域から2個の周波数帯域に下げたデータ)、後続の演算を行い、畳み込みニューラルネットワークで目標物体画像または非目標物体画像の分類を行い、1780枚の食道内視鏡画像の判断結果において、本発明は入力画像IMGを白色光画像(WLI)または狭帯域画像(NBI)として病巣の有無を判断する精度を比較し、周波数帯域BNDによって選択後のハイパースペクトル画像HYIを介して形成異常(Dysplasia)領域に対する判断精度を98%に向上させることができ(白色光画像(WLI)判断精度:96%、狭帯域画像(NBI)判断精度:85%)、周波数帯域BNDによって選択後のハイパースペクトル画像HYIを介して食道癌(SCC)領域に対する判断精度を93%に向上させることができる(白色光画像(WLI)判断精度:92%、狭帯域画像(NBI)判断精度:82%)。医療従事者が本発明を症状の判断の補助証拠として使用することができ、本発明は入力画像IMGの色彩を調整するのではなく、フィルタリングして色彩の光を生成する。
さらに別の実施例を提供し、本発明はハイパースペクトル画像HYIから周波数帯域によって選択した後に、普通の画像として出力することを説明し、ステップS25の後にさらに以下のステップを含む。
ステップS28:第1のハイパースペクトル特徴値を周波数帯域によって選択し、かつハイパースペクトル画像情報に基づいて模擬画像に変換する。
本発明は他の実施例を提供する。図2Iに示すように、ステップS28において、当該ホスト10はこれらの第1のハイパースペクトル特徴値F1に対して当該周波数帯域BNDによって選択(Band selection)を行い、かつステップS05で得たハイパースペクトル画像情報HSAに基づいて模擬画像SIMに変換する。
ステップS25において、反射スペクトルデータ[Rspectrum]を主成分分析して次元を下げる演算を行って模擬スペクトル[Sspectrum]380-780を取得する。ステップS25において、ステップS05の式(五)から式(七)によって模擬スペクトル[Sspectrum]380-780データをXYZ色域空間が規範とするXYZ値に変換し、さらに式(三十四)によって模擬画像SIMに変換する。
Figure 0007449004000049
本実施形態では、次元を下げたデータを一般的な画像(RGB画像)に変換して医療者に見てもらうことができ、一実施形態では、選択した周波数帯域は415nmと540nmである、生成した模擬画像SIMが狭帯域画像(Narrow band image)に近似し、波長によって組織への透過力が異なります、赤い光が血管内のヘモグロブリンに吸収されると、浅層粘膜組織の微小血管は茶色で、粘膜下組織の血管は緑色である。一方、本発明で生成される選択した周波数帯域の模擬画像SIMは、401個の周波数帯域の白色光画像(WLI)のうち2個の周波数帯域を選択した新たな画像であり、本来は背景と色が似ている病巣(目標物体画像TA)を際立たせ、背景画像BGとの比較度を向上させる。
本発明の一具体的な実施例を提供する。図9A、図9B、図10Aおよび図10Bに示すように、これらは本発明の具体的な実施例の画像を示す図である。例えば、食道内視鏡白色光画像(WLI画像)が食道癌に合致するか否かを識別し、ホストが入力画像IMGをキャプチャし、当該入力画像IMGをハイパースペクトル画像情報HSAでハイパースペクトル画像HYIを取得し、ハイパースペクトル画像HYIは380nm~780nmの401個の周波数帯域を有するため、周波数帯域BNDの415nmと540nmを選択し、畳み込み演算を行い、ボックス選択により測定対象物画像の位置を選択し、サンプル画像との比較を行い、予測ボックスDと境界ボックスBを取得して比較結果Rを得る。また、ハイパースペクトル画像情報HSAに基づいて模擬画像SIMを出力し、模擬画像SIMは模擬狭帯域画像(NBI)であり、図9Aに示す比較用サンプル画像が形成異常(Dysplasia)エリアの白色光画像であり、図10Aに示す比較用サンプル画像が食道癌(SCC)エリアの白色光画像であり、図9Bおよび図10Bは当該白色光画像が本発明の方法によって出力された模擬NBI画像であり、本発明の模擬NBI画像からわかるように、病巣場所(目標物体画像TA)が比較的に顕著であり、背景画像BGとの比較度を向上させ、医療従事者が観察しやすいことが明らかである。
以上をまとめると、本発明の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法は、ホストはハイパースペクトル画像情報を取得し、ハイパースペクトル画像情報に基づいて入力画像をハイパースペクトル画像に変換、続いてハイパースペクトル画像を周波数帯域による選択に基づいて、引き続き畳み込みプログラムを実行し、ホストに畳み込みニューラルネットワークを構築させ、画像キャプチャユニットの入力画像を畳み込み、検出したい選出領域を選出し、入力画像上に予測ボックスを形成し、回帰演算を行い、境界ボックスにより測定対象物画像の位置合わせをし、最後にサンプル画像との比較を行い、比較結果を用いて目標物体画像と非目標物体画像に分類し、ハイパースペクトル技術にて物体画像の識別を支援する目的を達成できる。
したがって、本発明は実際に新規性、進歩性及び産業上の利用可能性を有するため、台湾特許法の特許出願要件に合致すべきであることは間違いなく、法により発明特許を出願し、貴庁が早期に特許を賜ることを祈念し、切に希望する。
ただし、上記のものは、本発明の優れた実施例にすぎず、本発明の実施範囲を限定するためのものではなく、本発明の特許出願の範囲に記載された形状、構造、特徴及び精神に基づいた均等な変化及び修飾は、すべて本発明の特許出願の範囲内に含まれる。
1 検出システム
10 ホスト
12 処理ユニット
14 メモリ
16 格納ユニット
20 画像キャプチャユニット
30 リポジトリ
B 境界ボックス
BAND 周波数帯域
Bc 第2の中心点
BG 背景画像
BGI 周辺画像
C 畳み込みカーネル
CELL 細胞
CNN 畳み込みニューラルネットワーク
D 予測ボックス
Dc 第1の中心点
F1 第1のハイパースペクトル特徴値
F2 第2の特徴値
HSA ハイパースペクトル画像情報
HYI ハイパースペクトル画像
IMG 入力画像
O1 測定対象物画像
O1R 物体参照画像
O2 選択画像
P 畳み込みプログラム
R 比較結果
REF 参照画像
SA サンプル画像
SIM 模擬画像
TA 目標物体画像
NTA 非目標物体画像
S10~S42 ステップ

Claims (13)

  1. 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法であって、以下のステップを含む:
    参照画像をハイパースペクトル参照画像に変換するハイパースペクトル画像情報を取得し、前記参照画像は少なくとも1つの物体参照画像と1つの背景参照画像を含み、
    画像キャプチャユニットは入力画像をキャプチャしてホストに提供し、前記入力画像は少なくとも1つの測定対象物画像と1つの背景画像を含み、
    前記ホストは、前記ハイパースペクトル画像情報に基づいて前記入力画像を変換することによって、ハイパースペクトル画像を取得し、
    前記ホストは前記ハイパースペクトル画像に基づいて分析を行うことによって、複数の第1のハイパースペクトル特徴値を取得し、
    前記ホストはこれらの第1のハイパースペクトル特徴値に対して、細胞の周波数帯域に基づく選択及び主成分分析演算を行うことによって、前記ハイパースペクトル画像を簡略化して対応する複数の第2の特徴値を生成し、
    前記ホストは複数の畳み込みカーネルに基づいて、前記第2の特徴値に対して少なくとも1つの畳み込み演算を行って前記背景画像をフィルタリングし、前記ホストは畳み込み結果および前記少なくとも1つの測定対象物画像に基づいて少なくとも1つの選択画像を取得し、前記畳み込みカーネルは、複数の選択特徴値と、複数の周辺特徴値とを含み、前記少なくとも1つの測定対象物画像は、複数の周辺画像および前記少なくとも1つの選択画像を含み、これらの周辺画像は前記少なくとも1つの選択画像を取囲み、前記少なくとも1つの選択画像は、前記選択特徴値に対応し、これらの周辺画像は、前記周辺特徴値に対応し、
    前記ホストは前記少なくとも1つの選択画像のエッジに基づいて少なくとも1つの予測ボックスを生成し、
    前記ホストは、前記予測ボックスの第1の中心点と境界ボックスの第2の中心点とを比較するために用いる前記入力画像の境界ボックスを取得し、前記ホストは、前記予測ボックスと前記境界ボックスとの中心オフセットを取得し、前記境界ボックスは前記入力画像のエッジに対応し、
    前記ホストは、前記中心オフセットに基づいて回帰演算を行い、回帰演算結果を取得し、
    前記ホストは、前記回帰演算結果と前記予測ボックスに基づいて前記測定対象物画像の位置合わせ調整を行い、前記第1の中心点を前記第2の中心点に移動させるとともに前記選択画像を前記第2の中心点に移動させ、
    前記ホストは位置調整後の前記測定対象物画像と少なくとも1つのサンプル画像とをマッチング比較して比較結果を生成し、
    前記ホストは、前記比較結果に基づいて、前記入力画像が目標物体画像であると判断する、方法。
  2. 前記ホストが前記複数の畳み込みカーネルに基づいて前記第2の特徴値に対して少なくとも1つの畳み込み演算を行うステップにおいて、前記ホストは前記畳み込みカーネルをm×n×pに設定し、かつ前記入力画像の複数の画素値を複数の画素正規値に正規化して、前記畳み込みカーネルに前記複数の画素正規値をかけ算して、畳み込み層で前記複数の第2の特徴値を取得し、かつm=nであり、mは1、3、5、10、19または38である、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  3. 前記畳み込み結果と前記少なくとも1つの測定対象物画像に基づいて少なくとも1つの選択画像を取得するステップにおいて、前記ホストが前記複数の選択特徴値の所在エリアを統合して前記入力画像上に少なくとも1つの分布エリアを取得する、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  4. 前記ホストが前記複数の畳み込みカーネルによって前記第2の特徴値に対して少なくとも1つの畳み込み演算を行うステップにおいて、前記ホストがSSMD(Single Shot Multibox Detector)モデルによって、前記入力画像のそれぞれの画素に畳み込みを行うことによって、前記第2の特徴値を検出する、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  5. 前記ホストが前記中心オフセットに基づいて回帰演算を行うステップにおいて、前記ホストは前記予測ボックスの第1の位置、前記境界ボックスの第2の位置およびズーム因子によって前記回帰演算を行うことによって、前記測定対象物画像を位置決めする、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  6. 前記ホストが前記測定対象物画像と少なくとも1つのサンプル画像とをマッチング比較するステップでは、前記ホストが完全接続層において前記測定対象物画像と前記少なくとも1つのサンプル画像とのマッチング比較を行う、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  7. 比較結果に基づいて前記入力画像が目標物体画像であると判断するステップにおいて、前記ホストが前記少なくとも1つのサンプル画像に基づいて前記入力画像が目標物体画像であると判断できない場合、前記ホストが前記少なくとも1つのサンプル画像に基づいて前記測定対象物画像を近似比較する、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  8. 前記ホストが前記少なくとも1つのサンプル画像によって前記測定対象物画像に対して近似比較を行うステップにおいて、前記ホストが前記測定対象物画像の近似度が近似閾値よりも大きいと判断する場合、前記ホストは前記入力画像を前記目標物体画像と判断する、請求項7に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  9. ハイパースペクトル画像情報は、前記入力画像の複数の白色光画像と複数の狭帯域画像に対応し、かつ複数の配色関数、補正マトリックスおよび変換マトリックスを含む、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  10. 前記ホストが位置合わせ後の前記測定対象物画像と、なくとも1つのサンプル画像とのマッチング比較を行うステップにおいて、前記ホストがリポジトリから前記少なくとも1つのサンプル画像を読み取り、位置合わせ後の前記測定対象物画像に基づいて前記マッチング比較を行う、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  11. 前記ホストが前記複数の第1のハイパースペクトル特徴値に対して細胞の周波数帯域による選択及び主成分分析演算を行うことによって、前記ハイパースペクトル画像を簡略化して対応する前記複数の第2の特徴値を生成するステップの後に、前記ホストはこれらの第1のハイパースペクトル特徴値に対して、周波数帯域による選択と前記ハイパースペクトル画像情報とに基づいた模擬画像への変換を行う、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  12. 前記細胞が食道癌細胞である、請求項1に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
  13. 前記周波数帯域は415nmおよび540nmである、請求項11に記載の周波数帯域を用いたハイパースペクトルによる物体画像の検出方法。
JP2023015049A 2022-03-04 2023-02-03 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法 Active JP7449004B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW111108093 2022-03-04
TW111108093A TWI796156B (zh) 2022-03-04 2022-03-04 以波段用於超頻譜檢測物件影像之方法

Publications (2)

Publication Number Publication Date
JP2023129277A JP2023129277A (ja) 2023-09-14
JP7449004B2 true JP7449004B2 (ja) 2024-03-13

Family

ID=86692329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023015049A Active JP7449004B2 (ja) 2022-03-04 2023-02-03 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法

Country Status (3)

Country Link
US (1) US20230281818A1 (ja)
JP (1) JP7449004B2 (ja)
TW (1) TWI796156B (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158840A (ja) 2016-03-10 2017-09-14 富士フイルム株式会社 内視鏡画像信号処理装置および方法並びにプログラム
US20170319147A1 (en) 2016-05-04 2017-11-09 National Chung Cheng University Cancerous lesion identifying method via hyper-spectral imaging technique
WO2019151029A1 (ja) 2018-02-05 2019-08-08 ソニー株式会社 撮像装置および撮像方法、並びにプログラム
WO2019220916A1 (ja) 2018-05-14 2019-11-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び内視鏡システム
US20200134820A1 (en) 2018-10-25 2020-04-30 Koninklijke Philips N.V. Tumor boundary reconstruction using hyperspectral imaging
JP2020073081A (ja) 2017-10-30 2020-05-14 公益財団法人がん研究会 画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム
CN112766199A (zh) 2021-01-26 2021-05-07 武汉大学 基于自适应多尺度特征提取模型的高光谱图像分类方法
JP2021177163A (ja) 2020-05-05 2021-11-11 國立中正大學 2次元材料薄膜検出方法および2次元材料薄膜検出システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158840A (ja) 2016-03-10 2017-09-14 富士フイルム株式会社 内視鏡画像信号処理装置および方法並びにプログラム
US20170319147A1 (en) 2016-05-04 2017-11-09 National Chung Cheng University Cancerous lesion identifying method via hyper-spectral imaging technique
JP2020073081A (ja) 2017-10-30 2020-05-14 公益財団法人がん研究会 画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム
WO2019151029A1 (ja) 2018-02-05 2019-08-08 ソニー株式会社 撮像装置および撮像方法、並びにプログラム
WO2019220916A1 (ja) 2018-05-14 2019-11-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び内視鏡システム
US20200134820A1 (en) 2018-10-25 2020-04-30 Koninklijke Philips N.V. Tumor boundary reconstruction using hyperspectral imaging
JP2021177163A (ja) 2020-05-05 2021-11-11 國立中正大學 2次元材料薄膜検出方法および2次元材料薄膜検出システム
CN112766199A (zh) 2021-01-26 2021-05-07 武汉大学 基于自适应多尺度特征提取模型的高光谱图像分类方法

Also Published As

Publication number Publication date
US20230281818A1 (en) 2023-09-07
TW202336690A (zh) 2023-09-16
TWI796156B (zh) 2023-03-11
JP2023129277A (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
Clancy et al. Surgical spectral imaging
JP6657480B2 (ja) 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
US8472682B2 (en) Medical image processing
US8483454B2 (en) Methods for tissue classification in cervical imagery
EP1576920B1 (en) Imaging device
WO2008115547A1 (en) A method of automated image color calibration
CN115049666B (zh) 基于彩色小波协方差深度图模型的内镜虚拟活检装置
TWI738367B (zh) 以卷積神經網路檢測物件影像之方法
Ali et al. Color-based template selection for detection of gastric abnormalities in video endoscopy
JP2023129276A (ja) セマンティックセグメンテーションに基づく画像識別方法
JP7449004B2 (ja) 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法
Zhang et al. Medical biometrics: computerized TCM data analysis
US20240065540A1 (en) Apparatus and method for detecting cervical cancer
Chand et al. Identifying oral cancer using multispectral snapshot camera
JP7142754B1 (ja) 畳み込みニューラルネットワークを使用して食道癌の画像を検出する方法
Ye et al. Segmentation and feature extraction of endoscopic images for making diagnosis of acute appendicitis
Meyer-Veit et al. Hyperspectral endoscopy using deep learning for laryngeal cancer segmentation
JP6931425B2 (ja) 医用画像学習装置、医用画像学習方法、及びプログラム
CN116322465A (zh) 图像处理装置、内窥镜***、图像处理装置的工作方法及图像处理装置用程序
JP2023129258A (ja) ハイパースペクトル画像による物体検出方法
Abdullah et al. Computer-aided diseases diagnosis system based on tongue color analysis: A review
TWI821149B (zh) 內視鏡冗餘影像除去方法
Finkšt et al. Autofluorescence bronchoscopy image processing in the selected colour spaces
Obukhova et al. Image processing algorithm for virtual chromoendoscopy (Tone Enhancement) in clinical decision support system
Coole Integrating Multimodal Optical Imaging Systems for Interactive Clinician Guidance for Cancer Detection and Resection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7449004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150