JP7044120B2 - 識別装置、識別器学習方法、識別方法及びプログラム - Google Patents

識別装置、識別器学習方法、識別方法及びプログラム Download PDF

Info

Publication number
JP7044120B2
JP7044120B2 JP2020019275A JP2020019275A JP7044120B2 JP 7044120 B2 JP7044120 B2 JP 7044120B2 JP 2020019275 A JP2020019275 A JP 2020019275A JP 2020019275 A JP2020019275 A JP 2020019275A JP 7044120 B2 JP7044120 B2 JP 7044120B2
Authority
JP
Japan
Prior art keywords
image data
classifier
affected area
keratin plug
plug
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020019275A
Other languages
English (en)
Other versions
JP2021125056A (ja
Inventor
和久 松永
光康 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020019275A priority Critical patent/JP7044120B2/ja
Priority to US16/823,919 priority patent/US11295443B2/en
Priority to AU2020202082A priority patent/AU2020202082B2/en
Priority to EP20165331.8A priority patent/EP3862923A1/en
Priority to CN202010285002.5A priority patent/CN113256549A/zh
Publication of JP2021125056A publication Critical patent/JP2021125056A/ja
Priority to JP2021205861A priority patent/JP7331913B2/ja
Application granted granted Critical
Publication of JP7044120B2 publication Critical patent/JP7044120B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Dermatology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、識別装置、識別器学習方法、識別方法及びプログラムに関する。
従来、撮像された患部が悪性であるか否かを識別する識別装置として、例えば特許文献1に開示された診断装置が知られている。この診断装置では、皮膚画像データに対して、部位強調、構造明瞭化、回転、反転等の画像変換を実行して画像データを増量し、増量された画像データを複数の識別器に入力している。そして、複数の識別器の識別結果を統合して最終的な識別結果を得ることによって、従来よりも識別精度を向上させている。
特開2017-45341号公報
特許文献1に開示されているような従来のアンサンブル識別器では、複数の識別器を用いることによって、単一の識別器による識別よりも識別精度を向上させることができた。しかし、複数の識別器に入力される画像データは、いずれも元の画像データを画像変換したものに過ぎず、画像データに含まれる情報が増えるわけではないため、識別精度の向上には限界があった。
本発明は、上記問題を解決するためになされたものであり、従来よりもさらに識別精度の向上を図ることができる識別装置、識別器学習方法、識別方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の識別装置は、
白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データと、前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データとに基づいて学習された識別器であって、角栓を含む患部が写されている第2画像データを識別対象とする角栓有用識別器と、角栓が無い患部が写されている第2の画像データを識別対象とする角栓無用識別器と、を含む識別器と、
前記第1画像データを取得する第1画像データ取得手段と、
前記第2画像データを取得する第2画像データ取得手段と、
前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定手段と、
前記第2画像データが前記角栓有無判定手段により角栓有と判定された場合は前記角栓有用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別し、前記第2画像データが前記角栓有無判定手段により角栓無と判定された場合は前記角栓無用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別する最終識別手段と、
を備える。
本発明によれば、従来よりもさらに識別精度の向上を図ることができる。
実施形態1に係る識別装置の処理概要を説明する図である。 実施形態1に係る識別装置の機能構成を示す図である。 実施形態1に係る識別器学習処理のフローチャートである。 実施形態1に係る学習データ生成処理のフローチャートである。 実施形態1に係る識別処理のフローチャートである。 変形例1に係る識別装置の機能構成を示す図である。 変形例1に係る統合画像学習処理のフローチャートである。 変形例1に係る統合学習データ生成処理のフローチャートである。 変形例1に係る統合画像識別処理のフローチャートである。 変形例2に係る統合画像識別処理のフローチャートである。 変形例3に係る識別装置の機能構成を示す図である。 変形例3に係る角栓有無画像学習処理のフローチャートである。 変形例3に係る採用識別器決定・学習処理のフローチャートである。 変形例3に係る採用識別器決定・学習処理における交差検証を説明する図である。 変形例3に係る角栓有無利用識別処理のフローチャートである。
以下、本発明の実施形態に係る識別装置等について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。
(実施形態1)
本発明の実施形態1に係る識別装置100は、図1に示すように、まず患部に、第1照射光としての白色光(可視光の各波長の光が均等に混じった光。)を照射した場合と、患部に照射した場合に患部が蛍光反応を示すような第2照射光(例えば、波長が320nm~440nm、好ましくは、405nmの光。)を照射した場合とで、高速連写でそれぞれについて可視光による撮影を行う。そして、識別装置100は、この連写撮影により得られた、白色光を照射した場合の白色光照射可視光撮影画像データ(以下「白色光画像データ」という)及び紫外光を照射した場合の紫外光照射可視光撮影画像データ(以下「紫外光画像データ」という)を、それぞれの画像データ用に学習した識別器で識別する。そして、識別装置100は、この2つの識別結果に基づいて最終的な識別結果を得る。なお、高速連写とは、連写基準時間(例えば1秒)以下の時間間隔での連続した撮影のことをいう。
白色光を照射して撮影すると、角栓は、初期のものは白っぽく写り、進行すると酸化し、メラニンと同様に黒っぽく写る。しかし、紫外光を照射すると角栓は蛍光反応を示し、進行度によって黄色から赤色に光る。したがって、紫外光を照射して可視光で撮影すると、角栓の存在を確認しやすくなる。そして、患部に角栓が多く存在する場合は、悪性腫瘍により毛根が破壊されていないことを示し、その患部は良性である可能性が高い。識別装置100は、このことを利用し、白色光画像データによる識別結果と紫外光画像データによる識別結果とに基づいて最終的な識別結果を得ることにより、識別精度を向上させる。なお、患部を高速連写するのは、白色光画像データと紫外光画像データとの間での画像の位置ずれ及び経時変化を極力少なくするためである。
また、上述したように、紫外光を照射すると、角栓は蛍光反応を示すが、より詳細には、患部に角栓が増えると(患部が良性の可能性が高いと)、ポルフィリン蛍光波長(例えば、中心蛍光波長:630nm)が増加する。
さらに、紫外光の照射により蛍光反応を示すものは角栓に限られない。例えば、細胞が癌、又は、癌の手前の状態である異形状態になると、自己蛍光物質量が変化し、対応する蛍光波長の蛍光強度が変化する。したがって、これを可視光カメラで撮影することにより、各蛍光波長の増減を検出することができ、患部が癌等の悪性である場合の識別精度も向上させることができる。
具体的には、細胞が癌等の状態になると、例えば上皮細胞がダメージを受けることにより細胞内の酸素が少なくなり、それにより、NADH(reduced Nicotinamide Adenine Dinucleotide:還元型ニコチンアミドアデニンジヌクレオチド)が増大し、FAD(Flavin Adenine Dinucleotide:フラビンアデニンジヌクレオチド)が減少する。また、間質細胞のコラーゲンは、ダメージを受けることにより減少し、ポリフィリンも減少する。これらのコラーゲン、NADH、FAD及びポリフィリンの蛍光波長は、励起波長を変化させると変化するものの、基本的には、コラーゲン、NADH、FAD、ポルフィリンの順に中心蛍光波長が長い。例えば、紫外光を励起光として照射した時の中心蛍光波長の例を挙げると、コラーゲンでは400nm、NADHでは450nm、FADでは520nm、ポルフィリンでは630nmとなる。
さらに、紫外光照射を利用した患部の識別は、皮膚だけでなく、他の部位でも利用できる。特に、皮膚に存在するメラニンは紫外線を吸収するため、メラニンが少ない部位(例えば口腔、大腸粘膜、子宮頚部等)の方が吸収される紫外線が少なくなり、本発明を適用することにより、高い識別精度を得られることが期待できる。さらに子宮頚部は、口腔内や大腸内に比べて、粘膜固有層と粘膜筋板が無いため、間質までの経路が短く、コラーゲンによる蛍光反応を高い感度で検出できると考えられる。
本実施形態では、患部の一例として、皮膚が患部である場合で説明しているので、角栓による蛍光(黄色から赤色)を考慮し、紫外光を照射した患部を可視光カメラで撮影したRGB(Red Green Blue)の3ch(Channel)の画素値のうち、R値、G値及びB値、又はR値及びG値を用いることを想定している。一方、皮膚以外の患部(例えば粘膜)の場合は、角栓が無く、黄色から赤色の蛍光を考慮する必要がないので、RGBの画素値のうちG値及びB値のみを用いてもよい。ただし、角栓が無い患部を対象とする場合でも、R値の成分は少ないもののゼロではないため、R値、G値及びB値を用いてもよい。
実施形態1に係る識別装置100は、図2に示すように、制御部10、記憶部20、照射部31、撮像部32、出力部33、通信部34、操作入力部35、を備える。
制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(白色光画像データ取得部11、紫外光画像データ取得部12、第1白色光画像識別器13、第1紫外光画像識別器14、第1最終識別部15)の機能を実現する。
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。
照射部31は、白色LED(Light Emitting Diode)等の白色光を第1照射光として発光するデバイスと、紫外光LED等の紫外光を第2照射光として発光するデバイスと、を備え、撮像部32で撮像する部位(患者の患部等)に白色光又は紫外光を照射する。制御部10は、照射部31に対し、白色光と紫外光のどちらの光を照射するかについて指示することができる。なお、照射部31は、白色光を含んでいる光であれば、他の光(例えば紫外光)を含んだ光であっても、第1照射光として照射してよい。また、照射部31は、患部に照射した場合に該患部が蛍光反応を示すような光を含んでいれば、紫外光に限らず、任意の光(例えば赤外光)を含む光を第2照射光として照射してよい。また、本実施形態において、紫外光には近紫外光が含まれる。
撮像部32は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備え、学習用の画像データ又は識別する(未知の)画像データを撮像する。撮像部32は、受光する可視光を光の三原色に色分解するために、イメージセンサの前にカラーフィルタが設けられているが、蛍光光を適切に受光するために、イメージセンサの前にさらに別のフィルタが設けられていてもよい。また、撮像部32は、蛍光光を適切に表すために、撮像した画像データにデジタルフィルタをかけてもよい。制御部10は、撮像部32で撮像した画像データをRGBの3chの画素値の集合からなる画像データとして取得する。
なお、本実施形態では撮像部32が可視光を受光するものとして説明するが、撮像部32は可視光に限らず任意の光(例えば、可視光に加えて(又は可視光に替えて)紫外光や赤外光を含む光等)を含む光を受光して撮像してもよい。その場合、受光する光により、フィルタの種類を変更(例えば紫外線を抽出するフィルタを設ける等)してもよい。
また、制御部10は、画像データの取得の際に、必ずしも撮像部32で画像を撮像しなくてもよい。例えば、記憶部20に画像データが記憶されている場合は、制御部10は、記憶部20から画像データを読み出すことによって画像データを取得してもよい。また、制御部10は、通信部34を介して外部のサーバ等から画像データを取得してもよい。このように記憶部20や外部のサーバ等から画像データを取得する場合、識別装置100は、照射部31及び撮像部32を備えなくてもよい。
出力部33は、制御部10が、撮像部32で撮像した画像データに写っている患部を識別した結果等を出力するためのデバイスである。例えば、出力部33は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイである。この場合、出力部33は、表示部として機能する。ただし、識別装置100は、出力部33としてこのようなディスプレイ(表示部)を備えてもよいし、ディスプレイに代えて、外部のディスプレイを接続するためのインタフェースとしての出力部33を備えてもよい。識別装置100は、インタフェースとしての出力部33を備える場合は、出力部33を介して接続した外部のディスプレイに識別結果等を表示する。
通信部34は、外部の他の装置(例えば、画像データのデータベースが格納されているサーバ等)とデータの送受信を行うためのデバイス(ネットワークインタフェース等)である。制御部10は、通信部34を介して画像データ等を取得することができる。
操作入力部35は、識別装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。識別装置100は、操作入力部35を介して、ユーザからの指示等を受け付ける。
次に、制御部10の機能について説明する。制御部10は、白色光画像データ取得部11、紫外光画像データ取得部12、第1白色光画像識別器13、第1紫外光画像識別器14、第1最終識別部15、の機能を実現する。
白色光画像データ取得部11は、白色光(第1照射光)が照射された患部から反射した反射光(第1受光光)を受光して撮像することにより得られた白色光画像データを取得する。白色光画像データは、RGB色空間の色要素であるRGBの3chの画素値の集合からなる画像データであり、画素毎に、当該画素の赤の度合を示すR値、当該画素の緑の度合いを示すG値、当該画素の青の度合いを示すB値を、含む。白色光画像データは、第1画像データとも呼ばれる。また、白色光画像データ取得部11は、第1画像データ取得手段として機能する。
紫外光画像データ取得部12は、紫外光(第2照射光)が照射された患部における蛍光反応によって発生した光を含む光(第2受光光)を受光して撮像することにより得られた紫外光画像データを取得する。紫外光画像データも白色光画像データと同様に、RGBの3chの画素値の集合からなる画像データであり、画素毎に、R値、G値及びB値を、含む。紫外光画像データは、第2画像データとも呼ばれる。また、紫外光画像データ取得部12は、第2画像データ取得手段として機能する。
第1白色光画像識別器13及び第1紫外光画像識別器14は、どちらもDNN(Deep Neural Network)の一種である畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)による画像の識別器である。CNNによる識別器を実現するプログラムを実行することにより、制御部10は、第1白色光画像識別器13としても機能し、また、第1紫外光画像識別器14としても機能する。
第1白色光画像識別器13は、白色光画像データ取得部11が取得した白色光画像データが入力される入力層と、入力された白色光画像データの識別結果が出力される出力層と、入力層と出力層との間の中間層と、を有し、白色光画像データに写っている患部を識別した結果を出力層から出力する。第1白色光画像識別器13は、第1識別器とも呼ばれる。また、第1白色光画像識別器13は、各画像データに写っている患部について良性か悪性かを示す正解ラベルが付与された学習データセットで学習させることにより、患部が撮像された白色光画像データを入力すると、出力層から当該患部が悪性である確率が出力されるようになる(出力層から当該患部が良性である確率が出力されるように学習させることも可能だが、本実施形態では当該患部が悪性である確率が出力されるように学習するものとする)。したがって、第1白色光画像識別器13は、当該患部が悪性であるか否かを識別する第1識別手段として機能する。
第1紫外光画像識別器14は、紫外光画像データ取得部12が取得した紫外光画像データが入力される入力層と、入力された紫外光画像データの識別結果が出力される出力層と、入力層と出力層との間の中間層と、を有し、紫外光画像データに写っている患部を識別した結果を出力層から出力する。第1紫外光画像識別器14は、第2識別器とも呼ばれる。また、第1紫外光画像識別器14は、各画像データに写っている患部について良性か悪性かを示す正解ラベルが付与された学習データセットで学習させることにより、患部が撮像された紫外光画像データを入力すると、出力層から、当該患部が悪性である確率が出力されるようになる(出力層から当該患部が良性である確率が出力されるように学習させることも可能だが、本実施形態では当該患部が悪性である確率が出力されるように学習するものとする)。したがって、第1紫外光画像識別器14は、当該患部が悪性であるか否かを識別する第2識別手段として機能する。
第1最終識別部15は、第1白色光画像識別器13からの出力(白色光画像データに写っている患部が悪性である確率)と、第1紫外光画像識別器14からの出力(紫外光画像データに写っている患部が悪性である確率)と、の両者を用いて最終的な識別結果を得る。基本的には、第1最終識別部15は、第1白色光画像識別器13からの出力と第1紫外光画像識別器14からの出力とを単純に加算平均して最終的な識別結果を得るが、これに限定されるものではない。第1最終識別部15は、第1白色光画像識別器13からの出力と第1紫外光画像識別器14からの出力とのそれぞれに適切な重みを乗算して、両出力の加重平均を取って、最終的な識別結果を得てもよい。第1最終識別部15は、最終識別手段として機能する。
以上、識別装置100の機能構成について説明した。次に、識別器学習処理について、図3を参照して説明する。この処理は、白色光画像データや紫外光画像データによる学習データを用いて第1白色光画像識別器13及び第1紫外光画像識別器14を教師あり学習で学習させるための処理であって、これらの学習の際に実行されるが、少なくとも後述する識別処理が実行される前に実行を完了している必要がある。
まず、制御部10は、第1白色光画像識別器13及び第1紫外光画像識別器14のCNNの教師あり学習に必要な学習データセットを生成するために、学習データ生成処理を実行する(ステップS101)。この学習データ生成処理は、第1白色光画像識別器13を学習させるための白色光学習データセットと、第1紫外光画像識別器14を学習させるための紫外光学習データセットと、を生成する処理であり、処理の詳細は後述する。ここで、学習データセットとは、正解ラベルが付与された画像データからなる学習データの集合である。また、正解ラベルとは、その正解ラベルが付与された画像データに写っている患部が良性か悪性かを示すものである。
本実施形態では、患部を撮像した画像データを入力すると、その患部の悪性度の確率が出力されるようなCNNを学習させたいので、学習データセットに含まれる画像データには、「良性/悪性」が正解ラベルとして付与される。なお、学習データセットが既に用意されている場合には、ステップS101の処理は省略でき、その場合は、既に用意されている白色光学習データセット及び紫外光学習データセットを用いて、以降の処理を行う。また、CNNに、患部が悪性である確率を出力させるのではなく、患部がどのような疾患である可能性が高いかを、疾患毎の確率で出力させるようにCNNを学習させることも可能である。この場合、学習データには、患部の疾患名(例えば、メラノーマ(悪性)、基底細胞癌(悪性)、色素性母斑(良性)、脂漏性角化症(良性)等)が正解ラベルとして付与された画像データを用いる。
図3に戻り、次に、制御部10は、ステップS101で生成された白色光学習データセットを用いて、第1白色光画像識別器13のCNNを学習させる(ステップS102)。具体的には、制御部10は、白色光学習データセットから、正解ラベルが付与された白色光画像データを1つ取り出す。そして、当該白色光画像データを第1白色光画像識別器13のCNNの入力層に入力した時に出力層から出力される値と、当該白色光画像データに付与されている正解ラベルと、の差分(誤差)が小さくなるように、誤差逆伝播法により、CNN内の重み係数を更新する。そして、制御部10は、白色光学習データセットから、他の白色光画像データを1つ取り出しては、また誤差逆伝播法により、CNN内の重み係数を更新するという処理を繰り返し行う。この繰り返し回数は任意であるが、例えば、白色光学習データセットに含まれる白色光画像データの数だけ繰り返すことにより、全ての白色光画像データで1回ずつCNN内の重み係数を更新させてもよい。
次に、制御部10は、ステップS101で生成された紫外光学習データセットを用いて、第1紫外光画像識別器14のCNNを学習させ(ステップS103)、識別器学習処理を終了する。ステップS103での具体的な処理内容は、白色光画像データの代わりに紫外光画像データを用いる点を除けば、ステップS102での処理内容と同様である。ステップS102及びステップS103は、学習ステップとも呼ばれる。
以上、識別器学習処理について説明した。次に、上記ステップS101で実行される学習データ生成処理について、図4を参照して説明する。なお、学習データ生成処理を実行する際には、良性か悪性かが判明している患部が用意されている(又は患部を撮影する度に当該患部の良性/悪性を診断する)必要がある。ただし、学習データ生成処理は、数か月、数年等、長期間にわたって、実行され続けてもよく、例えば、医師が、数か月にわたって、新たな患部を診察する度に、以下のステップS111~ステップS115の処理が実行されるようにしてもよい。
まず、白色光画像データ取得部11は、患部に、照射部31で白色光を照射した状態で、患部から反射した可視光を撮像部32で受光して撮像(可視光撮影)し、白色光画像データを取得する(ステップS111)。
次に、紫外光画像データ取得部12は、ステップS111で撮影した患部に、照射部31で紫外光を照射した状態で、患部からの可視光(反射した光及び発生した蛍光光を含む)を撮像部32で受光して撮像(可視光撮影)し、紫外光画像データを取得する(ステップS112)。なお、ステップS111の可視光撮影とステップS112の可視光撮影とは、できるだけ時間をあけずに高速連写で撮影することが望ましいが、実施形態1においては、高速連写撮影に限定されるものではなく、2~3分の時間をあけて撮影してもよいし、さらに言えば、数日の時間をあけて撮影してもよい。
次に、制御部10は、ステップS111及びステップS112で撮影した患部の正解ラベルを操作入力部35から取得する(ステップS113)。例えば、撮影した患部について、医師が良性か悪性かを診断し、その診断結果(良性/悪性)が操作入力部35を介して入力されることにより、制御部10は、診断結果を取得する。なお、診断結果を得るまでには、例えば、生検(病変を切除)して病理検査結果を得たり、非生検でエキスパート複数名のコンセンサスで決めたりと、時間を要することも多いので、ステップS113の実行に数日、数か月、または数年の時間を要してもよい。ここで取得した診断結果が、ステップS111及びステップS112で撮影した画像データに付与される正解ラベルとなる。
そして、制御部10は、ステップS111で取得した白色光画像データにステップS113で取得した正解ラベルを付与して白色光学習データを生成し、記憶部20に保存されている白色光学習データセットに追加する(ステップS114)。なお、記憶部20にまだ白色光学習データセットが保存されていないなら、今回生成した白色光学習データ1つのみからなる白色光学習データセットを記憶部20に保存する。
次に、制御部10は、ステップS112で取得した紫外光画像データにステップS113で取得した正解ラベルを付与して紫外光学習データを生成し、記憶部20に保存されている紫外光学習データセットに追加する(ステップS115)。なお、記憶部20にまだ紫外光学習データセットが保存されていないなら、今回生成した紫外光学習データ1つのみからなる紫外光学習データセットを記憶部20に保存する。
そして、制御部10は、学習データ生成処理を終了するか否かを判定する(ステップS116)。例えば、医師が予め用意した患部の撮影結果と診断結果の入力を全てし終えた場合等、医師が操作入力部35から学習データ生成処理の終了の指示を入力すると、終了と判定されることになる。終了すると判定されなければ(ステップS116;No)、ステップS111に戻る。
終了すると判定されたら(ステップS116;Yes)、学習データ生成処理を終了し、識別器学習処理(図3)のステップS102からの処理に戻る。なお、上述の学習データ生成処理では、白色光学習データセットと紫外光学習データセットとを同時に生成したが、両者の一方の学習データセットのみを生成してもよい。例えば、既に白色光学習データセットが存在している場合には、上述の処理のうち、白色光画像データに関する処理をスキップして、紫外光学習データセットのみを生成してもよい。
また、上述したように、画像が撮影されてから診断が確定するまでの時間(ステップS112とステップS113の間)や、診察と診察の間(ループで繰り返されるステップS111の間隔)は数か月以上を要することもある。したがって、学習データ生成処理の前に、上述のステップS111~ステップS113と同様の処理によって取得した画像データ及び正解ラベルを予めデータベースに記憶しておき、このデータベースから画像データ及び正解ラベルを読み出すことによって、学習データ生成処理を行ってもよい。
以上説明した学習データ生成処理及び識別器学習処理により、第1白色光画像識別器13及び第1紫外光画像識別器14それぞれのCNNが学習される。次に、このようにして学習された第1白色光画像識別器13及び第1紫外光画像識別器14を用いて、識別対象の(未知の)患部の良性/悪性を識別(推論)する識別処理について、図5を参照して説明する。
まず、白色光画像データ取得部11は、識別対象の患部に、照射部31で白色光を照射して、白色光が照射された患部から反射した可視光を受光して撮像部32で撮像することにより得られた画像のR値、G値及びB値を、白色光画像データとして取得する(ステップS201)。ステップS201は、第1画像データ取得ステップとも呼ばれる。
次に、紫外光画像データ取得部12は、識別対象の患部に、照射部31で紫外光を照射した状態で、紫外光が照射された患部からの可視光(反射した光及び発生した蛍光光を含む)を受光して撮像部32で撮像することにより得られた画像のR値、G値及びB値を、紫外光画像データとして取得する(ステップS202)。ステップS202は、第2画像データ取得ステップとも呼ばれる。なお、ステップS201の可視光撮影とステップS202の可視光撮影とは、できるだけ時間をあけずに高速連写で撮影することが望ましいが、実施形態1においては、高速連写撮影に限定されるものではなく、2~3分の時間をあけて撮影してもよいし、さらに言えば、数日、数か月の時間をあけて撮影してもよい。
そして、制御部10は、ステップS201で取得した白色光画像データを第1白色光画像識別器13に入力し、第1白色光画像識別器13による識別結果(第1白色光画像識別器13のCNNの出力値)を取得する(ステップS203)。
次に、制御部10は、ステップS202で取得した紫外光画像データを第1紫外光画像識別器14に入力し、第1紫外光画像識別器14による識別結果(第1紫外光画像識別器14のCNNの出力値)を取得する(ステップS204)。
そして、第1最終識別部15は、ステップS203で取得した第1白色光画像識別器13のCNNの出力値と、ステップS204で取得した第1紫外光画像識別器14のCNNの出力値と、の加算平均(両者の和/2)を計算して、計算した加算平均を最終的な識別結果(最終識別結果)として求める(ステップS205)。ステップS205は、最終識別ステップとも呼ばれる。
そして、制御部10は、最終識別結果を出力部33に表示し(ステップS206)、識別処理を終了する。
上述の識別処理では、通常の白色光画像データによる識別結果と、紫外光画像データによる識別結果と、を統合して最終的な識別結果を得ることができる。白色光画像データのみでは、例えば角栓とメラニンとの判別が困難な場合があるが、紫外光画像データを用いることにより、これらの判別が容易になる。そして、上述したように角栓が多い患部は良性の可能性が高い。したがって、上述のようにして求めた最終識別結果を用いることにより、従来の(白色光画像データのみによる)識別と比較して、識別性能を向上させることができる。
なお、上述の紫外光画像データ取得部12は、識別対象の患部に、照射部31で紫外光を照射した状態で、紫外光が照射された患部からの可視光(反射した光及び発生した蛍光光を含む)を撮像部32で受光して撮像することにより得られた画像のR値、G値及びB値を、紫外光画像データとして取得していた。しかし、角栓の識別の際に重要な画素値はR値とG値であるため、B値を用いなくても識別性能にあまり影響はないと考えることもできる。そこで、紫外光画像データ取得部12は、上述のようにして撮像部32で撮像することにより得られた画像のうちのR値及びG値を、紫外光画像データとして取得することにしてもよい。
この場合、第1紫外光画像識別器14のCNNの入力層は、R値及びG値からなる(B値を含まない)紫外光画像データが入力されるように構成する。そして、識別器学習処理の際には、制御部10は、R値及びG値からなる紫外光画像データを用いて生成した紫外光画像学習データセットを利用して、第1紫外光画像識別器14を学習させる。このようにすることにより、第1最終識別部15は、第1白色光画像識別器13によりRGB3chからなる白色光画像データを用いて患部を識別した結果と、第1紫外光画像識別器14によりRG2chからなる紫外光画像データを用いて患部を識別した結果と、を統合して最終識別結果を求めることができる。
この場合、紫外光画像データはRG2chだけで済むので、RGB3chを用いる場合に比べてデータ量を削減することができる。また、上述したように、紫外光画像データのRG2chを用いれば、角栓の有無を判別できると考えられるため、この場合でも、従来の(白色光画像データのみによる)識別と比較して、識別性能を向上させることができる。
また、実施形態1においては、白色光学習データセットと紫外光学習データセットとは独立している。このため、例えば、白色光学習データセットについては、公開されている学習データを用いることにより、上述の学習データ生成処理のうちの白色光画像データに関する処理をスキップして、学習データ生成処理に要する時間を短縮することができる。また、患部を識別する際も、白色光画像データと紫外光画像データとを高速連写で撮影する必要がないため、高速連写のための設備を導入する必要がない。
(変形例1)
上述の実施形態1では、白色光画像データと紫外光画像データとをそれぞれ別々の識別器に入力して患部の識別を行った。しかし、白色光画像データと紫外光画像データとをまとめて1つの識別器に入力することも考えられる。このような変形例1について説明する。
変形例1に係る識別装置101の機能構成は、図6に示すように、実施形態1に係る識別装置100の第1白色光画像識別器13、第1紫外光画像識別器14及び第1最終識別部15を、統合画像識別器16に置き換えた構成である。
統合画像識別器16も、第1白色光画像識別器13及び第1紫外光画像識別器14と同様に、DNNの一種であるCNNによる画像データを入力データとする識別器であり、CNNによる識別器を実現するプログラムを実行することにより、制御部10は、統合画像識別器16として機能する。ただし、第1白色光画像識別器13及び第1紫外光画像識別器14は、1つの画像データを入力データとして受け付けるのに対し、統合画像識別器16は、2つの画像データが1つにまとめられた統合画像データを入力データとして受け付ける。
つまり、統合画像識別器16は、白色光画像データ取得部11が取得したRGB3chの白色光画像データと、紫外光画像データ取得部12が取得したRGB3chの紫外光画像データと、がまとめられたRGB6chからなる統合画像データが入力される入力層と、入力された統合画像データの識別結果が出力される出力層と、入力層と出力層との間の中間層と、を有し、統合画像データ(6ch)を構成する白色光画像データ及び紫外光画像データに写っている患部を識別した結果を出力層から出力する。
識別装置101のその他の構成は、識別装置100の構成と同様なので、説明を省略する。次に、統合画像識別器16を教師あり学習で学習させる統合画像学習処理について、図7を参照して説明する。この処理は、統合画像識別器16を学習させる際に実行されるが、少なくとも後述する統合画像識別処理が実行される前に実行を完了している必要がある。
まず、制御部10は、統合画像識別器16のCNNの教師あり学習に必要な統合学習データセットを生成するために、統合学習データ生成処理を実行する(ステップS301)。統合学習データ生成処理の詳細は後述するが、統合学習データセットとは、正解ラベルが付与された統合画像データの集合である。変形例1における統合画像データとは、高速連写で撮影された、RGB3chの白色光画像データと、RGB3chの紫外光画像データと、が1つにまとめられたRGB6chからなる画像データである。
次に、制御部10は、ステップS301で生成された統合学習データセットを用いて、統合画像識別器16のCNNを学習させる(ステップS302)。具体的には、制御部10は、統合学習データセットから、正解ラベルが付与された統合画像データを1つ取り出す。そして、当該統合画像データを統合画像識別器16のCNNの入力層に入力した時に出力層から出力される値と、当該統合画像データに付与されている正解ラベルと、の差分(誤差)が小さくなるように、誤差逆伝播法により、CNN内の重み係数を更新する。そして、制御部10は、統合学習データセットから、他の統合画像データを1つ取り出しては、また誤差逆伝播法により、CNN内の重み係数を更新するという処理を繰り返し行う。この繰り返し回数は任意であるが、例えば、統合学習データセットに含まれる統合画像データの数だけ繰り返すことにより、全ての統合画像データで1回ずつCNN内の重み係数を更新させてもよい。
ステップS302で統合画像識別器16のCNNを学習させたら、統合画像学習処理を終了する。次に、上記ステップS301で実行される統合学習データ生成処理について、図8を参照して説明する。なお、統合学習データ生成処理を実行する際には、上述した学習データ生成処理と同様に、良性か悪性かが判明している患部が用意されている(又は患部を撮影する度に当該患部の良性/悪性を診断する)必要がある。ただし、学習データ生成処理と同様に、統合学習データ生成処理は、数か月、数年等、長期間にわたって、実行され続けてもよく、例えば、医師が、数か月にわたって、新たな患部を診察する度に、以下のステップS311~ステップS314の処理が実行されるようにしてもよい。
統合学習データ生成処理のステップS311からステップS313までの各処理は、実施形態1に係る学習データ生成処理(図4)のステップS111からステップS113までの各処理と同様なので、説明を省略する。ただし、ステップS311の可視光撮影とステップS312の可視光撮影とは、高速連写により、連写基準時間以下の時間間隔で行われる。つまり、ステップS311で取得される白色光画像データの撮像タイミングと、ステップS312で取得される紫外光画像データの撮像タイミングと、の時間差は、連写基準時間以下となる。
そして、制御部10は、ステップS311で取得した白色光画像データ(RGB3ch)とステップS312で取得した紫外光画像データ(RGB3ch)とを統合して1つにまとめた統合画像データ(RGB6ch)に、ステップS313で取得した正解ラベルを付与して統合学習データを生成し、記憶部20に保存されている統合学習データセットに追加する(ステップS314)。なお、記憶部20にまだ統合学習データセットが保存されていないなら、今回生成した統合学習データ1つのみからなる統合学習データセットを記憶部20に保存する。
次に、制御部10は、統合学習データ生成処理を終了するか否かを判定する(ステップS315)。例えば、医師が予め用意した患部の撮影結果と診断結果の入力を全てし終えた場合等、医師が操作入力部35から統合学習データ生成処理の終了の指示を入力すると、終了と判定されることになる。終了すると判定されなければ(ステップS315;No)、ステップS311に戻る。
終了すると判定されたら(ステップS315;Yes)、学習データ生成処理を終了し、統合画像学習処理(図7)のステップS302からの処理に戻る。
以上説明した統合学習データ生成処理及び統合画像学習処理により、統合画像識別器16のCNNが学習される。次に、このようにして学習された統合画像識別器16を用いて、識別対象の(未知の)患部の良性/悪性を識別(推論)する統合画像識別処理について、図9を参照して説明する。
統合画像識別処理のステップS401及びステップS402の処理は、実施形態1に係る識別処理(図5)のステップS201及びステップS202の各処理と同様なので、説明を省略する。ただし、ステップS401の可視光撮影とステップS402の可視光撮影とは、高速連写により、連写基準時間以下の時間間隔で行われる。つまり、ステップS401で取得される白色光画像データの撮像タイミングと、ステップS402で取得される紫外光画像データの撮像タイミングと、の時間差は、連写基準時間以下となる。
そして、制御部10は、ステップS401で取得した白色光画像データ(RGB3ch)と、ステップS402で取得した紫外光画像データ(RGB3ch)とを1つにまとめて、統合画像データ(RGB6ch)を生成する(ステップS403)。そして、制御部10は、生成した統合画像データを統合画像識別器16に入力し、統合画像識別器16による識別結果を取得する(ステップS404)。
そして、制御部10は、統合画像識別器16による識別結果を出力部33に表示し(ステップS405)、統合画像識別処理を終了する。
上述の統合画像識別処理では、通常の白色光画像データの情報と、角栓が容易に判別できる紫外光画像データの情報と、の両方の情報が含まれた統合画像データを用いて識別することができるので、従来の(白色光画像データのみによる)識別と比較して、識別性能を向上させることができる。また、白色光画像データの撮像タイミングと紫外光画像データの撮像タイミングとの時間差を連写基準時間以下とすることにより、白色光画像データと紫外光画像データとの間での画像の位置ずれを極力少なくすることができる。そして、識別の際に用いる識別器は1つの統合画像識別器16のみなので、識別処理を単純化できる。
(変形例2)
紫外光画像データにおいて、角栓を判別する際に重要な成分はRG2chである。そこで、白色画像データ(RGB3ch)と紫外光画像データのうちRG2chとをまとめて1つの識別器に入力することも考えられる。このような変形例2について説明する。
変形例2に係る識別装置102の機能構成は、図6に示すように、実施形態1に係る識別装置100の第1白色光画像識別器13、第1紫外光画像識別器14及び第1最終識別部15を、統合画像識別器16に置き換えた構成である。この構成は、変形例1に係る識別装置101と同様であるが、識別装置101の統合画像識別器16が入力画像データとして受け付ける統合画像データはRGB6ch分の画像データであるのに対し、識別装置102の統合画像識別器16が入力画像データとして受け付ける統合画像データは、紫外光画像データのうちの青(B)のchが除去された5ch分の画像データである点が異なる。変形例2における統合画像データは、高速連写で撮影された、白色光画像データのRGB3chと、紫外光画像データのうちのRG2chと、が1つにまとめられた5chからなる画像データである。
つまり、変形例2では、統合画像識別器16は、白色光画像データ取得部11が取得した白色光画像データのRGB3chと、紫外光画像データ取得部12が取得した紫外光画像データのうちのRG2chと、がまとめられた5chからなる統合画像データが入力される入力層と、入力された統合画像データの識別結果が出力される出力層と、入力層と出力層との間の中間層と、を有し、統合画像データ(5ch)を構成する白色光画像データ及び紫外光画像データに写っている患部を識別した結果を出力層から出力する。
識別装置102のその他の構成は、識別装置101の構成と同様なので、説明を省略する。また、統合画像識別器16を学習させる統合画像学習処理及び統合学習データ生成処理も、統合画像データが6ch分のデータではなく、5ch分のデータであることを除けば、変形例1に係る統合画像学習処理(図7)及び統合学習データ生成処理(図8)と同様なので、説明を省略する。変形例2において、識別対象の(未知の)患部の良性/悪性を識別(推論)する統合画像識別処理について、図10を参照して説明する。
変形例2に係る統合画像識別処理のステップS451からステップS452までの処理は、変形例1に係る統合画像識別処理(図9)のステップS401からステップS402までの処理と同様なので、説明を省略する。ただし、ステップS452では、紫外光画像データ取得部12は、R値及びG値からなる(B値を含まない)紫外光画像データを取得してもよい。
そして、制御部10は、ステップS451で取得した白色光画像データ(RGB3ch)と、ステップS452で取得した紫外光画像データ(RG2ch)とを1つにまとめて、5chの統合画像データを生成する(ステップS453)。そして、制御部10は、生成した統合画像データを統合画像識別器16に入力し、統合画像識別器16による識別結果を取得する(ステップS454)。
そして、制御部10は、統合画像識別器16による識別結果を出力部33に表示し(ステップS455)、統合画像識別処理を終了する。
上述の変形例2に係る統合画像識別処理では、通常の白色光画像データの情報と、角栓が容易に判別できる紫外光画像データの情報と、の両方の情報が含まれた統合画像データを用いて識別することができるので、従来の(白色光画像データのみによる)識別と比較して、識別性能を向上させることができる。さらに、変形例2に係る統合画像識別処理では、紫外光画像データをR値及びG値のみの2chのデータとしているので、変形例1に係る統合画像処理に比べて処理の負荷を軽くすることができ、また、学習に必要なデータ量も減らすことができる。
(変形例3)
紫外光画像データを用いることで、角栓の有無を比較的簡単に判定できることは上述した。このことを利用して、学習データを後述する角栓有用の学習データと角栓無用の学習データに分類し、この分類された学習データを用いて、角栓有用の識別器と角栓無用の識別器とをそれぞれ学習させることも考えられる。このような変形例3について以下に説明する。
変形例3に係る識別装置103の機能構成は、図11に示すように、実施形態1に係る識別装置100に、第2白色光画像識別器17、第2紫外光画像識別器18及び第2最終識別部19を追加した構成である。
第2白色光画像識別器17は、第1白色光画像識別器13と同様に、白色光画像データに写っている患部を識別する識別器である。ただし、変形例3に係る第1白色光画像識別器13は、画像データのうち角栓が含まれているもの(角栓有画像データ)に写っている患部を識別対象とする識別器である。そして、第2白色光画像識別器17は、画像データのうち角栓が確認できないもの(角栓が少し存在するかもしれないが、蛍光するほどは存在しないため、角栓の存在を確認できない画像データ。角栓が完全に無いとは言い切れないが、以下、便宜上「角栓無画像データ」という。)に写っている患部を識別対象とする識別器である。
また、第2紫外光画像識別器18は、第1紫外光画像識別器14と同様に、紫外光画像データに写っている患部を識別する識別器である。ただし、変形例3に係る第1紫外光画像識別器14は、紫外光画像データのうち角栓有画像データ(角栓有第2画像データとも呼ばれる)に写っている患部を識別対象とする識別器であり、第2紫外光画像識別器18は、紫外光画像データのうち角栓無画像データ(角栓無第2画像データとも呼ばれる)に写っている患部を識別対象とする識別器である。角栓が無い(又は低レベルしか存在しない)場合は、角栓による蛍光は生じないが、上述したように、例えば、癌等があれば、別(例えば青色~緑色等)の蛍光が生じる。したがって、第2紫外光画像識別器18では、角栓以外による蛍光を用いて患部を識別することができる。
変形例3に係る第1最終識別部15は、第1白色光画像識別器13からの出力(角栓を含む白色光画像データに写っている患部の識別結果)と、第1紫外光画像識別器14からの出力(角栓を含む紫外光画像データに写っている患部の識別結果)と、の両者を用いて、後述する採用識別器決定・学習処理を行い、それによって決定及び学習された採用識別器を用いて、最終的な識別結果を得る。また、第2最終識別部19は、第2白色光画像識別器17からの出力(角栓を含まない白色光画像データに写っている患部の識別結果)と、第2紫外光画像識別器18からの出力(角栓を含まない紫外光画像データに写っている患部の識別結果)と、の両者を用いて後述する採用識別器決定・学習処理を行い、それによって決定及び学習された採用識別器を用いて、最終的な識別結果を得る。
識別装置103のその他の構成は、識別装置100の構成と同様なので、説明を省略する。次に、識別装置103における学習処理である角栓有無画像学習処理について、図12を参照して説明する。この処理は、第1白色光画像識別器13、第1紫外光画像識別器14、第2白色光画像識別器17、第2紫外光画像識別器18を教師あり学習で学習させる際に実行されるが、少なくとも後述する角栓有無利用識別処理が実行される前に実行を完了している必要がある。
まず、制御部10は、各識別器のCNNの教師あり学習に必要な統合学習データセットを生成するために、統合学習データ生成処理を実行する(ステップS501)。ここで、変形例3における統合学習データセットに含まれる統合画像データとは、高速連写で撮影された、白色光画像データのRGB3chと、紫外光画像データのRGB3chと、が1つにまとめられたRGB6chからなる画像データである。したがって、ステップS501で実行される統合学習データ生成処理は、変形例1における統合学習データ生成処理(図8)と同様である。ステップS501では、制御部10は、統合画像データに正解ラベルを付与した統合学習データを複数生成することによって、統合学習データセットを生成する。ただし、変形例3では、統合学習データ生成処理(図8)において、ステップS311の可視光撮影とステップS312の可視光撮影とを、高速連写で撮影しなくてもよい。
次に、制御部10は、ステップS501で生成された各統合学習データを構成する紫外光画像データに含まれるR値及びG値の最大値が、角栓判定閾値以上か否かにより、当該統合学習データに、角栓の有無を示すラベルを付与する(ステップS502)。例えば、各画像データに含まれる各画素値(R値、G値及びB値の各々)が、それぞれ0以上255以下であり、角栓判定閾値が128であるとすると、紫外光画像データに含まれるR値の最大値が128以上であるか、又は、G値の最大値が128以上であれば、当該紫外光画像データを含む統合学習データに「角栓有」のラベルが付与される。また、紫外光画像データに含まれるR値の最大値が128未満であり、かつ、G値の最大値も128未満であれば、当該紫外光画像データを含む統合画像データに「角栓無」のラベルが付与される。
なお、上述したように、本実施形態においては、「角栓無」のラベルは、角栓が完全に無いことを示しているわけではなく、角栓がRGBの画素値に基づいて確認できないことを示しており、角栓が少し存在していても、R値及びG値の最大値が角栓判定閾値未満の場合(蛍光が確認できない場合)には、「角栓無」のラベルが付与される。また、ステップS502では、紫外光画像データ全体を対象とはせず、画像中の患部以外の部分(非腫瘍部分)について、その部分の画像データのR値及びG値の最大値が、角栓判定閾値以上か否かにより、角栓の有無を示すラベルを付与してもよい。いずれにしても、ステップS502では、対象となる紫外光画像データ中に、1つでも角栓判定閾値以上になるR値又はG値が存在すれば、当該紫外光画像データを含む統合学習データに「角栓有」のラベルが付与される。
なお、ここでの角栓判定閾値やラベルの付与方法は一例である。例えば、角栓判定閾値をR値の閾値とG値の閾値に分け、紫外光画像データに含まれるR値の最大値が角栓判定R閾値(例えば80)以上であるか、又は、G値の最大値が角栓判定G閾値(例えば160)以上であれば、当該紫外光画像データを含む統合学習データに「角栓有」のラベルが付与されるようにしてもよい。これ以外でも、角栓の有り又は無し(若しくは角栓が低レベル以下しか存在しない)の判定が可能なら、角栓判定閾値の設定は任意に行うことができる。また、角栓有無画像学習処理においては、角栓の有無を示すラベルについて、角栓判定閾値によらず、患部の良性/悪性と同様に、医師の診断結果に基づいて付与してもよい。
上記の方法に限らず、制御部10は、任意の方法で角栓の有無を判定してよい。そして、制御部10は、任意の方法で判定した角栓の有無に基づいて、各統合学習データに角栓の有無を示すラベルを付与してよい。ステップS502は、角栓有無判定ステップとも呼ばれる。
次に、制御部10は、ステップS501で生成された統合学習データセットに含まれる複数の統合学習データのうち、ステップS502で「角栓有」のラベルが付与された統合学習データ(角栓有用の学習データ)を用いて、後述する採用識別器決定・学習処理を行い、第1最終識別部15が角栓有用識別器として採用する識別器(又は識別器の組合せ)の決定と学習を行う(ステップS503)。ステップS503で決定された識別器(又は識別器の組合せ)は、角栓有用識別手段として機能する。
そして、制御部10は、ステップS501で生成された統合学習データセットに含まれる複数の統合学習データのうち、ステップS502で「角栓無」のラベルが付与された統合学習データ(角栓無用の学習データ)を用いて、後述する採用識別器決定・学習処理を行い、第2最終識別部19が角栓無用識別器として採用する識別器(又は識別器の組合せ)の決定と学習を行い(ステップS504)、角栓有無画像学習処理を終了する。ステップS504で決定された識別器(又は識別器の組合せ)は、角栓無用識別手段として機能する。
次に、ステップS503やステップS504で実行される採用識別器決定・学習処理について、図13を参照して説明する。ここで、この採用識別器決定・学習処理の対象となる識別器(採用識別器の候補となる識別器なので候補識別器とも呼ばれる)は、「角栓有」のラベルが付与された統合学習データを用いる場合は、第1白色光画像識別器13及び第1紫外光画像識別器14であり、「角栓無」のラベルが付与された統合学習データを用いる場合は、第2白色光画像識別器17及び第2紫外光画像識別器18である。
まず、制御部10は、白色光画像データ用の「識別器A」(第1白色光画像識別器13又は第2白色光画像識別器17)について後述する交差検証を行い、識別器Aの評価値である第1評価値を取得する(ステップS551)。なお、評価値とは、識別器による識別結果の正しさを評価した値(例えば正解率)である。そして、評価値を求める際に用いる評価データセットは、画像データとその正解ラベルとからなる評価データの集合であり、評価データセットのデータ構造は学習データセットと同様である。
次に、制御部10は、紫外光画像データ用の「識別器B」(第1紫外光画像識別器14又は第2紫外光画像識別器18)についても交差検証を行い、識別器Bの評価値である第2評価値を取得する(ステップS552)。
そして、制御部10は、「識別器A+識別器B(識別器Aの出力値と識別器Bの出力値の加算平均)」についても交差検証を行い、「識別器A+識別器B」(識別器Aと識別器Bの組合せ)の評価値である第3評価値を取得する(ステップS553)。ステップS551からステップS553までの処理は、検証ステップとも呼ばれる。
次に、制御部10は、上述のステップS551~S553で取得された3つの評価値ののうち、最も高い評価値に対応する識別器Aと、識別器Bと、識別器A及び識別器Bの組み合わせと、のいずれか1つを、対応する第1最終識別部15及び第2最終識別部19の一方が採用する採用識別器として決定する(ステップS554)。ステップS554は、決定ステップとも呼ばれる。ここでは、「角栓有」のラベルが付与された統合学習データを用いる場合は、第1最終識別部15が角栓有用識別器として採用する採用識別器が決定される。また、「角栓無」のラベルが付与された統合学習データを用いる場合は、第2最終識別部19が角栓無用識別器として採用する採用識別器が決定される。
そして、全ての統合学習データ(ただし、該当する角栓有無ラベルが付与されたもの)を用いて当該採用識別器を学習させ(ステップS555)、採用識別器決定・学習処理を終了する。
ここで、上述のステップS551~S553で行われる交差検証について、図14を参照して説明する。一般にn分割交差検証では、全ての学習データセットのうちの1/nを評価データセットとして用い、残りの(n-1)/nをその評価データセットで検証する(評価値を求める)際の一時的な学習データセットとして用いる。図14の上の図は、n=3の場合の例、すなわち3分割交差検証の例を示している。
ここで、学習データセット全体から評価値を取得する方法を、識別器Aを例として説明する。ただし、評価値を取得するにあたり、本実施形態では識別結果(識別器の出力)は確率で与えられるので、正解ラベルと識別結果との単純比較はできない。そこで、正解ラベルを数値化した値(正解値)と識別器の出力(確率)との差が小さいほど大きな評価値となるように評価値を設定する。
まず、学習データの最初の2/3(教師データ)を用いて識別器Aを学習させる。そして、学習後の識別器Aに、学習データの残りの1/3(評価データ)を入力したときの識別器Aの出力を、(各評価データに付与されている)正解ラベルを数値化した値(正解値)と比較する。そして、識別器Aの出力と正解値との差が小さいほど、評価値1が大きい値となるように評価値1を設定する。
本実施形態では、識別器Aの出力は患部の悪性度の確率(0.0以上1.0以下)なので、正解ラベルを数値化すると、例えば正解ラベルが「良性」の場合の正解値は0.0、「悪性」の場合の正解値は1.0と定義できる。したがって、「識別器Aの出力と正解値との差」は、正解ラベルが「良性」の場合は(識別器Aの出力-0.0)となり、正解ラベルが「悪性」の場合は(1.0-識別器Aの出力)となる。そして、評価データのそれぞれを識別器Aに入力したときの「識別器Aの出力と正解値との差」を、全ての評価データについて足した値(差の総和)を求め、その値(差の総和)の逆数を評価値1とする。
次に、学習データセットに含まれる学習データのうち最初の1/3と後ろの1/3とを教師データとして用いて識別器Aを学習させ、学習データの真ん中の1/3を評価データとして用いて学習後の識別器Aを評価した評価値を評価値2とする。そして、学習データセットに含まれる学習データのうち後ろの2/3を教師データとして用いて識別器Aを学習させ、学習データの最初の1/3を評価データとして用いて学習後の識別器Aを評価した評価値を評価値3とする。評価値2及び評価値3の算出方法は上述の評価値1の算出方法と同様である。そして、評価値1と評価値2と評価値3の合計(又は平均値等でもよい)を、今回用いた学習データセット全体から得られる識別器Aの評価値(第1評価値)とする。
上述では識別器Aを例にして、評価値(第1評価値)の算出方法を説明したが、識別器Bの評価値(第2評価値)も同様にして求めることができる。そして、識別器Aと識別器Bの組み合わせ(識別器A+識別器B)の評価値(第3評価値)は、以下のようにして求めることができる。
まず、識別器Aと識別器Bをそれぞれ、学習データの最初の2/3を教師データとして用いて学習させる。そして、学習後の識別器A及び識別器Bにそれぞれ、学習データの残りの1/3(評価データ)を入力したときの識別器Aの出力と識別器Bの出力の平均値を、(各評価データに付与されている)正解ラベルを数値化した値(正解値)と比較する。そして、識別器Aの出力と識別器Bの出力の平均値と、正解値と、の差が小さいほど、評価値1が大きい値となるように評価値1を設定する。評価値2及び評価値3についても同様に求め、評価値1と評価値2と評価値3の合計(又は平均値等でもよい)を、今回用いた学習データセット全体から得られる、識別器A及び識別器Bの組合せ(識別器A+識別器B)の評価値(第3評価値)とする。
上述の採用識別器決定・学習処理(図13)のステップS551~S553では、識別器A、識別器B、識別器A+識別器B(識別器Aの出力値と識別器Bの出力値の加算平均)の3種類のパターン(識別器又は識別器の組合せ)について、それぞれ上記のようにして、学習データセット全体から得られる評価値が取得される。そして、ステップS554では、最も高い評価値が得られたパターン(識別器又は識別器の組合せ)が、採用識別器(すなわち角栓有用識別器、角栓無用識別器)として決定される。そして、ステップS555では、決定された採用識別器が、統合学習データセットに含まれる全ての統合学習データを用いて、学習させられる。
ただし、図14における学習データセットとは、角栓有無画像学習処理(図12)のステップS503から採用識別器決定・学習処理(図13)が呼び出された場合は、「角栓有」ラベルが付与された全ての統合学習データからなる学習データセットである。また、角栓有無画像学習処理(図12)のステップS504から採用識別器決定・学習処理(図13)が呼び出された場合は、「角栓無」ラベルが付与された全ての統合学習データからなる学習データセットである。
例えば、学習データセットが「角栓有」のラベルが付与された全ての統合学習データからなり、最も高い評価値が得られた識別器のパターンが、「識別器A+識別器B(識別器Aの出力値と識別器Bの出力値の加算平均)」であるなら、第1最終識別部15が「第1白色光画像識別器13の出力値と第1紫外光画像識別器14の出力値の加算平均」を角栓有用識別器の出力として採用することが決定され、制御部10は、統合学習データセットに含まれる「角栓有」のラベルが付与された全ての統合画像データ(RGB6chからなる画像データ)を用いて第1白色光画像識別器13と第1紫外光画像識別器14とをそれぞれ学習させる。
また、学習データセットが「角栓無」のラベルが付与された全ての統合学習データからなり、最も高い評価値が得られた識別器のパターンが、「識別器A」であるなら、第2最終識別部19が「第2白色光画像識別器17」を角栓無用識別器として採用することが決定され、制御部10は、統合学習データセットに含まれる「角栓無」のラベルが付与された全ての統合学習データを用いて第2白色光画像識別器17を学習させる。このように、学習データセットについては、「角栓有」のラベルが付与されているもの(角栓有用統合学習データ)と、「角栓無」のラベルが付与されているもの(角栓無用統合学習データ)の2種類あり、角栓有用及び角栓無用の各々について、識別器の3パターン(「識別器A」、「識別器B」、「識別器A+識別器B」)の中から、最も高い評価値が得られた識別器のパターンについて、学習が行われる。
なお、上述の説明では、識別器のパターンが「識別器A+識別器B」であった場合の出力値を、「識別器Aの出力値と識別器Bの出力値の加算平均」としたが、加算平均に限定しなくてもよい。制御部10は、例えば、様々な重みを用いた加重平均の複数のパターンも交差検証の候補に加え、これら全てのパターンについて、上記の交差検証を行って、最も高い評価値が得られたパターンの識別器(又は識別器の様々な加重平均での組合せ)を、採用する識別器として決定してもよい。また、候補識別器自体も、識別器Aと識別器Bの2つに限定する必要はない。例えば、患部の病変領域の周辺をクロップ(切り出し)してそのサイズを正規化する前処理を行った画像を入力することにより当該患部を識別する識別器、患部を撮影した画像をエッジ強調する前処理を行った画像を入力することにより当該患部を識別する識別器等の他の識別器も、識別器A、識別器Bと同様に候補識別器に加えて交差検証を行ってもよい。そして、これら全ての候補識別器及び候補識別器の組合せの中で、交差検証により最も高い評価値が得られたものを、患部を識別する識別器として採用する採用識別器として決定してもよい。
以上説明した採用識別器決定・学習処理、並びに、角栓有無画像学習処理により、第1白色光画像識別器13、第1紫外光画像識別器14、第2白色光画像識別器17及び第2紫外光画像識別器18のCNNが学習される。角栓有無画像学習処理では、学習データを角栓の有無によって分けて各識別器を学習させることができる。このため、角栓有用の識別器は角栓有の画像データのみで学習でき、また角栓無用の識別器は角栓無の画像データのみで学習できるので、効率良く学習することができる。また、採用識別器決定・学習処理においては、交差検証を行うことにより、最も識別性能が高いと考えられる識別器(又は識別器の組合せ)を採用識別器(第1最終識別部15、第2最終識別部19)として決定することができる。
次に、このようにして学習された後に、識別対象の(未知の)患部の良性/悪性を識別(推論)する角栓有無利用識別処理について、図15を参照して説明する。
ステップS601及びステップS602の処理は、変形例1に係る識別処理(図9)のステップS401及びステップS402の各処理と同様なので、説明を省略する。ただし、変形例3では、ステップS601の可視光撮影とステップS602の可視光撮影とを、高速連写で撮影しなくてもよい。
そして、制御部10は、ステップS602で取得した紫外光画像データに含まれるR値及びG値の最大値が角栓判定閾値以上であるか否かを判定する(ステップS603)。ステップS603は、角栓有無判定ステップとも呼ばれる。また、制御部10は、ステップS603において、角栓有無判定手段として機能する。
紫外光画像データに含まれるR値及びG値の最大値が角栓判定閾値以上であるなら(ステップS603;Yes)、第1最終識別部15は上述の角栓有無画像学習処理で決定した角栓有用識別器により、患部を識別する(ステップS604)。例えば、角栓有用識別器が「識別器A+識別器B(識別器Aの出力値と識別器Bの出力値の加算平均)」であるなら、第1最終識別部15は、ステップS601で取得した白色光画像データを第1白色光画像識別器13に入力して得られる第1白色光画像識別器13の出力値と、ステップS602で取得した紫外光画像データを第1紫外光画像識別器14に入力して得られる第1紫外光画像識別器14の出力値と、の加算平均により最終的な識別結果を得る。
一方、紫外光画像データに含まれるR値及びG値の最大値が角栓判定閾値未満であるなら(ステップS603;No)、第2最終識別部19は上述の角栓有無画像学習処理で決定した角栓無用識別器により、患部を識別する(ステップS605)。例えば、角栓無用識別器が「識別器A」であるなら、第2最終識別部19は、ステップS601で取得した白色光画像データを第2白色光画像識別器17に入力して得られる第2白色光画像識別器17の出力値により最終的な識別結果を得る。
そして、制御部10は、第1最終識別部15又は第2最終識別部19による最終的な識別結果を出力部33に表示し(ステップS606)、角栓有無利用識別処理を終了する。
なお、ステップS603における角栓の有無の判定方法は一例である。角栓有無画像学習処理(図12)のステップS502と同様に、角栓判定閾値を角栓判定R閾値(例えば80)と角栓判定G閾値(例えば160)とに分けて設定してもよいし、上記の方法に限らず、制御部10は、任意の方法で角栓の有無を判定してよい。
上述の角栓有無利用識別処理では、比較的識別が容易な角栓の有無で識別器を使い分けることにより、角栓の有無に応じて最適化された識別器を用いて患部を識別することができるので、従来の(白色光画像データのみによる)識別と比較して、識別性能を向上させることができる。
(変形例3の変形例)
変形例3では、学習データを角栓有用の学習データと角栓無用の学習データとに分類し、分類した学習データのそれぞれを用いて、専用の識別器(角栓有用の識別器及び角栓無用の識別器)をそれぞれ学習させた。しかし、学習データの分類の仕方は角栓の有無による分類に限定されない。例えば、変形例3の変形例として、学習データを顔及び頭皮用の学習データと体全体用の学習データとに分類し、分類した学習データのそれぞれを用いて、専用の識別器(顔及び頭皮用の識別器及び体全体用の識別器)をそれぞれ学習させる実施形態も考えられる。
変形例3では、角栓の有無を示す角栓有無ラベルを統合学習データのそれぞれに付与したが、変形例3の変形例では、体のどの部位の患部を撮影した画像であるかを示す部位ラベル(例えば「頭皮」、「顔」等)を統合学習データのそれぞれに付与することにより、学習データを、顔及び頭皮用の学習データ(患部の部位が顔又は頭皮の学習データ)と、体全体用の学習データ(患部の部位によらない学習データ)とに分類する。
そして、角栓有無画像学習処理(図12)と同様の処理(ただし、「角栓有」の学習データの代わりに部位ラベルが「頭皮」又は「顔」の学習データを用い、「角栓無」の学習データの代わりに(部位選別を行わない)全ての学習データを用いる。以下「部位利用学習処理」と言う。)により、顔及び頭皮用識別器と、体全体用識別器を学習する。
角栓は、体の部位の中で、特に顔や頭皮に存在する可能性が高い(顔や頭皮以外の体の部位には角栓はほとんど存在しない)ので、患部を撮影した画像中に角栓が存在する場合、その患部は顔や頭皮に存在する患部である可能性が高い。したがって、変形例3の変形例では、角栓有無利用識別処理(図15)と同様の処理(ただし、ステップS604では顔及び頭皮用識別器で識別し、ステップS605では体全体用識別器で識別する。以下「部位利用識別処理」と言う。)で患部を識別することができる。
変形例3の変形例では、上述の部位利用学習処理において、角栓の有無によらず、部位ラベルに基づいて各部位に特化した識別器を学習させることができるので、角栓が検出されなかった場合の顔や頭皮の学習データも顔及び頭皮用識別器の学習に用いることができる。そして、上述の部位利用識別処理においては、角栓が検出されたら(角栓はほとんどの場合、顔又は頭皮にしか存在しないので)、顔及び頭皮用に特化した顔及び頭皮用識別器を用いることにより、識別性能をさらに向上させることができる。
(その他の変形例)
なお、上述の実施形態及び変形例では、CNNによる識別器を実現するプログラムを制御部10が実行することにより、制御部10は、第1白色光画像識別器13、第1紫外光画像識別器14、統合画像識別器16、第2白色光画像識別器17、第2紫外光画像識別器18、としても機能することとしていたが、これに限られない。識別装置100,101,102,103は、制御部10とは別のデバイス(例えば、GPU(Graphics Processing Unit)や、専用のIC(Integrated Circuit)等)を備え、当該デバイスにより、第1白色光画像識別器13、第1紫外光画像識別器14、統合画像識別器16、第2白色光画像識別器17、第2紫外光画像識別器18、の機能を実現してもよい。
また、上述の実施形態及び変形例は適宜組み合わせることができる。例えば、変形例3に変形例1又は変形例2を組み合わせて、「識別器A+識別器B(識別器Aの出力値と識別器Bの出力値の加算平均)」の代わりに、または、これらに加えて、白色光画像データのRGB3chと紫外光画像データのRGB3chとを1つにまとめた6chの統合画像データ又は白色光画像データのRGB3chと紫外光画像データのRG2chとを1つにまとめた5chの統合画像データを入力データとする統合画像識別器16を用いて識別を行うようにしてもよい。
この場合、統合画像識別器16についても、角栓有画像データに写っている患部を識別対象とする第1統合画像識別器と、角栓無画像データに写っている患部を識別対象とする第2統合画像識別器と、をそれぞれ用意する。そして、角栓有の統合学習データを用いた採用識別器決定・学習処理のステップS553では、第1統合画像識別器の評価値を求める。そして、角栓無の統合学習データを用いた採用識別器決定・学習処理のステップS553では、第2統合画像識別器の評価値を求める。
また、実施形態1に係る識別装置100においても、識別器学習処理(図3)の後に、変形例3の採用識別器決定・学習処理(図13)を行って、最も高い評価値が得られる識別器のパターンで識別した結果を、識別処理(図5)のステップS205における識別結果としてもよい。
また、上述の実施形態及び変形例においては、画像データの色を表現する色空間として、RGB色空間を用い、色要素としてR値、G値及びB値を用いて説明した。しかし、色空間はRGB色空間に限定されない。例えば、YUV色空間や、Lab色空間を用いてもよい。
また、上述の実施形態及び変形例においては、照射部31は第2照射光として、紫外光を発光するものとして説明したが、紫外光は例示である。第2照射光は角栓等が蛍光反応を生じる光であれば任意の光でよい。例えば、照射部31は第2照射光として、可視光の紫外光寄りの光(例えば波長が410nm~470nm、好ましくは440nm以下の光)を照射してもよい。
なお、識別装置100,101,102,103の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、識別装置100,101,102,103が行う識別処理等のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto-Optical disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データを取得する第1画像データ取得手段と、
前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データを取得する第2画像データ取得手段と、
前記第1画像データ及び前記第2画像データに基づいて、前記患部を識別する最終識別手段と、
を備える識別装置。
(付記2)
前記第1画像データ取得手段は、前記第1受光光を受光して撮像することにより得られた画像を、色空間の全ての色要素を用いて、前記第1画像データとして取得し、
前記第2画像データ取得手段は、前記第2受光光を受光して撮像することにより得られた画像を、前記色空間の一部の色要素を用いて、前記第2画像データとして取得する、
付記1に記載の識別装置。
(付記3)
前記第1画像データ取得手段は、前記第1受光光を受光して撮像することにより得られた画像のR値、G値及びB値を、前記第1画像データとして取得し、
前記第2画像データ取得手段は、前記第2受光光を受光して撮像することにより得られた画像のR値及びG値を、前記第2画像データとして取得する、
付記2に記載の識別装置。
(付記4)
前記最終識別手段は、前記第1画像データと前記第2画像データとを統合した統合画像データが入力されると前記患部を識別した結果を出力する識別器を用いて前記患部を識別する、
付記1から3のいずれか1つに記載の識別装置。
(付記5)
前記取得された第1画像データに基づいて、前記患部が悪性であるか否かを識別する第1識別手段と、
前記取得された第2画像データに基づいて、前記患部が悪性であるか否かを識別する第2識別手段と、をさらに備え、
前記最終識別手段は、前記第1識別手段による識別結果及び前記第2識別手段による識別結果に基づいて、前記患部を識別する、
付記1から3のいずれか1つに記載の識別装置。
(付記6)
前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定手段と、
前記角栓有無判定手段により角栓有と判定された前記第2画像データと、前記第1画像データと、に基づいて、前記患部を識別する角栓有用識別手段と、
前記角栓有無判定手段により角栓無と判定された前記第2画像データと、前記第1画像データと、に基づいて、前記患部を識別する角栓無用識別手段と、をさらに備え、
前記最終識別手段は、
前記第2画像データが前記角栓有無判定手段により角栓有と判定された場合は前記角栓有用識別手段による識別結果に基づいて前記患部を識別し、
前記第2画像データが前記角栓有無判定手段により角栓無と判定された場合は前記角栓無用識別手段による識別結果に基づいて前記患部を識別する、
付記1から3のいずれか1つに記載の識別装置。
(付記7)
前記角栓有無判定手段は、前記第2画像データに含まれるR値及びG値の最大値が角栓判定閾値以上か否かにより、前記患部の角栓の有無を判定する、
付記6に記載の識別装置。
(付記8)
前記第1画像データの撮像タイミングと前記第2画像データの撮像タイミングとの時間差は、連写基準時間以下である、
付記1から7のいずれか1つに記載の識別装置。
(付記9)
識別装置における識別器学習方法であって、
白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データを取得する第1画像データ取得ステップと、
前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データを取得する第2画像データ取得ステップと、
前記第1画像データ及び前記第2画像データに基づいて、前記患部を識別する識別器を学習する学習ステップと、
を備える識別器学習方法。
(付記10)
前記第1画像データの撮像タイミングと前記第2画像データの撮像タイミングとの時間差は、連写基準時間以下である、
付記9に記載の識別器学習方法。
(付記11)
前記第1画像データ取得ステップでは、前記第1受光光を受光して撮像することにより得られた画像を、色空間の全ての色要素を用いて、前記第1画像データとして取得し、
前記第2画像データ取得ステップでは、前記第2受光光を受光して撮像することにより得られた画像を、前記色空間の一部の色要素を用いて、前記第2画像データとして取得する、
付記9又は10に記載の識別器学習方法。
(付記12)
前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定ステップをさらに備え、
前記学習ステップでは、
前記角栓有無判定ステップで角栓有と判定された前記第2画像データと、前記第1画像データと、に基づいて、角栓有と判定された前記患部を識別する角栓有用識別器を学習し、
前記角栓有無判定ステップで角栓無と判定された前記第2画像データと、前記第1画像データと、に基づいて、角栓無と判定された前記患部を識別する角栓無用識別器を学習する、
付記9から11のいずれか1つに記載の識別器学習方法。
(付記13)
前記角栓有無判定ステップでは、前記第2画像データに含まれるR値及びG値の最大値が角栓判定閾値以上か否かにより、前記患部の角栓の有無を判定する、
付記12に記載の識別器学習方法。
(付記14)
複数の候補識別器のそれぞれに対して、また、複数の前記候補識別器の組合せに対して、それぞれ識別結果の正しさを評価した値である評価値を取得する検証ステップと、
前記検証ステップで取得した前記候補識別器のそれぞれの評価値及び前記候補識別器の組合せの評価値に基づいて、前記候補識別器のそれぞれ及び前記候補識別器の組合せの中から、前記患部を識別する識別器として採用する採用識別器を決定する決定ステップと、
をさらに備え、
前記学習ステップでは、前記決定ステップで決定された採用識別器を学習する、
付記9から13のいずれか1つに記載の識別器学習方法。
(付記15)
前記検証ステップでは、前記第1画像データに基づいて前記患部を識別する第1識別器の評価値である第1評価値と、前記第2画像データに基づいて前記患部を識別する第2識別器の評価値である第2評価値と、前記第1識別器の出力値と前記第2識別器の出力値との平均値に基づく前記患部の識別の評価値である第3評価値と、を取得し、
前記決定ステップでは、前記第1評価値、前記第2評価値及び前記第3評価値のうちの最大値に基づいて、前記採用識別器を決定する、
付記14に記載の識別器学習方法。
(付記16)
識別装置における識別方法であって、
白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データを取得する第1画像データ取得ステップと、
前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データを取得する第2画像データ取得ステップと、
前記第1画像データ及び前記第2画像データに基づいて、前記患部を識別する最終識別ステップと、
を備える識別方法。
(付記17)
識別装置のコンピュータに、
白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データを取得する第1画像データ取得ステップ、
前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データを取得する第2画像データ取得ステップ、及び、
前記第1画像データ及び前記第2画像データに基づいて、前記患部を識別する最終識別ステップ、
を実行させるためのプログラム。
10…制御部、11…白色光画像データ取得部、12…紫外光画像データ取得部、13…第1白色光画像識別器、14…第1紫外光画像識別器、15…第1最終識別部、16…統合画像識別器、17…第2白色光画像識別器、18…第2紫外光画像識別器、19…第2最終識別部、20…記憶部、31…照射部、32…撮像部、33…出力部、34…通信部、35…操作入力部、100,101,102,103…識別装置

Claims (12)

  1. 白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データと、前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データとに基づいて学習された識別器であって、角栓を含む患部が写されている第2画像データを識別対象とする角栓有用識別器と、角栓が無い患部が写されている第2の画像データを識別対象とする角栓無用識別器と、を含む識別器と、
    前記第1画像データを取得する第1画像データ取得手段と、
    前記第2画像データを取得する第2画像データ取得手段と、
    前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定手段と、
    前記第2画像データが前記角栓有無判定手段により角栓有と判定された場合は前記角栓有用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別し、前記第2画像データが前記角栓有無判定手段により角栓無と判定された場合は前記角栓無用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別する最終識別手段と、
    を備えることを特徴とする識別装置。
  2. 前記第1画像データ取得手段は、前記第1受光光を受光して撮像することにより得られた画像を、色空間の全ての色要素を用いて、前記第1画像データとして取得し、
    前記第2画像データ取得手段は、前記第2受光光を受光して撮像することにより得られた画像を、前記色空間の一部の色要素を用いて、前記第2画像データとして取得することを特徴とする
    請求項1に記載の識別装置。
  3. 前記第1画像データ取得手段は、前記第1受光光を受光して撮像することにより得られた画像のR値、G値及びB値を、前記第1画像データとして取得し、
    前記第2画像データ取得手段は、前記第2受光光を受光して撮像することにより得られた画像のR値及びG値を、前記第2画像データとして取得することを特徴とする
    請求項2に記載の識別装置。
  4. 前記角栓有無判定手段は、前記第2画像データに含まれるR値及びG値の最大値が角栓判定閾値以上か否かにより、前記患部の角栓の有無を判定することを特徴とする
    請求項に記載の識別装置。
  5. 前記識別器は、前記第1画像データと前記第2画像データとを統合した統合画像データが入力されると前記患部を識別した結果を出力するように学習されていることを特徴とする
    請求項1からのいずれか1項に記載の識別装置。
  6. 前記第1画像データの撮像タイミングと前記第2画像データの撮像タイミングとの時間差は、連写基準時間以下であることを特徴とする
    請求項1からのいずれか1項に記載の識別装置。
  7. 識別装置における識別器学習方法であって、
    白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データを取得する第1画像データ取得ステップと、
    前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データを取得する第2画像データ取得ステップと、
    前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定ステップと、
    前記角栓有無判定ステップで角栓有と判定された前記第2画像データと前記第1画像データとに基づいて、前記識別器に含まれる角栓有と判定された前記患部が悪性であるか否かを識別する角栓有用識別器を学習し、前記角栓有無判定ステップで角栓無と判定された前記第2画像データと前記第1画像データとに基づいて、前記識別器に含まれる角栓無と判定された前記患部が悪性であるか否かを識別する角栓無用識別器を学習する学習ステップと、
    含むことを特徴とする識別器学習方法。
  8. 前記角栓有無判定ステップでは、前記第2画像データに含まれるR値及びG値の最大値が角栓判定閾値以上か否かにより、前記患部の角栓の有無を判定することを特徴とする
    請求項に記載の識別器学習方法。
  9. 前記第1画像データの撮像タイミングと前記第2画像データの撮像タイミングとの時間差は、連写基準時間以下であることを特徴とする
    請求項7又は8に記載の識別器学習方法。
  10. 前記第1画像データ取得ステップでは、前記第1受光光を受光して撮像することにより得られた画像を、色空間の全ての色要素を用いて、前記第1画像データとして取得し、
    前記第2画像データ取得ステップでは、前記第2受光光を受光して撮像することにより得られた画像を、前記色空間の一部の色要素を用いて、前記第2画像データとして取得することを特徴とする
    請求項7から9のいずれか1項に記載の識別器学習方法。
  11. 識別装置における識別方法であって、
    前記識別装置は、白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データと、前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データとに基づいて学習された識別器であって、角栓を含む患部が写されている第2画像データを識別対象とする角栓有用識別器と、角栓が無い患部が写されている第2の画像データを識別対象とする角栓無用識別器と、を含む識別器を備え、
    前記第1画像データを取得する第1画像データ取得ステップと、
    前記第2画像データを取得する第2画像データ取得ステップと、
    前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定ステップと、
    前記第2画像データが前記角栓有無判定ステップにて角栓有と判定された場合は前記角栓有用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別し、前記第2画像データが前記角栓有無判定ステップにて角栓無と判定された場合は前記角栓無用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別する最終識別ステップと、
    含むことを特徴とする識別方法。
  12. 識別装置のコンピュータが実行するプログラムであって、
    前記識別装置は、白色光を含む第1照射光が照射された皮膚又は粘膜に含まれる患部から反射した反射光である第1受光光を受光して撮像することにより得られた第1画像データと、前記患部に照射した場合に前記患部が蛍光反応を示すような光を含む第2照射光が照射された前記患部における蛍光反応によって発生した光を含む光である第2受光光を受光して撮像することにより得られた第2画像データとに基づいて学習された識別器であって、角栓を含む患部が写されている第2画像データを識別対象とする角栓有用識別器と、角栓が無い患部が写されている第2の画像データを識別対象とする角栓無用識別器と、を含む識別器を備え、
    前記コンピュータ
    前記第2画像データに基づき、前記患部の角栓の有無を判定する角栓有無判定手段、
    前記第2画像データが前記角栓有無判定手段により角栓有と判定された場合は前記角栓有用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別し、前記第2画像データが前記角栓有無判定手段により角栓無と判定された場合は前記角栓無用識別器による識別結果に基づいて前記患部が悪性であるか否かを識別する最終識別手段
    として機能させるためのプログラム。
JP2020019275A 2020-02-07 2020-02-07 識別装置、識別器学習方法、識別方法及びプログラム Active JP7044120B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2020019275A JP7044120B2 (ja) 2020-02-07 2020-02-07 識別装置、識別器学習方法、識別方法及びプログラム
US16/823,919 US11295443B2 (en) 2020-02-07 2020-03-19 Identification apparatus, identifier training method, identification method, and recording medium
AU2020202082A AU2020202082B2 (en) 2020-02-07 2020-03-24 Identification apparatus, identifier training method, identification method, and program
EP20165331.8A EP3862923A1 (en) 2020-02-07 2020-03-24 Identification apparatus, identifier training method, identification method, and program
CN202010285002.5A CN113256549A (zh) 2020-02-07 2020-04-13 识别装置、识别器学习方法、识别方法以及程序
JP2021205861A JP7331913B2 (ja) 2020-02-07 2021-12-20 識別装置、識別器学習方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020019275A JP7044120B2 (ja) 2020-02-07 2020-02-07 識別装置、識別器学習方法、識別方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021205861A Division JP7331913B2 (ja) 2020-02-07 2021-12-20 識別装置、識別器学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021125056A JP2021125056A (ja) 2021-08-30
JP7044120B2 true JP7044120B2 (ja) 2022-03-30

Family

ID=69960468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020019275A Active JP7044120B2 (ja) 2020-02-07 2020-02-07 識別装置、識別器学習方法、識別方法及びプログラム

Country Status (5)

Country Link
US (1) US11295443B2 (ja)
EP (1) EP3862923A1 (ja)
JP (1) JP7044120B2 (ja)
CN (1) CN113256549A (ja)
AU (1) AU2020202082B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034630A1 (ja) * 2022-08-10 2024-02-15 ライオン株式会社 画像処理装置、モデル生成装置、皮膚状態測定システム、画像処理方法、モデル生成方法、判定方法及び教師データ作成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011033612A (ja) 2009-07-10 2011-02-17 Nireco Corp 農産物検査装置
WO2016185617A1 (ja) 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018152106A (ja) 2018-05-02 2018-09-27 株式会社日立国際電気 水上侵入検知システムおよびその方法
JP2018190128A (ja) 2017-05-01 2018-11-29 日本電信電話株式会社 設定装置、分析システム、設定方法および設定プログラム
WO2020008834A1 (ja) 2018-07-05 2020-01-09 富士フイルム株式会社 画像処理装置、方法及び内視鏡システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6008889A (en) 1997-04-16 1999-12-28 Zeng; Haishan Spectrometer system for diagnosis of skin disease
CA2356195A1 (en) * 1998-12-23 2000-06-29 Medispectra, Inc. Optical methods and systems for cervical screening
JP2004215738A (ja) 2003-01-10 2004-08-05 Pentax Corp 画像処理装置
US8406858B2 (en) 2005-04-29 2013-03-26 The Regents Of The University Of Colorado, A Body Corporate Multi-excitation diagnostic system and methods for classification of tissue
JP5018653B2 (ja) * 2008-06-04 2012-09-05 株式会社豊田中央研究所 画像識別装置
CA3105924C (en) * 2011-12-21 2022-06-28 Catherine M. Shachaf System for imaging lesions aligning tissue surfaces
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
CN103815875B (zh) * 2013-10-28 2015-06-03 重庆西南医院 一种用于烧伤皮肤坏死深度和面积诊断的近红外光谱成像***
JP6164238B2 (ja) 2015-03-18 2017-07-19 カシオ計算機株式会社 診断装置並びに当該診断装置における画像処理方法及びそのプログラム
US11164670B2 (en) * 2015-03-18 2021-11-02 Canfield Scientific, Incorporated Methods and apparatus for identifying skin features of interest
JP6528608B2 (ja) 2015-08-28 2019-06-12 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
US11266331B2 (en) * 2016-05-16 2022-03-08 Sony Corporation Optical apparatus and information processing method
TWI639137B (zh) 2017-04-27 2018-10-21 立特克科技股份有限公司 皮膚檢測裝置及其檢測方法
JP6918584B2 (ja) * 2017-06-08 2021-08-11 花王株式会社 毛穴詰まり評価方法及び毛穴詰まり評価装置
CN109363634A (zh) * 2018-10-08 2019-02-22 蔡义文 皮肤的测评方法、装置、手机、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011033612A (ja) 2009-07-10 2011-02-17 Nireco Corp 農産物検査装置
WO2016185617A1 (ja) 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018190128A (ja) 2017-05-01 2018-11-29 日本電信電話株式会社 設定装置、分析システム、設定方法および設定プログラム
JP2018152106A (ja) 2018-05-02 2018-09-27 株式会社日立国際電気 水上侵入検知システムおよびその方法
WO2020008834A1 (ja) 2018-07-05 2020-01-09 富士フイルム株式会社 画像処理装置、方法及び内視鏡システム

Also Published As

Publication number Publication date
US11295443B2 (en) 2022-04-05
JP2021125056A (ja) 2021-08-30
US20210248738A1 (en) 2021-08-12
EP3862923A1 (en) 2021-08-11
AU2020202082B2 (en) 2022-01-13
AU2020202082A1 (en) 2021-08-26
CN113256549A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
CN109523532B (zh) 图像处理方法、装置、计算机可读介质及电子设备
US11699102B2 (en) System and method for multiclass classification of images using a programmable light source
US11937973B2 (en) Systems and media for automatically diagnosing thyroid nodules
Zikic et al. Context-sensitive classification forests for segmentation of brain tumor tissues
JP2022502150A (ja) 胃内視鏡イメージのディープラーニングを利用して胃病変を診断する装置及び方法
Jeng et al. Multiclass classification of autofluorescence images of oral cavity lesions based on quantitative analysis
Raciti et al. Clinical validation of artificial intelligence–augmented pathology diagnosis demonstrates significant gains in diagnostic accuracy in prostate cancer detection
EP3749956A1 (en) Systems and methods for analysis and remote interpretation of optical histologic images
WO2019130924A1 (ja) 画像処理装置、内視鏡システム、画像処理方法、及びプログラム
US20220246301A1 (en) Medical machine learning system
KR20200038121A (ko) 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법
US20180365830A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2020054543A1 (ja) 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
Ding et al. Detection of dental caries in oral photographs taken by mobile phones based on the YOLOv3 algorithm
US20240144708A1 (en) Examination system and examination method thereof
JP7044120B2 (ja) 識別装置、識別器学習方法、識別方法及びプログラム
Nakai et al. Enhanced deep bottleneck transformer model for skin lesion classification
Javid et al. Marking early lesions in labial colored dental images using a transfer learning approach
Hossain et al. Cavit: Early stage dental caries detection from smartphone-image using vision transformer
JP7331913B2 (ja) 識別装置、識別器学習方法及びプログラム
Meyer-Veit et al. Hyperspectral endoscopy using deep learning for laryngeal cancer segmentation
JP2019005266A (ja) 情報処理装置、プログラム、方法及びシステム
Chuquimia et al. Polyp follow-up in an intelligent wireless capsule endoscopy
Sreejesh Bleeding Frame and Region Detection in Wireless Capsule Endoscopy Video
Goswami et al. Classification of Oral Cancer Into Pre-Cancerous Stages From White Light Images Using LightGBM Algorithm

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R150 Certificate of patent or registration of utility model

Ref document number: 7044120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150