JP7322358B2 - 情報処理プログラム、情報処理方法、及び情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、及び情報処理装置 Download PDF

Info

Publication number
JP7322358B2
JP7322358B2 JP2020014107A JP2020014107A JP7322358B2 JP 7322358 B2 JP7322358 B2 JP 7322358B2 JP 2020014107 A JP2020014107 A JP 2020014107A JP 2020014107 A JP2020014107 A JP 2020014107A JP 7322358 B2 JP7322358 B2 JP 7322358B2
Authority
JP
Japan
Prior art keywords
training
image
index value
unit
pixels corresponding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020014107A
Other languages
English (en)
Other versions
JP2021120816A (ja
Inventor
彬 酒井
正明 小松
愛 同前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
RIKEN Institute of Physical and Chemical Research
National Cancer Center Japan
Original Assignee
Fujitsu Ltd
RIKEN Institute of Physical and Chemical Research
National Cancer Center Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, RIKEN Institute of Physical and Chemical Research, National Cancer Center Japan filed Critical Fujitsu Ltd
Priority to JP2020014107A priority Critical patent/JP7322358B2/ja
Priority to EP21150700.9A priority patent/EP3859607B1/en
Priority to US17/144,162 priority patent/US11508064B2/en
Publication of JP2021120816A publication Critical patent/JP2021120816A/ja
Application granted granted Critical
Publication of JP7322358B2 publication Critical patent/JP7322358B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理プログラム、情報処理方法、及び情報処理装置に関する。
入力される画像に含まれる対象物の異常検知を行なう手法として、オートエンコーダ(自己符号化器)を用いた異常検知手法が知られている。
オートエンコーダを用いた異常検知手法では、対象物が正常である正常データを入力とし、当該正常データを復元して出力するようにオートエンコーダを学習させる。
学習済みのオートエンコーダは、対象物が異常である異常データが入力される場合であっても、当該データを正常データに復元するため、正常データが入力される場合と比較して、入力データと出力データとの間の差分が大きい。
このように、オートエンコーダを用いた異常検知手法は、正常及び異常データのうちの正常データのみを用いた学習により、異常データにおける正常データからの逸脱を用いて対象物の異常を検知できるため、汎用性の高い手法である。
一方で、オートエンコーダを用いた異常検知手法は、正常データに含まれる背景やノイズを異常と区別することが困難な場合があり、背景やノイズの変動に弱い場合がある。
従って、例えば、対象物の位置及び背景等の少なくとも1つについて様々なバリエーションがある対象物の異常検知に上述した異常検知手法を用いる場合、異常検知精度が低下する可能性がある。
1つの側面では、本発明は、対象物の異常検知精度の向上を図ることを目的とする。
1つの側面では、情報処理プログラムは、コンピュータに以下の処理を実行させてよい。前記処理は、訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得してよい。また、前記処理は、前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練してよい。さらに、前記処理は、前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出してよい。また、訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用されてよい。
1つの側面では、対象物の異常検知精度を向上させることができる。
比較例の第1の手法に係る異常検知処理を説明するための図である。 比較例の第2の手法に係る異常検知処理を説明するための図である。 異なる背景及び異なる位置に置かれた正常な釘及び異常な釘の例を示す図である。 一実施形態に係る情報処理装置による学習処理の一例を説明するための図である。 第1指標値の算出例を説明するための図である。 一実施形態に係る情報処理装置による判定処理の一例を説明するための図である。 第2指標値の算出例を説明するための図である。 正常な心室中隔の超音波画像の一例を示す図である。 異常な心室中隔の超音波画像の一例を示す図である。 一実施形態に係るサーバの機能構成例を示すブロック図である。 訓練データセットの一例を示す図である。 入力データの一例を示す図である。 学習部による物体検知部及びセグメンテーション部の機械学習処理の一例を説明するための図である。 閾値算出部による下限及び上限の閾値の決定処理の一例を説明するための図である。 実行部による推定処理の一例を説明するための図である。 実行部による推定処理の一例を説明するための図である。 出力データの一例を示す図である。 学習フェーズの動作例を説明するためのフローチャートである。 判定フェーズの動作例を説明するためのフローチャートである。 一実施形態に係るコンピュータのハードウェア構成例を示すブロック図である。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。例えば、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。なお、以下の実施形態で用いる図面において、同一符号を付した部分は、特に断らない限り、同一若しくは同様の部分を表す。
〔1〕一実施形態
〔1-1〕比較例
まず、一実施形態の比較例について説明する。図1及び図2は、それぞれ、比較例に係る異常検知処理を説明するための図である。
図1に示すように、比較例の第1の手法では、サーバは、学習時に、オートエンコーダ100に対して、対象物を含む画像210を入力し、画像210を再構築(復元)した画像220を出力するように教師なし学習を行なう。
サーバは、学習後の運用時に、入力画像230と、入力画像230を入力としたオートエンコーダ100から出力された出力画像240との差分を比較し、入力と出力との差分が大きい場合に入力画像230に含まれる対象物を異常と判定する。
例えば、サーバは、正常値である対象物を含む入力画像231とその出力画像241との差分は比較的小さいため、入力画像231に含まれる対象物を正常と判定する。一方、サーバは、異常値である対象物を含む入力画像232とその出力画像242との差分は比較的大きいため、入力画像232に含まれる対象物を異常と判定する。
しかし、比較例の第1の手法では、入力画像230に含まれる対象物のみの正常又は異常を判定したい場合であっても、入力画像230に含まれる背景及び位置等の変化、換言すればノイズを異常と判別する場合があり、異常検出の精度が低下することがある。
第1の手法の改良手法として、例えば、図2に示す第2の手法が考えられる。図2に示すように、比較例の第2の手法では、サーバは、正常データから学習したセグメンテーション用の学習済みニューラルネットワーク(NNW)300を用いて、入力画像から検査対象の物体(対象物)のマスクをピクセル単位で検出する。そして、サーバは、ピクセル単位で検出された検査対象の物体のマスクに対して、第1の手法を適用することで、マスクの元の対象物の正常又は異常を判別する。
例えば、サーバは、学習時に、対象物を含む画像410を入力したNNW300から出力された、対象物のマスクを含むマスク画像420を取得する。そして、サーバは、オートエンコーダ100に対して、入力されるマスク画像420を再構築して出力マスク画像430を出力するように教師なし学習を行なう。
また、サーバは、学習後の運用時に、画像440を入力としたNNW300から出力されたマスク画像450と、マスク画像450を入力としたオートエンコーダ100から出力された出力マスク画像460との差分を比較する。
例えば、サーバは、正常値である対象物を含むマスク画像451及び452とそれらの出力マスク画像461及び462との各差分は比較的小さいため、画像441及び442に含まれる対象物を正常と判定する。一方、サーバは、異常値である対象物を含むマスク画像453とその出力マスク画像463との差分は比較的大きいため、画像443に含まれる対象物を異常と判定する。
ここで、比較例の第2の手法では、セグメンテーション用のNNW300は、データ量の多い正常データから学習される。従って、図2に点線枠470で示すように、異常な対象物を含む画像444が入力された場合、NNW300から出力されるマスク画像454には対象物のマスクが出力されない、換言すれば、何も映っていないマスク画像454が出力されることがある。
しかしながら、オートエンコーダ100は、何も映っていない画像を正常として学習し得るため、点線枠470で示すように、マスク画像454と、学習済みオートエンコーダ100から出力された出力マスク画像464との差分が比較的小さくなる場合がある。この場合、サーバでは、画像444に含まれる対象物のような異常が検知されない場合がある。
なお、対象物の「異常」とは、例えば、対象物が、学習済みNNW300によりセグメンテーション対象の対象物であると検出できない程度に、正常な対象物の本来の形状と異なることを意味してよい。例えば、このような状態としては、対象物の一部の欠損、又は、対象物の少なくとも一部の変形等により、対象物の形状が正常な対象物と異なった状態であり、一例として、図3に示す折れた状態の釘510bが挙げられる。
図3は、異なる背景及び異なる位置に置かれた正常な釘及び異常な釘の例を示す図である。図3に示すように、互いに背景が異なる画像500a及び500bのそれぞれに、正常な釘510a及び異常な釘510bが互いに異なる位置に配置されている。
そこで、一実施形態では、図3に例示するように、対象物の背景のパターンが複数存在し、及び/又は、対象物が折れる等により元の形状と比較して変形し得る場合(異常な対象物である場合)において、対象物の異常検知の精度向上を図る手法を説明する。
〔1-2〕情報処理装置による情報処理の説明
図4は、一実施形態に係る情報処理装置1による情報処理のうちの学習処理の一例を説明するための図である。なお、以下の説明では、「対象物」は、例えば、釘等の物体であるものとする。また、「画像」は、対象物及び背景を含む画像であるものとする。
図4に例示するように、情報処理装置1は、学習フェーズの処理機能として、学習実行部3、物体検知部4及びセグメンテーション部5を備えてよい。
学習実行部3は、例えば、以下の(a)~(c)の処理を実行することで、物体検知部4及びセグメンテーション部5を含む推定モデルの学習(訓練)を行なってよい。
(a)学習実行部3は、複数の訓練データ2を含むデータセットを取得する。
訓練データ2は、画像21と、第1アノテーション画像22と、第2アノテーション画像23とを含んでよい。
画像21は、訓練対象物を撮影した画像の一例であり、訓練対象となる1つ以上の対象物21aを含んでよい。対象物21aは、例えば正常な物体であってよい。第1アノテーション画像22は、第1アノテーションデータの一例であり、画像21において対象物21aを含む矩形領域22aを示す画像である。第2アノテーション画像23は、第2アノテーションデータの一例であり、画像21中の対象物21aに対応するピクセル23aを示す画像である。
(b)学習実行部3は、データセットの画像21と第1アノテーション画像22とに基づいて物体検知部4を訓練するとともに、データセットの画像21と第2アノテーション画像23とに基づいてセグメンテーション部5を訓練する。
物体検知部4は、物体検知モデルの一例であり、画像21の入力に応じて画像21における対象物21aを含む矩形領域を特定する。物体検知部4としては、種々の物体検知用のNNWが挙げられるが、一実施形態では、例えば、YOLOが用いられるものとする。
セグメンテーション部5は、NNWの一例であり、画像21の入力に応じて画像21中の対象物21aに対応すると推定されたピクセルを出力とする。セグメンテーション部5としては、種々のセグメンテーション用のNNWが挙げられるが、一実施形態では、例えば、U-Netが用いられるものとする。なお、セグメンテーション部5は、U-Netに限定されるものではなく、Semantic Segmentationを実行する他のニューラルネットワークであってもよく、Semantic Segmentation以外のセグメンテーション手法を用いるニューラルネットワークであってもよい。
例えば、学習実行部3は、データセットに含まれる訓練データ2ごとに、物体検知部4に画像21を入力し、第1アノテーション画像22を教師データとして物体検知部4の機械学習を実行してよい。また、例えば、学習実行部3は、データセットに含まれる訓練データ2ごとに、セグメンテーション部5に画像21を入力し、第2アノテーション画像23を教師データとしてセグメンテーション部5の機械学習を実行してよい。
(c)学習実行部3は、第1アノテーション画像22により特定される対象物21aを含む矩形領域22aに対応するピクセル数と第2アノテーション画像23により特定される対象物21aに対応するピクセル23aの数(ピクセル数)との間の、ピクセル数の関係性についての第1指標値を算出する。
上記(b)の処理において訓練された推定モデル、及び、上記(c)の処理において算出された第1指標値は、訓練後の推定モデルを利用した、対象画像に含まれる判定対象の対象物が正常状態であるか否かを判定する判定処理に利用される。
図5は、第1指標値の算出例を説明するための図である。学習実行部3は、一例として、第1アノテーション画像22に含まれる矩形領域22a内のピクセル数を、対象物21aごとに算出してよい。図5の例では、ピクセル数A~Dが算出されてよい。ピクセル数A~Dのそれぞれは、第1アノテーション画像22における矩形領域22aの面積の一例である。
また、学習実行部3は、一例として、第2アノテーション画像23に含まれるピクセル23aのピクセル数を、対象物21aごとに算出してよい。図5の例では、ピクセル数E~Hが算出されてよい。ピクセル数E~Hのそれぞれは、第2アノテーション画像23におけるピクセル23aの面積の一例である。
そして、学習実行部3は、矩形領域22aのピクセル数A~Dと、ピクセル23aのピクセル数E~Hとの間の、ピクセル数の関係性についての第1指標値を算出してよい。
なお、学習実行部3は、対象物21aごとに、第1指標値を算出してよい。例えば、学習実行部3は、ピクセル数Aとピクセル数Eとの間の第1指標値、ピクセル数Bとピクセル数Fとの間の第1指標値、ピクセル数Cとピクセル数Gとの間の第1指標値、及び、ピクセル数Dとピクセル数Hとの間の第1指標値、をそれぞれ算出してよい。
学習実行部3は、第1指標値の算出を、データセットに含まれる訓練データ2ごとに実行してよい。
以上のように、第1指標値を算出することで、例えば、対象物21aを含む矩形領域22aと、対象物21aに対応するピクセル23aとの間の、ピクセル数の関係性を、正規化することができる。従って、例えば、正常な対象物21aの画像21が入力された物体検知部4及びセグメンテーション部5のそれぞれからの出力結果の相関値(期待値)を、画像21内の対象物21aのサイズによらずに、定量的に捉えることが可能となる。
図6は、一実施形態に係る情報処理装置1による情報処理のうちの判定処理の一例を説明するための図である。
図6に例示するように、情報処理装置1は、判定フェーズでの判定処理において、学習済みの物体検知部4、学習済みのセグメンテーション部5、及び、判定処理部9を備えてよい。
図6に示すように、画像6は、判定対象の1つ以上の対象物6aを含む対象画像の一例である。画像6には、例えば、折れた釘のように異常な対象物6bが含まれ得る。
判定処理部9は、画像6の入力に応じて訓練後の推定モデルから出力される出力結果に基づく第2指標値と、学習実行部3により算出された第1指標値と、に基づいて、画像6に含まれる対象物6aが正常状態であるか否かを判定する判定処理を実行する。
例えば、判定処理部9は、物体検知部4による推定結果7により特定される矩形領域7aに対応するピクセル数と訓練後のセグメンテーション部5による推定結果8により特定される対象物6aに対応するピクセル8aのピクセル数との間の第2指標値を算出する。
図7は、第2指標値の算出例を説明するための図である。判定処理部9は、一例として、物体検知部4による推定結果7に含まれる矩形領域7a内のピクセル数を、対象物6aごとに算出してよい。図7の例では、ピクセル数a~dが算出されてよい。ピクセル数a~dのそれぞれは、推定結果7における矩形領域7aの面積の一例である。
また、判定処理部9は、一例として、セグメンテーション部5による推定結果8に含まれるピクセル8aのピクセル数を、対象物6aごとに算出してよい。図7の例では、ピクセル数e~hが算出されてよい。ピクセル数e~hのそれぞれは、推定結果8におけるピクセル8aの面積の一例である。
そして、判定処理部9は、例えば、画像6ごとに、矩形領域7aのピクセル数a~dと、ピクセル8aのピクセル数e~hとの間の、ピクセル数の関係性についての第2指標値を算出してよい。
なお、判定処理部9は、対象物6aごとに、第2指標値を算出してよい。例えば、判定処理部9は、ピクセル数aとピクセル数eとの間の第2指標値、ピクセル数bとピクセル数fとの間の第2指標値、ピクセル数cとピクセル数gとの間の第2指標値、及び、ピクセル数dとピクセル数hとの間の第2指標値、をそれぞれ算出してよい。
以上のように、第2指標値を算出することで、例えば、対象物6aを含む矩形領域7aと、対象物6aに対応するピクセル8bとの間の、ピクセル数の関係性を、正規化することができる。従って、例えば、対象物6aの画像6が入力された物体検知部4及びセグメンテーション部5のそれぞれからの出力結果の相関値を、画像6内の対象物6aのサイズによらずに、定量的に捉えることが可能となる。
これにより、例えば、物体検知部4及びセグメンテーション部5のそれぞれからの出力結果について、正常な対象物21aの画像21が入力された場合の相関値(期待値)と、異常な対象物6bの画像6が入力された場合の相関値とで有意な差を出すことができる。
従って、例えば、判定処理部9は、複数の第1指標値と、第2指標値とに基づくことで、画像6に含まれる対象物6aが正常状態であるか否かを判定することができる。
第1及び第2指標値に基づく判定ロジックの一例については、後述する。
以上のように、一実施形態に係る情報処理装置1によれば、物体検知部4の推定結果に関するピクセル数とセグメンテーション部5の推定結果に関するピクセル数との間の、ピクセル数の関係性についての指標値に基づき、判定処理が行なわれる。
物体検知部4は、入力される画像における対象物を含む矩形領域を出力し、セグメンテーション部5は、入力される画像中の対象物に対応すると推定されたピクセルを出力する。このように、物体検知部4及びセグメンテーション部5は、画像に含まれる背景の影響が小さい推定結果をそれぞれ出力する。
従って、情報処理装置1は、第1及び第2指標値に基づく判定処理において、画像6に含まれる対象物6aと対象物6aの背景とを区別して、対象物6a(例えば対象物6b)の異常を検知することができる。
また、YOLO等の物体検知部4、及び、U-Net等のセグメンテーション部5は、いずれも、対象物の異常検知を目的としたアルゴリズムではなく、これらが単体で、上述した異常検知に利用される可能性は低い。これに対して、一実施形態に係る情報処理装置1は、これらのアルゴリズムを組み合わせた上で、各アルゴリズムの出力を利用した判定処理を加えることで、画像に含まれる物体の異常検知の精度向上を実現している。
例えば、物体検知部4を含む物体検知用AI(Artificial Intelligence)は、物体検知用AIは、対象物が欠損又は変形等していても、適切な矩形領域を出力できる。換言すれば、物体検知用AIは、対象物の形状の変化に対してロバストに対象物を検知できる。
一方、セグメンテーション部5を含むセグメンテーション用AIは、対象物の形状の変化に対して相対的に敏感である。例えば、セグメンテーション用AIは、対象物が欠損又は変形等した場合、当該対象物を検出できなくなる場合がある。セグメンテーション用AIが、正常及び異常な形状の対象物のうち、正常な形状の対象物のみを用いて訓練されているためである。
一実施形態に係る情報処理装置1は、上記のような異常状態である対象物に対する感度が相互に異なる物体検知用AI及びセグメンテーション用AIによる、それぞれの推定能力の差を用いることで、対象物の本来の形状から変形した対象物の異常を検知できる。
以上のように、一実施形態に係る情報処理装置1によれば、対象物の異常検知の精度を向上させることができる。
〔1-3〕一実施形態の構成例
以下の説明では、情報処理装置1による判定処理が、超音波画像診断における胎児心臓の心室中隔と呼ばれる部位の異常検知に利用される場合を例に挙げる。
胎児心臓の超音波検査において、心室中隔の欠損の有無を判定することが重要である。図8は、正常な心室中隔の超音波画像の一例を示す図であり、図9は、異常な心室中隔の超音波画像の一例を示す図である。図8の例では、心室中隔に欠損はないが、図9の例では、心室中隔に欠損があり、変形していることがわかる。
図9に例示する心室中隔の欠損を検知する際に、以下の(A)~(C)のうちの少なくともいずれか1つに記載の不都合が生じる場合がある。
(A)超音波画像にはノイズが多く含まれることがあり、これらのノイズが心室中隔の異常として検出される可能性がある。
(B)超音波画像内における心室中隔の位置がプローブの操作に応じて変化する。
(C)心室中隔に異常がある場合、心室中隔の形状が大きく変形する。
そこで、以下、情報処理装置1が上述した不都合を解消する場合の一例を説明する。なお、以下の説明において、対象物は、心室中隔であり、判定対象の画像は、胎児の胸郭を撮像した、エコー画像等の超音波画像であるものとする。
図10は、一実施形態に係るサーバ10の機能構成例を示すブロック図である。サーバ10は、画像に含まれる対象物が正常状態であるか否かを判定する装置の一例であり、図4~図7に示す情報処理装置1の一例である。
図10に示すように、サーバ10は、例示的に、メモリ部11、物体検知部12、セグメンテーション部13、取得部14、学習部15、閾値算出部16、実行部17、判定部18及び出力部19を備えてよい。
メモリ部11は、記憶領域の一例であり、物体検知部12及びセグメンテーション部13の学習、実行(推定)及び出力等に用いられる種々の情報を記憶する。図10に示すように、メモリ部11は、例示的に、複数のモデル情報11a、訓練データセット11b、入力データ11c及び出力データ11dを記憶可能であってよい。
物体検知部12は、図1に示す物体検知部4の一例であり、例えば、画像の入力に応じて画像における対象物を含む矩形領域を特定する。物体検知部12としては、例えば、YOLO等の物体検出NNWであってよい。
セグメンテーション部13は、図1に示すセグメンテーション部5の一例であり、例えば、画像の入力に応じて画像中の対象物に対応すると推定されたピクセルを出力とする。セグメンテーション部13としては、例えば、機械学習手法を用いて画像のセグメンテーションを行なうNNWであってよく、一例として、U-Netが挙げられる。なお、セグメンテーション部13は、U-Netに限定されるものではなく、Semantic Segmentationを実行する他のニューラルネットワークであってもよく、Semantic Segmentation以外のセグメンテーション手法を用いるニューラルネットワークであってもよい。
物体検知部12及びセグメンテーション部13を実現するためのネットワーク構造や各種パラメータ等の情報は、例えば、物体検知部12及びセグメンテーション部13別にモデル情報11aとしてメモリ部11に記憶されてよい。
取得部14は、物体検知部12及びセグメンテーション部13を含む推定モデルの学習及び実行に用いる情報を、例えば図示しないコンピュータから取得する。
例えば、取得部14は、推定モデルの学習に用いる訓練データセット11bを取得し、メモリ部11に格納してよい。
訓練データセット11bは、訓練対象物を撮影した画像と、当該画像において訓練対象物を含む矩形領域を示す第1アノテーションデータと、当該画像中の訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データのデータセットの一例である。
例えば、訓練データセット11bは、図11に示すように、n個(nは2以上の整数)の訓練データ110を含んでよい。各訓練データ110は、訓練対象物を撮影した画像111と、当該画像111において訓練対象物を含む矩形領域を示す第1アノテーション画像112と、当該画像111中の訓練対象物に対応するピクセルを示す第2アノテーション画像113とを含んでよい。
画像111は、例えば、図11に示すように、訓練対象物の一例である心室中隔を撮像したエコー画像であってよい。複数の訓練データ110における各エコー画像は、一連のエコー映像から時系列(例えばt=0~(n-1))に切り出されたフレームでもよいし、互いに異なる動画像から切り出されたフレームでもよく、或いは、静止画像として撮影された画像でもよい。
第1アノテーション画像112は、第1アノテーションデータの一例であり、例えば、図11に示すように、訓練データ110の画像111における心室中隔を含む矩形情報のアノテーションを示す画像である。矩形情報としては、例えば、図11に示すように、白破線で囲った領域を示す画像であってよい。
第2アノテーション画像113は、第2アノテーションデータの一例であり、例えば、図11に示すように、訓練データ110の画像111中の心室中隔のピクセル単位のアノテーションを示す画像である。例えば、第2アノテーション画像113は、心室中隔をマスクした画像であってよい。
なお、「マスク」とは、例えば、マスク対象の領域を、マスク対象ではない領域と区別可能な態様で表示することを意味し、一例として、マスク対象の領域を所定の色で塗り潰す、換言すればマスク対象の領域のピクセルに所定の色を設定することであってよい。図11の例では、マスクされた領域、換言すれば心室中隔に対応する領域を白塗りで示す。なお、第2アノテーション画像113では、心室中隔以外の領域が、例えば黒塗り等で示されてもよい。
また、取得部14は、物体検知部12及びセグメンテーション部13による判定処理に用いる入力データ11cを取得し、メモリ部11に格納してよい。
入力データ11cは、判定対象の1以上の対象画像を含む画像セットであり、例えば、複数のフレームを含む映像等の動画像であってよい。一実施形態では、入力データ11cは、図12に示すように、エコー画像等である画像114を複数含むエコー映像であってよい。画像114は、判定処理において物体検知部12及びセグメンテーション部13に入力される対象画像の一例である。
学習部15は、物体検知部12及びセグメンテーション部13の訓練を行なう訓練実行部の一例であり、取得部14が取得した訓練データセット11bを用いて、物体検知部12及びセグメンテーション部13のそれぞれの学習を行なう。
図13は、学習部15による物体検知部12及びセグメンテーション部13の機械学習処理の一例を説明するための図である。図13に示すように、学習部15は、対象物111aとしての心室中隔を含む画像111を物体検知部12及びセグメンテーション部13のそれぞれに入力する。
そして、学習部15は、画像111の入力に応じて取得される、物体検知部12が出力した推定結果と、矩形領域112aのアノテーションを含む第1アノテーション画像112とに基づいて、物体検知部12の機械学習を実行する。
また、学習部15は、画像111の入力に応じて取得される、セグメンテーション部13が出力した推定結果と、対象物111aに対応するピクセル113aを含む第2アノテーション画像113とに基づいて、セグメンテーション部13の機械学習を実行する。
学習部15による推定モデルの機械学習処理により、物体検知部12は、入力される画像に対して、第1アノテーション画像112と同様に、対象物を含む矩形領域を特定する(出力する)ように学習される。また、セグメンテーション部13は、入力される画像に対して、第2アノテーション画像113と同様に、対象物に対応すると推定したピクセルを出力する、換言すれば対象物のセグメンテーションを行なうように学習される。
第1及び第2アノテーション画像112及び113を教師データとして用いた、推定モデル、すなわち物体検知部12及びセグメンテーション部13の機械学習手法としては、既知の種々の手法が採用されてよい。
例えば、画像111の入力に応じて物体検知部12の順伝播処理により得られる推定結果と、第1アノテーション画像112とに基づき得られる誤差関数の値を小さくするために、順伝播方向の処理で使用するパラメータを決定する逆伝播処理が実行されてよい。
また、例えば、画像111の入力に応じてセグメンテーション部13の順伝播処理により得られる推定結果と、第2アノテーション画像113とに基づき得られる誤差関数の値を小さくするために、順伝播方向の処理で使用するパラメータを決定する逆伝播処理が実行されてよい。
そして、機械学習処理では、逆伝播処理の結果に基づいて重み等の変数を更新する更新処理が実行されてよい。
これらのパラメータや変数等は、モデル情報11aに含まれてよく、学習部15は、機械学習処理の実行に応じて、モデル情報11aを更新してよい。
学習部15は、例えば、訓練データセット11bに含まれる複数の訓練データ110を用いて、繰り返し回数又は精度等が閾値に達するまで、物体検知部12及びセグメンテーション部13の各々の機械学習処理を繰り返し実行してよい。なお、学習が終了した物体検知部12及びセグメンテーション部13は、訓練済みモデルの一例である。
閾値算出部16は、画像114に含まれる対象物が正常状態であると判定するための、後述する第2指標値の上限及び下限の一方又は双方の閾値を算出する。例えば、閾値算出部16は、以下の(i)~(iii)の手順により、閾値を算出してよい。
(i)閾値算出部16は、矩形領域112aに対応するピクセル数とピクセル113aのピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する。
第1指標値は、例えば、第1アノテーション画像112により特定される対象物111aを含む矩形領域112aに対応するピクセル数と、第2アノテーション画像113により特定される対象物111aに対応するピクセル113aの数との比であってよい。
第1指標値算出部の一例としての閾値算出部16は、例えば、第2アノテーション画像113の対象物111a(図13参照)のピクセル数が、第1アノテーション画像112の矩形領域112a(図13参照)に占める面積の割合を、第1指標値として算出する。
例えば、閾値算出部16は、訓練データセット11bに含まれる複数の画像111のそれぞれについて、且つ、各画像111に含まれる1以上の対象物111aのそれぞれについて、第1指標値を算出してよい。このとき、閾値算出部16は、訓練データ110ごとに、訓練データ110内の第1及び第2アノテーション画像112及び113の矩形領域112a及びピクセル113aの各ピクセル数を用いてよい。
上述のように、物体検知部12及びセグメンテーション部13には、対象物111aの形状の変化に対する感度に差がある。すなわち、第1指標値は、対象物111aの形状の変化に対する、物体検知部12及びセグメンテーション部13の感度の差を反映した指標値であるといえる。このため、第1指標値として割合を算出することで、対象物111aが正常状態であるときの第1指標値を、複数の対象物111aに亘って正規化することができ、物体検知部12及びセグメンテーション部13の各出力結果の相関値を容易に取得することができる。
なお、第1指標値としては、割合(比)に限定されるものではなく、物体検知部12及びセグメンテーション部13からそれぞれ出力される出力結果間の相関値を得ることのできる種々の情報が用いられてもよい。
(ii)閾値算出部16は、複数の第1指標値の平均及び分散を算出する。
閾値算出部16は、訓練データセット11bに含まれる複数の第1アノテーション画像112及び複数の第2アノテーション画像113に基づき算出された複数の第1指標値の、平均及び分散を算出する算出部の一例である。
(iii)閾値算出部16は、算出した平均及び分散に基づき、1以上の閾値を決定する。
一例として、第1指標値が正規分布に従う場合を想定する。なお、算出した平均をμ、分散をσ^2とする。この場合、閾値算出部16は、図14に例示するように、算出した分散σ^2の平方根である標準偏差σを算出し、2σ区間、すなわち、平均μを中心とした前後±2σの第1指標値の値を、それぞれ下限及び上限の閾値に決定してよい。図14の例では、閾値算出部16は、(μ-2σ)を下限の閾値Th1に決定し、(μ+2σ)を上限の閾値Th2に決定する。
以上のように、閾値算出部16は、対象物111aが正常状態であるときの複数の第1指標値の平均及び分散を算出し、算出した平均及び分散に基づき、閾値Th1及びTh2を決定する。閾値Th1及びTh2は、複数の第1指標値が集中する範囲(例えば2σ区間等)の境界を示す。このため、閾値Th1及びTh2を決定することで、後述する第2指標値が、複数の第1指標値が集中する範囲に含まれるか否かを容易に判定できる。
なお、閾値算出部16は、図14に例示するように、1σ区間、すなわち、平均μを中心とした前後±σの第1指標値の値を用いて、(μ-σ)を下限の閾値Th1に決定し、(μ+σ)を上限の閾値Th2に決定してもよい。
上述した例では、第1指標値が正規分布に従う場合を想定したが、これに限定されるものではない。閾値算出部16は、第1指標値が従う種々の分布に応じて、閾値を決定してもよい。また、閾値算出部16は、複数の第1指標値の四分位数を算出してもよい。例えば、閾値算出部16は、第1指標値の第1四分位を下限の閾値に決定してもよく、第1指標値の第3四分位を上限の閾値に決定してもよい。
実行部17は、学習部15による訓練済みの物体検知部12及びセグメンテーション部13を用いて、入力データ11cに対する対象物の推定処理を実行する。
図15は、実行部17による推定処理の一例を説明するための図である。図15に示すように、実行部17は、推定処理において、入力データ11cに含まれる画像114を抽出する。
そして、実行部17は、推定処理において、画像114を物体検知部12に入力し、物体検知部12から出力される推定結果画像である検知画像12aを取得する物体検知処理を実行する。また、実行部17は、推定処理において、画像114をセグメンテーション部13に入力し、セグメンテーション部13から出力される推定結果画像であるセグメンテーション画像13aを取得するセグメンテーション処理を実行する。
検知画像12aは、訓練後の物体検知部12による推定結果により特定される矩形領域120aを含んでよい。矩形領域120aは、画像114に含まれる対象物114aに対応する矩形領域120aである。セグメンテーション画像13aは、訓練後のセグメンテーション部13による推定結果により特定される、画像114に含まれる対象物114aに対応するピクセル130aを含んでよい。
また、実行部17は、推定処理において、取得した検知画像12a及びセグメンテーション画像13aを合成して、合成画像17aを生成する合成処理を実行してもよい。合成画像17aは、検知画像12aに含まれる矩形領域120aと、セグメンテーション画像13aに含まれるピクセル130aとを少なくとも含む画像データであってよい。なお、合成画像17aの背景は、図15に例示するように黒塗り等の単一色であってもよいし、画像114の背景が用いられてもよい。
判定部18は、検知画像12a及びセグメンテーション画像13a、又は、合成画像17aに含まれる、矩形領域120a及びピクセル130aに基づき、画像114に含まれる対象物114aが正常状態であるか否かを判定する判定処理を実行する。
例えば、判定部18は、判定対象の対象物114aを含む画像114の入力に応じて訓練後の推定モデルから出力される出力結果における、矩形領域120aに対応するピクセル数と対象物114aに対応するピクセル130aの数との間の第2指標値を算出する。
第2指標値は、例えば、物体検知部12による推定結果により特定される矩形領域120aに対応するピクセル数と、セグメンテーション部13による推定結果により特定される対象物114aに対応するピクセル130aの数との比であってよい。
判定部18は、例えば、合成画像17a又はセグメンテーション画像13aのピクセル130a(図15参照)のピクセル数が、合成画像17a又は検知画像12aの矩形領域120a(図15参照)に占める面積の割合を、第2指標値として算出する。判定部18は、第2指標値算出部の一例である。
例えば、判定部18は、入力データ11cに含まれる複数の画像114のそれぞれについて、且つ、各画像114に含まれる1以上の対象物114aのそれぞれについて、第2指標値を算出してよい。
そして、判定部18は、算出された第2指標値と、閾値算出部16が算出した第1指標値とに基づいて、画像114に含まれる対象物114aが正常状態であるか否かを判定してよい。例えば、判定部18は、第2指標値と、第1指標値に基づき決定された閾値Th1及びTh2とを比較し、対象物114aの正常又は異常を判定してよい。
一例として、判定部18は、図15に示すように、算出された第2指標値が、下限の閾値Th1以上、且つ、上限の閾値Th2以下である場合、対象物114aが正常状態であると判定してよい。
一方、判定部18は、図16に示すように、算出された第2指標値が、上限の閾値Th2よりも大きい場合、又は、下限の閾値Th1よりも小さい場合、対象物114aが異常状態であると判定してよい。
このように、判定部18は、第2指標値と、閾値Th1及び/又は閾値Th2との比較により、対象物114aが正常状態であるか否かを容易に判定できる。
出力部19は、実行部17から入力される合成画像17a、又は/及び、検知画像12a及びセグメンテーション画像13aをメモリ部11に出力(蓄積)し、蓄積した複数の画像に基づき、出力データ11dを作成してよい。
出力データ11dは、矩形領域120a、及び、ピクセル130aの一方又は双方を含む、1以上の出力画像115を含む画像セットであってよい。出力画像115は、例えば、合成画像17a、又は/及び、検知画像12a及びセグメンテーション画像13aのセット、であってもよく、一例として、複数のフレームを含む映像等の動画像であってよい。一実施形態では、出力部19は、図17に例示するように、合成画像17aとしての出力画像115をフレームとして時系列に結合した映像であってよい。
また、出力部19は、判定部18による判定結果、例えば、対象物114aが正常状態又は異常状態であることを出力してよい。判定結果は、例えば、出力画像115中に示されてもよいし、出力画像115とは別のデータとして出力されてもよい。図17では、出力部19が、異常状態である旨のメッセージ116を出力画像115上にオーバレイ表示する例を示している。
なお、出力部19は、出力データ11dを、例えば図示しないコンピュータに送信してもよい。
以上のように、実行部17、判定部18及び出力部19は、訓練済みの推定モデルを用いて、画像114に含まれる対象物114aが正常状態であるか否かを判定する判定処理を実行する判定処理部の一例である。また、判定処理部の一例としての実行部17、判定部18及び出力部19は、判定処理を実行し、判定結果を出力してよい。
〔1-4〕動作例
次に、図18及び図19を参照して、上述の如く構成されたサーバ10の動作例を説明する。
〔1-4-1〕学習フェーズの動作例
図18は、物体検知部12及びセグメンテーション部13の学習フェーズの動作例を説明するためのフローチャートである。
図18に例示するように、取得部14は、訓練データセット11bを取得し(ステップS1)、メモリ部11に格納する。
学習部15は、訓練データセット11b内の各訓練データ110に含まれる画像111を、物体検知部12及びセグメンテーション部13のそれぞれに入力し、機械学習を実行する(ステップS2)。機械学習では、学習部15は、物体検知部12に対して第1アノテーション画像112を教師データとして与え、セグメンテーション部13に対して第2アノテーション画像113を教師データとして与える。
なお、学習部15は、訓練データセット11b内の複数の訓練データ110を用いて物体検知部12及びセグメンテーション部13のそれぞれの機械学習を行なう。
次いで、閾値算出部16は、訓練データセット11b内の複数の第1及び第2アノテーション画像112及び113に基づき、複数の第1指標値を算出する(ステップS3)。
そして、閾値算出部16は、複数の第1指標値に基づき、下限の閾値Th1及び上限の閾値Th2を算出し(ステップS4)、処理が終了する。
〔1-4-2〕判定フェーズの動作例
図19は、物体検知部12及びセグメンテーション部13の判定フェーズの動作例を説明するためのフローチャートである。
図19に例示するように、取得部14は、入力データ11cを取得し(ステップS11)、メモリ部11に格納する。
実行部17は、入力データ11c内の画像114を物体検知部12及びセグメンテーション部13のそれぞれに入力する(ステップS12)。また、実行部17は、物体検知部12から出力される検知画像12aと、セグメンテーション部13から出力されるセグメンテーション画像13aとを合成して合成画像17aを生成する。
判定部18は、検知画像12a内の矩形領域120aのピクセル数と、セグメンテーション画像13a内の、対象物114aに対応するピクセル130aの数とに基づき、第2指標値を算出する(ステップS13)。
そして、判定部18は、第2指標値と、閾値算出部16が算出した下限の閾値Th1及び上限の閾値Th2とに基づき、対象物114aが正常状態であるのか、異常状態であるのかを判定する(ステップS14)。
出力部19は、合成画像17aを出力画像115として蓄積し、蓄積した出力画像115を統合した出力データ11dと、判定部18による判定結果とを出力し(ステップS15)、処理が終了する。なお、出力データ11dの出力先としては、例えば、メモリ部11の他に、図示しないコンピュータ等が挙げられる。
〔1-5〕ハードウェア構成例
図20は、情報処理装置1及びサーバ10の機能を実現するコンピュータ20のハードウェア(HW)構成例を示すブロック図である。情報処理装置1及びサーバ10の機能を実現するHWリソースとして、複数のコンピュータが用いられる場合は、各コンピュータが図20に例示するHW構成を備えてよい。
図20に示すように、コンピュータ20は、HW構成として、例示的に、プロセッサ20a、メモリ20b、記憶部20c、IF(Interface)部20d、I/O(Input / Output)部20e、及び読取部20fを備えてよい。
プロセッサ20aは、種々の制御や演算を行なう演算処理装置の一例である。プロセッサ20aは、コンピュータ20内の各ブロックとバス20iで相互に通信可能に接続されてよい。なお、プロセッサ20aは、複数のプロセッサを含むマルチプロセッサであってもよいし、複数のプロセッサコアを有するマルチコアプロセッサであってもよく、或いは、マルチコアプロセッサを複数有する構成であってもよい。
プロセッサ20aとしては、例えば、CPU、MPU、GPU、APU、DSP、ASIC、FPGA等の集積回路(IC:Integrated Circuit)が挙げられる。なお、プロセッサ20aとして、これらの集積回路の2以上の組み合わせが用いられてもよい。
例えば、情報処理装置1の少なくとも一部、サーバ10の取得部14、閾値算出部16、実行部17の少なくとも一部、判定部18、及び、出力部19の処理機能は、プロセッサ20aとしてのCPU又はMPU等により実現されてもよい。また、情報処理装置1の少なくとも一部、サーバ10の物体検知部12、セグメンテーション部13、学習部15、及び、実行部17の少なくとも一部の処理機能は、プロセッサ20aのうちのGPU又はASIC(例えばTPU)等のアクセラレータにより実現されてもよい。
CPUはCentral Processing Unitの略称であり、MPUはMicro Processing Unitの略称である。GPUはGraphics Processing Unitの略称であり、APUはAccelerated Processing Unitの略称である。DSPはDigital Signal Processorの略称であり、ASICはApplication Specific ICの略称であり、FPGAはField-Programmable Gate Arrayの略称である。TPUはTensor Processing Unitの略称である。
メモリ20bは、種々のデータやプログラム等の情報を格納するHWの一例である。メモリ20bとしては、例えばDRAM(Dynamic Random Access Memory)等の揮発性メモリ、及び、PM(Persistent Memory)等の不揮発性メモリ、の一方又は双方が挙げられる。
記憶部20cは、種々のデータやプログラム等の情報を格納するHWの一例である。記憶部20cとしては、HDD(Hard Disk Drive)等の磁気ディスク装置、SSD(Solid State Drive)等の半導体ドライブ装置、不揮発性メモリ等の各種記憶装置が挙げられる。不揮発性メモリとしては、例えば、フラッシュメモリ、SCM(Storage Class Memory)、ROM(Read Only Memory)等が挙げられる。
また、記憶部20cは、コンピュータ20の各種機能の全部若しくは一部を実現するプログラム20g(情報処理プログラム)を格納してよい。例えば、情報処理装置1のプロセッサ20aは、記憶部20cに格納されたプログラム20gをメモリ20bに展開して実行することにより、図4及び図6に例示する情報処理装置1としての機能を実現できる。また、サーバ10のプロセッサ20aは、記憶部20cに格納されたプログラム20gをメモリ20bに展開して実行することにより、図10に例示するサーバ10としての機能を実現できる。
なお、メモリ20b及び記憶部20cの少なくとも1つが有する記憶領域は、図10に示す各情報11a~11dを記憶可能であってよい。換言すれば、図10に示すメモリ部11は、メモリ20b及び記憶部20cの少なくとも1つが有する記憶領域により実現されてよい。
IF部20dは、ネットワークとの間の接続及び通信の制御等を行なう通信IFの一例である。例えば、IF部20dは、イーサネット(登録商標)等のLAN(Local Area Network)、或いは、FC(Fibre Channel)等の光通信等に準拠したアダプタを含んでよい。当該アダプタは、無線及び有線の一方又は双方の通信方式に対応してよい。例えば、サーバ10は、IF部20dを介して、他の装置と相互に通信可能に接続されてよい。また、例えば、プログラム20gは、当該通信IFを介して、ネットワークからコンピュータ20にダウンロードされ、記憶部20cに格納されてもよい。
I/O部20eは、入力装置、及び、出力装置、の一方又は双方を含んでよい。入力装置としては、例えば、キーボード、マウス、タッチパネル等が挙げられる。出力装置としては、例えば、モニタ、プロジェクタ、プリンタ等が挙げられる。
読取部20fは、記録媒体20hに記録されたデータやプログラムの情報を読み出すリーダの一例である。読取部20fは、記録媒体20hを接続可能又は挿入可能な接続端子又は装置を含んでよい。読取部20fとしては、例えば、USB(Universal Serial Bus)等に準拠したアダプタ、記録ディスクへのアクセスを行なうドライブ装置、SDカード等のフラッシュメモリへのアクセスを行なうカードリーダ等が挙げられる。なお、記録媒体20hにはプログラム20gが格納されてもよく、読取部20fが記録媒体20hからプログラム20gを読み出して記憶部20cに格納してもよい。
記録媒体20hとしては、例示的に、磁気/光ディスクやフラッシュメモリ等の非一時的なコンピュータ読取可能な記録媒体が挙げられる。磁気/光ディスクとしては、例示的に、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク、HVD(Holographic Versatile Disc)等が挙げられる。フラッシュメモリとしては、例示的に、USBメモリやSDカード等の半導体メモリが挙げられる。
上述したコンピュータ20のHW構成は例示である。従って、コンピュータ20内でのHWの増減(例えば任意のブロックの追加や削除)、分割、任意の組み合わせでの統合、又は、バスの追加若しくは削除等は適宜行なわれてもよい。例えば、情報処理装置1及びサーバ10において、I/O部20e及び読取部20fの少なくとも一方は、省略されてもよい。
〔2〕その他
上述した一実施形態に係る技術は、以下のように変形、変更して実施することができる。
例えば、図10に示すサーバ10が備える各処理機能12~19は、それぞれ任意の組み合わせで併合してもよく、分割してもよい。
なお、一実施形態では、対象物及び画像が、それぞれ、心室中隔及びエコー画像であるものとしたが、これらに限定されるものではない。一実施形態に係る手法は、下記のように、種々の対象物及び画像についても適用可能である。
対象物としては、例えば、人体の部位の他、形状が変化する可能性のある種々の物体が挙げられる。画像としては、対象物を含む領域を撮影した種々の画像が挙げられる。例えば、画像としては、エコー画像以外の超音波画像、磁気共鳴画像、X線画像、温度又は電磁波等を捉えるセンサによる検出画像、並びに、可視光又は非可視光を捉えるイメージセンサによる撮像画像、等の種々の画像が挙げられる。
また、図10に示すサーバ10は、複数の装置がネットワークを介して互いに連携することにより、各処理機能を実現する構成であってもよい。一例として、取得部14及び出力部19はWebサーバ、物体検知部12及びセグメンテーション部13、学習部15、閾値算出部16、実行部17並びに判定部18はアプリケーションサーバ、メモリ部11はDB(Database)サーバ、であってもよい。この場合、Webサーバ、アプリケーションサーバ及びDBサーバが、ネットワークを介して互いに連携することにより、サーバ10としての各処理機能を実現してもよい。
さらに、物体検知部12及びセグメンテーション部13の学習処理(物体検知部12及びセグメンテーション部13、取得部14及び学習部15)、並びに、判定処理(実行部17、判定部18及び出力部19)に係る各処理機能が、互いに異なる装置により提供されてもよい。この場合においても、これらの装置がネットワークを介して互いに連携することにより、サーバ10としての各処理機能を実現してもよい。
〔3〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータに実行させ、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理プログラム。
(付記2)
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記1に記載の情報処理プログラム。
(付記3)
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
処理を前記コンピュータに実行させる、
付記1又は付記2に記載の情報処理プログラム。
(付記4)
前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
処理を前記コンピュータに実行させる、
付記3に記載の情報処理プログラム。
(付記5)
前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
処理を前記コンピュータに実行させる、
付記1~付記4のいずれか1項に記載の情報処理プログラム。
(付記6)
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記1~付記5のいずれか1項に記載の情報処理プログラム。
(付記7)
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
処理をコンピュータが実行し、
訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
情報処理方法。
(付記8)
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記7に記載の情報処理方法。
(付記9)
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
処理を前記コンピュータが実行する、
付記7又は付記8に記載の情報処理方法。
(付記10)
前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
処理を前記コンピュータが実行する、
付記9に記載の情報処理方法。
(付記11)
前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
処理を前記コンピュータが実行する、
付記7~付記10のいずれか1項に記載の情報処理方法。
(付記12)
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記7~付記11のいずれか1項に記載の情報処理方法。
(付記13)
訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得する取得部と、
前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練する訓練実行部と、
前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する第1指標値算出部と、
判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理を実行する、判定処理部と、
を備える情報処理装置。
(付記14)
前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
付記13に記載の情報処理装置。
(付記15)
前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出する算出部と、
算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する閾値算出部と、を備える、
付記13又は付記14に記載の情報処理装置。
(付記16)
前記判定処理部は、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
付記15に記載の情報処理装置。
(付記17)
前記判定処理部は、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
付記13~付記16のいずれか1項に記載の情報処理装置。
(付記18)
前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
付記13~付記17のいずれか1項に記載の情報処理装置。
1 情報処理装置
2、110 訓練データ
3 学習実行部
4、12 物体検知部
5、13 セグメンテーション部
6、21、111、114 画像
6a、6b、21a、111a、114a 対象物
7、8 推定結果
7a、7b、22a、112a、120a 矩形領域
8a、8b、23a、113a、130a ピクセル
9 判定処理部
10 サーバ
11 メモリ部
11a モデル情報
11b 訓練データセット
11c 入力データ
11d 出力データ
12a 検知画像
13a セグメンテーション画像
14 取得部
15 学習部
16 閾値算出部
17 実行部
17a 合成画像
18 判定部
19 出力部
20 コンピュータ
22、112 第1アノテーション画像
23、113 第2アノテーション画像
115 出力画像
116 メッセージ

Claims (8)

  1. 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
    前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
    前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
    処理をコンピュータに実行させ、
    訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
    情報処理プログラム。
  2. 前記第1指標値は、前記第1アノテーションデータにより特定される前記対象物を含む矩形領域に対応するピクセル数と、前記第2アノテーションデータにより特定される前記対象物に対応するピクセル数との比であり、
    前記第2指標値は、前記訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との比である、
    請求項1に記載の情報処理プログラム。
  3. 前記訓練データセットに含まれる複数の前記第1アノテーションデータ及び複数の前記第2アノテーションデータに基づき算出された複数の前記第1指標値の、平均及び分散を算出し、
    算出した前記平均及び前記分散に基づき、前記対象画像に含まれる対象物が正常状態であると判定するための前記第2指標値の上限及び下限の一方又は双方の閾値を決定する、
    処理を前記コンピュータに実行させる、
    請求項1又は請求項2に記載の情報処理プログラム。
  4. 前記判定処理において、前記第2指標値が、前記上限の閾値よりも大きい場合、又は、前記下限の閾値よりも小さい場合、前記対象画像に含まれる対象物が異常状態であることを出力する、
    処理を前記コンピュータに実行させる、
    請求項3に記載の情報処理プログラム。
  5. 前記判定処理において、前記物体検知モデルによる推定結果により特定される矩形領域、及び、前記訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル、の一方又は双方を含む画像を出力する、
    処理を前記コンピュータに実行させる、
    請求項1~請求項4のいずれか1項に記載の情報処理プログラム。
  6. 前記訓練データセットに含まれる複数の前記画像及び前記対象画像のそれぞれは、超音波画像である、
    請求項1~請求項5のいずれか1項に記載の情報処理プログラム。
  7. 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得し、
    前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練し、
    前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する、
    処理をコンピュータが実行し、
    訓練後の前記推定モデル及び算出された前記第1指標値は、判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理に利用される、
    情報処理方法。
  8. 訓練対象物を撮影した画像と、前記画像において前記訓練対象物を含む矩形領域を示す第1アノテーションデータと、前記画像中の前記訓練対象物に対応するピクセルを示す第2アノテーションデータと、をそれぞれに含む訓練データの訓練データセットを取得する取得部と、
    前記画像の入力に応じて前記画像における前記訓練対象物を含む矩形領域を特定する物体検知モデルと、前記画像の入力に応じて前記画像中の前記訓練対象物に対応すると推定されたピクセルを出力とするニューラルネットワークとを含む推定モデルについて、前記訓練データセットの前記画像と前記第1アノテーションデータとに基づいて前記物体検知モデルを訓練するとともに、前記訓練データセットの前記画像と前記第2アノテーションデータとに基づいて前記ニューラルネットワークを訓練する訓練実行部と、
    前記第1アノテーションデータにより特定される前記訓練対象物を含む矩形領域に対応するピクセル数と前記第2アノテーションデータにより特定される前記訓練対象物に対応するピクセル数との間の、ピクセル数の関係性についての第1指標値を算出する第1指標値算出部と、
    判定対象の対象物を含む対象画像の入力に応じて訓練後の前記推定モデルから出力される出力結果における、訓練後の前記物体検知モデルによる推定結果により特定される矩形領域に対応するピクセル数と訓練後の前記ニューラルネットワークによる推定結果により特定される前記対象物に対応するピクセル数との間の第2指標値と、算出された前記第1指標値と、に基づいて、前記対象画像に含まれる前記対象物が正常状態であるか否かを判定する判定処理を実行する、判定処理部と、
    を備える情報処理装置。
JP2020014107A 2020-01-30 2020-01-30 情報処理プログラム、情報処理方法、及び情報処理装置 Active JP7322358B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020014107A JP7322358B2 (ja) 2020-01-30 2020-01-30 情報処理プログラム、情報処理方法、及び情報処理装置
EP21150700.9A EP3859607B1 (en) 2020-01-30 2021-01-08 Information processing program, method for processing information, and information processing apparatus
US17/144,162 US11508064B2 (en) 2020-01-30 2021-01-08 Computer-readable recording medium having stored therein information processing program, method for processing information, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020014107A JP7322358B2 (ja) 2020-01-30 2020-01-30 情報処理プログラム、情報処理方法、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2021120816A JP2021120816A (ja) 2021-08-19
JP7322358B2 true JP7322358B2 (ja) 2023-08-08

Family

ID=74125084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014107A Active JP7322358B2 (ja) 2020-01-30 2020-01-30 情報処理プログラム、情報処理方法、及び情報処理装置

Country Status (3)

Country Link
US (1) US11508064B2 (ja)
EP (1) EP3859607B1 (ja)
JP (1) JP7322358B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061710A (ja) 2015-08-15 2019-04-18 セールスフォース ドット コム インコーポレイティッド 3dバッチ正規化を伴う三次元(3d)畳み込み

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3982646B2 (ja) * 1997-04-28 2007-09-26 財団法人くまもとテクノ産業財団 画像識別装置および方法および画像識別装置を備えた画像検出識別装置ならびに画像識別用プログラムを記録した媒体
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP6639113B2 (ja) * 2015-06-05 2020-02-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US9858525B2 (en) * 2015-10-14 2018-01-02 Microsoft Technology Licensing, Llc System for training networks for semantic segmentation
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
US10593033B2 (en) * 2017-06-27 2020-03-17 Nec Corporation Reconstructor and contrastor for medical anomaly detection
US10679351B2 (en) * 2017-08-18 2020-06-09 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images
JP7250653B2 (ja) * 2018-10-10 2023-04-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7278088B2 (ja) * 2019-01-31 2023-05-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061710A (ja) 2015-08-15 2019-04-18 セールスフォース ドット コム インコーポレイティッド 3dバッチ正規化を伴う三次元(3d)畳み込み

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Wenyuan Li et al,Path R-CNN for Prostate Cancer Diagnosis and Gleason Grading of Histological Images,IEEE Transactions on Medical Imaging,Year: 2019, Volume: 38, Issue: 4,IEEE,2019年04月,https://ieeexplore.ieee.org/document/8490855
村松 千左子 Chisako MURAMATSU,緑内障診断のための網膜神経線維層欠損の検出 Detection of Retinal Nerve Fiber Layer Defect for Glaucoma Diagnosis,電子情報通信学会技術研究報告 Vol.117 No.117 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,第117巻

Also Published As

Publication number Publication date
JP2021120816A (ja) 2021-08-19
US11508064B2 (en) 2022-11-22
EP3859607B1 (en) 2023-10-25
EP3859607A1 (en) 2021-08-04
US20210241452A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US10360465B2 (en) Liveness testing methods and apparatuses and image processing methods and apparatuses
US11676361B2 (en) Computer-readable recording medium having stored therein training program, training method, and information processing apparatus
US11429806B2 (en) Devices, systems, and methods for anomaly detection
JP7453813B2 (ja) 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット
US20230267734A1 (en) Information Extraction from Live Online Sessions
JP7322358B2 (ja) 情報処理プログラム、情報処理方法、及び情報処理装置
JP2022037623A (ja) 異常検知方法、異常検知装置および異常検知プログラム
KR101412369B1 (ko) 영상의 객체 검출 방법 및 장치
JP6892844B2 (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
JP7323235B2 (ja) 画像追跡装置、画像追跡方法、及びプログラム
Çiftçi et al. Deepfake source detection in a heart beat
KR20230139257A (ko) 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치
JP7316611B2 (ja) 推定処理プログラム、推定処理方法、及び情報処理装置
KR20200143957A (ko) 제품 검사를 위한 자동 학습 방법 및 시스템
US20240144729A1 (en) Generation method and information processing apparatus
JP7415611B2 (ja) 計算プログラム、計算方法及び計算装置
JPWO2020152870A1 (ja) 信号処理方法,信号処理装置および信号処理プログラム
US20240104908A1 (en) Evaluation method
Dong et al. Research on an improved medical image enhancement algorithm based on pm model
US20230267705A1 (en) Information processing system and inference method
US20230410285A1 (en) Abnormality detection system, learning apparatus, abnormality detection program, and learning program
KR20230069506A (ko) 인공신경망을 이용한 안면 인증 방법 및 이를 수행하기 위한 컴퓨팅 장치
WO2023095250A1 (ja) 異常検知システム
KR20230099468A (ko) 연령관련 황반변성의 확인 및 유형 분류를 위한 인공지능 신경망 학습방법과 이를 이용하여 학습된 딥러닝 기반의 연령관련 황반변성 확인 및 유형 분류방법 및 시스템
JP2024054904A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R150 Certificate of patent or registration of utility model

Ref document number: 7322358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150