JP7083191B2 - セファロ画像における計測点の自動認識方法 - Google Patents

セファロ画像における計測点の自動認識方法 Download PDF

Info

Publication number
JP7083191B2
JP7083191B2 JP2020549210A JP2020549210A JP7083191B2 JP 7083191 B2 JP7083191 B2 JP 7083191B2 JP 2020549210 A JP2020549210 A JP 2020549210A JP 2020549210 A JP2020549210 A JP 2020549210A JP 7083191 B2 JP7083191 B2 JP 7083191B2
Authority
JP
Japan
Prior art keywords
image
peripheral region
feature point
maximum likelihood
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020549210A
Other languages
English (en)
Other versions
JPWO2020067005A1 (ja
Inventor
千尋 谷川
チョンホ リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Publication of JPWO2020067005A1 publication Critical patent/JPWO2020067005A1/ja
Application granted granted Critical
Publication of JP7083191B2 publication Critical patent/JP7083191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、セファロ画像分析技術に関し、特にセファロ画像上の解剖学的特徴点(計測点)の同定を、AI(Artificial Intelligence)を用いた深層学習処理により自動化する技術に関する。
矯正歯科の診断において、X線規格画像(以下、「セファロ画像」という。)に基づく頭蓋・顎顔面の形態分析は重要な分析手法のひとつである。このセファロ画像分析は、大きく次の3つのステップにより構成される(図1参照)。先ず第1のステップでは、患者から取得したセファロ画像における解剖学的特徴に基づいて複数の計測点を特定する。次の第2のステップでは、特定された計測点のうちから分析に必要な点間の幾何学的な関係(距離及び角度など)を測定する。最後のステップでは、このようにして得られた測定値を、被検者である当該患者と年齢、性などが一致し、正常な咬合を有する集団から得られた基準値と比較することにより、その患者の偏りの程度を評価する。
上述の第2及び第3のステップの分析処理は、位置が特定された計測点のピクセル座標値のみを扱うことから比較的簡単な演算処理で実現することができ、既に自動化が進んでいる(例えば非特許文献1参照)。しかし、上述の第1のステップにおける計測点の特定作業は、歯科医師の高度な専門的知識と経験が必要であるため完全な自動化には至っておらず、専ら医師の目視による判断で行われているのが現状である。例えば、頭蓋・顎顔面の形態分析において計測に使用される特徴点の個数は少なくとも20以上ある。しかも、軟組織上の特徴はコントラストを調整しながら読影する必要があるなど、全ての計測点(特徴点)の位置を正確に特定する作業は、歯科医師に長時間にわたる集中力と判断を強いるものであり負担が大きかった。
セファロ画像上の計測点の自動認識については、これまでに知識情報を用いて認識する方法や、パターン認識により同定する方法などが報告されているが未だ臨床応用には至っていない。その理由としては、ソフトウエアで実現した数理モデルが膨大な計算ステップを必要とすること、またスーパーコンピューターレベルの処理能力を必要とすることなどが挙げられる。
近年、コンピューターの処理能力の向上と高度なアルゴリズム開発による先進的分析エンジンが誕生したことにより、様々な分野で機械学習、特にディープラーニングに基づく画像認識技術の実用化が試みられている。例えば特許文献1には、セファロ画像上における解剖学的ランドマークの位置特定処理をCNN(Convolutional Neural Network)を採用したアルゴリズムにより行うことが開示されている。
米国特許出願公開第2018/0061054号明細書
Ricketts, R. M. (1972), The value of cephalometrics and computerized technology. Angle Orthod., 42, 179-99.
上述したようにセファロ画像分析における計測点の位置特定は、現状では医師等の高度な専門的知識と経験に基づいて行われている。計測点の位置特定を実用レベルで自動化するには、ハイスペックな専用ハードウエアの開発が必要であった。
本発明は、こうした事情に鑑み、専用のハードウエアを用いなくても、セファロ画像分析における計測点の特定を自動化する技術を提供することを目的としている。
上述した課題を解決するため、本発明は、セファロ画像における計測点を演算処理装置が自動認識する方法であって、被検者から取得したセファロ画像から、関心のある特徴点について予め定められた複数の異なる周辺部位領域を検出するステップと、前記各周辺部位領域における前記特徴点の位置を予め学習させた深層学習モデルを用いて、前記各周辺部位領域における当該特徴点の候補位置をそれぞれ推定するステップと、推定された複数の前記候補位置の分布に基づいて推定される、前記セファロ画像における前記特徴点の最尤推定位置を計測点の位置として判定するステップとを含む、計測点自動認識方法である。
前記各周辺部位領域がそれぞれ異なる画像サイズを有しており、前記周辺部位領域を検出するステップでは、検出しようとする周辺部位領域と同一サイズの対照画像を用いて比較することが好ましい。
また、前記特徴点の位置を判定するステップにおいては、前記候補位置のうち、それらの分布密度のピークに最も近い候補位置を前記特徴点の最尤推定位置として判定することが好ましい。
また、前記特徴点の位置を判定するステップにおいては、前記候補位置の分布密度のピークの位置を前記特徴点の最尤推定位置として判定するものでもよい。
また、前記特徴点の位置を判定するステップにおいては、前記候補位置の分布密度のピークが少なくとも2つ以上存在する場合であって、それぞれのピークから最尤推定される何れか2つの候補位置間の距離が所定の閾値以上あるときには、当該2つの候補位置が当該特徴点についての別個の測定点であると判定する処理を含むことが好ましい。
また、本発明は、セファロ画像における計測点を自動認識する演算処理装置及びデータベースを備えたシステムであって、前記データベースが、関心のある特徴点について予め定められた複数の異なる周辺部位領域を表示する対照画像の情報と、前記各周辺部位領域における前記特徴点の位置を予め学習させた深層学習モデルとを記憶し、前記演算処理装置が、被検者から取得したセファロ画像において前記各対照画像に一致する、複数の周辺部位領域を検出する周辺部位領域検出手段と、前記深層学習モデルを用いて、前記各周辺部位領域における当該特徴点の候補位置をそれぞれ推定する特徴点位置推定手段と、推定された複数の前記候補位置の分布に基づいて推定される、前記セファロ画像における前記特徴点の最尤推定位置を計測点の位置として判定する最尤位置判定手段とを備える、計測点自動認識システムである。
前記各周辺部位領域がそれぞれ異なる画像サイズを有しており、前記周辺部位領域検出手段は、検出しようとする周辺部位領域と同一サイズの前記対照画像を用いて比較することが好ましい。
また、前記最尤位置判定手段は、前記候補位置のうち、それらの分布密度のピークに最も近い候補位置を前記特徴点の最尤推定位置として判定することが好ましい。
また、前記最尤位置判定手段は、前記候補位置の分布密度のピークの位置を前記特徴点の最尤推定位置として判定するものでもよい。
また、前記最尤位置判定手段は、前記候補位置の分布密度のピークが少なくとも2つ以上存在する場合であって、それぞれのピークから最尤推定される何れか2つの候補位置間の距離が所定の閾値以上あるときには、当該2つの候補位置が当該特徴点についての別個の測定点であると判定することが好ましい。
本発明によれば、セファロ画像分析における解剖学的特徴点の認識処理を高精度かつ軽負荷で行うことができるアルゴリズム又はシステムを提供する。それにより、ハイスペックな専用ハードウエアを用いなくても、セファロ画像における計測点の特定を自動化することができる。
矯正歯科診断において行われるセファロ画像分析の概要を説明するためのスローチャートである。 側面位頭部の画像から読み取られる代表的な解剖学的特徴点を説明するための図である。 入力画像に回帰CNNモデルを適用して特徴点を自動認識するシステムを説明するための図である。 回帰CNNモデルによる特徴点を自動認識するシステムを更に説明するための図である。 回帰CNNモデルによる特徴点を自動認識するシステムを更に説明するための図である。 本発明の一実施形態による、計測点の自動認識処理を説明するためのフローチャートである。 セファロ画像及びその画像から選択される広候補領域を例示する図である。 セファロ画像において特徴点sellaの位置を判断する際に参照される複数の周辺部位領域を例示する図である。 セファロ画像から複数の周辺部位領域を検出するシステムを説明するための図である。 複数の分割画像に分類CNNモデルを適用して該当する周辺部位領域に分類するシステムを説明するための図である。 複数の周辺部位領域に回帰CNNモデルを適用してそれぞれの特徴点の位置を推定するシステムを説明するための図である。 広候補領域画像において推定された特徴点sellaについての複数の候補位置を同時に表示した図である。 複数の候補位置の分布密度曲線に基づいて特徴点の位置を判定する方法を説明するための図である。 複数の候補位置の分布密度曲線に基づいて特徴点の位置を判定する方法を更に説明するための図である。
矯正歯科の診断において、患者の頭蓋・顎顔面の形態分析法の重要なもののひとつにセファロ画像分析がある。このセファロ画像分析は、図1に示すように、大きく3つのステップにより構成される。先ず、患者から取得したセファロ画像における解剖学的特徴に基づいて複数の計測点を特定する(ステップS1)。次に、特定された計測点のうちから分析に必要な点間の幾何学的な位置関係(距離及び角度など)を測定する(ステップS2)。そして、幾何学的に得られた測定値を、被検者である当該患者と年齢、性などが一致し、正常な咬合を有する集団から得られた基準値と比較することにより、その患者の偏りの程度を評価する(ステップS3)。本発明は、ステップS1において行われる計測点(すなわち解剖学的特徴点)の特定ないし認識を、コンピューターの深層学習処理により自動認識する方法に係るものである。以下、図面を参照しながら、その具体的な実施形態を詳細に説明する。
セファロ画像は、患者である被検者の側面位頭部を一定規格の下でX線撮影することにより取得される。すなわち、被写体の中心とX線管の焦点との距離、及び、被写体とフィルム面との距離を常に一定にし、かつ、X線の主線を両耳桿の中心軸を貫通する位置(側貌位の場合)に保持することにより、経時的な比較検討が可能なX線規格画像が得られる。
図2に、側面位頭部の画像から読み取ることができる代表的な解剖学的特徴点(ランドマーク)をいくつか示す。例えばこれら特徴点を結ぶ線の長さや角度を測定することで、上下顎の大きさとそのズレ、顎の形、歯の傾斜角、口元のバランスなどを定量的に評価でき、または術前術後の変化を観察することができる。
本実施形態によれば、セファロ画像分析における計測点である解剖学的特徴点が、演算処理装置が行う深層学習モデルを用いた画像認識処理により同定される。深層学習モデルとして、例えば畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)モデルを用いた回帰演算処理を採用することができる。ここで、図3~5を参照して、回帰畳み込みニューラルネットワークモデル(以下、「回帰CNNモデル」と略称する。)を用いた特徴点の自動認識の概要を説明する。
回帰CNNモデル10には、ある特徴点Fの位置(Xf,Yf)が判明している大量の教師画像12が予め学習されている。教師画像12は、セファロ画像の全領域でもよいし、特徴点Fを含むように切り出された一領域であってもよい。本実施形態では、基本的には、この学習済みの教師画像12を用いた回帰演算処理により、入力画像11における特徴点Fの位置(Xr,Yr)を推定する。
回帰CNNモデル10は、入力層101と、隠れ層(ディープラーニング層)102と、出力層103とを少なくとも有している。入力画像11の画像データは、先ず、入力層101にそのまま取り込まれる。すなわち、入力層101の各ニューロンには、入力画像11の対応する各ピクセル値、具体的にはX線写真のグレースケールを「0」~「1」に換算した値が入力される。
隠れ層102では、入力画像11を構成している様々な特徴のパターンが抽出される。図3に示す隠れ層102の縦列の各ニューロンは、それぞれ重みが与えられた入力の線形和を演算することで、それぞれ別々の特徴のパターンを判定する役割を担っている。各ニューロンの重み係数を調整することで、そのニューロンが判定する特徴を学習させることができる。これらのニューロンは、前層から入力された配列データと予め学習された特徴の配列データとを比較し、それら相互の一致度(類似の程度)を示す値が次層のニューロン列に渡される。各ニューロンが判定した結果は、ディープラーニング層の増大による勾配損失を減らすという観点から、ReLU(Rectified Linear Units)またはシグモイド関数等により活性化されることが好ましい。
ディープラーニング層による上述の特徴抽出を画像全体で一括して行おうとすると、1つのニューロンに情報を伝達するシナプスの数が入力画像の解像度(画素数)に相当する数だけ必要となり、データ処理量が膨大になる。この問題を解決するため、本実施形態では、特徴抽出にCNN(畳み込みニューラスネットワーク)を採用している。深層学習モデルがCNNの場合、例えば図4及び5に示すように、入力層101の画像情報が小領域である複数のピース101A、101B、101C、101Dに小分けされ、隠れ層102のニューロン1021、1022、・・・がこれらピース101A、101B、101C、101D毎にそれぞれ特徴の一致度を判定する。このようなピース毎の一致度判定を一次の配列データ(初期では画像データ)全体で行うことで、よりダウンサイジング化された二次の配列データ(中間データ)を得ることができる。
ディープラーニング層である隠れ層102においては、以上のような一致度判定の処理が順次重層的に繰り返され、最終的に教師画像12との一致性が強調された小サイズの特徴抽出データが得られる。なお、ディープラーニングの各層において、中間データのサイズを縮小するプーリング処理を適宜配置し、それによりコンピューターの情報処理負荷の低減を図ってもよい。
隠れ層102から出力されピースパターンの特徴が抽出されたデータ(特徴抽出データ配列)は、最終的に出力層103に渡される。出力層103では、任意の入力画像の特徴抽出データから得られる特徴点Fの推定位置と、教師画像12の特徴抽出データから得られる特徴点Fの位置(Xf,Yf)との間の誤差が最小となるように、ニューラルネットワークの重み係数がチューニングされている。この出力層103において、入力画像11から抽出した特徴抽出データに対し回帰演算処理を実行することで、当該入力画像11における特徴点Fの推定位置(Xr,Yr)を得ることができる。
このような回帰演算処理においては、一般的に、入力画像11の領域が広い(つまり画素数が多い)ほど、高い精度で特徴点の位置を推定することができる。しかしその一方で、セファロ画像全体を一括して回帰演算処理を行おうとするとコンピューターで処理する情報量が膨大になり、演算時間が長くなるという課題も生じる。そこで、本実施形態のシステムでは、特徴点の自動認識における高い位置推定精度と演算処理負荷軽減の両立を図るため、次に説明する新規なアルゴリズムを採用している。
図6に、本発明の一実施形態による、計測点の自動認識処理を説明するためのフローチャートを示す。この自動認識処理は、被検者から取得したセファロ画像から、認識しようとする特徴点についての特定の周辺部位領域を検出するステップ(S11)、検出した各周辺部位領域における特徴点の候補位置をそれぞれ推定するステップ(S12)、そして各周辺部位領域において推定された複数の候補位置の分布に基づいて、セファロ画像における最も確からしい特徴点の位置を判定するステップ(S13)を含む。本自動認識方法で推定された特徴点の位置が、セファロ画像分析(図1参照)における計測点の位置として認識され、矯正歯科診断のための定量的な測定評価に供される。
先ず、図6のステップS11においては、例えば図9に示す分類畳み込みニューラルネットワークモデル(以下、「分類CNNモデル」と略称する。)を用いた深層学習に基づく画像認識処理により、システムに入力された被検者のセファロ画像14から複数の周辺部位領域31、32、33、34、・・・を検出する。分類CNNモデル13に入力する画像はセファロ画像全体でもよいが、図7に示すように、認識対象の解剖学的特徴点(例えばsellaやnasion等)を含む、ある制限された候補領域15であることが好ましい。画像全体から切り出されたこの候補領域をここでは「広候補領域」という。なお、上述の周辺部位領域31、32、33、34は、「広候補領域」から選択されるより狭い領域であることから「狭候補領域」ということがある。
専門医は、セファロ画像からある特徴点を読影で同定する際に、その特徴点についての複数の周辺部位領域を参照する。例えば、解剖学的特徴点nasion(前頭鼻骨縫合部の最前点)を同定する場合、先ず前頭洞を探し、その前下方(画像上では右下方)に存在する透過像を探し、更に、鼻の形態を検討して、解剖学的に縫合部であって問題ない箇所を探すなどの工夫を行うことがある。更に、眼瞼のラインと混同していないかについて再度検討し、最終的な鼻骨縫合部の最前点を同定する。この際、専門医は、nasionの画像上における左上方において、前頭洞が入る程度の画像を認識し、次に、nasionの画像上における右下方の鼻の形態を認識し、更に、nasionの下方にある眼瞼を探すなど、複数の解剖学的特徴を用いて複合的に位置を判断する。
本明細書において「周辺部位領域」とは、セファロ画像において関心のある特徴点を同定するために、解剖学的知見を有する専門医等により選択される、その特徴点周囲の特定の画像領域をいう。規格化されたセファロ画像においては、ある特徴点の複数の周辺部位領域について、それぞれ、画素座標位置及び画像サイズを規定することができる。特徴点についての複数の周辺部位領域は、それぞれ異なる画像サイズを有している。
なお、ここでいう周辺部位領域の画像サイズは、下記の数式(1)で定義される。
画素サイズ = 画素数×解像度 ・・・数式(1)
以下、本システムで位置を自動認識しようとする特徴点の一例としてsellaを取り挙げ、図7に示した広候補領域15を入力画像(広候補領域画像15D)として、複数の周辺部位領域からsellaを同定する場合の実施例を説明する。
本システムは演算処理装置及びデータベースを備える。データベースは、関心のある特徴点(例えばsella等)について予め定められた複数の周辺部位領域を表示する対照画像のデータと、対照画像を教師データとして学習させた深層学習モデルである分類CNNモデル13及び/又は16と、各周辺部位領域における特徴点の位置を予め学習させた深層学習モデルである回帰CNNモデル10等を記憶している。
以下に説明する周辺部位領域検出手段、特徴点位置推定手段及び最尤位置判定手段は、演算処理装置が所定のアルゴリズムに従い演算処理を実行することで実現される。
(周辺部位領域検出手段)
ここで、図8は、被検者から取得したセファロ画像14における特徴点sellaの位置を同定する際に参照される周辺部位領域31、32、33、34、・・・を例示する図である。上述のステップS11において(図6参照)、周辺部位領域検出手段は、特徴点sellaについて予め定められた複数の周辺部位領域の教師データ、つまり対照画像を学習させた分類CNNモデル13に基づく深層学習処理により、セファロ画像14における周辺部位領域31、32、33、34、・・・を検出し、それぞれに対応する周辺部位領域画像(いわゆる「パッチ」)21、22、23、・・・を切り出す。
ここでは、図9を参照しながら、一例として、教師画像である対照画像52に一致する周辺部位領域32を自動検出する処理を説明する。先ず、被検者のセファロ画像14から特徴点sellaを含む広候補領域画像15Dを選択し、そのデータをシステムの入力画像バッファメモリにロードする。広候補領域画像15Dの選択は自動で行ってもよいし、専門医等が実際にセファロ画像を見ながらカーソル操作などで範囲を選択してもよい。
上述したように分類CNNモデル13には、過去の多くの試料提供者(患者及び健常者を含む)から取得した周辺部位領域32の教師画像である対照画像52が予め学習されている。本自動認識システムは、その検出しようとする周辺部位領域32の対照画像52と縦横サイズが同一の走査フレーム32Sをワークメモリに作成する。そのような走査フレーム32Sの領域は、例えば当該フレームの始端座標変数(Sx,Sy)及び始端座標変数に周辺部位領域32のXY軸方向における画像サイズLx,Lyをオフセットとして加えた終端座標変数(Sx+Lx,Sy+Ly)を使って、〔(Sx,Sy):(Sx+Lx,Sy+Ly)〕と規定することができる。
そして、図9に示すように、広候補領域画像15D上で走査フレーム32Sを1ラインずつ走査し、走査フレーム32Sによって各走査位置で画される広候補領域画像15Dの一部(走査画像)に対し、順次、分類CNNモデル13を適用する。分類CNNモデル13によって、各走査画像と、周辺部位領域の対照画像52とが比較され、それらの一致度(類似の程度)が判定される。そして、周辺部位領域検出手段は、広候補領域画像15Dの全体に渡り対照画像52との一致度が最も高かった走査画像の領域を周辺部位領域32として検出する。
このような特定の画像サイズを手掛かりにして、対照画像に一致する周辺部位領域を探すアルゴリズムを採用したことにより、周辺部位領域を検出する速度及び精度を向上させることができる。
なお、走査フレーム32Sの走査においては、先ず数ピクセル単位で一次走査して広候補領域画像15Dの対象領域を大まかに絞り込んだ後に、その絞り込んだ対象領域に対し1ピクセル単位で走査して最終的な周辺部位領域32を検出することが好ましい。
経験を重ねた専門医は、軟組織上の特徴点を特定する際に、当該特徴点が存在する周辺部位のみならず、当該特徴点から少し離れた部位の骨格構造を参照する場合がある(例えば図8に示した周辺部位領域34)。本自動認識方法によれば、例えば特徴点sellaを含まない周辺部位領域34に基づいて、sellaの相対的な画素座標位置を推定することができる。
或いは、図10に示すように、広候補領域画像15Dから様々な大きさを持った複数の分割画像41、42、43、44を選択し、それぞれの画像に分類CNNモデル16を適用することにより、それらの分割画像がどの周辺部位領域に該当するか分類してもよい。その場合、特徴点を含まないと判定された例えば分割画像44を処理の対象から排除してもよい。
(特徴点位置推定手段)
次にステップS12(図6)においては、切り出した複数の周辺部位領域画像21、22、23、・・・における特徴点の候補位置をそれぞれ推定する。本実施例では、図11に示すように、各周辺部位領域画像21、22、23、・・・に上述の回帰CNN10を適用することで、それぞれの領域について黒丸で示される特徴点sellaの候補位置の相対画素座標値を得ることができる。これについて理解を助けるため、図12に、特徴点sellaについて推定された複数の候補位置を同時に表示した広候補領域画像15Dの例を示す。
(最尤位置判定手段)
最後にステップS13(図6)においては、各周辺部位領域画像21、22、23、・・・において推定された、特徴点sellaの複数の候補位置の分布に基づく最尤推定処理により、セファロ画像14(または広候補領域画像15D)における、当該特徴点sellaの位置を判定する。
例えば図13において黒丸で示される複数の候補位置のうち、それらの分布密度曲線のピークに最も近い位置を特徴点の位置と判定することができる。或いは、候補位置の分布密度曲線のピーク位置を特徴点の位置として判定してもよい。
また、例えば図14に示すように、特徴点の候補位置の分布密度のピークが少なくとも2つ以上存在する場合には、それらのピーク位置に基づいて推定される2つ以上の特徴点が、それぞれ当該特徴点についての別個の測定点であると判定してもよい。この場合において、2つの候補位置間の距離が所定の閾値以上であることを条件にして、別個の測定点であると判定してもよい。
なお、最尤位置判定手段は、各周辺部位領域画像21、22、23、・・・について、例えば特徴点sellaの位置を推定するために適用される、それぞれの回帰CNNモデル10を有している。各回帰CNNモデル10は、周辺部位領域画像から推定される特徴点の候補位置と、被検者のセファロ画像14において最尤推定処理により判定された当該特徴点の位置との誤差が最小となるように学習されることが好ましい。
なお、ステップS12におけるそれぞれの候補位置の推定精度は、基となる周辺部位領域画像に応じて差がある。そのため、ステップS13の最尤推定処理において、それぞれの候補位置の推定結果をその推定精度に応じて重み付けして評価するようにしてもよい。例えばサイズの大きい周辺部位領域画像23において推定される候補位置の結果に課す重み係数を、サイズの小さい周辺部位領域画像22において推定される候補位置の結果に課す重み係数よりも大きくすることができる。また、ステップS13における判定結果に対する誤差傾向を学習し、それぞれの推定精度に応じて重み係数を定めるようにしてもよい。
特徴点をいくつかのサブセットに分けて並列処理をすることにより自動認識してもよい。例えば、
サブセット1:{S、B、N、・・・}、
サブセット2:{Po、Or、Me、・・・}
を別々に学習させて並列処理をすることができる。ここで、S、B、N、Po、Or、Me、・・・は、それぞれ別個の解剖学的特徴点に該当する。
サブセット1に属するそれぞれの特徴点S、B、N、・・・は、上述した複数の周辺部位領域における分布に基づいて抽出することができる。もうひとつのサブセット2に属するPo、Or、Me、・・・についても同様である。
互いに曖昧な関係にある特徴点(位置が近い、又は似ているなど)を別々のサブセットに分けて並列処理をすることにより、全体の特徴点抽出速度と位置検出精度とを同時に高めることができる。
なお、特徴点をいくつかのサブセットに分けて並列処理をする本実施形態の方法において、上述したように特徴点毎に設定した複数の周辺部位領域の学習モデルに基づいて抽出処理を行ってもよいし、特徴点毎に設定した候補領域の学習モデルを使って抽出処理を行ってもよい。
10 回帰CNNモデル(特徴点の位置推定用)
11 入力画像
12 教師画像
13 分類CNNモデル(周辺部位領域検出用)
14 被検者のセファロ画像
15 広候補領域
15D 広候補領域画像
16 分類CNNモデル(周辺部位領域選別用)
21、22、23 周辺部位領域画像
31、32、33、34 周辺部位領域
32S 走査フレーム
41、42、43、44 分割画像
52 周辺部位領域の対照画像
101 入力層
102 隠れ層(ディープラーニング層)
103 出力層
1021、1022 ニューロン

Claims (10)

  1. セファロ画像における計測点を演算処理装置が自動認識する方法であって、
    被検者から取得したセファロ画像から、関心のある特徴点について予め定められた複数の異なる周辺部位領域を検出するステップと、
    前記各周辺部位領域における前記特徴点の位置を予め学習させた深層学習モデルを用いて、前記各周辺部位領域における当該特徴点の候補位置をそれぞれ推定するステップと、
    推定された複数の前記候補位置の分布に基づいて推定される、前記セファロ画像における前記特徴点の最尤推定位置を計測点の位置として判定するステップと
    を含む、計測点自動認識方法。
  2. 前記各周辺部位領域がそれぞれ異なる画像サイズを有しており、前記周辺部位領域を検出するステップでは、検出しようとする周辺部位領域と同一サイズの対照画像を用いて比較する、請求項1に記載の計測点自動認識方法。
  3. 前記特徴点の位置を判定するステップにおいては、
    前記候補位置のうち、それらの分布密度のピークに最も近い候補位置を前記特徴点の最尤推定位置として判定する、請求項1又は2に記載の計測点自動認識方法。
  4. 前記特徴点の位置を判定するステップにおいては、
    前記候補位置の分布密度のピークの位置を前記特徴点の最尤推定位置として判定する、請求項1又は2に記載の計測点自動認識方法。
  5. 前記特徴点の位置を判定するステップにおいては、
    前記候補位置の分布密度のピークが少なくとも2つ以上存在する場合であって、それぞれのピークから最尤推定される何れか2つの候補位置間の距離が所定の閾値以上あるときには、当該2つの候補位置が当該特徴点についての別個の測定点であると判定する処理を含む、請求項1に記載の計測点自動認識方法。
  6. セファロ画像における計測点を自動認識する演算処理装置及びデータベースを備えたシステムであって、
    前記データベースが、
    関心のある特徴点について予め定められた複数の異なる周辺部位領域を表示する対照画像の情報と、
    前記各周辺部位領域における前記特徴点の位置を予め学習させた深層学習モデルと
    を記憶し、
    前記演算処理装置が、
    被検者から取得したセファロ画像において前記各対照画像に一致する、複数の周辺部位領域を検出する周辺部位領域検出手段と、
    前記深層学習モデルを用いて、前記各周辺部位領域における当該特徴点の候補位置をそれぞれ推定する特徴点位置推定手段と、
    推定された複数の前記候補位置の分布に基づいて推定される、前記セファロ画像における前記特徴点の最尤推定位置を計測点の位置として判定する最尤位置判定手段と
    を備える、計測点自動認識システム。
  7. 前記各周辺部位領域がそれぞれ異なる画像サイズを有しており、前記周辺部位領域検出手段は、検出しようとする周辺部位領域と同一サイズの前記対照画像を用いて比較する、請求項6に記載の計測点自動認識システム。
  8. 前記最尤位置判定手段は、前記候補位置のうち、それらの分布密度のピークに最も近い候補位置を前記特徴点の最尤推定位置として判定する、請求項6又は7に記載の計測点自動認識システム。
  9. 前記最尤位置判定手段は、前記候補位置の分布密度のピークの位置を前記特徴点の最尤推定位置として判定する、請求項6又は7に記載の計測点自動認識システム。
  10. 前記最尤位置判定手段は、前記候補位置の分布密度のピークが少なくとも2つ以上存在する場合であって、それぞれのピークから最尤推定される何れか2つの候補位置間の距離が所定の閾値以上あるときには、当該2つの候補位置が当該特徴点についての別個の測定点であると判定する、請求項6に記載の計測点自動認識システム。
JP2020549210A 2018-09-27 2019-09-24 セファロ画像における計測点の自動認識方法 Active JP7083191B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018181619 2018-09-27
JP2018181619 2018-09-27
PCT/JP2019/037260 WO2020067005A1 (ja) 2018-09-27 2019-09-24 セファロ画像における計測点の自動認識方法

Publications (2)

Publication Number Publication Date
JPWO2020067005A1 JPWO2020067005A1 (ja) 2021-09-02
JP7083191B2 true JP7083191B2 (ja) 2022-06-10

Family

ID=69950094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020549210A Active JP7083191B2 (ja) 2018-09-27 2019-09-24 セファロ画像における計測点の自動認識方法

Country Status (5)

Country Link
US (1) US11980491B2 (ja)
EP (1) EP3858245B1 (ja)
JP (1) JP7083191B2 (ja)
CN (1) CN112770676A (ja)
WO (1) WO2020067005A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076509B2 (ja) * 2020-08-24 2022-05-27 卓也 生駒 システム及びプログラム
US11875505B2 (en) * 2021-01-29 2024-01-16 GE Precision Healthcare LLC Systems and methods for adaptive measurement of medical images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100254582A1 (en) 2009-04-03 2010-10-07 Siemens Corporation System and Method for Detecting Landmarks in a Three-Dimensional Image Volume
US20180061054A1 (en) 2016-08-29 2018-03-01 CephX Technologies Ltd. Automated Cephalometric Analysis Using Machine Learning

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3967650B2 (ja) 2002-09-20 2007-08-29 朝日レントゲン工業株式会社 頭部x線規格画像の計測処理方法および計測処理装置ならびに計測処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005013363A (ja) 2003-06-24 2005-01-20 Masakazu Yagi 画像解析装置
US8363919B2 (en) 2009-11-25 2013-01-29 Imaging Sciences International Llc Marker identification and processing in x-ray images
US9826942B2 (en) 2009-11-25 2017-11-28 Dental Imaging Technologies Corporation Correcting and reconstructing x-ray images using patient motion vectors extracted from marker positions in x-ray images
US9336302B1 (en) * 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
GB201215944D0 (en) * 2012-09-06 2012-10-24 Univ Manchester Image processing apparatus and method for fittng a deformable shape model to an image using random forests
US9990712B2 (en) * 2015-04-08 2018-06-05 Algotec Systems Ltd. Organ detection and segmentation
JP6548097B2 (ja) 2015-10-23 2019-07-31 国立大学法人大阪大学 人体における治療後の形態予測方法及びシステム
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
CN110019990B (zh) * 2017-07-14 2023-05-23 阿里巴巴集团控股有限公司 样本筛选的方法和装置、业务对象数据搜索的方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100254582A1 (en) 2009-04-03 2010-10-07 Siemens Corporation System and Method for Detecting Landmarks in a Three-Dimensional Image Volume
US20180061054A1 (en) 2016-08-29 2018-03-01 CephX Technologies Ltd. Automated Cephalometric Analysis Using Machine Learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lee Hansang et al.,Cephalometric Landmark Detection in Dental X-ray Images Using Convolutional Neural Networks,PROCEEDINGS OF SPIE,2017年03月03日,Vol.10134,pp. 101341W-1-101341W-6
Wang Ching-Wei et al.,Evaluation and Comparison of Anatomical Landmark Detection Methods for Cephalometric X-Ray Images: A Grand Challenge,IEEE TRANSACTIONS ON MEDICAL IMAGING,2015年09月,Vol.34, No.9,pp.1890-1900

Also Published As

Publication number Publication date
EP3858245A1 (en) 2021-08-04
CN112770676A (zh) 2021-05-07
EP3858245A4 (en) 2021-12-15
US11980491B2 (en) 2024-05-14
EP3858245B1 (en) 2022-11-02
US20220005222A1 (en) 2022-01-06
JPWO2020067005A1 (ja) 2021-09-02
WO2020067005A1 (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
AU2017292642B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
US10049457B2 (en) Automated cephalometric analysis using machine learning
US11954598B2 (en) Matching network for medical image analysis
US10318839B2 (en) Method for automatic detection of anatomical landmarks in volumetric data
CN109124662B (zh) 肋骨中心线检测装置及方法
US20080253631A1 (en) Apparatus and program for assisting report generation
CN109859184B (zh) 一种连续扫描乳腺超声图像的实时检测与决策融合方法
CN113506294B (zh) 一种医疗图像评估方法、***、计算机设备及存储介质
CN110246580B (zh) 基于神经网络和随机森林的颅侧面影像分析方法和***
EP3657433A1 (en) Medical image data
KR102043672B1 (ko) 딥러닝 기반의 병변 판독 시스템 및 방법
JP7083191B2 (ja) セファロ画像における計測点の自動認識方法
CN111599432A (zh) 一种三维颅面影像特征点标记分析***及方法
Lee et al. Deep learning based cephalometric landmark identification using landmark-dependent multi-scale patches
WO2020114346A1 (zh) 中医舌诊舌尖红检测装置、方法及计算机存储介质
CN115210755A (zh) 解决训练数据中遗漏注释的类别不同损失函数
CN115880358A (zh) 定位模型的构建方法、影像标志点的定位方法及电子设备
US11850090B2 (en) Guided lung coverage and automated detection using ultrasound devices
KR102095731B1 (ko) 딥러닝 기반의 보조 진단 시스템의 mra 영상 학습 방법 및 혈관 병변 보조 진단 방법
CN111862091A (zh) 一种基于表型测量早期发现综合征的***
CN113781453B (zh) 一种基于x线片的脊柱侧凸进展预测及方法和装置
Wan et al. Lung nodules detection in CT scans
Zhang et al. Image Detection of Rare Orthopedic Diseases based on Explainable AI
Gunasekara et al. A feasibility study for deep learning based automated brain tumor segmentation using magnetic resonance images
Grigorieva et al. The Construction of an Individualized Spinal 3D Model Based on the X-ray Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7083191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150