JP7366870B2 - 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム - Google Patents

学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP7366870B2
JP7366870B2 JP2020154639A JP2020154639A JP7366870B2 JP 7366870 B2 JP7366870 B2 JP 7366870B2 JP 2020154639 A JP2020154639 A JP 2020154639A JP 2020154639 A JP2020154639 A JP 2020154639A JP 7366870 B2 JP7366870 B2 JP 7366870B2
Authority
JP
Japan
Prior art keywords
surgical tool
image
radiation
radiographic
suture needle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154639A
Other languages
English (en)
Other versions
JP2022048677A (ja
Inventor
紳 浜渦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020154639A priority Critical patent/JP7366870B2/ja
Priority to US17/469,472 priority patent/US12026927B2/en
Publication of JP2022048677A publication Critical patent/JP2022048677A/ja
Application granted granted Critical
Publication of JP7366870B2 publication Critical patent/JP7366870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラムに関するものである。
患者の外科的手術を行う際には、出血を抑えるためのガーゼ、傷口または切開部分を縫うための糸と縫合針、切開のためのメスおよび鋏、血液を排出するためのドレイン、並びに切開部分を開くための鉗子等の様々な手術用具が使用される。このような手術用具は、手術後に患者の体内に残存していると、重篤な合併症を発生する恐れがある。
このため、ガーゼ画像の特徴を学習した学習済みモデルとしての判別器を用意し、手術野をカメラにより撮影することにより取得した画像を判別器に入力して、ガーゼの有無を判別する手法が提案されている(特許文献1参照)。
特開2018-068863号公報
しかしながら、ガーゼは血に染まるため、カメラにより取得した画像ではガーゼを発見することは判別器を用いたとしても困難である。また、縫合針のように小さな手術用具は、内臓の間に入り込んでしまう可能性があるため、カメラにより取得した画像では、判別器を用いたとしても発見することは困難である。一方、放射線画像から手術用具を検出するように学習がなされた判別器を用いて、手術後に撮影された放射線画像から手術用具を検出することが考えられる。しかしながら、縫合針のような手術用具は、その姿勢によっては放射線画像において、体内の骨等の構造物あるいは体内に埋め込まれたステントグラフト等と区別できない陰影となる。このため、判別器を用いたとしても、手術用具を精度よく検出できない可能性がある。
本開示は上記事情に鑑みなされたものであり、手術後における手術用具の患者体内の残存を確実に防止できるようにすることを目的とする。
本開示による放射線画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、手術用具として縫合針を含まない放射線画像および直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、入力された放射線画像から縫合針の領域を検出するための学習済みモデルを構築する。
直線状の姿勢とは、縫合針を平面に投影したときに、投影した平面における縫合針の形状が直線状となる姿勢を意味する。
なお、本開示による学習装置においては、手術用具画像は、直線状の姿勢とは異なる姿勢の縫合針を放射線撮影することにより取得されてなるものであってもよい。
また、本開示による学習装置においては、手術用具画像は、放射線撮影以外の手法により取得されてなるものであってもよい。
また、本開示による学習装置においては、プロセッサは、手術用具を含まない放射線画像および手術用具画像を合成することにより合成画像を導出し、
合成画像を教師データとして用いた機械学習を行うものであってもよい。
また、本開示による学習装置においては、プロセッサは、放射線画像および手術用具の少なくとも一方の特性に応じた合成パラメータによって放射線画像および手術用具画像を合成することにより、合成画像を導出するものであってもよい。
また、本開示による学習装置においては、プロセッサは、手術用具の放射線吸収率、放射線画像における放射線散乱の程度、放射線画像におけるビームハードニング、および放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて合成パラメータを設定するものであってもよい。
本開示による学習済みモデルは、本開示による学習装置により構築されてなる。
本開示による画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、被写体を異なる方向から撮影した複数の放射線画像を取得し、
本開示による学習装置により構築された学習済みモデルを用いて複数の放射線画像から手術用具としての縫合針の領域を順次検出し、
少なくとも1つの放射線画像から手術用具の領域が検出された場合、被写体に手術用具が含まれると判定し、
すべての放射線画像から手術用具の領域が検出されなかった場合、被写体に手術用具が含まれないと判定する。
また、本開示による学習方法は、手術用具として縫合針を含まない放射線画像および直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、入力された放射線画像から縫合針の領域を検出するための学習済みモデルを構築する。
本開示による放射線画像処理方法は、被写体を異なる方向から撮影した複数の放射線画像を取得し、
本開示による学習装置により構築された学習済みモデルを用いて複数の放射線画像から手術用具としての縫合針の領域を順次検出し、
少なくとも1つの放射線画像から手術用具の領域が検出された場合、被写体に手術用具が含まれると判定し、
すべての放射線画像から手術用具の領域が検出されなかった場合、被写体に手術用具が含まれないと判定する。
なお、本開示による学習方法および放射線画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
本開示の実施形態による放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図 本実施形態による放射線画像処理装置の概略構成を示す図 本実施形態による放射線画像処理装置の機能的な構成を示す図 合成画像を生成するための放射線画像を示す図 縫合針を示す図 図5に示す矢印A方向から見た縫合針を示す図 図5に示す矢印B方向から見た縫合針を示す図 手術用具画像を示す図 縫合針の姿勢を説明するための図 合成画像を示す図 複数の対象放射線画像の撮影を説明するための図 手術用具が検出された場合における放射線画像の表示画面を示す図 手術用具の領域が検出されなかった場合の通知画面を示す図 本実施形態において行われる合成画像の生成処理を示すフローチャート 本実施形態において行われる学習処理を示すフローチャート 本実施形態において行われる検出処理を示すフローチャート
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による学習装置および放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による放射線画像撮影システム100は、外科的手術を行った後の、患者である被写体Hの放射線画像を取得して、放射線画像に含まれる手術用具を検出するためのものである。本実施形態による放射線画像撮影システム100は、撮影装置1、コンソール2、画像保存システム6および放射線画像処理装置7を備える。
撮影装置1は、X線源等の放射線源4から発せられ、被写体Hを透過した放射線を放射線検出器5に照射することにより、手術台3に仰臥した被写体Hの放射線画像を取得するための撮影装置である。放射線画像はコンソール2に入力される。
また、放射線検出器5は、可搬型の放射線検出器であり、手術台3に設けられた取付部3Aにより手術台3に取り付けられている。なお、放射線検出器5は、手術台3に固定されたものであってもよい。
コンソール2は、無線通信LAN(Local Area Network)等のネットワークを介して、不図示のRIS(Radiology Information System)等から取得した撮影オーダおよび各種情報と、技師等により直接行われた指示等とを用いて、撮影装置1の制御を行う機能を有している。一例として、本実施形態では、サーバコンピュータをコンソール2として用いている。
画像保存システム6は、撮影装置1により撮影された放射線画像の画像データを保存するシステムである。画像保存システム6は、保存している放射線画像から、コンソール2および放射線画像処理装置7等からの要求に応じた画像を取り出して、要求元の装置に送信する。画像保存システム6の具体例としては、PACS(Picture Archiving and Communication Systems)が挙げられる。
次に、本実施形態に係る放射線画像処理装置について説明する。なお、本実施形態による放射線画像処理装置7は、本実施形態による学習装置を内包するものであるが、以降の説明においては、放射線画像処理装置にて代表させるものとする。
まず、図2を参照して、本実施形態による放射線画像処理装置のハードウェア構成を説明する。図2に示すように、放射線画像処理装置7は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、放射線画像処理装置7は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びにネットワークに接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、放射線画像処理装置7にインストールされた学習プログラム21および放射線画像処理プログラム22が記憶される。CPU11は、ストレージ13から学習プログラム21および放射線画像処理プログラム22を読み出してからメモリ16に展開し、展開した学習プログラム21および放射線画像処理プログラム22を実行する。
なお、学習プログラム21および放射線画像処理プログラム22は、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて放射線画像処理装置7を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から放射線画像処理装置7を構成するコンピュータにインストールされる。
次いで、本実施形態による放射線画像処理装置の機能的な構成を説明する。図3は、本実施形態による放射線画像処理装置の機能的な構成を示す図である。図3に示すように,放射線画像処理装置(学習装置)7は、画像取得部31、合成部32、学習部33、検出部34および表示制御部35を備える。そして、CPU11が、学習プログラム21および放射線画像処理プログラム22を実行することにより、画像取得部31、合成部32、学習部33、検出部34および表示制御部35として機能する。
なお、画像取得部31、合成部32および学習部33が、本実施形態による学習装置の一例である。画像取得部31、検出部34および表示制御部35が、本実施形態による放射線画像処理装置7の一例である。
画像取得部31は、後述する学習モデルM0を学習するための教師データとして用いるための放射線画像G0を、画像保存システム6からネットワークI/F17を介して取得する。図4は放射線画像G0を示す図である。なお、図4は人体の胸部を対象部位とした放射線画像G0を示すが、放射線画像G0に含まれる対象部位はこれに限定されるものではない。図4に示すように、放射線画像G0は手術用具を含まない。
また、画像取得部31は、放射線源4を駆動して手術後の被写体Hに放射線を照射し、被写体Hを透過した放射線を放射線検出器5により検出することにより、手術用具の検出処理の対象となる対象放射線画像も取得する。なお、本実施形態においては、撮影方向が異なる複数の対象放射線画像を取得する。具体的には、放射線源4の位置を変更したり、被写体Hの向きを変更したりして、被写体Hを異なる方向から撮影することにより、撮影方向が異なる複数の対象放射線画像を取得する。
また、画像取得部31は、学習モデルM0を学習するための教師データとして用いる手術用具画像E0も画像保存システム6から取得する。手術用具画像E0は、手術用具を放射線撮影することにより取得された画像であってもよく、放射線撮影以外の手法により取得された画像であってもよい。放射線撮影以外の手法により取得された画像は、コンピュータグラフィックス等により作成された手術用具を表す3次元的なモデルを2次元に投影した画像である。なお、本実施形態においては、手術用具として、傷口または切開部分を縫うための縫合針を用いるものとする。
図5は縫合針を示す図である。図5に示すように、縫合針40は湾曲しており、後端部分に縫合糸を通すための孔41が形成されている。また、最大幅は数mm~数cm程度である。ここで、図5に示す矢印A方向から見た縫合針を図6に示し、矢印B方向から見た縫合針を図7に示す。矢印A方向は、縫合針40を平面に載置した場合にその平面と直交する方向である。矢印B方向は、縫合針40を平面に載置した場合にその平面が延在する方向である。
矢印A方向から縫合針40を見た場合、図6に示すように、その形状は一見して縫合針40であることを認識することができる。
一方、矢印B方向から縫合針40を見た場合、その形状は図7に示すように直線状となるため、縫合針であることを一見して認識することは難しい。とくに、縫合針40が被写体Hの体内に残存する場合において、縫合針40に対する放射線の照射方向が図5に示す矢印B方向と一致すると、放射線画像において、縫合針40は数mm~数cm程度直線状の高輝度の陰影となる。このような縫合針40の陰影は、被写体Hの骨あるいは体内に埋め込まれたステントグラフト等の人工物と見分けがつかない。このため、手術用具画像E0に含まれる縫合針が図7に示すように直線状であると、その手術用具画像E0を用いることによっては、縫合針40を精度よく検出可能なように学習モデルM0を学習することができない。
このため、本実施形態においては、直線状の姿勢とは異なる姿勢の縫合針40を含む手術用具画像E0を用いる。図8は手術用具画像を示す図である。図8には3つの手術用具画像を示す。図8に示すように、3つの手術用具画像E1~E3に含まれる縫合針40の姿勢は、直線状の姿勢とは異なるものとなっている。
なお、直線状の姿勢とは、許容される誤差を持った実質的に直線状の姿勢であればよい。例えば、図9に示すように縫合針40に対してxyzの座標系を定める。図9において、xy平面は縫合針40の両端を縫合針40の湾曲形状に沿って結ぶ軸を含む平面である。図9において、矢印C方向を視線方向とすると、縫合針40は直線状に見える。一方、矢印D方向を視線方向とすると、縫合針40は平面に置いたように見える。このような座標系を定めた際に、視線方向を矢印C方向からy軸の周りにある程度の角度α0回転させた視線方向(例えば矢印E方向)から見える縫合針の姿勢も直線状の姿勢に含めてもよい。この場合、角度α0は例えば±5度とすることができるが、これに限定されるものではない。したがって、手術用具画像E0に含まれる縫合針40の姿勢は、縫合針40を図9に示す矢印C方向から角度α0以上異なる角度から見たものとなる。なお、図9に示す角度α0は例示であり、実際の角度とは異なる。
なお、手術用具画像E0が放射線画像である場合には、放射線の照射方向が図9に示す矢印C方向と一致しない姿勢となるように縫合針40を配置して、縫合針40を放射線撮影すればよい。また、手術用具画像E0がコンピュータグラフィックス等により作成されるものであれば、直線状の姿勢とならないように、手術用具画像E0に縫合針を含めればよい。なお、手術用具画像E0は手術用具の写真画像であってもよい。写真画像の場合は、カメラの光軸方向が図9に示す矢印C方向と一致しない姿勢となるように縫合針を配置して、縫合針40を写真撮影すればよい。
合成部32は、放射線画像G0に手術用具画像E0を合成することにより、合成画像C0を生成する。合成部32は、放射線画像G0および手術用具である縫合針の少なくとも一方の特性に応じた合成パラメータによって放射線画像G0および手術用具画像E0を合成して合成画像C0を生成する。合成部32は、手術用具である縫合針の放射線吸収率、手術用具による放射線散乱の程度、放射線画像G0におけるビームハードニング、および放射線画像G0の撮影条件に応じたノイズの少なくとも1つにより、合成パラメータを設定する。
なお、放射線画像G0における手術用具画像E0の位置および手術用具画像E0の向きは、放射線画像G0をディスプレイ14に表示し、操作者による入力デバイス15からの指示により指定すればよい。
本実施形態においては、例えば、合成部32は、下記の式(1)により合成画像C0を生成するものとする。すなわち、合成部32は、放射線画像G0における手術用具画像E0を合成する領域の画素(x,y)において、放射線画像G0の画素値G0(x,y)から、重み係数w1により重み付けた手術用具画像E0の画素値E0(x,y)を減算することにより、合成画像C0の画素値C0(x,y)を導出する。なお、重み係数w1は0以上1以下の値をとる。重み係数w1は本実施形態の合成パラメータに含まれる。図10は合成画像を示す図である。図10に示すように、合成画像C0においては、被写体の右肺に縫合針の陰影45が含まれたものとなる。
C0(x,y)=G0(x,y)-w1・E0(x,y) (1)
ここで、手術用具の放射線吸収率が高ければ、手術用具を放射線撮影することにより取得される放射線画像においては、手術用具のコントラストが高くなる。例えば、手術用具が縫合針、鋏およびメスのような金属の場合、手術用具の放射線画像はコントラストが高くなる。このため、合成部32は、合成画像C0においては手術用具のコントラストが高くなりすぎないように、放射線画像G0と手術用具画像E0との重み付け減算を行う際に、手術用具画像E0の重み係数w1を大きくする。
また、放射線の散乱により、放射線画像G0におけるコントラストが低下する。放射線の散乱は、被写体Hの体厚が大きいほどその影響が大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像E0との濃度差が小さくなるように、重み係数w1を小さくして合成画像C0を生成する。
ここで、放射線源4に印加される管電圧が高く、放射線が高エネルギーであるほど、放射線が被写体Hを透過する過程において、放射線の低エネルギー成分が被写体Hに吸収され、放射線が高エネルギー化するビームハードニングが生じる。ビームハードニングが生じると、放射線画像におけるコントラストが低下する。また、ビームハードニングによる放射線の高エネルギー化は、被写体Hの体厚が大きいほど大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像E0との濃度差が小さくなるように、重み係数w1を小さくして合成画像C0を生成する。
また、撮影条件における放射線量が小さいと、放射線画像G0に含まれるノイズが多くなる。このため、合成部32は、放射線量が小さい場合、下記の式(2)に示すように、式(1)に対して放射線量に応じたノイズN(x,y)を加算することにより合成画像C0を生成する。この場合、重み係数w1は予め定められた値としてもよく、上記の手術用号の放射線吸収率、放射線散乱の程度およびビームハードニングの少なくとも1つに応じて設定してもよい。なお、ノイズN(x,y)は放射線量に応じて予め導出して、ストレージ13に記憶しておけばよい。なお、ノイズN(x,y)も合成パラメータに含まれる。
C0(x,y)=G0(x,y)-w1・E0(x,y)+N(x,y) (2)
本実施形態においては、合成部32は、放射線画像G0における手術用具画像E0の合成位置を変更したり、合成パラメータを変更したりして、複数の合成画像C0を生成してもよい。これにより、手術用具画像E0が放射線撮影されたような態様にて放射線画像G0に合成された合成画像C0が生成されることとなる。なお、被写体Hが異なる複数の放射線画像G0を用いて合成画像C0を生成してもよい。
なお、手術用具画像E0が手術用具を放射線撮影することにより取得されたものである場合も、合成パラメータを適宜設定しつつ、手術用具画像E0を放射線画像G0に合成することにより、合成画像C0を生成すればよい。
合成画像C0は複数生成されて、画像保存システム6に保存される。あるいは、放射線画像処理装置7のストレージ13に保存される。なお、ストレージ13には、合成画像C0に加えて、複数の放射線画像G0も保存される。
学習部33は、手術用具を含まない放射線画像G0からなる教師データ、並びに合成画像C0および合成画像C0における手術用具の領域が特定された正解データを含む教師データを用いて、学習モデルM0を学習する。なお、学習部33は複数の教師データを用いて学習モデルM0を学習する。正解データは、合成画像C0内において縫合針を囲む領域の左上隅の座標および右下隅の座標、または左下隅の座標および右上隅の座標である。なお、正解データの生成は、合成画像C0を見ながらのマニュアル操作により行えばよい。
学習モデルM0としては、機械学習モデルを用いることができる。機械学習モデルの一例として、ニューラルネットワークモデルが挙げられる。ニューラルネットワークモデルとしては、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、および確率的ニューラルネットワーク等が挙げられる。本実施形態においては、学習モデルM0として畳み込みニューラルネットワークを用いるものとする。
学習モデルM0は、画像が入力されると、画像の各画素が手術用具の領域であることの確率を出力するように学習がなされる。確率は0以上1以下の値となる。学習モデルM0が出力した、確率が予め定められたしきい値以上となる画素からなる領域が手術用具の領域となる。学習部33は、教師データを学習モデルM0に入力し、手術用具の領域となる確率を出力させる。そして、学習モデルM0が出力した予め定められたしきい値以上となる確率となる画素からなる領域と、教師データに含まれる正解データにより表される領域との相違を損失として導出する。
ここで、学習モデルM0に放射線画像G0が教師データとして入力された場合、放射線画像G0には手術用具は含まれない。このため、手術用具の領域となる確率は0となるべきである。しかしながら、学習が完了していない学習モデルM0からは、手術用具の領域となる確率が0より大きい値を持って出力される。このため、放射線画像G0が教師データとして入力された場合、各画素について出力される確率と0との差が損失となる。
一方、学習モデルM0に合成画像C0が教師データとして入力された場合、合成画像C0には手術用具が含まれる。このため、合成画像C0において正解データにより規定される領域内の画素についての手術用具の領域となる確率は1となるべきである。しかしながら、学習が完了していない学習モデルM0からは、手術用具の領域となる確率が1より小さい値を持って出力される。このため、手術用具画像E0が教師データとして入力された場合、各画素について出力される確率と1との差が損失となる。
学習部33は、損失に基づいて学習モデルM0を学習する。具体的には、損失を小さくするように、畳み込みニューラルネットワークにおけるカーネルの係数およびニューラルネットワークの結合の重み等を導出する。学習部33は、損失が予め定められたしきい値以下となるまで学習を繰り返す。これによって、放射線画像G0が入力された場合は画像全体に亘って手術用具の領域であることの確率が0に近づくように、学習済みモデルM1が構築される。また、合成画像C0が入力された場合は、正解データにより規定される領域において手術用具の領域であることの確率が1に近づくように、学習済みモデルM1が構築される。構築された学習済みモデルM1は、メモリ16に記憶される。
このようにして構築された学習済みモデルM1に、手術用具を含む放射線画像が入力されると、学習済みモデルM1は、放射線画像内の手術用具の領域内の画素については1に近い確率を出力し、それ以外の領域の画素については0に近い確率を出力するようになる。
検出部34は、学習済みモデルM1を用いて、手術後の被写体Hを異なる方向から撮影した複数の対象放射線画像Ti(i=1~n、nは対象放射線画像の数)から手術用具の領域を検出する。図11は複数の対象放射線画像の撮影を説明するための図である。図11に示すように、本実施形態においては、例えば第1の位置P1および第2の位置P2の2つの位置に放射線源4を移動して2つの対象放射線画像を取得するものとする。第1の位置P1において放射線源4から出射される放射線の光軸X1は放射線検出器5と直交する。第2の位置P1において放射線源4から出射される放射線の光軸X2は、光軸X1に対して角度α1をなす。ここで、本実施形態においては、学習済みモデルM1を学習するための教師データに使用する手術用具画像E0には、縫合針40を図9に示す矢印C方向から角度α0以上異なる角度から見たものとなっている。このため、複数の対象放射線画像Tiを取得する際には、光軸X1と光軸X2とがなす角度α1は図9に示す角度α0以上とすることが好ましい。
本実施形態においては、学習済みモデルM1は、縫合針が直線状の姿勢で含まれる合成画像C0を用いて学習がなされている。縫合針が被写体H内に含まれる場合、被写体Hへの放射線の入射方向に対する縫合針の姿勢によっては、対象放射線画像Tiに含まれる縫合針が直線状となる場合がある。しかしながら、撮影方向が複数であれば、1つの対象放射線画像において縫合針が直線状となっても、他の対象放射線画像においては縫合針は直線状とはならない。
このため、検出部34は、複数の対象放射線画像Tiを順次選択し、選択した対象放射線画像の各画素について、学習済みモデルM1から出力された確率が予め定められたしきい値Th1以上となる画素からなる領域を手術用具の領域として検出する。なお、選択した対象放射線画像Tiのすべての画素について、学習済みモデルM1から出力された確率がしきい値Th1未満である場合には、検出部34は、選択した対象放射線画像Tiには手術用具が含まれない旨の検出結果を出力する。さらに、すべての対象放射線画像Tiについて手術用具が含まれない旨の検出結果が得られた場合には、検出部34は、被写体Hには手術用具が残存していない旨の検出結果を出力する。
表示制御部35は、対象放射線画像Tiのいずれかから手術用具の領域が検出された場合、手術用具の領域が検出された対象放射線画像(例えばT1とする)を、手術用具の領域を強調してディスプレイ14に表示する。図12は放射線画像の表示画面を示す図である。図12に示すように、表示画面50には対象放射線画像Tiが表示されており、対象放射線画像Tiに含まれる手術用具である縫合針の領域51を矩形領域52で囲むことにより、手術用具の領域51が強調されている。なお、図12においては矩形領域52を白抜きにて示しているが、色を付与してもよい。なお、矩形領域52の付与に代えて、手術用具の領域付近に矢印および星印等のマークを付与することにより、手術用具の領域を強調してもよい。また、手術用具の領域をマスクすることにより、手術用具の領域51を強調してもよい。なお、マスクには色を付与するようにしてもよい。
なお、手術用具の領域を強調した対象放射線画像T1を表示する際には、対象放射線画像T1を観察しやすくするために、階調変換処理および濃度変換処理等の表示用の画像処理を対象放射線画像T1に対して施すようにしてもよい。表示用の画像処理は、表示制御部35が行ってもよく、表示用の画像処理を行うための画像処理部を別途設けるようにしてもよい。
なお、検出部34がすべての対象放射線画像Tiから手術用具の領域を検出しなかった場合、表示制御部35は、その旨の表示を行う。図13は、手術用具が検出されなかった場合の対象放射線画像の表示画面を示す図である。図13に示すように、表示画面60には、複数の対象放射線画像Tiのうちのいずれかの対象放射線画像(例えばT2とする)に重畳して、「手術用具は検出されませんでした。」の通知61が表示される。なお、通知61に代えて、手術用具が検出されなかったことを表すアイコンおよびマーク等を表示してもよい。また、入力デバイス15からの指示により、通知61の表示のオンおよびオフを切り替え可能としてもよい。
次いで、本実施形態において行われる処理について説明する。図14は本実施形態において行われる学習に使用される合成画像を生成する処理のフローチャートである。まず、画像取得部31が、放射線画像G0および手術用具画像E0を取得する(ステップST1)。次いで、合成部32が放射線画像G0と手術用具画像E0との合成パラメータを設定し(ステップST2)、合成パラメータに応じて放射線画像G0と手術用具画像E0とを合成して合成画像C0を生成し(ステップST3)、処理を終了する。
次いで、本実施形態における学習処理について説明する。図15は本実施形態において行われる学習処理のフローチャートである。学習部33が、合成画像C0および正解データからなる教師データ、並びに手術用具を含まない放射線画像G0からなる教師データを取得し(ステップST11)、学習モデルM0に教師データを入力して手術用具の領域の抽出結果を取得し、正解データとの相違に基づく損失を用いて学習モデルM0を学習し(ステップST12)、ステップST11にリターンする。そして、学習部33は、損失が予め定められたしきい値となるまで、ステップST11,ST12の処理を繰り返し、学習を終了する。なお、学習部33は、予め定められた回数学習を繰り返すことにより、学習を終了するものであってもよい。これにより、学習部33は、学習済みモデルM1を構築する。
次いで、本実施形態における手術用具の領域の検出処理について説明する。図16は本実施形態において行われる検出処理のフローチャートである。画像取得部31が、検出対象となる撮影方向が異なる複数の対象放射線画像Tiを取得する(ステップST21)。検出部34は、検出対象の対象放射線画像Tiを最初の放射線画像に設定し(i=1;ステップST22)、学習済みモデルM1を用いて対象放射線画像Tiから手術用具の領域を検出する(ステップST23)。対象放射線画像から手術用具の領域が検出されない場合(ステップST24:NO)、検出部34は、すべての対象放射線画像Tiについて検出処理を終了したか否かを判定する(ステップST25)。ステップST25が否定されると、検出部34は、検出対象を次の対象放射線画像に変更し(i=i+1;ステップST26)、ステップST23に戻る。
対象放射線画像から手術用具の領域が検出されると(ステップST24:YES)、表示制御部35が、手術用具の領域を強調した対象放射線画像をディスプレイ14に表示し(ステップST27)、処理を終了する。一方、ステップST25が肯定されると、表示制御部35は、手術用具の領域が検出されなかった旨の通知を行い(ステップST28)、処理を終了する。
ここで、縫合針のような手術用具は、その姿勢によっては放射線画像において直線状の陰影となるため、被写体内の骨等の構造物あるいは体内に埋め込まれたステントグラフト等と区別できない。このため、縫合針を検出するように学習を行った学習済みモデルM1を用いたとしても、手術用具を精度よく検出できない可能性がある。
本実施形態においては、手術用具を含まない放射線画像、および放射線画像に含まれた場合に直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、対象放射線画像から手術用具としての縫合針の領域を検出する学習済みモデルM1を構築するようにした。さらに、本実施形態においては、撮影方向が異なる複数の対象放射線画像Tiを取得し、学習済みモデルM1を用いて複数の対象放射線画像Tiから手術用具の領域を検出するようにした。
ここで、縫合針が被写体H内に含まれる場合、放射線の照射方向に対する縫合針の姿勢によっては、対象放射線画像Tiに含まれる縫合針が直線状となる場合がある。しかしながら、撮影方向が複数であれば、1つの対象放射線画像において縫合針が直線状となっても、他の対象放射線画像においては縫合針は直線状とはならない。
このため、本実施形態によれば、手術用具である縫合針がどのような姿勢で被写体内に含まれていても、対象放射線画像から手術用具の領域を検出することができる。したがって、手術後における手術用具の患者体内の残存を確実に防止できる。
また、学習済みモデルM1の学習に必要な、手術用具が残存した放射線画像は極めて稀であるため、学習済みモデルM1の学習のために大量に収集することは困難であった。本実施形態においては、放射線画像G0および手術用具画像E0を教師データとして用いることにより、学習済みモデルM1を学習している。このため、十分な数の教師データを用意することができ、その結果、手術用具の検出精度が高い学習済みモデルM1を構築することができる。
また、合成パラメータによって放射線画像G0および手術用具画像E0を合成することにより合成画像C0を生成しているため、手術用具画像E0を、被写体と一緒に放射線撮影したかのような態様で放射線画像G0と合成された合成画像C0を生成することができる。
なお、上記実施形態においては、放射線画像G0および手術用具画像E0を合成した合成画像C0を教師データとして用いることにより学習済みモデルM1を構築しているが、これに限定されるものではない。放射線画像G0および手術用具画像E0をそれぞれ単独で教師データとして用いることにより、学習済みモデルM1を構築してもよい。この場合において、手術用具画像E0を教師データとして用いる場合、手術用具画像E0における手術用具の領域を囲む座標が正解データとして使用される。また、この場合、手術用具画像E0が入力された場合は、正解データにより規定される領域において手術用具の領域であることの確率が1に近づくように、学習済みモデルM1が構築される。このように、放射線画像G0および手術用具画像E0をそれぞれ単独で教師データとして用いることによっても、合成画像C0を用いた場合と同様に、手術用具を含む放射線画像が入力されると、放射線画像内の手術用具の領域内の画素については1に近い確率を出力し、それ以外の領域の画素については0に近い確率を出力するように、学習済みモデルM1を構築することができる。
また、上記実施形態においては、放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を適用することができる。
また、上記実施形態において、例えば、画像取得部31、合成部32、学習部33、検出部34および表示制御部35といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 撮影装置
2 コンソール
3 手術台
3A 取付部
4 放射線源
5 放射線検出器
6 画像保存システム
7 放射線画像処理装置
11 CPU
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
21 学習プログラム
22 放射線画像処理プログラム
31 画像取得部
32 合成部
33 学習部
34 検出部
35 表示制御部
40 縫合針
41 孔
45 縫合針の陰影
50 表示画面
51 手術用具の領域
52 矩形領域
60 表示画面
61 通知
100 放射線画像撮影システム
C0 合成画像
E0、E1、E2、E3 手術用具画像
G0 放射線画像
H 被写体
M0 学習モデル
M1 学習済みモデル
Ti 対象放射線画像

Claims (8)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    被写体を異なる方向から撮影した複数の放射線画像を取得し、
    手術用具として縫合針を含まない放射線画像および直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、入力された放射線画像から前記縫合針の領域を検出するための学習済みモデルを構築する学習装置により構築された前記学習済みモデルを用いて複数の前記放射線画像から前記手術用具としての縫合針の領域を順次検出し、
    少なくとも1つの前記放射線画像から前記手術用具の領域が検出された場合、前記被写体に前記手術用具が含まれると判定し、
    すべての前記放射線画像から前記手術用具の領域が検出されなかった場合、前記被写体に前記手術用具が含まれないと判定する放射線画像処理装置。
  2. 前記手術用具画像は、前記直線状の姿勢とは異なる姿勢の縫合針を放射線撮影することにより取得されてなる請求項1に記載の放射線画像処理装置。
  3. 前記手術用具画像は、放射線撮影以外の手法により取得されてなる請求項1に記載の放射線画像処理装置。
  4. 前記学習装置は、前記手術用具を含まない放射線画像および前記手術用具画像を合成することにより合成画像を導出し、
    前記合成画像を前記教師データとして用いた機械学習を行う請求項1から3のいずれか1項に記載の放射線画像処理装置。
  5. 前記学習装置は、前記放射線画像および前記手術用具の少なくとも一方の特性に応じた合成パラメータによって前記放射線画像および前記手術用具画像を合成することにより、前記合成画像を導出する請求項4に記載の放射線画像処理装置。
  6. 前記学習装置は、前記手術用具の放射線吸収率、前記放射線画像における放射線散乱の程度、前記放射線画像におけるビームハードニング、および前記放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて前記合成パラメータを設定する請求項5に記載の放射線画像処理装置。
  7. 被写体を異なる方向から撮影した複数の放射線画像を取得し、
    手術用具として縫合針を含まない放射線画像および直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、入力された放射線画像から前記縫合針の領域を検出するための学習済みモデルを構築する学習装置により構築された前記学習済みモデルを用いて複数の前記放射線画像から前記手術用具としての縫合針の領域を順次検出し、
    少なくとも1つの前記放射線画像から前記手術用具の領域が検出された場合、前記被写体に前記手術用具が含まれると判定し、
    すべての前記放射線画像から前記手術用具の領域が検出されなかった場合、前記被写体に前記手術用具が含まれないと判定する放射線画像処理方法。
  8. 被写体を異なる方向から撮影した複数の放射線画像を取得する手順と、
    手術用具として縫合針を含まない放射線画像および直線状の姿勢とは異なる姿勢の縫合針を含む手術用具画像を教師データとして用いた機械学習を行うことにより、入力された放射線画像から前記縫合針の領域を検出するための学習済みモデルを構築する学習装置により構築された前記学習済みモデルを用いて複数の前記放射線画像から前記手術用具としての縫合針の領域を順次検出する手順と、
    少なくとも1つの前記放射線画像から前記手術用具の領域が検出された場合、前記被写体に前記手術用具が含まれると判定する手順と、
    すべての前記放射線画像から前記手術用具の領域が検出されなかった場合、前記被写体に前記手術用具が含まれないと判定する手順とをコンピュータに実行させる放射線画像処理プログラム。
JP2020154639A 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム Active JP7366870B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020154639A JP7366870B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
US17/469,472 US12026927B2 (en) 2020-09-15 2021-09-08 Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154639A JP7366870B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022048677A JP2022048677A (ja) 2022-03-28
JP7366870B2 true JP7366870B2 (ja) 2023-10-23

Family

ID=80627884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154639A Active JP7366870B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US12026927B2 (ja)
JP (1) JP7366870B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7366870B2 (ja) * 2020-09-15 2023-10-23 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (ja) 2008-10-27 2010-06-17 Toshiba Corp X線診断装置および画像処理装置
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
JP2015058112A (ja) 2013-09-18 2015-03-30 グンゼ株式会社 縫合針
JP2017185007A (ja) 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
WO2019159440A1 (ja) 2018-02-14 2019-08-22 株式会社イシダ 検査装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020147382A1 (en) * 2001-01-23 2002-10-10 Neisz Johann J. Surgical articles and methods
US8029482B2 (en) * 2005-03-04 2011-10-04 C. R. Bard, Inc. Systems and methods for radiographically identifying an access port
EP2352435B1 (en) * 2008-10-31 2019-11-27 Sinclair Pharmaceuticals Limited Minimally invasive tissue support system with a superior tissue support and an inferior anchor
EP2786309A4 (en) * 2011-11-30 2015-07-08 Univ Rush Medical Center SYSTEM AND METHOD FOR IDENTIFYING IMPLANTED MEDICAL DEVICES AND / OR DETECTING REMAINING SURGICAL PROPERTIES ON MEDICAL PICTURES
US9579090B1 (en) * 2013-02-27 2017-02-28 The Administrators Of The Tulane Educational Fund Surgical instrument with multiple instrument interchangeability
US9947090B2 (en) * 2014-09-06 2018-04-17 RaPID Medical Technologies, LLC Medical image dectection system and method
US11504192B2 (en) * 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
JP6809869B2 (ja) 2016-11-02 2021-01-06 Eizo株式会社 ガーゼ検出システム
US11972559B2 (en) * 2020-02-13 2024-04-30 Fujifilm Corporation Radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP7366870B2 (ja) * 2020-09-15 2023-10-23 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
US11389248B1 (en) * 2021-12-14 2022-07-19 Ix Innovation Llc Surgical robot evolution and handoff
US11464590B1 (en) * 2022-04-26 2022-10-11 Ix Innovation Llc Robotic surgery system with tool edge sensors for edge computing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (ja) 2008-10-27 2010-06-17 Toshiba Corp X線診断装置および画像処理装置
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
JP2015058112A (ja) 2013-09-18 2015-03-30 グンゼ株式会社 縫合針
JP2017185007A (ja) 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
WO2019159440A1 (ja) 2018-02-14 2019-08-22 株式会社イシダ 検査装置

Also Published As

Publication number Publication date
US20220083805A1 (en) 2022-03-17
JP2022048677A (ja) 2022-03-28
US12026927B2 (en) 2024-07-02

Similar Documents

Publication Publication Date Title
JP6527209B2 (ja) 画像表示の生成方法
US9786054B2 (en) Medical image processing device, treatment system and medical image processing method
JP7209595B2 (ja) 放射線画像処理装置、方法およびプログラム
US20180253838A1 (en) Systems and methods for medical imaging of patients with medical implants for use in revision surgery planning
CN107752979B (zh) 人工投影的自动生成方法、介质和投影图像确定装置
US20110002444A1 (en) Model based self-positioning patient table for x-ray systems
JP7366870B2 (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP7266543B2 (ja) 放射線画像処理装置、方法およびプログラム
WO2020230642A1 (ja) 医用画像処理装置、医用画像処理プログラム、医用装置、および治療システム
JP2021142146A (ja) 医用画像処理装置、医用装置、治療システム、医用画像処理方法、およびプログラム
US11972559B2 (en) Radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP7413216B2 (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP7394645B2 (ja) 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
JP7297507B2 (ja) 画像処理装置、x線診断装置及びプログラム
US12039005B2 (en) Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP2021126501A (ja) 放射線画像処理装置、方法およびプログラム
JP2021041090A (ja) 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法
JP2020096702A (ja) 医用画像処理装置、x線診断装置および医用画像処理プログラム
US20210378749A1 (en) Method and device for monitoring images by means of an x-ray device during a surgical procedure
JP7346668B2 (ja) 放射線画像処理装置及びプログラム
WO2024117129A1 (ja) 医用画像処理装置、治療システム、医用画像処理方法、およびプログラム
US20240189036A1 (en) Method and apparatus for surgical procedure simulation based on virtual reality
WO2024110640A1 (en) Method for generating a simulated bidimensional image of a portion of a patient's body
WO2024012650A1 (en) Augmentation overlay device
JP2022028188A (ja) 医用画像処理装置、x線診断装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7366870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150