JP7179707B2 - 診療支援装置、診療支援方法、及び診療支援プログラム - Google Patents

診療支援装置、診療支援方法、及び診療支援プログラム Download PDF

Info

Publication number
JP7179707B2
JP7179707B2 JP2019182723A JP2019182723A JP7179707B2 JP 7179707 B2 JP7179707 B2 JP 7179707B2 JP 2019182723 A JP2019182723 A JP 2019182723A JP 2019182723 A JP2019182723 A JP 2019182723A JP 7179707 B2 JP7179707 B2 JP 7179707B2
Authority
JP
Japan
Prior art keywords
information
medical
foreign
learning
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019182723A
Other languages
English (en)
Other versions
JP2021058271A (ja
Inventor
威 福田
晴康 中津川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019182723A priority Critical patent/JP7179707B2/ja
Priority to US17/060,092 priority patent/US11749400B2/en
Publication of JP2021058271A publication Critical patent/JP2021058271A/ja
Application granted granted Critical
Publication of JP7179707B2 publication Critical patent/JP7179707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/508Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for non-human patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Urology & Nephrology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本開示は、診療支援装置、診療支援方法、及び診療支援プログラムに関する。
一般に、被検体の医用画像から、被検体の体内に存在する異物を検出することが行われている。例えば、特許文献1には、診断の邪魔になる、被検体中に存在する金属等の異物を検出する技術が開示されている。
特開2017-202310号
ところで、被検体の体内に存在する異物として、被検体の体内から除去しなければいけない異物がある。例えば、被検体が犬等の動物の場合、毛繕いにより飲み込んだ毛玉や、紐状の物体等が異物として消化管中に存在することがあるが、この種の異物は除去する必要がある。特に、消化管中に存在する異物は、時間経過により存在する位置等が変化する場合があるため、被検体の体内から異物を除去するための診療を支援することが望まれている。
しかしながら、特許文献1に記載の技術では、被検体の体内に存在する異物を検出するものの、検出した異物の除去に対応するには十分とは言えない場合があった。
本開示は、以上の事情を鑑みて成されたものであり、被検体の消化管内に存在する異物の除去に関する診療を効果的に支援することができる、診療支援装置、診療支援方法、及び診療支援プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1の態様の診療支援装置は、被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得する取得部と、取得部が取得した医用情報と、消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じたラベルを付与した医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、被検体の消化管中における異物の存在の有無を導出し、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出する導出部と、導出部の導出結果に基づいて、異物が存在する場合、少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する出力部と、を備える。
本開示の第2の態様の診療支援装置は、第1の態様の診療支援装置において、医用情報は、被検体の品種を表す品種情報をさらに含み、学習用医用情報は、品種情報をさらに含む。
本開示の第3の態様の診療支援装置は、第1の態様の診療支援装置において、医用情報は、被検体の体型に関する種類を表す体型情報をさらに含み、学習用医用情報は、体型情報をさらに含む。
本開示の第4の態様の診療支援装置は、第1の態様から第3の態様のいずれか1態様の診療支援装置において、医用情報は、被検体の年齢を表す年齢情報をさらに含み、学習用医用情報は、年齢情報をさらに含む。
本開示の第5の態様の診療支援装置は、第1の態様から第4の態様のいずれか1態様の診療支援装置において、学習済みモデルの学習に用いられる複数の学習用医用情報は、異物に関する判定が不能であることを表すラベルが付与された医用画像データを含む学習用医用情報をさらに含み、導出部は、取得部が取得した医用情報と、学習済みモデルとに基づいて被検体の消化管中における異物に関する判定が不能であることをさらに導出する。
本開示の第6の態様の診療支援装置は、第5の態様の診療支援装置において、出力部は、導出部が判定が不能であることを導出した場合、予め定められた検査項目を表す検査項目情報を出力する。
本開示の第7の態様の診療支援装置は、第1の態様から第6の態様のいずれか1態様の診療支援装置において、異物は、非病変である。
また、上記目的を達成するために、本開示の第8の態様の診療支援方法は、被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得し、取得した医用情報と、消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じたラベルを付与した医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、被検体の消化管中における異物の存在の有無を導出し、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出し、導出結果に基づいて、異物が存在する場合、少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する、処理をコンピュータが実行する方法である。
また、上記目的を達成するために、本開示の第9の態様の診療支援プログラムは、被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得し、取得した医用情報と、消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じたラベルを付与した医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、被検体の消化管中における異物の存在の有無を導出し、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出し、導出結果に基づいて、異物が存在する場合、少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する、処理をコンピュータに実行させるためのものである。
また、本開示の診療支援装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサと、を備え、プロセッサは、被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得し、取得した医用情報と、消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じたラベルを付与した医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、被検体の消化管中における異物の存在の有無を導出し、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出し、導出結果に基づいて、異物が存在する場合、少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する。
本開示によれば、被検体の消化管内に存在する異物の除去に関する診療を効果的に支援することができる。
第1実施形態の診療支援システムの構成の一例を示すブロック図である。 第1実施形態の診療支援装置のハードウェア構成の一例を示すブロック図である。 第1実施形態の学習用医用情報の一例を説明するための図である。 消化管中に異物が含まれていない状態で撮影された医用画像の一例を示す図である。 消化管中に含まれる異物に異物ラベルが付与された医用画像の一例を示す図である。 消化管中に含まれる異物に異物ラベルが付与された医用画像の一例を示す図である。 消化管中に含まれる陰影に判定不能ラベルが付与された医用画像の一例を示す図である。 消化管中に含まれる異物に異物ラベルが付与された医用画像の他の例を示す図である。 第1実施形態の学習済みモデルを説明するための図である。 除去方法情報の一例を説明するための図である。 第1実施形態の診療支援装置の学習フェーズにおける機能的な構成の一例を示すブロック図である。 第1実施形態の学習済みモデルの入出力を説明するための図である。 第1実施形態の診療支援装置で実行される学習処理の一例を示すフローチャートである。 第1実施形態の診療支援装置の運用フェーズにおける機能的な構成の一例を示すブロック図である。 第1実施形態の診療支援装置で実行される診療支援処理の一例を示すフローチャートである。 第1実施形態の診療支援装置における犬種に応じた学習済みモデルを用いた異物情報または判定不能情報の導出を説明するための図である。 第2実施形態の診療支援装置の記憶部に記憶される学習用医用情報の一例を示す図である。 第2実施形態の学習用医用情報の一例を説明するための図である。 第2実施形態の学習済みモデルを説明するための図である。 小型犬用の除去方法情報の一例を説明するための図である。 大型犬用の除去方法情報の一例を説明するための図である。 第2実施形態の学習済みモデルの入出力を説明するための図である。 第2実施形態の診療支援装置の運用フェーズにおける機能的な構成の一例を示すブロック図である。 第2実施形態の診療支援装置における体型に応じた学習済みモデルを用いた異物情報または判定不能情報の導出を説明するための図である。 第3実施形態の診療支援装置の記憶部に記憶される学習用医用情報の一例を示す図である。 第3実施形態の学習用医用情報の一例を説明するための図である。 第3実施形態の学習済みモデルを説明するための図である。 第3実施形態の学習済みモデルの入出力を説明するための図である。 第3実施形態の診療支援装置の運用フェーズにおける機能的な構成の一例を示すブロック図である。 第3実施形態の診療支援装置における犬種及び年齢の組み合わせに応じた学習済みモデルを用いた異物情報または判定不能情報の導出を説明するための図である。 年齢情報を含む学習用医用情報により学習された学習済みモデルを説明するための図である。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。なお、以下の形態例では、被検体として「犬」を適用した場合について説明する。
[第1実施形態]
まず、図1を参照して、本実施形態の診療支援システム1について説明する。図1には、本実施形態の診療支援システム1の構成の一例を表すブロック図が示されている。図1に示すように、本実施形態の診療支援システム1は、診療支援装置10及び複数(図1では、一例として3台)の端末装置12を備える。診療支援装置10及び複数の端末装置12は、それぞれネットワークNに接続され、ネットワークNを介して互いに通信が可能とされている。
診療支援装置10は、例えば、動物病院に設置される。診療支援装置10の例としては、サーバコンピュータ等が挙げられる。なお、診療支援装置10は、クラウドサーバであってもよい。端末装置12は、例えば、動物病院に設置され、獣医師等のユーザにより使用される。端末装置12の例としては、パーソナルコンピュータ及びタブレットコンピュータ等が挙げられる。
次に、図2を参照して、本実施形態の診療支援装置10のハードウェア構成の一例を説明する。図2に示すように診療支援装置10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、診療支援装置10は、液晶ディスプレイ等の表示部24、キーボードやマウス等の入力部26、及びネットワークNに接続されるネットワークI/F(InterFace)28を含む。なお、表示部24及び入力部26はタッチパネルディスプレイとして一体化されていてもよい。CPU20、メモリ21、記憶部22、表示部24、入力部26、及びネットワークI/F28は、バス29に互いに通信が可能に接続されている。
記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、学習プログラム23Aが記憶される。CPU20は、記憶部22から学習プログラム23Aを読み出してからメモリ21に展開し、展開した学習プログラム23Aを実行する。また、記憶部22には、診療支援プログラム23Bが記憶される。CPU20は、記憶部22から診療支援プログラム23Bを読み出してからメモリ21に展開し、展開した診療支援プログラム23Bを実行する。
また、本実施形態の記憶部22には、学習用医用情報30と、学習用医用情報30を用いて学習された学習済みモデル38とが記憶される。
図2及び図3に示すように、一例として本実施形態の学習用医用情報30は、学習用の医用画像データ32、品種情報34、及び消化管情報36を含む。
医用画像データ32は、被検体である犬の消化管を含む部位を医用画像撮影装置によって撮影して得られた医用画像に対して消化管中に異物が存在した場合、存在する異物にラベル(詳細後述)が付与された医用画像33を表す画像データである。なお、本実施形態では、医用画像として、被検体の犬に対して放射線を照射し、犬を透過した放射線を検出する放射線検出器により検出された放射線量に応じた放射線画像を適用した形態例を説明する。なお、医用画像は、造影剤を投与した状態で撮影された医用画像であってもよいし、MRI(Magnetic Resonance Imaging)画像及びCT(Computed Tomography)画像等であってもよい。
本実施形態の医用画像33の例を図4A~図4Eを参照して説明する。図4A~図4Dに示す医用画像33(33A~33C、33X)は、犬の消化管である胃を含む部位を側面方向(いわゆる、Lateral)に撮影して得られた医用画像である。
図4Aには、消化管中に異物が含まれていない状態で撮影された医用画像33Aが示されている。医用画像33Aに写る消化管には、異物による陰影がみられない。
図4Bには、消化管中に含まれる異物にラベル(以下、「異物ラベル」という)70Bが付与された医用画像33Bが示されている。また、図4Cには、消化管中に含まれる異物に異物ラベル70Cが付与された医用画像33Cが示されている。医用画像33B及び33Cは、消化管に異物が含まれた状態で撮影された医用画像であり、各々、異物の陰影に異物ラベル70B、70Cが付与されている。
異物とは、被検体の体内に本来、存在しないまたは存在すべきではないものである。一例として本実施形態の異物は、非病変であり、被検体が誤飲する等により、被検体の体内、具体的には消化管内に侵入したものである。異物の例としては、石、紐、玩具、串、硬貨、及び布等、多種多様のものが挙げられる。また、異物の例として、被検体が本実施形態のように犬等の動物の場合、毛繕いによる自身の毛(毛玉)等も挙げられる。このように、異物の種類は多様であり、またその材質も多種多様である。本実施形態では、異物の種類に応じて、医用画像における異物の陰影に対して異物ラベル70が付与される。
なお、異物の「種類」とは、石、紐、毛玉等、具体的な物を表す種類に限定されず、円形状、紐状、及び突起状等、形状により分類した場合の形状に応じた種類であってもよい。なお、本実施形態では、被検体が犬であり、誤飲の対象となる具体的な物は、多種多様であるため、「石」等のように具体的な物の種類に応じて異物ラベル70を付与すると、異物ラベル70の種類が膨大ともいえる数に上ることになる。また、想定外のものを誤飲した場合、想定外の異物に対して付与すべき異物ラベル70が存在しないという懸念がある。そこで、本実施形態では、異物の種類として、具体的な物の種類ではなく、形状に応じた種類を採用している。例えば、図4Bに示した異物ラベル70Bは、円形状の異物に付与される異物ラベル70である。また例えば、図4Cに示した異物ラベル70Cは、串状の異物に付与される異物ラベル70である。
なお、被検体の消化管を撮影した医用画像において、異物による陰影の可能性がある等のことから、何らかの陰影の所見はあるが、その陰影が、異物によるものなのかの判定が不能な場合がある。また、異物による陰影が、その他の部位の影になっていたりする等のことから、異物が存在する位置、大きさ、及び種類等の判定が不能な場合がある。そこで、本実施形態では、消化管が撮影された医用画像33における陰影について、病変であることが判別できず、かつ消化管中における異物に関する判定が不能、具体的には、異物が存在する位置、大きさ、及び種類の少なくとも一つの判定が不能な陰影には、図4Dに示すように、判定不能ラベル72を付与する。図4Dには、判定不能ラベル72が付与された医用画像33Xが示されている。
なお、医用画像は、例えば、図4Eに示すように、腹側から背中側に向けた方向(いわゆる、Ventral-Dorsal)に撮影して得られた医用画像33Bであってもよい。図4Eに示した医用画像33Bは、異物ラベル70Bが付与された消化管が撮影された医用画像である。なお、学習用医用情報30として用いられる複数の医用画像データ32が、撮影方向が異なる医用画像33による医用画像データ32を含む場合、医用画像データ32に、撮影方向を表す情報を付与することが好ましい。
このように、本実施形態の医用画像データ32は、消化管に異物の陰影が見られない、換言すると異物ラベル70が付与されていない医用画像33Aを表す医用画像データ32Aと、異物ラベル70が付与された医用画像33B、Cを表す医用画像データ32B、32Cと、判定不能ラベル72が付与された医用画像33Xを表す医用画像データ32Xとを各々、複数含む。
品種情報34は、被検体である犬の品種を表す品種情報であり、医用画像データ32に付加されている。具体的には、品種情報34とは、被検体が犬であるため、犬種を表す情報である。なお、本実施形態において「品種」とは、「犬種」等の品種の他、「犬」及び「猫」等の種族の概念も含む。
消化管情報36は、異物の陰影が存在する消化管を表す情報である。異物が存在する消化管としては、例えば、胃、小腸、及び大腸等が挙げられ、消化管情報36は、これら消化管の部位を表す情報である。
学習済みモデル38は、学習用医用情報30を用いて予め学習されたモデルである。本実施形態では、一例として図5に示すように、学習用医用情報30を用いた機械学習によって学習済みモデル38が生成される。例えば、図5に示すように、品種情報34が表す犬種が「柴犬」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、犬種が柴用犬の学習済みモデル38が生成される。
また例えば、図5に示すように、品種情報34が表す犬種が「ゴールデンレトリバー」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、犬種がゴールデンレトリバーの学習済みモデル38が生成される。学習済みモデル38の例としては、ニューラルネットワークモデルが挙げられる。
なお、図5では、犬種として「柴犬」及び「ゴールデンレトリバー」、消化管として「胃」及び「小腸」の場合の学習済みモデル38及び38について示しているが、犬種及び消化管の種類はこれらに限定されるものではない。なお、学習済みモデル38及び38について各々を区別せずに総称する場合、個々を区別する「1」及び「2」の符号を省略して「学習済みモデル38」という。
また、図2に示したように、本実施形態の記憶部22には、除去方法情報40が記憶される。除去方法情報40は、消化管内における異物の位置、大きさ、及び種類と、その異物の除去方法との対応関係を表す情報である。図6には、除去方法情報40の一例が示されている。
異物の除去方法として、催吐剤の投与、内視鏡による摘出、開腹手術、下剤の投与、及び自然排出のための経過観察等が挙げられる。異物の除去方法は、異物の位置、大きさ、及び種類等により異なる。例えば、異物の位置が胃であり、大きさが比較的小さく、また形状が円形状等の内臓(消化器)に損傷を与える恐れが少ない形状の場合、催吐剤の投与による除去方法が採用される傾向がある。また例えば、異物の位置が小腸であり、また形状が紐状の場合、大きさにかかわらず、腸がいわゆるアコーデオン状態になることがあるため、開腹手術による除去方法が採用される傾向がある。このように、異物の除去方法は、異物の位置、大きさ、及び種類のうちの少なくとも一つに応じて異なる。そのため、異物の消化管内における位置、大きさ、及び種類と、その異物の除去方法との対応関係を表す情報を除去方法情報40として記憶部22に記憶する。なお、除去方法情報40は、本実施形態に限定されず、異物の位置、大きさ、及び種類のうちの少なくとも一つと、異物の除去情報との対応関係を表す情報であればよい。
さらに、本実施形態の記憶部22には、検査項目情報42が記憶される。検査項目情報42は、医用画像における陰影が上記のように判定不能な陰影である場合、その陰影について判定(特定)するために、被検体に対して行うことが推奨される検査項目を表す情報である。検査項目としては、例えば、医用画像が放射線画像の場合、超音波画像の撮影やCT画像の撮影等、異なる種類の撮影を行うことが挙げられる。
次に、図7を参照して、本実施形態の診療支援装置10の学習フェーズにおける機能的な構成について説明する。図7に示すように、診療支援装置10は、取得部50及び学習部52を含む。CPU20が学習プログラム23Aを実行することで、取得部50及び学習部52として機能する。
取得部50は、学習用医用情報30を記憶部22から取得する。
学習部52は、取得部50により取得された学習用医用情報30を学習用のデータ(教師データとも称される)として学習させることによって、学習用医用情報30に基づいて異物に関する情報(以下、「異物情報」という)または判定不能であることを表す情報(以下、「判定不能情報」という)を出力する学習済みモデル38を生成する。具体的には、学習部52は、品種情報34が表す犬種毎に、消化管情報36が付与された医用画像データ32を入力とし、医用画像データ32が表す医用画像33における異物情報または判定不能情報を出力とした、品種に応じた複数の学習済みモデル38を機械学習によって生成する。なお、本実施形態において「異物情報」とは、具体的には、異物の有無、異物の位置、異物の大きさ、及び異物の種類に関する情報を含む。なお、本実施形態では異物がない場合、具体的には、医用画像33において異物による陰影が消化管中にない場合、異物情報には、異物がないことを表す情報のみが含まれる。
なお、学習済みモデル38から異物の大きさを表す情報を出力させるために、医用画像33に、例えば、異物の大きさを導出するための情報を含めてもよい。具体的には例えば、医用画像33を、予め定められた大きさのマーカ等の基準物を、被検体と共に撮影した医用画像としてもよい。また例えば、医用画像33から異物の大きさを導出するための付加情報を学習用医用情報30に含めてもよい。具体的には例えば、被検体の大きさを表す情報を学習用医用情報30に含めてもよい。
より具体的には、学習部52は、品種情報34が表す犬種として「柴犬」、及び消化管情報36が表す消化管として「胃」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。また、学習部52は、品種情報34が表す犬種として「柴犬」、及び消化管情報36が表す消化管として「小腸」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、犬種が柴犬用の学習済みモデル38が生成される。
同様に、学習部52は、品種情報34が表す犬種として「ゴールデンレトリバー」、及び消化管情報36が表す消化管として「胃」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。また、学習部52は、品種情報34が表す犬種として「ゴールデンレトリバー」、及び消化管情報36が表す消化管として「小腸」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、犬種がゴールデンレトリバー用の学習済みモデル38が生成される。
以上の学習部52による学習のアルゴリズムとしては、例えば、誤差逆伝播法を適用することができる。以上の学習部52による学習によって、一例として図8に示すように、品種(犬種)毎に、医用画像データ62及び品種情報64を入力とし、入力の医用画像データ62が表す医用画像における異物について、異物情報または判定不能情報を出力とする学習済みモデル38が生成される。そして、学習部52は、生成した学習済みモデル38を記憶部22に記憶する。なお、本実施形態では、医用画像データ62及び品種情報64を総称する場合、「医用情報」という。
次に、図9を参照して、本実施形態の診療支援装置10の学習フェーズにおける作用を説明する。CPU20が学習プログラム23Aを実行することによって、図9に示す学習処理が実行される。
図9のステップS100で取得部50は、学習用医用情報30を記憶部22から取得する。
次のステップS102で学習部52は、上述したように、ステップS100で取得された学習用医用情報30を学習用のデータとして犬種毎にモデルを学習させる。この学習により、学習部52は、医用画像データ62及び品種情報64に基づいて、被検体の消化管中における異物情報または判定不能情報を出力する学習済みモデル38を生成する。そして、学習部52は、生成した学習済みモデル38を記憶部22に記憶する。ステップS102の処理が終了すると本学習処理が終了する。
次に、図10を参照して、本実施形態の診療支援装置10の運用フェーズにおける機能的な構成について説明する。図10に示すように、本実施形態の診療支援装置10は、取得部54、導出部56、及び出力部57を含む。CPU20が診療支援プログラム23Bを実行することで、取得部54、導出部56、及び出力部57として機能する。取得部54が本開示の取得部の一例であり、導出部56が本開示の導出部の一例であり、出力部57が本開示の出力部の一例である。なお、診療支援装置10は、学習フェーズと運用フェーズとで同じ装置であってもよいし、異なる装置であってもよい。
取得部54は、獣医師等のユーザによる診療対象である被検体の動物を医用画像撮影装置によって撮影して得られた医用画像を表す医用画像データ62と、その被検体の犬種を表す品種情報64とを含む医用情報を取得する。品種情報64は、医用画像データ62に付加されていてもよいし、ユーザにより端末装置12の操作部(図示省略)を介して入力されてもよい。
導出部56は、取得部54により取得された医用情報(医用画像データ62及び品種情報64)と、学習用医用情報30によって予め学習された学習済みモデル38とに基づいて、被検体の消化管中の異物に関する情報を導出する。具体的には、導出部56は、取得部54によって取得された医用画像データ62を、取得部54により取得された品種情報64が表す犬種に応じた学習済みモデル38に入力する。学習済みモデル38は、入力された医用情報に応じて、異物情報または判定不能情報を出力する。
また、導出部56は、学習済みモデル38から出力された異物情報または判定不能情報に基づき、被検体の消化管中に異物が存在するか否かを導出する。具体的には、導出部56は、学習済みモデル38から出力された異物情報が、異物がないことを表す情報を含む場合に、被検体の消化管中に異物がないことを表す導出結果を出力部57に出力する。なお、学習済みモデル38が判定不能情報を導出した場合、実際には被検体の消化管中に異物が存在する場合もあるが判定不能であるため、本実施形態の導出部56は、異物の有無についての導出は行わず、判定不能であることを表す情報を出力部57に出力する。
また、導出部56は、被検体の消化管中に異物があることを導出した場合、導出結果として、異物情報に基づき、異物の位置、大きさ、及び種類の各々を表す情報を出力部57に出力する。
出力部57は、異物がないことを表す導出結果が入力された場合、異物がないとした導出結果を出力する。具体的には、本実施形態の出力部57は、導出部56から異物がないことを表す導出結果が入力された場合、異物がないとした導出結果を端末装置12に出力することによって端末装置12の表示部(図示省略)に導出結果を表示する。ユーザは、端末装置12の表示部に表示された導出結果を参考に被検体の診療を行う。例えば、ユーザは、被検体の症状が誤飲に起因するものではないとして、被検体の診療を行う。
また、出力部57は、異物があることを表す導出結果が入力された場合、除去方法情報40を参照し、入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して出力する。具体的には、本実施形態の出力部57は、導出部56から異物があることを表す導出結果が入力された場合、異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を表す情報(以下、「除去情報」という)を端末装置12に出力することによって端末装置12の表示部(図示省略)に除去情報を表示する。ユーザは、端末装置12の表示部に表示された除去情報を参考に被検体の消化内に存在する異物の除去に関する診療を行う。
また、出力部57は、判定不能であることを表す情報が入力された場合、検査項目情報42から取得した検査項目を表す情報を出力する。具体的には、出力部57は、導出部56から判定不能であることを表す情報が入力された場合、予め定められた検査項目を表す情報を端末装置12に出力することによって端末装置12の表示部(図示省略)に検査項目を表示する。ユーザは、端末装置12の表示部に表示された検査項目を参考に、被検体に対する追加検査等を行う。
次に、図11を参照して、本実施形態の診療支援装置10の運用フェーズにおける作用を説明する。CPU20が診療支援プログラム23Bを実行することによって、図11に示す診療支援処理が実行される。
図11のステップS200で取得部54は、被検体である犬の医用情報を取得し、導出部56に出力する。具体的には、取得部54は、ユーザによる診療対象である被検体の犬を医用画像撮影装置によって撮影して得られた医用画像を表す医用画像データ62と、その被検体の品種を表す品種情報64とを取得する。
次のステップS202で導出部56は、上述したように、取得部54から入力された医用情報と、学習済みモデル38とに基づいて、異物情報を導出する。具体的には、導出部56は、入力された医用情報における品種情報64に応じて選択した学習済みモデル38に医用画像データ62を入力させ、学習済みモデル38から出力された異物情報または判定不能情報を取得する。
例えば、図12に示すように、医療情報における品種情報64の表す犬種が「柴犬」の場合、導出部56は、医用画像データ62を犬種が柴犬用の学習済みモデル38に入力させる。学習済みモデル38からは、異物情報または判定不能情報が出力される。
次のステップS204で導出部56は、上述したように被検体の消化管中に異物がないか否かを判定する。学習済みモデル38が異物がないことを表す情報を含む異物情報を出力した場合、ステップS204の判定が肯定判定となり、ステップS206へ移行する。ステップS206で出力部57は、上述したように、異物がないとした導出結果を出力する。ステップS206の処理が終了すると、本診療支援処理が終了する。
一方、学習済みモデル38から出力された異物情報が異物がないことを表す情報を含まない場合、もしくは、学習済みモデル38が判定不能情報を出力した場合、ステップS204の判定が否定判定となり、ステップS208へ移行する。
ステップS208で導出部56は、上述したように被検体の消化管中に異物があるか否かを判定する。学習済みモデル38が異物があることを表す情報を含む異物情報を出力した場合、ステップS208の判定が肯定判定となり、ステップS210へ移行する。ステップS210で出力部57は、上述したように除去方法情報40を参照し、導出部56から入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して除去情報を出力する。ステップS210の処理が終了すると、本診療支援処理が終了する。
一方、学習済みモデル38は判定不能情報を出力した場合、ステップS208の判定が否定判定となり、ステップS212へ移行する。ステップS212で出力部57は、上述したように検査項目情報42から取得した検査項目を出力する。ステップS212の処理が終了すると、本診療支援処理が終了する。
このように、本実施形態の診療支援装置10によれば、医用画像データ62及び品種情報64を含む医用情報と、学習済みモデル38とに基づいて、被検体の消化管中の異物の位置、大きさ、及び種類を導出される。また本実施形態の診療支援装置10によれば、被検体の消化管中に異物が存在する場合、異物の除去方法をユーザに提示することができる。
被検体の品種(犬種)により、消化管の状態や体型等が異なる。そのため、被検体の品種に応じた異物の除去方法を提供することが好ましい。本実施形態の診療支援装置10では、被検体の品種に応じた異物の除去方法をユーザに提示することができるため、被検体の消化管内に存在する異物の除去に関する診療を効果的に支援することができる。
[第2実施形態]
以下、第2実施形態について詳細に説明する。
本実施形態では、診療支援装置10により、被検体の体型を含む医用情報を用いて被検体の消化管内に存在する異物の除去に関する診療を支援する形態について説明する。
本実施形態の診療支援システム1の構成は、第1実施形態の診療支援システム1の構成(図1参照)と同様であるため、説明を省略する。
一方、本実施形態の診療支援装置10では、診療に用いる被検体の医用情報の内容が第1実施形態と異なり、また、学習済みモデル38の学習に用いる学習用医用情報30の内容が第1実施形態と異なる。そのため、本実施形態の診療支援装置10の構成は、記憶部22に記憶される学習用医用情報30に含まれる情報が、第1実施形態の記憶部22に記憶される学習用医用情報30に含まれる情報(図2及び図3参照)と異なる。図13及び図14には、本実施形態の学習用医用情報30の一例を示す。図13及び図14に示すように、本実施形態の学習用医用情報30は、第1実施形態の学習用医用情報30に含まれていた品種情報34(図2及び図3参照)に代わり、体型情報37を含んでいる。
体型情報37とは、被検体の体型に関する種類を表す情報である。具体的には、被検体の体の大きさを表す情報であり、一例として本実施形態では、被検体の体の大きさを2段階に表す情報であり、具体的には小型及び大型のいずれであるかを表す情報である。なお、本実施形態に限定されず、体型情報37が、体の大きさを、小型、中型、及び大型等、3段階以上に表す情報であってもよい。
なお、体型情報37を得る方法は特に限定されない。例えば、医用画像データ32が表す医用画像を読影したユーザが、端末装置12の操作部(図示省略)から体型を入力する形態としてもよい。また例えば、犬種と体型との対応関係を表すテーブルを予め用意しておき、電子カルテ等から被検体の犬種を取得し、予め用意されたテーブルから、取得した犬種に対応する体型を取得する形態としてもよい。また例えば、診察台上の被検体をカメラ等により撮影して得られた撮影画像に基づき、診察台と被検体との大きさを比較した比較結果から、被検体の体型を自動的に取得する形態としてもよい。
図15に示すように、上記本実施形態の学習用医用情報30を用いた機械学習により本実施形態の学習済みモデル38が生成される。例えば、図15に示すように、体型情報37が表す体型が「小型」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、体型が小型用の学習済みモデル38が生成される。
また例えば、図15に示すように、体型情報37が表す体型が「大型」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、体型が大型用の学習済みモデル38が生成される。上述したように学習済みモデル38の例としては、ニューラルネットワークモデルが挙げられる。
なお、図15では、2つの学習済みモデル38及び38について示しているが、生成される学習済みモデル38の数は2つに限定されるものではない。なお、学習済みモデル38及び38について各々を区別せずに総称する場合、個々を区別する「3」及び「4」の符号を省略して「学習済みモデル38」という。
また、本実施形態の記憶部22には、第1実施形態の除去方法情報40(図2及び図6参照)に代わり、図16A及び16Bに示す、除去方法情報40(40及び40)が記憶される点が異なっている。図16Aに示した除去方法情報40は、小型犬用の除去方法情報40であり、図16Bに示した除去方法情報40は、大型犬用の除去方法情報40である。異物の除去方法に関して、一般に、被検体における腸の膨張は、その被検体の肋骨間隔程度が最大と言われている。そのため、被検体の肋骨間隔程度以上の異物が腸に存在する場合、異物の移動が困難であるため、催吐剤や下剤による除去が困難であり、開腹手術による除去が好ましい傾向がある。このように、被検体の大きさ等により、除去方法が異なる場合がある。そのため、本実施形態の診療支援装置10では、被検体の大きさに対応する体型毎に、除去方法情報40を記憶部22にする。
次に、本実施形態の診療支援装置10の学習フェーズにおける機能的な構成について説明する。本実施形態の診療支援装置10の学習フェーズにおける全体的な構成は、第1実施形態の診療支援装置10(図7参照)と同様である。一方、本実施形態の診療支援装置10における学習部52は、学習用医用情報30に基づいて学習済みモデル38を生成する具体的な動作が異なるため、学習部52の具体的な動作について説明する。
本実施形態の学習部52は、体型情報37が表す被検体の体型毎に、医用画像データ32を入力とし、医用画像データ32が表す医用画像33における異物情報または判定不能情報を出力とした、体型に応じた複数の学習済みモデル38を機械学習によって生成する。
より具体的には、学習部52は、体型情報37が表す体型として「小型」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、体型が小型用の学習済みモデル38が生成される。
同様に、学習部52は、体型情報37が表す体型として「大型」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、体型が大型用の学習済みモデル38が生成される。
以上の学習部52による学習のアルゴリズムとしては、上述したように例えば、誤差逆伝播法を適用することができる。以上の学習部52による学習によって、一例として図17に示すように、体型毎に、医用画像データ62及び体型情報67を入力とし、入力の医用画像データ62が表す医用画像における異物について、異物情報または判定不能情報を出力とする学習済みモデル38が生成される。そして、学習部52は、生成した学習済みモデル38を記憶部22に記憶する。
本実施形態の診療支援装置10の学習フェーズにおける作用、すなわち、診療支援装置10が実行する学習処理は、第1実施形態の診療支援装置10において実行される学習処理(図9参照)と同様であるため、説明を省略する。
次に、図18を参照して、本実施形態の診療支援装置10の運用フェーズにおける機能的な構成を説明する。本実施形態の診療支援装置10は、取得部54、導出部56、及び出力部57の具体的な動作が第1実施形態の診療支援装置10(図10参照)と異なるため、取得部54、導出部56、及び出力部57の具体的な動作について説明する。
取得部54は、被検体が撮影された医用画像を表す医用画像データ62と、その被検体の体型に関する種類を表す体型情報67とを含む医用情報を取得する。体型情報67は、医用画像データ62に付加されていてもよいし、ユーザにより端末装置12の操作部(図示省略)を介して入力されてもよい。
導出部56は、取得部54により取得された医用情報(医用画像データ62及び体型情報67)と、学習用医用情報30によって予め学習された学習済みモデル38とに基づいて、被検体の消化管中の異物に関する情報を導出する。具体的には、導出部56は、取得部54によって取得された医用画像データ62を、取得部54により取得された体型情報67が表す体型に応じた学習済みモデル38に入力する。学習済みモデル38は、入力された医用情報に応じて、異物情報または判定不能情報を出力する。
出力部57は、異物があることを表す導出結果が導出部56から入力された場合、取得部54により取得された体型情報67が表す体型に応じた除去方法情報40(40または40)を参照し、入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して出力する。
次に、本実施形態の診療支援装置10の運用フェーズにおける作用を説明する。なお、診療支援処理の全体的な流れは第1実施形態の図11に示した診療支援処理と同様であるため、図11を参照して説明する。
ステップS200で取得部54は、被検体である犬の医用情報を取得し、導出部56に出力する。具体的には、取得部54は、ユーザによる診療対象である被検体の犬を医用画像撮影装置によって撮影して得られた医用画像を表す医用画像データ62と、その被検体の体型に関する種類を表す体型情報67とを取得する。
次のステップS202で導出部56は、上述したように取得部54から入力された医用情報と、学習済みモデル38とに基づいて、異物情報を導出する。具体的には、導出部56は、入力された医用情報における体型情報67に応じて選択した学習済みモデル38に医用画像データ62を入力させ、学習済みモデル38から出力された異物情報または判定不能情報を取得する。
例えば、図19に示すように、医療情報における体型情報67の表す体型が「小型」の場合、導出部56は、医用画像データ62を体型が小型用の学習済みモデル38に入力させる。学習済みモデル38からは、異物情報または判定不能情報が出力される。
次のステップS204で導出部56は、上述したように被検体の消化管中に異物がないか否かを判定する。学習済みモデル38が異物がないことを表す情報を含む異物情報を出力した場合、ステップS204の判定が肯定判定となり、次のステップS206で出力部57は、上述したように、異物がないとした導出結果を出力した後、本診療支援処理が終了する。
一方、学習済みモデル38が出力した異物情報が異物がないことを表す情報を含まない場合、もしくは、学習済みモデル38が判定不能情報を出力した場合、ステップS204の判定が否定判定となり、次のステップS208で導出部56は、上述したように被検体の消化管中に異物があるか否かを判定する。学習済みモデル38が異物があることを表す情報を含む異物情報を出力した場合、ステップS208の判定が肯定判定となる。次のステップS210で出力部57は、上述したように体型情報67に応じた除去方法情報40(40または40)を参照し、導出部56から入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して除去情報を出力した後、本診療支援処理が終了する。
一方、学習済みモデル38は判定不能情報を出力した場合、ステップS208の判定が否定判定となり、次のステップS212で出力部57は、上述したように検査項目情報42から取得した検査項目を出力した後、本診療支援処理が終了する。
このように、本実施形態の診療支援装置10によれば、医用画像データ62及び体型情報67を含む医用情報と、学習済みモデル38とに基づいて、被検体の消化管中に異物が存在するか否かが導出される。また本実施形態の診療支援装置10によれば、被検体の消化管中に異物が存在する場合、異物の除去方法をユーザに提示することができる。
本実施形態の診療支援装置10によれば、被検体の体型に応じて異物の除去方法を導出することができるため、被検体の消化管内に存在する異物の除去に関する診療を効果的に支援することができる。
また、本実施形態の診療支援装置10によれば、被検体がいわゆるミックス犬等の雑種である場合や、犬種が不明な場合等でも、被検体の体型を考慮して被検体の体型に応じて異物の除去方法を導出することができるため、より診療を交換的に支援することができる。
[第3実施形態]
以下、第3実施形態について詳細に説明する。
本実施形態では、診療支援装置10が、さらに被検体の年齢に応じた除去方法を提供する形態について説明する。
本実施形態の診療支援システム1の構成は、第1実施形態の診療支援システム1の構成(図1参照)と同様であるため、説明を省略する。
一方、本実施形態の診療支援装置10では、診療に用いる被検体の医用情報の内容が第1実施形態と異なり、また、学習済みモデル38の学習に用いる学習用医用情報30の内容が第1実施形態と異なる。そのため、本実施形態の診療支援装置10の構成は、記憶部22に記憶される学習用医用情報30に含まれる情報が、第1実施形態の記憶部22に記憶される学習用医用情報30に含まれる情報(図2及び図3参照)と異なる。図20及び図21には、本実施形態の学習用医用情報30の一例を示す。図20及び図21に示すように、本実施形態の学習用医用情報30は、第1実施形態の学習用医用情報30に含まれていた品種情報34及び消化管情報36に加えて、年齢情報35を含んでいる。
年齢情報35は、被検体である犬の年齢を表す年齢情報であり、医用画像データ32に付加されている。年齢情報35とは、被検体の出生からの経過時間を表す情報である。なお、本実施形態では、便宜上、年齢と称しているが、出生からの年単位の経過時間ではなく、月単位の経過時間、即ち月齢を採用している。例えば、犬等のように成長が比較的速い場合、年単位とした年齢では被検体の大きさが大きく変化してしまうことがある。そのため、本実施形態では、このように年齢情報35として月齢を表す情報を採用している。このように、年齢情報35によって表される被検体の出生からの経過時間は、被検体の品種等に応じて定めることが好ましく、年齢、月齢に限らず、例えば日齢であってもよい。
図22に示すように、上記本実施形態の学習用医用情報30を用いた機械学習により本実施形態の学習済みモデル38が生成される。例えば、図22に示すように、品種情報34が表す犬種が「柴犬」の場合、年齢情報35が表す年齢が「1ヶ月」、かつ消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、犬種が柴犬で年齢が1ヶ月用の学習済みモデル38が生成される。
また例えば、図22に示すように、品種情報34が表す犬種が「柴犬」の場合、年齢情報35が表す年齢が「2ヶ月」、かつ消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、犬種が柴犬で年齢が2ヶ月用の学習済みモデル38が生成される。
また例えば、図22に示すように、品種情報34が表す犬種が「ゴールデンレトリバー」の場合、年齢情報35が表す年齢が「1ヶ月」、かつ消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xと、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xとからは、犬種がゴールデンレトリバーで年齢が1ヶ月用の学習済みモデル38が生成される。上述したように学習済みモデル38の例としては、ニューラルネットワークモデルが挙げられる。
なお、図22では、4つの学習済みモデル38~38について示しているが、生成される学習済みモデル38の数は4つに限定されるものではない。なお、学習済みモデル38~38について各々を区別せずに総称する場合、個々を区別する「5」~「8」の符号を省略して「学習済みモデル38」という。
なお本実施形態の記憶部22には、第1実施形態と同様に、1種類の除去方法情報40(図6参照)が記憶される形態であってもよいが、被検体の犬種及び年齢の組み合わせ毎に、複数の除去方法情報40が記憶される形態であることが好ましい。上述したように、被検体の体の大きさ(体型)により、異物の除去方法が異なる場合がある。被検体の品種及び年齢によって、その被検体の大きさが異なるため、被検体の犬種及び年齢の組み合わせ毎に、複数の除去方法情報40を用いることが好ましい。
次に、本実施形態の診療支援装置10の学習フェーズにおける機能的な構成について説明する。本実施形態の診療支援装置10の学習フェーズにおける全体的な構成は、第1実施形態の診療支援装置10(図7参照)と同様である。一方、本実施形態の診療支援装置10における学習部52は、学習用医用情報30に基づいて学習済みモデル38を生成する具体的な動作が異なるため、学習部52の具体的な動作について説明する。
本実施形態の学習部52は、品種情報34が表す被検体の犬種及び年齢情報35が表す被検体の年齢毎に、医用画像データ32を入力とし、医用画像データ32が表す医用画像33における異物情報または判定不能情報を出力とした、犬種及び年齢に応じた複数の学習済みモデル38を機械学習によって生成する。
より具体的には、学習部52は、品種情報34が表す被検体の犬種として「柴犬」であり、年齢情報35が表す年齢が「1ヶ月」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、犬種が柴犬で年齢が1ヶ月用の学習済みモデル38が生成される。
同様に、学習部52は、品種情報34が表す被検体の犬種として「柴犬」であり、年齢情報35が表す年齢が「2ヶ月」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、犬種が柴犬で年齢が2ヶ月用の学習済みモデル38が生成される。
また同様に、学習部52は、品種情報34が表す被検体の犬種として「ゴールデンレトリバー」であり、年齢情報35が表す年齢が「1ヶ月」が付加された医用画像データ32が入力された場合は、異物情報または判定不能情報が出力されるようにモデルを学習させる。本学習により、犬種がゴールデンレトリバーで年齢が1ヶ月用の学習済みモデル38が生成される。
以上の学習部52による学習のアルゴリズムとしては、上述したように例えば、誤差逆伝播法を適用することができる。以上の学習部52による学習によって、一例として図23に示すように、犬種及び年齢毎に、医用画像データ62、品種情報64、及び年齢情報65を入力とし、入力の医用画像データ62が表す医用画像における異物について、異物情報または判定不能情報を出力とする学習済みモデル38が生成される。そして、学習部52は、生成した学習済みモデル38を記憶部22に記憶する。
本実施形態の診療支援装置10の学習フェーズにおける作用、すなわち、診療支援装置10が実行する学習処理は、第1実施形態の診療支援装置10において実行される学習処理(図9参照)と同様であるため、説明を省略する。
次に、図24を参照して、本実施形態の診療支援装置10の運用フェーズにおける機能的な構成を説明する。本実施形態の診療支援装置10は、取得部54及び導出部56の具体的な動作が第1実施形態の診療支援装置10(図10参照)と異なるため、取得部54及び導出部56の具体的な動作について説明する。
取得部54は、被検体が撮影された医用画像を表す医用画像データ62と、その被検体の品種を表す品種情報64と、年齢を表す年齢情報65とを含む医用情報を取得する。品種情報64及び年齢情報65は、医用画像データ62に付加されていてもよいし、ユーザにより端末装置12の操作部(図示省略)を介して入力されてもよい。
導出部56は、取得部54により取得された医用情報(医用画像データ62、品種情報64、及び年齢情報65)と、学習用医用情報30によって予め学習された学習済みモデル38とに基づいて、被検体の消化管中の異物に関する情報を導出する。具体的には、導出部56は、取得部54によって取得された医用画像データ62を、取得部54により取得された品種情報64が表す犬種及び年齢情報65が表す年齢の組み合わせに応じた学習済みモデル38に入力する。学習済みモデル38は、入力された医用情報に応じて、異物情報または判定不能情報を出力する。
なお、上述したように、犬種及び年齢の組み合わせ毎に複数の除去方法情報40が診療支援装置10の記憶部22に記憶されている場合、出力部57は、取得部54により取得された品種情報64が表す犬種及び年齢情報65が表す年齢の組み合わせに応じた除去方法情報40を参照し、入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して出力する。
次に、本実施形態の診療支援装置10の運用フェーズにおける作用を説明する。なお、診療支援処理の全体的な流れは第1実施形態の図11に示した診療支援処理と同様であるため、図11を参照して説明する。
ステップS200で取得部54は、被検体である犬の医用情報を取得し、導出部56に出力する。具体的には、取得部54は、ユーザによる診療対象である被検体の犬を医用画像撮影装置によって撮影して得られた医用画像を表す医用画像データ62と、その被検体の犬種を表す品種情報64と、年齢を表す年齢情報65とを取得する。
次のステップS202で導出部56は、上述したように取得部54から入力された医用情報と、学習済みモデル38とに基づいて、異物情報を導出する。具体的には、導出部56は、入力された医用情報における品種情報64が表す犬種及び年齢情報65が表す年齢の組み合わせに応じて選択した学習済みモデル38に医用画像データ62を入力させ、学習済みモデル38から出力された異物情報または判定不能情報を取得する。
例えば、図25に示すように、医療情報における品種情報64の表す犬種が「柴犬」であり、かつ年齢情報65が表す年齢が「2ヶ月」の場合、導出部56は、医用画像データ62を犬種が柴犬で年齢が1ヶ月用の学習済みモデル38に入力させる。学習済みモデル38からは、異物情報または判定不能情報が出力される。
次のステップS204で導出部56は、上述したように被検体の消化管中に異物がないか否かを判定する。学習済みモデル38が異物がないことを表す情報を含む異物情報を出力した場合、ステップS204の判定が肯定判定となり、次のステップS206で出力部57は、上述したように、異物がないとした導出結果を出力した後、本診療支援処理が終了する。
一方、学習済みモデル38が出力した異物情報が異物がないことを表す情報を含まない場合、もしくは、学習済みモデル38が判定不能情報を出力した場合、ステップS204の判定が否定判定となり、次のステップS208で導出部56は、上述したように被検体の消化管中に異物があるか否かを判定する。学習済みモデル38が異物があることを表す情報を含む異物情報を出力した場合、ステップS208の判定が肯定判定となる。次のステップS210で出力部57は、上述したように除去方法情報40を参照し、導出部56から入力された異物の位置、大きさ、及び種類の各々を表す情報に対応する除去方法を取得して除去情報を出力した後、本診療支援処理が終了する。
一方、学習済みモデル38は判定不能情報を出力した場合、ステップS208の判定が否定判定となり、次のステップS212で出力部57は、上述したように検査項目情報42から取得した検査項目を出力した後、本診療支援処理が終了する。
このように、本実施形態の診療支援装置10によれば、医用画像データ62、品種情報64、及び年齢情報65を含む医用情報と、学習済みモデル38とに基づいて、被検体の消化管中に異物が存在するか否かが導出される。また本実施形態の診療支援装置10によれば、被検体の消化管中に異物が存在する場合、異物の除去方法をユーザに提示することができる。
本実施形態の診療支援装置10によれば、被検体の犬種及び年齢に応じて異物の除去方法を導出することにより、被検体の大きさ等に応じた異物の除去方法を提供することができるため、被検体の消化管内に存在する異物の除去に関する診療をより効果的に支援することができる。
以上説明したように、上記各実施形態の診療支援装置10は、取得部54と、導出部56と、出力部57とを備える。取得部54は、被検体の消化管を撮影した医用画像を表す医用画像データ62を含む医用情報を取得する。導出部56は、取得部54が取得した医用情報と、消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じた異物ラベル70を付与した医用画像データ32を含む学習用医用情報30を複数用いて予め学習された学習済みモデル38とに基づいて、被検体の消化管中における異物の存在の有無を導出する。また、導出部56は、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出する。出力部57は、導出部56の導出結果に基づいて、異物が存在する場合、異物が存在する位置、大きさ、及び種類の少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する。
被検体が誤飲し異物となる物には、多種多様の種類及び大きさがある。特に、被検体が動物や乳幼児の場合、想定外の物を誤飲することがある。これに対して上記各実施形態の診療支援装置10によれば、医用画像データ62及び品種情報64を含む医用情報と、学習済みモデル38とに基づいて、被検体の消化管中に異物が存在する場合に、その異物の除去方法が出力される。従って、上記各実施形態の診療支援装置10によれば、被検体の消化管内に存在する異物の除去に関する診療を効果的に支援することができる。
なお、被検体の消化管中に存在する異物が何であるかが具体的にわかっており、緊急性を有する場合は、本実施形態の診療支援装置10により出力される除去方法に限定されず、開腹手術等による速やかな除去を行うことが好ましい。
なお、学習済みモデル38は、上記各実施形態に示したモデルに限定されない。例えば、診療支援装置10は、消化管情報36が表す消化管毎に、複数の学習済みモデル38を備える形態であってもよい。この場合の一例として、図26には、医用画像データ32、品種情報34、及び消化管情報36を含む学習用医用情報30を用いた機械学習によって、品種情報34が表す犬種と、消化管情報36が表す消化管との組み合わせ毎に、学習済みモデル38が生成された形態が示されている。例えば、図26に示すように、品種情報34が表す犬種が「柴犬」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xからは、犬種が柴犬で消化管が胃用の学習済みモデル38が生成される。また、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xからは、犬種が柴犬で消化管が小腸用の学習済みモデル3810が生成される。同様に、品種情報34が表す犬種が「ゴールデンレトリバー」の場合、消化管情報36が表す消化管が「胃」の医用画像データ32A~32C、及び32Xからは、犬種がゴールデンレトリバーで消化管が胃用の学習済みモデル3811が生成される。また、消化管情報36が表す消化管が「小腸」の医用画像データ32A~32C、及び32Xからは、犬種がゴールデンレトリバーで消化管が小腸用の学習済みモデル3812が生成される。なお、図26に示した形態の場合、取得部54は、医用画像データ62、品種情報64、及び年齢情報を含む医用情報を取得する。また、導出部56は、品種情報64が表す犬種及び年齢情報が表す年齢の組み合わせに応じて選択した学習済みモデル38に医用画像データ62を入力させ、学習済みモデル38から出力された異物情報または判定不能情報を取得する。
また、学習済みモデル38を生成するために用いられる学習用医用情報30が含む各種情報は、上記各実施形態に限定されない。例えば、上記各実施形態における学習用医用情報30を組み合わせてもよい。
また、上記各実施形態では、被検体として犬を適用した形態について説明したが、被検体はこれに限定されない。例えば、被検体として、人間を適用してもよいし、猫等の犬以外の動物を適用する形態であってもよい。
また、上記各実施形態における診療支援装置10の各機能部等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記実施形態では、学習プログラム23A及び診療支援プログラム23Bが記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。学習プログラム23A及び診療支援プログラム23Bの各々は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、学習プログラム23A及び診療支援プログラム23Bの各々は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
上記の実施形態に関し、さらに以下の付記を開示する。
(付記1)
消化管の各器官に応じて、消化管中に存在する異物に対して、異物の種類に応じたラベルを付与した医用画像データを含む複数の学習用医用情報を取得する取得部と、
前記複数の学習用医用情報を用いて学習させることによって、被検体の消化管中における異物の存在の有無と、異物が存在する位置、大きさ、及び種類の少なくとも1つを表す情報とを含む異物情報を出力する学習済みモデルを生成する学習部と、
を備えた診療装置。
1 診療支援システム
10 診療支援装置
12 端末装置
20 CPU
21 メモリ
22 記憶部
23A 学習プログラム、23B 診療支援プログラム
24 表示部
26 入力部
28 ネットワークI/F
29 バス
30 学習用医用情報
32、32A~32C、32X、62 医用画像データ
33、33A~33C、33X 医用画像
34、64 品種情報
35、65 年齢情報
36 消化管情報
37、67 体型情報
38、38~3812 学習済みモデル
40、40、40 除去方法情報
42 検査項目情報
50、54 取得部
52 学習部
56 導出部
57 出力部
70、70B、70C、70X 異物ラベル
72 判定不能ラベル
N ネットワーク

Claims (9)

  1. 被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得する取得部と、
    前記取得部が取得した前記医用情報と、消化管の各器官に応じて、前記消化管中に存在する異物に対して、前記異物の種類に応じたラベルを付与した前記医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、前記被検体の消化管中における異物の存在の有無を導出し、異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出する導出部と、
    前記導出部の導出結果に基づいて、異物が存在する場合、前記少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する出力部と、
    を備えた診療支援装置。
  2. 前記医用情報は、前記被検体の品種を表す品種情報をさらに含み、
    前記学習用医用情報は、前記品種情報をさらに含む、
    請求項1に記載の診療支援装置。
  3. 前記医用情報は、前記被検体の体型に関する種類を表す体型情報をさらに含み、
    前記学習用医用情報は、前記体型情報をさらに含む、
    請求項1に記載の診療支援装置。
  4. 前記医用情報は、前記被検体の年齢を表す年齢情報をさらに含み、
    前記学習用医用情報は、前記年齢情報をさらに含む、
    請求項1から請求項3のいずれか1項に記載の診療支援装置。
  5. 前記学習済みモデルの学習に用いられる複数の前記学習用医用情報は、前記異物に関する判定が不能であることを表すラベルが付与された医用画像データを含む学習用医用情報をさらに含み、
    前記導出部は、前記取得部が取得した前記医用情報と、前記学習済みモデルとに基づいて前記被検体の消化管中における異物に関する判定が不能であることをさらに導出する、
    請求項1から請求項4のいずれか1項に記載の診療支援装置。
  6. 前記出力部は、前記導出部が判定が不能であることを導出した場合、予め定められた検査項目を表す検査項目情報を出力する、
    請求項5に記載の診療支援装置。
  7. 前記異物は、非病変である、
    請求項1から請求項6のいずれか1項に記載の診療支援装置。
  8. 被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得し、
    取得した前記医用情報と、消化管の各器官に応じて、前記消化管中に存在する異物に対して、前記異物の種類に応じたラベルを付与した前記医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、前記被検体の消化管中における異物の存在の有無を導出し、
    異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出し、
    導出結果に基づいて、異物が存在する場合、前記少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する、
    処理をコンピュータが実行する診療支援方法。
  9. 被検体の消化管を撮影した医用画像を表す医用画像データを含む医用情報を取得し、
    取得した前記医用情報と、消化管の各器官に応じて、前記消化管中に存在する異物に対して、前記異物の種類に応じたラベルを付与した前記医用画像データを含む学習用医用情報を複数用いて予め学習された学習済みモデルとに基づいて、前記被検体の消化管中における異物の存在の有無を導出し、
    異物が存在する場合は、異物が存在する位置、大きさ、及び種類の少なくとも1つを導出し、
    導出結果に基づいて、異物が存在する場合、前記少なくとも1つに応じて予め定められている異物の除去方法を表す除去情報を出力する、
    処理をコンピュータに実行させるための診療支援プログラム。
JP2019182723A 2019-10-03 2019-10-03 診療支援装置、診療支援方法、及び診療支援プログラム Active JP7179707B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019182723A JP7179707B2 (ja) 2019-10-03 2019-10-03 診療支援装置、診療支援方法、及び診療支援プログラム
US17/060,092 US11749400B2 (en) 2019-10-03 2020-10-01 Medical care support device, medical care support method, and medical care support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182723A JP7179707B2 (ja) 2019-10-03 2019-10-03 診療支援装置、診療支援方法、及び診療支援プログラム

Publications (2)

Publication Number Publication Date
JP2021058271A JP2021058271A (ja) 2021-04-15
JP7179707B2 true JP7179707B2 (ja) 2022-11-29

Family

ID=75275170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182723A Active JP7179707B2 (ja) 2019-10-03 2019-10-03 診療支援装置、診療支援方法、及び診療支援プログラム

Country Status (2)

Country Link
US (1) US11749400B2 (ja)
JP (1) JP7179707B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011212094A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 診断支援システム、診断支援装置、診断支援方法および診断支援プログラム
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
WO2013114823A1 (ja) 2012-01-31 2013-08-08 富士フイルム株式会社 手術支援装置、手術支援方法および手術支援プログラム
US20160066787A1 (en) 2014-09-06 2016-03-10 RaPID Medical Technologies, LLC Foreign object detection protocol system and method
WO2018216617A1 (ja) 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013024687A1 (ja) * 2011-08-12 2013-02-21 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及び読影用プログラム
JP7027046B2 (ja) 2016-05-09 2022-03-01 キヤノンメディカルシステムズ株式会社 医用画像撮像装置及び方法
US10799189B2 (en) * 2017-11-22 2020-10-13 General Electric Company Systems and methods to deliver point of care alerts for radiological findings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
JP2011212094A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 診断支援システム、診断支援装置、診断支援方法および診断支援プログラム
WO2013114823A1 (ja) 2012-01-31 2013-08-08 富士フイルム株式会社 手術支援装置、手術支援方法および手術支援プログラム
US20160066787A1 (en) 2014-09-06 2016-03-10 RaPID Medical Technologies, LLC Foreign object detection protocol system and method
WO2018216617A1 (ja) 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2021058271A (ja) 2021-04-15
US20210103769A1 (en) 2021-04-08
US11749400B2 (en) 2023-09-05

Similar Documents

Publication Publication Date Title
US20210151185A1 (en) Information processing device, information processing system, information processing method, and information processing program
JP7113798B2 (ja) 診療支援装置、診療支援方法、及び診療支援プログラム
US11334990B2 (en) Information processing apparatus, information processing method, and program
JP6843785B2 (ja) 診断支援システム、診断支援方法、及びプログラム
JP2021012515A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7179707B2 (ja) 診療支援装置、診療支援方法、及び診療支援プログラム
JP7236974B2 (ja) 診療支援装置、診療支援方法、及び診療支援プログラム
KR20230118054A (ko) 의료 영상으로부터 바이오마커 발현을 예측하는 방법및 시스템
JP7144370B2 (ja) 診断支援装置、診断支援方法、及び診断支援プログラム
US11443430B2 (en) Diagnosis support device, diagnosis support method, and diagnosis support program
JP2021175454A (ja) 医用画像処理装置、方法およびプログラム
JP6968298B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230102745A1 (en) Medical image display apparatus, method, and program
US20230197253A1 (en) Medical image processing apparatus, method, and program
WO2021124869A1 (ja) 診断支援装置、診断支援方法、及び診断支援プログラム
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
US20220230367A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
US20240095915A1 (en) Information processing apparatus, information processing method, and information processing program
US20230121783A1 (en) Medical image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R150 Certificate of patent or registration of utility model

Ref document number: 7179707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150