JP2022179221A - 医療画像処理システム - Google Patents

医療画像処理システム Download PDF

Info

Publication number
JP2022179221A
JP2022179221A JP2021086548A JP2021086548A JP2022179221A JP 2022179221 A JP2022179221 A JP 2022179221A JP 2021086548 A JP2021086548 A JP 2021086548A JP 2021086548 A JP2021086548 A JP 2021086548A JP 2022179221 A JP2022179221 A JP 2022179221A
Authority
JP
Japan
Prior art keywords
swallowing
video signal
endoscopic
video
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021086548A
Other languages
English (en)
Inventor
友一 寺村
Yuichi Teramura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021086548A priority Critical patent/JP2022179221A/ja
Priority to EP22174398.2A priority patent/EP4093025A1/en
Priority to CN202210560835.7A priority patent/CN115444353A/zh
Publication of JP2022179221A publication Critical patent/JP2022179221A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4205Evaluating swallowing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pulmonology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Endocrinology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Dentistry (AREA)
  • Endoscopes (AREA)

Abstract

Figure 2022179221000001
【課題】複数の検査システムによる嚥下検査において、患者の負担を減らし、医師が効率よく嚥下の観察を行える医療画像処理システムを提供する。
【解決手段】持ち運び可能な複数の嚥下検査システムによる嚥下検査を同時に行うことで患者の負担を減らし、患者の鼻腔から挿入された内視鏡により咽喉頭部の嚥下検査を行った内視鏡映像信号と、患者の頸部に当てられた超音波検査端末により気道や食道の観察、咽喉頭部の観察、舌や舌骨周辺の観察を行った超音波映像信号とを取得し、撮影時間を基準に同期処理を行い、ディスプレイ14に同時表示する。
【選択図】図5

Description

本発明は、医療画像処理システムに関する。
内視鏡で被検体内に挿入して観察を行うとき、嚥下検査では主に咽頭部を撮影して画像を取得する。内視鏡による嚥下検査では鼻腔から挿入した内視鏡先端部が咽頭部を撮影し、咽頭期の嚥下の観察を行う。嚥下において、舌から咽頭に食物を送る口腔期、咽頭から食道に食物を送る咽頭期、食道を通過して胃に食物を送る食道期がある。内視鏡による咽頭期の観察により患者の嚥下能力を調べることができるが、咽頭部を撮影して得られる咽頭期の嚥下だけでなく、口腔期又は食道期の嚥下の情報を得られるとより詳しく嚥下の評価や判定を行える。また、咽頭期の嚥下を異なる方法で検査することで更に嚥下の詳細が把握できる。嚥下造影検査は、造影剤を添加した嚥下食を用い、その動態をX 線透視装置で観察する方法であり、嚥下に関連する部位の形態、機能、誤嚥、嚥下食の残留などを観察する。近年、超音波検査装置を用いた観察も行われる様になってきている。超音波装置は、X線の様な放射線被ばくのリスクがなく、体表から検査でき、患者への負担が少ない検査方法である。超音波検査では、食道、気道を観察することで食道期の嚥下の情報を得る検査、咽喉頭部を観察することで食物や飲料の嚥下、誤嚥や残留を観察する検査、舌や舌骨周辺、喉頭部の筋肉の形態を観察して嚥下運動の評価をする検査等がある。
しかし、複数の検査システムを用いるために、短期間に複数回の嚥下検査を行うことは患者に負担がかかる。また、検査する側もそれぞれの検査システムによる嚥下検査の結果を別々に確認するのは効率が悪く、検査結果の管理は煩雑になりがちである。加えて、振り返るのにも時間がかかる。
特許文献1では、内視鏡による嚥下検査とX線透視装置を用いて飲み込み機能の評価を行い、取得した内視鏡動画とX線造影画像を同一画面上に表示することが記載されている。特許文献2では、特定の診断又は処置を行う際に内視鏡、放射線撮影装置、超音波診断装置といった医療機器を使用して撮影を行い、それぞれの取得画像を同一のタブレットPCに無線送信をすることが記載されている。
実用新案登録第3209885号公報 特許第5823535号公報
特許文献1では、内視鏡動画とX線動画の同時表示は、リアルタイムでの表示のため再生タイミングのズレが起きうる。また、嚥下の具体的な観察部位や超音波検査を実施することに関する記載はない。特許文献2では、複数の医療機器を用いて手術室で診断や処置を行うが、嚥下検査を行う旨の記載はなく、撮影装置が持ち運び可能である記載もない。上記の点を踏まえ、複数のシステムで嚥下を撮影した動画の同時再生をタイムラグが無く正確に行うことで、嚥下の観察を正確に行い、効率よく嚥下の観察を行えることが望ましい。
本発明は、複数の検査システムによる嚥下検査において、患者の負担を減らし、医師が効率よく嚥下の観察を行える医療画像処理システムを提供することを目的とする。
本発明の医療画像処理システムは、プロセッサを備え、プロセッサは、患者の鼻腔から挿入された内視鏡により患者の咽喉部の嚥下検査を撮像して得られる内視鏡映像信号を受信し、患者の頸部に当てられた超音波検査端末により取得した食道、気道、咽喉頭部、舌又は舌骨周辺の超音波映像信号を受信し、内視鏡映像信号及び超音波映像信号をディスプレイに同時表示する。
プロセッサは、内視鏡映像信号及び超音波映像信号の取得時に、プロセッサの時刻を基準とした撮影時間を記録し、撮影時間を基準に、内視鏡映像信号及び超音波映像信号を同期させるための同期処理を行い、同期処理された内視鏡映像信号及び超音波映像信号をディスプレイに同期して再生することが好ましい。
内視鏡映像信号及び超音波映像信号は、自動再生又はユーザ操作による再生が行われることが好ましい。
プロセッサは、内視鏡映像信号及び超音波映像信号の取得時に、プロセッサの時刻を基準とした撮影時間を記録し、撮影時間を基準に、内視鏡映像信号及び超音波映像信号の同期処理を行い、内視鏡映像信号から嚥下タイミングを検出し、嚥下タイミングにタグ付けを行い、内視鏡インデックス動画を抽出し、嚥下タイミングの内視鏡映像信号と撮影時間が同じである超音波映像信号にタグ付けを行い、超音波インデックス動画を抽出し、内視鏡インデックス動画及び超音波インデックス動画をディスプレイに再生することが好ましい。
プロセッサは、内視鏡映像信号及び超音波映像信号の取得時に、プロセッサの時刻を基準とした撮影時間を記録し、撮影時間を基準に、内視鏡映像信号及び超音波映像信号の同期処理を行い、内視鏡映像信号から嚥下タイミングを検出し、超音波映像信号から非嚥下タイミングを検出し、嚥下タイミングの内視鏡映像信号のうち、非嚥下タイミング以外の超音波映像信号と撮影時間が同じである内視鏡映像信号に対してタグ付けを行って、内視鏡インデックス動画を抽出し、非嚥下タイミング以外の超音波映像信号のうち、嚥下タイミングの内視鏡映像信号と撮影時間が同じである超音波映像信号に対してタグ付けを行って、超音波インデックス動画を抽出し、内視鏡インデックス動画及び超音波インデックス動画をディスプレイに再生することが好ましい。
内視鏡インデックス動画及び超音波インデックス動画は、自動再生又はユーザ操作による再生が行われることが好ましい。
プロセッサは、内視鏡映像信号及び超音波映像信号から正常な嚥下、誤嚥、または不明な嚥下のいずれかを嚥下タイミングとして検出し、嚥下タイミングが検出されたフレーム画像に対して嚥下タイミング検出のタグ付けを行うことが好ましい。
内視鏡映像信号及び超音波映像信号は、フレーム画像が連続したフレーム画像群によって構成され、プロセッサは、内視鏡映像信号の嚥下タイミングの有無の判定には、フレーム画像間のブレ量の算出、フレーム画像に基づくキーポイントの算出、又は、フレーム画像間の画素値の差分のいずれかを用い、超音波映像信号の嚥下タイミングの有無の判定には、機械学習を用いることが好ましい。
プロセッサは、内視鏡インデックス動画又は超音波インデックス動画の少なくとも一方を解析して、嚥下検査の種類を特定することが好ましい。
プロセッサは、嚥下検査の種類を嚥下検査食の種類及び嚥下の結果で分類し、分類に基づいて、内視鏡インデックス動画及び超音波インデックス動画にインデックス番号の付与を行うことが好ましい。
プロセッサは、内視鏡映像信号及び超音波映像信号の取得において、フレームレートを60fpsで撮影を行い、撮影は100分の1秒単位で時間を数えることが好ましい。
プロセッサは、内視鏡映像信号及び超音波映像信号を同期せずにディスプレイにリアルタイムで同時表示することが好ましい。
プロセッサは、超音波検査端末による観察に代えて、放射線観測装置により患者の嚥下検査を観察した放射線透視映像信号を受信し、内視鏡映像信号及び放射線透視映像信号をディスプレイに表示してもよい。
プロセッサは、超音波検査端末による観察に加えて、放射線観測装置により患者の嚥下検査を観察した放射線透視映像信号を受信し、内視鏡映像信号、超音波映像信号、及び放射線透視映像信号をディスプレイに表示してもよい。
複数の嚥下検査システムによる嚥下検査を同時に行うことで患者の負担を減らし、取得した動画を同一画面で表示することで医師の負担を減らして、効率よく正確な嚥下の観察を行う。
内視鏡システム及び超音波システムを有する医療画像処理システムの概略図である。 食物の嚥下の段階を示す図である。 嚥下検査における内視鏡及び超音波検査端末による観察部位を示す図である。 プロセッサ装置の機能を示すブロック図である。 内視鏡動画と超音波動画を同期して同時に画面表示する図である。 内視鏡動画を単独で画面表示する図である。 食物を嚥下する場合及び嚥下しない場合の咽頭の画像図である。 食物を嚥下する場合及び嚥下しない場合の食道の画像図である。 内視鏡動画及び超音波動画から、インデックス動画を抽出する図である。 嚥下の分類結果及びインデックス番号への振り分けを示す図である。 内視鏡インデックス動画と超音波インデックス動画を同期して同時に画面再生する画像図である。 内視鏡インデックス動画を再生表示する画像図である 内視鏡動画と超音波動画を同期再生するフローチャートである。 第2実施形態における内視鏡システム及び放射線システムを有する医療画像処理システムの概略図である。 内視鏡動画及び放射線透視動画を同期再生する画像図である。 内視鏡動画及び放射線透視動画からインデックス動画を抽出する画像図である。 第3実施形態における内視鏡システム、超音波システム、及び放射線システムを有する医療画像処理システムの概略図である。 内視鏡動画、超音波動画、及び放射線透視動画を同期再生する画像図である。 内視鏡動画、超音波動画、及び放射線透視動画からインデックス動画を抽出する画像図である。
[第1実施形態]
図1に示すように、医療画像処理システム10は、内視鏡システム11と、超音波システム12と、プロセッサ装置13と、ディスプレイ14と、ユーザインターフェース15とを有する。プロセッサ装置13は、内視鏡システム11、超音波システム12、ディスプレイ14、及びユーザインターフェース15と電気的に接続する。プロセッサ装置13は、内視鏡システム11を構成する内視鏡11a、及び超音波システム12を構成する超音波検査端末12aから嚥下検査で取得した映像信号を取得する。ユーザインターフェース15は、プロセッサ装置13への設定入力等を行う入力デバイスであり、キーボードなどが含まれる。
また、内視鏡11a及び超音波検査端末12aは、電池で動作して患者の嚥下検査の映像を取得する。嚥下は動態であるため、嚥下検査では動画データとなる映像信号を取得する。映像信号は無線でプロセッサ装置13に送信することが好ましい。なお、嚥下の撮影において特に指定がない場合は、照明光は白色光を使用し、1秒間に60フレーム画像(60fps(frame per second))の映像信号を取得し、プロセッサ装置13を基準とする撮影時間を記録する。また、映像信号が60fpsの場合は100分の1秒単位で時刻を数えることが好ましい。プロセッサ装置13、ディスプレイ14、及びユーザインターフェース15はタブレット端末として一体化し、内視鏡システム11及び超音波システム12と合わせて持ち運び可能な医療画像処理システムであることが好ましい。
図2に示すように、嚥下とは、口に入れた食物Fを咀嚼し、飲み込み、胃へと送る一連の動態である。その進行には、口に入れた食物Fが舌から咽頭へ送られる「口腔期」、食物Fが咽頭から食道へ送られる「咽頭期」、食物Fが食道から胃へ送られる「食道期」がある。本実施形態は内視鏡11aで咽頭を検査して嚥下の「咽頭期」の、超音波検査端末12aで食道を検査して嚥下の「食道期」の動画を主に取得する。食物Fは飲み込んでも人体に害が無く、かつ嚥下のしやすさが異なる複数の液体や個体を用いる。例えば、牛乳、着色した水溶液、及びプリンなどである。
嚥下検査では、患者が食物Fを口に含み、咽頭にて飲み込み、食道を通過して胃へ送る際の様子を撮影する。患者が食物Fを飲み込めなくても中止せずに撮影する。嚥下検査を実施する際には、嚥下は1回ではなく、複数回の嚥下を患者の無理のない範囲で撮影することが好ましい。
図3に示すように、内視鏡11aは患者の鼻腔Ncから挿入し、位置R付近に先端である内視鏡先端部11bが来るようにして照明光で照明した咽頭部周辺における食物Fの嚥下の撮影を行う嚥下内視鏡である。超音波検査端末12aは、患者の頸部に当て、のど部Th付近に先端である超音波検査端末接触部12bが接触するようにして気道から食道にかけての食物Fの嚥下の撮影を行う。なお、超音波検査では、超音波検査端末接触部12bが接触する患者の体表の部位は専用のジェルをあらかじめ塗布して行うことが好ましい。内視鏡先端部11bは地面に対しておよそ水平に撮影を行い、超音波検査端末接触部12bは地面に対しておよそ垂直に撮影を行う。また超音波検査端末12aは、当てる部位を変えることで食道期に加えて、咽頭期及び口腔期における嚥下の撮影も行うことができる。
図4に示すように、プロセッサ装置13では、画像処理などの処理に関するプログラムがプログラム用メモリ(図示しない)に格納されている。プロセッサ装置13においては、プロセッサによって構成される中央制御部20によって、プログラム用メモリ内のプログラムが動作することによって入力受信部21と、表示制御部22と、保存メモリ23と、内視鏡動画処理部24と、超音波動画処理部25と、動画編集部30の機能が実現される。また、動画編集部30の機能実現に伴って、一時保存メモリ31と、動画同期部32と、嚥下タイミング検出部33と、インデックス動画抽出部34と、嚥下分類部35の機能が実現される。なお、嚥下タイミング検出部33の機能は、内視鏡システム11にあっても良い。
内視鏡システム11で取得した内視鏡映像信号は、内視鏡動画処理部24を介して動画編集部30に送られ、超音波システム12で取得した超音波映像信号は、超音波動画処理部25を介して動画編集部30に送られる。入力受信部21は、ユーザインターフェース15と接続する。表示制御部22は、動画同期部32で同期した動画をディスプレイ14に表示させる制御を行う。保存メモリ23は各映像信号を動画として一時保存する。
嚥下検査の撮影終了後は、動画を記録している場合、通常動画同期モード又はインデックス動画同期モードのどちらかに切り替えられる。通常動画同期モードは動画の保存及び同期を行い、インデックス動画同期モードは動画の保存、同期、インデックス動画の抽出、及び嚥下検査の種類の分類を行う。嚥下検査中は、撮影内容をリアルタイムに表示するリアルタイム表示モードに設定される。
嚥下検査における撮影が終了すると、リアルタイム表示モードから通常動画同期モード又はインデックス動画同期モードのどちらかに切り替わる。どちらのモードに切り替わるかは、リアルタイム表示モードの終了までにユーザインターフェース15を介して設定しておくことが好ましい。なお、動画の取得は、嚥下検査終了後のタイミングであるが、嚥下検査中にリアルタイムで各映像信号を処理してもよい。
通常動画同期モードについて説明する。図5に示すように、取得した各映像信号は、一時保存メモリ31で内視鏡動画41及び超音波動画51として一時保存され、動画同期部32で撮影時間を基準に同期処理が行われる。同期後の内視鏡動画41及び超音波動画51は表示制御部22を介してディスプレイ14に並べられ、同期再生される。また、再生ボタン61、早戻しボタン62、早送りボタン63、一時停止ボタン64、シークバー65、スライダー66、リピート再生ボタン67、画面切替ボタン68が備わり、ユーザは、ユーザインターフェース15を介してこれらの機能を使用できる。
一時保存メモリ31では、動画編集部30に送られた、嚥下検査を記録した各映像信号が内視鏡動画41及び超音波動画51として一時的に保存される。一時保存が完了した各動画は動画同期部32に送信される。
動画同期部32では、一時保存メモリ31に一時保存された内視鏡動画41及び超音波動画51の同期処理が行われる。同期処理は、撮影時間を基準に、フレーム単位で内視鏡動画41と超音波動画51が同期され、再生画面での同時再生が可能となる。また、患者の情報や、撮影日時などの情報の同期も行われる。なお、同期の基準とする撮影時間はあらかじめ内視鏡システム11と超音波システム12がプロセッサ装置13と時刻を合わせたものであり、同期処理後の内視鏡動画41及び超音波動画51は表示制御部22に送られる。
表示制御部22では同期処理済みの内視鏡動画41及び超音波動画51は、ディスプレイ14の再生画面に表示され、自動再生又はユーザ操作による再生が行われる。ユーザは同時再生の様子を観察する。再生画面では、再生ボタン61を押すことで自動再生が終了した内視鏡動画41及び超音波動画51を繰り返し再生でき、早戻しボタン62で見逃したシーンを遡り、早送りボタン63で動画再生スピードを上げ、一時停止ボタン64で任意のタイミングで再生を停止できる。動画の再生状況はシークバー65上のスライダー66の位置で表され、スライダー66の位置をドラッグなどのユーザ操作で移動させ、再生地点を自由に変更できる。リピート再生ボタン67を選択すると、再生終了した内視鏡動画41及び超音波動画51が繰り返し再生を行う。
図6に示すように、ディスプレイ14の動画再生は、画面切替ボタン68を使うことで同期した内視鏡動画41と超音波動画51が2画面同期表示から1画面表示に切り替えることができる。1画面表示するのは内視鏡動画41とし、再び画面切替ボタン68を選択して超音波動画51の1画面表示に画面が切り替わり、更に再び画面切替ボタン68を選択すると2画面同期表示に画面が切り替わることが好ましい。1画面表示の場合、動画情報表示欄69を展開し、患者の情報などの動画情報を表示し、ユーザインターフェース15を介して、ユーザが動画情報を入力してもよい。
ユーザは入力受信部21を介してユーザインターフェース15から動画情報表示欄69に表示された内視鏡動画41及び超音波動画51の情報の確認及び、追加や修正といった編集を行うことができる。情報は、例えば動画再生して得られた所見、患者の性別や年齢層、などの特徴である。編集した動画情報を含む内視鏡動画41と超音波動画51は、保存メモリ23に保存される。
インデックス動画同期モードについて説明する。内視鏡動画41及び超音波動画51は、通常動画同期モードと同様に、一時保存メモリ31で一時保存され、動画同期部32で撮影時間を基準に同期処理が行われる。同期後の内視鏡動画41及び超音波動画51は嚥下タイミング検出部33で嚥下タイミングを有するフレーム画像の検出及びタグ付けが行われる。インデックス動画抽出部34では効率よく嚥下観察を行うために、嚥下が行われたシーンとしてインデックス動画の抽出が行われる。嚥下分類部35でインデックス動画の種類などが自動分類される。自動分類後は、表示制御部22を介してディスプレイ14に並べられ、同期再生される。
通常動画同期モード及びインデックス動画同期モードはどちらも一時保存メモリ31の一時保存と、動画同期部32の同期処理は共通して行われる。そのため、同期処理の完了時までに通常動画同期モード及びインデックス動画同期モードの切り替えをしてもよい。
図7は、内視鏡動画41を構成する、食物Fが咽頭を通過する状態を映す内視鏡嚥下フレーム画像42と、食物Fが咽頭を通過しない状態を映す内視鏡非嚥下フレーム画像43である。内視鏡動画41の撮影において、撮影開始は患者が食物Fを口に含む前後で、撮影終了は誤嚥を含む嚥下が行われた後となるが、嚥下を捉えた時間は長くても数秒間であるため内視鏡動画41を構成するフレーム画像は、内視鏡非嚥下フレーム画像43が多くなる。
図8は、超音波動画51を構成する、食物Fが食道を通過する状態を映す超音波嚥下フレーム画像52と、食物Fが食道を通過しない状態を映す超音波非嚥下フレーム画像53である。超音波動画51の撮影は、内視鏡動画41と同様に撮影を開始及び終了するため、超音波動画51の構成は、食物Fを映さない超音波非嚥下フレーム画像53が多くなる。
嚥下タイミング検出部33では、内視鏡動画41に対してディープラーニング等による機械学習専用のツールで画像解析し、咽頭にて食物Fが通過する際の動態である咽頭期嚥下タイミングを有するか否かを判別する咽頭期嚥下検出処理が行われる。咽頭期嚥下タイミングであると判別される部分は、食物Fが映る内視鏡嚥下フレーム画像42であり、咽頭期嚥下検出処理により嚥下タイミングとして検出されると「嚥下タイミング検出」とタグ付けが行われる。
また、内視鏡動画41と同様に超音波動画51に対してディープラーニング等による機械学習専用のツールで画像解析し、食道にて食物Fが通過する際の動態である食道期嚥下タイミングを有するか否かを判別する食道期嚥下検出処理が行われる。食道期嚥下タイミングであると判別される部分は、食物Fが映る超音波嚥下フレーム画像52であり、食道期嚥下検出処理により嚥下タイミングとして検出されると「嚥下タイミング検出」とタグ付けが行われる。
タグ付け後の内視鏡動画41及び超音波動画51は、インデックス動画抽出部34に送信される。なお、嚥下タイミングが検出されなった内視鏡動画41及び超音波動画51は保存メモリ23に保存することが好ましい。その際、一時保存メモリ31からは削除する。
インデックス動画抽出部34は、内視鏡動画41から「嚥下タイミング検出」とタグ付けされたフレーム画像を含む連続したフレーム画像群である内視鏡インデックス動画44を抽出し、同様に超音波動画51から「嚥下タイミング検出」とタグ付けされたフレーム画像を含む連続したフレーム画像群である超音波インデックス動画54を抽出する。
具体的には、図9に示すように、内視鏡動画41及び超音波動画51が有する「嚥下タイミング検出」とタグ付けされた咽頭期嚥下フレーム画像群45から食道期嚥下フレーム画像群55の連続したフレーム画像群、及びその前後に連続する一定期間のフレーム画像群を抽出する。一定期間とはあらかじめユーザが設定した3秒又は5秒程度の時間であり、食物Fの通過前の咽頭の動き、又は食物Fの通過後の食道の動き等を捉えていることが好ましい。矢印は時間進行を表し、動画の再生をした場合、矢印の向きに沿って再生表示される。内視鏡インデックス動画44及び超音波インデックス動画54は、咽頭期及び食道期の嚥下タイミングを含む。抽出された内視鏡インデックス動画44及び超音波インデックス動画54は嚥下分類部35に送信される。
内視鏡動画41と超音波動画51は同期しているため、一方の動画のタグ付けの結果を、もう一方の動画に同期して、インデックス動画の抽出を行ってもよい。これにより一方の動画のみで検出した嚥下タイミングに関してもう一方の動画での映像の見え方を確認できる。
内視鏡動画41が撮影した嚥下タイミングは、咽頭期であり、超音波動画51が撮影した嚥下タイミングは食道期であるため、同期して再生した際の食物Fが映る期間は一致しない。そのため、各インデックス動画の抽出の範囲は、内視鏡動画41が捉えた咽頭期嚥下タイミングと、超音波動画51が捉えた食道期嚥下タイミングの両方を有することが好ましい。なお、咽頭期と食道期の嚥下は連続しており、各嚥下タイミングは1秒にも満たない程度の時間差であるため、1秒未満の時間差で検出された咽頭期嚥下タイミングと、食道期嚥下タイミングは同一の嚥下であると判定することができる。
また、各インデックス動画を抽出するために嚥下タイミング検出及びタグ付けを行う方法は複数のパターンがあり、上記記載の内視鏡動画41と超音波動画51のそれぞれで嚥下タイミングを検出してタグ付けを行うパターンを第1パターンとし、以下に第2~第6パターンの例を挙げる。同期処理を用いてタグ付けを行う場合は食道期嚥下タイミングと咽頭期嚥下タイミングを区別せずに、嚥下タイミングとして各動画又は各画像信号から検出してもよい。
第2パターンでは、内視鏡動画41で検出した嚥下タイミングにタグ付けし、同期した超音波動画51の撮影時間が同じである部分に反映して超音波動画51の嚥下タイミングとしてタグ付けする。そのため、超音波動画51における嚥下タイミングの検出は行わない。
第3パターンでは、超音波動画51で検出した嚥下タイミングにタグ付けし、同期した内視鏡動画41の撮影時間が同じである部分に反映して内視鏡動画41の嚥下タイミングとしてタグ付けする。そのため、内視鏡動画41における嚥下タイミングの検出は行わない。
内視鏡動画41、超音波動画51の両方の動画を組み合わせて、嚥下タイミングの検出を行ってもよい。単独の動画を用いた嚥下タイミングの検出において非検出となる場合や誤検出する場合があるが、内視鏡動画41と超音波動画51の両方の動画を組み合わせて使う事で、検出の精度が向上する。例えば、内視鏡動画41においては、咳やムセで咽頭部が激しく動くと、内視鏡動画41では嚥下時の挙動と区別がつかないため嚥下タイミングとして誤検出するが、超音波動画51においては筋肉の挙動が異なるために非嚥下と判断でき、内視鏡動画41で検出した嚥下タイミングから除外できる。例えば、超音波動画51においては、検査食を用いた検査と、患者が無意識に嚥下動作をした場合とが区別できないためを実施する場合において、超音波動画51においては嚥下タイミングとして検出されるが、内視鏡動画41においては検査食の流入、非流入が画像で判別できるため、検査食の嚥下以外を除外できる。
第4パターンでは、内視鏡動画41及び超音波動画51における嚥下タイミング検出後、同期した内視鏡動画41及び超音波動画51を比較し、撮影時間が一致する嚥下タイミングの各画像信号に対してのみタグ付けを行う。
第5パターンでは、内視鏡動画41において嚥下タイミング且つ、同期した超音波動画51では非嚥下タイミング以外のタグ付けを行う。例えば、内視鏡動画41から嚥下タイミングの内視鏡映像信号を検出し、また超音波動画51から嚥下タイミング、非嚥下タイミング、及び不明タイミングのうち少なくとも非嚥下タイミングの超音波映像信号を検出する。嚥下タイミングの内視鏡映像信号のうち、非嚥下タイミング以外の超音波映像信号と撮影時間が同じである内視鏡映像信号に対してタグ付けを行い、また、非嚥下タイミング以外の超音波映像信号のうち、嚥下タイミングの内視鏡映像信号と撮影時間が同じである超音波映像信号に対してタグ付けを行う。
第6パターンでは、超音波動画51において嚥下タイミング且つ、同期した内視鏡動画41では非嚥下タイミング以外のタグ付けを行う。例えば、超音波動画51から嚥下タイミングの超音波映像信号を検出し、また内視鏡動画41から嚥下タイミング、非嚥下タイミング、及び不明タイミングのうち少なくとも非嚥下タイミングの内視鏡映像信号を検出する。嚥下タイミングの超音波映像信号のうち、非嚥下タイミング以外の内視鏡映像信号と撮影時間が同じである超音波映像信号に対してタグ付けを行い、また、非嚥下タイミング以外の内視鏡映像信号のうち、嚥下タイミングの超音波映像信号と撮影時間が同じである内視鏡映像信号に対してタグ付けを行う。
嚥下分類部35では、内視鏡インデックス動画44及び超音波インデックス動画54を解析した嚥下検査の嚥下食の種類や結果の分類、又はインデックス番号などの付与が行われる。嚥下食は、嚥下した食物Fの種類で、例えば唾を飲み込む、牛乳を飲み込む、着色した水溶液を飲みこむ、プリンを食べる等があり、またそれらの嚥下が正常であったか誤嚥があったか、又は不明であるかの結果を分類する。誤嚥の程度により点数付けしたスコア評価を用いてもよい。これらを機械学習により学習したデータをもとに自動分類する。自動分類した嚥下検査食の種類の情報は内視鏡インデックス動画44及び超音波インデックス動画54に付与することが好ましい。分類後の内視鏡インデックス動画44及び超音波インデックス動画54は表示制御部22に送信される。なお、嚥下検査の結果は、嚥下タイミング検出部33で判別を行い、その結果を用いてもよい。
インデックス番号は、保存メモリ23等に保存された各インデックス動画をユーザが検索する際に用いられる番号であり、嚥下タイミングを検出した順番及び嚥下検査食の種類等を英数字表記するような、重複せず、かつ桁数の少ない文字列であることが好ましい。その場合、嚥下検査食の種類をつば(sa)、牛乳(mi)、着色水(cw)、プリン(pu)、不明(un)とし、加えて正常な嚥下(S)、誤嚥あり(A)、または不明な嚥下(U)を分類する。また、動画の種類に応じて、内視鏡インデックス動画44には(1)、超音波インデックス動画54には(2)を末尾につける。
図10に示すように、例えば、連続して抽出した内視鏡インデックス動画44a、44b、44c、44d、44eとそれらに同期する超音波インデックス動画54a、54b、54c、54d、54eは嚥下分類部35で嚥下の種類の特定が行われる。同期している内視鏡インデックス動画と超音波インデックス動画で1つの嚥下検査の結果を求める。嚥下検査食、嚥下検査の結果、及び動画の種類を示す記号が嚥下タイミングを検出した順番を示すインデックス番号に組み込まれる。嚥下タイミングを検出した順に内視鏡インデックス動画44a~44eが順に抽出されたものとすると44aはつばの正常嚥下で「001saS1」、44bは牛乳の正常嚥下で「002miS1」、44cは着色水の不明な嚥下で「003cwU1」、44dはプリンの誤嚥ありで「004puA1」、44eは不明で正常嚥下「005unS1」となり、それぞれに同期する超音波インデックス動画54a~54eも同様の結果である場合は、54aは「001saS2」、54bは「002miS2」、54cは「003cwU2」、54dは「004puA2」、54eは「005unS2」となる。
表示制御部22は、ディスプレイ14に表示する画面の切り換えの制御などを行う。嚥下検査を実施しているときは観察画面としてユーザが観察しているリアルタイム映像を表示し、撮影が終了して取得した動画などを表示する時は再生画面として表示を行う。観察画面における再生は、自動再生又はユーザ操作により行われる。
動画編集部30では、内視鏡動画41及び超音波動画51の取得から内視鏡インデックス動画44及び超音波インデックス動画54の画面表示までは自動で進行する。内視鏡11a及び超音波検査端末12aによる撮影が終了すると、ディスプレイ14の表示が観察画面から再生画面に切り替わる。再生画面では、取得した内視鏡動画41から抽出された内視鏡インデックス動画44及び超音波動画51から抽出された超音波インデックス動画54が表示される。
同期した内視鏡インデックス動画44と超音波インデックス動画54は、一方の動画にタグ付けや情報の付加が行われると、もう一方の動画にもタグ付けや情報の付加が同期して行われる。例えば、「嚥下タイミング」のタグ付けが内視鏡インデックス動画44の任意のフレーム画像に行われると、同期処理によって同期した超音波動画51の対応するフレーム画像にも「嚥下タイミング」のタグ付けが行われる。
同期内容は、撮影時間を基準にした100分の1秒単位で対応する各フレーム画像に同期する。タグ付けの内容以外にも、嚥下分類部35での分類結果や、動画編集部30での編集結果も反映される。また、ユー内視鏡映像信号及び超音波映像信号が指定した任意の内容を同期しないようにしてもよい。
図11に示すように、ディスプレイ14に表示する再生画面での内視鏡インデックス動画44及び超音波インデックス動画54は、図5と同様に2種類の動画の同時表示及び同期再生を行う。そのため咽頭と食道の同時観察し、咽頭から食道の食物Fの動きを連続して同時に観察できる。再生画面には動画再生をユーザが操作するための再生ボタン61、早戻しボタン62、早送りボタン63、一時停止ボタン64、シークバー65、スライダー66、リピート再生ボタン67、及び画面切替ボタン68が備わり、ユーザはユーザインターフェース15を介してこれらの機能を使用できる。
図12に示すように、ディスプレイ14に表示する再生画面での内視鏡インデックス動画44及び超音波インデックス動画54は、図11の同時再生から画面切替ボタン68によって切り替えて図6と同様に単独で表示してもよい。単独表示の場合は、動画情報表示欄69を展開し、更に嚥下分類部35で付与された嚥下の種類やインデックス番号を表示してもよい。また、内視鏡インデックス動画44の動画タイトルはインデックス番号をそのまま当てはめてもよい。
ユーザは入力受信部21を介してユーザインターフェース15から動画情報表示欄69に表示された内視鏡インデックス動画44及び超音波インデックス動画54の情報の確認及び、追加や修正といった編集を行うことができる。例えば、動画再生して得られた所見、患者の性別や年齢層、などの特徴である。また、自動分類された嚥下検査食の種類や誤嚥の有無などの編集を行ってもよい。
ユーザは動画情報表示欄69の情報の編集の他に、インデックス動画の抽出範囲の編集も行うことができる。再生画面で振り返りの結果、嚥下タイミングの誤検出や抽出が不十分な場合などでは、嚥下タイミングを有する内視鏡インデックス動画44及び超音波インデックス動画54を、一時保存メモリ31に保存した内視鏡動画41を参照した手動抽出を含む再抽出又は再検査を行って再取得してもよい。
各種動画情報の確認及び編集が終わった内視鏡インデックス動画44及び超音波インデックス動画54は、保存メモリ23に保存する。その際、一時保存メモリ31に保存した抽出元の内視鏡動画41及び超音波動画51は削除することが好ましい。
内視鏡動画41及び超音波動画51の嚥下検出処理におけるディープラーニングでは、あらかじめ検出対象となる画像の特徴をツールに学習させ、ツールは解析したフレーム画像に対して検出対象である確率を算出し、閾値以上の確率を有するフレーム画像が検出対象であると判定される。検出対象は食物Fを捉えた咽頭であり、食物Fの動きを追跡し、内視鏡嚥下フレーム画像42又は超音波嚥下フレーム画像52を検出し、タグ付けを行う。なお、ディープラーニングでは嚥下検査に用いる食物Fの種類に応じた分の学習が必要となる。
内視鏡動画41が記録する咽頭期嚥下タイミングは患者が食物Fを飲み込む際の咽頭の動態であるが、その検出には食物Fを認識するディープラーニングである必要はなく、嚥下中の画像の特徴や前後のフレーム画像同士の変化等によって嚥下検出処理を行ってもよい。具体的には、「前後フレーム画像の画素値差分」「フレーム画像のブレ量」「画像のキーポイント数」等を用いた嚥下検出アルゴリズムによる嚥下検出処理を行ってもよい。なお、いずれの嚥下検出処理であっても、嚥下中と判定されたフレーム画像には「嚥下タイミング検出」とタグ付けを行う。
「前後フレーム画像の画素値差分」による検出アルゴリズムでは、嚥下中の画像はフレーム画像間で被写体の移動量が大きいため、前後のフレーム画像間の単純画素値の差分を算出する。嚥下タイミング検出部33は、時系列的に前後する2つのフレーム画像に係る画素値の差分の算出を行う。差分(単純差分値)を求めるための関数は、画像解析に用いられるOpenCV(登録商標)に搭載されているAbsDiffを用いることが好ましい。
「フレーム画像のブレ量」による検出アルゴリズムでは、嚥下中の画像はフレーム画像間で被写体のブレが大きいため、フレーム画像間のブレの大きさを表すエッジ量を算出する。嚥下タイミング検出部33は、時系列的に前後する2つのフレーム画像に係るエッジ量の算出を行う。エッジ量を求めるための関数は、画像解析に用いられるOpenCV(登録商標)に搭載されているVariance Of Laplacianを用いることが好ましい。
「キーポイント数」による検出アルゴリズムでは、嚥下中の画像はフレーム画像間で被写体のブレが大きいためフレーム画像のエッジが不鮮明になり、キーポイント数が減少する。キーポイントとは、フレーム画像を線で表して抽出したエッジのうち、エッジ量が大きい角(コーナー)である度合が高い部分である特徴点を指し、嚥下タイミング検出部33は、フレーム画像に係るキーポイント数の算出を行う。キーポイント数を求めるための関数は、画像解析に用いられるOpenCV(登録商標)に搭載されているCount Key Pointを用いることが好ましい。なお、特徴点抽出には画像解析に用いられるOpenCV(登録商標)に搭載されているAKAZE(Accelarated KAZE)を用いる。本実施形態における特徴点抽出では、画像の中のエッジ量が高い部分(「角」、「コーナー」と認識される部分)を認識することが好ましい。
リアルタイム表示モードについて説明する。内視鏡システム11及び超音波システム12で撮影中の同期処理が行われていないリアルタイム映像をディスプレイ14に並べて表示する。内視鏡システム11で咽頭部内視鏡検査を開始して撮影した映像信号は、プロセッサ装置13の内視鏡動画処理部24を介して表示制御部22に送られる。また、超音波システム12で食道部内視鏡検査を開始して撮影した映像信号は、プロセッサ装置13の超音波動画処理部25を介して表示制御部22に送られる。表示制御部22は、映像信号をそのままリアルタイム映像としてディスプレイ14に表示する。なお、撮影した嚥下検査の動画を記録する場合は、内視鏡11a及び超音波検査端末12aに備わるスイッチ等でユーザが開始と終了を決めることが好ましい。
図13は、内視鏡動画撮影及び超音波動画撮影による2システムによる嚥下検査のインデックス動画を取得する一連の流れを示すフローチャートである。以下に嚥下検査において内視鏡インデックス動画44及び超音波インデックス動画54を抽出し、再生する流れを説明する。ユーザは、リアルタイム表示モード中に内視鏡11aで撮影した咽頭部における嚥下検査の様子を撮影した内視鏡動画41と、超音波検査端末12aで撮影した食道部における嚥下検査の様子を撮影した超音波動画51を取得する。嚥下検査の撮影終了後は通常動画同期モード又はインデックス動画同期モードに切り替わる。どちらの場合でも、取得した内視鏡動画41は内視鏡動画処理部24を介し、超音波動画51は超音波動画処理部25を介して動画編集部30へ送信される。動画編集部30に送信された内視鏡動画41及び超音波動画51は、一時保存メモリ31に保存された後、動画同期部32で同期処理が行われる。
同期処理後の内視鏡動画41及び超音波動画51は、通常動画同期モードの場合はディスプレイ14に表示し、同期再生を行うことで2種類の画像から嚥下タイミングを観察する。インデックス動画同期モードの場合は、同期した内視鏡動画41及び超音波動画51は、嚥下タイミング検出部33にて解析して嚥下タイミングを撮影したフレーム画像である咽頭期嚥下フレーム画像群45または食道期嚥下フレーム画像群55を特定する。嚥下タイミング検出部33の次にインデックス動画抽出部34に送信された内視鏡動画41および超音波動画51は、咽頭期嚥下フレーム画像群45から食道期嚥下フレーム画像群55および、その前後の一定時間分のフレーム画像が内視鏡インデックス動画44及び超音波インデックス動画54として抽出される。抽出された内視鏡インデックス動画44及び超音波インデックス動画54は、嚥下分類部35に送信され、機械学習により嚥下検査の種類の分類やインデックス番号の付与が行われる。その後、内視鏡インデックス動画44及び超音波インデックス動画54は表示制御部22に送信され、ディスプレイ14に表示し、同期再生を行うことで2種類の画像から嚥下タイミングを短時間で観察する。
通常動画同期モード及びインデックス動画同期モードで同期再生による観察を行った後は、嚥下検査の種類などの確認及び、追加や修正といった編集を行うことができる。動画情報の編集が終わった各動画はプロセッサ装置13内の保存メモリ23に保存する。その場合、一時保存メモリ31に保存された内視鏡動画41及び超音波動画51は必要が無い場合は削除することが好ましい。取得した動画の数が抽出の失敗等で足りない場合や映り具合が悪かった場合は再検査して再び動画を取得する。
超音波検査は、上記の食道期の嚥下観察の他に、咽喉頭部の誤嚥及び残留評価、及び嚥下関連筋肉の運動評価を行ってもよい。超音波検査端末12aで対象となる部位を観察し、超音波映像信号を取得する。超音波映像信号を解析して嚥下タイミングの検出及びインデックス動画を抽出することが好ましい。超音波検査の嚥下観察では嚥下検出処理は主に食道期嚥下検出処理であるが、非侵襲性の超音波検査は観察部位を容易に変更できるため、図2に示すような位置にある食物Fの口腔期嚥下検出処理や咽頭期嚥下検出処理も行える。なお、観察部位ごとに体表からの深さや、体表の形状が異なるため、超音波検査の観察内容に応じて複数の超音波検査端末12aを使い分けてもよい。
咽喉頭部の誤嚥及び残留評価では、嚥下内視鏡による観察と同じ咽喉頭部を観察部位にし、咽頭期の食物や飲料の誤嚥や残留の評価をする。超音波検査端末12aで咽喉頭部の超音波動画51を取得し、嚥下時の画像をディープラーニングで学習して嚥下タイミングを検出する。検出した嚥下タイミングと、内視鏡動画41との同期により超音波インデックス動画54の抽出を行うことができる。内視鏡検査による嚥下食の種類や結果と、超音波検査による誤嚥及び残留評価を結び付けて画面表示してもよい。
嚥下関連筋肉の動態評価では、舌や舌骨周辺、又は喉頭部の筋肉の形態を観察し、嚥下運動の評価を行う。舌や舌骨周辺の観察は口腔期の、喉頭部の筋肉の観察は咽頭期の嚥下タイミングの検査となる。超音波検査端末12aで超音波動画51を取得し、口腔期又は咽頭期における嚥下時の画像をディープラーニングで学習して嚥下タイミングを検出する。検出した嚥下タイミングと、内視鏡動画41との同期により超音波インデックス動画54の抽出を行うことができる。内視鏡検査による嚥下食の種類や結果と、超音波検査による嚥下関連筋肉の動態評価を結び付けて画面表示してもよい。
[第2実施形態]
本実施形態では第1実施形態の超音波システム12に代えて、図14に示すように、放射線観測装置16aを有する放射線観測システム16を用いて映像信号を取得し、患者の嚥下検査の観察を行う。以下に本実施形態の内視鏡動画41及び放射線透視動画71について説明する。なお、上記実施形態と重複する内容は省略する。
放射線観測システム16は、放射線観測装置16aで構成される。放射線観測装置16aは、患者が造影剤入りの食物Fを嚥下するところを撮影し、放射線透視動画71を取得する。また、プロセッサ装置13には放射線観測システム16により撮影した放射線透視動画71を受信し、動画編集部30に送る放射線透視動画処理部(図示しない)の機能が実現される。
図15に示すように、動画同期部32で同期させた内視鏡動画41と放射線透視動画71を表示制御部22に送信させることでディスプレイ14に同時表示及び同期再生が行える。放射線透視動画71は、図2に示すような食物Fを舌で口腔から咽頭へ送る口腔期、食物Fを咽頭から食道へ送る咽頭期、及び食物Fを食道から胃へ送りこむ食道期を含む連続した一連の嚥下の動作を映すことができる。そのため、ディスプレイ14には患者を真横から撮影し、口腔、咽頭及び食道が含まれる映像を表示することが好ましい。
図16に示すように、放射線透視動画71に含まれる口腔期から食道期までを捉えた一連嚥下フレーム画像群73は、咽頭期の嚥下を捉えた咽頭期嚥下フレーム画像群45の全体を含むため、内視鏡インデックス動画44及び放射線インデックス動画74は、内視鏡動画41及び放射線透視動画71から一連嚥下フレーム画像群73及びその前後の一定期間のフレーム画像群を抽出する。
嚥下分類部35において、放射線観測システム16を使用する嚥下検査では、造影剤を用いるため食物Fの種類は第1実施形態と異なる。そのため、第1実施形態とは嚥下の種類の分類が異なる。インデックス番号には、動画の種類に応じて、内視鏡インデックス動画44には(1)、放射線インデックス動画74には(3)を末尾につける。分類後の内視鏡インデックス動画44及び放射線インデックス動画74は表示制御部22に送信され、ディスプレイ14に表示し、同期再生が行える。
[第3実施形態]
上記実施形態では、内視鏡システム11に異なる撮影システムを融合させて2システムにより嚥下検査を記録したが、本実施形態は、3種類の撮影システムを融合させた嚥下検査の観察を行う形態である。
図17に示すように、医療画像処理システム10は、内視鏡システム11、超音波システム12及び放射線観測システム16を用いた3システム融合による嚥下検査の観察を行う。以下に本実施形態の嚥下検査の振り返りについて説明する。なお、上記実施形態と重複する内容は省略する。
図18に示すように、動画同期部32で同期させた内視鏡動画41、超音波動画51、及び放射線透視動画71を表示制御部22に送信させることでディスプレイ14に同時表示及び同期再生が行える。画面切替ボタン68で3種類同時表示から図6の様な個別表示に切り替えても良い。
図19に示すように放射線透視動画71に含まれる口腔期から食道期までを捉えた一連嚥下フレーム画像群73は、咽頭期の嚥下を捉えた咽頭期嚥下フレーム画像群45及び食道期の嚥下を捉えた食道期嚥下フレーム画像群55の全体を含むため、内視鏡インデックス動画44、超音波インデックス動画54、及び放射線インデックス動画74は、内視鏡動画41、超音波動画51、及び放射線透視動画71から一連嚥下フレーム画像群73及びその前後の一定期間のフレーム画像群を抽出する。
各実施形態において、表示制御部22、保存メモリ23、内視鏡動画処理部24超音波動画処理部25、動画編集部30、一時保存メモリ31、動画同期部32、嚥下タイミング検出部33、インデックス動画抽出部34、及び嚥下分類部35といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(Circuitry)である。また、記憶部のハードウェア的な構造はHDD(Hard Disc Drive)やSSD(Solid State Drive)等の記憶装置である。
10 医療画像処理システム
11 内視鏡システム
11a内視鏡
11b内視鏡先端部
12 超音波システム
12a 超音波検査端末
12b 超音波検査端末接触部
13 プロセッサ装置
14 ディスプレイ
15 ユーザインターフェース
16 放射線観測システム
16a 放射線観測装置
20 中央制御部
21 入力受信部
22 表示制御部
23 保存メモリ
24 内視鏡動画処理部
25 超音波動画処理部
30 動画編集部
31 一時保存メモリ
32 動画同期部
33 嚥下タイミング検出部
34 インデックス動画抽出部
35 嚥下分類部
41 内視鏡動画
42 内視鏡嚥下フレーム画像
43 内視鏡非嚥下フレーム画像
44 内視鏡インデックス動画
44a 内視鏡インデックス動画
44b 内視鏡インデックス動画
44c 内視鏡インデックス動画
44d 内視鏡インデックス動画
44e 内視鏡インデックス動画
45 咽頭期嚥下フレーム画像群
51 超音波動画
52 超音波嚥下フレーム画像
53 超音波非嚥下フレーム画像
54 超音波インデックス動画
54a 超音波インデックス動画
54b 超音波インデックス動画
54c 超音波インデックス動画
54d 超音波インデックス動画
54e 超音波インデックス動画
55 食道期嚥下フレーム画像群
60 動画情報表示欄
61 再生ボタン
62 早戻しボタン
63 早送りボタン
64 一時停止ボタン
65 スライダー
66 シークバー
67 リピート再生ボタン
68 画面切替ボタン
71 放射線透視動画
73 一連嚥下フレーム画像群
74 放射線インデックス動画
F 食物
Th のど部
Nc 鼻腔
R 位置

Claims (14)

  1. プロセッサを備え、
    前記プロセッサは、
    患者の鼻腔から挿入された内視鏡により前記患者の咽喉部の嚥下検査を撮像して得られる内視鏡映像信号を受信し、
    前記患者の頸部に当てられた超音波検査端末により取得した食道、気道、咽喉頭部、舌又は舌骨周辺の超音波映像信号を受信し、
    内視鏡映像信号及び超音波映像信号をディスプレイに同時表示する医療画像処理システム。
  2. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号の取得時に、前記プロセッサの時刻を基準とした撮影時間を記録し、
    前記撮影時間を基準に、前記内視鏡映像信号及び前記超音波映像信号を同期させるための同期処理を行い、
    前記同期処理された前記内視鏡映像信号及び前記超音波映像信号を前記ディスプレイに同期して再生する請求項1記載の医療画像処理システム。
  3. 前記内視鏡映像信号及び前記超音波映像信号は、自動再生又はユーザ操作による再生が行われる請求項2記載の医療画像処理システム。
  4. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号の取得時に、前記プロセッサの時刻を基準とした撮影時間を記録し、
    前記撮影時間を基準に、前記内視鏡映像信号及び前記超音波映像信号の同期処理を行い、
    前記内視鏡映像信号から嚥下タイミングを検出し、前記嚥下タイミングにタグ付けを行い、内視鏡インデックス動画を抽出し、
    前記嚥下タイミングの内視鏡映像信号と撮影時間が同じである前記超音波映像信号にタグ付けを行い、超音波インデックス動画を抽出し、
    前記内視鏡インデックス動画及び前記超音波インデックス動画を前記ディスプレイに再生する請求項1記載の医療画像処理システム。
  5. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号の取得時に、前記プロセッサの時刻を基準とした撮影時間を記録し、
    前記撮影時間を基準に、前記内視鏡映像信号及び前記超音波映像信号の同期処理を行い、
    前記内視鏡映像信号から嚥下タイミングを検出し、
    前記超音波映像信号から非嚥下タイミングを検出し、
    前記嚥下タイミングの前記内視鏡映像信号のうち、前記非嚥下タイミング以外の前記超音波映像信号と前記撮影時間が同じである前記内視鏡映像信号に対してタグ付けを行って、内視鏡インデックス動画を抽出し、
    前記非嚥下タイミング以外の前記超音波映像信号のうち、前記嚥下タイミングの前記内視鏡映像信号と前記撮影時間が同じである前記超音波映像信号に対してタグ付けを行って、超音波インデックス動画を抽出し、
    前記内視鏡インデックス動画及び前記超音波インデックス動画を前記ディスプレイに再生する請求項1記載の医療画像処理システム。
  6. 前記内視鏡インデックス動画及び前記超音波インデックス動画は、自動再生又はユーザ操作による再生が行われる請求項4または5記載の医療画像処理システム。
  7. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号から正常な嚥下、誤嚥、または不明な嚥下のいずれかを嚥下タイミングとして検出し、
    前記嚥下タイミングが検出されたフレーム画像に対して嚥下タイミング検出のタグ付けを行う請求項4ないし6いずれか1項記載の医療画像処理システム。
  8. 前記内視鏡映像信号及び前記超音波映像信号は、フレーム画像が連続したフレーム画像群によって構成され、
    前記プロセッサは、
    前記内視鏡映像信号の前記嚥下タイミングの有無の判定には、フレーム画像間のブレ量の算出、前記フレーム画像に基づくキーポイントの算出、又は、前記フレーム画像間の画素値の差分のいずれかを用い、
    前記超音波映像信号の前記嚥下タイミングの有無の判定には、機械学習を用いる請求項4ないし7いずれか1項記載の医療画像処理システム。
  9. 前記プロセッサは、
    前記内視鏡インデックス動画又は前記超音波インデックス動画の少なくとも一方を解析して、前記嚥下検査の種類を特定する請求項4ないし8いずれか1項記載の医療画像処理システム。
  10. 前記プロセッサは、
    前記嚥下検査の種類を嚥下検査食の種類及び嚥下の結果で分類し、
    前記分類に基づいて、前記内視鏡インデックス動画及び前記超音波インデックス動画にインデックス番号の付与を行う請求項9記載の医療画像処理システム。
  11. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号の取得において、フレームレートを60fpsで撮影を行い、
    前記撮影は100分の1秒単位で時間を数える請求項1ないし10いずれか1項記載の医療画像処理システム。
  12. 前記プロセッサは、
    前記内視鏡映像信号及び前記超音波映像信号を同期せずにディスプレイにリアルタイムで同時表示する請求項1記載の医療画像処理システム。
  13. 前記プロセッサは、
    前記超音波検査端末による観察に代えて、放射線観測装置により前記患者の嚥下検査を観察した放射線透視映像信号を受信し、
    前記内視鏡映像信号及び前記放射線透視映像信号を前記ディスプレイに表示する請求項1記載の医療画像処理システム。
  14. 前記プロセッサは、
    前記超音波検査端末による観察に加えて、放射線観測装置により前記患者の嚥下検査を観察した放射線透視映像信号を受信し、
    前記内視鏡映像信号、前記超音波映像信号、及び前記放射線透視映像信号を前記ディスプレイに表示する請求項1記載の医療画像処理システム。
JP2021086548A 2021-05-21 2021-05-21 医療画像処理システム Pending JP2022179221A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021086548A JP2022179221A (ja) 2021-05-21 2021-05-21 医療画像処理システム
EP22174398.2A EP4093025A1 (en) 2021-05-21 2022-05-19 Medical image processing system
CN202210560835.7A CN115444353A (zh) 2021-05-21 2022-05-19 医疗图像处理***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021086548A JP2022179221A (ja) 2021-05-21 2021-05-21 医療画像処理システム

Publications (1)

Publication Number Publication Date
JP2022179221A true JP2022179221A (ja) 2022-12-02

Family

ID=81749002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021086548A Pending JP2022179221A (ja) 2021-05-21 2021-05-21 医療画像処理システム

Country Status (3)

Country Link
EP (1) EP4093025A1 (ja)
JP (1) JP2022179221A (ja)
CN (1) CN115444353A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5823535B2 (ja) 1979-08-27 1983-05-16 株式会社日立製作所 燃焼器付冷暖房機
US9691433B2 (en) * 2014-04-18 2017-06-27 Toshiba Medical Systems Corporation Medical image diagnosis apparatus and medical image proccessing apparatus
WO2017207565A1 (en) * 2016-05-31 2017-12-07 Koninklijke Philips N.V. Image-based fusion of endoscopic image and ultrasound images
JP3209885U (ja) 2017-01-30 2017-04-13 リブト株式会社 医療用モニタリングシステム
KR102061311B1 (ko) * 2018-01-09 2019-12-31 주식회사 엔도핀 경구형 내시경 장치
GB2605317B (en) * 2019-11-08 2024-06-12 Suzhou Acuvu Med Tech Co Ltd Combined ultrasound and endoscopy

Also Published As

Publication number Publication date
CN115444353A (zh) 2022-12-09
EP4093025A1 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
US8423123B2 (en) System and method for in-vivo feature detection
KR100868339B1 (ko) 의료용 영상 데이터의 디스플레이 방법과 의료용 영상데이터를 이용한 캡쳐 영상 제공 시스템 및 그 방법
CN112543941A (zh) 用于训练生成式对抗网络和使用经训练的生成式对抗网络的***和方法
US20080303898A1 (en) Endoscopic image processing apparatus
CN112567381A (zh) 用于处理来自医学成像设备的实时视频并检测视频中的对象的***和方法
JP5492729B2 (ja) 内視鏡画像記録装置、及び内視鏡画像記録装置の作動方法、並びにプログラム
CN110867233B (zh) 用于生成电子喉镜医学检测报告的***和方法
JP2009022446A (ja) 医療における統合表示のためのシステム及び方法
Al-Rahayfeh et al. Detection of bleeding in wireless capsule endoscopy images using range ratio color
Mackiewicz Capsule endoscopy-state of the technology and computer vision tools after the first decade
JP2005011309A (ja) 医療用画像記録システム
JP2022179221A (ja) 医療画像処理システム
KR20150128297A (ko) 캡슐내시경을 이용한 의료 정보 처리 방법
JP6425868B1 (ja) 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
US20200126657A1 (en) Method and system for image analysis of a medical image
WO2022080141A1 (ja) 内視鏡撮影装置、方法およびプログラム
US20080064990A1 (en) System And Procedure For The Analysis Of The Swallowing Process In Humans
Matsuzaki et al. Bolus inflow detection method by ultrasound video processing for evaluation of swallowing
KR100942997B1 (ko) 캡슐 내시경 영상의 디스플레이 시스템 및 그 방법
CN114049934A (zh) 辅助诊断方法、装置、***、设备和介质
EP4091529A1 (en) Medical image processing system and method for operating the same
WO2023175916A1 (ja) 医療支援システムおよび画像表示方法
JP2009089910A (ja) 撮像方向判別装置、撮像方向判別方法、撮像方向判別プログラム、及び撮像方向判別プログラムを記録したコンピュータ読み取り可能な記録媒体
EP4091528A1 (en) Endoscope system and method for operating the same
CN117893953B (zh) 一种软式消化道内镜操作规范动作评估方法及***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201