JP2019130290A - 骨の3次元骨格画像を作成するためのシステム及び方法 - Google Patents

骨の3次元骨格画像を作成するためのシステム及び方法 Download PDF

Info

Publication number
JP2019130290A
JP2019130290A JP2018228067A JP2018228067A JP2019130290A JP 2019130290 A JP2019130290 A JP 2019130290A JP 2018228067 A JP2018228067 A JP 2018228067A JP 2018228067 A JP2018228067 A JP 2018228067A JP 2019130290 A JP2019130290 A JP 2019130290A
Authority
JP
Japan
Prior art keywords
image
bone
distance
skeleton
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018228067A
Other languages
English (en)
Other versions
JP6737865B2 (ja
Inventor
▲チン▼鋒 劉
Ching-Feng Liu
▲チン▼鋒 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chi Mei Medical Center
Original Assignee
Chi Mei Medical Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chi Mei Medical Center filed Critical Chi Mei Medical Center
Publication of JP2019130290A publication Critical patent/JP2019130290A/ja
Application granted granted Critical
Publication of JP6737865B2 publication Critical patent/JP6737865B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】骨の3次元(3D)骨格画像を作成して整形外科手術を補助するためのシステムを提供する。【解決手段】骨の3次元(3D)骨格画像を作成するためのシステム2は、複数の骨ランドマークを具える骨の3D骨格モデルと共に使用される。システムは、骨をスキャンして骨輪郭画像を生成する3Dスキャン装置3と、画像処理装置4とを備える。画像処理装置は、3D骨格モデルを処理して各骨ランドマークにそれぞれ応じる複数の空間位置を取得し、且つ骨輪郭画像を処理して各骨ランドマークにそれぞれ対応する複数の特徴を識別してそれらの特徴にそれぞれ応じる複数の空間位置を取得する。画像処理装置は、3D骨格モデル及び骨輪郭画像のための画像登録を実行し、3D骨格モデル及び骨輪郭画像を比例して重ね合わせることによって3D骨格画像を作成する。【選択図】図1

Description

(関連する出願の相互参照)
本出願は、2017年12月6日に出願された台湾特許出願第106142744号の優先権を主張するものである。
本開示は、骨の3次元骨格画像を作成して整形外科手術を補助するためのシステム及び方法に関する。
側頭骨は、頭蓋骨を構成する多くの骨の中にあって、そして多くの耳の構造部(即ち、外耳、中耳、内耳、前庭系、顔面神経(CN VII)、血管など)を収納するものである。
各側頭骨における整形外科手術は、電動ドリルを利用して各側頭骨のうちの1つを掘削することに関わる。しかし、電動ドリルにより各耳の各上記構造部が何らかの損傷を受けると、深刻な、時には致命的な合併症を起こす恐れがあるため、それらの耳の各上記構造部に対しては、格別の注意を払わなければならない。
従来では、側頭骨の手術には、断層撮影(CT)を使用することで患者の頭蓋骨の3次元画像モデルが作成される。米国特許出願公開第20140039261号には、CTを実行するシステムの一例が開示されている。医者は、CTの後に3次元画像モデルの分析を行って、側頭骨において症状が現れた部分を定め、そして該側頭骨の前記部分とそれらの耳の各前記構造部との間の空間的関係を定める(例えば、相対位置、距離など)。その後、医者は、側頭骨の手術を行って、該側頭骨の前記部分を掘削することができる。その空間的関係と他の手掛かり、例えば掘削した前記側頭骨の部分の外観や、掘削により露出した前記側頭骨の前記部分の形状などを知ることで、医者は、例えば掘削するべき深さ、方向、そしてそのドリルを別の工具に取り替えるべきかとうかなどの状況を見極めることができる。
そこで、本発明の1つの目的は、骨の3次元(3D)骨格画像を作成して整形外科手術を補助するためのシステムを提供することにある。
本発明によれば、該システムは、骨の3D骨格モデルと共に使用される。前記3D骨格モデルは、X線コンピュータ断層撮影を使用し前記骨をスキャンすることで構築されるものである。該3D骨格モデルは、複数の骨ランドマークを具える。
該システムは、
前記骨をスキャンして骨輪郭画像を生成する3Dスキャン装置と、
前記骨輪郭画像を受け取るために前記3Dスキャン装置と接続される画像処理装置と、
を備え、
前記画像処理装置は、
前記3D骨格モデルを処理して各前記骨ランドマークにそれぞれ応じる複数の空間位置を取得し、且つ前記骨輪郭画像を処理して各前記骨ランドマークにそれぞれ対応する複数の特徴を識別してそれらの特徴にそれぞれ応じる複数の空間位置を取得する位置決めユニットと、
各前記骨ランドマークの前記空間位置をそれぞれ各前記特徴の前記空間位置と共に整列することにより、前記3D骨格モデル及び前記骨輪郭画像のための画像登録を実行し、該3D骨格モデル及び該骨輪郭画像を比例して重ね合わせることによって前記3D骨格画像を作成する画像整列ユニットと、
該3D骨格画像を表示する表示ユニットと、
を具えている。
本開示の他1つの目的は、骨の3次元骨格画像を作成して整形外科手術を補助するための方法を提供することにある。
本開示の1つの実施形態によれば、該方法は、骨の3D骨格モデルと共に使用されるシステムにより実行されるものである。前記3D骨格モデルは、X線コンピュータ断層撮影を使用し前記骨に基づいて構築されるものである。該システムは、3次元スキャン装置と画像処理装置とを備えている。該3D骨格モデルは、複数の骨ランドマークを具えている。
該方法には、
前記画像処理装置により、前記3D骨格モデルを処理して各前記骨ランドマークにそれぞれ応じる複数の空間位置を取得することと、
前記3Dスキャン装置により、前記骨をスキャンして骨輪郭画像を生成することと、
前記画像処理装置により、前記骨輪郭画像を処理して各前記骨ランドマークにそれぞれ対応する複数の特徴を識別してそれらの特徴にそれぞれ応じる複数の空間位置を取得することと、
前記画像処理装置により、各前記骨ランドマークの前記空間位置をそれぞれ各前記特徴の前記空間位置と共に整列することによって、前記3D骨格モデル及び前記骨輪郭画像のための画像登録を実行して、該3D骨格モデル及び該骨輪郭画像を比例して重ね合わせることによって前記3D骨格画像を生成することと、
が含まれている。
本発明の他の特徴および利点は、添付の図面を参照する以下の実施形態の詳細な説明において明白になるであろう。
本開示の1つの実施形態に係る、骨の3次元骨格画像を作成するためのシステムを示す概略図である。 本開示の1つの実施形態に係る、前記システムの部品を示すブロック図である。 比例して重ね合わせることで3D骨格画像を作成する骨の3次元(3D)骨格画像と骨輪郭画像とを示す。 比例して重ね合わせることで3D骨格画像を作成する骨の3次元(3D)骨格画像と骨輪郭画像とを示し、且つその骨に整形外科手術による陥没エリアがあることを示す。 下層構造の画像を含んだ3D骨格画像の一例の一部断面図である。 骨の3D骨格画像を作成して整形外科手術を補助するための方法を示すフローチャートである。 本開示の1つの実施形態に係る前記システムの部品を示すブロック図である。 本開示の1つの実施形態に係る前記システムの部品を示すブロック図である。
本発明をより詳細に説明する前に、適切と考えられる場合において、符号又は符号の末端部は、同様の特性を有し得る対応の又は類似の要素を示すために各図面間で繰り返し用いられることに留意されたい。
図1は、本開示の1つの実施形態に係る、骨の3次元骨格画像を作成するためのシステム2を示す概略図である。
本実施形態において、システム2は、手術台600に設置され、そして3次元(3D)スキャン装置3と画像処理装置4とを備えている。
更に図3を参照すると、本実施形態において、システム2は、骨701の3次元骨格画像430を作成して、例えば側頭骨手術のような整形外科手術を補助するために構成されている。
システム2は、X線コンピュータ断層撮影(CT)を使用し骨701をスキャンすることで構築できる、骨701の3D骨格モデル800と共に使用されている。本実施形態において、3D骨格モデル800は、患者の頭蓋骨に基づいて構成されており、また、前記の骨701は側頭骨である。なお、3D骨格モデル800の構築は、当技術分野における周知の方法により達成してもよいので、ここでは簡潔のため、3D骨格モデル800の構築に関する詳細を省略する。
3D骨格モデル800は、複数の骨ランドマーク801と、下層構造の画像802を具えている。
各骨ランドマーク801は、骨701の各特徴に関連しており、そして視覚的に識別可能に露出している。
前記下層構造の画像802は、骨701の一部分に対応し、そしてその骨701の前記一部分により覆われている構造部(例えば、顔面神経、髄膜、血管など)を示す。
骨701には、各骨ランドマーク801にそれぞれ対応する複数の位置決め部材703が設置されてもよい。各位置決め部材703は、シールや、ブロックなどを使用することで実施されてもよい。
図4と図5を参照すると、本実施形態において、骨701は、整形外科手術を行うため部分的に露出し、そしてその整形外科手術中に陥没エリア702が形成される。骨701の陥没エリア702には、その陥没エリア702に覆われている各構造部上の情報を多く必要とする、該陥没エリア702上の各スポットを識別するために、複数のタグ付け部材5が配置されてもよい。各タグ付け部材5は、シールや、ブロックなどを使用することで実施されてもよい。
3Dスキャン装置3は、適切な人物(例えば、執刀医、助手など)により操作されて、骨701をスキャンしてその骨701の骨輪郭画像30を生成することができる。3Dスキャン装置3は、位置決め部材703とタグ付け部材5とを検知できることに留意されたい。よって、各位置決め部材703が骨701に配置され、且つ/あるいは各タグ付け部材5が陥没エリア702に設置される際、骨輪郭画像30には、各位置決め部材703の画像及び/あるいはタグ付け部材5の画像が含まれている。
なお、骨輪郭画像30を生成する3Dスキャン装置3の操作は、当技術領域における周知の方法により達成できるので、ここでは簡潔のためにその詳細を省略する。
図2は、本開示の1つの実施形態に係るシステム2の部品を示すブロック図である。
画像処理装置4は、演算装置(例えば、パソコン、ラップトップ、タブレット、モバイル装置など)を使用して実施されてもよく、そして処理機ユニット40と、表示ユニット41と、位置決めユニット42と、画像整列ユニット43と、輪郭分析ユニット44と、方向分析ユニット45と、距離分析ユニット46と、通信ユニット47とを具えている。
処理機ユニット40には、シングルコアプロセッサ、マルチコアプロセッサ、デュアルコアモバイルプロセッサ、マイクロプロセッサ、マイクロコントローラ、デジタルシングルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、無線周波数集積回路(RFIC)、及び/または同類の後述の段落の作業を行うためのものが含まれてもよいが、その限りではない。
なお、本実施形態において、画像処理装置4の各部材(即ち、位置決めユニット42と画像整列ユニット43と輪郭分析ユニット44と方向分析ユニット45と距離分析ユニット46)は、ハードウェア回路もしくは該画像処理装置4内に記憶保存されたソフトウェアを使用して、処理機ユニット40により執行されるよう実施されてもよい。
通信ユニット47は、有線接続ソケットと、短距離無線通信モジュールと、モバイル通信モジュールとを具えており、そこで、前記短距離無線通信モジュールは、Bluetooth(登録商標)やWi−Fiを使用して短距離無線通信ネットワークをサポートするものであり、前記モバイル通信モジュールは、ロングタームエボリューション(LTE)、無線モバイルの遠隔通信技術の第3世代(3G)や第4世代(4G)、及び/またはその同類を使用して遠隔通信をサポートするものである。通信ユニット47は、骨輪郭画像30を受け取るために3Dスキャン装置3と接続し、そして3D骨格モデル800を取得するために例えばCT装置と接続することが可能である。
位置決めユニット42は、処理機ユニット40に制御されて3D骨格モデル800を処理して、各骨ランドマーク801にそれぞれ応じる複数の空間位置を取得する。本実施形態において、各前記空間位置は、座標の組の形で表現してもよい。
位置決めユニット42は、処理機ユニット40に制御されて、更に骨輪郭画像30を処理して、各骨ランドマーク801にそれぞれ対応する複数の特徴421を識別して、それらの特徴421にそれぞれ応じる複数の空間位置を取得する(図4を参照)。
一例として、骨701に各骨ランドマーク801にそれぞれ対応する複数の位置決め部材703が配置されている際、位置決めユニット42は、各位置決め部材703それぞれの位置に基づいた各前記特徴の前記空間位置を取得するよう構成される。
別例において、位置決めユニット42は、各骨ランドマーク801それぞれの形状による骨輪郭画像30を分析することで、各特徴421を識別する。
骨輪郭画像30に各タグ付け部材5の前記画像が含まれている際、位置決めユニット42は更に、各タグ付け部材5にそれぞれ対応する複数のタグ付け点501を識別して、各タグ付け点501にそれぞれ応じる複数の空間位置を取得する。
画像整列ユニット43は、処理機ユニット40に制御されて3D骨格モデル800及び骨輪郭画像30のための画像登録を実行する。具体的に言うと、画像整列ユニット43は、各骨ランドマーク801の前記空間位置をそれぞれ各特徴421の前記空間位置と共に整列することにより、その画像登録を行って、3D骨格モデル800及び骨輪郭画像30を比例して重ね合わせることによって3D骨格画像430を作成する(図4を参照)。
3D骨格画像430は、前記人物が見るために表示ユニット41に表示され、そして多様な方法(例えば、移動、回転、ズームインとズームアウトなど)で操作可能である。
図4と図5に示されるよう、3D骨格画像430は、骨701の現在の外観と、骨輪郭画像30と重ね合う下層構造802の画像とを示す。更に、3D骨格画像430は、特徴421とタグ付け点501を示してもよい。
輪郭分析ユニット44は、骨輪郭画像30を処理して、3D骨格画像430における陥没エリア702の輪郭に対応する施術面440を指示するよう構成されている。
本実施形態において、3Dスキャン装置3は、整形外科手術の進行中に骨701を数回スキャンするよう操作されて、各種形状の骨701を示す多数の骨輪郭画像30を生成してもよい。輪郭分析ユニット44は、骨輪郭画像30を処理して、施術面440のより精確な指示を取得するよう構成されている。そして施術面440は、3D骨格画像430において動態的に指示される。
一部の実施形態において、輪郭分析ユニット44は、施術面440を複数の監視セクタ(図示せず)に分割するよう構成されてもよい。
方向分析ユニット45は、3D骨格画像430において指示される施術面440に応じて、下層構造の画像802の方向を定めるよう構成されている。更に、方向分析ユニット45は、下層構造の画像802の前記方向に関する方向データを生成するよう構成されている。
具体的に言うと、前記方向データは、仮定の3D座標システムにおける所定の参考点を参考した下層構造の画像802における異なるスポットにそれぞれ対応する多数の座標の組と、施術面440における異なるスポットにそれぞれ対応する複数の座標の組と、という形であってもよい。方向分析ユニット45は、前記方向データを使用し、施術面440に応じて、下層構造の画像802の前記方向を定めるよう構成されている。
距離分析ユニット46は、方向分析ユニット45によって生成された前記方向データ(即ち、前記座標の各組)に基づいて、下層構造の画像802と施術面400との間の少なくとも1つの距離に関する距離データを定めるよう構成されている。
本実施形態において、距離分析ユニット46は、最短距離分析モジュール461と、垂直距離分析モジュール462と、水平距離分析モジュール463と、距離警報モジュール464とを具えている。
最短距離分析モジュール461は、各前記監視セクタから、下層構造の画像802と施術面400との間の複数の最短距離をそれぞれ取得するように構成されており、そして前記距離データには、各前記最短距離が含まれている。例えば、輪郭分析ユニット44によって施術面440を分割することにより取得した各前記監視セクタごとに、最短距離分析モジュール461は、1つの最短距離を計算して前記距離データに含ませる。
各タグ付け部材5が陥没エリア702上に配置された場合では、最短距離分析モジュール461は更に、各タグ付け部材5と下層構造の画像802との間の1つの最短距離を計算する。
垂直距離分析モジュール462は、各前記監視セクタから、下層構造の画像802と施術面440との間の複数の垂直距離をそれぞれ取得するように構成されている。例えば、各前記監視セクタごとに、垂直距離分析モジュール462は、1つの最短垂直距離を計算して前記距離データに含ませる。
各タグ付け部材5が陥没エリア702上に配置された場合では、垂直距離分析モジュール462は更に、各タグ付け部材5と下層構造の画像802との間の1つの最短距離を計算する。
水平距離分析モジュール463は、各前記監視セクタから、下層構造の画像802と施術面440との間の複数の水平距離をそれぞれ取得するように構成されている。例えば、各前記監視セクタごとに、水平距離分析モジュール463は、1つの最短水平距離を計算して前記距離データに含ませる。
各タグ付け部材5が陥没エリア702上に配置された場合では、水平距離分析モジュール463は更に、各タグ付け部材5と下層構造の画像802との間の1つの最短水平距離を計算する。
なお、各前記距離の計算に関する垂直距離分析モジュール462及び水平距離分析モジュール463の操作は、最短距離分析モジュール461の操作に類似してもよい。
本開示の1つの実施形態によれば、距離分析ユニット46は、前記距離データを処理機ユニット40に出力するよう構成されてもよく、処理機ユニット40はそれから表示ユニット41を制御して少なくとも一部の前記距離データを表示させる。例えば、表示ユニット41に表示された前記距離データには、各タグ付け部材5ごとに、下層構造の画像802に応じて、算出された最短距離と、算出された最短垂直距離と、算出された最短水平距離と、が含まれてもよい。このように、各タグ付け部材5と下層構造の画像802との間の空間的関係を前記人物に直接に通知することができる。
距離警報モジュール464は、各前記最短距離を、前記人物により予め設定され得る警報距離と比較するよう構成されている。
更に、距離警報モジュール464は、前記人物が操作して最短距離警報モードを有効/無効にすることができる。前記最短距離警報モードが有効になると、距離警報モジュール464は、各前記監視セクタに対して、対応する前記最短距離が前記所定の警報距離より短い場合に、可視的合図を表示するよう構成される。
一例において、前記可視的合図は、異なる色及び/または異なる輝度の強さを使用して、前記監視セクタと下層構造の画像802との間の前記最短距離の異なる数値を指示する。
同様に、距離警報モジュール464は、前記人物が操作して垂直距離警報モード及び水平距離警報モードを有効/無効にすることができる。
前記垂直距離警報モードまたは前記水平距離警報モードが有効になると、距離警報モジュール464は、各前記監視セクタに対して、対応する前記垂直距離/前記水平距離が前記所定の警報距離より短い場合に、可視的合図を表示するよう構成される。一部の例としては、異なる所定の警報距離を、垂直距離警報モード及び水平距離警報モードに使ってもよい。一例として、前記可視的合図は、異なる色及び/または異なる輝度の強さを使用して、前記監視セクタと下層構造の画像802との間の前記垂直距離/前記水平距離の異なる数値を示す。
また、前記垂直距離警報モード及び前記水平距離警報モードにはそれぞれ、異なる色及び/または異なる輝度の強さが応用されてもよい。
図6は、本開示の1つの実施形態に係る、骨701の3次元骨格画像430を作成して整形外科手術を補助するための方法を示すフローチャートである。
応用上、この方法は、図1と図2に示される前記システムを使用して整形外科手術の進行中に実行されてもよい。
ステップ901において、画像処理装置4は、3D骨格モデル800を処理して、各骨ランドマーク801にそれぞれ応じる複数の空間位置を取得する。本実施形態において、各骨ランドマーク801は、他の身体構造部に相対する目視基準になりうる、骨701の一部分として定義されている。側頭骨において、各骨ランドマーク801は、外耳道(EAM)の縁部と、その側頭骨の乳突部と、その側頭骨の鞘状突起などに対応する部分を含んでもよい。
ステップ902において、3Dスキャン装置3は、骨701をスキャンして骨輪郭画像30を生成する。なお、整形外科手術の進行中、前記人物は、ステップ902を行う前に、骨701上に位置決め部材703を配置して各骨ランドマーク801にそれぞれ対応させてもよい。骨輪郭画像30は、生成後に表示ユニット41に表示してもよい。
ステップ903において、画像処理装置4は、骨輪郭画像30を処理して、各骨ランドマーク801にそれぞれ対応する複数の特徴421を識別して、それらの特徴421にそれぞれ応じる複数の空間位置を取得する。
一例において、画像処理装置4は、各位置決め部材703それぞれの位置に基づいて各特徴421の空間位置を取得するよう構成されている。別例において、骨輪郭画像30の処理には、各骨ランドマーク801それぞれの形状による骨輪郭画像30を分析することで、各特徴421を識別することが含まれている。別例において、画像処理装置4は、骨輪郭画像30を表示し、そして1つの特徴421を指示する表示ユニット41のスポットにおけるユーザ入力の標記信号に応答し、表示ユニット41の該スポットに対応する骨輪郭画像30における空間位置を取得して、該1つの特徴421の前記空間位置とする。
ステップ904において、画像処理装置4は、各骨ランドマーク800の空間位置をそれぞれ各特徴421の空間位置と共に整列することによって、3D骨格モデル800及び骨輪郭画像30のための画像登録を実行して、該3D骨格モデル800及び該骨輪郭画像30を比例して重ね合わせることにより、3D骨格画像430を作成する。図4に示されるよう、3D骨格モデル800に含まれている下層構造の画像802は、骨輪郭画像30に表示されてもよい。
なお、異なる場合において、下層構造の画像802は、異なる方法で表示されてもよい。例えば、図3において、下層構造の画像802の輪郭は破線で表示されており、図4においては、下層構造の画像802は透明で表示されてもよい(実際の下層構造の画像の詳細は、本実施形態に記述する必要がないために省略される)。
本実施形態において、整形外科手術の進行中、各前記ステップは数回(例えば、周期的に)行われてもよい。
ステップ905において、画像処理装置4は、骨輪郭画像30を処理して、整形外科手術によって生成された、骨701の陥没エリア702の輪郭に対応する3D骨格画像430において、施術面440を指示する。本実施形態において、施術面440は、複数の骨輪郭画像30を処理することで定められたものである。
更に、画像処理装置4は、施術面440に応じて下層構造の画像802の方向を定めると共に、該下層構造の画像802の前記方向に関する方向データを生成する。
ステップ906において、画像処理装置4は、施術面440を複数の監視セクタに分割し、そして各前記監視セクタから、下層構造の画像802と施術面440との間の複数の最短距離をそれぞれ取得して、該距離データに含ませる。更に、画像処理装置4は、各前記最短距離を所定の警報距離と比較し、そして各前記監視セクタにおいて、それらに対応する前記最短距離が前記所定の警報距離より短い場合に、前記監視セクタに可視的合図を表示する。
一部の実施形態において、画像処理装置4は、各前記監視セクタから、下層構造の画像802と前記施術面との間の複数の垂直距離をそれぞれ取得し、または各前記監視セクタから、下層構造802の画像と施術面440との間の複数の水平距離をそれぞれ取得し、そして該距離データには各前記垂直距離と各前記水平距離とが含まれる。
更に、画像処理装置4は、各前記垂直距離及び各前記水平距離を所定の警報距離と比較すると共に、各前記監視セクタにおいて、それらに対応する前記垂直距離及び前記水平距離のいずれか一方が前記所定の警報距離より短い場合に、前記監視セクタに可視的合図を表示する。
なお、整形外科手術の進行中、施術面440におけるいずれかのスポットと下層構造802との間の距離を前記人物が知りたい時には、その人物が、1つのタグ付け部材5を前記スポットに配置し、そしてシステム2を操作して上記の方法を繰り返すと共に、前記対応するタグ付け点501が含まれた新しい3D骨格画像を作成するようにしてもよい。
図7は、本開示の1つの実施形態に係る、骨701(図3を参照)の3次元(3D)骨格画像430(図4を参照)を作成するためのシステム2を示すブロック図である。
本実施形態と図2の実施形態との相違点は、画像処理装置4には、ユーザが操作して、表示ユニット41に表示される骨輪郭画像30(図4を参照)における各特徴421を標記できる標記ユニット48を更に具えていることにある。
一例において、標記ユニット48は、表示ユニット41と一体化してタッチスクリーンの形態とし、そして前記人物は、指、スタイラスペン、または他の物体を使って、そのタッチスクリーンの一部分に触れて、各特徴421を標記してもよい。他の例において、標記ユニット48は、画像処理装置4に接続、もしくは内蔵されるキーボート/マウスのセットを使用することで実施されてもよい。
図8は、本開示の1つの実施形態に係る、骨701の3次元(3D)骨格画像430を作成するためのシステム2を示すブロック図である。
本実施形態と図2の実施形態との相違点は、画像処理装置4が、3Dスキャン装置3を制御し、骨701を周期的にスキャンして複数の骨輪郭画像30を生成すると共に、該画像処置装置4を制御して骨輪郭画像30に基づいた3次元骨格画像430を周期的に作成する、タイマー49を更に具えていることにある。例として、繰り返しカウントダウンタイムは、前記人物により、例えば5分、10分、30分などに設定されてもよい。そのカウントダウンタイムが切れたと判定された後、3Dスキャン装置3は制御されて骨701をスキャンし、画像処理装置4は新たに生成された骨輪郭画像30に基づいて3D骨格画像430を作成し、そしてタイマー49は再びカウントダウンタイムの周期を始める。
一部の例において、前記カウントダウンタイムの周期が切れそうになった際(例えば、残り10秒、30秒、または1分など)、タイマー49は、前記人物が見える、もしくは聞こえる警報を発生させてもよい(例えばブザー音)。それに応じて、その人物は、該整形外科手術を一時中止して陥没エリア702を整理してもよい。
このように、前記人物において、骨701の陥没エリア702の空間位置及び下層構造の画像802に関する情報が周期的に更新され、そして更なるスキャン作業を行うために人が3Dスキャン装置3を持つ必要もない。
総括すると、本開示の各前記実施形態は、患者の骨701の3次元(3D)骨格画像を作成して整形外科手術を補助するためのシステム2及び方法を提供する。特に、そのシステム2及びその方法は、3D骨格モデル800及び骨輪郭画像30を比例して重ね合わせることによって、3D骨格画像430を作成することが可能である。
整形外科手術においては、骨701が継続的に穿孔され、または削り取られて、整形外科手術中に形状が変わる陥没エリア702が形成されるので、システム2を操作する人物は、患者の他の構造部を基準にした、骨701の陥没エリア702において選択されたスポットの空間位置情報を取得してもよい。陥没エリア702における前記選択されたスポットと下層構造の画像との距離が、所定の警報距離より小さくなった際には、可視的合図が生成されて前記人物に警告を発してもよい。
言い換えると、本開示に記述されている前記システム2及び前記方法は、3D骨格画像430における空間位置情報を提供するので、整形外科手術の施行中に前記人物をナビゲートすることに有用であり、そしてその人物に整形外科手術の施行中に適切な行動を取らせることができ、前記骨1に覆われている各構造部を不意に損傷してしまう危険性を軽減する。
上記においては、本発明の全体的な理解を促すべく、多くの具体的な詳細が示された。しかしながら、当業者であれば、一またはそれ以上の他の実施形態が具体的な詳細を示さなくとも実施され得ることが明らかである。また、本明細書における「一つの実施形態」「一実施形態」を示す説明において、序数などの表示を伴う説明は全て、特定の態様、構造、特徴を有する本発明の具体的な実施に含まれ得るものであることと理解されたい。更に、本説明において、時には複数の変化例が一つの実施形態、図面、またはこれらの説明に組み込まれているが、これは本説明を合理化させるためのもので、また、本発明の多面性が理解されることを目的としたものである。
以上、本発明の好ましい実施形態及び変化例を説明したが、本発明はこれらに限定されるものではなく、最も広い解釈の精神および範囲内に含まれる様々な構成として、全ての修飾および均等な構成を包含するものとする。
2 システム
3 3次元(3D)スキャン装置
4 画像処理装置
30 骨輪郭画像
41 表示ユニット
42 位置決めユニット
43 画像整列ユニット
430 3D骨格画像
701 骨
800 3D骨格モデル
801 骨ランドマーク

Claims (21)

  1. 骨(701)の3次元(3D)骨格画像(430)を作成して整形外科手術を補助するためのシステム(2)であって、
    該システムは、前記骨(701)の3D骨格モデル(800)と共に使用され、
    前記3D骨格モデルは、X線コンピュータ断層撮影を使用し前記骨(701)をスキャンすることで構築されたものであり、
    該3D骨格モデルは、複数の骨ランドマーク(801)を具えており、
    該システムは、
    前記骨(701)をスキャンして骨輪郭画像(30)を生成する3Dスキャン装置(3)と、
    前記骨輪郭画像(30)を受け取るために前記3Dスキャン装置(3)と接続される画像処理装置(4)と、
    を備え、
    前記画像処理装置(4)は、
    前記3D骨格モデル(800)を処理して各前記骨ランドマークにそれぞれ応じる複数の空間位置を取得し、且つ前記骨輪郭画像(30)を処理して各前記骨ランドマークにそれぞれ対応する複数の特徴を識別してそれらの特徴にそれぞれ応じる複数の空間位置を取得する位置決めユニット(42)と、
    各前記骨ランドマークの前記空間位置をそれぞれ各前記特徴の前記空間位置と共に整列することにより、前記3D骨格モデル(800)及び前記骨輪郭画像(30)のための画像登録を実行し、該3D骨格モデル(800)及び該骨輪郭画像(30)を比例して重ね合わせることによって前記3D骨格画像(430)を作成する画像整列ユニット(43)と、
    該3D骨格画像(430)を表示する表示ユニット(41)と、
    を具えている、システム。
  2. 前記表示ユニット(41)は更に、前記骨輪郭画像(30)を表示し、
    前記画像処理装置(4)は、ユーザが操作して、前記表示ユニット(41)に表示される前記骨輪郭画像(30)における各前記特徴を標記できる標記ユニット(47)を更に具えている、請求項1に記載のシステム。
  3. 前記骨(701)には、各前記骨ランドマークにそれぞれ対応する複数の位置決め部材(703)が配置されており、
    前記位置決めユニット(42)は、各前記位置決め部材(703)それぞれの位置に基づいた各前記特徴の前記空間位置を取得するよう構成されている、請求項1に記載のシステム。
  4. 前記位置決めユニット(42)は、各前記骨ランドマークそれぞれの形状により前記骨輪郭画像(30)を分析することで、各前記特徴を識別する、請求項1に記載のシステム。
  5. 前記3D骨格モデル(800)は、下層構造の画像(802)を含んでおり、
    前記骨(701)は、整形外科手術によって生成される陥没エリア(702)を有しており、
    前記画像処理装置(4)は、
    前記骨輪郭画像(30)を処理して前記3D骨格画像(430)における前記陥没エリア(702)の輪郭に対応する施術面を指示するよう構成される輪郭分析ユニット(44)と、
    前記施術面に応じて前記下層構造の画像の方向を定めるよう構成されると共に、前記下層構造の画像の前記方向に関する方向データを生成するよう構成される方向分析ユニット(45)と、
    前記方向データに基づいて前記下層構造の画像と前記施術面との間の距離に関する距離データを定めるよう構成される距離分析ユニット(46)と、
    を具えている、請求項1に記載のシステム。
  6. 前記輪郭分析ユニット(44)は、前記施術面を複数の監視セクタに分割するよう構成されており、
    前記距離分析ユニット(46)は、各前記監視セクタから、前記下層構造の画像(802)と前記施術面との間の複数の最短距離をそれぞれ取得するように構成される最短距離分析モジュール(461)を具えており、
    前記距離データには、各前記最短距離が含まれている、請求項5に記載のシステム。
  7. 前記構造距離分析ユニット(46)は、各前記最短距離を所定の警報距離と比較すると共に、各前記監視セクタにおいて、それらに対応する前記最短距離が前記所定の警報距離より短い場合に、前記監視セクタに可視的合図を表示する距離警報モジュール(464)を更に具えている、請求項6に記載のシステム。
  8. 前記可視的合図は、異なる色及び異なる輝度の強さのいずれか一方を使用して、前記監視セクタと前記下層構造の画像(802)との間の前記最短距離の異なる数値を指示する、請求項7に記載のシステム。
  9. 前記輪郭分析ユニット(44)は、前記施術面を複数の監視セクタに分割するよう構成されており、
    前記距離分析ユニット(46)は、
    各前記監視セクタから、前記下層構造(802)の画像と前記施術面との間の複数の垂直距離をそれぞれ取得するように構成される垂直距離分析モジュール(462)と、
    各前記監視セクタから、前記下層構造(802)の画像と前記施術面との間の複数の水平距離をそれぞれ取得するように構成される水平距離分析モジュール(462)と、
    を具えており、
    前記距離データには、各前記垂直距離と各前記水平距離とが含まれている、請求項5に記載のシステム。
  10. 前記構造距離分析ユニット(46)は、各前記垂直距離及び各前記水平距離を所定の警報距離と比較すると共に、各前記監視セクタにおいて、それらに対応する前記垂直距離及び前記水平距離のいずれか一方が前記所定の警報距離より短い場合に、前記監視セクタに可視的合図を表示する距離警報モジュール(464)を更に具えている、請求項9に記載のシステム。
  11. 前記可視的合図は、異なる色及び異なる輝度の強さのいずれか一方を使用して、前記垂直距離及び前記水平距離の前記いずれか一方の異なる数値を示す、請求項10に記載のシステム。
  12. 前記システムは、前記陥没エリア(702)上に配置されるタグ付け部材(5)を更に備え、
    前記3Dスキャン装置(3)は、前記骨に沿って前記タグ付け部材(5)をスキャンし、前記骨輪郭画像(30)を生成して前記タグ付け部材(5)の画像を含ませるよう構成されており、
    前記位置決めユニット(42)は、前記骨輪郭画像(30)中の前記タグ付け部材(5)の前記画像を識別することで、前記画像処理装置(4)に生成された前記3D骨格画像(430)に、前記タグ付け部材(5)の前記画像が含まれるよう構成されており、
    前記位置決めユニット(42)は、前記タグ付け部材(5)の前記画像の位置を取得するよう構成されており、
    前記距離分析ユニット(46)は、前記タグ付け部材(5)の前記画像の前記位置に基づいて、前記下層構造の画像(802)と前記タグ付け部材(5)の前記画像との間の距離を定めると共に、前記3D骨格画像(430)における前記下層構造の画像(802)と前記タグ付け部材(5)の前記画像との間の該距離を指示する、請求項5に記載のシステム。
  13. 前記画像処理装置(4)は、前記3Dスキャン装置(3)を制御し、前記骨(701)を周期的にスキャンして前記骨輪郭画像(30)を生成すると共に、該画像処理装置(4)を制御して前記骨輪郭画像(30)に基づいて前記3D骨格画像(430)を周期的に作成するタイマー(49)を更に具えている、請求項5に記載のシステム。
  14. 骨(701)の3次元(3D)骨格画像(430)を作成して整形外科手術を補助するための方法であって、
    該方法は、前記骨(701)の3D骨格モデル(800)と共に使用されるシステムにより実行され、
    前記3D骨格モデル(800)は、X線コンピュータ断層撮影を使用し前記骨(701)に基づいて構築されたものであり、
    該システムは、3次元(3D)スキャン装置(3)と画像処理装置(4)とを備えており、
    該3D骨格モデルは、複数の骨ランドマークを具えており、
    該方法には、
    前記画像処理装置(4)により、前記3D骨格モデル(800)を処理して各前記骨ランドマークにそれぞれ応じる複数の空間位置を取得することと、
    前記3Dスキャン装置(3)により、前記骨(701)をスキャンして骨輪郭画像(30)を生成することと、
    前記画像処理装置(4)により、前記骨輪郭画像(30)を処理して各前記骨ランドマークにそれぞれ対応する複数の特徴を識別してそれらの特徴にそれぞれ応じる複数の空間位置を取得することと、
    前記画像処理装置(4)により、各前記骨ランドマークの前記空間位置をそれぞれ各前記特徴の前記空間位置と共に整列することによって、前記3D骨格モデル(800)及び前記骨輪郭画像(30)のための画像登録を実行して、該3D骨格モデル(800)及び該骨輪郭画像(30)を比例して重ね合わせることによって前記3D骨格画像(430)を生成することと、
    が含まれている、方法。
  15. 前記方法には、前記画像処理装置(4)の表示ユニット(41)により、前記骨輪郭画像(30)を表示することが更に含まれ、
    前記骨輪郭画像(30)の処理には、1つの前記特徴を指示する前記表示ユニット(41)上のスポットにおけるユーザ入力標記信号に応じて、前記表示ユニット(41)上の該スポットに対応する空間位置を取得して該1つの前記特徴の前記空間位置とすることが含まれている、請求項14に記載の方法。
  16. 前記骨輪郭画像(30)の処理には、各前記骨ランドマークそれぞれの形状により前記骨輪郭画像(30)を分析することで、各前記特徴を識別することが含まれる、請求項14に記載の方法。
  17. 前記骨(701)には、各前記骨ランドマークにそれぞれ対応する複数の位置決め部材(703)が配置されており、
    前記骨輪郭画像(30)の処理には、各前記位置決め部材(703)それぞれの位置に基づいた各前記特徴の前記空間位置を取得することが含まれる、請求項14に記載の方法。
  18. 前記3D骨格モデル(800)は、下層構造の画像(802)を含んでおり、
    前記骨(701)は、整形外科手術によって生成される陥没エリア(702)を有しており、
    前記骨輪郭画像(30)の処理には、
    前記3D骨格画像(430)における前記陥没エリア(702)の輪郭に対応する施術面を指示することと、
    前記施術面に応じて前記下層構造の画像(802)の方向を定めると共に、前記下層構造の画像(802)の前記方向に関する方向データを生成することと、
    前記方向データに基づいて前記下層構造の画像(802)と前記施術面との間の距離に関する距離データを定めることと、
    が含まれている、請求項14に記載の方法。
  19. 前記骨輪郭画像(30)の処理には、前記施術面を複数の監視セクタに分割することが更に含まれており、
    前記方法には、各前記監視セクタから、前記下層構造の画像(802)と前記施術面との間の複数の最短距離をそれぞれ取得し、該距離データに各前記最短距離が含まれることが更に含まれている、請求項18に記載の方法。
  20. 前記骨輪郭画像(30)の処理には、前記施術面を複数の監視セクタに分割することが更に含まれており、
    前記方法には、
    各前記監視セクタから、前記下層構造の画像(802)と前記施術面との間の複数の垂直距離をそれぞれ取得し、且つ各前記監視セクタから、前記下層構造(802)の画像と前記施術面との間の複数の水平距離をそれぞれ取得し、該距離データに各前記垂直距離と各前記水平距離とが含まれることと、
    各前記垂直距離及び各前記水平距離を所定の警報距離と比較すると共に、各前記監視セクタにおいて、それらに対応する前記垂直距離及び前記水平距離のいずれか一方が前記所定の警報距離より短い場合に、前記監視セクタに可視的合図を表示することと、
    が含まれている請求項18に記載の方法。
  21. 前記可視的合図は、異なる色及び異なる輝度の強さのいずれか一方を使用して、前記監視セクタと前記下層構造の画像(802)との間の最短距離の異なる数値を指示する、請求項20に記載の方法。
JP2018228067A 2017-12-06 2018-12-05 骨の3次元骨格画像を作成するためのシステム及び方法 Expired - Fee Related JP6737865B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW106142744A TWI642404B (zh) 2017-12-06 2017-12-06 Bone surgery navigation system and image navigation method for bone surgery
TW106142744 2017-12-06

Publications (2)

Publication Number Publication Date
JP2019130290A true JP2019130290A (ja) 2019-08-08
JP6737865B2 JP6737865B2 (ja) 2020-08-12

Family

ID=65431775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018228067A Expired - Fee Related JP6737865B2 (ja) 2017-12-06 2018-12-05 骨の3次元骨格画像を作成するためのシステム及び方法

Country Status (4)

Country Link
US (1) US10912531B2 (ja)
JP (1) JP6737865B2 (ja)
CN (1) CN109875685B (ja)
TW (1) TWI642404B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112402063A (zh) * 2019-08-23 2021-02-26 北京智塑健康科技有限公司 一种骨结构假体的模型构建方法、***、装置及其可读存储介质
CN112402065A (zh) * 2019-08-23 2021-02-26 北京智塑健康科技有限公司 一种融合器的制造方法、***、装置及其存储介质
TWI744037B (zh) 2019-11-12 2021-10-21 國立臺灣大學 機器人導航系統以及機器人導航方法
KR102302483B1 (ko) 2020-02-17 2021-09-14 숭실대학교산학협력단 3차원 수술 항법 시스템을 위한 정밀 얼굴 정합 방법, 이를 수행하기 위한 기록 매체 및 장치
CN112700461B (zh) * 2021-03-19 2021-07-27 浙江卡易智慧医疗科技有限公司 一种肺结节检测和表征类别识别的***
CN114038009A (zh) * 2021-10-26 2022-02-11 深圳市华安泰智能科技有限公司 一种基于人体骨骼关键点的图像数据采集分析***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
JP2010200869A (ja) * 2009-03-01 2010-09-16 Hamamatsu Univ School Of Medicine 手術支援システム
CN102784003A (zh) * 2012-07-20 2012-11-21 北京先临华宁医疗科技有限公司 一种基于结构光扫描的椎弓根内固定手术导航***
JP2013039360A (ja) * 2011-07-20 2013-02-28 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
JP2016533832A (ja) * 2013-08-26 2016-11-04 コー・ヤング・テクノロジー・インコーポレーテッド 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
JP2016536098A (ja) * 2013-10-02 2016-11-24 ミニナビデント アクチェンゲゼルシャフトMininav 歯および口腔手術用のナビゲーションシステムおよびその方法、位置決めツール、ならびに、マーカー部材を位置決めする方法
US20170071673A1 (en) * 2015-09-11 2017-03-16 AOD Holdings, LLC Intraoperative Systems and Methods for Determining and Providing for Display a Virtual Image Overlaid onto a Visual Image of a Bone

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1357850A1 (en) * 2001-02-07 2003-11-05 SYNTHES AG Chur Method for establishing a three-dimensional representation of bone x-ray images
ATE371414T1 (de) * 2001-06-13 2007-09-15 Volume Interactions Pte Ltd Führungssystem
EP1930832B1 (de) * 2006-12-07 2016-11-23 Brainlab AG Automatische Landmarkenbestimmung anatomischer Strukturen
US9785858B2 (en) * 2008-09-26 2017-10-10 Siemens Healthcare Gmbh Method and system for hierarchical parsing and semantic navigation of full body computed tomography data
US10217238B2 (en) * 2009-05-20 2019-02-26 Algotec Systems Ltd. Soft tissue segmentation using a bone atlas
JP5727474B2 (ja) * 2009-07-15 2015-06-03 コーニンクレッカ フィリップス エヌ ヴェ 手術軌道の可視化
JP2014501143A (ja) * 2010-12-23 2014-01-20 バード・アクセス・システムズ,インコーポレーテッド 医療器具を案内するシステムおよび方法
WO2013027200A2 (en) * 2011-08-21 2013-02-28 M.S.T. Medical Surgery Technologies Ltd. Device and method for asissting laparoscopic surgery - rule based approach
CN103083089B (zh) * 2012-12-27 2014-11-12 广东圣洋信息科技实业有限公司 数字立体显微***的虚拟标尺方法和***
CN103735312B (zh) * 2013-12-11 2016-01-27 中国科学院深圳先进技术研究院 多模影像超声引导手术导航***
KR20160086629A (ko) * 2015-01-12 2016-07-20 한국전자통신연구원 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치
US10210613B2 (en) * 2016-05-12 2019-02-19 Siemens Healthcare Gmbh Multiple landmark detection in medical images based on hierarchical feature learning and end-to-end training

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
JP2010200869A (ja) * 2009-03-01 2010-09-16 Hamamatsu Univ School Of Medicine 手術支援システム
JP2013039360A (ja) * 2011-07-20 2013-02-28 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
CN102784003A (zh) * 2012-07-20 2012-11-21 北京先临华宁医疗科技有限公司 一种基于结构光扫描的椎弓根内固定手术导航***
JP2016533832A (ja) * 2013-08-26 2016-11-04 コー・ヤング・テクノロジー・インコーポレーテッド 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
JP2016536098A (ja) * 2013-10-02 2016-11-24 ミニナビデント アクチェンゲゼルシャフトMininav 歯および口腔手術用のナビゲーションシステムおよびその方法、位置決めツール、ならびに、マーカー部材を位置決めする方法
US20170071673A1 (en) * 2015-09-11 2017-03-16 AOD Holdings, LLC Intraoperative Systems and Methods for Determining and Providing for Display a Virtual Image Overlaid onto a Visual Image of a Bone

Also Published As

Publication number Publication date
CN109875685B (zh) 2020-09-15
JP6737865B2 (ja) 2020-08-12
US20190167222A1 (en) 2019-06-06
TWI642404B (zh) 2018-12-01
US10912531B2 (en) 2021-02-09
TW201924612A (zh) 2019-07-01
CN109875685A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
JP6737865B2 (ja) 骨の3次元骨格画像を作成するためのシステム及び方法
CN105455830B (zh) 用于选择记录区域的方法以及用于选择记录区域的***
Badiali et al. Augmented reality as an aid in maxillofacial surgery: validation of a wearable system allowing maxillary repositioning
CN1194324C (zh) 三维图像显示装置及显示方法
US20210236048A1 (en) Apparatus and method for inspecting skin lesions
US9332965B2 (en) Method and apparatus for managing and displaying ultrasound image according to an observation operation
JP2009536848A (ja) 創傷部を取り扱うためのシステム及び方法
JP6941145B2 (ja) 2次元画像上の3次元画像データの可視化
US20180020992A1 (en) Systems and methods for medical visualization
KR20160087772A (ko) 의료용 촬상 장치와 사용자 간의 데이터 교환을 위한 방법 및 그것을 위한 의료용 촬상 장치
KR20210008220A (ko) 임플란트 시술 계획 수립을 위한 다중 골밀도 표시방법 및 그 영상 처리장치
RU2019136074A (ru) Медицинский пользовательский интерфейс
EP3459443B1 (en) Method and system for supporting a medical brain mapping procedure
JP2018102518A (ja) 心房細動検出装置、心房細動検出方法、プログラム及び記憶媒体
KR101611484B1 (ko) 의료영상의 제공방법
Chabanas et al. Evaluating soft tissue simulation in maxillofacial surgery using preoperative and postoperative CT scans
JP2016174788A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR100957713B1 (ko) 수술용 항법 장치의 작동 방법
JP2022519988A (ja) 患者のストレスを視覚化するためのシステム
JP5171170B2 (ja) 医用画像診断支援システム
KR20210131684A (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
JP2006334259A (ja) 三次元画像処理装置および三次元画像表示方法
CN105493153A (zh) 用于在屏幕上描绘在体数据集中被成像的对象的方法
JP2013027433A (ja) 画像処理装置、画像処理方法
JP2000262471A (ja) 視野計

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200716

R150 Certificate of patent or registration of utility model

Ref document number: 6737865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees