JP6823665B2 - 手術支援システム - Google Patents

手術支援システム Download PDF

Info

Publication number
JP6823665B2
JP6823665B2 JP2018546971A JP2018546971A JP6823665B2 JP 6823665 B2 JP6823665 B2 JP 6823665B2 JP 2018546971 A JP2018546971 A JP 2018546971A JP 2018546971 A JP2018546971 A JP 2018546971A JP 6823665 B2 JP6823665 B2 JP 6823665B2
Authority
JP
Japan
Prior art keywords
image
jig
surgical
femur
fitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018546971A
Other languages
English (en)
Other versions
JPWO2018078723A1 (ja
Inventor
雄一郎 安倍
雄一郎 安倍
省雄 清徳
省雄 清徳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lexi Co Ltd
Original Assignee
Lexi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lexi Co Ltd filed Critical Lexi Co Ltd
Publication of JPWO2018078723A1 publication Critical patent/JPWO2018078723A1/ja
Application granted granted Critical
Publication of JP6823665B2 publication Critical patent/JP6823665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgical Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Prostheses (AREA)

Description

本発明は、外科手術、特に、患者の体内にインプラントを取付ける等の整形外科手術を支援する手術支援システムに関する。
従来、脊椎の固定、矯正及び安定化等のために脊椎ケージや人工椎体などを取付け固定する外科手術や、膝関節や股関節などを金属やセラミックス製の人工関節に置き換える置換手術等が知られている。
これらの外科手術においては、事前に患者のインプラントの取付け予定部位の医療用断層画像を用いて、取付け予定のインプラントの形状や寸法や取付位置や取付角度等をシミュレーションする術前計画が行われる(例えば、特許文献1参照)。また、術前計画の内容にしたがってインプラントを取付けるために、ナビゲーションシステムや各種の案内治具を用いる手法が知られている(例えば、特許文献2参照)。
特開2009−82444号公報 特開2006−130315号公報
ところで、ナビゲーションシステムは、高額で装置自体も大きく、普及率が高くないといった問題がある。一方、案内治具は、比較的安いコストで導入可能であるが、当該案内治具が骨の所定位置に正確に取付けられていないと、インプラントの取付けや骨切りを正確に行うことができなくなる。そこで、患者の骨の形状に対応する表面形状を有する身体適合型の案内治具を骨に嵌合させることで、当該案内治具の取付け精度を向上させる手法が提案されているが、例えば、表面が滑らかで特徴的な凹凸部分が少ない骨に対しては取付け精度が低下してしまう。
すなわち、身体適合型の案内治具といえども取付け精度の低下に起因するインプラントの取付け精度等の低下を招く虞があるため、当該案内治具自体が骨の所定位置に正確に取付けられているかどうかを確認する手法の実現が望まれている。
さらに、外科的処置による身体への侵襲を最小にするための最小侵襲手術が行なわれる場合には、皮膚切開幅が相対的に小さくなるため、案内治具の寸法によっては骨の所定位置に取付けることができないといった問題も生じてしまう。
本発明は、このような問題に鑑みてなされたものであり、身体適合型治具の取付け精度の向上を図るとともに、最小侵襲手術にも適用可能なより小型の身体適合型治具を提供することを課題とする。
上記課題を解決するため、本発明の一態様の手術支援システムは、
外科手術が施される身体の所定の取付部に取付けられる身体適合型治具と、拡張現実画像を表示して前記外科手術を支援する手術支援装置と、を備える手術支援システムであって、
前記身体適合型治具は、
前記所定の取付部に嵌合可能な部位嵌合部と、
前記手術支援装置による拡張現実画像の表示のために画像認識され得る特徴を具備する画像認識用部と、を有し、
前記手術支援装置は、
身体の前記所定の取付部及び前記外科手術が施される施術部の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記身体適合型治具の取付位置を含む第1治具情報とを取得する第1取得手段と、
前記所定の取付部、当該所定の取付部に取付けられた前記身体適合型治具及び前記施術部が撮像された撮像画像を取得する第2取得手段と、
前記第2取得手段により取得された撮像画像内の前記身体適合型治具の前記画像認識用部を認識して、前記撮像画像内での前記身体適合型治具の位置及び姿勢を推定する推定手段と、
前記第1取得手段により取得された前記基準画像及び前記第1治具情報に基づいて、前記推定手段により推定された前記撮像画像内での前記身体適合型治具の位置及び姿勢に対応する位置及び姿勢で前記施術部を仮想的に表す第1拡張現実画像として前記施術部及び前記所定の取付部の前記基準画像に基づく三次元モデルを前記撮像画像に重畳させて表示部に表示させる表示制御手段と、を有することを特徴としている。
本発明によれば、身体適合型治具の取付け精度の向上を図ることができるとともに、最小侵襲手術にも適用可能なより小型の身体適合型治具を提供することができる。
本発明を適用した一実施形態の手術支援システムの概略構成を説明するための斜視図である。 図1の手術支援システムを構成する身体適合型治具を示す斜視図である。 身体適合型治具の変形例を示す斜視図である。 図1の手術支援システムを構成する手術支援装置の機能的構成を示すブロック図である。 図1の手術支援システムによる支援処理に係る動作の一例を示すフローチャートである。 撮像装置による撮像画像の一例を示す図である。 図3の手術支援装置に表示される画像の一例を示す図である。 図3の手術支援装置に表示される画像の一例を示す図である。 身体適合型治具が頸椎に取り付けられた状態を模式的に表す背面図である。 身体適合型治具が頸椎に取り付けられた状態を模式的に表す側面図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
以下に、本発明を適用した一実施形態の手術支援システム100について、図1〜図5Cを参照して説明する。
図1は、手術支援システム100の概略構成を説明するための斜視図である。
図1に示すように、本実施形態の手術支援システム100は、例えば、人工膝関節置換術(外科手術)に用いられるシステムであり、具体的には、患者Pの身体に取付けられる身体適合型治具1と、外科手術の術中支援を行う手術支援装置2とを備えている。
なお、本実施形態では、外科手術の一例として人工膝関節置換術を例示するが、一例であってこれに限られるものではなく、例えば、脊椎の固定、矯正及び安定化等のために脊椎ケージや人工椎体などを取付け固定する外科手術や人工股関節置換術など手術支援システム100が適用される外科手術は適宜任意に変更可能である。
また、図1には、手術台T上での患者Pが固定されていない状態を表しているが、医者が外科手術を施術し易くなるように固定されていても良い。
<身体適合型治具>
先ず、身体適合型治具1について、図2A及び図2Bを参照して詳細に説明する。図2Aは、身体適合型治具1を示す斜視図である。
身体適合型治具1は、例えば、人工膝関節置換術等の外科手術が施される患者Pの身体の骨(所定の取付部)に取付けられるものである(図1参照)。ここで、身体適合型とは、各患者P毎の固有の骨Bの形状に合わせて形成され、当該骨B(例えば、大腿骨B1の遠位端部)の表面の凹凸形状に対して相補的な関係の表面形状の接触面を有することを言う。すなわち、身体適合型治具1は、患者Pの骨Bの所定の取付部に嵌合可能となっている。
具体的には、図2Aに示すように、身体適合型治具1は、大腿骨B1の遠位端部の所定位置に嵌合可能な部位嵌合部11と、手術支援装置2による拡張現実画像(図5B参照)の表示のためのマーカ12aを具備する画像認識用部12とが本体部1aに形成されている。
ここで、本体部1aは、例えば、大腿骨B1の遠位端から骨盤(図示略)側に延在するように形成されているが、一例であってこれに限られるものではなく、当該本体部1aの形状は適宜任意に変更可能である。
部位嵌合部11は、本体部1aにおける大腿骨B1側の面に形成され、当該大腿骨B1の遠位端部の表面の凹凸形状に対して相補的な関係の表面形状を有している。すなわち、後述するように手術支援装置2により断層画像データIを用いて術前計画処理が行われて、当該身体適合型治具1の大腿骨B1の遠位端部での取付け位置がシミュレーションにより特定されると、例えば、ブーリアン演算処理により大腿骨B1の遠位端部での取付け位置の形状に対して相補的な関係を有する部位嵌合部11の表面形状を特定する。そして、特定された表面形状の部位嵌合部11を有する本体部1aを図示しない三次元(3D)プリンタを用いて作成する。なお、本体部1aには、画像認識用部12におけるマーカ12aが嵌合可能なマーカ嵌合部12b(後述)も一体となって作成される。
このようにして、大腿骨B1の遠位端部の取付け位置(所定の取付部)に嵌合可能な部位嵌合部11が形成される。
画像認識用部12は、手術支援装置2による拡張現実画像の表示のために画像認識され得る特徴を具備するものであり、具体的には、本体部1aの所定位置(例えば、部位嵌合部11が設けられていない位置等)に設けられ、当該所定位置の表面から座刳られたマーカ嵌合部12bにマーカ12aが嵌合して形成されている。
マーカ嵌合部12bは、例えば、平面視にて略矩形状に形成されるとともに所定の深さを有する凹部である。マーカ12aは、例えば、外縁部がマーカ嵌合部12bの外形と略等しい略矩形状をなし、寸法がマーカ嵌合部12bよりも僅かに小さく形成されている。また、マーカ12aは、マーカ嵌合部12bの凹部の深さと略等しい厚さを有している。
これにより、マーカ嵌合部12bにマーカ12aが収容されて所定の接着手段(例えば、接着剤や両面テープ等)により接着されることで、前後方向、左右方向及び上下方向の各方向に位置決めされた状態となる。
また、マーカ12aのマーカ嵌合部12bの底部と反対側の面の所定位置には、手術支援装置2による画像認識用の所定の模様(例えば、ハート)が形成されている。
なお、画像認識用部12は、例えば、図2Bに示すように、本体部1cに一体となって形成されたマーカ12cを有していても良い。マーカ12cは、上記したマーカ12aと略同様に、手術支援装置2による画像認識用の所定の模様(例えば、ハート)が形成され、この所定の模様の位置、形状及び向きはマーカ12aにおけるものと略等しくなっている。
また、マーカ12c(画像認識用部12)は、上記したように三次元プリンタを用いて本体部1cを作成する際に、部位嵌合部11とともに本体部1cに形成された状態となっても良いし、本体部1cの作成後にレーザーなどにより刻印されても良い。
また、本体部1aには、大腿骨B1に取り付けられた当該身体適合型治具1を固定するためのピン(図示略)が挿通されるピン挿通孔13が二つ形成されている。
また、身体適合型治具1は、例えば、ポリアミド系樹脂やチタン合金等から形成されるが、素材は一例であってこれらに限られるものではなく、生体適合性を有する材料であれば適宜任意に変更可能である。
<手術支援装置>
次に、手術支援装置2について、図3を参照して詳細に説明する。図3は、手術支援装置2の機能的構成を示すブロック図である。
手術支援装置2は、例えば、PC(Personal Computer)等から構成されている。また、手術支援装置2には、患者Pの施術部(例えば、膝関節等)を撮像する撮像装置3が接続されている。例えば、図1に示すように、手術支援装置2の表示部204や操作部205(後述)等は、基台4に搭載されており、この基台4には、先端に撮像装置3が取付けられた支持アーム41が設けられている。この支持アーム41によって撮像装置3による撮像方向や高さ等を調整可能となっている。
手術支援装置2は、図3に示すように、具体的には、中央制御部201と、メモリ202と、記憶部203と、表示部204と、操作部205と、インターフェイス(I/F)部206とを備えている。また、手術支援装置2の各部は、バス207を介して接続されている。
中央制御部201は、当該手術支援装置2の各部を制御するものである。すなわち、中央制御部201は、図示は省略するが、CPU(Central Processing Unit)を備え、CPUは、記憶部203に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ202のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部201のCPUは、メモリ202内に各種処理結果を格納させ、必要に応じてその処理結果を表示部204に表示させる。
メモリ202は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部201のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。
記憶部203は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部203は、断層画像データI、術前計画用プログラム203a、術前計画データD、第1取得プログラム203b、第2取得プログラム203c、推定プログラム203d、表示制御プログラム203e等を記憶している。
断層画像データIは、例えば、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging system)装置などの医療用断層画像診断装置(図示略)により患者Pの外科手術が施される施術部(例えば、人工膝関節により置換される膝関節)が撮像された画像データである。すなわち、断層画像データIは、例えば、人工膝関節置換術前に、医療用断層画像診断装置により患者Pの膝関節を構成する大腿骨B1及び脛骨(図示略)が撮像された画像データである。
なお、断層画像データIは、医療用断層画像診断装置から院内LAN等のネットワークを介して手術支援装置2に送信されたものであっても良いし、メモリカード等の記憶媒体を介して手術支援装置2により取得されたものであっても良い。
術前計画用プログラム203aは、人工膝関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から術前計画用プログラム203aを読み出して、この術前計画用プログラム203aに従って、取付け予定の人工膝関節(大腿骨側部材や脛骨側部材等;図示略)の形状や寸法、大腿骨B1に刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨B1の骨切り位置、脛骨に刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨の骨切り位置等をシミュレーションにより特定する。
なお、術前計画処理は、公知の技術であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、人工膝関節置換術前に医療用断層画像診断装置により撮像された断層画像データIから患者Pの大腿骨B1の三次元形状を表す基準画像の画像データを生成する。ここで、断層画像データIに代えて、二方向から撮像されたレントゲン画像に基づいて骨B(大腿骨B1)の三次元形状を推定し、当該骨Bの三次元形状を表す画像データを生成して基準画像として用いても良い。
そして、中央制御部201のCPUは、表示部204に表示された大腿骨B1の三次元モデル上で座標系を構築し、人工膝関節を構成する大腿骨側部材の設置予定位置等をシミュレーションして特定する。また、中央制御部201のCPUは、断層画像データIに基づいて表示部204に表示された大腿骨B1の三次元モデル上での、大腿骨B1に対する身体適合型治具1の適切な取付位置や取付けの向き等を含む第1治具情報をシミュレーションして生成する。このとき、中央制御部201のCPUは、例えば、ブーリアン演算処理により大腿骨B1の遠位端部での取付け位置の形状に対して相補的な関係を有する部位嵌合部11の表面形状も特定する。また、中央制御部201のCPUは、大腿骨B1の三次元モデル上での身体適合型治具1の位置を基準として、大腿骨B1に対する大腿骨側部材(インプラント)の取付けを案内支援するために大腿骨B1に刺入される大腿骨髄内ロッドや、この大腿骨髄内ロッドを基準として大腿骨B1の骨切りを案内する大腿骨骨切り案内部材(何れも図示略)の各種案内支援治具について、取付位置や取付けの向き等を含む第2治具情報をシミュレーションして生成する。さらに、中央制御部201のCPUは、例えば、機能軸、大腿骨B1の骨頭中心の位置、内/外反角、屈曲・伸展角、回旋角等の各種の術中支援パラメータを生成しても良い。
なお、第1治具情報や第2治具情報の生成は、シミュレーションにより自動的に行われても良いし、医者による操作部205の所定操作に基づいて治具の向きや位置の微調整が行われても良い。
また、膝関節の脛骨側についても同様に、人工膝関節を構成する脛骨側部材の設置予定位置等や第1治具情報や第2治具情報等がシミュレーションにより特定されるが、ここでは詳細な説明は省略する。
また、上記した術前計画処理により生成された各種の情報は、術前計画データDとして記憶部203に記憶される。
なお、術前計画処理は当該手術支援装置2以外の装置で行われても良く、例えば、術前計画データDが院内LAN等のネットワークを介して手術支援装置2に送信されたり、メモリカード等の記憶媒体を介して手術支援装置2により取得される構成であっても良い。
第1取得プログラム203bは、基準画像及び治具情報を取得する第1取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1取得プログラム203bを読み出して、この第1取得プログラム203bに従って、第1取得処理を行う。ここで、中央制御部201のCPUは、第1取得プログラム203bとの協働により、第1取得手段として機能する。
具体的には、中央制御部201のCPUは、例えば、術前計画データDを記憶部203から読み出して取得し、患者Pの人工膝関節が取り付けられる予定の大腿骨B1や脛骨の三次元形状を表す基準画像の画像データを取得する。また、中央制御部201のCPUは、術前計画データDを記憶部203から読み出して取得し、大腿骨B1の三次元モデル上での大腿骨B1の遠位端部に取付けられる身体適合型治具1の取付位置を含む第1治具情報を取得する。また、中央制御部201のCPUは、術前計画データDを記憶部203から読み出して取得し、大腿骨B1の三次元モデル上での大腿骨B1に対する大腿骨側部材(インプラント)の取付けを案内支援するための大腿骨髄内ロッド等の取付位置や取付けの向きを含む第2治具情報を取得する。
第2取得プログラム203cは、撮像画像F(図5A参照)を逐次取得する第2取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2取得プログラム203cを読み出して、この第2取得プログラム203cに従って、第2取得処理を行う。ここで、中央制御部201のCPUは、第2取得プログラム203cとの協働により、第2取得手段として機能する。
具体的には、中央制御部201のCPUは、手術台T上の患者Pの大腿骨B1の遠位端部に取付けられた身体適合型治具1及び当該大腿骨B1の遠位端部、すなわち、身体適合型治具1が取り付けられた状態の大腿骨B1の遠位端部が撮像装置3により撮像された撮像画像Fを取得する。
ここで、撮像装置3の構成について説明する。
撮像装置3は、I/F部206を介して手術支援装置2と接続されている。また、撮像装置3は、公知のものであれば如何なる構成であっても良く、詳細な説明は省略するが、例えば、中央制御部301と、撮像部302と、信号処理部303と、通信制御部304とを備えている。
中央制御部301は、当該撮像装置3の各部を制御するものである。具体的には、図示は省略するが、中央制御部301のCPUは、記憶手段(図示略)から読み出した所定のプログラムをメモリ(図示略)のワークエリアに展開し、当該プログラムに従って各種処理を実行する。
撮像部302は、例えば、図示は省略するが、ズームレンズやフォーカスレンズ等の各種のレンズから構成されたレンズ部と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する電子撮像部と、タイミング発生器やドライバ等により電子撮像部を走査駆動する撮像制御部とを備えている。そして、撮像制御部は、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、この電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部303に出力させる。
信号処理部303は、例えば、電子撮像部から転送されたフレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
通信制御部304は、信号処理部303により生成されたフレーム画像の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を取得して、取得されたフレーム画像(撮像画像F)のYUVデータを手術支援装置2に送信する。
そして、手術支援装置2では、中央制御部201のCPUは、第2取得処理によって、撮像装置3の通信制御部304から送信されてI/F部206を介して受信された撮像画像Fのデジタル値の画像データ(YUVデータ)を取得する。この撮像画像Fの画像データの取得は、撮像装置3による撮像画像Fの撮像(フレーム画像のYUVデータの生成)が行われる毎に逐次行われても良いし、ユーザによる操作部205の所定操作に基づいてユーザが所望するタイミングで行われても良い。
推定プログラム203dは、撮像画像F内での身体適合型治具1の位置及び姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から推定プログラム203dを読み出して、この推定プログラム203dに従って、推定処理を行う。ここで、中央制御部201のCPUは、推定プログラム203dとの協働により、推定手段として機能する。
具体的には、中央制御部201のCPUは、第2取得処理により取得された撮像画像F内の身体適合型治具1の画像認識用部12を認識して、その認識結果に基づいて撮像画像F内での身体適合型治具1の位置及び姿勢を推定する。つまり、中央制御部201のCPUは、撮像画像F内での画像認識用部12のマーカ12aの形状(マーカ12aから抽出される特徴量)から当該マーカ12aの位置及び姿勢を特定し、特定された結果から撮像画像F内での身体適合型治具1の位置及び姿勢を推定する。
なお、画像認識用部12を認識する手法、すなわち、マーカ12aの位置及び姿勢を特定する手法は、公知の技術であり、ここでは詳細な説明は省略する。
表示制御プログラム203eは、拡張現実(augmented reality:AR)技術を用いて、表示部204に拡張現実画像を撮像画像Fに重畳させて表示させる表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から表示制御プログラム203eを読み出して、この表示制御プログラム203eに従って、表示制御処理を行う。ここで、中央制御部201のCPUは、表示制御プログラム203eとの協働により、表示制御手段として機能する。
具体的には、中央制御部201のCPUは、第1取得処理により取得された基準画像及び第1治具情報に基づいて、推定処理により推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢で施術部(大腿骨B1)を仮想的に表す第1拡張現実画像A1を撮像画像Fに重畳させて表示部204に表示させる(図5B参照)。より具体的には、第1治具情報には、大腿骨B1の三次元モデル上での身体適合型治具1の適切な取付位置や取付けの向き、つまり、大腿骨B1の遠位端部と身体適合型治具1との相対的な位置関係が含まれているため、中央制御部201のCPUは、推定処理により推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢での大腿骨B1の遠位端部の三次元モデルを第1拡張現実画像A1として撮像画像Fに重畳させて表示部204に表示させる(図5B参照)。
なお、図5Bにあっては、大腿骨B1の遠位端部の三次元モデルの輪郭部分のみを破線で表示するようにしているが、例えば、大腿骨B1の遠位端部の三次元モデル全体を半透過の状態で表示しても良い。
また、第1拡張現実画像A1として表示されている大腿骨B1の遠位端部の三次元モデルと合致するように、大腿骨B1と身体適合型治具1との位置関係、具体的には、大腿骨B1の遠位端部に対する身体適合型治具1の取付位置や取付けの向き等が調整されると、中央制御部201のCPUは、第1取得処理により取得された基準画像、第1治具情報及び第2治具情報に基づいて、大腿骨B1に対する大腿骨側部材(図示略)の取付けを案内支援するために大腿骨B1に刺入される大腿骨髄内ロッドの取付位置や取付けの向きを仮想的に表す第2拡張現実画像A2を撮像画像Fに重畳させて表示部204に表示させる。より具体的には、第2治具情報には、大腿骨B1の三次元モデル上での身体適合型治具1の位置を基準とする大腿骨髄内ロッドや大腿骨骨切り案内部材等の各種案内支援治具の取付位置や取付けの向き、つまり、身体適合型治具1に対する相対的な位置関係が含まれているため、中央制御部201のCPUは、推定処理により推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢での各種案内支援治具(例えば、大腿骨髄内ロッド)の取付位置や取付けの向きを第2拡張現実画像A2として撮像画像Fに重畳させて表示部204に表示させる(図5C参照)。
さらに、中央制御部201のCPUは、大腿骨髄内ロッドを基準として大腿骨B1の骨切り面の位置や向きを仮想的に表す第2拡張現実画像A2を撮像画像Fに重畳させて表示部204に表示させても良い。この大腿骨B1の骨切り面の位置や向きを表す第2拡張現実画像A2の表示は、大腿骨髄内ロッドの取付位置や取付けの向きを表す第2拡張現実画像A2の表示と同時に行われても良いし、異なるタイミングで行われても良い。
なお、図5Cにあっては、大腿骨髄内ロッドの三次元モデルの輪郭部分のみを破線で表示するようにしているが、例えば、大腿骨髄内ロッドの三次元モデル全体を半透過の状態で表示しても良い。また、大腿骨B1の骨切り面の位置や向きを表す第2拡張現実画像A2として、平面状のものを例示したが、一例であってこれに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、この第2拡張現実画像A2は、半透過の状態で表示されるのが好ましいが、例えば、大腿骨B1の骨切り面の位置や向きを識別可能であれば如何なる表示態様であっても良い。
また、脛骨の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、中央制御部201のCPUは、推定処理により推定された撮像画像F内での身体適合型治具の位置及び姿勢に対応する位置及び姿勢での脛骨の近位端部の三次元モデルを第1拡張現実画像として撮像画像Fに重畳させて表示部204に表示させる(図示略)。また、同様に、中央制御部201のCPUは、推定処理により推定された撮像画像F内での身体適合型治具の位置及び姿勢に対応する位置及び姿勢での各種案内支援治具(例えば、脛骨髄内ロッド)の取付位置や取付けの向きを第2拡張現実画像として撮像画像Fに重畳させて表示部204に表示させる(図示略)。同様に、中央制御部201のCPUは、脛骨髄内ロッドの位置を基準として脛骨の骨切り面の位置や向きを第2拡張現実画像として撮像画像Fに重畳させて表示部204に表示させても良い。
なお、図5A〜図5Cにあっては、患者Pの大腿骨B1以外の部分の図示は省略しているが、実際には、例えば、軟骨、腱、靱帯、皮膚等の大腿骨B1の周囲の組織も撮像装置3により撮像されて表示部204に表示された状態となる。
表示部204は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等から構成されている。また、表示部204には、中央制御部201のCPUから出力されて入力される表示信号の指示に従って、各種画面を表示する(図5B及び図5C等参照)。
操作部205は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備えている。そして、操作部205は、これらキーボードやマウスの操作に応じて所定の操作信号を中央制御部201に出力する。
I/F部206は、例えば、有線ケーブル(図示略)や無線通信回線(例えば、無線LANやBluetooth(登録商標))を介して撮像装置3と情報通信可能に接続されている。
<支援処理>
以下に、人工膝関節置換術における支援処理について、図4並びに図5A〜図5Cを参照して説明する。
図4は、手術支援システム100を用いた支援処理に係る動作の一例を示すフローチャートである。また、図5Aは、撮像装置3による撮像画像Fの一例を示す図であり、図5B及び図5Cは、手術支援装置2に表示される画像の一例を示す図である。
なお、以下の説明では、人工膝関節置換術にて大腿骨B1に対する大腿骨側部材(インプラント)の取付けを支援する方法について説明するが、脛骨側についても略同様であり、詳細な説明は省略する。
図4に示すように、先ず、中央制御部201のCPUは、人工膝関節置換術の術前計画処理を行う(ステップS1)。
具体的には、中央制御部201のCPUは、術前計画用プログラム203aに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの脛骨及び大腿骨B1の三次元形状を表す基準画像の画像データを生成し、大腿骨B1の三次元モデル上での人工膝関節を構成する大腿骨側部材の設置予定位置等をシミュレーションして特定する。また、中央制御部201のCPUは、大腿骨B1の三次元モデル上での、大腿骨B1に対する身体適合型治具1の取付位置や取付けの向き等を含む第1治具情報、大腿骨B1に対する大腿骨側部材の取付けを案内支援するための大腿骨髄内ロッドや大腿骨骨切り案内部材等の各種案内支援治具の取付位置や取付けの向き等を含む第2治具情報をシミュレーションして生成する。なお、身体適合型治具1については、中央制御部201のCPUは、大腿骨B1の遠位端部での取付け位置の形状に対して相補的な関係を有する部位嵌合部11の表面形状も特定する。
次に、中央制御部201のCPUは、患者Pの大腿骨B1の三次元形状を表す基準画像、並びに、第1治具情報及び第2治具情報を含む術前計画データDを取得する(ステップS2;第1取得処理)。
具体的には、中央制御部201のCPUは、第1取得プログラム203bに従って、術前計画データDを記憶部203から読み出して取得し、術前計画処理にて生成された大腿骨B1の三次元形状を表す基準画像の画像データ、大腿骨B1の三次元モデル上での大腿骨B1の遠位端部に取付けられる身体適合型治具1の取付位置を含む第1治具情報、大腿骨B1の三次元モデル上での大腿骨B1に対する大腿骨側部材の取付けを案内支援するための大腿骨髄内ロッド等の取付位置や取付けの向きを含む第2治具情報を取得する。
その後、三次元プリンタを用いて、大腿骨B1の遠位端部での取付け位置の形状に対して相補的な関係を有する表面形状の部位嵌合部11を有する本体部1aが身体適合型治具1を構成する部材として作成され、当該身体適合型治具1が大腿骨B1の遠位端部に取り付けられる(ステップS3)。なお、身体適合型治具1の作成や大腿骨B1の遠位端部に対する取付けは、術前計画処理(ステップS1)後であれば良く、例えば、術前計画データDの取得(ステップS2)前に行われても良い。
そして、撮像装置3によって身体適合型治具1が取り付けられた状態の大腿骨B1の遠位端部が撮像され、中央制御部201のCPUは、撮像装置3により撮像された撮像画像Fを取得する(ステップS4)。
具体的には、例えば、手術台T上の患者Pの大腿骨B1の遠位端部、すなわち、身体適合型治具1が取り付けられた状態の大腿骨B1の遠位端部が写るように撮像装置3のズーム倍率や画角等が調整された後、撮像装置3により当該大腿骨B1の遠位端部が逐次撮像され、中央制御部201のCPUは、第2取得プログラム203cに従って、撮像装置3から逐次送信された撮像画像Fの画像データをI/F部206を介して逐次取得する。
その後、中央制御部201のCPUは、撮像画像F内での身体適合型治具1の位置及び姿勢を推定する(ステップS5;推定処理)。
具体的には、中央制御部201のCPUは、推定プログラム203dに従って、第2取得処理により取得された撮像画像F内の身体適合型治具1の画像認識用部12を認識して、撮像画像F内での画像認識用部12のマーカ12aの形状から当該マーカ12aの位置及び姿勢を特定し、特定された結果から撮像画像F内での身体適合型治具1の位置及び姿勢を推定する。
次に、中央制御部201のCPUは、大腿骨B1の遠位端部を拡張現実技術を用いて仮想的に表す第1拡張現実画像A1を撮像画像Fに重畳させて表示部204に表示させる(ステップS6;表示制御処理)。
具体的には、中央制御部201のCPUは、表示制御プログラム203eに従って、第1取得処理により取得された基準画像及び第1治具情報に基づいて、推定処理により推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢での大腿骨B1の遠位端部の三次元モデルを第1拡張現実画像A1として撮像画像Fに重畳させて表示部204に表示させる(図5B参照)。
これにより、医者は第1拡張現実画像A1を視認して、大腿骨B1の遠位端部と身体適合型治具1との位置関係、すなわち、大腿骨B1の遠位端部に対する身体適合型治具1の取付位置や取付けの向きのずれ等を把握することができる。そして、医者やその他のスタッフ等により第1拡張現実画像A1として表示されている大腿骨B1の遠位端部の三次元モデルと合致するように、大腿骨B1と身体適合型治具1との位置関係、具体的には、大腿骨B1の遠位端部に対する身体適合型治具1の取付位置や取付けの向き等が調整される(ステップS7)。
その後、中央制御部201のCPUは、大腿骨B1に刺入される大腿骨髄内ロッドの取付位置や取付けの向きを拡張現実技術を用いて仮想的に表す第2拡張現実画像A2を撮像画像Fに重畳させて表示部204に表示させる(ステップS7;表示制御処理)。
具体的には、例えば、医者等による手術支援装置2の操作部205の所定操作に基づいて、第2拡張現実画像A2の表示が選択されると、中央制御部201のCPUは、表示制御プログラム203eに従って、第1取得処理により取得された基準画像、第1治具情報及び第2治具情報に基づいて、推定処理により推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢での大腿骨髄内ロッドの取付位置や取付けの向きを第2拡張現実画像A2として撮像画像Fに重畳させて表示部204に表示させる(図5C参照)。
これにより、医者は第2拡張現実画像A2を視認して、大腿骨B1に対する大腿骨髄内ロッドの取付位置や取付けの向きを把握することができる。
なお、ステップS7の表示制御処理にて、中央制御部201のCPUは、大腿骨B1の骨切り面の位置や向きを第2拡張現実画像A2として撮像画像Fに重畳させて表示部204に表示させても良い。
この場合、医者は第2拡張現実画像A2を視認して、骨切り面の位置や向きを把握することができる。
以上のように、本実施形態の手術支援システム100によれば、外科手術が施される患者Pの身体の所定の取付部(例えば、大腿骨B1の遠位端部等)に取付けられた身体適合型治具1及び施術部(例えば、大腿骨B1等)が撮像された撮像画像Fを取得し、撮像画像F内の身体適合型治具1の画像認識用部12を認識して、撮像画像F内での身体適合型治具1の位置及び姿勢を推定することができる。そして、身体の所定の取付部及び施術部の三次元形状に係る基準画像と、基準画像に基づく三次元モデル上での身体適合型治具1の取付位置を含む第1治具情報とに基づいて、推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢で施術部を仮想的に表す第1拡張現実画像A1を撮像画像Fに重畳させて表示部204に表示させるので、医者が表示部204に表示されている第1拡張現実画像A1を視認するだけで取付部に対する身体適合型治具1の取付位置や取付けの向きのずれ等を把握することができ、施術部に対する身体適合型治具1の取付位置や取付けの向き等を容易に調整可能となって、身体適合型治具1の取付け精度の向上を図ることができる。また、身体適合型治具1は、必ずしも大腿骨髄内ロッド等の案内支援治具を案内支援する構造を具備する必要がないため、例えば、皮膚切開幅が相対的に小さくなる最小侵襲手術にも適用可能なより小型の身体適合型治具1を提供することができる。
また、基準画像に基づく三次元モデル上での骨B(例えば、大腿骨B1)に対するインプラントの取付けを案内支援する案内支援治具(例えば、大腿骨髄内ロッド)の向き及び位置のうちの少なくとも一方を含む第2治具情報に基づいて、推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢で案内支援治具の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像A2を撮像画像Fに重畳させて表示部204に表示させるので、医者が表示部204に表示されている第2拡張現実画像A2を視認するだけで骨Bに対する案内支援治具の取付位置や取付けの向きを把握することができ、結果として、より正確にインプラントの取付けを行うことができるようになる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
以下に、手術支援システム100の変形例について、図6A及び図6Bを参照して説明する。
この変形例では、手術支援装置2は、撮像画像F内での身体適合型治具101の位置及び姿勢に対応する位置及び姿勢で頸椎用スクリュー(インプラント)の向き及び位置のうちの少なくとも一方を仮想的に表す第3拡張現実画像A3を撮像画像Fに重畳させて表示部204に表示させる。
先ず、身体適合型治具101は、例えば、頸椎B2の所定位置(例えば、第4頸椎の棘突起等)に取付けられるものである(図6A及び図6B参照)。また、身体適合型治具101は、上記実施形態と略同様に、頸椎B2の所定位置に嵌合可能な部位嵌合部11と、手術支援装置2による拡張現実画像の表示のためのマーカ12aを具備する画像認識用部12とが形成された本体部1aを有している。
なお、図示は省略するが、身体適合型治具101は、頸椎B2の所定位置に取り付けられた状態で、例えば、ピンや除去可能な生体適合性セメント等を用いて固定されるようになっている。
手術支援装置2は、術前計画処理にて、取付け予定の頸椎用スクリュー(図示略)の形状や寸法、当該頸椎用スクリューの頸椎に対する取付け位置や取付けの向き等をシミュレーションにより特定する。すなわち、中央制御部201のCPUは、表示部204に表示された頸椎B2の三次元モデル上で座標系を構築し、頸椎用スクリューの取付け位置や取付けの向き等を含むインプラント情報をシミュレーションして特定する。また、中央制御部201のCPUは、断層画像データIに基づいて表示部204に表示された大腿骨B1の三次元モデル上での、頸椎B2に対する身体適合型治具101の適切な取付位置や取付けの向き等を含む第1治具情報をシミュレーションして生成する。
そして、中央制御部201のCPUは、第1取得処理にて、術前計画データDを記憶部203から読み出して取得し、頸椎B2の三次元モデル上での頸椎B2に対する頸椎用スクリュー(インプラント)の取付け位置や取付けの向きを含むインプラント情報を取得する。
なお、頸椎用スクリューについては、詳細な説明は省略するが、頸椎に螺子込まれ、当該頸椎の固定のためにロッド(図示略)に取付け固定されるものである。
また、中央制御部201のCPUは、第1取得処理により取得された基準画像、第1治具情報及びインプラント情報に基づいて、頸椎B2に対する頸椎用スクリュー(図示略)の取付位置や取付けの向きを仮想的に表す第3拡張現実画像A3を撮像画像Fに重畳させて表示部204に表示させる。
すなわち、頸椎B2に身体適合型治具101が取り付けられた状態(図6A及び図6B参照)、中央制御部201のCPUは、撮像装置3により撮像された撮像画像F内の身体適合型治具101の画像認識用部12を認識して、その認識結果に基づいて撮像画像F内での身体適合型治具101の位置及び姿勢を推定する。そして、図示は省略するが、中央制御部201のCPUは、第1取得処理により取得された基準画像及び第1治具情報に基づいて、推定処理により推定された撮像画像F内での身体適合型治具101の位置及び姿勢に対応する位置及び姿勢で頸椎B2を仮想的に表す第1拡張現実画像を撮像画像Fに重畳させて表示部204に表示させる。このとき、施術部となる第4頸椎だけでなく、他の頸椎、例えば、第1〜第6頸椎までを仮想的に表す第1拡張現実画像を表示しても良い。
その後、第1拡張現実画像A1として表示されている頸椎B2の三次元モデルと合致するように、頸椎B2と身体適合型治具101との位置関係、具体的には、頸椎B2の棘突起に対する身体適合型治具101の取付位置や取付けの向き等が調整されると、中央制御部201のCPUは、第1取得処理により取得された基準画像、第1治具情報及びインプラント情報に基づいて、頸椎B2に対する頸椎用スクリューの取付位置や取付けの向きを仮想的に表す第3拡張現実画像A3を撮像画像Fに重畳させて表示部204に表示させる。より具体的には、インプラント情報には、頸椎B2の三次元モデル上での身体適合型治具101の位置を基準とする頸椎用スクリュー等のインプラントの取付位置や取付けの向き、つまり、身体適合型治具101に対する相対的な位置関係が含まれているため、中央制御部201のCPUは、推定処理により推定された撮像画像F内での身体適合型治具101の位置及び姿勢に対応する位置及び姿勢での各種インプラント(例えば、頸椎用スクリュー)の取付位置や取付けの向きを第3拡張現実画像A3として撮像画像Fに重畳させて表示部204に表示させる(図6A参照)。
これにより、医者は第3拡張現実画像A3を視認して、頸椎B2に対する頸椎用スクリューの取付位置や取付けの向きを把握することができる。
したがって、基準画像に基づく三次元モデル上での骨B(例えば、頸椎B2)に対するインプラント(例えば、頸椎用スクリュー)の取付けの向き及び位置のうちの少なくとも一方を含むインプラント情報に基づいて、推定された撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢でインプラントの向き及び位置のうちの少なくとも一方を仮想的に表す第3拡張現実画像A3を撮像画像Fに重畳させて表示部204に表示させるので、医者が表示部204に表示されている第3拡張現実画像A3を視認するだけで骨Bに対するインプラントの取付位置や取付けの向きを把握することができ、結果として、より正確にインプラントの取付けを行うことができるようになる。
また、上記実施形態や変形例では、例えば、インプラントとして、人工膝関節や頸椎用スクリューを例示したが、一例であってこれに限られるものではなく、例えば、脊椎ケージや人工椎体など適宜任意に変更可能である。なお、インプラントの形状データについては、公知のCAD(Computer Aided Design)システムを用いて作成されて、手術支援装置2や当該手術支援装置2以外の装置における術前計画処理に利用されても良い。
さらに、上記実施形態にあっては、第2拡張現実画像A2として、大腿骨髄内ロッド等の治具の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該治具の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。
同様に、変形例にあっては、第3拡張現実画像A3として、頸椎用スクリュー等のインプラントの向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該インプラントの向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。
また、上記実施形態や変形例にあっては、施術部として骨B(例えば、大腿骨B1や頸椎B2等)を例示したが、例えば、軟部組織等であっても良い。具体的には、例えば、変形可能なウェブ状のもの(例えば、布等)にマーカを複数入れた状態で、その変形を認識してそれを踏まえて拡張現実画像の重畳表示を行うことで、肝臓等の変形する臓器に対する外科手術に適用することが可能となる。
さらに、本発明は、例えば、骨折手術に適用されても良く、この場合には、一の骨折片に身体適合型治具1を取付けて、当該一の骨折片と接続される他の骨折片を施術部として仮想的に表す第1拡張現実画像を表示させるようにしても良い。
さらに、上記実施形態や変形例にあっては、画像認識用部12として、マーカ12a、12c等を具備するものを例示したが、一例であってこれに限られるものではなく、マーカ12a、12cを具備するか否かは適宜任意に変更可能である。すなわち、所謂、マーカーレスの構造であっても、画像認識用部が画像認識され得る特徴(例えば、形状や色等)を具備し、撮像画像F内での身体適合型治具1、101の位置及び姿勢を推定することが可能に構成されていれば良い。
また、上記実施形態における身体適合型治具1は、例えば、インプラント(図示略)の取付けを案内支援するための案内部を着脱自在に構成されていても良い。この案内部としては、例えば、大腿骨B1に対する大腿骨髄内ロッド(図示略)の刺入位置や刺入方向等を案内するものや、大腿骨B1の骨切り位置を案内するものなどが挙げられる。
ここで、案内部が、例えば、大腿骨B1の表面に接触可能に構成されている場合、上記した部位嵌合部11と同様に、患者Pの大腿骨B1の遠位端部の表面の凹凸形状に対して相補的な関係の表面形状の接触面を有しているのが好ましい。
なお、身体適合型治具1に案内部を取付けるのではなく、当該身体適合型治具1の代わりに、外科手術に用いられる治具や支援内容に応じて案内治具を付け代えるようにしても良い。すなわち、例えば、ピン挿通孔13にピンを挿通して大腿骨B1に刺入した状態で身体適合型治具1を取り外し、ピンの位置を基準として案内治具を取り付けるようにしても良い。この案内治具にも画像認識用部を設けておくことで、手術支援装置2は、撮像装置3により撮像された撮像画像F内の案内治具の画像認識用部を認識して所望の拡張現実画像を表示可能となる。
さらに、上記実施形態や変形例にあっては、手術支援装置2として、PCを例示したが、一例であってこれに限られるものではなく、例えば、スマートフォンやタブレット等の携帯端末から構成されていても良い。また、携帯端末に撮像部が搭載されている場合には、当該撮像部を撮像装置3の代わりに用いても良い。
また、上記実施形態の手術支援装置2にあっては、第1取得手段、第2取得手段、推定手段及び表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により第1取得部、第2取得部、推定部及び表示制御部が構成されて実現されても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
加えて、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
以上説明したように、本発明の好ましい実施の形態によれば、撮像画像F内での身体適合型治具1の位置及び姿勢に対応する位置及び姿勢で施術部を仮想的に表す第1拡張現実画像A1を撮像画像Fに重畳させて表示部204に表示させることができ、医者に第1拡張現実画像A1を視認させて取付部に対する身体適合型治具1の取付位置や取付けの向きのずれ等を把握させることができる。
これにより、本発明は、外科手術において、施術部に対する身体適合型治具1の取付位置や取付けの向き等を容易に調整可能となって、身体適合型治具1の取付け精度の向上を図ることができるとともに、最小侵襲手術にも適用可能なより小型の身体適合型治具1を提供することができる技術に特に好適に利用できる。
100 手術支援システム
1、101 身体適合型治具
11 部位嵌合部
12 画像認識用部
12a、12c マーカ
2 手術支援装置
201 中央制御部(第1取得手段、第2取得手段、推定手段、表示制御手段)
203 記憶部
204 表示部
3 撮像装置
A1〜A3 第1〜第3拡張現実画像
B 骨
B1 大腿骨
B2 頸椎
F 撮像画像

Claims (7)

  1. 外科手術が施される身体の所定の取付部に取付けられる身体適合型治具と、拡張現実画像を表示して前記外科手術を支援する手術支援装置と、を備える手術支援システムであって、
    前記身体適合型治具は、
    前記所定の取付部に嵌合可能な部位嵌合部と、
    前記手術支援装置による拡張現実画像の表示のために画像認識され得る特徴を具備する画像認識用部と、を有し、
    前記手術支援装置は、
    身体の前記所定の取付部及び前記外科手術が施される施術部の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記身体適合型治具の取付位置を含む第1治具情報とを取得する第1取得手段と、
    前記所定の取付部、当該所定の取付部に取付けられた前記身体適合型治具及び前記施術部が撮像された撮像画像を取得する第2取得手段と、
    前記第2取得手段により取得された撮像画像内の前記身体適合型治具の前記画像認識用部を認識して、前記撮像画像内での前記身体適合型治具の位置及び姿勢を推定する推定手段と、
    前記第1取得手段により取得された前記基準画像及び前記第1治具情報に基づいて、前記推定手段により推定された前記撮像画像内での前記身体適合型治具の位置及び姿勢に対応する位置及び姿勢で前記施術部を仮想的に表す第1拡張現実画像として前記施術部及び前記所定の取付部の前記基準画像に基づく三次元モデルを前記撮像画像に重畳させて表示部に表示させる表示制御手段と、を有する手術支援システム。
  2. 前記外科手術は、前記施術部としての骨に対するインプラントの取付けを含み、
    前記第1取得手段は、前記基準画像に基づく三次元モデル上での前記骨に対するインプラントの取付けを案内支援する案内支援治具の前記身体適合型治具の位置を基準とする向き及び位置のうちの少なくとも一方を含む第2治具情報を更に取得し、
    前記表示制御手段は、
    前記第1取得手段により取得された前記第2治具情報に基づいて、前記推定手段により推定された前記撮像画像内での前記身体適合型治具の位置及び姿勢に対応する位置及び姿勢で前記案内支援治具の向き及び位置のうちの少なくとも一方を示す前記案内支援治具の三次元モデルを仮想的に表す第2拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させる請求項1に記載の手術支援システム。
  3. 前記第1取得手段は、前記基準画像に基づく三次元モデル上での前記骨に対するインプラントの取付けの向き及び位置のうちの少なくとも一方を含むインプラント情報を更に取得し、
    前記表示制御手段は、
    前記第1取得手段により取得された前記インプラント情報に基づいて、前記推定手段により推定された前記撮像画像内での前記身体適合型治具の位置及び姿勢に対応する位置及び姿勢で前記インプラントの向き及び位置のうちの少なくとも一方を示す画像を第3拡張現実画像として前記撮像画像に重畳させて前記表示部に表示させる請求項2に記載の手術支援システム。
  4. 前記手術支援装置は、
    前記第1〜第3拡張現実画像の中で、前記表示制御手段により前記撮像画像に重畳させて表示させる拡張現実画像を選択可能に構成されている請求項3に記載の手術支援システム。
  5. 前記画像認識用部は、前記身体適合型治具本体とは別体で形成され、当該身体適合型治具本体の表面の所定位置に嵌合するマーカを有する請求項1〜4の何れか一項に記載の手術支援システム。
  6. 前記画像認識用部は、前記身体適合型治具本体の表面の所定位置に当該身体適合型治具本体と一体となって形成されている請求項1〜4の何れか一項に記載の手術支援システム。
  7. 前記身体適合型治具は、前記施術部に対する前記外科手術を案内支援するための案内部を更に有する請求項1〜4の何れか一項に記載の手術支援システム。
JP2018546971A 2016-10-25 2016-10-25 手術支援システム Active JP6823665B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/081600 WO2018078723A1 (ja) 2016-10-25 2016-10-25 手術支援システム

Publications (2)

Publication Number Publication Date
JPWO2018078723A1 JPWO2018078723A1 (ja) 2019-09-05
JP6823665B2 true JP6823665B2 (ja) 2021-02-03

Family

ID=62023264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546971A Active JP6823665B2 (ja) 2016-10-25 2016-10-25 手術支援システム

Country Status (5)

Country Link
US (1) US11376078B2 (ja)
EP (1) EP3533407A4 (ja)
JP (1) JP6823665B2 (ja)
CN (1) CN109906062A (ja)
WO (1) WO2018078723A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4278956A3 (en) * 2017-03-10 2024-02-21 Biomet Manufacturing, LLC Augmented reality supported knee surgery
CN113317876A (zh) * 2021-06-07 2021-08-31 上海盼研机器人科技有限公司 一种基于增强现实的颅颌面骨折修复导航***
CN115844712B (zh) * 2023-02-17 2023-05-26 四川大学 一种穴位定位方法、装置、中医理疗设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6917827B2 (en) 2000-11-17 2005-07-12 Ge Medical Systems Global Technology Company, Llc Enhanced graphic features for computer assisted surgery system
CA2473963A1 (en) * 2003-07-14 2005-01-14 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
EP1722705A2 (en) * 2004-03-10 2006-11-22 Depuy International Limited Orthopaedic operating systems, methods, implants and instruments
CA2502802C (en) 2004-11-02 2012-10-30 Zimmer Technology, Inc. Navigated orthopaedic guide and method
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
JP5171193B2 (ja) 2007-09-28 2013-03-27 株式会社 レキシー 人工膝関節置換手術の術前計画用プログラム
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
CN101797182A (zh) * 2010-05-20 2010-08-11 北京理工大学 一种基于增强现实技术的鼻内镜微创手术导航***
JP6188685B2 (ja) * 2011-06-10 2017-08-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入治療に対するアプリケータ配置のリアルタイム変化を決定する光ファイバ感知
KR102162952B1 (ko) * 2012-09-18 2020-10-07 씽크 써지컬, 인크. 정형 외과 응용들에서의 정합을 위한 시스템 및 방법
JP2014097220A (ja) * 2012-11-15 2014-05-29 Toshiba Corp 手術支援装置
US20140180430A1 (en) * 2012-12-20 2014-06-26 Michael Gillman Devices and methods for hip replacement
US10467752B2 (en) * 2013-06-11 2019-11-05 Atsushi Tanji Bone cutting support system, information processing apparatus, image processing method, and image processing program
WO2014200016A1 (ja) * 2013-06-11 2014-12-18 Tanji Atsushi 外科手術支援システム、外科手術支援装置、外科手術支援方法、外科手術支援プログラムおよび情報処理装置
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
GB2534359A (en) * 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment
WO2016154557A1 (en) * 2015-03-26 2016-09-29 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
US20160287337A1 (en) 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
CN104799950A (zh) * 2015-04-30 2015-07-29 上海昕健医疗技术有限公司 基于医学图像的个性化最小创伤膝关节定位导板

Also Published As

Publication number Publication date
US11376078B2 (en) 2022-07-05
EP3533407A4 (en) 2020-05-13
WO2018078723A1 (ja) 2018-05-03
EP3533407A1 (en) 2019-09-04
US20190328463A1 (en) 2019-10-31
CN109906062A (zh) 2019-06-18
JPWO2018078723A1 (ja) 2019-09-05

Similar Documents

Publication Publication Date Title
US11484368B2 (en) Systems and methods for a robotic-assisted revision procedure
JP2022133440A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
US8706197B2 (en) Planning method and planning device for knee implants
US20200390503A1 (en) Systems and methods for surgical navigation and orthopaedic fixation
US9411939B2 (en) Method for producing patient-specific plate
US20160117817A1 (en) Method of planning, preparing, supporting, monitoring and/or subsequently checking a surgical intervention in the human or animal body, apparatus for carrying out such an intervention and use of the apparatus
AU2015353523B2 (en) Computer-assisted cranioplasty
US10376318B2 (en) Surgical assistance apparatus, program, storage medium, and surgical assistance method
CN112386302A (zh) 用于无线超声跟踪和通信的超宽带定位
JP7012302B2 (ja) 手術支援端末及びプログラム
JP2015516228A (ja) 携帯型追跡システム、携帯型追跡システムを用いる方法
JP7498163B2 (ja) 医療技術機器及び方法
JP6823665B2 (ja) 手術支援システム
JP2022525294A (ja) 拡張現実支援外科処置で使用するための患者適合型装置及びそれを使用するための方法
US20140324182A1 (en) Control system, method and computer program for positioning an endoprosthesis
AU2022384283A1 (en) Systems, methods and devices for augmented reality assisted surgery
KR20190004591A (ko) 증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법
JP2019516492A (ja) ハイブリッドx線/カメラ介入の動き補償
CN115666409A (zh) 为基于荧光透视的导航***生成图像的***
Świątek-Najwer et al. The Maxillo-Facial Surgery System for guided cancer resection and bone reconstruction
JP6534940B2 (ja) 手術支援装置、手術支援システム及びプログラム
Espinoza Orías Personalized Surgical Instruments
JP2024504482A (ja) ナビゲーション脊椎手術のための拡張現実脊椎ロッドプランニングおよび屈曲のためのコンピュータ実装方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210108

R150 Certificate of patent or registration of utility model

Ref document number: 6823665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250