JP2018047240A - Surgery support terminal and program - Google Patents
Surgery support terminal and program Download PDFInfo
- Publication number
- JP2018047240A JP2018047240A JP2017178979A JP2017178979A JP2018047240A JP 2018047240 A JP2018047240 A JP 2018047240A JP 2017178979 A JP2017178979 A JP 2017178979A JP 2017178979 A JP2017178979 A JP 2017178979A JP 2018047240 A JP2018047240 A JP 2018047240A
- Authority
- JP
- Japan
- Prior art keywords
- bone
- captured image
- image
- unit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Prostheses (AREA)
Abstract
Description
本発明は、外科手術、特に、患者の体内に整形外科用のインプラントを取付ける整形外科手術を支援する手術支援端末及びプログラムに関する。 The present invention relates to a surgical operation terminal and a program for supporting a surgical operation, in particular, an orthopedic surgical operation for mounting an orthopedic implant in a patient's body.
従来、膝関節や股関節などを金属やセラミックス製の人工関節に置き換える置換手術が知られている。また、脊椎の固定、矯正及び安定化等のために脊椎ケージや人工椎体などを取付け固定する外科手術も知られている。
これらのインプラントを体内の所定位置に取付ける場合、患者に最適の形状及び寸法のものを最適の角度及び位置で設置することが重要である。
Conventionally, replacement surgery is known in which knee joints, hip joints, and the like are replaced with metal or ceramic artificial joints. In addition, a surgical operation for attaching and fixing a spine cage or an artificial vertebral body for fixing, correcting, and stabilizing the spine is also known.
When mounting these implants in place in the body, it is important to place them in the optimal angle and position with the optimal shape and dimensions for the patient.
そこで、近年では、患者のインプラントの取付部位の医療用断層画像を用いて、取付け予定のインプラントの形状や寸法や取付角度、必要に応じて骨切り量や骨切り位置等をシミュレーションする術前計画が行われるようになっている(例えば、特許文献1参照)。
また、術中に、患者の骨などに固定されたマーカの位置を光学的に追跡し、当該マーカの絶対座標を利用して骨切り量や骨切り位置等を指示するナビゲーションシステムも開発されている。
Therefore, in recent years, preoperative planning that uses the medical tomographic image of the patient's implant attachment site to simulate the shape, dimensions, and attachment angle of the implant to be attached, and the amount of osteotomy and position as necessary. (For example, refer to Patent Document 1).
In addition, a navigation system has been developed that optically tracks the position of a marker fixed to a patient's bone or the like during the operation and uses the absolute coordinates of the marker to indicate the amount of osteotomy and the osteotomy position. .
しかしながら、ナビゲーションシステムでは、マーカの着脱作業が必要となるために手術時間がより長時間化してしまい、さらに、患者の骨の手術する部位とは異なる部位にマーカのピンを刺入するために侵襲部位が増大してしまうといった問題がある。 However, in the navigation system, since the marker needs to be attached and detached, the operation time becomes longer, and moreover, it is invasive because the marker pin is inserted into a part of the patient's bone different from the part to be operated. There exists a problem that a site | part will increase.
さらに、ナビゲーションシステムは、高額で装置自体も大きく、普及率が高くないといった問題もある。なお、例えば、三次元空間の一つの軸方向(例えば、Z軸方向等)の精度を犠牲することで比較的安いコストで導入可能な簡易型のナビゲーションシステムも開発されているが、このシステムでは、術中に高精度での手術支援を実現することは困難である。例えば、膝関節を人工膝関節に置換する手術の場合、脛骨の回旋方向を適正に特定することができないために、骨切りやインプラントの取付けを案内する治具の取付け精度が低下し、結果として、インプラントの取付け精度が低下してしまう。 Furthermore, the navigation system has a problem that it is expensive, the device itself is large, and the diffusion rate is not high. For example, a simple navigation system that can be introduced at a relatively low cost by sacrificing accuracy in one axial direction (for example, the Z-axis direction) of a three-dimensional space has been developed. It is difficult to achieve high-precision surgical support during surgery. For example, in the case of surgery to replace the knee joint with an artificial knee joint, the rotation direction of the tibia cannot be properly specified, so the mounting accuracy of the jig that guides the osteotomy and implant mounting is reduced, and as a result As a result, the mounting accuracy of the implant is lowered.
加えて、上記のシステムでは、術前に撮像された患者のインプラントの取付部位の医療用断層画像を用いて計画されたデータを基に、術中に手術支援を行うようになっているため、例えば、骨切りが行われる手術では、術中に骨切り後の骨の状態を反映させて手術支援を行うことができないといった問題もある。 In addition, in the above-described system, surgical support is performed during surgery based on data planned using a medical tomographic image of a patient's implant attachment site imaged before surgery. In the operation in which osteotomy is performed, there is also a problem that the operation support cannot be performed by reflecting the state of the bone after the osteotomy during the operation.
本発明は、このような問題に鑑みてなされたものであり、外科手術の術中支援を高精度で、且つ、低コストで行うことを課題とする。 This invention is made | formed in view of such a problem, and makes it a subject to perform the intraoperative assistance of a surgical operation with high precision and low cost.
上記課題を解決するため、本発明の一態様の手術支援端末は、
患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対するインプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段と、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段と、
前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて表示部に表示させる第1表示制御手段と、
を備えることを特徴としている。
In order to solve the above problems, the surgery support terminal according to one aspect of the present invention is provided.
A reference image relating to a three-dimensional shape of a bone to which a patient's implant is to be attached, and a direction and a position of a jig for guiding and supporting the attachment of the implant to the bone on a three-dimensional model based on the reference image First acquisition means for acquiring jig information including at least one of:
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that compares the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the first acquisition unit and estimates the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the jig information acquired by the first acquisition unit, the captured image sequentially acquired by the captured image acquisition unit First display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig to be displayed on the display unit;
It is characterized by having.
また、本発明の一態様の手術支援端末は、
患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段と、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段と、
前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて表示部に表示させる第2表示制御手段と、
を備えることを特徴としている。
In addition, the surgery support terminal of one embodiment of the present invention includes:
Bone processing including at least one of a reference image related to a three-dimensional shape of a bone to be processed by a patient and a bone processing direction and position with respect to the bone on a three-dimensional model based on the reference image Second acquisition means for acquiring information;
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that compares the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the second acquisition unit to estimate the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit, the captured image sequentially acquired by the captured image acquisition unit A second display control unit that superimposes a second augmented reality image that virtually represents at least one of the direction and position of the one bone processing and displays the second augmented reality image on the display unit;
It is characterized by having.
本発明の一態様のプログラムは、
手術支援端末のコンピュータを、
患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対するインプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段、
前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて表示部に表示させる第1表示制御手段、
として機能させることを特徴としている。
The program of one embodiment of the present invention is:
The computer of the surgery support terminal
A reference image relating to a three-dimensional shape of a bone to which a patient's implant is to be attached, and a direction and a position of a jig for guiding and supporting the attachment of the implant to the bone on a three-dimensional model based on the reference image First acquisition means for acquiring jig information including at least one of
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that collates the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the first acquisition unit, and estimates the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the jig information acquired by the first acquisition unit, the captured image sequentially acquired by the captured image acquisition unit First display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying the first augmented reality image on the display unit;
It is characterized by making it function as.
本発明の一態様のプログラムは、
手術支援端末のコンピュータを、
患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段、
前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて表示部に表示させる第2表示制御手段、
として機能させることを特徴としている。
The program of one embodiment of the present invention is:
The computer of the surgery support terminal
Bone processing including at least one of a reference image related to a three-dimensional shape of a bone to be processed by a patient and a bone processing direction and position with respect to the bone on a three-dimensional model based on the reference image Second acquisition means for acquiring information;
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that estimates the posture of the bone in the captured image by comparing the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the second acquisition unit;
Based on the posture of the bone in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit, the captured image sequentially acquired by the captured image acquisition unit A second display control means for superimposing a second augmented reality image that virtually represents at least one of the orientation and position of the one bone processing and displaying it on the display unit;
It is characterized by making it function as.
本発明によれば、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。 According to the present invention, intraoperative support for a surgical operation can be performed with high accuracy and at low cost.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
以下に、本発明を適用した実施形態1の手術支援システム100について、図1〜図6を参照して説明する。
図1は、実施形態1の手術支援システム100の概略構成を模式的に示す図である。また、図2は、手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
なお、図2及び後述する図7には、手術台T上での患者Pが固定されていない状態を表しているが、医者が外科手術を施術し易くなるように固定されていても良い。
[Embodiment 1]
Below, the
FIG. 1 is a diagram schematically illustrating a schematic configuration of the
2 and FIG. 7 to be described later show a state in which the patient P on the operating table T is not fixed, but it may be fixed so that a doctor can easily perform a surgical operation.
実施形態1の手術支援システム100は、人工膝関節置換術(図2参照)に用いられるシステムであり、具体的には、図1に示すように、病院内に設置された病院端末1と、外科手術の術中支援を行う第1手術支援端末2とを備えている。また、病院端末1と第1手術支援端末2とは、無線通信回線(例えば、無線LAN(Local Area Network)等)を介して情報通信可能に接続されている。
The surgical
<病院端末>
先ず、病院端末1について、図3を参照して詳細に説明する。図3は、病院端末1の機能的構成を示すブロック図である。
病院端末1は、例えば、PC(Personal Computer)等から構成され、人工膝関節置換術の術前計画を行うためのものである。具体的には、図3に示すように、病院端末1は、中央制御部101と、メモリ102と、記憶部103と、表示部104と、操作部105と、通信制御部106とを備えている。また、病院端末1の各部は、バス107を介して接続されている。
<Hospital terminal>
First, the
The
中央制御部101は、当該病院端末1の各部を制御するものである。すなわち、中央制御部101は、図示は省略するが、CPU(Central Processing Unit)を備え、CPUは、記憶部103に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ102のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部101のCPUは、メモリ102内に各種処理結果を格納させ、必要に応じてその処理結果を表示部104に表示させる。
The
メモリ102は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部101のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。
The
記憶部103は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部103は、断層画像データI、術前計画用プログラム103a等を記憶している。
The
Specifically, the
断層画像データIは、例えば、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging system)装置などの医療用断層画像診断装置(図示略)により患者Pの人工関節により置換される患部が撮像された画像データである。すなわち、断層画像データIは、例えば、人工膝関節置換術前に、医療用断層画像診断装置により患者Pの膝関節を構成する脛骨B1a及び大腿骨B1bが撮像された画像データである。
なお、断層画像データIは、医療用断層画像診断装置から院内LAN等のネットワークを介して病院端末1に送信されたものであっても良いし、メモリカード等の記憶媒体を介して病院端末1により取得されたものであっても良い。
The tomographic image data I is obtained, for example, by imaging an affected part to be replaced by an artificial joint of a patient P by a medical tomographic image diagnostic apparatus (not shown) such as an X-ray CT (Computed Tomography) apparatus or an MRI (Magnetic Resonance Imaging system) apparatus. Image data. That is, the tomographic image data I is, for example, image data obtained by imaging the tibia B1a and the femur B1b constituting the knee joint of the patient P by a medical tomographic image diagnostic apparatus before artificial knee joint replacement.
The tomographic image data I may be transmitted from the medical tomographic image diagnostic apparatus to the
術前計画用プログラム103aは、人工関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工膝関節(脛骨側部材や大腿骨側部材等の人工関節構成部材)の形状や寸法、脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨B1aの骨切り位置、大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨B1bの骨切り位置等をシミュレーションにより特定する。
The preoperative planning program 103a is a program that realizes functions related to preoperative planning processing of artificial joint replacement.
That is, the CPU of the
なお、術前計画処理は、公知の技術であり、ここでは詳細な説明は省略するが、例えば、中央制御部101のCPUは、上記した断層画像データIから患者Pの脛骨B1aや大腿骨B1bの三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された脛骨B1aや大腿骨B1bの三次元モデル上で座標系を構築し、人工膝関節を構成する脛骨側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。
Note that the preoperative planning process is a known technique, and detailed description thereof is omitted here. For example, the CPU of the
また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された脛骨B1a及び大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の適切な向き及び位置のうちの少なくとも一方を含む治具情報をシミュレーションして生成する。この治具情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて治具の向きや位置の微調整が行われても良い。
Further, the CPU of the
具体的には、治具情報には、例えば、脛骨B1aに対する脛骨側部材の取付けを案内支援するために脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨髄内ロッドを基準として脛骨B1aの骨切りを案内する脛骨骨切り案内部材の向き及び設置位置、大腿骨B1bに対する大腿骨側部材の取付けを案内支援するために大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨髄内ロッドを基準として大腿骨B1bの骨切りを案内する大腿骨骨切り案内部材の向き及び設置位置等が含まれる。 Specifically, the jig information includes, for example, the orientation of the intra-tibial bone marrow rod inserted into the tibia B1a and the position of the insertion point, and the intra-tibia bone marrow to guide and support the attachment of the tibial side member to the tibia B1a. In the femur bone marrow inserted into the femur B1b to guide and support the orientation and installation position of the tibial osteotomy guide member for guiding the osteotomy of the tibia B1a with respect to the rod, and the attachment of the femoral side member to the femur B1b This includes the orientation of the rod and the position of the insertion point, the orientation and installation position of the femoral osteotomy guide member that guides the osteotomy of the femur B1b with respect to the intramedullary intramedullary rod.
また、中央制御部101のCPUは、下肢の機能軸、大腿骨B1bの骨頭中心の位置、大腿骨B1bの機能軸、大腿骨B1bの前方皮質近似平面、脛骨B1aの機能軸、内/外反角、屈曲・伸展角、回旋角等の各種の術中支援パラメータを生成しても良い。
The CPU of the
表示部104は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等から構成されている。また、表示部104には、中央制御部101のCPUから出力されて入力される表示信号の指示に従って、各種画面を表示する。
The
操作部105は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備えている。そして、操作部105は、これらキーボードやマウスの操作に応じて所定の操作信号を中央制御部101に出力する。
The
通信制御部106は、第1手術支援端末2との間で情報通信を行う。
すなわち、通信制御部106は、例えば、無線LANモジュール等を有し、外部のアクセスポイント(固定基地局)を経由せずに直接第1手術支援端末2の通信制御部208との間で無線通信回線を構築するPeer to Peer(アドホックモード)で動作する。例えば、通信制御部106は、無線通信回線の通信方式、暗号化情報、チャンネル、IPアドレス等の各種情報を無線通信可能範囲内に存する第1手術支援端末2の通信制御部208に送信して、この第1手術支援端末2の通信制御部208との間で無線LAN等の無線通信回線を構築して信号の送受信を行う。
具体的には、通信制御部106は、患者Pの断層画像データIや、術前計画処理により生成された術前計画データD(図4参照)を第1手術支援端末2の通信制御部208に送信する。
The
That is, the
Specifically, the
なお、通信制御部106は、例えば、無線通信可能範囲内に存するアクセスポイントとの間で無線通信回線を構築して、当該無線通信回線を介して第1手術支援端末2の通信制御部208との間で信号の送受信を行うインフラストラクチャモードで動作しても良い。
Note that the
<第1手術支援端末>
次に、第1手術支援端末2について、図4を参照して詳細に説明する。図4は、第1手術支援端末2の機能的構成を示すブロック図である。
第1手術支援端末2は、例えば、スマートフォン、タブレット等から構成され、人工膝関節置換術の術中支援を行うためのものである。具体的には、図4に示すように、第1手術支援端末2は、中央制御部201と、メモリ202と、記憶部203と、撮像部204と、信号処理部205と、表示部206と、操作部207と、通信制御部208とを備えている。また、第1手術支援端末2の各部は、バス209を介して接続されている。
<First surgery support terminal>
Next, the first
The 1st
中央制御部201は、当該第1手術支援端末2の各部を制御するものである。すなわち、中央制御部201は、図示は省略するが、CPUを備え、CPUは、記憶部203に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ202のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部201のCPUは、メモリ202内に各種処理結果を格納させ、必要に応じてその処理結果を表示部206に表示させる。
The
メモリ202は、例えば、DRAM等により構成され、中央制御部201のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。
The
記憶部203は、例えば、フラッシュメモリ、EEPROM等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部203は、第1取得プログラム203a、撮像画像取得プログラム203b、推定プログラム203c、第1特定プログラム203d、第1表示制御プログラム203e、断層画像データI、術前計画データD等を記憶している。
The
Specifically, the
第1取得プログラム203aは、基準画像及び治具情報を取得する第1取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1取得プログラム203aを読み出して、この第1取得プログラム203aに従って、第1取得処理を行う。ここで、中央制御部201のCPUは、第1取得プログラム203aとの協働により、第1取得手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工膝関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。
Specifically, the CPU of the
また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく脛骨B1aや大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報を含む術前計画データDを取得する。
The CPU of the
撮像画像取得プログラム203bは、撮像画像F(図6(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から撮像画像取得プログラム203bを読み出して、この撮像画像取得プログラム203bに従って、撮像画像取得処理を行う。ここで、中央制御部201のCPUは、撮像画像取得プログラム203bとの協働により、撮像画像取得手段として機能する。
The captured
That is, the CPU of the
具体的には、中央制御部201のCPUは、手術台T上の患者Pの骨Bの表面が撮像された撮像画像Fを取得する。例えば、人工膝関節置換術中に、手術台T上の患者Pの脛骨B1aや大腿骨B1bが内側部側から膝関節の関節面が写るように撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。このとき、脛骨B1aや大腿骨B1bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像されるのが好ましい。そして、信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。
Specifically, the CPU of the
なお、撮像画像Fは、後述するように、脛骨B1aや大腿骨B1b等の骨Bの少なくとも基準画像との照合に用いられる特徴点に対応する一部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)が撮像されていれば良い。 As will be described later, the captured image F is a portion corresponding to a feature point used for collation with at least a reference image of the bone B such as the tibia B1a or the femur B1b (for example, a proximal tibia proximal inner part or a femur It suffices if the distal front inner part or the like is imaged.
推定プログラム203cは、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から推定プログラム203cを読み出して、この推定プログラム203cに従って、推定処理を行う。ここで、中央制御部201のCPUは、推定プログラム203cとの協働により、推定手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aや大腿骨B1bの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aや大腿骨B1bを表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。
Specifically, the CPU of the
ここで、撮像画像Fと基準画像とを照合する手法は、公知の技術であるので、詳細な説明を省略するが、例えば、中央制御部201のCPUは、骨Bの三次元形状を表す基準画像を任意の二次元平面に投影した画像(3D/2D変換画像)を複数生成し、撮像画像F内から抽出した特徴点の特徴量(例えば、SIFT(Scale-Invariant Features Transform)特徴量やSURF(Speeded Up Robust Features)特徴量等)の類似度が最も高くなる画像を探索する。このとき、必要に応じて3D/2D変換画像や撮像画像Fの拡大縮小を行っても良い。
Here, since the technique for collating the captured image F with the reference image is a known technique, a detailed description thereof is omitted. For example, the CPU of the
また、中央制御部201のCPUは、類似度が最も高くなった画像に対応する骨Bの三次元モデル上での当該骨Bを構成する各点の座標位置、撮像画像F内での患者Pの骨Bを構成する各点の座標位置等に基づいて、所定の座標変換式を解いて、当該第1手術支援端末2に対する患者Pの骨Bの姿勢及び位置関係を表す行列を推定する。このとき、画像からの幾何学的なモデルのパラメータの推定精度を向上させるためのバンドル調整を行っても良い。
The CPU of the
なお、撮像画像Fとして、患者Pの骨Bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像された撮像画像Fを用いる場合、必ずしも撮像画像F内での骨Bの位置を推定する必要はないと考えられるが、当該推定結果を利用する各種処理(第1特定処理や第1表示制御処理等;後述)をより適正に行う上では、撮像画像F内での骨Bの姿勢及び位置の推定を行うのが好ましい。
As the captured image F, the captured image F captured by the
また、撮像画像Fと基準画像との照合において、例えば、撮像対象となる骨Bの形状や状態、撮像する際の第1手術支援端末2の向きや位置、撮像環境の明るさや光の方向等によっては、特徴点や特徴量の抽出を適正に行うことができない虞がある。そこで、予め骨Bの特徴的な形状部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)を基準画像内で指定して登録(レジストレーション)しておき、撮像部204による骨Bの撮像の際に、当該特徴的な形状部分を所定の指示棒(図示略)などを用いて指示することで、特徴点や特徴量の抽出をより適正に行うことができるようにしても良い。
Further, in the comparison between the captured image F and the reference image, for example, the shape and state of the bone B to be imaged, the orientation and position of the first
また、特徴点の特徴量を用いた撮像画像Fと基準画像との照合に換えて、或いは、併用して、例えば、レーザーメスなどを用いて予め骨Bの所定位置(例えば、骨切りにより切除される位置等)に位置合わせ用のマーカを付けておき、当該マーカを撮像してその姿勢を推定し、推定結果から患者Pの骨Bの姿勢を推定するようにしても良い。 Further, in place of or in combination with the captured image F using the feature amount of the feature point and the reference image, for example, a predetermined position of the bone B (for example, excision by osteotomy) using a laser knife or the like. Or the like), an alignment marker may be attached to the image, the posture of the marker P is estimated by imaging the marker, and the posture of the bone B of the patient P may be estimated from the estimation result.
第1特定プログラム203dは、治具(図示略)の向きや位置を特定する第1特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1特定プログラム203dを読み出して、この第1特定プログラム203dに従って、第1特定処理を行う。ここで、中央制御部201のCPUは、第1特定プログラム203dとの協働により、第1特定手段として機能する。
The first specifying
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する治具の向き及び位置のうちの少なくとも一方を特定する。
Specifically, the CPU of the
例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aの座標系での当該脛骨B1aに対する脛骨髄内ロッドの向き及び刺入点の位置を特定する。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入された場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨骨切り案内部材の向き及び設置位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び設置位置を特定する。
For example, in the case of the tibia B1a, the CPU of the
また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨骨切り案内部材の向き及び設置位置の特定に、例えば、撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置が必要となる場合がある。
この場合、例えば、第1手術支援端末2を患者Pの大腿骨B1bの遠位端側の所定位置に所定の固定機構を介して固定(例えば、骨切りにより切除される位置に螺合したり、切除されない位置をクランプしたりして固定;図示略)し、この状態で、当該大腿骨B1bの遠位端側を回動させた際の角速度や角加速度等を第1手術支援端末2の角速度センサ(図示略)を用いて測定することで、当該大腿骨B1bの骨頭中心の位置の絶対座標を算出する。そして、算出された大腿骨B1bの骨頭中心の位置の絶対座標から撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1の骨頭中心の位置を特定するようにしても良い。
In the case of the femur B1b, the processing content is substantially the same, and detailed description is omitted here, but the orientation of the femoral intramedullary rod and the position of the insertion point, the orientation of the femoral osteotomy guide member and the installation position. For example, the position of the center of the femoral head of the femur B1b in the coordinate system of the femur B1b in the captured image F may be required.
In this case, for example, the first
なお、この手法による撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置の特定は、上記した推定処理における撮像画像Fと基準画像との照合の際に行っても良く、これにより、撮像画像F内での大腿骨B1bの姿勢の推定をより適正に行うことができる。 The position of the femoral head center of the femur B1b in the coordinate system of the femur B1b in the captured image F by this method is specified when the captured image F is compared with the reference image in the estimation process described above. As a result, the posture of the femur B1b in the captured image F can be estimated more appropriately.
第1表示制御プログラム203eは、拡張現実(augmented reality:AR)技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第1表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1表示制御プログラム203eを読み出して、この第1表示制御プログラム203eに従って、第1表示制御処理を行う。ここで、中央制御部201のCPUは、第1表示制御プログラム203eとの協働により、第1表示制御手段として機能する。
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、治具の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(図6(a)及び図6(b)参照)。より具体的には、中央制御部201のCPUは、第1特定処理により特定された撮像画像F内の患者Pの骨Bに対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
The first
That is, the CPU of the
Specifically, the CPU of the
例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる(図6(a)参照)。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入されると、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
For example, in the case of the tibia B1a, the CPU of the
また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、図6(b)に示すように、中央制御部201のCPUは、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
In the case of the femur B1b, the processing contents are substantially the same, and detailed description thereof is omitted here. For example, as shown in FIG. The first augmented reality image AR1 that virtually represents the orientation of the femoral intramedullary rod relative to the femur B1b and the position of the insertion point of the femoral intramedullary rod is superimposed on the captured image F and displayed on the
第1拡張現実画像AR1としては、図6(a)及び図6(b)に示すように、長尺な円柱形状のものを例示したが、一例であってこれに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第1拡張現実画像AR1は、撮像画像Fに重畳表示されるものであるため、図6(a)や図6(b)に示すような半透過の状態か、或いは、外形のみが識別可能に表示された透過状態として、ユーザ(例えば、医者等)による当該撮像画像F内での骨Bの視認を妨げないようにするのが好ましい。 As the first augmented reality image AR1, as shown in FIGS. 6 (a) and 6 (b), a long cylindrical shape is exemplified, but the example is not limited to this, and the shape is not limited thereto. The dimensions can be arbitrarily changed as appropriate. Further, since the first augmented reality image AR1 is superimposed on the captured image F, the first augmented reality image AR1 is in a semi-transparent state as shown in FIGS. 6A and 6B, or only the outer shape is identified. It is preferable to prevent the user from viewing the bone B in the captured image F as a transmissive state that is displayed as possible.
なお、図6(a)にあっては、患者Pの脛骨B1a以外の部分の図示は省略し、同様に、図6(b)にあっては、患者Pの大腿骨B1b以外の部分の図示は省略しているが、実際には、脛骨B1aや大腿骨B1bの周囲の組織(例えば、軟骨、腱、靱帯、皮膚等)も撮像部204により撮像されて表示パネル206aに表示された状態となる。
In FIG. 6A, the illustration of the portion other than the tibia B1a of the patient P is omitted. Similarly, in FIG. 6B, the illustration of the portion other than the femur B1b of the patient P. Is omitted, but in reality, tissues around the tibia B1a and the femur B1b (for example, cartilage, tendon, ligament, skin, etc.) are also captured by the
撮像部204は、手術台T上の患者Pの骨Bの表面を撮像する。具体的には、撮像部204は、例えば、図示は省略するが、レンズ部と、電子撮像部と、撮像制御部とを備えている。
The
レンズ部は、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ(図示略)から構成されている。
電子撮像部は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(図示略)から構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部は、タイミング発生器やドライバ(図示略)等により電子撮像部を走査駆動して、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。
The lens unit includes a plurality of lenses (not shown) such as a zoom lens and a focus lens.
The electronic imaging unit includes, for example, an image sensor (not shown) such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), and an optical image passing through various lenses of the lens unit is converted into a two-dimensional image signal. Convert to
The imaging control unit scans and drives the electronic imaging unit with a timing generator, a driver (not shown), etc., and converts an optical image formed by the lens unit at a predetermined period into a two-dimensional image signal by the electronic imaging unit. The frame image is read out from the imaging area of the electronic imaging unit for each screen and is output to the
信号処理部205は、電子撮像部から転送されたフレーム画像のアナログ値の信号に対して各種の画像信号処理を施す。
具体的には、信号処理部205は、例えば、フレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、信号処理部205は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ202に出力する。
The
Specifically, for example, the
The
表示部206は、例えば、中央制御部201のCPUの制御下にて各種情報を表示領域内に表示する。具体的には、表示部206は、例えば、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダ等を備え、中央制御部201のCPUによる各種のアプリケーションプログラムの実行に基づいて、アプリケーション画面を生成し、生成されたアプリケーション画面のデータを表示パネル206aに出力する。
なお、表示パネル206aは、例えば、液晶表示パネルや有機EL表示パネル等から構成されている。
The
The
操作部207は、当該第1手術支援端末2の所定操作を行うためのものである。具体的には、操作部207は、電源のON/OFF操作に係る電源ボタン、撮像指示に係るシャッタボタン、各種のモードや機能等の選択指示に係るボタン等(何れも図示略)を備えている。そして、ユーザにより各種ボタンが操作されると、操作部207は、操作されたボタンに応じた操作指示を中央制御部201に出力する。中央制御部201は、操作部207から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作部207は、表示部206の表示パネル206aと一体となって設けられたタッチパネル(図示略)を有していても良い。
The
Note that the
通信制御部208は、病院端末1との間で情報通信を行う。
すなわち、通信制御部208は、例えば、病院端末1の通信制御部106と略同様に、無線LANモジュール等を有し、Peer to Peer(アドホックモード)やインフラストラクチャモードで動作する。
具体的には、通信制御部208は、病院端末1の通信制御部106から送信された患者Pの断層画像データIや術前計画データDを受信する。なお、通信制御部208により受信された断層画像データIや術前計画データDは、記憶部203に出力されて当該記憶部203に記憶される。
The
That is, the
Specifically, the
<第1術中支援処理>
以下に、人工膝関節置換術における第1術中支援処理について、図5及び図6を参照して説明する。
図5は、第1手術支援端末2を用いた第1術中支援処理に係る動作の一例を示すフローチャートである。また、図6(a)及び図6(b)は、第1術中支援処理にて第1手術支援端末2の表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<First intraoperative support process>
Below, the 1st intraoperative assistance process in artificial knee joint replacement is demonstrated with reference to FIG.5 and FIG.6.
FIG. 5 is a flowchart illustrating an example of an operation related to the first intraoperative support process using the first
なお、以下の説明では、予め病院端末1にて人工膝関節置換術の術前計画処理が行われて、当該病院端末1から断層画像データI及び術前計画データDが第1手術支援端末2に送信されて、記憶部203に記憶されているものとする。
In the following description, preoperative planning processing for artificial knee joint replacement is performed in advance at the
図5に示すように、先ず、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像、並びに、治具情報を含む術前計画データDを取得する(ステップS1;第1取得処理)。
具体的には、中央制御部201のCPUは、第1取得プログラム203aに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、脛骨B1aや大腿骨B1bに対する人工関節構成部材の取付けを案内支援するための脛骨髄内ロッド、脛骨骨切り案内部材、大腿骨髄内ロッド、大腿骨骨切り案内部材等の治具に係る治具情報を含む術前計画データDを取得する。
As shown in FIG. 5, first, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、脛骨B1a等)を第1術中支援処理の対象となる対象骨として指定する(ステップS2)。
Next, the CPU of the
続けて、中央制御部201のCPUは、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS3;撮像画像取得処理)。
具体的には、手術台T上の患者Pの対象骨(例えば、脛骨B1a等)の撮像部204による撮像が開始されると、信号処理部205は、対象骨の表面が撮像されたフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次生成してメモリ202に出力する。中央制御部201のCPUは、撮像画像取得プログラム203bに従って、信号処理部205により逐次生成された撮像画像Fの画像データをメモリ202から逐次取得する。
Subsequently, the CPU of the
Specifically, when imaging by the
その後、中央制御部201のCPUは、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS4;推定処理)。
具体的には、中央制御部201のCPUは、推定プログラム203cに従って、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aを表す基準画像等)と照合して、第1手術支援端末2に対する患者Pの対象骨(例えば、脛骨B1a等)の姿勢及び位置関係を表す行列を推定する。
Thereafter, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する治具の向き及び位置を特定する(ステップS5;第1特定処理)。
具体的には、中央制御部201のCPUは、第1特定プログラム203dに従って、推定処理により推定された撮像画像F内での対象骨(例えば、脛骨B1a等)の姿勢と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する治具の向き及び位置(例えば、脛骨髄内ロッドの向き及び刺入点の位置等)を特定する。
Next, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する治具の向き及び位置を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(ステップS6;第1表示制御処理)。
具体的には、中央制御部201のCPUは、第1表示制御プログラム203eに従って、第1特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、脛骨B1a等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Subsequently, the CPU of the
Specifically, the CPU of the
例えば、対象骨が脛骨B1aの場合、中央制御部201のCPUは、脛骨髄内ロッドの刺入前には、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(a)参照)、また、脛骨髄内ロッドの刺入後には、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、脛骨B1aに対する脛骨髄内ロッドの向きや刺入点の位置、脛骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the tibia B1a, the CPU of the
As a result, the doctor can visually recognize the first augmented reality image AR1 and grasp the orientation of the tibia intramedullary rod relative to the tibia B1a, the position of the insertion point, and the orientation and position of the tibial osteotomy guide member.
その後、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS7)。
ここで、対象骨となる骨Bが他にあると判定されると(ステップS7;YES)、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、前回対象骨として指定されていない他方の骨B(例えば、大腿骨B1b等)を新たな対象骨として指定した後(ステップS8)、処理をステップS3に戻す。
Thereafter, the CPU of the
Here, if it is determined that there is another bone B as the target bone (step S7; YES), the CPU of the
そして、中央制御部201のCPUは、ステップS3〜S6の各処理を上記と略同様にして行い、ステップS6の第1表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、大腿骨B1b等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Then, the CPU of the
例えば、対象骨が大腿骨B1bの場合、中央制御部201のCPUは、大腿骨髄内ロッドの刺入前には、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(b)参照)、また、大腿骨髄内ロッドの刺入後では、撮像画像F内の大腿骨B1bに対する大腿骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、大腿骨B1bに対する大腿骨髄内ロッドの向きや刺入点の位置、大腿骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the femur B1b, the CPU of the
Accordingly, the doctor can visually recognize the first augmented reality image AR1 and grasp the orientation of the femoral intramedullary rod relative to the femur B1b, the position of the insertion point, and the orientation and position of the femoral osteotomy guide member.
一方、ステップS7にて、対象骨となる骨Bが他にないと判定されると(ステップS7;NO)、中央制御部201のCPUは、当該第1術中支援処理を終了する。
On the other hand, when it is determined in step S7 that there is no other bone B to be the target bone (step S7; NO), the CPU of the
以上のように、実施形態1の手術支援システム100によれば、第1手術支援端末2は、人工膝関節置換術の術中に、患者Pのインプラント(例えば、人工膝関節等)が取り付けられる予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対するインプラントの取付けを案内支援するための治具(例えば、髄内ロッドや骨切り案内部材等)の向きや位置を含む治具情報とに基づいて、逐次取得された撮像画像Fに治具の向きや位置を仮想的に表す第1拡張現実画像AR1を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第1拡張現実画像AR1を視認するだけで骨Bに対する治具の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの***の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する治具の向きや位置を医者が逐次把握することができ、結果として、より正確に人工膝関節の取付けを行うことができるようになる。
特に、第1手術支援端末2としては、例えば、スマートフォンやタブレット等の一般的な端末を適用することができ、当該手術支援システム100の導入コストをより低下させることができる。
さらに、ナビゲーションシステムでは必要なマーカが不要となり、手術時間をより短時間化することができるだけでなく、人工膝関節置換術をより低侵襲で行うことができる。
As described above, according to the
In particular, as the first
Furthermore, the navigation system eliminates the need for the marker, shortens the operation time, and makes it possible to perform artificial knee joint replacement with less invasiveness.
[実施形態2]
以下に、本発明を適用した実施形態2の手術支援システム100について、図7〜図10を参照して説明する。
なお、以下に説明する以外の点は、上記実施形態1と略同様であり、詳細な説明は省略する。
[Embodiment 2]
Below, the
The points other than those described below are substantially the same as those in the first embodiment, and detailed description thereof is omitted.
図7は、実施形態2の手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
実施形態2の手術支援システム100は、図7に示すように、人工股関節置換術に用いられるシステムであり、実施形態1と同様に、無線通信回線を介して情報通信可能に接続された病院端末1と、第2手術支援端末2A(図8参照)とを備えている。
なお、図7には、手術台T上にて側臥位状態の患者Pを例示したが、一例であってこれに限られるものではなく、例えば、患者Pは仰臥位状態であっても良い。
FIG. 7 is a perspective view for explaining an artificial knee joint replacement in which the
As shown in FIG. 7, the
FIG. 7 illustrates the patient P in the lateral position on the operating table T. However, the patient P is not limited to this example. For example, the patient P may be in the supine position.
<病院端末>
病院端末1は、人工股関節置換術の術前計画を行うためのものである以外の点は、上記実施形態1と略同様である。
すなわち、病院端末1の記憶部103は、例えば、人工股関節置換術前に、医療用断層画像診断装置により患者Pの股関節を構成する骨盤(図示略)及び大腿骨B2が撮像された断層画像データIと、人工股関節置換術の術前計画処理用の術前計画用プログラム103aとを記憶している。
<Hospital terminal>
The
That is, the
術前計画用プログラム103aは、人工股関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工股関節(骨盤側部材(臼蓋カップ)や大腿骨側部材(大腿骨ステム)等の人工関節構成部材)の形状や寸法、臼蓋のリーミング位置やリーミング量、大腿骨B2の骨切り位置等をシミュレーションにより特定する。
The preoperative planning program 103a is a program that realizes functions related to preoperative planning processing of hip replacement.
That is, the CPU of the
具体的には、上記実施形態1と略同様に、中央制御部101のCPUは、上記した断層画像データIから患者Pの骨盤や大腿骨B2の三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された骨盤や大腿骨B2の三次元モデル上で座標系を構築し、人工股関節を構成する骨盤側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。
Specifically, the CPU of the
また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工(骨切りや切削)の適切な向き及び位置のうちの少なくとも一方を含む骨加工情報をシミュレーションして生成する。さらに、骨加工情報には、表示部104に表示され、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置のうちの少なくとも一方が含まれる。この骨加工情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて一の骨加工や他の骨加工の向きや位置の微調整が行われても良い。
The CPU of the
具体的には、一の骨加工としては、例えば、骨盤の臼蓋のリーミング、大腿骨B2の骨頭の骨切り等が挙げられ、他の骨加工としては、例えば、大腿骨B2のリーミングが挙げられる。
また、中央制御部101のCPUは、骨盤の前骨盤平面の傾き、臼蓋の寸法や向き、大腿骨B2の骨頭中心の位置、大腿骨B2の解剖軸等の各種の術中支援パラメータを生成しても良い。
Specifically, examples of the bone processing include reaming of the acetabulum of the pelvis and osteotomy of the femoral head of the femur B2, and other bone processing includes reaming of the femur B2, for example. It is done.
In addition, the CPU of the
<第2手術支援端末>
次に、第2手術支援端末2Aについて、図8を参照して詳細に説明する。図8は、第2手術支援端末2Aの機能的構成を示すブロック図である。
第2手術支援端末2Aは、人工股関節置換術の術中支援を行うためのものである以外の点は、上記実施形態1と略同様である。具体的には、図8に示すように、第2手術支援端末2Aの記憶部203は、第2取得プログラム203f、撮像画像取得プログラム203b、推定プログラム203c、第2特定プログラム203g、第2表示制御プログラム203h、断層画像データI、術前計画データD等を記憶している。
<Second surgery support terminal>
Next, the second
The second
第2取得プログラム203fは、基準画像及び骨加工情報を取得する第2取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2取得プログラム203fを読み出して、この第2取得プログラム203fに従って、第2取得処理を行う。ここで、中央制御部201のCPUは、第2取得プログラム203fとの協働により、第2取得手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、上記実施形態1の第1取得処理と略同様に、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工股関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。この基準画像は、後述する骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像を含んでいる。
Specifically, the CPU of the
また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工の向き及び位置のうちの少なくとも一方、並びに、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、大腿骨B2に対する他の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報を含む術前計画データDを取得する。
The CPU of the
撮像画像取得プログラム203bは、上記実施形態1と略同様に、撮像画像F(図10(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、例えば、人工股関節置換術中に、手術台T上の患者Pの骨盤や大腿骨B2が撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。
The captured
That is, for example, when the pelvis or femur B2 of the patient P on the operating table T is imaged by the
また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理にて、一の骨加工後の骨Bが撮像された撮像画像Fの画像データを逐次取得する。
In addition, after one bone processing is performed on the bone B of the patient P, the CPU of the
推定プログラム203cは、上記実施形態1と略同様に、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、骨盤や大腿骨B2の表面形状を表す撮像画像F等)を第2取得処理により取得された基準画像(例えば、骨盤や大腿骨B2を表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。
The
Specifically, the CPU of the
また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像Fと第2取得処理により取得された基準画像とを照合して、撮像画像F内での一の骨加工後の骨Bの姿勢を推定する。ここで、一の骨加工後の骨Bの姿勢を推定する処理は、上記した一の骨加工前の骨Bの姿勢を推定する処理と略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状を表す基準画像を任意の二次元平面に投影した画像を複数生成して、撮像画像Fとの照合を行うようになっている。
In addition, after one bone processing is performed on the bone B of the patient P, the CPU of the
第2特定プログラム203gは、骨加工の向きや位置を特定する第2特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2特定プログラム203gを読み出して、この第2特定プログラム203gに従って、第2特定処理を行う。ここで、中央制御部201のCPUは、第2特定プログラム203gとの協働により、第2特定手段として機能する。
The second specifying
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する一の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内での大腿骨B2の姿勢と、骨加工情報に含まれる大腿骨B2の三次元モデル上での当該大腿骨B2に対する骨切り(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の大腿骨B2の座標系での当該大腿骨B2の骨頭の骨切りの向き及び位置を特定する。
Specifically, the CPU of the
また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内での骨切り後の大腿骨B2の姿勢と、骨加工情報に含まれる仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのためのリーミング(他の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨切り後の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨切り後の大腿骨B2の座標系での当該大腿骨B2のリーミングの向き及び位置を特定する。
Further, the CPU of the
また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、中央制御部201のCPUは、撮像画像F内での骨盤の姿勢と、骨加工情報に含まれる骨盤の三次元モデル上での当該骨盤の臼蓋のリーミング(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨盤の座標系と当該骨盤の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨盤の座標系での当該骨盤の臼蓋のリーミングの向き及び位置を特定する。
In the case of the pelvis, the processing contents are substantially the same, and detailed description thereof is omitted here. However, the CPU of the
第2表示制御プログラム203hは、拡張現実技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第2表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2表示制御プログラム203hを読み出して、この第2表示制御プログラム203hに従って、第2表示制御処理を行う。ここで、中央制御部201のCPUは、第2表示制御プログラム203hとの協働により、第2表示制御手段として機能する。
The second
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、一の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の骨Bに対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。
Specifically, the CPU of the
また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、他の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2に対する大腿骨側部材の取付けのための当該大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。
In addition, the CPU of the
また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
In the case of the pelvis, the processing contents are substantially the same, and detailed description thereof is omitted here. For example, the CPU of the
第2拡張現実画像AR2として、骨切り面を表す平面状のものを例示し(図10(a)参照)、第3拡張現実画像AR3として、長尺な円柱形状のものを例示したが(図10(b)参照)、一例であってこれらに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第2拡張現実画像AR2及び第3拡張現実画像AR2は、第1拡張現実画像AR1と同様に、半透過の状態か、或いは、外形のみが識別可能に表示された透過状態とするのが好ましい。 As the second augmented reality image AR2, a planar one representing an osteotomy surface is illustrated (see FIG. 10A), and as the third augmented reality image AR3, a long cylindrical shape is illustrated (see FIG. 10). 10 (b)), which is an example and is not limited thereto, and the shape and dimensions can be arbitrarily changed as appropriate. Further, the second augmented reality image AR2 and the third augmented reality image AR2 may be in a semi-transparent state or in a transmissive state in which only the outer shape is displayed so as to be identifiable, like the first augmented reality image AR1. preferable.
なお、図10(a)及び図10(b)にあっては、患者Pの大腿骨B2以外の部分の図示は省略しているが、実際には、大腿骨B2の周囲の組織も撮像部204により撮像されて表示パネル206aに表示された状態となる。
10 (a) and 10 (b), illustration of portions other than the femur B2 of the patient P is omitted, but actually, the tissue around the femur B2 is also imaged. The image is captured by 204 and displayed on the
<第2術中支援処理>
以下に、人工股関節置換術における第2術中支援処理について、図9及び図10を参照して説明する。
図9は、第2手術支援端末2Aを用いた第2術中支援処理に係る動作の一例を示すフローチャートである。また、図10(a)及び図10(b)は、第2術中支援処理にて第2手術支援端末2Aの表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<Second intraoperative support process>
Hereinafter, the second intraoperative support process in the hip replacement will be described with reference to FIGS. 9 and 10.
FIG. 9 is a flowchart illustrating an example of an operation related to the second intraoperative support process using the second
図9に示すように、先ず、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像、並びに、骨加工情報を含む術前計画データDを取得する(ステップS11;第2取得処理)。
具体的には、中央制御部201のCPUは、第2取得プログラム203fに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、骨盤や大腿骨B2一の骨加工の向き及び位置、並びに、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置に係る骨加工情報を含む術前計画データDを取得する。
As shown in FIG. 9, first, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、大腿骨B2等)を第2術中支援処理の対象となる対象骨として指定する(ステップS12)。
Next, the CPU of the
続けて、中央制御部201のCPUは、実施形態1の第1術中支援処理のステップS3と略同様に、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得し(ステップS13;撮像画像取得処理)、実施形態1の第1術中支援処理のステップS4と略同様に、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS14;推定処理)。
Subsequently, the CPU of the
次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する一の骨加工の向き及び位置を特定する(ステップS15;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する一の骨加工(例えば、大腿骨B2の骨切り等)の向き及び位置を特定する。
Next, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する一の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる(ステップS16;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、大腿骨B2等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。
これにより、医者は第2拡張現実画像AR2を視認して、大腿骨B2の骨頭の骨切りの向き及び位置を把握することができる。
Subsequently, the CPU of the
Specifically, the CPU of the
Thus, the doctor can visually recognize the second augmented reality image AR2 and grasp the direction and position of the osteotomy of the femoral head of the femur B2.
その後、中央制御部201のCPUは、例えば、術前計画データDに基づいて、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する(ステップS17)。
ここで、他の骨加工が必要であると判定されると(ステップS17;YES)、中央制御部201のCPUは、ステップS13と略同様に、一の骨加工後の対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS18;撮像画像取得処理)。続けて、中央制御部201のCPUは、ステップS14と略同様に、撮像画像F内での一の骨加工後の対象骨の姿勢を推定する(ステップS19;推定処理)。
Thereafter, the CPU of the
Here, if it is determined that other bone processing is necessary (step S17; YES), the CPU of the
その後、中央制御部201のCPUは、撮像画像F内の一の骨加工後の対象骨に対する他の骨加工の向き及び位置を特定する(ステップS20;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での一の骨加工後の対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の一の骨加工後の対象骨の座標系での当該対象骨に対する他の骨加工(例えば、大腿骨B2のリーミング等)の向き及び位置を特定する。
Thereafter, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに一の骨加工後の対象骨に対する他の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる(ステップS21;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の一の骨加工後の対象骨(例えば、大腿骨B2等)に対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。
これにより、医者は第3拡張現実画像AR3を視認して、大腿骨B2のリーミングの向き及び位置を把握することができる。
Subsequently, the CPU of the
Specifically, the CPU of the
Thus, the doctor can visually recognize the third augmented reality image AR3 and grasp the reaming direction and position of the femur B2.
その後、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS22)。また、ステップS17にて、他の骨加工が必要でないと判定された場合(ステップS17;NO)にも、中央制御部201のCPUは、処理をステップS22に移行し、対象骨となる骨Bが他にあるか否かを判定する。
Thereafter, the CPU of the
ステップS22にて、対象骨となる骨Bが他にあると判定されると(ステップS22;YES)、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、前回対象骨として指定されていない他方の骨B(例えば、骨盤等)を新たな対象骨として指定した後(ステップS23)、処理をステップS13に戻す。
If it is determined in step S22 that there is another bone B as the target bone (step S22; YES), the CPU of the
そして、中央制御部201のCPUは、ステップS13〜S16の各処理を上記と略同様にして行い、ステップS16の第2表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、骨盤等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が骨盤の場合、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第2拡張現実画像AR2を視認して、骨盤の臼蓋のリーミングの向き及び位置を把握することができる。
Then, the CPU of the
Accordingly, the doctor can visually recognize the second augmented reality image AR2 and grasp the reaming direction and position of the pelvic acetabulum.
その後、ステップS17にて、中央制御部201のCPUは、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する。例えば、対象骨が骨盤の場合、臼蓋のリーミング以外の他の骨加工が不要であることから、中央制御部201のCPUは、他の骨加工が必要でないと判定して(ステップS17;NO)、処理をステップS22に移行する。
Thereafter, in step S <b> 17, the CPU of the
一方、ステップS22にて、対象骨となる骨Bが他にないと判定されると(ステップS22;NO)、中央制御部201のCPUは、当該第2術中支援処理を終了する。
On the other hand, when it is determined in step S22 that there is no other bone B as the target bone (step S22; NO), the CPU of the
以上のように、実施形態2の手術支援システム100によれば、第2手術支援端末2Aは、人工股関節置換術の術中に、患者Pの骨加工される予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対する一の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに一の骨加工の向きや位置を仮想的に表す第2拡張現実画像AR2を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第2拡張現実画像AR2を視認するだけで骨Bに対する一の骨加工の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの***の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する一の骨加工の向きや位置を医者が逐次把握することができ、結果として、より正確に一の骨加工を行うことができるようになる。
As described above, according to the
さらに、一の骨加工後には、当該一の骨加工後の骨Bが撮像された撮像画像Fを逐次取得し、逐次取得された撮像画像Fと骨Bに対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像とを照合して、この撮像画像F内での一の骨加工後の骨Bの姿勢を推定し、推定された撮像画像F内での一の骨加工後の骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該一の骨加工後の骨Bに対するインプラントの取付けのための他の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに他の骨加工の向きや位置を仮想的に表す第3拡張現実画像AR3を重畳させて表示部206に表示させるので、骨Bに対して一の骨加工が施された状態でも、医者が表示部206に表示されている第3拡張現実画像AR3を視認するだけで一の骨加工後の骨Bに対する他の骨加工の向きや位置を適正に把握することができる。
Furthermore, after one bone processing, the captured image F obtained by imaging the bone B after the one bone processing is sequentially acquired, and one bone processing is virtually performed on the sequentially acquired captured image F and the bone B. Is compared with a reference image relating to a three-dimensional shape in a state of being subjected to the estimation, the posture of one bone-processed bone B in the captured image F is estimated, and one in the estimated captured image F is estimated. The posture of the bone B after bone processing of the bone B and the direction and position of other bone processing for attaching the implant to the bone B after the bone processing on the three-dimensional model based on the reference image of the bone B Based on the bone processing information, the third augmented reality image AR3 that virtually represents the direction and position of another bone processing is superimposed on the sequentially acquired captured image F and displayed on the
なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、インプラントとして、人工膝関節や人工股関節を例示したが、一例であってこれに限られるものではなく、例えば、脊椎ケージや人工椎体など適宜任意に変更可能である。また、例えば、人工膝関節置換術においては、実施形態1のように、髄内ロッドや骨切り案内部材(治具)を用いずに、実施形態2のように、脛骨B1aや大腿骨B1bに対する骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。このとき、骨Bに対する骨加工が複数回行われる場合には、実施形態2のように、一の骨加工後の骨Bの姿勢を推定し、他の骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, although an artificial knee joint and an artificial hip joint are illustrated as an implant, it is only an example and is not limited thereto. For example, a spinal cage or an artificial vertebral body can be arbitrarily changed. Further, for example, in artificial knee joint replacement, the intramedullary rod and the osteotomy guide member (jig) are not used as in the first embodiment, but the tibia B1a and the femur B1b are used as in the second embodiment. The direction and position of bone processing may be represented virtually using augmented reality technology. At this time, when the bone processing on the bone B is performed a plurality of times, as in the second embodiment, the posture of the bone B after one bone processing is estimated, and the direction and position of the other bone processing are set as augmented reality technology. You may make it represent virtually using.
また、上記実施形態1にあっては、第1拡張現実画像AR1として、脛骨髄内ロッドや大腿骨髄内ロッド等の治具の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該治具の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第1拡張現実画像AR1は、治具の向きや位置を直接的に表すものに変えて、或いは、加えて、治具の向きや位置を間接的に表し、当該治具の向きや位置の調整の基準となる位置(例えば、脛骨B1aの場合、後十字靭帯付着部、脛骨結節内縁等)を表すものであっても良い。 In the first embodiment, the first augmented reality image AR1 is illustrated as a virtual representation of both the orientation and position of a jig such as a tibia intramedullary rod or a femoral intramedullary rod. However, the present invention is not limited to this. For example, any one of the orientation and position of the jig may be virtually represented. Further, the first augmented reality image AR1 is changed to or directly represents the orientation and position of the jig, or in addition, the orientation and position of the jig is indirectly represented. It may represent a position (for example, in the case of the tibia B1a, the posterior cruciate ligament attachment portion, the tibial nodule inner edge, etc.).
また、上記実施形態2にあっては、第2拡張現実画像AR2として、一の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該一の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。同様に、第3拡張現実画像AR3として、インプラントの取付けのための他の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該他の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第2拡張現実画像AR2や第3拡張現実画像AR3は、一の骨加工や他の骨加工の向きや位置を直接的に表すものに変えて、或いは、加えて、一の骨加工や他の骨加工の向きや位置を間接的に表し、当該一の骨加工や他の骨加工の向きや位置の調整の基準となる位置(例えば、大腿骨B2の場合、骨軸等)を表すものであっても良い。
また、第1〜第3拡張現実画像AR1〜AR3を表示する際に、撮像画像Fと基準画像との照合状態を表すために骨Bの三次元モデルも併せて表示パネル206aに表示するようにしても良い。
In the second embodiment, the second augmented reality image AR2 is illustrated as a virtual representation of both the bone processing direction and position, but is not limited to this example. For example, any one of the direction and position of the one bone processing may be virtually represented. Similarly, as the third augmented reality image AR3, the virtual representation of both the direction and position of other bone processing for the attachment of the implant is illustrated, but this is an example and the present invention is not limited to this. For example, any one of the other bone processing directions and positions may be virtually represented. Further, the second augmented reality image AR2 and the third augmented reality image AR3 may be changed to one that directly represents the direction and position of one bone processing or another bone processing, or in addition, It indirectly represents the direction and position of other bone processing, and represents a position (for example, a bone axis in the case of the femur B2) as a reference for adjusting the direction and position of the one bone processing or the other bone processing. It may be a thing.
In addition, when displaying the first to third augmented reality images AR1 to AR3, the three-dimensional model of the bone B is also displayed on the
さらに、上記実施形態1、2にあっては、例えば、予め人種、年齢及び性別などの人の身体的特徴の各々に対応する標準的な骨Bの三次元形状を表す画像データを複数用意しておき、患者Pの骨Bの断層画像データIがない場合には、当該患者Pの身体的特徴に合致する画像データを基準画像として利用しても良い。 Further, in the first and second embodiments, for example, a plurality of image data representing a standard three-dimensional shape of the bone B corresponding to each of the physical characteristics of the person such as race, age, and sex are prepared in advance. In addition, when there is no tomographic image data I of the bone B of the patient P, image data that matches the physical characteristics of the patient P may be used as the reference image.
また、上記実施形態1、2にあっては、手術支援システム100として、病院端末1と第1手術支援端末2や第2手術支援端末2Aとが無線通信回線を介して接続された構成を例示したが、一例であってこれに限られるものではなく、例えば、有線ケーブル(図示略)を用いて情報通信可能に接続されていても良い。また、無線通信回線として、無線LANを例示したが、一例であってこれに限られるものではなく、例えば、Bluetooth(登録商標)を用いても良い。
In the first and second embodiments, the
さらに、第1手術支援端末2及び第2手術支援端末2Aの構成は、一例であってこれらに限られるものではない。例えば、術前計画処理を病院端末1にて行うようにしたが、一例であってこれに限られるものではなく、例えば、第1手術支援端末2及び第2手術支援端末2Aが行っても良く、この場合には、断層画像データI及び術前計画データDのうち、少なくとも断層画像データIを取得すれば良い。また、第1手術支援端末2及び第2手術支援端末2Aは、断層画像データIや術前計画データDをメモリカード等の記憶媒体を介して病院端末1から取得しても良い。さらに、第1手術支援端末2及び第2手術支援端末2Aとしては、例えば、ウェアラブルコンピューターデバイス、特に、頭部装着型コンピューターデバイス(ヘッドマウンティドディスプレイ)を用いても良い。
Furthermore, the structure of the 1st
また、上記実施形態1の第1手術支援端末2にあっては、第1取得手段、撮像画像取得手段、推定手段及び第1表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
同様に、上記実施形態2の第2手術支援端末2Aにあっては、第2取得手段、撮像画像取得手段、推定手段及び第2表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
In the first
Similarly, in the second
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable storage medium such as a CD-ROM, in addition to a ROM or a hard disk, is applied. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
加えて、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。 In addition, it should be thought that embodiment disclosed this time is an illustration and restrictive at no points. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 手術支援システム
1 病院端末
2 第1手術支援端末
2A 第2手術支援端末
201 中央制御部(第1取得手段、撮像画像取得手段、推定手段、第1表示制御手段、第1特定手段、第2取得手段、第2表示制御手段、第2特定手段)
203 記憶部
204 撮像部
206 表示部
206a 表示パネル
AR1〜AR3 第1〜第3拡張現実画像
B 骨
B1a 脛骨
B1b、B2 大腿骨
F 撮像画像
DESCRIPTION OF
DESCRIPTION OF
Claims (10)
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段と、
前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて表示部に表示させる第1表示制御手段と、
を備えることを特徴とする手術支援端末。 A reference image relating to a three-dimensional shape of a bone to which a patient's implant is to be attached, and a direction and a position of a jig for guiding and supporting the attachment of the implant to the bone on a three-dimensional model based on the reference image First acquisition means for acquiring jig information including at least one of:
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that compares the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the first acquisition unit and estimates the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the jig information acquired by the first acquisition unit, the captured image sequentially acquired by the captured image acquisition unit First display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig to be displayed on the display unit;
A surgical operation support terminal comprising:
前記第1表示制御手段は、前記第1特定手段により特定された前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項1に記載の手術支援端末。 Based on the posture of the bone in the captured image estimated by the estimation unit and the jig information acquired by the first acquisition unit, the orientation of the jig relative to the bone in the captured image And a first specifying means for specifying at least one of the positions,
The first display control unit superimposes the first augmented reality image that virtually represents at least one of the orientation and the position of the jig specified by the first specifying unit on the captured image. The operation support terminal according to claim 1, wherein the operation support terminal is displayed on a part.
前記治具は、前記一の骨にその関節面側から刺入される髄内ロッドを含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記髄内ロッドの向き及び当該髄内ロッドの刺入点の位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。 The implant includes an artificial joint component corresponding to one of two bones constituting the joint,
The jig includes an intramedullary rod inserted into the bone from the joint surface side,
The first display control means is the first augmented reality image that virtually represents at least one of the orientation of the intramedullary rod specified by the first specifying means and the position of the insertion point of the intramedullary rod. The operation support terminal according to claim 2, wherein the image is superimposed on the captured image and displayed on the display unit.
前記治具は、前記一の骨に取り付けられ、当該一の骨の骨切りを案内する骨切り案内部材を含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記骨切り案内部材の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。 The implant includes an artificial joint component corresponding to one of two bones constituting the joint and attached after osteotomy of the one bone,
The jig includes an osteotomy guide member that is attached to the bone and guides osteotomy of the bone.
The first display control unit superimposes the first augmented reality image that virtually represents at least one of the direction and position of the osteotomy guide member specified by the first specifying unit on the captured image. The operation support terminal according to claim 2, wherein the operation support terminal is displayed on the display unit.
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段と、
前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて表示部に表示させる第2表示制御手段と、
を備えることを特徴とする手術支援端末。 Bone processing including at least one of a reference image related to a three-dimensional shape of a bone to be processed by a patient and a bone processing direction and position with respect to the bone on a three-dimensional model based on the reference image Second acquisition means for acquiring information;
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that compares the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the second acquisition unit to estimate the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit, the captured image sequentially acquired by the captured image acquisition unit A second display control unit that superimposes a second augmented reality image that virtually represents at least one of the direction and position of the one bone processing and displays the second augmented reality image on the display unit;
A surgical operation support terminal comprising:
前記第2表示制御手段は、前記第2特定手段により特定された前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す前記第2拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項5に記載の手術支援端末。 Based on the posture of the bone in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit, the one bone processing for the bone in the captured image Further comprising second specifying means for specifying at least one of the orientation and position of
The second display control unit superimposes the second augmented reality image virtually representing at least one of the direction and position of the one bone processing specified by the second specifying unit on the captured image. The operation support terminal according to claim 5, wherein the operation support terminal is displayed on the display unit.
前記撮像画像取得手段は、前記一の骨加工後の骨が撮像された撮像画像を逐次取得し、
前記推定手段は、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記一の骨加工後の骨の姿勢を推定することを特徴とする請求項5又は6に記載の手術支援端末。 The reference image includes a reference image related to a three-dimensional shape in a state in which the one bone processing is virtually performed on the bone based on the bone processing information acquired by the second acquisition unit,
The captured image acquisition means sequentially acquires captured images obtained by imaging the bone after the one bone processing,
The estimation unit collates the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the second acquisition unit, and calculates the bone after the one bone processing in the captured image. The surgery support terminal according to claim 5 or 6, wherein the posture is estimated.
前記第2表示制御手段は、更に、前記推定手段により推定された前記撮像画像内での前記一の骨加工後の骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記他の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第3拡張現実画像を重畳させて前記表示部に表示させることを特徴とする請求項7に記載の手術支援端末。 The bone processing information includes at least one of another bone processing direction and position for attachment of an implant to the bone after the one bone processing on a three-dimensional model based on the reference image;
The second display control unit further includes a bone posture after the one bone processing in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit. Based on this, the third augmented reality image that virtually represents at least one of the orientation and position of the other bone processing is superimposed on the captured image sequentially acquired by the captured image acquisition means and displayed on the display unit. The operation support terminal according to claim 7, wherein:
患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対するインプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段、
前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて表示部に表示させる第1表示制御手段、
として機能させることを特徴とするプログラム。 The computer of the surgery support terminal
A reference image relating to a three-dimensional shape of a bone to which a patient's implant is to be attached, and a direction and a position of a jig for guiding and supporting the attachment of the implant to the bone on a three-dimensional model based on the reference image First acquisition means for acquiring jig information including at least one of
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that collates the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the first acquisition unit, and estimates the posture of the bone in the captured image;
Based on the posture of the bone in the captured image estimated by the estimation unit and the jig information acquired by the first acquisition unit, the captured image sequentially acquired by the captured image acquisition unit First display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying the first augmented reality image on the display unit;
A program characterized by functioning as
患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
患者の前記骨の表面が撮像された撮像画像を逐次取得する撮像画像取得手段、
前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて表示部に表示させる第2表示制御手段、
として機能させることを特徴とするプログラム。 The computer of the surgery support terminal
Bone processing including at least one of a reference image related to a three-dimensional shape of a bone to be processed by a patient and a bone processing direction and position with respect to the bone on a three-dimensional model based on the reference image Second acquisition means for acquiring information;
Captured image acquisition means for sequentially acquiring captured images obtained by imaging the surface of the bone of the patient;
An estimation unit that estimates the posture of the bone in the captured image by comparing the captured image sequentially acquired by the captured image acquisition unit with the reference image acquired by the second acquisition unit;
Based on the posture of the bone in the captured image estimated by the estimation unit and the bone processing information acquired by the second acquisition unit, the captured image sequentially acquired by the captured image acquisition unit A second display control means for superimposing a second augmented reality image that virtually represents at least one of the orientation and position of the one bone processing and displaying it on the display unit;
A program characterized by functioning as
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197589 | 2016-09-16 | ||
JP2016197589 | 2016-09-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018047240A true JP2018047240A (en) | 2018-03-29 |
JP7012302B2 JP7012302B2 (en) | 2022-01-28 |
Family
ID=61767079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017178979A Active JP7012302B2 (en) | 2016-09-16 | 2017-09-19 | Surgery support terminals and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7012302B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019208737A (en) * | 2018-06-01 | 2019-12-12 | インテリジェンスファクトリー合同会社 | Surgery support marker and surgery support system |
WO2020217591A1 (en) * | 2019-04-25 | 2020-10-29 | 株式会社Nttドコモ | Image processing system showing jig arrangement |
JP2021019967A (en) * | 2019-07-30 | 2021-02-18 | 春仁 上園 | Augmented reality information display method, surgical operation support device, and program |
JP2022517132A (en) * | 2019-01-23 | 2022-03-04 | プロプリオ インコーポレイテッド | Alignment of preoperative scan images to real-time surgical images to the mediated reality view of the surgical site |
US11998401B2 (en) | 2022-05-13 | 2024-06-04 | Proprio, Inc. | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014036700A (en) * | 2012-08-10 | 2014-02-27 | Arthro Design Kk | Navigation device for joint replacement operation, and operation assistance apparatus |
WO2014200017A1 (en) * | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
-
2017
- 2017-09-19 JP JP2017178979A patent/JP7012302B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014036700A (en) * | 2012-08-10 | 2014-02-27 | Arthro Design Kk | Navigation device for joint replacement operation, and operation assistance apparatus |
WO2014200017A1 (en) * | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019208737A (en) * | 2018-06-01 | 2019-12-12 | インテリジェンスファクトリー合同会社 | Surgery support marker and surgery support system |
JP2022517132A (en) * | 2019-01-23 | 2022-03-04 | プロプリオ インコーポレイテッド | Alignment of preoperative scan images to real-time surgical images to the mediated reality view of the surgical site |
US11376096B2 (en) | 2019-01-23 | 2022-07-05 | Proprio, Inc. | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
WO2020217591A1 (en) * | 2019-04-25 | 2020-10-29 | 株式会社Nttドコモ | Image processing system showing jig arrangement |
CN112424838A (en) * | 2019-04-25 | 2021-02-26 | 株式会社Ntt都科摩 | Image processing system showing arrangement of jig |
JPWO2020217591A1 (en) * | 2019-04-25 | 2021-06-03 | 株式会社Nttドコモ | Video processing system showing the arrangement of jigs |
JP7066013B2 (en) | 2019-04-25 | 2022-05-12 | 株式会社Nttドコモ | Video processing system showing the arrangement of jigs |
CN112424838B (en) * | 2019-04-25 | 2023-11-21 | 株式会社Ntt都科摩 | Image processing system showing configuration of jig |
JP2021019967A (en) * | 2019-07-30 | 2021-02-18 | 春仁 上園 | Augmented reality information display method, surgical operation support device, and program |
US11998401B2 (en) | 2022-05-13 | 2024-06-04 | Proprio, Inc. | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
Also Published As
Publication number | Publication date |
---|---|
JP7012302B2 (en) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7071479B2 (en) | Ultra-wideband positioning for wireless ultrasound tracking and communication | |
CN111031954B (en) | Sensory enhancement system and method for use in medical procedures | |
JP2022133440A (en) | Systems and methods for augmented reality display in navigated surgeries | |
US8706197B2 (en) | Planning method and planning device for knee implants | |
US11219486B2 (en) | Method for implanting a hip prosthesis and related system | |
JP2020075109A (en) | System and method for in-surgery image analysis | |
US20160287337A1 (en) | Orthopaedic surgical system and method for patient-specific surgical procedure | |
JP7012302B2 (en) | Surgery support terminals and programs | |
US10376318B2 (en) | Surgical assistance apparatus, program, storage medium, and surgical assistance method | |
WO2016154557A1 (en) | Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera | |
JP2015516228A (en) | Portable tracking system, method using portable tracking system | |
JP6823665B2 (en) | Surgical support system | |
US20230013210A1 (en) | Robotic revision knee arthroplasty virtual reconstruction system | |
US20230068971A1 (en) | Fluoroscopic robotic prosthetic implant system and methods | |
US20230109015A1 (en) | Surgical impactor navigation systems and methods | |
Pflugi et al. | A cost-effective navigation system for peri-acetabular osteotomy surgery | |
JP2021019967A (en) | Augmented reality information display method, surgical operation support device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170919 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200826 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7012302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |