JP6921940B2 - ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム - Google Patents

ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム Download PDF

Info

Publication number
JP6921940B2
JP6921940B2 JP2019506495A JP2019506495A JP6921940B2 JP 6921940 B2 JP6921940 B2 JP 6921940B2 JP 2019506495 A JP2019506495 A JP 2019506495A JP 2019506495 A JP2019506495 A JP 2019506495A JP 6921940 B2 JP6921940 B2 JP 6921940B2
Authority
JP
Japan
Prior art keywords
user
processing circuit
user interface
visualization system
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019506495A
Other languages
English (en)
Other versions
JP2019533489A (ja
Inventor
マシュー メルダン、ケネス
マシュー メルダン、ケネス
エム. フリン、デイビッド
エム. フリン、デイビッド
アーネスト オステンソン、グレゴリー
アーネスト オステンソン、グレゴリー
ビドゥン、ベンジャミン
ハルバーソン、ロビー
エイ. ウェア、エリック
エイ. ウェア、エリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Scientific Scimed Inc
Original Assignee
Boston Scientific Scimed Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Scientific Scimed Inc filed Critical Boston Scientific Scimed Inc
Publication of JP2019533489A publication Critical patent/JP2019533489A/ja
Application granted granted Critical
Publication of JP6921940B2 publication Critical patent/JP6921940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本出願の実施形態は、ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システムおよび関連方法に関する。
関連出願の相互参照
本出願は、すべての国の指定に対する出願人である米国国内企業のボストン・サイエンティフィック・サイムド、インコーポレイテッド(Boston Scientific Scimed,Inc.)、ならびにすべての国の指定に対する発明者である、米国市民のケネス・マシュー・マーダン(Kenneth Matthew Merdan)、および米国市民のデーヴィッド M.フリン(David M.Flynn)、および米国市民のグレゴリー・アーネスト・オステンソン(Gregory Ernest Ostenson)、および米国市民のベンジャミン・ビドゥン(Benjamin Bidne)、および米国市民のロビー・ハルヴァーソン(Robbie Halvorson)、および米国市民のエリック A.ウェア(Eric A.Ware)の名義で、2017年8月8日にPCT国際特許出願として出願されており、2016年8月12日に出願された米国仮特許出願第62/374,343号明細書に対する優先権を主張し、上記出願の内容は、全体として参照により本明細書に援用される。
医療診断および治療は、多くの場合、患者の解剖学的構造の1つまたは複数の部分の視覚的観察により支援され、または場合により、そうした視覚的観察に基づく。最も一般的には、この視覚的観察は、裸眼の臨床医に可視であるものを直接物理的に観察することによって行われる。外科手術のシナリオでは、これには、内臓の視覚的観察が含まれる場合がある。
本来は見ることが困難である可能性がある患者の解剖学的構造の部分の視覚的観察を可能にするために、光学系または電子撮像カメラを用いてさまざまな器具が構成されてきた。例として、気管支鏡、内視鏡等はすべて、臨床医が、本来は隠されている解剖学的構造の部分を視覚的に観察することを可能にした。
医用イメージングの技法もまた、臨床医が患者の解剖学的構造の部分を視覚的に観察する能力を大幅に拡張した。X線ラジオグラフィ等の技法で始まり、その後、蛍光透視法、コンピュータ体軸断層撮影法(CAT)および磁気共鳴画像法(MRI)等の技法を含み、患者の解剖学的構造の部分を見る能力は、かつてないほど大きくなった。しかしながら、多くの場合、医用イメージングシステムによって生成される画像は、2次元であり、したがって、適切に解釈するために高度な技能が必要である。イメージングシステムによっては、3次元情報を含む画像を提供するが、そうした画像は2次元ディスプレイにレンダリングされるため、3次元情報の値の大部分が失われる。
本発明の実施形態は、分散型インタラクティブ医療視覚化システム、そのためのユーザインタフェース機能および関連方法に関する。第1態様では、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路と、第1ビデオ処理回路によって生成される第1ユーザインタフェースとを有する、分散型インタラクティブ医療視覚化システムが含まれる。第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースは、1人または複数の他のユーザを表す1つまたは複数のユーザ表現をさらに含むことができ、ユーザ表現は、3次元モデル内で重ね合わされ、1つまたは複数のユーザ表現の各々は、互いに視覚的に別個である。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第2態様では、1つまたは複数のユーザ表現はライトペンを含む。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第3態様では、1つまたは複数のユーザ表現は互いに異なる色を有する。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第4態様では、3次元モデルは、リアルタイムに収集される患者データ、先行して格納された患者データおよび理想化モデルデータのうちの1つまたは複数を含む。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第5態様では、第1視点に関する情報は、ネットワークにわたってブロードキャストされる。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第6態様では、1つまたは複数のユーザ表現に関する情報は、ネットワークにわたってブロードキャストされる。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第7態様では、第1ビデオ処理回路は、一次ユーザインタフェースを表示しているマシンと同じ場所に配置されている。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第8態様では、第1ビデオ処理回路は、第1ユーザインタフェースを表示しているマシンからリモートに配置されている。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第9態様では、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路と、第1ビデオ処理回路によって生成される第1ユーザインタフェースとを有する、分散型インタラクティブ医療視覚化システムが含まれる。第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースは、コマンドインタフェースオブジェクトをさらに含むことができ、コマンドインタフェースオブジェクトの作動により、第1ユーザインタフェースは、第2視点からの対象の解剖学的構造の3次元モデルを表示する。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第10態様では、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路と、第1ビデオ処理回路によって生成される第1ユーザインタフェースとを有する、分散型インタラクティブ医療視覚化システムが含まれる。第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースは、同じ3次元モデルを見ている1人または複数の他のユーザの1つまたは複数のグラフィック表現をさらに含むことができ、1つまたは複数のグラフィックザ表現の各々は、1人または複数の他のユーザの間で個々のユーザを識別する。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第11態様では、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路と、第1ビデオ処理回路によって生成される第1ユーザインタフェースとを有する、分散型インタラクティブ医療視覚化システムが含まれる。第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースは、コマンドインタフェースオブジェクトをさらに含むことができ、コマンドインタフェースオブジェクトの作動により、1人または複数の他のユーザによって制御される1つまたは複数の他のユーザインタフェースは、個々の他のユーザによって指示されることから第1ユーザによって指示されることに切り替わる。
上述した態様または以下の態様のうちの1つもしくは複数に加えて、または幾つかの態様の代わりに、第12態様では、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路と、第1ビデオ処理回路によって生成される第1ユーザインタフェースとを有する、分散型インタラクティブ医療視覚化システムが含まれる。第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースは、1つまたは複数のアノテーションの仮想表現であって、各アノテーションは、3次元モデル内の所定位置アンカーを有する。
この概要は、本特許出願の教示のうちのいくつかの概説であって、本主題の排他的なまたは網羅的な扱いであるようには意図されていない。さらなる詳細は、詳細な説明および添付の特許請求の範囲に記載されている。他の態様は、当業者であれば、以下の詳細な説明を読みかつ理解し、その一部を形成する図面を見ることで(詳細な説明および図面の各々は限定する意味で解釈されるべきではない)、本開示の他の態様が明らかとなろう。本発明の範囲は、添付の特許請求の範囲およびそれらの法的均等物により定義される。
以下の図面に関連して、態様をより完全に理解することができる。
本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システムの態様の概略図である。 本出願のさまざまな実施形態による特定のユーザの視点の実施形態を示す3次元モデルの概略図である。 本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システムの概略図である。 本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システムの概略図である。 本出願のさまざまな実施形態による例示的なユーザインタフェースの概略図である。 本出願のさまざまな実施形態による3次元解剖学的モデルの概略図である。 3次元解剖学的モデルを生成する際に使用されるデータのソースを示す概略図である。 本出願のさまざまな実施形態によるさまざまなコンポーネントの図である。 本出願のさまざまな実施形態による例示的なグラフィックスパイプラインのさまざまな構成要素の図である。
実施形態は、さまざまな変更形態および代替形態が可能であるが、実施形態の詳細は、例および図面により示されており、そうした詳細について詳細に説明する。しかしながら、本出願の範囲は、記載した特定の実施形態に限定されないことが理解されるべきである。反対に、本出願の趣旨および範囲内にある変更形態、均等物および代替形態を包含することが意図されている。
本明細書に記載する実施形態は、網羅的であるようにも、本発明を以下の詳細な説明に開示されている厳密な形態に限定するようにも意図されていない。むしろ、他の当業者が原理および実施を正しく認識し理解することができるように、実施形態を選択し記載している。
本明細書で言及するすべての刊行物および特許は、参照により本明細書に援用される。本明細書に開示する刊行物および特許は、単にそれらの開示のために提供される。本明細書におけるものはいずれも、本発明者らが、本明細書に引用するいかなる刊行物および/または特許を含むいかなる刊行物および/または特許に先行するように権利が与えられないということを容認するものとして解釈されるべきではない。
視覚的な解剖学的データを収集することができる多くの技法がある。技法としては、X線ラジオグラフィ、蛍光透視法、コンピュータ体軸断層撮影法(CAT)、磁気共鳴画像法(MRI)等を挙げることができる。従来、こうした情報を使用する際の1つの課題は、生成される画像が、一般に2次元であり、適切に解釈するために高度な技能が必要である、ということであった。イメージングシステムによっては、3次元情報を含む画像を提供するが、そうした画像は2次元ディスプレイにレンダリングされるため、3次元情報の値の大部分が失われる。
さまざまなより新しい技法により、3次元画像データが、ユーザにとって3次元を反映するように見えるように表示されることが可能である。それらの技法はさまざまであるが、通常、ユーザの各眼に対してわずかに異なる画像を表示し、3次元画像の感覚をシステムユーザが体験することができるようにするという基本原理に基づく。3次元での視覚的情報の表示は、ユーザが、自身が見ているものに基づいて迅速に理解することができるようにするという点で大きい前進である。
本明細書では、複数の個人が同時に同じ3次元画像モデルとインタラクトすることができるようにするシステムおよび方法を提供する。特に、本明細書では、複数のユーザが同じ3次元解剖学的モデルを見ることを容易にすることができるユーザインタフェース機能を提供する。
ここで図1を参照すると、本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システム100の態様の概略図が示されている。分散型インタラクティブ医療視覚化システム100は、対象の解剖学的構造104の少なくとも一部の3次元モデル102を含むことができる。3次元モデル102は、X次元、Y次元およびZ次元に延在することができる。複数の個人が、3次元モデル102に同時にインタフェースすることができる。たとえば、第1ユーザ106は、1人または複数の第2ユーザ108、110と同時に3次元モデル102を見て3次元モデル102とインタラクトすることができる。いくつかの実施形態では、各ユーザが、自身の視点からモデル102を見ていることができる。例として、第1ユーザ106が第1視点116からモデル102を見ていることができる一方で、第2ユーザ108が第2視点118からモデル102を見ていることができ、第3ユーザ110が第3視点120からモデル102を見ていることができる。
モデル102とインタラクトしている各個々のユーザの視点は、さまざまな方法で定義することができる。いくつかの実施形態では、個々の視点は、個々のユーザのビューまたは視野に対する原点を示す座標を含むことができる。これにより、ユーザは、自身の原点が変化するに従いモデルを通して「移動する」ことができる。いくつかの実施形態では、個々の視点はまた、ユーザが自身の原点から目下見ている方向を示す角度も含むことができる。
ここで図2を参照すると、特定のユーザの視点の実施形態を示す3次元モデル102の概略図が示されている。いくつかの実施形態では、特定のユーザの視点は、位置および視野角を含むことができる。たとえば、モデルは、X座標(222)、Y座標(224)およびZ座標(226)を含むことができる。モデルの総体積は、およそ、X座標、Y座標およびZ座標の各々の最大の大きさの積であり得る。個々の視点は、最大のX境界、Y境界およびZ境界内の位置(または原点)を含むことができる。たとえば、原点230は、3次元モデル内の特定の個人の現位置を表すことができる。特定のユーザの視点を表すために、モデルはまた、視野角も考慮することができる。たとえば、XY平面内の回転を反映する第1角度240とZ平面内の回転を反映する第2角度242とを使用することにより、モデル102内の任意のあり得る方向のビューを指定することができる。したがって、ユーザの視点は、XY角度244およびZ軸角度246と組み合わせて、原点230により定義することができる。これは、3次元モデル内のユーザの視点をいかに定義することができるかの一例を提供するが、ユーザの視点を正確に記述する他のあり得る多くの方法があることが理解されよう。
インタラクティブ医療視覚化システムは、複数の個々のマシンまたはワークステーションにわたって物理的に分散させることができるという点で、「分散型」であり得る。個々のマシンまたはワークステーションは、同じ物理的位置または領域にあり得るか、または、別個の物理的位置にあり得る。ここで図3を参照すると、本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システム300の概略図が示されている。この例では、視覚化システム300は、第1位置302(位置A)、第2位置(位置B)および第3位置306(位置C)におけるユーザを含む。いくつかの実施形態では、異なる物理的位置は、単に、病院または大学等の同じ施設における異なる部屋であり得る。他の実施形態では、異なる物理的位置は、互いにかなりの距離離れている場合がある。位置(302、304および306)は、別個の物理的位置の間に存在するネットワーク接続308を介して相互接続することができる。この図では、第1位置302は、マスタユーザ310(または第1ユーザ、一次ユーザもしくは指導者)および2人の追従者312(または二次ユーザ)を含む。他の位置は、追従者のみを含む。しかしながら、場合により、マスタユーザ310は、単独で物理的位置にいる可能性があることが理解されよう。さらに他の場合では、ユーザのすべてが、同じ物理的位置にいる可能性がある。いくつかのシナリオでは、2人以上のマスタユーザがいる場合がある。
本明細書におけるインタラクティブ医療視覚化システムのアーキテクチャは変更することができる。いくつかの実施形態では、システムは、中央ノードまたは制御マシンなしにピア・ツー・ピア型モデルで存在することができる。他の実施形態では、システムは、3次元モデルおよび目下モデルにいるさまざまなユーザに関する態様を計算し、次いで、この情報を個々のマシンまたはワークステーションにレンダリングするために送信する解剖学的モデルサーバ等、中央ノードを含むことができる。さらに他の実施形態では、ビデオレンダリングが、中央ノードまたはサーバ(またはサーバのクラスタ)において略完全に行うことができ、その後、ビデオ画像を個々のワークステーションにプッシュすることができ、個々のワークステーションは、受信したビデオ信号(符号化または非符号化)を表示し、ユーザ入力を受け取りかつ送信する。
ここで図4を参照すると、本出願のさまざまな実施形態による分散型インタラクティブ医療視覚化システム400の概略図が示されている。システム400は、位置Aに、位置Zにある解剖学的モデルサーバ402と双方向通信するマスタユーザ404(または第1ユーザ、一次ユーザもしくは指導者)を含む。位置Zは、位置Aと同じである場合もあれば異なる場合もある。システム400はまた、位置Aにおける追従者406、位置Bにおける追従者408および位置Cにおける追従者410も含む。いくつかの実施形態では、限定されないが画像またはビデオレンダリングを含む、実質的なビデオ処理は、解剖学的モデルサーバ402において行われ、その後、ビデオストリームは、個々のユーザノードに分散される。他の実施形態では、解剖学的モデルサーバ402は、主に、ユーザ間のインタラクションを調整するのみの役割を果たし、ビデオ処理の大部分は、システムの個々のノード(個々のユーザによって操作されるマシン)のレベルで行われる。
各個々のマシンまたはシステムは、個人がインタフェースするためにユーザインタフェースを提供するかまたは表示することができる。ユーザインタフェースは、ビデオ処理回路(より詳細に後述する)によって生成することができる。ビデオ処理回路は、ユーザのマシンに対してローカルであり得るか、または、中央ノードもしくはサーバに位置することができる。ユーザインタフェースは、さまざまな特徴を含むことができる。例として、ユーザインタフェースは、ある視点からの対象の解剖学的構造の少なくとも一部の3次元モデルの表現を含むことができる。場合により、視点は、ユーザインタフェースを通してシステムユーザ(第1または第2、一次または二次、その他)によって制御されるように構成することができる。
ユーザインタフェースは、さまざまなコマンドインタフェースオブジェクトを含むことができる。コマンドインタフェースオブジェクトは、ユーザが直接(タッチスクリーンによる等)または間接的に(現実または仮想のキーボード、マウス、ペン等による等)インタラクトすることができるさまざまな要素を含むことができる。コマンドインタフェースオブジェクトは、限定されないが、ボタン、メニューツリー、スライダバー、ダイヤル等を含むことができる。ユーザによるコマンドインタフェースオブジェクトの作動または始動により、より詳細に後述するように、さまざまな動作または機能が実行されるようにすることができる。
ここで図5を参照すると、本出願の実施形態による例示的なユーザインタフェース500の概略図が示されている。ユーザインタフェース500は、3次元解剖学的モデル102を含む。解剖学的モデル102は、患者の解剖学的構造の少なくとも一部の3次元画像504を含む。ユーザインタフェースは、同じ3次元解剖学的モデル102とインタラクトする別のユーザの位置および/またはビューを示す、アイコンまたは他のグラフィックオブジェクト520を示すことができる。
ユーザインタフェース500はまた、メニューツリー等のコマンドインタフェースオブジェクトを含むことができるメニューバー506も含むことができる。ユーザインタフェース500はまた、ボタン512等の1つまたは複数のコマンドインタフェースオブジェクトも含むことができる。いくつかの実施形態では、ユーザインタフェース500はまた、情報サイドバー510も含むことができる。情報サイドバー510は、選択的に表示するかまたは隠すことができ、ユーザインタフェースとインタラクトしているユーザの現位置および現ビュー等の情報、または別の選択されたユーザに対する情報を表示することができる。たとえば、ユーザインタフェース500を表示しているシステムのユーザが、別のユーザを示すグラフィックオブジェクト520をクリックした場合、そのユーザの情報をサイドバー510に表示することができる。いくつかの実施形態では、サイドバーの代わりに、画面の底部または頂部に貼り付けられたバーに、同じタイプの情報を表示することができる。さらに他の実施形態では、3次元モデル自体において同じタイプの情報をレンダリングすることができる。
3次元解剖学的モデルは、モデルまたはユーザインタフェースの一部の中にあるようにレンダリングされるさまざまな他のタイプのグラフィック要素を含むことができる。例として、3次元モデルは、1人または複数の他のユーザならびにそうしたユーザのそれぞれの位置および現ビューのグラフィック表現を含むことができる。さらに、3次元モデルにおいて、医療デバイス等の物体を重ね合わせかつ/またはレンダリングすることができる。
ここで図6を参照すると、本出願のさまざまな実施形態による3次元解剖学的モデルの概略図が示されている。3次元解剖学的モデルは、患者の解剖学的構造602の少なくとも一部の視覚的表現を含むことができる。3次元解剖学的モデルは、医療デバイス604の視覚的表現を含むことができる。この場合、医療デバイス604は心臓弁である。しかしながら、医療デバイスは、限定されないが、ステント、植え込み型心律動管理デバイス、カテーテル、塞栓防止デバイス等を含む、任意の種類の医療デバイスであり得ることが理解されよう。ユーザは、医療デバイスを移動させ、回転させかつ/または展開する等、医療デバイスを操作することができる。この図では、第1ライトペンにより表されるような第1ユーザ608の視点が、第2ライトペンにより表されるような第2ユーザ606の視点とともに示されている。
上述したように、3次元モデルは、患者の解剖学的構造の少なくとも一部のビューを含むことができる。さらに、3次元モデルは、医療デバイスの表現、他のユーザの表示、およびモデルに重ね合わされた一般情報を含む他の態様を含むことができる。解剖学的視覚化は、さまざまなソースからのデータの部分を含むことができる。例として、解剖学的視覚化は、患者からリアルタイムに取得される生の視覚化データ、患者から事前に記録され格納された視覚化データとともに、一般的な医療知識からかつ/または患者集団から引き出された理想化された解剖学的モデルデータを含むことができる。場合により、システムは、本出願のさまざまな実施形態で使用される3次元解剖学的モデルを生成するために、これらのソースのうちの1つまたは複数からのデータの部分を混合することができる。
ここで図7を参照すると、3次元解剖学的モデル102を生成する際に使用されるデータのソースを示す概略図が示されている。データのソースは、リアルタイムに収集される患者データ702、事前に格納された患者データ704(ファイル、フォルダおよび/またはデータベースに格納されたデータ等)、理想化モデルデータ706を含むことができる。リアルタイムに収集される患者データとしては、限定されないが、X線ラジオグラフィデータ、蛍光透視法データ、コンピュータ体軸断層撮影法(CAT)データ、磁気共鳴画像法(MRI)データ、カメラデータ等を含む、医用イメージングデータ等のデータを挙げることができる。事前に格納された患者データとしては、限定されないが、X線ラジオグラフィデータ、蛍光透視法データ、コンピュータ体軸断層撮影法(CAT)データ、磁気共鳴画像法(MRI)データ、カメラデータ等を含む、医用イメージングデータ等のデータを挙げることができる。理想化モデルデータとしては、限定されないが、主要器官(心臓、肺、肝臓、腎臓、脳等)、関節、骨構造、筋肉組織、胸腔、血管系、中心および末梢静脈系、心肺系、リンパ系、肝臓系、腎臓系、頭部特に脳、静脈洞等を含む解剖学的構造、および/または、限定されないが、インプラント、心臓弁、塞栓防止デバイス、ステント、グラフト、医療器具、心律動管理デバイス、ペースメーカ、植え込み型除細動器、心臓再同期療法デバイス、心室補助デバイス等を含む、医療処置で使用される医療デバイスの理想化モデルを含むことができる。理想化モデルデータは、幾何学的形状に関する情報(ワイヤフレーム、サーフェス、ソリッド等)を含むCADファイルフォーマットで格納することができ、または、理想化モデルに関する同様の情報を含む他のファイルフォーマットで格納することができる。
上述したように、3次元で視覚的情報を表示するシステムは、通常、ユーザの一方の眼に第1画像を提供し、ユーザのもう一方の眼に第1画像とは異なる第2画像を提供する機構に基づく。このように、ユーザによって知覚される画像は、深さを有するように見え、したがって、3次元であるように見え得る。場合により、別個のビデオ画面または単一のビデオ画面の別個の部分を通してユーザの各眼に別個のビデオ画像を提供することができる。他の場合では、ヘッドセットまたは眼鏡内に別個のビデオ画面を配置することができる。
しかしながら、場合により、偏光アイウェアにおいて単一のビデオ画面を使用することができる。いくつかの実施形態では、左画像および右画像を含む立体画像であって、左画像および右画像が立体画像内で空間的に多重化される、立体画像を、左偏光フィルタおよび右偏光フィルタのユーザの左眼および右眼それぞれに提示することができる。この種の例示的な手法は、米国特許出願公開第2007/0043466号明細書に記載されており、その内容は、参照により本明細書に援用される。
本明細書におけるシステムは、患者の解剖学的構造の3次元モデルのビューを含むユーザインタフェースを提供するために、さまざまなフォームファクタを有することができることが理解されよう。例として、システムは、左眼および右眼に別個の画像を示す1つまたは複数の画面を備えたヘッドセット、多重化された左画像および右画像を含む画面、および左眼が左画像を見て右眼が右画像を見るようにする眼鏡、または同様のシステムを含むことができる。いくつかの実施形態では、システムは、ユーザの頭部の位置を追跡するようにセンサを含むことができる。ユーザの頭部の位置を追跡する1つの手法は、米国特許出願公開第2013/0128011号明細書に記載されており、その内容は、参照により本明細書に援用される。
いくつかの実施形態では、3次元モデル内で、各ユーザまたは各ユーザに関する態様を表現することができる(ユーザ表現)。ユーザ表現は、多くの異なる形態をとることができる。場合により、ユーザ表現は、物理的物体の仮想画像を反映することができる。たとえば、場合により、ユーザは、ユーザ入力デバイスとしてのペンまたはライトペンを有することができ、ペンの仮想画像、および/またはペンから広がる光線等、ペンの明示を、他の人が見えるように3次元モデル内で重ね合わせることができる。他の場合では、記号(矢印、線等)、グラフィック要素、アバタ等である等のユーザ表現を考案することができる。
異なるユーザのユーザ表現は、互いに視覚的に別個であり得る。このように、システムユーザに対して、同じ3次元モデルを見ているが他の視点から見ている他のユーザに関する情報を提供することができる。ユーザ表現は、多くの異なる方法で互いに視覚的に別個であるようにすることができる。たとえば、異なる色を用いて、各異なるユーザを表現することができる。場合により、異なる色を用いて、ユーザの各異なるグループを表現することができる。
場合により、異なる色の使用は、3次元モデルの異なるユーザのビューにわたって一貫している場合がある。たとえば、ユーザ「X」に特定の色(仮に緑色)を関連付けることができ、そのユーザのユーザインタフェースオブジェクトは、いずれのユーザがそのユーザインタフェースを通して3次元モデルを見ているかに関わらず、一貫してその色であり得る。他の場合では、別個の色の使用は、ユーザ「X」は緑色のユーザ表現を有するように見えることができ、他のユーザ表現は緑色を有していないが、異なるユーザインタフェースから見た場合、ユーザ「X」は青色のユーザ表現を有するように見えることができ、他のユーザは青色のユーザ表現を有していない、という意味で相対的であり得る。
実施形態では、分散型インタラクティブ医療視覚化システムが含まれ、本システムは、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路とを有する。本システムはまた、第1ビデオ処理回路によって生成される第1ユーザインタフェースも含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含むことができ、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースはまた、1人または複数の他のユーザを表す1つまたは複数のユーザ表現も含むことができ、ユーザ表現は、3次元モデル内で重ね合わされ、1つまたは複数のユーザ表現の各々、またはユーザ表現のグループは、互いに視覚的に別個である。
いくつかの実施形態では、ユーザインタフェースは、ユーザが同じ3次元解剖学的モデルの異なる視点の表示にスナップする(またはジャンプする)ことができるようにするコマンドまたはコマンドインタフェースオブジェクトを含む。異なる視点は、固定または動的視点、事前設定視点、別のユーザの現視点を表す視点等を表すことができる。場合により、ユーザインタフェースは、3次元解剖学的モデルにおける視点を設定することができる他の視点のリストまたはセットを提示することができる。リストまたはセットからのオプションの選択により、現視点を選択された視点に変更することができる。いくつかの実施形態では、3次元解剖学的モデル自体内でウェイポイントまたは他のマーカを重ね合わせることができ、それらのウェイポイントまたは他のマーカの選択により、現視点の選択された視点への変更を開始することができる。場合により、マーカは、所定の他のユーザを表すことができる。
実施形態では、複数のユーザに対して3次元モデルを表示する方法が含まれる。本方法は、第1のビデオ処理回路により第1ユーザインタフェースを生成するステップを含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成される。本方法は、ユーザが同じ3次元解剖学的モデルの異なる視点の表示にスナップする(またはジャンプする)ことができるようにする1つまたは複数のコマンドインタフェースオブジェクトを表示するステップをさらに含むことができる。
実施形態では、分散型インタラクティブ医療視覚化システムが含まれ、本システムは、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路とを有する。本システムはまた、第1ビデオ処理回路によって生成される第1ユーザインタフェースも含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成される。第1ユーザインタフェースはまた、1つまたは複数のコマンドインタフェースオブジェクトを表す1つまたは複数のユーザ表現も含むことができ、コマンドインタフェースオブジェクトの作動により、第1ユーザインタフェースは、第2視点からの対象の解剖学的構造の3次元モデルを表示する。
実施形態では、複数のユーザに対して3次元モデルを表示する方法が含まれる。本方法は、第1のビデオ処理回路により第1ユーザインタフェースを生成するステップを含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成される。本方法は、1つまたは複数のコマンドインタフェースオブジェクトを含む1つまたは複数のユーザ表現を表示するステップをさらに含むことができ、コマンドインタフェースオブジェクトの作動により、第1ユーザインタフェースは、第2視点からの対象の解剖学的構造の3次元モデルを表示する。
いくつかの実施形態では、ユーザインタフェースは、同じ主題を見ている他のユーザの表現または識別子を含む。ユーザ特定の表現または識別は、特定のユーザを識別するように3次元解剖学的モデルにおいて重ね合わされるユーザインタフェースに現れることができる。場合により、ユーザ特定表現または識別は、ユーザインタフェースに現れることができるが、3次元解剖学的モデル自体においては重ね合わされない。ユーザ特定識別は、さまざまな情報により達成することができる。例としては、情報としては、目下いずれの解剖学的特徴を他のユーザが見ているか、どの角度から見ているか等を挙げることができる。
実施形態では、分散型インタラクティブ医療視覚化システムが含まれ、本システムは、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路とを有する。本システムはまた、第1ビデオ処理回路によって生成される第1ユーザインタフェースも含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースはまた、同じ3次元モデルを見ている1人または複数の他のユーザの1つまたは複数のグラフィック表現またはテキスト表現も含むことができ、1つまたは複数のグラフィック表現またはテキスト表現の各々は、1人または複数の他のユーザの間で個々のユーザを識別する。
実施形態では、複数のユーザに対して3次元モデルを表示する方法が含まれる。本方法は、第1のビデオ処理回路により第1ユーザインタフェースを生成するステップを含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成される。本方法は、同じ3次元モデルを見ている1人または複数の他のユーザの1つまたは複数のグラフィック表現またはテキスト表現を表示するステップをさらに含むことができ、1つまたは複数のグラフィック表現またはテキスト表現の各々は、1人または複数の他のユーザの間で個々のユーザを識別する。
いくつかの実施形態では、同じ3次元解剖学的モデルを見ている異なるユーザは、異なる役割を有し、役割に基づいて異なる機能性を可能にすることができる。役割は、多くの異なる方法で定義することができるが、例として、役割には、より機能性の高い役割(進行役または指導者等)およびより機能性の低い役割(参加者または追従者等)があり得る。機能性は、多くの異なる方法で明示することができる。一例は、他のシステムユーザが、3次元解剖学的モデルの自身のビューを指示することができないが、義務を負った「追従者」である、提示モードと、他のシステムユーザが、3次元解剖学的モデルの自身のビューを指示することができる探査モードとの間でシフトすることができることが挙げられる。進行役または指導者に限定的であり得る機能性の他の態様としては、3次元モデルのいずれの態様を表示すべきであるか、および誰に表示すべきであるかに対する制御を挙げることができる。
実施形態では、分散型インタラクティブ医療視覚化システムが含まれ、本システムは、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路とを有する。本システムはまた、第1ビデオ処理回路によって生成される第1ユーザインタフェースも含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースはまた、コマンドインタフェースオブジェクトも含むことができ、コマンドインタフェースオブジェクトの作動により、1人または複数のユーザによって制御される1つまたは複数の他のユーザインタフェースが、個々の他のユーザによって指示されることから第1ユーザによって指示されることに切り替わる。
実施形態では、複数のユーザに対して3次元モデルを表示する方法が含まれる。本方法は、第1ビデオ処理回路により第1ユーザインタフェースを生成するステップを含み得、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は第1ユーザによって制御されるように構成される。本方法は、1つまたは複数のコマンドインタフェースオブジェクトを表示するステップをさらに含むことができ、コマンドインタフェースオブジェクトの作動により、1人または複数のユーザによって制御される1つまたは複数の他のユーザインタフェースが、個々の他のユーザによって指示されることから第1ユーザによって指示されることに切り替わる。
いくつかの実施形態では、システムは、個々のユーザが、そのユーザが見ているかまたは見た3次元解剖学的モデルの所定の態様にアノテーションをつけることができるように構成することができる。こうしたアノテーションは、そのアノテーションが個人的である(アノテーションが作成者にのみ可視である)、半公開的である(アノテーションの少なくとも一部が、他人または他人の所定のグループに可視である)、または完全に公開的である(すべての内容がすべての人に可視である)ように行うことができる。アノテーションは、音声、グラフィック情報(画像、ビデオおよび他のグラフィックオブジェクトを含む)および/またはテキスト情報を含むことができる。アノテーションは、3次元モデル内の特定の箇所(X、YおよびZの特異度を有することができる)、特定の領域、特定の解剖学的特徴等の位置アンカーを有することができる。しかしながら、場合により、アノテーションは、いかなる特定の事物にも固定されない。場合により、アノテーションは、他のユーザがそのアノテーションを選択してもしなくても可視である情報を含む。他の場合では、アノテーションは、他のユーザがそのアノテーションを実際に選択した場合にのみ可視となる情報を含む。
実施形態では、分散型インタラクティブ医療視覚化システムが含まれ、本システムは、第1ビデオ処理回路と、第1ビデオ処理回路と通信する第1中央処理回路と、第1中央処理回路と通信する第1通信回路とを有する。本システムはまた、第1ビデオ処理回路によって生成される第1ユーザインタフェースも含むことができ、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は、第1ユーザによって制御されるように構成されている。第1ユーザインタフェースはまた、1つまたは複数のアノテーションの仮想表現も含むことができ、各アノテーションは、3次元モデル内の所定の位置アンカーを有する。
実施形態では、複数のユーザに対して3次元モデルを表示する方法が含まれる。本方法は、第1ビデオ処理回路により第1ユーザインタフェースを生成するステップを含み得、第1ユーザインタフェースは、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含み、第1視点は第1ユーザによって制御されるように構成される。本方法は、1つまたは複数のアノテーションを表示するステップをさらに含むことができ、各アノテーションは、3次元モデル内の所定の位置アンカーを有する。
いくつかの実施形態では、システムは、実際の物理的空間(手術室等)の視覚的表現を、本明細書の他の場所に記載したさまざまな要素等、それに重ね合わされる情報とともに表示するユーザインタフェースを含むことができる。したがって、物理的な部屋および/または患者の実際の画像を、その画像に上に重ね合わされるさまざまなグラフィック拡張機能とともに見ることができ、それにより、たとえば、上述した態様のうちのいくつかを含むさまざまな機能を可能にすることができる。例として、特定のユーザのユーザインタフェースは、手術室における実際の患者の画像を、同じ実際の画像を見ている別のユーザの、そのユーザが同じ実際の画像をどこから見ているかおよびどの視点から見ているかを示すユーザ表現とともに含むことができる。別の例として、第1ユーザは、同じ実際の画像を見ている他のユーザに可視であり得る3次元モデル内で仮想的に重ね合わせることができるアノテーションを作成することができる。
本明細書における方法に含まれる動作は、別段の指示がない限り、事象の特定の進行に限定されないことに留意されたい。本明細書において考察する技術を具現化することができるいかなる進行も適している。
いくつかの実施形態では、本発明は、グラフィックディスプレイと命令を含む機械可読媒体とを含む装置を含む。命令は、1つまたは複数のプロセッサによって実施されるとき、さまざまな動作を実行することができる。例として、動作は、本明細書に記載するような方法に従う動作を含むことができる。機械可読媒体としては、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、磁気データ記憶媒体、光学データ記憶媒体、フラッシュメモリ等を挙げることができる。
対象の解剖学的構造の少なくとも一部の3次元モデルおよび/またはそれに対するユーザインタフェースを表示する装置は、多くのコンピューティングデバイスと共通のコンポーネントを含むことができる。ここで図8を参照すると、いくつかの実施形態によるさまざまなコンポーネントの図が示されている。システムは、中央処理装置等のさまざまなコンポーネントを含むことができる中央処理回路を含むことができる。例として、システムは、従来のマイクロプロセッサと、情報の一次記憶のためのランダムアクセスメモリ(RAM)810と、情報の永久記憶のためのリードオンリメモリ(ROM)815とを含むことができる、中央処理装置(CPU)805またはプロセッサを含むことができる。システムRAM810を制御するメモリコントローラ820が設けられている。データバス830を制御するバスコントローラ825が設けられ、他のシステムコンポーネントからさまざまな割り込み信号を受け取りかつそれを処理するために割り込みコントローラ835が使用される。
コントローラ840によりバス830に接続される、リムーバブルメディアまたは非リムーバブルメディアを含む磁気またはフラッシュメモリドライブ841、コントローラ845によりバス830に接続される、CD−ROMまたはDVDドライブ846等の光学ドライブ、および/または、コントローラ850によりバス830に接続されるハードディスクドライブ851(磁気またはソリッドステート)により、大容量記憶装置を提供することができる。いくつかの実施形態では、ユニバーサルシリアルバス(USB)、eSATA、FIREWIRE(登録商標)もしくはThunderboltインタフェースまたは他のタイプの接続により接続されたデバイスにより、大容量記憶装置を提供することができる。プログラマシステムへのユーザ入力は、多くのデバイスにより提供することができる。たとえば、キーボードおよびマウスを、キーボードおよびマウスコントローラ855によりバス830に接続することができる。システムRAM810に対するダイレクトメモリアクセスを実行するDMAコントローラ860が設けられている。いくつかの実施形態では、ユーザ入力は、ペン、ライトペン、グローブ、ウェアラブル物体、ジェスチャ制御インタフェース等により提供することができる。
ビデオ処理回路を含めることができ、それは、ユーザインタフェースを生成することができる。ビデオ処理回路は、ビデオディスプレイ870を制御する、ビデオコントローラ865またはビデオ出力を含むことができる。いくつかの実施形態では、ビデオコントローラ865はまた、1つまたは複数のグラフィックスプロセッシングユニット(GPU)も含むことができる。ビデオ処理回路は、中央処理回路と通信することができる。
システムはまた、システムが他のシステムおよび/またはサーバとインタフェースしかつデータを交換することができるようにする通信インタフェース890または通信回路も含むことができる。通信回路は、中央処理回路と通信することができる。いくつかの実施形態では、通信インタフェース890は、パケット交換(IP等)または他のタイプのデータネットワークとの通信を容易にするためのネットワークインタフェースカードまたは回路を含むことができる。
いくつかの実施形態では、図8に示すさまざまな要素がない場合があることが理解されよう。さらに、図8に示すアーキテクチャは、単に、別個のコンポーネントをいかに配置することができるかの一例を示すものであり、本出願では他のアーキテクチャが明示的に企図される。
図8に関して記載したコンポーネントに加えてまたはそれらの代わりに、システムはまた、マイクロコントローラ、プログラマブルロジックコントローラ(PLC)、ASIC、FPGA、マイクロプロセッサまたは他の好適な技術も含むことができることが理解されよう。
(ローカルにまたはリモートノードのいずれかにある)ビデオ処理回路は、幾何学的形状、視点、テクスチャ、ライティングおよびシェーディング情報、および上述した他の情報の一つ以上を含む情報に基づき、3D(またはそれより小さい次元もしくは大きい次元の)画像を生成することができる。いくつかの実施形態では、画像をレンダリングするための情報は、シーンファイル内で結合される。3Dシーンの2Dラスタ表現を生成するために使用されるステップのシーケンスについて言及するために、「グラフィックスパイプライン」という用語を用いることができる。ビデオ処理回路は、グラフィックスパイプラインの1つまたは複数のステップを実行することができる。ビデオ処理回路はまた、グラフィックスパイプラインで使用される1つまたは複数の物理的コンポーネントも含むことができる。上述した情報を用いて、グラフィックスパイプラインは、幾何学的プリミティブからのシーンの作成、モデリングおよび変換、カメラ座標変換、ライティング、投影変換、クリッピング、走査変換またはラスタライゼーション、ならびにテクスチャリングおよびフラグメントシェーディングの1つまたは複数のステージを含むことができる。さまざまな実施形態において、他の動作も実行することができる。さまざまな実施形態において、グラフィックスパイプラインは、OpenGL、DirectXまたは他のプロトコルを使用することができる。
さまざまな形態のグラフィックスパイプラインを使用することができることが理解されよう。単なる一例として、図9に例示的なコンピュータグラフィックスパイプライン900を示す。この例では、(ローカルであるかまたはリモートノードにあり得る)ホストコンピューティングシステムまたは中央処理回路910が、ポリゴン頂点、色、ライティング、テクスチャ等に関してシーンをモデル化することができるシステムおよびアプリケーションソフトウェアを実行する。中央処理回路910は、この情報を(ローカルまたはリモートノードにあり得る)グラフィックスアクセラレーションシステム912に送信する。グラフィックスアクセラレーションシステム912は、フレームバッファメモリに格納するピクセルデータを生成することによりモデル化シーンをレンダリングすることができる。フレームバッファメモリの内容は、ランダムアクセスメモリ/デジタルアナログ変換回路(「RAMDAC」)モジュール922により、連続的に読み出すことができ、RAMDACモジュール922は、通常、色またはガンマ補正ルックアップテーブルを含み、ディスプレイモニタ924を駆動する。別法として、中央処理回路910が、グラフィックスアクセラレーションシステムなしにピクセルデータを生成し、ピクセルデータをフレームバッファに直接書き込むことができる。
場合により、ダブルバッファリングとして知られる技法を使用することができる。ダブルバッファリングでは、単一のフレームバッファの代わりに、2つのフレームバッファ916および918が提供される。このように、RAMDAモジュール922およびモニタ924が事前に他のフレームバッファ(「可視」または「フロント」バッファ)に書き込まれたピクセルデータを表示する間に、中央処理回路910またはグラフィックスアクセラレーションシステム912が、一方のフレームバッファ(「不可視」または「バック」バッファ)にピクセルデータを書き込むことができる。この技法の効果は、フレームバッファの内容が、同じフレームバッファの内容が表示されている間に変更される場合、画像に導入されるティアリングおよび他の望ましくない視覚的アーティファクトを低減させることである。2つのバッファを使用するシステムでは、フレームバッファコントローラ914を使用して、任意の所与の瞬間に、いずれのバッファが可視となるかおよびいずれのバッファが不可視となるかを調整することができる。特に、フレームバッファコントローラ914内のスワップコントローラ920が、一方のフレームバッファの内容の表示を停止し、他方のフレームバッファの内容の表示を開始することが確実であるときを示すことができる。典型的には、スワップコントローラ920は、(1)グラフィックスパイプラインが不可視バッファへのピクセルデータのレンダリングを終了した瞬間、および(2)ディスプレイの現ラスタ位置が対象ウィンドウ内にない瞬間に、フレームバッファをスワップすることが確実であることを示す。フルスクリーングラフィックスでは、バッファスワッピングは、通常、垂直リトレース中にのみ発生するが、さまざまな時点で行うことができる。ウィンドウ化グラフィックスでは、バッファスワッピングは、ラスタが対象ウィンドウ内にない任意の時点で発生することができる。
本明細書および添付の特許請求の範囲で用いる単数形「1つの(a、an)」および「その(the)」は、文脈において明確な別段の指示がない限り、複数の指示物を含むことが留意されるべきである。したがって、たとえば、「化合物」を含有する組成物と言及する場合、それは、2種以上の化合物の混合物を含む。文脈において明確な別段の指示がない限り、「または」という用語は、概して、「および/または」を含むその意味で使用されていることも留意されるべきである。
本明細書および添付の特許請求の範囲で用いる「構成された」という表現は、特定の作業を行うかまたは行うために特定の構成を採用するように構築されるかまたは構成される、システム、装置または他の構造体を述べることにも留意すべきである。「構成された」という表現は、配置されかつ構成された、構築されかつ配置された、構築された、製造されかつ配置された等、他の同様の表現と同義に使用することができる。
本明細書におけるすべての刊行物および特許出願は、本発明が関係する当技術分野における通常の知識のレベルを示す。すべての刊行物および特許出願は、各個々の刊行物および特許出願が参照により具体的にかつ個々に示されているものと同程度まで、参照により本明細書に援用される。
さまざまな具体的かつ好ましい実施形態および技法に関して、態様について記載した。しかしながら、多くの変形および変更を、本出願の趣旨および範囲内にありながら行うことができることが理解されるべきである。

Claims (11)

  1. 第1ビデオ処理回路と、
    前記第1ビデオ処理回路と通信する第1中央処理回路と、
    前記第1中央処理回路と通信する第1通信回路と、
    前記第1ビデオ処理回路によって生成される第1ユーザインタフェースであって、
    第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルであって、前記第1視点が第1ユーザによって制御されるように構成されている、3次元モデルと、
    1つまたは複数のユーザ視点表現であって、ユーザの原点と、該ユーザが前記原点から前記3次元モデルを現在見ている方向を示す角度とを備える1つまたは複数のユーザ視点表現と、
    を含む第1ユーザインタフェースと、
    を備える分散型インタラクティブ医療視覚化システム。
  2. 前記1つまたは複数のユーザ視点表現がライトペンを含む、請求項1に記載の分散型インタラクティブ医療視覚化システム。
  3. 前記1つまたは複数のユーザ視点表現が互いに異なる色を有する、請求項1および2のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  4. 前記3次元モデルが、リアルタイムに収集される患者データ、先行して格納された患者データおよび理想化モデルデータのうちの1つまたは複数を含む、請求項1〜3のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  5. 前記第1視点に関する情報がネットワークにわたってブロードキャストされる、請求項1〜4のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  6. 前記1つまたは複数のユーザ視点表現に関する情報がネットワークにわたってブロードキャストされる、請求項1〜5のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  7. 前記第1ビデオ処理回路が、前記第1ユーザインタフェースを表示しているマシンと同じ場所に配置されている、請求項1〜6のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  8. 前記第1ビデオ処理回路が、前記第1ユーザインタフェースを表示しているマシンからリモートに配置されている、請求項1〜6のいずれか一項に記載の分散型インタラクティブ医療視覚化システム。
  9. 第1ビデオ処理回路と、
    前記第1ビデオ処理回路と通信する第1中央処理回路と、
    前記第1中央処理回路と通信する第1通信回路と、
    前記第1ビデオ処理回路によって生成される第1ユーザインタフェースであって、第1ユーザによって指示されるように構成され、第1視点からの対象の解剖学的構造の少なくとも一部の3次元モデルを含む第1ユーザインタフェースと、
    第2ユーザによって制御されるように構成されるとともに、第2視点から前記3次元モデルを表示する第2ユーザインタフェースと、
    前記第1ユーザインタフェース上に表示される前記第2ユーザのユーザ視点表現であって、前記第2ユーザの原点と、該第2ユーザが前記原点から前記3次元モデルを現在見ている方向を示す角度とを備える第2ユーザのユーザ視点表現と、
    前記第1ユーザインタフェースに含まれるコマンドインタフェースオブジェクトであって、前記コマンドインタフェースオブジェクトの作動により、前記第1ユーザインタフェースが、第2視点からの前記対象の解剖学的構造の前記3次元モデルを表示する、コマンドインタフェースオブジェクトと、
    を備える分散型インタラクティブ医療視覚化システム。
  10. 前記コマンドインタフェースオブジェクトの作動により、前記第2視点が第2ユーザによって指示されることから前記第1ユーザによって指示されることに切り替わる、請求項9に記載の分散型インタラクティブ医療視覚化システム。
  11. 前記3次元モデルが、リアルタイムに収集される患者データ、先行して格納された患者データおよび理想化モデルデータのうちの1つまたは複数を含む、請求項9に記載の分散型インタラクティブ医療視覚化システム。
JP2019506495A 2016-08-12 2017-08-08 ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム Active JP6921940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662374343P 2016-08-12 2016-08-12
US62/374,343 2016-08-12
PCT/US2017/045931 WO2018031561A1 (en) 2016-08-12 2017-08-08 Distributed interactive medical visualization system with user interface features

Publications (2)

Publication Number Publication Date
JP2019533489A JP2019533489A (ja) 2019-11-21
JP6921940B2 true JP6921940B2 (ja) 2021-08-18

Family

ID=59677358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019506495A Active JP6921940B2 (ja) 2016-08-12 2017-08-08 ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム

Country Status (5)

Country Link
US (1) US10585552B2 (ja)
EP (1) EP3497600B1 (ja)
JP (1) JP6921940B2 (ja)
CN (1) CN109564785A (ja)
WO (1) WO2018031561A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109564471B (zh) 2016-08-12 2022-08-23 波士顿科学国际有限公司 具有主/次交互特征的分布式交互医学可视化***
JP6921940B2 (ja) 2016-08-12 2021-08-18 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム
WO2020243409A1 (en) * 2019-05-29 2020-12-03 Aqumin, Llc Systems and methods for blending and aggregating multiple related datasets and rapidly generating a user-directed series of interactive 3d visualizations
CN114821826A (zh) * 2022-02-03 2022-07-29 北京泽桥医疗科技股份有限公司 一种面向交互式三维人体医学模型的可视化***
CN115881315B (zh) * 2022-12-22 2023-09-08 北京壹永科技有限公司 交互式医学可视化***

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5494042A (en) 1994-01-28 1996-02-27 Ep Technologies, Inc. Systems and methods for deriving electrical characteristics of cardiac tissue for output in iso-characteristic displays
US6608628B1 (en) 1998-11-06 2003-08-19 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) Method and apparatus for virtual interactive medical imaging by multiple remotely-located users
US7840393B1 (en) 2000-10-04 2010-11-23 Trivascular, Inc. Virtual prototyping and testing for medical device development
US7538764B2 (en) 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
US7327862B2 (en) 2001-04-30 2008-02-05 Chase Medical, L.P. System and method for facilitating cardiac intervention
JP2005518917A (ja) 2002-03-07 2005-06-30 メドトロニック・インコーポレーテッド 非直線の埋め込み可能医療デバイスの動的な3次元再構成を行うコンピュータ実施式のソフトウェアシステム
US20030216710A1 (en) 2002-03-26 2003-11-20 Hurt Robert F. Catheter
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
CA2471073A1 (en) 2003-06-17 2004-12-17 Zale Tabakman System, method and computer for communicating using interactive three-dimensional renderings
US10258285B2 (en) 2004-05-28 2019-04-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for automated creation of ablation lesions
JP2008510499A (ja) 2004-06-23 2008-04-10 エムツーエス・インコーポレーテッド 解剖学的可視化/測定システム
US7291166B2 (en) 2005-05-18 2007-11-06 Advanced Cardiovascular Systems, Inc. Polymeric stent patterns
US20070043466A1 (en) 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20070092864A1 (en) 2005-09-30 2007-04-26 The University Of Iowa Research Foundation Treatment planning methods, devices and systems
US20070127791A1 (en) 2005-11-15 2007-06-07 Sectra Ab Automated synchronization of 3-D medical images, related methods and computer products
JP2009521985A (ja) * 2005-12-31 2009-06-11 ブラッコ イメージング エス.ピー.エー. 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法
WO2007108776A2 (en) 2005-12-31 2007-09-27 Bracco Imaging S.P.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')
US20100106475A1 (en) 2006-08-04 2010-04-29 Auckland Uniservices Limited Biophysical virtual model database and applications
JP5237819B2 (ja) 2006-10-17 2013-07-17 章示 山元 心機能シミュレーションシステム、心機能シミュレーション方法、心機能シミュレーションプログラムおよび複合材料シート
US7940974B2 (en) 2006-11-21 2011-05-10 General Electric Company Method and system for adjusting 3D CT vessel segmentation
DE102007028065A1 (de) 2007-06-19 2009-01-02 Siemens Ag Vorrichtung und Verfahren zur automatischen Wegplanung
US8363096B1 (en) 2007-08-21 2013-01-29 Echopixel Technologies, Inc. Method and apparatus for displaying stereoscopic 3D images with a liquid crystal panel
US8131379B2 (en) 2007-08-27 2012-03-06 St. Jude Medical Atrial Fibrillation Division, Inc. Cardiac tissue elasticity sensing
WO2009049681A1 (en) 2007-10-19 2009-04-23 Vascops Automatic geometrical and mechanical analyzing method and system for tubular structures
AU2008351907A1 (en) 2008-02-25 2009-09-03 Inventive Medical Limited Medical training method and apparatus
US8403911B2 (en) 2008-04-22 2013-03-26 Becton, Dickinson And Company Systems and methods for improving catheter hole array efficiency
US8340763B2 (en) 2008-09-08 2012-12-25 Backbeat Medical, Inc. Methods and apparatus to stimulate heart atria
US9547902B2 (en) 2008-09-18 2017-01-17 Siemens Healthcare Gmbh Method and system for physiological image registration and fusion
EP2605824B1 (en) 2010-08-18 2019-07-24 Boston Scientific Neuromodulation Corporation User interface for segmented neurostimulation leads
US9595127B2 (en) 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
EP2691898A2 (en) 2011-03-29 2014-02-05 Boston Scientific Neuromodulation Corporation System and method for atlas registration
EP2521098A1 (en) * 2011-05-06 2012-11-07 Koninklijke Philips Electronics N.V. Medical image system and method
EP2709721B1 (en) 2011-05-17 2016-09-14 Boston Scientific Neuromodulation Corporation Display of region of activation in neurostimulation programming screen
AU2012262462B2 (en) 2011-05-27 2016-12-01 Boston Scientific Neuromodulation Corporation Collection of clinical data for graphical representation and analysis
JP2013017577A (ja) * 2011-07-08 2013-01-31 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
CA2844072A1 (en) 2011-08-09 2013-02-14 Boston Scientific Neuromodulation Corporation System and method for weighted atlas generation
WO2013023076A2 (en) 2011-08-09 2013-02-14 Boston Scientific Neuromodulation Corporation Control and/or quantification of target stimulation volume overlap and interface therefor
US8935328B2 (en) 2011-09-15 2015-01-13 Ramakrishna J Tumuluri System and method for collaborative 3D visualization and real-time interaction on a computer network
US10734116B2 (en) * 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9106903B2 (en) 2011-11-18 2015-08-11 Zspace, Inc. Head tracking eyewear system
US9173626B2 (en) 2012-01-04 2015-11-03 Siemens Aktiengesellschaft Method for performing dynamic registration, overlays, and 3D views with fluoroscopic images
US8900225B2 (en) 2012-05-07 2014-12-02 Biosense Webster (Israel) Ltd. Automatic ablation tracking
WO2014036079A2 (en) 2012-08-28 2014-03-06 Boston Scientific Neuromodulation Corporation Parameter visualization, selection, and annotation interface
US9613461B2 (en) * 2012-12-10 2017-04-04 Sony Corporation Display control apparatus, display control method, and program
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9225969B2 (en) 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
CN104237791A (zh) 2013-06-20 2014-12-24 电子科技大学 一种锂电池荷电状态估算方法及电池管理***和电池***
US9940750B2 (en) * 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
JP6513669B2 (ja) 2013-08-13 2019-05-15 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. 解剖学的アイテムのコンピュータによる視覚化
CN105682734B (zh) 2013-10-31 2018-08-17 波士顿科学神经调制公司 用于并入来自图像的引线信息的***
AU2014348865B2 (en) 2013-11-14 2017-06-01 Boston Scientific Neuromodulation Corporation Systems, methods, and visualization tools for stimulation and sensing of neural systems with system-level interaction models
JP2017513662A (ja) 2014-03-28 2017-06-01 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Q3d画像の3d画像とのアライメント
US10667796B2 (en) 2014-09-22 2020-06-02 General Electric Company Method and system for registering a medical image with a graphical model
US9992202B2 (en) 2015-02-28 2018-06-05 Aruba Networks, Inc Access control through dynamic grouping
US9503681B1 (en) * 2015-05-29 2016-11-22 Purdue Research Foundation Simulated transparent display with augmented reality for remote collaboration
WO2017066373A1 (en) 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation
CN109564471B (zh) 2016-08-12 2022-08-23 波士顿科学国际有限公司 具有主/次交互特征的分布式交互医学可视化***
JP6921940B2 (ja) 2016-08-12 2021-08-18 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム

Also Published As

Publication number Publication date
US10585552B2 (en) 2020-03-10
EP3497600B1 (en) 2021-11-17
EP3497600A1 (en) 2019-06-19
CN109564785A (zh) 2019-04-02
JP2019533489A (ja) 2019-11-21
WO2018031561A1 (en) 2018-02-15
US20180046355A1 (en) 2018-02-15

Similar Documents

Publication Publication Date Title
EP3497544B1 (en) Distributed interactive medical visualization system with primary/secondary interaction features
JP6921940B2 (ja) ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム
AU2013370334B2 (en) System and method for role-switching in multi-reality environments
JP6081907B2 (ja) 医療処置のコンピュータ化シミュレーションを行うシステム及び方法
US20220387128A1 (en) Surgical virtual reality user interface
JP2022540898A (ja) 外科手術を遠隔監督するための拡張現実システムおよび方法
Pinter et al. SlicerVR for medical intervention training and planning in immersive virtual reality
EP1966767A2 (en) Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
CN101802873A (zh) 增强现实的非真实感绘制
US20200205905A1 (en) Distributed interactive medical visualization system with user interface and primary/secondary interaction features
US20230050857A1 (en) Systems and methods for masking a recognized object during an application of a synthetic element to an original image
JP2022547450A (ja) 仮想マルチユーザコラボレーションにおいて医用画像データを分析するための方法、コンピュータプログラム、ユーザインターフェース、およびシステム
Koehring et al. A framework for interactive visualization of digital medical images
US20160205390A1 (en) Method for displaying on a screen an object shown in a 3d data set
Watson et al. Development of stereoscopic-haptic virtual environments
WO2023211838A1 (en) Systems and methods for facilitating medical procedures with presentation of a 3d point cloud
Miller The perfect capture device for clinical practice?
Sharma et al. Virtual Reality: Robotic Improved Surgical Precision Using AI Techniques
Tung et al. Additional cues derived from three dimensional image processing to aid customised reconstruction for medical applications
Menozzi Virtual Presence for Medical Procedures
Luciano Open surgery training simulator using haptics and augmented reality technologies
Bartlett The Use of Augmented Reality in the Operating Room: a Review
Marsh The integration of virtual reality into a Web-based telemedical information society
Mehrle et al. Import and visualization of clinical medical imagery into multiuser VR environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6921940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150