JP2022102041A - 三次元アノテーション描写システム - Google Patents

三次元アノテーション描写システム Download PDF

Info

Publication number
JP2022102041A
JP2022102041A JP2020216517A JP2020216517A JP2022102041A JP 2022102041 A JP2022102041 A JP 2022102041A JP 2020216517 A JP2020216517 A JP 2020216517A JP 2020216517 A JP2020216517 A JP 2020216517A JP 2022102041 A JP2022102041 A JP 2022102041A
Authority
JP
Japan
Prior art keywords
annotation
pointer
image
position information
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020216517A
Other languages
English (en)
Inventor
時男 後藤
Tokio Goto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020216517A priority Critical patent/JP2022102041A/ja
Priority to US18/258,459 priority patent/US20240187560A1/en
Priority to PCT/JP2021/046048 priority patent/WO2022138327A1/ja
Publication of JP2022102041A publication Critical patent/JP2022102041A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】三次元映像に対応したアノテーションの記録及び描写を実現する。【解決手段】計算機は、右眼用及び左眼用カメラによる撮像信号の受信部と、同撮像信号に基づいた右眼用及び左眼用の背景映像生成部と、ポインタの奥行位置情報生成部と、入力装置から送信される操作信号に基づいたポインタ上下左右位置情報生成部と、同操作信号に基づいたアノテーション開始終了情報生成部と、記録開始情報生成から記録終了情報の生成の間におけるポインタの奥行位置情報及び上下左右位置情報を保存するアノテーション関連情報保存部と、右眼用及び左眼用のポインタ映像生成部及びアノテーション関連映像生成部と、右眼用及び左眼用の背景映像、ポインタ映像、並びに、アノテーション関連映像を合成して、右眼用及び左眼用最終映像を生成する背景アノテーション映像合成部とを備えるようにした。【選択図】図5

Description

本発明は、モニターに映し出される映像に手書き等によってアノテーションを描写するシステム等に関する。
現在、医療現場における手術支援ロボットを利用した手技では、手術器具を取り付けたロボットアームと内視鏡を挿入し、医師が手術コンソールと呼ばれる操作ボックスの中で、内視鏡映像を見ながらロボットアームを操作することが行われている。
医師は、ロボットアームの先端に取り付けられる鉗子等の手術器具を、患者体内の三次元空間で前後・上下・左右に移動させる必要がある。そのため、手術支援ロボットは、内視鏡によって体内を三次元映像として撮像し、操作ボックス内では、その映像を三次元モニターに表示することで、医師が体内空間を立体的に把握できるようにしている(例えば、特許文献1参照)。一般的に、医療現場における三次元モニターは偏光方式が採用されており、医師は、三次元偏光眼鏡を装着することで、立体視する。
特表2009-512514
手技を行う医師自身や、その周囲の関係者が、その三次元映像に対して、外部入力装置によってアノテーション(患部を示す領域表示やメスを入れるライン等の注釈情報)を記入しようとしても、そのアノテーションが二次元表面(ディスプレイの表面)に表示されるため、体内の奥にある部位(血管や臓器等)を正しく指し示すことができないという問題があった。
本発明は、斯かる実情に鑑み、奥行きを加味したアノテーションを描写することが可能なシステム等を提供しようとするものである。
上記目的を達成する本発明は、計算機によって実現される三次元アノテーション描写システムであって、前記計算機は、右眼用カメラ及び左眼用カメラによって撮像される被写体の右眼用撮像信号及び左眼用撮像信号を受信するカメラ映像受信部と、前記右眼用撮像信号及び前記左眼用撮像信号に基づいて、右眼用背景映像及び左眼用背景映像を生成する背景映像生成部と、ポインタを操作するアノテーション入力装置から送信される操作信号に基づいて、前記ポインタの上下左右位置情報を生成するポインタ上下左右位置情報生成部と、前記ポインタの奥行位置情報を生成するポインタ奥行位置情報生成部と、前記操作信号に基づいて、アノテーションの記録開始情報及び記録終了情報を生成するアノテーション開始終了情報生成部と、前記記録開始情報の生成タイミングから前記記録終了情報の生成タイミングの間における前記ポインタの奥行位置情報をアノテーションの奥行位置情報として保存し、且つ、前記記録開始情報の生成タイミングから前記記録終了情報の生成タイミングの間における前記ポインタの上下左右位置情報をアノテーションの上下左右位置情報として保存するアノテーション関連情報保存部と、少なくとも前記ポインタの上下左右位置情報を参照して、右眼用ポインタ映像及び左眼用ポインタ映像を生成するポインタ映像生成部と、前記アノテーションの奥行位置情報及び前記アノテーションの上下左右位置情報を参照して、右眼用アノテーション関連映像及び左眼用アノテーション関連映像を生成するアノテーション関連映像生成部と、前記右眼用背景映像及び前記左眼用背景映像、前記右眼用ポインタ映像及び前記左眼用ポインタ映像、並びに、前記右眼用アノテーション関連映像及び前記左眼用アノテーション関連映像を合成して、右眼用最終映像及び左眼用最終映像を生成する背景アノテーション映像合成部と、を備えることを特徴とする三次元アノテーション描写システムである。
上記三次元アノテーション描写システムに関連して、前記計算機は、更に、前記右眼用最終映像及び前記左眼用最終映像を重畳させて三次元最終映像を生成する左右映像合成部を備えることを特徴とする。
上記三次元アノテーション描写システムに関連して、前記ポインタ奥行位置情報生成部は、前記アノテーション入力装置から送信される奥行移動を意味する操作信号に基づいて、前記ポインタの奥行位置情報を生成することを特徴とする。
上記三次元アノテーション描写システムに関連して、前記計算機は、前記右眼用背景映像及び前記左眼用背景映像に基づいて前記被写体の奥行位置情報を算出する被写体奥行位置情報算出部を備え、前記ポインタ奥行位置情報生成部は、前記ポインタの上下左右位置情報に対応する前記被写体の奥行位置情報に基づいて、前記ポインタの奥行位置情報を生成することを特徴とする。
上記三次元アノテーション描写システムに関連して、前記ポインタ映像生成部は、前記ポインタの奥行位置情報に基づく視差を含む前記右眼用ポインタ映像及び前記左眼用ポインタ映像を生成することを特徴とする。
本発明によれば、三次元映像に対応したアノテーションの記録及び描写を実現できるという優れた効果を奏し得る。
本発明の実施形態に係る三次元アノテーション描写システムの全体構成を示すブロック図である。 同三次元アノテーション描写システムで用いられる計算機の汎用構成を示すブロック図である。 (A)は同三次元アノテーション描写システムで用いられるアノテーション入力装置の機能構成を示すブロック図であり、(B)は同機能構成をマウス型入力装置で実現する場合の正面図である。 同三次元アノテーション描写システムにおいて計算機で実現されるアノテーション処理装置の機能構成を示すブロック図である。 同三次元アノテーション描写システムにおいて計算機で実現される三次元映像生成装置の機能構成を示すブロック図である。 同三次元アノテーション描写システムにおいて被写体(術野)を示す、(A)カメラの撮像軸方向から視た状態の模式図、(B)同撮像軸方向に直交且つ上方から視た状態の模式図である。 同三次元アノテーション描写システムで生成される(A)右眼用背景映像及び左眼用背景映像、(B)右眼用ポインタ映像及び左眼用ポインタ映像、(C)右眼用アノテーション関連映像及び左眼用アノテーション関連映像、(D)右眼用最終映像及び左眼用最終映像を示す模式図である。 同右眼用最終映像及び左眼用最終映像から三次元最終映像を重畳生成する状態を示す図である。 同三次元アノテーション描写システムにおいて、(A)利用者に認識される三次元状態の被写体をカメラの撮像軸方向から視た状態を示す模式図、(B)三次元状態の被写体を同撮像軸方向に直交且つ上方から視た状態を示す模式図である。 同三次元アノテーション描写システムにおいて、(A)利用者に認識される三次元状態の被写体をカメラの撮像軸方向から視た状態を示す模式図、(B)三次元状態の被写体を同撮像軸方向に直交且つ上方から視た状態を示す模式図である。 同三次元アノテーション描写システムの変形例に係る三次元映像生成装置の機能構成を示すブロック図である。 同三次元アノテーション描写システムの変形例に係るアノテーション処理装置の機能構成を示すブロック図である。
以下、本発明の実施の形態に係る三次元アノテーション描写システムついて添付図面を参照して説明する。なお、本実施形態では、医療現場において、三次元アノテーション描写システムを手術支援ロボットと組み合わせて利用する場合を例示するが、本発明は、これに限定されず、工場等の生産ライン等と組み合わせて利用することも可能である。
(全体構成)
図1に示すように、三次元アノテーション描写システム1は、患者Kの体内に挿入される内視鏡5に搭載される右眼用カメラ10R及び左眼用カメラ10L、同体内に挿入される手術用のロボットアーム(ロボット用鉗子)20、右眼用カメラ10R及び左眼用カメラ10Lの映像が入力される三次元映像生成装置100、手術コンソール50に設けられる第1三次元表示装置60、手術コンソール50に設けられるロボット操作装置22、手術コンソール50に設けられる第1アノテーション入力装置270、第1アノテーション入力装置270の操作情報が入力されるアノテーション処理装置200、手術コンソール50外に設けられる第2三次元表示装置80、手術コンソール50外に設けられる第2アノテーション入力装置280を備える。
なお、手術コンソール50は、手術を行う医師Iによって閲覧・操作される。一方、第2三次元表示装置80及び第2アノテーション入力装置280は、医師Iを支援する他の医師等の支援者Dによって閲覧・操作される。
ロボット操作装置22は、いわゆるマスターコントロールであり、医師Iによって操作されることで、ロボットアーム20及びその先端の医療器具の動作を制御する。
右眼用カメラ10Rは、患者Kの体内を、医師Iの右眼の視点から撮像する。左眼用カメラ10Lは、患者Kの体内を、医師Iの左眼の視点から撮像する。従って、右眼用カメラ10Rによって撮像される右眼用映像と、左眼用カメラ10Lによって撮像される左眼用映像を比較すると、視差が生じている。
三次元映像生成装置100は、いわゆる計算機であり、右眼用カメラ10R及び左眼用カメラ10Lによって撮像される右眼用撮像信号及び左眼用撮像信号等を利用して、最終的な三次元映像(右眼用映像及び左眼用映像)を生成し、その三次元映像を第1三次元表示装置60及び第2三次元表示装置80に送信する。
第1三次元表示装置60及び第2三次元表示装置80は、いわゆる3Dモニターであり、三次元映像を映し出す。3Dモニターにおける三次元表示方式は様々に存在するが、例えば偏光方式の場合、互いに偏光方向(偏光回転方向)が異なる右眼用映像と左眼用映像を重畳的(これは映像自体が重なって表示させる場合と、縞状領域や格子状領域に交互配置することで重なって認識させる場合の双方を含む)に表示する。医師Iや支援者Dは、偏光眼鏡90によって、右眼には右眼用映像のみを認識させ、左眼には左眼用映像のみを認識させる。なお、3Dモニターは、偏光方式以外に、ヘッドマウントディスプレイ(HMD)のような右眼用モニターと左眼用モニターを独立して有するようにし、右眼で右眼用モニターの右目用映像を認識し、左眼で左眼用モニターの左眼用映像を認識しても良い。また、3Dモニターとして、プロジェクター方式を採用しても良い。
第1アノテーション入力装置270及び第2アノテーション入力装置280は、いわゆるマウス型入力装置であり、医師Iや支援者Dは、第1三次元表示装置60及び第2三次元表示装置80の三次元映像を視ながら、マウス型入力装置を操作して、アノテーションを映像上に描く。なお、ここではマウス入力装置を例示するが、本発明はこれに限定されず、タッチバッド型入力装置や、タッチペン型入力装置、スティック型入力装置等の各種入力装置を選定できる。
アノテーション処理装置200は、いわゆる計算機であり、第1アノテーション入力装置270及び第2アノテーション入力装置280から送信される操作情報を受信して、アノテーション関連情報を生成・保存し、そのアノテーション関連情報を三次元映像生成装置100に送信する。アノテーション関連情報を受信した三次元映像生成装置100は、アノテーション用の三次元映像(右眼用アノテーション関連映像及び左眼用アノテーション関連映像)を生成する。このアノテーション用の三次元映像を、右眼用撮像信号及び左眼用撮像信号から生成される背景用三次元映像(右眼用背景映像及び左眼用背景映像)に合成することで、最終的な三次元映像が生成される。
図2に、三次元映像生成装置100及びアノテーション処理装置200に採用される計算機40の汎用的な内部構成を示す。計算機40はCPU41と、RAM42と、ROM43と、入力装置44と、表示装置45と、入出力インターフェース46と、バス47と、記憶装置48を備えている。なお、入力装置44(入力キーやキーボード、マウス等)と表示装置45(ディスプレイ)は、計算機40自体を操作する際に用いられるものであり、省略することもできる。
CPU41は、いわゆる中央演算処理装置であり、各種プログラムが実行されることで、三次元映像生成装置100やアノテーション処理装置200の各種機能を実現する。RAM42は、いわゆるRAM(ランダム・アクセス・メモリ)であり、CPU41の作業領域として使用される。ROM43は、いわゆるROM(リード・オンリー・メモリ)であり、CPU41で実行される基本OSや各種プログラム(例えば、三次元映像生成装置100の映像生成プログラムや、アノテーション処理装置200のアノテーション処理プログラム)を記憶する。
記憶装置48は、ハードディスクやSSDメモリ、DAT等であり、大量の情報を蓄積する際に用いられる。
入出力インターフェース46は電源および制御信号が入出力される。バス47は、CPU41、RAM42、ROM43、入力装置44、表示装置45、入出力インターフェース46、記憶装置48などを一体的に接続して通信を行う配線である。
ROM43に記憶された基本OSや各種プログラムが、CPU41によって実行されると、計算機40が三次元映像生成装置100やアノテーション処理装置200として機能することになる。
(アノテーション入力装置・アノテーション処理装置の詳細)
図3(A)に、第1アノテーション入力装置270の機能構成を示す。なお、第2アノテーション入力装置280はこれと同じ構成であるので説明を省略する。
第1アノテーション入力装置270は、ポインタ奥行移動指示部272、ポインタ上下左右移動指示部274、アノテーション開始終了指示部276、アノテーション消去指示部278、アノテーション種別指示部279を有する。
図3(B)に、これらの機能をマウス型入力装置270Aに反映させた場合の事例を示す。右手操作用とした場合、左クリックエリアがアノテーション開始終了指示部276に相当し、右クリックエリアがアノテーション消去指示部278に相当し、スクロールホイールがポインタ奥行移動指示部272に相当し、装置自体の上下左右移動検知部がポインタ上下左右移動指示部274に相当する。なお、スクロールホイールを前方に回転させると、ポインタを奥側に移動させることになり、手前に回転させると、ポインタを手前側に移動させることになる。アノテーション種別指示部279は、本実施形態では、左クリックエリアと上下左右移動検知部の組み合わせによって実現されており、例えば、第1又は第2三次元表示装置60,80の画面上に表示される種別リスト340(図8参照)の中から、記録したいアノテーション種別(文字・四角枠・丸枠・直線・曲線・自在線等)にポインタを合わせて左クリックするようになっている。
図4に、アノテーション処理装置200の機能構成(プログラム構成)を示す。アノテーション処理装置200は、アノテーション入力装置270から送信させる操作信号(右クリック信号、左クリック信号、スクロールホイール信号、上下左右移動信号)を受信して、アノテーション関連情報を生成・送信する。アノテーション処理装置200は、ポインタ奥行位置情報生成部202、ポインタ上下左右位置情報生成部204、アノテーション開始終了情報生成部206、アノテーション消去情報生成部208、アノテーション種別情報生成部209、アノテーション関連情報保存部210、アノテーション関連情報送信部220を有する。
第1アノテーション入力装置270及びアノテーション処理装置200の上記各機能と、患者Kの実際の術野の関係について図6を参照して説明する。なお、図6(A)は、内視鏡5の光軸方向(ここではZ軸方向/奥行方向と定義する)から視た患者Kの術野を示し、図6(B)は、光軸に対して直交且つ上下方向(ここではY軸方向と定義する)から視た術野を示す。なお、光軸に対して直交且つ左右方向をここではX軸方向と定義し、X軸-Y軸によって形成される平面をX-Y平面と定義する。
<ポインタの移動>
図6において、ポインタPを、位置A、位置B、位置Cの順に仮想的に移動させる場合を想定する。医師Iは、ポインタ奥行移動指示部272となるスクロールホイールを前方に回転させる。この信号を受信したポインタ奥行位置情報生成部202は、奥行方向(Z軸方向)の座標Paz、Pbz、Pczの順に移動する情報(ポインタ奥行位置情報)を生成する。また、医師Iは、ポインタ上下左右移動指示部274となるマウス型入力装置270A全体を移動させる。この信号を受信したポインタ上下左右位置情報生成部204は、X-Y平面方向の座標(Pax,Pay)、(Pbx,Pby)、(Pcx,Pcy)の順に移動する情報(ポインタ上下左右位置情報)を生成する。ポインタ奥行位置情報とポインタ上下左右位置情報を合成した結果として、ポインタPは、位置A、位置B、位置Cの順に移動することになる。
<アノテーション記録>
医師Iが、アノテーション種別指示部279を操作すると、その信号を受信したアノテーション種別情報生成部209が、アノテーション種別信号を生成する。例えば、映像上の種別リスト340(図8参照)において、記録したいアノテーション種別(文字・四角枠・丸枠・直線・曲線・自在線等)の選択領域を表示させておき、ポインタを「直線」に合わせて左クリックすると、直線描写を意味するアノテーション種別信号が生成される。
医師Iが、アノテーション開始終了指示部276を操作すると、その信号を受信したアノテーション開始終了情報生成部206が、アノテーションの記録開始信号と、記録終了信号を生成する。例えば、マウス型入力装置270Aの左クリックを押すと、記録開始信号が生成され、左クリックを開放すると記録終了信号が生成される。この結果、左クリックを押している最中は、ポインタPに移動軌跡に沿ったアノテーションが記録されることになる。例えば、図7において、ポインタPが位置Aから位置Bに移動する最中に、記録開始信号Sと記録終了信号Eが生成されるすると、開始信号Sから終了信号EまでのポインタPの移動軌跡と、選定済みのアノテーション種別信号を組み合わせて、第1及び第2三次元表示装置60,80上にアノテーションMが表示される。
具体的に、開始信号Sの生成タイミングにおけるポインタ奥行位置情報及びポインタ上下左右位置情報から始まり、終了信号Eの生成タイミングにおけるポインタ奥行位置情報及びポインタ上下左右位置情報までの亘る一連のポインタPの移動軌跡(奥行及び上下左右位置情報)が、アノテーション種別信号と共にアノテーション関連情報保存部210に保存される。
なお、本実施形態では、この開始信号Sから終了信号EまでのポインタPの奥行及び上下左右位置情報を、アノテーション奥行位置情報及びアノテーション上下左右位置情報と定義する。また、アノテーション奥行位置情報、アノテーション上下左右位置情報、アノテーション種別情報をまとめてアノテーション関連情報と定義する。
アノテーション関連情報保存部210に保存されるこれらのアノテーション関連情報は、アノテーション関連情報送信部220によって三次元映像生成装置100に送信される。複数回に亘ってアノテーションが記録されていくと、各々のアノテーション関連情報が、アノテーション関連情報保存部210にデータベースとして順次蓄積されていき、蓄積中の全てのアノテーション関連情報が、アノテーション関連情報送信部220からまとめて三次元映像生成装置100に送信される。なお、アノテーションMの映像の生成は、アノテーション関連情報を受信した三次元映像生成装置100が実現する。
なお、アノテーション関連情報送信部220は、アノテーション関連情報保存部210に保存されるアノテーション関連情報と同時に、ポインタPのポインタ奥行位置情報及び上下左右位置情報(以下、ポインタ関連情報)も三次元映像生成装置100に送信される。結果、アノテーションMとは別に、ポインタPの映像が三次元映像生成装置100によって生成される。
医師Iが、アノテーション消去指示部278を操作すると、その信号を受信したアノテーション消去情報生成部208が、過去に生成したアノテーションMを消去するアノテーション消去信号を生成する。つまり、アノテーション関連情報保存部210に蓄積されるアノテーション関連情報が消去され、消去された情報について、三次元映像生成装置100への送信が停止する。
例えば、ポインタPが任意の位置において、医師Iがマウス型入力装置270Aの右クリックを押すと、アノテーション関連情報に含まれる全てのアノテーションMを消去するための消去信号が生成されるようにしても良い。一方、特定のアノテーションM上にポインタPを一致させてから右クリックを押すことで、アノテーション関連情報に含まれる特定のアノテーションMのみが消去するためのアノテーション消去信号を生成しても良い。
(三次元映像装置)
図5に、三次元映像生成装置100の機能構成を示す。三次元映像生成装置100は、カメラ映像受信部102(右眼用カメラ映像受信部102R,左眼用カメラ映像受信部102L)、背景映像生成部104(右眼用背景映像生成部104R,左眼用背景映像生成部104L)、ポインタ映像生成部106(右眼用ポインタ映像生成部106R,左眼用ポインタ映像生成部106L)、アノテーション関連映像生成部108(右眼用アノテーション関連映像生成部108R,左眼用アノテーション関連映像生成部108L))、背景アノテーション映像合成部110(右眼用背景アノテーション映像合成部110R,左眼用背景アノテーション映像合成部110L)、左右映像合成部112、映像出力部114を有する。
カメラ映像受信部102の右眼用カメラ映像受信部102Rは、右眼用カメラ10Rによって撮像される右眼用撮像信号を受信する。同様に左眼用カメラ映像受信部102Lは、左眼用カメラ10Lによって撮像される左眼用撮像信号を受信する。
図7(A)に示すように、背景映像生成部104の右眼用背景映像生成部104Rは、右眼用撮像信号を利用して、右眼用背景映像304Rを生成する。同様に左眼用背景映像生成部104Lは、左眼用撮像信号を利用して左眼用背景映像304Lを生成する。この右眼用背景映像304R及び左眼用背景映像304Lは、右眼用撮像信号及び左眼用撮像信号そのものでも良いが、視認性を高めるために各種画像処理を施した静止画又は動画とすることができる。当然ながら、この右眼用背景映像304R及び左眼用背景映像304Lには視差が生じていることになる。本実施形態では、術野内において、Z軸方向の手前側から奥側に向かって、臓器U1,臓器U2,臓器U3、血管U4、臓器U5が配置される事例を示す。
図7(B)に示すように、ポインタ映像生成部106の右眼用ポインタ映像生成部106Rは、アノテーション処理装置200から受信したポインタ関連情報を参照して、右眼用ポインタ映像306Rを生成する。同様に左眼用ポインタ映像生成部106Lは、ポインタ関連情報を参照して左眼用ポインタ映像306Lを生成する。具体的には、図6(B)に示すように、位置Aに存在するポインタPのポインタ関連情報(Pax,Pay,Paz)を受信した場合、右眼用ポインタ映像生成部106Rは、人間特有の両面視差及び輻輳角に基づいて、右眼の視軸に沿ってポインタPを映像基準平面α(例えばZ軸座標が0又は基準位置となる場合におけるX-Y平面)に投影した右眼用ポインタ座標Arを算出し、右眼用ポインタ映像306R内の右眼用ポインタ座標Arに、ポインタPの映像を挿入する。同様に、左眼用ポインタ映像生成部106Lは、人間特有の両面視差及び輻輳角に基づいて、左眼の視軸に沿ってポインタPを映像基準平面αに投影した左眼用ポインタ座標Alを算出し、左眼用ポインタ映像306L内の左眼用ポインタ座標Alに、ポインタPの映像を挿入する。結果、右眼用ポインタ映像306Rと左眼用ポインタ映像306Lは、視差及び輻輳角の影響が反映された三次元立体視用のポインタ映像となる。
なお、図6におけるB位置にポインタPが存在する場合は、右眼用ポインタ映像306R内の右眼用ポインタ座標BrにポインタPの映像を挿入し、左眼用ポインタ映像306L内の左眼用ポインタ座標BlにポインタPの映像を挿入する。図6におけるC位置にポインタPが存在する場合は、右眼用ポインタ映像306R内の右眼用ポインタ座標CrにポインタPの映像を挿入し、左眼用ポインタ映像306L内の左眼用ポインタ座標ClにポインタPの映像を挿入する。
図7(C)に示すように、アノテーション関連映像生成部108の右眼用アノテーション関連映像生成部108Rは、アノテーション関連情報を利用して、右眼用アノテーション関連映像308Rを生成する。同様に、左眼用アノテーション関連映像生成部108Lは、アノテーション関連情報を利用して、左眼用アノテーション関連映像308Lを生成する。
具体的には、図6(B)に示すように、アノテーションMに相当するアノテーション関連情報を受信した場合、右眼用アノテーション関連映像生成部108Rは、人間特有の両面視差及び輻輳角に基づいて、右眼の視軸に沿ってアノテーションMを映像基準平面αに投影した右眼用アノテーション座標Mrを算出し、右眼用アノテーション関連映像308R内の右眼用アノテーション座標Mrに、アノテーションMの映像を挿入する。同様に、左眼用アノテーション関連映像生成部108Lは、人間特有の両面視差及び輻輳角に基づいて、左眼の視軸に沿ってアノテーションMを映像基準平面αに投影した左眼用アノテーション座標Mlを算出し、左眼用アノテーション関連映像308L内の左眼用アノテーション座標Mlに、アノテーションMの映像を挿入する。結果、右眼用アノテーション関連映像308Rと左眼用アノテーション関連映像308Lは、視差及び輻輳角の影響が反映された三次元立体視用のアノテーション関連映像となる。
図7(D)に示すように、背景アノテーション映像合成部110の右眼用背景アノテーション映像合成部110Rは、右眼用背景映像304R、右眼用ポインタ映像306R、右眼用アノテーション関連映像308Rを重ね合わせて、右眼用最終映像310Rを生成する。同様に左眼用背景アノテーション映像合成部110Lは、左眼用背景映像304L、左眼用ポインタ映像306L、左眼用アノテーション関連映像308Lを重ね合わせて、左眼用最終映像310Lを生成する。なお、この状態の右眼用最終映像310R及び左眼用最終映像310Lは、いわゆるサイド・バイ・サイド形式となっている。例えば、ヘッドマウントディスプレイ等の二眼方式のディスプレイの場合は、このまま映像出力部114から出力して、右眼用ディスプレイと左眼用ディスプレイに映し出せば良い。
図8に示すように、左右映像合成部112は、右眼用最終映像310R及び左眼用最終映像310Lを合成して単一の三次元最終映像312を生成する。この合成手法は様々であるが、例えば、第1三次元表示装置60及び第2三次元表示装置80が偏光方式モニターの場合は、右眼用最終映像310Rを櫛状領域V1,V2・・・Vnに分離し、左眼用最終映像310Lを櫛状領域W1,W2・・・Wnに分離し、右眼用櫛状領域V1,V2・・・Vnと左眼用櫛状領域W1,W2・・・Wnを交互に配置することで、単一の三次元最終映像312を生成できる。医師Iや支援者Dは、偏光眼鏡90を用いて、右眼では右眼用櫛状領域V1,V2・・・Vnのみを認識し、左眼では左眼用櫛状領域W1,W2・・・Wnのみを認識することで、頭内で三次元立体映像が生成される。なお、三次元最終映像312には、別途、種別リスト340を付加しておくことが好ましい。
映像出力部114は、この三次元最終映像312を、第1三次元表示装置60及び第2三次元表示装置80に送信する。
(使用例)
次に、図9及び図10を参照して、本三次元アノテーション描写システム1の使用方法について説明する。なお、図9(A)及び図10(A)は、医師I又は支援者Dが、第1三次元表示装置60及び第2三次元表示装置80に映し出される三次元最終映像312によって認識される三次元空間(術野)をZ軸方向から視た状態を模式的に示し、図9(B)及び図10(B)は、同三次元空間をY軸方向から視た状態を模式的に示す。
図9では血管U4の表面に直線状のアノテーションを記録する場合を例示する。まず、医師I又は支援者Dは、マウス型入力装置(第1アノテーション入力装置270及び第2アノテーション入力装置280)を利用して、図9(A)の種別リスト340からアノテーション種別(ここでは直線)を選択しておく。その後、X-Y平面においてアノテーションの記録を開始したい目安位置Sxy、つまり、血管U4にポインタPを合わせる。その後、マウス型入力装置のスクロールホイールを前後方向に移動させることで、図9(B)の奥行方向(矢印Sz)に沿って、ポインタPを移動させる(S1、S2、S3)。医師Iや支援者Dにとって、ポインタPの映像は三次元空間内に立体的に認識されているので、スクロールホイールの操作と、ポインタPが奥行方向の移動が連動する。医師I又は支援者Dは、ポインタPの奥行方向の位置S2と、血管U4の奥行方向の位置が一致していることを視覚的に確認できた段階でスクロールホイールを停止する。
その後、医師I又は支援者Dは、再度、アノテーションの記録を開始したい正確な開始位置Sxy(S2)にポインタPを合わせてから、マウス型入力装置の左クリックを押し下げることでアノテーション記録開始指示を入力し、そのままマウス型入力装置を終了位置Exy(E2)まで移動させてから、左クリックを開放してアノテーション記録終了指示を入力する。結果、三次元空間における血管U4の表面に、直線状のアノテーションMが記録される。このアノテーションMは、アノテーション関連情報保存部210に対応するアノテーション関連情報が保続されている限り、常に表示されることになる。
図9のアノテーションMの記録に連続して、臓器U5の表面に四角枠アノテーションMを記録する場合について図10を参照して例示する。まず、医師I又は支援者Dは、マウス型入力装置を利用して、図9(A)の種別リスト340からアノテーション種別(ここでは四角枠)を選択しておく。その後、X-Y平面においてアノテーションの記録を開始したい目安位置Sxy、つまり、臓器U5にポインタPを合わせる。その後、マウス型入力装置のスクロールホイールを前後方向に移動させることで、図10(B)の奥行方向(矢印Sz)に沿って、ポインタPを移動させる(S1、S2、S3)。医師Iや支援者Dにとって、ポインタPの映像は三次元空間内に立体的に認識されているので、スクロールホイールの操作と、ポインタPが奥行方向の移動が連動する。医師I又は支援者Dは、ポインタPの奥行方向の位置S2と、臓器U5の奥行方向の位置が一致していることを視覚的に確認できた段階でスクロールホイールを停止する。
その後、医師I又は支援者Dは、再度、アノテーションの記録を開始したい正確な開始位置Sxy(S2)にポインタPを合わせてから、マウス型入力装置の左クリックを押し下げることでアノテーション記録開始指示を入力し、そのままマウス型入力装置を終了位置Exy(E2)まで移動させてから、左クリックを開放してアノテーション記録終了指示を入力する。結果、三次元空間における臓器U5の表面において、開始位置Sxy(S2)と終了位置Exy(E2)を対角に有する四角枠アノテーションMが記録される。
次に、図11及び図12を参照して、本実施形態の三次元アノテーション描写システム1における、三次元映像生成装置100の変形例を紹介する。図11に示すように、変形例となる三次元映像生成装置100は、被写体奥行情報算出部120を有する。この被写体奥行情報算出部120は、右眼用カメラ10R及び左眼用カメラ10Lによって撮像される右眼用撮像信号及び左眼用撮像信号等を比較処理(例えばパターンマッチング)することで、視差等を計算し、被写体(臓器U1、臓器U2、臓器U3、血管U4、臓器U5)の全てX-Y平面上のドットに対してZ軸方向の奥行位置情報を算出する。この被写体奥行情位置報は、図12のアノテーション処理装置200において、ポインタ奥行位置情報を確定する際に参照される。
これにより、医師Iや支援者Dは、第1アノテーション入力装置270及び第2アノテーション入力装置280のポインタ上下左右移動指示部274を利用してX-Y平面上にポインタPを合わせるだけで、アノテーション処理装置200は、そのX-Y座標上のポインタPの奥行位置情報を、上記被写体奥行位置情報から参照できることになる。つまり、ポインタPは、常に、被写体の手前側表面をなぞるようにして、自動的に奥行位置が調整される。
更に、このポインタPの奥行自動調整機能を有する場合は、最終映像に映し出されるポインタPは、三次元映像化しなくても良く、二次元映像でも良い。アノテーション表示のみを三次元映像化ができる。
尚、本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
1 三次元アノテーション描写システム
5 内視鏡
10L 左眼用カメラ
10R 右眼用カメラ
20 ロボットアーム
22 ロボット操作装置
40 計算機
50 手術コンソール
90 偏光眼鏡
100 三次元映像生成装置
102 カメラ映像受信部
104 背景映像生成部
106 ポインタ映像生成部
108 アノテーション関連映像生成部
110 背景アノテーション映像合成部
112 左右映像合成部
114 映像出力部
200 アノテーション処理装置
202 ポインタ奥行位置情報生成部
204 ポインタ上下左右位置情報生成部
206 アノテーション開始終了情報生成部
208 アノテーション消去情報生成部
209 アノテーション種別情報生成部
210 アノテーション関連情報保存部
220 アノテーション関連情報送信部
270 第1アノテーション入力装置
270A マウス型入力装置
272 ポインタ奥行移動指示部
274 ポインタ上下左右移動指示部
276 アノテーション開始終了指示部
278 アノテーション消去指示部
279 アノテーション種別指示部
I 医師
K 患者
M アノテーション
P ポインタ
α 映像基準平面

Claims (5)

  1. 計算機によって実現される三次元アノテーション描写システムであって、
    前記計算機は、
    右眼用カメラ及び左眼用カメラによって撮像される被写体の右眼用撮像信号及び左眼用撮像信号を受信するカメラ映像受信部と、
    前記右眼用撮像信号及び前記左眼用撮像信号に基づいて、右眼用背景映像及び左眼用背景映像を生成する背景映像生成部と、
    ポインタを操作するアノテーション入力装置から送信される操作信号に基づいて、前記ポインタの上下左右位置情報を生成するポインタ上下左右位置情報生成部と、
    前記ポインタの奥行位置情報を生成するポインタ奥行位置情報生成部と、
    前記操作信号に基づいて、アノテーションの記録開始情報及び記録終了情報を生成するアノテーション開始終了情報生成部と、
    前記記録開始情報の生成タイミングから前記記録終了情報の生成タイミングの間における前記ポインタの奥行位置情報をアノテーションの奥行位置情報として保存し、且つ、前記記録開始情報の生成タイミングから前記記録終了情報の生成タイミングの間における前記ポインタの上下左右位置情報をアノテーションの上下左右位置情報として保存するアノテーション関連情報保存部と、
    少なくとも前記ポインタの上下左右位置情報を参照して、右眼用ポインタ映像及び左眼用ポインタ映像を生成するポインタ映像生成部と、
    前記アノテーションの奥行位置情報及び前記アノテーションの上下左右位置情報を参照して、右眼用アノテーション関連映像及び左眼用アノテーション関連映像を生成するアノテーション関連映像生成部と、
    前記右眼用背景映像及び前記左眼用背景映像、前記右眼用ポインタ映像及び前記左眼用ポインタ映像、並びに、前記右眼用アノテーション関連映像及び前記左眼用アノテーション関連映像を合成して、右眼用最終映像及び左眼用最終映像を生成する背景アノテーション映像合成部と、
    を備えることを特徴とする三次元アノテーション描写システム。
  2. 前記計算機は、更に、前記右眼用最終映像及び前記左眼用最終映像を重畳させて三次元最終映像を生成する左右映像合成部を備えることを特徴とする、
    請求項1に記載の三次元アノテーション描写システム。
  3. 前記ポインタ奥行位置情報生成部は、前記アノテーション入力装置から送信される奥行移動を意味する操作信号に基づいて、前記ポインタの奥行位置情報を生成することを特徴とする、
    請求項1又は2に記載の三次元アノテーション描写システム。
  4. 前記計算機は、前記右眼用背景映像及び前記左眼用背景映像に基づいて前記被写体の奥行位置情報を算出する被写体奥行位置情報算出部を備え、
    前記ポインタ奥行位置情報生成部は、前記ポインタの上下左右位置情報に対応する前記被写体の奥行位置情報に基づいて、前記ポインタの奥行位置情報を生成することを特徴とする、
    請求項1~3のいずれか一項に記載の三次元アノテーション描写システム。
  5. 前記ポインタ映像生成部は、前記ポインタの奥行位置情報に基づく視差を含む前記右眼用ポインタ映像及び前記左眼用ポインタ映像を生成することを特徴とする、
    請求項1~4のいずれか一項に記載の三次元アノテーション描写システム。
JP2020216517A 2020-12-25 2020-12-25 三次元アノテーション描写システム Pending JP2022102041A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020216517A JP2022102041A (ja) 2020-12-25 2020-12-25 三次元アノテーション描写システム
US18/258,459 US20240187560A1 (en) 2020-12-25 2021-12-14 Three-dimensional annotation rendering system
PCT/JP2021/046048 WO2022138327A1 (ja) 2020-12-25 2021-12-14 三次元アノテーション描写システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020216517A JP2022102041A (ja) 2020-12-25 2020-12-25 三次元アノテーション描写システム

Publications (1)

Publication Number Publication Date
JP2022102041A true JP2022102041A (ja) 2022-07-07

Family

ID=82159715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020216517A Pending JP2022102041A (ja) 2020-12-25 2020-12-25 三次元アノテーション描写システム

Country Status (3)

Country Link
US (1) US20240187560A1 (ja)
JP (1) JP2022102041A (ja)
WO (1) WO2022138327A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024023102A1 (de) * 2022-07-28 2024-02-01 B. Braun New Ventures GmbH Navigationssystem und navigationsverfahren mit annotationsfunktion

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4861105B2 (ja) * 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 空間掲示板システム
JP2009145883A (ja) * 2007-11-20 2009-07-02 Rissho Univ 学習システム、記憶媒体及び学習方法
JP5616622B2 (ja) * 2009-12-18 2014-10-29 アプリックスIpホールディングス株式会社 拡張現実感提供方法及び拡張現実感提供システム
JP5784213B2 (ja) * 2011-03-29 2015-09-24 クアルコム,インコーポレイテッド 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン
WO2014094874A1 (en) * 2012-12-21 2014-06-26 Vidinoti Sa Method and apparatus for adding annotations to a plenoptic light field
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
EP2946266B1 (en) * 2014-03-21 2023-06-21 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US11023109B2 (en) * 2017-06-30 2021-06-01 Microsoft Techniogy Licensing, LLC Annotation using a multi-device mixed interactivity system
WO2019217148A1 (en) * 2018-05-07 2019-11-14 Apple Inc. Devices and methods for measuring using augmented reality
US20200098194A1 (en) * 2018-09-20 2020-03-26 Intuitive Research And Technology Corporation Virtual Reality Anchored Annotation Tool
JP6716004B1 (ja) * 2019-09-30 2020-07-01 株式会社バーチャルキャスト 記録装置、再生装置、システム、記録方法、再生方法、記録プログラム、再生プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024023102A1 (de) * 2022-07-28 2024-02-01 B. Braun New Ventures GmbH Navigationssystem und navigationsverfahren mit annotationsfunktion

Also Published As

Publication number Publication date
WO2022138327A1 (ja) 2022-06-30
US20240187560A1 (en) 2024-06-06

Similar Documents

Publication Publication Date Title
CN109069103B (zh) 超声成像探头定位
JP4553362B2 (ja) システム、画像処理装置、情報処理方法
JP5845211B2 (ja) 画像処理装置、画像処理方法
US9916691B2 (en) Head mounted display and control method for head mounted display
EP2554103B1 (en) Endoscope observation supporting system and programme
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
US20160166334A1 (en) Image annotation in image-guided medical procedures
WO2016207628A1 (en) Augmented reality imaging system, apparatus and method
JP5709440B2 (ja) 情報処理装置、情報処理方法
US20020137986A1 (en) Endoscope apparatus
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP6112689B1 (ja) 重畳画像表示システム
JP2018180840A (ja) ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
TW201505603A (zh) 資訊處理裝置、資訊處理方法及資訊處理系統
JP2009025918A (ja) 画像処理装置、画像処理方法
US9262823B2 (en) Medical image generating apparatus and medical image generating method
JP2017187667A (ja) 頭部装着型表示装置およびコンピュータープログラム
JP7248599B2 (ja) 情報処理装置およびデータ処理方法
WO2022138327A1 (ja) 三次元アノテーション描写システム
JP7440392B2 (ja) プログラム、情報処理方法及び内視鏡システム
TW202145970A (zh) 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片
JP2005312605A (ja) 注視点位置表示装置
JP2005339266A (ja) 情報処理方法、情報処理装置、撮像装置
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
US20140081140A1 (en) Ultrasound imaging apparatus and control method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231220