JP6328579B2 - 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム - Google Patents

仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム Download PDF

Info

Publication number
JP6328579B2
JP6328579B2 JP2015050225A JP2015050225A JP6328579B2 JP 6328579 B2 JP6328579 B2 JP 6328579B2 JP 2015050225 A JP2015050225 A JP 2015050225A JP 2015050225 A JP2015050225 A JP 2015050225A JP 6328579 B2 JP6328579 B2 JP 6328579B2
Authority
JP
Japan
Prior art keywords
virtual object
display
information
display control
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015050225A
Other languages
English (en)
Other versions
JP2016170641A (ja
Inventor
悠 長谷川
悠 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2015050225A priority Critical patent/JP6328579B2/ja
Priority to PCT/JP2016/053950 priority patent/WO2016147765A1/ja
Publication of JP2016170641A publication Critical patent/JP2016170641A/ja
Priority to US15/702,108 priority patent/US10386633B2/en
Application granted granted Critical
Publication of JP6328579B2 publication Critical patent/JP6328579B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Urology & Nephrology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、拡張現実感を用いて仮想オブジェクトを表示する仮想オブジェクト表示装置を複数備えた仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラムに関するものである。
近年、現実の空間を撮影することにより取得したリアルタイムの背景映像に、仮想オブジェクトを重畳して、ヘッドマウントディスプレイ等の表示装置に表示することにより、現実空間に仮想オブジェクトが存在するかのように見せる拡張現実感を使用する表示システムが提案されている。このようなシステムにおいては、仮想オブジェクトを表示させる位置を規定するマーカを現実空間に配置する。そして、現実空間を撮影した背景映像からマーカを検出する。さらに、検出したマーカの位置、大きさおよび向きなどに応じて、仮想オブジェクトを表示する位置、大きさおよび表示する向きが決定され、決定された表示位置、大きさおよび向きにより表示装置に仮想オブジェクトが表示される。マーカとしては、たとえば2次元バーコード等の画像が用いられる。また、LED(Light Emission Diode)あるいは操作者の指をマーカとして用いる手法も提案されている。
一方、医療分野においては、手術前に手術の参加者を集めて、手術の説明をするための手術前カンファレンスが行われている。このような手術前カンファレンスにおいて、近年、拡張現実感を使用して手術の対象となる部位を表示して、手術をシミュレーションすることが行われている。例えば、CT(Computed Tomography)画像またはMRI(magnetic resonance imaging)画像の断層画像から得られる3次元画像から手術対象の部位を抽出し、その3次元画像に基づいて仮想オブジェクトを生成する。そして、拡張現実感を用いて仮想オブジェクトを実寸大となるように表示し、表示された仮想オブジェクトを用いて、手術前カンファレンスの代表者である執刀医からカンファレンスの参加者への説明および手技のシミュレーションが行われる。この際、カンファレンスの参加者はヘッドマウントディスプレイ等の表示装置を各自装着することにより、全員が共通の仮想オブジェクトを見ながらカンファレンスを行うことができる。
特表2014−522007号公報
しかしながら、上述したように共通の仮想オブジェクトを執刀医および参加者の複数で観察する場合、特定の方向から観察しなければ見づらい部位を見たい場合および助手が執刀医と同じ方向から見た視野で仮想オブジェクトを見たい場合などにおいては、各参加者が見やすい位置まで移動する必要がある。また、手術前カンファレンスの参加者が多い場合、全員が同じ角度から見ることは困難である。
なお、特許文献1には、共通の仮想オブジェクトを複数の人数で観察することが提案されているが、上記のような問題を解決する方法については何も提案されていない。
本発明は、上記事情に鑑み、共通の仮想オブジェクトを複数の人数で観察する際、各観察者が移動することなく、状況に応じて適切な方向から仮想オブジェクトを観察することができる仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラムを提供することを目的とするものである。
本発明の仮想オブジェクト表示システムは、仮想オブジェクトを取得する仮想オブジェクト取得部と、仮想オブジェクトを表示するための位置情報および仮想オブジェクトを表示するための向きの情報を含む表示情報を取得する表示情報取得部と、表示情報に基づいて、仮想オブジェクトを表示部に表示させる表示制御部とを有する仮想オブジェクト表示装置を複数備え、複数の仮想オブジェクト表示装置の各表示制御部が、複数の仮想オブジェクト表示装置のそれぞれの表示情報取得部によって取得された表示情報に基づいて仮想オブジェクトを表示させる第1の表示制御と、他の仮想オブジェクト表示装置の表示情報取得部によって取得された表示情報に基づいて表示された仮想オブジェクトと同じ向きの仮想オブジェクトを表示させる第2の表示制御とを切り替え可能であることを特徴とする。
また、上記本発明の仮想オブジェクト表示システムにおいて、複数の仮想オブジェクト表示装置の各表示制御部は、第2の表示制御に切り替えた後、他の仮想オブジェクト表示装置の表示情報取得部によって取得される表示情報が変更された場合には、その変更された表示情報に基づいて、仮想オブジェクトの表示を変更することができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、表示情報は、仮想オブジェクトを表示するための大きさの情報も含むことができ、複数の仮想オブジェクト表示装置の各表示制御部は、第2の表示制御に切り替えた後、他の仮想オブジェクト表示装置の表示情報取得部によって取得される表示情報が変更された場合には、大きさの情報以外の変更された表示情報に基づいて、仮想オブジェクトの表示を変更することができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、複数の仮想オブジェクト表示装置の各表示制御部は、第2の表示制御に切り替えた後、複数の仮想オブジェクト表示装置のそれぞれの表示情報取得部によって取得された表示情報の変更に応じて、仮想オブジェクトの表示を変更することができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、複数の仮想オブジェクト表示装置は、背景映像を取得する撮影部をそれぞれ備えることができ、複数の仮想オブジェクト表示装置の各表示制御部は、第1の表示制御の場合には、複数の仮想オブジェクト表示装置のそれぞれの撮影部によって取得された背景映像と仮想オブジェクトとを重ねて表示させ、第2の表示制御の場合には、複数の仮想オブジェクト表示装置のそれぞれの撮影部によって取得された背景映像と同じ向きの仮想オブジェクトとを重ねて表示させる第3の表示制御と、他の仮想オブジェクト表示装置の撮影部によって取得された背景映像と同じ向きの仮想オブジェクトとを重ねて表示させる第4の表示制御とを切り替え可能にすることができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、ユーザによって仮想オブジェクト表示装置に表示された仮想オブジェクト上の位置が指定された後、その指定された位置情報を取得する指定位置情報取得部を備えることができ、仮想オブジェクト上の位置を指定したユーザに対応する仮想オブジェクト表示装置以外の仮想オブジェクト表示装置の表示制御部は、指定位置情報取得部によって取得された位置情報に基づいて、仮想オブジェクト上に指定された位置を表す画像を表示させることができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、第1の表示制御と第2の表示制御との切り替え指示を受け付ける切替指示受付装置を備えることができ、複数の仮想オブジェクト表示装置の各表示制御部は、切替指示受付装置によって受け付けられた切り替え指示に応じて、第1の表示制御と第2の表示制御とを切り替えることができる。
また、上記本発明の仮想オブジェクト表示システムにおいて、表示情報取得部は、仮想オブジェクト表示用のマーカを撮影したマーカ画像から表示情報を取得することができる。
また、仮想オブジェクトは3次元画像とすることができる。
また、3次元画像は医用3次元画像とすることができる。
また、表示部は、眼鏡型表示装置とすることができる。
本発明の仮想オブジェクト表示システムの制御方法は、仮想オブジェクトを取得し、仮想オブジェクトを表示するための位置情報および仮想オブジェクトを表示するための向きの情報を含む表示情報を取得し、表示情報に基づいて、仮想オブジェクトを表示部に表示させる仮想オブジェクト表示装置を複数備えた仮想オブジェクト表示システムの表示制御方法であって、複数の仮想オブジェクト表示装置が、複数の仮想オブジェクト表示装置のそれぞれで取得された表示情報に基づいて仮想オブジェクトを表示させる第1の表示制御と、他の仮想オブジェクト表示装置で取得された表示情報に基づいて表示された仮想オブジェクトと同じ向きの仮想オブジェクトを表示させる第2の表示制御とを切り替えることを特徴とする。
本発明の仮想オブジェクト表示システムの表示制御プログラムは、仮想オブジェクトを取得し、仮想オブジェクトを表示するための位置情報および仮想オブジェクトを表示するための向きの情報を含む表示情報を取得し、表示情報に基づいて、仮想オブジェクトを表示部に表示させる仮想オブジェクト表示装置を複数備えた仮想オブジェクト表示システムの表示制御プログラムであって、複数の仮想オブジェクト表示装置のそれぞれで取得された表示情報に基づいて仮想オブジェクトを表示させる第1の表示制御と、他の仮想オブジェクト表示装置で取得された表示情報に基づいて表示された仮想オブジェクトと同じ向きの仮想オブジェクトを表示させる第2の表示制御とを切り替える手順を複数の仮想オブジェクト表示装置に実行させることを特徴とする。
本発明の仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラムによれば、複数の仮想オブジェクト表示装置において共通の仮想オブジェクトを表示する際、複数の仮想オブジェクト表示装置のそれぞれで取得された表示情報に基づいて仮想オブジェクトを表示させる第1の表示制御と、他の仮想オブジェクト表示装置で取得された表示情報に基づいて表示された仮想オブジェクトと同じ向きの仮想オブジェクトを表示させる第2の表示制御とを切り替える。したがって、共通の仮想オブジェクトを各観察者がいる方向から観察可能な第1の表示制御と、たとえば執刀医などが見ている仮想オブジェクトと同じ方向の仮想オブジェクトをその他の観察者が観察可能な第2の表示制御とを切り替えることができるので、各観察者は、移動することなく、状況に応じて適切な方向から仮想オブジェクトを観察することができる。
本発明の仮想オブジェクト表示システムの一実施形態の使用状況を説明するための図 本発明の仮想オブジェクト表示システムの一実施形態の概要を示すハードウェア構成図 仮想オブジェクト表示装置であるヘッドマウントディスプレイの概略構成を示すブロック図 マーカの一例を示す図 背景映像から抽出したマーカ画像を示す図 通常モードにおける各ヘッドマウントディスプレイの仮想オブジェクトの表示状態を示す図 共有モードに切り替えた場合の座標軸の設定を説明するための図 共有モードにおける各ヘッドマウントディスプレイの仮想オブジェクトの表示状態を示す図 共有モードにおける仮想オブジェクトの連動表示を説明するための図 本発明の仮想オブジェクト表示システムの一実施形態の作用を説明するためのフローチャート 仮想オブジェクト表示装置であるヘッドマウントディスプレイのその他の実施形態を示すブロック部 共有モードにおいて、仮想オブジェクト上において指定された位置情報に基づいて、その位置を示す画像を仮想オブジェクトに表示させる例を説明するための図
以下、図面を参照して本発明の仮想オブジェクト表示システムの一実施形態について説明する。図1は、本実施形態の仮想オブジェクト表示システムの使用状況を説明するための図である。
仮想オブジェクト表示システムは、手術前のカンファレンスにおいて、拡張現実感を用いて、手術対象の3次元画像を仮想オブジェクトとして表示するためのものである。具体的には、被検体を撮影することにより取得した3次元画像から、手術対象の3次元画像を仮想オブジェクトとして生成し、手術前カンファレンスにおいて、手術の参加者がヘッドマウントディスプレイ(以下、HMD(Head Mount Display)とする)1A〜1Dを装着し、HMD1A〜1Dに仮想オブジェクトS0を表示して、手術前カンファレンスの代表者である執刀医から手術に関する各種説明を受ける状況において使用される。なお、HMD1A〜1Dが本発明の仮想オブジェクト表示装置に相当するものである。
本実施形態では、図1に示す31Aが執刀医であり、図1に示す31B〜31Dが執刀医以外の手術の参加者であるとする。そして、本実施形態では、執刀医31Aが、後述する通常モードと共有モードとを切り替える切替コントローラ50を持つものとする。この切替コントローラ50が、本発明の切替指示受付装置に相当するものである。
図2は、本実施形態の仮想オブジェクト表示システムの概要を示すハードウェア構成図である。図2に示すように、本実施形態の仮想オブジェクト表示システムは、4つのHMD1A〜1D、3次元画像撮影装置2および画像保管サーバ3を備えている。4つのHMD1A〜1D、3次元画像撮影装置2および画像保管サーバ3は、ネットワーク4を経由して通信可能な状態で接続されている。また、以下の説明においては、4つのHMD1A〜1DをHMD1で代表させる場合があるものとする。
また、HMD1A〜1Dの間においても、ネットワーク4を経由して情報のやりとりが可能となっている。また、HMD1A〜1Dと切替コントローラ50との間は無線通信可能に構成されており、切替コントローラ50から出力されたモード切替信号は、無線通信を介してHMD1A〜1Dによって受信される。
3次元画像撮影装置2は、被検体の手術対象となる部位を撮影することにより、その部位を表す3次元画像V0を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography )装置等である。この3次元画像撮影装置2により生成された3次元画像V0は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、3次元画像撮影装置2としてCT装置を用い、そのCT装置によって手術対象である頭部を撮影し、頭部の3次元画像V0を生成するものとする。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像V0等の画像データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式やネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
HDM1は、コンピュータを備え、コンピュータに、本発明の仮想オブジェクト表示プログラムをインストールしたものである。仮想オブジェクト表示プログラムは、HMD1が有するメモリにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置もしくはネットワークストレージに外部からアクセス可能な状態で記憶され、要求に応じてHMD1にダウンロードされてインストールされる。
図3は仮想オブジェクト表示プログラムをインストールすることにより実現された仮想オブジェクト表示装置であるHMD1の概略構成を示すブロック図である。図3に示すように、HMD1は、CPU(Central Processing Unit)11、メモリ12、ストレージ13、カメラ14、ディスプレイ15、および入力部16を備える。なお、カメラ14が、本発明の撮影部に相当し、ディスプレイ15が、本発明の表示部に相当するものである。また、カメラ14およびディスプレイ15をHMD1の頭への装着部分に設け、メモリ12、ストレージ13および入力部16を装着部分とは別体として設けるようにしてもよい。
ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した3次元画像V0およびHMD1での処理によって生成された画像を含む各種情報が記憶されている。
カメラ14は、レンズ、CCD(Charge Coupled Device)等の撮像素子および取得した画像に画質を向上させるための処理を行う画像処理部等を備える。図2に示すように、カメラ14は、執刀医31Aおよび参加者31B〜31DがHMD1を装着した際に、装着者の視野とカメラ14の撮影範囲とが一致するように、HMD1における装着者の両目の中央に対応する部分に位置するように、HMD1に取り付けられている。したがって、執刀医31Aおよび参加者31B〜31DがHMD1を装着すると、カメラ14は装着者の視野に対応する画像を撮影する。これにより、装着者が見ている現実空間の映像が背景映像B0として取得される。背景映像B0は所定のフレームレートを有する動画像となる。
ディスプレイ15は、背景映像B0および仮想オブジェクトS0を表示するための液晶パネル等からなる。なお、ディスプレイ15は、HMD1の装着者の左目用および右目用の表示部を備える。
入力部16は、例えばボタン等からなり、HMD1の外装の予め定められた位置に設けられる。
また、メモリ12には、仮想オブジェクト表示プログラムが記憶されている。そして、仮想オブジェクト表示プログラムがCPU11によって実行されることによって、図3に示す画像取得部21、仮想オブジェクト取得部22、表示情報取得部23および表示制御部24が機能する。
画像取得部21は、3次元画像V0およびカメラ14により撮影された背景映像B0を取得する。画像取得部21は、3次元画像V0が既にストレージ13に記憶されている場合には、ストレージ13から取得するようにしてもよい。
仮想オブジェクト取得部22は、手術の対象部位である頭部の3次元形状を表す画像を仮想オブジェクトS0として生成するものである。具体的には、後述する表示情報により定められる投影面に、頭部の3次元形状を表す画像を投影した投影像を、仮想オブジェクトS0として生成する。ここで、投影の具体的な方法としては、例えば、公知のボリュームレンダリング手法等を用いる。なお、仮想オブジェクトの生成方法としては、これに限らず、その他の公知な手法を用いることができる。
また、不図示の仮想オブジェクト生成装置において3次元画像V0から仮想オブジェクトS0を生成して画像保管サーバ3に保管しておくようにしてもよい。この場合、仮想オブジェクト取得部22は、画像保管サーバ3から仮想オブジェクトS0を取得するものとなる。
表示情報取得部23は、背景映像B0から、仮想オブジェクトS0を表示する位置、大きさおよび方向を表す表示情報を取得する。本実施形態においては、仮想オブジェクト表示用のマーカを撮影することにより背景映像B0に含まれる、マーカを表すマーカ画像から表示情報を取得する。図4は、本実施形態で用いるマーカを示す図である。図4に示すようにマーカ30は、2次元バーコードを板に貼り付けることにより構成されている。なお、マーカ30は、2次元バーコードを紙に印刷したものであってもよい。図1に示すようにマーカ30は手術前カンファレンスを行う場所に置かれる。執刀医31Aおよび参加者31B〜31DはそれぞれHMD1A〜1Dを装着する。HMD1A〜1Dにおいては、カメラ14により撮影された背景映像B0がディスプレイ15に表示される。参加者は、ディスプレイ15に表示される背景映像B0にマーカ30の画像であるマーカ画像が含まれるように,視線をマーカ30の方向に向ける。
表示情報取得部23は、マーカ30を表すマーカ画像を背景映像B0から抽出する。図5は背景映像B0から抽出したマーカ画像32を示す図である。なお、図5に示すマーカ画像32は、執刀医31AのHMD1Aにより取得したものである。ここで、マーカ30の2次元バーコードは図4に示すように3つの基準点30a〜30cを含む。表示情報取得部23は、抽出したマーカ画像32において、基準点30a〜30cを検出する。そして、検出した基準点30a〜30cの位置および基準点間の間隔から、仮想オブジェクトS0を表示する際の位置、大きさおよび向きを決定する。
ここで、本実施形態においては、通常モードでは、基準点30a,30bが横に並んで見える位置を、仮想オブジェクトS0を表示する際の正面位置に定義する。このため、マーカ画像32において、基準点30a,30bの位置を検出することにより、仮想オブジェクトS0のマーカ30に直交する軸(以下、z軸とする)に関する正面位置からの回転位置を決定できる。また、基準点30a,30b間の距離とあらかじめ定められた基準値との相違により、仮想オブジェクトS0を表示する際の大きさを決定できる。また、基準点30a〜30cを頂点とする3角形の基準となる形状からの相違により、仮想オブジェクトS0のz軸に直交する2つの軸(以下、x軸およびy軸とする)に関する基準位置からの回転位置すなわち向きを決定できる。表示情報取得部23は、決定した仮想オブジェクトS0の位置、大きさおよび向きを表示情報として出力する。
表示制御部24は、表示情報を用いて、仮想オブジェクトS0を投影する投影面を規定し、その投影面に仮想オブジェクトS0を投影する。そして投影された仮想オブジェクトS0を背景映像B0に重畳して、ディスプレイ15に表示する。図1では、手術前カンファレンスを行う場所における仮想オブジェクトS0の表示状態を模式的に示している。図1に示すように、執刀医31Aおよび参加者31B〜31Dは、現実空間におけるマーカ30上に、自身がいる位置に応じた大きさおよび向きを有する頭部の3次元画像が仮想オブジェクトS0として表示されている状態をディスプレイ15によって観察することができる。
なお、表示制御部24は、視差を有するようにディスプレイ15の左目用の表示部および右目用の表示部に、仮想オブジェクトS0を表示する。これにより、執刀医31Aおよび参加者31B〜31Dは仮想オブジェクトS0を立体視することができる。
また、この状態において,マーカ30をz軸に関して回転したり、傾けたりすることにより、ディスプレイ15に表示される仮想オブジェクトS0の向きを変更することができる。
ここで、図1に示すように、たとえば執刀医31Aが、仮想オブジェクトS0の正面位置に立ち、参加者31Cが、執刀医31Aの向かい側に立ち、参加者31Bが、執刀医31Aの右側に立ち、参加者31Dが、執刀医31Aの左側に立っている状態では、参加者31Cは、頭部の仮想オブジェクトS0の後ろ側を観察し、参加者31Bは、頭部の仮想オブジェクトS0の左側を観察し、参加者31Dは、頭部の仮想オブジェクトS0の左側を観察している状態となる。
図6の10Aは、執刀医31AのHMD1Aのディスプレイ15に表示されている仮想オブジェクトS0の状態を示し、図6の10Bは、参加者31BのHMD1Bのディスプレイ15に表示されている仮想オブジェクトS0の状態を示し、図6の10Cは、参加者31CのHMD1Cのディスプレイ15に表示されている仮想オブジェクトS0の状態を示し、図6の10Dは、参加者31DのHMD1Aのディスプレイ15に表示されている仮想オブジェクトS0の状態を示している。
図6に示すように、執刀医31Aおよび参加者31B〜31Dのそれぞれのディスプレイ15には、執刀医31Aおよび参加者31B〜31Dとマーカ30(マーカ画像32)とのそれぞれ位置関係に応じた向きの仮想オブジェクトS0が表示される。本実施形態では、このような仮想オブジェクトS0の表示状態を通常モードと呼ぶものとする。なお、この通常モードでは、図6に示すように、執刀医31Aおよび参加者31B〜31Dのそれぞれのディスプレイ15の右上の隅に、現在通常モードに設定されていることを示す赤色の丸いマークが表示される。
ここで、上述したように手術前カンファレンスにおいては、特定の方向から観察しなければ見づらい部位を見たい場合や参加者31B〜31Dが執刀医31Aと同じ方向から見た視野で見たい場合などがあるが、マーカ30を用いた上述した通常モードの表示状態では、各参加者31B〜31Dが見やすい位置まで移動する必要がある。また、手術前カンファレンスの参加者が多い場合、全員が同じ角度から見ることは困難である。
そこで、本実施形態は、執刀医31Aおよび参加者31B〜31Dの全員が、同じ向きの仮想オブジェクトS0を観察できるようにHMD1A〜1Dのそれぞれのディスプレイ15に同じ向きの仮想オブジェクトS0を表示させる共有モードへの切り替えが可能に構成されている。なお、上述した通常モードが、本発明の第1の表示制御に相当し、共有モードが、本発明の第2の表示制御に相当する。以下、通常モードから共有モードへの切り替えについて、詳細に説明する。
通常モードから共有モードへの切り替えは、図1に示す切替コントローラ50によって行われる。具体的には、執刀医31Aが、切替コントローラ50のモード切替ボタン51を押下すると、切替コントローラ50からHMD1A〜1Dに対して、通常モードから共有モードへの切替指示信号が出力される。
HMD1A〜1Dのそれぞれの表示制御部24は、共有モードへの切替指示信号を受信した場合には、現在、それぞれのHMD1A〜1Dによって撮像されているマーカ30の姿勢を初期状態として登録する。すなわち、各表示制御部24は、現在撮像されているマーカ30の基準点30a,30b,30cの位置関係を初期状態とし、図7に示すようにx方向、y方向およびz方向の座標軸を新たに設定する。
そして、共有モードに切り替える直前に、執刀医31AのHMD1Aの表示情報取得部23によって取得されていた表示情報が、参加者31B〜31DのHMD1B〜1Dに出力される。そして、執刀医31AのHMD1Aから出力された表示情報は、参加者31B〜31DのHMD1B〜1Dの表示情報取得部23によって取得され、HMD1B〜1Dの表示制御部24は、その取得された表示情報に基づいて、仮想オブジェクトS0をディスプレイ15に表示させる。すなわち、参加者31B〜31DのHMD1B〜1Dにディスプレイ15には、執刀医31AのHMD1Aのディスプレイ15に表示された仮想オブジェクトS0と同じ向きの仮想オブジェクトS0が表示される。
なお、共有モードに切り替えた場合に、執刀医31AのHMD1Aから出力される表示情報としては、仮想オブジェクトS0を表示する大きさおよび方向を表す表示情報のうち、方向を表す情報のみとし、大きさを表す表示情報を含めないようにすることが望ましい。そして、参加者31B〜31DのHMD1B〜1Dの表示制御部24は、自身のHMD1B〜1Dの表示情報取得部23によって取得された大きさを表す表示情報に基づいて、仮想オブジェクトS0を表示させることが望ましい。仮想オブジェクトS0の大きさについては、参加者31B〜31Dとマーカ30との実際の位置関係に基づいて決定した方がより現実に近い表示をすることができるからである。
図8は、共有モードに切り替えられた後のHMD1A〜1Dのディスプレイ15にそれぞれ表示された仮想オブジェクトS0の状態を示すものである。図8に示すように、全てのHMD1A〜1Dのディスプレイ15に同じ向きの仮想オブジェクトS0を表示させることができる。また、共有モードでは、図8に示すように、執刀医31Aおよび参加者31B〜31Dのそれぞれのディスプレイ15の右上の隅に、現在共有モードに設定されていることを示す緑色の丸いマークが表示される。なお、本実施形態においては、上述したように通常モードでは赤色の丸いマークを表示し、共有モードでは緑色の丸いマークを表示するようにしたが、これらのマーク表示に限らず、要するに、現在通常モードに設定されているのか、または共有モードに設定されているのかを示す表示であればその他の表示方法でもよい。
また、図8は、共有モードに切り替える直前に、執刀医31AのHMD1Aのディスプレイ15に正面位置の仮想オブジェクトS0が表示されていた場合の表示例であるが、必ずしも正面位置でなくてもよく、たとえば共有モードに切り替える直前に、執刀医31AのHMD1Aのディスプレイ15に、右斜め方向から見た仮想オブジェクトS0が表示されていた場合には、共有モードに切り替えられた後には、参加者31B〜31DのHMD1B〜1Dのディスプレイ15にも、右斜め方向から見た仮想オブジェクトS0が表示される。
さらに、共有モードに切り替えられた後、執刀医31Aが移動して執刀医31Aをマーカ30との位置関係が変更され、執刀医31AのHMD1Aの表示情報取得部23によって取得される表示情報が変更された場合には、その変更後の表示情報が、参加者31B〜31DのHMD1B〜1Dに出力され、それぞれの表示情報取得部23によって取得される。そして、参加者31B〜31DのHMD1B〜1Dの表示制御部24は、自身のHMD1B〜1Dの表示情報取得部23によって取得された表示情報に基づいて、仮想オブジェクトS0を表示させる。これにより執刀医31AのHMD1Aの仮想オブジェクトS0の表示の変更に連動させて参加者31B〜31DのHMD1B〜1Dの仮想オブジェクトS0の表示の変更することができる。図8は、執刀医31Aが参加者31Bの位置まで移動した場合の、HMD1A〜1Dのディスプレイ15に表示された仮想オブジェクトS0を表したものである。
なお、上述したように連動表示させる場合にも、執刀医31AのHMD1Aから出力される表示情報としては、仮想オブジェクトS0を表示する大きさおよび方向を表す表示情報のうち、方向を表す情報のみとし、大きさを表す表示情報を含めないようにすることが望ましい。
また、本実施形態では、上述したように執刀医31AのHMD1Aの仮想オブジェクトS0の表示の変更に連動させて参加者31B〜31DのHMD1B〜1Dの仮想オブジェクトS0の表示の変更するようにしたが、このような連動表示を行わずに、各参加者31B〜31DのHMD1B〜1Dの仮想オブジェクトS0の表示変更については、各HMD1B〜1Dにおいて独立して行うようにしてもよい。すなわち、共有モードに切り替えられた後、参加者31B〜31DのHMD1B〜1Dの表示制御部24は、自身のHMD1B〜1Dの表示情報取得部23によって取得された表示情報の変更に応じて、仮想オブジェクトS0の表示を変更させるようにしてもよい。
また、上述したような連動モードと連動させない独立モードとを切り替え可能に構成するようにしてもよい。連動モードと独立モードとの切り替えは、切替コントローラ50によって行うようにしてもよいし、参加者31B〜31DのHMD1B〜1Dの入力部16を用いて行うようにしてもよい。
また、上述した共有モードにおいて、仮想オブジェクトS0だけでなく、背景映像B0についても共有するようにしてもよい。すなわち、共有モードに切り替えられた場合、執刀医31AのHMD1Aのカメラ14によって撮影された背景映像B0を参加者31B〜31DのHMD1B〜1Dに出力するようしてもよい。そして、参加者31B〜31DのHMD1B〜1Dの表示制御部24が、自身のHMD1B〜1Dのカメラによって撮影された背景映像B0ではなく、執刀医31AのHMD1Aのカメラ14によって撮影された背景映像B0に対して仮想オブジェクトS0を重ね合わせてディスプレイ15に表示させるようにしてもよい。
なお、背景映像B0を共有しない、すなわち参加者31B〜31DのHMD1B〜1Dの表示制御部24が、自身のHMD1B〜1Dのカメラによって撮影された背景映像B0に対して仮想オブジェクトS0を重ね合わせてディスプレイ15に表示させる背景非共有モードと、上述した背景映像B0を共有する背景共有モードとを切り替え可能に構成するようにしてもよい。なお、背景非共有モードが、本発明の第3の表示制御に相当し、背景共有モードが、本発明の第4の表示制御に相当する。背景非共有モードと背景共有モードとの切り替えは、切替コントローラ50によって行うようにしてもよいし、参加者31B〜31DのHMD1B〜1Dの入力部16を用いて行うようにしてもよい。
次に、本実施形態の仮想オブジェクト表示システムの作用について、図10に示すフローチャートを参照しながら説明する。
まず、各HMD1A〜1Dの画像取得部21が、3次元画像V0および背景映像B0を取得し(ステップST10)、仮想オブジェクト取得部22が3次元画像V0から仮想オブジェクトS0を取得する(ステップST12)。また、各HMD1A〜1Dの表示情報取得部23が、マーカ30を表すマーカ画像32を背景映像B0から抽出し、マーカ画像32から仮想オブジェクトS0を表示する位置、大きさおよび向きを表す表示情報を取得する(ステップST14)。そして、各HMD1A〜1Dの表示制御部24が、表示情報を用いて、背景映像B0に仮想オブジェクトS0を重畳して、ディスプレイ15に表示する(ステップST16)。これにより、HMD1を装着している手術前カンファレンスの執刀医31Aおよび参加者31B〜31Dは、現実空間に仮想オブジェクトS0が表示されている状態を観察することができる。
そして、上述した通常モードの状態において、執刀医31Aが切替コントローラ50を用いて共有モードへの切り替え指示を行った場合には(ST18,YES)、上述した共有モードに切り替えられ、参加者31B〜31DのHMD1B〜1Dのディスプレイ15には、執刀医31AのHMD1Aのディスプレイ15に表示されている仮想オブジェクトS0と同じ向きの仮想オブジェクトS0が表示される(ST20)。
次に、共有モードの状態において、執刀医31Aが切替コントローラ50を用いて通常モードへの切り替え指示を行った場合には(ST22,YES)、通常モードに切り替えられ、参加者31B〜31DのHMD1B〜1Dのディスプレイ15には、各参加者31B〜31Dとマーカ30との位置関係に基づいた仮想オブジェクトS0、すなわち各参加者31B〜31Dの位置に応じた向きの仮想オブジェクトS0が表示される(ST24)。
なお、ST18において共有モードに切り替えず(NO)、処理を終了する指示がされた場合(ST26,YES)、ST22において通常モードに切り替えず(NO)、処理を終了する指示がされた場合(ST28,YES)、通常モードに切り替えられた後、処理を終了する指示がされた場合(ST26,YES)には、そのまま処理を終了する。
上記実施形態の仮想オブジェクト表示システムによれば、複数のHMD1において共通の仮想オブジェクトを表示する際、複数のHMD1のそれぞれで取得された表示情報に基づいて仮想オブジェクトを表示させる通常モードと、他のHMD1で取得された表示情報に基づいて表示された仮想オブジェクトと同じ向きの仮想オブジェクトを表示させる共有モードとを切り替える。したがって、共通の仮想オブジェクトを各観察者がいる方向から見ることができる通常モードと、たとえば執刀医などが見ている仮想オブジェクトと同じ方向の仮想オブジェクトをその他の観察者が観察可能な共有モードとを切り替えることができるので、各観察者は、移動することなく、状況に応じて適切な方向から仮想オブジェクトを観察することができる。
また、上記実施形態の仮想オブジェクト表示システムにおいて、図11に示すように指定位置情報取得部17をさらに設けるようにしてもよい。そして、共有モードにおいて、図12に示すように、執刀医31Aによって仮想オブジェクトS0上の位置が指で指定された場合、その指定された位置情報を指定位置情報取得部17によって取得し、参加者31B〜31DのHMD1B〜1Dの表示制御部24が、指定位置情報取得部17によって取得された位置情報に基づいて、自身のディスプレイ15に表示されている仮想オブジェクト上に、指定された位置を表す矢印の画像Mを表示させるようにしてもよい。このように執刀医31Aが指差している仮想オブジェクトS0上の位置を参加者31B〜31Dが把握できることによって、執刀医31Aが現在着目している箇所を参加者31B〜31Dが明確に知ることができる。なお、矢印の画像に限らず、その他のマークなどでもよい。
指定位置情報取得部17としては、たとえば3次元位置センサなどを用いることができるが、背景映像B0に基づいて指の先端位置を検出し、その先端位置とマーカ画像32の基準点30a,30b,30cとの位置関係に基づいて、指定位置情報を取得するようにしてもよい。
また、上記説明では、執刀医31Aが指で仮想オブジェクトS0上の位置を指定するようにしたが、指に限らず、その他のペンまたはポインタなどで位置の指定をするようにしてもよい。
また、上記実施形態においては、執刀医31Aが切替コントローラ50を操作することによって通常モードと共有モードとを切り替えるようにしたが、執刀医31Aに限らず、その他の参加者31B〜31Dが切替コントローラ50を操作するようにしてもよい。この場合、たとえば切替コントローラ50が、切替コントローラ50に最も近くに存在するHMD1を認識し、その最も近くに存在するHMD1に表示されている仮想オブジェクトS0と同じ向きの仮想オブジェクトS0を他のHMD1に表示させるようにしてもよい。
さらに、通常モードと共有モードとの切り替えは、HMD1の入力部16において受け付けるようにしてもよく、この場合、たとえば切替指示の入力を受けた入力部16が属するHMD1に表示されている仮想オブジェクトS0と同じ向きの仮想オブジェクトS0を他のHMD1に表示させるようにしてもよい。
また、上記実施形態においては、2次元バーコードを板に貼り付けたマーカを用いているが、2次元バーコードに代えて予め定められた記号、色、図形あるいは文字等を用いてもよい。また、LED、ペンまたは操作者の指などの予め定められた物体であってもよい。さらに、背景映像B0に含まれる直線の交点あるいは光る物体等のテクスチャをマーカとして用いてもよい。
また、上記実施形態においては、HMD1にカメラ14を設けているが、カメラ14をHMD1とは別体として設けてもよい。この場合においても、HMD1の装着者の視野に対応する範囲を撮影するように配置されることが好ましい。
また、上記実施形態においては、本発明による仮想オブジェクト表示装置を、没入型の眼鏡型表示装置であるHMDに適用しているが、透過型の眼鏡型端末装置に適用してもよい。この場合、ディスプレイ15は透過型のディスプレイとなり、仮想オブジェクトS0をディスプレイ15に表示することにより、仮想オブジェクト表示装置の装着者は、カメラ14が撮影してディスプレイ15に表示された背景映像B0ではなく、自身が実際に見ている現実空間に重畳された仮想オブジェクトS0を観察することができる。またこの場合、カメラ14は、仮想オブジェクトS0を表示する位置および大きさを決定するためのマーカ30を撮影するために用いられることとなる。
また、上記実施形態においては、本発明による仮想オブジェクト表示装置を眼鏡型表示装置に適用しているが、カメラを搭載したタブレット端末に適用してもよい。この場合、執刀医31Aおよび参加者31B〜31Dは各自タブレット端末を所持し、タブレット端末のディスプレイに背景映像B0および仮想オブジェクトS0が表示されることとなる。
また、上記実施形態においては、仮想オブジェクトS0を表示する位置および向きのみを表示情報として用いてもよい。この場合、予め定められた大きさの仮想オブジェクトS0をディスプレイ15に表示すればよい。
また、上記実施形態においては、医用3次元画像から生成した仮想オブジェクトS0を表示しているが、仮想オブジェクトS0の種類は医用に限定されない。例えば、ゲームのキャラクタあるいは模型等を仮想オブジェクトS0として用いてもよい。
1 ヘッドマウントディスプレイ
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
12 メモリ
13 ストレージ
14 カメラ
15 ディスプレイ
16 入力部
17 指定位置情報取得部
21 画像取得部
22 仮想オブジェクト取得部
23 表示情報取得部
24 表示制御部
30 マーカ
32 マーカ画像
50 切替コントローラ
51 モード切替ボタン

Claims (11)

  1. 3次元の仮想オブジェクトを取得する仮想オブジェクト取得部と、前記仮想オブジェクトを表示するための位置情報および前記仮想オブジェクトを表示するための向きの情報を含む表示情報を取得する表示情報取得部と、前記表示情報に基づいて、前記仮想オブジェクトを表示部に表示させる表示制御部とを各々有する複数の仮想オブジェクト表示装置を備た仮想オブジェクト表示システムであって
    前記複数の仮想オブジェクト表示装置の前記表示情報取得部の各々が、前記仮想オブジェクトを投影する場所に置かれた面上に設けられ、かつ3つの基準点を備えた1つのマーカを、前記仮想オブジェクト表示装置の各々の位置から各々撮影して得られた画像における前記3つの基準点に基づいて、各々の前記表示情報を取得し、
    前記複数の仮想オブジェクト表示装置の表示制御部の各々が、前記複数の仮想オブジェクト表示装置の各々の前記表示情報取得部によって取得された表示情報に基づいて前記仮想オブジェクトを表示させる第1の表示制御と、他の前記仮想オブジェクト表示装置の前記表示情報取得部によって取得された表示情報に基づいて前記他の仮想オブジェクト表示装置の表示部に表示された前記仮想オブジェクトと同じ向きの前記仮想オブジェクトを前記複数の仮想オブジェクト表示装置の各々の表示部に表示させる第2の表示制御とを切り替え可能であることを特徴とする仮想オブジェクト表示システム。
  2. 前記複数の仮想オブジェクト表示装置の各々の表示制御部が、前記第2の表示制御に切り替えた後、前記他の仮想オブジェクト表示装置の前記表示情報取得部によって取得される表示情報が変更された場合には、該変更された表示情報に基づいて、前記仮想オブジェクトの表示を変更する請求項1記載の仮想オブジェクト表示システム。
  3. 前記表示情報が、前記仮想オブジェクトを表示するための大きさの情報も含み、
    前記複数の仮想オブジェクト表示装置の各々の表示制御部が、前記第2の表示制御に切り替えた後、前記他の仮想オブジェクト表示装置の前記表示情報取得部によって取得される表示情報が変更された場合には、前記大きさの情報以外の変更された表示情報に基づいて、前記仮想オブジェクトの表示を変更する請求項2記載の仮想オブジェクト表示システム。
  4. 前記複数の仮想オブジェクト表示装置の各々の表示制御部が、前記第2の表示制御に切り替えた後、前記複数の仮想オブジェクト表示装置の各々の前記表示情報取得部によって取得された表示情報の変更に応じて、前記仮想オブジェクトの表示を変更する請求項1記載の仮想オブジェクト表示システム。
  5. 前記複数の仮想オブジェクト表示装置が、背景映像を取得する撮影部を各々備え、
    前記複数の仮想オブジェクト表示装置の各々の表示制御部が、
    前記第1の表示制御の場合には、前記複数の仮想オブジェクト表示装置の各々の前記撮影部によって取得された背景映像と前記仮想オブジェクトとを重ねて表示させ、
    前記第2の表示制御の場合には、前記複数の仮想オブジェクト表示装置の各々の前記撮影部によって取得された背景映像と前記同じ向きの仮想オブジェクトとを重ねて表示させる第3の表示制御と、前記他の仮想オブジェクト表示装置の前記撮影部によって取得された背景映像と前記同じ向きの仮想オブジェクトとを重ねて表示させる第4の表示制御とを切り替え可能である請求項1から4いずれか1項記載の仮想オブジェクト表示システム。
  6. ユーザによって前記仮想オブジェクト表示装置に表示された仮想オブジェクト上の位置が指定された後、該指定された位置情報を取得する指定位置情報取得部を備え、
    前記仮想オブジェクト上の位置を指定したユーザに対応する仮想オブジェクト表示装置以外の仮想オブジェクト表示装置の表示制御部が、前記指定位置情報取得部によって取得された位置情報に基づいて、前記仮想オブジェクト上に前記指定された位置を表す画像を表示させる請求項1から5いずれか1項記載の仮想オブジェクト表示システム。
  7. 前記第1の表示制御と前記第2の表示制御との切り替え指示を受け付ける切替指示受付装置を備え、
    前記複数の仮想オブジェクト表示装置の各表示制御部が、前記切替指示受付装置によって受け付けられた切り替え指示に応じて、前記第1の表示制御と前記第2の表示制御とを切り替える請求項1から6いずれか1項記載の仮想オブジェクト表示システム。
  8. 前記3次元の仮想オブジェクトは医用3次元画像である請求項1から7のいずれか1項に記載の仮想オブジェクト表示システム。
  9. 前記表示部が、眼鏡型表示装置である請求項1からのいずれか1項記載の仮想オブジェクト表示システム。
  10. 3次元の仮想オブジェクトを取得し、前記仮想オブジェクトを表示するための位置情報および前記仮想オブジェクトを表示するための向きの情報を含む表示情報を取得し、前記表示情報に基づいて、前記仮想オブジェクトを表示部に表示させる複数の仮想オブジェクト表示装置を備えた仮想オブジェクト表示システムの表示制御方法であって、
    前記複数の仮想オブジェクト表示装置の各々が、前記仮想オブジェクトを投影する場所に置かれた面上に設けられ、かつ3つの基準点を備えた1つのマーカを、前記仮想オブジェクト表示装置の各々の位置から各々撮影して得られた画像における前記3つの基準点に基づいて、各々の前記表示情報を取得し
    前記複数の仮想オブジェクト表示装置の各々が、前記複数の仮想オブジェクト表示装置の各々で取得された表示情報に基づいて前記仮想オブジェクトを表示させる第1の表示制御と、他の前記仮想オブジェクト表示装置で取得された表示情報に基づいて前記他の仮想オブジェクト表示装置で表示された前記仮想オブジェクトと同じ向きの前記仮想オブジェクトを前記複数の仮想オブジェクト表示装置の各々に表示させる第2の表示制御とを切り替えることを特徴とする仮想オブジェクト表示システムの表示制御方法。
  11. 3次元の仮想オブジェクトを取得し、前記仮想オブジェクトを表示するための位置情報および前記仮想オブジェクトを表示するための向きの情報を含む表示情報を取得し、前記表示情報に基づいて、前記仮想オブジェクトを表示部に表示させる複数の仮想オブジェクト表示装置を備えた仮想オブジェクト表示システムの表示制御プログラムであって、
    前記仮想オブジェクト表示装置の各々のコンピュータに、
    前記仮想オブジェクトを投影する場所に置かれた面上に設けられ、かつ3つの基準点を備えた1つのマーカを、前記仮想オブジェクト表示装置の各々の位置から各々撮影して得られた画像における前記3つの基準点に基づいて、各々の前記表示情報を取得する手順と、
    前記複数の仮想オブジェクト表示装置の各々で取得された表示情報に基づいて前記仮想オブジェクトを表示させる第1の表示制御と、他の前記仮想オブジェクト表示装置で取得された表示情報に基づいて前記他の仮想オブジェクト表示装置で表示された前記仮想オブジェクトと同じ向きの前記仮想オブジェクトを前記複数の仮想オブジェクト表示装置の各々に表示させる第2の表示制御とを切り替える手順を実行させることを特徴とする仮想オブジェクト表示システムの表示制御プログラム。
JP2015050225A 2015-03-13 2015-03-13 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム Active JP6328579B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015050225A JP6328579B2 (ja) 2015-03-13 2015-03-13 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム
PCT/JP2016/053950 WO2016147765A1 (ja) 2015-03-13 2016-02-10 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム
US15/702,108 US10386633B2 (en) 2015-03-13 2017-09-12 Virtual object display system, and display control method and display control program for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050225A JP6328579B2 (ja) 2015-03-13 2015-03-13 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2016170641A JP2016170641A (ja) 2016-09-23
JP6328579B2 true JP6328579B2 (ja) 2018-05-23

Family

ID=56920163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050225A Active JP6328579B2 (ja) 2015-03-13 2015-03-13 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム

Country Status (3)

Country Link
US (1) US10386633B2 (ja)
JP (1) JP6328579B2 (ja)
WO (1) WO2016147765A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
ES2812851T3 (es) * 2016-11-01 2021-03-18 Previble AB Dispositivo de previsualización
EP3625649A1 (en) * 2017-05-16 2020-03-25 Koninklijke Philips N.V. Augmented reality for collaborative interventions
CA3101798A1 (en) * 2018-05-29 2019-12-05 SentiAR, Inc. Disposable sticker within augmented reality environment
EP3584692A1 (en) * 2018-06-19 2019-12-25 InterDigital CE Patent Holdings Sharing virtual content in a mixed reality scene
WO2020020102A1 (zh) * 2018-07-23 2020-01-30 广东虚拟现实科技有限公司 生成虚拟内容的方法、终端设备及存储介质
JP6884911B1 (ja) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3558104B2 (ja) * 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
JP4834116B2 (ja) * 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP2011095964A (ja) * 2009-10-29 2011-05-12 Toppan Printing Co Ltd 携帯端末及び方法並びプログラム
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US8638986B2 (en) 2011-04-20 2014-01-28 Qualcomm Incorporated Online reference patch generation and pose estimation for augmented reality
US9008385B2 (en) * 2012-03-14 2015-04-14 Elwha Llc Systems, devices, and method for determining treatment compliance including tracking, registering, etc. of medical staff, patients, instrumentation, events, etc. according to a treatment staging plan
JP6232763B2 (ja) * 2013-06-12 2017-11-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
IL235073A (en) * 2014-10-07 2016-02-29 Elbit Systems Ltd Head-mounted view of enlarged images that are locked on an object of interest

Also Published As

Publication number Publication date
US20180011317A1 (en) 2018-01-11
WO2016147765A1 (ja) 2016-09-22
US10386633B2 (en) 2019-08-20
JP2016170641A (ja) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6328579B2 (ja) 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム
JP6336929B2 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP6336930B2 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
US10622111B2 (en) System and method for image registration of multiple video streams
JP4933164B2 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体
WO2017179350A1 (ja) 画像表示制御装置および方法並びにプログラム
JP4757115B2 (ja) 画像処理装置、画像処理方法
CN111568548B (zh) 基于混合实境的手术导航图像成像方法
US20020163499A1 (en) Method and apparatus for augmented reality visualization
CN102811655A (zh) 内窥镜观察支持***、方法、设备和程序
JP2015219590A (ja) 情報処理装置、情報処理方法
JP2007034628A (ja) 画像処理方法及び装置
JP2013008324A (ja) 画像処理システム、端末装置及び方法
JP2007086716A5 (ja)
JP6730577B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
JP2005312605A (ja) 注視点位置表示装置
JP5467683B2 (ja) 立体映像表示装置の立体ノギス像形成装置およびプログラム
CN104887314A (zh) 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
US20120249533A1 (en) Stereoscopic display apparatus
JP2006340017A (ja) 立体映像表示装置及び立体映像表示方法
CN102769769B (zh) 医用图像处理装置
JP4125085B2 (ja) 画像処理装置、画像処理方法
US11445165B1 (en) Method, system and computer readable storage media for visualizing a magnified dental treatment site
JP2019121074A (ja) Vr空間における自撮り装置、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170308

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180418

R150 Certificate of patent or registration of utility model

Ref document number: 6328579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250