JPWO2018012206A1 - 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム - Google Patents

画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム Download PDF

Info

Publication number
JPWO2018012206A1
JPWO2018012206A1 JP2018527465A JP2018527465A JPWO2018012206A1 JP WO2018012206 A1 JPWO2018012206 A1 JP WO2018012206A1 JP 2018527465 A JP2018527465 A JP 2018527465A JP 2018527465 A JP2018527465 A JP 2018527465A JP WO2018012206 A1 JPWO2018012206 A1 JP WO2018012206A1
Authority
JP
Japan
Prior art keywords
user
range
gesture
unit
numerical value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527465A
Other languages
English (en)
Other versions
JP6672458B2 (ja
Inventor
繭子 生田
繭子 生田
岡部 雄生
雄生 岡部
憲昭 位田
憲昭 位田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2018012206A1 publication Critical patent/JPWO2018012206A1/ja
Application granted granted Critical
Publication of JP6672458B2 publication Critical patent/JP6672458B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

仮想ユーザインターフェースとしての数値設定用ユーザインターフェースを用いた数値の設定を素早く正確に行うことが可能な画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラムを提供する。第2検出部(71)は、スライドバー(45)の設定可能な数値の範囲が第1の範囲である、または/および数値の単位変動幅が第1の変動幅である粗調整モードと、範囲が第1の範囲と比較して狭い第2の範囲である、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅である微調整モードとを切り替えるための第2ジェスチャーを検出する。モード切替部(74)は第2ジェスチャーに応じて粗調整モードと微調整モードとを切り替える。表示制御部(69)は粗調整スライドバー(45A)と微調整スライドバー(45B)を選択的にHMD(11)に表示させる。

Description

本発明は、画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラムに関する。
ユーザの頭部に装着されたヘッドマウントディスプレイ(以下、HMD(Head Mounted Display))にコンピュータグラフィックスを用いた仮想画像を表示させ、現実空間と仮想空間を融合させた拡張現実空間をユーザに認識させる技術が知られている。例えば特許文献1には、ユーザが現実空間を肉眼で視認することが可能な透過型のHMDを用いた技術が記載されている。
特許文献1では、仮想画像として、ユーザが仮想的に操作する仮想ユーザインターフェース(以下、UI(User Interface))を表示している。仮想UIには、ユーザの指で仮想的にタッチ操作される仮想ボタンが例示されている。特許文献1では、操作された仮想ボタンを光らせるといった視覚的な表示を行っている。これにより、ユーザは自分がどの仮想ボタンを操作したのかを視認することができる。
ところで、特許文献1の仮想ボタンのような仮想UIに対して、タブレット端末のタッチパネルやパーソナルコンピュータのディスプレイに表示され、タッチ操作やマウス操作がされるUIが従来知られている。以下、こうした従来のUIを、仮想UIと区別するために非仮想UIと呼ぶ。
非仮想UIには多くの種類があるが、そのうちの1つとして数値設定の操作に用いられる数値設定用UIがある。数値設定用UIは、設定可能な数値の範囲を示す範囲表示部と、現在設定されている数値を指し示す数値指示部とで構成される。数値設定用UIの代表としてはスライドバーが挙げられる。スライドバーの場合、範囲表示部は例えば左端に下限値、右端に上限値が配された横棒状のバーであり、数値指示部はバー上でスライド操作されるスライダである。
特開2015−119373号公報
数値設定用UIでは、タッチ操作やマウス操作で数値設定が行われるが、設定しようとした数値を通り過ぎてしまうことを何度か繰り返し、数値の設定に手間取ることがしばしばある。このため、数値の設定を素早く正確に行うためには、デリケートな操作が必要となる。
非仮想UIへの操作は前述のようにタッチ操作やマウス操作であり、これらの操作は、タッチパネルを手で触れたり、マウスを把持してボタンをクリックする等、現実空間に実在する物体に触れる行為を伴う。このため、ユーザは触覚的な操作感が掴みやすい。したがって、デリケートな操作が比較的しやすい。
対して、仮想UIは、あくまでも現実空間上に仮想的に存在するものとしてユーザが認識するものである。ユーザは、視野に挿入された仮想UIに対して、例えば手を伸ばして触れるジェスチャーをすることで操作を行う。しかし、このとき、ユーザは仮想UIに実際に手を触れている訳ではない。このため、仮想UIへの操作では、ユーザは触覚的な操作感が掴みにくく、したがってデリケートな操作が比較的しづらい。
ここで、数値設定用UIを仮想UIで実現することが検討されている。この場合、前述のように仮想UIはデリケートな操作が比較的しづらいので、非仮想UIの場合よりも数値の設定に手間取るおそれがあった。
特許文献1では、操作された仮想ボタンを光らせるといった選択の有無が分かるような視覚的な表示を行っているが、数値設定用UIに対する触覚的な操作感が掴みにくく、デリケートな操作がしづらいという問題を解決することはできない。
本発明は、仮想ユーザインターフェースとしての数値設定用ユーザインターフェースを用いた数値の設定を素早く正確に行うことが可能な画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラムを提供することを目的とする。
上記課題を解決するために、本発明の画像表示システムは、ユーザの頭部に装着されたヘッドマウントディスプレイと、ヘッドマウントディスプレイの制御装置とを備え、ヘッドマウントディスプレイを通じて、現実空間と仮想空間を融合させた拡張現実空間をユーザに認識させる画像表示システムにおいて、設定可能な数値の範囲を示す範囲表示部と、現在設定されている数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、拡張現実空間においてユーザが仮想的に認識する仮想ユーザインターフェースとしてヘッドマウントディスプレイに表示させる表示制御部と、数値を設定するためのユーザの第1ジェスチャーを検出する第1検出部と、粗調整モードと微調整モードとを切り替えるためのユーザの第2ジェスチャーを検出する第2検出部であり、粗調整モードは、範囲が第1の範囲であるか、または/および数値の単位変動幅が第1の変動幅であるモードで、微調整モードは、範囲が第1の範囲と比較して狭い第2の範囲であるか、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅であるモードであり、第1ジェスチャーに応じて、数値を変更する数値変更部と、第2ジェスチャーに応じて、粗調整モードと微調整モードとを切り替えるモード切替部とを備える。
第1検出部および第2検出部は、拡張現実空間において、ユーザの手が数値設定用ユーザインターフェースに触れていない状態で、第1ジェスチャーおよび第2ジェスチャーを検出することが好ましい。
表示制御部は、拡張現実空間において、ユーザの手が届かない遠隔位置に数値設定用ユーザインターフェースを表示させることが好ましい。
第1ジェスチャーは、ユーザの手を第1方向および第1方向とは反対の第2方向に移動させる第1および第2方向ジェスチャーであり、第2ジェスチャーは、ユーザの手を第1方向とは異なる第3方向、および第2方向とは異なり、かつ第3方向とは反対の第4方向に移動させる第3および第4方向ジェスチャーであることが好ましい。
第1検出部は、ユーザの手が基準位置にあることと、ユーザの手が基準位置から移動した方向を検出し、数値変更部は、第1方向または第2方向の一方の方向へのユーザの手の移動が検出されてから、基準位置にユーザの手が戻ったことが検出されるまで、数値を自動的に変更することが好ましい。
表示制御部は、数値設定用ユーザインターフェースとして、粗調整モード用の粗調整インターフェースと、微調整モード用の微調整インターフェースとを表示させることが好ましい。
表示制御部は、粗調整インターフェースと微調整インターフェースとを選択的に表示させることが好ましい。
表示制御部は、拡張現実空間において、微調整インターフェースを粗調整インターフェースよりも手前側に拡大して表示させることが好ましい。
表示制御部は、粗調整インターフェースと微調整インターフェースとを両方同時に表示させ、粗調整インターフェースと微調整インターフェースのうちの一方を数値の設定を受け付けるアクティブ状態とし、他方を数値の設定を受け付けない非アクティブ状態とすることが好ましい。
表示制御部は、アクティブ状態と非アクティブ状態とで粗調整インターフェースと微調整インターフェースの表示態様を異ならせることが好ましい。
表示制御部は、微調整インターフェースにおいて数値が第2の範囲の上限値または下限値に達した後、さらに第1ジェスチャーが検出された場合、範囲表示部の第2の範囲の表示を変更することが好ましい。
第1ジェスチャーは、ユーザの手を第1方向および第1方向とは反対の第2方向に移動させる第1および第2方向ジェスチャーであり、第2ジェスチャーは、ユーザの手の移動方向を第1方向および第2方向の一方から他方に切り替える切替ジェスチャーであり、モード切替部は、切替ジェスチャーの以後における単位変動幅を、切替ジェスチャーの以前における単位変動幅よりも狭くすることが好ましい。
表示制御部は、第1ジェスチャーを検出している場合としていない場合とで数値指示部の表示態様を異ならせることが好ましい。
数値設定用ユーザインターフェースは、範囲表示部としてのバーと、バー上でスライド操作される数値指示部としてのスライダとで構成されるスライドバーであることが好ましい。
表示制御部は、数値設定用ユーザインターフェースに加えて、現実空間における表示位置が固定された仮想オブジェクトをヘッドマウントディスプレイに表示させ、拡張現実空間において、数値設定用ユーザインターフェースで仮想オブジェクトが覆い隠された部分の大きさが、設定された大きさ以上となった場合、仮想オブジェクトを覆い隠さない位置に数値設定用ユーザインターフェースの表示位置を移動させることが好ましい。
第1検出部および第2検出部は、ユーザの手の撮像画像を解析してユーザの手を認識し、認識したユーザの手の第1ジェスチャーおよび第2ジェスチャーを検出することが好ましい。
第1検出部および第2検出部は、ユーザの手にはめられたグローブに基づいてユーザの手を認識することが好ましい。
認識したユーザの手と重なる数値設定用ユーザインターフェースの部分をマスクするマスク処理部を備えることが好ましい。
本発明のヘッドマウントディスプレイの制御装置は、ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間をユーザに認識させるヘッドマウントディスプレイの制御装置において、設定可能な数値の範囲を示す範囲表示部と、現在設定されている数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、拡張現実空間においてユーザが仮想的に認識する仮想ユーザインターフェースとしてヘッドマウントディスプレイに表示させる表示制御部と、数値を設定するためのユーザの第1ジェスチャーを検出する第1検出部と、粗調整モードと微調整モードとを切り替えるためのユーザの第2ジェスチャーを検出する第2検出部であり、粗調整モードは、範囲が第1の範囲であるか、または/および数値の単位変動幅が第1の変動幅であるモードで、微調整モードは、範囲が第1の範囲と比較して狭い第2の範囲であるか、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅であるモードであり、第1ジェスチャーに応じて、数値を変更する数値変更部と、第2ジェスチャーに応じて、粗調整モードと微調整モードとを切り替えるモード切替部とを備える。
本発明のヘッドマウントディスプレイの制御装置の作動方法は、ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間をユーザに認識させるヘッドマウントディスプレイの制御装置の作動方法において、設定可能な数値の範囲を示す範囲表示部と、現在設定されている数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、拡張現実空間においてユーザが仮想的に認識する仮想ユーザインターフェースとしてヘッドマウントディスプレイに表示させる表示制御ステップと、数値を設定するためのユーザの第1ジェスチャーを検出する第1検出ステップと、粗調整モードと微調整モードとを切り替えるためのユーザの第2ジェスチャーを検出する第2検出ステップであり、粗調整モードは、範囲が第1の範囲であるか、または/および数値の単位変動幅が第1の変動幅であるモードで、微調整モードは、範囲が第1の範囲と比較して狭い第2の範囲であるか、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅であるモードであり、第1ジェスチャーに応じて、数値を変更する数値変更ステップと、第2ジェスチャーに応じて、粗調整モードと微調整モードとを切り替えるモード切替ステップとを備える。
本発明のヘッドマウントディスプレイの制御装置の作動プログラムは、ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間をユーザに認識させるヘッドマウントディスプレイの制御装置の作動プログラムにおいて、設定可能な数値の範囲を示す範囲表示部と、現在設定されている数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、拡張現実空間においてユーザが仮想的に認識する仮想ユーザインターフェースとしてヘッドマウントディスプレイに表示させる表示制御機能と、数値を設定するためのユーザの第1ジェスチャーを検出する第1検出機能と、粗調整モードと微調整モードとを切り替えるためのユーザの第2ジェスチャーを検出する第2検出機能であり、粗調整モードは、範囲が第1の範囲であるか、または/および数値の単位変動幅が第1の変動幅であるモードで、微調整モードは、範囲が第1の範囲と比較して狭い第2の範囲であるか、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅であるモードであり、第1ジェスチャーに応じて、数値を変更する数値変更機能と、第2ジェスチャーに応じて、粗調整モードと微調整モードとを切り替えるモード切替機能とを、コンピュータに実行させる。
本発明によれば、仮想ユーザインターフェースとしての数値設定用ユーザインターフェースの設定可能な数値の範囲が第1の範囲であるか、または/および数値の単位変動幅が第1の変動幅である粗調整モードと、範囲が第1の範囲と比較して狭い第2の範囲であるか、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅である微調整モードとを、ユーザのジェスチャーに応じて切り替えるので、仮想ユーザインターフェースとしての数値設定用ユーザインターフェースを用いた数値の設定を素早く正確に行うことが可能な画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラムを提供することができる。
画像表示システムと画像蓄積サーバを示す図である。 ヘッドマウントディスプレイの外観斜視図である。 画像表示システムを用いたカンファレンスの様子を示す図である。 拡張現実空間の成り立ちを説明するための図である。 スライドバーを示す図である。 制御装置を構成するコンピュータのブロック図である。 制御装置のCPUの各機能部を示すブロック図である。 第1対応情報とユーザの手を用いた各方向のジェスチャーを示す図である。 第3対応情報を示す図である。 ジェスチャーと数値の増減との関係を示す図である。 ジェスチャーと数値の増減との関係を示す図である。 ジェスチャーとモード切替との関係を示す図である。 ジェスチャーとモード切替との関係を示す図である。 粗調整スライドバーを示す図である。 微調整スライドバーを示す図である。 拡張現実空間に粗調整スライドバーが出現している様子を示す図である。 拡張現実空間に微調整スライドバーが出現している様子を示す図である。 粗調整スライドバーと微調整スライドバーの表示位置および大きさの関係を示す図である。 粗調整スライドバーで数値を設定している様子を示す図である。 微調整スライドバーで数値を設定している様子を示す図である。 微調整スライドバーにおいて数値が範囲の上限値に達した後、さらに第1ジェスチャーが検出された場合、バーの範囲の表示を変更する様子を示す図である。 微調整スライドバーにおいて数値が範囲の下限値に達した後、さらに第1ジェスチャーが検出された場合、バーの範囲の表示を変更する様子を示す図である。 画像表示システムを用いて行うカンファレンスの全体の処理手順を示すフローチャートである。 スライドバーを用いて数値を設定する場合の処理手順を示すフローチャートである。 ユーザの手の届かない遠隔位置にスライドバーを表示する例を示す図である。 カメラの撮像画像の領域と第1検出部の検出結果との関係を示す図である。 第3実施形態の数値設定の様子を示す図である。 第4実施形態の第1対応情報とユーザの手を用いた各方向のジェスチャーを示す図である。 第4実施形態のジェスチャーとモード切替との関係を示す図である。 第4実施形態のジェスチャーとモード切替との関係を示す図である。 粗調整スライドバーが非アクティブ状態、微調整スライドバーがアクティブ状態の微調整モードを示す図である。 粗調整スライドバーがアクティブ状態、微調整スライドバーが非アクティブ状態の粗調整モードを示す図である。 第5実施形態の第1対応情報を示す図である。 第5実施形態の第3対応情報を示す図である。 第5実施形態の数値設定の様子を示す図である。 スライドバーで3D画像が覆い隠された部分の大きさが、設定された大きさ以上となった場合、3D画像を覆い隠さない位置にスライドバーの表示位置を移動させる第6実施形態を示す図である。 ユーザの手と重なるスライドバーの部分をマスクする第7実施形態を示す図である。 ユーザの手にはめられたグローブに基づいて手を認識する第8実施形態を示す図である。 スライドバーの他の例を示す図である。 回転ダイヤルを示す図である。 制御装置の別の例を示す図である。 制御装置のさらに別の例を示す図である。
[第1実施形態]
図1において、画像表示システム10は、HMD11A、11B、11Cと、制御装置12とを備え、医療施設13に設置されている。HMD11Aはユーザ14A、HMD11Bはユーザ14B、HMD11Cはユーザ14Cのそれぞれの頭部に装着される。ユーザ14A〜14Cは、医療施設13に所属する医師や看護師といった医療スタッフである。なお、頭部とは、立位の状態で人体の頸部から上に位置する部分を言い、顔面等を含む部分である。また、以下では、特に区別する必要がない場合は、HMD11A〜11CをまとめてHMD11、ユーザ14A〜14Cをまとめてユーザ14とそれぞれ表記する場合がある。
制御装置12は例えばデスクトップ型のパーソナルコンピュータであり、ディスプレイ15とキーボードおよびマウスで構成される入力デバイス16とを有する。ディスプレイ15は入力デバイス16の操作に用いる画面を表示する。操作に用いる画面はGUI(Graphical User Interface)を構成する。制御装置12は、ディスプレイ15の画面を通じて入力デバイス16からの操作指示の入力を受け付ける。
制御装置12は、ネットワーク17を介してデータセンタ18の画像蓄積サーバ19と相互に通信可能に接続されている。ネットワーク17は、インターネットや公衆通信網といったWAN(Wide Area Network)等である。ネットワーク17には、情報セキュリティを考慮して、VPN(Virtual Private Network)が構築されたり、HTTPS(Hypertext Transfer Protocol Secure)等のセキュリティレベルの高い通信プロトコルが使用されている。
画像蓄積サーバ19は、医療施設13で取得した患者の様々な医療画像を蓄積し、かつ医療画像を医療施設13に配信する。医療画像には、CT(Computed Tomography)スキャン画像を画像処理により再構成した三次元ボリュームレンダリング画像(以下、3D画像)40(図3参照)等が含まれる。医療画像は、個々の患者を識別するための患者ID(Identification Data)、個々の医療画像を識別するための画像ID、あるいは医療画像を撮影したモダリティの種類、撮影日時等を検索キーとして検索が可能である。
画像蓄積サーバ19は、医療施設13からの検索キーを含む配信要求に応じて検索キーに対応する医療画像を検索し、検索した医療画像を医療施設13に配信する。なお、図1では1つの医療施設13だけが画像蓄積サーバ19に接続されているが、実際には画像蓄積サーバ19は複数の医療施設13と接続され、複数の医療施設13の医療画像を集積管理している。
図2において、HMD11は、本体部25とバンド部26とで構成される。本体部25はHMD11の装着時にユーザ14の眼前に位置する。バンド部26はHMD11の装着時にユーザ14の頭部の上半部に固定される。
本体部25は、保護枠27、スクリーン28、およびカメラ29を備えている。保護枠27はユーザ14の両眼全体を覆うゴーグル形状を有し、透明な色付きのガラスまたはプラスチックで形成される。図示は省略するが、保護枠27のユーザ14の顔面と接触する部分にはウレタンフォームが貼り付けられている。
スクリーン28およびカメラ29は、保護枠27の内側に配されている。スクリーン28は眼鏡形状を有し、保護枠27と同様に透明な材料で形成される。このスクリーン28と保護枠27を通じて、ユーザ14は現実空間RS(図4参照)を肉眼で視認する。つまりHMD11は透過型である。
また、ユーザ14の眼と対向するスクリーン28の内面には、コンピュータグラフィックスを用いた仮想画像が投影部(図示せず)から投影表示される。投影部は周知のように、仮想画像を表示する液晶等の表示素子と、表示素子に表示された仮想画像をスクリーン28の内面に向けて投影する投影光学系とで構成される。仮想画像はスクリーン28の内面で反射してユーザ14の眼に入射する。これにより、ユーザ14は仮想画像を仮想空間VS(図4参照)上の虚像として認識する。
仮想画像には、拡張現実空間ARS(図3参照)において、現実空間RSに存在する実在オブジェクトと同じようにユーザ14が認識する仮想オブジェクトと、拡張現実空間ARSにおいてユーザ14が仮想的に操作する仮想UIとがある。仮想オブジェクトは、例えば患者の上半身の3D画像40である。3D画像40は、例えば皮膚は肌色、骨は灰色、肝臓は赤褐色等の色付けがなされている。仮想UIは、例えば数値設定の操作に用いられる数値設定用UIの一種であるスライドバー45(図5参照)である。ユーザ14は、仮想UIを操作するために、自らの手38(図3参照)を用いたジェスチャーを行う。
カメラ29は、例えばHMD11の装着時にユーザ14の眉間と対向する本体部25の上部中央に設けられている。カメラ29は、ユーザ14がHMD11を通じて認識する拡張現実空間ARSとほぼ同じ視野を所定のフレームレート(例えば30フレーム/秒)で撮像する。カメラ29は、撮像画像を逐次制御装置12に送信する。仮想UIに対するユーザ14の手38を用いたジェスチャーは、このカメラ29の視野内で行われる。なお、ここでは透過型のHMD11を例示したが、カメラ29から出力された現実空間RSの撮像画像に仮想画像を重畳してスクリーン28の内面に投影表示する非透過型のHMDを用いてもよい。
本体部25にはケーブル30の一端が接続されている。ケーブル30の他端は制御装置12に接続されている。HMD11は、このケーブル30を介して制御装置12と通信する。なお、HMD11と制御装置12との間の通信を、ケーブル30を用いた有線通信ではなく無線通信としてもよい。
バンド部26は数センチ程度の幅を有する帯状の紐であり、横バンド31と縦バンド32とで構成される。横バンド31は、ユーザ14の両側頭部と後頭部に巻き付けられる。縦バンド32はユーザ14の前頭部、頭頂部、および後頭部に巻き付けられる。これら横バンド31および縦バンド32には図示しないバックルが取り付けられており、長さ調節が可能である。
図3は、医療施設13の手術室35にユーザ14A〜14Cが集まり、手術予定の患者(以下、対象患者)の手術方針を検討するカンファレンスを開いている様子を示す。ユーザ14A〜14Cは、HMD11A〜11Cを通じて、それぞれ拡張現実空間ARS−A、ARS−B、ARS−Cを認識している。なお、図3では制御装置12やケーブル30の図示を省略している。
手術室35には手術台37が設置されている。ユーザ14Aは手術台37の一方の長辺のほぼ中央、ユーザ14Bは手術台37の一方の短辺、ユーザ14Cは手術台37の他方の短辺(ユーザ14Bの反対側)にそれぞれ立っている。ユーザ14Aは手術台37に手38Aを向けて、対象患者の病状等についてユーザ14B、14Cに説明を行っている。なお、以下では、HMD11およびユーザ14と同様に、ユーザ14A〜14Cのそれぞれの手38A、38B、38Cをまとめて手38と表記する場合がある。
手術台37にはマーカー39が載置されている。マーカー39は、例えば正方形の枠に白黒の規則的なパターンと上下左右の識別を可能とする識別線が描かれたシートである。マーカー39は、現実空間RSにおける仮想オブジェクトの出現位置を示す。つまり、仮想オブジェクトは、現実空間RSに存在するマーカー39上に表示位置が固定されている。
図3では、マーカー39上に、対象患者の上半身の仰向けの3D画像40が仮想オブジェクトとして表示された状態を示している。3D画像40は、その体軸が手術台37の長辺に沿い、かつ頸部がユーザ14B側、腰部がユーザ14C側となるように配置される。拡張現実空間ARS−A〜ARS−Cでは、マーカー39は3D画像40によって隠されて表示されない。
ユーザ14A〜14Cは、3D画像40に対して、仮想的なメスを用いて開腹手術を施したり、皮膚や皮下組織、骨の層を透過させて手術予定の患部を直接視認可能としたり等、様々な処理を施す。この3D画像40に対する処理は、同時に複数のユーザ14が実施すると混乱を来すため、例えば、処理権限を与えられた1人のユーザ14(ここではユーザ14A)が代表して実施する。なお、現実空間RSにおいては、手術台37には3D画像40は存在せず、マーカー39のみが載置されているため、手術台37上では3D画像40を破線で示し、マーカー39を実線で示している。
3D画像40の現実空間RSにおける表示位置がマーカー39上に固定され、かつユーザ14A〜14Cの立ち位置が異なるため、ユーザ14A〜14Cがそれぞれ認識する拡張現実空間ARS−A〜ARS−Cにおける3D画像40の見え方が異なる。具体的には、ユーザ14Aは、3D画像40の右半身が手前側、頸部が左側に見える。ユーザ14Bは、3D画像40の頸部が手前側、腰部が奥側に見える。ユーザ14Cは反対に、3D画像40の腰部が手前側、頸部が奥側に見える。
また、例えばユーザ14がマーカー39に近付くと、近付くにつれて3D画像40が拡大表示され、逆にマーカー39から遠ざかると、遠ざかるにつれて3D画像40が縮小表示される。このように、3D画像40の表示は、HMD11(ユーザ14)とマーカー39との三次元的な位置関係に応じて変更される。
なお、当然ではあるが、現実空間RSの実在オブジェクトである手術台37やユーザ14Aの手38A等も、ユーザ14A〜14Cがそれぞれ認識する拡張現実空間ARS−A〜ARS−Cにおける見え方が異なる。例えばユーザ14Aの手38Aの見え方は、ユーザ14Aは手前側に見え、ユーザ14Bは右側に見え、ユーザ14Cは反対に左側に見える。
図4に、一例としてユーザ14Aが認識する拡張現実空間ARS−Aの成り立ちを示す。ユーザ14Aは、HMD11のスクリーン28と保護枠27を通じて、手術台37、ユーザ14Aの手38A、およびマーカー39が存在する現実空間RS−Aを視認する。加えて、ユーザ14Aは、スクリーン28の内面を通じて、3D画像40が存在する仮想空間VS−Aを視認する。これにより、ユーザ14Aは、現実空間RS−Aと仮想空間VS−Aを融合させた拡張現実空間ARS−Aを認識する。
3D画像40に対して様々な処理を施す場合、例えば3D画像40の表示明るさや、皮膚等の層の透過率を変更する等、何かと数値を設定する場面が多い。本実施形態では、こうした数値の設定の際に、仮想UIとして図5に示すスライドバー45を用いる。
スライドバー45は、左端に下限値、右端に上限値が配された横棒状のバー46と、バー46上でスライド操作されるスライダ47とで構成される。スライダ47の下部には、現在設定されている数値が表示される。図5では、下限値は0、上限値は100、現在設定されている数値は50である。バー46は設定可能な数値の範囲を示す範囲表示部に相当し、スライダ47は現在設定されている数値を指し示す数値指示部に相当する。
スライドバー45は、現実空間RSに存在するマーカー39上に表示位置が固定されている3D画像40とは異なり、仮想空間VS内の所定位置に表示位置が固定されている。このため、拡張現実空間ARSにおいては、スライドバー45は常に同じ位置に同じ大きさで表示される。
図6において、制御装置12は、前述のディスプレイ15および入力デバイス16に加えて、ストレージデバイス50、メモリ51、CPU(Central Processing Unit)52、および通信部53を備えている。これらはデータバス54を介して相互接続されている。
ストレージデバイス50は、制御装置12に内蔵、またはケーブルあるいはネットワークを通じて接続されたハードディスクドライブ、もしくはハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス50には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。スライドバー45をはじめとする仮想UIも、ストレージデバイス50に記憶されている。
メモリ51は、CPU52が処理を実行するためのワークメモリである。CPU52は、ストレージデバイス50に記憶されたプログラムをメモリ51へロードして、プログラムにしたがった処理を実行することにより、制御装置12の各部を統括的に制御する。通信部53は、HMD11および画像蓄積サーバ19との間の各種データの通信を担う。
図7において、ストレージデバイス50には作動プログラム60が記憶されている。作動プログラム60は、制御装置12を構成するコンピュータを、HMD11の制御装置として機能させるためのアプリケーションプログラムである。ストレージデバイス50には、作動プログラム60の他に、第1対応情報61(図8参照)、第2対応情報62、および第3対応情報63(図9参照)が記憶されている。
作動プログラム60が起動されると、CPU52は、メモリ51等と協働して、撮像画像取得部65、3D画像取得部66、検出部67、処理部68、および表示制御部69として機能する。
撮像画像取得部65は、HMD11のカメラ29から所定のフレームレートで逐次送信される撮像画像を取得する。撮像画像取得部65は、取得した撮像画像を検出部67に出力する。
3D画像取得部66は、対象患者の3D画像40の配信要求を画像蓄積サーバ19に発行する。また、3D画像取得部66は、配信要求に応じて画像蓄積サーバ19から送信された対象患者の3D画像40を取得する。3D画像取得部66は、取得した3D画像40を処理部68の3D画像編集部75に出力する。なお、配信要求に含まれる3D画像40の検索キーは、入力デバイス16を介して入力される。
検出部67は、撮像画像取得部65からの撮像画像に基づいた各種検出を行う。検出部67は、第1検出部70、第2検出部71、および第3検出部72を有する。
第1検出部70は、ユーザ14の手38を用いた第1ジェスチャーを検出する第1検出機能を担う。第1ジェスチャーは、スライドバー45で数値を設定するためのジェスチャーである。
第1検出部70は、周知の画像認識技術を用いて撮像画像内の手38を認識し、認識した手38の位置を所定フレーム毎に比較して、手38の移動方向を検出する。そして、検出した手38の移動方向が第1ジェスチャーであるか否かを、第1対応情報61を参照して判定する。第1検出部70は、第1ジェスチャーであると判定した場合、第1ジェスチャーの情報(以下、第1ジェスチャー情報)を、処理部68の数値変更部73に出力する。第1ジェスチャー情報は、具体的には手38の移動方向および移動量である。
第2検出部71は、ユーザ14の手38を用いた第2ジェスチャーを検出する第2検出機能を担う。第2ジェスチャーは、スライドバー45で数値を設定する際のモードを切り替えるためのジェスチャーである。モードには粗調整モードと微調整モードとがある。粗調整モードは、スライドバー45の設定可能な数値の範囲が第1の範囲で、かつ数値の単位変動幅が第1の変動幅のモードである。微調整モードは、範囲が第1の範囲と比較して狭い第2の範囲で、かつ単位変動幅が第1の変動幅と比較して狭い第2の変動幅のモードである。
第2検出部71は、第1検出部70と同じく、周知の画像認識技術を用いて撮像画像内の手38を認識し、認識した手38の位置を所定フレーム毎に比較して、手38の移動方向を検出する。そして、検出した手38の移動方向が第2ジェスチャーであるか否かを、第1対応情報61を参照して判定する。第2検出部71は、第2ジェスチャーであると判定した場合、第2ジェスチャーの情報(以下、第2ジェスチャー情報)を、処理部68のモード切替部74に出力する。第2ジェスチャー情報は、具体的には手38の移動方向である。
第3検出部72も他の検出部70、71と同じく、周知の画像認識技術を用いて撮像画像内のマーカー39を認識する。そして、撮像画像内におけるマーカー39を構成する正方形の辺の長さ、角度、上下左右の識別を可能とする識別線の描かれた位置を検出し、これらと第2対応情報62とに基づいて、マーカー39に対するHMD11(ユーザ14の眼)の三次元的な位置を検出する。第3検出部72は、検出した位置の情報(以下、位置情報)を、処理部68の3D画像編集部75に出力する。
位置情報は、例えばマーカー39の中心を原点とする三次元空間におけるHMD11の位置座標である。また、第2対応情報62は、マーカー39の中心を原点とする三次元空間におけるHMD11の位置座標を求めるための計算式である。この計算式は、例えば、撮像画像内におけるマーカー39を構成する正方形の辺の長さ、角度、上下左右の識別を可能とする識別線の描かれた位置を変数とする。なお、マーカー39の中心を原点とする三次元空間とは、マーカー39の中心を原点とし、マーカー39が置かれた平面(この場合は手術台37の上面)をXY平面、マーカー39が置かれた平面に垂直な軸をZ軸とする三次元空間である。
検出部67は、第1ジェスチャーを検出する第1検出部70、および第2ジェスチャーを検出する第2検出部71の他にも、第1ジェスチャーおよび第2ジェスチャー以外のジェスチャー、例えば数値設定終了の指示のジェスチャーを検出する検出部をもつ。
処理部68は、検出部67からの各種情報に基づいた各種処理を実施する。処理部68は、数値変更部73、モード切替部74、および3D画像編集部75を有する。
数値変更部73は、第1検出部70からの第1ジェスチャー情報に応じて、第3対応情報63に基づき、スライドバー45の数値を変更する数値変更機能を担う。数値変更部73は、数値の情報(以下、数値情報)を表示制御部69に出力する。
モード切替部74は、第2検出部71からの第2ジェスチャー情報に応じて、スライドバー45で数値を設定する際のモードを粗調整モードと微調整モードとに切り替えるモード切替機能を担う。モード切替部74は、モードの情報(以下、モード情報)を数値変更部73と表示制御部69に出力する。
3D画像編集部75は、第3検出部72からの位置情報に応じて、3D画像取得部66からの3D画像40を編集する。より詳しくは、3D画像編集部75は、位置情報で示されるHMD11の位置から見た場合の向きおよび大きさとなるよう、3D画像40に回転処理および拡縮処理を施す。位置情報はユーザ14A〜14C毎に出力される。3D画像編集部75は、ユーザ14A〜14C毎の位置情報に基づいて、ユーザ14A〜14C毎に対応する3D画像40を編集する。3D画像編集部75は、編集した3D画像40を表示制御部69に出力する。
なお、処理部68も、検出部67と同様に、第1ジェスチャーおよび第2ジェスチャー以外のジェスチャーに応じた様々な処理を施す処理部をもつ。
表示制御部69は、仮想画像、すなわち仮想オブジェクトとしての3D画像40、並びに仮想UIとしてのスライドバー45のHMD11への表示を制御する表示制御機能を担う。表示制御部69は、3D画像編集部75から受け渡された3D画像40をHMD11に出力する。また、表示制御部69は、ストレージデバイス50から読み出したスライドバー45をHMD11に出力する。
図8において、第1対応情報61は、ユーザ14の手38の移動方向とジェスチャーの種別の対応関係を示すものである。ここでは、手38の移動方向が左方向および右方向の場合は第1ジェスチャーに対応し、手38の移動方向が上方向および下方向の場合は第2ジェスチャーに対応する。
左側の4コマのイラストは、それぞれの方向に移動させた場合のカメラ29の撮像画像に写る手38の軌跡であり、破線が移動前の手38、実線が移動後の手38をそれぞれ示す。上から順に、手38を左方向に移動させた場合、右方向に移動させた場合、上方向に移動させた場合、下方向に移動させた場合である。上方向は手38を下側から上側に引き上げる方向であり、下方向は逆に手38を上側から下側に引き下げる方向である。
ここで、左方向および右方向は、第1方向および第1方向とは反対の第2方向に相当し、上方向および下方向は、第1方向とは異なる第3方向、および第2方向とは異なり、かつ第3方向とは反対の第4方向に相当する。そして、手38を右方向および左方向に移動させるジェスチャーが第1および第2方向ジェスチャーに相当し、手38を上方向および下方向に移動させるジェスチャーが第3および第4方向ジェスチャーに相当する。
図9において、第3対応情報63は、粗調整モードおよび微調整モードの各モードと、設定可能な数値の範囲、並びに数値の単位変動幅との対応関係を示すものである。単位変動幅は、手38の単位移動量に対する数値の変動幅である。粗調整モードには、範囲として設定可能な全範囲(第1の範囲に相当)、単位変動幅として±10(第1の変動幅に相当)が対応付けられている。一方、微調整モードには、範囲として設定可能な全範囲の1/5(第2の範囲に相当)、単位変動幅として±1(第2の変動幅に相当)が対応付けられている。
このため、例えば設定可能な全範囲が0〜100であった場合、微調整モードでは、その1/5の20の範囲で、かつ粗調整モードで設定されていた数値を中央値とする範囲が設定可能な数値の範囲とされる。例えば設定可能な全範囲が0〜100で、粗調整モードで設定されていた数値が50であった場合は、微調整モードでは40〜60が設定可能な数値の範囲とされる。また、粗調整モードで数値が±10変動する同じ手38の移動量に対して、微調整モードでは数値が±1変動する。
図10に示すように、数値変更部73は、第1検出部70からの第1ジェスチャー情報で示される手38の移動方向が左方向であった場合は数値を減じる。逆に手38の移動方向が右方向であった場合は、図11に示すように数値を増加させる。また、数値変更部73は、第1検出部70からの第1ジェスチャー情報で示される手38の移動量に応じて、モードに対応した単位変動幅で数値を変更する。例えば微調整モードにおいて、手38の移動量が単位移動量の2倍であった場合は、数値を±2変更する。なお、数値設定の初期段階においては、設定可能な全範囲の中央値(例えば設定可能な全範囲が0〜100の場合は50)が設定される。
手38の左右方向の移動が止まった場合は、当然ながら第1検出部70は第1ジェスチャーを検出せず、したがって数値変更部73は数値を変更しない。また、手38の左右方向の移動が止まった場合は、それまでバー46上を移動していたスライダ47も停止する。
図12に示すように、モード切替部74は、第2検出部71からの第2ジェスチャー情報で示される手38の移動方向が上方向で、かつ手38の移動前のモードが粗調整モードであった場合、モードを微調整モードに切り替える。逆に手38の移動方向が下方向で、かつ手38の移動前のモードが微調整モードであった場合は、図13に示すようにモードを粗調整モードに切り替える。なお、数値設定の初期段階においては、粗調整モードが設定される。
表示制御部69は、例えば皮膚等の層の透過率を変更する際に、スライドバー45として、図14に示す粗調整モード用の粗調整スライドバー45Aと、図15に示す微調整モード用の微調整スライドバー45Bの2種類をHMD11に表示させる。粗調整スライドバー45Aは粗調整インターフェースに相当し、微調整スライドバー45Bは微調整インターフェースに相当する。
図14において、粗調整スライドバー45Aは、符号にAが添えられている以外は図5に示すスライドバー45と同じである。粗調整スライドバー45Aは粗調整モードの場合にHMD11に表示される。粗調整スライドバー45Aのバー46Aで表される設定可能な範囲は、第3対応情報63で規定された設定可能な全範囲である。なお、ここでは皮膚等の層の透過率を変更する場合を例示しているので、設定可能な全範囲は0(%)〜100(%)である。
図15において、微調整スライドバー45Bは、基本的な構成は粗調整スライドバー45Aと同じであるが、バー46Bで表される設定可能な範囲が異なり、第3対応情報63で規定された設定可能な全範囲の1/5(この場合は40〜60)となっている。微調整スライドバー45Bは微調整モードの場合にHMD11に表示される。
図16に、粗調整モードにおいて、拡張現実空間ARSに粗調整スライドバー45Aが出現している様子を示す。一方、図17には、微調整モードにおいて、拡張現実空間ARSに微調整スライドバー45Bが出現している様子を示す。このように、表示制御部69は、モード切替部74からのモード情報に応じて、粗調整スライドバー45Aと微調整スライドバー45Bとを選択的にHMD11に表示させる。また、図18に示すように、表示制御部69は、拡張現実空間ARSにおいて、微調整スライドバー45Bを粗調整スライドバー45A(破線で示す)よりも手前側に拡大して表示させる。
図19は、今まさにユーザ14が手38を右方向に動かして、粗調整スライドバー45Aで数値を設定している様子を示す。この場合、表示制御部69は、数値変更部73からの数値情報に応じて、スライダ47Aの表示位置を変更する。ここでは、粗調整スライドバー45Aにユーザ14の手38が触れていない状態でスライダ47Aの表示位置を変更している。すなわち、第1検出部70は、拡張現実空間ARSにおいて、ユーザ14の手38が粗調整スライドバー45Aに触れていない状態で、第1ジェスチャーを検出する。微調整スライドバー45Bの場合も同様である。
また、拡張現実空間ARSにおいて、このスライドバー45にユーザ14の手38が触れていない状態で、第2検出部71は、図12および図13で示した第2ジェスチャーを検出する。なお、これとは逆に、ユーザ14の手38がスライドバー45に触れているような位置にある場合のみ、第1ジェスチャーおよび第2ジェスチャーを検出してもよい。
表示制御部69は、スライダ47Aに対して、ハッチングで示すように第1ジェスチャーを検出していない場合(停止中)とは異なる色付けをする。例えば第1ジェスチャーを検出していない場合は青色、第1ジェスチャーを検出している場合(移動中)は橙色を色付けする。このように、表示制御部69は、第1ジェスチャーを検出している場合としていない場合とでスライダ47Aの表示態様を異ならせる。なお、図19では粗調整スライドバー45Aを例に挙げたが、微調整スライドバー45Bについても同様に、数値情報に応じてスライダ47Bの表示位置を変更し、図20に示すように第1ジェスチャーを検出している場合としていない場合とでスライダ47Bの表示態様を異ならせる。なお、色を異ならせる方法に代えて、あるいは加えて、スライダ47の明るさや色の濃度を異ならせてもよく、移動中はスライダ47を明滅させ、停止中は明滅を止めたりしてもよい。
また、表示制御部69は、微調整スライドバー45Bにおいて数値が範囲の上限値または下限値に達した後、さらに第1ジェスチャーが検出された場合、バー46Bの範囲の表示を変更する。
より具体的には図21の上部に示すように、手38を右方向に移動させて、微調整スライドバー45Bで数値を設定していた場合に、スライダ47Bが範囲の上限値である60に達し、さらに図21の下部に示すように手38が右方向に移動された場合、バー46Bの範囲の表示を「40〜60」から「50〜70」に変更する。一方、図22の上部に示すように、手38を左方向に移動させて、微調整スライドバー45Bで数値を設定していた場合に、スライダ47Bが範囲の下限値である40に達し、さらに図22の下部に示すように手38が左方向に移動された場合、バー46Bの範囲の表示を「40〜60」から「30〜50」に変更する。
以下、上記構成による作用について、図23および図24のフローチャートを参照して説明する。まず、ユーザ14A〜14Cは、カンファレンスを開くために手術室35に集まり、HMD11A〜11Cを頭部に装着する。そして、手術台37の所望の位置にマーカー39を載置する。次いで、制御装置12の入力デバイス16を操作し、対象患者の3D画像40の配信要求を画像蓄積サーバ19に送信する。これにより、画像蓄積サーバ19から制御装置12に対象患者の3D画像40が配信される。
図23に示すように、制御装置12において、対象患者の3D画像40は3D画像取得部66で取得される(ステップS10)。3D画像40は表示制御部69を介してHMD11に表示される(ステップS11)。
ユーザ14は、例えば患部を詳細に把握するために3D画像40に近付いたり、全体像を把握するために3D画像40から遠ざかったりする。あるいは、ユーザ14は、患部を違った角度から観察するために、顔の向きや立ち位置を変える。また、ユーザ14は、手38を用いたジェスチャーで、3D画像40に対して様々な処理を施す。
制御装置12では、撮像画像取得部65で取得したカメラ29の撮像画像に基づいて、HMD11の位置、およびジェスチャーが検出部67で検出される(ステップS12)。そして、検出結果に応じた処理が処理部68で施される(ステップS13)。例えば第3検出部72でマーカー39に対するHMD11の三次元的な位置が検出され、その検出結果である位置情報に応じて、3D画像編集部75で3D画像40が編集される。
これらステップS11〜S13の各処理は、入力デバイス16を介してカンファレンス終了の指示が入力されるまで(ステップS14でYES)繰り返し続けられる。
図24のフローチャートは、スライドバー45を用いて数値を設定する場合の処理手順を示す。まず、ステップS100に示すように、表示制御部69により粗調整スライドバー45AがHMD11に表示される(表示制御ステップ)。ユーザ14は、所望の数値を設定するために、手38を用いたジェスチャーをカメラ29の視野内で行う。
図16に示すように粗調整スライドバー45AがHMD11に表示された状態で、図10または図11に示すように第1ジェスチャーが第1検出部70で検出された場合(ステップS110でYES、第1検出ステップ)、第1ジェスチャー情報が数値変更部73に出力される。数値変更部73は、第1ジェスチャー情報に応じて、粗調整スライドバー45Aの数値を変更する(ステップS120、数値変更ステップ)。また、数値変更部73からの数値情報に応じて、表示制御部69によりスライダ47Aの表示位置が変更される。
図16に示すように粗調整スライドバー45AがHMD11に表示された状態で、図12に示すように手38を上方向に移動させる第2ジェスチャーが第2検出部71で検出された場合(ステップS130でYES、第2検出ステップ)、第2ジェスチャー情報がモード切替部74に出力される。そして、モード切替部74から表示制御部69に、モードを粗調整モードから微調整モードに切り替えるモード情報が出力される。これにより、図17に示すように、粗調整スライドバー45Aに代えて微調整スライドバー45BがHMD11に表示される(ステップS140、モード切替ステップ、表示制御ステップ)。
図17に示すように微調整スライドバー45BがHMD11に表示された状態で、図10または図11に示すように第1ジェスチャーが第1検出部70で検出された場合(ステップS150でYES、第1検出ステップ)、ステップS120と同様にして、微調整スライドバー45Bの数値が変更される(ステップS160、数値変更ステップ)。また、数値変更部73からの数値情報に応じて、表示制御部69によりスライダ47Bの表示位置が変更される。
図17に示すように微調整スライドバー45BがHMD11に表示された状態で、図13に示すように手38を下方向に移動させる第2ジェスチャーが第2検出部71で検出された場合(ステップS170でYES、第2検出ステップ)、第2ジェスチャー情報がモード切替部74に出力される。そして、モード切替部74から表示制御部69に、モードを微調整モードから粗調整モードに切り替えるモード情報が出力される。これにより、図16に示すように、微調整スライドバー45Bに代えて粗調整スライドバー45AがHMD11に再表示される(ステップS100、モード切替ステップ、表示制御ステップ)。
ここで、図21または図22に示すように、手38を右方向または左方向に移動させて、微調整スライドバー45Bで数値を設定していた場合に、スライダ47Bが範囲の上限値または下限値に達し、さらに手38が右方向または左方向に移動された場合、バー46Bの範囲の表示が変更される。
これら一連の処理は、ユーザ14から数値設定終了の指示があるまで(ステップS180またはステップS190でYES)、繰り返し続けられる。なお、数値設定終了の指示は、第1ジェスチャーおよび第2ジェスチャーとは異なる、例えば親指と人差し指で輪を作るといったジェスチャーにより行われる。
設定可能な範囲が第1の範囲である、または/および数値の単位変動幅が第1の変動幅である粗調整モードと、範囲が第1の範囲と比較して狭い第2の範囲である、または/および単位変動幅が第1の変動幅と比較して狭い第2の変動幅である微調整モードとを切り替えるので、ユーザ14は、粗調整モードで所望の数値に近い数値を粗く設定した後、微調整モードに切り替えて詳細に所望の数値を設定することができる。したがって、仮想UIとしてのスライドバー45を用いた数値の設定を素早く正確に行うことが可能となる。
仮想UIとしてのスライドバー45は、触覚的な操作感が掴みにくく、デリケートな操作がしづらいという問題がある。このため、本発明の数値の設定を素早く正確に行うことが可能となるという効果は、非仮想UIの場合と比較して非常に大きい。
数値を設定するための第1ジェスチャーは、手38を左方向および右方向に移動させるジェスチャーであり、モードを切り替えるための第2ジェスチャーは、手38を上方向および下方向に移動させるジェスチャーである。このためジェスチャーがシンプルで、また方向が左右方向と上下方向で直交していて異なるので第1ジェスチャーと第2ジェスチャーを混同することもない。
また、第1ジェスチャーの方向とスライダ47の移動方向とを左右方向と一致させている。また、手38の上方向の移動を、設定可能な範囲が狭まる微調整モードへの切り替えに対応させ、下方向の移動を、設定可能な範囲が広がる粗調整モードへの切り替えに対応させている。このため、ユーザ14は直感的な操作が可能となる。
粗調整モードでは粗調整スライドバー45Aを、微調整モードでは微調整スライドバー45Bを選択的にHMD11に表示させるので、ユーザ14は表示されているスライドバー45を見れば現在のモードがいずれかがすぐに分かる。そのうえ、拡張現実空間ARSにおいて、微調整スライドバー45Bを粗調整スライドバー45Aよりも手前側に拡大して表示させるので、微調整モードであることがよりはっきりと分かる。また、粗調整スライドバー45Aから微調整スライドバー45Bに表示が切り替わったことが視覚的に分かりやすい。
図21および図22に示したように、微調整スライドバー45Bにおいて数値が範囲の上限値または下限値に達した後、さらに第1ジェスチャーが検出された場合、バー46Bの範囲の表示を変更するので、所望の数値が上限値または下限値に近い数値の場合は、わざわざ粗調整モードに戻って粗調整スライドバー45Aで数値の設定をやり直す必要がなく、微調整スライドバー45Bで数値の設定を済ませることができる。
第1ジェスチャーを検出している場合(移動中)としていない場合(停止中)とでスライダ47の表示態様を異ならせるので、ユーザ14はスライダ47の表示態様で数値の設定中か否かを判断することができる。
なお、設定可能な数値の範囲および数値の単位変動幅の両方を各モードで変更しているが、これら範囲および単位変動幅のうちの少なくとも一方が各モードで変更されていればよい。具体的には、変動幅は各モードで同じ±1として範囲を変更してもよいし、あるいは、範囲は各モードで同じ設定可能な全範囲として変動幅を変更してもよい。
図19等で示したように、ユーザ14の手38がスライドバー45に触れていない状態で、第1検出部70および第2検出部71で第1ジェスチャーおよび第2ジェスチャーを検出するので、実際に触れた感覚がないという仮想UIのデメリットを打ち消す効果がある。
スライドバー45の操作には、デリケートな操作が要求される。それゆえ、ユーザ14の手38がスライドバー45に触れているような位置にある場合のみ、第1ジェスチャーおよび第2ジェスチャーを検出する態様にしてしまうと、ユーザ14は、逆に実際に手が触れている感覚がないことによる違和感で、操作のしづらさや不満を感じやすい。しかし、敢えてユーザ14の手38がスライドバー45に触れていない状態であっても第1ジェスチャーおよび第2ジェスチャーを検出して操作を可能とすることで、このユーザ14が不満を感じるという心理的な問題を解決することができる。
ただし、ユーザ14の手38がスライドバー45に触れていない状態で仮想UIを操作できるようにした場合においても、その実現方法によっては、手が触れていない状態で操作することに対して直感的ではないとユーザ14が不満を感じる懸念が残る。
例えば、粗調整モードと微調整モードを切り替える切替ボタンと、手38の動きと連動するポインタとを仮想空間VSに表示し、手38を動かしてポインタを切替ボタンに移動させて切替ボタンを選択することでモードを切り替える態様を考える。この態様では、手38の動きとポインタの動作をユーザ14の頭の中で一致させることにユーザ14は難しさを感じる。なぜならば、手38の動きは何の制約もない三次元空間上での動きとなるが、ポインタの動きは仮想空間VS上の2次元の動きであるためで、一般的なパーソナルコンピュータのように、机上におけるマウスの2次元の動きと画面上のポインタの動きのように一致した関係ではないためである。ユーザ14は、頭の中で3次元の手38の動きを2次元での動きとして精緻に感覚でとらえる難しさがある。このため、ポインタを切替ボタンに移動させる操作自体が面倒となり不満を感じてしまう。これは、ユーザ14の手38の届く位置に切替ボタンが位置していた場合であっても、手38の動きとポインタの動きを連動させる操作方法をとる限りは生じる問題である。またさらに、手38を大きく動かせない等、ユーザ14の置かれた状況によっては、ポインタを切替ボタンに移動させる操作がしづらいという問題もある。
こうした操作自体の面倒さや操作のしづらさは、ユーザ14の手38の届かない位置に切替ボタンが位置していた場合のほうが顕著に発生する。というのは、手38から離れた遠隔の操作になるほど、手38の感覚とポインタの連動の感覚に乖離が生じやすいためである。この遠隔操作の態様については、第2実施形態で詳述する。
対して本実施形態では、手38を上下方向に移動させるという予め決められた比較的シンプルな第2ジェスチャーで、簡単にモードを切り替えることができる。また、第1ジェスチャーについても、ポインタで操作する場合と比較して、予め決められた動作でスライドバー45を操作することができるため簡便である。このため、ユーザ14の手38がスライドバー45に触れていない状態で操作可能とした場合でも、直感的な操作を実現しているといえる。
[第2実施形態]
上記第1実施形態では、スライドバー45は仮想空間VSにおける表示位置が固定されているとして説明したが、3D画像40と同じく、現実空間RSにおける表示位置が固定されていてもよい。
図25には、壁80にマーカー39を貼り付け、壁80にスライドバー45を出現させて、この壁80に表示されたスライドバー45に対してユーザ14が手38を用いたジェスチャーを行っている様子を示す。こうすれば、ユーザ14の好きな場所にスライドバー45を表示させることができ、拡張現実空間ARSにおいて、ユーザ14の手38が物理的に届かない壁80等の遠隔位置にもスライドバー45を表示させることができる。
また、スライドバー45に敢えて手38が届かない状態となっていることで、実際に触れた感覚がないという仮想UIのデメリットを打ち消す効果もある。スライドバー45の操作には、デリケートな操作が要求される。それゆえ、もし手38が届く位置にスライドバー45がある場合は、ユーザ14は実際に触れた感覚がないことによる不満を感じやすい。しかし、スライドバー45に敢えて手38が届かない状態とすることで、このユーザ14が不満を感じるという心理的な問題を解決することができる。
なお、手38が届かない遠隔位置とは、例えば予め設定された成人男性の平均的な腕の長さよりも離れた位置であればよく、手38が届かない一定の距離をユーザ14から保った状態でスライドバー45を表示する場合も含む。
一方で、図25に示す例のように、拡張現実空間ARSにおいて、ユーザ14の手38が届かない遠隔位置にスライドバー45を表示させた場合は、ユーザ14の手38が届く近接位置にスライドバー45がある場合よりも、操作感がさらに掴みにくくなり、デリケートな操作もよりしづらくなる。例えば現実空間RSにおけるスライドバー45の表示位置が固定されていて、かつ手38の位置にバー46の位置を合わせる制御をする場合は、スライドバー45の表示位置からユーザ14が離れるほどスライドバー45は小さくなり、手38を少し動かしただけでもバー46が大きく動いてしまうので、操作がしづらくなる。したがって、拡張現実空間ARSにおいて、ユーザ14の手38が届かない遠隔位置にスライドバー45を表示させた場合に本発明を適用すれば、本発明の数値の設定を素早く正確に行うことが可能となるという効果がより威力を発揮する。
[第3実施形態]
上記第1実施形態では、手38の移動量に応じて数値を変更している。このため、現在設定されている数値とユーザ14が設定したい数値との差や、手38の単位移動量に対する数値の変動幅の設定によっては、比較的大きく手38を移動させなければならない場合がある。この場合、もし手38を大きく移動させることができないシチュエーションにユーザ14が置かれていると、数値の設定が困難になる。また、何よりも手38を大きく移動させることでユーザ14が疲れてしまう。そこで、図26および図27に示す第3実施形態では、少ない手38の移動量で数値の設定を可能とする。
図26において、第3実施形態では、カメラ29の撮像画像を、縦に略三等分した三つの領域85A、85B、85Cに分ける。第1検出部70は、手38が真ん中の領域85Aにある場合、手38が基準位置にあると検出する。また、第1検出部70は、手38が基準位置から移動した方向を検出する。具体的には、手38が右側の領域85Bにある場合、手38が基準位置から右方向へ移動したと検出し、手38が左側の領域85Cにある場合、手38が基準位置から左方向へ移動したと検出する。
数値変更部73は、第1検出部70で右方向または左方向の一方の方向への手38の移動が検出されてから、基準位置に手38が戻ったことが検出されるまで、数値を自動的に変更する。表示制御部69は、数値変更部73からの数値情報に応じて、スライダ47の表示位置を自動的に変更する。
図27は、一方の方向が右方向であった場合の微調整スライドバー45Bのスライダ47Bの表示位置の変遷を示している。最上段は、手38が領域85Aの基準位置にあり、スライダ47Bが50を指し示している初期状態を示す。この最上段の状態から、次の段に示すように手38が領域85Bに移動した場合、第1検出部70で手38が基準位置から右方向へ移動したと検出される。そして、第3対応情報63で規定された単位変動幅で、数値変更部73で数値が自動的に変更される。また、表示制御部69によりスライダ47Bが50から51の位置に自動的に移動される。
その次の段においても、手38は依然として領域85Bにある。このため、数値変更部73による数値の自動変更が継続され、スライダ47Bも51からさらに52の位置に自動的に移動される。なお、スライダ47Bは、移動中は上記第1実施形態と同じくハッチングで示すように停止中とは異なる色付けがされる。
最下段は、基準位置に手38が戻った状態である。この場合、第1検出部70で手38が基準位置に戻ったことが検出される。そして、数値変更部73で数値の自動変更が停止される。また、表示制御部69によりスライダ47Bが53の位置で停止される。なお、図示は省略するが、一方の方向が左方向であった場合、およびスライドバー45が粗調整スライドバー45Aであった場合も、図27と同様にして数値の変更が行われる。
このように、手38が基準位置にあることと、手38が基準位置から移動した方向を第1検出部70で検出し、右方向または左方向の一方の方向への手38の移動が検出されてから、基準位置に手38が戻ったことが検出されるまで、数値変更部73で数値を自動的に変更するので、少ない手38の移動量で数値の設定が可能となる。このため、手38を大きく移動させることができないシチュエーションであっても対応することができ、ユーザ14も疲労を感じなくて済む。なお、基準位置は予め設定されていてもよいし、ユーザ14が設定してもよい。
[第4実施形態]
上記第1実施形態では、粗調整スライドバー45Aと微調整スライドバー45Bとを選択的に表示させているが、図28〜図32に示す第4実施形態では、粗調整スライドバー45Aと微調整スライドバー45Bとを両方同時に表示させる。
図28において、第4実施形態における第1対応情報90は、第1ジェスチャーに対応する手38の移動方向は左方向および右方向で上記第1実施形態の第1対応情報61と同じである。一方、第2ジェスチャーに対応する手38の移動方向が上方向および下方向ではなく、前方向および後方向と異なる。左側の4コマのイラストの下の2コマに示すように、前方向は手38を手前側から前方に差し出す方向であり、後方向は逆に手38を前方から手前側に引っ込める方向である。
第4実施形態では、前方向および後方向が、第3方向および第4方向に相当する。そして、手38を前方向および後方向に移動させるジェスチャーが第3および第4方向ジェスチャーに相当する。
図29に示すように、モード切替部74は、第2検出部71からの第2ジェスチャー情報で示される手38の移動方向が前方向で、かつ手38の移動前のモードが微調整モードであった場合、モードを粗調整モードに切り替える。また、表示制御部69は、粗調整スライドバー45Aを数値の設定を受け付けるアクティブ状態とし、微調整スライドバー45Bを数値の設定を受け付けない非アクティブ状態とする。逆に手38の移動方向が後方向で、かつ手38の移動前のモードが粗調整モードであった場合は、図30に示すように、モード切替部74はモードを微調整モードに切り替える。また、表示制御部69は、粗調整スライドバー45Aを非アクティブ状態とし、微調整スライドバー45Bをアクティブ状態とする。なお、数値設定の初期段階においては、上記第1実施形態と同じく粗調整モードが設定される。
図31に示すように、第4実施形態における拡張現実空間ARSには、粗調整スライドバー45Aと微調整スライドバー45Bとが表示制御部69により両方同時に表示される。第2ジェスチャーの前方向および後方向と対応させるため、粗調整スライドバー45Aは奥側に、微調整スライドバー45Bは手前側に表示される。粗調整スライドバー45Aと微調整スライドバー45Bは上記第1実施形態と基本的に同じ構成である。ただし、粗調整スライドバー45Aのバー46Aに、粗調整スライドバー45A上における微調整スライドバー45Bの設定可能な範囲を示す範囲表示帯91が表示されている点が異なる。
図31は微調整モードの場合を示している。この場合、前述のように微調整スライドバー45Bがアクティブ状態で、粗調整スライドバー45Aは非アクティブ状態とされる。非アクティブ状態の粗調整スライドバー45Aは、破線で示すように表示制御部69により半透明で表示される。一方、粗調整モードの場合は、粗調整スライドバー45Aがアクティブ状態、微調整スライドバー45Bが非アクティブ状態とされ、図32に示すように微調整スライドバー45Bが半透明で表示される。すなわち、アクティブ状態と非アクティブ状態とで粗調整スライドバー45Aと微調整スライドバー45Bの表示態様を異ならせている。
このように、粗調整スライドバー45Aと微調整スライドバー45Bとを両方同時に表示させるので、微調整スライドバー45Bで設定している数値が、粗調整スライドバー45Aで示される設定可能な全範囲のいずれの位置にあたるかが一目で分かる。また、アクティブ状態と非アクティブ状態とで粗調整スライドバー45Aと微調整スライドバー45Bの表示態様を異ならせるので、アクティブ状態のスライドバー45がいずれか、ひいては現在のモードがいずれかが分かる。
[第5実施形態]
上記各実施形態では、粗調整スライドバー45Aと微調整スライドバー45Bの2種類のスライドバー45で数値を設定する例を説明したが、図33〜図35に示す第5実施形態では、1つのスライドバー45で数値を設定する。
図33において、第5実施形態における第1対応情報95は、第1ジェスチャーに対応する手38の移動方向は左方向および右方向で上記第1実施形態の第1対応情報61および上記第4実施形態の第1対応情報90と同じである。一方、第2ジェスチャーに対応する手38の移動方向が、左方向から右方向、および右方向から左方向と異なる。
第5実施形態では、左方向および右方向が第1方向および第2方向に相当する。そして、手38を右方向および左方向に移動させるジェスチャーが第1および第2方向ジェスチャーに相当し、手38の移動方向を左方向から右方向、および右方向から左方向に切り替えるジェスチャーが切替ジェスチャーに相当する。
図34に示すように、第5実施形態における第3対応情報96は、粗調整モードおよび第1、第2の2つの微調整モードの各モードと、切替ジェスチャーの回数、並びに数値の単位変動幅との対応関係を示すものである。
第5実施形態では、1つのスライドバー45で数値を設定するので、設定可能な範囲は全てのモードで変わらない。このため、第3対応情報96には、上記第1実施形態の第3対応情報63のように、設定可能な数値の範囲の項目は設けられておらず、代わりに切替ジェスチャーの回数の項目が設けられている。
粗調整モードには、切替ジェスチャーの回数として0回、単位変動幅として±10(第1の変動幅に相当)が対応付けられている。一方、第1微調整モードには、切替ジェスチャーの回数として1回、単位変動幅として±5(第2の変動幅に相当)が対応付けられ、第2微調整モードには、切替ジェスチャーの回数として2回以降、単位変動幅として±1(第2の変動幅に相当)が対応付けられている。このため、粗調整モードで数値が±10変動する同じ手38の移動量に対して、第1微調整モードでは数値が±5変動し、第2微調整モードでは±1変動する。
図35は、第5実施形態におけるスライドバー45のスライダ47の表示位置の変遷を示している。ここで、スライドバー45は、設定可能な全範囲がバー46で表示されたもので、上記各実施形態の粗調整スライドバー45Aと同じものである。最上段は、手38を移動させて数値を設定する前で、スライダ47が50を指し示している初期状態を示す。この最上段の状態では切替ジェスチャーの回数は0回であり、モードは粗調整モードである。この最上段の状態から、次の段に示すように手38が右方向に移動した場合、第1検出部70で手38が右方向へ移動したと検出される。そして、数値変更部73で数値が単位変動幅+10で変更される。また、表示制御部69によりスライダ47が50から60、70と+10ずつ移動される。
数値が70となったときに、その次の段に示すように手38が左方向に移動した場合、第2検出部71で手38の移動方向が右方向から左方向に切り替えられた、すなわち1回目の切替ジェスチャーが行われたと検出される。これにより、モード切替部74でモードが粗調整モードから第1微調整モードに切り替えられる。また、第1検出部70で手38が左方向へ移動したと検出される。そして、数値変更部73で数値が単位変動幅−5で変更される。また、表示制御部69によりスライダ47が70から65と−5ずつ移動される。
数値が65となったときに、最下段に示すように手38が再び右方向に移動した場合、第2検出部71で手38の移動方向が左方向から右方向に切り替えられた、すなわち2回目の切替ジェスチャーが行われたと検出される。これにより、モード切替部74でモードが第1微調整モードから第2微調整モードに切り替えられる。また、第1検出部70で手38が右方向へ移動したと検出される。そして、数値変更部73で数値が単位変動幅−1で変更される。また、表示制御部69によりスライダ47が65から66、67と+1ずつ移動される。
このように、切替ジェスチャーの以後における単位変動幅を、切替ジェスチャーの以前における単位変動幅よりも狭くすることで、1つのスライドバー45で数値の粗調整と微調整とが可能になる。また、上記各実施形態のように粗調整スライドバー45Aと微調整スライドバー45Bを選択的に、または両方同時に表示させる必要がないので、すっきりとした表示とすることができる。なお、ここでは粗調整モードと第1、第2微調整モードの3つのモードの場合を例示したが、上記各実施形態のように粗調整モードと微調整モードの2つのモードとしてもよいし、3つ以上のモードとしてもよい。ただし、最終的に設定されるモードには、必ず単位変動幅に最小値(ここでは±1)が対応付けられる。
[第6実施形態]
図36に示す第6実施形態は、3D画像40の視認性をスライドバー45で阻害しない対策を講じたものである。上記各実施形態では、例えば図16や図17等に示すように、拡張現実空間ARSにおいて、3D画像40の手前にスライドバー45が表示され、3D画像40とスライドバー45の表示位置が重ならない場合を例示したが、HMD11(ユーザ14)とマーカー39の位置関係によっては、3D画像40とスライドバー45の表示位置が重なる場合がある。
この場合、基本的にはスライドバー45は3D画像40の手前に表示されるため、スライドバー45で3D画像40の一部が覆い隠されることになる。この覆い隠された部分の面積が比較的僅かであれば、ユーザ14の3D画像40の視認の邪魔にはならない。しかしながら、3D画像40の比較的大きい面積の部分がスライドバー45で覆い隠された場合は、ユーザ14が3D画像40を視認することが困難になる。
そこで、図36の上段に示すように、拡張現実空間ARSにおいて、スライドバー45で3D画像40が覆い隠された部分の大きさが、設定された大きさ以上となった場合、表示制御部69は、図36の下段に示すように、3D画像40を覆い隠さない奥側の位置にスライドバー45の表示位置を移動させる。設定された大きさは、例えば、拡張現実空間ARSにおける3D画像40の表示面積の1/2であり、予め設定されていてもよいし、ユーザ14が設定してもよい。なお、スライドバー45で覆い隠された3D画像40の部分が、設定された大きさよりも小さい場合は、スライドバー45の表示位置はそのままとする。
このように、スライドバー45で3D画像40の設定された大きさの部分が覆い隠される配置関係となった場合、3D画像40を覆い隠さない位置にスライドバー45の表示位置を移動させるので、スライドバー45で3D画像40の視認性が阻害されることが防止される。したがって、ユーザ14は常に3D画像40の視認性を確保した状態でカンファレンスを進めることができる。
[第7実施形態]
図37に示す第7実施形態は、ユーザ14の手38と重なるスライドバー45の部分をマスクする、という内容である。上記各実施形態では、例えば図16や図17等に示すように、拡張現実空間ARSにおいて、ユーザ14の手38とスライドバー45とが重ならない場合を例示したが、上記第6実施形態の3D画像40およびスライドバー45と同様に、手38とスライドバー45とが重なる場合もある。
手38とスライドバー45とが重なった場合、スライドバー45で手38が覆い隠される表示態様であると、ユーザ14は自分の手38が見えなくなるので、ユーザ14に違和感を与えてしまう。
そこで、図37に示すように、第7実施形態の処理部68には、上記第1実施形態の数値変更部73等(図示せず)に加えて、マスク処理部100が設けられる。マスク処理部100は、現実空間RSを写したカメラ29の撮像画像で検出部67が認識した手38の情報(以下、認識情報)に基づいて、仮想空間VSにおけるスライドバー45の、手38と重なる部分をマスクする。認識情報は、具体的には手38の輪郭を構成する画素の位置座標である。マスク処理は、具体的にはスライドバー45から手38の輪郭の部分をくり抜く処理である。
こうしたマスク処理を施すことで、HMD11を通じてユーザ14が認識する拡張現実空間ARSにおいては、手38がスライドバー45で覆い隠されることなく表示される。したがって、ユーザ14は違和感を覚えることなく数値を設定することができる。
[第8実施形態]
上記各実施形態では、ユーザ14の手38自体を認識しているが、図38に示す第8実施形態では、ユーザ14の手38にはめられたグローブ105に基づいてユーザ14の手38を認識する。
図38において、第8実施形態では、ユーザ14は手38にグローブ105をはめた状態でジェスチャーを行う。グローブ105は、例えば青色で全体を着色された手術用のゴム製手袋である。第1検出部70および第2検出部71は、グローブ情報106を参照して、カメラ29の撮像画像に写るグローブ105を手38として認識する。グローブ情報106は、グローブ105の色および様々な角度から見た形状を示す情報であり、ストレージデバイス50に記憶されている。第1検出部70および第2検出部71は、カメラ29の撮像画像内で、グローブ情報106の色および形状と一致する部分をグローブ105と認識する。
このように、グローブ105に基づいてユーザ14の手38を認識するので、グローブ105をはめていない手38を認識する場合よりも、手38の認識精度を高めることができる。これにより、第1ジェスチャーを第2ジェスチャーと誤って検出したり、ジェスチャー自体を見落としたりといった検出ミスを減らすことができる。なお、グローブ105は、手術用のゴム製手袋に限らず、画像表示システム10専用のグローブでもよい。
なお、粗調整モードと微調整モードとしては、上記各実施形態のように択一的にモードを切り替える他に、以下に説明するアナログ的な形態を採用してもよい。
例えば上記第5実施形態で図35に示した1つのスライドバー45において、手38を上方向に移動させるジェスチャーを第2検出部71で検出した場合、バー46の下限値および上限値を、0と100から、1と99、2と98、3と97というように、連続的かつ段階的に変更し、設定可能な数値の範囲を狭める。一方、手38を下方向に移動させるジェスチャーを第2検出部71で検出した場合は、バー46の下限値および上限値を、3と97、2と98、1と99、0と100というように、連続的かつ段階的に変更し、設定可能な数値の範囲を広げる。
そして、設定可能な数値の範囲が広い場合よりも狭い場合の変動幅を狭くする。例えば、下限値および上限値が0と100、1と99の場合は変動幅を±20、2と98、3と97の場合は変動幅を±15とする。
この形態では、手38を上方向に移動させて設定可能な数値の範囲を狭めている期間および設定可能な数値の範囲を狭めた後の状態が微調整モードである。逆に、手38を下方向に移動させて設定可能な数値の範囲を広げている期間および設定可能な数値の範囲を広げた後の状態が粗調整モードである。また、手38を上方向または下方向に移動させるジェスチャーが、第2ジェスチャーに相当する。
上記各実施形態では、横棒状のバー46で構成されるスライドバー45を例示したが、本発明はこれに限定されない。例えば下端に下限値、上端に上限値が配された縦棒状のバーで構成されるスライドバーであってもよい。縦棒状のバーで構成されるスライドバーの場合は、上方向および下方向が第1方向および第2方向とされ、手38を上方向および下方向に移動させるジェスチャーが第1および第2方向ジェスチャーとなる。
縦棒状のバーで構成されるスライドバーを、粗調整スライドバー45Aと微調整スライドバー45Bとを両方同時に表示させる第4実施形態に適用する場合は、粗調整スライドバー45Aと微調整スライドバー45Bとを横に並べて表示させる。この場合は左方向および右方向が第3方向および第4方向とされ、手38を左方向および右方向に移動させるジェスチャーが第3および第4方向ジェスチャーとなる。
あるいは図39に示すスライドバー110を用いてもよい。スライドバー110は、円環の下部が切り欠かれたC字状のバー111と、バー111上でスライド操作されるスライダ112とで構成される。バー111の左端には下限値が、右端には上限値がそれぞれ配されている。この場合、時計方向および反時計方向が第1方向および第2方向とされ、手38を時計方向および反時計方向に回転させるジェスチャーが第1および第2方向ジェスチャーとなる。
このように、スライドバーの構成は特に限定されず、また、手38の移動方向もスライドバーの構成に応じて変更してよく、特に限定されない。
上記各実施形態では、数値設定用UIとしてスライドバーを例示したが、本発明はこれに限定されない。例えば図40に示すように、数値設定用UIとして回転ダイヤル115を用いてもよい。回転ダイヤル115は、範囲表示部としてのC字状のバー116と、ダイヤル本体117と、ダイヤル本体117に設けられた、数値指示部としての三角マーク118とで構成される。ダイヤル本体117には、現在設定されている数値が表示される。
この場合、図39に示すスライドバー110と同じく、時計方向および反時計方向が第1方向および第2方向とされ、手38を時計方向および反時計方向に回転させるジェスチャーが第1および第2方向ジェスチャーとなる。
HMD11は、上記各実施形態のようにゴーグル形状の保護枠27でユーザ14の両目全体を覆い、バンド部26をユーザ14の頭部に固定するタイプに限らない。ユーザ14の耳にかけるテンプル、目頭の下部に当たる鼻当て、スクリーンを保持するリム等を有する眼鏡タイプのHMDを用いてもよい。
カメラ29はHMD11に搭載されていなくてもよい。少なくともユーザ14の手38を撮像可能であれば、カメラ29の設置位置は問わない。このため、カメラ29は、ユーザ14がHMD11を通じて認識する拡張現実空間ARSと同じ視野を撮像するものでなくともよい。
上記各実施形態では、ユーザ14を3人としたが、ユーザ14は1人でも2人でもよく、3人以上でもよい。
上記各実施形態では、マーカー39で仮想オブジェクトの出現位置を規定する手法を用いているが、マーカー39を用いずに、設定された特定の実在オブジェクトに仮想オブジェクトを出現させる手法を採用してもよい。この場合、撮像画像に写る特定の実在オブジェクトを画像認識技術により認識し、認識した特定の実在オブジェクトをマーカー39に見立てて、特定の実在オブジェクト上に仮想オブジェクトを表示させる。
上記各実施形態では、HMD11の制御装置の機能をデスクトップ型のパーソナルコンピュータに担わせているが、本発明はこれに限定されない。画像蓄積サーバ19がHMD11の制御装置の機能の全てまたは一部を担ってもよい。例えば3D画像編集部75の機能を画像蓄積サーバ19が担う。この場合は画像蓄積サーバ19からHMD11に3D画像をストリーミング配信してもよい。
あるいは、図41に示すように、画像蓄積サーバ19とは別のネットワークサーバ120がHMD11の制御装置の機能を担ってもよい。さらには、医療施設13内に設置されたローカルサーバがHMD11の制御装置の機能を担ってもよい。画像蓄積サーバ19も医療施設13内にローカルサーバとして設置されていてもよい。
もしくは、図42に示すように、ユーザ14が腰等に付けて携帯可能な携帯コンピュータ125にHMD11の制御装置の機能を担わせてもよい。この場合、HMD11の制御装置の機能を担うコンピュータを、制御装置12のような市販のパーソナルコンピュータではなく、画像表示システム10に特化した専用の製品としてもよい。また、HMD11自体に制御装置の機能を搭載してもよい。この場合はHMD11自体が制御装置となる。
このように、本発明のHMD11の制御装置を構成するコンピュータのハードウェア構成は種々の変形が可能である。HMD11の制御装置を、処理能力や信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、撮像画像取得部65および検出部67の機能と、3D画像取得部66、処理部68、および表示制御部69の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータでHMD11の制御装置を構成する。
以上のように、コンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム60等のAPについても、安全性や信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
3D画像40は、対象患者の上半身の仰向けの画像に限らない。全身の仰向けの画像でもよいし、頭部等の他の部位の画像でもよい。
上記各実施形態では、画像表示システム10の用途として医療施設13内で行われる術前カンファレンスを例示し、仮想オブジェクトとして3D画像40を例示したが、画像表示システム10の用途は術前カンファレンスに限定されず、したがって仮想オブジェクトも3D画像40に限定されない。例えば画像表示システム10の用途をゲーム用途とし、ゲームのキャラクター等を仮想オブジェクトとして表示してもよい。
上記各実施形態において、例えば、撮像画像取得部65、3D画像取得部66、検出部67(第1検出部70、第2検出部71、第3検出部72)、処理部68(数値変更部73、モード切替部74、3D画像編集部75、マスク処理部100)、表示制御部69といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、CPU、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、専用電気回路等が含まれる。CPUは、周知のとおりソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサである。PLDは、FPGA(Field Programmable Gate Array) 等の、製造後に回路構成を変更可能なプロセッサである。専用電気回路は、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
上記記載から、以下の付記項1に記載の画像表示システムを把握することができる。
[付記項1]
ユーザの頭部に装着されたヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの制御装置とを備え、前記ヘッドマウントディスプレイを通じて、現実空間と仮想空間を融合させた拡張現実空間を前記ユーザに認識させる画像表示システムにおいて、
設定可能な数値の範囲を示す範囲表示部と、現在設定されている前記数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、前記拡張現実空間において前記ユーザが仮想的に認識する仮想ユーザインターフェースとして前記ヘッドマウントディスプレイに表示させる表示制御プロセッサと、
前記数値を設定するための前記ユーザの第1ジェスチャーを検出する第1検出プロセッサと、
粗調整モードと微調整モードとを切り替えるための前記ユーザの第2ジェスチャーを検出する第2検出プロセッサであり、
前記粗調整モードは、前記範囲が第1の範囲であるか、または/および前記数値の単位変動幅が第1の変動幅であるモードで、
前記微調整モードは、前記範囲が前記第1の範囲と比較して狭い第2の範囲であるか、または/および前記単位変動幅が前記第1の変動幅と比較して狭い第2の変動幅であるモードであり、
前記第1ジェスチャーに応じて、前記数値を変更する数値変更プロセッサと、
前記第2ジェスチャーに応じて、前記粗調整モードと前記微調整モードとを切り替えるモード切替プロセッサとを備える画像表示システム。
本発明は、上述の種々の実施形態や種々の変形例を適宜組み合わせることも可能である。例えば、第3実施形態と第4実施形態、あるいは第3実施形態と第5実施形態を複合して実施してもよい。また、上記各実施形態に限らず、本発明の要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本発明は、プログラムに加えて、プログラムを記憶する記憶媒体にもおよぶ。
10 画像表示システム
11、11A〜11C ヘッドマウントディスプレイ(HMD)
12 制御装置
13 医療施設
14、14A〜14C ユーザ
15 ディスプレイ
16 入力デバイス
17 ネットワーク
18 データセンタ
19 画像蓄積サーバ
25 本体部
26 バンド部
27 保護枠
28 スクリーン
29 カメラ
30 ケーブル
31 横バンド
32 縦バンド
35 手術室
37 手術台
38、38A、38B、38C 手
39 マーカー
40 三次元ボリュームレンダリング画像(3D画像)
45、110 スライドバー
45A 粗調整スライドバー
45B 微調整スライドバー
46、46A、46B、111 バー(範囲表示部)
47、47A、47B、112 スライダ(数値指示部)
50 ストレージデバイス
51 メモリ
52 CPU
53 通信部
54 データバス
60 作動プログラム
61、90、95 第1対応情報
62 第2対応情報
63、96 第3対応情報
65 撮像画像取得部
66 3D画像取得部
67 検出部
68 処理部
69 表示制御部
70 第1検出部
71 第2検出部
72 第3検出部
73 数値変更部
74 モード切替部
75 3D画像編集部
80 壁
85A〜85C 領域
91 範囲表示帯
100 マスク処理部
105 グローブ
106 グローブ情報
115 回転ダイヤル
116 バー(範囲表示部)
117 ダイヤル本体
118 三角マーク(数値指示部)
120 ネットワークサーバ(制御装置)
125 携帯コンピュータ(制御装置)
ARS、ARS−A〜ARS−C 拡張現実空間
RS、RS−A 現実空間
VS、VS−A 仮想空間
S10〜S14、S100〜S190 ステップ

Claims (21)

  1. ユーザの頭部に装着されたヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの制御装置とを備え、前記ヘッドマウントディスプレイを通じて、現実空間と仮想空間を融合させた拡張現実空間を前記ユーザに認識させる画像表示システムにおいて、
    設定可能な数値の範囲を示す範囲表示部と、現在設定されている前記数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、前記拡張現実空間において前記ユーザが仮想的に認識する仮想ユーザインターフェースとして前記ヘッドマウントディスプレイに表示させる表示制御部と、
    前記数値を設定するための前記ユーザの第1ジェスチャーを検出する第1検出部と、
    粗調整モードと微調整モードとを切り替えるための前記ユーザの第2ジェスチャーを検出する第2検出部であり、
    前記粗調整モードは、前記範囲が第1の範囲であるか、または/および前記数値の単位変動幅が第1の変動幅であるモードで、
    前記微調整モードは、前記範囲が前記第1の範囲と比較して狭い第2の範囲であるか、または/および前記単位変動幅が前記第1の変動幅と比較して狭い第2の変動幅であるモードであり、
    前記第1ジェスチャーに応じて、前記数値を変更する数値変更部と、
    前記第2ジェスチャーに応じて、前記粗調整モードと前記微調整モードとを切り替えるモード切替部とを備える画像表示システム。
  2. 前記第1検出部および前記第2検出部は、前記拡張現実空間において、前記ユーザの手が前記数値設定用ユーザインターフェースに触れていない状態で、前記第1ジェスチャーおよび前記第2ジェスチャーを検出する請求項1に記載の画像表示システム。
  3. 前記表示制御部は、前記拡張現実空間において、前記ユーザの手が届かない遠隔位置に前記数値設定用ユーザインターフェースを表示させる請求項1または2に記載の画像表示システム。
  4. 前記第1ジェスチャーは、前記ユーザの手を第1方向および前記第1方向とは反対の第2方向に移動させる第1および第2方向ジェスチャーであり、
    前記第2ジェスチャーは、前記ユーザの手を前記第1方向とは異なる第3方向、および前記第2方向とは異なり、かつ前記第3方向とは反対の第4方向に移動させる第3および第4方向ジェスチャーである請求項1ないし3のいずれか1項に記載の画像表示システム。
  5. 前記第1検出部は、前記ユーザの手が基準位置にあることと、前記ユーザの手が前記基準位置から移動した方向を検出し、
    前記数値変更部は、前記第1方向または前記第2方向の一方の方向への前記ユーザの手の移動が検出されてから、前記基準位置に前記ユーザの手が戻ったことが検出されるまで、前記数値を自動的に変更する請求項4に記載の画像表示システム。
  6. 前記表示制御部は、前記数値設定用ユーザインターフェースとして、前記粗調整モード用の粗調整インターフェースと、前記微調整モード用の微調整インターフェースとを表示させる請求項4または5に記載の画像表示システム。
  7. 前記表示制御部は、前記粗調整インターフェースと前記微調整インターフェースとを選択的に表示させる請求項6に記載の画像表示システム。
  8. 前記表示制御部は、前記拡張現実空間において、前記微調整インターフェースを前記粗調整インターフェースよりも手前側に拡大して表示させる請求項7に記載の画像表示システム。
  9. 前記表示制御部は、前記粗調整インターフェースと前記微調整インターフェースとを両方同時に表示させ、
    前記粗調整インターフェースと前記微調整インターフェースのうちの一方を前記数値の設定を受け付けるアクティブ状態とし、他方を前記数値の設定を受け付けない非アクティブ状態とする請求項6に記載の画像表示システム。
  10. 前記表示制御部は、前記アクティブ状態と前記非アクティブ状態とで前記粗調整インターフェースと前記微調整インターフェースの表示態様を異ならせる請求項9に記載の画像表示システム。
  11. 前記表示制御部は、前記微調整インターフェースにおいて前記数値が前記第2の範囲の上限値または下限値に達した後、さらに前記第1ジェスチャーが検出された場合、前記範囲表示部の前記第2の範囲の表示を変更する請求項6ないし10のいずれか1項に記載の画像表示システム。
  12. 前記第1ジェスチャーは、前記ユーザの手を第1方向および前記第1方向とは反対の第2方向に移動させる第1および第2方向ジェスチャーであり、
    前記第2ジェスチャーは、前記ユーザの手の移動方向を前記第1方向および前記第2方向の一方から他方に切り替える切替ジェスチャーであり、
    前記モード切替部は、前記切替ジェスチャーの以後における前記単位変動幅を、前記切替ジェスチャーの以前における前記単位変動幅よりも狭くする請求項1ないし3のいずれか1項に記載の画像表示システム。
  13. 前記表示制御部は、前記第1ジェスチャーを検出している場合としていない場合とで前記数値指示部の表示態様を異ならせる請求項1ないし12のいずれか1項に記載の画像表示システム。
  14. 前記数値設定用ユーザインターフェースは、前記範囲表示部としてのバーと、前記バー上でスライド操作される前記数値指示部としてのスライダとで構成されるスライドバーである請求項1ないし13のいずれか1項に記載の画像表示システム。
  15. 前記表示制御部は、前記数値設定用ユーザインターフェースに加えて、前記現実空間における表示位置が固定された仮想オブジェクトを前記ヘッドマウントディスプレイに表示させ、
    前記拡張現実空間において、前記数値設定用ユーザインターフェースで前記仮想オブジェクトが覆い隠された部分の大きさが、設定された大きさ以上となった場合、前記仮想オブジェクトを覆い隠さない位置に前記数値設定用ユーザインターフェースの表示位置を移動させる請求項1ないし14のいずれか1項に記載の画像表示システム。
  16. 前記第1検出部および前記第2検出部は、前記ユーザの手の撮像画像を解析して前記ユーザの手を認識し、認識した前記ユーザの手の前記第1ジェスチャーおよび前記第2ジェスチャーを検出する請求項1ないし15のいずれか1項に記載の画像表示システム。
  17. 前記第1検出部および前記第2検出部は、前記ユーザの手にはめられたグローブに基づいて前記ユーザの手を認識する請求項16に記載の画像表示システム。
  18. 認識した前記ユーザの手と重なる前記数値設定用ユーザインターフェースの部分をマスクするマスク処理部を備える請求項16または17に記載の画像表示システム。
  19. ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間を前記ユーザに認識させるヘッドマウントディスプレイの制御装置において、
    設定可能な数値の範囲を示す範囲表示部と、現在設定されている前記数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、前記拡張現実空間において前記ユーザが仮想的に認識する仮想ユーザインターフェースとして前記ヘッドマウントディスプレイに表示させる表示制御部と、
    前記数値を設定するための前記ユーザの第1ジェスチャーを検出する第1検出部と、
    粗調整モードと微調整モードとを切り替えるための前記ユーザの第2ジェスチャーを検出する第2検出部であり、
    前記粗調整モードは、前記範囲が第1の範囲であるか、または/および前記数値の単位変動幅が第1の変動幅であるモードで、
    前記微調整モードは、前記範囲が前記第1の範囲と比較して狭い第2の範囲であるか、または/および前記単位変動幅が前記第1の変動幅と比較して狭い第2の変動幅であるモードであり、
    前記第1ジェスチャーに応じて、前記数値を変更する数値変更部と、
    前記第2ジェスチャーに応じて、前記粗調整モードと前記微調整モードとを切り替えるモード切替部とを備えるヘッドマウントディスプレイの制御装置。
  20. ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間を前記ユーザに認識させるヘッドマウントディスプレイの制御装置の作動方法において、
    設定可能な数値の範囲を示す範囲表示部と、現在設定されている前記数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、前記拡張現実空間において前記ユーザが仮想的に認識する仮想ユーザインターフェースとして前記ヘッドマウントディスプレイに表示させる表示制御ステップと、
    前記数値を設定するための前記ユーザの第1ジェスチャーを検出する第1検出ステップと、
    粗調整モードと微調整モードとを切り替えるための前記ユーザの第2ジェスチャーを検出する第2検出ステップであり、
    前記粗調整モードは、前記範囲が第1の範囲であるか、または/および前記数値の単位変動幅が第1の変動幅であるモードで、
    前記微調整モードは、前記範囲が前記第1の範囲と比較して狭い第2の範囲であるか、または/および前記単位変動幅が前記第1の変動幅と比較して狭い第2の変動幅であるモードであり、
    前記第1ジェスチャーに応じて、前記数値を変更する数値変更ステップと、
    前記第2ジェスチャーに応じて、前記粗調整モードと前記微調整モードとを切り替えるモード切替ステップとを備えるヘッドマウントディスプレイの制御装置の作動方法。
  21. ユーザの頭部に装着され、現実空間と仮想空間を融合させた拡張現実空間を前記ユーザに認識させるヘッドマウントディスプレイの制御装置の作動プログラムにおいて、
    設定可能な数値の範囲を示す範囲表示部と、現在設定されている前記数値を指し示す数値指示部とで構成される少なくとも1つの数値設定用ユーザインターフェースを、前記拡張現実空間において前記ユーザが仮想的に認識する仮想ユーザインターフェースとして前記ヘッドマウントディスプレイに表示させる表示制御機能と、
    前記数値を設定するための前記ユーザの第1ジェスチャーを検出する第1検出機能と、
    粗調整モードと微調整モードとを切り替えるための前記ユーザの第2ジェスチャーを検出する第2検出機能であり、
    前記粗調整モードは、前記範囲が第1の範囲であるか、または/および前記数値の単位変動幅が第1の変動幅であるモードで、
    前記微調整モードは、前記範囲が前記第1の範囲と比較して狭い第2の範囲であるか、または/および前記単位変動幅が前記第1の変動幅と比較して狭い第2の変動幅であるモードであり、
    前記第1ジェスチャーに応じて、前記数値を変更する数値変更機能と、
    前記第2ジェスチャーに応じて、前記粗調整モードと前記微調整モードとを切り替えるモード切替機能とを、コンピュータに実行させるヘッドマウントディスプレイの制御装置の作動プログラム。
JP2018527465A 2016-07-12 2017-06-19 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム Active JP6672458B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016137813 2016-07-12
JP2016137813 2016-07-12
PCT/JP2017/022488 WO2018012206A1 (ja) 2016-07-12 2017-06-19 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム

Publications (2)

Publication Number Publication Date
JPWO2018012206A1 true JPWO2018012206A1 (ja) 2019-05-16
JP6672458B2 JP6672458B2 (ja) 2020-03-25

Family

ID=60952947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527465A Active JP6672458B2 (ja) 2016-07-12 2017-06-19 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム

Country Status (5)

Country Link
US (1) US10664043B2 (ja)
EP (1) EP3486750B1 (ja)
JP (1) JP6672458B2 (ja)
CN (1) CN109478091A (ja)
WO (1) WO2018012206A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN109478339A (zh) * 2016-07-29 2019-03-15 三菱电机株式会社 显示装置、显示控制装置和显示控制方法
KR102567007B1 (ko) 2017-02-24 2023-08-16 마시모 코오퍼레이션 의료 모니터링 데이터 표시 시스템
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3622529A1 (en) 2017-05-08 2020-03-18 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
KR102552551B1 (ko) * 2017-05-19 2023-07-06 매직 립, 인코포레이티드 가상, 증강 및 혼합 현실 디스플레이 시스템들을 위한 키보드들
EP3542252B1 (en) * 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
US11080931B2 (en) * 2017-09-27 2021-08-03 Fisher-Rosemount Systems, Inc. Virtual x-ray vision in a process control environment
JP7006184B2 (ja) * 2017-11-27 2022-01-24 富士通株式会社 制御プログラム、制御方法および制御装置
CN108197596B (zh) * 2018-01-24 2021-04-06 京东方科技集团股份有限公司 一种手势识别方法和装置
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10712901B2 (en) 2018-06-27 2020-07-14 Facebook Technologies, Llc Gesture-based content sharing in artificial reality environments
US10783712B2 (en) 2018-06-27 2020-09-22 Facebook Technologies, Llc Visual flairs for emphasizing gestures in artificial-reality environments
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US11054896B1 (en) * 2019-02-07 2021-07-06 Facebook, Inc. Displaying virtual interaction objects to a user on a reference plane
CN209596544U (zh) * 2019-02-17 2019-11-08 上海狮峪智能科技有限公司 Vr自助游戏机头显装置
CN112433658B (zh) * 2019-08-26 2023-07-04 北京小米移动软件有限公司 亮度调节方法、装置、设备和存储介质
US11474614B2 (en) 2020-04-26 2022-10-18 Huawei Technologies Co., Ltd. Method and device for adjusting the control-display gain of a gesture controlled electronic device
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
JP2022065826A (ja) * 2020-10-16 2022-04-28 セイコーエプソン株式会社 操作方法及びプログラム
JP2022163813A (ja) * 2021-04-15 2022-10-27 キヤノン株式会社 装着型の情報端末、その制御方法及びプログラム
US11693551B2 (en) * 2021-05-21 2023-07-04 Huawei Technologies Co., Ltd. Methods and systems for providing feedback for multi-precision mid-air gestures on a gesture-controlled device
CN113961118B (zh) * 2021-08-30 2022-08-23 珠海读书郎软件科技有限公司 一种可实现屏幕截图方法的电子设备及方法
CN114527879A (zh) * 2022-02-25 2022-05-24 中国人民解放军空军工程大学航空机务士官学校 一种基于增强现实技术的航空机务飞行检查站位引导方法
US11531448B1 (en) * 2022-06-01 2022-12-20 VR-EDU, Inc. Hand control interfaces and methods in virtual reality environments

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP2009295147A (ja) * 2008-05-07 2009-12-17 Hoya Corp スクロール表示可能な情報処理装置
JP2013529802A (ja) * 2010-06-10 2013-07-22 マイクロソフト コーポレーション コンテンツジェスチャー
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9772759B2 (en) * 2011-10-14 2017-09-26 Apple Inc. Device, method, and graphical user interface for data input using virtual sliders
US9141198B2 (en) * 2013-01-08 2015-09-22 Infineon Technologies Ag Control of a control parameter by gesture recognition
KR102077305B1 (ko) * 2013-05-09 2020-02-14 삼성전자 주식회사 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10055018B2 (en) * 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
DE102014224599A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP2009295147A (ja) * 2008-05-07 2009-12-17 Hoya Corp スクロール表示可能な情報処理装置
JP2013529802A (ja) * 2010-06-10 2013-07-22 マイクロソフト コーポレーション コンテンツジェスチャー
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US20190146578A1 (en) 2019-05-16
WO2018012206A1 (ja) 2018-01-18
US10664043B2 (en) 2020-05-26
EP3486750B1 (en) 2023-10-18
EP3486750A1 (en) 2019-05-22
EP3486750A4 (en) 2019-07-10
CN109478091A (zh) 2019-03-15
JP6672458B2 (ja) 2020-03-25

Similar Documents

Publication Publication Date Title
JP6672458B2 (ja) 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
JP6706323B2 (ja) 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
JP6551502B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
EP2649409B1 (en) System with 3d user interface integration
EP3570771B1 (en) Augmented reality for radiation dose monitoring
CN114830066A (zh) 用于在三维环境中显示应用程序的设备、方法和图形用户界面
US20140068476A1 (en) Icon operating device
JP2018180840A (ja) ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
CA3105192A1 (en) Gaze based interface for augmented reality environment
US9013396B2 (en) System and method for controlling a virtual reality environment by an actor in the virtual reality environment
EP3907585B1 (en) Systems and methods of controlling an operating room display using an augmented reality headset
de Ridder et al. Exploration of virtual and augmented reality for visual analytics and 3d volume rendering of functional magnetic resonance imaging (fMRI) data
JP2012038025A (ja) 表示装置及び表示装置の制御方法、プログラム
Jota et al. Palpebrae superioris: Exploring the design space of eyelid gestures
USRE48221E1 (en) System with 3D user interface integration
US20120280910A1 (en) Control system and method for controlling a plurality of computer devices
WO2022208612A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
Sa-nguannarm et al. Hand movement recognition by using a touchless sensor for controlling images in operating room

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R150 Certificate of patent or registration of utility model

Ref document number: 6672458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250