JP2009517728A - 画像の非接触操作方法 - Google Patents

画像の非接触操作方法 Download PDF

Info

Publication number
JP2009517728A
JP2009517728A JP2008541877A JP2008541877A JP2009517728A JP 2009517728 A JP2009517728 A JP 2009517728A JP 2008541877 A JP2008541877 A JP 2008541877A JP 2008541877 A JP2008541877 A JP 2008541877A JP 2009517728 A JP2009517728 A JP 2009517728A
Authority
JP
Japan
Prior art keywords
contact
axis
image
input device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008541877A
Other languages
English (en)
Inventor
ブルーム,ヘリット−ヤン
チェン,ヌジン−ズゥ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009517728A publication Critical patent/JP2009517728A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は非接触入力装置(210)を通して画像の非接触操作を与えるための方法に関し、この方法は、非接触入力装置の検知領域(206,208)の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択することと、前記選択された操作モード特性に従い前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作することを有する。本発明は、更に、コンピュータプログラム、コンピュータ記録媒体、表示装置及び医療ワークステーションに関する。

Description

本発明は、コンピュータプログラム本発明は非接触入力装置により画像を非接触で操作する方法に関する。
本発明は、更に、コンピュータ装置によってロードされる非接触入力装置により画像の非接触入力を与えるための指令を有するコンピュータプログラムに関し、コンピュータは処理ユニットとメモリを備え、コンピュータプログラムはロードされた後、前記処理ユニットに画像の非接触操作を与えるタスクを実行する能力を与える。
本発明は、更に、画像の非接触操作を実行するデータを有するコンピュータにより読み取り可能な記録媒体に関する。
本発明は、更に、画像を表示するディスプレイと画像の非接触操作を与えるための非接触入力装置とを有する表示装置に関し、非接触入力装置は画像の非接触操作を実行するように設計されたプロセッサを有している。
本発明は、更に、画像を表示する表示装置と画像の非接触操作を与えるための非接触入力装置を備える医療ワークステーションに関し、非接触入力装置は画像の非接触操作を実行するように設計されたプロセッサを有している。
非接触入力装置は良く知られている。例えば、米国特許出願2002/0000977 A1は、スクリーン面上の透明なシールド層上に形成された透明キャパシフレクタカメラ(capaciflector camera)を備える3次元対話型表示システムを開示しており、そのシステムはスクリーン面の近傍に入り込むプローブ又は指のような対象物を検知することができる。
米国特許第6,025,726号(特許文献1)は、非接触検知領域を与えるために電界検知が使用される容量型検知の代替技術を開示している。
米国特許第6,130,663号(特許文献2)には他の代替技術が開示され、ここでは、要素から空間的に離れた所定のフィールド内で指のような制御対象の存在に応答するコンピュータディスプレイのグラフィック要素のような制御される要素の光学的非接触駆動を与えるために電気−光学スキャナが使用される。
更に、非接触入力装置はユーザーのより進んだ応答を可能とする。例えば、米国特許出願2005/0088409(特許文献3)は、非接触入力装置の検知領域の面内におけるユーザーの手の位置に対応する位置にディスプレイ上にポインタを表示するステップを含むグラフィカル ユーザー インターフェース(GUI)のためのディスプレイを提供する、方法、コンピュータプログラム、コンピュータにより読み取り可能な記録媒体及び入力装置を開示している。特に、この方法は、更に、ユーザーの手と検知領域内又はこれに隣接して位置する基準点との間、或いは検知領域を通して又はこれに隣接して位置する第1の面に平行な基準面との間の距離をディスプレイ上で表示するステップを有している。指示を表示することにより、ユーザーはいかなる与えられた手の位置に対しても感度の表示が与えられ、表示されたポインタを操作することができる。この感度は、非接触入力装置がユーザーの手の位置を測ることができる精度によって決定される。この精度は手がディスプレイに近づく程増加し、手がディスプレイから遠くに動くと減少する。しかしながら、このことはユーザーの装置との相互作用の予測可能性を制限することとなる。
米国特許第6,025,726号 米国特許第6,130,663号 米国特許出願2005/0088409
本発明の目的は、ユーザーが非接触入力装置との相互作用の予測可能性を支配することを可能とする方法を提供することである。
この目的を達成するため、本発明は導入項による方法を提供するものであり、この方法は、非接触入力装置の検知領域面に対して第1の軸に沿うユーザーの非接触の相互作用に応答して画像による操作特性を選択することと、操作モードの選択された特性に従って前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作することを含む。操作モードの特性を非接触装置の検査領域の面に対する第1の軸に関連付けることにより、ユーザーは対象物、例えば手をその軸に沿って動かすことによりその特定の特性を変えることができる。したがって、対象物を画像の予測される操作を与える第2の軸に沿って動かすことによって、得られる操作モードを画像に適用することができる。
本発明による方法の更なる例においては、第2の軸は前記平面に対して実質的に平行である。ユーザーが相互作用モードを操作することを可能とする軸として前記平面に対して実質的に平行軸を使用することにより、どの動きが所望の画像の操作であるかユーザーにとって明らかとなる。
本発明による方法の更なる例においては、その方法は、操作モードの特性を表示することを含む。操作モードの特性を表示することにより、ユーザーは選択された特性に関する付加的なフィードバックと操作モードについてその結果を得ることができる。
本発明による方法の更なる例においては、操作モードの表示された特性はその特性の値に比例する。表示された特性をその値に比例させることにより、ユーザーは選択された特性に関して更なるフィードバックを得る。例えば、その特性が高い値を持つときは、表示される特性は大きなサイズを持ち、特性が低い値を持つときは、表示される特性は小さい値を持つ。
本発明による方法の更なる例においては、操作モードは、明るさ、コントラスト、ズーム又は回転の一つであり、特性はそれに対応するステップのサイズとなる。一つの軸に沿ってステップのサイズを設定し、操作モードに対して直交する軸を使用することにより、ユーザーは、対象物、例えば、指を対応する軸に沿って動かすことによる操作の実行と設定したステップのサイズとの関係を容易に識別することができる。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測可能性を支配することを可能とするコンピュータプログラムを提供することにある。この目的を達成するため、コンピュータ装置によってロードされるコンピュータプログラムを提供することにあり、このコンピュータプログラムは、非接触入力装置を通じて画像の非接触操作を与えるための指令を含み、コンピュータ装置は、プロセスユニット、メモリ、ロードされたコンピュータプログラムを有し、前記プロセスユニットには以下のタスクを実行する能力を有する:
非接触入力装置の面の検知領域に関して第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作の特性を選択すること、及び、操作モードの選択された特性に従って前記第1の軸に直交する第2の軸に沿うユーザーの非接触の相互作用に応答して画像を操作すること。
本発明の更なる目的は、ユーザーが非接触入力装置との相互作用の予測可能性を支配することを可能とするコンピュータにより読み取り可能な記録媒体を提供することにあり、このコンピュータにより読み取り可能な記録媒体は本発明の方法又は本発明による実施例の方法を実行する指令を表す記録されたデータを有する。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測性に影響を与えることを可能とする表示装置を提供することであり、この表示装置は、ディスプレイと、非接触入力装置と本発明による方法又は本発明の実施例による方法を実行するように設計されたプロセッサを有する。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測性に影響を与えることを可能とする医療ワークステーションを提供することであり、この医療ワークステーションは、ディスプレイと、非接触入力装置を備え、この非接触入力装置は本発明の方法又は本発明の実施例の方法を実行するように設計されたプロセッサを有している。
上記目的とその効果は、上記方法を参照して述べたコンピュータプログラムと、コンピュータにより読み取り可能な記録媒体と、表示装置と医療ワークステーションによって達成される。
これらの、或いは本発明の他の態様は以下の図面を参照して説明される実施例により明らかにされるであろう。
図1は、本発明の方法を図式的に示す図であり;
図2は、非接触入力装置をユーザーの手による非接触操作と共に示す図であり;
図3は、操作モードの特性の視覚的フィードバックを示す図であり、
図4aは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がZのときの場合について示す図であり;
図4bは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がyのときの場合について示す図であり;
図5は、本発明による非接触入力装置を有する表示装置を示す図である。
図1は本発明による方法を図式的に示す図である。本方法を説明するために図2を参照する。図2非接触入力装置210をユーザーの手208と共に示す図である。検知領域においてユーザーの手が検知される空間が206と208により示されている。この空間は二つの”箱”で示されているが、これは、空間全体が使用できるため、単に説明のためだけである。非接触入力装置210は面202と接続されている。代表的な応用例では、この面202はディスプレイにより形成され、検知領域は非接触入力装置210によりディスプレイの前面に形成されている。本方法は初期化ステップS102により開始される。直交座標システムが検知領域の空間に割り当てられる。このシステムの2つの次元が検知領域の空間に割り当てられている。一つが操作モードの特性を選択するためのものであり、他方がユーザーの非接触相互作用に応答する画像データを操作のためのものである。例えば、図2においては、カルテシアン座標システムが用いられる。カルテシアン座標システム212は非接触入力装置の検知領域の空間に割り当てられ、x軸は、図2に示されるように、非接触入力装置210の検知領域の面210に実質的に平行である。Y軸は面202に実質的に平行でx軸に直交しており、z軸は面20に実質的に垂直で、x軸に直交している。更に、x軸は二つの領域に分けられている。増加領域と減少領域である。ユーザーが対象物、例えば、ユーザーの手208を増加領域内でx軸に沿って保持したとき、ズームのような操作モードの値は増加する。ユーザーが対象物、例えば、ユーザーの手208を減少領域内でx軸に沿って保持したとき、その操作モードの値は減少する。
更に、残りの一つの軸は操作モードの値の特性を変えるために使用される。例えば、z軸にステップのサイズを割り当てることができが、y軸も同様に使用することができる。ユーザーがユーザーの手208のような対象物をz軸の一つの方向に動かすと特性値は増加する。ユーザーがユーザーの手208のような対象物をz軸の他の方向に動かすと特性値は減少する。
本方法の残りのステップは、上述したような非接触入力装置に接続されているディスプレイにより表示される画像を操作することを望むような一つの応用例で説明される。この目的のために、ユーザーはそれにより画像を操作することを望む操作モードを選択する。これらに限定されない操作モードの例としては:ズーム、回転、ウインドウ幅、ウインドウレベル、コントラスト、明るさがある。ユーザーが画像をズームすることにより画像を操作することを選択する場合を考えてみよう。
次のステップS104において、彼の手をz軸の沿って動かしてこのズームファクターのステップサイズを選択する。即ち、彼が小さいステップサイズで画像をズームすることを望むときは、彼は手を減少する方向、例えばディスプレイの方向に動かす。しかしながら、彼が大きいステップサイズで画像をズームすることを望むときは、彼は手を増加方向、例えば、ディスプレイから離れる方向に動かす。これは、例えば20のステップサイズのようなズームファクターの特定のステップサイズをもたらす。
ステップS106において、ユーザーは画像を操作する、即ち、操作モードの値の操作を可能とするように割り当てられたx軸に沿って画像をズームする。したがって、ここでは20のステップサイズによりズームファクターが増加又は減少する。この増加又は減少は手がx軸に沿って置かれる位置に従って増加又は減少する。
ステップファクターを変更、即ち、増加又は減少は、手をz軸に沿って動かすことにより達成され、その後は、ユーザーは新しくセットされたステップサイズで画像をズームすることができる。ステップサイズの調整とその操作モードへの適用は何回も行うことができる。
本方法はステップ108で終了し、その後は操作モードと特性はカルテシアン座標システムの異なる軸が割り当てられる。
図3は操作モードの特性の視覚的フィードバックを示す。特性値についてユーザーにフィードバックを与えるために、ディスプレイ302の所定の位置が視認できる指標を表示するために使用される。その所定の位置については、できるだけ表示される情報のじゃまとならないように、図3に示すようにディスプレイのコーナーの部分が選択される。視認できる指標については、“+”の符号がズームファクターの増加を示す場合に示され、“−”の符号がズームファクターが減少する場合に示される。上向き矢印や下向き矢印のような他の指標も示すことができる。符号のサイズを特性値に比例させることが有利であり、ステップサイズが高いときはより大きくし、ステップサイズが低いときはより小さくする。これは304と306により図式的に示されている。
図4aはステップサイズとユーザーの手によるZ軸方向への非接触操作との関係を示す。図示されたグラフの軸は上述の検知領域の面に関する軸と関連している。軸402は非接触入力装置のz軸に沿う検知領域との対象物の距離を示し、軸404は特性値のステップサイズを示す。このグラフでは、検知領域における距離が増加するときステップサイズが増加することを示している。
図4bはユーザーの手のy軸方向の非接触操作とステップサイズとの関係を示している。示されたグラフの軸は上述したような検知領域の面に関する軸と関連している。軸406は非接触入力装置の検知領域の面に実質的に平行なy軸に沿う対象物の垂直方向の動きを示す。軸408は特性値のステップサイズを示す。このグラフでは、検知領域における距離が増加するとき、ステップサイズがリニアに増加することを示している。
図4aと図bの両方において、グラフの形態は例示のものであり、他の形態、即ち、対象物の位置と特性値との関係も、また、本発明のコンセプトから離れない範囲において可能となる。
図5は本発明による非接触入力装置を備える表示装置を示す。表示装置516は、本発明に従って通常の平坦なパネルディスプレイ504にスクリーンディスプレイを形成するように設計され、図示されない非接触入力装置と共にその非接触入力装置に接続されるコンピュータ502を備えている。本発明は、非接触入力装置の検知領域において位置する又は動く対象物の3次元座標を与える入力装置に適用することができる。このような入力装置の例は既に述べられている。
このコンピュータは、他にプロセッサ506とランダムアクセスメモリ510のような一般的目的のメモリを備えている。このプロセッサとメモリはソフトウエアバス508を介して通信可能に接続されている。メモリ510は、プロセッサ506に、それに接続されている非接触入力装置と共に既に記載されたような本発明による方法を実行させることができるように設計された命令を含むコンピュータ読み取り可能なコードを有している。
コンピュータにより読み取り可能なコード514はコンパクトディスク(CD)又はデジタル多目的/ビデオディスク(DVD)又は他の記憶媒体のようなコンピュータにより読み取り可能な記録媒体を介してダウンロードすることができる。コンピュータにより読み取り可能なコード514は、また、インターネットとこれらをダウンロードすることのできる好適な媒体を備えるコンピュータを介してダウンロードすることができる。
本発明は医療環境において有利に適用することができる。例えば、患者に手術が行われる手術シアターの例について考えよう。患者の医療画像を示す手術シアターには医療ワークステーションが設けられている。この医療ワークステーションは、本発明に従って既に述べたユーザーの相互作用を可能とするスクリーンディスプレイを生成するように設計された非接触入力装置とコンピュータを備えている。手術の前に画像を得ることができるが、手術中においても画像を得ることができる。外科医は無菌環境において手術を行い、また、この環境を守るためにワークステーションに直接接触することを避けなければならない。ここで、本発明は画像を直接接触することなく操作することを可能とする。
本発明の方法の実施例に記載された順序は必須のものではなく、当業者であれば、本発明により意図されたコンセプトから離れない範囲においてステップの順序を変更し、または、変更モデル、マルチプロセッサシステム、或いは多重プロセスを同時に使用してステップを実行してもよい。
上述の実施例は本発明を限定的に説明するものであり、当業者は添附のクレームの範囲から離れない範囲で代替的な実施例を設計することができるであろうことは留意すべきである。クレームにおいては、いかなる括弧内の参照符号もクレームを限定するものとして解釈されるべきでない。“有する”の用語はクレームに挙げられたステップ以外のステップの存在を排除するものではない。要素の前の“一つの”はそのような要素を複数持つことを排除するものではない。本発明は複数の明確な要素を備えるハードウエアと、適切なコンピュータプログラムによって実行される。ある手段が互いに異なる従属クレームにおいて記載されているという事実のみでこれらの手段の組み合わせが有利に使用することができないということを示すということにはならない。
本発明の方法を図式的に示す図である。 非接触入力装置をユーザーの手による非接触操作と共に示す図である。 操作モードの特性の視覚的フィードバックを示す図である。 ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がZのときの場合について示す図である。 ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がyのときの場合について示す図である。 本発明による非接触入力装置を有する表示装置を示すである。

Claims (9)

  1. 非接触入力装置を介して画像の非接触操作を与える方法であって、
    非接触入力装置の検知領域の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択することと、
    前記選択された操作モード特性に従い前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作すること、
    を有する方法。
  2. 前記第2の軸は前記面に実質的に平行である請求項1に記載の方法。
  3. 操作モードの特性を表示することを更に有する請求項1に記載の方法。
  4. 前記表示される操作モード特性は特性の値に比例する請求項3に記載の方法。
  5. 前記操作モードは、明るさ、コントラスト、ズーム又は回転のうちの一つであり、前記特性は対応する操作モードのステップの大きさである請求項1に記載の方法。
  6. コンピュータ装置によりロードされるコンピュータプログラムであって、
    非接触入力装置によって画像の非接触操作を与える命令を含み、前記コンピュータ装置はプロセスユニットとメモリを有し、前記コンピュータプログラムは、ロードされた後は、前記プロセスユニットに以下のタスクを実行する能力を与えるコンピュータプログラム:
    -前記非接触入力装置の検知領域の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択すること、及び
    -前記選択された操作モード特性に従い前記第1の軸に対して直交する第2の軸に沿うユーザーの非接触相互作用に応答して前記画像を操作すること。
  7. 請求項1から5のいずれかの方法を実行する命令を表す記録されたデータをその上に有するコンピュータにより読み取り可能な記録媒体。
  8. ディスプレイと、非接触入力装置と、請求項1から5のいずれかの方法を実行するように設計されたプロセッサを有し、画像の非接触操作を与えるための表示装置。
  9. ディスプレイと画像の非接触操作を与える非接触入力装置を有する医療ワークステーションであって、前記非接触入力装置は、請求項1から5のいずれかの方法を実行するように設計されたプロセッサを有する医療ワークステーション。
JP2008541877A 2005-11-25 2006-11-21 画像の非接触操作方法 Withdrawn JP2009517728A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05111291 2005-11-25
PCT/IB2006/054354 WO2007060606A1 (en) 2005-11-25 2006-11-21 Touchless manipulation of an image

Publications (1)

Publication Number Publication Date
JP2009517728A true JP2009517728A (ja) 2009-04-30

Family

ID=37814538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008541877A Withdrawn JP2009517728A (ja) 2005-11-25 2006-11-21 画像の非接触操作方法

Country Status (5)

Country Link
US (1) US20080263479A1 (ja)
EP (1) EP1958040A1 (ja)
JP (1) JP2009517728A (ja)
CN (1) CN101313269A (ja)
WO (1) WO2007060606A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130857A (ja) * 2009-12-23 2011-07-07 Morita Mfg Co Ltd 医療用診療装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007011152U1 (de) * 2007-08-09 2007-12-13 S-Cape Gmbh Digitales Röntgenbildbetrachtungsgerät für die medizinische Diagnostik
WO2009049681A1 (en) * 2007-10-19 2009-04-23 Vascops Automatic geometrical and mechanical analyzing method and system for tubular structures
JP2010279453A (ja) * 2009-06-03 2010-12-16 Sony Corp 医療用電子機器および医療用電子機器の制御方法
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
JP6179412B2 (ja) * 2013-01-31 2017-08-16 株式会社Jvcケンウッド 入力表示装置
US20140282274A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US9063578B2 (en) * 2013-07-31 2015-06-23 Microsoft Technology Licensing, Llc Ergonomic physical interaction zone cursor mapping
US9390726B1 (en) 2013-12-30 2016-07-12 Google Inc. Supplementing speech commands with gestures
US9213413B2 (en) 2013-12-31 2015-12-15 Google Inc. Device interaction with spatially aware gestures
JP2017533487A (ja) 2014-08-15 2017-11-09 ザ・ユニバーシティ・オブ・ブリティッシュ・コロンビア 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム
EP3582707A4 (en) 2017-02-17 2020-11-25 NZ Technologies Inc. PROCEDURES AND SYSTEMS FOR CONTACTLESS CONTROL OF A SURGICAL ENVIRONMENT
WO2021214069A1 (en) * 2020-04-24 2021-10-28 Leica Instruments (Singapore) Pte. Ltd. Microscope system and corresponding system, method and computer program for a microscope system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612719A (en) * 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5844415A (en) * 1994-02-03 1998-12-01 Massachusetts Institute Of Technology Method for three-dimensional positions, orientation and mass distribution
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6130663A (en) * 1997-07-31 2000-10-10 Null; Nathan D. Touchless input method and apparatus
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20030025676A1 (en) * 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
US20030095154A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US7312788B2 (en) * 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
GB0311177D0 (en) * 2003-05-15 2003-06-18 Qinetiq Ltd Non contact human-computer interface
JP2005141102A (ja) * 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
EP1815424B1 (en) * 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130857A (ja) * 2009-12-23 2011-07-07 Morita Mfg Co Ltd 医療用診療装置

Also Published As

Publication number Publication date
US20080263479A1 (en) 2008-10-23
CN101313269A (zh) 2008-11-26
WO2007060606A1 (en) 2007-05-31
EP1958040A1 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP2009517728A (ja) 画像の非接触操作方法
JP4820285B2 (ja) 自動位置合わせタッチシステムおよび方法
CN104025005B (zh) 显示装置以及显示方法
JP5782025B2 (ja) 表示のためのシステム及び方法
US10671188B2 (en) Method for using a two-dimensional touchpad to manipulate a three dimensional image
US10629002B2 (en) Measurements and calibration utilizing colorimetric sensors
JP2006513503A (ja) 三次元表示における複数箇所を管理する装置及び方法
CN102985942A (zh) 放大显示的图像
US20090153472A1 (en) Controlling a viewing parameter
JP2005519368A (ja) Guiのためのディスプレイを提供する方法
US20030146938A1 (en) Fast scrolling through image sets containing markers
CN103608761A (zh) 输入设备、输入方法以及记录介质
JP2020170297A (ja) 入力装置
US9940715B2 (en) Diagnosis support apparatus, method for the same, and non-transitory computer-readable storage medium
US20010024200A1 (en) Display for a graphical user interface
US11086513B2 (en) Method and apparatus for displaying function of button of ultrasound apparatus on the button
US20070186191A1 (en) Method of visualizing a pointer during interaction
KR102411600B1 (ko) 초음파 진단 장치 및 이의 제어 방법
CN113467605B (zh) 用于对可视化数据进行预处理的方法、计算机程序产品和处理电路***
WO2023248573A1 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP2023010138A (ja) 入力装置、入力方法、及び入力プログラム
US8878772B2 (en) Method and system for displaying images on moveable display devices
JP2023010137A (ja) 入力装置、入力方法、及び入力プログラム
JP2017117166A (ja) 電子機器、プログラム
TW200923760A (en) Method of providing a graphical user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091119

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100423