JP2010108500A - 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 - Google Patents

着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 Download PDF

Info

Publication number
JP2010108500A
JP2010108500A JP2009248773A JP2009248773A JP2010108500A JP 2010108500 A JP2010108500 A JP 2010108500A JP 2009248773 A JP2009248773 A JP 2009248773A JP 2009248773 A JP2009248773 A JP 2009248773A JP 2010108500 A JP2010108500 A JP 2010108500A
Authority
JP
Japan
Prior art keywords
wearable computing
measuring
user
user interface
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009248773A
Other languages
English (en)
Inventor
Yongki Son
ヨンキ ソン
Jeongmook Lim
ジョンムク イム
Dongwoo Lee
ドンウ イ
Hyuntae Jeong
ヒュンテ ジョン
Ilyeon Cho
イルヨン チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2010108500A publication Critical patent/JP2010108500A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】本発明は、着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法に関する。
【解決手段】ユーザの指あるいは手首付近に着用され、光信号を発生する位置指示器機から発生された光信号を受信し、ユーザ前面の映像をそれぞれ計測するためのイメージセンサを備えた複数の映像計測部を含む信号計測手段、および信号計測手段によって計測されたそれぞれの映像を分析して3次元座標を計算し、信号計測手段によって受信された光信号から3次元座標上でユーザの手の動きパターンを認識し、対応する命令を出力する信号処理手段を備える。
【選択図】図1

Description

本発明は、着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法に関し、より詳しくは、着用型コンピューティング環境に適しながら、ユーザ前面の3次元空間上においてユーザの両手の動きを着用型システムあるいは周辺装置の入力によって使用することができる着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法に関する。
既存にシステムが備えられた制限された空間において、ユーザの動き、特に手の動きを検出して人間とコンピュータとの間の相互作用(interaction)として用いようとする多くの試みが研究されて来た。既存のシステムには、ユーザが手袋形態の装置を着用したり、適切に備えられて定められた制限された場所でのみ入力を実行することができるという短所がある。
また、現在市販されている3次元空間マウスあるいはペンのような装置は、ジャイロセンサを用いてユーザの手の動きを計測し、ユーザ入力として使用している。この装置もユーザが把持して用いなければならず、ユーザが必要な場合に持ち歩かなければならないという不便さがある。
アップル(登録商標)社のIpod Touch(登録商標)、マイクロソフト(登録商標)社のSurface(登録商標)、ジェフハンのMulti−Touch装置のようなマルチタッチは、装置のディスプレイにタッチを適用してマルチタッチの長所を最大限に発揮しているが、手に装置を把持したり制限された装置で使用しなければならないという不便さがある。
特に、装置あるいはコンピュータを体に付着あるいは着用して持ち歩く着用型システムのためのユーザインターフェースの場合、装置を持ち歩かなければならない移動性およびユーザが手軽に使用して持ち歩くことができる着用性のような要素を考慮して設計しなければならない。
特開平10−031551号公報
上述した課題を解決するために、本発明は、着用型コンピューティング環境に適しながら、ユーザ前面の3次元空間上においてユーザの手のような動きによって着用型システムあるいは周辺装置の入力として使用することができる着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法を提供することを目的とする。
上述した目的を達成するために、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置は、ユーザの手首付近に着用されて光信号を発生する位置指示器機、前記位置指示器機から発生された光信号を受信し、ユーザ前面の映像をそれぞれ計測するためのイメージセンサを備えた複数の映像計測部を含む信号計測手段、および前記信号計測手段によって計測されたそれぞれの映像を分析して3次元座標を計算し、前記信号計測手段によって受信された光信号から前記3次元座標上でユーザの手の動きパターンを認識し、対応する命令を出力する信号処理手段を備えることを特徴とする。
前記信号計測手段は、イメージセンサを備えた複数の映像計測部、およびユーザの動きから身体の揺れ程度を計測する身体揺れ計測部を備えることを特徴とする。
前記身体揺れ計測部は、慣性センサを備えることを特徴とする。
前記映像計測部は、前記位置指示器機から発生された位置信号と前記映像を区分するためのフィルタを備えることを特徴とする。
前記信号処理手段は、前記複数の映像計測部に備えられたイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする。
前記信号処理手段は、前記複数の映像計測部によって計測された各映像から2次元座標を抽出する2次元座標計算部を備え、前記2次元座標計算部によって抽出された2次元座標および前記位置信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする。
前記信号処理手段は、前記身体揺れ計測部によって計測された身体の揺れ程度に基づいて、前記映像計測部から計測された映像の揺れを補正する身体揺れ補正部をさらに備えることを特徴とする。
前記位置指示器機は、ユーザの手の位置移動ごとに位置信号を発生する位置信号発生手段、およびユーザから制御命令の入力を受ける入力信号計測手段を備え、前記入力信号計測手段に入力されたユーザ制御命令に基づいて前記位置信号発生手段の動作を制御することを特徴とする。
前記位置信号発生手段は、前記位置信号を光信号形態で発生することを特徴とする。
一方、上述した目的を達成するために、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース方法は、ユーザの手首付近に着用されて位置信号を発生する位置指示器機から発生された位置信号を受信し、ユーザ前面の映像を計測するステップ、前記計測するステップで計測された映像から3次元座標を計算するステップ、前記計測するステップで受信された位置信号からユーザの手の位置を把握し、前記計算された3次元座標上でユーザの手の動きパターンを認識するステップ、および前記認識するステップで認識された動きパターンに対応する命令を出力するステップを備えることを特徴とする。
前記計測するステップは、前記ユーザの動きから身体の揺れ程度を計測するステップを備えることを特徴とする。
前記計測された身体の揺れ程度に基づいて、前記計測するステップで計測された映像の揺れを補正するステップをさらに備えることを特徴とする。
前記計算するステップは、前記計測するステップで映像を計測する複数のイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする。
前記計算するステップは、前記複数の映像計測手段によって計測された各映像から2次元座標を抽出するステップを備え、前記抽出された2次元座標、および前記計測するステップの前記位置信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする。
前記位置信号は、ユーザの手の位置移動ごとに前記位置指示器機によって発生されることを特徴とする。
前記位置信号は、ユーザから前記位置指示器機に手の動きの開始と終了を知らせる信号が入力されれば、前記入力された信号に基づいて発生されることを特徴とする。
前記位置信号は、光信号形態で発生されることを特徴とする。
本発明によれば、ユーザ前面の3次元空間上において両手でジェスチャを取るとき、その動きを追跡して3次元的な所定のパターンとして認識して処理することにより、ユーザが移動しながらコンピュータを使用しなければならない着用型コンピューティング環境においてユーザ空間にマルチポイント入力機能を支援し、ユーザディスプレイ上のオブジェクトを選択したり操作する方法において、まるで空間内の事物を操作するようなユーザ親和的な入力インターフェースを支援することができるという利点がある。
本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置の動作を説明するために参照される図である。 本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置の動作を説明するために参照される図である。 本発明に係るユーザインターフェース装置の動き処理器機に対する構成を示すブロック図である。 本発明に係るユーザインターフェース装置の位置指示器機に対する構成を示すブロック図である。 本発明に係る映像計測方法を説明するために参照される例示図である。 本発明に係る位置座標計測方法を説明するために参照される例示図である。 本発明に係るユーザインターフェース方法に対する動作の流れを示すフローチャートである。
以下、添付の図面を参照しながら、本発明の実施形態について次のように説明する。
図1および図2は、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置を説明するために参照される図である。図1および図2を参照すれば、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置は、手首付近に装着され、手の動きを感知する位置指示器機20と、位置指示器機20によって感知された信号から手の動きを認識し、それに対応する動作を処理する動き処理器機10とを備える。
まず、ユーザは、図1のように、着用型コンピューティングの壁面型ディスプレイ装置あるいはHMD(Head Mounted Display)のような実際のディスプレイ画面1ではなく、仮想のディスプレイ画面2上でディスプレイ画面1を制御するために手を動かすようになる。
ここで、手の動きは、文字、記号、ジェスチャなど、ユーザが表現することができるすべてのものが該当し、片手だけではなく両手による複合的なジェスチャも該当する。
したがって、ユーザは、仮想のディスプレイ画面2で両手を用いて入力することにより、実際にユーザの目の前に出力される事物をマルチタッチと類似するように3次元空間上で制御することができる。特に、図2に示すように、めがね形態の両終端に付着された複数の映像計測部11a、11bを介してユーザ前面の一定の3次元空間内で入力を実行することができ、該当空間は、複数の映像計測部11a、11bからの画角によって決定される。
このとき、位置指示器機20は、複数備えられることができる。位置指示器機20は、腕輪形態で具現され、ユーザの片手首または両手首にすべて着用することができる。これだけでなく、位置指示器機20は、指輪形態で具現されてユーザの指に着用することもできる。これにより、本発明の実施形態では、位置指示器機20が腕輪形態で具現されてユーザの両手首に着用された場合を例示したが、これに限定されるものではない。位置指示器機20に対する具体的な説明は、図4を参照する。
一方、動き処理器機10は、位置指示器機20と同様にユーザの体に着用が可能な形態で具現され、その実施例としては、めがね、帽子、服などのように身体のあらゆる部分に着用することもできる。本発明の実施形態では、ユーザの視覚で見るのと同じ効果を出すために、動き処理器機10がめがね形態で具現されたことを例示する。
動き処理器機10には、複数の映像計測部11a、11bが備えられる。このとき、複数の映像計測部11a、11bは、それぞれ互いに異なる位置に配置され、該当の位置において位置指示器機20から発生される信号を計測する。動き処理器機10に対する具体的な説明は、図3を参照する。
図3は、本発明に係る動き処理器機10の構成を示すブロック図である。図3に示すように、本発明に係る動き処理器機10は、信号計測手段11と、命令入力手段13と、信号処理手段15と、通信手段17とを備える。
また、信号計測手段11は、第1映像計測部11aと、第2映像計測部11bと、身体揺れ計測部11cとを備える。
第1映像計測部11aおよび第2映像計測部11bは、互いに異なる位置に配置され、図2に示すように、めがねの両終端に配置することができる。勿論、図3では、第1映像計測部11aと第2映像計測部11bが備えられたことを例示したが、第3映像計測部などさらに多くが備えられることもできる。
このとき、第1映像計測部11aおよび第2映像計測部11bは、位置指示器機20から発生された信号を計測することができるイメージセンサであることを例示する。勿論、位置指示器機20によって発生される赤外線、可視光線、レーザなどの形態を有することができる。
また、第1映像計測部11aおよび第2映像計測部11bは、位置指示器機20から発生された信号を受信し、受信された信号からユーザの手の位置を感知する。このとき、第1映像計測部11aおよび第2映像計測部11bには、イメージセンサによって計測される映像信号と位置指示器機20から受信された信号を区分するための物理的なフィルタが備えられる。
このとき、物理的なフィルタとしては、赤外線通過帯域フィルタなどが該当することができる。赤外線通過帯域フィルタは、可視光線による干渉を除去することにより、第1映像計測部11aおよび第2映像計測部11bが赤外線信号をより明確に計測できるようにする。
一方、身体揺れ計測部11cは、ユーザの身体の揺れ程度を計測する。身体揺れ計測部11cは、手の動きを計測する場合、ユーザ身体の揺れによる誤差が発生することを補うために、慣性センサ(IMU:Inertial Measurement Unit)を追加で備えることができる。このとき、身体揺れ計測部11cは、計測された信号を信号処理手段15に伝達する。
命令入力手段13は、ユーザから制御命令の入力を受けるための手段であり、動き器機からの制御命令を受信するための通信モジュールを備える。
位置指示器機20にユーザからの制御命令が入力されれば、位置指示器機20は、動き処理器機10に該当の命令を送信する。したがって、命令入力手段13は、位置指示器機20からの制御命令を受信して信号処理手段15に伝達する。
信号処理手段15は、2次元座標計算部15aと、3次元座標計算部15bと、身体揺れ補正部15cと、パターン認識部15dと、命令処理部15eとを備える。
まず、2次元座標計算部15aは、第1映像計測部11aおよび第2映像計測部11bによって計測された映像から位置指示器機20が配置された領域、すなわち、手が位置した領域に対する2次元座標を計算する。このとき、2次元座標計算部15aは、それぞれの計測映像において点形態で示される赤外線イメージの2次元座標を抽出する。
この後、3次元座標計算部15bは、2次元座標計算部15aによって抽出された2次元座標を用い、該当の位置における3次元座標を計算する。3次元座標の計算のためのモデルは、図6を参照する。
このとき、第1映像計測部11aおよび第2映像計測部11bと、2次元座標計算部15a、3次元座標計算部15bは、複合的に具現され、1つのプロセッサとして処理されることができる。
身体揺れ補正部15cは、身体揺れ計測部11cによって計測された信号から身体の揺れ程度を把握する。このとき、身体揺れ補正部15cは、把握された情報に基づいて、第1映像計測部11aおよび第2映像計測部11bによって計測された映像に対する身体の揺れを補正する。
パターン認識部15dは、身体揺れ補正部15cによって補正された映像から、3次元座標計算部15bによって計算された3次元座標における動きパターンを認識する。
この後、命令処理部15eは、パターン認識部15dによって認識された動きパターンに対応する命令を抽出し、通信手段を介して着用型コンピュータに送信する。
命令処理部15eは、有無線通信インターフェースを介して他の器機と連結し、該当の器機に命令を伝達することもできる。このとき、3次元座標計算部15b、パターン認識部15d、および命令処理部15eは、2次元座標計算部15aに通信インターフェースを付加し、外部の他の器機でも処理することができる。
一方、図4は、本発明に係る位置指示器機20の構成を示すブロック図である。図4を参照すれば、本発明に係る位置指示器機20は、位置信号発生手段21と、入力信号計測手段23と、信号処理手段25と、通信手段27とを備える。
位置信号発生手段21は、該当の位置指示器機20の現在位置を知らせるための位置信号を発生する手段である。位置信号発生手段21は、赤外線、可視光線、レーザなどのように、動き処理器機10の第1映像計測部11aおよび第2映像計測部11bによって計測が可能な信号形態で出力する。
入力信号計測手段23は、ユーザから制御命令の入力を受ける手段である。すなわち、ユーザは、コンピュータ入力装置であるマウスのクリックのような動作により、現在ユーザが行っている手の動きの有効性を指示する。このとき、入力信号計測手段23は、指輪形態のボタン操作、指または手首接触音、筋電図などを計測することにより、ユーザからの制御命令を認識する。
例えば、ユーザが空間において指を動かす行為をすれば、入力信号計測手段23は、現在からの動作は有効な動作であると解釈し、動きの開始を指示する信号として認識する。また、入力信号計測手段23は、ユーザの動きがなかったり、あるいは筋電図を用いる場合には、指を打ち合わす行為と広げる行為から動きの開始と終了を指示する命令を計測することができる。
入力信号計測手段23は、計測されたユーザの制御命令を信号処理手段25に伝達する。
信号処理手段25は、入力信号認識部25aと、命令処理部25bとを備える。
入力信号認識部25aは、入力信号計測手段23によって計測されたユーザの制御命令を認識する。このとき、命令処理部25bは、入力信号認識部25aによって認識されたユーザの制御命令を、通信手段27を介して動き処理器機10の命令入力手段13に送信する。
一方、命令処理部25bは、入力信号認識部25aによってユーザ動きの開始を知らせる命令が認識されれば、位置信号発生手段21に所定の制御信号を出力する。したがって、位置信号発生手段21は、命令処理部25bからの制御信号によって位置信号を発生する。
図5は、本発明に係る動き処理器機の映像計測部に対する動作を説明するために参照される例示図である。図5に示すように、第1映像計測部11aと第2映像計測部11bは、正面の映像を取得するようになる。このとき、第1映像計測部11aと第2映像計測部11bの画角により、仮想のディスプレイ画面2が具現される領域を決定する。
言い換えれば、第1映像計測部11aと第2映像計測部11bは一定の画角θを有し、第1映像計測部11aと第2映像計測部11bの画角が重なる領域に仮想のディスプレイ画面2が具現するようにする。
したがって、上述のように具現された3次元空間の仮想のディスプレイ画面2において、ユーザは拳を握ったり指を打ち合わす形態のジェスチャを取って仮想空間上のオブジェクトを選択し、その状態で手を動かして該当のオブジェクトを移動するようにコンピュータを制御できるようになる。
図6は、本発明に係る座標計算方法に対する動作を説明するために参照される例示図である。図6を参照すれば、位置指示器機20の位置信号発生手段21から位置信号が発生されれば、第1映像計測部11aおよび第2映像計測部11bは位置信号を受信するようになる。
このとき、3次元座標計算部15bは、位置信号発生手段21と第1映像計測部11aおよび第2映像計測部11bの位置に基づいて3次元座標を計算する。3次元座標の計算のためのモデルは、下記の数式1を用いて求めることができる。
Figure 2010108500
ここで、drは、第1映像計測部11aに位置信号発生手段21から発生された位置信号が到達した地点から中心までの距離である。dlは、第2映像計測部11bに位置信号発生手段21から発生された位置信号が到達した地点から中心までの距離である。また、Lは、第1映像計測部11aの中心から第2映像計測部11bの中心までの距離である。また、fは、第1映像計測部11aと第2映像計測部11bの中心から第1映像計測部11aと第2映像計測部11bに垂直方向に、位置信号発生手段21から発生した位置信号と出会う地点までの距離である。即ち、fは、第1映像計測部11aと第2映像計測部11bの焦点距離である。また、xは、第1映像計測部11aと第2映像計測部11bから位置信号発生手段21までの垂直距離である。
したがって、3次元座標計算部15bは、2次元座標計算部15aから抽出された2次元座標と上記で算出されたx値を用いて3次元座標を計算するようになる。
上述のように構成される本発明の動作は、次のとおりとなる。図7は、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース方法に対する動作の流れを示すフローチャートであり、動き処理器機10の動作を示す図である。
図7に示すように、動き処理器機10は、位置指示器機20からの信号に基づいてユーザの身体動きを計測する(S100)。また、動き処理器機10の第1映像計測部11aおよび第2映像計測部11bのイメージセンサを用いて計測された動き映像を処理する(S110)。
この後、2次元座標計算部15aは、「S110」過程の映像から2次元座標を計算し(S120)、3次元座標計算部15bは、「S120」過程における2次元座標および「S100」過程で受信された信号に基づいて3次元座標を計算する(S130)。
一方、身体揺れ計測部11cは、「S100」過程で受信された信号から身体の揺れ程度を計測し(S140)、身体揺れ補正部15cは、「S140」過程で計測された情報によって該当の映像における身体の揺れおよびこれによる誤差を補正する(S150)。
パターン認識部15dは、「S130」過程で計算された3次元座標と、「S150」過程で補正された映像からユーザの動きパターンを認識し(S160)、「S160」過程で認識されたパターンに対応する命令データを抽出し、通信モジュールを介して着用型コンピュータに送信する(S170)。
本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法は、着用型コンピューティングに適用されることを実施形態として記述したが、着用型コンピューティングだけではなく、一般的なコンピュータのインターフェース装置としても利用が可能なことは言うまでもない。
以上のように、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法は、上述した実施形態の構成と方法が限定されて適用されるのではなく、上述した実施形態は、多様な変形がなされるように各実施形態の全部または一部が選択的に組み合わせされて構成されることもできる。

Claims (14)

  1. 着用型コンピューティング環境基盤のユーザインターフェース装置であって、
    ユーザの手首付近に着用されて光信号を発生する位置指示器機と、
    前記位置指示器機から発生された光信号を受信し、ユーザ前面の映像をそれぞれ計測するためのイメージセンサを備えた複数の映像計測部を含む信号計測手段と、
    前記信号計測手段によって計測されたそれぞれの映像を分析して3次元座標を計算し、前記信号計測手段によって受信された光信号から前記3次元座標上でユーザの手の動きパターンを認識し、対応する命令を出力する信号処理手段と
    を備えることを特徴とする着用型コンピューティング環境基盤のユーザインターフェース装置。
  2. 前記信号処理手段は、
    前記複数の映像計測部に備えられたイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  3. 前記信号処理手段は、
    前記複数の映像計測部によって計測された各映像から2次元座標を抽出する2次元座標計算部を備え、
    前記2次元座標計算部によって抽出された2次元座標および前記光信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  4. 前記映像計測部は、
    前記位置指示器機から発生された位置信号と前記映像を区分するためのフィルタを備えることを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  5. 前記信号計測手段は、
    ユーザの動きから身体の揺れ程度を計測する身体揺れ計測部をさらに備えることを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  6. 前記身体揺れ計測部は、
    慣性センサを含むことを特徴とする、請求項5に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  7. 前記信号処理手段は、
    前記身体揺れ計測部によって計測された身体の揺れ程度に基づいて、前記映像計測部から計測された映像の揺れを補正する身体揺れ補正部をさらに備えることを特徴とする、請求項5に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  8. 前記位置指示器機は、
    ユーザの手の位置を示す光信号を発生する位置信号発生手段と、
    ユーザから制御命令の入力を受ける入力信号計測手段と
    を備え、
    前記入力信号計測手段に入力されたユーザ制御命令に基づいて前記位置信号発生手段の動作を制御することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
  9. 着用型コンピューティング環境基盤のユーザインターフェース方法であって、
    ユーザの手首付近に着用された位置指示器機からユーザの手の位置を示す光信号が発生されるステップと、
    前記位置指示器機から発生された光信号を受信し、ユーザ前面に対する複数の映像を計測するステップと、
    前記計測するステップで計測されたそれぞれの映像を分析して3次元座標を計算するステップと、
    前記計測するステップで受信された光信号からユーザの手の位置を把握し、前記計算された3次元座標上でユーザの手の動きパターンを認識するステップと、
    前記認識するステップで認識された動きパターンに対応する命令を出力するステップと
    を備えることを特徴とする着用型コンピューティング環境基盤のユーザインターフェース方法。
  10. 前記計算するステップは、
    前記計測するステップで映像を計測する複数のイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
  11. 前記計算するステップは、
    前記複数の映像計測手段によって計測された各映像から2次元座標を抽出するステップを備え、
    前記抽出された2次元座標、および前記計測するステップの前記光信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
  12. 前記計測するステップは、
    前記ユーザの動きから身体の揺れ程度を計測するステップを備えることを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
  13. 前記計測された身体の揺れ程度に基づいて、前記計測するステップで計測された映像の揺れを補正するステップをさらに備えることを特徴とする、請求項12に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
  14. 前記光信号は、
    ユーザから前記位置指示器機に手の動きの開始と終了を知らせる信号が入力されれば、前記入力された信号に基づいて発生されることを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
JP2009248773A 2008-10-29 2009-10-29 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 Pending JP2010108500A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080106474 2008-10-29
KR1020090090147A KR101284797B1 (ko) 2008-10-29 2009-09-23 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법

Publications (1)

Publication Number Publication Date
JP2010108500A true JP2010108500A (ja) 2010-05-13

Family

ID=42274719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009248773A Pending JP2010108500A (ja) 2008-10-29 2009-10-29 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法

Country Status (2)

Country Link
JP (1) JP2010108500A (ja)
KR (1) KR101284797B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2014132719A (ja) * 2013-01-07 2014-07-17 Seiko Epson Corp 表示装置、および、表示装置の制御方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157073B1 (ko) 2010-12-10 2012-06-21 숭실대학교산학협력단 근전도 센서와 자이로 센서를 이용한 지화 인식 방법 및 장치
KR20120064900A (ko) * 2010-12-10 2012-06-20 곽진호 사생활보호 기능이 구현되는 통신단말기 및 통신방법, 사생활보호 기능 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
KR101800182B1 (ko) 2011-03-16 2017-11-23 삼성전자주식회사 가상 객체 제어 장치 및 방법
KR101251774B1 (ko) * 2011-05-17 2013-04-05 목원대학교 산학협력단 거동이 불편한 사용자를 위해 가상 현실과 실세계를 정합하는 정합 시스템 및 정합 방법 그리고 웨어러블 입력장치 및 명령 신호 제공 방법
KR101315303B1 (ko) 2011-07-11 2013-10-14 한국과학기술연구원 착용형 디스플레이 장치 및 컨텐츠 디스플레이 방법
CN109799900B (zh) * 2012-11-01 2023-02-28 艾卡姆有限公司 手腕可安装计算通信和控制设备及其执行的方法
KR101397812B1 (ko) * 2012-11-30 2014-05-20 강원대학교산학협력단 원격 터치 및 드래그 방식 입력 시스템
KR102065417B1 (ko) * 2013-09-23 2020-02-11 엘지전자 주식회사 웨어러블 이동단말기 및 그 제어방법
KR102033334B1 (ko) * 2014-02-03 2019-10-17 한국전자통신연구원 변형가능한 기재를 가지는 손목착용형 장치
KR101560474B1 (ko) 2014-02-18 2015-10-14 성균관대학교산학협력단 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법
WO2015142023A1 (en) 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
KR20150110032A (ko) 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
KR101524575B1 (ko) * 2014-08-20 2015-06-03 박준호 웨어러블 디바이스
WO2016060461A1 (en) 2014-10-15 2016-04-21 Jun Ho Park Wearable device
KR101655820B1 (ko) 2014-12-16 2016-09-22 현대자동차주식회사 스마트 글래스를 이용한 도착시간 알림 시스템 및 그 방법
KR101577359B1 (ko) * 2015-03-16 2015-12-14 박준호 웨어러블 디바이스
KR20170028130A (ko) 2015-09-03 2017-03-13 박준호 웨어러블 디바이스
KR102612988B1 (ko) 2016-10-20 2023-12-12 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 영상 처리 방법
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
KR102163825B1 (ko) * 2018-02-24 2020-10-13 링크플로우 주식회사 사용자 장치의 사용자 인터페이스 구현 방법 및 이러한 방법을 수행하는 장치
KR102102309B1 (ko) * 2019-03-12 2020-04-21 주식회사 피앤씨솔루션 머리 착용형 디스플레이 장치의 3차원 가상공간을 위한 객체 인식 방법
WO2022250238A1 (ko) * 2021-05-25 2022-12-01 (주) 이즈커뮤니케이션즈 컴퓨터에의 정보 입력 시스템 및 이 정보 입력 시스템을 이용한 입력 정보의 좌표 산출 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003035515A (ja) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> 三次元位置検出方法,装置および三次元位置検出用のマーカ
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2005208182A (ja) * 2004-01-21 2005-08-04 Sony Corp 表示制御装置および方法、記録媒体、並びにプログラム
WO2006038577A1 (ja) * 2004-10-05 2006-04-13 Nikon Corporation プロジェクタ装置を有する電子機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
KR100571428B1 (ko) * 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
KR100674090B1 (ko) 2004-12-20 2007-01-24 한국전자통신연구원 착용형 범용 3차원 입력 시스템
KR100851977B1 (ko) 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003035515A (ja) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> 三次元位置検出方法,装置および三次元位置検出用のマーカ
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2005208182A (ja) * 2004-01-21 2005-08-04 Sony Corp 表示制御装置および方法、記録媒体、並びにプログラム
WO2006038577A1 (ja) * 2004-10-05 2006-04-13 Nikon Corporation プロジェクタ装置を有する電子機器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSND200500584001; 安室 喜弘、外4名: '"Clip-Interface:ウェアラブルPCによる3次元作業空間インタフェースの提案"' 画像ラボ 第14巻 第7号, 20030701, p.1〜5, 日本工業出版株式会社 *
JPN6011064823; 安室 喜弘、外4名: '"Clip-Interface:ウェアラブルPCによる3次元作業空間インタフェースの提案"' 画像ラボ 第14巻 第7号, 20030701, p.1〜5, 日本工業出版株式会社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2014132719A (ja) * 2013-01-07 2014-07-17 Seiko Epson Corp 表示装置、および、表示装置の制御方法

Also Published As

Publication number Publication date
KR20100047793A (ko) 2010-05-10
KR101284797B1 (ko) 2013-07-10

Similar Documents

Publication Publication Date Title
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
TWI645314B (zh) 手勢偵測系統及方法
JP5969626B2 (ja) 高められたジェスチャ・ベースの対話のためのシステム及び方法
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
AU2013347935B2 (en) Computing interface system
US10775946B2 (en) Universal handheld controller of a computer system
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User&#39;s Range of Motion
US10120444B2 (en) Wearable device
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
US11054923B2 (en) Automatic switching between different modes of tracking user motions to control computer applications
RU187548U1 (ru) Перчатка виртуальной реальности
RU2670649C9 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
KR20120037739A (ko) 손동작 기반 사용자 인터페이스 장치 및 그 방법
Sugiyama et al. NAVIgoid: robot navigation with haptic vision
US20210318759A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
KR101588021B1 (ko) 헤드 마우스

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121005