JP5179378B2 - ユーザインターフェイス装置 - Google Patents

ユーザインターフェイス装置 Download PDF

Info

Publication number
JP5179378B2
JP5179378B2 JP2008551041A JP2008551041A JP5179378B2 JP 5179378 B2 JP5179378 B2 JP 5179378B2 JP 2008551041 A JP2008551041 A JP 2008551041A JP 2008551041 A JP2008551041 A JP 2008551041A JP 5179378 B2 JP5179378 B2 JP 5179378B2
Authority
JP
Japan
Prior art keywords
hand shape
hand
fingertip
gui
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008551041A
Other languages
English (en)
Other versions
JPWO2008078603A1 (ja
Inventor
智裕 寺田
敦士 山下
卓哉 平井
信之 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008551041A priority Critical patent/JP5179378B2/ja
Publication of JPWO2008078603A1 publication Critical patent/JPWO2008078603A1/ja
Application granted granted Critical
Publication of JP5179378B2 publication Critical patent/JP5179378B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/852Sensors
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/856Actuation thereof
    • E05Y2400/858Actuation thereof by body parts, e.g. by feet
    • E05Y2400/86Actuation thereof by body parts, e.g. by feet by hand

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、機器を操作するための各機能を指先で実行可能なユーザインターフェイス装置に関し、より特定的には、手の動きに応じて各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置に関する。
従来、多機能化した機器を利用するためのインターフェイスとして、指の操作位置(押下位置)に応じて、異なる機能を示すGUI釦を指先に付加し、所望の機能を実行することを可能とした技術が存在する(例えば、特許文献1参照)。
国際公開第2006/104132号パンフレット
しかしながら、従来の技術では、機器を操作するための機能を手で実行するにも関わらず、手の動きに応じて指先に各機能が割り当てられないため、操作者は指先への各機能の割り当てを直感的に把握することができない。
そこで、本発明は、上記問題に鑑みてなされた。すなわち、手の動きに応じて機器を操作するための各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置を提供することを目的とする。
本発明の局面は、機器を操作するためのユーザインターフェイス装置に向けられている。本発明は、操作者の操作面への接触位置を検知する接触位置取得部と、操作者の手形状を取得する手形状取得部と、手形状取得部が取得した手形状から、当該手形状の方向を取得する手形状方向取得部と、機器を操作するための機能に対して一意に割当てられたGUI(Graphical User Interface)釦を表すGUI釦データを記憶するGUI釦データ記憶部と、手形状取得部が取得した手形状の各指先にGUI釦データ記憶部から読み出したGUI釦を一旦割り当てた後、手形状の方向の変化に基づいて、当該手形状の各指先に当該GUI釦を割り当て直すGUI釦割り当て部と、GUI釦割り当て部が割り当てたGUI釦の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、重畳表示映像作成部が作成した合成画像を表示する表示部とを備える。
また、GUI釦割り当て部は、手形状方向取得部が取得した手形状の方向の示す角度が操作面の垂直方向の基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦を割り当て直すことが好ましい。
また、GUI釦割り当て部は、手形状方向取得部が取得した手形状の方向の示す角度が、接触位置取得部が操作者の操作面への接触を検知したときの手形状の方向を示す基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦を割り当て直すことが好ましい。
また、GUI釦割り当て部は、50音の各行のいずれかの文字を表すGUI釦を各指先に割り当てる。
その場合、GUI釦割り当て部は、50音の各行のいずれかが選択されると、選択された行に属する文字を表すGUI釦を各指先に割り当てることが好ましい。
以上説明したように、本発明によれば、手の動きに応じて機器を操作するための各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置を提供することができる。
本発明の実施形態にかかるユーザインターフェイス装置の概略構成を示す模式図 図1に示すユーザインターフェイス装置1を車に搭載した場合の一例を示す図 本発明の実施形態に係るユーザインターフェイス装置を実現するための機能ブロック図 図3の表示装置6に表示される映像の一例を示す図 図3のユーザインターフェイス装置の処理の流れを示すフローチャート 図3の重畳表示映像作成部36がナビゲーション装置の操作に関するメニューの機能を各指に付加し、表示装置6に表示している例を示す図 図3の手形状パラメータ取得部33の機能ブロック図 図5のステップS502の手形状パラメータ取得処理の流れを示すフローチャート 図8のステップS804の掌領域の取得方法を説明するための模式図 図8のステップS805の指先位置の取得方法を説明するための模式図 図8のステップS806の手方向の取得方法を説明するための模式図 図5ステップS503の指先機能選定処理の流れを示すフローチャート 図12の指先機能選定処理で手方向θによって指先に割当てる機能が変更される状態の一例を示す模式図で、(a)θの符号がマイナスのときナビゲーション装置の操作に関するメニューの機能を指先に割当てた状態を示す模式図、(b)θの符号がプラスのときAVの操作に関する機能を指先に割当てた状態を示す模式図 図12の指先機能選定処理で50音入力をする時に手方向θによって指先に割当てる文字が変更される状態を示す模式図で、(a)θの符号がマイナスのときに指先に文字が割当られた状態を示す模式図、(b)θの符号がプラスのときに指先に文字が割当られた状態を示す模式図 本発明の実施形態に係るユーザインターフェイス装置を用いて50音入力で「し」の文字を入力する時の入力方法を説明する模式図で、(a)「さ」行の入力方法を説明するための模式図、(b)「し」の入力方法を説明するための模式図 ひらがなの並びを各指先に割り当てる場合を説明するための図 数字の並びを各指先に割り当てる場合を説明するための模式図 アルファベットの並びを各指先に割り当てる場合を説明するための模式図 干支の並びを各指先に割り当てる場合を説明するための模式図 月の並びを各指先に割り当てる場合を説明するための模式図 操作面上に最初に置いた操作者の手形状の初期位置が示す基準軸を説明する模式図 ユーザインターフェイス装置の処理の流れを示すフローチャート
以下、図面を参照して、本発明の実施の形態に係るユーザインターフェイス装置について説明する。なお、各図面において、本発明の実施に特に重要でない要素は視認性を考慮して割愛されている。
図1は本実施の形態に係るユーザインターフェイス装置の概略構成を示す模式図である。図1において、ユーザインターフェイス装置1は、大略的な構成として、タッチパネル2、演算処理機3、記憶装置4、撮像装置5、及び表示装置6を備える。図1のユーザインターフェイス装置1を例えば車に搭載した場合の模式図を図2に示す。撮像装置5は、操作面となるタッチパネル2を下から撮像する。演算処理機3から出力される映像は表示装置6に表示される。
タッチパネル2は、本実施形態では、操作者が例えば5本の指のそれぞれで触れることで、演算処理機3に所定の機能を実行するように指示を与えることができる入力装置である。抵抗式、静電容量式、光学式等のタッチパネルが用いられ、操作者が接触した部分の位置座標が演算処理機3に送られる。
演算処理機3は、典型的にはプロセッサと、各種メモリとを少なくとも含んでおり、例えばROMのようなメモリに格納されたコンピュータプログラムに従って動作する。ここで、図3は、このような演算処理機3の機能的なブロック構成図である。図3において、演算処理機3は、上記のコンピュータプログラムを実行することで、手形状取得部31と、接触位置取得部32、手形状パラメータ取得部33、指先機能選定部34、GUI画像作成部35、及び重畳表示映像作成部36の機能を実現する。
記憶装置4は、表示装置6に表示すべきGUI画像を生成するために必要なGUI釦データ等を格納する。GUI釦データは、例えばアイコンまたは釦のようなGUI画像データである。
撮像装置5は、本実施形態では赤外線カメラから構成される。撮像装置5は、タッチパネル2が設置された操作面をカバーできるような画角をもつように設置され、自身の画角の範囲内を予め定められた時間間隔で撮影し、撮影映像を演算処理機3に出力する。なお、図1において、撮像装置5によって手形状をより撮影しやすくするために、投光機101が設置されている。撮像装置5が赤外線カメラの場合、投光機101の光の波長は赤外線カメラによって撮影するのに適した波長であることが望ましい。
表示装置6は、液晶、EL(Electro Luminescence)、CRT等のディスプレイから構成される。図4は、表示装置6に表示される映像の一例を示している。手形状映像401、及びGUI釦402、403が表示されている。GUI釦402、403は、その表示位置に相当するタッチパネル2上の位置を操作者が指で接触した時に、割り当てられている機能が実行される。GUI釦402は手の動きに対してその表示位置は固定されているが、手の各指先に割り当てられた機能を示すGUI釦403は、指先の動きに追従して表示位置が変わる。なお、手形状映像の作成方法については後述する。
図3にもどり、演算処理機3の各機能ブロックについて説明する。演算処理機3は、撮像装置5が撮像した操作者の手の映像を取得する手形状取得部31、操作者が操作面上を接触した位置座標をタッチパネル2から取得する接触位置取得部32、先に取得した操作面上にある手形状の映像から手形状の各種パラメータを取得するための手形状パラメータ取得部33、指先に付加する機能を選定するための指先機能選定部34、指先に付加された機能を表すGUI釦や背景画像からなるGUI画像を作成するGUI画像作成部35、及び手形状パラメータ取得部33から取得される手形状映像とGUI画像作成部35において作成されるGUI画像とを重ね合わせてひとつの画像として出力する重畳表示映像作成部36からなる。
次に、本実施の形態のユーザインターフェイス装置の処理の流れについて図5のフローチャートを用いて説明する。
まず、操作者は、操作面に手を置くことで操作を開始する。ステップS501において、手形状取得部31は撮像装置5が撮像した操作面上の操作者の手形状の映像を取得する。
ステップS502において、手形状パラメータ取得部33は手形状取得部31によって取得した手形状の特徴量(パラメータ)を抽出する。ここでパラメータとして抽出するのは、掌の重心位置・掌の領域(掌領域)・指先の位置・手の方向(手方向)等である。ここで抽出したパラメータは後の処理に用いるため、記憶装置4に格納される。なお、このステップS502の手形状パラメータ取得処理については後に詳細に説明する。
次に、ステップS503において、指先機能選定部34は、各指にどの機能を付加するかを決定する処理を行う。ここで具体的な各指に割り当てる機能の選定方法については、後に詳しく述べる。なお、指先機能選定部34は、GUI釦割り当て部に対応する。
そして、ステップS504の重畳表示映像作成処理において、GUI画像作成部35は、ステップS503において各指に割当てられた機能に一意に対応するGUI釦データを記憶装置4から読み出して、GUI釦画像を生成する。
そして、重畳表示映像作成部36は、作成されたGUI釦画像を手形状映像に付加した合成映像と、背景に表示されるGUI画像とを重畳した映像を作成し、表示装置6に表示する。このステップ504の重畳表示映像作成処理については公知の技術(例えば、国際公開第2006/104132号公報参照)を使うことができるため、詳細な説明は割愛する。
手形状映像の各指にGUI釦を付加した映像の一例を図6に示す。図6では、操作者が左手を操作面上に置き、ナビゲーション装置の操作に関するメニューの機能が各指に付加され、表示装置6に表示されている例である。
図5に戻り、ステップS504で、GUI画像の表示に関する処理が終了すると、次のステップS505で接触位置取得部32からの信号に基づき、操作者が操作面に接触したか否かが判定される。
ここで操作者が操作面に触れたと判定されなければ(No)、ステップS501に戻る。ステップS505で操作面が押下されたと判定されると(Yes)、押下された位置が接触位置取得部32から取得される(ステップS506)。そして、ステップS507でその位置が、表示装置6に表示されているGUI釦に対応する領域か否かが判定される。
ステップS507において、押下された位置がGUI釦の位置ではないと判定されると(No)、ステップS501に戻り、GUI釦の位置であると判定されると(Yes)、ステップS508に進み、押下された位置のGUI釦に一意に対応する機能が実行されて、一連の処理を終了する。
次に、図5のステップS502の手形状パラメータ取得処理について詳細に説明する。この手形状パラメータ取得処理は、手形状パラメータ取得部33で処理が行われる。図7に手形状パラメータ取得部33の機能ブロック図を示す。手形状パラメータ取得部33は、手形状取得部31で取得した映像から手形状のみを抽出する手形状抽出部701、掌の位置を取得するための掌領域決定部702、指先位置を取得する指先位置取得部703、及び手の方向(手方向)を取得する手方向取得部704から構成される。
図8に手形状パラメータ取得処理のフローチャートを示す。まず、ステップS801において、手形状抽出部701は、ステップS501で取得した映像の2値化処理をおこなう。
次に、ステップS802において、手形状抽出部701は、ステップS801で2値化処理した映像からノイズを除去して、手形状のみの映像を抽出する。ここで、ノイズとしては、手形状を表す領域以外の範囲のことを指している。手形状のみの映像を抽出する具体的な方法としては、2値化された映像から、つながったひとつの領域で最大の領域を手形状として認識するといった方法が挙げられる。
次に、ステップS803において、手形状抽出部701はステップS802で抽出した手形状のみの映像を記憶装置4に保存する。ここで保存した手形状映像は、ステップS504の重畳表示映像作成処理で重畳映像を作成する際に使用される。
次に、ステップS804〜S806において、掌の重心位置、掌領域、指先位置及び手の方向(手方向)等の手のパラメータの取得が行われる。まず、ステップS804で、掌領域決定部702は、ステップS802で抽出した手形状映像の重心位置と、手形状映像から指先を除く掌領域とを取得する。
図9は掌領域の取得方法を説明するための模式図で、掌領域決定部702はステップS802で抽出した手形状の映像から、重心位置901を算出する。次に、重心位置901を中心とする円902が描かれ、その円の半径が徐々に大きくされる。
次に、手形状映像903と先の円との重なる面積がある一定の閾値以上になったときに円の半径を大きくすることが停止される。今、円904で円の半径を大きくすることが停止されたとする。このときの円の領域と手形状映像903と重なる箇所の領域が掌領域とされる。
更に、掌領域を先の手形状映像903から切り出されて、図10に示すような指先だけの領域を示す映像が作成される。そして、掌領域決定部702は、求めた重心位置901と、掌領域とを記憶装置4に保存する。また、次のステップS805で用いる、指先だけの領域を示す画像も記憶装置4に保存される。
次に、ステップS805の指先位置の取得処理について、図10を用いて説明する。
指先位置取得部703は、各指の領域画像1001〜1005に対して、楕円フィッティング処理により楕円1006を求める。そして、指先位置取得部703は、求めた楕円の長径1007を求め、長径1007と楕円1006との輪郭とが交わる位置で、かつ掌領域とは反対側にある位置を指先位置1008として取得する。指先位置1008をすべての指領域について取得した後、指先位置取得部703は、取得した指先位置1008を記憶装置4に保存する。ここで、指の長さ、太さ、並び等から右手、左手が判定され、各指が何指(親指、人差し指、中指、薬指、小指)であるかが求められ、指先位置1008の情報と共に対応させて記憶装置4に保存される。
次に、ステップS806の手方向の取得処理について、図11を用いて説明する。手方向取得部704は、ステップS802によって取得した手形状映像1101に対して、外接する長方形1102を算出する。ここで、長方形1102の長辺方向1103を手方向として取得し、操作面1105の垂直方向(Y軸)との間の角度1104を手方向θとして取得する。ここで、θはY軸から時計回り方向をプラス方向とする。そして、手方向取得部704は、取得した手方向θを記憶装置4に保存する。また、垂直方向とは、操作者が操作する操作面上に設定される2次元直交座標系において、操作者からみて縦方向(一般的にY軸として設定される方向)をさす。
以上のステップS804〜S806により、手形状に関する各種パラメータを取得したら、図8の手形状パラメータ取得処理を終了する。
次に、図5のステップS503の指先機能選定処理について、図12のフローチャートを用いて説明する。この指先機能選定処理は、指先機能選定部34で行われる。
まず、ステップS1201において、指先機能選定部34は、図8のステップS805で求めた指先位置に対して、初期機能を割当てる。ここで、初期機能とは機器を操作するための各種コマンドや、50音入力・アルファベット入力等をする際の文字等の内の一部であり、どの指に対して初期的にどの様な機能を割当てるかについては、あらかじめ設定して記憶装置4に記憶しておくものとする。この初期機能の割当てには、ステップS805で求めた、どの指先位置が何指かの特定された情報が用いられる。
次に、ステップS1202において、指先機能選定部34は、ステップS804で取得した掌領域で操作面が押下されたかどうかの判定を行う。このとき、掌領域で押下されたかどうかの判定方法としては、まず、図8のステップS804の掌領域取得処理において取得された掌領域の範囲が当たり判定領域として設定される。
次に、接触位置取得部32によって取得された接触位置が、当たり判定領域の範囲内に存在したときに、掌領域で操作面が押下されたと判定される。ステップS1202で掌領域で操作面が押下されたと判定された場合(Yes)、ステップS1203の処理に移り、掌領域で押下されていないと判定された場合(No)、処理を終了する。
次に、ステップS1203で図8のステップS806で記憶装置4に保存した手方向θを読み出す。そして、ステップS1204において、指先機能選定部34は、指先に割当てられた機能を変更する。この、ステップS1202の判定処理があることにより、操作者が掌を操作面上に置いたときのみ各指先に割当てられる機能を変更することができるようになる。すなわち、操作者が操作面上に掌を置かない限り、手の向きを変えても、意図せずに割当てられる機能が変更されてしまうことを防ぐことができる。
ここで、指先の機能が変更される状態について図13を用いて説明する。図13(a)、(b)は、手形状映像にGUI釦を重畳して表示装置6に表示させた図である。図13(a)では、各指の初期機能として、ナビゲーション装置の操作に関するメニューの機能を表すGUI釦1302〜1306が、手形状映像1301の各指先に付加されている。ここで、手方向θの符号はマイナスになっている。小指には目的地設定するためのGUI釦1302、薬指には現在位置を地図上に表示させるためのGUI釦1303、中指には経由地を設定するためのGUI釦1304、人差し指にはルート設定するためのGUI釦1305、親指には前の状態に戻すためのGUI釦1306がそれぞれ割当てられている。
そして、操作者が手の方向を変化させ、手方向θの符号がプラスになると、図13(b)に示すように、手形状映像1311の各指先に設定されるGUI釦は、AV(Audio Visual)の操作に関する機能を表すGUI釦1312〜1316に変更される。
小指には一曲戻すためのGUI釦1312、薬指には巻き戻しするためのGUI釦1313、中指には曲を再生するためのGUI釦134、人差し指には早送りするためのGUI釦1315、親指には一曲早送りするためのGUI釦136がそれぞれ割当てられている。なお、ここで変更させるメニュー項目については、操作者が設定することができてもかまわない。
図12に戻り、ステップS1205において、指先機能選定部34は、ステップ1202の判定と同じ様にして、掌が操作面を押下状態か否かを判定する。もし、押下状態であると判定された場合(Yes)にはステップS1206に進み、操作面から掌が離されて押下状態でない場合(No)には、指先機能選定処理を終了する。
ステップS1206では、図8のステップS806と同様にして、手方向θを検知して、ステップS1204に戻り、各指先に割当てられる機能が変更される。このステップS1205の判定処理は、操作者は掌を操作面上に置いたまま手の方向を変えるだけで、各指先に割当てられる機能を変更することができるようにするためにある。
なお、指先に付加する機能はナビゲーション装置の機能やAVの機能に限定されるものではなく、例えば図14のように、50音の入力機能を表すGUI釦を付加してもよい。
図14では、手方向θがマイナスのときは、図14(a)に示すように、小指から親指へ順番に「あ」、「か」、「さ」、「た」、「な」を表すGUI釦1402〜1406を各指先に付加し、手方向θがプラスのときは、図14(b)に示すように、小指から親指へ順番に「は」、「ま」、「や」、「ら」、「わ」を表すGUI釦1412〜1416を各指先に付加する。
50音入力の方法としては、掌で操作面を押下した状態のときに、各指に付加している釦を押下すると、その「行」の文字を入力できるようにする。このように、手方向θの符号を含め、「あ」〜「わ」の全ての行を各指に割当てて50音入力をすることが可能になる。例えば、「し」という文字を入力したければ、まず、図15(a)に示すように、掌を押下した状態で、「さ行」の入力を示すGUI釦1504が割当てられた中指で操作面を押下する。その後、掌を操作面から離すと、図15(b)に示すように、小指から親指へ順番に「さ行」の各文字「さ」、「し」、「す」、「せ」、「そ」を表すGUI釦1512〜1516が指先に付加される。ここで、50音の各行は5文字であるため、5本の指に自動的に付加することが可能になる。その後、所望の「し」を表すGUI釦1513が付加された薬指で操作面を押下することで、「し」が入力される。
このように最初の動作で行を選択し、その後選択された行の5文字を各指に付加して、いずれかの指で操作面を押下して文字を入力することで、振動環境下でも安定した文字入力をすることが可能となる。なお、図15(b)では、掌が操作面から離れており、指先機能選定処理が終了しているので、各文字を入力するときに手の角度を変化させても、指先に付加している文字は変更されない。再び別の文字を入力するときには、掌で操作面を押下して、各指先に割当てる機能を変更させる必要がある。
以上説明したように、本実施形態のユーザインターフェイス装置では、手の方向を変えるだけで、操作面サイズを大きくすることなく、容易に指先に割当てる機能を変更することができるので、振動環境下でも安定した入力操作が可能になる。
また、50音入力に応用した場合には、片手に割当てられる文字は5つであるので、容易に指先に割当てる文字を変更できるため、入力作業が楽にできるという効果がある。
なお、以上の実施形態では、手形状取得部31は、撮像装置5からの手形状の撮像映像を取得したが、操作者の手の輪郭を取得することができればよく、赤外線カメラ以外にも一般的な方法を用いて操作者の手形状を取得してもよい。例えば、静電容量式等のタッチパネルを用いることにより、近接する手の輪郭を取得することが可能である。この場合、公知の技術(例えば、国際公開第2006/027924号公報参照)を使うことができる。また、手形状取得部31は、掌の重心位置、掌領域、指先位置及び手の方向(手方向)等の手のパラメータに基づいて、手のモデルを推定し、推定したモデルをモデル記憶部から取得する構成としてもよい。
ここで、手形状取得部31がタッチパネル2により手形状を取得する場合には、撮像装置5が不要であり、手が操作面に触れた接触位置も同時に検出できる。さらにこの場合、既に2値化された手形状を表す信号を取得することができるため、図8のステップS801の2値化処理は不要になる。
また、以上の実施形態では、赤外線カメラを用いて、取得する映像は、車外からの入射光の影響を受けずに手形状の映像を取得できる近赤外線領域での映像が望ましいが、これ以外の波長領域でも構わない。
前述のようにひらがなを入力する機能を指先に付加する効果としては、図16のひらがなに示すように、ユーザの経験上、「あかさたな」の並びの次にくるのは「はまやらわ」であるということが想起されるため、手の傾きを変えることで、次の「はまやらわ」を入力する機能が指先に付加されることが操作者にとって直感的に分かりやすい。
また、ひらがなの並び以外にも図17に示すような数字の並びの場合にも、操作者は、手の傾きを変えたことにより、次に指先に割り当てられる数字を容易に想起することができる。
また、本実施形態では手の傾きを指先に付加する機能を変更するトリガーとしているため、手の傾きの角度に応じて、2段階の機能の変更だけではなく、さらに多くの機能を付加することが可能となる。
多くの機能の変更の一例としては、図18に示すアルファベット1801の割り当てを変更することが考えられる。通常ユーザは経験上、アルファベットの並びが図18のアルファベット1801で示すように想起される。
手の角度が操作面の垂直方向の基準軸に対してθ1の時に、手形状映像1802で示すように、“a”から“e”のアルファベットを入力する機能が各指に順番に配置される。また、角度θ1から角度θ2になるまでの間は、手形状映像1802は、その配置のまま表示され、角度がθ2より大きくなったら、次の手形状映像103に示すように“f”から“j”までの並びに変化する。これ以降θ3,θ4,θ5を閾値として、各機能の並びが変化する。なお、このときに閾値となる角度は、操作者によって変更されてもよい。
このように、手形状の方向の示す角度が表示部の画面の左右中央から鉛直方向の基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦が割り当て直される構成としてもよい。
また、図18にもあるように、全てのアルファベットを付加しようとすると、“z”の一文字が指に付加できない場合が考えられる。この場合は、手形状映像1806に示すように、“z”だけを掌部分のボタンとして表示し、掌を押し込む動作で、“z”の文字を入力できるようにしてもよい。
また、全てのメニューの数が12個だった場合の例としては、図19に示すような干支を表示したり、星座を表示する例が考えられる。図19で示すように、干支の場合は、手形状映像1901に示すように、並びの1段階目の時点で掌上にも機能を付加し、左に傾けたとき、右に傾けたときで合計12個の機能を付加することを実現している。
また、本実施の形態では、角度がある閾値を上回る、もしくは下回ったときにすべての指先の機能を変更するとしていたが、同時にすべての指の機能を変更するのではなく、手の角度に応じて序に指先の機能を変更していく事案も考えられる。一例として、図20を用いて説明する。
図20では、「月」の名称を入力する機能を各指に付加して、操作面を押し込んだら入力できる操作を示したものである。なお、図20で実際に表示部に表示されるのは、実線で示したGUI部品のみで、破線で示したGUI部品は、ユーザが想定するであろうGUI部品の並びを表すための図である。
まず、手形状映像2001に示すように、角度γ1の時には1月から4月までの月を付加する。その後、手形状映像2002に示すように角度がγ2になったら、各指に付加しているすべての機能がひとつずつずらして表示されるようにする。手形状映像2002の表示は、一段階進んだ表示を表している。手形状映像2002では、1月を示すGUI部品が表示部から消えて、代わりに5月をあらわすGUI部品が人差し指に付加されている。なお、そのほかのGUI部品については、図に示すように1つずつずれて表示される。
なお、手の傾きを取得する方法としては、前述した基準軸を操作面の垂直方向に固定する方法以外にも、操作者が操作面に最初に置いた手の方向からの相対的な角度を算出する方法も考えられる。接触位置取得部32が操作者の操作面への接触を最初に検知したときの手形状の方向を新たな基準軸として、手形状の方向の示す角度が、その基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦が割り当て直される構成としてもよい。この様にすることで、操作者が操作面上に自然に手を置いたときの手形状の方向が基準軸とされるため、操作者は操作面の垂直方向が基準軸であることを気にする必要がなくなり、操作性がより向上する。
このとき、図21に示すように、手形状映像2101の破線で示す手形状が最初に置いた操作者の手形状の初期位置として登録され、手形状映像2102の実線で示す手形状が現状の手の位置を示している。このとき、手の傾きパラメータとしては、図に示した角度θが用いられる。具体的な処理の流れを図22を用いて説明する。
まず、S2201において、操作者の手が操作面上にあるか否かが判定される。操作者の手が操作面上に置かれたと判定された場合、手の角度が算出される(S2202)。次に、S2203において、S2202で算出された角度(初期角度)が演算処理3にあるメモリ領域に保持される。
次に、S2204において、手が置かれているか否かが判定される。ここで手が離されていると判定されれば、以下の処理を行わず、処理を終了する。
次にS2205において、現状の手の角度計算が行われる。ここでS2202で算出された初期角度に対する現状の手の角度が予め定められた閾値以上か否かがS2206において判定され、閾値以上(S2206でYes)であると判定されれば、GUI部品の各指への割り当てが変更される。S2206において、閾値未満であれば、S2204に戻る。
以上説明したように、本発明によれば、手の動きに応じて各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置を提供することができる。
なお、上記実施の形態において、GUI釦データ、手形状映像、手形状の特徴量(パラメータ)等を記憶装置4に記憶する様にしたが、演算処理機3が内部に備えるメモリに記憶する様にしてもよい。
また、手形状の方向を検出するための基準軸は、操作面の垂直方向としたが、表示部の画面の垂直方向を基準軸としてもよい。
上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。
本発明に係るユーザインターフェイス装置は、指先に付加された、機器を操作するための機能を容易に変更することが可能となり、車載機器の他、良好な使い勝手が要求されるコンピュータ関連製品等に好適である。
1 ユーザインターフェイス装置
2 タッチパネル
3 演算処理機
4 記憶装置
5 撮像装置
6 表示装置
31 手形状取得部
32 接触位置取得部
33 手形状パラメータ取得部
34 指先機能選定部
35 GUI画像作成部
36 重畳表示映像作成部
101 投光機
401、903、1101、1301、1311、1401、1411、1501、1511、1802、1803、1804、1805、1806、1901、2001、2002、2101、2102 手形状映像
402、403、1302〜1306、1312〜1316、1402〜1406、1412〜1416、1502〜1506、1512〜1516 GUI釦
701 手形状抽出部
702 掌領域決定
703 指先位置取得部
704 手方向取得部
901 重心位置
902、904 重心位置901を中心とした同心円
1001〜1005 指の領域画像
1008 指先位置
1104 手方向θ
1106、1308、1407、1810、2010、2110 基準軸

Claims (3)

  1. 機器を操作するためのユーザインターフェイス装置であって、
    操作者の操作面への接触位置を検知する接触位置取得部と、
    操作者の手形状を取得する手形状取得部と、
    前記手形状取得部が取得した手形状から、当該手形状の方向を取得する手形状方向取得部と、
    前記機器を操作するための機能に対して一意に割当てられたGUI(Graphical User Interface)釦を表すGUI釦データを記憶するGUI釦データ記憶部と、
    前記手形状取得部が取得した手形状の各指先にGUI釦データ記憶部から読み出したGUI釦を一旦割り当てた後、前記手形状の方向の変化に基づいて、当該手形状の各指先に当該GUI釦を割り当て直すGUI釦割り当て部と、
    前記GUI釦割り当て部が割り当てたGUI釦の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、
    前記重畳表示映像作成部が作成した合成画像を表示する表示部とを備える、ユーザインターフェイス装置。
  2. 前記GUI釦割り当て部は、前記手形状方向取得部が取得した手形状の方向の示す角度が前記操作面の垂直方向の基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦を割り当て直すことを特徴とする、請求項1に記載のユーザインターフェイス装置。
  3. 前記GUI釦割り当て部は、前記手形状方向取得部が取得した手形状の方向の示す角度が、前記接触位置取得部が操作者の操作面への接触を検知したときの前記手形状の方向を示す基準軸に対して所定角大きくなる度に、当該手形状の各指先の並びに応じて順番に、未だ割り当てられていないGUI釦を割り当て直すことを特徴とする、請求項1に記載のユーザインターフェイス装置。
JP2008551041A 2006-12-22 2007-12-18 ユーザインターフェイス装置 Expired - Fee Related JP5179378B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008551041A JP5179378B2 (ja) 2006-12-22 2007-12-18 ユーザインターフェイス装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006345520 2006-12-22
JP2006345520 2006-12-22
PCT/JP2007/074300 WO2008078603A1 (ja) 2006-12-22 2007-12-18 ユーザインターフェイス装置
JP2008551041A JP5179378B2 (ja) 2006-12-22 2007-12-18 ユーザインターフェイス装置

Publications (2)

Publication Number Publication Date
JPWO2008078603A1 JPWO2008078603A1 (ja) 2010-04-22
JP5179378B2 true JP5179378B2 (ja) 2013-04-10

Family

ID=39562396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008551041A Expired - Fee Related JP5179378B2 (ja) 2006-12-22 2007-12-18 ユーザインターフェイス装置

Country Status (5)

Country Link
US (1) US8284168B2 (ja)
EP (1) EP2124139A4 (ja)
JP (1) JP5179378B2 (ja)
CN (1) CN101563666B (ja)
WO (1) WO2008078603A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150105005A (ko) * 2014-03-07 2015-09-16 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101977796B (zh) * 2008-03-19 2013-05-08 株式会社电装 车辆操作输入设备
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5402322B2 (ja) * 2009-07-02 2014-01-29 ソニー株式会社 情報処理装置および情報処理方法
JP5792424B2 (ja) 2009-07-03 2015-10-14 ソニー株式会社 地図情報表示装置、地図情報表示方法およびプログラム
JP5648207B2 (ja) * 2009-09-04 2015-01-07 現代自動車株式会社 車両用操作装置
US20110227831A1 (en) * 2010-03-21 2011-09-22 Andrew Jesse Mills Determining Properties of Fingers via Keystroke Dynamics
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
US9542032B2 (en) * 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
WO2012061141A2 (en) * 2010-10-25 2012-05-10 Uico, Inc. Control system with solid state touch sensor for complex surface geometry
JP5737748B2 (ja) * 2011-02-10 2015-06-17 学校法人 名城大学 統合入力インターフェース
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
US8553001B2 (en) 2011-03-22 2013-10-08 Adobe Systems Incorporated Methods and apparatus for determining local coordinate frames for a human hand
US10621410B2 (en) * 2011-06-20 2020-04-14 Benjamin Zimchoni Method and system for operating a keyboard with multi functional keys, using fingerprints recognition
US20130002602A1 (en) * 2011-06-28 2013-01-03 Suzana Apelbaum Systems And Methods For Touch Screen Image Capture And Display
US9671954B1 (en) * 2011-07-11 2017-06-06 The Boeing Company Tactile feedback devices for configurable touchscreen interfaces
US20130057515A1 (en) * 2011-09-07 2013-03-07 Microsoft Corporation Depth camera as a touch sensor
JP5624530B2 (ja) * 2011-09-29 2014-11-12 株式会社東芝 コマンド発行装置、方法及びプログラム
JP2013117784A (ja) * 2011-12-01 2013-06-13 Panasonic Corp 入力装置、情報端末、入力制御方法、および入力制御プログラム
TW201335833A (zh) * 2012-02-29 2013-09-01 Hon Hai Prec Ind Co Ltd 電子設備編輯工具變更方法及系統
DE102012011177A1 (de) * 2012-06-06 2013-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
DE102012219736A1 (de) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
TWI475422B (zh) * 2012-10-31 2015-03-01 Wistron Corp 手勢辨識方法與電子裝置
JP5459385B2 (ja) * 2012-12-26 2014-04-02 株式会社デンソー 画像表示装置及び指示体画像の表示方法
DE112013006621T5 (de) * 2013-02-08 2015-11-05 Motorola Solutions, Inc. Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
US9477315B2 (en) * 2013-03-13 2016-10-25 Honda Motor Co., Ltd. Information query by pointing
US9841815B2 (en) * 2013-09-09 2017-12-12 Samsung Electronics Co., Ltd. Method for differentiation of touch input and visualization of pending touch input
US9875019B2 (en) * 2013-12-26 2018-01-23 Visteon Global Technologies, Inc. Indicating a transition from gesture based inputs to touch surfaces
JP2015170102A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 情報処理装置
KR102430657B1 (ko) * 2014-06-30 2022-08-08 더 비디오 콜 센터, 엘엘씨 비디오 콜 센터
EP3377358B1 (en) * 2015-11-20 2021-04-21 Harman International Industries, Incorporated Dynamic reconfigurable display knobs
US10185400B2 (en) * 2016-01-11 2019-01-22 Antimatter Research, Inc. Gesture control device with fingertip identification
DE102016003072A1 (de) * 2016-03-12 2017-09-14 Audi Ag Bedienvorrichtung und Verfahren zum Erfassen einer Benutzerauswahl zumindest einer Bedienfuktion der Bedienvorrichtung
CN107203320A (zh) * 2016-03-18 2017-09-26 大陆汽车投资(上海)有限公司 基于多点触摸的用户界面控制方法
US10719232B2 (en) * 2016-06-08 2020-07-21 Qualcomm Incorporated Providing virtual buttons in a handheld device
DE102017201799A1 (de) * 2017-02-06 2018-08-09 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
DE102017213435A1 (de) * 2017-08-02 2019-02-07 Audi Ag Verfahren und Vorrichtung zur Bedienung einer Bedienvorrichtung in Fahrzeugen
CN111566597A (zh) * 2018-01-18 2020-08-21 索尼公司 信息处理设备、信息处理方法和程序
US10140502B1 (en) 2018-02-13 2018-11-27 Conduit Ltd Selecting data items using biometric features
JP7280032B2 (ja) * 2018-11-27 2023-05-23 ローム株式会社 入力デバイス、自動車
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300444A (ja) * 2002-04-11 2003-10-21 Hitachi Ltd 移動体の運転支援装置
JP2005254851A (ja) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd コマンド入力装置
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4928170A (en) * 1988-06-21 1990-05-22 Visualtek, Inc. Automatic focus control for an image magnification system
DE69204045T2 (de) * 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
JPH10269012A (ja) 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
DE10120067C1 (de) * 2001-04-24 2002-06-13 Siemens Ag Mobiles Kommunikationsendgerät
JP4351599B2 (ja) 2004-09-03 2009-10-28 パナソニック株式会社 入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300444A (ja) * 2002-04-11 2003-10-21 Hitachi Ltd 移動体の運転支援装置
JP2005254851A (ja) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd コマンド入力装置
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150105005A (ko) * 2014-03-07 2015-09-16 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치

Also Published As

Publication number Publication date
JPWO2008078603A1 (ja) 2010-04-22
EP2124139A4 (en) 2013-01-09
US20090309848A1 (en) 2009-12-17
CN101563666B (zh) 2012-05-02
WO2008078603A1 (ja) 2008-07-03
EP2124139A1 (en) 2009-11-25
CN101563666A (zh) 2009-10-21
US8284168B2 (en) 2012-10-09

Similar Documents

Publication Publication Date Title
JP5179378B2 (ja) ユーザインターフェイス装置
US11048333B2 (en) System and method for close-range movement tracking
US8413075B2 (en) Gesture movies
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
JP5506375B2 (ja) 情報処理装置及びその制御方法
US8619048B2 (en) Method and device of stroke based user input
US11132119B2 (en) User interface and method for adapting a view of a display unit
US20060084482A1 (en) Electronic hand-held device with a back cover keypad and a related method
US20100302155A1 (en) Virtual input devices created by touch input
US20090002342A1 (en) Information Processing Device
CN102906671A (zh) 手势输入装置及手势输入方法
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
EP2752745A1 (en) Input control device, input control method, and input control program
JP2013037675A5 (ja)
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
JP2008084158A (ja) 入力装置
JP2007072578A (ja) 入力装置
TWI510994B (zh) 可攜式電子裝置及控制可攜式電子裝置的方法
JP5374564B2 (ja) 描画装置、描画制御方法、及び描画制御プログラム
US20170083229A1 (en) Magnifying display of touch input obtained from computerized devices with alternative touchpads
JP2016110518A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2006011914A (ja) 画像表示制御装置及び画像表示制御プログラム
JP4786292B2 (ja) 情報処理装置、階層情報出力方法及びプログラム
JP2010009311A (ja) ユーザインタフェイス装置
TWI494846B (zh) One-hand touch method and hand-held touch device for hand-held touch device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101022

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120618

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130109

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees