TWI464640B - 手勢感測裝置及具有手勢輸入功能的電子系統 - Google Patents

手勢感測裝置及具有手勢輸入功能的電子系統 Download PDF

Info

Publication number
TWI464640B
TWI464640B TW101111860A TW101111860A TWI464640B TW I464640 B TWI464640 B TW I464640B TW 101111860 A TW101111860 A TW 101111860A TW 101111860 A TW101111860 A TW 101111860A TW I464640 B TWI464640 B TW I464640B
Authority
TW
Taiwan
Prior art keywords
gesture
virtual plane
sensing device
unit
input function
Prior art date
Application number
TW101111860A
Other languages
English (en)
Other versions
TW201342138A (zh
Inventor
Chia Chang Hou
Chun Chieh Li
Chia Te Chou
Shou Te Wei
Ruey Jiann Lin
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW101111860A priority Critical patent/TWI464640B/zh
Priority to CN201210118158.XA priority patent/CN103365410B/zh
Priority to US13/548,217 priority patent/US20130257736A1/en
Publication of TW201342138A publication Critical patent/TW201342138A/zh
Application granted granted Critical
Publication of TWI464640B publication Critical patent/TWI464640B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

手勢感測裝置及具有手勢輸入功能的電子系統
本發明是有關於一種感測裝置,且特別是有關於一種手勢(gesture)感測裝置。
在傳統的使用者介面中,通常是利用按鍵、鍵盤或滑鼠來操控電子裝置。隨著科技的進步,新一代的使用者介面作得越來越人性化且越來越方便,其中觸控介面即是一個成功的例子,其讓使用者可直覺式地點選螢幕上的物件而達到操控的效果。
然而,由於觸控介面仍需使用者利用手指或觸控筆來觸碰螢幕以達到觸控,其觸控方式的變化種類之數目仍受到限制,例如受限於單點觸控、多點觸控、拖曳…等等這些種類。此外,需利用手指觸碰螢幕的方式亦會使得應用層面受到限制。舉例而言,當家庭主婦作菜時,若使用油膩的手來觸碰用以顯示食譜的螢幕,將會造成螢幕表面沾到油污而產生不便。或者,外科醫師套上無菌手套以進行手術時,將無法藉由觸碰螢幕來查看病歷中之影像資料,因為這容易使手套上沾黏細菌。另外,機械修理師在修理機械時,由於手上容易沾到油污,將不便去觸碰用以顯示技術手冊的螢幕。另外,當在浴缸內看電視時,以手觸碰螢幕容易沾溼螢幕,而容易對電視造成不良的影響。
相較之下,手勢感測裝置的操作方式則是讓手或其他物體在空間中呈現某些姿勢,即能夠達到操控的效果,亦即能夠實現不接觸到螢幕的操控。然而,習知的手勢感測裝置通常是採用立體攝影機來感測在空間中的手勢,但立體攝影機及用以判讀立體影像的處理單元往往造價昂貴,而使得習知的手勢感測裝置的成本難以下降,進而使習知手勢感測裝置難以普及。
本發明提供一種手勢感測裝置,其能夠以低成本實現有效的手勢感測。
本發明之一實施例提出一種手勢感測裝置,用以配置於一電子裝置上。手勢感測裝置包括至少一光學單元組,其配置於電子裝置的一表面旁,且定義出一虛擬平面。每一光學單元組包括複數個光學單元,且每一光學單元包括一光源及一取像元件。光源向虛擬平面射出一偵測光,其中虛擬平面從表面往遠離表面的方向延伸。取像元件沿著虛擬平面取像。當一物體與虛擬平面交會,物體將在虛擬平面中傳遞的偵測光反射成一反射光,且取像元件偵測反射光,以獲得物體的資訊。
本發明之一實施例提出一種具有手勢輸入功能的電子系統,其包括上述電子裝置及上述手勢感測裝置。
本發明之一實施例提出一種判斷手勢的方法,包括下列步驟。於一第一時間,在一第一取樣處與一第二取樣處分別取得一物體的一第一切面資訊與一第二切面資訊。於一第二時間,在第一取樣處與第二取樣處分別取得物體的一第三切面資訊與一第四切面資訊。比較第一切面資訊與第三切面資訊以得到一第一變化資訊。比較第二切面資訊與第四切面資訊以得到一第二變化資訊。根據第一變化資訊與第二變化資訊以判斷物體的手勢變化。
基於上述,由於本發明之實施例之手勢感測裝置及具有手勢輸入功能的電子系統是藉由光學單元組來定義出虛擬平面,且偵測與虛擬平面交會的物體所反射的光,因此本發明之實施例可利用簡單的架構即達成空間中手勢的感測。如此一來,本發明之實施例之手勢感測裝置便能夠以低成本達到有效的手勢感測。此外,由於本發明之實施例之判斷手勢的方法是根據物體的截面資訊的變化來判斷手勢變化,因此本發明之實施例之判斷手勢的方法較為簡化,且可達到良好的判斷效果。
為讓本發明之上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1A為本發明之一實施例之具有手勢輸入功能的電子系統的下視示意圖,圖1B為圖1A之具有手勢輸入功能的電子系統的立體示意圖,而圖1C為圖1A中之光學單元的立體示意圖。請參照圖1A至圖1C,本實施例之具有手勢輸入功能的電子系統100包括一電子裝置110及一手勢感測裝置200。在本實施例中,電子裝置110例如是一平板電腦。然而,在其他實施例中,電子裝置110亦可以是顯示螢幕、個人數位助理(personal digital assistant,PDA)、行動電話、數位相機、數位攝影機、筆記型電腦、單體全備電腦(all-in-one computer)或其他適當的電子裝置。在本實施例中,電子裝置110具有一表面111,表面111例如為電子裝置110的顯示面,亦即是電子裝置110的螢幕112之顯示面111。然而,在其他實施例中,表面111亦可以是鍵盤表面、使用者介面的表面或其他適當的表面。
手勢感測裝置200用以配置於電子裝置110上。手勢感測裝置200包括至少一光學單元組210(在圖1A與圖1B中是以一個光學單元組210為例),其配置於電子裝置110的表面111旁,且定義出一虛擬平面V。在本實施例中,光學單元組210配置於表面111(即顯示面)旁的邊框114上。每一光學單元組210包括複數個光學單元212(在圖1A與圖1B中是以兩個光學單元212為例),且每一光學單元212包括一光源211及一取像元件213。在本實施例中,光源211為雷射產生器,例如為雷射二極體。然而,在其他實施例中,光源211亦可以是發光二極體或其他適當的發光元件。
光源211向虛擬平面V射出一偵測光D,其中虛擬平面V從表面111往遠離表面111的方向延伸。在本實施例中,光源211例如是沿著虛擬平面V射出一偵測光D。此外,在本實施例中,偵測光D為不可見光,例如為紅外光。然而,在其他實施例中,偵測光D亦可以是可見光。另外,在本實施例中,虛擬平面V實質上垂直於表面111。然而,在其他實施例中,虛擬平面V亦可以與表面111夾一個不等於90度的夾角,但虛擬平面V不與表面111平行。
取像元件213沿著虛擬平面V取像,且用以偵測虛擬平面V中的物體。在本實施例中,取像元件213為線感測器(line sensor),亦即其偵測面呈線狀。舉例而言,取像元件213例如為互補式金氧半導體感測器(complementary metal oxide semiconductor sensor,CMOS sensor)或電荷耦合元件(charge coupled device,CCD)。
當一物體50(如使用者的手或其他適當的物體)與虛擬平面V交會,物體50將在虛擬平面V中傳遞的偵測光D反射成一反射光R,且取像元件213偵測反射光R,以獲得物體50的資訊,例如物體50的位置資訊、尺寸資訊等。
在本實施例中,光學單元組210的這些光學單元212a及212b之這些光源211的光軸A1與這些取像元件213的光軸A2皆實質上落在虛擬平面V上,如此可進一步確保偵測光D在虛擬平面V中傳遞,且可進一步確保取像元件213沿著虛擬平面V取像,亦即偵測在虛擬平面V中傳遞的反射光R。
關於前述「光源211沿著對應的虛擬平面V射出一偵測光D」,及其解釋「光學單元212a與212b的光源211的光軸A1皆實質上落在虛擬平面V上」,其中光源211的方向僅是一種實施例。例如,在另一實施例中,如圖1D所繪示,光學單元2121的光源211位於對應的虛擬平面V的上方,且光源211向斜下發射偵測光D,也就是光源211的光軸與虛擬平面V交叉(在圖1D中,代表偵測光D的實線例如是與光源211的光軸實質上重合),偵測光D照射到物體50一樣能產生反射光R,反射光R也依舊能被對應的光學單元2121的取像元件213偵測。反過來光源211位於虛擬平面V的下方時亦如是,可知光源211只要向對應的虛擬平面V射出偵測光D,便能達到本案發明之實施例所需要的技術。
圖2為圖1A中之手勢感測裝置的方塊圖,圖3A繪示以圖1B之手勢感測裝置感測物體的立體示意圖,圖3B繪示圖1B之手勢感測裝置感測物體的上視示意圖,圖4A為圖1B之光學單元212a的取像元件的成像示意圖,而圖4B為圖1B之光學單元212b的取像元件的成像示意圖。請先參照圖2、圖3A與圖3B,在本實施例中,手勢感測裝置200更包括一平面位置計算單元220,平面位置計算單元220根據來自這些取像元件213(如光學單元212a的取像元件213及光學單元212b的取像元件213)的物體50的資料且利用三角定位法計算出物體50在虛擬平面V中的切面S的位置與大小。如圖3A與圖3B所示,根據切面S在光學單元212a的取像元件213及光學單元212b的取像元件213上的成像位置與大小可決定切面S至光學單元212a的取像元件213及光學單元212b的取像元件213的連線與顯示面111的夾角α及β,且可決定切面S上的每一點在光學單元212a的取像元件213及光學單元212b的取像元件213上所形成的張角。如圖4A與圖4B所示,縱軸為取像元件213所偵測到的光強度,而橫軸為取像元件213的感測面上之成像位置。這些橫軸上的成像位置皆可換算成入射取像元件213的光的入射角度,例如反射光R的入射角度。因此,藉由切面S在光學單元212a的取像元件213及光學單元212b的取像元件213上的成像位置即可得知夾角α及β以及上述切面S所形成的張角。接著,平面位置計算單元220根據夾角α及β,以三角定位法計算出物體50在虛擬平面中的切面S的位置,並根據切面S上的每一點在光學單元212a的取像元件213及光學單元212b的取像元件213上所形成的張角來計算出切面S的大小。
在本實施例中,手勢感測裝置200更包括一記憶單元230,其儲存平面位置計算單元220所計算出的物體50的切面S的位置與大小。在本實施例中,手勢感測裝置200更包括一手勢判斷單元240,其根據記憶單元230所儲存的物體50的切面S的位置與大小來判定物體50所產生的手勢。具體而言,由於記憶單元230可以儲存多個不同時間中切面S的位置與大小,因此手勢判斷單元240可據此判斷切面S的動態,進而判斷出手勢的動態。在本實施例中,手勢判斷單元240根據記憶單元230所儲存的物體50的切面S的位置之隨時間的變化量與大小之隨時間的變化量來判定物體50的手勢之動態。
在本實施例中,手勢感測裝置200更包括一傳輸單元250,其將手勢判斷單元240所判定的手勢所對應的指令傳輸至一待指示的電路單元。舉例而言,當電子裝置100為平板電腦、單體全備電腦、個人數位助理、行動電話、數位相機、數位攝影機或筆記型電腦,待指示的電路單元例如為電子裝置100中的中央處理器(central processing unit,CPU)。另一方面,當電子裝置100為顯示螢幕時,待指示的電路單元例如為電性連接至顯示螢幕的電腦或其他適當的主機的中央處理器或控制單元。
舉例而言,如圖1B所繪示,當手勢判斷單元240判斷出物體50是從螢幕112的左前方移動至螢幕112的右前方時,手勢判斷單元240例如可下達往左翻一頁的指令,並透過傳輸單元250將此指令傳輸至待指示的電路單元,而待指示的電路單元則控制螢幕112,以使螢幕112顯示往左翻一頁的畫面。同理,當手勢判斷單元240判斷出物體50是從螢幕112的右前方移動至螢幕112的左前方時,手勢判斷單元240例如可下達往右翻一頁的指令,並透過傳輸單元250將此指令傳輸至待指示的電路單元,而待指示的電路單元則控制螢幕112,以使螢幕112顯示往右翻一頁的畫面。具體而言,當手勢判斷單元240偵測到物體50所在位置的x座標不斷地增加,且增加的量達到一定的門檻值時,就可以判斷出物體50是向右移動。另一方面,當手勢判斷單元240偵測到物體50所在位置的x座標不斷地減少,且減少的量達到一定的門檻值時,就可以判斷出物體50是向左移動。
在本實施例中,由於虛擬平面V是從表面111往遠離表面111的方向延伸,例如是實質上垂直於表面111,因此手勢感測裝置200除了可偵測物體50在螢幕112的前方之上下左右的移動,還可偵測物體50相對於螢幕112的距離,亦即可偵測物體50的深度。舉例而言,當物體50往螢幕112靠近時,可以縮小螢幕112中的文字或物件,而當物體50遠離螢幕112時,可以放大螢幕112中的文字或物件。此外,其他的手勢亦可對應至其他的指令,或者上述手勢亦可對應至其他的指令。具體而言,當手勢判斷單元240偵測到物體50所在位置的y座標不斷地增加,且增加的量達到一定的門檻值時,就可以判斷出物體50是往遠離螢幕112的方向移動。反之,當手勢判斷單元240偵測到物體50所在位置的y座標不斷地減少,且減少的量達到一定的門檻值時,就可以判斷出物體50是往靠近螢幕112的方向移動。
由於本實施例之手勢感測裝置200及具有手勢輸入功能的電子系統100是藉由光學單元組210來定義出虛擬平面V,且偵測與虛擬平面V交會的物體50所反射的光(即反射光R),因此本實施例可利用簡單的架構即達成空間中手勢的感測。相較於習知技術採用昂貴的立體攝影機及判讀立體影像的處理單元或軟體來感測在空間中的手勢,本實施例之手勢感測裝置200由於架構相對簡單而能夠以低成本達到有效的手勢感測。
此外,由於本實施例之手勢感測裝置200的機構輕薄短小,因此易於內嵌於電子裝置110(例如平板電腦或筆記型電腦)中。再者,由於本實施例之手勢感測裝置200及具有手勢輸入功能的電子系統100是偵測物體50與虛擬平面V交會處(即切面S)的位置與大小,因此演算過程較為簡化,所以可提升手勢感測裝置200的框速率(frame rate),進而可預測物體50的姿勢(如手掌的姿勢)。
由於使用本實施例之手勢感測裝置200及具有手勢輸入功能的電子系統100時,使用者可以在手指不觸碰螢幕112的情況下達到手勢輸入,因此可大幅增加手勢感測裝置200及具有手勢輸入功能的電子系統100的應用層面。舉例而言,當家庭主婦作菜時,可利用手在螢幕112前方揮動而達到讓螢幕112所顯示的食譜翻頁的效果,因此油膩的手便不會觸碰到螢幕而使螢幕112表面沾到油污。或者,外科醫師套上無菌手套以進行手術時,可藉由手勢在螢幕112前方揮動,來查看病歷中之影像資料,如此便不會使手套上沾黏細菌而造成污染。另外,機械修理師在修理機械時,可藉由手勢在螢幕112前方揮動,以查閱技術手冊,如此便不會使沾有油污的手弄髒螢幕。另外,當在使用者在浴缸內看電視時,可藉由手勢在螢幕112前方揮動以選台或調整音量,如此沾溼的手便不會對電視造成不良的影響。上述查看食譜、病歷中之影像資料及技術手冊的指令及選台及調整音量的指令可以透過簡單、不複雜的手勢即可達成,因此以本實施例之架構簡單之手勢感測裝置200即可達成,所以可以不用採用昂貴的立體攝影機及用以判讀立體影像的處理單元或軟體,進而可以有效降低成本。
圖5為本發明之另一實施例之具有手勢輸入功能的電子系統的立體示意圖。請參照圖5,本實施例之具有手勢輸入功能的電子系統100a與圖1B之具有手勢輸入功能的電子系統100類似,而兩者的差異如下所述。在本實施例之手勢輸入功能的電子系統100a的手勢感測裝置200a具有複數個光學單元組210’及210”。在圖5中是以兩個光學單元組210’及210”為例,但在其他實施例中,手勢感測裝置亦可具有三個以上的光學單元組。如此一來,就可以產生複數個虛擬平面V。在本實施例中,這些光學單元組210’及210”所定義出的這些虛擬平面V彼此實質上平行。
在本實施例中,這些虛擬平面V實質上延著螢幕112的上下方向排列,且每一虛擬平面V實質上延著螢幕112的左右方向延伸,因此手勢感測裝置200a除了可偵測物體50相對於螢幕112的左右移動及前後移動(即在深度方向移動)之外,亦可偵測物體50相對於螢幕112的上下移動。舉例而言,當物體50沿著方向C1由下往上移動時,物體50會依序與圖5下方的虛擬平面V及圖5上方的虛擬平面V交會,而依序被光學單元組210”與光學單元組210’偵測到。如此一來,手勢感測裝置200a的手勢判斷單元240便能夠判斷出物體50是由下往上移動。
在本實施例中,光學單元組210的這些光學單元212之這些光源211的光軸A1與這些取像元件213的光軸A2皆實質上落在靠近圖5的下方之虛擬平面V上,且光學單元組210’的這些光學單元212之這些光源211的光軸A1與這些取像元件213的光軸A2皆實質上落在靠近圖5的上方之虛擬平面V上。
在另一實施例中,這些虛擬平面V亦可實質上延著螢幕112的左右方向排列,且每一虛擬平面V實質上延著螢幕112的上下方向延伸。或者,這些虛擬平面V亦可延著相對於螢幕112的其他方向排列及延伸。
圖6A為本發明之又一實施例之具有手勢輸入功能的電子系統的立體示意圖,圖6B為本發明之一實施例之判斷手勢的方法的流程圖,圖7A為圖6A中之虛擬平面與物體的相互關係之立體示意圖,圖7B為圖7A之側視示意圖,而圖7C為圖7A中的物體分別在三個虛擬平面中的切面之示意圖。請參照圖6A、圖6B及圖7A至圖7C,本實施例之具有手勢輸入功能的電子系統100b與圖5之具有手勢輸入功能的電子系統100a類似,而兩者的差異如下所述。在本實施例之具有手勢輸入功能的電子系統100b中,電子裝置110b的表面111b為鍵盤表面,而電子裝置110b例如為筆記型電腦。在本實施例中,手勢感測裝置200b具有複數個光學單元組210b1、210b2及210b3(在圖6A中是以三個光學單元組為例),以分別產生三個虛擬平面V1、V2及V3。這些虛擬平面V1、V2及V3實質上垂直於表面111b,這些虛擬平面V1、V2及V3實質上彼此互相平行。
在本實施例中,電子裝置110b的螢幕112則位於這些虛擬平面V1、V2及V3的一側。舉例而言,螢幕112可轉動至實質上平行於這些虛擬平面V1、V2及V3的位置,或轉動至相對於這些虛擬平面V1、V2及V3傾斜一較小的角度。如此一來,手勢感測裝置200b便能夠用來偵測螢幕112前方的手勢。在一實施例中,螢幕112可用以顯示一立體影像,而立體影像與虛擬平面V1、V2及V3在空間中交會。如此一來,藉由手勢判斷單元240將虛擬平面V1、V2及V3的位置座標與螢幕112所形成的立體影像的位置座標整合或確認彼此間的轉換關係後,在螢幕112前方的手勢便能夠與立體影像中的立體物件在螢幕前方的空間中達成互動。
由圖7A至圖7C可知,手的不同部分與虛擬平面V1、V2及V3相交處會分別形成大小不同的切面S1、S2及S3,因此手勢判斷單元240可根據這些切面S1、S2及S3彼此間的大小關係來判斷這些切面S1、S2及S3是在手的哪個部位,進而判斷出更為多樣化的手勢。舉例而言,面積較小的切面S1可被判斷為對應於使用者的手指,而面積較大的切面S3可被判斷為對應於使用者的手掌。
圖8繪示在圖6A之具有手勢輸入功能的電子系統的螢幕前方的一種手勢在虛擬平面上產生的三個切面之移動情形。請參照圖6A、圖6B及圖8,本實施例之判斷手勢的方法可應用於圖6A之具有手勢輸入功能的電子系統100b或上述其他實施例之具有手勢輸入功能的電子系統,而以下以應用於圖6A之具有手勢輸入功能的電子系統100b為例以進行說明。本實施例之判斷手勢的方法包括下列步驟。首先,執行步驟S10,於一第一時間,在一第一取樣處與一第二取樣處分別取得物體50的一第一切面資訊(例如切面S1的資訊)與一第二切面資訊(例如切面S3的資訊)。在本實施例中,是於第一時間在第一取樣處、第二取樣處與第三取樣處分別取得物體50的切面S1的資訊、切面S2的資訊及切面S3的資訊,其中第一取樣處、第二取樣處及第三取樣處例如分別為虛擬平面V1、虛擬平面V3及虛擬平面V2所在的位置,而切面S1、切面S2與切面S3分別位於虛擬平面V1、虛擬平面V2及虛擬平面V3中。本發明並不限制取樣處及切面資訊的數量,取樣處與切面資訊的數量可以是二個、三個或四個以上。
接著,執行步驟S20,於一第二時間,在第一取樣處與第二取樣處分別取得物體50的一第三切面資訊(例如切面S1’的資訊)與一第四切面資訊(例如切面S3’的資訊)。在本實施例中,是於第二時間,在虛擬平面V1、V2及V3分別取得物體50的切面S1’、S2’及S3’的資訊,而切面S1’、S2’及S3’分別位於虛擬平面V1、V2及V3中。在本實施例中,切面S1~S3及S1’~S3’的資訊各包括切面位置、切面尺寸及切面數量之至少其中之一。
然後,執行步驟S30,比較第一切面資訊(例如切面S1的資訊)與第三切面資訊(例如切面S1’的資訊)以得到一第一變化資訊。比較第二切面資訊(例如切面S3的資訊)與第四切面資訊(例如切面S3’的資訊)以得到一第二變化資訊。在本實施例中,更比較切面S2的資訊與切面S2’的資訊以得到一第三變化資訊。在本實施例中,第一變化資訊、第二變化資訊及第三變化資訊各包括切面位移量、切面轉動量、切面尺寸變化量及切面數量變化量之至少其中之一。
接著,執行步驟S40,根據第一變化資訊與第二變化資訊以判斷物體的手勢變化。在本實施例中,是根據第一變化資訊、第二變化資訊及第三變化資訊以判斷物體的手勢變化。本實施例之手勢(gesture)可以是手的各種姿勢的變化,但也可以是其他觸控物體(如觸控筆)的各種位置變化、形狀變化與轉動角度變化等。
舉例而言,請參照圖6A與圖8,由圖8可知,切面S1、S2及S3分別在虛擬平面V1、V2及V3中往左移動至切面S1’、S2’及S3’的位置,且切面S1的移動距離大於切面S2,而切面S2的移動距離大於切面S3。由於切面S1是對應至手指,而切面S3是對應至手掌,因此手勢判斷單元240便可判斷這樣的手勢為手腕大致上不動,而手指大致上以手腕為轉動中心而從螢幕112的右方轉動至左方。這乃是根據切面位移量來判斷手勢的變化。
圖9A、圖9B及圖9C分別繪示在圖6A之具有手勢輸入功能的電子系統的螢幕前方的三種手勢變化。請先參照圖6A與圖9A,當使用者的手勢從圖9A左方所示者變成圖9A右方所示者,即由伸出一指改變成伸出三指時,手勢感測裝置200b會偵測到虛擬平面V1中的切面S1數量從一個變成三個,如此一來,手勢判斷單元240便可判斷出使用者的手勢從伸出一指變成伸出三指。此乃根據切面數量變化量來判斷手勢的變化。請再參照圖6A與圖9B,當使用者的手勢從圖9B左方所示者變成圖9B右方所示者時,手勢感測裝置200b會偵測到虛擬平面V1、V2及V3中的切面S1、S2及S3旋轉至如圖9B右方之切面S1”、S2”及S3”的位置,如此一來,手勢判斷單元240便可判斷出使用者的手的旋轉。此乃根據切面轉動量來判斷手勢的變化。請再參照圖6A與圖9C,當使用者的手勢從圖9C左方所示者變成圖9C右方所示者時,手勢感測裝置200b會偵測到虛擬平面V1、V2及V3中的切面S1、S2及S3的尺寸會變化成如圖9C右方之切面S1’’’、S2’’’及S3’’’的尺寸,例如切面S2’’’的尺寸明顯大於切面S2的尺寸。如此一來,手勢判斷單元240便可判斷出使用者的手往靠近螢幕112的方向移動。此乃根據切面尺寸變化量來判斷手勢變化。
圖8及圖9A至圖9C舉出四種不同的手勢變化為例,但實際上圖6A的具有手勢輸入功能的電子系統100b及手勢判斷單元240根據與上述類似的原理還可用以偵測更多不同的手勢,再此不一一舉例,但其仍屬本發明所保護的範圍。此外,上述內容是以在第一時間與第二時間等兩個時間判斷手勢的變化為例。本實施例之判斷手勢的方法還可以在多個時間(例如大於3個的時間)比較每兩個相鄰的時間之切面資訊,以得到變化資訊,如此便能夠判斷出手勢的連續變化。
由於本實施例之判斷手勢的方法是根據物體50的切面資訊的變化來判斷手勢變化,因此本實施例之判斷手勢的方法較為簡化,且可達到良好的判斷效果。如此可簡化用以執行判斷手勢方法的演算法,進而降低軟體開發成本及硬體製造成本。
圖10用以說明圖6A之手勢感測裝置的手勢感測及辦識過程。請參考圖6A及圖10,首先,光學單元組210b1、210b2及210b3分別感測在虛擬平面V1、V2及V3上的切面S1、S2及S3。接著,平面位置計算單元220執行步驟S110,其為以三角定位的方式分別決定切面S1的座標與尺寸參數(x1,y1,size1)、切面S2的座標與尺寸參數(x2,y2,size2)及切面S3的座標與尺寸參數(x3,y3,size3)。因此,圖6B之步驟S10與S20可藉由光學單元組210與平面位置計算單元220來完成。接著,記憶單元230儲存平面位置計算單元220在不同的時間中所決定的切面S1、S2及S3的座標與尺寸參數。然後,手勢判斷單元240執行步驟S120,其為根據參數(x1,y1,size1)、參數(x2,y2,size2)及參數(x3,y3,size3)在連續的多個不同的時間中的變化量來判斷手勢的揮動方向及姿勢。因此,圖6B之步驟S30與S40可藉由記憶單元230與手勢判斷單元240來完成。之後,傳輸單元250再將手勢判斷單元240所判定的手勢所對應的指令傳輸至一待指示的電路單元。
圖10之手勢感測及辦識過程不但可應用於圖6A之實施例,亦可應用於如圖5之實施例或其他實施例。在一實施例中,圖5之螢幕112亦可以用來顯示立體影像,而使用者的手仍可在空間中與立體影像中的立體物件產生互動。
綜上所述,由於本發明之實施例之手勢感測裝置及具有手勢輸入功能的電子系統是藉由光學單元組來定義出虛擬平面,且偵測與虛擬平面交會的物體所反射的光,因此本發明之實施例可利用簡單的架構即達成空間中手勢的感測。如此一來,本發明之實施例之手勢感測裝置便能夠以低成本達到有效的手勢感測。此外,由於本發明之實施例之判斷手勢的方法是根據物體的切面資訊的變化來判斷手勢變化,因此本發明之實施例之判斷手勢的方法較為簡化,且可達到良好的判斷效果。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,故本發明之保護範圍當視後附之申請專利範圍所界定者為準。
50...物體
100、100a、100b...具有手勢輸入功能的電子系統
110、110b...電子裝置
111、111b...表面
112...螢幕
114...邊框
200、200a、200b...手勢感測裝置
210、210’、210”、210b1、210b2、210b3...光學單元組
211...光源
212、212a、212b、2121...光學單元
213...取像元件
220...平面位置計算單元
230...記憶單元
240...手勢判斷單元
250...傳輸單元
A1、A2...光軸
C1...方向
D...偵測光
R...反射光
S、S1、S2、S3、S1’、S2’、S3’、S1”、S2”、S3”、S1’’’、S2’’’、S3’’’...切面
S10~S40、S110、S120...步驟
V、V1、V2、V3...虛擬平面
α、β...夾角
圖1A為本發明之一實施例之具有手勢輸入功能的電子系統的下視示意圖。
圖1B為圖1A之具有手勢輸入功能的電子系統的立體示意圖。
圖1C為圖1A中之光學單元的立體示意圖。
圖1D為圖1C中之光學單元的另一變化的側視示意圖。
圖2為圖1A中之手勢感測裝置的方塊圖。
圖3A繪示以圖1B之手勢感測裝置感測物體的立體示意圖。
圖3B繪示圖1B之手勢感測裝置感測物體的上視示意圖。
圖4A為圖1B之取像元件212a的成像示意圖。
圖4B為圖1B之取像元件212b的成像示意圖。
圖5為本發明之另一實施例之具有手勢輸入功能的電子系統的立體示意圖。
圖6A為本發明之又一實施例之具有手勢輸入功能的電子系統的立體示意圖。
圖6B為本發明之一實施例之判斷手勢的方法的流程圖。
圖7A為圖6A中之虛擬平面與物體的相互關係之立體示意圖。
圖7B為圖7A之側視示意圖。
圖7C為圖7A中的物體分別在三個虛擬平面中的切面之示意圖。
圖8繪示在圖6A之具有手勢輸入功能的電子系統的螢幕前方的一種手勢在虛擬平面上產生的三個切面之移動情形。
圖9A、圖9B及圖9C分別繪示在圖6A之具有手勢輸入功能的電子系統的螢幕前方的三種手勢變化。
圖10用以說明圖6A之手勢感測裝置的手勢感測及辦識過程。
50...物體
100...具有手勢輸入功能的電子系統
110...電子裝置
111...表面
112...螢幕
114...邊框
200...手勢感測裝置
210...光學單元組
212、212a、212b...光學單元
D...偵測光
R...反射光
S...切面
V...虛擬平面

Claims (32)

  1. 一種手勢感測裝置,用以配置於一電子裝置上,該手勢感測裝置包括:至少一光學單元組,配置於該電子裝置的一表面旁,每一光學單元組定義出一虛擬平面,每一光學單元組包括複數個光學單元,每一光學單元包括:一光源,向該虛擬平面射出一偵測光,其中該虛擬平面從該表面往遠離該表面的方向延伸;以及一取像元件,沿著該虛擬平面取像,其中當一物體與該虛擬平面交會,該物體將在該虛擬平面中傳遞的該偵測光反射成一反射光,且該取像元件偵測該反射光,以獲得該物體的資訊。
  2. 如申請專利範圍第1項所述之手勢感測裝置,其中該表面為一顯示面、一鍵盤表面或一使用者介面的表面。
  3. 如申請專利範圍第1項所述之手勢感測裝置,其中該虛擬平面實質上垂直於該表面。
  4. 如申請專利範圍第1項所述之手勢感測裝置,其中該至少一光學單元組為複數個光學單元組,且該些光學單元組所分別定義出的複數個虛擬平面彼此實質上平行。
  5. 如申請專利範圍第1項所述之手勢感測裝置,更包括一平面位置計算單元,該平面位置計算單元根據來自該些取像元件的該物體的資料且利用三角定位法計算出該物體在該虛擬平面中的切面的位置與大小。
  6. 如申請專利範圍第5項所述之手勢感測裝置,更 包括一記憶單元,儲存該平面位置計算單元所計算出的該物體的切面的位置與大小。
  7. 如申請專利範圍第6項所述之手勢感測裝置,更包括一手勢判斷單元,根據該記憶單元所儲存的該物體的切面的位置與大小來判定該物體所產生的手勢。
  8. 如申請專利範圍第7項所述之手勢感測裝置,更包括一傳輸單元,將該手勢判斷單元所判定的手勢所對應的指令傳輸至一待指示的電路單元。
  9. 如申請專利範圍第7項所述之手勢感測裝置,其中該手勢判斷單元根據該記憶單元所儲存的該物體的該切面的該位置之隨時間的變化量與該大小之隨時間的變化量來判定該物體的手勢之動態。
  10. 如申請專利範圍第1項所述之手勢感測裝置,其中該取像元件為線感測器。
  11. 如申請專利範圍第10項所述之手勢感測裝置,其中該線感測器為互補式金氧半導體感測器或電荷耦合元件。
  12. 如申請專利範圍第1項所述之手勢感測裝置,其中該光源為雷射產生器或發光二極體。
  13. 如申請專利範圍第1項所述之手勢感測裝置,其中該光學單元組的該些光學單元之該些光源的光軸與該些取像元件的光軸皆實質上落在該虛擬平面上。
  14. 一種具有手勢輸入功能的電子系統,包括:一電子裝置,具有一表面;以及 一手勢感測裝置,配置於該電子裝置上,該手勢感測裝置包括:至少一光學單元組,配置於該電子裝置的該表面旁,每一光學單元組定義出一虛擬平面,每一光學單元組包括複數個光學單元,每一光學單元包括:一光源,向該虛擬平面射出一偵測光,其中該虛擬平面從該表面往遠離該表面的方向延伸;以及一取像元件,沿著該虛擬平面取像,其中當一物體與該虛擬平面交會,該物體將在該虛擬平面中傳遞的該偵測光反射成一反射光,且該取像元件偵測該反射光,以獲得該物體的資訊。
  15. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該表面為一顯示面、一鍵盤表面或一使用者介面的表面。
  16. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該虛擬平面實質上垂直於該表面。
  17. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該至少一光學單元組為複數個光學單元組,且該些光學單元組所分別定義出的複數個虛擬平面彼此實質上平行。
  18. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該手勢感測裝置更包括一平面位置計算單元,該平面位置計算單元根據來自該些取像元件的該物 體的資料且利用三角定位法計算出該物體在該虛擬平面中的切面的位置與大小。
  19. 如申請專利範圍第18項所述之具有手勢輸入功能的電子系統,其中該手勢感測裝置更包括一記憶單元,儲存該平面位置計算單元所計算出的該物體的切面的位置與大小。
  20. 如申請專利範圍第19項所述之具有手勢輸入功能的電子系統,其中該手勢感測裝置更包括一手勢判斷單元,根據該記憶單元所儲存的該物體的切面的位置與大小來判定該物體所產生的手勢。
  21. 如申請專利範圍第20項所述之具有手勢輸入功能的電子系統,其中該手勢感測裝置更包括一傳輸單元,將該手勢判斷單元所判定的手勢所對應的指令傳輸至一待指示的電路單元。
  22. 如申請專利範圍第20項所述之具有手勢輸入功能的電子系統,其中該手勢判斷單元根據該記憶單元所儲存的該物體的該切面的該位置之隨時間的變化量與該大小之隨時間的變化量來判定該物體的手勢之動態。
  23. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該取像元件為線感測器。
  24. 如申請專利範圍第23項所述之具有手勢輸入功能的電子系統,其中該線感測器為互補式金氧半導體感測器或電荷耦合元件。
  25. 如申請專利範圍第14項所述之具有手勢輸入功能 的電子系統,其中該光源為雷射產生器或發光二極體。
  26. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該電子裝置包括一螢幕,用以顯示一立體影像,且該立體影像與該虛擬平面在空間中交會。
  27. 如申請專利範圍第14項所述之具有手勢輸入功能的電子系統,其中該光學單元組的該些光學單元之該些光源的光軸與該些取像元件的光軸皆實質上落在該虛擬平面上。
  28. 一種判斷手勢的方法,包括:於一第一時間,在一第一取樣處與一第二取樣處分別取得一物體的一第一切面資訊與一第二切面資訊;於一第二時間,在該第一取樣處與該第二取樣處分別取得該物體的一第三切面資訊與一第四切面資訊;比較該第一切面資訊與該第三切面資訊以得到一第一變化資訊;比較該第二切面資訊與該第四切面資訊以得到一第二變化資訊;以及根據該第一變化資訊與該第二變化資訊以判斷該物體的手勢變化。
  29. 如申請專利範圍第28項所述之判斷手勢的方法,其中該第一取樣處與該第二取樣處分別為空間中的一第一虛擬平面與一第二虛擬平面所在的位置,該第一切面資訊與該第三切面資訊分別為該物體位於該第一虛擬平面與該第二虛擬平面上的切面之資訊。
  30. 如申請專利範圍第29項所述之判斷手勢的方法,其中該第一虛擬平面實質上平行於該第二虛擬平面。
  31. 如申請專利範圍第28項所述之判斷手勢的方法,其中該第一切面資訊、該第二切面資訊、該第三切面資訊及該第四切面資訊各包括切面位置、切面尺寸及切面數量之至少其中之一。
  32. 如申請專利範圍第28項所述之判斷手勢的方法,其中該第一變化資訊與該第二變化資訊各包括切面位移量、切面轉動量、切面尺寸變化量及切面數量變化量之至少其中之一。
TW101111860A 2012-04-03 2012-04-03 手勢感測裝置及具有手勢輸入功能的電子系統 TWI464640B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW101111860A TWI464640B (zh) 2012-04-03 2012-04-03 手勢感測裝置及具有手勢輸入功能的電子系統
CN201210118158.XA CN103365410B (zh) 2012-04-03 2012-04-19 手势感测装置及具有手势输入功能的电子***
US13/548,217 US20130257736A1 (en) 2012-04-03 2012-07-13 Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101111860A TWI464640B (zh) 2012-04-03 2012-04-03 手勢感測裝置及具有手勢輸入功能的電子系統

Publications (2)

Publication Number Publication Date
TW201342138A TW201342138A (zh) 2013-10-16
TWI464640B true TWI464640B (zh) 2014-12-11

Family

ID=49234226

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101111860A TWI464640B (zh) 2012-04-03 2012-04-03 手勢感測裝置及具有手勢輸入功能的電子系統

Country Status (3)

Country Link
US (1) US20130257736A1 (zh)
CN (1) CN103365410B (zh)
TW (1) TWI464640B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI611340B (zh) * 2015-10-04 2018-01-11 義明科技股份有限公司 非接觸式手勢判斷方法及其裝置
US10558270B2 (en) 2015-10-04 2020-02-11 Eminent Electronic Technology Corp. Ltd. Method for determining non-contact gesture and device for the same

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
DE102012014910A1 (de) * 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US20140181710A1 (en) * 2012-12-26 2014-06-26 Harman International Industries, Incorporated Proximity location system
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) * 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
TWI528226B (zh) 2014-01-15 2016-04-01 緯創資通股份有限公司 影像式觸控裝置及其控制方法
CN104850330B (zh) * 2014-02-18 2018-12-14 联想(北京)有限公司 信息处理方法、***及电子设备
CN104850271B (zh) * 2014-02-18 2019-03-29 联想(北京)有限公司 一种输入方法和装置
CN104866073B (zh) * 2014-02-21 2018-10-12 联想(北京)有限公司 信息处理方法及其***、包括该信息处理***的电子设备
CN104881109B (zh) * 2014-02-28 2018-08-10 联想(北京)有限公司 一种动作识别方法、装置及电子设备
JP6307627B2 (ja) * 2014-03-14 2018-04-04 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機
FR3024262B1 (fr) * 2014-07-24 2017-11-17 Snecma Dispositif d'aide a la maintenance d'un moteur d'aeronef par reconnaissance de mouvement a distance.
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
CN110622219B (zh) * 2017-03-10 2024-01-19 杰创科增强现实有限公司 交互式增强现实
US10598786B2 (en) * 2017-06-25 2020-03-24 Pixart Imaging Inc. Object state determining apparatus and object state determining method
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
CN110502095B (zh) * 2018-05-17 2021-10-29 宏碁股份有限公司 具备手势感测功能的三维显示器
CN110581987A (zh) * 2018-06-07 2019-12-17 宏碁股份有限公司 具备手势感测功能的三维显示器
FR3094191B1 (fr) * 2019-03-29 2021-04-09 Seb Sa Appareil electromenager
US11698457B2 (en) * 2019-09-04 2023-07-11 Pixart Imaging Inc. Object detecting system and object detecting method
TWI788090B (zh) * 2021-11-08 2022-12-21 啟碁科技股份有限公司 虛擬輸入介面控制方法及虛擬輸入介面控制系統

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
TW201118665A (en) * 2009-11-18 2011-06-01 Qisda Corp Object-detecting system
TWM406774U (en) * 2011-01-17 2011-07-01 Top Victory Invest Ltd Touch control assembly and display structure
TW201207694A (en) * 2010-08-03 2012-02-16 Qisda Corp Object detecting system and object detecting method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8169404B1 (en) * 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
WO2009062153A1 (en) * 2007-11-09 2009-05-14 Wms Gaming Inc. Interaction with 3d space in a gaming system
US8773352B1 (en) * 2008-07-16 2014-07-08 Bby Solutions, Inc. Systems and methods for gesture recognition for input device applications
US20120154825A1 (en) * 2009-08-25 2012-06-21 Sharp Kabushiki Kaisha Location identification sensor, electronic device, and display device
CN102299990A (zh) * 2010-06-22 2011-12-28 希姆通信息技术(上海)有限公司 手势控制的手机
US20130182079A1 (en) * 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
TW201118665A (en) * 2009-11-18 2011-06-01 Qisda Corp Object-detecting system
TW201207694A (en) * 2010-08-03 2012-02-16 Qisda Corp Object detecting system and object detecting method
TWM406774U (en) * 2011-01-17 2011-07-01 Top Victory Invest Ltd Touch control assembly and display structure

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI611340B (zh) * 2015-10-04 2018-01-11 義明科技股份有限公司 非接觸式手勢判斷方法及其裝置
US10558270B2 (en) 2015-10-04 2020-02-11 Eminent Electronic Technology Corp. Ltd. Method for determining non-contact gesture and device for the same

Also Published As

Publication number Publication date
CN103365410B (zh) 2016-01-27
US20130257736A1 (en) 2013-10-03
TW201342138A (zh) 2013-10-16
CN103365410A (zh) 2013-10-23

Similar Documents

Publication Publication Date Title
TWI464640B (zh) 手勢感測裝置及具有手勢輸入功能的電子系統
CA2811868C (en) Operation input apparatus, operation input method, and program
Wang et al. Empirical evaluation for finger input properties in multi-touch interaction
KR102335132B1 (ko) 하나의 단일 감지 시스템을 이용하는 멀티 모드 제스처 기반의 상호작용 시스템 및 방법
KR101791366B1 (ko) 증강된 가상 터치패드 및 터치스크린
US8723789B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
KR101890459B1 (ko) 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
US20120274550A1 (en) Gesture mapping for display device
US9454260B2 (en) System and method for enabling multi-display input
US8416189B2 (en) Manual human machine interface operation system and method thereof
US20120319945A1 (en) System and method for reporting data in a computer vision system
TW201040850A (en) Gesture recognition method and interactive input system employing same
TW201421281A (zh) 虛擬觸控方法
TW201439813A (zh) 顯示設備及其控制系統和方法
TWI499938B (zh) 觸控系統
US20140168165A1 (en) Electronic device with virtual touch function and instant adjusting method for virtual touch
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP2016015078A (ja) 表示制御装置、表示制御方法、及び、プログラム
US20150323999A1 (en) Information input device and information input method
US20170139545A1 (en) Information processing apparatus, information processing method, and program
Soleimani et al. Converting every surface to touchscreen
Murugappana et al. Extended multitouch: Recovering touch posture, handedness, and user identity using a depth camera
TWI499937B (zh) 利用手勢與手指的遙控方法及遙控裝置
KR20140021166A (ko) 2차원 가상 터치 장치
공중 et al. Design and Evaluation of a Hand-held Device for Recognizing Mid-air Hand Gestures