TWI506479B - 光學觸控系統 - Google Patents

光學觸控系統 Download PDF

Info

Publication number
TWI506479B
TWI506479B TW103124207A TW103124207A TWI506479B TW I506479 B TWI506479 B TW I506479B TW 103124207 A TW103124207 A TW 103124207A TW 103124207 A TW103124207 A TW 103124207A TW I506479 B TWI506479 B TW I506479B
Authority
TW
Taiwan
Prior art keywords
target object
optical touch
processor
light source
touch system
Prior art date
Application number
TW103124207A
Other languages
English (en)
Other versions
TW201602839A (zh
Inventor
Yun Cheng Liu
Chin Kang Chang
Chao Ching Huang
Original Assignee
Quanta Comp Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanta Comp Inc filed Critical Quanta Comp Inc
Priority to TW103124207A priority Critical patent/TWI506479B/zh
Priority to CN201410371592.8A priority patent/CN105320361B/zh
Priority to US14/463,964 priority patent/US20160019424A1/en
Application granted granted Critical
Publication of TWI506479B publication Critical patent/TWI506479B/zh
Publication of TW201602839A publication Critical patent/TW201602839A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

光學觸控系統
本發明係有關於光學系統,特別是有關於可利用光學裝置判斷觸控位置之一種光學觸控系統。
隨著科技進步,具有觸控面板之電子裝置,例如是智慧型手機、智慧型電視、筆記型電腦、觸控螢幕等等也愈來愈普遍。然而,對於許多使用者來說,其所具有的電子裝置,例如是傳統LCD/LED電視或顯示器等等,並未具備觸控功能。因此,若使用者欲讓傳統的電視或顯示器具有觸控功能,往往僅能更換具有觸控功能的電視或顯示器,這也往往造成使用者的負擔。
本發明係提供一種光學觸控系統,包括:一顯示單元;一光源;一影像擷取單元,用以擷取該顯示單元前由該光源所發射出之光線所反射之複數張影像;以及一處理器,其中該處理器係依據該等影像判斷在該顯示單元前之一操作空間是否具有一目標物件,其中當該處理器判斷該目標物件係位 於該操作空間之一觸控區域時,該處理器係判斷該目標物件進行一觸控操作,其中當該處理器判斷該目標物件係位於該操作空間之一手勢區域時,該處理器係判斷該目標物件進行一手勢操作。
100‧‧‧光學觸控系統
110‧‧‧影像擷取單元
111‧‧‧透鏡
112‧‧‧感測器陣列
120‧‧‧光源
130‧‧‧處理器
140‧‧‧顯示單元
200‧‧‧相機模組
210‧‧‧操作空間
220、222‧‧‧虛線
230‧‧‧玻璃區域
240‧‧‧觸控區域
250‧‧‧手勢區域
280‧‧‧擷取影像
300、400‧‧‧校正基準平面
310-340‧‧‧區塊
350‧‧‧校正基準影像
360‧‧‧校正影像
270、500‧‧‧目標物件
H、f、Z、Z’‧‧‧距離
h1、h2‧‧‧像素座標位置
第1圖係顯示依據本發明一實施例中之光學觸控系統的功能方塊圖。
第2A圖係顯示依據本發明一實施例中光學式觸控系統之俯視圖。
第2B圖係顯示依據本發明一實施例中光學式觸控系統之側視圖。
第2C圖係顯示依據本發明一實施例中之擷取影像的示意圖。
第3A圖係顯示依據本發明一實施例中之利用光學觸控系統以校正深度關係的示意圖。
第3B圖係顯示依據本發明一實施例中之校正基準影像的示意圖。
第3C圖係顯示依據本發明另一實施例中之校正基準影像的示意圖。
第3D圖係顯示依據本發明另一實施例中之擷取影像的示意圖。
第3E圖係顯示依據本發明一實施例中之光源120所發射出 的特定圖樣之示意圖。
第3F圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。
第4圖係顯示依據本發明一實施例中之光學深度計算的示意圖。
第5圖係顯示依據本發明一實施例中利用光學觸控系統計算觸控位置的示意圖。
第6圖係顯示依據本發明一實施例中之觸控方法的流程圖。
為使本發明之上述目的、特徵和優點能更明顯易懂,下文特舉一較佳實施例,並配合所附圖式,作詳細說明如下。
第1圖係顯示依據本發明一實施例中之光學觸控系統的功能方塊圖。如第1圖所示,光學觸控系統100係包括一影像擷取單元110、一光源120、一處理器130、以及一顯示單元140。在一實施例中,影像擷取單元110及光源120係可整合於一相機模組中,並可安裝於顯示單元140之邊緣。舉例來說,影像擷取單元110係可為一紅外線相機,且光源120係可為紅外光(infrared light)光源,但本發明並不限於此。影像擷取單元110係持續擷取在顯示單元140表面上的觸控物件之影像,且處理器130係分析影像擷取單元110所擷取的影像,並判斷在影像中的觸控物件及其在三維操作空間中之位置。
第2A圖係顯示依據本發明一實施例中光學式觸控 系統之俯視圖。第2B圖係顯示依據本發明一實施例中光學式觸控系統之側視圖。如第2A圖所示,包括影像擷取單元110及光源120之相機模組200係安裝於顯示單元140之其中一角落,其中影像擷取單元110係具有一操作空間210,例如以上方視角所得到的是介於虛線220及222之間的範圍。請參考第2B圖,一般來說,顯示單元140的表面係由一層玻璃142所組成,影像擷取單元110係以一拍攝視角α進行擷取影像。因此,處理器130係由所擷取之影像中判斷目標物件270(例如是手指、手掌或觸控筆)在顯示單元140上方之操作空間210中的位置。
第2C圖係顯示依據本發明一實施例中之擷取影像的示意圖。影像擷取單元110所拍攝之擷取影像280係如第2C圖所示。舉例來說,該擷取影像可分為幾個區域,例如是玻璃區域(glass zone)230、觸控區域(touch zone)240、以及手勢區域(gesture zone)250,其他部份在拍攝範圍外的部份均屬於無效區(invalid zone)。當目標物件270位於觸控區域240,則處理器130係判斷使用者欲在顯示單元140之表面進行觸控操作。當目標物件位於手勢區域250,處理器130係判斷使用者欲進行手勢操作,且處理器130係由擷取影像280中計算目標物件270之深度變化及行動軌跡,藉以判斷其手勢動作。
更進一步而言,觸控區域240係為在玻璃區域230上面在一預定像素距離之內的空間,其中預定像素距離為10像素,但本發明並不限於此。除此之外,觸控區域240及手勢區域250係藉由擷取影像中之像素位置來區分。舉例來說,在擷取影像280中之左上角的A1點座標(XA1 ,YA1 )為(0,0),且右下角 之B1點座標(XB1 ,YB1 )為(200,200),其中往右為X軸,往下為Y軸。舉例來說,手勢區域250之左上角同樣為A1點,其座標為(0,0),且其右下角之B2點座標為(200,100)。觸控區域240之左上角為A2點,其座標(XA2 ,YA2 )為(0,100),且其右下角之為A3點,其座標(XA3 ,YA3 )為(200,110)。更進一步而言,當目標物件接近顯示單元140之表面時,擷取影像280中之觸控區域會產生相應在X、Y軸的灰階資訊。處理器130係再搭配擷取影像280中之像素位置與深度的對應關係,即可算出目標物件在顯示單元140之表面上的觸控位置。
第3A圖係顯示依據本發明一實施例中之利用光學觸控系統以校正深度關係的示意圖。第3B圖係顯示依據本發明一實施例中之校正基準影像的示意圖。如第3A圖所示,在光學觸控系統100進行深度關係之校正時係利用在一預定距離的一校正基準平面300,例如是牆,其中校正基準平面300與光學觸控系統100之間的距離是一已知距離D,且光學觸控系統100中之光源120係對校正基準平面300之牆面發射具有特定圖樣的校正基準影像350。當影像擷取單元110為一紅外線照相機時,其所擷取的影像僅有灰階資訊。需注意的是,第3B圖係以相反的灰階值表示。舉例來說,如第3B圖所示,為了便於說明,黑色光斑(實際上白色光斑)為光源120所發射出的特定條碼(barcode)或特定圖樣。光源120所發射出的特定條碼或特定圖樣係以區塊做為分隔,例如以8x8像素為一區塊,其中各區塊均有其相應的條碼,彼此之間均不相同。例如區塊310與區塊320之條碼均不相同,且區塊310與區塊330之條碼亦不相同。
第3C圖係顯示依據本發明另一實施例中之校正基準影像的示意圖。第3D圖係顯示依據本發明另一實施例中之擷取影像的示意圖。如第3C圖所示,當擷取影像中沒有任何目標物件時,影像擷取單元110所擷取之影像即為校正基準影像350。如第3D圖所示,當一目標物件270(例如一手掌)出現於擷取影像中,該目標物件與影像擷取單元110之距離往往與已知距離D不同,意即在第3C圖中之校正影像360之區塊340的特定圖樣在第3D圖中之位置會產生變化,例如往右移動了10個像素。此時,處理器130則可依據校正基準影像350與距離之關係計算出該目標物件與影像擷取單元110之距離。
第3E圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。第3F圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。在一實施例中,光源120所發射出的特定圖樣可為干涉條紋,如第3E圖所示。在另一實施例中,光源120所發射出的特定圖樣可為二維條碼(2D Barcode),如第3F圖所示。對於本發明領域具有通常知識者當了解本發明中由光源120所發出之特定圖樣並未限於於上述兩種圖樣之形式,其他可用於光學圖樣辨識之特定圖樣亦可用於本發明。
第4圖係顯示依據本發明一實施例中之光學深度計算的示意圖。在一實施例中,影像擷取單元110係包括一透鏡111及一感測器陣列112,其中感測器陣列112係包括複數個光學感測器,例如是CMOS或CCD感測器。如第4圖所示,距離Z係為透鏡111至校正基準平面400之距離,其為已知距離。在 光學觸控系統100進行校正時,光源120係投射具有特定圖樣之校正基準影像至校正基準平面400。距離H係表示光源120至透鏡111之中心點的距離。距離f係表示透鏡111至感測器112之距離。h1係表示在距離Z之校正基準平面400上之特定圖樣反射至感測器陣列112之像素座標位置。h2係表示在特定距離Z’之特定圖樣反射至感測器陣列112之像素座標位置。其中該特定距離Z’即為待求距離。
利用光學對焦原理,由第4圖可得知:h1/f=H/Z (1)
Z=f(h1) (2)
Z’=f(h2) (3)
因此,可利用上列公式(1)、(2)、(3)推得待求距離Z’,意即可求得目標物件與影像擷取單元110之間的待求距離Z’。
第5圖係顯示依據本發明一實施例中利用光學觸控系統計算觸控位置的示意圖。如第5圖所示,當利用第4圖所揭示之方式求得目標物件500與影像擷取單元110之間的待求距離Z’後,處理器130更以該影像擷取單元110為準,判斷該目標物件500與顯示單元140之邊緣的夾角θ。接著,處理器130即可利用三角函數的關係式求得目標物件500在顯示單元140上之觸控位置的座標(X,Y)。例如X=Cos θ * Z’,Y=Sin θ *Z’。
第6圖係顯示依據本發明一實施例中之觸控方法的流程圖。在步驟S610,影像擷取單元110係持續擷取影像資料。在步驟S620,處理器130係依據該等影像資料計算一深度 資訊圖。在步驟S630,處理器130係判斷在觸控區域是否有目標物件,若是,則執行步驟S650,若否,則執行步驟S640。在步驟S640,處理器130更判斷在手勢區域是否有目標物件,若是,則執行步驟S670,若否,則回到步驟S610。更進一步而言,處理器130在判斷觸控區域或手勢區域是否有目標物件時,其係利用本發明第4圖之實施例計算光源120所發射出的特定圖樣是否產生位移,並利用位移量計算目標物件與影像擷取單元之間的距離(即深度),再進一步判斷該目標物件位於觸控區域或手勢區域。
在步驟S650,處理器130係計算目標物件之深度以及該目標物件在顯示單元140上的觸控位置。在步驟S660,處理器130係輸出相應於該觸控位置之一觸控指令。在步驟S670,處理器130係計算目標物件之深度變化及其行動軌跡以判斷其手勢動作。在步驟S680,處理器130係輸出相應的手勢操作結果。需注意的是,在本發明領域中具有通常知識者當可了解在步驟S670及S680中判斷手勢之相關演算法係可參考習知技術,故其細節於此不再贅述。
綜上所述,本發明係提供一種光學觸控系統及觸控方法,其可利用額外的一影像擷取單元及光源安裝於傳統不具有觸控功能的顯示器或電視上,藉以進行觸控操作及手勢操作,並可節省使用者更換其電視或顯示器的成本。
本發明雖以較佳實施例揭露如上,然其並非用以限定本發明的範圍,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可做些許的更動與潤飾,因 此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100‧‧‧光學觸控系統
110‧‧‧影像擷取單元
120‧‧‧光源
130‧‧‧處理器
140‧‧‧顯示單元

Claims (8)

  1. 一種光學觸控系統,包括:一顯示單元;一光源;一影像擷取單元,用以擷取該顯示單元前由該光源所發射出之光線所反射之複數張影像;以及一處理器,其中該處理器係依據該等影像判斷在該顯示單元前之一操作空間是否具有一目標物件,其中當該處理器判斷該目標物件係位於該操作空間之一觸控區域時,該處理器係判斷該目標物件進行一觸控操作,其中當該處理器判斷該目標物件係位於該操作空間之一手勢區域時,該處理器係判斷該目標物件進行一手勢操作。
  2. 如申請專利範圍第1項所述之光學觸控系統,其中該光源為一紅外線光源,且該影像擷取單元為一紅外線照相機。
  3. 如申請專利範圍第1項所述之光學觸控系統,其中該處理器係依據該等影像計算一深度資訊圖,並依據該深度資訊圖判斷該目標物件位於該觸控區域或該手勢區域。
  4. 如申請專利範圍第1項所述之光學觸控系統,其中當該處理器判斷該目標物件係位於該觸控區域時,該處理器係計算該目標物件之一深度以及該目標物件相對於該顯示單元之一觸控位置。
  5. 如申請專利範圍第1項所述之光學觸控系統,其中當該處理器判斷該目標物件係位於該手勢區域時,該處理器係計算該目標物件之深度變化以及其行動軌跡,藉以判斷該目標物件之一手勢動作。
  6. 如申請專利範圍第1項所述之光學觸控系統,其中該光源係發射出具有複數個區塊之一校正基準影像,且各區域包括相應的複數個特定圖樣,其中該處理器係判斷各區域之該等特定圖樣之一位移量以計算該目標物件之一深度。
  7. 如申請專利範圍第6項所述之光學觸控系統,其中該等特定圖樣為複數個干涉條紋。
  8. 如申請專利範圍第6項所述之光學觸控系統,其中該等特定圖樣為複數個二維條碼。
TW103124207A 2014-07-15 2014-07-15 光學觸控系統 TWI506479B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW103124207A TWI506479B (zh) 2014-07-15 2014-07-15 光學觸控系統
CN201410371592.8A CN105320361B (zh) 2014-07-15 2014-07-31 光学触控***
US14/463,964 US20160019424A1 (en) 2014-07-15 2014-08-20 Optical touch-control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW103124207A TWI506479B (zh) 2014-07-15 2014-07-15 光學觸控系統

Publications (2)

Publication Number Publication Date
TWI506479B true TWI506479B (zh) 2015-11-01
TW201602839A TW201602839A (zh) 2016-01-16

Family

ID=55074822

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103124207A TWI506479B (zh) 2014-07-15 2014-07-15 光學觸控系統

Country Status (3)

Country Link
US (1) US20160019424A1 (zh)
CN (1) CN105320361B (zh)
TW (1) TWI506479B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042244B2 (en) * 2012-04-24 2021-06-22 Sony Corporation Terminal device and touch input method
CN106969707B (zh) * 2017-04-07 2019-06-28 京东方科技集团股份有限公司 一种检测装置及其控制方法
US10726233B2 (en) * 2017-08-09 2020-07-28 Fingerprint Cards Ab Providing test patterns for sensor calibration
CN116946826A (zh) * 2022-04-20 2023-10-27 陈鸿文 非接触式按键触发方法及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252720B1 (en) * 1999-08-20 2001-06-26 Disney Entpr Inc Optical system and method for remotely manipulating interactive graphical elements on television screens and the like
US20050260986A1 (en) * 2004-05-24 2005-11-24 Sun Brian Y Visual input pointing device for interactive display system
TWI337717B (en) * 2007-04-12 2011-02-21 Tpo Displays Corp An image display system with a optical touch panel
US20120098793A1 (en) * 2010-10-20 2012-04-26 Pixart Imaging Inc. On-screen-display module, display device, and electronic device using the same
TW201322088A (zh) * 2011-11-30 2013-06-01 Wistron Corp 光學觸控裝置與觸控影像處理方法
TWI433012B (zh) * 2010-05-11 2014-04-01 Pixart Imaging Inc 光學式觸控顯示裝置與光學操作裝置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4023979B2 (ja) * 2000-04-04 2007-12-19 株式会社 ニューコム 光デジタイザ
US8487881B2 (en) * 2007-10-17 2013-07-16 Smart Technologies Ulc Interactive input system, controller therefor and method of controlling an appliance
TWI498785B (zh) * 2009-10-08 2015-09-01 Silicon Motion Inc 觸控感應裝置以及觸碰點偵測方法
US8665244B2 (en) * 2011-02-22 2014-03-04 Microsoft Corporation Optical touch detection
US8860695B2 (en) * 2011-08-05 2014-10-14 Pixart Imaging Inc. Optical touch system and electronic apparatus including the same
US8941619B2 (en) * 2011-11-18 2015-01-27 Au Optronics Corporation Apparatus and method for controlling information display
TWI470511B (zh) * 2012-06-06 2015-01-21 Wistron Corp 雙模輸入裝置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252720B1 (en) * 1999-08-20 2001-06-26 Disney Entpr Inc Optical system and method for remotely manipulating interactive graphical elements on television screens and the like
US20050260986A1 (en) * 2004-05-24 2005-11-24 Sun Brian Y Visual input pointing device for interactive display system
TWI337717B (en) * 2007-04-12 2011-02-21 Tpo Displays Corp An image display system with a optical touch panel
TWI433012B (zh) * 2010-05-11 2014-04-01 Pixart Imaging Inc 光學式觸控顯示裝置與光學操作裝置
US20120098793A1 (en) * 2010-10-20 2012-04-26 Pixart Imaging Inc. On-screen-display module, display device, and electronic device using the same
TW201322088A (zh) * 2011-11-30 2013-06-01 Wistron Corp 光學觸控裝置與觸控影像處理方法

Also Published As

Publication number Publication date
TW201602839A (zh) 2016-01-16
CN105320361A (zh) 2016-02-10
CN105320361B (zh) 2018-03-30
US20160019424A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
US20100103099A1 (en) Pointing device using camera and outputting mark
US10261592B2 (en) Optical hand tracking in virtual reality systems
TWI476364B (zh) 感測方法與裝置
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
JP4927021B2 (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
TWI461975B (zh) 電子裝置及其觸碰位置之校正方法
US20160054859A1 (en) User interface apparatus and control method
TWI506479B (zh) 光學觸控系統
JP2008165800A (ja) カーソル制御方法及び装置
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20130038577A1 (en) Optical touch device and coordinate detection method thereof
TWI581127B (zh) 輸入裝置以及電子裝置
US9639209B2 (en) Optical touch system and touch display system
US20190243456A1 (en) Method and device for recognizing a gesture, and display device
TWI499938B (zh) 觸控系統
TWI536206B (zh) 操作體的定位方法及裝置以及深度判定方法及裝置
Yoo et al. Symmetrisense: Enabling near-surface interactivity on glossy surfaces using a single commodity smartphone
JP7279975B2 (ja) 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
US10599225B2 (en) Projection-based user interface
US9785253B2 (en) Pointing device using camera and outputting mark
JP6643825B2 (ja) 装置及び方法
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
US20140375777A1 (en) Three-dimensional interactive system and interactive sensing method thereof
JP2007272603A (ja) ポインティング装置、ポインティング装置の制御方法及びプログラム
TWI543047B (zh) 光學式觸控面板

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees