TWI432172B - Pupil location method, pupil positioning system and storage media - Google Patents

Pupil location method, pupil positioning system and storage media Download PDF

Info

Publication number
TWI432172B
TWI432172B TW097141172A TW97141172A TWI432172B TW I432172 B TWI432172 B TW I432172B TW 097141172 A TW097141172 A TW 097141172A TW 97141172 A TW97141172 A TW 97141172A TW I432172 B TWI432172 B TW I432172B
Authority
TW
Taiwan
Prior art keywords
angle
distance
value
screen
distribution map
Prior art date
Application number
TW097141172A
Other languages
English (en)
Other versions
TW201016185A (en
Original Assignee
Utechzone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utechzone Co Ltd filed Critical Utechzone Co Ltd
Priority to TW097141172A priority Critical patent/TWI432172B/zh
Priority to US12/506,100 priority patent/US7832866B2/en
Priority to JP2009234851A priority patent/JP5189057B2/ja
Publication of TW201016185A publication Critical patent/TW201016185A/zh
Application granted granted Critical
Publication of TWI432172B publication Critical patent/TWI432172B/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Description

瞳孔定位方法、瞳孔定位系統及儲存媒體
本發明是有關於一種瞳孔定位方法、瞳孔定位系統及儲存媒體,特別是指一種可用眼睛控制電腦之瞳孔定位方法、瞳孔定位系統及儲存媒體。
目前人眼追蹤(Eye tracking)技術以是否與人眼接觸區分為接觸式及非接觸式,接觸式人眼追蹤技術可區分為搜尋線圈法及眼電圖法,非接觸式人眼追蹤技術主要是以視覺辨識為基礎(Vision based),可區分為頭戴式(Head-mount)或免頭戴式(Free-head)。
在接觸式人眼追蹤技術方面,搜尋線圈法(Search coil)是讓使用者配戴具有感應線圈的軟式鏡片,當使用者轉動眼球進而帶動鏡片時,感應線圈會因為磁通量變化產生感應電動勢,此電動勢大小即代表眼球偏轉的角度,但是此方法的缺點在於容易受到使用者眼球狀況的影響,如眼部的分泌物等,且軟式鏡片是雙層結構,會影響使用者的視力;至於眼電圖(EOG)法,則是在眼部周圍貼附複數電極,並利用該等電極偵測眼球轉動所產生的電壓差來判斷其上下左右的角度,缺點是臉部貼附電極的皮膚電阻容易因為角質分泌使得取得的電訊號不穩定,且僅能記錄眼球的巨轉向而無法記錄較微小的角度變化。
在頭戴式人眼追蹤技術方面,使用者必須配戴一附有小型攝影機之眼鏡,由於眼部及攝影機的相對距離固定, 如此就不會因為臉部偏移或眼部的相對距離變化導致判斷不準確,因而在使用者使用時就必須將眼鏡固定於頭部藉此固定小型攝影機與眼睛的相對位置,對使用者而言不但不方便也不舒適。
免頭戴式人眼追蹤技術方面,國外有配合螢幕及雙CCD攝影機的眼部追蹤器(Eye trackers),國內較有名的則有林宸生等人的相關研究。然而,目前所知的免頭戴式人眼追蹤技術係採用較複雜的運算,另外,雙CCD攝影機的眼部追蹤器雖然可以對指標精確定位,但是造價十分昂貴,且需採用兩個CCD攝影機。
由前述可知,無論接觸式或非接觸式的眼控技術在實施時,都需要精準的定位才具有實用性;然而,精準的定位還需搭配昂貴的軟硬體設備,如此一來,使眼控技術無法普及化讓一般大眾也能使用。
因此,本發明之一目的,即在提供一種能無須搭配昂貴硬體的瞳孔定位方法、瞳孔定位系統及儲存媒體。
因此,本發明之另一目的,即在提供一種準確定位的瞳孔定位方法、瞳孔定位系統及儲存媒體。
於是,本發明瞳孔定位方法用以在一使用者注視一螢幕時定位出該使用者觀看該螢幕的位置,該方法包含下述步驟:擷取該使用者之眼部影像,並利用該眼部影像定位出一瞳孔中心及一反光點;以該瞳孔中心至該反光點之距離界定出一距離值,並以該瞳孔中心位置界定一基準線配 合該反光點相對於該瞳孔中心的一向量界定出一角度值;及利用觀看不同位置的該距離值及角度值得到的一角度-距離分佈圖後,以觀看任一位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點,藉此換算觀看螢幕任一點時對應於該螢幕的位置。
本發明儲存媒體用以記錄一電腦程式,該電腦程式令一電腦執行瞳孔定位方法。
本發明瞳孔定位系統包括一發射一光束照射一使用者眼部的光源、一擷取該使用者之眼部影像的攝影機及一運算模組;該運算模組具有一特徵定位單元、一距離-角度處理單元及一座標換算單元。
該特徵定位單元取得該眼部影像並定位出一瞳孔中心及一反光點;該距離-角度處理單元以該瞳孔中心至該反光點之距離界定出一距離值,並以該瞳孔中心位置界定一基準線配合該反光點相對於該瞳孔中心的一向量界定出一角度值;該座標換算單元利用觀看不同位置的該距離值及角度值得到的一角度-距離分佈圖後,以觀看任一位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點,藉此換算觀看螢幕任一點時對應於該螢幕的位置。
本發明瞳孔定位方法、瞳孔定位系統及儲存媒體採用非接觸式技術,無須在人體佩帶額外裝備,並利用觀看不同位置的該距離值及角度值得到的一角度-距離分佈圖來換算觀看螢幕任一點時對應於該螢幕的位置,因此無須複雜 計算而能對定位功能更為準確且有效的控制。
有關本發明之前述及其他技術內容、特點與功效,在以下配合參考圖式之較佳實施例的詳細說明中,將可清楚的呈現。在本發明被詳細描述之前,要注意的是,在以下的說明內容中,類似的元件是以相同的編號來表示。
一、系統架構及方法概念
參閱圖1,本發明瞳孔定位系統1之較佳實施例包括一光源11、一攝影機12、一運算模組13及一螢幕14;該運算模組13包括一訓練單元130、一特徵定位單元131、一距離-角度處理單元132及一座標換算單元133。
本較佳實施例中,運算模組13係一儲存媒體記錄之電腦程式,用以令電腦執行本發明之瞳孔定位方法,該方法依照下列步驟實施:參閱圖1至圖3,訓練單元130是每次在螢幕14顯示一目標區域供該使用者觀看,接續執行步驟301及步驟302後再顯示另一目標區域供該使用者觀看,直到一預定數量的目標區域都顯示完畢;特徵定位單元131取得一使用者4之眼部影像401,並定位出一瞳孔中心41及一反光點42(步驟301),且該眼部影像401由攝影機12拍攝,反光點42是利用光源11發射一光束照射人眼反射而得。
接著,距離-角度處理單元132以瞳孔中心41至反光點42之距離界定出一距離值L,並以瞳孔中心41位置界定一基準線(即水平軸)配合反光點42相對於瞳孔中心41的一向 量43界定出一角度值θ(步驟302)。
然後,座標換算單元133利用觀看不同位置的距離值L及角度值θ得到的一角度-距離分佈圖(步驟303),前述訓練階段的步驟301至步驟303完畢後,即進入應用階段,讓使用者觀看螢幕14的任一位置時,令該位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點(步驟304),如此就可以得到觀看螢幕14任一點時對應於螢幕14的位置。
需說明的是,本發明定義角度值θ為負數時,依據下述公式將其轉換為0度至180度之間的角度:if Angle<0 then Angle=180+Angle; 以下介紹距離值L及角度值θ如何換算對應於該螢幕14的指標101位置的二個較佳實施例,其中一種預定方式是分組對應法,另一種則是內插對應法。
二、分組對應法的實施例
本發明之瞳孔定位方法可區分為一訓練階段(如圖4)及一應用階段(如圖9),各階段之流程詳述如下:參閱圖4,訓練階段之流程包括下述步驟:配合圖1,訓練單元130將螢幕14預先劃分多組區域,每次只顯示其中一組區域,每次顯示一組區域供使用者觀看時,控制特徵定位單元131執行定位及控制距離-角度處理單元132取得各組區域的距離-角度;及若判斷所有區域已顯示完畢時,取得各組區域的距離-角度分佈圖。
如圖5所示,螢幕14劃分為4x4=16組區域,但每次只顯示其中一組區域;然後,訓練階段之流程開始時,先設定計數值I=1(步驟201),每次顯示一區域I供使用者觀看(步驟202)。
接著,擷取一使用者之眼部影像401(步驟203),並利用眼部影像401定位出一瞳孔中心41及一反光點42(步驟204);如圖6所示,瞳孔中心41的定位方法是將眼部影像401經由動態二值化(Adaptive threshold)及型態學(Morphology)之封閉(Close)運算處理後,即可計算出瞳孔中心41的位置。
然後,利用瞳孔中心及反光點界定出一距離值L及一角度值θ(步驟205);將計數值I+1(步驟206);再判斷I=16(步驟207)?若否,則繼續重複步驟202至207,直到判斷I=16時,表示已經取得各組區域的距離-角度分佈圖(步驟208)。
關於距離值L及角度值θ如何界定可參考前述圖2的說明文字,至於距離值L及角度值θ與螢幕14各組區域的距離-角度差異說明如下:參閱圖7(a),螢幕14先顯示”1”區域,此時得到距離值L1 及角度值θ1 ;參閱圖7(b),螢幕14顯示”2”區域,此時得到距離值L2 及角度值θ2 ;參閱圖7(c),螢幕14顯示”3”區域,此時得到距離值L3 及角度值θ3 ;參閱圖7(d),螢幕14顯示”4”區域,此時得到距離值L4 及角度值θ4 ;值得注意的是,由於眼睛視線是水平移動,因此距離值L1 、L2 、 L3 及L4 不會差距太大,但是角度值θ1 、θ2 、θ3 及θ4 則會有較大變化。
但是當眼睛視線下移至”1”、”2”、”3”及”4”的下一排數字”5”、”6”、”7”及”8”時,因為瞳孔下移一小段距離,使得注視”5”、”6”、”7”及”8”時得到的距離值將會變小,角度值則各自對應與θ1 、θ2 、θ3 及θ4 不會有太大差距。
參閱圖8,依據前述的原理,再加上由於眼球為球面而非平面之故,可得到各組區域”1”至”16”的距離-角度分佈圖。
參閱圖9,並配合圖6,分組對應法於實際應用階段之流程包括下述步驟:擷取一使用者之眼部影像401(步驟211),並利用眼部影像401定位出一瞳孔中心41及一反光點42(步驟212);利用瞳孔中心及反光點界定出一距離值Li及一角度值θ i(步驟213);以上步驟請參考圖2的說明,不再贅述。
再參閱圖8,以距離值Li及角度值θ i可對應在角度-距離分佈圖中得到一座標點5,利用最小目標函式找出距離該座標點5最近的區域(步驟214),如此即完成螢幕指標的定位功能(步驟215)。
最小目標函式的公式如下:Min Obj.=W1 |Dist_t-Dis_i|+W2 |Angle_t-Angle_i|(i=1~16) /Dist_i及Angle_i是目標距離值及角度值,Dis_t及Angle_t是目前距離值及角度值;W1 及W2 為分配權重,此 是為了使二者貢獻均衡/
由本較佳實施例可知,本方法是利用多組區域得到的瞳孔中心及反光點的距離及角度,來與與螢幕的多組區域的空間,彼此建立起一對應的關係,進而得到定位功能效果;然而,分組對應法需要看越多組區域,其定位效果才會越好,因而有下面介紹的內插對應法來改善此缺點。
三、內插對應法的實施例
參閱圖10,若將螢幕劃分為8x8=64組區域,則對應各區域得到的距離-角度之點集合會得到一不規則的扇形分佈;如此一來,想利用內插法得到螢幕對應的座標就遇到了困難。
參閱圖11,以少數距離-角度點所畫出的一扇形51,利用一扭正(Un-warping)運算可轉換成一較為規則的矩形52,然後再將該矩形52之位置對應至螢幕14之座標,如此可得到相當近似且良好的對應效果。
本實施例之瞳孔定位方法也是區分為一訓練階段及一應用階段,各階段之流程詳述如下:參閱圖12,訓練階段之流程類似圖2,也包括下述步驟:首先,設定計數值I=1(步驟601),然後,每次顯示區域I供使用者觀看(步驟602);接著,擷取一使用者之眼部 影像401(步驟603),並利用眼部影像401定位出一瞳孔中心41及一反光點42(步驟204);然後,利用瞳孔中心及反光點界定出一距離值L及一角度值θ(步驟605);將計數值I+1(步驟606);再判斷I=16(步驟607)?若否,則繼續重複步驟602至607,直到判斷I=16時,表示已經取得各組區域的距離-角度分佈圖(步驟608)。
不同的是,本方法還要將前述的距離-角度分佈圖經過一扭正運算以得到一正規化分佈圖(步驟609),利用仿射轉換技術校正該正規化分佈圖(步驟610)。
步驟609求得的正規化之距離-角度分佈圖,其公式如下: 扭正運算是將未扭正前的取樣點(X,Y)={(x 1 ,y 1 ),..(x n ,y n )}轉正為目標點(XT ,YT )={(x T 1 ,y T 1 ),...(x Tn ,y Tn )},如:輸入至少6組未扭正前的樣本點(x 1 ,y 1 ),(x 2 ,y 2 ),(x 3 ,y 3 ),(x 4 ,y 4 ),(x 5 ,y 5 )(x 6 ,y 6 )轉正為相對應的6組目標點(u 1 ,v 1 ),(u 2 ,v 2 ),(u 3 ,v 3 ),(u 4 ,v 4 ),(u 5 ,v 5 )(u 6 ,v 6 );其中X,Y表示距離值Li,角度值θ i,n=取樣數目。
為了得到二階導函數的最佳參數,步驟609的扭正運算可藉由反矩陣之運算求得a 0 ~a 5 ,b 0 ~b 5 共12組係數之最佳解;求得a0 ~a5 ,b0 ~b5 共12組係數的解之後,將目前的未知點(X,Y)帶入公式4,就可以求得新座標點(u,v)的值。
步驟610是利用仿射轉換(Affine transform)技術對該瞳孔位置進行移動校正(Moving calibration),移動校正主要係將座標排除其影像縮放、影像平移及影像旋轉影響,進而得到一正規化之座標。
其中(x’,y’)是新座標,a,b,c,d,e,f是仿射轉換的係數。仿射轉換的計算方式,是輸入未校正前的螢幕的任三個角落的三對座標點如:(x 1 ,y 1 ),(x 2 ,y 2 ),(x 3 ,y 3 )及校正後的螢幕的任三個角落的三對座標點(x '1 ,y '1 ),(x '2 ,y '2 )(x '3 ,y '3 ),如此即可解出a~f共6個仿射轉換係數,再將目前的未知點(X,Y)帶入公式5,就可以求得新座標點(x’,y’)的值。
參閱圖13,內插對應法於實際應用階段之流程包括下述步驟:擷取一使用者之眼部影像401(步驟611),並利用眼部影像401定位出一瞳孔中心41及一反光點42(步驟612);利用瞳孔中心及反光點界定出一距離值Li及一角度值θ i(步驟613);以上步驟請參考圖2的說明,不再贅述。
接著,將距離值Li及角度值θ i(即X與Y)對應在校正後的該正規化分佈圖中得到一座標點,再將該座標點以 內插法換算對應於該螢幕的位置(步驟614),如此即完成螢幕定位功能(步驟615)。
四、結論
歸納上述,本發明瞳孔定位方法、瞳孔定位系統及儲存媒體採用非接觸式技術,具有以下的優點:1.無須在人體佩帶額外裝備,使用者無須花費昂貴的費用。
2.分組對應法是利用多組區域得到的瞳孔中心及反光點的距離及角度來與與螢幕的多組區域的空間彼此建立起一對應的關係,因此無須複雜計算而能對定位功能準確且有效的控制。
3.內插對應法以少數距離-角度點所畫出的一扇形利用一扭正運算轉換成一較為規則的矩形,然後再將矩形對應至螢幕,如此可得到相當近似且良好的對應效果,且讓使用者在訓練階段只要觀看少數位置就能達到良好的定位效果,不但精確也能更為省力。
惟以上所述者,僅為本發明之較佳實施例而已,當不能以此限定本發明實施之範圍,即大凡依本發明申請專利範圍及發明說明內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
1‧‧‧瞳孔定位系統
101‧‧‧指標
11‧‧‧光源
12‧‧‧攝影機
13‧‧‧運算模組
130‧‧‧訓練單元
131‧‧‧特徵定位單元
132‧‧‧距離-角度處理單元
133‧‧‧座標換算單元
14‧‧‧螢幕
201~208‧‧‧步驟
211~215‧‧‧步驟
301~304‧‧‧步驟
4‧‧‧使用者
401‧‧‧眼部影像
41‧‧‧瞳孔中心
42‧‧‧反光點
43‧‧‧向量
5‧‧‧座標點
601~610‧‧‧步驟
611~615‧‧‧步驟
圖1是一示意圖,說明本發明瞳孔定位系統之較佳實施例;圖2是一示意圖,說明以瞳孔中心配合反光點界定出 一距離值及一角度值;圖3是一流程圖,說明本發明之瞳孔定位方法之較佳實施例;圖4是一流程圖,說明本發明之瞳孔定位系統使用的分組對應法之實施例中訓練階段之流程;圖5是一示意圖,說明螢幕劃分為多組區域,但每次只顯示其中一組區域;圖6是一示意圖,說明瞳孔中心及反光點的定位方法;圖7是一示意圖,說明距離值及角度值與螢幕各組區域的距離-角度差異;圖8是一示意圖,說明區域”1”至”16”的距離-角度分佈圖,且以距離值Li及角度值θ i可對應在角度-距離分佈圖中得到一座標點;圖9是一流程圖,說明本發明之瞳孔定位系統使用的分組對應法之實施例中應用階段之流程;圖10是一示意圖,說明對應各區域得到的距離-角度之點集合會得到一不規則的扇形分佈;圖11是一示意圖,說明以少數距離-角度點所畫出的一扇形,利用一扭正運算可轉換成一較為規則的矩形,然後再將該矩形之位置對應至螢幕之座標;圖12是一流程圖,說明本發明之瞳孔定位系統使用的內插對應法之實施例中應用階段之流程;及圖13是一流程圖,說明本發明之瞳孔定位系統使用的 內插對應法之實施例中應用階段之流程。
1‧‧‧瞳孔定位系統
101‧‧‧指標
11‧‧‧光源
12‧‧‧攝影機
13‧‧‧運算模組
130‧‧‧訓練單元
131‧‧‧特徵定位單元
132‧‧‧距離-角度處理單元
133‧‧‧座標換算單元
14‧‧‧螢幕
4‧‧‧使用者

Claims (9)

  1. 一種瞳孔定位方法,用以在一使用者注視一螢幕時定位出該使用者觀看該螢幕的位置,該方法包含下述步驟:(1)設置一外部光源照射該使用者的眼部而產生一反光點,擷取該使用者之眼部影像,並利用該眼部影像定位出一瞳孔中心;(2)以該瞳孔中心至該反光點之距離界定出一距離值,並以該瞳孔中心位置界定一基準線配合該反光點相對於該瞳孔中心的一向量界定出一角度值;及(3)利用觀看不同位置的該距離值及該角度值得到的一角度-距離分佈圖,其中,此步驟係將該螢幕預先劃分多組區域,每次只顯示其中一組區域,並執行包括下述步驟:(a1)每次顯示一組區域供該使用者觀看時,執行步驟(1)及步驟(2);及(a2)若判斷所有區域已顯示完畢時,取得對應各組區域的距離-角度分佈圖;(4)以觀看任一位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點,藉此得到觀看螢幕任一點時對應於該螢幕的位置,其中,該預定方式是一分組對應法,該分組對應法包括下述步驟:(a3)該使用者觀看該螢幕的任一位置時,執行步驟(1)及步驟(2)以得到該位置的一距離值及一角度值;(a4)以該距離值及該角度值在該角度-距離分佈圖中得到一座標點;及(a5)利用一最小目標函式找出距離該座標點最近的區 域,藉該區域換算對應於該螢幕的位置,該最小目標函式的公式如下:Min Obj=W1 |Dist_t-Dis_i|+W2 |Angle_t-Angle_i|;其中,Dist_i及Angle_i是目標距離值及角度值,Dis_t及Angle_t是目前距離值及角度值,W1 及W2 為分配權重。
  2. 依據申請專利範圍第1項所述之瞳孔定位方法,其中,步驟(3)係將該螢幕預先劃分多組區域,每次只顯示其中一組區域,並執行包括下述步驟:(b1)每次顯示一組區域供該使用者觀看時,執行步驟(1)及步驟(2);(b2)若判斷所有區域已顯示完畢時,取得一包括各組區域的距離-角度分佈圖;(b3)將該距離-角度分佈圖經過一扭正運算以得到一正規化分佈圖;及(b4)利用仿射轉換技術校正該正規化分佈圖。
  3. 依據申請專利範圍第2項所述之瞳孔定位方法,其中,步驟(4)的該預定方式是一內插對應法,包括下述步驟:(b5)該使用者觀看該螢幕的任一位置時,執行步驟(1)及步驟(2)以得到該位置的一距離值及一角度值;(b6)以該距離值及該角度值對應在校正後的該正規化分佈圖中得到一座標點;及(b7)將該座標點以內插法換算對應於該螢幕的位置。
  4. 一種瞳孔定位系統,包括:一外部光源,發射一光束照射一使用者之眼部而產生一反光 點;一攝影機,擷取該使用者之眼部影像;及一運算模組,具有:一特徵定位單元,取得該眼部影像並定位出一瞳孔中心;一距離-角度處理單元,以該瞳孔中心至該反光點之距離界定出一距離值,並以該瞳孔中心位置界定一基準線配合該反光點相對於該瞳孔中心的一向量界定出一角度值;一訓練單元,用以將一螢幕預先劃分多組區域,每次只顯示其中一組區域,該訓練單元並執行包括下述步驟:每次顯示一組區域供該使用者觀看時,控制該特徵定位單元執行定位及控制該距離-角度處理單元取得各組區域的距離-角度;及一座標換算單元,利用觀看不同位置的該距離值及角度值得到的一角度-距離分佈圖後,以觀看任一位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點,藉此得到觀看螢幕任一點時對應於該螢幕的位置,其中,該座標換算單元執行的該預定方式是一分組對應法,其包括下述步驟:該使用者觀看該螢幕的任一位置時,控制該特徵定位單元執行定位及控制該距離-角度處理單元取得一距離值及一角度值; 以該距離值及該角度值對應在角度-距離分佈圖中得到一座標點;及利用一最小目標函式找出距離該座標點最近的區域,藉該區域換算對應於該螢幕的位置,其中,該最小目標函式的公式如下:Min Obj.=W1 |Dist_t-Dis_i|+W2 |Angle_t-Angle_i|;其中,Dist_i及Angle_i是目標距離值及角度值,Dis_t及Angle_t是目前距離值及角度值,W1 及W2 為分配權重。
  5. 依據申請專利範圍第4項所述之瞳孔定位系統,其中,該運算模組還具有一訓練單元,用以將該螢幕預先劃分多組區域,每次只顯示其中一組區域,該訓練單元並執行包括下述步驟:每次顯示一組區域供該使用者觀看時,控制該特徵定位單元執行定位及控制該距離-角度處理單元取得各組區域的距離-角度;若判斷所有區域已顯示完畢時,取得一包括各組區域的距離-角度分佈圖;將該距離-角度分佈圖經過一扭正運算以得到一正規化分佈圖;及利用仿射轉換技術校正該正規化分佈圖。
  6. 依據申請專利範圍第5項所述之瞳孔定位方法,其中,該該座標換算單元的該預定方式是一內插對應法,其包括下述步驟:該使用者觀看該螢幕的任一位置時,控制該特徵定位單元執行定位及控制該距離-角度處理單元取得一距離值及一角度值;以該距離值及該角度值對應在校正後的該正規化分佈圖中得 到一座標點;及將該座標點以內插法換算對應於該螢幕的位置。
  7. 一種儲存媒體,用以記錄一電腦程式,該電腦程式令一電腦配合一攝影機執行下述步驟:(1)設置一外部光源照射該使用者的眼部而產生一反光點,擷取一使用者之眼部影像,並利用該眼部影像定位出一瞳孔中心;(2)以該瞳孔中心至該反光點之距離界定出一距離值,並以該瞳孔中心位置界定一基準線配合該反光點相對於該瞳孔中心的一向量界定出一角度值;及(3)利用觀看不同位置的該距離值及角度值得到的一角度-距離分佈圖後,以觀看任一位置的距離值及角度值依據一預定方式在角度-距離分佈圖對應得到一座標點,藉此換算觀看螢幕任一點時對應於該螢幕的位置,其中,此步驟係將該螢幕預先劃分多組區域,每次只顯示其中一組區域,並執行包括下述步驟:(a1)每次顯示一組區域供該使用者觀看時,執行步驟(1)及步驟(2);及(a2)若判斷所有區域已顯示完畢時,取得各組區域的距離-角度分佈圖;且該預定方式是一分組對應法,該分組對應法包括下述步驟:(a3)該使用者觀看該螢幕的任一位置時,執行步驟(1)及步驟(2)以得到該位置的一距離值及一角度值;(a4)以該距離值及該角度值對應在角度-距離分佈圖中得到一座標點;及 (a5)利用一最小目標函式找出距離該座標點最近的區域,藉該區域換算對應於該螢幕的位置,該最小目標函式的公式如下:Min Obj.=W1 |Dist_t-Dis_i|+W2 |Angle_t-Angle_i|;其中,Dist_i及Angle_i是目標距離值及角度值,Dis_t及Angle_t是目前距離值及角度值,W1 及W2 為分配權重。
  8. 依據申請專利範圍第7項所述之儲存媒體,其中,步驟(3)係將該螢幕預先劃分多組區域,每次只顯示其中一組區域,並執行包括下述步驟:(b1)每次顯示一組區域供該使用者觀看時,執行步驟(1)及步驟(2);(b2)若判斷所有區域已顯示完畢時,取得一包括各組區域的距離-角度分佈圖;(b3)將該距離-角度分佈圖經過一扭正運算以得到一正規化分佈圖;及(b4)利用仿射轉換技術校正該正規化分佈圖。
  9. 依據申請專利範圍第8項所述之儲存媒體,其中,該預定方式是一內插對應法,包括下述步驟:(b5)該使用者觀看該螢幕的任一位置時,執行步驟(1)及步驟(2)以得到該位置的一距離值及一角度值;(b6)以該距離值及該角度值對應在校正後的該正規化分佈圖中得到一座標點;及(b7)將該座標點以內插法換算對應於該螢幕的位置。
TW097141172A 2008-10-27 2008-10-27 Pupil location method, pupil positioning system and storage media TWI432172B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW097141172A TWI432172B (zh) 2008-10-27 2008-10-27 Pupil location method, pupil positioning system and storage media
US12/506,100 US7832866B2 (en) 2008-10-27 2009-07-20 Eye-tracking method and system for implementing the same
JP2009234851A JP5189057B2 (ja) 2008-10-27 2009-10-09 視線追跡方法及び視線追跡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW097141172A TWI432172B (zh) 2008-10-27 2008-10-27 Pupil location method, pupil positioning system and storage media

Publications (2)

Publication Number Publication Date
TW201016185A TW201016185A (en) 2010-05-01
TWI432172B true TWI432172B (zh) 2014-04-01

Family

ID=42117143

Family Applications (1)

Application Number Title Priority Date Filing Date
TW097141172A TWI432172B (zh) 2008-10-27 2008-10-27 Pupil location method, pupil positioning system and storage media

Country Status (3)

Country Link
US (1) US7832866B2 (zh)
JP (1) JP5189057B2 (zh)
TW (1) TWI432172B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
TWI398796B (zh) * 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
KR101167249B1 (ko) 2009-11-23 2012-07-23 삼성메디슨 주식회사 초음파 진단 장치 및 그 제어 방법
CN102456137B (zh) * 2010-10-20 2013-11-13 上海青研信息技术有限公司 基于近红外反射点特性的视线跟踪预处理方法
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
JP5387557B2 (ja) * 2010-12-27 2014-01-15 カシオ計算機株式会社 情報処理装置及び方法、並びにプログラム
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US8860660B2 (en) 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9122346B2 (en) * 2012-03-22 2015-09-01 Mediatek Inc. Methods for input-output calibration and image rendering
US9465483B2 (en) 2012-03-22 2016-10-11 Mediatek Inc. Methods for input-output calibration and image rendering
TWI470477B (zh) * 2012-08-29 2015-01-21 Utechzone Co Ltd 眼控溝通系統
CN103677221A (zh) * 2012-08-31 2014-03-26 由田新技股份有限公司 眼控沟通***
US20140085198A1 (en) * 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140313308A1 (en) * 2013-04-19 2014-10-23 Samsung Electronics Co., Ltd. Apparatus and method for tracking gaze based on camera array
TWI509463B (zh) * 2013-06-03 2015-11-21 Utechzone Co Ltd 一種使螢幕中的游標移至可按物件的方法及用於實現該方法的電腦系統與電腦程式產品
CN109919117B (zh) * 2013-11-25 2024-05-03 原相科技股份有限公司 眼球侦测装置与瞳孔侦测方法
CN103839055B (zh) * 2014-03-19 2017-08-29 中国科学技术大学 一种驾驶员视线方向的检测方法
KR102347359B1 (ko) * 2015-01-14 2022-01-06 삼성전자주식회사 전자 장치 및 전자 장치에서 시선을 추적하는 방법
WO2016139850A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 情報処理装置、制御方法、およびプログラム
TWI617948B (zh) * 2015-07-24 2018-03-11 由田新技股份有限公司 用於眼部追蹤的校正模組及其方法及電腦可讀取紀錄媒體
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
US10061383B1 (en) * 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
CN106557727B (zh) * 2015-09-30 2019-07-09 华邦电子股份有限公司 瞳孔中心定位方法及电子装置
CN108697321B (zh) 2015-12-31 2021-09-17 视译公司 用于在限定操作范围内进行视线跟踪的装置
CN108898572B (zh) * 2018-04-19 2020-11-13 北京七鑫易维信息技术有限公司 光斑提取方法
CN109284002B (zh) * 2018-08-29 2020-12-29 北京七鑫易维信息技术有限公司 一种用户距离估算方法、装置、设备及存储介质
TWI704530B (zh) * 2019-01-29 2020-09-11 財團法人資訊工業策進會 注視度判斷裝置及方法
CN114281184A (zh) * 2020-09-28 2022-04-05 京东方科技集团股份有限公司 注视点计算装置及其驱动方法、电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JPH02224637A (ja) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk 視線検出方法
JPH03109030A (ja) * 1989-09-22 1991-05-09 Canon Inc 注視点検出装置
JP3232873B2 (ja) * 1994-04-27 2001-11-26 日産自動車株式会社 車両用視線方向検出装置
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
JP2001004906A (ja) * 1999-06-17 2001-01-12 Canon Inc 視線検出機能付き光学機器及びカメラ
GB0119859D0 (en) * 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
JP4517049B2 (ja) * 2003-12-25 2010-08-04 国立大学法人静岡大学 視線検出方法および視線検出装置
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP4088282B2 (ja) * 2004-08-20 2008-05-21 清実 中村 コンピュータ入力方法と装置
JP2006055388A (ja) * 2004-08-20 2006-03-02 Toyama Prefecture 遠隔介護支援システム
US8066375B2 (en) * 2005-10-10 2011-11-29 Tobii Technology Ab Eye tracker having an extended span of operating distances

Also Published As

Publication number Publication date
US7832866B2 (en) 2010-11-16
US20100103375A1 (en) 2010-04-29
JP5189057B2 (ja) 2013-04-24
JP2010099470A (ja) 2010-05-06
TW201016185A (en) 2010-05-01

Similar Documents

Publication Publication Date Title
TWI432172B (zh) Pupil location method, pupil positioning system and storage media
US11126016B2 (en) Method and device for determining parameters for spectacle fitting
US9959678B2 (en) Face and eye tracking using facial sensors within a head-mounted display
Coutinho et al. Improving head movement tolerance of cross-ratio based eye trackers
WO2023011339A1 (zh) 视线方向追踪方法和装置
Nitschke et al. Corneal imaging revisited: An overview of corneal reflection analysis and applications
JP2019522781A (ja) 固定具なしのレンズメータ及びその操作方法
WO2018076202A1 (zh) 能够进行人眼追踪的头戴式可视设备及人眼追踪方法
WO2015190204A1 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6332392B2 (ja) 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置および眼鏡レンズ選択方法
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20120080215A (ko) 주시점을 검출하는 방법, 장치 및 다중 스크린 컴퓨터
US10430988B2 (en) Facial animation using facial sensors within a head-mounted display
CN108369744B (zh) 通过双目单应性映射的3d注视点检测
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
TW200947262A (en) Non-contact type cursor control method using human eye, pupil tracking system and storage media
CN109885169B (zh) 基于三维眼球模型的眼球参数标定和视线方向跟踪方法
JP4500992B2 (ja) 三次元視点計測装置
US11789528B1 (en) On-the-fly calibration for improved on-device eye tracking
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Nagamatsu et al. Calibration-free gaze tracking using a binocular 3D eye model
CN114360043B (zh) 模型参数标定方法、视线追踪方法、装置、介质及设备
Shin et al. A novel single IR light based gaze estimation method using virtual glints
WO2020253949A1 (en) Systems and methods for determining one or more parameters of a user&#39;s eye
JPH1091325A (ja) 視線検出システム