TW200938162A - Method and device for finding and tracking pairs of eyes - Google Patents

Method and device for finding and tracking pairs of eyes Download PDF

Info

Publication number
TW200938162A
TW200938162A TW097143979A TW97143979A TW200938162A TW 200938162 A TW200938162 A TW 200938162A TW 097143979 A TW097143979 A TW 097143979A TW 97143979 A TW97143979 A TW 97143979A TW 200938162 A TW200938162 A TW 200938162A
Authority
TW
Taiwan
Prior art keywords
eyes
eye
face
tracking
finding
Prior art date
Application number
TW097143979A
Other languages
English (en)
Other versions
TWI366454B (zh
Inventor
Enrico Zschau
Original Assignee
Seereal Technologies Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seereal Technologies Sa filed Critical Seereal Technologies Sa
Publication of TW200938162A publication Critical patent/TW200938162A/zh
Application granted granted Critical
Publication of TWI366454B publication Critical patent/TWI366454B/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/745Details of notification to user or communication with user or patient ; user input means using visual displays using a holographic display

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

200938162 六、發明說明: 【發明所屬之技術領域】 臉部 本發明係關於一非接觸迖古i I· 按蜩式方法,其可即時地於至少 哥找錢續魏雙_ 3D立體座標。 【先前技術】 ❹ 尋找並追蹤臉部的非接觸式方法與 要其他額外的輔助裴置,如= ^ 5,不需 接觸式方法的優點.自 頌部的照相機或聚光燈。本非 的限制,而Ϊ 物體的移動自由不會受到辅助裳置 _助裝置:才來進行,或是該物體,在使 一舉例來說- 影像來操取某些臉部與_ :明’如何根據接收到的 方向。仍6 539廳B1說遊並藉此來確定觀察者的視線 竟觀察到__,而EP n此方絲妨_觀察者究 追蹤眼睛的移動。Ρ0350957β1則解釋如何在一段時間内 Μ I97 31 3〇3 ΑΙ公開說明— 置,即使在頭與眼睛移齡,尤、裝置’透過該方法與裝 巴很大且快速的時候,非接觸式仍不 200938162 卜^來進行眼睛視線方向測量。此外,眼睛將會受到紅外 •光的照明’並透過—光學系統塑形,再經由至少-個影像感應襄 置接收’而這樣取得的影像將透過位於主處理器形塑的視線方向 上的處理ϋ,藉由確靖孔中雜置以及賴的反射位置,來進 . 行確定視線位置的再處理動作,並將其呈現於螢幕上。 ❹ 在WO 03/079 902 Α1中則描述在不同光線行為下,即時地非 接赋觸與追魏睛的方法。魏功地辨認崎賴經過以下 步驟:接收兩個主動照光影像,其中一張影像紀錄"亮瞳效果",而 另外一張則紀錄"暗瞳效果";從上述兩張影像來建立差異影像,而 • 最後形成的差異影像可辨認出兩張影像分別的對比度,並指出在 這兩張影像中哪裡的對比度不將對比度情形紀錄於差異影 像上田成可旎之眼睛;並將事先取得之眼睛與非眼睛的影像與可 ❹能之眼睛進行比較,藉以當成查詢依據,來分辨在差異影像中很 有可能是眼睛以及不是眼睛的情況。此外,將藉由辨認後得到的 影像,並透過應用卡門過濾,以及藉由差異影像所確認的眼睛位 置來比較眼睛之預估位置’來進行眼睛追蹤。當比較後卻沒有結 果成立時,眼睛位置將在其他步驟下,透過分群演算法來進行確 認’該方式可根據影像中可能的眼睛位置強度來進行其分群,並 將其與預估位置比較。 200938162 • 這個較早著名的方法有著不同的缺點。-方面來說,在進行辨 •認棘_ ’需要使__行綠以及藉域_"亮瞳效 果"影像與"暗瞳絲"影像而制形成的影像,其巾,亮曈與暗瞳 效果形成的影像並非同時,而是時間上—前—後地透過影像感應 裝置來擷取的。_時的影像讀取,以及透過跳行方法而造成的 影像外差作用’再加上影像資料數量會因為上述跳行方法造成的 外差作用而減V ’這樣的情況下便會妨礙即時的眼睛辨認與追 蹤H面來說’透耻方法’影減應裝置僅能辨認空間中 比較接近的眼睛,並進行其追縱,因為透過主動照光產生的影響 _作用會隨著眼睛與光源的距離增加而遞減,這樣會使可辨認之眼 睛在差異影像上無法與其他的物體或干擾區分。 WO2007/G19842嘗試克料些缺點,其巾,眼雜置尋找的任 ❹2將在〃級的過财達成,响再處理之資概制根據總影像 畫面(W)的資料數量來限制其總目標範_),並會因此而逐漸 縮減眼睛目標細(ΛΖ)。因此,—實體或是實體中的群組將可以 分別以自己輯算單位_執行。然而w⑽嶋蠢卻無法得 知如何辨認且追蹤眼睛。 人與機器間的相互作用時’即時地_與追魏睛是一個重要 的要求。因此,便格外地需要能辨認且追縱眼睛的方法,並藉該 200938162 • 方法來即時且確實地尋找與追蹤眼睛。 特別在動態應用的使用上,當使臉部須在所有空間方向上,大 且快速移鱗’便需要精確,械率且亦包含z齡向的位置確 認能力。這種動態顧亦可能當作自動立體或全息攝影顯示器, 因此,只有當觀察者眼睛位置可以在空間與時間上完全確定時, 才生影像印象’然制可完成實際轉健的自動立體或全 息攝影影像重現。相反的,在進行由於技術而著名的靜態應用時, 如在監視駕駛員與飛行員時,辨認與追蹤範會很小,因為在 讀的應用情形下,目標物的移動細通常僅舰於所有空間方 向中的極小部分。 .曹技細著名的方法,會在尋找與追蹤超過—個臉部上 遭遇困難’即純及時地提魏睛位置。 ❹ 【發明内容】 *本發_目的便在於確立該方法,在能達觸廣大觸與追縱 乾圍内2所有三維空财向,且在計算雜極小的情況下,有效 ,且確只地即時尋找並追縱-個或多個臉部上的眼睛位置。也就 疋說’本發明的特別任務則在於能約有效率且確實的尋找至少一 個眼睛。 200938162 根據本發賴述’雜朗任射先f要粒絲,該方法的 步驛包括:接收影像資料’該t料將如同—個或多個錄影訊號序 列而從至少-個影像感應裝置輸出;在影像資射尋找眼睛或追 蹤已尋找到之眼睛;確認被尋找到或被追縱眼睛的3D立體座標; 將已尋制或追蹤狀眼__其適合的雙眼;並準備提供雙 眼的3D立體座標。 〇 錄佳的實補下,影像龍將如晴影序列,透過至少一個 影像感應裝置進行接收。因此,接收影像資料亦可以以不同的傳 播形式如單一圖片進行。 〇 尋找眼睛的方法步驟包括:在影像資料中辨認—個或多個臉 部;確認至少-個可辨認出臉部的3D域座標;於可辨認臉部上 確定第一個搜尋範圍;且於第一個搜尋範圍内尋找至少一隻眼 睛。在各種不同實施方式下,影像資料中辨認臉部是一個很常見 的技術,藉此,被辨認出的臉部通常會以臉部位置的2D座樟方式 輸出。若要讓臉部位置以3D立體座標呈現就須確定冗座標,而確 定Z座標的工作可以透過從兩個影像感應裝置接收到的影像資料 來進行優先立體分析,如藉由著名的科技或透過其他有名的方法 來完成,如測量距離。透過確認臉部的3D立體座標,並藉由應 熟知的臉部眼睛位置模型,可至少確定臉部眼睛的可能坐落装 200938162 '圍。在沒有任何模型_於顧Ί臉部上時,顧以尋找眼睛 *的確定範圍亦完全等於被蜂認的臉部範圍。該範圍之後將會視為 第-個眼_搜尋翻,且之制尋找步驟亦可被關在此第一 個搜哥範_。在接下來的步驟,是在第—個搜尋範圍中找到至 >隻目艮睛。在沒有眼睛被找到的情況下,則會接受以下說法: ,該影像的臉部而言’可顧關上眼皮的_而使眼睛無法被 哥找貞彳亦視為§純睛不存在。在其他的情況下,針對各個臉 部上而鱗烟的轉⑷)將應驗接下來的綠步驟。在-個 較】的搜尋關尋找眼睛,通常會比在包含完整臉部或全影像的 搜尋區域中尋找眼睛更能迅速地得到結果。 在接下來的方法步驟中’將會針對被尋找到的眼睛進行其3d 立體座標確認。因此,在優先執行時須再次應用立體分析,且可 ❹使用各個用來確補體3〇立體座標的著名模型。隨後將已尋找到 或追蹤到之眼睛歸類到其適合的雙眼,藉此,不是將透過眼睛犯 立體座標而計算求得的各雙眼間距與雙眼模型的眼睛間距拿來比 較就疋必須執行其他合適的歸類方法,如優先分級方式。將被 尋找到的眼睛以雙眼的形式更再加以應用時,可以便於確認雙眼 1 3D立體座標’目為藉此可以透過著名的臉部喊翻來確認眼 月”臉#置’並可減少必須要連續追蹤的被尋制之臉部資料 數量。 8 200938162 . 追縱6尋朗雙_步驟,原則上包括在已確認的臉部上確定 上至少-個第二個搜尋位置,以及在此搜尋位置内追蹤雙眼。根 據此觀點’則可針對各個眼睛來確定一個第二個搜尋位置。從尋 找眼睛步財認的雙眼將視為細起點岭來做為進—步使用。 被追蹤眼睛的範圍將根據眼睛的3D立體座標而定義。如此定義出 且通常小於第一個搜尋範圍的範圍,將會在之後當作眼睛追蹤的 第—健德齡朗。儘魏喊臉部都有瞬的移動,這樣 定義出的雙眼追蹤仍可以較—個小的第二個搜尋範圍,且仍然 可以重新即時地進行追縱眼睛的行為。 在尋找至少-隻眼睛的其他步驟則包括:根據可辨認臉部與輸 出影像練的影像感應裝置之_距離來計算眼睛部份的期望範 圍;根據可辨認臉部與輪㈣像龍的影賴餘置的離 ❹來樣倾侧__ ; f 一個搜尋㈣,明加對比度;在預先調整後,分割第—^ 哥乾圍;計算在被分割的第—個搜尋範圍_—個或多個連結區 域藉此錢結區域即為有至少幾乎相同灰階值的相鄰像 認各個計算出之連結區域的範圍;並比較眼睛部分的期望 已圍與已確認的連結_麵,#已確認的連結區域 眼睛部份的駿範_符合時,職連腿域即為解找到2 9 200938162 睛。因此’影像資料_對比值將會改變,使重要的眼睛部位得 以明確在影像資料中’與其他物體區分嘯此,即使在其他情況, 亦可以透過該方法成功尋找到距離輪出影像資料的影像感應裝置 报遠的眼睛。 根據本發明之觀點可知’預_整_作包括在第-個搜尋範 圍内進行灰階值矩陣圖校準。 根據本發明更進-步的觀點可知,追祕被尋找到的眼睛時包 括以下步驟:根據可辨認臉部與輸出影職料的影像感應襄置之 間的距離來計算眼睛部份的期望範圍;確認第二個搜尋範圍的最 小灰階值;透過-細財作第二個搜尋範圍門檻_灰階值來 進行重複動作,當辨認出至少兩隻眼睛時,重複就會中斷。這個 重複的動作包括以下步驟:根據可辨認臉部與輸出影像資料的影 像感應裝置之__,實際織步_及最小紐值來計算灰 階值’財作第二個搜尋範®的分割Η檻值;分鄕二個搜尋範 圍’冲算i #j後的第二搜尋翻内的—個或多個連結區域,藉此, 該連,區域即為有至少幾乎_灰階值_鄰像素集合;確認各 十算出之連結區域的摩色圍,且比較眼睛部分的期望範圍與已確 認的★連結區域範圍,當已確認的連結區域範職乎與眼睛部份的 期望範圍相符合時,廳連結區域即為被尋朗之眼睛。這些方 200938162 來執行的追蹤行為, 統方法相較,產生出之眼睛3D立體座 標結果亦較為猜確 且與傳 根據本發日収進-步的觀點可知,將會使 進制化方法,來進行分割搜尋賴。之後 =如二 由辅助追踨卿UP_ VeetOT ^=_ 眼’該輔助追_亦可透過預先提:::::: =相f形,來區分找到之眼睛,而這些眼睛亦屬於-對雙眼 中的一[歸類眼睛至其適合的雙眼的動作,並不1要时八 級行為,也不一定非得使用辅助追踨機器。 仃刀 本發明亦關於-電腦執行程序,當該程序於—電腦内執行時, 則可操控執行本發明所述之方法。 此外’本發明亦涉及一裝置,其包含下列器材,並得以在至少 -個臉部上,尋找且連續追縱雙眼的3D立體座標:接收影像資料 的器材,且該器材包含至少-組由至少—個影像感應裝置發射出 之數位錄影訊號序列;在影像資料中尋找眼睛的器材;在影像資 料中追縱已哥找到眼睛的器材,將已尋找到眼睛或被追縱眼睛歸 類到其適合雙眼的器材;預備提供雙眼3D立體座標的器材。而在 影像資料中追蹤已知眼睛的器材又包含了以下器材:在影像資料 11 200938162 .中辨岭張或多張臉部的器材;確認至少-個已知臉部上3D立體 .座標的器材;確定已知臉部上第—個搜尋範_器材;以及在第 一個搜尋細尋找至少—隻目晴的ϋ材。在影像資料中追蹤已知 眼睛的n材還另外需要下舰_助:於已知臉部上確認第二個 搜哥範圍的器材,以及在該第二個搜尋範圍追縱眼睛的器材。 其他的本發明優點將依序於施實方式中更詳盡地說明。 ° 本發明可#由下顺絲作進—步的朗,圖示僅為較佳實施 例,非用以限制本發日月其他各種可能的類似實施方式,圖示包括: 圖1:本發明較佳實施例之方法的流程圖; 圖2:本發明較佳實施例之尋找眼睛的流程圖; 圖本發明較佳實施例之包含臉部上已確定第一個搜尋範圍的 影像資料圖示; ❹圖4 :本發明較佳實施例之追蹤以尋找到眼睛的流程圖; 圖本發明較佳實施例之包含臉部上已確定第二個搜尋範圍的 影像資料圖示; 圖6:本發明較佳實施例之歸類眼睛至其適合雙眼的流程圖; 圖7 :本發明較佳實施例之裝置;與 圖8 :本發明較佳實施例之針對各物體執行的電腦方法流程。 【實施方式】 12 200938162 圖1描緣本發明中所述方法的第一個較佳實施例,其適人用 2像重_至少為施時,贿_町 與_、。透過該方法,最多可讓四位觀察者在至少每秒Μ : 辨⑽與追跟頻率下,或是一 jh Si 、、 編下m 骑與追蹤 羊進订作業。藉此,便可在步驟11〇透過一個或多 ^置’或是如同錄影序列透過如串列璋等傳輸 〇 專輸的衫像雜。這些經由影像感應裝置接收到的影像資料,將 =先較佳實施例上透齡_進彳·。在使_感應裝 置來進行影像接㈣,影像感應裝置的掌握制將透過光線的幫 助進仃照射。最佳的情況是使用紅外光進行照射,在本發明的較 佳實施觸形下,可械翻内擁有從购咖聰且特別是約 850nm的波長。透過主動照明’便可在影像資料中特別顯現出觀 察物體的眼睛。 當主動照明相對來說遠離影像感應裝置的光學轴線時,便會隨 即產生所謂的"暗瞳效應",在暗曈效應下,相對於周圍環境,瞳孔 會撕特與。而"亮瞳魏"則是發生在主_、明制接近影像感 應褒置的光學軸_ ’其類似於·上的紅眼效應,發散的光線 將會反射至眼睛的背面,且被影像感應裝置捕捉。 對於本較佳實施例而言,"暗曈效應"是十分重要。其他的效應, 13 200938162 讓里孔相較於四觸得更明亮的”亮瞳效應”,亦可以用來區分眼 睛,或亦稱做重要部位,與其四周。 心像感縣置亦可與絲卿合作搭配制,麟此在接下來 的〆驟巾在衫像感應裝置相互間距很大的時候,能夠幾乎沒有 缺失地執仃辨認與追縱眼睛的工作。掌握範圍則不是透過本發明 ❺所述之方法,岐透過設·影像感應裝置來加嫌制。在最好 的較佳實施例下’根據設置的影像感應裝置可知,掌握範圍涵蓋 距離影像感應裝置約〇.5到3.Sm的範圍。在使用其他與本發明所 述方法私的轉錢敍時’亦可制更大的掌握範圍。影像 資料可以經由熟知的方法進行錄影資料壓縮,或是如同未改變影 像而再處理。 ❹j接收到的影像資料將會提供用於115步驟的臉部辨認。辨認臉 部的工作將會透過著名的臉部辨認方法而成功完成。此外,在影 像資料中,m步驟進行的辨認臉部工作還需要範例辨認的幫助二 在臉。ρ被辨δ忍出後’便可以確認相對於景多像感應裝置的臉部空間 位置座標,尤其是犯立體座標。立體座標的座標系統開: 會在執行方法前先行確定’且在最好的執行情況下是根據影像感 應農置的光學軸線或該影像感應設施本身來確定,且在執行時配 合兩個影像感應裝置,並通過影像感應褒置的光學軸線與:旦^ 200938162 感影蓑距的中心點。藉此,可以透過顧較佳的立體分析, 並根據由至少兩悔像感縣置棘的2D影絲確認犯立體座 標。透過立體分析,亦可根據f彡像㈣來確認被尋找到臉部的不 :致之處。在立體影像資料中,不—致處亦為影像點座標距離, ,亥距離可喊透過獨方向上至少兩姆彡像感絲置來掌握的空 1中的·點並在含有不同座標的影像資料中來確認,通常該點 可經㈣個影響感應裂置來掌握。藉由影像感應裝置的測量可確 認一種魏’而該功能得崎立體影像中,並在該空間點與提供 影像資料的f彡賴應似卩植上,錢於相反的方向描繪出影像 點的不-鱗。透職職魏可以確定鄉佩職置間的距 離’且亦可藉此計算3D立體座標巾的z座標。確認z座標亦可 透過其他著名的方法技術來執行。 此夕喷有-優勢,即透過本較佳實施例可以根據3〇立體座標 來確認臉频提供影像㈣之影像感縣置的距離。聽確認臉 部與提供影像㈣之f彡佩練置轉的工作亦可贿過其他方 法完成’如雷射距離測量。 步驟115中,在影像資料内辨認臉部的動作將會特別與接收影 像資料同時完成,如此便可顧出在各個臉部㈣像資料中,哪 些臉部還未_認出,或是哪些在追_時候遺失了。在較佳的 15 200938162 '執彳^式下亦可存取已知臉部與其位置。在較麵方法中更能夠 、又ッ驟130巾追縱眼睛的影冑,而執行辨認新臉部的工作。若 於影像資料中確實辨認出臉部時,則便需要在步驟120檢查,是 否該臉部已確實被追蹤。而該檢驗是根據已存取的臉部特徵,如 =睛間距或臉部_亦或特聰據犯立體座標來進行。若確認被 臉部沒有進行追蹤,則絲沒轉制眼睛或該臉部上 〇之雙眼。尋找臉部上的眼睛可以透過較佳實施例中的步驟125,並 藉由確枝尋_臉部上的至少-個第—健尋細,以及在此 確定的搜尋範圍内尋找至少一隻眼睛來完成。若確定臉部已被追 - 辦,亦即表示可透過確定第二個搜尋範圍來完成追縱動作,且 '在這追縱範圍内,可至少追縱到該臉部上雙眼中的-隻眼睛。在 較佳實施例中,若第一個搜尋範圍大於第二個搜尋範圍時亦為 佳。在這種較佳的較佳實施例下,在步驟125與130中至少可在 ❹各個第-個搜尋細内尋找到—隻眼睛,且接著在第二個搜尋範 ^内進行着。步驟135中,把已尋_或追_崎歸類於其 適合雙眼中的工作,將會在相3D立體座標後適當地進行。這些 破尋找到或追縱到的眼睛將會準備應用於其他方面,如重複财 或是顧於其他非本描述較佳實施例部分的情形上。步驟⑽ 中準備提供眼睛犯立體座標的動作將有助於以下情形,例如透過 7 725酬之細綱⑽來物^ 7巾所述的後續 16 200938162 ❹ ❹ 進一步方法中的較優較佳實施例將於圖2與圖3中描述。圖2 中之方法詳細描綠出在圖丨步驟m中尋找眼睛的過程。當臉部 未被追縱且該臉部上未尋制任何轉時,職方法便會開始進 行在尋找眼睛時,需要利用到實際的影像資料以及被尋找到臉 部的3= 體座標。方法步驟21〇將在被尋找到臉部上確認至少一 第一個搜尋難,而第—個搜尋範_大小將會根概選擇出之 臉部辨認方法的雜與精確性來決定。在触的執行方式下 一健尋範圍的大小約為5() x 5G mm。若要確認第—倾尋範圍 310 ’則可在確定的臉部3D立體座標和臉部幾何的幫助下完成。 根據這些資訊,可計算在哪個範圍比較可能尋找到該臉部上的眼 據這計算出之範圍,可再根據影像資料來確定該範圍或 u一靶® 3纷出影像資料上已確定之臉部32〇且針對該臉 上眼睛的第—個搜尋範圍,這都是糊曈孔的”暗瞳狄, =標更進—步的方法步驟均都在第—個搜尋範圍内完 樣可.臉部上需觀察之區域,這對於降低計算浪費 ,將根據臉 暗瞳效果"中’該部分的對邮度高於其他眼睛部分。在m 仃程式裡’除了瞳孔外,㈣亦可視騎要的眼睛部分透過被 17 200938162 ==部的犯立體座標,或其他著名的方法,將可完成計算距 的’若能將方法步驟125所得的距離應用到其他 為更佳。法,可自行計算瞳_望大小, 步驟220料在此更進一步說明。在尋找眼睛時還包括另外一個 7 ’即計算切割第—個搜尋範圍的Η檻值。 力定的 ==亦為一影像處理方法,在該方法中,透過集合經由特 傻盧揮、 ’灰階值將作辆_鮮使用。在影 樣㈣财’灰階值即代表單—影像_亮度值_度值。在這 ' …4下’麵值將不彡像資梅貞色的影響。 階級。’影像資料的灰階健白到黑共有256個中間 〇離、,則可\被辨Γ出之臉部與提供影像資料之影像感應裝置距 β工力3十异用以作為門檻值的灰階值。因為影像資料中的 二==值均會隨著影像感應裝置距離而改變,故在計算門 二r圍的慮間距。在之後的步驟225 +,將進行第一個 _ ^ t整,使重要的影像部分,如曈孔或__孔 與虹膜’i凸顯於其他的影像部分。 在較佳的執仃下’該處理動作亦即在第一個搜尋範圍内進行灰 18 200938162 彎 階值矩陣圖校準。在進行矩陣圖校準時,影像資料中的灰階值或 色值在統計上的頻繁程度將會透過校準作用產生轉變,而能讓灰 階值或配色齡布能健麵觀情形,同魏讓搜尋範 圍内的影像資料内容正常化。藉此,可在影像資料中減少不同亮 度的影響且為了接下來的處理動作而產生相似的對比值,而这些 不同亮度㈣響是因為臉與提供影像:賴之影像感應裝置之_ 距離,以朗為該轉喊生的主動照射微量影響,或是因為其 他的照明侧’如包含高度紅外光的太陽絲射等造成。- ❹ 230^Tf料在第—健雜_贱_顺,騎進行步驟 7中的力割動作。在進行分割動作時,所有相關的方法都需喪 =二=點能根據其灰階值而進行歸類。根據本較佳實施例: t 二牛進驟制化做為較佳的分割方式。在二進制化的過程 旦算出_值。當第一個搜尋範圍内的 〜像點值你_仙時,聽該影像點歸類為h 權酬,職賴朴_切 而將未落於門檻值内的影像點歸類為!。藉此,可= 第一個搜,落於門健外麟_丨㈣要 =色’而讓其他被歸類為〇的影像點呈現白色。在财來的方、去 /驟说中,將在被分割的範圍内計算連結區域。連結區域為二 19 200938162 如其 範圍在該範圍中被觀察到的影像點會透過其同樣的特質, 灰階值,來進行集體分類。 在較佳的執行下可妨δ連紐_計算,δ連賴域比 結區域的計算更能即時展現較好的影像點配合度。藉此, 個鄰近的細將會被視為—娜像點,且並料算是否這些鄰 ❹ ❹ 近的影像點有相_灰階值。在4連親域t,僅可觀察水平與 f直相鄰的減細㈣影像轉會被歸類於同 =結_。根據本較佳實施例,座落在—定灰階值範圍内 的衫像點將會歸類於相同的連結範圍中。 在接下來的步驟240中,將針對計算完成連結範圍進行大小確 :。各計算過的連結範圍所確認出之大小,需拿來與瞳孔或是期 待眼睛範_望大小做比較。在步驟245中,經過比較大小後, 右碟定連結區域的大小錢乎同等於瞳孔_望大辦,將可以 連結輯即為—轉。其__發辦,騎結區域就 非眼睛。當然,亦可能會產生在第一個搜尋範圍内找到數個眼睛 的情況,讀就需要經過方法步驟135中的歸類雙眼來進行進一 步處理。核佳實補巾,尋魏睛的枝步轉在步驟25〇尋 找到眼睛後結束。當在第-個搜尋範圍中找不到任何眼睛時,則 方法將會以擴大㈣-個搜尋範圍重複進行,或是以在辨認出臉 20 200938162 . 部上沒有可被尋找眼睛來作為結束。 在較佳實施例上,門檀值的計算規則或是門捏值計算規則的參 數’都會透過計算大量測試影像以及職影像順序崎認效率來 確定並找到最財式。此外,亦會考慮臉部或眼_提供影像資 料=影像感縣置的距離’因為離提供影像龍的影像感應裝置 越遠’則主__效率與效果就會變差。針對卩懷值的有效 算規則如下: 門插值=最小亮度值+起始值+(最大距離-距離)/1〇〇 其中’最小亮度值即為在被分割範圍内影像點的最低亮度值, 起始f即為根據之前所賴量並透過優化财核所得^的數 值’最大距離即為觀察者離提供影像#料之影像感應裝置以厘米 表不的最大雜,距_是卿或是眼_提供影像資料之爱 感應裝置以厘米表示的距離。 其她佳的方法較佳實施例,將於之後_ 4朗5中加 釋圖4中描緣的方法詳細顯示圖i裡步驟13〇的追縱眼睛方法。 藉由追蹤眼睛,可以在尋找眼睛之外,透過確認崎位^而於步 驟物中’物陶定十倾細。若每個被確定的^ 200938162 二個搜尋麵均小於第-個搜尋顧,顺會是較制情況 二個搜尋範圍的大小通常將根據眼睛實際大小來決定,第^個搜 尋範圍的大小亦會隨⑽彡像感應裝置取得之影像資料的純 以及眼睛的移動自由度或稱做移動速度而進行動缝充。較佳的 較佳實施例則在第二個搜尋細大小約為2Gχ b醜時,此時, 眼睛可以被該搜尋範圍覆蓋。隨後將確定在臉部伽上的第二個 搜尋範圍別。根據圖丨,並進行該方法中的方法步驟 追蹤眼_3D立體座標可轉由之前進行過的麵,尤1是步驟 _而從先前的影像資料中·。因此,將會根據先衫個眼睛 3D立體座標’來確認是否被尋找且被追縱的崎可在—定的方向 上,用蚊的速縣進行相對魏。#確定上述行為時,則 即時影像上計算__睛位置。透過本科技,可使藉此而生的 方法為人_知,姻這些方法便可娜其他廣大_繫。根據 該眼睛的預測位置,將可隨之確定第二個搜尋範圍。若不能確定 到目前為止沒有4目對運動產生,或在之前步驟中僅找到該眼睛一 人N·貝!將會根據確認的眼睛位置,並於先前步驟彻中 二個搜尋範圍。 乐 圖^中轉在已確認之臉部,上進行確認第二個搜尋範園 5川的範例。與圖3中的搜尋範圍310相較,搜尋範圍510报明顯 地杈小’且因為影像點數目較少,則在第二個搜尋範圍内重複計 22 200938162 . 算耗費也會減少。 在確定第二健尋範圍後,便可根據眼睛與提供雜資料的影 像感應裝置的距離,在步驟415中計算眼睛部份的大小。此計算 將會如步驟216的情況下完成。之後,將會在步驟42〇中確認第 二個搜尋範圍内的最小灰階值。為了確認最小灰階值,則需再次 應用所熟之的影像處理方法。根據步驟420而確認的最小灰階值 將於之後重覆使用。重複步驟包括:針對計算分割動作(步驟425) 並作為實際門檻值的灰階值;分割搜尋範圍(步驟43〇);計算連結 . 區域(步驟43习;確認連結區域大小(步驟440);以及比較確認之大 小與預測之大小(步驟445)。步驟450確認是否尋找到兩隻眼睛, 如果是,則到步驟455,如果否,則到步驟425。在其他情形下, 則將會進行新的重複步驟。在較佳的執行下,重複步驟的次數將 ❹不管藉比較而尋找到的眼睛數量而限制於四次,也就是說,重複 的仃為將會在四次重複步驟後,與其到該時間點為止所尋找到的 眼睛一同停止。在每次的重複步驟中,首先需確認哪個灰階值將 應用以當作接下來分割動作的門檻值使用。確認實際的門檻值可 透過考慮眼睛與提供影像資料的影像感應裝置的間距,且考慮根 Λ步驟425所得的最小灰階值,以及考慮實際的重複步驟等的方 去來元成。此外’在各個重複步驟中,門檻值將會配合下列情況, 讓多個在影像資料中的區域,能藉由該門檻值的幫助下完成之後 23 200938162 能的眼睛涵蓋區域 的分割動作,峻行纽並將其視為可 455係根據描述過的較佳實施例,在一'。步领 下,進行眼睛追蹤_作。 l 3已知破追魏睛的情况
上列所述,可侧許多獨著名的分财法。在較佳的 ,一進制化將重複利肋替代影像處理作用。藉此,亦丁 列所逑,影像點物雑在值町者,會歸類於q,而 在門櫪值以上的影像點則會分類為1,反之亦然。 在二進制化後,如上列所述,將會計算連結區域的區域數量。 之前描述 8連結輯將是補_類。此外,將針對各 异後的連結區域’確認該連結區域大小。該計算的大小值將會拿 來和預估的眼睛部份大小,例如财可能_孔大小,來做比較。 若預估的大錯合確·A辦,職示已尋找魏睛了。各個 計算過後的連結區域都會經歷槪較雜。在所有的連結區域大 小都和預__部份大械較過後’則可以確定透戦重複步 驟尋找到多少眼睛。若至少尋找到兩隻眼睛時,則在實際影像資 料中追蹤眼_行為齡結束。根_丨,靡方法將會與被尋找 到的眼睛一同進行步驟135。 當四次重複步驟都完鱗’則重複_作將會適#地結束。根 24 200938162 據提供的計算效率顯示’當在重覆四次之後還未找到至少兩隻眼 . 睛時’則重複動作可以在不管是少於或明顯多次的重複步驟後結 束。 針對分割而在重複步驟中所進行之計算門檻值的動作,將根據 步驟125中所應用的計算規則以及當時所輸入的參數,並如下列 方式進行: 門檻值=最小亮度值+起始值+重複值+(最烧參距離)/1〇〇 其中’重複值即為步幅是i的從〇到χ的值,亦代表已經完成 重複步驟的數量。重複值裡的最大值X可透過藉由上述測量行為 而传到之數值的優倾作來確定。在已贿過的触實施例中, 重複次數的最大值為四。 第個搜尋範圍内追蹤眼睛時,亦可能即使在完成重複步驟 複讀後,健找不擊何畴。錢樣的情況下, 重新個搜尋範圍’並在其内進行追縱眼睛的步驟,或是 重新執仃軸眼_步驟。 根據執行範例顯示, 可經由推測來確定第二個搜尋範圍,若雙 25 200938162 眼的3D立體座標在進行尋找的影像上到進行追縱的影像上沒有 或僅有很鮮_更時,_賴距在再之㈣像城位置也會 幾乎-樣。若魏__ 3D續雜纽過料則後,錄 先前尋找的3D立體座標產生相當距離的移動時,則該犯立體座 標與其他之後照片的第二個搜尋範圍,便可在透過移動描述而定 義的移動向量與鶴速度㈣助下,_熟知的方法如卡門過滅 後,進行確實的預測。 “㈣踢他本方法較佳的較佳實施例。圖6帽綠的方法 絆細顯示咖_咖丨巾烟35__#雙眼内的過 ㈣轉㈣作,可叫魏歸類眼睛 雙眼。㈣之前所述,還需鎌據步驟6U)來辨切已 知眼睛的3D立體座標。在較麵執行下,歸類 ❹ 影像次心舆縣。##由本麵躺著名之分__於歸類 分類二可:物體時,則亦可以納入使用。在較佳執行方式下, 分I 輔魏職^。伽追賴器會將大量物體進行 量相同的練習體—同::的基礎τ ’其將亦須與參與分類數 於步驟…建^練習測試。在較佳的執行情況下,將會 遂第一個用來顯示不同眼睛的影像集合,以及第 26 200938162 ==示不同非眼晴的影像集合。這些集合崎在執行 步驟1C亦m接在執行歸魏睛至其適合雙眼内的 步驟别產生。_追蹄贿_齡胁步驟_中進行 t練,舰可翻於影像資料中⑽睛分級動作。被尋找到 ^皮追縱到的眼睛將在之後透過輔助追縱機器必的樣本比較來 ❹ ==對,且透過步驟㈣中的比對符合度,來確認分類眼睛或 非眼睛。分_結果侧糊助追踨機n訓練物體使用。之後, 辅助追踨顧可觀__博_合__雙眼巾。這裡描 植佳實施例中歸類為眼睛的動作,將會在步驟6 有眼睛的叙下結束。 ^ 圖7解釋即時尋找與連續追縱眼睛3d立體座標的裝置執行方 式。其中,鱗了兩細時進行顧定於同—個支架上的影像感 應裝置0,、針對各影像感應裝置而提供主動照明裝置715,以 及針對各衫像感應裝置而裝設在中央電腦π5上的影像資料 720,且該傳輪影像裝置亦可執行本發明中所述的方法。在較佳較 佳實施例下,影像感應裝置彻將與主動照明裝置Μ —同合作 使用,並取得得以重現,,暗瞳效果,,的影像㈣。為了確保雜感 應裝置所傳遞的影像資料夠清晰,則影像感應裝置需針對特定抓 取範圍設歸自_減學儀器。舉咖言,為合於目的, 對抓取範難α5到3.5公尺,或針職α5到15公尺較小範圍, 27 200938162 與/或針對1.8到3.0公尺範圍來設置影像感絲置。此外亦要裝設 根據較佳實施例’僅能出自於單—絲社動朗mb,以發 射波長約為85Gnm的顏紅外光。透過被尋朗或正在尋找或追 體與影像感應裝置的空間位置,將可相針對影像感應裝 ❹ 〇 行為。電腦^可透過影像感應裝 n 4絲裝置而伽設置的影像#料72(),來操控讀取 :H動作’此外’亦可__主細明。根據本較佳實 =2^她糊馳,_一串 岸裝HHr ’可以例如藉由時脈產生11來同步操控影像感 像資料;;。傳二 =::::心, 所尋找且追縱到的㈣7 …、器的外设中。經㈣腦725 埠,經過重複傳遞二:::項一:透:=中繪_輪 在各接-影像追 28 200938162 蹤。 此外,本發明中相關的方法作利用電腦來加以實現。而接下來 的圖8將詳述說明這做為電腦方法的較佳實施例。在圖8中所描 繪的較佳魏鳩示—電齡法餘設計,且該設計可成功用於 符合各物體對象的範例巾,因此,專家們將可以使用本設計,成 功地根據:^物體縣以及與其相符合的發展環境純行本電腦 接下來所介紹的對象與裝置將部份應用於之前已描述過之方 法步驟上’或亦可以說是將這些已描述過之步驟方法整合於下列 對象與裝置巾。BJ此’將會針對這些對象與裝置以及之前已描述 過之方法步驟來挑選出—些對其來說格外需要_殊說明,整體 而5 ’在許多不同方法上,這些特殊說明都是很重要的且可幫助 表達其特徵。但大部分這些接下來所描賴較佳實施例,將僅理 解為針對本發明相關方法中之描述。 控制裝置810將充當做為主樞紐以及可操控之裝置,並可控制 接下來詳述方法步驟或方法群組的流程。在控制裝置81〇中,將 呈現並執行後述之方法步驟: #獲得影像資訊; 29 200938162 鲁使用所謂的追蹤裝置820 ; *透過追蹤裳置820來計算所有有效辨認眼睛位置的眼睛3D 立體座標; •在允許的範圍位置上,透過限制3〇立體座標來進行過渡, 根據更進-步較佳實施例可知,喊行為包括雜訊過滤以 及根據臉部3D移動速度來預先計算或預測3D立體位置, 使系統延遲時間得以-致。以其作用而言,將針對60ms 來預測其3D立體位置,因為該預測位置符合典型的系統延 遲時間。在系統延遲時間下,將可得知從接收影像資料到 預備雙眼3D立體座標的時間。 •透過輸出傳輸埠870來傳送上述結果所得知3D立體座標, 並使該結果得以進行進一步處理。 接收資料包括從一個或多個影像感應裝置獲得之影像資料,並 可做為數位錄影訊號序列。 結果資料包括所有雙眼的3D立體座標。 為了肖b確5忍座標且管理臉部確認115 ,眼睛確認125以及眼睛 追蹤13〇 I的合作情形’會將多種背景84〇-1,...,840_η作為管 理、'且織使用。各背景840將分配不同任務,臉部探測器850可尋 30 200938162 找臉部115,眼睛探測器86㈣可根據 搜尋範圍來尋找_ 125。而從目_ 1=彳_所得知眼睛 屬於從臉部__所_ 二⑼解朗之眼睛亦 疋對象且可之後触給予其似 轉類於特 T泵使用時,則其可自由定義。 關聯裝置最重要的方法步驟包括: •針對各對象來管理臉部探測器85〇與眼睛探測器_ ; 在許可辨認與_範_,針_物_停止時間來調整 上述兩種臉部探測器85G與眼睛探測器之關係; •當背景_呈現空置狀_袖_並管理背_,當在 辨認與追蹤範圍内存在少量的對象時,則背景840便呈現 可使用狀態,當無法尋找到任何其他物體時,則所有的背 景840會呈現已在使用狀態。 接下來將制背景_來進行定位且透過追蹤裝置來管理 不同臉雜龍㈣與眼睛制器_ _對_。追蹤裝置82〇 的重要步驟包括: #開啟臉部探測器850與眼睛探測器86〇 ; •管理關聯背景840-1,...,840-11 ; 鲁從臉部捸測器850接受臉部座標,並轉傳至臉部管理褒置 830 ; 31 200938162 鲁歸類新尋找到臉部至空置背景84〇 ; •針對各已在使用背景840中的臉 器_來執行演算法作用; 、J_與眼睛探測 *計算所有雙眼的3D立體座標; 接收資料包括影像資料;而結果資 體座標。 、抖則包含所有雙眼的3D立 ❹ ❹ 追縱裝置820的特殊步驟包括: % _輪續輸埠_是村新 •料且將其填人目前現有臉部座標的清單私存在’並筛選資 =至少—背景840可使用時’則使用臉部管理裝置⑽. 檢測臉部管理裝置㈣中的臉部_中,, •追縱該臉部,且消去多餘的已知臉部選項^ “40已 •藉由背景840中的臉部探測器 認出的臉部; 來歸類夕餘且視為新辨 1透過所有背景 〇開使啟用臉部探測器85〇,·重複接下來的步驟·· 〇當臉部探測器追縱到臉吨 _,不然則標峨_物,·軸啟驗睛探測器 〇將眼睛探測器860於搜尋 並成功地 、式下時,則可確認眼睛選項 32 200938162 以及所有的背景84〇$; 透過臉部探測器850選出最佳眼睛選 將臉部探測器850改變至追縱模式; ◦使用下個已在使㈣背景_ 可從藉著臉部探測器850接受到的賸
透過臉部管理裝置830,可從藉 邛座標中提選出哪些臉部座標可確 提供為之後追蹤使用的選項清單。 臉部管理裝置㈣的步驟包括: #管理藉由臉部探測器850尋找到的臉部; •根據藉由齡咖傻85G尋朗的臉部來完姐含有效已 知臉部的選項清單; •根據立體影像的不同點,計算臉與提供影像資料之影像感 應裝置的距離。 接收資料包括景>像資料如臉部搜尋的搜尋範圍,而結果資料則 包含含有已尋找到臉部及其座標之清單。 如同特殊作用’臉部管理震置㈣包含下列步驊: * g實際臉部位置的清單發生改變時: 〇分析該清單; 33 200938162 〇透過立體分析與接收位於辨認與追縱範圍内 • 選塌、、太S τ4·» ^ κ 臉^部 w月中之臉部訊息’來計算有效臉部與提供影 之影像感應裝Μ的距離。 貝;斗 應追蹤之臉部將透過與其所屬的臉部探測器咖來管理。a 臉部管理裝置830巾的臉部清單上驗部都會被分配到―臉^ 〇 、器85〇因此,臉部將會被追縱,直到其離開辨認與追縱範圍。 臉部探測器850的步驟包括: 籲管理一個被尋找到臉部之位置; 替眼睛振測器860計算搜尋範圍; • ®根據立體影像的不同點,計算臉部與提供影像資料之影像 感應装置間的距離; •根據透過所屬的眼睛探測器86〇選出之可能雙眼的選項清 $ 單,來決定最佳雙眼; 接收資料包括: *影像資料; 鲁關於被尋找到臉部的資訊; _臉部探測器850的搜尋範圍; ♦包含雙眼選項的清單; 結果資料包括: *包含已尋找到臉部與其座標之清單; 34 200938162 眼睛探測器860的搜尋範圍; # _的雙眼組合。 #同特殊相’臉部探卿85G包含下列步驟: # w實_'部位置崎單發生改變時: 〇咗明日期/更新臉部位置; 籍此數值可 臉部並未持 〇減少找到-遺失參照值,該參照值為一數值,
算出在追蹤影像中,有多少僅被尋找到一次的 續地進行尋找; 同樣的清單發生其他情況時: 〇當眼睛探測器進行追蹤時: 根據眼睛位置來計算臉部位置; 叶算臉部/或眼睛距離; 〇其他的情況下: 該臉部將妓數_較參練鱗會増大。但 該臉部仍將會視為已找到; 到目前為止的臉部位置仍維持已獲得狀態,直到找 到-遺失參數值不再超 固值’否則,該臉部將 視為不再存在。 35
的可七賴度且分配歸類可能的選 200938162 式中追蹤已尋找到眼睛。因此〜 鑑標準來建立選項料。 並藉由評 眼知振測器860的步驟包含: *管理被尋找到雙眼之位置; .開始尋找眼睛; 替後續追蹤行為計算搜尋位置; 後續追縱眼睛位置; ❿確s忍被尋找到眼睛選項 項; 接收資料包括: 籲影像資料; •眼睛尋找以及後續追蹤的尋找範圍 鲁關於被尋找到臉部之資訊; 結果資料包括: *雙眼眼睛組合與其座標。 該眼睛探測器860的特別作用包含以下步驟: *將眼睛探測器860設置於搜尋模式: 〇透過臉部探測器850來確認眼睛搜尋範圍; 〇運用演算法,並於眼睛搜尋範圍内偵測眼睛; 36 W0938162 • @眼睛探測11 _設置概賴式的其他情況下: 〇計算並例如用外差法預測搜尋範圍的新位置 ^以及根據 月先如位置來得到的眼睛速度來預測搜尋範圍的大小和 觀察者與影像資料之影像感應裝置的距離; 〇運用演算法來後續追縱搜尋範圍内的眼睛; #當可能的選項被找到時,隨之進行: 〇 〇進行不同的測試,讓可能的眼睛選項經過確認後成為- 雙眼睛組合。測試與標準包括·· 眼睛彼此間的相對位置與相對於臉部位置的關係; 眼睛的距離與斜度; _在被*找位置細或稱為鄰近位置的範目内,根據 亮度模型分級來確認可信度,藉此,魏佳可信度 的鄰近位置,其位置的可信度也就會提高。 0選項清單將會透過職絲鱗雜準而產生; 鲁當眼睛探測器860設置於追蹤模式時,隨之進行: 〇當確定選項後: 選出最靠近先前預測眼睛位置的雙眼選項; 將目前的眼睛位置標明日期,並做為新的結果; 〇其他的情鱗,亦即當沒有或是沒有適合的選項被選出 時: 將眼睛探測器860改變至搜尋模式,並重複搜尋動 37 200938162 執行先前所述之本發明的較佳實施例後,將成功地於下列條件 下完成:如部份已詳述的情況,於適當的硬體與/或軟體中;或於 -數位訊_理裝置(DSP)巾且/或於經過射程式化統整過之現 場可編程間陣列(FPGA)下;或透過在電腦中或在適當的個人電腦 中的外部裝置與操控程式下來完成。 根據較佳#細’職要的電腦程式將如同倾組絲進行存 取或執行’舉娜說如同在RGM上被存取的程式碼;或如同硬體 ^件來進行存取或執行;又如同在ASIC或fpga中的邏輯開關。 田該電齡私同賴崎贿取·赫錢腦巾時,根據較 佳實施例’該電腦中包含—快速的數位峨處理處麵(DSP),便 可透過該處理器來操控軟體組件。 根據較佳實闕,該龍儲柿為—齡可棘之儲存器, CD ROJV[或R〇M儲存器’並可將電腦程式存於其内。 本案所揭露之技術,得由熟習本技術人士據以實施, 有之作法亦具備專利性,爰依法接中·直刹之申請。竹
冡以貫施,而其前 匕申請。惟上述之 ’因此,提出申請 38 200938162 【圖式簡單說明】 圖1 ··本發明中較佳實施例之方法的流程圖; 圖2 :本發明較佳實施例之尋找眼睛的流程圖; 圖3 .本發明較佳實施例之包含臉部上已確定第一個搜尋範圍的 影像資料圖示; 圖4 .本發明較佳實施例之追蹤以尋找到眼睛的流程圖; 圖5本發明較佳實施例之包含臉部上已碟定第二個搜尋範圍的 影像資料圖示; 圖7 圖8 不贫明祕實施狀__至其適合魏的流程圖; 本發明較佳實施例之裝置;與 神旦本發日月較佳實施例之_方法流程;其中包含:眼睛3D座 才示、影像資料82、臉部目標清單& ^ 庋 _ (檢測追從影像資料之臉部盥 ❹ 艮睛編,早85、確認臉部座標及眼睛個數8 果 87、影像㈣之臉部鍊88、搜索_ 89。 禮“早 主要元件符號說明】 310.....第一個搜尋範圍 320 .....臉部 510.....第二個搜尋範圍 710.....影像感應裝置 39 200938162 715.....主動照明裝置 720 .....影像資料 725 .....電腦 810.........控制裝置 820 .........追踨裝置 830 ..........臉部管理裝置 840,840-1,840-n.....背景 ® 850 ..........臉部探測器 860 ..........眼睛探測器 870 ..........輸出傳輸埠 • 880 ..........輸入傳輸埠

Claims (1)

  1. 200938162 七、申請專利範圍: —臉部上雙眼3£) 1. -種尋找並追機眼的方法,其係於尋找至少 立體座標並進行其連續追蹤時,進行下列步驟: 一個影像感應裝置輪出 a)接收影像資料,該資料包括由至少 的至少一組數位錄影訊號序列; b) 在影像資料中尋找眼睛或追蹤已被尋找到之眼睛; ❹
    c) 確遇已尋找到或追縱到眼睛之3〇立體座標; d) 將已尋找到或追縱到之眼睛歸類到其適合的雙眼; e) 提供雙眼的3D立體座標; ’ 在影像資料中尋找眼睛的過程,其步驟包括: f) 在影像資料中辨認—個或多個臉部; g) 確認至少一個可辨認出臉部的3D立體座標; h) 於可辨認臉部上確定第一個搜尋範圍;且 I) 於第-健尋範_尋找至少—隻眼睛; 在影像資料中追蹤已尋找到眼睛的過程,其步驟包括: J) 於可辨認臉部上確定第二個搜尋範圍;且 k)於第二搜尋範圍内追縱雙眼眼睛; 定’料,解_恤少—胸的過程,其 像資料的影像感應裝置之間的距 1)根據可辨認臉部與輪出影 離來计鼻眼睛部份的期望範圍; m)根據可制臉部與輪料彡像資料的雜錢顧之間的距 41 200938162 離來計算細值,以當作第—個搜尋範圍的分額權值; η)預先調整第一個搜尋範圍,以增加對比度; 〇)在預先調整後,分割第一個搜尋範圍; 合 朽算第一個搜尋範圍内的-個或多個卿 糟此,該連結區域即為有至少幾乎相同灰階值的相鄰 且 q)確認各個計算出之連結區域的範圍; ^匕較眼睛部分的期望範圍與已確 份的期望範圍相 2.如申請專利細第!項所述之尋找並追蹤雙眼的 個搜尋範圍内追蹤雙眼時,其步驟更包括: / 在第一 s) 根據可義臉部與輪㈣彡像資料的 離來計算眼睛部份_絲圍; ☆㈣職置之間的距 t) 確認第二個搜尋範圍的最小灰階值; ❹ 至 巧重複-個用以當作第二個搜尋範圍門播值的 少辨認出兩隻眼睛時,重複就會中斷,其步驟包括: 錐,1νΐΐΙΓί臉部ί輸出影像資料的影像感應裝£之間的距 搜尋範圍的分割門檻值; 田乍弟一個 W) 分割第二個搜尋範圍; X) 計算分割後的第二搜尋範圍内的一個或多個 此,該連結區域即為有至少幾乎相同灰階值的相鄰像^集合;曰 y)確認各個計算出之連結區域的範圍; 42 200938162 較眼睛部分的與已確認的連結區域範圍,杂p 確認的連結區域範圍幾乎虚胪生立、 田已 修興眼月部伤的期望範圍相符合時,則該 連、,,°區域即為被哥找到之眼睛。 i如請專繼_叙雜並触雙_綠,藉此可確 二Γ日將母個像素二進制化,在門紐以下的像素會歸 類1J且在門檻值以上的像素會歸類到〇,反之亦可,即在門 以下的像素會歸類到0且在門檻值在以上的像素會歸類到卜皿 ❹ ❹ 4.如先刖申請專利範圍所述之尋找並魏雙眼的方法,藉此可確 疋,在步驟η)中的預先調整亦即代表校準灰階值矩陣圖。 5.如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可確 定,連結區域為一個8個連結之區域。 6.如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可確 定,眼睛部份包括瞳孔或是曈孔與虹膜。 7.如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可確 定,將已尋找到或追蹤到之眼睛歸類到其適合的雙眼時,亦包括 須將其進行分級。 8.如申請專利範圍第7項所述之尋找並追蹤雙眼的方法,藉此可 確定,分級將透過輔助追踨機器完成。 43 200938162 9.如申睛專利範圍第8項 確定,辅助追賴H將藉由—隻,藉此可 進行訓練。 更及夕隻眼睛與/或非眼睛之影像來 ia 藉此可媒 域座抛在之转财贿_部2 Κί:申二利雙眼的方法 體私時,亦包括進行影像資料的立體分析。 12.如先前申請專·騎叙尋餘追蹤雙 定,可辨認臉部與輸出影像資料的影像感應裝置之_^1 表不根據臉部的3D立體座標來計算的臉部距離。 ❹ t 騎叙雜錢賴賴料,藉此可確 疋,在4取衫像貝料時,臉部將會接受紅外光的主動照射。 14.如先前申請專利範圍所述之尋找並追蹤雙眼的方法 可 定,該方法可在距離影像感應裝置約〇 5到3 5公尺處找到或追縱 雙眼。 〆 15.如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可 定,第一個搜尋範圍會大於第二個搜尋範圍。 曰 44 200938162 16.如先前申請專利範圍所述之尋找並追縱雙眼的方法,藉此可確 定’第一個搜尋範圍的大小約為5〇 X5〇釐米。 17.如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可確 定’第二個搜尋範圍的大小約為2〇 x 15釐米。 ❹18·如先前申請專利範圍所述之尋找並追蹤雙眼的方法,藉此可確 定,該方法將會即時結束。 19· -^電腦執行程序’係於一電腦上執行如前述申請專利範圍所 • 边之哥找並追蹤雙眼的方法。 專利範圍第19項所述之電腦執行程序,其係儲存於資 ❹ =-種尋找並魏雙_裝置,_以尋找至少 1至連續追蹤,該妓將可完成中請專利範‘ 45
TW097143979A 2007-11-16 2008-11-13 Method and device for finding and tracking pairs of eyes TW200938162A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007056528A DE102007056528B3 (de) 2007-11-16 2007-11-16 Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren

Publications (2)

Publication Number Publication Date
TW200938162A true TW200938162A (en) 2009-09-16
TWI366454B TWI366454B (zh) 2012-06-21

Family

ID=40344911

Family Applications (1)

Application Number Title Priority Date Filing Date
TW097143979A TW200938162A (en) 2007-11-16 2008-11-13 Method and device for finding and tracking pairs of eyes

Country Status (7)

Country Link
US (1) US8477996B2 (zh)
JP (1) JP5470262B2 (zh)
KR (1) KR101550474B1 (zh)
CN (1) CN101861118B (zh)
DE (1) DE102007056528B3 (zh)
TW (1) TW200938162A (zh)
WO (1) WO2009062945A1 (zh)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110255761A1 (en) * 2007-06-26 2011-10-20 University Of Rochester Method and system for detecting lung tumors and nodules
JP5512682B2 (ja) * 2008-09-30 2014-06-04 カール ツアイス メディテック アクチエンゲゼルシャフト 眼球運動、特に眼底の運動の測定装置および測定方法
CN102006402B (zh) * 2009-08-28 2014-02-19 鸿富锦精密工业(深圳)有限公司 摄像装置及其身份识别方法
KR101082691B1 (ko) 2009-12-22 2011-11-15 한양대학교 산학협력단 3차원 디스플레이장치에서 홍채 시선 검출을 통한 안구 운동 장치 및 방법
WO2012122194A1 (en) * 2011-03-09 2012-09-13 Bae Systems Information And Electronic Systems Integration Inc. System and method for situational awareness and target cueing
FR2976355B1 (fr) * 2011-06-09 2013-06-21 Jean Luc Desbordes Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
DE102012004817A1 (de) * 2012-03-08 2013-09-12 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Scheinwerfersystem für ein Kraftfahrzeug
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
US9952663B2 (en) 2012-05-10 2018-04-24 Umoove Services Ltd. Method for gesture-based operation control
KR20130134103A (ko) * 2012-05-30 2013-12-10 삼성전자주식회사 단말기의 이미지 제공 장치 및 방법
CN103565399B (zh) * 2012-07-27 2015-09-30 原相科技股份有限公司 瞳孔检测装置
EP2712541B1 (en) * 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
US9911036B2 (en) * 2012-11-14 2018-03-06 Tascent, Inc. Focusing method for optically capturing an iris image
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9041642B2 (en) * 2012-12-17 2015-05-26 Disney Enterprises, Inc. Large audience 3D display system without glasses
CN103902958A (zh) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 人脸识别的方法
KR102175853B1 (ko) * 2013-02-22 2020-11-06 삼성전자주식회사 동작 제어 방법 및 그 전자 장치
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9772679B1 (en) * 2013-08-14 2017-09-26 Amazon Technologies, Inc. Object tracking for device input
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
KR101524516B1 (ko) * 2013-11-29 2015-06-02 전남대학교산학협력단 빈도수 기반의 영상 내 얼굴객체 추적방법
CN105828700B (zh) * 2013-12-09 2018-07-06 Smi创新传感技术有限公司 操作眼睛跟踪装置的方法和提供主动照明控制用于改进的眼睛跟踪稳定性的眼睛跟踪装置
WO2015130849A1 (en) * 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
KR101610525B1 (ko) 2014-10-20 2016-04-07 현대자동차주식회사 조도를 고려한 동공 검출 장치 및 그 방법
KR101619651B1 (ko) * 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
US9953247B2 (en) 2015-01-29 2018-04-24 Samsung Electronics Co., Ltd. Method and apparatus for determining eye position information
CN104636736A (zh) * 2015-03-03 2015-05-20 上海博超联石智能科技有限公司 一种基于libjpeg库的高清人脸检测方法
WO2017003719A2 (en) 2015-06-30 2017-01-05 3M Innovative Properties Company Illuminator
KR102000888B1 (ko) 2015-08-07 2019-10-01 애플 인크. 이미지들의 스트림을 디스플레이하기 위한 시스템 및 방법
KR102463169B1 (ko) * 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
US9928602B2 (en) * 2015-12-11 2018-03-27 Novartis Ag Fast and automated segmentation of layered image with heuristic graph search
EP3214602B1 (de) * 2016-03-03 2019-05-08 Sick Ag Verfahren zur dreidimensionalen erfassung von objekten
US9704216B1 (en) * 2016-08-04 2017-07-11 Le Technology Dynamic size adjustment of rendered information on a display screen
US10395099B2 (en) * 2016-09-19 2019-08-27 L'oreal Systems, devices, and methods for three-dimensional analysis of eyebags
KR102349543B1 (ko) * 2016-11-22 2022-01-11 삼성전자주식회사 사용자의 눈을 추적하는 방법 및 장치와 역변환된 저조도 영상을 생성하는 방법
WO2018106220A1 (en) * 2016-12-06 2018-06-14 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
CN108289151A (zh) * 2018-01-29 2018-07-17 维沃移动通信有限公司 一种应用程序的操作方法及移动终端
CN108446642A (zh) * 2018-03-23 2018-08-24 四川意高汇智科技有限公司 一种快速人脸识别***
US11010646B2 (en) * 2018-04-10 2021-05-18 Facebook Technologies, Llc Object tracking assisted with hand or eye tracking
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
KR20200067465A (ko) * 2018-12-04 2020-06-12 삼성전자주식회사 영상 처리 방법 및 장치
CN109910567B (zh) * 2019-02-01 2022-09-30 信利光电股份有限公司 一种用于汽车的智能遮阳装置及其控制方法
WO2021056177A1 (en) * 2019-09-24 2021-04-01 Citrix Systems, Inc. Systems and methods for screen brightness control and auto-lock based on eye detection
US11474597B2 (en) 2019-11-01 2022-10-18 Google Llc Light field displays incorporating eye trackers and methods for generating views for a light field display using eye tracking information
CN111192241B (zh) * 2019-12-23 2024-02-13 深圳市优必选科技股份有限公司 一种人脸图像的质量评估方法、装置及计算机存储介质
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
US20230156178A1 (en) * 2020-04-02 2023-05-18 Kyocera Corporation Detection device and image display module
KR102254045B1 (ko) 2020-11-26 2021-05-20 배이산업 주식회사 선박의 프로펠러용 안전 가드
CN118215858A (zh) * 2021-11-04 2024-06-18 特里纳米克斯股份有限公司 投影仪的眼睛安全性

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
DE19731303B4 (de) * 1997-07-13 2009-02-26 Smi Senso Motoric Instruments Gmbh Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen
JP3651745B2 (ja) * 1998-03-17 2005-05-25 株式会社東芝 物体領域追跡装置および物体領域追跡方法
US6539100B1 (en) * 1999-01-27 2003-03-25 International Business Machines Corporation Method and apparatus for associating pupils with subjects
US7039909B2 (en) * 2001-09-29 2006-05-02 Intel Corporation Method and apparatus for performing compiler transformation of software code using fastforward regions and value specialization
US6997556B2 (en) 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
KR100552709B1 (ko) * 2004-05-21 2006-02-20 삼성전자주식회사 눈검출 장치 및 방법
DE112006002752A5 (de) * 2005-08-17 2008-08-28 Seereal Technologies Gmbh Verfahren und Schaltungsanordnung zum Erkennen und Verfolgen von Augen mehrerer Betrachter in Echtzeit
US20070147671A1 (en) * 2005-12-22 2007-06-28 Eastman Kodak Company Analyzing radiological image using 3D stereo pairs
DE102006002001B4 (de) * 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung

Also Published As

Publication number Publication date
KR20100105591A (ko) 2010-09-29
CN101861118B (zh) 2012-05-16
JP5470262B2 (ja) 2014-04-16
CN101861118A (zh) 2010-10-13
JP2011508289A (ja) 2011-03-10
KR101550474B1 (ko) 2015-09-04
US20100303294A1 (en) 2010-12-02
US8477996B2 (en) 2013-07-02
TWI366454B (zh) 2012-06-21
DE102007056528B3 (de) 2009-04-02
WO2009062945A1 (de) 2009-05-22

Similar Documents

Publication Publication Date Title
TW200938162A (en) Method and device for finding and tracking pairs of eyes
CN105431078B (zh) 用于同轴眼睛凝视跟踪的***和方法
JP2022093550A (ja) 情報処理装置、情報処理方法及びプログラム
US20160004904A1 (en) Facial tracking with classifiers
CN106951867A (zh) 基于卷积神经网络的人脸识别方法、装置、***及设备
CN107145845A (zh) 基于深度学习及多特征点融合的行人检测方法
JP2020535529A (ja) 生体検出方法及び装置、電子機器、並びにコンピュータ可読記憶媒体
JP2008192100A (ja) 瞼検出装置及びプログラム
JP7063393B2 (ja) 教師データ拡張装置、教師データ拡張方法およびプログラム
Niu et al. Automatic localization of optic disc based on deep learning in fundus images
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
Saif et al. Robust drowsiness detection for vehicle driver using deep convolutional neural network
EP3207861A2 (en) Detection system and detection method
KR102039164B1 (ko) 다중 구조 인공신경망을 이용한 가상 피팅을 수행하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
JP2017204757A (ja) 被写体追跡装置及びそのプログラム
KR102430742B1 (ko) 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법
Kurilová et al. Detecting glaucoma from fundus images using ensemble learning
JP2021072106A (ja) イメージ処理システム
JPH11283036A (ja) 対象物検出装置及び対象物検出方法
KR20190114603A (ko) 순환 구조 인공신경망을 이용한 가상 피팅을 수행하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
Al-Fadhili et al. 3D simulation of navigation problem of people with cerebral visual impairment
WO2023162087A1 (ja) 画像処理装置、画像処理方法、記憶媒体
Suriyal Quantitative Analysis of Strabismus Using Image Processing
Sefer et al. Comparison of neural network and hausdorff distance methods in American, British and Turkish sign languages recognition
Yogalaxmi et al. Controlling spread of COVID-19 through Facial Mask Detection using Deep Learning