TWI722383B - 應用於深度學習之預特徵萃取方法 - Google Patents
應用於深度學習之預特徵萃取方法 Download PDFInfo
- Publication number
- TWI722383B TWI722383B TW108104306A TW108104306A TWI722383B TW I722383 B TWI722383 B TW I722383B TW 108104306 A TW108104306 A TW 108104306A TW 108104306 A TW108104306 A TW 108104306A TW I722383 B TWI722383 B TW I722383B
- Authority
- TW
- Taiwan
- Prior art keywords
- data
- feature extraction
- deep learning
- extraction method
- feature
- Prior art date
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本發明係提供一種應用於深度學習之預特徵萃取方法,其包含:取得一第一數據資料;以至少二相異之特徵萃取演算法,同時對第一數據資料進行特徵萃取,以取得第一數據資料之複數特徵資料;將此些特徵資料匯集為一第二數據資料;以及透過一深度學習演算法對第二數據資料進行特徵萃取,以取得第二數據資料之複數特徵資料。藉此,可增加深度學習演算法之演算效率以及特徵萃取之準確率。
Description
本發明係關於一種預特徵萃取方法;更特別言之,本發明係關於一種於進行深度學習前,預先進行特徵萃取之預特徵萃取方法。
人工智慧(AI)為電腦科學中,受到高度關注的一個領域,其係用於解決與人類智慧相關的問題,例如學習、解決問題和特徵辨識等。機器學習為實現人工智慧的一種途徑,亦即,以機器學習為手段解決人工智慧中的問題。機器學習在近30多年已發展為一門多領域交叉學科,涉及機率論、統計學、逼近論、凸分析、計算複雜性理論等多門學科。機器學習理論主要是設計和分析一些讓電腦可以自動「學習」的演算法。機器學習演算法是一類從資料中自動分析獲得規律,並利用規律對未知資料進行預測的演算法。習知機器學習(Machine Learning)之流程,大致包含輸入數據、特徵萃取、特徵選擇以及特徵分類等步驟。取得有用、效果良好之特徵,需要經各領域的專家對資料投入相當數量的分析及研究,了解
資料特性,架構出合適之演算法,方可達到。因此,又可稱為特徵工程(Feature engineering)。
深度學習(Deep Learning)為機器學習的一個分支,其目的為將資料透過多個處理層(layer)中的線性或非線性轉換(linear or non-linear transform),自動萃取出足以代表資料特性的特徵(feature)。深度學習具有自動萃取特徵(feature extraction)的能力,也被視為是一種特徵學習(Feature Learning,representation learning),目前具有深厚的發展潛力,為可取代專家的特徵工程。
近年來,深度學習方法在建立預測模型上取得了重大進展。此進展來自於計算能力的突破與大數據。傳統的淺層學習方法中,使用者必須選取適當的指標,以協助系統快速學習到特徵。深度學習則利用大量資料,令系統可自動地學習重要的特徵。一般而言,深度學習應用於表情辨識上,輸入的資料都未加經過處理,而辨識結果則容易有準確率低且不穩定的狀況。
再者,習知於應用深度學習時,各種數位資料(包括:文字、聲音、影像、動畫等)係直接輸入至深度學習進行自動特徵萃取,因此無法廣泛對應各種情況進行判定。另一方面,遇到特殊情況時,需要特殊方法進行特徵萃取,若直接使用原始的深度學習,容易造成辨識結果不穩定,以及準確率低的情形。再者,常出現深度學習的層數增加,成本增加,惟效果卻不佳的狀況。
因此,仍有必要對現行應用深度學習的特徵萃取方法進行改良。
本發明係於進行深度學習演算法前,先以至少二種相異之特徵萃取演算法進行預特徵萃取。藉此,可增加深度學習演算法於特徵萃取之演算效率及準確率,並可減少深度學習演算法所使用之層數,降低使用成本。
於本發明一實施方式中,揭示一種應用於深度學習之預特徵萃取方法,其包含:取得一第一數據資料;以至少二相異之特徵萃取演算法,同時對第一數據資料進行特徵萃取,以取得第一數據資料之複數特徵資料;將此些特徵資料匯集為一第二數據資料;以及透過一深度學習演算法對第二數據資料進行特徵萃取,以取得第二數據資料之複數特徵資料。
於上述實施方式之應用於深度學習之預特徵萃取方法中,此些特徵萃取演算法為一臉部動作編碼系統特徵萃取方法、一局部二值模式特徵萃取方法或一方向梯度直方圖特徵萃取方法中任二者。
於上述實施方式之應用於深度學習之預特徵萃取方法中,深度學習演算法可為一深度神經網路演算法或一卷積神經網路演算法。
於上述實施方式之應用於深度學習之預特徵萃取方法中,第一數據資料可為一靜態影像、一文字、一圖形或一動態影像。
於上述實施方式之應用於深度學習之預特徵萃取方法中,第二數據資料為一靜態影像、一文字、一圖形或一動態影像。
於上述實施方式之應用於深度學習之預特徵萃取方法中,此些特徵萃取演算法之數量為三以上。
於上述實施方式之應用於深度學習之預特徵萃取方法中,第二數據資料可為一多維度資料。
201‧‧‧圖像
202‧‧‧圖像
211‧‧‧隱藏層
212‧‧‧隱藏層
213‧‧‧隱藏層
214‧‧‧輸入層
215‧‧‧輸出層
h1_0至h1_29‧‧‧神經元
h2_0至h2_19‧‧‧神經元
h3_0至h3_9‧‧‧神經元
AU1至AU22‧‧‧形變單元
S101、S102、S103、S104‧‧‧步驟
301‧‧‧卷積層
302‧‧‧池化層
303‧‧‧Dropout層
304‧‧‧平坦層
305‧‧‧啟動函數Dense Relu
306‧‧‧啟動函數Dense SoftMax
307‧‧‧全連結層
第1圖係繪示依據本發明一實施例之應用於深度學習之預特徵萃取方法的流程示意圖;第2圖係繪示依據本發明另一實施例之臉部動作編碼系統特徵萃取方法之應用示意圖;第3圖係繪示依據本發明又一實施例之局部二值模式特徵萃取方法之應用示意圖;第4圖係繪示依據本發明再一實施例之方向梯度直方圖特徵萃取方法之應用示意圖;第5圖係繪示依據本發明一實施例之深度神經網路演算法之架構示意圖;第6圖係繪示依據本發明一實施例之卷積神經網路演算法之架構示意圖;第7圖係繪示於進行深度神經網路演算法前未進行預特徵萃取及已進行預特徵萃取的比較圖;以及
第8圖係繪示於進行卷積神經網路演算法前未進行預特徵萃取及已進行預特徵萃取的比較圖。
請參照第1圖。第1圖係繪示依據本發明一實施例之應用於深度學習之預特徵萃取方法的流程示意圖。本發明所揭示之一種應用於深度學習之預特徵萃取方法,包含步驟S101、步驟S102、步驟S103及步驟S104。步驟S101係取得一第一數據資料;步驟S102係以至少二相異之特徵萃取演算法,同時對第一數據資料進行特徵萃取,以取得第一數據資料之複數特徵資料;步驟S103係將此些特徵資料匯集為一第二數據資料;以及步驟S104係透過一深度學習演算法對第二數據資料進行特徵萃取,以取得第二數據資料之複數特徵資料。
於上述步驟S101中,第一數據資料可為一靜態影像、一文字、一圖形或一動態影像。於上述步驟S102中,係同時使用至少二以上相異之特徵萃取演算法對第一數據資料進行預先特徵萃取。更佳為使用三種以上相異之特徵萃取演算法對第一數據資料進行預先特徵萃取。一實施例中,此些特徵萃取演算法可為一臉部動作編碼系統特徵萃取方法、一局部二值模式特徵萃取方法或一方向梯度直方圖特徵萃取方法中任二者,或者三者皆使用。於上述步驟S103中,第二數據資料係由第一數據資料之複數特徵資料構成,第二數據資料相對應亦可為一靜態影像、一文字、一圖形或一動態影像。於上述步驟S104
中,深度學習演算法可為一深度神經網路演算法或一卷積神經網路演算法。
請參照第2圖。第2圖係繪示依據本發明另一實施例之臉部動作編碼系統特徵萃取方法之應用示意圖;臉部動作編碼系統(Facial Action Coding System,FACS)為著名心理學家P.Ekman及W.Friesen教授所提出。於此套系統中,主要係依據人臉上肌肉的分佈,嘗試找出肉眼可區別的變化,並將人類的表情分解為多個對應臉部的基本形變單元(Action Units,AU),並分析了此些形變單元的動作特徵、其所控制的主要區域以及與之相關的表情,同時提供對應各表情之圖片。於第2圖實施例中,列出了由AU1到AU22等22個形變單元。舉例而言,揚眉為AU1、皺眉為AU4、撅嘴為AU10等。此些對應臉部的形變單元,其組合可用以表達人類的任何臉部表情。
本發明之一實施例,係以FACS為導向,試圖辨識出人類表情的豐富變化,例如眉毛的上揚、嘴角的變化等,改進以往過於簡化的分類方式,使電腦的辨識更接近我們人類的認知,更符合真實世界的情況。由於表情的變化大多是靠著眼腈、眉毛與嘴巴的大小或位置變化,所以在特徵值的決定上就定義出12個特徵。
請參照第3圖。第3圖係繪示依據本發明又一實施例之局部二值模式特徵萃取方法之應用示意圖。局部二值模式(Local Binary Pattern、LBP)為一種用來描述圖像局部紋理特徵的算子;它具有旋轉不變性和灰度不變性等顯著的優點。它是首先由T.Ojala,M.Pietikäinen,和D.Harwood於1994年
提出,用於局部紋理特徵萃取。第3圖實施例中,先將圖像201區隔為3×3像素區域,並取出各像素區域對應之像素點值。將中心區域之像素點值作為閾值,與其周圍鄰近區域之8個個像素點值進行比較。若周圍鄰近區域之像素點值大於或等於閾值,則將該鄰近區域之像素點位置定義為1,否則定義為0。接續,將已閾值化後的值分別與其對應位置像素點的權重相乘再相加計算的值即為LBP值,計算公式如下式(1):
請參照第4圖。第4圖係繪示依據本發明再一實施例之方向梯度直方圖特徵萃取方法之應用示意圖。方向梯度直方圖(Histogram of oriented gradient,HOG)是法國研究人員Dalal在2005年CVPR上提出的一種人體目標檢測的圖像描述方法,其係通過計算和統計圖像局部區域的梯度方向直方圖來構成特徵。如第4圖所示,首先將圖像202區隔成多個連通區域,稱為細胞單元。接續,取得細胞單元中,各像素點的梯度或邊緣的方向直方圖,最終再把此些直方圖組合起來,即可構成一特徵描述器。其優點為對圖像幾何和光學的形變皆能維持相當好的不變性。
請參照第5圖。第5圖係繪示依據本發明一實施例之深度神經網路演算法之架構示意圖。深度神經網路(Deep Neural Networks,DNN)通常係稱包含多個隱藏層(Hidden Layers)211、212、213的神經網路,如第5圖所示,其係採用
了與神經網絡相似的分層架構。於一深度神經網路系統中,包含由一輸入層214、多個隱藏層211、212、213以及一輸出層215所組成之多層網絡。僅有相鄰之各層節點之間有連接,同一層以及跨層節點之間相互無連接,各層可以視為一logistic regression模型。此種分層架構,較接近人類大腦的結構。此外,DNN可使用反向傳播演算法進行訓練。本發明係利用三種相異之特徵萃取方法進行預特徵萃取,再由各自萃取出的特徵資料,組合成142維度的數據資料作為深度神經網路之特徵值輸入,隱藏層211分別包含30個神經元(h1_0至h1_29)、隱藏層212包含20個神經元(h2_0至h2_19)和隱藏層213包含10個神經元(h3_0至h3_9),最終預測圖像為何種表情,亦即可分類出六個不同態樣之分類值1至分類值6。權重更新可以使用下式(2)進行隨機梯度下降法求解:
其中,wi,j為所要得到的參數,η為學習率,c為代價函式,t為第t次參數更新。
上述式(2)的函式的選擇與學習的類型(例如監督學習、無監督學習、增強學習)以及活化函數相關。
請續參照第6圖。第6圖係繪示依據本發明一實施例之卷積神經網路演算法之架構示意圖。卷積神經網路(Convolutional Neural Network,CNN)為最常見的深度學習網路架構之一,因為網路架構中的卷積層(Convolutional
layer)及池化層(Pooling layer)強化了模式辨識(Pattern recognition)及相鄰資料間的關係,使卷積神經網路應用在影像、聲音等訊號類型的資料型態能得到很好的效果。本發明之卷積神經網路演算法之架構中,主要包含三層:即卷積層(convolutional layer)301、池化層(pooling layer)302以及全連結層(fully connected layer)307。
如第6圖所示,首先,利用三種相異特徵萃取方法進行預特徵萃取,再由各自取得之特徵資料,組合成14 x 10維數據資料作為卷積神經網路之特徵值輸入,接續於卷積層301中經由3 x 3卷積核(kernel)的運算後,可萃取出其相對應之特徵圖(feature map)。接續,於池化層302對特徵圖進行壓縮,一方面可使特徵圖變小以簡化網路計算複雜度;另一方面可進行特徵壓縮以提取主要特徵。此外,於經過卷積與池化後,加入Dropout層303,其主要目的為避免過度擬合。於深度學習的訓練過程中,Dropout層303將使每一批次回合(batch run)都依據機率丟棄一定比例的神經元不予計算,使得每一次訓練皆像在訓練不同的神經網路一樣。接續,使用一平坦層304,將特徵值轉為一維資料以供後續之全連結層307使用。接續,建立全連結層307中之隱藏層(請參照第5圖實施例),指定其神經元數目為128個,啟動則使用啟動函數Dense Relu305。最終為輸出層(請參照第5圖實施例),亦即輸出六個不同態樣之分類值1至分類值6,此時係使用啟動函數Dense SoftMax306啟動輸出層。
請參照第7圖。第7圖係繪示於進行深度神經網路演算法前未進行預特徵萃取及先進行預特徵萃取的比較圖。於此須先說明,本發明所稱之先進行預特徵萃取,係如第1圖實施例中之步驟S102,先對第一數據資料以至少二相異特徵萃取演算法取得第一數據資料之複數特徵資料,再將複數特徵資料匯集為第二數據資料,而深度神經網路演算法係對第二數據資料進行特徵萃取。另需提及的是,本發明一實施例中,將由至少二相異特徵萃取演算法所各自取得之第一數據資料之複數特徵資料,組合成多維度之第二數據資料,以作為深度學習演算法輸入之特徵值。此對於利用深度學習進行二維以上之數據資料(例如:圖像)之特徵萃取有相當大的助益。所稱之未進行預特徵萃取,係指直接以深度神經網路演算法對第一數據資料進行特徵萃取。第7圖中,以一圖像之表情辨識為展示例,須知本發明中所揭示之方法,並不限制於圖像之表情辨識。第7圖中,未進行預先特徵萃取而直接將圖像對應之數據資料輸入至DNN進行表情辨識時,經由驗證獲得之平均準確率84.6%,其中最高與最低準確率相差了13.76%,出現辨識率低、幅度大且不穩定的狀況。當使用前所述三種相異之特徵萃取演算法對數據資料進行預特徵萃取,再將取得之特徵資料輸入至DNN進行表情辨識時,所獲得之平均準確率為93.91%,提高了9.31%,明顯改善了準確率低的問題,而最高與最低的準確率相差6.45%,誤差值改善了將近一半,同樣解決了辨識率不穩定的問題。
第8圖係繪示於進行卷積神經網路演算法前未進行預特徵萃取及先進行預特徵萃取的比較圖。類似的結果亦發生於卷積神經網路演算法中。未進行預特徵萃取而直接將圖像對應之數據資料輸入至CNN進行表情辨識時,經由驗證獲得之平均準確率為85.86%,其中最高與最低準確率相差了9.93%,同樣出現辨識率低、幅度大且不穩定的情況。當使用前所述三種相異之特徵萃取演算法對數據資料進行預特徵萃取,再將取得之特徵資料輸入至CNN進行表情辨識時,所獲得之平均準確率為97.91%,提高了12.05%,明顯改善了準確率低的問題,且比使用DNN所取得之效果來的好,而最高與最低的準確率相差2.48%,誤差值改善了將近3/4,解決了辨識率不穩定的問題,且其效果仍然比使用DNN來好。
由上述,本發明係提出一應用於深度學習之預特徵萃取方法,其係針對各式輸入之數據資料,首先進行各式各樣的預特徵萃取,接續將取得的特徵資訊串接成另一數據資料(如:影像或圖像),再透過深度學習進行分類辨識。此方法由於輸入至深度學習前,已預先進行過特徵萃取的動作,因此,不管於特定環境、特定受測者或物體時,皆可過濾出特定且有用之特徵資訊,而後再透過深度學習演算法進行特徵再萃取與選擇,並進行分類辨識,最終獲得相較於原始僅使用深度學習演算法,準確率與穩定度提高之效果。另一方面,亦可降低深度學習的負擔,以達到層數少、成本低且效果佳的優勢。
雖然本發明已以實施方式揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明的精神和
範圍內,當可作各種的更動與潤飾,因此本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S101、S102、S103、S104‧‧‧步驟
Claims (5)
- 一種應用於深度學習之預特徵萃取方法,其包含:對一臉部影像取得一第一數據資料;以至少二相異之特徵萃取演算法,同時對該第一數據資料進行特徵萃取,以取得該第一數據資料之複數特徵資料;將該些特徵資料匯集為一第二數據資料;以及透過一深度學習演算法對該第二數據資料進行特徵萃取,以取得該第二數據資料之複數特徵資料;其中,該些特徵萃取演算法為一臉部動作編碼系統特徵萃取方法、一局部二值模式特徵萃取方法或一方向梯度直方圖特徵萃取方法中任二者;其中該第一數據資料為一靜態影像、一文字、一圖形或一動態影像。
- 如申請專利範圍第1項所述的應用於深度學習之預特徵萃取方法,其中該深度學習演算法為一深度神經網路演算法或一卷積神經網路演算法。
- 如申請專利範圍第1項所述的應用於深度學習之預特徵萃取方法,其中該第二數據資料為一靜態影像、一文字、一圖形或一動態影像。
- 如申請專利範圍第1項所述的應用於深度學習之預特徵萃取方法,其中該些特徵萃取演算法之數量為三以上。
- 如申請專利範圍第1項所述的應用於深度學習之預特徵萃取方法,其中該第二數據資料為一多維度資料。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108104306A TWI722383B (zh) | 2019-02-01 | 2019-02-01 | 應用於深度學習之預特徵萃取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108104306A TWI722383B (zh) | 2019-02-01 | 2019-02-01 | 應用於深度學習之預特徵萃取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202030651A TW202030651A (zh) | 2020-08-16 |
TWI722383B true TWI722383B (zh) | 2021-03-21 |
Family
ID=73002789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108104306A TWI722383B (zh) | 2019-02-01 | 2019-02-01 | 應用於深度學習之預特徵萃取方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI722383B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI828942B (zh) * | 2020-09-23 | 2024-01-11 | 中強光電股份有限公司 | 訓練或應用神經網路模型的電子裝置和方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI335544B (en) * | 2007-07-31 | 2011-01-01 | Univ Nat Taiwan Science Tech | Iris recognition system |
TW201833819A (zh) * | 2016-12-07 | 2018-09-16 | 美商克萊譚克公司 | 用於以迴旋神經網路為基礎之缺陷檢測之資料擴增 |
-
2019
- 2019-02-01 TW TW108104306A patent/TWI722383B/zh active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI335544B (en) * | 2007-07-31 | 2011-01-01 | Univ Nat Taiwan Science Tech | Iris recognition system |
TW201833819A (zh) * | 2016-12-07 | 2018-09-16 | 美商克萊譚克公司 | 用於以迴旋神經網路為基礎之缺陷檢測之資料擴增 |
Also Published As
Publication number | Publication date |
---|---|
TW202030651A (zh) | 2020-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wadhawan et al. | Deep learning-based sign language recognition system for static signs | |
Guo et al. | A survey on deep learning based face recognition | |
Cui et al. | Identifying materials of photographic images and photorealistic computer generated graphics based on deep CNNs. | |
CN109949255B (zh) | 图像重建方法及设备 | |
Das et al. | A hybrid approach for Bangla sign language recognition using deep transfer learning model with random forest classifier | |
Singh et al. | A deeply coupled ConvNet for human activity recognition using dynamic and RGB images | |
Neil et al. | Learning to be efficient: Algorithms for training low-latency, low-compute deep spiking neural networks | |
Rajan et al. | Novel deep learning model for facial expression recognition based on maximum boosted CNN and LSTM | |
Tian et al. | Ear recognition based on deep convolutional network | |
Wu et al. | Feedback weight convolutional neural network for gait recognition | |
CN110321805B (zh) | 一种基于时序关系推理的动态表情识别方法 | |
CN109657582A (zh) | 人脸情绪的识别方法、装置、计算机设备及存储介质 | |
Ali et al. | Facial emotion detection using neural network | |
Xu et al. | Face expression recognition based on convolutional neural network | |
Miao et al. | Evolving convolutional neural networks by symbiotic organisms search algorithm for image classification | |
Alam et al. | Two dimensional convolutional neural network approach for real-time bangla sign language characters recognition and translation | |
Salem et al. | Semantic image inpainting using self-learning encoder-decoder and adversarial loss | |
Dagher et al. | Improving the SVM gender classification accuracy using clustering and incremental learning | |
Pratama et al. | Deep convolutional neural network for hand sign language recognition using model E | |
Tong et al. | Adaptive weight based on overlapping blocks network for facial expression recognition | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
Wang et al. | Facial expression recognition based on CNN | |
Defriani et al. | Recognition of regional traditional house in Indonesia using Convolutional Neural Network (CNN) method | |
TWI722383B (zh) | 應用於深度學習之預特徵萃取方法 | |
CN113221683A (zh) | 教学场景下基于cnn模型的表情识别方法 |