TW202022634A - 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法 - Google Patents

相位圖像生成器的訓練方法及相位圖像分類器的訓練方法 Download PDF

Info

Publication number
TW202022634A
TW202022634A TW107144986A TW107144986A TW202022634A TW 202022634 A TW202022634 A TW 202022634A TW 107144986 A TW107144986 A TW 107144986A TW 107144986 A TW107144986 A TW 107144986A TW 202022634 A TW202022634 A TW 202022634A
Authority
TW
Taiwan
Prior art keywords
phase image
phase
value
generated
loss
Prior art date
Application number
TW107144986A
Other languages
English (en)
Other versions
TWI705340B (zh
Inventor
劉俊葳
陳鑾英
張高德
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW107144986A priority Critical patent/TWI705340B/zh
Priority to US16/223,789 priority patent/US10909421B2/en
Priority to CN201811585820.6A priority patent/CN111325232B/zh
Publication of TW202022634A publication Critical patent/TW202022634A/zh
Application granted granted Critical
Publication of TWI705340B publication Critical patent/TWI705340B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

相位圖像生成器的訓練方法包括以下步驟。首先,在各疊代次中,產生損失值,包括:(1). 相位圖像生成器以相位圖像生成模式產生複數張生成相位圖像;(2).相位圖像判定器判斷此些生成相位圖像與複數張原始相位圖像的差異程度;以及,(3).依據差異程度產生此些生成相位圖像的損失值。然後,挑選器從此些損失值中選擇一穩定損失值,並以穩定損失值所對應的疊代次的相位圖像生成模式做為相位圖像生成器的一所選相位圖像生成模式。

Description

相位圖像生成器的訓練方法及相位圖像分類器的訓練方法
本揭露是有關於一種訓練方法,且特別是有關於一種相位圖像生成器的訓練方法及相位圖像分類器的訓練方法。
在習知分類方法中,分類器必須要分析數個樣本,從中學習此些樣本所屬類別的特徵。在學習完成後,分類器可分析一待分類樣本,並判斷此待分類樣本屬於何種類別。然而,分類器要達到高分類正確率,必須分析足夠數量的樣本。換言之,當樣本數不足時,分類器的分類正確率便會降低。
本揭露係有關於一種相位圖像生成器的訓練方法及相位圖像分類器的訓練方法,可改善前述習知問題。
本揭露一實施例提出一種相位圖像生成器的訓練方法。訓練方法包括以下步驟。在數個疊代次之各者中,產生一損失值,包括:一相位圖像生成器以一相位圖像生成模式產生複數張生成相位圖像;一相位圖像判定器判斷此些生成相位圖像與複數張原始相位圖像的一差異程度;以及,依據差異程度產生此些生成相位圖像的損失值;一挑選器從此些損失值中選擇一穩定損失值,並以穩定損失值所對應的疊代次的相位圖像生成模式做為相位圖像生成器的一所選相位圖像生成模式。
本揭露一實施例提出一種相位圖像分類器的訓練方法。訓練方法包括以下步驟。以前述相位圖像生成器的訓練方法,取得相位圖像生成器的所選相位圖像生成模式;相位圖像生成器以所選相位圖像生成模式產生複數張訓練相位圖像;以及,相位圖像生成器將此些訓練相位圖像輸入至一相位圖像分類器,以訓練相位圖像分類器。
為了對本揭露之上述及其他方面有更佳的瞭解,下文特舉實施例,並配合所附圖式詳細說明如下:
請參照第1~3圖,第1圖繪示本揭露一實施例之相位圖像生成器的訓練裝置100的功能方塊圖,第2圖繪示第1圖之訓練裝置100之相位圖像生成器的訓練方法的流程圖,而第3圖繪示繪示第1圖之訓練裝置100在訓練過程中所有疊代次所產生的損失函數圖。
如第1圖所示,訓練裝置100包括相位圖像生成器110、相位圖像判定器120及挑選器130。相位圖像生成器110、相位圖像判定器120及挑選器130可以是採用半導體製程所形成的電路結構(circuit)。相位圖像生成器110、相位圖像判定器120與挑選器130中至少二者可整合成單一元件。相位圖像生成器110、相位圖像判定器120與挑選器130中至少一者可整合成至一處理器(process)(未繪示),如中央處理器(CPU),在此例子中,相位圖像生成器110、相位圖像判定器120與挑選器130中至少一者可以是軟體、韌體或電路結構。在一實施例中,相位圖像生成器110、相位圖像判定器120及挑選器130可以採用生成式對抗網路(Generative Adversarial Network, GAN)技術實現其功能。
以下係以第2圖說明使用訓練裝置100訓練相位圖像生成器110之流程。
在步驟S110中,在數個疊代次之各者中,訓練裝置100可採用GAN技術,產生損失值F1。完成本步驟的方式有多種,以下係以步驟S111~S115說明其中一種。步驟S111~S115為一個疊代次的流程,其餘各疊代次的流程皆重複步驟S111~S115。
在步驟S111中,在第N次疊代次中,相位圖像生成器110以相位圖像生成模式GM’產生數張生成相位圖像M1。N的初始值為1。生成相位圖像M1例如是具有干涉條紋的圖像。
在步驟S112中,相位圖像判定器120判斷此些生成相位圖像M1與數張原始相位圖像M2的差異程度。原始相位圖像M2可預先儲存於資料庫DB。原始相位圖像M2例如是具有干涉條紋的圖像。此外,在本實施例中,原始相位圖像M2的數量與生成相位圖像M1的數量相同,但在其他實施例中,數量亦可不同。全部原始相位圖像M2屬於同一類別的圖像,同一類別的圖像例如是各原始相位圖像M2具有數條彎曲干涉條紋、特定或固定數量的干涉條紋或其它幾何形式的條紋。
在步驟S113中,相位圖像判定器120依據差異程度產生此些生成相位圖像M1的損失值F1。損失值F1例如是相位圖像判定器120採用GAN技術,經由損失函數(loss function)運算所產生。一個疊代次下產生一個損失值F1,其以點形式繪示於第3圖中。在本實施例中,損失函數可以是鉸鏈損失(hinge loss)函數或交叉熵損失(Cross-entropy loss)函數。交叉熵損失函數例如是sigmoid交叉熵損失函數或softmax交叉熵損失函數,然並不以所列舉者為限。此外,相位圖像判定器120可將此些生成相位圖像M1的損失值F1及/或相關GAN資訊回饋給相位圖像生成器110,做為相位圖像生成器110在下一個疊代次產生數張生成相位圖像M1的參考。下一個疊代次產生的數張生成相位圖像M1與此些原始相位圖像M2之間差異程度會往縮小趨勢進行,且各生成相位圖像M1之間的變異性也會往縮小趨勢進行。
在步驟S114中,相位圖像判定器120將損失值F1儲存於資料庫DB中,如第1圖所示。
在步驟S115中,相位圖像生成器110判斷是否完成所有疊代次。本揭露實施例不限定總疊代次數,只要損失函數進入穩定區S2,總疊代次數可以是任何大於1的正整數。若尚未完成所有疊代次,則累加N的值(如N=N+1),然後回到步驟S111,重複步驟S111~S115之流程,直到完成所有疊代次。
在不同疊代次中,相位圖像生成器110以不同的相位圖像生成模式GM’產生數張生成相位圖像M1,因此不同疊代次所產生的生成相位圖像M1不完全相同。此外,在一疊代次中,相位圖像生成器110所使用的相位圖像生成模式GM’可以依據上個疊代次相位圖像判定器120所回饋的資訊(如損失值F1)進行調整,使下次疊代次所產生的生成相位圖像M1更接近於原始相位圖像M2。
若相位圖像生成器110判斷所有疊代次已完成,流程進入步驟S120。如第3圖所示,其繪示所有疊代次產生的所有損失值F1的分布(稱損失函數)。在第3圖中一個疊代次對應一個點。如圖所示,隨著疊代次的增加,損失函數由初期的不穩定變化(如不穩定區S1中)進入穩定變化(如穩定區S2中)。隨著疊代次的增加,相位圖像生成器110所產生的生成相位圖像M1與原始相位圖像M2的差異程度往縮小趨勢進行(且生成相位圖像M1會往畫面清晰趨勢進行),但各生成相位圖像M1之間的變異性往縮小趨勢進行。
在步驟S120中,在所有的疊代次完成後,挑選器130從穩定區S2的此些損失值F1中選擇一穩定損失值F11,並以穩定損失值F11所對應的疊代次的相位圖像生成模式GM’做為相位圖像生成器110的一所選相位圖像生成模式GM。舉例來說,如第3圖所示,挑選器130可在穩定區S2中選擇任一損失值F1做為穩定損失值F11。例如,假設穩定損失值F11為疊代次第2600次的損失值F1,則以第2600次疊代所使用的相位圖像生成模式GM’做為所選相位圖像生成模式GM,以完成對相位圖像生成器110的訓練。在一實施例中,所選相位圖像生成模式GM例如是穩定區S2的初期,因此,相較於穩定區S2的中、後期疊代次所對應的相位圖像生成模式GM,相位圖像生成器110以所選相位圖像生成模式GM(對應穩定區S2的前期)生成的數張相位生成圖像M1之間的變異性較大。此外,挑選器130取得穩定損失值F11的所需資料(如全部的損失值F1)可從資料庫DB中取得。
請參照第4圖,其繪示依照本揭露一實施例之相位圖像分類器10的訊練示意圖。在所選相位圖像生成模式GM決定後,相位圖像生成器110使用所選相位圖像生成模式GM產生數張訓練相位圖像M3,同一個相位圖像生成器110所產生的數張訓練相位圖像M3皆屬於同一類別。相位圖像生成器110所產生的此些訓練相位圖像M3輸入至相位圖像分類器10,以訓練相位圖像分類器10。相位圖像分類器10能學習此些訓練相位圖像M3的特徵。待訓練或學習完成後,相位圖像分類器10可分辨一待分類相位圖像是否屬於此些訓練相位圖像M3之所屬類別。在一實施例中,訓練相位圖像分類器10所使用的訓練相位圖像M3的張數係足夠,如1000張、更少或更多,因此可讓相位圖像分類器10的分類正確率高達95%以上,如99%或更高。
在相位圖像生成器110訓練過程中,步驟S112的原始相位圖像M2的張數可少於第4圖之訓練相位圖像分類器10所使用的訓練相位圖像M3的張數。在一實施例中,假設相位圖像分類器10要達到一分類正確率需要X張相位圖像進行訓練(或學習),本揭露實施例只要以比X張還少的原始相位圖像M2訓練相位圖像生成器110,然後以此相位圖像生成器110訓練相位圖像分類器10,即能達到相同的分類正確率。
詳言之,即使是使用少張數的原始相位圖像M2所訓練出的相位圖像生成器110,此相位圖像生成器110也能夠訓練出具有高分類正確率的相位圖像分類器10。在一實施例中,訓練相位圖像M3的張數與原始相位圖像M2的張數的比值介於1~R之間的任意整數,其中R為任何大於1的整數,如2、3、4或更大。
此外,前述相位圖像分類器10可採用神經網路(Neural Networks, NN)技術進行訓練學習,例如是卷積神經網路(Convolution Neural Networks, CNN)或是深度神經網路(Deep Neural Networks, DNN)。相位圖像分類器10例如是採用半導體製程所形成的電路結構,或者為軟體或韌體。相位圖像分類器10可整合至中央處理器(未繪示),或者,相位圖像生成器110、相位圖像判定器120與挑選器130中至少二者可整合成單一元件。
此外,如第4圖所示,各相位圖像生成器110以所選相位圖像生成模式GM可產生數張訓練相位圖像M3給相位圖像分類器10。各相位圖像生成器110可依據不同類別的原始相位圖像M2,採用第2圖之流程決定其之所選相位圖像生成模式GM。不同相位圖像生成器110可產生不同類別的訓練相位圖像M3。如此,以數個對應不同類別的相位圖像生成器110訓練的相位圖像分類器10,在訓練完成之後,能分辨一待分類相位圖像是否屬於此些類別或屬於此些類別的何者。
請參照第5~6圖,第5圖繪示本揭露另一實施例之相位圖像生成器110的訓練裝置200的功能方塊圖,而第6圖繪示第5圖之訓練裝置200之相位圖像生成器110的訓練方法流程圖。
如第5圖所示,訓練裝置200包括相位圖像生成器110、相位圖像判定器120、挑選器130及收斂值計算器240。相位圖像生成器110、相位圖像判定器120、挑選器130及/或收斂值計算器240可以是採用半導體製程所形成的電路結構。相位圖像生成器110、相位圖像判定器120、挑選器130與收斂值計算器240中至少二者可整合成單一元件。相位圖像生成器110、相位圖像判定器120、挑選器130與收斂值計算器240中至少一者可整合成至一處理器(未繪示),如中央處理器。在一實施例中,相位圖像生成器110、相位圖像判定器120、挑選器130及收斂值計算器240可以採用GAN技術實現。
在步驟S110中,在數個疊代次之各者中,訓練裝置200可採用GAN技術,產生損失值F1。完成本步驟的方式有多種,以下係以步驟S111~S115說明其中一種。步驟S111~S115為一個疊代次的流程,其餘各疊代次的流程皆重複步驟S111~S115。
在步驟S111中,在第N次疊代次中,相位圖像生成器110以相位圖像生成模式GM’產生數張生成相位圖像M1。N的初始值為1。生成相位圖像M1例如是具有干涉條紋的圖像。然後,相位圖像生成器110可將生成相位圖像M1儲存於資料庫DB,以供收斂值計算器240計算收斂值的參考。
在步驟S112中,相位圖像判定器120判斷此些生成相位圖像M1與數張原始相位圖像M2的差異程度。原始相位圖像M2可預先儲存於資料庫DB。原始相位圖像M2例如是具有干涉條紋的圖像。此外,在本實施例中,原始相位圖像M2的數量與生成相位圖像M1的數量相同,但在其他實施例中,數量亦可不同。全部原始相位圖像M2屬於同一類別的圖像,同一類別的圖像例如是各原始相位圖像M2具有數條彎曲干涉條紋、特定或固定數量的干涉條紋或其它幾何形式的條紋。
在步驟S113中,相位圖像判定器120依據差異程度產生此些生成相位圖像M1的損失值F1。損失值F1例如是相位圖像判定器120採用GAN技術,經由損失函數(loss function)運算所產生。一個疊代次下產生一個損失值F1。此外,相位圖像判定器120可將此些生成相位圖像M1的損失值F1及/或相關GAN資訊回饋給相位圖像生成器110,做為相位圖像生成器110在下一個疊代次產生數張生成相位圖像M1的參考。下一個疊代次產生的數張生成相位圖像M1與此些原始相位圖像M2之間差異程度會往縮小趨勢進行,且各生成相位圖像M1之間的變異性也會往縮小趨勢進行。
在步驟S114中,相位圖像判定器120將損失值F1儲存於資料庫DB中,如第5圖所示。
在步驟S115中,相位圖像生成器110判斷是否完成所有疊代次。若尚未完成所有疊代次,則累加N的值(如N=N+1),然後回到步驟S111,重複步驟S111~S115之流程,直到完成所有疊代次。
若相位圖像生成器110判斷所有疊代次已完成,流程進入步驟S220。本實施例的所有疊代次所產生的所有損失值F1的分布(稱損失函數)類似如第3圖所示。如圖所示,隨著疊代次的增加,損失函數由初期的不穩定變化(如不穩定區S1中)進入穩定變化(如穩定區S2中)。隨著疊代次的增加,相位圖像生成器110所產生的生成相位圖像M1與原始相位圖像M2的差異程度往縮小趨勢進行(且生成相位圖像M1會往畫面清晰趨勢進行),但各生成相位圖像M1之間的變異性往縮小趨勢進行。
在步驟S220中,收斂值計算器240根據各疊代次中此些原始相位圖像M2與此些生成相位圖像M1,運算以取得此些生成相位圖像M1之收斂值F2。收斂值計算器240取得收斂值F2的所需資料(如原始相位圖像M2與此些生成相位圖像M1)可從資料庫DB中獲取。在本實施例中,收斂值計算器240例如是KL散度(Kullback Leibler divergence)值計算器,而收斂值F2例如是KL散度值。收斂值計算器240可採用KL散度統計運算獲得KL散度值。KL散度值的數值愈小,表示原始相位圖像M2與生成相位圖像M1之間的差異程度愈小。詳細來說,生成相位圖像M1與原始相位圖像M2例如是具有干涉條紋的圖像,KL散度值計算器(收斂值計算器240)根據生成相位圖像M1與原始相位圖像M2的干涉條紋分布來進行KL散度統計方法,其運算公式如下:
Figure 02_image001
其中,P(i)帶入原始相位圖像M2的條紋分布,Q(i)帶入生成相位圖像M1的條紋分布,即可經由運算獲得DKL ,DKL 即為KL散度值,以作為收斂值F2。
然後,收斂值計算器240可將收斂值F2儲存於資料庫DB中。在另一實施例中,步驟S220也可併入步驟S110中執行,例如,步驟S220可於步驟S112與S115之間執行。在另一實施例中,步驟220亦可與步驟S112同步執行,並不以所列舉者為限。
在步驟S230中,在所有的疊代次完成後,挑選器130從穩定區S2中的數個損失值F1選擇一穩定損失值F11,並以此穩定損失值F11所對應的疊代次的相位圖像生成模式GM’做為相位圖像生成器110的一所選相位圖像生成模式GM。本實施例之步驟S230有多種方式完成,以下係以步驟S231~S232說明其中一種。
在步驟S231中,挑選器130可採用下式(1),運算各疊代次的損失值F1與收斂值F2的積值F3。一個疊代次會對應產生一個積值F3,因此,m個疊代次會有m個積值F3,其中m可以是大於1的任意正整數,如介於2~1000000之間的任意正整數,然亦可大於1000000。
Figure 02_image003
在步驟S232中,挑選器130從此些積值F3中選擇一所選積值F31,並以所選積值F31所對應的損失值F1為穩定損失值F11。挑選器130以穩定損失值F11所對應的疊代次的相位圖像生成模式GM’做為相位圖像生成器110的一所選相位圖像生成模式GM。此外,挑選器130取得所選積值F31的所需資料(如損失值F1及收斂值F2)可從資料庫DB中取得。
在一實施例中,所選積值F31為此些積值F3中最小者。以本實施例來說,如第3圖所示,所選積值F31(最小積值)對應疊代次例如是第2000次。在穩定區S2的初期,因疊代次少,因此相位圖像生成器110所產生的生成相位圖像M1(或訓練相位圖像M3)的變異度大。
在所選相位圖像生成模式GM決定後,相位圖像生成器110可採用類似或同於前述方式訓練相位圖像分類器10,於此不再贅述。相位圖像生成器110以所選相位圖像生成模式GM所產生的數張訓練相位圖像M3具有變異性,因此能夠訓練出分類正確度高的相位圖像分類器10。進一步來說,損失值F1所代表為生成相位圖像M1與原始相位圖像M2的相似程度,在穩定區S2中,其損失值F1越低,表示生成相位圖像M1與原始相位圖像M2越相似。而收斂值F2所代表為生成相位圖像M1與原始相位圖像M2在干涉條紋分布上的相似度,其中收斂值F2越低,則表示生成相位圖像M1與原始相位圖像M2的干涉條紋分布越相似。藉由積值F3(F1
Figure 02_image005
F2)選擇最小者,可以確保以此對應疊代次所訓練的相位圖像生成器110能夠產生相似於原始相位圖像M2的訓練相位圖像M3,同時並具有足夠的變異性可以對相位圖像分類器10進行訓練。
綜上所述,雖然本揭露已以實施例揭露如上,然其並非用以限定本揭露。本揭露所屬技術領域中具有通常知識者,在不脫離本揭露之精神和範圍內,當可作各種之更動與潤飾。因此,本揭露之保護範圍當視後附之申請專利範圍所界定者為準。
10:相位圖像分類器100、200:訓練裝置110:相位圖像生成器120:相位圖像判定器130:挑選器240:收斂值計算器DB:資料庫F1:損失值F11:穩定損失值F2:收斂值F3、F31:積值M1:生成相位圖像M2:原始相位圖像M3:訓練相位圖像GM’:相位圖像生成模式GM:所選相位圖像生成模式S1:不穩定區S2:穩定區S110、S111、S112、S113、S114、S115、S120、S220、S230、S231、S232:步驟
第1圖繪示本揭露一實施例之相位圖像生成器的訓練裝置的功能方塊圖。 第2圖繪示第1圖之訓練裝置之相位圖像生成器的訓練方法的流程圖。 第3圖繪示繪示第1圖之訓練裝置在訓練過程中所有疊代次所產生的損失函數圖。 第4圖繪示依照本揭露一實施例之相位圖像分類器的訊練示意圖。 第5圖繪示本揭露另一實施例之相位圖像生成器的訓練裝置的功能方塊圖。 第6圖繪示第5圖之訓練裝置之相位圖像生成器的訓練方法流程圖。
S110、S111、S112、S113、S114、S115、S120:步驟

Claims (12)

  1. 一種相位圖像生成器的訓練方法,包括: 在複數個疊代次之各者中,產生一損失值,包括:     一相位圖像生成器以一相位圖像生成模式產生複數張生成相位圖像;     一相位圖像判定器判斷該些生成相位圖像與複數張原始相位圖像的一差異程度;及     依據該差異程度產生該些生成相位圖像的該損失值;以及 一挑選器從該些損失值中選擇一穩定損失值,並以該穩定損失值所對應的該疊代次的該相位圖像生成模式做為該相位圖像生成器的一所選相位圖像生成模式。
  2. 如申請專利範圍第1項所述之訓練方法,更包括: 一收斂值計算器依據各該疊代次中該些原始相位圖像與該些生成相位圖像,運算以取得該些生成相位圖像之一收斂值; 其中,在該挑選器從該些損失值中選擇該穩定損失值之步驟更包括: 該挑選器運算各該疊代次中該損失值與該收斂值的一積值;以及 該挑選器從該些積值中選擇一所選積值,並以該所選積值所對應的該損失值為該穩定損失值。
  3. 如申請專利範圍第2項所述之訓練方法,其中該收斂值計算器為一KL散度(Kullback Leibler divergence)值計算器,該收斂值為KL散度值。
  4. 如申請專利範圍第3項所述之訓練方法,其中該收斂值計算器依據各該疊代次中該些原始相位圖像與該些生成相位圖像,採用KL散度統計運算獲得該收斂值。
  5. 如申請專利範圍第2項所述之訓練方法,其中該所選積值為該些積值中最小者。
  6. 如申請專利範圍第1項所述之訓練方法,其中在該些疊代次之各者中產生該相位圖像生成模式之步驟更包括: 在該損失值產生後,儲存該損失值於一資料庫中; 其中,在該挑選器從該些損失值中選擇該穩定的損失值之步驟中,該挑選器從該資料庫所儲存之該些損失值中取得該穩定損失值。
  7. 如申請專利範圍第2項所述之訓練方法,更包括: 儲存該些原始相位圖像於一資料庫中;以及 在產生該些生成相位圖像後,儲存該些生成相位圖像於該資料庫中; 其中,在該收斂值計算器依據各該疊代次中該些原始相位圖像與該些生成相位圖像,運算以取得該些生成相位圖像之該收斂值之步驟中,該些原始相位圖像與該些生成相位圖像係為該收斂值計算器從該資料庫中取得。
  8. 如申請專利範圍第2項所述之訓練方法,更包括: 該收斂值計算器儲存該收斂值於一資料庫中; 其中,在該些疊代次之各者中產生該損失值之步驟更包括:在該損失值產生後,儲存該損失值於該資料庫中; 其中,在該挑選器運算各該疊代次中該損失值與該收斂值的該積值之步驟中,該些損失值及該些收斂值係為該挑選器從該資料庫取得。
  9. 如申請專利範圍第1項所述之訓練方法,其中依據該差異程度產生該些生成相位圖像的該損失值之步驟更包括:該相位圖像判定器經由一損失函數(loss function)運算產生該損失值。
  10. 一種相位圖像分類器的訓練方法,包括: 以如申請專利範圍第1-9項任一所述之訓練方法,取得一相位圖像生成器的一所選相位圖像生成模式; 該相位圖像生成器以該所選相位圖像生成模式產生複數張訓練相位圖像;以及 該相位圖像生成器將該些訓練相位圖像輸入至一相位圖像分類器,以訓練該相位圖像分類器。
  11. 如申請專利範圍第10項所述之訓練方法,其中該些原始相位圖像的張數少於該些訓練相位圖像的張數。
  12. 如申請專利範圍第10項所述之訓練方法,其中該相位圖像分類器採用神經網路(Neural Networks, NN)技術進行訓練。
TW107144986A 2018-12-13 2018-12-13 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法 TWI705340B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW107144986A TWI705340B (zh) 2018-12-13 2018-12-13 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法
US16/223,789 US10909421B2 (en) 2018-12-13 2018-12-18 Training method for phase image generator and training method of phase image classifier
CN201811585820.6A CN111325232B (zh) 2018-12-13 2018-12-24 相位图像生成器的训练方法及相位图像分类器的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107144986A TWI705340B (zh) 2018-12-13 2018-12-13 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法

Publications (2)

Publication Number Publication Date
TW202022634A true TW202022634A (zh) 2020-06-16
TWI705340B TWI705340B (zh) 2020-09-21

Family

ID=71071687

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107144986A TWI705340B (zh) 2018-12-13 2018-12-13 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法

Country Status (3)

Country Link
US (1) US10909421B2 (zh)
CN (1) CN111325232B (zh)
TW (1) TWI705340B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931932B (zh) * 2020-10-16 2021-01-29 北京灵汐科技有限公司 对抗样本的生成方法及装置、电子设备和可读存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013086363A2 (en) * 2011-12-07 2013-06-13 Access Business Group International Llc Behavior tracking and modification system
CN102890747B (zh) * 2012-06-15 2015-04-22 北京理工大学 在线考试智能监控方法
US9613367B2 (en) * 2013-06-10 2017-04-04 Sap Se Assessment of users feedback data to evaluate a software object
CN203768697U (zh) 2014-03-18 2014-08-13 杨卫星 一种家用空气内循环式除湿烘衣机
CN104766100B (zh) * 2014-10-22 2018-05-18 中国人民解放军电子工程学院 基于机器学习的红外小目标图像背景预测方法与装置
CN104408692A (zh) * 2014-11-25 2015-03-11 南京信息工程大学 一种基于深度学习的图像模糊模型参数分析方法
US9971958B2 (en) 2016-06-01 2018-05-15 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating multimodal digital images
US9922432B1 (en) * 2016-09-02 2018-03-20 Artomatix Ltd. Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures
US11024009B2 (en) * 2016-09-15 2021-06-01 Twitter, Inc. Super resolution using a generative adversarial network
US10636141B2 (en) 2017-02-09 2020-04-28 Siemens Healthcare Gmbh Adversarial and dual inverse deep learning networks for medical image analysis
CN107154023B (zh) 2017-05-17 2019-11-05 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN107220600B (zh) 2017-05-17 2019-09-10 清华大学深圳研究生院 一种基于深度学习的图片生成方法及生成对抗网络
CN110490177A (zh) * 2017-06-02 2019-11-22 腾讯科技(深圳)有限公司 一种人脸检测器训练方法及装置
CN107451994A (zh) 2017-07-25 2017-12-08 宸盛科华(北京)科技有限公司 基于生成对抗网络的物体检测方法及装置
US10491856B2 (en) * 2018-03-15 2019-11-26 Disney Enterprises, Inc. Video frame interpolation using a convolutional neural network
CN108665058B (zh) * 2018-04-11 2021-01-05 徐州工程学院 一种基于分段损失的生成对抗网络方法
CN108921220A (zh) * 2018-06-29 2018-11-30 国信优易数据有限公司 图像复原模型训练方法、装置及图像复原方法和装置

Also Published As

Publication number Publication date
CN111325232A (zh) 2020-06-23
TWI705340B (zh) 2020-09-21
US20200193224A1 (en) 2020-06-18
US10909421B2 (en) 2021-02-02
CN111325232B (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
US11741361B2 (en) Machine learning-based network model building method and apparatus
WO2022063151A1 (en) Method and system for relation learning by multi-hop attention graph neural network
JP5755822B1 (ja) 類似度算出システム、類似度算出方法およびプログラム
US11436497B2 (en) System and method for optimization of deep learning model
US20120294540A1 (en) Rank order-based image clustering
WO2019045802A1 (en) LEARNING DISTANCE MEASUREMENT USING PROXY MEMBERS
US20210224647A1 (en) Model training apparatus and method
WO2022227217A1 (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
Sanchez et al. Synthetic oversampling of instances using clustering
van Laarhoven et al. Graph clustering with local search optimization: The resolution bias of the objective function matters most
Kumagai et al. Combinatorial clustering based on an externally-defined one-hot constraint
TWI705340B (zh) 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法
JP2021051589A5 (zh)
CN114399025A (zh) 一种图神经网络解释方法、***、终端以及存储介质
US20220300800A1 (en) Techniques for adaptive generation and visualization of quantized neural networks
WO2010016313A1 (ja) パターン判定装置、方法、およびプログラム
WO2015109781A1 (zh) 基于期望最大确定统计模型参数的方法和装置
Cotter et al. Interpretable set functions
JP5277498B2 (ja) 類似情報分類参照装置および類似情報分類参照方法
Doreswamy et al. Similarity based cluster Analysis on engineering materials data sets
TWI829195B (zh) 資訊處理裝置、程式產品及資訊處理方法
WO2023067792A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US20220374707A1 (en) Information processing method, information processing apparatus, and non-transitory computer-readable storage medium
JP7054645B2 (ja) 生成装置、生成方法、生成プログラムおよびプログラムパラメータ
Chen et al. Pagerank centrality based graph convolutional networks for semi-supervised node classification