TWI717817B - 預測模型遷移方法與預測模型遷移裝置 - Google Patents

預測模型遷移方法與預測模型遷移裝置 Download PDF

Info

Publication number
TWI717817B
TWI717817B TW108131010A TW108131010A TWI717817B TW I717817 B TWI717817 B TW I717817B TW 108131010 A TW108131010 A TW 108131010A TW 108131010 A TW108131010 A TW 108131010A TW I717817 B TWI717817 B TW I717817B
Authority
TW
Taiwan
Prior art keywords
prediction
network
type
prediction network
target data
Prior art date
Application number
TW108131010A
Other languages
English (en)
Other versions
TW202109384A (zh
Inventor
謝成典
許銀雄
Original Assignee
宏碁股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏碁股份有限公司 filed Critical 宏碁股份有限公司
Priority to TW108131010A priority Critical patent/TWI717817B/zh
Application granted granted Critical
Publication of TWI717817B publication Critical patent/TWI717817B/zh
Publication of TW202109384A publication Critical patent/TW202109384A/zh

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一種預測模型遷移方法與預測模型遷移裝置。所述方法包括:獲得預測模型,其是基於第一預測網路而使用屬於第一類型的來源資料進行訓練;在所述預測模型中建立第二預測網路,其中所述第一預測網路與所述第二預測網路至少部分重疊;基於所述第二預測網路而使用屬於第二類型的第一目標資料訓練所述預測模型;以及使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料。

Description

預測模型遷移方法與預測模型遷移裝置
本發明是有關於一種計算機技術,且特別是有關於一種預測模型遷移方法與預測模型遷移裝置。
隨著科技的進步,越來越多深度學習技術(例如人工智慧)可被應用於醫療技術領域中,以改善醫療品質。然而,對於不同廠牌及/或不同型號的深度學習訓練裝置來說,由於用於訓練的輸入資料的規格不同(例如影像解析度不同),故不同廠牌及/或不同型號的深度學習訓練裝置所訓練的深度學習模型(亦稱為預測模型)可能無法通用。
本發明提供一種預測模型遷移方法與預測模型遷移裝置,可有效改善上述問題。
本發明的實施例提供一種預測模型遷移方法,其包括: 獲得預測模型,其中所述預測模型是基於第一預測網路而使用屬於第一類型的來源資料進行訓練;在所述預測模型中建立第二預測網路,其中所述第一預測網路與所述第二預測網路至少部分重疊;基於所述第二預測網路而使用屬於第二類型的第一目標資料訓練所述預測模型;以及使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料。
本發明的實施例另提供一種預測模型遷移裝置,其包括儲存裝置與處理器。所述儲存裝置用以儲存預測模型,其中所述預測模型是基於第一預測網路而使用屬於第一類型的來源資料進行訓練。所述處理器耦接至所述儲存裝置並且用以:在所述預測模型中建立第二預測網路,其中所述第一預測網路與所述第二預測網路至少部分重疊;基於所述第二預測網路而使用屬於第二類型的第一目標資料訓練所述預測模型;以及使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料。
基於上述,預測模型可先基於第一預測網路而使用屬於第一類型的來源資料進行訓練。接著,可在所述預測模型中建立第二預測網路,使得所述第一預測網路與所述第二預測網路至少部分重疊。接著,可基於所述第二預測網路而使用屬於第二類型的第一目標資料來訓練所述預測模型。爾後,可使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料,從而提高同一個預測模型對於不同類型之 資料的預測效率。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
10:預測模型遷移裝置
11:儲存裝置
12:處理器
13:預測模型
21、22、31、32、41、42、51、52:預測網路
201~203:開關網路
210、310、410、510:來源資料
220、221、222、320、321、322、420、421、422、520、521、522:預測結果
211、212、311、312、411、412:目標資料
301、502(1)、502(2)、502(3):碼層
401、501(1)、501(2)、501(3):編碼網路
402:特徵層
503:後碼層
S601~S604:步驟
圖1是根據本發明的一實施例所繪示的預測模型遷移裝置的示意圖。
圖2A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。
圖2B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。
圖2C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。
圖3A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。
圖3B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。
圖3C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。
圖4A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。
圖4B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。
圖4C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。
圖5A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。
圖5B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。
圖5C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。
圖6是根據本發明的一實施例所繪示的預測模型遷移方法的流程圖。
圖1是根據本發明的一實施例所繪示的預測模型遷移裝置的示意圖。請參照圖1,在一實施例中,裝置(亦稱為預測模型遷移裝置)10可為任意具影像分析與運算功能的電子裝置或計算裝置。在一實施例中,裝置10可為超音波影像的檢驗設備或影像擷取設備。
在一實施例中,裝置10包括儲存裝置11與處理器12。儲存裝置11用以儲存資料。儲存裝置11可包括揮發式儲存媒體與非揮發式儲存媒體。揮發式儲存媒體可包括隨機存取記憶體 (RAM),而非揮發性儲存媒體可包括唯讀記憶體(ROM)、固態硬碟(SSD)或傳統硬碟(HDD)等。
處理器12耦接至儲存裝置11。處理器12可為中央處理單元(Central Processing Unit,CPU)、圖形處理器(graphics processing unit,GPU)、或是其他可程式化之一般用途或特殊用途的微處理器、數位訊號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits,ASIC)、可程式化邏輯裝置(Programmable Logic Device,PLD)或其他類似裝置或這些裝置的組合。處理器12可負責裝置10的整體或部分運作。在一實施例中,裝置10還可包括滑鼠、鍵盤、顯示器、麥克風、揚聲器或網路介面卡等輸入/輸出裝置,且輸入/輸出裝置的類型不限於此。
儲存裝置11中儲存有預測模型13。預測模型13可以是從其餘電子裝置接收或內建於裝置10中。預測模型13可用於對資料(例如影像資料)進行預測。例如,處理器12可運行預測模型13以預測某一影像資料中的特定圖案。以超音波影像為例,預測模型13可用於預測(即辨識)某一超音波影像中的心臟、血管、子宮、肝臟或膽囊等各式人體器官的圖案。此外,在對預測模型13進行訓練後,可提高預測模型13對於輸入資料的預測效率(例如辨識準確性)。
在圖1的實施例中,預測模型13為軟體或韌體模組。例如,預測模型13可以程式碼的形式儲存於儲存裝置11中並且可 由處理器12運行。然而,在另一實施例中,預測模型13亦可實作為硬體電路。例如,預測模型13亦可實作為GPU、或是其他可程式化之一般用途或特殊用途的微處理器、DSP、可程式化控制器、ASIC、PLD或其他類似裝置或這些裝置的組合。
預測模型13中預設有一個預測網路(亦稱為第一預測網路)。例如,第一預測網路可包含多個運算節點。每一個運算節點可對應一個預設邏輯。此些運算節點可串接成第一預測網路。預測模型13可基於第一預測網路而使用屬於某一類型(亦稱為第一類型)的資料(亦稱為來源資料)進行訓練。例如,假設屬於第一類型的來源資料包含影像資料(亦稱為第一影像資料),則處理器12可將第一影像資料輸入至預測模型13並藉由第一預測網路來對第一影像資料進行預測(例如辨識第一影像資料中的特定圖案)。根據預測結果,處理器12可更新(即訓練)第一預測網路(例如更新部分參數),以提升預測模型13對於屬於第一類型之資料的預測效率。
另一方面,處理器11可在預測模型13中建立另一個預測網路(亦稱為第二預測網路)。須注意的是,第一預測網路與第二預測網路至少部分重疊。例如,第二預測網路也包含多個運算節點。每一個運算節點可對應一個預設邏輯。此些運算節點可串接成第二預測網路。在第一預測網路與第二預測網路的重疊部分中,第一預測網路與第二預測網路共用至少一個運算節點。
在建立第二預測網路後,處理器11可基於第二預測網路而使用屬於另一類型(亦稱為一第二類型)的資料(亦稱為第一目標 資料)來訓練預測模型13。例如,假設屬於第二類型的第一目標資料包含影像資料(亦稱為第二影像資料),則處理器12可將第二影像資料輸入至預測模型13並藉由第二預測網路來對第二影像資料進行預測(例如辨識第二影像資料中的特定圖案)。根據預測結果,處理器12可更新(即訓練)第二預測網路的部分參數,以提升預測模型13對於屬於第二類型之資料的預測效率。
須注意的是,第一預測網路與第二預測網路至少部分重疊。因此,在一實施例中,在根據對於第一目標資料的預測結果來更新第二預測網路的操作中,第一預測網路與第二預測網路的重疊部分(即第一預測網路與第二預測網路共用的至少一個運算節點)所使用的參數也可被更新(即訓練),從而提高第一預測網路對於第二類型之資料的預測效率。
在一實施例中,第一預測網路與第二預測網路的重疊部分亦稱為第一預測網路與第二預測網路之間的重疊網路。在分別基於第一預測網路與第二預測網路對此重疊網路進行訓練後,處理器12可使用此重疊網路來預測屬於第二類型的其餘資料(亦稱為第二目標資料)。
在一實施例中,屬於第一類型之資料與屬於第二類型之資料可具有不同的資料規格。以影像資料為例,屬於第一類型的資料(例如第一影像資料)與屬於第二類型的資料(例如第二影像資料)可具有不同的影像規格,例如不同的影像解析度、不同的亮度及/或不同的色度等等。
換言之,假設原先預測模型13預設是對第一類型的資料(即來源資料)進行預測。在建立第二預測網路並持續基於第二預測網路而使用第二類型的資料對預測模型13進行訓練後,第一預測網路、第二預測網路及/或所述重疊網路可逐漸學習到與第二類型之資料有關的預測資訊(或分類資訊)。基此,在經過適當的訓練後,預測模型13對於第二類型之資料的預測效率將可顯著提升。
圖2A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。圖2B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。圖2C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。須注意的是,在圖2A至圖2C的實施例中,是假設第一預測網路與第二預測網路皆是以Domain-Guided Dropout架構來進行配置。
請參照圖2A,假設預測網路21為第一預測網路,且預測模型13包含開關網路201~203。開關網路201~203分別包含至少一個運算節點。開關網路201與202位於預測網路21中並且用以導通預測網路21中的部分運算節點。
在圖2A的實施例中,開關網路201與202皆被致能(例如導通),且開關網路203被禁能(例如切斷)。在此狀態下,屬於第一類型的來源資料210可被輸入至預測網路21。通過開關網路201與202,預測網路21可對來源資料210進行預測並產生預測結果220。然後,預測模型13可根據預測結果220來更新預測網 路21的至少部分參數。
請參照圖2B,假設預測網路22為第二預測網路。開關網路202與203位於預測網路22中並且用以導通預測網路22中的部分運算節點。須注意的是,在圖2A與圖2B中,開關網路202同時包含於預測網路21與22中。因此,開關網路202(與開關網路202所串接的部分運算節點)屬於預測網路21與22之間的重疊網路。此外,開關網路201與203則不屬於此重疊網路。
在圖2B的實施例中,開關網路202與203皆被致能(例如導通),且開關網路201被禁能(例如切斷)。在此狀態下,屬於第二類型的目標資料211(即第一目標資料)可被輸入至預測網路22進行訓練。通過開關網路202與203,預測網路22可對目標資料211進行預測並產生預測結果221。然後,預測模型13可根據預測結果221來更新預測網路22的至少部分參數,從而逐漸提高預測模型13對於屬於第二類型之資料的預測效率。
請參照圖2C,在使用屬於第二類型的資料(即目標資料211)對預測網路22進行訓練後,開關網路201(及開關網路202所串接的部分運算節點)可持續被禁能。在此狀態下,屬於第二類型的目標資料212(即第二目標資料)可被輸入至經訓練的預測網路22。通過開關網路202與203,預測網路22可對目標資料212進行預測並產生預測結果222。
須注意的是,在圖2A與圖2B的實施例中,預測網路21與22中的重疊網路(例如開關網路202)可響應於屬於第一類型的 資料(即來源資料210)與屬於第二類型的資料(即目標資料211)而持續進行參數更新。因此,在圖2C的實施例中,預測模型13對於屬於第二類型之資料的預測效率可以被顯著提升。
圖3A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。圖3B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。圖3C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。須注意的是,在圖3A至圖3C的實施例中,是假設第一預測網路與第二預測網路皆是以Domain Adviser Training架構來進行配置。
請參照圖3A,假設預測網路31為第一預測網路,且預測網路31包含碼層(code layer)301。在本實施例中,屬於第一類型的來源資料310可被輸入至預測網路31。通過碼層301,預測網路31可對來源資料310進行預測並產生預測結果320。然後,預測模型13可根據預測結果320來更新預測網路31的至少部分參數。
請參照圖3B,假設預測網路32為第二預測網路。預測網路32也包含碼層301。預測網路31與32之間的重疊網路至少包含碼層301。預測網路32可經由碼層301串接至預測網路31。預測網路32可例如為Domain classification網路,其用以辨別所輸入的目標資料311(即第一目標資料)為第一類型之資料或第二類型之資料。
在圖3B的實施例中,屬於第二類型的來源資料311可被輸入至預測網路31進行預測與訓練。此外,來源資料311也可經由碼層301而輸入至預測網路32並由預測網路32進行預測。預測網路31與32可產生預測結果321。然後,預測模型13可根據預測結果321來更新預測網路31(包含碼層301),以提高預測網路31對於屬於第二類型之資料的預測效能。
請參照圖3C,在使用屬於第二類型的資料(即目標資料311)對預測網路31進行訓練後,屬於第二類型的目標資料312(即第二目標資料)可被輸入至經訓練的預測網路31。預測網路31可對目標資料312進行預測並產生預測結果322。此外,相較於圖3B的實施例,在圖3C的實施例中,預測網路32中不屬於重疊網路的部分可被禁能。類似於圖2A至圖2C的實施例,圖3C中的預測網路31響應於至少碼層301的優化,可更加準確地對屬於第二類型的資料(例如目標資料312)進行預測。
圖4A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。圖4B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。圖4C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。須注意的是,在圖4A至圖4C的實施例中,是假設第一預測網路與第二預測網路皆是以Deep Reconstruction-Classification Networks架構來進行配置。
請參照圖4A,假設預測網路41為第一預測網路。預測網路41包含編碼網路401,且編碼網路401包含特徵層(feature layer)402。在本實施例中,屬於第一類型的來源資料410可被輸入至預測網路41。通過編碼網路401與特徵層402,預測網路41可對來源資料410進行預測並產生預測結果420。然後,預測模型13可根據預測結果420來更新預測網路41的至少部分參數。
請參照圖4B,假設預測網路42為第二預測網路。預測網路42也包含特徵層402,且預測網路42經由特徵層402串接至預測網路41。預測網路42可例如為相應於編碼網路401的解碼網路,其用以解碼經由編碼網路401編碼的資料。
在圖4B的實施例中,屬於第二類型的來源資料411可被輸入至預測網路42進行預測與訓練。此外,來源資料411也可經由特徵層402而輸入至預測網路42並由預測網路42進行預測。例如,預測網路42可將經由編碼網路401編碼的資料還原為屬於第一類型的資料或屬於第二類型的資料。預測網路41與42可產生預測結果421。然後,預測模型13可根據預測結果421來更新預測網路41(包含特徵層402),以提高預測網路41對於屬於第二類型之資料的預測效能。
請參照圖4C,在使用屬於第二類型的資料(即目標資料411)對預測網路41進行訓練後,屬於第二類型的目標資料412(即第二目標資料)可被輸入至經訓練的預測網路41。預測網路41可對目標資料412進行預測並產生預測結果422。此外,相較於圖 4B的實施例,在圖4C的實施例中,預測網路42中不屬於重疊網路的部分可被禁能。類似於圖2A至圖2C及圖3A至圖3C的實施例,圖4C中的預測網路41響應於至少特徵層402的優化,可更加準確地對屬於第二類型的資料(例如目標資料412)進行預測。
圖5A是根據本發明的一實施例所繪示的基於第一預測網路與來源資料來訓練預測模型的示意圖。圖5B是根據本發明的一實施例所繪示的基於第二預測網路與第一目標資料來訓練預測模型的示意圖。圖5C是根據本發明的一實施例所繪示的使用經訓練的預測模型來預測第二目標資料的示意圖。須注意的是,在圖5A至圖5C的實施例中,是假設第一預測網路與第二預測網路皆是以Domain Separation Network架構來進行配置。
請參照圖5A,假設預測網路51為第一預測網路。預測網路51包含編碼網路501(1)、編碼網路501(2)、碼層502(1)、碼層502(2)及後碼層(after code layer)503。在本實施例中,屬於第一類型的來源資料510可被輸入至預測網路51。來源資料510可平行地被輸入至編碼網路501(1)與501(2)且經由碼層502(1)與502(2)平行處理。後碼層503可根據碼層502(1)與502(2)的輸出來對來源資料510進行預測並產生預測結果520。然後,預測模型13可根據預測結果520來更新預測網路51的至少部分參數。此外,碼層502(1)與502(2)可分別獲得來源資料510的一個特徵值。
請參照圖5B,假設預測網路52為第二預測網路。預測網路52包含編碼網路501(2)、編碼網路501(3)、碼層502(2)、碼 層502(3)及後碼層503。其中,編碼網路501(2)、碼層502(2)及後碼層503也包含於圖5A的預測網路51,故編碼網路501(2)、碼層502(2)及後碼層503皆屬於預測網路51與52之間的重疊網路。
在圖5B的實施例中,屬於第二類型的目標資料511可被輸入至預測網路52。例如,來源資料511可平行地輸入至編碼網路501(2)與501(3)且經由碼層502(2)與502(3)平行處理。後碼層503可根據碼層502(2)與502(3)的輸出來對目標資料511進行預測並產生預測結果521。然後,預測模型13可根據預測結果521來更新預測網路52的至少部分參數,以提高預測網路41對於屬於第二類型之資料的預測效能。此外,碼層502(2)與502(3)可分別獲得目標資料511的一個特徵值。
須注意的是,在圖5A與圖5B的實施例中,來源資料510的特徵值與目標資料511的特徵值可用於更新預測網路51與52之間的重疊網路(例如編碼網路501(2)、碼層502(2)及/或後碼層503)。特別是,經訓練的重疊網路可針對屬於第一類型的資料(例如來源資料510)與屬於第二類型的資料(例如目標資料511)獲得較為接近的特徵值,而此些較為接近的特徵值可用於識別此兩種類型的資料中待偵測的資料(例如影像資料中的肝臟圖案)。而碼層502(1)與502(3)所獲得的差異較大的特徵值則可用於重建偵測損失,以對重疊網路中的部分參數持續進行修正。
請參照圖5C,在使用屬於第二類型的資料(即目標資料511)對預測網路52進行訓練後,屬於第二類型的目標資料512(即 第二目標資料)可被輸入至經訓練的重疊網路53。例如,重疊網路53包括編碼網路501(2)、碼層502(2)及後碼層503。重疊網路53可對目標資料512進行預測並產生預測結果522。此外,相較於圖5A與圖5B的實施例,在圖5C的實施例中,預測網路51與52中不屬於重疊網路的部分可被禁能,僅保留重疊網路53來對目標資料512進行處理。類似於圖2A至圖2C、圖3A至圖3C及圖4A至圖4C的實施例,圖5C中的重疊網路53響應於編碼網路501(2)、碼層502(2)及/或後碼層503的優化,可更加準確地對屬於第二類型的資料(例如目標資料512)進行預測。
在一實施例中,屬於第一類型的資料(例如來源資料)與屬於第二類型的資料(例如第一目標資料與第二目標資料)包含由不同廠牌、不同型號及/或不同規格的裝置所擷取的資料。圖1的裝置10可用於將預測模型13從原先僅可對屬於第一類型之資料進行預測,擴展或者遷移為還可以針對屬於第二類型之資料進行預測,且可提供足夠的預測效能。
在一實施例中,屬於第一類型的資料仍然是作為預測模型13的主要訓練樣本。在加入相對較少的屬於第二類型的資料作為額外樣本來訓練預測模型13後,預測模型13中的重疊網路即可有效針對屬於第二類型的資料進行預測。須注意的是,前述實施例是以多種不同類型的深度學習模型作為預測模型13的範例進行說明,然而,本發明所採用的預測模型13仍可採用其他類型的深度學習模型,只要符合前述實施例所提及之操作規範即可。
圖6是根據本發明的一實施例所繪示的預測模型遷移方法的流程圖。請參照圖6,在步驟S601中,獲得預測模型,其中所述預測模型是基於第一預測網路而使用屬於第一類型的來源資料進行訓練。在步驟S602中,在所述預測模型中建立第二預測網路,其中所述第一預測網路與所述第二預測網路至少部分重疊。在步驟S603中,基於所述第二預測網路而使用屬於第二類型的第一目標資料訓練所述預測模型。在步驟S604中,使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料。
然而,圖6中各步驟已詳細說明如上,在此便不再贅述。值得注意的是,圖6中各步驟可以實作為多個程式碼或是電路,本發明不加以限制。此外,圖6的方法可以搭配以上範例實施例使用,也可以單獨使用,本發明不加以限制。
綜上所述,預測模型可先基於第一預測網路而使用屬於第一類型的來源資料進行訓練。接著,可在所述預測模型中建立第二預測網路,使得所述第一預測網路與所述第二預測網路至少部分重疊。接著,可基於所述第二預測網路而使用屬於第二類型的第一目標資料來訓練所述預測模型。爾後,可使用所述第一預測網路與所述第二預測網路之間的重疊網路來預測屬於所述第二類型的第二目標資料,從而提高同一個預測模型對於不同類型之資料的預測效率。
雖然本發明已以實施例揭露如上,然其並非用以限定本 發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S601~S604:步驟

Claims (12)

  1. 一種預測模型遷移方法,包括: 獲得一預測模型,其中該預測模型是基於一第一預測網路而使用屬於一第一類型的一來源資料進行訓練; 在該預測模型中建立一第二預測網路,其中該第一預測網路與該第二預測網路至少部分重疊; 基於該第二預測網路而使用屬於一第二類型的一第一目標資料訓練該預測模型;以及 使用該第一預測網路與該第二預測網路之間的一重疊網路來預測屬於該第二類型的一第二目標資料。
  2. 如申請專利範圍第1項所述的預測模型遷移方法,其中基於該第二預測網路而使用屬於該第二類型的該第一目標資料訓練該預測模型的步驟包括: 根據該第一目標資料的一預測結果更新該重疊網路的至少一參數。
  3. 如申請專利範圍第1項所述的預測模型遷移方法,其中使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 禁能該第一預測網路中不屬於該重疊網路的部分;以及 僅使用該第二預測網路來預測屬於該第二類型的該第二目標資料。
  4. 如申請專利範圍第1項所述的預測模型遷移方法,其中使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 禁能該第二預測網路中不屬於該重疊網路的部分;以及 僅使用該第一預測網路來預測屬於該第二類型的該第二目標資料。
  5. 如申請專利範圍第1項所述的預測模型遷移方法,其中使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 分別禁能該第一預測網路與該第二預測網路中不屬於該重疊網路的部分;以及 僅使用該重疊網路來預測屬於該第二類型的該第二目標資料。
  6. 如申請專利範圍第1項所述的預測模型遷移方法,其中屬於該第一類型的該來源資料包括一第一影像資料,屬於該第二類型的該第一目標資料包括一第二影像資料,且該第一影像資料與該第二影像資料具有不同的影像規格。
  7. 一種預測模型遷移裝置,包括: 一儲存裝置,用以儲存一預測模型,其中該預測模型是基於一第一預測網路而使用屬於一第一類型的一來源資料進行訓練;以及 一處理器,耦接至該儲存裝置並且用以: 在該預測模型中建立一第二預測網路,其中該第一預測網路與該第二預測網路至少部分重疊; 基於該第二預測網路而使用屬於一第二類型的一第一目標資料訓練該預測模型;以及 使用該第一預測網路與該第二預測網路之間的一重疊網路來預測屬於該第二類型的一第二目標資料。
  8. 如申請專利範圍第7項所述的預測模型遷移裝置,其中該處理器基於該第二預測網路而使用屬於該第二類型的該第一目標資料訓練該預測模型的操作包括: 根據該第一目標資料的一預測結果更新該重疊網路的至少一參數。
  9. 如申請專利範圍第7項所述的預測模型遷移裝置,其中該處理器使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 禁能該第一預測網路中不屬於該重疊網路的部分;以及 僅使用該第二預測網路來預測屬於該第二類型的該第二目標資料。
  10. 如申請專利範圍第7項所述的預測模型遷移裝置,其中該處理器使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 禁能該第二預測網路中不屬於該重疊網路的部分;以及 僅使用該第一預測網路來預測屬於該第二類型的該第二目標資料。
  11. 如申請專利範圍第7項所述的預測模型遷移裝置,其中該處理器使用該第一預測網路與該第二預測網路之間的該重疊網路來預測屬於該第二類型的該第二目標資料的步驟包括: 分別禁能該第一預測網路與該第二預測網路中不屬於該重疊網路的部分;以及 僅使用該重疊網路來預測屬於該第二類型的該第二目標資料。
  12. 如申請專利範圍第7項所述的預測模型遷移裝置,其中屬於該第一類型的該來源資料包括一第一影像資料,屬於該第二類型的該第一目標資料包括一第二影像資料,且該第一影像資料與該第二影像資料具有不同的影像規格。
TW108131010A 2019-08-29 2019-08-29 預測模型遷移方法與預測模型遷移裝置 TWI717817B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW108131010A TWI717817B (zh) 2019-08-29 2019-08-29 預測模型遷移方法與預測模型遷移裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108131010A TWI717817B (zh) 2019-08-29 2019-08-29 預測模型遷移方法與預測模型遷移裝置

Publications (2)

Publication Number Publication Date
TWI717817B true TWI717817B (zh) 2021-02-01
TW202109384A TW202109384A (zh) 2021-03-01

Family

ID=75745641

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108131010A TWI717817B (zh) 2019-08-29 2019-08-29 預測模型遷移方法與預測模型遷移裝置

Country Status (1)

Country Link
TW (1) TWI717817B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140006323A1 (en) * 2012-06-28 2014-01-02 Knowmtech, Llc. Extensible adaptive classification framework
TWI609674B (zh) * 2016-05-12 2018-01-01 太豪生醫股份有限公司 ***影像對位方法與影像處理裝置
CN108389614A (zh) * 2018-03-02 2018-08-10 西安交通大学 基于图像分割与卷积神经网络构建医学影像图谱的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140006323A1 (en) * 2012-06-28 2014-01-02 Knowmtech, Llc. Extensible adaptive classification framework
TWI609674B (zh) * 2016-05-12 2018-01-01 太豪生醫股份有限公司 ***影像對位方法與影像處理裝置
CN108389614A (zh) * 2018-03-02 2018-08-10 西安交通大学 基于图像分割与卷积神经网络构建医学影像图谱的方法

Also Published As

Publication number Publication date
TW202109384A (zh) 2021-03-01

Similar Documents

Publication Publication Date Title
JP2021502638A (ja) 3d畳み込みニューラルネットワークに基づく動作識別方法及び装置
CN111242297A (zh) 基于知识蒸馏的模型训练方法、图像处理方法及装置
WO2016033990A1 (zh) 生成检测模型的方法和设备、用于检测目标的方法和设备
WO2023050650A1 (zh) 动画视频生成方法、装置、设备及存储介质
WO2015176305A1 (zh) 人形图像分割方法
JP2022517971A (ja) 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器
JP2017224027A (ja) データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
JP2007234024A (ja) 二言語単語対応付けの方法および装置、二言語単語対応モデルを訓練する方法および装置
CN113902964A (zh) 基于关键词感知的多模态注意力视频问答方法与***
US20220122351A1 (en) Sequence recognition method and apparatus, electronic device, and storage medium
US11557380B2 (en) Recurrent neural network to decode trial criteria
EP3726435A1 (en) Deep neural network training method and apparatus, and computer device
CN112464760A (zh) 一种目标识别模型的训练方法和装置
CN116778148A (zh) 目标检测方法、装置、电子设备及存储介质
TWI717817B (zh) 預測模型遷移方法與預測模型遷移裝置
TW202338730A (zh) 圖像擴增方法、電腦設備及儲存介質
KR102371487B1 (ko) 명목형 데이터를 포함하는 데이터를 기반으로 하는 학습 방법 및 장치
KR102176302B1 (ko) 향상된 음향 신호 기반의 음향 이벤트 분류 시스템 및 방법
JP2020052935A (ja) 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム
CN115438658A (zh) 一种实体识别方法、识别模型的训练方法和相关装置
WO2021159756A1 (zh) 基于多模态的响应义务检测方法、***及装置
CN111507195B (zh) 虹膜分割神经网络模型的训练方法、虹膜分割方法及装置
KR20220163362A (ko) 불확실성 간격을 갖는 성능 예측의 생성
TWI792134B (zh) 圖像瑕疵檢測方法、裝置、電子設備及存儲介質
TWI748867B (zh) 圖像瑕疵檢測方法、裝置、電子設備及存儲介質