TWI783788B - 圖網路之原始數據的處理方法及其相關處理系統 - Google Patents

圖網路之原始數據的處理方法及其相關處理系統 Download PDF

Info

Publication number
TWI783788B
TWI783788B TW110143384A TW110143384A TWI783788B TW I783788 B TWI783788 B TW I783788B TW 110143384 A TW110143384 A TW 110143384A TW 110143384 A TW110143384 A TW 110143384A TW I783788 B TWI783788 B TW I783788B
Authority
TW
Taiwan
Prior art keywords
graph network
graph
network
raw data
processing
Prior art date
Application number
TW110143384A
Other languages
English (en)
Other versions
TW202321996A (zh
Inventor
呂炳榮
Original Assignee
英業達股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 英業達股份有限公司 filed Critical 英業達股份有限公司
Priority to TW110143384A priority Critical patent/TWI783788B/zh
Application granted granted Critical
Publication of TWI783788B publication Critical patent/TWI783788B/zh
Publication of TW202321996A publication Critical patent/TW202321996A/zh

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Communication Control (AREA)

Abstract

一種圖網路之原始數據的處理方法,包含有載入一第一圖網路;將該第一圖網路分割為複數個第二圖網路;將該複數個第二圖網路標記為複數個圖網路特徵;以及以該複數個圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵。

Description

圖網路之原始數據的處理方法及其相關處理系統
本發明係指一種圖網路之原始數據的處理方法及其相關處理系統,尤指一種有效率地處理圖網路之原始數據的處理方法及其相關處理系統。
圖神經網路(GNN,Graph Neural Networks)技術是一種基於深度學習的圖域資訊的處理方法。在現有的圖神經網路技術下,於處理一物件或一樣本時,需先根據物件或樣本產生包含大量原始數據(Raw Data)的圖網路,再根據所產生的圖網路進行機器學習。由於圖神經網路是對圖網路進行矩陣向量乘積操作,因此處理圖網路所需處理的訊息量非常龐大,進而降低運算效率。因此,現有技術有改進的必要。
因此,本發明提供一種圖網路之原始數據的處理方法及其相關處理系統,以有效地處理圖網路的原始數據,並且減少神經網路或機器學習所需要的原始數據的訊息量。
本發明之一實施例揭露一種圖網路之原始數據的處理方法,包含有 載入一第一圖網路;將該第一圖網路分割為複數個第二圖網路;將該複數個第二圖網路標記為複數個圖網路特徵;以及以該複數個圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵。
本發明之另一實施例揭露一種用於處理圖網路之原始數據的處理系統,包含有一處理裝置;一記憶體裝置,耦接於該處理裝置,用來儲存一程式碼以指示該處理裝置執行圖網路之原始數據的處理流程,其中,該流程包含有載入一第一圖網路;將該第一圖網路分割為複數個第二圖網路;將該複數個第二圖網路標記為複數個圖網路特徵;以及以該複數個圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵。
20:處理系統
202:處理裝置
204:記憶體裝置
100:處理方法
1002-1012:步驟
NG、NG_A-NG_C、NG_Screw、NG_Screw_1、NG_Screw_2、NG_Screw_3:圖網路
Node_1-Node_6:節點
Plane_A:面
S:螺絲
第1圖為一圖網路之示意圖。
第2圖為本發明實施例之一處理系統之示意圖。
第3圖至第5圖為本發明實施例之一圖網路之示意圖。
第6圖為本發明實施例之一螺絲與其對應之一圖網路之示意圖。
第7圖為本發明實施例之螺絲的一面被展開一層網路的一圖網路之示意圖。
第8圖為本發明實施例之螺絲的面被展開兩層網路的一圖網路之示意圖。
第9圖為本發明實施例之螺絲的面被展開三層網路的一圖網路之示意圖。
第10圖為本發明實施例之圖網路之原始數據之處理方法之示意圖。
請參考第1圖,第1圖為一圖網路NG之示意圖。圖網路NG是一種鏈 狀的神經圖網路,可以是由一三維模型轉換而成,三維模型包含至少一面及至少一邊,其中三維模型的一面可對應至圖網路NG的一節點(Node),三維模型的一邊可對應至圖網路NG的一邊(Edge)。在第1圖的例子中,假設三維模型為一水密(watertight)狀態(即三維模型沒有破圖)的情形下,由於三維模型的每一個邊相鄰兩個面,因此圖網路NG的一邊對應至兩個節點。由第1圖可知,圖網路NG的每個節點以及每個節點之間的邊所包含的網路資訊複雜,例如節點與節點之間的矩陣向量以及不同網路層,即圖網路NG包含有大量的原始數據,因此,現有技術於處理圖網路NG時,例如將圖網路NG作為神經網路的一圖網路特徵,並且用於機器學習運算時,將因其大量的原始數據而影響運算效率。
因此,本發明提供一種用於處理圖網路之原始數據之處理系統,以降低圖網路的原始數據,進而有效率地根據圖網路進行特徵判斷。
請參考第2圖,第2圖為本發明實施例之一處理系統20之示意圖。處理系統20可用於處理圖網路之原始數據,其包含有一處理裝置202及一記憶體裝置204。處理裝置202可以是一電腦系統的一中央處理器或一具有運算功能的裝置。記憶體裝置204耦接於處理裝置202,用來儲存一程式碼以指示處理裝置202執行載入一第一圖網路,將第一圖網路分割為複數個第二圖網路,將第二圖網路標記為複數個圖網路特徵,以及以圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵。
在一實施例中,第一圖網路是由一三維模型轉換而成,並且該三維模型包含至少一面及至少一邊,因此,本發明實施例的處理系統20可將圖網路NG分割為多個第二圖網路,並且將每一第二圖網路標記為對應的圖網路特徵。 如此一來,處理系統20可對分割後的第二圖網路進行特徵標記,進而以標記後的圖網路特徵作為機器學習方法的學習特徵,以降低處理圖網路的原始數據量。
請參考第3圖,第3圖為本發明實施例之一圖網路NG_A之示意圖。圖網路NG_A可以是三維模型的一面與其附近的面所產生的網路,也就是說,第3圖的圖網路NG_A可以是由圖網路NG的其中一節點Node_1並且展開節點Node_1附近的節點Node_2~Node_6而產生的網路。在此情形下,圖網路NG_A可稱為節點Node_1被展開一層的網路資訊。
為了增加更多網路資訊,可進一步根據第3圖中的圖網路NG_A中的節點Node_1展開為一圖網路NG_B以及一圖網路NG_C,如第4圖及第5圖所示。第4圖中的圖網路NG_B為圖網路NG_A中的節點Node_1被展開第二層的結果,第5圖中的圖網路NG_C為圖網路NG_A中的節點Node_1被展開第三層的結果。由上述可知,當節點Node_1被展開越多層時,表示包含有更多資訊,以用於判別神經網路的特徵。另一方面,當節點Node_1被展開越多層時,表示於進行圖網路的運算時,將大幅提升運算量。
也就是說,本發明實施例的處理系統20於操作時,可先將對應於三維模型的完整的第一圖網路分割為多個第二圖網路,並且將第二圖網路標記為圖網路特徵,以得到多筆對應於局部三維模型的網路資料,進而作為機器學習的學習特徵,以加速神經圖網路的處理效率。
值得注意的是,用來作為機器學習的學習特徵的圖網路特徵不限於一節點被展開一層、兩層或多層的網路,而可根據不同的處理系統20需求而調 整。舉例來說,圖網路特徵可以是一節點被展開一層、被展開兩層或多層的圖網路,使得處理系統20可以不同資料量的圖網路進行機器學習,或者據以進行元件辨識。
具體而言,請參考第6圖,第6圖為本發明實施例之一螺絲S與其對應之一圖網路NG_Screw之示意圖。如第6圖所示,當三維模型為螺絲S時,對應於螺絲S的圖網路NG_Screw包含大量的網路資訊,因此當以圖網路NG_Screw作為機器學習的學習特徵時,將由於資訊量過多,影響圖神經網路的處理效率。
為了降低神經圖網路的運算量,本發明實施例的處理系統20可選定螺絲S的其中一面Plane_A並且展開面Plane_A的鄰近的節點。如第7圖至第9圖所示,第7圖為本發明實施例之螺絲S的面Plane_A被展開一層網路的一圖網路NG_Screw_1之示意圖,第8圖為本發明實施例之螺絲S的面Plane_A被展開兩層網路的一圖網路NG_Screw_2之示意圖,第9圖為本發明實施例之螺絲S的面Plane_A被展開三層網路的一圖網路NG_Screw_3之示意圖,其中在第6圖至第9圖中的網點即對應於面Plane_A被展開的鄰近節點。因此,本發明實施例的處理系統20即可將被展開不同層的圖網路NG_Screw_1、圖網路NG_Screw_2或圖網路NG_Screw_3標記為螺絲S的面Plane_A之特徵,以作為圖神經網路的機器學習的學習特徵。
相似地,螺絲S的其他部位的構件或部位也可以相同的方法,選定圖網路NG_Screw中的一節點展開後,標記為對應的圖網路特徵,以用於機器學習。
如此一來,本發明實施例的處理系統20可藉由分割圖網路NG_Screw 以降低圖網路NG_Screw於處理時的資料量,也可在降低圖網路NG_Screw的資料量的前提之下,藉由展開圖網路的節點的方法,保留足夠的局部特徵,以避免在簡化過程中遺失過多局部特徵而影響神經圖網路的一辨別步驟。
進一步地,上述處理系統20之操作方式可歸納為一圖網路之原始數據的處理方法100,如第10圖所示。處理方法100的步驟包含有:
步驟1002:開始。
步驟1004:載入第一圖網路;
步驟1006:將第一圖網路分割為第二圖網路;
步驟1008:將第二圖網路標記為圖網路特徵;
步驟1010:以圖網路特徵之每一圖網路特徵作為機器學習方法之學習特徵;
步驟1012:結束。
關於處理方法100的運作流程,可參考上述處理系統20之實施例,在此不再贅述。
在一實施例中,當給定一筆記型電腦之一圖網路時,處理系統20可根據處理方法100所獲得的關於用於電子裝置之一螺絲的圖網路特徵的原始數據,於筆記型電腦的圖網路中辨別螺絲。在另一實施例中,也可於透過處理系統20分割圖網路取得關於一卡勾之圖網路,以進行機器學習,進而於相關的圖網路中辨識別卡勾。
綜上所述,本發明實施例提供一種圖網路之原始數據的處理方法及 其相關處理系統,透過分割圖網路以降低處理圖網路時的運算量,進而有效率地處理圖網路的原始數據。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
100:處理方法
1002-1012:步驟

Claims (8)

  1. 一種圖網路(Graph network)之原始數據的處理方法,包含有:載入一第一圖網路;將該第一圖網路分割為複數個第二圖網路;將該複數個第二圖網路標記為複數個圖網路特徵;以及以該複數個圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵;其中該每一第二圖網路是由該第一圖網路之一節點展開至少一層而形成。
  2. 如請求項1所述之圖網路之原始數據的處理方法,其中該第一圖網路是由一三維模型轉換而成,並且該三維模型包含至少一面及至少一邊。
  3. 如請求項2所述之圖網路之原始數據的處理方法,其中該第一圖網路係由該三維模型之至少一面以及至少一邊而形成。
  4. 如請求項2所述之圖網路之原始數據的處理方法,其中該複數個第二圖網路之每一第二圖網路分別對應於該三維模型之一部分。
  5. 一種用於處理圖網路之原始數據的處理系統,包含有:一處理裝置;一記憶體裝置,耦接於該處理裝置,用來儲存一程式碼以指示該處理裝置執行圖網路之原始數據的處理流程,其中,該流程包含有:載入一第一圖網路;將該第一圖網路分割為複數個第二圖網路; 將該複數個第二圖網路標記為複數個圖網路特徵;以及以該複數個圖網路特徵之每一圖網路特徵作為一機器學習方法之一學習特徵;其中該每一第二圖網路是由該第一圖網路之一節點展開至少一層而形成。
  6. 如請求項5所述之用於處理圖網路之原始數據的處理系統,其中該第一圖網路是由一三維模型轉換而成,並且該三維模型包含至少一面及至少一邊。
  7. 如請求項6所述之用於處理圖網路之原始數據的處理系統,其中該第一圖網路係由該三維模型之至少一面以及至少一邊而形成。
  8. 如請求項6所述之用於處理圖網路之原始數據的處理系統,其中該複數個第二圖網路之每一第二圖網路分別對應於該三維模型之一部分。
TW110143384A 2021-11-22 2021-11-22 圖網路之原始數據的處理方法及其相關處理系統 TWI783788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110143384A TWI783788B (zh) 2021-11-22 2021-11-22 圖網路之原始數據的處理方法及其相關處理系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110143384A TWI783788B (zh) 2021-11-22 2021-11-22 圖網路之原始數據的處理方法及其相關處理系統

Publications (2)

Publication Number Publication Date
TWI783788B true TWI783788B (zh) 2022-11-11
TW202321996A TW202321996A (zh) 2023-06-01

Family

ID=85794496

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110143384A TWI783788B (zh) 2021-11-22 2021-11-22 圖網路之原始數據的處理方法及其相關處理系統

Country Status (1)

Country Link
TW (1) TWI783788B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019197613A1 (en) * 2018-04-12 2019-10-17 Deepmind Technologies Limited Graph neural networks representing physical systems
US20210042634A1 (en) * 2019-08-07 2021-02-11 Saudi Arabian Oil Company Representation learning in massive petroleum network systems
US20210241067A1 (en) * 2020-02-05 2021-08-05 Facebook, Inc. Hyper-Graph Network Decoders for Algebraic Block Codes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019197613A1 (en) * 2018-04-12 2019-10-17 Deepmind Technologies Limited Graph neural networks representing physical systems
US20210042634A1 (en) * 2019-08-07 2021-02-11 Saudi Arabian Oil Company Representation learning in massive petroleum network systems
US20210241067A1 (en) * 2020-02-05 2021-08-05 Facebook, Inc. Hyper-Graph Network Decoders for Algebraic Block Codes

Also Published As

Publication number Publication date
TW202321996A (zh) 2023-06-01

Similar Documents

Publication Publication Date Title
CN107437110B (zh) 卷积神经网络的分块卷积优化方法及装置
JP6314628B2 (ja) 演算処理装置
CN107688855A (zh) 针对于复杂神经网络的分层量化方法与装置
US20180247182A1 (en) Information Processing Apparatus, Image Recognition Apparatus, and Parameter Setting Method for Convolutional Neural Network
JP6393058B2 (ja) 情報処理装置、情報処理方法
TWI740726B (zh) 卷積神經網路的排序方法、運算方法及裝置
KR20130049753A (ko) 덱셀들에 의해 표현되는 모델링된 볼륨의 설계
JP7165018B2 (ja) 情報処理装置、情報処理方法
JP2020204894A (ja) フィルタ処理装置及びその制御方法
CN112749723A (zh) 样本标注方法、装置、计算机设备和存储介质
CN115344805A (zh) 素材审核方法、计算设备及存储介质
TWI783788B (zh) 圖網路之原始數據的處理方法及其相關處理系統
CN114241524A (zh) 人体姿态估计方法、装置、电子设备及可读存储介质
CN114358252A (zh) 目标神经网络模型中的操作执行方法及装置、存储介质
CN112308149A (zh) 基于机器学习的图像信息识别的优化方法及装置
CN112801045B (zh) 一种文本区域检测方法、电子设备及计算机存储介质
CN115620082A (zh) 模型训练方法、头部姿态估计方法、电子设备及存储介质
CN112036554B (zh) 神经网络模型的处理方法、装置、计算机设备和存储介质
CN114782960A (zh) 模型训练方法、装置、计算机设备及计算机可读存储介质
CN116151310A (zh) 图网络的原始数据的处理方法及其相关处理***
KR102372869B1 (ko) 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법
JP2022072648A5 (zh)
WO2014168199A1 (ja) 論理演算方法および情報処理装置
CN112825121A (zh) 深度卷积神经网络初始化和训练方法、装置、介质及设备
CN113240565B (zh) 基于量化模型的目标识别方法、装置、设备及存储介质