CN115984633B - 门级电路组件识别方法、***、存储介质及设备 - Google Patents
门级电路组件识别方法、***、存储介质及设备 Download PDFInfo
- Publication number
- CN115984633B CN115984633B CN202310266384.0A CN202310266384A CN115984633B CN 115984633 B CN115984633 B CN 115984633B CN 202310266384 A CN202310266384 A CN 202310266384A CN 115984633 B CN115984633 B CN 115984633B
- Authority
- CN
- China
- Prior art keywords
- gate
- node
- graph
- level
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Design And Manufacture Of Integrated Circuits (AREA)
Abstract
本发明公开了一种门级电路组件识别方法、***、存储介质及设备,涉及数据处理技术领域,该方法包括:获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别。本发明能够解决现有技术中门级电路中组件识别精度不高的技术问题。
Description
技术领域
本发明涉及数据处理技术领域,具体涉及一种门级电路组件识别方法、***、存储介质及设备。
背景技术
电路识别是宏块优化、形式化验证、恶意逻辑检测和逆向工程等方面的基本过程。目前,基于机器学习的电路识别方法已经被提出且已被证实了它的高效和可扩展性。
目前基于机器学习的门级电路识别方法大致分为两类。第一类是将门级电路转化为结构化数据,使用卷积神经网络(CNN)或支持向量机(SVM)等处理结构化数据的模型进行识别。第二类是将门级电路转化为非结构化数据,也就是图数据,再应用图神经网络(GNNS)进行识别。门级电路可以很自然地被看做为一个图,其节点代表门,边代表门间的连接关系,相比于第一类方法将门级电路转换为规则化的数据,第二类方法将电路表征为图能更大限度地存储电路信息。因此,在现有方法中,基于图神经网络的方法往往更优。但目前基于图神经网络的门级电路组件识别问题中,具有以下不足:
1、在将电路转换为图时,节点的特征赋予方法并不能很好地保留电路原有的信息,最终导致模型的表现力不强,进而降低了识别精度。
2、只是简单地使用GNNS模型到电路数据集,并没有针对电路数据的特殊性选择合适的GNNS模型,导致GNNS模型的表现力不够强大,不能更为精准地对门级电路进行识别。
3、现有方法不具备扩展性,只能在小型电路上进行较高精度识别。
发明内容
针对现有技术的不足,本发明的目的在于提供一种门级电路组件识别方法、***、存储介质及设备,以解决现有技术中门级电路的组件识别存在精度不高的技术问题。
本发明的第一方面在于提供一种门级电路组件识别方法,所述方法包括:
获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;
将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;
通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;
根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别。
根据上述技术方案的一方面,获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征的步骤,具体包括:
其中每一初始特征均包括电路图的有向图结构信息与功能信息。
根据所述无向图,获取每一节点的端口信息、结构信息、入度门信息、出度门信息与自身门信息;
将所述节点的入度门信息、出度门信息与自身门信息进行区分,分别用不同的维度进行特征表示。
根据上述技术方案的一方面,在将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层的步骤之前,所述方法还包括:
建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别。
根据上述技术方案的一方面,建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别的步骤,具体包括:
在每一节点生成计算图时,从所述无向图中提取围绕所述节点的子图;其中,所述子图的所有节点均围绕节点的L-hop邻域内的节点采样得到;
确定一目标节点,在所述目标节点的生成嵌入时,将所述子图输入到GNNS模型中,以使GNNS模型的学习与推理均基于所述子图进行,得到所述图神经网络模型。
根据上述技术方案的一方面,对所述图神经网络模型进行训练的步骤,包括:
将所述预测值P与标签Y进行损伤函数求解L(P,Y),得到损失loss;
根据上述技术方案的一方面,采用所述图神经网络模型进行推理的步骤,包括:
本发明的第二方面在于提供一种门级电路组件识别***,所述***包括:
数据获取模块,用于获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;
数据导入模块,用于将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;
节点分类模块,用于通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;
电路识别模块,用于根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别。
本发明的第三方面在于提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述技术方案当中所述方法的步骤。
本发明的第四方面在于提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述技术方案当中所述方法的步骤。
采用本发明所示的门级电路组件识别方法、***、存储介质及设备,有益效果在于:
通过提取门级电路的门级网表,在将门级网表到图的转换过程中,为每个门(节点)赋予初始特征,而该特征的赋予情况将直接影响后续模型的训练和推理过程。相比与现有的方法,本实施例提出的方法能尽可能地保留电路的信息,保障后续模型的学***滑现象导致的识别精度下降,又避免了邻居***现象导致的计算量巨大的问题。经过对电路数据进行验证,相比于现有的电路识别方法,本实施例当中提出的方法实现了目前最优的识别精度,且训练时间减少,同时具有良好的扩展性,可以有效扩展到大规模电路。
附图说明
本发明的上述与/或附加的方面与优点从结合下面附图对实施例的描述中将变得明显与容易理解,其中:
图1为本发明第一实施例当中门级电路组件识别方法的流程示意图;
图2为本发明第一实施例当中门级电路组件识别***的结构框图;
附图符号说明:
数据获取模块10、数据导入模块20、节点分类模块30、电路识别模块40。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例一
请参阅图1,所示为本发明第一实施例提供的一种门级电路组件识别方法的流程示意图,所述方法包括步骤S10-S40:
步骤S10,获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;
其中,门级电路是用以实现基本逻辑运算和复合逻辑运算的单元电路,常用的门级电路在逻辑功能上有与门、或门、非门、与非门、或非门、与或非门、异或门等几种。
在本实施例当中,获取待识别门级电路的电路数据之后,基于门级电路的电路数据,提取门级电路的门级网表,在提取到门级电路的门级网表之后,即可将门级网表转换成图数据。进一步的,在将门级网表转换成图数据之后,还需要为门级电路中每个节点赋予对应的初始特征。
具体而言,门级网表能被自然地表征为一个有向图,但为了提高图中节点间消息传递的效率,本实施例当中将门级网表转译为一个无向图,通过将门级网表表征为一个无向图,其中,/>是节点(gates)集合,长度为n,/>是连接节点的边集合(wires)。且每个节点被赋予了一个初始的特征向量/>,长度为k,/>是包含节点特征的二维矩阵。在本实施例当中,为每一个节点赋予的特征是为了更好地保留电路的有向图结构信息和功能信息。
在本实施例方法中,为了更好地表征网表图中节点的功能信息和结构信息,每个节点的特征均包含端口信息、结构信息、入度门信息、出度门信息和自身门信息。其中,端口信息指的是节点(门)的主输入和主输出(PIs/POs),结构信息指的是节点的入度和出度,这部分捕捉了部分的有向图结构。而入度门信息和出度门信息是节点的两邻域内入度节点和出度节点门类别信息的总和,自身门类型表征着当前节点的类型。值得注意的是,本实施例通过将自身的门类型单独捕捉为一维特征来强化自身门类型的重要性,并将入度门信息和出度门信息进行了区分,相当于进一步保留了电路的有向图特征,使得GNNS模型能进一步学习不同电路之间的区别。
步骤S20,将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;
在本实施例当中,为了在为每个节点生成嵌入时更好地关注其局部信息,就需要在局部建立深层的GNNS模型,尽可能使每个节点更多的关注其局部信息,以此来提高模型的表现力。本实施例当中利用解耦图神经网络深度和范围的思想,在为每个节点生成嵌入时在其局部子图上建立一个深层的GNNS模型。而解耦图神经网络深度和范围的技术点在于,为图中的每个节点生成计算图时,为了生成目标节点的表示,会首先从图中提取围绕目标节点/>的一个子图/>,该子图/>中的所有节点都是围绕目标节点/>的L-hop邻域内的节点采样而来。然后在为目标节点/>生成嵌入时,可将该子图/>输入到/>层的GNNS模型中。由于学***滑和消息***的问题,并且能发挥深层GNNS的强大表现力。
本实施例当中,所建立的图神经网络模型,在为每个目标节点生成嵌入时,为每个目标节点提取一个L-hop的子图,然后在子图上运行多层的GNNS模型,最终通过池化层形成最终的节点嵌入,然后通过分类层进行分类。在为每个目标节点提取子图时,本实施例当中使用的是L-hop算法。其中目标节点集合是表示待提取子图的节点集合,邻居跳数/>和子图节点个数/>是可调节的参数。给予一个训练图/>和待提取子图的目标节点集合/>。第一步是依次从集合S中选取目标节点s,然后根据训练图G,为每个目标节点s提取L跳内的全部节点或者随机选择全部节点中的u个节点,形成子图/>,将所有的子图/>放入一个集合T中。第二步是将集合T中的每一个子图t中的节点/>和边/>依次放入到最终子图的节点集和/>中,将所有子图结合后,生成最终的子图/>。
在模型方面,本方法建立一个4层的图注意力网络(GAT)架构,后续的池化操作采用sum池化,并且采用了残差连接将每一层的输出作为后续池化层的一部分输入,以此来进一步提高GNNS在电路数据上的表现。本实施例当中图神经网络模型的训练过程遵循随机梯度下降策略,在每一个mini-batch(批量梯度下降)中,使用L-hop提取器对当前mini-batch中的目标节点集进行子图提取,得到子图。将得到的子图/>作为GNNS模型的输入执行消息传递、邻居聚合等操作并且为节点生成嵌入。随后将子图/>中每个目标节点得到的分类预测结果和真实标签进行损失计算,再根据损失进行反向传播更新模型中的参数。
在本实施例当中,图神经网络模型的训练算法为:
输入:训练图G(V,E);标签Y;子图提取器L-hop;初始的GNNS模型M;
其中,对图神经网络模型进行训练的步骤包括:
Step1:对每一个mini-batch执行如下步骤
Step1.3:根据预测值P和标签Y进行损失函数求解L(P,Y),得到损失loss;
步骤S30,通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;
本实施例当中图神经网络模型的推理过程为:首先将目标网表转换为图数据,并且为每一个节点赋予初始化特征。得到图数据后,为图中每个节点进行分类操作。具体操作为,将图中每个节点进行子图提取操作得到子图。将子图作为GNNS模型的输入,经过GNNS消息传递、邻居聚合等一系列操作后,为子图中的每个节点生成了嵌入,然后对子图进行池化操作,得到最终的嵌入标识/>。最后将/>输入到分类层就可完成当前节点的分类操作。当图中的每个节点都完成分类操作时,门级电路中的对应组件类别也就被识别出来。
步骤S40,根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别。
在本实施例当中,图神经网络模型的训练算法为:
输入:门级网表N;子图提取器L-Hop;训练好的GNNS模型;
输出:门级网表中高级组件的组件类别。
其中,采用训练好的图神经网络模型对门级电路进行识别的步骤,包括:
与现有技术相比,采用本实施例当中所示的门级电路组件识别方法,有益效果在于:
通过提取门级电路的门级网表,在将门级网表到图的转换过程中,为每个门(节点)赋予初始特征,而该特征的赋予情况将直接影响后续模型的训练和推理过程。相比与现有的方法,本实施例提出的方法能尽可能地保留电路的信息,保障后续模型的学***滑现象导致的识别精度下降,又避免了邻居***现象导致的计算量巨大的问题。经过对电路数据进行验证,相比于现有的电路识别方法,本实施例当中提出的方法实现了目前最优的识别精度,且训练时间减少,同时具有良好的扩展性,可以有效扩展到大规模电路。
实施例二
本发明的第二实施例提供了一种门级电路组件识别方法,所示的门级电路组件识别方法:
在本实施例当中,获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征的步骤,具体包括:
其中每一初始特征均包括电路图的有向图结构信息与功能信息。
根据所述无向图,获取每一节点的端口信息、结构信息、入度门信息、出度门信息与自身门信息;
将所述节点的入度门信息、出度门信息与自身门信息进行区分,分别用不同的维度进行特征表示。
在本实施例当中,在将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层的步骤之前,所述方法还包括:
建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别。
在本实施例当中,建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别的步骤,具体包括:
在每一节点生成计算图时,从所述无向图中提取围绕所述节点的子图;其中,所述子图的所有节点均围绕节点的L-hop邻域内的节点采样得到;
确定一目标节点,在所述目标节点的生成嵌入时,将所述子图输入到GNNS模型中,以使GNNS模型的学习与推理均基于所述子图进行,得到所述图神经网络模型。
在本实施例当中,所述图神经网络模型进行训练的步骤,包括:
将所述预测值P与标签Y进行损伤函数求解L(P,Y),得到损失loss;
在本实施例当中,采用所述图神经网络模型进行推理的步骤,包括:
与现有技术相比,采用本实施例当中所示的门级电路组件识别方法,有益效果至少包括:
通过提取门级电路的门级网表,在将门级网表到图的转换过程中,为每个门(节点)赋予初始特征,而该特征的赋予情况将直接影响后续模型的训练和推理过程。相比与现有的方法,本实施例提出的方法能尽可能地保留电路的信息,保障后续模型的学***滑现象导致的识别精度下降,又避免了邻居***现象导致的计算量巨大的问题。经过对电路数据进行验证,相比于现有的电路识别方法,本实施例当中提出的方法实现了目前最优的识别精度,且训练时间减少,同时具有良好的扩展性,可以有效扩展到大规模电路。
实施例三
请参阅图2,所示为本发明第三实施例提供的一种门级电路组件识别***的结构框图,所述***包括:数据获取模块10、数据导入模块20、节点分类模块30与电路识别模块40,其中:
数据获取模块10,用于获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征。
数据导入模块20,用于将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层。
节点分类模块30,用于通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果。
电路识别模块40,用于根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别。
与现有技术相比,采用本实施例当中所示的门级电路组件识别***,有益效果在于:
通过提取门级电路的门级网表,在将门级网表到图的转换过程中,为每个门(节点)赋予初始特征,而该特征的赋予情况将直接影响后续模型的训练和推理过程。相比与现有的***,本实施例提出的***能尽可能地保留电路的信息,保障后续模型的学***滑现象导致的识别精度下降,又避免了邻居***现象导致的计算量巨大的问题。经过对电路数据进行验证,相比于现有的电路识别***,本实施例当中提出的***实现了目前最优的识别精度,且训练时间减少,同时具有良好的扩展性,可以有效扩展到大规模电路。
实施例四
本发明的第四实施例提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述实施例当中所述方法的步骤。
实施例五
本发明的第五实施例提供了一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例当中所述方法的步骤。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种门级电路组件识别方法,其特征在于,所述方法包括:
获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;
将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;
通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;
根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别;
其中,采用训练好的图神经网络模型对门级电路进行识别的步骤,包括:
将门级网表转换为图数据,并且为每个节点赋予初始化特征;
为每一个图中的节点执行如下操作:
使用子图提取器L-Hop为每一个节点提取子图;
将子图输入到GNNS模型中进行节点嵌入和池化操作生成最终嵌入标识;
将最终嵌入标识输入到GNNS模型的分类层中进行节点分类,以输出门级电路中门级网表的高级组件的组件类别;
获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征的步骤,具体包括:
其中,每一初始特征均包括电路图的有向图结构信息与功能信息;
根据所述无向图,获取每一节点的端口信息、结构信息、入度门信息、出度门信息与自身门信息;
将所述节点的入度门信息、出度门信息与自身门信息进行区分,分别用不同的维度进行特征表示。
2.根据权利要求1所述的门级电路组件识别方法,其特征在于,在将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层的步骤之前,所述方法还包括:
建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别。
3.根据权利要求2所述的门级电路组件识别方法,其特征在于,建立一图神经网络模型,以通过所述图神经网络模型对所述门级电路进行识别的步骤,具体包括:
在每一节点生成计算图时,从所述无向图中提取围绕所述节点的子图;其中,所述子图的所有节点均围绕节点的L-hop邻域内的节点采样得到;
确定一目标节点,在所述目标节点的生成嵌入时,将所述子图输入到GNNS模型中,以使GNNS模型的学习与推理均基于所述子图进行,得到所述图神经网络模型。
5.一种门级电路组件识别***,其特征在于,所述***包括:
数据获取模块,用于获取一待识别的门级电路的电路数据,将所述门级电路的门级网表转换至图数据,并为所述门级电路中每个节点赋予其对应的初始特征;
数据导入模块,用于将所述门级网表的图数据导入至预设的图神经网络模型中,以作为所述图神经网络模型的输入层;
节点分类模块,用于通过所述图神经网络模型对所述门级网表的图数据中每个节点进行分类,输出所述门级网表的图数据的分类结果;
电路识别模块,用于根据所述分类结果,基于所述图数据中每个节点的类别识别所述门级网表中每个节点所属的组件类别;
所述电路识别模块,具体用于:
将门级网表转换为图数据,并且为每个节点赋予初始化特征;
为每一个图中的节点执行如下操作:
使用子图提取器L-Hop为每一个节点提取子图;
将子图输入到GNNS模型中进行节点嵌入和池化操作生成最终嵌入标识;
将最终嵌入标识输入到GNNS模型的分类层中进行节点分类,以输出门级电路中门级网表的高级组件的组件类别;
所述数据获取模块,具体用于:
其中,每一初始特征均包括电路图的有向图结构信息与功能信息;
所述数据获取模块,还用于:
根据所述无向图,获取每一节点的端口信息、结构信息、入度门信息、出度门信息与自身门信息;
将所述节点的入度门信息、出度门信息与自身门信息进行区分,分别用不同的维度进行特征表示。
6.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-4任意一项所述方法的步骤。
7.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-4任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310266384.0A CN115984633B (zh) | 2023-03-20 | 2023-03-20 | 门级电路组件识别方法、***、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310266384.0A CN115984633B (zh) | 2023-03-20 | 2023-03-20 | 门级电路组件识别方法、***、存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115984633A CN115984633A (zh) | 2023-04-18 |
CN115984633B true CN115984633B (zh) | 2023-06-06 |
Family
ID=85970886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310266384.0A Active CN115984633B (zh) | 2023-03-20 | 2023-03-20 | 门级电路组件识别方法、***、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115984633B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116911227B (zh) * | 2023-09-05 | 2023-12-05 | 苏州异格技术有限公司 | 一种基于硬件的逻辑映射方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112700056A (zh) * | 2021-01-06 | 2021-04-23 | 中国互联网络信息中心 | 复杂网络链路预测方法、装置、电子设备及介质 |
CN113515909A (zh) * | 2021-04-08 | 2021-10-19 | 国微集团(深圳)有限公司 | 门级网表的处理方法、计算机存储介质 |
CN114065307A (zh) * | 2021-11-18 | 2022-02-18 | 福州大学 | 一种基于双向图卷积神经网络的硬件木马检测方法与*** |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210158155A1 (en) * | 2019-11-26 | 2021-05-27 | Nvidia Corp. | Average power estimation using graph neural networks |
CN113011282A (zh) * | 2021-02-26 | 2021-06-22 | 腾讯科技(深圳)有限公司 | 图数据处理方法、装置、电子设备及计算机存储介质 |
CN113821840A (zh) * | 2021-08-16 | 2021-12-21 | 西安电子科技大学 | 基于Bagging的硬件木马检测方法、介质、计算机 |
CN114239083B (zh) * | 2021-11-30 | 2024-06-21 | 西安电子科技大学 | 一种基于图神经网络的高效状态寄存器识别方法 |
CN114626106A (zh) * | 2022-02-21 | 2022-06-14 | 北京轩宇空间科技有限公司 | 一种基于级联结构特征的硬件木马检测方法 |
CN114792384A (zh) * | 2022-05-06 | 2022-07-26 | 山东大学 | 融合高阶结构嵌入与复合池化的图分类方法及*** |
CN115293332A (zh) * | 2022-08-09 | 2022-11-04 | 中国平安人寿保险股份有限公司 | 一种图神经网络的训练方法、装置、设备及存储介质 |
CN115719046A (zh) * | 2022-11-17 | 2023-02-28 | 天津大学合肥创新发展研究院 | 一种基于机器学习的门级信息流模型生成方法及装置 |
CN115718826A (zh) * | 2022-11-29 | 2023-02-28 | 中国科学技术大学 | 图结构数据中的目标节点分类方法、***、设备及介质 |
-
2023
- 2023-03-20 CN CN202310266384.0A patent/CN115984633B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112700056A (zh) * | 2021-01-06 | 2021-04-23 | 中国互联网络信息中心 | 复杂网络链路预测方法、装置、电子设备及介质 |
CN113515909A (zh) * | 2021-04-08 | 2021-10-19 | 国微集团(深圳)有限公司 | 门级网表的处理方法、计算机存储介质 |
CN114065307A (zh) * | 2021-11-18 | 2022-02-18 | 福州大学 | 一种基于双向图卷积神经网络的硬件木马检测方法与*** |
Also Published As
Publication number | Publication date |
---|---|
CN115984633A (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Adaptive fusion for RGB-D salient object detection | |
Hu et al. | Randla-net: Efficient semantic segmentation of large-scale point clouds | |
WO2017166586A1 (zh) | 基于卷积神经网络的图片鉴别方法、***和电子设备 | |
JP6395158B2 (ja) | シーンの取得画像を意味的にラベル付けする方法 | |
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN108171663B (zh) | 基于特征图最近邻替换的卷积神经网络的图像填充*** | |
CN110991444B (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN113822209B (zh) | 高光谱图像识别方法、装置、电子设备及可读存储介质 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN115249332B (zh) | 基于空谱双分支卷积网络的高光谱图像分类方法及设备 | |
CN110852349A (zh) | 一种图像处理方法、检测方法、相关设备及存储介质 | |
Çelik et al. | A sigmoid‐optimized encoder–decoder network for crack segmentation with copy‐edit‐paste transfer learning | |
CN115984633B (zh) | 门级电路组件识别方法、***、存储介质及设备 | |
CN113673568B (zh) | 篡改图像的检测方法、***、计算机设备和存储介质 | |
JP2015036939A (ja) | 特徴抽出プログラム及び情報処理装置 | |
CN111400572A (zh) | 一种基于卷积神经网络实现图像特征识别的内容安全监测***及其方法 | |
CN114333062B (zh) | 基于异构双网络和特征一致性的行人重识别模型训练方法 | |
CN111291760A (zh) | 图像的语义分割方法、装置及电子设备 | |
CN115223020A (zh) | 图像处理方法、装置、电子设备以及可读存储介质 | |
Dhiyanesh et al. | Improved object detection in video surveillance using deep convolutional neural network learning | |
Siddiqui et al. | A robust framework for deep learning approaches to facial emotion recognition and evaluation | |
CN113807237B (zh) | 活体检测模型的训练、活体检测方法、计算机设备及介质 | |
Niu et al. | Boundary-aware RGBD salient object detection with cross-modal feature sampling | |
CN114581789A (zh) | 一种高光谱图像分类方法及*** | |
CN113936138A (zh) | 基于多源图像融合的目标检测方法、***、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |