CN115170917A - 图像处理方法、电子设备及存储介质 - Google Patents
图像处理方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115170917A CN115170917A CN202210701707.XA CN202210701707A CN115170917A CN 115170917 A CN115170917 A CN 115170917A CN 202210701707 A CN202210701707 A CN 202210701707A CN 115170917 A CN115170917 A CN 115170917A
- Authority
- CN
- China
- Prior art keywords
- image processing
- processing model
- calculation
- target
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 261
- 238000004364 calculation method Methods 0.000 claims abstract description 190
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000013138 pruning Methods 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 17
- 238000004806 packaging method and process Methods 0.000 claims description 13
- 239000010410 layer Substances 0.000 description 31
- 230000008569 process Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及计算机技术领域,提供一种图像处理方法、电子设备及存储介质,该方法包括:将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应;目标掩码张量基于如下步骤确定:获取第一图像处理模型对应的第一计算图;基于第一计算图,确定第二计算图;根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。该方法中用于处理待处理图像的目标图像处理模型去除了冗余通道,降低参数量,在不影响图像处理精度的前提下,提升模型的计算速度,降低模型部署的硬件要求。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及图像处理方法、电子设备及存储介质。
背景技术
自从2012年深度学习算法在图像分类任务中取得举世瞩目的成绩后,基于深度卷积神经网络构建图像处理模型逐渐取代了传统的统计学习成为计算机视觉的主流框架和方法,在包括人脸识别、辅助驾驶等方面得到了广泛的应用。
然而,高精度的图像处理模型一般设计复杂、参数量巨大,部署时需要占据高额的存储空间、计算资源消耗,难以在中低算力的设备端直接部署应用。
发明内容
本申请旨在至少解决现有技术中存在的技术问题之一。为此,本申请提出一种图像处理方法,降低图像处理任务对设备端算力的需求。
根据本申请第一方面实施例的图像处理方法,包括:
将待处理图像输入至目标图像处理模型,获得所述目标图像处理模型输出的目标图像信息,所述目标图像处理模型基于目标掩码张量建立,所述目标图像信息中的图像通道与所述目标掩码张量中分量为1的通道对应;
所述目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,所述第一图像处理模型为结构化剪枝得到的模型,所述第一计算图包括多个第一节点,所述多个第一节点与所述第一图像处理模型中的多个算子一一对应;
基于所述第一计算图,确定第二计算图,所述第二计算图包括多个第二节点,所述第二节点为至少一个所述第一节点封装得到的;
根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量。
根据本申请实施例的图像处理方法,对经过模型剪枝的第一图像处理模型进行表示图重构,得到第一计算图,基于第一计算图进行算子重封装,得到第二计算图,进而确定目标掩码张量,去除冗余通道,降低参数量,自动生成目标图像处理模型,从稀疏模型自动化生成可布置于中低算力设备端的紧凑模型,利用紧凑模型对待处理图像进行处理,实现模型压缩的同时,不会对模型精度造成影响。
根据本申请的一个实施例,所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量,包括:
根据所述第二计算图对所述第一图像处理模型执行前向计算和对应的反向计算,根据所述前向计算和对应的反向计算的输出结果,更新每个所述算子对应的标记掩码;
循环执行所述前向计算和对应的反向计算,直至每个所述算子对应的标记掩码均不再更新,基于每个所述算子对应的标记掩码,得到所述目标掩码张量。
根据本申请的一个实施例,所述根据所述第二计算图对所述第一图像处理模型执行前向计算和对应的反向计算,根据所述前向计算和对应的反向计算的输出结果,更新每个所述算子对应的标记掩码,包括:
确定所述第一图像处理模型中任一算子前向计算的输出结果为0或反向计算的求解梯度为0,将所述任一算子对应的标记掩码更新为0。
根据本申请的一个实施例,所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量,包括:
根据所述第二计算图对所述第一图像处理模型执行前向计算,并基于所述第一图像处理模型前向计算的输出结果对所述第一图像处理模型执行反向计算,确定所述目标掩码张量。
根据本申请的一个实施例,所述获取第一图像处理模型对应的第一计算图,包括:
遍历所述第一图像处理模型的所述多个算子,确定所述多个算子的关联关系;
基于所述多个算子和所述关联关系,确定所述第一计算图。
根据本申请的一个实施例,所述基于所述第一计算图,确定第二计算图,包括:
将所述第一计算图中作用域相同的所述第一节点封装为所述第二节点,确定所述第二计算图。
根据本申请的一个实施例,在所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算之前,所述方法还包括:
将所述第一图像处理模型中带有权重的算子所对应的权重随机初始化为非0值。
根据本申请第二方面实施例的图像处理装置,包括:
处理模块,用于将待处理图像输入至目标图像处理模型,获得所述目标图像处理模型输出的目标图像信息,所述目标图像处理模型基于目标掩码张量建立,所述目标图像信息中的图像通道与所述目标掩码张量中分量为1的通道对应;
所述目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,所述第一图像处理模型为结构化剪枝得到的模型,所述第一计算图包括多个第一节点,所述多个第一节点与所述第一图像处理模型中的多个算子一一对应;
基于所述第一计算图,确定第二计算图,所述第二计算图包括多个第二节点,所述第二节点为至少一个所述第一节点封装得到的;
根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量。
根据本申请第三方面实施例的电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述任一种所述图像处理方法。
根据本申请第四方面实施例的非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述图像处理方法。
根据本申请第五方面实施例的计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述图像处理方法。
本申请实施例中的上述一个或多个技术方案,至少具有如下技术效果之一:
对经过模型剪枝的第一图像处理模型进行表示图重构,得到第一计算图,基于第一计算图进行算子重封装,得到第二计算图,进而确定目标掩码张量,通过自动搜索重构方式,直接生成紧凑模型对待处理图像进行图像处理,可以直接在中低算力的设备端布置,无需专业知识,减少了稀疏模型部署落地的时间与人力成本。
进一步的,根据前向计算的输出结果是否为0以及反向计算的求解梯度是否为0对第一图像处理模型中所有算子所对应的标记掩码进行更新,当第一图像处理模型中所有算子所对应的标记掩码均不再更新后,停止前向计算和反向计算,确定目标掩码张量,准确判断出建立紧凑模型时需要保留的算子及参数,保证目标图像处理模型的精度。
更进一步的,根据第一节点对应的作用域按照层结构逐模块地重新封装,得到新的第二计算图,第二计算图中第二节点与第一图像处理模型的层结构一一对应,第一图像处理模型中每个算子都能在第二计算图中确定出输入输出、域名、父节点及子节点等属性。
本申请的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的图像处理方法的流程示意图;
图2是本申请实施例提供的目标图像处理模型的部署流程示意图;
图3是本申请实施例提供的图像处理装置的结构示意图;
图4是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请的实施方式作进一步详细描述。以下实施例用于说明本申请,但不能用来限制本申请的范围。
在本申请实施例的描述中,需要说明的是,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
下面结合图1和图2描述本申请实施例的图像处理方法,利用剪枝后的稀疏模型自动化生成紧凑模型对待处理图像进行处理,实现模型压缩的同时,保证模型处理精度。
如图1所示,本申请实施例的图像处理方法包括步骤110,该方法的执行主体为设备终端的控制器,或者云端,或者边缘服务器。
步骤110、将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息。
其中,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应。
在该实施例中,目标图像处理模型可以对待处理图像执行图像变换、图像增强、图像恢复、图像压缩与编码、图像重建以及图像分割与特征提取等操作。
例如,待处理图像输入至目标图像处理模型,目标图像处理模型对待处理图像执行图像增强操作,输出的目标图像信息为待处理图像进行图像增加后的图像。
再例如,待处理图像输入至目标图像处理模型,目标图像处理模型对待处理图像执行图像分割与特征提取操作,进一步执行分类处理,输出的目标图像信息为待处理图像中物体的种类。
目标图像处理模型输出的待处理图像所对应的目标图像信息包括图像宽度、图像高度和图像通道等信息。
在该实施例中,提取目标掩码张量中分量为1的通道存入初始化算子,建立目标图像处理模型,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应。
目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,第一图像处理模型为结构化剪枝得到的模型,第一计算图包括多个第一节点,多个第一节点与第一图像处理模型中的多个算子一一对应;
基于第一计算图,确定第二计算图,第二计算图包括多个第二节点,第二节点为至少一个第一节点封装得到的;
根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。
需要说明的是,第一图像处理模型通过多个算子对待处理图像进行图像处理得到的目标图像信息与目标图像处理模型对待处理图像进行图像处理得到的目标图像信息是一致的,第一图像处理模型是结构化剪枝得到的稀疏模型,目标图像处理模型是进一步去除冗余参数得到的紧凑模型。
可以理解的是,目标掩码张量是将第一图像处理模型中多个算子所对应的标记掩码以张量的形式存储,算子的通道数量等于目标掩码张量的分量数量。
在该实施例中,确定目标掩码张量后,只需要提取目标掩码张量中分量等于1的通道存入初始化好的新算子,这样可以去除分量值为0的冗余通道,建立紧凑的目标图像处理模型。
下面对本申请实施例的目标掩码张量的确定过程进行描述:
第一步、获取第一图像处理模型对应的第一计算图。
其中,第一图像处理模型为结构化剪枝得到的图像处理模型,结构化剪枝是以卷积核为单位进行剪枝,***一个辅助层掩码层,掩码层仅将对应的通道的权重置0,但并未实际从模型中将这些0权重删除,得到的第一图像处理模型是稀疏模型。
第一图像处理模型中的算子表征函数执行的操作,函数执行的操作是针对输入第一图像处理模型的图像执行的操作,例如,卷积、特征融合等操作。
第一计算图是表征节点与节点之间关系的数学图像,节点标志处理数字、符号或标志型输入和输出。
根据第一图像处理模型中的多个算子,确定一一对应的多个第一节点,根据多个第一节点,得到第一计算图。
需要说明的是,在该实施例中,第一图像处理模型中的多个算子指第一图像处理模型中表征函数执行的操作所有的算子,相应地,第一计算图的多个第一节点表征了第一图像处理模型中全部的处理数字、符号或标志型输入和输出。
例如,在第一图像处理模型中有算子A、算子B、算子C、算子D、算子E、算子F、算子G以及算子H。
获取的第一图像处理模型对应的第一计算图中包括第一节点a、第一节点b、第一节点c、第一节点d、第一节点e、第一节点f、第一节点g以及第一节点h。
其中,第一节点a与算子A对应,第一节点b与算子B对应,并以此类推。
在实际执行中,可以利用PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch以及PyTorch等深度学习训练框架将第一图像处理模型展开,得到对应的第一计算图。
以第一图像处理模型为ResNet18为例,通过PyTorch深度学习训练框架展开后的第一计算图包括若干种类的372个算子对应的372个第一节点,372个第一节点可以分为存储输入输出的常量节点、网络模块节点与功能函数节点,其中,网络模块节点可以对应卷积、激活函数等操作,功能函数节点可以对应拼接、转置等操作。
第二步、基于第一计算图,确定第二计算图。
对第一计算图中的多个第一节点进行重新封装,得到多个第二节点,进而得到第二计算图。
在该实施例中,第二节点为至少一个第一节点封装得到的。
在实际执行中,可以根据第一计算图中各个第一节点所对应的算子特点进行封装融合。
例如,根据第一节点所对应的算子在第一图像处理模型中所对应的层结构,对第一节点进行封装,得到第二节点。
将属于第一图像处理模型中某一卷积层的算子所对应的一个或多个第一节点,封装为一个第二节点,该第二节点所表征的是该卷积层的处理数字、符号或标志型输入和输出。
在该实施例中,根据第一图像处理模型的层结构特征,对第一计算图中第一节点进行重新封装,得到多个第二节点,根据多个第二节点,确定第二计算图。
可以理解的是,根据第一图像处理模型的层结构特征,对第一节点进行封装得到的第二节点与第一图像处理模型的层结构对应,第一图像处理模型有多少层,第二计算图中就有多少个第二节点,第二计算图中的多个第二节点的连接关系表征了第一图像处理模型的层间数据输入输出关系。
以第一图像处理模型为ResNet18,通过PyTorch深度学习训练框架展开后的第一计算图包括若干种类的372个算子对应的372个第一节点为例。
一个卷积层torch.nn.Conv2d在第一计算图被拆分成4个prim::ListConstruct函数节点与1个aten::_convolution模块节点,而该卷积层的权重、输入与输出则保存在第一计算图中的常量节点中。
批归一化层Batch Normalization,其输入则是在第一计算图中被拆分为weight,bias,running_mean和running_var共4个常量节点。
将卷积层torch.nn.Conv2d的函数节点、模块节点以及常量节点等多个第一节点封装为一个第二节点,将批归一化层Batch Normalization的4个第一节点封装为一个第二节点,确定出第二计算图。
封装后的第二节点与第一图像处理模型的层结构一一对应,封装第一节点后得到的ResNet18的第二计算图中第二节点的数目下降至69个。
第三步、根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定第一图像处理模型的目标掩码张量。
其中,前向计算是指将数据输入模型,通过该模型计算得到结果的过程,模型的前向计算可以由多个运算操作组成,由框架使用模型的算子所对应的计算图可以完成模型的前向计算。
反向计算是以前向计算的结果与预期结果间的误差为输入,根据自动微分机制反向传播误差,从而计算出模型中每层的梯度的计算过程。
在该实施例中,可以根据第二计算图执行第一图像处理模型的前向计算和反向计算,对第一图像处理模型中所有算子创建输入输出的标记掩码,得到第一图像处理模型的目标掩码张量。
可以理解的是,根据第二计算图执行第一图像处理模型的前向计算和反向计算,也就是根据第一图像处理模型中的层结构执行前向计算和反向计算,在第一图像处理模型出现残差结构时,可以将残差结构的主干网络所确定的标记掩码共享给残差结构的分支网络,以使剪枝后的主干网络与分支网络的通道维度保持一致。
需要说明的是,根据第一图像处理模型中多个算子所对应的标记掩码确定的目标掩码张量为多重线性函数,多重线性是指张量对于每个参数都是线性的,张量的分量就是张量作用在相应的一组基矢上的值。
可以理解的是,目标掩码张量包括第一图像处理模型中多个算子所对应的标记掩码,每个算子所对应的标记掩码表征了该算子的参数重要性,根据每个算子所对应的标记掩码,判断参数是否冗余,算子是否需要保留。
在该实施例中,相比于第一图像处理模型,目标图像处理模型是参数量更少、结构更精简的紧凑模型,目标图像处理模型计算资源需求和内存需求更小,相比仅执行结构化剪枝操作的稀疏模型能够满足更加广泛的应用需求。
在实际执行中,根据目标掩码张量,建立目标图像处理模型这个紧凑模型后,可以将目标图像处理模型移植于硬件设备上,建立目标图像处理模型的过程相当于对第一图像处理模型这个稀疏模型进行剪枝的过程。
例如,对执行计算机视觉识别任务的卷积神经网络模型进行结构化剪枝,得到第一图像处理模型A,通过上述图像处理方法,得到目标图像处理模型B这一紧凑模型,目标图像处理模型B可以布置于中低算力的图像采集装置所在的端侧设备上。
在本申请实施例中,对经过模型剪枝的第一图像处理模型进行表示图重构,得到第一计算图,基于第一计算图进行算子重封装,得到第二计算图,进而确定目标掩码张量,通过自动搜索重构方式,直接生成紧凑模型,目标图像处理模型可以直接在中低算力的设备端部署应用,无需专业知识,减少了稀疏模型部署落地的时间与人力成本。
根据本申请实施例提供的图像处理模型的应用方法,目标图像处理模型是基于模型剪枝的第一图像处理模型通过自动搜索重构方式,生成的紧凑模型,用于处理待处理图像的目标图像处理模型去除了冗余通道,降低参数量,在不影响模型精度的前提下,提升了模型的计算速度,降低目标图像处理模型部署的硬件设备的硬件要求。
在一些实施例中,上述图像处理方法中确定目标掩码张量的第三步可以包括:
根据第二计算图对第一图像处理模型执行前向计算以及对应的反向计算,根据前向计算和对应的反向计算的输出结果,更新多个算子中每个算子对应的标记掩码;
循环执行前向计算和对应的反向计算,直至确定第一图像处理模型的多个算子中每个算子对应的标记掩码均不再更新,基于每个算子所对应的标记掩码,得到目标掩码张量。
在该实施例中,根据第二计算图执行第一图像处理模型的前向计算和反向计算,对第一图像处理模型中所有算子创建输入输出的标记掩码,通过多次的前向计算和多次的反向计算,更新每个算子所对应的标记掩码进行。
当第一图像处理模型中所有算子所对应的标记掩码均不再更新后,所有算子中每个算子所对应的标记掩码已经确定下来,再根据每个算子所对应的确定的标记掩码,生成第一图像处理模型的目标掩码操作。
在该实施例中,根据第二计算图对第一图像处理模型执行多次的前向计算以及多次的反向计算,根据前向计算和对应的反向计算的输出结果,更新多个算子中每个算子对应的标记掩码可以包括:
确定第一图像处理模型中任一算子前向计算的输出结果为0或反向计算的求解梯度为0,将任一算子对应的标记掩码更新为0。
在该实施例中,执行多次的前向计算操作和反向计算操作的过程中,执行前向计算时,查看算子前向计算的输出结果是否为0,如果为0就更新该算子对应的标记掩码为0,执行反向计算时,查看算子反向计算的求解梯度是否为0,如果为0就更新该算子对应的标记掩码为0。
例如,根据第二计算图对第一图像处理模型中的第一算子执行前向计算操作,当确定第一算前向计算的输出结果为0,将第一算子所对应的标记掩码更新为0。
可以理解的是,第一算子所对应的标记掩码更新为0,表明第一图像处理模型中的第一算子属于无作用位置,将其权重和标记掩码置0,在目标图像处理模型的建立过程中,无需对第一算子的标记掩码所对应的目标掩码张量的分量执行操作。
再例如,当确定第二算子反向计算的求解梯度为0,将第二算子所对应的标记掩码更新为0,表明第一图像处理模型中的第二算子属于无作用位置,将其权重和标记掩码置0,在目标图像处理模型的建立过程中,无需对第二算子的标记掩码所对应的目标掩码张量的分量执行操作。
在该实施例中,根据前向计算的输出结果是否为0以及反向计算的求解梯度是否为0对第一图像处理模型中所有算子所对应的标记掩码进行更新,当第一图像处理模型中所有算子所对应的标记掩码均不再更新后,停止前向计算和反向计算,确定第一图像处理模型的目标掩码张量。
下面介绍一个具体的实施例。
结构化剪枝得到第一图像处理模型,在结构化剪枝的训练过程中,获取得到第一图像处理模型的BN层的输出掩码,在进行表示图重构和算子重封装得到第二计算图后,需要根据第二计算图对第一图像处理模型所有的输出通道与模型权重分配相应的标记掩码。
由于BN层与卷积层的输出通道是一一对应的关系,在执行前向计算时,可以根据结构化剪枝过程汇中的BN层输出掩码,推理得到卷积层的输出通道掩码。
在上述确定目标掩码张量的第三步,根据第二计算图执行第一图像处理模型的前向计算和反向计算之前,将第一图像处理模型中带有权重的算子所对应的权重随机初始化为非0值。
需要说明的是,在执行前向计算和反向计算之前,需要筛选出第一图像处理模型中所有带有权重的算子,对权重进行随机初始化,使其为非0值,以避免在后续建立目标图像处理模型的过程中去除不该被去除但数据为权重数值为0的算子,防止干扰后续紧凑模型的建立。
例如,第一图像处理模型包括Conv1->BN1->Conv2->BN2的层结构,第二计算图表征了Conv1->BN1->Conv2->BN2的层结构关系。
下面介绍对Conv1卷积层进行剪枝。
假设输入的待处理图像为RGB图片,Conv1、BN1的输出形状为(B,C1,H,W),于是Conv1的权重形状为(3,C1,K1,K1),Conv2、BN2的输出形状为(B,C2,H,W),Conv2的权重形状为(C1,C2,K2,K2)。
在先前结构化剪枝的稀疏训练中,已经得到了BN1的C1个通道中,有D个通道的掩码被标记为0,也就是说这D个维度是需要被剪枝的。
执行前向计算时将需要剪枝的位置对应到Conv1的输出通道,也就是将Conv1的D个通道标记为0,其余标记为1,在剪枝后Conv1输出维度形状将会变化为(B,C1-D,H,W),H表示图像高度,W表示图像宽度,C1-D表示图像通道。
接下来还需要对Conv1的权重进行剪枝,根据第二计算图进行反向传播,计算出权重张量的求解梯度大小,某一算子位置的求解梯度恒等于0,意味着该位置的权重不会被更新,于是将该算子的掩码标记为0,进行剪枝后Conv1的权重形状也就变为(3,C1-D,K1,K1)。
在一些实施例中,上述图像处理方法中确定目标掩码张量的第三步可以包括:
根据第二计算图对第一图像处理模型执行前向计算,并基于第一图像处理模型前向计算的输出结果对第一图像处理模型执行反向计算,确定目标掩码张量。
在该实施例中,根据第二计算图对第一图像处理模型执行前向计算,根据前向计算的输出结果对第一图像处理模型执行反向计算。
对第一图像处理模型执行反向计算,可以以前向计算的输出结果与预期结果间的误差为输入,计算出第一图像处理模型中每层的梯度,也即反向计算输出的求解梯度。
在一些实施例中,上述图像处理方法中确定目标掩码张量的第一步可以包括:
遍历第一图像处理模型的多个算子,确定多个算子的关联关系;
基于多个算子和关联关系,确定第一计算图。
在该实施例中,将结构化剪枝得到的第一图像处理模型遍历,对第一图像处理模型的多个算子进行结构化排序,确定多个算子之间的关联关系,对每个算子确定其上一级算子、下一级算子以及相应的输入输出信息。
根据第一图像处理模型的多个算子,确定出与多个算子相对应的多个第一节点,并根据多个算子之间的关联关系,确定第一计算图中多个第一节点的连接关系。
在实际执行中,根据第一图像处理模型中每个算子所对应的上一级算子、下一级算子以及相应的输入输出信息,确定第一节点所对应的父节点、子节点以及相应的输入输出信息。
在一些实施例中,上述图像处理方法中确定目标掩码张量的第二步可以包括:
将第一计算图中作用域相同的第一节点封装为第二节点,确定第二计算图。
可以理解的是,第一计算图中的多个第一节点对应第一图像处理模型中表征函数执行的操作的多个算子,在第一图像处理模型中,每个算子都具有自己对应的作用域。
在第一图像处理模型中具有多个层,每个层经过拆分后的第一节点都共享同一个作用域,可以通过寻找相同作用域的第一节点,将同一个作用域的第一节点重新封装为新的第二节点,对第一计算图进行封装,得到第二计算图。
在该实施例中,根据第一节点对应的作用域按照层结构逐模块地重新封装,得到新的第二计算图,第二计算图中第二节点与第一图像处理模型的层结构一一对应,第一图像处理模型中每个算子都能在第二计算图中确定出输入输出、域名、父节点及子节点等属性。
下面对非结构化剪枝得到的稀疏模型进行压缩的过程进行描述。
通过非结构化剪枝得到第二图像处理模型,将第二图像处理模型的冗余参数置为0,基于冗余参数置为0的第二图像处理模型,建立目标稀疏矩阵,目标稀疏矩阵用于存储第二图像处理模型中的非0元素。
对第二图像处理模型中的冗余参数进行挖掘,并将挖掘出的冗余参数均置为0,置0操作后的第二图像处理模型中包括0元素和非0元素。
在该实施例中,以稀疏矩阵的形式将第二图像处理模型中的0元素剔除,建立目标稀疏矩阵去存储第二图像处理模型中的非0元素,节省第二图像处理模型所占内存的存储空间,通过目标稀疏矩阵的模型对待处理图像进行图像处理。
例如,通过两个一维稀疏矩阵分别来存储第二图像处理模型的二维矩阵中的所有非0元素的数值与行号起止点。
在该实施例中,以稀疏矩阵的形式将第二图像处理模型中的0元素剔除,节省第二图像处理模型所占内存的存储空间,减少了第二图像处理模型这一稀疏模型部署落地的时间与人力成本,实现模型压缩的同时,不会对模型精度造成影响。
下面介绍一个具体的实施例。
如图2所示,步骤200、模型稀疏化,对初始的带有大量冗余参数的神经网络模型进行剪枝的稀疏化操作,剪枝包括结构化剪枝和非结构化剪枝。
对于结构化剪枝:
步骤210、结构化剪枝,得到第一图像处理模型。
步骤211、表示图重构,利用深度学习训练框架将第一图像处理模型展开,得到对应的第一计算图。
步骤212、算子重封装,根据第一图像处理模型的层结构进行算子对应节点的重新封装,得到第二计算图。
步骤213、创建并更新掩码,根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定第一图像处理模型的目标掩码张量。
步骤214、去除冗余通道,提取目标掩码张量中分量等于1的通道存入初始化好的新算子,去除分量值为0的冗余通道,生成紧凑的目标图像处理模型。
进入步骤230、硬件部署,将步骤214得到的紧凑的目标图像处理模型部署到硬件设备中应用。
对于非结构化剪枝:
步骤220、非结构化剪枝,得到第二图像处理模型。
步骤221、权重置0,对第二图像处理模型中的冗余参数进行挖掘,并将挖掘出的冗余参数均置为0。
步骤222、稀疏矩阵存储,建立目标稀疏矩阵去存储第二图像处理模型中的非0元素,节省第二图像处理模型所占内存的存储空间。
进入步骤230、硬件部署,将步骤222、得到的目标稀疏矩阵部署到硬件设备中应用。
本申请实施例针对剪枝后的稀疏模型进行进一步压缩,减少模型的参数量,得到的紧凑模型和稀疏矩阵能够直接部署在低算力端侧设备,减少了神经网络模型部署落地的时间成本与人力成本。
下面对本申请实施例提供的图像处理装置进行描述,下文描述的图像处理装置与上文描述的图像处理方法可相互对应参照。
如图3所示,本申请实施例提供的图像处理装置包括:
处理模块310,用于将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应;
目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,第一图像处理模型为结构化剪枝得到的模型,第一计算图包括多个第一节点,多个第一节点与第一图像处理模型中的多个算子一一对应;
基于第一计算图,确定第二计算图,第二计算图包括多个第二节点,第二节点为至少一个第一节点封装得到的;
根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。
根据本申请实施例提供的图像处理装置,目标图像处理模型是基于模型剪枝的第一图像处理模型通过自动搜索重构方式,生成的紧凑模型,用于处理待处理图像的目标图像处理模型去除了冗余通道,降低参数量,在不影响模型精度的前提下,提升了模型的计算速度,降低目标图像处理模型部署的硬件设备的硬件要求。
在一些实施例中,处理模块310用于根据第二计算图对第一图像处理模型执行前向计算和对应的反向计算,根据前向计算和对应的反向计算的输出结果,更新每个算子对应的标记掩码;
循环执行前向计算和对应的反向计算,直至每个算子对应的标记掩码均不再更新,基于每个算子对应的标记掩码,得到目标掩码张量。
在一些实施例中,处理模块310用于确定第一图像处理模型中任一算子前向计算的输出结果为0或反向计算的求解梯度为0,将任一算子对应的标记掩码更新为0。
在一些实施例中,处理模块310用于根据第二计算图对第一图像处理模型执行前向计算,并基于第一图像处理模型前向计算的输出结果对第一图像处理模型执行反向计算,确定目标掩码张量。
在一些实施例中,处理模块310用于遍历第一图像处理模型的多个算子,确定多个算子的关联关系;
基于多个算子和关联关系,确定第一计算图。
在一些实施例中,处理模块310用于将第一计算图中作用域相同的第一节点封装为第二节点,确定第二计算图。
在一些实施例中,处理模块310用于在根据第二计算图执行第一图像处理模型的前向计算和反向计算之前,将所述第一图像处理模型中带有权重的算子所对应的权重随机初始化为非0值。
图4示例了一种电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。处理器410可以调用存储器430中的逻辑指令,以执行图像处理方法,该方法包括:将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应;
目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,第一图像处理模型为结构化剪枝得到的模型,第一计算图包括多个第一节点,多个第一节点与第一图像处理模型中的多个算子一一对应;
基于第一计算图,确定第二计算图,第二计算图包括多个第二节点,第二节点为至少一个第一节点封装得到的;
根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。
此外,上述的存储器430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本申请还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法实施例所提供的图像处理方法,该方法包括:将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应;
目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,第一图像处理模型为结构化剪枝得到的模型,第一计算图包括多个第一节点,多个第一节点与第一图像处理模型中的多个算子一一对应;
基于第一计算图,确定第二计算图,第二计算图包括多个第二节点,第二节点为至少一个第一节点封装得到的;
根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。
另一方面,本申请实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的图像处理方法,该方法包括:将待处理图像输入至目标图像处理模型,获得目标图像处理模型输出的目标图像信息,目标图像处理模型基于目标掩码张量建立,目标图像信息中的图像通道与目标掩码张量中分量为1的通道对应;
目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,第一图像处理模型为结构化剪枝得到的模型,第一计算图包括多个第一节点,多个第一节点与第一图像处理模型中的多个算子一一对应;
基于第一计算图,确定第二计算图,第二计算图包括多个第二节点,第二节点为至少一个第一节点封装得到的;
根据第二计算图执行第一图像处理模型的前向计算和反向计算,确定目标掩码张量。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
以上实施方式仅用于说明本申请,而非对本申请的限制。尽管参照实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,对本申请的技术方案进行各种组合、修改或者等同替换,都不脱离本申请技术方案的精神和范围,均应涵盖在本申请的权利要求范围中。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
将待处理图像输入至目标图像处理模型,获得所述目标图像处理模型输出的目标图像信息,所述目标图像处理模型基于目标掩码张量建立,所述目标图像信息中的图像通道与所述目标掩码张量中分量为1的通道对应;
所述目标掩码张量基于如下步骤确定:
获取第一图像处理模型对应的第一计算图,所述第一图像处理模型为结构化剪枝得到的模型,所述第一计算图包括多个第一节点,所述多个第一节点与所述第一图像处理模型中的多个算子一一对应;
基于所述第一计算图,确定第二计算图,所述第二计算图包括多个第二节点,所述第二节点为至少一个所述第一节点封装得到的;
根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量。
2.根据权利要求1所述的图像处理方法,其特征在于,所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量,包括:
根据所述第二计算图对所述第一图像处理模型执行前向计算和对应的反向计算,根据所述前向计算和对应的反向计算的输出结果,更新每个所述算子对应的标记掩码;
循环执行所述前向计算和对应的反向计算,直至每个所述算子对应的标记掩码均不再更新,基于每个所述算子对应的标记掩码,得到所述目标掩码张量。
3.根据权利要求2所述的图像处理方法,其特征在于,所述根据所述第二计算图对所述第一图像处理模型执行前向计算和对应的反向计算,根据所述前向计算和对应的反向计算的输出结果,更新每个所述算子对应的标记掩码,包括:
确定所述第一图像处理模型中任一算子前向计算的输出结果为0或反向计算的求解梯度为0,将所述任一算子对应的标记掩码更新为0。
4.根据权利要求1所述的图像处理方法,其特征在于,所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算,确定所述目标掩码张量,包括:
根据所述第二计算图对所述第一图像处理模型执行前向计算,并基于所述第一图像处理模型前向计算的输出结果对所述第一图像处理模型执行反向计算,确定所述目标掩码张量。
5.根据权利要求1所述的图像处理方法,其特征在于,所述获取第一图像处理模型对应的第一计算图,包括:
遍历所述第一图像处理模型的所述多个算子,确定所述多个算子的关联关系;
基于所述多个算子和所述关联关系,确定所述第一计算图。
6.根据权利要求1-5任一项所述的图像处理方法,其特征在于,所述基于所述第一计算图,确定第二计算图,包括:
将所述第一计算图中作用域相同的所述第一节点封装为所述第二节点,确定所述第二计算图。
7.根据权利要求1-5任一项所述的图像处理方法,其特征在于,在所述根据所述第二计算图执行所述第一图像处理模型的前向计算和反向计算之前,所述方法还包括:
将所述第一图像处理模型中带有权重的算子所对应的权重随机初始化为非0值。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述图像处理方法。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述图像处理方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述图像处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210701707.XA CN115170917B (zh) | 2022-06-20 | 2022-06-20 | 图像处理方法、电子设备及存储介质 |
PCT/CN2023/080053 WO2023246177A1 (zh) | 2022-06-20 | 2023-03-07 | 图像处理方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210701707.XA CN115170917B (zh) | 2022-06-20 | 2022-06-20 | 图像处理方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115170917A true CN115170917A (zh) | 2022-10-11 |
CN115170917B CN115170917B (zh) | 2023-11-07 |
Family
ID=83486568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210701707.XA Active CN115170917B (zh) | 2022-06-20 | 2022-06-20 | 图像处理方法、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115170917B (zh) |
WO (1) | WO2023246177A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023246177A1 (zh) * | 2022-06-20 | 2023-12-28 | 美的集团(上海)有限公司 | 图像处理方法、电子设备及存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993302A (zh) * | 2019-03-06 | 2019-07-09 | 华南理工大学 | 基于知识迁移的卷积神经网络通道自选择压缩与加速方法 |
CN110188795A (zh) * | 2019-04-24 | 2019-08-30 | 华为技术有限公司 | 图像分类方法、数据处理方法和装置 |
CN111652366A (zh) * | 2020-05-09 | 2020-09-11 | 哈尔滨工业大学 | 一种基于通道剪枝和量化训练的联合神经网络模型压缩方法 |
CN112001431A (zh) * | 2020-08-11 | 2020-11-27 | 天津大学 | 一种基于梳状卷积的高效图像分类方法 |
CN112183725A (zh) * | 2020-09-27 | 2021-01-05 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN112508190A (zh) * | 2020-12-10 | 2021-03-16 | 上海燧原科技有限公司 | 结构化稀疏参数的处理方法、装置、设备及存储介质 |
CN112927173A (zh) * | 2021-04-12 | 2021-06-08 | 平安科技(深圳)有限公司 | 模型压缩方法、装置、计算设备及存储介质 |
CN112990458A (zh) * | 2021-04-14 | 2021-06-18 | 北京灵汐科技有限公司 | 卷积神经网络模型的压缩方法及装置 |
CN113157875A (zh) * | 2021-03-12 | 2021-07-23 | 北京智通云联科技有限公司 | 知识图谱问答***、方法及装置 |
CN113469340A (zh) * | 2021-07-06 | 2021-10-01 | 华为技术有限公司 | 一种模型处理方法、联邦学习方法及相关设备 |
CN113673697A (zh) * | 2021-08-24 | 2021-11-19 | 平安科技(深圳)有限公司 | 基于相邻卷积的模型剪枝方法、装置及存储介质 |
US20210397965A1 (en) * | 2020-06-22 | 2021-12-23 | Nokia Technologies Oy | Graph Diffusion for Structured Pruning of Neural Networks |
CN113936047A (zh) * | 2021-10-14 | 2022-01-14 | 重庆大学 | 稠密深度图生成方法及*** |
CN113947185A (zh) * | 2021-09-30 | 2022-01-18 | 北京达佳互联信息技术有限公司 | 任务处理网络生成、任务处理方法、装置、电子设备及存储介质 |
CN114037074A (zh) * | 2021-11-09 | 2022-02-11 | 北京百度网讯科技有限公司 | 一种模型剪枝方法、装置、电子设备及存储介质 |
CN114341891A (zh) * | 2019-09-05 | 2022-04-12 | 华为技术有限公司 | 神经网络剪枝 |
CN114492753A (zh) * | 2022-01-26 | 2022-05-13 | 南京大学 | 一种应用于片上训练的稀疏加速器 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021061172A1 (en) * | 2019-09-27 | 2021-04-01 | Neuralmagic Inc. | System and method of executing neural networks |
CN113298263B (zh) * | 2020-05-13 | 2022-09-13 | 阿里巴巴集团控股有限公司 | 计算图处理、模型运行方法及装置、设备、服务器及终端 |
CN111753983B (zh) * | 2020-06-22 | 2024-05-28 | 深圳鲲云信息科技有限公司 | 神经网络模型的定制化方法、***、设备和存储介质 |
CN114444680A (zh) * | 2020-11-04 | 2022-05-06 | 安徽寒武纪信息科技有限公司 | 神经网络稀疏化的装置、方法及相关产品 |
CN115170917B (zh) * | 2022-06-20 | 2023-11-07 | 美的集团(上海)有限公司 | 图像处理方法、电子设备及存储介质 |
-
2022
- 2022-06-20 CN CN202210701707.XA patent/CN115170917B/zh active Active
-
2023
- 2023-03-07 WO PCT/CN2023/080053 patent/WO2023246177A1/zh unknown
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993302A (zh) * | 2019-03-06 | 2019-07-09 | 华南理工大学 | 基于知识迁移的卷积神经网络通道自选择压缩与加速方法 |
CN110188795A (zh) * | 2019-04-24 | 2019-08-30 | 华为技术有限公司 | 图像分类方法、数据处理方法和装置 |
CN114341891A (zh) * | 2019-09-05 | 2022-04-12 | 华为技术有限公司 | 神经网络剪枝 |
CN111652366A (zh) * | 2020-05-09 | 2020-09-11 | 哈尔滨工业大学 | 一种基于通道剪枝和量化训练的联合神经网络模型压缩方法 |
US20210397965A1 (en) * | 2020-06-22 | 2021-12-23 | Nokia Technologies Oy | Graph Diffusion for Structured Pruning of Neural Networks |
CN112001431A (zh) * | 2020-08-11 | 2020-11-27 | 天津大学 | 一种基于梳状卷积的高效图像分类方法 |
CN112183725A (zh) * | 2020-09-27 | 2021-01-05 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN112508190A (zh) * | 2020-12-10 | 2021-03-16 | 上海燧原科技有限公司 | 结构化稀疏参数的处理方法、装置、设备及存储介质 |
CN113157875A (zh) * | 2021-03-12 | 2021-07-23 | 北京智通云联科技有限公司 | 知识图谱问答***、方法及装置 |
CN112927173A (zh) * | 2021-04-12 | 2021-06-08 | 平安科技(深圳)有限公司 | 模型压缩方法、装置、计算设备及存储介质 |
CN112990458A (zh) * | 2021-04-14 | 2021-06-18 | 北京灵汐科技有限公司 | 卷积神经网络模型的压缩方法及装置 |
CN113469340A (zh) * | 2021-07-06 | 2021-10-01 | 华为技术有限公司 | 一种模型处理方法、联邦学习方法及相关设备 |
CN113673697A (zh) * | 2021-08-24 | 2021-11-19 | 平安科技(深圳)有限公司 | 基于相邻卷积的模型剪枝方法、装置及存储介质 |
CN113947185A (zh) * | 2021-09-30 | 2022-01-18 | 北京达佳互联信息技术有限公司 | 任务处理网络生成、任务处理方法、装置、电子设备及存储介质 |
CN113936047A (zh) * | 2021-10-14 | 2022-01-14 | 重庆大学 | 稠密深度图生成方法及*** |
CN114037074A (zh) * | 2021-11-09 | 2022-02-11 | 北京百度网讯科技有限公司 | 一种模型剪枝方法、装置、电子设备及存储介质 |
CN114492753A (zh) * | 2022-01-26 | 2022-05-13 | 南京大学 | 一种应用于片上训练的稀疏加速器 |
Non-Patent Citations (2)
Title |
---|
HUIYUAN CHEN ET AL.: "Structured Graph Convolutional Networks with Stochastic Masks for Recommender Systems", 《PROCEEDINGS OF THE 44TH INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL》, pages 614 - 623 * |
孙依然: "面向深度神经网络的模型压缩与加速研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 01, pages 3 - 5 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023246177A1 (zh) * | 2022-06-20 | 2023-12-28 | 美的集团(上海)有限公司 | 图像处理方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115170917B (zh) | 2023-11-07 |
WO2023246177A1 (zh) | 2023-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3938950B1 (en) | Spatially sparse convolutional neural networks for inking applications | |
CN108021982A (zh) | 数据传输方法和***、电子设备 | |
CN114124567A (zh) | 基于大数据漏洞挖掘的云服务处理方法及人工智能*** | |
CN111435367B (zh) | 知识图谱的构建方法、***、设备及存储介质 | |
CN115170917A (zh) | 图像处理方法、电子设备及存储介质 | |
CN112766466A (zh) | 一种神经网络架构搜索的方法、装置和电子设备 | |
CN114282666A (zh) | 基于局部稀疏约束的结构化剪枝方法和装置 | |
CN111709415B (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN114157507A (zh) | 采用大数据分析的云服务漏洞分析方法及人工智能*** | |
CN111427684A (zh) | 一种服务部署的方法、***、及装置 | |
CN112101364A (zh) | 基于参数重要性增量学习的语义分割方法 | |
CN115344805A (zh) | 素材审核方法、计算设备及存储介质 | |
CN112329551A (zh) | 无人机自主降落方法及模型训练方法 | |
CN112070227A (zh) | 一种神经网络训练方法和装置以及设备 | |
CN116306951A (zh) | 一种量子计算方法和装置、电子设备和存储介质 | |
CN112990046B (zh) | 差异信息获取方法、相关装置及计算机程序产品 | |
CN116310308A (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN114998668A (zh) | 特征提取方法、装置、存储介质及电子设备 | |
CN114861934A (zh) | 用于机器学习模型的模型量化方法、装置及设备 | |
CN110825311B (zh) | 用于存储数据的方法和装置 | |
CN114757244A (zh) | 模型训练方法、装置、存储介质及设备 | |
CN114124654A (zh) | 告警合并方法、装置、计算设备及计算机存储介质 | |
EP4170546A1 (en) | Data processing method and apparatus, and related device | |
CN114819171B (zh) | 一种量子卷积操作的实现方法及装置 | |
CN113364632B (zh) | 业务***架构图生成方法、设备、存储介质及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |