CN117787380A - 模型获取方法、装置、介质及设备 - Google Patents
模型获取方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN117787380A CN117787380A CN202311812453.XA CN202311812453A CN117787380A CN 117787380 A CN117787380 A CN 117787380A CN 202311812453 A CN202311812453 A CN 202311812453A CN 117787380 A CN117787380 A CN 117787380A
- Authority
- CN
- China
- Prior art keywords
- model
- feature
- text information
- diffusion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000009792 diffusion process Methods 0.000 claims abstract description 151
- 238000013140 knowledge distillation Methods 0.000 claims abstract description 39
- 238000012216 screening Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004821 distillation Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000007907 direct compression Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请提供一种模型获取方法、模型获取装置、计算机可读存储介质及电子设备,涉及人工智能技术领域,该方法可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
Description
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种模型获取方法、模型获取装置、计算机可读存储介质及电子设备。
背景技术
扩散模型,是一种用于根据文字生成图片的深度学习模型。扩散模型能够结合自然语言处理和计算机视觉领域的技术,基于文本描述生成图像。但是,扩散模型的推理速度受限于复杂的网络结构和多次的迭代去噪,因此,运行扩散模型存在计算成本高的问题和运行速度慢的问题。
为了解决这一问题,在相关技术中,引入了云端推理平台来负担大部分的计算任务,但是,在这种方案中,由于用户需要将数据发送至云端推理平台,以触发云端推理平台执行计算任务,因此,用户隐私的安全性无法得到有效保障。还有一些相关技术使用了模型量化技术来提升模型推理效率并同时保障用户隐私,但是,模型量化技术对于模型的直接压缩会影响模型推理结果的准确率。
可见,相关技术中不存在能够同时轻量化推理模型且兼顾模型精度的方案。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有方案的信息。
发明内容
本申请的目的在于提供一种模型获取方法、模型获取装置、计算机可读存储介质及电子设备,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请的一方面,提供一种模型获取方法,该方法包括:
获取噪声图像特征和文本信息特征;
基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率;
基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型;
结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
在本申请的一种示例性实施例中,获取文本信息特征,包括:
响应于检测到的文本信息,调用文生图服务接口;
基于文生图服务接口触发扩散模型启动,并通过文本编码器提取文本信息的文本信息特征。
在本申请的一种示例性实施例中,获取噪声图像特征,包括:
通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
在本申请的一种示例性实施例中,基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,包括:
依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻对应的去噪图像特征;
确定当前传播时刻对应的当前结构层的特征映射;
根据去噪图像特征和文本信息特征生成交叉注意力特征,并根据特征映射和交叉注意力特征确定注意力层概率;
根据去噪图像特征和当前传播时刻生成残差特征,并根据特征映射和残差特征确定残差层概率。
在本申请的一种示例性实施例中,根据去噪图像特征和文本信息特征生成交叉注意力特征,包括:
确定去噪图像特征对应的查询特征,并确定文本信息特征对应的键特征;
确定查询特征和键特征之间的条件映射;
根据条件映射、同段标记参数、异段标记参数,生成调制参数;
根据查询特征、键特征、调制参数、键特征和查询特征的长度,计算交叉注意力特征。
在本申请的一种示例性实施例中,基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型,包括:
选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
在本申请的一种示例性实施例中,结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型,包括:
多次迭代扩散模型得到第一参考模型,并单次迭代扩散模型得到第二参考模型;
基于第一参考模型将第二参考模型约束为第三参考模型;
多次迭代第三参考模型得到第四参考模型,并单次迭代参考扩散模型得到第五参考模型;
基于第四参考模型将第五参考模型约束为第六参考模型;
多次迭代第六参考模型得到第七参考模型,并基于第七参考模型将第五参考模型约束为目标模型。
在本申请的一种示例性实施例中,还包括:
获取目标模型输出的与文本信息对应的图像编码;
将图像编码解码为目标图像,并通过文生图服务接口输出目标图像。
根据本申请的一方面,提供一种模型获取装置,包括:
特征获取单元,用于获取噪声图像特征和文本信息特征;
网络层概率计算单元,用于基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率;
模型简化单元,用于基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型;
知识蒸馏单元,用于结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
在本申请的一种示例性实施例中,特征获取单元获取文本信息特征,包括:
响应于检测到的文本信息,调用文生图服务接口;
基于文生图服务接口触发扩散模型启动,并通过文本编码器提取文本信息的文本信息特征。
在本申请的一种示例性实施例中,特征获取单元获取噪声图像特征,包括:
通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
在本申请的一种示例性实施例中,网络层概率计算单元基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,包括:
依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻对应的去噪图像特征;
确定当前传播时刻对应的当前结构层的特征映射;
根据去噪图像特征和文本信息特征生成交叉注意力特征,并根据特征映射和交叉注意力特征确定注意力层概率;
根据去噪图像特征和当前传播时刻生成残差特征,并根据特征映射和残差特征确定残差层概率。
在本申请的一种示例性实施例中,网络层概率计算单元根据去噪图像特征和文本信息特征生成交叉注意力特征,包括:
确定去噪图像特征对应的查询特征,并确定文本信息特征对应的键特征;
确定查询特征和键特征之间的条件映射;
根据条件映射、同段标记参数、异段标记参数,生成调制参数;
根据查询特征、键特征、调制参数、键特征和查询特征的长度,计算交叉注意力特征。
在本申请的一种示例性实施例中,模型简化单元基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型,包括:
选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
在本申请的一种示例性实施例中,知识蒸馏单元结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型,包括:
多次迭代扩散模型得到第一参考模型,并单次迭代扩散模型得到第二参考模型;
基于第一参考模型将第二参考模型约束为第三参考模型;
多次迭代第三参考模型得到第四参考模型,并单次迭代参考扩散模型得到第五参考模型;
基于第四参考模型将第五参考模型约束为第六参考模型;
多次迭代第六参考模型得到第七参考模型,并基于第七参考模型将第五参考模型约束为目标模型。
在本申请的一种示例性实施例中,还包括:
图像编码获取单元,用于获取目标模型输出的与文本信息对应的图像编码;
图像输出单元,用于将图像编码解码为目标图像,并通过文生图服务接口输出目标图像。
根据本申请的一方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一项的方法。
根据本申请的一方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述任意一项的方法。
本申请示例性实施例可以具有以下部分或全部有益效果:
在本申请的一示例实施方式所提供的模型获取方法中,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了根据本申请的一个实施例的模型获取方法的流程图;
图2示意性示出了根据本申请的一个实施例的知识蒸馏过程示意图;
图3示意性示出了根据本申请的一个实施例用于实现模型获取方法的***架构图;
图4示意性示出了根据本申请的另一个实施例的模型获取方法的流程图;
图5示意性示出了根据本申请的一个实施例的模型获取装置的结构图;
图6示意性示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本申请的各方面变得模糊。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
请参阅图1,图1示意性示出了根据本申请的一个实施例的模型获取方法的流程图。如图1所示,该模型获取方法可以包括:步骤S110~步骤S140。
步骤S110:获取噪声图像特征和文本信息特征。
步骤S120:基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率。
步骤S130:基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型。
步骤S140:结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
实施图1所示的方法,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S110中,获取噪声图像特征和文本信息特征。
具体地,噪声图像特征是通过矩阵/向量表征噪声图像的数据形式,文本信息特征是通过矩阵/向量表征文本信息的数据形式。为了能够实现文生图,可以先获取到所需的噪声图像特征和文本信息特征,进而通过结合文本信息特征对噪声图像特征不断去噪,来将噪声图像转换为与文本信息相对应的图像。例如,文本信息为:“四个人开会”,那么,与文本信息相对应的图像的画面中应当包含四个人以及与开会相关的元素,如,桌子、纸、笔等。其中,文生图(Text-to-Image),指的是基于文本通过生成式AI生成图像的模式。
作为步骤S110的一种可选的实施例,获取文本信息特征,包括:
步骤S1101:响应于检测到的文本信息,调用文生图服务接口;
步骤S1102:基于文生图服务接口触发扩散模型启动,并通过文本编码器提取文本信息的文本信息特征。
可见,实施该可选的实施例,可以向外提供文生图服务接口以供调用,基于文生图服务接口可以触发扩散模型执行推理过程,无需向远端服务器请求文生图服务,可以在一定程度上保护包含文本信息在内的用户隐私的安全性,规避远距离传输以及异地文生图带来的数据泄露风险。
具体地,为了能够便于用户调用文生图服务,本申请公开了一种可以部署于用户设备中的文生图服务接口(API),文生图服务接口用于触发扩散模型执行推理过程并用于在文生图完成后输出生成的目标图像。
当用户存在文生图需求时,可以通过调用该文生图服务接口来触发轻量化扩散模型生成文本信息对应的目标图像。具体地,在检测到的文本信息时,可以响应于文本信息调用文生图服务接口,以使得文生图服务接口触发扩散模型执行推理过程,并通过文本编码器提取文本信息的文本信息特征;其中,文本信息可以表示包括字符、数值、符号等,本申请实施例不作限定。此外,文本编码器可以用于将文本信息编码为适于输入扩散模型的格式,文本编码器中包括但不限于文本分词、词嵌入模块、语法语义分析模块等。
作为步骤S110的一种可选的实施例,获取噪声图像特征,包括:
步骤S1103:通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
可见,实施该可选的实施例,可以先基于图像编码器将噪声图像编码为适合输入扩散模型的噪声图像特征,以便进行后续的文生图操作。
具体地,图像编码器可以用于噪声图像编码为适于输入扩散模型的格式。具体地,图像编码器可以将对应于高维图像空间(如,RGB空间)的噪声图像降维编码为潜在空间(latent space)的噪声图像特征,噪声图像特征对应的空间表示维度,少于噪声图像对应的空间表示维度,这样做的目的在于提升模型的推理效率,节约所需的计算资源。
其中,潜在空间,是在机器学习中用于表示数据的一种低维空间。潜在空间也可以被理解为,数据中包含的所有有用信息的压缩表示。潜在空间可以由多种方法生成,如,主成分分析(PCA)、深度神经网络(DNN)等。其中,PCA是一种线性降维方法,用于通过寻找原始数据的线性组合来生成潜在空间。DNN是一种非线性降维方法,用于通过学习数据中的非线性关系来生成潜在空间。一般来说,潜在空间应用于数据压缩、数据可视化、数据挖掘、机器学习等方面,可以节省存储空间和计算资源、发现数据中隐藏的知识、或者提高模型的性能等。
此外,需要说明的是,步骤S1101~步骤S1102限定的实施例,与步骤S1103限定的实施例之间,不存在执行顺序上的先后关系。即,可以先执行步骤S1101~步骤S1102再执行步骤S1103,也可以先执行步骤S1103后执行步骤S1101~步骤S1102,步骤S1101~步骤S1102和步骤S1103也可以是并行执行的,本申请实施例不作限定。
在步骤S120中,基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率。
具体地,前向传播是神经网络中的常用的一种算法,神经网络中包含前向传播算法和反向传播算法。其中,前向传播指的是神经网络从输入层到输出层的传播过程。在前向传播过程中,在每一层节点中进行加权与激活计算,得到当前层的输出结果,并将其传递到下一层。这个过程一直持续到神经网络的输出层,从而得到神经网络的最终预测结果。反向传播是指在前向传播过程中,通过计算神经网络的误差,将误差从输出层向输入层传播的过程。在反向传播过程中,误差可以分解为不同节点的误差,通过链式法则将误差逐层向后传递,计算权重和偏差的梯度,并随着梯度下降算法不断调整神经网络的参数。通过反向传播过程,神经网络不断地调整自己的参数,以使得目标函数的误差最小化。一般来说,通过前向传播和反向传播的交替使用,神经网络可以不断迭代优化自己的参数,以提高预测的准确性和泛化能力。
在本申请中,可以基于注意力层概率和残差层概率进行选择性地执行交叉注意力层/残差层,因此,本申请结合的是随机前向传播策略。基于随机前向传播策略、噪声图像特征和文本信息特征确定的注意力层概率和残差层概率,可以实现对于包含注意力层和残差层的扩散模型的简化。其中,扩散模型基于分割模型(Convolutional Networks forBiomedical Image Segmentation,U-Net)实现,U-Net是一种使用全卷积网络进行语义分割的模型,呈U形结构,具备图像去噪优势,可以应用于扩散模型以对噪声进行迭代去除。U-Net的网络结构包括下采样阶段和上采样阶段,网络结构中只包含卷积层和池化层,不包含全连接层,通过网络结构中较浅的网络层可以解决像素定位的问题,通过网络结构中较深的网络层可以解决像素分类的问题,从而实现图像语义级别的分割。
具体地,U-Net的网络结构包含一个编码器和一个解码器。其中,编码器包含四个子模块,每个子模块中包含两个卷积层,每个子模块之后存在一个实现为最大池化层的下采样层;其中,在深度学习领域中,卷积模式包括:用于指示从卷积核(fileter)和输入刚相交就开始做卷积并在没有元素的部分执行补0操作的Full模式;用于指示当卷积核的中心和输入开始相交时做卷积并在没有元素的部分执行补0操作的Same模式;用于指示卷积核和输入完全相交开始做卷积的Valid模式。U-Net中的卷积层采用的是valid模式。编码器中的四个子模块的输入分辨率按照其顺序依次递减,解码器中的四个子模块的输入分辨率按照其顺序依次递增,直到与输入U-Net的图像分辨率一致。此外,U-Net还包括跳跃连接,用于将上采样结果与编码器中具有相同分辨率的子模块的输出进行连接,作为解码器中下一个子模块的输入。
作为步骤S120的一种可选的实施例,基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,包括:
步骤S1201:依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻对应的去噪图像特征;
步骤S1202:确定当前传播时刻对应的当前结构层的特征映射;
步骤S1203:根据去噪图像特征和文本信息特征生成交叉注意力特征,并根据特征映射和交叉注意力特征确定注意力层概率;
步骤S1204:根据去噪图像特征和当前传播时刻生成残差特征,并根据特征映射和残差特征确定残差层概率。
可见,实施该可选的实施例,可以基于自动化的网络架构搜索,结合随机前向传播计算公式,避免现有的剪枝技术和量化技术所导致的模型输出效果差的问题,并且无需进行大量多次的微调训练来恢复模型性能,可以在确保模型精度的前提下提升模型推理效率。
具体地,在随机前向传播策略中,涉及多个时刻,由于针对每个时刻的处理方式相同,因此,此处针对一个时刻进行讨论。首先可以依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻t对应的去噪图像特征zt,进而,可以确定当前传播时刻t对应的当前结构层的特征映射I,当前结构层可以包含多个卷积层,特征映射I是当前结构层的最终输出结果,在扩散模型中,可以包含多个结构层。进而,根据去噪图像特征zt和文本信息特征c生成交叉注意力特征cross_attention(zt,c),并根据特征映射I和交叉注意力特征cross_attention(zt,c)确定注意力层概率p(cross_attention(zt,c),I)。以及,可以根据去噪图像特征zt和当前传播时刻t生成残差特征ResNet(zt,t),并根据特征映射I和残差特征ResNet(zt,t)确定残差层概率p(ResNet(zt,t),I)。
作为步骤S1203的一种可选的实施例,根据去噪图像特征和文本信息特征生成交叉注意力特征,包括:
步骤S12031:确定去噪图像特征对应的查询特征,并确定文本信息特征对应的键特征;
步骤S12032:确定查询特征和键特征之间的条件映射;
步骤S12033:根据条件映射、同段标记参数、异段标记参数,生成调制参数;
步骤S12034:根据查询特征、键特征、调制参数、键特征和查询特征的长度,计算交叉注意力特征。
可见,实施该可选的实施例,可以通过改进交叉注意力特征的生成机制,提升了交叉注意力特征的表征精度,相较于相关技术,本申请还可以,并基于根据条件映射、同段标记参数、异段标记参数,生成调制参数,调制参数可以基于条件映射对最终的交叉注意力特征产生影响,调制参数表征的特征相关度越高,交叉注意力特征的数值越大,调制参数表征的特征相关度越低,交叉注意力特征的数值越小,这样可以提升交叉注意力特征精度。
一般来说,自注意力的计算方式在于其中,查询(Q)、键(K)和值(V)都来自于同一个输入序列,查询(Q)代表需要获取信息的请求,键(K)是与Q相关性的衡量标准,值(V)包含需要被提取信息的实际数据。计算A可以使得模型关注输入序列中的其他部分以产生一个位置的输出,主要目的是捕捉输入序列内部的依赖关系。在Transformer的编码器(Encoder)和解码器(Decoder)的每一层中均存在自注意力,用于允许输入序列的每个部分关注序列中的其他部分。
但是,在本申请中,由于需要关注去噪图像特征和文本信息特征之间的关系,因此,本申请将改进为/>M=λR⊙Mpos-λ(1-R)⊙Mneg。基于此,可以确定去噪图像特征对应的查询特征(Q),并确定文本信息特征对应的键特征(K),进而确定查询特征(Q)和键特征(K)之间的条件映射(R),条件映射(R)用于表征查询特征(Q)和键特征(K)之间的关系,用于影响M的值。进而,可以将条件映射(R)代入M=λR⊙Mpos-λ(1-R)⊙Mneg以计算得到调制参数(M);其中,作为同段标记参数的Mpos用于表征去噪图像特征和文本信息特征之间相匹配,Mpos起到提升注意力值的作用,作为异段标记参数的Mneg用于表征去噪图像特征和文本信息特征之间不匹配,Mneg起到降低注意力值的作用,λ为权重系数。进而,可以根据查询特征(Q)、键特征(K)、调制参数(M)、键特征和查询特征的长度(d),计算交叉注意力特征cross_attention(zt,c)。
在步骤S130中,基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型。
具体地,基于注意力层概率和残差层概率对扩散模型(U-Net)进行层筛选后可以得到参考扩散模型(U-Net-s),参考扩散模型(U-Net-s)的体量小于扩散模型(U-Net)。
作为步骤S130的一种可选的实施例,基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型,包括:
步骤S1301:选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
可见,实施该可选的实施例,可以实现对于扩散模型的化简,相当于精简了扩散模型的网络结构,可以有利于减少推理过程中所需的计算资源和时间,降低模型推理延迟。
具体地,基于表达式可以选取注意力层概率和残差层概率中的最大概率对应的层执行,最大概率对应的层可以是注意力层也可以是残差层,进而,通过对于注意力层和残差层的筛选可以得到参考扩散模型;其中,forward(·)指的是随机前向传播结果。
在步骤S140中,结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
具体地,知识蒸馏(knowledge distillation)操作用于实现模型压缩,不同于剪枝操作和量化操作,知识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息训练小模型,以期达到更好的性能和精度。其中,大模型可以称之为教师模型(teacher模型),小模型可以称之为学生模型(student模型),来自教师模型(teacher模型)输出的监督信息可以称之为知识(knowledge),学生模型(student模型)学习知识(knowledge)的过程称之为蒸馏(Distillation)。基于知识蒸馏得到的轻量化学生模型可以具备更强的泛化能力。
结合扩散模型和参考扩散模型执行知识蒸馏操作后,得到的目标模型可以理解为,经过简化扩展模型和蒸馏操作后得到的模型。
作为步骤S140的一种可选的实施例,结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型,包括:
步骤S1401:多次迭代扩散模型得到第一参考模型,并单次迭代扩散模型得到第二参考模型;
步骤S1402:基于第一参考模型将第二参考模型约束为第三参考模型;
步骤S1403:多次迭代第三参考模型得到第四参考模型,并单次迭代参考扩散模型得到第五参考模型;
步骤S1404:基于第四参考模型将第五参考模型约束为第六参考模型;
步骤S1405:多次迭代第六参考模型得到第七参考模型,并基于第七参考模型将第五参考模型约束为目标模型。
可见,实施该可选的实施例,可以通过多次知识蒸馏操作,从原始的大体量的扩散模型中蒸馏出一个小体量的目标模型,这样不仅使得目标模型的部署效率更高,还有利于节约计算资源,降低对于设备的能源消耗,提升了文生图效率。
具体地,为了能够减少迭代去噪的次数,可以通过知识蒸馏的方式进行模型压缩。可选的,本实施例给出了进行3次知识蒸馏的方式,可以理解的是,在实际应用过程中,也可以基于实际需求调整知识蒸馏的次数,本申请实施例不作限定。
结合图2理解此实施例,图2示意性示出了根据本申请的一个实施例的知识蒸馏过程示意图。如图2所示,在第一次知识蒸馏的过程中,可以对扩散模型(U-Net)进行两次迭代得到第一参考模型,并单次迭代扩散模型(U-Net)得到第二参考模型,进而以第一参考模型的输出作为监督信息将第二参考模型约束为第三参考模型,约束得到的第三参考模型相较于第二参考模型,学习到了第一参考模型的知识,具备更高的模型精度;其中,第一次知识蒸馏中,第一参考模型作为64步的教师模型,第二参考模型作为学生模型,约束得到的32步的第三参考模型可以作为第二次知识蒸馏的教师模型。
在第二次知识蒸馏的过程中,可以对第三参考模型(U-Net)进行两次迭代得到第四参考模型,并单次迭代参考扩散模型(U-Net-s)得到第五参考模型,进而以第四参考模型的输出作为监督信息将第五参考模型约束为第六参考模型,约束得到的第六参考模型相较于第五参考模型,学习到了第四参考模型的知识,具备更高的模型精度;其中,第二次知识蒸馏中,参考扩散模型作为学生模型,约束得到的16步的第六参考模型可以作为第三次知识蒸馏的教师模型。
在第三次知识蒸馏的过程中,可以对第六参考模型(U-Net-s)进行两次迭代得到第七参考模型,并单次迭代参考扩散模型(U-Net-s)得到第五参考模型,进而以第七参考模型的输出作为监督信息将第五参考模型约束为目标模型,约束得到的目标模型相较于第五参考模型,学习到了第七参考模型的知识,具备更高的模型精度;其中,第三次知识蒸馏中,参考扩散模型作为学生模型,约束得到的8步的目标模型为最终所需的模型。
作为一种可选的实施例,还包括:
步骤S150:获取目标模型输出的与文本信息对应的图像编码;
步骤S160:将图像编码解码为目标图像,并通过文生图服务接口输出目标图像。
可见,实施该可选的实施例,可以通过文生图服务接口将与文本信息对应的目标图像输出给用户,以完成文生图任务。
具体地,可以获取到目标模型输出的与文本信息对应的图像编码,图像编码是潜空间中的数据表示,因此可以基于图像解码器将图像编码解码为RGB空间的目标图像,并通过文生图服务接口输出目标图像,以供用户查看。
请参阅图3,图3示意性示出了根据本申请的一个实施例用于实现模型获取方法的***架构图。如图3所示,***架构包括:文生图服务接口310、文本编码器320、U-Net-s模块330、图像编码器340、图像解码器350。其中,U-Net-s模块330包括网络去冗余组件331和分布蒸馏组件332。
具体地,文生图服务接口310可以接收文本信息。进而,文生图服务接口310可以触发扩散模型启动,并将文本信息输入文本编码器320,以使得文本编码器320提取文本信息的文本信息特征,并将文本信息特征输入U-Net-s模块330。以及,图像编码器340可以获取噪声图像,并对噪声图像进行降维编码,得到噪声图像特征,并将噪声图像特征输入U-Net-s模块330。
进而,U-Net-s模块330中的网络去冗余组件331可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,并基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型。U-Net-s模块330中的分布蒸馏组件332可以结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
进而,图像解码器350可以获取目标模型输出的与文本信息对应的图像编码,并将图像编码解码为目标图像,通过文生图服务接口310输出目标图像。
可见,实施图3所示的***架构,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
请参阅图4,图4示意性示出了根据本申请的另一个实施例的模型获取方法的流程图。如图4所示,该模型获取方法可以包括:步骤S410~步骤S470。
步骤S410:响应于检测到的文本信息,调用文生图服务接口,并基于文生图服务接口触发扩散模型启动,进而,通过文本编码器提取文本信息的文本信息特征,并通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
步骤S420:依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻对应的去噪图像特征,并确定当前传播时刻对应的当前结构层的特征映射。
步骤S430:确定去噪图像特征对应的查询特征,并确定文本信息特征对应的键特征,确定查询特征和键特征之间的条件映射,根据条件映射、同段标记参数、异段标记参数,生成调制参数,根据查询特征、键特征、调制参数、键特征和查询特征的长度,计算交叉注意力特征,并根据特征映射和交叉注意力特征确定注意力层概率。
步骤S440:根据去噪图像特征和当前传播时刻生成残差特征,并根据特征映射和残差特征确定残差层概率。
步骤S450:选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
步骤S460:多次迭代扩散模型得到第一参考模型,并单次迭代扩散模型得到第二参考模型,基于第一参考模型将第二参考模型约束为第三参考模型,多次迭代第三参考模型得到第四参考模型,并单次迭代参考扩散模型得到第五参考模型,基于第四参考模型将第五参考模型约束为第六参考模型,多次迭代第六参考模型得到第七参考模型,并基于第七参考模型将第五参考模型约束为目标模型。
步骤S470:获取目标模型输出的与文本信息对应的图像编码,并将图像编码解码为目标图像,并通过文生图服务接口输出目标图像。
需要说明的是,步骤S410~步骤S470与图1所示的各步骤及其实施例相对应,针对步骤S410~步骤S470的具体实施方式,请参阅图1所示的各步骤及其实施例,此处不再赘述。
可见,实施图4所示的模型获取方法,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
请参阅图5,图5示意性示出了根据本申请的一个实施例的模型获取装置的结构图。模型获取装置500与图1所示的方法相对应,如图5所示,该模型获取装置500包括:
特征获取单元501,用于获取噪声图像特征和文本信息特征;
网络层概率计算单元502,用于基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率;
模型简化单元503,用于基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型;
知识蒸馏单元504,用于结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型。
可见,实施图5所示的模型获取装置,可以基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,基于注意力层概率和残差层概率可以对扩散模型进行层筛选,以达到简化扩散模型的目的,进而,再结合扩散模型和参考扩散模型进行知识蒸馏,可以在保证模型精度的同时缩小模型的体量,因此,相较于相关技术,本申请可以达到简化/轻量化扩散模型而不损失模型精度的目的,基于这种方式获得的目标模型不仅可以输出精度更高的模型推理结果,并且可以节约模型推理时间,提升模型推理效率,降低性能消耗。
在本申请的一种示例性实施例中,特征获取单元501获取文本信息特征,包括:
响应于检测到的文本信息,调用文生图服务接口;
基于文生图服务接口触发扩散模型启动,并通过文本编码器提取文本信息的文本信息特征。
可见,实施该可选的实施例,可以向外提供文生图服务接口以供调用,基于文生图服务接口可以触发扩散模型执行推理过程,无需向远端服务器请求文生图服务,可以在一定程度上保护包含文本信息在内的用户隐私的安全性,规避远距离传输以及异地文生图带来的数据泄露风险。
在本申请的一种示例性实施例中,特征获取单元501获取噪声图像特征,包括:
通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
可见,实施该可选的实施例,可以先基于图像编码器将噪声图像编码为适合输入扩散模型的噪声图像特征,以便进行后续的文生图操作。
在本申请的一种示例性实施例中,网络层概率计算单元502基于随机前向传播策略、噪声图像特征和文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,包括:
依照随机前向传播策略并基于噪声图像特征,确定当前传播时刻对应的去噪图像特征;
确定当前传播时刻对应的当前结构层的特征映射;
根据去噪图像特征和文本信息特征生成交叉注意力特征,并根据特征映射和交叉注意力特征确定注意力层概率;
根据去噪图像特征和当前传播时刻生成残差特征,并根据特征映射和残差特征确定残差层概率。
可见,实施该可选的实施例,可以基于自动化的网络架构搜索,结合随机前向传播计算公式,避免现有的剪枝技术和量化技术所导致的模型输出效果差的问题,并且无需进行大量多次的微调训练来恢复模型性能,可以在确保模型精度的前提下提升模型推理效率。
在本申请的一种示例性实施例中,网络层概率计算单元502根据去噪图像特征和文本信息特征生成交叉注意力特征,包括:
确定去噪图像特征对应的查询特征,并确定文本信息特征对应的键特征;
确定查询特征和键特征之间的条件映射;
根据条件映射、同段标记参数、异段标记参数,生成调制参数;
根据查询特征、键特征、调制参数、键特征和查询特征的长度,计算交叉注意力特征。
可见,实施该可选的实施例,可以通过改进交叉注意力特征的生成机制,提升了交叉注意力特征的表征精度,相较于相关技术,本申请还可以,并基于根据条件映射、同段标记参数、异段标记参数,生成调制参数,调制参数可以基于条件映射对最终的交叉注意力特征产生影响,调制参数表征的特征相关度越高,交叉注意力特征的数值越大,调制参数表征的特征相关度越低,交叉注意力特征的数值越小,这样可以提升交叉注意力特征精度。
在本申请的一种示例性实施例中,模型简化单元503基于注意力层概率和残差层概率对扩散模型进行层筛选,以得到参考扩散模型,包括:
选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
可见,实施该可选的实施例,可以实现对于扩散模型的化简,相当于精简了扩散模型的网络结构,可以有利于减少推理过程中所需的计算资源和时间,降低模型推理延迟。
在本申请的一种示例性实施例中,知识蒸馏单元504结合扩散模型和参考扩散模型执行知识蒸馏操作,以得到目标模型,包括:
多次迭代扩散模型得到第一参考模型,并单次迭代扩散模型得到第二参考模型;
基于第一参考模型将第二参考模型约束为第三参考模型;
多次迭代第三参考模型得到第四参考模型,并单次迭代参考扩散模型得到第五参考模型;
基于第四参考模型将第五参考模型约束为第六参考模型;
多次迭代第六参考模型得到第七参考模型,并基于第七参考模型将第五参考模型约束为目标模型。
可见,实施该可选的实施例,可以通过多次知识蒸馏操作,从原始的大体量的扩散模型中蒸馏出一个小体量的目标模型,这样不仅使得目标模型的部署效率更高,还有利于节约计算资源,降低对于设备的能源消耗,提升了文生图效率。
在本申请的一种示例性实施例中,还包括:
图像编码获取单元,用于获取目标模型输出的与文本信息对应的图像编码;
图像输出单元,用于将图像编码解码为目标图像,并通过文生图服务接口输出目标图像。
可见,实施该可选的实施例,可以通过文生图服务接口将与文本信息对应的目标图像输出给用户,以完成文生图任务。
由于本申请的示例实施例的基于区块链的网关身份注册装置的各个功能模块与上述基于区块链的网关身份注册方法的示例实施例的步骤对应,因此对于本申请装置实施例中未披露的细节,请参照本申请上述的基于区块链的网关身份注册方法的实施例。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
请参阅图6,图6示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
需要说明的是,图6示出的电子设备的计算机***600仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从储存部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***操作所需的各种程序和数据。CPU601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的储存部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入储存部分608。
特别地,根据本申请的实施例,上述参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法和装置中限定的各种功能。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由前述的权利要求指出。
Claims (11)
1.一种模型获取方法,其特征在于,包括:
获取噪声图像特征和文本信息特征;
基于随机前向传播策略、所述噪声图像特征和所述文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率;
基于注意力层概率和残差层概率对所述扩散模型进行层筛选,以得到参考扩散模型;
结合所述扩散模型和所述参考扩散模型执行知识蒸馏操作,以得到目标模型。
2.根据权利要求1所述的方法,其特征在于,获取文本信息特征,包括:
响应于检测到的文本信息,调用文生图服务接口;
基于所述文生图服务接口触发所述扩散模型启动,并通过文本编码器提取所述文本信息的文本信息特征。
3.根据权利要求1所述的方法,其特征在于,获取噪声图像特征,包括:
通过图像编码器对噪声图像进行降维编码,得到噪声图像特征。
4.根据权利要求1所述的方法,其特征在于,基于随机前向传播策略、所述噪声图像特征和所述文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率,包括:
依照随机前向传播策略并基于所述噪声图像特征,确定当前传播时刻对应的去噪图像特征;
确定所述当前传播时刻对应的当前结构层的特征映射;
根据所述去噪图像特征和所述文本信息特征生成交叉注意力特征,并根据所述特征映射和所述交叉注意力特征确定注意力层概率;
根据所述去噪图像特征和所述当前传播时刻生成残差特征,并根据所述特征映射和所述残差特征确定残差层概率。
5.根据权利要求4所述的方法,其特征在于,根据所述去噪图像特征和所述文本信息特征生成交叉注意力特征,包括:
确定所述去噪图像特征对应的查询特征,并确定所述文本信息特征对应的键特征;
确定所述查询特征和所述键特征之间的条件映射;
根据所述条件映射、同段标记参数、异段标记参数,生成调制参数;
根据所述查询特征、所述键特征、所述调制参数、所述键特征和查询特征的长度,计算交叉注意力特征。
6.根据权利要求1所述的方法,其特征在于,基于注意力层概率和残差层概率对所述扩散模型进行层筛选,以得到参考扩散模型,包括:
选取注意力层概率和残差层概率中的最大概率对应的层执行,以得到参考扩散模型。
7.根据权利要求1所述的方法,其特征在于,结合所述扩散模型和所述参考扩散模型执行知识蒸馏操作,以得到目标模型,包括:
多次迭代所述扩散模型得到第一参考模型,并单次迭代所述扩散模型得到第二参考模型;
基于所述第一参考模型将所述第二参考模型约束为第三参考模型;
多次迭代所述第三参考模型得到第四参考模型,并单次迭代所述参考扩散模型得到第五参考模型;
基于所述第四参考模型将所述第五参考模型约束为第六参考模型;
多次迭代所述第六参考模型得到第七参考模型,并基于所述第七参考模型将所述第五参考模型约束为目标模型。
8.根据权利要求1所述的方法,其特征在于,还包括:
获取所述目标模型输出的与文本信息对应的图像编码;
将所述图像编码解码为目标图像,并通过文生图服务接口输出所述目标图像。
9.一种模型获取装置,其特征在于,包括:
特征获取单元,用于获取噪声图像特征和文本信息特征;
网络层概率计算单元,用于基于随机前向传播策略、所述噪声图像特征和所述文本信息特征确定每个传播时刻对应的注意力层概率和残差层概率;
模型简化单元,用于基于注意力层概率和残差层概率对所述扩散模型进行层筛选,以得到参考扩散模型;
知识蒸馏单元,用于结合所述扩散模型和所述参考扩散模型执行知识蒸馏操作,以得到目标模型。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~8任一项所述的方法。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311812453.XA CN117787380A (zh) | 2023-12-26 | 2023-12-26 | 模型获取方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311812453.XA CN117787380A (zh) | 2023-12-26 | 2023-12-26 | 模型获取方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117787380A true CN117787380A (zh) | 2024-03-29 |
Family
ID=90382851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311812453.XA Pending CN117787380A (zh) | 2023-12-26 | 2023-12-26 | 模型获取方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117787380A (zh) |
-
2023
- 2023-12-26 CN CN202311812453.XA patent/CN117787380A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10671889B2 (en) | Committed information rate variational autoencoders | |
CN111832570A (zh) | 一种图像语义分割模型训练方法及*** | |
CN112035743B (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
CN111382868A (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
CN111460876B (zh) | 用于识别视频的方法和装置 | |
CN115457531A (zh) | 用于识别文本的方法和装置 | |
CN113327599B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN116342884B (zh) | 图像分割及模型训练的方法、服务器 | |
US9436912B1 (en) | Symmetric schema instantiation method for use in a case-based reasoning system | |
CN116977885A (zh) | 视频文本任务处理方法、装置、电子设备及可读存储介质 | |
CN116737895A (zh) | 一种数据处理方法及相关设备 | |
CN113408507B (zh) | 基于履历文件的命名实体识别方法、装置和电子设备 | |
CN114463769A (zh) | 表格识别方法、装置、可读介质和电子设备 | |
CN117351299A (zh) | 图像生成及模型训练方法、装置、设备和存储介质 | |
CN111898338A (zh) | 文本生成方法、装置和电子设备 | |
CN116957006A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
CN116030235A (zh) | 目标检测模型训练方法、目标检测方法、装置和电子设备 | |
CN113327265B (zh) | 一种基于指导学习策略的光流估计方法和*** | |
CN117787380A (zh) | 模型获取方法、装置、介质及设备 | |
CN113239215A (zh) | 多媒体资源的分类方法、装置、电子设备及存储介质 | |
CN111581455A (zh) | 文本生成模型的生成方法、装置和电子设备 | |
CN117076090B (zh) | 任务模型的构建方法、装置、设备及计算机可读存储介质 | |
CN111860518B (zh) | 用于分割图像的方法、装置、设备和计算机可读介质 | |
CN116977733A (zh) | 物体检测方法、装置、电子设备及存储介质 | |
CN117744793A (zh) | 多模态知识图谱训练和预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |