CN117675270A - 面向纵向联邦学习的多模态数据加密传输方法及*** - Google Patents

面向纵向联邦学习的多模态数据加密传输方法及*** Download PDF

Info

Publication number
CN117675270A
CN117675270A CN202311364487.7A CN202311364487A CN117675270A CN 117675270 A CN117675270 A CN 117675270A CN 202311364487 A CN202311364487 A CN 202311364487A CN 117675270 A CN117675270 A CN 117675270A
Authority
CN
China
Prior art keywords
participant
local model
parameters
data
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311364487.7A
Other languages
English (en)
Inventor
潘珂
张元侨
公茂果
李晖
王善峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202311364487.7A priority Critical patent/CN117675270A/zh
Publication of CN117675270A publication Critical patent/CN117675270A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法及***,本发明结合多模态机器学习算法和纵向联邦学习架构,在保证本地数据可用不可见的前提下,构建每个参与方的局部模型学习不同模态的数据特征,提高模型的准确性和鲁棒性;利用二元泰勒级数展开解决同态加密算法无法针对涉及指数和对数运算的单项式加密的问题,无需依赖第三方协作者即可确保局部模型参数的机密性,且无需担心未经授权的原始数据访问,实现了通信过程中局部模型参数的无损加密,且对所有传输数据均加密。因此本发明可以实现实时数据的精确无损处理。

Description

面向纵向联邦学习的多模态数据加密传输方法及***
技术领域
本发明属于信息安全领域,具体涉及一种面向纵向联邦学习的多模态数据加密传输方法及***。
背景技术
随着大数据时代信息技术的不断发展,在确保数据安全和隐私保护的前提下开展高质量的机器学习任务已成为信息安全领域亟待解决的重要问题。面对跨地域、跨机构、跨设备、跨场景的机器学习任务中存在数据异构、通信受限、易受攻击等问题,结合纵向联邦学习架构和同态加密技术对多模态数据进行保护是缓解模型隐私脆弱性和模型***限性的有效途径。
作为缓解数据孤岛的有效解决方案,联邦学习可以在各个参与方不进行数据共享的情况下展开模型训练。但是现有的联邦学习算法在面对多元化的数据来源时存在局限性,尤其面对行业领域数据多呈现垂直分布的场景。例如,同一城市的两家不同机构(一家银行和一家电子商务公司)旨在共同开发产品购买预测模型,由于用户数据从邻近的社区收集,所以两家机构的数据样本可能存在大量重叠,但是样本特征空间的重叠度较低。尽管纵向联邦学习能够在一定程度上缓解该问题,但是面对数据模态呈现多样化的现状,愈加复杂的数据分布和更深层的数据维度不断向现有的纵向联邦学习模型提出新的挑战。
海量数据在为模型提供丰富训练数据来源的同时,也不可避免地涉及用户的隐私信息。尽管国际和国内已经提出并实施了相关法律法规加强对数据隐私的保护,但是面对复杂的业务场景,仅从立法层面约束隐私攻击存在一定的局限性。同态加密是一种允许用户对加密数据直接进行计算而无需解密的有效加密算法,其应用椭圆曲线加密,并保持同态性质。但是,由于传统的同态加密算法仅支持加法和乘法运算,其在面对涉及指数和对数运算的交叉熵函数时束手无策。传统的数据加密协议多数依赖第三方协作者分发密钥、确保数据传输过程的安全性。但是由于第三方的参与,数据隐私泄露的风险将大幅增加。尽管部分方案试图消除第三方协作者展开模型训练,但是由于加密后的计算复杂度过高,部分模型参数存在无法加密的可能性。
现有技术1提出了一种多模态联邦学习训练方法及装置(专利号:CN116386058A),该发明将共享数据输入至初始的服务器端模型,得到输出的全局特征表示,并将所述全局特征表示传输至客户端;接收所述客户端生成的局部特征表示;基于所述全局特征表示以及所述局部特征表示,对所述客户端传输的局部特征表示进行聚合,得到聚合特征表示;基于所述聚合特征表示对所述服务器端模型进行训练,完成一个轮次的模型训练。虽然现有技术1能够处理和分析多种模态的数据,但是其训练过程涉及第三方服务器的参与,在全局特征和局部特征的传输过程中可能存在严重的数据泄露隐患。面对攻击者试图直接窃取参与者敏感数据,或窃取全局特征和局部特征进而推断参与者敏感数据的情况将束手无策。
现有技术2提出了一种多模态联邦学习的隐私保护方法及***(专利号:CN115859367B),对于同时包含图像数据、文本数据的客户端,分别通过第一自动编码器、第二自动编码器对图像数据、文本数据进行对齐,向第一自动编码器、第二自动编码器中间层生成的图像特征Fv 、文本特征Ft 分别添加基于差分隐私技术的拉普拉斯噪声;将添加噪声后的图像特征Fv 、文本特征Ft 上传到服务器中。虽然现有技术2能够利用差分隐私技术为图像和文本提供隐私保护,但是一方面由于第三方服务器的参与,图像和文本中蕴含的敏感信息泄露的风险将大幅提高;另一方面由于拉普拉斯噪声的引入,模型性能的损失较大。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法及***。本发明要解决的技术问题通过以下技术方案实现:
第一方面,本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法,所述面向纵向联邦学习的多模态数据加密传输方法包括:
S100,每个参与方从数据集中选择不同模态的输入数据;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
第二方面,本发明提供了一种面向纵向联邦学习的多模态数据加密传输***,所述***包括多个参与方,每个参与方均执行以下过程:
S100,每个参与方从数据集中选择不同模态的输入数据,并将所述输入数据输入至已构建的局部模型中;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
有益效果:
本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法及***,结合多模态机器学习算法和纵向联邦学习架构,在保证本地数据可用不可见的前提下,构建每个参与方的局部模型学习不同模态的数据特征,提高模型的准确性和鲁棒性;利用二元泰勒级数展开解决同态加密算法无法针对涉及指数和对数运算的单项式加密的问题,无需依赖第三方协作者即可确保局部模型参数的机密性,且无需担心未经授权的原始数据访问,实现了通信过程中局部模型参数的无损加密,且对所有传输数据均加密。因此本发明可以实现实时数据的精确无损处理。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明提供的一种面向纵向联邦学习的多模态数据加密传输方法的流程示意图;
图2是本发明提供的一种面向纵向联邦学习的多模态数据加密传输方法的整体架构示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
在介绍本发明之前,作本发明的整体构思作介绍。
本发明首先结合多模态机器学习算法和纵向联邦学习架构,在保证本地数据可用不可见的前提下,构建每个参与方的局部模型学习不同模态的数据特征,提高模型的准确性和鲁棒性;再利用二元泰勒级数展开将局部模型的目标函数转换为仅涉及加法项和乘法项的多项式形式,并利用同态加密算法对所有需要传输的局部模型参数进行无损加密。其次,本发明分别为两个参与方设置两个公钥、两个掩码,成功消除了第三方协作者参与模型训练的必要性,有效加强了整个训练过程中数据的安全性和隐私性,将局部模型部署在参与方的服务器后,可以提高实时数据处理的安全性和隐私性。
结合图1和图2,本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法,所述面向纵向联邦学习的多模态数据加密传输方法包括:
S100,每个参与方从数据集中选择不同模态的输入数据,并将所述输入数据输入至已构建的局部模型中;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
作为本发明一种具体的实施方式,S200中通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数包括:
a1,每个参与方将输入数据作为自身局部模型的输入,并与其他参与方将加密的局部模型参数作交互;
a2,每个参与方通过自身的跨域编码模块作对所述输入数据进行跨域注意力计算和编码得到局部编码参数;
本步骤跨域编码模块利用所述局部模型参数对自身的输入数据作跨域注意力计算得到所述输入数据的跨域注意力结果;将所述跨域注意力结果通过编码器进行编码得到编码参数。
所述跨域注意力计算采用注意力合并方法计算完成。假设Q表示查询、K表示键、V表示值,注意力函数可以理解为从一个查询和一组键值对到一个输出的映射。其中查询矩阵由每个参与方自身提供,键值对由两个参与方共同提供。根据注意力函数的定义,对于参与方A,其跨域模块的缩放点积注意力可以定义为其中/>表示线性操作前的连接操作,T和d分布表示数据长度和特征维度。ZA表示自领域计算,ZB表示跨领域计算。
根据缩放点积注意力的计算过程,本发明可以得出各变量维度之间的关系:因此注意力合并方法的计算公式表示为:
其中, 表示线性操作前的连接操作,T和d分布表示数据长度和特征维度,ZA表示自领域计算,ZB表示跨领域计算,角标A表示参与方A,角标B表示参与方B,[·]表示连接操作。
参与方B遵循相同的设置,每个跨域注意力模块直接从低级特征序列展开学习,无需依赖于自注意力。
a3,每个参与方与其他参与方将加密的局部编码参数作交互;
a4,每个参与方将其他参与方的局部模型参数解密,并将所有局部模型参数输入至对应的跨域编码模块中。
作为本发明一种具体的实时方式,S200中的多模态编码模块对局部模型参数作计算得到输出数据包括:
b1,每个参与方的多模态编码模块通过计算局部编码参数之间的余弦相似度确定真实配对的两个局部编码参数;
b2,每个参与方根据真实配对的两个局部编码参数确认与自身配对的参与方以及该参与方的局部模型;
假设有N对分别来自参与方A的局部编码参数和来自参与方B的局部编码参数,多模态编码模块能够从N×N个可能的配对中预测正确的局部编码参数匹配。为了预测正确的局部编码参数匹配,本发明首先对两个局部编码参数做点积运算,过程为:即计算局部编码参数嵌入的余弦相似度,其中N个真实配对的目标为最大化余弦相似度,另外N2-N个错误配对的目标为最小化余弦相似度。
b3,每个参与方将自身的局部模型与配对的参与方的局部模型组成全局模型;
b4,利用所述全局模型对所述输入数据处理得到输出数据。
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
本发明中目标函数为交叉熵函数,该函数可定义为这里x表示输入数据,y表示数据标签,hθ(·)表示逻辑函数,θ表示局部模型参数,i∈[1,n],n表示输入数据个数。这种交叉熵形式的目标函数中涉及指数和对数项,因此其无法直接使用同态加密算法对独立变量进行加密。
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
本发明使用的损失函数为交叉熵函数,本发明采用二元泰勒级数展开将其转换为仅包含加法运算和乘法运算的多项式形式。具体通过以下方式实现:
本发明利用二元泰勒级数展开分解交叉熵形式的目标函数,分解后的目标函数为其中,参数携带上标或角标A表示该参数来源于参与方A,参数携带上标或角标B表示该参数来源于参与方B,n表示输入数据个数。
本发明利用二元泰勒级数展开近似得到的目标函数仅涉及加法和乘法项,不再涉及指数和对数运算,因此可以使用同态加密算法进行加密和计算。
本步骤中的每个参与方利用公钥和掩码对自身的传输参数进行加密,并在加密后传输给其他参与方,以使其他参与方利用私钥对所述传输参数进行解密,并利用解密后的传输参数对自身的局部模型进行再训练。
整个局部模型训练过程涉及多次数据加密传输,针对参与方A和B,加密过程分别需要两个公钥KA和KB,加密项包括和/>其中/>表示加密操作。因为不存在第三方协作者,所以/>和/>无法被其他参与方解密。第一次交互时,两个参与方A和B分别使用各自的公钥KA和KB加密/> 和/>随后的交互过程中,为了确保参与方A在接收到来自参与方B的加密参数后密钥的一致性,面向参与方B的计算过程应该完全由公钥KB加密。同理,面向参与方A的计算过程应该完全由公钥KA加密。在交换和解密参数时,存在暴露另一方参数信息的可能性。为了避免这一情况的发生,本发明又分别为参与方A和B添加了额外的掩码RA和RB。最后,每个参与方解密并去掉局部模型参数的掩码后进行各自的局部模型参数更新,直至局部模型收敛。
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法,结合多模态机器学习算法和纵向联邦学习架构,在保证本地数据可用不可见的前提下,构建每个参与方的局部模型学习不同模态的数据特征,提高模型的准确性和鲁棒性;利用二元泰勒级数展开解决同态加密算法无法针对涉及指数和对数运算的单项式加密的问题,无需依赖第三方协作者即可确保局部模型参数的机密性,且无需担心未经授权的原始数据访问,实现了通信过程中局部模型参数的无损加密,且对所有传输数据均加密。因此本发明可以实现实时数据的精确无损处理。
本发明提供了一种面向纵向联邦学习的多模态数据加密传输方法及***,所述***包括多个参与方,每个参与方均执行以下过程:
S100,每个参与方从数据集中选择不同模态的输入数据,并将所述输入数据输入至已构建的局部模型中;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
本发明提供了一种面向纵向联邦学习的多模态数据加密传输***,结合多模态机器学习算法和纵向联邦学习架构,在保证本地数据可用不可见的前提下,构建每个参与方的局部模型学习不同模态的数据特征,提高模型的准确性和鲁棒性;利用二元泰勒级数展开解决同态加密算法无法针对涉及指数和对数运算的单项式加密的问题,无需依赖第三方协作者即可确保局部模型参数的机密性,且无需担心未经授权的原始数据访问,实现了通信过程中局部模型参数的无损加密,且对所有传输数据均加密。因此本发明可以实现实时数据的精确无损处理。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种面向纵向联邦学习的多模态数据加密传输方法,其特征在于,所述面向纵向联邦学习的多模态数据加密传输方法包括:
S100,每个参与方从数据集中选择不同模态的输入数据;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
2.根据权利要求1所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,S200中通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数包括:
每个参与方将输入数据作为自身局部模型的输入,并与其他参与方将加密的局部模型参数作交互;
每个参与方通过自身的跨域编码模块作对所述输入数据进行跨域注意力计算和编码得到局部编码参数;
每个参与方与其他参与方将加密的局部编码参数作交互;
每个参与方将其他参与方的局部模型参数解密,并将所有局部模型参数输入至对应的跨域编码模块中。
3.根据权利要求2所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,每个参与方对应的跨域编码模块具体用于:
利用所述交互模型参数对自身的输入数据作跨域注意力计算得到所述输入数据的跨域注意力结果;
将所述跨域注意力结果通过编码器进行编码得到编码参数。
4.根据权利要求3所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,所述跨域注意力计算采用注意力合并方法计算完成,计算公式表示为:
其中, 表示线性操作前的连接操作,T和d分布表示数据长度和特征维度,ZA表示自领域计算,ZB表示跨领域计算,角标A表示参与方A,角标B表示参与方B,[·]表示连接操作。
5.根据权利要求2所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,所述加密采用公钥和掩码进行加密,所述解密采用约定的私钥进行解密。
6.根据权利要求2所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,S200中的过多模态编码模块对局部模型参数作计算得到输出数据包括:
每个参与方的多模态编码模块通过计算局部编码参数之间的余弦相似度确定真实配对的两个局部编码参数;
每个参与方根据真实配对的两个局部编码参数确认与自身配对的参与方以及该参与方的局部模型;
每个参与方将自身的局部模型与配对的参与方的局部模型组成全局模型;
利用所述全局模型对所述输入数据处理得到输出数据。
7.根据权利要求1所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,S300中的所述目标函数表示为:
其中,x表示输入数据,y表示数据标签,hθ(·)表示逻辑函数,θ表示局部模型参数,i∈[1,n],n表示输入数据个数。
8.根据权利要求1所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,S400中所述基于二元泰勒级数展开的目标函数表示为:
其中,参数携带上标或这角标A表示该参数来源于参与方A,参数携带上标或角标B表示该参数来源于参与方B,n表示序号。
9.根据权利要求1所述的面向纵向联邦学习的多模态数据加密传输方法,其特征在于,S400包括:
每个参与方利用公钥和掩码对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方;
其他参与方利用私钥对所述传输参数进行解密,并利用解密后的传输参数对自身的局部模型进行再训练。
10.一种面向纵向联邦学习的多模态数据加密传输***,其特征在于,所述***包括多个参与方,每个参与方均执行以下过程:
S100,每个参与方从数据集中选择不同模态的输入数据,并将所述输入数据输入至已构建的局部模型中;所述局部模型包括跨域编码模块和多模态编码模块;
S200,每个参与方将所述输入数据作为所述局部模型的输入,并通过自身的跨域编码模块与其他参与方交互各自加密后的局部模型参数,以及通过多模态编码模块对局部模型参数作计算得到输出数据;
S300,利用输出数据和输入数据构建目标函数,并重复S200的过程以对所述局部模型进行迭代训练,在训练过程中每个参与方利用所述目标函数更新自身局部模型的局部模型参数;
S400,每个参与方对自身的传输参数进行加密,并在加密后传输给其他参与方以使其他参与方对自身的局部模型进行再训练;所述传输参数包括加密的局部模型参数、基于二元泰勒级数展开的目标函数的部分参数以及所述目标函数的梯度;
S500,重复S200至S400直至局部模型收敛,并将收敛的局部模型部署到参与方的服务器上,使得参与方利用收敛的局部模型处理即将输入的实时数据。
CN202311364487.7A 2023-10-19 2023-10-19 面向纵向联邦学习的多模态数据加密传输方法及*** Pending CN117675270A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311364487.7A CN117675270A (zh) 2023-10-19 2023-10-19 面向纵向联邦学习的多模态数据加密传输方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311364487.7A CN117675270A (zh) 2023-10-19 2023-10-19 面向纵向联邦学习的多模态数据加密传输方法及***

Publications (1)

Publication Number Publication Date
CN117675270A true CN117675270A (zh) 2024-03-08

Family

ID=90079731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311364487.7A Pending CN117675270A (zh) 2023-10-19 2023-10-19 面向纵向联邦学习的多模态数据加密传输方法及***

Country Status (1)

Country Link
CN (1) CN117675270A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117973488A (zh) * 2024-03-29 2024-05-03 蓝象智联(杭州)科技有限公司 具有隐私保护的大语言模型训练、推理方法及***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117973488A (zh) * 2024-03-29 2024-05-03 蓝象智联(杭州)科技有限公司 具有隐私保护的大语言模型训练、推理方法及***
CN117973488B (zh) * 2024-03-29 2024-06-07 蓝象智联(杭州)科技有限公司 具有隐私保护的大语言模型训练、推理方法及***

Similar Documents

Publication Publication Date Title
Xu et al. Hybridalpha: An efficient approach for privacy-preserving federated learning
Liu et al. Hybrid privacy-preserving clinical decision support system in fog–cloud computing
Li et al. Privacy-preserving machine learning with multiple data providers
CN111259443B (zh) 一种基于psi技术保护联邦学习预测阶段隐私的方法
WO2022237450A1 (zh) 多方安全计算方法、装置、设备及存储介质
Ye et al. An effective framework for chaotic image encryption based on 3D logistic map
González-Serrano et al. Training support vector machines with privacy-protected data
Gupta et al. Single secret image sharing scheme using neural cryptography
Lyu et al. Towards fair and decentralized privacy-preserving deep learning with blockchain
Peng Danger of using fully homomorphic encryption: A look at Microsoft SEAL
Fan et al. PPMCK: Privacy-preserving multi-party computing for K-means clustering
CN112434026B (zh) 一种基于哈希链的安全知识产权质押融资方法
Vijayakumar et al. An improved level of security for dna steganography using hyperelliptic curve cryptography
CN117675270A (zh) 面向纵向联邦学习的多模态数据加密传输方法及***
Blesswin et al. Enhanced semantic visual secret sharing scheme for the secure image communication
CN115913537A (zh) 基于隐私保护的数据求交方法、***及相关设备
CN115865311A (zh) 一种高效恒定轮次安全多方计算协议的优化方法和***
Zhao et al. SGBoost: An efficient and privacy-preserving vertical federated tree boosting framework
Pande et al. Single secret sharing scheme using chinese remainder theorem, modified Shamir’s scheme and XOR operation
Agrawal et al. Game-set-MATCH: Using mobile devices for seamless external-facing biometric matching
Ren et al. BPFL: Blockchain-based privacy-preserving federated learning against poisoning attack
Liu et al. ESA-FedGNN: Efficient secure aggregation for federated graph neural networks
CN116094686B (zh) 用于量子卷积计算的同态加密方法、***、设备及终端
Zhou et al. VDFChain: Secure and verifiable decentralized federated learning via committee-based blockchain
JP7297131B2 (ja) 分散型機械学習モデルのトレーニング方法、装置、機器および媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination