CN115118591B - 一种基于联盟博弈的簇联邦学习方法 - Google Patents
一种基于联盟博弈的簇联邦学习方法 Download PDFInfo
- Publication number
- CN115118591B CN115118591B CN202210656857.3A CN202210656857A CN115118591B CN 115118591 B CN115118591 B CN 115118591B CN 202210656857 A CN202210656857 A CN 202210656857A CN 115118591 B CN115118591 B CN 115118591B
- Authority
- CN
- China
- Prior art keywords
- cluster
- training
- devices
- local
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 52
- 238000004138 cluster model Methods 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 230000007786 learning performance Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于联盟博弈的簇联邦学习方法,包括:在物联网边缘环境下搭建簇联邦学习***,包含多个用户设备和一个中心服务器;基于用户本地梯度的余弦相似度以及每个簇内成功参与训练的设备个数定义每个簇的效用;基于联盟博弈的方法对用户设备进行分簇,同时优化带宽分配;基于分簇结果执行簇联邦学习训练。本发明能够在多任务联邦学习场景下,有效提高训练的效率以及准确率。
Description
技术领域
本发明属于物联网信息处理技术领域,涉及物联网场景下簇联邦学习***中的用户设备分簇与资源分配,特别是一种基于联盟博弈的簇联邦学习方法。
背景技术
随着物联网技术的发展,网络边缘侧的用户设备将会产生大量的本地数据。这些有价值的数据可以通过与人工智能技术相结合,为终端用户提供智慧化服务。然而传统的人工智能训练往往采取的是集中式的训练方式,即用户设备将本地数据上传到中心服务器,再由中心服务器集中式训练人工智能模型。然而,这种由设备直接上传数据的方式会产生隐私泄露问题。为解决该问题,一种名为联邦学习的分布式训练方法在近几年被提出,该方法中用户设备首先进行本地训练,然后将训练之后的本地模型或者梯度参数上传至中心服务器,中心服务器对接收到的本地模型进行聚合,并分发给用户设备从而进行下一个训练周期。联邦学习方法由于用户设备只需要上传模型参数而非原始的数据,因此数据隐私得到较好的保护。然而,在实际场景中,可能同时存在多个联邦学习任务,因此需要按照任务类型对设备进行分簇并同时训练多个簇模型,这种多任务的联邦学习方法也被称为簇联邦学习方法。值得注意的是,由于无法直接观察用户设备本地数据的分布情况,只能根据模型或者是梯度参数去判断设备之间的相似性。为解决该问题,文献[1]中首次提出簇联邦学习方法,该方法首先通过计算用户设备本地梯度的余弦相似度来确定样本分布的一致性,然后在每个训练周期中基于二分法将用户设备分簇并同时训练多个簇模型。文献[2]提出了新增用户设备时簇联邦学习方法中簇结构更新策略。然而,上述有关簇联邦学习方法只考虑基于样本分布的相似性去提升学习性能,但是忽略了物联网环境下有限的通信资源对簇联邦学习性能的影响,并且没有考虑用户设备训练时间和传输时间,因此降低了无线环境下的训练效率。
[1]Sattler F,Müller K-R,Samek W.Clustered federated learning:Model-agnostic distributed multitask optimization under privacy constraints[J].IEEEtransactions on neural networks learning systems,2020,32(8):3710-3722.
[2]Duan M,Liu D,Ji X,et al.FedGroup:efficient clustered federatedlearning via decomposed data-driven measure[C].2021IEEE Intl Conf onParallel&Distributed Processing with Applications,Big Data&Cloud Computing,Sustainable Computing&Communications,Social Computing&Networking,2020:228-237.
发明内容
本发明的目的在于克服现有技术的缺陷,提供一种基于联盟博弈的簇联邦学习方法,在无线资源受限的情况下,基于相似度以及每个簇内成功参与训练的用户设备个数,对用户设备有效分簇及进行训练。
为解决上述技术问题,本发明采用以下技术方案。
一种基于联盟博弈的簇联邦学习方法,包括以下步骤:
步骤一、在物联网边缘环境下搭建簇联邦学习***;
步骤二、基于用户本地梯度的余弦相似度以及每个簇内成功参与训练的设备个数定义每个簇的效用;基于联盟博弈的方法对用户设备进行分簇,同时优化带宽分配;
步骤三、基于分簇结果执行簇联邦学习训练;
所述的簇联邦学习***包含多个用户设备和一个中心服务器,其中用户设备数目为K,用户设备集合定义为N,用户设备k∈N的本地数据集为Dk,训练样本数目为Dk;设备分簇之后的簇结构为Π={V1,V2,...,V|Π|},其中S={1,2,...,|Π|}为簇索引;簇s∈S中的设备集合表示为Vs,其中s≠s′;如果设备k∈Vs则有ak,s=1,否则ak,s=0;簇模型集合表示为W={w1,w2,...,w|Π|},设备k在簇模型ws的训练损失为Fk(ws),则簇联邦学习的训练目标为
具体地,每一个训练周期设备消耗的时间包括本地计算时延和梯度上传时延,其中:
设备k本地训练时延可以用负指数分布表示为
其中ψ是预留本地训练的时间,χ和是与时延分布相关的参数;
设备k的模上传时延为
其中,M是上传梯度的大小,是上传速率,其中bk是带宽,pk是传输功率,hk是信道增益,N0是背景噪声;每个簇的总带宽为B。
具体地,只有簇内设备数目大于1时候簇内的设备才需要上传本地模型到中心服务器,否则这些设备只需要进行本地训练。
具体地,簇s的效用主要受簇内设备的余弦相似度以及簇内成功参与训练的设备个数影响,该效用可以表示为
其中,ρ是权重系数,/>表示设备k本地模型在训练周期r被中心服务器成功接收,否则/>
具体地,给定簇结构Π下,为最大化每个簇的效用,设备k∈Vs的带宽为
其中W(·)是朗伯W函数,τmax是每个周期的时延预算,满足/>
具体地,在训练周期r内,设备k∈Vs基于对应的簇模型计算本地梯度并将其发送给中心服务器;其中簇s初始化的簇模型可以表示为
其中η是学习率;
中心服务器根据分簇的结果已经接收到的本地模型计算各个簇的簇模型
每个周期的结束阶段,中心服务器将更新后的簇模型广播给对应簇内的设备,用于下一个周期的训练。
具体地,若每个设备不与其他设备组成簇时可以单独看成是一个簇,并且该簇的效用设定为1,为最大化每个簇的平均效用,则采用下述基于联盟博弈的分布式分簇方法进行分簇:
在一个迭代周期内,每个设备k∈Vs离开当前所在的簇s并选择另外一个簇s'∈S,s≠s',所选择的簇s'在设备k加入后的效用为Us'(Vs',k),并且满足Us'(Vs',k)>Us(Vs);
如果设备所加入的簇可以获得比设备加入前更大的效用,例如Us'(Vs',k)>Us'(Vs'),则簇s'允许设备k加入;
如果***中没有设备愿意离开当前簇并加入其他簇,则表示簇结构稳定;
上述步骤需重复多次直到没有用户设备能够离开当前所在的簇;并且计算簇的效用的同时需要优化带宽资源。
与现有技术相比,本发明具有以下优点和有益效果:
1.本发明可以在不直接观察用户设备本地数据分布的情况下对设备进行分簇;
2.本发明采用的簇联邦学习方法考虑到有限的通信资源限制,提高簇联邦学习***在无线环境下学习性能。
3.本文所提出的簇联邦学习方法可以应用于医疗健康、用户推荐、智能工厂等信息科技领域,在智能业务落地的同时保障用户设备的数据隐私安全。
附图说明
图1为本发明的一种实施例的基于联盟博弈的簇联邦学习***架构图。
图2为本发明的一种实施例的基于联盟博弈的簇联邦学习方法流程图。
图3为本发明的一种实施例与基准算法学习性能的对比示意图。
具体实施方式
下面结合附图对本发明做进一步详细说明。
如图1所示为本发明的一种基于联盟博弈的簇联邦学习***架构图。所考虑的簇联邦学习***中包含多个用户设备和一个中心服务器,并且用户设备基于分簇结果同时进行多个簇联邦学习训练。
如图2所示本发明的一种基于联盟博弈的簇联邦学习方法,包括以下步骤:
步骤一、在物联网边缘环境下搭建簇联邦学习***,所考虑的簇联邦学习***中包含多个用户设备和一个中心服务器,其中用户设备数目为K,用户设备集合定义为N,用户设备k∈N的本地数据集为Dk,训练样本数目为Dk;设备分簇之后的簇结构为Π={V1,V2,...,V|Π|},其中S={1,2,...,|Π|}为簇索引;簇s∈S中的设备集合可以表示为Vs,其中s≠s′。如果设备k∈Vs则有ak,s=1,否则ak,s=0。簇模型集合可以表示为W={w1,w2,...,w|Π|},设备k在簇模型ws的训练损失为Fk(ws)。则簇联邦学习的训练目标为
步骤二、基于用户本地梯度的余弦相似度以及每个簇内成功参与训练的设备个数定义每个簇的效用。基于联盟博弈的方法对用户设备进行分簇,同时优化带宽分配。每一个训练周期设备消耗的时间主要包括本地计算时延和梯度上传时延,其中设备k本地训练时延τk c可以用负指数分布表示为
其中ψ是预留本地训练的时间,χ和是与时延分布相关的参数。
此外设备k的模上传时延为
其中M是上传梯度的大小,是上传速率,其中bk是带宽,pk是传输功率,hk是信道增益,N0是背景噪声。每个簇的总带宽为B。注意只有簇内设备数目大于1时候簇内的设备才需要上传本地模型到中心服务器,否则这些设备只需要进行本地训练。
簇s的效用主要受簇内设备的余弦相似度以及簇内成功参与训练的设备个数影响,该效用可以表示为
其中,ρ是权重系数,/>表示设备k本地模型在训练周期r被中心服务器成功接收,否则/>
给定簇结构Π下,为最大化每个簇的效用,其中设备k∈Vs的带宽为
其中W(·)是朗伯W函数,τmax是每个周期的时延预算,满足/>
如果每个设备不与其他设备组成簇时可以单独看成是一个簇,并且该簇的效用设定为1。此外,为最大化每个簇的平均效用,则采用下述的一种基于联盟博弈的分布式分簇方法:在一个迭代周期内,每个设备k∈Vs离开当前所在的簇s并选择另外一个簇s'∈S,s≠s',所选择的簇s'在设备k加入后的效用为Us'(Vs',k),并且满足Us'(Vs',k)>Us(Vs)。如果设备所加入的簇可以获得比设备加入前更大的效用,例如Us'(Vs',k)>Us'(Vs'),则簇s'允许设备k加入。如果***中没有设备愿意离开当前簇并加入其他簇,则表示簇结构稳定。上述步骤需重复多次直到没有用户设备能够离开当前所在的簇。并且,计算簇的效用的同时需要优化带宽资源。
步骤三、基于分簇结果执行簇联邦学习训练。训练周期r内,设备k∈Vs基于对应的簇模型计算本地梯度并将其发送给中心服务器,其中簇s初始化的簇模型可以表示为
其中η是学习率。
中心服务器根据分簇的结果已经接收到的本地模型计算各个簇的簇模型,例如
其中表示设备k本地模型被中心服务器成功接收,否则/>每个周期的结束阶段,中心服务器将更新后的簇模型广播给对应簇内的设备,用于下一个周期的训练。
如图2所示,作为本发明实施例的一种特殊情况,可推广到其他类似情形。图中给出了本方法所得到的平均测试准确率,对比方法是没有同时考虑相似性以及每个簇内成功参与训练的设备个数。具体参数设置如下:
Claims (4)
1.一种基于联盟博弈的簇联邦学习方法,其特征在于,包括以下步骤:
步骤一、在物联网边缘环境下搭建簇联邦学习***;
步骤二、基于用户本地梯度的余弦相似度以及每个簇内成功参与训练的设备个数定义每个簇的效用;基于联盟博弈的方法对用户设备进行分簇,同时优化带宽分配;
步骤三、基于分簇结果执行簇联邦学习训练;
所述的簇联邦学习***包含多个用户设备和一个中心服务器,其中用户设备数目为K,用户设备集合定义为用户设备/>的本地数据集为/>训练样本数目为Dk;设备分簇之后的簇结构为/>其中/>为簇索引;簇/>中的设备集合表示为/>其中/>如果设备/>则有ak,s=1,否则ak,s=0;簇模型集合表示为/>设备k在簇模型ws的训练损失为Fk(ws),则簇联邦学习的训练目标为
每一个训练周期设备消耗的时间包括本地计算时延和梯度上传时延,其中:
设备k本地训练时延可以用负指数分布表示为
其中ψ是预留本地训练的时间,χ和是与时延分布相关的参数;
设备k的模上传时延为
其中,M是上传梯度的大小,是上传速率,其中bk是带宽,pk是传输功率,hk是信道增益,N0是背景噪声;每个簇的总带宽为B;
只有簇内设备数目大于1时候簇内的设备才需要上传本地模型到中心服务器,否则这些设备只需要进行本地训练;
簇s的效用主要受簇内设备的余弦相似度以及簇内成功参与训练的设备个数影响,该效用可以表示为
其中,ρ是权重系数,/>表示设备k本地模型在训练周期r被中心服务器成功接收,否则/>
2.根据权利要求1所述的一种基于联盟博弈的簇联邦学习方法,其特征在于,给定簇结构Π下,为最大化每个簇的效用,设备的带宽为
其中是朗伯W函数,τmax是每个周期的时延预算,/>满足/>
3.根据权利要求1所述的一种基于联盟博弈的簇联邦学习方法,其特征在于,在训练周期r内,设备基于对应的簇模型计算本地梯度/>并将其发送给中心服务器;其中簇s初始化的簇模型可以表示为
其中η是学习率;
中心服务器根据分簇的结果已经接收到的本地模型计算各个簇的簇模型
每个周期的结束阶段,中心服务器将更新后的簇模型广播给对应簇内的设备,用于下一个周期的训练。
4.根据权利要求1所述的一种基于联盟博弈的簇联邦学***均效用,则采用下述基于联盟博弈的分布式分簇方法进行分簇:
在一个迭代周期内,每个设备离开当前所在的簇s并选择另外一个簇/>s≠s',所选择的簇s'在设备k加入后的效用为/>并且满足/>
如果设备所加入的簇可以获得比设备加入前更大的效用,则簇s'允许设备k加入;
如果***中没有设备愿意离开当前簇并加入其他簇,则表示簇结构稳定;
上述步骤需重复多次直到没有用户设备能够离开当前所在的簇;并且计算簇的效用的同时需要优化带宽资源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210656857.3A CN115118591B (zh) | 2022-06-08 | 2022-06-08 | 一种基于联盟博弈的簇联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210656857.3A CN115118591B (zh) | 2022-06-08 | 2022-06-08 | 一种基于联盟博弈的簇联邦学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115118591A CN115118591A (zh) | 2022-09-27 |
CN115118591B true CN115118591B (zh) | 2023-07-25 |
Family
ID=83327044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210656857.3A Active CN115118591B (zh) | 2022-06-08 | 2022-06-08 | 一种基于联盟博弈的簇联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115118591B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116245172B (zh) * | 2023-03-14 | 2023-10-17 | 南京航空航天大学 | 跨孤岛联邦学习中优化个体模型性能的联盟组建方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112804107A (zh) * | 2021-01-28 | 2021-05-14 | 南京邮电大学 | 一种物联网设备能耗自适应控制的分层联邦学习方法 |
CN114553661A (zh) * | 2022-01-29 | 2022-05-27 | 南京邮电大学 | 一种面向无线联邦学习的移动用户设备分簇训练方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210073639A1 (en) * | 2018-12-04 | 2021-03-11 | Google Llc | Federated Learning with Adaptive Optimization |
-
2022
- 2022-06-08 CN CN202210656857.3A patent/CN115118591B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112804107A (zh) * | 2021-01-28 | 2021-05-14 | 南京邮电大学 | 一种物联网设备能耗自适应控制的分层联邦学习方法 |
CN114553661A (zh) * | 2022-01-29 | 2022-05-27 | 南京邮电大学 | 一种面向无线联邦学习的移动用户设备分簇训练方法 |
Non-Patent Citations (1)
Title |
---|
一种基于演化博弈的分簇协作路由算法;张继;张大方;谢鲲;何施茗;乔宏;;电子学报(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115118591A (zh) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Gradient statistics aware power control for over-the-air federated learning | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN113435472A (zh) | 车载算力网络用户需求预测方法、***、设备、介质 | |
CN112598150B (zh) | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 | |
CN112804107A (zh) | 一种物联网设备能耗自适应控制的分层联邦学习方法 | |
CN112650581A (zh) | 一种面向智能楼宇的云边协同任务调度方法 | |
CN113469325A (zh) | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 | |
CN110233755B (zh) | 一种物联网中雾计算的计算资源和频谱资源分配方法 | |
CN113518007B (zh) | 一种基于联邦学习的多物联网设备异构模型高效互学习方法 | |
CN115118591B (zh) | 一种基于联盟博弈的簇联邦学习方法 | |
CN116156563A (zh) | 基于数字孪生的异构任务与资源端边协同调度方法 | |
CN117221951A (zh) | 车载边缘环境下基于深度强化学习的任务卸载方法 | |
He et al. | Computation offloading and resource allocation based on DT-MEC-assisted federated learning framework | |
CN116187469A (zh) | 一种基于联邦蒸馏学习框架的客户端成员推理攻击方法 | |
Lv et al. | Edge computing task offloading for environmental perception of autonomous vehicles in 6G networks | |
Yuan et al. | Profit-optimized computation offloading with autoencoder-assisted evolution in large-scale mobile-edge computing | |
CN114375050A (zh) | 一种数字孪生辅助的5g配电网资源调度方法 | |
Zheng et al. | A distributed learning architecture for semantic communication in autonomous driving networks for task offloading | |
Sun et al. | Semantic-driven computation offloading and resource allocation for uav-assisted monitoring system in vehicular networks | |
Yang et al. | FedDD: Federated double distillation in IoV | |
CN116193516A (zh) | 一种物联网场景下用于高效联邦学习的成本优化方法 | |
Wagle et al. | Embedding alignment for unsupervised federated learning via smart data exchange | |
He et al. | Client selection and resource allocation for federated learning in digital-twin-enabled industrial Internet of Things | |
Liu et al. | Federated Learning Model Training Mechanism with Edge Cloud Collaboration for Services in Smart Cities | |
Yin et al. | FedSCS: Client selection for federated learning under system heterogeneity and client fairness with a Stackelberg game approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |