CN116075834A - 用于无线通信***中的深度神经网络的联邦学习 - Google Patents

用于无线通信***中的深度神经网络的联邦学习 Download PDF

Info

Publication number
CN116075834A
CN116075834A CN202180058755.5A CN202180058755A CN116075834A CN 116075834 A CN116075834 A CN 116075834A CN 202180058755 A CN202180058755 A CN 202180058755A CN 116075834 A CN116075834 A CN 116075834A
Authority
CN
China
Prior art keywords
ues
configuration
updated
information
dnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180058755.5A
Other languages
English (en)
Inventor
王继兵
埃里克·理查德·施陶费尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN116075834A publication Critical patent/CN116075834A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

各个方面描述了在无线通信***中的用于深度神经网络DNN的联邦学习。网络实体指导(610)用户设备UE集合中的每个UE使用初始机器学习(ML)配置来形成处理无线网络通信的相应深度神经网络DNN。网络实体从UE集合中的每个UE请求(620)由相应UE使用训练过程和本地输入数据所生成的相应更新的ML信息。网络实体然后从UE集合中的至少一些UE接收(640)由相应UE确定的相应更新的ML信息。网络实体识别(645)UE集合中的UE子集,并且确定(650)UE子集的公共ML配置。网络实体然后指导(655)UE子集中的每个UE使用公共ML配置来形成更新的DNN。

Description

用于无线通信***中的深度神经网络的联邦学习
背景技术
演进无线通信***利用越来越复杂的架构作为相对于先前无线通信***提供更多性能的方式。作为一个示例,第五代新无线电(5G NR)无线技术使用更高的频率范围,诸如6千兆赫(GHz)以上频段,传输数据,以增加数据容量。然而,使用这些较高频率范围传输和恢复信息带来了挑战。为了图示,相对于较低频率信号,较高频率信号更容易受到多径衰落、散射、大气吸收、衍射、干扰等的影响。作为另一个示例,能够传输、接收、路由和/或以其他方式使用这些较高频率的硬件能够是昂贵的并且复杂的以并入到设备中。随着无线通信***和技术的新进展,可以使用新方法来产生能够使用这些较高频率范围进行无线通信的设备。
发明内容
本文档描述了用于无线通信***中的深度神经网络(DNN)的联邦学习的技术和装置。网络实体指导用户设备(UE)集合中的每个UE使用初始机器学习(ML)配置来形成处理无线网络通信的相应深度神经网络(DNN)。网络实体请求UE集合中的每个UE通过使用训练过程和相应UE本地的输入数据生成关于相应DNN的更新的ML信息来报告该更新的ML信息。网络实体然后从UE集合中的至少一些UE接收由相应UE确定的相应更新的ML信息。网络实体识别UE集合中的具有一个或多个公共特性的UE子集,并且使用来自UE子集中的每个UE的相应更新的ML信息来确定公共ML配置。网络实体然后指导UE子集中的每个UE使用公共ML配置来形成处理无线网络通信的更新的DNN。
在各个方面中,用户设备(UE)从网络实体接收用于使用初始机器学习(ML)配置来形成处理无线网络通信的深度神经网络(DNN)的指导。UE从网络实体接收基于训练过程为DNN报告更新的ML信息的请求,并且通过使用UE本地的数据执行训练过程来生成更新的ML信息。UE向网络实体传输指示更新的ML信息的消息。UE从网络实体接收使用公共ML配置更新DNN的指示,并且然后使用公共ML配置来更新DNN。
在附图和以下描述中阐述了用于无线通信***中的DNN的联邦学习的一个或多个实施方式的细节。其他特征和优点从说明书和附图以及从权利要求将是显而易见的。提供本发明内容以介绍在具体实施方式和附图中进一步描述的主题。因此,不应当将本发明内容视为描述必要特征,也不应当将其用于限制所要求保护的主题的范围。
附图说明
下面描述用于无线通信***中的深度神经网络(DNN)的联邦学习的一个或多个方面的细节。在说明书和附图中的不同实例中使用相同的附图标记指示类似的元件:
图1图示了可以实现用于无线通信***的DNN的联邦学习的各个方面的示例环境;
图2图示了可以实现用于无线通信***中的DNN的联邦学习的各个方面的设备的示例设备图;
图3图示了可以实现无线通信***中的DNN的联邦学习的各个方面的设备的示例设备图;
图4图示了根据用于无线通信***中的DNN的联邦学习的各个方面的在无线通信***中利用多个深度神经网络的示例操作环境;
图5图示了根据用于无线通信***中的DNN的联邦学习的各个方面的生成多个神经网络形成配置的示例;
图6图示了实现用于无线通信***中的DNN的联邦学习的各种网络实体之间的示例事务图;
图7图示了可以用于实现用于无线通信***中的DNN的联邦学习的各个方面的第一示例方法;以及
图8图示了可以用于实现用于无线通信***中的DNN的联邦学习的各个方面的第二示例方法。
具体实施方式
在常规的无线通信***中,发射器和接收器处理链包括许多操作。例如,处理链中的信道估计块估计或预测传输环境如何使通过传输环境传播的信号失真。作为另一个示例,信道均衡器块反转由信道估计块所识别的接收到的信号上的失真。当处理诸如6GHz以上范围内的5G频率的较高频率范围时,这些操作经常变得更加复杂。例如,相对于较低频率范围,传输环境对较高频率范围增加了更多的失真,从而使信息恢复更加复杂。作为另一个示例,添加到用于处理较高频率范围的设备的硬件可以潜在地增加构建该设备的成本和复杂性。
深度神经网络(DNN)提供用于执行各种类型的操作诸如处理在无线通信***中的设备之间传输的通信——的解决方案。为了说明,通过在发射器和/或接收器处理链操作上训练DNN,DNN可以以多种方式代替常规操作,诸如通过代替在无线通信信号的端到端处理中使用的一些或全部常规处理块,代替单独处理链块等。DNN的动态重新配置,诸如通过修改各种架构配置(例如,层数、层处理算法、下采样配置)和参数配置(例如,系数或权重、层连接、内核大小),也提供了基于改变的操作条件来适配DNN如何处理无线通信的能力。
通常,机器学习(ML)算法——诸如DNN——学习如何处理输入数据并且转换输入数据以生成输出。ML算法接收处理反馈(例如,指示所生成的输出的准确性或不准确性的反馈),并且修改ML算法的各种架构和参数配置,以改善所生成的输出的准确性和质量。在一些方面中,ML控制器或管理器基于不同的操作条件来生成ML算法的不同ML配置。为了说明,ML控制器为基于信号或链路质量参数、UE能力、定时信息、调制编码方案(MCS)等的变化处理无线通信的DNN生成不同ML配置。这使得ML控制器能够基于当前操作条件动态地修改DNN,并且改善通过无线网络传输的无线通信的总体性能(例如,较高处理分辨率、较快处理、较低比特误差、改善的信号质量、减少的等待时间)。
联邦学***均来创建更新的ML配置而创建更新的ML配置。作为另一个示例,多个设备各自都基于它们自己的单独输入数据向ML控制器报告指示基于函数处理成本(例如,处理时间、处理准确性)的最佳ML配置的梯度结果,并且ML控制器对梯度进行平均。在一些方面中,多个设备向学习的ML架构报告来自基线ML配置的更新和/或改变。术语联邦学习、分布式训练和/或分布式学习可以互换地使用。
通过报告ML算法的学习权重/系数、梯度或ML架构,而不是它们的特定输入数据,设备通信学习结果而不暴露输入数据。这保护了每个设备的隐私,并且向ML控制器提供学习的ML信息。因为多个设备基于它们自己的输入数据来训练和报告结果,所以联邦学习增加了在ML算法上执行的训练量,并且改善由ML控制器通过聚合所生成的所得ML配置。参考处理无线通信的DNN,这也改善处理无线通信的总体性能和/或在无线网络中传输的无线通信。
示例环境
图1图示了包括被图示为UE 111、UE 112和UE 113的多个用户设备110(UE 110)的示例环境100。每个UE 110可以通过分别被图示为无线链路131、无线链路132、无线链路133、无线链路134、无线链路135和无线链路136的一个或多个无线通信链路130(无线链路130)与一个或多个基站120(图示为基站121和122)通信。为简单起见,UE 110被实现为智能电话,但也可以被实现为任何合适的计算或电子设备,诸如移动通信设备、调制解调器、蜂窝电话、游戏设备、导航设备、媒体设备、膝上型电脑、台式计算机、平板电脑、智能设备、基于车辆的通信***或物联网(IoT)设备,诸如传感器或致动器。可以在宏小区、微小区、小型小区、微微小区、分布式基站等或其任何组合中实现基站120(例如,演进的通用陆地无线接入网络节点B、E-UTRAN节点B、演进的节点B、eNodeB、eNB、下一代节点B、gNode B、gNB、ng-eNB等)。
基站120使用可以被实现为任何合适类型的无线链路的无线链路130与用户设备110通信。无线链路130包括控制和数据通信,诸如从基站120通信到用户设备110的数据和控制信息的下行链路、从用户设备110通信到基站120的其他数据和控制信息的上行链路,或两者。无线链路130可以包括使用任何适当的通信协议或标准,或者通信协议或标准的组合——诸如第三代合作伙伴计划长期演进(3GPP LTE)、第五代新无线电(5G NR)等——实现的一个或多个无线链路(例如,无线电链路)或承载。可以在载波聚合或多连接技术中聚合多个无线链路130以为UE 110提供更高的数据速率。可以为与UE 110的多点协作(CoMP)通信配置来自多个基站120的多个无线链路130。
基站120共同作为无线电接入网络140(例如,RAN、演进的通用陆地无线电接入网络、E-UTRAN、5G NR RAN或NR RAN)。RAN 140中的基站121和122被连接到核心网络150。基站121和122通过用于控制平面信令的NG2接口并且当连接到5G核心网络时将NG3接口用于用户平面数据通信,或当连接到演进分组核心(EPC)网络时将S1接口用于控制平面信令和用户平面数据通信,在接口102和接口104处分别连接到核心网络150。基站121和122可以使用通过Xn接口的Xn应用协议(XnAP),或使用通过X2接口的X2应用协议(X2AP)通信,以在接口106处交换用户平面和控制平面数据。UE 110可以经由核心网络150连接到公共网络,诸如与远程服务170交互的互联网160。远程服务170表示用于提供众多服务中的任何一个的计算、通信和存储设备,所述众多服务包括交互式语音或视频通信、文件传输、流语音或视频以及以任何方式实现的其他技术服务,诸如语音呼叫、视频呼叫、网站访问、消息传送服务(例如,文本消息传送或多媒体消息传送)、照片文件传输、企业软件应用,社交媒体应用、视频游戏、流视频服务和播客。
示例设备
图2图示了UE 110和基站120中的一个的示例设备图200,其可以在无线通信***中实现对DNN的联邦学习的各个方面。图3图示了可以在无线通信***中实现对DNN的联邦学习的各个方面的核心网络服务器302的示例设备图300。UE 110、基站120和/或核心网络服务器302可以包括为清楚起见从图2或3中省略的附加功能和接口。
UE 110包括天线202、射频前端204(RF前端204)、和无线收发器(例如LTE收发器206和/或5G NR收发器208)以用于与RAN 140中的基站120进行通信。UE 110的RF前端204可以将LTE收发器206和5G NR收发器208耦合或连接到天线202以促进各种类型的无线通信。UE110的天线202可以包括彼此类似地或不同地配置的多个天线的阵列。天线202和RF前端204可以被调谐到和/或可调谐到由3GPP LTE和5G NR通信标准定义并且由LTE收发器206和5G NR收发器208实现的一个或多个频带。附加地,天线202、RF前端204、LTE收发器206和/或5G NR收发器208可以被配置成支持波束成形以用于与基站120的通信的传输和接收。作为示例而非限制,天线202和RF前端204可以被实现用于在由3GPP LTE和5G NR通信标准定义的千兆赫以下频带、6GHz以下频带和/或高于6GHz频带中操作。
UE 110还包括处理器210和计算机可读存储介质212(CRM 212)。处理器210可以是由诸如硅、多晶硅、高K电介质、铜等各种材料组成的单核处理器或多核处理器。本文描述的计算机可读存储介质排除传播信号。CRM 212可以包括任何合适的存储器或存储设备,诸如可用于存储UE 110的设备数据214的随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)或闪存存储器。设备数据214包括UE 110的用户数据、多媒体数据、波束成形码本、应用、神经网络(NN)表、神经网络训练数据、和/或操作***,它们中的一些可由处理器210执行以使能实现用户平面数据、控制平面信息以及用户与UE 110的交互。
在各个方面中,CRM 212包括存储形成神经网络的各种架构和/或参数配置的神经网络表216,诸如,例如但不限于指定完全连接层神经网络架构、卷积层神经网络架构、递归神经网络层、多个连接的隐藏神经网络层、输入层架构、输出层架构、由神经网络所利用的多个节点、由神经网络所利用的系数(例如,权重和偏置)、内核参数、由神经网络所利用的多个滤波器、由神经网络所使用的跨度/池配置、每个神经网络层的激活功能、神经网络层之间的互连、要跳过的神经网络层等参数。因此,神经网络表216包括神经网络形成配置元素(NN形成配置元素)的任何组合,诸如可以用于创建包括定义和/或形成DNN的一个或多个NN形成配置元素的组合的神经网络形成配置(NN形成配置)的架构和/或参数配置。在一些方面中,神经网络表216的单个索引值映射到单个NN形成配置元素(例如,1:1对应关系)。可替代地或附加地,神经网络表216的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。在一些实施方式中,神经网络表包括每个NN形成配置元素和/或NN形成配置的输入特性,其中输入特性描述关于如进一步描述的用于生成NN形成配置元素和/或NN形成配置的训练数据的属性。
CRM 212还可以包括用户设备神经网络管理器218(UE神经网络管理器218)。可替代地或附加地,UE神经网络管理器218可以全部或部分地实现为与UE 110的其他组件集成或分离的硬件逻辑或电路***。UE神经网络管理器218诸如通过索引值访问神经网络表216,并且使用由NN形成配置所指定的NN形成配置元素来形成DNN。这包括利用如进一步描述的对DNN的架构改变和/或参数改变的任何组合——诸如涉及更新参数的对DNN的小改变和/或重新配置DNN的节点和/或层连接的大改变——来更新DNN。在实施方式中,UE神经网络管理器形成多个DNN以处理无线通信(例如,下行链路通信、上行链路通信)。
UE神经网络管理器218包括UE联邦学习管理器220,其管理与向网络实体处的联邦学习管理器提供关于在UE 110处形成的神经网络(例如,DNN)的更新的ML信息(例如,学习的ML参数、学习的ML架构)相关联的操作,该网络实体聚合来自多个设备的更新的ML信息。虽然图2将UE神经网络管理器218示出为包括UE联邦学习管理器220,但是其他方面实现UE神经网络管理器218与UE联邦学习管理器220分离。UE联邦学习管理器220识别来自基站120的指示指定何时训练DNN和/或何时向基站120报告更新的ML信息的一个或多个条件的请求。为了说明,基站120向UE联邦学习管理器220指示响应于识别触发事件(例如,改变ML参数,改变ML架构,改变信号或链路质量参数,改变UE位置)而执行训练过程和/或传输更新的ML信息。作为另一个示例,基站120向UE联邦学习管理器220指示执行训练过程和/或在周期性基础上传输更新的ML信息。UE联邦学习管理器220识别从基站120接收到的请求和条件,并且监视条件的发生。在一些方面中,UE联邦学习管理器220与UE训练模块222通信以触发训练过程和/或提取更新的ML信息。
CRM 212包括与UE联邦学习管理器220通信的UE训练模块222。可替代地或附加地,UE训练模块222可以全部或部分地实现为与UE 110的其他组件集成或分离的硬件逻辑或电路***。响应于从UE联邦学习管理器220接收到指示,UE训练模块222向DNN供应已知输入数据,诸如作为设备数据214所存储的输入数据。UE训练模块222使用已知输入数据和/或通过向ML算法提供反馈来教导和训练DNN。这包括离线(例如,当DNN没有主动地参与处理通信时)和/或在线(例如,当DNN主动参与处理通信时)训练DNN。
在实施方式中,UE训练模块222从DNN提取更新的ML信息,并且将更新的ML信息转发到UE联邦学习管理器220。所提取的更新的ML信息可以包括定义神经网络的行为——诸如节点连接、系数、活动层、权重、偏置、池化等——的信息的任何组合者。
图2所示的基站120的设备图包括单个网络节点(例如,gNode B)。基站120的功能性可以跨多个网络节点或设备分布,并且可以以适合于执行本文描述的功能的任何方式分布。基站120包括天线252、射频前端254(RF前端254)、一个或多个无线收发器(例如,一个或多个LTE收发器256和/或一个或多个5G NR收发器258)用于与UE 110通信。基站120的RF前端254可以将LTE收发器256和5G NR收发器258耦合或连接到天线252,以促进各种类型的无线通信。基站120的天线252可以包括彼此相似配置或彼此不同配置的多个天线的阵列。天线252和RF前端254可以被调谐到和/或可调谐到由3GPP LTE和5G NR通信标准定义并且由LTE收发器256和/或5G NR收发器258实现的一个或多个频带。另外,天线252、RF前端254、LTE收发器256和/或5G NR收发器258可以被配置为支持波束成形——诸如Massive-MIMO,用于发射和接收与UE 110的通信。
基站120还包括处理器260和计算机可读存储介质262(CRM 262)。处理器260可以是由诸如硅、多晶硅、高K电介质、铜等的多种材料组成的单核处理器或多核处理器。CRM262可以包括可用于存储基站120的设备数据264的任何合适的存储器或存储设备,诸如随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)或闪存。设备数据264包括可以由处理器260执行以使能实现与UE 110的通信的网络调度数据、无线电资源管理数据、波束成形码本、应用和/或基站120的操作***。
CRM 262还包括基站管理器266。可替代地或附加地,基站管理器266可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路***。在至少一些方面中,基站管理器266配置LTE收发器256和5G NR收发器258以与UE 110通信以及与诸如核心网络150的核心网络通信。
CRM 262还包括基站神经网络管理器268(BS神经网络管理器268)。可替代地或附加地,BS神经网络管理器268可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路***。在至少一些方面中,BS神经网络管理器268选择由基站120和/或UE110利用的NN形成配置来配置深度神经网络以处理无线通信,诸如通过选择NN形成配置元素的组合来形成用于处理无线网络通信的DNN。在一些实施方式中,BS神经网络管理器268从UE 110接收反馈,并且基于该反馈来选择NN形成配置。可替代地或附加地,BS神经网络管理器268通过核心网络接口278或基站间接口276,从核心网络150接收神经网络形成配置指导,并且将NN形成配置指导转发给UE 110。
BS神经网络管理器268包括管理ML算法(例如一个或多个DNN)的联邦学习的基站联邦学习管理器270(BS联邦学习管理器270)。BS联邦学习管理器270向UE 110指示指定何时执行训练过程和/或何时向BS联邦学习管理器270报告更新的ML信息的一个或多个更新条件(例如,触发事件、周期性)。BS联邦学习管理器270还从UE集合接收更新的ML信息,并且聚合更新的ML信息以确定可由UE子集用来形成处理无线通信的DNN的公共ML配置。这可以包括确定指示对由UE子集所使用的初始ML配置的更新(例如,增量(delta)或改变)的公共ML配置,或者确定指示形成新DNN的(绝对)ML配置的公共ML配置。在一些方面中,BS联邦学习管理器270基于公共特性(例如,估计的UE位置、UE能力)或公共信道条件(例如,由信号或链路质量参数所指示)来选择UE子集。在各个方面中,UE子集包括至少两个UE。可替代地或附加地,BS联邦学习管理器270选择由多个设备用于联邦学习的初始ML配置。通常,ML配置与用于形成DNN的NN形成配置相对应,并且可以指示定义神经网络的行为——诸如节点连接、系数、活动层、权重、偏置、池化等——的任何合适类型的信息。
CRM 262包括训练模块272和神经网络表274。在实施方式中,基站120管理NN形成配置并且将其部署到UE 110。可替代地或附加地,基站120维护神经网络表274。训练模块272使用已知输入数据教导和/或训练DNN。例如,训练模块272训练DNN以用于不同目的,诸如处理无线通信***上传输的通信(例如,编码下行链路通信、调制下行链路通信、解调下行链路通信、解码下行链路通信、编码上行链路通信、调制上行链路通信、解调上行链路通信、解码上行链路通信)。这包括离线(例如,当DNN没有主动参与处理通信时)和/或在线(例如,当DNN主动参与处理通信时)训练DNN。
在实施方式中,训练模块272从DNN提取学习的参数配置以识别NN形成配置元素和/或NN形成配置,并且然后在神经网络表274中添加和/或更新NN形成配置元素和/或NN形成配置。所提取的参数配置包括定义神经网络的行为——诸如节点连接、系数、活动层、权重、偏置、池化等——的信息的任何组合。
神经网络表274存储使用训练模块272生成的多个不同的NN形成配置元素和/或NN形成配置。在一些实施方式中,神经网络表包括用于每个NN形成配置元素和/或NN形成配置的输入特性,其中,输入特性描述关于用于生成NN形成配置元素和/或NN形成配置的训练数据的属性。例如,输入特性包括例如但不限于以下中的任何一个或多个:功率信息、信号与干扰加噪声比(SINR)信息、信道质量指示符(CQI)信息、参考信号接收质量(RSRQ)、信道状态信息(CSI)、多普勒反馈、频带、块误差率(BLER)、服务质量(QoS)、混合自动重发请求(HARQ)信息(例如,第一传输误差率、第二传输误差率、最大重传)、延迟、无线电链路控制(RLC)、自动重发请求(ARQ)度量、接收信号强度(RSS)、上行链路SINR、定时测量、误差度量、UE能力、BS能力、功率模式、互联网协议(IP)层吞吐量、端对端(end2end)延迟、端对端丢包率等。因此,输入特性有时包括层1、层2和/或层3度量。在一些实施方式中,神经网络表274的单个索引值映射到单个NN形成配置元素(例如1:1对应)。可替代地或附加地,神经网络表274的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。
在实施方式中,基站120使神经网络表274与神经网络表216同步,使得在第二神经网络表中复制在一个神经网络表中存储的NN形成配置元素和/或输入特性。可替代地或附加地,基站120使神经网络表274与神经网络表216同步,使得在一个神经网络表中存储的NN形成配置元素和/或输入特性表示第二神经网络表中的互补功能性(例如,NN形成配置元素在第一神经网络表中用于发射器路径处理,NN形成配置元素在第二神经网络表中用于接收器路径处理)。
基站120还包括基站间接口276,诸如Xn和/或X2接口,基站管理器266将其配置为在其他基站之间交换用户平面数据、控制平面信息和/或其他数据/信息,以管理基站120与UE 110的通信。基站120包括核心网络接口278,基站管理器266将其配置为与核心网络功能和/或实体交换用户平面数据、控制平面信息和/或其他数据/信息。
在图3中,核心网络服务器302可以在核心网络150中提供功能、实体、服务和/或网关的全部或一部分。核心网络150中的每个功能、实体、服务和/或网关可以被提供为跨多个服务器分布或体现在专用服务器上的核心网络150中的服务。例如,核心网络服务器302可以提供用户平面功能(UPF)、访问和移动性管理功能(AMF)、服务网关(S-GW)、分组数据网络网关(P-GW)、移动性管理实体(MME)、演进的分组数据网关(ePDG)等的全部或部分服务或功能。核心网络服务器302被示为被体现在包括处理器304和计算机可读存储介质306(CRM306)的单个服务器上。处理器304可以是由多种材料——诸如硅、多晶硅、高K电介质、铜等——组成的单核处理器或多核处理器。CRM 306可以包括可用于存储核心网络服务器302的设备数据308的任何合适的存储器或存储设备,诸如随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)、硬盘驱动器或闪存。设备数据308包括可由处理器304执行的支持核心网络功能或实体、和/或核心网络服务器302的操作***的数据。
CRM 306还包括一个或多个核心网络应用310,在一个实施方式中,其被体现在CRM306上(如所示)。所述一个或多个核心网络应用310可以实现诸如UPF、AMF、S-GW、P-GW、MME、ePDG等的功能性。可替代地或附加地,所述一个或多个核心网络应用310可以全部或部分地被实现为与核心网络服务器302的其他组件集成或分离的硬件逻辑或电路***。
CRM 306还包括管理NN形成配置的核心网络神经网络管理器312,该NN形成配置用于形成用于处理在UE 110和基站120之间传送的通信的DNN。在各个方面中,核心网络神经网络管理器312选择神经网络表318内的一个或多个NN形成配置以指示所确定的E2E ML配置。
在一些实施方式中,核心网络神经网络管理器312分析各种标准,诸如(例如,如由基站120报告的、如由其他无线接入点报告的、如(经由基站或其他无线接入点)由UE 110报告的)当前信号信道状况、基站120的能力(例如,天线配置、小区配置、MIMO能力、无线电能力、处理能力)、UE 110的能力(例如,天线配置、MIMO能力、无线电能力、处理能力)等。例如,基站120在与UE的通信期间获得各种标准和/或链路质量指示(例如,以下中的任何一个或多个:RSSI、功率信息、SINR、RSRP、CQI、CSI、多普勒反馈、BLER、HARQ、定时测量、误差度量等),并且将标准和/或链路质量指示转发到核心网络神经网络管理器312。核心网络神经网络管理器基于这些标准和/或指示选择改善处理通信的DNN的准确性(例如,较低比特误差、较高信号质量)的ML配置。在一些方面中,核心网络神经网络管理器选择由多个设备用于联邦学习的初始ML配置。核心网络神经网络管理器312然后将E2E ML配置传递到基站120和/或UE 110,诸如通过传递神经网络表的索引。在实施方式中,核心网络神经网络管理器312从基站120接收UE和/或BS反馈,并且基于该反馈来选择更新的E2E ML配置。
在一些方面中,如图3所示,核心网络神经网络管理器312包括核心网络联邦学习管理器314,但是可替代实施方式实现核心网络神经网络管理器312和核心网络联邦学习管理器314作为单独实体。在各个方面中,核心网络联邦学习管理器314管理DNN的联邦学习。核心网络联邦学习管理器314通过基站120向UE 110指示何时发起训练过程和/或何时报告从训练过程(例如,离线训练)和/或处理无线通信(例如,在线训练)学习的更新的ML信息。在各个方面中,核心网络联邦学习管理器314指示指定何时发起训练过程和/或何时向核心网络服务器302(以及通过基站120)报告更新的ML信息的一个或多个更新条件(例如,触发事件、周期性)。核心网络联邦学习管理器314还从UE集合接收更新的ML信息,并且聚合更新的ML信息以确定可由UE子集用来形成处理无线通信的DNN的公共ML配置。在一些方面中,核心网络联邦学习管理器314基于公共UE特性(例如,估计的UE位置、UE能力)或公共信道条件(由信号或链路质量参数指示)来选择UE子集。
CRM 306包括训练模块316和神经网络表318。训练模块316使用已知输入数据教导和/或训练DNN。例如,训练模块316训练DNN以处理通过无线通信***传输的不同类型的导频通信。这包括离线和/或在线训练DNN。在实施方式中,训练模块316从DNN提取学习的NN形成配置和/或学习的NN形成配置元素,并且将学习的NN形成配置元素存储在神经网络表318中,诸如可以由核心网络联邦学习管理器314和/或核心网络神经网络管理器312选择作为从分布式训练所学习的公共ML配置的NN形成配置,如进一步描述的。因此,NN形成配置包括定义或影响DNN的行为的架构配置(例如,节点连接、层连接)和/或参数配置(例如,权重、偏置、池化)的任何组合。在一些实施方式中,神经网络表318的单个索引值映射到单个NN形成配置元素(例如,1:1对应)。可替代地或附加地,神经网络表318的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。术语联邦学习、分布式训练和/或分布式学习可以互换地使用。
在一些实施方式中,核心网络神经网络管理器312的训练模块316生成与在UE 110处的神经网络表216和/或基站120处的神经网络表274中存储的那些互补的NN形成配置和/或NN形成配置元素。作为一个示例,训练模块316利用NN形成配置和/或NN形成配置元素生成神经网络表318,相对于用于生成神经网络表274和/或神经网络表216的中等和/或低变化,NN形成配置和/或NN形成配置元素在架构和/或参数配置方面具有大的变化。例如,由训练模块316生成的NN形成配置和/或NN形成配置元素与全连接层、完整的内核大小、频繁的采样和/或池化、高加权准确性等相对应。因此,神经网络表318有时包括以增加处理复杂性和/或时间为代价的高准确性神经网络。
神经网络表318存储使用训练模块316生成的多个不同的NN形成配置元素。在一些实施方式中,神经网络表包括用于每个NN形成配置元素和/或NN形成配置的输入特性,其中,输入特性描述关于用于生成NN形成配置的训练数据的属性。例如,输入特性可以包括功率信息、SINR信息、CQI、CSI、多普勒反馈、RSS、误差度量等。
核心网络服务器302还包括用于与核心网络150、基站120或UE 110中的其他功能或实体通信用户平面数据、控制平面信息和其他数据/信息的核心网络接口320。在一些实施方式中,核心网络服务器302使用核心网络接口320,将(基于分布式学习/分布式训练/联邦学习所选择的)公共ML配置传递到基站120。核心网络服务器302可替代地或附加地使用核心网络接口320从基站120和/或通过基站120从UE 110接收反馈。
可配置的机器学习模块
图4图示了包括UE 110和基站120的示例操作环境400,其可以在无线通信***中实现对DNN的联邦学习的各个方面。在实施方式中,UE110和基站120通过使用多个DNN处理通信而在无线通信***上相互交换通信。
基站120的基站神经网络管理器268包括用于处理下行链路通信——诸如用于生成传输到UE 110的下行链路通信——的下行链路处理模块402。为了说明,基站神经网络管理器268在下行链路处理模块402中使用与由UE所使用的公共ML配置互补的BS ML配置来形成深度神经网络404(DNN 404),如进一步描述的。在各个方面中,DNN 404执行用于生成下行链路通信的发射器处理链功能性的一些或全部,诸如接收输入数据的处理链、到编码级的进展、随后是调制级、并且然后是射频(RF)模拟发射(Tx)级。为了说明,DNN 404可以执行卷积编码、串并转换、循环前缀***、信道编译、时间/频率交织等。
类似地,UE 110的UE神经网络管理器218包括下行链路处理模块406,其中下行链路处理模块406包括用于处理(接收到的)下行链路通信的深度神经网络408(DNN 408)。在各个方面中,DNN 408执行用于(接收到的)下行链路通信的一些或所有接收器处理功能性,诸如对由DNN 404所执行的处理的互补处理(例如,RF模拟接收(Rx)级、解调级、解码级)。为了说明,DNN 408可以执行以下的任何组合:提取在Rx信号上嵌入的数据、恢复二进制数据,基于在发射器块处应用的前向纠错来校正数据误差、从帧和/或时隙中提取有效载荷等。
基站120和/或UE 110还使用DNN处理上行链路通信。在环境400中,UE神经网络管理器218包括上行链路处理模块410,其中上行链路处理模块410包括用于生成和/或处理上行链路通信(例如,编码、调制)的深度神经网络412(DNN 412)。换句话说,上行链路处理模块410处理传输前通信作为处理上行链路通信的一部分。例如,UE神经网络管理器218使用ML配置来形成DNN 412,以执行用于生成从UE 110传输到基站120的上行链路通信的发射器处理功能性的一些或全部。
类似地,基站120的上行链路处理模块414包括用于处理(接收到的)上行链路通信的深度神经网络416(DNN 416),其中基站神经网络管理器268使用互补(基站)ML配置来形成DNN 416,以执行用于(接收到的)上行链路通信的一些或所有接收器处理功能性,诸如从UE 110接收到的上行链路通信。因此,DNN 412和DNN 416执行彼此的互补功能性。
通常,深度神经网络(DNN)与被组织成三个或更多个层的连接节点的组相对应。层之间的节点以多种方式可配置,诸如其中第一层中的节点的第一子集与第二层中的节点的第二子集连接的部分连接配置或者其中第一层中的每个节点与第二层中的每个节点连接的完全连接配置等。节点可以使用用于基于自适应学***滑等。有时,算法包括基于自适应学习而改变的权重和/或系数。因此,权重和/或系数反映了由神经网络所学习的信息。
神经网络还可以采用各种架构,这些架构确定神经网络内的哪些节点被连接、在神经网络中数据如何被推进和/或保留、使用什么权重和系数来处理输入数据、数据如何被处理等。这些各种因素共同描述了NN形成配置。为了示出,递归神经网络——诸如长短期记忆(LSTM)神经网络——在节点连接之间形成循环,以便保留来自输入数据序列的前一部分的信息。然后,递归神经网络将保留的信息用于输入数据序列的后续部分。作为另一个示例,前馈神经网络将信息传递给前向连接,而不形成循环来保留信息。尽管在节点连接的上下文中进行了描述,但是应当意识到,NN形成配置可以包括影响神经网络如何处理输入数据的各种参数配置。
神经网络的NN形成配置可以由各种架构和/或参数配置来表征。为了说明,考虑其中DNN实现卷积神经网络的示例。通常,卷积神经网络与一种类型DNN相对应,其中,各层使用卷积运算来处理数据以过滤输入数据。因此,卷积NN形成配置可以通过例如但不限于以下来表征:池化参数(例如,指定池化层以减小输入数据的维度)、内核参数(例如,用于处理输入数据的过滤器大小和/或内核类型)、权重(例如,用于分类输入数据的偏置)、和/或层参数(例如,层连接和/或层类型)。尽管在池化参数、内核参数、权重参数和层参数的上下文中被描述,但是其他参数配置可以用于形成DNN。因此,NN形成配置可以包括可以应用于DNN的任何其他类型的参数,该参数影响DNN如何处理输入数据以生成输出数据。
图5图示了描述了在无线通信***中根据对DNN的联邦学习生成多个NN形成配置的方面的示例500。有时,示例500的各个方面由图2的UE联邦学习管理器220、UE神经网络管理器218、训练模块222和/或基站神经网络管理器268的任何组合来实现。
图5的上部包括DNN 502,其表示用于在无线通信***中实现对DNN的联邦学习的任何合适的DNN。在实施方式中,神经网络管理器确定生成不同的NN形成配置,诸如用于基于不同的UE位置、UE能力等来处理无线通信的NN形成配置。可替代地或附加地,神经网络基于不同的传输环境和/或传输信道条件来生成NN形成配置。训练数据504表示到DNN 502的示例输入,诸如与具有特定操作配置和/或特定传输环境相对应的下行链路通信和/或上行链路通信的数据。为了说明,训练数据504可以包括下行链路无线信号的数字样本、恢复的符号、恢复的帧数据,二进制数据等。在一些实施方式中,训练模块以数学方式生成训练数据或访问存储训练数据的文件。其他时候,训练模块获取真实世界的通信数据。因此,训练模块可以使用数学上生成的数据、静态数据和/或真实世界数据来训练DNN 502。一些实施方式生成描述训练数据的各种质量——诸如操作配置、传输信道度量、UE能力、UE速度、估计的UE位置等——的输入特性506。
DNN 502分析训练数据,并生成在此被表示为二进制数据的输出508。一些实施方式使用相同的训练数据集合和/或具有相同输入特性的附加训练数据来迭代地训练DNN502,以改善机器学习模块的准确性。在训练期间,机器学习模块修改在机器学习模块中包括的神经网络的一些或全部架构和/或参数配置,诸如节点连接、系数、内核大小等。在训练的某个时刻,训练模块确定以提取神经网络的架构和/或参数配置510(例如,池化参数、内核参数、层参数、权重),诸如当训练模块确定精度满足或超过期望阈值、训练过程满足或超过迭代次数等时。然后,训练模块从机器学习模块中提取架构和/或参数配置,以用作NN形成配置和/或NN形成配置元素。架构和/或参数配置可以包括固定架构和/或参数配置和/或可变架构和/或参数配置的任何组合。
图5的较低的部分包括表示NN形成配置元素的集合的神经网络表512,诸如图2的神经网络表216或神经网络表274。神经网络表512存储架构配置、参数配置和输入特性的各种组合,但是可代替实施方式从该表中省略输入特性。当DNN学习附加信息时,各种实施方式更新和/或维护NN形成配置元素和/或输入特性。例如,在索引514处,神经网络管理器和/或训练模块更新神经网络表512以包括当分析训练数据504时由DNN502所生成的架构和/或参数配置510。在稍后时间点,神经网络管理器通过将输入特性与当前操作环境和/或配置进行匹配,诸如通过将输入特性与当前信道条件、估计的UE位置、UE能力、UE特性(例如速度)等进行匹配,从神经网络表512中选择一个或多个NN形成配置。
用于无线通信***的DNN的联邦学习
用于ML算法的联邦学习将训练跨多个设备分布。在各个方面中,管理实体将初始ML算法分布到多个设备,并且聚合从多个设备接收到的学习结果(例如,更新的ML信息),以确定初始ML算法的更新版本。因为ML算法通过处理更多的数据和接收关于处理的反馈来改善,所以将公共初始ML算法分布到多个设备增加了由初始ML算法处理的数据量,并且潜在地使用(聚合的)更新来改善ML算法。联邦学习还保护由每个设备所使用的输入数据免受管理实体的潜在暴露。每个设备不是将输入数据传递到管理实体,而是将更新传递到ML算法,从而保护输入数据免受潜在暴露。在用于无线通信***的DNN的联邦学习的方面中,诸如基站或核心网络的网络实体将ML算法分布到UE集合,并且聚合单独ML训练结果以确定适合于该集合中的至少UE子集的公共ML架构。
图6图示了根据用于无线通信***的DNN的联邦学习的一个或多个方面的基站和UE集合之间的示例信令和控制事务图。信令和控制事务的操作可以由图1的基站120、图1的UE 111、UE 112和UE 113使用参考图1至5中的任何一个描述的方面来执行。在可替代或附加方面中,由基站120执行的至少一些操作可以由图3的核心网络302(未图示)执行。
如图所示,在605,基站120为处理无线网络通信的DNN选择初始ML配置。作为一个示例,基站120获得针对UE 111、112和113中的每一个的估计的UE位置,并且聚合相似或相称的估计的UE位置(例如,在彼此的阈值或范围内),诸如通过为彼此接近的UE生成平均估计的UE位置。然后,基站120使用聚合的估计的UE位置来选择初始ML配置。为了说明,基站120访问指示由先前UE在聚合的估计的UE位置处使用的先前ML配置的历史记录,并且使用历史ML配置选择或计算初始ML配置。可替代地或附加地,基站120分析和/或聚合具有类似信号或链路质量参数的UE 111、112和113,并且基于具有等效信号或链路质量参数的历史ML配置来选择或计算初始ML配置。有时,基站120选择默认ML配置作为初始ML配置,或者访问神经网络表以选择初始ML配置。
在各个方面中,基站从每个UE接收UE能力信息消息(未图示),并且基于UE 111、112和113之间的公共UE能力来选择初始ML配置。作为一个示例,UE能力信息消息包括ML能力(例如,以下中的任何一个或多个:支持的ML架构、支持的层数、可用处理能力、存储器/存储能力、可用功率预算、定点处理与浮点处理、最大内核大小能力、计算能力),并且基站120基于由UE 111、112和113所支持的公共ML能力来选择初始ML配置。
在一些方面中,基站120基于UE特性(例如,UE能力、UE ML能力、估计的UE位置)和/或信道条件(例如,由信号或链路质量参数指示)的任何组合来选择UE集合。作为一个示例,基站120诸如通过无线电资源控制(RRC)消息或非接入层(NAS)消息从多个UE接收相应的地理UE位置,并且基于彼此驻留在预定距离或范围内的UE集合来选择UE集合(例如,UE 111、UE 112和UE 113)。作为另一个示例,基站120通过RRC消息和/或媒体接入控制(MAC)层消息接收信号和/或链路质量测量,并且基于具有相称(例如,在彼此的阈值或范围内的)信号和/或链路质量参数的UE来选择UE集合。
初始ML配置有时形成处理单向无线通信——诸如如参考图4描述的下行链路无线通信或上行链路无线通信——的DNN。可替代地或附加地,初始ML配置处理双向无线通信(例如,下行链路和上行链路通信)。因此,基站120可以为不同类型的处理(例如,发射器链操作、接收器链操作)选择不同的ML配置。可替代地或附加地,核心网络服务器302(未图示)选择初始ML配置并且通过基站120通信ML配置UE。
在610处,基站120指导UE集合(例如,UE 111、UE 112、UE 113)中的每个UE使用初始ML配置来形成(相应的)DNN。为了说明,基站120向UE 111、112和113传输神经网络表的索引值的指示。在各个方面中,基站120使用层1信令和/或层2消息传送在控制信道上传输指示。在一些方面中,基站120使用RRC消息或NAS消息来传输指示。
在615、616和617处,UE 111、112和113分别接收形成DNN的指导,并且然后使用初始ML配置形成DNN。例如,每个UE使用所指示的索引来访问相应的UE存储的神经网络表(例如,神经网络表216),以获得指定ML架构和/或ML参数的NN形成配置,如参考图5所述。UE111、112和113然后各自使用ML架构和/或ML参数形成它们自己的DNN,并且使用DNN处理无线网络通信。
在620处,基站120请求UE集合(例如,UE 111、UE 112和UE 113)中的每个UE报告使用训练过程和相应UE本地的输入数据所生成的更新的ML信息。为了说明,基站120使用RRC消息或NAS消息传输请求。在各个方面中,基站120隐式地和/或显式地请求每个UE报告更新的ML信息。为了说明,基站隐式地请求UE通过指示指定关于何时报告更新的ML信息的规则或指令的一个或多个更新条件来报告更新的ML信息(和/或执行训练过程)。可替代地或附加地,基站120显式地请求每个UE使用消息中的标志通过RRC消息或NAS消息来报告更新的ML信息。
在各个方面中,基站120指导每个UE执行在线训练过程,诸如在处理无线网络通信时训练DNN的在线训练过程。在其他方面中,基站120指导每个UE执行使用所存储的数据并且在DNN没有正在处理无线网络通信时的离线训练过程。因此,在一些方面中,基站120指导UE集合何时执行联邦训练过程和/或执行在线或离线训练,诸如通过向UE集合中的每个UE传输RRC消息或NAS消息。
作为更新条件的一个示例,基站120请求UE集合中的每个UE周期性地传输更新的ML信息(和/或执行训练过程)并且指示重复时间间隔。作为另一个示例更新条件,基站120响应于检测到触发事件诸如与UE处的DNN的改变相对应的触发事件——而请求UE集合中的每个UE传输更新的ML信息(和/或执行训练过程)。为了说明,当UE确定ML参数(例如,权重或系数)已经改变多于阈值时,基站120请求每个UE传输更新的ML信息。作为另一个示例,基站120响应于检测到DNN架构在UE处何时改变,诸如当UE(通过UE神经网络管理器218和/或UE联邦学习管理器220)识别出DNN已经通过添加或去除节点或层来改变了ML架构时,请求每个UE传输更新的ML信息。在各个方面中,基站120隐式地或显式地指示执行离线训练过程以获得更新的ML信息,而在其他方面中,基站120隐式地或显式地指示执行在线训练过程。
在一些方面中,基站120基于UE观察到的信号或链路质量参数来请求UE报告更新的ML信息。为了说明,作为触发事件和/或更新条件,基站120请求UE响应于识别下行链路信号和/或链路质量参数(例如,RSSI、SINR、CQI、信道延迟扩展、多普勒扩展)已经改变了或满足阈值而报告更新的ML信息。作为另一个示例,作为触发事件和/或更新条件,基站120请求UE响应于检测到确认/否定确认(ACK/NACK)的阈值来报告更新的ML信息。因此,基站120可以基于在相应UE处检测到的条件从UE集合请求同步更新(例如,周期性的)或从UE集合请求异步更新。在各个方面中,基站请求UE报告观察到的信号或链路质量参数连同更新的ML信息。
在625处,在626处,以及在627处,UE 111、112和113(分别)检测在620处指示的更新条件中的至少一个。在各个方面中,UE 111、112和/或113通过UE联邦学习管理器220检测更新条件的发生。为了说明,UE 111、UE 112和/或UE 113中各自响应于接收到重复持续时间而设置定时器,并且检测定时器的到期。作为另一个示例,UE 111、UE 112和/或UE 113通过周期性地将ML参数与第一阈值进行比较来确定ML参数已经改变多于第一阈值,通过重新配置请求来确定DNN架构已经改变,或者通过每次生成质量参数时将质量参数与第二阈值(或与先前值的差)进行比较来确定信号或链路质量参数已经改变第二阈值。
在630处、在631处、以及在632处,UE 111、112和113可选地执行训练过程以生成更新的ML信息。为了说明,UE 111、112和113可选地通过在处理无线网络通信时向最初在615、616、617处形成的ML算法提供反馈来执行离线训练过程或在线训练过程。可替代地或附加地,UE111、112和113通过在处理无线网络通信时连续地向ML算法提供反馈来连续地执行在线训练过程并且连续地生成更新的ML信息。
响应于检测到条件和/或响应于执行训练过程,在635、636和/或637处,UE 111、112和113向基站120传输指示更新的ML信息的消息。作为一个示例,UE 111、112和113将指示索引的消息传输到神经网络表中,或者传输ML参数和/或ML架构的指示。在一些方面中,UE 111、112和113将信号和/或链路质量参数连同更新的ML信息一起传输。
因此,在640处,基站120从至少一些UE接收更新的ML信息,其中更新的ML信息可以指示ML参数、ML架构和/或ML梯度的任何组合。作为一个示例,UE将索引的指示发送到神经网络表中或传输ML参数、ML架构和/或ML梯度的指示。在一些方面中,基站120接收具有更新的ML信息的信号和/或链路质量参数。基站120使用任何合适的机制,诸如指示对神经网络表的索引的NAS消息,来接收更新的ML信息,其中神经网络表可以包括绝对和/或增量ML配置,或者指示完全或绝对ML配置的NAS消息。为了清楚起见,该示意图600示出在每个UE处同时发生的条件检测和更新的ML信息传输,但是检测和传输的定时和发生可以彼此异步地发生。
在645处,基站120从UE集合中识别UE的子集。可替代地或附加地,核心网络服务器302(未图示)基于一个或多个公共特性来识别UE子集。作为一个示例,基站120基于公共UE能力——诸如,公共数目的天线或公共收发器能力——来选择UE子集。可替代地或附加地,基站120基于相对于彼此在阈值内的相称的信号或链路质量参数来选择UE子集。这可以包括相称的上行链路和/或下行链路信号质量参数(例如,RSRP、SINR、CQI、MCS)。为了说明,基于公共UE能力、相称的信号或链路质量参数、相称的更新的ML信息(例如,公共ML架构更新、阈值内的ML参数更新)、估计的UE位置(例如,UE之间的预定距离内)等的任何组合,基站120确定将UE 111和UE 112包括在UE子集中,并且从UE子集中省略UE 113。在一些实施方式中,核心网络服务器302(未图示)基于一个或多个公共或相称的特性来识别UE的子集,并且将UE子集传递到基站120。在各个方面中,UE子集包括至少两个UE。
在650处,基站120确定用于UE子集的公共ML配置。在确定公共ML配置时,基站120应用联邦学***均。在可替代或附加实施方式中,核心网络服务器302(未图示)使用联邦学习技术来确定公共ML配置。在各个方面中,基站确定指示对由UE子集所使用的初始ML配置的(增量)更新的公共ML配置,或确定指示形成新DNN的(绝对)ML配置的公共ML配置。
在一些方面中,基站120确定用于在UE 111和UE 112处形成DNN的第一公共ML配置以及用于在基站120处形成互补DNN的第二公共ML配置。作为一个示例,UE子集中的每个UE使用第一公共ML配置来形成用于处理接收到的下行链路通信的接收器DNN,诸如图4的DNN408,并且基站120使用第二公共ML配置来形成用于生成向UE子集中的UE传输的下行链路通信的DNN(例如,DNN 412)。然而,第一和第二公共配置可以可替代地或附加地形成上行链路DNN(例如,DNN 412、DNN416)。在一些方面中,基站120分析神经网络表以识别公共ML配置,如进一步描述的。
在655处,基站120指导UE子集使用在650处确定的公共ML配置来更新在615和616处形成的DNN。为了说明,基站120将索引值的指示传输到神经网络表中,其中索引值映射到指定公共ML配置的ML配置的条目。为了说明,基站使用指示对包括绝对和/或增量ML配置的神经网络表的索引的NAS消息或者来指示完全或绝对的ML参数和/或架构的NAS消息来传输指示。UE子集(例如,UE 111和UE 112)然后在660和661处使用公共ML配置来更新它们相应的DNN,诸如通过访问本地神经网络表并且提取公共ML配置。
在665处,信令和控制事务图可选地从指导UE子集更新DNN返回到在640处接收更新的ML信息。在各个方面中,基站120从UE集合(例如,UE 111、UE 112、UE 113)中的UE的任何组合接收附加的更新的ML信息。基站120分析更新的ML信息,并且有时识别新UE子集和/或用于UE子集(例如,UE 111和UE 112)的新公共ML配置。这允许基站120分析更新的ML信息并且使公共DNN在操作环境改变(例如,改变信道条件、改变UE位置)时优化(和重新优化和/或迭代地优化)处理。分布式学习为基站120(或核心网络服务器302)提供了更大量的学习的DNN配置,并且改善了基站120如何选择公共ML配置来改善处理无线通信的对应DNN的总体性能(例如,较高处理分辨率、较快处理、较低比特误差、改善的信号质量、减少的等待时间)。
示例方法
参考图7和图8根据用于无线通信***的DNN的联邦学习的一个或多个方面来描述示例方法700和800。图7图示了用于执行如由诸如基站120和/或核心网络服务器302的网络实体所执行的用于无线通信***的DNN的联邦学习的方面的示例方法700。
在705处,网络实体指导UE集合中的每个UE使用初始ML配置来形成处理无线网络通信的DNN。例如,基站120指导UE集合(例如,UE 111、UE 112、UE 113)使用初始ML配置来形成DNN,如图6的610处所述。在一些方面中,核心网络服务器302确定初始ML配置,并且通过基站120指导UE集合形成DNN。基站120和/或核心网络服务器302使用诸如估计的UE位置、信号或链路质量参数或UE能力等特性的任何组合来确定初始ML配置。在各个方面中,为了指导UE形成DNN,基站120传输在UE集合中的每个UE处存储的神经网络表中的索引值的指示。在一些方面中,基站120接收UE特性,诸如UE能力、UE ML能力或地理位置),并且基于UE特性来形成UE集合。
在710处,网络实体请求UE集合中的每个UE通过使用训练过程和UE本地的输入数据生成关于相应DNN的更新的ML信息来报告该更新的ML信息。在一些方面中,网络实体显式地请求UE报告更新的ML信息(和/或执行训练过程),诸如通过使用消息中的旗标、RRC消息或NAS消息。可替代地或附加地,网络实体隐式请求更新的ML信息(和/或执行训练过程),诸如通过将一个或多个更新条件传递到UE集合中的每个UE,其中更新条件指定关于何时报告更新的ML信息的规则或指令。例如,如图6的620处所述,基站120指定指示周期性地报告更新的ML信息的重复持续时间或者指示触发事件,该触发事件指定响应于检测到触发事件而报告更新的ML信息。可替代地或附加地,核心网服务器302通过基站从每个UE请求更新的ML信息。在一些方面中,基站120隐式地或显式地指令每个UE响应于检测到所述一个或多个更新条件执行离线或在线训练过程作为指示报告更新的ML信息的一部分。
在715处,网络实体从UE集合中的至少一些UE接收由UE所确定的相应更新的ML信息。为了说明,基站120接收ML参数更新(例如,权重、系数)、ML架构更新(例如,节点或层的添加或移除)或梯度更新的任何组合,如在图6的640处所述。
在720处,网络实体基于一个或多个公共特性来识别UE子集。例如,如在图6的645处所述,基站120使用公共UE能力、公共信号或链路质量参数或估计的UE位置的任意组合来识别UE子集。可替代地或附加地,核心网络服务器302通过核心网络联邦学习管理器314和/或核心网络神经网络管理器312来识别UE子集。在各个方面中,UE子集包括至少两个UE。
在725处,网络实体确定用于UE子集的公共ML配置。为了说明,基站120聚合来自UE子集的更新的ML信息,并且基于聚合结果来确定公共ML配置,如在图6的650处所述。例如,基站120对来自UE子集的DNN系数更新进行平均,并且使用平均结果从神经网络表中选择公共ML配置。可替代地或附加地,核心网络服务器302通过核心网络联邦学习管理器314和/或核心网络神经网络管理器312来确定公共ML配置。
在730处,网络实体指导UE子集中的每个UE使用公共ML配置形成更新的DNN。例如,基站120指导UE子集(例如,UE 111、UE 112)使用公共ML配置来更新DNN(使用在705处指示的初始ML配置形成),如在655处所述。
在一些方面中,方法700迭代地重复,如在735所指示。例如,基站从UE子集(例如,UE 111、UE 112)和/或从该子集中省略的其他UE(例如,UE 113)接收附加的更新的ML信息。响应于接收到附加的更新的ML信息,基站确定选择新UE子集,选择新公共ML配置,或其任何组合。该迭代过程允许网络实体使用来自多个DNN的联邦学习来动态地适配DNN,并且改善DNN如何处理无线通信,以随着条件改变而优化(和重新优化)处理。
图8图示了用于执行如由诸如UE 110的网络实体执行的用于无线通信***的DNN的联邦学习的方面的示例方法800。
在805处,UE从网络实体接收用于在UE处处理无线通信的DNN的初始ML配置。例如,UE 110从基站120接收初始ML配置的指示,如在图6的615处、616处和617处所述。为了说明,UE 110将索引值的指示接收到神经网络表中。
在810处,UE使用初始ML配置形成DNN,并且使用DNN处理无线通信。为了说明,参考图6,UE 111形成DNN并且处理无线通信如在615处所述,UE 112形成DNN并且处理无线通信如在616处所述,并且UE 113形成DNN并且处理无线通信,如在617处所述。
在815处,UE接收对用于DNN的更新的机器学习(ML)信息的请求。可替代地或附加地,UE接收指定关于何时将更新的ML信息报告给网络实体的规则或指令的更新条件。例如,UE 110接收指定基于重复持续时间周期性地传输更新的ML信息的该重复持续时间,如在图6的620处所述。
在820处,UE检测更新条件的发生。为了说明,UE 110响应于接收到重复持续时间而设置定时器,并且检测定时器的到期,如在图6的625、626和627处所述。作为另一个示例,UE 110确定信号或链路质量参数已经改变了阈值量。作为又一示例,UE 110确定UE位置已经改变了多于阈值量。
在825处,UE使用UE本地的数据来执行训练过程。为了说明,如在图6的630处、631处和632处所述,UE通过在处理无线网络通信时向ML算法提供反馈来可选地执行离线训练过程或执行在线训练过程。
在830处,UE向网络实体传输指示更新的ML信息的消息。例如,UE 110传输指示更新的ML配置的消息,如在图6的635处、636处和637处所述。在一些方面中,UE 110传输具有更新的ML信息的信号和/或链路质量参数。
在835处,UE接收指导UE使用公共ML配置来更新DNN的第二指示。为了说明,如在图6的680处所述,UE 110从基站120接收使用公共ML配置来更新DNN的指示,诸如通过接收到神经网络表中的索引值的指示。在840处,UE使用公共ML配置来更新DNN。例如,如在图6的685处和690处所述,UE 110基于公共ML配置来更新DNN,诸如通过从神经网络表中获得ML配置并且使用所获得的ML配置来更新DNN。
在一些方面中,方法800迭代地重复,如在845处所指示。例如,UE 110检测更新条件的第二次发生或另一个更新条件的第一次发生,并且将更新的ML信息传输到网络实体(例如,基站120、核心网络服务器302)。响应于传输更新的ML信息,UE 110有时接收对DNN的更新的附加指示。该迭代过程允许UE将更新的ML信息传递到网络实体,并且基于与其他UE的分布式学习来指示新ML配置,新ML配置优化(和重新优化)随着条件改变而处理无线通信的DNN。
描述方法700和方法800的方法块的次序不旨在被解释为限制,并且可以跳过或以任何次序组合任何数量的所述方法框以实现方法或可替代方法。通常,可以使用软件、固件、硬件(例如,固定逻辑电路***)、手动处理或其任何组合来实现本文描述的任何组件、模块、方法和操作的任何一个。可以在被存储在计算机处理***本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述示例性方法的一些操作,并且实施方式可以包括软件应用、程序、功能等。可替代地或附加地,本文描述的任何功能性可以至少部分地由一个或多个硬件逻辑组件执行,诸如但不限于现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SoC)、复杂可编程逻辑器件(CPLD)等。
在下文中,描述了几个示例:
示例1:一种由网络实体执行的用于在无线网络中使用分布式训练来确定至少一个机器学习(ML)配置的方法,该方法包括:指导用户设备(UE)集合中的每个用户设备(UE)使用初始ML配置形成处理无线网络通信的相应深度神经网络(DNN);通过使用训练过程和UE本地的输入数据生成关于UE的相应DNN的更新的ML信息从UE集合中的每个UE请求该更新的ML信息的报告;从UE集合中的至少一些UE接收由UE确定的相应更新的ML信息;识别UE集合中的具有一个或多个公共特性的UE子集;使用来自UE子集中的每个UE的相应更新的ML信息来确定公共ML配置;以及指导UE子集中的每个UE使用公共ML配置形成处理无线网络通信的更新的DNN。
示例2:如示例1所述的方法,其中,请求更新的ML信息的报告进一步包括:通过指示指定何时报告更新的ML信息的一个或多个更新条件来隐式地请求更新的ML信息的报告。
示例3:如示例2所述的方法,其中,所述一个或多个更新条件包括以下中的至少一个:重复持续时间;或者触发事件。
示例4:如示例3所述的方法,其中,所述一个或多个更新条件包括触发事件,并且其中触发事件包括:DNN的一个或多个DNN参数改变了多于第一阈值;DNN的DNN架构改变;第一信号或链路质量参数改变了多于第二阈值;或者UE位置改变了至少第三阈值。
示例5:如示例4所述的方法,其中,触发事件包括:第一信号或链路质量参数改变了多于第二阈值,并且其中,第一信号或链路质量参数包括:接收信号强度指示符,RSSI;参考信号接收质量,RSRQ;参考信号接收功率,RSRP;信号与干扰加噪声比,SINR;信道质量指示符,CQI,信道延迟扩展;或者多普勒扩展。
示例6:根据任一项前述示例所述的方法,其中,接收相应更新的ML信息包括:从UE集合中的至少一些UE接收相应信号或链路质量参数,并且其中确定公共ML配置进一步包括:基于相应信号或链路质量参数来确定公共ML配置。
示例7:如示例6所述的方法,其中,基于相应信号或链路质量参数来确定公共ML配置进一步包括:使用来自UE集合中的至少一些UE的相称信号或链路质量参数来确定公共ML配置。
示例8:如任一项前述示例所述的方法,其中,识别UE集合中的UE子集包括:从UE集合中选择具有以下中的一个或多个的至少两个UE::公共UE能力;相称信号或链路质量参数;或者相称UE位置。
示例9:如示例8所述的方法,其中,相称信号或链路质量参数包括:上行链路信号或链路质量参数;或者下行链路信号或链路质量参数。
示例10:如任一项前述示例所述的方法,其中,确定公共ML配置进一步包括:确定以下中的至少一个:公共ML架构;或者一个或多个公共ML参数。
示例11:如任一项前述示例所述的方法,其中,确定公共ML配置进一步包括:确定用于处理下行链路无线通信的下行链路DNN的公共ML配置;或者确定用于处理上行链路无线通信的上行链路DNN的公共ML配置。
示例12:如示例11所述的方法,其中,确定公共ML配置进一步包括:确定用于上行链路DNN的公共ML配置,并且其中,该方法进一步包括:在网络实体处并且基于用于上行链路DNN的公共ML配置来更新接收ML架构,该接收ML架构在网络实体处形成用于处理上行链路无线通信的接收DNN(RX DNN)。
示例13:如前述示例中任一项所述的方法,其中,指导UE子集中的每个UE使用公共ML配置来形成更新的DNN包括:使用层1信令或层2消息传送向UE子集中的每个UE传输指导的指示。
示例14:如任一项前述示例所述的方法,其中,接收相应更新的ML信息进一步包括:接收以下中的至少一个:ML参数;或者ML架构。
示例15:如任一项前述示例所述的方法,进一步包括:从所述至少一些UE接收UE特性;以及基于一个或多个公共UE特性从多个UE中选择UE集合。
示例16:如前述示例中任一项所述的方法,其中,指导UE子集中的每个UE形成更新的DNN包括:向UE子集中的每个UE传输映射到神经网络表中的第一条目的第一索引值。
示例17:如示例16所述的方法,其中,映射到神经网络表中的第一条目的第一索引值映射到神经网络表中的绝对ML配置或者映射到神经网络表中的增量ML配置。
示例18:如前述示例中任一项所述的方法,其中,指导UE集合中的每个UE使用初始ML配置来形成相应DNN进一步包括:向UE子集中的每个UE传输映射到神经网络表中的第二条目的第二索引值。
示例19:如示例18所述的方法,其中,映射到神经网络表中的第二条目的第二索引值映射到神经网络表中的绝对ML配置或者映射到神经网络表中的增量ML配置。
示例20:一种网络实体,包括:处理器;以及包括指令的计算机可读存储介质,所述指令响应于由处理器执行而用于指导网络实体执行示例1至19所述的方法中的一个。
示例21:一种由用户设备(UE)执行的用于在无线网络中参与机器学习(ML)算法的分布式训练的方法,该方法包括:从网络实体接收用于使用初始ML配置形成处理无线网络通信的深度神经网络(DNN)的指导;从网络实体接收基于训练过程为DNN报告更新的ML信息的请求;通过使用UE本地的数据执行训练过程来生成更新的ML信息;向网络实体传输指示更新的ML信息的消息;从网络实体接收使用公共ML配置更新DNN的指示;以及使用公共ML配置来更新DNN。
示例22:如示例21所述的方法,其中,执行训练过程包括:执行离线训练过程或在线训练过程。
示例23:如示例21或示例22所述的方法,其中,接收报告更新的ML信息的请求进一步包括:接收用于通过接收指定关于何时报告更新的ML信息的指令的更新条件而隐式地报告更新的ML信息的请求。
示例24:如示例23所述的方法,进一步包括:响应于检测到更新条件而执行训练过程。
示例25:如示例23或示例24所述的方法,其中,更新条件包括:用于周期性更新的重复持续时间;或者触发事件。
示例26:如示例24所述的方法,其中,更新条件包括触发事件,并且其中,触发事件包括以下中的至少一个:DNN的一个或多个DNN参数改变了多于第一阈值;DNN的DNN架构改变;第一信号或链路质量参数改变了多于第二阈值;或者UE位置改变了至少第三阈值。
示例27:如示例21至26中任一项所述的方法,其中,处理无线网络通信的DNN包括:处理下行链路无线通信的下行链路DNN;或者处理上行链路无线通信的上行链路DNN。
示例28:如示例21至27中任一项所述的方法,进一步包括:向网络实体传输可由网络实体用于选择用于参与ML算法的分布式训练的UE子集的信息。
示例29:如示例28所述的方法,其中,可由网络实体用于选择UE子集的信息包括以下中的至少一个:估计的UE位置;信号或链路质量参数;UE能力;或UE ML能力。
示例30:如示例28或示例29所述的方法,进一步包括:将信息包括在指示更新的ML信息的消息中。
示例31:如示例21至30中任一项所述的方法,其中,公共ML配置包括:绝对ML配置;或基于初始ML配置的增量ML配置。
示例32:一种用户设备,包括:处理器;以及包括指令的计算机可读存储介质,所述指令响应于由处理器执行而用于指导用户设备执行示例21至31的方法中的一个。
示例33:一种包括指令的计算机可读存储介质,所述指令响应于由处理器执行而使得执行如示例1至19或21至31中任一个所述的方法。

Claims (15)

1.一种由网络实体执行的用于在无线网络中使用分布式训练来确定至少一个机器学习ML配置的方法,所述方法包括:
指导用户设备UE集合中的每个用户设备UE使用初始ML配置形成处理无线网络通信的相应深度神经网络DNN;
从所述UE集合中的每个UE请求关于所述UE的相应DNN的更新的ML信息的报告,所述更新的ML信息由所述UE使用训练过程和所述UE本地的输入数据来生成;
从所述UE集合中的至少一些UE接收由所述UE确定的相应更新的ML信息以及一个或多个相应链路或信号质量参数;
通过使用所述一个或多个相应链路或质量参数识别所述UE集合中的具有一个或多个相称链路或信号质量参数的UE子集;
使用来自所述UE子集中的每个UE的相应更新的ML信息来确定公共ML配置;以及
指导所述UE子集中的每个UE使用所述公共ML配置形成处理所述无线网络通信的更新的DNN。
2.根据权利要求1所述的方法,进一步包括:
在所述网络实体处并且基于所述公共ML配置,确定用于所述网络实体处的网络侧DNN的互补ML架构,所述网络侧DNN执行与由所述更新的DNN所执行的处理互补的所述无线网络通信的处理。
3.根据权利要求1或2所述的方法,其中,确定所述公共ML配置进一步包括:
基于所述一个或多个相称链路或信号质量参数来确定所述公共ML配置。
4.根据权利要求3所述的方法,其中,基于所述一个或多个相称链路或信号质量参数来确定所述公共ML配置进一步包括以下中的至少一个:
使用由所述网络实体生成的上行链路链路或信号质量参数来确定所述公共ML配置;或者
使用从所述UE集合中的一个或多个UE接收到的下行链路链路或信号质量参数来确定所述公共ML配置。
5.根据任一项前述权利要求所述的方法,其中,识别所述UE集合中的所述UE子集进一步包括:
从所述UE集合中选择具有相称UE位置的至少两个UE。
6.根据权利要求1至5中的任一项所述的方法,其中,确定所述公共ML配置进一步包括:
确定用于处理下行链路无线通信的下行链路DNN的公共ML配置;或者
确定用于处理上行链路无线通信的上行链路DNN的公共ML配置。
7.根据权利要求1至6中的任一项所述的方法,其中,请求所述更新的ML信息的报告包括指示指定何时报告所述更新的ML信息的一个或多个更新条件,所述一个或多个更新条件包括以下中的至少一个:
第一信号或链路质量参数改变了多于第一阈值;或者
UE位置改变了至少第二阈值。
8.根据权利要求7所述的方法,进一步包括:
基于所述第一信号或链路质量参数改变了多于所述第一阈值向所述UE集合中的每个UE指示报告所述更新的ML信息,所述第一信号或链路质量参数包括:
接收信号强度指示符RSSI;
参考信号接收质量RSRQ;
参考信号接收功率RSRP;
信号与干扰加噪声比SINR;
信道质量指示符CQI;
确认/否定确认ACK/NACK的数量;
信道延迟扩展;或者
多普勒扩展。
9.一种由用户设备UE执行的用于在无线网络中参与机器学习ML算法的分布式训练的方法,所述方法包括:
从网络实体接收用于使用初始ML配置形成处理无线网络通信的深度神经网络DNN的指导;
从网络实体接收基于训练过程为所述DNN报告更新的ML信息的请求;
通过使用所述UE本地的数据执行所述训练过程来生成所述更新的ML信息;
向所述网络实体传输所述更新的ML信息的第一指示以及由所述UE观察到的一个或多个信号或链路质量参数作为生成所述更新的ML信息的一部分;
从所述网络实体接收用于使用公共ML配置更新所述DNN的第二指示;以及
使用所述公共ML配置来更新所述DNN。
10.根据权利要求9所述的方法,其中,接收报告所述更新的ML信息的所述请求进一步包括:
接收响应于检测到更新条件而报告所述更新的ML信息的指令,所述更新条件包括以下中的至少一个:
第一信号或链路质量参数改变了多于第一阈值;或者
UE位置改变了至少第二阈值。
11.根据权利要求10所述的方法,进一步包括:
检测所述更新条件;以及
响应于检测到所述更新条件来执行在线训练过程或离线训练过程。
12.根据权利要求11所述的方法,其中,检测所述更新条件包括:
检测所述第一信号或链路质量参数已经改变了多于所述第一阈值,所述第一信号或链路质量参数包括:
接收信号强度指示符RSSI;
参考信号接收质量RSRQ;
参考信号接收功率RSRP;
信号与干扰加噪声比SINR;
信道质量指示符CQI;
确认/否定确认ACK/NACK的数量;
信道延迟扩展;或者
多普勒扩展。
13.根据权利要求9至12中的任一项所述的方法,进一步包括:
向所述网络实体传输可由所述网络实体用于选择参与所述ML算法的所述分布式训练的UE子集的信息,所述信息包括以下中的至少一个:
估计的UE位置;或者
UE ML能力。
14.根据权利要求13所述的方法,进一步包括:
传输具有所述第一指示的所述信息。
15.一种设备,包括:
无线收发器;
处理器;以及
包括指令的计算机可读存储介质,所述指令响应于由所述处理器执行而用于指导所述设备执行根据权利要求1至14中的任一项所述的方法。
CN202180058755.5A 2020-07-10 2021-06-28 用于无线通信***中的深度神经网络的联邦学习 Pending CN116075834A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063050733P 2020-07-10 2020-07-10
US63/050,733 2020-07-10
PCT/US2021/039408 WO2022010685A1 (en) 2020-07-10 2021-06-28 Federated learning for deep neural networks in a wireless communication system

Publications (1)

Publication Number Publication Date
CN116075834A true CN116075834A (zh) 2023-05-05

Family

ID=77022310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180058755.5A Pending CN116075834A (zh) 2020-07-10 2021-06-28 用于无线通信***中的深度神经网络的联邦学习

Country Status (4)

Country Link
US (1) US20230259789A1 (zh)
EP (1) EP4168938A1 (zh)
CN (1) CN116075834A (zh)
WO (1) WO2022010685A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116506072A (zh) * 2023-06-19 2023-07-28 华中师范大学 基于多任务联邦学习的mimo-noma***的信号检测方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4014166A1 (en) 2019-08-14 2022-06-22 Google LLC Base station-user equipment messaging regarding deep neural networks
US12001943B2 (en) 2019-08-14 2024-06-04 Google Llc Communicating a neural network formation configuration
WO2021045748A1 (en) 2019-09-04 2021-03-11 Google Llc Neural network formation configuration feedback for wireless communications
US11886991B2 (en) 2019-11-27 2024-01-30 Google Llc Machine-learning architectures for broadcast and multicast communications
US11689940B2 (en) 2019-12-13 2023-06-27 Google Llc Machine-learning architectures for simultaneous connection to multiple carriers
US11663472B2 (en) 2020-06-29 2023-05-30 Google Llc Deep neural network processing for a user equipment-coordination set
WO2023173321A1 (en) * 2022-03-16 2023-09-21 Qualcomm Incorporated Network assisted application layer federated learning member selection
WO2023193891A1 (en) * 2022-04-05 2023-10-12 Huawei Technologies Co., Ltd. Apparatus and method for finite-state dynamic in-network learning
WO2023206249A1 (en) * 2022-04-28 2023-11-02 Qualcomm Incorporated Machine learning model performance monitoring reporting
WO2023213722A1 (en) * 2022-05-05 2023-11-09 Continental Automotive Technologies GmbH Advanced wireless communication ai/ml training techniques
GB202211702D0 (en) * 2022-05-06 2022-09-21 Samsung Electronics Co Ltd Method and Apparatus for Application Federated Learning Flexible Operation over 5GS
WO2023229501A1 (en) * 2022-05-24 2023-11-30 Telefonaktiebolaget Lm Ericsson (Publ) Managing a machine learning process
US20240104384A1 (en) * 2022-09-28 2024-03-28 Qualcomm Incorporated Management of federated learning
EP4351203A1 (en) * 2022-10-07 2024-04-10 Samsung Electronics Co., Ltd. User equipment and base station operating based on communication model, and operating method thereof
CN117979352A (zh) * 2024-03-01 2024-05-03 广州睿盛英林科技有限公司 一种基于主动学习的5g通信***中的空口监测方法及设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116506072A (zh) * 2023-06-19 2023-07-28 华中师范大学 基于多任务联邦学习的mimo-noma***的信号检测方法
CN116506072B (zh) * 2023-06-19 2023-09-12 华中师范大学 基于多任务联邦学习的mimo-noma***的信号检测方法

Also Published As

Publication number Publication date
EP4168938A1 (en) 2023-04-26
US20230259789A1 (en) 2023-08-17
WO2022010685A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US20230259789A1 (en) Federated learning for deep neural networks in a wireless communication system
US11886991B2 (en) Machine-learning architectures for broadcast and multicast communications
RU2739483C1 (ru) Обратная связь по конфигурации формирования нейронной сети для беспроводных передач
US11928587B2 (en) Base station-user equipment messaging regarding deep neural networks
US12001943B2 (en) Communicating a neural network formation configuration
US12020158B2 (en) Deep neural network processing for a user equipment-coordination set
US11689940B2 (en) Machine-learning architectures for simultaneous connection to multiple carriers
US20230325679A1 (en) User Equipment-Coordination Set Federated for Deep Neural Networks
US20230004864A1 (en) End-to-End Machine-Learning for Wireless Networks
US20230344725A1 (en) End-to-End Deep Neural Network Adaptation for Edge Computing
CN117980913A (zh) 包括深度神经网络和静态算法模块的混合无线处理链

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination