CN114424601A - 用于无线网络的端到端机器学习 - Google Patents

用于无线网络的端到端机器学习 Download PDF

Info

Publication number
CN114424601A
CN114424601A CN201980100522.XA CN201980100522A CN114424601A CN 114424601 A CN114424601 A CN 114424601A CN 201980100522 A CN201980100522 A CN 201980100522A CN 114424601 A CN114424601 A CN 114424601A
Authority
CN
China
Prior art keywords
neural network
configuration
machine learning
base station
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980100522.XA
Other languages
English (en)
Inventor
王继兵
埃里克·理查德·施陶费尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN114424601A publication Critical patent/CN114424601A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/08Testing, supervising or monitoring using real traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

描述了用于生成用于无线网络的端到端机器学习配置的技术和装置。端到端机器学习控制器(318)确定用于处理通过无线网络中的端到端通信(1902,1904)所交换的信息的端到端机器学习配置(2115,2230)。该端到端机器学习控制器获得在端到端通信中利用的一个或多个设备的能力(在2215处,在2220处)。该端到端机器学习控制器(318)确定用于处理通过端到端通信(1902,1904)所交换的信息的端到端机器学习配置(2115,2230),并且通过基于端到端机器学习配置形成一个或多个深度神经网络(1908、1910、1912、1914、1916、1918)来引导一个或多个设备(110,120,302)处理通过端到端通信(1902,1904)所交换的信息。

Description

用于无线网络的端到端机器学习
背景技术
无线通信***的演进经常源于对数据吞吐量的需求。作为一个示例,随着越来越多的设备获得对无线通信***的接入,对数据的需求增加。演进设备还执行比传统应用利用更多数据的数据密集型应用,诸如数据密集型流视频应用、数据密集型社交媒体应用、数据密集型音频服务等。这种增长的需求有时能够耗尽无线通信***的数据资源。因此,为了适应增加的数据使用,相对于传统无线通信***,演进的无线通信***利用日益复杂的架构来提供更多数据吞吐量。
作为一个示例,第五代(5G)标准和技术使用诸如6千兆赫(GHz)以上频带的较高频率范围(例如,5G毫米波(mmW)技术)来传送数据以增加数据容量。然而,使用这些较高频率范围来传送和恢复信息提出了挑战。为了说明,相对于低频信号,高频信号更易于受到多径衰落、散射、大气吸收、衍射、干扰等影响。当在接收器处恢复信息时,这些信号失真经常导致误差。作为另一示例,能够传送、接收、路由和/或以其他方式使用这些较高频率的硬件可能是复杂且昂贵的,这增加了无线网络设备中的处理成本。
发明内容
本文档描述了用于无线***的端到端(E2E)机器学习的技术和装置。各方面描述了一种获得与无线网络中的端到端通信相关联的设备的能力的端到端机器学习控制器。在一些实现方式中,端到端机器学习控制器获得至少一个设备的机器学习(ML)能力。响应于获得能力,端到端机器学习控制器基于设备的能力来确定端到端机器学习配置(E2E ML配置),并且将端到端机器学习配置传达到一个或多个设备。可替代地或附加地,端到端机器学习控制器引导这些设备中的每个设备基于端到端机器学习配置来形成相应深度神经网络,并且使用相应深度神经网络来处理端到端通信。
一个或多个方面描述了一种用户设备(UE),其将由该用户设备支持的一种或多种能力传送到诸如在网络实体处实现的端到端机器学习控制器。UE基于用于处理通过端到端通信所交换的信息的端到端机器学习配置来接收神经网络形成配置。UE使用神经网络形成配置来形成深度神经网络,然后使用深度神经网络来处理通过端到端通信所交换的信息。
在附图和以下描述中阐述了用于无线网络的端到端机器学习的一个或多个实现方式的细节。从说明书和附图以及从权利要求书中,其它特征和优点将是显而易见的。提供本发明内容以介绍将在具体实现方式和附图中进一步描述的主题。因此,本发明内容不应被认为是描述必要特征,也不应被用于限制所要求保护的主题的范围。
附图说明
下面描述无线网络的端到端机器学习的一个或多个方面的细节。在说明书和附图中的不同实例中使用相同的附图标记指示类似的元件:
图1图示了其中可以实现用于无线网络的端到端机器学习的各个方面的示例环境。
图2图示了可以实现用于无线网络的端到端机器学习的各个方面的设备的示例设备图。
图3图示了可以实现用于无线网络的端到端机器学习的各个方面的设备的示例设备图。
图4图示了可以实现用于无线网络的端到端机器学习的各个方面的示例机器学习模块。
图5图示了由设备用于处理通过无线通信***所传送的通信的处理链的示例框图。
图6图示了在无线通信***中利用多个深度神经网络的示例操作环境。
图7图示了用于使用神经网络形成配置来配置神经网络的各个设备之间的示例事务图。
图8图示了用于使用神经网络形成配置来更新神经网络的各个设备之间的示例事务图。
图9-1和图9-2图示了用于使用神经网络形成配置来配置神经网络的各个设备之间的示例事务图。
图10图示了用于配置神经网络以处理通过无线通信***所传送的通信的示例方法。
图11图示了用于基于神经网络形成配置来形成神经网络的示例方法。
图12图示了生成多个神经网络形成配置的示例。
图13图示了用于传达神经网络形成配置的各个设备之间的示例事务图。
图14图示了用于传达神经网络形成配置的各个网络实体之间的示例事务图。
图15图示了用于传达神经网络形成配置的各个网络实体之间的示例事务图。
图16图示了用于通过无线通信***来传达神经网络形成配置的示例方法。
图17图示了用于通过无线通信***来传达神经网络形成配置的示例方法。
图18图示了说明QoS流之间的示例变化的示例环境。
图19图示了其中可以实现用于无线网络的端到端机器学习的各个方面的示例环境。
图20图示了其中可以实现用于无线网络的端到端机器学习的各个方面的示例环境。
图21图示了根据用于无线网络的端到端机器学习的各个实现方式的各个设备之间的示例事务图。
图22图示了根据用于无线网络的端到端机器学习的各个实现方式的各个设备之间的示例事务图。
图23图示了根据用于无线网络的端到端机器学习的各个实现方式的各个设备之间的示例事务图。
图24图示了根据用于无线网络的端到端机器学习的各个实现方式的各个设备之间的示例事务图。
图25图示了用于无线网络的端到端机器学习的示例方法。
图26图示了用于无线网络的端到端机器学习的示例方法。
具体实现方式
在传统无线通信***中,发送器和接收器处理链包括复杂的功能。例如,处理链中的信道估计块估计或预测传输环境如何使传播通过传输环境的信号失真。作为另一示例,信道均衡器块反转由信道估计块从信号中识别的失真。当处理较高频率范围(诸如在6GHz范围或其附近的5G mmW信号)时,这些复杂功能经常变得更加复杂。例如,相对于较低频率范围,传输环境向较高频率范围添加更多失真,因此使得信息恢复更复杂。此外,能够处理和路由较高频率范围的硬件经常添加增加的成本和复杂的物理约束。
DNN提供了对复杂处理(诸如在无线通信***中使用的复杂功能)的解决方案。通过在发送器和/或接收器处理链操作上训练DNN,DNN可以以各种方式来代替传统复杂功能,例如,通过代替在无线通信信号的端到端处理中使用的一些或所有传统处理块,代替单独处理链块等。DNN的动态重新配置(诸如通过修改各种参数配置(例如,系数、层连接、内核大小))也提供了适应变化的操作条件的能力。
本文档描述了用于无线网络的端到端机器学习的各方面,其允许***处理通信,并且随着操作条件改变而动态地重新配置在E2E通信中使用的DNN。各方面可以由在无线通信***中操作的网络实体(例如,基站、核心网络服务器、用户设备)来实现。
在实现方式中,网络实体获得与无线网络中的E2E通信相关联的设备的能力。在一些实现方式中,网络实体诸如通过从参与E2E通信的一个或多个设备请求UE能力、机器学习能力(ML能力)、基站(BS)能力等来请求能力。响应于获得能力,网络实体基于接收到的能力来确定端到端机器学习配置(E2E ML配置)。在确定E2E ML配置之后,网络实体将E2E ML配置传达给设备,诸如通过将第一神经网络(NN)格式配置传达给第一设备、将第二NN格式配置传达给第二设备等。网络实体然后引导参与E2E通信的设备基于E2E ML配置来形成相应的深度神经网络(例如,使用第一NN格式配置形成的第一DNN、使用第二NN格式配置形成的第二DNN),并且使用相应的DNN来处理E2E通信。
在实现方式中,UE向网络实体传送由用户设备支持的一个或多个能力。例如,UE传送处理能力、存储器能力、ML支持能力等。之后,UE接收与E2E ML配置相关联的NN信息配置。UE然后使用NN形成配置来形成DNN,并且使用DNN来处理UE侧通信(例如,E2E通信的UE部分)。
确定E2E ML配置(其中E2E ML配置可以在多个设备之间划分)使得网络实体能够选择改善***中的通信交换的ML配置。例如,在一些实现方式中,网络实体基于设备能力来划分E2E ML配置,使得网络实体引导具有较少处理资源和/或存储器的设备相对于具有较多处理资源和/或存储器的设备利用较少处理(例如,较少数据、较少存储器、较少CPU周期、较少层)来形成DNN。换言之,网络实体确定改善在设备之间交换的E2E通信的整体性能的E2E ML配置(例如,较低的比特误差、改善的信号质量、改善的延迟),并且基于设备资源来划分E2E ML配置以便以高效方式分配和/或适当处理。
短语“通过......传送”、“所交换的通信”和“与......相关联的通信”包括生成要通过无线通信***传送的通信(例如,处理传输前通信)和/或处理通过无线通信***接收的通信。因此,“处理通过无线通信***传送的通信”、“通过无线通信***所交换的通信”以及“与无线通信***相关联的通信”包括生成传输(例如,传输前处理)、处理接收到的传输、或其任何组合。
示例环境
图1图示包括用户设备110(UE 110)的示例环境100,该用户设备110能够通过图示为无线链路131和132的一个或多个无线通信链路130(无线链路130)来与基站120(图示为基站121和122)通信。为了简单起见,用户设备110被实现为智能电话,但是可以被实现为任何合适的计算或电子设备,诸如移动通信设备、调制解调器、蜂窝电话、游戏设备、导航设备、媒体设备、膝上型计算机、台式计算机、平板计算机、智能家电或基于车辆的通信***或诸如传感器或致动器的物联网(IoT)。可以在宏小区、微小区、小小区、微微小区等或它们的任何组合中实现基站120(例如,演进型通用陆地无线接入网络节点B、E-UTRAN节点B、演进型节点B、eNodeB、eNB、下一代节点B、gNode B、gNB、ng-eNB等)。
基站120使用无线链路131和132与用户设备110进行通信,这些无线链路可以被实现为任何合适类型的无线链路。无线链路131和132包括控制和数据通信,诸如从基站120传达到用户设备110的数据和控制信息的下行链路、从用户设备110传达到基站120的其他数据和控制信息的上行链路或这两者。无线链路130可以包括使用任何合适的通信协议或标准或诸如以下各项的通信协议或标准的组合来实现的一个或多个无线链路(例如无线电链路)或承载:第三代合作伙伴计划长期演进(3GPP LTE)、第五代新无线电(5G NR)等。可以在载波聚合中聚合多个无线链路130以为UE 110提供更高的数据速率。可以将来自多个基站120的多个无线链路130配置用于与UE 110进行协调多点(CoMP)通信。
基站120共同地是无线电接入网络140(例如RAN、演进型通用陆地无线电接入网络、E-UTRAN、5G NR RAN或NR RAN)。RAN 140中的基站121和122被连接到核心网络150。基站121和122分别在102和104处通过用于控制平面信令的NG2接口、以及在连接到5G核心网络时使用用于用户平面数据通信的NG3接口、或者在连接到演进分组核心(EPC)网络时使用用于控制平面信令和用户平面信令通信的S1接口连接到核心网络150。基站121和122可以在106处使用Xn应用协议(XnAP)通过Xn接口进行通信,或者使用X2应用协议(X2AP)通过X2接口进行通信,以交换用户平面和控制平面数据。用户设备110可以经由核心网络150连接到公用网络(诸如互联网160),以与远程服务170交互。远程服务170表示用于提供多种服务中的任何一种的计算、通信和存储设备,所述多种服务包括交互式语音或视频通信、文件传输、流语音或视频以及以任何方式实现的其他技术服务,诸如语音呼叫、视频呼叫、网站访问、消息传送服务(例如,文本消息传送或多媒体消息传送)、照片文件传输、企业软件应用,社交媒体应用、视频游戏、流视频服务和播客。
示例设备
图2图示用户设备110和基站120之一的示例设备图200。图3图示核心网络服务器302的示例设备图300。用户设备110、基站120和/或核心网络服务器302可以包括为了清楚起见从图2或图3中省略的附加功能和接口。
用户设备110包括天线202、射频前端204(RF前端204)、无线收发器(例如LTE收发器206和/或5G NR收发器208)以用于与RAN140中的基站120进行通信。用户设备110的RF前端204能够将LTE收发器206和5G NR收发器208耦合或连接到天线202以促进各种类型的无线通信。用户设备110的天线202可以包括彼此类似地或不同地配置的多个天线的阵列。天线202和RF前端204可以被调谐到和/或可调谐到由3GPP LTE和5G NR通信标准定义并且由LTE收发器206和5G NR收发器208实现的一个或多个频带。附加地,天线202、RF前端204、LTE收发器206和/或5G NR收发器208可以被配置成支持波束形成以用于与基站120的通信的传输和接收。作为示例而非限制,天线202和RF前端204能够被实现用于在由3GPP LTE和5G NR通信标准定义的千兆赫以下频带、6GHZ以下频带和/或高于6GHz频带中操作。
用户设备110还包括处理器210和计算机可读存储介质212(CRM212)。处理器210可以是由诸如硅、多晶硅、高K电介质、铜等各种材料组成的单核处理器或多核处理器。本文描述的计算机可读存储介质排除传播信号。CRM 212可以包括任何合适的存储器或存储设备,诸如可用于存储用户设备110的设备数据214的随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)或闪存存储器。设备数据214包括用户设备110的用户数据、多媒体数据、波束形成码本、应用、神经网络表和/或操作***,它们可由处理器212执行以实现用户平面通信、控制平面信令以及用户与用户设备110的交互。
在一些实现方式中,计算机可读存储介质212包括存储形成神经网络的各种架构和/或参数配置的神经网络表216,诸如,例如但不限于指定完全连接层神经网络架构、卷积层神经网络架构、递归神经网络层、多个连接的隐藏神经网络层、输入层架构、输出层架构、神经网络所利用的多个节点、神经网络所利用的系数(例如,权重和偏置)、内核参数、神经网络所利用的多个滤波器、神经网络所使用的跨度/池配置、每个神经网络层的激活功能、神经网络层之间的互连、要跳过的神经网络层等参数。因此,神经网络表216包括可以用于创建定义和/或形成DNN的NN形成配置(例如,一个或多个NN形成配置元素的组合)的NN形成配置元素(例如,架构和/或参数配置)的任意组合。在一些实现方式中,神经网络表216的单个索引值映射到单个NN形成配置元素(例如,1:1对应关系)。可替代地或另外地,神经网络表216的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。在一些实现方式中,神经网络表包括每个NN形成配置元素和/或NN形成配置的输入特性,其中输入特性描述关于如进一步描述的用于生成NN形成配置元素和/或NN形成配置的训练数据的属性。
在一些实现方式中,CRM 212还可以包括用户设备神经网络管理器218(UE神经网络管理器218)。可替代地或另外地,UE神经网络管理器218可以全部或部分地实现为与用户设备110的其他组件集成或分离的硬件逻辑或电路。UE神经网络管理器218诸如通过索引值访问神经网络表216,并且使用由NN形成配置所指定的NN形成配置元素来形成DNN。在实现方式中,UE神经网络管理器形成多个DNN以处理无线通信(例如,与基站120交换的下行链路通信和/或上行链路通信)。
图2中示出的基站120的设备图包括单个网络节点(例如,gNode B)。基站120的功能可以分布在多个网络节点或设备上,并且可以以适合于执行本文描述的功能的任何方式分布。基站120包括天线252、射频前端254(RF前端254)、用于与终端110通信的一个或多个无线收发器(例如,一个或多个LTE收发器256、和/或一个或多个5GNR收发器258)。基站120的RF前端254可以将LTE收发器256和5GNR收发器258耦合或连接到天线252,以促进各种类型的无线通信。基站120的天线252可以包括彼此类似地或不同地配置的多个天线的阵列。天线252和RF前端254可以被调谐到和/或可调谐到由3GPP LTE和5GNR通信标准定义并且由LTE收发器256和/或5GNR收发器258实现的一个或多个频带。附加地,天线252、RF前端254、LTE收发器256和/或5G NR收发器258可以被配置为支持波束形成(诸如大规模-MIMO)以用于与UE 110的通信的传输和接收。
基站120还包括处理器260和计算机可读存储介质262(CRM262)。处理器260可以是由诸如硅、多晶硅、高K电介质、铜等各种材料组成的单核处理器或多核处理器。CRM 262可以包括任何合适的存储器或存储设备,诸如可用于存储基站120的设备数据264的随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)或闪存存储器。设备数据264包括基站120的网络调度数据、无线电资源管理数据、波束形成码本、应用和/或操作***,这些数据可由处理器260执行以实现与用户设备110的通信。
CRM 262还包括基站管理器266。可替代地或另外地,基站管理器266可以全部或部分地实现为与基站120的其它组件集成或分离的硬件逻辑或电路。在至少一些方面中,基站管理器266配置LTE收发器256和5GNR收发器258用于与用户设备110通信,以及与核心网络(诸如核心网络150)通信。
CRM 262还包括基站神经网络管理器268(BS神经网络管理器268)。可替代地或另外地,BS神经网络管理器268可以全部或部分地实现为与基站120的其它组件集成或分离的硬件逻辑或电路。在至少一些方面中,BS神经网络管理器268选择由基站120和/或UE 110所利用的NN形成配置(诸如通过选择NN形成配置元素的组合)来配置用于处理无线通信的深度神经网络。在一些实现方式中,BS神经网络管理器从UE 110接收反馈,并且基于反馈来选择神经网络形成配置。可替代地或另外地,BS神经网络管理器268通过核心网络接口276或基站间接口274从核心网络150元素接收神经网络形成配置方向,并且将神经网络形成配置方向转发到UE 110。
CRM 262包括训练模块270和神经网络表272。在实现方式中,基站120管理NN信息配置并且将其部署到UE 110。可替代地或附加地,基站120维持神经网络表272。训练模块270使用已知的输入数据来教导和/或训练DNN。例如,训练模块270训练DNN用于不同的目的,诸如处理在无线通信***上传送的通信(例如,对下行链路通信进行编码、对下行链路通信进行调制、对下行链路通信进行解调、对下行链路通信进行解码、对上行链路通信进行编码、对上行链路通信进行调制、对上行链路通信进行解调、对上行链路通信进行解码)。这包括离线(例如,当DNN没有主动地参与处理通信时)和/或在线(例如,当DNN主动地参与处理通信时)训练DNN。
在实现方式中,训练模块270从DNN提取学习到的参数配置以识别NN形成配置元素和/或NN形成配置,然后添加和/或更新神经网络表272中的NN形成配置元素和/或NN形成配置。所提取的参数配置包括定义神经网络的行为的信息(诸如节点连接、系数、活动层、权重、偏置、池化等)的任何组合。
神经网络表272存储使用训练模块270所生成的多个不同的NN形成配置元素和/或NN形成配置。在一些实现方式中,神经网络表包括每个NN形成配置元素和/或NN形成配置的输入特性,其中输入特性描述关于用于生成NN形成配置元素和/或NN形成配置的训练数据的属性。例如,输入特性包括,作为示例而非限制,功率信息、信号与干扰加噪声比(SINR)信息、信道质量指示符(CQI)信息、信道状态信息(CSI)、多普勒反馈、频带、误块率(BLER)、服务质量(QoS)、混合自动重传请求(HARQ)信息(例如,第一传输误差率、第二传输误差率、最大重传)、延迟、无线电链路控制(RLC)、自动重传请求(ARQ)度量、接收信号强度(RSS)、上行链路SINR、定时测量、误差度量、UE能力、BS能力、功率模式、互联网协议(IP)层吞吐量、端到端延迟、端到端分组丢失率等。因此,输入特性有时包括层1、层2和/或层3度量。在一些实现方式中,神经网络表272的单个索引值映射到单个NN形成配置元素(例如,1:1对应关系)。可替代地或附加地,神经网络表272的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。
在实现方式中,基站120将神经网络表272与神经网络表216同步,使得存储在一个神经网络表中的NN形成配置元素和/或输入特性在第二神经网络表中复制。可替代地或附加地,基站120将神经网络表272与神经网络表216同步,使得存储在一个神经网络表中的NN形成配置元素和/或输入特性表示第二神经网络表中的互补功能性(例如,用于第一神经网络表中的发送器路径处理的NN形成配置元素、用于第二神经网络表中的接收器路径处理的NN形成配置元素)。
基站120还包括基站间接口274(诸如Xn和/或X2接口),基站管理器266配置该接口在其它基站120之间交换用户平面、控制平面和其它信息,以管理基站120与用户设备110的通信。基站120包括核心网络接口276,基站管理器266配置该接口与核心网络功能和/或实体交换用户平面、控制平面和其它信息。
在图3中,核心网络服务器302可以提供核心网络150中的功能、实体、服务和/或网关的全部或部分。核心网络150中的每个功能、实体、服务和/或网关可以被提供为核心网络150中的服务、跨多个服务器分布或者实现在专用服务器上。例如,核心网络服务器302可以提供用户平面功能(UPF)、接入和移动性管理功能(AMF)、服务网关(S-GW)、分组数据网络网关(P-GW)、移动性管理实体(MME)、演进分组数据网关(ePDG)等服务或功能的全部或一部分。核心网络服务器302被图示为在包括处理器304和计算机可读存储介质306(CRM 306)的单个服务器上实现。处理器304可以是由诸如硅、多晶硅、高K电介质、铜等各种材料构成的单核处理器或多核处理器。CRM 306可以包括任何合适的存储器或存储设备,诸如可用于存储核心网络服务器302的设备数据308的随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、非易失性RAM(NVRAM)、只读存储器(ROM)、硬盘驱动器或闪存存储器。设备数据308包括用于支持核心网络功能或实体和/或核心网络服务器302的操作***的数据,其可由处理器304执行。
CRM 306还包括一个或多个核心网络应用310,其在一个实现方式中被实现在CRM306上(如图所示)。一个或多个核心网络应用310可以实现诸如UPF、AMF、S-GW、P-GW、MME、ePDG等功能。可替代地或附加地,一个或多个核心网络应用310可以全部或部分地实现为与核心网络服务器302的其他组件集成或分离的硬件逻辑或电路。
CRM 306还包括管理用于处理在UE 110和基站120之间交换的通信的NN形成配置的核心网络神经网络管理器312。在一些实现方式中,核心网络神经网络管理器312分析各种参数,诸如当前信号信道条件(例如,如由基站120所报告、如由其他无线接入点所报告、如由UE 110所报告(经由基站或其他无线接入点))、基站120处的能力(例如,天线配置、小区配置、MIMO能力、无线能力、处理能力)、UE 110的能力(例如,天线配置、MIMO能力、无线能力、处理能力)等等。例如,基站120在与UE的通信期间获得各种参数,并且将这些参数转发到核心网络神经网络管理器312。核心网络神经网络管理器基于这些参数来选择改善DNN处理通信的精度的NN信息配置。改善精度意味着相对于利用另一NN形成配置所配置的神经网络,由神经网络生成的输出的改善的精度,诸如较低的比特误差。核心网络神经网络管理器312然后将所选择的NN形成配置传达到基站120和/或UE 110。在实现方式中,核心网络神经网络管理器312从基站120接收UE和/或BS反馈,并且基于该反馈选择更新的NN形成配置。
CRM 306包括训练模块314和神经网络表316。在实现方式中,核心网络服务器302管理NN形成配置并且将其部署到无线通信***中的多个设备,诸如UE 110和基站120。可替代地或附加地,核心网络服务器将神经网络表316维持在CRM 306之外。训练模块314使用已知的输入数据来教导和/或训练DNN。例如,训练模块314训练DNN来处理通过无线通信***传送的不同类型的导频通信。这包括离线和/或在线训练DNN。在实现方式中,训练模块314从DNN提取学习到的NN形成配置和/或学习到的NN形成配置元素,并且将学习到的NN形成配置元素存储在神经网络表316中。因此,NN形成配置包括定义或影响DNN的行为的架构配置(例如,节点连接、层连接)和/或参数配置(例如,权重、偏置、池化)的任何组合。在一些实现方式中,神经网络表316的单个索引值映射到单个NN形成配置元素(例如,1:1对应关系)。可替代地或附加地,神经网络表316的单个索引值映射到NN形成配置(例如,NN形成配置元素的组合)。
在一些实现方式中,核心网络神经网络管理器312的训练模块314生成与存储在UE110处的神经网络表216和/或基站121处的神经网络表272中的NN形成配置和/或NN形成配置元素互补的NN形成配置和/或NN形成配置元素。作为一个示例,训练模块314生成具有NN形成配置和/或NN形成配置元素的神经网络表316,相对于用于生成神经网络表272和/或神经网络表216的中等和/或低变化,该NN形成配置和/或NN形成配置元素在架构和/或参数配置上具有高变化。例如,由训练模块314生成的NN形成配置和/或NN形成配置元素对应于完全连接层、完全内核大小、频繁采样和/或池化、高加权精度等。因此,神经网络表316有时包括以增加的处理复杂度和/或时间为代价的高精度神经网络。
相对于训练模块314生成的NN形成配置和/或NN形成配置元素,训练模块270生成的NN形成配置和/或NN形成配置元素有时具有更多固定的架构和/或参数配置(例如,固定的连接层、固定的内核大小等)和更少的变化。相对于训练模块314生成的NN形成配置,训练模块270例如生成流线型的NN形成配置(例如,更快的计算时间、更少的数据处理),以优化或改善基站121和/或UE 110处的端到端网络通信的性能。可替代地或附加地,相对于在神经网络表316和/或神经网络表272中存储的那些NN形成配置和/或NN形成配置元素,存储在UE 110处的神经网络表216处的NN形成配置和/或NN形成配置元素包括更多固定的架构和/或参数配置,其相对于基站121和/或核心网络服务器302降低了UE 110处的要求(例如,计算速度、更少的数据处理点、更少的计算、更少的功耗等)。在实现方式中,每个神经网络处的固定(或灵活)架构和/或参数配置的变化基于以形成对应DNN为目标的设备的处理资源(例如,处理能力、存储器约束、量化约束(例如,8位相对于16位)、定点相对于浮点计算、每秒浮点运算(FLOPS)、功率可用性)。因此,相对于核心网络服务器或基站具有较少处理资源的UE或接入点接收针对可用处理资源所优化的NN信息配置。
神经网络表316存储使用训练模块314生成的多个不同的NN形成配置元素。在一些实现方式中,神经网络表包括每个NN形成配置元素和/或NN形成配置的输入特性,其中输入特性描述关于用于生成NN形成配置的训练数据的属性。例如,输入特性可以包括功率信息、SINR信息、CQI、CSI、多普勒反馈、RSS、误差度量、最小端到端(E2E)延迟、期望E2E延迟、E2EQoS、E2E吞吐量、E2E分组丢失率、服务成本等。
CRM 302还包括端到端机器学习控制器318(E2E ML控制器318)。E2E ML控制器318确定用于处理通过E2E通信交换的信息(诸如QoS流)的端到端机器学习配置(E2E ML配置)。在实现方式中,E2E ML控制器分析参与E2E通信的设备的ML能力(例如,所支持的ML架构、所支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理相对于浮点处理、最大内核大小能力、计算能力)的任何组合。可替代地或附加地,E2E ML控制器分析QoS要求、QoS参数和/或QoS特性的任何组合以确定满足相关联的要求、参数和/或特性的E2E ML配置。在一些实现方式中,E2E ML控制器获得表征当前操作环境的度量,并且分析当前操作环境以确定E2E ML配置。这包括确定包括与定义DNN的参数配置组合的架构配置的E2E ML配置,或者确定仅包括用于更新DNN的参数配置的E2E ML配置。
在确定E2E ML配置时,E2E ML控制器有时确定对E2E ML配置的划分,该划分将与E2E ML配置相关联的处理功能跨多个设备分布。为了清楚起见,图3将端到端机器学习控制器318图示为与核心网络神经网络管理器312分离,但是在可替代的或者附加的实现方式中,核心网络神经网络管理器312包括由端到端机器学习控制器318执行的功能,或者反之亦然。此外,虽然图3图示了实现E2E ML控制器318的核心网络服务器302,但是可替代的或附加的设备可以实现E2E ML控制器,诸如基站120和/或其他网络元件。
核心网络服务器302还包括核心网络接口320以用于与核心网络150、基站120或UE110中的其他功能或实体进行用户平面、控制平面和其他信息的通信。在实现方式中,核心网络服务器302使用核心网络接口320向基站120传达NN信息配置。核心网络服务器302可替代地或附加地使用核心网络接口320通过基站120从基站120和/或UE110接收反馈。
已经描述了能够用于无线通信中的神经网络形成配置反馈的示例环境和示例设备,现在考虑根据一个或多个实现方式的可配置机器学习模块的讨论。
可配置机器学习模块
图4图示了示例机器学习模块400。机器学习模块400实现学习和标识数据内的模式的自适应算法集。机器学习模块400可以使用软件、硬件和/或固件的任何组合来实现。
在图4中,机器学***滑等等。
在一些实现方式中,机器学习模块400基于监督学习来自适应地学习。在监督学习中,机器学习模块接收各种类型的输入数据作为训练数据。机器学习模块处理训练数据以学习如何将输入映射到期望输出。作为一个示例,机器学习模块400接收信号的数字样本作为输入数据,并且学习如何将信号样本映射到反映嵌入在信号内的信息的二进制数据。作为另一示例,机器学习模块400接收二进制数据作为输入数据,并且学习如何将二进制数据映射到信号的数字样本,其中二进制数据嵌入在信号内。在训练过程期间,机器学习模块400使用已标记的或已知的数据作为DNN的输入。DNN使用节点分析输入并且生成相应的输出。机器学习模块400将对应的输出与真值数据进行比较,并且适应由节点实现的算法以改善输出数据的精度。然后,DNN将适应的算法应用于未标记的输入数据以生成对应的输出数据。
机器学习模块400使用统计分析和/或自适应学习来将输入映射到输出。例如,机器学习模块400使用从训练数据学习到的特性来将未知输入与统计上可能在阈值范围或值内的输出相关。这允许机器学习模块400接收复杂输入并且识别对应的输出。一些实现方式在通过无线通信***传送的通信的特性(例如,时间/频率交织、时间/频率解交织、卷积编码、卷积解码、功率等级、信道均衡、符号间干扰、正交幅度调制/解调、频分复用/解复用、传输信道特性)上训练机器学习模块400。这允许经训练的机器学习模块400接收信号的样本作为输入,诸如在用户装备处接收到的下行链路信号的样本,并且从下行链路信号中恢复信息,诸如嵌入在下行链路信号中的二进制数据。
在图4中,DNN包括输入层404、输出层406、以及位于输入层和输出层之间的一个或多个隐藏层408。每层具有任意数量的节点,其中层之间的节点数量可以相同或不同。换言之,输入层404可以具有与输出层406相同数目和/或不同数目的节点,输出层406可以具有与隐藏层408相同数目和/或不同数目的节点等等。
节点410对应于包括在输入层404中的若干节点中的一个,其中节点执行彼此独立的计算。如进一步描述的,节点接收输入数据,并且使用算法处理输入数据以产生输出数据。有时,算法包括基于自适应学习而改变的权重和/或系数。因此,权重和/或系数反映了由神经网络学习到的信息。在一些情况下,每个节点可以确定是否将处理后的输入数据传递到下一节点。为了说明,在处理输入数据之后,节点410可以确定是否将处理后的输入数据传递到隐藏层408的节点412和/或节点414。可替代地或附加地,节点410基于层连接架构将处理后的输入数据传递到节点。该处理可以在多个层中重复,直到DNN使用输出层406的节点生成输出为止。
神经网络还可以采用各种架构,这些架构确定神经网络内的什么节点被连接、数据如何被推进和/或保留在神经网络中、什么权重和系数用于处理输入数据、如何处理数据等等。这些不同的因素共同地描述了NN形成配置。为了说明,递归神经网络(例如长期短期记忆(LSTM)神经网络)在节点连接之间形成循环,以便保留来自输入数据序列的先前部分的信息。然后,递归神经网络将所保留的信息用于输入数据序列的后续部分。作为另一示例,前馈神经网络传递信息以向前传递连接,而不形成保留信息的循环。虽然在节点连接的上下文中进行了描述,但是应当理解,NN形成配置可以包括影响神经网络如何处理输入数据的各种参数配置。
神经网络的NN形成配置可以由各种架构和/或参数配置来表征。为了说明,考虑DNN实现卷积神经网络的示例。通常,卷积神经网络对应于一种类型的DNN,其中各层使用卷积运算来处理数据以对输入数据进行过滤。因此,卷积NN形成配置的特征在于,作为示例而非限制,池化参数、内核参数、权重和/或层参数。
池化参数对应于指定卷积神经网络内的减少输入数据的维度的池化层的参数。为了说明,池化层可以将第一层处的节点输出组合成第二层处的节点输入。可替代地或附加地,池化参数指定处理神经网络的数据层如何以及在哪里池化数据。例如,指示“最大池化”的池化参数通过从由第一层的节点生成的数据组中选择最大值来将神经网络配置为池化,并且使用该最大值作为到第二层的单个节点的输入。指示“平均池化”的池化参数配置神经网络从由第一层的节点所生成的数据组生成平均值,并且使用该平均值作为到第二层的单个节点的输入。
内核参数指示在处理输入数据时使用的滤波器大小(例如,宽度和高度)。可替代地或另外地,内核参数指定在过滤和处理输入数据时使用的内核方法的类型。例如,支持向量机对应于使用回归分析来识别和/或分类数据的内核方法。其它类型的内核方法包括高斯处理、典型相关分析、谱聚类方法等。因此,内核参数可以指示要在神经网络中应用的滤波器大小和/或内核方法的类型。
权重参数指定由节点内的算法用于对输入数据进行分类的权重和偏置。在实现方式中,权重和偏置是学习到的参数配置,诸如从训练数据生成的参数配置。
层参数指定层连接和/或层类型,诸如指示将第一层(例如,输出层406)中的每个节点连接到第二层(例如,隐藏层408)中的每个节点的全连接层类型、指示第一层中的哪些节点要从第二层断开的部分连接层类型、指示神经网络内要激活哪些滤波器和/或层的激活层类型等。可替代地或另外地,层参数指定节点层的类型,诸如归一化层类型、卷积层类型、池化层类型等。
虽然在池化参数、内核参数、权重参数和层参数的上下文中描述,但应该理解,可以使用其它参数配置来形成DNN,而不脱离所要求保护的主题的范围。因此,NN形成配置可以包括可以应用于DNN的任何其它类型的参数,该参数影响DNN如何处理输入数据以生成输出数据。
一些实现方式基于当前操作环境来配置机器学习模块400。为了说明,考虑被训练成从信号的数字样本生成二进制数据的机器学习模块。传输环境时常修改行进通过该环境的信号的特性。传输环境时常改变,这影响环境如何修改信号。例如,第一传输环境以第一方式修改信号,而第二传输环境以不同于第一方式的方式修改信号。这些差异影响由机器学习模块生成的输出结果的精度。例如,被配置为处理在第一传输环境上传送的通信的神经网络可以在处理在第二传输环境上传送的通信时生成误差(例如,超过阈值的比特误差)。
各种实现方式针对不同的传输环境生成和存储NN形成配置和/或NN形成配置元素(例如,各种架构和/或参数配置)。例如,基站120和/或核心网络服务器302使用BS神经网络管理器268、训练模块270、核心网络神经网络管理器312和/或训练模块314的任何组合来训练机器学习模块400。训练可以在没有活动通信交换发生时离线发生,或者在活动通信交换期间在线发生。例如,基站120和/或核心网络服务器302可以数学地生成训练数据、访问存储训练数据的文件、获得真实世界通信数据等。基站120和/或核心网络服务器302然后提取各种学习到的NN形成配置并且将其存储在神经网络表中。一些实现方式存储具有每个NN形成配置的输入特性,其中输入特性描述与相应NN形成配置相对应的传输环境的各种属性。在实现方式中,神经网络管理器通过将当前传输环境和/或当前操作环境与输入特性相匹配来选择NN形成配置和/或NN形成配置元素。
已经描述了可配置机器学习模块,现在考虑根据一个或多个实现方式的无线通信***中的深度神经网络的讨论。
无线通信***中的深度神经网络
无线通信***包括各种复杂的组件和/或功能,诸如参照图1的示例环境100、图2的示例设备图200和图3的示例设备图300描述的各种设备和模块,在一些实现方式中,参与无线通信***的设备将一系列功能链接在一起以使得能够通过无线连接交换信息。
为了示范,现在考虑图5,其图示了示例框图500和示例框图502,其中的每一个描绘了由无线通信***中的设备所利用的示例处理链。为了简单起见,框图图示了高级功能,并且应当理解,框图能够包括为了清楚起见而从图5中省略的附加功能。
在图5的上部,框图500包括发送器框504和接收器框506。发送器框504包括从顶部到底部前进的发送器处理链。发送器处理链以输入数据开始,该输入数据前进到编码级,接着是调制级,然后是射频(RF)模拟发射(Tx)级。编码级可以包括由设备用于在无线通信***上传送数据的任何类型和数量的编码级。
为了说明,示例编码级接收二进制数据作为输入,并且使用各种编码算法处理二进制数据以将信息附加到二进制数据,诸如帧信息。可替代地或附加地,编码级诸如通过应用添加冗余以帮助接收器处的信息恢复的前向纠错来变换二进制数据。作为另一示例,编码级将二进制数据转换成符号。
示例调制级接收由编码级生成的输出作为输入,并且将该输入嵌入到信号上。例如,调制级生成嵌入有来自编码级的输入的信号的数字样本。因此,在发送器框504中,编码级和调制级表示高级发送器处理链,其有时包括低级复杂功能,诸如卷积编码、串并转换、循环前缀***、信道编译、时间/频率交织等。RF模拟Tx级接收来自调制级的输出,基于调制级输出来生成模拟RF信号,并且将模拟RF信号传送到接收器框506。
接收器框506使用接收器处理链来执行相对于收发器框504的互补处理。接收器框506中所图示的接收器处理链从顶部向底部前进,并且包括RF模拟接收(Rx)级,接着是解调级和解码级。
RF模拟Rx级接收由发送器框504传送的信号,并且生成由解调级使用的输入。作为一个示例,RF模拟Rx级包括下变频组件和/或模数转换器(ADC)以生成接收信号的样本。解调级处理来自RF模拟Rx级的输入以提取嵌入在信号上的数据(例如,由发送器框504的调制级嵌入的数据)。例如,解调级恢复符号和/或二进制数据。
解码级从解调级接收诸如恢复的符号和/或二进制数据的输入,并且处理该输入以恢复所传送的信息。为了说明,解码级基于在发送器块处应用的前向纠错来校正数据错误,从帧和/或时隙中提取有效载荷数据等。因此,解码级生成恢复的信息。
如上所述,为了清楚起见,简化了由发送器框504和接收器框506所图示的发送器和接收器处理链,并且其可以包括多个复杂模块。有时,这些复杂模块专用于特定功能和/或条件。例如,考虑处理正交频分调制(OFDM)传输的接收器处理链。为了从OFDM传输中恢复信息,接收器块有时包括多个处理块,每个处理块专用于特定功能,诸如校正接收信号中的失真的均衡框、估计传输信道属性以识别传输上的散射、功率衰减等影响的信道估计框等。在高频,诸如6GHz频带中的5G mmW信号,这些框在计算上和/或在价格上可能是昂贵的(例如,需要相当大的处理功率,需要昂贵的硬件)。此外,实现生成具有期望阈值内的精度的输出的框有时需要更特定并且较不灵活的组件。为了说明,用于6GHz频带中的5G mmW信号的均衡框可能不能在其它频带以相同精度执行,因此需要用于不同频带的不同均衡框,并且增加了相应设备的复杂性。
一些实现方式包括传送和/或接收器处理链中的DNN。在框图502中,发送器框508包括发送器处理链中的一个或多个深度神经网络510(DNN 510),而接收器框512包括接收器处理链中的一个或多个深度神经网络514(DNN 514)。
为了简单起见,发送器框508中的DNN 510对应于发送器框504的编码级和调制级。然而,应当理解,DNN可以执行在发送器处理链内发现的任何高级和/或低级操作。例如,第一DNN执行低级发送器侧前向纠错,第二DNN执行低级发送器侧卷积编码等。可替代地或另外地,DNN 510执行高级处理,诸如对应于发送器框508的编码级和调制级的端到端处理。
以类似方式,接收器框512中的DNN 514执行接收器处理链功能性(例如,解调级、解码级)。DNN 514可以执行在接收器处理链内发现的任何高级及/或低级操作,诸如低级接收器侧误码校正、低级接收器侧符号恢复、高级端到端解调和解码等。因此,无线通信***中的DNN可以被配置为代替发送器和接收器处理链中的高级操作和/或低级操作。有时,执行高级操作和/或低级操作的DNN可以基于当前操作环境来配置和/或重新配置,如进一步描述的。相对于更特定和更不灵活的组件,这为处理链提供了更多的灵活性和适应性。
一些实现方式使用多个DNN来处理无线通信***上的通信交换,其中,每个DNN具有相应目的(例如,上行链路处理、下行链路处理、上行链路编码处理、下行链路解码处理等)。为了示范,现在考虑图6,其图示包括UE 110和基站121的示例操作环境600。虽然图6图示了基站121,但是可以使用如图2所示的替代基站。在实现方式中,UE 110和基站121通过使用多个DNN处理通信来在无线通信***上彼此交换通信。
在图6中,基站121的基站神经网络管理器268包括下行链路处理模块602以用于处理下行链路通信,诸如用于生成传送到UE 110的下行链路通信。为了说明,基站神经网络管理器268使用NN形成配置在下行链路处理模块602中形成深度神经网络604(DNN 604),如进一步描述的。在一些示例中,DNN604对应于图5的DNN510。换言之,DNN 604执行用于生成下行链路通信的发送器处理功能中的一些或全部。
类似地,UE 110的UE神经网络管理器218包括下行链路处理模块606,其中下行链路处理模块606包括用于处理(接收到的)下行链路通信的深度神经网络608(DNN 608)。在各种实现方式中,UE神经网络管理器218使用NN形成配置来形成DNN 608。在图6中,DNN608对应于图5的DNN 514,其中UE 110的深度神经网络606执行用于(接收到的)下行链路通信的一些或所有接收器处理功能。因此,DNN 604及DNN 608执行彼此互补的处理(例如,编码/解码、调制/解调)。
DNN 604和/或DNN 608可以包括多个深度神经网络,其中,每个DNN专用于相应的信道、相应的目的等。作为一个示例,基站121使用DNN 604中的第一DNN来处理下行链路控制信道信息,使用DNN604中的第二DNN来处理下行链路数据信道信息等。作为另一示例,UE110使用DNN 608中的第一DNN来处理下行链路控制信道信息,使用DNN 608中的第二DNN来处理下行链路数据信道信息等。
基站121和/或UE 110还使用DNN来处理上行链路通信。在环境600中,UE神经网络管理器218包括上行链路处理模块610,其中,上行链路处理模块610包括用于生成和/或处理上行链路通信(例如,编码、调制)的深度神经网络612(DNN 612)。换言之,上行链路处理模块610处理传输前通信作为处理上行链路通信的一部分。例如,UE神经网络管理器218使用NN形成配置来形成DNN 612。有时,DNN612对应于图5的DNN 510。因此,DNN 612执行用于生成从UE 110传送到基站121的上行链路通信的发送器处理功能中的一些或全部。
类似地,基站121的上行链路处理模块614包括用于处理(接收到的)上行链路通信的深度神经网络616(DNN 616),其中基站神经网络管理器268使用NN形成配置来形成DNN616,如进一步描述的。在示例中,基站121的DNN 616对应于图5的DNN 514,并且执行用于(接收到的)上行链路通信(诸如从UE 110接收到的上行链路通信)的一些或所有接收器处理功能性。有时,DNN 612和DNN 616执行彼此的互补功能。可替代地或附加地,上行链路处理模块610和/或上行链路处理模块614包括多个DNN,其中每个DNN具有专用目的(例如,处理相应的信道,执行相应的上行链路功能,等等)。图6将DNN 604、608、612和616图示为驻留在相应的神经网络管理器内,以表示神经网络管理器形成DNN,并且应当理解,DNN可以在不同的组件、处理链、模块等内的神经网络管理器(例如,UE神经网络管理器218和基站神经网络管理器268)外部形成。
已经描述了无线通信***中的深度神经网络,现在考虑根据一个或多个实现方式的能够用于配置用于下行链路和上行链路通信的深度神经网络的无线通信***上的信令和控制事务的讨论。
用于配置深度神经网络的信令和控制事务
图7、8和9图示了根据关于深度神经网络的无线通信中的神经网络形成配置反馈的一个或多个方面的基站、用户设备和/或核心网络服务器之间的示例信令和控制事务图。信令和控制事务可以由图1的基站120和UE 110或图3的核心网络服务器302使用图1-6的元件来执行。例如,在一些实现方式中,核心网络服务器302执行由基站120执行的各种信令和控制动作,如图7和8所示。
图7的信令和控制事务图700图示了无线通信中的神经网络形成配置反馈的信令和控制事务的第一示例。如图所示,在705处,UE 110可选地指示UE能力(例如,UE所支持的能力)。在一些实现方式中,UE能力包括ML相关能力,诸如最大内核大小能力、存储器限制、计算能力、所支持的ML架构、所支持的层数、可用的处理功率、存储器限制、可用的功率预算、以及定点处理相对于浮点处理。
在710处,基站121确定神经网络形成配置。在确定神经网络形成配置时,基站分析信息(诸如由深度神经网络处理的信道类型(例如,下行链路、上行链路、数据、控制等)、传输介质属性(例如,功率测量、信号与干扰加噪声比(SINR)测量、信道质量指示符(CQI)测量)、编码方案、UE能力、BS能力等)的任何组合。在一些实现方式中,基站121基于在705处指示的UE能力来确定神经网络形成配置。可替代地或附加地,基站121从诸如服务器的联网存储设备获得UE能力。
例如,基站121从UE 110(未图示)接收指示UE的一个或多个能力的消息,作为示例而非限制,所述消息诸如连接性信息、双连接性信息、载波聚合能力、下行链路物理参数值、上行链路物理参数值、所支持的下行链路/上行链路类别、频率间切换和ML能力(例如,最大内核大小能力、存储器限制、计算能力、所支持的ML架构、所支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理相对于浮点处理)。基站121根据消息来识别影响UE如何处理通信、和/或基站如何处理来自UE的通信的UE能力,并且选择相对于其他神经网络形成配置具有改进的输出精度的神经网络形成配置。
在一些实现方式中,基站121从多个神经网络形成配置中选择神经网络形成配置。可替代地或附加地,基站121通过选择神经网络表中的神经网络架构形成元素的子集来选择神经网络形成配置。有时,基站121分析包括在神经网络表中的多个神经网络形成配置和/或多个神经网络形成配置元素,并且通过选择和/或创建与当前信道条件对准(诸如通过将信道类型、传输介质属性等与输入特性进行匹配)的神经网络形成配置来确定神经网络形成配置,如进一步描述的。可替代地或附加地,基站121基于网络参数来选择神经网络形成配置,所述网络参数诸如调度参数(例如,调度多用户、多输入、多输出(MU-MIMO)以用于下行链路通信,调度MU-MIMO以用于上行链路通信)。
在715处,基站121将神经网络形成配置传达到UE 110。在一些实现方式中,基站传送指定神经网络形成配置的消息,诸如通过传送包括映射到诸如图2的神经网络表216的神经网络表中的条目的索引值的消息。可替代地或附加地,基站传送包括神经网络参数配置(例如,权重值、系数值、滤波器的数量)的消息。在一些情况下,基站121在消息中指定目的和/或处理指派,其中处理指派指示所配置的神经网络应用于什么信道和/或处理链中的何处,诸如下行链路控制信道处理、上行链路数据信道处理、下行链路解码处理、上行链路编码处理等。因此,基站可以利用神经网络形成配置来传达处理指派。
在一些实现方式中,基站121向UE 110传达多个神经网络形成配置。例如,基站传送指导UE使用第一神经网络形成配置来进行上行链路编码的第一消息和指导UE使用第二神经网络形成配置来进行下行链路解码的第二消息。在一些场景中,基站121在单个消息中传达多个神经网络形成配置和相应的处理指派。作为又一示例,基站使用不同的无线电接入技术(RAT)来传达多个神经网络形成配置。例如,基站可以使用第一RAT和/或载波向UE110传送用于下行链路通信处理的第一神经网络形成配置,并且使用第二RAT和/或载波向UE 110传送用于上行链路通信处理的第二神经网络形成配置。
在720处,UE 110基于神经网络形成配置来形成第一神经网络。例如,UE 110使用由基站传达的索引值来访问神经网络表,以获得神经网络形成配置和/或神经网络形成配置元素。可替代地或附加地,UE110从消息中提取神经网络架构和/或参数配置。然后,UE110使用神经网络形成配置、所提取的架构和/或参数配置等来形成神经网络。在一些实现方式中,UE使用第一神经网络来处理所有通信,而在其他实现方式中,UE基于处理指派使用第一神经网络来处理选择通信。
在725处,基站121基于神经网络形成配置来传达信息。例如,参考图6,基站121使用被配置有与第一神经网络互补的功能的第二神经网络来处理下行链路通信。换言之,第二神经网络使用与神经网络形成配置互补的第二神经网络形成配置。继而,在730处,UE110使用第一神经网络来恢复信息。
图8的信令和控制事务图800图示了在关于深度神经网络的无线通信中的神经网络形成配置反馈的信令和控制事务的第二示例。在一些实现方式中,信令和控制事务图800表示对图7的信令和控制事务图700的继续。
如图所示,在805处,基站121基于第一神经网络形成配置与UE110通信。类似地,在810处,UE 110基于第一神经网络形成配置与基站121通信。例如,基站121通过使用图6的DNN604处理一个或多个下行链路通信来与UE 110通信,而UE 110通过使用图6的DNN608处理从基站121接收到的下行链路通信来与基站121通信。
在实现方式中,基于如所描述的第一神经网络形成配置来形成DNN 604和DNN608。为了说明,DNN 604和DNN 608执行彼此的互补功能,其中第一神经网络形成配置指定每个深度神经网络的互补功能(例如,基站使用第一神经网络形成配置来形成第一神经网络,UE通过使用对第一神经网络形成配置的互补神经网络形成配置来形成与第一神经网络互补的第二神经网络)。由深度神经网络执行的互补功能允许交换通信的每一侧保持同步(例如,准确地恢复信息)。因此,第一神经网络形成配置指定由参与通信交换的每个设备所使用的基站侧神经网络形成配置、互补用户设备侧神经网络形成配置、和/或通用神经网络形成配置的任何组合。
作为另一示例,UE 110使用图6的DNN 612来处理到基站121的一个或多个上行链路通信,而基站121使用图6的深度神经网络614来处理从UE 110接收到的上行链路通信。与下行链路通信类似,一些实现方式基于第一神经网络形成配置来形成DNN 612和深度神经网络614(例如,UE使用第一神经网络形成配置来形成第一神经网络,基站形成具有对第一神经网络形成配置互补的神经网络形成配置的第二神经网络)。因此,基站121和UE 110通过基于第一神经网络形成配置形成深度神经网络和处理与深度神经网络的通信来基于第一神经网络形成配置彼此通信。
在815处,基站生成基站度量,诸如基于从UE 110接收到的上行链路通信的度量。类似地,在820处,UE 110生成UE度量,诸如基于从基站121接收到的下行链路通信的度量。基站121和/或UE 110可以生成任何类型的度量,例如功率测量(例如,RSS)、误差度量、定时度量、QoS、延迟等。
在825处,UE 110将度量传达到基站121。在实现方式中,UE 110基于第一神经网络形成配置使用深度神经网络来处理度量通信。可替代地或附加地,UE 110使用利用第二神经网络形成配置所形成的神经网络来处理度量通信。因此,如进一步所述,在一些实现方式中,UE 110维持多个深度神经网络,其中每个深度神经网络具有指定的目的和/或处理指派(例如,用于下行链路控制信道处理的第一神经网络、用于下行链路数据信道处理的第二神经网络、用于上行链路控制信道处理的第三神经网络、用于上行链路数据信道处理的第四神经网络)。有时,基站121将用于形成多个深度神经网络的多个神经网络形成配置传达到UE 110。
在830处,基站121基于830处的度量来识别第二神经网络形成配置。在一些实现方式中,基站121基于UE度量、基站度量或其任意组合来识别第二神经网络形成配置。这包括识别如进一步描述的神经网络形成配置的架构改变和/或参数改变的任何组合,诸如涉及更新系数参数以解决返回度量的改变(例如,SINR改变、多普勒反馈改变、功率级别改变、BLER改变)的神经网络形成配置的小改变。可替代地或附加地,识别第二神经网络形成配置包括大改变,诸如基于诸如功率状态的改变(例如,从无线电资源连接状态到空闲状态的转变)的度量来重新配置节点和/或层连接。
在一些实现方式中,基站121将部分和/或增量神经网络形成配置识别为第二神经网络形成配置,其中部分和/或增量神经网络形成配置指示对完全神经网络形成配置的改变。例如,完全神经网络形成配置包括用于神经网络的架构配置和参数配置,而部分和/或增量神经网络形成配置基于使用在完全神经网络形成配置中所指示的相同架构配置来指定对参数配置的改变和/或更新。
在一些实现方式中,基站通过识别改善了UE的能力和/或基站的能力的神经网络表中的神经网络形成配置来识别第二神经网络形成配置以从通信中恢复数据(例如,改善了所恢复的信息的精度)。为了说明,基站121通过图2的基站神经网络管理器268来识别神经网络形成配置,该神经网络形成配置补偿由UE度量和/或基站度量所识别的问题。作为另一示例,基站121识别具有一个或多个输入特性的神经网络形成配置,该一个或多个输入特性与由UE度量和/或基站度量所识别的改变的操作条件对准。可替代地或附加地,基站121识别产生类似结果但具有较少处理的神经网络形成配置,诸如对于UE移动到较低功率状态的场景。
在840处,基站121引导UE 110利用第二神经网络形成配置来更新第一神经网络。例如,基站生成包括到图2的神经网络表216中的第二神经网络形成配置的索引值的更新消息。在一些实现方式中,基站121在该消息中指示引导UE 110何时应用第二神经网络形成配置的时间实例。换言之,该时间实例引导UE 110在该时间实例中指定的时间从使用第一神经网络形成配置来处理通信切换到使用第二神经网络形成配置来处理通信。在实现方式中,基站使用第一载波或RAT来向下行链路神经网络传送更新,并且使用第二载波或RAT来向上行链路神经网络传送更新。
在845处,基站121基于第二神经网络形成配置来更新基站神经网络,诸如基于第一神经网络形成配置所形成的并且用于在805处与UE 110通信的深度神经网络(例如,用于处理下行链路通信的深度神经网络、用于处理上行链路通信的深度神经网络)。类似地,在850处,UE 110基于第二神经网络形成配置来更新用户设备神经网络,诸如对在845处更新的基站神经网络执行互补功能的深度神经网络。作为一个示例,UE在840处从由基站传送的更新消息中提取索引值和/或时间值。UE 110获得第二神经网络形成配置,并且在更新消息中指定的时间修改用户设备神经网络。因此,UE 110使用第一神经网络构成配置来处理通信,直到更新消息中的指定时间为止,此时UE 110切换到使用第二神经网络构成配置来处理通信。
在实现方式中,基站121和/或UE 110迭代地执行在图8中用虚线表示的信令和控制事务处理图800中描述的信令和控制事务。这些迭代允许基站121和/或UE 110基于改变的操作条件来动态地修改通信处理链,如进一步描述的。
图9-1和图9-2的信令和控制事务图900图示了无线通信中的神经网络形成配置反馈的信令和控制事务的第三示例。如图9-1所示,在905处,核心网络服务器302基于各种度量和/或参数(诸如来自UE 110的度量、来自基站121的度量、UE能力等)来确定神经网络形成配置。例如,核心网络服务器从基站121和/或UE 110接收度量和/或参数的任何组合,诸如功率信息、SINR信息、CQI、CSI、多普勒反馈、QoS、延迟、UE能力、基站类型(例如,eNB、gNB或ng-eNB)、协议版本、误差度量、UE能力、BS能力、功率模式等。核心网络服务器302然后基于度量、参数等确定神经网络形成配置。
在一些实现方式中,核心网络服务器302确定多个不同的神经网络形成配置,每个神经网络形成配置特定于相应的基站和/或相应的UE。可替代地或附加地,核心网络服务器302确定由多个基站和/或UE使用的神经网络形成配置。有时,核心网络服务器302确定由基站和/或UE用于初始地彼此连接的默认神经网络形成配置。如进一步描述的,默认神经网络形成配置对应于一般神经网络形成配置,该一般神经网络形成配置配置深度神经网络以阈值范围或值内的精度来处理各种输入数据和/或信道条件。然而,专用神经网络形成配置对应于被调谐到特定类型的输入数据和/或特定信道条件的深度神经网络。在确定神经网络形成配置时,核心网络服务器的一些实现方式确定互补的神经网络形成配置(例如,与用户设备侧神经网络形成配置互补的基站侧神经网络形成配置)。
在910处,核心网络服务器302将神经网络形成配置传达到基站121。例如,核心网络服务器302通过图3的核心网络接口320将索引值传达到基站121,其中索引值映射到图2的神经网络表272中的条目。可替代地或附加地,核心网络服务器302传达各种参数配置,诸如系数、权重、层连接值等。
在915处,基站121将神经网络形成配置转发到UE 110。例如,基站将索引值无线地传送到UE,将参数配置无线地传送到UE等。在传达神经网络形成配置时,核心网络服务器302和/或基站121有时指示神经网络形成配置的处理指派(例如,下行链路数据信道处理、上行链路控制信道处理、解码处理、上行链路编码处理、上行链路调制处理、下行链路解调处理)。
在一些实现方式中,基站121在转发到UE 110之前添加对神经网络形成配置的修改。例如,基站121可以比核心网络服务器访问更多的更新信息,诸如通过从UE 110接收到的UE能力。基站121有时基于更新的信息(例如,UE 110特有的UE能力)来适应神经网络形成配置,诸如通过基于UE处的可用处理能力、电池功率、可用无线电等来移除层和/或节点以降低UE 110处的深度神经网络的对应复杂度。作为另一示例,基站121基于更新的信息将卷积层添加到神经网络形成配置中。然后,基站121将修改后的神经网络形成配置转发到UE110,以代替从核心网络服务器302接收到的神经网络形成配置。
在920处,基站121使用神经网络形成配置来形成第一深度神经网络,诸如通过识别基站侧神经网络形成配置并且利用基站侧神经网络形成配置来形成第一深度神经网络。为了说明,基站121通过使用索引值访问图2的神经网络表272来获得神经网络形成配置。类似地,在925处,UE 110使用神经网络形成配置来形成第二深度神经网络,诸如通过识别互补的和/或用户设备侧神经网络形成配置,并且使用互补的和/或用户设备侧神经网络形成配置来形成第二神经网络。在一些实现方式中,UE 110通过使用索引值访问图2的神经网络表216来获得互补的和/或用户设备侧神经网络形成配置。因此,第一深度神经网络和第二深度神经网络是基于由核心网络服务器在905处和910处确定和传达的神经网络形成配置所同步的神经网络。
在图9-2中,在930处,基站121使用第一深度神经网络与UE 110通信,诸如通过生成和/或处理到UE 110的下行链路通信、通过接收和/或处理来自UE 110的上行链路通信等。类似地,在935处,UE 110在935使用第二深度神经网络与基站121通信。换言之,UE 110使用基于如进一步描述的神经网络形成配置的互补的深度神经网络(例如,第二深度神经网络)来与基站121通信。
在940处,基站生成基站度量,其中基站121基于在930处和/或935处的通信来生成度量。因此,基站度量可以基于从UE 110接收到的上行链路通信。例如,基站121生成上行链路接收功率、上行链路SINR、上行链路分组误差、上行链路吞吐量、定时测量等。在一些实现方式中,基站在基站度量中包括基站能力(BS能力),诸如处理功率(例如,宏基站、小小区基站)、功率状态等。
类似地,在945处,UE 110基于来自基站121的下行链路通信生成UE度量(例如,功率信息、SINR信息、CQI、CSI、多普勒反馈、QoS、延迟),并且在950处将UE度量传达到基站121。
在955处,基站121诸如通过核心网接口320将度量转发到核心网络服务器302。这包括在940处和/或945处生成的基站度量和UE度量的任何组合。然后,在960处,核心网络服务器302确定对神经网络形成配置的更新。这可以包括架构结构改变(例如,重新配置节点连接、重新配置活动层/不活动层)、改变所应用的处理参数(例如,系数、内核)等的任何组合。因此,核心网络服务器302有时识别小改变和/或大改变,诸如参考图8的830处的基站121所描述的那些改变。通过经由基站121接收从UE 110生成的度量,核心网络服务器302接收关于基站和UE之间的通信信道的反馈和/或神经网络如何很好地处理在通信信道上传送的通信的指示。核心网络服务器302分析反馈以识别对神经网络形成配置的调整(例如,选择减少深度神经网络的处理时间的配置),该调整在被应用于神经网络时改善深度神经网络如何处理通信的精度(例如,更准确的数据恢复、更少错误的数据)和/或神经网络如何高效地处理通信的精度。
在实现方式中,核心网络服务器302、基站121和/或UE 110迭代地执行在信令和控制事务图900中所述的信令和控制事务,其由图9-1和9-2中利用从960返回到910的虚线表示。这些迭代允许核心网络服务器302、基站121和/或UE 110基于改变的操作条件动态地修改通信处理链,如进一步描述的。
在一些实现方式中,核心网络服务器302从无线通信***中的多个UE和/或基站接收反馈。这为核心网络服务器提供了无线通信***如何很好地执行、什么设备通过无线通信***通信、这些设备如何很好地通信等更大视图。在各种实现方式中,核心网络服务器302基于优化多个设备的通信和/或总体***性能而不是优化特定设备的通信,来确定对神经网络形成配置的更新。
已经描述了能够用于配置神经网络以处理通信的信令和控制事务,现在考虑根据一个或多个实现方式的一些示例方法。
示例方法
参考图10和图11描述了根据无线通信中的神经网络形成配置反馈的一个或多个方面的示例方法1000和1100。描述方法框的顺序不旨在被解释为限制,并且可以跳过或以任何顺序组合任何数量的所述方法框来实现方法或替代方法。通常,本文描述的任何组件、模块、方法和操作可以使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。示例方法的一些操作可以在存储在计算机处理***本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述,并且实现方式可以包括软件应用、程序、功能等。可替代地或附加地,这里描述的任何功能可以至少部分地由一个或多个硬件逻辑组件来执行,所述一个或多个硬件逻辑组件诸如但不限于现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SoC)、复杂可编程逻辑器件(CPLD)等。
图10图示了用于配置神经网络以处理通过无线通信***交换的通信的示例方法1000。在一些实现方式中,方法1000的操作由网络实体(诸如基站120或核心网络服务器302中的任何一个)执行。
在1005处,网络实体确定用于处理通过无线通信***传送的通信的深度神经网络的神经网络形成配置。例如,网络实体(例如,基站121、核心网络服务器302)至少部分地基于来自用户设备(例如,UE110)的度量、反馈和/或其他类型的信息来确定神经网络形成配置。为了说明,基站121从UE 110接收指示UE 110的一个或多个能力的消息。基站121然后至少部分地基于从UE 110接收的能力来确定神经网络形成配置。可替代地或附加地,基站121将UE能力转发到核心网络服务器302,并且核心网络服务器302基于UE 110的能力来确定神经网络形成配置。作为另一示例,基站121基于调度无线通信***中的MU-MIMO下行链路和/或上行链路传输来确定神经网络形成配置。在确定神经网络形成配置时,网络选择用于用户设备侧深度神经网络、基站侧深度神经网络和/或与用户设备侧深度神经网络和基站侧深度神经网络这二者相对应的深度神经网络的神经网络形成配置元素的任何组合。
在确定神经网络形成配置时,网络实体(例如,基站121、核心网络服务器302)有时选择默认神经网络形成配置。可替代地或附加地,网络实体分析多个神经网络形成配置,并且从该多个神经网络形成配置中选择与当前信道条件、特定UE的能力等对准的神经网络形成配置。
在1010处,网络实体生成包括对深度神经网络的神经网络形成配置的指示的消息。例如,网络实体(例如,基站121、核心网络服务器302)生成包括索引值的消息,该索引值映射到神经网络表(例如,神经网络表216、神经网络表272、神经网络表316)的一个或多个条目。在一些实现方式中,网络实体包括用于深度神经网络的处理指派的指示,其中处理指派指定用于利用神经网络形成配置所形成的深度神经网络的处理链功能。可替代地或附加地,网络实体在消息中指定指示开始处理与深度神经网络的通信的时间和/或位置的时间实例。
在1015处,网络实体向用户设备传送消息,以引导用户设备使用神经网络形成配置来形成深度神经网络,并且使用深度神经网络来处理通过无线通信***传送的通信。例如,网络实体(例如,核心网络服务器302)通过将消息传达到基站121(该基站121将消息传送到用户设备)来将消息传送到用户设备(例如,UE 110)。可替代地或附加地,网络实体(例如,基站121)将消息传达到用户设备(例如,UE 110)。在实现方式中,深度神经网络对应于用户设备侧深度神经网络。
在一些实现方式中,网络实体(例如,基站121)基于深度神经网络的处理指派使用特定RAT和/或载波来传送消息。例如,基站121使用第一RAT和/或载波来传送具有第一处理指派(例如,下行链路数据信道处理)的第一神经网络形成配置,并且使用第二RAT和/或载波来传送具有第二处理指派(例如,下行链路控制信道处理)的第二神经网络形成配置。
在一些实现方式中,在1020处,网络实体分析从用户设备接收到的反馈。作为一个示例,网络实体(例如,基站121)从用户设备(例如,UE 110)接收度量,并且分析度量以确定是否利用不同的神经网络形成配置来更新和/或重新配置神经网络。可替代地或附加地,基站将反馈转发到网络实体(例如,核心网络服务器302),并且网络实体分析反馈以确定是否利用不同的神经网络形成配置来更新和/或重新配置神经网络。
在1025处,网络实体基于反馈来更新深度神经网络。例如,网络实体(例如,基站121、核心网络服务器302)分析神经网络表(例如,神经网络表216、神经网络表272、神经网络表316)中包括的多个神经网络形成配置,并且选择与由反馈所指示的新信道条件对准的第二神经网络形成配置。网络实体生成包括第二神经网络形成配置的指示的第二消息,并且将第二消息传送到用户设备。这包括如在1010处和/或1015处所描述的配置和传送第二消息。在实现方式中,网络实体迭代地执行这里利用从1025返回到1010的虚线所指示的方法1000的各种操作。
图11图示了用于基于神经网络形成配置来形成神经网络的示例方法1100。在一些方面,方法1100的操作由UE(诸如UE 110)实现。
在1105处,用户设备接收指示用于处理通过无线通信***传送的通信的深度神经网络的神经网络形成配置的消息。例如,用户设备(例如,UE 110)从基站(例如,基站121)接收指示神经网络形成配置和/或用于使用神经网络形成配置所形成的深度神经网络的处理指派的消息。在一些实现方式中,用户设备接收多个消息,每个消息与不同的神经网络形成配置有关(例如,指示用于处理下行链路通信的第一深度神经网络的第一神经网络形成配置的第一消息、指示用于处理上行链路通信的第二深度神经网络的第二神经网络形成配置的第二消息)。在实现方式中,用户设备接收消息作为来自基站的广播消息或者作为UE专用消息。
在1110处,用户设备使用消息中所指示的神经网络形成配置来形成深度神经网络。为了说明,用户设备(例如,UE 110)从消息中提取参数配置(诸如系数、权重、层连接等),并且使用所提取的参数配置来形成深度神经网络。作为另一示例,用户设备(例如,UE110)从消息中提取索引值,并且从神经网络表中获得参数配置,如进一步描述的。可替代地或附加地,用户设备从消息中提取时间实例,其中该时间实例指示开始使用利用神经网络形成配置所形成的深度神经网络来处理通信的时间和/或位置。
在1115处,用户设备从基站接收通信。例如,用户设备(例如,UE 110)从基站(例如,基站121)接收下行链路数据信道通信,从基站接收下行链路控制信道通信等。在1120处,用户设备使用深度神经网络处理通信以提取在通信中传送的信息。作为一个示例,用户设备(例如,UE 110)基于包括在消息中的处理指派使用深度神经网络来处理通信,诸如通过使用深度神经网络解调和/或解码来自基站(例如,基站121)的下行链路通信、编码和/或调制到基站的上行链路通信等。
在一些实现方式中,在1125处,用户设备可选地基于通信来传送反馈。例如,用户设备(例如,UE 110)基于通信来生成度量(例如,误差度量、SINR信息、CQI、CSI、多普勒反馈),并且将这些度量作为反馈传送到基站(例如,基站121)。
已经描述了能够用于使用深度神经网络来实现基站-用户设备消息传递的各方面的一些示例方法,现在考虑根据一个或多个实现方式的生成和传达神经网络形成配置的讨论。
生成和传达神经网络形成配置
在监督学习中,机器学习模块处理已标记的训练数据来生成输出。机器学习模块接收关于所生成的输出的精度的反馈,并且修改处理参数来改善输出的精度。图12图示了描述生成多个NN形成配置的各方面的示例1200。有时,示例1200的各个方面由图2和图3的训练模块270、基站神经网络管理器268、核心网络神经网络管理器312和/或训练模块314的任意组合来实现。
图12的上部包括图4的机器学习模块400。在实现方式中,神经网络管理器确定生成不同的NN形成配置。为了说明,考虑其中基站神经网络管理器268确定通过从神经网络表中选择NN形成配置元素的组合来生成NN形成配置的情形,其中NN形成配置对应于UE解码和/或解调下行链路通信。换言之,NN形成配置(通过NN形成配置元素的组合)形成处理由UE接收到的下行链路通信的DNN。然而,传输信道条件时常变化,这继而影响下行链路通信的特性。例如,第一传输信道通过引入频率偏移使下行链路通信失真,第二传输信道通过引入多普勒效应使下行链路通信失真,第三传输信道通过引入多径信道效应使下行链路通信失真等。为了准确地处理下行链路通信(例如,减少比特误差),各种实现方式选择多个NN形成配置,其中每个NN形成配置(以及NN形成配置元素的相关联的组合)对应于相应的输入条件,诸如第一传输信道、第二传输信道等。
训练数据1202表示到机器学习模块400的示例输入。在图12中,训练数据表示对应于下行链路通信的数据。例如,训练数据1202能够包括下行链路通信信号的数字样本、恢复的符号、恢复的帧数据等。在一些实现方式中,训练模块数学地生成训练数据或者访问存储训练数据的文件。在其他时间,训练模块获得真实世界的通信数据。因此,训练模块能够使用数学上生成的数据、静态数据和/或真实世界数据来训练机器学习模块。一些实现方式生成描述训练数据的各种质量的输入特性1204,诸如传输信道度量、UE能力、UE速度等。
机器学习模块400分析训练数据,并且生成输出1206,这里表示为二进制数据。一些实现方式使用具有相同输入特性的相同训练数据集和/或附加训练数据集来迭代地训练机器学习模块400,以改善机器学习模块的精度。在训练期间,机器学习模块修改包括在机器学习模块中的神经网络的一些或全部架构和/或参数配置,诸如节点连接、系数、内核大小等。在训练中的某一点,训练模块确定提取神经网络的架构和/或参数配置1208(例如,池化参数、内核参数、层参数、权重),诸如当训练模块确定精度满足或超过期望阈值时,训练处理满足或超过迭代次数等。训练模块然后从机器学习模块提取架构和/或参数配置以用作NN形成配置和/或NN形成配置元素。架构和/或参数配置能够包括固定的架构和/或参数配置、和/或可变的架构和/或参数配置的任何组合。
图12的下部包括表示NN形成配置元素的集合的神经网络表1212,诸如图2和图3的神经网络表216、神经网络表272和/或神经网络表316。神经网络表1212存储架构配置、参数配置和输入特性的各种组合,但是替代的实现方式从该表中排除输入特性。各种实现方式在机器学习模块学习附加信息时更新和/或维持NN形成配置元素和/或输入特性。例如,在索引1214处,神经网络管理器和/或训练模块更新神经网络表1212以包括由机器学习模块400在分析训练数据1202时生成的架构和/或参数配置1208。
神经网络管理器和/或训练模块可替代地或附加地将输入特性1204添加到神经网络表,并且将输入特性链接到架构和/或参数配置1208。这允许在获得架构和/或参数配置的同时获得输入特性,诸如通过使用引用神经网络表的索引值(例如,引用NN形成配置,引用NN形成配置元素)。在一些实现方式中,神经网络管理器通过将输入特性与当前操作环境进行匹配(诸如通过将输入特性与当前信道条件、UE能力、UE特性(例如,速度、位置等)等进行匹配)来选择NN形成配置。
已经描述了生成和传达神经网络形成配置,现在考虑根据一个或多个实现方式的能够用于传达神经网络形成配置的在无线通信***上的信令和控制事务的讨论。
用于传达神经网络形成配置的信令和控制事务
图13至图15图示了根据传达神经网络形式配置(诸如传达NN形式配置)的一个或多个方面在基站、用户设备和/或核心网络服务器之间的示例信令和控制事务图。在实现方式中,信令和控制事务可以由图1的基站120和UE 110中的任何一个、或图3的核心网络服务器302使用图1至图12的元件来执行。
用于传达神经网络形成配置的信令和控制事务的第一示例由图13的信令和控制事务图1300图示。在实现方式中,参考信令和控制事务图所描述的信令和控制事务的部分或全部对应于参考图7和/或图8所描述的信令和控制事务。
如图所示,在1305处,基站121维持神经网络表。例如,基站神经网络管理器和/或基站121的训练模块(例如,基站神经网络管理器268、训练模块270)使用数学上生成的训练数据、从真实世界通信中提取的数据、文件等的任何组合来生成和/或维持神经网络表(例如,神经网络表272)。在各种实现方式中,基站121维持多个神经网络表,其中每个神经网络表包括用于指定目的多个神经网络形成配置和/或神经网络形成配置元素,诸如指定用于数据信道通信的第一神经网络表、指定用于控制信道通信的第二神经网络表等。
在1310处,基站121将神经网络表传送到UE 110。作为一个示例,基站使用层3消息传递(例如,无线电资源控制(RRC)消息)来传送神经网络表。在传送神经网络表时,基站传送能够用于形成深度神经网络的架构和/或参数配置的任何组合,其示例在本公开中提供。可替代地或附加地,基站与神经网络表一起传送指定用于神经网络表的处理指派的指示。因此,基站向UE传送多个神经网络表,其中针对每个神经网络表指定相应的处理指派。在一些实现方式中,基站121向UE组广播神经网络表。在其它时间,基站121向UE 110传送UE专用神经网络表。
在1315处,基站121识别神经网络形成配置以在处理通信时使用。例如,基站通过选择神经网络形成架构元素的组合(诸如在图7的710处所描述的那些),通过分析信息的任何组合(诸如由深度神经网络处理的信道类型(例如,下行链路、上行链路、数据、控制等)、传输介质属性(例如,功率测量、信号与干扰加噪声比(SINR)测量、信道质量指示符(CQI)测量)、编码方案、UE能力、BS能力等),来确定在处理通信时使用的神经网络形成配置。因此,在一些实现方式中,基站121基于接收到各种度量和/或参数(诸如在图8的815、820和830处描述的那些)来识别神经网络形成配置。在一些实现方式中,基站121识别默认神经网络形成配置以用作神经网络形成配置。因此,识别神经网络形成配置能够包括识别默认神经网络形成配置和/或对神经网络形成配置的更新。
在识别神经网络形成配置时,基站121在神经网络表中查明与所确定的神经网络形成配置相对应的神经网络形成配置。换言之,基站121诸如通过关联和/或匹配输入特性,来识别与所确定的神经网络形成配置对准的图2的神经网络表272和/或神经网络表216中的神经网络形成配置和/或神经网络形成配置元素。在识别神经网络表中的神经网络形成配置和/或神经网络形成配置元素时,基站识别神经网络形成配置和/或神经网络形成配置元素的索引值。
在1320处,基站121传送引导UE 110使用来自神经网络表的神经网络形成配置来形成深度神经网络的指示。例如,类似于在图7的715处和/或在图8的840处描述的那些,基站121将索引值传达到UE110,并且引导UE 110使用由索引值指示的神经网络形成配置来形成深度神经网络。基站能够以任何适当的方式向UE传送该指示。作为一个示例,基站使用层2消息(例如,无线电链路控制(RLC)消息、媒体接入控制(MAC)控制元素)来传送与神经网络形成配置相对应的索引值。在一些实现方式中,基站将当前操作环境(例如,信道条件、UE能力、BS能力、度量中的一个或多个)与神经网络表内存储的输入特性进行比较,并且识别与当前操作环境对准的所存储的输入特性。继而,基站获得所存储的输入特性的索引值,该索引值继而提供神经网络形成配置和/或神经网络形成配置元素的索引值。基站121然后传送索引值作为指示。有时,基站121包括处理指派以指示处理链中的位置以应用深度神经网络。在一些实现方式中,基站使用下行链路控制信道来传送索引值和/或处理指派。
有时,基站向UE传送指定与应用神经网络形成配置相关的操作参数的规则。在一个示例中,规则包括指示何时处理与使用神经网络形成配置所形成的深度神经网络的通信的时间实例。可替代地或附加地,当数据信道和控制信道在时间阈值内时,规则指定引导UE使用默认神经网络形成配置而不是指定的神经网络形成配置的时间阈值。另外地或可替代地,当数据信道和控制信道在时间阈值内时,规则可以引导用户设备使用相同的神经网络形成配置以用于数据信道通信和控制信道通信。为了说明,考虑其中UE使用第一深度神经网络(使用第一神经网络形成配置所形成的)来处理数据信道通信,并且使用第二深度神经网络(使用第二神经网络形成配置所形成的)来处理控制信道通信的示例。如果数据信道通信和控制信道通信落入由时间实例所指定的时间阈值内,则UE使用默认深度神经网络(利用默认神经网络形成配置所形成的)和/或相同的深度神经网络来处理这两个信道,因为可能没有足够的时间在第一深度神经网络和第二深度神经网络之间切换。
有时,基站使用下行链路控制信道传达默认神经网络形成配置来向UE指定该默认神经网络形成配置,其中默认神经网络形成配置形成处理各种输入数据的深度神经网络。在一些实现方式中,默认神经网络形成配置形成以阈值范围内的精度来处理各种输入数据的深度神经网络。默认神经网络形成配置能够包括通用神经网络形成配置。
为了说明,一些实现方式生成或选择用于特定操作条件的神经网络形成配置,诸如特定于利用当前操作环境“X”的UE下行链路控制信道处理(例如,解调和/或决定)的第一神经网络形成配置、特定于利用当前操作环境“Y”的UE下行链路控制信道处理的第二神经网络形成配置等。例如,第一神经网络形成配置能够与其中检测到的干扰水平高的当前操作环境相关,第二神经网络形成配置能够与其中检测到的干扰水平低的当前操作环境相关,第三神经网络形成配置能够与其中所连接的UE好像是静止的当前操作环境相关,第四神经网络形成配置能够与其中所连接的UE好像正在移动并且具有特定速度的当前操作环境相关等。
使用用于特定操作条件的神经网络形成配置来形成深度神经网络(相对于利用其他神经网络形成配置来形成深度神经网络)改善了由深度神经网络在处理与特定操作条件相对应的输入数据时所生成的输出的精度。然而,这引入了折衷,因为当处理与其它操作条件相关联的输入时,利用用于特定操作条件的神经网络形成配置所形成的深度神经网络以较低精度生成输出。相反,默认神经网络形成配置对应于处理更广泛的各种输入(诸如跨越更多操作条件的各种输入)的神经网络形成配置。换言之,相对于针对特定操作条件的神经网络形成配置,利用默认神经网络形成配置所配置的深度神经网络处理更多样的通信。
在1325处,UE 110使用神经网络形成配置来形成深度神经网络。作为一个示例,UE提取由基站121传送的索引值,并且通过使用索引值访问神经网络表来获得神经网络形成配置和/或神经网络形成配置元素。可替代地或附加地,UE 110提取处理指派,并且在如由处理指派所指定的处理链中形成深度神经网络。
在1330处,基站121向UE 110传送通信,诸如下行链路数据信道通信。在1335处,UE110使用深度神经网络来处理通信。例如,UE 110使用深度神经网络处理下行链路数据信道通信以恢复数据。作为另一示例,处理通信包括处理对通信的回复,其中UE 110使用深度神经网络来处理回复下行链路通信的上行链路通信。
图14的信令和控制事务图1400图示了用于传达神经网络形成配置的信令和控制事务的第二示例。如图所示,在1405处,核心网络服务器302维持神经网络表。例如,核心网络服务器302的核心网络神经网络管理器312和/或训练模块314使用数学上生成的训练数据、从真实世界通信中提取的数据、文件等的任何组合来生成和/或维持神经网络表316。在各种实现方式中,核心神经网络服务器302维持多个神经网络表,其中每个神经网络表包括用于所指定的处理指派的多个神经网络形成配置元素(例如,指定用于数据信道通信的第一神经网络表、指定用于控制信道通信的第二神经网络表)。
在1410处,核心网络服务器302诸如通过使用图3的核心网络接口320将神经网络表传达到基站121。在一些实现方式中,核心网络服务器将多个神经网络表传达到基站。在1415处,基站121诸如通过使用层3消息传递传送神经网络表、通过使用下行链路控制信道传送神经网络表、通过广播神经网络表、通过使用UE专用消息传送神经网络表等来将神经网络表传送到UE 110。
在1420处,核心网络服务器302选择神经网络形成配置。作为一个示例,核心网络服务器302将当前操作环境与存储在神经网络表内的输入特性进行比较,并且识别与当前操作环境(例如,信道条件、UE能力、BS能力、度量中的一个或多个)对准的所存储的输入特性。核心网络服务器然后获得所对准的输入特性的索引值,其继而提供神经网络形成配置和/或神经网络形成配置元素的索引值。然后,在1425处,核心网络服务器302将所选择的神经网络形成配置传达到基站,诸如通过使用核心网接口320来传达索引值。在一些实现方式中,核心网络服务器将处理指派与神经网络形成配置一起传达。
在1430处,基站121将神经网络形成配置转发给UE 110。作为示例,基站121诸如通过层2消息传递(例如,RLC消息、MAC控制元素)向UE 110传送索引值,以引导UE使用神经网络形成配置来形成深度神经网络,诸如在图13的1320处所描述的那些。在实现方式中,基站121附加地基于神经网络形成配置(这里未图示)来形成互补的深度神经网络,诸如在图6中、在图7的725处、在图8的845处和/或在图9-1的920处所描述的那些。有时,基站将从核心网络服务器接收到的处理指派与索引值一起传达。响应于接收到神经网络形成配置,UE110在1435处形成深度神经网络,并且在1440处使用深度神经网络来处理从基站121接收到的通信,诸如在图7的730处、在图8的810处、在图9的935处和/或图13的1335处所描述的那些。
在一些实现方式中,当相似性存在于无线通信***中时,UE从第二神经网络形成配置推导第一神经网络形成配置。为了说明,考虑准对应信道的示例。准对应信道是无线通信***中具有共享或相同属性(诸如相同的延迟扩展、相同的多普勒扩展、相同的空间特征、相同的空间波束、相同的空间方向、相同的数据速率等)的信道。可替代地或附加地,准对应信道具有在阈值范围或值内的相关物理属性。在各种实现方式中,UE响应于识别这些相似性而从第二神经网络形成配置推导第一神经网络形成配置。
为了说明,现在考虑在图15中由信令和控制事务图1500所图示的用于传达神经网络形成配置的信令和控制事务的第三示例。在第三示例中,UE基于所识别的相似性来推导神经网络形成配置。虽然信令和控制事务图1500图示了图1的基站121和UE 110,但是替代实现方式包括执行由基站121执行的一些或全部功能的核心网络服务器(诸如图3的核心网络服务器302)。
在1505处,基站121识别作为准对应信道的两个或多个信道。例如,基站121或核心网络服务器302(使用图2的基站神经网络管理器268或图3的核心网络神经网络管理器312)比较两个或多个信道的各种波束属性,诸如方向、强度、发散度、轮廓、质量等。当任意数量的属性在预定阈值内彼此匹配和/或相关时,基站121确定两个或多个信道是准对应的。
在1510处,基站121诸如通过使用层2消息传递、层3消息传递和/或层1信令传送准对应信道的指示,来向UE 110传送准对应信道的指示。该指示将任意数量的信道表示为彼此准对应,其中信道可以是物理信道和/或逻辑信道。作为一个示例,该指示表示当信道具有相似的数据速率时,下行链路控制信道与下行链路数据信道准对应。作为另一示例,该指示表示基于具有相似空间波束的物理信道在不同载波频率的两个物理信道是准对应的。
在1515处,基站121传送用于准对应信道之一的神经网络形成配置的指示。例如,基站传送索引值和处理指派,该处理指派指定所形成的深度神经网络以用于处理第一信道(诸如下行链路控制信道)。
在1520处,UE 110使用用于第一信道(例如,下行链路控制信道)的神经网络形成配置来形成第一深度神经网络。在1525处,UE 110将第一信道识别为准对应信道之一。例如,UE将第一信道与由基站121识别并且从该基站121接收到的准对应信道进行比较。响应于将第一信道识别为准对应信道之一,UE确定将神经网络形成配置应用于与第一信道准对应的其他信道。因此,在1530处,UE 110使用神经网络形成配置来形成用于其它准对应信道的深度神经网络。通过将信道识别为准对应信道,仅需要针对准对应信道之一改变神经网络形成配置,并且这将导致针对所有准对应信道改变神经网络形成配置而不需要单独改变针对每个其它准对应信道的神经网络形成配置。
已经描述了能够用于传达神经网络形成配置的信令和控制事务,现在考虑根据一个或多个实现方式的能够用于传达神经网络形成配置的一些示例方法。
示例方法
根据传达神经网络形成配置的一个或多个方面参考图16和图17描述示例方法1600和1700。描述方法框的顺序不旨在被解释为限制,并且可以跳过或以任何顺序组合任何数量的所述方法框来实现方法或替代方法。通常,本文描述的任何组件、模块、方法和操作可以使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。示例方法的一些操作可以在存储在计算机处理***本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述,并且实现方式可以包括软件应用、程序、功能等。可替代地或附加地,本文描述的任何功能可以至少部分地由一个或多个硬件逻辑组件来执行,诸如但不限于现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SoC)、复杂可编程逻辑器件(CPLD)等。
图16图示了用于传达神经网络形成配置以用于处理通过无线通信***传送的通信的示例方法1600。在一些实现方式中,方法1600的操作由网络实体来执行,诸如基站120和/或核心网络服务器302中的一个。
在1605处,网络实体传送包括多个神经网络形成配置元素的神经网络表,其中多个神经网络形成配置元素中的每个神经网络形成配置元素配置深度神经网络的至少一部分以用于处理通过无线通信***传送的通信。例如,网络实体(例如,基站121)使用到UE组的广播或组播消息,向UE(例如,UE 110)传送神经网络表(例如,神经网络表272、神经网络表316)。作为另一示例,网络实体(例如,基站121)使用UE专用消息向UE(例如,UE 110)传送神经网络表。在一些实现方式中,网络实体(例如,核心网络服务器302)将神经网络表传达到基站(例如,基站121),并且引导基站将神经网络表传送到UE(例如,UE 110)。有时,网络实体使用层3消息传递来传送神经网络表。可替代地或附加地,网络实体传送多个神经网络表,其中每个神经网络表具有指定的处理指派,如进一步描述的。
在1610处,网络实体从多个神经网络形成配置元素中选择一个或多个神经网络形成配置元素以创建神经网络形成配置。例如,网络实体(例如,基站121、核心网络服务器302)通过以下来选择神经网络形成配置元素:将当前操作环境与存储在神经网络表中的输入特性进行比较,并且通过将输入特性与当前操作环境相关或匹配来选择神经网络形成配置元素。在一些实现方式中,网络实体选择候选神经网络形成配置集。
在1615处,网络实体向用户设备传送指示,以引导用户设备使用神经网络形成配置来形成深度神经网络并且使用深度神经网络来处理通信。作为一个示例,网络实体(例如,基站121)确定与神经网络形成配置和/或神经网络形成配置元素集相对应的神经网络表的索引值,并且将索引值传送到UE 110,诸如通过使用下行链路控制信道来传送索引值,通过在层2消息中传送索引值等。作为另一示例,网络实体(例如,核心网络服务器302)向基站(例如,基站121)传送指示,并且引导基站向用户设备(例如,UE 110)传送该指示。网络实体替代地或附加地指示用于利用神经网络形成配置所形成的深度神经网络的处理指派,诸如通过指示引导用户设备处理与深度神经网络的下行链路控制信道通信的处理指派。
在传送索引值时,网络实体有时指定关于何时处理与对应的深度神经网络的通信的规则。作为一个示例,网络实体(例如,基站121、核心网络服务器302)确定数据信道通信与控制信道通信之间的时间阈值。当传送索引值以引导用户设备(例如,UE 110)形成深度神经网络时,网络实体传送时间值阈值以及在数据信道通信与控制信道通信之间的定时低于时间阈值时引导用户设备使用默认形成配置来形成深度神经网络的规则。另外地或可替代地,当数据信道和控制信道在时间阈值内并且因此没有足够的时间在不同DNN之间切换时,规则可以引导用户设备使用相同的神经网络形成配置用于数据信道通信和控制信道通信。
图17图示了用于传达神经网络形成配置以用于处理通过无线通信***传送的通信的示例方法1700。在一些实现方式中,方法1700的操作由用户设备(诸如UE 110)执行。
在1705处,用户设备接收包括多个神经网络形成配置元素的神经网络表,该多个神经网络形成配置元素向用户设备提供配置用于处理通过无线通信***传送的通信的深度神经网络的能力。例如,用户设备(例如,UE 110)在层3消息传递中从基站(例如,基站121)接收神经网络表(例如,神经网络表272)。作为另一示例,用户设备在组播或广播消息中接收神经网络表。可替代地或附加地,用户设备在UE专用消息中接收神经网络表。在一些情况下,用户设备接收多个神经网络表,其中每个神经网络表具有指定的处理指派。
在1710处,用户设备接收引导用户设备基于多个神经网络形成配置元素中的一个或多个神经网络形成配置元素使用神经网络形成配置来形成深度神经网络的消息。例如,用户设备(例如,UE 110)在消息中接收神经网络表的索引值集合,其中,该索引值集合对应于神经网络形成配置元素集合,诸如在图13的1325处、在图14的1435处和/或在图15的1520处所描述的那些。在实现方式中,用户设备(例如,UE 110)接收包括与神经网络表中的一个或多个条目相对应的索引值的下行链路控制信道消息。在一些实现方式中,消息包括对利用神经网络形成配置所形成的深度神经网络的处理指派的指示,诸如通信信道处理指派、处理链处理指派等。
在1715处,用户设备通过访问神经网络表获得神经网络形成配置元素来利用神经网络形成配置形成深度神经网络。在一个示例中,用户设备(例如,UE 110)使用索引值来访问神经网络表。可替代地或附加地,在一些实现方式中,当形成深度神经网络时,用户设备(例如,UE 110)确定使用利用神经网络形成配置所形成的第一深度神经网络来处理第一通信信道,并且识别与第一通信信道准对应的第二通信信道。响应于识别第二通信信道是准对应的,用户设备(例如,UE110)确定使用利用神经网络形成配置所形成的第二深度神经网络来处理第二通信信道。
响应于形成深度神经网络,在1720处,用户设备使用深度神经网络来处理通过无线通信***传送的通信。例如,用户设备(例如,UE110)使用深度神经网络来处理下行链路通信信道。
已经描述了能够用于传达神经网络形成配置的示例方法,现在考虑根据一个或多个实现方式的用于无线网络的E2E ML的讨论。
用于无线网络的E2E ML
端到端通信(E2E通信)的各方面涉及两个端点在通信路径上交换信息,诸如通过无线网络。有时,E2E通信执行单向信息交换,其中第一端点发送信息并且第二端点接收信息。在其它时间,E2E通信执双向信息交换,其中两个端点发送和接收信息。E2E通信的端点可以包括能够消耗和/或生成信息的任何实体,诸如计算设备、应用、服务等。为了说明,考虑在UE处执行的应用通过无线网络与远程服务交换信息的示例。在该示例中,E2E通信对应于应用和远程服务之间的通信路径,其中应用和远程服务充当端点。
虽然E2E通信涉及交换信息的端点,但是E2E通信可替换地或附加地包括参与信息交换的中间实体(例如,设备、应用、服务)。为了说明,再次考虑通过无线网络建立的E2E通信的示例,其中在UE处的应用用作第一端点并且远程服务用作第二端点。在端点之间建立E2E通信时,无线网络利用UE、基站、核心网络服务器、远程网络、远程服务等的任何组合,诸如参考图1的环境100所描述的那些。因此,诸如基站120和核心网络150的中间实体参与建立E2E通信和/或参与E2E通信以实现端点之间的信息交换。
不同因素影响E2E通信的操作效率以及网络元件如何处理通过E2E通信所交换的信息。例如,参考使用无线网络所建立的E2E通信,当前操作环境(例如,当前信道条件、UE位置、UE移动、UE能力)影响接收端点如何准确地恢复信息(例如,比特误差率、分组丢失)。作为一个示例,使用5G mmW技术所实现的E2E通信相对于较低频率的6GHz以下的信号变得更容易受到信号失真的影响,如进一步描述的。
作为另一示例,各种实现方式基于E2E通信的端到端分析不同地划分无线网络资源,其中无线网络资源包括作为示例而非限制的物理硬件、物理频谱、逻辑信道、网络功能、所提供的服务、服务质量、延迟等的任何组合。无线网络资源划分允许无线网络基于预期使用动态地分配无线网络资源,以改善如何使用无线网络资源的效率(例如,减少未使用资源和/或浪费资源的发生)。为了说明,考虑连接到无线网络的各种设备,其中设备具有相对于彼此不同的性能要求(例如,第一设备具有安全数据传输要求,第二设备具有高优先级/低延迟数据传输要求,第三设备具有高数据速率要求)。对于至少一些设备,无线网络资源的固定和/或静态分布(例如,用于实现E2E通信的无线网络资源的固定配置)可以导致未使用资源和/或未能满足一些服务的性能要求。因此,划分无线网络资源可以改善如何利用无线网络资源的整体效率。然而,该划分导致一对E2E端点如何相对于第二对E2E端点交换信息的变化。
为了进一步示范,考虑与无线网络中交换的信息相对应的服务质量流(QoS流)。在各种实现方式中,E2E通信包括和/或对应于QoS流。一些无线网络利用影响如何通过QoS流交换信息的操作规则、优先级等级、分类等来配置QoS流。例如,QoS简档向无线网络指示特定QoS流的QoS参数和/或QoS特性,诸如用于指示QoS流的上行链路和/或下行链路保证比特率的保证流比特率(GFBR)参数、用于指示QoS流的最大上行链路和/或下行链路比特率的最大流比特率(MFBR)参数、指示QoS流的优先级等级、抢占能力和/或抢占脆弱性的分配和保留优先级(ARP)参数、指示QoS流上承载的业务类型受到反映QoS(例如,隐式更新)的反映QoS属性(RQA)、指示当保证流比特率不能被保证时是否请求通知的通知控制参数、或者针对QoS流恢复指示与特定UE相关联的集体非保证比特率(Non-GBR)流的预期聚合比特率的聚合比特率参数、用于5QI和ARP优先级等级的默认参数、指示QoS流的丢失分组的最大速率的用于上行链路和/或下行链路的最大分组丢失率(MPLR)、指示可以由QoS流使用的资源类型(例如GBR资源类型、延迟临界GBR资源类型、非GBR资源类型)的资源类型特性、区分同一UE的多个QoS流的调度优先级等级特性、提供分组可以被延迟多长时间的上限的分组延迟预算特性、指示PDU未被成功接收的速率的上限的分组误差率特性、指示用于计算GFBR和/或MFBR的数据窗口的平均窗口特性、指示在预定义的时间段上需要被服务的最大数据量的最大数据突发量特性等。在一些实现方式中,指定QoS流的配置的参数和/或特性能够诸如通过QoS简档被预配置(例如,默认)和/或动态地传达。这些变化影响无线网络如何划分各种无线网络资源以支持QoS流配置。
图18图示了根据一个或多个实现方式的示范QoS流之间的示例变化的示例环境1800。环境1800包括图1的UE 110和基站120,以及图3的核心网络服务器302。在环境1800中,核心网络服务器302实现用户平面功能1802(UPF 1802)的各方面,但是应当理解,可以利用替代或附加设备来实现UPF。UPF 1802向无线网络***提供各种服务和/或特征,诸如分组转发、分组路由、与数据网络(例如,互联网)的互连、数据缓冲、分组检查、QoS处理、策略实施等。
在环境1800中,UE 110通过UPF 1802建立多个QoS流,以获得对数据网络的接入。例如,UE 110包括三个应用:应用1804、应用1806和应用1808,其中每个应用具有不同的性能要求(例如,资源类型、优先级等级、分组延迟预算、分组误差率、最大数据突发量、平均窗口、安全等级)。这些不同的性能要求使得无线网络对指派给对应的QoS流的无线网络资源进行彼此不同的划分。例如,考虑其中应用1804对应于游戏应用、应用1806对应于增强现实应用、并且应用1808对应于社交媒体应用的场景。在一些实例中,游戏应用(通过数据网络)与远程服务交互以与另一游戏应用连接来实时地交换音频、实时地交换视频、交换命令、交换视图等,使得游戏应用具有高数据量和低延迟的性能要求。增强现实应用还通过数据网络与远程服务交互以传送位置信息,并且随后接收覆盖在UE 110处生成的相机图像之上的图像数据。相对于游戏应用,增强现实应用利用较少的数据,但是具有一定的时间敏感性以维持当前位置与对应图像覆盖之间的同步。最后,社交媒体应用通过数据网络与远程服务交互以接收馈送信息,其中馈送信息相对于由增强现实应用和/或游戏应用消耗的数据具有较少的数据量和时间关键性。
基于这些性能要求,无线网络在应用和数据网络(通过UPF)之间建立QoS流,其中每个QoS流具有与划分无线网络资源相关联的不同配置。例如,QoS流1810通过UPF 1802将应用1804连接到数据网络,其中无线网络基于QoS要求、QoS参数和/或QoS特性(例如,资源类型、优先级等级、分组延迟预算、分组误差率、最大数据突发量、平均窗口、安全性等级)来构造QoS流,该QoS要求、QoS参数和/或QoS特性指示高数据量性能要求和时间敏感性性能要求。在实现方式中,包括在QoS简档中的QoS要求、QoS参数和/或QoS特性对应于QoS流的性能要求。
为了说明,无线网络(例如,基站120、核心网络服务器302)处理与QoS流1810相关联的QoS简档,该QoS简档基于QoS流1810的性能要求来配置GFBR参数、最大数据突发量特性、ARP参数等的任意组合。然后,无线网络通过基于QoS参数和/或特性划分无线网络资源来构造QoS流,其中QoS流1810通过UPF 1802将应用1804连接到数据网络。类似地,QoS流1812通过UPF 1802将应用1806连接到数据网络,其中无线网络基于与应用1806相关联的性能要求来划分QoS流所使用的无线网络资源。最后,QoS流1814将应用1808连接到数据网络(通过UPF 1802),其中无线网络基于与应用1808相关联的性能要求来划分由QoS流所使用的无线网络资源,诸如通过处理QoS简档,其中QoS参数和/或特性反映QoS流1814的较小数据量和较小时间关键需求。在各种实现方式中,UPF 1802充当无线网络的边缘,因为UPF1802提供到无线网络外部的数据网络的连接性。因此,在无线网络内,应用1804和UPF 1802充当基于QoS流1810的E2E通信的端点,应用1806和UPF 1802充当基于QoS流1812的E2E通信的端点,并且应用1808和UPF 1802充当基于QoS流1814的E2E通信的端点。
环境1800图示了无线网络用于构造QoS流的示例架构的概况。在示例架构中,无线网络构造协议数据单元会话(PDU会话1816),其供应UE 110之间的数据连接性,并且通过UPF 1802供应到外部数据网络。在实现方式中,PDU会话基于特定服务类型(例如互联网协议(IP)服务、和以太网类型服务、非结构化类型服务等)来传输数据。在该示例中,QoS流1810、QoS流1812和QoS流1814使用相同的服务类型,并且属于与传输与该服务类型相关联的数据相对应的PDU会话1816。
为了支持数据连接性,数据无线电承载1818和数据无线电承载1820提供连接UE110和基站120的无线电接口。在一些实现方式中,数据无线电承载1818和数据无线电承载1820通过无线电接口利用不同的技术、资源分配等来传达信息。因此,示例架构将每个QoS流映射到具有支持QoS流的相应性能要求的配置的数据无线电承载。在此示例中,无线网络将数据无线电承载1818映射到QoS流1810和QoS流1812,并且将数据无线电承载1820映射到QoS流1814。因此,数据无线电承载可以支持多个QoS流。
隧道1822对应于与由UPF 1802提供的QoS流相关联的非无线电接口功能,诸如分组转发。在实现方式中,隧道1822对应于用于在实体之间传输数据的隧道协议。因此,基站120使用隧道1822通过UPF1802将在不同QoS流上交换的信息传达到数据网络。在实现方式中,隧道1822给无线网络提供交换与PDU会话1816相关联的业务的能力。
虽然QoS流的可配置性向无线网络提供了动态修改如何分配无线网络资源的灵活性,但是可配置性增加了在无线网络如何处理在端点之间交换的信息方面的复杂性。一些实现方式训练DNN执行与使用具有各种配置的E2E通信来交换信息相关联的复杂处理中的一些或全部。通过在不同的处理链操作和/或无线网络资源划分上训练DNN,DNN可以代替传统的复杂功能,如进一步描述的。DNN在E2E通信中的使用还允许网络实体诸如通过修改各种参数配置(例如,系数、层连接、内核大小)来使DNN适应于改变的操作条件。
一个或多个实现方式确定用于处理通过E2E通信所交换的信息的E2E ML配置(E2EML配置)。例如,参考图18,一些实现方式确定用于处理使用QoS流1810所交换的通信的第一E2E ML配置、用于处理使用QoS流1812所交换的通信的第二E2E ML配置、以及用于处理使用QoS流1814所交换的通信的第三E2E ML配置。在一些情况下,端到端机器学习控制器(E2EML控制器)获得与无线网络中的端到端通信相关联的设备的能力,诸如参与E2E通信的设备的机器学习(ML)能力,并且基于设备的ML能力(例如,所支持的ML架构、所支持的层数、可用的处理功率、存储器限制、可用的功率预算、定点处理相对于浮点处理、最大内核大小能力、计算能力)来确定E2E ML配置。可替代地或附加地,E2E ML控制器识别当前操作环境,并且基于当前操作环境来确定E2E ML配置。在确定E2E ML配置时,E2E ML控制器的一些实现方式基于参与E2E通信的设备来划分E2E ML配置,并且将E2E ML配置的相应划分传达到每个相应设备。
为了示范,考虑图19,其图示了其中用于E2E通信的示例E2E ML配置包括在多个设备处操作的DNN的示例环境1900。环境1900包括图1的UE 110、基站120和远程服务170以及图3的核心网络服务器302。在实现方式中,UE 110和远程服务170使用E2E通信1902和E2E通信1904来彼此交换信息。为了清楚起见,E2E通信1902和1904被图示为是分开的单向E2E通信,使得每个通信E2E上的信息交换对应于一个方向(例如,E2E通信1902包括上行链路传输,E2E通信1904包括下行链路传输),但应当理解,在可替换或附加实现方式中,E2E通信1902和E2E通信1904对应于包括在环境1900中用虚线1906所表示的这两者的单、双向E2E通信。在实现方式中,E2E通信1902和E2E通信1904(组合地)对应于单个QoS流,诸如图18的QoS流1810、QoS流1812或QoS流1814之一,因此,图18中所图示的多个QoS流中的每一个具有相应的E2E ML配置。
环境1900还包括由核心网络服务器302实现的E2E ML控制器318,其中E2E ML控制器318确定用于E2E通信1902和/或E2E通信1904的E2E ML配置。在一些实现方式中,诸如当每个E2E通信对应于单向信息交换时,E2E ML控制器确定用于E2E通信1902的第一E2E ML配置和用于E2E通信1904的第二E2E ML配置。在其它实现方式中,E2E ML控制器确定用于包括E2E通信1902和1904这两者的双向E2E通信的E2E ML配置。例如,响应于UE 110诸如通过应用的调用而请求到远程服务器170的连接,E2E ML控制器基于UE 110的ML能力(例如,所支持的ML架构、所支持的层数、可用于ML处理的处理功率、应用于ML处理的存储器约束、可用于ML处理的功率预算、定点处理相对于浮点处理)、与所请求的连接相关联的性能要求(例如,资源类型、优先级登记、分组延迟预算、分组误差率、最大数据突发量、平均窗口、安全级别)、可用无线网络资源、中间设备(例如,基站120、核心网络服务器302)的ML能力、当前操作环境(例如,信道条件、UE位置)等)的任何组合来确定用于相对应连接的E2E ML配置。作为一个示例,参考图9-1、图9-2和图10,E2E ML控制器318通过核心网络服务器302接收描述当前操作环境的基站度量和/或UE度量。作为另一示例,参考图22,E2E ML控制器通过核心网络服务器302接收基站ML能力和/或UE能力。
在一个或多个实现方式中,E2E ML控制器318基于设备能力、无线网络资源划分、操作参数、当前操作环境、ML能力等的任何组合来分析神经网络表以确定E2E ML配置。虽然被描述为由核心网络服务器302实现,但是在可替代或附加实现方式中,E2E ML控制器318可以由另一网络实体(诸如基站120)实现。
为了说明,并且参照图12,训练模块270和/或训练模块314利用反映能力、无线网络资源划分、操作参数、当前操作环境等的不同组合的训练数据1202的变化来训练机器学习模块400。训练模块提取架构和/或参数配置(例如,架构和/或参数配置1208)并且将其存储在神经网络表中,使得在稍后时间点,E2E ML控制器318访问神经网络表以获得和/或识别对应于所确定的E2E ML配置的神经网络形成配置。E2E ML控制器318然后将神经网络形成配置传达到各种设备并且引导相应设备形成相应DNN,如进一步描述的。
在确定E2E ML配置时,E2E ML控制器318有时基于参与相应E2E通信的设备来划分E2E ML配置。例如,E2E ML控制器318确定对应于UE 110处的处理信息的E2E ML配置的第一分区、对应于基站120处的处理信息的E2E ML配置的第二分区、以及对应于核心网络服务器302处的处理信息的E2E ML配置的第三分区,其中确定分区可以基于能力、无线网络资源划分、操作参数、当前操作环境等的任何组合。
作为一个示例,考虑对应于无线网络上的语音传输的E2E通信,诸如E2E通信1902、E2E通信1904、和/或这两个E2E通信的组合。在确定用于E2E通信的E2E ML配置中,E2E ML控制器318可替换地或附加地识别指示具有低延迟要求的大量数据传输的E2E通信的性能要求。基于性能要求,E2E ML控制器识别E2E ML配置,该配置当由相应DNN形成时执行交换语音通信并且满足性能要求的端到端功能。为了说明,E2E ML控制器确定执行用于将语音从UE传送到核心网络服务器的端到端功能(诸如UE侧的信号处理、语音编码、信道编码和/或信道调制,基站侧的信道解码、解调和/或信号处理,核心网络服务器侧的解码语音等)的E2E ML配置,并且选择被设计为满足性能要求的配置。
一些实现方式基于参与E2E通信的设备的ML能力和/或性能要求来划分E2E ML配置。例如,UE可以具有较少的处理资源(例如,处理能力、存储器约束、量化约束、定点相对于浮点计算、FLOPS、相对于基站和/或核心网络服务器的功率可用性),其可以通过ML能力来指示。响应于通过ML能力的分析来识别不同的处理资源,E2E ML控制器对E2E ML配置进行划分,使得第一分区(例如,在UE 110处的)形成比由第二或第三分区(例如,在基站处、在核心网络服务器处的)形成的DNN执行更少处理的DNN。可替换地或附加地,E2E ML控制器划分E2E ML配置以产生被设计为不超过设备能力的神经网络。例如,基于分析该能力,E2E ML控制器基于UE的处理约束来引导UE形成相对于由基站和/或核心网络服务器所形成的DNN具有更少的层和更小的内核大小的DNN。可替代地或者附加地,E2E ML控制器划分E2E ML配置以在UE处形成具有处理信息而不超过UE的存储器约束的架构的神经网络(例如,卷积神经网络、长短期记忆(LSTM)网络、部分连接、完全连接)。在一些实例中,E2E ML控制器计算在每个设备处执行的计算量是否共同满足与延迟预算相对应的性能要求,并且确定被设计为满足性能要求的E2E ML配置。
在环境1900中,E2E ML控制器318确定用于处理通过E2E通信1902所交换的信息的第一E2E ML配置,并且确定跨多个设备划分第一E2E ML配置,诸如通过基于设备能力跨UE110、基站120和核心网络服务器302来划分第一E2E ML配置。换言之,一些实现方式确定对应于分布式DNN的E2E ML配置,在该分布式DNN中多个设备实现和/或形成该DNN的部分。为了传达该划分,E2E ML控制器318识别与E2E ML配置的第一分区相对应的第一神经网络形成配置(NN形成配置),并且通过使用核心网络服务器302将第一NN形成配置传达到UE 110。E2E ML控制器318和/或核心网络服务器302然后引导UE形成用户设备侧深度神经网络1908(UE侧DNN 1908)以用于处理通过E2E通信1902所交换的信息。类似地,E2E ML控制器318识别与E2E ML配置的第二分区相对应的第二NN形成配置,并且将第二NN形成配置传达到基站120。E2E ML控制器318和/或核心网络服务器302然后引导基站120使用第二NN形成配置来形成基站侧深度神经网络1910(BS侧DNN 1910)以用于处理通过E2E通信1902所交换的信息。E2E ML控制器318还识别第三NN形成配置并且将其传达到核心网络服务器302,以在形成用于处理通过E2E通信1902所交换的信息的核心网络服务器侧深度神经网络1912(CNS侧DNN 1912)中使用。
在实现方式中,E2E ML控制器318划分E2E ML配置以分布在E2E通信上执行的处理计算,使得UE侧DNN 1908相对于BS侧DNN1910执行较少的处理(例如,相对于BS侧DNN 1910,UE侧DNN 1908使用较少的层、较少的数据处理点等)。可替代地或附加地,E2E ML控制器318划分E2E ML配置,使得BS侧DNN 1910相对于CNS侧DNN 1912执行较少的处理。组合地,由UE侧DNN 1908、BS侧DNN1910和CNS侧DNN 1912执行的处理跨E2E通信1902交换信息。
以类似的方式,E2E ML控制器318确定用于处理通过E2E通信1904所交换的信息的第二E2E ML配置,其中E2E ML控制器跨多个设备划分第二E2E ML配置。在环境1900中,该划分对应于核心网络服务器侧深度神经网络1914(CNS侧DNN 1914)、基站侧深度神经网络1916(BS侧DNN 1916)和用户设备侧深度神经网络1918(UE侧DNN 1918)。组合地,由CNS侧DNN 1914、BS侧DNN 1916和UE侧DNN 1918执行的处理对应于使用E2E通信1904交换信息。虽然E2E ML控制器在环境1900中单独地确定用于单向E2E通信(例如,E2E通信1902和1904)的第一和第二E2E ML配置,但是应该理解,在可替换或附加实现方式中,E2E ML控制器318确定对应于使用E2E通信交换双向信息的单个E2E ML配置。例如,E2E控制器318可以确定图18的用于QoS流1810的第一(双向)E2E ML配置、用于QoS流1812的第二(双向)E2E ML配置、以及用于QoS流1814的第三(双向)E2E ML配置。
图20图示了其中用于E2E通信的E2E ML配置包括跨多个设备操作的DNN的另一示例环境2000。环境2000包括UE 110的第一实例(指定为UE 2002)、图1的基站120的第一实例(指定为基站2004)、图3的核心网络服务器302、图1的基站120的第二实例(指定为基站2006)以及UE 110的第二实例(指定为UE 2008)。
在环境2000中,核心网络服务器302在UE 2002和UE 2008之间交换信息的无线网络中操作(通过基站2004和基站2006)。E2E通信2010表示第一端点(例如,UE 2002)和第二端点(例如,UE 2008)之间的单向E2E通信,并且E2E通信2012表示UE 2008和UE 2002之间的单向E2E通信。然而,如虚线2014所示,E2E通信2010和E2E通信2012可以共同表示双向E2E通信,如进一步描述的。
类似于参考图19所描述的那些,E2E ML控制器318确定用于处理使用E2E通信2010所交换的(单向)通信的第一E2E ML配置、用于处理使用E2E通信2012所交换的(单向)通信的第二E2E ML配置、和/或用于处理使用E2E通信2010和E2E通信2012所交换的(双向)通信的E2E ML通信。在确定E2E ML配置时,E2E ML控制器318分析设备能力、无线网络资源划分、操作参数、当前操作环境、性能要求等的任何组合。可替代地或附加地,E2E ML控制器318确定对E2E ML配置的分区以跨多个设备分布与E2E ML配置相关联的处理功能。
为了说明,为了处理通过E2E通信2010所交换的信息,UE 2002通过核心网络服务器302从E2E ML控制器318接收第一神经网络形成配置,该第一神经网络形成配置对应于E2E ML配置的第一分区并且映射到能够用于形成用户设备侧深度神经网络2016(UE侧DNN2016)的神经网络表中的条目。基站2004接收第二神经网络形成配置,该第二神经网络形成配置对应于E2E ML配置的第二分区并且能够用于形成基站侧深度神经网络2018(BS侧DNN 2018)。以类似的方式,核心网络服务器302基于第三神经网络形成配置来形成核心网络侧深度神经网络2020(CNS侧DNN 2020),基站2006基于第四神经网络形成配置来形成基站侧深度神经网络2022(BS侧DNN 2022),并且UE 2008基于第五神经网络形成配置来形成用户设备侧深度神经网络2024(UE侧DNN 2024)。因此,在环境2000中,UE侧DNN 2016、BS侧DNN 2018、CNS侧DNN 2020、BS侧DNN 2022和UE侧DNN2024对应于由E2E ML控制器318所确定的划分的E2E ML配置,并且共同地执行使用E2E通信2010从UE 2002向UE 2008交换信息的处理。
关于E2E通信2012,E2E ML控制器318确定所划分的E2E ML配置,并且将所划分的E2E ML配置的相应部分传达到参与E2E通信2012的设备。为了使用E2E通信2012来交换信息,UE 2008形成用户设备侧深度神经网络2026(UE侧DNN 2026),基站2006形成基站侧深度神经网络2028(BS侧DNN 2028),核心网络服务器302形成核心网络侧深度神经网络2030(CNS侧DNN 2030),基站2004形成基站侧深度神经网络2032(BS侧DNN 2032),并且UE 2002形成用户设备侧深度神经网络2034(UE侧DNN 2034)。
在实现方式中,E2E ML控制器318周期性地重新评估度量、性能要求、无线链路性能、设备的处理能力或影响当前操作环境和/或当前性能(例如,比特误差、BLER)或提供当前操作环境和/或当前性能(例如,比特误差、BLER)的指示的其他方面,以确定是否更新E2EML配置。例如,E2E ML控制器318确定对现有DNN的修改(例如,参数改变)以更好地容纳无线网络中的设备、应用和/或传输的性能要求。改变位置的UE可能影响无线链路性能,或者在UE处打开应用的用户可能降低用户设备可以提供用于机器学习的处理能力。通过重新评估动态改变的条件(例如,操作环境的改变、设备的改变),E2E ML控制器能够修改或更新E2EML配置以改善如何利用无线网络资源的总体效率。
已经描述了用于无线网络的E2E ML,现在考虑能够在用于无线网络的E2E ML的各个方面中使用的无线通信***上的信令和控制事务的讨论。
用于无线网络的E2E ML的信令和控制事务
图21、22、23和24图示根据用于无线网络的E2E ML的一个或多个方面的核心网络服务器、基站和用户设备之间的示例信令和控制事务图。信令和控制事务可以由图1的基站120和UE 110或图3的核心网络服务器302使用图1-20的元件来执行。
图21的信令和控制事务图2100图示了用于无线网络的E2E ML的信令和控制事务的第一示例。如图所示,在2105处,UE 110请求建立E2E通信。例如,该请求通过响应于检测到应用的调用而请求建立应用的通信路径来隐式地请求建立E2E通信。示例应用包括虚拟现实应用、增强现实应用、互联网协议语音(VoIP)应用、实时游戏应用、视频流应用、音频流应用、文件传输应用(例如,照片/图像传输应用、便携式文档格式(PEF)文件传输应用)、社交媒体应用、以及其它形式的交互式通信。在各种实现方式中,UE 110显式地请求建立E2E通信,诸如通过请求建立具有性能要求的QoS流,如进一步描述的。可替代地或附加地,UE110请求(隐式地或显式地)建立E2E通信以用于其它类型的通信,诸如IoT消息和/或通信、车对万物(V2X)消息和/或通信、IP多媒体核心网络子***(IMS)信令、远程控制通信、智能传输***、或离散自动化。
在一些实现方式中,UE 110在请求中包括QoS标识符,其中QoS标识符指示关于所请求的E2E通信的特性。为了说明,UE 110在请求中包括第五代服务质量标识符(5QI)或服务质量类别标识符(QCI),其中能够分析5GCI和/或QCI以确定QoS要求、QoS参数、QoS特性等。
在2110处,基站120将请求中继和/或转发到核心网络服务器。在一些情况下,基站120生成封装请求的新消息并且将其发送到核心网络服务器302,而在其他情况下,基站120将请求从UE 110中继到核心网络服务器302。
在2115处,核心网络服务器302通过E2E ML控制器318来确定E2E ML配置。例如,E2E ML控制器分析E2E通信的性能要求,诸如与建立QoS流1810、QoS流1812、QoS流1814、E2E通信1902和/或E2E通信1904、E2E通信2010和/或E2E通信2012等相关联的处理要求。例如,E2E ML控制器318分析QoS标识符以确定性能要求。可替代地或附加地,E2E ML控制器分析参与E2E通信的设备的能力,诸如参考图22所描述的那些。有时,E2E ML控制器分析与E2E通信相关联的无线网络资源划分。作为另一示例,E2E ML控制器318分析表征当前操作环境的度量,如参考图9-1、图9-2或图22所述,并且基于当前操作环境来确定E2E ML配置。在实现方式中,E2E ML配置对应于单向E2E通信,而在其它实现方式中,E2E通信对应于双向E2E通信。
在实现方式中,确定E2E ML配置包括确定能够用于创建定义和/或形成DNN的NN形成配置(例如,一个或多个NN形成配置元素的组合)的任何组合结构和/或参数配置。例如,在一些实现方式中,E2E ML控制器确定包括用于形成DNN的架构配置和参数配置的第一E2EML配置。可替代地或附加地,E2E ML控制器随后确定第二E2E ML配置,该配置包括用于基于改变的操作环境来更新第一E2E ML配置的参数改变(并且排除架构配置),诸如参考图9-1、图9-2和图23所描述的那些。
在一些实现方式中,核心网络服务器302通过E2E ML控制器318分析神经网络表以获得对应于E2E ML配置的一个或多个神经网络形成配置。例如,如参考图19和20所述核心网络服务器跨多个设备划分E2E ML配置,并且确定每个分区的相应神经网络形成配置,其中每个相应神经网络形成配置映射到神经网络表中的一个或多个条目。
在2125处,核心网络服务器302将E2E ML配置传达到与E2E通信相关联的设备。为了说明,核心网络服务器将第一神经网络形成配置传达到第一设备(例如,基站120),将第二神经网络形成配置传达到第二设备(例如,在2130处通过基站120的UE 110)等等。这包括识别对应于在核心网络服务器处形成DNN的神经网络配置。在一些实现方式中,核心网络服务器302传达与参照图7所描述的神经网络形成配置类似的神经网络形成配置。
在2135处,核心网络服务器302基于在2115确定的E2E ML配置来形成DNN(例如,DNN 1912、DNN 1914、DNN 2020、DNN 2030)。在实现方式中,由核心网络服务器形成的DNN执行用于使用E2E通信来交换信息的至少一些处理。类似地,在2140处,基站120基于在2115处确定的E2E ML配置来形成DNN(例如,DNN 1910、DNN 1916、DNN 2018、DNN2022、DNN 2028、DNN 2032)。例如,基站120访问神经网络表以获得如参考图12所述的一个或多个参数。在实现方式中,由基站120形成的DNN执行用于使用E2E通信来交换信息的至少一些处理。在2145处,UE 110基于在2115确定的E2E ML配置形成DNN(例如,DNN 1908、DNN 1918、DNN 2016、DNN 2024、DNN 2026、DNN 2034)。例如,UE 110访问神经网络表以获得如参考图12所述的一个或多个参数。在实现方式中,由UE 110形成的DNN执行用于使用E2E通信来交换信息的至少一些处理。
然后,在2150处,至少核心网络服务器302、基站120和UE 110使用DNN来处理通信,其中,通信对应于通过E2E通信所交换的信息。例如,参考图6,设备处的DNN处理上行链路和/或下行链路信息。
图22的信令和控制事务图2200图示了用于无线网络的E2E ML的信令和控制事务的第二示例。如图所示,在2205处,核心网络服务器302从无线网络中的一个或多个设备请求机器学习(ML)能力。例如,E2E ML控制器318发起对ML能力的请求,其中核心网络服务器302通过NG2接口、S1接口等向基站120发送该请求。在一些实现方式中,能力请求显式地指示对ML能力的请求,诸如通过在请求中包括字段和/或信息元素。在其它实现方式中,能力请求隐式地指示对ML能力的请求,诸如通过没有任何显式ML能力字段和/或信息元素的能力请求。各种实现方式显式地或隐式地请求ML能力作为构造E2E通信的一部分,诸如通过用于建立E2E通信的非接入层(NAS)消息和/或QoS流。
在2210处,基站120向UE 110传送对ML能力的请求,其中该请求显式地或隐式地请求ML能力。作为一个示例,基站120中继来自核心网络服务器302的ML能力请求。作为另一示例,基站120响应于从核心网络服务器302接收到ML能力请求而生成ML能力请求消息并且将其传送到UE 110。在各种实现方式中,基站120传送对ML能力的显式或隐式请求作为建立E2E通信的一部分。
在2215处,基站120向核心网络服务器302发送基站机器学习能力(BS ML能力)。类似地,在2220处,UE 110向基站传送用户设备机器学习能力(UE ML能力),其中在2225处,基站120将UE ML能力中继到核心网络服务器。有时,核心网络服务器将BS ML能力和/或UE ML能力转发到E2E ML控制器318。BS ML能力和/或UE ML能力包括能力信息的任何组合,诸如所支持的ML架构、所支持的层数、可用的处理功率、存储器限制、最大内核大小、可用的功率预算、计算能力等等。
在2230处,核心网络服务器302通过E2E ML控制器318确定E2E ML配置。例如,E2EML控制器分析E2E通信的性能要求,诸如QoS流1810、QoS流1812、QoS流1814、E2E通信1902和/或E2E通信1904、E2E通信2010和/或E2E通信2012等的处理要求。可替代地或附加地,E2EML控制器分析参与E2E通信的设备的能力,诸如在2215处由核心网络服务器接收到的BS ML能力、在2225处由核心网络服务器接收到的UE ML能力、处理能力等。有时,E2E ML控制器分析与E2E通信相关联的无线网络资源划分。作为另一示例,E2E ML控制器318分析表征当前操作环境的度量,如参考图9-1和图9-2所述,并且基于当前操作环境来确定E2E ML配置。在实现方式中,E2E ML配置对应于单向E2E通信,而在其它实现方式中,E2E通信对应于双向E2E通信。
有时,核心网络服务器302通过E2E ML控制器318分析神经网络表以获得对应于E2E ML配置的一个或多个神经网络形成配置。例如,如参考图18、19和20所述核心网络服务器跨多个设备划分E2E ML配置,并且确定每个分区的相应神经网络形成配置,其中每个相应神经网络形成配置映射到神经网络表中的条目。
在2235处,核心网络服务器302将E2E ML配置传达到与E2E通信相关联的设备。为了说明,核心网络服务器将第一神经网络形成配置传达到第一设备(例如,基站120),将第二神经网络形成配置传达到第二设备(例如,在2240处通过基站120的UE 110)等。这包括识别对应于在核心网络服务器处形成DNN的神经网络配置。在一些实现方式中,核心网络服务器302以与参考图7描述的方式类似的方式来传达神经网络形成配置。
在2245处,核心网络服务器302基于在2230处确定的E2E ML配置来形成DNN(例如,DNN 1912、DNN 1914、DNN 2020、DNN 2030)。在实现方式中,由核心网络服务器形成的DNN执行使用E2E通信来交换信息的至少一些处理。类似地,在2250处,基站120基于在2230处确定的E2E ML配置来形成DNN(例如,DNN 1910、DNN 1916、DNN 2018、DNN 2022、DNN 2028、DNN2032)。例如,基站120访问神经网络表以获得如参考图12所述的一个或多个参数。在实现方式中,由基站120形成的DNN执行使用E2E通信来交换信息的至少一些处理。在2255处,UE110基于在2230处确定的E2E ML配置来形成DNN(例如,DNN 1908、DNN 1918、DNN 2016、DNN2024、DNN 2026、DNN 2034)。例如,UE 110访问神经网络表以获得如参考图12所述的一个或多个参数。在实现方式中,由UE 110形成的DNN执行使用E2E通信来交换信息的至少一些处理。
然后,在2260处,至少核心网络服务器302、基站120和UE 110使用DNN来处理通信,其中通信对应于通过E2E通信所交换的信息。例如,参考图6,设备处的DNN处理上行链路和/或下行链路信息。
图23的信令和控制事务图2300图示了用于无线网络的E2E ML的信令和控制事务的第三示例。在实现方式中,图2300的各方面结合图21的信令和控制事务图2100和/或图22的信令和控制事务图2200操作或作为其继续。
如图所示,在2305处,核心网络服务器302接收与无线网络相关联的一个或多个度量。例如,参考图9-1和图9-2,核心网络服务器302基于无线网络中的通信(诸如上行链路接收功率、上行链路SINR、上行链路分组误差、上行链路吞吐量、定时测量、功率信息、SINR信息、CQI、CSI、多普勒反馈、QoS、延迟等)从UE 110接收UE度量和/或从基站120接收BS度量。这可以包括基于通过E2E通信所交换的信息生成的度量和/或与通过其它通信路径所交换的信息相关联的度量。在实现方式中,UE 110、基站120和核心网络服务器302参与相同的E2E通信以从E2E通信的第一端点到第二端点交换信息,诸如QoS流1810、QoS流1812、QoS流1814、E2E通信1902和/或E2E通信1904、E2E通信2012和/或E2E通信2012等。
在2310处,核心网络服务器302通过E2E ML控制器318基于度量来确定E2E ML配置。为了说明,参考图9-1和图9-2,一些实现方式识别当前操作环境中的改变,并且确定更新用于处理通过E2E通信所交换的信息的DNN,诸如通过确定应用于DNN架构的参数改变。可替代地或附加地,一些实现方式确定用于建立E2E通信的初始E2E ML配置。如进一步所述,确定E2E ML配置有时包括确定所划分的E2E ML配置,其中不同的设备形成和使用相应的DNN以处理通过E2E通信所交换的信息,诸如通过确定参与E2E通信的每个相应设备的相应神经网络形成配置。
确定E2E ML配置可以包括识别E2E ML配置的架构配置和/或参数配置/改变的任何组合。所确定的E2E ML配置可以对应于对当前E2E ML配置的小改变,其中该小改变更新应用于DNN的架构配置的参数(例如,系数、权重、滤波器)。例如,小改变更新DNN以解决通过分析在2305处接收到的度量而识别的操作环境中的改变(例如,SINR改变、多普勒反馈改变、功率等级改变、BLER改变)。可替代地或另外地,所确定的E2E ML配置对应于大改变,该大改变通过基于分析在2305处接收到的度量重新配置节点和/或层连接而修改DNN的ML架构,诸如功率状态的改变(例如,从无线电资源连接状态到空闲状态的转变)。
在2315处,核心网络服务器传达E2E ML配置。为了说明,核心网络服务器通过将第一神经网络形成配置传达到第一设备(例如,基站120)、将第二神经网络形成配置传达到第二设备(例如,在2320处通过基站120的UE 110)等来传达所划分的E2E ML配置。有时,核心网络服务器识别对应于在核心网络服务器处形成DNN的第三神经网络配置。在一些实现方式中,核心网络服务器302传达对应于E2E ML配置的部分的相应神经网络形成配置,诸如通过传达映射到如参考图7所述的神经网络表的条目中的索引值。
在2325处,核心网络服务器302基于在2315处确定的E2E ML配置来形成DNN(例如,DNN 1912、DNN 1914、DNN 2020、DNN 2030)。例如,参考图12,核心网络服务器访问神经网络表以获得形成DNN的参数。在形成DNN时,核心网络服务器302形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由核心网络服务器所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
类似地,在2330处,基站120基于在2315处确定的E2E ML配置来形成DNN(例如,DNN1910、DNN 1916、DNN 2018、DNN 2022、DNN 2028、DNN 2032)。例如,参考图12,基站120访问神经网络表以获得形成DNN的参数。在形成DNN时,基站形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由基站120所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
在2335处,UE 110基于在2310处确定的E2E ML配置来形成DNN(例如,DNN 1908、DNN 1918、DNN 2016、DNN 2024、DNN 2026、DNN 2034)。例如,参考图12,UE 110访问神经网络表以获得形成DNN的参数。在形成DNN时,UE 110形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由UE 110所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
然后,在2340处,至少核心网络服务器302、基站120和UE 110使用DNN来处理通信,其中通信对应于通过E2E通信所交换的信息。例如,参考图6,设备处的DNN处理上行链路和/或下行链路信息。可替代地或附加地,设备处的DNN处理通过QoS流所交换的信息(例如,图18)。
在实现方式中,核心网络服务器302、基站120和/或UE 110迭代地执行在图23中用虚线2345表示的信令和控制事务图2300中描述的信令和控制事务。这些迭代允许核心网络服务器302、基站120和/或UE 110基于改变的操作条件来动态地修改用于处理通过E2E通信所交换的信息的DNN,如进一步描述的。
图24的信令和控制事务图2400图示了用于无线网络的E2E ML的信令和控制事务的第四示例。在实现方式中,该信令和控制事务图2400的各方面结合图21的信令和控制事务图2100、图22的信令和控制事务图2200和/或图23的信令和控制事务图2300操作,和/或作为其继续。
如图所示,在2405处,UE 110在2410处通过基站120向核心网络服务器302传送对机器学习配置(ML配置)的请求。为了说明,UE 110将请求传送到基站120,其中该请求指示特定ML配置(诸如特定神经网络形成配置),并且基站120将该请求中继或转发到核心网络服务器302。响应于检测到应用的调用,UE 110有时确定与应用相关联的性能要求,并且识别被设计为满足性能要求的ML配置(例如,通过分析如参考图12所述的神经网络表)。UE110然后诸如通过在用于建立E2E通信的NAS消息中发送ML配置的指示来请求ML配置。在各种实现方式中,E2E通信对应于QoS流(例如,QoS流1810、QoS流1812、QoS流1814)。在一些实现方式中,UE 110在请求中包括QoS标识符,诸如5QI或QCI。
在2415处,核心网络服务器302通过E2E ML控制器318基于由UE 110所请求的ML配置来确定E2E ML配置。例如,E2E ML控制器318分析ML能力、当前操作环境、无线网络资源划分、性能要求等的任何组合,以确定E2E ML配置。在一些实现方式中,E2E ML控制器基于由UE 110所请求的ML配置来划分E2E ML配置,使得E2E ML配置中的至少一个分区对应于由UE所请求的ML配置。
在2420处,核心网络服务器302诸如通过将第一神经网络形成配置传达到第一设备(例如,基站120)、将第二神经网络形成配置传达到第二设备(例如,在2425处通过基站120的UE 110)等来传达E2E ML配置。在传达E2E ML配置时,核心网络服务器302有时向UE110指示使用在2405处所请求的ML配置。有时,核心网络服务器识别对应于在核心网络服务器302处形成DNN的第三神经网络配置。作为一个示例,核心网络服务器302传达对应于E2EML配置的部分的相应神经网络形成配置,诸如通过传达映射到如参考图7所述的神经网络表的条目中的索引值。
在2430处,核心网络服务器302基于在2415处确定的E2E ML配置来形成DNN(例如,DNN 1912、DNN 1914、DNN 2020、DNN 2030)。例如,参考图12,核心网络服务器访问神经网络表以获得形成DNN的参数。在形成DNN时,核心网络服务器302形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由核心网络服务器所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
类似地,在2435处,基站120基于在2315处确定的E2E ML配置来形成DNN(例如,DNN1910、DNN 1916、DNN 2018、DNN 2022、DNN 2028、DNN 2032)。例如,参考图12,基站120访问神经网络表以获得形成DNN的参数。在形成DNN时,基站形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由基站120所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
在2440处,UE 110基于在2415处所确定的E2E ML配置和/或在2405处所请求的ML配置来形成DNN(例如,DNN 1908、DNN 1918、DNN 2016、DNN 2024、DNN 2026、DNN 2034)。例如,参考图12,UE 110访问神经网络表以获得形成DNN的参数。在形成DNN时,UE110形成新DNN作为建立E2E通信的一部分和/或更新用于使用E2E通信来交换信息的现有DNN。在实现方式中,由UE 110所形成的DNN对应于E2E ML配置的一部分,如进一步描述的。
然后,在2445处,至少核心网络服务器302、基站120和UE 110使用DNN来处理通信,其中,通信对应于通过E2E通信所交换的信息。例如,参考图6,设备处的DNN处理上行链路和/或下行链路信息。可替代地或附加地,设备处的DNN处理通过QoS流所交换的信息(例如,图18)。
已经描述了能够用于无线网络的E2E ML的信令和控制事务,现在考虑根据一个或多个实现方式的能够用于无线网络的E2E ML的一些示例方法。
示例方法
根据传达神经网络形成配置的一个或多个方面,参考图25和图26描述示例方法2500和2600。描述方法框的顺序不旨在被解释为限制,并且可以跳过或以任何顺序组合任何数量的所述方法框来实现方法或替代方法。通常,本文描述的任何组件、模块、方法和操作可以使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。示例方法的一些操作可以在存储在计算机处理***本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述,并且实现方式可以包括软件应用、程序、功能等。可替代地或附加地,本文描述的任何功能可以至少部分地由一个或多个硬件逻辑组件来执行,诸如但不限于现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SoC)、复杂可编程逻辑器件(CPLD)等。
图25图示了用于无线网络的E2E ML的示例方法2500。在一些实现方式中,方法2500的操作由E2E ML控制器(诸如由核心网络服务器302实现的E2E ML控制器318)执行。
在2505处,E2E ML控制器获得在端到端通信中利用的至少两个设备的能力。例如,在核心网络服务器(例如,E2E ML控制器318、核心网络服务器302)处实现的E2E ML控制器从基站(例如,基站120)和/或UE(例如,UE 110)获得ML能力。ML能力能够包括ML特定能力和/或处理能力的任何组合,诸如所支持的ML架构、所支持的层数、可用的处理功率、存储器限制、可用的功率预算、定点处理相对于浮点处理、最大内核大小、计算能力等。在一些实现方式中,E2E ML控制器响应于发送对来自设备的能力的请求而接收能力,诸如在图22的2205处所描述的那些。
在2510处,E2E ML控制器基于至少两个设备的能力来确定用于处理通过端到端通信所交换的信息的E2E ML配置。例如,在核心网络服务器(例如,E2E ML控制器318、核心网络服务器302)处实现的E2E ML控制器分析来自基站(例如,基站120)和/或UE(例如,UE110)的ML能力以确定E2E ML配置,诸如在图21的2115处、在图22的2230处、在图23的2310处、以及在图24的2415处所描述的那些。在一些实现方式中,E2E ML控制器接收度量并且分析当前操作条件来确定E2E ML配置。
有时,E2E ML控制器接收QoS简档并且分析QoS要求、QoS参数和/或QoS特性等,以确定E2E ML配置。可替代地或附加地,E2E ML控制器将一个或多个分区识别为E2E ML配置,以将与E2E ML配置相关联的功能和/或处理跨一个或多个设备(例如,核心网络服务器302、基站120、UE 110)分布。例如,E2E ML控制器分析神经网络表,并且确定对应于E2E ML配置的第一部分的第一神经网络形成配置、对应于E2E ML配置的第二部分的第二神经网络形成配置等。
在一些实现方式中,E2E ML控制器确定形成分布式DNN的分布式ML配置。例如,E2EML控制器确定对应于分布式DNN的第一分区的第一NN形成配置、对应于分布式DNN的第二分区的第二NN形成配置等,其中相应设备实现和/或形成分布式DNN的相应部分。
在2515处,E2E ML控制器引导至少两个设备通过基于端到端机器学习配置形成深度神经网络来处理通过端到端通信所交换的信息。例如,E2E ML控制器(例如,E2E ML控制器318)通过核心网络服务器(例如,核心网络服务器302)将相应神经网络形成配置传送到相应设备,如在图21的2125处、在图22的2235处、在图23的2315处以及在图24的2420处所描述的那些。在实现方式中,DNN对应于分布式DNN。
图26图示了用于无线网络的E2E ML的示例方法2600。在一些实现方式中,方法2600的操作由诸如图1的UE 110的UE来执行。
在2605,UE传送由该UE所支持的一个或多个能力。在一个示例中,UE(例如,UE110)通过基站(例如,基站120)并且响应于接收到对ML能力的请求向核心网络服务器(例如,核心网络服务器302)传送一个或多个ML能力,诸如在图22的2205和2220处所描述的那些。可替代地或附加地,UE传送如进一步所述的处理能力。在另一示例中,UE(例如,UE 110)响应于检测到应用的调用而传送一个或多个ML能力。例如,响应于检测到应用的调用,UE110发送建立用于该应用的E2E连接的请求,并且在该请求中包括一个或多个ML能力。
在2610处,UE基于用于处理通过端到端通信所交换的信息的E2E ML配置来接收神经网络形成配置。例如,UE(例如,UE 110)从核心网络服务器并且通过基站(例如,核心网络服务器302、基站120)接收对应于E2E ML配置的一部分的神经网络形成配置,诸如在图21的2125处、在图22的2235处、在图23的2315处以及在图24的2420处所描述的那些。
在2615处,UE使用神经网络形成配置来形成深度神经网络。例如,如在图21的2145处、图22的2255处、图23的2335处以及图24的2440处所述,UE(例如,UE 110)诸如通过访问神经网络表获得参数和/或架构配置来形成DNN。响应于形成DNN,在2620处,UE使用DNN来处理通过E2E通信所交换的信息,诸如在图21的2150处、在图22的2260处、在图23的2340处、以及在图24的2445处所描述的那些。
描述图25和26的方法框的顺序不旨在被解释为限制,并且任何数量的所述方法框可以以任何顺序组合以实现方法或替代方法。
通常,本文描述的任何组件、模块、方法和操作可以使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。示例方法的一些操作可以在存储在计算机处理***本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述,并且实现方式可以包括软件应用、程序、功能等。可替代地或另外的,本文描述的任何功能可以至少部分地由一个或多个硬件逻辑组件来执行,例如但不限于现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SoC)、复杂可编程逻辑器件(CPLD)等。
尽管已经以特征和/或方法专用的语言描述了用于无线网络的E2E ML的技术和设备,但是应当理解,所附权利要求的主题不必限于所描述的特定特征或方法。相反,这些具体特征和方法被公开作为无线网络的E2E ML的示例实现方式。
在下文中,描述了若干示例。
示例1:一种由端到端机器学习控制器执行的用于确定用于处理通过无线网络中的端到端通信所交换的信息的端到端机器学习配置的方法,所述方法包括:由所述端到端机器学习控制器获得在所述端到端通信中利用的至少两个设备的能力;基于所述至少两个设备的能力,确定用于处理通过所述端到端通信所交换的信息的所述端到端机器学习配置;以及通过基于所述端到端机器学习配置形成深度神经网络来引导所述至少两个设备处理通过所述端到端通信所交换的信息。
示例2:根据示例1所述的方法,其中,确定所述端到端机器学习配置还包括:通过以下操作跨所述至少两个设备划分所述端到端机器学习配置:基于所述至少两个设备中的第一设备的能力来确定与所述端到端机器学习配置的第一部分相对应的第一神经网络形成配置;以及基于所述至少两个设备中的第二设备的能力来确定与所述端到端机器学习配置的第二部分相对应的第二神经网络形成配置,其中,所述第一设备的能力包括所述第一设备的可用处理功率,以及其中,所述第二设备的能力包括所述第二设备的可用处理功率。
示例3:根据示例1或示例2所述的方法,其中,所述端到端机器学习配置是第一端到端机器学习配置,并且所述方法还包括:获得指示用于所述端到端通信的当前操作环境的一个或多个度量;至少基于指示所述当前操作环境的所述一个或多个度量来识别第二端到端机器学习配置;以及基于所述第二端到端机器学习配置来引导所述至少两个设备更新所述一个或多个深度神经网络。
示例4:根据示例1至3中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:确定用于用户设备侧深度神经网络的第一神经网络形成配置作为所述端到端机器学习配置的第一部分;确定用于基站侧深度神经网络的第二神经网络形成配置作为所述端到端机器学习配置的第二部分;以及确定用于核心网络服务器侧深度神经网络的第三神经网络形成配置作为所述端到端机器学习配置的第三部分。
示例5:根据示例1至4中的任一项所述的方法,其中,确定所述端对端机器学习配置还包括:获得与所述端到端通信相关联的至少一个服务质量参数或服务质量特性;以及至少部分地基于所述至少一个服务质量参数或服务质量特性来确定所述端到端机器学习配置。
示例6:根据示例5所述的方法,其中,所述至少一个服务质量参数或服务质量特性包括以下中的至少一个:优先级等级;分组延迟预算;分组误差率;最大数据突发量;或平均窗口。
示例7:根据示例1至6中的任一项所述的方法,其中,所述端到端机器学习配置是第一端到端机器学习配置,所述端到端通信是第一服务质量流,所述深度神经网络是第一深度神经网络,并且所述方法还包括:确定在所述至少两个设备之间建立第二服务质量流;确定用于处理通过所述第二服务质量流所交换的信息的第二端到端机器学习配置;以及通过基于所述第二端到端机器学习配置形成第二深度神经网络来引导所述一个或多个设备处理通过所述第二服务质量流所交换的信息。
示例8:根据示例1至7中任一项所述的方法,其中,端到端通信与交换信息相关联,所述交换信息与以下之一相关联:增强现实应用;虚拟现实应用;音频流应用;实时游戏应用;视频流应用;互联网协议语音应用;社交媒体应用;文件传输;车对万物通信;物联网通信;自动化;或远程控制。
示例9:根据示例1至8中的任一项所述的方法,其中,所述至少两个设备包括用户设备,以及其中,确定所述端到端机器学习配置还包括:从所述用户设备接收对特定神经网络形成配置的请求;以及基于所述特定神经网络形成配置来确定所述端到端机器学习配置。
示例10:根据示例1至9中的任一项所述的方法,其中,获得所述一个或多个设备的能力包括获得所述至少两个设备的机器学习能力。
示例11:根据示例1至10中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:确定定义深度神经网络的架构配置和一个或多个参数配置作为所述端到端机器学习配置。
示例12:根据示例1至10中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:分析当前操作环境的一个或多个度量;以及部分地基于所述一个或多个度量,确定定义对深度神经网络的更新的一个或多个参数配置作为所述端到端机器学习配置。
示例13:一种由用户设备所执行的方法,所述方法包括:由所述用户设备传送由所述用户设备所支持的一个或多个能力;基于用于处理通过所述端到端通信所交换的信息的端到端机器学习配置来接收神经网络形成配置;使用所述神经网络形成配置来形成深度神经网络;以及使用所述深度神经网络来处理通过所述端到端通信所交换的信息。
示例14:根据示例13所述的方法,其中,传送由所述用户设备所支持的一个或多个能力包括传送以下各项中的至少一项:最大内核大小能力;存储器限制;或计算能力。
示例15:根据示例13或示例14所述的方法,其中,所述端到端通信是与交互式通信相关联的第一服务质量流,所述神经网络形成配置是第一神经网络形成配置,所述深度神经网络是第一深度神经网络,通过所述端到端通信所交换的信息包括与所述交互式通信相关联的信息,并且所述方法还包括:传送建立第二服务质量流的请求,接收用于处理通过所述第二服务质量流所交换的信息的第二神经网络形成配置;基于所述第二神经网络形成配置来形成第二深度神经网络;以及将所述第二深度神经网络用于处理通过所述第二服务质量流所交换的信息。
示例16:一种网络实体,包括:处理器;以及包括指令的计算机可读存储介质,所述指令实现用于执行根据示例1至12所述方法中的任一方法的端到端机器学习控制器。
示例17:一种用户设备,包括:处理器;以及包括指令的计算机可读存储介质,所述指令响应于由所述处理器执行,用于引导所述用户设备执行根据示例13至15所述方法中的一种方法。

Claims (17)

1.一种由端到端机器学习控制器执行的用于确定用于处理通过无线网络中的端到端通信所交换的信息的端到端机器学习配置的方法,所述方法包括:
由所述端到端机器学习控制器获得在所述端到端通信中利用的至少两个设备的能力;
基于所述至少两个设备的所述能力,确定用于处理通过所述端到端通信所交换的所述信息的所述端到端机器学习配置;以及
通过基于所述端到端机器学习配置形成深度神经网络,来引导所述至少两个设备处理通过所述端到端通信所交换的所述信息。
2.根据权利要求1所述的方法,其中,确定所述端到端机器学习配置还包括:
通过以下操作来跨所述至少两个设备划分所述端到端机器学习配置:
基于所述至少两个设备中的第一设备的能力来确定与所述端到端机器学习配置的第一部分相对应的第一神经网络形成配置;以及
基于所述至少两个设备中的第二设备的能力来确定与所述端到端机器学习配置的第二部分相对应的第二神经网络形成配置,
其中,所述第一设备的所述能力包括所述第一设备的可用处理功率,以及
其中,所述第二设备的所述能力包括所述第二设备的可用处理功率。
3.根据权利要求1或权利要求2所述的方法,其中,所述端到端机器学习配置是第一端到端机器学习配置,并且所述方法还包括:
获得指示用于所述端到端通信的当前操作环境的一个或多个度量;
至少基于指示所述当前操作环境的所述一个或多个度量来识别第二端到端机器学习配置;以及
基于所述第二端到端机器学习配置来引导所述至少两个设备更新所述一个或多个深度神经网络。
4.根据权利要求1至3中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:
确定用于用户设备侧深度神经网络的第一神经网络形成配置作为所述端到端机器学习配置的第一部分;
确定用于基站侧深度神经网络的第二神经网络形成配置作为所述端到端机器学习配置的第二部分;以及
确定用于核心网络服务器侧深度神经网络的第三神经网络形成配置作为所述端到端机器学习配置的第三部分。
5.根据权利要求1至4中的任一项所述的方法,其中,确定所述端对端机器学习配置还包括:
获得与所述端到端通信相关联的至少一个服务质量参数或服务质量特性;以及
至少部分地基于所述至少一个服务质量参数或服务质量特性来确定所述端到端机器学习配置。
6.根据权利要求5所述的方法,其中,所述至少一个服务质量参数或服务质量特性包括以下中的至少一个:
优先级等级;
分组延迟预算;
分组误差率;
最大数据突发量;或
平均窗口。
7.根据权利要求1至6中的任一项所述的方法,其中,所述端到端机器学习配置是第一端到端机器学习配置,所述端到端通信是第一服务质量流,所述深度神经网络是第一深度神经网络,并且所述方法还包括:
确定在所述至少两个设备之间建立第二服务质量流;
确定用于处理通过所述第二服务质量流所交换的信息的第二端到端机器学习配置;以及
通过基于所述第二端到端机器学习配置形成第二深度神经网络,来引导所述一个或多个设备处理通过所述第二服务质量流所交换的所述信息。
8.根据权利要求1至7中的任一项所述的方法,其中,端到端通信与交换信息相关联,所述交换信息与以下之一相关联:
增强现实应用;
虚拟现实应用;
音频流应用;
实时游戏应用;
视频流应用;
互联网协议语音应用;
社交媒体应用;
文件传输;
车对万物通信;
物联网通信;
自动化;或
远程控制。
9.根据权利要求1至8中的任一项所述的方法,其中,所述至少两个设备包括用户设备,以及
其中,确定所述端到端机器学习配置还包括:
从所述用户设备接收对特定神经网络形成配置的请求;以及
基于所述特定神经网络形成配置来确定所述端到端机器学习配置。
10.根据权利要求1至9中的任一项所述的方法,其中,获得所述一个或多个设备的所述能力包括获得所述至少两个设备的机器学习能力。
11.根据权利要求1至10中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:
确定定义深度神经网络的架构配置和一个或多个参数配置作为所述端到端机器学习配置。
12.根据权利要求1至10中的任一项所述的方法,其中,确定所述端到端机器学习配置包括:
分析当前操作环境的一个或多个度量;以及
部分地基于所述一个或多个度量,确定定义对深度神经网络的更新的一个或多个参数配置作为所述端到端机器学习配置。
13.一种由用户设备所执行的方法,所述方法包括:
由所述用户设备传送由所述用户设备支持的一个或多个能力;
基于用于处理通过所述端到端通信所交换的信息的端到端机器学习配置来接收神经网络形成配置;
使用所述神经网络形成配置来形成深度神经网络;以及
使用所述深度神经网络来处理通过所述端到端通信所交换的所述信息。
14.根据权利要求13所述的方法,其中,传送由所述用户设备支持的所述一个或多个能力包括传送以下各项中的至少一项:
最大内核大小能力;
存储器限制;或
计算能力。
15.根据权利要求13或权利要求14所述的方法,其中,所述端到端通信是与交互式通信相关联的第一服务质量流,所述神经网络形成配置是第一神经网络形成配置,所述深度神经网络是第一深度神经网络,通过所述端到端通信所交换的所述信息包括与所述交互式通信相关联的信息,并且所述方法还包括:
传送建立第二服务质量流的请求,
接收用于处理通过所述第二服务质量流所交换的信息的第二神经网络形成配置;
基于所述第二神经网络形成配置来形成第二深度神经网络;以及
将所述第二深度神经网络用于处理通过所述第二服务质量流所交换的信息。
16.一种网络实体,包括:
处理器;以及
包括指令的计算机可读存储介质,所述指令实现用于执行根据权利要求1至12所述方法中的任一方法的端到端机器学习控制器。
17.一种用户设备,包括:
处理器;以及
包括指令的计算机可读存储介质,所述指令响应于由所述处理器执行,用于引导所述用户设备执行根据权利要求13至15所述方法中的一种方法。
CN201980100522.XA 2019-10-28 2019-10-28 用于无线网络的端到端机器学习 Pending CN114424601A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2019/058328 WO2021086308A1 (en) 2019-10-28 2019-10-28 End-to-end machine learning for wireless networks

Publications (1)

Publication Number Publication Date
CN114424601A true CN114424601A (zh) 2022-04-29

Family

ID=68582463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980100522.XA Pending CN114424601A (zh) 2019-10-28 2019-10-28 用于无线网络的端到端机器学习

Country Status (4)

Country Link
US (1) US20230004864A1 (zh)
EP (1) EP3871432A1 (zh)
CN (1) CN114424601A (zh)
WO (1) WO2021086308A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112997435B (zh) 2019-09-04 2024-04-09 谷歌有限责任公司 用于无线通信的神经网络形成配置反馈
CN114930945A (zh) * 2020-01-14 2022-08-19 Oppo广东移动通信有限公司 信息上报方法、装置、设备和存储介质
JP7434110B2 (ja) * 2020-08-20 2024-02-20 株式会社日立製作所 ネットワーク管理システム及び方法
US20220150727A1 (en) * 2020-11-11 2022-05-12 Qualcomm Incorporated Machine learning model sharing between wireless nodes
US20220159467A1 (en) * 2020-11-13 2022-05-19 At&T Intellectual Property I, L.P. Providing Network Security Using a Network Data Analytic Function
US11818806B2 (en) * 2021-05-18 2023-11-14 Qualcomm Incorporated ML model training procedure
CN115412212A (zh) * 2021-05-27 2022-11-29 华为技术有限公司 一种数据传输方法和相关装置
WO2022265549A1 (en) * 2021-06-18 2022-12-22 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangements for supporting value prediction by a wireless device served by a wireless communication network
EP4397060A1 (en) * 2021-09-03 2024-07-10 Qualcomm Incorporated Machine learning feature group for user equipment capability
US20230164817A1 (en) * 2021-11-24 2023-05-25 Lenovo (Singapore) Pte. Ltd. Artificial Intelligence Capability Reporting for Wireless Communication
US20240056795A1 (en) * 2022-08-15 2024-02-15 Qualcomm Incorporated MACHINE LEARNING FRAMEWORK FOR WIRELESS LOCAL AREA NETWORKS (WLANs)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105359571A (zh) * 2013-08-12 2016-02-24 英特尔公司 管理多个无线电接入网中的通信
US20170103304A1 (en) * 2015-10-08 2017-04-13 Via Alliance Semiconductor Co., Ltd. Neural network unit with plurality of selectable output functions
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks
CN109845310A (zh) * 2016-10-13 2019-06-04 华为技术有限公司 利用强化学习进行无线资源管理的方法和单元
US20190318245A1 (en) * 2016-12-26 2019-10-17 Huawei Technologies Co., Ltd. Method, terminal-side device, and cloud-side device for data processing and terminal-cloud collaboration system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834575B2 (en) * 2017-06-16 2020-11-10 At&T Intellectual Property I, L.P. Initial access configuration for coexistence of multiple wireless communication systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105359571A (zh) * 2013-08-12 2016-02-24 英特尔公司 管理多个无线电接入网中的通信
US20170103304A1 (en) * 2015-10-08 2017-04-13 Via Alliance Semiconductor Co., Ltd. Neural network unit with plurality of selectable output functions
CN109845310A (zh) * 2016-10-13 2019-06-04 华为技术有限公司 利用强化学习进行无线资源管理的方法和单元
US20190318245A1 (en) * 2016-12-26 2019-10-17 Huawei Technologies Co., Ltd. Method, terminal-side device, and cloud-side device for data processing and terminal-cloud collaboration system
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王振邦: "基于认知的无线网络自适应通信方法", 中国优秀博士学位论文全文数据库 *

Also Published As

Publication number Publication date
WO2021086308A1 (en) 2021-05-06
US20230004864A1 (en) 2023-01-05
EP3871432A1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US11886991B2 (en) Machine-learning architectures for broadcast and multicast communications
CN114731251B (zh) 用于与多个载波的同时连接的机器学习架构
CN112997435B (zh) 用于无线通信的神经网络形成配置反馈
US11928587B2 (en) Base station-user equipment messaging regarding deep neural networks
US12001943B2 (en) Communicating a neural network formation configuration
US20230004864A1 (en) End-to-End Machine-Learning for Wireless Networks
US12020158B2 (en) Deep neural network processing for a user equipment-coordination set
US20230325679A1 (en) User Equipment-Coordination Set Federated for Deep Neural Networks
CN115669031A (zh) 用于边缘计算的端到端深度神经网络自适应

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination