CN111819872A - 信息传输方法、装置、通信设备及存储介质 - Google Patents
信息传输方法、装置、通信设备及存储介质 Download PDFInfo
- Publication number
- CN111819872A CN111819872A CN202080001154.6A CN202080001154A CN111819872A CN 111819872 A CN111819872 A CN 111819872A CN 202080001154 A CN202080001154 A CN 202080001154A CN 111819872 A CN111819872 A CN 111819872A
- Authority
- CN
- China
- Prior art keywords
- capability
- base station
- processor
- information
- capabilities
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/22—Processing or transfer of terminal data, e.g. status or physical capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/22—Processing or transfer of terminal data, e.g. status or physical capabilities
- H04W8/24—Transfer of terminal data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/20—Manipulation of established connections
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本公开实施例是关于信息传输方法、装置、通信设备及存储介质。用户设备(UE)向基站上报指示所述UE的人工智能(AI)能力的AI能力信息。
Description
技术领域
本申请涉及无线通信技术领域但不限于无线通信技术领域,尤其涉及信息传输方法、装置、通信设备及存储介质。
背景技术
随着无线通信技术和计算机技术的发展,越来越多的人工智能(AI,ArtificialIntelligence)应用于手机的照相、语音、安全等诸多领域,以提升用户的使用体验。
在加入AI之后,手机不只是通过信息模板来提供服务,而是进行自动识别和理解用户需求,使用AI带来的模糊识别和学习能力等满足用户需求。
发明内容
有鉴于此,本公开实施例提供了一种信息传输方法、装置、通信设备及存储介质。
根据本公开实施例的第一方面,提供一种信息传输方法,其中,应用于用户设备UE,所述方法包括:
向基站上报指示所述UE的AI能力的AI能力信息。
根据本公开实施例的第二方面,提供一种信息传输方法,其中,应用于基站,所述方法包括:
接收UE上报的指示所述UE的AI能力的AI能力信息;
根据所述AI能力信息,向所述UE分配与所述AI能力对应的AI业务。
根据本公开实施例的第三方面,提供一种信息传输装置,其中,应用于用户设备UE,所述装置包括:第一发送模块,其中,
所述第一发送模块,配置为向基站上报指示所述UE的AI能力的AI能力信息。
根据本公开实施例的第四方面,提供一种信息传输装置,其中,应用于基站,所述装置包括:接收模块和分配模块,其中,
所述接收模块,配置为接收UE上报的指示所述UE的AI能力的AI能力信息;
所述分配模块,配置为根据所述AI能力信息,向所述UE分配与所述AI能力对应的AI业务。
根据本公开实施例的第五方面,提供一种通信设备,包括处理器、收发器、存储器及存储在存储器上并能够有所述处理器运行的可执行程序,所述处理器运行所述可执行程序时执行如第一方面所述信息传输方法的步骤。
根据本公开实施例的第六方面,提供一种通信设备,包括处理器、收发器、存储器及存储在存储器上并能够有所述处理器运行的可执行程序,所述处理器运行所述可执行程序时执行如第二方面所述信息传输方法的步骤。
本公开实施例提供的信息传输方法、装置及存储介质,用户设备(UE)向基站上报指示所述UE的AI能力的AI能力信息。如此,通过UE向基站上报AI能力,使基站能够获取UE的AI能力,提高UE与基站之间的信息交互,提升UE能力信息的透明程度,进而可以实现UE AI能力的资源优化和有效利用。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开实施例。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明实施例,并与说明书一起用于解释本发明实施例的原理。
图1是根据一示例性实施例示出的无线通信***的结构示意图;
图2是根据一示例性实施例示出的一种信息传输方法的流程示意图;
图3是根据一示例性实施例示出的另一种信息传输方法的流程示意图;
图4是根据一示例性实施例示出的一种信息传输装置的框图;
图5是根据一示例性实施例示出的另一种信息传输装置的框图;
图6是根据一示例性实施例示出的一种用于信息传输的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明实施例的一些方面相一致的装置和方法的例子。
在本公开实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开实施例。在本公开实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
请参考图1,其示出了本公开实施例提供的一种无线通信***的结构示意图。如图1所示,无线通信***是基于蜂窝移动通信技术的通信***,该无线通信***可以包括:若干个终端11以及若干个基站12。
其中,终端11可以是指向用户提供语音和/或数据连通性的设备。终端11可以经无线接入网(Radio Access Network,RAN)与一个或多个核心网进行通信,终端11可以是物联网终端,如传感器设备、移动电话(或称为“蜂窝”电话)和具有物联网终端的计算机,例如,可以是固定式、便携式、袖珍式、手持式、计算机内置的或者车载的装置。例如,站(Station,STA)、订户单元(subscriber unit)、订户站(subscriber station),移动站(mobilestation)、移动台(mobile)、远程站(remote station)、接入点、远程终端(remoteterminal)、接入终端(access terminal)、用户装置(user terminal)、用户代理(useragent)、用户设备(user device)、或用户终端(user equipment,UE)。或者,终端11也可以是无人飞行器的设备。或者,终端11也可以是车载设备,比如,可以是具有无线通信功能的行车电脑,或者是外接行车电脑的无线通信设备。或者,终端11也可以是路边设备,比如,可以是具有无线通信功能的路灯、信号灯或者其它路边设备等。
基站12可以是无线通信***中的网络侧设备。其中,该无线通信***可以是***移动通信技术(the 4th generation mobile communication,4G)***,又称长期演进(Long Term Evolution,LTE)***;或者,该无线通信***也可以是5G***,又称新空口(new radio,NR)***或5G NR***。或者,该无线通信***也可以是5G***的再下一代***。其中,5G***中的接入网可以称为NG-RAN(New Generation-Radio Access Network,新一代无线接入网)。或者,MTC***。
其中,基站12可以是4G***中采用的演进型基站(eNB)。或者,基站12也可以是5G***中采用集中分布式架构的基站(gNB)。当基站12采用集中分布式架构时,通常包括集中单元(central unit,CU)和至少两个分布单元(distributed unit,DU)。集中单元中设置有分组数据汇聚协议(Packet Data Convergence Protocol,PDCP)层、无线链路层控制协议(Radio Link Control,RLC)层、媒体访问控制(Media Access Control,MAC)层的协议栈;分布单元中设置有物理(Physical,PHY)层协议栈,本公开实施例对基站12的具体实现方式不加以限定。
基站12和终端11之间可以通过无线空口建立无线连接。在不同的实施方式中,该无线空口是基于***移动通信网络技术(4G)标准的无线空口;或者,该无线空口是基于第五代移动通信网络技术(5G)标准的无线空口,比如该无线空口是新空口;或者,该无线空口也可以是基于5G的更下一代移动通信网络技术标准的无线空口。
在一些实施例中,终端11之间还可以建立E2E(End to End,端到端)连接。比如车联网通信(vehicle to everything,V2X)中的V2V(vehicle to vehicle,车对车)通信、V2I(vehicle to Infrastructure,车对路边设备)通信和V2P(vehicle to pedestrian,车对人)通信等场景。
在一些实施例中,上述无线通信***还可以包含网络管理设备13。
若干个基站12分别与网络管理设备13相连。其中,网络管理设备13可以是无线通信***中的核心网设备,比如,该网络管理设备13可以是演进的数据分组核心网(EvolvedPacket Core,EPC)中的移动性管理实体(Mobility Management Entity,MME)。或者,该网络管理设备也可以是其它的核心网设备,比如服务网关(Serving GateWay,SGW)、公用数据网网关(Public Data Network GateWay,PGW)、策略与计费规则功能单元(Policy andCharging Rules Function,PCRF)或者归属签约用户服务器(Home Subscriber Server,HSS)等。对于网络管理设备13的实现形态,本公开实施例不做限定。
本公开实施例涉及的执行主体包括但不限于:具备AI能力的终端等用户设备,以及蜂窝移动通信的基站等。
本公开实施例的应用场景为,随着5G的成熟和商用,5G网络所具有的高速率、高可靠性、低时延等显著特点使得终端侧AI将有机会和云测AI进行智能协同来实现更多的功能并为用户带来更好的体验。具体可以体现为:
1、终端侧AI可以快速响应用户需求,以低功耗、低成本方式向用户快速展示处理后的图像、视频、语音和文本信息,适合完成AI推理任务。
2、云侧AI则用于实现多终端数据汇聚,在数据吞吐量和处理速度等方面更具有优势,适合完成AI模型训练任务。因此,终端和云端协同的处理模式将在模型训练和数据推理等方面发挥重要作用。
3、用户发出的命令在终端侧智能芯片进行初步处理后,通过5G网络与云端进行实时交互,之后使用5G网络把云端处理结果反馈给用户,可提升数据处理能力,且有效降低时延。
随着终端的处理能力越来越强大,具备AI能力的终端侧其实可以处理越来越多的数据并做出迅速的反馈和决策,并且不同终端对应的处理能力不同。
终端侧AI和云侧AI仍然缺少协同,通常,终端侧AI和云侧AI只能分别处理规定的内容,缺少交互与协同,对AI处理任务不能进行协调分配。如图2所示,本示例性实施例提供一种信息传输方法,应用于通信***的终端等用户设备中,信息传输方法可以包括:
步骤201:向基站上报指示UE的AI能力的AI能力信息。
这里,通信***可以是蜂窝移动通信***。用户设备可以是具备AI能力的手机终端,自助终端机等人机交互设备。
AI能力可以是UE进行AI相关数据计算的能力,或UE具备的AI功能。上报的AI能力可以包括:UE是否具有AI能力,和/或,UE的AI数据的处理速度如处理器运算能力,和/或,UE可以处理的AI数据量,和/或UE支持的AI模型、和/或UE针对特定AI算法的计算能力等。
不同的UE具不同的AI能力。例如,当UE具有GPU时,可以确定UE具有AI能力。由于GPU被设计为进行四维向量和变换矩阵的乘法,因此,GPU对神经网络具有较强的运算能力,从而具有GPU的UE具有较佳的AI能力。或者,当UE具有支持多字节计算的CPU时,可以确定UE具有AI能力,这里,多字节计算相对单字节计算可以将多个字节同时进行运算,从而提高运算效率,提高计算能力,从而具备有较强的AI能力。具有AI计算能力的UE还需要具有不同的AI软件模型以实现不同的AI功能,如UE具有指纹识别AI软件模型时,可以实现指纹识别功能。
不同的AI能力可以适应于不同的AI业务。例如,不同的处理器运算能力可处理的AI业务不同,较高处理器运算能力的UE可以进行处理较复杂的AI业务。AI业务可以包括:AI算法、数据处理业务以及数据服务等。例如:AI业务可以包括AI人脸识别,具备较强图像处理能力的UE可以在UE内完成AI人脸识别。
基站等网络侧设备可以根据UE上报的AI能力确定UE能处理的AI业务,并将AI能力对应的AI业务配置给UE。
例如,基站确定UE上报的AI能力可以支持AI人脸识别业务,则可以将AI人脸识别业务配置到UE上执行。如此,可以减少需要网络侧进行AI人脸识别业务在UE和基站间产生的人脸图像数据传输,减少网络资源消耗。这里,不同的AI人脸识别业务对于AI能力的需求不同。例如,AI人脸识别业务可以包括:三维人脸识别、和平面人脸识别等。三维人脸识别、和平面人脸识别对于UE AI能力的需求不同。三维人脸识别需要硬件上具有深度摄像头,软件上支持深度人脸识别的算法模型。因此,针对三维人脸识别业务,AI能力还可以包括硬件AI能力和软件AI能力。
再例如,基站确定UE处理器的处理能力高于能力阈值时,可以将AI模型训练等需要进行较多计算的AI业务分配给UE,由UE进行AI模型训练,从而减少网络侧的计算量,并可以减少由基站进行AI模型训练而产生的UE和基站间的数据传输,减少网络资源消耗。
如此,一方面,UE向基站上报AI能力,使基站能够获取UE的AI能力,提高UE与基站之间的信息交互,提升UE能力信息的透明程度。另一方面基站可以基于AI能力,协调分配AI业务,提高UE与基站间AI业务的协同能力,,实现UE AI能力的资源优化和有效利用。
在一个实施例中,UE可以在接入基站时,向基站上报指示UE的AI能力的AI能力信息。基站可以在UE接入时就确定UE的AI能力。基站可以在UE接入时就分配AI业务。可以减少在接入后上报AI能力产生的信息滞后,提高AI业务分配效率。
在一个实施例中,步骤201可以包括:
向基站上报指示UE的硬件AI能力和/或软件AI能力的AI能力信息。
硬件AI能力可以是UE硬件处理AI业务的能力。例如,UE是否具有AI处理器、和/或UE是否具有进行AI业务所必须的硬件配置,如UE是否具有指纹识别模组、和/或UE的AI运算速度等。
软件AI能力可以是UE所具有的AI软件功能、支持的AI模型等。例如,UE是否具有人脸识别AI模型等。
基站可以根据不同的硬件AI能力和/或软件AI能力分配对应的AI业务。
例如,针对具有人脸识别能力的UE,基站可以将人脸识别业务分配给UE执行。如此,可以降低网络侧的AI计算负载,并减少网络通信负载。
在一个实施例中,UE可以至少上报硬件AI能力。
基站可以基于硬件AI能力确定UE可以处理的AI业务。
在一个实施例中,基站还可以基于UE上报的硬件AI能力,向UE发送与AI业务相关的软件AI能力。
示例性的,当基站确定UE的硬件AI能力满足AI业务需求时,但不具有AI业务需求的软件AI能力时,可以向UE发送AI业务需求的相关AI模型的软件开发工具包(SDK,Software Development Kit)或者AI应用程序等。使得UE在硬件AI能力和软件AI能力上都能满足AI业务需求。AI模型的软件开发工具包可以包含不同AI模型,并提供AI模型应用程序接口,AI模型可以根据AI模型应用程序接口的输入数据实现相应的AI功能,从而,UE可以通过结合硬件AI能力和SDK实现不同AI业务的需求。
基站可以基于上报的硬件AI能力以及基站向UE发送的软件AI能力,向UE配置对应的AI业务。
在一个实施例中,硬件AI能力包括:
UE的处理器的计算能力参数。
这里,UE的处理器可以包括:中央处理器(CPU,central processing unit)、和/或图形处理器(GPU,Graphics Processing Unit)、和/或数字处理器(DSP,digital signalprocessor)、和/或AI处理器等。
UE的处理器可以单独或协同进行AI计算。
处理器的计算能力参数可以是对AI数据的技术速率等。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器针对整数(int)的计算能力参数、和/或针对浮点(float)数的计算能力参数。
处理器针对整数的计算能力可以影响如数据压缩与解压缩、进程调度、编译器语法分析、计算机电路辅助设计、游戏AI处理类型的性能。
处理器针对浮点数的计算能力主要影响处理器的科学计算性能,如音视频的编解码,图像处理等处理的性能。
UE上传整数的计算能力参数、和/或针对浮点数的计算能力参数,可以由基站对UE的部分AI能力或完成完整AI能力进行评估,进而配置对应的AI业务,以适应UE的AI能力。
在一个实施例中,计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
计算速率可以是UE处理器每秒的操作数。可以用TOPS表示,TOPS表示每秒钟可进行一万亿次操作,此外还可以用GOPS或MOPS表示,其中,GOPS表示每秒钟可进行十亿次操作,MOPS表示每秒钟可进行百万次操作。TOPS、GOPS和MOPS为UE每秒的操作数的单位。通常,UE的AI能力可以称为TOPS能力、GOPS能力和MOPS能力。
计算速率可以是针对整数的计算速率,示例性的、整数可以包括8字节整数(int8)类型的数据等。针对int8类型的数据的计算速率可以称为int8类型的数据的TOPS能力,即UE针对int8类型的数据每秒操作多少个万亿次。
计算速率可以是针对浮点数的计算速率,示例性的、整数可以包括16字节浮点数(Float16)类型的数据等。针对Float16类型的数据的计算速率可以称为Float16类型的数据的TOPS能力,即UE针对Float16类型的数据每秒操作多少个万亿次。
网络侧还可以使用计算速率与功耗比作为评价处理器运算能力的一个性能指标。例如,采用TOPS/W来评价处理器的性能指标表,TOPS/W用于度量在1W功耗的情况下,处理器能进行多少万亿次操作。
这里,计算速率与功耗比可以包括但不限于:1W功耗下针对int8类型的数据处理器能进行多少万亿次操作,即int8 TOPS/Watt,和/或1W功耗下针对Float16类型的数据处理器能进行多少万亿次操作,即Float16 TOPS/Watt。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器支持的最大计算速率和/或最小计算速率。
UE可以发送最大计算速率和/或最小计算速率,由基站确定UE的AI能力的上下限,从而可以分配适合UE的AI业务。
在一个实施例中,AI软件处理能力包括:
UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
on-device AI模型可以是UE内部具有的AI模型,如AI算法模型、神经网络模型等,不同的on-device AI模型可以实现不同AI业务的数据处理,或不同的on-device AI模型针对不同AI业务进行了优化处理。当UE需要进行某类型的数据计算时,基站可以安排直接采用UE的on-device AI模型进行计算,不再需要上传到网络侧进行计算。一方面,减少了网络通信负载,另一方面,在UE上直接进行计算,提高了效率。
这里,AI应用程序接口可以是UE具有的AI应用程序所提供的接口。UE具有的AI应用程序可以实现不同的预定AI功能。预定的功能可以基于AI应用程序接口获取输入数据,通过在UE上进行运行,得到期望的结果,并通过AI应用程序接口输出。不同AI应用程序接口可以对应于UE中不同的AI应用程序,满足不同AI业务的需求。例如,图像识别API可以识别输入图像中的不同物体,并标识物体。人脸识别API可以根据输入的人脸图像进行身份识别等。基站可以根据UE具有的API分配相应的AI业务。如此,一方面,减少了网络通信负载,另一方面,在UE上直接进行AI业务处理,提高了效率。
在一个实施例中,步骤201可以包括:
向基站上报指示UE支持的on-device AI模型的标识的AI能力信息。
每个on-device AI模型都有一个唯一的标识,UE可以通过上传标识的方式指示具有的on-device AI模型。
基站可以根据标识确定UE具有的on-device AI模型。
在一个实施例中,步骤201可以包括:向基站上报指示UE的总AI能力的总AI能力信息;
和/或
向基站上报指示UE的剩余AI能力的剩余AI能力信息。
UE可以向基站上报UE的总AI能力。例如,UE处理器总的处理能力、UE具有的on-device AI模型。基站可以根据UE总AI能力确定可以分配的AI业务。
UE可以向基站在上报UE的总AI能力同时上报剩余AI能力,或者,UE可以只上报剩余AI能力,用于指示UE当前可用的AI能力。基站可以根据UE剩余AI能力确定UE还可以承受的AI业务。
如此,UE通过上报指示总AI能力和/或剩余AI能力,使得基站可以根据上报的AI能力,对AI业务进行灵活调配,使分配的AI业务可以符合UE的AI能力。
步骤201可以包括:向基站发送携带有AI能力信息的第一RRC信令。
UE可以将AI能力信息携带在RRC信令中发送给基站。例如,UE可以在建立RRC连接时,将AI能力信息携带在RRC信令中。
第一RRC可以是新增的RRC信令。第一RRC也可以是现有的RRC信令,AI能力信息可以由预留比特位承载。采用现有RRC信令携带AI能力信息,提高现有RRC信令携带的信息量,提高RRC信令利用效率。
在一个实施例中,第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
可以在UE-EUTRA-Capability信令或UE-NR-Capability信令的预留比特位携带AI能力信息。如此,提高UE-EUTRA-Capability信令或UE-NR-Capability信令的信息承载量,提高信令利用效率。
在一个实施例中,步骤201可以包括:响应于接收到携带有AI能力查询请求的第二RRC信令,向基站上报AI能力信息。
UE可以不主动上报UE的AI能力。基站可以通过查询的方式查询UE的AI能力。
基站可以通过RRC信令查询UE的AI能力。基站可以新增一个携带AI能力查询请求的RRC信令,或者利用现有的RRC信令的预留位携带AI能力查询请求。
UE接收到携带有AI能力查询请求的RRC信令后,可以上报自身的AI能力。
在一个实施例中,第二RRC信令,包括:
UECapabilityEnquiry信令,其中,UECapabilityEnquiry信令包括:第一信息元素IE和第二IE,其中,
第一IE承载有AI能力查询请求;
第二IE承载有网络能力查询请求。
可以利用现有的UECapabilityEnquiry信令,携带AI能力查询请求。UECapabilityEnquiry信令可以用于查询UE的网络能力,如网络传输速度等。可以新增一个IE用于承载AI能力查询请求。如此,提高UECapabilityEnquiry信令的信息承载量,提高信令利用效率。
UE接收到携带有AI能力查询请求的UECapabilityEnquiry信令后,可以上报自身的AI能力。
如图3所示,本示例性实施例提供一种信息传输方法,应用于通信***的基站中,信息传输方法可以包括:
步骤301:接收UE上报的指示UE的AI能力的AI能力信息;
步骤302:根据AI能力信息,向UE分配与AI能力对应的AI业务。
这里,通信***可以是蜂窝移动通信***。用户设备可以是具备AI能力的手机终端,自助终端机等人机交互设备。
AI能力可以是UE进行AI相关数据计算的能力,或UE具备的AI功能。上报的AI能力可以包括:UE是否具有AI能力,和/或,UE的AI数据的处理速度如处理器运算能力,和/或,UE可以处理的AI数据量,和/或UE支持的AI模型、和/或UE针对特定AI算法的计算能力等。
不同的UE具不同的AI能力。例如,当UE具有GPU时,可以确定UE具有AI能力。由于GPU被设计为进行四维向量和变换矩阵的乘法,因此,GPU对神经网络具有较强的运算能力,从而具有GPU的UE具有较佳的AI能力。或者,当UE具有支持多字节计算的CPU时,可以确定UE具有AI能力,这里,多字节计算相对单字节计算可以将多个字节同时进行运算,从而提高运算效率,提高计算能力,从而具备有较强的AI能力。具有AI计算能力的UE还需要具有不同的AI软件模型以实现不同的AI功能,如UE具有指纹识别AI软件模型时,可以实现指纹识别功能。
不同的AI能力可以适应于不同的AI业务。例如,不同的处理器运算能力可处理的AI业务不同,较高处理器运算能力的UE可以进行处理较复杂的AI业务。AI业务可以包括:AI算法、数据处理业务以及数据服务等。例如:AI业务可以包括AI人脸识别,具备较强图像处理能力的UE可以在UE内完成AI人脸识别。
基站等网络侧设备可以根据UE上报的AI能力确定UE能处理的AI业务,并将AI能力对应的AI业务配置给UE。
例如,基站确定UE上报的AI能力可以支持AI人脸识别业务,则可以将AI人脸识别业务配置到UE上执行。如此,可以减少需要网络侧进行AI人脸识别业务在UE和基站间产生的人脸图像数据传输,减少网络资源消耗。
这里,不同的AI人脸识别业务对于AI能力的需求不同。例如,AI人脸识别业务可以包括:三维人脸识别、和平面人脸识别等。三维人脸识别、和平面人脸识别对于UE AI能力的需求不同。三维人脸识别需要硬件上具有深度摄像头,软件上支持深度人脸识别的算法模型。因此,针对三维人脸识别业务,AI能力还可以包括硬件AI能力和软件AI能力。
再例如,基站确定UE处理器的处理能力高于能力阈值时,可以将AI模型训练等需要进行较多计算的AI业务分配给UE,由UE进行AI模型训练,从而减少网络侧的计算量,并可以减少由基站进行AI模型训练而产生的UE和基站间的数据传输,减少网络资源消耗。
如此,一方面,UE向基站上报AI能力,使基站能够获取UE的AI能力,提高UE与基站之间的信息交互,提升UE能力信息的透明程度。另一方面基站可以基于AI能力,协调分配AI业务,提高UE与基站间AI业务的协同能力,,进而可以实现UE AI能力的资源优化和有效利用。
在一个实施例中,UE可以在接入基站时,向基站上报指示UE的AI能力的AI能力信息。基站可以在UE接入时就确定UE的AI能力。基站可以在UE接入时就分配AI业务。可以减少在接入后上报AI能力产生的信息滞后,提高AI业务分配效率。
在一个实施例中,步骤301可以包括:
接收UE上报的指示UE的硬件AI能力和/或软件AI能力的AI能力信息;
根据AI能力信息,向UE分配与AI能力对应的AI业务,包括:
向UE分配与硬件AI能力和/或软件AI能力对应的AI业务。
硬件AI能力可以是UE硬件处理AI业务的能力。例如,UE是否具有AI处理器、和/或UE是否具有进行AI业务所必须的硬件配置,如UE是否具有指纹识别模组、和/或UE的AI运算速度等。
软件AI能力可以是UE所具有的AI软件功能、支持的AI模型等。例如,UE是否具有人脸识别AI模型等。
基站可以根据不同的硬件AI能力和/或软件AI能力分配对应的AI业务。
例如,针对具有人脸识别能力的UE,基站可以将人脸识别业务分配给UE执行。如此,可以降低网络侧的AI计算负载,并减少网络通信负载。
在一个实施例中,UE可以至少上报硬件AI能力。
基站可以基于硬件AI能力确定UE可以处理的AI业务。
在一个实施例中,基站还可以基于UE上报的硬件AI能力,向UE发送与AI业务相关的软件AI能力。
示例性的,当基站确定UE的硬件AI能力满足AI业务需求时,但不具有AI业务需求的软件AI能力时,可以向UE发送AI业务需求的相关AI模型的软件开发工具包(SDK,Software Development Kit)或者AI应用程序等。使得UE在硬件AI能力和软件AI能力上都能满足AI业务需求。AI模型的软件开发工具包可以包含不同AI模型,并提供AI模型应用程序接口,AI模型可以根据AI模型应用程序接口的输入数据实现相应的AI功能,从而,UE可以通过结合硬件AI能力和SDK实现不同AI业务的需求。
基站可以基于上报的硬件AI能力以及基站向UE发送的软件AI能力,向UE配置对应的AI业务。
在一个实施例中,硬件AI能力,包括:
UE的处理器的计算能力参数。
这里,UE的处理器可以包括:中央处理器(CPU,central processing unit)、和/或图形处理器(GPU,Graphics Processing Unit)、和/或数字处理器(DSP,digital signalprocessor)、和/或AI处理器等。
UE的处理器可以单独或协同进行AI计算。
处理器的计算能力参数可以是对AI数据的技术速率等。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器针对整数(int)的计算能力参数、和/或针对浮点(float)数的计算能力参数。
处理器针对整数的计算能力可以影响如数据压缩与解压缩、进程调度、编译器语法分析、计算机电路辅助设计、游戏AI处理类型的性能。
处理器针对浮点数的计算能力主要影响处理器的科学计算性能,如音视频的编解码,图像处理等处理的性能。
UE上传整数的计算能力参数、和/或针对浮点数的计算能力参数,可以由基站对UE的部分AI能力或完成完整AI能力进行评估,进而配置对应的AI业务,以适应UE的AI能力。
在一个实施例中,计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
计算速率可以是UE处理器每秒的操作数。可以用TOPS表示,TOPS表示每秒钟可进行一万亿次操作,此外还可以用GOPS或MOPS表示,其中,GOPS表示每秒钟可进行十亿次操作,MOPS表示每秒钟可进行百万次操作。TOPS、GOPS和MOPS为UE每秒的操作数的单位。通常,UE的AI能力可以称为TOPS能力、GOPS能力和MOPS能力。
计算速率可以是针对整数的计算速率,示例性的、整数可以包括8字节整数(int8)类型的数据等。针对int8类型的数据的计算速率可以称为int8类型的数据的TOPS能力,即UE针对int8类型的数据每秒操作多少个万亿次。
计算速率可以是针对浮点数的计算速率,示例性的、整数可以包括16字节浮点数(Float16)类型的数据等。针对Float16类型的数据的计算速率可以称为Float16类型的数据的TOPS能力,即UE针对Float16类型的数据每秒操作多少个万亿次。
网络侧还可以使用计算速率与功耗比作为评价处理器运算能力的一个性能指标。例如,采用TOPS/W来评价处理器的性能指标表,TOPS/W用于度量在1W功耗的情况下,处理器能进行多少万亿次操作。
这里,计算速率与功耗比可以包括但不限于:1W功耗下针对int8类型的数据处理器能进行多少万亿次操作,即int8 TOPS/Watt,和/或1W功耗下针对Float16类型的数据处理器能进行多少万亿次操作,即Float16 TOPS/Watt。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器支持的最大计算速率和/或最小计算速率。
UE可以发送最大计算速率和/或最小计算速率,由基站确定UE的AI能力的上下限,从而可以分配适合UE的AI业务。
在一个实施例中,AI软件处理能力包括:
UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
on-device AI模型可以是UE内部具有的AI模型,如AI算法模型、神经网络模型等,不同的on-device AI模型可以实现不同AI业务的数据处理,或不同的on-device AI模型针对不同AI业务进行了优化处理。当UE需要进行某类型的数据计算时,基站可以安排直接采用UE的on-device AI模型进行计算,不再需要上传到网络侧进行计算。一方面,减少了网络通信负载,另一方面,在UE上直接进行计算,提高了效率。
这里,AI应用程序接口可以是UE具有的AI应用程序所提供的接口。UE具有的AI应用程序可以实现不同的预定AI功能。预定的功能可以基于AI应用程序接口获取输入数据,通过在UE上进行运行,得到期望的结果,并通过AI应用程序接口输出。不同AI应用程序接口可以对应于UE中不同的AI应用程序,满足不同AI业务的需求。例如,图像识别API可以识别输入图像中的不同物体,并标识物体。人脸识别API可以根据输入的人脸图像进行身份识别等。基站可以根据UE具有的API分配相应的AI业务。如此,一方面,减少了网络通信负载,另一方面,在UE上直接进行AI业务处理,提高了效率。
在一个实施例中,步骤301可以包括:
接收UE上报的指示on-device AI模型的标识的AI能力信息;
根据标识,确定UE支持的on-device AI模型。
每个on-device AI模型都有一个唯一的标识,UE可以通过上传标识的方式指示具有的on-device AI模型。
基站可以根据标识确定UE具有的on-device AI模型。
在一个实施例中,步骤301可以包括:
接收UE上报的指示UE的总AI能力的总AI能力信息;
和/或;
接收UE上报的指示UE的剩余AI能力的剩余AI能力信息。
UE可以向基站上报UE的总AI能力。例如,UE处理器总的处理能力、UE具有的on-device AI模型。基站可以根据UE总AI能力确定可以分配的AI业务。
UE可以向基站在上报UE的总AI能力同时上报剩余AI能力,或者,UE可以只上报剩余AI能力,用于指示UE当前可用的AI能力。基站可以根据UE剩余AI能力确定UE还可以承受的AI业务。
如此,UE通过上报指示总AI能力和/或剩余AI能力,使得基站可以根据上报的AI能力,对AI业务进行灵活调配,使分配的AI业务可以符合UE的AI能力。
在一个实施例中,步骤301可以包括:
接收携带有AI能力信息的第一RRC信令。
UE可以将AI能力信息携带在RRC信令中发送给基站。例如,UE可以在建立RRC连接时,将AI能力信息携带在RRC信令中。
第一RRC可以是新增的RRC信令。第一RRC也可以是现有的RRC信令,AI能力信息可以由预留比特位承载。采用现有RRC信令携带AI能力信息,提高现有RRC信令携带的信息量,提高RRC信令利用效率。
在一个实施例中,第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
可以在UE-EUTRA-Capability信令或UE-NR-Capability信令的预留比特位携带AI能力信息。如此,提高UE-EUTRA-Capability信令或UE-NR-Capability信令的信息承载量,提高信令利用效率。
在一个实施例中,信息传输方法还可以包括:
发送携带有AI能力查询信息的第二RRC信令;
步骤301可以包括:
接收UE响应于AI能力查询信息,向基站上报的UE的AI能力信息。
UE可以不主动上报UE的AI能力。基站可以通过查询的方式查询UE的AI能力。
基站可以通过RRC信令查询UE的AI能力。基站可以新增一个携带AI能力查询请求的RRC信令,或者利用现有的RRC信令的预留位携带AI能力查询请求。
UE接收到携带有AI能力查询请求的RRC信令后,可以上报自身的AI能力。
在一个实施例中,第二RRC信令,包括:
UECapabilityEnquiry信令,其中,UECapabilityEnquiry信令,包括:第一信息元素IE和第二IE,其中,
第一IE承载有AI能力查询请求;
第二IE承载有网络能力查询请求。
可以利用现有的UECapabilityEnquiry信令,携带AI能力查询请求。UECapabilityEnquiry信令可以用于查询UE的网络能力,如网络传输速度等。可以新增一个IE用于承载AI能力查询请求。如此,提高UECapabilityEnquiry信令的信息承载量,提高信令利用效率。
UE接收到携带有AI能力查询请求的UECapabilityEnquiry信令后,可以上报自身的AI能力。
在一个实施例中,基站可以根据多个UE上报的AI能力,将一个AI业务分为多个AI子业务,分别调配给具有子业务对应AI能力的UE。
示例性的,当一个AI子业务同时需要进行会议现场进行图像识别和语音识别时,如果第一UE只具有图像识别的AI能力,第二UE只具有语音识别的AI能力,或者,第一UE和第二UE不具备同时完成图像识别和语音识别的能力,则基站可以将会议现场的图像识别业务配置给第一UE,将会议现场的语音识别业务配置给第二UE。从而实现AI资源的合理调配,提高AI资源的利用效率。
以下结合上述任意实施例提供一个具体示例:
本示例提出了一种AI与蜂窝网络融合的方法。
当终端接入到基站时,向基站上报自己的AI能力。
终端AI的能力可以包括硬件能力和软件能力。
终端AI的硬件能力可以包括支持的TOPS能力,例如最小能支持的TOPS,最大能支持的TOPS。
终端AI的硬件能力可以包括支持的TOPS能力可以是int8 TOPS。
终端AI的硬件能力可以包括支持的TOPS能力可以是float16 TOPS。
终端AI的硬件能力可以包括支持的TOPS能力可以是int8 TOPS/Watt。
终端AI的硬件能力可以包括支持的TOPS能力可以是float16 TOPS/Watt。
终端AI的软件能力可以包括可支持的on-device模型。
终端AI的软件能力可以包括可支持的API类型。
可支持的on-device模型可以通过约定各个模型对应的ID来进行指示。
终端可以通过RRC信令上报自己的AI能力。
终端可以通过UE-EUTRA-Capability或者UE-NR-Capability信令上报。
终端可以上报自己剩余的AI能力和/或整体的AI能力。
基站可以主动通过RRC信令主动询问终端的AI能力。
基站可以通过在UECapabilityEnquiry信令中添加相关IE来询问终端的AI能力。
基站在获得终端的AI能力后,为该终端配置匹配的AI业务和服务。
本发明实施例还提供了一种信息传输装置,应用于本通信***的UE中,图4为本发明实施例提供的信息传输装置100的组成结构示意图;如图4所示,装置100包括:第一发送模块110,其中,
第一发送模块110,配置为向基站上报指示UE的AI能力的AI能力信息。
在一个实施例中,第一发送模块110,包括:
第一发送子模块111,配置为向基站上报指示UE的硬件AI能力和/或软件AI能力的AI能力信息。
在一个实施例中,硬件AI能力包括:
UE的处理器的计算能力参数。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器针对整数的计算能力参数、和/或针对浮点数的计算能力参数。
在一个实施例中,计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器支持的最大计算速率和/或最小计算速率。
在一个实施例中,AI软件处理能力包括:
UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
在一个实施例中,第一发送模块110,包括:
第二发送子模块112,配置为向基站上报指示UE支持的on-device AI模型的标识的AI能力信息。
在一个实施例中,第一发送模块110,包括:
第三发送子模块113,配置为向基站上报指示UE的总AI能力的总AI能力信息;
和/或
第四发送子模块114,配置为向基站上报指示UE的剩余AI能力的剩余AI能力信息。
在一个实施例中,第一发送模块110,包括:
第五发送子模块115,配置为向基站发送携带有AI能力信息的第一RRC信令。
在一个实施例中,第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
在一个实施例中,第一发送模块110,包括:
第六发送子模块116,配置为响应于接收到携带有AI能力查询请求的第二RRC信令,向基站上报AI能力信息。
在一个实施例中,第二RRC信令,包括:
UECapabilityEnquiry信令,其中,UECapabilityEnquiry信令包括:第一信息元素IE和第二IE,其中,
第一IE承载有AI能力查询请求;
第二IE承载有网络能力查询请求。
本发明实施例还提供了一种信息传输装置,应用于本通信***的基站中,图5为本发明实施例提供的信息传输装置200的组成结构示意图;如图5所示,装置200包括:接收模块210和分配模块220,其中,
接收模块210,配置为接收UE上报的指示UE的AI能力的AI能力信息;
分配模块220,配置为根据AI能力信息,向UE分配与AI能力对应的AI业务。
在一个实施例中,接收模块210,包括:
第一接收子模块211,配置为接收UE上报的指示UE的硬件AI能力和/或软件AI能力的AI能力信息;
分配模块220,包括:
分配子模块221,配置为向UE分配与硬件AI能力和/或软件AI能力对应的AI业务。
在一个实施例中,硬件AI能力,包括:
UE的处理器的计算能力参数。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器针对整数的计算能力参数、和/或针对浮点数的计算能力参数。
在一个实施例中,计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
在一个实施例中,UE的处理器的计算能力参数,包括:
UE的处理器支持的最大计算速率和/或最小计算速率。
在一个实施例中,AI软件处理能力包括:
UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
在一个实施例中,接收模块210,包括:
第二接收子模块212,配置为接收UE上报的指示on-device AI模型的标识的AI能力信息;
确定子模块213,根据标识,确定UE支持的on-device AI模型。
在一个实施例中,接收模块210,包括:
第三接收子模块214,配置为接收UE上报的指示UE的总AI能力的总AI能力信息;
和/或;
第四接收子模块215,配置为接收UE上报的指示UE的剩余AI能力的剩余AI能力信息。
在一个实施例中,接收模块510,包括:
第五接收子模块216,配置为接收携带有AI能力信息的第一RRC信令。
在一个实施例中,第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
在一个实施例中,装置200还包括:
第二发送模块230,配置为发送携带有AI能力查询信息的第二RRC信令;
接收模块210,包括:
第六接收子模块217,配置为接收UE响应于AI能力查询信息,向基站上报的UE的AI能力信息。
在一个实施例中,第二RRC信令,包括:
UECapabilityEnquiry信令,其中,UECapabilityEnquiry信令,包括:第一信息元素IE和第二IE,其中,
第一IE承载有AI能力查询请求;
第二IE承载有网络能力查询请求。
在示例性实施例中,第一发送模块110、接收模块210//分配模块220和第二发送模块230等可以被一个或多个中央处理器(CPU,Central Processing Unit)、图形处理器(GPU,Graphics Processing Unit)、基带处理器(BP,baseband processor)、应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable LogicDevice)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)、通用处理器、控制器、微控制器(MCU,Micro Controller Unit)、微处理器(Microprocessor)、或其他电子元件实现,也可以结合一个或多个射频(RF,radio frequency)天线实现,用于执行前述方法。
图6是根据一示例性实施例示出的一种用于信息传输的装置3000的框图。例如,装置3000可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
在示例性实施例中,装置3000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器3004,上述指令可由装置3000的处理器3020执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明实施例的其它实施方案。本申请旨在涵盖本发明实施例的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明实施例的一般性原理并包括本公开实施例未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明实施例的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明实施例并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明实施例的范围仅由所附的权利要求来限制。
Claims (32)
1.一种信息传输方法,其中,应用于用户设备UE,所述方法包括:
向基站上报指示所述UE的人工智能AI能力的AI能力信息。
2.根据权利要求1所述的方法,其中,所述向基站上报指示所述UE的AI能力的AI能力信息,包括:
向所述基站上报指示所述UE的硬件AI能力和/或软件AI能力的所述AI能力信息。
3.根据权利要求2所述的方法,其中,所述硬件AI能力包括:
所述UE的处理器的计算能力参数。
4.根据权利要求3所述的方法,其中,所述UE的处理器的计算能力参数,包括:
所述UE的处理器针对整数的计算能力参数、和/或针对浮点数的计算能力参数。
5.根据权利要求3所述的方法,其中,所述计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
6.根据权利要求5所述的方法,其中,所述UE的处理器的计算能力参数,包括:
所述UE的处理器支持的最大计算速率和/或最小计算速率。
7.根据权利要求2所述的方法,其中,所述AI软件处理能力包括:
所述UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
8.根据权利要求7所述的方法,其中,所述向基站上报指示所述UE的AI能力的AI能力信息,包括:
向所述基站上报指示所述UE支持的所述on-device AI模型的标识的所述AI能力信息。
9.根据权利要求1至8任一项所述的方法,其中,所述向基站上报指示所述UE的AI能力的AI能力信息,包括:
向所述基站上报指示所述UE的总AI能力的总AI能力信息;
和/或
向所述基站上报指示所述UE的剩余AI能力的剩余AI能力信息。
10.根据权利要求1至8任一项所述的方法,其中,所述向基站上报指示所述UE的AI能力的AI能力信息,包括:
向所述基站发送携带有AI能力信息的第一RRC信令。
11.根据权利要求10所述的方法,其中,
所述第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
12.根据权利要求1至8任一项所述的方法,其中,所述向基站上报指示所述UE的AI能力的AI能力信息,包括:
响应于接收到携带有AI能力查询请求的第二RRC信令,向所述基站上报所述AI能力信息。
13.根据权利要求12所述的方法,其中,所述第二RRC信令,包括:
UECapabilityEnquiry信令,其中,所述UECapabilityEnquiry信令包括:第一信息元素IE和第二IE,其中,
所述第一IE承载有所述AI能力查询请求;
所述第二IE承载有网络能力查询请求。
14.一种信息传输方法,其中,应用于基站,所述方法包括:
接收UE上报的指示所述UE的人工智能AI能力的AI能力信息;
根据所述AI能力信息,向所述UE分配与所述AI能力对应的AI业务。
15.根据权利要求14所述的方法,其中,所述接收UE上报的指示所述UE的AI能力的AI能力信息,包括:
接收所述UE上报的指示所述UE的硬件AI能力和/或软件AI能力的所述AI能力信息;
所述根据所述AI能力信息,向所述UE分配与所述AI能力对应的AI业务,包括:
向所述UE分配与所述硬件AI能力和/或所述软件AI能力对应的AI业务。
16.根据权利要求15所述的方法,其中,所述硬件AI能力,包括:
所述UE的处理器的计算能力参数。
17.根据权利要求16所述的方法,其中,所述UE的处理器的计算能力参数,包括:
所述UE的处理器针对整数的计算能力参数、和/或针对浮点数的计算能力参数。
18.根据权利要求16所述的方法,其中,所述计算能力参数,包括:
计算速率;
和/或
计算速率与功耗比。
19.根据权利要求18所述的方法,其中,所述UE的处理器的计算能力参数,包括:
所述UE的处理器支持的最大计算速率和/或最小计算速率。
20.根据权利要求15所述的方法,其中,所述AI软件处理能力包括:
所述UE当前具有的设备内置on-device AI模型、和/或AI应用程序接口类型。
21.根据权利要求20所述的方法,其中,所述接收UE上报的指示所述UE的AI能力的AI能力信息,包括:
接收所述UE上报的指示on-device AI模型的标识的所述AI能力信息;
根据所述标识,确定UE支持的所述on-device AI模型。
22.根据权利要求14至21任一项所述的方法,其中,所述接收UE上报的指示所述UE的AI能力的AI能力信息,包括:
接收所述UE上报的指示所述UE的总AI能力的总AI能力信息;
和/或;
接收所述UE上报的指示所述UE的剩余AI能力的剩余AI能力信息。
23.根据权利要求14至21任一项所述的方法,其中,所述接收UE上报的指示所述UE的AI能力的AI能力信息,包括:
接收携带有所述AI能力信息的第一RRC信令。
24.根据权利要求23所述的方法,其中,
所述第一RRC信令包括以下之一:
UE-EUTRA-Capability信令;
UE-NR-Capability信令。
25.根据权利要求14至21任一项所述的方法,其中,所述方法还包括:
发送携带有AI能力查询信息的第二RRC信令;
所述接收UE上报的指示所述UE的AI能力的AI能力信息,包括:
接收所述UE响应于所述AI能力查询信息,向所述基站上报的所述UE的所述AI能力信息。
26.根据权利要求25所述的方法,其中,所述第二RRC信令,包括:
UECapabilityEnquiry信令,其中,所述UECapabilityEnquiry信令,包括:第一信息元素IE和第二IE,其中,
所述第一IE承载有所述AI能力查询请求;
所述第二IE承载有网络能力查询请求。
27.一种信息传输装置,其中,应用于用户设备UE,所述装置包括:第一发送模块,其中,
所述第一发送模块,配置为向基站上报指示所述UE的人工智能AI能力的AI能力信息。
28.根据权利要求27所述的装置,其中,所述第一发送模块,包括:
第一发送子模块,配置为向所述基站上报指示所述UE的硬件AI能力和/或软件AI能力的所述AI能力信息。
29.一种信息传输装置,其中,应用于基站,所述装置包括:接收模块和分配模块,其中,
所述接收模块,配置为接收UE上报的指示所述UE的人工智能AI能力的AI能力信息;
所述分配模块,配置为根据所述AI能力信息,向所述UE分配与所述AI能力对应的AI业务。
30.根据权利要求29所述的装置,其中,所述接收模块,包括:
第一接收子模块,配置为接收所述UE上报的指示所述UE的硬件AI能力和/或软件AI能力的所述AI能力信息;
所述分配模块,包括:
分配子模块,配置为向所述UE分配与所述硬件AI能力和/或所述软件AI能力对应的AI业务。
31.一种通信设备,包括处理器、收发器、存储器及存储在存储器上并能够有所述处理器运行的可执行程序,所述处理器运行所述可执行程序时执行如权利要求1至13任一项所述信息传输方法的步骤。
32.一种通信设备,包括处理器、收发器、存储器及存储在存储器上并能够有所述处理器运行的可执行程序,所述处理器运行所述可执行程序时执行如权利要求14至26任一项所述信息传输方法的步骤。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/094245 WO2021243619A1 (zh) | 2020-06-03 | 2020-06-03 | 信息传输方法、装置、通信设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111819872A true CN111819872A (zh) | 2020-10-23 |
CN111819872B CN111819872B (zh) | 2023-08-22 |
Family
ID=72860130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080001154.6A Active CN111819872B (zh) | 2020-06-03 | 2020-06-03 | 信息传输方法、装置、通信设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230232213A1 (zh) |
CN (1) | CN111819872B (zh) |
WO (1) | WO2021243619A1 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112463385A (zh) * | 2020-12-02 | 2021-03-09 | 深圳市互盟科技股份有限公司 | 云计算的ai数据调度分配方法及相关产品 |
WO2022028450A1 (zh) * | 2020-08-05 | 2022-02-10 | 展讯半导体(南京)有限公司 | Ai网络模型支持能力上报、接收方法及装置、存储介质、用户设备、基站 |
CN114189889A (zh) * | 2021-12-03 | 2022-03-15 | 中国信息通信研究院 | 一种无线通信人工智能处理方法和设备 |
WO2022165721A1 (zh) * | 2021-02-04 | 2022-08-11 | 华为技术有限公司 | Ran域的模型共享方法及装置 |
WO2022226710A1 (zh) * | 2021-04-25 | 2022-11-03 | 展讯通信(上海)有限公司 | 通信方法、切换方法及相关装置 |
WO2023023954A1 (zh) * | 2021-08-24 | 2023-03-02 | Oppo广东移动通信有限公司 | 模型传输方法及装置 |
WO2023039728A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京小米移动软件有限公司 | 一种基于用户设备ue能力的模型处理方法、装置、用户设备、基站及存储介质 |
CN115843020A (zh) * | 2021-09-14 | 2023-03-24 | ***通信有限公司研究院 | 一种信息传输方法、装置、设备及可读存储介质 |
WO2023168718A1 (zh) * | 2022-03-11 | 2023-09-14 | 北京小米移动软件有限公司 | 一种模型训练部署方法/装置/设备及存储介质 |
WO2023173262A1 (zh) * | 2022-03-14 | 2023-09-21 | 北京小米移动软件有限公司 | 信息处理方法及装置、通信设备及存储介质 |
WO2023231725A1 (zh) * | 2022-05-31 | 2023-12-07 | 中兴通讯股份有限公司 | 信息传输方法及装置、存储介质、电子装置 |
WO2023240622A1 (zh) * | 2022-06-17 | 2023-12-21 | 北京小米移动软件有限公司 | 信息传输方法及装置、存储介质 |
WO2023245586A1 (zh) * | 2022-06-23 | 2023-12-28 | 北京小米移动软件有限公司 | 操作配置方法、装置 |
WO2024012373A1 (zh) * | 2022-07-12 | 2024-01-18 | 维沃移动通信有限公司 | Ai模型信息传输方法、装置及设备 |
WO2024046113A1 (zh) * | 2022-08-29 | 2024-03-07 | 华为技术有限公司 | 一种无线通信方法及通信装置 |
WO2024061125A1 (zh) * | 2022-09-24 | 2024-03-28 | 华为技术有限公司 | 一种通信方法及装置 |
WO2024125525A1 (zh) * | 2022-12-15 | 2024-06-20 | 维沃移动通信有限公司 | Ai算力上报方法、终端及网络侧设备 |
EP4340420A4 (en) * | 2021-05-14 | 2024-06-26 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | CONFIGURATION METHOD, ALLOCATION METHOD, APPARATUS, DEVICE, AND STORAGE MEDIUM |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230283340A1 (en) * | 2021-11-19 | 2023-09-07 | Apple Inc. | Artificial Intelligence Based Channel State Information Framework |
WO2023115567A1 (en) * | 2021-12-24 | 2023-06-29 | Nec Corporation | Methods, devices, and computer readable medium for communication |
CN116456355A (zh) * | 2022-01-10 | 2023-07-18 | 华为技术有限公司 | 一种通信方法、装置及计算机可读存储介质 |
CN116996453A (zh) * | 2022-04-26 | 2023-11-03 | 华为技术有限公司 | 通信方法和通信装置 |
WO2023206437A1 (zh) * | 2022-04-29 | 2023-11-02 | 富士通株式会社 | 信息传输方法与装置 |
CN117395679A (zh) * | 2022-07-05 | 2024-01-12 | 维沃移动通信有限公司 | 信息上报方法、装置、终端及接入网设备 |
GB202209921D0 (en) * | 2022-07-06 | 2022-08-17 | Samsung Electronics Co Ltd | Artificial intelligence and machine learning capability indication |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105636087A (zh) * | 2014-10-31 | 2016-06-01 | ***通信集团公司 | 一种网络配置参数的分配方法和装置 |
CN108243245A (zh) * | 2017-12-20 | 2018-07-03 | 上海交通大学 | 基于混合雾计算的无线接入网络及其资源调配方法 |
US20180368134A1 (en) * | 2016-03-04 | 2018-12-20 | Huawei Technologies Co., Ltd. | Method for processing capability information of user equipment, user equipment, and base station |
CN109769207A (zh) * | 2018-12-29 | 2019-05-17 | 驭势科技(北京)有限公司 | 一种移动设备动态组网分享算力的***与方法 |
CN110475243A (zh) * | 2018-05-11 | 2019-11-19 | 电信科学技术研究院有限公司 | Ue能力信息的上报、获取和处理方法及对应装置 |
CN110495196A (zh) * | 2019-06-21 | 2019-11-22 | 小米通讯技术有限公司 | 能力参数处理方法及装置、通信设备及存储介质 |
CN110601935A (zh) * | 2019-09-20 | 2019-12-20 | 青岛海尔科技有限公司 | 智能家居操作***中任务的处理方法、装置及云平台*** |
US20200100327A1 (en) * | 2017-07-27 | 2020-03-26 | Intel IP Corporation | Physical uplink shared channel (pusch) transmission based on robust codebook |
CN111062470A (zh) * | 2019-10-29 | 2020-04-24 | 华为技术有限公司 | 一种ai处理方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106899656B (zh) * | 2017-01-03 | 2018-12-11 | 珠海格力电器股份有限公司 | 设备控制方法和装置 |
CN108647085A (zh) * | 2018-05-16 | 2018-10-12 | 中国联合网络通信集团有限公司 | 处理数据的方法、终端及*** |
US20220342706A1 (en) * | 2019-09-09 | 2022-10-27 | Beijing Xiaomi Mobile Software Co., Ltd. | Method for data processing and apparatus, and electronic device |
CN110785984B (zh) * | 2019-09-17 | 2022-11-25 | 北京小米移动软件有限公司 | 信息获取方法、信息获取装置和电子设备 |
-
2020
- 2020-06-03 WO PCT/CN2020/094245 patent/WO2021243619A1/zh active Application Filing
- 2020-06-03 CN CN202080001154.6A patent/CN111819872B/zh active Active
- 2020-06-03 US US18/007,946 patent/US20230232213A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105636087A (zh) * | 2014-10-31 | 2016-06-01 | ***通信集团公司 | 一种网络配置参数的分配方法和装置 |
US20180368134A1 (en) * | 2016-03-04 | 2018-12-20 | Huawei Technologies Co., Ltd. | Method for processing capability information of user equipment, user equipment, and base station |
US20200100327A1 (en) * | 2017-07-27 | 2020-03-26 | Intel IP Corporation | Physical uplink shared channel (pusch) transmission based on robust codebook |
CN108243245A (zh) * | 2017-12-20 | 2018-07-03 | 上海交通大学 | 基于混合雾计算的无线接入网络及其资源调配方法 |
CN110475243A (zh) * | 2018-05-11 | 2019-11-19 | 电信科学技术研究院有限公司 | Ue能力信息的上报、获取和处理方法及对应装置 |
CN109769207A (zh) * | 2018-12-29 | 2019-05-17 | 驭势科技(北京)有限公司 | 一种移动设备动态组网分享算力的***与方法 |
CN110495196A (zh) * | 2019-06-21 | 2019-11-22 | 小米通讯技术有限公司 | 能力参数处理方法及装置、通信设备及存储介质 |
CN110601935A (zh) * | 2019-09-20 | 2019-12-20 | 青岛海尔科技有限公司 | 智能家居操作***中任务的处理方法、装置及云平台*** |
CN111062470A (zh) * | 2019-10-29 | 2020-04-24 | 华为技术有限公司 | 一种ai处理方法及装置 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022028450A1 (zh) * | 2020-08-05 | 2022-02-10 | 展讯半导体(南京)有限公司 | Ai网络模型支持能力上报、接收方法及装置、存储介质、用户设备、基站 |
CN112463385A (zh) * | 2020-12-02 | 2021-03-09 | 深圳市互盟科技股份有限公司 | 云计算的ai数据调度分配方法及相关产品 |
CN112463385B (zh) * | 2020-12-02 | 2022-03-08 | 深圳市互盟科技股份有限公司 | 云计算的ai数据调度分配方法及相关产品 |
WO2022165721A1 (zh) * | 2021-02-04 | 2022-08-11 | 华为技术有限公司 | Ran域的模型共享方法及装置 |
WO2022226710A1 (zh) * | 2021-04-25 | 2022-11-03 | 展讯通信(上海)有限公司 | 通信方法、切换方法及相关装置 |
EP4340420A4 (en) * | 2021-05-14 | 2024-06-26 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | CONFIGURATION METHOD, ALLOCATION METHOD, APPARATUS, DEVICE, AND STORAGE MEDIUM |
WO2023023954A1 (zh) * | 2021-08-24 | 2023-03-02 | Oppo广东移动通信有限公司 | 模型传输方法及装置 |
CN115843020A (zh) * | 2021-09-14 | 2023-03-24 | ***通信有限公司研究院 | 一种信息传输方法、装置、设备及可读存储介质 |
WO2023039728A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京小米移动软件有限公司 | 一种基于用户设备ue能力的模型处理方法、装置、用户设备、基站及存储介质 |
CN114189889A (zh) * | 2021-12-03 | 2022-03-15 | 中国信息通信研究院 | 一种无线通信人工智能处理方法和设备 |
WO2023168718A1 (zh) * | 2022-03-11 | 2023-09-14 | 北京小米移动软件有限公司 | 一种模型训练部署方法/装置/设备及存储介质 |
WO2023173262A1 (zh) * | 2022-03-14 | 2023-09-21 | 北京小米移动软件有限公司 | 信息处理方法及装置、通信设备及存储介质 |
WO2023231725A1 (zh) * | 2022-05-31 | 2023-12-07 | 中兴通讯股份有限公司 | 信息传输方法及装置、存储介质、电子装置 |
WO2023240622A1 (zh) * | 2022-06-17 | 2023-12-21 | 北京小米移动软件有限公司 | 信息传输方法及装置、存储介质 |
WO2023245586A1 (zh) * | 2022-06-23 | 2023-12-28 | 北京小米移动软件有限公司 | 操作配置方法、装置 |
WO2024012373A1 (zh) * | 2022-07-12 | 2024-01-18 | 维沃移动通信有限公司 | Ai模型信息传输方法、装置及设备 |
WO2024046113A1 (zh) * | 2022-08-29 | 2024-03-07 | 华为技术有限公司 | 一种无线通信方法及通信装置 |
WO2024061125A1 (zh) * | 2022-09-24 | 2024-03-28 | 华为技术有限公司 | 一种通信方法及装置 |
WO2024125525A1 (zh) * | 2022-12-15 | 2024-06-20 | 维沃移动通信有限公司 | Ai算力上报方法、终端及网络侧设备 |
Also Published As
Publication number | Publication date |
---|---|
US20230232213A1 (en) | 2023-07-20 |
WO2021243619A1 (zh) | 2021-12-09 |
CN111819872B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111819872B (zh) | 信息传输方法、装置、通信设备及存储介质 | |
US20220116799A1 (en) | Method and device for o-ran-based performance optimization and configuration | |
CN110392079B (zh) | 面向雾计算的节点计算任务调度方法及其设备 | |
Chiu et al. | Ultra-low latency service provision in 5G fog-radio access networks | |
Yu et al. | Pre-migration of vehicle to network services based on priority in mobile edge computing | |
WO2018059457A1 (zh) | 一种会话连接建立方法、相关设备及*** | |
WO2023020502A1 (zh) | 数据处理方法及装置 | |
CN111200821A (zh) | 一种容量规划方法及装置 | |
US20240223652A1 (en) | Artificial intelligence model download method, apparatus, and system | |
WO2022033393A1 (zh) | 业务流量分流的方法和装置 | |
WO2024041117A1 (zh) | 一种计算任务的分割方法及相关装置 | |
Lin et al. | Joint Optimization of Offloading and Resource Allocation for SDN‐Enabled IoV | |
US20220369332A1 (en) | Scheduling method and apparatus | |
CN117459961A (zh) | 一种通信方法、装置及*** | |
CN109743754B (zh) | 通信方法、装置、电子设备及计算机可读存储介质 | |
CN115484620A (zh) | 一种算力资源调度的方法以及相关装置 | |
WO2024140290A1 (zh) | 一种计算任务的处理方法及相关装置 | |
WO2024093739A1 (zh) | 一种通信方法及装置 | |
CN114158078B (zh) | 网络切片管理方法、装置及计算机可读存储介质 | |
CN113079523B (zh) | 上行数据压缩udc的配置方法、装置、基站及终端 | |
WO2023272670A1 (zh) | 一种网络连接的方法、装置及*** | |
WO2024012326A1 (zh) | 一种通信方法、装置及*** | |
CN111314956B (zh) | 用于在无线通信***中提供服务网络的装置和方法 | |
WO2024050838A1 (zh) | 一种通信方法及装置 | |
WO2024036453A1 (zh) | 一种联邦学习方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |