WO2023040971A1 - 一种人工智能模型下载方法、装置及*** - Google Patents

一种人工智能模型下载方法、装置及*** Download PDF

Info

Publication number
WO2023040971A1
WO2023040971A1 PCT/CN2022/119070 CN2022119070W WO2023040971A1 WO 2023040971 A1 WO2023040971 A1 WO 2023040971A1 CN 2022119070 W CN2022119070 W CN 2022119070W WO 2023040971 A1 WO2023040971 A1 WO 2023040971A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
artificial intelligence
information
download
terminal device
Prior art date
Application number
PCT/CN2022/119070
Other languages
English (en)
French (fr)
Inventor
孙琰
柴晓萌
吴艺群
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to EP22869339.6A priority Critical patent/EP4391612A1/en
Publication of WO2023040971A1 publication Critical patent/WO2023040971A1/zh
Priority to US18/606,290 priority patent/US20240223652A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • H04L67/1085Resource delivery mechanisms involving dynamic management of active down- or uploading connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/71Version control; Configuration management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the downloading method indicated by the model capability information includes at least one of the first downloading method to the Mth downloading method, wherein the i-th downloading method is used to indicate that the terminal device supports artificial intelligence in the i-th format Model, i ranges from 1 to M, and M is an integer greater than or equal to 1.
  • the model capability information is also used to indicate the parameter information corresponding to the download mode; wherein, the parameter information corresponding to the download mode includes model framework format information and/or operator library information; the model framework format information is used for Indicates at least one of the name of the model framework corresponding to the artificial intelligence model, the version number of the model framework, and the model file format of the artificial intelligence model; the operator library information is used to indicate the set of operator units of the artificial intelligence model.
  • the parameter information enables the access network device to know the parameter information of the download mode 1 supported by the terminal, thereby providing an artificial intelligence model matching the parameter information, so that the terminal device can obtain the artificial intelligence model supported by it.
  • a terminal device may be a device with a wireless transceiver function or a chip that can be installed in any device, and may also be called a user equipment (user equipment, UE), an access terminal, a user unit, a user station, a mobile station, mobile station, remote station, remote terminal, mobile device, user terminal, wireless communication device, user agent, or user device.
  • the terminal device in the present disclosure may be a mobile phone, a tablet computer (Pad), a computer with a wireless transceiver function, a virtual reality (virtual reality, VR) terminal, an augmented reality (augmented reality, AR) terminal, a wearable device , vehicles, drones, helicopters, airplanes, ships, robots, robotic arms, or smart home appliances, etc.
  • the terminal device in the present disclosure can be widely applied to communication in various scenarios, including but not limited to at least one of the following scenarios: device-to-device (device-to-device, D2D), vehicle to everything (V2X), Machine-type communication (machine-type communication, MTC), Internet of things (IOT), virtual reality, augmented reality, industrial control, automatic driving, telemedicine, smart grid, smart furniture, smart office, smart wear, smart transportation, or smart cities, etc.
  • D2D device-to-device
  • V2X vehicle to everything
  • MTC Machine-type communication
  • IOT Internet of things
  • virtual reality augmented reality
  • industrial control automatic driving
  • telemedicine smart grid
  • smart furniture smart office
  • smart wear smart transportation
  • smart cities etc.
  • the present disclosure does not limit the specific technology and specific equipment form adopted by the terminal.
  • the protocol layer structure may include a control plane protocol layer structure and a user plane protocol layer structure.
  • the control plane protocol layer structure may include a radio resource control (radio resource control, RRC) layer, a packet data convergence protocol (packet data convergence protocol, PDCP) layer, a radio link control (radio link control, RLC) layer, a media The access control (media access control, MAC) layer and the function of the protocol layer such as the physical layer.
  • the user plane protocol layer structure may include the functions of the PDCP layer, the RLC layer, the MAC layer, and the physical layer.
  • the PDCP layer may also include a service data adaptation protocol (service data adaptation protocol). protocol, SDAP) layer.
  • CU and DU can be divided according to the protocol layer of the wireless network: for example, the functions of the PDCP layer and above protocol layers are set in the CU, and the functions of the protocol layers below the PDCP layer (such as RLC layer and MAC layer, etc.) are set in the DU; another example, PDCP The functions of the protocol layer above the layer are set in the CU, and the functions of the PDCP layer and the protocol layer below are set in the DU, without restriction.
  • the CU or DU may be divided into functions having more protocol layers, and for example, the CU or DU may also be divided into part processing functions having protocol layers.
  • part of the functions of the RLC layer and the functions of the protocol layers above the RLC layer are set in the CU, and the rest of the functions of the RLC layer and the functions of the protocol layers below the RLC layer are set in the DU.
  • the functions of the CU or DU can also be divided according to the business type or other system requirements, for example, according to the delay, and the functions whose processing time needs to meet the delay requirement are set in the DU, which does not need to meet the delay
  • the required feature set is in the CU.
  • the CU may also have one or more functions of the core network.
  • the CU can be set on the network side to facilitate centralized management.
  • the wireless unit (radio unit, RU) of the DU is set remotely.
  • the RU may have a radio frequency function.
  • the functions of the PHY layer may include at least one of the following: CRC check, channel decoding, de-rate matching, descrambling, demodulation, de-layer mapping, channel detection, resource de-mapping, physical antenna de-mapping, or RF receiving function.
  • the high-level functions in the PHY layer may include a part of the functions of the PHY layer, for example, this part of the functions is closer to the MAC layer, and the lower-level functions in the PHY layer may include another part of the functions of the PHY layer, for example, this part of the functions is closer to the radio frequency function.
  • the high-level functions in the PHY layer may include CRC check, channel decoding, de-rate matching, decoding, demodulation, and de-layer mapping
  • the low-level functions in the PHY layer may include channel detection, resource de-mapping, physical antenna de-mapping, and RF receiving functions
  • the high-level functions in the PHY layer may include CRC check, channel decoding, de-rate matching, decoding, demodulation, de-layer mapping, and channel detection
  • the low-level functions in the PHY layer may include resource de-mapping , physical antenna demapping, and RF receiving functions.
  • the function of the CU may be implemented by one entity, or may also be implemented by different entities.
  • the functions of the CU can be further divided, that is, the control plane and the user plane are separated and realized by different entities, namely, the control plane CU entity (ie, the CU-CP entity) and the user plane CU entity (ie, the CU-UP entity) .
  • the CU-CP entity and CU-UP entity can be coupled with the DU to jointly complete the functions of the access network equipment.
  • any one of the foregoing DU, CU, CU-CP, CU-UP, and RU may be a software module, a hardware structure, or a software module+hardware structure, without limitation.
  • the existence forms of different entities may be different, which is not limited.
  • DU, CU, CU-CP, and CU-UP are software modules
  • RU is a hardware structure.
  • the access network device includes CU-CP, CU-UP, DU and RU.
  • the execution subject of the present disclosure includes DU, or includes DU and RU, or includes CU-CP, DU and RU, or includes CU-UP, DU and RU, without limitation.
  • the methods performed by each module are also within the protection scope of the present disclosure.
  • the number of access network devices and terminal devices is not limited.
  • AI entities may be called AI functions or AI modules
  • the other network element can be an access network device (such as gNB), a core network device, or a network management (operation, administration and maintenance, OAM), etc.
  • the network element that performs AI-related operations is a built-in AI Functional network element.
  • OAM is used to operate, manage and/or maintain core network equipment, and/or is used to operate, manage and/or maintain access network equipment.
  • the AI model is a specific method to realize the AI function, and the AI model represents the mapping relationship between the input and output of the model.
  • AI models can be neural networks or other machine learning models.
  • the AI model may be referred to as a model for short.
  • AI-related operations may include at least one of the following: data collection, model training, model information release, model inference (model reasoning), or release of reasoning results.
  • the AI entity is taken as an example of an independent network element, and the AI entity can communicate with access network equipment and terminal equipment.
  • the application of AI models can significantly improve the performance of communication systems.
  • the AI model training process requires high computing power, the AI model used by the terminal device is often managed by the network side.
  • the terminal device needs to use the AI model, it downloads the corresponding AI model from the network side.
  • Model Manager can be served by the access network device on the network side.
  • the model manager can be a base station, and the model provider is not limited to the base station or storage entity on the network side, but can also be a third-party storage entity.
  • An entity that trains AI model capabilities This disclosure does not limit the specific names of the model manager and the model provider.
  • the model manager may be called the first device or the first network device, and the model provider may be called the second device or the second network device, etc., without limitation .
  • the model manager may be the access network device in FIG. 1
  • the model provider may be the AI entity in FIG. 1 .
  • Machine learning includes neural networks.
  • Deep neural network is a mathematical model that imitates the behavior characteristics of animal neural networks and performs distributed parallel information processing. It is a special form of AI model. According to the general approximation theorem, the neural network can theoretically approximate any continuous function, so that the neural network has the ability to learn any mapping. Therefore, neural networks can accurately and abstractly model complex high-dimensional problems.
  • the idea of a neural network is derived from the neuronal structure of brain tissue.
  • Each neuron performs a weighted sum operation on its input values, and passes the weighted sum result through an activation function to generate an output.
  • the bias of the weighted summation is b.
  • the form of the activation function can be varied.
  • the output of the neuron is: b can be various possible values such as decimals, integers (including 0, positive integers or negative integers, etc.), or complex numbers.
  • the activation functions of different neurons in a neural network can be the same or different.
  • DNN generally has a multi-layer structure, and each layer of DNN can contain one or more neurons.
  • the input layer of the DNN processes the input received by neurons, and then passes the result to the middle hidden layer, and the hidden layer then passes the calculation result to the output layer or the adjacent hidden layer, and finally the final output result is obtained by the output layer .
  • DNN generally has more than one hidden layer, and hidden layers often directly affect the ability to extract information and fit functions. Increasing the number of hidden layers of DNN or expanding the width of each layer (the number of neurons included) can improve the function fitting ability of DNN.
  • the model parameters are optimized through the training process, so that the DNN network has the ability to extract data features and express mapping relationships.
  • DNN generally uses supervised learning or unsupervised learning strategies to optimize model parameters.
  • a loss function can be defined. The loss function describes the gap or difference between the output value of the DNN and the ideal target value, and the present disclosure does not limit the specific form of the loss function.
  • the training process of DNN is to adjust the parameters of DNN network, such as including at least one of the following parameters: the number of layers of DNN, the width, the connection relationship of interlayer neurons, the weight of some or all neurons, the bias of some or all neurons.
  • the process of setting, or the activation function of some or all neurons, etc. so that the value of the loss function is less than the threshold threshold or meets the target requirements, that is, the difference between the output of the DNN and the ideal target value is as small as possible.
  • DNN can be divided into feedforward neural network (feedforward neural network, FNN), convolutional neural network (convolutional neural network, CNN) and recurrent neural network (recurrent neural network, RNN).
  • FNN feedforward neural network
  • CNN convolutional neural network
  • RNN recurrent neural network
  • Figure 2 shows a kind of FNN network, which is characterized by complete connection between neurons in adjacent layers.
  • CNN is a neural network specially designed to process data with a grid-like structure.
  • time series data time axis discrete sampling
  • image data 2D discrete sampling
  • RNN is a type of neural network that utilizes feedback time series information. Its input includes the new input value at the current moment and its output value at the previous moment. RNN is suitable for obtaining sequence features that are correlated in time, and is especially suitable for speech recognition, channel coding and other applications.
  • the AI model training process requires high computing power, the AI model is generally trained on the network side, and the terminal device downloads the corresponding AI model from the network side when it needs to use the AI model.
  • the present disclosure provides a method for downloading an artificial intelligence model.
  • the network side can indicate the model download mode and optionally indicate related parameters to the terminal device, so that the terminal device can obtain its AI model, which is more flexible.
  • the terminal device may actively request the network side to download the AI model, or the network side may actively request the terminal device to download or update the AI model.
  • FIG. 3 it is a schematic flowchart of a method for downloading an artificial intelligence model disclosed in this application. The process is described by taking the interaction between the terminal device and the access network device as an example, and the method includes:
  • S301 The access network device broadcasts model service information to the terminal device.
  • the model service information may indicate the index (or identification) of one or more functions provided by the AI that the network side can use from the candidate functions.
  • the candidate functions include at least one of the following: channel state information (channel state information, CSI) compressed feedback, constellation modulation and demodulation, channel codec, or uplink precoding.
  • each function corresponds to an index (or identifier).
  • the index of each function (or the corresponding relationship between the function and the index) may be stipulated in the protocol, or the network side, such as the access network device, notifies the terminal in advance (for example, by broadcasting or other signaling configuration methods), without limitation.
  • the model service information may indicate one type of AI model or indexes (or identifiers) of multiple AI models that the network side can provide from the candidate types of AI models.
  • the AI models of the candidate categories include at least one of the following: AI models used for CSI compression feedback, AI models used for constellation modulation and demodulation, AI models used for channel coding and decoding, or AI models used for uplink precoding model etc.
  • the AI model of each candidate category corresponds to a unique index.
  • the index of each AI model (or the corresponding relationship between the type of AI model and the index) can be stipulated by the agreement, or the terminal device can be notified in advance by the network side (such as the access network device) (for example, by broadcasting or other signaling configuration method), without limitation.
  • the content indicated by the above-mentioned model service information may be stipulated in an agreement, and then S301 may not need to be executed.
  • S302 The terminal device sends model capability information to the access network device, where the model capability information is used to indicate an AI model download mode supported by the terminal device.
  • the model capability information used to indicate the AI model download mode supported by the terminal device may be understood as: the AI model download mode expected by the terminal device.
  • the terminal device actually supports L types of downloading methods, but reports only P types among the L types through the capability information. From the perspective of the terminal device, it can be understood that the terminal device expects to use the P types for downloading.
  • L and P are integers greater than or equal to 1, and P is less than or equal to L.
  • the download method indicated by the model capability information includes at least one of the first download method to the Mth download method, wherein the i-th download method corresponds to the i-th format AI model, and the i-th download method It can be used to indicate that the terminal device supports the AI model of the i-th format, where the value of i ranges from 1 to M, and M is an integer greater than or equal to 1.
  • the AI models in M formats corresponding to the first downloading method to the Mth downloading method may be AI models in M formats supported by the terminal device.
  • the corresponding relationship between the download mode and the format may be specified in the agreement, or the terminal device may be notified in advance by the network side (such as the access network device) (for example, by broadcasting or other signaling configuration methods), without limitation.
  • the terminal device When the terminal device downloads the AI model, it can report which one or several formats of the AI model in M formats it needs to download by indicating one or more downloading methods from the first download method to the Mth download method.
  • AI model when the access network device selects the AI model for the terminal device, it can choose to let the terminal device use the AI model in the format it needs to download.
  • the terminal device needs to download the AI model in the ".pt” format or the supported ".pb” format, it can indicate the second download method through the model capability information, and the access network device can use the second download method indicated by the model capability information, AI models in ".pt” format can be provided for terminal devices.
  • the download method indicated by the model capability information may include at least one of the following:
  • Download method 1 download the AI model in the specified format
  • the second download method is to download the computer code describing the AI model
  • the third way of downloading is to download the AI model in an intermediate format, and the AI model in the intermediate format can be converted into an AI model in a format supported by the terminal device, for example, can be converted into an AI model in a specified format.
  • the intermediate format may also be called a conversion format or other names, without limitation.
  • the specified format is included in the above M formats.
  • the specified format may be one or more formats in the M formats, where M is an integer greater than or equal to 1.
  • the terminal device supports AI models in three formats, namely ".pb” format, ".pt” format and ".mindir” format.
  • the specified format can be ".pb” format, or “.pt” format, or “.mindir” format; the specified format can also include at least two of ".pb” format, ".pt” format and ".mindir” format Format.
  • the model capability information may also be used to indicate the specified format, for example, indicate the specified format from the M formats.
  • the AI model in the intermediate format may be an AI model converted from an AI model in a format supported by the network side.
  • model capability information may also be used to indicate parameter information corresponding to the download mode.
  • the parameter information corresponding to download mode 1 may include model framework format information and/or operator library information, where the model framework format information is used to indicate the name of the model framework corresponding to the AI model, the version number of the model framework, and the AI At least one of the model's model file formats.
  • the information indicated by the specific model frame format information can refer to Table 1.
  • the format supported by the terminal device may be at least one of the three formats listed in Table 1.
  • model framework The version number of the model framework Model file format 1 Tensorflow 2.0.0 .pb 2 Pytorch 1.9.0 .pt 3 Mindspore 1.3.0 .mindir
  • the operator library information is used to indicate the operator unit set of the AI model supported by the terminal device; in another possible implementation manner, the operator library information can be used to indicate the terminal device
  • the operators of the AI model include but are not limited to one-dimensional CNN unit (conv1d), two-dimensional CNN unit (conv2d), three-dimensional CNN unit (conv3d), pooling, sigmoid activation function (sigmoid), etc.
  • the terminal device can enable the network side to determine which operators in the model framework operator library the terminal device can support, and the AI model delivered by the network side does not need to use operators that the terminal device does not support, thus ensuring It can provide terminal equipment with AI models that it can use.
  • the terminal device in order to prevent the terminal device from not supporting the format of the AI model delivered by the network side, the terminal device can request to download the computer code describing the AI model. After obtaining the computer code, the terminal device can perform local compilation to obtain the AI model .
  • the parameter information corresponding to download mode 2 may include at least one of the name of the programming language corresponding to the computer code describing the AI model and the version number of the programming language, for example, the parameter information corresponding to download mode 2 indicates The information can be shown in Table 2.
  • the access network device can determine which computer codes corresponding to the coding languages that the terminal device can compile, and avoid sending computer codes that the terminal device cannot compile.
  • the intermediate format can refer to an AI model format supported by both the network side and the terminal device side, and the AI models of various model frameworks supported by the network side and the terminal device can be translated or converted into AI models in the intermediate format .
  • Access network equipment and terminal equipment support this unified intermediate format to complete the compatibility and intercommunication of AI models.
  • the intermediate format may specifically be an open neural network exchange (ONNX) format, and the network side converts the trained AI model into an ONNX format AI model, and then sends it to the terminal device.
  • the terminal device After receiving the AI model in the ONNX format, the terminal device converts it into an AI model in the format corresponding to the model framework used locally by the terminal device, and then can use the AI model delivered by the network.
  • ONNX open neural network exchange
  • the parameter information corresponding to the third download mode includes at least one item of the format name of the intermediate format and the version number of the intermediate format.
  • the information indicated by the parameter information corresponding to the third download mode may be as shown in Table 3.
  • the terminal device may also report other information, for example, the terminal device may also report the capability information of the terminal device, and the capability information indicates the capability of the terminal device, including but not limited to at least one of the following:
  • the memory space size of the terminal device is the memory space size of the terminal device
  • the computing power information of the terminal device can indicate the computing power of running the AI model, such as indicating at least one of the following: the type of processor, for example, the type of processor can be a graphics processing unit (graphics processing unit, GPU) or a central Processor (central processing unit, CPU), the computing speed of the processor, the amount of data that the processor can process and other information; the energy consumption information of the terminal device, such as the operating power consumption of the chip, battery capacity, etc.
  • the type of processor for example, the type of processor can be a graphics processing unit (graphics processing unit, GPU) or a central Processor (central processing unit, CPU), the computing speed of the processor, the amount of data that the processor can process and other information
  • the energy consumption information of the terminal device such as the operating power consumption of the chip, battery capacity, etc.
  • the terminal device can also report the network transmission protocol it supports for downloading the AI model.
  • the network transmission protocol can be transmission control protocol/internet protocol (transmission control protocol/internet protocol, TCP/IP), Internet protocol version 4 (internet protocol version 4, IPv4), or at least one of IPv6.
  • the network side can select an appropriate model provider and download address according to the network transmission protocol supported by the terminal device.
  • a terminal device or a terminal device of a certain system it may be defaulted that the terminal device supports all protocol-agreed download methods and all access network device supported download methods, then S302 does not need to be executed.
  • terminal devices in one or more scenarios such as massive machine-type communications (mMTC) scenarios, telemedicine scenarios, industrial control scenarios, ultra-high-reliability ultra-low-latency communications (ultra- In reliable low-latency communication (URLLC) scenarios and/or enhanced mobile broadband (enhanced mobile broadband, eMBB) scenarios
  • the download methods supported by the terminal devices in each scenario may be stipulated by the agreement, and S302 may not need to be executed.
  • the present disclosure does not limit the method that does not need to perform S302.
  • S303 The terminal device sends model requirement information to the access network device.
  • the model requirement information is used to trigger downloading of the first AI model, and when the access network device receives the model requirement information, it determines that the terminal device needs to download the AI model.
  • model requirement information may be used to indicate at least one of the following information:
  • the function type of the first AI model or the type of the first AI model which may indicate the function of the AI model, for example, the function type of the first AI model may be an AI model used for CSI compression feedback, used for constellation modulation and AI model for demodulation, AI model for modulation and demodulation, AI model for channel codec, or AI model for uplink precoding, etc.; if a function type corresponds to an index, the model requirement information can indicate the function The index corresponding to the type;
  • Application scenario information of the AI model can further describe the information of the AI model required by the terminal device, so that the network side can deliver an AI model with more suitable functions in a targeted manner.
  • the application scenario information may include at least one of the following:
  • the channel type applicable to the AI model for example, for the AI model of the CSI feedback compression function type, the terminal device can further report that the channel type applicable to the AI model is clustered delay line 200 nanosecond (ns) type (clustered delay line 200ns, CDLB200), Tapped delay line 100ns type (tapped delay line 100ns, TDLA100), etc.;
  • the application scenario information of the AI model may also be called a function parameter corresponding to a function type of the AI model, etc., which is not limited in the present disclosure.
  • time information for using the first AI model, where the time information may indicate that the terminal device needs to use at least one of the following items of the first AI model: start time, end time, and time period (time length).
  • the effective time information of the model requirement information which can indicate when the model requirement information is valid. If the network side receives the model requirement information of the terminal device due to channel, scheduling and other reasons, it has exceeded the model requirement If the information is valid, the AI model can no longer be delivered to the terminal device.
  • Saved AI models may be set by the terminal device at the factory, or may be delivered by the network side when connecting to the network, or may be downloaded from the network side before.
  • Each of these saved AI models can be distinguished by a unique model identification code, and the format of the identification code can be defined by the protocol, or can be defined by the network side itself.
  • the terminal device reports the saved AI model, and the network side can determine whether to download a new AI model to the terminal device, or instruct the terminal device to reuse the saved AI model.
  • An identifier of the terminal device for example, the identifier may be a wireless network temporary identity (radio network temporary identity, RNTI) of the terminal device.
  • RNTI radio network temporary identity
  • background information can also be interacted between the model manager (such as access network equipment) and the model provider, such as the model provider notifying the model manager of the ready model information; the model manager notifying the model Providers issue new model training tasks for training and preparation.
  • the model manager receives the confirmation information that the model is ready from the model provider, it sends the model feedback information to the terminal device.
  • S304 The access network device sends model feedback information to the terminal device.
  • the model feedback information may be generated by the access network device itself, or the model feedback information may be generated by other devices and forwarded by the access network device, for example, the model provider generates model feedback information and is forwarded by the access network device to Terminal Equipment.
  • the model feedback information is used to indicate the download method of the first AI model configured for the terminal device, wherein the download method of the first AI model configured for the terminal device may also be referred to as: the download method of the terminal device for the first AI model or terminal
  • the terminal device can determine the specific format of the AI model to be downloaded according to the download method indicated.
  • the download mode of the first AI model configured for the terminal device is one or more download modes indicated by the model capability information, for example, the download mode of the first AI model configured for the terminal device is download mode 1, indicating that the terminal device is instructed to Download the AI model in the specified format it supports.
  • the model feedback information indicates multiple downloading methods, the terminal device may choose one to download the first AI model.
  • the access network device can determine the download mode of the AI model supported by the terminal device according to the model capability information reported by the terminal device.
  • the specific download mode, specific model format, or specific AI model to be downloaded to the terminal device can be determined according to the download mode supported by the terminal device.
  • the access network device may indicate the foregoing content through model feedback information.
  • the download method indicated by the model feedback information may include the first download method to the Mth download method.
  • the download method indicated by the model feedback information may include the first download method to the Mth download method.
  • the download method of the first AI model configured for the terminal device may be to instruct to download the AI model in the ".pb” format, or to download the AI model in the ".pt” format, or to download at least one of the AI models in the ".mindir” format.
  • the terminal device can choose a format to download.
  • the download methods indicated by the model feedback information may include download methods 1 to 3.
  • the model capability information indicates that the terminal device supports downloading mode 1 to downloading mode 3.
  • the terminal device may determine that it will download the first AI model in a specified format; when the download mode indicated by the model feedback information is download mode 2, the terminal device may determine that it will download the first AI model corresponding to computer code; when the download mode indicated by the model feedback information is download mode 3, the terminal device may determine that the first AI model in an intermediate format will be downloaded.
  • the model feedback information may be used to indicate at least one of the following information in addition to indicating the download method of the first-person AI model configured for the terminal device:
  • parameter information corresponding to the download mode of the first AI model configured for the terminal device its specific content can refer to the previous description, and will not be repeated here;
  • the effective time information of the first AI model may indicate at least one of the following: the start effective time, the end effective time, or the effective time length.
  • the download address information may indicate the IP address or uniform resource locator (uniform resource locator, URL) address of the device storing the first AI model, etc.
  • the terminal device may Download the first AI model through the download address information; wherein, the download address information may have a corresponding relationship with the download mode indicated by the model feedback information, for example, if the model feedback information indicates download mode one, then the download address indicated by the download address information is address one ;If the model feedback information indicates download method 2, then the download address indicated by the download address information is address 2; if the model feedback information indicates download method 3, then the download address indicated by the download address information is address 3, etc., and so on in other cases .
  • the model download license may be a verification code, encrypted license information, or a license file, etc., which is not limited in the present disclosure.
  • S304 may also be replaced by the following steps:
  • the access network device may send download failure information to the terminal device, and the download failure indication information is used to indicate that the download of the AI model fails.
  • the terminal device indicates through the model capability information that the download method of the AI model supported by the terminal device is to download the AI model in the specified format, but the access network device determines that the AI model in the specified format cannot be provided, and the access network device can send a download failure message at this time .
  • the download failure information may include a failure reason, and the failure reason may include at least one of the following:
  • the first reason is that the download method is not supported. Specifically, you can also indicate the unsupported download method, for example, the download method 1 is not supported;
  • the second reason is that the current channel environment does not need to update the model, and the terminal device can reuse the saved AI model at this time;
  • the third reason is that the AI model has not been trained successfully
  • S305 The terminal device downloads the first AI model.
  • the terminal device may download the first AI model according to the download mode configured for the terminal device, and the terminal device may determine the format of the first AI model provided by the network side according to the download mode.
  • the terminal device may send a model acquisition request message to the model provider corresponding to the download address information.
  • the model acquisition request message may include information such as the model download license and the identification of the terminal device, and the model acquisition request message may be used to request to download the first AI model according to the download mode indicated by the model feedback information.
  • the model provider may send a model acquisition confirmation message to the terminal device.
  • model acquisition confirmation message may include at least one of the following information:
  • (1) Request validity confirmation information If it is determined to provide the first AI model to the terminal device, the request for validity confirmation information may indicate to confirm the download of the first AI model; if it is determined not to provide the first AI model to the terminal device, request the validity The confirmation information may indicate the reason for not providing the first AI model, for example: the model provider does not have the required first model, or the valid time of the first AI model has expired, or the model download license is inaccurate, etc.
  • the model information of the first AI model for example, if the download method indicated by the model feedback information is the i-th download method, the model information is the AI model file in the i-th format; for another example, if the download method indicated by the model feedback information is the download method 1, the model information is the AI model file in the specified format, such as the .pb file of Tensorflow; if the download method indicated by the model feedback information is the download method 2, the model information is the computer code corresponding to the first AI model, such as The C++ code corresponding to the first AI model; if the download method indicated by the model feedback information is model download method 3, the model information is an AI model file in an "intermediate format", such as the .onnx file of ONNX.
  • the terminal device can verify the integrity of the first AI model according to the model verification method indicated by the model acquisition confirmation message.
  • the specific details of the model verification method in this disclosure The implementation method is not limited.
  • the model verification method may be a cyclic redundancy check (CRC) check, or other verification methods.
  • the terminal device may feed back a confirmation indication to the access network device, which is used to indicate that the download of the first AI model is completed.
  • the terminal device reports the model capability information, indicates the AI model download mode it supports, and realizes the negotiation with the access network device on the download mode of the AI model, so that the access network device can download the AI model according to the AI model supported by the terminal device.
  • Provide AI models for terminal devices so as to prevent terminal devices from being unable to obtain suitable AI models when the format of the machine learning model operator library and AI model on the network side does not match the format of the operator library and AI model supported by the terminal.
  • the terminal device actively requests the network side to download the AI model.
  • the terminal device can no longer report the model demand information, that is, the terminal device does not AI model download needs to be triggered.
  • the network side actively requires the terminal device to download or update the AI model. For example, if the network side wants to actively start a certain air interface machine learning task, the terminal device needs to download the supporting AI model; the network side needs to change its own AI model.
  • the adapted AI model is also replaced or downloaded; when the network side finds that the channel environment has changed, it requires the terminal device to replace the AI model that better matches the current channel environment to ensure performance. This application does not limit this.
  • FIG. 4 it is a schematic flowchart of a method for downloading an artificial intelligence model provided by the present disclosure. The process is described by taking the interaction between the terminal device and the access network device as an example, and the method includes:
  • S401 The access network device broadcasts model service information to the terminal device.
  • S402 The terminal device sends model capability information to the access network device, where the model capability information is used to indicate supported AI model download methods.
  • S403 The access network device sends model feedback information to the terminal device.
  • the model feedback information in S403 may include at least one of the following information in addition to the information included in the model feedback information in S304:
  • the function type of the first AI model the specific content of the function type can refer to the previous description, and will not be repeated here;
  • the specific content of this parameter can refer to the previous description, and will not be repeated here.
  • the embodiment of the present application further provides a communication device for realizing the functions of the access network device, the terminal device or the model provider in the above method.
  • the communication device may be a software module or a chip system.
  • the system-on-a-chip may be composed of chips, or may include chips and other discrete devices.
  • the communication device 500 may include: a processing unit 501 and a communication unit 502 .
  • the processing unit is configured to download the first artificial intelligence model according to the download mode indicated by the model feedback information.
  • the communication unit is further configured to: send model requirement information to the access network device, where the model requirement information is used to trigger downloading of the first artificial intelligence model.
  • processing unit 501 and the communication unit 502 may also perform other functions.
  • processing unit 501 and the communication unit 502 may also perform other functions.
  • FIG. 6 shows a communication device 600 provided in the embodiment of the present application.
  • the communication device shown in FIG. 6 may be an implementation manner of a hardware circuit of the communication device shown in FIG. 5 .
  • the communication device may be applicable to the flow chart shown above, and execute the functions of the terminal device or the access network device in the above method embodiments. For ease of illustration, FIG. 6 only shows the main components of the communication device.
  • the access network equipment chip implements the functions of the access network equipment in the above method embodiments.
  • the access network device chip receives information from other modules (such as radio frequency modules or antennas) in the access network device, and the information is sent by the terminal device to the access network device; or, the access network device chip sends information to the access network device Other modules in the device (such as radio frequency modules or antennas) send information, which is sent by the access network device to the terminal device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提供一种人工智能模型下载方法、装置及***,其中方法包括:终端设备接收来自接入网设备的模型反馈信息,模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,为终端设备配置的第一人工智能模型的下载方式为终端设备支持的下载方式;终端设备可以根据模型反馈信息指示的下载方式下载第一人工智能模型。通过实施上面的方法,网络设备通过模型反馈信息为终端设备配置其能够支持的下载方式,使得终端设备能够下载到其支持的第一人工智能模型,从而避免下载到的人工智能模型无法使用。

Description

一种人工智能模型下载方法、装置及***
相关申请的交叉引用
本申请要求在2021年09月18日提交中国专利局、申请号为202111112900.1、申请名称为“一种人工智能模型下载方法、装置及***”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及通信技术领域,尤其涉及一种人工智能模型下载方法、装置及***。
背景技术
在无线通信网络中,例如在移动通信网络中,网络支持的业务越来越多样,因此需要满足的需求越来越多样。例如,网络需要能够支持超高速率、超低时延、和/或超大连接。该特点使得网络规划、网络配置、和/或资源调度越来越复杂。此外,由于网络的功能越来越强大,例如支持的频谱越来越高、支持高阶多入多出(multiple input multiple output,MIMO)技术、支持波束赋形、和/或支持波束管理等新技术,使得网络节能成为了热门研究课题。这些新需求、新场景和新特性给网络规划、运维和高效运营带来了前所未有的挑战。为了迎接该挑战,可以将人工智能技术引入无线通信网络中,从而实现网络智能化。基于此,如何在网络中有效地实现人工智能是一个值得研究的问题。
发明内容
本申请提供一种人工智能模型下载方法、装置及***,用以实现终端设备如何能够从网络侧获得其支持的人工智能模型。
第一方面,本申请提供一种人工智能模型下载方法,该方法用于实现终端设备侧的功能,例如该方法可以应用于终端设备或者终端设备中的芯片,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由终端设备侧的多个功能模块共同实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于终端设备为例,在该方法中,终端设备接收来自接入网设备的模型反馈信息,模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,为终端设备配置的第一人工智能模型的下载方式为终端设备支持的下载方式;终端设备可以根据模型反馈信息指示的下载方式下载第一人工智能模型。
通过实施上面的方法,网络设备通过模型反馈信息为终端设备配置其能够支持的下载方式,使得终端设备能够下载到其支持的第一人工智能模型,从而避免下载到的人工智能模型无法使用。
在一种可能的设计中,该方法包括:向接入网设备发送模型能力信息,模型能力信息用于指示终端设备支持的人工智能模型的下载方式。
通过实施上面的方法,终端设备通过上报模型能力信息,指示其支持的人工智能模型下载方式,实现与接入网设备协商人工智能模型的下载方式,使得接入网设备能够按照终端设备支持的人工智能模型下载方式为终端设备提供人工智能模型,从而避免网络侧的机器学习模型算子库、人工智能模型的格式与终端支持的算子库、人工智能模型的格式不匹 配时,终端设备无法获取到合适的人工智能模型。
在一种可能的设计中,模型能力信息指示的下载方式包括第1下载方式至第M下载方式中至少一项,其中,第i下载方式用于指示所述终端设备支持第i格式的人工智能模型,i的取值范围为1至M,M为大于或等于1的整数。
通过实施上面的方法,终端设备通过模型能力信息,可以指示终端设备支持哪种格式的人工智能模型,可以使得接入网设备能够准确的提供相应格式的人工智能模型。
在一种可能的设计中,模型能力信息指示的下载方式包括以下至少一项:下载方式一,下载指定格式的人工智能模型,指定格式的人工智能模型为终端设备支持的人工智能模型;下载方式二,下载描述人工智能模型的计算机代码;下载方式三,下载中间格式的人工智能模型,终端设备支持该中间格式的人工智能模型,中间格式的人工智能模型能够被转换成终端设备支持的格式的人工智能模型。
通过实施上面的方法,终端设备根据自己的能力上报其支持的下载方式,可以使得接入网设备能够准确的提供相应格式的人工智能模型。
在一种可能的设计中,指定格式包括于M个格式中,M个格式为终端设备支持的人工智能模型的M个格式,M为大于或等于1的整数。
在一种可能的设计中,模型能力信息还用于指示指定格式。
在一种可能的设计中,模型能力信息还用于指示下载方式一对应的参数信息;其中,下载方式一对应的参数信息包括模型框架格式信息和/或算子库信息;模型框架格式信息用于指示人工智能模型对应的模型框架的名称、模型框架的版本号以及人工智能模型的模型文件格式中的至少一项;算子库信息用于指示人工智能模型的算子单元集合。该参数信息能使接入网设备获悉终端所支持的下载方式一的参数信息,从而提供与该参数信息相匹配的人工智能模型,使得终端设备能获取其支持的人工智能模型。
在一种可能的设计中,模型能力信息还用于指示下载方式二对应的参数信息;下载方式二对应的参数信息包括描述人工智能模型的计算机代码的编程语言的名称和编程语言的版本号中的至少一项。该参数信息能使接入网设备获悉终端所支持的下载方式二的参数信息,从而提供与该参数信息相匹配的计算机代码,使得终端设备能获取其支持的描述人工智能模型的计算机代码。
在一种可能的设计中,模型能力信息还用于指示下载方式三对应的参数信息;下载方式三对应的参数信息包括中间格式的格式名称以及中间格式的版本号中的至少一项。该参数信息能使接入网设备获悉终端所支持的下载方式三的参数信息,从而提供与该参数信息相匹配的中间格式的人工智能模型,使得终端设备能获取其支持的中间格式的人工智能模型。
在一种可能的设计中,向接入网设备发送模型需求信息,模型需求信息用于触发下载第一人工智能模型。
在一种可能的设计中,模型需求信息还用于指示以下至少一项信息:第一人工智能模型的功能类型;第一人工智能模型的应用场景信息;请求使用第一人工智能模型的时间信息;模型需求信息的有效时间信息;已保存的人工智能模型。该模型需求信息能使接入网设备获悉终端所需人工智能模型的功能、应用场景、需求时段、已保存的人工智能模型,从而能及时、正确、高效地提供与该需求信息相匹配的人工智能模型。并可选地,可以避免重复下载终端已有的模型。
在一种可能的设计中,模型反馈信息还用于指示以下至少一项信息:第一人工智能模型的生效时间信息;下载第一人工智能模型的模型下载许可证;第一人工智能模型的功能类型;第一人工智能模型的应用场景信息。该模型反馈信息能使终端设备获取接入网设备提供的人工智能模型的生效时间段、下载许可证、模型功能、应用场景,从而能在有效时间端内下载模型,并将模型应用在正确的场景中。
在一种可能的设计中,终端设备接收来自接入网设备的下载地址信息,下载地址信息用于指示第一人工智能模型的下载地址;根据下载地址下载第一人工智能模型。
在一种可能的设计中,模型反馈信息指示的下载方式与下载地址信息存在对应关系。终端设备根据模型反馈信息指示的下载方式来使用从下载地址下载的模型。
第二方面,本申请提供一种人工智能模型下载方法,该方法用于实现接入网设备侧的功能,例如可以应用于接入网设备或者接入网设备中的芯片,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由接入网设备侧的多个功能模块共同交互实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于接入网设备为例,在该方法中,接入网设备向终端设备发送模型反馈信息,模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,为终端设备配置的第一人工智能模型的下载方式为终端设备支持的下载方式。
在一种可能的设计中,接入网设备接收来自终端设备的模型能力信息,模型能力信息用于指示终端设备支持的人工智能模型的下载方式。
在一种可能的设计中,接收来自终端设备的模型需求信息,模型需求信息用于触发下载第一人工智能模型。
关于模型反馈信息、模型能力信息以及模型需求信息的介绍请参见第一方面,此处不再赘述。
第三方面,本申请提供一种人工智能模型下载方法,该方法用于实现模型提供设备(也可以称为模型提供者)侧的功能,例如可以应用于模型提供设备或者模型提供设备中的芯片,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由模型提供设备侧的多个功能模块共同交互实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于模型提供设备为例,在该方法中,模型提供设备接收来自终端设备的模型获取请求消息,模型获取请求消息可以用于请求按照模型反馈信息指示的下载方式下载第一人工智能模型;向终端设备发送模型获取确认消息,模型获取确认消息包括模型反馈信息指示的下载方式对应的第一人工智能模型的模型信息。
第四方面,本申请提供一种***,包括终端设备、接入网设备以及模型提供设备中至少两项;
接入网设备,用于向终端设备发送模型反馈信息,所述模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式以及下载地址信息,下载地址信息用于指示第一人工智能模型的下载地址,所述为终端设备配置的第一人工智能模型的下载方式为所述终端设备支持的下载方式;
终端设备,用于接收来自接入网设备的模型反馈信息;根据所述为终端设备配置的第一人工智能模型的下载方式下载所述第一人工智能模型;向下载地址信息对应的模型提供设备发送模型获取请求消息,模型获取请求消息可以用于请求按照模型反馈信息指示的下载方式下载第一人工智能模型;
模型提供设备,用于向终端设备发送模型获取确认消息,模型获取确认消息包括模型反馈信息指示的下载方式对应的第一人工智能模型的模型信息。
第五方面,本申请实施例提供一种通信装置,所述通信装置可以为终端设备、能够实现终端设备侧功能的模块、或者能够设置于终端设备内部的芯片。所述通信装置具备实现上述第一方面的功能,比如,所述通信装置包括执行上述第一方面涉及的部分或全部步骤所对应的模块或单元或手段(means),所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。
在一种可能的设计中,所述通信装置包括处理单元和通信单元,其中,通信单元可以用于收发信号,以实现该通信装置和其它装置之间的通信,比如,通信单元用于接收来自接入网设备的配置信息;处理单元可以用于执行该通信装置的一些内部操作。处理单元、通信单元执行的功能可以和上述第一方面涉及的操作相对应。
在一种可能的设计中,所述通信装置包括处理器,还可以包括收发器,所述收发器用于收发信号,所述处理器利用所述收发器,以完成上述第一方面中任意可能的设计或实现方式中的方法。其中,所述通信装置还可以包括一个或多个存储器,所述存储器用于与处理器耦合,所述存储器可以保存实现上述第一方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第一方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器,处理器可以用于与存储器耦合。所述存储器可以保存实现上述第一方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第一方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器和接口电路,其中,处理器用于通过所述接口电路与其它装置通信,并执行上述第一方面任意可能的设计或实现方式中的方法。
第六方面,本申请实施例提供一种通信装置,所述通信装置可以为接入网设备、能够实现接入网设备侧功能的模块、或者能够设置于接入网设备内部的芯片。所述通信装置具备实现上述第二方面的功能,比如,所述通信装置包括执行上述第二方面涉及部分或全部操作所对应的模块或单元或手段,所述模块或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。
在一种可能的设计中,所述通信装置包括处理单元、通信单元,其中,通信单元可以用于收发信号,以实现该通信装置和其它装置之间的通信,比如,通信单元用于接收来自终端设备的上行信息;处理单元可以用于执行该通信装置的一些内部操作。处理单元、通信单元执行的功能可以和上述第二方面涉及的操作相对应。
在一种可能的设计中,所述通信装置包括处理器,还可以包括收发器,所述收发器用于收发信号,所述处理器利用所述收发器,以完成上述第二方面中任意可能的设计或实现方式中的方法。其中,所述通信装置还可以包括一个或多个存储器,所述存储器用于与处理器耦合,所述存储器可以保存实现上述第二方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第二方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器,处理器可以用于与存储器耦合。所述存储器可以保存实现上述第二方面涉及的功能的计算机程序或指令。所述处理器可执行 所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第二方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器和接口电路,其中,处理器用于通过所述接口电路与其它装置通信,并执行上述第二方面任意可能的设计或实现方式中的方法。
可以理解地,上述处理器可以通过硬件来实现也可以通过软件来实现,当通过硬件实现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现。此外,以上处理器可以为一个或多个,存储器可以为一个或多个。存储器可以与处理器集成在一起,或者存储器与处理器分离设置。在具体实现过程中,存储器可以与处理器集成在同一块芯片上,也可以分别设置在不同的芯片上,本申请实施例对存储器的类型以及存储器与处理器的设置方式不做限定。
第七方面,本申请实施例提供一种通信***,该通信***包括上述第五方面所述的通信装置和上述第六方面所述的通信装置。
第八方面,本申请实施例提供一种计算机可读存储介质,所述计算机存储介质中存储有计算机可读指令,当计算机读取并执行所述计算机可读指令时,使得计算机实现上述第一方面至第三方面的任一种可能的设计中的方法。
第九方面,本申请实施例提供一种计算机程序产品,当计算机读取并执行所述计算机程序产品时,使得计算机实现上述第一方面至第三方面的任一种可能的设计中的方法。
第十方面,本申请实施例提供一种芯片,所述芯片包括处理器,所述处理器与存储器耦合,用于读取并执行所述存储器中存储的软件程序,以实现上述第一方面至第三方面的任一种可能的设计中的方法。
第十一方面,提供了一种通信装置,包括处理器和接口电路,接口电路用于接收来自该通信装置之外的其它通信装置的信号并传输至该处理器或将来自该处理器的信号发送给该通信装置之外的其它通信装置,该处理器用于通过逻辑电路或执行计算机程序或指令,实现前述第一方面、以及第一方面中任意可能的实现方式中的方法。
第十二方面,提供了一种通信装置,包括处理器和接口电路,接口电路用于接收来自该通信装置之外的其它通信装置的信号并传输至该处理器或将来自该处理器的信号发送给该通信装置之外的其它通信装置,该处理器用于通过逻辑电路或执行计算机程序或指令,实现前述第二方面、以及第二方面中任意可能的实现方式中的方法。
第十三方面,提供了一种通信装置,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行所述存储器中存储的计算机程序或指令,使得所述通信装置实现前述第一方面、以及第一方面中任意可能的实现方式中的方法。
第十四方面,提供了一种通信装置,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行所述存储器中存储的计算机程序或指令,使得所述通信装置实现前述第二方面、以及第二方面中任意可能的实现方式中的方法。
第十五方面,提供一种芯片,该芯片包括处理器,还可以包括存储器,用于执行所述存储器中存储的计算机程序或指令,使得芯片***实现前述第一方面、以及第一方面的任意可能的实现方式中的方法。
第十六方面,提供一种芯片,该芯片包括处理器,还可以包括存储器,用于执行所述存储器中存储的计算机程序或指令,使得芯片***实现前述第二方面、以及第二方面的任 意可能的实现方式中的方法。
本申请的这些方面或其它方面在以下实施例的描述中会更加简明易懂。
附图说明
图1为适用于本公开的一种通信***的架构示意图;
图2为本公开提供的一种人工智能模型示意图;
图3为本公开提供的一种人工智能模型下载方法流程示意图;
图4为本公开提供的一种人工智能模型下载方法流程示意图;
图5为本公开提供的一种通信装置结构示意图;
图6为本公开提供的一种通信装置结构示意图。
具体实施方式
下面结合说明书附图对本公开做详细描述。
本公开的技术方案可以应用于各种通信***,例如:长期演进(long term evolution,LTE)***、第五代(5th generation,5G)移动通信***、或下一代移动通信***等,在此不做限制。其中,5G***还可以称为新无线(new radio,NR)***。
为便于理解本公开,首先以图1中示出的通信***为例详细说明适用于本公开的通信***。图1是本公开可以应用提供的通信***的架构示意图,该通信***中包括接入网设备和终端设备。终端设备可以与接入网设备建立连接,并和接入网设备进行通信。在该通信***中,终端设备1~终端设备3可以发送上行数据给接入网设备,接入网设备可以向终端设备1~终端设备3发送配置信息。此外,终端设备之间也可以组成一个通信***,例如车联网***中,终端设备1向终端设备2发送数据;而终端设备2接收终端设备1发送的数据。图1是以3个终端设备为例,本公开对该通信***中包括的接入网设备和终端设备的数量不做限定。
本公开中,终端设备,可以为具有无线收发功能的设备或可设置于任一设备中的芯片,也可以称为用户设备(user equipment,UE)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、无线通信设备、用户代理或用户装置。本公开中的终端设备可以是手机(mobile phone)、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtual reality,VR)终端、增强现实(augmented reality,AR)终端、可穿戴设备、车辆、无人机、直升机、飞机、轮船、机器人、机械臂、或智能家居设等等。本公开中的终端设备可以广泛应用于各种场景中的通信,例如包括但不限于以下至少一个场景:设备到设备(device-to-device,D2D)、车物(vehicle to everything,V2X)、机器类通信(machine-type communication,MTC)、物联网(internet of things,IOT)、虚拟现实、增强现实、工业控制、自动驾驶、远程医疗、智能电网、智能家具、智能办公、智能穿戴、智能交通、或智慧城市等。本公开对终端所采用的具体技术和具体设备形态不做限定。
在本公开中,用于实现终端的功能的装置可以是终端;也可以是能够支持终端实现该功能的装置,例如芯片***、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在终端中或可以与终端匹配使用。为了便于描述,下文以用于实现终端的功能的装置是终端为例,描述本公开提供的技术方案。
接入网设备可以是基站(base station)、演进型基站(evolved NodeB,eNodeB)、发送接收点(transmission reception point,TRP)、第五代(5th generation,5G)移动通信***中的下一代基站(next generation NodeB,gNB)、开放无线接入网(open radio access network,O-RAN)中的接入网设备、第六代(6th generation,6G)移动通信***中的下一代基站、未来移动通信***中的基站或无线保真(wireless fidelity,WiFi)***中的接入节点等;或者可以是完成基站部分功能的模块或单元,例如,可以是集中式单元(central unit,CU)、分布式单元(distributed unit,DU)、集中单元控制面(CU control plane,CU-CP)模块、或集中单元用户面(CU user plane,CU-UP)模块。接入网设备可以是宏基站,也可以是微基站或室内站,还可以是中继节点或施主节点等。本公开中对接入网设备所采用的具体技术和具体设备形态不做限定。
(1)协议层结构。
接入网设备和终端之间的通信遵循一定的协议层结构。该协议层结构可以包括控制面协议层结构和用户面协议层结构。例如,控制面协议层结构可以包括无线资源控制(radio resource control,RRC)层、分组数据汇聚层协议(packet data convergence protocol,PDCP)层、无线链路控制(radio link control,RLC)层、媒体接入控制(media access control,MAC)层和物理层等协议层的功能。例如,用户面协议层结构可以包括PDCP层、RLC层、MAC层和物理层等协议层的功能,在一种可能的实现中,PDCP层之上还可以包括业务数据适配协议(service data adaptation protocol,SDAP)层。
可选的,接入网设备和终端之间的协议层结构还可以包括人工智能(artificial intelligence,AI)层,用于传输AI功能相关的数据。
(2)集中单元(central unit,CU)和分布单元(distributed unit,DU)。
接入设备可以包括CU和DU。多个DU可以由一个CU集中控制。作为示例,CU和DU之间的接口可以称为F1接口。其中,控制面(control panel,CP)接口可以为F1-C,用户面(user panel,UP)接口可以为F1-U。本公开不限制各接口的具体名称。CU和DU可以根据无线网络的协议层划分:比如,PDCP层及以上协议层的功能设置在CU,PDCP层以下协议层(例如RLC层和MAC层等)的功能设置在DU;又比如,PDCP层以上协议层的功能设置在CU,PDCP层及以下协议层的功能设置在DU,不予限制。
上述对CU和DU的处理功能按照协议层的划分仅仅是一种举例,也可以按照其他的方式进行划分。例如可以将CU或者DU划分为具有更多协议层的功能,又例如将CU或DU还可以划分为具有协议层的部分处理功能。在一种设计中,将RLC层的部分功能和RLC层以上的协议层的功能设置在CU,将RLC层的剩余功能和RLC层以下的协议层的功能设置在DU。在另一种设计中,还可以按照业务类型或者其他***需求对CU或者DU的功能进行划分,例如按时延划分,将处理时间需要满足时延要求的功能设置在DU,不需要满足该时延要求的功能设置在CU。在另一种设计中,CU也可以具有核心网的一个或多个功能。示例性的,CU可以设置在网络侧方便集中管理。在另一种设计中,将DU的无线单元(radio unit,RU)拉远设置。可选的,RU可以具有射频功能。
可选的,DU和RU可以在物理层(physical layer,PHY)进行划分。例如,DU可以实现PHY层中的高层功能,RU可以实现PHY层中的低层功能。其中,用于发送时,PHY层的功能可以包括以下至少一项:添加循环冗余校验(cyclic redundancy check,CRC)码、信道编码、速率匹配、加扰、调制、层映射、预编码、资源映射、物理天线映射、或射频 发送功能。用于接收时,PHY层的功能可以包括以下至少一项:CRC校验、信道解码、解速率匹配、解扰、解调、解层映射、信道检测、资源解映射、物理天线解映射、或射频接收功能。其中,PHY层中的高层功能可以包括PHY层的一部分功能,例如该部分功能更加靠近MAC层,PHY层中的低层功能可以包括PHY层的另一部分功能,例如该部分功能更加靠近射频功能。例如,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、和层映射,PHY层中的低层功能可以包括预编码、资源映射、物理天线映射、和射频发送功能;或者,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、层映射和预编码,PHY层中的低层功能可以包括资源映射、物理天线映射、和射频发送功能。例如,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、和解层映射,PHY层中的低层功能可以包括信道检测、资源解映射、物理天线解映射、和射频接收功能;或者,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、解层映射、和信道检测,PHY层中的低层功能可以包括资源解映射、物理天线解映射、和射频接收功能。
示例性的,CU的功能可以由一个实体来实现,或者也可以由不同的实体来实现。例如,可以对CU的功能进行进一步划分,即将控制面和用户面分离并通过不同实体来实现,分别为控制面CU实体(即CU-CP实体)和用户面CU实体(即CU-UP实体)。该CU-CP实体和CU-UP实体可以与DU相耦合,共同完成接入网设备的功能。
可选的,上述DU、CU、CU-CP、CU-UP和RU中的任一个可以是软件模块、硬件结构、或者软件模块+硬件结构,不予限制。其中,不同实体的存在形式可以是不同的,不予限制。例如DU、CU、CU-CP、CU-UP是软件模块,RU是硬件结构。这些模块及其执行的方法也在本公开的保护范围内。
一种可能的实现中,接入网设备包括CU-CP、CU-UP、DU和RU。例如,本公开的执行主体包括DU,或者包括DU和RU,或者包括CU-CP、DU和RU,或者包括CU-UP、DU和RU,不予限制。各模块所执行的方法也在本公开的保护范围内。
本公开中,用于实现接入网设备的功能的装置可以是接入网设备;也可以是能够支持接入网设备实现该功能的装置,例如芯片***。该装置可以被安装在接入网设备中或者和接入网设备匹配使用。下述公开中,以用于实现接入网设备的功能的装置是接入网设备,以接入网设备是基站为例,描述本公开提供的技术方案。
接入网设备和终端设备的数量不做限定。
一种可能的实现方式中,为了在无线网络中支持人工智能,可以在通信***中引入独立的人工智能(artificial intelligence,AI)实体(如称为AI网元、或AI节点等)来实现AI相关的操作。AI实体可以和通信***中的接入网设备之间直接连接,或者可以通过第三方网元和接入网设备实现间接连接。其中,第三方网元可以是认证管理功能(authentication management function,AMF)网元、或用户面功能(user plane function,UPF)网元等核心网网元。或者,为了在无线网络中支持人工智能,可以在通信***中的其他网元内配置AI实体(或可以称为AI功能或AI模块)来实现AI相关的操作。例如该其他网元可以是接入网设备(如gNB)、核心网设备、或网管(operation,administration and maintenance,OAM)等,在这种情况下,执行AI相关的操作的网元为内置AI功能的网元。
本公开中,OAM用于操作、管理和/或维护核心网设备,和/或,用于操作、管理 和/或维护接入网设备。AI模型是实现AI功能的具体方法,AI模型表征了模型的输入和输出之间的映射关系。AI模型可以是神经网络或者其他机器学习模型。其中,AI模型可以简称为模型。AI相关的操作可以包括以下至少一项:数据收集、模型训练、模型信息发布、模型推断(模型推理)、或推理结果发布等。
图1中,以AI实体为独立的网元为例,该AI实体可以和接入网设备以及终端设备进行通信。
在无线通信***中,应用AI模型可以显著提升通信***的性能。由于AI模型训练过程对算力的要求较高,终端设备使用的AI模型往往由网络侧管理,终端设备在需要使用AI模型时,从网络侧下载相应的AI模型。
下载模型这种方案虽然简单易理解,但再实际应用中却有不少问题。由于机器学习领域的蓬勃发展,机器学习的开发框架种类繁多,如用于网络侧服务器的Tensorflow、Pytorch,以及用于终端设备的轻量化框架CoreML、TFLite等,这些框架各自拥有大量的用户,各个模型框架的AI模型算子库却各不相同,导致训练出的模型格式彼此不兼容无法解读,例如网络侧用Tensorflow训练出的模型无法在使用CoreML的终端设备上使用。
综上,终端设备如何能够从网络侧获得其支持的格式的AI模型,是一个亟待解决的问题。
本公开中,提出了一套信令交互框架,终端设备和网络侧通过交互一些信息,从而使得终端设备能下载到自己可以解读使用的AI模型。本公开中还提出了两个新的功能体:模型管理者和模型提供者。在实际***中,模型管理者可以由网络侧的接入网设备担任,例如模型管理者可以为基站,而模型提供者可不局限于网络侧的基站或者存储实体,还可以是第三方的具备存储、训练AI模型能力的实体。本公开不限制模型管理者和模型提供者的具体名称,例如模型管理者可以称为第一设备或第一网络设备,模型提供者可以称为第二设备或第二网络设备等,不予限制。例如结合图1,模型管理者可以为图1中的接入网设备,模型提供者可以为图1中的AI实体。
在描述本公开之前,先简单介绍一些关于人工智能的相关知识。人工智能,可以让机器具有人类的智能,例如可以让机器应用计算机的软硬件来模拟人类某些智能行为。为了实现人工智能,可以采取包括机器学习或很多其他方法。例如,机器学习包括神经网络。深度神经网络(deep neural network,DNN)是一种模仿动物神经网络行为特征,进行分布式并行信息处理的数学模型,是AI模型的一种特殊形式。根据通用近似定理,神经网络理论上可以逼近任意连续函数,从而使得神经网络具备学习任意映射的能力。因此神经网络可以对复杂的高维度问题进行准确地抽象建模。神经网络的思想来源于大脑组织的神经元结构。每个神经元都对其输入值做加权求和运算,将加权求和结果通过一个激活函数产生输出。假设神经元的输入为x=[x 0,…,x n],与输入对应的权值为w=[w 0,…,w n],加权求和的偏置为b。激活函数的形式可以多样化。假设一个神经元的激活函数为:y=f(z)=max(0,z),则该神经元的输出为:
Figure PCTCN2022119070-appb-000001
再例如一个神经元的激活函数为:y=f(z)=z,则该神经元的输出为:
Figure PCTCN2022119070-appb-000002
Figure PCTCN2022119070-appb-000003
b可以为小数、整数(包括0、正整数或负整数等)、或复数等各种可能的取值。神经网络中不同神经元的激活函数可以相同或不同。DNN一般具有多层结构,DNN的每一层都可包含一个或多个神经元。DNN的输入层将接收到的输入经过神经元处理后,将结果传递给中间的隐藏层,隐藏层再将计算结果传递给输出层或者相邻的隐藏层, 最后由输出层得到最终的输出结果。
DNN一般具有多于一个的隐藏层,隐藏层往往直接影响提取信息和拟合函数的能力。增加DNN的隐藏层数或扩大每一层的宽度(包括的神经元的个数)都可以提高DNN的函数拟合能力。模型参数通过训练过程得到优化,从而使得DNN网络具备提取数据特征、表达映射关系的能力。DNN一般使用监督学习或非监督学习策略来优化模型参数。DNN的训练过程中,可以定义损失函数。损失函数描述了DNN的输出值和理想目标值之间的差距或差异,本公开不限制损失函数的具体形式。DNN的训练过程就是通过调整DNN网络参数,如包括以下至少一项参数:DNN的层数、宽度、层间神经元的连接关系、部分或全部神经元的权值、部分或全部神经元的偏置、或部分或全部神经元的激活函数等,使得损失函数的值小于阈值门限值或者满足目标需求的过程,即使得DNN的输出与理想目标值之间的差异尽可能小。
根据网络的构建方式,DNN可分为前馈神经网络(feedforward neural network,FNN)、卷积神经网络(convolutional neural networks,CNN)和递归神经网络(recurrent neural network,RNN)。图2所示即为一种FNN网络,其特点为相邻层的神经元之间两两完全相连。
CNN是一种专门来处理具有类似网格结构的数据的神经网络。例如,时间序列数据(时间轴离散采样)和图像数据(二维离散采样)都可以认为是类似网格结构的数据。
RNN是一类利用反馈时间序列信息的神经网络。它的输入包括当前时刻的新的输入值和自身在前一时刻的输出值。RNN适合获取在时间上具有相关性的序列特征,特别适用于语音识别、信道编译码等应用。
由于AI模型训练过程对算力的要求较高,一般是由网络侧对AI模型进行训练,终端设备在需要使用AI模型时,从网络侧下载相应的AI模型。本公开提供一种人工智能模型下载方法,网络侧可以向终端设备指示模型下载方式及可选地指示相关参数,从而使得终端设备能够获得其AI模型,灵活性较强。
在本公开的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
可以理解的是,在本公开中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本公开的范围。上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定。
本公开描述的网络架构以及业务场景是为了更加清楚的说明本公开的技术方案,并不构成对于本公开提供的技术方案的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本公开提供的技术方案对于类似的技术问题,同样适用。
本公开中,终端设备可以主动向网络侧请求下载AI模型,也可以由网络侧主动要求终端设备下载或更新AI模型。
终端设备主动请求下载AI模型可能存在多种场景,例如终端设备需要通过AI模型提升空口性能,从而可以从网络侧请求下载AI模型;终端设备确定本地使用的AI模型不再适用于当前的信道环境,需要更新AI模型;终端设备需要对本地的AI模型进行性能校准;终端设备需要从网络侧下载一个预训练的模型,使用本地数据集在线训练调优预训练的模型。终端设备主动请求下载AI模型时,可以通过如图3所示的流程下载AI模型。
如图3所示,为本申请公开提供的一种人工智能模型下载方法流程示意图。该流程以终端设备与接入网设备之间交互为例进行说明,该方法包括:
可选地,S301:接入网设备向终端设备广播模型服务信息。
其中,模型服务信息可以从候选功能中指示网络侧能够利用AI提供的一种或多种功能的索引(或标识)。例如,候选功能包括以下至少一项:信道状态信息(channel state information,CSI)压缩反馈、星座调制与解调、信道编解码、或上行预编码。其中,每种功能对应一个索引(或标识)。每种功能的索引(或功能和索引的对应关系)可以是协议约定的,或者由网络侧如接入网设备预先通知终端(例如通过广播的方式或者其他信令配置方式),不予限制。
或者,模型服务信息可以从候选种类的AI模型中指示网络侧能够提供的一种AI模型或多种AI模型的索引(或标识)。其中,候选种类的AI模型包括以下至少一种:用于CSI压缩反馈的AI模型,用于星座调制与解调的AI模型,用于信道编解码的AI模型,或用于上行预编码的AI模型等。每个候选种类的AI模型对应唯一的索引。每种AI模型的索引(或AI模型的种类和索引的对应关系)可以由协议约定,或者可以由网络侧(如接入网设备)预先通知终端设备(例如通过广播的方式或者其他信令配置方式),不予限制。
可选地,可以由协议约定上述模型服务信息指示的内容,则S301可以无需执行。
可选地,S302:终端设备向接入网设备发送模型能力信息,所述模型能力信息用于指示终端设备支持的AI模型下载方式。
本公开中,所述模型能力信息用于指示终端设备支持的AI模型下载方式可以被理解为:所述终端设备期望的AI模型下载方式。例如终端设备实际支持L种下载方式,但是通过能力信息仅上报L种中的P种,则从终端设备的角度可以理解为终端设备期望使用该P种进行下载。其中,L和P为大于等于1的整数,P小于等于L。
由于机器学习的模型框架种类繁多,各个模型框架的AI模型算子库各不相同,导致不同模型框架训练出的AI模型的格式也不同。
本公开中,一种实现方式中,模型能力信息指示的下载方式包括第1下载方式至第M下载方式中至少一项,其中,第i下载方式对应第i格式的AI模型,第i下载方式可以用于指示终端设备支持第i格式的AI模型,i的取值范围为1至M,M为大于或等于1的整数。
其中,第1下载方式至第M下载方式对应的M个格式AI模型,可以为终端设备支持的M个格式的AI模型。下载方式和格式的对应关系可以由协议约定,或者可以由网络侧(如接入网设备)预先通知终端设备(例如通过广播的方式或者其他信令配置方式),不予限制。
终端设备在下载AI模型时,可以通过指示第1下载方式至第M下载方式中的一个或多个下载方式,上报自己需要下载M个格式的AI模型中的哪一种或者哪几种格式的AI模型,接入网设备为终端设备选择AI模型时,可以选择让终端设备使用其需要下载的格式的AI模型。
举例来说,共有3种格式的AI模型,分别为“.pb”格式,“.pt”格式以及“.mindir”格式。其中,“.pb”格式对应第1下载方式,“.pt”格式对应第2下载方式,“.mindir”格式对应第3下载方式。当终端设备需要下载“.pt”格式的AI模型时或者支持的“.pb”格式时,可以通过模型能力信息指示第2下载方式,接入网设备根据模型能力信息指示的第2下载方式,可 以为终端设备提供“.pt”格式的AI模型。
另一种实现方式中,模型能力信息指示的下载方式可以包括以下至少一项:
下载方式一,下载指定格式的AI模型;
下载方式二,下载描述AI模型的计算机代码;
下载方式三,下载中间格式的AI模型,所述中间格式的AI模型能够被转换成终端设备支持的格式的AI模型,例如能够被转换成指定格式的AI模型。其中,中间格式还可以称为转换格式或其他名称,不予限制。
可选地,指定格式包括于上述M个格式中。指定格式可以是该M个格式中的一个或多个格式,M为大于或等于1的整数。例如,终端设备支持3种格式的AI模型,分别为“.pb”格式,“.pt”格式以及“.mindir”格式。指定格式可以为.pb”格式,或者“.pt”格式,或者“.mindir”格式;指定格式也可以包括“.pb”格式,“.pt”格式以及“.mindir”格式中的至少两个格式。
可选地,在该实现方式中,模型能力信息还可以用于指示所述指定格式,例如从所述M个格式中指示所述指定格式。所述中间格式的AI模型可以是网络侧支持的格式的AI模型转换成的AI模型。
本公开中,模型能力信息还可以用于指示下载方式对应的参数信息。
举例来说,下载方式一对应的参数信息可以包括模型框架格式信息和/或算子库信息,其中,模型框架格式信息用于指示AI模型对应的模型框架的名称、模型框架的版本号以及AI模型的模型文件格式中的至少一项。例如,具体模型框架格式信息指示的信息可以参考表1所示。例如,终端设备支持的格式可以是表1列出的3种格式中的至少一种格式。
表1
示例 模型框架的名称 模型框架的版本号 模型文件格式
1 Tensorflow 2.0.0 .pb
2 Pytorch 1.9.0 .pt
3 Mindspore 1.3.0 .mindir
本公开中,一种可能的实现方式中,算子库信息用于指示终端设备支持的AI模型的算子单元集合;另一种可能的实现方式中,算子库信息可以用于指示终端设备不支持的AI模型的算子单元集合。其中,AI模型的算子包括但不限于一维CNN单元(conv1d),二维CNN单元(conv2d),三维CNN单元(conv3d),池化(pooling),s型激活函数(sigmoid)等。终端设备通过上报算子库信息,可以使得网络侧确定终端设备能够支持模型框架算子库中的哪些算子,网络侧下发的AI模型可以不使用终端设备不支持的算子,从而可以保证能够为终端设备提供其能够使用的AI模型。
下载方式二中,为了避免终端设备不支持网络侧下发的AI模型的格式,终端设备可以请求下载描述AI模型的计算机代码,终端设备获取该计算机代码后,可以进行本地编译,从而获取AI模型。
在下载方式二中,下载方式二对应的参数信息可以包括描述AI模型的计算机代码对应的编程语言的名称和所述编程语言的版本号中的至少一项,例如下载方式二对应的参数信息指示的信息可以如表2所示。
表2
示例 编程语言的名称 编程语言的版本号
1 C C99
2 C++ C++17
3 Python 3.6
通过指示编程语言的名称和编程语言的版本号等信息,可以使得接入网设备确定终端设备能够编译哪些编码语言对应的计算机代码,避免下发终端设备无法编译的计算机代码。
下载方式三中,中间格式可以是指网络侧和终端设备侧都支持的一种AI模型的格式,网络侧和终端设备支持的各种模型框架的AI模型可以翻译或转换成中间格式的AI模型。接入网设备和终端设备支持这种统一的中间格式即可完成AI模型的兼容互通。例如,中间格式具体可以为开放神经网络交换(open neural network exchange,ONNX)格式,网络侧将训练完成的AI模型转换成ONNX格式的AI模型,再下发给终端设备。终端设备收到该ONNX格式的AI模型后,再转换成终端设备本地使用的模型框架对应格式的AI模型,就可使用网络下发的AI模型。
本公开中,下载方式三对应的参数信息包括中间格式的格式名称以及中间格式的版本号中的至少一项。例如,下载方式三对应的参数信息指示的信息可以如表3所示。
表3
中间格式的名称 中间格式的版本号 格式
ONNX 1.5 .onnx
ONNX 1.2 .onnx
ONNX 1.0 .onnx
本公开中,终端设备还可以上报其他信息,例如,终端设备还可以上报终端设备的能力信息,能力信息指示终端设备的能力,包括但不限于以下至少一项:
终端设备的内存空间大小;
终端设备可用于存储AI模型的内存空间大小;
终端设备的算力信息,算力信息可以指示运行AI模型的计算能力,比如指示以下至少一项:处理器的类型,例如处理器的类型可以为图形处理器(graphics processing unit,GPU)或者中央处理器(central processing unit,CPU),处理器的运算速度,处理器能够处理的数据量大小等信息;终端设备的能耗信息,如芯片的运行功耗、电池容量等。
终端设备还可以上报其支持的用于下载AI模型的网络传输协议,例如网络传输协议可以为传输控制协议/网际协议(transmission control protocol/internet protocol,TCP/IP),网际协议版本4(internet protocol version 4,IPv4),或IPv6中至少一项。网络侧可以根据终端设备支持的网络传输协议选择合适的模型提供者和下载地址。
可选地,对于某个终端设备或者某个***的终端设备,可以默认为该终端设备支持所有协议约定的下载方式,可以支持所有接入网设备支持的下载方式,则S302可以无需执行。或者,对于一个或多个场景中的终端设备,如大规模机器类型通信(massive machine-type communications,mMTC)场景、远程医疗场景、工业控制场景、超高可靠性超低时延通信(ultra-reliable low-latency communication,URLLC)场景、和/或增强移动宽带(enhanced mobile broadband,eMBB)场景,可以由协议约定各场景中的终端设备所支持的下载方式, 则S302可以无需执行。本公开不限制无需执行S302的方法。
S303:终端设备向接入网设备发送模型需求信息。
其中,模型需求信息用于触发下载第一AI模型,当接入网设备接收到该模型需求信息时,确定终端设备需要下载AI模型。
本公开中,模型需求信息可以用于指示以下至少一项信息:
1,第一AI模型的功能类型或第一AI模型的种类,其可以指示AI模型的功能,例如,第一AI模型的功能类型可以为用于CSI压缩反馈的AI模型,用于星座调制与解调的AI模型,用于调制解调的AI模型,用于信道编解码的AI模型,或用于上行预编码的AI模型等;如果一个功能类型对应一个索引,则模型需求信息可以指示功能类型对应的索引;
2,AI模型的应用场景信息;该信息可以进一步描述终端设备所需的AI模型的信息,使得网络侧能针对性地下发功能更适配的AI模型。举例来说,应用场景信息可以包括以下至少一项:
AI模型适用的信道类型,例如对于CSI反馈压缩功能类型的AI模型,终端设备可以进一步上报该AI模型适用的信道类型为簇延迟线200纳秒(ns)型(clustered delay line 200ns,CDLB200)、抽头延迟线100ns型(tapped delay line 100ns,TDLA100)等;
AI模型适用的信道在时频-角度域上的稀疏程度;或,AI模型适用的***参数,例如天线数以及带宽等。其中,AI模型的应用场景信息还可以称为AI模型的功能类型对应的功能参数等名称,本公开并不限定。
3,请求使用第一AI模型的时间信息,该时间信息可以指示终端设备需要使用第一AI模型的以下至少一项:起始时间、结束时间、时间段(时间长度)。
4,模型需求信息的有效时间信息,该有效时间信息可以指示模型需求信息在什么时间内是有效的,若网络侧由于信道、调度等原因,收到终端设备的模型需求信息时已经超过模型需求信息的有效时间,则可以不再向终端设备下发AI模型。
5,已保存的AI模型(或称为已知的AI模型),这些AI模型可能是终端设备出厂设置的,也可能是入网时网络侧下发的,也可能是之前从网络侧下载的。这些已保存的AI模型中的每个AI模型可由唯一的模型识别码进行区分,该识别码的格式可以由协议定义,也可以由网络侧自行定义。终端设备上报已保存的AI模型,网络侧可以判断是否需要给终端设备下载新的AI模型,或者指示终端设备复用已保存的AI模型。
6,终端设备的标识,例如该标识可以为终端设备的无线网络临时标识(radio network temporary identity,RNTI)。
本公开中,模型管理者(例如接入网设备)与模型提供者之间还可以进行背景信息的交互,如模型提供者把已经准备就绪的模型信息通知给模型管理者;模型管理者向模型提供者发出新的模型训练任务,让其进行训练和准备。当模型管理者从模型提供者接收到模型准备就绪的确认信息后,向终端设备下发模型反馈信息。
S304:接入网设备向终端设备发送模型反馈信息。
其中,模型反馈信息可以为接入网设备自己生成的,模型反馈信息也可以为其它设备生成,并由接入网设备转发的,例如模型提供者生成模型反馈信息,由接入网设备转发至终端设备。
模型反馈信息用于指示为终端设备配置的第一AI模型的下载方式,其中,为终端设备配置的第一AI模型的下载方式还可以称为:终端设备针对第一AI模型的下载方式或终 端设备的下载方式等,终端设备可以根据所指示的下载方式确定将要下载的AI模型的具体格式。其中,为终端设备配置的第一AI模型的下载方式为模型能力信息指示的一种或多种下载方式,例如为终端设备配置的第一AI模型的下载方式为下载方式一,表示指示终端设备下载其支持的指定格式的AI模型。当模型反馈信息指示多种下载方式时,终端设备可以任选一种来下载第一AI模型。
上述方法中,接入网设备可以根据终端设备上报的模型能力信息,可以确定终端设备支持的AI模型的下载方式,当接入网设备根据终端设备上报的模型需求信息确定终端设备需要使用AI模型时,可以根据终端设备支持的下载方式,确定要给终端设备下载AI模型的具体下载方式、具体模型格式、或具体AI模型等。接入网设备可以通过模型反馈信息指示上述内容。
一种实现方式中,终端设备上报的模型能力信息指示终端设备支持的下载方式包括第1下载方式至第M下载方式中至少一项时,模型反馈信息指示的下载方式可以包括第1下载方式至第M下载方式中的一种或多种。
举例来说,M=3,模型能力信息指示的第1下载方式至第3下载方式对应的格式分别为“.pb”格式,“.pt”格式以及“.mindir”格式。那么为终端设备配置的第一AI模型的下载方式可以为指示下载“.pb”格式的AI模型,或者下载“.pt”格式的AI模型,或者下载“.mindir”格式的AI模型中的至少一种。终端设备可以选择一种格式进行下载。
另一种实现方式中,终端设备上报的模型能力信息指示终端设备支持的下载方式包括下载方式一至下载方式三中的一种或多种时,模型反馈信息指示的下载方式可以包括下载方式一至下载方式三中的一种或多种。
举例来说,模型能力信息指示终端设备支持下载方式一至下载方式三。模型反馈信息指示的下载方式为下载方式一时,终端设备可以确定将要下载指定格式的第一AI模型;模型反馈信息指示的下载方式为下载方式二时,终端设备可以确定将要下载第一AI模型对应的计算机代码;模型反馈信息指示的下载方式为下载方式三时,终端设备可以确定将要下载中间格式的第一AI模。
可选的,模型反馈信息除了指示为终端设备配置的第一人AI模型的下载方式之外,还可以用于指示以下至少一项信息:
为终端设备配置的第一AI模型的下载方式对应的参数信息,其具体内容可以参考前面的描述,在此不再赘述;
第一AI模型的生效时间信息,例如可以指示以下至少一项:起始生效时间、结束生效时间、或生效的时间长度,当终端设备由于网络延迟等原因,收到该模型反馈信息时,若确定超过第一AI模型的生效时间就可以不用再去下载AI模型;
下载地址信息,下载地址信息由于指示第一AI模型的下载地址,下载地址信息可以指示存储第一AI模型的设备的IP地址或者统一资源***(uniform resource locator,URL)地址等,终端设备可以通过下载地址信息下载第一AI模型;其中,下载地址信息可以与模型反馈信息指示的下载方式存在对应关系,例如模型反馈信息指示的是下载方式一,那么下载地址信息指示的下载地址为地址一;模型反馈信息指示的是下载方式二,那么下载地址信息指示的下载地址为地址二;模型反馈信息指示的是下载方式三,那么下载地址信息指示的下载地址为地址三等,其他情况依次类推。
下载所述第一AI模型的模型下载许可证,例如当模型提供者处于私有网络时或者为 了安全考虑,模型提供者可能需要终端设备提供模型下载许可证后才能允许下载AI模型,该模型下载许可证可以是验证码、加密的许可信息或者许可证文件等,本公开对此并不限定。
在一种可能的实现方式中,S304还可以替换为以下步骤:
接入网设备可以向终端设备发送下载失败信息,下载失败指示信息用于指示下载AI模型失败。例如终端设备通过模型能力信息指示终端设备支持的AI模型的下载方式为下载指定格式的AI模型,但是接入网设备确定无法提供指定格式的AI模型,此时接入网设备可以发送下载失败信息。
下载失败信息中可以包括失败原因,失败原因可以包括以下至少一项:
原因一,下载方式不支持,具体的,还可以指示不支持的下载方式,例如不支持下载方式一;
原因二,当前信道环境无需更新模型,此时终端设备可以重用已经保存的AI模型;
原因三,AI模型还没有训练成功;
原因四,接入网设备接收到模型需求信息时,已经超过该模型需求信息的有效时长。
S305:终端设备下载第一AI模型。
终端设备可以根据为终端设备配置的下载方式下载第一AI模型,终端设备可以根据该下载方式确定网络侧提供的第一AI模型的格式。模型反馈信息包括下载地址信息时,终端设备可以向下载地址信息对应的模型提供者发送模型获取请求消息。模型获取请求消息可以包括模型下载许可证、终端设备的标识等信息,模型获取请求消息可以用于请求按照模型反馈信息指示的下载方式下载第一AI模型。
可选的,模型提供者可以向终端设备发送模型获取确认消息。
其中,模型获取确认消息可以包括以下至少一项信息:
(1)请求有效性确认信息:若确定向终端设备提供第一AI模型,请求有效性确认信息则可以指示确认下载第一AI模型;若确定不向终端设备提供第一AI模型,请求有效性确认信息则可以指示不提供第一AI模型的原因,例如:该模型提供者处没有所需的第一模型,或者第一AI模型的有效时间已过期,或者模型下载许可证不准确等。
(2)第一AI模型的模型信息,例如,若模型反馈信息指示的下载方式是第i下载方式,模型信息则是第i格式的AI模型文件;再例如,若模型反馈信息指示的下载方式是下载方式一,模型信息则为指定格式的AI模型文件,如Tensorflow的.pb文件;若模型反馈信息指示的下载方式是下载方式二,模型信息则为第一AI模型对应的计算机代码,如第一AI模型对应的C++代码;若模型反馈信息指示的下载方式是模型下载方式三,模型信息则为“中间格式”的AI模型文件,如ONNX的.onnx文件。
(3)校验第一AI模型的模型校验方式,终端设备可以根据模型获取确认消息指示的模型校验方式对第一AI模型的完整性进行校验,本公开对模型校验方式的具体实现方式并不限定,例如模型校验方式可以为循环冗余校验(cyclic redundancy check,CRC)校验,也可以是其他校验方式。
可选的,终端设备接收到模型获取确认消息时,可以向接入网设备反馈确认指示,用于指示完成下载第一AI模型。
通过上面的流程,终端设备通过上报模型能力信息,指示其支持的AI模型下载方式,实现与接入网设备协商AI模型的下载方式,使得接入网设备能够按照终端设备支持的AI 模型下载方式为终端设备提供AI模型,从而避免网络侧的机器学习模型算子库、AI模型的格式与终端支持的算子库、AI模型的格式不匹配时,终端设备无法获取到合适的AI模型。
前面的流程中,描述的是终端设备主动向网络侧请求下载AI模型,本公开中,网络侧主动要求终端设备下载或更新AI模型时,终端设备可以不再上报模型需求信息,即终端设备不需要触发AI模型下载。网络侧主动要求终端设备下载或更新AI模型可能存在多种场景,例如网络侧要主动开启某种空口机器学习任务,需要终端设备下载配套的AI模型;网络侧更换自己的AI模型,需要终端设备也更换或下载适配的AI模型;网络侧发现信道环境发生变化,要求终端设备更换更匹配当前信道环境的AI模型以保证性能,本申请对此并不限定。
如图4所示,为本公开提供的一种人工智能模型下载方法流程示意图。该流程以终端设备与接入网设备之间交互为例进行说明,该方法包括:
可选地,S401:接入网设备向终端设备广播模型服务信息。
具体流程可以参考S301中的描述,在此不再赘述。
可选地,S402:终端设备向接入网设备发送模型能力信息,所述模型能力信息用于指示支持的AI模型下载方式。
具体流程可以参考S302中的描述,在此不再赘述。
S403:接入网设备向终端设备发送模型反馈信息。
具体流程可以参考S304中的描述,在此不再赘述。S403中的模型反馈信息,除了可以包括S304中的模型反馈信息包括的信息之外,还可以包括以下至少一项信息:
第一AI模型的功能类型,功能类型的具体内容可以参考前面的描述,在此不再赘述;
第一AI模型的应用场景信息,该参数的具体内容可以参考前面的描述,在此不再赘述。
S404:终端设备下载第一AI模型。
具体流程可以参考S305中的描述,在此不再赘述。
上述本申请提供的实施例中,分别从各个设备之间交互的角度对本申请实施例提供的方法进行了介绍。为了实现上述本申请实施例提供的方法中的各功能,接入网设备或终端设备可以包括硬件结构和/或软件模块,以硬件结构、软件模块、或硬件结构加软件模块的形式来实现上述各功能。上述各功能中的某个功能以硬件结构、软件模块、还是硬件结构加软件模块的方式来执行,取决于技术方案的特定应用和设计约束条件。
本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。另外,在本申请各个实施例中的各功能模块可以集成在一个处理器中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
与上述构思相同,如图5所示,本申请实施例还提供一种通信装置用于实现上述方法中接入网设备、终端设备或模型提供者的功能。例如,该通信装置可以为软件模块或者芯片***。本申请实施例中,芯片***可以由芯片构成,也可以包含芯片和其他分立器件。该通信装置500可以包括:处理单元501和通信单元502。
本申请实施例中,通信单元也可以称为收发单元,可以包括发送单元和/或接收单元,分别用于执行上文方法实施例中接入网设备或终端设备发送和接收的步骤。
以下,结合图5至图6详细说明本申请实施例提供的通信装置。应理解,装置实施例的描述与方法实施例的描述相互对应,因此,未详细描述的内容可以参见上文方法实施例,为了简洁,这里不再赘述。
通信单元也可以称为收发装置。处理单元也可以称为处理模块、或处理装置等。可选的,可以将通信单元502中用于实现接收功能的器件视为接收单元,将通信单元502中用于实现发送功能的器件视为发送单元,即通信单元502包括接收单元和发送单元。通信单元有时可以实现为收发机、收发器、或收发电路等。处理单元有时可以实现为处理器、或处理单板等。接收单元有时可以实现为接收机、接收器、或接收电路等。发送单元有时可以实现为发射机、发射器或者发射电路等。
通信装置500执行上面实施例中图3或4所示的流程中终端设备的功能时:
通信单元,用于接收来自接入网设备的模型反馈信息,模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,为终端设备配置的第一人工智能模型的下载方式为终端设备支持的下载方式;
处理单元,用于可以根据模型反馈信息指示的下载方式下载第一人工智能模型。
在一种可能的设计中,通信单元还用于:向接入网设备发送模型能力信息,模型能力信息用于指示终端设备支持的人工智能模型的下载方式。
在一种可能的设计中,通信单元还用于:向接入网设备发送模型需求信息,模型需求信息用于触发下载第一人工智能模型。
在一种可能的设计中,通信单元还用于:接收来自接入网设备的下载地址信息,下载地址信息用于指示第一人工智能模型的下载地址;根据下载地址下载第一人工智能模型。
通信装置500执行上面实施例中图3或4所示的流程中接入网设备的功能时:
通信单元,用于向终端设备发送模型反馈信息,模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,为终端设备配置的第一人工智能模型的下载方式为终端设备支持的下载方式。
在一种可能的设计中,通信单元,用于接收来自终端设备的模型能力信息,模型能力信息用于指示终端设备支持的人工智能模型的下载方式。
在一种可能的设计中,通信单元还用于:接收来自终端设备的模型需求信息,模型需求信息用于触发下载第一人工智能模型。
以上只是示例,处理单元501和通信单元502还可以执行其他功能,更详细的描述可以参考图3或图4所示的方法实施例中相关描述,这里不加赘述。
如图6所示为本申请实施例提供的通信装置600,图6所示的通信装置可以为图5所示的通信装置的一种硬件电路的实现方式。该通信装置可适用于前面所示出的流程图中,执行上述方法实施例中终端设备或者接入网设备的功能。为了便于说明,图6仅示出了该通信装置的主要部件。
如图6所示,通信装置600包括处理器610和接口电路620。处理器610和接口电路620之间相互耦合。可以理解的是,接口电路620可以为收发器、管脚、接口电路或输入输出接口。可选的,通信装置600还可以包括存储器630,用于存储处理器610执行的指令或存储处理器610运行指令所需要的输入数据或存储处理器610运行指令后产生的数据。可选地,存储器630的部分或全部可以位于处理器610中。
当通信装置600用于实现图3或图4所示的方法时,处理器610用于实现上述处理单 元501的功能,接口电路620用于实现上述通信单元502的功能。
当上述通信装置为应用于终端设备的芯片时,该终端设备芯片实现上述方法实施例中终端设备的功能。该终端设备芯片从终端设备中的其它模块(如射频模块或天线)接收信息,该信息是接入网设备发送给终端设备的;或者,该终端设备芯片向终端设备中的其它模块(如射频模块或天线)发送信息,该信息是终端设备发送给接入网设备的。
当上述通信装置为应用于接入网设备的芯片时,该接入网设备芯片实现上述方法实施例中接入网设备的功能。该接入网设备芯片从接入网设备中的其它模块(如射频模块或天线)接收信息,该信息是终端设备发送给接入网设备的;或者,该接入网设备芯片向接入网设备中的其它模块(如射频模块或天线)发送信息,该信息是接入网设备发送给终端设备的。
可以理解的是,本申请的实施例中的处理器可以是中央处理单元,还可以是其它通用处理器、数字信号处理器、专用集成电路或者其它可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
本申请的实施例中的存储器可以是随机存取存储器、闪存、只读存储器、可编程只读存储器、可擦除可编程只读存储器、电可擦除可编程只读存储器、寄存器、硬盘、移动硬盘或者本领域熟知的任何其它形式的存储介质中。
本领域内的技术人员可以理解,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (34)

  1. 一种人工智能模型下载方法,其特征在于,包括:
    接收来自接入网设备的模型反馈信息,所述模型反馈信息用于指示为终端设备配置的第一人工智能模型的下载方式,所述为终端设备配置的第一人工智能模型的下载方式为所述终端设备支持的下载方式;
    根据所述为终端设备配置的第一人工智能模型的下载方式下载所述第一人工智能模型。
  2. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    向所述接入网设备发送模型能力信息,所述模型能力信息用于指示终端设备支持的人工智能模型的下载方式。
  3. 根据权利要求2所述的方法,其特征在于,所述模型能力信息指示的下载方式包括第1下载方式至第M下载方式中至少一项,其中,第i下载方式用于指示所述终端设备支持第i格式的人工智能模型,i的取值范围为1至M,M为大于或等于1的整数。
  4. 根据权利要求2所述的方法,其特征在于,所述模型能力信息指示的下载方式包括以下至少一项:
    下载方式一,下载指定格式的人工智能模型;
    下载方式二,下载描述人工智能模型的计算机代码;
    下载方式三,下载中间格式的人工智能模型,所述中间格式的人工智能模型能够被转换成终端设备支持的格式的人工智能模型。
  5. 根据权利要求4所述的方法,其特征在于,所述指定格式包括于M个格式中,M为大于或等于1的整数。
  6. 根据权利要求4或5所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式一对应的参数信息;
    其中,所述下载方式一对应的参数信息包括模型框架格式信息和/或算子库信息;所述模型框架格式信息用于指示所述人工智能模型对应的模型框架的名称、所述模型框架的版本号以及所述人工智能模型的模型文件格式中的至少一项;所述算子库信息用于指示所述人工智能模型的算子单元集合。
  7. 根据权利要求4-6任一项所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式二对应的参数信息;
    所述下载方式二对应的参数信息包括描述所述人工智能模型的计算机代码的编程语言的名称和所述编程语言的版本号中的至少一项。
  8. 根据权利要求4-7任一项所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式三对应的参数信息;
    所述下载方式三对应的参数信息包括所述中间格式的格式名称以及所述中间格式的版本号中的至少一项。
  9. 根据权利要求1-8任一所述的方法,其特征在于,所述方法还包括:
    向所述接入网设备发送模型需求信息,所述模型需求信息用于触发下载所述第一人工智能模型。
  10. 根据权利要求9所述的方法,其特征在于,所述模型需求信息还用于指示以下至少 一项信息:
    所述第一人工智能模型的功能类型;
    所述第一人工智能模型的应用场景信息;
    请求使用所述第一人工智能模型的时间信息;
    所述模型需求信息的有效时间信息;
    已保存的人工智能模型。
  11. 根据权利要求1-10任一所述的方法,其特征在于,所述模型反馈信息还用于指示以下至少一项信息:
    所述第一人工智能模型的生效时间信息;
    下载所述第一人工智能模型的模型下载许可证;
    所述第一人工智能模型的功能类型;
    所述第一人工智能模型的应用场景信息。
  12. 一种人工智能模型下载方法,其特征在于,包括:
    向终端设备发送模型反馈信息,所述模型反馈信息用于指示为所述终端设备配置的第一人工智能模型的下载方式,所述为终端设备配置的第一人工智能模型的下载方式为所述终端设备支持的下载方式。
  13. 根据权利要求12所述的方法,其特征在于,所述方法还包括:
    接收来自所述终端设备的模型能力信息,所述模型能力信息用于指示所述终端设备支持的人工智能模型的下载方式。
  14. 根据权利要求13所述的方法,其特征在于,所述模型能力信息指示的下载方式包括第1下载方式至第M下载方式中至少一项,其中,第i下载方式用于指示所述终端设备支持第i格式的人工智能模型,i的取值范围为1至M,M为大于或等于1的整数。
  15. 根据权利要求13所述的方法,其特征在于,所述模型能力信息指示的下载方式包括以下至少一项:
    下载方式一,下载指定格式的人工智能模型;
    下载方式二,下载描述人工智能模型的计算机代码;
    下载方式三,下载中间格式的人工智能模型,所述中间格式的人工智能模型是通过对网络侧支持的人工智能模型的格式转换得到的。
  16. 根据权利要求15所述的方法,其特征在于,所述指定格式包括于M个格式中,M为大于或等于1的整数。
  17. 根据权利要求15或16所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式一对应的参数信息;
    其中,所述下载方式一对应的参数信息包括模型框架格式信息和/或算子库信息;所述模型框架格式信息用于指示所述人工智能模型对应的模型框架的名称、所述模型框架的版本号以及所述人工智能模型的模型文件格式中的至少一项;所述算子库信息用于指示所述人工智能模型的算子单元集合。
  18. 根据权利要求15-17任一项所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式二对应的参数信息;
    所述下载方式二对应的参数信息包括描述所述人工智能模型的计算机代码的编程语言的名称和所述编程语言的版本号中的至少一项。
  19. 根据权利要求15-18任一项所述的方法,其特征在于,所述模型能力信息还用于指示所述下载方式三对应的参数信息;
    所述下载方式三对应的参数信息包括所述中间格式的格式名称以及所述中间格式的版本号中的至少一项。
  20. 根据权利要求12-19任一所述的方法,其特征在于,所述方法还包括:
    接收来自所述终端设备的模型需求信息,所述模型需求信息用于触发下载所述第一人工智能模型。
  21. 根据权利要求20所述的方法,其特征在于,所述模型需求信息还用于指示以下至少一项信息:
    所述第一人工智能模型的功能类型;
    所述第一人工智能模型的应用场景信息;
    请求使用所述第一人工智能模型的时间信息;
    所述模型需求信息的有效时间信息;
    已保存的人工智能模型。
  22. 根据权利要求12-21任一所述的方法,其特征在于,所述模型反馈信息还用于指示以下至少一项信息:
    所述第一人工智能模型的生效时间信息;
    下载所述第一人工智能模型的模型下载许可证;
    所述第一人工智能模型的功能类型;
    所述第一人工智能模型的应用场景信息。
  23. 一种人工智能模型下载方法,其特征在于,包括:
    接收来自终端设备的模型获取请求消息,模型获取请求消息用于请求按照第一下载方式下载第一人工智能模型;
    向所述终端设备发送模型获取确认消息,模型获取确认消息包括所述第一下载方式对应的第一人工智能模型的模型信息。
  24. 一种人工智能模型下载方法,其特征在于,包括:
    发送模型获取请求消息,模型获取请求消息用于请求按照第一下载方式下载第一人工智能模型;
    接收模型获取确认消息,模型获取确认消息包括所述第一人工智能模型的模型信息。
  25. 根据权利要求24所述的方法,其特征在于,所述第一下载方式由来自接入网设备的模型反馈信息指示。
  26. 一种通信装置,其特征在于,包括用于执行如权利要求1-11或权利要求24-25中任一项所述的方法的单元。
  27. 一种通信装置,其特征在于,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行如权利要求1-11或权利要求24-25中任一项所述的方法。
  28. 一种通信装置,其特征在于,包括处理器和接口电路,所述接口电路用于接收来自所述通信装置之外的其它通信装置的信号并传输至所述处理器或将来自所述处理器的信号发送给所述通信装置之外的其它通信装置,所述处理器利用所述接口电路实现如权利要求1-11或权利要求24-25中任一项所述的方法。
  29. 一种通信装置,其特征在于,包括用于执行如权利要求12-22或权利要求23中任 一项所述的方法的单元。
  30. 一种通信装置,其特征在于,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行如权利要求12-22或权利要求23中任一项所述的方法。
  31. 一种通信装置,其特征在于,包括处理器和接口电路,所述接口电路用于接收来自所述通信装置之外的其它通信装置的信号并传输至所述处理器或将来自所述处理器的信号发送给所述通信装置之外的其它通信装置,所述处理器利用所述接口电路实现如权利要求12-22或权利要求23中任一项所述的方法。
  32. 一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序或指令,当所述计算机程序或指令在计算机上运行时,实现如权利要求1-11中任一项所述的方法或者如权利要求12-22中任一项所述的方法,或者如权利要求23所述的方法,或者如权利要求24或25所述的方法。
  33. 一种计算机程序产品,其特征在于,包括计算机程序或指令,当所述计算机程序或指令在计算机上运行时,实现如权利要求1-11中任一项所述的方法或者如权利要求12-22中任一项所述的方法,或者如权利要求23所述的方法,或者如权利要求24或25所述的方法。
  34. 一种通信***,其特征在于,包括权利要求26-28中任一项所述的通信装置,和权利要求29-31中任一项所述的通信装置。
PCT/CN2022/119070 2021-09-18 2022-09-15 一种人工智能模型下载方法、装置及*** WO2023040971A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22869339.6A EP4391612A1 (en) 2021-09-18 2022-09-15 Method, apparatus and system for downloading artificial intelligence model
US18/606,290 US20240223652A1 (en) 2021-09-18 2024-03-15 Artificial intelligence model download method, apparatus, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111112900.1 2021-09-18
CN202111112900.1A CN115835185A (zh) 2021-09-18 2021-09-18 一种人工智能模型下载方法、装置及***

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/606,290 Continuation US20240223652A1 (en) 2021-09-18 2024-03-15 Artificial intelligence model download method, apparatus, and system

Publications (1)

Publication Number Publication Date
WO2023040971A1 true WO2023040971A1 (zh) 2023-03-23

Family

ID=85515394

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/119070 WO2023040971A1 (zh) 2021-09-18 2022-09-15 一种人工智能模型下载方法、装置及***

Country Status (4)

Country Link
US (1) US20240223652A1 (zh)
EP (1) EP4391612A1 (zh)
CN (1) CN115835185A (zh)
WO (1) WO2023040971A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117856947A (zh) * 2024-02-21 2024-04-09 荣耀终端有限公司 Csi压缩模型指示方法及通信装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018014737A1 (zh) * 2016-07-21 2018-01-25 深圳光启合众科技有限公司 一种人工智能设备的数据处理方法、装置及***
US20190279409A1 (en) * 2018-03-12 2019-09-12 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN110378463A (zh) * 2019-07-15 2019-10-25 北京智能工场科技有限公司 一种人工智能模型标准化训练平台及自动化***
US20200026977A1 (en) * 2018-07-19 2020-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN112204532A (zh) * 2018-08-30 2021-01-08 华为技术有限公司 一种终端对ai任务支持能力的评测方法及终端
US20210048808A1 (en) * 2019-08-12 2021-02-18 Micron Technology, Inc. Storage and access of neural network models of automotive predictive maintenance
CN113222170A (zh) * 2021-03-30 2021-08-06 新睿信智能物联研究院(南京)有限公司 一种用于物联网ai协同服务平台的智能算法和模型

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018014737A1 (zh) * 2016-07-21 2018-01-25 深圳光启合众科技有限公司 一种人工智能设备的数据处理方法、装置及***
US20190279409A1 (en) * 2018-03-12 2019-09-12 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US20200026977A1 (en) * 2018-07-19 2020-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN112204532A (zh) * 2018-08-30 2021-01-08 华为技术有限公司 一种终端对ai任务支持能力的评测方法及终端
CN110378463A (zh) * 2019-07-15 2019-10-25 北京智能工场科技有限公司 一种人工智能模型标准化训练平台及自动化***
US20210048808A1 (en) * 2019-08-12 2021-02-18 Micron Technology, Inc. Storage and access of neural network models of automotive predictive maintenance
CN113222170A (zh) * 2021-03-30 2021-08-06 新睿信智能物联研究院(南京)有限公司 一种用于物联网ai协同服务平台的智能算法和模型

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117856947A (zh) * 2024-02-21 2024-04-09 荣耀终端有限公司 Csi压缩模型指示方法及通信装置

Also Published As

Publication number Publication date
US20240223652A1 (en) 2024-07-04
EP4391612A1 (en) 2024-06-26
CN115835185A (zh) 2023-03-21

Similar Documents

Publication Publication Date Title
US20230209390A1 (en) Intelligent Radio Access Network
WO2022011862A1 (zh) 一种o-ran与mec的通信方法及***
CN110521188B (zh) 网络服务层中的分布式事务管理
US20240223652A1 (en) Artificial intelligence model download method, apparatus, and system
WO2023036268A1 (zh) 一种通信方法及装置
US20230262728A1 (en) Communication Method and Communication Apparatus
WO2022206513A1 (zh) 模型处理的方法、通信装置和***
WO2023104169A1 (zh) 一种无线网络中的人工智能ai模型训练方法及装置
WO2022087930A1 (zh) 一种模型配置方法及装置
WO2022218347A1 (zh) 通信***、方法、第一功能体及存储介质
Jere et al. Distributed learning meets 6G: A communication and computing perspective
CN117155805A (zh) 一种基于统计机器学习的设备管理方法及装置
WO2023098860A1 (zh) 通信方法和通信装置
CN113286374A (zh) 调度方法、调度算法的训练方法及相关***、存储介质
WO2022135288A1 (zh) 信息处理的方法和装置
WO2024067245A1 (zh) 模型匹配的方法和通信装置
WO2023066346A1 (zh) 一种通信方法及装置
WO2023036280A1 (zh) 一种模型测试方法及装置
WO2023093725A1 (zh) 一种校准方法及装置
WO2024051789A1 (zh) 一种波束管理方法
US20240054351A1 (en) Device and method for signal transmission in wireless communication system
WO2023207860A1 (zh) 通信方法和通信装置
US20230259742A1 (en) Communication method, apparatus, and system
WO2023169423A1 (zh) 拆分推理方法及装置
WO2023093777A1 (zh) 一种通信方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22869339

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022869339

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022869339

Country of ref document: EP

Effective date: 20240320

NENP Non-entry into the national phase

Ref country code: DE