WO2023127388A1 - 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム - Google Patents

無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム Download PDF

Info

Publication number
WO2023127388A1
WO2023127388A1 PCT/JP2022/044311 JP2022044311W WO2023127388A1 WO 2023127388 A1 WO2023127388 A1 WO 2023127388A1 JP 2022044311 W JP2022044311 W JP 2022044311W WO 2023127388 A1 WO2023127388 A1 WO 2023127388A1
Authority
WO
WIPO (PCT)
Prior art keywords
base station
neural network
radio base
dividing
network model
Prior art date
Application number
PCT/JP2022/044311
Other languages
English (en)
French (fr)
Inventor
博允 内山
信一郎 津田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023127388A1 publication Critical patent/WO2023127388A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/50Service provisioning or reconfiguring

Definitions

  • the present disclosure relates to a radio base station, a radio base station control method, a communication control device, a communication control device control method, and a program.
  • the 5th generation mobile communication system has high speed and large capacity (eMBB: enhanced Mobile BroadBand), low delay and high reliability (URLLC: Ultra-Reliable and Low Latency Communications), many simultaneous connections (mMTC: massive Machine Type Communication) It has the characteristics of In 5GS, utilization of AI (Artificial Intelligence) is expected for effective utilization of network resources, efficient network operation, and power-saving operation.
  • eMBB enhanced Mobile BroadBand
  • URLLC Ultra-Reliable and Low Latency Communications
  • mMTC massive Machine Type Communication
  • AI Artificial Intelligence
  • the present disclosure has been made in view of the problems described above, and aims to improve network delay.
  • a radio base station is a radio base station that can communicate with a first communication device and a second communication device, and stores first profile information corresponding to one or more neural network models.
  • a dividing unit for determining dividing points for dividing a plurality of layers constituting the neural network model based on the first profile information; and dividing the neural network model at the dividing points.
  • Arithmetic processing of a first neural network model is set in the first communication device, and arithmetic processing of a second neural network model generated by dividing the neural network model at the division points is performed in the second communication device.
  • a control unit that is set in the device or the radio base station.
  • FIG. 2 is a block diagram showing the configuration of the network architecture of 5GS (5G System) 1000;
  • FIG. 3 is a diagram showing an example of QoS architecture;
  • FIG. 10 is a diagram showing an example of PDU session establishment processing;
  • FIG. 1 is a diagram showing a network architecture configuration of a 5G system 1000 and peripheral systems.
  • the 5G system 1000 includes UE (User Equipment) 100 , RAN (Radio Access Network) 200 and core network 300 .
  • the 5G system 1000 is connected with the application server 400 via the Internet.
  • the application server 400 may be configured as a device of the core network 300 .
  • UEs 100 are multiple wireless terminals that connect to the 5G system 1000 .
  • UE 100 is, for example, a smart phone or a mobile personal computer.
  • the UE 100 is a terminal that can run AI applications, and can use applications on 5G services via the 5G system 1000 .
  • the AI application is arithmetic processing (first arithmetic processing) related to AI (artificial intelligence) or machine learning.
  • AI artificial intelligence
  • Such applications are, for example, Augmented Reality (AR), automatic driving, robotics (robot control), image recognition, or voice recognition.
  • AI applications are handled by distributed processing and integrated learning processing. Processing of the application requires low latency and processing power of the network.
  • the UE 100 includes a wireless terminal (first communication device) in which an AI application operates and a wireless terminal (second communication device) in which arithmetic processing (second arithmetic processing) other than the AI application operates.
  • a wireless terminal running arithmetic processing other than an AI application may be a wireless base station, a core network, or a server connected via the core network.
  • RAN 200 is a radio access network that connects terminals and a backbone communication network.
  • the RAN 200 wirelessly connects the UE 100, which is a terminal, to the core network 300, which is a backbone communication network, and is also called NG (Next Generation)-RAN.
  • the RAN 200 configures a network with radio base stations 20 called gNBs or ng-eNBs and IABs (Integrated Access and Backhaul, backhaul links) 50 .
  • the RAN 200 configures a network with multiple radio base stations 20 and functions as a distributed network capable of distributed processing among multiple nodes.
  • the radio base station 20 functions as a radio communication unit that directly communicates with the UE 100 .
  • the radio base station 20 may communicate with the UE 100 as a RAN 200, that is, as a distributed network capable of distributed processing among multiple nodes.
  • the radio access network may enable connection with, for example, NG (Next Generation)-RAN, access networks other than the radio access network.
  • NG Next Generation
  • the RAN 200 is a radio access network, but may be other networks such as an Access Network (AN).
  • AN Access Network
  • the core network 300 is a core communication network or backbone of an information communication network, and is also called 5GC (5G CORE) or NGC (NG CORE).
  • the core network 300 has a plurality of function groups, which will be described later, and is connected to the RAN 200 and the Internet.
  • a plurality of function groups of the core network 300 function as communication control devices.
  • the core network 300 is connected to a radio base station 20 (first radio base station) connected to a radio terminal (first radio terminal) running an AI application.
  • a communication process (first communication process) related to an AI application is running in the wireless terminal as a specific process.
  • the core network 300 is connected to a radio base station 20 (second radio base station) connected to a radio terminal (second radio terminal) in which processing other than the AI application is running.
  • communication processing (second communication processing) related to processing other than the AI application is running as processing other than the specific processing.
  • the function group of the control plane of the core network 300 is AMF (Access and Mobility Management Function) 301, NEF (Network Exposure Function) 302, NRF (Network Repository Function) 303, and NSSF (Network Slice Selection Function) 304, PCF (Policy Control Function) 305, SMF (Session Management Function) 306, UDM (Unified Data Management) 307, AF (Application Function) 308, AUSF (Authentication Server Function) 309, UCMF (UE radio Capability Management Function) 310 and a plurality of NFs (Network Functions).
  • AMF Access and Mobility Management Function
  • NEF Network Exposure Function
  • NRF Network Repository Function
  • NSSF Network Slice Selection Function
  • PCF Policy Control Function
  • SMF Session Management Function
  • UDM Unified Data Management
  • AF Application Function
  • AUSF Authentication Server Function
  • UCMF UE radio Capability Management Function
  • the UDM 307 includes a UDR (Unified Data Repository) that holds and manages subscriber information and an FE (Front End) section that processes subscriber information.
  • AMF 301 performs mobility management.
  • the SMF 306 performs session management.
  • UCMF 310 holds UE radio capability information (UE Radio Capability Information) corresponding to all UE radio capability IDs (UE Radio Capability IDs) in PLMN (Public Land Mobile Network).
  • UCMF 310 is responsible for assigning each PLMN-assigned UE Radio Capability ID.
  • Nam 301i is a service-based interface provided by AMF 301 .
  • NNef 302i is a service-based interface provided by NEF 302 .
  • NNrf 303i is a service-based interface provided by NRF 303 .
  • NNssf 304i is a service-based interface provided by NSSF 304 .
  • Npcf 305i is a service-based interface provided by PCF 305 .
  • Nsmf 306i is a service-based interface provided by SMF 306 .
  • Nudm 307i is a service-based interface provided by UDM 307 .
  • Naf 308i is a service-based interface provided by AF 308 .
  • Nausf 309i is a service-based interface provided by AUSF 309.
  • Nucmf 310i is a service-based interface provided by UCMF 310 .
  • Each NF exchanges information with other NFs via each service-based interface.
  • a UPF (User Plane Function) 330 has a function of user plane processing.
  • a DN (Data Network) 340 has a function of enabling connection to MNO (Mobile Network Operator) original services, the Internet, and third-party services.
  • the UPF 330 functions as a transfer processor for user plane data processed by the application server 400 .
  • UPF 330 also functions as a gateway connected to radio base station 20 .
  • Information is mutually exchanged between the UE 100 and the AMF 301 via the reference point N1.
  • Information is mutually exchanged between the RAN 200 and the AMF 301 via the reference point N2.
  • Information is mutually exchanged between the RAN 200 and the UPF 330 via the reference point N3.
  • Information is mutually exchanged between the SMF 306 and the UPF 330 via the reference point N4.
  • Information is mutually exchanged between the RAN 200 and the DN 340 via the reference point N6.
  • the SMF 306 performs QoS control for each service data flow that can be applied to both IP and Ethernet type data flows (service data flows). With QoS control per service data flow, SMF 306 provides authorized QoS for each specific service. Metrics such as QoS subscriber information, along with policy rules such as service-based, subscription-based, or predefined PCF internal policies. may be used.
  • the SMF 306 uses PCC (Policy and Charging Control) rules associated with QoS flows (QoS-controlled data flows) to determine the QoS to authorize for a QoS flow.
  • PCC Policy and Charging Control
  • SMF 306 can notify PCF 305 that the QoS flow has been deleted if the QoS flow has been deleted. Also, if the SMF 306 cannot guarantee the guaranteed bit rate of the QoS flow, that is, the GFBR (Guaranteed Flow Bit Rate), it can notify the PCF 305 that the GFBR cannot be guaranteed.
  • PCC Policy and Charging Control
  • the application server 400 processes applications.
  • the application server 400 can process AI applications running on the UE 100 by connecting with the 5G system 1000 via the Internet.
  • the application server 400 can be placed in the core network as DN340. can.
  • Application server 400 may be provided in the form of an edge server.
  • FIG. 2 shows an example of QoS architecture.
  • the 5G QoS model supports GBR (Guaranteed flow Bit Rate) QoS flows and non-GBR QoS flows.
  • a GBR QoS flow corresponds to a bandwidth-guaranteed QoS flow
  • a non-GBR QoS flow corresponds to a non-bandwidth-guaranteed QoS flow.
  • NAS Non-Access Stratum
  • QoS within a PDU Protocol Data Unit
  • QoS flows are encapsulated on the NG-U interface.
  • a QoS flow is identified within a PDU session by a QFI (QoS Flow ID) carried as a header.
  • QFI QoS Flow ID
  • the radio base station 20 can establish at least one DRB (Data Radio Bearer), which is a radio bearer, together with the PDU session, and can further establish an additional DRB.
  • DRB Data Radio Bearer
  • a DRB is a logical path for transmitting data.
  • RAN 200 and core network 300 ensure quality of service by allocating packets to QoS and DRB suitable for the service. Two steps are performed: IP flow to QoS flow mapping in NAS (Non-Access Stratum) and QoS flow to DRB mapping in AS (Access Stratum).
  • the QoS flow includes a QoS profile (QoS profile, second profile information) provided from core network 300 to RAN 200 and a QoS rule (QoS rule(s)).
  • the QoS profile is used by the radio base station 20 to determine how to handle the radio interface.
  • QoS rules are used to instruct the UE 100 on the mapping between uplink user-plane traffic and QoS.
  • the QoS profile is provided to the RAN 200 by the SMF 306 via the AMF 301 via the reference point N2, or is provided by being set in the radio base station 20 in advance.
  • the SMF 306 can provide one or more QoS rules via the AMF 301 and optionally QoS flow-level QoS parameters associated with these QoS rules to the UE 100 via the reference point N1. . Additionally or alternatively, the UE 100 can apply Reflective QoS control.
  • Reflective QoS control is QoS control that monitors the QFI(s) of downlink packets and applies the same mapping to the uplink.
  • a QoS flow can be either GBR (guaranteed bandwidth) or non-GBR (non-guaranteed bandwidth) flow type, depending on the QoS profile.
  • the QoS profile of the QoS flow includes parameters such as 5QI (5G QoS Identifier) and ARP (Allocation and Retention Priority).
  • ARP contains information about priority level, pre-emption capability, and pre-emption vulnerability.
  • the ARP priority level defines the relative importance of QoS flows, and is set in the range of 1 to 15, with 1 being the highest priority.
  • the ARP pre-emption capability is an indicator that defines whether a QoS flow can use resources already allocated to other lower priority QoS flows.
  • ARP's pre-emption vulnerability is a metric that defines whether or not to yield resources allocated to a QoS flow to other higher priority QoS flows.
  • ARP pre-emption capability and ARP pre-emption vulnerability are set to either “enabled” or “disabled”.
  • the QoS profile is GFBR (Guaranteed Flow Bit Rate) for uplink and downlink, MFBG (Maximum Flow Bit Rate) for uplink and downlink, maximum packet loss rate for uplink and downlink (Maximum Packet Loss Rate), Delay Critical Resource Type, Notification Control, etc.
  • the QoS profile includes RQA (Reflective QoS Attribute), additional QoS flow information (Additional QoS Flow Information), and the like.
  • the QoS parameter Notification Control indicates whether notification from the RAN 200 is requested when the GFBR cannot be satisfied for the QoS flow. For a given GBR QoS flow, if Notification Control is “enable” and the RAN determines that the GFBR cannot be met, the RAN 200 must send a notification to the SMF 306 . At that time, the radio base station 20 will , QoS flows must be maintained. If the radio base station 20 determines that the GFBR can be satisfied again, the radio base station 20 sends a new notification to that effect to the SMF 306 .
  • AMBR Average Maximum Bit Rate
  • Session-AMBR limits the aggregate bit rate expected to be delivered across all non-GBR QoS flows for a particular PDU session and is managed by the UPF (User Plane Function) 330 .
  • UPF User Plane Function
  • UE-AMBR limits the aggregate bit rate expected to be provided across all non-GBR QoS flows for a given UE 100 and is managed by radio base station 20 .
  • 5QI relates to QoS features and provides guidelines (policies) for setting node-specific parameters for each QoS flow.
  • Standardized or preconfigured 5G QoS features are known from 5QI and are not signaled explicitly.
  • the QoS characteristics that are signaled can be included as part of the QoS profile.
  • QoS features include Priority level, Packet Delay Budget, Packet Error Rate, Averaging window, Maximum Data Burst Volume, etc. Consists of elements.
  • the packet delay tolerance may include the packet delay tolerance in the core network 300.
  • the DRB Radio Bearer
  • the RAN 200 assigns (maps) QoS flows to DRBs based on the QoS profile associated with the QFI (QoS Flow ID). Different DRBs can be established for packets requiring different packet forwarding treatment (see FIG. 2). Alternatively, multiple QoS flows belonging to the same PDU session can be multiplexed into the same DRB (see Figure 2).
  • mapping rules In the uplink, the mapping of QoS flows to DRBs is controlled by mapping rules signaled in two different ways.
  • One is called Reflective mapping, and for each DRB, the UE 100 monitors the QFI(s) of downlink packets and applies the same mapping on the uplink.
  • Another method is a method called Explicit Configuration, in which rules for mapping QoS flows to DRBs are explicitly signaled by RRC (Radio Resource Control).
  • QFI QoS Flow ID
  • RQoS Reflective Quality of Service
  • NAS Non-Access Stratum
  • Reflective mapping is used for a QoS flow carried by a DRB, the QFI for that DRB is not signaled on interface Uu.
  • the radio base station 20 may be configured to signal QFI to the UE 100 on interface Uu.
  • a default DRB can be set for each PDU session, and if an uplink packet does not conform to the Explicit Configuration or Reflective mapping, the UE 100 assigns the packet to the PDU session. Map to the default DRB.
  • the core network 300 may use any QoS flow to indicate an increase in the frequency of certain traffic relative to other non-GBR QoS flows established on the same PDU session. may send to the radio base station 20 additional QoS flow information parameters related to .
  • the radio base station 20 can decide how to map multiple QoS flows to one DRB within a PDU session. For example, the radio base station 20 may map GBR flows and non-GBR flows to the same DRB, or may map them to separate DRBs. The radio base station 20 may map multiple GBR flows to the same DRB, or may map them to separate DRBs.
  • 5G NR introduces a new SDAP (Service Data Adaptation Protocol) sublayer for QoS control via QoS flows.
  • the SDAP sublayer maps QoS flow traffic to the appropriate DRBs.
  • the SDAP sublayer can have multiple SDAP entities, one SDAP entity per PDU session on interface Uu.
  • An SDAP entity is established or released by RRC (Radio Resource Control).
  • a QoS flow is identified using the QFI in the PDU Session Container included in the GTP-U header.
  • a PDU session is identified using a GTP-UTEID (TuN Nel Endpoint Identifier).
  • the SDAP sublayer maps each QoS flow to a specific DRB.
  • FIG. 3 shows an example of a configuration of a 5G network architecture including IAB (Integrated Access and Backhaul).
  • the network of 5G system 1000 consists of core network 300 and RAN 200 .
  • Radio base station 20 is connected to AMF 301 or UPF 330 via interface NG.
  • the radio base station 20-1 which is one of the radio base stations 20, communicates with the AMF 301-1, which is one of the AMFs 301, or through the interface NG-C, which is the control plane between the AMF 301-2 and the interface NG.
  • the radio base station 20-1 which is one of the radio base stations 20, is connected to the UPF 330-1, which is one of the UPFs 330, or the interface NG-U, which is the user plane of the interface NG with the UPF 330-2. be done.
  • the radio base station 20 is composed of a CU (Central Unit) 201 and a DU (Distributed Unit) 202, which are connected via an interface F1.
  • a CU (Central Unit) 201 is composed of a CU (C-Plane) 2011 that processes a control plane and a CU (U-Plane) 2012 that processes a user plane, which are connected via an interface E1.
  • the radio base station 20-2 which is one of the radio base stations 20, uses the AMF 301-1, which is one of the AMFs 301, or the interface NG-C, which is the control plane between the AMF 301-2 and the interface NG. connected.
  • the radio base station 20-2 which is one of the radio base stations 20, uses UPF 330-1, which is one of the UPFs 330, or interface NG-U, which is a user plane of interface NG with UPF 330-2. Connected.
  • the radio base station 20-2 is connected as an IAB-donor node to IAB50-1 and IAB50-2, which are one of the nodes of the IAB50.
  • the radio base station 20-2 constitutes the RAN 200 together with the IAB 50-1 and IAB 50-2.
  • the DU 202 of the radio base station 20-2 which is the parent node, is connected via an interface Uu to an IAB-MT (Mobile Termination) 501 treated as a function equivalent to the UE in the IAB 50-1, which is the child node.
  • CU 202 of radio base station 20-2 which is a parent node, is connected to IAB-DU 502 of IAB 50-1, which is a child node, via interface F1 on interface Uu.
  • the IAB-DU 502 of the parent node IAB 50-1 is connected to the IAB-MT 501 of the child node IAB 50-2 via an interface Uu. Furthermore, CU 202 of radio base station 20-2, which is the parent node, is connected to IAB-DU 502 of IAB 50-2, which is the child node, via interface F1 on interface Uu via relay node IAB 50-1. be.
  • Fig. 4 shows an example of the configuration of a deep neural network (DNN) model used in deep learning.
  • DNN deep neural network
  • a neural network model 4000 is composed of layers called an input layer 4001 containing a plurality of nodes, a hidden layer 4002 and an output layer 4003 .
  • the hidden layer 4002 is also called an intermediate layer.
  • the nodes of neural network model 4000 are connected via edges.
  • the input layer 4001, the hidden layer 4002, and the output layer 4003 have functions called activation functions, which are weighted for each edge.
  • a deep neural network model is composed of multiple hidden layers 4002 .
  • Machine learning uses a neural network model with a limited number of hidden layers 4002 due to limitations in computer processing power.
  • Deep learning uses a DNN model, which is a form of NN model with a greater number of hidden layers 4002, due to improvements in computer processing power.
  • Recognition, judgment, or estimation accuracy is improved by using a trained DNN model that has been trained using a large amount of data.
  • CNN convolutional neural networks
  • RNNs recurrent neural networks
  • LSTMs long short-term memories
  • the hidden layer 4002 is composed of layers called a convolution layer and a pooling layer.
  • filtering is performed by a convolution operation to extract data called a feature map.
  • the pooling layer compresses and down-samples the feature map information output from the convolutional layer.
  • the RNN has a network structure in which the values of the hidden layer 4002 are recursively input to the hidden layer 4002, and for example, short-term time series data are processed.
  • the LSTM by introducing a parameter called a memory cell that holds the state of the hidden layer to the hidden layer output of the RNN, the influence of the output in the distant past can be held.
  • LSTM processes time-series data of a longer period than RNN.
  • image recognition it is used for applications such as tagging people in SNS (Social Network Service) and automatic driving.
  • speech recognition it is applied to smart speakers.
  • natural language processing it is applied to search by browser and automatic translation.
  • Abnormality detection by robots is used at airports, railways, and manufacturing sites.
  • the arithmetic processing of the NN model can be distributed.
  • the NN model is divided at arbitrary division points dividing a plurality of layers constituting the NN model in order to distribute the arithmetic processing of one NN model among a plurality of devices, and a hidden layer at the division point of the NN model Data is transmitted via wireless communication.
  • the application server 400 creates NN model profile information (first profile information).
  • the profile information of the NN model includes, for example, the relationship between the error rate for each division point of the NN model, eg BLER (Block Error Ratio), and the final inference accuracy of the output value output by the neural network model. That is, the NN model profile information includes the relationship between the BLER (Block Error Ratio) for each division point of the NN model and the final inference accuracy of the AI application.
  • the NN model profile information includes information on the NN model splitting setting.
  • the profile information of the NN model includes the data size of the hidden layer data for each division point of the NN model.
  • the application server 400 also manages the inference accuracy required for the NN model for each application, specifies the lower limit of BLER that satisfies the inference accuracy for each division point of the NN model, and stores the lower limit of BLER in the profile information of the NN model.
  • a lower limit of BLER may be included.
  • the application server 400 may create NN model profile information for each type of transmission method.
  • the type of transmission method is, for example, a method for processing transmission data in advance, including the presence or absence of scrambling, the scrambling method, the presence or absence of interleaving, the interleaving method, and deep learning (Deep Learning) for compressing hidden layer data.
  • data compression including learning)-based compression methods, and data compression methods.
  • the profile information is, for example, information in which Accuracy information for each error rate value, for example, BLER value is summarized with or without scrambling.
  • the profile information determines the granularity of the BLER value and Accuracy information according to the data size of the profile information.
  • the profile information may also be notified together with Model ID, which is the ML model number, division points, and the like.
  • the application server 400 When managing multiple types of NN models, the application server 400 creates and manages NN model profile information for each type of NN model.
  • the application server 400 may include a plurality of servers, and each server may manage an NN model for each application. Applications are identified by application IDs.
  • An NN model is identified by an NN model ID.
  • the division points of the NN model are identified by division point IDs.
  • the NN model to be used can be specified by the NN model ID corresponding to the application ID. Furthermore, when a division point is specified, the profile information of the NN model corresponding to the division point ID can be specified by the division point ID. If one application supports multiple types of NN models, specifying the type of the application and the NN model makes it possible to specify the NN model to be used by the application ID and the NN model ID.
  • the division point of the NN model can be determined by any method by the division unit that determines the division point. For example, when AI is processed in the 5G system 1000, any of the following cases can be considered: processing only by network devices, processing distributed between terminals and network devices, and processing only by terminals.
  • AI processing is performed by network devices included in RAN 200 and core network 300, and by application server 400 connected via the Internet.
  • AI processing is distributed among the terminal UE 100, the RAN 200, the network devices included in the core network 300, and the application server 400 connected via the Internet. and process.
  • determining the dividing points There are two methods for determining the dividing points: a method of determining dividing points in advance, a method of determining dividing points based on the QoS data rate, and a method of determining dividing points based on the QoS PER.
  • the application server 400 or DN 340 predetermines division points for the number of divisions for each NN model.
  • application server 400 or DN 340 functions as a divider.
  • AF 308 acquires information related to traffic of RAN 200 and UPF 330 via AMF 301 and SMF 306 via the above-described service-based interface as a function of the control plane of application server 400 .
  • Information related to traffic is, for example, information such as traffic load, data rate, and transmission delay.
  • the application server 400 determines the number of divisions based on the acquired traffic information.
  • a division point for the number of divisions is managed as information on the NN model splitting setting. Since the profile information of the NN model includes information about the NN model splitting setting, the predetermined split points are saved in the profile information of the NN model.
  • the NN model used for each application is determined for the applications used by the UE 100 .
  • the NN model is specified by determining the application used by the UE 100 . In this case, since the division points are determined in advance, the division points of the NN model corresponding to the division number 2 are uniquely determined.
  • the RAN 200 obtains information about this split point via the N2 SM information received from the SMF 306 . RAN 200 may treat a predetermined split point as a default split point.
  • the radio base station 20 determines the division point based on the QFI, QoS profile, and profile information of the NN model.
  • the radio base station 20 functions as a divider.
  • the profile information of the NN model includes, for example, information on the data size of hidden layer data for each division point.
  • the radio base station 20 identifies 5QIs to be applied for hidden layer data transmission from the QoS profile corresponding to the QFIs.
  • the specified 5QIs are Resource Type (GBR (bandwidth guaranteed) or non-GBR (bandwidth non-guaranteed)), Priority level (priority), Packet Delay Budget (packet delay allowance time), Packet Error Rate (packet error rate ), Averaging window, and Maximum Data Burst Volume are set in advance.
  • the radio base station 20 uses GFBR (Guaranteed Flow Bit Rate) for GBR QoS flows and UE-AMBR for non-GBR QoS flows to transmit the data size of hidden layer data.
  • GFBR Guard Flow Bit Rate
  • UE-AMBR Non-GBR QoS flows
  • the time required for transmission is estimated based on the data size of hidden layer data and GFBR or UE-AMBR.
  • the radio base station 20 identifies NN model types and division point candidates that can transmit hidden layer data within a preset time by GFBR or UE-AMBR.
  • the radio base station 20 may take into account the specified 5QI Packet Delay Budget when estimating the time required for transmission based on the data size of the hidden layer data and GFBR or UE-AMBR.
  • the radio base station 20 may determine division points based on the processing capability of the UE 100 . For example, if the processing capability of the UE 100 is large, the type of NN model and division points that allow the UE 100 to process more layers are determined. For example, if the processing capability of the UE 100 is small, the type of NN model and division points for processing more layers on the application server 400 are determined.
  • the processing capability of the UE 100 may be managed as a UE radio capability, or may be provided from the UE 100 to the RAN 200 as an IE (Information Element).
  • the processing capacity of the UE 100 is the processing capacity of processors such as the CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), etc., and the processing capacity of the wireless communication unit of the UE 100.
  • the processing capacity of the radio communication unit is, for example, the number of antenna ports, the number of MIMO layers, parameters related to the effect of spatial multiplexing, and the number of beams that can be transmitted and received simultaneously, parameters related to improving the SNR (Signal to Noise Ratio). , DC (Dual Connectivity)/CC (Carrier Aggregation), parameters related to extension of bandwidth for transmission and reception.
  • Each beam is identified for each SS (Synchronization Signal Block)/PBCH block (Physical Broadcast CHannel).
  • the radio base station 20 may determine division points based on the computational load of the UE 100 . For example, if the computational load of the UE 100 is low, the NN model types and division points that allow the UE 100 to process more layers are determined. For example, if the computational load of the UE 100 is high, the type of NN model and division points for processing more layers on the application server 400 are determined. The UE 100 may report the computational load to the radio base station 20 when the computational load exceeds a certain threshold (for example, 70%).
  • a certain threshold for example, 70%
  • the radio base station 20 may determine division points based on the remaining battery level of the UE 100 . For example, if the remaining battery capacity of the UE 100 is large, the type of NN model and division points that allow the UE 100 to process more layers are determined. For example, if the remaining battery capacity of the UE 100 is low, the type of NN model and the division point for processing more layers on the application server 400 are determined. The UE 100 may report the remaining battery level to the radio base station 20 when the remaining battery level becomes less than a certain threshold (for example, 40%).
  • a certain threshold for example, 40%
  • the radio base station 20 may determine the division point with the smallest data size based on the data size information of the hidden layer data for each division point. For example, if the processing capabilities of UE 100 and application server 400 are sufficient, the radio access network portion between UE 100 and RAN 200 becomes a bottleneck in the network from UE 100 to application server 400 . The RAN 200 can minimize the transmission delay of the radio access network portion that is the bottleneck by determining the division point with the smallest data size. The radio base station 20 may determine division points based on the number of nodes forming layers of the NN model instead of the data size of the hidden layer data.
  • the radio base station 20 When there are a plurality of NN model types and division point candidates, the radio base station 20 performs scrambling and/or interleaving during transmission within a range that allows transmission within a preset time.
  • the type of NN model and split points that can improve reliability may be determined.
  • data compression is performed at the time of transmission to compress the data size of the hidden layer data within a range that can be transmitted within a preset time. It is also possible to determine the type of NN model that can be used and the division point.
  • Scrambling, interleaving, or data compression during transmission may be considered when the type of NN model and candidate split points cannot be specified in the GFBR or UE-AMBR data rate criteria.
  • the radio base station 20 can improve reliability by performing scrambling and/or interleaving during transmission by GFBR or UE-AMBR within a range that can be transmitted within a preset time.
  • NN model types and segmentation point candidates capable of transmitting compressed hidden layer data.
  • the radio base station 20 determines the type of the NN model and the lower limit value of BLER for each division point of the NN model included in the profile information of the NN model. Identify candidate split points. In this method, the radio base station 20 functions as a divider.
  • the radio base station 20 can identify the type of NN model and the candidate division point based on the identified 5QI PER (Packet Error Rate) and the lower limit of BLER for each division point of the NN model.
  • the radio base station 20 may monitor the communication quality, eg, SNR, with the UE 100, and identify the NN model type and division point candidates based on the BLER corresponding to the communication quality.
  • the radio base station 20 may dynamically change the division point of the NN model based on the dynamically changing communication quality and the lower limit value of BLER for each division point of the NN model.
  • the radio base station 20 sends a message requesting the AMF 301 to change the QFI, for example, a PDU Session Modification Request. You may send.
  • the radio base station 20 may include the requested PER value or the requested QFI in the message.
  • the AMF 301 Upon receiving the PDU Session Modification Request message from the RAN 200, the AMF 301 sends to the SMF 306 a message (eg, Nsmf_PDUSession_UpdateSMContext Request) requesting modification of the QFI assigned to the current PDU session. This allows the AMF 301 to request a QoS change.
  • AMF 301 may include the PDU Session ID and requested QFI in the message.
  • SMF 306 receives a message requesting a change of QFI. If the SMF 306 grants the requested QFI, it allocates a new QFI to the PDU session. SMF 306 responds with a Nsmf_PDUSession_UpdateSMContext Response message. SMF 306 notifies RAN 200 of the updated QFI and QoS profile via AMF 301 .
  • the RAN 200 identifies NN model type and division point candidates based on the PER of 5QI identified through the new QoS profile and the lower limit of BLER for each division point of the NN model.
  • FIG. 5 is a diagram illustrating an example of connection processing of the 5G system 1000.
  • UE 100 S501 in RRC_IDLE and CM-IDLE state performs cell reselection processing and camps on a suitable cell that satisfies predetermined criteria (S502).
  • the UE 100 determines to use an application that utilizes an NN (Neural Network) model for AI (Artificial Intelligence), it identifies a network slice corresponding to the application that utilizes the NN model (S503). By specifying a network slice, the UE 100 selects an S-NSSAI (Single NSSAI) corresponding to the specified application from Allowed NSSAI (Network Slice Selection Assistance Information).
  • NN Neurological Network
  • AI Artificial Intelligence
  • S-NSSAI is information for assisting network slice selection, and is the same SST (Slice/Service Type) consisting of 8-bit mandatory SST (Slice/Service Type) that identifies the slice type. It consists of an optional SD (Slice Differentiator) set consisting of 24 bits for distinguishing different slices in the .
  • the UE 100 transmits an RRCSetup Request message to the wireless base station 20 that is camping on (S504).
  • the UE 100 receives the RRCSetup message from the radio base station 20 (S505).
  • the UE 100 transitions to the RRC_CONNECTED and CM-IDLE state (S506).
  • the UE 100 responds to the RRC Setup Complete message to the radio base station 20 and completes the RRC setup (S507).
  • the UE 100 transmits a PDU SESSION ESTABLISHMENT REQUEST message, which is a NAS message, to AMF 301 (S508). Between the UE 100 and the DN 340, a PDU session establishment process, which will be described later, is executed via the radio base station 20-1 and the UPF 330 (S509). The UE 100 is in a state of RRC_CONNECTED and CM-CONNECTED (S510).
  • the PDU SESSION ESTABLISHMENT REQUEST message may include the UE 10 selected S-NSSAI.
  • the AMF 310 generates UE context data including PDU session context, Security Key, UE Radio Capabilities and UE Security Capabilities.
  • the AMF 310 transmits UE context data to the radio base station 20 using the INITIAL CONTEXT SETUP REQUEST message (S511).
  • the radio base station 20 sets the UE Context of the UE 100.
  • This INITIAL CONTEXT SETUP REQUEST message contains the Allowed NSSAI and can further contain the S-NSSAI for each PDU session.
  • the radio base station 20 transmits a SecurityModeCommand message to the UE 100 (S512).
  • the radio base station 20 notifies the UE 100 of the selected integrity algorithm using the SecurityModeCommand message.
  • the UE 100 confirms the validity of this message by verifying the integrity of the received message and responds with a SecurityModeComplete message (S513).
  • the radio base station 20 notifies the UE 100 of an RRCReconfiguration message in order to set SRB (Signaling Radio Bearer) 2 and DRB (Data Radio Bearer) (S514).
  • SRB Signal Radio Bearer
  • DRB Data Radio Bearer
  • the radio base station 20 receives the RRCReconfigurationComplete message from the UE 100 (S515).
  • the radio base station 20 transmits an INITIAL CONTEXT SETUP RESPONSE message to the AMF 301 to notify that the UE Context setting process has been completed (S516).
  • FIG. 6 shows an example of PDU session establishment processing in S509.
  • the PDU session establishment process of S509 is started when step S508 is completed.
  • the AMF 301 executes SMF selection processing (S601). In the SMF selection process, AMF 301 determines whether the received PDU SESSION ESTABLISHMENT REQUEST message contains S-NSSAI. If the received PDU SESSION ESTABLISHMENT REQUEST message does not contain an S-NSSAI, AMF 301 determines the S-NSSAI for the requested PDU session from the UE 100's current Allowed NSSAI.
  • AMF 301 determines whether the Allowed NSSAI contains one S-NSSAI. If the Allowed NSSAI contains one S-NSSAI, AMF 301 uses the S-NSSAI contained in the Allowed NSSAI.
  • the AMF 301 selects the S-NSSAI according to the UE subscription of the UE 100 or the PLMN operator's policy.
  • AMF 301 selects this default S-NSSAI.
  • the AMF 301 determines the default DNN as the DNN for the S-NSSAI.
  • DNN corresponds to APN (Access Point Name) used in systems prior to 4G.
  • AMF 301 determines a locally configured DNN as the DNN for this S-NSSAI. The same is true when the UE 100 and the 5G network use APNs or ASNs (Application Server Names) instead of DNNs.
  • AMF 301 uses NRF 303 for SMF discovery unless information about SMF is available by other means (eg, if configured locally in AMF).
  • AMF 301 provides location information of UE 100 to NRF 303 when attempting to discover an SMF instance.
  • NRF 303 provides NF profiles of one or more SMF instances to AMF 301 in response.
  • NRF 303 provides AMF 301 with information about the coverage of the SMF instance.
  • the AMF 301 selects an SMF instance based on information on available SMF instances acquired from the NRF 303 or information on SMFs set in the AMF 301 in advance. In embodiments of the present disclosure, AMF 301 selects SMF 306, but may select other SMFs. For example, if there are multiple SMFs, an SMF other than SMF 306 may be selected.
  • the SMF selection process may be executed by methods other than those based on the settings of the AMF 301 .
  • the NSSF 304 may be located in the serving PLMN and obtain the necessary information from the NSSF 304 .
  • AMF 301 may invoke NNssf_NSSelection_Get service to NSSF 306 to obtain information from NSSF 306 necessary to select an SMF instance.
  • the AMF 301 may consider the selected DNN, the S-NSSAI, or optionally the NSI-ID (Network Slice Instance Identifier) associated with the S-NSSAI, contract information obtained from the UDM 307, and the like.
  • the NSI-ID Network Slice Instance Identifier
  • the AMF 301 sends an Nsmf_PDUSession_CreateSMContext Request message to the SMF 306, which is the SMF instance selected in the SMF selection process (S602).
  • Nsmf_PDUSession_CreateSMContext Request includes SUPI, S-NSSAI, UE Requested DNN, or DNN.
  • Session Management Subscription data corresponding to SUPI, DNN and S-NSSAI is not available, SMF 306 retrieves Session Management Subscription data from UDM 307 using Nudm_SDM_Get. The SMF 306 subscribes using Nudm_SDM_Subscribe to be notified when the SessionManagement Subscription data is updated.
  • the SMF 306 If the SMF 306 can process the PDU Session Establishment Request, the SMF 306 creates an SM context and provides the SM Context ID in response to the Nsmf_PDU Session_Create SM Context Response to the AMF 301 (S603).
  • the SMF 306 activates the PDU Session establishment authentication/authorization process (S604).
  • the SMF 306 executes PCF Selection (S605). SMF 306 may apply local policies to the PDU sessions it establishes.
  • the SMF 306 may execute the SM Policy Association establishment procedure to establish an SM Policy Association with the PCF 305 and obtain the default PCC Rules for the PDU session (S606). This makes it possible to acquire the PCC Rules before selecting the UPF 330.
  • the SMF 306 executes UPF Selection, selects one or more UPFs 330, and establishes an interface N4 with the selected UPFs 330 (S607). If multiple UPFs 330 are selected for the PDU session, SMF 306 establishes interface N4 for each UPF 330 .
  • the SMF 306 sends an NN model splitting setting inquiry message to the AF 308 based on the S-NSSAI and DNN (or ASN) contained in the Nsmf_PDUSession_CreateSMContext Request message (S608). This makes it possible to obtain information necessary for distributed processing of computation of the NN model for the S-NSSAI executed by the application server 400 or DN340.
  • SMF 306 sets QFI(s) based on S-NSSAI.
  • the SMF 306 may consider the DNN (or ASN) in setting QFI(s).
  • AF 308 requests information on NN model splitting setting from application server 400 or DN 340 in order to acquire profile information of the NN model managed by application server 400 or DN 340 (S609).
  • AF 308 acquires information on NN model splitting setting from application server 400 or DN 340 (S610).
  • Information about the NN model splitting setting includes at least profile information of the NN model.
  • the AF 308 responds to the SMF 306 with an NN model splitting setting response message containing information on the NN model splitting setting (S611).
  • the SMF 306 sends a Namf_Communication_N1N2 MessageTransfer message to the AMF 301 (S612).
  • the Namf_Communication_N1N2MessageTransfer message includes PDU Session ID, N2 SM information, CN Tunnel Info, S-NSSAI, N1 SM container.
  • the N2 SM information includes information on PDU Session ID, QFI(s), QoS Profile(s), NN model splitting setting, and the like.
  • CN Tunnel Info includes tunnel information related to these multiple UPFs 330 terminating N3.
  • the N1 SM container contains the PDU Session Establishment Accept that the AMF 301 has to provide to the UE 10 .
  • the PDU Session Establishment Accept contains the S-NSSAI.
  • the Namf_Communication_N1N2 MessageTransfer message contains the PDU Session ID so that the AMF 301 knows which access to use for the UE 10 .
  • the AMF 301 transmits the N2 PDU Session Request message to the RAN 200 (S613).
  • AMF301 is NAS (Non-ACCESS-STR (Non-ACCESS-STR Atum) Send a message and N2 SM Informention received from SMF306 to Ran 200 .
  • the RAN 200 determines splitting points of the NN model by a method described later based on the information on the number of splits, QFI(s), QoS Profile(s) and NN model splitting setting (S614).
  • the RAN 200 forwards the NAS message including the PDU Session ID and N1 SM container to the UE 100 (S615).
  • the N1 SM container contains a PDU Session Establishment Accept.
  • the RAN 200 responds with an N2 PDU Session Response message to the AMF 301 (S616).
  • the RAN 200 notifies the UE 100 of the determined division point of the NN model (S617).
  • the AMF 301 transfers the N2 SM information received from the RAN 200 to the SMF 306 via the Nsmf_PDUSession_UpdateSMContext Request message including the SM Context ID and the N2 SM information (S618).
  • the SMF 306 initiates an N4 Session Modification procedure with the UPF 330 and transmits an N4 Session Modification Request message to the UPF 330 .
  • the SMF 306 provides the AN Tunnel Info in addition to the forwarding rules to the UPF 330 .
  • the UPF 330 can make settings related to the transfer of data of the neural network model processed by the UE 100 for each calculation process, according to the transfer rule.
  • UPF 330 responds to SMF 306 with an N4 Session Modification Response message.
  • a method other than the radio base station 20 determining the division point based on the QFI, QoS profile, and profile information of the NN model may be used. For example, after the process of S611, the SMF 306 may determine division points in a similar manner and notify the RAN 200 via the AMF 301 of them. An example has been shown in which the radio base station 20 determines the division point based on the QoS data rate or the PER. You may make it determine a division point based on.
  • the radio base station 20 When handover from the source gNB, which is the radio base station 20, to the target gNB is executed according to the mobility of the UE 100, the radio base station 20 re-executes the NN model division point determination process (S614).
  • the NN model division point determination process can be For example, information about the NN model splitting setting may be transferred to the target gNB via the Xn interface between the source gNB and the target gNB.
  • the present disclosure it is possible to divide a plurality of layers forming a neural network model based on profile information. That is, it is possible to set a communication device for processing calculations for each divided neural network model, thereby improving network delay in specific calculation processing. This makes it possible to improve the execution delay of specific arithmetic processing.
  • the profile information of the NN model created by the application server 400 an example of the relationship between the BLER for each division point of the NN model and the final inference accuracy of the AI application is shown, but the present invention is not limited to this example. For example, BER (Bit Error Rate) or PER (Packet Error Rate) may be used instead of BLER.
  • FIG. 7 shows an example of distributed processing of NN models in a 5G network including IAB.
  • the 5G system 2000 of the second embodiment provides the functions of the RAN 200 of the 5G system 1000 of the first embodiment by the IAB 50 in addition to the radio base station 20 .
  • the RAN 200 functions as a distributed network capable of distributed processing among multiple nodes by providing the functions of the RAN 200 by the IAB 50 in addition to the radio base station 20 .
  • the radio base station 20, which is a donor node can utilize the IAB 50 as a one-hop or multi-hop relay node.
  • a distributed network may be a network other than a relay network using the IAB 50 .
  • it may be a repeater communication, a mesh network, or the like.
  • a distributed network may communicate directly between terminals.
  • a relay network may be configured by communication such as Bluetooth, UWB, WiFi, 3GPP Sidelink (PC5).
  • the 5G system 2000 may, for example, perform computation by treating the IAB 50 as an edge server that provides computing power within the 5G network.
  • the UPF 330 of the core network 300 also functions as a radio communication unit capable of communicating with the radio base station 20 .
  • the UE 100 running an AI application can communicate with the core network 300 via the radio base station 20 (first radio base station).
  • the UE 100 running arithmetic processing other than the AI application can communicate with the core network 300 via the radio base station 20 (second radio base station).
  • the UPF 330 may communicate with the radio base stations via the backhaul IAB 50 .
  • the radio base station 20 can also communicate indirectly with the core network 300 .
  • the UE 100 can communicate with the core network 300 via a different radio base station 20 .
  • the radio base stations 20 that are not directly connected to the core network 300 can be treated as radio terminals.
  • the 5G system 2000 is composed of UE 100 , IAB 50 , radio base station 20 and core network 300 .
  • the 5G system 2000 is connected with the application server 400 via the Internet.
  • the 5G system 2000 can distribute computational processing of the NN model to the UE 100 , the IAB 50 and the application server 400 when the UE 100 decides to use an application that utilizes the NN model.
  • Embodiments of the present disclosure may, for example, distribute processing as follows.
  • IAB-MT 501 of IAB 50 builds interface Uu with DU 202 of radio base station 20 .
  • CU 201 of radio base station 20 and IAB-DU 502 of IAB 50 establish interface F1 on this interface Uu.
  • the IP layer is communicated on a BAP (Backhaul Adaptation Protocol) sublayer, and the BAP PDUs are communicated via a BH (BackHaul) RLC channel.
  • the IP layer can set up multiple BH RLC channels for each BH link for traffic priority and Quality of Service (QoS) treatment.
  • QoS Quality of Service
  • the IP layer can set different QoS processing for each BH RLC channel, and the BAP sublayer can process mapping between traffic and BH RLC channels for priority and QoS processing.
  • the CU 201 of the radio base station 20 acquires the QoS Profile(s) for each BH RLC channel from the core network 300.
  • the QoS Profile(s) for this BH RLC channel are updated.
  • the neural network model 4000 is composed of a plurality of sub-neural network models 4100 and can be divided into sub-neural network models 4100 .
  • the CU 201 and the IAB-DU 502 of the IAB 50 can operate as a radio base station for the UE 100, that is, as the RAN 200 in FIG.
  • the 5G network performs PDU session establishment processing according to the processing shown in FIG.
  • the CU 201 of the radio base station 20 acquires N2 SM information from the SMF 306 via the AMF 301 .
  • the N2 SM information includes information on PDU Session ID, QFI(s), QoS Profile(s), NN model splitting setting, and the like.
  • the split points of the NN model can be determined in any way. For example, when processing AI in the 5G system 1000, the case of processing only with DN 340, the case of distributing processing between IAB 50 and DN 340, the case of distributing processing between the terminal and IAB 50, the case of distributing processing between the terminal and DN 340, A case where the processing is distributed among the terminals, the IAB 50 and the DN 340, and a case where the processing is performed only by the terminal can be considered.
  • AI processing is processed by application server 400 connected via the Internet in addition to DN340 included in core network 300.
  • AI processing is distributed to IAB 50 included in RAN 200, DN 340 included in core network 300, and application server 400 connected via the Internet.
  • AI processing is distributed between the terminal UE 100, the IAB 50 included in the RAN 200, and the application server 400 connected via the Internet.
  • AI processing is distributed between the terminal UE100, the DN340 included in the core network 300, and the application server 400 connected via the Internet.
  • AI processing is performed by UE 100, which is a terminal, IAB 50 included in RAN 200, and DN 340 included in core network 300.
  • applications connected via the Internet Distributed and processed by the server 400 are connected via the Internet Distributed and processed by the server 400 .
  • AI processing is added to the terminal UE 100, and the application server 400 connected via the Internet distributes the processing.
  • the number of divisions of the NN model is two.
  • the application server 400 or the DN 340 predetermines the division points for the number of divisions for each NN model, the NN model is specified according to the application used by the UE 100, as in the case of distributed processing by the terminal and the network device. be done.
  • the division points are determined in advance, the division points of the NN model corresponding to the division number 2 are uniquely determined.
  • the CU 201 of the radio base station 20 determines splitting points of the NN model specified according to the application from the information on the NN model splitting setting.
  • the CU 201 distributes the calculation processing of the NN model to the IAB 50 and DN 340 or the application server 400 according to the determined division points.
  • the CU 201 of the radio base station 20 may determine split points based on the QFI, the QoS profile, the QoS Profile(s) for each BH RLC channel, and the profile information of the NN model. For example, the CU 201 of the radio base station 20 identifies the BH RLC channel mapped to the PDU Session ID and refers to the QoS profile applied to this BH RLC channel.
  • 5QI is applied to the QoS profile applied to the BH RLC channel.
  • the CU 201 of the radio base station 20 identifies the 5QI applied to the BH RLC channel mapped to the PDU Session ID. Determining the dividing point when transmitting hidden layer data between the IAB 50 and the DN 340 (or the application server 400) by the method of determining the dividing point based on the profile information of the NN model in the case of distributing processing between the terminal and the network device. do.
  • the IAB 50 is included in the RAN 200 and can be treated as a network device.
  • the case is considered to be equivalent to the case in which the terminal and the network device perform distributed processing, so the explanation is omitted.
  • a case of distributing AI processing a case of distributing processing between terminals and DN 340 will be described.
  • it passes through two radio sections: between the terminal UE 100 and the IAB 50 (first radio section) and between the IAB 50 and the radio base station 20 (second radio section).
  • the number of divisions of the NN model is 2 in order to distribute the processing between the terminal and the DN 340 .
  • the method of determining the dividing point in this case includes a method of determining the dividing point in advance, a method of determining the dividing point based on the QoS data rate, and a method of determining the dividing point based on the QoS PER.
  • the application server 400 or DN 340 predetermines division points for the number of divisions for each NN model.
  • application server 400 or DN 340 functions as a divider.
  • the NN model is specified by determining the application used by the UE 100 . In this case, since the division points are determined in advance, the division points of the NN model corresponding to the division number 2 are uniquely determined.
  • the CU 201 of the radio base station 20 determines split points of the NN model specified according to the application from the information on the NN model splitting setting.
  • the CU 201 distributes the calculation processing of the NN model to the UE 100 and the DN 340 or the application server 400 according to the determined division points.
  • CU 201 determines split points based on QFI, QoS profile, QoS Profile(s) per BH RLC channel, and NN model profile information. .
  • the CU 201 functions as a divider.
  • CU 201 identifies the first 5 QIs to apply for hidden layer data transmission between the terminal and IAB 50 from the QoS profiles corresponding to the QFIs.
  • the CU 201 identifies the second 5QI applied to the BH RLC channel mapped to the PDU Session ID.
  • the CU 201 uses the first 5QI and the second 5QI in a manner similar to determining the split point based on the QoS data rate in the case of distributed processing between terminals and network devices.
  • the CU 201 estimates the time required for transmission based on the data size of the hidden layer data and GFBR or UE-AMBR, and transmits the hidden layer data within a preset time. Identify point candidates.
  • CU 201 estimates the time required for transmission based on the data size of hidden layer data and GFBR or UE-AMBR, the Packet Delay Budget of the identified first 5QI and second 5QI is taken into consideration. good too.
  • the hidden layer data transmitted with low delay over the first radio section is transferred to the second radio section. cannot be transmitted at the same data rate in the IAB 50, buffering is performed once in the IAB 50.
  • the buffered hidden layer data is transmitted to DN 340 (or application server 400) via the second radio link.
  • the CU 201 of the radio base station 20 based on the buffer status of the IAB 50, the data rates of the first radio section and the second radio section, and the data size of the hidden layer data of each division point, the NN model Identify types and candidate split points.
  • the division points may be further determined based on the processing capability of the UE 100 . For example, if the processing capability of the UE 100 is large, the types and division points of the NN model that allow the UE 100 to process more layers are determined. For example, if the processing capability of the UE 100 is small, the types and division points of the NN model for processing more layers on the application server 400 side are determined.
  • the processing capability of the UE 100 may be managed as a UE radio capability, or may be provided from the UE 100 to the CU 201 as an IE (Information Element).
  • the CU 201 may determine the division point with the smallest data size based on the data size information of the hidden layer data for each division point. For example, if the processing capabilities of the UE 100 and the application server 400 are sufficient, the transmission delay in the wireless section becomes a bottleneck. The CU 201 can minimize transmission delay by determining the division point with the smallest data size. The CU 201 may use the number of nodes forming the layers of the NN model instead of the data size of the hidden layer data.
  • the CU 201 When there are a plurality of NN model types and division point candidates, the CU 201 performs scrambling and/or interleaving at the time of transmission within a range that can be transmitted within a preset time to improve reliability. It is also possible to determine the type of NN model and the division point that can improve the . When there are a plurality of NN model types and division point candidates, the CU 201 performs data compression at the time of transmission within a range that can be transmitted within a preset time, and reduces the data size of the hidden layer data. can be compressed, and the division point may be determined.
  • Scrambling, interleaving, or data compression during transmission may be considered when the type of NN model and candidate split points cannot be specified in the GFBR or UE-AMBR data rate criteria.
  • the CU 201 can improve reliability by performing scrambling or / and interleaving during transmission by GFBR or UE-AMBR within a range that can be transmitted within a preset time NN
  • the type of model and candidate segmentation points, or the type of NN model and candidate segmentation points that are capable of transmitting compressed hidden layer data may be specified.
  • the CU 201 determines the type of the NN model and the division point based on the lower limit of the BLER for each division point of the NN model included in the profile information of the NN model. Identify candidates.
  • the CU 201 functions as a divider.
  • the CU 201 can identify NN model types and division point candidates based on the identified 5QI PER (Packet Error Rate) and the lower limit of BLER for each division point of the NN model.
  • the CU 201 monitors the communication quality between the UE 100 and the IAB 50 and between the IAB 50 and the radio base station 20, for example, the SNR, and based on the BLER corresponding to the communication quality, NN model types and division point candidates. may be specified.
  • the CU 201 may dynamically change the division point of the NN model based on the dynamically changing communication quality and the lower limit value of BLER for each division point of the NN model.
  • the CU 201 sends a message requesting a change of QFI to the AMF 301, for example, a PDU Session Modification Request. good too.
  • the CU 201 may include the requested PER value or the requested QFI in the message.
  • AMF 301 When AMF 301 receives the PDU Session Modification Request message from CU 201, AMF 301 sends to SMF 306 a message (eg, Nsmf_PDUSession_UpdateSMContext Request) requesting modification of the QFI assigned to the current PDU session. This allows the AMF 301 to request a QoS change.
  • the AMF 301 may include the PDU Session ID and the requested QFI in the message.
  • SMF 306 When SMF 306 receives a message requesting a change of QFI, if granting the requested QFI, SMF 306 assigns a new QFI to the PDU session and sends the updated QFI via AMF 301 in response with an Nsmf_PDUSession_UpdateSMContext Response message. , and the QoS profile to the CU 201 of the radio base station 20 .
  • the CU 201 identifies NN model types and division point candidates based on the PER of 5QI identified via the new QoS profile and the lower limit of BLER for each division point of the NN model.
  • the method of determining the dividing point in this case includes a method of determining the dividing point in advance, a method of determining the dividing point based on the QoS data rate, and a method of determining the dividing point based on the QoS PER.
  • the application server 400 or DN 340 predetermines division points for the number of divisions for each NN model.
  • application server 400 or DN 340 functions as a divider.
  • the NN model is specified by determining the application used by the UE 100 . In this case, since the division points are determined in advance, the division points of the NN model corresponding to the number of divisions of 3 are uniquely determined.
  • the CU 201 determines split points of the NN model specified according to the application from the information on the NN model splitting setting.
  • the CU 201 distributes the calculation processing of the NN model to the UE 100, the IAB 50 and the DN 340 or the application server 400 according to the determined division points.
  • CU 201 determines split points based on QFI, QoS profile, QoS Profile(s) per BH RLC channel, and NN model profile information. .
  • the CU 201 functions as a divider.
  • CU 201 identifies the first 5 QIs to apply for hidden layer data transmission between the terminal and IAB 50 from the QoS profiles corresponding to the QFIs.
  • the CU 201 identifies the second 5QI applied to the BH RLC channel mapped to the PDU Session ID.
  • the CU 201 uses the first 5QIs to determine the split point based on the QoS data rate in the case of distributed processing between the terminal and the network equipment, and the hidden layer Based on the data size of data and GFBR or UE-AMBR, the time required for transmission is estimated, and the type of NN model and the first division point that can transmit hidden layer data within a preset time Identify candidates.
  • the CU 201 uses the second 5QI for the latter NN model divided at the first division point, the data size and GFBR of the hidden layer data between the IAB 50 and the radio base station 20, or the UE-AMBR Based on this, the time required for transmission is estimated, and second segmentation point candidates that can transmit the hidden layer data within the preset time are identified.
  • the identified first 5QI or second 5QI Packet Delay Budget is taken into consideration. may
  • the CU 201 may further determine the first division point based on the processing capability of the UE 100 . For example, if the processing capability of the UE 100 is large, the type of NN model and the first division points that allow the UE 100 to process more layers may be determined. For example, if the processing capability of the UE 100 is small, the type of NN model and the first division point that process more layers on the side of the IAB 50 and the application server 400 may be determined.
  • the processing capability of the UE 100 may be managed as a UE radio capability, or may be provided from the UE 100 to the CU 201 as an IE (Information Element).
  • the CU 201 may further determine the second division point based on the processing capability of the IAB 50 . For example, if the processing power of the IAB 50 is large, the type of NN model and the second split point that allow the IAB 50 to process more layers may be determined. For example, if the processing capability of the IAB 50 is small, the type of NN model and the second division point that process more layers on the application server 400 side may be determined.
  • the CU 201 When there are a plurality of NN model types and division point candidates, the CU 201 performs scrambling and/or interleaving at the time of transmission within a range that can be transmitted within a preset time to improve reliability. It is also possible to determine the type of NN model and the division point that can improve the . When there are a plurality of NN model types and division point candidates, the CU 201 performs data compression at the time of transmission within a range that can be transmitted within a preset time, and reduces the data size of the hidden layer data. can be compressed, and the division point may be determined.
  • Scrambling, interleaving, or data compression during transmission may be considered when the type of NN model and candidate split points cannot be specified in the GFBR or UE-AMBR data rate criteria.
  • the CU 201 can improve reliability by performing scrambling or / and interleaving during transmission by GFBR or UE-AMBR within a range that can be transmitted within a preset time NN
  • the type of model and candidate segmentation points, or the type of NN model and candidate segmentation points that are capable of transmitting compressed hidden layer data may be specified.
  • the CU 201 determines the type of the NN model and the first A segmentation point and a candidate for a second segmentation point are identified. In this method, the CU 201 functions as a divider.
  • the CU 201 of the radio base station 20 determines the type and number of the NN model based on the PER (Packet Error Rate) of the identified first 5QI and the second 5QI and the lower limit of BLER for each division point of the NN model. 1 segmentation point and a second segmentation point candidate are identified.
  • the CU 201 of the radio base station 20 monitors the communication quality (for example, SNR) between the terminal and the IAB 50 and between the IAB 50 and the radio base station 20, and based on the BLER corresponding to the communication quality, determines the type and number of the NN model. 1 segmentation point and a second segmentation point candidate are identified.
  • the CU 201 of the radio base station 20 may dynamically change the division point of the NN model based on the dynamically changing communication quality and the lower limit of BLER for each division point of the NN model.
  • the CU 201 of the radio base station 20 sends the first QFI to the AMF 301 when none of the lower limits of BLER for each division point of the NN model satisfies the current PER of the first 5QI or the second 5QI. (QFI applied between terminal and IAB 50) or second QFI (QFI applied between IAB 50 and radio base station 20).
  • the CU 201 can include the requested PER value or the requested QFI in the message.
  • the AMF 301 Upon receiving the PDU Session Modification Request message from the CU 201 of the radio base station 20, the AMF 301 transmits to the SMF 306 a message (for example, Nsmf_PDUSession_UpdateSMContext Request) requesting modification of the QFI assigned to the current PDU session.
  • the AMF 301 may include the PDU Session ID and requested QFI in the message.
  • the SMF 306 When the SMF 306 receives a message requesting a change of the first QFI or the second QFI, if granting the requested QFI, the SMF 306 assigns a new QFI to the PDU session and responds with a Nsmf_PDUSession_UpdateSMContext Response message, The updated first QFI or second QFI and QoS profile are notified to the CU 201 of the radio base station 20 via the AMF 301 .
  • the CU 201 of the radio base station 20 divides the NN model type and division based on the lower limit of the PER of the first 5QI or the second 5QI identified through the new QoS profile and the BLER for each division point of the NN model. Identify point candidates.
  • a plurality of division points are determined, so it is important to determine division points that maximize the overall performance. For example, even if the data rate and delay characteristics of one radio section out of a plurality of radio sections satisfy the requirements, the data rates and delay characteristics of other radio sections become bottlenecks in the overall performance. A delay occurs in the calculation result of the model.
  • the CU 201 of the radio base station 20 selects the first 5QI applied to the first radio section from among a plurality of NN models and division point candidates.
  • Hidden layer data at the second division point estimated from the first period required for transmitting hidden layer data at the first division point estimated from and the second 5QI applied to the second radio section A combination of the first division point and the second division point that minimizes the total sum with the second period required for transmission of is determined.
  • the identified first 5QI and the second 5QI Packet Delay Budget may be taken into consideration.
  • the CU 201 of the radio base station 20 is divided at the first division point and the second division point in the arithmetic processing function of the IAB based on information such as the processing capacity and processing load of the arithmetic processing function of the IAB.
  • the third period required for the calculation of the NN model in the middle part By estimating the third period required for the calculation of the NN model in the middle part, the sum of the first period, the second period, and the third period is minimized at the first division point and the second division point.
  • a combination of division points may be determined.
  • the CU 201 of the radio base station 20 further selects the NN model of the front part divided at the first division point in the arithmetic processing function of the terminal from information such as the processing capacity and processing load of the arithmetic processing function of the terminal. Estimate the fourth period necessary for the calculation of the first division point and the second may be determined.
  • the CU 201 of the radio base station 20 may determine the division point based on the data size information of the hidden layer data for each division point. For example, when the data rate of the first radio section from the first 5QI and the second 5QI is higher than the data rate of the second radio section, the CU 201 of the radio base station 20 determines that the data size is the largest. The smaller segmentation point is the second segmentation point for transmitting the hidden layer data over the second radio link. The CU 201 selects the division point with the smallest data size from among the division point candidates in the front part of the NN model divided by the second division points to transmit the hidden layer data via the first radio section. is the first division point of .
  • the CU 201 of the radio base station 20 performs data The segmentation point with the smallest size is taken as the first segmentation point for transmitting the hidden layer data over the first radio link.
  • the CU 201 selects the division point with the smallest data size from among the division point candidates in the latter part of the NN model divided by the first division point to transmit the hidden layer data via the second radio section. is the second division point of .
  • the CU 201 may use the number of nodes forming the layers of the NN model instead of the data size of the hidden layer data.
  • the type of the NN model, the first dividing point, and the second dividing point candidates are determined by the method shown in the method for determining the dividing points based on the QoS PER. From among these candidates, a combination of the first division point and the second division point may be determined based on the data rate of QoS. From among the type of NN model extracted based on the QoS PER, the first division point, and the candidates for the second division point, the first necessary for transmitting the hidden layer data at the first division point A combination of the first division point and the second division point can be determined that minimizes the sum of the period and the second period required to transmit the hidden layer data at the second division point.
  • the CU 201 of the radio base station 20 is divided at the first division point and the second division point in the arithmetic processing function of the IAB based on information such as the processing capacity and processing load of the arithmetic processing function of the IAB. Estimate the third period required for the calculation of the middle-stage NN model and the fourth period necessary for the calculation of the front-stage NN model divided at the first division point in the arithmetic processing function of the terminal. Also, the combination of the first division point and the second division point that minimizes the total sum of the first period and the second period plus the third period and the fourth period is determined. good. Also, the CU 201 of the radio base station 20 may take into consideration the identified first 5QI and second 5QI Packet Delay Budget when estimating the time required to transmit the hidden layer data.
  • the CU 201 of the radio base station 20 determines the type of NN model and the Identify candidate split points.
  • the SMF 306 determines the division points after the processing of S611, and via the AMF 301
  • the CU 201 of the radio base station 20 may be notified.
  • source IAB which is RAN 200
  • target IAB which is RAN 200
  • radio base station 20 which is an IAB-donor node, repeats the NN model division point determination process (S614). may be executed.
  • the model division point determination process (S614) may be re-executed.
  • the nodes of the IAB 50 are provided with arithmetic processing functions. This means that the computational processing of the NN model within the 5G network can be further distributed among the IAB nodes. As a result, it is possible to prevent a shortage of processing power that causes delays in arithmetic processing.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the gist of the present invention at the implementation stage. Further, various inventions can be formed by appropriate combinations of the plurality of constituent elements disclosed in the above embodiments. For example, some components may be omitted from all components shown in the embodiments. Furthermore, components across different embodiments may be combined as appropriate.
  • a radio base station capable of communicating with a first communication device and a second communication device, a dividing unit that acquires first profile information corresponding to one or more neural network models, and determines dividing points for dividing a plurality of layers that make up the neural network model based on the first profile information; , Arithmetic processing of a first neural network model generated by dividing the neural network model at the dividing points is set in the first communication device, and the neural network model is generated by dividing the neural network model at the dividing points.
  • a radio base station comprising: a control unit that sets arithmetic processing of a second neural network model to the second communication device or the radio base station.
  • the first communication device is a wireless terminal, The radio base station according to item 1, wherein the second communication device is a radio terminal, another radio base station, a core network, or a server connected via a core network.
  • the first profile information includes a data size of hidden layer data for each division point of the neural network model, 4.
  • the radio base station according to any one of items 1 to 3.
  • the first profile information includes the relationship between the error rate at any of the division points and the inference accuracy of the output value output by the neural network model, 5.
  • the radio base station according to any one of items 1-4.
  • the radio base station according to any one of items 1 to 5, wherein the first profile information includes a lower limit value of the error rate for each division point that satisfies a threshold of inference accuracy of the neural network model.
  • the dividing unit acquires second profile information related to QoS, which is the order and priority of communication with the first communication device, and a GFBR (Guaranteed Flow Bit) notified via the second profile information. rate), or based on AMBR (Aggregate Maximum Bit Rate) and the data size of the hidden layer data divided at the division point included in the first profile information, at the time of transmission of the hidden layer data 7.
  • QoS is the order and priority of communication with the first communication device
  • GFBR Guard Flow Bit
  • AMBR Average Maximum Bit Rate
  • the radio base station according to any one of items 4 to 6, wherein a characteristic is calculated and the dividing point is determined based on the characteristic at the time of transmission of the hidden layer data.
  • the second profile information includes an allowable delay in the characteristic;
  • the dividing unit calculates the required time for transmitting the data size of the hidden layer data by the GFBR or the AMBR, and determines the dividing point where the required time satisfies the allowable delay.
  • [Item 9] The radio base station according to item 8, wherein when there is no division point that satisfies the allowable delay for the required time, a change of the QoS set for the communication is requested.
  • the dividing unit specifies a lower limit of the error rate for each dividing point that satisfies a threshold of inference accuracy of the neural network model based on the relationship included in the first profile information, 10.
  • the radio base station according to any one of items 5 to 9, wherein the dividing point is determined based on the lower limit of the error rate.
  • the dividing unit acquires an error rate related to communication with the first communication device, and based on the acquired error rate and the lower limit of the error rate for each of the dividing points included in the first profile information 11.
  • the radio base station according to any one of items 6 to 10, wherein the dividing point is determined by [Item 12] Item 12.Described in item 11, wherein the dividing unit requests a change of the QoS set for the communication when the obtained error rate related to the communication does not satisfy any of the lower limit values of the error rate for each division point. wireless base stations.
  • the radio base station according to any one of items 1 to 12, wherein the radio base station communicates with the first communication device directly or via a distributed network capable of distributed processing among a plurality of nodes.
  • the first communication device operates a first arithmetic process which is a process based on artificial intelligence.
  • 15 15.
  • the wireless base station according to item 14 wherein the first arithmetic processing is processing based on augmented reality, automatic driving, robot control, image recognition, or voice recognition.
  • the division point is divided for each sub-neural network model.
  • a control method for a radio base station capable of communicating with a first communication device and a second communication device comprising: Obtaining first profile information corresponding to at least one or more neural network models, determining division points for dividing a plurality of layers constituting the neural network model based on the first profile information, Arithmetic processing of a first neural network model generated by dividing the neural network model at the dividing points is set in the first communication device, and the neural network model is generated by dividing the neural network model at the dividing points.
  • acquiring information related to the processing capability of the first communication device 19.
  • a program for causing a computer to execute a control step of setting arithmetic processing of a second neural network model to the second wireless terminal [Item 24] a communication unit that communicates with the first radio base station and the second radio base station; A division unit that obtains first profile information corresponding to at least one or more neural network models, and determines division points for dividing a plurality of layers that constitute the neural network model based on the first profile information. and, Arithmetic processing of a first neural network model generated by dividing the neural network model at the dividing points is set in the first radio base station, and the neural network model is generated by dividing the neural network model at the dividing points. a control unit configured to set the arithmetic processing of the second neural network model in the second radio base station.
  • [Item 25] Communicate with a first radio base station and a second radio base station; Obtaining first profile information corresponding to at least one or more neural network models, determining division points for dividing a plurality of layers constituting the neural network model based on the first profile information, Arithmetic processing of a first neural network model generated by dividing the neural network model at the dividing points is set in the first radio base station, and the neural network model is generated by dividing the neural network model at the dividing points.
  • a method of controlling a communication control apparatus, wherein arithmetic processing of a second neural network model to be performed is set in the second radio base station.
  • a communicating step of communicating with a first radio base station and a second radio base station A division step of obtaining first profile information corresponding to at least one or more neural network models, and determining division points for dividing a plurality of layers constituting the neural network model based on the first profile information. and, Arithmetic processing of a first neural network model generated by dividing the neural network model at the dividing points is set in the first radio base station, and the neural network model is generated by dividing the neural network model at the dividing points. and a control step of setting arithmetic processing of a second neural network model in said second radio base station.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

[課題]ネットワークの遅延を改善することを目的とする。 [解決手段]本開示の実施形態に係る無線基地局は、第1の通信装置および第2の通信装置と通信可能な無線基地局であって、1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置又は前記無線基地局に設定する制御部と、を備える。

Description

無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム
 本開示は、無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラムに関する。
 第5世代移動通信システム(5GS)は、高速大容量(eMBB: enhanced Mobile BroadBand)、低遅延・高信頼(URLLC: Ultra-Reliable and Low Latency Communications)、多数同時接続(mMTC: massive Machine Type Communication)という特徴を有する。
 5GSでは、ネットワークリソースの有効活用、ネットワークの効率的、省電力運用のためにAI(Artificial Intelligence)の活用が期待されている。
 AI(Artificial Intelligence)の活用では、機械学習モデル、特に、深層学習モデルを使用した推論(inference)および、当該モデルの学習(training)を期待しており、端末、ネットワーク装置から必要なデータを取得し、ネットワークの構成や無線通信品質を考慮することで、最適な活用をすることが望ましい。
3GPP(3rd Generation Partnership Project), "TR(Technical Report) 22.874, V0.1.0, Study on traffic characteristics and performance requirements for AI/ML model transfer"(5章 Split AI/ML operation between AI/ML endpoints) <URL:https://portal.3gpp.org/desktopmodules/Specifications/SpecificationDetails.aspx?specificationId=3721>
 本開示は、上述したような問題点に鑑みてなされたものであり、ネットワークの遅延を改善することを目的とする。
 本開示の実施形態に係る無線基地局は、第1の通信装置および第2の通信装置と通信可能な無線基地局であって、1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置又は前記無線基地局に設定する制御部と、を備える。
5GS(5G System)1000のネットワークアーキテクチャの構成を示すブロック図。 QoSアーキテクチャの一例を示す図。 IAB(Integrated Access and Backhaul)を含む5Gのネットワークアーキテクチャの構成の一例を示す図。 深層学習で用いられるディープニューラルネットワークモデルの構成の一例を示す図。 5Gシステムの接続処理の一例を示す図。 PDUセッション確立処理の一例を示す図。 IABを含む5GのネットワークでのNNモデルの分散処理の一例を示す図。
(第1の実施形態)
 図1は、5Gシステム(5G System)1000および周辺システムのネットワークアーキテクチャの構成を示す図である。
 5Gシステム1000は、UE(User Equipment)100、RAN(Radio Access Network)200、コアネットワーク300を備える。
 5Gシステム1000は、インターネットを介してアプリケーションサーバー400と接続されている。なお、アプリケーションサーバー400は、コアネットワーク300の装置として構成するようにしてもよい。
 UE100は、5Gシステム1000に接続する複数の無線端末である。UE100は、例えば、スマートフォン、モバイルパソコンである。UE100は、AIアプリケーションを稼働することができる端末であり、5Gシステム1000を介して5Gサービス上でアプリケーションの利用が可能となる。
 AIアプリケーションは、AI(人工知能)または機械学習に係る演算処理(第1の演算処理)である。当該アプリケーションは、例えば、Augmented Reality(拡張現実、AR)、自動運転、ロボティクス(ロボット制御)、画像認識または、音声認識などである。
 AIアプリケーションは、分散処理および、統合学習処理によって処理される。当該アプリケーションの処理には、ネットワークの低遅延性と処理能力を要する。
 本開示の実施形態では、UE100は、AIアプリケーションが稼働する無線端末(第1の通信装置)とAIアプリケーション以外の演算処理(第2の演算処理)が稼働する無線端末(第2の通信装置)とがあるが、他の種類の端末であってもよい。
 例えば、AIアプリケーション以外の演算処理が稼働する無線端末は、無線基地局、コアネットワーク、コアネットワークを介して接続されたサーバーであってもよい。
 RAN200は、端末と基幹通信網とを接続する無線アクセスネットワークである。
 本開示の実施形態では、RAN200は、端末であるUE100を基幹通信網であるコアネットワーク300に無線を介して接続し、NG(Next Generation)-RANとも称される。
 RAN200は、gNB、あるいは、ng-eNBと呼ばれる無線基地局20とIAB(Integrated Access and Backhaul、バックホールリンク)50によってネットワークを構成する。
 本開示の実施形態では、RAN200は、複数の無線基地局20によってネットワークを構成しており、複数のノード間で分散処理可能な分散型ネットワークとして機能する。
 無線基地局20は、UE100と直接通信する無線通信部として機能する。
 無線基地局20は、RAN200として、つまり、複数のノード間で分散処理可能な分散型ネットワークとしてUE100と通信してもよい。
 無線アクセスネットワークは、例えば、NG(Next Generation)-RAN、無線アクセスネットワーク以外のアクセスネットワークとの接続を可能にしてもよい。
 本開示の実施形態では、RAN200は、無線アクセスネットワークであるが、それ以外のネットワーク、例えば、アクセスネットワーク(Access Network、AN)などであってもよい。
 コアネットワーク300は、情報通信網の中核にあたる基幹通信網、バックボーンであり、5GC(5G CORE)やNGC(NG CORE)とも称される。
 コアネットワーク300は、後述する複数の機能群を備え、RAN200、インターネットと接続されている。
 コアネットワーク300の複数の機能群は、通信制御装置として機能する。
 コアネットワーク300は、AIアプリケーションが稼働する無線端末(第1の無線端末)と接続した無線基地局20(第1の無線基地局)と接続している。当該無線端末には、特定の処理としてAIアプリケーションに係る通信処理(第1の通信処理)が稼働している。
 コアネットワーク300は、AIアプリケーション以外の処理が稼働する無線端末(第2の無線端末)と接続した無線基地局20(第2の無線基地局)と接続している。当該無線端末には、特定の処理以外の処理としてAIアプリケーション以外の処理に係る通信処理(第2の通信処理)が稼働している。
 例えば、コアネットワーク300のコントロール・プレーンの機能群は、AMF(Access and Mobility Management Function)301と、NEF(Network Exposure Function)302と、NRF(Network Repository Function)303と、NSSF(Network Slice Selection Function)304と、PCF(Policy Control Function)305と、SMF(Session Management Function)306と、UDM(Unified Data Management)307と、AF(Application Function)308と、AUSF(Authentication Server Function)309と、UCMF(UE radio Capability Management Function)310とを含む、複数のNF(Network Function)を有する。
 UDM307は、加入者情報を保持、管理するUDR(Unified Data Repository)と、加入者情報を処理するFE(Front End)部を含む。AMF301は、モビリティ管理を行う。SMF306は、セッション管理を行う。UCMF310は、PLMN(Public Land Mobile Network)における全てのUE無線ケイパビリティID(UE Radio Capability ID)に対応するUE無線ケイパビリティ情報(UE Radio Capability Information)を保持している。UCMF310は、各PLMN-割り当てUE無線ケイパビリティID(PLMN-assigned UE Radio Capability ID)を割り当てる役割を担う。
 Nam301iは、AMF301が提供するサービスベースドインターフェース(Service-based interface)である。NNef302iは、NEF302が提供するサービスベースドインターフェースである。NNrf303iは、NRF303が提供するサービスベースドインターフェースである。NNssf304iは、NSSF304が提供するサービスベースドインターフェースである。Npcf305iは、PCF305が提供するサービスベースドインターフェースである。Nsmf306iは、SMF306が提供するサービスベースドインターフェースである。Nudm307iは、UDM307が提供するサービスベースドインターフェースである。Naf308iは、AF308が提供するサービスベースドインターフェースである。Nausf309iは、AUSF309が提供するサービスベースドインターフェースである。Nucmf310iは、UCMF310が提供するサービスベースドインターフェースである。
 各NFは、各サービスベースドインターフェースを介して他のNFと情報の交換を行う。
 UPF(User Plane Function)330は、ユーザ・プレーン処理の機能を有する。DN(Data Network)340は、MNO(Mobile Network Operator)独自のサービス、インターネット、サードパーティーのサービスへの接続を可能にする機能を有する。
 UPF330は、アプリケーションサーバー400で処理されたユーザ・プレーンのデータの転送処理部として機能する。
 UPF330は、無線基地局20と接続されるゲートウェイとしても機能する。
 UE100とAMF301間では、リファレンスポイントN1を介して相互に情報の交換が行われる。RAN200とAMF301間では、リファレンスポイントN2を介して相互に情報の交換が行われる。RAN200とUPF330間では、リファレンスポイントN3を介して相互に情報の交換が行われる。SMF306とUPF330間では、リファレンスポイントN4を介して相互に情報の交換が行われる。RAN200とDN340間では、リファレンスポイントN6を介して相互に情報の交換が行われる。
 SMF306では、IP及びEthernetタイプの両方のデータフロー(サービスデーターフロー)に対して適用できるサービスデーターフローごとのQoS制御を実行する。サービスデーターフローごとのQoS制御により、SMF306は特定のサービスそれぞれにオーソライズされたQoSを提供する。サービスベース(service-based)、契約ベース(subscription-based)、若しくは、PCF内部であらかじめ定義された(predefined PCF internal)のポリシーのようなポリシールールと合わせて、QoS契約者情報のような指標を利用してもよい。
 SMF306は、QoSフロー(QoS制御されるデータフロー)に関連するPCC(Policy and Charging Control)ルールを使って、QoSフローにオーソライズするQoSを決定する。SMF306は、QoSフローが削除された場合には、QoSフローが削除されたことをPCF305に通知することができる。また、SMF306は、QoSフローの保証されたビットレート、すなわち、GFBR(Guaranteed Flow Bit Rate)を保証できない場合には、GFBRを保証できないことをPCF305に通知することができる。
 QoSフローのQoS予約手順(QoS reservation procedure)として、UE-initiated QoSフローの確立が可能である。若しくは、変更処理の一部として要求するQoSのダウングレード或いはアップグレードが可能である。
 アプリケーションサーバー400は、アプリケーションを処理する。本開示の実施形態では、アプリケーションサーバー400は、インターネットを介して5Gシステム1000と接続することで、UE100で稼働するAIアプリケーションを処理できる。
 アプリケーションを提供する主体が5Gサービスを提供するPLMN(Public Land Mobile Network)オペレータとSLA(Service Level Agreement)などの契約を有する場合には、DN340として、アプリケーションサーバー400をコアネットワーク内に配置することもできる。アプリケーションサーバー400は、エッジサーバーの形態で提供されてもよい。
 図2は、QoSアーキテクチャの一例を示す。5GのQoSモデルでは、GBR(Guaranteed flow Bit Rate) QoSフローと、non―GBR QoSフローがサポートされている。GBR QoSフローは帯域保証型のQoSフロー、non―GBR QoSは、帯域非保証型のQoSフローに対応する。NAS(Non-Access Stratum)レベルでは、QoSフローの粒度で、PDU(Protocol Data Unit)セッション内での異なるQoSを扱うことができる。QoSフローは、NG-Uインターフェース上でカプセル化される。QoSフローは、ヘッダーとして運ばれるQFI(QoS Flow ID)によってPDUセッション内で識別される。
 UE100に対して、無線基地局20は、PDUセッションと共に、少なくとも1つの無線ベアラであるDRB(Data Radio Bearer)を確立でき、さらに、追加のDRBを確立することができる。DRBは、データを伝送するための論理的なパスである。RAN200とコアネットワーク300は、パケットを、サービスに適したQoSとDRBとに割り当てることによってサービスの質を担保する。
 NAS(Non-Access Stratum)におけるIPフローとQoSフローのマッピングと、AS(Access Stratum)におけるQoSフローとDRBのマッピングとの2段階が行われる。
 NAS(Non-Access Stratum)レベルでは、QoSフローは、コアネットワーク300からRAN200に提供されるQoSプロファイル(QoS profile、第2のプロファイル情報)と、コアネットワーク300からUE100に提供されるQoSルール(QoS rule(s))によって特徴づけられる。
 QoSプロファイルは、無線基地局20が無線インターフェース上の処理方法を決定するために利用される。一方、QoSルールは、アップリンクのユーザープレーン・トラフィックとQoSとのマッピングをUE100に指示するために利用される。
 QoSプロファイルは、SMF306によってAMF301を介してリファレンスポイントN2を介して、RAN200に提供される、或いは、あらかじめ、無線基地局20に設定されることで提供される。
 SMF306は、AMF301を介して1つ以上のQoSルールと、必要に応じて、これらのQoSルールに関連するQoSフローレベルのQoSパラメータとを、リファレンスポイントN1を介して、UE100に提供することができる。これに加えて、或いは、この代わりに、UE100は、Reflective QoS制御を適用することができる。ここで、Reflective QoS制御は、ダウンリンク・パケットのQFI(s)をモニターし、アップリンクに同じマッピングを適用するQoS制御である。
 QoSフローは、QoSプロファイルに応じて、GBR(帯域保証)、若しくは、non-GBR(帯域非保証)のいずれかのフロー種別であり得る。QoSフローのQoSプロファイルは、例えば、5QI(5G QoS Identifier)、ARP(Allocation and Retention Priority)などのパラメータを含む。
 ARPは、priority level(優先度)、pre-emption capability、pre-emption vulnerabilityに関する情報を含んでいる。ARPのpriority levelは、QoSフローの相対的な重要度を定義するもので、最も高い重要度を1として、1から15の範囲で設定される。
 ARPのpre-emption capabilityは、QoSフローが他のより低い優先度を持つQoSフローに既に割り当てられているリソースを使用することができるか否かを定義する指標である。
 ARPのpre-emption vulnerabilityは、他のより高い優先度を持つQoSフローに、QoSフローに割り当てられているリソースを明け渡してしまうか否かを定義する指標である。
 ARPのpre-emption capabilityとARPのpre-emption vulnerabilityには、“enabled”、若しくは、“disabled”のいずれかを設定する。
 GBR QoSフローの場合には、QoSプロファイルは、アップリンク及びダウンリンクのGFBR(Guaranteed Flow Bit Rate)、アップリンク及びダウンリンクのMFBG(Maximum Flow Bit Rate)、アップリンク及びダウンリンクの最大パケット損失率(Maximum Packet Loss Rate)、Delay Critical Resource Type、Notification Controlなどを含む。また、non-GBR QoSフローの場合には、QoSプロファイルは、RQA(Reflective QoS Attribute)、追加のQoSフロー情報(Additional QoS Flow Information)などを含む。
 QoSパラメータのNotification Controlは、QoSフローに対してGFBRを満たすことができない時にRAN200からの通知が要求されているか否かを示すものである。あるGBR QoSフローに対して、Notification Controlが“enable”で、かつ、RANがGFBRを満たすことができないと決定した場合には、RAN200は、SMF306に通知を送信しなければならない。その際、RAN200がこのGBR QoSフローのRANリソースの開放を要求する特別な状態、例えば、無線リンク障害(Radio Link Failure)やRAN内部での輻輳(RAN internal congestion)でない限り、無線基地局20は、QoSフローを維持しなければならない。無線基地局20が再びGFBRを満たすことができると判断した場合には、無線基地局20は、その旨の新たな通知をSMF306に送信する。
 AMBR(Aggregate Maximum Bit Rate)は、それぞれのPDUセッションのSession-AMBRとそれぞれのUEのUE-AMBRと関係している。Session-AMBRは、特定のPDUセッションに対する全てのnon-GBR QoSフローに渡って提供されると期待される総ビットレート(aggregate bit rate)を制限し、UPF(User Plane Function)330によって管理される。UE-AMBRは、あるUE100に対する全てのnon-GBR QoSフローに渡って提供されると期待される総ビットレート(aggregate bit rate)を制限し、無線基地局20によって管理される。
 5QIは、QoSの特徴に関係し、それぞれのQoSフローに対して、ノード固有のパラメータを設定するための指針(ポリシー)を提供する。標準化された、或いは、あらかじめ設定された5G QoSの特徴は、5QIから知ることができ、明示的なシグナリングはされない。シグナリングされるQoSの特徴は、QoSプロファイルの一部として含めることができる。QoSの特徴は、Priority level(優先度)、Packet Delay Budget(パケット遅延許容時間)、Packet Error Rate(パケットエラーレート)、Averaging window(平均ウィンドウ)、Maximum Data Burst Volume(最大データバースト量)などの要素で構成される。パケット遅延許容時間は、コアネットワーク300でのパケット遅延許容時間を含んでもよい。
 AS(Access Stratum)レベルでは、DRB(無線ベアラ)は、無線インターフェース(インターフェースUu)におけるパケット処理方法を定義する。任意のDRBは、パケットに対して同一のパケット転送処理を提供する。RAN200は、QFI(QoS Flow ID)と関連するQoSプロファイルに基づいて、QoSフローをDRBに割り当てる(マッピングする)。異なるパケット転送処理を要求するパケットに対して、別のDRBを確立することができる(図2参照)。或いは、同一のPDUセッションに属する複数のQoSフローを同じDRBに多重化することができる(図2参照)。
 アップリンクにおいて、QoSフローのDRBへのマッピングは、2つの異なる方法でシグナリングされるマッピングルールによって制御される。
 1つは、Reflective mappingと呼ばれる方法で、それぞれのDRBに対して、UE100は、ダウンリンク・パケットのQFI(s)をモニターし、アップリンクに同じマッピングを適用する。
 もう1つの方法は、Explicit Configurationと呼ばれる方法で、QoSフローのDRBへのマッピングルールは、RRC(Radio Resource Control)によって明示的にシグナリングされる。
 ダウンリンクにおいて、QFI(QoS Flow ID)は、RQoS(Reflective Quality of Service)のために無線基地局20によってインターフェースUu上でシグナリングされるが、無線基地局20もNAS(Non-Access Stratum)も、あるDRBで運ばれるQoSフローのためにReflective mappingを使うのでなければ、そのDRBのためのQFIはインターフェースUu上でシグナリングされない。アップリンクにおいて、無線基地局20は、UE100にインターフェースUu上でQFIをシグナリングすることを設定することができる。
 それぞれのPDUセッションに対して、デフォルトDRB(default DRB)を設定することができ、アップリンク・パケットが、Explicit ConfigurationにもReflective mappingにも適合しない場合には、UE100は、そのパケットをPDUセッションのデフォルトDRBにマッピングする。non-GBR QoSフローに対しては、コアネットワーク300は、同じPDUセッション上で確立されている他のnon-GBR QoSフローに比べてあるトラフィックの頻度を増やすことを指示するために任意のQoSフローに関連する追加のQoSフロー情報パラメータを無線基地局20に送信してもよい。
 無線基地局20は、PDUセッション内で、複数のQoSフローを1つのDRBにどのようにしてマッピングするかを決定できる。
 例えば、無線基地局20は、GBRフローとnon-GBR flowを同じDRBにマッピングしてもよいし、別々のDRBにマッピングしてもよい。
 無線基地局20は、複数のGBRフローを同じDRBにマッピングしてもよいし、別々のDRBにマッピングしてもよい。
 5G NRでは、QoSフローを介したQoS制御のためにSDAP(Service Data Adaptation Protocol)サブレイヤを新たに導入している。SDAPサブレイヤによって、QoSフローのトラフィックが適切なDRBにマッピングされる。SDAPサブレイヤは複数のSDAPエンティティを持つことができ、インターフェースUu上のPDUセッションごとにSDAPエンティティを有する。SDAPエンティティの確立、若しくは解放は、RRC(Radio Resource Control)によって行われる。QoSフローは、GTP-Uヘッダーに含まれるPDU Session Container内のQFIを使って識別される。PDUセッションは、GTP-U TEID(TuN Nel Endpoint IDentifier)を使って識別される。SDAPサブレイヤは、それぞれのQoSフローを特定のDRBにマッピングする。
 図3は、IAB(Integrated Access and Backhaul)を含む5Gのネットワークアーキテクチャの構成の一例を示す。
 5Gシステム1000のネットワークは、コアネットワーク300およびRAN200から構成される。
 無線基地局20は、AMF301または、UPF330とインターフェースNGを介して接続される。
 例えば、無線基地局20の一つである無線基地局20-1は、AMF301の一つであるAMF301-1、または、AMF301-2とインターフェースNGのコントロール・プレーンであるインターフェースNG-Cを介して接続される。例えば、無線基地局20の一つである無線基地局20-1は、UPF330の一つであるUPF330-1、或いはUPF330-2とインターフェースNGのユーザ・プレーンであるインターフェースNG-Uを介して接続される。
 無線基地局20は、CU(Central Unit)201とDU(Distributed Unit)202から構成され、インターフェースF1を介して接続される。CU(Central Unit)201は、制御プレーンを処理するCU(C-Plane)2011とユーザ・プレーンを処理するCU(U-Plane)2012から構成され、インターフェースE1を介して接続される。
 同様に、無線基地局20の一つである無線基地局20-2は、AMF301の一つであるAMF301-1、または、AMF301-2とインターフェースNGのコントロール・プレーンであるインターフェースNG-Cを介して接続される。
 同様に、無線基地局20の一つである無線基地局20-2は、UPF330の一つであるUPF330-1、或いはUPF330-2とインターフェースNGのユーザ・プレーンであるインターフェースNG-Uを介して接続される。
 無線基地局20-2は、IAB-donorノードとして、IAB50のノードの一つであるIAB50-1、IAB50-2と接続される。無線基地局20-2は、IAB50-1、及びIAB50-2と共にRAN200を構成する。
 親ノードである無線基地局20-2のDU202は、子ノードであるIAB50-1においてUEと等価な機能として扱われるIAB-MT(Mobile Termination)501との間でインターフェースUuを介して接続される。
 親ノードである無線基地局20-2のCU202は、インターフェースUu上のインターフェースF1を介して、子ノードであるIAB50-1のIAB-DU502と接続される。
 親ノードであるIAB50-1のIAB-DU502は、子ノードであるIAB50-2のIAB-MT501との間でインターフェースUuを介して接続される。さらに、親ノードである無線基地局20-2のCU202は、リレーノードであるIAB50-1を経由したインターフェースUu上のインターフェースF1を介して、子ノードであるIAB50-2のIAB-DU502と接続される。
 図4は、深層学習(Deep Learning)で用いられるディープニューラルネットワーク(DNN; Deep Neural Network)モデルの構成の一例を示す。
 ニューラルネットワークモデル4000は、複数のノードを含む入力層4001、隠れ層4002、出力層4003と呼ばれる層(レイヤ)から構成される。なお、隠れ層4002は中間層とも呼ばれる。
 ニューラルネットワークモデル4000のノードは、エッジを介して接続されている。入力層4001、隠れ層4002、出力層4003は、活性化関数と呼ばれる関数を持ち、エッジごとに重み付けされる。
 ディープニューラルネットワークモデルは、複数の隠れ層4002から構成される。機械学習(Machine Learning)では、コンピュータの処理能力の限界によって隠れ層4002の数が限られたニューラルネットワークモデルを使用する。
 深層学習ではコンピュータの処理能力の向上により、より多くの隠れ層4002の数を持つNNモデルの一形態であるDNNモデルを使用する。膨大なデータを使って学習させた学習済みのDNNモデルを使用することにより、認識、判断、或いは推定の精度が改善する。
 深層学習で使用される一般的なアルゴリズムには、畳み込みニューラルネットワーク(CNN; Convolutio NNeural Network)、再帰型ニューラルネットワーク(RNN; Recurrent Neural Network)、LSTM(Long Short-Term Memory)などがある。
 CNNでは、隠れ層4002は、畳み込み層(Convolution Layer)とプーリング層(Pooling Layer)と呼ばれる層から構成される。畳み込み層では、畳み込み演算によるフィルタリングを施し、特徴マップと呼ばれるデータを抽出する。プーリング層では、畳込み層から出力された特徴マップの情報を圧縮し、ダウンサンプリング(down sampling)を施す。
 RNNでは、隠れ層4002の値が再帰的に隠れ層4002に入力されるネットワーク構造を有し、例えば、短期間の時系列のデータが処理される。
 LSTMでは、RNNの隠れ層出力に対して、メモリセルと呼ばれる隠れ層の状態を保持するパラメータを導入することにより、遠い過去の出力の影響を保持することができる。LSTMは、RNNに比べてより長い期間の時系列のデータが処理される。
 深層学習が活用される代表的な技術領域として、画像認識、音声認識、自然言語処理、ロボットによる異常検知の4つの分野が挙げられる。画像認識では、SNS(Social Network Service)の人のタグ付けや自動運転といった用途に利用されている。音声認識では、スマートスピーカーなどに応用されている。自然言語処理では、ブラウザーによる検索や自動翻訳に応用されている。ロボットによる異常検知では、空港、鉄道、製造現場などで利用されている。
 UE100が、NNモデルを使ったAIアプリケーション処理を実行するに際し、NNモデルの演算処理を分散することができる。NNモデルは、複数の装置間で1つのNNモデルの演算処理を分散させるために、NNモデルは、構成する複数のレイヤを分割する任意の分割点で分割され、NNモデルの分割点の隠れ層データが無線通信を介して伝送させる。
 NNモデルの学習は、例えば、オフラインでアプリケーションサーバー400において行われる。
 アプリケーションサーバー400は、NNモデルのプロファイル情報(第1のプロファイル情報)を作成する。
 NNモデルのプロファイル情報は、例えば、NNモデルの分割点ごとの誤り率、例えば、BLER(BLock Error Ratio)と、ニューラルネットワークモデルが出力する出力値との最終的な推論精度との関係を含む。つまり、NNモデルのプロファイル情報は、NNモデルの分割点ごとのBLER(BLock Error Ratio)とAIアプリケーションの最終的な推論精度との関係を含む。
 NNモデルのプロファイル情報は、NN model splitting settingに関する情報を含む。
 NNモデルのプロファイル情報は、NNモデルの分割点ごとの隠れ層データのデータサイズを含む。また、アプリケーションサーバー400は、アプリケーションごとにNNモデルに要求される推論精度を管理して、NNモデルの分割点ごとにその推論精度を満たすBLERの下限を特定して、NNモデルのプロファイル情報にそのBLERの下限値を含めるようにしてもよい。
 アプリケーションサーバー400は、送信方法の種別ごとにNNモデルのプロファイル情報を作成してもよい。送信方法の種別は、例えば、送信データを事前に加工するための手法であり、スクランブリングの有無やスクランブリングの手法、インターリーブ有無やインターリーブの手法、隠れ層データを圧縮するための深層学習(Deep learning)ベースの圧縮方法を含むデータ圧縮有無やデータ圧縮方法などである。
 プロファイル情報は、例えば、誤り率値、例えば、BLER値ごとに対するAccuracy情報をScrambleの有無でまとめた情報である。
 プロファイル情報は、プロファイル情報のデータサイズに応じた、BLER値、Accuracy情報の粒度を決定する。
 プロファイル情報は、MLモデル番号であるModel ID、分割点なども併せて通知してもよい。
 アプリケーションサーバー400は、複数の種類のNNモデルを管理する場合には、NNモデルの種類ごとに、NNモデルのプロファイル情報を作成管理する。
 アプリケーションサーバー400は、複数のサーバーを含んでもよいし、サーバーごとにアプリケーションごとのNNモデルを管理するようにしてもよい。
 アプリケーションは、アプリケーションIDによって識別される。NNモデルは、NNモデルIDによって識別される。さらに、NNモデルの分割点は、分割点IDによって識別される。
 アプリケーションを特定すると、アプリケーションIDに対応するNNモデルIDによって、使用するNNモデルを特定することができる。さらに、分割点を特定すると、分割点IDによって分割点IDに対応するNNモデルのプロファイル情報を特定することができる。
 1つのアプリケーションが複数の種類のNNモデルに対応している場合には、アプリケーション及びNNモデルの種別を特定すると、アプリケーションIDとNNモデルIDによって、使用するNNモデルを特定することができる。
 NNモデルの分割点は、分割点を決定する分割部により任意の方法で決定することができる。
 例えば、5Gシステム1000でAIの処理をする場合、ネットワーク装置のみで処理するケース、端末とネットワーク装置で分散して処理するケース、端末のみで処理するケースのいずれかが考えられる。
 例えば、ネットワーク装置のみで処理するケースでは、AIの処理をRAN200、コアネットワーク300に含まれるネットワーク装置に加え、インターネットを介して接続されたアプリケーションサーバー400で処理する。
 例えば、端末とネットワーク装置で分散して処理するケースでは、AIの処理を端末であるUE100と、RAN200、コアネットワーク300に含まれるネットワーク装置に加え、インターネットを介して接続されたアプリケーションサーバー400で分散して処理する。
 以下では、AIの処理を分散するケースとして、NNモデルの分割数が2である端末とネットワーク装置で分散して処理するケースを説明する。
 分割点の決定方法は、あらかじめの分割点を決定する方法、QoSのデータレートに基づいて分割点を決定する方法、QoSのPERに基づいて分割点を決定する方法がある。
 例えば、あらかじめ分割点を決定する方法では、アプリケーションサーバー400、若しくはDN340が、NNモデルごとに分割数に対する分割点をあらかじめ決定する。
 当該方法では、アプリケーションサーバー400、若しくはDN340が分割部として機能する。
 AF308は、アプリケーションサーバー400のコントロール・プレーンの機能として上述したサービスベースドインターフェースを介してAMF301やSMF306を介してRAN200やUPF330のトラフィックに係る情報を取得する。トラフィックに係る情報は、例えば、トラフィックの負荷、データレート、伝送遅延などの情報である。
 アプリケーションサーバー400は、取得したトラフィックに係る情報に基づいて分割数を決定する。
 分割数に対する分割点は、NN model splitting settingに関する情報として管理される。
 NNモデルのプロファイル情報には、NN model splitting settingに関する情報が含まれるため、あらかじめ決定された分割点は、NNモデルのプロファイル情報に保存される。
 UE100が利用するアプリケーションは、アプリケーションごとに利用するNNモデルが決定している。
 UE100が利用するアプリケーションが決定することで、NNモデルが特定される。当該ケースでは、あらかじめ分割点を決定しているため、分割数2に対応するNNモデルの分割点が一義的に決定される。
 RAN200は、SMF306から受信したN2 SM informationを介してこの分割点に係る情報を取得する。RAN200は、あらかじめ決められた分割点をデフォルトの分割点として扱ってもよい。
 例えば、QoSのデータレートに基づいて分割点を決定する方法では、無線基地局20が、QFI、QoSプロファイル、及びNNモデルのプロファイル情報に基づいて分割点を決定する。
 当該方法では、無線基地局20が分割部として機能する。
 NNモデルのプロファイル情報は、例えば、分割点ごとの隠れ層データのデータサイズの情報を含む。
 無線基地局20は、QFIに対応するQoSプロファイルから隠れ層データ送信のために適用する5QIを特定する。
 特定した5QIは、Resource Type(GBR(帯域保証)、若しくは、non-GBR(帯域非保証))、Priority level(優先度)、Packet Delay Budget(パケット遅延許容時間)、Packet Error Rate(パケットエラーレート)、Averaging window(平均ウィンドウ)、Maximum Data Burst Volume(最大データバースト量)などがあらかじめ設定されている。
 無線基地局20は、例えば、GBR QoSフローの場合には、GFBR(Guaranteed Flow Bit Rate)、non-GBR QoSフローの場合には、UE-AMBRが、隠れ層データのデータサイズを送信するのに十分なデータレートであるか、否かを判断するに際し、隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて、送信に必要な時間を見積もる。
 無線基地局20は、GFBR、或いはUE-AMBRによって、隠れ層データをあらかじめ設定された時間内に送信することができるNNモデルの種類と分割点の候補を特定する。
 無線基地局20は、隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて送信に必要な時間を見積もる際に、特定した5QIのPacket Delay Budgetを加味してもよい。
 無線基地局20は、複数のNNモデルの種類と分割点の候補がある場合には、UE100の処理能力に基づいて分割点を決定するようにしてもよい。
 例えば、UE100の処理能力が大きければ、より多くの層をUE100が処理することができるNNモデルの種類と分割点を決定する。
 例えば、UE100の処理能力が小さければ、より多くの層をアプリケーションサーバー400で処理するNNモデルの種類と分割点を決定する。
 UE100の処理能力は、UE無線ケイパビリティとして管理されてもよいし、IE(Information Element)としてUE100からRAN200に提供されてもよい。
 ここで、UE100の処理能力は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサの処理能力や、UE100の無線通信部での処理能力である。無線通信部での処理能力は、例えばアンテナポート数、MIMOのレイヤ数等、空間多重の効果に関連するパラメータ、同時に送受信できるビームの数等、SNR(Signal to Noise Ratio)の改善に関連するパラメータ、DC(Dual Connectivity)/CC(Carrier Aggregation)等、送受信する帯域幅の拡張に関連するパラメータ等である。なお、各ビームは、SS(Synchronization Signal Block)/PBCHブロック(Physical Broadcast CHannel)毎に識別される。
 また、無線基地局20は、複数のNNモデルの種類と分割点の候補がある場合には、UE100の演算負荷に基づいて分割点を決定するようにしてもよい。
 例えば、UE100の演算負荷が低ければ、より多くの層をUE100が処理することができるNNモデルの種類と分割点を決定する。
 例えば、UE100の演算負荷が高ければ、より多くの層をアプリケーションサーバー400で処理するNNモデルの種類と分割点を決定する。
 UE100は、演算負荷がある閾値(例えば、70%)以上になると、無線基地局20にその演算負荷を報告するようにしてもよい。
 また、無線基地局20は、複数のNNモデルの種類と分割点の候補がある場合には、UE100のバッテリーの残量に基づいて分割点を決定するようにしてもよい。
 例えば、UE100のバッテリーの残量が大きければ、より多くの層をUE100が処理することができるNNモデルの種類と分割点を決定する。
  例えば、UE100のバッテリーの残量が小さければ、より多くの層をアプリケーションサーバー400で処理するNNモデルの種類と分割点を決定する。
 UE100は、バッテリーの残量がある閾値(例えば、40%)未満になると、無線基地局20にそのバッテリーの残量を報告するようにしてもよい。
 無線基地局20は、分割点ごとの隠れ層データのデータサイズの情報に基づいて、データサイズが最も小さい分割点を決定してもよい。
 例えば、UE100、アプリケーションサーバー400の処理能力が十分であれば、UE100からアプリケーションサーバー400までのネットワークにおいて、UE100とRAN200との無線アクセスネットワーク部分がボトルネックとなる。
 RAN200は、データサイズが最も小さい分割点を決定することで、ボトルネックとなる無線アクセスネットワーク部分の伝送遅延を最小化することができる。
 無線基地局20は、隠れ層データのデータサイズの代わりに、NNモデルのレイヤを構成するノードの数に基づき分割点を決定してもよい。
 無線基地局20は、複数のNNモデルの種類と分割点の候補がある場合に、あらかじめ設定された時間内に送信することができる範囲内で、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点を決定するようにしてもよい。
 複数のNNモデルの種類と分割点の候補がある場合には、あらかじめ設定された時間内に送信することができる範囲内で、送信時にデータ圧縮を行って、隠れ層データのデータサイズを圧縮することができるNNモデルの種類と分割点を決定するようにしてもよい。
 スクランブリング、インターリーブ、或いは送信時のデータ圧縮は、GFBR、或いはUE-AMBRのデータレートのクライテリアにおいて、NNモデルの種類と分割点の候補が特定できない場合に考慮するようにしてもよい。
 例えば、無線基地局20は、あらかじめ設定された時間内に送信することができる範囲内で、GFBR、或いはUE-AMBRによって、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点の候補、或いは圧縮された隠れ層データを送信することができるNNモデルの種類と分割点の候補を特定することができる。
 例えば、QoSのPERに基づいて分割点を決定する方法では、無線基地局20は、NNモデルのプロファイル情報に含まれるNNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの種類と分割点の候補を特定する。
 当該方法では、無線基地局20が分割部として機能する。
 無線基地局20は、特定した5QIのPER(Packet Error Rate)とNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と分割点の候補を特定することができる。
 無線基地局20は、UE100との間の通信品質、例えばSNRをモニターし、その通信品質に相当するBLERに基づいて、NNモデルの種類と分割点の候補を特定するようにしてもよい。
 無線基地局20は、動的に変化する通信品質と、NNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの分割点を動的に変更するようにしてもよい。
 無線基地局20は、NNモデルの分割点ごとのBLERの下限値のいずれもが現在の5QIのPERを満たさない場合には、AMF301にQFIの変更を要求するメッセージ、例えば、PDU Session Modification Requestを送信してもよい。
 無線基地局20は、当該メッセージに、要求するPERの値、或いは要求するQFIを含めてもよい。
 AMF301は、RAN200からPDU Session Modification Requestメッセージを受信すると、SMF306に現在のPDUセッションに割り当てられているQFIの変更を要求するメッセージ(例えば、Nsmf_PDUSession_UpdateSMContext Request)を送信する。これにより、AMF301は、QoSの変更を要求することができる。
 AMF301は、メッセージに、PDU Session IDと要求するQFIを含めることができる。
 SMF306は、QFIの変更を要求するメッセージを受信する。SMF306は、要求するQFIを許可する場合には、新たなQFIをPDUセッションに割り当てる。SMF306は、Nsmf_PDUSession_UpdateSMContext Responseメッセージを応答する。SMF306は、AMF301を介して、更新されたQFI、及びQoSプロファイルをRAN200に通知する。
 RAN200は、新たなQoSプロファイルを介して特定した5QIのPERとNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と分割点の候補を特定する。
 図5は、5Gシステム1000の接続処理の一例を示す図である。
 RRC_IDLE、かつCM-IDLEの状態のUE100(S501)は、セル再選択処理を行い、所定のクライテリアを満たすSuitable cellにキャンプオンする(S502)。
 UE100は、AI(Artificial Intelligence)のためのNN(Neural Network)モデルを活用するアプリケーションの利用を決定すると、NNモデルを活用するアプリケーションに対応するネットワークスライスを特定する(S503)。
 UE100は、ネットワークスライスを特定することで、Allowed NSSAI(Network Slice Selection Assistance Information)の中から特定したアプリケーションに対応するS-NSSAI(Single NSSAI)を選択する。
 S-NSSAIは、ネットワークスライスの選択をアシストするための情報であり、スライスの型(slice type)を識別する8ビットから成るmandatory(必須の)のSST(Slice/Service Type)と、同一のSSTの中で異なるスライスを区別するための24ビットから成るoptional(任意の)のSD(Slice Differentiator)の組で構成される。
 UE100は、キャンプオンしている無線基地局20にRRCSetup Requestメッセージを送信する(S504)。
 UE100は、無線基地局20からRRCSetupメッセージを受信する(S505)。
 UE100は、RRC_CONNECTED、かつCM-IDLEの状態に遷移する(S506)。
 UE100は、RRCSetup Completeメッセージを無線基地局20に応答してRRCの設定を完了する(S507)。
 UE100は、NASメッセージであるPDU SESSION ESTABLISHMENT REQUESTメッセージをAMF301に送信する(S508)。
 UE100とDN340との間には無線基地局20-1とUPF330を介した後述するPDUセッションの確立処理が実行される(S509)。
 UE100は、RRC_CONNECTED、かつCM-CONNECTEDの状態となる(S510)。
 PDU SESSION ESTABLISHMENT REQUESTメッセージには、UE10が選択したS-NSSAIを含めることができる。
 AMF310は、PDU session context、 Security Key、UE Radio CapabilityとUE Security Capabilitiesなどを含むUE context dataを生成する。
 AMF310は、INITIAL CONTEXT SETUP REQUESTメッセージを使って無線基地局20にUE context dataを送信する(S511)。
 無線基地局20は、UE100のUE Contextを設定する。このINITIAL CONTEXT SETUP REQUESTメッセージには、Allowed NSSAIが含まれ、さらに、PDUセッションごとのS-NSSAIを含めることができる。
 無線基地局20は、UE100にSecurityModeCommandメッセージを送信する(S512)。
 無線基地局20は、SecurityModeCommandメッセージを使用して選択したインテグリティアルゴリズム(integrity algorithm)をUE100に通知する。
 UE100は、受信したメッセージのインテグリティを検証することによって、このメッセージの有効性を確認し、SecurityModeCompleteメッセージを応答する(S513)。
 無線基地局20は、SRB(Signaling Radio Bearer)2とDRB(Data Radio Bearer)を設定するために、UE100にRRCReconfigurationメッセージを通知する(S514)。
 無線基地局20は、UE100と無線基地局20との間にSRB2とDRBが確立されると、UE100からRRCReconfigurationCompleteメッセージを受信する(S515)。
 無線基地局20は、UE Contextの設定処理が完了したことを通知するために、AMF301にINITIAL CONTEXT SETUP RESPONSEメッセージを送信する(S516)。
 図6は、S509のPDUセッション確立処理の一例を示す。
 S509のPDUセッション確立処理は、ステップS508が完了することで開始される。
 AMF301は、SMF選択処理を実行する(S601)。
 SMF選択処理では、AMF301は、受信したPDU SESSION ESTABLISHMENT REQUESTメッセージがS-NSSAIを含んでいるかを判定する。
 受信したPDU SESSION ESTABLISHMENT REQUESTメッセージがS-NSSAIを含んでいない場合には、AMF301は、UE100の現在のAllowed NSSAIから、要求されたPDUセッションのためにS-NSSAIを決定する。
 AMF301は、Allowed NSSAIが1つのS-NSSAIを含んでいるかを判定する。
 Allowed NSSAIが1つのS-NSSAIを含んでいるなら、AMF301は、Allowed NSSAIに含まれるS-NSSAIを使用する。
 Allowed NSSAIが複数のS-NSSAIを含んでいるなら、AMF301は、UE100のUE subscription、或いはPLMNオペレータのポリシーに従い、S-NSSAIを選択する。
 UE subscriptionは、1つのdefault S-NSSAIのみを含んでいるなら、AMF301は、このdefault S-NSSAIを選択する。
 PDU SESSION ESTABLISHMENT REQUESTメッセージがS-NSSAIを含んでいるが、DNN(Data Network Name)を含んでいない場合には、AMF301は、S-NSSAIに対してdefault DNNをDNNとして決定する。ここで、DNNは、4G以前のシステムで使用されているAPN(Access Point Name)に相当するものである。
 AMF301は、このS-NSSAIに対してlocally configured DNNをDNNとして決定する。
 UE100、及び5Gネットワークは、DNNの代わりにAPN、或いはASN(Application Server Name)を使用する場合においても同様である。
 AMF301は、他の手段でSMFに関する情報が有用(例えば、AMFに局所的に設定されている場合)でない限り、SMFの発見のためにNRF303を使用する。
 AMF301は、SMFインスタンスの発見を試みる際、NRF303にUE100の位置情報(location information)を提供する。NRF303は、その応答として、1つ以上のSMFインスタンスのNF profileをAMF301に提供する。
 NRF303は、AMF301にSMFインスタンスのサービスエリアに関する情報を提供する。
 AMF301は、NRF303から取得した利用可能なSMFインスタンスに関する情報、或いはあらかじめAMF301に設定されたSMFに関する情報に基づいて、SMFインスタンスを選択する。
 本開示の実施形態では、AMF301は、SMF306を選択するが、ほかのSMFを選択してもよい。例えば、複数のSMFがある場合、SMF306以外のSMFを選択してもよい。
 SMF選択処理は、AMF301の設定に基づく方法以外で実行してもよい。
 例えば、NSSF304をサービングPLMN内に配置して、必要な情報をNSSF304から取得してもよい。
 例えば、AMF301が有効なSMF306に関する情報を持たない場合、AMF301は、NSSF306に対してNNssf_NSSelection_Getサービスを起動して、SMFインスタンスの選択に必要な情報をNSSF306から取得してもよい。
 例えば、AMF301は、選択されたDNN、S-NSSAI、或いはオプションでS-NSSAIと関連するNSI-ID(Network Slice Instance Identifier)、UDM307から取得する契約情報などを考慮してもよい。
 AMF301は、SMF選択処理で選択されたSMFインスタンスであるSMF306にNsmf_PDUSession_CreateSMContext Requestメッセージを送信する(S602)。
 Nsmf_PDUSession_CreateSMContext Requestは、SUPI、S-NSSAI、UE Requested DNN、若しくはDNNを含んでいる。
 SUPI、DNNとS-NSSAIに対応するSession Management Subscription dataが利用可能でないならば、SMF306は、Nudm_SDM_Getを使ってUDM307からSession Management Subscription dataを取得する。
 SMF306は、Nudm_SDM_Subscribeを使用して登録し、SessionManagement Subscription dataの更新時に、通知を受ける。
 SMF306は、PDU Session Establishment Requestを処理することができるならば、SM contextを生成し、AMF301にNsmf_PDUSession_CreateSMContext Responseを応答してSM Context IDを提供する(S603)。
 PDUセッションの確立の間にDN-AAAサーバーによる第2の認証、承諾処理を実行する必要がある場合には、SMF306は、PDU Session establishment authentication/authorization処理を起動する(S604)。
 確立するPDUセッションにdynamic PCC(Policy and Charging Control)が適用される場合には、SMF306は、PCF Selectionを実行する(S605)。
 SMF306は、確立するPDUセッションにローカルポリシーを適用してもよい。
 SMF306は、PCF305との間でSM Policy Associationを確立して、PDUセッションのためのdefault PCC Rulesを取得するために、SM Policy Association Establishment procedureを実行してもよい(S606)。これにより、UPF330を選択する前にPCC Rulesを取得することができる。
 SMF306は、UPF Selectionを実行して、1つ以上のUPF330を選択し、選択されたUPF330との間にインターフェースN4を確立する(S607)。
 PDUセッションのために複数のUPF330が選択された場合には、SMF306は、それぞれのUPF330に対してインターフェースN4を確立する。
 SMF306は、Nsmf_PDUSession_CreateSMContext Requestメッセージに含まれるS-NSSAI、DNN(或いはASN)に基づいて、NN model splitting setting inquiryメッセージをAF308に送信する(S608)。これにより、アプリケーションサーバー400、若しくはDN340で実行されるS-NSSAIに対するNNモデルの演算を分散処理するために必要な情報を取得できる。
 SMF306は、S-NSSAIに基づいて、QFI(s)を設定する。
 SMF306は、QFI(s)の設定にDNN(或いはASN)を考慮するようにしてもよい。
 AF308は、アプリケーションサーバー400、若しくはDN340が管理するNNモデルのプロファイル情報を取得するために、NN model splitting settingに関する情報をアプリケーションサーバー400、若しくはDN340に要求する(S609)。
 AF308は、アプリケーションサーバー400、若しくはDN340からNN model splitting settingに関する情報を取得する(S610)。
 NN model splitting settingに関する情報は、少なくともNNモデルのプロファイル情報を含む。
 AF308は、NN model splitting setting inquiryの応答として、SMF306にNN model splitting settingに関する情報を含むNN model splitting setting responseメッセージをSMF306に応答する(S611)。
 SMF306は、AMF301にNamf_Communication_N1N2MessageTransferメッセージを送信する(S612)。
 Namf_Communication_N1N2MessageTransferメッセージは、PDU Session ID、N2 SM information、CN Tunnel Info、S-NSSAI、N1 SM containerを含む。ここで、N2 SM informationには、PDU Session ID、QFI(s)、QoS Profile(s)、NN model splitting settingに関する情報などを含む。
 PDUセッションのために複数のUPF330が使われる場合には、CN Tunnel Infoは、N3を終端するこれら複数のUPF330に関連するトンネリング情報(tunnel information)を含む。
 N1 SM containerは、AMF301がUE10に提供しなければならないPDU Session Establishment Acceptを含む。
 PDU Session Establishment Acceptは、S-NSSAIを含む。
 Namf_Communication_N1N2MessageTransferメッセージは、AMF301がUE10に対してどのアクセスを使うかがわかるように、PDU Session IDを含む。
 AMF301は、N2 PDU Session RequestメッセージをRAN200に送信する(S613)。
 AMF301は、N2 PDU Session Requestメッセージを介して、UE10を送り先とするPDU Session IDとPDU Session Establishment Acceptを含むNAS(Non-Access-Stratum)メッセージと、SMF306から受信したN2 SM informationをRAN200に送信する。
 RAN200は、分割数、QFI(s)、QoS Profile(s)及びNN model splitting settingに関する情報に基づいて、後述する方法でNNモデルの分割点を決定する(S614)。
 RAN200は、PDU Session IDとN1 SM containerを含むNASメッセージをUE100に転送する(S615)。
 N1 SM containerは、PDU Session Establishment Acceptを含む。
 RAN200は、N2 PDU Session ResponseメッセージをAMF301に応答する(S616)。
 RAN200は、決定したNNモデルの分割点をUE100に通知する(S617)。
 AMF301は、SM Context IDとN2 SM informationを含むNsmf_PDUSession_UpdateSMContext Requestメッセージを介して、RAN200から受信したN2 SM informationをSMF306に転送する(S618)。
 SMF306は、UPF330との間でN4 Session Modification procedureを起動して、N4 Session Modification RequestメッセージをUPF330に送信する。
 SMF306は、UPF330に転送ルールに加え、AN Tunnel Infoを提供する。
 UPF330は、当該転送ルールにより、演算処理ごとにUE100が処理するニューラルネットワークモデルのデータの転送に係る設定を行うことができる。
 UPF330は、SMF306にN4 Session Modification Responseメッセージを応答する。
 PDUセッションで複数のUPF330が用いられている場合には、上記のN4 Session Modification procedureが行われる対象は、N3を終端する全てのUPF330となる。
 無線基地局20がQFI、QoSプロファイル、及びNNモデルのプロファイル情報に基づいて分割点を決定する以外の方法であってもよい。例えば、S611の処理後にSMF306が同様の方法で分割点を決定して、AMF301を介してRAN200に通知するようにしてもよい。
 無線基地局20がQoSのデータレート、或いはPERに基づいて分割点を決定する例を示したが、PERに基づいて抽出されたNNモデルと分割点の候補の中から、さらにQoSのデータレートに基づいて分割点を決定するようにしてもよい。
 UE100のモビリティに応じて無線基地局20であるsource gNBからtarget gNBへのハンドオーバーが実行される場合に、無線基地局20は、NNモデルの分割点の決定処理(S614)を再実行するようにしてもよい。例えば、source gNBとtarget gNB間のXnインターフェースを介してNN model splitting settingに関する情報はtarget gNBに転送されてもよい。
 以上、本開示の実施形態によれば、プロファイル情報に基づき、ニューラルネットワークモデルを構成する複数のレイヤを分割することができる。すなわち、分割したニューラルネットワークモデルごとに演算を処理する通信装置を設定し、特定の演算処理におけるネットワーク遅延を改善できる。
 これにより、特定の演算処理の実行遅延を改善できる。
 ここでは、アプリケーションサーバー400が作成するNNモデルのプロファイル情報として、NNモデルの分割点ごとのBLERとAIアプリケーションの最終的な推論精度との関係の例を示したが、この例に限定されない。例えば、BLERの代わりに、BER(Bit Error Rate)やPER(Packet Error Rate)を用いるようにしてもよい。
(第2の実施形態)
 図7は、IABを含む5GのネットワークでのNNモデルの分散処理の一例を示す。
 第2の実施形態の5Gシステム2000は、第1の実施形態における5Gシステム1000のRAN200の機能を無線基地局20に加えてIAB50によって提供する。
 本開示の実施形態では、RAN200は、RAN200の機能を無線基地局20に加えてIAB50によって提供することで、複数のノード間で分散処理可能な分散型ネットワークとして機能する。
 例えば、ドナーノードである無線基地局20は、1ホップ、或いは、複数ホップのリレーノードとしてIAB50を活用することができる。
 分散型ネットワークは、IAB50を利用したリレーネットワーク以外のネットワークであってもよい。例えば、リピータ通信、メッシュ型ネットワーク等であってもよい。
 分散型ネットワークは、端末同士で直接通信してもよい。例えば、Bluetooth、UWB、WiFi、3GPP Sidelink(PC5)等の通信でリレーネットワークを構成してもよい。
 5Gシステム2000では、例えば、IAB50を、5Gネットワーク内で演算処理能力を提供するエッジサーバーとして扱うことで演算処理をすることができる。
 本開示の実施形態では、コアネットワーク300のUPF330は、無線基地局20と通信可能な無線通信部としても機能する。
 例えば、AIアプリケーションの稼働するUE100は、無線基地局20(第1の無線基地局)を介してコアネットワーク300と通信することができる。
 例えば、AIアプリケーション以外の演算処理の稼働するUE100は、無線基地局20(第2の無線基地局)を介してコアネットワーク300と通信することができる。
 UPF330は、バックホールであるIAB50を介して無線基地局と通信してもよい。
 無線基地局20は、間接的に、コアネットワーク300に通信することもできる。
 例えば、UE100は、無線基地局20が異なる無線基地局20を介して、コアネットワーク300と通信することができる。このとき、コアネットワーク300と直接接続していない無線基地局20は、無線端末として扱うことができる。
 5Gシステム2000は、UE100、IAB50、無線基地局20及びコアネットワーク300から構成される。
 5Gシステム2000は、インターネットを介してアプリケーションサーバー400と接続されている。
 5Gシステム2000は、UE100がNNモデルを活用するアプリケーションの利用を決定すると、NNモデルの演算処理をUE100、IAB50、及びアプリケーションサーバー400に分散することができる。
 本開示の実施形態では、例えば、以下のように処理を分散することができる。
 IAB50のIAB-MT501は、無線基地局20のDU202との間にインターフェースUuを構築する。
 無線基地局20のCU201とIAB50のIAB-DU502は、このインターフェースUu上にインターフェースF1を確立する。
 無線バックホールにおいて、IPレイヤは、BAP(Backhaul Adaptation Protocol)サブレイヤ上で通信される、BAP PDUは、BH(BackHaul) RLCチャンネルにより通信される。
 IPレイヤは、トラフィックの優先度やQoS(Quality of Service)処理のために、それぞれのBHリンクに対して複数のBH RLCチャンネルを設定することができる。これにより、IPレイヤは、BH RLCチャンネルの単位で異なるQoS処理の設定、BAPサブレイヤが優先度やQoS処理のためのトラフィックとBH RLCチャンネルとのマッピングの処理をすることができる。
 インターフェースF1が確立されると、無線基地局20のCU201は、BH RLCチャンネルごとのQoS Profile(s)をコアネットワーク300から取得する。
 新たなBH RLCチャンネルが確立されると、このBH RLCチャンネルごとのQoS Profile(s)は更新される。
 つまり、本開示の実施形態では、ニューラルネットワークモデル4000は、複数のサブニューラルネットワークモデル4100で構成されており、サブニューラルネットワークモデル4100ごとに、分割することができる。
 以上の処理によって、CU201とIAB50のIAB-DU502は、UE100に対する無線基地局、つまり、図1におけるRAN200として動作することができる。
 UE100が、IAB50を介して、AMF301にPDU SESSION ESTABLISHMENT REQUESTメッセージを送信すると、5Gネットワークは、図6に示した処理に従って、PDUセッション確立処理を実行する。S613において、無線基地局20のCU201は、AMF301を介して、SMF306からN2 SM informationを取得する。N2 SM informationには、PDU Session ID、QFI(s)、QoS Profile(s)、NN model splitting settingに関する情報などが含まれる。
 NNモデルの分割点は、任意の方法で決定することができる。
 例えば、5Gシステム1000でAIの処理をする場合、DN340のみで処理するケース、IAB50とDN340で処理を分散するケース、端末とIAB50で処理を分散するケース、端末とDN340で処理を分散するケース、端末、IAB50、及びDN340で処理を分散するケース、端末のみで処理をするケースが考えられる。
 例えば、DN340のみで処理するケースでは、AIの処理をコアネットワーク300に含まれるDN340に加え、インターネットを介して接続されたアプリケーションサーバー400で処理する。
 例えば、IAB50とDN340で処理を分散するケースでは、AIの処理をRAN200に含まれるIAB50、コアネットワーク300に含まれるDN340に加え、インターネットを介して接続されたアプリケーションサーバー400で分散して処理する。
 例えば、端末とIAB50で処理を分散するケースでは、AIの処理を端末であるUE100と、RAN200に含まれるIAB50に加え、インターネットを介して接続されたアプリケーションサーバー400で分散して処理する。
 例えば、端末とDN340で処理を分散するケースでは、AIの処理を端末であるUE100と、コアネットワーク300に含まれるDN340に加え、インターネットを介して接続されたアプリケーションサーバー400で分散して処理する。
 例えば、端末、IAB50、及びDN340で処理を分散するケースでは、AIの処理を端末であるUE100と、RAN200に含まれるIAB50、コアネットワーク300に含まれるDN340に加え、インターネットを介して接続されたアプリケーションサーバー400で分散して処理する。
 例えば、端末のみで処理をするケースでは、AIの処理を端末であるUE100に加え、インターネットを介して接続されたアプリケーションサーバー400で分散し処理する。
 まず、AIの処理を分散するケースとしてIAB50とDN340で処理を分散するケースを説明する。
 IAB50とDN340で処理を分散するケースでは、NNモデルの分割数は2となる。
 端末とネットワーク装置で分散して処理するケースと同様に、アプリケーションサーバー400、若しくはDN340がNNモデルごとに分割数に対する分割点をあらかじめ決定する場合、UE100が利用するアプリケーションに応じて、NNモデルが特定される。
 当該ケースでは、あらかじめ分割点を決定しているため、分割数2に対応するNNモデルの分割点が一義的に決定される。
 無線基地局20のCU201は、NN model splitting settingに関する情報からアプリケーションに応じて特定されたNNモデルの分割点を決定する。
 CU201は、決定した分割点に従ってNNモデルの演算処理をIAB50とDN340、或いはアプリケーションサーバー400に分散する。
 無線基地局20のCU201は、QFI、QoSプロファイル、BH RLCチャンネルごとのQoS Profile(s)、NNモデルのプロファイル情報に基づいて分割点を決定するようにしてもよい。
 例えば、無線基地局20のCU201は、PDU Session IDにマッピングされるBH RLCチャンネルを特定し、このBH RLCチャンネルに適用されるQoSプロファイルを参照する。
 BH RLCチャンネルに適用されるQoSプロファイルには、例えば、5QIが適用される。
 無線基地局20のCU201は、PDU Session IDにマッピングされるBH RLCチャンネルに適用される5QIを特定する。端末とネットワーク装置で分散して処理するケースにおけるNNモデルのプロファイル情報に基づいて分割点を決定する方法で、IAB50とDN340(或いはアプリケーションサーバー400)間での隠れ層データ送信時の分割点を決定する。
 次に、AIの処理を分散するケースとして端末とIAB50で分散するケースを説明する。
 IAB50は、RAN200に含まれ、ネットワーク装置として扱うことができる。このような場合、当該ケースは、端末とネットワーク装置で分散して処理するケースと等価なケースと考えられるため説明は割愛する。
 次に、AIの処理を分散するケースとして端末とDN340で処理を分散するケースを説明する。
 当該ケースでは、端末であるUE100とIAB50との間(第1の無線区間)、及びIAB50と無線基地局20との間(第2の無線区間)という2つの無線区間を経由する。
 当該ケースでは、処理を端末とDN340で分散するため、NNモデルの分割数は2である。
 当該ケースの分割点の決定方法は、あらかじめの分割点を決定する方法、QoSのデータレートに基づいて分割点を決定する方法、QoSのPERに基づいて分割点を決定する方法がある。
 例えば、あらかじめ分割点を決定する方法では、アプリケーションサーバー400、若しくはDN340が、NNモデルごとに分割数に対する分割点をあらかじめ決定する。
 当該方法では、アプリケーションサーバー400、若しくはDN340が分割部として機能する。
 UE100が利用するアプリケーションが決定することで、NNモデルが特定される。当該ケースでは、あらかじめ分割点を決定しているため、分割数2に対応するNNモデルの分割点が一義的に決定される。
 無線基地局20のCU201は、NN model splitting settingに関する情報からアプリケーションに応じて特定されたNNモデルの分割点を決定する。CU201は、決定した分割点に従ってNNモデルの演算処理をUE100とDN340、或いはアプリケーションサーバー400に分散する。
 例えば、QoSのデータレートに基づいて分割点を決定する方法では、CU201は、QFI、QoSプロファイル、BH RLCチャンネルごとのQoS Profile(s)、及びNNモデルのプロファイル情報に基づいて分割点を決定する。
 当該方法では、CU201が分割部として機能する。
 CU201は、QFIに対応するQoSプロファイルから端末とIAB50間での隠れ層データ送信のために適用する第1の5QIを特定する。
 CU201は、PDU Session IDにマッピングされるBH RLCチャンネルに適用される第2の5QIを特定する。
 CU201は、端末とネットワーク装置で分散して処理するケースにおけるQoSのデータレートに基づいて分割点を決定する方法と同様の方法で、第1の5QIと第2の5QIを使用する。CU201は、隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて、送信に必要な時間を見積もり、隠れ層データをあらかじめ設定された時間内に送信することができるNNモデルの種類と分割点の候補を特定する。
 CU201は、隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて送信に必要な時間を見積もる際に、特定した第1の5QIと第2の5QIのPacket Delay Budgetを加味するようにしてもよい。
 端末とDN340で処理を分散するケースでは、第1の無線区間と第2の無線区間のデータレートのミスマッチに注意する必要がある。
 例えば、第1の無線区間のデータレートが第2の無線区間のデータレートに比べて非常に高い場合に、第1の無線区間を低遅延に伝送された隠れ層データは、第2の無線区間で同じデータレートでは伝送できないため、IAB50で一度バッファリングされる。
 バッファリングされた隠れ層データは、第2の無線区間を介してDN340(或いはアプリケーションサーバー400)に伝送される。
 つまり、無線基地局20のCU201は、IAB50のバッファの状況、第1の無線区間、及び第2の無線区間のデータレート、及び各分割点の隠れ層データのデータサイズに基づいて、NNモデルの種類と分割点の候補を特定する。
 複数のNNモデルの種類と分割点の候補がある場合には、さらに、UE100の処理能力に基づいて分割点を決定するようにしてもよい。
 例えば、UE100の処理能力が大きければ、より多くのレイヤをUE100が処理することができるNNモデルの種類と分割点を決定する。
 例えば、UE100の処理能力が小さければ、より多くのレイヤをアプリケーションサーバー400側で処理するNNモデルの種類と分割点を決定する。
 UE100の処理能力は、UE無線ケイパビリティとして管理されてもよいし、IE(Information Element)としてUE100からCU201に提供されてもよい。
 CU201は、分割点ごとの隠れ層データのデータサイズの情報に基づいて、データサイズが最も小さい分割点を決定してもよい。
 例えば、UE100、及びアプリケーションサーバー400の処理能力が十分であれば、無線区間での伝送遅延がボトルネックとなる。CU201は、データサイズが最も小さい分割点を決定することで、伝送遅延を最小化することができる。
 CU201は、隠れ層データのデータサイズの代わりに、NNモデルのレイヤを構成するノードの数を用いてもよい。
 CU201は、複数のNNモデルの種類と分割点の候補がある場合には、あらかじめ設定された時間内に送信することができる範囲内で、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点を決定するようにしてもよい。
 CU201は、複数のNNモデルの種類と分割点の候補がある場合には、あらかじめ設定された時間内に送信することができる範囲内で、送信時にデータ圧縮を行って、隠れ層データのデータサイズを圧縮することができるNNモデルの種類と分割点を決定するようにしてもよい。
 スクランブリング、インターリーブ、或いは送信時のデータ圧縮は、GFBR、或いはUE-AMBRのデータレートのクライテリアにおいて、NNモデルの種類と分割点の候補が特定できない場合に考慮するようにしてもよい。
 例えば、CU201は、あらかじめ設定された時間内に送信することができる範囲内で、GFBR、或いはUE-AMBRによって、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点の候補、或いは圧縮された隠れ層データを送信することができるNNモデルの種類と分割点の候補を特定してもよい。
 例えば、QoSのPERに基づいて分割点を決定する方法では、CU201は、NNモデルのプロファイル情報に含まれるNNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの種類と分割点の候補を特定する。
 当該方法では、CU201が分割部として機能する。
 例えば、CU201は、特定した5QIのPER(Packet Error Rate)とNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と分割点の候補を特定することができる。
 CU201は、UE100とIAB50との間、及びIAB50と無線基地局20との間の通信品質、例えばSNRをモニターし、その通信品質に相当するBLERに基づいて、NNモデルの種類と分割点の候補を特定してもよい。
 CU201は、動的に変化する通信品質と、NNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの分割点を動的に変更するようにしてもよい。
 CU201は、NNモデルの分割点ごとのBLERの下限値のいずれもが現在の5QIのPERを満たさない場合には、AMF301にQFIの変更を要求するメッセージ、例えば、PDU Session Modification Requestを送信してもよい。
 CU201は、当該メッセージに、要求するPERの値、或いは要求するQFIを含めてもよい。
 AMF301は、CU201からPDU Session Modification Requestメッセージを受信すると、SMF306に現在のPDUセッションに割り当てられているQFIの変更を要求するメッセージ(例えば、Nsmf_PDUSession_UpdateSMContext Request)を送信する。これにより、AMF301は、QoSの変更を要求することができる。
 AMF301は、当該メッセージに、PDU Session IDと要求するQFIを含めてもよい。
 SMF306は、QFIの変更を要求するメッセージを受信すると、要求するQFIを許可する場合には、新たなQFIをPDUセッションに割り当て、Nsmf_PDUSession_UpdateSMContext Responseメッセージを応答して、AMF301を介して、更新されたQFI、及びQoSプロファイルを無線基地局20のCU201に通知する。
 CU201は、新たなQoSプロファイルを介して特定した5QIのPERとNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と分割点の候補を特定する。
 次に、AIの処理を分散するケースとして端末、IAB50、及びDN340で分散するケースを説明する。
 当該ケースでは、端末であるUE100とIAB50との間(第1の無線区間)、及びIAB50と無線基地局20との間(第2の無線区間)という2つの無線区間を経由する。
 当該ケースでは、処理を端末と、IAB50と、DN340で分散し、第1の無線区間、第2の無線区間でそれぞれ分割されるため、NNモデルの分割数は3である。
 当該ケースの分割点の決定方法は、あらかじめの分割点を決定する方法、QoSのデータレートに基づいて分割点を決定する方法、QoSのPERに基づいて分割点を決定する方法がある。
 例えば、あらかじめ分割点を決定する方法では、アプリケーションサーバー400、若しくはDN340が、NNモデルごとに分割数に対する分割点をあらかじめ決定する。
 当該方法では、アプリケーションサーバー400、若しくはDN340が分割部として機能する。
 UE100が利用するアプリケーションが決定することで、NNモデルが特定される。当該ケースでは、あらかじめ分割点を決定しているため、分割数3に対応するNNモデルの分割点が一義的に決定される。
 CU201は、NN model splitting settingに関する情報からアプリケーションに応じて特定されたNNモデルの分割点を決定する。CU201は、決定した分割点に従ってNNモデルの演算処理をUE100、IAB50、及びDN340、或いはアプリケーションサーバー400に分散する。
 例えば、QoSのデータレートに基づいて分割点を決定する方法では、CU201は、QFI、QoSプロファイル、BH RLCチャンネルごとのQoS Profile(s)、及びNNモデルのプロファイル情報に基づいて分割点を決定する。
 当該方法では、CU201が分割部として機能する。
 CU201は、QFIに対応するQoSプロファイルから端末とIAB50間での隠れ層データ送信のために適用する第1の5QIを特定する。
 CU201は、PDU Session IDにマッピングされるBH RLCチャンネルに適用される第2の5QIを特定する。
 CU201は、端末とネットワーク装置で分散して処理するケースにおけるQoSのデータレートに基づいて分割点を決定する方法と同様の方法で、第1の5QIを使って、端末とIAB50間での隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて、送信に必要な時間を見積もり、隠れ層データをあらかじめ設定された時間内に送信することができるNNモデルの種類と第1の分割点の候補を特定する。
 CU201は、第1の分割点で分割された後段のNNモデルに関して、第2の5QIを使用して、IAB50と無線基地局20間での隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて、送信に必要な時間を見積もり、隠れ層データをあらかじめ設定された時間内に送信することができる第2の分割点の候補を特定する。
 CU201は、隠れ層データのデータサイズとGFBR、或いはUE-AMBRに基づいて送信に必要な時間を見積もる際に、特定した第1の5QI、或いは第2の5QIのPacket Delay Budgetを加味するようにしてもよい。
 CU201は、複数のNNモデルの種類と第1の分割点の候補がある場合には、さらに、UE100の処理能力に基づいて第1の分割点を決定するようにしてもよい。
 例えば、UE100の処理能力が大きければ、より多くのレイヤをUE100が処理することができるNNモデルの種類と第1の分割点を決定してもよい。
 例えば、UE100の処理能力が小さければ、より多くのレイヤをIAB50及びアプリケーションサーバー400側で処理するNNモデルの種類と第1の分割点を決定してもよい。
 UE100の処理能力は、UE無線ケイパビリティとして管理されてもよいし、IE(Information Element)としてUE100からCU201に提供されてもよい。
 CU201は、複数のNNモデルの種類と第2の分割点の候補がある場合には、さらに、IAB50の処理能力に基づいて第2の分割点を決定するようにしてもよい。
 例えば、IAB50の処理能力が大きければ、より多くのレイヤをIAB50が処理することができるNNモデルの種類と第2の分割点を決定してもよい。
 例えば、IAB50の処理能力が小さければ、より多くのレイヤをアプリケーションサーバー400側で処理するNNモデルの種類と第2の分割点を決定してもよい。
 CU201は、複数のNNモデルの種類と分割点の候補がある場合には、あらかじめ設定された時間内に送信することができる範囲内で、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点を決定するようにしてもよい。
 CU201は、複数のNNモデルの種類と分割点の候補がある場合には、あらかじめ設定された時間内に送信することができる範囲内で、送信時にデータ圧縮を行って、隠れ層データのデータサイズを圧縮することができるNNモデルの種類と分割点を決定するようにしてもよい。
 スクランブリング、インターリーブ、或いは送信時のデータ圧縮は、GFBR、或いはUE-AMBRのデータレートのクライテリアにおいて、NNモデルの種類と分割点の候補が特定できない場合に考慮するようにしてもよい。
 例えば、CU201は、あらかじめ設定された時間内に送信することができる範囲内で、GFBR、或いはUE-AMBRによって、送信時にスクランブリング、或いは/及びインターリーブを行って信頼性を改善することができるNNモデルの種類と分割点の候補、或いは圧縮された隠れ層データを送信することができるNNモデルの種類と分割点の候補を特定してもよい。
 例えば、QoSのPERに基づいて分割点を決定する方法では、CU201は、NNモデルのプロファイル情報に含まれるNNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの種類と第1の分割点、及び第2の分割点の候補を特定する。
 当該方法では、CU201が分割部として機能する。
 例えば、無線基地局20のCU201は、特定した第1の5QI、及び第2の5QIのPER(Packet Error Rate)とNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と第1の分割点、及び第2の分割点の候補を特定する。
 無線基地局20のCU201は、端末とIAB50間、及びIAB50と無線基地局20間の通信品質(例えば、SNR)をモニターし、その通信品質に相当するBLERに基づいて、NNモデルの種類と第1の分割点、及び第2の分割点の候補を特定する。
 無線基地局20のCU201は、動的に変化する通信品質と、NNモデルの分割点ごとのBLERの下限値に基づいて、NNモデルの分割点を動的に変更するようにしてもよい。
 無線基地局20のCU201は、NNモデルの分割点ごとのBLERの下限値のいずれもが現在の第1の5QI、或いは第2の5QIのPERを満たさない場合には、AMF301に第1のQFI(端末とIAB50間に適用されるQFI)、或いは第2のQFI(IAB50と無線基地局20間に適用されるQFI)の変更を要求するメッセージ(例えば、PDU Session Modification Request)を送信するようにしてもよい。
 CU201は、当該メッセージに、要求するPERの値、或いは要求するQFIを含めることができる。
 AMF301は、無線基地局20のCU201からPDU Session Modification Requestメッセージを受信すると、SMF306に現在のPDUセッションに割り当てられているQFIの変更を要求するメッセージ(例えば、Nsmf_PDUSession_UpdateSMContext Request)を送信する。
 AMF301は、当該メッセージに、PDU Session IDと要求するQFIを含めることができる。
 SMF306は、第1のQFI、或いは第2のQFIの変更を要求するメッセージを受信すると、要求するQFIを許可する場合には、新たなQFIをPDUセッションに割り当て、Nsmf_PDUSession_UpdateSMContext Responseメッセージを応答して、AMF301を介して、更新された第1のQFI、或いは第2のQFI、及びQoSプロファイルを無線基地局20のCU201に通知する。
 無線基地局20のCU201は、新たなQoSプロファイルを介して特定した第1の5QI、或いは第2の5QIのPERとNNモデルの分割点ごとのBLERの下限値に基づいてNNモデルの種類と分割点の候補を特定する。
 AIの処理を分散するケースとして端末、IAB50、及びDN340で分散するケースでは、複数の分割点を決定するため、全体のパフォーマンスを最大化させる分割点を決定することが重要となる。
 例えば、複数の無線区間のうち、1つの無線区間のデータレートや遅延特性が要求を満たしていても、全体のパフォーマンスの中で他の無線区間のデータレートや遅延特性がボトルネックになり、NNモデルの演算結果に遅延が発生する。
 例えば、QoSのデータレートに基づいて分割点を決定する場合、無線基地局20のCU201は、複数のNNモデルと分割点の候補の中から、第1の無線区間に適用される第1の5QIから見積もった第1の分割点での隠れ層データの送信に必要な第1の期間と、第2の無線区間に適用される第2の5QIから見積もった第2の分割点での隠れ層データの送信に必要な第2の期間との総和が最小となる第1の分割点と第2の分割点の組み合わせを決定する。
 無線基地局20のCU201は、隠れ層データの送信に必要な時間を見積もる際に、特定した第1の5QI、及び第2の5QIのPacket Delay Budgetを加味するようにしてもよい。
 無線基地局20のCU201は、IABが備える演算処理の機能の処理能力や処理負荷などの情報から、IABが備える演算処理の機能での第1の分割点と第2の分割点で分割された中段部のNNモデルの演算に必要な第3の期間を見積もって、第1の期間、第2の期間にこの第3の期間を加えた総和が最小となる第1の分割点と第2の分割点の組み合わせを決定するようにしてもよい。
 無線基地局20のCU201は、さらに端末が備える演算処理の機能の処理能力や処理負荷などの情報から、端末が備える演算処理の機能での第1の分割点で分割された前段部のNNモデルの演算に必要な第4の期間を見積もって、第1の期間、第2の期間、及び第3の期間にこの第4の期間を加えた総和が最小となる第1の分割点と第2の分割点の組み合わせを決定するようにしてもよい。
 無線基地局20のCU201は、分割点ごとの隠れ層データのデータサイズの情報に基づいて、分割点を決定してもよい。例えば、第1の5QIと第2の5QIから第1の無線区間のデータレートの方が、第2の無線区間のデータレートより大きい場合には、無線基地局20のCU201は、データサイズが最も小さい分割点を、第2の無線区間を介して隠れ層のデータを伝送するための第2の分割点とする。
 CU201は、第2の分割点で分割されたNNモデルの前段部の分割点候補の中から、データサイズが最も小さい分割点を、第1の無線区間を介して隠れ層のデータを伝送するための第1の分割点とする。
 或いは、CU201は、第1の5QIと第2の5QIから第2の無線区間のデータレートの方が、第1の無線区間のデータレートより大きい場合には、無線基地局20のCU201は、データサイズが最も小さい分割点を、第1の無線区間を介して隠れ層のデータを伝送するための第1の分割点とする。
 CU201は、第1の分割点で分割されたNNモデルの後段部の分割点候補の中から、データサイズが最も小さい分割点を、第2の無線区間を介して隠れ層のデータを伝送するための第2の分割点とする。例えば、UE100、IAB50、及びアプリケーションサーバーの処理能力が十分であれば、無線区間での伝送遅延がボトルネックとなるため、データサイズが最も小さい分割点を決定することで、伝送遅延を最小化することができる。
 CU201は、隠れ層データのデータサイズの代わりに、NNモデルのレイヤを構成するノードの数を用いてもよい。
 QoSのPERに基づいて分割点を決定する場合、QoSのPERに基づいて分割点を決定する方法で示した方法でNNモデルの種類と第1の分割点、及び第2の分割点の候補を抽出し、これらの候補の中から、上記のQoSのデータレートに基づいて第1の分割点と第2の分割点の組み合わせを決定するようにしてもよい。
 QoSのPERに基づいて抽出されたNNモデルの種類と第1の分割点、及び第2の分割点の候補の中から、第1の分割点での隠れ層データの送信に必要な第1の期間と、第2の分割点での隠れ層データの送信に必要な第2の期間との総和が最小となる第1の分割点と第2の分割点の組み合わせを決定することができる。
 無線基地局20のCU201は、IABが備える演算処理の機能の処理能力や処理負荷などの情報から、IABが備える演算処理の機能での第1の分割点と第2の分割点で分割された中段部のNNモデルの演算に必要な第3の期間と、端末が備える演算処理の機能での第1の分割点で分割された前段部のNNモデルの演算に必要な第4の期間を見積もって、第1の期間と第2の期間にこれら第3の期間と第4の期間を加えた総和が最小となる第1の分割点と第2の分割点の組み合わせを決定するようにしてもよい。また、無線基地局20のCU201は、隠れ層データの送信に必要な時間を見積もる際に、特定した第1の5QI、及び第2の5QIのPacket Delay Budgetを加味するようにしてもよい。
 また、QoSのデータレートに基づいて分割点を決定する方法で示した場合と同様に、第1の無線区間と第2の無線区間のデータレートのミスマッチに注意する必要がある。
 例えば、第1の無線区間のデータレートが第2の無線区間のデータレートに比べて非常に高い場合に、第1の無線区間を低遅延に伝送された隠れ層データは、IAB50で3分割されたNNモデルの2段目のモデルの演算を行った後、第2の無線区間を伝送される。
 この2段目のモデルの演算によって、隠れ層データのデータサイズが削減されない限り、第2の無線区間で同じデータレートでは伝送できないため、IAB50で一度バッファリングされ、バッファリングされた隠れ層データが第2の無線区間を介してDN340(或いはアプリケーションサーバー400)に伝送される。
 無線基地局20のCU201は、IAB50のバッファの状況、第1の無線区間、及び第2の無線区間のデータレート、及び各分割点の隠れ層データのデータサイズに基づいて、NNモデルの種類と分割点の候補を特定する。
 無線基地局20のCU201がQFI、QoSプロファイル、及びNNモデルのプロファイル情報に基づいて分割点を決定する実施形態を説明したが、S611の処理後にSMF306が分割点を決定して、AMF301を介して無線基地局20のCU201に通知するようにしてもよい。
 UE100のモビリティに応じてRAN200であるsource IABからtarget IABへのハンドオーバーが実行される場合に、IAB-donorノードである無線基地局20は、NNモデルの分割点の決定処理(S614)を再実行するようにしてもよい。
 CU201は、無線バックホールのパスの切り替えに応じて親ノードであるIAB50やIAB-donorノードである無線基地局20がスイッチされた場合にも、IAB-donorノードである無線基地局20は、NNモデルの分割点の決定処理(S614)を再実行するようにしてもよい。
 以上、本開示の実施形態によれば、IAB50のノードに演算処理の機能を持たせる。つまり、5Gネットワーク内でのNNモデルの演算処理を、IABノード間でさらに分散することができる。
 これにより、演算処理の遅延の原因となる処理能力が不足しないようにすることができる。
 また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、本開示は以下のような構成を取ることもできる。
[項目1]
 第1の通信装置とおよび第2の通信装置と通信可能な無線基地局であって、
 1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置又は前記無線基地局に設定する制御部と、を備えた
 無線基地局。
[項目2]
 前記第1の通信装置は、無線端末であり、
 前記第2の通信装置は、無線端末、他の無線基地局、コアネットワーク又は、コアネットワークを介して接続されたサーバーである
 項目1に記載の無線基地局。
[項目3]
 前記第1のプロファイル情報は、あらかじめ決定された前記分割点を含む
 項目1または2に記載の無線基地局。
[項目4]
 前記第1のプロファイル情報は、前記ニューラルネットワークモデルの前記分割点ごとの隠れ層のデータのデータサイズを含む、
 項目1~3のいずれか一項に記載の無線基地局。
[項目5]
 前記第1のプロファイル情報は、任意の前記分割点での誤り率と前記ニューラルネットワークモデルが出力する出力値の推論精度との関係を含む、
 項目1~4のいずれか一項に記載の無線基地局。
[項目6]
 前記第1のプロファイル情報は、前記ニューラルネットワークモデルの推論精度の閾値を満たす前記分割点ごとの誤り率の下限値を含む
 項目1~5のいずれか一項に記載の無線基地局。
[項目7]
 前記分割部は、前記第1の通信装置との通信の順番および優先度であるQoSに係る第2のプロファイル情報を取得し、前記第2のプロファイル情報を介して通知されるGFBR(Guaranteed Flow Bit Rate)、または、AMBR(Aggregate Maximum Bit Rate)と、前記第1のプロファイル情報に含まれる前記分割点で分割された隠れ層のデータの前記データサイズに基づき、前記隠れ層のデータの送信時の特性を算出し、前記隠れ層のデータの送信時の前記特性に基づいて前記分割点を決定する
 項目4~6のいずれか一項に記載の無線基地局。
[項目8]
 前記第2のプロファイル情報は、前記特性における許容遅延を含み、
 前記分割部は、前記隠れ層のデータの前記データサイズを前記GFBR、若しくは前記AMBRで送信する際の所要時間を算出し、前記所要時間が前記許容遅延を満たす前記分割点を決定する
 項目7に記載の無線基地局。
[項目9]
 前記所要時間が前記許容遅延を満たす分割点がない場合に、前記通信に設定されているQoSの変更を要求する
 項目8に記載の無線基地局。
[項目10]
 前記分割部は、前記第1のプロファイル情報に含まれる前記関係に基づいて、前記ニューラルネットワークモデルの推論精度の閾値を満たす前記分割点ごとの誤り率の下限値を特定し、前記分割点ごとの誤り率の前記下限値に基づいて前記分割点を決定する
 項目5~9のいずれか一項に記載の無線基地局。
[項目11]
 前記分割部は、前記第1の通信装置との通信に係る誤り率を取得し、前記取得した誤り率と、前記第1のプロファイル情報に含まれる前記分割点ごとの誤り率の下限値に基づいて前記分割点を決定する
 項目6~10のいずれか一項に記載の無線基地局。
[項目12]
 前記分割部は、取得した前記通信に係る前記誤り率が前記分割点ごとの誤り率の下限値のいずれも満たさない場合に、前記通信に設定されているQoSの変更を要求する
 項目11に記載の無線基地局。
[項目13]
 前記無線基地局は、直接または、複数のノード間で分散処理可能な分散型ネットワークを介して前記第1の通信装置と通信する
 項目1~12のいずれか一項に記載の無線基地局。
[項目14]
 前記第1の通信装置は、人工知能に係る処理に基づく処理である第1の演算処理が稼働する
 項目1~13のいずれか一項に記載の無線基地局。
[項目15]
 前記第1の演算処理は、拡張現実、自動運転、ロボット制御、画像認識または音声認識に基づく処理である
 項目14に記載の無線基地局。
[項目16]
 前記ニューラルネットワークモデルは、複数のサブニューラルネットワークモデルで構成される
 項目1~15のいずれか一項に記載の無線基地局。
[項目17]
 前記分割点は、前記サブニューラルネットワークモデルごとに分割する
 項目16に記載の無線基地局。
[項目18]
 第1の通信装置および第2の通信装置と通信可能な無線基地局の制御方法であって、
 少なくとも1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定し、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置に設定する
 無線基地局の制御方法。
[項目19]
 さらに、前記第1の通信装置の処理能力に係る情報を取得し、
 前記第1のプロファイル情報と前記処理能力に係る情報に基づいて、前記分割点を決定する
 項目18に記載の無線基地局の制御方法。
[項目20]
 さらに、前記第1の通信装置の演算負荷に係る情報を取得し、
 前記第1のプロファイル情報と前記演算負荷に係る情報に基づいて、前記分割点を決定する
 項目18に記載の無線基地局の制御方法。
[項目21]
 さらに、前記第1の通信装置のバッテリー残量に係る情報を取得し、
 前記第1のプロファイル情報と前記バッテリー残量に係る情報に基づいて、前記分割点を決定する
 項目18に記載の無線基地局の制御方法。
[項目22]
 前記第1の通信装置に処理能力、演算負荷、若しくはバッテリー残量に係る閾値と、
 前記閾値との関係に従って前記処理能力、演算負荷、若しくはバッテリー残量を報告させるための設定を行う
 項目19~21のいずれか一項に記載の無線基地局の制御方法。
[項目23]
 第1の通信装置および第2の通信装置と通信可能なコンピュータに実行させるためのプログラムであって、
 1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割ステップと、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線端末に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線端末に設定する制御ステップと、を
 コンピュータに実行させるためのプログラム。
[項目24]
 第1の無線基地局および第2の無線基地局と通信する通信部と、
 少なくとも1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する制御部と、を備えた
 通信制御装置。
[項目25]
 第1の無線基地局および第2の無線基地局と通信し、
 少なくとも1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定し、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する
 通信制御装置の制御方法。
[項目26]
 第1の無線基地局および第2の無線基地局と通信する通信ステップと、
 少なくとも1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割ステップと、
 前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する制御ステップと、を備えた
 コンピュータに実行させるためのプログラム。
1000、2000 5Gシステム
100 UE
200 RAN
300 コアネットワーク
301 AMF
302 NEF
303 NRF
304 NSSF
305 PCF
306 SMF
307 UDM
308 AF
309 AUSF
310 UCMF
330 UPF
340 DN
201、2011、2012 CU
202 DU
50 IAB
400 アプリケーションサーバー
4000 ニューラルネットワークモデル
4001 入力層
4002 隠れ層
4003出力層
4100 サブニューラルネットワークモデル

Claims (26)

  1.  第1の通信装置および第2の通信装置と通信可能な無線基地局であって、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置又は前記無線基地局に設定する制御部と、を備えた
     無線基地局。
  2.  前記第1の通信装置は、無線端末であり、
     前記第2の通信装置は、無線端末、他の無線基地局、コアネットワーク又は、コアネットワークを介して接続されたサーバーである
     請求項1に記載の無線基地局。
  3.  前記第1のプロファイル情報は、あらかじめ決定された前記分割点を含む
     請求項1に記載の無線基地局。
  4.  前記第1のプロファイル情報は、前記ニューラルネットワークモデルの前記分割点ごとの隠れ層のデータのデータサイズを含む、
     請求項1に記載の無線基地局。
  5.  前記第1のプロファイル情報は、任意の前記分割点での誤り率と前記ニューラルネットワークモデルが出力する出力値の推論精度との関係を含む、
     請求項1に記載の無線基地局。
  6.  前記第1のプロファイル情報は、前記ニューラルネットワークモデルの推論精度の閾値を満たす前記分割点ごとの誤り率の下限値を含む
     請求項1に記載の無線基地局。
  7.  前記分割部は、前記第1の通信装置との通信の順番および優先度であるQoSに係る第2のプロファイル情報を取得し、前記第2のプロファイル情報を介して通知されるGFBR(Guaranteed Flow Bit Rate)、または、AMBR(Aggregate Maximum Bit Rate)と、前記第1のプロファイル情報に含まれる前記分割点で分割された隠れ層のデータの前記データサイズに基づき、前記隠れ層のデータの送信時の特性を算出し、前記隠れ層のデータの送信時の前記特性に基づいて前記分割点を決定する、
     請求項4に記載の無線基地局。
  8.  前記第2のプロファイル情報は、前記特性における許容遅延を含み、
     前記分割部は、前記隠れ層のデータの前記データサイズを前記GFBR、若しくは前記AMBRで送信する際の所要時間を算出し、前記所要時間が前記許容遅延を満たす前記分割点を決定する
     請求項7に記載の無線基地局。
  9.  前記所要時間が前記許容遅延を満たす分割点がない場合に、前記通信に設定されているQoSの変更を要求する
     請求項8に記載の無線基地局。
  10.  前記分割部は、前記第1のプロファイル情報に含まれる前記関係に基づいて、前記ニューラルネットワークモデルの推論精度の閾値を満たす前記分割点ごとの誤り率の下限値を特定し、前記分割点ごとの誤り率の前記下限値に基づいて前記分割点を決定する
     請求項5に記載の無線基地局。
  11.  前記分割部は、前記第1の通信装置との通信に係る誤り率を取得し、前記取得したBLERと、前記第1のプロファイル情報に含まれる前記分割点ごとの誤り率の下限値に基づいて前記分割点を決定する
     請求項6に記載の無線基地局。
  12.  前記分割部は、取得した前記通信に係る前記誤り率が前記分割点ごとの誤り率の下限値のいずれも満たさない場合に、前記通信に設定されているQoSの変更を要求する
     請求項11に記載の無線基地局。
  13.  前記無線基地局は、直接または、複数のノード間で分散処理可能な分散型ネットワークを介して前記第1の通信装置と通信する
     請求項1に記載の無線基地局。
  14.  前記第1の通信装置は、人工知能に係る処理に基づく処理である第1の演算処理が稼働する
     請求項1に記載の無線基地局。
  15.  前記第1の演算処理は、拡張現実、自動運転、ロボット制御、画像認識または音声認識に基づく処理である
     請求項14に記載の無線基地局。
  16.  前記ニューラルネットワークモデルは、複数のサブニューラルネットワークモデルで構成される
     請求項1に記載の無線基地局。
  17.  前記分割点は、前記サブニューラルネットワークモデルごとに分割する
     請求項16に記載の無線基地局。
  18.  第1の通信装置および第2の通信装置と通信可能な無線基地局の制御方法であって、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定し、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置又は前記無線基地局に設定する
     無線基地局の制御方法。
  19.  さらに、前記第1の通信装置の処理能力に係る情報を取得し、
     前記第1のプロファイル情報と前記処理能力に係る情報に基づいて、前記分割点を決定する
     請求項18に記載の無線基地局の制御方法。
  20.  さらに、前記第1の通信装置の演算負荷に係る情報を取得し、
     前記第1のプロファイル情報と前記演算負荷に係る情報に基づいて、前記分割点を決定する
     請求項18に記載の無線基地局の制御方法。
  21.  さらに、前記第1の通信装置のバッテリー残量に係る情報を取得し、
     前記第1のプロファイル情報と前記バッテリー残量に係る情報に基づいて、前記分割点を決定する
     請求項18に記載の無線基地局の制御方法。
  22.  前記第1の通信装置に処理能力、演算負荷、若しくはバッテリー残量に係る閾値と、
     前記閾値との関係に従って前記処理能力、演算負荷、若しくはバッテリー残量を報告させるための設定を行う
     請求項19に記載の無線基地局の制御方法。
  23.  第1の通信装置および第2の通信装置と通信可能なコンピュータに実行させるためのプログラムであって、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割ステップと、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の通信装置に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の通信装置に設定する制御ステップと、を
     コンピュータに実行させるためのプログラム。
  24.  第1の無線基地局および第2の無線基地局と通信する通信部と、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割部と、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する制御部と、を備えた
     通信制御装置。
  25.  第1の無線基地局および第2の無線基地局と通信し、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定し、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する
     通信制御装置の制御方法。
  26.  第1の無線基地局および第2の無線基地局と通信する通信ステップと、
     1つ以上のニューラルネットワークモデルに対応する第1のプロファイル情報を取得し、前記第1のプロファイル情報に基づいて、前記ニューラルネットワークモデルを構成する複数のレイヤを分割する分割点を決定する分割ステップと、
     前記ニューラルネットワークモデルを前記分割点で分割して生成される第1のニューラルネットワークモデルの演算処理を前記第1の無線基地局に設定し、前記ニューラルネットワークモデルを前記分割点で分割して生成される第2のニューラルネットワークモデルの演算処理を前記第2の無線基地局に設定する制御ステップと、を備えた
     コンピュータに実行させるためのプログラム。
PCT/JP2022/044311 2021-12-28 2022-12-01 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム WO2023127388A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-215210 2021-12-28
JP2021215210 2021-12-28

Publications (1)

Publication Number Publication Date
WO2023127388A1 true WO2023127388A1 (ja) 2023-07-06

Family

ID=86998548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/044311 WO2023127388A1 (ja) 2021-12-28 2022-12-01 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2023127388A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038100A1 (ja) * 2015-09-03 2017-03-09 日本電気株式会社 監視サーバ、分散処理決定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2020026741A1 (ja) * 2018-08-03 2020-02-06 ソニー株式会社 情報処理方法、情報処理装置及び情報処理プログラム
WO2020171803A1 (en) * 2019-02-19 2020-08-27 Nokia Solutions And Networks Oy Configuration of a neural network for a radio access network (ran) node of a wireless network
US20210117804A1 (en) * 2019-10-22 2021-04-22 e.solutions GmbH Technique for configuring and operating a neural network
JP2021517289A (ja) * 2018-03-16 2021-07-15 ロックウェル コリンズ ドイチェラント ゲーエムベーハー 分散型ニューラルネットワークを用いた物体認識システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038100A1 (ja) * 2015-09-03 2017-03-09 日本電気株式会社 監視サーバ、分散処理決定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2021517289A (ja) * 2018-03-16 2021-07-15 ロックウェル コリンズ ドイチェラント ゲーエムベーハー 分散型ニューラルネットワークを用いた物体認識システム
WO2020026741A1 (ja) * 2018-08-03 2020-02-06 ソニー株式会社 情報処理方法、情報処理装置及び情報処理プログラム
WO2020171803A1 (en) * 2019-02-19 2020-08-27 Nokia Solutions And Networks Oy Configuration of a neural network for a radio access network (ran) node of a wireless network
US20210117804A1 (en) * 2019-10-22 2021-04-22 e.solutions GmbH Technique for configuring and operating a neural network

Similar Documents

Publication Publication Date Title
CN109076394B (zh) 一种ambr确定方法及通信实体
EP2802170B1 (en) Method, system and device for service rate control
CN114631336B (zh) 确定用于网络切片的机器学习架构
CN113543219B (zh) 通信方法和装置
US10588045B2 (en) Method and apparatus for handling data flow in wireless communication networks
US11265762B2 (en) Management of bitrate for UE bearers
KR102337555B1 (ko) 무선 통신 시스템에서 멀티링크를 이용한 데이터 송수신 방법 및 장치
US20220417785A1 (en) QoS MAPPING
WO2021013338A1 (en) Integration of communication network in time sensitive networking system
CN112584545B (zh) 数据传输方法及装置
WO2017080422A1 (zh) 一种QoS管理的方法及装置
CN113973341A (zh) 通信方法及装置
CN112584431B (zh) 一种控制业务流传输的方法、装置及***
CN112714506B (zh) 数据传输方法和装置
WO2022047803A1 (zh) 通信方法及装置
WO2019122497A1 (en) Communication connection control procedure using selected communication connection slices
WO2023127388A1 (ja) 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム
US20180352470A1 (en) Flexible mapping of logical end-points
US20240137801A1 (en) Adaptive forwarding handling of data packets
CN107154901A (zh) 数据传输的控制方法及***、数据传输方法及装置
CN109587709B (zh) 本地数据网的发现、配置方法、终端、核心网设备及基站
KR20230065806A (ko) 무선 통신 시스템에서 분할 컴퓨팅 서비스를 제공하는 방법 및 장치
CN111373834B (zh) 用于建立数据无线承载的客户端设备、接入网设备、方法及计算机程序
JP2022511314A (ja) 通信システム及び通信システムを動作させるための方法
CN114698145A (zh) 用于传输数据的方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915619

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023570750

Country of ref document: JP

Kind code of ref document: A