WO2020251314A1 - 무선 통신 시스템에서 rsu 간의 신호 송수신 방법 - Google Patents

무선 통신 시스템에서 rsu 간의 신호 송수신 방법 Download PDF

Info

Publication number
WO2020251314A1
WO2020251314A1 PCT/KR2020/007680 KR2020007680W WO2020251314A1 WO 2020251314 A1 WO2020251314 A1 WO 2020251314A1 KR 2020007680 W KR2020007680 W KR 2020007680W WO 2020251314 A1 WO2020251314 A1 WO 2020251314A1
Authority
WO
WIPO (PCT)
Prior art keywords
rsu
message
information
location
communication
Prior art date
Application number
PCT/KR2020/007680
Other languages
English (en)
French (fr)
Inventor
황재호
김학성
서한별
김명섭
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/616,016 priority Critical patent/US20220327929A1/en
Publication of WO2020251314A1 publication Critical patent/WO2020251314A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/091Traffic information broadcasting
    • G08G1/094Hardware aspects; Signal processing or signal properties, e.g. frequency bands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/16Interfaces between hierarchically similar devices
    • H04W92/18Interfaces between hierarchically similar devices between terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]

Definitions

  • RSU Road Side Unit
  • a wireless communication system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • division multiple access division multiple access
  • MC-FDMA multi carrier frequency division multiple access
  • RATs radio access technologies
  • 5G is also included here.
  • the three main requirements areas for 5G are (1) Enhanced Mobile Broadband (eMBB) area, (2) Massive Machine Type Communication (mMTC) area, and (3) ultra-reliability and It includes a low-latency communication (Ultra-reliable and Low Latency Communications, URLLC) area.
  • eMBB Enhanced Mobile Broadband
  • mMTC Massive Machine Type Communication
  • URLLC Low Latency communication
  • multiple areas may be required for optimization, and other use cases may be focused on only one key performance indicator (KPI).
  • KPI key performance indicator
  • 5G supports these various use cases in a flexible and reliable way.
  • eMBB goes far beyond basic mobile Internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality.
  • Data is one of the key drivers of 5G, and it may not be possible to see dedicated voice services for the first time in the 5G era.
  • voice is expected to be processed as an application program simply using the data connection provided by the communication system.
  • the main reasons for the increased traffic volume are an increase in content size and an increase in the number of applications requiring high data rates.
  • Streaming services (audio and video), interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to the user.
  • Cloud storage and applications are increasing rapidly in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of the uplink data rate.
  • 5G is also used for remote work in the cloud, and requires much lower end-to-end delays to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming is another key factor that is increasing the demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires very low latency and an instantaneous amount of data.
  • one of the most anticipated 5G use cases relates to the ability to seamlessly connect embedded sensors in all fields, i.e. mMTC.
  • mMTC massive machine type computer
  • Industrial IoT is one of the areas where 5G plays a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC includes new services that will transform the industry with ultra-reliable/low-latency links such as self-driving vehicles and remote control of critical infrastructure.
  • the level of reliability and delay is essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of providing streams rated at hundreds of megabits per second to gigabits per second. This high speed is required to deliver TVs in 4K or higher (6K, 8K and higher) resolutions as well as virtual and augmented reality.
  • Virtual Reality (VR) and Augmented Reality (AR) applications involve almost immersive sports events. Certain application programs may require special network settings. In the case of VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force in 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers demands simultaneous high capacity and high mobility mobile broadband. The reason is that future users will continue to expect high-quality connections, regardless of their location and speed.
  • Another application example in the automotive field is an augmented reality dashboard. It identifies an object in the dark on top of what the driver is looking through the front window, and displays information that tells the driver about the distance and movement of the object overlaid.
  • wireless modules enable communication between vehicles, exchange of information between the vehicle and supporting infrastructure, and exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • the safety system allows the driver to lower the risk of accidents by guiding alternative courses of action to make driving safer.
  • the next step will be a remote controlled or self-driven vehicle. It is very reliable and requires very fast communication between different self-driving vehicles and between the vehicle and the infrastructure. In the future, self-driving vehicles will perform all driving activities, and drivers will be forced to focus only on traffic anomalies that the vehicle itself cannot identify.
  • the technical requirements of self-driving vehicles call for ultra-low latency and ultra-fast reliability to increase traffic safety to levels unachievable by humans.
  • Smart cities and smart homes referred to as smart society, will be embedded with high-density wireless sensor networks.
  • a distributed network of intelligent sensors will identify the conditions for cost and energy-efficient maintenance of a city or home.
  • a similar setup can be done for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all wirelessly connected. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • the smart grid interconnects these sensors using digital information and communication technologies to collect information and act accordingly. This information can include the behavior of suppliers and consumers, allowing smart grids to improve efficiency, reliability, economics, sustainability of production and the distribution of fuels such as electricity in an automated way.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system can support telemedicine providing clinical care from remote locations. This can help reduce barriers to distance and improve access to medical services that are not consistently available in remote rural areas. It is also used to save lives in critical care and emergencies.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable wireless links is an attractive opportunity for many industries. However, achieving this requires that the wireless connection operates with a delay, reliability and capacity similar to that of the cable, and its management is simplified. Low latency and very low error probability are new requirements that need to be connected to 5G.
  • Logistics and freight tracking are important use cases for mobile communications that enable tracking of inventory and packages from anywhere using location-based information systems. Logistics and freight tracking use cases typically require low data rates, but require a wide range and reliable location information.
  • a wireless communication system is a multiple access system that supports communication with multiple users by sharing available system resources (eg, bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) system, MC-FDMA (multi carrier frequency division multiple access) system, and the like.
  • a sidelink refers to a communication method in which a direct link is established between terminals (User Equipment, UEs) to directly exchange voice or data between terminals without going through a base station (BS).
  • SL is being considered as a solution to the burden on the base station due to rapidly increasing data traffic.
  • V2X vehicle-to-everything refers to a communication technology that exchanges information with other vehicles, pedestrians, and infrastructure-built objects through wired/wireless communication.
  • V2X can be divided into four types: vehicle-to-vehicle (V2V), vehicle-to-infrastructure (V2I), vehicle-to-network (V2N), and vehicle-to-pedestrian (V2P).
  • V2X communication may be provided through a PC5 interface and/or a Uu interface.
  • next-generation radio access technology in consideration of the like may be referred to as a new radio access technology (RAT) or a new radio (NR).
  • RAT new radio access technology
  • NR new radio
  • V2X vehicle-to-everything
  • FIG. 1 is a diagram for explaining by comparing V2X communication based on RAT before NR and V2X communication based on NR.
  • V2X communication a method of providing safety services based on V2X messages such as BSM (Basic Safety Message), CAM (Cooperative Awareness Message), and DENM (Decentralized Environmental Notification Message) in RAT before NR
  • BSM Basic Safety Message
  • CAM Cooperative Awareness Message
  • DENM Decentralized Environmental Notification Message
  • the V2X message may include location information, dynamic information, attribute information, and the like.
  • the terminal may transmit a periodic message type CAM and/or an event triggered message type DENM to another terminal.
  • the CAM may include basic vehicle information such as dynamic state information of the vehicle such as direction and speed, vehicle static data such as dimensions, external lighting conditions, and route history.
  • the terminal may broadcast the CAM, and the latency of the CAM may be less than 100 ms.
  • the terminal may generate a DENM and transmit it to another terminal.
  • all vehicles within the transmission range of the terminal may receive CAM and/or DENM.
  • DENM may have a higher priority than CAM.
  • V2X scenarios may include vehicle platooning, advanced driving, extended sensors, remote driving, and the like.
  • vehicles can dynamically form groups and move together. For example, in order to perform platoon operations based on vehicle platooning, vehicles belonging to the group may receive periodic data from the leading vehicle. For example, vehicles belonging to the group may use periodic data to reduce or widen the distance between vehicles.
  • the vehicle can be semi-automated or fully automated.
  • each vehicle may adjust trajectories or maneuvers based on data acquired from a local sensor of a proximity vehicle and/or a proximity logical entity.
  • each vehicle may share a driving intention with nearby vehicles.
  • raw data or processed data, or live video data acquired through local sensors may be used as vehicles, logical entities, pedestrian terminals, and / Or can be exchanged between V2X application servers.
  • the vehicle can recognize an improved environment than the environment that can be detected using its own sensor.
  • a remote driver or a V2X application may operate or control the remote vehicle.
  • a route can be predicted such as in public transportation
  • cloud computing-based driving may be used for operation or control of the remote vehicle.
  • access to a cloud-based back-end service platform may be considered for remote driving.
  • V2X communication based on NR a method of specifying service requirements for various V2X scenarios such as vehicle platooning, improved driving, extended sensors, and remote driving is being discussed in V2X communication based on NR.
  • the embodiment(s) makes it a technical task to generate construction site information by reflecting information that fluctuates in real time using RSU.
  • the embodiment(s) makes it a technical task to detect collisions or dangers occurring in a construction site area in real time using RSU and notify the surrounding V2X devices.
  • a method of performing an operation for a first RSU (Road Side Unit) in a wireless communication system transmitting a first message to a second RSU and receiving a second message from the second RSU
  • the first message includes location information and a first location list of the first RSU
  • the second message includes location information and a second location list of the second RSU
  • the first The location list is a method, updated by the location information of the second RSU and the second location list.
  • a wireless communication system at least one processor and at least one computer that can be operably connected to the at least one processor and store instructions that, when executed, cause the at least one processor to perform operations And a memory, wherein the operations include transmitting a first message to a second RSU and receiving a second message from the second RSU, wherein the first message includes location information of the first RSU and A first location list is included, and the second message includes location information of the second RSU and a second location list, and the first location list is based on the location information of the second RSU and the second location list. Is the first RSU to be updated.
  • One embodiment is a computer-readable storage medium storing at least one computer program including instructions for causing at least one processor to perform operations for a UE, when executed by at least one processor, the operations , Transmitting a first message to a second RSU and receiving a second message from the second RSU, wherein the first message includes location information and a first location list of the first RSU, The second message includes location information of the second RSU and a second location list, and the first location list is a medium, updated by the location information of the second RSU and the second location list.
  • the first location list and the second location list may include location information of one or more RSUs installed in a construction site area.
  • the first message may be transmitted to the second RSU.
  • the first message may include setting type information, and based on a start button being input to the first RSU, the setting type information may indicate a start state.
  • the first message may include a timeout time, and transmission of the first message may be stopped based on the lapse of the timeout time after the start button is input to the first RSU.
  • the first message may include location information of the changed first RSU.
  • the first message and the second message may include event information, and the event information may include information on a dangerous situation occurring in a construction site area.
  • the first RSU and the second RSU may be unicast connected.
  • the first RSU may be included in an autonomous vehicle or an autonomous vehicle.
  • information on a construction site area that changes in real time may be accurately and quickly generated through communication between RSUs.
  • FIG. 1 is a diagram for explaining by comparing V2X communication based on RAT before NR and V2X communication based on NR.
  • FIG. 2 shows a structure of an LTE system according to an embodiment of the present disclosure.
  • FIG 3 illustrates a radio protocol architecture for a user plane and a control plane according to an embodiment of the present disclosure.
  • FIG. 4 illustrates a structure of an NR system according to an embodiment of the present disclosure.
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • FIG. 6 shows a structure of an NR radio frame to which the embodiment(s) can be applied.
  • FIG. 7 shows a slot structure of an NR frame according to an embodiment of the present disclosure.
  • FIG 9 shows an ITS reference structure according to an embodiment of the present disclosure.
  • FIG. 10 is an exemplary structure of an ITS station according to an embodiment of the present disclosure.
  • FIG 11 is an exemplary structure of a facility layer according to an embodiment of the present disclosure.
  • 30 to 39 are diagrams illustrating various devices to which the embodiment(s) can be applied.
  • “/” and “,” should be interpreted as representing “and/or”.
  • “A/B” may mean “A and/or B”.
  • “A, B” may mean “A and/or B”.
  • “A/B/C” may mean “at least one of A, B and/or C”.
  • “A, B, C” may mean “at least one of A, B and/or C”.
  • “or” should be interpreted as representing “and/or”.
  • “A or B” may include “only A”, “only B”, and/or “both A and B”.
  • “or” should be interpreted as indicating “additionally or alternatively”.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • CDMA may be implemented with a radio technology such as universal terrestrial radio access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as global system for mobile communications (GSM)/general packet radio service (GPRS)/enhanced data rates for GSM evolution (EDGE).
  • GSM global system for mobile communications
  • GPRS general packet radio service
  • EDGE enhanced data rates for GSM evolution
  • OFDMA may be implemented with wireless technologies such as IEEE (institute of electrical and electronics engineers) 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, and E-UTRA (evolved UTRA).
  • IEEE 802.16m is an evolution of IEEE 802.16e and provides backward compatibility with a system based on IEEE 802.16e.
  • UTRA is part of a universal mobile telecommunications system (UMTS).
  • 3rd generation partnership project (3GPP) long term evolution (LTE) is a part of evolved UMTS (E-UMTS) that uses evolved-UMTS terrestrial radio access (E-UTRA), and employs OFDMA in downlink and SC in uplink.
  • -Adopt FDMA is an evolution of 3GPP LTE.
  • 5G NR is the successor technology of LTE-A, and is a new clean-slate type mobile communication system with features such as high performance, low latency, and high availability.
  • 5G NR can utilize all available spectrum resources, from low frequency bands of less than 1 GHz to intermediate frequency bands of 1 GHz to 10 GHz and high frequency (millimeter wave) bands of 24 GHz or higher.
  • LTE-A or 5G NR is mainly described, but the technical idea according to an embodiment of the present disclosure is not limited thereto.
  • E-UTRAN Evolved-UMTS Terrestrial Radio Access Network
  • LTE Long Term Evolution
  • the E-UTRAN includes a base station 20 that provides a control plane and a user plane to the terminal 10.
  • the terminal 10 may be fixed or mobile, and may be referred to as other terms such as a mobile station (MS), a user terminal (UT), a subscriber station (SS), a mobile terminal (MT), and a wireless device.
  • the base station 20 refers to a fixed station communicating with the terminal 10, and may be referred to as an evolved-NodeB (eNB), a base transceiver system (BTS), an access point, and the like.
  • eNB evolved-NodeB
  • BTS base transceiver system
  • access point and the like.
  • the base stations 20 may be connected to each other through an X2 interface.
  • the base station 20 is connected to an Evolved Packet Core (EPC) 30 through an S1 interface, more specifically, a Mobility Management Entity (MME) through an S1-MME and a Serving Gateway (S-GW) through an S1-U.
  • EPC Evolved Packet Core
  • MME Mobility Management Entity
  • S-GW Serving Gateway
  • the EPC 30 is composed of MME, S-GW, and P-GW (Packet Data Network-Gateway).
  • the MME has access information of the terminal or information on the capabilities of the terminal, and this information is mainly used for mobility management of the terminal.
  • S-GW is a gateway having an E-UTRAN as an endpoint
  • P-GW is a gateway having a PDN (Packet Date Network) as an endpoint.
  • the layers of the Radio Interface Protocol between the terminal and the network are L1 (Layer 1) based on the lower 3 layers of the Open System Interconnection (OSI) standard model, which is widely known in communication systems. It can be divided into L2 (second layer) and L3 (third layer).
  • L2 second layer
  • L3 third layer
  • the physical layer belonging to the first layer provides an information transfer service using a physical channel
  • the radio resource control (RRC) layer located in the third layer is a radio resource between the terminal and the network. It plays the role of controlling To this end, the RRC layer exchanges RRC messages between the terminal and the base station.
  • 3(a) shows a radio protocol architecture for a user plane according to an embodiment of the present disclosure.
  • the user plane is a protocol stack for transmitting user data
  • the control plane is a protocol stack for transmitting control signals.
  • a physical layer provides an information transmission service to an upper layer using a physical channel.
  • the physical layer is connected to an upper layer, a medium access control (MAC) layer, through a transport channel. Data is moved between the MAC layer and the physical layer through the transport channel. Transmission channels are classified according to how and with what characteristics data is transmitted over the air interface.
  • MAC medium access control
  • the physical channel may be modulated in an Orthogonal Frequency Division Multiplexing (OFDM) scheme, and uses time and frequency as radio resources.
  • OFDM Orthogonal Frequency Division Multiplexing
  • the MAC layer provides a service to an upper layer, a radio link control (RLC) layer, through a logical channel.
  • the MAC layer provides a mapping function from a plurality of logical channels to a plurality of transport channels.
  • the MAC layer provides a logical channel multiplexing function by mapping a plurality of logical channels to a single transport channel.
  • the MAC sublayer provides a data transmission service on a logical channel.
  • the RLC layer performs concatenation, segmentation, and reassembly of RLC Serving Data Units (SDUs).
  • SDUs RLC Serving Data Units
  • the RLC layer has a Transparent Mode (TM), Unacknowledged Mode (UM), and Acknowledged Mode. , AM).
  • TM Transparent Mode
  • UM Unacknowledged Mode
  • AM Acknowledged Mode.
  • AM RLC provides error correction through automatic repeat request (ARQ).
  • the Radio Resource Control (RRC) layer is defined only in the control plane.
  • the RRC layer is in charge of controlling logical channels, transport channels, and physical channels in relation to configuration, re-configuration, and release of radio bearers.
  • RB refers to a logical path provided by a first layer (physical layer or PHY layer) and a second layer (MAC layer, RLC layer, and Packet Data Convergence Protocol (PDCP) layer) for data transfer between the terminal and the network.
  • MAC layer physical layer
  • RLC layer Radio Link Control Protocol
  • PDCP Packet Data Convergence Protocol
  • the functions of the PDCP layer in the user plane include transmission of user data, header compression, and ciphering.
  • the functions of the PDCP layer in the control plane include transmission of control plane data and encryption/integrity protection.
  • Establishing the RB refers to a process of defining characteristics of a radio protocol layer and channel to provide a specific service, and setting specific parameters and operation methods for each.
  • the RB can be further divided into two types: Signaling Radio Bearer (SRB) and Data Radio Bearer (DRB).
  • SRB is used as a path for transmitting RRC messages in the control plane
  • DRB is used as a path for transmitting user data in the user plane.
  • the UE When an RRC connection is established between the RRC layer of the UE and the RRC layer of the E-UTRAN, the UE is in the RRC_CONNECTED state, otherwise it is in the RRC_IDLE state.
  • the RRC_INACTIVE state is additionally defined, and the terminal in the RRC_INACTIVE state can release the connection with the base station while maintaining the connection with the core network.
  • a downlink transmission channel for transmitting data from a network to a terminal there is a broadcast channel (BCH) for transmitting system information and a downlink shared channel (SCH) for transmitting user traffic or control messages.
  • BCH broadcast channel
  • SCH downlink shared channel
  • downlink multicast or broadcast service traffic or control messages they may be transmitted through a downlink SCH or a separate downlink multicast channel (MCH).
  • RACH random access channel
  • SCH uplink shared channel
  • BCCH Broadcast Control Channel
  • PCCH Paging Control Channel
  • CCCH Common Control Channel
  • MCCH Multicast Control Channel
  • MTCH Multicast Traffic. Channel
  • the physical channel is composed of several OFDM symbols in the time domain and several sub-carriers in the frequency domain.
  • One sub-frame is composed of a plurality of OFDM symbols in the time domain.
  • a resource block is a resource allocation unit and is composed of a plurality of OFDM symbols and a plurality of sub-carriers.
  • each subframe may use specific subcarriers of specific OFDM symbols (eg, the first OFDM symbol) of the corresponding subframe for the PDCCH (Physical Downlink Control Channel), that is, the L1/L2 control channel.
  • TTI Transmission Time Interval
  • FIG. 4 illustrates a structure of an NR system according to an embodiment of the present disclosure.
  • a Next Generation Radio Access Network may include a next generation-Node B (gNB) and/or an eNB that provides user plane and control plane protocol termination to a terminal.
  • gNB next generation-Node B
  • eNB that provides user plane and control plane protocol termination to a terminal.
  • 4 illustrates a case where only gNB is included.
  • the gNB and the eNB are connected to each other through an Xn interface.
  • the gNB and eNB are connected to the 5th generation core network (5G Core Network: 5GC) through the NG interface.
  • 5G Core Network 5GC
  • the access and mobility management function AMF
  • UPF user plane function
  • 5 illustrates functional division between NG-RAN and 5GC according to an embodiment of the present disclosure.
  • the gNB is inter-cell radio resource management (Inter Cell RRM), radio bearer management (RB control), connection mobility control (Connection Mobility Control), radio admission control (Radio Admission Control), measurement setting and provision Functions such as (Measurement configuration & Provision) and dynamic resource allocation may be provided.
  • AMF can provide functions such as non-access stratum (NAS) security and idle state mobility processing.
  • UPF may provide functions such as mobility anchoring and Protocol Data Unit (PDU) processing.
  • SMF Session Management Function
  • FIG. 6 shows the structure of an NR radio frame to which the present invention can be applied.
  • radio frames may be used in uplink and downlink transmission in NR.
  • the radio frame has a length of 10 ms and may be defined as two 5 ms half-frames (HF).
  • the half-frame may include five 1ms subframes (Subframe, SF).
  • a subframe may be divided into one or more slots, and the number of slots within a subframe may be determined according to a subcarrier spacing (SCS).
  • SCS subcarrier spacing
  • Each slot may include 12 or 14 OFDM(A) symbols according to a cyclic prefix (CP).
  • CP cyclic prefix
  • each slot may include 14 symbols.
  • each slot may include 12 symbols.
  • the symbol may include an OFDM symbol (or CP-OFDM symbol), an SC-FDMA symbol (or DFT-s-OFDM symbol).
  • Table 1 below shows the number of symbols per slot according to the SCS setting ( ⁇ ) when normal CP is used ( ), number of slots per frame ( ) And the number of slots per subframe ( ) For example.
  • Table 2 illustrates the number of symbols per slot, the number of slots per frame, and the number of slots per subframe according to the SCS when the extended CP is used.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • OFDM(A) numerology eg, SCS, CP length, etc.
  • the (absolute time) section of the time resource e.g., subframe, slot or TTI
  • TU Time Unit
  • multiple numerology or SCS to support various 5G services may be supported.
  • SCS when the SCS is 15 kHz, a wide area in traditional cellular bands can be supported, and when the SCS is 30 kHz/60 kHz, a dense-urban, lower delay latency) and a wider carrier bandwidth may be supported.
  • SCS when the SCS is 60 kHz or higher, a bandwidth greater than 24.25 GHz may be supported to overcome phase noise.
  • the NR frequency band can be defined as two types of frequency ranges.
  • the two types of frequency ranges may be FR1 and FR2.
  • the numerical value of the frequency range may be changed, for example, the two types of frequency ranges may be shown in Table 3 below.
  • FR1 can mean “sub 6GHz range”
  • FR2 can mean “above 6GHz range” and can be called millimeter wave (mmW).
  • mmW millimeter wave
  • FR1 may include a band of 410MHz to 7125MHz as shown in Table 4 below. That is, FR1 may include a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher. For example, a frequency band of 6 GHz (or 5850, 5900, 5925 MHz, etc.) or higher included in FR1 may include an unlicensed band.
  • the unlicensed band can be used for a variety of purposes, and can be used, for example, for communication for vehicles (eg, autonomous driving).
  • FIG. 7 shows a slot structure of an NR frame according to an embodiment of the present disclosure.
  • a slot includes a plurality of symbols in the time domain.
  • one slot includes 14 symbols, but in the case of an extended CP, one slot may include 12 symbols.
  • one slot may include 7 symbols, but in the case of an extended CP, one slot may include 6 symbols.
  • the carrier includes a plurality of subcarriers in the frequency domain.
  • Resource Block (RB) may be defined as a plurality of (eg, 12) consecutive subcarriers in the frequency domain.
  • BWP Bandwidth Part
  • P Physical Resource Block
  • the carrier may include up to N (eg, 5) BWPs. Data communication can be performed through an activated BWP.
  • Each element may be referred to as a resource element (RE) in the resource grid, and one complex symbol may be mapped.
  • the radio interface between the terminal and the terminal or the radio interface between the terminal and the network may be composed of an L1 layer, an L2 layer, and an L3 layer.
  • the L1 layer may mean a physical layer.
  • the L2 layer may mean at least one of a MAC layer, an RLC layer, a PDCP layer, and an SDAP layer.
  • the L3 layer may mean an RRC layer.
  • V2X or SL (sidelink) communication will be described.
  • FIG. 8 shows three cast types according to an embodiment of the present disclosure.
  • FIG. 8(a) shows a broadcast type SL communication
  • FIG. 8(b) shows a unicast type SL communication
  • FIG. 8(c) shows a groupcast type SL communication.
  • a terminal may perform one-to-one communication with another terminal.
  • a terminal may perform SL communication with one or more terminals in a group to which it belongs.
  • SL groupcast communication may be replaced with SL multicast communication, SL one-to-many communication, or the like.
  • CAM Cooperative Awareness Message
  • DENM Decentralized Environmental Notification Message
  • a periodic message type CAM In vehicle-to-vehicle communication, a periodic message type CAM, an event triggered message type DENM, and the like may be transmitted.
  • the CAM may include basic vehicle information such as dynamic state information of the vehicle such as direction and speed, vehicle static data such as dimensions, external lighting conditions, and route history.
  • the size of the CAM can be 50-300 bytes.
  • CAM is broadcast, and the latency should be less than 100ms.
  • DENM may be a message generated in case of an unexpected situation such as a vehicle breakdown or an accident.
  • the size of the DENM can be less than 3000 bytes, and any vehicle within the transmission range can receive the message. In this case, DENM may have a higher priority than CAM.
  • the transmitting terminal may need to establish an RRC connection with the receiving terminal (PC5).
  • the terminal may acquire a V2X-specific SIB (V2X-specific SIB).
  • V2X-specific SIB For a terminal, having data to be transmitted, configured to transmit V2X or SL communication by a higher layer, if at least a frequency configured to be transmitted by the terminal for SL communication is included in the V2X-specific SIB, the transmission resource pool for the corresponding frequency Without including, the terminal can establish an RRC connection with another terminal. For example, when an RRC connection is established between the transmitting terminal and the receiving terminal, the transmitting terminal may perform unicast communication with the receiving terminal through the established RRC connection.
  • the transmitting terminal may transmit an RRC message to the receiving terminal.
  • HARQ hybrid automatic repeat request
  • An error compensation scheme for securing the reliability of communication may include a Forward Error Correction (FEC) scheme and an Automatic Repeat Request (ARQ) scheme.
  • FEC Forward Error Correction
  • ARQ Automatic Repeat Request
  • an error at the receiving end can be corrected by adding an extra error correction code to information bits.
  • the FEC method has the advantage that time delay is small and information exchanged between the transmitting and receiving ends is not required, there is a disadvantage that the system efficiency is deteriorated in a good channel environment.
  • the ARQ method can increase transmission reliability, there is a disadvantage in that a time delay occurs and system efficiency decreases in a poor channel environment.
  • the HARQ (Hybrid Automatic Repeat Request) method is a combination of FEC and ARQ, and it is possible to increase performance by checking whether data received by the physical layer contains an undecodeable error and requesting retransmission when an error occurs.
  • HARQ feedback and HARQ combining in the physical layer may be supported.
  • the receiving terminal when the receiving terminal operates in the resource allocation mode 1 or 2, the receiving terminal can receive the PSSCH from the transmitting terminal, and the receiving terminal can receive Sidelink Feedback Control Information (SFCI) through a Physical Sidelink Feedback Channel (PSFCH).
  • SFCI Sidelink Feedback Control Information
  • PSFCH Physical Sidelink Feedback Channel
  • HARQ feedback for PSSCH may be transmitted to the transmitting terminal using the format.
  • SL HARQ feedback may be enabled for unicast.
  • the receiving terminal in a non-CBG (non-Code Block Group) operation, when the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal HARQ-ACK can be generated. And, the receiving terminal may transmit the HARQ-ACK to the transmitting terminal.
  • the receiving terminal after the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal does not successfully decode the transport block related to the PSCCH, the receiving terminal may generate HARQ-NACK. And, the receiving terminal may transmit HARQ-NACK to the transmitting terminal.
  • SL HARQ feedback may be enabled for groupcast.
  • two HARQ feedback options may be supported for groupcast.
  • Groupcast option 1 After the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal fails to decode the transport block related to the PSCCH, the receiving terminal sends HARQ-NACK through PSFCH. It can be transmitted to the transmitting terminal. On the other hand, if the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal may not transmit HARQ-ACK to the transmitting terminal.
  • Groupcast option 2 After the receiving terminal decodes the PSCCH targeting the receiving terminal, if the receiving terminal fails to decode the transport block related to the PSCCH, the receiving terminal sends HARQ-NACK through the PSFCH. It can be transmitted to the transmitting terminal. And, when the receiving terminal decodes the PSCCH targeting the receiving terminal, and the receiving terminal successfully decodes the transport block related to the PSCCH, the receiving terminal may transmit HARQ-ACK to the transmitting terminal through the PSFCH.
  • all terminals performing groupcast communication may share PSFCH resources.
  • a terminal belonging to the same group may transmit HARQ feedback using the same PSFCH resource.
  • each terminal performing groupcast communication may use different PSFCH resources for HARQ feedback transmission.
  • UEs belonging to the same group may transmit HARQ feedback using different PSFCH resources.
  • the receiving terminal may determine whether to transmit the HARQ feedback to the transmitting terminal based on a TX-RX (Transmission-Reception) distance and/or RSRP.
  • TX-RX Transmission-Reception
  • the receiving terminal may transmit HARQ feedback for the PSSCH to the transmitting terminal.
  • the receiving terminal may not transmit HARQ feedback for the PSSCH to the transmitting terminal.
  • the transmitting terminal may inform the receiving terminal of the location of the transmitting terminal through SCI related to the PSSCH.
  • the SCI related to the PSSCH may be a second SCI.
  • the receiving terminal may estimate or obtain the TX-RX distance based on the location of the receiving terminal and the location of the transmitting terminal.
  • the receiving terminal decodes the SCI related to the PSSCH to know the communication range requirement used for the PSSCH.
  • the time between PSFCH and PSSCH may be set or may be preset.
  • this can be indicated to the base station by the terminal within the coverage using the PUCCH.
  • the transmitting terminal may transmit an indication to the serving base station of the transmitting terminal in a form such as SR (Scheduling Request)/BSR (Buffer Status Report), not in the form of HARQ ACK/NACK.
  • SR Service Request
  • BSR Buffer Status Report
  • the base station can schedule the SL retransmission resource to the terminal.
  • the time between the PSFCH and the PSSCH may be set or may be preset.
  • the TDM between the PSCCH/PSSCH and the PSFCH may be allowed for the PSFCH format for the SL in the slot.
  • a sequence-based PSFCH format having one symbol may be supported.
  • the one symbol may not be an AGC interval.
  • the sequence-based PSFCH format can be applied to unicast and groupcast.
  • the PSFCH resource may be periodically set in an N slot period or may be set in advance.
  • N may be set to one or more values.
  • N can be 1, 2 or 4.
  • HARQ feedback for transmission in a specific resource pool may be transmitted only through PSFCH on the specific resource pool.
  • slot # (N + A) may include PSFCH resources.
  • A may be the smallest integer greater than or equal to K.
  • K may be the number of logical slots. In this case, K may be the number of slots in the resource pool. Or, for example, K may be the number of physical slots. In this case, K may be the number of slots inside and outside the resource pool.
  • the receiving terminal in response to one PSSCH transmitted by the transmitting terminal to the receiving terminal, when the receiving terminal transmits HARQ feedback on the PSFCH resource, the receiving terminal is the PSFCH resource based on an implicit mechanism within the set resource pool.
  • a frequency domain and/or a code domain of may be determined.
  • the receiving terminal is among the identifiers for distinguishing each receiving terminal from a group for HARQ feedback based on a slot index related to PSCCH/PSSCH/PSFCH, a subchannel related to PSCCH/PSSCH, and/or groupcast option 2 Based on at least any one, the frequency domain and/or the code domain of the PSFCH resource may be determined. And/or, for example, the receiving terminal may determine the frequency domain and/or the code domain of the PSFCH resource based on at least one of SL RSRP, SINR, L1 source ID, and/or location information.
  • the terminal can perform either HARQ feedback transmission through PSFCH or HARQ feedback reception through PSFCH based on the priority rule.
  • the priority rule may be based on a minimum priority indication of the related PSCCH/PSSCH.
  • the terminal may select specific HARQ feedback transmission based on a priority rule.
  • the priority rule may be based on a minimum priority indication of the related PSCCH/PSSCH.
  • ITS Intelligent Transport Systems
  • ITS is a system that automates the operation and management of the transportation system and improves the efficiency and safety of transportation by providing transportation information and services by incorporating advanced technology into transportation means and transportation facilities.
  • a high pass system used when driving a vehicle a bus arrival guidance system used when riding public transportation, and real-time signal control according to traffic conditions may correspond to ITS.
  • Conventional ITS is mainly applied to a traffic management-oriented system that provides information to vehicles in one direction.
  • C-ITS Cooperative ITS
  • ITS is a system that prevents traffic accidents by checking or warning in real time danger information such as surrounding traffic conditions and sudden stops and falling objects while the vehicle is driving, communicating with other vehicles or infrastructure installed on the road.
  • ITS Intelligent Transport System
  • ITS Intelligent Transport System
  • V2X Vehicle-to-everything
  • Access layer mainly the Access layer, Network & Transport layer, Facilities layer, Application layer, and Security. It can be composed of an entity for management and management.
  • Vehicle communication includes vehicle-to-vehicle communication (V2V), vehicle-to-base station communication (V2N, N2V), vehicle-to-RSU (Road-Side Unit) communication (V2I, I2V), RSU-to-RSU communication (I2I), vehicle-to-person communication. It can be applied to various scenarios such as communication (V2P, P2V) and communication between RSU and people (I2P, P2I). Vehicles, base stations, RSUs, people, etc. that are the subjects of vehicle communication are referred to as ITS stations.
  • FIG 9 shows an ITS reference structure according to an embodiment of the present disclosure.
  • FIG. 9 is an ITS station reference architecture defined in ISO 21217/EN 302 665, in which an access layer, a networking and transport layer, a facility layer, an entity for security and management, and a top level It is composed of an application layer, and basically follows the layered OSI (layered OSI) model.
  • layered OSI layered OSI
  • the access layer of the ITS station corresponds to OSI layer 1 (physical layer) and layer 2 (data connection layer), and the networking and transport layer of the ITS station is at OSI layer 3 (network layer) and layer 4 (transport layer).
  • the facility layer of the ITS station corresponds to the OSI layer 5 (session layer), layer 6 (presentation layer) and layer 7 (application layer).
  • the application layer located at the top of the ITS station actually implements and supports the use-case and can be used selectively according to the use-case.
  • the management entity is responsible for managing all layers including communication and operation of the ITS station.
  • Security entities provide security services for all layers.
  • Each layer of the ITS station exchanges data transmitted or received through vehicle communication and additional information for various purposes through interfacing.
  • FIG. 10 is an exemplary structure of an ITS station according to an embodiment of the present disclosure.
  • FIG. 10 shows an example structure of an ITS station that can be designed and applied based on the reference structure of the ITS station described in FIG. 9.
  • Fig. 9 The main concept of the structure of Fig. 9 is to allow the communication processing to be divided by layer with a special function of each layer between two end vehicles/users composed of a communication network.
  • the vehicle and the ITS system or other ITS-related terminals/systems
  • ITS or other ITS-related terminals/systems
  • ITS are passed up one layer at a time.
  • the ITS system through vehicle communication and network is organically designed in consideration of various access technologies, network protocols, and communication interfaces to support various use-cases, and the roles and functions of each layer described below may change according to the situation. I can. The following briefly describes the functionality of the facility layer:
  • the facility layer plays a role of supporting effective realization of various use-cases defined in the upper application layer. For example, application support, information support, session/communication support ).
  • FIG 11 is an exemplary structure of a facility layer according to an embodiment of the present disclosure.
  • the facility layer basically supports the upper three layers of the OSI model (eg, session layer, presentation layer, application layer). Specifically, for ITS, facilities such as application support, information support, and session/communication support are provided as shown in FIG. 11.
  • the facility means a component that provides functionality, information, and data.
  • -Application support facility A facility that supports the operation of ITS applications (mainly, ITS message generation, transmission/reception with lower layers, and management thereof).
  • CA Cooperative Awareness
  • DEN Decentralized Environmental Notification
  • facility entities and related messages for new services such as CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), and CPS (Collective Perception Service) may be additionally defined.
  • -Information support facility A facility that provides common data information or database to be used by various ITS applications, such as Local Dynamic Map (LDM).
  • LDM Local Dynamic Map
  • -Session/Communication Support Facility A facility that provides services for communication and session management, including addressing mode and session support.
  • facilities can be divided into common facilities and domain facilities.
  • -Common facility A facility that provides common services or functions necessary for the operation of various ITS applications and ITS stations. Examples include time management, location management, and service management.
  • -Domain facility A facility that provides special services or functions required only for some (one or more) ITS applications, such as DEN Basic Services for Road Hazard Warning applications (RHW).
  • the domain facility is an optional function and is not used unless it is supported by the ITS station.
  • Layer Management Facility Manages and services information related to the operation and security of the layer, and the related information includes MF (interface between management entity and facilities layer) and SF (interface between security entity and facilities layer) (or MF- It is transmitted and shared in both directions through SAP, SF-SAP). Requests from the application layer to the facility layer or the delivery of service messages and related information from the facility layer to the application layer are performed through FA (or FA-SAP), and bidirectional service messages between the facility layer and the lower networking and transport layers The related information is transmitted by NF (Interface between Networking and Transport Layer and Facility Layer, or NF-SAP).
  • NF Interface between Networking and Transport Layer and Facility Layer
  • V2X V2X
  • devices and standards are being developed that enable vehicles equipped with V2X receivers to obtain construction site information in advance from a long distance. For this, the location and period of the construction site are defined and set in advance, and the construction site information is inserted and transmitted in a message such as CAM (BSM) from the V2X device.
  • BSM CAM
  • FIG. 12 is a diagram for explaining a general construction site information transmission method.
  • a labacon 101 or the like may be installed to mark a construction site area along the periphery of the construction site.
  • the Ravacon is equipped with a communication system and can operate as a roadside unit (RSU) capable of performing V2X communication with surrounding vehicles.
  • the RSU may transmit construction site information including location or period information of the construction site to surrounding vehicles through a message such as a CAM (Cooperative Awareness Message) or BSM (Basic Safety Message). Since the construction site information is predefined and set, even if the location of the RSU is changed due to a change in the actual construction site area, the RSU can transmit only the initially set construction site information to nearby vehicles.
  • information on a conventional construction site may be displayed in units of lanes.
  • the actual construction site area corresponds to a partial area of the lane rather than the lane unit, there may be a problem that the actual construction site area and the construction site area included in the construction site information do not exactly match.
  • the conventional construction site information is set by defining the location and period of the construction site in advance. Therefore, when working along the road, such as painting lanes, the location of the actual construction site and the location of construction site information transmitted through V2X may be shifted over time. As such, the existing construction site information transmission method may cause a problem in that it is not possible to display the exact location of the construction site in real time.
  • FIG. 13 is a view for explaining a method of setting a construction site area according to the embodiment(s) of the present specification.
  • devices 1 to 7 may be V2X devices capable of V2X communication installed around a construction site area.
  • devices 1 to 7 may be described as a device, a V2X device, a construction site guide device, an RSU, or an infrastructure.
  • Each device can set a construction site area by transmitting a setting message including its location information to each other.
  • the construction site area is set through I2I communication using the V2X device.
  • a construction worker or a user may set common information such as a construction schedule and construction details to each device before disposing the devices 1 to 7 in each area. Thereafter, the construction site worker may install each device one by one around the construction site area. Construction workers can notify the completion of installation by pressing the set button on the V2X device when installing each device.
  • the V2X device installed in this way receives location information through GPS and transmits its installed location information to nearby devices. Construction workers install each device in the same way along the construction site area. For example, a construction worker may input construction site information to each device, install device 1 at a specific location in the construction site area, and press the set button of device 1.
  • Device 1 may receive its location information through GPS and transmit its location information to each of devices 2 to 7.
  • the construction site worker performs the same task on devices 2 to 7, and each device can share its location information with other devices.
  • the construction site worker can drive the corresponding construction site guide device by pressing the start button on one of the devices.
  • the devices transmit an I2I message, (for example, a setting message) to proceed with the construction site guidance service (I2V).
  • I2I message for example, a setting message
  • Each device transmits a setting message for a certain time out to enable all devices to provide construction site information service.
  • devices 1 to 7 can propagate dangerous situations through I2I in an emergency situation as well as a construction site guidance service of a general construction site guidance device.
  • each device communicates the danger status to each other using I2I communication to notify the danger signal to the VRUs working in the vicinity. Will be given. Through this, it is possible to protect VRUs (construction workers) working in the construction site.
  • FIG. 14 is a diagram for explaining a method of warning a dangerous state according to the exemplary embodiment(s) of the present specification.
  • devices 1 101 to 7 may be installed in a construction site area, and there may be a danger situation in which a vehicle 201 traveling around a construction site hits the device 3 103.
  • Device 3 103 detects an impact using an impact sensor or the like, and if an impact is detected, Device 3 can propagate a warning message to peripheral devices using an I2I message in addition to the existing I2V message.
  • Peripheral devices can also receive a warning message and propagate the warning message to the surroundings to give a warning to the VRU (construction worker) 302 working at a construction site outside the vehicle V2X coverage.
  • the device 3 103 may detect the impact using an impact sensor or the like. Before the accident, device 3 continuously transmits an I2V message including construction site area information to nearby vehicles. When device 3 detects an impact and recognizes that an accident has occurred, it can transmit an I2I message warning of a dangerous state to the peripheral device in addition to the previously transmitted I2V message. Accordingly, Device 3 can transmit the accident occurrence to other devices, and can warn construction workers working in remote locations of a dangerous state. When the construction site worker has a very large construction site area and it is difficult to recognize the fact of an accident occurring within the construction site area, a dangerous state may be warned through the embodiments proposed in the present specification.
  • the area of the construction site can be adjusted in real time.
  • 15 is a view for explaining a construction site location setting method according to the embodiment(s) of the present specification.
  • the location of device 1 may be changed from point 1 to point 1', the location of device 2 is from point 2 to point 2', and the location of device 3 is from point 3 It can be changed to 3'.
  • each device can transmit only information on the initially set construction site area, when the construction site area is changed, information on the changed construction site area cannot be transmitted.
  • the construction site worker when the construction site worker moves the location of each device, the construction site worker sets each device again so that information on the changed construction site area can be transmitted.
  • a construction worker can press the set button of each device and install the device at the desired location.
  • the construction worker may press the set button after changing the location of the device.
  • the setting method of such a construction worker is only an example, and can be performed in various ways.
  • the construction worker may press the set button after installing the device at the location to be changed.
  • the device may measure its own location and transmit its new location information to nearby devices. After the device reinstallation is completed, the devices can share new location information for a specific time out, and then transmit a new V2X message to the surrounding car to guide the new construction area.
  • 16 is a diagram showing a message structure according to the embodiment(s) of the present specification.
  • FIG. 16A shows a message structure in which an I2I message is added by extending a conventional infrastructure message (V2I).
  • V2I a conventional infrastructure message
  • This is a structure in which a setting container and an event container for an I2I message are added to the conventional RSM (Road Safety Message).
  • Figure 16 (b) is a new I2I dedicated message (IOM; Infrastructure Operating Message) structure.
  • a message for I2I communication may be composed of a setting container used for configuring the infrastructure and an event container used for operating the infrastructure.
  • the method of using the I2V message has an advantage as a method of using the conventional message structure as it is, and has the advantage of being able to simultaneously transmit the I2V message among the settings.
  • the method of using a dedicated message (IOM) has the advantage that it can be independently operated without the need to modify a conventional message.
  • IOM dedicated message
  • FIG 17 shows the configuration of a setting container and an event container according to the embodiment(s) of the present specification.
  • the setting container is a message container used for infrastructure configuration through I2I communication.
  • the container may be composed of a setting type (SettingType), a timeout value (TimeOutValue), and a data value used for setting.
  • the data used in this embodiment may be composed of a point position (PointPosition) and a point position list (PointPositionList) for accurately expressing the area of a workzone.
  • the setting type is a control signal indicating which setting state, and can be defined as an integer (4bit, 1 ⁇ 16). When the setting type is 1, it may mean ConfigureSet status, when it is 2, it can mean start status, and when it is 3, it can mean ConfigureFinish status.
  • the timeout value may mean a value defining a corresponding timeout time.
  • the timeout value has an integer (16 bits, 1 to 65536), and the unit may be seconds. If the timeout value is set to 10, it may mean that the timeout is executed after 10 seconds.
  • the point position is a field defining the position of the infrastructure itself, and a conventional DF_ReferencePosition format may be used.
  • the point position list (PointPositionList) may be data obtained by collecting point positions of nearby devices.
  • the point position list can be expressed as a sequence (SEQUENCE) and can have a maximum of 100 values. Each data has a DE_Position format like the point position.
  • the event container is a container that is transmitted when a vehicle is rushing or a dangerous situation is detected during operation, and the event type (EventType), event ID (EventID), event code (EventCode), event time ( EventTime), event end time (EventReleaseTime) field, and the like.
  • the event type is data indicating the status of the event and can be composed of integers (4 bits, 1 to 16). When the event type is 1, it may be notified that an event has occurred (Occur). When the event type is 2, it may be notified that the state of the event has been updated. When the event type is 3, it can be notified that the event has been released.
  • Event ID is defined as an integer and can have a random value (16bit, 1 to 65536), and can play a role of distinguishing events.
  • the event code is defined as an integer (8bit, 1 ⁇ 256) and can inform the event type.
  • Corresponding values can have the same table in advance through a table in the standard. For example, if the value of 1 in the table is mapped to crash, if the event code value is 1, it may mean that the corresponding device has detected a collision. This value is for operation and is not specified in this specification (conventional DE_CauseCodeType [1] can be used).
  • the event time is data indicating the event occurrence time.
  • the event end time may be a field indicating the end time of the event separately from receiving a release signal through the event message, and the event end time may be informed by using DE_TimestampIts.
  • 18 is a diagram for explaining a message protocol during initial setting.
  • First installed device 1 transmits a setting message containing its location to nearby devices when the set button is pressed after installation. Thereafter, the neighboring device 2 transmits a setting message including the previously received device 1's location and its own location information. After all the device settings are completed, the construction worker presses the start button. When the start button is triggered, each device transmits a warning message and a setting message indicating construction site information. The setting information transmitted together is shared by each device and the mode is changed. When triggered by a timeout after a certain period, each device transmits a warning message including construction site risk information to nearby vehicles.
  • the construction worker can install each device and press the set button.
  • device 1 may transmit a setting message including its location information to nearby devices.
  • the device 2 may transmit a setting message including its own location information and the location information of the device 1 to nearby devices.
  • Each device may be set and transmit its own location information and a list of received location information of nearby devices to nearby devices.
  • the construction worker can press the start button of device 1.
  • the construction worker may press the start button of any one of devices 1 to 7. If the start button of device 1 is input, device 1 may transmit a warning message and a setting message to peripheral devices together.
  • Each device can obtain location information of all devices installed in the construction site area by sharing the device location list included in the setting message.
  • the warning message may include location information of all devices in the construction area.
  • each device after pressing the start button, when the time set as the timeout elapses, each device may terminate transmission of the setting message and operate in an operation mode to transmit a warning message to the vehicle.
  • 19 is a diagram for explaining a message protocol when a special situation occurs while a construction site risk guidance service is in progress.
  • device 1 which is a construction guide device, detects an impact, it is changed to an event mode.
  • Device 1 transmits a message including event information in addition to the existing warning information.
  • Devices that have received the message extract event information and transmit the message by including event information in addition to their warning information.
  • all devices transmit warning information and event information.
  • These messages are received by nearby vehicles and VRUs, and an event situation is alerted through the HMI. After the event is canceled, the construction worker presses the start button to end the situation. After that, the devices notify the peripheral device of the ended situation so that the device can return to the operating mode again. Thereafter, all devices transmit a message that transmits warning information again.
  • 20 is a diagram illustrating a message protocol for updating a construction site area when it is changed.
  • the construction site worker presses the set button on the device 1 to adjust the location. After that, device 1 may inform the surrounding device of its new location information.
  • the message used at this time is a setting message that transmits the changed position value of device 1.
  • other devices transmit the location information of Device 1 to nearby devices, so that all devices may have a new construction area.
  • the construction site worker presses the start button of one of the devices to set up a new construction area. Afterwards, the start signal is shared for a certain period of time, so that all devices are synchronized to convert to the operation mode. After a certain period of time, all devices are changed to operation mode again, and the location of the new construction area is informed to the surroundings.
  • V2X devices are in preparation for NR-V2X (or 5G V2X) technology in line with Rel-16.
  • Conventional C-V2X uses only broadcast communication as a direct communication technique, whereas NR-V2X adds unicast communication and is used for efficient operation of each service.
  • 21 is a diagram illustrating a message structure for NR-V2X.
  • a message for NR-V2X may be composed of a setting message used for setting and an operation message used for operation after installation.
  • Figure 21 (a) shows the structure of the setting message.
  • the configuration of the setting message may consist of a common header for NR-V2X, a setting header containing basic information of the setting message, and a setting information container (SettingInformationContainer) containing installation information of each device.
  • the setting information container may include information of each device.
  • the device information may consist of a device ID (DeviceID) that identifies the device and location information that indicates the installation location of the device. This message is used when installing the initial construction site and when adjusting the location during construction.
  • the action message may include a common header for NR-V2X, an operating header containing basic information of the action message, and an operating container.
  • each device can transmit the location of the construction site and construction site information measured in real time to the surrounding vehicle through an operation message.
  • the operation message is an advertisement message indicating that construction is under construction, or a join message transmitted by the vehicle to RSU to receive safety service, and the actual RSU delivered to the vehicle. It may be composed of a safety message including safety information and/or an event message capable of transmitting an emergency situation at a construction site.
  • 22 is a diagram for describing a configuration of an operating header included in an operation message.
  • the operation header may include operation message type (OperationMessageType), service type (Service Type), station type (Station Type), safety type (Safety Type), event container type (Event Container type) information.
  • the operation message type is composed of an integer, and it may be indicated that the operation message corresponds to any one of an advertisement mode, an ACK mode, a safety mode, and an event mode.
  • the message type following the action message type is defined as an integer, and can optionally be used according to the action message definition. That is, the type of the action message may be determined according to information indicated by the action message type. For example, when indicating that the operation message type is an advertisement mode, the operation message is determined as an advertisement message and may include service type information. In addition, when indicating that the operation message type is the ACK mode, the operation message is determined as a participation message and may include station type information. Also, when indicating that the operation message type is a safe mode, the operation message is determined as a safety message and may include safety type information. In addition, when indicating that the operation message type is an event mode, the operation message may be determined as an event message and may include event container information.
  • 23 is a diagram for explaining the structure of an operation message.
  • the advertisement message can be transmitted to anonymous vehicles around the RSU through broadcast transmission.
  • the message type based on the conventional BSM header + Common Data Container + RoadWorkZone Container
  • It is set to to inform nearby vehicles that NR-V2X service is provided.
  • the join message is a message indicating that the vehicle subscribes to the corresponding service to the RSU, and may be composed of a join header and vehicle information indicating the state of the vehicle.
  • Vehicle information can use the mandate field used in BSM and can include BSMID.
  • the safety message can be composed of a safety header containing basic information of the message, a roadwork zone container that informs the entire construction site, and a target safety container specialized for vehicles. have.
  • the event message is a message that informs the construction site special danger situation, and can be composed of an event header (EventHeader) containing basic information of the event situation and an event container (EventContainer) that informs the event situation.
  • EventHeader an event header
  • EventContainer an event container
  • NR-V2X devices propose a communication method between RSU devices or between vehicles and RSU devices using the message set described above. When this method is used, it is possible to operate more efficiently than the C-V2X device using time out in conventional broadcast communication.
  • 24 is a flowchart illustrating a message transmission flow of the NR-V2X during initial installation according to the embodiment(s) of the present specification.
  • devices 1 to N may operate as RSUs installed in a construction site area, and unicast communication between devices may be performed.
  • the user can sequentially install devices 1 to N. For example, when a user prepares to install a device for guiding a construction site, the device 1 and the device 2 to be installed next may be connected through unicast communication.
  • the user can press the set button of device 1.
  • device 1 transmits its location information to device 2 through a unicast connection.
  • device 2 automatically transmits an ACK signal to device 1 through an access layer.
  • the user installs device 2 to mark the area of the construction site.
  • the installation location of device 2 is transmitted to device 3 through unicast communication between device 2 and device 3 as described above.
  • device 2 may accumulate and transmit installation information of device 1 together with its own location.
  • the user can install the device N-1 and input the set button, and the device N-1 can transmit the location list of the device 1 to the device N-2 together with its location to the device N. Accordingly, device N may receive location information of devices 1 to N-1.
  • the user can press the start button of the device N.
  • the device N sends a start message to the device N-1 through the unicast connection it has received again with all the information collected so far. Through this operation, all devices share the installed location. Based on this, construction site safety services are provided in consideration of the exact location of the construction site.
  • 25 is a flowchart illustrating a message transmission flow of NR-V2X during operation according to the embodiment(s) of the present specification.
  • each device When the installation of the construction site guidance device is completed, each device provides construction site safety services to nearby vehicles.
  • Conventional C-V2X continuously informs construction site risk regardless of the condition of surrounding vehicles according to its own cycle. As such, each RSU unilaterally performs broadcast transmission regardless of vehicle presence, type, and state.
  • NR-V2X can provide optimized construction site guidance using unicast communication.
  • RSUs at both ends installed in the construction site use broadcast communication to inform the surroundings that the construction site exists and that there is a dangerous element in the road through an advertisement message through an advertisement message.
  • NR-V2X service is provided.
  • the NR-V2X vehicle responds to a Join message and connects to the construction site risk information service.
  • the vehicle will receive a construction site safety service through a safety message.
  • Device 1 recognizes the state of vehicle 1 and establishes a unicast connection by transmitting a participation message to device 2 after a certain time. After that, vehicle 1 receives safety service through device 2. In this way, services are sequentially received from nearby devices until the vehicle completely passes through the construction site.
  • a vehicle entering from the opposite side establishes a unicast connection with the opposite RSU (eg, device N) to provide an optimal service suitable for a vehicle moving in the opposite direction.
  • the message uses the safety message of FIG. 12C, and common construction site information may use a conventional BSM message, and vehicle-specific information may be transmitted using a target safety container.
  • the device informs the surrounding RSU and the vehicle of the event status of an event message. At this time, only the event message is transmitted, or the safety message and the event message are transmitted together.
  • the transmission method used at this time is broadcast transmission.
  • 26 is a flowchart illustrating a message transmission flow of NR-V2X upon reinstallation according to the embodiment(s) of the present specification.
  • the setting message is used as in the initial setting stage as the contents of the operation of the construction site area reset environment.
  • Device 1 which has pressed the button, transmits new information according to the unicast connection list set during installation of its new location. This newly set location will propagate from Device 1 to Device 2, from Device 2 to Device 3, and from Device 3 to Device 4.
  • FIG. 27 is a diagram for describing a method of setting a connection map between RSUs according to the embodiment(s) of the present specification.
  • each RSU device has a memory to store destination IPs of devices connected at both ends of it.
  • Each RSU device is in the initial order at the time of installation, and there is no one on the left of Device 1 at the beginning, and it is marked as Edge, and the IP of Device 2 is stored on the right.
  • Device 1's IP is stored on the left side of device 2
  • device 3's IP is stored on the right side.
  • the previous device, Device 3 IP is stored on the left side, and it is stored as 0.0.
  • FIG. 27B is a diagram for explaining a case where the positions between devices are changed.
  • Device 2 and Device 3 change their location through consultation with each other, and Device 2 changes its left side to Device 3 and the right side to Device 4, which is connected by Device 3.
  • Device 3 also changes its value to device 2 on its right side and device 1 on the left side to which device 2 is connected.
  • the values of Device 1 and Device 4, which were connected to Device 2 and Device 3, respectively, are changed.
  • FIG. 28 is a diagram illustrating a method of exchanging messages with each other when a location between devices is changed.
  • settings are changed using a setting message. If the location of device 2 and device 3 is changed for unicast, messages can be exchanged with each other. First, when a situation in which the location needs to be changed occurs, device 2 makes a request to change the location to device 3, and then device 3 responds to this through an Ack signal. After that, each device notifies the changed information to the outside. That is, device 2 sends a message to device 1 to change to device 3 instead of device 2. Device 3 also sends a signal to device 4 to change from its linked value to device 2 along with its IP number. After that, all 4 devices update the connection list.
  • 29 is a flow chart for describing the embodiment(s) proposed in the present specification.
  • the first RSU and the second RSU may be an installed device installed in a construction site area, a construction site guide device, a V2X device, or an infrastructure.
  • the first RSU may transmit the first message to the second RSU using I2I communication (S2901).
  • the first RSU may receive a second message from the second RSU using I2I communication (S2902).
  • the first message and the second message may be setting messages. More specifically, the first message may include a location of the first RSU and a list of the first location. The location of the first RSU may reflect the location of the first RSU changed in real time.
  • each device installed in the construction site may include its own location and a list of locations received from other devices in the setting message.
  • the first RSU that has received the setting message from other devices may update the location and location lists of other devices that have received its first location list to be updated. Therefore, even when the location of each device is changed, the location information changed in real time can be shared with each other using I2I communication.
  • the first RSU may transmit the first message to the second RSU.
  • the user or construction worker can input the setting button when installing the RSU for the first time in the construction site area or when changing the location of the RSU.
  • the setting message may include setting type information, and when a start button is input to the first RSU, the setting type information may indicate a start state.
  • the first message may include a timeout time, and when the timeout time elapses after the start button is input to the first RSU, transmission of the first message may be stopped.
  • a warning message for the construction site area may be transmitted to one or more vehicles.
  • first message and the second message may include event information. If another vehicle invades the construction site and collides with the RSU, the RSU may transmit an event message to the other RSU.
  • Event information may include information on a dangerous situation occurring in a construction site area.
  • the first RSU and the second RSU are unicast connected to perform unicast communication. Accordingly, when the first RSU transmits the first message to the second RSU, when the second RSU successfully receives the first message, the ACK feedback may be transmitted to the first RSU. Accordingly, each RSU can accurately transmit a setting message and an event message through unicast communication.
  • the proposed method is an example for guiding construction site risk information, but an I2I communication system and a message structure can be used for the close operation of a system in which a multi-infrastructure is configured among the ITS system as well as the corresponding service. have. To this end, it can be applied to other services by adding data related to the I2I message setting container and event container later.
  • FIG. 30 illustrates a communication system 1 applied to the present invention.
  • a communication system 1 applied to the present invention includes a wireless device, a base station, and a network.
  • the wireless device refers to a device that performs communication using a wireless access technology (eg, 5G NR (New RAT), LTE (Long Term Evolution)), and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots 100a, vehicles 100b-1 and 100b-2, eXtended Reality (XR) devices 100c, hand-held devices 100d, and home appliances 100e. ), an Internet of Thing (IoT) device 100f, and an AI device/server 400.
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, and a vehicle capable of performing inter-vehicle communication.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality) / VR (Virtual Reality) / MR (Mixed Reality) devices, including HMD (Head-Mounted Device), HUD (Head-Up Display), TV, smartphone, It can be implemented in the form of a computer, wearable device, home appliance, digital signage, vehicle, robot, and the like.
  • Portable devices may include smart phones, smart pads, wearable devices (eg, smart watches, smart glasses), computers (eg, notebook computers, etc.).
  • Home appliances may include TVs, refrigerators, and washing machines.
  • IoT devices may include sensors, smart meters, and the like.
  • the base station and the network may be implemented as a wireless device, and the specific wireless device 200a may operate as a base station/network node to another wireless device.
  • the wireless devices 100a to 100f may be connected to the network 300 through the base station 200.
  • AI Artificial Intelligence
  • the network 300 may be configured using a 3G network, a 4G (eg, LTE) network, or a 5G (eg, NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 200 / network 300, but may perform direct communication (e.g. sidelink communication) without going through the base station / network.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (e.g.
  • V2V Vehicle to Vehicle
  • V2X Vehicle to Everything
  • the IoT device eg, sensor
  • the IoT device may directly communicate with other IoT devices (eg, sensors) or other wireless devices 100a to 100f.
  • Wireless communication/connections 150a, 150b, and 150c may be established between the wireless devices 100a to 100f / base station 200 and the base station 200 / base station 200.
  • the wireless communication/connection includes various wireless access such as uplink/downlink communication 150a, sidelink communication 150b (or D2D communication), base station communication 150c (eg relay, Integrated Access Backhaul). This can be achieved through technology (eg 5G NR)
  • wireless communication/connections 150a, 150b, 150c the wireless device and the base station/wireless device, and the base station and the base station can transmit/receive radio signals to each other.
  • the wireless communication/connection 150a, 150b, 150c can transmit/receive signals through various physical channels.
  • 31 illustrates a wireless device applicable to the present invention.
  • the first wireless device 100 and the second wireless device 200 may transmit and receive wireless signals through various wireless access technologies (eg, LTE and NR).
  • ⁇ the first wireless device 100, the second wireless device 200 ⁇ is the ⁇ wireless device 100x, the base station 200 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) of FIG. 30 ⁇ Can be matched.
  • the first wireless device 100 includes one or more processors 102 and one or more memories 104, and may further include one or more transceivers 106 and/or one or more antennas 108.
  • the processor 102 controls the memory 104 and/or the transceiver 106 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 102 may process information in the memory 104 to generate first information/signal, and then transmit a radio signal including the first information/signal through the transceiver 106.
  • the processor 102 may store information obtained from signal processing of the second information/signal in the memory 104 after receiving a radio signal including the second information/signal through the transceiver 106.
  • the memory 104 may be connected to the processor 102 and may store various information related to the operation of the processor 102.
  • the memory 104 may perform some or all of the processes controlled by the processor 102, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flow charts disclosed in this document. It can store software code including
  • the processor 102 and the memory 104 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • the transceiver 106 may be coupled with the processor 102 and may transmit and/or receive radio signals through one or more antennas 108.
  • the transceiver 106 may include a transmitter and/or a receiver.
  • the transceiver 106 may be mixed with an RF (Radio Frequency) unit.
  • the wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200 includes one or more processors 202 and one or more memories 204, and may further include one or more transceivers 206 and/or one or more antennas 208.
  • the processor 202 controls the memory 204 and/or the transceiver 206 and may be configured to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • the processor 202 may process information in the memory 204 to generate third information/signal, and then transmit a wireless signal including the third information/signal through the transceiver 206.
  • the processor 202 may store information obtained from signal processing of the fourth information/signal in the memory 204 after receiving a radio signal including the fourth information/signal through the transceiver 206.
  • the memory 204 may be connected to the processor 202 and may store various information related to the operation of the processor 202.
  • the memory 204 may perform some or all of the processes controlled by the processor 202, or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document. It can store software code including
  • the processor 202 and the memory 204 may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • the transceiver 206 may be connected to the processor 202 and may transmit and/or receive radio signals through one or more antennas 208.
  • the transceiver 206 may include a transmitter and/or a receiver.
  • the transceiver 206 may be used interchangeably with an RF unit.
  • the wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 102, 202.
  • one or more processors 102, 202 may implement one or more layers (eg, functional layers such as PHY, MAC, RLC, PDCP, RRC, SDAP).
  • One or more processors 102, 202 may be configured to generate one or more Protocol Data Units (PDUs) and/or one or more Service Data Units (SDUs) according to the description, functions, procedures, proposals, methods, and/or operational flow charts disclosed in this document. Can be generated.
  • PDUs Protocol Data Units
  • SDUs Service Data Units
  • One or more processors 102, 202 may generate messages, control information, data, or information according to the description, function, procedure, suggestion, method, and/or operational flow chart disclosed herein.
  • At least one processor (102, 202) generates a signal (e.g., a baseband signal) including PDU, SDU, message, control information, data or information according to the functions, procedures, proposals and/or methods disclosed herein. , It may be provided to one or more transceivers (106, 206).
  • One or more processors 102, 202 may receive signals (e.g., baseband signals) from one or more transceivers 106, 206, and the descriptions, functions, procedures, proposals, methods, and/or operational flowcharts disclosed herein PDUs, SDUs, messages, control information, data, or information may be obtained according to the parameters.
  • signals e.g., baseband signals
  • One or more of the processors 102 and 202 may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more of the processors 102 and 202 may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the description, functions, procedures, suggestions, methods, and/or operational flow charts disclosed in this document may be implemented using firmware or software, and firmware or software may be implemented to include modules, procedures, functions, and the like.
  • the description, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document are included in one or more processors 102, 202, or stored in one or more memories 104, 204, and are It may be driven by the above processors 102 and 202.
  • the descriptions, functions, procedures, proposals, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or a set of instructions.
  • One or more memories 104 and 204 may be connected to one or more processors 102 and 202 and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 104 and 204 may be composed of ROM, RAM, EPROM, flash memory, hard drive, register, cache memory, computer readable storage medium, and/or combinations thereof.
  • One or more memories 104 and 204 may be located inside and/or outside of one or more processors 102 and 202.
  • one or more memories 104, 204 may be connected to one or more processors 102, 202 through various technologies such as wired or wireless connection.
  • the one or more transceivers 106 and 206 may transmit user data, control information, radio signals/channels, and the like mentioned in the methods and/or operation flow charts of this document to one or more other devices.
  • One or more transceivers (106, 206) may receive user data, control information, radio signals/channels, etc. mentioned in the description, functions, procedures, suggestions, methods and/or operation flow charts disclosed in this document from one or more other devices.
  • one or more transceivers 106 and 206 may be connected to one or more processors 102 and 202, and may transmit and receive wireless signals.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to transmit user data, control information, or radio signals to one or more other devices.
  • one or more processors 102, 202 may control one or more transceivers 106, 206 to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers (106, 206) may be connected with one or more antennas (108, 208), and one or more transceivers (106, 206) through one or more antennas (108, 208), the description and functionality disclosed in this document. It may be set to transmit and receive user data, control information, radio signals/channels, and the like mentioned in a procedure, a proposal, a method and/or an operation flowchart.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (106, 206) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (102, 202), the received radio signal / channel, etc. in the RF band signal. It can be converted into a baseband signal.
  • One or more transceivers 106 and 206 may convert user data, control information, radio signals/channels, etc. processed using one or more processors 102 and 202 from a baseband signal to an RF band signal.
  • one or more of the transceivers 106 and 206 may include (analog) oscillators and/or filters.
  • the signal processing circuit 1000 may include a scrambler 1010, a modulator 1020, a layer mapper 1030, a precoder 1040, a resource mapper 1050, and a signal generator 1060.
  • the operations/functions of FIG. 32 may be performed in the processors 102 and 202 and/or the transceivers 106 and 206 of FIG. 31.
  • the hardware elements of FIG. 32 may be implemented in the processors 102 and 202 and/or the transceivers 106 and 206 of FIG. 31.
  • blocks 1010 to 1060 may be implemented in the processors 102 and 202 of FIG. 31.
  • blocks 1010 to 1050 may be implemented in the processors 102 and 202 of FIG. 31, and block 1060 may be implemented in the transceivers 106 and 206 of FIG. 31.
  • the codeword may be converted into a wireless signal through the signal processing circuit 1000 of FIG. 32.
  • the codeword is an encoded bit sequence of an information block.
  • the information block may include a transport block (eg, a UL-SCH transport block, a DL-SCH transport block).
  • the radio signal may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 1010.
  • the scramble sequence used for scramble is generated based on an initialization value, and the initialization value may include ID information of a wireless device.
  • the scrambled bit sequence may be modulated by the modulator 1020 into a modulation symbol sequence.
  • the modulation scheme may include pi/2-Binary Phase Shift Keying (pi/2-BPSK), m-Phase Shift Keying (m-PSK), m-Quadrature Amplitude Modulation (m-QAM), and the like.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 1030.
  • the modulation symbols of each transport layer may be mapped to the corresponding antenna port(s) by the precoder 1040 (precoding).
  • the output z of the precoder 1040 can be obtained by multiplying the output y of the layer mapper 1030 by the N*M precoding matrix W.
  • N is the number of antenna ports
  • M is the number of transmission layers.
  • the precoder 1040 may perform precoding after performing transform precoding (eg, DFT transform) on complex modulation symbols. Also, the precoder 1040 may perform precoding without performing transform precoding.
  • the resource mapper 1050 may map modulation symbols of each antenna port to a time-frequency resource.
  • the time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbols, DFT-s-OFDMA symbols) in the time domain, and may include a plurality of subcarriers in the frequency domain.
  • CP Cyclic Prefix
  • DAC Digital-to-Analog Converter
  • the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process 1010 to 1060 of FIG. 32.
  • a wireless device eg, 100 and 200 in FIG. 31
  • the received radio signal may be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP canceller, and a Fast Fourier Transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT Fast Fourier Transform
  • the baseband signal may be reconstructed into a codeword through a resource de-mapper process, a postcoding process, a demodulation process, and a descramble process.
  • a signal processing circuit for a received signal may include a signal restorer, a resource demapper, a postcoder, a demodulator, a descrambler, and a decoder.
  • the wireless device may be implemented in various forms according to use-examples/services (see FIG. 30).
  • the wireless devices 100 and 200 correspond to the wireless devices 100 and 200 of FIG. 31, and various elements, components, units/units, and/or modules ) Can be composed of.
  • the wireless devices 100 and 200 may include a communication unit 110, a control unit 120, a memory unit 130, and an additional element 140.
  • the communication unit may include a communication circuit 112 and a transceiver(s) 114.
  • the communication circuit 112 may include one or more processors 102 and 202 and/or one or more memories 104 and 204 of FIG. 31.
  • the transceiver(s) 114 may include one or more transceivers 106,206 and/or one or more antennas 108,208 of FIG. 31.
  • the control unit 120 is electrically connected to the communication unit 110, the memory unit 130, and the additional element 140 and controls all operations of the wireless device.
  • the controller 120 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 130.
  • the control unit 120 transmits the information stored in the memory unit 130 to an external (eg, other communication device) through the communication unit 110 through a wireless/wired interface, or through the communication unit 110 to the outside (eg, Information received through a wireless/wired interface from another communication device) may be stored in the memory unit 130.
  • the additional element 140 may be variously configured according to the type of wireless device.
  • the additional element 140 may include at least one of a power unit/battery, an I/O unit, a driving unit, and a computing unit.
  • wireless devices include robots (FIGS. 30, 100a), vehicles (FIGS. 30, 100b-1, 100b-2), XR devices (FIGS. 30, 100c), portable devices (FIGS. 30, 100d), and home appliances (FIGS. 30, 100e), IoT devices (FIGS. 30, 100f), digital broadcasting terminals, hologram devices, public safety devices, MTC devices, medical devices, fintech devices (or financial devices), security devices, climate/environment devices, It may be implemented in the form of an AI server/device (FIGS. 30 and 400), a base station (FIGS. 30 and 200), and a network node.
  • the wireless device can be used in a mobile or fixed location depending on the use-example/service.
  • various elements, components, units/units, and/or modules in the wireless devices 100 and 200 may be connected to each other through a wired interface, or at least part of them may be wirelessly connected through the communication unit 110.
  • the control unit 120 and the communication unit 110 are connected by wire, and the control unit 120 and the first unit (eg, 130, 140) are connected through the communication unit 110.
  • the control unit 120 and the first unit eg, 130, 140
  • each element, component, unit/unit, and/or module in the wireless device 100 and 200 may further include one or more elements.
  • the controller 120 may be configured with one or more processor sets.
  • control unit 120 may be composed of a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, and a memory control processor.
  • memory unit 130 includes random access memory (RAM), dynamic RAM (DRAM), read only memory (ROM), flash memory, volatile memory, and non-volatile memory. volatile memory) and/or a combination thereof.
  • Portable devices may include smart phones, smart pads, wearable devices (eg, smart watches, smart glasses), and portable computers (eg, notebook computers).
  • the portable device may be referred to as a mobile station (MS), a user terminal (UT), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), or a wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a memory unit 130, a power supply unit 140a, an interface unit 140b, and an input/output unit 140c. ) Can be included.
  • the antenna unit 108 may be configured as a part of the communication unit 110.
  • Blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 33, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the controller 120 may perform various operations by controlling components of the portable device 100.
  • the controller 120 may include an application processor (AP).
  • the memory unit 130 may store data/parameters/programs/codes/commands required for driving the portable device 100. Also, the memory unit 130 may store input/output data/information, and the like.
  • the power supply unit 140a supplies power to the portable device 100 and may include a wired/wireless charging circuit, a battery, and the like.
  • the interface unit 140b may support connection between the portable device 100 and other external devices.
  • the interface unit 140b may include various ports (eg, audio input/output ports, video input/output ports) for connection with external devices.
  • the input/output unit 140c may receive or output image information/signal, audio information/signal, data, and/or information input from a user.
  • the input/output unit 140c may include a camera, a microphone, a user input unit, a display unit 140d, a speaker, and/or a haptic module.
  • the input/output unit 140c acquires information/signals (eg, touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 130. Can be saved.
  • the communication unit 110 may convert information/signals stored in the memory into wireless signals, and may directly transmit the converted wireless signals to other wireless devices or to a base station.
  • the communication unit 110 may restore the received radio signal to the original information/signal. After the restored information/signal is stored in the memory unit 130, it may be output in various forms (eg, text, voice, image, video, heptic) through the input/output unit 140c.
  • the vehicle or autonomous vehicle may be implemented as a mobile robot, a vehicle, a train, an aerial vehicle (AV), or a ship.
  • AV aerial vehicle
  • the vehicle or autonomous vehicle 100 includes an antenna unit 108, a communication unit 110, a control unit 120, a driving unit 140a, a power supply unit 140b, a sensor unit 140c, and autonomous driving. It may include a unit (140d).
  • the antenna unit 108 may be configured as a part of the communication unit 110.
  • Blocks 110/130/140a to 140d correspond to blocks 110/130/140 of FIG. 33, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with external devices such as other vehicles, base stations (e.g. base stations, roadside base stations, etc.), and servers.
  • the controller 120 may perform various operations by controlling elements of the vehicle or the autonomous vehicle 100.
  • the control unit 120 may include an Electronic Control Unit (ECU).
  • the driving unit 140a may cause the vehicle or the autonomous vehicle 100 to travel on the ground.
  • the driving unit 140a may include an engine, a motor, a power train, a wheel, a brake, a steering device, and the like.
  • the power supply unit 140b supplies power to the vehicle or the autonomous vehicle 100, and may include a wired/wireless charging circuit, a battery, and the like.
  • the sensor unit 140c may obtain vehicle status, surrounding environment information, user information, and the like.
  • the sensor unit 140c is an IMU (inertial measurement unit) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle advancement. /Reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor, temperature sensor, humidity sensor, ultrasonic sensor, illumination sensor, pedal position sensor, etc. may be included.
  • the autonomous driving unit 140d is a technology for maintaining a driving lane, a technology for automatically adjusting the speed such as adaptive cruise control, a technology for automatically driving along a predetermined route, and for driving by automatically setting a route when a destination is set. Technology, etc. can be implemented.
  • the communication unit 110 may receive map data and traffic information data from an external server.
  • the autonomous driving unit 140d may generate an autonomous driving route and a driving plan based on the acquired data.
  • the controller 120 may control the driving unit 140a so that the vehicle or the autonomous driving vehicle 100 moves along the autonomous driving path according to the driving plan (eg, speed/direction adjustment).
  • the communication unit 110 asynchronously/periodically acquires the latest traffic information data from an external server, and may acquire surrounding traffic information data from surrounding vehicles.
  • the sensor unit 140c may acquire vehicle state and surrounding environment information.
  • the autonomous driving unit 140d may update the autonomous driving route and the driving plan based on the newly acquired data/information.
  • the communication unit 110 may transmit information about a vehicle location, an autonomous driving route, and a driving plan to an external server.
  • the external server may predict traffic information data in advance using AI technology or the like based on information collected from the vehicle or autonomously driving vehicles, and may provide the predicted traffic information data to the vehicle or autonomously driving vehicles.
  • Vehicles may also be implemented as means of transport, trains, aircraft, and ships.
  • the vehicle 100 may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, and a position measurement unit 140b.
  • blocks 110 to 130/140a to 140b correspond to blocks 110 to 130/140 of FIG. 33, respectively.
  • the communication unit 110 may transmit and receive signals (eg, data, control signals, etc.) with other vehicles or external devices such as a base station.
  • the controller 120 may perform various operations by controlling components of the vehicle 100.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the vehicle 100.
  • the input/output unit 140a may output an AR/VR object based on information in the memory unit 130.
  • the input/output unit 140a may include a HUD.
  • the location measurement unit 140b may obtain location information of the vehicle 100.
  • the location information may include absolute location information of the vehicle 100, location information within a driving line, acceleration information, location information with surrounding vehicles, and the like.
  • the location measurement unit 140b may include GPS and various sensors.
  • the communication unit 110 of the vehicle 100 may receive map information, traffic information, etc. from an external server and store it in the memory unit 130.
  • the location measurement unit 140b may acquire vehicle location information through GPS and various sensors and store it in the memory unit 130.
  • the controller 120 may generate a virtual object based on map information, traffic information, vehicle location information, and the like, and the input/output unit 140a may display the generated virtual object on a window in the vehicle (1410, 1420).
  • the controller 120 may determine whether the vehicle 100 is operating normally within the driving line based on the vehicle location information. When the vehicle 100 deviates from the driving line abnormally, the control unit 120 may display a warning on the window of the vehicle through the input/output unit 140a.
  • control unit 120 may broadcast a warning message regarding a driving abnormality to nearby vehicles through the communication unit 110.
  • controller 120 may transmit location information of the vehicle and information on driving/vehicle abnormalities to a related organization through the communication unit 110.
  • the XR device may be implemented as an HMD, a head-up display (HUD) provided in a vehicle, a television, a smartphone, a computer, a wearable device, a home appliance, a digital signage, a vehicle, a robot, and the like.
  • HMD head-up display
  • a television a television
  • smartphone a smartphone
  • a computer a wearable device
  • a home appliance a digital signage
  • a vehicle a robot, and the like.
  • the XR device 100a may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, a sensor unit 140b, and a power supply unit 140c.
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 33, respectively.
  • the communication unit 110 may transmit and receive signals (eg, media data, control signals, etc.) with other wireless devices, portable devices, or external devices such as a media server.
  • Media data may include images, images, and sounds.
  • the controller 120 may perform various operations by controlling components of the XR device 100a.
  • the controller 120 may be configured to control and/or perform procedures such as video/image acquisition, (video/image) encoding, and metadata generation and processing.
  • the memory unit 130 may store data/parameters/programs/codes/commands required for driving the XR device 100a/generating an XR object.
  • the input/output unit 140a may obtain control information, data, etc. from the outside, and may output the generated XR object.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain XR device status, surrounding environment information, user information, and the like.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the power supply unit 140c supplies power to the XR device 100a, and may include a wired/wireless charging circuit, a battery, and the like.
  • the memory unit 130 of the XR device 100a may include information (eg, data, etc.) necessary for generating an XR object (eg, AR/VR/MR object).
  • the input/output unit 140a may obtain a command to manipulate the XR device 100a from the user, and the controller 120 may drive the XR device 100a according to the user's driving command. For example, when a user tries to watch a movie, news, etc. through the XR device 100a, the controller 120 transmits the content request information through the communication unit 130 to another device (for example, the mobile device 100b) or Can be sent to the media server.
  • another device for example, the mobile device 100b
  • the communication unit 130 may download/stream contents such as movies and news from another device (eg, the mobile device 100b) or a media server to the memory unit 130.
  • the control unit 120 controls and/or performs procedures such as video/image acquisition, (video/image) encoding, and metadata generation/processing for the content, and is acquired through the input/output unit 140a/sensor unit 140b.
  • An XR object may be generated/output based on information on a surrounding space or a real object.
  • the XR device 100a is wirelessly connected to the mobile device 100b through the communication unit 110, and the operation of the XR device 100a may be controlled by the mobile device 100b.
  • the portable device 100b may operate as a controller for the XR device 100a.
  • the XR device 100a may obtain 3D location information of the portable device 100b, and then generate and output an XR object corresponding to the portable device 100b.
  • Robots can be classified into industrial, medical, household, military, etc. depending on the purpose or field of use.
  • the robot 100 may include a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a, a sensor unit 140b, and a driving unit 140c.
  • blocks 110 to 130/140a to 140c correspond to blocks 110 to 130/140 of FIG. 33, respectively.
  • the communication unit 110 may transmit and receive signals (eg, driving information, control signals, etc.) with other wireless devices, other robots, or external devices such as a control server.
  • the controller 120 may perform various operations by controlling components of the robot 100.
  • the memory unit 130 may store data/parameters/programs/codes/commands supporting various functions of the robot 100.
  • the input/output unit 140a acquires information from the outside of the robot 100 and may output the information to the outside of the robot 100.
  • the input/output unit 140a may include a camera, a microphone, a user input unit, a display unit, a speaker, and/or a haptic module.
  • the sensor unit 140b may obtain internal information, surrounding environment information, user information, and the like of the robot 100.
  • the sensor unit 140b may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a radar, and the like.
  • the driving unit 140c may perform various physical operations such as moving a robot joint. In addition, the driving unit 140c may make the robot 100 travel on the ground or fly in the air.
  • the driving unit 140c may include an actuator, a motor, a wheel, a brake, a propeller, and the like.
  • AI devices are fixed devices such as TVs, projectors, smartphones, PCs, notebooks, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented with possible devices.
  • the AI device 100 includes a communication unit 110, a control unit 120, a memory unit 130, an input/output unit 140a/140b, a running processor unit 140c, and a sensor unit 140d. It may include. Blocks 110 to 130/140a to 140d correspond to blocks 110 to 130/140 of FIG. 33, respectively.
  • the communication unit 110 uses wired/wireless communication technology to provide external devices such as other AI devices (eg, FIGS. 30, 100x, 200, 400) or AI servers (eg, 400 in FIG. 30) and wired/wireless signals (eg, sensor information). , User input, learning model, control signals, etc.). To this end, the communication unit 110 may transmit information in the memory unit 130 to an external device or may transmit a signal received from the external device to the memory unit 130.
  • AI devices eg, FIGS. 30, 100x, 200, 400
  • AI servers eg, 400 in FIG. 30
  • wired/wireless signals eg, sensor information
  • the communication unit 110 may transmit information in the memory unit 130 to an external device or may transmit a signal received from the external device to the memory unit 130.
  • the controller 120 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the controller 120 may perform a determined operation by controlling the components of the AI device 100. For example, the control unit 120 may request, search, receive, or utilize data from the learning processor unit 140c or the memory unit 130, and may be a predicted or desirable operation among at least one executable operation. Components of the AI device 100 can be controlled to execute the operation. In addition, the control unit 120 collects history information including the operation content or user's feedback on the operation of the AI device 100 and stores it in the memory unit 130 or the running processor unit 140c, or the AI server ( 30 and 400). The collected history information can be used to update the learning model.
  • the memory unit 130 may store data supporting various functions of the AI device 100.
  • the memory unit 130 may store data obtained from the input unit 140a, data obtained from the communication unit 110, output data from the running processor unit 140c, and data obtained from the sensing unit 140.
  • the memory unit 130 may store control information and/or software codes necessary for the operation/execution of the controller 120.
  • the input unit 140a may acquire various types of data from the outside of the AI device 100.
  • the input unit 140a may acquire training data for model training and input data to which the training model is to be applied.
  • the input unit 140a may include a camera, a microphone, and/or a user input unit.
  • the output unit 140b may generate output related to visual, auditory or tactile sense.
  • the output unit 140b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 140 may obtain at least one of internal information of the AI device 100, surrounding environment information of the AI device 100, and user information by using various sensors.
  • the sensing unit 140 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. have.
  • the learning processor unit 140c may train a model composed of an artificial neural network using the training data.
  • the running processor unit 140c may perform AI processing together with the running processor unit of the AI server (FIGS. 30 and 400).
  • the learning processor unit 140c may process information received from an external device through the communication unit 110 and/or information stored in the memory unit 130.
  • the output value of the learning processor unit 140c may be transmitted to an external device through the communication unit 110 and/or may be stored in the memory unit 130.
  • Embodiments as described above can be applied to various mobile communication systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Multimedia (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

일 실시예는, 무선 통신 시스템에서 제1 RSU(Road Side Unit)를 위한 동작을 수행하는 방법에 있어서, 제2 RSU에 제1 메시지를 전송하는 단계, 및 상기 제2 RSU로부터 제2 메시지를 수신하는 단계를 포함하며, 상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고, 상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며, 상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 방법이다.

Description

무선 통신 시스템에서 RSU 간의 신호 송수신 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 보다 상세하게는 도로의 공사장 영역에 설치되는 RSU(Road Side Unit)를 이용한 신호 송수신 방법 및 장치에 대한 것이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
무선 통신 시스템에서는 LTE, LTE-A, WiFi 등의 다양한 RAT(Radio Access Technology)이 사용되고 있으며, 5G 도 여기에 포함된다. 5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다. 일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
무선 통신 시스템은 가용한 시스템 자원(예를 들어, 대역폭, 전송 전력 등)을 공유하여 다중 사용자와의 통신을 지원하는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
사이드링크(sidelink, SL)란 단말(User Equipment, UE)들 간에 직접적인 링크를 설정하여, 기지국(Base Station, BS)을 거치지 않고, 단말 간에 음성 또는 데이터 등을 직접 주고 받는 통신 방식을 말한다. SL는 급속도로 증가하는 데이터 트래픽에 따른 기지국의 부담을 해결할 수 있는 하나의 방안으로서 고려되고 있다.
V2X(vehicle-to-everything)는 유/무선 통신을 통해 다른 차량, 보행자, 인프라가 구축된 사물 등과 정보를 교환하는 통신 기술을 의미한다. V2X는 V2V(vehicle-to-vehicle), V2I(vehicle-to-infrastructure), V2N(vehicle-to- network) 및 V2P(vehicle-to-pedestrian)와 같은 4 가지 유형으로 구분될 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.
한편, 더욱 많은 통신 기기들이 더욱 큰 통신 용량을 요구하게 됨에 따라, 기존의 무선 액세스 기술(Radio Access Technology, RAT)에 비해 향상된 모바일 광대역 (mobile broadband) 통신에 대한 필요성이 대두되고 있다. 이에 따라, 신뢰도(reliability) 및 지연(latency)에 민감한 서비스 또는 단말을 고려한 통신 시스템이 논의되고 있는데, 개선된 이동 광대역 통신, 매시브 MTC(Machine Type Communication), URLLC(Ultra-Reliable and Low Latency Communication) 등을 고려한 차세대 무선 접속 기술을 새로운 RAT(new radio access technology) 또는 NR(new radio)이라 칭할 수 있다. NR에서도 V2X(vehicle-to-everything) 통신이 지원될 수 있다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
V2X 통신과 관련하여, NR 이전의 RAT에서는 BSM(Basic Safety Message), CAM(Cooperative Awareness Message), DENM(Decentralized Environmental Notification Message)과 같은 V2X 메시지를 기반으로, 안전 서비스(safety service)를 제공하는 방안이 주로 논의되었다. V2X 메시지는, 위치 정보, 동적 정보, 속성 정보 등을 포함할 수 있다. 예를 들어, 단말은 주기적인 메시지(periodic message) 타입의 CAM, 및/또는 이벤트 트리거 메시지(event triggered message) 타입의 DENM을 다른 단말에게 전송할 수 있다.
예를 들어, CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. 예를 들어, 단말은 CAM을 방송할 수 있으며, CAM의 지연(latency)은 100ms보다 작을 수 있다. 예를 들어, 차량의 고장, 사고 등의 돌발적인 상황이 발행하는 경우, 단말은 DENM을 생성하여 다른 단말에게 전송할 수 있다. 예를 들어, 단말의 전송 범위 내에 있는 모든 차량은 CAM 및/또는 DENM을 수신할 수 있다. 이 경우, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이후, V2X 통신과 관련하여, 다양한 V2X 시나리오들이 NR에서 제시되고 있다. 예를 들어, 다양한 V2X 시나리오들은, 차량 플래투닝(vehicle platooning), 향상된 드라이빙(advanced driving), 확장된 센서들(extended sensors), 리모트 드라이빙(remote driving) 등을 포함할 수 있다.
예를 들어, 차량 플래투닝을 기반으로, 차량들은 동적으로 그룹을 형성하여 함께 이동할 수 있다. 예를 들어, 차량 플래투닝에 기반한 플라툰 동작들(platoon operations)을 수행하기 위해, 상기 그룹에 속하는 차량들은 선두 차량으로부터 주기적인 데이터를 수신할 수 있다. 예를 들어, 상기 그룹에 속하는 차량들은 주기적인 데이터를 이용하여, 차량들 사이의 간격을 줄이거나 넓힐 수 있다.
예를 들어, 향상된 드라이빙을 기반으로, 차량은 반자동화 또는 완전 자동화될 수 있다. 예를 들어, 각 차량은 근접 차량 및/또는 근접 로지컬 엔티티(logical entity)의 로컬 센서(local sensor)에서 획득된 데이터를 기반으로, 궤도(trajectories) 또는 기동(maneuvers)을 조정할 수 있다. 또한, 예를 들어, 각 차량은 근접한 차량들과 드라이빙 인텐션(driving intention)을 상호 공유할 수 있다.
예를 들어, 확장 센서들을 기반으로, 로컬 센서들을 통해 획득된 로 데이터(raw data) 또는 처리된 데이터(processed data), 또는 라이브 비디오 데이터(live video data)는 차량, 로지컬 엔티티, 보행자들의 단말 및/또는 V2X 응용 서버 간에 상호 교환될 수 있다. 따라서, 예를 들어, 차량은 자체 센서를 이용하여 감지할 수 있는 환경 보다 향상된 환경을 인식할 수 있다.
예를 들어, 리모트 드라이빙을 기반으로, 운전을 하지 못하는 사람 또는 위험한 환경에 위치한 리모트 차량을 위해, 리모트 드라이버 또는 V2X 애플리케이션은 상기 리모트 차량을 동작 또는 제어할 수 있다. 예를 들어, 대중 교통과 같이 경로를 예측할 수 있는 경우, 클라우드 컴퓨팅 기반의 드라이빙이 상기 리모트 차량의 동작 또는 제어에 이용될 수 있다. 또한, 예를 들어, 클라우드 기반의 백엔드 서비스 플랫폼(cloud-based back-end service platform)에 대한 액세스가 리모트 드라이빙을 위해 고려될 수 있다.
한편, 차량 플래투닝, 향상된 드라이빙, 확장된 센서들, 리모트 드라이빙 등 다양한 V2X 시나리오들에 대한 서비스 요구사항(service requirements)들을 구체화하는 방안이 NR에 기반한 V2X 통신에서 논의되고 있다.
실시예(들)은 RSU를 이용하여 실시간으로 변동되는 정보를 반영하여 공사장 정보를 생성하는 것을 기술적 과제로 한다.
실시예(들)은 RSU를 이용하여 공사장 영역에서 발생하는 충돌 또는 위험을 실시간으로 감지하고 주변 V2X 장치에 알리는 것을 기술적 과제로 한다.
실시예(들)에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 실시예(들)이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시예는, 무선 통신 시스템에서 제1 RSU(Road Side Unit)를 위한 동작을 수행하는 방법에 있어서, 제2 RSU에 제1 메시지를 전송하는 단계 및 상기 제2 RSU로부터 제2 메시지를 수신하는 단계를 포함하며, 상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고, 상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며, 상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 방법이다.
일 실시예는, 무선통신시스템에서, 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 제2 RSU에 제1 메시지를 전송하는 단계 및 상기 제2 RSU로부터 제2 메시지를 수신하는 단계를 포함하며, 상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고, 상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며, 상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 제1 RSU이다.
일 실시예는, 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 UE를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 동작들은, 제2 RSU에 제1 메시지를 전송하는 단계 및 상기 제2 RSU로부터 제2 메시지를 수신하는 단계를 포함하며, 상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고, 상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며, 상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 매체이다.
상기 제1 위치 리스트 및 상기 제2 위치 리스트는 공사장 영역에 설치되는 하나 이상의 RSU의 위치 정보를 포함할 수 있다.
상기 제1 RSU에 세팅 버튼이 입력되는 것에 기반하여, 상기 제1 메시지는 상기 제2 RSU에 전송될 수 있다.
상기 제1 메시지는 세팅 타입 정보를 포함할 수 있고, 상기 제1 RSU에 시작 버튼이 입력되는 것에 기반하여, 상기 세팅 타입 정보는 시작 상태를 지시할 수 있다.
상기 제1 메시지는 타임아웃 시간을 포함할 수 있고, 상기 제1 RSU에 시작 버튼이 입력된 후 상기 타임아웃 시간이 경과한 것에 기반하여, 상기 제1 메시지의 전송이 중단될 수 있다.
상기 제1 RSU에 시작 버튼이 입력된 후 상기 타임아웃 시간이 경과한 것에 기반하여, 공사장 영역에 대한 경고 메시지를 하나 이상의 차량에게 전송하는 단계를 더 포함할 수 있다.
상기 제1 RSU의 위치가 변경에 기반하여, 상기 제1 메시지는 변경된 제1 RSU의 위치 정보를 포함할 수 있다.
상기 제1 메시지 및 상기 제2 메시지는 이벤트 정보를 포함할 수 있고, 상기 이벤트 정보는 공사장 영역에 발생하는 위험 상황 등에 대한 정보를 포함할 수 있다.
상기 제1 RSU 및 상기 제2 RSU는 유니캐스트 연결될 수 있다.
상기 제1 RSU는 자율주행 차량 또는 자율주행 차량에 포함된 것일 수 있다.
일 실시예에 의하면, RSU 간의 통신을 통하여 실시간으로 변동되는 공사장 영역에 대한 정보를 정확하고 신속하게 생성할 수 있다.
일 실시예에 의하면, 공사장 영역에서 발생하는 충돌 또는 위험을 실시간으로 감지하여 공사장 영역의 안전을 확보할 수 있다.
실시예(들)에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 실시예(들)이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 실시예(들)에 대한 이해를 제공하기 위한 것으로서 다양한 실시형태들을 나타내고 명세서의 기재와 함께 원리를 설명하기 위한 것이다.
도 1은 NR 이전의 RAT에 기반한 V2X 통신과 NR에 기반한 V2X 통신을 비교하여 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른, 사용자 평면(user plane), 제어 평면(control plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 6은 실시 예(들)이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 8은 본 개시의 일 실시 예에 따른, 세 가지 캐스트 타입을 나타낸다.
도 9는 본 개시의 일 실시 예에 따른 ITS 참조 구조를 나타낸다.
도 10은 본 개시의 일 실시 예에 따른 ITS 스테이션 예시 구조이다.
도 11은 본 개시의 일 실시 예에 따른 퍼실리티 계층의 예시 구조이다.
도 12 내지 도 29는 실시 예(들)을 설명하기 위한 도면이다.
도 30 내지 도 39는 실시 예(들)이 적용될 수 있는 다양한 장치를 설명하는 도면이다.
본 개시의 다양한 실시 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.
본 개시의 다양한 실시 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있다. CDMA는 UTRA(universal terrestrial radio access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(global system for mobile communications)/GPRS(general packet radio service)/EDGE(enhanced data rates for GSM evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE(institute of electrical and electronics engineers) 802.11(Wi-Fi), IEEE 802.16(WiMAX), IEEE 802-20, E-UTRA(evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. IEEE 802.16m은 IEEE 802.16e의 진화로, IEEE 802.16e에 기반한 시스템과의 하위 호환성(backward compatibility)를 제공한다. UTRA는 UMTS(universal mobile telecommunications system)의 일부이다. 3GPP(3rd generation partnership project) LTE(long term evolution)은 E-UTRA(evolved-UMTS terrestrial radio access)를 사용하는 E-UMTS(evolved UMTS)의 일부로써, 하향링크에서 OFDMA를 채용하고 상향링크에서 SC-FDMA를 채용한다. LTE-A(advanced)는 3GPP LTE의 진화이다.
5G NR은 LTE-A의 후속 기술로서, 고성능, 저지연, 고가용성 등의 특성을 가지는 새로운 Clean-slate 형태의 이동 통신 시스템이다. 5G NR은 1GHz 미만의 저주파 대역에서부터 1GHz~10GHz의 중간 주파 대역, 24GHz 이상의 고주파(밀리미터파) 대역 등 사용 가능한 모든 스펙트럼 자원을 활용할 수 있다.
설명을 명확하게 하기 위해, LTE-A 또는 5G NR을 위주로 기술하지만 본 개시의 일 실시 예에 따른 기술적 사상이 이에 제한되는 것은 아니다.
도 2는 본 개시의 일 실시 예에 따른, LTE 시스템의 구조를 나타낸다. 이는 E-UTRAN(Evolved-UMTS Terrestrial Radio Access Network), 또는 LTE(Long Term Evolution)/LTE-A 시스템이라고 불릴 수 있다.
도 2를 참조하면, E-UTRAN은 단말(10)에게 제어 평면(control plane)과 사용자 평면(user plane)을 제공하는 기지국(20)을 포함한다. 단말(10)은 고정되거나 이동성을 가질 수 있으며, MS(Mobile Station), UT(User Terminal), SS(Subscriber Station), MT(Mobile Terminal), 무선기기(Wireless Device) 등 다른 용어로 불릴 수 있다. 기지국(20)은 단말(10)과 통신하는 고정된 지점(fixed station)을 말하며, eNB(evolved-NodeB), BTS(Base Transceiver System), 액세스 포인트(Access Point) 등 다른 용어로 불릴 수 있다.
기지국(20)들은 X2 인터페이스를 통하여 서로 연결될 수 있다. 기지국(20)은 S1 인터페이스를 통해 EPC(Evolved Packet Core, 30), 보다 상세하게는 S1-MME를 통해 MME(Mobility Management Entity)와 S1-U를 통해 S-GW(Serving Gateway)와 연결된다.
EPC(30)는 MME, S-GW 및 P-GW(Packet Data Network-Gateway)로 구성된다. MME는 단말의 접속 정보나 단말의 능력에 관한 정보를 가지고 있으며, 이러한 정보는 단말의 이동성 관리에 주로 사용된다. S-GW는 E-UTRAN을 종단점으로 갖는 게이트웨이이며, P-GW는 PDN(Packet Date Network)을 종단점으로 갖는 게이트웨이이다.
단말과 네트워크 사이의 무선인터페이스 프로토콜(Radio Interface Protocol)의 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection, OSI) 기준 모델의 하위 3개 계층을 바탕으로 L1 (제 1 계층), L2 (제 2 계층), L3(제 3 계층)로 구분될 수 있다. 이 중에서 제 1 계층에 속하는 물리 계층은 물리 채널(Physical Channel)을 이용한 정보전송서비스(Information Transfer Service)를 제공하며, 제 3 계층에 위치하는 RRC(Radio Resource Control) 계층은 단말과 네트워크 간에 무선 자원을 제어하는 역할을 수행한다. 이를 위해 RRC 계층은 단말과 기지국 간 RRC 메시지를 교환한다.
도 3(a)는 본 개시의 일 실시 예에 따른, 사용자 평면(user plane)에 대한 무선 프로토콜 구조(radio protocol architecture)를 나타낸다.
도 3(b)은 본 개시의 일 실시 예에 따른, 제어 평면(control plane)에 대한 무선 프로토콜 구조를 나타낸다. 사용자 평면은 사용자 데이터 전송을 위한 프로토콜 스택(protocol stack)이고, 제어 평면은 제어신호 전송을 위한 프로토콜 스택이다.
도 3(a) 및 A3을 참조하면, 물리 계층(physical layer)은 물리 채널을 이용하여 상위 계층에게 정보 전송 서비스를 제공한다. 물리 계층은 상위 계층인 MAC(Medium Access Control) 계층과는 전송 채널(transport channel)을 통해 연결되어 있다. 전송 채널을 통해 MAC 계층과 물리 계층 사이로 데이터가 이동한다. 전송 채널은 무선 인터페이스를 통해 데이터가 어떻게 어떤 특징으로 전송되는가에 따라 분류된다.
서로 다른 물리계층 사이, 즉 송신기와 수신기의 물리 계층 사이는 물리 채널을 통해 데이터가 이동한다. 상기 물리 채널은 OFDM(Orthogonal Frequency Division Multiplexing) 방식으로 변조될 수 있고, 시간과 주파수를 무선 자원으로 활용한다.
MAC 계층은 논리 채널(logical channel)을 통해 상위 계층인 RLC(radio link control) 계층에게 서비스를 제공한다. MAC 계층은 복수의 논리 채널에서 복수의 전송 채널로의 맵핑 기능을 제공한다. 또한, MAC 계층은 복수의 논리 채널에서 단수의 전송 채널로의 맵핑에 의한 논리 채널 다중화 기능을 제공한다. MAC 부 계층은 논리 채널상의 데이터 전송 서비스를 제공한다.
RLC 계층은 RLC SDU(Serving Data Unit)의 연결(concatenation), 분할(segmentation) 및 재결합(reassembly)을 수행한다. 무선 베어러(Radio Bearer, RB)가 요구하는 다양한 QoS(Quality of Service)를 보장하기 위해, RLC 계층은 투명모드(Transparent Mode, TM), 비확인 모드(Unacknowledged Mode, UM) 및 확인모드(Acknowledged Mode, AM)의 세 가지의 동작모드를 제공한다. AM RLC는 ARQ(automatic repeat request)를 통해 오류 정정을 제공한다.
RRC(Radio Resource Control) 계층은 제어 평면에서만 정의된다. RRC 계층은 무선 베어러들의 설정(configuration), 재설정(re-configuration) 및 해제(release)와 관련되어 논리 채널, 전송 채널 및 물리 채널들의 제어를 담당한다. RB는 단말과 네트워크간의 데이터 전달을 위해 제 1 계층(physical 계층 또는 PHY 계층) 및 제 2 계층(MAC 계층, RLC 계층, PDCP(Packet Data Convergence Protocol) 계층)에 의해 제공되는 논리적 경로를 의미한다.
사용자 평면에서의 PDCP 계층의 기능은 사용자 데이터의 전달, 헤더 압축(header compression) 및 암호화(ciphering)를 포함한다. 제어 평면에서의 PDCP 계층의 기능은 제어 평면 데이터의 전달 및 암호화/무결성 보호(integrity protection)를 포함한다.
RB가 설정된다는 것은 특정 서비스를 제공하기 위해 무선 프로토콜 계층 및 채널의 특성을 규정하고, 각각의 구체적인 파라미터 및 동작 방법을 설정하는 과정을 의미한다. RB는 다시 SRB(Signaling Radio Bearer)와 DRB(Data Radio Bearer) 두 가지로 나누어 질 수 있다. SRB는 제어 평면에서 RRC 메시지를 전송하는 통로로 사용되며, DRB는 사용자 평면에서 사용자 데이터를 전송하는 통로로 사용된다.
단말의 RRC 계층과 E-UTRAN의 RRC 계층 사이에 RRC 연결(RRC connection)이 확립되면, 단말은 RRC_CONNECTED 상태에 있게 되고, 그렇지 못할 경우 RRC_IDLE 상태에 있게 된다. NR의 경우, RRC_INACTIVE 상태가 추가로 정의되었으며, RRC_INACTIVE 상태의 단말은 코어 네트워크와의 연결을 유지하는 반면 기지국과의 연결을 해지(release)할 수 있다.
네트워크에서 단말로 데이터를 전송하는 하향링크 전송 채널로는 시스템 정보를 전송하는 BCH(Broadcast Channel)과 그 이외에 사용자 트래픽이나 제어 메시지를 전송하는 하향링크 SCH(Shared Channel)이 있다. 하향링크 멀티캐스트 또는 브로드캐스트 서비스의 트래픽 또는 제어메시지의 경우 하향링크 SCH를 통해 전송될 수도 있고, 또는 별도의 하향링크 MCH(Multicast Channel)을 통해 전송될 수도 있다. 한편, 단말에서 네트워크로 데이터를 전송하는 상향링크 전송 채널로는 초기 제어메시지를 전송하는 RACH(Random Access Channel)와 그 이외에 사용자 트래픽이나 제어메시지를 전송하는 상향링크 SCH(Shared Channel)가 있다.
전송 채널 상위에 있으며, 전송 채널에 맵핑되는 논리 채널(Logical Channel)로는 BCCH(Broadcast Control Channel), PCCH(Paging Control Channel), CCCH(Common Control Channel), MCCH(Multicast Control Channel), MTCH(Multicast Traffic Channel) 등이 있다.
물리 채널(Physical Channel)은 시간 영역에서 여러 개의 OFDM 심벌과 주파수 영역에서 여러 개의 부반송파(sub-carrier)로 구성된다. 하나의 서브프레임(sub-frame)은 시간 영역에서 복수의 OFDM 심벌(symbol)들로 구성된다. 자원 블록은 자원 할당 단위로, 복수의 OFDM 심벌들과 복수의 부반송파(sub-carrier)들로 구성된다. 또한 각 서브프레임은 PDCCH(Physical Downlink Control Channel) 즉, L1/L2 제어 채널을 위해 해당 서브프레임의 특정 OFDM 심벌들(예, 첫 번째 OFDM 심볼)의 특정 부반송파들을 이용할 수 있다. TTI(Transmission Time Interval)는 서브프레임 전송의 단위시간이다.
도 4는 본 개시의 일 실시 예에 따른, NR 시스템의 구조를 나타낸다.
도 4를 참조하면, NG-RAN(Next Generation Radio Access Network)은 단말에게 사용자 평면 및 제어 평면 프로토콜 종단(termination)을 제공하는 gNB(next generation-Node B) 및/또는 eNB를 포함할 수 있다. 도 4에서는 gNB만을 포함하는 경우를 예시한다. gNB 및 eNB는 상호 간에 Xn 인터페이스로 연결되어 있다. gNB 및 eNB는 5세대 코어 네트워크(5G Core Network: 5GC)와 NG 인터페이스를 통해 연결되어 있다. 보다 구체적으로, AMF(access and mobility management function)과는 NG-C 인터페이스를 통해 연결되고, UPF(user plane function)과는 NG-U 인터페이스를 통해 연결된다.
도 5는 본 개시의 일 실시 예에 따른, NG-RAN과 5GC 간의 기능적 분할을 나타낸다.
도 5를 참조하면, gNB는 인터 셀 간의 무선 자원 관리(Inter Cell RRM), 무선 베어러 관리(RB control), 연결 이동성 제어(Connection Mobility Control), 무선 허용 제어(Radio Admission Control), 측정 설정 및 제공(Measurement configuration & Provision), 동적 자원 할당(dynamic resource allocation) 등의 기능을 제공할 수 있다. AMF는 NAS(Non Access Stratum) 보안, 아이들 상태 이동성 처리 등의 기능을 제공할 수 있다. UPF는 이동성 앵커링(Mobility Anchoring), PDU(Protocol Data Unit) 처리 등의 기능을 제공할 수 있다. SMF(Session Management Function)는 단말 IP(Internet Protocol) 주소 할당, PDU 세션 제어 등의 기능을 제공할 수 있다.
도 6은 본 발명이 적용될 수 있는 NR의 무선 프레임의 구조를 나타낸다.
도 6을 참조하면, NR에서 상향링크 및 하향링크 전송에서 무선 프레임을 사용할 수 있다. 무선 프레임은 10ms의 길이를 가지며, 2개의 5ms 하프-프레임(Half-Frame, HF)으로 정의될 수 있다. 하프-프레임은 5개의 1ms 서브프레임(Subframe, SF)을 포함할 수 있다. 서브프레임은 하나 이상의 슬롯으로 분할될 수 있으며, 서브프레임 내 슬롯 개수는 부반송파 간격(Subcarrier Spacing, SCS)에 따라 결정될 수 있다. 각 슬롯은 CP(cyclic prefix)에 따라 12개 또는 14개의 OFDM(A) 심볼을 포함할 수 있다.
노멀 CP(normal CP)가 사용되는 경우, 각 슬롯은 14개의 심볼을 포함할 수 있다. 확장 CP가 사용되는 경우, 각 슬롯은 12개의 심볼을 포함할 수 있다. 여기서, 심볼은 OFDM 심볼 (또는, CP-OFDM 심볼), SC-FDMA 심볼 (또는, DFT-s-OFDM 심볼)을 포함할 수 있다.
다음 표 1은 노멀 CP가 사용되는 경우, SCS 설정(μ)에 따라 슬롯 별 심볼의 개수(
Figure PCTKR2020007680-appb-img-000001
), 프레임 별 슬롯의 개수(
Figure PCTKR2020007680-appb-img-000002
)와 서브프레임 별 슬롯의 개수(
Figure PCTKR2020007680-appb-img-000003
)를 예시한다.
Figure PCTKR2020007680-appb-img-000004
표 2는 확장 CP가 사용되는 경우, SCS에 따라 슬롯 별 심볼의 개수, 프레임 별 슬롯의 개수와 서브프레임 별 슬롯의 개수를 예시한다.
Figure PCTKR2020007680-appb-img-000005
NR 시스템에서는 하나의 단말에게 병합되는 복수의 셀들간에 OFDM(A) 뉴머놀로지(numerology)(예, SCS, CP 길이 등)가 상이하게 설정될 수 있다. 이에 따라, 동일한 개수의 심볼로 구성된 시간 자원(예, 서브프레임, 슬롯 또는 TTI)(편의상, TU(Time Unit)로 통칭)의 (절대 시간) 구간이 병합된 셀들간에 상이하게 설정될 수 있다.
NR에서, 다양한 5G 서비스들을 지원하기 위한 다수의 뉴머놀로지(numerology) 또는 SCS가 지원될 수 있다. 예를 들어, SCS가 15kHz인 경우, 전통적인 셀룰러 밴드들에서의 넓은 영역(wide area)이 지원될 수 있고, SCS가 30kHz/60kHz인 경우, 밀집한-도시(dense-urban), 더 낮은 지연(lower latency) 및 더 넓은 캐리어 대역폭(wider carrier bandwidth)이 지원될 수 있다. SCS가 60kHz 또는 그보다 높은 경우, 위상 잡음(phase noise)을 극복하기 위해 24.25GHz보다 큰 대역폭이 지원될 수 있다.
NR 주파수 밴드(frequency band)는 두 가지 타입의 주파수 범위(frequency range)로 정의될 수 있다. 상기 두 가지 타입의 주파수 범위는 FR1 및 FR2일 수 있다. 주파수 범위의 수치는 변경될 수 있으며, 예를 들어, 상기 두 가지 타입의 주파수 범위는 하기 표 3과 같을 수 있다. NR 시스템에서 사용되는 주파수 범위 중 FR1은 “sub 6GHz range”를 의미할 수 있고, FR2는 “above 6GHz range”를 의미할 수 있고 밀리미터 웨이브(millimeter wave, mmW)로 불릴 수 있다.
Figure PCTKR2020007680-appb-img-000006
상술한 바와 같이, NR 시스템의 주파수 범위의 수치는 변경될 수 있다. 예를 들어, FR1은 하기 표 4와 같이 410MHz 내지 7125MHz의 대역을 포함할 수 있다. 즉, FR1은 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역을 포함할 수 있다. 예를 들어, FR1 내에서 포함되는 6GHz (또는 5850, 5900, 5925 MHz 등) 이상의 주파수 대역은 비면허 대역(unlicensed band)을 포함할 수 있다. 비면허 대역은 다양한 용도로 사용될 수 있고, 예를 들어 차량을 위한 통신(예를 들어, 자율주행)을 위해 사용될 수 있다.
Figure PCTKR2020007680-appb-img-000007
도 7은 본 개시의 일 실시 예에 따른, NR 프레임의 슬롯 구조를 나타낸다.
도 7을 참조하면, 슬롯은 시간 영역에서 복수의 심볼들을 포함한다. 예를 들어, 노멀 CP의 경우 하나의 슬롯이 14개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 12개의 심볼을 포함할 수 있다. 또는 노멀 CP의 경우 하나의 슬롯이 7개의 심볼을 포함하나, 확장 CP의 경우 하나의 슬롯이 6개의 심볼을 포함할 수 있다.
반송파는 주파수 영역에서 복수의 부반송파들을 포함한다. RB(Resource Block)는 주파수 영역에서 복수(예를 들어, 12)의 연속한 부반송파로 정의될 수 있다. BWP(Bandwidth Part)는 주파수 영역에서 복수의 연속한 (P)RB((Physical) Resource Block)로 정의될 수 있으며, 하나의 뉴머놀로지(numerology)(예, SCS, CP 길이 등)에 대응될 수 있다. 반송파는 최대 N개(예를 들어, 5개)의 BWP를 포함할 수 있다. 데이터 통신은 활성화된 BWP를 통해서 수행될 수 있다. 각각의 요소는 자원 그리드에서 자원요소(Resource Element, RE)로 지칭될 수 있고, 하나의 복소 심볼이 맵핑될 수 있다.
한편, 단말과 단말 간 무선 인터페이스 또는 단말과 네트워크 간 무선 인터페이스는 L1 계층, L2 계층 및 L3 계층으로 구성될 수 있다. 본 개시의 다양한 실시 예에서, L1 계층은 물리(physical) 계층을 의미할 수 있다. 또한, 예를 들어, L2 계층은 MAC 계층, RLC 계층, PDCP 계층 및 SDAP 계층 중 적어도 하나를 의미할 수 있다. 또한, 예를 들어, L3 계층은 RRC 계층을 의미할 수 있다.
이하, V2X 또는 SL(sidelink) 통신에 대하여 설명한다.
한편, 도 8은 본 개시의 일 실시 예에 따른, 세 가지 캐스트 타입을 나타낸다.
구체적으로, 도 8의 (a)는 브로드캐스트 타입의 SL 통신을 나타내고, 도 8의 (b)는 유니캐스트 타입의 SL 통신을 나타내며, 도 8의 (c)는 그룹캐스트 타입의 SL 통신을 나타낸다. 유니캐스트 타입의 SL 통신의 경우, 단말은 다른 단말과 일 대 일 통신을 수행할 수 있다. 그룹캐스트 타입의 SL 통신의 경우, 단말은 자신이 속하는 그룹 내의 하나 이상의 단말과 SL 통신을 수행할 수 있다. 본 개시의 다양한 실시 예에서, SL 그룹캐스트 통신은 SL 멀티캐스트(multicast) 통신, SL 일 대 다(one-to-many) 통신 등으로 대체될 수 있다.
이하, CAM(Cooperative Awareness Message) 및 DENM(Decentralized Environmental Notification Message)에 대하여 설명한다.
차량간 통신에서는 주기적인 메시지(periodic message) 타입의 CAM, 이벤트 트리거 메시지(event triggered message) 타입의 DENM 등이 전송될 수 있다. CAM은 방향 및 속도와 같은 차량의 동적 상태 정보, 치수와 같은 차량 정적 데이터, 외부 조명 상태, 경로 내역 등 기본 차량 정보를 포함할 수 있다. CAM의 크기는 50-300 바이트일 수 있다. CAM은 방송되며, 지연(latency)은 100ms보다 작아야 한다. DENM은 차량의 고장, 사고 등의 돌발적인 상황 시 생성되는 메시지일 수 있다. DENM의 크기는 3000 바이트보다 작을 수 있으며, 전송 범위 내에 있는 모든 차량이 메시지를 수신할 수 있다. 이 때, DENM은 CAM 보다 높은 우선 순위를 가질 수 있다.
이하, 단말 사이의 RRC 연결 확립(connection establishment)에 대하여 설명한다.
V2X 또는 SL 통신을 위해, 전송 단말은 수신 단말과 (PC5) RRC 연결을 확립할 필요가 있을 수 있다. 예를 들어, 단말은 V2X-특정 SIB(V2X-specific SIB)을 획득할 수 있다. 상위 계층에 의해 V2X 또는 SL 통신을 전송하도록 설정된, 전송할 데이터를 가지는, 단말에 대하여, 적어도 상기 단말이 SL 통신을 위해 전송하도록 설정된 주파수가 V2X-특정 SIB에 포함되면, 해당 주파수에 대한 전송 자원 풀의 포함 없이, 상기 단말은 다른 단말과 RRC 연결을 확립할 수 있다. 예를 들어, 전송 단말과 수신 단말 사이에 RRC 연결이 확립되면, 전송 단말은 확립된 RRC 연결을 통해 수신 단말과 유니캐스트 통신을 수행할 수 있다.
단말들 사이에서 RRC 연결이 확립되면, 전송 단말은 RRC 메시지를 수신 단말에게 전송할 수 있다.
이하, HARQ(Hybrid Automatic Repeat Request) 절차에 대하여 설명한다.
통신의 신뢰성을 확보하기 위한 에러 보상 기법은 FEC(Forward Error Correction) 방식(scheme)과 ARQ(Automatic Repeat Request) 방식을 포함할 수 있다. FEC 방식에서는 정보 비트들에 여분의 에러 정정 코드를 추가시킴으로써, 수신단에서의 에러를 정정할 수 있다. FEC 방식은 시간 지연이 적고 송수신단 사이에 별도로 주고 받는 정보가 필요 없다는 장점이 있지만, 양호한 채널 환경에서 시스템 효율이 떨어지는 단점이 있다. ARQ 방식은 전송 신뢰성을 높일 수 있지만, 시간 지연이 생기게 되고 열악한 채널 환경에서 시스템 효율이 떨어지는 단점이 있다.
HARQ(Hybrid Automatic Repeat Request) 방식은 FEC와 ARQ를 결합한 것으로, 물리계층이 수신한 데이터가 복호할 수 없는 오류를 포함하는지 여부를 확인하고, 오류가 발생하면 재전송을 요구함으로써 성능을 높일 수 있다.
SL 유니캐스트 및 그룹캐스트의 경우, 물리 계층에서의 HARQ 피드백 및 HARQ 컴바이닝(combining)이 지원될 수 있다. 예를 들어, 수신 단말이 자원 할당 모드 1 또는 2로 동작하는 경우, 수신 단말은 PSSCH를 전송 단말로부터 수신할 수 있고, 수신 단말은 PSFCH(Physical Sidelink Feedback Channel)를 통해 SFCI(Sidelink Feedback Control Information) 포맷을 사용하여 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송할 수 있다.
예를 들어, SL HARQ 피드백은 유니캐스트에 대하여 인에이블될 수 있다. 이 경우, non-CBG(non-Code Block Group) 동작에서, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 생성할 수 있다. 그리고, 수신 단말은 HARQ-ACK을 전송 단말에게 전송할 수 있다. 반면, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하지 못하면, 수신 단말은 HARQ-NACK을 생성할 수 있다. 그리고, 수신 단말은 HARQ-NACK을 전송 단말에게 전송할 수 있다.
예를 들어, SL HARQ 피드백은 그룹캐스트에 대하여 인에이블될 수 있다. 예를 들어, non-CBG 동작에서, 두 가지 HARQ 피드백 옵션이 그룹캐스트에 대하여 지원될 수 있다.
(1) 그룹캐스트 옵션 1: 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록의 디코딩에 실패하면, 수신 단말은 HARQ-NACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다. 반면, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 전송 단말에게 전송하지 않을 수 있다.
(2) 그룹캐스트 옵션 2: 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩한 이후에, 수신 단말이 상기 PSCCH와 관련된 전송 블록의 디코딩에 실패하면, 수신 단말은 HARQ-NACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다. 그리고, 수신 단말이 상기 수신 단말을 타겟으로 하는 PSCCH를 디코딩하고, 및 수신 단말이 상기 PSCCH와 관련된 전송 블록을 성공적으로 디코딩하면, 수신 단말은 HARQ-ACK을 PSFCH를 통해 전송 단말에게 전송할 수 있다.
예를 들어, 그룹캐스트 옵션 1이 SL HARQ 피드백에 사용되면, 그룹캐스트 통신을 수행하는 모든 단말은 PSFCH 자원을 공유할 수 있다. 예를 들어, 동일한 그룹에 속하는 단말은 동일한 PSFCH 자원을 이용하여 HARQ 피드백을 전송할 수 있다.
예를 들어, 그룹캐스트 옵션 2가 SL HARQ 피드백에 사용되면, 그룹캐스트 통신을 수행하는 각각의 단말은 HARQ 피드백 전송을 위해 서로 다른 PSFCH 자원을 사용할 수 있다. 예를 들어, 동일한 그룹에 속하는 단말은 서로 다른 PSFCH 자원을 이용하여 HARQ 피드백을 전송할 수 있다.
예를 들어, SL HARQ 피드백이 그룹캐스트에 대하여 인에이블될 때, 수신 단말은 TX-RX(Transmission-Reception) 거리 및/또는 RSRP를 기반으로 HARQ 피드백을 전송 단말에게 전송할지 여부를 결정할 수 있다.
예를 들어, 그룹캐스트 옵션 1에서 TX-RX 거리 기반 HARQ 피드백의 경우, TX-RX 거리가 통신 범위 요구 사항보다 작거나 같으면, 수신 단말은 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송할 수 있다. 반면, TX-RX 거리가 통신 범위 요구 사항보다 크면, 수신 단말은 PSSCH에 대한 HARQ 피드백을 전송 단말에게 전송하지 않을 수 있다. 예를 들어, 전송 단말은 상기 PSSCH와 관련된 SCI를 통해 상기 전송 단말의 위치를 수신 단말에게 알릴 수 있다. 예를 들어, 상기 PSSCH와 관련된 SCI는 제 2 SCI일 수 있다. 예를 들어, 수신 단말은 TX-RX 거리를 상기 수신 단말의 위치와 상기 전송 단말의 위치를 기반으로 추정 또는 획득할 수 있다. 예를 들어, 수신 단말은 PSSCH와 관련된 SCI를 디코딩하여, 상기 PSSCH에 사용되는 통신 범위 요구 사항을 알 수 있다.
예를 들어, 자원 할당 모드 1의 경우에, PSFCH 및 PSSCH 사이의 시간은 설정되거나, 미리 설정될 수 있다. 유니캐스트 및 그룹캐스트의 경우, SL 상에서 재전송이 필요하면, 이것은 PUCCH를 사용하는 커버리지 내의 단말에 의해 기지국에게 지시될 수 있다. 전송 단말은 HARQ ACK/NACK의 형태가 아닌 SR(Scheduling Request)/BSR(Buffer Status Report)과 같은 형태로 상기 전송 단말의 서빙 기지국에게 지시(indication)를 전송할 수도 있다. 또한, 기지국이 상기 지시를 수신하지 않더라도, 기지국은 SL 재전송 자원을 단말에게 스케줄링 할 수 있다. 예를 들어, 자원 할당 모드 2의 경우에, PSFCH 및 PSSCH 사이의 시간은 설정되거나, 미리 설정될 수 있다.
예를 들어, 캐리어에서 단말의 전송 관점에서, PSCCH/PSSCH와 PSFCH 사이의 TDM이 슬롯에서 SL를 위한 PSFCH 포맷에 대하여 허용될 수 있다. 예를 들어, 하나의 심볼을 가지는 시퀀스-기반 PSFCH 포맷이 지원될 수 있다. 여기서, 상기 하나의 심볼은 AGC 구간이 아닐 수 있다. 예를 들어, 상기 시퀀스-기반 PSFCH 포맷은 유니캐스트 및 그룹캐스트에 적용될 수 있다.
예를 들어, 자원 풀과 연관된 슬롯 내에서, PSFCH 자원은 N 슬롯 구간으로 주기적으로 설정되거나, 사전에 설정될 수 있다. 예를 들어, N은 1 이상의 하나 이상의 값으로 설정될 수 있다. 예를 들어, N은 1, 2 또는 4일 수 있다. 예를 들어, 특정 자원 풀에서의 전송에 대한 HARQ 피드백은 상기 특정 자원 풀 상의 PSFCH를 통해서만 전송될 수 있다.
예를 들어, 전송 단말이 슬롯 #X 내지 슬롯 #N에 걸쳐 PSSCH를 수신 단말에게 전송하는 경우, 수신 단말은 상기 PSSCH에 대한 HARQ 피드백을 슬롯 #(N + A)에서 전송 단말에게 전송할 수 있다. 예를 들어, 슬롯 #(N + A)은 PSFCH 자원을 포함할 수 있다. 여기서, 예를 들어, A는 K보다 크거나 같은 가장 작은 정수일 수 있다. 예를 들어, K는 논리적 슬롯의 개수일 수 있다. 이 경우, K는 자원 풀 내의 슬롯의 개수일 수 있다. 또는, 예를 들어, K는 물리적 슬롯의 개수일 수 있다. 이 경우, K는 자원 풀 내부 및 외부의 슬롯의 개수일 수 있다.
예를 들어, 전송 단말이 수신 단말에게 전송한 하나의 PSSCH에 대한 응답으로, 수신 단말이 PSFCH 자원 상에서 HARQ 피드백을 전송하는 경우, 수신 단말은 설정된 자원 풀 내에서 암시적 메커니즘을 기반으로 상기 PSFCH 자원의 주파수 영역(frequency domain) 및/또는 코드 영역(code domain)을 결정할 수 있다. 예를 들어, 수신 단말은 PSCCH/PSSCH/PSFCH와 관련된 슬롯 인덱스, PSCCH/PSSCH와 관련된 서브채널, 및/또는 그룹캐스트 옵션 2 기반의 HARQ 피드백을 위한 그룹에서 각각의 수신 단말을 구별하기 위한 식별자 중 적어도 어느 하나를 기반으로, PSFCH 자원의 주파수 영역 및/또는 코드 영역을 결정할 수 있다. 그리고/또는, 예를 들어, 수신 단말은 SL RSRP, SINR, L1 소스 ID, 및/또는 위치 정보 중 적어도 어느 하나를 기반으로, PSFCH 자원의 주파수 영역 및/또는 코드 영역을 결정할 수 있다.
예를 들어, 단말의 PSFCH를 통한 HARQ 피드백 전송과 PSFCH를 통한 HARQ 피드백 수신이 중첩되는 경우, 상기 단말은 우선 순위 규칙을 기반으로 PSFCH를 통한 HARQ 피드백 전송 또는 PSFCH를 통한 HARQ 피드백 수신 중 어느 하나를 선택할 수 있다. 예를 들어, 우선 순위 규칙은 관련 PSCCH/PSSCH의 최소 우선 순위 지시(priority indication)를 기반으로 할 수 있다.
예를 들어, 단말의 복수의 단말에 대한 PSFCH를 통한 HARQ 피드백 전송이 중첩되는 경우, 상기 단말은 우선 순위 규칙을 기반으로 특정 HARQ 피드백 전송을 선택할 수 있다. 예를 들어, 우선 순위 규칙은 관련 PSCCH/PSSCH의 최소 우선 순위 지시(priority indication)를 기반으로 할 수 있다.
이하, ITS(Intelligent Transport Systems)에 대하여 설명한다.
ITS란 교통수단 및 교통시설에 첨단기술을 접목하여 교통 정보 및 서비스를 제공함으로써 교통체계의 운영 및 관리를 자동화하고, 교통의 효율성과 안전성을 향상시키는 시스템이다. 예를 들면, 우리가 차량을 운행할 때 이용하는 하이패스 시스템, 대중교통을 탈 때 이용하는 버스도착안내 시스템, 및 교통상황에 따른 실시간 신호 제어 등이 ITS에 해당할 수 있다. 종래의 ITS는 주로 차량에 정보를 단방향으로 제공하는 교통관리중심의 시스템에 적용되었다.
기술의 발전에 따라, 차량과 차량, 차량과 인프라간 양방향으로 지속적으로 데이터를 공유하여 신속하고 능동적인 돌발상황 사전 대응 및 예방이 가능한 교통안전중심의 C-ITS(Cooperative ITS)이 발전하였다. C-ITS란 차량이 주행 중 다른 차량 또는 도로에 설치된 인프라와 통신하면서 주변 교통상황과 급정거, 낙하물 등의 위험정보를 실시간으로 확인 또는 경고하여 교통사고를 예방하는 시스템이다.
이하, ITS(Intelligent Transport System)를 위한 차량 통신에 대하여 설명한다.
V2X를 활용하는 ITS (Intelligent Transport System)는 주요하게 접속 계층 (Access layer), 네트워킹 및 트랜스포트 계층 (Network & Transport layer), 퍼실리티 계층 (Facilities layer), 애플리케이션 계층 (Application layer), 보안 (Security)과 관리 (Management)를 위한 엔터티 (Entity) 등으로 구성될 수 있다.
차량 통신은, 차량 간 통신 (V2V), 차량과 기지국 간 통신 (V2N, N2V), 차량과 RSU (Road-Side Unit) 간 통신(V2I, I2V), RSU 간 통신 (I2I), 차량과 사람 간 통신 (V2P, P2V), RSU와 사람 간 통신 (I2P, P2I) 등 다양한 시나리에 적용될 수 있다. 차량 통신의 주체가 되는 차량, 기지국, RSU, 사람 등은 ITS 스테이션(station)이라고 지칭된다.
이하, ITS 참조 구조에 대하여 설명한다.
도 9는 본 개시의 일 실시 예에 따른 ITS 참조 구조를 나타낸다.
도 9를 참조하면, 도 9는 ISO 21217/EN 302 665에서 정의한 ITS 스테이션 참조 구조 (ITS station reference architecture) 로서, 접속 계층, 네트워킹 및 트랜스포트 계층, 퍼실리티 계층과 보안과 관리를 위한 엔터티 및 최상위에는 어플리케이션 계층으로 구성되어 있으며, 기본적으로 계층 OSI (layered OSI) 모델을 따른다.
도 9의 OSI 모델을 기반한 ITS 스테이션 참조 구조 특징을 설명한다. ITS 스테이션의 접속 계층은 OSI 계층 1 (물리 계층)과 계층 2 (데이터 연결 계층)에 상응하며, ITS 스테이션의 네트워킹 및 트랜스포트 계층은 OSI 계층 3 (네트워크 계층)과 계층 4 (트랜스포트 계층)에 상응하고, ITS 스테이션의 퍼실리티 계층은 OSI 계층 5 (세션 계층), 계층 6 (프리젠테이션 계층) 및 계층 7 (애플리케이션 계층)에 상응한다.
ITS 스테이션의 최상위에 위치한 애플리케이션 계층은 use-case를 실제 구현하여 지원하는 기능을 수행하며 use-case에 따라 선택적으로 사용될 수 있다. 관리 엔터티는 ITS 스테이션의 커뮤니케이션 및 동작을 비롯한 모든 계층을 관리하는 역할을 수행한다. 보안 엔터티는 모든 계층에 대한 보안 서비스를 제공한다. ITS 스테이션의 각 계층은 상호 간 인터페이스를 통해 차량 통신을 통해 전송할 혹은 수신한 데이터 및 다양한 목적의 부가 정보들을 교환한다.
도 10은 본 개시의 일 실시예에 따른 ITS 스테이션 예시 구조이다.
도 10은 도 9에서 설명된 ITS 스테이션의 참조 구조를 기반으로 설계 및 적용 가능한 ITS 스테이션 예시 구조를 나타낸다.
그림 도9 구조의 주된 개념은 통신 네트워크로 구성된 두 개의 종단 차량/이용자 사이에서, 통신 처리를 각 계층이 가지고 있는 특별한 기능을 가지고 계층별로 나눌 수 있도록 하는 것이다. 즉, 차량 간 메시지가 생성되면, 차량 및 ITS 시스템 (또는 기타 ITS 관련 단말기/시스템)에서 한 계층씩 아래로 각 층을 통과하여 데이터가 전달되고, 다른 쪽에서는 메시지가 도착할 때 메시지를 받는 차량 또는 ITS (또는 기타 ITS 관련 단말기/시스템)는 한 계층씩 위로 통과하여 전달된다.
차량 통신 및 네트워크를 통한 ITS 시스템은, 다양한 use-case 지원을 위해 다양한 접속 기술, 네트워크 프로토콜, 통신 인터페이스 등을 고려하여 유기적으로 설계되며, 하기 기술된 각 계층의 역할 및 기능은 상황에 따라 변경될 수 있다. 다음은 퍼실리티 계층의 기능에 간략히 기술한다:
퍼실리티 계층은 상위 애플리케이션 계층에서 정의된 다양한 use-case를 효과적으로 실현할 수 있도록 지원하는 역할을 수행하며, 예로서 애플리케이션 서포트 (application support), 정보 서포트 (information support), 세션/커뮤니케이션 서포트 (session/communication support)를 수행한다.
도 11은 본 개시의 일 실시예에 따른 퍼실리티 계층의 예시 구조이다.
퍼실리티 계층은 기본적으로 OSI 모델의 상위 3개 계층 (예를 들면, 세션 계층, 프리젠테이션 계층, 애플리케이션 계층) 기능을 지원한다. 구체적으로는, ITS를 위해 도 11에서 보이듯이 애플리케이션 서포트, 정보 서포트, 세션/커뮤니케이션 서포트 등과 같은 퍼실리티를 제공한다. 여기서 퍼실리티는 기능 (functionality), 정보 (information), 데이터 (data)를 제공하는 컴포넌트 (component)를 의미한다.
- 애플리케이션 서포트 퍼실리티: ITS 애플리케이션의 동작을 (주로 ITS 용 메시지 생성 및 하위계층과의 송수신, 및 그에 대한 관리) 지원하는 퍼실리티로 CA (Cooperative Awareness) basic service, DEN (Decentralized Environmental Notification) basic service 등이 있다. 향후에는 CACC (Cooperative Adaptive Cruise Control), Platooning, VRU (Vulnerable Roadside User), CPS (Collective Perception Service) 등 새로운 서비스를 위한 퍼실리티 엔터티 및 관련된 메시지가 추가 정의될 수 있다.
- 정보 서포트 퍼실리티: 다양한 ITS 애플리케이션에 의해 사용될 공통된 데이터 정보나 데이터베이스를 제공하는 퍼실리티로 Local Dynamic Map (LDM) 등이 있다.
- 세션/커뮤니케이션 서포트 퍼실리티: 커뮤니케이션 및 세션 관리를 위한 서비스를 제공하는 퍼실리티로서 어드레싱 모드와 세션 서포트 등이 있다.
또한 퍼실리티는 공통 퍼실리티(common facilities)와 도메인 퍼실리티(domain facilities)로 나뉠 수 있다.
- 공통 퍼실리티: 다양한 ITS 애플리케이션과 ITS 스테이션 동작에 필요한 공통적 서비스나 기능을 제공하는 퍼실리티이며, 예로서 시간 관리, 위치 관리, 서비스 관리 등이 있다.
- 도메인 퍼실리티: 일부 (하나 또는 복수의) ITS 애플리케이션에만 필요한 특별한 서비스나 기능을 제공하는 퍼실리티이며, 예로서 도로 위험 경고 애플리케이션 (Road Hazard Warning applications (RHW))를 위한 DEN 베이직 서비스 등이 있다. 도메인 퍼실리티는 선택적 기능으로서 ITS 스테이션에 의해 지원되지 않으면 사용되지 않는다.
계층 관리 퍼실리티 계층의 운영 및 보안과 관련된 정보를 관리 및 서비스해 주는 역할을 수행하며, 관련정보는 MF (interface between management entity and facilities 계층) 와 SF (interface between security entity and facilities 계층) (또는 MF-SAP, SF-SAP)를 통해 양방향으로 전달 및 공유된다. 애플리케이션 계층에서 퍼실리티 계층으로의 요청 또는 퍼실리티 계층에서 애플리케이션 계층으로의 서비스 메시지 및 관련정보의 전달은 FA (또는 FA-SAP)를 통해 이루어지며, 퍼실리티 계층과 하위 네트워킹 및 트랜스포트 계층 간의 양방향 서비스 메시지 및 관련정보의 전달은 NF (네트워킹 및 트랜스포트 계층 과 퍼실리티 계층간의 인터페이스, 또는 NF-SAP)에 의해 이루어진다.
실시예
종래의 Day 1 기술에서는 주로 V2V 위주의 안전 지원 서비스가 지원되었다. 최근 Day 2에서는 인프라(infrastructure)를 이용한 서비스가 추가 되었으며, 안전뿐만 아니라 사용자 편의를 제공해주는 서비스가 개발 되고 있다. 하지만 Day2 기술 조차 I2V 서비스에 국한 되어 있으며, 미리 설정된 안전 경보 정보를 차량에 방송(Broadcast) 하는 것에 국한되어 있다. Day2 에서 개발 되고 있는 공사장 안내 기술은 미리 설정된 공사장 정보 (예를 들어, 공사명, 공사기간, 공사영역, 또는 공사장 특성)가 공사장 주변에 설치된 V2X 장치를 통해 차량(Vehicle) 에 전달 되는 단순한 서비스에 그치고 있다. 이 경우 공사장 영역을 정확히 표현하지 못하는 단점이 있을 뿐만 아니라, 도로 차선 도색과 같은 유동적으로 변화하는 공사장 영역에 대응하기 어려움이 있다.
실제 기존의 도로를 점유하고 공사 및 작업을 하는 경우, 주변을 주행하는 차량들의 안전을 위해 라바콘이나 입간판과 같은 안내판을 통해 차량의 서행을 유도하고 있다. 최근 V2X 기술이 개발 되면서 V2X 수신기를 장착하고 있는 차량들이 먼 거리에서도 미리 공사장 정보를 획득할 수 있도록 하는 장치들 및 표준이 개발되고 있다. 이를 위해서는 공사장의 위치와 기간 등을 미리 정의하여 세팅한 후 V2X 장치에서 CAM(BSM) 와 같은 메시지에 공사장 정보를 삽입하여 전송하게 된다.
도 12는 일반적인 공사장 정보 전송 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 차량들의 안전을 위해 공사장 주변을 따라 공사장 영역을 표시하는 라바콘(101) 등이 설치될 수 있다. 또한, 라바콘은 통신 시스템이 장착되어 주변 차량들과 V2X 통신을 수행할 수 있는 노변기지국(Road Side Unit, RSU)으로 동작할 수 있다. 일반적으로 RSU는 공사장의 위치 또는 기간 정보를 포함하는 공사장 정보를 CAM(Cooperative Awareness Message) 또는 BSM(Basic Safety Message) 등과 같은 메시지를 통하여 주변 차량에게 전송할 수 있다. 이러한 공사장 정보는 미리 정의되어 세팅되므로 실제 공사장 영역이 변경되어 RSU의 위치가 변경되더라도 RSU는 처음 세팅된 공사장 정보만을 주변 차량에게 전송할 수 있다.
도 12의 (a)를 참조하면, 일반적으로 종래의 공사장 정보는 차선 단위로 표시될 수 있다. 그러나 실제의 공사장 영역은 차선 단위가 아닌 차선의 일부 영역에 해당하기 때문에 실제 공사장 영역과 공사장 정보에 포함된 공사장 영역이 정확히 일치하지 않는 문제가 발생할 수 있다.
도 12의 (b)를 참조하면, 일반적으로 종래의 공사장 정보는 공사장의 위치와 기간 등을 미리 정의하여 세팅된다. 따라서, 차선 도색과 같이 도로를 따라 진행하며 작업을 하는 경우, 시간이 지남에 따라 실제 공사장의 위치와 V2X를 통해 전송되는 공사장 정보의 위치가 어긋나는 문제가 발생할 수 있다. 이처럼 기존의 공사장 정보 전송 방법은 실시간으로 정확한 공사장의 위치를 표시하지 못하는 문제가 발생할 수 있다.
[제안하는 구성]
본 명세서에서는 상술한 방법과 같이 공사장의 영역을 미리 정하는 것이 아니라, V2X 장치들을 설치 시 I2I통신을 통해 공사장 영역을 자동적으로 설정 하는 방법을 제안한다.
도 13은 본 명세서의 실시예(들)에 따른 공사장 영역 설정 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 디바이스 1 내지 디바이스 7은 공사장 영역 주변에 설치되는 V2X 통신이 가능한 V2X 장치일 수 있다.
본 명세서의 설명에서 디바이스 1 내지 디바이스 7은 디바이스, V2X 장치, 공사장 안내 장치, RSU, 또는 인프라(infrastructure) 등으로 설명될 수 있다.
각 디바이스는 자신의 위치 정보가 포함된 세팅 메시지를 서로 전송하여 공사장 영역을 설정할 수 있다. 공사장 영역 설정의 초기 설치 동작에서는 V2X 장치를 이용한 I2I 통신을 통하여 공사장 영역 설정을 하게 된다.
예를 들어, 공사장 인부 또는 사용자는 디바이스 1 내지 디바이스 7을 각 영역에 배치하기 전에 공사 일정, 공사 내용 등과 같은 공통 정보를 각 디바이스에 설정할 수 있다. 이후, 공사장 인부는 각 디바이스를 공사장 영역의 주변에 하나씩 설치할 수 있다. 공사장 인부는 각 디바이스의 설치 시 V2X 장치에 있는 세트(set) 버튼을 눌러 설치 완료를 알려줄 수 있다. 이렇게 설치된 V2X 장치는 GPS를 통해 위치정보를 수신 받아 주변 장치들로 자신의 설치된 위치 정보를 전송하게 된다. 공사장 인부는 공사장 영역을 따라 같은 방식으로 각 디바이스를 설치하게 된다. 예를 들어, 공사장 인부는 각 디바이스에 공사장 정보를 입력 후, 디바이스 1을 공사장 영역 의 특정 위치에 설치하여 디바이스 1의 세트 버튼을 누를 수 있다. 디바이스 1은 GPS를 통해 자신의 위치 정보를 수신하고, 각 디바이스 2 내지 디바이스 7에 자신의 위치 정보를 전송할 수 있다. 또한, 공사장 인부는 디바이스 2 내지 디바이스 7에 동일한 작업을 수행하고, 각 디바이스는 자신의 위치 정보를 다른 디바이스와 공유할 수 있다.
디바이스 1 내지 디바이스 7의 설치가 완료되면, 공사장 인부는 그 중 하나의 장치에서 시작 버튼을 눌러 해당 공사장 안내 장치를 구동 시킬 수 있다. 하나의 시작 버튼 이 눌러지면 장치들은 I2I 메시지, (예를 들어, 세팅 메시지)를 전송하여 공사장 안내 서비스(I2V) 진행하는 동작을 하게 된다. 각각의 장치들은 일정 시간 (time out) 동안 세팅 메시지를 전송하여 모든 장치가 공사장 안내 서비스를 하도록 한다.
또한, 디바이스 1 내지 디바이스 7은 일반적인 공사장 안내장치의 공사장 안내 서비스뿐만 아니라, 긴급상황에서 I2I 를 통해 위험 상황 전파를 할 수 있다. 주변을 주행중인 자동차가 부주의 운전으로 공사장 안내 장치를 치거나, 공사장 영역을 침범하여 주행 하는 경우, 각 디바이스들은 I2I 통신을 이용하여 해당 위험 상태를 서로 공유하여 주변에서 작업 중인 VRU 에 위험 신호를 알려주게 된다. 이를 통해 공사장에서 작업중인 VRU(공사장 인부)를 보호 할 수 있게 된다.
도 14는 본 명세서의 실시예(들)에 따른 위험 상태 경고 방법을 설명하기 위한 도면이다.
도 14를 참조하면, 공사장 영역에 디바이스 1(101) 내지 디바이스 7이 설치될 수 있으며, 공사장 주변을 주행하는 자동차(201)가 디바이스 3(103)을 치는 위험 상황이 있을 수 있다. 디바이스 3(103)은 충격 감지 센서 등을 이용하여 충격을 감지하게 되고 만약 충격이 확인 되면, 디바이스 3은 기존의 I2V 메시지에 추가적으로 I2I 메시지를 이용하여 주변 디바이스 에 경고 메시지를 전파 할 수 있다. 주변 디바이스들 또한 경고 메시지를 수신 하고, 주변으로 경고 메시지를 전파하여 자동차 V2X 커버리지 밖에 있는 공사장에서 작업하고 있는 VRU(공사 인부)(302)에게 경고를 줄 수 있게 된다.
다시 설명하자면, 자동차(201)가 공사장 영역에 설치된 디바이스 3(103)을 쳐서 사고가 발생하게 된 경우, 디바이스 3(103)은 충격 감지 센서 등을 이용하여 충격을 감지할 수 있다. 사고 발생 이전에, 디바이스 3은 주변의 차량 등에게 공사장 영역 정보를 포함하는 I2V 메시지를 지속적으로 전송한다. 디바이스 3이 충격을 감지하여 사고 발생 사실을 인지한 경우, 기존에 전송하던 I2V 메시지에 추가적으로 위험 상태를 경고하는 I2I 메시지를 주변 디바이스에 전송할 수 있다. 따라서, 디바이스 3은 다른 디바이스들에게 사고 발생 사실을 전송할 수 있고, 멀리 떨어진 곳에서 작업하는 공사 인부에게도 위험 상태를 경고할 수 있다. 공사장 인부가 공사장 영역이 매우 넓어 공사장 영역 내에서 발생한 사고 사실을 인지하기 힘든 경우, 본 명세서에서 제안하는 실시예를 통하여 위험 상태를 경고받을 수 있다.
한편, 본 명세서에 따른 실시예(들)에 따르면 기존의 방식과 같이 공사장의 영역을 미리 설정하는 방법과 달리 실시간으로 공사장의 영역을 조정 할 수 있다.
도 15는 본 명세서의 실시예(들)에 따른 공사장 위치 설정 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 공사가 진행됨에 따라 디바이스 1의 위치는 포인트 1에서 포인트 1'로 변경될 수 있으며, 디바이스 2의 위치는 포인트 2에서 포인트 2'로, 디바이스 3의 위치는 포인트 3에서 포인트 3'로 변경될 수 있다.
종래의 기술에 의하면 각 디바이스는 초기에 세팅된 공사장 영역 정보만을 전송 가능하므로, 공사장 영역이 변경되는 경우 변경된 공사장 영역에 대한 정보를 전송하지 못한다.
본 명세서의 실시예(들)에 따르면 공사장 인부는 각 디바이스의 위치를 옮기는 경우, 각 디바이스를 다시 세팅하여 변경된 공사장 영역에 대한 정보를 전송할 수 있도록 한다.
예를 들어, 공사장 인부는 각 디바이스의 세트 버튼을 누르고 변경하고자 하는 위치에 디바이스를 설치할 수 있다. 또는, 공사장 인부는 디바이스의 위치를 변경한 후 세트 버튼을 누를 수 있다. 이러한 공사장 인부의 세팅 방법은 예시에 불과하며, 다양한 방법으로 수행될 수 있다. 다른 실시예로 공사장 인부는 변경하고자 하는 위치에 디바이스를 설치한 후, 세트 버튼을 누를 수 있다.
위치가 변경된 디바이스에 세트 버튼이 입력된 경우, 디바이스는 자신의 위치를 측정하고, 주변 디바이스에 자신의 새로운 위치 정보를 전송할 수 있다. 이후 장치 재설치가 완료되면 장치들은 특정 기간 (time out) 동안 새로운 위치정보를 공유하고 이후 새로운 공사장영역을 안내하는 새로운 V2X 메시지를 주변 자동차에 전송 할 수 있다.
[제안하는 메시지 구조- C-V2X]
도 16은 본 명세서의 실시예(들)에 따른 메시지 구조를 나타내는 도면이다.
도 16의 (a)는 종래의 인프라 메시지(V2I)를 확장하여 I2I 메시지를 추가한 메시지 구조를 나타낸다. 종래의 RSM (Road Safety Message)에 I2I 메시지를 위한 세팅 컨테이너(Setting Container) 및 이벤트 컨테이너(Event Container)를 추가하는 구조이다. 또한, 도 16의 (b)는 새로운 I2I 전용 메시지(IOM; Infrastructure Operating Message) 구조이다.
I2I 통신을 위한 메시지는 인프라(Infrastructure) 구성을 위해 사용되는 세팅 컨테이너 (SettingContainer) 와 인프라 운용에 사용되는 이벤트 컨테이너 (EventContainer)로 구성될 수 있다. I2V 메시지를 이용하는 방법은 종래의 메시지 구조를 그대로 이용하는 방법으로 장점이 있으며, 세팅 중에서도 I2V 메시지를 동시에 전송 할 수 있는 장점이 있다. 반면 전용 메시지(IOM)을 사용하는 방법은 종래의 메시지를 수정할 필요가 없이 독립적으로 운용 될 수 있는 장점이 있다. 특히 I2V 통신 주파수가 아닌 다른 서비스 채널을 사용할 수 있으며, 공사장 영역 컨테이너 (Roadwork Zone Container)와 같은 I2V mandate 필드를 전송할 필요가 없이 I2I 통신을 위한 세팅 컨테이너와 이벤트 컨테이너만 보낼 수 있는 장점이 있다.
도 17은 본 명세서의 실시예(들)에 따른 세팅 컨테이너 및 이벤트 컨테이너의 구성을 나타낸다.
도 17의 (a)를 참조하면, 세팅 컨테이너는 I2I 통신을 통한 인프라 구성을 위해 사용되는 메시지 컨테이너이다. 해당 컨테이너는 세팅 타입(SettingType), 타임아웃값 (TimeOutValue), 및 세팅을 위해 사용되는 데이터 값으로 구성될 수 있다. 본 실시 예에서 사용하는 데이터는 공사장(WorkZone)의 영역을 정확히 표현하기 위한 포인트 포지션(PointPosition) 과 포인트 포지션 리스트(PointPositionList)로 구성될 수 있다. 세팅 타입은 어떤 세팅 상태인지를 나타내는 컨트롤 신호로 정수(Integer) (4bit, 1~16)로 정의 될 수 있다. 세팅 타입이 1인 경우 ConfigureSet 상태를 의미할 수 있고, 2인 경우 시작 상태인 것을 의미할 수 있으며, 3인 경우 ConfigureFinish 상태를 의미할 수 있다. 타임아웃값은 해당 타임아웃 시간을 정의하는 값을 의미할 수 있다. 타임아웃값은 정수 (16bit, 1~ 65536)값을 가지며 단위는 초(Sec) 일 수 있다. 만약 타임아웃값이 10으로 값이 설정 되어 있으면 10초 후에 타임아웃이 실행된다는 것을 의미할 수 있다.
포인트 포지션(PointPosition)은 인프라 자신의 위치를 정의하는 필드로 종래의 DF_ReferencePosition 형식을 이용할 수 있다. 포인트 포지션 리스트(PointPositionList) 는 주변 디바이스의 포인트 포지션을 수집한 데이터들일 수 있다. 포인트 포지션 리스트는 시퀀스 (SEQUENCE)로 표현될 수 있으며 최대 100개의 값을 가질 수 있다. 각각의 데이터는 포인트 포지션과 같이 DE_Position 형식을 가진다.
도 17의 (b)를 참조하면, 이벤트 컨테이너는 운영 중 차량이 돌진하거나 위험 상황이 감지될 때 전송되는 컨테이너로 이벤트 타입 (EventType), 이벤트ID (EventID), 이벤트코드 (EventCode), 이벤트시간 (EventTime), 이벤트종료시간 (EventReleaseTime) 필드 등으로 구성될 수 있다. 이벤트 타입은 이벤트의 상태를 알려주는 데이터로 정수 (4bit, 1~16)으로 구성될 수 있다. 이벤트 타입이 1인 경우, 이벤트가 발생(Occur)했음을 알려줄 수 있다. 이벤트 타입이 2인 경우, 이벤트의 상태가 업데이트(Uptate)되었음을 알려줄 수 있다. 이벤트 타입이 3인 경우, 이벤트가 종료(Release) 되었음 알려줄 수 있다. 이벤트ID 는 정수로 정의되며 랜덤 값(16bit, 1~ 65536)을 가질 수 있으며 이벤트를 구별시켜주는 역할을 할 수 있다. 이벤트 코드는 정수 (8bit, 1~256)로 정의되며 이벤트 종류를 알려줄 수 있다. 해당 값은 미리 표준에서 테이블을 통해 상호 동일한 테이블을 가질 수 있다. 예를 들어, 테이블에서 1의 값이 충돌(crash)로 매핑되어 있다면, 이벤트 코드 값이 1인 경우, 해당 디바이스가 충돌을 감지했다는 것을 의미할 수 있다. 해당 값은 운용에 관한 내용으로 본 명세서에서는 특정하지 않는다 (종래의 DE_CauseCodeType [1]을 이용할 수 있다). 이벤트 시간은 이벤트 발생 시간을 알려주는 데이터로 DE_TimestampIts [1]을 이용하여 UTC 형식을 따를 수 있으며 milliseconds 단위로 표시되며 해당 필드는 선택적(Optional) 이다. 이벤트 종료 시간은 이벤트 메시지를 통해 해제 신호를 받는 것과 별도로 이벤트의 종료 시간을 표시하는 필드일 수 있으며, DE_TimestampIts 를 이용하여 이벤트 종료 시간을 알려줄 수 있다.
[제안하는 메시지 동작 - C-V2X]
도 18은 초기 세팅 시 메시지 프로토콜을 설명하기 위한 도면이다.
처음 설치된 디바이스 1 은 설치 후 세트 버튼이 눌러진 경우, 자신의 위치를 담은 세팅 메시지를 주변 디바이스에 전송하게 된다. 이후 주변 디바이스 2 는 이전에 수신한 디바이스 1 의 위치와 자신의 위치 정보를 포함한 세팅 메시지를 주변에 전송하게 된다. 이후 모든 디바이스의 세팅이 완료되면 공사인부는 시작 버튼을 누르게 된다. 시작 버튼이 트리거링 되면 각각의 디바이스는 공사장 정보를 알려주는 경고(Warning) 메시지와 세팅 메시지를 전송하게 된다. 같이 전송되는 세팅 정보는 각각의 디바이스들이 공유하며 모드를 변경하게 된다. 일정 기간 이후 타임아웃으로 트리거링 되면 이후부터는 각각의 디바이스는 주변 자동차에 공사장 위험 정보를 포함하는 경고 메시지를 전송하게 된다.
다시 설명하자면, 세팅 모드 기간 동안 공사장 인부는 각각의 디바이스를 설치하고 세트 버튼을 누를 수 있다. 디바이스 1은 세트 버튼이 입력된 경우, 자신의 위치 정보를 포함하는 세팅 메시지를 주변 디바이스들에게 전송할 수 있다. 또한, 디바이스 2는 세트 버튼이 입력된 경우, 자신의 위치 정보 및 디바이스 1의 위치 정보를 포함하는 세팅 메시지를 주변 디바이스들에게 전송할 수 있다. 각각의 디바이스들은 세팅되어 자신의 위치 정보 및 수신한 주변 디바이스들의 위치 정보 리스트를 주변 디바이스들에게 전송할 수 있다. 그 후 세팅이 완료되면, 공사장 인부는 디바이스 1의 시작 버튼을 누를 수 있다. 또는, 공사장 인부는 디바이스 1 내지 디바이스 7중 어느 하나의 시작 버튼을 누를 수 있다. 만약, 디바이스 1의 시작 버튼이 입력되는 경우, 디바이스 1은 경고 메시지와 세팅 메시지를 함께 주변 디바이스들에게 전송할 수 있다. 각 디바이스는 세팅 메시지에 포함된 디바이스의 위치 리스트를 공유하여 공사장 영역에 설치된 모든 디바이스의 위치 정보를 획득할 수 있다. 그리고 경고 메시지는 공사장 영역의 모든 디바이스의 위치 정보들을 포함할 수 있다. 그리고 시작 버튼을 누른 후 타임아웃으로 설정된 시간이 지나면 각 디바이스들은 세팅 메시지의 전송을 종료하고 동작 모드로 동작하여 경고 메시지를 자동차에게 전송할 수 있다.
도 19는 공사장 위험 안내 서비스 진행 중, 특수 상황이 발생한 경우 메시지 프로토콜을 설명하기 위한 도면이다.
동작 모드 중, 공사 안내 장치인 디바이스 1이 충격을 감지하는 경우, 이벤트 모드로 변경되게 된다. 디바이스 1은 기존의 경고 정보에 추가로 이벤트 정보를 포함한 메시지를 전송하게 된다. 해당 메시지를 수신한 디바이스 들은 이벤트 정보를 추출하여 자신의 경고 정보에 추가로 이벤트 정보를 포함 시켜 메시지를 전송하게 된다. 이렇게 전파 되게 되면 모든 장치들이 경고 정보와 이벤트 정보를 전송하게 된다. 해당 메시지들은 주변의 자동차들과 VRU 들이 수신하여 HMI 를 통해 이벤트 상황을 경고하게 된다. 이후 이벤트 상황이 해제 되면, 공사장 인부는 시작 버튼을 눌러 상황을 종료 하게 된다. 이후 디바이스들은 종료된 상황을 주변 디바이스에 알려 다시 동작(Operating) 모드로 돌아 갈 수 있게 한다. 이후 모든 디바이스들은 다시 경고 정보를 전송하는 메시지를 전송하게 된다.
도 20은 공사장의 영역이 변경 되었을 때 이를 업데이트 하기 위한 메시지 프로토콜을 설명하는 도면이다. 동작 모드 중, 공사 안내 장치(Device 1)의 위치를 변경하여 공사장 영역을 바꿀 경우, 공사장 인부는 디바이스 1 의 세트 버튼을 눌러 위치를 조정하게 된다. 이후 디바이스 1 은 새로운 자신의 위치 정보를 주변 디바이스에 알려줄 수 있다. 이때 사용하는 메시지는 세팅 메시지로 디바이스 1의 변경된 위치 값을 전송하게 된다. 이후 다른 디바이스들은 디바이스 1의 위치 정보를 주변 디바이스에 전달을 하여 모든 디바이스들이 새로운 공사장 영역을 가지게 될 수 있다. 모든 세팅이 완료 된 경우, 공사장 인부는 디바이스 중 하나의 시작 버튼을 눌러 새롭게 공사장 영역을 설정 하게 된다. 이후 일정 시간 동안 (Time out) 시작 신호를 공유하여 모든 장치들이 동작 모드로 변환 하도록 동기화를 한다. 일정 시간 경과 후 모든 디바이스는 다시 동작 모드로 변경되어, 새로운 공사장 영역의 위치를 주변에 알려주게 된다.
[제안하는 메시지 구조 - NR-V2X]
V2X 장치들은 Rel-16 에 맞춰 NR-V2X (or 5G V2X) 기술이 준비 중에 있다. 종래의 C-V2X 는 직접통신 기법에 브로드캐스트 (Broadcast) 통신 만을 이용하는 반면, NR-V2X 에서는 유니캐스트 (Unicast) 통신이 새롭게 추가 되어 각각의 서비스의 효율적인 운용을 위해 사용하게 된다.
도 21은 NR-V2X 를 위한 메시지 구조를 설명하기 위한 도면이다.
도 21을 참조하면, NR-V2X를 위한 메시지는 세팅을 위해 사용되는 세팅 메시지와 설치 후 운용에 사용되는 동작 메시지로 구성될 수 있다.
도 21의 (a)는 세팅 메시지의 구조를 나타낸다. 세팅 메시지의 구성은 NR-V2X용 공통 헤더(Header) 와 세팅 메시지의 기본 정보를 담고 있는 세팅 헤더(settingHedaer), 그리고 각각 디바이스의 설치 정보를 담고 있는 세팅 정보 컨테이너 (SettingInformationContainer)로 구성될 수 있다. 세팅 정보 컨테이너는 각각의 디바이스의 정보를 포함할 수 있다. 디바이스 정보는 디바이스를 구별해주는 디바이스 ID (DeviceID)와 디바이스의 설치 위치를 알려주는 위치 (Position) 정보로 구성될 수 있다. 해당 메시지는 초기 공사장을 설치 할 때와 공사 중 위치를 조정할 때 사용하게 된다.
도 21의 (b)는 동작 메시지의 구조를 나타낸다. 동작 메시지는 NR-V2X용 공통 헤더(Header), 동작 메시지의 기본 정보를 담고 있는 동작 헤더(Operating Header), 및 동작 컨테이너 (Operating Container)를 포함할 수 있다.
각 디바이스의 세팅이 완료된 후, 각 디바이스는 동작 메시지를 통해 실시간으로 측정된 공사장 위치와 공사장 정보를 주변에 차량에 전송할 수 있다. 동작 메시지는 포함하는 정보에 따라 공사중임을 알려주는 광고 메시지 (Advertisement message), 또는 안전(Safety) 서비스를 수신 받기 위하여 차량이 RSU 에 전송하는 참여 메시지(Join message), 그리고 실제 RSU가 차량에게 전달하는 안전(Safety) 정보를 포함하는 안전 메시지 (Safety Message), 및/또는 공사장 긴급 상황을 전송할 수 있는 이벤트 메시지 (Event message)로 구성될 수 있다.
도 22는 동작 메시지에 포함된 동작 헤더(Operating Header)의 구성을 설명하기 위한 도면이다.
동작 헤더는 동작 메시지 타입(OperationMessageType), 서비스 타입(Service Type), 스테이션 타입(Station Type), 안전 타입(Safety Type), 이벤트 컨테이너 타입(Event Container type) 정보를 포함할 수 있다.
동작 메시지 타입은 정수로 구성되어 있으며, 동작 메시지가 광고 모드, ACK 모드, 안전 모드, 이벤트 모드 중 어느 하나에 해당함을 지시할 수 있다. 동작 메시지 타입 뒤에 따르는 메시지 타입은 정수로 정의 되며 선택적으로 동작 메시지의 정의에 따라 사용될 수 있다. 즉, 동작 메시지 타입이 지시하는 정보에 따라 동작 메시지의 타입이 결정될 수 있다. 예를 들어, 동작 메시지 타입이 광고 모드임을 지시하면, 동작 메시지는 광고 메시지로 결정되고, 서비스 타입 정보를 포함할 수 있다. 그리고 동작 메시지 타입이 ACK 모드임을 지시하면, 동작 메시지는 참여 메시지로 결정되고, 스테이션 타입 정보를 포함할 수 있다. 또한, 동작 메시지 타입이 안전 모드임을 지시하면, 동작 메시지는 안전 메시지로 결정되고 안전 타입 정보를 포함할 수 있다. 그리고 동작 메시지 타입이 이벤트 모드임을 지시하면, 동작 메시지는 이벤트 메시지로 결정되어 이벤트 컨테이너 정보를 포함할 수 있다.
도 23은 동작 메시지의 구조를 설명하기 위한 도면이다.
광고 메시지(Advertisement Message)는 RSU 에서 브로드캐스트 전송을 통해 주변 익명의 차량에 전송될 수 있다. 종래의 BSM (header + Common Data Container + RoadWorkZone Container) 기반의 메시지 타입을 Adv. 로 설정하여 NR-V2X 서비스를 제공하고 있음을 주변 차량에 알려주게 된다.
참여 메시지 (Join message)는 차량이 RSU 에 해당 서비스에 가입을 알려주는 메시지로 참여 헤더 (Join Header)와 차량의 상태를 알려주는 차량 정보 (Vehicle information)로 구성될 수 있다. 차량 정보는 BSM 에 사용되는 mandate field 를 사용할 수 있으며 BSMID 를 포함할 수 있다.
안전 메시지 (Safety Message)는 메시지의 기본 정보를 담고 있는 안전 헤더 (SafetyHeader)와 공사장 전체 상황을 알려주는 공사장 영역 컨테이너 (RoadWork Zone Container), 및 차량에 특화된 타겟 안전 컨테이너 (Tartget SafetyContainer)로 구성될 수 있다.
이벤트 메시지 (Event Message)는 공사장 특수 위험상황을 알려주는 메시지로 이벤트 상황의 기본정보를 담고 있는 이벤트 헤더 (EventHeader)와 이벤트 상황을 알려주는 이벤트 컨테이너 (EventContainer)로 구성될 수 있다.
본 명세서에서 제안한 실시간 공사장 위치 제공을 위해 공사장 세팅, 공사장 안내 운용, 공사장 재설정 동작을 하게 된다. 이를 위해 NR-V2X 장치들은 앞에서 설명한 메시지 셋을 이용하여 RSU 디바이스간 또는 차량과 RSU 디바이스간 통신 방법을 제안한다. 해당 방법을 이용할 경우, 종래의 브로드캐스트 통신에서 타임 아웃(Time out) 을 이용하는 C-V2X 장치보다 효율적인 운용이 가능하다.
도 24는 본 명세서의 실시예(들)에 따른 초기 설치시 NR-V2X의 메시지 전송 흐름도를 나타낸다.
도 24를 참조하면, 디바이스 1 내지 디바이스 N은 공사장 영역에 설치되는 RSU로 동작할 수 있으며, 각각의 디바이스끼리 유니캐스트 통신을 수행할 수 있다.
사용자는 디바이스 1 내지 디바이스 N을 순차적으로 설치할 수 있다. 예를 들어, 사용자가 공사장 안내를 위해 디바이스 설치를 준비하는 경우, 디바이스 1과 다음 설치될 디바이스 2 를 유니캐스트 통신을 통해 연결을 할 수 있다. 그리고 사용자는 디바이스 1을 설치 후 디바이스 1의 세트 버튼을 누를 수 있다. 세트 버튼이 눌러진 디바이스 1은 유니캐스트 연결을 통해 자신의 위치 정보를 디바이스 2 에 전송하게 된다. 이후 디바이스 2 는 접속 계층(Access layer)을 통하여 자동으로 ACK 신호를 디바이스 1에 전송하게 된다. 이후, 사용자는 공사장의 영역을 표시하기 위해 디바이스 2를 설치한다. 이때 상술한 과정과 같이 디바이스 2 와 디바이스 3 간의 유니캐스트 통신을 통해 디바이스 2 의 설치 위치를 디바이스 3에게 전달하게 된다. 이때 디바이스 2는 자신의 위치와 함께 디바이스 1의 설치 정보도 같이 누적하여 전송할 수 있다. 사용자는 디바이스 N-1을 설치하고 세트 버튼을 입력할 수 있으며, 디바이스 N-1은 디바이스 N에 자신의 위치와 함께 디바이스 1 내지 디바이스 N-2의 위치 리스트를 전송할 수 있다. 따라서, 디바이스 N은 디바이스 1 내지 디바이스 N-1의 위치 정보를 수신할 수 있다.
이렇게 순차적으로 디바이스들을 설치 하여 마지막 디바이스 N 의 설치가 완료되면, 사용자는 디바이스 N의 시작 버튼을 누를 수 있다. 시작 버튼이 입력된 디바이스 N 은 지금까지 수집된 모든 정보를 다시 자신이 수신 받은 유니캐스트 연결을 통해 디바이스 N-1에게 시작 메시지를 전송하게 된다. 해당 동작을 통해 모든 장치들은 설치된 위치를 공유하게 된다. 이를 기반으로 공사장의 정확한 위치를 고려하여 공사장 안전 서비스를 제공하게 된다.
도 25는 본 명세서의 실시예(들)에 따른 운용시 NR-V2X의 메시지 전송 흐름도를 나타낸다.
공사장 안내 장치 설치가 완료되면 각각의 디바이스는 주변의 차량에게 공사장 안전 서비스를 제공하게 된다. 종래의 C-V2X 는 자신의 주기에 맞춰 주변의 차량의 상태와 관련 없이 지속적으로 공사장 위험을 알리게 된다. 이처럼 차량의 유무, 종류, 상태와 상관 없이 각각의 RSU는 일방적으로 브로트캐스트 전송을 하게 된다. 하지만 NR-V2X 는 유니캐스트 통신을 이용하여 최적화 된 공사장 안내를 제공할 수 있다.
공사장 영역에 설치된 양단의 RSU는 브로드캐스트 통신을 이용하여 광고 메시지를 통해 주변의 차량으로 공사장이 존재하며 도로에 위험적인 요소가 있다는 것을 주변에 알려주게 된다. 이때 NR-V2X 서비스를 제공하고 있음을 알려주게 된다. 이후 NR-V2X 차량은 참여(Join) 메시지를 회신하여 공사장 위험 안내 서비스에 연결하게 된다. 이후 차량은 안전 메시지(safety Message)를 통해 공사장 안전 서비스를 받게 된다. 디바이스 1 은 차량 1 의 상태를 인지하여 특정 시간 후에 디바이스 2 에 참여 메시지를 전달하여 유니캐스트 연결을 맺게 된다. 이후 차량 1 은 디바이스 2를 통해 안전 서비스를 수신 받게 된다. 이렇게 차량이 공사장을 완전히 통과 할 때까지 가까운 디바이스들로부터 순차적으로 서비스를 받게 된다. 뿐만 아니라 반대편에서 진입하는 차량(예를 들어, 차량 2)은 반대편 RSU (예를 들어, 디바이스 N) 과 유니캐스트 연결를 맺어 반대로 이동하는 차량에 맞는 최적 서비스를 제공하게 된다. 메시지는 도 12 c 의 안전 메시지를 사용하며 공통 적인 공사장 정보는 종래의 BSM 메시지를 사용할 수 있으며, 차량에 특화된 정보는 타겟 안전 컨테이너 (target safety container)를 사용하여 전송할 수 있다.
만약 차량 중 공사장에 침범 하거나 충돌한 경우, 해당 디바이스는 이벤트 메시지를 주변 RSU 와 차량에 이벤트 상황을 알려주게 된다. 이때 이벤트 메시지만을 송출 하거나, 안전 메시지와 이벤트 메시지를 같이 전송하게 된다. 이때 사용하는 전송 방법은 브로드캐스트 전송을 하게 된다.
도 26은 본 명세서의 실시예(들)에 따른 재설치시 NR-V2X의 메시지 전송 흐름도를 나타낸다.
마지막으로 공사장 영역 재설정 환경의 동작에 관한 내용으로 초기 세팅 단계와 같이 세팅 메시지를 사용한다. 재설정을 위해 동작중인 RSU 장치 하나를 이동하고 디바이스는 장치에 설치된 세트 버튼을 누르게 된다. 이렇게 새롭게 위치가 변경 되면 버튼이 눌러진 디바이스 1 은 자신의 새로운 위치를 설치시 설정된 유니캐스트 연결 리스트에 맞춰 새로운 정보를 전송하게 된다. 이렇게 새롭게 설정된 위치는 디바이스 1 에서 디바이스 2로, 디바이스 2에서 디바이스 3으로 그리고 디바이스 3에서 디바이스 4로 전파되게 된다.
[유니캐스트 연결을 위한 Link-Map 운용 기법]
RSU 간 유니캐스트를 통해 채널의 효율 및 빠른 설정이 가능하게 된다. 이를 위해 고정된 RSU 간 서로 연결 맵을 설정해야 된다.
도 27은 본 명세서의 실시예(들)에 따른 RSU간의 연결 맵을 설정하는 방법을 설명하기 위한 도면한다.
도 27의 (a)를 참조하면, 각각의 RSU 장치는 자신의 양단에 연결된 디바이스의 목적지 IP (Destination IP)를 저장할 메모리를 가지게 된다. 각각의 RSU 디바이스는 설치 시 초기 순번에 맞춰, 맨 처음에 위치한 디바이스 1의 왼쪽은 아무도 없어 Edge 로 표기되며, 오른쪽에는 디바이스 2의 IP 를 저장하게 된다. 디바이스 2의 왼쪽에는 디바이스 1의 IP가 저장되며 오른쪽에는 디바이스 3의 IP 가 저장된다. 마지막 디바이스 4 의 경우 왼쪽 에는 이전 장치인 디바이스 3 IP 가 저장되며 오른쪽 필드에는 edge 여서 0.0.0.0으로 저장된다.
도 27의 (b)는 디바이스간 위치가 변경된 경우를 설명하기 위한 도면이다.
디바이스의 위치가 변경 되거나, 설치된 위치에 맞춰 순번을 변경해야 되는 경우가 있을 수 있다. 이러한 경우, 디바이스간 링크를 변경하게 되고 이때 연결된 모든 연결 의 값을 수정하게 된다. 디바이스 2 와 디바이스 3은 서로 협의를 통해 위치를 변경하게 되고, 디바이스 2는 자신의 왼쪽을 디바이스 3으로 오른쪽을 디바이스 3 이 연결 하고 있는 디바이스 4 값으로 변경하게 된다. 디바이스 3 또한 자신의 오른쪽을 디바이스 2로 그리고 왼쪽은 디바이스 2 가 연결하고 있는 디바이스 1로 값을 변경하게 된다. 뿐만 아니라 디바이스 2와 디바이스 3이 각각 연결 되어 있던 디바이스 1 과 디바이스 4 의 값들 도 각각 변화 시키게 된다.
도 28은 디바이스간 위치를 바꾸는 경우 상호 메시지를 교환하는 방식을 나타내는 도면이다.
도 28을 참조하면, 각각의 연결 값을 변경하기 위해 세팅 메시지를 이용하여 서로 설정을 변경하게 된다. 유니캐스트를 위해 디바이스 2 와 디바이스 3의 위치를 바꾸는 경우 상호 메시지를 교환할 수 있다. 우선, 위치가 변경 되어야 되는 상황이 발생한 디바이스 2는 디바이스 3에게 위치 변경 요청을 하게 되고 이후 디바이스 3은 이에 Ack 신호를 통해 응하게 된다. 이후 각각의 디바이스는 외부에 변경된 정보를 알려주게 된다. 즉 디바이스 2 는 디바이스 1 에게 앞으로 디바이스 2 가 아닌 디바이스 3으로 변경하라는 메시지를 보내게 된다. 디바이스 3 또한 디바이스 4에게 링크된 자신의 값에서 디바이스 2로 변경하라는 신호를 IP 번호와 같이 전송하게 된다. 이후 4개의 디바이스 는 모두 연결 리스트를 업데이트 하게 된다.
도 29는 본 명세서에서 제안하는 실시예(들)을 설명하기 위한 순서도이다.
제1 RSU 및 제2 RSU는 공사장 영역에 설치된 장치된 디바이스, 공사장 안내 장치, V2X 장치, 또는 인프라일 수 있다.
제1 RSU는 I2I 통신을 이용하여 제2 RSU에 제1 메시지를 전송할 수 있다(S2901). 또한, 제1 RSU는 I2I통신을 이용하여 제2 RSU로부터 제2 메시지를 수신할 수 있다(S2902). 제1 메시지 및 제2 메시지는 세팅 메시지일 수 있다. 보다 구체적으로, 제1 메시지는 제1 RSU의 위치 및 제1 위치 리스트를 포함할 수 있다. 제1 RSU의 위치는 실시간으로 변경된 제1 RSU의 위치를 반영할 수 있다. 그리고 공사장 영역에 설치된 각각의 디바이스들은 자신의 위치 및 다른 디바이스들로부터 수신한 위치 리스트를 세팅 메시지에 포함하여 전달할 수 있다. 다른 디바이스들로부터 세팅 메시지를 수신한 제1 RSU는 자신의 제1 위치 리스트를 수신한 다른 디바이스들의 위치 및 위치 리스트들을 반영하여 업데이트할 수 있다. 따라서, 각 디바이스들의 위치가 변경된 경우에도 I2I 통신을 이용하여 실시간으로 변경된 위치 정보를 각 디바이스들끼리 공유할 수 있다.
또한, 제1 RSU에 세팅 버튼이 입력되는 경우, 제1 RSU는 제1 메시지 제2 RSU에 전송할 수 있다. 사용자 또는 공사장 인부는 공사장 영역에 처음 RSU를 설치하는 경우, 또는 RSU의 위치를 변경하는 경우에 세팅 버튼을 입력할 수 있다.
그리고 세팅 메시지는 세팅 타입 정보를 포함할 수 있고, 제1 RSU에 시작 버튼이 입력되는 경우, 세팅 타입 정보는 시작 상태를 지시할 수 있다.
또한, 상기 제1 메시지는 타임아웃 시간을 포함할 수 있고, 제1 RSU에 시작 버튼이 입력된 후 타임아웃 시간이 경과하는 경우, 제1 메시지의 전송이 중단될 수 있다.
한편, 제1 RSU에 시작 버튼이 입력된 후 상기 타임아웃 시간이 경과하는 경우, 공사장 영역에 대한 경고 메시지를 하나 이상의 차량에게 전송할 수 있다.
또한, 상기 제1 메시지 및 상기 제2 메시지는 이벤트 정보를 포함할 수 있다. 만약, 다른 차량이 공사장 영역을 침범하여 RSU와 충돌하는 경우, RSU는 이벤트 메시지를 다른 RSU에 전송할 수 있다. 이벤트 정보는 공사장 영역에 발생하는 위험 상황 등에 대한 정보를 포함할 수 있다.
한편, 제1 RSU 및 제2 RSU는 유니캐스트 연결되어 유니캐스트 통신을 수행할 수 있다. 따라서, 제1 RSU가 제2 RSU에게 제1 메시지를 전송하는 경우, 제2 RSU가 제1 메시지를 성공적으로 수신하면 ACK 피드백을 제1 RSU에게 전송할 수 있다. 따라서, 유니캐스트 통신을 통하여 각 RSU들은 세팅 메시지 및 이벤트 메시지를 정확하게 전송할 수 있다.
상기 제안된 방법은 공사장 위험 정보 안내를 위한 실시예를 예로 들었지만 해당 서비스뿐만 아니라 ITS 시스템 중에 멀티 인프라(Multi-Infrastructure)가 구성되어 서비스 되는 시스템의 긴밀한 운용을 위해 I2I 통신 시스템 및 메시지 구조를 이용할 수 있다. 이를 위해 추후에 I2I 메시지의 세팅 컨테이너와 이벤트 컨테이너에 관련된 데이터를 추가하면 다른 서비스에 적용 가능하다.
본 명세서에서는 종래의 V2X 서비스에서 제공하는 서비스에 I2I 통신을 추가하여 서비스의 질을 높이는 방법을 제안하였다. 해당 발명을 통해 종래에는 V2X 서비스를 위해 사람이 직접적으로 설정하거나 관리하는 애로사항이 존재하였지만 본 발명에서 제안하는 I2I 통신을 이용할 경우, 장치들 스스로 정보를 교환하고 서비스하는 사용자 편의를 제공하게 된다.
본 발명이 적용되는 통신 시스템 예
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 발명의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 30은 본 발명에 적용되는 통신 시스템(1)을 예시한다.
도 30을 참조하면, 본 발명에 적용되는 통신 시스템(1)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR(New RAT), LTE(Long Term Evolution))을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(eXtended Reality) 기기(100c), 휴대 기기(Hand-held device)(100d), 가전(100e), IoT(Internet of Thing) 기기(100f), AI기기/서버(400)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. 예를 들어, 기지국, 네트워크는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(200a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(200)을 통해 네트워크(300)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI(Artificial Intelligence) 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(300)를 통해 AI 서버(400)와 연결될 수 있다. 네트워크(300)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(200)/네트워크(300)를 통해 서로 통신할 수도 있지만, 기지국/네트워크를 통하지 않고 직접 통신(e.g. 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(e.g. V2V(Vehicle to Vehicle)/V2X(Vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(200), 기지국(200)/기지국(200) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(e.g. relay, IAB(Integrated Access Backhaul)과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 발명의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 발명이 적용되는 무선 기기 예
도 31은 본 발명에 적용될 수 있는 무선 기기를 예시한다.
도 31을 참조하면, 제1 무선 기기(100)와 제2 무선 기기(200)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(100), 제2 무선 기기(200)}은 도 30의 {무선 기기(100x), 기지국(200)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(100)는 하나 이상의 프로세서(102) 및 하나 이상의 메모리(104)를 포함하며, 추가적으로 하나 이상의 송수신기(106) 및/또는 하나 이상의 안테나(108)을 더 포함할 수 있다. 프로세서(102)는 메모리(104) 및/또는 송수신기(106)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(102)는 메모리(104) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(106)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(102)는 송수신기(106)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(104)에 저장할 수 있다. 메모리(104)는 프로세서(102)와 연결될 수 있고, 프로세서(102)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(104)는 프로세서(102)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(102)와 메모리(104)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(106)는 프로세서(102)와 연결될 수 있고, 하나 이상의 안테나(108)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(106)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(106)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200)는 하나 이상의 프로세서(202), 하나 이상의 메모리(204)를 포함하며, 추가적으로 하나 이상의 송수신기(206) 및/또는 하나 이상의 안테나(208)를 더 포함할 수 있다. 프로세서(202)는 메모리(204) 및/또는 송수신기(206)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 메모리(204) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202)는 송수신기(206)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204)에 저장할 수 있다. 메모리(204)는 프로세서(202)와 연결될 수 있고, 프로세서(202)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204)는 프로세서(202)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202)와 메모리(204)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206)는 프로세서(202)와 연결될 수 있고, 하나 이상의 안테나(208)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206)는 RF 유닛과 혼용될 수 있다. 본 발명에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(100, 200)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(102, 202)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 계층(예, PHY, MAC, RLC, PDCP, RRC, SDAP와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(Service Data Unit)를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(102, 202)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(106, 206)에게 제공할 수 있다. 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(102, 202)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(102, 202)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(Application Specific Integrated Circuit), 하나 이상의 DSP(Digital Signal Processor), 하나 이상의 DSPD(Digital Signal Processing Device), 하나 이상의 PLD(Programmable Logic Device) 또는 하나 이상의 FPGA(Field Programmable Gate Arrays)가 하나 이상의 프로세서(102, 202)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(102, 202)에 포함되거나, 하나 이상의 메모리(104, 204)에 저장되어 하나 이상의 프로세서(102, 202)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(104, 204)는 ROM, RAM, EPROM, 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(104, 204)는 하나 이상의 프로세서(102, 202)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(104, 204)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(102, 202)와 연결될 수 있다.
하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(102, 202)는 하나 이상의 송수신기(106, 206)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)와 연결될 수 있고, 하나 이상의 송수신기(106, 206)는 하나 이상의 안테나(108, 208)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(106, 206)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(102, 202)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(106, 206)는 하나 이상의 프로세서(102, 202)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(106, 206)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 발명이 적용되는 신호 처리 회로 예
도 32는 전송 신호를 위한 신호 처리 회로를 예시한다.
도 32를 참조하면, 신호 처리 회로(1000)는 스크램블러(1010), 변조기(1020), 레이어 매퍼(1030), 프리코더(1040), 자원 매퍼(1050), 신호 생성기(1060)를 포함할 수 있다. 이로 제한되는 것은 아니지만, 도 32의 동작/기능은 도 31의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 수행될 수 있다. 도 32의 하드웨어 요소는 도 31의 프로세서(102, 202) 및/또는 송수신기(106, 206)에서 구현될 수 있다. 예를 들어, 블록 1010~1060은 도 31의 프로세서(102, 202)에서 구현될 수 있다. 또한, 블록 1010~1050은 도 31의 프로세서(102, 202)에서 구현되고, 블록 1060은 도 31의 송수신기(106, 206)에서 구현될 수 있다.
코드워드는 도 32의 신호 처리 회로(1000)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다.
구체적으로, 코드워드는 스크램블러(1010)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(1020)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-Binary Phase Shift Keying), m-PSK(m-Phase Shift Keying), m-QAM(m-Quadrature Amplitude Modulation) 등을 포함할 수 있다. 복소 변조 심볼 시퀀스는 레이어 매퍼(1030)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(1040)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(1040)의 출력 z는 레이어 매퍼(1030)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(1040)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(1040)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(1050)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(1060)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(1060)는 IFFT(Inverse Fast Fourier Transform) 모듈 및 CP(Cyclic Prefix) 삽입기, DAC(Digital-to-Analog Converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 32의 신호 처리 과정(1010~1060)의 역으로 구성될 수 있다. 예를 들어, 무선 기기(예, 도 31의 100, 200)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(Fast Fourier Transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
본 발명이 적용되는 무선 기기 활용 예
도 33은 본 발명에 적용되는 무선 기기의 다른 예를 나타낸다. 무선 기기는 사용-예/서비스에 따라 다양한 형태로 구현될 수 있다(도 30 참조).
도 33을 참조하면, 무선 기기(100, 200)는 도 31의 무선 기기(100,200)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(100, 200)는 통신부(110), 제어부(120), 메모리부(130) 및 추가 요소(140)를 포함할 수 있다. 통신부는 통신 회로(112) 및 송수신기(들)(114)을 포함할 수 있다. 예를 들어, 통신 회로(112)는 도 31의 하나 이상의 프로세서(102,202) 및/또는 하나 이상의 메모리(104,204) 를 포함할 수 있다. 예를 들어, 송수신기(들)(114)는 도 31의 하나 이상의 송수신기(106,206) 및/또는 하나 이상의 안테나(108,208)을 포함할 수 있다. 제어부(120)는 통신부(110), 메모리부(130) 및 추가 요소(140)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(120)는 메모리부(130)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(120)는 메모리부(130)에 저장된 정보를 통신부(110)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(110)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(130)에 저장할 수 있다.
추가 요소(140)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(140)는 파워 유닛/배터리, 입출력부(I/O unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(도 30, 100a), 차량(도 30, 100b-1, 100b-2), XR 기기(도 30, 100c), 휴대 기기(도 30, 100d), 가전(도 30, 100e), IoT 기기(도 30, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 30, 400), 기지국(도 30, 200), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 33에서 무선 기기(100, 200) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(110)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(100, 200) 내에서 제어부(120)와 통신부(110)는 유선으로 연결되며, 제어부(120)와 제1 유닛(예, 130, 140)은 통신부(110)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(100, 200) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(120)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(120)는 통신 제어 프로세서, 어플리케이션 프로세서(Application processor), ECU(Electronic Control Unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(130)는 RAM(Random Access Memory), DRAM(Dynamic RAM), ROM(Read Only Memory), 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
이하, 도 33의 구현 예에 대해 도면을 참조하여 보다 자세히 설명한다.
본 발명이 적용되는 휴대기기 예
도 34는 본 발명에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station) 또는 WT(Wireless terminal)로 지칭될 수 있다.
도 34를 참조하면, 휴대 기기(100)는 안테나부(108), 통신부(110), 제어부(120), 메모리부(130), 전원공급부(140a), 인터페이스부(140b) 및 입출력부(140c)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110~130/140a~140c는 각각 도 33의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 휴대 기기(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 AP(Application Processor)를 포함할 수 있다. 메모리부(130)는 휴대 기기(100)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(130)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(140a)는 휴대 기기(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(140b)는 휴대 기기(100)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(140b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(140c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(140c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(140d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(140c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(130)에 저장될 수 있다. 통신부(110)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(110)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(130)에 저장된 뒤, 입출력부(140c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 헵틱)로 출력될 수 있다.
본 발명이 적용되는 차량 또는 자율 주행 차량 예
도 35는 본 발명에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(Aerial Vehicle, AV), 선박 등으로 구현될 수 있다.
도 35를 참조하면, 차량 또는 자율 주행 차량(100)은 안테나부(108), 통신부(110), 제어부(120), 구동부(140a), 전원공급부(140b), 센서부(140c) 및 자율 주행부(140d)를 포함할 수 있다. 안테나부(108)는 통신부(110)의 일부로 구성될 수 있다. 블록 110/130/140a~140d는 각각 도 33의 블록 110/130/140에 대응한다.
통신부(110)는 다른 차량, 기지국(e.g. 기지국, 노변 기지국(Road Side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량 또는 자율 주행 차량(100)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(120)는 ECU(Electronic Control Unit)를 포함할 수 있다. 구동부(140a)는 차량 또는 자율 주행 차량(100)을 지상에서 주행하게 할 수 있다. 구동부(140a)는 엔진, 모터, 파워 트레인, 바퀴, 브레이크, 조향 장치 등을 포함할 수 있다. 전원공급부(140b)는 차량 또는 자율 주행 차량(100)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 센서부(140c)는 차량 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140c)는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 등을 포함할 수 있다. 자율 주행부(140d)는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등을 구현할 수 있다.
일 예로, 통신부(110)는 외부 서버로부터 지도 데이터, 교통 정보 데이터 등을 수신할 수 있다. 자율 주행부(140d)는 획득된 데이터를 기반으로 자율 주행 경로와 드라이빙 플랜을 생성할 수 있다. 제어부(120)는 드라이빙 플랜에 따라 차량 또는 자율 주행 차량(100)이 자율 주행 경로를 따라 이동하도록 구동부(140a)를 제어할 수 있다(예, 속도/방향 조절). 자율 주행 도중에 통신부(110)는 외부 서버로부터 최신 교통 정보 데이터를 비/주기적으로 획득하며, 주변 차량으로부터 주변 교통 정보 데이터를 획득할 수 있다. 또한, 자율 주행 도중에 센서부(140c)는 차량 상태, 주변 환경 정보를 획득할 수 있다. 자율 주행부(140d)는 새로 획득된 데이터/정보에 기반하여 자율 주행 경로와 드라이빙 플랜을 갱신할 수 있다. 통신부(110)는 차량 위치, 자율 주행 경로, 드라이빙 플랜 등에 관한 정보를 외부 서버로 전달할 수 있다. 외부 서버는 차량 또는 자율 주행 차량들로부터 수집된 정보에 기반하여, AI 기술 등을 이용하여 교통 정보 데이터를 미리 예측할 수 있고, 예측된 교통 정보 데이터를 차량 또는 자율 주행 차량들에게 제공할 수 있다.
본 발명이 적용되는 AR/VR 및 차량 예
도 36은 본 발명에 적용되는 차량을 예시한다. 차량은 운송수단, 기차, 비행체, 선박 등으로도 구현될 수 있다.
도 36을 참조하면, 차량(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a) 및 위치 측정부(140b)를 포함할 수 있다. 여기서, 블록 110~130/140a~140b는 각각 도 33의 블록 110~130/140에 대응한다.
통신부(110)는 다른 차량, 또는 기지국 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 차량(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 차량(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 메모리부(130) 내의 정보에 기반하여 AR/VR 오브젝트를 출력할 수 있다. 입출력부(140a)는 HUD를 포함할 수 있다. 위치 측정부(140b)는 차량(100)의 위치 정보를 획득할 수 있다. 위치 정보는 차량(100)의 절대 위치 정보, 주행선 내에서의 위치 정보, 가속도 정보, 주변 차량과의 위치 정보 등을 포함할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서들을 포함할 수 있다.
일 예로, 차량(100)의 통신부(110)는 외부 서버로부터 지도 정보, 교통 정보 등을 수신하여 메모리부(130)에 저장할 수 있다. 위치 측정부(140b)는 GPS 및 다양한 센서를 통하여 차량 위치 정보를 획득하여 메모리부(130)에 저장할 수 있다. 제어부(120)는 지도 정보, 교통 정보 및 차량 위치 정보 등에 기반하여 가상 오브젝트를 생성하고, 입출력부(140a)는 생성된 가상 오브젝트를 차량 내 유리창에 표시할 수 있다(1410, 1420). 또한, 제어부(120)는 차량 위치 정보에 기반하여 차량(100)이 주행선 내에서 정상적으로 운행되고 있는지 판단할 수 있다. 차량(100)이 주행선을 비정상적으로 벗어나는 경우, 제어부(120)는 입출력부(140a)를 통해 차량 내 유리창에 경고를 표시할 수 있다. 또한, 제어부(120)는 통신부(110)를 통해 주변 차량들에게 주행 이상에 관한 경고 메세지를 방송할 수 있다. 상황에 따라, 제어부(120)는 통신부(110)를 통해 관계 기관에게 차량의 위치 정보와, 주행/차량 이상에 관한 정보를 전송할 수 있다.
본 발명이 적용되는 XR 기기 예
도 37은 본 발명에 적용되는 XR 기기를 예시한다. XR 기기는 HMD, 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등으로 구현될 수 있다.
도 37을 참조하면, XR 기기(100a)는 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 전원공급부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 33의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 휴대 기기, 또는 미디어 서버 등의 외부 기기들과 신호(예, 미디어 데이터, 제어 신호 등)를 송수신할 수 있다. 미디어 데이터는 영상, 이미지, 소리 등을 포함할 수 있다. 제어부(120)는 XR 기기(100a)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성 및 처리 등의 절차를 제어 및/또는 수행하도록 구성될 수 있다. 메모리부(130)는 XR 기기(100a)의 구동/XR 오브젝트의 생성에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 외부로부터 제어 정보, 데이터 등을 획득하며, 생성된 XR 오브젝트를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 XR 기기 상태, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다. 전원공급부(140c)는 XR 기기(100a)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다.
일 예로, XR 기기(100a)의 메모리부(130)는 XR 오브젝트(예, AR/VR/MR 오브젝트)의 생성에 필요한 정보(예, 데이터 등)를 포함할 수 있다. 입출력부(140a)는 사용자로부터 XR 기기(100a)를 조작하는 명령을 회득할 수 있으며, 제어부(120)는 사용자의 구동 명령에 따라 XR 기기(100a)를 구동시킬 수 있다. 예를 들어, 사용자가 XR 기기(100a)를 통해 영화, 뉴스 등을 시청하려고 하는 경우, 제어부(120)는 통신부(130)를 통해 컨텐츠 요청 정보를 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버에 전송할 수 있다. 통신부(130)는 다른 기기(예, 휴대 기기(100b)) 또는 미디어 서버로부터 영화, 뉴스 등의 컨텐츠를 메모리부(130)로 다운로드/스트리밍 받을 수 있다. 제어부(120)는 컨텐츠에 대해 비디오/이미지 획득, (비디오/이미지) 인코딩, 메타데이터 생성/처리 등의 절차를 제어 및/또는 수행하며, 입출력부(140a)/센서부(140b)를 통해 획득한 주변 공간 또는 현실 오브젝트에 대한 정보에 기반하여 XR 오브젝트를 생성/출력할 수 있다.
또한, XR 기기(100a)는 통신부(110)를 통해 휴대 기기(100b)와 무선으로 연결되며, XR 기기(100a)의 동작은 휴대 기기(100b)에 의해 제어될 수 있다. 예를 들어, 휴대 기기(100b)는 XR 기기(100a)에 대한 콘트롤러로 동작할 수 있다. 이를 위해, XR 기기(100a)는 휴대 기기(100b)의 3차원 위치 정보를 획득한 뒤, 휴대 기기(100b)에 대응하는 XR 개체를 생성하여 출력할 수 있다.
본 발명이 적용되는 로봇 예
도 38은 본 발명에 적용되는 로봇을 예시한다. 로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류될 수 있다.
도 38을 참조하면, 로봇(100)은 통신부(110), 제어부(120), 메모리부(130), 입출력부(140a), 센서부(140b) 및 구동부(140c)를 포함할 수 있다. 여기서, 블록 110~130/140a~140c은 각각 도 33의 블록 110~130/140에 대응한다.
통신부(110)는 다른 무선 기기, 다른 로봇, 또는 제어 서버 등의 외부 기기들과 신호(예, 구동 정보, 제어 신호 등)를 송수신할 수 있다. 제어부(120)는 로봇(100)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 메모리부(130)는 로봇(100)의 다양한 기능을 지원하는 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 입출력부(140a)는 로봇(100)의 외부로부터 정보를 획득하며, 로봇(100)의 외부로 정보를 출력할 수 있다. 입출력부(140a)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센서부(140b)는 로봇(100)의 내부 정보, 주변 환경 정보, 사용자 정보 등을 얻을 수 있다. 센서부(140b)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 레이더 등을 포함할 수 있다. 구동부(140c)는 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 구동부(140c)는 로봇(100)을 지상에서 주행하거나 공중에서 비행하게 할 수 있다. 구동부(140c)는 액츄에이터, 모터, 바퀴, 브레이크, 프로펠러 등을 포함할 수 있다.
본 발명이 적용되는 AI 기기 예
도 39는 본 발명에 적용되는 AI 기기를 예시한다. AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 39를 참조하면, AI 기기(100)는 통신부(110), 제어부(120), 메모리부(130), 입/출력부(140a/140b), 러닝 프로세서부(140c) 및 센서부(140d)를 포함할 수 있다. 블록 110~130/140a~140d는 각각 도 33의 블록 110~130/140에 대응한다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 30, 100x, 200, 400)나 AI 서버(예, 도 30의 400) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(110)는 메모리부(130) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(130)로 전달할 수 있다.
제어부(120)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(120)는 AI 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(120)는 러닝 프로세서부(140c) 또는 메모리부(130)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(100)의 구성 요소들을 제어할 수 있다. 또한, 제어부(120)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(130) 또는 러닝 프로세서부(140c)에 저장하거나, AI 서버(도 30, 400) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(130)는 AI 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(130)는 입력부(140a)로부터 얻은 데이터, 통신부(110)로부터 얻은 데이터, 러닝 프로세서부(140c)의 출력 데이터, 및 센싱부(140)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(130)는 제어부(120)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(140a)는 AI 기기(100)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(140a)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(140a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(140b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(140b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(140)는 다양한 센서들을 이용하여 AI 기기(100)의 내부 정보, AI 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(140)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(140c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(140c)는 AI 서버(도 30, 400)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(140c)는 통신부(110)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(130)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(140c)의 출력 값은 통신부(110)를 통해 외부 기기로 전송되거나/되고, 메모리부(130)에 저장될 수 있다.
상술한 바와 같은 실시형태들은 다양한 이동통신 시스템에 적용될 수 있다.

Claims (12)

  1. 무선 통신 시스템에서 제1 RSU(Road Side Unit)를 위한 동작을 수행하는 방법에 있어서,
    제2 RSU에 제1 메시지를 전송하는 단계; 및
    상기 제2 RSU로부터 제2 메시지를 수신하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고,
    상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며,
    상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 방법.
  2. 제1항에 있어서,
    상기 제1 위치 리스트 및 상기 제2 위치 리스트는 공사장 영역에 설치되는 하나 이상의 RSU의 위치 정보를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 제1 RSU에 세팅 버튼이 입력되는 것에 기반하여, 상기 제1 메시지는 상기 제2 RSU에 전송되는, 방법.
  4. 제1항에 있어서,
    상기 제1 메시지는 세팅 타입 정보를 포함하고,
    상기 제1 RSU에 시작 버튼이 입력되는 것에 기반하여, 상기 세팅 타입 정보는 시작 상태를 지시하는, 방법.
  5. 제1항에 있어서,
    상기 제1 메시지는 타임아웃 시간을 포함하고,
    상기 제1 RSU에 시작 버튼이 입력된 후 상기 타임아웃 시간이 경과한 것에 기반하여, 상기 제1 메시지의 전송이 중단되는, 방법.
  6. 제5항에 있어서,
    상기 제1 RSU에 시작 버튼이 입력된 후 상기 타임아웃 시간이 경과한 것에 기반하여, 공사장 영역에 대한 경고 메시지를 하나 이상의 차량에게 전송하는 단계를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 제1 RSU의 위치가 변경에 기반하여, 상기 제1 메시지는 변경된 제1 RSU의 위치 정보를 포함하는, 방법
  8. 제1항에 있어서,
    상기 제1 메시지 및 상기 제2 메시지는 이벤트 정보를 포함하고,
    상기 이벤트 정보는 공사장 영역에 발생하는 위험 상황 등에 대한 정보를 포함하는, 방법
  9. 제1항에 있어서,
    상기 제1 RSU 및 상기 제2 RSU는 유니캐스트 연결된, 방법
  10. 무선통신시스템에서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 동작 가능하게 연결될 수 있고, 실행될 때 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령들을 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은, 제2 RSU에 제1 메시지를 전송하는 단계; 및
    상기 제2 RSU로부터 제2 메시지를 수신하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고,
    상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며,
    상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 제1 RSU.
  11. 적어도 하나의 프로세서에 의해 실행될 때, 적어도 하나의 프로세서가 UE를 위한 동작들을 수행하게 하는 명령을 포함하는 적어도 하나의 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 동작들은, 제2 RSU에 제1 메시지를 전송하는 단계; 및
    상기 제2 RSU로부터 제2 메시지를 수신하는 단계;
    를 포함하며,
    상기 제1 메시지는 상기 제1 RSU의 위치 정보 및 제1 위치 리스트를 포함하고,
    상기 제2 메시지는 상기 제2 RSU의 위치 정보 및 제2 위치 리스트를 포함하며,
    상기 제1 위치 리스트는 상기 제2 RSU의 위치 정보 및 상기 제2 위치 리스트에 의하여 업데이트되는, 매체.
  12. 제10항에 있어서,
    상기 제1 RSU는 자율주행 차량 또는 자율주행 차량에 포함된 것인, 제1 RSU.
PCT/KR2020/007680 2019-06-12 2020-06-12 무선 통신 시스템에서 rsu 간의 신호 송수신 방법 WO2020251314A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/616,016 US20220327929A1 (en) 2019-06-12 2020-06-12 Method by which rsus transmit and receive signals in wireless communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190069583 2019-06-12
KR10-2019-0069583 2019-06-12

Publications (1)

Publication Number Publication Date
WO2020251314A1 true WO2020251314A1 (ko) 2020-12-17

Family

ID=73781845

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/007680 WO2020251314A1 (ko) 2019-06-12 2020-06-12 무선 통신 시스템에서 rsu 간의 신호 송수신 방법

Country Status (2)

Country Link
US (1) US20220327929A1 (ko)
WO (1) WO2020251314A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113783964A (zh) * 2021-09-17 2021-12-10 首都师范大学 社交车联网的数据协同传输方法和装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712719B (zh) * 2020-12-25 2022-05-03 阿波罗智联(北京)科技有限公司 车辆控制方法、车路协同***、路侧设备和自动驾驶车辆
CN117565892A (zh) * 2023-11-17 2024-02-20 上海智能汽车融合创新中心有限公司 一种接力型自动驾驶***和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110121189A (ko) * 2010-04-30 2011-11-07 경북대학교 산학협력단 유비쿼터스 교통 센서 네트워크 및 그것의 노변 장치
KR20120031335A (ko) * 2010-09-24 2012-04-03 박준형 스마트폰을 이용한 고속주행차량의 돌발상황 정보전달방법
WO2017030348A1 (ko) * 2015-08-14 2017-02-23 엘지전자 주식회사 무선 통신 시스템에서 v2x 메시지 송수신 방법 및 이를 위한 장치
WO2018031458A1 (en) * 2016-08-09 2018-02-15 Intel IP Corporation Systems, methods, and devices for identifying locations of nearby road side units for vehicle-to-anything communications
US20180279183A1 (en) * 2015-11-26 2018-09-27 Huawei Technologies Co., Ltd. Method for switching roadside navigation unit in navigation system, and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6007626B2 (ja) * 2012-07-05 2016-10-12 住友電気工業株式会社 通信機、移動局、無線通信システム、及びコンピュータプログラム
CN106507449B (zh) * 2015-09-07 2021-01-26 中兴通讯股份有限公司 车联网通信的控制方法及装置
CN106559442B (zh) * 2015-09-25 2019-03-22 中兴通讯股份有限公司 车联网中车载单元位置的同步方法、装置及设备
CN106652461A (zh) * 2015-11-04 2017-05-10 ***通信集团公司 基于交通管理的信息处理方法及装置、交通管理***
CN205959187U (zh) * 2016-05-24 2017-02-15 北京万集科技股份有限公司 一种rsu程序更新***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110121189A (ko) * 2010-04-30 2011-11-07 경북대학교 산학협력단 유비쿼터스 교통 센서 네트워크 및 그것의 노변 장치
KR20120031335A (ko) * 2010-09-24 2012-04-03 박준형 스마트폰을 이용한 고속주행차량의 돌발상황 정보전달방법
WO2017030348A1 (ko) * 2015-08-14 2017-02-23 엘지전자 주식회사 무선 통신 시스템에서 v2x 메시지 송수신 방법 및 이를 위한 장치
US20180279183A1 (en) * 2015-11-26 2018-09-27 Huawei Technologies Co., Ltd. Method for switching roadside navigation unit in navigation system, and device
WO2018031458A1 (en) * 2016-08-09 2018-02-15 Intel IP Corporation Systems, methods, and devices for identifying locations of nearby road side units for vehicle-to-anything communications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113783964A (zh) * 2021-09-17 2021-12-10 首都师范大学 社交车联网的数据协同传输方法和装置
CN113783964B (zh) * 2021-09-17 2023-06-30 首都师范大学 社交车联网的数据协同传输方法和装置

Also Published As

Publication number Publication date
US20220327929A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
WO2021029672A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법 및 장치
WO2021096244A1 (ko) 무선통신시스템에서 사이드링크 drx에 관련된 ue의 동작 방법
WO2020251335A1 (ko) 무선 통신 시스템에서 단말의 신호 송수신 방법
WO2021141408A1 (ko) 무선통신시스템에서 단말이 신호를 송수신하는 방법
WO2020251314A1 (ko) 무선 통신 시스템에서 rsu 간의 신호 송수신 방법
WO2021085908A1 (ko) 무선통신시스템에서 as configuration 관련 사이드링크 ue의 동작 방법
WO2021040379A1 (ko) 무선통신시스템에서 사이드링크 rlm, rlf에 관련된 ue의 동작 방법 및 장치
WO2021025250A1 (ko) 주변 차량 상태 정보 공유 방법 및 장치
WO2021162506A1 (ko) 무선통신시스템에서 릴레이 ue에 관련된 ue의 동작 방법
WO2021025467A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2021085909A1 (ko) 무선통신시스템에서 pc5 유니캐스트 링크 해제에 관련된 ue의 동작 방법
WO2021040344A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2021040361A1 (ko) 무선통신시스템에서 단말의 신호 송수신 방법
WO2021040378A1 (ko) 무선통신시스템에서 rlf 발생 후 사이드링크 신호를 송수신하는 ue의 동작 방법 및 장치
WO2021075877A1 (ko) 무선통신시스템에서 사이드링크 타이머에 관련된 ue의 동작 방법
WO2023287259A1 (ko) 무선통신시스템에서 사이드링크 릴레이에서 핸드오버에 관련된 동작 방법
WO2023014157A1 (ko) 무선통신시스템에서 path switching 및 측정 보고에 관련된 리모트 ue의 동작 방법.
WO2022035182A1 (ko) 무선통신시스템에서 센서 로우 데이터 공유와 피드백에 관련된 ue의 동작 방법.
WO2021020890A1 (ko) 무선통신시스템에서 bsr에 관련된 ue의 동작 방법 및 장치
WO2023043200A1 (ko) 무선통신시스템에서 사이드링크 연결 수립에 관련된 릴레이 ue의 동작 방법
WO2021002734A1 (ko) 무선통신시스템에서 신호 송수신 방법
WO2023038491A1 (ko) 무선통신시스템에서 사이드링크에서 path switching에 관련된 동작 방법
WO2024029967A1 (ko) 무선통신시스템에서 ue-to-ue relay 에서 end to end 베이러 설정에 관련된 타겟 릴레이 ue의 동작 방법
WO2024063627A1 (ko) 무선통신시스템에서 UE-to-UE relay 연결 설정에 관련된 릴레이 UE의 동작 방법
WO2023022570A1 (ko) 무선통신시스템에서 사이드링크 리모트 ue의 path switching 및 타이머에 관련된 동작 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20821906

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20821906

Country of ref document: EP

Kind code of ref document: A1