WO2024117275A1 - 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법 - Google Patents

무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법 Download PDF

Info

Publication number
WO2024117275A1
WO2024117275A1 PCT/KR2022/018969 KR2022018969W WO2024117275A1 WO 2024117275 A1 WO2024117275 A1 WO 2024117275A1 KR 2022018969 W KR2022018969 W KR 2022018969W WO 2024117275 A1 WO2024117275 A1 WO 2024117275A1
Authority
WO
WIPO (PCT)
Prior art keywords
signals
target
spatial domain
data signals
synchronization
Prior art date
Application number
PCT/KR2022/018969
Other languages
English (en)
French (fr)
Inventor
장지환
길계태
서진배
정재훈
Original Assignee
엘지전자 주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 한국과학기술원 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/018969 priority Critical patent/WO2024117275A1/ko
Publication of WO2024117275A1 publication Critical patent/WO2024117275A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0408Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas using two or more beams, i.e. beam diversity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements

Definitions

  • JCAS joint communication and sensing
  • Wireless access systems are being widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
  • enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT).
  • RAT radio access technology
  • a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. .
  • mMTC massive machine type communications
  • the present disclosure can provide an apparatus and method for more effectively performing joint communication and sensing (JCAS) operations in a wireless communication system.
  • JCAS joint communication and sensing
  • the present disclosure can provide an apparatus and method for performing radar operation using SS (synchronization signal) bursts in a wireless communication system.
  • SS synchronization signal
  • the present disclosure can provide an apparatus and method for performing radar operation using data signals in a wireless communication system.
  • the present disclosure can provide an apparatus and method for sensing a target step by step in a wireless communication system.
  • the present disclosure can provide an apparatus and method for sensing a target using a wide beam and a narrow beam in a wireless communication system.
  • the present disclosure can provide an apparatus and method for determining beam weights for communication and sensing in a wireless communication system.
  • the present disclosure can provide an apparatus and method for determining beam weights that can reduce channel estimation errors of signals for communication and sensing in a wireless communication system.
  • the present disclosure can provide an apparatus and method for determining an application pattern of beam weights for communication and sensing in a wireless communication system.
  • the present disclosure can provide an apparatus and method for updating beam weights using channel estimation results for communication and sensing in a wireless communication system.
  • a method of operating a communication device in a wireless communication system includes transmitting synchronization signals, transmitting data signals, and the synchronization signals and the data signals are generated by being reflected to a target. It may include sensing the target using reflected signals. At least one of the synchronization signals and at least one of the data signals are transmitted using at least one spatial domain filter, and at least one of the synchronization signals and the data signal are transmitted using at least one spatial domain filter. At least one of them is transmitted through a spatial domain filter with the same characteristics, and the spatial domain filters applied to the data signals may be determined based on a sensing result using the synchronization signal.
  • a communication device in a wireless communication system includes a transceiver including a plurality of transmitters and a plurality of receivers, and a processor connected to the transceiver, where the processor transmits synchronization signals and data Transmit signals and control to sense the target using reflected signals generated when the synchronization signals and the data signals are reflected from the target, and the synchronization signals include at least one spatial domain filter (spatial domain filter). domain filter), and at least one of the synchronization signals and at least one of the data signals are transmitted through a spatial domain filter with the same characteristics, and the spatial domain filters applied to the data signals are: It can be determined based on sensing results using a synchronization signal.
  • a communication device includes at least one processor, at least one computer memory connected to the at least one processor, and storing instructions that direct operations as executed by the at least one processor.
  • the operations include transmitting synchronization signals, transmitting data signals, and sensing the target using reflected signals generated when the synchronization signals and the data signals are reflected from the target. May include steps.
  • the synchronization signals are transmitted using at least one spatial domain filter, and at least one of the synchronization signals and at least one of the data signals are transmitted through a spatial domain filter with the same characteristics, Spatial domain filters applied to the data signals may be determined based on sensing results using the synchronization signal.
  • a non-transitory computer-readable medium storing at least one instruction includes the at least one executable by a processor. Instructions, wherein the at least one instruction causes the device to transmit synchronization signals, transmit data signals, and use reflected signals generated by reflecting the synchronization signals and the data signals to a target.
  • the target is controlled to be sensed, the synchronization signals are transmitted using at least one spatial domain filter, and at least one of the synchronization signals and at least one of the data signals have the same characteristics.
  • radar operation can be effectively performed using signals for data communication.
  • FIG. 1 shows an example of a communication system applicable to the present disclosure.
  • Figure 2 shows an example of a wireless device applicable to the present disclosure.
  • Figure 3 shows another example of a wireless device applicable to the present disclosure.
  • Figure 4 shows an example of a portable device applicable to the present disclosure.
  • FIG 5 shows an example of a vehicle or autonomous vehicle applicable to the present disclosure.
  • Figure 6 shows an example of AI (Artificial Intelligence) applicable to the present disclosure.
  • Figure 7 shows a method of processing a transmission signal applicable to the present disclosure.
  • Figure 8 shows an example of a communication structure that can be provided in a 6G (6th generation) system applicable to the present disclosure.
  • Figure 10 shows a THz communication method applicable to the present disclosure.
  • JCAS joint communication and sensing
  • Figure 12 shows an example of a structure for performing a JCAS operation according to an embodiment of the present disclosure.
  • FIG 13 shows an example of beam scheduling according to an embodiment of the present disclosure.
  • Figure 14 shows an example of a procedure for performing a JCAS operation using synchronization signals and data signals according to an embodiment of the present disclosure.
  • Figure 15 shows an example of a procedure for step-by-step sensing a target using synchronization signals and data signals according to an embodiment of the present disclosure.
  • FIG. 16 illustrates the concept of a multiple input multiple output (MIMO)-orthogonal frequency division multiplexing (OFDM) radar system according to an embodiment of the present disclosure.
  • MIMO multiple input multiple output
  • OFDM orthogonal frequency division multiplexing
  • FIG 17 illustrates the concept of beam design according to an embodiment of the present disclosure.
  • Figure 18 shows a model of an algorithm according to an embodiment of the present disclosure.
  • Figure 19 shows an example of weight application for each OFDM symbol for beam sector scanning according to an embodiment of the present disclosure.
  • Figure 20 shows an example of a procedure for designing beam weights according to an embodiment of the present disclosure.
  • Figure 21 shows a channel estimation error of a radar system according to an embodiment of the present disclosure.
  • Figure 22 shows angle estimation results of a radar system according to an embodiment of the present disclosure.
  • FIG. 23 shows CRB versus angle of a radar system according to an embodiment of the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to form an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in other embodiments or may be replaced with corresponding features or features of other embodiments.
  • the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
  • 'base station' refers to terms such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
  • the terminal is a user equipment (UE), a mobile station (MS), a subscriber station (SS), and a mobile subscriber station (MSS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service
  • the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
  • Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system. May be supported by standard documents disclosed in at least one, and in particular, embodiments of the present disclosure are supported by the 3GPP technical specification (TS) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents. It can be.
  • TS 3GPP technical specification
  • embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described system. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 and later.
  • LTE technology after 3GPP TS 36.xxx Release 10 may be referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15, and “xxx” may mean technology after TS Release 17 and/or Release 18.
  • LTE/NR/6G can be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d).
  • appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g).
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • the mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc.
  • Home appliances 100e may include a TV, refrigerator, washing machine, etc.
  • IoT device 100f may include sensors, smart meters, etc.
  • the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
  • Wireless devices 100a to 100f may be connected to the network 130 through the base station 120.
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
  • Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may.
  • vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection may be established between wireless devices (100a to 100f)/base station (120) and base station (120)/base station (120).
  • wireless communication/connection includes various methods such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g., relay, integrated access backhaul (IAB)).
  • IAB integrated access backhaul
  • This can be achieved through wireless access technology (e.g. 5G NR).
  • wireless communication/connection 150a, 150b, 150c
  • a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
  • wireless communication/connection 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various configuration information setting processes for transmitting/receiving wireless signals various signal processing processes (e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least some of the resource allocation process, etc. may be performed.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 200a, second wireless device 200b ⁇ refers to ⁇ wireless device 100x, base station 120 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. ⁇ can be responded to.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • Software code containing them can be stored.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a.
  • Transceiver 206a may include a transmitter and/or receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a and 202b.
  • one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented.
  • layers e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control
  • SDAP service data adaptation protocol
  • One or more processors 202a, 202b may generate one or more Protocol Data Units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created.
  • One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document.
  • One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein.
  • transceivers 206a, 206b can be provided to one or more transceivers (206a, 206b).
  • One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • PDU, SDU, message, control information, data or information can be obtained.
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operation flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these.
  • One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
  • One or more transceivers may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flow charts, etc. disclosed herein from one or more other devices.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals.
  • one or more processors 202a and 202b may control one or more transceivers 206a and 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b).
  • one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
  • One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device to which the present disclosure is applied.
  • the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314.
  • communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 .
  • transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device.
  • the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330.
  • the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310.
  • Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
  • the additional element 340 may be configured in various ways depending on the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d).
  • FIG. 1, 100e home appliances
  • IoT devices Figure 1, 100f
  • digital broadcasting terminals hologram devices
  • public safety devices MTC devices
  • medical devices fintech devices (or financial devices)
  • security devices climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc.
  • Wireless devices can be mobile or used in fixed locations depending on the usage/service.
  • various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310.
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements.
  • the control unit 320 may be comprised of one or more processor sets.
  • control unit 320 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, a memory control processor, etc.
  • memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
  • FIG. 4 is a diagram illustrating an example of a portable device to which the present disclosure is applied.
  • FIG 4 illustrates a portable device to which the present disclosure is applied.
  • Portable devices may include smartphones, smart pads, wearable devices (e.g., smart watches, smart glasses), and portable computers (e.g., laptops, etc.).
  • a mobile device may be referred to as a mobile station (MS), user terminal (UT), mobile subscriber station (MSS), subscriber station (SS), advanced mobile station (AMS), or wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 400 includes an antenna unit 408, a communication unit 410, a control unit 420, a memory unit 430, a power supply unit 440a, an interface unit 440b, and an input/output unit 440c. ) may include.
  • the antenna unit 408 may be configured as part of the communication unit 410.
  • Blocks 410 to 430/440a to 440c correspond to blocks 310 to 330/340 in FIG. 3, respectively.
  • the communication unit 410 can transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the control unit 420 can control the components of the portable device 400 to perform various operations.
  • the control unit 420 may include an application processor (AP).
  • the memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400. Additionally, the memory unit 430 can store input/output data/information, etc.
  • the power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, etc.
  • the interface unit 440b may support connection between the mobile device 400 and other external devices.
  • the interface unit 440b may include various ports (eg, audio input/output ports, video input/output ports) for connection to external devices.
  • the input/output unit 440c may input or output video information/signals, audio information/signals, data, and/or information input from the user.
  • the input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
  • the input/output unit 440c acquires information/signals (e.g., touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 430. It can be saved.
  • the communication unit 410 may convert the information/signal stored in the memory into a wireless signal and transmit the converted wireless signal directly to another wireless device or to a base station. Additionally, the communication unit 410 may receive a wireless signal from another wireless device or a base station and then restore the received wireless signal to the original information/signal.
  • the restored information/signal may be stored in the memory unit 430 and then output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 440c.
  • FIG. 5 is a diagram illustrating an example of a vehicle or autonomous vehicle to which the present disclosure is applied.
  • a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, aerial vehicle (AV), ship, etc., and is not limited to the form of a vehicle.
  • AV aerial vehicle
  • the vehicle or autonomous vehicle 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a driving unit 540a, a power supply unit 540b, a sensor unit 540c, and an autonomous driving unit. It may include a portion 540d.
  • the antenna unit 550 may be configured as part of the communication unit 510. Blocks 510/530/540a to 540d correspond to blocks 410/430/440 in FIG. 4, respectively.
  • the communication unit 510 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g., base stations, road side units, etc.), and servers.
  • the control unit 520 may control elements of the vehicle or autonomous vehicle 500 to perform various operations.
  • the control unit 520 may include an electronic control unit (ECU).
  • ECU electronice control unit
  • FIG. 6 is a diagram showing an example of an AI device applied to the present disclosure.
  • AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
  • the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit (640a/640b), a learning processor unit 640c, and a sensor unit 640d. may include. Blocks 610 to 630/640a to 640d may correspond to blocks 310 to 330/340 of FIG. 3, respectively.
  • the communication unit 610 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from an external device to the memory unit 630.
  • wired and wireless signals e.g., sensor information, user Input, learning model, control signal, etc.
  • the control unit 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 620 can control the components of the AI device 600 to perform the determined operation. For example, the control unit 620 may request, search, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 600 can be controlled to execute operations.
  • control unit 620 collects history information including the operation content of the AI device 600 or user feedback on the operation, and stores it in the memory unit 630 or the learning processor unit 640c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
  • the memory unit 630 can store data supporting various functions of the AI device 600.
  • the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data from the learning processor unit 640c, and data obtained from the sensing unit 640. Additionally, the memory unit 630 may store control information and/or software codes necessary for operation/execution of the control unit 620.
  • the input unit 640a can obtain various types of data from outside the AI device 600.
  • the input unit 620 may acquire training data for model training and input data to which the learning model will be applied.
  • the input unit 640a may include a camera, microphone, and/or a user input unit.
  • the output unit 640b may generate output related to vision, hearing, or tactile sensation.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone and/or radar, etc. there is.
  • the learning processor unit 640c can train a model composed of an artificial neural network using training data.
  • the learning processor unit 640c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630. Additionally, the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
  • Figure 7 is a diagram illustrating a method of processing a transmission signal applied to the present disclosure.
  • the transmission signal may be processed by a signal processing circuit.
  • the signal processing circuit 700 may include a scrambler 710, a modulator 720, a layer mapper 730, a precoder 740, a resource mapper 750, and a signal generator 760.
  • the operation/function of FIG. 7 may be performed in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • the hardware elements of FIG. 7 may be implemented in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • blocks 710 to 760 may be implemented in processors 202a and 202b of FIG. 2. Additionally, blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2, and block 760 may be implemented in the transceivers 206a and 206b of FIG. 2, and are not limited to the above-described embodiment.
  • the codeword can be converted into a wireless signal through the signal processing circuit 700 of FIG. 7.
  • a codeword is an encoded bit sequence of an information block.
  • the information block may include a transport block (eg, UL-SCH transport block, DL-SCH transport block).
  • Wireless signals may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 710.
  • the scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of the wireless device.
  • the scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 720.
  • Modulation methods may include pi/2-binary phase shift keying (pi/2-BPSK), m-phase shift keying (m-PSK), and m-quadrature amplitude modulation (m-QAM).
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 730.
  • the modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 740 (precoding).
  • the output z of the precoder 740 can be obtained by multiplying the output y of the layer mapper 730 with the precoding matrix W of N*M.
  • N is the number of antenna ports and M is the number of transport layers.
  • the precoder 740 may perform precoding after performing transform precoding (eg, discrete Fourier transform (DFT) transform) on complex modulation symbols. Additionally, the precoder 740 may perform precoding without performing transform precoding.
  • transform precoding eg, discrete Fourier transform (DFT) transform
  • the resource mapper 750 can map the modulation symbols of each antenna port to time-frequency resources.
  • a time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbol, DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • the signal generator 760 generates a wireless signal from the mapped modulation symbols, and the generated wireless signal can be transmitted to another device through each antenna.
  • the signal generator 760 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, etc. .
  • IFFT inverse fast fourier transform
  • CP cyclic prefix
  • DAC digital-to-analog converter
  • the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process (710 to 760) of FIG. 7.
  • a wireless device eg, 200a and 200b in FIG. 2
  • the received wireless signal can be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT fast fourier transform
  • the baseband signal can be restored to a codeword through a resource de-mapper process, postcoding process, demodulation process, and de-scramble process.
  • a signal processing circuit for a received signal may include a signal restorer, resource de-mapper, postcoder, demodulator, de-scrambler, and decoder.
  • 6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery-
  • the goals are to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements as shown in Table 1 below.
  • Table 1 is a table showing the requirements of the 6G system.
  • the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication and tactile communication.
  • tactile internet high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
  • FIG. 10 is a diagram illustrating an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
  • the 6G system is expected to have simultaneous wireless communication connectivity 50 times higher than that of the 5G wireless communication system.
  • URLLC a key feature of 5G, is expected to become an even more mainstream technology in 6G communications by providing end-to-end delays of less than 1ms.
  • the 6G system will have much better volume spectrum efficiency, unlike the frequently used area spectrum efficiency.
  • 6G systems can provide very long battery life and advanced battery technologies for energy harvesting, so mobile devices in 6G systems may not need to be separately charged.
  • AI The most important and newly introduced technology in the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • 6G systems will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communications in 6G.
  • Introducing AI in communications can simplify and improve real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can be performed instantly by using AI.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
  • Machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink). Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
  • Deep learning-based AI algorithms require a large amount of training data to optimize training parameters.
  • a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • more research is needed on neural networks that detect complex domain signals.
  • Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform.
  • Machine learning requires data and a learning model.
  • data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network with the label of the learning data. The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate.
  • the neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
  • Learning methods may vary depending on the characteristics of the data. For example, in a communication system, when the goal is to accurately predict data transmitted from a transmitter at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and can be considered the most basic linear model.
  • deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
  • Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent neural networks (recurrent boltzmann machine). And this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • recurrent neural networks recurrent boltzmann machine
  • THz communication can be applied in the 6G system.
  • the data transfer rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communications with wide bandwidth and applying advanced massive MIMO technology.
  • FIG. 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure.
  • THz waves also known as submillimeter radiation, typically represent a frequency band between 0.1 THz and 10 THz with a corresponding wavelength in the range of 0.03 mm-3 mm.
  • the 100GHz-300GHz band range (Sub THz band) is considered the main part of the THz band for cellular communications. Adding the Sub-THz band to the mmWave band increases 6G cellular communication capacity.
  • 300GHz-3THz is in the far infrared (IR) frequency band.
  • the 300GHz-3THz band is part of the wideband, but it is at the border of the wideband and immediately behind the RF band. Therefore, this 300 GHz-3 THz band shows similarities to RF.
  • THz communications Key characteristics of THz communications include (i) widely available bandwidth to support very high data rates, (ii) high path loss occurring at high frequencies (highly directional antennas are indispensable).
  • the narrow beamwidth produced by a highly directional antenna reduces interference.
  • the small wavelength of THz signals allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This enables the use of advanced adaptive array techniques that can overcome range limitations.
  • THz Terahertz
  • FIG. 10 is a diagram illustrating a THz communication method applicable to the present disclosure.
  • THz waves are located between RF (Radio Frequency)/millimeter (mm) and infrared bands. (i) Compared to visible light/infrared, they penetrate non-metal/non-polarized materials better and have a shorter wavelength than RF/millimeter waves, so they have high straightness. Beam focusing may be possible.
  • This disclosure relates to beam design to maximize JCAS system operation structure and radar sensing accuracy in a beamspace MIMO-OFDM-based JCAS (joint communication and sensing) system.
  • the accuracy of radar sensing is determined by the error of the radar channel estimate (e.g., mean square error (MSE))
  • MSE mean square error
  • the present disclosure uses second-order statistics of the radar channel in an iterative fashion. ) and a method of determining a training beam set that minimizes the channel estimation error based on the estimation result.
  • highly accurate radar sensing information can be obtained in the beam space MIMO-OFDM JCAS system, and accordingly, the proposed technology can be used as a core technology in the future radar sensor field.
  • this disclosure relates to a beam space MIMO-OFDM-based JSAS system operation method and beam design to support high-precision sensing.
  • the proposed technology utilizes SS bursts and data symbols of the 5G NR standard to sense targets around a base station and uses a narrow training beam within a widebeam sector. It can be used to design a training beam.
  • Existing technology detects and estimates targets by scanning the area of interest with a designed beam.
  • the existing technology requires the use of a large number of transmission and reception beams, and when the number of beams is small, there is a disadvantage in that estimation performance of target parameters, especially angles, is lowered.
  • the present disclosure estimates the channel from the received signal and then designs a beam that minimizes the channel estimation error based on the second-order statistics of the estimated channel, thereby improving the parameter estimation performance of the target.
  • We propose a beam design technique that can improve.
  • FIG. 11 illustrates the concept of JCAS operation according to an embodiment of the present disclosure.
  • FIG. 11 illustrates a situation in which a first device 1110 with a radar function senses a target 1130 while communicating with a second device 1120.
  • the first device 1110 includes a transmitter and a receiver, and the first device 1110 transmits a data signal using the transmitter.
  • the data signal includes data and/or information to be transmitted to the second device 1110.
  • the second device 1110 performs communication with the first device 1110 by receiving a data signal. That is, the data signal transmits data and/or information to the second device 1110.
  • the data signal may be reflected by the target 1130.
  • the signal reflected by the target 1130 is received by the receiver of the first device 1110.
  • the first device 1110 may receive a reflected signal corresponding to the data signal transmitted through the transmitter through the receiver.
  • the transmitter and receiver of the first device 1110 may operate simultaneously in a full duplex manner.
  • the first device 1110 may perform a radar operation to sense the target 1130 using the reflected signal.
  • a device e.g., the first device 1110 may perform a radar operation using a data signal rather than a signal designed for separate radar sensing. Because of this, communication operations and radar operations can be performed using the same signals. At this time, if necessary, when generating a data signal, additional processing may be performed to be used as a radar signal.
  • the target device 1130 is described as a device different from the second device 1120 that performs communication, but depending on the situation, the second device 1120 may be the target device and the target of the radar operation. .
  • FIG. 12 shows an example of a structure for performing a JCAS operation according to an embodiment of the present disclosure.
  • FIG. 12 illustrates an array antenna 1210 and beam patterns 1222 and 1224 according to an embodiment of the present disclosure.
  • the array antenna 1210 includes communication arrays 1212 for data communication and radar arrays 1214-1 to 1214-4 for target sensing.
  • the device receives the signal through the radar arrays 1214-1 to 1214-4.
  • radar operation that is, information about the target (e.g. angle, distance, speed, etc.) can be detected. If necessary, the device can form a virtual receiving array and perform radar operation based on the virtual receiving array.
  • the beams may be divided into a wide beam 1222 and a narrow beam 1224.
  • the device may sense a target step by step using the wide beam 1222 and the narrow beam 1224.
  • different types of data may be transmitted through the wide beam 1222 and the narrow beam 1224.
  • SS synchronization signal
  • a data signal may be transmitted through the narrow beam 1224.
  • a device can transmit a wide beam in the SS burst section to roughly detect a target for each beam sector and estimate the distance.
  • the reason why sensing of a target is roughly performed in the SS burst section is due to the narrow bandwidth characteristics of SSBs transmitted in the SS burst section.
  • the bandwidth used for synchronization signal block (SSB) transmission is 20 resource blocks (RB) in the case of 5G NR, and if the subcarrier spacing (SCS) is 120 kHz, the signal bandwidth is 28.8 MHz, The range resolution that can be achieved through the corresponding signal bandwidth is 5.2m.
  • the device utilizes the SS burst section 1310 to obtain low-resolution distance information about the targets and whether a target exists within the corresponding beam sector for each wide beam, and then selects the wide beam sector where the target exists. Precise sensing of potential targets can be performed in the data transmission sections 1320-1 to 1320-Nw.
  • the device transmits a narrow beam using an OFDM signal with a wide bandwidth for each wide beam sector, and determines the distance to targets within the wide beam sector from the signal returned as it is reflected, Doppler and angle can be estimated precisely.
  • the device using the synchronization signal and data signal may be a base station or a UE.
  • the synchronization signal and data signal can be understood as a downlink signal.
  • the synchronization signal and data signal can be understood as signals defined in the sidelink.
  • a wide beam may be understood as a beam having a beamwidth greater than that of the narrow beam
  • the narrow beam may be understood as a beam having a beamwidth smaller than the beamwidth of the wide beam.
  • a beam refers to a signal formed to have directionality using a plurality of antenna elements, or a weight or filter to form a signal.
  • a beam may be referred to as a spatial domain filter or another term with equivalent technical meaning.
  • the beam spatial MIMO-OFDM radar system uses Nt transmit array antennas and Nr receive array antennas to transmit OFDM signals through predetermined Mt transmit beams, and then targets that appear around the radar.
  • the signal reflected by can be received as Mr reception beams, and the position (e.g. direction, distance) and speed of the target can be sensed from the received signals.
  • Figure 14 shows an example of a procedure for performing a JCAS operation using synchronization signals and data signals according to an embodiment of the present disclosure.
  • Figure 14 illustrates a method of operating a device (eg, a base station or UE) capable of transmitting a synchronization signal and a data signal.
  • a device eg, a base station or UE
  • the device transmits synchronization signals.
  • the device may transmit synchronization signals using the time interval and frequency resources allocated for transmitting synchronization signals.
  • the time section may be determined based on numerology applied to synchronization signals, for example, subcarrier spacing.
  • synchronization signals may be transmitted using beams in different directions.
  • the device may transmit system information included with the synchronization signals to the SSB.
  • the device transmits data signals.
  • data signals may have similar signal characteristics to synchronization signals.
  • the direction of at least one of the beams for transmitting data signals may be the same as the direction of the beam used to transmit synchronization signals.
  • the data signal may be generated through operations such as encoding, scrambling, rate matching, constellation mapping, and OFDM modulation for information bits.
  • step S1405 the device performs radar operation using signals received due to reflection from the target. That is, the device can detect at least one of the target's distance, position, angle, speed, and Doppler using the reflected signals. Specifically, the device can estimate the channel through which the reflected signals experience and perform radar operation based on the estimated channel.
  • the signals reflected by the target may be synchronization signals or data signals.
  • the step of performing the radar operation is depicted after the step of transmitting the data signals, but some parts of the radar operation may be performed before the transmission of the data signals.
  • Figure 15 shows an example of a procedure for step-by-step sensing a target using synchronization signals and data signals according to an embodiment of the present disclosure.
  • Figure 15 illustrates a method of operating a device (eg, a base station or UE) capable of transmitting a synchronization signal and a data signal.
  • a device eg, a base station or UE
  • step S1501 the device performs primary sensing using synchronization signals of a wide beam.
  • the device can transmit synchronization signals using wide beams heading in different directions, receive signals returned by reflection, and then perform a primary radar operation using the received signals. Accordingly, the device can perform radar operation with a resolution corresponding to a wide beam.
  • step S1503 the device identifies at least one area where the target exists. That is, the device determines which wide beam the target was detected using according to the results of the first sensing performed in step S1501. At this time, the coverage of the wide beam used in the time section in which the target was detected may be determined as at least one area where the target exists. Through this, the device can determine at least one area to perform more detailed secondary sensing, that is, a range to sweep the narrow beam signals.
  • step S1505 the device performs secondary sensing using narrow beam data signals in at least one identified area.
  • the device can transmit data signals using narrow beams heading in different directions, receive signals returned by reflection, and then perform a secondary radar operation using the received signals. Accordingly, the device can perform radar operation with a resolution corresponding to a narrow beam.
  • the direction in which data signals are transmitted using narrow beams may belong to at least one area identified in step S1503. Through this, the device can obtain more detailed target information (e.g., at least one of distance, position, angle, speed, and Doppler).
  • FIG. 16 illustrates the concept of a multiple input multiple output (MIMO)-orthogonal frequency division multiplexing (OFDM) radar system according to an embodiment of the present disclosure.
  • the mapping unit 1612 maps signals to OFDM symbols and subcarrier grids
  • the IDFT calculation unit 1614 generates OFDM symbols by performing IDFT operations
  • the transmission array antenna 1616 performs transmission beamforming. Perform.
  • the transmit beamformed signal is reflected by hitting the targets 1602a, 1502b, and 1502c, and then is received.
  • the reception array antenna 1622 performs reception beamforming
  • the DFT calculation unit 1624 restores signals for each subcarrier by performing DFT calculation
  • the channel estimation unit 1626 estimates the channel using the restored signals for each subcarrier. do.
  • the target parameter estimation unit 1628 detects information about the target based on information about the channel through which the signals have experienced.
  • the beam design technology starts from SS burst transmission 1720, optimal beam design 1714 based on radar channel estimation 1712 and channel covariance matrix, and communication channel estimation. (1722) and optimal communication beam design (1724). Based on the two optimal beam designs, a final coherent JCAS beam design 1732 can be completed.
  • a beam for high-precision radar sensing can be designed as follows.
  • N t transmit antennas and N r receive antennas are N t transmit antennas and N r receive antennas, Subcarrier spacing, period In a MIMO-OFDM radar system, when there are L targets, the subcarrier of the mth OFDM symbol is channel for Can be expressed as below [Equation 1].
  • [Equation 1] are the respective targets Indicates distance, speed, angle, and RCS. and are the respective targets Array response vectors for the direction of are generally a function of azimuth angle and elevation angle. If the transmit and receive antennas are a uniform linear array (ULA) located on the y-axis and the target is located in the yz plane, the array response vectors and Can be expressed as [Equation 2] below.
  • ULA uniform linear array
  • CRB is the variance of channel estimation error Since is proportional to , minimizing the channel estimation error can be treated the same as the problem of minimizing the CRB for angle, distance, and speed.
  • FIG. 18 shows a model of an algorithm according to an embodiment of the present disclosure.
  • the algorithm according to an embodiment of the present disclosure includes wide beam scanning using SSBs (1801), narrow beam scanning using reference signals (e.g., CSI-RSs) (1803), and channel estimation (1805). , including target detection/sensing (1807).
  • Channel information obtained by channel estimation (1805) is used for target detection/sensing (1807).
  • channel information obtained by channel estimation 1805 can also be used to design a training beam.
  • an embodiment of the beam design is described.
  • FIG. 19 shows an example of weight application for each OFDM symbol for beam sector scanning according to an embodiment of the present disclosure.
  • a transmission frame for performing beam scanning for a specific area of interest e.g., beam sector
  • Nslot slots (1911-1 to 1911-Nslot) includes Nslot slots (1911-1 to 1911-Nslot), and one slot is Mt blocks.
  • 1912-1 to 1912-Mt and one block includes Mr OFDM symbols 1913-1 to 1913-Mr.
  • Nslot slots (1911-1 to 1911-Nslot) are used to estimate the Doppler frequency, and the Mt ⁇ Mr OFDM symbols in each slot are Used for scanning beam sectors.
  • the channel can be assumed to be quasi-static during one slot.
  • Known symbol through OFDM symbol q and subcarrier k of block p of slot m in the system When transmitted, the signal received through that resource Can be expressed as [Equation 4] below.
  • the received signal of subcarrier k in slot m received using M t transmit beams and M r receive beams is expressed as a matrix as in [Equation 6] below: It can be expressed as
  • the estimated channel error is explained as follows.
  • the channel estimation method is explained as follows.
  • receiving signal A vectorized version of is as shown in [Equation 11] below.
  • MSE is the zero-mean, and the variance is If, The average of am. At this time, MSE can be expressed as [Equation 18] below.
  • the method for minimizing MSE is as follows.
  • go are eigenvectors corresponding to the non-zero eigenvalues of , go In the case of eigenvectors corresponding to non-zero eigenvalues of, can be maximum.
  • is a sufficient condition to satisfy any unitary matrix: , is any unitary matrix (including the identity matrix)
  • Figure 20 shows an example of a procedure for designing a beam according to an embodiment of the present disclosure.
  • Figure 20 illustrates a method of operating a device (eg, a base station or a terminal) capable of obtaining channel information.
  • a device eg, a base station or a terminal
  • the device initializes beamforming weights.
  • the beamforming weights are parameters that determine the characteristics of the beam and may include a first weight applied to the transmission beam and a second weight applied to the reception beam.
  • the device estimates the channel.
  • a channel is estimated using signals transmitted and received using initialized beamforming weights. Specifically, the device or another device transmits signals to which a first weight is applied, applies a second weight to signals received by reflection, and then estimates a channel according to a designated algorithm. For example, an algorithm based on min-norm solutions may be used. Accordingly, the channel value may be expressed as a combination of the first weight and the second weight (eg, Kronecker product).
  • the device updates the beamforming weight based on the estimated channel covariance.
  • the device determines new values of the first weight and the second weight from the average of the product of the channel estimate value and the Hermition of the channel estimate value, and updates the first weight and the second weight with the new values.
  • the new values may include at least one of the signal subspace eigenvectors of the covariance and the null subspace eigenvectors of the covariance.
  • the device determines whether the iteration has ended.
  • the end of repetition can be determined depending on whether the termination condition is satisfied. For example, an iteration may terminate upon reaching a predefined number of times. As another example, the iteration may be terminated based on the amount of change in the updated weights.
  • the device performs steps S2003, S2005, and S2007 again. Through this, the weights are updated again, and it can be determined whether the repetition will continue.
  • the device estimates the target parameter.
  • the target parameters are the results of radar operation and may include, for example, range, Doppler, angle, etc. That is, the device can perform radar operation using beams generated using the determined weights.
  • TPNR can be expressed as [Equation 37] below.
  • the simulation results are as follows. In the simulation, the parameters were set as shown in [Table 3] below, and the target parameters were set as shown in [Table 4] below.
  • N t ,N r Number of transmitting and receiving antennas 16, 16 M t ,M r : Number of transmit and receive beamforming vectors 8, 8 M: Number of slots 12
  • K Number of subcarriers 128 f c : center frequency 77GHz
  • d distance of target 33m
  • v speed of target 12m/s
  • ⁇ _AoD, ⁇ _AoA Angle of target -7°
  • the existing scanning method uses a designed beam pattern and divides the area of interest -6° to 60° by the number of transmitting and receiving beamforming vectors as shown in [Table 3], thereby setting the steering angle to -60°. , -36°, -12°, 12°, 36°, and 60° were designated to estimate the channels.
  • the channel estimation method used the minimum-norm solution of [Equation 16].
  • the initial , Is and The simulation was performed assuming that was distributed randomly and uniformly.
  • Figure 21 shows the estimated channel results after about 10 iterations. The simulation was performed a total of 10000 Monte Carlo iterations for each TPNR.
  • Figure 22 uses the Multiple Signal Classification (MUSIC) method and the Orthogonal Matching Pursuit (OMP) method to estimate the angle from the estimated channel. And when the CRB for the angle represented by the red graph is enlarged, it is as shown in FIG. 23. Referring to Figure 22, the angle estimation performance is much better for the angle estimation results using the channel estimated using the proposed technique (e.g. MUSICprop, OMPprop) than the angle estimation result using the existing techniques (e.g. MUSICconv, OMPconv). It is confirmed.
  • MUSICprop e.g. MUSICprop, OMPprop
  • OMPconv Orthogonal Matching Pursuit
  • highly accurate radar sensing information can be obtained in a beam spatial MIMO-OFDM JCAS system.
  • the proposed technology can be used as a core technology in the radar sensor field.
  • the proposed methods described above may be implemented independently, but may also be implemented in the form of a combination (or merge) of some of the proposed methods.
  • a rule may be defined so that the base station informs the terminal of the application of the proposed methods (or information about the rules of the proposed methods) through a predefined signal (e.g., a physical layer signal or a higher layer signal). .
  • Embodiments of the present disclosure can be applied to various wireless access systems.
  • Examples of various wireless access systems include the 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
  • Embodiments of the present disclosure can be applied not only to the various wireless access systems, but also to all technical fields that apply the various wireless access systems. Furthermore, the proposed method can also be applied to mmWave and THz communication systems using ultra-high frequency bands.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시는 무선 통신 시스템에서 다양한 신호들을 이용하여 JCAS(joint communication and sensing) 동작에 관한 것으로, 통신 장치의 동작 방법은, 동기 신호들을 송신하는 단계, 데이터 신호들을 송신하는 단계, 상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하는 단계를 포함할 수 있다. 상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고, 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고, 상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정될 수 있다.

Description

무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 다양한 신호들을 이용하여 JCAS(joint communication and sensing) 동작을 수행하기 위한 장치 및 방법에 관한 것이다.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.
본 개시는 무선 통신 시스템에서 JCAS(joint communication and sensing) 동작을 보다 효과적으로 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 SS(synchronization signal) 버스트(burst)들을 이용하여 레이다 동작을 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 데이터 신호들을 이용하여 레이다 동작을 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 단계적으로 표적(target)을 센싱하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 넓은 빔 및 좁은 빔을 이용하여 표적을 센싱하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 통신 및 센싱을 위한 빔 가중치를 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 통신 및 센싱을 위한 신호의 채널 추정 오차를 줄일 수 있는 빔 가중치를 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 통신 및 센싱을 위한 빔 가중치들의 적용 패턴을 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 통신 및 센싱을 위한 채널 추정 결과를 이용하여 빔 가중치들을 갱신하기 위한 장치 및 방법을 제공할 수 있다.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 통신 장치의 동작 방법은, 동기 신호들을 송신하는 단계, 데이터 신호들을 송신하는 단계, 상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하는 단계를 포함할 수 있다. 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고, 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고, 상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정될 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 통신 장치는, 복수의 송신기들 및 복수의 수신기들을 포함하는 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하며, 상기 프로세서는, 동기 신호들을 송신하고, 데이터 신호들을 송신하고, 상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하도록 제어하고, 상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고, 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고, 상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정될 수 있다.
본 개시의 일 예에 따르면, 통신 장치는, 적어도 하나의 프로세서, 상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 동기 신호들을 송신하는 단계, 데이터 신호들을 송신하는 단계, 상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하는 단계를 포함할 수 있다. 상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고, 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고, 상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정될 수 있다.
본 개시의 일 예에 따르면, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)는, 프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 장치가, 동기 신호들을 송신하고, 데이터 신호들을 송신하고, 상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하도록 제어하고, 상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고, 상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고, 상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정될 수 있다.
상술한 본 개시의 양태들은 본 개시의 바람직한 실시예들 중 일부에 불과하며, 본 개시의 기술적 특징들이 반영된 다양한 실시예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 개시의 상세한 설명을 기반으로 도출되고 이해될 수 있다.
본 개시에 기초한 실시예들에 의해 하기와 같은 효과가 있을 수 있다.
본 개시에 따르면, 데이터 통신을 위한 신호를 이용하여 레이다(radar) 동작이 효과적으로 수행될 수 있다.
본 개시의 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.
도 1은 본 개시에 적용 가능한 통신 시스템 예를 도시한다.
도 2는 본 개시에 적용 가능한 무선 기기의 예를 도시한다.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예를 도시한다.
도 4는 본 개시에 적용 가능한 휴대 기기의 예를 도시한다.
도 5는 본 개시에 적용 가능한 차량 또는 자율 주행 차량의 예를 도시한다.
도 6은 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예를 도시한다.
도 7은 본 개시에 적용 가능한 전송 신호를 처리하는 방법을 도시한다.
도 8은 본 개시에 적용 가능한 6G(6th generation) 시스템에서 제공 가능한 통신 구조의 일례를 도시한다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한다.
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한다.
도 11은 본 개시의 실시예에 따라 JCAS(joint communication and sensing) 동작의 개념을 도시한다.
도 12는 본 개시의 실시예에 따른 JCAS 동작을 수행하기 위한 구조의 예를 도시한다.
도 13은 본 개시의 실시예에 따른 빔 스케줄링의 예를 도시한다.
도 14는 본 개시의 실시예에 따라 동기 신호들 및 데이터 신호들을 이용하여 JCAS 동작을 수행하는 절차의 예를 도시한다.
도 15는 본 개시의 실시예에 따라 동기 신호들 및 데이터 신호들을 이용하여 단계적으로 표적을 센싱하는 절차의 예를 도시한다.
도 16은 본 개시의 실시예에 따른 MIMO(multiple input multiple output)-OFDM(orthogonal frequency division multiplexing) 레이다 시스템의 개념을 도시한다.
도 17은 본 개시의 실시예에 따른 빔 설계의 개념을 도시한다.
도 18은 본 개시의 실시예에 따른 알고리즘의 모델을 도시한다.
도 19는 본 개시의 실시예에 따른 빔 섹터 스캐닝을 위한 OFDM 심볼 별 가중치 적용의 예를 도시한다.
도 20은 본 개시의 실시예에 따라 빔 가중치를 설계하는 절차의 예를 도시한다.
도 21은 본 개시의 실시예에 따른 레이다 시스템의 채널 추정 오차를 도시한다.
도 22는 본 개시의 실시예에 따른 레이다 시스템의 각도 추정 결과를 도시한다.
도 23은 본 개시의 실시예에 따른 레이다 시스템의 각도에 대한 CRB를 도시한다.
이하의 실시예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성할 수도 있다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.
또한, 본 개시의 실시예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.
본 개시의 실시예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다.
또한, 본 개시의 실시예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.
즉, 본 개시의 실시예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 개시의 실시예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 개시의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 개시 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.
본 개시에 적용 가능한 통신 시스템
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 1은 본 개시에 적용되는 통신 시스템 예를 도시한 도면이다.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 개시에 적용 가능한 통신 시스템
도 2는 본 개시에 적용될 수 있는 무선 기기의 예를 도시한 도면이다.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 개시에 적용 가능한 무선 기기 구조
도 3은 본 개시에 적용되는 무선 기기의 다른 예를 도시한 도면이다.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
본 개시가 적용 가능한 휴대 기기
도 4는 본 개시에 적용되는 휴대 기기의 예를 도시한 도면이다.
도 4는 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.
도 4를 참조하면, 휴대 기기(400)는 안테나부(408), 통신부(410), 제어부(420), 메모리부(430), 전원공급부(440a), 인터페이스부(440b) 및 입출력부(440c)를 포함할 수 있다. 안테나부(408)는 통신부(410)의 일부로 구성될 수 있다. 블록 410~430/440a~440c는 각각 도 3의 블록 310~330/340에 대응한다.
통신부(410)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(420)는 휴대 기기(400)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(420)는 AP(application processor)를 포함할 수 있다. 메모리부(430)는 휴대 기기(400)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(430)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(440a)는 휴대 기기(400)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(440b)는 휴대 기기(400)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(440b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(440c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(440c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(440d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(440c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(430)에 저장될 수 있다. 통신부(410)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(410)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(430)에 저장된 뒤, 입출력부(440c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다.
본 개시가 적용 가능한 무선 기기 종류
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량의 예를 도시한 도면이다.
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(aerial vehicle, AV), 선박 등으로 구현될 수 있으며, 차량의 형태로 한정되는 것은 아니다.
도 5를 참조하면, 차량 또는 자율 주행 차량(500)은 안테나부(508), 통신부(510), 제어부(520), 구동부(540a), 전원공급부(540b), 센서부(540c) 및 자율 주행부(540d)를 포함할 수 있다. 안테나부(550)는 통신부(510)의 일부로 구성될 수 있다. 블록 510/530/540a~540d는 각각 도 4의 블록 410/430/440에 대응한다.
통신부(510)는 다른 차량, 기지국(예, 기지국, 노변 기지국(road side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 차량 또는 자율 주행 차량(500)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 ECU(electronic control unit)를 포함할 수 있다.
도 6은 본 개시에 적용되는 AI 기기의 예를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 6을 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 610~630/640a~640d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(620)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(630)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이다 등을 포함할 수 있다.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(640c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.
도 7은 본 개시에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(700)는 스크램블러(710), 변조기(720), 레이어 매퍼(730), 프리코더(740), 자원 매퍼(750), 신호 생성기(760)를 포함할 수 있다. 이때, 일 예로, 도 7의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 7의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 710~760은 도 2의 프로세서(202a, 202b)에서 구현될 수 있다. 또한, 블록 710~750은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 760은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시예로 한정되지 않는다.
코드워드는 도 7의 신호 처리 회로(700)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(710)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(720)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다.
복소 변조 심볼 시퀀스는 레이어 매퍼(730)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(740)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(740)의 출력 z는 레이어 매퍼(730)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(740)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(740)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(750)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(760)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(760)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 7의 신호 처리 과정(710~760)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
6G 통신 시스템
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.
Per device peak data rate 1 Tbps
E2E latency 1 ms
Maximum spectral efficiency 100 bps/Hz
Mobility support up to 1000 km/hr
Satellite integration Fully
AI Fully
Autonomous vehicle Fully
XR Fully
Haptic Communication Fully
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.
도 10은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한 도면이다.
도 10을 참조하면, 6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 핵심 요소(key feature)인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것으로 예상된다. 이때, 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 수 있다.
6G 시스템의 핵심 구현 기술
- 인공 지능(artificial Intelligence, AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.
THz(Terahertz) 통신
6G 시스템에서 THz 통신이 적용될 수 있다. 일 예로, 데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한 도면이다. 일 예로, 도 9를 참조하면, 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.
테라헤르츠(THz) 무선통신
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한 도면이다.
도 10을 참조하면, THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다.
본 발명의 구체적인 실시예
본 개시는 빔 공간(beamspace) MIMO-OFDM 기반 JCAS(joint communication and sensing) 시스템에서 JCAS 시스템 운용 구조 및 레이다 센싱 정확도를 극대화하기 위한 빔 설계에 관한 것이다. 레이다 센싱의 정확도가 레이다 채널 추정치의 오차(예: MSE(mean square error))에 의해 결정되는 점을 고려하여, 본 개시는 레이다 채널의 2차 통계(second-order statistics)를 반복 방식(iterative fashion)으로 추정하는 방안과, 추정 결과에 기반하여 채널 추정 오차를 최소화하는 훈련 빔 집합(training beam set)을 결정하는 방안을 제시한다. 본 개시의 다양한 실시예들을 통해, 빔 공간 MIMO-OFDM JCAS 시스템에서 정확도 높은 레이다 센싱 정보가 획득될 수 있고, 이에 따라 제안 기술은 미래의 레이다 센서 분야에서 핵심 기술로서 활용될 수 있을 것이다.
다시 말해, 본 개시는 빔 공간 MIMO-OFDM 기반의 JSAS 시스템 운용 방식과 고정밀 센싱을 지원하기 위한 빔 설계에 관련된다. 제안 기술은 5G NR 표준의 SS 버스트(burst)들 및 데이터 심벌들(data symbols)을 활용하여 기지국 주변의 표적(target)들을 센싱하는 시스템에서 넓은 빔 섹터(widebeam sector) 내에서 좁은 훈련 빔(narrow training beam)을 설계하기 위해 사용될 수 있다. 기존 기술은 관심있는 영역을 설계한 빔으로 스캔함으로써 표적을 탐지 및 추정한다. 하지만, 기존 기술은 많은 개수의 송수신 빔들의 사용을 필요로 하고, 빔들의 개수가 적을 경우에 표적 파라미터, 특히 각도를 추정 성능이 낮아지는 단점이 있다. 이를 해결하기 위해, 본 개시는, 수신 신호로부터 채널을 추정한 후, 추정한 채널의 2차 통계(second-order statistics)에 기반하여 채널 추정 오차를 최소화하는 빔을 설계함으로써, 표적의 파라미터 추정 성능을 향상시킬 수 있는, 빔 설계 기법을 제안한다.
기존 기술은 목적에 맞게 설계된 빔을 이용하여 관심있는 영역을 스캐닝함으로써 표적을 탐지 및 표적 파라미터를 추정한다. 빔을 설계하는 방식으로서, GLS(generalized least square) 방식, 각도에 대한 CRB를 최소화하는 방식 등이 있고, 이들은 설계된 빔을 통해 표적의 각도 추정 성능을 향상하기 위한 목적을 가진다. 하지만, 스캐닝을 하기 위해서는 많은 개수의 빔들이 필요하다는 단점이 존재하기 때문에, 빔들의 개수가 적은 경우, 표적의 탐지가 어렵고, 추정 성능 또한 좋지 아니할 수 있다.
먼저, JCAS 시스템에서 레이다 동작 및 통신 동작의 개념을 살펴보면 다음과 같다. 도 11은 본 개시의 일 실시예에 따른 JCAS 동작의 개념을 도시한다. 도 11은 레이다 기능을 가지는 제1 장치(1110)가 제2 장치(1120)와 통신을 수행하면서, 타겟(1130)을 센싱하는 상황을 예시한다.
도 11을 참고하면, 제1 장치(1110)는 송신기 및 수신기를 포함하며, 제1 장치(1110)는 송신기를 이용하여 데이터 신호를 송신한다. 데이터 신호는 제2 장치(1110)에게 송신하고자 하는 데이터 및/또는 정보를 포함한다. 제2 장치(1110)는 데이터 신호를 수신함으로써, 제1 장치(1110)와 통신을 수행한다. 즉, 데이터 신호는 제2 장치(1110)에게 데이터 및/또는 정보를 전달한다.
또한, 데이터 신호는 타겟(1130)에 의해 반사될 수 있다. 타겟(1130)에 의해 반사된 신호는 제1 장치(1110)의 수신기에 수신된다. 다시 말해, 제1 장치(1110)은 송신기를 통해 송신된 데이터 신호에 대응하는 반사된 신호를 수신기를 통해 수신할 수 있다. 이를 위해, 제1 장치(1110)의 송신기 및 수신기는 전이중(full duplex) 방식으로 동시에 동작할 수 있다. 제1 장치(1110)는 반사된 신호를 이용하여 타겟(1130)을 센싱하기 위한 레이다 동작을 수행할 수 있다.
위와 같이, 본 개시의 다양한 실시예들에 따른 장치(예: 제1 장치(1110))는 별도의 레이다 센싱을 위해 설계된 신호가 아닌, 데이터 신호를 이용하여 레이다 동작을 수행할 수 있다. 이로 인해, 통신 동작 및 레이다 동작이 같은 신호들을 이용하여 수행될 수 있다. 이때, 필요에 따라, 데이터 신호를 생성시, 레이더 신호로서 사용되기 위한 추가적인 처리가 수행될 수 있다. 도 11의 경우, 타겟 장치(1130)는 통신을 수행하는 제2 장치(1120)와 다른 장치로 설명되었으나, 상황에 따라, 제2 장치(1120)가 타겟 장치로서 레이다 동작의 타겟이 될 수 있다.
도 12는 본 개시의 실시예에 따른 JCAS 동작을 수행하기 위한 구조의 예를 도시한다. 도 12를 본 개시의 실시예에 따른 배열 안테나(1210) 및 빔 패턴들(1222, 1224)을 예시한다.
도 12를 참고하면, 배열 안테나(1210)은 데이터 통신을 위한 통신 배열들(1212) 및 표적 센싱을 위한 레이다 배열들(1214-1 내지 1214-4)을 포함한다. 통신 배열들(1212)을 통해 송신된 신호가 표적에 반사된 후 레이다 배열들(1214-1 내지 1214-4)에 수신되면, 장치는 레이다 배열들(1214-1 내지 1214-4)을 통해 수신되는 신호들을 이용하여 레이다 동작, 즉, 표적에 대한 정보(예: 각도, 거리, 속도 등)를 검출할 수 있다. 필요에 따라, 장치는 가상의 수신 배열을 형성하고, 가상의 수신 배열에 기반하여 레이다 동작을 수행할 수 있다.
이때, 통신 배열들(1212)을 이용하면, 다양한 빔들이 형성될 수 있다. 다양한 실시예들에 따라, 빔들은 넓은 빔(1222) 및 좁은 빔(1224)으로 구분될 수 있다. 일 실시예에 따라, 장치는 넓은 빔(1222) 및 좁은 빔(1224)을 이용하여 단계적으로 표적을 센싱할 수 있다. 이때, 넓은 빔(1222) 및 좁은 빔(1224)을 통해 서로 다른 종류의 데이터가 송신될 수 있다. 예를 들어, 넓은 빔(1222)을 통해 SS(synchronization signal) 버스트(burst)가 송신되고, 좁은 빔(1224)을 통해 데이터 신호가 송신될 수 있다.
후술되는 다양한 실시예들은 SS 버스트 구간 및 데이터 전송 구간을 활용하여 표적들을 센싱하는 레이다 기술에 관련된다. 다양한 실시예들에 따르면, 장치는 SS 버스트 구간에서 넓은 빔을 송신하여 빔 섹터(beam sector) 별로 대략적으로(coarse) 표적을 탐지하고, 거리를 추정할 수 있다. SS 버스트 구간에서 표적에 대한 센싱을 대략적으로 수행하는 이유는 SS 버스트 구간에 송신되는 SSB들의 좁은 대역폭(narrow bandwidth) 특성 때문이다. SSB(synchronization signal block) 전송을 위해 사용되는 대역폭(bandwidth)이 5G NR의 경우 20개 RB(resource block)들로서, 부반송파 간격(subcarrier spacing, SCS)이 120 kHz이면, 신호 대역폭은 28.8 MHz가 되고, 해당 신호 대역폭을 통해 얻을 수 있는 거리 해상도(range resolution)는 5.2m가 된다.
도 13는 본 개시의 실시예에 따른 빔 스케줄링의 예를 도시한다. 도 13를 참고하면, 장치는 SS 버스트 구간(1310)을 활용하여 넓은 빔 별로 해당 빔 섹터 내에 표적의 존재 여부 및 표적들에 대한 낮은 해상도의 거리 정보를 획득한 후, 표적이 존재하는 넓은 빔 섹터들에 대한 잠재적인 표적들에 대한 정밀 센싱을 데이터 전송 구간들(1320-1 내지 1320-Nw)에서 수행할 수 있다. 데이터 전송 구간에서, 장치는 넓은 빔 섹터 별로 넓은 대역폭을 갖는 OFDM 신호를 사용하는 좁은 빔(narrow beam)을 송신하고, 반사됨에 따라 돌아온 신호로부터 해당 넓은 빔 섹터 내의 표적들에 대한 거리(range), 도플러(Doppler), 각도(angle)를 정밀하게 추정할 수 있다.
도 12 및 도 13을 참고하여 설명한 실시예들과 같이, 동기 신호/SSB/SS 버스트 및 데이터 신호를 이용하여 통신 및 센싱이 수행될 수 있다. 이때, 동기 신호 및 데이터 신호를 이용하는 장치는 기지국이거나 또는 UE일 수 있다. 기지국이 통신 및 센싱을 수행하는 경우, 동기 신호 및 데이터 신호는 하향링크 신호로 이해될 수 있다. UE가 통신 및 센싱을 수행하는 경우, 동기 신호 및 데이터 신호는 사이드링크에서 정의된 신호들로 이해될 수 있다.
본 개시에서, 넓은 빔 및 좁은 빔은 상대적인 개념으로서, 넓은 빔 및 좁은 빔의 빔폭에 대한 절대적인 임계치가 제한되는 것은 아니다. 따라서, 다양한 실시예들에서, 넓은 빔은 좁은 빔의 빔폭보다 큰 빔폭을 가지는 빔이며, 유사하게, 좁은 빔은 넓은 빔의 빔폭보다 작은 빔폭을 가지는 빔으로 이해될 수 있다. 나아가, 빔(beam)은 복수의 안테나 요소들을 이용하여 방향성을 가지도록 형성된 신호 또는 신호를 형성하기 위한 가중치 또는 필터를 의미한다. 본 개시에서, 빔은 공간 도메인 필터(spatial domain filter) 또는 이와 동등한 기술적 의미를 가진 다른 용어로 지칭될 수 있다.
다양한 실시예들에 따른 빔 공간 MIMO-OFDM 레이다 시스템은 Nt개의 송신 배열 안테나 및 Nr개의 수신 배열 안테나를 사용하여, 미리 정해진 Mt개의 송신 빔들을 통해 OFDM 신호를 송신한 후, 레이다 주변에 출현한 표적에 의해 반사된 신호를 Mr개의 수신 빔들로 수신하고, 수신된 신호들로부터 표적의 위치(예: 방향, 거리) 및 속도를 센싱할 수 있다.
도 14은 본 개시의 실시예에 따라 동기 신호들 및 데이터 신호들을 이용하여 JCAS 동작을 수행하는 절차의 예를 도시한다. 도 14은 동기 신호 및 데이터 신호를 송신할 수 있는 장치(예: 기지국 또는 UE)의 동작 방법을 예시한다.
도 14을 참고하면, S1401 단계에서, 장치는 동기 신호들을 송신한다. 장치는 동기 신호들을 송신하기 위해 할당된 시간 구간 및 주파수 자원을 이용하여 동기 신호들을 송신할 수 있다. 여기서, 시간 구간은 동기 신호들에 적용되는 뉴머롤로지(numerology), 예를 들어, 부반송파 간격에 기반하여 결정될 수 있다. 이때, 동기 신호들은 서로 다른 방향의 빔들을 이용하여 송신될 수 있다. 또한, 동기 신호들에 더하여, 장치는 SSB에 동기 신호들과 함께 포함되는 시스템 정보를 송신할 수 있다.
S1403 단계에서, 장치는 데이터 신호들을 송신한다. 여기서, 데이터 신호들은 동기 신호들과 유사한 신호 특성을 가질 수 있다. 예를 들어, 데이터 신호들을 송신하기 위한 빔들 중 적어도 하나의 방향은 동기 신호들을 송신하기 위해 사용된 빔의 방향과 동일할 수 있다. 여기서, 데이터 신호는, 정보 비트에 대한 인코딩, 스트램블링, 레이트 매칭, 성상도 맵핑, OFDM 변조 등의 동작들에 의해 생성될 수 있다.
S1405 단계에서, 장치는 표적에 반사됨으로 인해 수신된 신호들을 이용하여 레이다 동작을 수행한다. 즉, 장치는 반사된 신호들을 이용하여 표적의 거리, 위치, 각도, 속도, 도플러 중 적어도 하나를 검출할 수 있다. 구체적으로, 장치는 반사된 신호들이 겪은 채널을 추정하고, 추정된 채널에 기반하여 레이다 동작을 수행할 수 있다. 여기서, 표적에 반사된 신호들은 동기 신호들이거나 또는 데이터 신호들일 수 있다. 도 14에서, 레이다 동작을 수행하는 단계는 데이터 신호들을 송신하는 단계 이후에 표현되었으나, 레이다 동작의 일부는 데이터 신호의 송신 전에 수행될 수 있다.
도 15는 본 개시의 실시예에 따라 동기 신호들 및 데이터 신호들을 이용하여 단계적으로 표적을 센싱하는 절차의 예를 도시한다. 도 15는 동기 신호 및 데이터 신호를 송신할 수 있는 장치(예: 기지국 또는 UE)의 동작 방법을 예시한다.
도 15를 참고하면, S1501 단계에서, 장치는 넓은 빔의 동기 신호들을 이용하여 1차 센싱을 수행한다. 다시 말해, 장치는 서로 다른 방향들을 향하는 넓은 빔들을 이용하여 동기 신호들을 송신하고, 반사에 의해 되돌아오는 신호들을 수신한 후, 수신된 신호들을 이용하여 1차 레이다 동작을 수행할 수 있다. 이에 따라, 장치는 넓은 빔에 대응하는 해상도의 레이다 동작을 수행할 수 있다.
S1503 단계에서, 장치는 표적이 존재하는 적어도 하나의 영역을 확인한다. 즉, 장치는 S1501 단계에서 수행된 1차 센싱의 결과에 따라, 어느 넓은 빔을 이용하여 표적이 검출되었는지 확인한다. 이때, 표적이 검출된 시간 구간에서 사용된 넓은 빔의 커버리지가 표적이 존재하는 적어도 하나의 영역으로서 판단될 수 있다. 이를 통해, 장치는 보다 세밀한 2차 센싱을 수행할 적어도 하나의 영역, 즉, 좁은 빔의 신호들을 스위핑할 범위를 결정할 수 있다.
S1505 단계에서, 장치는 확인된 적어도 하나의 영역에서 좁은 빔의 데이터 신호들을 이용하여 2차 센싱을 수행한다. 다시 말해, 장치는 서로 다른 방향들을 향하는 좁은 빔들을 이용하여 데이터 신호들을 송신하고, 반사에 의해 되돌아오는 신호들을 수신한 후, 수신된 신호들을 이용하여 2차 레이다 동작을 수행할 수 있다. 이에 따라, 장치는 좁은 빔에 대응하는 해상도의 레이다 동작을 수행할 수 있다. 이때, 좁은 빔들을 이용하여 데이터 신호들이 송신되는 방향은, S1503 단계에서 확인된 적어도 하나의 영역에 속할 수 있다. 이를 통해, 장치는 보다 상세한 표적에 대한 정보(예: 거리, 위치, 각도, 속도, 도플러 중 적어도 하나)를 획득할 수 있다.
도 16는 본 개시의 실시예에 따른 MIMO(multiple input multiple output)-OFDM(orthogonal frequency division multiplexing) 레이다 시스템의 개념을 도시한다. 도 16를 참고하면, 맵핑부(1612)는 OFDM 심볼 및 부반송파 격자에 신호를 맵핑하고, IDFT 연산부(1614)는 IDFT 연산을 수행함으로써 OFDM 심벌을 생성하고, 송신 배열 안테나(1616)는 송신 빔포밍을 수행한다. 송신 빔포밍된 신호는 표적들(1602a, 1502b, 1502c)에 충돌함으로써 반사된 후, 수신된다. 수신 배열 안테나(1622)는 수신 빔포밍을 수행하고, DFT 연산부(1624)는 DFT 연산을 수행함으로써 부반송파 별 신호들을 복원하고, 채널 추정부(1626)는 복원된 부반송파 별 신호들을 이용하여 채널을 추정한다. 이후, 표적 파라미터 추정부(1628)는 신호들이 겪은 채널에 대한 정보에 기반하여 표적에 대한 정보를 검출한다.
도 17은 본 개시의 실시예에 따른 빔 설계의 개념을 도시한다. 도 17을 , 다양한 실시예들에 따른 빔 설계 기술은 SS 버스트 전송(1720)으로부터 시작되며, 레이다 채널 추정(1712) 및 채널 공분산(covariance) 행렬에 기반한 최적 빔 설계(1714)와, 통신 채널 추정(1722) 및 최적 통신 빔 설계(1724)로 나뉘어진다. 2가지 최적 빔 설계들에 기반하여, 최종적으로 코히어런트(coherent) JCAS 빔 설계(1732)가 완료될 수 있다.
다양한 실시예들에 따라, 고정밀 레이다 센싱을 위한 빔은 다음과 같이 설계될 수 있다.
Nt개의 송신 안테나 및 Nr개의 수신 안테나,
Figure PCTKR2022018969-appb-img-000001
의 부반송파 간격, 주기
Figure PCTKR2022018969-appb-img-000002
인 MIMO-OFDM 레이다 시스템에서, L개의 표적들이 존재하는 경우, m번째 OFDM 심벌의 부반송파
Figure PCTKR2022018969-appb-img-000003
에 대한 채널
Figure PCTKR2022018969-appb-img-000004
은 이하 [수학식 1]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000005
[수학식 1]에서,
Figure PCTKR2022018969-appb-img-000006
,
Figure PCTKR2022018969-appb-img-000007
,
Figure PCTKR2022018969-appb-img-000008
,
Figure PCTKR2022018969-appb-img-000009
은 각각 표적
Figure PCTKR2022018969-appb-img-000010
의 거리, 속도, 각도, RCS를 나타낸다.
Figure PCTKR2022018969-appb-img-000011
Figure PCTKR2022018969-appb-img-000012
은 각각 표적
Figure PCTKR2022018969-appb-img-000013
의 방향에 대한 배열 응답 벡터(array response vector)들로서 일반적으로 방위각(azimuth angle) 및 고각(elevation angle)의 함수이다. 송수신 안테나들이 y축 상에 존재하는 ULA(uniform linear array)이고, 표적이 y-z 평면에 존재하는 경우, 배열 응답 벡터들
Figure PCTKR2022018969-appb-img-000014
Figure PCTKR2022018969-appb-img-000015
은 이하 [수학식 2]와 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000016
표적 파라미터 각도
Figure PCTKR2022018969-appb-img-000017
와 거리, 속도
Figure PCTKR2022018969-appb-img-000018
에 대한 CRB(Cramer-Rao bound)는 이하 [수학식 3]과 같이 정의될 수 있다.
Figure PCTKR2022018969-appb-img-000019
여기서,
Figure PCTKR2022018969-appb-img-000020
Figure PCTKR2022018969-appb-img-000021
는 각각 벡터
Figure PCTKR2022018969-appb-img-000022
Figure PCTKR2022018969-appb-img-000023
에 대한 널 공간 투영 행렬(null space projection matrix)이다. CRB는 채널 추정 오차의 분산(variance)
Figure PCTKR2022018969-appb-img-000024
에 비례하므로, 채널 추정 오차를 최소화하는 것은 각도, 거리, 속도에 대한 CRB를 최소화하는 문제와 동일하게 취급될 수 있다.
다양한 실시예들에 따른 JCAS 시스템 기반이 빔 설계 동작 방식은 이하 도 18과 같다. 도 18은 본 개시의 실시예에 따른 알고리즘의 모델을 도시한다. 도 18을 참고하면, 본 개시의 실시예에 따른 알고리즘은 SSB들을 이용한 넓은 빔 스캐닝(1801), 기준 신호들(예: CSI-RS들)을 이용한 좁은 빔 스캐닝(1803), 채널 추정(1805), 타겟 검출/센싱(1807)을 포함한다. 채널 추정(1805)에 의해 획득되는 채널 정보는 타겟 검출/센싱(1807)을 위해 사용된다. 또한, 채널 추정(1805)에 의해 획득되는 채널 정보는 훈련 빔(training beam)을 설계하기 위해서도 사용될 수 있다. 이하 빔 설계에 대한 실시예가 설명된다.
다양한 실시예들에 따른 알고리즘의 동작 원리는 다음과 같다.
송신안테나에서 Mt개의 빔을 송신하고, 수신안테나에서 Mr개의 빔으로 표적에 충돌함으로써 반사된 후, 돌아오는 신호를 수신한다. 이러한 과정은 빔 스캐닝이라고 불리운다. 도 19은 본 개시의 실시예에 따른 빔 섹터 스캐닝을 위한 OFDM 심볼 별 가중치 적용의 예를 도시한다. 도 19을 참고하면, 특정 관심 지역(예: 빔 섹터)에 대한 빔 스캐닝을 수행하기 위한 전송 프레임은 Nslot개의 슬롯들(1911-1 내지 1911-Nslot)을 포함하고, 하나의 슬롯은 Mt개의 블록들(1912-1 내지 1912-Mt)을 포함하고, 하나의 블록은 Mr개의 OFDM 심벌들(1913-1 내지 1913-Mr)을 포함한다. Nslot개의 슬롯들(1911-1 내지 1911-Nslot)은 도플러 주파수(Doppler frequency)를 추정하기 위해 사용되며, 각 슬롯 안의 Mt×Mr개의 OFDM 심벌들은 Mt개의 송신 빔들 및 Mr개의 수신 빔들을 이용하여 해당 빔 섹터를 스캐닝하기 위해 사용된다.
하나의 슬롯 동안 채널은 준-정적(quasi-static)인 것으로 가정될 수 있다. 시스템에서 슬롯 m의 블록 p의 OFDM 심벌 q 및 부반송파 k를 통해 알려진 심벌(known symbol)
Figure PCTKR2022018969-appb-img-000025
가 송신되면, 해당 자원을 통해 수신된 신호
Figure PCTKR2022018969-appb-img-000026
는 이하 [수학식 4]와 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000027
Figure PCTKR2022018969-appb-img-000028
을 복소 분할(complex division)을 통해 알려진 심벌
Figure PCTKR2022018969-appb-img-000029
로 나눈 값
Figure PCTKR2022018969-appb-img-000030
은 이하 [수학식 5]와 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000031
따라서, Mt개의 송신 빔들 및 Mr개의 수신 빔들을 사용하여 수신된 슬롯 m의 부반송파 k의 수신 신호는 이하 [수학식 6]과 같이 행렬
Figure PCTKR2022018969-appb-img-000032
로 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000033
여기서,
Figure PCTKR2022018969-appb-img-000034
이고,
Figure PCTKR2022018969-appb-img-000035
로 표현되고,
Figure PCTKR2022018969-appb-img-000036
Figure PCTKR2022018969-appb-img-000037
를 원소로 갖는다.
추정 채널 오차에 대해 설명하면 다음과 같다.
[수학식 6]의 수신 신호로부터 표적의 거리, 속도, 각도를 추정하기 위해서, 우선 1차적으로 [수학식 1]의 MIMO-OFDM 채널을 추정한 다음, 추정된 채널로부터 표적들의 파라미터를 추정하는 것이 가능하다. 추정한 채널에 대한 추정 오차가
Figure PCTKR2022018969-appb-img-000038
인 경우, 추정 채널
Figure PCTKR2022018969-appb-img-000039
은 이하 [수학식 7]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000040
여기서,
Figure PCTKR2022018969-appb-img-000041
이다.
추정 채널
Figure PCTKR2022018969-appb-img-000042
의 벡터화된 버전(vectorized version)
Figure PCTKR2022018969-appb-img-000043
은 이하 [수학식 8]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000044
여기서,
Figure PCTKR2022018969-appb-img-000045
이다.
[수학식 8]을 모든 부반송파 자원들
Figure PCTKR2022018969-appb-img-000046
에 대해 표현하면, 이하 [수학식 9]와 같다.
Figure PCTKR2022018969-appb-img-000047
여기서,
Figure PCTKR2022018969-appb-img-000048
이다.
[수학식 9]의 채널 추정 오차
Figure PCTKR2022018969-appb-img-000049
의 분산(variance)
Figure PCTKR2022018969-appb-img-000050
가 작을수록 [수학식 3]의 표적 파라미터에 대한 CRB가 작아지는 것이 확인된다.
채널 추정 방법에 대해 설명하면 다음과 같다.
[수학식 6]의 MIMO-OFDM 레이다에서 송신 빔포밍 행렬
Figure PCTKR2022018969-appb-img-000051
와 수신 빔포밍 행렬
Figure PCTKR2022018969-appb-img-000052
을 사용하여 받은 슬롯 m의 부반송파 k의 수신 신호를 편의상
Figure PCTKR2022018969-appb-img-000053
를 생략하면, 이하 [수학식 10]과 같다.
Figure PCTKR2022018969-appb-img-000054
여기서,
Figure PCTKR2022018969-appb-img-000055
이다.
수신 신호
Figure PCTKR2022018969-appb-img-000056
의 벡터화된 버전(vectorized version)
Figure PCTKR2022018969-appb-img-000057
는 이하 [수학식 11]과 같다.
Figure PCTKR2022018969-appb-img-000058
여기서,
Figure PCTKR2022018969-appb-img-000059
,
Figure PCTKR2022018969-appb-img-000060
이고, 전체 빔포밍 행렬
Figure PCTKR2022018969-appb-img-000061
이다.
Figure PCTKR2022018969-appb-img-000062
의 통계(statistics)를 알 수 없는(unknown) 경우, [수학식 11]에 대한 해(solution)는 최소 자승법(method of least squares)을 이용하여 결정될 수 있다. 최소 자승법에 따라서,
Figure PCTKR2022018969-appb-img-000063
를 최소화하는 문제를 풀면, 이하 [수학식 12]와 같이 표현되는 노멀 방정식(normal equation)이 얻어질 수 있다.
Figure PCTKR2022018969-appb-img-000064
유일성 정리(Uniqueness Theorem)에 의해,
Figure PCTKR2022018969-appb-img-000065
가 풀 랭크(full rank)가 되는 경우, 단일한 해(unique solution)가 얻어질 수 있고, 그 LS(least square) 해(solution)는 이하 [수학식 13]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000066
Figure PCTKR2022018969-appb-img-000067
이 제로-평균(zero-mean)이고, 분산(covariance)이
Figure PCTKR2022018969-appb-img-000068
인 경우,
Figure PCTKR2022018969-appb-img-000069
의 평균(mean)은
Figure PCTKR2022018969-appb-img-000070
로서
Figure PCTKR2022018969-appb-img-000071
는 불편 추정량(unbiased estimator)이 된다. 이때, MSE는 이하 [수학식 14]와 같다.
Figure PCTKR2022018969-appb-img-000072
잡음(noise)에 의한 MSE는 행렬
Figure PCTKR2022018969-appb-img-000073
가 [수학식 15]일 경우 최소가 된다.
Figure PCTKR2022018969-appb-img-000074
문제는
Figure PCTKR2022018969-appb-img-000075
가 풀 랭크(full rank)가 되기 위해서 훈련 빔(training beam)들의 개수가
Figure PCTKR2022018969-appb-img-000076
을 만족해야 한다. 따라서,
Figure PCTKR2022018969-appb-img-000077
이 큰 매시브 안테나(massive antenna) 시스템의 경우, 빔 훈련 오버헤드(beam training overhead)가 매우 클 것이다.
송신 빔 개수 및 수신 빔 개수의 곱이 송신 안테나 개수 및 수신 안테나 개수의 곱보다 작을 경우,
Figure PCTKR2022018969-appb-img-000078
가 풀 랭크가 아니고
Figure PCTKR2022018969-appb-img-000079
를 최소화하는 복수의 해들이 존재할 수 있다. 이때, 복수의 해들 중
Figure PCTKR2022018969-appb-img-000080
가 최소가 되는 해인 최소-놈 해(minimum-norm solution)는 이하 [수학식 16]과 같다.
Figure PCTKR2022018969-appb-img-000081
최소-놈 해로 추정한 채널에 대한 오차는 이하 [수학식 17]과 같다.
Figure PCTKR2022018969-appb-img-000082
여기서,
Figure PCTKR2022018969-appb-img-000083
로서
Figure PCTKR2022018969-appb-img-000084
가 스팬(span)하는 부분공간(subspace)으로의 투영 행렬(projection matrix)이다.
Figure PCTKR2022018969-appb-img-000085
이 제로-평균이고, 분산이
Figure PCTKR2022018969-appb-img-000086
인 경우,
Figure PCTKR2022018969-appb-img-000087
의 평균은
Figure PCTKR2022018969-appb-img-000088
이다. 이때, MSE는 이하 [수학식 18]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000089
따라서, 전체 MSE를 최소화하기 위해서는
Figure PCTKR2022018969-appb-img-000090
Figure PCTKR2022018969-appb-img-000091
를 동시에 최소화하는 빔포밍 행렬 Q를 설계하는 것이 필요하다.
MSE 최소화하는 방법은 다음과 같다.
빔포밍 행렬
Figure PCTKR2022018969-appb-img-000092
,
Figure PCTKR2022018969-appb-img-000093
,
Figure PCTKR2022018969-appb-img-000094
를 SVD(singular vector decomposition)한 결과는 [수학식 19], [수학식 20], [수학식 21]과 같다.
Figure PCTKR2022018969-appb-img-000095
Figure PCTKR2022018969-appb-img-000096
Figure PCTKR2022018969-appb-img-000097
여기서,
Figure PCTKR2022018969-appb-img-000098
이다.
송신 전력에 대한 조건이 있는 경우, 잡음에 관한 MSE를 최소화하는 방법은 다음과 같다.
잡음에 관한 MSE
Figure PCTKR2022018969-appb-img-000099
Figure PCTKR2022018969-appb-img-000100
인 경우에 최소가 될 수 있다. 전체 빔포밍 행렬
Figure PCTKR2022018969-appb-img-000101
를 [수학식 19]를 이용하여 정리하면,
Figure PCTKR2022018969-appb-img-000102
이고, 잡음 최소화 조건은
Figure PCTKR2022018969-appb-img-000103
이다. 따라서,
Figure PCTKR2022018969-appb-img-000104
,
Figure PCTKR2022018969-appb-img-000105
가 임의의 유니터리 행렬일 것이 요구된다. 따라서, 전체 빔포밍 행렬
Figure PCTKR2022018969-appb-img-000106
는 이하 [수학식 22]와 같이 결정될 수 있다.
Figure PCTKR2022018969-appb-img-000107
바이어스(bias)에 관한 MSE를 최소화하는 방법은 다음과 같다.
바이어스에 관한 MSE
Figure PCTKR2022018969-appb-img-000108
는 이하 [수학식 23]과 같다.
Figure PCTKR2022018969-appb-img-000109
여기서,
Figure PCTKR2022018969-appb-img-000110
이다.
따라서,
Figure PCTKR2022018969-appb-img-000111
를 최소화하는 문제는
Figure PCTKR2022018969-appb-img-000112
를 최대화하는 문제와 동치이다.
전체 빔포밍 행렬은 이하 [수학식 24]와 같이 다시 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000113
Figure PCTKR2022018969-appb-img-000114
,
Figure PCTKR2022018969-appb-img-000115
의 관계로 식이 표현된다. 따라서, [수학식 23]의
Figure PCTKR2022018969-appb-img-000116
는 이하 [수학식 25]와 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000117
Figure PCTKR2022018969-appb-img-000118
Figure PCTKR2022018969-appb-img-000119
의 비-제로 고유값들(non-zero eigenvalues)에 해당하는 고유벡터들(eigenvectors)이고,
Figure PCTKR2022018969-appb-img-000120
Figure PCTKR2022018969-appb-img-000121
의 비-제로 고유값들(non-zero eigenvalues)에 해당하는 고유벡터들(eigenvectors)인 경우,
Figure PCTKR2022018969-appb-img-000122
는 최대가 될 수 있다.
위 [수학식 25]에 대한 증명은 다음과 같다. [수학식 23]의
Figure PCTKR2022018969-appb-img-000123
을 정리하면, 이하 [수학식 26]과 같다.
Figure PCTKR2022018969-appb-img-000124
Figure PCTKR2022018969-appb-img-000125
Figure PCTKR2022018969-appb-img-000126
유니터리 행렬(unitary matrix)이고, 특이 벡터들(singular vectors)은 상호 직교(mutually orthogonal)하기 때문에, 이하 [수학식 27]과 같은 관계가 성립될 수 있다.
Figure PCTKR2022018969-appb-img-000127
유사하게,
Figure PCTKR2022018969-appb-img-000128
Figure PCTKR2022018969-appb-img-000129
유니터리 행렬(unitary matrix)이고, 특이 벡터들(singular vectors)은 상호 직교(mutually orthogonal)하기 때문에, 이하 [수학식 28]과 같은 관계가 성립될 수 있다.
Figure PCTKR2022018969-appb-img-000130
[수학식 26]을 트레이스(trace) 성질을 이용하여, [수학식 27], [수학식 28]을 대입하면, [수학식 29] 및 [수학식 30]과 같은 표현이 가능하다.
Figure PCTKR2022018969-appb-img-000131
Figure PCTKR2022018969-appb-img-000132
[수학식 29] 및 [수학식 30]을 합산하면, [수학식 31]과 같은 관계식이 얻어진다.
Figure PCTKR2022018969-appb-img-000133
Figure PCTKR2022018969-appb-img-000134
Figure PCTKR2022018969-appb-img-000135
의 비-제로 고유값들(non-zero eivenvalues)에 해당하는 고유벡터들(eigenvectors)이면, [수학식 31]의
Figure PCTKR2022018969-appb-img-000136
는 최대가 될 수 있다. 마찬가지로,
Figure PCTKR2022018969-appb-img-000137
Figure PCTKR2022018969-appb-img-000138
의 비-제로 고유값들(non-zero eivenvalues)에 해당하는 고유벡터들(eigenvectors)이면, [수학식 31]의
Figure PCTKR2022018969-appb-img-000139
가 최대가 될 수 있다.
코시-슈바르츠 부등식(Cauchy-Schwartz inequality)을 사용하여 [수학식 31]의
Figure PCTKR2022018969-appb-img-000140
를 정리하면, 이하 [수학식 32]와 같다.
Figure PCTKR2022018969-appb-img-000141
따라서,
Figure PCTKR2022018969-appb-img-000142
의 상한(upper bound)이 최소화되는 조건은 이하 [수학식 33]과 같은 관계식이 최소가 되는 것이다.
Figure PCTKR2022018969-appb-img-000143
따라서,
Figure PCTKR2022018969-appb-img-000144
Figure PCTKR2022018969-appb-img-000145
의 널 공간(null space)에 해당하는 고유벡터들(eigenvectors)이면, [수학식 33]과 같은 관계식이 최소가 될 수 있다.
마찬가지로, [수학식 31]의
Figure PCTKR2022018969-appb-img-000146
는 이하 [수학식 34]와 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000147
따라서,
Figure PCTKR2022018969-appb-img-000148
의 상한(upper bound)이 최소화되는 조건은 이하 [수학식 35]과 같은 관계식이 최소가 되는 것이다.
Figure PCTKR2022018969-appb-img-000149
즉,
Figure PCTKR2022018969-appb-img-000150
Figure PCTKR2022018969-appb-img-000151
의 널 공간(null space)에 해당하는 고유벡터들(eigenvectors)이면, [수학식 35]과 같은 관계식이 최소가 될 수 있다.
따라서, 최적 조건(optimal condition)을 정리하면, 다음과 같다.
1)
Figure PCTKR2022018969-appb-img-000152
:
Figure PCTKR2022018969-appb-img-000153
의 신호 부분공간 고유벡터들(signal subspace eigenvectors)
2)
Figure PCTKR2022018969-appb-img-000154
:
Figure PCTKR2022018969-appb-img-000155
의 신호 부분공간 고유벡터들(signal subspace eigenvectors)
3)
Figure PCTKR2022018969-appb-img-000156
:
Figure PCTKR2022018969-appb-img-000157
의 널 부분공간 고유벡터들(null subspace eigenvectors)
4)
Figure PCTKR2022018969-appb-img-000158
:
Figure PCTKR2022018969-appb-img-000159
의 널 부분공간 고유벡터들(null subspace eigenvectors)
3-2-4) 전체 제안된 알고리즘
-
Figure PCTKR2022018969-appb-img-000160
는 임의의 유니터리 행렬,
Figure PCTKR2022018969-appb-img-000161
Figure PCTKR2022018969-appb-img-000162
■ [수학식 20], [수학식 21]:
Figure PCTKR2022018969-appb-img-000163
■ [수학식 24]~[수학식 38] :
1)
Figure PCTKR2022018969-appb-img-000164
:
Figure PCTKR2022018969-appb-img-000165
의 비-제로 고유값들(non-zero eigenvalues)에 해당하는 고유벡터들(eigenvectors)
2)
Figure PCTKR2022018969-appb-img-000166
:
Figure PCTKR2022018969-appb-img-000167
의 비-제로 고유값들(non-zero eigenvalues)에 해당하는 고유벡터들(eigenvectors)
Figure PCTKR2022018969-appb-img-000168
,
Figure PCTKR2022018969-appb-img-000169
는 임의의 유니터리 행렬을 만족하는 충분조건:
Figure PCTKR2022018969-appb-img-000170
,
Figure PCTKR2022018969-appb-img-000171
가 임의의 유니터리 행렬(단위 행렬(identity matrix) 포함)
Figure PCTKR2022018969-appb-img-000172
,
Figure PCTKR2022018969-appb-img-000173
을 만족하는 충분조건:
Figure PCTKR2022018969-appb-img-000174
■ 결론 :
Figure PCTKR2022018969-appb-img-000175
,
Figure PCTKR2022018969-appb-img-000176
알고리즘: 빔포밍 가중치 설계
Figure PCTKR2022018969-appb-img-000177
도 20은 본 개시의 일 실시예에 따라 빔을 설계하는 절차의 예를 도시한다. 도 20은 채널 정보를 획득할 수 있는 장치(예: 기지국 또는 단말)의 동작 방법을 예시한다.
도 20을 참고하면, S2001에서, 장치는 빔포밍 가중치들을 초기화한다. 여기서, 빔포밍 가중치들은 빔의 특성을 결정하는 파라미터들로서, 송신 빔에 적용되는 제1 가중치 및 수신 빔에 적용되는 제2 가중치를 포함할 수 있다.
S2003에서, 장치는 채널을 추정한다. 초기화된 빔포밍 가중치들을 이용하여 송신 및 수신되는 신호들을 이용하여 채널이 추정된다. 구체적으로, 장치 또는 다른 장치는 제1 가중치를 적용한 신호들을 송신하고, 반사에 의해 수신되는 신호들에 제2 가중치를 적용한 후, 지정된 알고리즘에 따라 채널을 추정한다. 예를 들어, 최소-놈 해에 기반한 알고리즘이 사용될 수 있다. 이에 따라, 채널 값이 제1 가중치 및 제2 가중치의 결합(예: 크로네커 곱(Kronecker product))으로 표현될 수 있다.
S2005에서, 장치는 추정된 채널의 공분산에 기반하여 빔포밍 가중치를 갱신한다. 다시 말해, 장치는 채널 추정 값 및 채널 추정 값의 허미션(Hermition)의 곱의 평균으로부터, 제1 가중치 및 제2 가중치의 새로운 값들을 결정하고, 새로운 값들로 제1 가중치 및 제2 가중치를 갱신할 수 있다. 예를 들어, 새로운 값들은 공분산의 신호 부분공간 고유벡터들, 공분산의 널 부분공간 고유벡터들 중 적어도 하나를 포함할 수 있다.
S2007에서, 장치는 반복이 종료되는지 판단한다. 반복의 종료는 종료 조건의 만족 여부에 따라 판단될 수 있다. 예를 들어, 반복은 미리 정의된 횟수의 도달에 따라 종료될 수 있다. 다른 예로, 반복은 갱신되는 가중치들의 변화량에 기반하여 종료될 수 있다.
반복의 종료가 판단되지 아니하면, 장치는 S2003 단계, S2005 단계, S2007 단계를 다시 수행한다. 이를 통해, 다시 가중치들이 갱신되고, 반복의 지속 여부가 판단될 수 있다. 반복이 종료는 것으로 판단되면, S2009에서, 장치는 목적 파라미터를 추정한다. 여기서, 목적 파라미터는 레이다 동작의 결과로서, 예를 들어, 범위, 도플러, 각도 등을 포함할 수 있다. 즉, 장치는 결정된 가중치들을 이용하여 생성되는 빔들을 이용하여 레이다 동작을 수행할 수 있다.
제안 기술의 성능을 확인하기 위한 시뮬레이션 결과는 다음과 같다. 성능 평가는 TPNR(total normalized TX power to noise ratio)를 이용하여 확인될 수 있다.
송신 빔포밍 벡터의 파워가 1이라고 가정할 경우, 즉,
Figure PCTKR2022018969-appb-img-000178
일 경우, 전체 송신 평균 파워
Figure PCTKR2022018969-appb-img-000179
는 [수학식 36]과 같이 표현할 수 있다.
Figure PCTKR2022018969-appb-img-000180
여기서,
Figure PCTKR2022018969-appb-img-000181
이다. 따라서, TPNR는 이하 [수학식 37]과 같이 표현될 수 있다.
Figure PCTKR2022018969-appb-img-000182
여기서,
Figure PCTKR2022018969-appb-img-000183
은 잡음 전력(noise power)을 의미한다.
시뮬레이션 결과는 다음과 같다. 시뮬레이션에서, 파라미터는 이하 [표 3]과 같이 설정되었고, 표적 파라미터는 이하 [표 4]와 같이 설정되었다.
Nt,Nr: 송신, 수신 안테나 개수 16개, 16개
Mt,Mr: 송신, 수신 빔포밍 벡터 개수 8개, 8개
M : slot 개수 12개
K : 부반송파 개수 128개
fc : center frequency 77GHz
BW : 대역폭 100MHz
f0 : frequency spacing 0.7MHz
d : 표적의 거리 33m
v : 표적의 속도 12m/s
θ_AoD,θ_AoA : 표적의 각도 -7°
기존 스캐닝 방법은 설계한 빔 패턴을 이용하여, 관심있는 영역 -6°내지 60°를 [표 3]과 같은 송신 및 수신 빔포밍 벡터 개수로 일정하게 나눔으로써, 조향(steering) 각도를 -60°, -36°, -12°, 12°, 36°, 60°로 지정하여 채널을 추정하였다. 채널 추정 방법은 [수학식 16]의 최소-놈 해(minimum-norm solution)을 사용하였다. 제안된 방법에서는 초기(initial)
Figure PCTKR2022018969-appb-img-000184
,
Figure PCTKR2022018969-appb-img-000185
Figure PCTKR2022018969-appb-img-000186
Figure PCTKR2022018969-appb-img-000187
가 랜덤 균등(random uniform)하게 분포되어 있다고 가정하고 시뮬레이션을 진행하였다. 도 21은 10번 정도의 반복(iteration) 후, 추정된 채널 결과를 도시한다. 시뮬레이션은 각 TPNR마다 총 10000번의 몬테카를로(Monte Carlo) 반복(iteration)을 수행하였다. 도 22는 추정된 채널로부터 각도를 추정하기 위해서 MUSIC(Multiple Signal Classification) 방법과 OMP(Orthogonal Matching Pursuit) 방법을 사용하였다. 그리고 빨간색 그래프로 표현되는 각도에 대한 CRB를 확대하면, 도 23와 같다. 도 22를 참고하면, 기존의 기법(예: MUSICconv, OMPconv)으로 각도를 추정한 결과보다 제안된 기법(예: MUSICprop, OMPprop)으로 추정한 채널로 각도를 추정한 결과가 각도 추정 성능이 월등히 좋은 것이 확인된다.
본 개시의 다양한 실시예들에 따라, 빔 공간 MIMO-OFDM JCAS 시스템에서 정확도 높은 레이다 센싱 정보가 획득될 수 있다. 제안 기술은 레이다 센서 분야에서 핵심기술로 활용될 수 있다.
상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 있다.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 개시의 실시예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다.
본 개시의 실시예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다.
추가적으로, 본 개시의 실시예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.

Claims (12)

  1. 무선 통신 시스템에서 통신 장치의 동작 방법에 있어서,
    동기 신호들을 송신하는 단계;
    데이터 신호들을 송신하는 단계;
    상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하는 단계를 포함하며,
    상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고,
    상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고,
    상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정되는 방법.
  2. 청구항 1에 있어서,
    상기 표적을 센싱하는 단계는,
    상기 반사된 신호가 겪은 채널을 추정하는 단계; 및
    상기 채널에 대한 정보에 기반하여 상기 표적에 대한 거리(range), 도플러(Doppler), 각도(angle) 중 적어도 하나를 결정하는 단계를 포함하는 방법.
  3. 청구항 1에 있어서,
    상기 동기 신호들은, 상기 표적이 위치한 적어도 하나의 영역을 결정하기 위해 사용되고,
    상기 데이터 신호들은, 상기 적어도 하나의 영역 내에서 상기 표적을 센싱하기 위해 사용되는 방법.
  4. 청구항 3에 있어서,
    상기 동기 신호들은, 상기 데이터 신호들을 송신하기 위해 사용되는 공간 도메인 필터보다 넓은 빔폭을 가지는 공간 도메인 필터를 이용하여 송신되는 방법.
  5. 청구항 1에 있어서,
    상기 동기 신호들 및 상기 데이터 신호들은, 블록 단위 공간 도메인 필터들을 이용하여 송신되고,
    상기 반사된 신호들은, 심볼 단위 공간 도메인 필터들을 이용하여 수신되는 방법.
  6. 청구항 1에 있어서,
    상기 표적을 센싱하는 단계는,
    상기 반사된 신호가 겪은 채널을 추정하는 단계를 포함하며,
    상기 채널에 대한 정보는, 상기 동기 신호들 및 상기 데이터 신호들에 적용되는 공간 도메인 필터들을 결정하기 위해 사용되는 방법.
  7. 청구항 6에 있어서,
    상기 공간 도메인 필터들은, 상기 채널에 대한 정보의 공분산에 기반하여 반복적으로 갱신됨에 의해 결정되는 방법.
  8. 청구항 7에 있어서,
    상기 표적에 대한 센싱은, 상기 상기 공간 도메인 필터들을 결정하기 위한 반복(iteration)이 완료된 후 수행되는 방법.
  9. 청구항 7에 있어서,
    상기 공간 도메인 필터들은, 상기 공분산의 신호 부분공간 고유벡터들, 상기 공분산의 널 부분공간 고유벡터들에 기반하여 갱신되는 방법.
  10. 무선 통신 시스템에서 통신 장치에 있어서,
    복수의 송신기들 및 복수의 수신기들을 포함하는 송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하며,
    상기 프로세서는,
    동기 신호들을 송신하고,
    데이터 신호들을 송신하고,
    상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하도록 제어하고,
    상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고,
    상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고,
    상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정되는 통신 장치.
  11. 통신 장치에 있어서,
    적어도 하나의 프로세서;
    상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들을 지시하는 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은,
    동기 신호들을 송신하는 단계;
    데이터 신호들을 송신하는 단계;
    상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하는 단계를 포함하며,
    상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고,
    상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고,
    상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정되는 통신 장치.
  12. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서,
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,
    상기 적어도 하나의 명령어는, 장치가,
    동기 신호들을 송신하고,
    데이터 신호들을 송신하고,
    상기 동기 신호들 및 상기 데이터 신호들이 표적(target)에 반사됨으로써 발생하는 반사된 신호들을 이용하여 상기 표적을 센싱하도록 제어하고,
    상기 동기 신호들은, 적어도 하나의 공간 도메인 필터(spatial domain filter)를 이용하여 송신되고,
    상기 동기 신호들 중 적어도 하나 및 상기 데이터 신호들 중 적어도 하나는, 동일한 특성의 공간 도메인 필터를 통해 송신되고,
    상기 데이터 신호들에 적용되는 공간 도메인 필터들은, 상기 동기 신호를 이용한 센싱 결과에 기반하여 결정되는 비-일시적인 컴퓨터 판독 가능 매체.
PCT/KR2022/018969 2022-11-28 2022-11-28 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법 WO2024117275A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/018969 WO2024117275A1 (ko) 2022-11-28 2022-11-28 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/018969 WO2024117275A1 (ko) 2022-11-28 2022-11-28 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024117275A1 true WO2024117275A1 (ko) 2024-06-06

Family

ID=91323944

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018969 WO2024117275A1 (ko) 2022-11-28 2022-11-28 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2024117275A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180085089A1 (en) * 2015-03-27 2018-03-29 Alpinion Medical Systems Co., Ltd. Beamforming device, ultrasonic imaging device, and beamforming method allowing simple spatial smoothing operation
US20200136250A1 (en) * 2019-12-23 2020-04-30 Intel Corporation Beamforming techniques implementing the iterative adaptive approach (iaa)
US20210165073A1 (en) * 2019-11-28 2021-06-03 Nxp Usa, Inc. Digital radar imaging using 5g-nr millimeter wave base station antenna solutions
WO2022107050A1 (en) * 2020-11-18 2022-05-27 Lenovo (Singapore) Pte. Ltd. Radar sensing in a radio access network
US20220179042A1 (en) * 2020-09-09 2022-06-09 Qualcomm Incorporated Signaling of TX/RX Parameters for Bistatic and Multi-static Radar in Wireless Communications Systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180085089A1 (en) * 2015-03-27 2018-03-29 Alpinion Medical Systems Co., Ltd. Beamforming device, ultrasonic imaging device, and beamforming method allowing simple spatial smoothing operation
US20210165073A1 (en) * 2019-11-28 2021-06-03 Nxp Usa, Inc. Digital radar imaging using 5g-nr millimeter wave base station antenna solutions
US20200136250A1 (en) * 2019-12-23 2020-04-30 Intel Corporation Beamforming techniques implementing the iterative adaptive approach (iaa)
US20220179042A1 (en) * 2020-09-09 2022-06-09 Qualcomm Incorporated Signaling of TX/RX Parameters for Bistatic and Multi-static Radar in Wireless Communications Systems
WO2022107050A1 (en) * 2020-11-18 2022-05-27 Lenovo (Singapore) Pte. Ltd. Radar sensing in a radio access network

Similar Documents

Publication Publication Date Title
WO2022075724A1 (ko) 원격 간섭 관리 참조 신호를 제공하기 위한 방법, 장치 및 저장 매체
WO2020204538A1 (ko) 무선 통신 시스템에서 채널 상태 정보를 전송하는 방법 및 이를 위한 장치
WO2012093904A2 (ko) 셀룰러 네트워크에서의 간섭 정렬 방법 및 장치
WO2022250221A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2022220623A1 (ko) 무선 통신 시스템에서 시간 정렬 오차(timing alignment error, tae)에 기반하여 통신을 수행하기 위한 장치 및 방법
WO2024117275A1 (ko) 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법
WO2022086309A1 (ko) 무선 통신 시스템에서 채널 상태 정보의 송수신 방법 및 그 장치
WO2022030664A1 (ko) 무선 통신 시스템에서 주파수 대역 간 채널 공간 정보의 유사성에 기반한 통신 방법 및 이를 위한 장치
WO2022004921A1 (ko) 플러그 앤드 플레이 퀀텀 키 분배 시스템에서 패러데이 회전 거울의 편광 왜곡 보정 방법 및 장치
WO2024034694A1 (ko) 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 장치
WO2024071459A1 (ko) 무선 통신 시스템에서 신호 송수신 방법 및 장치
WO2022231084A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2024122694A1 (ko) 무선 통신 시스템에서 수신기에 대한 학습을 수행하기 위한 장치 및 방법
WO2024143594A1 (ko) 무선 통신 시스템에서 메타표면을 이용하여 신호를 제어하기 위한 장치 및 방법
WO2023286884A1 (ko) 무선 통신 시스템에서 신호를 송수신하는 방법 및 장치
WO2022071642A1 (ko) 무선 통신 시스템에서 단말 및 기지국의 채널 코딩 수행 방법 및 장치
WO2024096143A1 (ko) 무선 통신 시스템에서 자원을 결정하기 위한 방법 및 장치
WO2023219192A1 (ko) 무선 통신 시스템에서 지능형 반사 평면에 관련된 채널을 추정하기 위한 장치 및 방법
WO2024096160A1 (ko) 무선 통신 시스템에서 채널 상태 정보에 대한 가변 전송률을 지원하도록 온라인 학습을 수행하기 위한 장치 및 방법
WO2022119424A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2023008614A1 (ko) 무선 통신 시스템에서 공간 위상 천이 빔을 통해 신호를 전송하는 방법 및 장치
WO2023027321A1 (ko) 무선 통신 시스템에서 신호 송수신 방법 및 장치
WO2023013795A1 (ko) 무선 통신 시스템에서 연합학습을 수행하는 방법 및 이를 위한 장치
WO2024122667A1 (ko) 무선 통신 시스템에서 앙상블 모델 기반의 수신기에 대한 학습을 수행하기 위한 장치 및 방법
WO2023219193A1 (ko) 무선 통신 시스템에서 채널을 추정하기 위한 장치 및 방법