EP3368916A1 - Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren - Google Patents

Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Info

Publication number
EP3368916A1
EP3368916A1 EP16784532.0A EP16784532A EP3368916A1 EP 3368916 A1 EP3368916 A1 EP 3368916A1 EP 16784532 A EP16784532 A EP 16784532A EP 3368916 A1 EP3368916 A1 EP 3368916A1
Authority
EP
European Patent Office
Prior art keywords
data
sensor units
view
sensor
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP16784532.0A
Other languages
English (en)
French (fr)
Inventor
Andre Giere
Manuel Wolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Astyx GmbH
Original Assignee
Astyx GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102015221163.0A external-priority patent/DE102015221163A1/de
Priority claimed from DE102016205227.6A external-priority patent/DE102016205227A1/de
Application filed by Astyx GmbH filed Critical Astyx GmbH
Priority to EP23189579.8A priority Critical patent/EP4249938A3/de
Publication of EP3368916A1 publication Critical patent/EP3368916A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/023Interference mitigation, e.g. reducing or avoiding non-intentional interference with other HF-transmitters, base station transmitters for mobile communication or other radar systems, e.g. using electro-magnetic interference [EMI] reduction techniques
    • G01S7/0235Avoidance by time multiplex
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/933Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/023Interference mitigation, e.g. reducing or avoiding non-intentional interference with other HF-transmitters, base station transmitters for mobile communication or other radar systems, e.g. using electro-magnetic interference [EMI] reduction techniques
    • G01S7/0232Avoidance by frequency multiplex
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/023Interference mitigation, e.g. reducing or avoiding non-intentional interference with other HF-transmitters, base station transmitters for mobile communication or other radar systems, e.g. using electro-magnetic interference [EMI] reduction techniques
    • G01S7/0234Avoidance by code multiplex
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/03Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/4445Monopulse radar, i.e. simultaneous lobing amplitude comparisons monopulse, i.e. comparing the echo signals received by an antenna arrangement with overlapping squinted beams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/4454Monopulse radar, i.e. simultaneous lobing phase comparisons monopulse, i.e. comparing the echo signals received by an interferometric antenna arrangement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/933Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • G01S13/935Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft for terrain-avoidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93273Sensor installation details on the top of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/023Interference mitigation, e.g. reducing or avoiding non-intentional interference with other HF-transmitters, base station transmitters for mobile communication or other radar systems, e.g. using electro-magnetic interference [EMI] reduction techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/027Constructional details of housings, e.g. form, type, material or ruggedness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/356Receivers involving particularities of FFT processing

Definitions

  • the invention relates to a method, a use and a device for improving and tracking objects, in particular moving objects, in the three-dimensional space of imaging radar sensors.
  • the individual sensor units or front ends are individually coupled to a control device and data evaluation device, and the joint viewing of the front ends takes place only at the tracker level.
  • the size of the system and its costs grow.
  • any additional mounted and waiting device can incur significant costs, determined by the number and size of sensors used.
  • millimeter-wave radar sensors for use in object detection, e.g. for automotive and aeronautical applications a compact and cost-effective design.
  • the senor should allow object detection in three-dimensional space, which allows additional precise localization both in the horizontal and in the vertical.
  • tracking (tracking) of the objects is to be made possible.
  • the data rate with which the sensor information is processed is of great importance for the quality of the track information and thus for the quality and performance of the overall system. This, in turn, requires an increased number and size of readout and control components in an architecture based on individual conventional sensor units.
  • the object of the invention is to provide an apparatus, a method and a radar system which makes it possible to reduce the overall system in terms of size and costs, without losses being associated with the evaluation speed and accuracy.
  • the object is achieved according to the device with the features of claim 1, according to the method with the features of claim 12 and according to the radar system with the features of claim 23, and use in a helicopter radar.
  • the device for determining a position of an object in three-dimensional space at least two sensor units and a central signal processing device, to which the sensor units are coupled.
  • the advantage is achieved that the number of readout and control components is reduced to a single central data processing device, which takes over the control and signal readout for any number of sensor units.
  • a reduction in the overall size and cost of the sensor can be achieved.
  • data readout and data processing processes can be advantageously coordinated and optimized.
  • the individual sensor units can be read out and evaluated as one unit.
  • the data evaluation can be improved. Since a single signal processing device executes data readout and evaluation for all sensor units, data can be partitioned and preprocessed at various levels. For multiple sensor units, e.g. in a total spatial
  • Capture the individual sensor units can be targeted with less latency.
  • the senor can be adapted specifically for different requirements.
  • the data read-out and data evaluation can take place simultaneously and simultaneously encompass all sensor units. If the read-out data is preprocessed, the update rate of the speed of the objects can also be adapted in a more targeted manner. This avoids data congestion on several levels.
  • the data size transferred for mapping is minimized by preprocessing the data.
  • the inventive method for determining a position of an object in three-dimensional space, in particular a moving object comprises at least the method steps of providing at least two sensor units and the Koppeins the at least two sensor units with a central signal processing device. It is innovative that the individual control and readout and process steps, which are described in detail as the subject of the dependent claims, all can be summarized centrally on the signal processing device, a multiple of the required data memory can be reduced. In addition, by the fact that the sensor units are centrally controlled, the individual process steps can be partitioned and performed in an optimized sequence, and data transmission times can be reduced.
  • the radar system according to the invention comprises the method according to the invention and the device according to the invention.
  • An advantage that results for the overall system is the compact and inexpensive construction that is made possible by the reduction of the control and readout units to a single one. These radar systems are more compact and less expensive to produce and maintain. When used as a helicopter radar, a 360 ° cover is easily made possible.
  • the at least two sensor units are designed such that a single, expanded virtual field of view is created by the signal processing device from the respective data read out by the signal processing device. This is made possible by the selection of the main radiation direction and / or by spatial alignment of the individual sensor units in both a horizontal and vertical direction.
  • the individual sensor units are driven and aligned by the signal processing device, both in a vertical and in a horizontal direction. This positioning of the adjacent sensor units in a sensor housing makes it possible to superimpose the fields of view of the individual sensor units by a few degrees of the opening angle.
  • two or more sensor units can be arranged planar parallel to each other, if they have a corresponding main radiation direction.
  • the different direction of the opening of the visual field is thus implemented by the different emission characteristics.
  • the central signal processing device is designed so that the received signals can be read out by the sensor units according to a multiplexing method. Multiplexing methods require simultaneous linking of all sensor units to the signal processing device.
  • the central signal processing device can generate selected object lists from the received signals of the individual sensor units by controlling, reading and evaluating the individual sensor units.
  • These object lists represent received signals of the individual sensor units that have been preprocessed and preselected, thereby causing a considerable reduction in the data volumes and quantities. Data can be processed faster without requiring more computing power.
  • the respective sensor units consist of one
  • Frontend having at least one transmitting antenna and at least two, preferably four, eight or sixteen, receiver antennas.
  • the arrangement of the receiver antennas in the front end is designed so that a determination of the position in at least one plane is made possible by digital steel forming.
  • the arrangement of the transmitter antennas enables a position determination in at least one plane by phase comparison and / or amplitude comparison. Whereby the number of receiver antennas is adapted to the accuracy of the angle determination necessary for the entire system and also determines the sensitivity of the system.
  • the nature of the antennas is designed to be in a frequency band of one
  • GHz can be operated up to a THz, preferably the operating frequency range is in a frequency band of 5 to 150 GHz, in particular in the range of 75 to 85 GHz.
  • millimeter waves are an advantage for altitude measurement. Millimeter waves penetrate dielectric materials such as snow or fog, e.g. Therefore, an accurate height measurement can be done even in poor visibility. Even smaller objects in difficult visibility conditions can be detected. The higher the frequency and the bandwidth, the better the spatial resolution.
  • receivers and transmit antennas are implemented in a planar printed circuit board technology, which improves the stability of the sensor unit.
  • the received signals from the channels of the receiver antennas of the receiver arrays are read out by the signal processing device by means of a time division multiplex method, a frequency division multiplex method, a code division method or a combination of these methods.
  • the use of multiplexing in the data readout allows a parallel sequence of data readout and evaluation. Also, greater flexibility of the system by selecting or combining these methods is possible.
  • the range determination (Range-FFT) is performed immediately after the digitization of the analog signal data. This has the advantage that objects whose removal is not considered relevant for tracking can be sorted out at this point in order to minimize the data set. These objects are then not included in the object lists.
  • the multiplex method proves to be particularly advantageous in order to calculate the data from all sensor units already at the raw data level to the same reference value.
  • Each sensor unit has its own frame of reference in which the objects are calculated using the above methods. Traditionally, this data is then merged to track an object at the tracker's level.
  • the individual fields of view are considered individually, resulting in a much greater need for computing power and time required to parameterize the individual objects of the various frames of reference to the same frame of reference.
  • the sensor units are read out with a time offset, ie the transmission channel is divided into time slices and each sensor unit is allocated a time interval for the transmission. As a result, all sensor units can be read out one after the other in extremely short time intervals.
  • This denomination allows fragmented data preprocessing, eg after the analogue signals have been processed of an AD converter have been converted into digital data, a first fast Fourier transformation FFT can take place.
  • the selected data are evaluated by a tracking unit and transferred for display as a data record.
  • Evaluation can take place simultaneously. While the data evaluation of the first cycle is still ongoing, the data readout of the second cycle can already take place.
  • the sensor units are assigned their own frequency band and the data acquisition takes place simultaneously as well as the preprocessing of the data, i. after the analogue signals have been converted into digital data by means of an AD converter, a first fast Fourier transformation FFT can take place. This is done simultaneously for sensor units.
  • the selected data are evaluated by a tracking unit and transferred for display as a data record.
  • Signal data readout, preprocessing and evaluation can take place simultaneously. While the data evaluation of the first cycle is still ongoing, the data readout of the second cycle can already take place.
  • the code multiplexing also acquires the data simultaneously, a code is assigned to the sensor units, and thus the data stream can be assigned to a sensor unit.
  • these digitized data read out by a multiplexing method are bundled into a beamed antenna beam by the method of beamforming.
  • This is a signal processing method used in sensor arrays for directionally receiving or transmitting signals.
  • a speed calculation and a distance calculation are carried out by means of a two-dimensional FFT and then a so-called false alarm rate or "constant false alarm rate" CFAR algorithm can be used to search for objects resulting from the noise of the sensor or from a disturbing background - so-called clutter - highlight (pre-targets).
  • the calculation steps of the distance and velocity calculation, position determination and the differentiation of the signals from the background noise and ground reflections allows only these signals to be selected as relevant objects already at raw data level.
  • Object lists are created which consist of these preselected signal data of the sensor units. This reduces and prepares the total amount of data that has a faster evaluation.
  • the signal data of the sensor units are combined so that they have the same reference quantities and the same reference frame and thus the virtual field of view can be formed.
  • the data of the individual sensor units are transferred to a common reference system, which can be considered as the sum of the individual fields of view. This parameterization on a system does not overlap.
  • merging the signal data onto a frame of reference is performed after forming the object lists.
  • the merging of the signal data is performed prior to forming the object lists. This can be done after linking the receive signals to bundled data, or after the velocity calculation (Doppler
  • the position of an object which originally has its reference values in the field of view of a sensor unit, can be displayed and tracked in the virtual field of view by means of a tracking algorithm.
  • Data is preprocessed and preselected, the amount of data is reduced, this is particularly important for high data readout rates must be evaluated adhoc, so that no pile-up or data congestion of the data packets may arise. Conventionally, this can be avoided in such cases by larger or a plurality of data processing devices or by the extension of the data read-out paths.
  • Fig. 1 shows an antenna arrangement in a front end.
  • Fig. 2 shows an embodiment with a sensor with three sensor units.
  • FIG 3 shows a further embodiment with a sensor with two sensor units.
  • FIG. 4 shows the readout and signal processing sequence for a sensor with 2 sensor units with a time division multiplex method.
  • Fig. 5 shows in an analogous manner, the data readout and evaluation for a sensor with three sensor units.
  • FIG. 6 shows the simultaneous data readout and evaluation with a frequency division multiplexing method in the case of a sensor with two sensor units.
  • Fig. 7 shows a sensor with two sensor units with the field of view of beam lobes.
  • Fig. 8 shows a tracked object track passing through 2 fields of view.
  • Fig. 9 shows the use of two according to the application sensors for a 360 ° cover
  • FIG. 10 shows the use of the sensor arrangement according to FIG. 9 in a helicopter system Embodiments of the invention will be explained in more detail with reference to figures.
  • Fig. 1 shows an example of the antenna arrangement (100) in a front end.
  • Two transmitting antennas (1) are coupled to a control and readout unit (2) and an array (3) of 8 receiver antennas is coupled to a control and readout unit (4).
  • This front end shown in Fig. 1 e.g. is designed for height determination by means of phase monopulse, which is achieved by the staggered transmission antennas.
  • the arrangement and the respective field of view of a sensor with two or three sensor units are illustrated in the following two figures. It is also shown that the geometry of the housing as well as the positioning of the sensor unit is dependent on the number of sensor units used and the intended overlap zone of the fields of view.
  • FIG. 2 shows an embodiment with a sensor (200) with three sensor units (21, 22, 23), each having an antenna arrangement (100) which are positioned in the sensor housing (20) and each schematically a field of view (21 1, 221, 231).
  • FIG 3 shows a further embodiment with a sensor (300) with two sensor units (31, 32) each having an antenna arrangement (100) which are positioned in the sensor housing (30) and in each case schematically a field of view (31 1, 321) include.
  • FIG. 4 shows the readout and signal processing sequence of the signal processing device for a sensor with two sensor units.
  • the data is read out using a time-division multiplex method.
  • FIGS. 4a) to 4d) illustrate the time sequence of the individual read-out steps and the simultaneous evaluation of these read-out data.
  • FIG. 4a) shows the temporal activation sequence of the two sensor units. In a first time span in the microsecond range, the antenna arrangement of the front end of the first sensor unit is activated, after a switchover period the first sensor unit is deactivated and the second sensor unit is activated.
  • Fig. 4b) shows respectively the timing of the individual time-portioned signal data readout.
  • Fig. 4c) shows that the data is further processed as time-portioned data packets.
  • the time portion nator analog signal is converted by means of AD converter into a digital data packet, on this data packet is a Fast Fourier transform to a distance calculation (Range-FFT) is applied before the data is passed in this form for caching or further processing.
  • This data processing takes place simultaneously with the data acquisition as shown in FIG. 4b).
  • Fig. 4d the entire timing of the signal processing cycle as a whole is shown.
  • the data set of the respective sensor activation time units RF1 and RF2 is evaluated by means of a velocity calculation (Doppler-FFT) and with the method of beamforming the position is determined and an object detection algorithm selects the object data from these sensor activation time units.
  • Doppler-FFT Doppler-FFT
  • FIG. 5 shows, in an analogous manner, the data read-out and evaluation in the case of a sensor with three sensor units.
  • Fig. 6 shows where the simultaneous data readout and evaluation with a frequency multiplexing in the case of a sensor with two sensor units can be seen.
  • Fig. 6a in a time interval simultaneous data readout of the two sensor units, which were both activated at the same time to see.
  • Fig. 6b shows that each sensor unit has been assigned a specific frequency band, the analogue signals received at the same time can be assigned to the respective sensor unit.
  • Fig. 6c) shows the preprocessing of the signal data from a time interval.
  • the analog signals of both sensor units are converted into digital data packets by means of an AD converter and a fast Fourier transformation for range calculation (FFT) is applied to these data packets before the data in this form are transferred for intermediate storage or further processing.
  • FFT fast Fourier transformation for range calculation
  • Fig. 6d The entire timing of the signal processing cycle is shown in Fig. 6d).
  • the data set of both sensor units is evaluated together, the position is determined by means of a velocity calculation (Doppler-FFT) and with the method of beamforming and an object recognition algorithm selects the object data from this common sensor activation time unit.
  • Doppler-FFT Doppler-FFT
  • FIG. 7 shows a sensor (300) with two sensor units as shown in FIG. 3, with beam lobes formed by the beam shaping, which in each case coincide Form field of view for a sensor unit.
  • Both fields of view (71, 72) together and with the two overlapping beam lobes (73) a continuous expanded field of view can be provided.
  • FIG. 8 shows a sensor (300) with two sensor units, as can be seen in FIG. 3, with beam lobes formed by the beam shaping, which in each case together form a field of view for a sensor unit.
  • a continuous expanded field of view can be provided.
  • FIG. 8 shows the fields of view (71, 72) formed by the beam lobes (73) and the overlapping area.
  • both fields of view and the overlapping area are shown in FIG. 8a) and the tracked object track changes from one field of view to the other.
  • the object track point 4 is read out by both sensor units and evaluated and then transferred from one reference system to the other.
  • FIG. 8b) shows that the same object track is represented in a virtual expanded field of view, as shown, for example, in FIGS. 7 and 8a), from the fields of view of the individual sensor units.
  • a helicopter radar As a special use, a helicopter radar is considered, the key advantage is that a complete 360 ° all-round coverage of the environment can be achieved with only 2 sensor devices, which are firmly mounted to the helicopter structure below the rotor axis, without the need for additional extensions or attachments ,
  • the entire system can be implemented with these 2 sensor devices, since they can be designed as so-called smart sensors.
  • the entire data processing and the generation of a 360 ° status report are implemented within the sensor devices.
  • a communication between the preferred two sensors takes place, which are preferably attached to the left & right side of the helicopter or front & rear of the helicopter.
  • two or more, preferably three single front ends are first mounted in the sensor housing in a sensor housing, so that the individual FoV of two adjacent front ends are superimposed by a few degrees of the opening coil.
  • the radar raw data are prepared and combined to form an overall picture for the individual sensor unit.
  • the calculated pre-targets are now plausibilized over several measurements and combined into tracks.
  • Other system inputs are also taken into account, such as Speed over ground, turns of the helicopter and more.
  • the track information is exchanged with the adjacent adjacent sensor units (if any) to provide a full 360 degree coverage image.
  • Each individual sensor unit has a maximum monitored area of up to 200 ° azimuth.
  • the individual sensor units are designed so that they can be connected together directly without any adjustments with other identical sensor units to form a total sensor system. No additional electronic hardware is required for this, a simple cable connection is sufficient. Thus, larger areas can be monitored and also install additional sensors to cover possible caused by attachments or the like blind spot.
  • Fig. 9 only two devices according to the invention lying against each other are arranged so schematically that a 360 ° cover is made possible. In this embodiment, it is also advantageous if in each case 3 sensor units are used.
  • Fig. 10 also the arrangement example are shown as a helicopter radar, namely the corresponding placement of the two erfindungswashen devices on the helicopter. The 360 ° cover is clearly illustrated in FIG. 10, which additionally reveals two overlapping areas.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Beschrieben wird eine Vorrichtung zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts dadurch gekennzeichnet, dass die Vorrichtung mindestens zwei Sensoreinheiten aufweist, wobei jede Sensoreinheit ein Gesichtsfeld (FoV) aufweist, und wobei alle Sensoreinheiten über eine zentrale Signalverarbeitungsvorrichtung gekoppelt sind.

Description

VERFAHREN UND VORRICHTUNG ZUR VERFOLGUNG VON OBJEKTEN, INSBESONDERE SICH BEWEGENDEN OBJEKTEN, IN DEN DREIDIMENSIONALEN
RAUM VON ABBILDENDEN RADARSENSOREN
Die Erfindung betrifft ein Verfahren, eine Verwendung und eine Vorrichtung zur Verbesserung und Verfolgung von Objekten, insbesondere sich bewegenden Objekte, in den dreidimensionalen Raum von abbildenden Radarsensoren.
Herkömmlich werden bei Millimeterwellen-Radarsensoren zur Verwendung in der Objekterkennung z.B. für automobile und aeronautische Anwendungen die einzelnen Sensoreinheiten oder Frontends jeweils einzeln an eine Steuerungsvorrichtung und Datenauswertungsvorrichtung gekoppelt und die gemeinsame Betrachtung der Frontends erfolgt erst auf der Trackerebene. Für jedes weitere Frontend welches das Sichtfeld vergrößern soll, wachsen die Größe des Systems und dessen Kosten an. Insbesondere in der Luftfahrt kann jedes zusätzlich montierte und zuwartende Gerät erhebliche Kosten verursachen, die von der Anzahl und Größe der verwendeten Sensoren bestimmt werden.
Daher sollten insbesondere Millimeterwellen-Radarsensoren zur Verwendung in der Objekterkennung z.B. für automobile und aeronautische Anwendungen eine kompakte und kostengünstige Bauweise vorweisen. Dies bedeutet aber, dass die Anzahl der Auslese- und Steuerungskomponenten wie auch die benötigten Sensoreinheiten minimiert sein sollte.
Andererseits sollte der Sensor eine Objektdetektion im dreidimensionalen Raum ermöglichen, die zusätzliche eine präzise Lokalisierung sowohl in der Horizontalen als auch in der Vertikalen erlaubt. Außerdem soll eine Verfolgung (Tracking) der Objekte ermöglicht werden. Die Datenrate mit der die Sensorinformationen verarbeitet werden, ist für die Güte der Track Informationen und damit für die Qualität und Performance des Gesamtsystems von großer Bedeutung. Dies wiederum erfordert, bei einer auf einzelnen herkömmlichen Sensoreinheiten basierenden Architektur, eine erhöhte Anzahl und Größe von Auslese- und Steuerungskomponenten.
Die Aufgabe der Erfindung ist, eine Vorrichtung, ein Verfahren sowie ein Radarsystem zur Verfügung zu stellen, die eine Reduktion des Gesamtsystems bezüglich der Größe und Kosten ermöglicht, ohne dass dabei Verluste bezüglich der Auswertungsgeschwindigkeit und Genauigkeit einhergehen. Die Aufgabe wird vorrichtungsgemäß mit den Merkmalen des Anspruchs 1 , verfahrensgemäß mit den Merkmalen des Anspruchs 12 und gemäß dem Radarsystem mit den Merkmalen des Anspruchs 23, sowie eine Verwendung in einem Hubschrauberradar gelöst.
Erfindungsgemäß weist die Vorrichtung zur Bestimmung einer Position eines Objektes im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts, mindestens zwei Sensoreinheiten und eine zentrale Signalverarbeitungsvorrichtung auf, an welche die Sensoreinheiten gekoppelt sind. Mit dieser Maßnahme wird der Vorteil er- zielt, dass die Anzahl der Auslese- und Steuerungskomponenten auf eine einzelne zentrale Datenverarbeitungsvorrichtung reduziert wird, die für eine beliebige Anzahl von Sensoreinheiten die Steuerung und Signalauslese übernimmt. Eine Verringerung der Gesamtgröße und Kosten des Sensors können dadurch erzielt werden. Ferner können Datenauslese- und Datenverarbeitungsprozesse vorteilhaft aufeinander abgestimmt und optimiert werden. Die einzelnen Sensoreinheiten können als eine Einheit ausgelesen und ausgewertet werden. Ferner, durch das Zusammenführen der Sensoreinheiten bereits auf der Ausleseebene kann die Datenauswertung verbessert werden. Da eine einzige Signalverarbeitungsvorrichtung die Datenauslese und die Auswertung für alle Sensoreinheiten ausführt, können Daten partitioniert und auf verschiedenen Ebenen vorverarbeitet werden. Bei mehreren Sensoreinheiten z.B. bei einer gesamträumlichen
Erfassung können die einzelnen Sensoreinheiten gezielter mit geringerer Latenzzeit angesteuert werden.
Insbesondere kann der Sensor für verschiedene Anforderungen gezielt adaptiert wer- den. Im Fall einer Vielzahl sich bewegenden Objekten kann die Datenauslese und Datenauswertung gleichzeitig erfolgen und simultan alle Sensoreinheiten umfassen. Bei einer Vorverarbeitung der Auslesedaten kann auch die Updaterate der Geschwindigkeit der Objekte gezielter angepasst werden. Dadurch kann ein Datenstau auf mehreren Ebenen vermieden werden. Außerdem wird die Datengröße die zur Abbildung überge- ben wird durch eine Vorverarbeitung der Daten minimiert.
Das erfindungsgemäße Verfahren zur Bestimmung einer Position eines Objektes im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts, umfasst mindestens die Verfahrensschritte des Bereitstellens von mindestens zwei Sensoreinheiten und des Koppeins der mindestens zwei Sensoreinheiten mit einer zentralen Signalverarbeitungsvorrichtung. Innovativ ist, dass die einzelnen Steuerungs- und Auslese- und Verfahrensschritte, die als Gegenstand der Unteransprüche näher beschrieben werden, alle zentral auf der Signalverarbeitungsvorrichtung zusammengefasst werden können, ein Vielfaches des benötigten Datenspeichers kann dadurch reduziert werden. Außerdem dadurch, dass die Sensoreinheiten zentral gesteuert werden, können die einzelnen Verfahrensschritte partitioniert werden und in einer optimierten Reihenfolge durchgeführt werden, sowie Datenübertragungszeiten reduziert werden.
Das erfindungsgemäße Radarsystem umfasst das erfindungsgemäße Verfahren und die erfindungsmäße Vorrichtung. Ein Vorteil, der sich für das Gesamtsystem ergibt, ist die kompakte und kostengünstige Bauweise, die durch die Reduktion der Steuerungsund Ausleseeinheiten auf eine einzelne ermöglicht wird. Diese Radarsysteme lassen sich kompakter und kostengünstiger herstellen und warten. Bei der Verwendung als Hubschrauberradar wird auf einfache Weise eine 360° Abdeckung ermöglicht.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche. Die mindestens zwei Sensoreinheiten sind so ausgelegt, dass aus den jeweiligen, durch die Signalverarbeitungsvorrichtung ausgelesenen Daten, ein einzelnes, erweitertes virtuelles Gesichtsfeld von der Signalverarbeitungsvorrichtung erstellt wird. Dies wird ermöglicht durch die Auswahl der Hauptstrahlungsrichtung und/oder durch räumliche Ausrichtung der einzelnen Sensoreinheiten sowohl in einer horizontalen als auch vertikalen Richtung. Die einzelnen Sensoreinheiten werden von der Signalverarbeitungsvorrichtung angesteuert und ausgerichtet, sowohl in einer vertikalen wie auch in einer horizontalen Richtung. Durch diese Positionierung der benachbarten Sensoreinheiten in einem Sensorgehäuse wird ermöglicht, dass sich die Gesichtsfelder der einzelnen Sensoreinheiten um einige Grade des Öffnungswinkels überlagern.
In einer weiteren Ausführungsform können zwei oder mehr Sensoreinheiten planar parallel zueinander angeordnet werden, wenn sie über eine entsprechende Hauptstrahlrichtung verfügen. Die unterschiedliche Richtung der Öffnung des Gesichtsfeldes wird somit durch die unterschiedliche Abstrahlcharakteristik umgesetzt. Durch eine bevor- zugte Anordnung in dieser Ausführungsform wird durch die Ausrichtung der einzelnen
Sensoreinheiten die Überdeckung des gesamten Gesichtsfeldes des Sensors erreicht. Die zentrale Signalverarbeitungsvorrichtung ist so konzipiert, dass die Empfangssignale von den Sensoreinheiten nach einem Multiplexverfahren ausgelesen werden können. Multiplexverfahren benötigen eine simultane Verknüpfung aller Sensoreinheiten an die Signalverarbeitungsvorrichtung.
Dabei hat sich als besonders vorteilhaft erwiesen, dass die zentrale Signalverarbeitungsvorrichtung durch das steuern, auslesen und auswerten der einzelnen Sensoreinheiten selektierte Objektlisten aus den Empfangssignalen der einzelnen Sensoreinhei- ten erstellen kann. Diese Objektlisten stellen Empfangssignale der einzelnen Sensoreinheiten dar, die vorverarbeitet und vorselektiert wurden und dadurch eine erhebliche Minderung der Datenmengen und Größen bewirken. Daten können schneller verarbeitet werden ohne größere Rechenkapazitäten zu erfordern. In einer weiteren Ausführungsform bestehen die jeweiligen Sensoreinheiten aus einem
Frontend, das mindestens eine Sendeantenne und mindestens zwei, vorzugsweise vier, acht oder sechzehn, Empfängerantennen aufweist. Die Anordnung der Empfängerantennen in dem Frontend ist so ausgelegt, dass eine Bestimmung der Position in mindestens einer Ebene durch digitale Stahlformung ermöglicht wird. Durch die Anordnung der Senderantennen ist eine Positionsbestimmung in mindestens einer Ebene durch Phasenvergleich und/oder Amplitudenvergleich ermöglicht. Wobei die Anzahl der Empfängerantennen, an die für das Gesamtsystem notwendige Genauigkeit der Winkelbestimmung angepasst ist und ebenso die Sensitivität des Systems bestimmt. Die Beschaffenheit der Antennen ist ausgelegt, um in einem Frequenzband von einem
GHz bis zu einem THz betrieben werden zu können, bevorzugt liegt der Betriebsfrequenzbereich in einem Frequenzband von 5 bis 150 GHz, insbesondere im Bereich von 75 bis 85 GHz. Für die Anwendung im aeronautischen Bereich sind Millimeterwellen von Vorteil für die Höhenmessung. Millimeterwellen durchdringen dielektrische Stoffe wie Schneefall oder Nebel z.B. kann daher auch bei schlechter Sicht eine genaue Höhenmessung erfolgen. Auch kleinere Objekte bei schwierigen Sichtverhältnissen können erkannt werden. Je höher die Frequenz und die Bandbreite sind, desto besser ist die räumliche Auflösung.
Ferner sind die Empfänger und Sendeantennen in einer planaren Leiterplattentechnologie realisiert, die die Stabilität der Sensoreinheit verbessert. Verwendbar sind für die zentrale Signalverarbeitungsvorrichtung alle zum Zeitpunkt der Erfindung zur Signalauslese, Datenspeicherung, Datenverarbeitung geeigneten Vorrichtungen, erfindungsgemäß geeignet und umfasst auch zukünftig erfindungsgemäß geeignete Vorrichtungen.
Ferner werden von den Kanälen der Empfängerantennen der Receiver-Arrays die empfangenen Signale durch die Signalverarbeitungsvorrichtung mittels eines Zeitmulti- plexverfahrens, eines Frequenzmultiplexverfahrens, eines Codemultiplexverfahrens o- der einer Kombination aus diesen Verfahren ausgelesen. Die Verwendung von Multi- plexverfahren bei der Datenauslese erlaubt eine parallele Abfolge von Datenauslese und Auswertung. Auch eine größere Flexibilität des Systems durch die Auswahl oder die Kombination dieser Verfahren ist möglich. Bei allen Multiplexverfahren wird die Entfernungsbestimmung, die (Range-FFT), gleich nach der Digitalisierung der Analogsignaldaten durchgeführt. Dies birgt den Vorteil in sich, dass Objekte, deren Entfernung als nicht relevant für das Tracking betrachtet werden, an dieser Stelle aussortiert werden können um den Datensatz zu minimieren. Diese Objekte werden dann gar nicht in die Objektlisten aufgenommen.
Als besonders vorteilhaft erweist sich das Multiplexverfahren um die Daten aus allen Sensoreinheiten bereits auf Rohdatenebene auf dieselbe Bezugsgröße zu berechnen. Jede Sensoreinheit verfügt über einen eigenen Bezugsrahmen, in welchem die Objekte mit oben genannten Verfahren berechnet werden. Herkömmlicherweise werden diese Daten dann erst zur Verfolgung eines Objekts auf der Stufe des Trackers zusammengeführt. Die einzelnen Gesichtsfelder werden einzeln betrachtet, hieraus resultiert ein wesentlich größerer Bedarf an Rechenleistung und Zeitaufwand um die einzelnen Objekte der verschiedenen Bezugsrahmen auf denselben Bezugsrahmen zu parametrisie- ren.
Bei dem Zeitmultiplexverfahren werden die Sensoreinheiten zeitversetzt ausgelesen, d.h. der Übertragungskanal wird in Zeitscheiben eingeteilt und jeder Sensoreinheit wird ein Zeitintervall für die Übertragung zugeteilt. Dadurch können alle Sensoreinheiten in äußerst kurzen Zeitabständen nacheinander ausgelesen werden. Diese Stückelung er- laubt eine gestückelte Datenvorverarbeitung, z.B. nach dem die Analogsignale mittels eines AD-Wandlers in Digitaldaten umgewandelt wurden, kann eine erste schnelle Fourier-Transformation FFT erfolgen.
Die selektierten Daten werden von einer Trackingeinheit ausgewertet und für die Dar- Stellung als Datensatz transferiert. Die Signaldatenauslese, die Vorverarbeitung und die
Auswertung können simultan stattfinden. Während die Datenauswertung des ersten Zyklus noch andauert, kann die Datenauslese des zweiten Zyklus bereits stattfinden.
Bei dem Frequenzmultiplexing wird den Sensoreinheiten ein eigenes Frequenzband zu- geteilt und die Datenerfassung erfolgt simultan wie auch die Vorverarbeitung der Daten, d.h. nach dem die Analogsignale mittels eines AD-Wandlers in Digitaldaten umgewandelt wurden, kann eine erste schnelle Fourier-Transformation FFT erfolgen. Dies erfolgt für Sensoreinheiten simultan. Die selektierten Daten werden von einer Trackingeinheit ausgewertet und für die Darstellung als Datensatz transferiert. Die Signaldatenauslese, die Vorverarbeitung und die Auswertung können simultan stattfinden. Während die Datenauswertung des ersten Zyklus noch andauert, kann die Datenauslese des zweiten Zyklus bereits stattfinden. Das Code-Multiplexing erfasst die Daten ebenfalls simultan, den Sensoreinheiten wird ein Code zugeteilt und so kann die dem Datenstrom einer Sensoreinheit zugeordnet werden.
Ferner werden diese digitalisierten Daten die durch ein Multiplexverfahren ausgelesen wurden, nach der Methode der digitalen Strahlformung (Beamforming) zu einem gebündelten Antennenstrahl gebündelt. Dies ist ein Signalverarbeitungsverfahren, welches bei Sensorarrays für das richtungsabhängige Empfangen oder Senden von Signalen Verwendung findet. Außerdem werden eine Geschwindigkeitsberechnung und eine Entfernungsberechnung mittels einer zweidimensionalen FFT durchgeführt und anschließend kann durch einen sogenannten Falschalarmraten bzw. „Constant false alarm rate" CFAR-Algorithmus nach Objekten gesucht werden, welche sich aus dem Rauschen des Sensors oder vor störendem Hintergrund - sog. Clutter - hervorheben (Pre-targets). Die Berechnungsschritte der Entfernungs- und Geschwindigkeitsberechnung, Positionsbestimmung und das Differenzieren der Signale von dem Hintergrundrauschen und Bodenreflexionen erlaubt es nur diese Signale als relevante Objekte bereits auf Rohdaten- ebene zu selektieren. Es werden Objektlisten erstellt die aus diesen vorselektierten Sig- naldaten der Sensoreinheiten bestehen. Dadurch wird die Gesamtdatenmenge reduziert und vorbereitet, die eine schnellere Auswertung zufolge hat.
Ferner werden die Signaldaten der Sensoreinheiten so zusammengeführt, dass sie dieselben Bezugsgrößen und selben Bezugsrahmen aufweisen und somit das virtuelle Ge- sichtsfeld gebildet werden kann. Die Daten der einzelnen Sensoreinheiten werden in ein gemeinsames Bezugssystem transferiert, das als die Summe der einzelnen Gesichtsfelder betrachtet werden kann. Durch diese Parametrisierung auf ein System werden Überschneidungen nicht dargestellt. In einer Ausführungsform wird das Zusammenführen der Signaldaten auf einen Bezugsrahmen nach dem Bilden der Objektlisten durchgeführt.
In einer weiteren Ausführungsform wird das Zusammenführen der Signaldaten vor dem Bilden der Objektlisten durchgeführt. Dies kann nach dem Verknüpfen der Empfangs- Signale zu gebündelten Daten, oder nach der Geschwindigkeitsberechnung (Doppler-
FFT) oder nach der Entfernungsberechnung (Range FFT) durchgeführt werden.
Somit kann die Position eines Objektes, das ursprünglich in dem Gesichtsfeld einer Sensoreinheit ihre Bezugsgrößen hat, in dem virtuellen Gesichtsfeld mittels eines Tracking- Algorithmus dargestellt und verfolgt werden.
Besonders vorteilhaft ist das Zusammenführen der beiden oder mehrere Bezugssysteme zu einem einzigen virtuellen Bezugssystem, für das Tracking der Objekte. Da die einzelnen Objektpunkte nicht von einem in das andere System transferiert und verknüpft werden müssen, wird die auszuwertende Datenmenge verringert. Insbesondere da die
Daten vorverarbeitet und vorselektiert werden wird die Datenmenge verringert, dies ist besonders wichtig bei hohen Datenausleseraten die adhoc ausgewertet werden müssen, damit kein Pile-up oder Datenstau der Datenpakete entstehen kann. Herkömmlich kann dies in solchen Fällen durch größere oder eine Mehrzahl von Datenverarbeitungsvorrichtungen oder durch die Verlängerung der Datenauslesestrecken vermieden werden.
Unter Bezugnahme auf die nachfolgenden Zeichnungen sollen einzelne Ausführungsformen der vorliegenden Erfindung dargestellt werden. Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
Fig. 1 zeigt eine Antennenanordnung in einem Frontend.
Fig. 2 zeigt eine Ausführungsform mit einem Sensor mit drei Sensoreinheiten.
Fig. 3 zeigt eine weitere Ausführungsform mit einem Sensor mit zwei Sensoreinheiten.
Fig. 4 zeigt den Auslese- und Signalbearbeitungsablauf für einen Sensor mit 2 Sensoreinheiten mit einem Zeitmultiplexverfahren.
Fig. 5 zeigt in analoger Weise die Datenauslese und Auswertung für einen Sensor mit drei Sensoreinheiten.
Fig. 6 zeigt die zeitgleiche Datenauslese und Auswertung mit einem Frequenzmultiplexverfahren im Fall eines Sensors mit zwei Sensoreinheiten.
Fig. 7 zeigt einen Sensor mit zwei Sensoreinheiten mit dem Gesichtsfeld aus Strahlkeulen.
Fig. 8 zeigt eine verfolgte Objektspur die durch 2 Gesichtsfelder geht.
Fig. 9 zeigt die Verwendung zweier anmeldungsgemäßen Sensoren für eine 360° Abdeckung
Fig.10 zeigt die Verwendung der Sensoranordnung gemäß Fig. 9 in einem Helikop- tersystem Nachfolgend werden Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert.
Fig. 1 zeigt ein Beispiel der Antennenanordnung (100) in einem Frontend. Zwei Sende- antennen (1 ) sind an eine Steuer- und Ausleseeinheit (2) gekoppelt und ein Array (3) aus 8 Empfängerantennen ist an eine Steuer- und Ausleseeinheit (4) gekoppelt. Dieses in Fig. 1 gezeigte Frontend z.B. ist ausgelegt für eine Höhenbestimmung mittels Pha- senmonopuls, was durch die versetzt angeordneten Sendeantennen erreicht wird. Die Anordnung und das jeweilige Gesichtsfeld eines Sensors mit zwei oder drei Sensoreinheiten werden in den beiden folgenden Figuren veranschaulicht. Es ist auch gezeigt, dass die Geometrie des Gehäuses wie auch die Positionierung der Sensoreinheit abhängig von der Anzahl der verwendeten Sensoreinheiten und der beabsichtigten Überlappzone der Gesichtsfelder ist.
Fig. 2 zeigt eine Ausführungsform mit einem Sensor (200) mit drei Sensoreinheiten (21 , 22, 23), die jeweils eine Antennenanordnung (100) aufweisen, die in dem Sensorgehäuse (20) positioniert sind und jeweils schematisch ein Gesichtsfeld (21 1 , 221 , 231 ) umfassen.
Fig. 3 zeigt eine weitere Ausführungsform mit einem Sensor (300) mit zwei Sensoreinheiten (31 , 32) die jeweils eine Antennenanordnung (100) aufweisen, die in dem Sensorgehäuse (30) positioniert sind und jeweils schematisch ein Gesichtsfeld (31 1 , 321 ) umfassen.
Fig. 4 zeigt den Auslese- und Signalbearbeitungsablauf der Signalverarbeitungsvorrichtung für einen Sensor mit zwei Sensoreinheiten. Hierbei erfolgt die Datenauslese mit einem Zeitmultiplexverfahren. Die Fig. 4a) bis 4d) verdeutlichen die zeitliche Abfolge der einzelnen Ausleseschritte und die zeitgleiche Auswertung dieser ausgelesenen Da- ten. Fig. 4a) zeigt die zeitliche Aktivierungsabfolge der zwei Sensoreinheiten. In einer ersten Zeitspanne im Mikrosekundenbereich wird die Antennenanordnung des Frontends der ersten Sensoreinheit aktiviert, nach einer Umschaltdauer wird die erste Sensoreinheit deaktiviert und die zweite Sensoreinheit aktiviert. Fig. 4b) zeigt respektive die zeitliche Abfolge der einzelnen zeitportionierten Signaldatenauslese. Fig. 4c) zeigt das die Daten als zeitportionierte Datenpakete weiter verarbeitet werden. Das zeitportio- nierte Analogsignal wird mittels AD-Wandler in ein Digitaldatenpaket gewandelt, auf dieses Datenpaket wird eine Fast-Fourier-Transformation zu einer Entfernungsberechnung (Range-FFT) angewendet, bevor die Daten in dieser Form zur Zwischenspeicherung oder Weiterverarbeitung übergeben werden. Diese Datenverarbeitung erfolgt zeitgleich zur Datenaufnahme wie in Fig. 4b) gezeigt wird. Letztlich wird in Fig. 4d) die gesamte zeitliche Abfolge des Signalverarbeitungszyklus als Ganzes gezeigt.
Nach einer Datenauslese und Vorverarbeitung der Daten, wie sie in den Fig. 4a) bis 4c) gezeigt wird, der Datensatz der jeweiligen Sensoraktivierungszeiteinheiten RF1 und RF2 ausgewertet mittels einer Geschwindigkeitsberechnung (Doppler-FFT) und mit der Methode der Strahlformung wird die Position bestimmt und ein Objekterkennungsalgorithmus selektiert die Objektdaten aus diesen Sensoraktivierungszeiteinheiten.
Die Fig. 5 zeigt in analoger Weise die Datenauslese und Auswertung im Fall eines Sensors mit drei Sensoreinheiten.
Fig. 6 zeigt, wo die zeitgleiche Datenauslese und Auswertung mit einem Frequenzmultiplexverfahren im Fall eines Sensors mit zwei Sensoreinheiten zu sehen ist. In Fig. 6a) ist die in einem Zeitintervall zeitgleiche Datenauslese der beiden Sensoreinheiten, welche beide zeitgleich aktiviert wurden, zu sehen. Fig. 6b) zeigt, dass jeder Sensoreinheit ein bestimmtes Frequenzband zugeordnet wurde, die zeitgleich empfangenen Analogsignale sind der jeweiligen Sensoreinheit zuordenbar. Ferner zeigt Fig. 6c) die Vorverarbeitung der Signaldaten aus einem Zeitintervall. Die Analogsignale beider Sensoreinheiten werden mittels eines AD-Wandlers in Digitaldatenpakete umgewandelt und auf diese Datenpakete wird eine Fast-Fourier-Transformation für eine Entfernungsbe- rechnung (Range-FFT) angewendet, bevor die Daten in dieser Form zur Zwischenspeicherung oder Weiterverarbeitung übergeben werden. Die gesamte zeitliche Abfolge des Signalverarbeitungszyklus wird in Fig. 6d) dargestellt. Nach einer Datenauslese und Vorverarbeitung der Daten, wie sie in den Fig. 6a) bis 6c) gezeigt ist, wird der Datensatz beider Sensoreinheiten gemeinsam ausgewertet, mittels einer Geschwindigkeitsberech- nung (Doppler-FFT) und mit der Methode der Strahlformung wird die Position bestimmt und ein Objekterkennungsalgorithmus selektiert die Objektdaten aus dieser gemeinsamen Sensoraktivierungszeiteinheit.
Die Überlagerung der Öffnungswinkel der einzelnen benachbarten Sensoreinheiten ist aus der Fig. 7 zu sehen, die einen Sensor (300) mit zwei Sensoreinheiten wie in Fig. 3 gezeigt, mit durch die Strahlformung gebildete Strahlkeulen, die zusammen jeweils ein Gesichtsfeld für eine Sensoreinheit bilden. Beide Gesichtsfelder (71 , 72) zusammen und mit den zwei sich überlappenden Strahlkeulen (73) kann ein durchgehendes erweitertes Gesichtsfeld bereitgestellt werden. Fig. 8 zeigt einen Sensor (300) mit zwei Sensoreinheiten, wie sie in Fig. 3 zu sehen sind, mit durch die Strahlformung gebildeten Strahlkeulen die zusammen jeweils ein Gesichtsfeld für eine Sensoreinheit bilden. Durch beide Gesichtsfelder (71 , 72) zusammen und mit den zwei sich überlappenden Strahlkeulen (73) kann ein durchgehendes erweitertes Gesichtsfeld bereitgestellt werden. Schematisch ist die Einzelbetrachtung der Gesichtsfelder in Fig. 8 zu sehen, die die aus den Strahlkeulen (73) gebildeten Gesichtsfelder (71 , 72) und den Überlappungsbereich zeigt. Wobei in Fig. 8a) noch beide Gesichtsfelder und der Überlappungsbereich dargestellt sind und die verfolgte Objektspur von einem Gesichtsfeld in das andere übergeht. Der Objektspurpunkt 4 wird von beiden Sensoreinheiten ausgelesen und ausgewertet und dann von einem Bezugssys- tem in das andere transferiert. Hingegen zeigt Fig. 8b), dass dieselbe Objektspur in einem virtuellen erweiterten Gesichtsfeld wie es beispielsweise in Fig. 7 und Fig. 8a) dargestellt ist, aus den Gesichtsfeldern der einzelnen Sensoreinheiten gebildet wird.
Als besondere Verwendung ist ein Hubschrauberradar angedacht, wobei der entscheidende Vorteil darin besteht, dass eine komplette 360° Rundumabdeckung des Umfelds mit lediglich 2 Sensorgeräten erreicht werden kann, die fest an der Helikopterstruktur unterhalb der Rotorachse montiert sind, ohne die Notwendigkeit zusätzlicher Auf- oder Anbauten. Zusätzlich kann durch die hohe Integration der einzelnen Komponenten das gesamte System mit diesen 2 Sen- sorgeräten umgesetzt werden, da sie als sogenannte Smart Sensoren ausgelegt werden können. Dabei werden die gesamte Datenverarbeitung und die Erzeugung eines 360° Statusreports innerhalb der Sensorgeräte umgesetzt. Dazu findet zum einen eine Kommunikation zwischen den bevorzugt zwei Sensoren statt, die vorzugsweise an der linken & rechten Seite des Hubschraubers oder vorne & hinten am Hubschrauber angebracht sind. Ebenso findet eine Kommunikation mit dem Avioniksystem des Hubschraubers statt, an das die erfassten Hindernisse gesendet werden. Somit ist eine Berechnung oder Bewertung der Daten innerhalb der Hubschrauberavionik nicht mehr notwendig, lediglich die Ausgabe an das HMI (Human-Maschine-Interface) in Form von optischen und/oder akus- tischen Signalen und Warnhinweisen wird von der Avionik übernommen. Für die Variante zur Nachrüstung von bereits im Betrieb befindlichen Helikoptern oder Standalone Integrationen wird statt der Anbindung über die Avionik eine zusätzliche Interface-Box benötigt, die aus den Informationen der einzelnen beobachteten Bereiche eine Displayanzeige und/oder ein akustisches Signal generiert. In jedem Fall wird die gesamte Sensorsystemfunktionalität ausschließlich in den Sensorgeräten untergebracht.
Dabei werden zunächst in einem Sensorgehäuse zwei oder mehr, vorzugsweise drei Einzelfrontends im Sensorgehäuse angebracht, so dass die einzelnen FoV von zwei benachbarten Frontends sich um einige Grad des Öffnungswickels überlagern.
Dafür werden zunächst die Radar-Rohdaten aufbereitet und zu einem Gesamtbild für die einzelne Sensoreinheit zusammengefasst. Die so berechneten Pre- Targets werden nun über mehrere Messungen hinweg plausibilisiert und zu Tracks zusammengefasst. Dabei werden auch weitere Systeminputs (soweit in der jeweiligen Hubschrauberinstallation vorhanden) berücksichtigt, wie z.B. Geschwindigkeit über Grund, Drehungen des Helikopters und weitere. Außerdem werden die Track-Informationen mit den zusammen geschlossenen benachbarten Sensoreinheiten (falls vorhanden) ausgetauscht um ein Gesamtbild für eine 360° Abdeckung zu erreichen. Eine einzelne Sensoreinheit hat jeweils einen maximalen überwachten Bereich von bis zu 200° Azimut. Die einzelnen Sensoreinheiten sind so ausgelegt, dass sie direkt ohne Anpassungen mit weiteren gleichen Sensoreinheiten zu einem Gesamtsensorsystem zusammen geschaltet werden können. Hierzu ist keine weitere elektronische Hardware erforderlich, eine einfache Kabelverbindung reicht aus. Somit lassen sich größere Bereiche überwachen und auch zusätzliche Sensoren installieren um auch mögliche durch Anbauten oder ähnliches verursachte tote Winkel abzudecken.
In Fig. 9 sind lediglich zwei erfindungsgemäße Vorrichtungen aneinander liegend so schematisch angeordnet, dass eine 360° Abdeckung ermöglicht wird. In dieser Ausführungsform ist es ebenso von Vorteil, wenn jeweils 3 Sensoreinheiten verwendet werden. In Fig. 10 sind ferner das Anordnungsbeispiel als Hubschrauberradar dargestellt, und zwar die entsprechende Platzierung der beiden erfindungsmaßen Vorrichtungen an dem Hubschrauber. Deutlich ist in Fig. 10 die 360° Abdeckung darge- stellt, die zusätzlich zwei Überlappungsbereiche erkennen lässt.

Claims

Ansprüche
Vorrichtung zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts dadurch gekennzeichnet, dass die Vorrichtung mindestens zwei Sensoreinheiten aufweist, wobei jede Sensoreinheit ein Gesichtsfeld (FoV) aufweist, und wobei alle Sensoreinheiten über eine zentrale Signalverarbeitungsvorrichtung gekoppelt sind.
Vorrichtung nach Anspruch 1 , gekennzeichnet durch ein virtuelles Gesichtsfeld das aus den Daten aller Sensoreinheiten gebildet wird um ein einzelnes erweitertes Gesichtsfeld bereitzustellen.
Vorrichtung nach Anspruch 2, wobei das erweiterte Gesichtsfeld durch das Ausrichten der Sensoreinheiten und/oder durch unterschiedliche Hauptstrahlungsrichtungen (Main-Beamdirection) erzeugt wird.
Vorrichtung nach einem der Ansprüche 1 bis 3, wobei die Erfassung von Empfangssignalen von den mindestens zwei Sensoreinheiten nach einem Multiplexverfahren erfolgt.
Vorrichtung nach einem der Ansprüche 1 bis 4, wobei die Signalverarbeitungsvorrichtung so ausgelegt ist, um selektierte Objektlisten aus den Empfangssignalen zu erstellt.
Vorrichtung nach einem der Ansprüche 1 bis 5, wobei die Sensoreinheit ein Frontend aufweist, das mindestens zwei Empfängerantennen und mindestens eine Sendeantenne aufweist.
Vorrichtung nach Anspruch 6, wobei ein Frontend bevorzugt vier, acht oder sechzehn Empfängerantennen aufweist.
Vorrichtung nach Anspruch 6 oder 7, wobei die Empfängerantennen so angeordnet sind, dass eine Positionsbestimmung in mindestens einer Ebene durch digitale Strahlformung ermöglicht wird. Vorrichtung nach Anspruch 6, 7 oder 8, wobei die Senderantennen so angeordnet sind, dass eine Positionsbestimmung in mindestens einer Ebene durch Phasenvergleich und/oder Amplitudenvergleich ermöglicht wird.
Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Sensoreinheiten im Frequenzband von 1 GHz bis 1 THz, bevorzugt im Bereich von 5 GHz bis 150 GHz und insbesondere im Bereich von 75 GHz bis 85 GHz betrieben werden.
Vorrichtung nach einem der Ansprüche 6 bis 10, wobei die Empfängerantennen und Sendeantennen in einer planaren Leiterplattentechnologie realisiert wurden.
Verfahren zur Bestimmung einer Position eines Objekts, insbesondere eines sich bewegenden Objekts, mit den Verfahrensschritten:
Bereitstellen von mindestens zwei Sensoreinheiten;
Koppeln der mindestens zwei Sensoreinheiten mit einer zentralen Signalverarbeitungsvorrichtung.
Verfahren nach Anspruch 12, wobei die Empfangssignale der einzelnen Frontends, nach einem Multiplexverfahren gebündelt werden, welches ein Zeitmultiplexverfahren, ein Frequenzmultiplexverfahren, ein
Codemultiplexverfahren oder eine beliebige Kombination aus diesen Multiplexverfahren ist.
Verfahren nach einem der Ansprüche 12 oder 13, wobei die Empfangssignale nach der Methode der digitalen Strahlformung zu einem gebündelten Antennenstrahl gebündelt werden.
Verfahren nach Anspruch 14, wobei einer Geschwindigkeitskorrektur und einer Entfernungskorrektur mittels einer zweidimensionalen FFT durch Vergleich von Ausgangssignalen von sich überlagernden Antennenzeilen, welche dem gebündelten Antennenstrahl entsprechen, durchgeführt wird.
Verfahren nach einem der Ansprüche 12 bis 15, umfasst des Weiteren ein Selektionsverfahren und Objekterkennungsverfahren die so ausgelegt sind um Objektlisten aus den selektierten Daten zu erstellen. Verfahren nach einem der Ansprüche 12 bis 16, umfasst des Weiteren das Zusammenführen selektierter Daten zur gemeinsamen Auswertung.
Verfahren nach einem der Ansprüche 12 bis 17, wobei das Zusammenführen der selektierten Daten den Schritt des Umwandeins der selektierten Daten auf gemeinsame Bezugsgrößen umfasst, wobei die einzelnen objektgebundenen Bezugsgrößen von den jeweiligen Frontends bei der Zusammenführung der Daten für das virtuelle Gesichtsfeld (FoV) so umgewandelt werden, dass die Position des Objekts in einem virtuellen Gesichtsfeld dargestellt werden kann.
Verfahren nach einem der Ansprüche 12 bis 18, wobei die Zusammenführung der
selektierten Daten für das gesamte virtuelle Gesichtsfeld (FoV) eines virtuellen Sensors nach Bilden der Objektlisten erfolgt.
Verfahren nach einem der Ansprüche 12 bis 18, wobei die Zusammenführung der
selektierten Daten für das gesamte virtuelle Gesichtsfeld (FoV) vor dem Bilden der
Objektliste erfolgt, insbesondere nach dem Verknüpfen der Empfangssignale zu gebündelten Daten, oder nach der Geschwindigkeitsberechnung
(Doppler-FFT), oder nach der Entfernungsberechnung (Range FFT).
Verfahren nach einem der Ansprüche 12 bis 20, wobei das virtuelle Gesichtsfeld aus den Daten aller Sensoreinheiten gebildet wird um ein einzelnes erweitertes Gesichtsfeld bereitzustellen.
Verfahren nach einem der Ansprüche 12 bis 21 , wobei das Auswerten der Daten einen Objekt-Tracking Algorithmus umfasst, der auf die zusammengeführten selektierten Daten angewendet wird.
Radarsystem zur Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 11 und dem Verfahren nach einem der Ansprüche 12 bis 22 zur Bestimmung einer Position eines Objekts im dreidimensionalen Raum, insbesondere eines sich bewegenden Objekts.
Verwendung des Radarsystems in einem Hubschrauberradar.
EP16784532.0A 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren Ceased EP3368916A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP23189579.8A EP4249938A3 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015221163.0A DE102015221163A1 (de) 2015-10-29 2015-10-29 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
DE102016205227.6A DE102016205227A1 (de) 2016-03-30 2016-03-30 Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
PCT/EP2016/075424 WO2017072048A1 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Related Child Applications (1)

Application Number Title Priority Date Filing Date
EP23189579.8A Division EP4249938A3 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Publications (1)

Publication Number Publication Date
EP3368916A1 true EP3368916A1 (de) 2018-09-05

Family

ID=57178432

Family Applications (2)

Application Number Title Priority Date Filing Date
EP16784532.0A Ceased EP3368916A1 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
EP23189579.8A Pending EP4249938A3 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Family Applications After (1)

Application Number Title Priority Date Filing Date
EP23189579.8A Pending EP4249938A3 (de) 2015-10-29 2016-10-21 Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren

Country Status (3)

Country Link
US (1) US10877145B2 (de)
EP (2) EP3368916A1 (de)
WO (1) WO2017072048A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10935650B2 (en) * 2017-12-22 2021-03-02 Waymo Llc Radar based three dimensional point cloud for autonomous vehicles
JP6954863B2 (ja) * 2018-04-06 2021-10-27 株式会社Soken レーダシステム
EP4094094A4 (de) * 2020-01-22 2024-02-21 Radomatics Ltd. Radarsysteme und verfahren
CN112180372A (zh) * 2020-08-19 2021-01-05 福瑞泰克智能***有限公司 一种基于双角雷达的目标检测方法、装置和雷达***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6087928A (en) * 1995-10-31 2000-07-11 Breed Automotive Technology, Inc. Predictive impact sensing system for vehicular safety restraint systems
DE19705834A1 (de) 1997-02-15 1998-08-20 Itt Mfg Enterprises Inc Mit Mikrowellen arbeitende Abstandsmeßeinrichtung für Kraftfahrzeuge
US6025800A (en) * 1998-10-02 2000-02-15 Honeywell Inc. Interferomeric synthetic aperture radar altimeter
US6707419B2 (en) * 2000-08-16 2004-03-16 Raytheon Company Radar transmitter circuitry and techniques
US6784828B2 (en) * 2000-08-16 2004-08-31 Raytheon Company Near object detection system
JP4665590B2 (ja) * 2005-03-31 2011-04-06 日本電気株式会社 干渉型レーダ
DE102006053354B4 (de) 2006-11-10 2010-03-11 Eurocopter Deutschland Gmbh Rundum-Warnsystem für Hubschrauber
US7737880B2 (en) * 2008-10-22 2010-06-15 Honeywell International Inc. Microwave and millimeterwave radar sensors
JP4766404B2 (ja) * 2008-10-28 2011-09-07 トヨタ自動車株式会社 レーダ装置
FR2995088B1 (fr) * 2012-08-28 2015-08-21 Rockwell Collins France Systeme pour proteger une plateforme aeroportee contre des collisions
ITMI20121793A1 (it) 2012-10-23 2014-04-24 Copan Italia Spa Elemento di chiusura di un contenitore per fluidi biologici
US10168425B2 (en) * 2014-07-03 2019-01-01 GM Global Technology Operations LLC Centralized vehicle radar methods and systems

Also Published As

Publication number Publication date
EP4249938A2 (de) 2023-09-27
EP4249938A3 (de) 2023-11-22
WO2017072048A1 (de) 2017-05-04
US10877145B2 (en) 2020-12-29
US20180313952A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
DE102016205227A1 (de) Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
EP2725382B1 (de) Synthetisches Apertur Radar zur gleichzeitigen Bildaufnahme und Bewegtzielerkennung
EP2753950B1 (de) Abbildender radarsensor mit synthetischer vergrösserung der antennenapertur und zweidimensionaler strahlschwenkung
DE10143561B4 (de) Verfahren und System zur Lokalisierung von Emittern
DE102020100286A1 (de) Deep learning für superauflösung in einem radarsystem
DE102018207718A1 (de) Verfahren zur Phasenkalibrierung von Hochfrequenzbausteinen eines Radarsensors
DE102011083756A1 (de) Radar-Vorrichtung und Verfahren zum Erzeugen einer Gruppencharakteristik eines Radars
EP2756329A1 (de) Abbildender radarsensor mit schmaler antennenkeule und weitem winkel-detektionsbereich
DE102006022814A1 (de) Hochauflösendes Synthetik-Apertur-Seitenansicht-Radarsystem mittels Digital Beamforming
EP3368916A1 (de) Verfahren und vorrichtung zur verfolgung von objekten, insbesondere sich bewegenden objekten, in den dreidimensionalen raum von abbildenden radarsensoren
DE102015221163A1 (de) Verfahren und Vorrichtung zur Verfolgung von Objekten, insbesondere sich bewegenden Objekten, in den dreidimensionalen Raum von abbildenden Radarsensoren
DE2734998A1 (de) Doppler-radar-system als sicherheitseinrichtung fuer fahrzeuge
DE10258367A1 (de) Mehrzielfähiges Verfahren und mehrzielfähige Sensorvorrichtung für die Abstands- und Winkelortung von Zielobjekten im Nahbereich
WO2020069831A1 (de) 360°-mimo-radarsystem mit multiplen radarsensoren und phasenkalibrierung via überlappende virtuelle tx- und rx-antennen benachbarter radarsensoren
EP2630514A1 (de) Verfahren und vorrichtung zur objekterfassung
WO2018197346A1 (de) Verfahren zum betrieb eines radarsensors in einem kraftfahrzeug, radarsensor und kraftfahrzeug
DE102013216461A1 (de) Synthetik-Apertur-Radarverfahren
DE2240749A1 (de) Verfahren zur erfassung von in der luft, im raum oder unter wasser befindlichen objekten durch reflexion elektromagnetischer oder akustischer wellen
EP0616232B1 (de) Verkehrsradargerät
EP2722686A1 (de) Interferometrisches SAR-System
DE102006059623B3 (de) Verfahren und System zur Positionsbestimmung
EP0447874B1 (de) Signalverarbeitungsverfahren und Signalverarbeitunsanordnung für eine Pulsradaranlage
WO2020069922A1 (de) Verfahren zur bereitstellung von objektinformationen von statischen objekten in einer umgebung eines fahrzeuges
EP2270539A2 (de) Antennensteuerung für einen Radarsensor
EP4139706A1 (de) Radar-verfahren und radar-system zur phasenkohärenten auswertung

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180327

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20201016

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20230616