WO2021089938A1 - Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques - Google Patents

Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques Download PDF

Info

Publication number
WO2021089938A1
WO2021089938A1 PCT/FR2020/051983 FR2020051983W WO2021089938A1 WO 2021089938 A1 WO2021089938 A1 WO 2021089938A1 FR 2020051983 W FR2020051983 W FR 2020051983W WO 2021089938 A1 WO2021089938 A1 WO 2021089938A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
radar
view
field
trajectory
Prior art date
Application number
PCT/FR2020/051983
Other languages
English (en)
Inventor
Benjamin GIGLEUX
Julien CANTEGREIL
Henri CARRON
Original Assignee
Spaceable
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spaceable filed Critical Spaceable
Priority to JP2022526042A priority Critical patent/JP2023501349A/ja
Priority to EP20819807.7A priority patent/EP4038412A1/fr
Priority to US17/755,666 priority patent/US20220390605A1/en
Priority to CA3161114A priority patent/CA3161114A1/fr
Publication of WO2021089938A1 publication Critical patent/WO2021089938A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1078Maintenance satellites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors

Definitions

  • the present invention relates to a system on board a space vehicle for the detection, location and tracking of a space object, hereinafter referred to as "target".
  • the target can be cooperative or non-cooperative, and maneuverable or non-maneuverable.
  • the invention relates more particularly to a navigation system on board a space vehicle, hereinafter referred to as "hunter", this navigation system being configured to perform a "space rendezvous", that is to say to bring the hunter. towards the target, in order to carry out proximity operations with the target, such as an inspection, a formation flight or a mooring, while limiting the risk of collision.
  • a space rendezvous that is to say to bring the hunter. towards the target, in order to carry out proximity operations with the target, such as an inspection, a formation flight or a mooring, while limiting the risk of collision.
  • the existing navigation systems suitable for carrying out such a mission generally employ a single active electromagnetic radar or lidar sensor.
  • Some navigation systems can combine an active sensor with one or more passive sensors, such as infrared cameras or cameras in the field of visible optics offering a wide field of view. Indeed, the joint use of one or more passive sensors improves the performance of these systems compared to the use of a single active sensor. However, the performance of these passive sensors can be greatly degraded in the event of a rapid transition between day and night or between night and day. These passive sensors can also be damaged by exposure to direct sunlight. Passive sensors, even when used in combination with an active sensor, therefore do not improve performance and therefore solve the problem of short range flight safety under all operational conditions that may arise.
  • the active sensors with a narrow field of view generally used for space rendezvous missions, namely radars with directional antennas and scanning lidars do not make it possible to resolve this problem.
  • Such flickering phenomena correspond to a large variation in the radar (or lidar) signal re-emitted by the target in the direction of the radar (or lidar). These variations depend on the orientation of the target relative to the sensor, the geometry of the target, the flight conditions, etc.
  • Embodiments relate to a method of tracking a target located on a known trajectory by a space vehicle, the method comprising an acquisition phase comprising the steps of: activating a lidar system in scan mode to scan a region in a estimated direction of a target, acquire signals from the lidar system, determine target trajectory data, using signals acquired from the lidar system, engage the spacecraft on an inbound or inspection trajectory of the target , determined according to target trajectory data, and if the target is no longer detected in the acquisition phase, activating a detection phase at a short distance from the target, comprising the steps of: activating a wide-field-of-view radar, acquiring and process signals from the wide field of vision radar, to detect the target, and if the target is detected in the signals from the wide field of vision radar, activate the acquisition phase, otherwise engage the space vehicle on a trajectory away from the target.
  • the method comprises a phase of long-range detection, comprising steps consisting in: activating a narrow-field-of-view radar in scanning mode in the space vehicle, acquiring and processing signals coming from the field-of-view radar. narrow vision, to detect a target, and if a target is detected in signals from the narrow field of view radar, determining target trajectory data, based on the signals acquired from the narrow field of view radar , and activate the acquisition phase.
  • the method comprises steps consisting in: receiving from a communication system static parameters of the trajectory of the target, estimating the trajectory data of the target as a function of the static parameters of the trajectory, and activating the phase long-range detection when the estimated position of the target is at a distance from the spacecraft less than a first distance threshold value.
  • the method comprises, upon activation of the long-range detection phase, steps consisting in pointing the lidar system in a direction estimated as a function of the target trajectory data, and acquiring and processing data. signals from the lidar system to detect the target.
  • a narrow-field-of-view radar is activated at the same time as the lidar system, data from the narrow-field-of-view radar and the lidar system being merged using Kalman filters to refine the data. target trajectory data.
  • the wide field of vision radar is activated alternately with a narrow field of vision radar when the space vehicle is on the outbound trajectory.
  • the lidar system when the target is detected by the wide field of view radar, the lidar system is pointed in an initial direction defined by target trajectory data, determined from the signals from the field of view radar. wide vision or a radar with a narrow field of vision, then, in the absence of detection of the target by the lidar system, in successive directions located along a first scan pattern.
  • a narrow field of view radar is pointed in an initial direction defined by the target trajectory data, determined from the signals from the wide field of view radar, then, in the absence of detection by the narrow field of view radar, in successive directions along a second scan pattern.
  • the distance between the space vehicle and the target is compared with a second distance threshold value. less than the first distance value and defining a target inspection zone where the spacecraft is engaged on a target inspection path.
  • the method comprises a step of estimating a risk of collision with the target in the short-range detection phase or the acquisition phase, as a function of a trajectory followed by the space vehicle and estimated trajectory data of the target, and engage the spacecraft on the outbound trajectory if the risk of collision is greater than a threshold value.
  • Embodiments may also relate to a computer program product loadable into a memory and which, when executed by a computer connected to the memory, configures the computer to implement the previously defined method.
  • Embodiments may also relate to a computer comprising interface circuits for receiving data from a wide field of view radar and a lidar system, the computer being configured to implement the method defined above.
  • the interface circuits are configured to receive data from a radar with a narrow field of view, or well for transmitting commands and receiving data from a radar system with a field of view configurable between a wide field of view and a narrow field of view.
  • Embodiments can also relate to a space vehicle comprising the previously defined computer, a radar with a wide field of view and a lidar system.
  • FIG. 1 schematically represents a space vehicle performing the function of a fighter, according to one embodiment
  • FIG. 2 schematically represents fields of view of a radar system on board the space vehicle, according to one embodiment
  • FIG. 3 schematically represents a functional architecture of a navigation system on board the space vehicle, according to one embodiment
  • FIG. 4 schematically represents a hardware architecture of the navigation system on board the space vehicle, according to one embodiment
  • FIG. 5 schematically represents a hardware architecture of a mission computer of the navigation system
  • FIG. 6 schematically illustrates different phases of a space rendezvous mission of the spacecraft with respect to a target, according to one embodiment
  • FIG. 7 represents a state and transition diagram illustrating the operation of the navigation system, according to one embodiment.
  • a space vehicle jointly uses a radar with a modular field of view in an analog or digital fashion, and an analog or digital scanning lidar within the framework of a space rendezvous between the space vehicle (or fighter) and a space object (or target), in particular to allow the hunter to carry out proximity operations on the target.
  • the variable field of view of the radar makes it possible to optimize the link budget in a specific direction or, on the contrary, to cover a large field of vision instantly.
  • the lidar sensor scanning makes it possible to achieve the angular resolution and precision necessary for the safety of proximity operations carried out by the hunter.
  • Other sensors can be used in combination to improve target detection and tracking performance.
  • Proximity operations carried out by the hunter can be an inspection of the target and / or its immediate environment (presence of debris, space weather, analysis of the electromagnetic spectrum), mooring of the hunter to the target and / or a maintenance operation of the target.
  • the target can be a satellite, a space station, a space vehicle or a piece of debris orbiting a star or following a known trajectory in the solar system.
  • the radar is first used in a narrow or directional field of view, to gradually scan the hunter's environment, until the target is detected and located.
  • Lidar can be used to confirm the detection of the radar and to refine the target location data, provided by the radar.
  • the wide-field-of-view radar is used with a higher refresh rate than when the target is detected, to quickly find the target and direct the lidar towards the target to refine its localization.
  • the invention thus makes it possible to recover the tracking of the target within a short time and to compare two independent measurements of the position of the target, in particular to interrupt the rendezvous in the event of an anomaly.
  • the joint use of two spectrally distant detection means makes it possible to reduce the risks of loss of tracking of the target, caused in particular by the flicker of the target in a given spectral band. The safety of short-range flight is thus increased.
  • FIG. 1 represents a space vehicle 101, according to one embodiment.
  • the hunter 101 is equipped with solar panels 102 to recover solar radiation from energy which is stored in batteries supplying electricity to on-board systems.
  • the hunter 101 can include an imager 103 in the visible domain for photographing a target during a target inspection phase.
  • the hunter 101 can be of the nano-satellite type.
  • the hunter 101 can also include one or more of the following devices: an imager in the infrared range, a spectrum analyzer, a remote control configured to transmit commands to the target, a space weather analyzer configured to perform monitoring operations. desired proximity.
  • the hunter 101 comprises a telecommunications system 104 providing a communication link between the hunter and one or more earth or space stations.
  • the hunter 101 can thus receive mission orders from an operator.
  • the received mission orders may include data characterizing a trajectory making it possible to estimate the position of a target at any time, this data being referred to in the following as "static trajectory parameters".
  • Telecommunications circuits also allow the hunter to transmit spatial data collected during the inspection of a target to a ground or space station.
  • the hunter 101 comprises a radar system with a configurable field of view comprising a transmitting antenna 105 and several receiving antennas 106.
  • the transmitting antenna 105 transmits an incident radar signal propagating in space, and reflecting off one or more targets that may be in the field of the incident radar signal.
  • the reception antennas 106 collect the signals reflected by any targets.
  • the field of view of the radar system can be adjusted between a wide field of view and a narrow field of view.
  • the radar system comprises a wide field of view radar and a narrow field of view radar.
  • the hunter 101 comprises a scanning lidar 107.
  • This scanning can be carried out by a mechanical or electronic device.
  • FIG. 2 represents the fields of view 201, 202 of the radar system, according to one embodiment.
  • the radar system has a narrow field of view mode 201, in which the transmitted energy and the received energy are concentrated by the radar system in a given direction.
  • the narrow field of view has an angular width A1 which may be identical in azimuth and in elevation.
  • the angular width A1 is between 3 and 10 °, for example equal to 5 °.
  • the radar system has a wide field of view mode 202 used to observe a large angular sector almost instantaneously.
  • the wide field of vision has an angular width A2 which may be identical in azimuth and in elevation.
  • the angular width A2 is between 30 and 180 °, for example equal to 100 °.
  • the radar system is configured in narrow field of view mode when the target is at a distance from the hunter 101 between distances d1 and d2, and in wide field of view mode when the target is at a distance from the hunter 101. distance of the hunter less than distance d2.
  • the distance d1 is between 1 and 5 km
  • the distance d2 is between 50 m and 1000 m, for example equal to 500 m.
  • the distance d1 depends on the sensitivity of the radar system in narrow field of view mode, and on the radar equivalent surface area of the target, taking into account the parts of the target reflecting the radiation emitted by the latter towards the radar.
  • FIG. 3 shows the functional architecture of the hunter's navigation system 101, according to one embodiment.
  • the navigation system comprises: an MCLC mission computer, the COMC telecommunication system coupled to the MCLC computer by interface circuits 303, a NAVC navigation system coupled to the MCLC computer by interface circuits 305, the RDRS radar system coupled to the MCLC computer by interface circuits 307, the LDRS scanning lidar system coupled to the MCLC computer by interface circuits 309, and a spatial data acquisition system SDCC, to acquire information relating to a target and in its close vicinity, the SDCC system being coupled to the MCLC computer by interface circuits 311.
  • the SDCC system being coupled to the MCLC computer by interface circuits 311.
  • the MCLC computer is configured to receive mission orders from the COMC communication system, and to transmit data to the latter, through the interface circuit 303.
  • the MCLC computer is also configured to control the RDRS radar systems. and LDRS lidar and the NAVC navigation system, and receive and process data from these systems and the navigation system, via interface circuits 305, 307, 309.
  • a ground operator can transmit to the MCLC computer an inspection mission order including static parameters of a target's trajectory, allowing the approximate position of the target to be determined at any time.
  • the static trajectory parameters include orbital parameters which may include the semi-major axis of the orbit, the eccentricity of the orbit, the inclination of the orbital plane , the longitude of the ascending node, the argument of the periapsis and the moment of passage from the target to the periapsis.
  • the NAVC navigation system can include a GNSS receiver (“Global Navigation Satellite System” - geolocation and navigation by satellite system) configured to determine the position of the hunter 101 in a geocentric reference frame, one or more electric thrusters, inertia wheels and magneto-couplers to orient the hunter in a desired direction.
  • the navigation system can also include one or more chemical thrusters to orient the hunter in the desired direction, and a star finder to determine an orientation of the hunter with respect to the stars, this device being known to those skilled in the art. under the term "Star-Tracker".
  • the MCLC mission computer determines the trajectory to be followed by the hunter to position himself at the approach distance d1 from the assumed position of the target. For this, the MCLC mission computer uses the position of the hunter in a frame of reference, for example the geocentric frame of reference, provided by the navigation system NAVC and the static parameters of the trajectory of the target, received by the communication system COMC. The path to be followed is then implemented by the MCLC computer which determines navigation commands to be transmitted to the NAVC navigation system.
  • the RDRS radar system comprises a frequency-modulated continuous wave (FMCW) radar, operating in a frequency band between 0.1 GHz and 100 GHz. GHz, for example in the frequency band 14.3 GHz - 14.4 GHz.
  • FMCW frequency-modulated continuous wave
  • the radar is used to detect, locate and track the target as soon as the hunter arrives at the approach distance d1 from the supposed position of the target.
  • the LDRS lidar system comprises a mechanical or electronic scanning lidar.
  • the mechanically scanned lidar has servomotors to steer the lidar transmitting and receiving devices, based on commands from the MCLC mission computer.
  • the RDRS radar and LDRS lidar systems provide detection data to the MCLC computer, which correlates and merges this data to, if necessary, confirm the presence of the target and refine the estimation of its position.
  • the fusion algorithm uses Kalman filters known to those skilled in the art to merge radar data with lidar data.
  • FIG 4 shows the RDRS radar system, according to one embodiment.
  • the RDRS radar system includes the active electronically scanned transmission antenna 105, for example of the AESA antenna type ("Active Electronically Scanned Array").
  • the transmit antenna 105 has a control interface 402 for controlling the gain of the transmit antenna 105 and configure it for a wide field of view or a narrow or directional field of view.
  • the RDRS radar system also includes active, electronically scanned receiving antennas 106.
  • the comparison of the phases of the signals received by the antennas 106 makes it possible to determine the direction of arrival of the target.
  • the radar comprises at least three reception antennas 106 (four in the example of FIGS. 1 and 4).
  • Each reception antenna 403 comprises a control interface 404 making it possible to control the reception gain of the reception antennas and the field of view of the antennas in wide field or in narrow or directional field.
  • the RDRS radar system comprises TXC transmission circuits ensuring the generation of the radar signal to be transmitted which is supplied to the transmission antenna 401, and RXC reception circuits ensuring the functions of filtering and digitization of the signals received by the antennas. receiver 106.
  • An interface 407 allows the TXC and RXC circuits to synchronize.
  • the RDRS radar system also includes an RPRC radar signal processor for processing radar signals to detect and locate a target.
  • An interface 409 makes it possible to synchronize the RPRC processor with the TXC transmission circuits.
  • An interface 410 makes it possible to synchronize the RPRC processor with the RXC reception circuits.
  • a digital bus 411 ensures the transmission of the digitized signals by the reception circuits RXC to the processor RPRC.
  • the RDRS radar system also includes an input-output interface 412 allowing the RPRC radar processor to receive commands and provide trajectory data and data characterizing targets detected by the radar system.
  • the estimated "trajectory data" of a target denotes data defining at least two time-stamped positions of the target, these data being able to include estimated future positions, each position being able to be associated with an amplitude of error, or else data defining a time-stamped position, associated with data defining a time-stamped speed vector, the speed vector possibly also being associated with error amplitudes.
  • the RDRS radar system includes a wide field of view transmitting antenna and a narrow field of view transmitting antenna.
  • the antenna selection is made by means of a circulator which routes the radar signal to be transmitted to the specified antenna while isolating the unspecified antenna.
  • FIG. 5 schematically represents a hardware architecture of the MCLC mission computer on board the space vehicle, according to one embodiment.
  • the MCLC computer comprises: a central processing unit CPU configured to execute a mission program, a clock circuit CLK to provide a regular time reference to the computer, a non-volatile NVM memory, for example of the ROM type ("Read-Only Memory "- read-only memory) containing the information needed to initialize the processing unit CPU and the mission program, a random access memory VM, for example of the RAM (Random Access Memory) type allowing the storage of the data necessary for operation after starting the processing unit CPU and during the execution of the mission software, a circuit d '' IOC interface comprising input and / or output ports making it possible to connect the MCLC mission computer to other on-board systems (COMC, NAVC, RDRS, LDRS, SDCC), an AB address bus allowing the central unit CPU to specify an access address in the NVM, VM memories, or an input and / or output port of the I
  • the central processing unit CPU may include one or more processors, and in particular a processor dedicated to processing signals from the RDRS radar system and / or the LDRS lidar system.
  • processors can be dedicated to processing radar and lidar signals to correlate and merge these signals, for example by Kalman filters, and provide estimated trajectory data of objects detected by the RDRS radar system and / or the LDRS lidar system.
  • FIG. 6 illustrates an example of a mission entrusted to hunter 101, for example in the form of an order received by the communication system COMC.
  • this mission consists of an inspection of a target 502 located on a known trajectory. Prior to the start of this mission, fighter 101 is located on a hold path, awaiting a mission order.
  • the mission order specifies the static trajectory parameters of the target 502, for example orbital data in the case of a satellite orbiting a star.
  • a target inspection mission comprises:
  • the MCLC mission computer of fighter 101 controls the NAVC navigation system and uses the static parameters of the target trajectory to navigate and reach the distance d1 from the assumed position of target 502.
  • the MCLC mission computer controls the RDRS radar system so that it scans the environment in a directional field of view, until the target 502 is detected and located.
  • activation of the RDRS radar system can be performed periodically, in narrow field of view mode.
  • the MCLC mission computer switches to observation phase 504, by configuring the RDRS radar system in a narrow field of view, and by orienting the radar systems RDRS and LDRS lidar towards target 502, as determined during the detection phase.
  • the data from the RDRS and LDRS systems are used by the MCLC computer to estimate more precisely current and future trajectory parameters of the target 502.
  • the inspection phase 505 begins when the trajectory of the target 502 has been estimated and the flight conditions and the required safety constraints allow it.
  • the RDRS radar system remains configured in a directional field of view in order to reduce the power to be transmitted into space.
  • the LDRS scanning lidar system is directed towards target 502 and its immediate surroundings.
  • the tracking of the target may deteriorate, in particular in the event of spontaneous maneuvering of the target, or of flickering of the target, during transitions between day and night, or in the presence of the sun. in the direction observed, this degradation being able to lead to a loss of tracking.
  • the RDRS radar system is automatically configured for wide field of view so as to detect target 502 in a short time.
  • the MCLC computer switches to the outbound phase 506, during which it commands the NAVC navigation system to move away from the target 502.
  • the RDRS radar and LDRS lidar systems remain active until this time. that the relative distance between the hunter 101 and the target 502 is large enough to prevent any risk of collision even in the event of maneuvering the target.
  • FIG. 7 illustrates an example of an algorithm implemented by the MCLC mission computer, according to one embodiment.
  • the MCLC computer After performing INIT initialization operations, the MCLC computer enters a standby SSO state, in which the fighter is maintained on a hold path, for example in a park orbit.
  • the MCLC calculator remains in the SSO state until no mission order is received (condition 602). In this state, the MCLC computer ensures that the hunter 101 is kept on the holding path using the NAVC navigation system to correct its path in the event of any drift in its path parameters.
  • the MCLC computer Upon receipt of a mission order (condition 603), the MCLC computer exits the SSO standby state to enter an APS long range approach state.
  • the transition 603 between SSO and APS states is triggered by the receipt of a mission order specifying static trajectory parameters of a target 502, by the telecommunications system COMC.
  • the MCLC calculator remains in the APS approach state as long as the distance between the hunter and the assumed position of the target remains greater than the distance d1 (condition 604).
  • the MCLC computer periodically estimates the distance between the hunter 101 and the target 502 as a function of the hunter's position in the geocentric reference frame, provided by the navigation system NAVC, and of the static trajectory parameters of the target.
  • the MCLC computer also determines an approach path and navigates this approach path towards the target until the distance d1 is reached.
  • the MCLC computer exits the APS approach state and switches to the DTS detection state of the target, by periodically activating the RDRS radar system configured in narrow field of view, in order to detect and locate the target 502.
  • the system RDRS radar is configured in narrow field of view in order to optimize the link budget. Indeed, at long distance, the losses of propagation in free space have a strong impact on the radar link budget. These losses can be partially compensated by concentrating the emitted energy in a given direction, which makes it possible to detect the target without having to increase the transmitted power too much. In fact, the greater the power to be transmitted, the more it is necessary to isolate the reception antennas 106 from the emission antennas 105 of the radar, in order to prevent transmission leaks from saturating the reception chains connected to the antennas. reception.
  • the radar beam is pointed in the direction corresponding to the estimated position of the target.
  • the radar beam is wide enough in the narrow field of view mode, to cover the angular range in which the target may physically be.
  • the radar beam is aimed in different directions in a square or circular spiral pattern, starting from the estimated direction of the target.
  • the radar beam can be electronically pointed in the estimated direction of the target.
  • the radar beam can be pointed mechanically in the estimated direction of the target, thanks to the navigation system capable of orienting the hunter, or else by means of a motorized sighting system.
  • the RDRS radar system can be kept active until the target is detected.
  • the RDRS radar system employs multiple linear frequency modulated waveforms.
  • the parameters of the waveform are the transmitted bandwidth, the rise time between the minimum frequency and the maximum frequency, the fall time between the maximum frequency and the minimum frequency, and the relaxation time during which the frequency remains to its minimum value. These parameters partly determine the performance of the radar, namely range accuracy, range resolution, maximum unambiguous distance, radial speed accuracy, radial speed resolution and unambiguous radial speed range.
  • Each waveform offers a compromise between the unambiguous measurement range and the couple precision and resolution.
  • the radar system employs a waveform with an unambiguous wide range of distance measurement and a wide range of unambiguous radial speed measurement. ambiguous.
  • the radar employs waveforms with high precision and resolution in distance and high precision and resolution in radial speed. The ambiguity of the measurements associated with these waveforms is resolved by virtue of the measurements obtained previously.
  • the RDRS radar system when target 502 is detected the RDRS radar system periodically alternates between an unambiguous wide measuring range waveform and a high precision and resolution waveform.
  • the MCLC calculator uses the measurements provided by the radar system to refine the estimated trajectory data of the target using Kalman filters, providing estimates of the current position and positions. futures of the target.
  • a volume is also defined around each calculated position, containing the target with a certain probability, taking into account the positioning errors and the errors of the Kalman filter models. This probability is set at a value between 0.5 and 0.9999, and preferably 0.9900.
  • the defined volume is used, for example, to estimate the risk of collision or to define the environment to be observed by the RDRS radar or the LDRS lidar.
  • the speed vector of the target can be calculated from the radial speed supplied by the radar system and from the tangential speed calculated from several successive calculated positions of the target and from the time elapsed between these successive positions.
  • the MCLC calculator remains in the DTS detection state as long as the condition hunter out of inspection area 606 is true.
  • the inspection zone corresponds to a sphere of radius d2 centered on the assumed or estimated position of the target 502.
  • the MCLC computer exits the DTS detection state and enters a DPS alienation state when condition 607 hunter in inspection zone and target not detected is true.
  • This transition condition corresponds to the absence of detection to confirm the presence of the target 502 or its detectability, while the hunter 101 has reached a distance less than or equal to the distance d2 from the supposed position of the target.
  • the MCLC computer also exits the DTS detection state to go into an OPS observation state when the condition 608 hunter in inspection area and detected target is true.
  • This transition condition implies that the target is detected and that the hunter 101 is located at a distance less than the distance d2 from the estimated position of the target 502.
  • the MCLC computer remains in the OPS observation state as long as condition 609 inspection maneuver being calculated and acceptable risk of collision is true.
  • the MCLC computer evaluates the risk of collision with the target 502 as a function of the observation position of the hunter 101 with respect to the estimated position of the target 502.
  • the MCLC computer controls the NAVC navigation system to maintain a constant distance from the estimated position of the target.
  • the MCLC computer periodically activates the RDRS radar system configured in a narrow field of view, and possibly the LDRS lidar system, to detect and locate the target. If the LDRS lidar system is enabled, it is used to confirm and refine the target position determined by the RDRS radar system.
  • the initial aiming direction of the lidar corresponds to the last calculated position of the target 502.
  • the lidar system emits a frequency modulated electromagnetic wave, and samples the received signal.
  • the hunter-target distance is determined as a function of the sampling instant corresponding to the sample where the target is detected in the received signal, knowing that the instant of this sample determines the duration of the wave between the transmitter and target, and the return time between target and receiver, the outward and return distances being assumed to be identical.
  • the LDRS lidar system will scan around the initial aiming direction, following a scan pattern. This pattern can be a spiral, for example the Galileo spiral, or closed concentric curves, such as circles or ellipses centered on the supposed position of the target. Lidar scanning is performed periodically from the assumed position of the target.
  • the assumed position of target 502 is determined based on the last known position and estimated target trajectory data, and the time elapsed since the last position was obtained.
  • the MCLC computer determines one or more inspection paths and a risk of collision with the target, associated with each path, and selects an inspection path associated with an acceptable risk of collision.
  • the risk of collision can be estimated according to the trajectory data of the hunter 101, and the last known location data of the target 502, taking into account all the possible maneuvers of the target, each maneuver can be weighted by its probability of occurrence if it is estimable. To guarantee a high level of flight safety, the risk of collision can be evaluated by also considering events with a low probability of occurrence, for example a failure of a GNSS satellite used for estimating the position of the hunter.
  • the MCLC computer keeps the RDRS radar system active by continuing to scan the environment, and commands hunter 101 to be held in position according to the estimated position of the target. 502 from the latest location data received from the RDRS radar and LDRS lidar systems. The risk of collision is then evaluated by also taking into account the time elapsed since the last detection of the target. The MCLC computer can also periodically perform tests of the correct functioning of the hunter 101.
  • the MCLC computer exits the OPS observation state to go into the DPS outbound state when condition 610 risk of collision associated with the unacceptable observation position is true.
  • Transition condition 610 corresponds to an unacceptable risk of collision while observing the target.
  • the risk of collision may also be unacceptable in the event of insufficient tracking of the target, or in the event of detection of a spontaneous maneuver of the target 502, or of a malfunction of the hunter 101.
  • the MCLC computer exits the OPS observation state to enter an IPS inspection state when the condition 611 calculated inspection path is true.
  • the transition condition 611 corresponds to obtaining a satisfactory inspection trajectory, in particular as regards the risk of collision with the target 502, which assumes sufficient tracking of the target.
  • the MCLC computer remains in the IPS inspection state as long as the condition 613 is true, that is, when the inspection success criteria are not yet met, the risk of collision associated with the inspection maneuver remains acceptable, and target tracking remains sufficient.
  • the inspection success criteria depend on the mission order and may correspond, for example, to a collection of information of sufficient quality and diversity from the target 502.
  • the MCLC computer activates periodically the RDRS radar system configured in narrow field of view and the LDRS lidar system to detect and locate the target.
  • the data from the RDRS and LDRS systems are correlated and merged, for example, using Kalman filters, to locate the target 502 and more precisely determine the trajectory data of the latter.
  • the MCLC computer controls the NAVC navigation system to periodically correct the trajectory of the hunter to follow the inspection trajectory previously calculated in the OPS observation state.
  • the MCLC calculator periodically calculates the risk of collision associated with the inspection path, based on the navigation data of the hunter 101 against the location data of the target 502.
  • the MCLC computer activates the SDCC spatial data acquisition system, to acquire information relating to the target 502 and to its close vicinity.
  • the MCLC computer exits the IPS inspection state and enters the DPS out-of-town state when condition 619 inspection success criteria are met or risk of collision associated with the inspection maneuver is unacceptable.
  • the MCLC computer exits the IPS inspection state to enter an STP inspection interrupt state when a loss of tracking or insufficient tracking condition 615 is true.
  • Condition 615 is true when the inspection success criteria have not yet been met, the risk of collision associated with the inspection maneuver remains acceptable, and target tracking is insufficient.
  • the transition condition 615 results from a degradation of the detection of the target 502 in the IPS state, this degradation possibly being caused by the flickering of a reflective surface of the target.
  • the loss of tracking condition can be reached when target 502 is not detected in N acquisitions among M last consecutive acquisitions by RDRS radar and / or LDRS lidar systems.
  • the MCLC calculator remains in the STP inspection interrupt state as long as the loss of tracking condition of target 615 is true and a period of time from the start of the loss of tracking has not expired.
  • the MCLC computer controls the NAVC navigation system to follow the inspection path, and determines the time elapsed since entering the lost track state.
  • the MCLC computer also periodically controls the RDRS radar system configured in a wide field of view 202 to observe its surroundings almost instantaneously with the aim of finding the target 502. Another sensor system such as the LDRS lidar system can also be activated. in the STP state to locate the target again.
  • the MCLC computer exits the STP tracking loss state to return to the IPS inspection state when the target 618 tracking condition 618 is true.
  • the transition condition 618 corresponds to the resumption of tracking following the detection of the target 502 by one or more sensors on board the hunter 101.
  • the field of view of the RDRS radar system can then be gradually reduced until it reaches the field of view. narrow vision 201. With each new acquisition, the radar is pointed so as to center the field of vision of the radar on the direction of the target determined from the signals supplied by the RDRS radar system or the LDRS lidar system during the acquisition previous.
  • the MCLC computer exits the STP tracking loss state to go into the DPS removal state when a time-out condition 617 is true, that is, when the target 502 is still not detected and the time-out has elapsed. since the loss of tracking has expired.
  • the MCLC computer remains in the DPS remote state as long as the condition 621 hunter in the inspection zone is true, in other words, as long as the hunter 101 is at a distance less than or equal to the distance d2, from the position estimate of the target 502.
  • the MCLC computer determines a outbound trajectory and commands the NAVC navigation system to direct the hunter along this trajectory.
  • the MCLC computer periodically activates the RDRS radar system configured alternately in wide field of view and in a narrow field of view to detect and locate the target 502.
  • the MCLC computer can also activate one or more other sensors to detect and locate the target.
  • the MCLC computer exits the DPS out-of-range state to a BSO return-to-hold state, such as its park orbit, when condition 622 hunter out of inspection area is true.
  • the transition condition 622 is true when the estimated position of the target 502 is at a distance greater than the distance d2 from the hunter 101.
  • the MCLC computer controls the control system. NAVC navigation to move towards the holding path.
  • the MCLC computer remains in the BSO state as long as condition 624 hunter out of hold path is true, that is, until the hunter has returned to its hold path.
  • the MCLC calculator exits the BSO back to hold path state to enter the hold hold path SSO state when fighter 101 has reached its hold path (condition 625).
  • the arrangements described above make it possible to ensure the safety of the short-range space rendezvous, by minimizing the risks of loss of tracking of the target and by reducing the duration of any loss of tracking.
  • the implementation of at least two active sensors located in distant spectra, makes it possible to reduce the risk of loss of tracking by decorrelating the flickering of the target in the observed spectral bands, and increasing resilience to rapid transitions between day and night and to interference with other electromagnetic signals.
  • the implementation of a radar system with a wide field of vision allows the target to be detected quickly, especially when it is at a short distance and has just performed an uncooperative maneuver.
  • the present invention is susceptible of various variant embodiments and various applications.
  • the invention is not limited to the sequence of steps described in reference to FIG. 7, and to the list of sensors activated at each of these stages. It is simply important that the hunter goes through phases of detecting the target at long range, then acquiring when the target is detected, and detecting at short range when the hunter no longer detects the target when he is nearby. of the latter.
  • the invention is also not limited to periodic activation of radar and lidar systems.
  • the moment of activation of one of these systems can be defined randomly or determined according to the signals acquired previously, and in particular according to the precision of these signals.
  • the time interval between two acquisitions can be reduced if this precision is not satisfactory.
  • the long-range DTS detection phase can be omitted when the static trajectory parameters provided in the mission order are sufficiently precise to allow pointing of the radar configured in a narrow field of view and / or of the lidar on the target ( 502).

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

L'invention concerne un procédé de poursuite d'une cible sur une trajectoire orbitale par un véhicule spatial (101), le procédé comprenant une phase d'acquisition (504, 505), comprenant des étapes consistant à activer un lidar, acquérir des signaux du système lidar, déterminer des données de trajectoire de la cible à partir des signaux issus du lidar, le véhicule spatial étant engagé sur une trajectoire (505) de rapprochement ou d'inspection de la cible, déterminée en fonction des données de trajectoire de la cible, et si la cible n'est plus détectée, activer une phase de détection à courte distance, comprenant l'activation d'un radar à champ large.

Description

Description
Titre : PROCEDE DE POURSUITE D’UN OBJET SPATIAL A L’AIDE DE SYSTEMES RADAR ET LIDAR EMBARQUES
La présente invention concerne un système embarqué sur un véhicule spatial pour la détection, la localisation et le pistage d’un objet spatial, ci- après désigné "cible". La cible peut être coopérative ou non coopérative, et manœuvrante ou non manœuvrante.
L’invention concerne plus particulièrement un système de navigation embarqué dans un véhicule spatial, désigné ci-après "chasseur", ce système de navigation étant configuré pour effectuer un "rendez-vous spatial", c’est-à- dire amener le chasseur vers la cible, dans le but de réaliser des opérations de proximité avec la cible, telles qu’une inspection, un vol en formation ou un amarrage, tout en limitant les risques de collision.
Les systèmes de navigation existants adaptés pour réaliser une telle mission emploient généralement un unique capteur actif électromagnétique radar ou lidar. Certains systèmes de navigation peuvent combiner un capteur actif avec un ou plusieurs capteurs passifs, tels que des caméras infrarouges ou des caméras dans le domaine de l’optique visible offrant un large champ de vision. En effet, l’utilisation conjointe d’un ou plusieurs capteurs passifs permet d’améliorer les performances de ces systèmes par rapport à l’utilisation d’un unique capteur actif. Cependant, les performances de ces capteurs passifs peuvent être fortement dégradées en cas de transition rapide entre le jour et la nuit ou entre la nuit et le jour. Ces capteurs passifs peuvent être également endommagés en cas d’exposition directe au soleil. Les capteurs passifs, même lorsqu’ils sont utilisés en combinaison avec un capteur actif, ne permettent donc pas d’améliorer les performances et donc de résoudre le problème de la sécurité du vol à courte distance dans toutes les conditions opérationnelles susceptibles de se produire.
Par ailleurs, à courte distance, la sécurité du vol devient problématique. Le chasseur ne doit pas introduire un risque de collision plus élevé que le risque de collision avec un débris spatial inhérent à l’altitude de vol de la cible. Pour garantir la sécurité du vol à courte distance, le système de détection et de localisation doit donc être capable de retrouver rapidement la cible en cas de perte de pistage dans un champ angulaire très large, même pendant les transitions rapides entre le jour et la nuit ou entre la nuit et le jour.
Or, les capteurs actifs à champ de vision étroit, généralement employés pour les missions de rendez-vous spatial, à savoir les radars à antennes directives et les lidars à balayage ne permettent pas de résoudre ce problème. Les capteurs actifs à champ de vision large généralement employés pour ce type de mission, à savoir les lidars flash, permettent de retrouver rapidement la cible en cas de perte de pistage. Cependant, ils offrent une précision insuffisante pour garantir la sécurité du rendez-vous spatial à courte distance. Ils sont également sensibles aux phénomènes de scintillement des cibles spatiales qui contribuent aux pertes de pistage et donc augmentent le risque de collision. De tels phénomènes de scintillement correspondent à une grande variation du signal radar (ou lidar) réémis par la cible en direction du radar (ou lidar). Ces variations dépendent de l’orientation de la cible par rapport au capteur, de la géométrie de la cible, des conditions de vol, etc.
Il est donc souhaitable de réduire les risques de pertes de pistage d’une cible, lesquelles peuvent être causées par des transitions rapides entre le jour et la nuit, ou par des variations de sensibilité des capteurs pouvant se produire lorsque la cible passe entre le soleil et le chasseur, ou par des scintillements d’éléments de la cible, ou encore lorsque la cible réalise des manœuvres à grande dynamique. En cas de perte de pistage, il est souhaitable de détecter la cible dans un bref délai pour réinitialiser le pistage, et ainsi, pour sécuriser les missions de rendez-vous spatial et les opérations réalisées par le chasseur à proximité de la cible.
Des modes de réalisation concernent un procédé de poursuite d’une cible située sur une trajectoire connue par un véhicule spatial, le procédé comportant une phase d’acquisition comprenant des étapes consistant à : activer un système lidar en mode balayage pour balayer une région dans une direction estimée d’une cible, acquérir des signaux du système lidar, déterminer des données de trajectoire de la cible, à l’aide des signaux acquis du système lidar, engager le véhicule spatial sur une trajectoire de rapprochement ou d’inspection de la cible, déterminée en fonction des données de trajectoire de la cible, et si la cible n’est plus détectée en phase d’acquisition, activer une phase de détection à courte distance de la cible, comprenant des étapes consistant à : activer un radar à champ de vision large, acquérir et traiter des signaux issus du radar à champ de vision large, pour détecter la cible, et si la cible est détectée dans les signaux issus du radar à champ de vision large, activer la phase d’acquisition, sinon engager le véhicule spatial sur une trajectoire d’éloignement de la cible.
Selon un mode de réalisation, le procédé comprend une phase de détection à grande distance, comprenant des étapes consistant à : activer un radar à champ de vision étroit en mode balayage dans le véhicule spatial, acquérir et traiter des signaux issus du radar à champ de vision étroit, pour détecter une cible, et en cas de détection d’une cible dans les signaux issus du radar à champ de vision étroit, déterminer des données de trajectoire de la cible, en fonction des signaux acquis du radar à champ de vision étroit, et activer la phase d’acquisition.
Selon un mode de réalisation, le procédé comprend des étapes consistant à : recevoir d’un système de communication des paramètres statiques de trajectoire de la cible, estimer les données de trajectoire de la cible en fonction des paramètres statiques de trajectoire, et activer la phase de détection à grande distance lorsque la position estimée de la cible se trouve à une distance du véhicule spatial inférieure à une première valeur de seuil de distance.
Selon un mode de réalisation, le procédé comprend, à l’activation de la phase de détection à grande distance, des étapes consistant à pointer le système lidar dans une direction estimée en fonction des données de trajectoire de la cible, et acquérir et traiter des signaux issus du système lidar pour détecter la cible.
Selon un mode de réalisation, un radar à champ de vision étroit est activé en même temps que le système lidar, des données issues du radar à champ de vision étroit et du système lidar étant fusionnées à l’aide de filtres de Kalman pour affiner les données de trajectoire de la cible.
Selon un mode de réalisation, le radar à champ de vision large est activé alternativement avec un radar à champ de vision étroit lorsque le véhicule spatial se trouve sur la trajectoire d’éloignement. Selon un mode de réalisation, lorsque la cible est détectée par le radar à champ de vision large, le système lidar est pointé dans une direction initiale définie par des données de trajectoire de la cible, déterminées à partir des signaux issus du radar à champ de vision large ou un radar à champ de vision étroit, puis, en l’absence de détection de la cible par le système lidar, dans des directions successives situées le long d’un premier motif de balayage.
Selon un mode de réalisation, lorsque la cible est détectée par le radar à champ de vision large, un radar à champ de vision étroit est pointé dans une direction initiale définie par les données de trajectoire de la cible, déterminées à partir des signaux issus du radar à champ de vision large, puis, en l’absence de détection par le radar à champ de vision étroit, dans des directions successives situées le long d’un second motif de balayage.
Selon un mode de réalisation, lorsque la cible est détectée par le système lidar ou par un radar à champ de vision étroit, en phase d’acquisition, la distance entre le véhicule spatial et la cible est comparée à une seconde valeur de seuil de distance inférieure à la première valeur de distance et définissant une zone d’inspection de la cible où le véhicule spatial est engagé sur une trajectoire d’inspection de la cible.
Selon un mode de réalisation, le procédé comprend une étape d’estimation d’un risque de collision avec la cible dans la phase de détection à courte distance ou la phase d’acquisition, en fonction d’une trajectoire suivie par le véhicule spatial et des données de trajectoire estimées de la cible, et engager le véhicule spatial sur la trajectoire d’éloignement si le risque de collision est supérieur à une valeur de seuil.
Des modes de réalisation peuvent également concerner un produit programme d’ordinateur chargeable dans une mémoire et qui, lorsqu’il est exécuté par un calculateur connecté à la mémoire, configure le calculateur pour mettre en œuvre le procédé précédemment défini.
Des modes de réalisation peuvent également concerner calculateur comprenant des circuits d’interface pour recevoir des données issues d’un radar à champ de vision large et d’un système lidar, le calculateur étant configuré pour mettre en œuvre le procédé précédemment défini.
Selon un mode de réalisation, les circuits d’interface sont configurés pour recevoir des données issues d’un radar à champ de vision étroit, ou bien pour transmettre des commandes et recevoir des données d’un système radar à champ de vision configurable entre un champ de vision large et un champ de vision étroit.
Des modes de réalisation peuvent également concerner un véhicule spatial comprenant le calculateur précédemment défini, un radar à champ de vision large et un système lidar.
Des exemples de réalisation de l’invention seront décrits dans ce qui suit, à titre non limitatif en relation avec les figures jointes parmi lesquelles : [Fig. 1] la figure 1 représente schématiquement un véhicule spatial assurant la fonction de chasseur, selon un mode de réalisation,
[Fig. 2] la figure 2 représente schématiquement des champs de vision d’un système radar embarqué dans le véhicule spatial, selon un mode de réalisation,
[Fig. 3] la figure 3 représente schématiquement une architecture fonctionnelle d’un système de navigation embarqué dans le véhicule spatial, selon un mode de réalisation,
[Fig. 4] la figure 4 représente schématiquement une architecture matérielle du système de navigation embarqué dans le véhicule spatial, selon un mode de réalisation,
[Fig. 5] la figure 5 représente schématiquement une architecture matérielle d’un calculateur de mission du système de navigation,
[Fig. 6] la figure 6 illustre schématiquement différentes phases d’une mission de rendez-vous spatial du véhicule spatial par rapport à une cible, selon un mode de réalisation,
[Fig. 7] la figure 7 représente un diagramme d’états et de transitions illustrant le fonctionnement du système de navigation, selon un mode de réalisation.
Selon un mode de réalisation, un véhicule spatial utilise conjointement un radar à champ de vision modulable de façon analogique ou numérique, et un lidar à balayage analogique ou numérique dans le cadre d’un rendez-vous spatial entre le véhicule spatial (ou chasseur) et un objet spatial (ou cible), pour notamment permettre au chasseur de réaliser des opérations de proximité sur la cible. Le champ de vision modulable du radar permet d’optimiser le bilan de liaison dans une direction spécifique ou au contraire de couvrir un large champ de vision de manière instantanée. Le capteur lidar à balayage permet d’atteindre la résolution et la précision angulaires nécessaires à la sécurité des opérations de proximité réalisées par le chasseur. D’autres capteurs peuvent être utilisés en combinaison pour améliorer les performances de détection et de poursuite de la cible. Les opérations de proximité réalisées par le chasseur peuvent être une inspection de la cible et/ou de son proche environnement (présence de débris, météorologie spatiale, analyse du spectre électromagnétique), un amarrage du chasseur à la cible et/ou une opération de maintenance de la cible. La cible peut être un satellite, une station spatiale, un véhicule spatial ou un débris en orbite autour d’un astre ou suivant une trajectoire connue dans le système solaire.
Selon un mode de réalisation, le radar est utilisé dans un premier temps en champ de vision étroit ou directif, pour balayer progressivement l’environnement du chasseur, jusqu’à la détection et la localisation de la cible. Le lidar peut être utilisé pour confirmer la détection du radar et affiner les données de localisation de la cible, fournies par le radar. En cas de perte de pistage de la cible, le chasseur se trouvant à proximité de celle-ci, le radar en champ de vision large est utilisé avec un taux de rafraîchissement plus élevé que lorsque la cible est détectée, pour retrouver rapidement la cible et diriger le lidar vers la cible pour en affiner la localisation. L’invention permet ainsi de recouvrer dans un bref délai le pistage de la cible et de confronter deux mesures indépendantes de position de la cible, notamment pour interrompre le rendez-vous en cas d’anomalie. L’utilisation conjointe de deux moyens de détection spectralement éloignés permet de réduire les risques de perte de pistage de la cible, causée notamment par le scintillement de la cible dans une bande spectrale donnée. La sécurité du vol à courte distance se trouve ainsi augmentée.
La figure 1 représente un véhicule spatial 101, selon un mode de réalisation. Le chasseur 101 est équipé de panneaux solaires 102 pour récupérer du rayonnement solaire de l’énergie qui est stockée dans des batteries alimentant en électricité des systèmes embarqués. Le chasseur 101 peut comprendre un imageur 103 dans le domaine du visible pour photographier une cible pendant une phase d’inspection de la cible. Le chasseur 101 peut être de type nano-satellite. Le chasseur 101 peut également comprendre un ou plusieurs des dispositifs suivants : un imageur dans le domaine infrarouge, un analyseur de spectre, une télécommande configurée pour transmettre des commandes à la cible, un analyseur de météorologie de l’espace configuré pour réaliser des opérations de proximité souhaitées.
Le chasseur 101 comprend un système de télécommunication 104 offrant une liaison de communication entre le chasseur et une ou plusieurs stations terrestres ou spatiales. Le chasseur 101 peut ainsi recevoir des ordres de mission d’un opérateur. Les ordres de mission reçus peuvent comprendre des données caractérisant une trajectoire permettant de d’estimer la position d’une cible à tout instant, ces données étant appelées dans ce qui suit "paramètres statiques de trajectoire". Les circuits de télécommunication permettent également au chasseur de transmettre des données spatiales collectées durant l’inspection d’une cible vers une station terrestre ou spatiale.
Selon un mode de réalisation, le chasseur 101 comprend un système radar à champ de vision configurable comprenant une antenne de transmission 105 et plusieurs antennes de réception 106. L’antenne de transmission 105 émet un signal radar incident se propageant dans l’espace, et se réfléchissant sur une ou plusieurs cibles pouvant se trouver dans le champ du signal radar incident. Les antennes de réception 106 assurent la collecte des signaux réfléchis par les cibles éventuelles. Le champ de vision du système radar peut être ajusté entre un champ de vision large et un champ de vision étroit.
Selon un autre mode de réalisation, le système radar comprend un radar à champ de vision large et un radar à champ de vision étroit.
Selon un mode de réalisation, le chasseur 101 comprend un lidar à balayage 107. Ce balayage peut être réalisé par un dispositif mécanique ou électronique.
La figure 2 représente les champs de vision 201, 202 du système radar, selon un mode de réalisation. Le système radar présente un mode à champ de vision étroit 201, dans lequel l’énergie émise et l’énergie reçue sont concentrées par le système radar dans une direction donnée. Le champ de vision étroit présente une largeur angulaire A1 qui peut être identique en azimut et en élévation. Selon un exemple de réalisation, la largeur angulaire A1 est comprise entre 3 et 10°, par exemple égale à 5°. Le système radar présente un mode à champ de vision large 202 utilisé pour observer de manière quasi-instantanée un large secteur angulaire. Le champ de vision large présente une largeur angulaire A2 qui peut être identique en azimut et en élévation Selon un exemple de réalisation, la largeur angulaire A2 est comprise entre 30 et 180°, par exemple égale à 100°.
Selon un mode de réalisation, le système radar est configuré en mode à champ de vision étroit lorsque la cible est à une distance du chasseur 101 comprise entre des distances d1 et d2, et en mode à champ de vision large lorsque la cible est à une distance du chasseur inférieure à la distance d2. Selon un exemple de réalisation, la distance d1 est comprise entre 1 et 5km, et la distance d2 est comprise entre 50 m et 1000 m, par exemple égale à 500 m. La distance d1 dépend de la sensibilité du système radar en mode à champ de vision étroit, et de la surface équivalente radar de la cible, tenant compte des parties de la cible réfléchissant vers le radar le rayonnement émis par ce dernier.
La figure 3 présente l’architecture fonctionnelle du système de navigation du chasseur 101, selon un mode de réalisation. Le système de navigation comprend : un calculateur de mission MCLC, le système de télécommunication COMC couplé au calculateur MCLC par des circuits d’interface 303, un système de navigation NAVC couplé au calculateur MCLC par des circuits d’interface 305, le système radar RDRS couplé au calculateur MCLC par des circuits d’interface 307, le système lidar à balayage LDRS couplé au calculateur MCLC par des circuits d’interface 309, et un système d’acquisition de données spatiales SDCC, pour acquérir des informations relatives à une cible et à son proche voisinage, le système SDCC étant couplé au calculateur MCLC par des circuits d’interface 311.
Le calculateur MCLC est configuré pour recevoir des ordres de mission du système de communication COMC, et transmettre des données à ces derniers, par l’intermédiaire du circuit d’interface 303. Le calculateur MCLC est également configuré pour commander les systèmes radar RDRS et lidar LDRS et le système de navigation NAVC, et recevoir et traiter des données issues de ces systèmes et du système de navigation, par l’intermédiaire des circuits d’interface 305, 307, 309.
Grâce au système de télécommunication COMC, un opérateur terrestre peut transmettre au calculateur MCLC un ordre de mission d’inspection incluant des paramètres statiques de trajectoire d’une cible, permettant de déterminer approximativement la position de la cible à tout instant. Dans le cas d’un satellite en orbite autour d’un astre, les paramètres statiques de trajectoire comprennent des paramètres orbitaux pouvant inclure le demi-grand axe de l’orbite, l’excentricité de l’orbite, l’inclinaison du plan orbital, la longitude du nœud ascendant, l’argument du périastre et l’instant de passage de la cible au périastre.
Le système de navigation NAVC peut comprendre un récepteur GNSS ("Global Navigation Satellite System" - géolocalisation et navigation par système de satellites) configuré pour déterminer la position du chasseur 101 dans un référentiel géocentrique, un ou plusieurs propulseurs électriques, des roues à inertie et magnéto-coupleurs pour orienter le chasseur dans une direction souhaitée. Le système de navigation peut également comprendre un ou plusieurs propulseurs chimiques pour orienter le chasseur dans la direction souhaitée, et un viseur d’étoiles pour déterminer une orientation du chasseur par rapport aux étoiles, ce dispositif étant connu de l’homme de l’art sous le terme "Star-Tracker".
Selon un mode de réalisation, le calculateur de mission MCLC détermine la trajectoire à suivre par le chasseur pour se positionner à la distance d’approche d1 de la position supposée de la cible. Pour cela, le calculateur de mission MCLC utilise la position du chasseur dans un référentiel, par exemple le référentiel géocentrique, fournie par le système de navigation NAVC et les paramètres statiques de trajectoire de la cible, reçus par le système de communication COMC. La trajectoire à suivre est ensuite mise en application par le calculateur MCLC qui détermine des commandes de navigation à transmettre au système de navigation NAVC.
Selon un mode de réalisation, le système radar RDRS comprend un radar à onde continue modulée en fréquence FMCW ("Frequency-Modulated Continuous Wave" - Onde continue modulée en fréquence), opérant dans une bande de fréquence située entre 0,1 GHz et 100 GHz, par exemple dans la bande de fréquence 14,3 GHz - 14,4 GHz. Le radar est utilisé pour détecter, localiser et pister la cible dès que le chasseur arrive à la distance d1 d’approche de la position supposée de la cible.
Selon un mode de réalisation, le système lidar LDRS comprend un lidar à balayage mécanique ou électronique. Le lidar à balayage mécanique comporte des servomoteurs pour orienter des dispositifs d’émission et de réception du lidar, en fonction de commandes émises par le calculateur de mission MCLC. Les systèmes radar RDRS et lidar LDRS fournissent des données de détection au calculateur MCLC qui corréle et fusionne ces données pour, le cas échéant, confirmer la présence de la cible et affiner l’estimation de sa position. L’algorithme de fusion met en œuvre des filtres de Kalman connus de l’homme de l’art pour fusionner les données du radar et les données du lidar.
La figure 4 représente le système radar RDRS, selon un mode de réalisation. Le système radar RDRS comprend l’antenne 105 d’émission active, à balayage électronique, par exemple de type antenne AESA ("Active Electronically Scanned Array" - antenne active à balayage électronique). L’antenne d’émission 105 comporte une interface de contrôle 402 permettant de commander le gain de l’antenne d’émission 105 et de la configurer en champ de vision large ou en champ de vision étroit ou directif.
Le système radar RDRS comprend également les antennes 106 de réception actives, à balayage électronique. La comparaison des phases des signaux reçus par les antennes 106 permet de déterminer la direction d’arrivée de la cible. Selon un exemple de réalisation, le radar comprend au moins trois antennes de réception 106 (quatre dans l’exemple des figures 1 et 4). Chaque antenne de réception 403 comprend une interface de contrôle 404 permettant de commander le gain de réception des antennes de réception et le champ de vision des antennes en champ large ou en champ étroit ou directif. Le système radar RDRS comprend des circuits d’émission TXC assurant la génération du signal radar à transmettre qui est fourni à l’antenne d’émission 401, et des circuits de réception RXC assurant les fonctions de filtrage et numérisation des signaux reçus par des antennes de réception 106. Une interface 407 permet aux circuits TXC et RXC de se synchroniser. Le système radar RDRS comprend également un processeur de signaux radar RPRC assurant le traitement des signaux radar en vue de détecter et localiser une cible. Une interface 409 permet de synchroniser le processeur RPRC avec les circuits d’émission TXC. Une interface 410 permet de synchroniser le processeur RPRC avec les circuits de réception RXC. Un bus numérique 411 assure la transmission des signaux numérisés par les circuits de réception RXC au processeur RPRC.
Le système radar RDRS comprend également une interface entrées- sorties 412 permettant au processeur radar RPRC de recevoir des commandes et de fournir des données de trajectoire et des données caractérisant les cibles détectées par le système radar. Dans ce qui suit, les "données de trajectoire" estimées d’une cible désignent des données définissant au moins deux positions horodatées de la cible, ces données pouvant inclure des positions futures estimées, chaque position pouvant être associée à une amplitude d’erreur, ou bien des données définissant une position horodatée, associées à des données définissant un vecteur vitesse horodaté, le vecteur vitesse pouvant être également associé à des amplitudes d’erreur.
Selon un autre mode de réalisation, le système radar RDRS comprend une antenne d’émission à champ de vision large et une antenne d’émission à champ de vision étroit. La sélection de l’antenne se fait au moyen d’un circulateur qui achemine le signal radar à émettre vers l’antenne spécifiée tout en isolant l’antenne non spécifiée.
La figure 5 représente schématiquement une architecture matérielle du calculateur de mission MCLC embarqué dans le véhicule spatial, selon un mode de réalisation. Le calculateur MCLC comprend : une unité centrale de traitement CPU configurée pour exécuter un programme de mission, un circuit d’horloge CLK pour fournir une référence temporelle régulière au calculateur, une mémoire non volatile NVM, par exemple de type ROM ("Read- Only Memory" - mémoire en lecture seule) contenant les informations nécessaires à l’initialisation de l’unité de traitement CPU et le programme de mission, une mémoire vive VM, par exemple de type RAM (Random Access Memory - mémoire à accès aléatoire) permettant de stocker les données nécessaires au fonctionnement après démarrage de l’unité de traitement CPU et durant l’exécution du logiciel de mission, un circuit d’interface IOC comportant des ports d’entrée et/ou de sortie permettant de relier le calculateur de mission MCLC aux autres systèmes embarqués (COMC, NAVC, RDRS, LDRS, SDCC), un bus d’adresses AB permettant à l’unité centrale de traitement CPU de spécifier une adresse d’accès dans les mémoires NVM, VM, ou un port d’entrée et/ou de sortie du circuit IOC, un bus de données DB permettant l’échange des informations entre l’unité centrale de traitement CPU, les mémoires NVM, VM, et les ports d’entrée et sortie du circuit IOC.
L’unité centrale CPU peut comprendre un ou plusieurs processeurs, et notamment un processeur dédié au traitement des signaux issus du système radar RDRS et/ou du système lidar LDRS. Par exemple, un des processeurs peut être dédié au traitement des signaux radar et lidar pour corréler et fusionner ces signaux, par exemple par des filtres de Kalman, et fournir des données de trajectoire estimées d’objets détectés par le système radar RDRS et/ou le système lidar LDRS.
La figure 6 illustre un exemple de mission confiée au chasseur 101, par exemple sous la forme d’un ordre reçu par le système de communication COMC. Dans l’exemple de la figure 6, cette mission consiste en une inspection d’une cible 502 située sur une trajectoire connue. Avant le début de cette mission, le chasseur 101 est situé sur une trajectoire d’attente, dans l’attente de recevoir un ordre de mission. L’ordre de mission spécifie les paramètres statiques de trajectoire de la cible 502, par exemple des données orbitales dans le cas d’un satellite en orbite autour d’un astre.
Selon un mode de réalisation, une mission d’inspection d’une cible comprend :
(i) une phase d’approche de la cible à très longue distance 503a, jusqu’à la distance d1 de la cible 502,
(ii) une phase de détection et de localisation 503b de la cible, entre les distances d1 et d2 de la cible, (iii) une phase d’observation 504 de la cible, à la distance d1, pour estimer plus précisément la trajectoire de la cible et déterminer une trajectoire d’inspection à suivre par le chasseur,
(iv) une phase d’inspection 505 de la cible, en maintenant automatiquement une distance suffisante pour garantir la sécurité de la mission, et
(v) une phase d’éloignement 506 de la cible.
Au cours de la phase d’approche à très longue distance 503a, le calculateur de mission MCLC du chasseur 101 commande le système de navigation NAVC et utilise les paramètres statiques de trajectoire de la cible pour naviguer et atteindre la distance d1 de la position supposée de la cible 502.
Au cours de la phase de détection et de localisation 503b, le calculateur de mission MCLC commande le système radar RDRS pour qu’il balaye l’environnement en champ de vision directif, jusqu’à détecter et localiser la cible 502. Durant cette phase, l’activation du système radar RDRS peut être réalisée périodiquement, en mode à champ de vision étroit.
Arrivé à la distance d2 de la position supposée de la cible 502, typiquement de 500 m, le calculateur de mission MCLC passe en phase d’observation 504, en configurant le système radar RDRS en champ de vision étroit, et en orientant les systèmes radar RDRS et lidar LDRS en direction de la cible 502, telle que déterminée durant la phase de détection. Les données issues des systèmes RDRS et LDRS sont utilisées par le calculateur MCLC pour estimer plus précisément des paramètres courants et futurs de trajectoire de la cible 502.
La phase d’inspection 505 débute lorsque la trajectoire de la cible 502 a été estimée et que les conditions de vol et les contraintes de sécurité requises le permettent. Dans le cas nominal, le système radar RDRS reste configuré en champ de vision directif afin de réduire la puissance à transmettre dans l’espace. Le système lidar à balayage LDRS est dirigé vers la cible 502 et son proche environnement. Pendant la phase d’inspection 505, le pistage de la cible peut se dégrader, notamment en cas de manœuvre spontanée de la cible, ou de scintillement de la cible, lors des transitions entre le jour et la nuit, ou de la présence du soleil dans la direction observée, cette dégradation pouvant conduire à une perte du pistage. Dès qu’une dégradation du pistage est observée par le calculateur MCLC, le système radar RDRS est automatiquement configuré en champ de vision large de manière à détecter la cible 502 dans un bref délai.
A la fin de l’inspection, le calculateur MCLC passe en phase d’éloignement 506, durant laquelle il commande le système de navigation NAVC pour s’éloigner de la cible 502. Les systèmes radar RDRS et lidar LDRS restent actifs jusqu’à ce que la distance relative entre le chasseur 101 et la cible 502 soit suffisamment grande pour prévenir tout risque de collision même en cas de manœuvre de la cible.
La figure 7 illustre un exemple d’algorithme mis en œuvre par le calculateur de mission MCLC, selon un mode de réalisation. Après exécution d’opérations d’initialisation INIT, le calculateur MCLC passe dans un état SSO d’attente, dans lequel le chasseur est maintenu sur une trajectoire d’attente, par exemple sur une orbite de stationnement. Le calculateur MCLC reste dans l’état SSO tant qu’aucun ordre de mission n’est reçu (condition 602). Dans cet état, le calculateur MCLC assure le maintien du chasseur 101 sur la trajectoire d’attente à l’aide du système de navigation NAVC pour corriger sa trajectoire en cas de dérive de ses paramètres de trajectoire.
A la réception d’un ordre de mission (condition 603), le calculateur MCLC sort de l’état d’attente SSO pour passer dans un état d’approche longue distance APS. La transition 603 entre les états SSO et APS est déclenchée par la réception d’un ordre de mission spécifiant les paramètres statiques de trajectoire d’une cible 502, par le système de télécommunication COMC. Le calculateur MCLC reste dans l’état d’approche APS tant que la distance entre le chasseur et la position supposée de la cible reste supérieure à la distance d1 (condition 604). A l’état d’approche APS, le calculateur MCLC estime périodiquement la distance entre le chasseur 101 et la cible 502 en fonction de la position du chasseur dans le référentiel géocentrique, fournie par le système de navigation NAVC, et des paramètres statiques de trajectoire de la cible. Le calculateur MCLC détermine également une trajectoire d’approche et navigue sur cette trajectoire d’approche vers la cible jusqu’à atteindre la distance d1.
Lorsque la distance d1 est atteinte (condition 605), le calculateur MCLC sort de l’état d’approche APS et passe à l’état de détection DTS de la cible, en activant périodiquement le système radar RDRS configuré en champ de vision étroit, afin de détecter et localiser la cible 502. Le système radar RDRS est configuré en champ de vision étroit afin d’optimiser le bilan de liaison. En effet, à longue distance, les pertes de propagation en espace libre impactent fortement le bilan de liaison du radar. Ces pertes peuvent être compensées en partie en concentrant l'énergie émise dans une direction donnée, ce qui permet de détecter la cible sans avoir à trop augmenter la puissance transmise. En effet, plus la puissance à transmettre est importante, plus il est nécessaire d’isoler les antennes de réception 106 des antennes d'émission 105 du radar, afin d’empêcher des fuites d’émission de saturer les chaînes de réception connectées aux antennes de réception.
Initialement, le faisceau du radar est pointé dans la direction correspondant à la position estimée de la cible. Le faisceau radar est suffisamment large dans le mode à champ de vision étroit, pour couvrir le domaine angulaire dans lequel la cible peut physiquement se trouver. Cependant, tant que la cible n’est pas détectée, le faisceau radar est orienté dans différentes directions en suivant un motif en spirale carrée ou circulaire, à partir de la direction estimée de la cible. Le faisceau radar peut être pointé électroniquement dans la direction estimée de la cible. Alternativement, le faisceau du radar peut être pointé mécaniquement dans la direction estimée de la cible, grâce au système de navigation capable d'orienter le chasseur, ou bien au moyen d'un système de visée motorisé. Le système radar RDRS peut être maintenu actif tant que la cible n’est pas détectée.
Selon un mode de réalisation, le système radar RDRS emploie plusieurs formes d’onde à modulation linéaire de fréquence. Les paramètres de la forme d’onde sont la bande passante transmise, le temps de montée entre la fréquence minimum et la fréquence maximum, le temps de descente entre la fréquence maximum et la fréquence minimum, et le temps de relaxation pendant lequel la fréquence reste à sa valeur minimum. Ces paramètres déterminent en partie la performance du radar, à savoir la précision distance, la résolution distance, la distance maximale non ambiguë, la précision vitesse radiale, la résolution vitesse radiale et la plage vitesse radiale non ambiguë.
Chaque forme d’onde offre un compromis entre la plage de mesure non ambiguë et le couple précision et résolution. Pour détecter la cible, le système radar emploie une forme d’onde à grande plage de mesure de distance non ambiguë et à grande plage de mesure de vitesse radiale non ambiguë. Après la première détection, le radar emploie des formes d’ondes à hautes précision et résolution en distance et à hautes précision et résolution en vitesse radiale. L’ambiguïté des mesures associées à ces formes d’onde est levée grâce aux mesures obtenues précédemment.
Selon un mode de réalisation, lorsque la cible 502 est détectée le système radar RDRS alterne périodiquement entre une forme d’onde à grande plage de mesure non ambiguë et une forme d’onde à hautes précision et résolution.
Lorsque la cible 502 est détectée par le système radar RDRS, le calculateur MCLC utilise les mesures fournies par le système radar pour affiner les données de trajectoire estimées de la cible au moyen de filtres de Kalman, fournissant des estimations de la position courante et des positions futures de la cible. Un volume est également défini autour de chaque position calculée, contenant la cible avec une certaine probabilité, en tenant en compte des erreurs de positionnement et des erreurs des modèles des filtres de Kalman. Cette probabilité est fixée à une valeur comprise entre 0,5 et 0,9999, et de préférence 0,9900. Le volume défini est utilisé par exemple pour l’estimation du risque de collision ou pour définir l’environnement à observer par le radar RDRS ou le lidar LDRS.
Le vecteur vitesse de la cible peut être calculé à partir de la vitesse radiale fournie par le système radar et de la vitesse tangentielle calculée à partir de plusieurs positions successives calculées de la cible et du temps écoulé entre ces positions successives.
Le calculateur MCLC reste à l’état de détection DTS tant que la condition chasseur hors zone d’inspection 606 est vraie. La zone d’inspection correspond à une sphère de rayon d2 centrée sur la position supposée ou estimée de la cible 502.
Le calculateur MCLC sort de l’état de détection DTS pour passer dans un état d’éloignement DPS lorsque la condition 607 chasseur en zone d’inspection et cible non détectée est vraie. Cette condition de transition correspond à l’absence de détection pour confirmer la présence de la cible 502 ou sa détectabilité, alors que le chasseur 101 a atteint une distance inférieure ou égale à la distance d2 de la position supposée de la cible.
Le calculateur MCLC sort également de l’état de détection DTS pour passer dans un état d’observation OPS lorsque la condition 608 chasseur en zone d’inspection et cible détectée est vraie. Cette condition de transition implique que la cible soit détectée et que le chasseur 101 soit situé à une distance inférieure à la distance d2 de la position estimée de la cible 502.
Le calculateur MCLC reste dans l’état d’observation OPS tant que la condition 609 manœuvre d’inspection en cours de calcul et risque de collision acceptable est vraie. Dans l’état OPS, le calculateur MCLC évalue le risque de collision avec la cible 502 en fonction de la position d’observation du chasseur 101 par rapport à la position estimée de la cible 502. Dans l’état d’observation OPS, le calculateur MCLC commande le système de navigation NAVC pour rester à distance constante de la position estimée de la cible. A cet effet, le calculateur MCLC active périodiquement le système radar RDRS configuré en champ de vision étroit, et éventuellement le système lidar LDRS, pour détecter et localiser la cible. Si le système lidar LDRS est activé, il est utilisé pour confirmer et affiner la position de la cible déterminée par le système radar RDRS.
La direction de pointage initiale du lidar correspond à la dernière position calculée de la cible 502. Le système lidar émet une onde électromagnétique modulée en fréquence, et effectue un échantillonnage du signal reçu. La distance chasseur-cible est déterminée en fonction de l’instant d’échantillonnage correspondant à l’échantillon où est détectée la cible dans le signal reçu, sachant que l’instant de cet échantillon détermine la durée aller de l’onde entre l’émetteur et la cible, et la durée retour entre la cible et le récepteur, les distances aller et retour étant supposées identiques. Si la cible n’est pas détectée dans la direction de pointage initiale, le système lidar LDRS effectue un balayage autour de la direction de pointage initiale, en suivant un motif de balayage. Ce motif peut être une spirale, par exemple la spirale de Galilée, ou des courbes fermées concentriques, telles que des cercles ou des ellipses centrées sur la position supposée de la cible. Le balayage par le lidar est effectué périodiquement à partir de la position supposée de la cible. La position supposée de la cible 502 est déterminée en fonction de la dernière position connue et des données estimées de trajectoire de la cible, et du temps écoulé depuis l’obtention de cette dernière position.
Les données issues des systèmes radar RDRS et lidar LDRS sont corrélées et fusionnées par exemple par des filtres de Kalman pour pister la cible et estimer plus précisément les données de trajectoire de cette dernière. Le calculateur MCLC détermine également une ou plusieurs trajectoires d’inspection et un risque de collision avec la cible, associé à chaque trajectoire, et sélectionne une trajectoire d’inspection associée à un risque de collision acceptable. Le risque de collision peut être estimé en fonction des données de trajectoire du chasseur 101, et des dernières données de localisation connues de la cible 502, en tenant compte de l'ensemble des manœuvres possibles de la cible, chaque manœuvre pouvant être pondérée par sa probabilité d’occurrence si celle-ci est estimable. Pour garantir un haut niveau de sécurité du vol, le risque de collision peut être évalué en considérant également des événements à faible probabilité d’occurrence comme par exemple une défaillance d’un satellite GNSS utilisé pour l’estimation de la position du chasseur.
Si la cible est perdue dans l’état d’observation OPS, le calculateur MCLC maintient le système radar RDRS actif en poursuivant le balayage de l'environnement, et commande le maintien en position du chasseur 101 en fonction de la position estimée de la cible 502 à partir des dernières données de localisation reçues des systèmes radar RDRS et lidar LDRS. Le risque de collision est alors évalué en tenant compte également de la durée écoulée depuis la dernière détection de la cible. Le calculateur MCLC peut également réaliser périodiquement des tests de bon fonctionnement du chasseur 101.
Le calculateur MCLC sort de l’état d’observation OPS pour passer à l’état d’éloignement DPS lorsque la condition 610 risque de collision associé à la position d’observation inacceptable est vraie. La condition de transition 610 correspond à un risque de collision inacceptable pendant l’observation de la cible. Le risque de collision peut être également inacceptable en cas de pistage insuffisant de la cible, ou en cas de détection d’une manœuvre spontanée de la cible 502, ou encore d’un disfonctionnement du chasseur 101.
Le calculateur MCLC sort de l’état d’observation OPS pour passer dans un état d’inspection IPS lorsque la condition 611 trajectoire d’inspection calculée est vraie. La condition de transition 611 correspond à l’obtention d’une trajectoire d’inspection satisfaisante, notamment en ce qui concerne le risque de collision avec la cible 502, ce qui suppose un pistage suffisant de la cible. Le calculateur MCLC reste dans l’état d’inspection IPS tant que la condition 613 est vraie, à savoir, lorsque les critères de succès de l’inspection ne sont pas encore atteints, le risque de collision associé à la manœuvre d’inspection reste acceptable, et le pistage de la cible reste suffisant. Les critères de succès de l’inspection dépendent de l’ordre de mission et peuvent correspondre par exemple à une collecte d’information de qualité et de diversité suffisantes de la cible 502. Dans l’état d’inspection IPS, le calculateur MCLC active périodiquement le système radar RDRS configuré en champ de vision étroit et le système lidar LDRS pour détecter et localiser la cible. Les données issues des systèmes RDRS et LDRS sont corrélées et fusionnées, par exemple, à l’aide de filtres de Kalman, pour localiser la cible 502 et déterminer plus précisément les données de trajectoire de cette dernière. Le calculateur MCLC commande le système de navigation NAVC pour corriger périodiquement la trajectoire du chasseur pour suivre la trajectoire d’inspection précédemment calculée à l’état d’observation OPS. Le calculateur MCLC calcule périodiquement le risque de collision associé à la trajectoire d’inspection, en fonction des données de navigation du chasseur 101 par rapport aux données de localisation de la cible 502. A l’état d’inspection IPS, et selon l’ordre de mission, le calculateur MCLC active le système d’acquisition de données spatiales SDCC, pour acquérir des informations relatives à la cible 502 et à son proche voisinage.
Le calculateur MCLC sort de l’état d’inspection IPS pour passer dans à l’état d’éloignement DPS lorsque la condition 619 critères de succès de l’inspection sont atteints ou risque de collision associé à la manœuvre d’inspection est inacceptable.
Le calculateur MCLC sort de l’état d’inspection IPS pour passer dans un état d’interruption d’inspection STP lorsqu’une condition 615 de perte de pistage ou de pistage insuffisant est vraie. La condition 615 est vraie lorsque les critères de succès de l’inspection ne sont pas encore atteints, le risque de collision associé à la manœuvre d’inspection reste acceptable, et le pistage de la cible est insuffisant. La condition de transition 615 résulte d’une dégradation de la détection de la cible 502 à l’état IPS, cette dégradation pouvant être causée par le scintillement d’une surface réfléchissante de la cible. La condition de perte de pistage peut être atteinte lorsque la cible 502 n’est pas détectée dans N acquisitions parmi M dernières acquisitions consécutives par les systèmes radar RDRS et/ou lidar LDRS.
Le calculateur MCLC reste dans l’état d’interruption d’inspection STP tant que la condition perte de pistage de la cible 615 est vraie et tant qu’un délai écoulé depuis le début de la perte de pistage n’est pas expiré. Dans l’état de perte de pistage STP, le calculateur MCLC commande le système de navigation NAVC pour suivre la trajectoire d’inspection, et détermine le temps écoulé depuis le passage à l’état de perte de pistage. Le calculateur MCLC commande également périodiquement le système radar RDRS configuré en champ de vision large 202 pour observer de manière quasi- instantanée son environnement dans le but de retrouver la cible 502. Un autre système de capteur tel que le système lidar LDRS peut également être activé dans l’état STP pour localiser à nouveau la cible.
Le calculateur MCLC sort de l’état de perte de pistage STP pour retourner à l’état d’inspection IPS lorsque la condition 618 de pistage de la cible 618 est vraie. La condition de transition 618 correspond à la reprise du pistage suite à la détection de la cible 502 par un ou plusieurs capteurs embarqués dans le chasseur 101. Le champ de vision du système radar RDRS peut alors être réduit progressivement jusqu’à atteindre le champ de vision étroit 201. A chaque nouvelle acquisition, le radar est pointé de manière à centrer le champ de vision du radar sur la direction de la cible déterminée à partir des signaux fournis par le système radar RDRS ou le système lidar LDRS lors de l’acquisition précédente.
Le calculateur MCLC sort de l’état de perte de pistage STP pour passer à l’état d’éloignement DPS lorsqu’une condition 617 de délai expiré est vraie, à savoir lorsque la cible 502 n’est toujours pas détectée et le délai écoulé depuis la perte de pistage a expiré.
Le calculateur MCLC reste à l’état d’éloignement DPS tant que la condition 621 chasseur en zone d’inspection est vraie, autrement dit, tant que le chasseur 101 se trouve à une distance inférieure ou égale à la distance d2, de la position estimée de la cible 502. A l’état d’éloignement DPS, le calculateur MCLC détermine une trajectoire d’éloignement et commande le système de navigation NAVC pour diriger le chasseur selon cette trajectoire. En outre, le calculateur MCLC active périodiquement le système radar RDRS configuré par alternance en champ de vision large et en champ de vision étroit pour détecter et localiser la cible 502. Le calculateur MCLC peut également activer un ou plusieurs autres capteurs pour détecter et localiser la cible.
Le calculateur MCLC sort de l’état d’éloignement DPS pour passer dans un état BSO de retour à la trajectoire d’attente, par exemple son orbite de stationnement, lorsque la condition 622 chasseur hors zone d’inspection est vraie. La condition de transition 622 est vraie lorsque la position estimée de la cible 502 se trouve à une distance supérieure à la distance d2 du chasseur 101. A l’état BSO de retour à la trajectoire d’attente, le calculateur MCLC commande le système de navigation NAVC pour se diriger vers la trajectoire d’attente. Le calculateur MCLC reste dans l’état BSO tant que la condition 624 chasseur en dehors de la trajectoire d’attente est vraie, c’est-à- dire tant que le chasseur n’a pas rejoint sa trajectoire d’attente.
Le calculateur MCLC sort de l’état BSO de retour à la trajectoire d’attente pour passer à l’état SSO d’attente la trajectoire d’attente lorsque le chasseur 101 a atteint sa trajectoire d’attente (condition 625).
Les dispositions précédemment décrites permettent d’assurer la sécurité du rendez-vous spatial à courte distance, en minimisant les risques de perte de pistage de la cible et en réduisant la durée des pertes de pistage éventuelles. En effet, la mise en œuvre d’au moins deux capteurs actifs (fonctionnant sur la base de signaux émis et reçus), situés dans des spectres éloignés, permet de réduire le risque de perte de pistage en décorrélant les scintillements de la cible dans les bandes spectrales observées, et en augmentant la résilience face aux transitions rapides entre le jour et la nuit et aux interférences avec d’autres signaux électromagnétiques. La mise en œuvre d’un système radar à champ de vision large permet de détecter rapidement la cible, notamment lorsque celle-ci se trouve à faible distance et vient d’effectuer une manœuvre non coopérative. En augmentant la sécurité d’un tel rendez-vous spatial, il est ainsi possible de réduire la distance de sécurité entre le chasseur et la cible, sans augmenter le risque de collision, ce qui permet de réaliser des opérations de proximité automatiquement à plus courte distance, telles qu’une inspection détaillée ou un amarrage.
Il apparaîtra clairement à l'homme de l'art que la présente invention est susceptible de diverses variantes de réalisation et diverses applications. En particulier, l’invention n’est pas limitée à la séquence d’étapes décrite en référence à la figure 7, et à la liste de capteurs activés à chacune de ces étapes. Il importe simplement que le chasseur passe par des phases de détection de la cible à longue distance, puis d’acquisition lorsque la cible est détectée, et de détection à courte distance lorsque le chasseur ne détecte plus la cible lorsqu’il se trouve à proximité de cette dernière.
L’invention n’est pas non plus limitée à une activation périodique des systèmes radar et lidar. Par exemple, l’instant d’activation d’un de ces systèmes peut être défini aléatoirement ou déterminé en fonction des signaux acquis précédemment, et notamment en fonction de la précision de ces signaux. Ainsi, l’intervalle de temps entre deux acquisitions peut être réduit si cette précision n’est pas satisfaisante.
Par ailleurs, la phase de détection longue distance DTS peut être omise lorsque les paramètres statiques de trajectoire fournis dans l’ordre de mission sont suffisamment précis pour permettre un pointage du radar configuré en champ de vision étroit et/ou du lidar sur la cible (502).

Claims

Revendications
1. Procédé de poursuite d’une cible située sur une trajectoire connue par un véhicule spatial (101), le procédé comportant une phase d’acquisition (OPS, IPS) comprenant des étapes consistant à : activer un système lidar (LDRS) en mode balayage pour balayer une région dans une direction estimée d’une cible (502), acquérir des signaux du système lidar, déterminer des données de trajectoire de la cible, à l’aide des signaux acquis du système lidar, engager le véhicule spatial sur une trajectoire (505) de rapprochement ou d’inspection de la cible, déterminée en fonction des données de trajectoire de la cible, et si la cible n’est plus détectée en phase d’acquisition, activer une phase de détection (STP) à courte distance de la cible, comprenant des étapes consistant à : activer un radar à champ de vision large (202), acquérir et traiter des signaux issus du radar à champ de vision large, pour détecter la cible, et si la cible est détectée dans les signaux issus du radar à champ de vision large, activer la phase d’acquisition, sinon engager le véhicule spatial sur une trajectoire (506) d’éloignement de la cible.
2. Procédé selon la revendication 1, comprenant une phase de détection (DTS) à grande distance, comprenant des étapes consistant à : activer un radar (RDRS) à champ de vision étroit (201) en mode balayage dans le véhicule spatial, acquérir et traiter des signaux issus du radar à champ de vision étroit, pour détecter une cible, et en cas de détection d’une cible (502) dans les signaux issus du radar à champ de vision étroit, déterminer des données de trajectoire de la cible, en fonction des signaux acquis du radar à champ de vision étroit, et activer la phase d’acquisition (OPS, IPS).
3. Procédé selon la revendication 2, comprenant des étapes consistant à : recevoir d’un système de communication (COMC) des paramètres statiques de trajectoire de la cible (502), estimer les données de trajectoire de la cible en fonction des paramètres statiques de trajectoire, et activer la phase de détection à grande distance (DTS) lorsque la position estimée de la cible se trouve à une distance du véhicule spatial (101 ) inférieure à une première valeur de seuil de distance (d1 ).
4. Procédé selon la revendication 3, comprenant, à l’activation de la phase de détection à grande distance (DTS), des étapes consistant à pointer le système lidar (LDRS) dans une direction estimée en fonction des données de trajectoire de la cible (502), et acquérir et traiter des signaux issus du système lidar pour détecter la cible.
5. Procédé selon l'une des revendications 1 à 4, dans lequel, un radar (RDRS) à champ de vision étroit (201 ) est activé en même temps que le système lidar (LDRS), des données issues du radar à champ de vision étroit et du système lidar étant fusionnées à l’aide de filtres de Kalman pour affiner les données de trajectoire de la cible (502).
6. Procédé selon l'une des revendications 1 à 5, dans lequel le radar (RDRS) à champ de vision large (202) est activé alternativement avec un radar à champ de vision étroit (201) lorsque le véhicule spatial (101) se trouve sur la trajectoire d’éloignement (506).
7. Procédé selon l'une des revendications 1 à 6, dans lequel, lorsque la cible (502) est détectée par le radar (RDRS) à champ de vision large (202), le système lidar (LSRS) est pointé dans une direction initiale définie par des données de trajectoire de la cible, déterminées à partir des signaux issus du radar à champ de vision large ou un radar à champ de vision étroit, puis, en l’absence de détection de la cible par le système lidar, dans des directions successives situées le long d’un premier motif de balayage.
8. Procédé selon l'une des revendications 1 à 7, dans lequel, lorsque la cible (502) est détectée par le radar (RDRS) à champ de vision large (202), un radar (RDRS) à champ de vision étroit (201) est pointé dans une direction initiale définie par les données de trajectoire de la cible, déterminées à partir des signaux issus du radar à champ de vision large, puis, en l’absence de détection par le radar à champ de vision étroit, dans des directions successives situées le long d’un second motif de balayage.
9. Procédé selon l'une des revendications 1 à 8, dans lequel, lorsque la cible est détectée par le système lidar (LDRS) ou par un radar (RDRS) à champ de vision étroit (201), en phase d’acquisition (OPS, IPS), la distance entre le véhicule spatial (101) et la cible (502) est comparée à une seconde valeur (d2) de seuil de distance inférieure à la première valeur de distance (d1) et définissant une zone d’inspection de la cible où le véhicule spatial (101 ) est engagé sur une trajectoire d’inspection (505) de la cible.
10. Procédé selon l'une des revendications 1 à 9, comprenant une étape d’estimation d’un risque de collision avec la cible dans la phase de détection à courte distance (STP) ou la phase d’acquisition (OPS, IPS), en fonction d’une trajectoire suivie par le véhicule spatial (101 ) et des données de trajectoire estimées de la cible (502), et engager le véhicule spatial sur la trajectoire d’éloignement (506) si le risque de collision est supérieur à une valeur de seuil.
11. Produit programme d’ordinateur chargeable dans une mémoire et qui, lorsqu’il est exécuté par un calculateur (MCLC) connecté à la mémoire, configure le calculateur pour mettre en œuvre le procédé selon l’une des revendications 1 à 10.
12. Calculateur (MCLC) comprenant des circuits d’interface pour recevoir des données issues d’un radar (RDRS) à champ de vision large (202) et d’un système lidar (LDRS), caractérisé en ce qu’il est configuré pour mettre en œuvre le procédé selon l’une des revendications 1 à 10.
13. Calculateur selon la revendication 12, dans lequel les circuits d’interface sont configurés pour recevoir des données issues d’un radar à champ de vision étroit (201), ou bien pour transmettre des commandes et recevoir des données d’un système radar (RDRS) à champ de vision configurable entre un champ de vision large (202) et un champ de vision étroit (201 ).
14. Véhicule spatial comprenant un calculateur (MCLC) selon l'une des revendications 12 ou 13, un radar (RDRS) à champ de vision large (202) et un système lidar (LDRS).
PCT/FR2020/051983 2019-11-04 2020-11-03 Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques WO2021089938A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022526042A JP2023501349A (ja) 2019-11-04 2020-11-03 搭載型レーダー及びライダーシステムを使用して宇宙物体を追跡する方法
EP20819807.7A EP4038412A1 (fr) 2019-11-04 2020-11-03 Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques
US17/755,666 US20220390605A1 (en) 2019-11-04 2020-11-03 Method for tracking a space object using on-board radar and lidar systems
CA3161114A CA3161114A1 (fr) 2019-11-04 2020-11-03 Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR1912345 2019-11-04
FR1912345A FR3102862B1 (fr) 2019-11-04 2019-11-04 Procede de poursuite d’un objet spatial a l’aide de systemes radar et lidar embarques

Publications (1)

Publication Number Publication Date
WO2021089938A1 true WO2021089938A1 (fr) 2021-05-14

Family

ID=72885590

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2020/051983 WO2021089938A1 (fr) 2019-11-04 2020-11-03 Procede de poursuite d'un objet spatial a l'aide de systemes radar et lidar embarques

Country Status (6)

Country Link
US (1) US20220390605A1 (fr)
EP (1) EP4038412A1 (fr)
JP (1) JP2023501349A (fr)
CA (1) CA3161114A1 (fr)
FR (1) FR3102862B1 (fr)
WO (1) WO2021089938A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105353A1 (fr) * 2022-11-30 2023-06-15 Karampour Rouhollah Dispositif traceur d'étoiles pour auto-guide d'astrophotographie intitulé
WO2023131599A1 (fr) * 2022-01-04 2023-07-13 Kurs Orbital S.R.L. Module de rendez-vous et de capture multifonctionnel

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900019322A1 (it) * 2019-10-18 2021-04-18 Thales Alenia Space Italia Spa Con Unico Socio Assistenza end-to-end in orbita
CN115877370B (zh) * 2023-03-08 2023-07-07 中国西安卫星测控中心 一种利用双雷达距离与方位角快速计算航天器轨道的方法
CN116659521B (zh) * 2023-06-01 2024-05-07 山东理工大学 空间碎片双弧测角值一体化定初轨及关联方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140107865A1 (en) * 2012-10-12 2014-04-17 National Aeronautics And Space Administration System, apparatus, and method for active debris removal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140107865A1 (en) * 2012-10-12 2014-04-17 National Aeronautics And Space Administration System, apparatus, and method for active debris removal

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FLOM T ET AL: "MULTIPLE TARGET TRACKING AND TARGET ATTITUDE DETERMINATION WITH A SCANNING LASER RADAR", NAVIGATION: JOURNAL OF THE INSTITUTE OF NAVIGATION, INSTITUTE OF NAVIGATION, FAIRFAX, VA, US, vol. 21, no. 4, 1 March 1975 (1975-03-01), pages 298 - 309, XP056012597, ISSN: 0028-1522 *
SEPP G ED - EUROPEAN SPACE AGENCY: "CW DIODE LASER INSTRUMENTATION FOR RENDEZ-VOUS AND DOCKING MANOEUVRES IN GEOSYNCHRONOUS ORBITS", PROCEEDINGS OF THE WORKSHOP ON SPACE LASER APPLICATIONS & TECHNOLOGY. (SPLAT). LES DIABLERETS, MAR. 25 - 30, 1984; [PROCEEDINGS OF THE WORKSHOP ON SPACE LASER APPLICATIONS & TECHNOLOGY. (SPLAT)], PARIS, ESA, FR, vol. -, no. 1984, 25 March 1984 (1984-03-25), pages 249 - 254, XP000041275 *
WIGBERT FEHSE: "RENDEZVOUS WITH AND CAPTURE / REMOVAL OF NON-COOPERATIVE BODIES IN ORBIT", JOURNAL OF SPACE SAFETY ENGINEERING, 1 June 2014 (2014-06-01), pages 17 - 27, XP055744996, Retrieved from the Internet <URL:https://reader.elsevier.com/reader/sd/pii/S2468896716300684> [retrieved on 20201029] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023131599A1 (fr) * 2022-01-04 2023-07-13 Kurs Orbital S.R.L. Module de rendez-vous et de capture multifonctionnel
WO2023105353A1 (fr) * 2022-11-30 2023-06-15 Karampour Rouhollah Dispositif traceur d'étoiles pour auto-guide d'astrophotographie intitulé

Also Published As

Publication number Publication date
FR3102862A1 (fr) 2021-05-07
EP4038412A1 (fr) 2022-08-10
CA3161114A1 (fr) 2021-05-14
JP2023501349A (ja) 2023-01-18
FR3102862B1 (fr) 2021-10-29
US20220390605A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
EP4038412A1 (fr) Procede de poursuite d&#39;un objet spatial a l&#39;aide de systemes radar et lidar embarques
EP2122388B1 (fr) Dispositif et procede de localisation d&#39;un mobile a l&#39;approche d&#39;une surface reflechissant les ondes electromagnetiques
US10656283B2 (en) Adaptative antenna assembly for improving precision of a GNSS receiver in a perturbated environment
US9989634B2 (en) System and method for detection and orbit determination of earth orbiting objects
FR2995088A1 (fr) Systeme pour proteger une plateforme aeroportee contre des collisions
FR2712989A1 (fr) Système adaptatif de radiogoniométrie.
FR2648570A1 (fr) Dispositif et procede pour mesurer l&#39;azimut et le site d&#39;un objet
EP3491408B1 (fr) Procédé et système d&#39;estimation de la direction d&#39;un satellite en phase de transfert d&#39;une orbite initiale vers une orbite de mission
EP2642317B1 (fr) Dispositif de réception de signaux de radio-navigation multi-antennes
EP2107391B1 (fr) Procédé de détection avec un radar d&#39;une cible connue susceptible d&#39;être sensiblement disposée à une hauteur donnée, à proximité d&#39;autres cibles disposées sensiblement à la même hauteur
EP4165435B1 (fr) Système radar bi-statique ou multi-statique pour la surveillance aérienne avec illumination spatiale
EP2530022B1 (fr) Système de localisation géographique d&#39;un émetteur de signaux radioélectriques situeé à la surface de la terre, et procédé associé d&#39;interférométrie distribuée
EP3474037B1 (fr) Dispositif d&#39;imagerie reconfigurable
EP2642319B1 (fr) Dispositif de réception de signaux de radio-navigation à antennes multiples et asservissement de synchronisation commun
EP1227333A1 (fr) Procédé et dispositif de localisation d&#39;un émetteur terrestre à partir d&#39;un satellite
EP3859882B1 (fr) Système radioélectrique à réseaux d&#39;antennes multiples et à formes d&#39;onde adaptatives
EP3904904B1 (fr) Surveillance de l espace à l aide d&#39;un radar bistatique dont le système récepteur est au moins partiellement embarqué dans un satellite
FR3003961A1 (fr) Procede de formation de faisceau signaux d&#39;un recepteur de signaux d&#39;un systeme de navigation par satellites pour ameliorer la resistance au brouillage.
FR3079608A1 (fr) Procede de geolocalisation d&#39;un drone, systeme de geolocalisation et produit programme d&#39;ordinateur associes
EP1522871B1 (fr) Radar à formation de voies d&#39;écartométrie synthétiques
JP2024518419A (ja) フェムト衛星の位置特定、ウェイクアップ、および方向推定
FR3041766A1 (fr) Procede de localisation passive d&#39;emetteurs electromagnetiques au sol, utilisation, et dispositif associe
EP4386419A1 (fr) Procédé de commande du pointage d&#39;une antenne
FR3140176A1 (fr) Procédé et dispositif de détection d’obstacles proches par Radar Passif Multistatique GNSS pour plateformes mobiles
FR2988178A1 (fr) Dispositif de guidage sur faisceaux electromagnetiques, objet volant et systeme de lancement associe

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20819807

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022526042

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3161114

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020819807

Country of ref document: EP

Effective date: 20220607