FR2997258A1 - On-board system for use in aircraft to detect and measure objects e.g. stars, moving in space, has zone detecting luminous flow emitted by objects during zone integration time, where time is function of luminous intensity of objects - Google Patents

On-board system for use in aircraft to detect and measure objects e.g. stars, moving in space, has zone detecting luminous flow emitted by objects during zone integration time, where time is function of luminous intensity of objects Download PDF

Info

Publication number
FR2997258A1
FR2997258A1 FR1259937A FR1259937A FR2997258A1 FR 2997258 A1 FR2997258 A1 FR 2997258A1 FR 1259937 A FR1259937 A FR 1259937A FR 1259937 A FR1259937 A FR 1259937A FR 2997258 A1 FR2997258 A1 FR 2997258A1
Authority
FR
France
Prior art keywords
zone
objects
integration time
detection surface
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1259937A
Other languages
French (fr)
Other versions
FR2997258B1 (en
Inventor
Pierre Emmanuel Martinez
Laurent Majewski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National dEtudes Spatiales CNES
SODERN SA
Original Assignee
Centre National dEtudes Spatiales CNES
SODERN SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National dEtudes Spatiales CNES, SODERN SA filed Critical Centre National dEtudes Spatiales CNES
Priority to FR1259937A priority Critical patent/FR2997258B1/en
Publication of FR2997258A1 publication Critical patent/FR2997258A1/en
Application granted granted Critical
Publication of FR2997258B1 publication Critical patent/FR2997258B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • B64G1/361Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors using star sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7867Star trackers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

The system (1) has an optical sensor (2) comprising a detection surface (3) for detecting objects and an image pickup (7) moving in a space. The detection surface of the sensor comprises one or multiple zones (4). Each zone comprises a pixel, and is arranged to detect a luminous flow emitted by the objects during integration time of the zone, where the integration time is a function of luminous intensity of the objects detected by the zone. A memory (10) memorizes a catalog (11) of known objects moving in space and stores signals measured by the zones. The optical sensor is an active pixel sensor (APS) or a CMOS sensor. An independent claim is also included for a method for detecting and imaging objects moving in a space.

Description

DOMAINE DE L'INVENTION L'invention concerne un système de détection et de mesure comprenant un senseur optique, adapté pour la détection et la prise d'image d'objets évoluant dans l'espace. L'invention concerne également un procédé de détection et de prise d'image d'objets évoluant dans l'espace, mettant en oeuvre ce système. ETAT DE LA TECHNIQUE Les satellites embarquent en général un ou plusieurs senseurs optiques, dénommés senseurs stellaires. Ces senseurs sont également, le cas échéant, utilisés dans d'autres types d'aéronefs. Les senseurs stellaires sont des systèmes optiques comprenant une surface de détection, par exemple de type CCD ou APS, adaptée pour détecter un flux lumineux émis par des étoiles.FIELD OF THE INVENTION The invention relates to a detection and measurement system comprising an optical sensor, suitable for detecting and taking pictures of objects moving in space. The invention also relates to a method for detecting and taking pictures of objects moving in space, implementing this system. STATE OF THE ART Satellites generally carry one or more optical sensors, called stellar sensors. These sensors are also, if necessary, used in other types of aircraft. The stellar sensors are optical systems comprising a detection surface, for example of the CCD or APS type, adapted to detect a luminous flux emitted by stars.

Un traitement des images obtenues par les senseurs stellaires consiste alors à identifier dans ces images des étoiles connues, par comparaison avec un catalogue embarqué d'étoiles dans lequel des étoiles connues sont stockées. Ce traitement permet d'en déduire l'attitude du satellite, notamment à des fins de pilotage et de contrôle d'attitude du satellite. Comme on le comprend, la qualité de la détection des étoiles par le senseur stellaire a un impact direct sur les performances de pilotage et de contrôle du satellite. Toutefois, les senseurs stellaires de l'état de la technique présentent certains inconvénients. En particulier, le rapport signal à bruit de ces senseurs stellaires n'est pas optimal. Ceci dégrade donc le contrôle et le pilotage des aéronefs embarquant ces senseurs stellaires. En outre, le dimensionnement et la mise en oeuvre de ces senseurs stellaires sont figés, ce qui implique que les performances de détection et de mesure ne peuvent s'adapter aux scènes observées, et restent donc moyennes.A processing of the images obtained by the stellar sensors then consists in identifying in these images known stars, by comparison with an onboard catalog of stars in which known stars are stored. This treatment makes it possible to deduce the attitude of the satellite, in particular for satellite steering and attitude control purposes. As understood, the quality of star detection by the stellar sensor has a direct impact on the satellite's driving and control performance. However, the stellar sensors of the state of the art have certain disadvantages. In particular, the signal-to-noise ratio of these stellar sensors is not optimal. This degrades the control and control of aircraft embarking these stellar sensors. In addition, the design and implementation of these stellar sensors are fixed, which implies that the detection and measurement performance can not adapt to the scenes observed, and therefore remain average.

PRESENTATION DE L'INVENTION Afin de pallier ces inconvénients, l'invention propose un système de détection et de mesure comprenant un senseur optique, ledit senseur comprenant une surface de détection pour la détection et la prise d'image d'objets évoluant dans l'espace, la surface de détection comprenant une ou plusieurs zones comprenant chacune au moins un pixel, chaque zone étant configurée pour détecter un flux lumineux émis par les objets durant un temps d'intégration, ledit système étant caractérisé en ce que le temps d'intégration de chaque zone de la surface de détection est fonction des objets détectés par cette zone. L'invention est avantageusement complétée par les caractéristiques suivantes, prises seules ou en une quelconque de leur combinaison techniquement possible : - le temps d'intégration de chaque zone de la surface de détection est fonction de l'intensité lumineuse des objets à détecter par cette zone; - le temps d'intégration est choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone ; - le système comprend en outre une mémoire stockant un catalogue d'objets connus évoluant dans l'espace, le système comprenant une unité de traitement configurée pour déterminer le temps d'intégration des zones de la surface de détection à partir de l'identification d'objets du catalogue ; - le temps d'intégration de chaque zone est le temps durant lequel la zone est activée pour détecter un flux lumineux émis par les objets, ou le système comprend un dispositif de lecture configuré pour lire à des instants différents un signal correspondant à un flux lumineux mesuré par chaque zone, afin de réaliser un temps d'intégration adapté à chaque zone ; - le système comprend une mémoire configurée pour stocker les signaux mesurés par les zones de la surface de détection, et une unité de traitement, configurée pour comparer l'amplitude des signaux mesurés par chaque zone au cours du temps avec au moins un seuil de saturation des pixels de la zone, et en déduire un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser un temps d'intégration adapté à chaque zone.PRESENTATION OF THE INVENTION In order to overcome these drawbacks, the invention proposes a detection and measurement system comprising an optical sensor, said sensor comprising a detection surface for detecting and taking pictures of objects evolving in the space, the detection surface comprising one or more zones each comprising at least one pixel, each zone being configured to detect a luminous flux emitted by the objects during an integration time, said system being characterized in that the integration time of each area of the detection surface is a function of the objects detected by this area. The invention is advantageously completed by the following characteristics, taken alone or in any of their technically possible combination: the integration time of each zone of the detection surface is a function of the light intensity of the objects to be detected by this zoned; the integration time is chosen so as to maximize the signal corresponding to the luminous flux detected by each zone, while avoiding saturation of the pixels of this zone; the system further comprises a memory storing a catalog of known objects moving in space, the system comprising a processing unit configured to determine the integration time of the zones of the detection surface from the identification of catalog objects; the integration time of each zone is the time during which the zone is activated to detect a luminous flux emitted by the objects, or the system comprises a reading device configured to read at different times a signal corresponding to a luminous flux. measured by each zone, in order to achieve an integration time adapted to each zone; the system comprises a memory configured to store the signals measured by the zones of the detection surface, and a processing unit, configured to compare the amplitude of the signals measured by each zone over time with at least one saturation threshold. pixels of the zone, and deduce therefrom an optimum measured signal with respect to said saturation threshold, in order to achieve an integration time adapted to each zone.

Dans un mode de réalisation, le système de détection est embarqué à bord d'un aéronef, ledit aéronef étant choisi parmi : un avion, un drone, un satellite, un missile, un ballon d'observation, un engin spatial. Il est également décrit un procédé de détection et de prise d'image d'objets évoluant dans l'espace, mettant en oeuvre un système comprenant un senseur optique, ledit senseur comprenant une surface de détection pour la détection et la prise d'image d'objets évoluant dans l'espace, la surface de détection comprenant une ou plusieurs zones comprenant chacune au moins un pixel, ledit procédé étant caractérisé en ce que chaque zone détecte un flux lumineux émis par les objets durant un temps d'intégration, et le temps d'intégration de chaque zone de la surface de détection est fonction des objets détectés. Ce procédé de détection et de mesure est avantageusement complétée par les caractéristiques suivantes, prises seules ou en une quelconque de leur combinaison techniquement possible : - le temps d'intégration de chaque zone de la surface de détection est fonction de l'intensité lumineuse des objets à détecter ; - une unité de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir d'un catalogue d'objets connus évoluant dans l'espace, et l'unité de traitement détermine le temps d'intégration des zones de la surface de détection à partir de l'identification d'objets du catalogue ; - chaque zone est activée durant le temps d'intégration pour détecter un flux lumineux émis par les objets, ou le système comprend un dispositif de lecture qui lit à des instants différents un signal mesuré par chaque zone, afin de réaliser un temps d'intégration adapté à chaque zone ; - le procédé comprend les étapes consistant à stocker les signaux mesurés par les zones de la surface de détection dans une mémoire, comparer l'amplitude des signaux mesurés par chaque zone au cours du temps avec au moins un seuil de saturation des pixels de la zone, et en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation ; - l'unité de traitement règle de manière dynamique la taille, et/ou la forme, et/ou le nombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée ; - le procédé comprend les étapes consistant à prendre des images d'une scène comprenant à la fois au moins un premier objet dont la position est connue dans un repère inertiel, et au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration de chaque zone étant réglé en fonction des objets détectés par cette zone, déterminer, à partir des images, la direction du second objet par rapport au premier objet, et en déduire la position du second objet dans le repère inertiel. Ces systèmes et procédés permettent d'obtenir différents avantages. Le rapport signal à bruit dans la détection et la mesure d'objets évoluant dans l'espace par le senseur optique est optimisé. En outre, la détection s'adapte aux objets observés et aux scènes observées, ce qui permet d'affiner la qualité de la détection et de la mesure. Par conséquent, les performances de pilotage et de contrôle d'attitude d'aéronefs sont améliorées.In one embodiment, the detection system is embarked on board an aircraft, said aircraft being chosen from: an airplane, a drone, a satellite, a missile, an observation balloon, a spacecraft. There is also described a method for detecting and taking pictures of objects evolving in space, implementing a system comprising an optical sensor, said sensor comprising a detection surface for detecting and capturing image of objects moving in space, the detection surface comprising one or more zones each comprising at least one pixel, said method being characterized in that each zone detects a luminous flux emitted by the objects during an integration time, and the integration time of each zone of the detection surface is a function of the detected objects. This detection and measurement method is advantageously completed by the following characteristics, taken alone or in any of their technically possible combination: the integration time of each zone of the detection surface is a function of the luminous intensity of the objects to detect; a system processing unit identifies objects to be detected evolving in space, from a catalog of known objects evolving in space, and the processing unit determines the integration time of the zones of the space. detection surface from the identification of catalog objects; each zone is activated during the integration time to detect a luminous flux emitted by the objects, or the system comprises a reading device which reads at different times a signal measured by each zone, in order to achieve an integration time. adapted to each zone; the method comprises the steps of storing the signals measured by the zones of the detection surface in a memory, comparing the amplitude of the signals measured by each zone over time with at least one saturation threshold of the pixels of the zone and deducing therefrom for each zone an optimum measured signal with respect to said saturation threshold; the processing unit dynamically adjusts the size, and / or the shape, and / or the number and / or the position of the different zones on the detection surface, in order to adapt them to the detected scene; the method comprises the steps of taking images of a scene comprising at least one first object whose position is known in an inertial frame, and at least one second object whose position is to be determined in the inertial frame. , the integration time of each zone being adjusted according to the objects detected by this zone, determine, from the images, the direction of the second object relative to the first object, and deduce the position of the second object in the inertial reference . These systems and methods provide different benefits. The signal-to-noise ratio in the detection and measurement of objects moving in space by the optical sensor is optimized. In addition, the detection adapts to the objects observed and the scenes observed, which makes it possible to refine the quality of the detection and the measurement. As a result, aircraft steering and attitude control performance is improved.

Par ailleurs, le système proposé est polyvalent et s'adapte à différents types d'aéronefs, évoluant dans différentes conditions. DESCRIPTION DES FIGURES D'autres avantages et caractéristiques ressortiront mieux de la description qui va suivre, de plusieurs variantes d'exécution, données à titre d'exemples non limitatifs, à partir des dessins annexés sur lesquels : - La Figure 1 est un mode de réalisation d'un système de détection et de mesure selon l'invention, comprenant un senseur optique ; - La Figure 2 est un graphique représentant des temps d'intégration différents en fonction d'objets détectés ; - La Figure 3 est une représentation schématique d'un mode de réalisation d'un procédé de détection et de mesure selon l'invention ; - La Figure 4 est une représentation schématique d'un autre mode de réalisation d'un procédé de détection et de mesure selon l'invention; - La Figure 5 est une représentation schématique d'un autre mode de réalisation de la sélection du temps d'intégration selon l'invention, à partir du signal détecté par chaque zone de la surface de détection.Moreover, the proposed system is versatile and adapts to different types of aircraft, operating under different conditions. DESCRIPTION OF THE FIGURES Other advantages and features will emerge more clearly from the following description of several variant embodiments, given by way of non-limiting examples, from the appended drawings in which: FIG. embodiment of a detection and measurement system according to the invention, comprising an optical sensor; FIG. 2 is a graph representing different integration times as a function of detected objects; FIG. 3 is a schematic representation of an embodiment of a detection and measurement method according to the invention; FIG. 4 is a schematic representation of another embodiment of a detection and measurement method according to the invention; - Figure 5 is a schematic representation of another embodiment of the selection of the integration time according to the invention, from the signal detected by each zone of the detection surface.

DESCRIPTION DETAILLEE DE L'INVENTION Présentation du système de détection et de mesure On a représenté en Figure 1 un système 1 de détection et de mesure selon un mode de réalisation de l'invention. Ce système 1 comprend un senseur 2 optique. Le senseur 2 optique est destiné à la détection et la prise d'image d'objets 7 évoluant dans l'espace, comme par exemples des étoiles, ou des débris spatiaux, ou autres. A cet effet, le senseur 2 optique comprend une surface 3 de détection sensible, qui comprend une pluralité de pixels. A titre d'exemple non limitatif, la surface de détection est de type APS (selon l'acronyme anglo-saxon « active-pixel sensor »), ou CMOS (selon 30 l'acronyme anglo-saxon « Complementary metal-oxide-semiconductor »).DETAILED DESCRIPTION OF THE INVENTION Presentation of the detection and measurement system FIG. 1 shows a detection and measurement system 1 according to one embodiment of the invention. This system 1 comprises an optical sensor 2. The optical sensor 2 is intended for detecting and taking pictures of objects 7 evolving in space, such as, for example, stars, or space debris, or the like. For this purpose, the optical sensor 2 comprises a sensitive detection surface 3, which comprises a plurality of pixels. By way of non-limiting example, the detection surface is of the APS type ("active-pixel sensor"), or CMOS (acronym) "Complementary metal-oxide-semiconductor". ").

De manière classique, le senseur 2 optique comprend une pluralité d'éléments 20 optiques, permettant de capter le flux lumineux émis par les objets 7, pour le diriger vers la surface 3 de détection sensible. Ces éléments 20 optiques incluent par exemple des lentilles, et/ou des déflecteurs, et/ou des miroirs, et/ou des objectifs, ou d'autres dispositifs optiques adaptés aux senseurs optiques. La surface 3 de détection du senseur 2 optique comprend une ou plusieurs zones 4 comprenant chacune au moins un pixel. Dans certains modes de réalisation décrits par la suite, la surface 3 de détection est décrite comme comprenant une pluralité de zones, mais il est entendu que ces modes de réalisation s'appliquent au cas d'une unique zone. Dans le cas d'une pluralité de zones, celles-ci ne sont pas nécessairement définies de manière identique ou symétrique, mais peuvent néanmoins l'être. Les zones 4 ne sont pas figées dans le temps, ni en forme, ni en nombre, ni en position sur la surface 3 de détection. Selon les applications, les zones 4 peuvent toutefois être figées selon un ou plusieurs des paramètres précités, mais ceci n'est pas obligatoire.Conventionally, the optical sensor 2 comprises a plurality of optical elements 20, making it possible to capture the luminous flux emitted by the objects 7, in order to direct it towards the sensitive detection surface 3. Such optical elements include, for example, lenses, and / or baffles, and / or mirrors, and / or lenses, or other optical devices adapted to optical sensors. The detection surface 3 of the optical sensor 2 comprises one or more zones 4 each comprising at least one pixel. In certain embodiments described below, the detection surface 3 is described as comprising a plurality of zones, but it is understood that these embodiments apply to the case of a single zone. In the case of a plurality of zones, these are not necessarily defined identically or symmetrically, but may nevertheless be. Zones 4 are not fixed in time, in shape, in number, or in position on the detection surface 3. Depending on the applications, zones 4 may however be frozen according to one or more of the aforementioned parameters, but this is not mandatory.

Chaque zone 4 est configurée pour détecter et mesurer un flux lumineux émis par les objets 7 durant un temps d'intégration. Ainsi, les zones 4 permettent de fournir chacune un signal représentant le flux lumineux émis par les objets 7 durant ce temps d'intégration. Ce signal est par exemple un signal électrique ou numérique en sortie du senseur 2 optique. Le temps d'intégration d'une zone de pixels est le temps durant lequel le flux lumineux émis par des objets est mesuré par cette zone. Comme explicité par la suite, différents modes de réalisation sont possibles pour régler ce temps d'intégration.Each zone 4 is configured to detect and measure a luminous flux emitted by the objects 7 during an integration time. Thus, the zones 4 make it possible to each provide a signal representing the luminous flux emitted by the objects 7 during this integration time. This signal is for example an electrical or digital signal output from the optical sensor 2. The integration time of a pixel area is the time during which the luminous flux emitted by objects is measured by this area. As explained later, various embodiments are possible to adjust this integration time.

Le système 1 comprend, dans un mode de réalisation, une mémoire 10 et une unité 12 de traitement. La mémoire 10 peut notamment être utilisée pour stocker les signaux mesurés par le senseur optique. L'unité 12 de traitement peut notamment être utilisée pour contrôler le senseur optique et sa surface de détection, ainsi que pour traiter, le cas échéant, les signaux mesurés par la surface de détection. L'unité 12 de traitement est par exemple associée à un calculateur. L'unité de traitement peut par exemple être intégrée dans le senseur 2 optique. Adaptation du temps d'intégration de chaque zone Dans un mode de réalisation, le temps d'intégration de chaque zone 4 de la surface de détection est fonction des objets 7 détectés par cette zone. Ainsi, on adapte le temps d'intégration des zones 4 aux objets détectés, ce qui permet d'obtenir un rapport signal à bruit optimisé. En particulier, le temps d'intégration est avantageusement choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone. Ainsi, le signal de mesure est optimisé, tout en évitant une saturation indésirable. En particulier, étant donné que la scène observée (par exemple la voûte céleste) présente une variété d'objets différents, les zones 4 présentent chacune dans un mode de réalisation un temps d'intégration étant adapté aux objets observés par cette zone 4. Si chaque zone 4 observe des objets différents, chaque zone 4 peut présenter un temps d'intégration différent des autres zones. Dans un mode de réalisation, le temps d'intégration des zones 4 de la surface 3 de détection est fonction de l'intensité lumineuse des objets 7 à détecter. L'intensité lumineuse des objets évoluant dans l'espace est également dénommée magnitude par l'homme du métier. On rappelle que la magnitude est une mesure de l'éclairement énergétique d'un objet céleste. La magnitude repose sur une échelle logarithmique inversée. Plus un objet présente une magnitude élevée, plus l'éclairement énergétique est faible et donc plus difficile à observer.The system 1 comprises, in one embodiment, a memory 10 and a processing unit 12. The memory 10 may in particular be used to store the signals measured by the optical sensor. The processing unit 12 may in particular be used to control the optical sensor and its detection surface, as well as to process, if necessary, the signals measured by the detection surface. The processing unit 12 is for example associated with a computer. The processing unit may for example be integrated in the optical sensor 2. Adaptation of the integration time of each zone In one embodiment, the integration time of each zone 4 of the detection surface is a function of the objects 7 detected by this zone. Thus, the integration time of the zones 4 is adapted to the detected objects, which makes it possible to obtain an optimized signal-to-noise ratio. In particular, the integration time is advantageously chosen so as to maximize the signal corresponding to the light flux detected by each zone, while avoiding saturation of the pixels of this zone. Thus, the measurement signal is optimized, while avoiding unwanted saturation. In particular, since the observed scene (for example the celestial vault) has a variety of different objects, the zones 4 each have in one embodiment an integration time being adapted to the objects observed by this zone 4. If each zone 4 observes different objects, each zone 4 may have an integration time different from the other zones. In one embodiment, the integration time of the zones 4 of the detection surface 3 is a function of the light intensity of the objects 7 to be detected. The luminous intensity of objects moving in space is also called magnitude by the skilled person. It is recalled that the magnitude is a measure of the irradiance of a celestial object. The magnitude is based on an inverted logarithmic scale. The higher the magnitude of an object, the lower the irradiance and therefore more difficult to observe.

Ainsi, dans un mode de réalisation, le temps d'intégration des zones 4 est réglé en fonction de l'intensité lumineuse des objets observés par le senseur 2 optique. Ces objets sont par exemple des étoiles. Dans un mode de réalisation, plus une zone 4 doit observer des objets d'intensité lumineuse faible (et donc de magnitude élevée), plus le système 1 va augmenter le temps d'intégration de ladite zone 4. Inversement, plus une zone doit observer des objets d'intensité lumineuse élevée (et donc de magnitude faible), plus le système va diminuer, notamment par son unité 12 de traitement, le temps d'intégration de ladite zone 4. Cette augmentation ou cette diminution du temps d'intégration peuvent être contrôlées par l'unité 12 de traitement. Ce réglage adaptatif du temps d'intégration permet d'optimiser pour chaque zone 4 de la surface 3 de détection le rapport signal à bruit. Dans un mode de réalisation, l'unité 12 de traitement règle de manière dynamique la taille, et/ou la forme, et/ou le nombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée. La scène étant susceptible d'évoluer, le réglage dynamique des zones permet d'adapter les zones aux objets présents dans la scène. Selon les cas, la taille des différentes zones de la surface de détection 20 peut être réglée de sorte à ce que chaque zone détecte un seul objet, comme par exemple une seule étoile. Exemple de réalisation 25 Pour illustrer ce réglage adaptatif, on a représenté un exemple en Figure 2, avec deux étoiles El et E2. La première étoile El présente une magnitude moins élevée que la deuxième étoile E2. Le graphique de la Figure 2 représente le signal S (accumulé) mesuré 30 par deux zones distinctes de la surface de détection au cours du temps, chacune recevant le flux lumineux d'une des deux étoiles.Thus, in one embodiment, the integration time of the zones 4 is adjusted according to the light intensity of the objects observed by the optical sensor 2. These objects are, for example, stars. In one embodiment, plus an area 4 must observe objects of low light intensity (and therefore of high magnitude), plus the system 1 will increase the integration time of said area 4. Conversely, plus an area must observe objects of high light intensity (and therefore low magnitude), plus the system will decrease, including its processing unit 12, the integration time of said zone 4. This increase or decrease in integration time can be controlled by the processing unit 12. This adaptive adjustment of the integration time makes it possible to optimize for each zone 4 of the detection surface 3 the signal-to-noise ratio. In one embodiment, the processing unit 12 dynamically adjusts the size, and / or shape, and / or the number and / or position of the different areas on the detection surface, in order to adapt them to the scene detected. As the scene is likely to change, the dynamic zone adjustment makes it possible to adapt the zones to the objects present in the scene. Depending on the case, the size of the different zones of the detection surface 20 can be adjusted so that each zone detects a single object, such as for example a single star. Embodiment 25 To illustrate this adaptive adjustment, an example is shown in FIG. 2, with two stars E1 and E2. The first star El has a lower magnitude than the second star E2. The graph of FIG. 2 represents the signal S (accumulated) measured by two distinct zones of the detection surface over time, each receiving the luminous flux of one of the two stars.

Comme on peut le voir en Figure 2, l'étoile El présente une magnitude plus faible que l'étoile E2. Avantageusement, l'unité de traitement du dispositif 1 fixe le temps d'intégration pour l'étoile El comme égal à T1. En effet, ce temps d'intégration T1 permet de maximiser le signal mesuré pour la première étoile El (et donc le flux lumineux perçu), tout en étant en-dessous du seuil de saturation Sm>, des pixels de la zone 4. On rappelle que le seuil de saturation est la valeur maximum du signal pour laquelle les pixels ne peuvent plus faire de différence dans le signal mesuré, et affichent de manière uniforme une valeur de saturation. De même, l'unité de traitement du dispositif 1 fixe le temps d'intégration pour l'étoile E2 comme égal à T2 (T2>T1). En effet, ce temps d'intégration permet de maximiser le signal mesuré pour la deuxième étoile E2, tout en étant en-dessous du seuil de saturation Sm>, des pixels de la zone 4. Comme on peut le constater, le signal mesuré par la surface de détection est maximisé quelle que soit la magnitude de l'objet détecté ou de l'étoile détectée, grâce à un réglage du temps d'intégration de chaque zone en fonction des objets détectés.As can be seen in Figure 2, the star El has a lower magnitude than the star E2. Advantageously, the processing unit of the device 1 sets the integration time for the star El as equal to T1. Indeed, this integration time T1 makes it possible to maximize the signal measured for the first star El (and thus the perceived luminous flux), while being below the saturation threshold Sm>, of the pixels of the zone 4. recalls that the saturation threshold is the maximum value of the signal for which the pixels can no longer make a difference in the measured signal, and uniformly display a saturation value. Similarly, the processing unit of the device 1 sets the integration time for the star E2 as T2 (T2> T1). Indeed, this integration time makes it possible to maximize the signal measured for the second star E2, while being below the saturation threshold Sm>, of the pixels of the zone 4. As can be seen, the signal measured by the detection area is maximized regardless of the magnitude of the detected object or the detected star, by adjusting the integration time of each zone according to the detected objects.

Le graphique de la Figure 2 dépeint une configuration dans laquelle la mesure des flux lumineux des objets détectés par la surface de détection est démarrée au même instant (t = 0). Toutefois, il est clair que ceci n'est pas obligatoire, et que différents instants de départ de la mesure peuvent être utilisés. Dans ce cas, l'unité 12 de traitement du système peut être configurée pour resynchroniser les signaux mesurés. Adaptation du temps d'intégration à partir de l'identification d'objets Dans un mode de réalisation, le système 1 comprend en outre une mémoire 10 stockant un catalogue 11 d'objets connus évoluant dans l'espace. On entend par objet connus le fait que le catalogue comprend des données caractéristiques sur ces objets. Il s'agit par exemple d'un catalogue d'étoiles, dont on connaît la position ou la direction dans un repère inertiel, et leur magnitude. D'autres objets évoluant dans l'espace peuvent être connus, comme par exemple des débris, ou des corps célestes. Dans un mode de réalisation, le système comprend une unité 12 de traitement configurée pour déterminer le temps d'intégration des zones 4 de la surface 3 de détection à partir de l'identification d'objets 7 du catalogue. Comme illustré en Figure 3, l'unité 12 de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir du catalogue d'objets connus évoluant dans l'espace (étape Si). Puis, l'unité 12 de traitement détermine le temps d'intégration des zones 4 de la surface 3 de détection à partir de l'identification d'objets 7 du catalogue (étape S2). Avantageusement, le temps d'intégration est choisi de sorte à maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone. Ainsi, le fait de connaître les objets qui vont être vus par le senseur optique, par exemple dans le cas d'un aéronef embarquant ledit senseur, permet à l'unité 12 de traitement de prévoir les temps d'intégration nécessaires pour les zones 4 de la surface de détection. Dans un exemple de réalisation, les objets sont des étoiles. Il s'agit par exemple d'un cas dans lequel le système 1 est embarqué à bord d'un satellite. Le senseur 2 optique prend des images des étoiles par détection de leur flux lumineux, lesdites images étant traitées par l'unité 12 de traitement. L'unité 12 de traitement compare ces images avec le catalogue d'étoiles, et identifie des étoiles connues présentes dans le catalogue. Cette identification est par exemple réalisée par identification de motifs particuliers permettant à l'unité de traitement de reconnaître dans les images les étoiles.The graph of Figure 2 depicts a configuration in which the measurement of luminous flux of the objects detected by the detection surface is started at the same time (t = 0). However, it is clear that this is not mandatory, and that different starting times of the measurement can be used. In this case, the system processing unit 12 may be configured to resynchronize the measured signals. Adaptation of the integration time from the identification of objects In one embodiment, the system 1 further comprises a memory 10 storing a catalog 11 of known objects moving in space. Known object means that the catalog includes characteristic data on these objects. This is for example a catalog of stars, whose position or direction is known in an inertial frame, and their magnitude. Other objects evolving in space may be known, such as debris, or celestial bodies. In one embodiment, the system comprises a processing unit 12 configured to determine the integration time of the zones 4 of the detection surface 3 from the object identification 7 of the catalog. As illustrated in FIG. 3, the system processing unit 12 identifies objects to be detected evolving in space, from the catalog of known objects evolving in space (step S1). Then, the processing unit 12 determines the integration time of the zones 4 of the detection surface 3 from the object identification 7 of the catalog (step S2). Advantageously, the integration time is chosen so as to maximize the signal corresponding to the light flux detected by each zone, while avoiding saturation of the pixels of this zone. Thus, the fact of knowing the objects that will be seen by the optical sensor, for example in the case of an aircraft boarding said sensor, allows the processing unit 12 to provide the necessary integration times for the zones 4 of the detection surface. In an exemplary embodiment, the objects are stars. This is for example a case in which the system 1 is embedded onboard a satellite. The optical sensor 2 takes pictures of the stars by detecting their luminous flux, said images being processed by the processing unit 12. The processing unit 12 compares these images with the star catalog, and identifies known stars present in the catalog. This identification is for example carried out by identification of particular patterns allowing the processing unit to recognize in the images the stars.

L'unité 12 de traitement règle alors les temps d'intégration des différentes zones 4 de la surface de détection, en fonction des étoiles détectées par ces zones. De même, le système est apte à prédire, à partir des images prises par le senseur 2 optique, et du catalogue d'étoiles, les étoiles qui vont être vues par le senseur. Ceci permet à l'unité 12 de traitement de régler en avance les temps d'intégration nécessaires à chaque zone, en fonction des étoiles à détecter. La mise à jour des temps d'intégration des différentes zones de la surface de détection peut être effectuée à chaque prise d'image par le senseur optique, ou à une autre fréquence, selon les besoins. Premier mode de réalisation pour la gestion du temps d'intégration L'adaptabilité des temps d'intégration des différentes zones 4 de la surface peut être réalisée selon divers modes de réalisation. Dans un mode de réalisation, le temps d'intégration de chaque zone 4 est le temps durant lequel la zone 4 est activée pour détecter un flux lumineux émis par les objets 7. Cette activation peut par exemple être contrôlée via l'unité 12 de traitement. En dehors de ces périodes d'activation, la zone 4 n'est pas active et n'est donc pas apte à détecter un flux lumineux émis par les objets 7. La surface 3 de détection peut par exemple être configurée pour permettre à l'unité 12 de traitement de fixer le temps d'intégration physique de chaque zone de pixels de ladite surface. Second mode de réalisation pour la gestion du temps d'intégration Alternativement, le système 1 comprend un dispositif 15 de lecture configuré pour lire à des instants différents un signal mesuré par chaque zone 4, afin de réaliser un temps d'intégration adapté à chaque zone. Le signal correspond au flux lumineux détecté par chaque zone 4. Le dispositif 15 de lecture est de type unité logicielle et/ou physique. Ainsi, dans ce cas, il n'est plus nécessaire de gérer l'activation des différentes zones 4. Celles-ci peuvent rester actives en permanence. Toutefois, le dispositif 15 de lecture vient lire le signal mesuré par les zones à la fin du temps d'intégration requis pour chaque zone. Ainsi, dans l'exemple de la Figure 2, le dispositif 15 de lecture vient lire le signal S mesuré pour l'étoile El par la zone correspondante à l'instant Ti. Toutefois, la zone 4 ayant obtenue ce signal peut rester active pour les instants postérieurs à Ti. De même, le dispositif 15 de lecture vient lire le signal S mesuré pour l'étoile E2 à l'instant T2. Tout autre mode de réalisation adapté à la mise en place de temps d'intégration variables et différenciés peut être utilisé. La surface 3 de détection est choisie de sorte à permettre une lecture indépendante par l'unité de traitement des signaux mesurés par les zones de pixels de ladite surface.The processing unit 12 then adjusts the integration times of the different zones 4 of the detection surface, as a function of the stars detected by these zones. Similarly, the system is able to predict, from the images taken by the optical sensor 2, and the catalog of stars, the stars that will be seen by the sensor. This allows the processing unit 12 to adjust in advance the integration times required for each zone, depending on the stars to be detected. The updating of the integration times of the different zones of the detection surface can be performed at each image pickup by the optical sensor, or at another frequency, as required. First embodiment for managing the integration time The adaptability of the integration times of the different areas 4 of the surface can be achieved according to various embodiments. In one embodiment, the integration time of each zone 4 is the time during which the zone 4 is activated to detect a luminous flux emitted by the objects 7. This activation can for example be controlled via the processing unit 12. . Outside these activation periods, the zone 4 is not active and is therefore not able to detect a luminous flux emitted by the objects 7. The detection surface 3 may for example be configured to enable the processing unit 12 to set the physical integration time of each pixel area of said surface. Second embodiment for managing the integration time Alternatively, the system 1 comprises a reading device 15 configured to read at different times a signal measured by each zone 4, in order to achieve an integration time adapted to each zone. . The signal corresponds to the luminous flux detected by each zone 4. The reading device 15 is of the software unit and / or physical unit type. Thus, in this case, it is no longer necessary to manage the activation of the different zones 4. These can remain permanently active. However, the reading device 15 reads the signal measured by the zones at the end of the integration time required for each zone. Thus, in the example of FIG. 2, the reading device 15 reads the signal S measured for the star E1 by the corresponding zone at the instant Ti. However, the zone 4 having obtained this signal can remain active for the instants subsequent to Ti. Similarly, the reading device 15 reads the signal S measured for the star E2 at time T2. Any other embodiment suitable for implementing variable and differentiated integration times may be used. The detection surface 3 is chosen so as to allow an independent reading by the processing unit of the signals measured by the pixel areas of said surface.

Troisième mode de réalisation pour la gestion du temps d'intégration On décrit à présent un autre mode de réalisation pour l'obtention d'un temps d'intégration fonction des objets détectés, en référence à la Figure 4.Third Embodiment for Integration Time Management Another embodiment is described for obtaining an integration time depending on the detected objects, with reference to FIG. 4.

A cet effet, le système comprend une mémoire 10 configurée pour stocker les signaux mesurés par les zones de la surface 3 de détection (étape El). En général, il s'agit de signaux discrétisés. En outre, l'unité 12 de traitement, réalise les étapes consistant à : comparer l'amplitude des signaux mesurés par chaque zone 4 au cours du temps avec au moins un seuil de saturation des pixels de la zone 4 (étape E2), et en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation (étape E3), afin de réaliser une détection optimale des objets par chaque zone. Lorsque l'unité 12 de traitement détecte que l'amplitude des signaux mesurés par une zone a atteint le seuil de saturation à un instant T, l'unité 12 de traitement sélectionne dans la mémoire un signal qui a été mesuré précédemment dans le temps (instant t<T, t devenant alors le temps d'intégration). Dans un mode de réalisation, illustré schématiquement en Figure 5, l'unité 12 de traitement sélectionne le signal mesuré par la zone à l'instant précédant immédiatement l'atteinte du seuil de saturation (si T, est l'instant de saturation, le signal sélectionné est celui obtenu à t = Etant donné que les signaux mesurés sont discrets, il s'agit de l'instant correspondant au coup d'horloge précédent l'instant pour lequel la saturation des pixels a été atteinte. Alternativement, l'unité 12 de traitement sélectionne un signal mesuré par chaque zone 4, dont l'amplitude respecte un critère de proximité vis-à-vis du seuil de saturation. Néanmoins, le signal sélectionné doit se situer au-dessous du seuil de saturation. Par exemple, mais non limitativement, le signal mesuré choisi par l'unité 12 de traitement est inférieur ou égal au seuil de saturation à 5% près. Les modes de réalisation décrits précédemment peuvent être combinés. Par exemple, les différentes zones d'une même surface de détection peuvent mettre en oeuvre différents modes de réalisation pour l'adaptation du temps d'intégration. De manière similaire, une même zone peut mettre en oeuvre différents modes de réalisation au cours du temps. Détermination de la position d'objets dans un repère absolu Dans un mode de réalisation, le procédé de détection d'objets permet de déterminer la position d'objets dans un repère absolu.For this purpose, the system comprises a memory 10 configured to store the signals measured by the zones of the detection surface 3 (step E1). In general, these are discrete signals. In addition, the processing unit 12 performs the following steps: comparing the amplitude of the signals measured by each zone 4 over time with at least one saturation threshold of the pixels of the zone 4 (step E2), and deducing for each zone an optimum measured signal with respect to said saturation threshold (step E3), in order to achieve optimum detection of the objects by each zone. When the processing unit 12 detects that the amplitude of the signals measured by a zone has reached the saturation threshold at a time T, the processing unit 12 selects from the memory a signal which has been measured previously in time ( moment t <T, t becoming the integration time). In one embodiment, illustrated schematically in FIG. 5, the processing unit 12 selects the signal measured by the zone at the instant immediately preceding the saturation threshold (if T, is the instant of saturation, the signal selected is that obtained at t = Since the measured signals are discrete, it is the moment corresponding to the clock stroke preceding the instant for which the saturation of the pixels has been reached. 12 of the process selects a signal measured by each zone 4 whose amplitude satisfies a proximity criterion with respect to the saturation threshold, but the signal selected must be below the saturation threshold. but without limitation, the measured signal chosen by the processing unit 12 is less than or equal to the saturation threshold to within 5% The embodiments described above can be combined. areas of the same detection surface may implement different embodiments for the adaptation of the integration time. Similarly, the same area may implement different embodiments over time. Determining the Position of Objects in an Absolute Marker In one embodiment, the object detection method determines the position of objects in an absolute coordinate system.

Le procédé comprend les étapes consistant à: - prendre des images d'une scène comprenant à la fois: o au moins un premier objet dont la position est connue dans un repère inertiel, et o au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration des zones de la surface de détection étant réglé en fonction des objets détectés, - déterminer la direction du second objet par rapport au premier objet, à partir des images, et - en déduire la position du second objet dans le repère inertiel. Dans un exemple non limitatif, les seconds objets à positionner sont des débris spatiaux, et les premiers objets sont des étoiles. Dans ce cas, le senseur 2 optique observe une scène comprenant des débris spatiaux et des étoiles. La surface 3 de détection du senseur optique est réglée par l'unité 12 de traitement de sorte à ce que des zones de la surface 3 de détection détectent le flux lumineux des débris avec un temps d'intégration adapté à ces débris. De même, des zones de la surface 3 de détection sont contrôlées par l'unité 12 de traitement de sorte à détecter le flux lumineux des étoiles avec un temps d'intégration adapté à ces étoiles. Le réglage du temps d'intégration est opéré selon l'un ou l'autre des modes de réalisation précédemment décrits. Si le système 1 dispose d'une mémoire dans laquelle la position d'étoiles connues est stockée, l'unité de traitement peut déterminer l'attitude du satellite embarquant le système par rapport aux étoiles, comme explicité précédemment, par reconnaissance et traitement des images prises par la surface de détection du senseur optique. En outre, comme le système 1 est capable de réaliser une mesure simultanée des étoiles et des débris, l'unité de traitement peut calculer la direction des débris par rapport aux étoiles, et donc la direction des débris dans le repère inertiel dans lequel les étoiles sont repérées.The method comprises the steps of: - taking images of a scene comprising both: o at least one first object whose position is known in an inertial frame, and o at least one second object whose position is to be determined in the inertial frame, the integration time of the areas of the detection surface being adjusted according to the detected objects, - determining the direction of the second object relative to the first object, from the images, and - deducing the position of the second object in the inertial frame. In a non-limiting example, the second objects to be positioned are space debris, and the first objects are stars. In this case, the optical sensor 2 observes a scene comprising space debris and stars. The detection surface 3 of the optical sensor is set by the processing unit 12 so that areas of the detection surface 3 detect the luminous flux of the debris with an integration time adapted to this debris. Likewise, zones of the detection surface 3 are controlled by the processing unit 12 so as to detect the luminous flux of the stars with an integration time adapted to these stars. The adjustment of the integration time is performed according to one or other of the embodiments described above. If the system 1 has a memory in which the position of known stars is stored, the processing unit can determine the attitude of the satellite embedding the system with respect to the stars, as explained above, by recognition and image processing taken by the sensing surface of the optical sensor. In addition, since the system 1 is capable of simultaneously measuring the stars and debris, the processing unit can calculate the direction of the debris with respect to the stars, and thus the direction of the debris in the inertial coordinate system in which the stars are identified.

Dans un autre exemple non limitatif, le second objet à positionner est une cible artificielle ou naturelle, par exemple pour une manoeuvre de rendez-vous. Dans ce cas, le senseur 2 optique observe une scène comprenant la cible et des étoiles, la cible pouvant être ponctuelle ou étendue sur la surface 3 de détection. La surface 3 de détection du senseur optique est réglée par l'unité 12 de traitement de sorte à ce que des zones de la surface 3 de détection détectent le flux lumineux de la cible avec un temps d'intégration adapté à cette cible ou à certains de ses éléments. De même, des zones de la surface 3 de détection sont contrôlées par l'unité 12 de traitement de sorte à détecter le flux lumineux des étoiles avec un temps d'intégration adapté à ces étoiles. Le réglage du temps d'intégration est opéré selon l'un ou l'autre des modes de réalisation précédemment décrits.In another nonlimiting example, the second object to be positioned is an artificial or natural target, for example for an appointment maneuver. In this case, the optical sensor 2 observes a scene including the target and stars, the target being punctual or extended on the detection surface 3. The detection surface 3 of the optical sensor is set by the processing unit 12 so that areas of the detection surface 3 detect the luminous flux of the target with an integration time adapted to this target or to certain of its elements. Likewise, zones of the detection surface 3 are controlled by the processing unit 12 so as to detect the luminous flux of the stars with an integration time adapted to these stars. The adjustment of the integration time is performed according to one or other of the embodiments described above.

Si le système 1 dispose d'une mémoire dans laquelle la position d'étoiles connues est stockée, l'unité de traitement peut déterminer l'attitude du satellite embarquant le système par rapport aux étoiles, comme explicité précédemment, par reconnaissance et traitement des images prises par la surface de détection du senseur optique.If the system 1 has a memory in which the position of known stars is stored, the processing unit can determine the attitude of the satellite embedding the system with respect to the stars, as explained above, by recognition and image processing taken by the sensing surface of the optical sensor.

En outre, comme le système 1 est capable de réaliser une mesure simultanée des étoiles et de la cible ou de certains de ses éléments, l'unité de traitement peut calculer la direction de la cible ou de ses éléments par rapport aux étoiles, et par conséquent la direction de la cible ou de ses éléments dans le repère inertiel dans lequel les étoiles sont repérées.In addition, since the system 1 is capable of simultaneously measuring the stars and the target or some of its elements, the processing unit can calculate the direction of the target or its elements relative to the stars, and by therefore the direction of the target or its elements in the inertial frame in which the stars are located.

Exemples d'applications du système Le système tel que décrit peut être embarqué à bord d'un aéronef 8. A titre d'exemple non limitatif, il peut s'agir d'un des aéronefs suivants : un avion, un drone, un satellite, un missile, un ballon d'observation, ou un engin spatial.Examples of Applications of the System The system as described can be embarked on board an aircraft 8. By way of non-limiting example, it may be one of the following aircraft: an airplane, a drone, a satellite , a missile, an observation balloon, or a spacecraft.

La détection réalisée par le senseur optique peut être utilisée de diverses manières. Dans un mode de réalisation, cette détection est utilisée pour mesurer et/ou contrôler la position et/ou l'orientation d'un aéronef embarquant le système par rapport aux objets détectés.The detection performed by the optical sensor can be used in various ways. In one embodiment, this detection is used to measure and / or control the position and / or orientation of an aircraft boarding the system with respect to the detected objects.

Le système 1 permet de fournir une détection précise des objets évoluant dans l'espace, comme par exemple des étoiles. Par conséquent, l'unité 12 de traitement du système est apte à fournir une mesure d'attitude précise à partir de la détection desdites étoiles. Cette mesure d'attitude est utilisée pour le guidage et le pilotage de l'aéronef embarquant le système 1.System 1 makes it possible to provide precise detection of objects moving in space, for example stars. Therefore, the system processing unit 12 is able to provide an accurate attitude measurement from the detection of said stars. This attitude measurement is used for guiding and piloting the aircraft embarking the system 1.

Les objets détectés et mesurés simultanément par le système 1 peuvent être divers. Il peut tout aussi bien s'agir d'objets ponctuels que d'objets étendus, qu'ils soient naturels ou artificiels. Il s'agit par exemple d'étoiles, de planètes, d'astéroïdes, de comètes, de débris spatiaux (comme par exemple des débris de satellites ou de lanceurs), de satellites ou d'engins spatiaux, ou des portions de satellites ou d'engins spatiaux. Comme le comprend l'homme du métier, de nombreuses applications sont possibles à partir de la détection précise et optimale d'objets évoluant dans l'espace par l'intermédiaire du système de détection et de mesure comprenant le senseur optique.20The objects detected and measured simultaneously by the system 1 may be various. It can be both point objects and extended objects, whether natural or artificial. These include, for example, stars, planets, asteroids, comets, space debris (such as debris from satellites or launchers), satellites or spacecraft, or portions of satellites or of spacecraft. As understood by those skilled in the art, many applications are possible from the precise and optimal detection of objects moving in space through the detection and measurement system comprising the optical sensor.

Claims (14)

REVENDICATIONS1. Système (1) de détection et de mesure comprenant un senseur (2) optique, ledit senseur (2) comprenant une surface (3) de détection pour la détection et la prise d'image d'objets (7) évoluant dans l'espace, la surface (3) de détection comprenant une ou plusieurs zones (4) comprenant chacune au moins un pixel, chaque zone (4) étant configurée pour détecter un flux lumineux émis par les objets durant un temps d'intégration, ledit système (1) étant caractérisé en ce que ledit temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction des objets (7) détectés par cette zone (4).REVENDICATIONS1. Detection and measurement system (1) comprising an optical sensor (2), said sensor (2) comprising a detection surface (3) for detecting and taking pictures of objects (7) moving in space the detection surface (3) comprising one or more zones (4) each comprising at least one pixel, each zone (4) being configured to detect a luminous flux emitted by the objects during an integration time, said system (1 ) being characterized in that said integration time of each zone (4) of the detection surface (3) is a function of the objects (7) detected by this zone (4). 2. Système selon la revendication 1, dans lequel le temps d'intégration de chaque zone est configuré pour permettre de maximiser le signal correspondant au flux lumineux détecté par chaque zone, tout en évitant une saturation des pixels de cette zone.2. System according to claim 1, wherein the integration time of each zone is configured to maximize the signal corresponding to the light flux detected by each zone, while avoiding saturation of the pixels of this area. 3. Système selon l'une des revendications 1 ou 2, dans lequel le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction de l'intensité lumineuse des objets (7) à détecter par cette zone.3. System according to one of claims 1 or 2, wherein the integration time of each zone (4) of the surface (3) of detection is a function of the light intensity of the objects (7) to be detected by this zoned. 4. Système selon l'une des revendications 1 à 3, comprenant en outre une mémoire (10) stockant un catalogue (11) d'objets connus évoluant dans l'espace, le système comprenant une unité (12) de traitement configurée pour déterminer le temps d'intégration des zones (4) de la surface (3) de détection à partir de l'identification d'objets (7) du catalogue.4. System according to one of claims 1 to 3, further comprising a memory (10) storing a catalog (11) of known objects moving in space, the system comprising a processing unit (12) configured to determine the integration time of the zones (4) of the detection surface (3) from the identification of objects (7) of the catalog. 5. Système selon l'une des revendications 1 à 4, dans lequel : - le temps d'intégration de chaque zone (4) est le temps durant lequel la zone (4) est activée pour détecter un flux lumineux émis par les objets (7), ou- le système (1) comprend un dispositif (15) de lecture configuré pour lire à des instants différents un signal correspondant à un flux lumineux mesuré par chaque zone (4), afin de réaliser un temps d'intégration adapté à chaque zone.5. System according to one of claims 1 to 4, wherein: the integration time of each zone (4) is the time during which the zone (4) is activated to detect a luminous flux emitted by the objects ( 7), or- the system (1) comprises a reading device (15) configured to read at different times a signal corresponding to a luminous flux measured by each zone (4), in order to achieve an integration time adapted to each zone. 6. Système selon la revendication 1, comprenant : - une mémoire (10), configurée pour stocker les signaux mesurés par les zones de la surface (3) de détection, et - une unité (12) de traitement, configurée pour : o comparer l'amplitude des signaux mesurés par chaque zone (4) au cours du temps avec au moins un seuil de saturation des pixels de la zone (4), et o en déduire un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser une détection optimale des objets par chaque zone.The system of claim 1, comprising: - a memory (10), configured to store the signals measured by the areas of the detection surface (3), and - a processing unit (12), configured to: o compare the amplitude of the signals measured by each zone (4) over time with at least one saturation threshold of the pixels of the zone (4), and o deduce therefrom an optimum measured signal with respect to said saturation threshold, in order to achieve optimal detection of objects by each zone. 7. Aéronef caractérisé en ce qu'il comprend un système selon l'une des revendications 1 à 6, ledit aéronef étant choisi parmi : un avion, un drone, un satellite, un missile, un ballon d'observation, un engin spatial.7. Aircraft characterized in that it comprises a system according to one of claims 1 to 6, said aircraft being selected from: an airplane, a drone, a satellite, a missile, an observation balloon, a spacecraft. 8. Procédé de détection et de prise d'image d'objets (7) évoluant dans l'espace, mettant en oeuvre un système (1) comprenant un senseur (2) optique, ledit senseur (2) comprenant une surface (3) de détection pour la détection et la prise d'image d'objets (7) évoluant dans l'espace, la surface (3) de détection comprenant une ou plusieurs zones (4) comprenant chacune au moins un pixel, ledit procédé étant caractérisé en ce que : - chaque zone (4) détecte un flux lumineux émis par les objets durant un temps d'intégration, et - le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction des objets (7) détectés par cette zone. 2 99 72 5 8 198. A method for detecting and capturing objects (7) evolving in space, using a system (1) comprising an optical sensor (2), said sensor (2) comprising a surface (3) detection device for the detection and imaging of objects (7) evolving in space, the detection surface (3) comprising one or more zones (4) each comprising at least one pixel, said method being characterized in that: - each zone (4) detects a luminous flux emitted by the objects during an integration time, and - the integration time of each zone (4) of the detection surface (3) depends on the objects ( 7) detected by this area. 2 99 72 5 8 19 9. Procédé selon la revendication 8, dans lequel le temps d'intégration de chaque zone (4) de la surface (3) de détection est fonction de l'intensité lumineuse des objets (7) à détecter par cette zone. 59. The method of claim 8, wherein the integration time of each zone (4) of the detection surface (3) is a function of the light intensity of the objects (7) to be detected by this zone. 5 10. Procédé selon l'une des revendications 8 ou 9, dans lequel : - une unité (12) de traitement du système identifie des objets à détecter évoluant dans l'espace, à partir d'un catalogue d'objets connus évoluant dans l'espace, et - l'unité (12) de traitement détermine le temps d'intégration de chaque 10 zone (4) de la surface (3) de détection à partir de l'identification d'objets (7) du catalogue.10. Method according to one of claims 8 or 9, wherein: - a unit (12) for processing the system identifies objects to detect evolving in space, from a catalog of known objects evolving in the space, and the processing unit (12) determines the integration time of each zone (4) of the detection surface (3) from the object identification (7) of the catalog. 11. Procédé selon l'une des revendications 8 à 10, dans lequel : - chaque zone (4) est activée durant le temps d'intégration pour 15 détecter un flux lumineux émis par les objets (7), ou - le système (1) comprend un dispositif (15) de lecture qui lit à des instants différents un signal mesuré par chaque zone (4), afin de réaliser un temps d'intégration adapté à chaque zone. 2011. Method according to one of claims 8 to 10, wherein: - each zone (4) is activated during the integration time to detect a luminous flux emitted by the objects (7), or - the system (1) ) comprises a reading device (15) which reads at different times a signal measured by each zone (4), in order to achieve an integration time adapted to each zone. 20 12. Procédé selon la revendication 8, comprenant les étapes consistant à: - stocker les signaux mesurés par les zones de la surface (3) de détection dans une mémoire, - comparer l'amplitude des signaux mesurés par chaque zone (4) au cours du temps avec au moins un seuil de saturation des pixels de la 25 zone (4), et - en déduire pour chaque zone un signal mesuré optimum par rapport audit seuil de saturation, afin de réaliser une détection optimale des objets par chaque zone. 30The method according to claim 8, comprising the steps of: - storing the signals measured by the zones of the detection surface (3) in a memory, - comparing the amplitude of the signals measured by each zone (4) during time with at least one saturation threshold of the pixels of the zone (4), and - deduce for each zone an optimum measured signal with respect to said saturation threshold, in order to achieve optimum detection of the objects by each zone. 30 13. Procédé selon l'une des revendications 8 à 12, dans lequel l'unité (12) de traitement règle de manière dynamique la taille, et/ou la forme, et/ou lenombre et/ou la position des différentes zones sur la surface de détection, afin de les adapter à la scène détectée.Method according to one of claims 8 to 12, wherein the processing unit (12) dynamically adjusts the size, and / or shape, and / or number and / or position of the different zones on the detection surface, in order to adapt them to the detected scene. 14. Procédé selon l'une des revendications 8 à 13, comprenant les étapes consistant à: - prendre des images d'une scène comprenant à la fois: o au moins un premier objet dont la position est connue dans un repère inertiel, et o au moins un second objet dont la position est à déterminer dans le repère inertiel, le temps d'intégration de chaque zone étant réglé en fonction des objets détectés par cette zone, - déterminer, à partir des images, la direction du second objet par rapport au premier objet, et - en déduire la position du second objet dans le repère inertiel.14. Method according to one of claims 8 to 13, comprising the steps of: - taking images of a scene comprising both: o at least a first object whose position is known in an inertial frame, and o at least one second object whose position is to be determined in the inertial frame, the integration time of each zone being adjusted according to the objects detected by this zone, - determining, from the images, the direction of the second object relative to to the first object, and - deduce the position of the second object in the inertial reference.
FR1259937A 2012-10-18 2012-10-18 DETECTION AND MEASUREMENT SYSTEM COMPRISING AN OPTICAL SENSOR, AND METHODS OF DETECTION AND MEASUREMENT THEREFOR Active FR2997258B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1259937A FR2997258B1 (en) 2012-10-18 2012-10-18 DETECTION AND MEASUREMENT SYSTEM COMPRISING AN OPTICAL SENSOR, AND METHODS OF DETECTION AND MEASUREMENT THEREFOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1259937A FR2997258B1 (en) 2012-10-18 2012-10-18 DETECTION AND MEASUREMENT SYSTEM COMPRISING AN OPTICAL SENSOR, AND METHODS OF DETECTION AND MEASUREMENT THEREFOR

Publications (2)

Publication Number Publication Date
FR2997258A1 true FR2997258A1 (en) 2014-04-25
FR2997258B1 FR2997258B1 (en) 2016-10-07

Family

ID=48050823

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1259937A Active FR2997258B1 (en) 2012-10-18 2012-10-18 DETECTION AND MEASUREMENT SYSTEM COMPRISING AN OPTICAL SENSOR, AND METHODS OF DETECTION AND MEASUREMENT THEREFOR

Country Status (1)

Country Link
FR (1) FR2997258B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156560A1 (en) * 2020-02-06 2021-08-12 Centre National d'Études Spatiales Method and device for optical detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995001048A1 (en) * 1993-06-17 1995-01-05 Litton Systems, Inc. Focal plane array imaging device with random access architecture
US6175383B1 (en) * 1996-11-07 2001-01-16 California Institute Of Technology Method and apparatus of high dynamic range image sensor with individual pixel reset
US20040155175A1 (en) * 2003-02-03 2004-08-12 Goodrich Corporation Random access imaging sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995001048A1 (en) * 1993-06-17 1995-01-05 Litton Systems, Inc. Focal plane array imaging device with random access architecture
US6175383B1 (en) * 1996-11-07 2001-01-16 California Institute Of Technology Method and apparatus of high dynamic range image sensor with individual pixel reset
US20040155175A1 (en) * 2003-02-03 2004-08-12 Goodrich Corporation Random access imaging sensor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHRISTOPHER CLARK, ORLYYADID-PECHT, ERIC FOSSUM, PHIL SALOMON AND ED DENNISON: "APPLICATION OF APS ARRAYS TO STAR AND FEATURE TRACKING SYSTEMS", PROC. SPIE 2810, SPACE SCIENCECRAFT CONTROL AND TRACKING IN THE NEW MILLENNIUM, vol. SPIE 2810, no. 116, 28 October 1996 (1996-10-28), Denver, XP002705971, DOI: 10.1117/12.255130 *
ORLY YADID-PECHT ET AL: "CMOS Active Pixel Sensor Star Tracker with Regional Electronic Shutter", IEEE JOURNAL OF SOLID-STATE CIRCUITS, IEEE SERVICE CENTER, PISCATAWAY, NJ, USA, vol. 32, no. 2, 1 February 1997 (1997-02-01), XP011060425, ISSN: 0018-9200 *
TAKAYUKI HAMAMOTO ET AL: "A Computational Image Sensor with Adaptive Pixel-Based Integration Time", IEEE JOURNAL OF SOLID-STATE CIRCUITS, IEEE SERVICE CENTER, PISCATAWAY, NJ, USA, vol. 36, no. 4, 1 April 2001 (2001-04-01), XP011061490, ISSN: 0018-9200 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156560A1 (en) * 2020-02-06 2021-08-12 Centre National d'Études Spatiales Method and device for optical detection
FR3107123A1 (en) * 2020-02-06 2021-08-13 Centre National d'Études Spatiales Optical detection method and device.

Also Published As

Publication number Publication date
FR2997258B1 (en) 2016-10-07

Similar Documents

Publication Publication Date Title
EP2795580B1 (en) Method of estimating optical flow on the basis of an asynchronous light sensor
FR2903200A1 (en) HYBRID STABILIZATION OF IMAGES FOR VIDEO CAMERA
EP2495531B1 (en) Method for measuring the stability of a line of sight and corresponding star sensor
FR3082038A1 (en) DYNAMIC ESTIMATION OF THE INSTANT TANGAGE OF A CAMERA ON BOARD IN A MOTOR VEHICLE
EP3571468B1 (en) Method for observing the surface of the earth and device for implementing same
FR2997258A1 (en) On-board system for use in aircraft to detect and measure objects e.g. stars, moving in space, has zone detecting luminous flow emitted by objects during zone integration time, where time is function of luminous intensity of objects
EP3839600B1 (en) Accurate method for estimation with total availability of the line of sight of a telescope on board an earth observation satellite
EP2695377B1 (en) Detection of space debris
FR2723810A1 (en) SQUARE SENSOR DEVICE FOR SATELLITE OR SIMILAR, WITH PYROELECTRIC DETECTOR MATRIX
EP3170205B1 (en) Device for detecting movement
EP0508897B1 (en) Method and system for automatic focussing of a CCD camera using a DCT
FR2979022A1 (en) Terrestrial sighting device e.g. binoculars, for sighting e.g. moon, has calculating module calculating ephemeris and arranged to realign magnetic compass from position of identified celestial body
FR2981149A1 (en) Aircraft, has attitude measurement device including optical sensor that captures images of stars, where attitude measurement device measures attitude of aircraft at both day and night from images taken by sensor
EP4341897A1 (en) Method and device for processing a sequence of images for identifying tracked objects in the sequence of images
EP3072110B1 (en) Method for estimating the movement of an object
FR2968876A1 (en) System for acquisition of images of scene, has separation unit separating flow of beam from focusing optics into predetermined fractions, and merging unit merging images output from sensors to generate final image
WO2017081104A1 (en) Method for designing a navigation path and method for orienting a sighting member from said navigation path
CA2955368C (en) Method and device for processing high-frequency movements in an optronic system
FR2968499A1 (en) METHOD OF USING IMAGE SENSOR
EP0457414A1 (en) Object detection device in an image sequence
FR2716596A1 (en) Device for tracking the center of a target.
EP1267570A1 (en) Method of using a thermal camera, device for its operation and thermal camera containing said device

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12