FR2940490A1 - PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION - Google Patents

PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION Download PDF

Info

Publication number
FR2940490A1
FR2940490A1 FR0807209A FR0807209A FR2940490A1 FR 2940490 A1 FR2940490 A1 FR 2940490A1 FR 0807209 A FR0807209 A FR 0807209A FR 0807209 A FR0807209 A FR 0807209A FR 2940490 A1 FR2940490 A1 FR 2940490A1
Authority
FR
France
Prior art keywords
image
imaging
images
passive
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0807209A
Other languages
French (fr)
Other versions
FR2940490B1 (en
Inventor
Yves Klein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR0807209A priority Critical patent/FR2940490B1/en
Priority to PCT/EP2009/067580 priority patent/WO2010070122A1/en
Publication of FR2940490A1 publication Critical patent/FR2940490A1/en
Application granted granted Critical
Publication of FR2940490B1 publication Critical patent/FR2940490B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

L'invention concerne un procédé d'imagerie passive au moyen d'un système optronique (100) passif qui comprend au moins deux voies d'irnagerie distinctes pourvue chacune d'une interface optique externe distincte (40, 41, 42), et une unité de traitement (3) des images, le procédé comportant une étape d'acquisition par chaque voie d'imagerie et dans un même laps de temps déterminé, d'une image élémentaire (11, 12, 13) d'une fraction d'une scène observée à l'infini, ces images ayant une partie de la scène observée en recouvrement (R1, R2d, R2g). Le système comprenant un dispositif de nettoyage (7) desdites interfaces externes (40, 41, 42), et chaque image élémentaire comportant l'image partiellement focalisée de l'interface externe, le procédé comprend une étape d'extraction d'une sous-image (SR1, SR2) dans la zone de recouvrement de chaque image élémentaire (11, 12), une étape de calcul d'une sous-image représentative de la différence des deux sous-images, dite sous-image différence et une étape de déclenchement du dispositif de nettoyage (7) en fonction d'un critère prédéterminé appliqué à la sous-image différence, ces étapes d'extraction, de calcul et de déclenchement étant réalisées par l'unité de traitement (3).The invention relates to a passive imaging method using a passive optronic system (100) which comprises at least two distinct imaging channels each provided with a separate external optical interface (40, 41, 42), and a processing unit (3) of the images, the method comprising a step of acquisition by each imaging channel and in the same determined period of time, of an elementary image (11, 12, 13) of a fraction of a scene observed at infinity, these images having part of the scene observed in overlap (R1, R2d, R2g). The system comprising a cleaning device (7) of said external interfaces (40, 41, 42), and each elementary image including the partially focused image of the external interface, the method comprises a step of extracting a sub-interface. image (SR1, SR2) in the overlap area of each elementary image (11, 12), a step of calculating a subimage representative of the difference of the two sub-images, said sub-image difference and a step of triggering the cleaning device (7) according to a predetermined criterion applied to the difference subimage, these extraction, calculation and triggering steps being performed by the processing unit (3).

Description

PROCEDE D'IMAGERIE PASSIVE ET DE DETECTION DE PLUIE Le domaine de l'invention est celui des systèmes d'imagerie passive qui comportent plusieurs voies d'imagerie distinctes, chaque voie comportant une interface optique externe telle qu'un hublot. Ces capteurs, lorsqu'ils sont employés en environnement extérieur, voient leur performance réduite en présence de gouttes d'eau ou de sal ssures telles que la suie sur leurs interfaces optiques externes. En général, la propreté du hublot est à la charge de l'opérateur : nettoyage dans le cadre de l'entretien périodique ou de la maintenance programmée, nettoyage effectué au préalable d'une mission... BACKGROUND OF THE INVENTION The field of the invention is that of passive imaging systems which comprise several distinct imaging channels, each channel comprising an external optical interface such as a porthole. These sensors, when used in an outdoor environment, have their performance reduced in the presence of drops of water or salt such as soot on their external optical interfaces. In general, the cleanliness of the window is the responsibility of the operator: cleaning as part of periodic maintenance or scheduled maintenance, cleaning carried out prior to a mission ...

Dans d'autres applications, notamment lorsque les hublots sont difficilement accessibles, du fait de leur implantation ou encore du caractère de la mission, un moyen de maintien de la propreté du hublot de type essuie glace, lave glace s'avère nécessaire. Le domaine de l'invention est plus précisément celui du 15 déclenchement de ce moyen de maintien de la propreté du ou des hublots en cas de dépôt de gouttes de pluie ou d'éclaboussures. In other applications, especially when the portholes are difficult to access, because of their implementation or the nature of the mission, a means of maintaining the cleanliness of the wiper-type window, washer fluid is necessary. The field of the invention is more precisely that of the triggering of this means for maintaining the cleanliness of the porthole (s) in the event of the deposit of raindrops or splashing.

Actuellement ce moyen peut être déclenché manuellement par l'opérateur mais ce pilotage manuel induit une charge supplémentaire pour 20 l'opérateur sans valeur ajoutée opérationnelle. Il peut aussi être déclenché selon un mode automatique périodique. Cela induit : - des déclenchements inutiles ayant pour conséquence une surconsommation de fluides de lavage et l'usure du 25 dispositif de maintien de la propreté, - des déclenchements trop tardifs ayant pour conséquence une perte de performance opérationnelle. II existe aussi des dispositifs de détection des gouttes de pluie qui sont proposés dans différents domaines. 30 II est connu dans le secteur automobile de détecter les gouttes de pluie au moyen de dispositifs qui utilisent des capteurs : mettant en oeuvre des phénomènes électriques induits par ces gouttes, ou associés à des sources de lumière PIR (Proche Infrarouge) dont la rétro-réflexion sur les gouttes de pluie vers des détecteurs hors d'axe, indique la présence des gouttes, ou réalisant l'image de la surface externe de l'interface, surface pouvant être dépolie ou revêtue d'un film translucide pour y détecter les gouttes par des procédés de traitement d'image. Mais il ne s'agit pas de systèmes d'imagerie passive ayant pour vocation l'observation d'une scène. Dans le domaine des capteurs de sécurité munis d'un hublot, du type détecteur de flamme et/ou de fumée, on trouve des dispositifs spécifiques qui emploient une source de lumière interne réfléchie après traversée du hublot, par un miroir externe en direction du capteur. Dans le domaine des systèmes optroniques, on peut envisager d'utiliser un dispositif de type détecteur de pluie pour pare-brise de voiture mais ceci impose d'ajouter au système optronique IR, un hublot de détection de pluie transparent dans le visible. II s'agit alors d'un composant dédié additionnel qui impacte la conception, le coût (récurrent et non récurrent) ainsi que la fiabilité du système optronique. En conséquence, il demeure à ce jour un besoin pour un système 20 donnant simultanément satisfaction à l'ensemble des exigences précitées, tant du point de vue de la conception que de l'aspect fonctionnel externe. Currently this means can be triggered manually by the operator but this manual control induces an additional charge for the operator without operational added value. It can also be triggered according to a periodic automatic mode. This induces: - unnecessary trips resulting in overconsumption of washing fluids and wear of the cleaning device, - trips too late resulting in a loss of operational performance. There are also devices for detecting raindrops which are proposed in various fields. It is known in the automotive sector to detect raindrops by means of devices that use sensors: implementing electrical phenomena induced by these drops, or associated with PIR (Near Infrared) light sources whose backlighting reflection on raindrops towards off-axis detectors, indicates the presence of drops, or image of the outer surface of the interface, surface can be frosted or coated with a translucent film to detect drops by image processing methods. But it is not about passive imaging systems for the purpose of observing a scene. In the field of security sensors equipped with a window, of the flame detector and / or smoke type, there are specific devices that use an internal light source reflected after passing through the window, by an external mirror towards the sensor . In the field of optronic systems, it is possible to envisage using a device of the rain sensor type for a car windshield, but this requires adding to the optronic IR system, a transparent rain detection window in the visible. It is then an additional dedicated component that impacts the design, the cost (recurring and non-recurring) as well as the reliability of the optronic system. Accordingly, there remains to date a need for a system simultaneously satisfying all of the above requirements, both from the point of view of design and the external functional aspect.

Plus précisément l'invention a pour objet un procédé d'imagerie passive au moyen d'un système optronique passif qui comprend au moins 25 deux voies d'imagerie distinctes pourvue chacune d'une interface optique externe distincte, et une unité de traitement des images, le procédé comportant une étape d'acquisition par chaque voie d'imagerie et dans un même laps de temps déterminé, d'une image élémentaire d'une fraction d'une scène observée à l'infini, ces images ayant une partie de la scène 30 observée en recouvrement. Il est principalement caractérisé en ce que le système comprenant un dispositif de nettoyage desdites interfaces externes, et chaque image élémentaire comportant l'image partiellement focalisée de l'inter'ace externe, le procédé comprend une étape d'extraction d'une sous-image dans la zone de recouvrement de chaque image élémentaire, une 35 étape de calcul d'une sous-image représentative de la différence des deux sous-images et une étape de déclenchement du dispositif de nettoyage en foncticn d'un critère prédéterminé appliqué à la sous-image différence, ces étapes d'extraction, de calcul et de déclenchement étant réalisées par l'unité de traitement. More specifically, the invention relates to a passive imaging method using a passive optronic system which comprises at least two distinct imaging channels each provided with a separate external optical interface, and an image processing unit. , the method comprising a step of acquisition by each imaging channel and in the same determined period of time, of an elementary image of a fraction of a scene observed at infinity, these images having part of the scene 30 observed in recovery. It is mainly characterized in that the system comprises a device for cleaning said external interfaces, and each elementary image comprising the partially focused image of the external interface, the method comprises a step of extracting a sub-image in the overlapping area of each elementary image, a step of calculating a sub-image representative of the difference of the two sub-images and a step of triggering the cleaning device according to a predetermined criterion applied to the sub-image -image difference, these extraction, calculation and triggering steps being performed by the processing unit.

La gestion automatique de la propreté des hublots des capteurs est ainsi rendue possible sans impact sur la conception matérielle, la fiabilité et le coût du système. Ce procédé présente les avantages suivants : pas de charge opérateur supplémentaire, déclenchement qu'en cas de nécessité : optimisation de l'utilisation du dispositif de maintien de la propreté et de la consommation des fluides et additifs avec pour conséquence une maintenance réduite, amélioration des performances du système en cas de pluie car il permet de réduire au mieux la période de perturbation induite par les gouttes d'eau sur les éventuels traitements automatiques effectués sur les images de la scène observée, - pas de matériel additionnel : ce procédé est donc sans impact sur la fiabilité, et n'entraîne pas de surcoût, détection et déclenchement sans perturber le procédé d'imagerie lui-20 même. La sous-image présentant des pixels, le critère de mise en oeuvre du dispositif de nettoyage est par exemple que la somme de la valeur absolue des pixels de la sous-image différence soit supérieure à un seuil prédéterminé. 25 Les images sont typiquement des images IR ou visibles. L'invention a aussi pour objet un système optronique d'imagerie passive qui comprend au moins deux voies d'imagerie distinctes pourvue chacuie d'une interface optique externe distincte, et d'au moins un capteur, et une unité de traitement des images acquises par ces voies d'imagerie, 30 caractérisé en ce que chaque voie d'imagerie comprend des moyens de focalisation de l'image d'une scène observée à l'infini et de focalisation partielle de l'image de l'interface externe sur le capteur, des moyens d'acquisition des images par le (ou les) capteur(s) dans un laps de temps déterminé, et en ce qu'il comprend un dispositif de nettoyage des interfaces externes et en ce que l'unité de traitement comprend des moyens de mise oeuvre du procédé selon l'une des revendications précédentes. Selon une première variante, les voies d'imagerie distinctes comportent chacune un capteur distinct. The automatic management of the cleanliness of the sensor portholes is thus made possible without impacting the hardware design, reliability and cost of the system. This process has the following advantages: no additional operator load, triggering only when necessary: optimizing the use of the device for maintaining the cleanliness and the consumption of the fluids and additives with the consequence of reduced maintenance, improvement of the performance of the system in case of rain because it makes it possible to reduce at best the period of disturbance induced by drops of water on the possible automatic treatments performed on the images of the scene observed, - no additional material: this process is therefore without impact on reliability, and does not entail additional cost, detection and triggering without disrupting the imaging process itself. The sub-image having pixels, the criterion of implementation of the cleaning device is for example that the sum of the absolute value of the pixels of the sub-image difference is greater than a predetermined threshold. The images are typically IR or visible images. The invention also relates to an optronic passive imaging system which comprises at least two distinct imaging channels provided each with a separate external optical interface, and at least one sensor, and a unit for processing the images acquired. by these imaging channels, characterized in that each imaging channel comprises means for focusing the image of a scene observed at infinity and partial focusing of the image of the external interface on the sensor, acquisition means images by the (or) sensor (s) within a specified period of time, and in that it comprises a device for cleaning the external interfaces and in that the processing unit comprises means for implementing the method according to one of the preceding claims. According to a first variant, the separate imaging channels each comprise a separate sensor.

Selon une deuxième variante, au moins deux voies d'imagerie distinctes comportent un capteur commun et un multiplexeur optique. Selon une troisième variante, au moins deux voies d'imagerie distinctes comportent un capteur commun et un dispositif optique à découpage de champ. According to a second variant, at least two distinct imaging channels comprise a common sensor and an optical multiplexer. According to a third variant, at least two distinct imaging channels comprise a common sensor and a field-switched optical device.

Selon une caractéristique de l'invention, les voies d'imagerie sont des voies IR ou visible. Ce système est par exemple un système de surveillance. According to one characteristic of the invention, the imaging pathways are IR or visible pathways. This system is for example a monitoring system.

D'autres caractéristiques et avantages de l'invention apparaîtront 15 à la lecture de la description détaillée qui suit, faite à titre d'exemple non limitatif et en référence aux dessins annexés dans lesquels : la figure 1 représente schématiquement le découpage d'une scène observée en plusieurs fractions de scènes et les images élémentaires correspondantes, 20 la figure 2 représente schématiquement l'étape d'extraction d'une sous-image dans les zones de recouvrement de deux images élémentaires, les figures 3 représentent schématiquement un premier exemple de système selon l'invention comportant un capteur distinct par voie d'imagerie, 25 les figures 4 représentent schématiquement un deuxième exemple de système selon l'invention comportant un capteur à multiplexage optique commun aux voies d'imagerie, les figures 5 représentent schématiquement un troisième exemple de système selon l'invention muni d'une configuration optique à découpage 30 de champ. D'une figure à l'autre, les mêmes éléments sont repérés par les mêmeE, références. Other features and advantages of the invention will become apparent on reading the detailed description which follows, given by way of nonlimiting example and with reference to the appended drawings in which: FIG. 1 schematically represents the cutting of a scene observed in several fractions of scenes and the corresponding elementary images, FIG. 2 schematically represents the step of extracting a subimage in the overlapping zones of two elementary images, FIG. 3 schematically represents a first example of a system. According to the invention, comprising a distinct sensor by imaging means, FIG. 4 schematically represents a second example of a system according to the invention comprising an optical multiplexing sensor common to the imaging channels, FIGS. 5 schematically represent a third example. system according to the invention provided with a field-switched optical configuration. From one figure to another, the same elements are identified by the same E, references.

Le procédé s'applique aux systèmes optroniques d'imagerie 35 composés de plusieurs voies d'imagerie élémentaires réalisant chacune l'acquisition d'une fraction de l'espace de surveillance à couvrir, comme c'est le cas par exemple pour les systèmes optroniques de surveillance. Il s'agit plus généralement de systèmes optroniques d'imagerie passive fonctionnant dans les domaines visible et/ou proche infrarouge et/ou infrarouge. La couverture d'une scène observée ou d'un panorama peut être obtenue par un des principes suivants : emploi d'un capteur par voie d'imagerie élémentaire, emploi d'un ou plusieurs capteurs à multiplexage optique dont un exemple est décrit dans le brevet FR 2 833086 où le multiplexage de plusieurs voies optiques à faisceaux parallèles est obtenu au moyen d'un périscope ou d'un barreau à faces parallèles en rotation, emploi d'un ou plusieurs capteurs munis d'une configuration optique à découpage de champ dont un exemple est décrit dans le brevet FR 2 739944 basé sur une configuration optique triplex. L'invention exploite le fait que pour garantir une couverture effective d'une scène observée (par exemple une scène panoramique), le système est généralement équipé de moyens pour disposer de recouvrements entre les images issues des voies élémentaires et acquises en même temps. Un recouvrement est une partie d'une image élémentaire qui correspond à une partie de la scène observée que l'on retrouve dans une partie de l'autre image élémentaire qui correspond à la même partie de la scène observée. Ces recouvrements sont pris en compte dans la mesure où les deux images élémentaires sont acquises en même temps c'est-à-dire dans un laps de temps suffisamment court pour que cette partie de scène commune aux deux images ne change pas d'une image à l'autre ; ce laps de temps est typiquement inférieur à 100 ms. On montre figure 1 un exemple de scène panoramique dont les couvertures en azimuth et en élévation sont indiquées, qui est divisée en 3 scènes observées adjacentes (scène observée 1, scène observée 2, scène observée 3) et auxquelles correspondent trois images élémentaires 11, 12, 13, dites adjacentes par extension ; chacune de ces images est issue d'une voie d'imagerie élémentaire distincte. On voit sur cette figure les recouvrements suivarts : R1 celui de l'image élémentaire de gauche I1 correspondant au recouvrement R2g de l'image élémentaire du centre 12, R2d de l'image élémentaire du centre 12 correspondant au recouvrement R3 de l'image élémentaire de droite 13. En présence de pluie ou de salissures sur les hublots du ou des capteurs assurant l'acquisition des images élémentaires, une différence entre deux images élémentaires adjacentes apparaît dans les zones de recouvrement en correspondance, due aux localisations des gouttes de pluie ou des salissures qui diffèrent d'un hublot à l'autre. Cette différence apparaît sur ces images élémentaires dans la mesure où le plan de la face externe du hublot est focalisé ou partiellement focalisé sur le capteur. Ceci est illustré figure 2 sur laquelle sont représentées 2 images élémentaires adjacentes 11, 12 ayant un recouvrement R1 correspondant au recouvrement R2. Une saleté Si apparaît sur le recouvrement R1 qui n'apparaît pas sur le recouvrement R2. Dans ce cas, la sous-image différence fera donc apparaître S1. On pourrait aussi avoir une saleté S2 sur R2, auquel cas la sous-image différence ferait apparaître Si et S2. Dans le cas où chaque interface est propre (absence de saleté), les deux sous images sont identiques. The method applies to optronic imaging systems 35 composed of several elementary imaging channels, each acquiring a fraction of the surveillance space to be covered, as is the case, for example, for optronic systems. monitoring. It is more generally optronic passive imaging systems operating in the visible and / or near infrared and / or infrared domains. The coverage of an observed scene or a panorama can be obtained by one of the following principles: use of a sensor by elementary imaging, use of one or more optical multiplexing sensors, an example of which is described in FIG. patent FR 2 833086, in which the multiplexing of several parallel beam optical channels is obtained by means of a periscope or a bar with parallel faces in rotation, the use of one or more sensors provided with a field-switched optical configuration an example of which is described in patent FR 2 739944 based on a triplex optical configuration. The invention exploits the fact that in order to guarantee effective coverage of an observed scene (for example a panoramic scene), the system is generally equipped with means for arranging overlaps between the images coming from the elementary channels and acquired at the same time. An overlap is a part of an elementary image that corresponds to a part of the observed scene found in one part of the other elementary image that corresponds to the same part of the observed scene. These overlaps are taken into account insofar as the two elementary images are acquired at the same time, that is to say within a sufficiently short period of time so that this part of the scene common to the two images does not change an image. to the other ; this time is typically less than 100 ms. FIG. 1 shows an example of a panoramic scene whose covers in azimuth and elevation are indicated, which is divided into 3 adjacent observed scenes (observed scene 1, observed scene 2, observed scene 3) and to which correspond three elementary images 11, 12 , 13, said adjacent by extension; each of these images comes from a distinct elementary imaging pathway. This figure shows the following overlays: R1 that of the left elementary image I1 corresponding to the recovery R2g of the elementary image of the center 12, R2d of the elementary image of the center 12 corresponding to the recovery R3 of the elementary image right 13. In the presence of rain or dirt on the portholes of the sensor (s) acquiring the elementary images, a difference between two adjacent elementary images appears in the corresponding overlapping areas, due to the locations of the raindrops or dirt that differs from one window to another. This difference appears on these elementary images insofar as the plane of the outer face of the window is focused or partially focused on the sensor. This is illustrated in FIG. 2 on which are represented 2 adjacent elementary images 11, 12 having an overlap R1 corresponding to the covering R2. A dirt Si appears on the cover R1 which does not appear on the cover R2. In this case, the difference subpicture will therefore show S1. One could also have a dirt S2 on R2, in which case the sub-image difference would make appear Si and S2. In the case where each interface is clean (no dirt), the two sub-images are identical.

Dans le cas où un capteur est employé par voie d'imagerie élémentaire, chaque voie d'imagerie dispose de son propre hublot sur lequel les gouttes ou salissures se déposent différemment, ce qui induit deux images différentes des gouttes. Dans le cas d'un capteur à multiplexage optique, suivant la voie d'imagerie élémentaire, les faisceaux optiques ne passent pas par la même partie du hublot, ce qui induit deux images différentes des gouttes. Dans le cas d'un capteur muni d'une optique à découpage de champ, chaque voie d'imagerie élémentaire est acquise par une optique frontale propre sur le hublot de laquelle les gouttes ou salissures se déposent différemment, ce qui induit deux images différentes des gouttes. In the case where a sensor is used by elementary imaging, each imaging channel has its own window on which the drops or dirt are deposited differently, which induces two different images of the drops. In the case of an optical multiplexing sensor, following the elementary imaging path, the optical beams do not pass through the same portion of the window, which induces two different images of the drops. In the case of a sensor equipped with field-switching optics, each elementary imaging channel is acquired by a clean frontal optics on the porthole from which the drops or soils are deposited differently, which induces two different images of the images. drops.

Les images 11, 12, I3,... avec recouvrements RI, R2,... étant acquises, le procédé selon l'invention comprend les étapes suivantes. - Extraction d'une sous-image SRI, SR2 dans la zone de recouvrement R1, R2 de chaque image élémentaire I1, 12. Cette extraction est fondée sur une connaissance a priori des zones de recouvrement des images et donc sur une connaissance des positions relatives des voies d'imagerie élémentaires ; on en verra différents exemples plus loin. - Calcul d'une sous-image représentative de la différence (dite sous-image différence) des deux sous-images SRI, SR2 en correspondance obtenues à l'étape précédente. - Mise en oeuvre du dispositif de nettoyage en fonction d'un critère prédéterminé appliqué à la sous-image différence. Le critère de mise en oeuvre du dispositif de nettoyage est par exemple que la somme de la valeur absolue sur l'ensemble des pixels de la sous-image différence soit supérieure à un seuil prédéterminé. Plus généralement il s'agit d'appliquer à cette sous-image différence, un estimateur approprié, puis de réaliser un seuillage sur l'estimateur pour décider si les sous-images en correspondance extraites sont identiques ou non. Eventuellement, un filtrage spatial est appliqué à chaque sous- image en correspondance ; il est destiné à gommer les hautes fréquences (détails) de la scène observée et à rendre chaque sous-image aussi floue que l'image des gouttes, ceci pour diminuer la sensibilité du dispositif à la qualité de la mise en correspondance. Le calcul de la sous-image image différence est alors effectué sur ces sous-images filtrées. The images 11, 12, I3, ... with recoveries R1, R2, ... being acquired, the method according to the invention comprises the following steps. - Extraction of a subimage SRI, SR2 in the overlap zone R1, R2 of each elementary image I1, 12. This extraction is based on a priori knowledge of the overlapping areas of the images and therefore on a knowledge of the relative positions elementary imaging pathways; we will see different examples later. - Calculation of a sub-image representative of the difference (said difference subimage) of the two sub-images SRI, SR2 in correspondence obtained in the previous step. - Implementation of the cleaning device according to a predetermined criterion applied to the difference subimage. The criterion for implementing the cleaning device is, for example, that the sum of the absolute value over all the pixels of the difference sub-image is greater than a predetermined threshold. More generally it is to apply to this difference subimage, an appropriate estimator, then to perform a thresholding on the estimator to decide whether the corresponding sub-images extracted are identical or not. Optionally, spatial filtering is applied to each matching subimage; it is intended to erase the high frequencies (details) of the observed scene and to make each sub-image as blurred as the image of the drops, this to reduce the sensitivity of the device to the quality of matching. The calculation of the difference image subimage is then performed on these filtered subimages.

Ces opérations peuvent ainsi être implantées sans adjonction de composant matériel sur le système d'imagerie. Par ce procédé, il est ainsi possible d'obtenir l'information que les hublots ne sont plus intègres (présence de gouttes ou salissures) et de déclencher en conséquence une action de nettoyage telle qu'un essuyage, éventuellement doublée d'un nouveau nettoyage tel qu'un lavage si une nouvelle analyse des différences d'images consécutive à l'essuyage ne montre pas de retour à la normale. Ce procédé est mis en oeuvre par un système d'imagerie dont on va présenter trois exemples de modes de réalisation. These operations can thus be implemented without adding a hardware component to the imaging system. By this method, it is thus possible to obtain the information that the portholes are no longer intact (presence of drops or soiling) and to trigger accordingly a cleaning action such as wiping, possibly doubled with a new cleaning such as a wash if a new analysis of the differences of images consecutive to the wiping does not show a return to normal. This method is implemented by an imaging system of which three examples of embodiments will be presented.

Dans l'exemple de la figure 3a, le système comprend 2 voies d'imagerie distinctes acquérant chacune une fraction de la scène observée. II comprend deux capteurs 13, 14 tel que des détecteurs IR, deux groupes de focalisation 20, 21. Les groupes de focalisation 20, 21 permettent de former deux irlages 11, 12 de la scène observée à l'infini et des hublots 40,41, l'image du hublot étant éventuellement un peu floue mais permettant de détecter les gouttes de pluie ou salissures. Le réglage de l'orientation relative des voies d'imagerie permet d'assurer les recouvrements RI, R2g dans les images 11, 12 comme illustré figure 3b. Les capteurs 13, 14 sont reliés à une unité de traitement 1 elle-même reliée à un dispositif 7 de nettoyage des hublots 40, 41. L'unité de traitement réalise le calcul de la sous-image différence à partir des images élémentaires 11 et 12 issues de chacun de deux capteurs. On s'est limité à deux voies d'imagerie dans cet exemple ; l'invenl:ion se généralise à un nombre quelconque de voies d'imagerie élémentaires. Dans l'exemple de la figure 4a, le système comprend six voies d'imagerie distinctes acquérant chacune une fraction de la scène observée. II comprend un capteur 1 tel qu'une matrice de détecteurs IR, un groupe de focalisation 2 et un périscope 5 mobile en rotation autour de l'axe du capteur, qui sont des éléments optiques communs aux six voies. Le groupe de focalisation 2 permet de former au travers du périscope, invariant optique, une image de la scène observée à l'infini et du hublot, l'image du hublot étant éventuellement un peu floue mais permettant de détecter les gouttes de pluie ou salissures. Pour les deux blocs B3 et B6 représentés sur cette figure, les seuls faisceaux optiques tracés correspondent aux rayons d'ouverture d'un faisceau parallèle provenant d'un point d'une scène à l'infini situé au centre du champ d'un bloc. Pour ne pas surcharger la figure on n'a pas représenté les rayons extrêmes du champ de chaque bloc. Le capteur 1 est relié à une unité ce traitement 3 elle-même reliée à un dispositif 7 de nettoyage d'un hublot 4. Chaque voie comprend un hublot distinct. Ou comme représenté sur la figure, chaque voie comprend une partie d'un grand hublot 4 commun à certaines voies voire à toutes les voies, les faisceaux optiques des différentes voies ne passant pas par la même partie du hublot ; chacune de ces parties de hublot est désignée interface optique externe de la voie d'imagerie correspondante. Chaque voie comprend aussi un bloc optique de tête. Le plan médian représenté sur la figure 4a comprend les blocs optiques de tête B3, B6 de deux des six voies, chacun des blocs étant composé dans cet exemple d'un miroir M3, M6 orienté vers le hublot et renvoyant sur un prisme P3, P6 le faisceau optique incident qu'il intercepte à travers le hublot et qui couvre une fraction du champ total (1/6 du champ total dans cet exemple à 6 voies distinctes) ; le prisme P3, P6 est disposé de manière à renvoyer le faisceau réfléchi par le miroir M3, M6, vers le périscope 5 pour former une image sur le capteur 1. Chaque bloc optique peut comporter seulement un miroir et un prisme qui peuvent être remplacés par deux prismes, ou un seul prisme, ou quatre miroirs. Les prismes P1, P2, P3, P4, P5, P6 et miroirs M1, M2, M3, M4, M5, M6 des six blocs de tête sont disposés sur trois niveaux N1, N2, N3 et en regard du cercle décrit par la face de sortie du périscope 5 comme illustré figure 4b. L'orientation des miroirs des six blocs de tête permet d'obtenir la couverture par 6 images élémentaires adjacentes qui sont successivement acquises au cours de la rotation continue ou pas à pas du périscope 5. Dans cet exemple les images élémentaires ne sont pas formées simultanément sur le capteur 1 puisqu'il s'agit d'un multiplexage temporel mais dans un laps de temps suffisamment court pour que la partie de scène commune aux deux images ne change pas sensiblement d'une image à l'autre. Sont ainsi formées sur le capteur 6 images élémentaires 11, 12, ..., 16 correspondant respectivement à 6 fractions de la scène observée comme illustré figure 4c. Au fur et à mesure que ces images élémentaires sont acquises, elles sont stockées dans l'unité de traitement 3. Pour reconstituer une image panoramique de la scène, l'unité de traitement 3 juxtapose les images élémentaires préalablement stockées, de la façon suivante : 12, 11, 13, 16, 14, 15, car : 11 est l'image élémentaire de la scène observée 2, - 12 est l'image élémentaire de la scène observée 1, - 13 est l'image élémentaire de la scène observée 3, - 14 est l'image élémentaire de la scène observée 5, 15 est l'image élémentaire de la scène observée 6, - 16 est l'image élémentaire de la scène observée 4. On a alors R2 qui correspond à R1g (recouvrement gauche de I1), R1d (recouvrement droit de 11) qui correspond à R3g (recouvrement gauche de 13), etc, mais cela n'a pas d'incidence au niveau de l'unité de traitement pour le calcul de la sous-image différence à partir des images élémentaires stockées. Dans l'exemple des figures 5, le système comprend trois voies d'imagerie distinctes acquérant chacune une image d'une fraction de la scène observée : scène observée 1, scène observée 2, scène observée 3 comme on le voit figure 5b. On se reporte à la figure 5a ; le système comprend une voie médiane et deux voies supérieure et inférieure symétriques par rapport à 5 l'axe optique 0M de la voie médiane. La voie médiane comprend un capteur 1 tel qu'un détecteur IR et un objectif 2 qui sont des éléments communs aux trois voies. Le capteur 1 est relié à une unité de traitement 3 également reliée à un dispositif 7 de nettoyage de hublots. Cette voie médiane comprend en outre un objectif 10 d'entrée 10 et un hublot 40. Le faisceau optique incident sur cette voie, forme une image 12 sur une partie du capteur 1, en l'occurrence la partie médiane. Cette image 12 est celle de la scène observée 2. La voie supérieure comprend également outre les éléments communs, un hublot 41, un prisme 21 disposé de manière à couvrir un 15 champ (celui de la scène observée 1) adjacent à celui couvert par la voie médiane, un objectif d'entrée 11 et situés entre les deux objectifs 11 et 2, deux miroirs 51, 61 disposés symétriquement à 45° par rapport à l'axe optique 0M et parallèles entre eux de façon à envoyer le faisceau optique incident sur cette voie, sur une autre partie du capteur, en l'occurrence la 20 partie saute sur laquelle est alors formée une image Il de la scène observée 1. La voie inférieure comprend outre les éléments communs, les mêmes éléments que la voie supérieure (42, 22, 12, 52, 62), disposés symétriquement par rapport à l'axe 0M. Le faisceau optique incident sur 25 cette voie, est envoyé sur une autre partie du capteur, en l'occurrence la partie basse sur laquelle est alors formée une image 13 de la scène observée 3. Les miroirs de renvoi 61 et 62 forment une fente 8 par laquelle passe le faisceau incident de la voie médiane. On a représenté 3 hublots 30 distincts qui peuvent être remplacés par un grand hublot. Dans cet exemple les images élémentaires sont formées simultanément sur le capteur 1. On retrouve sur le capteur trois images élémentaires 11, 12, 13 superposées correspondant respectivement aux trois scènes observées adjacentes comme illustré figure 5b, ainsi qu'aux hublots 35 40, 41 et 42. Elles deviennent adjacentes lorsque l'unité de traitement reconstitue le bandeau panoramique de la scène observée en alignant les images 11, 12 et 13 extraites de l'image obtenue du capteur 1. On remarquera que les recouvrements entre 11 et 12 qui se trouvent à droite de 11 (Rld) et à gauche de 12 (R2g) ne sont pas adjacents au niveau du capteur ; de même pour les recouvrements entre 12 et 13 qui se trouvent à droite de 12 (R2d) et à gauche de 13 (R3). Mais cela n'a pas d'incidence au niveau de l'unité de traitement qui calcule la sous-image différence à partir de l'unique image obtenue du capteur 1. Comme indiqué précédemment, les images élémentaires sont acquises en même temps c'est-à-dire dans un laps de temps déterminé. Ceci est généralement le cas lorsque la cadence d'acquisition des images par les capteurs est suffisante : ces capteurs comportent ainsi des moyens d'acquisition de ces images dans le laps de temps voulu. On a pris un hublot comme exemple d'interface externe d'une voie d'imagerie ; l'invention s'applique également au cas où l'interface externe est la face externe du premier élément optique d'entrée du système optique (lentille ou prisme) comme celui décrit en relation avec les figures 3 ou 5. In the example of Figure 3a, the system comprises two separate imaging channels each acquiring a fraction of the observed scene. It comprises two sensors 13, 14 such as IR detectors, two focusing groups 20, 21. Focusing groups 20, 21 make it possible to form two lines 11, 12 of the scene observed at infinity and portholes 40, 41. , the image of the porthole being possibly a little blurry but to detect raindrops or dirt. The adjustment of the relative orientation of the imaging channels makes it possible to ensure the overlays RI, R2g in the images 11, 12 as illustrated in FIG. 3b. The sensors 13, 14 are connected to a processing unit 1 which is itself connected to a device 7 for cleaning the windows 40, 41. The processing unit calculates the difference sub-image from the elementary images 11 and 12 from each of two sensors. We have limited ourselves to two imaging channels in this example; the invention is generalized to any number of elementary imaging pathways. In the example of Figure 4a, the system comprises six distinct imaging channels each acquiring a fraction of the observed scene. It comprises a sensor 1 such as an array of IR detectors, a focusing group 2 and a periscope 5 rotatable about the axis of the sensor, which are optical elements common to the six channels. The focusing group 2 makes it possible to form, through the periscope, an optical invariant, an image of the scene observed at infinity and of the window, the image of the window possibly being a little fuzzy but making it possible to detect the raindrops or soiling. . For the two blocks B3 and B6 shown in this figure, the only optical beams plotted correspond to the opening radii of a parallel beam coming from a point of a scene at infinity located in the center of the field of a block . To avoid overloading the figure, the extreme rays of the field of each block have not been represented. The sensor 1 is connected to a unit 3 this treatment itself connected to a device 7 for cleaning a window 4. Each channel comprises a separate window. Or as shown in the figure, each channel comprises part of a large porthole 4 common to some or all channels, the optical beams of the different channels not passing through the same part of the porthole; each of these porthole parts is designated external optical interface of the corresponding imaging channel. Each channel also includes an optical head unit. The median plane shown in FIG. 4a comprises the head optical units B3, B6 of two of the six channels, each of the blocks being composed in this example of a mirror M3, M6 oriented towards the window and returning onto a prism P3, P6 the incident optical beam that it intercepts through the porthole and which covers a fraction of the total field (1/6 of the total field in this example with 6 distinct channels); the prism P3, P6 is arranged to return the beam reflected by the mirror M3, M6, to the periscope 5 to form an image on the sensor 1. Each optical unit may comprise only a mirror and a prism which can be replaced by two prisms, or one prism, or four mirrors. The prisms P1, P2, P3, P4, P5, P6 and mirrors M1, M2, M3, M4, M5, M6 of the six head blocks are arranged on three levels N1, N2, N3 and facing the circle described by the face output of the periscope 5 as illustrated in FIG. 4b. The orientation of the mirrors of the six head blocks makes it possible to obtain coverage by 6 adjacent elementary images which are successively acquired during the continuous rotation or step by step of the periscope 5. In this example, the elementary images are not formed simultaneously. on the sensor 1 since it is a time division multiplexing but in a sufficiently short time so that the scene portion common to the two images does not change substantially from one image to another. Thus, on the sensor, 6 elementary images 11, 12, ..., 16 corresponding to 6 fractions of the scene observed as illustrated in FIG. 4c are formed. As these elementary images are acquired, they are stored in the processing unit 3. In order to reconstitute a panoramic image of the scene, the processing unit 3 juxtaposes the elementary images previously stored, in the following way: 12, 11, 13, 16, 14, 15 because: 11 is the elementary image of the observed scene 2, - 12 is the elementary image of the observed scene 1, - 13 is the elementary image of the observed scene 3, - 14 is the elementary image of the observed scene 5, 15 is the elementary image of the observed scene 6, - 16 is the elementary image of the observed scene 4. We then have R2 which corresponds to R1g (overlap left of I1), R1d (right overlap of 11) which corresponds to R3g (left overlap of 13), etc., but this has no effect at the level of the processing unit for calculating the sub-image difference from the stored elementary images. In the example of FIGS. 5, the system comprises three distinct imaging channels each acquiring an image of a fraction of the observed scene: observed scene 1, observed scene 2, observed scene 3 as seen in FIG. 5b. Referring to Figure 5a; the system comprises a middle channel and two upper and lower symmetrical channels with respect to the 0M optical axis of the middle channel. The middle channel comprises a sensor 1 such as an IR detector and an objective 2 which are elements common to the three channels. The sensor 1 is connected to a processing unit 3 also connected to a window cleaning device 7. This middle channel further comprises an entry lens 10 and a window 40. The optical beam incident on this path forms an image 12 on a part of the sensor 1, in this case the middle part. This image 12 is that of the observed scene 2. The upper channel also comprises, in addition to the common elements, a porthole 41, a prism 21 arranged to cover a field (that of the scene observed 1) adjacent to that covered by the middle way, an input lens 11 and located between the two objectives 11 and 2, two mirrors 51, 61 arranged symmetrically at 45 ° with respect to the optical axis 0M and parallel to each other so as to send the incident optical beam on this way, on another part of the sensor, in this case the jump part on which is then formed an image II of the scene observed 1. The lower channel comprises in addition to the common elements, the same elements as the upper track (42 , 22, 12, 52, 62), arranged symmetrically with respect to the axis 0M. The optical beam incident on this path is sent to another part of the sensor, in this case the lower part on which an image 13 of the observed scene 3 is formed. The reflecting mirrors 61 and 62 form a slot 8 through which the incident beam of the middle way passes. There are three distinct portholes 30 which can be replaced by a large porthole. In this example, the elementary images are formed simultaneously on the sensor 1. On the sensor there are three superimposed elementary images 11, 12, 13 respectively corresponding to the three adjacent observed scenes as illustrated in FIG. 5b, as well as to the windows 40, 41 and 40. 42. They become adjacent when the processing unit reconstructs the panoramic strip of the scene observed by aligning the images 11, 12 and 13 extracted from the image obtained from the sensor 1. It will be noted that the overlaps between 11 and 12 which are located right of 11 (Rld) and left of 12 (R2g) are not adjacent to the sensor; similarly for recoveries between 12 and 13 which are to the right of 12 (R2d) and to the left of 13 (R3). But this does not affect the processing unit which calculates the sub-image difference from the single image obtained from the sensor 1. As indicated above, the elementary images are acquired at the same time. that is to say within a certain period of time. This is generally the case when the rate of acquisition of the images by the sensors is sufficient: these sensors thus comprise means for acquiring these images in the desired lapse of time. We took a porthole as an example of an external interface of an imaging channel; the invention also applies to the case where the external interface is the outer face of the first optical input element of the optical system (lens or prism) as described in relation to FIGS. 3 or 5.

Claims (11)

REVENDICATIONS1. Procédé d'imagerie passive au moyen d'un système optronique (100) passif qui comprend au moins deux voies d'imagerie distinctes pourvue chacune d'une interface optique externe distincte (40, 41, 42), et une unité de traitement (3) des images, le procédé comportant une étape d'acquisition par chaque voie d'imagerie et dans un même laps de temps déterminé, d'une image élémentaire (I1, 12, 13) d'une fraction d'une scène observée à l'infini, ces images ayant une partie de la scène observée en recouvrement (R1, R2d, R2g), caractérisé en ce que le système comprenant un dispositif de nettoyage (7) desdites interfaces externes (40, 41, 42), et chaque image élémentaire comportant l'image partiellement focalisée de l'interface externe, le procédé comprend une étape d'extraction d'une sous-image (SR1, SR2) dans la zone de recouvrement de chaque image élémentaire (11, 12), une étape de calcul d'une sous-image représentative de la différence des deux sous-images, dite sous-image différence et une étape de déclenchement du dispositif de nettoyage (7) en fonction d'un critère prédéterminé appliqué à la sous-image différence, ces étapes d'extraction, de calcul et de déclenchement étant réalisées par l'unité de traitement (3). REVENDICATIONS1. A passive imaging method using a passive optronic system (100) which comprises at least two distinct imaging channels each provided with a separate external optical interface (40, 41, 42), and a processing unit (3). ) images, the method comprising a step of acquisition by each imaging path and within the same determined period of time, of an elementary image (I1, 12, 13) of a fraction of a scene observed at the infinite, these images having part of the scene observed in overlap (R1, R2d, R2g), characterized in that the system comprising a cleaning device (7) of said external interfaces (40, 41, 42), and each image element comprising the partially focused image of the external interface, the method comprises a step of extracting a subimage (SR1, SR2) in the overlap area of each elementary image (11, 12), a step of calculating a sub-image representative of the difference of the two sub-images, said difference sub-image and a triggering step of the cleaning device (7) according to a predetermined criterion applied to the difference sub-image, these extraction, calculation and triggering steps being performed by the processing unit (3). 2. Procédé d'imagerie passive selon la revendication précédente, caractérisé en ce que le laps de temps est inférieur à 100 ms. 2. Passive imaging method according to the preceding claim, characterized in that the lapse of time is less than 100 ms. 3. Procédé d'imagerie passive selon l'une des revendications précédentes, caractérisé en ce que la sous-image différence présentant des pixels, le critère de mise en oeuvre du dispositif de nettoyage (7) est fondé sur un seuil déterminé en fonction de la somme de la valeur absolue des pixels de la sous-image différence. Passive imaging method according to one of the preceding claims, characterized in that the difference subimage having pixels, the criterion of implementation of the cleaning device (7) is based on a threshold determined as a function of the sum of the absolute value of the pixels of the difference sub-image. 4. Procédé d'imagerie passive selon l'une des revendications précédentes, caractérisé en ce que préalablement à l'étape de calculd'une sous-image différence, les sous-images (SRI, SR2) sont filtrées. 4. Passive imaging method according to one of the preceding claims, characterized in that prior to the step of calculating a difference subimage, the sub-images (SRI, SR2) are filtered. 5. Procédé d'imagerie passive selon l'une des revendications 5 précédentes, caractérisé en ce que les images sont des images IR ou visibles. 5. passive imaging method according to one of the preceding claims, characterized in that the images are IR or visible images. 6. Système optronique d'imagerie passive (100) qui comprend au moins deux voies d'imagerie distinctes pourvue chacune d'une interface 10 optique externe distincte (4, 40, 41, 42), d'au moins un capteur (1, 13,14) et une unité de traitement (3) des images acquises par ces voies d'imagerie, caractérisé en ce que chaque voie d'imagerie comprend des moyens de focalisation de l'image d'une scène observée à l'infini et de focalisation partielle de l'image de l'interface 15 externe sur le capteur (1, 13, 14), des moyens d'acquisition des images par le (ou les) capteur(s) dans un laps de temps déterminé, et en ce qu'il comprend un dispositif de nettoyage (7) des interfaces externes et en ce que l'unité de traitement (3) comprend des moyens de mise oeuvre du procédé selon l'une des revendications 20 précédentes. An optronic passive imaging system (100) which comprises at least two distinct imaging channels each provided with a separate external optical interface (4, 40, 41, 42), at least one sensor (1, 13, 14) and a processing unit (3) of the images acquired by these imaging channels, characterized in that each imaging channel comprises means for focusing the image of a scene observed at infinity and partially focusing the image of the external interface on the sensor (1, 13, 14), image acquisition means by the (or) sensor (s) within a predetermined period of time, and it comprises a cleaning device (7) external interfaces and in that the processing unit (3) comprises means for implementing the method according to one of the preceding claims. 7. Système optronique d'imagerie passive (100) selon la revendication précédente, caractérisé en ce que les voies d'imagerie distinctes comportent chacune un capteur distinct (13, 14). 7. optronic passive imaging system (100) according to the preceding claim, characterized in that the separate imaging channels each comprise a separate sensor (13, 14). 8. Système optronique d'imagerie passive (100) selon la revendication 6, caractérisé en ce qu'au moins deux voies d'imagerie distinctes comportent un capteur commun (1) et un multiplexeur optique (5). 30 8. optronic passive imaging system (100) according to claim 6, characterized in that at least two distinct imaging channels comprise a common sensor (1) and an optical multiplexer (5). 30 9. Système optronique d'imagerie passive (100) selon la revendication 6, caractérisé en ce qu'au moins deux voies d'imagerie distinctes comportent un capteur commun (1) et un dispositif optique à découpage de champ. 25 9. optronic passive imaging system (100) according to claim 6, characterized in that at least two distinct imaging channels comprise a common sensor (1) and a field-switched optical device. 25 10. Système optronique d'imagerie passive (100) selon l'une quelconque des revendications 6 à 9, caractérisé en ce que les voies d'imagerie sont des voies IR ou visible. 10. optronic passive imaging system (100) according to any one of claims 6 to 9, characterized in that the imaging channels are IR or visible channels. 11. Système optronique d'imagerie passive (100) selon l'une quelconque des revendications 6 à 10, caractérisé en ce que le système est un système de surveillance. The passive optronic imaging system (100) according to any one of claims 6 to 10, characterized in that the system is a monitoring system.
FR0807209A 2008-12-19 2008-12-19 PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION Expired - Fee Related FR2940490B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0807209A FR2940490B1 (en) 2008-12-19 2008-12-19 PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION
PCT/EP2009/067580 WO2010070122A1 (en) 2008-12-19 2009-12-18 Method for passive imaging and rain detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0807209A FR2940490B1 (en) 2008-12-19 2008-12-19 PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION

Publications (2)

Publication Number Publication Date
FR2940490A1 true FR2940490A1 (en) 2010-06-25
FR2940490B1 FR2940490B1 (en) 2011-05-13

Family

ID=40984966

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0807209A Expired - Fee Related FR2940490B1 (en) 2008-12-19 2008-12-19 PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION

Country Status (2)

Country Link
FR (1) FR2940490B1 (en)
WO (1) WO2010070122A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2739944A1 (en) * 1995-10-11 1997-04-18 Telecommunications Sa OPTICAL SYSTEM FOR LARGE FIELD VIEWS
DE19803694C1 (en) * 1998-01-30 1999-04-22 Kostal Leopold Gmbh & Co Kg Method of detecting objects on a transparent plate, e.g. a motor vehicle windscreen
WO2003029056A2 (en) * 2001-10-04 2003-04-10 Gentex Corporation Moisture sensor utilizing stereo imaging with an image sensor
FR2833086A1 (en) * 2001-11-30 2003-06-06 Thales Sa HIGH-SPEED SECTORAL OR PANORAMIC OPTRONIC WATCH DEVICE WITHOUT APPARENT MOVEMENT
US20030227378A1 (en) * 2002-03-29 2003-12-11 Kabushiki Kaisha Toshiba Obstacle detecting apparatus and method
EP1637837A1 (en) * 2003-05-29 2006-03-22 Olympus Corporation Stereo camera system and stereo optical module

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2739944A1 (en) * 1995-10-11 1997-04-18 Telecommunications Sa OPTICAL SYSTEM FOR LARGE FIELD VIEWS
DE19803694C1 (en) * 1998-01-30 1999-04-22 Kostal Leopold Gmbh & Co Kg Method of detecting objects on a transparent plate, e.g. a motor vehicle windscreen
WO2003029056A2 (en) * 2001-10-04 2003-04-10 Gentex Corporation Moisture sensor utilizing stereo imaging with an image sensor
FR2833086A1 (en) * 2001-11-30 2003-06-06 Thales Sa HIGH-SPEED SECTORAL OR PANORAMIC OPTRONIC WATCH DEVICE WITHOUT APPARENT MOVEMENT
US20030227378A1 (en) * 2002-03-29 2003-12-11 Kabushiki Kaisha Toshiba Obstacle detecting apparatus and method
EP1637837A1 (en) * 2003-05-29 2006-03-22 Olympus Corporation Stereo camera system and stereo optical module

Also Published As

Publication number Publication date
WO2010070122A1 (en) 2010-06-24
FR2940490B1 (en) 2011-05-13

Similar Documents

Publication Publication Date Title
CA2027286C (en) Device for the real time localisation of radiation sources
EP2965287B1 (en) Method for tracking a target in an image sequence, taking the dynamics of the target into consideration
EP0153218B1 (en) Method and arrangement for the detection of superficial faults in a moving sheet
EP1560159A2 (en) Method and apparatus for detecting contaminants on a window surface of a viewing utilizing light
FR2947781A1 (en) Image data inputting device for e.g. night vision system in motor vehicle, has light guiding installation fixed on inner face of windscreen and deviating light from capturing zone toward camera, where camera receives light from zone
FR3007295A1 (en) DRONE EQUIPPED WITH AN IMAGING DEVICE AND MEANS FOR PROTECTING THE IMAGING DEVICE
EP1964394A1 (en) Method and system for detecting an individual by means of passive infrared sensors
EP0920677B1 (en) Method and device for air-ground recognition for optoelectronic equipment
CA2965323C (en) Method for detecting defective pixels.
WO2021023950A1 (en) Monitoring method, computer program product, associated monitoring system and aircraft
FR2940490A1 (en) PROCESS FOR PASSIVE IMAGING AND RAIN DETECTION
EP4115327B1 (en) Method for assisting in the detection of elements, and associated device and platform
FR2909182A1 (en) Retroreflecting object e.g. eye, detecting method, involves forming two set of images of scene through respective filters whose bandwidths are adjusted on wavelengths during object illumination, respectively, and forming third set of image
FR3041458A1 (en) IMAGING DEVICE, MOTOR VEHICLE EQUIPPED WITH SUCH IMAGING DEVICE, AND ASSOCIATED METHOD
WO2020193304A1 (en) Assembly for protecting an optical sensor of a driver assistance system for a motor vehicle
EP1882204B1 (en) Optical head for detecting the launch of missiles or other monitoring equipment
FR2558959A1 (en) APPARATUS FOR CONTROLLING OBJECT SURFACES
WO2020104509A1 (en) Device and method for observing a scene comprising a target
EP3797510B1 (en) Panoramic observation system for platform
WO2018109044A1 (en) Device for detecting an object of interest and method implementing this device
EP0457414B1 (en) Object detection device in an image sequence
WO2008071678A1 (en) Passive watch optronic system
FR3127601A1 (en) Method and system for counting people in a place, and public transport vehicle equipped with such a system.
WO2009013413A2 (en) Method for locating cameras in a network and method for operating one such network
FR2913779A1 (en) DEVICE FOR THE ACQUISITION OF CUSTOMIZATION IMAGE.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

ST Notification of lapse

Effective date: 20200910