FR3053554A1 - Procede de calibration rapide d'une camera de vehicule automobile - Google Patents

Procede de calibration rapide d'une camera de vehicule automobile Download PDF

Info

Publication number
FR3053554A1
FR3053554A1 FR1656192A FR1656192A FR3053554A1 FR 3053554 A1 FR3053554 A1 FR 3053554A1 FR 1656192 A FR1656192 A FR 1656192A FR 1656192 A FR1656192 A FR 1656192A FR 3053554 A1 FR3053554 A1 FR 3053554A1
Authority
FR
France
Prior art keywords
camera
vehicle
images
pitch
yaw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1656192A
Other languages
English (en)
Other versions
FR3053554B1 (fr
Inventor
Boris Lugez
Lucien Garcia
Bertrand Godreau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Continental Automotive France SAS
Original Assignee
Continental Automotive GmbH
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH, Continental Automotive France SAS filed Critical Continental Automotive GmbH
Priority to FR1656192A priority Critical patent/FR3053554B1/fr
Publication of FR3053554A1 publication Critical patent/FR3053554A1/fr
Application granted granted Critical
Publication of FR3053554B1 publication Critical patent/FR3053554B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

La présente invention a pour objet un procédé de calibration d'une caméra montée dans un véhicule automobile. Le procédé comprend une étape (E1) de génération d'une série d'images de l'environnement du véhicule, une étape (E4) d'extraction d'un sous-ensemble d'images de ladite série d'images, une étape (E5) de détermination d'un déplacement du véhicule selon une trajectoire rectiligne sur une portion de roulement plane à partir du sous-ensemble d'images extrait, une étape (E6) de détermination des valeurs de tangage et de lacet à partir dudit sous-ensemble d'images lors du déplacement déterminé, et une étape (E7) de détermination de la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d'un plan de projection associé à la portion de roulement plane afin de calibrer la caméra.

Description

Titulaire(s) : CONTINENTAL AUTOMOTIVE FRANCE Société par actions simplifiée, CONTINENTAL AUTOMOTIVE GMBH.
Demande(s) d’extension
Mandataire(s) : CONTINENTAL AUTOMOTIVE FRANCE Société par actions simplifiée.
PROCEDE DE CALIBRATION RAPIDE D'UNE CAMERA DE VEHICULE AUTOMOBILE.
FR 3 053 554 - A1
La présente invention a pour objet un procédé de calibration d'une caméra montée dans un véhicule automobile. Le procédé comprend une étape (E1 ) de génération d'une série d'images de l'environnement du véhicule, une étape (E4) d'extraction d'un sous-ensemble d'images de ladite série d'images, une étape (E5) de détermination d'un déplacement du véhicule selon une trajectoire rectiligne sur une portion de roulement plane à partir du sous-ensemble d'images extrait, une étape (E6) de détermination des valeurs de tangage et de lacet à partir dudit sous-ensemble d'images lors du déplacement déterminé, et une étape (E7) de détermination de la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d'un plan de projection associé à la portion de roulement plane afin de calibrer la caméra.
I
I E3
I E4
I E5
I ry, rz I —E6
n< J-E7
Figure FR3053554A1_D0001
L’invention se rapporte au domaine de la calibration des caméras embarquées dans les véhicules automobiles et concerne plus particulièrement un procédé et un dispositif de calibration d’une caméra montée dans un véhicule automobile ainsi qu’un véhicule automobile comprenant un tel dispositif.
De nos jours, il est connu d’équiper un véhicule automobile d’un système d’assistance à la conduite appelé communément ADAS (« Advanced Driver Assistance System » en langue anglaise). Un tel système comprend de manière connue une caméra vidéo, par exemple montée sur le pare-brise avant du véhicule, qui permet de générer un flux d’images représentant l’environnement dudit véhicule. Ces images sont exploitées par une unité de traitement dans le but d’assister le conducteur, par exemple en détectant un obstacle ou bien le franchissement d’une ligne blanche. Les informations données par les images capturées par la caméra doivent donc être suffisamment fiables et pertinentes pour permettre au système d’assister efficacement le conducteur du véhicule. A cette fin, il est donc nécessaire de calibrer la caméra.
En traitement d'image, l'opération de calibration de caméra revient à modéliser le processus de formation des images, c'est-à-dire trouver la relation entre les coordonnées spatiales d'un point de l'espace avec le point associé dans l'image prise par la caméra ainsi que la relation spatiale entre la caméra et le véhicule. Le terme calibration est utilisé de manière standard par l’homme du métier bien qu’il soit un anglicisme dont l'équivalent français est étalonnage.
Plusieurs modèles décrivant le processus de formation des images existent. Le plus simple est le modèle du sténopé ou modèle « pin-hole » dans la littérature anglosaxonne, qui est couramment utilisé en traitement d'image. Il s'agit d'une modélisation simple du processus de formation des images au sein d'une caméra. Ce modèle suppose que le système optique de la caméra, c'est-à-dire sa lentille, respecte les conditions de Gauss. Si l'on utilise la notation matricielle des coordonnées homogènes, il est possible de décrire de manière simple ce processus. Pour cela, il faut tout d’abord exprimer les relations de passage d’un premier repère appelé « repère véhicule », lié à l’environnement du véhicule, à un deuxième repère appelé « repère caméra », lié à la caméra. Il faut également exprimer la projection du repère caméra dans un plan appelé « plan image » qui correspond à un plan situé à la distance focale de la caméra le long de l’axe focal. Il faut enfin appliquer la transformation affine qui conduit aux coordonnées du point dans l'image.
La relation permettant de passer d’un point du repère véhicule à un point de l’image dépend de manière connue de paramètres dits « intrinsèques » et de paramètres dits « extrinsèques ». Les paramètres intrinsèques sont propres à la caméra tandis que les paramètres extrinsèques peuvent varier suivant la position de la caméra dans l'environnement du véhicule.
Parmi les paramètres intrinsèques, on distingue la distance focale, les facteurs d'agrandissement de l'image, les coordonnées de la projection du centre optique de la caméra sur le plan image et un facteur de non-orthogonalité potentielle des lignes et des colonnes des cellules électroniques photosensibles qui composent le capteur de la caméra. La plupart du temps, ce dernier paramètre est négligé et prend donc une valeur nulle.
Les paramètres extrinsèques comprennent la matrice de rotation et le vecteur de translation permettant de passer du repère véhicule au repère caméra, soit au total douze paramètres à estimer. La matrice de rotation contient neuf éléments qui peuvent toutefois être réduits aux seuls trois angles de roulis, de tangage et de lacet (respectivement « roll, pitch and yaw » en langue anglaise) selon le formalisme dit « de Tait-Bryan » connu de l’homme du métier.
Étalonner la caméra consiste à déterminer la valeur numérique des paramètres de ce modèle. Il est toutefois possible de les regrouper de manière différente, suivant la forme sous laquelle ce modèle doit ensuite être exploité. Ceci conduit à différentes variantes possibles du modèle.
La calibration des paramètres intrinsèques est en général réalisée au moins une première fois en usine puis à chaque fois qu’il est nécessaire de les calibrer à nouveau, par exemple suite à l’intervention d’un garagiste sur le pare-brise.
La calibration des paramètres extrinsèques est réalisée une première fois en usine à la fin du processus de fabrication du véhicule. Cette première calibration nécessite l’utilisation d’un support de calibration appelé « mire » et consiste à acquérir, avec la caméra du véhicule, des images dudit support afin de déterminer les valeurs de compensation des paramètres extrinsèques.
Un tel support de calibration comporte une pluralité de repères de calibration, par exemple disposés en lignes et en colonnes. Afin de calibrer la caméra, il est nécessaire d’aligner tout d’abord parfaitement le véhicule face au support de calibration afin que leurs référentiels tridimensionnels respectifs soient parallèles et annuler ainsi les valeurs de rotation tout en fixant les valeurs de translation dans les trois dimensions spatiales entre le véhicule et le support de calibration. Ensuite, une fois le véhicule aligné, la caméra capture au moins une série d’images du support de calibration afin de déterminer les valeurs de rotation et de translation entre la caméra et les repères de calibration du support. Enfin, connaissant d’une part les valeurs de rotation et de translation entre le véhicule et le support de calibration et d’autre part les valeurs de rotation et de translation entre la caméra et les repères de calibration du support, on en déduit les valeurs des paramètres extrinsèques de calibration de la caméra.
Ces valeurs sont ensuite stockées et utilisées par le système d’assistance à la conduite du véhicule pour compenser en temps réel les images acquises par la caméra lors de l’utilisation du véhicule.
Avec cette méthode de calibration, l’alignement du véhicule face au support de calibration doit être précis, ce qui nécessite à la fois du temps et un matériel onéreux tel que des plates-formes d’alignement, des rouleaux, des lasers etc.
De plus, un tel matériel d’alignement n’est pas toujours disponible en dehors de l’usine de fabrication, par exemple chez un garagiste ou un concessionnaire, afin de calibrer de nouveau les paramètres extrinsèques de la caméra, par exemple suite à une réparation ou lors d’une maintenance, ce qui présente un inconvénient majeur.
Par ailleurs, la charge ou les secousses subies par le véhicule peuvent entraîner le besoin d’une correction des valeurs de ces paramètres extrinsèques.
Il est ainsi connu de calibrer à nouveau les paramètres extrinsèques de la caméra lorsque le véhicule se met à rouler, par exemple après chaque démarrage du moteur. Une telle calibration peut par exemple être réalisée en utilisant un algorithme d’analyse des lignes de signalisation présentes sur les routes ou bien en utilisant un algorithme de type SLAM (« Simultaneous Localization And Mapping » en langue anglaise ou Cartographie Et Localisation Simultanées) de manière connue en soi.
Les algorithmes d’analyse ne fonctionnent qu’en présence de lignes de signalisation sur la route et ne permettent donc pas de calibrer la caméra sur les routes dépourvues de tels marquages, ce qui présente un inconvénient important. De plus, de tels algorithmes présentent de faibles performances en termes de temps de convergence et fonctionnent difficilement à faible vitesse du véhicule, pour laquelle le flux optique est imprécis, ce qui rend la calibration imprécise et présente donc un inconvénient majeur.
Les algorithmes de type SLAM permettent simultanément de construire ou d’améliorer une carte de l’environnement du véhicule et de s’y localiser. De tels algorithmes présentent également de faibles performances de convergence et fonctionnent aussi difficilement à faible vitesse du véhicule pour laquelle le flux optique est imprécis, ce qui rend la calibration imprécise et présente donc là encore un inconvénient majeur.
L’invention vise donc à remédier au moins en partie à ces inconvénients en proposant une solution simple, rapide, fiable et efficace pour étalonner une caméra de véhicule automobile.
A cette fin, l’invention a pour objet un procédé de calibration d’une caméra montée dans un véhicule automobile, ladite calibration comprenant la détermination des valeurs des paramètres extrinsèques de roulis, tangage et lacet de ladite caméra permettant de passer d’un point réel de l’environnement du véhicule exprimé dans un repère dit « véhicule » lié au véhicule à un point d’une image générée par la caméra exprimé dans un repère dit « caméra » lié à la caméra et représentant ledit point réel, ledit procédé étant remarquable en ce qu’il comprend :
• une étape de génération d’une série d’images de l’environnement du véhicule, • une étape d’extraction d’un sous-ensemble d’images de ladite série d’images, • une étape de détermination d’un déplacement du véhicule selon une trajectoire rectiligne sur une portion de roulement plane à partir du sous-ensemble d’images extrait, • une étape de détermination des valeurs de tangage et de lacet à partir dudit sous-ensemble d’images lors du déplacement déterminé, et • une étape de détermination de la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d’un plan de projection associé à la portion de roulement plane afin de calibrer la caméra.
L’utilisation d’un sous-ensemble d’images permet d’adapter le taux de variation des images afin d’une part de déterminer que le véhicule roule selon une trajectoire rectiligne et d’autre part de déterminer les valeurs de tangage et de lacet puis de roulis pour calibrer la caméra. Le procédé de calibration selon l’invention ne nécessite avantageusement qu’une surface plane et peut donc être mis en œuvre très aisément et très rapidement aussi bien en usine que dans un garage ou sur une route. L’utilisation d’une surface plane permet en outre à une personne non-spécifiquement qualifiée, par exemple le conducteur du véhicule lors de son utilisation, de réaliser la calibration en conduisant le véhicule de manière rectiligne sur ladite surface plane. Il n’est de plus pas nécessaire d’utiliser une mire de calibration ou des marquages au sol de type lignes peintes, ce qui permet de simplifier significativement la calibration tout en réduisant les coûts et le temps de calibration. Les hypothèses de planéité de la surface de roulement et de trajectoire rendent le procédé simple à mettre en œuvre et donc performant en termes de temps de convergence et de rapport signal sur bruit des signaux lors du traitement des images, ce qui permet une calibration simple, rapide, fiable et efficace de la caméra.
De préférence, le procédé comprend une étape de réception d’une information de vitesse du véhicule et une étape de détermination d’un rapport d’extraction des images du sous-ensemble à partir de l'information de vitesse reçue. Ce rapport d’extraction indique la fréquence à laquelle les images sont extraites de la série d’images pour constituer le sous-ensemble d’images.
De préférence encore, le rapport d’extraction est choisi pour que la distance parcourue par le véhicule entre deux images consécutives extraites soit supérieure ou égale à un seuil de distance prédéterminé, de préférence 0,5 m. Ceci permet de minimiser le rapport signal sur bruit permettant d’avoir un flot optique suffisant entre deux images consécutives du sous-ensemble d’images afin de déterminer les valeurs des paramètres extrinsèques de roulis, tangage et lacet. En effet, le flot optique entre deux images du sous-ensemble sera suffisamment important lorsque la distance parcourue par le véhicule entre les deux instants de capture de ces images sera supérieur au seuil de distance prédéterminée.
De manière préférée, le rapport d’extraction est le nombre entier supérieur ou égale à une valeur k donnée par la formule suivante :
k =VXtf où d_min est le seuil de distance prédéterminée, v est la vitesse du véhicule et tf est le temps écoulé entre deux images de la série d’images.
Selon un aspect de l’invention, la valeur de lacet est donnée par :
yaw_24 = atan où Τ2ι(X) représente la translation de la caméra selon
T2l(X) un premier axe parallèle à l’axe longitudinal du véhicule et T21(Y) représente la translation de la caméra selon un deuxième axe orthogonal à l’axe longitudinal du véhicule.
Selon un autre aspect de l’invention, la valeur de tangage est donnée par :
pitch_24 = -atan (Tzi(z)*sin ^aw~24)) où T21(Z) représente la translation de la caméra selon i 21W un troisième axe, orthogonal au premier axe et au deuxième axe.
Avantageusement, les valeurs T21(X), T21(Y) et T21(Z) de translation de la caméra sont calculées à partir de flots optiques entre les images du sous-ensemble d’images.
Avantageusement encore, l’estimation des flots optiques entre la première image et la deuxième image peut être réalisée en utilisant un algorithme de Lucas-Kanade, un algorithme de type « semi-global matching » ou un algorithme de type « power flow » de manière connue de l’homme du métier, ces algorithmes étant avantageusement robustes aux changements d’intensité des pixels entre la première image et la deuxième image.
Selon un aspect de l’invention, la détermination du vecteur de translation permettant le passage du repère caméra à un premier instant au repère caméra à un deuxième instant, postérieur au premier instant, lors du déplacement du véhicule comporte une estimation du déplacement de la caméra qui maximise le nombre de pixels respectant les contraintes géométriques de déplacement des pixels associées à un tel déplacement de la caméra, de telles contraintes étant connues de l’homme du métier sous le nom de lois épipolaires.
Selon une caractéristique de l’invention, on détermine la valeur de roulis en minimisant l’expression :
argmin pitch_42,roll_42,d2 (H_12*PH2(i)) (H_12*PH2(i))(Z)
Il 2
-PHl(i) ou en minimisant l’expression argmin £-L1 roll_42 (H_12*PH2(i)) (H_12*PH2(i))(Z)
- PHl(i) où :
• i et n sont des entiers naturels compris entre 1 et n correspondant à des points de la portion de roulement plane, • PH1(i) est la mesure du ieme point appartenant à la portion de roulement plane à un instant t exprimée dans un repère dit « rétinien », lié au repère caméra, à un instant t, • PH2(i) correspond à la mesure ce même ieme point à un instant (t-1) précédent l’instant t exprimée dans le repère rétinien.
• H_12, l'homographie qui permet de passer d’un point exprimé dans le repère rétinien à un premier instant t-1 au point correspondant exprimé dans le repère rétinien à un deuxième instant t.
L’invention concerne aussi un dispositif de calibration d’une caméra pour véhicule automobile, ladite calibration comprenant la détermination des valeurs des paramètres extrinsèques de roulis, tangage et lacet de ladite caméra permettant de passer d’un point réel de l’environnement du véhicule exprimé dans un repère dit « véhicule » lié au véhicule à un point d’une image générée par la caméra exprimé dans un repère dit « caméra » lié à la caméra et représentant ledit point réel, ledit dispositif comprenant :
• une caméra apte à être montée sur un véhicule automobile et configurée pour générer une série d’images de l’environnement du véhicule pendant un déplacement rectiligne dudit véhicule sur une portion de roulement plane, • une unité de traitement configurée pour :
- recevoir une série d’images générées par la caméra,
- extraire un sous-ensemble d’images de ladite série d’images,
- déterminer que le véhicule se déplace selon une trajectoire rectiligne sur une portion de roulement plane à partir du sous-ensemble d’images extrait,
- déterminer les valeurs de tangage et de lacet à partir dudit sous-ensemble d’images, et
- déterminer la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d’un plan de projection associé à la portion de roulement plane afin de calibrer la caméra.
De préférence, l’unité de traitement est configurée pour recevoir une information de vitesse du véhicule et pour déterminer un rapport d’extraction des images du sous-ensemble à partir de l’information de vitesse reçue.
De préférence encore, l’unité de traitement est configurée pour calculer le rapport d’extraction des images de sorte que la distance parcourue par le véhicule entre deux images consécutives extraites soit supérieure ou égale à un seuil de distance prédéterminé, de préférence 0,5 m, ce seuil dépendant de la portion de la caméra.
A cette fin, l’unité de traitement est configurée pour déterminer le rapport d’extraction en choisissant le nombre entier supérieur ou égale à une valeur k donnée par la formule suivante :
, d._min k =VXtf où d_min est le seuil de distance prédéterminée, v est la vitesse du véhicule et tf est le temps écoulé entre deux images de la série d’images.
L’invention concerne également un véhicule automobile comprenant un dispositif tel que présenté précédemment.
D’autres caractéristiques et avantages de l’invention apparaîtront lors de la description qui suit faite en regard des figures annexées données à titre d’exemples non limitatifs et dans lesquelles des références identiques sont données à des objets semblables :
- La figure 1 illustre schématiquement un véhicule automobile selon l’invention.
- La figure 2 illustre schématiquement un repère véhicule et un repère caméra à deux instants.
- La figure 3 illustre schématiquement un repère lié au véhicule.
- La figure 4 illustre schématiquement le paramètre extrinsèque de lacet.
- La figure 5 illustre schématiquement le paramètre extrinsèque de tangage.
- La figure 6 illustre schématiquement un plan de projection situé sur une portion de roulement plane du véhicule.
- La figure 7 illustre schématiquement un mode de réalisation du procédé selon l’invention.
- La figure 8 illustre schématiquement différents repères utilisés pour exprimer les coordonnées d’un point réel et de sa représentation dans une image acquise par la caméra.
L’invention va maintenant être décrite en référence aux figures 1 à 8. En référence tout d’abord à la figure 1, le dispositif 10 selon l’invention est destiné à être monté dans un véhicule automobile 1 afin d’assister le conducteur dans sa conduite.
A cette fin, le dispositif 10 selon l’invention comprend tout d’abord une caméra 100, fixée par exemple, mais de manière non limitative, au niveau supérieur du pare-brise avant 1A du véhicule 1. Cette caméra 100 est configurée pour acquérir des séries d’images de l’environnement 2 du véhicule 1, notamment pendant un déplacement rectiligne du véhicule 1 sur une portion de roulement plane 2A.
Le dispositif 10 permet de calibrer (c’est-à-dire étalonner) les paramètres extrinsèques de roulis, de tangage et de lacet de la caméra 100 lorsque le véhicule 1 roule afin d’améliorer l’interprétation des images capturées par la caméra 100 et permettre ainsi une assistance fiable et efficace à la conduite du véhicule 1.
Une telle calibration consiste à déterminer les valeurs permettant de passer d’un point réel de l’environnement 2 du véhicule 1 exprimé dans un repère dit « véhicule » lié au véhicule 1 à un point d’une image générée par la caméra 100 exprimé dans un repère dit « caméra » lié à la caméra 100 et représentant ledit point réel.
A cette fin, le véhicule 1 comprend une unité 200 de traitement d’images acquises par la caméra 100.
L’unité de traitement 200 est configurée pour recevoir une série d’images de l’environnement 2 du véhicule 1 générées par la caméra 100 et pour extraire un sousensemble d’images d’une série d’images acquises par la caméra 100 à un rapport d’extraction déterminé.
A cette fin, l’unité de traitement 200 est configurée pour calculer un rapport d’extraction d’images de la série d’images de sorte que la distance parcourue par le véhicule 1 entre deux images consécutives extraites soit supérieure ou égale à un seuil de distance prédéterminé, par exemple 0,5 m.
Ce rapport d’extraction i correspond au nombre d’images consécutives de la série d’images que l’unité de traitement 200 reçoit pour une image retenue dans le sousensemble. En d’autres termes, l’unité de traitement 200 sélectionnera une image de la série d’images toutes les i images reçues.
Dans cet exemple préféré, l’unité de traitement 200 est configurée pour déterminer le rapport d’extraction en choisissant le nombre entier supérieur ou égale à une valeur k donnée par la formule suivante :
où d_min est le seuil de distance prédéterminée, v est la vitesse du véhicule 1 et tf est le temps écoulé entre deux images de la série d’images.
Ainsi, pour une fréquence de rafraîchissement de la caméra de 16,67 Hz, soit tf = 60 ms entre deux images, si on veut une distance de 0,5 m entre deux images du sous-ensemble, on extraira une image du flux toutes les i images (i étant le rapport d’extraction) où i est le nombre entier supérieur ou égale à k, qui est donné par la formule suivante :
, 0,5 k --.
vxO.06
A titre d’exemple, pour une vitesse de 3 km/h, soit m/s, on a k = i =10.
Pour obtenir un rapport d’extraction égal à la fréquence de rafraîchissement de la caméra 100 (c’est-à-dire l’unité de traitement 200 utilise toutes les images de la série d’images), il faut k < 1, soit v > - 8,33 m/s, soit v > 30 km/h. Ainsi, au-delà de cette vitesse, l’unité de traitement 200 utilisera toutes les images générées par la caméra 100 et en-dessous de cette vitesse, elle extraira un sous-ensemble d’images selon la formule (1), selon l’invention.
L’unité de traitement 200 est ensuite configurée pour déterminer que le véhicule 1 se déplace selon une trajectoire rectiligne sur une portion de roulement plane 2A à partir d’un sous-ensemble d’images extrait d’une série d’images reçue de la caméra 100. Une telle détermination peut être réalisée de manière connue en soi comme cela sera décrit ci-après.
L’unité de traitement 200 est également configurée pour déterminer les valeurs de tangage et de lacet à partir d’un sous-ensemble d’images extrait d’une série d’images reçue de la caméra 100 et pour déterminer la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d’un plan lié au sol sur lequel roule le véhicule 1 afin de calibrer la caméra 100.
L’unité de traitement 200 détermine les paramètres extrinsèques de roulis, de tangage et de lacet à partir, d’une part, de matrices de rotation R et de vecteurs de translation T nécessaires pour passer du repère véhicule au repère caméra, et, d’autre part, de matrices de rotation et de vecteurs de translation de la caméra 100 et du véhicule 1 entre deux instants entre lesquels le véhicule 1 a roulé en ligne droite sur une portion de roulement 2A (surface) plane. On passe ainsi de manière classique d’un point noté PA dans un première repère noté A à un point noté PB dans un deuxième repère noté B selon la formule suivante : PA = R_AB * PB + T_AB comme cela sera décrit ciaprès.
L’invention va maintenant être décrite dans sa mise en œuvre en référence aux figures 1 à 7.
Tout d’abord, en référence aux figures 1 et 7, la caméra 100 génère dans une étape E1 une série d’images de l’environnement 2 du véhicule 1.
L’unité de traitement 200 reçoit parallèlement, par exemple d’un odomètre monté dans le véhicule 1, une information sur la vitesse du véhicule 1 dans une étape E2.
L’unité de traitement 200 calcule alors, dans une étape E3 un rapport d’extraction d’images à partir de la valeur de vitesse reçue.
Comme expliqué précédemment, le rapport d’extraction des images est choisi pour que la distance parcourue par le véhicule 1 entre deux images consécutives extraites soit supérieure ou égale à un seuil de distance prédéterminé, de préférence 0,5 m. Ceci permet de maximiser le rapport signal sur bruit du flot optique entre deux images consécutives du sous-ensemble d’images pour déterminer les valeurs des paramètres extrinsèques de roulis, tangage et lacet.
Dans ce mode de réalisation préférée, le rapport d’extraction i est le nombre entier supérieur ou égale à une valeur k donnée par la formule suivante :
, d._min k =VX.tf où d_min est le seuil de distance prédéterminée (de préférence égal à 0,5 m), v est la vitesse du véhicule 1 et tf est le temps écoulé entre deux images de la série d’images (par exemple 0,06 s de manière connue).
Ensuite, dans une étape E4, l’unité de traitement 200 extrait un sousensemble d’images de la série d’images à la fréquence d’extraction calculée. En pratique, l’unité de traitement 200 ne retiendra en temps réel qu’une image toutes les i images de la deuxième série d’images (i étant égale à 1 pour une vitesse supérieure ou égale à 30 km/h dans le cas où d_min = 0,5 m et tf = 0,06 s.
Pour réaliser les calculs des étapes E6 et suivantes, il est nécessaire que le véhicule 1 se déplace selon une trajectoire rectiligne sur une portion de roulement plane 2A, par exemple une bande de roulement aménagée dans une usine ou dans un garage ou bien une route plane. Aussi tout d’abord, dans une étape E5, l’unité de traitement 200 doit déterminer que le véhicule 1 suit une trajectoire rectiligne à partir de la première série d’images générées.
L’unité de traitement 200 peut aisément déterminer le moment où le véhicule roule en ligne droite en utilisant la rotation de la caméra 100. En effet, en ligne droite, la caméra 100 ne subira aucune rotation alors qu’elle en subira lors de virages. Le déplacement du véhicule 1 sur une portion de roulement plane 2A (par exemple une route ou toute surface plane adaptée) peut avantageusement être réalisé en usine ou bien dans un garage ou une concession ou sur toute route adaptée dès lors qu’il est nécessaire de calibrer la caméra 100. Afin de déterminer le moment où le véhicule 1 roule en ligne droite, plusieurs méthodes sont possibles.
Par exemple, un capteur inertiel embarqué dans le véhicule 1 peut être utilisé de sorte à détecter un mouvement rectiligne du véhicule 1 lorsque les valeurs mesurées par le capteur selon l’axe de lacet et l’axe de roulis sont constantes. En pratique, on estimera que ces valeurs sont constantes lorsqu’elles resteront dans un intervalle prédéterminé de manière connue en soi.
Une deuxième méthode peut consister à utiliser un système embarqué dans le véhicule 1 connu sous le nom d’« egomotion » qui détermine la rotation et la translation de la caméra 100 basé sur la géométrie épipolaire et la matrice dite « essentielle ». Dans cette méthode, on considère que le véhicule 1 roule en ligne droite lorsque la rotation de la caméra 100 est nulle ou quasi-nulle (c’est-à-dire bornée dans un faible intervalle de valeurs) dans le repère caméra.
Dans une étape E6, en référence aux figures 5 et 4, l’unité de traitement 200 détermine les valeurs des paramètres extrinsèques de tangage (pitch_24) et de lacet (yaw_24) de la caméra 100 à partir du sous-ensemble d’images extrait.
A cette fin, on définit, en référence à la figure 2, un certain nombre de matrices de rotation et de vecteur de translation. Dans cet exemple, la matrice de rotation R_42 et le vecteur de translation T_42 permettent de passer du repère véhicule 4 au repère caméra 2 à un premier instant ΐΊ. De même, la matrice de rotation R_31 et le vecteur de translation T_31 permettent de passer du repère véhicule 3 au repère caméra 1 à un deuxième instant t2, postérieur au premier instant b. La matrice de rotation R_21 et le vecteur de translation T_21 permettent de passer du repère caméra 2 au premier instant t! au repère caméra 1 au deuxième instant t2. De même, la matrice de rotation R_43 et le vecteur de translation T_43 permettent de passer du repère véhicule 4 associé au premier instant ti au repère véhicule 3 associé au deuxième instant t2.
La figure 3 illustre la manière de définir le repère véhicule Rv lié au véhicule 1 utilisé dans les calculs suivants (repère appelé « autosar » par l’homme du métier).
Dans ce repère véhicule Rv, une matrice de rotation R est définie de manière générique comme étant le produit de trois matrices de composantes selon les axes X, Y et Z, soit :
R - Rz * Ry * Rx
C’est-à-dire :
r cos(ry) * cos(rz) cos(rz) * sin(rx) * sin(ry) - cos(rx) * sin(rz) sin(rx) * sin(rz) + cos(rx) * cos(rz) * sin(ry) cos(ry) * sin(rz) cos(rx) * cos(rz) + sin(rx) * sin(ry) * sin(rz) cos(rx) * sin(ry) * sin(rz) - cos(rz) * sin(rx)
-sin(ry) cos(ry) * sin(rx) cos(rx) * cos(ry) (2).
L’hypothèse de translation pure du véhicule 1 (trajectoire rectiligne) et donc de la caméra 100 implique :
T_43 = [ΤΧ ; 0 ; 0]
R_42= R_31 T_42= T_31
R_43 = [1, 0, 0 ;
0, 1, 0 ;
0, 0, 1]
R_21 = [1, 0, 0 ;
0, 1, 0 ;
0, 0 H;
Toujours en référence à la figure 2, on définit
P4 = R_42*P2 + T_42
P2 = R_21*P1 + T_21 => P2 = P1 + T_21
P4 = R_42*(P1 +T_21 ) + T_42
P4 = R_43*P3 + T_43 => P4 = P3 + T_43
P3 = R_31*P1 + T_31
P4= R_31*P1 +T_31+T_43 où P1, P2, P3 et P4 sont des points de l’espace (non représentés) exprimés respectivement dans les repères 1,2, 3 et 4 de la figure 2.
On en déduit : R_42 = R_31.
D’où : R 42*T 21 + T 42 = T 31+ T 43 => R 42*T 21 = T 43 => T 21 =
R_24*T_43.
On note rx=roll_24 le paramètre de roulis, ry=pitch_24 le paramètre de tangage et rz=yaw_24 le paramètre de lacet, on a donc :
T_21(X)
T_21(Y)
T_21(Z) cos(ry) * cos(rz) cos(rz) * sin(rx) * sin(ry) - cos(rx) * sin(rz) sin(rx) * sin(rz) + cos(rx) * cos(rz) * sin(ry) cos(ry) * sin(rz) cos(rx) * cos(rz) + sin(rx) * sin(ry) * sin(rz) cos(rx) * sin(ry) * sin(rz) - cos(rz) * sin(rx)
-sin(ry) cos(ry) * sin(rx) cos(rx) * cos(ry)
T 43(X)
0
T_43(X) * cos(pitch_24) * cos (yaw_24) sin(yaw 24) * T 43(X) * cos(pitch 24) (3)
-T 43(X) * sin (pitch 24)
On en déduit :
T_21(Y) _ sin(yaw_24)*T_43(X)*cos(pitch_24) _ sin(yaw_24)
T_21(X) T_43(X)*cos(pitch_24)*cos (yaw_24) cos (yaw_24)
D’où : yaw_24 = atan ©77;) 1 21W = tan(yaw_24) (4).
De même, on déduit de l’équation (3) que
T_21(Z) _ -T_43(X)*sin (pitch_24) _ tan(pitch_24)
T_21(Y) sin(yaw_24)*T_43(X)*cos(pitch_24) sin (yaw_24)
D’où pitch_24 - -atan (
T2i(Z)*sin (yaw_24).
T21(Y) (5).
L’unité de traitement 200 calcule ensuite, dans une étape E7, la valeur de roulis à partir des valeurs de tangage et de lacet déterminées et d’un plan W (en référence à la figure 6) lié au sol sur lequel roule le véhicule 1 afin de calibrer la caméra 100.
On note H_12, l'homographie qui permet de passer d’un point exprimé dans le repère 2 à un premier instant t! au point correspondant exprimé dans le repère 1 à un deuxième instant t2.
On définit d2 comme étant la hauteur de la caméra 100 par rapport à la portion de roulement plane 2A, soit :
d2 = abs(T_42(Z)) ;
On a alors :
H_12= R_12 - ((T_12*n2 T)/d2) (7) où n2 est le vecteur normal au plan de la route sélectionné (comme illustré à la figure 6) exprimé dans le repère 2 (repère caméra au premier instant ti).
On définit n4 = [0;0;1] comme étant le vecteur normal (non représenté) au plan W de la route 2A sélectionné exprimé dans le repère 4 (repère véhicule au premier instant t!).
Dans cette expression (7), n2 est la seule inconnue et est un vecteur de trois éléments qui sont fonction du roulis et du lacet.
La relation entre le vecteur n2 et le vecteur n4 est donnée par : n2 = R_42T*n4 (8)
Par souci de clarté et de simplification, on note rx_42 = roll_42, ry_42 = pitch_42 et rz_42 = yaw_42.
On a alors :
n2 = cos(ry_42) * cos(rz_42) cos(rz_42) * sin(rx_42) * sin(ry_42)- cos(rx_42) * sin(rz_42) _sin(rx_42) * sin(rz_42) + cos(rx_42) * cos(rz_42) * sin(ry_42) cos(ry_42) * sin(rz_42) cos(rx_42) * cos(rz_42) + sin(rx_42) * sin(ry_42) * sin(rz_42) cos(rx_42) * sin(ry_42) * sin(rz_42)- cos(rz_42) * sin(rx_42)
-sin(ry_42) cos(ry_42) * sin(rx_42) * cos(rx_42) * cos(ry_42).
roi p
n2 =
- SÎn(ry_42) cos(ry_42) * SÎn( rx 42) COS(rx_42) * COS(ry_42) où rx_42 et ry_42 correspondent respectivement au roulis et lacet.
Le calcul de n2 permet ainsi d’obtenir H_12.
Afin d’obtenir la valeur de roulis roll_42, n pixels sont sélectionnés dans chaque image successive (les pixels correspondants d’une image à la suivante), ces n pixels correspondant à des points de la route 2A.
En référence à la figure 8, les coordonnées de ces pixels sont exprimées dans un repère image Ri lié à un plan P de l’image situé à la distance focale f de la caméra 100.
Pour rendre les calculs aisés, ces coordonnées sont transformées de manière connue dans un repère dit « rétinien » Rr associé au plan P de l’image. Ce repère rétinien Rr est un repère sans unité qui a pour origine l’intersection du plan image, situé à la distance focale de la caméra, et de l’axe Zc du repère caméra Rc. Ce repère universel permet de s’affranchir des paramètres intrinsèques de la caméra 100.
Toujours en référence à la figure 8, les coordonnées d'un point M de l’environnement 2 du véhicule 1 peuvent ainsi être exprimées successivement en passant d’un repère dit « monde » Rm (1) au repère caméra Rc (2) au repère rétinien Rr (3) au repère image Ri.
On estime alors la valeur de roulis roll_42, la valeur de tangage pitch_42 et la hauteur d2 en minimisant, de manière connue en soi, l’expression suivante :
(H 12*PH2(i)) (9) arsmin ΣΡ=1 ||(ΗΐΜηχΏ-ρΗΐ(θΙ pitch.42,roll.42,d2 11 (.H_12*FH2(,i))(,Z) I • où i est un entier naturel compris entre 1 et n (n correspondant à un nombre total de points et donc de flots optiques utilisés entre mes images), • PH1 (i) est la mesure du ieme point à un instant t dans l’image courante exprimée dans le repère rétinien Rr et • PH2(i) correspond à la mesure de ce même ieme point dans l’image précédente à l’instant t-1 (précédent l’instant t) exprimée dans le repère rétinien, • H_12, l'homographie qui permet de passer d’un point exprimé dans le repère rétinien à un premier instant t-1 au point correspondant exprimé dans le repère rétinien à un deuxième instant t.
A titre d’exemple, il est connu que l’on peut trouver la rotation et translation entre deux images à un facteur d’échelle près sur la translation, défini de manière connue par lOdométrie du véhicule 1, à partir d’au moins 8 flots optiques. Un algorithme minimisant l’erreur de Sampson peut être utilisé pour trouver la géométrie épipolaire entre deux images. En pratique, une pluralité (par exemple une centaine) de flots optiques répartis sur l’ensemble de l’image peut être utilisée avec un algorithme robuste aux valeurs aberrantes (par exemple de type RANSAC) afin de garantir la convergence et la précision. La qualité des valeurs initiales participent aussi à la réussite de la convergence. Il est donc préférable d’utiliser les données odométriques du véhicule (vitesse, localisation, taux de lacet) pour initialiser ces valeurs et ne pas rester sur un minimum local.
L’estimation des flots optiques entre la première image et la deuxième image peut être réalisée en utilisant un algorithme de Lucas-Kanade, un algorithme de type « semi-global matching » ou un algorithme de type « power flow » de manière connue de l’homme du métier, ces algorithmes étant avantageusement robustes aux changements d’intensité des pixels entre la première image et la deuxième image
L’étape de détermination de la matrice de rotation et du vecteur de translation permettant le passage du repère véhicule au repère caméra peut comprendre une sousétape d’estimation du déplacement de la caméra qui maximise le nombre de pixels respectant les contraintes géométriques de déplacement des pixels associées à un tel déplacement de la caméra. De telles contraintes sont connues de l’homme du métier sous le nom de lois épipolaires.
De manière optionnelle, on peut aussi utiliser la valeur de tangage calculée à l’étape E7 pour ne faire varier que le roulis qui est la valeur à minimiser :
(H 12*PH2(i)) (10).
^4ΤΣ”=4Ι(„5Ο„10)-ρΗ1®Ι
L’invention permet ainsi avantageusement de calibrer la caméra rapidement, aisément et à tout moment à partir d’une surface de roulement plane.

Claims (11)

  1. REVENDICATIONS
    1. Procédé de calibration d’une caméra (100) montée dans un véhicule automobile (1), ladite calibration comprenant la détermination des valeurs des paramètres extrinsèques de roulis (roll_42), tangage (pitch_42) et lacet (yaw_42) de ladite caméra (100) permettant de passer d’un point réel de l’environnement (2) du véhicule (1) exprimé dans un repère dit «véhicule» lié au véhicule (1) à un point d’une image générée par la caméra (100) exprimé dans un repère dit « caméra » lié à la caméra (100) et représentant ledit point réel, ledit procédé étant caractérisé en ce qu’il comprend :
    • une étape (E1) de génération d’une série d’images de l’environnement (2) du véhicule (1), • une étape (E4) d’extraction d’un sous-ensemble d’images de ladite série d’images, • une étape (E5) de détermination d’un déplacement du véhicule (1) selon une trajectoire rectiligne sur une portion de roulement plane (2A) à partir du sousensemble d’images extrait, • une étape (E6) de détermination des valeurs de tangage (pitch_42) et de lacet (yaw_42) à partir dudit sous-ensemble d’images lors du déplacement déterminé, et • une étape (E7) de détermination de la valeur de roulis (roll_42) à partir des valeurs de tangage (pitch_42) et de lacet (yaw_42) déterminées et d’un plan de projection associé à la portion de roulement plane (2A) afin de calibrer la caméra (100).
  2. 2. Procédé selon la revendication 1, caractérisé en ce qu’il comprend une étape (E2) de réception d’une information de vitesse du véhicule (1) et une étape (E3) de détermination d’un rapport d’extraction des images du sous-ensemble à partir de l’information de vitesse reçue.
  3. 3. Procédé selon la revendication 2, caractérisé en ce que le rapport d’extraction est choisi pour que la distance parcourue par le véhicule (1) entre deux images consécutives extraites soit supérieure ou égale à un seuil de distance prédéterminé.
  4. 4. Procédé selon l’une des revendications 2 et 3, caractérisé en ce que le rapport d’extraction est le nombre entier supérieur ou égale à une valeur k donnée par la formule suivante :
    , d min k =VXtf où d_min est le seuil de distance prédéterminée, v est la vitesse du véhicule et tf est le temps écoulé entre deux images de la série d’images.
  5. 5. Procédé selon l’une quelconque des revendications 1 à 4, caractérisé en ce que la valeur de lacet (yaw_24) est donnée par: yaw_24 = atan (^21^) où T2i(X) représente la translation de la caméra (100) selon un premier axe parallèle à l’axe longitudinal du véhicule et T2i(Y) représente la translation de la caméra (100) selon un deuxième axe orthogonal à l’axe longitudinal du véhicule (1).
  6. 6. Procédé selon la revendication précédente, caractérisé en ce que la valeur de tangage (pitch_42) est donnée par :
    pitch_24 = -atan (Tzi(z)*sin fraw-24)) où T21(Z) représente la translation de la caméra (100) * 21ΟΩ selon un troisième axe, orthogonal au premier axe et au deuxième axe.
  7. 7. Procédé selon la revendication précédente, caractérisé en ce que les valeurs T21(X), T21(Y) et T21(Z) de translation de la caméra (100) sont calculées à partir de flots optiques entre les images du sous-ensemble d’images.
  8. 8. Procédé selon l’une quelconque des revendications 1 à 7, caractérisé en ce que l’on détermine la valeur de roulis (roll_42) en minimisant l’expression argmin pitch_42,roll_42,d2 (H_12*PH2(i)) (H_12*PH2(i))(Z)
    OU l’expression argmin Σ?=ι roll_42 (H_12*PH2(i)) (H_12*PH2(i))(Z)
    OU • i et n sont des entiers naturels compris entre 1 et n correspondant à des points de la portion de roulement plane, • PH1(i) est la mesure du ième point appartenant à la portion de roulement plane à un instant t exprimée dans un repère dit « rétinien », lié au repère caméra, à un instant t, • PH2(i) correspond à la mesure ce même ieme point à un instant (t-1) précédent l’instant t exprimée dans le repère rétinien, • H_12, l'homographie qui permet de passer d’un point exprimé dans le repère rétinien à un premier instant t-1 au point correspondant exprimé dans le repère rétinien à un deuxième instant t.
  9. 9. Dispositif (10) de calibration d’une caméra (100) pour véhicule automobile (1), ladite calibration comprenant la détermination des valeurs des paramètres extrinsèques de roulis (roll_42), tangage (pitch_42) et lacet (yaw_42) de ladite caméra (100) permettant de passer d’un point réel de l’environnement (2) du véhicule (1) exprimé dans un repère dit « véhicule » lié au véhicule (1) à un point d’une image générée par la caméra (100) exprimé dans un repère dit « caméra » lié à la caméra (100) et représentant ledit point réel, ledit dispositif (10) étant caractérisé en ce qu’il comprend :
    • une caméra (100) apte à être montée sur un véhicule automobile (1) et configurée pour générer une série d’images de l’environnement du véhicule (1) pendant un déplacement rectiligne dudit véhicule (1) sur une portion de roulement plane (2A), • une unité de traitement (200) configurée pour :
    - recevoir une série d’images générées par la caméra (100),
    5 - extraire un sous-ensemble d’images de ladite série d’images,
    - déterminer que le véhicule (1) se déplace selon une trajectoire rectiligne sur une portion de roulement plane (2A) à partir du sous-ensemble d’images extrait,
    - déterminer les valeurs de tangage (pitch_42) et de lacet (yaw_42) à partir
  10. 10 dudit sous-ensemble d’images, et
    - déterminer la valeur de roulis (roll_42) à partir des valeurs de tangage (pitch_42) et de lacet (yaw_42) déterminées et d’un plan de projection associé à la portion de roulement plane (2A) afin de calibrer la caméra (100).
  11. 15 10. Véhicule automobile (1) caractérisé en ce qu’il comprend un dispositif (10) selon la revendication précédente.
    1/4
FR1656192A 2016-06-30 2016-06-30 Procede de calibration rapide d'une camera de vehicule automobile Active FR3053554B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1656192A FR3053554B1 (fr) 2016-06-30 2016-06-30 Procede de calibration rapide d'une camera de vehicule automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1656192A FR3053554B1 (fr) 2016-06-30 2016-06-30 Procede de calibration rapide d'une camera de vehicule automobile
FR1656192 2016-06-30

Publications (2)

Publication Number Publication Date
FR3053554A1 true FR3053554A1 (fr) 2018-01-05
FR3053554B1 FR3053554B1 (fr) 2018-08-03

Family

ID=57209527

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1656192A Active FR3053554B1 (fr) 2016-06-30 2016-06-30 Procede de calibration rapide d'une camera de vehicule automobile

Country Status (1)

Country Link
FR (1) FR3053554B1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3082038A1 (fr) * 2018-06-04 2019-12-06 Continental Automotive France Estimation dynamique du tangage instantane d'une camera embarquee dans un vehicule automobile
CN110969664A (zh) * 2018-09-30 2020-04-07 北京初速度科技有限公司 一种相机外部参数的动态标定方法
FR3106402A1 (fr) * 2020-01-16 2021-07-23 Continental Automotive Procédé de calibration d’un support rotatif de dispositif d’imagerie de véhicule automobile

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2405399A1 (fr) * 2010-07-06 2012-01-11 Imajing Méthode de calibration de l'orientation d'une caméra vidéo embarquée
EP2808645A1 (fr) * 2012-01-23 2014-12-03 Nec Corporation Dispositif, procédé et programme d'étalonnage d'un appareil de prise de vues
EP2884226A1 (fr) * 2013-12-11 2015-06-17 Parrot Procédé de calibration angulaire de la position d'une caméra video embarquée dans un véhicule automobile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2405399A1 (fr) * 2010-07-06 2012-01-11 Imajing Méthode de calibration de l'orientation d'une caméra vidéo embarquée
EP2808645A1 (fr) * 2012-01-23 2014-12-03 Nec Corporation Dispositif, procédé et programme d'étalonnage d'un appareil de prise de vues
EP2884226A1 (fr) * 2013-12-11 2015-06-17 Parrot Procédé de calibration angulaire de la position d'une caméra video embarquée dans un véhicule automobile

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3082038A1 (fr) * 2018-06-04 2019-12-06 Continental Automotive France Estimation dynamique du tangage instantane d'une camera embarquee dans un vehicule automobile
EP3579191A1 (fr) * 2018-06-04 2019-12-11 Continental Automotive France Estimation dynamique du tangage instantané et du roulis instantané d'une caméra embarquée dans un véhicule automobile
CN110969664A (zh) * 2018-09-30 2020-04-07 北京初速度科技有限公司 一种相机外部参数的动态标定方法
CN110969664B (zh) * 2018-09-30 2023-10-24 北京魔门塔科技有限公司 一种相机外部参数的动态标定方法
FR3106402A1 (fr) * 2020-01-16 2021-07-23 Continental Automotive Procédé de calibration d’un support rotatif de dispositif d’imagerie de véhicule automobile

Also Published As

Publication number Publication date
FR3053554B1 (fr) 2018-08-03

Similar Documents

Publication Publication Date Title
EP2884226B1 (fr) Procédé de calibration angulaire de la position d&#39;une caméra video embarquée dans un véhicule automobile
US10937231B2 (en) Systems and methods for updating a high-resolution map based on binocular images
JP6821712B2 (ja) 自然光景中での統合センサの較正
EP0948760B1 (fr) Procede d&#39;etalonnage de la position et de l&#39;orientation d&#39;origine d&#39;une ou plusieurs cameras mobiles
AU2018286594A1 (en) Methods and systems for color point cloud generation
FR3053554A1 (fr) Procede de calibration rapide d&#39;une camera de vehicule automobile
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
CN113781562A (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
EP2161677A1 (fr) Procédé de détection d&#39;un objet cible pour véhicule automobile
CN112712563A (zh) 相机取向估计
FR3085082A1 (fr) Estimation de la position geographique d&#39;un vehicule routier pour la production participative de base de donnees routieres
AU2018102199A4 (en) Methods and systems for color point cloud generation
FR2938228A1 (fr) Procede de mesure de distance au moyen d&#39;une camera embarquee dans un vehicule automobile
FR3066303B1 (fr) Procede de calibration d&#39;un dispositif de surveillance d&#39;un conducteur dans un vehicule
FR3106904A1 (fr) Procédé de calibration des caractéristiques extrinsèques d’un Lidar
FR3082936A1 (fr) Traitement stereoscopique de donnees de vehicules connectes
WO2017216465A1 (fr) Procédé et dispositif de traitement d&#39;images acquises par une caméra d&#39;un véhicule automobile
FR3096499A1 (fr) Dispositif de traitement de prise de vue
EP2180426A1 (fr) Procédé de détection d&#39;un objet cible pour véhicule automobile
EP3931741A1 (fr) Assistance à la conduite d&#39;un véhicule, par détermination fiable d&#39;objets dans des images déformées
FR3057693A1 (fr) Dispositif de localisation et dispositif de production de donnees d&#39;integrite
FR3034555A1 (fr) Procede de determination du sens du mouvement d&#39;un vehicule automobile
EP4165601A1 (fr) Procede de calibration d&#39;une camera et dispositif associe
EP4174779A1 (fr) Procédé de calibration automatique des paramètres extrinsèques d&#39;un réseau de caméras optiques; produit programme d&#39;ordinateur, système de vision par ordinateur et véhicule automobile associés
FR3113330A1 (fr) Procédé d’alignement d’au moins deux images formées de points tridimensionnels

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180105

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

TQ Partial transmission of property

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Effective date: 20230424

Owner name: CONTINENTAL AUTOMOTIVE FRANCE, FR

Effective date: 20230424

PLFP Fee payment

Year of fee payment: 9