FR2869983A1 - Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image - Google Patents

Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image Download PDF

Info

Publication number
FR2869983A1
FR2869983A1 FR0551136A FR0551136A FR2869983A1 FR 2869983 A1 FR2869983 A1 FR 2869983A1 FR 0551136 A FR0551136 A FR 0551136A FR 0551136 A FR0551136 A FR 0551136A FR 2869983 A1 FR2869983 A1 FR 2869983A1
Authority
FR
France
Prior art keywords
shadow
orientation
image
objects
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0551136A
Other languages
English (en)
Inventor
Marc Michael Ellenrieder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Publication of FR2869983A1 publication Critical patent/FR2869983A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de mesure de la position et/ou de l'orientation d'objets au moyen d'un procédé de traitement de l'image. Pour cela, on saisit d'abord sur une image d'étalonnage l'ombre propre provenant d'un corps d'étalonnage non plan défini et on déterminer ensuite des paramètres de correction des ombres à l'aide de l'ombre propre déterminée. Pour la mesure de la position et/ou de l'orientation, on place au moins un objet à mesurer dans le champ d'une caméra (1) et dans la zone éclairée par un éclairage (2) pour réaliser une prise de vue de l'objet. La prise de vue de l'objet est ensuite corrigée au moyen des paramètres déterminés et on en déduit la position et/ou l'orientation de l'objet. L'invention permet, sur la base de l'ombre propre d'un objet d'étalonnage (3) connu, de mesurer la position et/ou l'orientation dans l'espace d'objets de manière simple et fiable en utilisant une seule prise de vue. Les lignes de délimitation de l'ombre déformée de l'objet à mesurer provoquée par l'éclairage (2) lors de la mesure de l'objet ont pu être déterminées de façon univoque.

Description

DESCRIPTION
La présente invention concerne un procédé de mesure de la position et/ou de 5 l'orientation d'objets au moyen d'un procédé de traitement de l'image.
On connaît déjà différents procédés de traitement de l'image adaptés à la mesure de la position et/ou de l'orientation d'objets. De tels procédés sont principalement utilisés dans le secteur industriel en rapport avec des systèmes manipulation voyants , par exemple pour le montage d'éléments, ou avec des systèmes mobiles autonomes.
Pour mesurer la position et/ou l'orientation d'objets, on peut utiliser des procédés de traitement de l'image qui, en utilisant des capteurs d'image appropriés, sont basés sur des informations de l'environnement soit bidimensionnelles soit tridimensionnelles. Les capteurs d'image adaptés à la saisie d'informations tridimensionnelles concernant l'environnement fournissent pour chaque point de l'image une valeur de profondeur associée. Dans le cas de la saisie d'informations tridimensionnelles sur l'environnement, on obtient de grandes quantités de données et le traitement des informations tridimensionnelles portant sur l'environnement est donc associé à une complexité de calcul élevée et nécessite beaucoup de temps. Les coûts d'acquisition des capteurs d'image utilisés pour la saisie tridimensionnelle de l'environnement sont en outre sensiblement plus élevés que ceux destinés à la saisie bidimensionnelle de l'environnement.
On connaît déjà différents procédés de traitement de l'image pour la mesure de la position et/ou de l'orientation d'objets à l'aide de données d'image bidimensionnelles. Deux capteurs d'image peuvent par exemple être disposés en disposition stéréo, permettant ainsi, lorsque la distance entre les capteurs d'image est connue, de déterminer par calcul les valeurs de profondeur au moyen de procédés de traitement de l'image. On connaît également des procédés de traitement de l'image dans lesquels des prises de vue d'un objet sont enregistrées à l'aide de plusieurs caméras dans différentes positions et orientations et dans lesquels la position et l'orientation de l'objet dans l'espace sont mesurées à l'aide des différentes prises de vue.
La demande de brevet allemand DE 10 346 481 Al expose un procédé de 35 reconstruction du profil de structures situées sur des surfaces. Pour cela, on analyse au moins deux prises de vue de la même zone de la surface à examiner, la surface à examiner étant éclairée sous différentes directions selon un angle d'incidence rasant et des prises de vue de la surface étant exécutées à partir d'une position de caméra à angle très incliné par rapport à la surface, proche de la perpendiculaire. Les bosses ou les creux situés sur la surface laissent donc paraître sur les prises de vue une projection d'ombres nettes dont l'emplacement varie avec l'éclairage incident de la lumière. Les surfaces inclinées peuvent être identifiées par une réflexion plus claire. L'analyse des contours d'ombres et des lignes de contour des zones plus claires permet de déterminer le profil en hauteur d'une structure située sur la surface et de reconstituer par exemple le tracé d'une arête. En intégrant la o méthode de figure dérivée de l'ombre (shape-from-shading), il est possible également de déterminer les variations d'inclinaison planes en analysant les évolutions de la clarté, permettant ainsi d'obtenir une reconstruction en 3D de la surface coïncidant bien avec l'original.
Le document EP 0 747 870 B1 présente un dispositif et un procédé pour l'observation d'objets. Le dispositif comprend au moins deux caméras qui sont dirigées dans une position d'observation prédéfinie et saisissent en même temps des images des objets à observer. Une partie caractéristique commune à chacune des images saisies est sélectionnée en corrélant les parties caractéristiques sélectionnées dans chacune des images. La position des objets, notamment les coordonnées tridimensionnelles des parties caractéristiques communes sélectionnées, est calculée en utilisant les données de position de la partie caractéristique sélectionnée dans chacune des images. Le prétraitement des données d'image nécessitant des calculs intensifs est un inconvénient de ce procédé, et il faut notamment rechercher dans un premier temps les caractéristiques communes des différentes prises de vue pour ensuite les corréler entre elles et calculer les coordonnées tridimensionnelles de l'objet sur la base de cette information. Un inconvénient particulier est que plusieurs caméras ou prises de vue sont nécessaires pour déterminer la position et/ou l'orientation des objets.
L'objectif de la présente invention est donc de développer un procédé pour la mesure de la position et/ou de l'orientation d'objets au moyen d'un procédé de traitement de l'image selon le préambule, avec lequel la position et/ou l'orientation d'objets peuvent être déterminées de manière simple et fiable en n'utilisant qu'une seule prise de vue.
Conformément à l'invention, on utilise un procédé pour la mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image. Pour cela, on saisit d'abord sur une image d'étalonnage l'ombre propre provenant d'un corps d'étalonnage non plan défini. L'ombre propre saisie permet de déterminer ensuite des paramètres de correction des ombres. Pour la mesure de la position et/ou de l'orientation, on place au moins un objet à mesurer dans le champ d'une caméra et dans la zone éclairée par un éclairage. La caméra réalise au moins une prise de vue de l'objet et de l'ombre correspondante. L'au moins une prise de vue de l'ombre de l'objet correspondante est ensuite corrigée au moyen des paramètres déterminés et on en déduit la position et/ou l'orientation de l'objet. L'invention permet pour la première fois de mesurer la position et/ou l'orientation d'objets de manière simple et fiable en utilisant une seule prise de vue. L'association du corps d'étalonnage non plan défini et de son ombre propre permet de déterminer de manière univoque les lignes de délimitation de l'ombre déformée provoquée par l'éclairage lors de la mesure de l'objet.
Dans un mode de réalisation avantageux de l'invention, on réalise en outre une image d'ombre. Pour cela, la ou les prises de vue qui contiennent la reproduction de l'objet sont d'abord transposées sur l'image d'étalonnage. L'homme du métier connaît ici les programmes de traitement de l'image tels qu'un lanceur de rayon (ray-tracer). On peut choisir ici, pour l'image d'étalonnage, les mêmes paramètres de caméra et d'éclairage qu'en situation réelle, pour éviter une conversion complexe des paramètres de caméra et d'éclairage. L'image d'étalonnage contenant le corps d'étalonnage est de préférence générée dans l'environnement du lancer de rayon (ray-tracing) mais il est également possible de faire appel à une prise de vue d'un corps d'étalonnage connu obtenue au moyen d'une caméra. Après avoir transposé la ou les prises de vue, l'objet à mesurer projette dans l'image d'étalonnage des ombres sur le corps d'étalonnage non plan défini. L'ombre de l'objet présente alors des lignes de délimitation déformées qui permettent de déterminer de manière univoque la position et/ou l'orientation de l'objet. L'image d'ombre est ensuite convertie en image d'ombre binaire. Les pixels de valeur de gris contenus dans l'image d'étalonnage sont convertis à cette fin en pixels noirs ou blancs. Pour générer l'image binaire, on forme de préférence une image quotient à l'aide de deux images d'ombre, une des images d'ombre étant réalisée avec l'éclairage et l'autre image d'ombre étant réalisée sans l'éclairage. Cette manière de procéder est connue de l'homme du métier spécialisé dans le traitement de l'image et est utilisée par exemple dans le procédé de figure dérivée de l'ombre. Une image d'ombre corrigée est ensuite générée à partir de l'image d'ombre binaire obtenue à l'aide des paramètres de correction précédemment déterminés. L'ombre de l'objet ne présente plus de lignes de délimitation déformées mais est projetée dans un plan et représente maintenant une reproduction scalaire de l'objet à partir de laquelle la position et/ou l'orientation réelles peuvent être déterminées dans l'espace.
Dans un autre mode de réalisation avantageux de l'invention, on détermine un réseau de lignes de jonction en 3D à l'aide de l'image d'ombre corrigée. Ce réseau de lignes de jonction en 3D établit la relation entre les zones obscurcies du corps d'étalonnage et l'éclairage. Le réseau de lignes de jonction en 3D permet donc, en connaissant la section de o l'objet, une reconstruction de la position et/ou de l'orientation de l'objet à mesurer. Pour déterminer la position et/ou l'orientation, on ajuste de manière avantageuse dans le réseau de lignes de jonction en 3D un modèle géométrique mémorisé du ou des objets à mesurer. Ces procédés d'ajustage de modèles géométriques mémorisés dans une image sont déjà connus. Pour adapter le modèle géométrique de l'objet à mesurer au réseau de lignes de jonction en 3D, il est avantageux dans le cadre de l'invention de mettre en oeuvre un algorithme de contour actif ( Active Contour ).
Le modèle géométrique de l'objet à mesurer est de préférence le modèle d'au moins un objet rigide et/ou flexible. Il peut s'agir ici par exemple dans le cas d'applications industrielles de moyens de montage ou de fixation rigides, par exemple de vis, de couvercles et de brides, ou d'éléments flexibles tels que par exemple des tuyaux ou des conduites. Dans le cadre de l'invention, il est avantageux que d'autres données de modèle de l'objet soient mémorisées en plus des données géométriques à proprement parler. Il peut s'agir ici de paramètres décrivant la surface de l'objet, tels que par exemple les textures. N'importe quel autre paramètre physique est également envisageable. Le modèle géométrique ainsi que les autres données relatives au modèle peuvent ici être émis directement dans le cadre de l'environnement du lancer de rayon avant d'être mémorisés ou bien ils peuvent provenir d'un autre environnement de développement adapté, par exemple d'un système de CAO.
II est également conforme à l'invention que l'image du corps d'étalonnage soit créée sous différents angles de l'espace, ce pour quoi on définit plusieurs caméras virtuelles. Il est en outre avantageux que l'image du corps d'étalonnage soit éclairée sous différents angles de l'espace, ce pour quoi on définit plusieurs unités d'éclairage virtuelles. En définissant plusieurs caméras et/ou unités d'éclairage virtuelles, on peut déterminer la position et/ou l'orientation de n'importe quel objet. L'étape d'ajustage du modèle géométrique mémorisé du ou des objets à mesurer dans le réseau de lignes de jonction en 3D devient donc superflue, ce qui contribue à réduire le temps de calcul. II est toutefois particulièrement avantageux que la précision du procédé soit améliorée en utilisant plusieurs caméras et/ou plusieurs unités d'éclairage.
Le corps d'étalonnage utilisé dans le cadre de la présente invention est conçu de façon avantageuse sous la forme d'un corps à la structure en forme d'escalier. La structure en forme d'escalier est d'une part facile à créer, par exemple à l'aide de macros permettant de créer une structure en escalier en indiquant la hauteur des marches, la profondeur des marches et le nombre de marches. D'autre part, l'utilisation d'une structure en escalier permet de déterminer précisément et de manière particulièrement simple l'ombre propre provoquée par un éclairage approprié pour déterminer à l'aide de celui-ci la position et/ou l'orientation des objets à mesurer. N'importe quelle autre forme de corps d'étalonnage est néanmoins envisageable dans le cadre de l'invention. Il est en outre possible que le corps d'étalonnage soit formé par au moins une partie de l'arrière-plan du champ de la caméra. Il peut s'agir par exemple ici d'au moins une partie d'un moteur, notamment d'un carter de vilebrequin, qui forme l'arrière-plan du champ de la caméra. L'objet à mesurer peut être par exemple un tuyau à fixer au carter de vilebrequin. Étant donné qu'aussi bien le modèle du tuyau que les données de CAO du carter de vilebrequin sont connus, seule une caméra est nécessaire dans ce cas pour mesurer la position et/ou l'orientation de l'objet.
D'autres caractéristiques et avantages de l'invention ressortent de la description suivante d'exemples de réalisation préférés décrits à l'aide des figures, lesquelles montrent: Figure 1 une représentation de principe servant à déterminer l'ombre propre; Figure 2 une représentation de principe servant à déterminer les paramètres de correction de l'ombre; Figure 3 une image d'ombre déformée; Figure 4 une image d'ombre corrigée; et 3o Figure 5 une représentation servant à déterminer la position et/ou l'orientation d'un objet.
La figure 1 montre à titre d'exemple le principe de détermination de l'ombre propre pour un corps d'étalonnage (3) non plan défini. L'emplacement du corps d'étalonnage (3) ainsi que celui de l'éclairage (2) sont supposés connus dans le système de coordonnées de la caméra (4). Le modèle géométrique du corps d'étalonnage (3) est en outre connu et il prend ici la forme d'une marche. Un modèle géométrique d'un objet à mesurer non représenté ici peut en outre être mémorisé. Pour déterminer l'ombre propre, on reproduit le modèle de CAO du corps d'étalonnage (3) au moyen d'un modèle de caméra correspondant à la caméra (1), tel que le montre à titre d'exemple la figure 1. La trajectoire des rayons optiques (5) est déterminée pour chaque pixel de l'image, depuis l'éclairage (2) jusqu'à la caméra (1) (lancer de rayon). On vérifie ainsi pour chaque rayon optique (5) circulant entre un point d'intersection (6) du corps d'étalonnage et l'éclairage (2), si celui-ci intersecte le corps d'étalonnage (3) et donc s'il y a une ombre propre. Comme le montre l'exemple du rayon optique (5a), le corps d'étalonnage n'est pas intersecté et il n'y a donc pas d'ombre propre o au niveau du point d'intersection (6a). En revanche, le corps d'étalonnage (3) est intersecté par le rayon optique (5b) et il y a une ombre propre au niveau du point d'intersection (6b).
Le principe de détermination des paramètres de correction de l'ombre est montré à titre d'exemple sur la figure 2. On détermine de préférence au cours d'une première étape le plan (7) qui présente la distance la plus faible D_min entre le corps d'étalonnage (3) et la caméra (4) et qui est donc orienté parallèlement au plan X, Y de la caméra (1) en tenant compte de tous les points d'intersection (6) sans ombre propre du corps d'étalonnage (3). Une autre solution consiste à choisir une autre distance connue quelconque ainsi qu'une autre orientation du plan (7). Lors d'une deuxième étape, on détermine ensuite le point d'intersection (8) avec le plan (7) pour tous les points d'intersection (6) sans ombre propre du corps d'étalonnage (3) en décalant le point d'intersection (6) en direction de l'éclairage (2) sur le rayon optique (5) correspondant. Un point d'ombre d'un objet à mesurer non représenté ici se formerait au niveau de ce point d'intersection (8) sur le plan (7) si la surface du corps d'étalonnage (3) était un plan (7) parallèle au plan de l'image de la caméra (1). Le déplacement sur le rayon optique (5) décrit ici les paramètres de correction de l'ombre, ce qui permet de reconstituer simplement par la suite la position et/ou l'orientation d'objets. Un objet à mesurer est placé pour cela dans la zone située entre le champ de la caméra (1) éclairé au moyen de l'éclairage (2) et le corps d'étalonnage (3) pour réaliser la prise de vue.
La figure 5 montre l'ombre projetée sur un corps d'étalonnage (3) en escalier par un objet à mesurer (9) placé dans le faisceau de lumière d'une source lumineuse (2). Du fait du décalage de l'objet à mesurer (9) par rapport au corps d'étalonnage (3) une partie de l'ombre tombe en dehors du corps d'étalonnage (3) ou du champ de mesure de la caméra. Cette partie est montrée par des pointillés en haut à gauche du corps d'étalonnage sur la figure 5.
À partir de cette ombre, on détermine le contour de l'ombre laissée sur les marches de l'objet d'étalonnage (3) en escalier. Sans correction, on obtient l'image de la figure 3 avec les deux lignes de contour sur la marche inférieure et, décalée par rapport à ces deux premières lignes, l'unique ligne de contour sur la marche supérieure, la deuxième n'étant pas sur l'objet d'étalonnage (3). En corrigeant cette image à l'aide des paramètres de correction, selon le procédé présenté sur la figure 2, on ramène la ligne de contour de la marche supérieure sur le plan (D_min) choisi au niveau de la marche inférieure. C'est cette translation que représente la flèche de la figure 5. Elle vient donc dans le prolongement de la première des deux lignes de contour sur la première marche, comme cela est représenté en trait discontinu sur la figure 5. En redressant l'image, on obtient alors la silhouette partielle de l'objet à mesurer (3) telle qu'elle est représentée à la figure 4.
En d'autres termes, la figure 3 représente une image d'ombre déformée. II s'agit ici de l'image d'ombre déformée d'un corps à mesurer (9) projetée sur un corps d'étalonnage en escalier en représentation binaire. Lorsqu'un objet dans l'espace projette une ombre sur un arrière-plan non plan, la ligne de délimitation de l'ombre apparaît dans l'image de la caméra déformée par les variations de hauteur de l'arrière-plan. C'est ce que représente la figure 5.
Si la position, l'orientation et la géométrie de l'objet formant l'arrière-plan ainsi que l'éclairage sont connues dans le système de coordonnées de la caméra, par exemple par des données de CAO, il est possible à l'aide des paramètres de correction de l'ombre de reconstituer le parcours des lignes de délimitation de l'ombre sur un arrière-plan plan. Le corps d'étalonnage peut être un objet réel placé dans le champ d'une caméra de sorte qu'une ombre projetée particulière en fonction des conditions d'éclairage peut être saisie par la caméra. II peut également s'agir d'un corps d'étalonnage virtuel à l'intérieur d'une scène virtuelle, le corps d'étalonnage virtuel projetant dans des conditions d'éclairage définies une ombre projetée particulière dans la scène virtuelle. On utilise par exemple des programmes de lancer de rayons (raytracing) pour simuler des objets, des éclairages et des unités de saisie d'image dans des environnements virtuels et pour calculer le parcours de rayons visuels. La représentation binaire de l'image d'ombre est formée au moyen d'une image quotient, l'image quotient provenant de deux images d'ombre. Les deux images d'ombre ne se différencient qu'en ce qu'une des images d'ombre est produite avec éclairage et que l'autre image d'ombre est produite sans éclairage. Les pixels de l'ombre sont représentés en noir sur l'image. On vérifie pour chaque pixel d'ombre qu'il s'agit bien d'un pixel d'ombre propre. S'il s'agit d'un pixel d'ombre propre, celuici est effacé. Pour les pixels d'ombre restants, une nouvelle position sur l'image est déterminée en utilisant les paramètres de correction précédemment déterminés, tels que décrits à l'aide de la figure 2. Les ombres corrigées sont, telles que les montre la figure 4, en partie parallèles. Les ombres corrigées, en partie parallèles, sont en outre tournées selon un certain angle, afin qu'elles s'étendent sur l'image selon la direction horizontale.
Comme le montre la figure 5, toutes les lignes de jonction en 3D (10) entre les points de l'objet sur le corps d'étalonnage (3) associés aux pixels et l'éclairage (2) sont ensuite déterminées pour reconstituer la position et/ou l'orientation d'un objet (9). Lorsque des données du modèle de l'objet à mesurer (9) sont mémorisées, celui-ci est ajusté en utilisant un algorithme approprié dans le réseau de lignes de jonction en 3D (10).

Claims (10)

Revendications
1. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image dans lequel É on saisit sur une image d'étalonnage une ombre propre causée par un corps d'étalonnage non plan défini, É sur la base de l'ombre propre saisie, on détermine des paramètres de correction de l'ombre, É on place au moins un objet à mesurer dans le champ d'une caméra et dans la zone éclairée par un éclairage, et É on réalise à l'aide de la caméra au moins une prise de vue de l'objet et de l'ombre correspondante, É on corrige l'au moins une prise de vue de l'ombre de l'objet au moyen des paramètres 15 déterminés et on en déduit la position et/ou l'orientation de l'objet.
2. Procédé de mesure de la position et/ou l'orientation d'objets au moyen de procédés de traitement de l'image selon la revendication 1, caractérisé en ce qu' É on réalise une image d'ombre, l'au moins une prise de vue de l'objet étant transposée sur l'image d'étalonnage, l'objet à mesurer projetant des ombres sur le corps d'étalonnage, É on transforme l'image d'ombre en une image d'ombre binaire, et É on génère une image d'ombre corrigée à partir de l'image d'ombre binaire à l'aide du paramètre de correction déterminé précédemment.
3. Procédé de mesure de la position et/ou l'orientation d'objets au moyen de procédés de traitement de l'image selon la revendication 2, caractérisé en ce qu'on détermine un réseau de lignes de jonction en 3D qui relie entre eux les zones obscurcies du corps d'étalonnage et l'éclairage, la position et/ou de l'orientation de l'objet à mesurer étant alors reconstruites à l'aide du réseau de lignes de jonction en 3D décrivant en connaissant la section de l'objet à mesurer.
4. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon la revendication 3, caractérisé en ce qu'on ajuste un modèle géométrique mémorisé de l'au moins un objet à mesurer dans le réseau de lignes de jonction en 3D.
5. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon la revendication 4, caractérisé en ce qu'on applique un algorithme de contour actif pour ajuster le modèle géométrique dans le réseau de lignes de jonction en 3D.
6. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon l'une des revendications 4 ou 5, caractérisé en ce que le modèle géométrique de l'objet à mesurer est le modèle d'au moins un objet rigide et/ou flexible.
7. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon l'une des revendications précédentes, caractérisé en ce que l'image du corps d'étalonnage est générée sous différents angles de l'espace, ce pour quoi on définit plusieurs caméras virtuelles.
8. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon l'une des revendications précédentes, caractérisé en ce que l'image du corps d'étalonnage est éclairée sous différents angles de l'espace, ce pour quoi on définit plusieurs unités d'éclairages virtuelles.
9. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de 25 procédés de traitement de l'image selon l'une des revendications précédentes, caractérisé en ce que le corps d'étalonnage est constitué par une structure en forme d'escalier.
10. Procédé de mesure de la position et/ou de l'orientation d'objets au moyen de procédés de traitement de l'image selon l'une des revendications précédentes, caractérisé 30 en ce que le corps d'étalonnage est constitué par au moins une partie de l'arrière-plan de la zone de mesure de la caméra.
FR0551136A 2004-05-07 2005-05-02 Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image Withdrawn FR2869983A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004023322A DE102004023322A1 (de) 2004-05-07 2004-05-07 Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren

Publications (1)

Publication Number Publication Date
FR2869983A1 true FR2869983A1 (fr) 2005-11-11

Family

ID=34638877

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0551136A Withdrawn FR2869983A1 (fr) 2004-05-07 2005-05-02 Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image

Country Status (5)

Country Link
US (1) US20050286059A1 (fr)
JP (1) JP2005326405A (fr)
DE (1) DE102004023322A1 (fr)
FR (1) FR2869983A1 (fr)
GB (1) GB2413845A (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008059551B4 (de) 2008-11-28 2021-08-12 Car.Software Estonia As Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6736257B2 (ja) * 2015-04-02 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN107990873B (zh) * 2017-09-22 2020-04-17 东莞市光劲光电有限公司 一种用led智能灯定位的方式
CN108917722B (zh) * 2018-08-01 2021-08-06 北斗导航位置服务(北京)有限公司 植被覆盖度计算方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4710620A (en) * 1984-08-28 1987-12-01 Messerschmitt-Bolkow-Blohm Gmbh Sensing apparatus for determining the relative position between two bodies with plural emitters and a shading member
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
WO1996005477A1 (fr) * 1994-08-11 1996-02-22 Cyberoptics Corporation Systemes d'alignement de haute precision de composants semiconducteurs
US20030071194A1 (en) * 1996-10-25 2003-04-17 Mueller Frederick F. Method and apparatus for scanning three-dimensional objects

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575637A (en) * 1983-07-28 1986-03-11 Polaroid Corporation Part positioning system employing a mask and photodetector array
GB2183820A (en) * 1985-11-09 1987-06-10 Dynapert Precima Ltd Electronic component placement
JPS62274466A (ja) * 1986-05-23 1987-11-28 Hitachi Ltd 3次元形状の計測方式
US5506683A (en) * 1990-04-30 1996-04-09 Kumho & Co., Inc. Non-contact measuring apparatus for the section profile of a tire and its method
US7831358B2 (en) * 1992-05-05 2010-11-09 Automotive Technologies International, Inc. Arrangement and method for obtaining information using phase difference of modulated illumination
JPH07151702A (ja) * 1993-12-01 1995-06-16 Sekisui Chem Co Ltd 物品の検査装置
US5943164A (en) * 1994-11-14 1999-08-24 Texas Instruments Incorporated Curved 3-D object description from single aerial images using shadows
EP0747870B1 (fr) * 1995-05-18 2002-11-27 Omron Corporation Une méthode et appareil d'observation d'objet avec deux caméras ou plus
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
US6282461B1 (en) * 1998-07-15 2001-08-28 Westinghouse Electric Company Llc Independent tube position verification system
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7084386B2 (en) * 2003-05-02 2006-08-01 International Business Machines Corporation System and method for light source calibration

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4710620A (en) * 1984-08-28 1987-12-01 Messerschmitt-Bolkow-Blohm Gmbh Sensing apparatus for determining the relative position between two bodies with plural emitters and a shading member
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
WO1996005477A1 (fr) * 1994-08-11 1996-02-22 Cyberoptics Corporation Systemes d'alignement de haute precision de composants semiconducteurs
US20030071194A1 (en) * 1996-10-25 2003-04-17 Mueller Frederick F. Method and apparatus for scanning three-dimensional objects

Also Published As

Publication number Publication date
US20050286059A1 (en) 2005-12-29
GB0508184D0 (en) 2005-06-01
DE102004023322A1 (de) 2005-11-24
JP2005326405A (ja) 2005-11-24
GB2413845A (en) 2005-11-09

Similar Documents

Publication Publication Date Title
US10608002B2 (en) Method and system for object reconstruction
EP3140611B1 (fr) Dispositif et procédé de reconstruction tridimensionnelle d'une scène par analyse d'image
US7684614B2 (en) Method for modeling three dimensional shape of objects using level set solutions on partial differential equation derived from helmholtz reciprocity condition
FR2940443A1 (fr) Procede de controle non destructif d'une piece mecanique
FR2751067A1 (fr) Systeme et sous-systeme de determination de l'attitude d'une camera a l'interieur d'un objet
TW200834434A (en) Image input apparatus, image input method, personal authentication apparatus, and electronic apparatus
US20130272600A1 (en) Range image pixel matching method
FR2984057A1 (fr) Systeme de tournage de film video
FR2869983A1 (fr) Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image
CA2880145C (fr) Procede de controle non destructif d'une preforme d'aube
FR2801123A1 (fr) Procede de creation automatique de maquette numerique a partir de couples d'images stereoscopiques
JP6867645B2 (ja) 画像処理装置、方法、及びプログラム
JP2004110804A (ja) 3次元画像撮影装置及び方法
KR20060065800A (ko) 헬름홀츠 스테레오를 이용한 깊이 불연속선을 지니는물체의 3차원 형상 획득 장치 및 그 방법
FR2910648A1 (fr) Procede et dispositif de capture de donnees geometriques
EP3073441B1 (fr) Procédé de correction d'une image d'au moins un objet présenté à distance devant un imageur et éclairé par un système d'éclairage et système de prise de vues pour la mise en oeuvre dudit procédé
FR2922640A1 (fr) Procede et un dispositif de reconstruction tridimensionnelle de la surface interieure d'une chaussure
CA2198022C (fr) Procede de correlation des mesures tridimensionnelles realisees par des systemes d'acquisition d'images et installation pour sa mise en oeuvre
FR2966257A1 (fr) Procede et dispositif de construction d'une image en relief a partir d'images en deux dimensions
WO2018229358A1 (fr) Procédé et dispositif de construction d'une image tridimensionnelle
FR3052287B1 (fr) Construction d'une image tridimensionnelle
JP3963219B2 (ja) 非接触式形状計測装置
EP2391921A2 (fr) Procede de reconstruction automatise de modeles tridimensionnels de superstructures des toits et des batiments en derivant
CN112815867A (zh) 一种自适应获取虚拟平面的相位解包裹方法
Hui et al. Lighting Model for Underwater Photogrammetric Captures

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20070131