FR2836215A1 - Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet - Google Patents

Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet Download PDF

Info

Publication number
FR2836215A1
FR2836215A1 FR0202246A FR0202246A FR2836215A1 FR 2836215 A1 FR2836215 A1 FR 2836215A1 FR 0202246 A FR0202246 A FR 0202246A FR 0202246 A FR0202246 A FR 0202246A FR 2836215 A1 FR2836215 A1 FR 2836215A1
Authority
FR
France
Prior art keywords
signals
images
subsystem
location
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0202246A
Other languages
English (en)
Other versions
FR2836215B1 (fr
Inventor
Bernard Alhadef
Laurent Alhadef
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BGA
Yodea
Original Assignee
BGA
Yodea
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BGA, Yodea filed Critical BGA
Priority to FR0202246A priority Critical patent/FR2836215B1/fr
Priority to US10/369,530 priority patent/US7187401B2/en
Publication of FR2836215A1 publication Critical patent/FR2836215A1/fr
Application granted granted Critical
Publication of FR2836215B1 publication Critical patent/FR2836215B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L'invention conceme un système de modélisation et de restitution tridimensionnelle d'un sujet comprenant un boîtier (3), portable à la main (M) par un opérateur (OP), muni d'un bloc optique à caméras numériques stéréoscopiques (32a, 32b) coopérant avec une centrale inertielle comprenant un trièdre de gyromètres à fibre optique et un trièdre d'accéléromètres, générant des signaux de position et de déplacement dans un référentiel. Le boîtier (3) peut également comprendre notamment un laser de télémétrie, une caméra infrarouge, un " GPS ", des inclinomètres et des magnétomètres tri-flux. Un deuxième sous-ensemble (4), relié au boîtier (3) par un câble (5) de liaisons optiques et/ ou électriques, comprend des alimentations en énergie électrique, des circuits électroniques et un micro-ordinateur, pour le traitement des signaux émis par le boîtier (3) et la génération d'un modèle tridimensionnel du sujet, en mettant en oeuvre une technique de photogrammétrie.

Description

<Desc/Clms Page number 1>
L'invention concerne un système de modélisation et de restitution tridimensionnelle d'un objet.
L'invention concerne également un procédé de modélisation tridimensionnelle d'un objet mettant en oeuvre le système selon l'invention.
Elle s'applique plus particulièrement à un système léger et autonome, mettant en oeuvre notamment une technique dite de photogrammétrie.
Avant de rappeler les caractéristiques des systèmes et procédés de l'art connu et de décrire plus avant celles spécifiques à l'invention, il apparaît tout d'abord utile de rappeler brièvement les principales caractéristiques de la technique de photogrammétrie précitée, par référence à la figure 1 annexée à la présente description.
La photogrammétrie est une technique qui permet de déterminer la forme, les dimensions et la position d'un objet, à partir de perspectives de cet objet enregistrées à l'aide de méthodes photographiques.
Dans le cadre de l'invention, le terme "objet" doit être considéré dans son sens le plus général : il peut s'agir d'un objet proprement dit, mais aussi, par exemple, une scène d'un espace (paysage, etc.
Dans l'exemple décrit sur la figure 1, l'objet 1 considéré est un pot. Les coordonnées de chaque point, par exemple P1 (x1, y1, z1) et P2 (x2, y2, z2), de l'objet 1 peuvent être référencées dans un trièdre orthonormé XYZ.
Chaque image photographique, du faisceau perspectif formé par l'ensemble des rayons qui, partant de chaque point de la surface de l'objet, P1 (x1, y1, z1) et P2 (x2, y2, z2), convergent vers des points de vue, par exemple 01 et 02, sur des plans, par exemple 81 et S2, représentant des photographies en deux dimensions de l'objet. Un faisceau perspectif est défini par la position, sur une photographie (plans 81 ou S2, dans l'exemple de la figure 1), du pied, par exemple PP1 ou PP2, de la perpendiculaire abaissée de 01 sur 81 et 02 sur S2, de distances c1 ou c2, respectivement. Si donc on connaît deux faisceaux relatifs à deux points de vue différents 01 et 02 d'où
Figure img00010001

l'on a pris deux photographies 81 et S2, la position [x1, y1, z1] du point P1 de l'objet 1 peut se définir comme le lieu géométrique des points d'intersection des paires de rayons homologues : 01 P11 P1 et 02P12P1, P11 étant le point
<Desc/Clms Page number 2>
d'intersection du faisceau P101 avec le plan 81 et P12 le point d'intersection du faisceau P102 avec le plan 82. De même, la position [x2, y2, z2] du point P2 de l'objet 1 se définit comme le lieu géométrique des points d'intersection des paires de rayons homologues : 01P21P2 et 02P22P2, P21 étant le point d'intersection du faisceau P201 avec le plan 81 et P22 le point d'intersection du faisceau P202 avec le plan S2. La distance D est la distance séparant les points 01 et 02.
Pour obtenir une bonne qualité de mesures et permettre un traitement automatique d'image rapide, précis et fiable, il est nécessaire de posséder des caractéristiques précises des prises de vues dont les principales sont rappelées ci-après :
La localisation des images : il est indispensable de connaître les coordonnées du plan des images (81 et S2), leurs inclinaisons dans l'espace (angles d'azimut, d'élévation et de roulement), les positions du centre des images.
Les caractéristiques optiques de l'appareil de prise de vue. La photo précise est définie comme une projection centrale exacte, dont le centre de projection est situé à une distance, que l'on appellera ci-après c d'un point dit principal. Les paramètres du modèle mathématique et géométrique simplifié correspondant, à savoir la distance principale c et les coordonnées images du point principal, que l'on appellera ci-après PP (çO,'10), sont appelées les éléments d'orientation interne. Cette représentation idéale ne reflète toutefois pas fidèlement la réalité. Il faut tenir compte d'erreurs causées par les optiques, les chambres et les photographies elles-mêmes utilisées en association avec l'appareil pour des précisions élevées requises.
De ce qui précède il est important de connaître avec précision :
Les coordonnées du point principal PP (çO,'10) sur les images : il est important de définir ces coordonnées car le point principal sert de point d'origine du repère de l'image. Ce repère est essentiel pour définir les projections qui serviront à établir la position des objets photographiés
<Desc/Clms Page number 3>
Les erreurs engendrées par l'optique : ces d'erreurs perturbent la qualité des mesures (aberration chromatique, aberration sphérique, coma, astigmatisme, courbure de champ, distorsion, etc.).
Le diaphragme de l'objectif : plus le diaphragme de l'objectif est étroit plus les points de l'image sont précis, l'image est dite nette. Lors de la restitution photogrammétrique, un centre de projection est nécessaire, dont la taille soit assimilable à un point (en théorie seul un unique faisceau lumineux peut passer). Or la taille du centre de projection dépend de l'ouverture du diaphragme lors de la prise de vue. Il est donc nécessaire de minimiser la taille du diaphragme lors de la prise de vue autant que possible tout en permettant le passage de suffisamment de lumière pour l'éclairage de l'image
La distance principale : pour préparer l'étape de la modélisation par restitution photogrammétrique, il est nécessaire de connaître avec précision la distance principale c pour chaque image. Or celle-ci varie lors de la mise au point. En effet, pour obtenir une image nette d'un objet proche, il y a lieu de faire varier la distance entre l'objectif et le capteur dont est muni l'appareil, par exemple un capteur semi-conducteur à couplage de charges du type dit"CCD". De même, s'il y a changement de focale la distance c se trouve modifiée.
Le détourage des contours : une des difficultés traditionnelles de la technique de la photogrammétrie est le problème dit du détourage des objets à modéliser. Le détourage est constitué par l'action d'analyse correcte du contour des objets à modéliser. La technique de la photogrammétrie provoque des erreurs dites de parallaxe si les mesures (position, etc. ) n'ont pas été réalisées de façon suffisamment précise. Ceci affecte notamment beaucoup le détourage des objets. Il peut y avoir en effet confusion entre des points du contour de l'objet et des points d'objets situés en réalité derrière celui-ci. Pour résoudre ce problème, il est utile de déterminer les différences des profondeurs de champs des différents objets à modéliser.
<Desc/Clms Page number 4>
- Nombre d'images : plus le nombre d'images caractérisées est grand plus la précision des mesures après la phase de reconstitution photogrammétrique est affinée.
La photogrammétrie trouve des applications dans de nombreux domaines que l'on peut répartir arbitrairement dans quatre catégories principales qui vont être rappelées succinctement ci-après :
1. Applications à très grande échelle : pour ce type d'applications, il s'agit de connaître les mesures tridimensionnelles d'étendues allant de l'infini à quelques kilomètres. Il s'agit ici essentiellement d'une photogrammétrie mettant en oeuvre des satellites artificiels, par exemple tournant autour du globe terrestre. On reconstitue par la technique de la photogrammétrie le relief du paysage. L'échelle varie typiquement entre 1/50.000 au 1/400.000.
On parle de"spatio-grammétrie". Les applications les plus courantes sont les suivantes : cartométrie, géodésie, sciences de la terre (glaciologie ; étude des avalanches, des courants aériens, des houles et des marées ; etc.)
2. Applications à grande échelle : une application importante de la photogrammétrie est l'établissement de plans et cartes topographiques à partir de photographies aériennes. elle s'applique généralement aux cartes de base d'un pays (à des échelles variant, selon les régions, de 1/5.000 à
1/200.000) ainsi qu'aux levés nécessaires aux projets de génie civil, aux aménagements hydrauliques, à l'urbanisme, au cadastre, etc.
3. Applications à échelle humaine : il s'agit de connaître les mesures tridimensionnelles d'objets ou d'étendues allant de quelques kilomètres à quelques centimètres. Il existe de nombreux domaines d'application telle que : le contrôle d'ouvrages d'art ; les cubatures dans les mines et carrières ; les applications liées à l'industrie automobile (caractéristiques géométriques des carrosseries par exemple), à l'hydraulique (ondes, mouvements de l'eau), à la trajectographie et à l'étude du déplacement des véhicules, aux analyses de la circulation et aux constats d'accidents, à l'établissement de plans par les techniques de conception assistée par ordinateur ("CAO"), au contrôle qualité, à l'usinage, aux établissements de côtes, et aux relevés
Figure img00040001

oroh ; + res orrshonlor ; rsl 1no
<Desc/Clms Page number 5>
4. Applications à l'échelle microscopique : il s'agit de connaître la mesure tridimensionnelle de sujets allant de quelques millimètres à quelques micromètres. Les domaines d'application sont : la biologie, la micro géologie, la micromécanique, etc.
Bien que de façon non exclusive, la présente invention est plus particulièrement concernée par les applications de la troisième catégorie, à savoir les "applications à échelle humaine".
Pour cette catégorie d'applications, un certain nombre de systèmes et procédés a été proposé dans l'art connu. Sans être exhaustif, les principales solutions vont être rappelées ci-après.
Il existe des systèmes munis d'un ou plusieurs appareils de prises de vues positionnés sur des robots ou des bras articulés. Avec ce type de système il est certes possible de parvenir à une bonne précision, par contre il présente habituellement des inconvénients relativement nombreux, que l'on peut résumer ainsi : appareil lourd et peu transportable, faible rayon d'action, coût élevé, système réservé a des spécialistes car de mise en oeuvre complexe, et traitement d'images laborieux et sujet à erreurs.
Il existe des systèmes mettant oeuvre de cibles optiques. Des cibles optiques sont posées après métrologie sur le sujet ou l'espace à modéliser afin de faciliter le traitement ultérieur en servant de repères puis l'on mesure l'emplacement du ou des appareils photographiques pour chaque cliché. A titre d'exemple, de tels systèmes sont proposés par les sociétés"Blom industry"ou "GSI". Ces systèmes permettent une bonne précision et génèrent moins d'erreurs de traitement que les systèmes du type précédent. Cependant, ils ne sont pas exempts pour autant d'inconvénients, et notamment les suivants : ils sont difficiles et longs à mettre en oeuvre, car il faut installer des cibles coûteuses, le champ de mesure est limité à l'aire où les cibles ont été installées, et, de nouveau, ce type de système est réservé à des spécialistes, car de mise en oeuvre complexe.
Il existe des systèmes utilisant une lumière à caractéristique multichromatique. Un où plusieurs appareils photographiques sont disposés à des emplacements dûment repérés à l'avance. Une lumière chromatique est
<Desc/Clms Page number 6>
projetée sur l'objet (plusieurs faisceaux de couleurs différentes). Cette technique est en pratique limité aux seuls objets de petites dimensions. De même, en pratique, l'utilisation est limitée à un lieu fermé. Seule la forme de l'objet peut être déterminée. En effet, du fait des caractéristiques inhérentes au procédé les couleurs de l'objet sont altérées par le traitement. Le traitement est complexe et, de ce fait, ce type de système est réservé à des spécialistes.
Il existe des systèmes et techniques de traitement d'images avec intervention manuelle sur points dits remarquables. Il s'agit d'une solution totalement logicielle. Plusieurs images d'un sujet sont photographiées, ce sous plusieurs angles au moyen d'un appareil photo. Les images sont ensuite numérisées et traitées grâce à un logiciel spécifique approprié. Il est alors nécessaire de pointer manuellement sur chaque photo un maximum de points remarquables commun à toutes les photos, ce qui est, a priori, fastidieux. Le logiciel se sert de ces points pour recaler chaque photo et générer une image tridimensionnelle. Ce procédé présente certes un avantage : prises de vues rapide et facile. Mais, il n'est pas non plus dépourvu d'inconvénients, notamment il nécessite un pré-traitement manuel et laborieux, comme indiqué et la précision obtenue est mauvaise, ce qui est inhérent à un traitement manuel.
Il existe aussi des systèmes et techniques de traitement d'images mettant en oeuvre un suivi de points dits remarquables. Là encore ces solutions recourent à un logiciel spécialisé. Un espace ou un objet est filmé à l'aide d'une caméra vidéo. Une fois le film numérisé, des points remarquables sont sélectionnés sur une image particulière du film. Ces mêmes points remarquables sont ensuite repérés sur chaque image grâce à une méthode logicielle dite de"tracking de points". Grâce à un algorithme de traitement d'image, le logiciel est capable de déterminer la position de chaque plan focal de chaque image et ainsi de modéliser en trois dimensions l'univers filmé.
L'avantage principal de ce procédé est semblable au précédent : prises de vue facile et rapide. Les inconvénients sont également semblables : pré-traitement d'image long, interventions manuelles nécessaire pour supprimer les erreurs, et mauvaise précision.
<Desc/Clms Page number 7>
Il existe des systèmes de prises de vues avec plateau rotatif. Un objet de petite dimension (typiquement quelques dizaines de centimètres) est placé sur un plateau qui tourne à vitesse constante. Une caméra fixe est disposée à l'extérieur du plateau et filme l'objet. Si ce système présente des avantages certains : prise de vue facile et rapide, traitement de l'image simple, et bonne précision, il ne peut toutefois s'appliquer qu'à des objets de petites tailles.
On peut citer enfin des systèmes de prises de vues avec connaissance, que l'on qualifiera de "mécanique" de la localisation des images.
En effet, pour ce type de système, la localisation de l'appareil photographique de la caméra est connue grâce à un dispositif mécanique sur rail ou autre. Là encore, le système présente des avantages réels : prise de vue facile et rapide, traitement de l'image simple, et bonne précision, il ne peut toutefois s'appliquer, comme précédemment, qu'à des objets de petites tailles. En outre, il s'avère long à mettre en oeuvre et coûteux.
De ce qui précède, il est possible de résumer les caractéristiques principales des systèmes et procédés de l'art connu comme indiqué ci-après.
Tout d'abord, il ressort clairement que la mesure tridimensionnelle par images s'effectue en deux étapes.
La première étape consiste en l'acquisition d'images proprement dite.
La deuxième étape, généralement appelée "restitution photogrammétrique", consiste à agencer de façon appropriée des enregistrements d'images et à appliquer à cet agencement un procédé de traitement d'image (de type mécanique et/ou informatique) dont un des buts principaux est de parvenir à connaître les dimensions et les positions des objets photographiés. Par extension, on est alors capable de modéliser les objets en trois dimensions.
Il existe des systèmes et procédés qui permettent d'obtenir de bonnes précisions quant à la position des prises de vues mais, dans l'état actuel de la technique, il s'agit de procédés coûteux, nécessitant une infrastructure complexe, donc lourde à mettre en oeuvre (nécessitant en outre le recours à des spécialistes) avec des contraintes relatives à la taille de l'objet à modéliser.
<Desc/Clms Page number 8>
Il existe aussi des systèmes et procédés permettent d'extrapoler les informations de position d'images directement à partir d'un traitement d'image.
La mise en oeuvre est simple, mais la précision des données résultante s'avère être généralement trop grossière et une action manuelle est le plus souvent nécessaire. Les traitements sont de ce fait lents et sujets à erreurs.
Les difficultés qui en résultent sont telles que, le plus souvent, il est fait appel, de façon pratique, à des systèmes à base de télémétrie laser. Certes, ces systèmes ont l'avantage de permettre la mesure des dimensions des éléments constituant les objets, mais ils ont aussi l'inconvénient rédhibitoire d'être trop grossiers par rapport aux images traditionnelles et de ne pas pouvoir traiter les informations chromatiques, précisément du fait de l'utilisation de sources laser.
L'invention vise à pallier les inconvénients des systèmes et procédés de l'art connu, et dont certains viennent d'être rappelés.
L'invention se fixe pour but un système de modélisation et de restitution tridimensionnelle d'un objet, léger et autonome, notamment mettant en oeuvre la technique de photogrammétrie précitée
Le système conforme à la présente invention permet d'acquérir un grand nombre d'images en séquence accompagnées de leurs principaux paramètres relatifs à la cinématique et aux prises de vues.
Les données acquises permettent une modélisation tridimensionnelle précise, tout en apportant une mise en oeuvre simple, rapide, peu contraignante et sans limitation de l'objet à mesurer et à modéliser.
Les modélisations tridimensionnelles effectuées grâce au système selon l'invention peuvent ensuite être stockées, transmises et/ou intégrées dans d'autres applications, notamment en vue de constituer un univers virtuel tridimensionnel et autoriser la navigation d'un opérateur dans cet univers virtuel tridimensionnel.
Cette navigation se fait suivant deux modes principaux : - Statique : il est traditionnellement connu qu'un modèle tridimensionnel permette à un utilisateur immobile d'observer des objets modélisés sous
<Desc/Clms Page number 9>
différents angles grâce à un système de pointage par le biais d'un logiciel de rendu tridimensionnel.
- Dynamique : l'invention permet en outre à un utilisateur de se déplacer à vue dans un univers tridimensionnel déjà modélisé. Chaque déplacement de prise de vue est dynamiquement pris en compte par des capteurs de positionnement. L'image est restituée par un logiciel de rendu tridimensionnel.
Pour ce faire, selon une première caractéristique importante, le système selon un mode de réalisation préféré de l'invention comprend un premier sous-système combinant, en un ensemble unique (par exemple dans un boîtier muni d'une poignée de préhension) un dispositif d'acquisition d'images et deux ensembles de capteurs de types inertiels, avantageusement à base de gyromètres et d'accéléromètres, respectivement.
Le deuxième sous-système comprend essentiellement des organes et circuits de traitement de signaux, avantageusement du type à traitement de données numériques à programme enregistré, ainsi qu'éventuellement des sources d'alimentation en énergie électrique.
Toujours dans un mode de réalisation préféré, les deux sous-systèmes communiquent entre eux par l'intermédiaire d'un câble comportant des liaisons électriques et/ou optiques (fibres optiques pour ce dernier type).
Le système dans sa globalité se présente sous la forme d'un système léger et autonome, transportable par un opérateur qui peut ainsi le déplacer dans un champ de mesure, a priori, de dimensions importantes.
De ce fait, outre l'aspect pratique présenté par le système (compacité, transportabilité, etc. ), la modélisation n'est pas limitée à des objets de dimensions réduites, caractéristiques limitatives inhérentes à certains des systèmes de l'art connu qui viennent d'être rappelés.
Il sera montré ci-après de façon détaillée que les mesures obtenues peuvent être très précises et que l'appareil ne nécessite pas d'être manipulé par un expert, sa mise en oeuvre étant simple.
<Desc/Clms Page number 10>
En outre, il ne nécessite pas d'accessoires supplémentaires telles que cibles optiques, etc., ni de traitements et/ou opérations préalables multiples (mise en place des cibles précitées, etc.).
Enfin tout le traitement est automatique (pas de pointages sur images, ni corrections manuelles).
Dans une variante préférée encore de réalisation de l'invention, des organes complémentaires peuvent être combinés aux organes de base du premier sous-système, en vue par exemple d'obtenir une précision de mesure supplémentaire et/ou de faciliter la manipulation de ce premier sous-système.
On peut notamment prévoir un dispositif de type"GPS" (pour"Global Positioning System"ou"Système de Positionnement Global"), une borne dite d'initialisation de manière à acquérir des coordonnées initiales de référence dans le champ de mesure, une caméra infrarouge, une source laser, un microphone, un organe de visualisation, etc.
L'invention a donc pour objet principal un système de modélisation et de restitution tridimensionnelle d'un sujet d'une scène déterminée dans un espace à trois dimensions, caractérisé en ce qu'il comprend : - un premier sous-système comprenant, disposés dans un boîtier unique portable par un opérateur, au moins un capteur d'image, pour l'acquisition d'images numériques dudit sujet, coopérant avec des première et seconde séries de moyens générant des signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images par rapport à trois axes d'un référentiel spatial à trois dimensions, lesdites première et seconde séries de moyens de mesure comprenant chacune des dispositifs générant chacun des mesures suivant un desdits axes dudit référentiel ; - un deuxième sous-système comprenant au moins des moyens de traitement de données numériques recevant des signaux de données caractérisant lesdites images numériques acquises et lesdits signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images dans ledit référentiel et générant, à partir desdits signaux de données d'images numériques acquises et desdits signaux de localisation et de déplacement, un modèle en trois dimensions dudit sujet et
<Desc/Clms Page number 11>
- des moyens de liaison entre lesdits premier et deuxième sous-système véhiculant au moins lesdits signaux de données d'images numériques acquises et desdits signaux de localisation et de déplacement.
L'invention a encore pour objet un procédé mettant en oeuvre ce système.
L'invention va maintenant être décrite de façon plus détaillée en se référant aux dessins annexés, parmi lesquels : - la figure 1 illustre schématiquement un procédé de photogrammétrie classique ; - la figure 2A à 2D illustrent schématiquement différents sous- ensembles composant un système de modélisation et de restitution tridimensionnelle d'un objet, selon un mode de réalisation préféré de l'invention ; - la figure 3 est un organigramme illustrant les principales phases et étapes du procédé de modélisation et de restitution tridimensionnelles d'un objet mettant en oeuvre le système conforme aux figures 2A à 2D ; et - la figure 4 illustre plus particulièrement l'étape de modélisation proprement dite.
On va maintenant décrire un système de modélisation et de restitution tridimensionnelles d'objet selon un mode de réalisation préféré de l'invention, par référence aux figures 2A à 2D.
Pour simplifier la description, les termes"tridimensionnel"ou"en trois dimensions"seront remplacé ci-après par l'abréviation"3D".
Sur ces figures, les éléments identiques portent les mêmes références et ne seront re-décrits qu'en tant que de besoin.
La figure 2A illustre schématiquement ce qui sera appelé ci-après premier sous-système 2 du système selon l'invention.
Ce sous-système 2 est essentiellement constitué d'un boîtier 3 d'aspect semblable à celui d'une caméra, d'un caméscope ou d'un appareil similaire. Le boîtier 3 comporte une coque rigide 30, avantageusement en un alliage de magnésium, ce qui lui assure à la fois une bonne rigidité et un faible
<Desc/Clms Page number 12>
poids. La coque est munie, de façon classique en soi d'une poignée inférieure de préhension 31.
Le premier sous-système 2, comprend tout d'abord, disposés dans le boîtier 3, des éléments optiques.
On prévoit, à titre principal, un premier bloc optique 32a permettant des prises de vue pour l'acquisition d'images en lumière naturelle (c'est-à-dire polychromatique). De façon préférentielle, on utilise un capteur semiconducteur du type"dispositif à couplage de charge"ou"CCD". Pour fixer les idées, on prévoit un capteur de 5 méga-pixels. On prévoit en outre avantageusement des objectifs interchangeables (non représentés) de différentes focales préréglés en position hyperfocale.
Dans un mode de réalisation préféré, on prévoit un second bloc optique, 32b, identique au précédent et asservi au premier sur bras articulé (non représenté), interne ou, de préférence externe au boîtier 3.
On peut prévoir également un bloc optique thermique 33, par exemple comprenant une matrice a plan focal de type micro bolomètre non refroidi, par exemple constitué de 320x240 éléments de 8 sur 12 m chacun.
L'ensemble optique peut être complété par un projecteur de lumière principal intégré 39a, monté sur un bras articulé 390a, par exemple de 1000 lumens, et un laser de télémétrie et de balayage 34 ayant, par exemple, une capacité typique de 1000 points par seconde avec une incertitude de mesure de l'ordre de 1mm pour un objet distant de 5 m.
Selon une caractéristique importante de l'invention, des éléments de localisation sont disposés dans le même boîtier 3 que les éléments optiques et donc déplaçables en synchronisme avec les éléments optiques, en particulier avec le premier bloc optique 32a.
De façon plus précise, le premier sous-système 2 comprend au moins, à titre principal, deux séries d'éléments de mesure d'assiette, de localisation et de vitesse de déplacement, à savoir au moins un gyromètre 35 et au moins un accéléromètre 36, disposés à l'intérieur du boîtier 3.
Dans le cadre de l'invention, on entend par"assiette"de façon générale les paramètres concernant le roulis, le tangage et l'azimut du boîtier 3,
<Desc/Clms Page number 13>
c'est-à-dire plus particulièrement de l'ensemble optique 32a-32b et, lorsqu'ils existent, des autres organes : bloc optique thermique 33 et laser de télémétrie et de balayage 34.
De façon pratique, chacune des séries d'éléments de mesure d'assiette, de localisation et de vitesse de déplacement, 35 et 36 respectivement, comprend de façon préférentielle trois organes (trièdre), de manière à pouvoir effectuer des mesures en trois dimensions (les organes étant alignés sur trois axes distincts).
Pour fixer les idées, l'accéléromètre 36 peut être constitué à base d'un trièdre de trois accéléromètres au silicium de technologie à lame vibrante.
Le gyromètre 35 peut être construit à base de trois bobines orthogonales de fibre optique mono-mode, typiquement de diamètre 80 mm, comportant chacune de l'ordre de 1 km de fibre optique. On peut également mettre en oeuvre des gyromètres vibrants.
Ces éléments de base peuvent être complétés par des organes auxiliaires (non explicitement représentés), notamment un magnétomètre tri flux rotatif, deux inclinomètres perpendiculaires suivant le plan principal de l'appareil, ou pour le moins à axes décalés, et un module"GPS"représenté sous la référence 38.
Dans un mode de réalisation préféré toujours, on prévoit des capteurs supplémentaires de mesure et notamment : un compteur de temps de précision à quartz, dont l'organe d'affichage
391 c est disposé sur un panneau latéral 39c de la coque 30 du boîtier 3, et un capteur de température interne (non représenté).
De façon avantageuse, le boîtier 3 est muni d'éléments d'interface du type"homme-machine"et notamment : - de boutons poussoir et de mollettes (par exemple pour régler la vitesse d'acquisition d'images et de points remarquables), sous la référence générale 390c, disposés sur le panneau latéral 39c ; - un microphone/haut-parleur 37 ; un indicateur servant à donner l'estimation de la dérive les capteurs de position de l'appareil (non représenté) ; et
<Desc/Clms Page number 14>
un organe de visualisation 39b, monté sur un bras articulé 390b, avantageusement à cristaux liquide, par exemple de résolution 400x300 pixels.
Le deuxième sous-système 4 est constitué par ce qui sera appelé ciaprès un"boîtier de servitude"Dans un mode de réalisation préféré, il se présente sous la forme d'un sac à dos 40 ou similaire pouvant être transporté par un opérateur OP, par exemple à l'aide de sangles 41. En mode, que l'on qualifiera de "non-opérationnel" (c'est-à-dire hors des opérations d'acquisition et de traitement de signaux pour obtenir la modélisation 3D), on peut prévoir avantageusement un emplacement (non représenté) dans le sac à dos 40 pour ranger le boîtier 3.
En mode opérationnel, le boîtier 3 est sorti du sac à dos 40 et tenu à la main M par l'opérateur OP.
De façon plus précise, comme illustré schématiquement sur la figure 2C, le boîtier de servitude 4 comprend un ensemble d'organes et de circuits regroupés arbitrairement dans un châssis 42 destiné à être placé dans le sac à dos 40.
Les principaux organes et circuits contenus dans ce châssis sont les suivants : une batterie d'alimentation en énergie électrique 420, par exemple de 12 volts 10 AH au lithium, et alimentation à découpage associée 421, de manière à éviter l'utilisation de transformateurs lourds : l'alimentation fournie un jeu de tensions et/ou courants de sorties d'amplitudes appropriés, destinés à sous la référence générale VS ; une unité de traitement de données numériques à programme enregistré
422 de type micro-ordinateur comprenant divers organes classiques nécessaires à son bon fonctionnement (non représentés) tels que, microprocesseur, mémoire centrale, etc., et notamment une carte vidéo 3D, une mémoire de masse 423, par exemple constitués de deux disques magnétiques typiquement de 80 giga-octets chacun ; une unité de visualisation 424 commandée par la carte vidéo 3D précitée ;
<Desc/Clms Page number 15>
des dispositifs d'entrée de données de type clavier 425 et de pointage
426 : souris, boule etc., pour saisir des commentaires, données, instructions de synchronisation ou ordres de traitement ; des circuits électroniques 427 de traitement des signaux générés par les gyromètres à fibre optique, interfacés avec le micro-ordinateur 422 par une carte de circuits électroniques appropriés (port série par exemple) ; et - des ports d'entrée-sortie pour la gestion de différents protocoles et des circuits électroniques d'interfaces vers des dispositifs extérieurs :"IEEE
1394"ou"firewire","USB","VGA", vidéo, son,"bluetooth","ethernet", "wireless","802. 11", etc., regroupés sous une référence unique 428.
On prévoit également une connectique 429 permettant de réaliser une connexion par câble 5 (figure 2B) entre le boîtier 3 (figure 2B) et le châssis 42.
A priori, le câble 5 véhicule des signaux de trois catégories principales : électroniques par des liaisons filaires 50 (bus série par exemple ou autre), des signaux d'alimentation électrique 51 et des signaux optiques par des liaisons à fibres optiques 52, par exemple en provenance des gyromètres à fibre optique 35 (figure 2A). Une connectique semblable (non représentée) est prévue sur le boîtier 3 (figure 2A). On peut naturellement prévoir aussi d'autres types de liaisons : liaisons radio (par exemple selon le protocole"bluethooth"précité) et/ou optiques directes (signaux modulant une porteuse infrarouge par exemple), entre le boîtier 3 et des éléments du boîtier de servitude 4.
Outre ces deux sous-systèmes principaux, un prévoit avantageusement un troisième sous-système d'éléments annexes qui se réduisent essentiellement à une borne d'initialisation 6, représentée sur la figure 2D et, en tant que de besoin, pour certaines applications, à un jeu de cibles optiques. Dans l'exemple décrit sur la figure 2D, la borne d'initialisation 6 prend la forme d'un trépied 60, semblable à un trépied photographique, sur lequel est assujetti un support 61, par exemple de forme tubulaire, se terminant dans sa partie supérieure par une partie effilée 610. Si on se reporte de nouveau à la figure 2A, on constate que, dans l'exemple décrit, la poignée 31 est munie d'une enceinte de forme complémentaire à celle de la partie supérieure 61 de la borne d'initialisation 6. Celle-ci permet d'enfiler la poignée
<Desc/Clms Page number 16>
31, et donc le boîtier 3, sur la partie supérieure 61 de la borne d'initialisation 6.
L'utilité de cet organe sera précisée ci-après.
On va maintenant décrire les phases et étapes principales du procédé de modélisation et de restitution 3D d'un objet, de façon plus générale d'une scène (ci-après appelé "sujet"), mettant en oeuvre le système selon l'invention qui vient d'être décrit, ce par référence à la figure 3. Cette dernière est un organigramme 7 des étapes du procédé. La partie gauche, référencée 70, de l'organigramme
La première étape 701, ou étape préliminaire, consiste en l'établissement initial de données de configuration et leur enregistrement dans le système.
Un descriptif de configuration est intégré par exemple sous la forme de fichier de configuration système de type texte. Dans ce fichier sont fournies des informations relatives au matériel et aux logiciels utilisés. Certains paramètres peuvent être reconfigurés. Les principaux paramètres sont relatifs à : - Une table de correction optique concernant les capteurs optiques, notamment les lentilles. Des lentilles particulières, spécialement étudiées pour obtenir des images comportant très peu d'erreurs sont utilisées. Une table de correction optique tenant compte de diverses distorsions et aberrations de l'image est établie en laboratoire et cette table est incluse dans le fichier de configuration. Cette table de correction permet de compenser des erreurs optiques par traitement informatique (Aberration chromatique, Aberration sphérique, coma, Astigmatisme, Courbure de champ, Distorsion...). La table peut cependant être re-construite in situ par l'opérateur, notamment pour tenir compte de conditions particulières d'utilisation (température, etc. ) et ré-introduite dans le système.
L'opérateur OP a en effet la possibilité de reconstruire une table de correction optique de la façon suivante : à partir de plusieurs jeux de mires (non représentées), une grand nombre d'images est acquis avec des valeurs de focale et d'ouverture régulières, les positions du boîtier 3 par rapport aux mires étant connues au moyen des capteurs de positionnement. Ces
<Desc/Clms Page number 17>
données sont analysées par logiciel et il en ressort les tables de correction qui sont ensuite introduites dans le système.
- Les coordonnées du point principal PP (O. nO) précité : pour ce faire, les capteurs optiques sont testés en laboratoire afin de déterminer avec précision l'emplacement exact de ce point principal. Cette donnée est aussi intégrée dans le système.
- Des modèles de corrections des capteurs inertiels : au fur et à mesure des acquisitions de données, des modèles de prédictions du comportement des capteurs inertiels sont affinés par des procédés de traitement algorithmique de données.
La deuxième étape 702 consiste en l'acquisition de données. Elle est plus spécifique au procédé selon l'invention.
Cette étape consiste à acquérir les informations nécessaires à la modélisation 3D. Toutes ces informations sont avantageusement horodatées.
On se reportera de nouveau à la figure 2A, sauf mention contraire. Les informations sont les suivantes :
1/Un point formant centre du repère de la modélisation est acquis grâce à la borne d'initialisation 310 et 6-61 (figure 2D).
2/Des directions et intensités des sources de lumière existantes qui sont localisées grâce au boîtier 3 (figures 2A et 2B).
3/Des images numériques (a priori polychromatiques) qui sont fournies par le capteur principal 32a. Ces images peuvent êtres prises à l'unité par action de l'opérateur ou séquentiellement de manière automatique. Dans ce dernier cas la cadence des prises de vue est réglable, de 1 à 100 images par seconde par exemple, en actionnant les boutons 390c.
4/Des images numériques qui sont fournies par le deuxième capteur d'image 32b (mode stéréoscopique). Ces images sont synchronisées sur celles prises par le premier 32a.
5/Des images thermiques qui sont fournies par la caméra infrarouge 33.
Ces images sont synchronisées avec les prises d'images numériques.
6/Des données provenant des gyromètres 35 : acquisition dans un registre temporaire (non représenté) d'incréments de rotations notés Au, Ap et Ay
<Desc/Clms Page number 18>
suivant les trois axes des trois gyromètres, par exemple à une fréquence de
200 Hertz.
7/Des données provenant des accéléromètres 36 : acquisition dans un registre temporaire (non représenté) d'incréments de translation, notés Ax, Ay et Az, suivant les trois axes des trois accéléromètres, par exemple à une fréquence de 200 Hertz.
8/Des données des deux inclinomètres (non représentés) : acquisition de ces données par exemple à une fréquence de 10 Hz.
9/Des données de position fournies par le module "GPS" 38 : acquisition des données de position absolue"GPS"par exemple à une fréquence de 5 Hz.
10/Des données de télémétrie fournies par le laser 34 : acquisition des données de télémétrie laser par exemple à une fréquence de 1000 Hertz.
11/Des données de température : acquisition des données de température internes par exemple à une fréquence de 1 Hz.
12/Des données de commentaires sonores : acquisition asynchrone de séquences sonores via le microphone 37.
13/Des données fournies par les magnétomètres tri-flux (non représentés) : acquisition des données magnétométriques horodatées en synchronisation avec les images numériques.
14/Des données de paramètres optiques : acquisition de la valeur de la focale, de la vitesse de scrutation, de l'ouverture du diaphragme et de la distance de mise au point. Ces acquisitions sont synchronisées avec la prise d'image.
15/Des données de commandes entrées par l'opérateur OP (figure 2B) de l'utilisateur : acquisition des commandes de l'utilisateur
La troisième étape 703 consiste dans le traitement des données inertielles.
Cette étape permet de traiter en temps réel les données d'acquisition de localisation et d'établir la cinématique de l'appareil (boîtier 3) transporté par l'opérateur OP. Comme le suggère le diagramme de la figure 3, cette étape est itérative (retour à l'étape 702).
<Desc/Clms Page number 19>
La position de l'appareil de prise de vues est déterminée par les éléments de localisation de type centrale inertielle, c'est-à-dire essentiellement basé sur les signaux générés par les gyromètres 35 et les accéléromètres 36.
Les traitements de ce type sont connus en soi et explicités notamment dans les articles suivants : -"Inertial Navigation System Analysis > , par Britting, K. R, (1971),"Wiley-
Interscience", New York ; et -"Inertial Navigation Systems", par Broxmeyer, C.,"McGraw Hill", (1964).
Au bout d'un laps de temps déterminé, on effectue un recalage sur une borne qui sert de point de référence. L'écart des mesures par rapport au point de référence est relevé. Cet écart est réparti sur les différentes mesures de localisation antérieures afin de pratiquer une compensation de l'erreur de mesure.
On obtient des signaux de redondances à l'aide des capteurs auxiliaires de localisation prévus dans le boîtier 3. D'autres capteurs de localisation et de distance :"GPS"38, magnétomètres, inclinomètres, ainsi qu'éventuellement des odomètres. L'estimation de la dérive des différents capteurs de position de l'appareil (boîtier 3) est transmise à l'opérateur OP. Ces mesures sont également corrigées par traitement d'image dans le soussystème 4 (figures 2B et 2C).
Ce type de traitement est bien connu en soi et explicites notamment dans les articles suivants : - El-Sheimy, N. Shwarz, K. P., (1994),"Integrating Differential GPS with an inertial navigation systeme (INS) and CCD Cameras for a Mobile GIS Data Collection System","Proc. The canadian Conference on GIS", Ottawa,
Canada, 6-10 juin, pp. 241-248 ; - Abdulah, Q., (1997),"Evaluation of GPS-Inertial Navigation System for
Airborne Photogrammetry","ASPRS/MAPPS Softcopy Conference",
Arlington, Virginia, 27-30 juillet ; - Skaloud, J., Cramer, M., Schwarz, K. P., (1996),"Exterior Orientation By
Direct Measurement of Camera Position and Attitude","XVII. ISPRS
<Desc/Clms Page number 20>
Congress", Vienne, Autriche, 9-19 juillet,"Int. Archives of Photogrammetry and Remote Sensing", vol 31, part b3, pp125-130, 1996 ; et - Bruton, AM, Scaloud J ; Schwarz, K. P., (1999b),"Denoising of Signais in Inertial navigation Systems (INS) Using Wavelets" (en preparation).
L'inclinaison du boîtier 3 de l'appareil de prise de vues (angles d'azimut, d'élévation et de roulement), et par conséquent l'inclinaison dans l'espace du plan de l'image, est donnée principalement par un trièdre de trois gyromètres 35 placés selon trois axes distincts non coplanaires.
L'électronique 427 (figure 2C) attachée aux capteurs gyrométriques 35 fournit des incréments de rotations Aa, Ap, Ay suivants trois axes distincts. A partir de ces incréments, des positions angulaires a, ss, y sont calculées par changement de repère au moyen de calculs arithmétiques dits"des quaternions".
La position (x, y, z) du capteur d'images, 32a-32b, et par conséquent la position du centre de chaque image, est fournie principalement par le trièdre des trois accéléromètres 36.
Les distances parcourues selon les trois axes (x, y, z) sont calculées par intégrations successives en faisant appel à des calculs de cinématique et en utilisant les données d'accélération émises par le trièdre des trois accéléromètres 36. Les accéléromètres 36 et les gyromètres 35 coopèrent pour autoriser le calcul des données de localisation, par exemple à une fréquence de 200 Hz.
La cinématique du boîtier 3 de l'appareil de prise de vue est calculée en continu au moyen d'algorithmes d'intégration numérique connus en soi (par exemple l'algorithme prédicteur-correcteur de"Range Kutta"et l'algorithme prédicteur-correcteur"Adam") pour interpoler les points intermédiaires entre deux prises d'images.
Il est généralement nécessaire de prendre en compte deux facteurs dans les calculs de la cinématique dans un repère Euclidien. Ces deux facteurs sont, d'une part, la rotondité de la terre et, d'autre part, la vitesse de rotation de celle-ci.
<Desc/Clms Page number 21>
Afin de compenser les erreurs dues à la rotondité de la terre, il est courant d'utiliser une correction par gyromètres, ce pour tenir compte de la courbure terrestre lors des translations, notamment si elles sont de grande amplitude.
Afin de compenser la dérive due à l'accélération de la terre, il est nécessaire d'intégrer des données de latitude et de vitesse pour que l'appareil décrémente automatiquement les valeurs ajoutées par l'accélération dite de Coriolis. Pour ce faire, on intègre la latitude et la vitesse automatiquement par en faisant appel au module"GPS".
Il est également connu que les valeurs issues de gyromètres dérivent, notamment dans le temps, en température et en fonction du champ magnétique. Il est généralement nécessaire d'effectuer des calibrages, à la fois statique et dynamique des gyromètres
Il est aussi connu que les valeurs issues d'accéléromètres dérivent, notamment selon une oscillation d'environ 84 minutes environ, appelée aussi loi de "Schuler", et à cause de l'accélération de Coriolis (effet dit de"Foucault") qui dépend de la latitude et de la vitesse du mobile.
Pour corriger ces dérives, on utilisera avantageusement des gyromètres de très haute précision coopérant avec des capteurs gravitationnels. Des dispositifs de ce type sont à même de déterminer l'axe de rotation de la terre et donc de déterminer la direction du nord géographique et la direction du centre de gravité terrestre. Par ce biais, il est possible de recaler automatiquement des capteurs de type inertiel.
Afin de compenser la dérive de "Schuler" précitée, on procède à une mesure des accéléromètres pendant une période supérieure à 84 minutes. Ce temps d'initialisation permet de connaître les caractéristiques de la période de "Schuler"pour chaque accéléromètre du trièdre 35. À partir de ces caractéristiques, avec une synchronisation par une horloge électronique, on décrémente la valeur de la période à tout instant des résultats donnés par les accéléromètres.
Pour compenser les erreurs dues aux lois de"Schuler"et de"Coriolis" on utilise une modélisation prédictive basée sur les filtres de"Kalman".
<Desc/Clms Page number 22>
Pour compenser des dérives dues à une centrale inertielle, un recalage sur une borne qui sert de point de référence est effectué au bout d'un laps de temps prédéterminé. Pour ce faire, on utilise la borne d'initialisation 6 (figure 2D) disposée dans le champ de mesure à un endroit prédéterminé. La partie supérieure 61 de la borne 6 est enfilée sur la poignée 31 du boîtier 3, la partie supérieure 61 étant insérée dans l'enceinte 310. L'écart des mesures par rapport au point de référence déterminé par la position de la borne 6 est relevé.
Cet écart est réparti sur les différentes mesures antérieures afin de pratiquer une compensation de l'erreur de mesure.
Il est effectué des mesures sur les gyromètres 35 et les accéléromètres 36 dans différentes conditions. Ces mesures sont entrées dans un logiciel (tournant dans le micro-ordinateur 422 : figure 2C) dont la fonction est de modéliser le comportement des gyromètres 35. Les erreurs sont compensées en temps réel en tenant compte du modèle.
Les acquisitions menées avec les capteurs annexes (mesures du flux magnétique terrestre fournies par les magnétomètres, mesures fournies par le "GPS"38, mesures fournies par les inclinomètres) permettent, en temps réel ou différé, de corréler les informations de trajectoire.
Dans un mode de réalisation préféré, le système est capable de s'interfacer a des systèmes de positionnement annexes, notamment : - Prise en compte d'informations provenant d'odomètres si l'appareil est utilisé sur un véhicule qui en est équipé.
- Prise en compte d'informations fournies par un laser rotatif : on installe par exemple trois cibles optiques de référence (non représentées) autour de la zone à modéliser. Le laser les identifie plusieurs fois par seconde. Il détermine ainsi sa position. La mesure est précise sur des zones de plusieurs dizaines de mètres. Cela permet de corriger les mesures de la centrale inertielle.
- Adjonction d'un système de localisation par trièdre générant un champ électromagnétique ou électrostatique.
- Localisation de l'appareil de prise de vues par traitement d'image
<Desc/Clms Page number 23>
Toutes les méthodes visant à apporter des informations supplémentaires pour aider à la localisation des images peuvent se combiner. En effet, les redondances d'informations sont très avantageuses pour multiplier les informations et permettre ainsi des corrélations.
Pour bénéficier avantageusement des redondances, on peut utiliser des algorithmes connus en soi de"descente du gradient" ou de programmation quadratique (par exemple du type"Karmakar","More et Toraldo","modèles de Markhov", etc. ) qui donnent la valeur quasi-certaine des paramètres recherchés, ce malgré des erreurs de mesures. Ces algorithmes permettent en outre d'éliminer des valeurs aberrantes et de reconstituer des valeurs manquantes.
Ces principes sont connus en soi et explicités notamment dans : "Numerical Recipes in C++ : (January 15,2002) The Art of Scientific Computing" par William H. Press (Editeur), Saul A. Teukolsky (Editeur), Brian P. Flannert (Editeur) et William T. Vetterling.
La quatrième étape 704 consiste en une optimisation de la prise d'images. Comme le suggère le diagramme de la figure 3, cette étape est itérative (retour à l'étape 702).
Cette étape permet de corriger en temps réel les paramètres de vitesses de scrutation, de lumière et de tremblement du boîtier 3, ce afin de réduire au maximum l'ouverture du diaphragme de l'objectif 32a-32b. Il est connu que plus le diaphragme d'un objectif est étroit plus la profondeur de champ augmente. Chaque objectif a un optimum de netteté pour une ouverture donnée. Il est donc nécessaire de contrôler la taille du diaphragme lors de la prise de vue autant que possible tout en permettant le passage de suffisamment de lumière pour l'éclairage de l'image.
Dans un mode de réalisation préféré, les optimisations suivantes sont opérées : - Optimisation de l'éclairage : l'intensité du projecteur de lumière 39a est automatiquement ajustée en fonction de la lumière ambiante.
- Optimisation de la vitesse de scrutation de la prise de vue : la vitesse de scrutation du capteur optique 32a-32b ("vitesse") de la prise de vue est
<Desc/Clms Page number 24>
optimisée en connaissant la vitesse angulaire apparente du sujet photographié. Pour connaître la vitesse angulaire apparente d'un sujet immobile, il est nécessaire de connaître la vitesse de rotation et de translation de l'objectif, ce qui est transmis par la centrale inertielle ; de connaître l'éloignement du sujet, ce qui est fourni, par exemple, par un télémètre (télémètre laser 34, télémètre ultrason, caméra stéréoscopique : utilisation des deux objectifs 32a et 32b) ; et de connaître la focale. La vitesse de scrutation dans le cas de capteur électronique de type"CCD"est optimisée afin que celle-ci soit la plus longue possible sans pourtant avoir une dégradation des détails de l'image par effet de"bougé".
Un problème qui accroît la difficulté de mesure de localisation est le tremblement du boîtier 3 de l'appareil lorsqu'il est tenu par la main M de l'opérateur OP. En effet, ce mode opératoire engendre du bruit dans les mesures. Des études ont démontré que ce tremblement portait en général sur une fréquence de l'ordre de 10 Hz, avec une amplitude limitée à quelques dixièmes de degrés. Les mesures en provenance des gyromètres 35 et des accéléromètres 36 permettent de quantifier le tremblement précité et de le compenser. La partie optique, notamment les objectifs 32a-32b (et éventuellement l'objectif infrarouge 33), est mécaniquement amortie pour palier à ces vibrations
La cinquième étape 705 consiste dans le stockage des données acquises.
Les images sont avantageusement caractérisées par les paramètres associés suivant : - configuration physique du système ; - horodatage : heure précise de la prise de vue des images ; - localisation : six coordonnées de la position des images ; - cinématique : accélération, vitesse et trajectoire ; - focale : type de focale utilisée ou position du zoom ; - position du réglage de la distance de mise au point ; - distance principale ; vitesse de la prise de vue : temps d'exposition de chaque image ;
<Desc/Clms Page number 25>
ouverture de diaphragme lors de la prise de vue ; luminosité lors de la prise de vue en une ou plusieurs zones ; température ; estimation des erreurs de mesures des gyromètres 35 et des accéléromètres 36 ; - coordonnées du point principal PP (0, nO) ; et - fichiers sonores.
Ces données sont intégrées dans une base de données et enregistrées dans les moyens de stockage prévus dans le boîtier de servitudes 4 (figure 2C) : disques 423.
La sixième étape 706 consiste dans le traitement des images par le système de traitement de données numériques à programme enregistré, c'est- à-dire par le micro-ordinateur 422 (figure 2C).
Ce traitement a pour but d'éliminer les informations d'images erronées ou inutiles, ce qui permet de faciliter et d'accélérer le processus de modélisation.
L'étape 706 se subdivise à son tour en sous-étapes comme suit : - Compensation des aberrations de lentilles : les images sont corrigées au moyen des tables de correction des lentilles obtenues à l'étape 701 par traitement informatique (corrections suivantes : Aberration chromatique, Aberration sphérique, coma, Astigmatisme, Courbure de champ, Distorsion...).
Comme il a été indiqué, cette table peut-être réinitialisé dans le fichier de configuration.
- Extraction des images inutiles : si les distances de profondeurs de champs n'ont pas été respectées en cas de réglage fixe de l'objectif (hyperfocale), le sujet étant alors flou et inexploitable ; si l'utilisateur enregistre des plans n'ayant rien à voir avec la scène à modéliser ; s'il y a effet de contrejour ; etc.
- Filtrage des sujets ayant un mouvement propre. Lors d'une prise de vue, les éléments mobiles engendrent des mesures parasites. Par traitement d'image, en utilisant la méthode dite de"tracking", un logiciel est à même de comprendre que la trajectoire apparente des points suivis sur un sujet
<Desc/Clms Page number 26>
mobile est incohérente avec la trajectoire apparente du décor et de la caméra.
On choisit d'éliminer les informations et les mesures portant sur le sujet mobile.
- Circonscription à la zone à modéliser : il est souvent inutile de modéliser tout l'espace. A l'aide d'un pointeur, on sélectionne, à partir de plusieurs point de vues, les zones que l'on souhaite traiter.
- Hiérarchisation de l'information : des zones de niveau d'importance sont définies sur le sujet à modéliser à partir de plusieurs prise de vues significatives. Les zones peu importantes sont traitées plus rapidement (moins de traitements de redondances). Le poids du modèle final en est d'autant allégé.
La septième étape 707 consiste en l'amélioration des mesures de localisation de la prise de vue par traitement d'image.
La localisation de la position du boîtier 3 par traitement d'image sert essentiellement à corroborer et à compenser les dérives des mesures des gyromètres 35 et des accéléromètres 36. Les sur-contraintes de données de localisation sont gérées à l'aide d'algorithmes connus en soi de"descente du gradient"ou de programmation quadratique déjà rappelés, qui donnent la valeur quasi-certaine des paramètres recherchés malgré des erreurs de mesures. Ces algorithmes permettent en outre d'éliminer des valeurs aberrantes et de reconstituer des valeurs manquantes.
En règle générale les erreurs de localisation générées par une centrale inertielle sont variables en fonction du temps : plus le laps de temps est grand depuis l'initialisation des capteurs, plus l'erreur de mesure devient importante.
Les mesures les plus proches du moment d'initialisation sont donc les plus précises. D'après ce constat, il est estimé que la modélisation 3D faite à partir des premières images prises depuis l'initialisation des capteurs est la plus précise, cette modélisation peut donc servir avantageusement de référence pour le reste du traitement à venir. Si lors du balayage d'une zone à modéliser par le sous-système 2, on est amené à recouper des mesures faites aux premiers instants, ce sont ses premières mesures qui doivent prévaloir. Les différences de mesures constatées permettent de compenser partiellement les erreurs de trajectoire due au temps. En cas de modélisation en temps réel, le
<Desc/Clms Page number 27>
sous-système 2, recale dynamiquement la centrale inertielle en fonction de la différence des mesures.
On peut encore affiner la précision de la localisation des prises de vue en sélectionnant des points repères sur les images acquises. On appelle "points repères"des points remarquables du sujet à modéliser qui sont identifiés sur un maximum de clichés. L'analyse de ces points remarquables permet de donner des indications sur la position des prises de vues.
On utilise un procédé de suivi bien connu en soi de type logiciel, dit de "tracking", pour retrouver les points remarquables dans une succession d'images, car les images sont prises à partir d'une vidéo ou d'une séquence d'images où les prises de vues se succèdent. Il est connu que ce procédé fasse actuellement l'objet d'études et de réalisations industrielles, néanmoins sa fiabilité est souvent mise en cause dans des cas difficiles, notamment quand les points remarquables précités ne sont pas suffisamment différents des points voisins. Grâce au procédé de l'invention, ce procédé est rendu nettement plus facile et plus fiable par le fait que l'on connaît déjà, avec une certaine précision, les caractéristiques de l'image (coordonnées du plan image...). par les moyens physique de localisations déjà décrits. Il s'ensuit que le logiciel n'effectue sa "recherche"que dans une région de l'image bien définie.
Cette méthode de"tracking"permet l'aide à la localisation des images : - Elle permet le traitement automatique d'un grand nombre de points de référence : plus grand est ce nombre de points, meilleur est l'affinement obtenu.
Afin de permettre une analyse affinée de la trajectoire, on utilise le télémètre laser 38 pour mesurer la distance séparant le boîtier 3 d'un point d'un objet à modéliser. Ce point dont on connaît désormais la distance dans l'espace est pris automatiquement comme point remarquable. Il est alors suivi par"tracking". L'analyse des courbes dans le temps des positions des points de référence permet de connaître précisément la cinématique des points de référence par rapport au boîtier 3. Si la modélisation porte sur un espace immobile, il devient très aisé de connaître la cinématique du boîtier 3 lui-même.
<Desc/Clms Page number 28>
Il est possible par ce biais de corriger les mesures fournies par les gyromètres 35 et les accéléromètres 36.
Une solution robuste pour obtenir des points de références sur des images est d'installer des cibles optiques (non représentées) autour du sujet à modéliser. Ces cibles sont équipées avantageusement de diodes électroluminescentes. De façon avantageusement également, on prévoit que chacune des diodes électroluminescentes émette sur une longueur d'onde distinctes (couleur) et que ces diodes émettent des chacune un code (mot) différent. Leurs positions sur les images acquises sont reconnues automatiquement.
La huitième étape 708 consiste en un traitement de détourage.
Diverses opérations de détourage peuvent être entreprises, seules ou en combinaison :
L'étape de détourage permet de consolider les mesures de localisations des points faisant partie des contours des sujets. Pour ce faire, la caméra infrarouge 33 est utilisée avantageusement. Les images provenant de la caméra infrarouge 33 perçoivent seulement le spectre des corps qui émettent de la chaleur. En situation normale la camera infrarouge 33 détecte plus clairement un sujet proche (source de chaleur proche) qu'un sujet éloigné (source de chaleur éloignée). Il est donc possible d'extrapoler les différences de profondeur de champ entre les sujets.
L'utilisation d'une caméra stéréoscopique, 32a-32b, permet de déterminer des différences de profondeurs de champs et ainsi permet un meilleur détourage automatique.
Le balayage ou la"scannérisation"du télémètre laser 34 permet de connaître les différences de profondeur de champs des différents sujets de la scène.
- Un détourage par traitement d'image peut également être réalisé.
Généralement, le contour d'un même sujet est de couleur plus ou moins uniforme. Partant de ce constat, les pixels des images situes au niveau des contours des objets sont détectés et les pixels dont les couleurs sont proches de la couleur du contour de l'objet sont filtrés.
<Desc/Clms Page number 29>
- Un traitement manuel peut aussi être réalisé. Les contours des sujets à détourer sont tracés à partir de prise de vues bien différenciées. Le traçage des contours peut s'effectuer pixel par pixel ou par courbes dites de"Bezier" ou similaires. Les points des contours sont alors considérés comme des points remarquables dont la trajectoire est suivie par la méthode connue en soi dite de"tracking vidéo".
La neuvième étape 709 consiste en la modélisation 3D proprement dite.
Le but principal du système selon l'invention est en effet de fournir des informations (images et mesures) précises et corroborés permettant une modélisation d'un sujet (au sens le plus large du terme, comme il a été indiqué) essentiellement par la technique de photogrammétrie. Cette étape est réalisée de manière informatique en ayant recourt à des logiciels dit de corrélation photographique ou"PIAO" (pour"Photo Interprétation assistée par Ordinateur").
La figure 4 illustre schématiquement les principales opérations permettant d'obtenir une modélisation en 3D d'un sujet donné, en l'occurrence une pièce de mécanique 8.
Il est nécessaire de prendre au moins deux photos sous des angles distincts pour modéliser cette pièce mécanique 8 en 3D : modèle 8m, dans un espace de référence défini par un trièdre orthonormé XYZ. Sur la figure 4, les deux positions prises par le premier sous-système, c'est-à-dire le boîtier, sont référencées 2'-3'et 2"-3", respectivement. On obtient deux photos en deux dimensions, PH et PH'respectivement, à partir desquelles, le modèle 8m en 3D va pouvoir être construit.
Sur la figure 4, pour fixer les idées, on a représenté quatre points du sujet 8, a à d, qui se retrouvent sur les photos PH : points de coordonnées (deux dimensions) a' (x1, y1), b' (x2, y2), c' (x3, y3) et cf (x4, y4) ; et PH' : points de coordonnées (deux dimensions) a' (x2, y2), b' (x4, y4), c' (x1, y1) et cf (x3, y3).
Les quatre points, une fois combinés se retrouvent sur le modèle 8m : points de coordonnées (3D) a (x2, y2, Z2), b' (x4, y4, Z4), c' (x1, y1, Z1) et cf (x3, y3, Z3).
<Desc/Clms Page number 30>
La modélisation est basée essentiellement sur la technique de photogrammétrie qui a été décrite en regard de la figure 1.
Les informations fournies sont essentiellement les photographies PH et PH'corrigées du sujet 8 caractérisés par neuf paramètres permettant les projections centrales, à savoir : - localisation : les six coordonnées de la position des images ; - distance principale c ; et - position du point principal PP (0, nO).
Toutes les méthodes visant à apporter des informations supplémentaires pour aider à la modélisation des sujets peuvent se combiner à profit. En effet, les redondances d'informations sont très avantageuses pour multiplier les informations et permettre ainsi des corrélations. La modélisation est notamment améliorée par :
Des points remarquables dont les mesures de positions sont vérifiées et consolidées.
Un grand nombre d'images caractérisées. Les localisations des points du modèle sont calculées plusieurs fois par différents biais. La précision des points du modèle (méthode des moindres carré, Gauss, régulation statistique, etc. ) est améliorée par des méthodes statistiques. On pourra se référer avec profit au livre de J. C. Culioli, intitulé :"Introduction à l'optimisation", 1994,"Editions Marketing", collection"Ellipses", Paris.
Des mesures obtenues par le procédé de détourage de sujet.
Des données établies par balayage ("scannérisation") à l'aide de télémètres (à faisceau laser ou à ultrasons). Ces données s'avèrent très utiles notamment pour la mesure de sujets translucides ou de plans offrant peu de contrastes de couleurs.
- Par l'analyse de projections de lumière sur le sujet.
Par des algorithmes dits de"datamining"ou d'intelligence artificielle qui permettent de souligner des incohérences de mesures et de compléter des mesures manquantes.
<Desc/Clms Page number 31>
Cette étape 709 termine le processus proprement dit de modélisation en 3D en faisant appel au système selon l'invention. Cependant, le modèle obtenu permet des opérations et résultats supplémentaires.
La modélisation à partir d'images permet en outre de créer des "orthophotographies", comme représenté à l'étape 709a.
La technique"d'orthophotographie"permet de redresser une image ou une photographie suivant le relief de l'objet qu'elle représente à partir d'un modèle mathématique de cet objet.
Certains outils de traitement d'image bien connus en soi permettent de redresser la photographie numérique d'un objet plan. Ce type de redressement génère une projection orthogonale dont l'échelle est constante sur un seul plan.
Lorsque l'objet n'est pas rigoureusement plan, un tel redressement occasionne une perte importante de précision, voire des déformations. Le procédé "orthophotographique"permet de redresser une photographie, à partir du modèle spatial, c'est-à-dire de passer d'une perspective conique à une projection orthogonale, à une échelle définie. On utilise la technique connue du redressement différentiel.
Il est également possible de transformer le modèle 3D obtenu à l'étape 709, modèle généralement complexe, en primitives plus simples
Pour de nombreuses applications, il est en effet utile de décomposer le modèle 3D en primitives simples : un plan, une sphère, un cylindre, un tore, un cône, etc.
Cette étape, référencée 709b, permet d'obtenir des modèles peu volumineux en terme de mémoire de stockage et qui présentent les avantages supplémentaires suivants : - possibilité d'obtenir un rendu 3D très rapide ; - possibilité de tracer des plans en"CAO" ("Conception Aidée par
Ordinateur") à partir de sujets réels ; et - grande facilité à gérer l'univers 3D en règle générale
Il peut être également utile, notamment en vue d'exportation des données obtenues vers différents logiciels, d'effectuer une mise à un format standard de la modélisation 3D. Cette étape est référencée 709c.
<Desc/Clms Page number 32>
De façon avantageuse, une fois le sujet modélisé en 3D, le logiciel ayant servi à la modélisation permet l'export de ce modèle dans divers formats normalisés de dessin 3D, selon des techniques bien connues en soi.
Ces modèles sont exploitables dans des applications utilisant des
Figure img00320001

représentations tridimensionnelles, et notamment : -"Conception Aidée par Ordinateur" ("CAO") ; - jeux vidéo ; et -"Réalité Virtuelle"et"Multimédia".
De façon intéressante également, un modèle en 3D permet ce qui est appelé"une navigation dans un univers 3D". Un tel procédé est représenté sur la partie gauche, référencée 71, de l'organigramme de la figure 3.
La première étape, référencée 710, est l'acquisition d'un modèle 3D.
Il s'agit d'un procédé autonome en soi, car il est possible de partir d'un modèle 3D obtenu par un système et un procédé différents de ceux de l'invention, modèle que l'on appellera arbitrairement "externe". Dans le cadre de l'invention, le modèle en 3D est obtenu par la mise en oeuvre du système de l'invention (modèle que l'on appellera arbitrairement"interne"), et conformément à toutes ou parties des étapes de modélisation d'un sujet qui viennent d'être décrites : partie droite 70 de l'organigramme 7. Il est clair également que des modèles"externes"et"internes"pourront être combinés pour obtenir des modèles "mixtes" comme montré ci-après.
La deuxième étape, référencée 711, est constituée par la navigation proprement dite dans un univers tridimensionnel.
Pour visionner une image 3D à partir d'un modèle déjà établi, il faut en premier lieu définir le plan de la prise de vue de l'image dans le repère du modèle tridimensionnel. Pour définir ce plan, il faut déterminer la position du point d'origine de la prise de vue ainsi que la focale. Un logiciel de rendu 3D calcule ensuite tous les points de l'image.
Le système et le procédé selon l'invention permettent la détermination de la position du point d'origine de la prise de vue au moyen des capteurs de positionnement, notamment 35 et 36 (figure 2A) et du traitement des données 4 (figures 2B et 2C). Le traitement est similaire à celui de l'étape 703 : traitement
<Desc/Clms Page number 33>
des données inertielles. De ce fait, l'étape 703 a été représentée commune aux deux procédés.
Un processeur muni d'un logiciel de rendu 3D calcule en temps réel chaque image. Il peut s'agir du système traitement de données numériques à programme enregistré 402 (figure 2C). Un écran solidaire ou non du système projette les images calculées, par exemple l'écran de visualisation 404 (figure 2C).
Ce processus permet notamment : - de donner à un utilisateur la possibilité de se déplacer à vue dans l'univers 3D du modèle : chaque déplacement ou inclinaison de prise de vue est dynamiquement pris en compte par un traitement de rendu d'image 3D ; - de se déplacer à vue dans l'univers 3D du modèle dans un lieu autre que dans l'espace où s'est effectuée la modélisation ; et/ou - de se déplacer à vue dans tout modèle 3D compatible créé par d'autres applications de modélisation.
Il est également possible de modifier le modèle 3D pendant la navigation comme représenté à l'étape référencée 712 et éventuellement de le mettre à un format standard comme précédemment (étape 709c).
Le fait de pouvoir naviguer dans l'espace qui vient d'être modéliser permet en effet et notamment : - de Vérifier la qualité de la modélisation : après avoir effectué l'étape de modélisation 709, l'opérateur OP (figure 2B) peut immédiatement se rendre compte des erreurs en superposant l'image de rendu 3D (visualisée sur l'écran 404 (figure 2C) avec le sujet (décor, etc.) réel ; - d'effectuer conditionnellement une nouvelle modélisation s'il existe des endroits mal définis ; et/ou - de caler avec précision le modèle 3D avec le sujet réel grâce à des outils logiciels adaptés : cela permet de corriger les éventuelles erreurs de localisation lors de l'étape de la modélisation 709 ; - de modifier, in situ ou non, le modèle 3D pour l'étirer, le simplifier, le lisser, l'extruder, etc., à l'aide de nombreux outils logiciels connus en soi ;
<Desc/Clms Page number 34>
de segmenter différentes parties du modèle : un des problèmes traditionnels de la modélisation 3D automatique est de pouvoir différencier des éléments qui constituent le sujet (décor, etc. ) et notamment de pouvoir permettre à un opérateur de différencier des éléments qu'il juge nécessaire avec un système de pointage (par exemple dans le cas d'une modélisation d'une pièce d'appartement, il peut être judicieux de différencier les principaux meubles ainsi que les portes et fenêtres qui la composent) ; et/ou - de vérifier la cohérence si le modèle 3D est transformé en primitives (étape 709b).
Le système et le procédé selon l'invention trouvent application dans de nombreux domaines et parmi ceux-ci domaines énumérés ci-après de façon non exhaustive.
Elle trouve une première application en architecture d'intérieur, en particulier pour un architecte d'intérieur qui doit procéder à des travaux de rénovations.
Généralement, il doit successivement : mesurer les dimensions de l'espace à rénover, faire des photographies, intégrer les mesures et travailler aux modifications sur un logiciel de"CAO", et enfin présenter au client le résultat de son travail sous forme d'un plan et d'une image de synthèse.
De façon typique, conformément au procédé de l'invention et en mettant en oeuvre le système décrit en regard des figures 2A à 4, l'architecte pose une petite borne de recalage (similaire à la borne 610 du dispositif 6 : figure 2D) qui sert de point de point de référence et d'initialisation de la centrale inertielle : pose du boîtier 3 (figure 2A) par sa poignée 31-310 (figure 2A) sur la borne 610 (figure 2D). À l'aide du sous-système 2 (figure 2A), c'est-à-dire du boîtier 3 qu'il tient à la main M (figures 2A et 2B), il balaye le champ visuel de l'espace autour de lui.
Il exécute alors les étapes 701 à 709 de l'organigramme 7, au moins les étapes absolument nécessaires pour l'obtention d'une modélisation de l'espace, de façon préférentielle toutes les étapes.
<Desc/Clms Page number 35>
Une fois la modélisation 3D complète obtenue, l'architecte l'enregistre en un format 3D standard du marché (étape 712). L'architecte peut alors travailler sur un logiciel de"CAO"de son choix.
Le procédé selon l'invention permet notamment une sérieuse économie de temps car l'architecte, à l'issue du processus de modélisation 3D : - possède toutes les photographies dont il peut avoir besoin - possède automatiquement toutes les mesures de l'espace sur lequel il doit travailler ; et peut travailler sur un logiciel 3D directement sur un espace déjà modélisé qu'il lui suffit de modifier (étape 712 par exemple) ;
En général, dans l'art connu, un architecte présente le résultat de son travail sous forme de plans, d'isométries, d'images de synthèse. L'invention permet une nouvelle forme de présentation.
En effet, un client en se déplaçant dans un espace physique (décor réel), tout en regardant un écran de visualisation, par exemple l'écran 404 (figure 2C), se déplace simultanément de manière virtuelle dans un espace également virtuel, représentant le nouveau décor, modifié ou non par l'architecte sur le site même ou à distance de celui-ci.
L'invention s'applique aussi à l'archéologie : les archéologues doivent effectuer des mesures soigneuses sur des zones de recherches ou des fouilles, ce sans risque de détérioration de la zone à analyser.
Le système et le procédé selon l'invention répondent à ce besoin, car ils permettent d'effectuer des mesures rapides et sans contact de la zone de recherche. En outre, le corps des archéologues a souvent besoin de modéliser en 3D le champ de leurs investigations. Le système et le procédé selon l'invention permettent d'effectuer une modélisation automatique des lieux voulus. Le corps des archéologues a également souvent besoin d'orthophotographie, ce que permet aussi l'invention (étape 710). Les archéologues ont enfin besoin d'outil permettant de visionner la zone de fouilles sans avoir de risque de dégradations du site : le système et le procédé selon l'invention permettent de se déplacer et visiter virtuellement une zone de recherche qui a été modélisé au préalable.
<Desc/Clms Page number 36>
Une autre application concerne les géomètres : le système et le procédé selon l'invention permettent aux géomètres de procéder notamment aux mesures de courbes de niveaux d'un terrain accidenté avec un gain de temps très appréciable.
De nombreux autres domaines d'applications, que l'on pourra qualifier de généraux, sont aussi concernés par l'invention et parmi ceux-ci : - contrôle d'ouvrages d'art ; - cubatures dans les mines et carrières ; - industrie automobile (carrosserie) ; - hydraulique (ondes, mouvements de l'eau, etc.) ; - constats d'accidents, notamment routiers ; - établissements de plan CAO ; - contrôle qualité ; - usinage de façon générale ; - établissements de côtes ; - relevés architecturaux ; et - relevés archéologiques.
A la lecture de ce qui précède, on constate aisément que l'invention atteint bien les buts qu'elle s'est fixés.
Le système et le procédé selon l'invention présentent en effet de nombreux avantages, qui ont été énumérées dans le préambule de la présente description.
Sans énumérer de nouveau tous ces avantages, le système notamment est simple de mise en oeuvre et, de ce fait, il n'est pas nécessaire qu'il soit manipulé par un expert. Il est portable et, par sa conception, peut être manipulé à la main, du moins en ce qui concerne le premier sous-système, très léger, qui assure l'acquisition des images et des données nécessaires à la modélisation 3D, les composants plus lourds pouvant être placés dans le second sous-système, ce dernier pouvant être porté à l'aide d'un sac à dos ou similaire, voire posé par terre si seuls des déplacements d'amplitude limités sont à envisager. On peut prévoir un câble de liaisons entre les deux sous-
<Desc/Clms Page number 37>
systèmes relativement long. Il ne nécessite pas non plus d'arrangements ou la mise en oeuvre de composants très coûteux.
Ces dispositions ne nuisent cependant pas à la qualité des mesures effectuées et du modèle en 3D obtenu, comme il a été montré.
Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisations explicitement décrits, notamment en relation avec les figures 2A à 4.
En particulier, le dispositif de mesure générant les signaux d'assiette, de localisation et de vitesse du boîtier intégrant le dispositif optique de prise de vue est réalisé à base de gyromètres et d'accéléromètres dans un mode de réalisation préféré. Cependant, pour certaines applications, notamment lorsque le sujet à modéliser est étendu (paysage, etc.), les signaux de mesure de localisation et de vitesse générés par un dispositif"GPS"peuvent présenter une précision suffisante. Dans un mode de réalisation non décrit, on peut donc associer un dispositif"GPS"à un ou plusieurs inclinomètres pour acquérir tous les signaux de mesure d'assiette, de localisation et de vitesse, nécessaire pour générer un modèle 3D en les combinant aux signaux associés à l'acquisition d'images numériques.
Dans un autre mode de réalisation non décrit, on peut également remplacer le dispositif"GPS"par un système à base de balises disposées en des endroits déterminés de coordonnées connues par rapport à la scène à modéliser et qui émettent un champ magnétique codé de façon appropriée. Ce champ magnétique et le code associé sont détectés par au moins un capteur supporté par le boîtier. Les signaux nécessaires à la localisation du boîtier seront dérivés des signaux captés. La précision de localisation pour les systèmes commerciaux couramment disponibles est de l'ordre de 1 cm et d'un dixième de degré, ce pour une distance inférieure à 20 m.

Claims (20)

  1. REVENDICATIONS 1. Système de modélisation et de restitution tridimensionnelle d'un sujet d'une scène déterminée dans un espace à trois dimensions, caractérisé en ce qu'il comprend : - un premier sous-système (2) comprenant, disposés dans un boîtier unique (3) portable par un opérateur (OP), au moins un capteur d'images (32a), pour l'acquisition d'images numériques dudit sujet (8), coopérant avec des première (35) et seconde (36) séries de moyens générant des signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images (32a) par rapport à trois axes (XYZ) d'un référentiel spatial à trois dimensions, lesdites première (35) et seconde (36) séries de moyens de mesure comprenant chacune des dispositifs générant chacun des mesures suivant un desdits axes (XYZ) dudit référentiel ; - un deuxième sous-système (4) comprenant au moins des moyens de traitement de données numériques (422) recevant des signaux de données caractérisant lesdites images numériques acquises et lesdits signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images (32a) dans ledit référentiel et générant, à partir desdits signaux de données d'images numériques acquises et desdits signaux de localisation et de déplacement, un modèle en trois dimensions (8m) dudit sujet (8) ; et - des moyens de liaison (5) entre lesdits premier (2) et deuxième (4) sous- système véhiculant au moins lesdits signaux de données d'images numériques acquises et desdits signaux de localisation et de déplacement.
  2. 2. Système selon la revendication 1, caractérisé en ce que ledit capteur d'images comprend au moins une caméra (32a) comprenant un dispositif semi-conducteur à couplage de charges sensible à la lumière polychromatique et des objectifs de différentes focales interchangeables.
    <Desc/Clms Page number 39>
  3. 3. Système selon la revendication 1, caractérisé en ce que ladite première série desdits moyens de mesure est constituée par un trièdre de trois gyromètres (35), chacun étant aligné sur l'un desdits axes (XYZ) dudit référentiel.
  4. 4. Système selon la revendication 1, caractérisé en ce que ladite seconde série de moyens de mesure est constituée par un trièdre de trois accéléromètres (36), chacun étant aligné sur l'un desdits axes (XYZ) dudit référentiel.
  5. 5. Système selon la revendication 1, caractérisé en ce que lesdits moyens de mesure générant des signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images (32a) par rapport au dit référentiel (XYZ) comprennent des moyens de localisation par signaux électromagnétiques émis par des satellites terrestre du type dit"GPS" (38) générant des signaux de localisation desdites images numériques acquises.
  6. 6. Système selon la revendication 1, caractérisé en ce que lesdits moyens de mesure générant des signaux de mesure d'assiette, de localisation et de déplacement dudit capteur d'images (32a) par rapport au dit référentiel (XYZ) comprennent au moins un capteur magnétique sensible à des signaux codés émis par des balises magnétiques disposées en des endroits déterminés de coordonnées connues par rapport au dit référentiel (XYZ).
  7. 7. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-système (2) comprend au moins un inclinomètre générant des signaux destinés à être corrélés avec au moins les signaux de localisation générés par lesdits moyens de mesure (35-36).
  8. 8. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-système (2) comprend au moins un magnétomètre, mono ou multiflux, générant des signaux destinés à être
    <Desc/Clms Page number 40>
    corrélés avec au moins les signaux de localisation générés par que lesdits moyens de mesure (35-36).
  9. 9. Système selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est prévu un troisième sous-système comprenant au moins un dispositif d'initialisation de coordonnées (6) comportant un support (61-610), ledit dispositif (6) étant disposé à un endroit déterminé de ladite scène, de coordonnées connues par rapport au dit référentiel (XYZ), et en ce que ledit boîtier (3) de transport dudit premier sous-système (2) comporte une borne (310) dite d'initialisation destinée à être accouplée temporairement au dit support (61-610) de manière à recaler lesdits moyens de mesure (35-36) générant lesdits signaux de mesure d'assiette, de localisation et de déplacement sur lesdites coordonnées d'initialisation.
  10. 10. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-système (2) comprend en outre un deuxième capteur d'images (32b), identique au dit premier capteur d'images (32a) et asservi à celui-ci sur un bras articulé, de manière à acquérir des premières et secondes séries d'images numériques dudit sujet (8) selon un procédé stéréoscopique et en ce que des signaux de données caractérisant lesdites premières et secondes séries d'images numériques acquises sont transmises aux dits moyens de traitement de données numériques (422) dudit deuxième sous-système (4) et utilisées pour faciliter des opérations dites de détourage d'images par détection de points de contours d'objets déterminés dans lesdites images.
  11. 11. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-système (2) comprend en outre une caméra infrarouge (33) pour l'acquisition d'images thermiques numériques dudit sujet (8) et en ce que des signaux de données caractérisant lesdites images thermiques numériques acquises sont transmis aux dits moyens de traitement de données numériques (422) dudit deuxième sous-système (4)
    <Desc/Clms Page number 41>
    et utilisées pour faciliter des opérations dites de détourage d'images par détection de points de contours d'objets déterminés dans lesdites images.
  12. 12. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-système (2) comprend en outre une source de rayonnement laser (34).
    51), et en ce que desdits moyens de traitement de données numériques comprennent au moins un micro-ordinateur (422) coopérant avec au moins des moyens de stockages (423) desdits signaux reçus dudit premier sous- système (2) et de programmes enregistrés de traitement déterminés, des organes d'interface et d'adaptation (428,427) desdits signaux reçus, des moyens de saisie et d'entrée de données (425,426) et des moyens de visualisation (424) de données traitées par ledit micro-ordinateur (422) et dudit modèle tridimensionnel (8m).
  13. 13. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit deuxième sous-système (4) est contenu dans un second boîtier (42) destiné à être placé dans un sac (40), de type sac à dos, pouvant être transporté par ledit opérateur, en ce qu'il comprend des moyens de génération d'énergie électrique (420,421) pour l'alimentation en énergie électrique desdits moyens de traitement de données numériques (422) et dudit premier sous-système (2), via lesdits moyens de liaison (5,
  14. 14. Procédé de modélisation et de restitution tridimensionnelle d'un sujet d'une scène déterminée dans un espace à trois dimensions mettant en oeuvre le système selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend au moins les étapes suivantes : - la prise d'au moins deux photographies pour l'acquisition (702) d'au moins deux images numériques (PH, PH') dudit sujet (8) par déplacement dans ledit espace dudit boîtier (3) comprenant au moins un capteur d'images (32a) et la génération de signaux correspondants, et au moins la génération par lesdits moyens de mesures (35-36) de deux séries de
    <Desc/Clms Page number 42>
    signaux caractérisant des données d'assiette, de localisation et de déplacement dudit boîtier (3) lors desdites prises de photographies ; - la transmission, via lesdits moyens de liaison (5), aux dits moyens de traitement de données numériques (422) associées aux dits signaux caractérisant lesdites images numériques et aux dits signaux caractérisant l'assiette, la position et le déplacement dudit boîtier (3) ; - le stockage (705) desdites données transmises dans desdits moyens de stockage (423) associés aux dits moyens de traitement de données numériques (422) ; et - le traitement (706) desdits signaux à l'aide de moyens logiciels déterminés sous la commande desdits moyens de traitement de données numériques (422), de manière à générer (709) un modèle tridimensionnel (8m) dudit sujet (8) à partir de la combinaison desdites données associées aux dits signaux caractérisant lesdites images numériques acquises et l'assiette, la position et le déplacement dudit boîtier (3) lors desdites prises de vue.
  15. 15. Procédé selon la revendication 14, caractérisé en ce qu'il comprend une étape supplémentaire réalisée après ladite étape de stockage (705) desdites données transmises consistant en une opération dite de détourage (708) à l'aide de moyens logiciels déterminés sous la commande dits moyens de traitement de données numériques (422), de manière à augmenter la précision de détermination de points caractérisant le contour d'objets déterminés contenus dans lesdites images acquises.
  16. 16. Procédé selon les revendications 14, caractérisé en ce qu'il comprend une étape supplémentaire (707) consistant au recalage desdits moyens de mesure (35,36) générant lesdits signaux de mesure d'assiette, de localisation et de déplacement par une opération de traitement logiciel déterminé de signaux d'images acquises lors de ladite étape d'acquisition (702), de manière à compenser des dérives desdits moyens de mesure (35,
    36).
    <Desc/Clms Page number 43>
  17. 17. Procédé selon les revendications 14, caractérisé en ce qu'il comprend une étape supplémentaire consistant à mesurer la vitesse angulaire dudit sujet de manière à acquérir des signaux d'ajustement de paramètres associés à ladite prise de photographies.
  18. 18. Procédé selon les revendications 14, caractérisé en ce qu'il comprend une étape supplémentaire (709a) consistant en la réalisation de photographies d'un type dit"orthophotographie"à partir de données associées aux dits modèles en trois dimensions obtenus générés par le dit traitement de données numériques (422).
  19. 19. Procédé selon les revendications 14, caractérisé en ce qu'il comprend une étape supplémentaire itérative (711) dite de navigation dans un univers tridimensionnel, à partir d'un modèle tridimensionnel, de manière à vérifier des paramètres déterminés dudit modèle et d'effectuer une modification conditionnelle (712) dudit modèle tridimensionnel en fonction du résultat desdites vérifications, par acquisition de nouveaux signaux d'images et de mesure d'assiette, de localisation et de déplacement.
  20. 20. Procédé selon les revendications 14, caractérisé en ce qu'il comprend une étape supplémentaire consistant en l'acquisition, lors desdites prises de photographies, de signaux de données redondants caractérisant lesdites images numériques et/ou lesdites mesures d'assiette, de localisation et de déplacement dudit boîtier (3), de manière à améliorer la précision de ces mesures par un traitement de signal déterminé.
FR0202246A 2002-02-21 2002-02-21 Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet Expired - Fee Related FR2836215B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0202246A FR2836215B1 (fr) 2002-02-21 2002-02-21 Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
US10/369,530 US7187401B2 (en) 2002-02-21 2003-02-21 System and a method of three-dimensional modeling and restitution of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0202246A FR2836215B1 (fr) 2002-02-21 2002-02-21 Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet

Publications (2)

Publication Number Publication Date
FR2836215A1 true FR2836215A1 (fr) 2003-08-22
FR2836215B1 FR2836215B1 (fr) 2004-11-05

Family

ID=27636415

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0202246A Expired - Fee Related FR2836215B1 (fr) 2002-02-21 2002-02-21 Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet

Country Status (2)

Country Link
US (1) US7187401B2 (fr)
FR (1) FR2836215B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2996014A1 (fr) * 2012-09-26 2014-03-28 Interactif Visuel Systeme I V S Procede d'aide a la determination de parametres de vision d'un sujet

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020180866A1 (en) * 2001-05-29 2002-12-05 Monroe David A. Modular sensor array
JP3989348B2 (ja) * 2002-09-27 2007-10-10 三洋電機株式会社 複数画像送信方法及び複数画像同時撮影機能付き携帯機器
FR2854301B1 (fr) * 2003-04-24 2005-10-28 Yodea Procede de transmission de donnees representant la position dans l'espace d'une camera video et systeme de mise en oeuvre du procede
EP1517116A1 (fr) * 2003-09-22 2005-03-23 Leica Geosystems AG Méthode et appareil pour la détermination de la position actuelle d'un instrument géodésique
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
WO2005119356A2 (fr) 2004-05-28 2005-12-15 Erik Jan Banning Systeme interactif de pointage direct et de controle de presentation facile a deployer et procede d'etalonnage correspondant
EP1607716A3 (fr) * 2004-06-18 2012-06-20 Topcon Corporation Appareil et procédé pour former un modèle, et appareil et procédé photographique
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US20060034491A1 (en) * 2004-08-16 2006-02-16 Manish Sharma System for visualising a surface structure
CN2765161Y (zh) * 2005-01-31 2006-03-15 广州飒特电力红外技术有限公司 可拆卸式顶置遥控手柄热像仪
US20060187322A1 (en) * 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
DE102005028490C5 (de) * 2005-06-20 2016-07-14 Sick Ag Kamerasystem
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
US7747564B2 (en) * 2006-06-22 2010-06-29 International Business Machines Corporation Comparative analysis of business intelligence data
JP4800163B2 (ja) 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
DE102006054324A1 (de) * 2006-11-17 2008-05-21 Robert Bosch Gmbh Verfahren zur bildbasierten Vermessung
US8335345B2 (en) * 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
KR100886340B1 (ko) * 2007-04-04 2009-03-03 삼성전자주식회사 이동 로봇의 자이로 센서를 캘리브레이션하는 장치 및 방법
US9858712B2 (en) * 2007-04-09 2018-01-02 Sam Stathis System and method capable of navigating and/or mapping any multi-dimensional space
CN103398656B (zh) * 2007-08-10 2016-08-10 莱卡地球***公开股份有限公司 用于在物体表面上进行非接触坐标测量的方法和勘测***
US8036452B2 (en) * 2007-08-10 2011-10-11 Leica Geosystems Ag Method and measurement system for contactless coordinate measurement on an object surface
US9020240B2 (en) 2007-08-10 2015-04-28 Leica Geosystems Ag Method and surveying system for noncontact coordinate measurement on an object surface
US8396284B2 (en) * 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US20100103104A1 (en) * 2008-10-29 2010-04-29 Electronics And Telecommunications Research Institute Apparatus for user interface based on wearable computing environment and method thereof
TWI389558B (zh) * 2009-05-14 2013-03-11 Univ Nat Central Method of determining the orientation and azimuth parameters of the remote control camera
TWI379224B (en) * 2009-06-30 2012-12-11 Cheng Uei Prec Ind Co Ltd Optical positing apparatus and positing method thereof
US8933960B2 (en) * 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
US8570358B2 (en) 2009-11-06 2013-10-29 Sony Corporation Automated wireless three-dimensional (3D) video conferencing via a tunerless television device
US8687046B2 (en) * 2009-11-06 2014-04-01 Sony Corporation Three-dimensional (3D) video for two-dimensional (2D) video messenger applications
EP2354893B1 (fr) * 2009-12-31 2018-10-24 Sony Interactive Entertainment Europe Limited Reduction de l'erreur d'estimation du mouvement basé sur des moyens inertiel d'un contrôleur d'entrée de jeu avec une estimation du mouvement basé sur des moyens d'images
US8896671B2 (en) 2010-04-09 2014-11-25 3D-4U, Inc. Apparatus and method for capturing images
US9466127B2 (en) 2010-09-30 2016-10-11 Apple Inc. Image alteration techniques
US9625258B2 (en) 2011-06-06 2017-04-18 3Shape A/S Dual-resolution 3D scanner
JP2013096934A (ja) * 2011-11-04 2013-05-20 Nec Corp 目標位置検出装置、該検出装置に用いられる目標位置検出方法及び目標位置検出プログラム
US20140210950A1 (en) * 2013-01-31 2014-07-31 Qualcomm Incorporated Systems and methods for multiview metrology
DE102013222570A1 (de) * 2013-11-06 2015-05-21 Dnv Gl Se Inspektionskameraeinheit, Verfahren zur Inspektion von Innenräumen sowie Sensoreinheit
EP3410064B1 (fr) * 2013-02-04 2023-08-09 Dnv Gl Se Unité de caméra d'inspection, procédé d'inspection des espaces intérieurs ainsi qu'unité de capteur
ITTO20130202A1 (it) * 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
EP2789971A1 (fr) * 2013-04-12 2014-10-15 p3d systems GmbH Procédé de calibrage d'un dispositif de détection et dispositif de détection
EP2806248B1 (fr) * 2013-04-12 2018-09-12 Leica Geosystems AG Procédé d'étalonnage d'un dispositif de détection et dispositif de détection
KR102078198B1 (ko) * 2013-06-04 2020-04-07 삼성전자주식회사 전자 장치 및 전자 장치의 3차원 모델링을 위한 촬영방법
DE102013009288B4 (de) * 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
KR101491324B1 (ko) * 2013-10-08 2015-02-06 현대자동차주식회사 차량용 영상 획득 장치
US9865061B2 (en) 2014-06-19 2018-01-09 Tata Consultancy Services Limited Constructing a 3D structure
EP3201562A4 (fr) 2014-09-29 2018-04-11 Sikorsky Aircraft Corporation Appareil pour détecter la corrosion dans un article
US10890444B2 (en) * 2015-05-15 2021-01-12 Tata Consultancy Services Limited System and method for estimating three-dimensional measurements of physical objects
WO2016204658A1 (fr) * 2015-06-15 2016-12-22 Арташес Валерьевич ИКОНОМОВ Accessoire optique pour téléphone portable de type smartphone
US20170078593A1 (en) * 2015-09-16 2017-03-16 Indoor Reality 3d spherical image system
EP3182157B1 (fr) * 2015-12-14 2020-04-15 Leica Geosystems AG Procédé de création d'un modèle spatial avec un dispositif de mesure de distance tenu à la main
US10397551B2 (en) * 2017-07-26 2019-08-27 Symbol Technologies, Llc Temperature compensation for image acquisition and processing apparatus and methods
CN108205373B (zh) * 2017-12-25 2021-08-13 北京致臻智造科技有限公司 一种交互方法及***
CN108895964B (zh) * 2018-07-09 2020-07-17 南京农业大学 一种基于Kinect自主标定的高通量温室植物表型测量***
CN111160470B (zh) * 2019-12-30 2024-01-23 四川慈石召铁科技有限公司 考古器物形态处理与分析方法、装置和计算机存储介质
DE102022105056A1 (de) * 2022-03-03 2023-09-07 Grandperspective GmbH Mobiler Gassensor und Verfahren zur Detektion und Abbildung von Gasemissionen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998010246A1 (fr) * 1996-09-06 1998-03-12 University Of Florida Gestionnaire de donnes geographiques numerique portatif et tenant dans la main

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
EP0660131A1 (fr) * 1993-12-23 1995-06-28 Karl Osen Système de guidage de caméra
US5568152A (en) * 1994-02-04 1996-10-22 Trimble Navigation Limited Integrated image transfer for remote target location
US5864481A (en) * 1996-01-22 1999-01-26 Raytheon Company Integrated, reconfigurable man-portable modular system
US6611664B2 (en) * 2000-06-26 2003-08-26 Kabushiki Kaisha Topcon Stereo image photographing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998010246A1 (fr) * 1996-09-06 1998-03-12 University Of Florida Gestionnaire de donnes geographiques numerique portatif et tenant dans la main

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2996014A1 (fr) * 2012-09-26 2014-03-28 Interactif Visuel Systeme I V S Procede d'aide a la determination de parametres de vision d'un sujet
WO2014048961A1 (fr) * 2012-09-26 2014-04-03 Interactif Visuel Systeme (I V S) Procédé d'aide à la détermination de paramètres de vision d'un sujet
US9928421B2 (en) 2012-09-26 2018-03-27 Interactif Visuel Systeme (I V S) Method for helping determine the vision parameters of a subject

Also Published As

Publication number Publication date
US20030202089A1 (en) 2003-10-30
FR2836215B1 (fr) 2004-11-05
US7187401B2 (en) 2007-03-06

Similar Documents

Publication Publication Date Title
FR2836215A1 (fr) Systeme et procede de modelisation et de restitution tridimensionnelle d&#39;un objet
Luetzenburg et al. Evaluation of the Apple iPhone 12 Pro LiDAR for an application in geosciences
FR2854301A1 (fr) Procede de transmission de donnees representant la position dans l&#39;espace d&#39;une camera video et systeme de mise en oeuvre du procede
CA2275957C (fr) Procede d&#39;etalonnage de la position et de l&#39;orientation d&#39;origine d&#39;une ou plusieurs cameras mobiles
EP2923330B1 (fr) Procede de reconstruction 3d et de mosaïquage 3d panoramique d&#39;une scene
CA2592293C (fr) Procede de traitement d&#39;images mettant en oeuvre le georeferencement automatique d&#39;images issues d&#39;un couple d&#39;images pris dans le meme plan focal
EP1984696B1 (fr) Dispositif de capture de mouvement et procede associe
FR3034553A1 (fr) Procede de determination d&#39;une direction d&#39;un objet a partir d&#39;une image de l&#39;objet
EP0971319A2 (fr) Procédé de modélisation d un système de prise de vues et procédé et système de réalisation de combinaisons d images réelles et d images de synthèse
WO1998036321A1 (fr) Procede et dispositif de cartographie de sources de rayonnement
EP1168831B1 (fr) Procédé de calibration de caméra
Burkhard et al. Stereovision mobile mapping: System design and performance evaluation
CN107421503A (zh) 单探测器三线阵立体测绘成像方法及***
WO2014199085A1 (fr) Systemes de reperage de la position de la camera de tournage pour le tournage de films video
US6616347B1 (en) Camera with rotating optical displacement unit
FR2910648A1 (fr) Procede et dispositif de capture de donnees geometriques
EP0781396B1 (fr) Procede de correlation des mesures tridimensionnelles realisees par des systemes d&#39;acquisition d&#39;images et installation pour sa mise en oeuvre
CA2543150A1 (fr) Procede et dispositif de capture d&#39;une image grand champ et d&#39;une region d&#39;interet de celle-ci
FR2700847A1 (fr) Viseur d&#39;étoile à matrice de DTC, procédé de détection, et application au recalage d&#39;un engin spatial.
JP2018510390A (ja) 視差または方位取付の再調整方法
EP3018625B1 (fr) Procédé de calibration d&#39;un système de visée
EP2192501B1 (fr) Procédé d&#39;acquisition de données et procédé de construction d&#39;un produit multimédia de visite virtuelle
FR3064389A1 (fr) Dispositif de modelisation et de representation, et procede correspondant
Scheibe Design and test of algorithms for the evaluation of modern sensors in close-range photogrammetry
WO2019016473A1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet évoluant dans un environnement et un champ magnétique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17

PLFP Fee payment

Year of fee payment: 18

ST Notification of lapse

Effective date: 20201006