FR3142025A1 - Equipment layout in a georeferenced plan - Google Patents

Equipment layout in a georeferenced plan Download PDF

Info

Publication number
FR3142025A1
FR3142025A1 FR2211772A FR2211772A FR3142025A1 FR 3142025 A1 FR3142025 A1 FR 3142025A1 FR 2211772 A FR2211772 A FR 2211772A FR 2211772 A FR2211772 A FR 2211772A FR 3142025 A1 FR3142025 A1 FR 3142025A1
Authority
FR
France
Prior art keywords
equipment
acquired
images
contours
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2211772A
Other languages
French (fr)
Inventor
Alandji BOUORAKIMA
Christophe Gay
Quentin FRESNEL
Christophe BIRKLÉ
Raphael HAENEL
Quentin SEMLER
Edouard SEMIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Syslor
Enedis SA
Original Assignee
Syslor
Enedis SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Syslor, Enedis SA filed Critical Syslor
Priority to FR2211772A priority Critical patent/FR3142025A1/en
Publication of FR3142025A1 publication Critical patent/FR3142025A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • G06V30/2247Characters composed of bars, e.g. CMC-7
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

Procédé de détection d’un équipement d’un ouvrage construit lors d’une génération d’un plan géoréférencé de l’ouvrage construit et comprenant :a) une acquisition d’images géoréférencées d’une portion de l’équipement ;b) un traitement des images acquises comprenant :b1) une modélisation en trois dimensions de l’ouvrage construit par photogrammétrie,b2) un géoréférencement de l’ouvrage construit,b3) une segmentation des images acquises de sorte à obtenir au moins un contour de la portion de l’équipement, mise en œuvre sur chaque image acquise pivotée d’un angle de rotation déterminé à partir d’un angle formé entre un axe associé à la portion de l’équipement et un axe de référence,b4) une projection des contours sur la modélisation en trois dimensions de l’ouvrage construit, etb5) un regroupement des contours projetés formant un tracé de l’équipement ;le procédé comprenant en outre :c) une génération du plan géoréférencé à partir des résultats du traitement automatisé et comprenant le tracé de l’équipement. Figure de l’abrégé : Figure 1Method for detecting equipment of a constructed structure during generation of a georeferenced plan of the constructed structure and comprising:a) an acquisition of georeferenced images of a portion of the equipment;b) a processing of the acquired images comprising: b1) a three-dimensional modeling of the constructed structure by photogrammetry, b2) a georeferencing of the constructed structure, b3) a segmentation of the acquired images so as to obtain at least one contour of the portion of the equipment, implemented on each acquired image rotated by an angle of rotation determined from an angle formed between an axis associated with the portion of the equipment and a reference axis, b4) a projection of the contours on three-dimensional modeling of the constructed structure, andb5) a grouping of the projected contours forming a layout of the equipment; the method further comprising:c) generation of the georeferenced plan from the results of the automated processing and comprising the layout of the equipment. Abstract Figure: Figure 1

Description

Tracé d’équipements dans un plan géoréférencéEquipment layout in a georeferenced plan

La présente divulgation relève du domaine de la génération de plans d’ouvrages construits et plus particulièrement du tracé d’équipements dans de tels plans géoréférencés.The present disclosure relates to the field of generating plans for constructed structures and more particularly the layout of equipment in such georeferenced plans.

La mise à jour cartographique de travaux d’ouvrages – notamment de réseaux souterrains - se fait par le tracé de plans du relevé topographique des sites/ouvrages concernés. De tels plans correspondent à des Plans Géoréférencés d’Ouvrages Construits (ou PGOC). Ces plans permettent notamment d’obtenir une cartographie des chantiers réalisés et d’en identifier les principales caractéristiques, par exemple une fois que le site du chantier est remblayé et que le positionnement des ouvrages n’est plus visible. La fiabilité de tels plans permet par exemple de limiter et mieux planifier les chantiers et interventions ultérieurs sur les réseaux souterrains.The cartographic update of works – particularly underground networks – is done by drawing up plans of the topographical survey of the sites/works concerned. Such plans correspond to Georeferenced Plans of Constructed Works (or PGOC). These plans make it possible in particular to obtain a map of the construction sites carried out and to identify their main characteristics, for example once the construction site is backfilled and the positioning of the structures is no longer visible. The reliability of such plans makes it possible, for example, to limit and better plan subsequent construction sites and interventions on underground networks.

La génération de PGOC requiert généralement une modélisation en trois dimensions et un repérage spatial des ouvrages par une levée de terrain réalisée par un géomètre sur place, de sorte à obtenir un plan géoréférencé. Cela implique classiquement l’intervention et la coordination de plusieurs acteurs et corps de métier sur le site à la fois pour la réalisation des travaux (dont le déblayage, l’installation des ouvrages, le remblayage etc. par exemple) et les prises de mesures (par exemple, de positions de points repères) sur le site (par l’intervention du géomètre par exemple). Les méthodes existantes peuvent alors impliquer de laisser un chantier en suspens pendant plusieurs jours (par exemple, en laissant un site de fouille déblayé) le temps d’effectuer une levée de la position de l’ouvrage construit, ce qui peut perturber l’avancée des travaux sur un chantier. Par ailleurs, l’évolution des réglementations relatives aux travaux à proximité des réseaux - concernant par exemple la Déclaration de projet de Travaux (ou DT) ou la Déclaration d’Intention de Commencement de Travaux (DICT) en France – requiert, dans la plupart des cas, l’établissement de PGOC en classe de précision A.The generation of PGOC generally requires three-dimensional modeling and spatial identification of the structures by a ground survey carried out by a surveyor on site, so as to obtain a georeferenced plan. This typically involves the intervention and coordination of several actors and trades on the site both for carrying out the work (including clearing, installing structures, backfilling, etc. for example) and taking measurements. (for example, positions of benchmarks) on the site (through the intervention of the surveyor for example). Existing methods can then involve leaving a construction site in abeyance for several days (for example, by leaving an excavation site cleared) while the position of the constructed work is lifted, which can disrupt progress. work on a construction site. Furthermore, the evolution of regulations relating to works near networks - concerning for example the Works Project Declaration (or DT) or the Declaration of Intention to Commence Works (DICT) in France - requires, in most cases, the establishment of PGOC in precision class A.

Les obligations réglementaires et techniques dans le domaine de la construction entraînent ainsi un besoin accru de cartographier les sites de construction de façon précise, fidèle aux ouvrages construits, en réduisant l’incertitude des mesures, en fournissant des caractéristiques spécifiques des ouvrages, et ce sans compromettre l’avancement des travaux sur les chantiers concernés.Regulatory and technical obligations in the field of construction thus lead to an increased need to map construction sites precisely, faithful to the constructed works, by reducing the uncertainty of measurements, by providing specific characteristics of the works, and this without compromise the progress of work on the sites concerned.

Par ailleurs, il existe un besoin de fournir une traçabilité du matériel et des équipements mis en œuvre sur de tels sites de construction, comme des câbles électriques ou encore des boîtiers électriques. Une telle traçabilité requiert notamment la reconnaissance et l’identification de ces équipements sur les plans géoréférencés. De par une disposition généralement discontinue de ces équipements (qui peuvent par exemple être partiellement enfouis ou recouverts par des fourreaux) sur les sites de construction, une telle traçabilité n’est généralement pas systématique ni automatisée et manque souvent de précision.Furthermore, there is a need to provide traceability of the materials and equipment used on such construction sites, such as electrical cables or even electrical boxes. Such traceability requires in particular the recognition and identification of this equipment on georeferenced plans. Due to a generally discontinuous arrangement of this equipment (which can for example be partially buried or covered by sheaths) on construction sites, such traceability is generally not systematic or automated and often lacks precision.

RésuméSummary

La présente divulgation apporte une solution à une telle problématique.The present disclosure provides a solution to such a problem.

Selon un aspect, il est proposé un procédé de détection d’un équipement d’un ouvrage construit lors d’une génération d’un plan géoréférencé de l’ouvrage construit mis en œuvre par un système informatique d’acquisition et de traitement, le procédé comprenant :
a) une acquisition d’images, à l’aide d’un appareil mobile de prise de vues, lesdites images acquises étant géoréférencées selon un système de coordonnées géographiques prédéfini et présentant au moins deux angles de vue distincts d’au moins une portion de l’équipement de l’ouvrage construit ;
b) un traitement automatisé des images acquises par au moins un logiciel de traitement et comprenant :
b1) une modélisation en trois dimensions de l’ouvrage construit par photogrammétrie,
b2) un géoréférencement de l’ouvrage construit dans le système de coordonnées géographiques prédéfini,
b3) une segmentation de chacune des images acquises de sorte à obtenir au moins un contour de la portion de l’équipement, ladite segmentation étant mise en œuvre sur chaque image acquise pivotée d’un angle de rotation déterminé à partir d’un angle formé entre un axe associé à la portion de l’équipement sur l’image acquise et un axe de référence de l’image acquise,
b4) une projection des contours de la portion de l’équipement respectivement obtenus sur les images acquises sur la modélisation en trois dimensions de l’ouvrage construit,
b5) un regroupement des contours projetés, ledit regroupement de contours projetés formant un tracé de l’équipement ;
le procédé comprenant en outre :
c) une génération du plan géoréférencé de l’ouvrage construit à partir des résultats du traitement automatisé, ledit plan géoréférencé comprenant au moins le tracé de l’équipement.
According to one aspect, a method is proposed for detecting equipment of a constructed structure during generation of a georeferenced plan of the constructed structure implemented by a computer acquisition and processing system, the process comprising:
a) an acquisition of images, using a mobile camera, said acquired images being georeferenced according to a predefined geographic coordinate system and presenting at least two distinct viewing angles of at least a portion of the equipment of the constructed work;
b) automated processing of the images acquired by at least one processing software and comprising:
b1) a three-dimensional modeling of the structure constructed by photogrammetry,
b2) georeferencing of the structure built in the predefined geographic coordinate system,
b3) a segmentation of each of the acquired images so as to obtain at least one contour of the portion of the equipment, said segmentation being implemented on each acquired image rotated by an angle of rotation determined from an angle formed between an axis associated with the portion of the equipment on the acquired image and a reference axis of the acquired image,
b4) a projection of the contours of the portion of the equipment respectively obtained on the images acquired on the three-dimensional modeling of the constructed structure,
b5) a grouping of the projected contours, said grouping of projected contours forming a layout of the equipment;
the method further comprising:
c) a generation of the georeferenced plan of the work constructed from the results of the automated processing, said georeferenced plan comprising at least the route of the equipment.

Par conséquent, le procédé proposé permet avantageusement de générer des plans géoréférencés d’ouvrages construits (ou PGOC), ou plus généralement des plans géoréférencés, incluant une détection, une reconnaissance et un tracé précis des équipements et éléments compris dans les ouvrages. Le traitement automatisé des images acquises proposé permet en effet d’obtenir des plans géoréférencés incluant des tracés d’équipements tout en respectant un niveau de précision dit de classe A. Une telle classe A peut en particulier désigner une classe de précision cartographique dans laquelle l’incertitude maximale de localisation d’un ouvrage est inférieure ou égale à 40, 50 ou 80 centimètres selon les caractéristiques de l’ouvrage (par exemple, sa rigidité, sa flexibilité ou encore son contexte d’exploitation).Consequently, the proposed method advantageously makes it possible to generate georeferenced plans of constructed works (or PGOC), or more generally georeferenced plans, including detection, recognition and precise tracing of the equipment and elements included in the works. The proposed automated processing of acquired images makes it possible to obtain georeferenced plans including equipment layouts while respecting a level of precision known as class A. Such a class A can in particular designate a class of cartographic precision in which the The maximum uncertainty in the location of a structure is less than or equal to 40, 50 or 80 centimeters depending on the characteristics of the structure (for example, its rigidity, its flexibility or its operating context).

Le procédé proposé adresse notamment les difficultés classiquement rencontrées lors de la génération de PGOC, lorsqu’un ou plusieurs équipements (ou autre matériel présent sur les sites de construction) sont capturés de façon éparse dans la pluralité d’images acquises. La reconstruction d’un équipement dans son intégralité et dans sa disposition précise dans un ouvrage est alors difficile. Le procédé proposé permet d’inclure le tracé d’équipements dans les plans géoréférencés de façon systématique, automatisée et précise.The proposed method addresses in particular the difficulties typically encountered during the generation of PGOC, when one or more pieces of equipment (or other material present on construction sites) are captured sparsely in the plurality of acquired images. The reconstruction of equipment in its entirety and in its precise arrangement in a structure is then difficult. The proposed method makes it possible to include the layout of equipment in georeferenced plans in a systematic, automated and precise manner.

Selon un autre aspect, il est proposé un programme informatique comportant des instructions pour la mise en œuvre du procédé lorsque ce programme est exécuté par un processeur.According to another aspect, a computer program is proposed comprising instructions for implementing the method when this program is executed by a processor.

Selon un autre aspect, il est proposé un support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé lorsque ce programme est exécuté par un processeur.According to another aspect, a non-transitory recording medium readable by a computer is proposed on which a program is recorded for implementing the method when this program is executed by a processor.

Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre, indépendamment les unes des autres ou en combinaison les unes avec les autres :The characteristics set out in the following paragraphs can, optionally, be implemented, independently of each other or in combination with each other:

Dans un mode de réalisation, la segmentation de chacune des images acquises est une segmentation d’instances.In one embodiment, the segmentation of each of the acquired images is an instance segmentation.

Par conséquent, la segmentation des images proposée permet non seulement de détecter plusieurs éléments segmentés (ou polygones ou contours) dans les images correspondant potentiellement à l’équipement, mais également de lier les éléments segmentés comme appartenant à un même équipement. En effet, la plupart des ouvrages construits comprend des éléments déblayés, remblayés, des obstacles (au moins visuels), des passerelles, des plaques métalliques, des bâches, des fourreaux, de la terre ou d’autres éléments obstruant la visibilité et masquant au moins en partie des équipements sur les images. Par exemple, un câble électrique disposé dans une tranchée peut être partiellement recouvert de terre ou peut passer sous une passerelle. Par ailleurs, un effet de perspective lié à la prise de vue ou une prise de vue partielle de l’ouvrage peut conduire à ce qu’une portion de l’équipement soit visible de façon discontinue sur une image. Il en résulte qu’une segmentation d’instances permet avantageusement de détecter la présence d’une telle discontinuité en liant les éléments segmentés comme appartenant à une unique instance (par exemple, à une unique portion du même câble) sur chaque image.Consequently, the proposed image segmentation makes it possible not only to detect several segmented elements (or polygons or contours) in the images potentially corresponding to the equipment, but also to link the segmented elements as belonging to the same equipment. Indeed, most of the constructed works include cleared, backfilled elements, obstacles (at least visual), walkways, metal plates, tarpaulins, sheaths, earth or other elements obstructing visibility and masking the less partly equipment in the images. For example, an electrical cable placed in a trench may be partially covered with earth or may pass under a walkway. Furthermore, a perspective effect linked to the shooting or a partial shooting of the work can lead to a portion of the equipment being visible discontinuously in an image. As a result, a segmentation of instances advantageously makes it possible to detect the presence of such a discontinuity by linking the segmented elements as belonging to a single instance (for example, to a single portion of the same cable) on each image.

Dans un mode de réalisation, la segmentation de chacune des images acquises comprend :
b31) une première segmentation de la portion de l’équipement sur l’image acquise de sorte à obtenir au moins un polygone associé à la portion de l’équipement,
b32) une détermination de l’axe associé à la portion de l’équipement sur l’image acquise, incluant de :
- déterminer un centre de gravité du polygone,
- obtenir deux sous-polygones résultant d’une section du polygone selon un axe de l’image acquise croisant le centre de gravité,
- déterminer un barycentre de chaque sous-polygone,
- déterminer l’axe associé à la portion de l’équipement à partir d’un axe associé au polygone obtenu en reliant les barycentres des sous-polygones,
b33) une détermination de l’angle formé entre l’axe associé à la portion de l’équipement et l’axe de référence,
b34) une seconde segmentation sur l’image acquise pivotée d’un angle de rotation calculé à partir dudit angle, de sorte à obtenir un polygone pivoté associé à la portion de l’équipement.
In one embodiment, the segmentation of each of the acquired images includes:
b31) a first segmentation of the portion of the equipment on the acquired image so as to obtain at least one polygon associated with the portion of the equipment,
b32) a determination of the axis associated with the portion of the equipment on the acquired image, including:
- determine a center of gravity of the polygon,
- obtain two sub-polygons resulting from a section of the polygon along an axis of the acquired image crossing the center of gravity,
- determine a barycenter of each sub-polygon,
- determine the axis associated with the portion of the equipment from an axis associated with the polygon obtained by connecting the barycenters of the sub-polygons,
b33) a determination of the angle formed between the axis associated with the portion of the equipment and the reference axis,
b34) a second segmentation on the acquired image rotated by an angle of rotation calculated from said angle, so as to obtain a rotated polygon associated with the portion of the equipment.

Par conséquent, le procédé proposé permet avantageusement d’améliorer la détection de l’équipement dans l’ouvrage tel que capturé sur les images acquises, en mettant en œuvre plusieurs segmentations. En effet, le procédé optimise la reconnaissance d’images permettant la détection de la portion de l’équipement de façon systématique en automatisant un réalignement mutuel des images. La segmentation est avantageusement améliorée par une disposition de l’image facilitant la reconnaissance de contours associés à la portion de l’équipement. Une telle manipulation intermédiaire des images est neutre sur le résultat du procédé mais facilite le traitement automatique.Consequently, the proposed method advantageously makes it possible to improve the detection of the equipment in the structure as captured on the acquired images, by implementing several segmentations. Indeed, the process optimizes image recognition allowing the detection of the portion of the equipment in a systematic manner by automating a mutual realignment of the images. The segmentation is advantageously improved by an arrangement of the image facilitating the recognition of contours associated with the portion of the equipment. Such intermediate manipulation of images is neutral on the result of the process but facilitates automatic processing.

Dans un mode de réalisation, au moins deux polygones associés à la portion de l’équipement sont obtenus à l’issue de la première segmentation et chaque image acquise est pivotée d’un angle de rotation déterminé à partir de la moyenne des angles formés entre chaque axe associé à chaque polygone et un axe de référence commun de l’image acquise.In one embodiment, at least two polygons associated with the portion of the equipment are obtained at the end of the first segmentation and each image acquired is rotated by an angle of rotation determined from the average of the angles formed between each axis associated with each polygon and a common reference axis of the acquired image.

Par conséquent, le procédé permet avantageusement d’améliorer la segmentation des portions d’équipement sur les images acquises même lorsque plusieurs contours disjoints sont détectés sur la portion d’équipement (par exemple, lorsque la première segmentation mise en œuvre sur l’image initiale avant rotation est imprécise).Consequently, the method advantageously makes it possible to improve the segmentation of the equipment portions on the acquired images even when several disjoint contours are detected on the equipment portion (for example, when the first segmentation implemented on the initial image before rotation is imprecise).

Dans un mode de réalisation, l’équipement comprend un marquage composé d’un ensemble de caractères et le procédé comprend en outre, avant la génération du plan géoréférencé de l’ouvrage construit :
b’) une identification de l’équipement par une reconnaissance optique de caractères mise en œuvre sur au moins une des images acquises comprenant le marquage,
et le plan géoréférencé généré comprend en outre l’identification de l’équipement.
In one embodiment, the equipment includes marking composed of a set of characters and the method further comprises, before generating the georeferenced plan of the constructed structure:
b') identification of the equipment by optical character recognition implemented on at least one of the acquired images including the marking,
and the generated georeferenced plan further includes the identification of the equipment.

Par conséquent, le procédé proposé permet avantageusement d’identifier l’équipement détecté sur les images acquises. Le procédé permet donc de fournir des informations aussi exhaustives que possible sur la situation du chantier et de l’ouvrage. Dans les situations pour lesquelles le marquage est visible et reconnaissable, au moins en partie, sur une pluralité d’images acquises, l’identifiant peut en outre être utilisé pour fiabiliser la liaison entre deux images, c’est-à-dire la détection automatique du fait que les deux images correspondent à un même élément physique capturés selon deux points de vue.Consequently, the proposed method advantageously makes it possible to identify the equipment detected on the acquired images. The process therefore makes it possible to provide information as exhaustive as possible on the situation of the site and the structure. In situations for which the marking is visible and recognizable, at least in part, on a plurality of acquired images, the identifier can also be used to make the connection between two images more reliable, that is to say the detection automatic because the two images correspond to the same physical element captured from two points of view.

Dans un mode de réalisation, l’identification de l’équipement comprend :
b’1) une détection initiale d’une zone d’identification de l’image acquise, ladite zone d’identification comprenant le marquage,
b’2) une reconnaissance optique de plusieurs groupes de motifs composant l’ensemble de caractères du marquage via une détection par une fenêtre glissante sur ladite zone d’identification, une taille associée à la fenêtre glissante étant inférieure à une taille de la zone d’identification, deux groupes de motifs successivement détectés par la fenêtre glissante se recouvrant en au moins un motif commun,
b’3) une concaténation les uns aux autres des groupes de motifs successivement détectés par l’intermédiaire de l’au moins un motif commun,
b’4) l’identification de l’équipement par association du marquage de l’équipement avec les groupe de motifs concaténés.
In one embodiment, the identification of the equipment includes:
b'1) an initial detection of an identification zone of the acquired image, said identification zone comprising the marking,
b'2) optical recognition of several groups of patterns making up the set of characters of the marking via detection by a sliding window on said identification zone, a size associated with the sliding window being less than a size of the zone d identification, two groups of patterns successively detected by the sliding window overlapping in at least one common pattern,
b'3) a concatenation of the groups of patterns successively detected via the at least one common pattern,
b'4) the identification of the equipment by association of the marking of the equipment with the groups of concatenated patterns.

Par conséquent, le procédé proposé permet avantageusement d’identifier les équipements présents sur les ouvrages construits et ayant des marquages (du type numéro de référence ou numéro d’identification de l’équipement) longs. Le procédé est particulièrement avantageux en ce qu’il permet notamment d’identifier l’équipement même lorsque le marquage associé à l’équipement est capturé sur plusieurs prises de vue distinctes, et par exemple partiellement (une partie des caractères est invisible ou non reconnue).Consequently, the proposed method advantageously makes it possible to identify the equipment present on the constructed structures and having long markings (of the reference number or equipment identification number type). The method is particularly advantageous in that it makes it possible in particular to identify the equipment even when the marking associated with the equipment is captured on several distinct shots, and for example partially (part of the characters is invisible or not recognized ).

Ainsi, le procédé permet d’extraire des informations exhaustives sans imposer de contraintes dans la capture des images acquises. Les images de l’ouvrage peuvent donc être capturées par tout individu sur le chantier, sans requérir d’expertise particulière ni même de connaître les éléments précis à isoler ou identifier sur les images. Le procédé permet d’obtenir des résultats probants en comblant d’éventuels défauts de prise de vue. Une fois les images acquises, le procédé proposé permet avantageusement d’identifier l’équipement de façon automatisée.Thus, the method makes it possible to extract exhaustive information without imposing constraints in the capture of the acquired images. Images of the work can therefore be captured by any individual on the site, without requiring any particular expertise or even knowing the precise elements to isolate or identify in the images. The process makes it possible to obtain convincing results by filling in possible shooting defects. Once the images have been acquired, the proposed method advantageously makes it possible to identify the equipment in an automated manner.

Dans un mode de réalisation, la projection des contours de la portion de l’équipement sur la modélisation en trois dimensions de l’ouvrage construit comprend une projection de coordonnées associées auxdits contours dans le système de coordonnées géographiques prédéfini, lesdites coordonnées associées auxdits contours étant définies selon un repère image en deux dimensions associé aux images acquises.In one embodiment, the projection of the contours of the portion of the equipment onto the three-dimensional modeling of the constructed work comprises a projection of coordinates associated with said contours in the predefined geographic coordinate system, said coordinates associated with said contours being defined according to a two-dimensional image marker associated with the acquired images.

Par conséquent, le procédé proposé permet avantageusement de reconstruire l’intégralité de l’équipement dans l’ouvrage construit, en trois dimensions. La projection proposée permet alors de reconstruire la profondeur de l’ouvrage et la disposition de l’équipement dans un tel contexte.Consequently, the proposed method advantageously makes it possible to reconstruct the entire equipment in the constructed structure, in three dimensions. The proposed projection then makes it possible to reconstruct the depth of the structure and the arrangement of the equipment in such a context.

Dans un mode de réalisation, le regroupement des contours projetés comprend :
b51) un filtrage des contours projetés de sorte à sélectionner des zones d’intersection correspondant à une intersection d’au moins deux contours projetés,
b52) un regroupement des zones d’intersection non disjointes, de sorte à obtenir un ensemble de polygones géoréférencés associés à l’équipement.
In one embodiment, the grouping of the projected contours includes:
b51) filtering the projected contours so as to select intersection zones corresponding to an intersection of at least two projected contours,
b52) a grouping of non-disjoint intersection zones, so as to obtain a set of georeferenced polygons associated with the equipment.

Par conséquent, le procédé proposé permet avantageusement de transformer un ensemble de contours (ou de polygones) potentiellement isolés les uns des autres dans les images acquises en des polygones regroupés approximant un tracé de l’équipement dans son intégralité dans l’ouvrage. De manière imagée, le procédé permet de « deviner » la position de certaines portions des éléments physiques qui sont invisibles ou masqués sur les images.Consequently, the proposed method advantageously makes it possible to transform a set of contours (or polygons) potentially isolated from each other in the acquired images into grouped polygons approximating a layout of the equipment in its entirety in the structure. Pictorially, the process makes it possible to “guess” the position of certain portions of physical elements which are invisible or hidden in the images.

Dans un mode de réalisation, le tracé de l’équipement est obtenu par :
c11) une extraction d’au moins une courbe directrice associée à l’équipement à partir du regroupement des contours projetés,
c12) une modélisation de ladite courbe directrice en un graphe,
c13) un traçage de l’équipement via un traçage par parcours de graphe des sommets dudit graphe, ledit parcours de graphe étant contraint par au moins une distance minimale prédéfinie et un angle maximal prédéfini entre deux sommets successifs du graphe.
In one embodiment, the layout of the equipment is obtained by:
c11) an extraction of at least one direction curve associated with the equipment from the grouping of the projected contours,
c12) a modeling of said director curve in a graph,
c13) tracing the equipment via tracing by graph traversal of the vertices of said graph, said graph traversal being constrained by at least a predefined minimum distance and a predefined maximum angle between two successive vertices of the graph.

Par conséquent, le procédé proposé permet avantageusement de générer, de façon automatisée, un tracé continu et précis de l’équipement malgré les contraintes pratiques de la disposition de l’équipement dans l’ouvrage. Le procédé permet alors d’obtenir un plan géoréférencé incluant un tracé d’équipements précis, réaliste et généré de façon automatisée et systématique à partir d’images acquises sans que le niveau d’expertise requis pour capturer de telles images soit particulièrement élevé.Consequently, the proposed method advantageously makes it possible to generate, in an automated manner, a continuous and precise layout of the equipment despite the practical constraints of the arrangement of the equipment in the structure. The process then makes it possible to obtain a georeferenced plan including a precise, realistic layout of equipment generated in an automated and systematic manner from images acquired without the level of expertise required to capture such images being particularly high.

D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :Other characteristics, details and advantages will appear on reading the detailed description below, and on analyzing the attached drawings, in which:

Fig. 1Fig. 1

montre un schéma d’un système d’acquisition et de traitement selon un mode de réalisation. shows a diagram of an acquisition and processing system according to one embodiment.

Fig. 2Fig. 2

montre des étapes d’un procédé de génération d’un plan géoréférencé selon un mode de réalisation. shows steps of a method for generating a georeferenced plan according to one embodiment.

Fig. 3Fig. 3

montre des images acquises selon un mode de réalisation. shows images acquired according to one embodiment.

Fig. 4Fig. 4

montre une segmentation d’un équipement selon un mode de réalisation. shows a segmentation of equipment according to one embodiment.

Fig. 5Fig. 5

montre une segmentation d’un équipement selon un mode de réalisation. shows a segmentation of equipment according to one embodiment.

Fig. 6Fig. 6

montre une segmentation d’un équipement selon un mode de réalisation. shows a segmentation of equipment according to one embodiment.

Fig. 7Fig. 7

montre une projection d’un équipement selon un mode de réalisation. shows a projection of equipment according to one embodiment.

Fig. 8Fig. 8

montre un filtrage d’un équipement selon un mode de réalisation. shows filtering of equipment according to one embodiment.

Fig. 9Fig. 9

montre un tracé d’un équipement selon un mode de réalisation. shows a layout of equipment according to one embodiment.

Fig. 10Fig. 10

montre un plan géoréférencé généré selon un mode de réalisation. shows a georeferenced plan generated according to one embodiment.

Il est maintenant fait référence à la . La illustre un système informatique 1,2 permettant l’acquisition et le traitement d’images d’un chantier de construction, de sorte à générer un plan géoréférencé d’ouvrage construit (ou PGOC, ou plus simplement plan géoréférencé) du chantier.Reference is now made to the . There illustrates a computer system 1.2 allowing the acquisition and processing of images of a construction site, so as to generate a georeferenced plan of constructed work (or PGOC, or more simply georeferenced plan) of the site.

Le chantier de construction, ou site de construction, peut se référer à tout type de terrain comprenant un ou plusieurs ouvrages ou installations, de nature électrique par exemple, dans le cadre de travaux comme l’installation ou le raccordement de réseaux souterrains. Un ouvrage peut par exemple correspondre à une tranchée creusée par déblaiement du sol sur une voirie dans laquelle des branchements de réseaux sont installés. Le chantier de construction s’étend généralement sur trois dimensions et les ouvrages sur un tel chantier de construction sont caractérisés par un dimensionnement selon des profondeurs, des courbures et des directions variables par rapport à un référentiel tel que la surface du sol. Par exemple, dans le cas d’un ouvrage correspondant à une tranchée, la tranchée peut être caractérisée par une profondeur du terrassement, un volume de terrassement, une longueur totale etc. L’ouvrage consiste alors en une excavation dans un sol ayant un nivellement et des caractéristiques spécifiques. De telles informations, relatives à la transformation du terrain et aux travaux réalisés sur le site de construction, demandent une mise à jour cartographique des terrains concernés et la réalisation de plans fidèles à la réalité du site.The construction site, or construction site, can refer to any type of land comprising one or more works or installations, of an electrical nature for example, in the context of work such as the installation or connection of underground networks. A structure can for example correspond to a trench dug by clearing the ground on a road in which network connections are installed. The construction site generally extends over three dimensions and the works on such a construction site are characterized by dimensioning according to variable depths, curvatures and directions in relation to a reference such as the surface of the ground. For example, in the case of a structure corresponding to a trench, the trench can be characterized by an earthwork depth, an earthwork volume, a total length, etc. The work then consists of an excavation in soil having specific leveling and characteristics. Such information, relating to the transformation of the land and the work carried out on the construction site, requires a cartographic update of the land concerned and the production of plans faithful to the reality of the site.

On précise ici que les éléments physiques que l’on souhaite géoréférencer peuvent être de toutes natures et de toutes formes. Les essais réalisés par la demanderesse sont particulièrement convaincants pour les éléments de forme allongée, raison pour laquelle de nombreux exemples font référence à des câbles, canalisations ou éléments de forme analogue, sans pour autant s’y limiter. Le chantier peut en particulier comprendre un ou plusieurs équipements EQ comme par exemple des tuyaux, des câbles électriques, des fourreaux, des gaines, des raccords électriques, des boîtiers électriques, des accessoires souterrains (des jonctions, des tangentes…), etc. Chaque équipement EQ a des dimensions spécifiques et est intégré au chantier selon un positionnement et une disposition donnés et adaptés aux contraintes environnementales. La détermination d’un tel positionnement sera détaillée par la suite. De plus chaque équipement EQ peut être associé à un marquage comprenant une référence ou un identifiant permettant d’identifier l’équipement, de façon unique ou par lots. Le marquage associé à un équipement EQ peut, par exemple, prendre la forme d’une succession de caractères dactylographiés (composée de lettres, de chiffres et/ou de symboles) disposée sur une face de l’équipement EQ (par exemple via une vignette, une inscription, une gravure sur l’équipement EQ) et visible au moment du positionnement de l’équipement EQ sur le site de construction. Un tel marquage peut également correspondre à un marquage lisible par une machine de type code-barres ou QR code. En variante, le marquage peut prendre la forme d’une puce électronique de type puce NFC (ou «Near Field Communication»). Un tel marquage peut également être légèrement déporté de l’équipement lui-même, par exemple porté par une étiquette elle-même fixée à l’équipement. Un tel marquage peut notamment permettre d’associer chaque équipement à des informations stockées dans une base de données ou tout autre type de registre numérique sur un serveur 21, un site Internet ou une plateforme numérique distante par exemple. De telles informations peuvent comprendre des caractéristiques intrinsèques de l’équipement comme le type d’équipement, ses caractéristiques dimensionnelles et/ou fonctionnelles, son numéro de série, etc.We specify here that the physical elements that we wish to georeference can be of all types and shapes. The tests carried out by the applicant are particularly convincing for elements of elongated shape, which is why many examples refer to cables, pipes or elements of similar shape, without being limited to them. The site may in particular include one or more EQ equipment such as pipes, electrical cables, ducts, ducts, electrical connections, electrical boxes, underground accessories (junctions, tangents, etc.), etc. Each EQ equipment has specific dimensions and is integrated into the site according to a given positioning and layout adapted to environmental constraints. The determination of such a positioning will be detailed later. In addition, each EQ equipment can be associated with a marking comprising a reference or an identifier allowing the equipment to be identified, uniquely or in batches. The marking associated with EQ equipment can, for example, take the form of a succession of typewritten characters (composed of letters, numbers and/or symbols) placed on one side of the EQ equipment (for example via a sticker , an inscription, an engraving on the EQ equipment) and visible when positioning the EQ equipment on the construction site. Such marking may also correspond to a machine-readable marking of the bar code or QR code type. Alternatively, the marking can take the form of an electronic chip of the NFC (or “ Near Field Communication ”) chip type. Such marking can also be slightly offset from the equipment itself, for example carried by a label itself attached to the equipment. Such marking can in particular make it possible to associate each piece of equipment with information stored in a database or any other type of digital register on a server 21, an Internet site or a remote digital platform for example. Such information may include intrinsic characteristics of the equipment such as the type of equipment, its dimensional and/or functional characteristics, its serial number, etc.

Le système d’acquisition et de traitement 1,2 peut comprendre un appareil mobile 1 et un dispositif de traitement 2. L’appareil mobile 1 est un appareil permettant d’effectuer des prises de vue du chantier à l’aide d’un objectif et peut se référer à un ordiphone (ou « smartphone ») par exemple. Un tel appareil mobile 1 peut être manipulé par un opérateur sur le chantier. L’utilisation d’un appareil connu et usuel pour le grand public, tel qu’un smartphone, pour les prises de vue permet une utilisation par un opérateur sans compétence particulière, au contraire d’appareils dont la manipulation est plus complexe. L’appareil mobile 1 peut comprendre une unité mémoire (non représentée sur la ) et permettant de stockera minimales images capturées. En outre, un unique appareil mobile 1, monobloc et avec un unique objectif, peut être suffisant pour les prises de vue. Autrement dit, la parallaxe nécessaire à la photogrammétrie peut être obtenue en déplaçant manuellement l’unique appareil mobile 1 et en effectuant deux prises de vue successives. Les images peuvent être issues de photos ou bien extraites d’une ou plusieurs vidéos. L’appareil mobile 1 peut être associé à un capteur 11 permettant la lecture du marquage (un capteur 11 optique pour les marquages visuels et/ou un capteur 11 NFC pour la lecture de puce NFC par exemple). Un tel capteur 11 peut correspondre à un capteur optique. Un tel capteur optique peut être directement intégré au terminal mobile 1 comme représenté sur la . L’appareil mobile 1 peut également être associé à un appareil d’acquisition de coordonnées géographiques 12. L’appareil d’acquisition de coordonnées géographiques 12 permet de géoréférencer les images acquises par l’appareil mobile 1 et d’attribuer des coordonnées géographiques aux pixels représentant des éléments de l’ouvrage capturés sur les images. Un tel appareil d’acquisition de coordonnées géographiques 12 peut, par exemple, inclure une antenne satellite. L’appareil d’acquisition de coordonnées géographiques 12 peut également être confondu avec l’appareil mobile 1 dans le cas d’appareils mobiles 1 ayant une fonctionnalité de géolocalisation ou de géoréférencement intégrée par exemple. L’appareil d’acquisition de coordonnées géographiques 12 peut également prendre la forme d’un périphérique appairé avec l’appareil mobile 1.The acquisition and processing system 1,2 may include a mobile device 1 and a processing device 2. The mobile device 1 is a device for taking pictures of the construction site using a lens and can refer to a computer (or “smartphone”) for example. Such a mobile device 1 can be handled by an operator on the construction site. The use of a device known and common to the general public, such as a smartphone, for taking pictures allows use by an operator without particular skills, unlike devices whose handling is more complex. The mobile device 1 may include a memory unit (not shown on the ) and allowing at least the captured images to be stored. In addition, a single mobile device 1, monobloc and with a single lens, may be sufficient for shooting. In other words, the parallax necessary for photogrammetry can be obtained by manually moving the single mobile device 1 and taking two successive shots. The images can be taken from photos or extracted from one or more videos. The mobile device 1 can be associated with a sensor 11 allowing the reading of the marking (an optical sensor 11 for visual markings and/or an NFC sensor 11 for reading an NFC chip for example). Such a sensor 11 can correspond to an optical sensor. Such an optical sensor can be directly integrated into the mobile terminal 1 as shown in the . The mobile device 1 can also be associated with a geographic coordinate acquisition device 12. The geographic coordinate acquisition device 12 makes it possible to georeference the images acquired by the mobile device 1 and to assign geographic coordinates to the pixels representing elements of the work captured in the images. Such a geographic coordinate acquisition device 12 can, for example, include a satellite antenna. The geographic coordinate acquisition device 12 can also be confused with the mobile device 1 in the case of mobile devices 1 having integrated geolocation or georeferencing functionality for example. The geographic coordinate acquisition device 12 can also take the form of a peripheral paired with the mobile device 1.

L’appareil mobile 1 peut en outre être connectable au dispositif 2 et/ou à un serveur 21 intégré ou non au dispositif 2 par l’intermédiaire d’un réseau de communication, le dispositif 2 étant apte à recevoir des données comprenant les images capturées par l’appareil mobile 1 par une interface d’entrée 23. Outre les images acquises par le terminal mobile 1, le dispositif 2 est en outre capable de recevoir et stocker des données acquises par le capteur optique 11 et/ou l’appareil d’acquisition de coordonnées géographiques 12. Une telle transmission des données depuis le terminal mobile 1 (respectivement depuis le capteur optique 11 et/ou l’appareil d’acquisition de coordonnées géographiques 12) vers le dispositif 2 peut être effectuée en temps réel (ou en quasi-temps réel) lors de la capture des données, par exemple lorsque le terminal mobile 1 est connecté au dispositif 2. Une transmission des données capturées en temps réel ou presque permet notamment de poursuivre l’avancement du chantier sur la zone capturée (par exemple de remblayer la zone capturée et plus généralement de la rendre moins accessible et/ou visible) ou de se déplacer vers une autre zone du chantier, sans avoir à garder une telle zone accessible pour une nouvelle mesure ultérieure. En effet, une transmission des données en temps réel peut permettre au dispositif 2 d’effectuer les traitements ultérieurs immédiatement et donc de signaler en retour un éventuel besoin de répéter ou de compléter la capture de données de la zone capturée à un instant où l’utilisateur a facilement accès à la zone capturée. En variante, la transmission des données peut être postérieure à la capture des données, notamment lorsque le terminal mobile 1 est localisé dans une zone non couverte par le réseau de communication. Dans la suite de la description, il sera considéré que le capteur optique 11 et l’appareil d’acquisition de coordonnées géographiques 12 sont intégrés à l’appareil mobile 1 comme illustré sur la et que l’appareil mobile 1 est connecté à un réseau de communication, de sorte que l’ensemble des données acquises est transmis par l’appareil mobile 1 au dispositif 2 en temps réel ou quasi-temps réel. Dans un autre mode de réalisation, le dispositif 2 est capable de recevoir différents flux de données en provenance de différents dispositifs mobiles 1, 11, 12. Dit autrement, le dispositif 2 peut être centralisé et coopérer avec une pluralité d’appareils mobiles 1 de sorte que les ressources matérielles et logicielles du dispositif 2 sont mutualisées.The mobile device 1 can also be connectable to the device 2 and/or to a server 21 integrated or not into the device 2 via a communication network, the device 2 being able to receive data including the captured images by the mobile device 1 via an input interface 23. In addition to the images acquired by the mobile terminal 1, the device 2 is also capable of receiving and storing data acquired by the optical sensor 11 and/or the device d acquisition of geographic coordinates 12. Such transmission of data from the mobile terminal 1 (respectively from the optical sensor 11 and/or the geographic coordinate acquisition device 12) to the device 2 can be carried out in real time (or in near real time) during the capture of the data, for example when the mobile terminal 1 is connected to the device 2. Transmission of the data captured in real time or almost makes it possible in particular to continue the progress of the construction site in the captured area ( for example to backfill the captured area and more generally to make it less accessible and/or visible) or to move to another area of the site, without having to keep such an area accessible for a new subsequent measurement. Indeed, real-time data transmission can allow the device 2 to carry out subsequent processing immediately and therefore to signal in return a possible need to repeat or complete the data capture of the captured area at a time when the User has easy access to the captured area. Alternatively, the transmission of the data can be subsequent to the capture of the data, in particular when the mobile terminal 1 is located in an area not covered by the communication network. In the following description, it will be considered that the optical sensor 11 and the geographic coordinate acquisition device 12 are integrated into the mobile device 1 as illustrated in the and that the mobile device 1 is connected to a communications network, so that all of the acquired data is transmitted by the mobile device 1 to the device 2 in real time or near real time. In another embodiment, the device 2 is capable of receiving different data streams from different mobile devices 1, 11, 12. In other words, the device 2 can be centralized and cooperate with a plurality of mobile devices 1 of so that the hardware and software resources of device 2 are shared.

Le dispositif de traitement 2 comprenda minimaune unité de traitement 22 apte à traiter les données reçues, directement de l’appareil mobile 1 et/ou indirectement via un serveur 21 par exemple. Dans un mode de réalisation, l’unité de traitement 22 peut comprendre plusieurs sous-unités fonctionnelles formant un circuit de traitement, chaque sous-unité de traitement pouvant inclure un processeur et une unité mémoire. L’unité de traitement 22 peut par exemple inclure des sous-unités fonctionnelles permettant, par traitement des images acquises par l’appareil mobile 1, de :
- mettre en œuvre une reconstruction en trois dimensions de l’ouvrage par exemple par projection ou encore par photogrammétrie ;
- de géo-référencer les éléments de l’ouvrage dans un système de coordonnées prédéfini,
- de segmenter et filtrer les images acquises de sorte à permettre un tracé des équipements de l’ouvrage,
- d’identifier les équipements de l’ouvrage à partir de marquages présents sur les équipements, ou à proximité immédiate.
The processing device 2 comprises at least one processing unit 22 capable of processing the data received, directly from the mobile device 1 and/or indirectly via a server 21 for example. In one embodiment, the processing unit 22 may comprise several functional subunits forming a processing circuit, each subprocessing unit may include a processor and a memory unit. The processing unit 22 can for example include functional subunits allowing, by processing the images acquired by the mobile device 1, to:
- implement a three-dimensional reconstruction of the work, for example by projection or by photogrammetry;
- to geo-reference the elements of the work in a predefined coordinate system,
- to segment and filter the images acquired so as to allow a layout of the work's equipment,
- to identify the equipment of the work based on markings present on the equipment, or in the immediate vicinity.

Le dispositif 2 permet de traiter des images acquises par des prises de vue d’un ouvrage, de sorte à générer un plan géoréférencé. En particulier, le dispositif 2 est configuré pour générer un plan géoréférencé comprenant au moins un tracé d’un équipement appartenant à l’ouvrage. Dans un mode de réalisation, le dispositif 2 est configuré pour générer un plan géoréférencé comprenant, en outre, une identification de l’équipement appartenant à l’ouvrage. Une telle identification de l’équipement peut par exemple correspondre à une association de l’équipement, sur le plan géoréférencé avec une référence ou un marquage permettant d’identifier l’équipement dans une base de données. Une telle base de données peut par exemple être stockée sur le serveur 21.Device 2 makes it possible to process images acquired by taking shots of a structure, so as to generate a georeferenced plan. In particular, the device 2 is configured to generate a georeferenced plan comprising at least one layout of equipment belonging to the work. In one embodiment, the device 2 is configured to generate a georeferenced plan including, in addition, an identification of the equipment belonging to the work. Such identification of the equipment may for example correspond to an association of the equipment, on the georeferenced plan with a reference or marking making it possible to identify the equipment in a database. Such a database can for example be stored on server 21.

Le système d’acquisition et de traitement 1,2 peut être relié au serveur 21. Dans un mode de réalisation, le serveur peut être intégré au dispositif de traitement 2, comme représenté sur la . En variante, le serveur 21 peut être un serveur distant (par exemple sur un « cloud »). Le serveur 21 peut être configuré pour stocker les données transmises par l’appareil mobile 1 et/ou pour stocker des données associées aux équipements appartenant à l’ouvrage.The acquisition and processing system 1,2 can be connected to the server 21. In one embodiment, the server can be integrated into the processing device 2, as shown in the figure. . Alternatively, the server 21 can be a remote server (for example on a “cloud”). The server 21 can be configured to store the data transmitted by the mobile device 1 and/or to store data associated with the equipment belonging to the work.

Le système d’acquisition et de traitement 1,2 est configuré pour mettre en œuvre le procédé décrit par la suite dans la .The acquisition and processing system 1.2 is configured to implement the method described subsequently in the .

Il est maintenant fait référence à la . La représente une succession d’étapes de génération d’un Plan Géoréférencé d’Ouvrage Construit (ou PGOC), également désigné par plan géoréférencé dans le contexte de la présente description. Le plan géoréférencé généré peut être associé à un ouvrage construit ou une installation (e.g., une tranchée creusée dans le sol) appartenant à un site de construction ou un chantier (e.g., un chantier de réseau souterrain). L’ouvrage considéré comprend notamment au moins un équipement EQ (e.g., un câble électrique) disposé dans l’ouvrage. Un tel procédé peut être mis en œuvre par le système représenté sur la .Reference is now made to the . There represents a succession of steps for generating a Georeferenced Built Work Plan (or PGOC), also referred to as a georeferenced plan in the context of this description. The generated georeferenced plan can be associated with a constructed work or an installation (eg, a trench dug in the ground) belonging to a construction site or a construction site (eg, an underground network construction site). The work considered includes in particular at least one EQ equipment (eg, an electric cable) placed in the work. Such a method can be implemented by the system represented on the .

À une première étape 200, des images de l’ouvrage sont capturées à l’aide de l’appareil mobile de prise de vue 1. Une telle acquisition d’images consiste à capturer plusieurs portions de l’ouvrage via des prises de vue (en deux dimensions) depuis au moins deux angles de vue distincts. L’acquisition des images de l’ouvrage à l’étape 200 permet ainsi d’avoir des prises de vue en deux dimensions de l’ensemble des éléments constituant l’ouvrage et ce, sous différents angles de vue. En particulier, les images présententa priorides caractéristiques identiques ou analogues (dimensions, nombre de pixels, focale etc.).At a first step 200, images of the structure are captured using the mobile camera 1. Such image acquisition consists of capturing several portions of the structure via shots ( in two dimensions) from at least two distinct viewing angles. The acquisition of images of the structure in step 200 thus makes it possible to have two-dimensional shots of all the elements constituting the structure, from different viewing angles. In particular, the images a priori have identical or similar characteristics (dimensions, number of pixels, focal length, etc.).

Les images peuvent être acquises à des moments différents ou des étapes différentes de l’avancement des travaux du chantier de construction. Les images peuvent optionnellement être acquises par différents appareils mobiles 1. Ainsi, l’étape d’acquisition 200 des images de l’ouvrage peut être mise en œuvre à des instants sélectionnés pour ne pas perturber l’avancement des travaux : une portion de l’ouvrage peut être photographiée par un individu travaillant sur cette portion du chantier (par exemple lorsque les câbles disposés dans l’ouvrage sont visibles) puis remblayée sans délai. Dans l’exemple décrit ici, les images sont des photos. En variante, plusieurs images 1 peuvent être des extraits d’une même vidéo.Images can be acquired at different times or different stages of the construction site work progress. The images can optionally be acquired by different mobile devices 1. Thus, the acquisition step 200 of the images of the work can be implemented at selected times so as not to disrupt the progress of the work: a portion of the The structure can be photographed by an individual working on this portion of the site (for example when the cables placed in the structure are visible) then backfilled without delay. In the example described here, the images are photos. Alternatively, several images 1 can be extracts from the same video.

En référence à la , six images acquises à l’étape 200 sont représentées à titre d’exemple.In reference to the , six images acquired in step 200 are shown as an example.

Dans un mode de réalisation, les images acquises à l’étape 200 sont prises de sorte à capturer une ou plusieurs portions (ou sections) d’équipements PEQ comprises dans la ou les portions de l’ouvrage. Par exemple, l’ouvrage considéré peut être une tranchée déblayée dans le sol de sorte à présenter plusieurs courbure et au moins un équipement EQ correspondant à un câble électrique peut être disposé dans la tranchée. Les images acquises sur la capturent alors plusieurs portions de l’ouvrage, chaque image acquise comprenant une capture d’une portion d’équipement PEQ.In one embodiment, the images acquired in step 200 are taken so as to capture one or more portions (or sections) of PEQ equipment included in the portion(s) of the work. For example, the structure considered may be a trench cleared in the ground so as to have several curvature and at least one EQ equipment corresponding to an electrical cable may be placed in the trench. The images acquired on the then capture several portions of the structure, each image acquired including a capture of a portion of PEQ equipment.

Dans un mode de réalisation, les images acquises à l’étape 200 sont géoréférencées selon un système de coordonnées prédéfini. Autrement dit, chaque pixel (ou ensemble de pixels) de chacune des images acquises peut être associé à des coordonnées dites GPS (en anglais, «Global Positioning System»), ou des coordonnées d’un autre système de positionnement que le GPS. Par exemple, chaque pixel de chaque image acquise peut être associée à une longitude et une latitude, exprimées en degrés, minutes secondes (ou DMS), ainsi qu’optionnellement une hauteur ou profondeur (coordonnée verticale). Le géoréférencement de chaque image peut notamment être mise en œuvre par l’appareil d’acquisition de coordonnées géographiques 12. Chaque image acquise à l’étape 200 est géoréférencée et peut alors être associée à un ensemble de coordonnées géographiques, par exemple sous forme de métadonnées, qui peuvent être stockées sur le serveur 21 et/ou par le dispositif 2 en correspondance avec chaque image acquise.In one embodiment, the images acquired in step 200 are georeferenced according to a predefined coordinate system. In other words, each pixel (or set of pixels) of each of the acquired images can be associated with so-called GPS coordinates (in English, “ Global Positioning System ”), or coordinates of a positioning system other than GPS. For example, each pixel of each acquired image can be associated with a longitude and a latitude, expressed in degrees, minutes seconds (or DMS), as well as optionally a height or depth (vertical coordinate). The georeferencing of each image can in particular be implemented by the geographic coordinate acquisition device 12. Each image acquired in step 200 is georeferenced and can then be associated with a set of geographic coordinates, for example in the form of metadata, which can be stored on the server 21 and/or by the device 2 in correspondence with each acquired image.

Dans un mode de réalisation, au moins une des images acquises à l’étape 200 peut comprendre un marquage associé à une référence ou un identifiant de l’équipement EQ capturé sur l’image acquise, un tel marquage pouvant être capturé par le capteur 11. La capture, lors des prises de vue, d’un tel marquage peut permettre l’identification de l’équipement EQ capturé, qui sera détaillée plus loin dans une étape 240.In one embodiment, at least one of the images acquired in step 200 may include a marking associated with a reference or an identifier of the EQ equipment captured on the acquired image, such marking being able to be captured by the sensor 11 The capture, during the shots, of such a marking can allow the identification of the captured EQ equipment, which will be detailed later in a step 240.

À l’issue de l’étape 200, ou concomitamment, les images acquises peuvent être transmises depuis l’appareil mobile 1 (ou des différents appareils mobiles 1) vers le dispositif de traitement 2 et/ou le serveur 21. Une telle transmission peut se faire de façon automatique, les images étant capturées et transmises pour être stockées à distance sur une unité mémoire du dispositif 2 et/ou du serveur 21 par exemple.At the end of step 200, or concomitantly, the acquired images can be transmitted from the mobile device 1 (or different mobile devices 1) to the processing device 2 and/or the server 21. Such transmission can be done automatically, the images being captured and transmitted to be stored remotely on a memory unit of the device 2 and/or the server 21 for example.

À une étape 210, une modélisation en trois dimensions (ou 3D) de l’ouvrage peut être mise en œuvre à partir des images acquises à l’étape 200. Pour cela, un processus de photogrammétrie peut être mis en œuvre par l’unité de traitement 22 du dispositif 2 à partir d’une pluralité d’images acquises à l’étape 200. La modélisation en trois dimensions de l’ouvrage permet notamment de restituer une profondeur de l’ouvrage, par exemple la profondeur de la tranchée creusée. Ainsi, à l’issue de l’étape 210, un modèle en trois dimensions de l’ouvrage peut être obtenu.At a step 210, a three-dimensional (or 3D) modeling of the work can be implemented from the images acquired in step 200. For this, a photogrammetry process can be implemented by the unit processing 22 of the device 2 from a plurality of images acquired in step 200. The three-dimensional modeling of the structure makes it possible in particular to restore a depth of the structure, for example the depth of the dug trench . Thus, at the end of step 210, a three-dimensional model of the work can be obtained.

À une étape 220, un géoréférencement du modèle en trois dimensions de l’ouvrage peut être mis en œuvre. Un tel géoréférencement peut notamment s’appuyer sur le géoréférencement de chacune des images acquises, obtenu par l’appareil d’acquisition de coordonnées géographiques 12 lors de l’étape 200. Le géoréférencement du modèle permet alors de positionner l’ouvrage dans l’espace et d’estimer l’occupation et la disposition des différents éléments composant l’ouvrage. Ainsi, à l’issue de l’étape 220, un modèle géoréférencé et en trois dimensions de l’ouvrage peut être obtenu.At a step 220, georeferencing of the three-dimensional model of the structure can be implemented. Such georeferencing can in particular be based on the georeferencing of each of the acquired images, obtained by the geographic coordinate acquisition device 12 during step 200. The georeferencing of the model then makes it possible to position the work in the space and estimate the occupation and arrangement of the different elements making up the work. Thus, at the end of step 220, a georeferenced and three-dimensional model of the structure can be obtained.

Des étapes 230, 240, 250 et 260 peuvent ensuite être mises en œuvre. Dans le contexte des étapes 230, 240, 250 et 260, les images considérées, acquises à l’étape 200, présentent au moins une portion d’équipement PEQ, comme représenté sur la .Steps 230, 240, 250 and 260 can then be implemented. In the context of steps 230, 240, 250 and 260, the images considered, acquired in step 200, present at least one portion of PEQ equipment, as shown in the .

À une étape 230, une segmentation est mise en œuvre sur chacune des images acquises. L’étape 230 de segmentation de l’image permet notamment d’obtenir au moins un contour associé à la portion de l’équipement PEQ visible sur l’image. Dans un mode de réalisation, une segmentation d’instances est mise en œuvre. Pour cela, un réseau de neurones convolutifs de type « Mask R-CNN » peut par exemple être mis en œuvre. Chaque image acquise peut être segmentée de sorte à détecter un ou plusieurs contours (formant des polygones) associés à des éléments de l’image, notamment à des portions d’équipement PEQ. La segmentation mise en œuvre à l’étape 230 permet par exemple de détecter des instances dans l’image acquise, par exemple via des zones rectangulaires de détection labellisées, ou « bounding boxes », comme représenté sur les figures 5 et 6. Sur la , la zone rectangulaire de détection permet de segmenter un élément correspondant à une portion d’un câble SEQ tandis que sur la , la zone rectangulaire de détection permet de segmenter un élément correspondant à un fourreau pour câble. L’étape de segmentation 230 permet d’obtenir des images segmentées, comprenant des éléments segmentés détectés sur l’image. En particulier, les portions d’équipement PEQ forment, à l’issue de l’étape 230, des instances segmentées SEQ. Une section d’équipement SEQ fera par la suite référence à la portion d’équipement après segmentation de l’image à l’étape 230.At a step 230, a segmentation is implemented on each of the acquired images. The image segmentation step 230 makes it possible in particular to obtain at least one contour associated with the portion of the PEQ equipment visible on the image. In one embodiment, instance segmentation is implemented. For this, a convolutional neural network of the “Mask R-CNN” type can for example be implemented. Each acquired image can be segmented so as to detect one or more contours (forming polygons) associated with elements of the image, in particular with portions of PEQ equipment. The segmentation implemented in step 230 makes it possible, for example, to detect instances in the acquired image, for example via labeled rectangular detection zones, or “bounding boxes”, as shown in Figures 5 and 6. On the , the rectangular detection zone makes it possible to segment an element corresponding to a portion of a cable SEQ while on the , the rectangular detection zone makes it possible to segment an element corresponding to a cable sheath. The segmentation step 230 makes it possible to obtain segmented images, comprising segmented elements detected on the image. In particular, the portions of equipment PEQ form, at the end of step 230, segmented instances SEQ. An equipment section SEQ will subsequently refer to the equipment portion after segmentation of the image in step 230.

En référence à la , les images de la après l’étape de segmentation sont illustrées à titre d’exemple. La section d’équipement SEQ est détectée sur chacune des images acquises via au moins un contour. En particulier, sur une image IMG2 des images segmentées visibles sur la , deux contours (ou de façon équivalente, deux polygones) distincts, désignés par SEQ1, SEQ2, sont associés à la section d’équipement détectée dans l’image IMG2. Ces deux contours SEQ1, SEQ2 sont disjoints par la présence d’un terre-plein présent sur l’image IMG2 acquise. La segmentation d’instances mise en œuvre à l’étape 230 permet avantageusement de lier les polygones SEQ1, SEQ2 comme formant une seule instance (autrement dit, comme appartenant au même équipement EQ, par exemple au même câble).In reference to the , the images of the after the segmentation step are illustrated as an example. The SEQ equipment section is detected on each of the images acquired via at least one contour. In particular, on an IMG2 image, segmented images visible on the , two distinct contours (or equivalently, two polygons), designated by SEQ1, SEQ2, are associated with the equipment section detected in the IMG2 image. These two contours SEQ1, SEQ2 are separated by the presence of a median present on the acquired IMG2 image. The segmentation of instances implemented in step 230 advantageously makes it possible to link the polygons SEQ1, SEQ2 as forming a single instance (in other words, as belonging to the same equipment EQ, for example to the same cable).

Dans un mode de réalisation, l’étape 230 de segmentation peut être mise en œuvre sur chaque image acquise pivotée d’un angle de rotation déterminé à partir d’un angle θ formé entre un axe Xθassocié à la section de l’équipement SEQ sur l’image acquise et un axe de référence de l’image acquise. L’axe de référence peut par exemple être un des axes (horizontal ou vertical) formant le repère de l’image acquise sur la (les unités des axes de référence étant exprimées en pixels). Un tel mode de réalisation est illustré sur les figures 5 et 6. Dans un tel mode de réalisation, l’étape 230 de segmentation de chacune des images acquises comprend :
- une première segmentation de la portion de l’équipement PEQ sur l’image acquise de sorte à obtenir au moins un polygone SEQ associé à la portion de l’équipement PEQ, comme représenté sur la ,
- une détermination d’un axe Xθassocié au polygone SEQ obtenu sur l’image acquise
- une détermination (voir détail au paragraphe suivant) de l’angle θ formé entre l’axe Xθassocié à la portion de l’équipement SEQ et l’axe de référence, l’axe de référence étant par exemple choisi comme étant l’axe horizontal du repère de l’image sur la ,
- une seconde segmentation sur l’image acquise pivotée d’un angle de rotation calculé à partir dudit angle θ, de sorte à obtenir un polygone pivoté SEQ* associé à la portion de l’équipement, comme représenté sur la .
In one embodiment, the segmentation step 230 can be implemented on each acquired image rotated by an angle of rotation determined from an angle θ formed between an axis X θ associated with the section of the equipment SEQ on the acquired image and a reference axis of the acquired image. The reference axis can for example be one of the axes (horizontal or vertical) forming the mark of the image acquired on the (the units of the reference axes being expressed in pixels). Such an embodiment is illustrated in Figures 5 and 6. In such an embodiment, step 230 of segmenting each of the acquired images comprises:
- a first segmentation of the portion of the PEQ equipment on the acquired image so as to obtain at least one polygon SEQ associated with the portion of the PEQ equipment, as shown in the ,
- a determination of an axis X θ associated with the polygon SEQ obtained on the acquired image
- a determination (see details in the following paragraph) of the angle θ formed between the axis X θ associated with the portion of the equipment SEQ and the reference axis, the reference axis being for example chosen as being l horizontal axis of the image mark on the ,
- a second segmentation on the acquired image rotated by an angle of rotation calculated from said angle θ, so as to obtain a rotated polygon SEQ* associated with the portion of the equipment, as shown in the .

La détermination d’un axe Xθassocié au polygone SEQ obtenu sur l’image acquise, inclut par exemple de :
-- déterminer un centre de gravité G du polygone SEQ,
-- obtenir deux sous-polygones résultant d’une section du polygone SEQ selon un axe XGde l’image acquise croisant le centre de gravité G,
-- déterminer un barycentre B1, B2 de chaque sous-polygone,
-- déterminer l’axe Xθassocié à la portion de l’équipement PEQ à partir d’un axe associé au polygone SEQ obtenu en reliant les barycentres B1, B2 des sous-polygones,
The determination of an axis X θ associated with the polygon SEQ obtained on the acquired image, includes for example:
-- determine a center of gravity G of the polygon SEQ,
-- obtain two sub-polygons resulting from a section of the polygon SEQ along an axis X G of the acquired image crossing the center of gravity G,
-- determine a barycenter B1, B2 of each sub-polygon,
-- determine the axis

Une telle mise en œuvre permet alors d’obtenir une meilleure segmentation de l’image, le (ou les) polygone(s) sur l’image présentant une enveloppe (délimitant le polygone) plus précise lorsque la portion de l’équipement PEQ à détecter est disposée de façon verticale ou horizontale par rapport aux axes repère (ou axes de référence) de l’image.Such an implementation then makes it possible to obtain better segmentation of the image, the polygon(s) on the image presenting a more precise envelope (delimiting the polygon) when the portion of the PEQ equipment to detect is arranged vertically or horizontally with respect to the reference axes (or reference axes) of the image.

Dans un mode de réalisation, la première segmentation mise en œuvre sur l’image (originale, c’est-à-dire avant rotation) peut comprendre plusieurs polygones, par exemple lorsque la première segmentation manque de précision de sorte que la section de câble est détectée de façon discontinue (i.e., par des enveloppes disjointes), ou encore lorsque la section de l’équipement SEQ présente deux contours disjoints associés à une même instance sur l’image, comme sur l’image IMG2 de la . Dans un tel mode de réalisation, chaque image acquise est pivotée d’un angle de rotation déterminé à partir de la moyenne des angles formés entre chaque axe associé à chaque polygone et un axe de référence commun de l’image acquise, par exemple l’axe horizontal du repère de l’image acquise, comme représenté sur la .In one embodiment, the first segmentation implemented on the image (original, that is to say before rotation) can include several polygons, for example when the first segmentation lacks precision so that the cable section is detected discontinuously (ie, by disjoint envelopes), or even when the section of the equipment SEQ presents two disjoint contours associated with the same instance on the image, as in the IMG2 image of the . In such an embodiment, each acquired image is rotated by an angle of rotation determined from the average of the angles formed between each axis associated with each polygon and a common reference axis of the acquired image, for example the horizontal axis of the acquired image mark, as shown on the .

À l’issue de l’étape 230, le procédé permet alors d’obtenir une pluralité d’images segmentées, comprenant plusieurs sections d’équipement SEQ détectées et délimitées sur chacune des images, comme représenté sur la .At the end of step 230, the method then makes it possible to obtain a plurality of segmented images, comprising several sections of equipment SEQ detected and delimited on each of the images, as shown in the .

À une étape 240 optionnelle, une identification de l’équipement EQ est mise en œuvre. Dans le contexte de l’étape 240, l’image (ou les images) considérée(s) présente(nt) au moins un marquage visible associé à l’équipement EQ et disposé sur une ou plusieurs portions de l’équipement PEQ capturées sur les images acquises (ou à proximité immédiate). L’étape d’identification de l’équipement EQ peut alors être mise en œuvre par détection du marquage. Selon des modes de réalisation, l’étape 240 d’identification peut être mise en œuvre avant ou après l’étape 230 de segmentation. De préférence, l’étape 240 d’identification peut être mise en œuvre après l’étape 230 de segmentation, de sorte à limiter la zone d’identification du marquage aux zones occupées par le(s) polygone(s) SEQ déjà détectés sur l’image acquise, ce qui réduit la zone de l’image à traiter afin de détecter le marquage.In an optional step 240, identification of the EQ equipment is implemented. In the context of step 240, the image (or images) considered present(s) at least one visible marking associated with the EQ equipment and arranged on one or more portions of the PEQ equipment captured on the images acquired (or in the immediate vicinity). The step of identifying the EQ equipment can then be implemented by detection of the marking. According to embodiments, the identification step 240 can be implemented before or after the segmentation step 230. Preferably, the identification step 240 can be implemented after the segmentation step 230, so as to limit the identification zone of the marking to the zones occupied by the polygon(s) SEQ already detected on the acquired image, which reduces the area of the image to be processed in order to detect the marking.

Dans un mode réalisation de l’étape 240, le marquage correspond à une suite (ou un ensemble) de caractères dactylographiés. L’identification de l’équipement EQ à l’étape 240 peut alors être mise en œuvre par une reconnaissance optique de caractères (ou en anglais «Optical Character Recognition» ou OCR) sur au moins une image acquise comprenant le marquage. Pour cela, une zone associée au marquage (par exemple, une « bounding box ») peut d’abord être détectée (par exemple, en détectant la présence de caractères dans l’image, sans détecter la nature ou le type de ces caractères à ce stade). Une taille associée au marquage peut également être estimée (par exemple en pixels), de sorte à délimiter la zone associée au marquage. L’étape 240 peut ensuite inclure :
- une reconnaissance optique de plusieurs groupes de motifs (e.g., des caractères) composant l’ensemble de caractères du marquage via une détection par une fenêtre glissante sur la zone associée au marquage, une taille associée à la fenêtre glissante étant inférieure à la taille associée au marquage, deux groupes de motifs successivement détectés par la fenêtre glissante se recouvrant en au moins un motif,
- une concaténation des groupes de motifs successivement détectés à partir de l’au moins un motif recouvrant deux groupes de motifs successifs, de sorte à obtenir un ensemble de chaînes de caractères résultant de la concaténation (par exemple, si le ou les motifs recouvrant deux groupes de motifs successifs comprennent deux suites de caractères identiques, plusieurs chaînes de caractères résultant de la concaténation peuvent être obtenues), et enfin
- une identification de l’équipement EQ par association du marquage de l’équipement EQ avec le groupe de motifs concaténé en sélectionnant la chaîne de caractères ayant la distance moyenne de Levenshtein minimale avec les autres chaînes de caractères (i.e., la chaîne de caractères pour laquelle le coût pour passer d’une chaîne à l’autre est minimal).
In one embodiment of step 240, the marking corresponds to a sequence (or a set) of typed characters. The identification of the EQ equipment in step 240 can then be implemented by optical character recognition (or in English “ Optical Character Recognition ” or OCR) on at least one acquired image including the marking. To do this, an area associated with the marking (for example, a “bounding box”) can first be detected (for example, by detecting the presence of characters in the image, without detecting the nature or type of these characters to this stage). A size associated with the marking can also be estimated (for example in pixels), so as to delimit the area associated with the marking. Step 240 can then include:
- optical recognition of several groups of patterns (eg, characters) composing the set of characters of the marking via detection by a sliding window on the area associated with the marking, a size associated with the sliding window being less than the associated size when marking, two groups of patterns successively detected by the sliding window overlapping in at least one pattern,
- a concatenation of the groups of patterns successively detected from the at least one pattern covering two groups of successive patterns, so as to obtain a set of character strings resulting from the concatenation (for example, if the pattern(s) covering two groups of successive patterns include two sequences of identical characters, several character strings resulting from the concatenation can be obtained), and finally
- an identification of the EQ equipment by association of the marking of the EQ equipment with the group of concatenated patterns by selecting the character string having the minimum average Levenshtein distance with the other character strings (ie, the character string for where the cost of switching from one channel to another is minimal).

Dans un mode de réalisation, le groupe de motifs concaténé associé au marquage de l’équipement EQ peut être interprété comme une référence ou un identifiant de l’équipement EQ, et peut alors être mis en correspondance dans une base de données, par exemple stockée sur le serveur 21 et/ou le dispositif 2, de sorte à associer le marquage identifié (et donc l’équipement EQ détecté sur l’image) avec un ensemble d’informations stocké dans la base de données.In one embodiment, the group of concatenated patterns associated with the marking of the EQ equipment can be interpreted as a reference or an identifier of the EQ equipment, and can then be matched in a database, for example stored on the server 21 and/or the device 2, so as to associate the identified marking (and therefore the EQ equipment detected on the image) with a set of information stored in the database.

En variante, l’identification de l’équipement EQ peut également être mise en œuvre par reconnaissance digitale, dans le cas où le marquage correspond par exemple à un QR code ou une balise digitale. La capture digitale du marquage peut alors permettre d’associer l’équipement EQ avec un ensemble d’informations stocké dans la base de données en correspondance avec le marquage capturé.Alternatively, the identification of the EQ equipment can also be implemented by digital recognition, in the case where the marking corresponds for example to a QR code or a digital beacon. Digital capture of the marking can then make it possible to associate the EQ equipment with a set of information stored in the database in correspondence with the captured marking.

Ainsi, à l’issue de l’étape 240, l’équipement EQ tel que capturé sur une ou plusieurs des images acquises, peut être identifié par détection du marquage.Thus, at the end of step 240, the EQ equipment as captured on one or more of the acquired images can be identified by detection of the marking.

Dans d’autres modes de réalisation, l’étape 240 peut être mise en œuvre plus tôt ou plus tard dans le procédé, tant que l’étape 200 d’acquisition des images est mise en œuvre en amont de l’étape 240.In other embodiments, step 240 can be implemented earlier or later in the process, as long as image acquisition step 200 is implemented upstream of step 240.

À une étape 250, une projection des sections d’équipement SEQ détectées à l’issue de l’étape 230 (et éventuellement identifiées à l’issue de l’étape 240) peut être mise en œuvre, de sorte à modéliser l’équipement EQ dans le modèle géoréférencé en trois dimensions de l’ouvrage tel qu’obtenu à l’issue de l’étape 220.At a step 250, a projection of the equipment sections SEQ detected at the end of step 230 (and possibly identified at the end of step 240) can be implemented, so as to model the equipment EQ in the three-dimensional georeferenced model of the structure as obtained at the end of step 220.

Pour cela, l’étape 250 peut comprendre une projection des contours associés aux sections d’équipement SEQ, détectés sur chacune des images acquises, sur le modèle en trois dimensions de l’ouvrage par projection des coordonnées associées aux contours SEQ dans le système de coordonnées géographiques prédéfini. Une telle projection à l’étape 250 permet alors d’obtenir modèle en trois dimensions et géoréférencé de l’ouvrage comprenant une disposition précise de l’équipement EQ. Une telle projection mise en œuvre à l’étape 250 est représentée sur la à titre d’exemple. Comme illustré sur la , à l’issue de l’étape 250, l’équipement EQ peut alors être reconstruit par projection des différentes sections d’équipement SEQ et par une modélisation en trois dimensions intégrée dans le modèle de l’ouvrage.For this, step 250 may include a projection of the contours associated with the equipment sections SEQ, detected on each of the acquired images, on the three-dimensional model of the work by projection of the coordinates associated with the contours SEQ in the system of Predefined geographic coordinates. Such a projection in step 250 then makes it possible to obtain a three-dimensional and georeferenced model of the work including a precise arrangement of the EQ equipment. Such a projection implemented in step 250 is represented on the for exemple. As illustrated on the , at the end of step 250, the EQ equipment can then be reconstructed by projection of the different sections of SEQ equipment and by three-dimensional modeling integrated into the model of the structure.

Au stade de l’étape 250, les différents contours projetés associés aux sections de l’équipement SEQ peuvent présenter des sections disjointes D, comme représenté sur la .At step 250, the different projected contours associated with the sections of the equipment SEQ may have disjoint sections D, as shown in the figure. .

À une étape 260, un regroupement des contours projetés peut être mis en œuvre. Un tel regroupement des contours projetés peut comprendre :
- un filtrage des contours projetés de sorte à sélectionner des zones d’intersection correspondant à une intersection d’au moins deux contours projetés,
- un regroupement des zones d’intersection non disjointes, de sorte à obtenir un ensemble de polygones géoréférencés associés à l’équipement.
At a step 260, a grouping of the projected contours can be implemented. Such a grouping of projected contours may include:
- filtering the projected contours so as to select intersection zones corresponding to an intersection of at least two projected contours,
- a grouping of non-disjoint intersection zones, so as to obtain a set of georeferenced polygons associated with the equipment.

Ainsi, à l’étape 260, un ensemble de polygones formés par une agrégation (ou « clustering ») des contours projetés peut être obtenu. Un tel regroupement est par exemple illustré sur la . En référence à la , trois contours projetés C1, C2, C3 sont considérés à titre d’exemple. Le géoréférencement associé à chaque contour C1, C2, C3 permet une disposition des contours comme représentée sur la . Les contours C1 et C2 présentent une zone d’intersection non nulle, de même pour les contours C1 et C3, ainsi que pour les contours C2 et C3. De telles zones d’intersection sont alors regroupées, de sorte à obtenir un polygone formé par un unique contour C. Les zones recouvertes par un seul contour (par exemple C1 seulement ou C3 seulement) ne sont pas regroupées, comme représenté par l’élément D sur la .Thus, in step 260, a set of polygons formed by an aggregation (or “clustering”) of the projected contours can be obtained. Such a grouping is for example illustrated on the . In reference to the , three projected contours C1, C2, C3 are considered as an example. The georeferencing associated with each contour C1, C2, C3 allows an arrangement of the contours as shown on the . Contours C1 and C2 have a non-zero intersection zone, the same for contours C1 and C3, as well as for contours C2 and C3. Such intersection zones are then grouped, so as to obtain a polygon formed by a single contour C. The zones covered by a single contour (for example C1 only or C3 only) are not grouped, as represented by the element D on the .

À l’issue de l’étape 260, une première représentation (potentiellement discontinue) de l’équipement EQ peut être obtenue et modélisée dans le modèle géoréférencé de l’ouvrage.At the end of step 260, a first (potentially discontinuous) representation of the EQ equipment can be obtained and modeled in the georeferenced model of the structure.

À une étape 270, un plan géoréférencé peut alors être généré, un tel plan géoréférencé comprenant notamment un tracé de l’équipement EQ. Un tel tracé peut être obtenu à l’étape 270 par :
- une extraction d’au moins une courbe directrice associée à l’équipement EQ à partir du regroupement des contours projetés (c’est-à-dire ici à partir des polygones obtenus à l’étape 260),
- une modélisation de la courbe directrice en un graphe, puis
- un traçage de l’équipement via un traçage par parcours de graphe des sommets du graphe, un tel parcours de graphe étant contraint par au moins une distance minimale prédéfinie et un angle maximal prédéfini entre deux sommets successifs du graphe.
At a step 270, a georeferenced plan can then be generated, such a georeferenced plan including in particular a layout of the EQ equipment. Such a plot can be obtained in step 270 by:
- an extraction of at least one direction curve associated with the EQ equipment from the grouping of the projected contours (that is to say here from the polygons obtained in step 260),
- a modeling of the direction curve in a graph, then
- tracing the equipment via tracing by graph traversal of the vertices of the graph, such graph traversal being constrained by at least a predefined minimum distance and a predefined maximum angle between two successive vertices of the graph.

En référence à la , un tel tracé de l’équipement EQ est représenté. L’extraction de la courbe directrice associée à l’équipement EQ peut être mise en œuvre en raccordant les courbures associées aux contours regroupés sous une hypothèse de continuité du tracé de l’équipement EQ. Les courbures associées aux contours regroupés pouvant par ailleurs présenter des embranchements (et non une unique ligne directrice), selon les formes du contour, une modélisation en graphe de la courbe directrice permet de relier les différentes sections de l’équipement SEQ sous l’hypothèse de continuité du tracé de l’équipement EQ. En effet, chaque contour regroupé (i.e., chaque polygone) peut être représenté comme une composante connexe. Le parcours de graphe peut alors être interprété comme un raccordement des différentes composantes connexes correspondant aux différents polygones disjoints, de sorte à obtenir un tracé unique de l’équipement EQ. Le traçage de l’équipement EQ peut également être soumis à des contraintes de paramètres définissant l’équipement EQ de sorte à améliorer la précision du tracé : une distance minimale séparant deux polygones peut être prédéfinie ou encore, un angle maximal peut être défini. Un tel angle maximal peut par exemple être défini par la courbure maximale présentée par un câble électrique disposé dans l’ouvrage.In reference to the , such a layout of the EQ equipment is shown. The extraction of the director curve associated with the EQ equipment can be implemented by connecting the curvatures associated with the contours grouped under an assumption of continuity of the layout of the EQ equipment. The curvatures associated with the grouped contours may also present branches (and not a single direction line), depending on the shapes of the contour, a graph modeling of the direction curve makes it possible to connect the different sections of the SEQ equipment under the hypothesis continuity of the EQ equipment layout. Indeed, each grouped contour (ie, each polygon) can be represented as a connected component. The graph path can then be interpreted as a connection of the different connected components corresponding to the different disjoint polygons, so as to obtain a single layout of the EQ equipment. The tracing of the EQ equipment can also be subject to parameter constraints defining the EQ equipment so as to improve the precision of the tracing: a minimum distance separating two polygons can be predefined or even a maximum angle can be defined. Such a maximum angle can for example be defined by the maximum curvature presented by an electric cable placed in the structure.

Ainsi, lors de l’étape 270, un tracé continu de l’équipement EQ peut alors être obtenu sur un plan géoréférencé d’ouvrage construit (ou PGOC) tel que généré. De plus, l’équipement EQ ainsi tracé peut également être identifié. Par conséquent, le procédé proposé permet de générer un plan géoréférencé des ouvrages incluant un tracé précis, systématique et une identification des équipements EQ présent dans les ouvrages. La représente un tel plan géoréférencé incluant un tracé de l’équipement EQ. Un tel plan géoréférencé est par ailleurs généré selon un niveau de précision dit de classe A, c’est-à-dire avec une erreur de modélisation inférieure à 40 centimètres. Le tracé des équipements selon le procédé proposé permet alors d’enrichir les informations offertes par le plan géoréférencé de façon automatisée tout en respectant le niveau de précision requis par les réglementations des constructions.Thus, during step 270, a continuous layout of the EQ equipment can then be obtained on a georeferenced plan of the constructed structure (or PGOC) as generated. In addition, the EQ equipment traced in this way can also be identified. Consequently, the proposed method makes it possible to generate a georeferenced plan of the structures including a precise, systematic layout and an identification of the EQ equipment present in the structures. There represents such a georeferenced plan including a layout of the EQ equipment. Such a georeferenced plan is also generated according to a so-called class A level of precision, that is to say with a modeling error of less than 40 centimeters. The layout of the equipment according to the proposed process then makes it possible to enrich the information offered by the georeferenced plan in an automated manner while respecting the level of precision required by building regulations.

Le plan géoréférencé obtenu peut ensuite être utilisé comme source d’information fiable pour toute action relative à la zone du chantier ainsi géoréférencée. Autrement dit, le procédé peut être complété par une ultime étape utilisant le plan géoréférencé obtenu ou les informations qu’il porte, mise en œuvre ou non par un système informatique, ayant n’importe quel effet technique au sens de l’Office européen des brevets.The georeferenced plan obtained can then be used as a reliable source of information for any action relating to the site area thus georeferenced. In other words, the process can be completed by a final step using the georeferenced plan obtained or the information it carries, implemented or not by a computer system, having any technical effect within the meaning of the European Office of patents.

Claims (11)

Procédé de détection d’un équipement (EQ) d’un ouvrage construit lors d’une génération d’un plan géoréférencé de l’ouvrage construit mis en œuvre par un système informatique d’acquisition et de traitement, le procédé comprenant :
a) une acquisition d’images (200), à l’aide d’un appareil mobile de prise de vues, lesdites images acquises étant géoréférencées selon un système de coordonnées géographiques prédéfini et présentant au moins deux angles de vue distincts d’au moins une portion (PEQ) de l’équipement (EQ) de l’ouvrage construit ;
b) un traitement automatisé des images acquises par au moins un logiciel de traitement et comprenant :
b1) une modélisation (210) en trois dimensions de l’ouvrage construit par photogrammétrie,
b2) un géoréférencement (220) de l’ouvrage construit dans le système de coordonnées géographiques prédéfini,
b3) une segmentation (230) de chacune des images acquises de sorte à obtenir au moins un contour de la portion (PEQ) de l’équipement (EQ), ladite segmentation (230) étant mise en œuvre sur chaque image acquise pivotée d’un angle de rotation déterminé à partir d’un angle (θ) formé entre un axe associé à la portion (PEQ) de l’équipement (Xθ) sur l’image acquise et un axe de référence de l’image acquise,
b4) une projection (250) des contours de la portion de l’équipement (EQ) respectivement obtenus des images acquises sur la modélisation en trois dimensions de l’ouvrage construit, et
b5) un regroupement (260) des contours projetés (C1, C2, C3), ledit regroupement (260) de contours projetés (C1, C2, C3) formant un tracé de l’équipement (EQ);
le procédé comprenant en outre :
c) une génération (270) du plan géoréférencé de l’ouvrage construit à partir des résultats du traitement automatisé, ledit plan géoréférencé comprenant au moins le tracé de l’équipement (EQ).
Method for detecting equipment (EQ) of a constructed structure during generation of a georeferenced plan of the constructed structure implemented by a computer acquisition and processing system, the method comprising:
a) an acquisition of images (200), using a mobile camera, said acquired images being georeferenced according to a predefined geographic coordinate system and having at least two distinct viewing angles of at least a portion (PEQ) of the equipment (EQ) of the constructed work;
b) automated processing of the images acquired by at least one processing software and comprising:
b1) a three-dimensional modeling (210) of the structure constructed by photogrammetry,
b2) georeferencing (220) of the structure constructed in the predefined geographic coordinate system,
b3) a segmentation (230) of each of the acquired images so as to obtain at least one contour of the portion (PEQ) of the equipment (EQ), said segmentation (230) being implemented on each acquired image rotated by an angle of rotation determined from an angle (θ) formed between an axis associated with the portion (PEQ) of the equipment (X θ ) on the acquired image and a reference axis of the acquired image,
b4) a projection (250) of the contours of the portion of the equipment (EQ) respectively obtained from the images acquired on the three-dimensional modeling of the constructed structure, and
b5) a grouping (260) of the projected contours (C1, C2, C3), said grouping (260) of projected contours (C1, C2, C3) forming a layout of the equipment (EQ);
the method further comprising:
c) a generation (270) of the georeferenced plan of the work constructed from the results of the automated processing, said georeferenced plan comprising at least the layout of the equipment (EQ).
Procédé selon la revendication 1, dans lequel la segmentation (230) de chacune des images acquises est une segmentation d’instances.Method according to claim 1, in which the segmentation (230) of each of the acquired images is an instance segmentation. Procédé selon l’une des revendications précédentes, dans lequel la segmentation (230) de chacune des images acquises comprend :
b31) une première segmentation de la portion (PEQ) de l’équipement (EQ) sur l’image acquise de sorte à obtenir au moins un polygone associé à la portion (PEQ) de l’équipement (EQ),
b32) une détermination de l’axe associé à la portion (PEQ) de l’équipement (Xθ) sur l’image acquise, incluant de :
- déterminer un centre de gravité (G) du polygone,
- obtenir deux sous-polygones résultant d’une section du polygone selon un axe de l’image acquise croisant le centre de gravité (G),
- déterminer un barycentre (B1, B2) de chaque sous-polygone,
- déterminer l’axe associé à la portion (PEQ) de l’équipement (Xθ) à partir d’un axe associé au polygone obtenu en reliant les barycentres (B1, B2) des sous-polygones,
b33) une détermination de l’angle (θ) formé entre l’axe associé à la portion (PEQ) de l’équipement (Xθ) et l’axe de référence,
b34) une seconde segmentation sur l’image acquise pivotée d’un angle de rotation calculé à partir dudit angle (θ), de sorte à obtenir un polygone pivoté associé à la portion (PEQ) de l’équipement (EQ).
Method according to one of the preceding claims, in which the segmentation (230) of each of the acquired images comprises:
b31) a first segmentation of the portion (PEQ) of the equipment (EQ) on the acquired image so as to obtain at least one polygon associated with the portion (PEQ) of the equipment (EQ),
b32) a determination of the axis associated with the portion (PEQ) of the equipment (X θ ) on the acquired image, including:
- determine a center of gravity (G) of the polygon,
- obtain two sub-polygons resulting from a section of the polygon along an axis of the acquired image crossing the center of gravity (G),
- determine a barycenter (B1, B2) of each sub-polygon,
- determine the axis associated with the portion (PEQ) of the equipment (X θ ) from an axis associated with the polygon obtained by connecting the barycenters (B1, B2) of the sub-polygons,
b33) a determination of the angle (θ) formed between the axis associated with the portion (PEQ) of the equipment (X θ ) and the reference axis,
b34) a second segmentation on the acquired image rotated by an angle of rotation calculated from said angle (θ), so as to obtain a rotated polygon associated with the portion (PEQ) of the equipment (EQ).
Procédé selon la revendication 3, dans lequel au moins deux polygones associés à la portion (PEQ) de l’équipement (EQ) sont obtenus à l’issue de la première segmentation, et dans lequel chaque image acquise est pivotée d’un angle de rotation déterminé à partir de la moyenne des angles formés entre chaque axe associé à chaque polygone et un axe de référence commun de l’image acquise.Method according to claim 3, in which at least two polygons associated with the portion (PEQ) of the equipment (EQ) are obtained at the end of the first segmentation, and in which each acquired image is rotated by an angle of rotation determined from the average of the angles formed between each axis associated with each polygon and a common reference axis of the acquired image. Procédé selon l’une des revendications précédentes, l’équipement (EQ) comprenant un marquage composé d’un ensemble de caractères, le procédé comprenant en outre, avant la génération du plan géoréférencé de l’ouvrage construit :
b’) une identification (240) de l’équipement (EQ) par une reconnaissance optique de caractères mise en œuvre sur au moins une des images acquises comprenant le marquage,
et dans lequel plan géoréférencé généré comprend en outre l’identification de l’équipement (EQ).
Method according to one of the preceding claims, the equipment (EQ) comprising marking composed of a set of characters, the method further comprising, before generating the georeferenced plan of the constructed structure:
b') identification (240) of the equipment (EQ) by optical character recognition implemented on at least one of the acquired images including the marking,
and wherein the generated georeferenced plan further includes equipment identification (EQ).
Procédé selon la revendication 5, dans lequel l’identification de l’équipement comprend :
b’1) une détection initiale d’une zone d’identification de l’image acquise, ladite zone d’identification comprenant le marquage,
b’2) une reconnaissance optique de plusieurs groupes de motifs composant l’ensemble de caractères du marquage via une détection par une fenêtre glissante sur ladite zone d’identification, une taille associée à la fenêtre glissante étant inférieure à une taille de la zone d’identification, deux groupes de motifs successivement détectés par la fenêtre glissante se recouvrant en au moins un motif commun,
b’3) une concaténation les uns aux autres des groupes de motifs successivement détectés par l’intermédiaire de l’au moins un motif commun,
b’4) l’identification de l’équipement par association du marquage de l’équipement (EQ) avec les groupe de motifs concaténés.
Method according to claim 5, in which the identification of the equipment comprises:
b'1) an initial detection of an identification zone of the acquired image, said identification zone comprising the marking,
b'2) optical recognition of several groups of patterns making up the set of characters of the marking via detection by a sliding window on said identification zone, a size associated with the sliding window being less than a size of the zone d identification, two groups of patterns successively detected by the sliding window overlapping in at least one common pattern,
b'3) a concatenation of the groups of patterns successively detected via the at least one common pattern,
b'4) the identification of the equipment by association of the equipment marking (EQ) with the groups of concatenated patterns.
Procédé selon l’une des revendications précédentes, dans lequel la projection (250) des contours de la portion (PEQ) de l’équipement (EQ) sur la modélisation en trois dimensions de l’ouvrage construit comprend une projection de coordonnées associées auxdits contours dans le système de coordonnées géographiques prédéfini, lesdites coordonnées associées auxdits contours étant définies selon un repère image en deux dimensions associé aux images acquises.Method according to one of the preceding claims, in which the projection (250) of the contours of the portion (PEQ) of the equipment (EQ) on the three-dimensional modeling of the constructed work comprises a projection of coordinates associated with said contours in the predefined geographic coordinate system, said coordinates associated with said contours being defined according to a two-dimensional image marker associated with the acquired images. Procédé selon l’une des revendications précédentes, dans lequel le regroupement (260) des contours projetés (C1, C2, C3) comprend :
b51) un filtrage des contours projetés (C1, C2, C3) de sorte à sélectionner des zones d’intersection correspondant à une intersection d’au moins deux contours projetés (C1, C2, C3),
b52) un regroupement des zones d’intersection non disjointes, de sorte à obtenir un ensemble de polygones géoréférencés associés à l’équipement.
Method according to one of the preceding claims, in which the grouping (260) of the projected contours (C1, C2, C3) comprises:
b51) filtering the projected contours (C1, C2, C3) so as to select intersection zones corresponding to an intersection of at least two projected contours (C1, C2, C3),
b52) a grouping of non-disjoint intersection zones, so as to obtain a set of georeferenced polygons associated with the equipment.
Procédé selon l’une des revendications précédentes, dans lequel le tracé de l’équipement est obtenu par :
c11) une extraction d’au moins une courbe directrice associée à l’équipement à partir du regroupement des contours projetés (C1, C2, C3),
c12) une modélisation de ladite courbe directrice en un graphe,
c13) un traçage de l’équipement via un traçage par parcours de graphe des sommets dudit graphe, ledit parcours de graphe étant contraint par au moins une distance minimale prédéfinie et un angle maximal prédéfini entre deux sommets successifs du graphe.
Method according to one of the preceding claims, in which the layout of the equipment is obtained by:
c11) an extraction of at least one direction curve associated with the equipment from the grouping of the projected contours (C1, C2, C3),
c12) a modeling of said director curve in a graph,
c13) tracing the equipment via tracing by graph traversal of the vertices of said graph, said graph traversal being constrained by at least a predefined minimum distance and a predefined maximum angle between two successive vertices of the graph.
Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une des revendications 1 à 9 lorsque ce programme est exécuté par un processeur.Computer program comprising instructions for implementing the method according to one of claims 1 to 9 when this program is executed by a processor. Support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon l’une des revendications 1 à 9 lorsque ce programme est exécuté par un processeur.Non-transitory recording medium readable by a computer on which a program is recorded for implementing the method according to one of claims 1 to 9 when this program is executed by a processor.
FR2211772A 2022-11-10 2022-11-10 Equipment layout in a georeferenced plan Pending FR3142025A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2211772A FR3142025A1 (en) 2022-11-10 2022-11-10 Equipment layout in a georeferenced plan

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2211772A FR3142025A1 (en) 2022-11-10 2022-11-10 Equipment layout in a georeferenced plan
FR2211772 2022-11-10

Publications (1)

Publication Number Publication Date
FR3142025A1 true FR3142025A1 (en) 2024-05-17

Family

ID=84819831

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2211772A Pending FR3142025A1 (en) 2022-11-10 2022-11-10 Equipment layout in a georeferenced plan

Country Status (1)

Country Link
FR (1) FR3142025A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2997492A1 (en) * 2012-10-25 2014-05-02 Fit Esic F I T Sa Verification plan establishment method for e.g. water pipe network, involves rebuilding apparent element, and establishing plan including apparent element that is re-built and geo-referred in predetermined geometrical reference frame
US20140346223A1 (en) * 2013-05-21 2014-11-27 Jan Lee Van Sickle Open-Ditch Pipeline As-Built Process
US20220282967A1 (en) * 2019-10-28 2022-09-08 DeepUp GmbH Method and mobile detection unit for detecting elements of infrastructure of an underground line network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2997492A1 (en) * 2012-10-25 2014-05-02 Fit Esic F I T Sa Verification plan establishment method for e.g. water pipe network, involves rebuilding apparent element, and establishing plan including apparent element that is re-built and geo-referred in predetermined geometrical reference frame
US20140346223A1 (en) * 2013-05-21 2014-11-27 Jan Lee Van Sickle Open-Ditch Pipeline As-Built Process
US20220282967A1 (en) * 2019-10-28 2022-09-08 DeepUp GmbH Method and mobile detection unit for detecting elements of infrastructure of an underground line network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FABIO REMONDINO ET AL: "Image-based 3D Modelling: A Review", THE PHOTOGRAMMETRIC RECORD, vol. 21, no. 115, 1 September 2006 (2006-09-01), pages 269 - 291, XP055046351, ISSN: 0031-868X, DOI: 10.1111/j.1477-9730.2006.00383.x *

Similar Documents

Publication Publication Date Title
US11080911B2 (en) Mosaic oblique images and systems and methods of making and using same
Verhoeven et al. Computer vision‐based orthophoto mapping of complex archaeological sites: The ancient quarry of Pitaranha (Portugal–Spain)
Lim et al. Combined digital photogrammetry and time‐of‐flight laser scanning for monitoring cliff evolution
KR101105795B1 (en) Automatic processing of aerial images
Peppa et al. Automated co‐registration and calibration in SfM photogrammetry for landslide change detection
KR101533182B1 (en) 3d streets
US20080089577A1 (en) Feature extraction from stereo imagery
Pérez et al. Accuracy and effectiveness of orthophotos obtained from low cost UASs video imagery for traffic accident scenes documentation
CN111383335B (en) Crowd funding photo and two-dimensional map combined building three-dimensional modeling method
Javadnejad et al. Dense point cloud quality factor as proxy for accuracy assessment of image-based 3D reconstruction
CN106504192A (en) A kind of power transmission line corridor geological disaster exploration image treatment method and system
Jende et al. A fully automatic approach to register mobile mapping and airborne imagery to support the correction of platform trajectories in GNSS-denied urban areas
KR100904078B1 (en) A system and a method for generating 3-dimensional spatial information using aerial photographs of image matching
US20220164999A1 (en) Orthophoto map generation method based on panoramic map
Axelsson et al. Roof type classification using deep convolutional neural networks on low resolution photogrammetric point clouds from aerial imagery
CN112288637A (en) Unmanned aerial vehicle aerial image rapid splicing device and rapid splicing method
Rüther et al. Challenges in heritage documentation with terrestrial laser scanning
Chudý et al. The application of civic technologies in a field survey of landslides
Widyaningrum et al. Extraction of building roof edges from LiDAR data to optimize the digital surface model for true orthophoto generation
CN112037192A (en) Method for collecting burial depth information in town gas public pipeline installation process
CN109785421B (en) Texture mapping method and system based on air-ground image combination
US9240055B1 (en) Symmetry-based interpolation in images
FR3142025A1 (en) Equipment layout in a georeferenced plan
Chen et al. Rapid 3d modeling using photogrammetry applied to *** earth
Meesuk et al. Using multidimensional views of photographs for flood modelling

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240517