FR3015333A1 - Systeme, notamment de production, utilisant des robots cooperants - Google Patents

Systeme, notamment de production, utilisant des robots cooperants Download PDF

Info

Publication number
FR3015333A1
FR3015333A1 FR1363422A FR1363422A FR3015333A1 FR 3015333 A1 FR3015333 A1 FR 3015333A1 FR 1363422 A FR1363422 A FR 1363422A FR 1363422 A FR1363422 A FR 1363422A FR 3015333 A1 FR3015333 A1 FR 3015333A1
Authority
FR
France
Prior art keywords
cobot
map
environment
information
cobots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1363422A
Other languages
English (en)
Other versions
FR3015333B1 (fr
Inventor
Andre Quinquis
David Marquez-Gamez
Alexis Girin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut de Recherche Technologique Jules Verne
Original Assignee
Institut de Recherche Technologique Jules Verne
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut de Recherche Technologique Jules Verne filed Critical Institut de Recherche Technologique Jules Verne
Priority to FR1363422A priority Critical patent/FR3015333B1/fr
Priority to PCT/EP2014/079280 priority patent/WO2015097269A1/fr
Priority to EP14827786.6A priority patent/EP3137265A1/fr
Priority to US15/106,819 priority patent/US20170080567A1/en
Publication of FR3015333A1 publication Critical patent/FR3015333A1/fr
Application granted granted Critical
Publication of FR3015333B1 publication Critical patent/FR3015333B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Manipulator (AREA)

Abstract

L'invention concerne un robot, dit cobot (100), notamment à base (110) mobile comprenant : a. des moyens de mémoire dans lesquels est enregistrée une cartographie invariante de l'espace dans lequel ledit cobot (100) est susceptible d'évoluer ; b. des capteurs (141, 142) embarqués par ledit cobot et aptes à le renseigner sur son environnement concentrique ; c. des moyens (150) de communication aptes à émettre et recevoir des informations ; d. des moyens de calcul aptes à traiter les informations provenant des capteurs et des moyens (150) de communication ; e. un moyen (190) d'exploration de l'environnement, dit codrone, détaché du cobot, apte évoluer dans l'espace par ses propres moyens et à communiquer des informations au cobot via les moyens (150) de communication L'invention concerne également un système robotique comportant une pluralité de cobot et un procédé de mise à jour de la cartographie de travail des cobots dudit système robotique

Description

L'invention concerne un système, notamment de production, utilisant des robots coopérants. L'invention est plus particulièrement, mais non exclusivement, adaptée à un système de production flexible, notamment dans le domaine automobile ou le domaine aéronautique, où plusieurs robots interviennent en même temps que des opérateurs humains pour l'assemblage et la manutention d'ensembles ou de sous-ensembles évolutifs qui nécessitent la reconfiguration du système de production d'un ensemble à l'autre. Un robot apte à coopérer avec un opérateur, robot ou humain, est couramment désigné sous le terme de « cobot ». Ce terme regroupe à la fois des manipulateurs dits haptiques c'est-à-dire dont les mouvements sont directement pilotés par les mouvements d'une personne, et qui permettent d'augmenter la puissance de manipulation de l'opérateur, par exemple, pour manipuler des pièces pesantes ou de grande dimension, ou, au contraire de réaliser de tâches très minutieuses, notamment mais non exclusivement à une échelle microscopique ou dans des environnements particuliers, par exemple pour des opérations chirurgicales ; et des robots autonomes intervenant dans un environnement dans lequel interviennent également des opérateurs, humains ou robots, et qui sont susceptibles d'interagir avec ces opérateurs pour la réalisation d'opérations. Dans le cadre d'un système de production automatisée, plusieurs cobots des deux types sont susceptibles d'intervenir conjointement avec des opérateurs humains, ou à proximité immédiate desdits opérateurs humains. Selon l'at antérieur, l'intervention d'un opérateur humain au voisinage d'un robot est une situation complexe compte tenu du danger représenté par le robot en mouvement, lequel est programmé pour réaliser des tâches spécifiques, mais doit en plus, assurer la sécurité de l'opérateur qui entrerait dans son espace de travail. Le problème est similaire pour la coordination de plusieurs robots dont les espaces de travail comprennent des volumes communs, afin d'éviter les collisions. Le problème de la reprogrammation d'un robot dans un espace de travail modifié est un problème difficile. Le document US 7 298 385 donne un exemple de cette difficulté. La prise en compte automatique du changement d'environnement se heurte, d'une part, à une problématique de puissance de calcul et d'autre part à la capacité de perception et de reconnaissance de l'environnement. Ainsi les cobots doivent être équipés de capteurs aptes à reconnaître leur environnement et doivent être pourvus d'une programmation leur permettant de décider des actions possibles en fonction de cet environnement. Selon l'art antérieur, cet environnement est reconnu, d'une part, à partir d'une cartographie du lieu d'intervention enregistrée dans les moyens de programmation du robot, d'autre part, par des moyens de localisation, par exemple des balises, qui permettent au robot de connaître sa position dans ladite cartographie et finalement par des capteurs portés par le robot lui-même, lesquels capteurs lui procurent une image concentrique de son environnement. Le volume de travail perçu par le robot et dans lequel ce robot est apte à évoluer en sécurité, tant pour lui-même que vis-à-vis d'autres opérateurs, humains ou robots, et appelé « volume de perception ».. Ledit volume de perception englobe entièrement ou partiellement le robot, et comprend, par exemple une trajectoire autour de laquelle le robot dispose d'une perception de son environnement lorsque ledit robot est amené à se déplacer. Le volume de travail possible du robot et nécessairement compris dans son volume de perception. Pour fonctionner, notamment en mode collaboratif, le robot doit disposer d'une carte de son volume de travail, ou cartographie de travail. Aussi, d'un point de vue pratique, il est souhaitable, dans un environnement donné, de maximiser le volume de perception. Dans un système de production flexible il est fréquemment nécessaire de modifier la configuration de l'environnement, pour reconfigurer l'usine, et d'autre part de déplacer les cobots dans cet environnement voir de prévoir la collaboration de plusieurs cobots pour la réalisation d'une tâche donnée. Ainsi, les moyens de reconnaissances de l'environnement selon l'art antérieur, basés sur des capteurs fixes et les capteurs embarqués par le robot et renseignant celui-ci sur son environnement de travail concentrique, ne permettent pas d'obtenir une vision globale d'un environnement changeant. Par conséquent, il subsiste des zones d'ombre dans la perception qu'a le robot de son environnement. Ces zones d'ombre réduisent le volume de perception du robot et par suite son volume de travail utile. La suppression de ces zones d'ombre, notamment suite a déplacement d'objets, nécessite de modifier la position des capteurs fixes et la mise en oeuvre d'une intelligence centralisée, apte à obtenir une perception global de l'environnement. Cette tâche est longue et incompatible avec les temps de changement de série dans un environnement de production flexible automatisée, et met en oeuvre des moyens de calcul hors de proportion avec les besoins de l'exécution des tâches de production par le robot. Le problème et encore plus complexe s'il s'agit d'un robot à base mobile, qui, pour changer de configuration de production, doit se déplacer dans un environnement modifié. Le document WO 2011 035839 décrit un exemple de système robotique ou plusieurs robots mobiles sont en communication avec une base fixe qui calcule en permanence une cartographie de l'environnement en se fondant sur des informations reçues desdits robots. Ladite base communique aux différents robots cette cartographie mise à jour, c'est-à-dire une information excédentaire par rapport au besoin de chaque robot pour effectuer sa tâche de travail.
L'invention vise à résoudre les inconvénients de l'art antérieur et concerne à cette fin un robot, dit cobot, notamment à base mobile, comprenant : a. des moyens de mémoire dans lesquels est enregistrée une cartographie invariante de l'espace, dit d'évolution, dans lequel le cobot est susceptible d'évoluer ; b. des capteurs embarqués par ledit cobot et aptes à le renseigner sur son environnement concentrique ; c. des moyens de communication aptes à émettre et recevoir des informations ; d. des moyens de calcul aptes à traiter les informations provenant des capteurs et des moyens de communication ; e. un moyen d'exploration de l'environnement, dit codrone, détaché du cobot, apte évoluer dans l'espace par ses propres moyens et à communiquer des informations, obtenus par un capteur porté par ledit codrone, au cobot via les moyens de communication.
Ainsi, le cobot objet de l'invention dispose de moyens supplémentaires pour élargir son volume de perception au-delà de la perception de ses capteurs embarqués et des capteurs fixes de l'environnement. Ces moyens supplémentaires offrent au cobot objet de l'invention une image dynamique de l'environnement et selon un point de vue différent de celui que ledit cobot est en mesure d'atteindre avec ses propres capteurs.
Par exemple, le moyen d'exploration permet de précéder le robot dans ses déplacements. L'invention est avantageusement mise en oeuvre selon les modes de réalisation exposés ci-après, lesquels sont à considérer individuellement ou selon toute combinaison techniquement opérante. Selon un mode de réalisation avantageux du cobot objet de l'invention, le codrone est apte à voler. Ainsi, ledit codrone offre une image aérienne de l'environnement et se déplace rapidement dans un environnement qui, généralement comporte moins 5 d'obstacles que l'environnement au sol. L'invention concerne également un système robotique comprenant une pluralité de cobots selon l'invention, dans lequel, lesdits cobots sont aptes à échanger des données par leurs moyens de communication. Ainsi, la reconnaissance de l'environnement est distribuée entre les différents cobots qui échangent leurs 10 cartographies de travail. Avantageusement, deux cobots du système robotique selon l'invention partagent un même codrone. Ainsi, le système est plus économique en mutualisant les moyens et en utilisant les moyens justes nécessaires pour la reconnaissance de l'environnement. 15 Avantageusement, le système robotique objet de l'invention comprend des moyens dits de planification, aptes à assigner une tâche de travail à un cobot. L'invention concerne également un procédé pour la détermination de la cartographie de travail d'un premier cobot dans un système robotique selon l'invention, lequel procédé comporte les étapes consistant à : 20 i. reconnaître l'environnement du premier cobot par ses propres capteurs embarqués ; ii. déterminer une première cartographie de travail calculée à partir des informations des capteurs embarqués et de la carte invariante enregistrée dans les moyens de mémoire du premier cobot ; 25 iii. déterminer les zones d'ombre dans ladite première cartographie ; iv. si de telles zones d'ombre existent, communiquer avec un deuxième cobot pour obtenir des informations cartographiques dans le volume de perception de ce deuxième cobot ; y. mettre à jour la première cartographie de travail à partir des 30 informations reçues du deuxième cobot ; vi. vérifier la présence de zones d'ombre dans la deuxième cartographie ainsi obtenue Ainsi le premier cobot enrichit sa cartographie de travail à partir des informations obtenues d'un autre cobot. Le calcul de la cartographie de travail est distribué et réalisé à l'échelle de chaque cobot et non dans une intelligence centralisée. Le calcul de la cartographie de travail est réduit au juste nécessaire pour chaque cobot, en limitant le calcul à la cartographie utile aux tâches dudit cobot et non une cartographie générale de l'espace, tout en prenant en compte l'environnement global, mais en limitant cette prise en compte aux informations pertinentes. Avantageusement, la cartographie de travail comprend une grille de navigation composée de zones accessibles superposées à la cartographie invariante. Ce mode de réalisation permet une gestion fluide de la cartographie de travail dans les moyens de mémoire du cobot, la grille de navigation étant effacée et remplacée par une autre lorsque le cobot change de zone. Avantageusement, l'étape iv) comprend des étapes consistant à : aiv. émettre une requête d'information cartographique par le premier cobot à destination des autres cobots dans l'espace d'évolution précisant les zones de la grille de navigation concernées par les tâches dudit premier cobot ; biv. si le deuxième cobot se trouve dans une zone de la grille de navigation traversée par le premier cobot, communiquer audit premier cobot les informations cartographiques de contenues dans le volume de perception du deuxième cobot. Ainsi, les informations cartographiques communiquées sont réduites au juste nécessaire pour le besoin du premier cobot. Avantageusement, le procédé objet de l'invention les étapes consistant à : vii. si des zones d'ombre subsistent dans la cartographie obtenue à l'étape vi) ou s'il existe des zones d'ombre à l'étape iii) et que l'étape iv) ne peut être réalisée ; viii. lancer le codrone pour reconnaître l'environnement ; ix. obtenir des informations du codrone par les moyens de communication ; x. mettre à jour la cartographie de travail à partir des informations obtenues du codrone. Ainsi, l'utilisation du codrone permet d'élargir le volume de perception du cobot, par exemple, lorsqu'aucun autre cobot n'est en mesure de renseigner ledit cobot dans sa zone d'évolution. Avantageusement, le procédé objet de l'invention comporte à l'issue de l'étape ii), ou de l'étape y), ou de l'étape x) une étape consistant à : xi. enregistrer la cartographie de travail mise à jour dans les moyens de mémoire, et utiliser cette cartographie pour la réalisation des tâches du premier cobot. Ainsi, la cartographie de travail enregistrée dans les moyens de mémoire du cobot est une cartographie dynamique.
Avantageusement, lorsque l'environnement de travail du premier cobot est modifié à l'issue de l'étape xi) le procédé objet de l'invention comprend les étapes consistant à : xii. effacer la cartographie de travail des moyens de mémoire et revenir à la cartographie invariante ; xiii. déterminer une nouvelle cartographie de travail en reprenant à partir de l'étape i). Ainsi, la cartographie de travail enregistrée dans les moyens de mémoire du cobot est réduite au stricte nécessaire. Selon un mode de réalisation particulier du procédé objet de l'invention dans lequel le système robotique comprend des moyens de planification, ledit procédé 20 comprend des tâches consistant à : xiv. assigner des tâches de travail au cobots assorties d'un paramètre définissant la priorité d'exécution desdites tâches ; - la requête de l'étape aiv) comprenantl'émission du paramètre de priorité correspondant à la tâche dudit premier cobot. 25 Ainsi, les cobots du système coordonnent leurs informations et leurs mouvements en selon une hiérarchie définie par la nature des tâches à exécuter. Selon un exemple de mise en oeuvre de ce mode de réalisation particulier, un deuxième cobot auquel est affecté une tâche moins prioritaire que le premier cobot constitue un obstacle pour la tâche de travail du premier cobot et le procédé comprend 30 une étape consistant à : xv. déplacer le deuxième cobot afin d e libérer l'espace de travail du premier cobot.
Selon un autre exemple de mise en oeuvre de ce mode de réalisation particulier la tâche de travail prioritaire du premier cobot comprend un déplacement dans l'espace d'évolution le codrone précède le premier cobot dans son déplacement. Ainsi le codrone renseigne le cobot de tout obstacle sur sa trajectoire et de toute évolution de la configuration de la cartographie de travail. L'invention est exposées ci-après selon ses modes de réalisation préférés, nullement limitatifs, et en référence aux figures 1 à 5 dans lesquelles : - la figure 1 montre selon une vue en perspective schématisée un exemple de réalisation d'un cobot selon l'invention ; - la figure 2 représente de manière schématisée et en vue de dessus, un exemple de cartographie invariante enregistrée dans les moyens de mémoire du cobot objet de l'invention ; - la figure 3 est une vue de dessus d'un exemple d'un système robotique selon l'invention, évoluant dans l'espace correspondant à la cartographie invariante de la figure 2 ; - la figure 4 montre selon une vue de dessus, un exemple de réalisation d'un système robotique selon l'invention comprenant un codrone ; - et la figure 5 est un logigramme d'un exemple de réalisation du procédé objet de l'invention.
Figure 1, selon un exemple de réalisation du cobot (100) objet de l'invention, ledit cobot comporte une base (110) mobile pour le déplacement du cobot dans un environnement, dit espace d'évolution. Ladite base mobile supporte un ensemble (120) d'axes motorisés, par exemple, un bras manipulateur, lequel ensemble d'axes est utilisé pour déplacer un effecteur (130) lors des tâches de travail dudit cobot. Selon des exemples non limitatifs, ledit effecteur (130) consiste en un dispositif de soudage, de rivetage, d'usinage, de mesure, de manutention, de préhension-manipulation, de peinture ou une combinaison de tels dispositifs. Ledit cobot (100) comporte des moyens (141, 142) pour reconnaître son environnement concentrique, par exemple une ou plusieurs caméras vidéo (141) associées à un système de traitement d'image, ou un système de balayage laser en 3 dimensions (non représenté), ou encore, un capteur de contact (142) ou bumper, sans que cette liste ne soit limitative. Le cobot objet de l'invention comprend des moyens (150) de communication, par exemple des moyens radio selon le protocole WIFI®, lui permettant d'échanger des données avec d'autres cobots. Finalement le cobot (100) objet de l'invention comprend des moyens (190) d'exploration de l'environnement, par exemple un drone de type quadricoptère, apte à se déplacer par ses propres moyens dans l'environnement et connecté au cobot (100) par les moyens de communication (150). Lesdits moyens d'exploration, ou codrone (190), comportent des capteurs aptes à percevoir l'environnement, tels qu'une ou plusieurs caméra vidéo, un radar, un dispositif de balayage laser tridimensionnel, ainsi que des moyens de géolocalisation dudit codrone (190) dans l'espace. Selon cet exemple de réalisation, la base (110) mobile comprend des moyens de mémoire et des moyens de calcul (non représentés). Les moyens d'exploration ne sont pas limités à un drone volant et sont adaptés à l'environnement à reconnaître. Lesdits moyens d'exploration sont avantageusement constitués par un véhicule robotisé dont l'agilité de déplacement ou les capacités de perception de l'environnement sont supérieures à celles du cobot. Ces moyens d'exploration ne sont pas affectés à d'autres tâche que l'exploration. Selon des variantes de réalisation, le codrone comporte sa propre intelligence de déplacement, ce qui le rend apte à se déplacer dans l'environnement de manière autonome, ou, cette intelligence de déplacement est partagée entre le codrone et le cobot. Figure 2, selon un exemple de réalisation schématique, les moyens de mémoire du cobot objet de l'invention, comprennent un enregistrement de la cartographie (200) invariante de l'espace dans lequel ledit cobot est susceptible d'évoluer. Cette cartographie (200) comporte les coordonnées, dans un système d'axes défini, d'éléments fixes de l'espace d'évolution du cobot, par exemple des murs (210) ou des cloisons, des piliers (220) ou des tranchées (230) ou bassins infranchissables. Selon un exemple de réalisation, la cartographie invariante comprend également l'identification de zones (240) dans lesquelles le cobot ne peux pas évoluer car les conditions régnant dans ces zones, telles que la température, des radiations, des contraintes de stérilité, sans que cette liste ne soit limitative, ne lui permettent pas d'y évoluer, c'est-à-dire des zones interdites. Selon un autre exemple de réalisation, compatible avec les précédents, la cartographie invariante comprend également l'identification de zones (250) qui ne peuvent pas être explorées par le codrone. Selon un exemple de réalisation, la cartographie comprend une grille (290) dite de navigation. Selon cet exemple de réalisation ladite grille est un quadrillage de l'espace d'évolution dont les carreaux sont identifiés par une combinaison d'une lettre (A,B, E, D, E, F, G) et d'un chiffre (1, 2, 3, 4, 5) et repérés individuellement dans système d'axes de la cartographie du cobot. Avantageusement, les dimensions des carreaux sont adaptées au volume de perception du cobot. En dehors des éléments fixes invariants, l'espace d'évolution objet de la cartographie comporte également des éléments fixes dont la position est susceptible d'être modifiée tels que des tables ou des armoires (non représentés) et des éléments mobiles, tels que d'autres cobots, des opérateurs humains ou des dispositifs de manutention tels que des chariots élévateurs. Non seulement les éléments mobiles et les éléments fixes variables sont susceptibles de changer de position dans l'espace d'évolution, mais ils sont également susceptibles d'y entrer et d'en sortir. Aussi ces éléments ne font pas partie de la cartographie invariante. Figure 3, selon un exemple de réalisation, le système robotique objet de l'invention comprend une pluralité de cobots (100, 310, 320, 330, 340). Ledit système robotique comporte avantageusement un système de positionnement partagé par l'ensemble des cobots (100, 310, 320, 330) qui sont également synchronisés temporellement. Ces fonctions sont, par exemple, réalisées par un système de géolocalisation par satellite, par des balises fixes, au moyens du réseau informatique par radio, par exemple WIFIO ou tout autre système. La fonction de géolocalisation sur l'ensemble de l'espace de travail n'est pas nécessaire. Dans la mesure où les cobots présents dans cet espace partagent les informations issues de leurs capteurs embarqués, il suffit de déterminer la position de chaque cobot avec lequel un autre cobot partage des informations dans la cartographie invariante. La détermination de cette position est réalisable par la proximité dudit cobot par rapport à des points définis de la cartographie. Chacun des cobots dispose d'un volume (351, 352, 353, 354) de perception qui correspond à la perception qu'a ledit cobot de son environnement. Selon un premier exemple de réalisation du procédé objet de l'invention, l'un (100) de ces cobots étant amené à se déplacer selon une trajectoire (390) dans cet environnement, celui-ci utilise à la fois les informations de la cartographie invariante en mémoire et les informations recueillies par les autres cobots (310, 320, 330) pour calculer sa cartographie de travail correspondant à la réalisation de ladite trajectoire (390). Ainsi, ledit cobot (100) élargit son volume de perception à l'ensemble des volume de perception des cobots (310, 320, 330) présents dans son espace d'évolution et qui sont concernés par la trajectoire (390). Cela permet, par exemple, audit cobot (100) de détecter la présence d'un obstacle (360) sur sa trajectoire (390) initialement planifiée alors que cet obstacle n'est pas visible dans son propre volume (351) de perception, mais que ledit obstacle est visible par l'un (310) des autres cobots. Ce mode de réalisation n'est pas limité au cas du déplacement du cobot (100) dans l'espace de travail mais s'applique également dans le cas de la coopération de deux cobots fixes, voisins l'un de l'autre et effectuant des tâches de travail, complémentaires ou non. Ainsi, avant d'effectuer le déplacement correspondant à une trajectoire (390) donnée, le premier cobot (100) adresse une requête à l'ensemble des autres cobots en précisant, selon cet exemple de réalisation, les carreaux de la grille de navigation traversés, soit E5, F5, G5, G4, G3, G2, G1, Fl, El, Dl, Cl selon cet exemple de réalisation. À la réception de cette requête les cobots (330, 320) placés dans un des carreau concerné, et les cobots (310) dont le volume (352) de perception couvre, au moins partiellement, un des carreau concerné de la trajectoire partagent des informations de cartographie avec le premier cobot (100) lequel met à jour, le cas échéant, sa cartographie de travail dans les carreaux concernés. Par contre, les cobots (340) situés en dehors des carreaux concernés ne répondent pas à la requête et ne partagent pas d'information avec le premier cobot. Ainsi les échanges sont réduits et seuls les carreaux concernés de la cartographie sont mis à jour. Selon cet exemple de réalisation, à l'issue de cette interrogation des autres cobots, il subsiste des zones d'ombre dans la cartographie de travail du premier cobot, c'est-à-dire, dans cet exemple de réalisation, des carreaux (F5, G5, G4, F1, Dl, C1) qui sont situés sur la trajectoire visée mais qui ne sont pas perçu ni par le premier cobot (100) lui-même, ni par l'un des autres cobots. Figure 4, selon un exemple de réalisation du système robotique objet de l'invention, afin d'élargir son volume (451) de perception, de sorte à couvrir les zones d'ombres, l'un des cobots (100) lance le codrone (190) qui lui est associé est recueille les informations de perception de l'environnement délivrées par ce codrone (190). Selon une variante de réalisation, ledit codrone (190) est partagé entre plusieurs cobots (310, 320, 330) présents dans l'espace d'évolution. Selon un exemple de réalisation, l'utilisation du codrone ainsi mutualisé par l'un ou l'autre des cobots est définie par un paramètre affectant un indice de priorité à chaque tâche réalisée par chaque cobot. Le codrone (190) comporte avantageusement des moyens pour définir sa localisation dans ledit espace d'évolution, soit en partageant les moyens de géolocalisation des cobots, soit par des moyens permettant de le situer par rapport à l'un des cobots.
Selon un exemple de réalisation, lorsque le premier cobot (100) entame sa trajectoire (390) il interroge les autres cobots de manière régulière, par exemple toutes les 10 ms ou toutes les secondes selon la vitesse de déplacement et la nature de l'environnement. Cette interrogation est d'une part limitée aux zones ou carreaux à franchir, et ne concerne pas les carreaux déjà franchis. Selon un mode de réalisation encore plus avantageux, le premier cobot (100) calcule la durée prévisible de son parcours en fonction de la trajectoire corrigée dans la cartographie de travail mise à jour à partir de la première interrogation. Ensuite ledit premier cobot (100) ne lance des interrogations limitées aux carreaux traversés par ledit cobot (100) dans le délai correspondant à la prochaine interrogation, ce qui limite encore les quantités de données échangées. Afin d'obtenir un déplacement plus rapide dudit premier cobot, par exemple lorsque celui-ci est assigné à une tâche prioritaire, le codrone précède le cobot dans son déplacement et permet ainsi audit cobot d'anticiper tout obstacle sur sa trajectoire. Figure 5, selon un exemple de réalisation du procédé objet de l'invention, pour déterminer sa cartographie de travail, le cobot objet de l'invention, au cours d'une étape (510) de reconnaissance concentrique, analyse son environnement à partir de ses capteurs embaqués tels que caméra vidéo et dispositif de balayage laser tridimensionnel. À partir de ces informations recueillies, les moyens de calcul du cobot déterminent, au cours d'une étape de calcul cartographique (520), une première cartographie de travail, en superposant les informations obtenues lors de l'étape (510) de reconnaissance concentrique à la cartographie invariante (515) enregistrée dans les moyens de mémoire. Ladite première cartographie de travail est enregistrée (525) dans les moyens de mémoire. Cette première cartographie est analysée au cours d'une étape (530) d'analyse, afin de déterminer si ladite cartographie de travail comprend des zones d'ombres. Cette analyse est obtenue en comparant le volume de perception correspondant à la cartographie calculée avec le déplacement du cobot dans l'espace, c'est-à-dire son déplacement au moyen de la base mobile ou le déplacement de son effecteur au moyen du système d'axes motorisé, ces déplacements correspondant à ceux nécessités par l'exécution de la tâche assignée audit cobot. Dans le cas où le volume de ce déplacement est intégralement compris dans le volume de perception alors il n'y a pas de zone d'ombre. Dans le cas contraire, une zone d'ombre existe là où ce volume de travail sort du volume de perception. Ainsi, au cours d'une étape test (535) la présence de zones d'ombre est analysée. En présence d'une zone d'ombre, le cobot, par ses moyens de communication émet (540) une requête à destination de autres cobots présent dans l'espace de travail afin de recueillir des donnée cartographiques permettant de compléter la cartographie de travail dans lesdites zones d'ombre. À partir des données recueillies, la cartographie de travail est recalculée au cours d'une étape (550) de mise à jour et enregistrée (555) dans les moyens de mémoire. Cette nouvelle cartographie est analysée au cours d'une étape (560) d'analyse afin d'y déceler des zones d'ombre subsistantes. Au cours d'une étape test (565) si la présence de zones d'ombre est décelée dans ladite nouvelle cartographie de travail, alors le codrone est sollicité pour reconnaître l'environnement de manière complémentaire au cours d'une étape de lancement (570). Les données cartographiques adressées par le codrone sont recueillies (580) par le cobot et sont utilisées pour la mise à jour (590) de la cartographie de travail qui est enregistrée (595) dans les moyens de mémoire. La cartographie de travail sans zone d'ombre enregistrée (525, 555, 595) dans les moyens de mémoire, est utilisée (599) par le cobot pour la réalisation de ses tâches de travail. Dans le cas où le cobot est à nouveau déplacé dans l'environnement de travail, ou si l'environnement de travail est modifié, ladite cartographie est effacée et revient ainsi à la cartographie invariante et le processus de reconnaissance est, selon cet exemple de réalisation, repris à partir de l'étape (510) de reconnaissance concentrique. Cet exemple de réalisation suit le processus de mise à jour de la cartographie de travail à l'échelle d'un même cobot. D'un point de vue pratique, lorsqu'un cobot sollicite un autre cobot afin d'élargir son volume de perception, alors il est probable que le cobot réalisant cette requête est susceptible de pénétrer, au cours de sa tâche de travail ou au cours de son déplacement dans la cartographie de travail du cobot interrogé. Aussi, un processus similaire est avantageusement enclenché par le robot interrogé afin de mettre à jour sa propre cartographie de travail. Dans le système robotique selon l'invention, les cobots échangent ainsi de manière régulière et autant que de besoin, des informations relatives à leur environnement de sorte que les cartographies de travail desdits cobots sont mises à jour dès que leur environnement est modifié, cette mise à jour ne concernant que la zone modifiée pertinente.
Ainsi à l'image de l'intervention de plusieurs opérateurs humains sur un chantier le pilotage d'un chantier faisant intervenir le système robotique objet de l'invention limite l'intervention d'une intelligence centralisée à la définition et à la planification des tâches de travail des cobots, lesdits cobots assurant eux mêmes les fonctions annexes à ces tâches telles que les déplacements d'une zone de travail à une autre. Ainsi, selon un exemple de réalisation le système robotique objet de l'invention comprend des moyens de planification (non représentés) lequels moyens consistent par exemple en un ordinateur connectés aux cobots du système par un réseau sans fil. Lesdits moyens de planifications sont apte à fonctionner de manière autonomes selon des algorithmes et un schémas d'intervention donnés ou, sont programmés par un opérateur superviseur.
Lesdits moyens de planifications comprennent une liste de tâches à effectuer par chacun des cobots du système robotique, une hiérarchie dans lesdites tâches la localisation spatiale desdites tâches dans l'espace d'évolution et le créneau temporelle pour la réalisation de chacune des tâches. Ladite liste est remise à jour régulièrement. Ainsi, le superviseur ayant à gérer la coactivité de plusieurs cobots dans l'espace d'évolution se contente d'affecter des tâches à ces cobots et ceux-ci gère eux mêmes leurs évolutions dans cet espace en fonction des priorités. La description ci-avant et les exemples de réalisation montrent que l'invention atteint les objectifs visés, en particulier elle permet de mutualiser la perception de l'environnement d'un ensemble robotique mais aussi de mutualiser, entre les cobots les moyens de calcul de la cartographie et ainsi d'obtenir pour chaque cobot une cartographie de travail dynamique. L'utilisation d'un codrone, éventuellement partagé entre plusieurs cobots, permet de couvrir rapidement et de manière autonome toute les zones d'ombre. Ainsi, le système robotique est fexible et apte à se réadapter à un environnement de production changeant sans intervention de reprogrammation. Le système objet de l'invention est particulièrement adapté aux grandes usines organisées en production flexible, notamment dans la construction navale et la construction aéronautique.

Claims (14)

  1. REVENDICATIONS1. Robot, dit cobot (100), notamment à base (110) mobile comprenant : a. des moyens de mémoire dans lesquels est enregistrée une cartographie invariante de l'espace dans lequel ledit cobot (100) est susceptible d'évoluer ; b. des capteurs (141, 142) embarqués par ledit cobot et aptes à le renseigner sur son environnement concentrique ; c. des moyens (150) de communication aptes à émettre et recevoir des informations ; d. des moyens de calcul aptes à traiter les informations provenant des capteurs et des moyens (150) de communication ; e. un moyen (190) d'exploration de l'environnement, dit codrone, détaché du cobot, apte évoluer dans l'espace par ses propres moyens et à communiquer des informations au cobot via les moyens (150) de communication
  2. 2. Cobot selon la revendication 1, dans lequel le codrone (190) est apte à voler.
  3. 3. Système robotique comprenant une pluralité de cobots (100, 310, 320, 330) selon la revendication 1, dans lequel lesdits cobots sont aptes à échanger des données par leurs moyens (150) de communication.
  4. 4. Système robotique selon la revendication 3, dans lequel deux cobots partagent un même codrone (190).
  5. 5. Système robotique selon la revendication 3,comprenant des moyens dits de planification, aptes à assigner une tâche de travail à un cobot.
  6. 6. Procédé pour la détermination de la cartographie de travail d'un premier cobot selon la revendication 1, dans un système robotique selon la revendication 3, caractérisé en ce qu'il comporte les étapes consistant à : i. reconnaître (510) l'environnement du premier cobot (100) par sespropres capteurs (141, 142) embarqués ; ii. déterminer (520) une première cartographie de travail calculée à partir des informations des capteurs embarqués et de la carte invariante enregistrée dans les moyens de mémoire du premier cobot (100) ; iii. déterminer les zones d'ombre dans ladite première cartographie ; iv. si de telles zones d'ombre existent (535), communiquer (540) avec un deuxième cobot pour obtenir des informations cartographiques dans le volume (352, 353, 354) de perception de ce deuxième cobot (310, 320, 330) ; y. mettre à jour (550) la première cartographie de travail à partir des informations reçues du deuxième cobot ; vi. vérifier (560) la présence de zones d'ombre dans la deuxième cartographie ainsi obtenue.
  7. 7. Procédé selon la revendication 6, dans lequel la cartographie de travail comprend une grille (290) de navigation composée de zones accessibles superposées à la cartographie invariante.
  8. 8. Procédé selon la revendication 7, dans lequel l'étape iv) comprend des étapes consistant à : aiv. émettre (540) une requête d'informations cartographiques par le premier cobot (100) à destination des autres cobots (310, 320, 330, 340) dans l'espace d'évolution précisant les zones de la grille (290) de navigation concernées par les tâches dudit premier cobot ; biv. si le deuxième cobot se trouve dans une zone de la grille (290) de navigation traversée par le premier cobot, communiquer audit premier cobot les informations cartographiques contenues dans le volume de perception du deuxème cobot.
  9. 9. Procédé selon la revendication 6, comprenant les étapes consistant à : vii. si des zones d'ombre subsistent (565) dans la cartographieobtenue à l'étape vi) ou si il existe des zones d'ombre à l'étape iii) et que l'étape iv) ne peut être réalisée ; viii. lancer (570) le codrone pour reconnaître l'environnement ; ix. obtenir (580) des informations du codrone par les moyens de communication ; x. mettre à jour (590) la cartographie de travail à partir des informations obtenues du codrone.
  10. 10. Procédé selon la revendication 9, comprenant à l'issue de l' étape ii), ou de l'étape y), ou de l'étape x) une étape consistant à : xi. enregistrer (525, 555, 595) la cartographie de travail mise à jour dans les moyens de mémoire, et utiliser (599) cette cartographie pour la réalisation des tâches du premier cobot (100).
  11. 11. Procédé selon la revendication 10, dans lequel l'environnement de travail du premier cobot est modifié à l'issue de l'étape xi) et qui comprend les étapes consistant à : xii. effacer la cartographie (525, 555, 595) de travail des moyens de mémoire et revenir à la cartographie (515) invariante ; xiii. déterminer une nouvelle cartographie de travail en reprenant à partir de l'étape i).
  12. 12. Procédé selon la revendication 8 mettant en oeuvre un dispositif selon la revendication 5, et comportant les étapes consistant : xiv. assigner des tâches de travail au cobots (100, 310, 320, 330) assorties d'un paramètre définissant la priorité d'exécution desdites tâches ; et dans lequel la requête de l'étape aiv) comprend l'émission du paramètre de priorité correspondant à la tâche dudit premier cobot (100).
  13. 13. Procédé selon la revendication 12 dans lequel un deuxième cobot (310, 320, 330) auquel est affecté une tâche moins prioritaire que le premier cobot (100) constitue un obstacle pour la tâche de travail du premiercobot et qui comprend une étape consistant à : xv. déplacer le deuxième cobot afin de libérer l'espace de travail du premier cobot.
  14. 14. Procédé selon la revendication 13, dans lequel la tâche de travail prioirtaire du premier cobot (100) comprend un déplacement (390) dans l'espace d'évolution et que le codrone (190) précède le premier cobot (100) dans son déplacement.
FR1363422A 2013-12-23 2013-12-23 Systeme, notamment de production, utilisant des robots cooperants Active FR3015333B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1363422A FR3015333B1 (fr) 2013-12-23 2013-12-23 Systeme, notamment de production, utilisant des robots cooperants
PCT/EP2014/079280 WO2015097269A1 (fr) 2013-12-23 2014-12-23 Système, notamment de production, utilisant des robots coopérants
EP14827786.6A EP3137265A1 (fr) 2013-12-23 2014-12-23 Système, notamment de production, utilisant des robots coopérants
US15/106,819 US20170080567A1 (en) 2013-12-23 2014-12-23 System, especially for production, utilizing cooperating robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1363422A FR3015333B1 (fr) 2013-12-23 2013-12-23 Systeme, notamment de production, utilisant des robots cooperants

Publications (2)

Publication Number Publication Date
FR3015333A1 true FR3015333A1 (fr) 2015-06-26
FR3015333B1 FR3015333B1 (fr) 2017-04-28

Family

ID=51564674

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1363422A Active FR3015333B1 (fr) 2013-12-23 2013-12-23 Systeme, notamment de production, utilisant des robots cooperants

Country Status (4)

Country Link
US (1) US20170080567A1 (fr)
EP (1) EP3137265A1 (fr)
FR (1) FR3015333B1 (fr)
WO (1) WO2015097269A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105216905A (zh) * 2015-10-27 2016-01-06 北京林业大学 即时定位与地图创建勘测搜救机器人
US11492113B1 (en) * 2019-04-03 2022-11-08 Alarm.Com Incorporated Outdoor security camera drone system setup

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10300601B2 (en) * 2014-11-14 2019-05-28 Ge Global Sourcing Llc Vehicle control system with task manager
US20220241975A1 (en) * 2014-11-14 2022-08-04 Transportation Ip Holdings, Llc Control system with task manager
US10012988B2 (en) * 2016-11-29 2018-07-03 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for path planning using a network of safe-sets
US20180190014A1 (en) * 2017-01-03 2018-07-05 Honeywell International Inc. Collaborative multi sensor system for site exploitation
DE102021107887A1 (de) * 2021-03-29 2022-09-29 Broetje-Automation Gmbh Verfahren zur Bearbeitung eines Fahrzeugstrukturbauteils
CN117008595A (zh) * 2022-12-30 2023-11-07 北京石头创新科技有限公司 行进路径规划方法及装置、自移动机器人和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080009965A1 (en) * 2006-07-05 2008-01-10 Battelle Energy Alliance, Llc Autonomous Navigation System and Method
US20090093907A1 (en) * 2007-10-05 2009-04-09 Ryoso Masaki Robot System

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2986647A3 (fr) * 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080009965A1 (en) * 2006-07-05 2008-01-10 Battelle Energy Alliance, Llc Autonomous Navigation System and Method
US20090093907A1 (en) * 2007-10-05 2009-04-09 Ryoso Masaki Robot System

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105216905A (zh) * 2015-10-27 2016-01-06 北京林业大学 即时定位与地图创建勘测搜救机器人
CN105216905B (zh) * 2015-10-27 2018-01-02 北京林业大学 即时定位与地图创建勘测搜救机器人
US11492113B1 (en) * 2019-04-03 2022-11-08 Alarm.Com Incorporated Outdoor security camera drone system setup

Also Published As

Publication number Publication date
FR3015333B1 (fr) 2017-04-28
WO2015097269A1 (fr) 2015-07-02
US20170080567A1 (en) 2017-03-23
EP3137265A1 (fr) 2017-03-08

Similar Documents

Publication Publication Date Title
FR3015333A1 (fr) Systeme, notamment de production, utilisant des robots cooperants
CN112703147B (zh) 用于控制车辆的移动的***和方法
Droeschel et al. Continuous mapping and localization for autonomous navigation in rough terrain using a 3D laser scanner
EP3391166B1 (fr) Navigation visuelle autonome
EP3367199B1 (fr) Robot mobile et procédé de commande pour ce dernier
Premebida et al. Intelligent robotic perception systems
AU2023201814B2 (en) Integrated platform and common software structural architecture for autonomous agricultural vehicle and machinery operation
Papachristos et al. Localization uncertainty-aware autonomous exploration and mapping with aerial robots using receding horizon path-planning
Egger et al. Posemap: Lifelong, multi-environment 3d lidar localization
EP3950235A1 (fr) Procédé de planification de trajectoire de robot automotrice, robot automotrice et support de stockage
US8396254B1 (en) Methods and systems for estimating a location of a robot
CN108367433B (zh) 选择性部署机器人以执行建图
EP4180895B1 (fr) Robots mobiles autonomes pour la planification d'un trajet de couverture
Ho et al. A near-to-far non-parametric learning approach for estimating traversability in deformable terrain
CN115461199A (zh) 用于自主机器人操作的面向任务的3d重构
EP3757299A1 (fr) Appareil de génération de données d'environnement autour d'équipement de construction et équipement de construction le comprenant
Govindaraj et al. Infuse: A comprehensive framework for data fusion in space robotics
Nguyen et al. Autonomous aerial robotic surveying and mapping with application to construction operations
EP3660266B1 (fr) Génération de modèles pour la planification d'itinéraires ou le positionnement d'objets mobiles dans un chantier souterrain
Raj et al. Designing and Analysis of an Architecture of Motion Control for a Mobile Robot Using Simulation
Zhang et al. FALCON: Fast Autonomous Aerial Exploration using Coverage Path Guidance
Bellone Watch your step! terrain traversability for robot control
Wittemyer et al. Bi-Level Image-Guided Ergodic Exploration with Applications to Planetary Rovers
CN116147606B (zh) 一种基于轮式移动机器人的自主探索建图方法及***
WO2022230880A1 (fr) Procédé de commande, système de commande, et dispositif de commande

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11