FR3067848B1 - Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre - Google Patents

Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre Download PDF

Info

Publication number
FR3067848B1
FR3067848B1 FR1770635A FR1770635A FR3067848B1 FR 3067848 B1 FR3067848 B1 FR 3067848B1 FR 1770635 A FR1770635 A FR 1770635A FR 1770635 A FR1770635 A FR 1770635A FR 3067848 B1 FR3067848 B1 FR 3067848B1
Authority
FR
France
Prior art keywords
information
virtual environment
virtual
trainer
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1770635A
Other languages
English (en)
Other versions
FR3067848A1 (fr
Inventor
Hocine Amara
Didier Sebaoun
Maamar Berra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clef Job In Fr
Original Assignee
Kpass Airport
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kpass Airport filed Critical Kpass Airport
Priority to FR1770635A priority Critical patent/FR3067848B1/fr
Publication of FR3067848A1 publication Critical patent/FR3067848A1/fr
Application granted granted Critical
Publication of FR3067848B1 publication Critical patent/FR3067848B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/165Control of aircraft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne notamment un procédé pour la formation pratique d'un agent de piste (1) mettant en œuvre un environnement virtuel (E2), ledit environnement virtuel (E2) comportant une zone aéroportuaire, un élément mobile, apte à être déplacé dans ladite zone aéroportuaire et un avatar. Le procédé est mis en œuvre dans une installation comportant un casque de réalité virtuelle (3), au moins un capteur (4) de reconnaissance gestuelle, un ordinateur (6) mettant en œuvre un système (7) de traitement de données et de génération dudit environnement virtuel (E2) simultanément dans le casque de réalité virtuelle (3) et sur un écran (8) qu'il comporte. Le procédé comporte des étapes suivant lesquelles (i) le système (7) reçoit et traite des informations gestuelles (D1) en provenance du capteur (4) de reconnaissance gestuelle, puis génère dans l'environnement virtuel (E2) un premier mouvement de l'élément mobile, et (ii) le système (7) reçoit et traite des informations (F1-F13, Id) qui lui sont transmises par un formateur (2) via ledit ordinateur (6), puis génère dans l'environnement virtuel (E2) un second mouvement de l'élément mobile.

Description

PROCEDE POUR LA FORMATION PRATIQUE D’UN AGENT DE PISTE METTANT EN ŒUVRE UN ENVIRONNEMENT VIRTUEL ET INSTALLATION POUR SA MISE EN OEUVRE L’invention a trait à un procédé pour former des agents de piste dans les aéroports, par exemple ceux qui guident les avions après leur phase d’atterrissage pour les placer à leur point de parking au contact de la passerelle ou en éloigné.
Les agents de piste sont aujourd’hui formés pour ce travail en suivant une partie théorique et une partie pratique. Actuellement, la partie pratique est réalisée directement en piste avec des appareils en opération. Or, du fait des contraintes opérationnelles existantes dans les aéroports, il est très difficile de mettre suffisamment en condition l’agent de piste à former. L’invention vise à apporter de nouveaux outils de formation pratiques en environnement virtuel afin de confronter l’agent de piste à différents scénarios plus rapidement et de façon plus poussée : la mise en oeuvre d’un outil virtuel permet de créer artificiellement et sur demandes des contraintes opérationnelles qu’il est difficile d’obtenir dans une mise en situation réelle.
En d’autres termes, l’invention vise à offrir une meilleure pratique pour les agents de piste et à les confronter à des scénarios complexes rapidement (situations météorologiques exceptionnelles, problèmes mécaniques divers ...).
Ainsi, le procédé conforme à l’invention permettra d’offrir une formation qui comportera une partie théorique et une partie pratique, la partie pratique comportant une partie réalisée en simulation en Réalité virtuelle et une partie réalisée en situation réelle.
Le procédé conforme à l’invention permet à deux personnes d’interagir en même temps sur l’environnement virtuel de sorte que l’agent de piste à former soit aidé ou soit mis en difficulté par un formateur.
Pour ce faire, l’invention concerne un procédé pour la formation pratique d’un agent de piste mettant en oeuvre un environnement virtuel, ledit environnement virtuel comportant : i. Une zone aéroportuaire ii. Un élément mobile, apte à être déplacé dans ladite zone aéroportuaire iii. Un avatar, ledit procédé étant mis en œuvre dans une installation comportant : - Un casque de réalité virtuelle apte à être porté par ledit agent de piste, - Au moins un capteur de reconnaissance gestuelle dudit agent de piste, - Un ordinateur, apte à mettre en œuvre ledit procédé, - Ledit ordinateur mettant en œuvre un système de traitement de données et de génération d’un environnement virtuel simultanément dans le casque de réalité virtuel et sur un écran qu’il comporte,
Ledit procédé comportant des étapes suivant lesquelles : a) Le système reçoit et traite des informations gestuelles en provenance du capteur de reconnaissance gestuelle, puis génère dans l’environnement virtuel un premier mouvement de l’élément mobile, et b) Le système reçoit et traite des informations qui lui sont transmises par un formateur via ledit ordinateur puis génère dans l’environnement virtuel un second mouvement de l’élément mobile.
Ainsi, le procédé mis en œuvre permet un double accès à l’environnement virtuel puisque l’environnement virtuel est généré dans le casque de réalité virtuelle porté par l’agent à former et sur l’écran de l’ordinateur du formateur qui surveille la séance et qui peut agir également sur l’environnement virtuel. Le procédé permet donc une formation dans un environnement virtuel dont les évènements sont commandés par deux personnes : les séances sont donc aléatoires, originales et adaptées à ce que souhaite le formateur pour l’agent de piste et au niveau de l’agent de piste à former.
Selon un mode de réalisation avantageux, ledit second mouvement généré à l’étape b) agit sur le premier mouvement généré à l’étape a). De cette façon, le formateur peut corriger en temps réel les incidences des informations gestuelles sur l’environnement virtuel et en particulier sur l’élément mobile. Il peut ainsi aider l’agent de piste en formation ou bien le mettre en difficulté.
Le procédé conforme à l’invention peut également comporter les caractéristiques suivantes, prises séparément ou en combinaison : - les informations gestuelles reçues sont identifiées par comparaison à des informations gestuelles types stockées dans une base de données, le mouvement dudit élément mobile est commandé en fonction desdites informations gestuelles identifiées ; - l’élément mobile à déplacer dans ladite zone aéroportuaire est un avion et les informations gestuelles types définissent des gestes codifiés et normalisés par l’Association Mondiale du Transport Aérien ; - le système comporte une interface d’identification pour accéder audit environnement virtuel et le procédé comporte les étapes suivantes : o Transmission, par ledit formateur audit système, d’un identifiant dudit agent de piste via l’interface d’identification, o Reconnaissance de l’identifiant, o Chargement dudit environnement virtuel associé audit identifiant. - le système comporte une interface de gestion des conditions météorologiques, de jour et de nuit, et le procédé comporte les étapes suivantes : o Transmission, par ledit formateur audit système, d’informations météorologiques, de jour et de nuit via l’interface de gestion, o Chargement dudit environnement virtuel reflétant lesdites informations météorologiques et de jour ou de nuit. - le système communique avec une plateforme d’hébergement du type Cloud et le procédé comporte les étapes suivantes : o Le système transmet à ladite plateforme d’hébergement les données générées par le système durant une séance de formation, o la plateforme d’hébergement enregistre lesdites données. - l’étape de reconnaissance de l’identifiant est réalisée par ladite plateforme d’hébergement et lesdites données enregistrées sont associées audit identifiant. - Le procédé met en oeuvre au moins un second environnement virtuel (E1 ) d’entrainement aux gestes et la mise en oeuvre dudit environnement virtuel (E2) comportant la zone aéroportuaire est conditionnée par une information d’autorisation, ledit procédé comportant les étapes suivantes : o Génération dudit second environnement virtuel 3D d’entrainement (E1), o Enregistrement d’une succession d’informations gestuelles o Traitement de ladite succession d’informations o Et génération de ladite information d’autorisation. - L’installation comporte un second capteur de reconnaissance gestuelle, apte à recueillir des informations relatives à une position et une orientation du casque de réalité virtuelle dans l’espace, et ledit procédé comportant les étapes suivantes : o Le système reçoit et traite les informations de position et d’orientation du casque de réalité virtuelle porté par ledit agent, o Le système modifie l’environnement virtuel de manière à afficher un angle de vision propre à ladite position et à ladite orientation du casque de réalité virtuelle dans l’espace. L’invention concerne également une installation pour la mise en oeuvre du procédé défini ci-dessus qui est remarquable en ce qu’elle comporte : - Un casque de réalité virtuelle apte à être porté par ledit agent de piste, - Au moins un capteur de reconnaissance gestuelle dudit agent de piste, - Un ordinateur apte à mettre en oeuvre ledit procédé, ledit ordinateur comportant un système de traitements de données et de génération dudit environnement virtuel simultanément dans le casque de réalité virtuelle et sur un écran qu’il comporte, et ledit système étant apte à recevoir et traiter des informations gestuelles en provenance du capteur de reconnaissance gestuelle, ainsi que des informations qui lui sont transmises par un formateur via ledit ordinateur, pour générer respectivement un premier et un second mouvement de l’élément mobile dans l’environnement virtuel.
Pour pouvoir être exécutée, l’invention est exposée de façon suffisamment claire et complète dans la description suivante qui est, en plus, accompagnée de dessins dans lesquels : - La figure 1 est une représentation schématique d’une installation permettant la mise en oeuvre du procédé conforme à l’invention, d’un formateur et d’un agent de piste, - La figure 2 est une représentation du type « bloc diagramme >> qui illustre les différents acteurs assurant la mise en œuvre du procédé conforme à l’invention, - La figure 3 illustre un premier environnement virtuel dans lequel l’apprenti s’entraîne à déplacer un objet en réalisant une série de gestes prédéfinis, - Et la figure 4 illustre un second environnent virtuel dans lequel l’apprenti s’entraîne à réaliser les gestes prédéfinis,
Dans la description qui suit, les termes « inférieur >>, « supérieur >>, « haut >>, « bas >> etc... sont utilisés en référence aux dessins pour une plus grande facilité de compréhension. Ils ne doivent pas être compris comme étant des limitations de la portée de l’invention.
Le procédé conforme à l’invention, qui va maintenant être décrit, met en œuvre deux modules de formation : un premier module M1 visant à apprendre à un agent de piste 1 des gestes prédéfinis, codifiés, qu’il doit reproduire pour pouvoir exercer son métier, et un second module M2 visant à mettre en situation l’agent de piste 1 dans un environnement virtuel E2, dans lequel il reproduit les gestes appris pour, dans l’exemple décrit, guider un avion dans son déplacement, de manière à le positionner à un point d’arrêt prédéterminé.
Il devra être compris que l’invention n’est pas limitée à la présence de ces deux modules : l’invention peut être mise en œuvre avec d’autres modules visant à déplacer un élément mobile dans une zone aéroportuaire.
La figure 1 illustre un agent de piste 1 à former et un formateur 2, l’agent de piste 1 et le formateur 2 utilisant une installation qui permet de mettre en œuvre le procédé conforme à l’invention. L’installation comporte un casque de réalité virtuelle 3, apte à être porté par l’agent de piste 1, deux capteurs de reconnaissance gestuelle 4 et 5 (l’installation en comporte donc ainsi au moins un) et un ordinateur 6 apte à mettre en oeuvre le procédé conforme à l’invention. L’installation qui met en oeuvre le procédé conforme à l’invention est associé à une plateforme d’hébergement 9, du type « cloud », qui communique avec l’ordinateur 6 via un réseau R1.
Conformément à l’invention, l’ordinateur 6 met en oeuvre un système 7 de traitement de données, les données étant reçues soit de l’agent de piste 1 soit du formateur 2 comme il va être expliqué ci-après.
Le système met en oeuvre les deux modules M1 et M2, évoqués ci avant, qui sont respectivement soit un module de formation aux gestes prédéfinis (voir figure 4), soit un module de mise en situation de l’agent de piste 1 dans l’environnement virtuel (voir figure 3).
Chaque module de formation M1 et M2 génère un environnement virtuel E1 et E2, respectivement, qui sont générés à la fois dans le casque de réalité virtuelle 3 et sur l’écran 8 de l’ordinateur : ce que voit l’agent de piste 1 dans le casque 3 est vu par le formateur 2 sur l’écran 8 de l’ordinateur 6. Cependant, dans l'environnement E2, le formateur peut choisir un autre point de vue que celui affiché dans le casque 3 afin de montrer une autre vue de la scène qui se déroule
Il devra être compris que les deux environnements virtuels E1 et E2 ne sont pas générés tous les deux à la fois : seul un environnement virtuel E1 ou E2 est généré à la fois sur l’écran 8 de l’ordinateur 6 et dans le casque de réalité virtuelle 3. Le choix de l’environnement E1 ou E2 est déterminé par le formateur 2 ou le système 7 lui-même.
Chaque module M1 ou M2 de formation comporte également un ou plusieurs groupes de paramètres Pn (N étant le nombre de groupes) accessibles par le formateur 2 via l’ordinateur 6 pour transmettre au système de traitement de données 7 des informations Fi à Fn. Les informations Fi à Fn sont traitées par le système et génèrent dans l’environnement virtuel E1 ou E2 un mouvement de l’élément mobile qu’il comporte.
Dans notre exemple, le module M1 de formation aux gestes comporte huit groupes de paramètres P1 à P8 et le module M2 de mise en situation virtuelle de l’agent de piste 1 comporte cinq groupes de paramètres P9 à P13.
Il devra être compris que les paramètres Pn que comporte(nt) le (ou les) module(s) du système (mis en oeuvre par le procédé de l’invention) pourraient être plus ou moins nombreux sans sortir du cadre de l’invention. En effet, le nombre de paramètres Pn est fonction de ce qui est utile à l’apprentissage de l’agent de piste 1 et à la formation elle-même.
Le système de traitement de données 7 comporte également une base de données 10 qui comporte (ou stocke) des informations gestuelles types. Ces informations gestuelles types définissent des gestes codifiés et normalisés par l’Association Mondiale du Transport Aérien (IATA, International Air Transport Association).
Le système de traitement de données 7 comporte également un comparateur de données 11 qui met en comparaison des informations qui lui sont transmises avec les informations de la base de données 10.
Les informations transmises au comparateur sont des informations gestuelles D1 qui sont générées par le capteur de reconnaissance gestuelle 4. Plus précisément, le capteur 4 est un dispositif capable de capturer les gestes faits par l’agent de piste 1 à former. En d’autres termes : quand l’agent de piste réalise un mouvement, celui-ci est détecté par le capteur 4. Le capteur 4 génère une information gestuelle D1 conforme au mouvement qu’il a capté et le transmet au comparateur de données 11.
Le comparateur de données 11 compare l’information gestuelle D1 reçue à l’ensemble des informations gestuelles types de la base de données. L’information gestuelle D1 est identifiée (D10) si le comparateur trouve qu’elle correspond à une information gestuelle type. L’information gestuelle identifiée D10 est transmise alors au module M1 (ou M2 en fonction du module chargé) pour qu’elle soit traitée et que soit modifié l’environnement virtuel E1 ou E2.
On comprend ainsi comment le système de traitement de données 7 est apte à recevoir des informations gestuelles D1 en provenance du capteur de reconnaissance gestuelle 4 et à générer une réponse dans l’environnement virtuel E1 ou E2.
Le système de traitement de données 7 comporte en outre un dispositif de traitement 12 visant à traiter des informations C1 relatives à la position et à l’orientation du casque de réalité virtuelle 3 dans l’espace, ces informations C1 étant générées par le capteur de reconnaissance gestuelle 5 quand l’agent de piste 1 bouge la tête. Autrement dit, quand l’agent de piste 1 bouge sa tête (portant le casque 3), le capteur de reconnaissance gestuelle 5 le détecte et transmet au dispositif de traitement 12 des informations C1 relatives à ce mouvement de tête.
Le dispositif de traitement 12 traite les informations C1 et transmet au module M1 (ou M2, en fonction du module chargé) des ordres C10 pour changer l’environnement E1 (ou E2, en fonction du module chargé) de sorte que l’environnement E1 affiché (ou E2, en fonction du module chargé) soit représentatif de la position et de l’orientation du casque de réalité virtuelle 3 porté par l’agent de piste 1.
Enfin, comme on peut le voir en figure 2, le système de traitement de données 7 comporte une interface identification 13. L’interface d’identification 13 permet d’associer à un agent de piste 1 à former une ou plusieurs séances, enregistrées sur la plateforme d’hébergement 9 par exemple. L’interface d’identification 13 permet également de disposer d’informations propres à l’agent de piste 1 à former et de lui donner accès à l’ensemble des modules M1 ou M2, ou bien à un seul d’entre eux si l’agent de piste n’a pas obtenu l’autorisation pour l’autre. Ainsi, en identifiant l’agent de piste 1, le système de traitement de données peut lui donner accès à un environnement virtuel E1 ou E2, ou aux deux, et peut donner accès au formateur 2 à des séances précédentes enregistrées et associées à l’agent à former.
Lorsque le formateur 2 veut commencer une séance avec un agent de piste à former, il communique au système 7 un identifiant Id à l’interface d’indentification 13. L’interface d’identification 13 communique l’identifiant Id à la plateforme d’hébergement 9.
La plateforme d’hébergement 9 répond alors au système de traitement de données 7 en donnant accès (flèche portant la référence A en figure 2) au module M1, ou au module M2, ou aux deux modules M1 et M2.
Le système de traitement de données 7 charge alors le module requis par le formateur 2.
Lorsque la séance de formation est terminée ou bien au cours de la séance de formation, le système de traitement de données 7 transmet à la plateforme d’hébergement 9 les données S relatives à ladite séance et la plateforme 9 enregistre ses données en les associant à l’identifiant avec lequel le système de traitement de données est connecté.
Il peut également être prévu deux degrés d’identification : l’interface d’identification peut également traiter à l’identifiant d’un formateur à l’ouverture d’une séance. Une fois l’identifiant du formateur reconnu, le système 7 donne accès au formateur à tous les identifiants des agents de piste qu’il forme et auxquels sont associées des séances enregistrées dans la plateforme d’hébergement.
En outre, il peut être prévu que l’accès à un module soit conditionné par la réussite du programme proposé par le premier module M1. Dans ce cas, le traitement des informations gestuelles enregistrées lors de la séance avec le module M1 conduit à la génération d’une information d’autorisation.
Quand l’agent de piste 1 à former a acquis cette autorisation, le système de traitement de données lui donne accès au module M2 et communique cette information d’autorisation à la plateforme d’hébergement 9 qui, à son tour, enregistre cette information d’autorisation en l’associant à l’identifiant. De cette façon, lors d’une prochaine séance quand le formateur entrera de nouveau l’identifiant de l’agent de piste, il aura l’accès aux deux modules M1 et M2 sans avoir à repasser le programme du module M1.
De plus, avec toutes les données reçues et enregistrées, la plateforme d’hébergement peut produire un journal des statistiques d’utilisation du procédé qui est consultable par le formateur 2 via l’ordinateur 6.
Il va maintenant être fait référence à la mise en oeuvre du procédé conforme à l’invention mettant en oeuvre l’installation et les éléments qui la composent et qui ont été présentés ci-avant.
Le formateur 2 s’installe à son poste devant l’ordinateur 6 et se connecte à la plateforme d’hébergement. Il communique l’identifiant de l’agent de piste 1. Le système de traitement de données 7 reçoit l’autorisation A de la plateforme d’hébergement pour l’agent de piste 1 identifié.
Le formateur 2 charge le module de simulation M1 pour apprendre la gestuelle codifiée et normalisée. L’agent de piste 1 s’équipe dans la même pièce ou dans une pièce à part (symbolisée schématiquement par la référence 14 sur la figure 1 ). L’invention n’est pas limitée à une mise en oeuvre du procédé dans deux pièces séparées : il s’agit là d’un exemple de mise en oeuvre non limitatif. L’environnement virtuel E1 associé au module M1 est montré en figure 4 : il est vu à la fois par l’agent de piste 1 dans le casque de réalité virtuelle 3 et par le formateur 2 sur l’écran 8 de l’ordinateur 6. L’environnement virtuel 1 est une chambre d’entrainement et ne comporte qu’un sol virtuel 16, un ciel virtuel 17 et un avatar 15. L’avatar 15 indique à l’agent de piste 1 les gestes à réaliser. Les gestes réalisés par l’agent de piste sont transformés en informations gestuelles D1 transmises par le capteur de reconnaissance gestuelle. Le comparateur 11 transmet les informations gestuelles identifiées D10 au module M1.
Dans le cadre de notre exemple de placement d’avion, chaque geste codifié correspond à un paramètre P1 à P8. La liste des paramètres P1 à P8 n'est pas exhaustive d'autres arriveront.
Le paramètre P1 correspond au geste ordonnant à l’élément mobile de se déplacer tout droit.
Le paramètre P2 correspond au geste ordonnant à l’élément mobile de tourner à gauche.
Le paramètre P3 correspond au geste ordonnant à l’élément mobile de se mettre en attente.
Le paramètre P4 correspond au geste ordonnant à l’élément mobile de ralentir.
Le paramètre P5 correspond au geste ordonnant à l’élément mobile de freiner.
Le paramètre P6 correspond au geste ordonnant à l’élément mobile de tourner à droite.
Le paramètre P7 correspond au geste ordonnant à l’élément mobile de s’arrêter.
Et le paramètre P8 correspond au geste d’arrêt d’urgence.
Quand le geste demandé à l’agent de piste 1 est réussi, le système indique à l’agent de piste 1 la réussite de son geste et passe au geste suivant à apprendre.
Cependant, le formateur 2 peut, via l’ordinateur 6, déclencher des gestes à apprendre ou à répéter de manière aléatoire en envoyant au module M1 des instructions de formation F1 à F8 générées en activant les paramètres P1 à P8.
Un fois l’ensemble des gestes appris avec succès, le formateur 2 charge le module M2 de mise en situation de l’agent de piste en environnement virtuel E2. Le formateur bascule l’agent de piste 1 dans l’environnement virtuel E2 qui s’affiche dans le casque de réalité virtuelle 3 et sur l’écran du formateur 2. L’environnement virtuel E2 est montré en figure 3. L’environnement virtuel E2 est un aéroport qui comporte un ou plusieurs avions virtuels 18 (dont un doit être guidé dans son déplacement par l’agent de piste 1 en réalisant les gestes appris), du matériel virtuel 19 usuellement présent dans des zones aéroportuaires (des éclairages, tracteurs, charriots à bagages, plateformes élévatrices, groupes électriques, groupes de climatisation, groupes de démarrage moteur, push-back, barres de repoussage, escabeaux, rampes mobiles, tapis de bagages à bande, conteneurs et porte-conteneurs, palettes de fret et porte-palettes etc.), du personnel humain virtuel (avatar 15), un sol virtuel 20 et un ciel virtuel 21.
Le module M2 propose au formateur d’agir sur différents paramètres de l’environnement : par exemple le paramètre P9 concerne les conditions météorologiques de l’environnement virtuel E2 (beau temps, mauvais temps, pluie neige, vent etc.) et de jour ou de nuit. Le paramètre P9 conduit le formateur à une interface de gestion qui lui permet de transmettre au système de traitement de données les conditions météorologiques et de jour ou de nuit de l’environnement virtuel.
Le paramètre P10 concerne les interactions possibles avec l’élément mobile. Le paramètre P10 conduit à une interface qui lui permet d’agir sur le comportement de l’élément mobile 18 (ici l’avion 18 dont le déplacement doit être guidé). Par exemple, le formateur peut agir sur l’angle de rotation de l’avion mobile, sur sa vitesse de rotation, sur sa vitesse en ligne droite, sur la réaction du pilote de l’avion... Grâce au paramètre P10, le formateur génère un mouvement de l’élément mobile ou agit sur le mouvement de l’élément mobile. Ainsi, quand l’agent de piste 1 fait avancer l’avion en ligne droite et fait accélérer l’avion en réalisant les gestes adéquats appris, le formateur 2 peut simultanément agir sur la vitesse de l’avion et aider, ou mettre en difficulté, l’agent de piste 1.
Ainsi, le mouvement généré par le formateur 2 sur l’élément mobile 18 peut agir sur le mouvement généré par l’agent de piste sur le même élément mobile 18.
Le paramètre P11 concerne le déclenchement par le formateur d’évènements soudains, imprévus : par exemple l’agent de piste 1 fait avancer l’avion et le formateur décide de faire entrer dans l’environnement virtuel un véhicule qui traverse la trajectoire de l’avion, forçant l’agent de piste 1 à réagir en réalisant d’autres gestes en urgence pour faire freiner l’avion 18.
Le paramètre P12 concerne la gestion des caméras, montrant différents angles de vue dans l’environnement virtuel.
Le paramètre P13 concerne la gestion des statistiques, des résultats et des vidéos d’enregistrement de l’agent de piste 1 identifié.
Dans notre exemple, le module M2 vise à conduire l’agent de piste 1 à réaliser une série de geste appris dans le module M1 pour déplacer l’avion 18 dans l’environnement virtuel et le placer précisément à un point prédéterminé dans la zone aéroportuaire : sur la barre d’arrêt du point de parking sur lequel l’avatar 15 se trouve.
En début de séance, l’avion 18 se trouve sur la gauche, sur la droite ou venant d’en face de l’avatar 15.
Pour faire avancer l’avion 18, pour le faire tourner, le faire accélérer, le faire freiner etc., l’agent de piste 1 réalise une série de gestes qui sont captés par le capteur de reconnaissance gestuelle 4 et transformés en informations gestuelles D1 transmises au comparateur 11, transmises en informations gestuelles identifiées D10 au module M2. En réponse à ces informations, l’élément mobile 18 (l’avion dans l’exemple), avance, tourne, accélère, freine etc. L’asservissement de la vitesse et la direction de l’avion avec la gestuelle de l’agent de piste 1 se réalise au moyen du capteur 4 qui capte chaque mouvement et position des épaules, bras et avant-bras qui, en fonction de leur vitesse relative, vont avoir une incidence sur le pilotage de la vitesse de l’avion et la rotation de la roulette de nez (train d’atterrissage avant).
En parallèle, le formateur 2 extérieur à la scène la visualise sur l’écran 8 de l’ordinateur et peut agir de manière concurrente à celle de l’agent de piste 1 afin de l’aider ou de le mettre en difficulté.
Une fois le placement de l’avion 18 terminé, un dernier geste de l’agent de piste 1 permet de couper les moteurs et d’assurer un arrêt total de l’avion 18.
Le système de traitement des données 7 fait afficher un message de succès dans l’environnement virtuel E2. L’agent de piste 1 peut retirer son casque 3.
Le formateur peut alors passer à l’apprenant suivant en sélectionnant son nom dans l’interface dédiée à la gestion des apprenants ou effectuer un débrief de la ou des vidéos capturées le cas échéant.
On comprend de ce qui précède comment le procédé conforme à l’invention permet de former des agents de piste à la réalisation de gestes codifiés qui permettent de communiquer et ont des conséquences sur le comportement des autres intervenants dans les zones aéroportuaires. L’exemple donné ci-avant concerne le placement d’un avion à son point de parking. Toutefois, il devra être compris que l’invention n’est pas limitée à l’apprentissage de gestes pour guider les avions et que le procédé pourrait mettre en œuvre des modules sur des sujets différents :
Par exemple, le procédé pourrait mettre en œuvre un module visant à apprendre la gestuelle pour le repoussage des avions, pour le tractage des avions, pour le dégivrage des avions, pour le chargement en soute, la manipulation des conteneurs de chargements bagages etc. L’invention s’étend à la mise en œuvre de tout moyen équivalent.

Claims (11)

  1. REVENDICATIONS
    1. Procédé pour la formation pratique d’un agent de piste (1) mettant en oeuvre un environnement virtuel (E2), ledit environnement virtuel (E2) comportant : i. Une zone aéroportuaire (19, 20, 21 ) ii. Un élément mobile (18) apte à être déplacé dans ladite zone aéroportuaire (19, 20, 21) iii. Un avatar (15), ledit procédé étant mis en oeuvre dans une installation comportant : - Un casque de réalité virtuelle (3) apte à être porté par ledit agent de piste (1), - Au moins un capteur (4) de reconnaissance gestuelle dudit agent de piste (1), - Un ordinateur (6) apte à mettre en oeuvre ledit procédé, ledit ordinateur (6) mettant en oeuvre un système (7) de traitement de données (D1, C1, A, F1-F13, Id) et de génération dudit environnement virtuel (E2) simultanément dans le casque de réalité virtuelle (3) et sur un écran (8) qu’il comporte, Ledit procédé comportant des étapes suivant lesquelles : c) Le système (7) reçoit et traite des informations gestuelles (D1) en provenance du capteur (4) de reconnaissance gestuelle, puis génère dans l’environnement virtuel (E2) un premier mouvement de l’élément mobile (18), d) Le système (7) reçoit et traite des informations (F1 -F13, Id) qui lui sont transmises par un formateur (2) via ledit ordinateur (6), puis génère dans l’environnement virtuel (E2) un second mouvement de l’élément mobile (18).
  2. 2. Procédé selon la revendication 1, caractérisé en ce que ledit second mouvement généré à l’étape b) agit sur le premier mouvement généré à l’étape a).
  3. 3. Procédé selon la revendication 1 ou 2, caractérisé en ce que l’étape a) comporte les sous étapes suivantes : - les informations gestuelles (D1) reçues sont identifiées (D10) par comparaison à des informations gestuelles types stockées dans une base de données (10), et - le mouvement dudit élément mobile (18) est commandé en fonction desdites informations gestuelles identifiées (D10).
  4. 4. Procédé selon la revendication 3, caractérisé en ce que l’élément mobile (18) à déplacer dans ladite zone aéroportuaire (19, 20, 21) est un avion (18), en ce que les informations gestuelles types que comporte la base de données (10) définissent des gestes codifiés et normalisés par l’Association Mondiale du Transport Aérien.
  5. 5. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le système (7) comporte une interface d’identification (13) pour accéder audit environnement virtuel (E2) et en ce que le procédé comporte les étapes suivantes : - Transmission, par ledit formateur (2) audit système (7), d’un identifiant (Id) associé audit agent de piste (1) via l’interface d’identification (13), - Reconnaissance de l’identifiant, - Chargement dudit environnement virtuel (E2) associé audit identifiant (Id).
  6. 6. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le système (7) comporte une interface de gestion des conditions météorologiques, de jour et de nuit, et en ce que le procédé comporte les étapes suivantes : - Transmission, par ledit formateur (2) audit système (7), d’informations météorologiques, de jour et de nuit via l’interface de gestion, - Chargement dudit environnement virtuel (E2) reflétant lesdites informations météorologiques et de jour ou de nuit transmises.
  7. 7. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que : - Le système (7) communique avec une plateforme d’hébergement (9) du type Cloud, - Le système (7) transmet à ladite plateforme d’hébergement (9) les données (S) générées par le système (7) durant une séance de formation, - la plateforme d’hébergement (9) enregistre lesdites données (S).
  8. 8. Procédé selon les revendications 5 et 7, caractérisé en ce que l’étape de reconnaissance de l’identifiant (Id) est réalisée par ladite plateforme d’hébergement (9) et en ce que lesdites données (S) enregistrées sont associées audit identifiant (Id).
  9. 9. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il met en œuvre au moins un second environnement virtuel (E1) d’entraînement aux gestes et en ce que la mise en œuvre dudit environnement virtuel (E2) comportant la zone aéroportuaire est conditionnée par une information d’autorisation (A), ledit procédé comportant les étapes suivantes : - Génération dudit second environnement virtuel 3D d’entraînement (E1), - Enregistrement d’une succession d’informations gestuelles - Traitement de ladite succession d’informations - Et génération de ladite information d’autorisation (A).
  10. 10. Procédé selon l’une quelconque des revendications précédentes, ladite installation comportant un second capteur (5) de reconnaissance gestuelle, apte à recueillir des informations (C1) relatives à une position et une orientation du casque de réalité virtuelle (3) dans l’espace, ledit procédé comportant les étapes suivantes : - Le système (7) reçoit et traite les informations (C1) de position et d’orientation du casque de réalité virtuelle porté par ledit agent, - Le système (7) modifie l’environnement virtuel (E2) de manière à afficher un angle de vision propre à ladite position et à ladite orientation du casque de réalité virtuelle (3) dans l’espace.
  11. 11. Installation pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, caractérisée en ce qu’elle comporte : - Un casque de réalité virtuelle (3) apte à être porté par ledit agent de piste (1), - Au moins un capteur (4) de reconnaissance gestuelle dudit agent de piste (1), - Un ordinateur (6), apte à mettre en œuvre ledit procédé, ledit ordinateur (6) comportant un système (7) de traitement de données (D1, C1, A, F1-F13, Id) et de génération dudit environnement virtuel (E2) simultanément dans le casque de réalité virtuelle (3) et sur un écran (8) qu’il comporte, et ledit système étant apte à recevoir et traiter des informations gestuelles (D1 ) en provenance du capteur (4) de reconnaissance gestuelle, ainsi que des informations (F1-F13, Id) qui lui sont transmises par un formateur (2) via ledit ordinateur (6), pour générer respectivement un premier et un second mouvement de l’élément mobile (18) dans l’environnement virtuel (E2).
FR1770635A 2017-06-16 2017-06-16 Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre Active FR3067848B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1770635A FR3067848B1 (fr) 2017-06-16 2017-06-16 Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1770635 2017-06-16
FR1770635A FR3067848B1 (fr) 2017-06-16 2017-06-16 Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre

Publications (2)

Publication Number Publication Date
FR3067848A1 FR3067848A1 (fr) 2018-12-21
FR3067848B1 true FR3067848B1 (fr) 2019-06-14

Family

ID=60081084

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1770635A Active FR3067848B1 (fr) 2017-06-16 2017-06-16 Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre

Country Status (1)

Country Link
FR (1) FR3067848B1 (fr)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240362B2 (ja) * 1994-04-13 2001-12-17 独立行政法人産業技術総合研究所 広視野映像提示装置
FR3007161B1 (fr) * 2013-06-17 2015-07-17 Cassidian Procede de mise en œuvre d'un essai de simulation d'une situation reelle comprenant une generation de differents contextes virtuels
US20170069218A1 (en) * 2015-09-07 2017-03-09 Industry-University Cooperation Foundation Korea Aerospace University L-v-c operating system and unmanned aerial vehicle training/testing method using the same
FR3041804B1 (fr) * 2015-09-24 2021-11-12 Dassault Aviat Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe

Also Published As

Publication number Publication date
FR3067848A1 (fr) 2018-12-21

Similar Documents

Publication Publication Date Title
Bojarski et al. End to end learning for self-driving cars
US20210327299A1 (en) System and method for detecting a vehicle event and generating review criteria
CN108475406B (zh) 用于请求和控制自主车辆服务的软件应用
US11977387B2 (en) Queueing into pickup and drop-off locations
CN109658768B (zh) 一种虚拟现实的多人同场景混合交通流仿真实验平台
CN109636924B (zh) 基于现实路况信息三维建模的车载多模式增强现实***
US20210134154A1 (en) Parallel remote control driving system for intelligent network vehicle
CA2989154A1 (fr) Systeme et procede d'inspection automatique de surface
CN106660208A (zh) 用于机器人装置的虚拟安全罩
US20220198107A1 (en) Simulations for evaluating driving behaviors of autonomous vehicles
FR2679357A1 (fr) Dispositif embarque et procede de reperage et de suivi de la position d'un vehicule sur la route et dispositif d'aide a la conduite en comportant application.
FR2937010A1 (fr) Procede et systeme de controle de l'appontage/decollage automatique d'un drone sur ou d'une grille circulaire d'appontage d'une plate-forme notamment navale
DE112019002394T5 (de) Erkennen von aktivität in der nähe von autonomen fahrzeugen
FR3068945A1 (fr) Vehicule routier et methode de reengagement de la conduite manuelle
JP2020080542A (ja) 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法
DE102023107233A1 (de) Auswahl von fahrzeugaktionen auf grundlage simulierter zustände
JP2022539559A (ja) 損傷検出装置及び方法
FR3067848B1 (fr) Procede pour la formation pratique d un agent de piste mettant en oeuvre un environnement virtuel et installation pour sa mise en oeuvre
CN104777523B (zh) 一种机场道口机动车底盘全景检测***及控制方法
CN108873897A (zh) 短途交通设备和***
US20230324863A1 (en) Method, computing device and storage medium for simulating operation of autonomous vehicle
WO2022143181A1 (fr) Procédé et appareil de traitement d'informations et système de traitement d'informations
CN108091161A (zh) 用于探测位于停车场内的突起对象的方法和***
CN115017824A (zh) 评估自主驾驶模块的方法、介质和电子设备
US20230033424A1 (en) Information processing method, information processing system, and information processor

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20181221

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

CA Change of address

Effective date: 20210813

CD Change of name or company name

Owner name: CLEF JOB IN, FR

Effective date: 20210813

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8