FR2883437A1 - Dispositif et procede de communication dans un reseau - Google Patents

Dispositif et procede de communication dans un reseau Download PDF

Info

Publication number
FR2883437A1
FR2883437A1 FR0502584A FR0502584A FR2883437A1 FR 2883437 A1 FR2883437 A1 FR 2883437A1 FR 0502584 A FR0502584 A FR 0502584A FR 0502584 A FR0502584 A FR 0502584A FR 2883437 A1 FR2883437 A1 FR 2883437A1
Authority
FR
France
Prior art keywords
network
equipment
data
node
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0502584A
Other languages
English (en)
Other versions
FR2883437B1 (fr
Inventor
Artur Hecker
Erik Olivier Blass
Houda Labiod
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WAVESTORM A RESPONSABILITE Ltee Ste
WAVESTORM SARL
Groupe des Ecoles des Telecommunications
Original Assignee
WAVESTORM A RESPONSABILITE Ltee Ste
WAVESTORM SARL
Groupe des Ecoles des Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WAVESTORM A RESPONSABILITE Ltee Ste, WAVESTORM SARL, Groupe des Ecoles des Telecommunications filed Critical WAVESTORM A RESPONSABILITE Ltee Ste
Priority to FR0502584A priority Critical patent/FR2883437B1/fr
Priority to PCT/FR2006/000552 priority patent/WO2006097615A1/fr
Priority to EP06726081A priority patent/EP1864466A1/fr
Publication of FR2883437A1 publication Critical patent/FR2883437A1/fr
Application granted granted Critical
Publication of FR2883437B1 publication Critical patent/FR2883437B1/fr
Priority to US11/898,859 priority patent/US20080071900A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0823Network architectures or network communication protocols for network security for authentication of entities using certificates

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

Réseau de communication comprenant une pluralité d'équipements (30) interconnectés, les équipements (30) assurant l'administration du réseau, par exemple la gestion des données dans les équipements du réseau, la surveillance du réseau, le contrôle du réseau, la gestion du contrôle d'accès au réseau. Les équipements (30) constituant le réseau étant des routeurs, des contrôleurs d'accès ou des commutateurs.

Description

La présente invention concerne le domaine de la communication dans un
réseau, et plus particulièrement le domaine de l'administration réseau, notamment la gestion du
contrôle d'accès et la gestion des équipements installés dans un réseau de communication.
Aujourd'hui, pour permettre l'administration réseau, plusieurs technologies et standards industriels sont utilisés, telles que par exemple les architectures SNMP (Simple Network Management Protocol) ou AAA (Authentication / Authorization / Accounting) bien connues de l'homme du métier.
La figure la présente une architecture d'un réseau conforme au standard SNMP. Ce standard définit une infrastructure de gestion de réseau suivant le modèle de communication agent-manager, connu de l'homme du métier. Dans un tel modèle les agents (110) installés sur les équipements renvoient des rapports à une instance centrale nommée manager. Le manager utilise ces rapports pour construire une image de la situation globale du réseau. SNMP permet également le changement de certains variables définies dans les bases d'information de la gestion, communément appelé MIB (Management Information Base).
Dans le domaine de l'administration réseau, on peut distinguer trois parties dans un réseau: le plan d'activité (business plane), le plan de contrôle (10) (control plane / management plane) et le plan de réseau (I1) (network plane). Le plan d'activité est parfois inexistant ou confondu avec le plan de contrôle (10).
Le plan d'activité est utilisé par l'administration réseau pour configurer, contrôler et observer le comportement du réseau. Il permet également à l'administrateur du réseau de définir des comportements standard de base du réseau.
Le plan réseau (1l) contient des équipements, par exemple des routeurs, qui assurent les services de base dans un réseau, par exemple le transport de données provenant d'un utilisateur vers le destinataire de ces données par un routeur. Le routeur étant chargé de choisir l'itinéraire à suivre.
Le plan de contrôle (10) également appelé plan de gestion, est le plan intermédiaire entre le plan d'activité et le plan réseau. Il permet de simplifier l'administration du réseau en automatisant les tâches standard par exemple de prises de décision dans les situations standard définis préalablement par l'administration du réseau en terme de règles et de stratégies. Le plan de contrôle centralise le contrôle des équipements dans le plan réseau. Cependant il arrive dans la pratique que le plan de contrôle se confonde avec le plan d'activité.
Dans le plan de contrôle d'un réseau de type SNMP, un équipement central nommé poste de gestion réseau, appelé communément NMS (101) (Network Management Station), collecte des données des agents (110) SNMP installés dans les équipements du plan réseau. Le NMS (101) sert alors de point de contrôle central pour l'administration accessible à partir du plan d'activité. Dans ce modèle, il existe donc une administration mais une variété d'équipements à gérer: l'administration du réseau est donc centralisée.
La figure lb illustre une architecture réseau conforme au standard AAA présentant également une administration centralisée. Le standard AAA définit une interface vers, par exemple, une base de données, et permet l'autorisation et l'authentification à l'utilisation d'un service, ainsi qu'aux échanges de statistiques sur l'utilisation du service. Le standard AAA définit également une architecture et des protocoles permettant les échanges de preuves d'identité, de droits attribués, ainsi que les statistiques d'utilisation de ressources. Le protocole AAA le plus répandu est le standard nommé IETF RADIUS. Ce protocole présume une infrastructure centralisée basée sur le modèle client-serveur connu de l'homme du métier. Dans ce modèle, un équipement central faisant partie du plan de contrôle (11), nommée serveur d'authentification et noté AS (Authentication Server) (102), est utilisé pour vérifier les demandes d'accès aux services provenant des autres équipements du plan de réseau (11) communément appelés serveur d'accès réseau et notés NAS (Network Access Server) (111) par l'homme du métier. En fonction de cette vérification et des stratégies locales, l'AS (102) répond avec un message d'autorisation ou de refus d'accès. Les NAS (111) typiques sont par exemple des serveurs entrants, des points d'accès IEEE 802.11, divers périphériques réseau et également des services réalisant une vérification de l'autorisation d'accès utilisateur.
Ainsi, comme illustré sur la figure 2a, si l'AS (102) ne répond pas à cause d'une panne, aucun NAS (111) soumis administrativement à ce serveur ne peut accepter de nouvelles sessions. Les sessions existantes sur de tels points d'accès seront interrompues à la ré-authentification suivante. Généralement, une panne peut être par exemple une surcharge du serveur AAA. En outre la surcharge du réseau dépend de plusieurs paramètres, par exemple le nombre total d'utilisateurs, la durée de session définie par l'utilisateur, la méthode d'authentification utilisateur, la mobilité utilisateur. Cette éventuelle situation de surcharge souligne en outre un autre problème clé d'une telle solution centralisée: l'extensibilité ou le passage à l'échelle c'est-à-dire la capacité à administrer un réseau croissant en terme de taille. Le point de contrôle centralisé d'une telle architecture est quasiment toujours sur- ou sous-dimensionné, représentant ainsi une perte de ressource ou un goulot d'étranglement respectivement. Dans cette configuration, la fiabilité de l'ensemble du plan de contrôle dépend ainsi directement de la fiabilité de l'infrastructure AAA. L'infrastructure AAA devient alors critique pour le service réseau global.
Une solution possible au problème de passage à l'échelle d'un réseau serait d'installer des serveurs AAA supplémentaires et de réaliser une division du réseau en sous-ensembles gérés par AAA de taille appropriée. Ceci est illustré sur la figure 2b dans laquelle le point d'accès à gauche authentifie sur le Serveur AAA 1 (1021), alors que les autres points d'accès authentifient sur le serveur AAA N (102N). Les protocoles AAA modernes, tel que le protocole standardisé RADIUS, proposent des mesures de l'interconnexion serveur AAA, appelée proxy, permettant d'obtenir une telle division sans limitations de la mobilité de l'utilisateur: un utilisateur (2) dont le profil est géré par le Serveur AAA 1 (1021) peut toujours accéder au service sur tous les points d'accès (111) connectés. Cependant, une telle solution consistant à installer des serveurs supplémentaires devient très coûteuse en ce qui concerne la maintenance et présente une infrastructure de contrôle considérablement plus complexe.
Ainsi, toutes ces solutions d'administration réseaux, notamment de gestion et de contrôle d'accès, se basent exclusivement sur des architectures centralisées, c'est-à- dire que la gestion ne se fait que par un seul et même équipement central dédié, et cela présente plusieurs inconvénients majeurs, notamment en terme de robustesse, de coût et de passage à l'échelle.
En effet, si l'équipement central introduit par les architectures SNMP ou AAA tombe en panne, par exemple panne de matériel, de réseau, ou de courant, le service rendu par le réseau devient immédiatement et complètement inaccessible pour tout nouvel utilisateur; les sessions ouvertes ne peuvent plus être prolongées après leur expiration pour les utilisateurs connectés, la durée de session étant de l'ordre de 5 à 10 minutes par exemple dans le cadre d'un réseau sans fil.
En outre, comme avec toutes les solutions centralisées, une situation de surcharge peut être provoquée par une activité élevée du réseau, par exemple par un nombre trop élevé d'équipements (par exemple clients, agents) déployés dans le réseau et soumis à ce même équipement central. Celui-ci se présente alors comme un goulot d'étranglement et limite le passage à l'échelle du réseau. Dans le cas concret d'une architecture AAA, la surcharge peut être due par exemple au nombre d'utilisateurs, à la durée de session définie, à la mobilité des utilisateurs, ou encore aux méthodes utilisées pour l'authentification des utilisateurs. La nécessité d'un équipement centralisé ne permet pas de suivre la croissance naturelle du réseau. Par exemple, si une entreprise veut déployer un petit réseau pour couvrir des besoins spécifiques identifiés, le coût d'un tel réseau sera disproportionné par rapport à sa En fait, le passage de tout. système centralisé à une autre échelle est difficile: il est naturellement soit sur- soit sous-dimensionné à un certain moment.
De plus, en terme de coût d'équipement, une installation nécessitant un minimum en sécurité et gestion de réseau implique une installation d'un système de contrôle centralisé. La fiabilisation de ce système, la complexité de sa gestion et de sa maintenance, impliquent le déploiement de forces et de compétences humaines nécessaires pour le bon fonctionnement du réseau, et représentent donc un coût non négligeable.
Pour résumer les propriétés et inconvénients techniques de l'architecture de contrôle 5 centralisée, il est possible d'affirmer qu'elle n'est pas bien adaptée à différents cas.
Dans le cas d'une installation de réseaux d'envergure, le point de contrôle central ou l'AS (102) dans le cas d'une architecture AAA, peut devenir un goulot d'étranglement et représente également un point de faiblesse indésirable.
L'installation de plusieurs serveurs AAA authentifiant en direction d'une base de données utilisateur commune n'atténue pas le problème de mise à l'échelle et de coût.
Dans le cas de petits réseaux: les concepts d'administration centralisées ne sont pas bien adaptés aux petites installations de moins de 50 points d'accès. Le principal problème est le coût et le fonctionnement d'une installation centrale fiable. En raison de sa souplesse d'utilisation, la gestion requiert généralement une connaissance approfondie du réseau et une administration compétente. L'effort d'administration et le coût supplémentaire en équipement, logiciel et maintenance sont difficiles à amortir dans de petites installations. Par exemple, ce qui est difficile, tout particulièrement pour les petites entreprises, c'est d'utiliser les solutions de contrôle d'accès actuellement disponibles pour les réseaux locaux sans fil: ils ne sont pas assez sûrs ou leur sécurité est inabordable. Pour cette raison, la norme IEEE 802.11 i propose un mode de clé pré-partagée (PSK) pour les points d'accès indépendants.
Cependant, dans ce mode, il est quasiment impossible de proposer un accès à des visiteurs occasionnels et à différents groupes d'utilisateurs. En outre, si une installation de réseau local sans fil basée sur le mode de clé pré-partagée doit être étendue à plusieurs points d'accès, l'extension revient principalement au coût d'une sécurité réduite ou entraîne une affectation utilisateur/point d'accès prédéfinie limitant la mobilité. Ainsi, la seule alternative existante dans les concepts centralisés actuels consiste en ce que tous les nouveaux points d'accès authentifient en direction du premier point d'accès agissant comme un serveur AAA local et contenant les profils utilisateurs. Cependant, bien que pratiquement plus simple à obtenir dans un petit réseau, cette solution suppose l'installation d'un serveur AAA central, avec des ressources particulièrement limitées. Cette solution ne peut pas être facilement étendue. En outre, les serveurs AAA intégrés existants sont volontairement relativement simples et ne proposent typiquement pas l'entière fonctionnalité d'un serveur AAA dédié.
Dans le cas de la croissance du réseau, il existe des problèmes d'extensibilité et de coût. En effet, avec les architectures centralisées disponibles, une croissance continue du réseau (due au développement de l'entreprise par exemple) est difficile à suivre.
L'installation d'un serveur AAA représente un coût considérable. En outre, un nouveau serveur AAA est difficile à ajouter à une infrastructure existante en raison de la nouvelle répartition de la base de données et de la relation de confiance nécessaire. Par exemple, si les bases de données utilisateur sont totalement répliquées, des mécanismes de cohérence doivent être utilisés pour obtenir le même contenu dans toutes les bases de données. Ceci est difficile car des modifications peuvent être apportées dans différentes bases de données simultanément. Si la base de données n'est pas répliquée pour chaque serveur AAA, chaque serveur AAA devient alors un point de faiblesse pour tous les utilisateurs gérés dans sa base de données. Il existe bien évidemment un compromis indésirable entre la performance du plan de contrôle d'une part et sa complexité d'autre part.
La présente invention a pour but de remédier à ces inconvénients, et notamment, mais non exclusivement, à pour but de proposer un réseau capable de suivre la croissance de la capacité d'administration du réseau, c'est-à-dire optimiser le passage à l'échelle, acceptant facilement l'ajout d'un nouveau point d'accès transparent pour les utilisateurs, supportant la gestion d'utilisateurs, n'imposant pas de nouvelles contraintes au niveau de la mobilité des utilisateurs, c'est-à-dire que chaque utilisateur autorisé doit pouvoir se connecter à chaque point d'accès du réseau, supportant une gestion simplifiée, n'introduisant pas de contrainte au niveau des débits et de délais au niveau de transport de données, n'imposant pas de contraintes au niveau du service plan réseau.
Un autre objectif de l'invention est de proposer une solution ne diminuant pas la performance du réseau et n'autorisant aucun point de faiblesse, et dont l'impact d'une panne partielle doit être limité aux équipements défaillants.
Un autre objectif de l'invention est de proposer une solution offrant un support de profil utilisateur du type AAA par exemple, avec des possibilités identiques ou équivalentes de gestion utilisateur, avec pour chaque utilisateur la possibilité de pouvoir accéder à chaque partie du réseau.
Ces objectifs sont atteints par la prévision d'un (ici seront insérées les revendications pour des questions juridiques) Ces objets, caractéristiques et avantages ainsi que d'autres de la présente invention seront exposés plus en détail dans la description suivante d'un mode de réalisation préféré de l'invention, à titre non limitatif, en référence aux figures parmi lesquelles: - La figure la présente un réseau utilisant l'architecture SNMP; La figure lb présente un réseau utilisant l'architecture AAA; La figure 2a présente une configuration possible d'un réseau utilisant l'architecture AAA; La figure 2b présente une autre configuration possible d'un réseau utilisant l'architecture AAA; La figure 3 présente une configuration du plan contrôle selon l'invention; La figure 4 présente un exemple d'une table CAN à 2 dimensions avec 5 noeuds; La figure 5 présente une réalisation préférée d'un réseau selon l'invention; La figure 6 présente une répartition de zones de gestion selon l'invention; Pour réduire les coûts et obtenir une mise à l'échelle naturelle, les équipements du plan du réseau sont organisés directement et déployés afin de créer un réseau comparable au réseau égal à égal, également noté P2P (peer-to-peer), par exemple pour le stockage de données relatives au contrôle d'accès, à la gestion du réseau ou à la configuration d'entité, tel qu'illustré sur la figure 3. Pour cela, la partie du plan de contrôle de l'équipement réseau (par exemple le client AAA ou l'agent SNMP) est étendue ou remplacée par un module P2P (3). Ce module P2P (3) contient ainsi les données nécessaires du plan de contrôle.
Etant donné que les ressources disponibles au niveau des équipements (30) du plan de contrôle pour des tâches supplémentaires sont typiquement limitées, la charge administrative est distribuée entre tous les équipements (30) du plan du réseau (par exemple routeurs ou points d'accès). Ainsi, chaque équipement du plan de contrôle n'est concerné que par une partie de l'ensemble de la charge administrative.
Pour répondre aux objectifs de l'invention définis précédemment, un contrôle d'accès réseau est intégré dans l'équipement faisant le lien avec l'utilisateur. Ce contrôle d'accès réseau possède une architecture interne réseau développant les récentes avancées dans la mise en réseau P2P. De plus, le réseau P2P ainsi formé peut être utilisé pour toute tâche classique du plan de contrôle comme la gestion de l'équipement déployé, le support de la mobilité ou la configuration automatique.
Pour cela, d'autres équipements ou des noeuds P2P supplémentaires peuvent être ajoutés à ce réseau P2P.
En guise d'exemple de réalisation, des points d'accès IEEE 802.11 pourraient former un réseau dédié P2P indépendant, stockant la base de données utilisateur distribué, utilisée pour le contrôle d'accès réseau IEEE 802.1X.
Des exemples de mise en oeuvre de l'invention sont exposés ci-après.
Afin de répondre aux exigences d'extensibilité et de tolérance aux fautes, aucune entité ne peut disposer de connaissances sur le réseau global. Le problème de base ici n'étant alors pas le transfert de données, mais plutôt la localisation de données à transférer.
Par exemple, aucun point d'accès n'est autorisé à disposer d'un index de tous les enregistrements de données dans le recouvrement. De plus la diffusion de données dans le réseau (par exemple " qui tient la structure de données X ? ") par un équipement n'est pas autorisée pour des raisons d'efficacité et d'extensibilité. Enfin, dans l'environnement donné, une diffusion basée sur un seuil ne peut être acceptée, l'itération de la requête pouvant entraîner des retards de recherche accrus de manière aléatoire, des délais d'attente et, généralement, une qualité de service inférieure. Dans ce contexte, des tables de hachage distribuées (DHT Distributed Hash Table) peuvent par exemple être utilisées. Elles sont utilisées pour stocker et récupérer une base de données AAA distribuée entre les points d'accès.
Une DHT est une table de hachage divisée en plusieurs parties. Ces parties sont distribuées entre certains clients formant désormais typiquement un réseau dédié. Un tel réseau permet à l'utilisateur de stocker et de récupérer des informations dans des paires (clé, données) tel qu'illustré par les tables de hachage traditionnelles connu de l'homme du métier. Elles requièrent des règles et algorithmes spécifiques. Des exemples célèbres de tables de hachage distribuées sont les réseaux de partage de fichier/P2P. Chaque noeud faisant partie d'un tel réseau P2P est responsable d'une partie de la table de hachage appelée zone. Grâce à cela, un équipement réseau centrale gérant la table de hachage complète ou son index n'est plus nécessaire.
Chaque noeud participant à un tel réseau P2P gère sa partie de la table de hachage et met en oeuvre les primitives: lookup(k), store(k, d) et delete(k).
Avec lookup(k), un noeud recherche sur le réseau P2P une clé de hachage k donnée et obtient les données d associées à la clé k. Etant donné que chaque noeud ne dispose que d'une fraction de la table de hachage complète, il est possible que k ne fasse pas partie de la fraction du noeud. Chaque table de hachage distribuée définit donc un algorithme pour rechercher le noeud n particulier responsable de k, étant donné que ceci est réalisé sur une base de bond par bond avec chaque bond " plus proche " de n, il s'agit de l'algorithme d'acheminement de table de hachage distribuée, connu de l'homme du métier.
La primitive store (k, d) stocke un uplet comprenant une clé k et la valeur de données associée d dans le réseau, c'est-à-dire que (k, d) sont transmis à un noeud responsable de k en utilisant la même technique d'acheminement qu'avec lookup.
Avec delete(k), une entrée est supprimée de la table de hachage, c'est-àdire que le noeud responsable de k supprime (k, d).
Les réseaux dédiés basés sur le P2P utilisent leurs propres mécanismes d'acheminement ou de transfert de données. Ils sont donc optimisés de telle sorte que chaque noeud ne dispose que d'une vue très locale de son voisinage réseau. Cette propriété est nécessaire pour une bonne mise à l'échelle puisque l'état par noeud n'augmente pas nécessairement avec la croissance du réseau. L'acheminement est déterministe et il existe des limites supérieures au nombre de bonds qu'une requête doit réaliser. La plupart des réseaux P2P présentent un comportement logarithmique avec un nombre total de noeuds.
Un exemple de DHT à utilisée est par exemple le type CAN (Content Adressable Network). CAN définit une interface utilisateur de table de hachage standard tel que décrit ci-dessus. Le réseau CAN propose les mécanismes de construction dédiée (jonction de noeud/amorçage de noeud), de sortie de noeud, d'algorithme d'acheminement. L'index de la table de hachage du réseau CAN est un espace de coordonnées cartésiennes à dimension d sur un tore d. Chaque noeud est responsable d'une partie de l'ensemble de l'espace de coordonnées. La figure 4 illustre un exemple de réseau CAN en deux dimensions avec cinq noeuds (A, B, C, D et E). Dans le réseau CAN, chaque noeud contient la base de données de zone correspondant à l'espace de coordonnées affecté et une table voisine dédiée. La taille de cette dernière dépend uniquement de la dimension d. Le mécanisme standard pour l'affectation de zone entraîne une distribution uniforme de l'index entre les noeuds. Par défaut, le réseau CAN utilise une procédure de construction dédiée (appelée amorçage) basée sur une adresse DNS (Domain Name System) bien connue. Ceci permet à chaque noeud rejoignant le réseau d'obtenir une adresse d'un ou plusieurs noeuds d'amorce du réseau CAN. A la réception d'une requête d'un nouveau noeud, un noeud d'amorce répond simplement avec les adresses IP (Internet Protocol) de plusieurs noeuds choisis de manière aléatoire qui se trouvent dans le recouvrement. La requête de jonction est ensuite envoyée à l'un de ces noeuds. Le nouveau noeud choisit ensuite de manière aléatoire une adresse index et envoie une requête de jonction pour cette adresse à l'une des IP reçues. Le réseau CAN utilise son algorithme d'acheminement pour acheminer cette requête au noeud responsable de la zone dont cette adresse dépend. Le noeud sollicité répartit désormais sa zone en deux moitiés et conserve une des moitiés, la base de données de zone liée et la liste des 11 voisins dérivés du noeud rejoignant le réseau.
Par exemple, le réseau CAN sur la figure 4 est un résultat possible du scénario suivant: A est le premier noeud et contient la base de données entière B rejoint le réseau et obtient une moitié de la zone de A sur l'axe x (40) C rejoint le réseau et obtient de manière aléatoire une moitié de la zone de A sur l'axe y (41) D rejoint le réseau et obtient de manière aléatoire une moitié de la zone de B sur l'axe y (41) E rejoint le réseau et obtient de manière aléatoire une moitié de la zone de D sur l'axe x (40) L' acheminement dans le réseau CAN est basé sur un transfert considérable. Chaque requête contient le point de destination dans l'espace d'index. Chaque noeud récepteur non responsable du point de destination transfère cette requête à l'un de ses voisins dont les coordonnées sont plus proches du point que les siennes.
Pour améliorer la performance (supprimer les latences, obtenir une meilleure fiabilité), le réseau CAN présente différents paramètres: Ajuster la dimension d: le nombre d'éventuels chemins augmente avec la dimension, entraînant ainsi une meilleure protection contre les défaillances de noeud. La longueur du chemin globale diminue avec d.
Nombre de réalités indépendantes r: en utilisant plusieurs index CAN indépendants r au sein d'un réseau CAN, des noeuds r sont responsables de la même zone. La longueur du chemin globale diminue avec r (puisque l'acheminement peut prendre place dans toutes les réalités en parallèle et être abandonné en cas de succès). Le nombre de chemins réellement disponibles augmente. La disponibilité des données augmente puisque la base de données est répliquée r fois.
Utilisation de différentes mesures, reproduction de la topologie dans le réseau CAN: le réseau CAN peut utiliser une mesure d'acheminement différente. La topologie sous-jacente peut être reproduite dans le recouvrement.
Echange de trafic de noeud: la même zone peut être affectée à un groupe de noeuds, réduisant ainsi le nombre de zones et la longueur du chemin globaux.
Utilisation de plusieurs fonctions de hachage. ceci est comparable à plusieurs réalités étant donné que chaque fonction de hachage construit une entrée d'index parallèle.
Cache et réplication de paires de données: des paires " populaires " peuvent être mises en cache par les noeuds et ainsi répliquées dans la base de données.
La figure 5 présente un autre exemple de réalisation d'une architecture de gestion décentralisée pour réseaux locaux sans fil conforme au standard 802.11, illustrant comment un contrôle d'accès et une gestion décentralisés peuvent être intégrés à une technologie d'accès population existante. Cet exemple est basé sur une mise en réseau TCP/IP (Transmission Control Protocol/Internet Protocol) standard connue de l'homme du métier, dans le réseau central. Le réseau de gestion P2P est formé de points d'accès (5) conforme au standard 802.11. Chaque point d'accès (5) agit en tant que noeud (6) P2P formant un réseau dédié (8) logique sur le réseau central physique. Ce recouvrement stocke différentes bases de données logiques, principalement les bases de données utilisateur et de gestion (7). La base de données utilisateur stocke des profils utilisateurs du type AAA. La base de données de gestion aide l'administrateur à gérer tous les points d'accès connectés et stocke les paramètres de point d'accès exprimés dans la syntaxe respective (par exemple variables MIB 802.11, paramètres du fabricant propriétaire). A la demande de l'utilisateur, le noeud sollicité récupère le profil correspondant. Grâce au profil récupéré, le point d'accès (5) desservant suit la procédure selon le standard 802.1X habituelle en tant qu'authentificateur avec un serveur d'authentification local. De plus, il est possible d'inclure un quelconque nombre de noeuds (60) auxiliaires assistant, par exemple la console de l'administrateur réseau, dans ce réseau P2P. Tous les noeuds (5, 6) participant au réseau P2P interagissent entre-eux afin d'acheminer les requêtes et de récupérer, stocker et supprimer des données. Le réseau P2P est accessible sur un quelconque point d'accès connecté.
Avec n points d'accès et aucun équipement central, il est pratique d'exprimer cette relation de confiance au moyen d'une cryptographie de clé publique utilisant des certificats signés par exemple, permettant de protéger l'établissement d'une communication entre deux participants à un quelconque moment avec n secrets pour n noeuds. L'identité définie d'un point d'accès est l'adresse MAC de son interface filaire connectée au CAN.
Chaque point d'accès requiert une configuration minimum avant son déploiement dans le réseau. Ceci est principalement nécessaire pour un accès de gestion sécurisé à ce point d'accès.
La relation de confiance avec le point d'accès est représentée parl'installation d'un certificat signé sur chaque point d'accès. En outre, l'administrateur définit une connexion administrative locale (paire utilisateur/mot de passe) et règle les paramètres 802.11 habituels (SSID, noeud d'authentification, canaux et sorties utilisés). Enfin, l'administrateur fournit l'adresse amorce du réseau dédié et déploie le point d'accès en l'installation à l'emplacement souhaité et en le connectant au réseau.
Le réseau est ainsi configuré de sorte à équilibré la charge des tâches: si un point d'accès connaît une lourde charge, l'administrateur peut installer un point d'accès supplémentaire à proximité. Si les points d'accès concernés ne sont pas des voisins du CAN, ils ne partagent que la charge du trafic 802.11. Si les points d'accès sont des voisins du CAN, ils partagent également la charge administrative. Ceci est représenté sur la figure 6 illustrant trois points d'accès (5) installés dans une grande salle. Au début, le Point d'accès (API) initialement installé dispose de l'index entier.
A l'arrivée du Point d'accès 2, API donne la moitié de sa zone au Point d'accès 2 (AP2), devenant ainsi son voisin dédié (mais pas nécessairement son voisin physique). Si le trafic de données utilisateur est particulièrement élevé dans l'angle inférieur droit de la carte et relativement faible dans l'angle supérieur gauche, l'administrateur pourrait ainsi ajouter le Point d'accès 3 (AP3) dans le voisinage topologique du Point d'accès 2 afin de traiter la charge de trafic sans fil élevée. Si nous associons le recouvrement à la topologie du réseau, le nouveau AP3 devient automatiquement un voisin dédié de AP2. Ainsi, il obtient la moitié de la base de données de zone gérée par AP2 (Zone 3). En conséquence, en supposant que l'administrateur tente d'équilibrer la charge du trafic, avec cette approche, les tailles de zone des points d'accès diminuent dans les zones de charge de trafic élevée, libérant ainsi des capacités système pour le traitement du trafic. Au contraire, la zone de AP 1 reste relativement importante, ceci est cependant justifié par la charge de trafic inférieure. Il existe bien évidemment un compromis entre le surdébit de gestion de zone et la charge de trafic du réseau local sans fil.
Ainsi, au lieu d'avoir toutes les données nécessaires à l'administration du réseau stockées dans une seule base de données d'un serveur central, les différentes données sont réparties entre les différents équipements du réseau. Ainsi, un équipement servant de point d'accès rechercher les donnés qui lui manquent dans les différents équipements du réseau.
Etant donné que le nombre d'éléments du plan du réseau est choisi en fonction de la charge du trafic et si la charge administrative est bien distribuée entre les éléments du plan du réseau, le plan de contrôle peut également se mettre à l'échelle. Par exemple, l'augmentation du nombre de points d'accès 802.11 pour répondre aux exigences en termes de trafic pourrait activer automatiquement la gestion d'un plus grand nombre d'utilisateurs. Etant donné qu'il n'existe pas d'élément central qui pourrait augmenter progressivement le coût global, cette solution peut également être utilisée dans de très petits réseaux. Un réseau plus important peut être construit en ajoutant simplement des éléments supplémentaires du plan du réseau, des points d'accès 802.11 par exemple. Cette solution suit ainsi automatiquement la croissance naturelle du réseau et peut parfaitement être adaptée aux très grands réseaux.
Il est également envisageable de stocker les données plusieurs fois dans les équipements du réseau. Chaque équipement contient ainsi deux bases de données.
Les données contenues dans la première base de données étant différentes des données contenues dans la deuxième base de données. De cette manière si un équipement tombe en panne, ses données peuvent être retrouvées dans les autres équipements.

Claims (5)

REVENDICATIONS
1. Réseau de communication comprenant une pluralité d'équipements (30) interconnectés caractérisé en ce que certains au moins des équipements (30) intègrent des moyens (3) assurant l'administration du réseau, l'administration du réseau comprenant notamment, mais non exclusivement, la gestion des données dans les équipements du réseau, la surveillance du réseau, le contrôle du réseau, notamment mais non exclusivement la gestion du contrôle d'accès au réseau, et les équipements (30) constituant le réseau comprenant des routeurs, des contrôleurs d'accès et/ou des commutateurs.
2. Réseau de communication selon la revendication 1, caractérisé en ce que lesdits moyens (3) pour l'administration du réseau comprennent des données permettant l'identification des utilisateurs (2), des paramètres de configuration des équipements (30) du réseau, et/ou des adresses vers lesquelles les équipements (30) doivent se connecter pour envoyer ou recevoir des informations.
3. Réseau selon l'une quelconque des revendications 1 et 2, caractérisé en ce qu'au moins un équipement (30) du réseau est doté de moyens pour assurer le rôle de point d'accès.
4. Procédé de communication dans un réseau comprenant une pluralité d'équipements (30) interconnectés, le procédé comprenant les étapes de: configuration d'au moins un équipement (30) du réseau, comprenant au moins le stockage de données permettant la communication entre les équipements (30) du réseau, ces données comprennent au moins des données permettant l'identification de l'équipement dans le réseau et des données assurant la sécurité des échanges; construction du réseau comprenant au moins l'ajout d'un noeud (6) dans le réseau, et au moins une répartition des tâches parmi au moins certains des équipements (30) du réseaux concernant l'administration du réseau; et traitement de données stockées dans les équipements, ces traitements comprenant au moins les opérations consistant à permettre à chaque équipement (30) de retrouver des données réparties entre les équipements du réseau, à effacer des données si nécessaire, et/ou à enregistrer ou modifier des données déjà stockées.
5. Procédé de communication selon la revendication 4 caractérisé en ce que la construction du réseau comprend l'ajout automatique d'un noeud (6) lorsque le noeud (6) est opérationnel.
FR0502584A 2005-03-16 2005-03-16 Dispositif et procede de communication dans un reseau Expired - Fee Related FR2883437B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR0502584A FR2883437B1 (fr) 2005-03-16 2005-03-16 Dispositif et procede de communication dans un reseau
PCT/FR2006/000552 WO2006097615A1 (fr) 2005-03-16 2006-03-13 Dispositif et procede de communication dans un reseau
EP06726081A EP1864466A1 (fr) 2005-03-16 2006-03-13 Dispositif et procede de communication dans un reseau
US11/898,859 US20080071900A1 (en) 2005-03-16 2007-09-17 Device and a method for communicating in a network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0502584A FR2883437B1 (fr) 2005-03-16 2005-03-16 Dispositif et procede de communication dans un reseau

Publications (2)

Publication Number Publication Date
FR2883437A1 true FR2883437A1 (fr) 2006-09-22
FR2883437B1 FR2883437B1 (fr) 2007-08-03

Family

ID=35219659

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0502584A Expired - Fee Related FR2883437B1 (fr) 2005-03-16 2005-03-16 Dispositif et procede de communication dans un reseau

Country Status (4)

Country Link
US (1) US20080071900A1 (fr)
EP (1) EP1864466A1 (fr)
FR (1) FR2883437B1 (fr)
WO (1) WO2006097615A1 (fr)

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8619771B2 (en) 2009-09-30 2013-12-31 Vmware, Inc. Private allocated networks over shared communications infrastructure
US8892706B1 (en) 2010-06-21 2014-11-18 Vmware, Inc. Private ethernet overlay networks over a shared ethernet in a virtual environment
US8924524B2 (en) 2009-07-27 2014-12-30 Vmware, Inc. Automated network configuration of virtual machines in a virtual lab data environment
EP2582092A3 (fr) * 2007-09-26 2013-06-12 Nicira, Inc. Système d'exploitation de réseau pour la gestion et la sécurisation des réseaux
US9092380B1 (en) * 2007-10-11 2015-07-28 Norberto Menendez System and method of communications with supervised interaction
US8195774B2 (en) 2008-05-23 2012-06-05 Vmware, Inc. Distributed virtual switch for virtualized computer systems
EP2804350B1 (fr) 2009-04-01 2019-07-24 Nicira, Inc. Procédé et appareil de mise en oeuvre et de gestion de commutateurs virtuels
US9680750B2 (en) 2010-07-06 2017-06-13 Nicira, Inc. Use of tunnels to hide network addresses
US8964528B2 (en) 2010-07-06 2015-02-24 Nicira, Inc. Method and apparatus for robust packet distribution among hierarchical managed switching elements
US8817620B2 (en) 2010-07-06 2014-08-26 Nicira, Inc. Network virtualization apparatus and method
US10103939B2 (en) 2010-07-06 2018-10-16 Nicira, Inc. Network control apparatus and method for populating logical datapath sets
US9525647B2 (en) 2010-07-06 2016-12-20 Nicira, Inc. Network control apparatus and method for creating and modifying logical switching elements
US8825900B1 (en) 2011-04-05 2014-09-02 Nicira, Inc. Method and apparatus for stateless transport layer tunneling
US9043452B2 (en) 2011-05-04 2015-05-26 Nicira, Inc. Network control apparatus and method for port isolation
US9209998B2 (en) 2011-08-17 2015-12-08 Nicira, Inc. Packet processing in managed interconnection switching elements
CN106850444B (zh) 2011-08-17 2020-10-27 Nicira股份有限公司 逻辑l3路由
US9137107B2 (en) 2011-10-25 2015-09-15 Nicira, Inc. Physical controllers for converting universal flows
US9288104B2 (en) 2011-10-25 2016-03-15 Nicira, Inc. Chassis controllers for converting universal flows
US9203701B2 (en) 2011-10-25 2015-12-01 Nicira, Inc. Network virtualization apparatus and method with scheduling capabilities
US9178833B2 (en) 2011-10-25 2015-11-03 Nicira, Inc. Chassis controller
US10089127B2 (en) 2011-11-15 2018-10-02 Nicira, Inc. Control plane interface for logical middlebox services
US9331937B2 (en) 2012-04-18 2016-05-03 Nicira, Inc. Exchange of network state information between forwarding elements
US9047442B2 (en) 2012-06-18 2015-06-02 Microsoft Technology Licensing, Llc Provisioning managed devices with states of arbitrary type
US9231892B2 (en) 2012-07-09 2016-01-05 Vmware, Inc. Distributed virtual switch configuration and state management
US9432215B2 (en) 2013-05-21 2016-08-30 Nicira, Inc. Hierarchical network managers
US10218564B2 (en) 2013-07-08 2019-02-26 Nicira, Inc. Unified replication mechanism for fault-tolerance of state
US9559870B2 (en) 2013-07-08 2017-01-31 Nicira, Inc. Managing forwarding of logical network traffic between physical domains
US9571386B2 (en) 2013-07-08 2017-02-14 Nicira, Inc. Hybrid packet processing
US9282019B2 (en) 2013-07-12 2016-03-08 Nicira, Inc. Tracing logical network packets through physical network
US9407580B2 (en) 2013-07-12 2016-08-02 Nicira, Inc. Maintaining data stored with a packet
US9344349B2 (en) 2013-07-12 2016-05-17 Nicira, Inc. Tracing network packets by a cluster of network controllers
US9887960B2 (en) 2013-08-14 2018-02-06 Nicira, Inc. Providing services for logical networks
US9952885B2 (en) 2013-08-14 2018-04-24 Nicira, Inc. Generation of configuration files for a DHCP module executing within a virtualized container
US9973382B2 (en) 2013-08-15 2018-05-15 Nicira, Inc. Hitless upgrade for network control applications
US9432204B2 (en) 2013-08-24 2016-08-30 Nicira, Inc. Distributed multicast by endpoints
US9577845B2 (en) 2013-09-04 2017-02-21 Nicira, Inc. Multiple active L3 gateways for logical networks
US9503371B2 (en) 2013-09-04 2016-11-22 Nicira, Inc. High availability L3 gateways for logical networks
US9602398B2 (en) 2013-09-15 2017-03-21 Nicira, Inc. Dynamically generating flows with wildcard fields
US9674087B2 (en) 2013-09-15 2017-06-06 Nicira, Inc. Performing a multi-stage lookup to classify packets
US9596126B2 (en) 2013-10-10 2017-03-14 Nicira, Inc. Controller side method of generating and updating a controller assignment list
US10063458B2 (en) 2013-10-13 2018-08-28 Nicira, Inc. Asymmetric connection with external networks
US9977685B2 (en) 2013-10-13 2018-05-22 Nicira, Inc. Configuration of logical router
US9967199B2 (en) 2013-12-09 2018-05-08 Nicira, Inc. Inspecting operations of a machine to detect elephant flows
US9548924B2 (en) 2013-12-09 2017-01-17 Nicira, Inc. Detecting an elephant flow based on the size of a packet
US9996467B2 (en) 2013-12-13 2018-06-12 Nicira, Inc. Dynamically adjusting the number of flows allowed in a flow table cache
US9569368B2 (en) 2013-12-13 2017-02-14 Nicira, Inc. Installing and managing flows in a flow table cache
US9438705B2 (en) * 2013-12-16 2016-09-06 International Business Machines Corporation Communication and message-efficient protocol for computing the intersection between different sets of data
US9602385B2 (en) 2013-12-18 2017-03-21 Nicira, Inc. Connectivity segment selection
US9602392B2 (en) 2013-12-18 2017-03-21 Nicira, Inc. Connectivity segment coloring
CN104811306B (zh) * 2014-01-28 2019-07-19 西安西电捷通无线网络通信股份有限公司 实体鉴别方法、装置及***
US9419855B2 (en) 2014-03-14 2016-08-16 Nicira, Inc. Static routes for logical routers
US9313129B2 (en) 2014-03-14 2016-04-12 Nicira, Inc. Logical router processing by network controller
US9225597B2 (en) 2014-03-14 2015-12-29 Nicira, Inc. Managed gateways peering with external router to attract ingress packets
US9590901B2 (en) 2014-03-14 2017-03-07 Nicira, Inc. Route advertisement by managed gateways
US9647883B2 (en) 2014-03-21 2017-05-09 Nicria, Inc. Multiple levels of logical routers
US9503321B2 (en) 2014-03-21 2016-11-22 Nicira, Inc. Dynamic routing for logical routers
US9413644B2 (en) 2014-03-27 2016-08-09 Nicira, Inc. Ingress ECMP in virtual distributed routing environment
US9893988B2 (en) 2014-03-27 2018-02-13 Nicira, Inc. Address resolution using multiple designated instances of a logical router
US10193806B2 (en) 2014-03-31 2019-01-29 Nicira, Inc. Performing a finishing operation to improve the quality of a resulting hash
US9385954B2 (en) 2014-03-31 2016-07-05 Nicira, Inc. Hashing techniques for use in a network environment
US9686200B2 (en) 2014-03-31 2017-06-20 Nicira, Inc. Flow cache hierarchy
US9794079B2 (en) 2014-03-31 2017-10-17 Nicira, Inc. Replicating broadcast, unknown-unicast, and multicast traffic in overlay logical networks bridged with physical networks
US10404613B1 (en) * 2014-03-31 2019-09-03 Amazon Technologies, Inc. Placement of control and data plane resources
US9602422B2 (en) 2014-05-05 2017-03-21 Nicira, Inc. Implementing fixed points in network state updates using generation numbers
US9742881B2 (en) 2014-06-30 2017-08-22 Nicira, Inc. Network virtualization using just-in-time distributed capability for classification encoding
US10481933B2 (en) 2014-08-22 2019-11-19 Nicira, Inc. Enabling virtual machines access to switches configured by different management entities
US10020960B2 (en) 2014-09-30 2018-07-10 Nicira, Inc. Virtual distributed bridging
US9768980B2 (en) 2014-09-30 2017-09-19 Nicira, Inc. Virtual distributed bridging
US10250443B2 (en) 2014-09-30 2019-04-02 Nicira, Inc. Using physical location to modify behavior of a distributed virtual network element
US11178051B2 (en) 2014-09-30 2021-11-16 Vmware, Inc. Packet key parser for flow-based forwarding elements
US10511458B2 (en) 2014-09-30 2019-12-17 Nicira, Inc. Virtual distributed bridging
US10469342B2 (en) 2014-10-10 2019-11-05 Nicira, Inc. Logical network traffic analysis
US10129180B2 (en) 2015-01-30 2018-11-13 Nicira, Inc. Transit logical switch within logical router
US10038628B2 (en) 2015-04-04 2018-07-31 Nicira, Inc. Route server mode for dynamic routing between logical and physical networks
US9967134B2 (en) 2015-04-06 2018-05-08 Nicira, Inc. Reduction of network churn based on differences in input state
US10361952B2 (en) 2015-06-30 2019-07-23 Nicira, Inc. Intermediate logical interfaces in a virtual distributed router environment
US10129142B2 (en) 2015-08-11 2018-11-13 Nicira, Inc. Route configuration for logical router
US10075363B2 (en) 2015-08-31 2018-09-11 Nicira, Inc. Authorization for advertised routes among logical routers
US10204122B2 (en) 2015-09-30 2019-02-12 Nicira, Inc. Implementing an interface between tuple and message-driven control entities
US10095535B2 (en) 2015-10-31 2018-10-09 Nicira, Inc. Static route types for logical routers
US10333849B2 (en) 2016-04-28 2019-06-25 Nicira, Inc. Automatic configuration of logical routers on edge nodes
US10841273B2 (en) 2016-04-29 2020-11-17 Nicira, Inc. Implementing logical DHCP servers in logical networks
US11019167B2 (en) 2016-04-29 2021-05-25 Nicira, Inc. Management of update queues for network controller
US10484515B2 (en) 2016-04-29 2019-11-19 Nicira, Inc. Implementing logical metadata proxy servers in logical networks
US10091161B2 (en) 2016-04-30 2018-10-02 Nicira, Inc. Assignment of router ID for logical routers
US10560320B2 (en) 2016-06-29 2020-02-11 Nicira, Inc. Ranking of gateways in cluster
US10153973B2 (en) 2016-06-29 2018-12-11 Nicira, Inc. Installation of routing tables for logical router in route server mode
US10454758B2 (en) 2016-08-31 2019-10-22 Nicira, Inc. Edge node cluster network redundancy and fast convergence using an underlay anycast VTEP IP
US10341236B2 (en) 2016-09-30 2019-07-02 Nicira, Inc. Anycast edge service gateways
US10742746B2 (en) 2016-12-21 2020-08-11 Nicira, Inc. Bypassing a load balancer in a return path of network traffic
US10237123B2 (en) 2016-12-21 2019-03-19 Nicira, Inc. Dynamic recovery from a split-brain failure in edge nodes
US10212071B2 (en) 2016-12-21 2019-02-19 Nicira, Inc. Bypassing a load balancer in a return path of network traffic
US10616045B2 (en) 2016-12-22 2020-04-07 Nicira, Inc. Migration of centralized routing components of logical router
US10805239B2 (en) 2017-03-07 2020-10-13 Nicira, Inc. Visualization of path between logical network endpoints
US10637800B2 (en) 2017-06-30 2020-04-28 Nicira, Inc Replacement of logical network addresses with physical network addresses
US10681000B2 (en) 2017-06-30 2020-06-09 Nicira, Inc. Assignment of unique physical network addresses for logical network addresses
US10608887B2 (en) 2017-10-06 2020-03-31 Nicira, Inc. Using packet tracing tool to automatically execute packet capture operations
US10511459B2 (en) 2017-11-14 2019-12-17 Nicira, Inc. Selection of managed forwarding element for bridge spanning multiple datacenters
US10374827B2 (en) 2017-11-14 2019-08-06 Nicira, Inc. Identifier that maps to different networks at different datacenters
US11184327B2 (en) 2018-07-05 2021-11-23 Vmware, Inc. Context aware middlebox services at datacenter edges
US10999220B2 (en) 2018-07-05 2021-05-04 Vmware, Inc. Context aware middlebox services at datacenter edge
US10931560B2 (en) 2018-11-23 2021-02-23 Vmware, Inc. Using route type to determine routing protocol behavior
US10735541B2 (en) 2018-11-30 2020-08-04 Vmware, Inc. Distributed inline proxy
US10797998B2 (en) 2018-12-05 2020-10-06 Vmware, Inc. Route server for distributed routers using hierarchical routing protocol
US10938788B2 (en) 2018-12-12 2021-03-02 Vmware, Inc. Static routes for policy-based VPN
US11895092B2 (en) * 2019-03-04 2024-02-06 Appgate Cybersecurity, Inc. Network access controller operation
US10778457B1 (en) 2019-06-18 2020-09-15 Vmware, Inc. Traffic replication in overlay networks spanning multiple sites
US11095480B2 (en) 2019-08-30 2021-08-17 Vmware, Inc. Traffic optimization using distributed edge services
US11641305B2 (en) 2019-12-16 2023-05-02 Vmware, Inc. Network diagnosis in software-defined networking (SDN) environments
US11283699B2 (en) 2020-01-17 2022-03-22 Vmware, Inc. Practical overlay network latency measurement in datacenter
US11616755B2 (en) 2020-07-16 2023-03-28 Vmware, Inc. Facilitating distributed SNAT service
US11606294B2 (en) 2020-07-16 2023-03-14 Vmware, Inc. Host computer configured to facilitate distributed SNAT service
US11611613B2 (en) 2020-07-24 2023-03-21 Vmware, Inc. Policy-based forwarding to a load balancer of a load balancing cluster
US11902050B2 (en) 2020-07-28 2024-02-13 VMware LLC Method for providing distributed gateway service at host computer
US11451413B2 (en) 2020-07-28 2022-09-20 Vmware, Inc. Method for advertising availability of distributed gateway service and machines at host computer
US11570090B2 (en) 2020-07-29 2023-01-31 Vmware, Inc. Flow tracing operation in container cluster
US11196628B1 (en) 2020-07-29 2021-12-07 Vmware, Inc. Monitoring container clusters
US11558426B2 (en) 2020-07-29 2023-01-17 Vmware, Inc. Connection tracking for container cluster
US11736436B2 (en) 2020-12-31 2023-08-22 Vmware, Inc. Identifying routes with indirect addressing in a datacenter
US11336533B1 (en) 2021-01-08 2022-05-17 Vmware, Inc. Network visualization of correlations between logical elements and associated physical elements
US11784922B2 (en) 2021-07-03 2023-10-10 Vmware, Inc. Scalable overlay multicast routing in multi-tier edge gateways
US11687210B2 (en) 2021-07-05 2023-06-27 Vmware, Inc. Criteria-based expansion of group nodes in a network topology visualization
US11711278B2 (en) 2021-07-24 2023-07-25 Vmware, Inc. Visualization of flow trace operation across multiple sites
US11855862B2 (en) 2021-09-17 2023-12-26 Vmware, Inc. Tagging packets for monitoring and analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2359691A (en) * 2000-02-23 2001-08-29 Motorola Israel Ltd Distributed network monitoring with static/dynamic data discrimination
US20030135611A1 (en) * 2002-01-14 2003-07-17 Dean Kemp Self-monitoring service system with improved user administration and user access control

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7555553B2 (en) * 2002-10-01 2009-06-30 Hewlett-Packard Development Company, L.P. Placing an object at a node in a peer-to-peer system based on storage utilization
US7304994B2 (en) * 2003-04-09 2007-12-04 Nec Laboratories America, Inc. Peer-to-peer system and method with prefix-based distributed hash table
US7483391B2 (en) * 2003-09-19 2009-01-27 Hewlett-Packard Development Company, L.P. Providing a notification including location information for nodes in an overlay network
US7644167B2 (en) * 2004-01-30 2010-01-05 Hewlett-Packard Development Company, L.P. Identifying a service node in a network
US7590589B2 (en) * 2004-09-10 2009-09-15 Hoffberg Steven M Game theoretic prioritization scheme for mobile ad hoc networks permitting hierarchal deference
US7826396B2 (en) * 2005-03-07 2010-11-02 Miller John L System and method for implementing PNRP locality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2359691A (en) * 2000-02-23 2001-08-29 Motorola Israel Ltd Distributed network monitoring with static/dynamic data discrimination
US20030135611A1 (en) * 2002-01-14 2003-07-17 Dean Kemp Self-monitoring service system with improved user administration and user access control

Also Published As

Publication number Publication date
US20080071900A1 (en) 2008-03-20
WO2006097615A1 (fr) 2006-09-21
EP1864466A1 (fr) 2007-12-12
FR2883437B1 (fr) 2007-08-03

Similar Documents

Publication Publication Date Title
FR2883437A1 (fr) Dispositif et procede de communication dans un reseau
FR2923969A1 (fr) Procede de gestion de trames dans un reseau global de communication, produit programme d'ordinateur, moyen de stockage et tete de tunnel correspondants
FR2801754A1 (fr) Methode pour assigner une double adresse ip a un poste de travail relie a un reseau de transmission de donnees ip
EP3787344B1 (fr) Procédé de configuration d'un système d'extension de couverture de communication sans-fil et un système d'extension de couverture de communication sans-fil mettant en oeuvre ledit procédé
US11395209B2 (en) Content delivery system special network device and special local area network connection, content discovery, data transfer, and control methods
FR2930100A1 (fr) Procede d'etablissement d'un chemin de communication dans un reseau etendu de communication, tetes de tunnel,produit programme d'ordinateur et moyen de stockage correspondants
EP3682600B1 (fr) Gestion de la connexion avec d'autres passerelles residentielles d'une passerelle residentielle mettant en oeuvre l'agregation de liens
Ford UIA: A global connectivity architecture for mobile personal devices
EP2979435B1 (fr) Procédé de traitement de donnés d'utilisateur d'un réseau social
EP2446360B1 (fr) Technique de determination d'une chaine de fonctions elementaires associee a un service
CA3153796A1 (fr) Procede de connexion d'un noeud de communication, et noeud de communication correspondant
JP2013531852A (ja) トポロジサーバを用いた、通信アーキテクチャにわたって分散されたノードのネットワークに対する秘密または保護されたアクセス
EP4145798B1 (fr) Procédé de configuration d'une jonction pour un routage conforme au protocole de passerelle de bordure _ bgp et routeur de bordure associé
EP2446608B1 (fr) Technique de contrôle d'accès par une entité cliente à un service
WO2009080971A1 (fr) Procede de configuration d'un terminal d'utilisateur dans un reseau de telephonie ip
CA3240305A1 (fr) Mecanismes de communication avec un service accessible via un reseau de telecommunication prenant en compte la mobilite des services, des utilisateurs et des equipements
FR3118561A1 (fr) Procede de configuration d'une interface securisee entre un reseau de transport et un reseau elementaire d'une pluralite de reseaux elementaires federes a travers le reseau de transport ; interface associee
CA3182798A1 (fr) Procede de configuration d'un reseau de communication et noeud implementant ledit procede de configuration
Kim et al. Marconi Protocol
FR3138254A1 (fr) Procédé de fédération dynamique d'une plurialité de réseaux de radiocommunication, programme d'ordinateur et réseau associés
Kokkinen et al. Towards distributed service provisioning
FR2856540A1 (fr) Architecture de reseau local sans fil
Pathak Developing Peer-to-Peer Applications with WCF
Rajarajan et al. Dynamic virtual private network provisioning from multiple cloud infrastructure service providers
Gudeta Mobility and Personal Cloud

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20081125