FR2883437A1 - Dispositif et procede de communication dans un reseau - Google Patents
Dispositif et procede de communication dans un reseau Download PDFInfo
- Publication number
- FR2883437A1 FR2883437A1 FR0502584A FR0502584A FR2883437A1 FR 2883437 A1 FR2883437 A1 FR 2883437A1 FR 0502584 A FR0502584 A FR 0502584A FR 0502584 A FR0502584 A FR 0502584A FR 2883437 A1 FR2883437 A1 FR 2883437A1
- Authority
- FR
- France
- Prior art keywords
- network
- equipment
- data
- node
- management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 title claims description 8
- 238000007726 management method Methods 0.000 claims abstract 3
- 238000013523 data management Methods 0.000 claims abstract 2
- 238000012544 monitoring process Methods 0.000 claims abstract 2
- 238000010276 construction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims 1
- 238000009434 installation Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 5
- 238000013475 authorization Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 230000001934 delay Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0823—Network architectures or network communication protocols for network security for authentication of entities using certificates
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Réseau de communication comprenant une pluralité d'équipements (30) interconnectés, les équipements (30) assurant l'administration du réseau, par exemple la gestion des données dans les équipements du réseau, la surveillance du réseau, le contrôle du réseau, la gestion du contrôle d'accès au réseau. Les équipements (30) constituant le réseau étant des routeurs, des contrôleurs d'accès ou des commutateurs.
Description
La présente invention concerne le domaine de la communication dans un
réseau, et plus particulièrement le domaine de l'administration réseau, notamment la gestion du
contrôle d'accès et la gestion des équipements installés dans un réseau de communication.
Aujourd'hui, pour permettre l'administration réseau, plusieurs technologies et standards industriels sont utilisés, telles que par exemple les architectures SNMP (Simple Network Management Protocol) ou AAA (Authentication / Authorization / Accounting) bien connues de l'homme du métier.
La figure la présente une architecture d'un réseau conforme au standard SNMP. Ce standard définit une infrastructure de gestion de réseau suivant le modèle de communication agent-manager, connu de l'homme du métier. Dans un tel modèle les agents (110) installés sur les équipements renvoient des rapports à une instance centrale nommée manager. Le manager utilise ces rapports pour construire une image de la situation globale du réseau. SNMP permet également le changement de certains variables définies dans les bases d'information de la gestion, communément appelé MIB (Management Information Base).
Dans le domaine de l'administration réseau, on peut distinguer trois parties dans un réseau: le plan d'activité (business plane), le plan de contrôle (10) (control plane / management plane) et le plan de réseau (I1) (network plane). Le plan d'activité est parfois inexistant ou confondu avec le plan de contrôle (10).
Le plan d'activité est utilisé par l'administration réseau pour configurer, contrôler et observer le comportement du réseau. Il permet également à l'administrateur du réseau de définir des comportements standard de base du réseau.
Le plan réseau (1l) contient des équipements, par exemple des routeurs, qui assurent les services de base dans un réseau, par exemple le transport de données provenant d'un utilisateur vers le destinataire de ces données par un routeur. Le routeur étant chargé de choisir l'itinéraire à suivre.
Le plan de contrôle (10) également appelé plan de gestion, est le plan intermédiaire entre le plan d'activité et le plan réseau. Il permet de simplifier l'administration du réseau en automatisant les tâches standard par exemple de prises de décision dans les situations standard définis préalablement par l'administration du réseau en terme de règles et de stratégies. Le plan de contrôle centralise le contrôle des équipements dans le plan réseau. Cependant il arrive dans la pratique que le plan de contrôle se confonde avec le plan d'activité.
Dans le plan de contrôle d'un réseau de type SNMP, un équipement central nommé poste de gestion réseau, appelé communément NMS (101) (Network Management Station), collecte des données des agents (110) SNMP installés dans les équipements du plan réseau. Le NMS (101) sert alors de point de contrôle central pour l'administration accessible à partir du plan d'activité. Dans ce modèle, il existe donc une administration mais une variété d'équipements à gérer: l'administration du réseau est donc centralisée.
La figure lb illustre une architecture réseau conforme au standard AAA présentant également une administration centralisée. Le standard AAA définit une interface vers, par exemple, une base de données, et permet l'autorisation et l'authentification à l'utilisation d'un service, ainsi qu'aux échanges de statistiques sur l'utilisation du service. Le standard AAA définit également une architecture et des protocoles permettant les échanges de preuves d'identité, de droits attribués, ainsi que les statistiques d'utilisation de ressources. Le protocole AAA le plus répandu est le standard nommé IETF RADIUS. Ce protocole présume une infrastructure centralisée basée sur le modèle client-serveur connu de l'homme du métier. Dans ce modèle, un équipement central faisant partie du plan de contrôle (11), nommée serveur d'authentification et noté AS (Authentication Server) (102), est utilisé pour vérifier les demandes d'accès aux services provenant des autres équipements du plan de réseau (11) communément appelés serveur d'accès réseau et notés NAS (Network Access Server) (111) par l'homme du métier. En fonction de cette vérification et des stratégies locales, l'AS (102) répond avec un message d'autorisation ou de refus d'accès. Les NAS (111) typiques sont par exemple des serveurs entrants, des points d'accès IEEE 802.11, divers périphériques réseau et également des services réalisant une vérification de l'autorisation d'accès utilisateur.
Ainsi, comme illustré sur la figure 2a, si l'AS (102) ne répond pas à cause d'une panne, aucun NAS (111) soumis administrativement à ce serveur ne peut accepter de nouvelles sessions. Les sessions existantes sur de tels points d'accès seront interrompues à la ré-authentification suivante. Généralement, une panne peut être par exemple une surcharge du serveur AAA. En outre la surcharge du réseau dépend de plusieurs paramètres, par exemple le nombre total d'utilisateurs, la durée de session définie par l'utilisateur, la méthode d'authentification utilisateur, la mobilité utilisateur. Cette éventuelle situation de surcharge souligne en outre un autre problème clé d'une telle solution centralisée: l'extensibilité ou le passage à l'échelle c'est-à-dire la capacité à administrer un réseau croissant en terme de taille. Le point de contrôle centralisé d'une telle architecture est quasiment toujours sur- ou sous-dimensionné, représentant ainsi une perte de ressource ou un goulot d'étranglement respectivement. Dans cette configuration, la fiabilité de l'ensemble du plan de contrôle dépend ainsi directement de la fiabilité de l'infrastructure AAA. L'infrastructure AAA devient alors critique pour le service réseau global.
Une solution possible au problème de passage à l'échelle d'un réseau serait d'installer des serveurs AAA supplémentaires et de réaliser une division du réseau en sous-ensembles gérés par AAA de taille appropriée. Ceci est illustré sur la figure 2b dans laquelle le point d'accès à gauche authentifie sur le Serveur AAA 1 (1021), alors que les autres points d'accès authentifient sur le serveur AAA N (102N). Les protocoles AAA modernes, tel que le protocole standardisé RADIUS, proposent des mesures de l'interconnexion serveur AAA, appelée proxy, permettant d'obtenir une telle division sans limitations de la mobilité de l'utilisateur: un utilisateur (2) dont le profil est géré par le Serveur AAA 1 (1021) peut toujours accéder au service sur tous les points d'accès (111) connectés. Cependant, une telle solution consistant à installer des serveurs supplémentaires devient très coûteuse en ce qui concerne la maintenance et présente une infrastructure de contrôle considérablement plus complexe.
Ainsi, toutes ces solutions d'administration réseaux, notamment de gestion et de contrôle d'accès, se basent exclusivement sur des architectures centralisées, c'est-à- dire que la gestion ne se fait que par un seul et même équipement central dédié, et cela présente plusieurs inconvénients majeurs, notamment en terme de robustesse, de coût et de passage à l'échelle.
En effet, si l'équipement central introduit par les architectures SNMP ou AAA tombe en panne, par exemple panne de matériel, de réseau, ou de courant, le service rendu par le réseau devient immédiatement et complètement inaccessible pour tout nouvel utilisateur; les sessions ouvertes ne peuvent plus être prolongées après leur expiration pour les utilisateurs connectés, la durée de session étant de l'ordre de 5 à 10 minutes par exemple dans le cadre d'un réseau sans fil.
En outre, comme avec toutes les solutions centralisées, une situation de surcharge peut être provoquée par une activité élevée du réseau, par exemple par un nombre trop élevé d'équipements (par exemple clients, agents) déployés dans le réseau et soumis à ce même équipement central. Celui-ci se présente alors comme un goulot d'étranglement et limite le passage à l'échelle du réseau. Dans le cas concret d'une architecture AAA, la surcharge peut être due par exemple au nombre d'utilisateurs, à la durée de session définie, à la mobilité des utilisateurs, ou encore aux méthodes utilisées pour l'authentification des utilisateurs. La nécessité d'un équipement centralisé ne permet pas de suivre la croissance naturelle du réseau. Par exemple, si une entreprise veut déployer un petit réseau pour couvrir des besoins spécifiques identifiés, le coût d'un tel réseau sera disproportionné par rapport à sa En fait, le passage de tout. système centralisé à une autre échelle est difficile: il est naturellement soit sur- soit sous-dimensionné à un certain moment.
De plus, en terme de coût d'équipement, une installation nécessitant un minimum en sécurité et gestion de réseau implique une installation d'un système de contrôle centralisé. La fiabilisation de ce système, la complexité de sa gestion et de sa maintenance, impliquent le déploiement de forces et de compétences humaines nécessaires pour le bon fonctionnement du réseau, et représentent donc un coût non négligeable.
Pour résumer les propriétés et inconvénients techniques de l'architecture de contrôle 5 centralisée, il est possible d'affirmer qu'elle n'est pas bien adaptée à différents cas.
Dans le cas d'une installation de réseaux d'envergure, le point de contrôle central ou l'AS (102) dans le cas d'une architecture AAA, peut devenir un goulot d'étranglement et représente également un point de faiblesse indésirable.
L'installation de plusieurs serveurs AAA authentifiant en direction d'une base de données utilisateur commune n'atténue pas le problème de mise à l'échelle et de coût.
Dans le cas de petits réseaux: les concepts d'administration centralisées ne sont pas bien adaptés aux petites installations de moins de 50 points d'accès. Le principal problème est le coût et le fonctionnement d'une installation centrale fiable. En raison de sa souplesse d'utilisation, la gestion requiert généralement une connaissance approfondie du réseau et une administration compétente. L'effort d'administration et le coût supplémentaire en équipement, logiciel et maintenance sont difficiles à amortir dans de petites installations. Par exemple, ce qui est difficile, tout particulièrement pour les petites entreprises, c'est d'utiliser les solutions de contrôle d'accès actuellement disponibles pour les réseaux locaux sans fil: ils ne sont pas assez sûrs ou leur sécurité est inabordable. Pour cette raison, la norme IEEE 802.11 i propose un mode de clé pré-partagée (PSK) pour les points d'accès indépendants.
Cependant, dans ce mode, il est quasiment impossible de proposer un accès à des visiteurs occasionnels et à différents groupes d'utilisateurs. En outre, si une installation de réseau local sans fil basée sur le mode de clé pré-partagée doit être étendue à plusieurs points d'accès, l'extension revient principalement au coût d'une sécurité réduite ou entraîne une affectation utilisateur/point d'accès prédéfinie limitant la mobilité. Ainsi, la seule alternative existante dans les concepts centralisés actuels consiste en ce que tous les nouveaux points d'accès authentifient en direction du premier point d'accès agissant comme un serveur AAA local et contenant les profils utilisateurs. Cependant, bien que pratiquement plus simple à obtenir dans un petit réseau, cette solution suppose l'installation d'un serveur AAA central, avec des ressources particulièrement limitées. Cette solution ne peut pas être facilement étendue. En outre, les serveurs AAA intégrés existants sont volontairement relativement simples et ne proposent typiquement pas l'entière fonctionnalité d'un serveur AAA dédié.
Dans le cas de la croissance du réseau, il existe des problèmes d'extensibilité et de coût. En effet, avec les architectures centralisées disponibles, une croissance continue du réseau (due au développement de l'entreprise par exemple) est difficile à suivre.
L'installation d'un serveur AAA représente un coût considérable. En outre, un nouveau serveur AAA est difficile à ajouter à une infrastructure existante en raison de la nouvelle répartition de la base de données et de la relation de confiance nécessaire. Par exemple, si les bases de données utilisateur sont totalement répliquées, des mécanismes de cohérence doivent être utilisés pour obtenir le même contenu dans toutes les bases de données. Ceci est difficile car des modifications peuvent être apportées dans différentes bases de données simultanément. Si la base de données n'est pas répliquée pour chaque serveur AAA, chaque serveur AAA devient alors un point de faiblesse pour tous les utilisateurs gérés dans sa base de données. Il existe bien évidemment un compromis indésirable entre la performance du plan de contrôle d'une part et sa complexité d'autre part.
La présente invention a pour but de remédier à ces inconvénients, et notamment, mais non exclusivement, à pour but de proposer un réseau capable de suivre la croissance de la capacité d'administration du réseau, c'est-à-dire optimiser le passage à l'échelle, acceptant facilement l'ajout d'un nouveau point d'accès transparent pour les utilisateurs, supportant la gestion d'utilisateurs, n'imposant pas de nouvelles contraintes au niveau de la mobilité des utilisateurs, c'est-à-dire que chaque utilisateur autorisé doit pouvoir se connecter à chaque point d'accès du réseau, supportant une gestion simplifiée, n'introduisant pas de contrainte au niveau des débits et de délais au niveau de transport de données, n'imposant pas de contraintes au niveau du service plan réseau.
Un autre objectif de l'invention est de proposer une solution ne diminuant pas la performance du réseau et n'autorisant aucun point de faiblesse, et dont l'impact d'une panne partielle doit être limité aux équipements défaillants.
Un autre objectif de l'invention est de proposer une solution offrant un support de profil utilisateur du type AAA par exemple, avec des possibilités identiques ou équivalentes de gestion utilisateur, avec pour chaque utilisateur la possibilité de pouvoir accéder à chaque partie du réseau.
Ces objectifs sont atteints par la prévision d'un (ici seront insérées les revendications pour des questions juridiques) Ces objets, caractéristiques et avantages ainsi que d'autres de la présente invention seront exposés plus en détail dans la description suivante d'un mode de réalisation préféré de l'invention, à titre non limitatif, en référence aux figures parmi lesquelles: - La figure la présente un réseau utilisant l'architecture SNMP; La figure lb présente un réseau utilisant l'architecture AAA; La figure 2a présente une configuration possible d'un réseau utilisant l'architecture AAA; La figure 2b présente une autre configuration possible d'un réseau utilisant l'architecture AAA; La figure 3 présente une configuration du plan contrôle selon l'invention; La figure 4 présente un exemple d'une table CAN à 2 dimensions avec 5 noeuds; La figure 5 présente une réalisation préférée d'un réseau selon l'invention; La figure 6 présente une répartition de zones de gestion selon l'invention; Pour réduire les coûts et obtenir une mise à l'échelle naturelle, les équipements du plan du réseau sont organisés directement et déployés afin de créer un réseau comparable au réseau égal à égal, également noté P2P (peer-to-peer), par exemple pour le stockage de données relatives au contrôle d'accès, à la gestion du réseau ou à la configuration d'entité, tel qu'illustré sur la figure 3. Pour cela, la partie du plan de contrôle de l'équipement réseau (par exemple le client AAA ou l'agent SNMP) est étendue ou remplacée par un module P2P (3). Ce module P2P (3) contient ainsi les données nécessaires du plan de contrôle.
Etant donné que les ressources disponibles au niveau des équipements (30) du plan de contrôle pour des tâches supplémentaires sont typiquement limitées, la charge administrative est distribuée entre tous les équipements (30) du plan du réseau (par exemple routeurs ou points d'accès). Ainsi, chaque équipement du plan de contrôle n'est concerné que par une partie de l'ensemble de la charge administrative.
Pour répondre aux objectifs de l'invention définis précédemment, un contrôle d'accès réseau est intégré dans l'équipement faisant le lien avec l'utilisateur. Ce contrôle d'accès réseau possède une architecture interne réseau développant les récentes avancées dans la mise en réseau P2P. De plus, le réseau P2P ainsi formé peut être utilisé pour toute tâche classique du plan de contrôle comme la gestion de l'équipement déployé, le support de la mobilité ou la configuration automatique.
Pour cela, d'autres équipements ou des noeuds P2P supplémentaires peuvent être ajoutés à ce réseau P2P.
En guise d'exemple de réalisation, des points d'accès IEEE 802.11 pourraient former un réseau dédié P2P indépendant, stockant la base de données utilisateur distribué, utilisée pour le contrôle d'accès réseau IEEE 802.1X.
Des exemples de mise en oeuvre de l'invention sont exposés ci-après.
Afin de répondre aux exigences d'extensibilité et de tolérance aux fautes, aucune entité ne peut disposer de connaissances sur le réseau global. Le problème de base ici n'étant alors pas le transfert de données, mais plutôt la localisation de données à transférer.
Par exemple, aucun point d'accès n'est autorisé à disposer d'un index de tous les enregistrements de données dans le recouvrement. De plus la diffusion de données dans le réseau (par exemple " qui tient la structure de données X ? ") par un équipement n'est pas autorisée pour des raisons d'efficacité et d'extensibilité. Enfin, dans l'environnement donné, une diffusion basée sur un seuil ne peut être acceptée, l'itération de la requête pouvant entraîner des retards de recherche accrus de manière aléatoire, des délais d'attente et, généralement, une qualité de service inférieure. Dans ce contexte, des tables de hachage distribuées (DHT Distributed Hash Table) peuvent par exemple être utilisées. Elles sont utilisées pour stocker et récupérer une base de données AAA distribuée entre les points d'accès.
Une DHT est une table de hachage divisée en plusieurs parties. Ces parties sont distribuées entre certains clients formant désormais typiquement un réseau dédié. Un tel réseau permet à l'utilisateur de stocker et de récupérer des informations dans des paires (clé, données) tel qu'illustré par les tables de hachage traditionnelles connu de l'homme du métier. Elles requièrent des règles et algorithmes spécifiques. Des exemples célèbres de tables de hachage distribuées sont les réseaux de partage de fichier/P2P. Chaque noeud faisant partie d'un tel réseau P2P est responsable d'une partie de la table de hachage appelée zone. Grâce à cela, un équipement réseau centrale gérant la table de hachage complète ou son index n'est plus nécessaire.
Chaque noeud participant à un tel réseau P2P gère sa partie de la table de hachage et met en oeuvre les primitives: lookup(k), store(k, d) et delete(k).
Avec lookup(k), un noeud recherche sur le réseau P2P une clé de hachage k donnée et obtient les données d associées à la clé k. Etant donné que chaque noeud ne dispose que d'une fraction de la table de hachage complète, il est possible que k ne fasse pas partie de la fraction du noeud. Chaque table de hachage distribuée définit donc un algorithme pour rechercher le noeud n particulier responsable de k, étant donné que ceci est réalisé sur une base de bond par bond avec chaque bond " plus proche " de n, il s'agit de l'algorithme d'acheminement de table de hachage distribuée, connu de l'homme du métier.
La primitive store (k, d) stocke un uplet comprenant une clé k et la valeur de données associée d dans le réseau, c'est-à-dire que (k, d) sont transmis à un noeud responsable de k en utilisant la même technique d'acheminement qu'avec lookup.
Avec delete(k), une entrée est supprimée de la table de hachage, c'est-àdire que le noeud responsable de k supprime (k, d).
Les réseaux dédiés basés sur le P2P utilisent leurs propres mécanismes d'acheminement ou de transfert de données. Ils sont donc optimisés de telle sorte que chaque noeud ne dispose que d'une vue très locale de son voisinage réseau. Cette propriété est nécessaire pour une bonne mise à l'échelle puisque l'état par noeud n'augmente pas nécessairement avec la croissance du réseau. L'acheminement est déterministe et il existe des limites supérieures au nombre de bonds qu'une requête doit réaliser. La plupart des réseaux P2P présentent un comportement logarithmique avec un nombre total de noeuds.
Un exemple de DHT à utilisée est par exemple le type CAN (Content Adressable Network). CAN définit une interface utilisateur de table de hachage standard tel que décrit ci-dessus. Le réseau CAN propose les mécanismes de construction dédiée (jonction de noeud/amorçage de noeud), de sortie de noeud, d'algorithme d'acheminement. L'index de la table de hachage du réseau CAN est un espace de coordonnées cartésiennes à dimension d sur un tore d. Chaque noeud est responsable d'une partie de l'ensemble de l'espace de coordonnées. La figure 4 illustre un exemple de réseau CAN en deux dimensions avec cinq noeuds (A, B, C, D et E). Dans le réseau CAN, chaque noeud contient la base de données de zone correspondant à l'espace de coordonnées affecté et une table voisine dédiée. La taille de cette dernière dépend uniquement de la dimension d. Le mécanisme standard pour l'affectation de zone entraîne une distribution uniforme de l'index entre les noeuds. Par défaut, le réseau CAN utilise une procédure de construction dédiée (appelée amorçage) basée sur une adresse DNS (Domain Name System) bien connue. Ceci permet à chaque noeud rejoignant le réseau d'obtenir une adresse d'un ou plusieurs noeuds d'amorce du réseau CAN. A la réception d'une requête d'un nouveau noeud, un noeud d'amorce répond simplement avec les adresses IP (Internet Protocol) de plusieurs noeuds choisis de manière aléatoire qui se trouvent dans le recouvrement. La requête de jonction est ensuite envoyée à l'un de ces noeuds. Le nouveau noeud choisit ensuite de manière aléatoire une adresse index et envoie une requête de jonction pour cette adresse à l'une des IP reçues. Le réseau CAN utilise son algorithme d'acheminement pour acheminer cette requête au noeud responsable de la zone dont cette adresse dépend. Le noeud sollicité répartit désormais sa zone en deux moitiés et conserve une des moitiés, la base de données de zone liée et la liste des 11 voisins dérivés du noeud rejoignant le réseau.
Par exemple, le réseau CAN sur la figure 4 est un résultat possible du scénario suivant: A est le premier noeud et contient la base de données entière B rejoint le réseau et obtient une moitié de la zone de A sur l'axe x (40) C rejoint le réseau et obtient de manière aléatoire une moitié de la zone de A sur l'axe y (41) D rejoint le réseau et obtient de manière aléatoire une moitié de la zone de B sur l'axe y (41) E rejoint le réseau et obtient de manière aléatoire une moitié de la zone de D sur l'axe x (40) L' acheminement dans le réseau CAN est basé sur un transfert considérable. Chaque requête contient le point de destination dans l'espace d'index. Chaque noeud récepteur non responsable du point de destination transfère cette requête à l'un de ses voisins dont les coordonnées sont plus proches du point que les siennes.
Pour améliorer la performance (supprimer les latences, obtenir une meilleure fiabilité), le réseau CAN présente différents paramètres: Ajuster la dimension d: le nombre d'éventuels chemins augmente avec la dimension, entraînant ainsi une meilleure protection contre les défaillances de noeud. La longueur du chemin globale diminue avec d.
Nombre de réalités indépendantes r: en utilisant plusieurs index CAN indépendants r au sein d'un réseau CAN, des noeuds r sont responsables de la même zone. La longueur du chemin globale diminue avec r (puisque l'acheminement peut prendre place dans toutes les réalités en parallèle et être abandonné en cas de succès). Le nombre de chemins réellement disponibles augmente. La disponibilité des données augmente puisque la base de données est répliquée r fois.
Utilisation de différentes mesures, reproduction de la topologie dans le réseau CAN: le réseau CAN peut utiliser une mesure d'acheminement différente. La topologie sous-jacente peut être reproduite dans le recouvrement.
Echange de trafic de noeud: la même zone peut être affectée à un groupe de noeuds, réduisant ainsi le nombre de zones et la longueur du chemin globaux.
Utilisation de plusieurs fonctions de hachage. ceci est comparable à plusieurs réalités étant donné que chaque fonction de hachage construit une entrée d'index parallèle.
Cache et réplication de paires de données: des paires " populaires " peuvent être mises en cache par les noeuds et ainsi répliquées dans la base de données.
La figure 5 présente un autre exemple de réalisation d'une architecture de gestion décentralisée pour réseaux locaux sans fil conforme au standard 802.11, illustrant comment un contrôle d'accès et une gestion décentralisés peuvent être intégrés à une technologie d'accès population existante. Cet exemple est basé sur une mise en réseau TCP/IP (Transmission Control Protocol/Internet Protocol) standard connue de l'homme du métier, dans le réseau central. Le réseau de gestion P2P est formé de points d'accès (5) conforme au standard 802.11. Chaque point d'accès (5) agit en tant que noeud (6) P2P formant un réseau dédié (8) logique sur le réseau central physique. Ce recouvrement stocke différentes bases de données logiques, principalement les bases de données utilisateur et de gestion (7). La base de données utilisateur stocke des profils utilisateurs du type AAA. La base de données de gestion aide l'administrateur à gérer tous les points d'accès connectés et stocke les paramètres de point d'accès exprimés dans la syntaxe respective (par exemple variables MIB 802.11, paramètres du fabricant propriétaire). A la demande de l'utilisateur, le noeud sollicité récupère le profil correspondant. Grâce au profil récupéré, le point d'accès (5) desservant suit la procédure selon le standard 802.1X habituelle en tant qu'authentificateur avec un serveur d'authentification local. De plus, il est possible d'inclure un quelconque nombre de noeuds (60) auxiliaires assistant, par exemple la console de l'administrateur réseau, dans ce réseau P2P. Tous les noeuds (5, 6) participant au réseau P2P interagissent entre-eux afin d'acheminer les requêtes et de récupérer, stocker et supprimer des données. Le réseau P2P est accessible sur un quelconque point d'accès connecté.
Avec n points d'accès et aucun équipement central, il est pratique d'exprimer cette relation de confiance au moyen d'une cryptographie de clé publique utilisant des certificats signés par exemple, permettant de protéger l'établissement d'une communication entre deux participants à un quelconque moment avec n secrets pour n noeuds. L'identité définie d'un point d'accès est l'adresse MAC de son interface filaire connectée au CAN.
Chaque point d'accès requiert une configuration minimum avant son déploiement dans le réseau. Ceci est principalement nécessaire pour un accès de gestion sécurisé à ce point d'accès.
La relation de confiance avec le point d'accès est représentée parl'installation d'un certificat signé sur chaque point d'accès. En outre, l'administrateur définit une connexion administrative locale (paire utilisateur/mot de passe) et règle les paramètres 802.11 habituels (SSID, noeud d'authentification, canaux et sorties utilisés). Enfin, l'administrateur fournit l'adresse amorce du réseau dédié et déploie le point d'accès en l'installation à l'emplacement souhaité et en le connectant au réseau.
Le réseau est ainsi configuré de sorte à équilibré la charge des tâches: si un point d'accès connaît une lourde charge, l'administrateur peut installer un point d'accès supplémentaire à proximité. Si les points d'accès concernés ne sont pas des voisins du CAN, ils ne partagent que la charge du trafic 802.11. Si les points d'accès sont des voisins du CAN, ils partagent également la charge administrative. Ceci est représenté sur la figure 6 illustrant trois points d'accès (5) installés dans une grande salle. Au début, le Point d'accès (API) initialement installé dispose de l'index entier.
A l'arrivée du Point d'accès 2, API donne la moitié de sa zone au Point d'accès 2 (AP2), devenant ainsi son voisin dédié (mais pas nécessairement son voisin physique). Si le trafic de données utilisateur est particulièrement élevé dans l'angle inférieur droit de la carte et relativement faible dans l'angle supérieur gauche, l'administrateur pourrait ainsi ajouter le Point d'accès 3 (AP3) dans le voisinage topologique du Point d'accès 2 afin de traiter la charge de trafic sans fil élevée. Si nous associons le recouvrement à la topologie du réseau, le nouveau AP3 devient automatiquement un voisin dédié de AP2. Ainsi, il obtient la moitié de la base de données de zone gérée par AP2 (Zone 3). En conséquence, en supposant que l'administrateur tente d'équilibrer la charge du trafic, avec cette approche, les tailles de zone des points d'accès diminuent dans les zones de charge de trafic élevée, libérant ainsi des capacités système pour le traitement du trafic. Au contraire, la zone de AP 1 reste relativement importante, ceci est cependant justifié par la charge de trafic inférieure. Il existe bien évidemment un compromis entre le surdébit de gestion de zone et la charge de trafic du réseau local sans fil.
Ainsi, au lieu d'avoir toutes les données nécessaires à l'administration du réseau stockées dans une seule base de données d'un serveur central, les différentes données sont réparties entre les différents équipements du réseau. Ainsi, un équipement servant de point d'accès rechercher les donnés qui lui manquent dans les différents équipements du réseau.
Etant donné que le nombre d'éléments du plan du réseau est choisi en fonction de la charge du trafic et si la charge administrative est bien distribuée entre les éléments du plan du réseau, le plan de contrôle peut également se mettre à l'échelle. Par exemple, l'augmentation du nombre de points d'accès 802.11 pour répondre aux exigences en termes de trafic pourrait activer automatiquement la gestion d'un plus grand nombre d'utilisateurs. Etant donné qu'il n'existe pas d'élément central qui pourrait augmenter progressivement le coût global, cette solution peut également être utilisée dans de très petits réseaux. Un réseau plus important peut être construit en ajoutant simplement des éléments supplémentaires du plan du réseau, des points d'accès 802.11 par exemple. Cette solution suit ainsi automatiquement la croissance naturelle du réseau et peut parfaitement être adaptée aux très grands réseaux.
Il est également envisageable de stocker les données plusieurs fois dans les équipements du réseau. Chaque équipement contient ainsi deux bases de données.
Les données contenues dans la première base de données étant différentes des données contenues dans la deuxième base de données. De cette manière si un équipement tombe en panne, ses données peuvent être retrouvées dans les autres équipements.
Claims (5)
1. Réseau de communication comprenant une pluralité d'équipements (30) interconnectés caractérisé en ce que certains au moins des équipements (30) intègrent des moyens (3) assurant l'administration du réseau, l'administration du réseau comprenant notamment, mais non exclusivement, la gestion des données dans les équipements du réseau, la surveillance du réseau, le contrôle du réseau, notamment mais non exclusivement la gestion du contrôle d'accès au réseau, et les équipements (30) constituant le réseau comprenant des routeurs, des contrôleurs d'accès et/ou des commutateurs.
2. Réseau de communication selon la revendication 1, caractérisé en ce que lesdits moyens (3) pour l'administration du réseau comprennent des données permettant l'identification des utilisateurs (2), des paramètres de configuration des équipements (30) du réseau, et/ou des adresses vers lesquelles les équipements (30) doivent se connecter pour envoyer ou recevoir des informations.
3. Réseau selon l'une quelconque des revendications 1 et 2, caractérisé en ce qu'au moins un équipement (30) du réseau est doté de moyens pour assurer le rôle de point d'accès.
4. Procédé de communication dans un réseau comprenant une pluralité d'équipements (30) interconnectés, le procédé comprenant les étapes de: configuration d'au moins un équipement (30) du réseau, comprenant au moins le stockage de données permettant la communication entre les équipements (30) du réseau, ces données comprennent au moins des données permettant l'identification de l'équipement dans le réseau et des données assurant la sécurité des échanges; construction du réseau comprenant au moins l'ajout d'un noeud (6) dans le réseau, et au moins une répartition des tâches parmi au moins certains des équipements (30) du réseaux concernant l'administration du réseau; et traitement de données stockées dans les équipements, ces traitements comprenant au moins les opérations consistant à permettre à chaque équipement (30) de retrouver des données réparties entre les équipements du réseau, à effacer des données si nécessaire, et/ou à enregistrer ou modifier des données déjà stockées.
5. Procédé de communication selon la revendication 4 caractérisé en ce que la construction du réseau comprend l'ajout automatique d'un noeud (6) lorsque le noeud (6) est opérationnel.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0502584A FR2883437B1 (fr) | 2005-03-16 | 2005-03-16 | Dispositif et procede de communication dans un reseau |
PCT/FR2006/000552 WO2006097615A1 (fr) | 2005-03-16 | 2006-03-13 | Dispositif et procede de communication dans un reseau |
EP06726081A EP1864466A1 (fr) | 2005-03-16 | 2006-03-13 | Dispositif et procede de communication dans un reseau |
US11/898,859 US20080071900A1 (en) | 2005-03-16 | 2007-09-17 | Device and a method for communicating in a network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0502584A FR2883437B1 (fr) | 2005-03-16 | 2005-03-16 | Dispositif et procede de communication dans un reseau |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2883437A1 true FR2883437A1 (fr) | 2006-09-22 |
FR2883437B1 FR2883437B1 (fr) | 2007-08-03 |
Family
ID=35219659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0502584A Expired - Fee Related FR2883437B1 (fr) | 2005-03-16 | 2005-03-16 | Dispositif et procede de communication dans un reseau |
Country Status (4)
Country | Link |
---|---|
US (1) | US20080071900A1 (fr) |
EP (1) | EP1864466A1 (fr) |
FR (1) | FR2883437B1 (fr) |
WO (1) | WO2006097615A1 (fr) |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8619771B2 (en) | 2009-09-30 | 2013-12-31 | Vmware, Inc. | Private allocated networks over shared communications infrastructure |
US8892706B1 (en) | 2010-06-21 | 2014-11-18 | Vmware, Inc. | Private ethernet overlay networks over a shared ethernet in a virtual environment |
US8924524B2 (en) | 2009-07-27 | 2014-12-30 | Vmware, Inc. | Automated network configuration of virtual machines in a virtual lab data environment |
EP2582092A3 (fr) * | 2007-09-26 | 2013-06-12 | Nicira, Inc. | Système d'exploitation de réseau pour la gestion et la sécurisation des réseaux |
US9092380B1 (en) * | 2007-10-11 | 2015-07-28 | Norberto Menendez | System and method of communications with supervised interaction |
US8195774B2 (en) | 2008-05-23 | 2012-06-05 | Vmware, Inc. | Distributed virtual switch for virtualized computer systems |
EP2804350B1 (fr) | 2009-04-01 | 2019-07-24 | Nicira, Inc. | Procédé et appareil de mise en oeuvre et de gestion de commutateurs virtuels |
US9680750B2 (en) | 2010-07-06 | 2017-06-13 | Nicira, Inc. | Use of tunnels to hide network addresses |
US8964528B2 (en) | 2010-07-06 | 2015-02-24 | Nicira, Inc. | Method and apparatus for robust packet distribution among hierarchical managed switching elements |
US8817620B2 (en) | 2010-07-06 | 2014-08-26 | Nicira, Inc. | Network virtualization apparatus and method |
US10103939B2 (en) | 2010-07-06 | 2018-10-16 | Nicira, Inc. | Network control apparatus and method for populating logical datapath sets |
US9525647B2 (en) | 2010-07-06 | 2016-12-20 | Nicira, Inc. | Network control apparatus and method for creating and modifying logical switching elements |
US8825900B1 (en) | 2011-04-05 | 2014-09-02 | Nicira, Inc. | Method and apparatus for stateless transport layer tunneling |
US9043452B2 (en) | 2011-05-04 | 2015-05-26 | Nicira, Inc. | Network control apparatus and method for port isolation |
US9209998B2 (en) | 2011-08-17 | 2015-12-08 | Nicira, Inc. | Packet processing in managed interconnection switching elements |
CN106850444B (zh) | 2011-08-17 | 2020-10-27 | Nicira股份有限公司 | 逻辑l3路由 |
US9137107B2 (en) | 2011-10-25 | 2015-09-15 | Nicira, Inc. | Physical controllers for converting universal flows |
US9288104B2 (en) | 2011-10-25 | 2016-03-15 | Nicira, Inc. | Chassis controllers for converting universal flows |
US9203701B2 (en) | 2011-10-25 | 2015-12-01 | Nicira, Inc. | Network virtualization apparatus and method with scheduling capabilities |
US9178833B2 (en) | 2011-10-25 | 2015-11-03 | Nicira, Inc. | Chassis controller |
US10089127B2 (en) | 2011-11-15 | 2018-10-02 | Nicira, Inc. | Control plane interface for logical middlebox services |
US9331937B2 (en) | 2012-04-18 | 2016-05-03 | Nicira, Inc. | Exchange of network state information between forwarding elements |
US9047442B2 (en) | 2012-06-18 | 2015-06-02 | Microsoft Technology Licensing, Llc | Provisioning managed devices with states of arbitrary type |
US9231892B2 (en) | 2012-07-09 | 2016-01-05 | Vmware, Inc. | Distributed virtual switch configuration and state management |
US9432215B2 (en) | 2013-05-21 | 2016-08-30 | Nicira, Inc. | Hierarchical network managers |
US10218564B2 (en) | 2013-07-08 | 2019-02-26 | Nicira, Inc. | Unified replication mechanism for fault-tolerance of state |
US9559870B2 (en) | 2013-07-08 | 2017-01-31 | Nicira, Inc. | Managing forwarding of logical network traffic between physical domains |
US9571386B2 (en) | 2013-07-08 | 2017-02-14 | Nicira, Inc. | Hybrid packet processing |
US9282019B2 (en) | 2013-07-12 | 2016-03-08 | Nicira, Inc. | Tracing logical network packets through physical network |
US9407580B2 (en) | 2013-07-12 | 2016-08-02 | Nicira, Inc. | Maintaining data stored with a packet |
US9344349B2 (en) | 2013-07-12 | 2016-05-17 | Nicira, Inc. | Tracing network packets by a cluster of network controllers |
US9887960B2 (en) | 2013-08-14 | 2018-02-06 | Nicira, Inc. | Providing services for logical networks |
US9952885B2 (en) | 2013-08-14 | 2018-04-24 | Nicira, Inc. | Generation of configuration files for a DHCP module executing within a virtualized container |
US9973382B2 (en) | 2013-08-15 | 2018-05-15 | Nicira, Inc. | Hitless upgrade for network control applications |
US9432204B2 (en) | 2013-08-24 | 2016-08-30 | Nicira, Inc. | Distributed multicast by endpoints |
US9577845B2 (en) | 2013-09-04 | 2017-02-21 | Nicira, Inc. | Multiple active L3 gateways for logical networks |
US9503371B2 (en) | 2013-09-04 | 2016-11-22 | Nicira, Inc. | High availability L3 gateways for logical networks |
US9602398B2 (en) | 2013-09-15 | 2017-03-21 | Nicira, Inc. | Dynamically generating flows with wildcard fields |
US9674087B2 (en) | 2013-09-15 | 2017-06-06 | Nicira, Inc. | Performing a multi-stage lookup to classify packets |
US9596126B2 (en) | 2013-10-10 | 2017-03-14 | Nicira, Inc. | Controller side method of generating and updating a controller assignment list |
US10063458B2 (en) | 2013-10-13 | 2018-08-28 | Nicira, Inc. | Asymmetric connection with external networks |
US9977685B2 (en) | 2013-10-13 | 2018-05-22 | Nicira, Inc. | Configuration of logical router |
US9967199B2 (en) | 2013-12-09 | 2018-05-08 | Nicira, Inc. | Inspecting operations of a machine to detect elephant flows |
US9548924B2 (en) | 2013-12-09 | 2017-01-17 | Nicira, Inc. | Detecting an elephant flow based on the size of a packet |
US9996467B2 (en) | 2013-12-13 | 2018-06-12 | Nicira, Inc. | Dynamically adjusting the number of flows allowed in a flow table cache |
US9569368B2 (en) | 2013-12-13 | 2017-02-14 | Nicira, Inc. | Installing and managing flows in a flow table cache |
US9438705B2 (en) * | 2013-12-16 | 2016-09-06 | International Business Machines Corporation | Communication and message-efficient protocol for computing the intersection between different sets of data |
US9602385B2 (en) | 2013-12-18 | 2017-03-21 | Nicira, Inc. | Connectivity segment selection |
US9602392B2 (en) | 2013-12-18 | 2017-03-21 | Nicira, Inc. | Connectivity segment coloring |
CN104811306B (zh) * | 2014-01-28 | 2019-07-19 | 西安西电捷通无线网络通信股份有限公司 | 实体鉴别方法、装置及*** |
US9419855B2 (en) | 2014-03-14 | 2016-08-16 | Nicira, Inc. | Static routes for logical routers |
US9313129B2 (en) | 2014-03-14 | 2016-04-12 | Nicira, Inc. | Logical router processing by network controller |
US9225597B2 (en) | 2014-03-14 | 2015-12-29 | Nicira, Inc. | Managed gateways peering with external router to attract ingress packets |
US9590901B2 (en) | 2014-03-14 | 2017-03-07 | Nicira, Inc. | Route advertisement by managed gateways |
US9647883B2 (en) | 2014-03-21 | 2017-05-09 | Nicria, Inc. | Multiple levels of logical routers |
US9503321B2 (en) | 2014-03-21 | 2016-11-22 | Nicira, Inc. | Dynamic routing for logical routers |
US9413644B2 (en) | 2014-03-27 | 2016-08-09 | Nicira, Inc. | Ingress ECMP in virtual distributed routing environment |
US9893988B2 (en) | 2014-03-27 | 2018-02-13 | Nicira, Inc. | Address resolution using multiple designated instances of a logical router |
US10193806B2 (en) | 2014-03-31 | 2019-01-29 | Nicira, Inc. | Performing a finishing operation to improve the quality of a resulting hash |
US9385954B2 (en) | 2014-03-31 | 2016-07-05 | Nicira, Inc. | Hashing techniques for use in a network environment |
US9686200B2 (en) | 2014-03-31 | 2017-06-20 | Nicira, Inc. | Flow cache hierarchy |
US9794079B2 (en) | 2014-03-31 | 2017-10-17 | Nicira, Inc. | Replicating broadcast, unknown-unicast, and multicast traffic in overlay logical networks bridged with physical networks |
US10404613B1 (en) * | 2014-03-31 | 2019-09-03 | Amazon Technologies, Inc. | Placement of control and data plane resources |
US9602422B2 (en) | 2014-05-05 | 2017-03-21 | Nicira, Inc. | Implementing fixed points in network state updates using generation numbers |
US9742881B2 (en) | 2014-06-30 | 2017-08-22 | Nicira, Inc. | Network virtualization using just-in-time distributed capability for classification encoding |
US10481933B2 (en) | 2014-08-22 | 2019-11-19 | Nicira, Inc. | Enabling virtual machines access to switches configured by different management entities |
US10020960B2 (en) | 2014-09-30 | 2018-07-10 | Nicira, Inc. | Virtual distributed bridging |
US9768980B2 (en) | 2014-09-30 | 2017-09-19 | Nicira, Inc. | Virtual distributed bridging |
US10250443B2 (en) | 2014-09-30 | 2019-04-02 | Nicira, Inc. | Using physical location to modify behavior of a distributed virtual network element |
US11178051B2 (en) | 2014-09-30 | 2021-11-16 | Vmware, Inc. | Packet key parser for flow-based forwarding elements |
US10511458B2 (en) | 2014-09-30 | 2019-12-17 | Nicira, Inc. | Virtual distributed bridging |
US10469342B2 (en) | 2014-10-10 | 2019-11-05 | Nicira, Inc. | Logical network traffic analysis |
US10129180B2 (en) | 2015-01-30 | 2018-11-13 | Nicira, Inc. | Transit logical switch within logical router |
US10038628B2 (en) | 2015-04-04 | 2018-07-31 | Nicira, Inc. | Route server mode for dynamic routing between logical and physical networks |
US9967134B2 (en) | 2015-04-06 | 2018-05-08 | Nicira, Inc. | Reduction of network churn based on differences in input state |
US10361952B2 (en) | 2015-06-30 | 2019-07-23 | Nicira, Inc. | Intermediate logical interfaces in a virtual distributed router environment |
US10129142B2 (en) | 2015-08-11 | 2018-11-13 | Nicira, Inc. | Route configuration for logical router |
US10075363B2 (en) | 2015-08-31 | 2018-09-11 | Nicira, Inc. | Authorization for advertised routes among logical routers |
US10204122B2 (en) | 2015-09-30 | 2019-02-12 | Nicira, Inc. | Implementing an interface between tuple and message-driven control entities |
US10095535B2 (en) | 2015-10-31 | 2018-10-09 | Nicira, Inc. | Static route types for logical routers |
US10333849B2 (en) | 2016-04-28 | 2019-06-25 | Nicira, Inc. | Automatic configuration of logical routers on edge nodes |
US10841273B2 (en) | 2016-04-29 | 2020-11-17 | Nicira, Inc. | Implementing logical DHCP servers in logical networks |
US11019167B2 (en) | 2016-04-29 | 2021-05-25 | Nicira, Inc. | Management of update queues for network controller |
US10484515B2 (en) | 2016-04-29 | 2019-11-19 | Nicira, Inc. | Implementing logical metadata proxy servers in logical networks |
US10091161B2 (en) | 2016-04-30 | 2018-10-02 | Nicira, Inc. | Assignment of router ID for logical routers |
US10560320B2 (en) | 2016-06-29 | 2020-02-11 | Nicira, Inc. | Ranking of gateways in cluster |
US10153973B2 (en) | 2016-06-29 | 2018-12-11 | Nicira, Inc. | Installation of routing tables for logical router in route server mode |
US10454758B2 (en) | 2016-08-31 | 2019-10-22 | Nicira, Inc. | Edge node cluster network redundancy and fast convergence using an underlay anycast VTEP IP |
US10341236B2 (en) | 2016-09-30 | 2019-07-02 | Nicira, Inc. | Anycast edge service gateways |
US10742746B2 (en) | 2016-12-21 | 2020-08-11 | Nicira, Inc. | Bypassing a load balancer in a return path of network traffic |
US10237123B2 (en) | 2016-12-21 | 2019-03-19 | Nicira, Inc. | Dynamic recovery from a split-brain failure in edge nodes |
US10212071B2 (en) | 2016-12-21 | 2019-02-19 | Nicira, Inc. | Bypassing a load balancer in a return path of network traffic |
US10616045B2 (en) | 2016-12-22 | 2020-04-07 | Nicira, Inc. | Migration of centralized routing components of logical router |
US10805239B2 (en) | 2017-03-07 | 2020-10-13 | Nicira, Inc. | Visualization of path between logical network endpoints |
US10637800B2 (en) | 2017-06-30 | 2020-04-28 | Nicira, Inc | Replacement of logical network addresses with physical network addresses |
US10681000B2 (en) | 2017-06-30 | 2020-06-09 | Nicira, Inc. | Assignment of unique physical network addresses for logical network addresses |
US10608887B2 (en) | 2017-10-06 | 2020-03-31 | Nicira, Inc. | Using packet tracing tool to automatically execute packet capture operations |
US10511459B2 (en) | 2017-11-14 | 2019-12-17 | Nicira, Inc. | Selection of managed forwarding element for bridge spanning multiple datacenters |
US10374827B2 (en) | 2017-11-14 | 2019-08-06 | Nicira, Inc. | Identifier that maps to different networks at different datacenters |
US11184327B2 (en) | 2018-07-05 | 2021-11-23 | Vmware, Inc. | Context aware middlebox services at datacenter edges |
US10999220B2 (en) | 2018-07-05 | 2021-05-04 | Vmware, Inc. | Context aware middlebox services at datacenter edge |
US10931560B2 (en) | 2018-11-23 | 2021-02-23 | Vmware, Inc. | Using route type to determine routing protocol behavior |
US10735541B2 (en) | 2018-11-30 | 2020-08-04 | Vmware, Inc. | Distributed inline proxy |
US10797998B2 (en) | 2018-12-05 | 2020-10-06 | Vmware, Inc. | Route server for distributed routers using hierarchical routing protocol |
US10938788B2 (en) | 2018-12-12 | 2021-03-02 | Vmware, Inc. | Static routes for policy-based VPN |
US11895092B2 (en) * | 2019-03-04 | 2024-02-06 | Appgate Cybersecurity, Inc. | Network access controller operation |
US10778457B1 (en) | 2019-06-18 | 2020-09-15 | Vmware, Inc. | Traffic replication in overlay networks spanning multiple sites |
US11095480B2 (en) | 2019-08-30 | 2021-08-17 | Vmware, Inc. | Traffic optimization using distributed edge services |
US11641305B2 (en) | 2019-12-16 | 2023-05-02 | Vmware, Inc. | Network diagnosis in software-defined networking (SDN) environments |
US11283699B2 (en) | 2020-01-17 | 2022-03-22 | Vmware, Inc. | Practical overlay network latency measurement in datacenter |
US11616755B2 (en) | 2020-07-16 | 2023-03-28 | Vmware, Inc. | Facilitating distributed SNAT service |
US11606294B2 (en) | 2020-07-16 | 2023-03-14 | Vmware, Inc. | Host computer configured to facilitate distributed SNAT service |
US11611613B2 (en) | 2020-07-24 | 2023-03-21 | Vmware, Inc. | Policy-based forwarding to a load balancer of a load balancing cluster |
US11902050B2 (en) | 2020-07-28 | 2024-02-13 | VMware LLC | Method for providing distributed gateway service at host computer |
US11451413B2 (en) | 2020-07-28 | 2022-09-20 | Vmware, Inc. | Method for advertising availability of distributed gateway service and machines at host computer |
US11570090B2 (en) | 2020-07-29 | 2023-01-31 | Vmware, Inc. | Flow tracing operation in container cluster |
US11196628B1 (en) | 2020-07-29 | 2021-12-07 | Vmware, Inc. | Monitoring container clusters |
US11558426B2 (en) | 2020-07-29 | 2023-01-17 | Vmware, Inc. | Connection tracking for container cluster |
US11736436B2 (en) | 2020-12-31 | 2023-08-22 | Vmware, Inc. | Identifying routes with indirect addressing in a datacenter |
US11336533B1 (en) | 2021-01-08 | 2022-05-17 | Vmware, Inc. | Network visualization of correlations between logical elements and associated physical elements |
US11784922B2 (en) | 2021-07-03 | 2023-10-10 | Vmware, Inc. | Scalable overlay multicast routing in multi-tier edge gateways |
US11687210B2 (en) | 2021-07-05 | 2023-06-27 | Vmware, Inc. | Criteria-based expansion of group nodes in a network topology visualization |
US11711278B2 (en) | 2021-07-24 | 2023-07-25 | Vmware, Inc. | Visualization of flow trace operation across multiple sites |
US11855862B2 (en) | 2021-09-17 | 2023-12-26 | Vmware, Inc. | Tagging packets for monitoring and analysis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2359691A (en) * | 2000-02-23 | 2001-08-29 | Motorola Israel Ltd | Distributed network monitoring with static/dynamic data discrimination |
US20030135611A1 (en) * | 2002-01-14 | 2003-07-17 | Dean Kemp | Self-monitoring service system with improved user administration and user access control |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7555553B2 (en) * | 2002-10-01 | 2009-06-30 | Hewlett-Packard Development Company, L.P. | Placing an object at a node in a peer-to-peer system based on storage utilization |
US7304994B2 (en) * | 2003-04-09 | 2007-12-04 | Nec Laboratories America, Inc. | Peer-to-peer system and method with prefix-based distributed hash table |
US7483391B2 (en) * | 2003-09-19 | 2009-01-27 | Hewlett-Packard Development Company, L.P. | Providing a notification including location information for nodes in an overlay network |
US7644167B2 (en) * | 2004-01-30 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Identifying a service node in a network |
US7590589B2 (en) * | 2004-09-10 | 2009-09-15 | Hoffberg Steven M | Game theoretic prioritization scheme for mobile ad hoc networks permitting hierarchal deference |
US7826396B2 (en) * | 2005-03-07 | 2010-11-02 | Miller John L | System and method for implementing PNRP locality |
-
2005
- 2005-03-16 FR FR0502584A patent/FR2883437B1/fr not_active Expired - Fee Related
-
2006
- 2006-03-13 EP EP06726081A patent/EP1864466A1/fr not_active Withdrawn
- 2006-03-13 WO PCT/FR2006/000552 patent/WO2006097615A1/fr not_active Application Discontinuation
-
2007
- 2007-09-17 US US11/898,859 patent/US20080071900A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2359691A (en) * | 2000-02-23 | 2001-08-29 | Motorola Israel Ltd | Distributed network monitoring with static/dynamic data discrimination |
US20030135611A1 (en) * | 2002-01-14 | 2003-07-17 | Dean Kemp | Self-monitoring service system with improved user administration and user access control |
Also Published As
Publication number | Publication date |
---|---|
US20080071900A1 (en) | 2008-03-20 |
WO2006097615A1 (fr) | 2006-09-21 |
EP1864466A1 (fr) | 2007-12-12 |
FR2883437B1 (fr) | 2007-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2883437A1 (fr) | Dispositif et procede de communication dans un reseau | |
FR2923969A1 (fr) | Procede de gestion de trames dans un reseau global de communication, produit programme d'ordinateur, moyen de stockage et tete de tunnel correspondants | |
FR2801754A1 (fr) | Methode pour assigner une double adresse ip a un poste de travail relie a un reseau de transmission de donnees ip | |
EP3787344B1 (fr) | Procédé de configuration d'un système d'extension de couverture de communication sans-fil et un système d'extension de couverture de communication sans-fil mettant en oeuvre ledit procédé | |
US11395209B2 (en) | Content delivery system special network device and special local area network connection, content discovery, data transfer, and control methods | |
FR2930100A1 (fr) | Procede d'etablissement d'un chemin de communication dans un reseau etendu de communication, tetes de tunnel,produit programme d'ordinateur et moyen de stockage correspondants | |
EP3682600B1 (fr) | Gestion de la connexion avec d'autres passerelles residentielles d'une passerelle residentielle mettant en oeuvre l'agregation de liens | |
Ford | UIA: A global connectivity architecture for mobile personal devices | |
EP2979435B1 (fr) | Procédé de traitement de donnés d'utilisateur d'un réseau social | |
EP2446360B1 (fr) | Technique de determination d'une chaine de fonctions elementaires associee a un service | |
CA3153796A1 (fr) | Procede de connexion d'un noeud de communication, et noeud de communication correspondant | |
JP2013531852A (ja) | トポロジサーバを用いた、通信アーキテクチャにわたって分散されたノードのネットワークに対する秘密または保護されたアクセス | |
EP4145798B1 (fr) | Procédé de configuration d'une jonction pour un routage conforme au protocole de passerelle de bordure _ bgp et routeur de bordure associé | |
EP2446608B1 (fr) | Technique de contrôle d'accès par une entité cliente à un service | |
WO2009080971A1 (fr) | Procede de configuration d'un terminal d'utilisateur dans un reseau de telephonie ip | |
CA3240305A1 (fr) | Mecanismes de communication avec un service accessible via un reseau de telecommunication prenant en compte la mobilite des services, des utilisateurs et des equipements | |
FR3118561A1 (fr) | Procede de configuration d'une interface securisee entre un reseau de transport et un reseau elementaire d'une pluralite de reseaux elementaires federes a travers le reseau de transport ; interface associee | |
CA3182798A1 (fr) | Procede de configuration d'un reseau de communication et noeud implementant ledit procede de configuration | |
Kim et al. | Marconi Protocol | |
FR3138254A1 (fr) | Procédé de fédération dynamique d'une plurialité de réseaux de radiocommunication, programme d'ordinateur et réseau associés | |
Kokkinen et al. | Towards distributed service provisioning | |
FR2856540A1 (fr) | Architecture de reseau local sans fil | |
Pathak | Developing Peer-to-Peer Applications with WCF | |
Rajarajan et al. | Dynamic virtual private network provisioning from multiple cloud infrastructure service providers | |
Gudeta | Mobility and Personal Cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20081125 |