DE60221556T2 - Verfahren und system zur zustandslosen lastverteilung für ein server-cluster in einem auf ip basierenden telekommunikationsnetz - Google Patents

Verfahren und system zur zustandslosen lastverteilung für ein server-cluster in einem auf ip basierenden telekommunikationsnetz Download PDF

Info

Publication number
DE60221556T2
DE60221556T2 DE60221556T DE60221556T DE60221556T2 DE 60221556 T2 DE60221556 T2 DE 60221556T2 DE 60221556 T DE60221556 T DE 60221556T DE 60221556 T DE60221556 T DE 60221556T DE 60221556 T2 DE60221556 T2 DE 60221556T2
Authority
DE
Germany
Prior art keywords
server
address
packet
node
addresses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60221556T
Other languages
English (en)
Other versions
DE60221556D1 (de
Inventor
Petri Krohn
Mikael Latvala
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Solutions and Networks Oy
Original Assignee
Nokia Siemens Networks Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Siemens Networks Oy filed Critical Nokia Siemens Networks Oy
Publication of DE60221556D1 publication Critical patent/DE60221556D1/de
Application granted granted Critical
Publication of DE60221556T2 publication Critical patent/DE60221556T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/50Address allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/10015Access to distributed or replicated servers, e.g. using brokers

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft Telekommunikation. Im Speziellen bezieht sich die vorliegende Erfindung auf ein neues und verbessertes Verfahren und System zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk mit hohen Anforderungen hinsichtlich Verfügbarkeit.
  • Hintergrund der Erfindung
  • Eine Server-Gruppe ist eine Gruppe mehrerer Serverknoten, unter denen Server-Funktionalitäten verteilt sind. Somit wird jede Funktionalität oder Anwendung in mehrere parallele Prozesse geteilt, die jeweils auf verschiedenen Knoten ablaufen.
  • In einem IP-(Internet Protokoll, IP)-basierten Telekommunikationsnetzwerk hat eine Server-Gruppe typischerweise eine einzelne IP-Adresse, die sie gegenüber Netzwerkelementen identifiziert, die ihre Dienste nutzen. Intern jedoch hat jeder Knoten mindestens eine eindeutige IP-Adresse. Unter Verwendung entweder einer Technik, die als Lastverteilung bezeichnet wird, oder einer Technik, die als Lastausgleich bezeichnet wird, wird eingehender IP-Verkehr zwischen den Knoten verteilt. Lastverteilung bezeichnet eine Weiterleitung von Anfragen an Serverknoten. Lastausgleich bezeichnet eine Verteilung von Anfragen an Serverknoten basierend auf Rückmeldung von jedem Knoten.
  • Eine typische Server-Gruppe umfasst hunderte von Knoten. Neue Knoten können der Gruppe hinzugefügt werden müssen, existierende Knoten können entfernt werden müssen, oder existierende Knoten können einfach versagen. Eine Änderung der Gruppengröße wird eine Neukonfiguration oder eine Neuzuordnung der Knoten verursachen.
  • Der IP-Verkehr, der zu einer Server-Gruppe übertragen wird, umfasst Sitzungen (engl.: sessions), von denen jede individuelle Pakete umfasst. Alle Pakete einer Sitzung müssen zu demselben Serverknoten weitergeleitet werden. Dies kann erreicht werden, indem entweder eine zustandsbehaftete Implementierung oder eine zustandslose Implementierung verwendet wird.
  • Eine zustandsbehaftete Implementierung einer Lastverteilung umfasst typischerweise eine zustandsbehaftete Lastausgleichseinrichtung, die eine Sitzungstabelle führt, die Sitzungen enthält, die zur selben Zeit bedient werden. Unter Verwendung der Sitzungstabelle kann Lastausgleichseinrichtung aufeinander folgende IP-Pakete, die zu einer bestimmten Sitzung gehören, an denselben Serverknoten, wie das erste Paket der Sitzung, weiterleiten. Ein Beispiel dieses Vorgehens ist der ServerIron-Switch von Foundry Networks (http://www.foundrynet.com).
  • Jedoch gibt es Probleme bei zustandsbehafteten Implementierungen. Zunächst mindert Sitzungswissen (engl.: session awareness) den Durchsatz der Lastausgleichseinrichtung. In der Praxis werden bis zu mehreren Millionen Sitzungseinträge in der Sitzungstabelle gleichzeitig speichert. Somit sind Speicheranforderungen für eine Sitzungstabelle erheblich, was es schwierig macht, sie zu implementieren. Zudem muss eine fehlertolerante Lastausgleichseinrichtung alle Zustandsinformationen einer anderen Einheit mit Kontrollpunkten versehen, so dass für den Fall eines Umschaltens die andere Einheit die Rolle der ausgefallenen Einheit ohne Unterbrechung übernehmen kann. Eine zustandbehaftete Lastausgleichseinrichtung fehlertolerant zu machen, bedeutet zusätzliche Komplexität und er höhte Signalisierungslast. Zudem gibt es keine Möglichkeit festzustellen, wann eine Sitzung endet. Normalerweise wird ein Zeitgeber verwendet, um Sitzungen nach 1–24 Stunden zu löschen.
  • Zustandslose Implementierungen einer Lastverteilung, wie Broadcast-basierte Mechanismen zur Lastverteilung, verwenden keine Einrichtung zum Lastausgleich. Stattdessen verwenden sie einen statischen Algorithmus, um zu entscheiden, welcher Serverknoten zu verarbeiten ist. Typischerweise verwendet der Algorithmus eine Hash-Funktion und Hash-Bucket-Zuordnungen. Beispiele zustandsloser Implementierungen sind der Microsoft Windows NT Load Balancing Service und der DHC Load Balancing Algorithmus, wie in der Veröffentlichung RFC3074 von IETF (Internet Engineering Task Force, IETF) beschrieben sind.
  • Der Stand der Technik umfasst des weiteren AVERSA L. ET AL.: "Load Balancing a Cluster of Web Servers Using Distributed Packet Rewriting", Conference Proceedings of the 2000 IEEE International Performance, Computing and Communications Conference (Cat. No. 00CH37086), Proc. of IPCCC 2000, 20. Februar 2000 – 22. Februar 2000, Phoenix, AZ, USA, Seiten 24–29, XP001017123, das einer zustandslosen und zustandbehafteten Lastausgleich für eine Gruppe von Webservern offenbart, wobei jeder Server seine eigene Adresse hat.
  • Jedoch gibt es auch Probleme bei derzeitigen zustandslosen Implementierungen. Sie sind auf eine Broadcast-Kommunikationsbetriebsart angewiesen; eingehende Pakete werden von allen Knoten in einer Gruppe empfangen, und jeder Knoten prüft separat, ob er die Anfrage bedienen soll. Das Hauptproblem bei aktuellen zustandslosen Implementierungen ist, dass sie eine hohe Verarbeitungsleistung benötigen, da jedes Paket von allen Knoten empfangen werden muss. Zusätzlich sind sie nicht für Systeme mit hohen Verfügbarkeitsanforderungen ausgeführt.
  • Um einen Dienst auf Träger-Dienstgrad-Niveau bereitzustellen, muss die Systemausfallzeit extrem gering sein, z. B. 0,001% oder geringer. Zusätzlich müssen Systeme in der Lage sein, normalen Wartungsarbeiten unterzogen zu werden, die nicht zu einem kompletten systemweiten Abschalten oder Zurücksetzen führen sollten. Die gegenwärtigen Lösungen sorgen nicht dafür.
  • Somit besteht Bedarf an einer Einrichtung zum Lastausgleich, die sowohl Skalierbarkeit als auch hohe Verfügbarkeit für Dienste auf Träger-Dienstgrad-Niveau bereitstellt.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren gemäß Anspruch 1 und ein System gemäß Anspruch 14 für zustandslose Lastverteilung für eine Server-Gruppe in einem IT-basierten Telekommunikationsnetzwerk. Das System umfasst ein IP-basiertes Telekommunikationsnetzwerk zum Ausgeben von IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen. Beispiele für Sitzungen in dem Kontext der vorliegenden Erfindung sind TCP/IP-Verbindungen (Transmission Control Protocol/Internet Protocol), SCTP-Assoziationen (Stream Control Transmission Protocol); und Sitzungen mit einem Protokoll mit zusätzlicher höherer Ebene, wie zum Beispiel SIP-(Session Initiation Protocol)-Sitzungen und VoIP-(Voice over IP)-Telefonate. Das System umfasst des weiteren eine Server-Gruppe, die funktional identische Serverknoten zum Ausführen eines Anwendungsprozesses umfasst, wobei jedem Serverknoten zumindest eine eindeutige IP-Adresse zugeordnet ist. Das System umfasst des weiteren eine oder mehrere funktional identische, zustandslose Lastausgleichseinrichtungen um die IP-Pakete zu empfangen und um sie zu verschiedenen Serverknoten weiterzuleiten. Weiterleitung umfasst in diesem Kontext Ändern der Zieladresse, einschließlich der Zielanschlussnummer (engl.: destination port number) und entsprechendes Ändern von Prüfsummen. Weiterleiten kann auch das Ändern zu Feldern von Protokollen höherer Ebenen bedeuten, z. B. Ändern einer Stream-ID im Fall von SCTP. Die Lastausgleichseinrichtungen sind mit der Server-Gruppe verbunden.
  • Gemäß der Erfindung umfassen die Lastausgleichseinrichtungen des weiteren eine Einrichtung zum Erhalten eines Verteilungsschlüssels zum Identifizieren und Extrahieren zumindest eines vorbestimmten Feldes aus jedem abgesendeten Paket oder PDU (Protokolldateneinheit, PDU), das darin enthalten ist, um als ein Paket- oder PDU-spezifischer Verteilungsschlüssel verwendet zu werden. Beispiele solcher Felder sind Ruf-ID-Felder (engl.: Call-ID fields) von SIP (Session Initiation Protocol) und das Transaktions-ID-Feld (engl.: Transaction-ID field) von TCAP. TCAP bezeichnet den Transaction Capabilities Part und wird in Verbindung mit SS7 (Signalisierungssystem Nummer 7; englisch: Signaling System 7) verwendet. Wenn eine PDU über einige Pakete verteilt ist, haben diese Pakete denselben Verteilungsschlüssel.
  • Die Lastausgleichseinrichtungen umfassen des weiteren eine Hash-Einrichtung, um jeden Verteilungsschlüssel mittels einer Hash-Funktion zu verarbeiten, um einen Offsetwert für jedes IP-Paket zu erhalten. Somit wird der Offsetwert berechnet unter Verwendung der Formel: Offset = hash(key) mod M,wobei key den Verteilungsschlüssel angibt, hash eine Hash-Funktion angibt, M die Anzahl der Hash-Bucket-Zuordnungen angibt und mod M den Moduln M eines Hash-Werts angibt, und wobei die Anzahl der Hash-Bucket-Zuordnungen größer als die Anzahl der Serverknoten der Server-Gruppe ist.
  • Die Lastausgleichseinrichtungen umfassen des weiteren eine Auflösungseinrichtung zum Auflösen einer paketspezifischen Zieladresse für jedes Paket unter Verwendung von erhaltenen Offsetwerten, wobei die Zieladresse die IP-Adresse des Serverknotens umfasst, an den das Paket weiter zu leiten ist.
  • Bei einer Ausführungsform der Erfindung umfassen die Lastausgleichseinrichtungen des weiteren eine Zuordnungstabelle, die aus Einträgen besteht, die jeweils eine IP-Adresse umfassen, die einem Serverknoten zugeordnet ist, wobei die Tabelle die IP-Adresse jedes Serverknotens in einem oder mehreren Einträgen enthält, und eine Ausleseeinrichtung zum Auslesen der Zieladresse für ein Paket aus der Zuordnungstabelle unter Verwendung des erhaltenen Offsetwerts des Pakets als Index. Bei einer Ausführungsform der Erfindung ist die Anzahl der Einträge in der Zuordnungstabelle größer als die Anzahl der Serverknoten.
  • Bei einer Ausführungsform der Erfindung werden ein TCP (Transmission Control Protocol, TCP)-Protokoll bei IP-Verkehr und ein Verbindungstupel <IPS, portS, IPD, portD> als ein Ganzes oder in Teilen als der Verteilungsschlüssel verwendet. IPS gibt die Quellen-IP-Adresse an, portS gibt die Quellen-Nummer an, IPD gibt die Ziel-IP-Adresse an und portD Anschluss gibt die Ziel–Anschluss-Nummer an.
  • Bei einer Ausführungsform der Erfindung werden ein SCTP-Stream Control Transmission Protocol, SCTP)-Protokoll für IP-Verkehr und eine Verknüpfung <IPS, portS, IPD, portD, Protokoll> als ein Ganzes oder in Teilen als der Verteilungsschlüssel verwendet. IPS gibt die Quellen-IP-Adresse an, portS gibt die Quellen-Anschluss-Nummer an, IPD gibt die Ziel-IP-Adresse an, portD Anschluss gibt die Ziel-Anschluss-Nummer an und protocol gibt den Identifikator des verwendeten Protokolls höherer Ebene an.
  • Bei einer Ausführungsform der Erfindung wird ein neuer Knoten der Server-Gruppe hinzugefügt, wobei zumindest ein Eintrag in der Zuordnungstabelle aktualisiert wird, damit er die IP-Adresse des hinzugefügten neuen Knotens zu enthält.
  • Bei einer Ausführungsform der Erfindung wird ein Knoten der Server-Gruppe entfernt, wobei jeder Eintrag in der Zuordnungstabelle, der die IP-Adresse des entfernten Knotens umfasst, aktualisiert wird, damit er die IP-Adresse eines der verbleibenden Knoten umfasst.
  • Bei einer Ausführungsform der Erfindung umfassen die Lastausgleichseinrichtungen des weiteren eine Addiereinrichtung zum Addieren des erhaltenen Offsetwerts eines Pakets zu einer Basisadresse, die der Server-Gruppe zugeordnet ist, um die Zieladresse für das Paket zu erhalten, wobei die Zieladresse eine aus einem Bereich von IP-Adressen ist, aus dem mehr als eine Adresse pro Serverknoten zugeordnet ist. Vorzugsweise ist dieser Bereich von IP-Adressen kontinuierlich. Bei einer Ausführungsform der Erfindung ist die Anzahl von Adressen in dem Bereich von IP-Adressen größer als die Anzahl von Serverknoten.
  • Bei einer Ausführungsform der Erfindung wird ein neuer Knoten der Server-Gruppe hinzugefügt, wobei zumindest eine Adresse des Bereichs von IP-Adressen dem hinzugefügten neuen Knoten neu zugeordnet wird.
  • Bei einer Ausführungsform der Erfindung wird ein Knoten aus der Server-Gruppe entfernt, wobei die IP-Adressen des entfernten Knotens den verbleibenden Knoten neu zugeordnet werden.
  • Bei einer Ausführungsform der Erfindung wird zumindest ein alter Serverknoten durch zumindest einen neuen Serverknoten ersetzt, wird jedes Paket analysiert, um zu ermitteln, ob es eine Sitzung initiiert, werden Pakete, die eine Sitzung initiieren, zu dem neuen Serverknoten weitergeleitet, und werden Pakete, die keine Sitzung initiieren, sowohl zu dem neuen Serverknoten als auch zu dem alten Serverknoten weitergeleitet. Somit erlaubt dieser Ansatz sanfte Neuzuordnung einer Gruppe von Hash-Buckets von einem Serverknoten zu einem anderen. Ein Paket, das eine Sitzung initiiert, wird nur zu dem neuen Knoten gesendet, der übernimmt. Alle anderen Pakete werden sowohl zu dem neuen als auch zu dem alten Knoten oder den alten Knoten gesendet. Nach einer vorbestimmten Zeitdauer kann angenommen werden, dass alle Sitzungen, die von dem alten Serverknoten bedient wurden, beendet sind und der alte Knoten offline genommen werden kann. Bei diesem Ansatz hat die Zuordnungstabelle mindestens zwei Spalten, eine für eine neue oder aktuelle Zuordnung und eine oder mehrere für die alte oder auslaufende Zuordnung.
  • Bei einer Ausführungsform der Erfindung werden Unicast-IP-Adressen als die eindeutigen IP-Adressen, die jedem Serverknoten zugeordnet sind, verwendet, wird zumindest eine Multicast-IP-Adresse mit mehreren Serverknoten verbunden, wird jedes Paket analysiert, um zu ermitteln, ob es eine Sitzung initiiert, wobei Pakete, die eine Sitzung initiieren, unter Verwendung der Unicast-Adresse als Zieladresse weitergeleitet werden, und Pakete, die keine Sitzung initiieren, unter Verwendung der Multicast-Adresse als die Zieladresse weitergeleitet werden. Somit erlaubt dieser Ansatz sanfte Neuzuordnung ohne Zuordnungstabelle. Jedem Bucket werden zwei IP-Adressen zugewiesen; eine normale Unicast-Adresse, die einem Serverknoten zugeordnet ist, und eine IP-Multicast-Adresse, die mit verschiedenen Serverknoten verbunden ist.
  • Die normale Unicast-Adresse wird mit dem Eingangsknoten verbunden, und alle Pakete, die eine Sitzung initiieren, werden mit dieser Adresse weitergeleitet. Zusätzlich wird jeder Ausgangsknoten mit einer Unicast-Adresse im Umfang der Multicast-Adresse verbunden und alle Pakete, die keine Sitzung initiieren, werden mit dieser Adresse weitergeleitet. Somit verursacht eine Rekonfiguration von Serverknoten keine Änderung der Lastausgleichseinrichtungen. Die Verbindung der IP-Adressen mit den Serverknoten werden geändert, um Verkehr zu richtigen Knoten zu lenken.
  • Die vorliegende Erfindung stellt eine Lastausgleichseinrichtung sowohl mit Skalierbarkeit als auch mit hoher Verfügbarkeit bereit. Da jede Lastausgleichseinrichtung identisch ist, kann Verkehr durch jede Lastausgleichseinrichtung hindurch gehen. Wenn ein Anycast-Mechanismus, wie zum Beispiel IPv6-(Internet Protocol, Version 6)-Anycast-Adressen, verwendet wird, kann jedes einzelne Paket durch jede Lastausgleichseinrichtung geleitet werden. Da die Anzahl der Hash-Buckets größer als die Anzahl der Serverknoten ist, ist dynamisches Skalieren und Konfigurieren der Server-Gruppe möglich. Insbesondere können folgende drei Szenarien ohne Rücksetzen bewältigt werden: Unerwarteter Fehler eines Serverknotens, kontrolliertes Abschalten eines Serverknotens und Hinzufügen eines neuen Serverknotens zu einer Server-Gruppe.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen, die beigefügt sind, um für ein besseres Verständnis der Erfindung zu sorgen, und die einen Teil dieser Spezifikation bilden, veranschaulichen Ausführungsformen der Erfindung und tragen zusammen mit der Beschreibung dazu bei, die Prinzipien der Erfindung zu erläutern. In den Zeichnungen:
  • 1 ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht,
  • 2 ist ein Blockdiagramm, das ein System gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht, und
  • 3 ist ein Blockdiagramm, das ein System gemäß einer weiteren Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Nun wird auf die Ausführungsformen der vorliegenden Erfindung detailliert Bezug genommen, von der Beispiele in den beigefügten Zeichnungen veranschaulicht sind.
  • 1 veranschaulicht ein Verfahren zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk. Zumindest eine eindeutige IP-Adresse wird jedem Serverknoten einer Server-Gruppe zugeordnet, Block 10. IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen, wird gesendet, Block 11. Zumindest ein vorbestimmtes Feld von jedem gesendeten Paket oder PDU, das darin enthalten ist, wird identifiziert und extrahiert, um als paketspezifischer Verteilungsschlüssel verwendet zu werden, Block 12. Für jeden Verteilungsschlüssel wird mittels eines Hash-Verfahrens verarbeitet, um einen Offsetwert für jedes Paket zu erhalten, Block 13. Eine paketspezifische Zieladresse wird für jedes Paket unter Verwendung der erhaltenen Offsetwerte aufgelöst, wobei diese Zieladresse die IP-Adresse des Serverknotens umfasst, zu dem das Paket weitergeleitet werden soll, Block 14. Jedes Paket wird zu einem Serverknoten weitergeleitet, der dessen aufgelöster Zieladresse entspricht, Block 15.
  • 2 veranschaulicht ein System zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk. Das System umfasst ein IP-basiertes Telekommunikationsnetzwerk 200 zum Senden von IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen. Das System umfasst des weiteren eine Server-Gruppe 210, die funktional identische Serverknoten 211, 212, 213 und 214 zum Ausführen eines Anwendungsprozesses umfasst, wobei jedem Serverknoten zumindest eine eindeutige IP-Adresse zugeordnet ist. Das System umfasst des weiteren eine oder mehrere funktional identische, zustandslose Lastausgleichseinrichtungen 220, 221 und 222 zum Empfangen der Pakete und ihrer Weiterleitung zu verschiedenen Serverknoten. Die Lastausgleichseinrichtungen 220, 221 und 222 sind mit der Server-Gruppe 210 verbunden.
  • Die Lastausgleichseinrichtungen 220, 221 und 222 umfassen des weiteren eine Einrichtung zum Erhalten eines Verteilungsschlüssels 230 zum Identifizieren und Extrahieren von zumindest einem vorbestimmten Feld aus jedem abgesendeten Paket oder einer darin enthaltenen PDU zur Verwendung als paketspezifischer Verteilungsschlüssel. Die Lastausgleichseinrichtungen 220, 221 und 222 umfassen des weiteren eine Hash-Einrichtung 240 zum Ausführen eines Hash-Verfahrens für jeden Verteilungsschlüssel, um einen Offsetwert für jedes Paket zu erhalten. Die Lastausgleichseinrichtungen 220, 221 und 222 umfassen des weiteren eine Auflösungseinrichtung 250 zum Auflösen einer paketspezifischen Zieladresse für jedes Paket unter Verwendung der erhaltenen Offsetwerte, wobei die Zieladresse die IP-Adresse des Serverknotens umfasst, an den das Paket weiterzuleiten ist. Bei einer Ausführungsform der Erfindung wird TCP-Protokoll bei IP-Verkehr verwendet, und ein Verbindungstupel <IPS, portS, IPD, portD> wird als Ganzes oder in Teilen als der Verteilungsschlüssel verwendet. Bei einer weiteren Ausführungsform der Erfindung wird SCTP-Protokoll bei IP-Verkehr verwendet, und eine Verknüpfung <IPS, portS, IPD, portD, Protokoll> wird als Ganzes oder in Teilen als der Verteilungsschlüssel verwendet.
  • Die Lastausgleichseinrichtungen 220, 221 und 222 umfassen des weiteren eine Zuordnungstabelle 260, die aus Einträgen besteht, die jeweils eine IP-Adresse umfassen, die einem Serverknoten zugewiesen ist, wobei diese Tabelle die IP-Adresse jedes Serverknotens in einem oder mehreren Einträgen enthält. Die Lastausgleichseinrichtungen 220, 221 und 222 umfassen des weiteren eine Ausleseeinrichtung 261 zum Auslesen der Zieladresse für ein Paket aus der Zuordnungstabelle 260 unter Verwendung der erhaltenen Offsetwerte des Pakets als Index. Die Anzahl von Einträgen in der Zuweisungstabelle 260 ist größer als die Anzahl von Serverknoten.
  • Wenn ein neuer Knoten der Server-Gruppe hinzu gefügt wird, wird zumindest ein Eintrag in der Zuordnungstabelle 260 aktualisiert, damit er die IP-Adresse des hinzugefügten neuen Knotens zu enthält. Wenn ein Knoten von der Server-Gruppe 210 entfernt wird, wird jeder Eintrag in der Zuordnungstabelle 260, der die IP-Adresse des entfernten Knotens enthält, aktualisiert, damit er die IP-Adresse von einem der verbleibenden Knoten enthält.
  • 3 veranschaulicht ein System zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk. Das System umfasst ein IP-basiertes Telekommunikationsnetzwerk 300 zum Senden von IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen. Das System umfasst des weiteren eine Server-Gruppe 310, die funktional identische Serverknoten 311, 312, 313 und 314 zum Ausführen eines Anwendungsprozesses umfasst, wobei jedem Serverknoten davon zumindest eine eindeutige IP-Adresse zugeordnet ist. Das System umfasst des weiteren eine oder mehrere funktional identische, zustandslose Lastausgleichseinrichtungen 320, 321 und 322, um die Pakete zu empfangen und sie zu verschiedenen Serverknoten weiter zu leiten. Die Lastausgleichseinrichtungen 320, 321 und 322 sind mit der Server-Gruppe 310 verbunden.
  • Die Lastausgleichseinrichtungen 320, 321 und 322 umfassen des weiteren eine Einrichtung zum Erhalten eines Verteilungsschlüssels 330 zum Identifizieren und Extrahieren von mindestens einem vorbestimmten Feld aus jedem abgesendeten Paket oder einer darin enthaltenen PDU zur Verwendung als paketspezifischer Verteilungsschlüssel. Die Lastausgleichseinrichtungen 320, 321 und 322 umfassen des weiteren eine Hash-Einrichtung 340 zum Ausführen eines Hash-Verfahrens an jedem Verteilungsschlüssel, um einen Offsetwert für jedes Paket zu erhalten. Die Lastausgleichseinrichtungen 320, 321 und 322 umfassen des weiteren eine Auflösungseinrichtung 350 zum Auflösen einer paketspezifischen Zieladresse für jedes Paket durch Verwendung der erhaltenen Offsetwerte, wobei die Zieladresse die IP-Adresse des Serverknotens umfasst, an den das Paket weitergeleitet werden soll.
  • Die Lastausgleichseinrichtungen 320, 321 und 322 umfassen des weiteren eine Addier-Einrichtung 360 zum Addieren des erhaltenen Offsetwerts eines Pakets zu einer Basisadresse, die der Server-Gruppe 310 zugeordnet ist, um die Zieladresse für das Paket zu erhalten, wobei die Zieladresse eine aus einem Bereich von IP-Adressen ist, wobei von diesem Bereich mehr als eine Adresse pro Serverknoten zugeordnet ist. Die Anzahl von Adressen in dem Bereich von IP-Adressen ist größer als die Anzahl der Serverknoten.
  • Wenn ein neuer Knoten der Server-Gruppe hinzu gefügt wird, wird zumindest eine Adresse aus dem Bereich von IP-Adressen dem hinzugefügten neuen Knoten neu zugeordnet. Wenn ein Knoten der Server-Gruppe entfernt wird, werden die IP-Adressen des entfernten Knotens den verbleibenden Knoten neu zugeordnet.
  • Es ist für einen Fachmann auf dem Gebiet offensichtlich, dass mit dem technologischen Fortschritt die grundlegende Idee der Erfindung auf vielfältige Weise implementiert werden kann. Die Erfindung und ihre Ausführungsformen sind somit nicht auf die oben beschriebenen Beispiele beschränkt, sondern können im Umfang der Ansprüche variieren. Figurenlegende zu Fig. 1:
    Englisch: Deutsch:
    Assigning at least one unique IP address to each server node Zuordnen von zumindest einer eindeutigen IP-Adresse jedem Serverknoten
    Dispatching IP traffic Senden von IP-Verkehr
    Parsing each packet to obtain distribution key Analysieren jedes Pakets, um einen Verteilungsschlüssel zu erhalten
    Hashing each distribution key to obtain offset value Ausführen eines Hash-Verfahrens für jeden Verteilungsschlüssel, um Offsetwert zu erhalten
    Resolving a destination address for each packet Auflösen einer Zieladresse für jedes Paket
    Forwarding each packet to a server node corresponding to a destination address Weiterleiten jedes Pakets an einen Serverknoten, der einer Zieladresse entspricht
    Figurenlegende zu Fig. 2:
    Englisch: Deutsch:
    Load balancer Lastausgleichseinrichtung
    Server cluster Server-Gruppe
    Node Knoten
    Figurenlegende zu Fig. 3:
    Englisch: Deutsch:
    Load balancer Lastausgleichseinrichtung
    Server cluster Server-Gruppe
    Node Knoten

Claims (18)

  1. Verfahren zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk, die Schritte umfassend: – Zuordnen (10) von mindestens einer eindeutigen IP-Adresse zu jedem Serverknoten einer Server-Gruppe; – Absenden (11) von IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen, und – Identifizieren und Extrahieren (12) von mindestens einem vorbestimmten Feld aus jedem abgesendeten Paket oder einer darin enthaltenen PDU zur Verwendung als ein Verteilungsschlüssel, dadurch gekennzeichnet, dass das Verfahren weiter die Schritte umfasst: – Ausführen eines Hash-Verfahrens (13) an jedem Verteilungsschlüssel, um einen Offsetwert für jedes Paket zu erhalten, so dass Offset value = Hash (key) mod M, wobei key den Verteilungsschlüssel angibt, Hash eine Hash-Funktion angibt, M die Anzahl von Hash-Bucket-Zuordnungen angibt und mod M den Modulus M eines Hash-Werts angibt, und wobei die Anzahl von Hash-Bucket-Zuordnungen größer ist als die Anzahl von Serverknoten der Server-Gruppe, – Auflösen (14) einer paketspezifischen Zieladresse für jedes Paket unter Verwendung der erhaltenen Offsetwerte, wobei die Zieladresse die IP-Adresse des Serverknotens umfasst, an den das Paket weiterzuleiten ist, und – Weiterleiten (15) von jedem Paket an einen Serverknoten, der seiner aufgelösten Zieladresse entspricht.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Erzeugen einer Zuordnungstabelle, die aus Einträgen besteht, die jeweils eine einem Serverknoten zugeordnete IP-Adresse umfassen, wobei die Tabelle die IP-Adresse von jedem Serverknoten in einem oder mehreren Einträgen enthält, und – Verwenden des erhaltenen Offsetwerts eines Pakets als Index, mit dem die Zieladresse für das Paket aus der erzeugten Zuordnungstabelle auszulesen ist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Anzahl von Einträgen in der Zuordnungstabelle größer als die Anzahl von Serverknoten ist.
  4. Verfahren nach den Ansprüchen 2 oder 3, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Verwenden eines TCP-Protokolls bei IP-Verkehr, und – Verwenden eines Verbindungs-Tupels <IPS, portS, IPD, portD> von Kombinationen von Quell- und Ziel-IP-Adressen und -Anschlüssen als Ganzes oder teilweise als den Verteilungsschlüssel.
  5. Verfahren nach den Ansprüchen 2 oder 3, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Verwenden des Stream Control Transmission Protokolls bei IP-Verkehr, und – Verwenden einer Verknüpfung <IPS, portS, IPD, portD, Protokoll> von Kombinationen von Quell- und Ziel-IP-Addressen und -Anschlüssen als Ganzes oder teilweise als den Verteilungsschlüssel.
  6. Verfahren nach den Ansprüchen 2, 3, 4 oder 5, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Hinzufügen eines neuen Knotens zu der Server-Gruppe, und – Aktualisieren von mindestens einem Eintrag in der Zuordnungstabelle, so dass er die IP-Adresse des neu hinzugefügten Knotens erhält.
  7. Verfahren nach den Ansprüchen 2, 3, 4, 5 oder 6, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Entfernen eines Knotens aus der Server-Gruppe, und – Aktualisieren jedes Eintrags in der Zuordnungsstabelle, der die IP-Adresse des entfernten Knotens enthält, so dass er die IP-Adresse von einem der verbleibenden Knoten enthält.
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Verwenden eines Bereichs von IP-Adressen beim Zuordnen von Adressen zu den Serverknoten, wobei von dem Bereich eine oder mehrere Adressen pro Serverknoten zugeordnet werden, – Zuordnen einer Basisadresse zu der Server-Gruppe, und – Kombinieren des erhaltenen Offsetwerts eines Pakets und der zugeordneten Basisadresse, um die Zieladresse für das Paket zu erhalten.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Anzahl von Adressen in dem Bereich von IP-Adressen größer als die Anzahl von Serverknoten ist.
  10. Verfahren nach den Ansprüchen 8 oder 9, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Hinzufügen eines neuen Knotens zu der Server-Gruppe, und – erneutes Zuordnen von mindestens einer Adresse des Bereiches von IP-Adressen dem hinzugefügten neuen Knoten.
  11. Verfahren nach den Ansprüchen 8, 9 oder 10, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Entfernen eines Knotens aus der Server-Gruppe; und – erneutes Zuordnen der IP-Adressen des entfernten Knotens zu den verbleibenden Knoten.
  12. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Ersetzen von mindestens einem alten Serverknoten durch mindestens einen neuen Serverknoten; – Analysieren von jedem Paket, um zu ermitteln, ob es eine Sitzung initiiert, – Weiterleiten von Paketen, die eine Sitzung initiieren, an den neuen Serverknoten, und – Weiterleiten von Paketen, die keine Sitzung initiieren, sowohl zu dem neuen Serverknoten als auch zu dem alten Serverknoten.
  13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren ferner die Schritte umfasst: – Verwenden von Unicast-IP-Adressen als die eindeutigen jedem Serverknoten zugeordneten IP-Adressen, – Verbinden von mindestens einer Multicast-IP-Adresse mit einigen Serverknoten; – Analysieren von jedem Paket, um zu ermitteln, ob es eine Sitzung initiiert, – Weiterleiten von Paketen, die eine Sitzung initiieren, unter Verwendung der Unicast-IP-Adresse als die Zieladresse, und – Weiterleiten von Paketen, die keine Sitzung initiieren, unter Verwendung der Multicast-IP-Adresse als die Zieladresse.
  14. System zur zustandslosen Lastverteilung für eine Server-Gruppe in einem IP-basierten Telekommunikationsnetzwerk, umfassend: – ein IP-basiertes Telekommunikationsnetzwerk (200) zum Ausgeben von IP-Verkehr, der Sitzungen umfasst, die Pakete umfassen; – eine Server-Gruppe (210), die funktional identische Serverknoten (211, 212, ..., N) umfasst, um einen Anwendungsprozess auszuführen, wobei jedem Serverknoten davon mindestens eine eindeutige IP-Adresse zugeordnet ist, – eine oder mehrere funktional identische, zustandslose Lastausgleichseinrichtungen (220, 221, ..., N) zum Empfangen der Pakete und Weiterleiten derselben an verschiedene Serverknoten, wobei die Lastausgleichseinrichtungen mit der Server-Gruppe verbunden sind, und – eine Einrichtung (230) zum Erhalten eines Verteilungsschlüssels zum Identifizieren und Extrahieren von mindestens einem vorbestimmten Feld aus jedem ausgegebenen Paket oder einer darin enthaltenen PDU zur Verwendung als Verteilungsschlüssel; dadurch gekennzeichnet, dass die Lastausgleichseinrichtungen ferner umfassen: – eine Hash-Einrichtung (240) zum Ausführen eines Hash-Verfahrens an jedem Verteilungsschlüssel, um einen Offsetwert für jedes Paket zu erhalten, so dass Offset wert = hash (key) mod M, wobei key den Verteilungsschlüssel angibt, Hash eine Hash-Funktion angibt, M die Anzahl von Hash-Bucket-Zuordnungen angibt und mod M den Modulus M eines Hash-Werts angibt, und wobei die Anzahl von Hash-Bucket-Zuordnungen größer als die Anzahl von Serverknoten der Server-Gruppe ist; und – eine Auflösungseinrichtung (250) zum Auflösen einer paketspezifischen Zieladresse für jedes Paket, unter Verwendung der erhaltenen Offsetwerte, wobei die Zieladresse die IP-Adresse des Serverknotens umfasst, an den das Paket weiterzuleiten ist.
  15. System nach Anspruch 14, dadurch gekennzeichnet, dass die Lastausgleichseinrichtungen ferner umfassen: – eine Zuordnungstabelle (260), die aus Einträgen besteht, die jeweils eine IP-Adresse umfassen, die einem Serverknoten zugeordnet ist, wobei die Tabelle die IP-Adresse von jedem Serverknoten in einem oder mehreren Einträgen enthält; und – eine Ausleseeinrichtung (261) zum Auslesen der Zieladresse für ein Paket aus der Zuordnungstabelle unter Verwendung der erhaltenen Offsetwerte des Pakets als Index.
  16. System nach Anspruch 15, dadurch gekennzeichnet, dass die Anzahl von Einträgen in der Zuordnungstabelle größer als die Anzahl von Serverknoten ist.
  17. System nach Anspruch 14, dadurch gekennzeichnet, dass die Lastausgleichseinrichtungen ferner umfassen: – eine Addier-Einrichtung (360) zum Kombinieren des erhaltenen Offsetwertes eines Pakets mit einer der Server-Gruppe zugeordneten Basisadresse, um die Zieladresse für das Paket zu erhalten, wobei die Zieladresse eine aus einem Bereich von IP-Adressen ist, wobei von dem Bereich eine oder mehrere Adressen jedem einzelnen Serverknoten zugeordnet sind.
  18. System nach Anspruch 17, dadurch gekennzeichnet, dass die Anzahl von Adressen in dem Bereich von IP-Adressen größer als die Anzahl von Serverknoten ist.
DE60221556T 2001-11-05 2002-09-19 Verfahren und system zur zustandslosen lastverteilung für ein server-cluster in einem auf ip basierenden telekommunikationsnetz Expired - Lifetime DE60221556T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20012137A FI115358B (fi) 2001-11-05 2001-11-05 Tilaton kuormanjako
FI20012137 2001-11-05
PCT/FI2002/000745 WO2003041355A1 (en) 2001-11-05 2002-09-19 A method and a system for stateless load sharing for a server cluster in an ip-based telecommunications network

Publications (2)

Publication Number Publication Date
DE60221556D1 DE60221556D1 (de) 2007-09-13
DE60221556T2 true DE60221556T2 (de) 2008-04-17

Family

ID=8562187

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60221556T Expired - Lifetime DE60221556T2 (de) 2001-11-05 2002-09-19 Verfahren und system zur zustandslosen lastverteilung für ein server-cluster in einem auf ip basierenden telekommunikationsnetz

Country Status (6)

Country Link
US (1) US20040197079A1 (de)
EP (1) EP1442575B1 (de)
AT (1) ATE369001T1 (de)
DE (1) DE60221556T2 (de)
FI (1) FI115358B (de)
WO (1) WO2003041355A1 (de)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844687B1 (en) * 1999-10-06 2010-11-30 Gelvin David C Method for internetworked hybrid wireless integrated network sensors (WINS)
US7860095B2 (en) * 2003-10-30 2010-12-28 Hewlett-Packard Development Company, L.P. Method and apparatus for load-balancing
CN1312889C (zh) * 2003-12-17 2007-04-25 浪潮电子信息产业股份有限公司 集群网络的单一地址流量分发器
EP1751946A1 (de) * 2004-05-19 2007-02-14 Telefonaktiebolaget LM Ericsson (publ) Technik zur behandlung von einleitungsanforderungen
WO2006067568A1 (en) * 2004-12-22 2006-06-29 Nokia Corporation Multi homing transport protocol on a multi-processor arrangement
US7512707B1 (en) 2005-11-03 2009-03-31 Adobe Systems Incorporated Load balancing of server clusters
US20070214282A1 (en) * 2006-03-13 2007-09-13 Microsoft Corporation Load balancing via rotation of cluster identity
CN100450037C (zh) * 2006-08-30 2009-01-07 华为技术有限公司 一种ip报文负载分担实现方法及装置
JP5210376B2 (ja) * 2007-05-07 2013-06-12 ヒタチデータ・システムズ・コーポレイション 固定コンテンツ分散型データ記憶システムにおけるデータ機密保持方法
US8150970B1 (en) 2007-10-12 2012-04-03 Adobe Systems Incorporated Work load distribution among server processes
US8737210B2 (en) * 2011-03-09 2014-05-27 Telefonaktiebolaget L M Ericsson (Publ) Load balancing SCTP associations using VTAG mediation
US9736065B2 (en) 2011-06-24 2017-08-15 Cisco Technology, Inc. Level of hierarchy in MST for traffic localization and load balancing
US8751641B2 (en) * 2011-09-15 2014-06-10 International Business Machines Corporation Optimizing clustered network attached storage (NAS) usage
US8595239B1 (en) 2012-01-03 2013-11-26 Google Inc. Minimally disruptive hash table
US9083710B1 (en) * 2012-01-03 2015-07-14 Google Inc. Server load balancing using minimally disruptive hash tables
US8908698B2 (en) 2012-01-13 2014-12-09 Cisco Technology, Inc. System and method for managing site-to-site VPNs of a cloud managed network
US10375158B2 (en) * 2012-04-04 2019-08-06 Radware, Ltd. Techniques for adaptive traffic direction via scalable application delivery controller services
US8965921B2 (en) * 2012-06-06 2015-02-24 Rackspace Us, Inc. Data management and indexing across a distributed database
US9344458B2 (en) 2012-07-16 2016-05-17 eZuce, Inc. Providing unified communications services
US9602614B1 (en) 2012-11-26 2017-03-21 Amazon Technologies, Inc. Distributed caching cluster client configuration
US9847907B2 (en) * 2012-11-26 2017-12-19 Amazon Technologies, Inc. Distributed caching cluster management
US9203753B2 (en) * 2013-11-25 2015-12-01 Cisco Technology, Inc. Traffic optimization using network address and port translation in a computer cluster
US10122605B2 (en) 2014-07-09 2018-11-06 Cisco Technology, Inc Annotation of network activity through different phases of execution
US10044617B2 (en) * 2014-11-14 2018-08-07 Nicira, Inc. Stateful services on stateless clustered edge
US9876714B2 (en) 2014-11-14 2018-01-23 Nicira, Inc. Stateful services on stateless clustered edge
US9866473B2 (en) 2014-11-14 2018-01-09 Nicira, Inc. Stateful services on stateless clustered edge
US11533255B2 (en) * 2014-11-14 2022-12-20 Nicira, Inc. Stateful services on stateless clustered edge
US9860209B2 (en) 2015-05-12 2018-01-02 Cisco Technology, Inc. Stateful connection processing in a security device cluster
US10476982B2 (en) 2015-05-15 2019-11-12 Cisco Technology, Inc. Multi-datacenter message queue
US10034201B2 (en) * 2015-07-09 2018-07-24 Cisco Technology, Inc. Stateless load-balancing across multiple tunnels
US10205677B2 (en) 2015-11-24 2019-02-12 Cisco Technology, Inc. Cloud resource placement optimization and migration execution in federated clouds
US10084703B2 (en) 2015-12-04 2018-09-25 Cisco Technology, Inc. Infrastructure-exclusive service forwarding
US10367914B2 (en) 2016-01-12 2019-07-30 Cisco Technology, Inc. Attaching service level agreements to application containers and enabling service assurance
US10432532B2 (en) 2016-07-12 2019-10-01 Cisco Technology, Inc. Dynamically pinning micro-service to uplink port
US10382597B2 (en) 2016-07-20 2019-08-13 Cisco Technology, Inc. System and method for transport-layer level identification and isolation of container traffic
US10567344B2 (en) 2016-08-23 2020-02-18 Cisco Technology, Inc. Automatic firewall configuration based on aggregated cloud managed information
US10320683B2 (en) 2017-01-30 2019-06-11 Cisco Technology, Inc. Reliable load-balancer using segment routing and real-time application monitoring
US10671571B2 (en) 2017-01-31 2020-06-02 Cisco Technology, Inc. Fast network performance in containerized environments for network function virtualization
US11005731B2 (en) 2017-04-05 2021-05-11 Cisco Technology, Inc. Estimating model parameters for automatic deployment of scalable micro services
US10382274B2 (en) 2017-06-26 2019-08-13 Cisco Technology, Inc. System and method for wide area zero-configuration network auto configuration
US10439877B2 (en) 2017-06-26 2019-10-08 Cisco Technology, Inc. Systems and methods for enabling wide area multicast domain name system
US10425288B2 (en) 2017-07-21 2019-09-24 Cisco Technology, Inc. Container telemetry in data center environments with blade servers and switches
US10601693B2 (en) 2017-07-24 2020-03-24 Cisco Technology, Inc. System and method for providing scalable flow monitoring in a data center fabric
US10541866B2 (en) 2017-07-25 2020-01-21 Cisco Technology, Inc. Detecting and resolving multicast traffic performance issues
US10951584B2 (en) 2017-07-31 2021-03-16 Nicira, Inc. Methods for active-active stateful network service cluster
US11570092B2 (en) 2017-07-31 2023-01-31 Nicira, Inc. Methods for active-active stateful network service cluster
US11296984B2 (en) 2017-07-31 2022-04-05 Nicira, Inc. Use of hypervisor for active-active stateful network service cluster
US10705882B2 (en) 2017-12-21 2020-07-07 Cisco Technology, Inc. System and method for resource placement across clouds for data intensive workloads
US11595474B2 (en) 2017-12-28 2023-02-28 Cisco Technology, Inc. Accelerating data replication using multicast and non-volatile memory enabled nodes
US11153122B2 (en) 2018-02-19 2021-10-19 Nicira, Inc. Providing stateful services deployed in redundant gateways connected to asymmetric network
US10511534B2 (en) 2018-04-06 2019-12-17 Cisco Technology, Inc. Stateless distributed load-balancing
US10728361B2 (en) 2018-05-29 2020-07-28 Cisco Technology, Inc. System for association of customer information across subscribers
US10904322B2 (en) 2018-06-15 2021-01-26 Cisco Technology, Inc. Systems and methods for scaling down cloud-based servers handling secure connections
US10764266B2 (en) 2018-06-19 2020-09-01 Cisco Technology, Inc. Distributed authentication and authorization for rapid scaling of containerized services
US11019083B2 (en) 2018-06-20 2021-05-25 Cisco Technology, Inc. System for coordinating distributed website analysis
US10819571B2 (en) 2018-06-29 2020-10-27 Cisco Technology, Inc. Network traffic optimization using in-situ notification system
US10904342B2 (en) 2018-07-30 2021-01-26 Cisco Technology, Inc. Container networking using communication tunnels
EP3900299A4 (de) * 2019-02-05 2022-07-27 Casa Systems, Inc. Verfahren und vorrichtung zur wiederherstellung von netzwerkassoziationsinformationen
KR102192239B1 (ko) * 2019-06-04 2020-12-17 울산대학교 산학협력단 무선네트워크 환경에서의 클러스터 기반 부하분산 방법
US11283648B2 (en) * 2019-08-15 2022-03-22 Forcepoint Llc Resilient tunnels
US11799761B2 (en) 2022-01-07 2023-10-24 Vmware, Inc. Scaling edge services with minimal disruption
US11962564B2 (en) 2022-02-15 2024-04-16 VMware LLC Anycast address for network address translation at edge

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682382A (en) * 1995-09-05 1997-10-28 Massachusetts Institute Of Technology Scalable, self-organizing packet radio network having decentralized channel management providing collision-free packet transfer
US6272523B1 (en) * 1996-12-20 2001-08-07 International Business Machines Corporation Distributed networking using logical processes
US6308328B1 (en) * 1997-01-17 2001-10-23 Scientific-Atlanta, Inc. Usage statistics collection for a cable data delivery system
US6330671B1 (en) * 1997-06-23 2001-12-11 Sun Microsystems, Inc. Method and system for secure distribution of cryptographic keys on multicast networks
US6081840A (en) * 1997-10-14 2000-06-27 Zhao; Yan Two-level content distribution system
ATE239946T1 (de) * 1998-01-23 2003-05-15 Emc Corp Netzzugang zu inhaltsadressierbaren daten
US6076108A (en) * 1998-03-06 2000-06-13 I2 Technologies, Inc. System and method for maintaining a state for a user session using a web system having a global session server
US6751191B1 (en) * 1999-06-29 2004-06-15 Cisco Technology, Inc. Load sharing and redundancy scheme
US7260716B1 (en) * 1999-09-29 2007-08-21 Cisco Technology, Inc. Method for overcoming the single point of failure of the central group controller in a binary tree group key exchange approach
US6807179B1 (en) * 2000-04-18 2004-10-19 Advanced Micro Devices, Inc. Trunking arrangement in a network switch
WO2001082635A1 (en) * 2000-04-21 2001-11-01 Tekelec Methods and systems for providing dynamic routing key registration
US7042876B1 (en) * 2000-09-12 2006-05-09 Cisco Technology, Inc. Stateful network address translation protocol implemented over a data network
US7336613B2 (en) * 2000-10-17 2008-02-26 Avaya Technology Corp. Method and apparatus for the assessment and optimization of network traffic
GB2368228B (en) * 2000-10-18 2003-07-23 3Com Corp Network unit with address cache for frequently occuring network conversations
AU2002214659A1 (en) * 2000-10-26 2002-05-06 James C. Flood Jr. Method and system for managing distributed content and related metadata
US7191438B2 (en) * 2001-02-23 2007-03-13 Lenovo (Singapore) Pte, Ltd. Computer functional architecture and a locked down environment in a client-server architecture
US7310644B2 (en) * 2001-06-06 2007-12-18 Microsoft Corporation Locating potentially identical objects across multiple computers
JP3898498B2 (ja) * 2001-12-06 2007-03-28 富士通株式会社 サーバ負荷分散システム

Also Published As

Publication number Publication date
EP1442575A1 (de) 2004-08-04
DE60221556D1 (de) 2007-09-13
ATE369001T1 (de) 2007-08-15
FI115358B (fi) 2005-04-15
FI20012137A0 (fi) 2001-11-05
FI20012137A (fi) 2003-05-06
WO2003041355A1 (en) 2003-05-15
EP1442575B1 (de) 2007-08-01
US20040197079A1 (en) 2004-10-07

Similar Documents

Publication Publication Date Title
DE60221556T2 (de) Verfahren und system zur zustandslosen lastverteilung für ein server-cluster in einem auf ip basierenden telekommunikationsnetz
DE60112115T2 (de) Erweiterungen eines signalisierungs-übertragungsprotokolls für lastausgleich undserverpool-unterstützung
DE69837938T2 (de) Übergreifende bildung von server clustern mittels einer netzwerkflussvermittlung
DE602004002672T2 (de) Shared-risk-gruppenhandhabung in einem media-gateway
DE60318878T2 (de) Verfahren und systeme zum austausch von erreichbarkeitsinformationen und zum umschalten zwischen redundanten schnittstellen in einem netzwerkcluster
DE69837691T2 (de) Lastverteilung zwischen Servern in einem TCP/IP-Netz
DE69727447T2 (de) Übertragungstrennung und Ebene-3-Netzwerk-Vermittlung
DE69812777T2 (de) Verbindung von Ethernetkompatiblen Netzwerken
DE102006021591B3 (de) Verfahren und Anordnung zur Datenübertragung zwischen Peer-to-Peer-Netzwerken
DE112020001459T5 (de) Konsistente Route-Ankündigungen zwischen redundanten Controllern im globalen Netzwerk-Access-Point
DE60303384T2 (de) Lastausgleich in datennetzwerken
DE112004001819B4 (de) Endpunkt-Registrierung mit lokaler Verzögerungszeit in einem Rufabwicklungssystem
DE102022202781A1 (de) Effiziente ausbreitung von benachrichtigungen über fehlerhafte weiterleitungen
DE60313026T2 (de) Verfahren und gerät zur verteilung von datenpaketen von einem computer zu einem clustersystem
DE112018000330T5 (de) Verfahren und System zur skalierbaren Downlink-Datenlastverteilung zwischen Datenverarbeitungseinheiten eines mobilen Paketdaten-Gateways mit Netzwerkadressübersetzung
DE602004003554T2 (de) Media gateway
WO2012130263A1 (de) Verfahren zur adressierung von nachrichten in einem computernetzwerk
DE60302042T2 (de) Netzwerkwartung
DE10324372B4 (de) Verfahren und Anordnung zur Anmeldung eines Endgerätes an einem Kommunikationsknoten
DE10321227A1 (de) Verfahren zum Datenaustausch zwischen Netzelementen
DE69938391T2 (de) Telefonvermittlungsstelle mit integrierten internetzugriffservern
DE60021994T2 (de) Verfahren und System zur adaptiven Zuweisung von Anrufaufgaben
DE60130141T2 (de) Bindeinformationen für telekommunikationsnetze
DE102004058927B3 (de) Aggregation der inter-domain Ressourcen-Signalisierung
DE10230688A1 (de) Kommunikationsnetz mit Kommunikations-Komponenten mit Client- und Server-Funktionalitäten und mit Suchfunktionen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition