DE60221156T2 - Verfahren und system zur verteilung der arbeitslast in einem netzwerk von rechnersystemen - Google Patents

Verfahren und system zur verteilung der arbeitslast in einem netzwerk von rechnersystemen Download PDF

Info

Publication number
DE60221156T2
DE60221156T2 DE60221156T DE60221156T DE60221156T2 DE 60221156 T2 DE60221156 T2 DE 60221156T2 DE 60221156 T DE60221156 T DE 60221156T DE 60221156 T DE60221156 T DE 60221156T DE 60221156 T2 DE60221156 T2 DE 60221156T2
Authority
DE
Germany
Prior art keywords
dbms
component
client
network address
components
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60221156T
Other languages
English (en)
Other versions
DE60221156D1 (de
Inventor
Shrivam San Jose GANDURI
James Gilroy PICKEL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE60221156D1 publication Critical patent/DE60221156D1/de
Publication of DE60221156T2 publication Critical patent/DE60221156T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/45Network directories; Name-to-address mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1038Load balancing arrangements to avoid a single path through a load balancer
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer And Data Communications (AREA)
  • Multi Processors (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)
  • Hardware Redundancy (AREA)
  • Small-Scale Networks (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft allgemein eine Ferndatenbank, die von einer Gruppe von Datenbankverwaltungssystem-Servern verwaltet wird, und insbesondere ein Verfahren und ein System, die es einem Client-System ermöglichen, Zugriff auf die Ferndatenbank zu erlangen, um die Arbeitslast gleichmäßig zu verteilen und eine Neusynchronisierung durchzuführen.
  • DER ERFINDUNG ZUGRUNDE LIEGENDER ALLGEMEINER STAND DER TECHNIK
  • In der Informationstechnologie wünschen sich Kunden heute Systeme, die sich durch eine bessere Leistungsfähigkeit und durch Kostenvorteile gegenüber ihren aktuellen Systemen auszeichnen, bei denen sie jedoch ihre vorhandenen Anwendungen weiterhin nutzen können. Eine hohe Verfügbarkeit ist angesichts der heutigen zunehmend mobilen Arbeitswelt und der globalen Verbindungsmöglichkeiten über das Internet ebenfalls wichtig. Moderne Verarbeitungssysteme für Anwendungen in der Informationstechnologie müssen skalierbar sein und eine stufenweise Erweiterung sowie eine ständige Verfügbarkeit der Anwendung ermöglichen. Um diese Erfordernisse hinsichtlich der Konzeption zu erfüllen, wurde die Clustering-Technologie, zum Beispiel das S/390-Parallel-Sysplex-Modell der IBM Corporation, entwickelt.
  • Ein Cluster (Rechnerverbund) verbindet einzelne Datenverarbeitungssysteme so, dass ein einziges leistungsfähiges System entsteht, das zahlreiche Benutzer gleichzeitig unterstützen kann. Ein Cluster bietet eine hohe Verfügbarkeit und hervorragende Skalierbarkeit. Wenn ein System/Knoten in dem Cluster ausfällt, können die anderen Systeme in dem Cluster weiterhin betrieben werden.
  • Die Cluster-Technologie bietet viele Vorteile in einem parallelen Datenbankverwaltungssystem. 1 zeigt zum Beispiel eine aus drei Rechnern 101 bis 103 bestehende Sysplex-Umgebung 100, die Plattenspeicherplatz wie zum Beispiel eine Gruppe 110 aus Speichereinheiten, beispielsweise die Plattenlaufwerke 111 bis 113, auf denen sich eine Datenbank befindet, gemeinsam benutzen. Jeder Rechner 101 bis 103 enthält eine Datenbankverwaltungssystem-(DBMS-)Komponente 121 bis 123 und einen zugehörigen Protokolldatensatz 151 bis 153, um eine Festschreibungs- oder Zurücksetzungsoperation einer Arbeitseinheit zu verwalten. Der Zugriff auf jeden Protokolldatensatz 151 bis 153 kann nur von der DBMS-Komponente erfolgen, der er gehört. Jede DBMS-Komponente 121 bis 123 weiß, wie sie Daten mit anderen DBMS-Komponenten austauschen muss, und sie weiß, wie der ihnen gemeinsame Datenbestand 110 zu verwalten ist. Eine Kopplungseinrichtung (coupling facility) 120 verbindet die Rechner 101 bis 103 miteinander und mit der Gruppe 110 der Speichereinheiten 111 bis 113. Die Kopplungseinrichtung 120 enthält auch ein Arbeitslast-Verwaltungsprogramm (Work Load Manager (WLM)) 124, das die Arbeitslast einer jeden DBMS-Komponente 121 bis 123 verwaltet, überwacht und gleichmäßig verteilt.
  • Auf den Sysplex 100 kann eine Vielzahl von Client-Systemen 140 über eine Netzwerkverbindung 145, üblicherweise über ein TCP/IP-Netzwerk, zugreifen. Aus Gründen der Übersichtlichkeit ist in 2 nur ein Client 140 gezeigt. Der Client 140 könnte ein weiterer paralleler Sysplex oder ein Arbeitsplatzrechner oder ein anderer Personal Computer sein. Der Client 140 sieht den Sysplex 100 als ein ganzes Abbild, d.h., der Client 140 betrachtet den Sysplex als eine einzige Ferndatenbank und nicht als eine Vielzahl von einzelnen DBMS-Komponenten 121 bis 123. Wenn der Client 140 eine Anforderung oder einen Befehl an die Datenbank übergeben möchte, braucht der Client 140 nur eine Übertragung mit einer DBMS-Komponente, zum Beispiel der Komponente 121, des Sysplex 100 einzuleiten. Um Zugriff auf die eine Komponente 121 zu erlangen, sendet der Client 140 eine Nachricht an einen Domänennamenserver (DNS) 130, mit der er um eine Netzwerkadresse, beispielsweise eine IP-Adresse, eines Rechners 101 bis 103 in dem Sysplex 100 bittet, der eine aktive DBMS-Komponente 121 bis 123 enthält.
  • Der DNS 130 ist eng mit dem Arbeitslast-Verwaltungsprogramm (WLM) 124 verbunden, d.h., er ist darin eingebunden, und er führt ein Verzeichnis von all den verschiedenen Rechnergruppen, d.h. Sysplexes, in dem Netzwerk und ihrer jeweiligen IP-Adressen. Für jede Rechnergruppe wird ein Domänenname wie zum Beispiel "system1.vnet.ibm.com" vergeben, und jeder Rechner in der Gruppe hat eine eigene IP-Adresse. Der Client 140 meldet beim DNS 130, dass seine Datenbanken Teil des Systems mit der Bezeichnung "system1.vnet.ibm.com." sind. Da der DNS 130 die IP-Adressen verwaltet, muss der Client 140 die IP-Adressen der einzelnen Rechner nicht fest codieren. Wenn der Client 140 dem DNS 130 seine Anforderung für die Anbindung an eine Datenbank übergibt, gibt der Client 140 folglich den Domänennamen des Datenbank-Speicherplatzes an, und der DNS 130 löst den Domänennamen in eine bestimmte Gruppe von IP-Adressen auf.
  • In einer weiteren Reaktion auf die Anforderung des Client 140 fragt der DNS 130 bei dem WLM 124 nach, um festzustellen, welche DBMS-Komponenten 121 bis 123 aktiv sind und auf welchen Rechnern 101 bis 103 sie sich befinden. Der DNS 130 sendet dann eine Nachricht an den Client 140 zurück, die die IP-Adresse eines Rechners 101, 102, 103 enthält, der eine aktive DBMS-Komponente für diese benannte Gruppe enthält. In einer Sysplex-Umgebung, die eine gleichmäßige Verteilung der Arbeitslast unterstützt, ist die vom DNS 130 an den Client 140 zurückgeschickte IP-Adresse die Adresse desjenigen Rechners, dessen DBMS-Komponente die geringste Auslastung aufweist. Um die DBMS-Komponente mit der geringsten Auslastung zu ermitteln, tauscht der DNS 130 mit dem WLM 124, das auch die Arbeitslast einer jeden DBMS-Komponente 121 bis 123 überwacht, Daten aus. Der Client 140 verwendet dann diese IP-Adresse zur Herstellung einer ersten Verbindung mit dem entsprechenden Rechner, der die DBMS-Komponente in dem Sysplex enthält.
  • Sobald die erste Verbindung zwischen dem Client 140 und der einen DBMS-Komponente, zum Beispiel der Komponente 121, hergestellt wurde, schickt die DBMS-Komponente 121 dem Client 140 eine Liste (nicht gezeigt) der aktiven DBMS-Komponenten und ihrer jeweiligen Arbeitslasten, d.h. eine gewichtete Liste, zurück. Die Liste ermöglicht dem Client, die Arbeit gleichmäßig auf die aktiven Komponenten des Datenbank-Sysplex zu verteilen.
  • Diese Konfiguration sieht eine gemeinsame Nutzung der Daten und eine gleichmäßige Verteilung der Arbeitslast für eine Vielzahl von Clients vor. Die enge Verbindung des DNS 130 mit dem WLM 124 stellt jedoch mehrere Probleme dar. Erstens sind auf vielen Sysplex-Systemen keine Domänennamenserver installiert, und Kunden binden einen DNS nur ungern in ihre vorhandenen TCP/IP-Netzwerke ein. Ohne den DNS 130 kann der Client 140 aber keinen Kontakt mit der Datenbank herstellen, und folglich funktioniert die verteilte Sysplex-Strategie nicht. Zweitens ist der Austausch von Daten zwischen dem WLM und dem DNS mit einer Latenzzeit verbunden, selbst wenn ein vom WLM aktivierter DNS installiert wird. Wenn der Client 140 ein Verbindungsrechner (Gateway) ist, der mehrere Anforderungen an den DNS 130 sendet, kann die aufgrund der Latenzzeit auftretende Verzögerung folglich die Leistungsfähigkeit beeinträchtigen. Drittens ist eine Einbindung des WLM und des DNS schwierig und komplex, da der DNS üblicherweise eine auf UNIX beruhende Anwendung und das WLM eine Datenbankanwendung ist.
  • Es besteht folglich ein Bedarf an einem Verfahren und einem System, die die gleichmäßige Verteilung der Arbeitslast in einem Sysplex-System unterstützen und die Leistungsfähigkeit eines solchen Systems verbessern. Das Verfahren und das System sollten einfach zu realisieren sein und keine umfangreichen Änderungen an vorhandenen Systemen erforderlich machen. Die vorliegende Erfindung geht diesen Bedarf an.
  • Die US-Patentschrift US 5 774 660 (Liu Zaide u.a.) mit dem Titel "World-wide-web server with delayed resource-binding for resource-based load balancing an a distributed resource multinode network" beschreibt eine Website, um Ressourcen an einen Browser auf einem Client zu senden, der mit einem Rechnernetzwerk verbunden ist. Ein Server mit mehreren Knoten sendet Seiten des World Wide Web an Clients mit einem netzwerkbasierten Browser. Eine Lastverteilungseinheit (load balancer) empfängt alle Anforderungen von Clients, da sie eine virtuelle Adresse für die gesamte Site verwenden. Die Lastverteilungseinheit stellt eine Verbindung mit dem Client her und wartet auf die URL von dem Client. Die URL gibt die angeforderte Ressource an. Die Lastverteilungseinheit wartet mit der Durchführung der Lastverteilung, bis der Speicherort der angeforderten Ressource bekannt ist. Die Verbindung und die Anforderung der URL werden von der Lastverteilungseinheit an einen zweiten Knoten weitergereicht, der über die angeforderte Ressource verfügt. Die Lastverteilungseinheit wiederholt die Paketfolge der ersten Verbindung für den zweiten Knoten, ändert aber für diesen Knoten die Adresse zu der Folge. Die Netzwerk-Software wird so geändert, dass sie die physische Netzwerkadresse des zweiten Knotens erzeugt, ändert dann aber die Zieladresse wieder in die virtuelle Adresse zurück. Der zweite Knoten sendet die angeforderte Ressource mit der virtuellen Adresse als ihre Quelle direkt an den Client. Da alle Anforderungen zuerst von der Lastverteilungseinheit empfangen werden, welche den physischen Speicherort der angeforderten Ressource feststellt, können Knoten unterschiedliche Ressourcen enthalten. Der gesamte Inhalt der Website wird nicht auf allen Knoten gespiegelt. Engpässe im Netzwerk werden vermieden, da die Knoten die großen Dateien direkt an den Client zurücksenden und dabei die Lastverteilungseinheit umgehen. Client-Browser können die virtuelle Adresse im Cachespeicher zwischenspeichern, obgleich verschiedene Koten mit verschiedenen physischen Adressen Anforderungen bedienen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Anbindung eines Client an eine Datenbank, die von einem Netzwerk aus Rechnersystemen verwaltet wird, welche über eine Vielzahl von Datenbankverwaltungssystem-(DBMS-)Komponenten verfügen. Das Verfahren und das System beinhalten die Bereitstellung einer gemeinsam benutzten Netzwerkadresse für die Vielzahl der DBMS-Komponenten, die von dem Client für seine Anbindung an eine aktive DBMS-Komponente der Vielzahl der DBMS-Komponenten verwendet wird.
  • Durch die Aspekte der vorliegenden Erfindung ermöglicht die gemeinsam benutzte Netzwerkadresse dem Client die Anbindung an eine beliebige Komponente der Vielzahl der DBMS-Komponenten über einen Netzwerk-Router, solange eine DBMS-Komponente aktiv ist. Sobald der Client mit einer Komponente verbunden ist, sendet die Komponente dem Client eine Liste aller aktiven Komponenten und ihrer jeweiligen Arbeitslasten. Die Liste enthält auch komponentenspezifische Netzwerkadressen, die einer jeden Komponente entsprechen, so dass der Client die Arbeit gleichmäßig auf die aktiven Komponenten verteilen kann.
  • Durch einen weiteren Aspekt der vorliegenden Erfindung ist die komponentenspezifische Netzwerkadresse eine der entsprechenden DMBS-Komponente eigene Adresse, und sie ist mit dieser Komponente verknüpft und nicht mit dem Rechner, auf dem sie sich möglicherweise befindet. Wenn ein Rechner, auf dem sich die DBMS-Komponente befindet, abstürzt oder wenn die DBMS-Komponente abstürzt und auf einem anderen Rechner neu gestartet wird, kann der Client folglich einen Neusynchronisierungsprozess durchführen, zum Beispiel einen Festschreibungs- oder Zurücksetzungsprozess, indem er mittels der komponentenspezifischen Netzwerkadresse wieder eine Verbindung zu der entsprechenden Komponente herstellt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine in der Technik bekannte Sysplex-Umgebung.
  • 2 zeigt eine Sysplex-Umgebung gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung.
  • 3 ist ein Flussdiagramm, das den Prozess der gleichmäßigen Verteilung der Arbeitslast gemäß der vorliegenden Erfindung zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die vorliegende Erfindung betrifft allgemein eine Ferndatenbank, die von einer Gruppe von Datenbankverwaltungssystem-Servern verwaltet wird, und insbesondere ein Verfahren und ein System, die es einem Client-System ermöglichen, Zugriff auf die Ferndatenbank zu erlangen, um die Arbeitslast gleichmäßig zu verteilen und um eine Neusynchronisierung durchzuführen. Die folgende Beschreibung wird vorgelegt, um einem Fachmann die Herstellung und die Nutzung der Erfindung zu ermöglichen, und sie wird im Rahmen einer Patenanmeldung und deren Erfordernisse bereitgestellt. Verschiedene mögliche Änderungen an der bevorzugten Ausführungsform und den allgemeinen Grundsätzen und Merkmalen, die hier beschrieben werden, sind für den Fachmann ohne weiteres erkennbar. Folglich soll die vorliegende Erfindung nicht auf die dargestellte Ausführungsform beschränkt sein, sondern ihr soll der größtmögliche Schutzumfang in Übereinstimmung mit den hier beschriebenen Grundsätzen und Merkmalen zugebilligt werden.
  • Gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung werden jeder DBMS-Komponente in dem Sysplex zwei Netzwerkadressen zugewiesen. Die erste Adresse ist eine gemeinsame Netzwerkadresse, die von allen DBMS-Komponenten in dem Sysplex gemeinsam verwendet wird. Der Client verwendet die gemeinsam benutzte Netzwerkadresse, um auf den Sysplex über einen standardmäßigen Router zuzugreifen, der den Client mit jeder aktiven Komponente verbinden kann, die sich an der gemeinsam benutzten Netzwerkadresse befindet. Die zweite Netzwerkadresse, die jeder DBMS-Komponente zugewiesen wird, ist komponentenspezifisch und der Komponente fest zugeordnet. Sobald der Client über die gemeinsam benutzte Netzwerkadresse mit einer Komponente in Kontakt getreten ist, stellt diese Komponente dem Client eine gewichtete Liste zur Verfügung, die die komponentenspezifische Netzwerkadresse einer jeden aktiven Komponente enthält. Der Client kann die Arbeit dann gleichmäßig auf die anderen aktiven Komponenten verteilen. Wenn die Verbindung zwischen dem Client und einer bestimmten Komponente während eines Festschreibungsprozesses unterbrochen wird, kann der Client überdies problemlos wieder eine Verbindung mit der bestimmten Komponente herstellen, indem er die komponentenspezifische Netzwerkadresse dieser Komponente verwendet. Folglich werden eine gleichmäßiger Verteilung der Arbeitslast und eine Neusynchronisierung erreicht, ohne dass ein DNS in das Sysplex-System eingebunden werden muss.
  • 2 zeigt eine Sysplex-Umgebung 200 gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung. Wie gezeigt ist, enthält der Sysplex 200 eine Vielzahl von vernetzten Rechnern 201 bis 203, die mit einer Kopplungseinrichtung 220 verbunden sind, welche wiederum mit einer Gruppe 210 von Speichereinheiten 211 bis 213 verbunden ist, auf denen sich die Datenbank befindet. Zwar kann jeder der Rechner 201 bis 203 eine DBMS-Komponente 221 bis 223 enthalten, doch ist dies nicht unbedingt erforderlich. In einer bevorzugten Ausführungsform der vorliegenden Erfindung ist ein Client 240 mit einem Netzwerk-Router 250 verbunden, der wiederum mit dem Sysplex-Netzwerk 200 verbunden ist. 2 zeigt zwar eine Verbindung zwischen einem einzigen Router 250 und einem einzigen Client 240, doch sollte klar sein, dass eine Vielzahl von Routern und eine Vielzahl von Clients mit dem Sysplex-Netzwerk 200 verbunden werden können.
  • Gemäß einer bevorzugten Ausführungsform werden jeder DBMS-Komponente 221 bis 223 zwei Netzwerkadressen zugewiesen. Die erste Netzwerkadresse ist eine gemeinsam benutzte Netzwerkadresse (YYY), die allen Komponenten 221 bis 223 des Sysplex 200 gemeinsam ist. Die gemeinsam benutzte Netzwerkadresse YYY stellt den Ort dar, an dem die gesamte Datenbank gemeinsam benutzt wird, und der Client 240 verwendet sie, um auf die Datenbank als ein einziges Abbild zuzugreifen. Die zweite Netzwerkadresse, die jeder Komponente 221 bis 223 zugewiesen wird, ist eine komponentenspezifische Netzwerkadresse (XXA, XXB, XXC). Keine zwei Komponenten des Sysplex haben dieselbe komponentenspezifische Netzwerkadresse. Sowohl die gemeinsam benutzte Netzwerkadresse als auch die komponentenspezifische Netzwerkadresse sind mit der entsprechenden DBMS-Komponente 221 bis 223 und nicht mit dem Rechner 201 bis 203 verknüpft, auf dem sich die Komponente möglicherweise befindet. Dies ist vor allem bei einer Neusynchronisierung von Bedeutung.
  • Die gemeinsam benutzte Netzwerkadresse (YYY) wird für einen Zugriff auf jede beliebige DBMS-Komponente 221 bis 223 des Sysplex 200 konfiguriert. Solange eine DBMS-Komponente 221 bis 223 aktiv ist, verbindet der Netzwerk-Router 250 daher den Client 240 mit einer der aktiven Komponenten 221 bis 223. In einer bevorzugten Ausführungsform tauscht der Netzwerk-Router 250 mit jeder DBMS-Komponente 221 bis 223 Daten direkt aus, und er kennt den Status einer jeden Komponente, d.h., er weiß, ob sie aktiv oder inaktiv ist. Der Router 250 kann folglich direkt Daten an eine der aktiven Komponenten 221 bis 223 weiterleiten. In einer anderen Ausführungsform wird der Netzwerk-Router 250 mit einem WLM 224 verbunden, dem die gleichen Statusinformationen entnommen werden können.
  • Ein DNS 230 wird mit dem Client 240 verbunden, aber nicht in das Sysplex-Netzwerk 200 eingebunden. Wie zuvor führt der DNS 230 ein Verzeichnis von Domänennamen von Datenbankspeicherplätzen. In der bevorzugten Ausführungsform der vorliegenden Erfindung braucht der DNS 230 nur die gemeinsam benutzte Netzwerkadresse eines jeden Speicherplatzes der Ferndatenbank zu speichern. Wenn der Client 240 mittels des Domänennamens des Datenbankspeicherplatzes auf eine Ferndatenbank zugreifen möchte, löst der DNS 230 folglich den Domänennamen in eine Netzwerkadresse auf, d.h. in die gemeinsam benutzte Netzwerkadresse, und schickt diese Adresse an den Client 240 zurück.
  • Sobald der Client 240 den Kontakt mit einer der aktiven DBMS-Komponenten, zum Beispiel der Komponente 221, hergestellt hat, übernimmt ein Datenbankprotokoll und schickt eine gewichtete Liste 260 der aktiven DBMS-Komponenten 221 bis 223 zurück. In einer bevorzugten Ausführungsform enthält die gewichtete Liste 260 die jeweiligen Arbeitslasten 261 einer jeden Komponente und die komponentenspezifische Netzwerkadresse 262 einer jeden Komponente. Der Client 240 kann dann die gewichtete Liste 260 zur gleichmäßigen Verteilung neuer Verbindungen auf die aktiven Komponenten 221 bis 223 des Datenbank-Sysplex 200 verwenden und dadurch die Arbeitslast gleichmäßig verteilen.
  • 3 zeigt einen Prozess zur gleichmäßigen Verteilung der Arbeitslast gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung. Der Prozess 300 beginnt, indem jeder DBMS-Komponente 221 bis 223 durch den Schritt 310 eine gemeinsam benutzte Netzwerkadresse (YYY) zugewiesen wird. Die gemeinsam benutzte Netzwerkadresse (YYY) ist bei allen Komponenten 221 bis 223 des Sysplex 200 gleich. Über den Schritt 320 bittet der Client 240 den DNS 230 um Auflösung des Domänennamens eines Datenbankspeicherplatzes, der zu einer Datenbank gehört, die sich in dem Sysplex 200 befindet. Der DNS 230 löst den Domänennamen in die gemeinsam benutzte Netzwerkadresse (YYY) auf und schickt sie über den Schritt 330 an den Client 240 zurück. Alternativ dazu kann der Client 240 sein eigenes Verzeichnis (nicht gezeigt) verwalten, das die gemeinsam benutzten Netzwerkadressen seiner Datenbanken enthält.
  • Im Schritt 340 bittet der Client 240 den Netzwerk-Router 250, die gemeinsam benutzte Netzwerkadresse (YYY) der Datenbank weiterzuleiten. Der Router 250 stellt fest, welche DBMS-Komponenten 221 bis 223 gegebenenfalls aktiv sind, und verbindet den Client 240 im Schritt 350 mit einer beliebigen der aktiven DBMS-Komponenten 221 bis 223. Sobald der Client 240 mit einer DBMS-Komponente verbunden ist, schickt diese DBMS-Komponente im Schritt 360 die gewichtete Liste 260 an den Client 240 zurück, der die Arbeit dann unter Verwendung der komponentenspezifischen Netzwerkadressen 262 im Schritt 370 gleichmäßig auf die aktiven Komponenten verteilen kann.
  • Wie vorstehend erklärt wurde, kann der Client 240 einer bestimmten DBMS-Komponente Arbeit zuweisen, wobei er wahrscheinlich die Komponente mit der geringsten Auslastung wählt, zum Beispiel die Komponente 221, indem er die Anforderung oder den Befehl an die komponentenspezifische Netzwerkadresse (XXA) der Komponente weiterleitet. Zudem bietet die komponentenspezifische Netzwerkadresse einen weiteren Vorteil, wenn der Datenaustausch zwischen dem Client 240 und einer Komponente 221 während einer zweiphasigen Festschreibungsprozedur unterbrochen und die Komponente 221 auf einem anderen Rechner, zum Beispiel dem Rechner 202 oder dem Rechner 203, neu gestartet wird.
  • Wie vorstehend erwähnt wurde, "besitzt" jede DBMS-Komponente 221 bis 223 einen Protokolldatensatz 251 bis 253, der jede Arbeitseinheit erfasst, die von der DBMS-Komponente verarbeitet wird, welcher der Protokolldatensatz gehört. Nur die DBMS-Komponente kann auf ihren Protokolldatensatz zugreifen, d.h., die Daten in dem Protokolldatensatz werden von den Komponenten nicht gemeinsam benutzt. Wenn während des zweiphasigen Festschreibungsprozesses ein Datenübertragungsfehler auftritt, muss sich der Client 240 mit der Komponente des Sysplex, zum Beispiel der Komponente 221, "neu synchronisieren", der die Protokolldatensätze 251 gehören, die der Arbeitseinheit des Client 240 zugeordnet sind. Der Neusynchronisierungsprozess ermöglicht dem Client 240, den Ausgang (Erfolg oder Scheitern) der Arbeitseinheit an der DBMS-Komponente 221 festzustellen. Zur Durchführung einer Neusynchronisierung muss der Client 240 jedoch den Datenaustausch mit der Komponente 221 wieder aufnehmen, die die ursprüngliche Arbeitseinheit ausgeführt hat.
  • Gemäß dem Verfahren und dem System der vorliegenden Erfindung wird die komponentenspezifische Netzwerkadresse (XXA) mit ihrer entsprechenden Komponente und nicht mit dem Rechner verknüpft, auf dem diese Komponente 221 möglicherweise läuft. Der Client 240 braucht nur die komponentenspezifische Netzwerkadresse (XXA) zu verwenden, um wieder eine Verbindung mit der Komponente 221 herzustellen, ungeachtet dessen, wo sie neu gestartet worden ist. Bislang war es schwierig, die Netzwerkadresse einer bestimmten Komponente ausfindig zu machen, die auf einem anderen Rechner neu gestartet worden ist, beispielsweise aufgrund des Ausfalls eines Rechners, nun aber ist diese Aufgabe gemäß dem Verfahren und dem System der vorliegenden Erfindung somit einfach geworden.
  • Durch Aspekte des Verfahrens und des Systems der vorliegenden Erfindung kann die gleichmäßige Verteilung der Arbeitslast und eine Neusynchronisierung von Festschreibungen in einem Sysplex-Netzwerk durchgeführt werden, ohne dass ein DNS eng mit dem Sysplex verbunden sein muss. Probleme in Verbindung mit der Einbindung einer auf UNIX beruhenden Anwendung in eine Datenbankanwendung werden vermieden. Indem der DNS durch einen Netzwerk-Router ersetzt wird, entfällt die mit dem DNS verbundene Latenzzeit, und der Zeitraum, der notwendig ist, um eine Erstverbindung zwischen dem Client und dem Sysplex herzustellen, wird verringert, wodurch die Leistungsfähigkeit verbessert wird. Überdies sind keine Änderungen an dem Client notwendig, um das Verfahren und das System der vorliegenden Erfindung zu realisieren.
  • Obgleich die vorliegende Erfindung gemäß den gezeigten Ausführungsformen beschrieben wurde, erkennt der Fachmann ohne weiteres, dass an den Ausführungsformen Veränderungen vorgenommen werden könnten und dass diese Veränderungen unter den Umfang der vorliegenden Erfindung fallen würden. Folglich kann der Fachmann viele Änderungen vornehmen, ohne vom Umfang der beigefügten Ansprüche abzuweichen.
  • Zwar wurde die vorliegende Erfindung mit Bezug auf eine Sysplex-Umgebung beschrieben, doch könnte die Erfindung beispielsweise auch auf andere Systeme mit mehreren Servern, wie den Servern in einem einzelnen System, zum Beispiel einem Server mit mehreren Prozessoren und einem gemeinsam benutzten Speicher, oder auf ein Netzwerk aus Systemen angewendet werden. Obgleich diese Erfindung mit Bezug auf einen DBMS-Server wie zum Beispiel ein relationales Datenbankverwaltungssystem-Produkt, so zum Beispiel das Produkt IBM DB2, beschrieben wurde, kann die Erfindung auf jede beliebige Art eines Servers angewendet werden, zum Beispiel auf Dateiserver, Druckserver, Dateiübertragungsprogramme usw.

Claims (15)

  1. Verfahren zur Anbindung eines Client (240) an eine Datenbank (210), die von einem Netzwerk (200) aus Rechnersystemen (201 bis 203) verwaltet wird, wobei die Rechnersysteme (201 bis 203) eine Vielzahl von Datenbankverwaltungssystem-Komponenten, DBMS-Komponenten, (221 bis 223) enthalten, wobei das Verfahren die folgenden Schritte umfasst: a) Bereitstellen (310) einer gemeinsam benutzten Netzwerkadresse (YYY) für die Vielzahl der DBMS-Komponenten (221 bis 223); und b) Verwenden der gemeinsam benutzten Netzwerkadresse (YYY) durch den Client (240) zur Anbindung an eine aktive DBMS-Komponente der Vielzahl der DBMS-Komponenten (221 bis 223); wobei der Schritt der Verwendung der gemeinsam benutzten Netzwerkadresse die folgenden weiteren Schritte umfasst: (b1) Feststellen (350), welche der Vielzahl der DBMS-Komponenten (221 bis 223), die sich an der gemeinsam benutzten Netzwerkadresse (YYY) befinden, aktiv sind; (c) Senden einer Liste (260) der aktiven DBMS-Komponenten von einer aktiven DBMS-Komponente an den Client (240) und Bereitstellen (360) einer gewichteten Arbeitslast (261) für jede aktive DBMS-Komponente (221 bis 223); (d) Ermitteln einer komponentenspezifischen Netzwerkadresse (262), die zu jeder aktiven DBMS-Komponente gehört; (e) gleichmäßiges Verteilen (370) einer Arbeitslast auf die aktiven DBMS-Komponenten auf der Grundlage ihrer jeweiligen gewichteten Arbeitslasten.
  2. Verfahren nach Anspruch 1, wobei die gemeinsam benutzte Netzwerkadresse (YYY) allen DBMS-Komponenten der Vielzahl der DBMS-Komponenten (221 bis 223) gemeinsam ist.
  3. Verfahren nach Anspruch 1, wobei der Verwendungsschritt (b) des Weiteren die folgenden Schritte beinhaltet: (b1) Übergeben (320) eines Domänennamens für den Datenbank-Speicherplatz (210) an einen Domänennamenserver (230), der mit dem Client (240) verbunden ist; (b2) Auflösen (330) des Domänennamens in die gemeinsam benutzte Netzwerkadresse (YYY); und (b3) Zurückschicken der gemeinsam benutzten Netzwerkadresse (YYY) von dem Domänennamenserver (230) an den Client (240).
  4. Verfahren nach Anspruch 1, wobei der Verwendungsschritt (b) des Weiteren den folgenden Schritt beinhaltet: (b1) Senden der gemeinsam benutzten Netzwerkadresse (YYY) durch den Client (240) an einen Netzwerk-Router (250), der mit dem Netzwerk (200) aus Rechnersystemen verbunden ist.
  5. Verfahren nach Anspruch 1, wobei der Feststellungsschritt (b1) des Weiteren Folgendes beinhaltet: (b1i) Austauschen von Daten mit einem Arbeitslast-Verwaltungsprogramm, das mit der Vielzahl der DBMS-Komponenten verbunden ist, wobei das Arbeitslast-Verwaltungsprogramm den Status und die Arbeitslast einer jeden aktiven DBMS-Komponente überwacht.
  6. Verfahren nach Anspruch 1, wobei der Verwendungsschritt (b) des Weiteren den folgenden Schritt beinhaltet: (b2) Verbinden (350) des Client (240) mit einer beliebigen der aktiven DBMS-Komponenten (221 bis 223), die sich an der gemeinsam benutzten Netzwerkadresse (YYY) befinden.
  7. Verfahren nach Anspruch 1, das des Weiteren den folgenden Schritt umfasst: (c) Zuweisen einer entsprechenden komponentenspezifischen Netzwerkadresse (262) zu jeder DBMS-Komponente der Vielzahl der DBMS-Komponenten, wobei die komponentenspezifische Netzwerkadresse (262) der entsprechenden Komponente ungeachtet ihres Speicherplatzes zugeordnet wird.
  8. Verfahren nach Anspruch 7, das des Weiteren den folgenden Schritt umfasst: (d) Verwenden der komponentenspezifischen Netzwerkadresse (262) einer DBMS-Komponente zur Wiederherstellung einer Verbindung zu der DBMS-Komponente, um einen Neusynchronisierungsprozess durchzuführen, nachdem eine erste Verbindung zu der DBMS-Komponente unterbrochen worden ist.
  9. Rechnerprogramm, das Befehle umfasst, um, wenn es auf einem Rechner ausgeführt wird, das Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen, wobei der Schritt (a) von einem DNS-Server ausgeführt wird, die Schritte (b) und (e) von einem Client ausgeführt werden, der Schritt (b1) von einem Router ausgeführt wird, und die Schritte (c) und (d) von einer DBMS-Komponente ausgeführt werden.
  10. System zur Anbindung eines Client an eine Datenbank, die von einem Netzwerk (200) aus Rechnersystemen (201 bis 203) verwaltet wird, wobei die Rechnersysteme (201 bis 203) eine Vielzahl von Datenbankverwaltungssystem-Komponenten, DBMS-Komponenten, (221 bis 223) enthalten, wobei das System Folgendes umfasst: eine gemeinsam benutzte Netzwerkadresse (YYY) für die Vielzahl der DBMS-Komponenten (221 bis 223); und einen Netzwerk-Router (250), der mit dem Client (240) verbunden ist, um die gemeinsam benutzte Netzwerkadresse (YYY) zur Anbindung des Client (240) an eine aktive DBMS-Komponente der Vielzahl der DBMS-Komponenten zu verwenden; wobei der Netzwerk-Router ein Mittel umfasst, um festzustellen, welche der Vielzahl der DBMS-Komponenten, die sich an der gemeinsam benutzten Netzwerkadresse (YYY) befinden, aktiv sind; wobei jede aktive DBMS-Komponente des Weiteren ein Mittel enthält, um eine Liste (260) von aktiven DBMS-Komponenten an den Client (240) zu senden (360), und ein Mittel, um eine gewichtete Arbeitslast (261) für jede aktive DBMS-Komponente bereitzustellen, und ein Mittel, um eine komponentenspezifische Netzwerkadresse (262) zu ermitteln, die zu jeder aktiven DBMS-Komponente gehört; und wobei der Client (240) über ein Mittel verfügt, um Arbeit auf der Grundlage ihrer jeweiligen gewichteten Arbeitslasten gleichmäßig auf die aktiven DBMS-Mitglieder zu verteilen (370).
  11. System nach Anspruch 10, wobei die gemeinsam benutzte Netzwerkadresse (YYY) allen DBMS-Komponenten der Vielzahl der DBMS-Komponenten (221 bis 223) gemeinsam ist.
  12. System nach Anspruch 10, das des Weiteren Folgendes umfasst: einen Domänennamenserver (230), der mit dem Client (240) verbunden ist, wobei der Client dem Domänennamenserver einen Domänennamen für das Netzwerk aus Rechnersystemen übergibt und der Domänennamenserver den Domänennamen in die gemeinsam benutzte Netzwerkadresse (YYY) auflöst und die gemeinsam benutzte Netzwerkadresse an den Client (240) zurückschickt.
  13. System nach Anspruch 10, wobei das Feststellungsmittel ein Arbeitslast-Verwaltungsprogramm (224) enthält, das mit der Vielzahl der DBMS-Komponenten (221 bis 223) verbunden ist, wobei das Arbeitslast-Verwaltungsprogramm den Status und die Arbeitslast einer jeden aktiven DBMS-Komponente überwacht und dem Netzwerk-Router den Status übermittelt.
  14. System nach Anspruch 10, das des Weiteren Folgendes umfasst: ein Mittel, um eine entsprechende komponentenspezifische Netzwerkadresse (262) für jede DBMS-Komponente zuzuweisen, wobei die komponentenspezifische Netzwerkadresse der entsprechenden Komponente ungeachtet ihres Speicherplatzes zugeordnet wird.
  15. System nach Anspruch 14, wobei der Client die komponentenspezifische Netzwerkadresse (262) zur Durchführung eines Prozesses der Neusynchronisierung mit einer DBMS-Komponente verwendet, nachdem eine erste Verbindung mit der DBMS-Komponente unterbrochen worden ist.
DE60221156T 2002-01-31 2002-12-19 Verfahren und system zur verteilung der arbeitslast in einem netzwerk von rechnersystemen Expired - Lifetime DE60221156T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/066,049 US7120704B2 (en) 2002-01-31 2002-01-31 Method and system for workload balancing in a network of computer systems
US66049 2002-01-31
PCT/EP2002/014910 WO2003065690A2 (en) 2002-01-31 2002-12-19 Method and system for workload balancing in a network of computer systems

Publications (2)

Publication Number Publication Date
DE60221156D1 DE60221156D1 (de) 2007-08-23
DE60221156T2 true DE60221156T2 (de) 2008-03-20

Family

ID=27610412

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60221156T Expired - Lifetime DE60221156T2 (de) 2002-01-31 2002-12-19 Verfahren und system zur verteilung der arbeitslast in einem netzwerk von rechnersystemen

Country Status (8)

Country Link
US (1) US7120704B2 (de)
EP (1) EP1470692B1 (de)
JP (1) JP4022521B2 (de)
KR (1) KR100633500B1 (de)
CN (1) CN1615636A (de)
AT (1) ATE367045T1 (de)
DE (1) DE60221156T2 (de)
WO (1) WO2003065690A2 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219709B2 (en) * 2002-07-05 2012-07-10 Carolyn J Hughes Method for internet name sharing
US7634477B2 (en) * 2002-09-18 2009-12-15 Netezza Corporation Asymmetric data streaming architecture having autonomous and asynchronous job processing unit
US20070061375A1 (en) * 2005-09-09 2007-03-15 Douglas Brown System and method for managing a plurality of database systems
US7548945B2 (en) * 2005-04-13 2009-06-16 Nokia Corporation System, network device, method, and computer program product for active load balancing using clustered nodes as authoritative domain name servers
CN101014045B (zh) * 2007-02-02 2010-09-01 清华大学 服务承载网中服务管理的分布式方法
CN101014046B (zh) * 2007-02-02 2010-05-19 清华大学 服务承载网中服务定位和服务质量路由的集成方法
US20080250407A1 (en) * 2007-04-05 2008-10-09 Microsoft Corporation Network group name for virtual machines
US20090006531A1 (en) * 2007-06-28 2009-01-01 Microsoft Corporation Client request based load balancing
US20090049024A1 (en) * 2007-08-14 2009-02-19 Ncr Corporation Dynamic query optimization between systems based on system conditions
US8195704B2 (en) * 2009-01-06 2012-06-05 International Business Machines Corporation Validation and correction in a distributed namespace
US20130166622A1 (en) * 2011-12-27 2013-06-27 Citrix Systems, Inc Using Mobile Device Location Data with Remote Resources
US9686735B2 (en) * 2013-03-14 2017-06-20 Silver Spring Networks, Inc. Set of optimizations applicable to a wireless networks operating in TV white space bands
US9342372B1 (en) * 2015-03-23 2016-05-17 Bmc Software, Inc. Dynamic workload capping
US9680657B2 (en) 2015-08-31 2017-06-13 Bmc Software, Inc. Cost optimization in dynamic workload capping
CN109842651B (zh) * 2017-11-27 2021-11-26 ***通信集团上海有限公司 一种业务不间断的负载均衡方法和***

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5319773A (en) 1990-05-16 1994-06-07 International Business Machines Corporation Asynchronous resynchronization of a commit procedure
JP2557192B2 (ja) 1993-03-15 1996-11-27 インターナショナル・ビジネス・マシーンズ・コーポレイション トランザクション処理の同期方法、トランザクション処理のモニタ方法及びトランザクションのコミット処理方法
US5625811A (en) 1994-10-31 1997-04-29 International Business Machines Corporation Method and system for database load balancing
DE4438522C2 (de) 1994-10-31 1997-08-21 Ibm Einrichtung zur Übertragung von Datenströmen in Datenkommunikationsnetzen
GB2301686A (en) 1995-06-03 1996-12-11 Ibm Transaction synchronisation procedure in a routing node
GB2303474A (en) 1995-07-19 1997-02-19 Ibm Optimized synchronisation procedure
US6031978A (en) 1996-06-28 2000-02-29 International Business Machines Corporation System, method and program for enabling a client to reconnect to a same server in a network of computer systems after the server has moved to a different network address
US5774660A (en) 1996-08-05 1998-06-30 Resonate, Inc. World-wide-web server with delayed resource-binding for resource-based load balancing on a distributed resource multi-node network
US5884327A (en) 1996-09-25 1999-03-16 International Business Machines Corporation System, method and program for performing two-phase commit with a coordinator that performs no logging
US6470389B1 (en) * 1997-03-14 2002-10-22 Lucent Technologies Inc. Hosting a network service on a cluster of servers using a single-address image
US5953719A (en) 1997-09-15 1999-09-14 International Business Machines Corporation Heterogeneous database system with dynamic commit procedure control
US6324580B1 (en) * 1998-09-03 2001-11-27 Sun Microsystems, Inc. Load balancing for replicated services
US6092178A (en) * 1998-09-03 2000-07-18 Sun Microsystems, Inc. System for responding to a resource request
US6654891B1 (en) 1998-10-29 2003-11-25 Nortel Networks Limited Trusted network binding using LDAP (lightweight directory access protocol)
US6389448B1 (en) * 1999-12-06 2002-05-14 Warp Solutions, Inc. System and method for load balancing
US7587500B2 (en) * 2001-01-10 2009-09-08 Xcelera Distributed selection of a content server

Also Published As

Publication number Publication date
WO2003065690A2 (en) 2003-08-07
WO2003065690A3 (en) 2004-02-19
KR100633500B1 (ko) 2006-10-13
JP2005516319A (ja) 2005-06-02
DE60221156D1 (de) 2007-08-23
KR20040074972A (ko) 2004-08-26
JP4022521B2 (ja) 2007-12-19
US7120704B2 (en) 2006-10-10
ATE367045T1 (de) 2007-08-15
US20030145113A1 (en) 2003-07-31
CN1615636A (zh) 2005-05-11
EP1470692B1 (de) 2007-07-11
EP1470692A2 (de) 2004-10-27

Similar Documents

Publication Publication Date Title
DE602004008028T2 (de) Verfahren zum dynamischen Transferieren zwischen Servern für virtuelle Dateiserver
DE60221156T2 (de) Verfahren und system zur verteilung der arbeitslast in einem netzwerk von rechnersystemen
DE69909839T3 (de) Optimierte Lokalisierung von Netzwerkbetriebsmittel
DE60111072T2 (de) Verfahren und vorrichtung zur parallelen nachrichtenübermittlung in echtzeit von dateisegmentierten
DE69730906T2 (de) Namendienst für ein redundantes Internetservernetz
DE60133648T2 (de) System und verfahren zum führen von laufzeitdaten in einem server-netzwerk
DE112011101109B4 (de) Übertragung von Map/Reduce-Daten auf der Grundlage eines Speichernetzwerkes oder eines Speichernetzwerk-Dateisystems
DE69814900T2 (de) Verfahren und system zur unterstützung verteilter software- entwicklung ohne bewusstsein der verteilten charakteristik der software
DE60302876T2 (de) Master-knotenauswahl in geclusterten knotenkonfigurationen
EP0825524B1 (de) Verfahren zur Verwaltung der Benennung von Objekten
DE112008001682B4 (de) Speicherbereichsnetzwerk mit Erkennung auf der Zielseite und dem Hochladen einer Routing- Tabelle
DE69635469T2 (de) Synchronisierung zwischen verschiedenen Computeranbieterumgebungen
DE19747583B4 (de) Kommunikationssystem und Verfahren
DE602005000017T2 (de) Kommunikationsvorrichtung, Verfahren und Programm zur Namenauflösung
DE102007046001B4 (de) System und Verfahren zum dynamischen Laden von Protokolladaptern
DE202014010909U1 (de) Verteilung von Daten in verteilten Speichersystemen
DE10297645B4 (de) Verfahren und Einrichtung zum Lastteilen und zur Datenverteilung in Servern
DE60216443T2 (de) Online-fern-informationssicherungssystem
DE19822543A1 (de) Verfahren zum Zuteilen von Aufträgen, Datenverarbeitssystem, Client-Datenbearbeitungsknoten und computerlesbares Speichermedium
DE60316466T2 (de) Unterstüzung von mehreren nativen netzwerkprotokollimplementiurungen in einem einzigen system
DE112005001995B4 (de) Computeranordnung und Verfahren zum Anbieten von Diensten für Benutzer über ein Netzwerk
EP2250588B1 (de) Verfahren und programm zum bereitstellen von datenkohärenz in netzwerken
EP1530758B1 (de) Verfahren zur bereitstellung von ressourcen in kommunikations-netzwerken
DE112010004530T5 (de) Transaktionsaktualisierung bei Dynamischen Verteilten Arbeitslasten
DE202015009295U1 (de) Effiziente Ressourcennutzung in Datenzentren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)