EP1376383A2 - Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen - Google Patents

Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen Download PDF

Info

Publication number
EP1376383A2
EP1376383A2 EP03006397A EP03006397A EP1376383A2 EP 1376383 A2 EP1376383 A2 EP 1376383A2 EP 03006397 A EP03006397 A EP 03006397A EP 03006397 A EP03006397 A EP 03006397A EP 1376383 A2 EP1376383 A2 EP 1376383A2
Authority
EP
European Patent Office
Prior art keywords
data
utilization
statistical
determined
redundancies
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP03006397A
Other languages
English (en)
French (fr)
Other versions
EP1376383A3 (de
Inventor
Uwe Noll
Valeriy Dr. Drach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DRACH, VALERIY
Noll Uwe
Original Assignee
Noll Uwe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE2002113174 external-priority patent/DE10213174A1/de
Application filed by Noll Uwe filed Critical Noll Uwe
Publication of EP1376383A2 publication Critical patent/EP1376383A2/de
Publication of EP1376383A3 publication Critical patent/EP1376383A3/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Definitions

  • the invention relates to a computer-aided method for statistical evaluation of data.
  • the Invention a way to make existing code simple to be reused by using structures like this are abstract that changes to the program code are not are necessary.
  • the input mask is generated automatically, depending on which data sources were selected in advance.
  • the static degree of utilization is determined from the quotient from occupied ports to the entire ports of an SDH device.
  • the dynamic degree of utilization is based on the ratio from utilization of the occupied ports to all occupied ports. Should the dynamic degree of utilization a certain Exceed the limit value, then there must be an extension in the System by inserting additional cards. Farther there are ways to limit the load with an additional time window factor. This means that an extension may only be necessary if Over a certain period of time, the occupancy rate above predetermined limit.
  • the utilization of an entire network can be determined. Normalization is used here. It normalization is used with the maximum value, making different dimensions comparable. The Quotient of the occupied ports and the total number of existing ports in relation to a dimension / unit enables the degree of occupancy to be determined. in this connection reflects the appropriate summary of the values respective desired degree of occupancy is reflected.
  • the amounts of data are determined that should be copied to the intermediate table. This happens through selection criteria in the individual mask fields.
  • the data is copied to the intermediate table, which were also selected in the input mask.
  • the intermediate table which were also selected in the input mask.
  • the statistical method is preferably used after copying selected.
  • the user is identified by an appropriate Mask led.
  • values are specified when the Statistics from the intermediate table must be taken into account. This is particularly advantageous if there are alternatives for the calculation of the statistics are available. That's the way it is z. B. conceivable that in a standard mode the ascending first columns as parameters for the statistics are taken into account. Should have deviated from this approach the user has the option of other parameters (Columns) to be included in the evaluation should.
  • Statistics on the redundant values are preferably in another statistics table.
  • the orders are in the order management database table held.
  • the responsible employee must complete the orders Monitors.
  • the order changes e.g. Tie Order attributes [start date], [end date], [Delays in delivery], [Client], [Contractor], [Approved funds], etc. after a lapse hourly, daily, monthly definition (x + 1) Period very interesting.
  • Algorithm can make these changes through Comparison of the saved, secured database table with the current database table at (x + 1) simple way to be detected and by color, others Font in the order management record attributes on the Screen can be visualized. You can also get into a new table will be inserted where you can analyze and target to be edited.
  • the algorithm of the Octa Cleansing Tool can be used as Loading algorithm used for import data in databases after the data records to be imported with the Octa cleansing tool is searched in the database. If that becomes importing data record detected once, then it is is an update procedure for multiple detection Redundancy, which is recognized as an error and in one separate error table is kept. Should that be too importing data record does not exist in the database, then a new data record is inserted in the Database.
  • the invention also includes a data carrier on which a data structure is stored that after loading into a main memory of a computer the method according to or several of the preceding method claims.
  • a computer system consisting of one or more servers, which is characterized by means, especially storage, Network units, processors and bus systems that so are trained and set up according to a method one or more of the preceding method claims is also part of the invention
  • FIG. 1 shows the process sequence according to claim 1.
  • An input mask 12 has access to one via references 11 Set of external databases 10.
  • a user can in the Enter the input values and selection criteria. Only the attributes or columns used in this way are grouped into one Copied intermediate table 14. The columns of the intermediate table are in reference 13 to the input mask 12.
  • the intermediate table 14 described above has one in a Database 15 is stored, well-defined structures. This makes it possible for a statistical algorithm 16 run without adjustment and a graphical representation 17 can generate. This applies in particular to the Identification number determination.
  • Figure 2 shows the structure of a database, the Redundancies determined and preferably eliminated.
  • a database 19 is stored in the first database 18 contains redundant information.
  • another database 20 is a table 21 that is only unique Contains keys and compressed attributes. On the The row in Table 19 can be used as a unique key be referenced. The corresponding reference is through the Reference numeral 22 marked.
  • the algorithm 24 references the intermediate table 21. Because of the indexing, it is very easy Find out redundancies, if necessary, in detail be checked using Table 19.
  • Figures 4 and 5 show the determination of a Utilization levels for a worldwide network.
  • Figure 3 shows the relations in a graphic form.
  • Figure 5 shows the determination in a mathematical formula.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Die Erfindung umfasst ein Verfahren, bei dem Datenmengen aus unterschiedlichen Tabellen und Datenbanken gesammelt und in einer eindeutig strukturierten Zwischentabelle abgelegt werden. Die Strukturierung dieser Tabelle ist so ausgebildet, dass die Vielzahl von stochastischen Algorithmen jederzeit ohne Anpassung der Datenmengen, die in der Zwischentabelle abgelegt sind, Auswertungen fahren können. Diese eindeutig strukturierte Zwischentabelle erstreckt sich über mehrere Dimensionen, wobei die Algorithmen, die die Auswertung vornehmen, in der Lage sind zu erkennen, wie viele Dimensionen tatsächlich benutzt werden. Eine mögliche Ausgestaltung der Tabelle ist, dass z. B. die ersten zehn Spalten numerische Werte umfassen und die anderen Spalten Werte anderen Typs. Rechenoperationen werden somit nur auf den ersten zehn Spalten durchgeführt. Der Kopieralgorithmus ist dabei so ausgebildet, dass eine eindeutige Abbildung der Typen auf die bereitgestellten Typen bzw. Spalten stattfindet. <IMAGE>

Description

Die Erfindung betrifft ein computergestütztes Verfahren zur statistischen Auswertung von Daten. Insbesondere umfasst die Erfindung eine Möglichkeit, einen vorhandenen Code einfach wiederzuverwenden, indem Strukturen verwendet werden, die so abstrakt gehalten sind, dass Änderungen am Programmcode nicht notwendig sind.
Gebiet der Erfindung:
Insbesondere im Bereich der Telekommunikation ist es oftmals notwendig, Auswertungen über Fehlerhäufigkeiten, Dienstleistungen, Wartezeiten in unterschiedlichen Regionen oder von unterschiedlichen Personen durchzuführen. Weitere Aspekte sind die Kosten und der durchschnittliche Zeitaufwand, der benötigt wird, um Fehler zu beheben. Hierfür sind unterschiedliche statistische Verfahren einzusetzen, die auf unterschiedliche Datenmengen zurückgreifen, die unterschiedlich zusammenzustellen sind. Aufgrund der großen Komplexität und der Vielzahl von Möglichkeiten, die es in diesem Bereich gibt, ist es Aufgabe der Erfindung, ein Verfahren bereitzustellen, das es ermöglicht, ohne große Umstellung des Programmcodes eine Vielzahl von Auswertungen auszuführen.
Diese Aufgabe wird durch die Erfindungen gemäß den Merkmalen der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindungen sind in den Unteransprüchen gekennzeichnet.
Abstrakt betrachtet, werden Datenmengen aus unterschiedlichen Tabellen und Datenbanken gesammelt und in einer eindeutig strukturierten Zwischentabelle abgelegt. Die Strukturierung dieser Tabelle ist so ausgebildet, dass die Vielzahl von stochastischen Algorithmen jederzeit ohne Anpassung der Datenmengen, die in der Zwischentabelle abgelegt sind, Auswertungen fahren können. Diese eindeutig strukturierte Zwischentabelle erstreckt sich über mehrere Dimensionen, wobei die Algorithmen, die die Auswertung vornehmen, in der Lage sind zu erkennen, wie viele Dimensionen tatsächlich benutzt werden. Eine mögliche Ausgestaltung der Tabelle ist, dass z. B. die ersten zehn Spalten numerische Werte umfassen und die anderen Spalten Werte anderen Typs. Rechenoperationen werden somit nur auf den ersten zehn Spalten durchgeführt. Der Kopieralgorithmus ist dabei so ausgebildet, dass eine eindeutige Abbildung der Typen auf die bereitgestellten Typen bzw. Spalten stattfindet.
Im Einzelnen handelt es sich um ein Verfahren zur statistischen Auswertung von Daten unter Verwendung einer Eingabemaske, über die Datenmengen bestimmt werden, wobei vorzugsweise über die Auswahl von Spalten und Selektionskriterien Teilmengen dieser Datenmengen bestimmt werden. Die Selektionskriterien können dabei Meta-Zeichen umfassen, wie z. B. einen Asterix(*) oder andere Platzhalter. Die Felder der Datenmaske können sich aus Spalten unterschiedlicher Tabellen zusammensetzen. Die Tabellen können wiederum in unterschiedlichen Datenbanken abgelegt sein. Es ist darauf hinzuweisen, dass auch andere Datenbanken wie objektorientierte Datenbanken oder ISA-Modelle oder neuronale Netze verwendet werden können. Mit Hilfe der Eingabemaske, die von Fall zu Fall unterschiedlich ausgebildet sein kann, je nachdem wie viele Datenbanken und Attribute referenziert wurden, wird die Datenmenge bestimmt, die in die Zwischentabelle kopiert wird. In einer bevorzugten Ausführungsform wird die Eingabemaske automatisch generiert, je nachdem welche Datenquellen im Vorfeld gewählt wurden.
Die vorliegende Zusatzanmeldung berücksichtigt, dass der Auslastungsgrad der Vermittlungsstellen ebenfalls als statistischer Algorithmus unterstützt wird. Als Zielgröße können die Auslastung und die Störungshäufigkeit berücksichtigt werden. Andere Verfahren, die ebenfalls die Auslastung berücksichtigen, sind ebenfalls denkbar. Die Auslastung kann sowohl dynamisch als auch statisch bestimmt werden.
Der statische Auslastungsgrad bestimmt sich aus dem Quotienten von belegten Ports zu den gesamten Ports eines SDH-Gerätes.
Der dynamische Auslastungsgrad bildet sich aus dem Verhältnis von Auslastungen der belegten Ports zu allen belegten Ports. Sollte der dynamische Auslastungsgrad einen bestimmten Grenzwert überschreiten, dann muss es zu einer Erweiterung im System durch Einschieben zusätzlicher Karten kommen. Weiterhin gibt es die Möglichkeiten, den Grenzwert für die Auslastung mit einem zusätzlichen Zeitfenster Faktor zu belegen. Hierdurch kann eine Erweiterung erst dann notwendig sein, wenn über einen bestimmten Zeitraum die Auslastung über dem vorgegebenen Grenzwert liegt.
Wenn hingegen der statische Auslastungsgrad einen bestimmten Grenzwert überschreitet, dann muss es zu einer Erweiterung des Gesamtsystems kommen. Das heißt, es müssen zusätzliche Netzwerkstränge aufgezogen werden.
Auf der Basis des Auslastungsgrads eines Netzwerkknotens, kann die Auslastung eines ganzen Netzwerkes bestimmt werden. Hierbei wird auf die Normalisierung zurückgegriffen. Es erfolgt der Einsatz der Normalisierung mit dem Maximalwert, wodurch unterschiedliche Dimensionen vergleichbar werden. Der Quotient aus den belegten Ports und der gesamten Anzahl der vorhandenen Ports in Bezug auf eine Dimension/Einheit ermöglicht es, den Belegungsgrad zu bestimmen. Hierbei spiegelt die geeignete Zusammenfassung der Werte den jeweiligen gewünschten Belegungsgrad wider.
Hierdurch ist eine erhebliche Verbesserung der Dokumentationen eines Netzes möglich, wodurch eine vollständige und einheitliche Dokumentation der WDM/SDH-Verbindungen (auch Raumbedarfsplanung hinsichtlich Stellfläche zwecks Neuanmietung) sowie die für moderne Netzelemente unverzichtbare Darstellung des Auslastungsgrades erfolgen kann. Eine vollständige Netzdokumentation ist Voraussetzung dafür, dass Netze betrieben werden können und Kunden termingerecht Produkte bereitgestellt werden können. Die Analyse erleichtert nicht nur die Bearbeitung von Ü-Wegschaltungen, sondern sie führt auch zu Verbesserungen der Störungsbearbeitung. Diese Vorteile resultieren auch aus dem Einsatz der Normalisierung mit dem konkreten Maximal-Wert hinsichtlich jeder Dimension, wodurch unterschiedliche Dimensionen vergleichbar werden, indem der Quotient aus den belegten Einheiten (z. B. Ports) zu der Gesamtanzahl der vorhandenen Einheiten (z. B. Ports) in Bezug auf eine Dimension/Einheit den Auslastungsgrad wiedergibt und die geeignete Zusammenfassung der Werte in Bezug auf die gewünschten Gesamteinheiten den jeweils gewünschten Auslastungsgrad in jeder beliebigen "Drill-Down" Hierarchie widerspiegelt. Da mit der Statistik-Eingabemaske die Ermittlung von Gesamteinheiten und belegten Einheiten sehr einfach durchzuführen ist, ist eine anschließende Auslastungsgradermittlung leicht vorzunehmen.
In einem weiteren Schritt werden die Datenmengen bestimmt, die in die Zwischentabelle kopiert werden sollen. Dies erfolgt durch Selektionskriterien in den einzelnen Maskenfeldern.
Bevorzugt werden nur die Daten in die Zwischentabelle kopiert, die auch in der Eingabemaske selektiert wurden. Vorzugsweise automatisch wird dann anhand des Typs der selektierten Merkmale entschieden, in welche Spalten der Zwischentabelle die Informationen kopiert werden.
Vorzugsweise nach dem Kopieren wird das statistische Verfahren ausgewählt. Hierbei wird der Benutzer durch eine entsprechende Maske geführt. In einer bevorzugten Ausführungsform kann nun angegeben werden, welche Werte bei der Durchführung der Statistiken aus der Zwischentabelle zu berücksichtigen sind. Dies ist insbesondere dann von Vorteil, wenn Alternativen für die Berechnung der Statistik zur Verfügung stehen. So ist es z. B. denkbar, dass in einem Standardmodus aufsteigend die ersten Spalten als Parameter für die Statistiken zu berücksichtigen sind. Sollte von diesem Ansatz abgewichen werden, so hat der Benutzer die Möglichkeit, andere Parameter (Spalten) zu bestimmen, die in die Auswertung einfließen sollen.
Aufgrund der wohldefinierten Struktur der Zwischentabelle kann nun das statistische Verfahren ausgeführt werden.
Aufgrund von fehlerhaften Benutzereingaben ist es oftmals nicht zu vermeiden, dass Informationen redundant abgelegt werden. Diese Redundanzen können mögliche Statistiken verfälschen. Um dieser Problematik entgegenzuwirken, wird vor dem Kopiervorgang oder nach dem Kopiervorgang eine Überprüfung auf redundante Datensätze vorgenommen. Bei diesem Verfahren wird in einem ersten Schritt ein Cursor definiert, der zeilenweise durch die Relationen läuft. In einem weiteren Schritt wird der Datensatz gelesen, der zur Überprüfung von redundanten Informationen herangezogen werden soll. Anhand einer SQL-Abfrage, die nach Duplikaten sucht, werden redundante Datensätze herausgefunden. Zur Vermeidung eines Overheads wird bevorzugt lediglich ein Feld überprüft, das komprimierte Informationen aller weiteren Attribute zusammenfasst. Somit ist es möglich, durch lediglich eine Vergleichsoperation festzustellen, ob eine identische Zeile (Tupel) vorliegt oder nicht. Eine Kompression kann z. B. durch eine Ex/Or-Verknüpfung aller Attribute stattfinden. Nur wenn eine Identität vorliegen sollte, werden explizit alle Attribute überprüft, wenn eine bijektive Komprimierung nicht vorliegen sollte. Sollte ein solches komprimiertes Attribut nicht vorliegen, so wird vorzugsweise in einem vorgeschalteten Verfahrenschritt eine weitere temporäre Tabelle erstellt, die lediglich aus einem primären eindeutigen Schlüssel besteht und dem komprimierten Attribut. Dieses komprimierte Attribut wird natürlich indiziert. Somit ist eine einfache Überprüfung auf Redundanz jederzeit möglich.
Statistiken über die redundanten Werte werden vorzugsweise in einer weiteren Statistiktabelle abgelegt.
Einsatz des Octa-Cleansing-Tools zur Erkennung von Änderungen, Fallbeispiel Auftragsmanagement.
In der Auftragsmanagement-Datenbanktabelle werden die Aufträge gehalten. Überdies wird eine Copy mit Zeitstempel DD.MM.JJJJ Time von der aktuellen Auftragsmanagemant-Datenbanktabelle gezogen. Die zuständigen Mitarbeiter müssen die Aufträge monitoren. Hierbei sind die Auftragsänderungen, z. B. in den Auftrags-Attributen [Beginndatum], [Enddatum], [Lieferverzögerungen], [Auftraggeber], [Auftragnehmer], [freigegebene Mittel] usw. nach Verstreichen eines stündlichen, täglichen, monatlichen Definitions-(x+1) Zeitraumes höchst interessant. Durch Einsatz des Data-Cleansing-Tools Algorithmus können diese Änderungen durch Vergleich der gespeicherten, gesicherten Datenbanktabelle mit der zum (x+1) Zeitpunkt aktuellen Datenbanktabelle auf einfache Art detektiert werden und durch Farbe, andere Schriftart in den Auftragsmanagement-Rekordattributen auf dem Bildschirm visualisiert werden. Außerdem können Sie in eine neue Tabelle eingefügt werden, wo Sie gezielt analysiert und bearbeitet werden.
Überdies kann der Algorithmus des Octa-Cleansing-Tools als Ladealgorithmus für Importdaten in Datenbanken verwendet werden, indem nach den zu importierenden Datenrekords mit dem Octa-Cleansing-Tool in der Datenbank gesucht wird. Wird der zu importierende Datensatz einmal detektiert, dann handelt es sich um ein Update-Verfahren, bei Mehrfachdetektion um Redundanz, welche als Fehler erkannt wird und in einer separaten Fehlertabelle gehalten wird. Sollte der zu importierende Datensatz nicht in der Datenbank vorhanden sein, dann erfolgt die Einfügung eines neuen Datensatzes in der Datenbank.
Weitere Bestandteile der Erfindung sind Computerprogramme, die beim Ablauf auf einem Computer das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführen.
Die Erfindung umfasst ebenfalls einen Datenträger, auf dem eine Datenstruktur gespeichert ist, die nach dem Laden in einen Hauptspeicher eines Computers das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführt.
Ein Computersystem, bestehend aus einem oder mehreren Servern, das durch Mittel gekennzeichnet ist, insbesondere Speicher, Netzwerkeinheiten, Prozessoren und Bussysteme, die so ausgebildet und eingerichtet sind, dass ein Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausgeführt wird, ist ebenfalls Teil der Erfindung
Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert, die in den Figuren schematisch dargestellt sind. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im Einzelnen zeigt:
Fig. 1
einen schematischen Ablauf des Verfahrens zur Erstellung einer Zwischentabelle und der Anwendung eines statistischen Algorithmus, der auf die eindeutig strukturierte Tabelle zugreift;
Fig. 2
eine Datenbankstruktur, die ein komprimiertes Attribut umfasst, um Redundanzen in einer Datenbank zu ermitteln;
Fig. 3
Aufbau eines Netzwerkes mit SDH-Baugruppen, die wiederum mit anderen Netzwerkkomponenten verbunden sind;
Fig. 4
ein internationales Netzwerk mit nationalen Netzknoten sowie deren Berechnung;
Fig. 5
Formel für die Berechnung des Auslastungsgrades eines internationalen Netzwerkes.
Im Rahmen der Erfindung sind zahlreiche Abwandlungen und Weiterbildungen der beschriebenen Ausführungsbeispiele verwirklichbar.
Im Folgenden werden einige Ausführungsbeispiele beschrieben. So zeigt die Figur 1 den Verfahrensablauf nach Anspruch 1. Eine Eingabemaske 12 hat Zugriff über Referenzen 11 zu einer Reihe von externen Datenbanken 10. Ein Benutzer kann in die Eingabemaske Werte und Selektionskriterien eingeben. Lediglich die so verwendeten Attribute bzw. Spalten werden in eine Zwischentabelle 14 kopiert. Die Spalten der Zwischentabelle stehen in Referenz 13 zu der Eingabemaske 12.
Bei dem Kopiervorgang werden lediglich die in der Eingabemaske verwendeten Spalten und Attribute berücksichtigt. Wie bereits oben beschrieben besitzt die Zwischentabelle 14, die in einer Datenbank 15 abgelegt ist, wohldefinierte Strukturen. Hierdurch ist es möglich, dass ein statistischer Algorithmus 16 ohne Anpassung ablaufen und eine grafische Darstellung 17 erzeugen kann. Das betrifft insbesondere die Kennzahlermittlung.
Die Figur 2 zeigt die Struktur einer Datenbank, die Redundanzen ermittelt und vorzugsweise eliminiert. In einer ersten Datenbank 18 ist eine Tabelle 19 abgespeichert, die redundante Informationen enthält. In einer weiteren Datenbank 20 ist eine Tabelle 21 abgelegt, die lediglich eindeutige Schlüssel und komprimierte Attribute enthält. Über den eindeutigen Schlüssel kann die Zeile in der Tabelle 19 referenziert werden. Die entsprechende Referenz ist durch das Bezugszeichen 22 gekennzeichnet.
Der Algorithmus 24 referenziert die Zwischentabelle 21. Aufgrund der Indizierung ist es somit sehr einfach, Redundanzen herauszufinden, die dann, wenn nötig, im Detail anhand der Tabelle 19 überprüft werden.
Die Figuren 4 und 5 zeigen die Bestimmung eines Auslastungsgrades für ein weltweites Netzwerk. Die Figur 3 zeigt die Relationen in einer grafischen Form. Die Figur 5 zeigt die Bestimmung in einer mathematischen Formel.
Bezugszeichen
10
externe Datenbanken
11
Referenzen zu den Spalten und Attributen
12
Eingabemaske
13
Referenzen zu der Zwischentabelle
14
Zwischentabelle
15
Datenbank, in der die Zwischentabelle abgelegt ist
16
statistischer Algorithmus
17
grafische Darstellung der statistischen Auswertung
18
Datenbank, in der eine Tabelle mit redundanten Informationen abgelegt ist
19
Tabelle mit redundanten Informationen
20
Datenbank, in der eine Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut abgelegt ist
21
Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut
22
Referenz des eindeutigen Schlüssels auf die Tabelle mit redundanten Informationen
23
Zugriff auf die Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut
24
Algorithmus, der nach redundanten Informationen sucht

Claims (16)

  1. Verfahren zur statistischen Auswertung von Daten, unter Verwendung einer Eingabemaske, über die Datenmengen bestimmt werden, wobei vorzugsweise über die Auswahl von Spalten und Selektionskriterien Teilmengen dieser Datenmengen bestimmt werden,
    mit einem Schritt, bei dem die Datenmengen mit Hilfe der Eingabemaske und Selektionskriterien bestimmt werden,
    mit einem weiteren Schritt, bei dem aus einer Mehrzahl von Verfahren ein statistisches Verfahren ausgewählt wird, das auf die Datenmenge anzuwenden ist, wobei ein auswählendes Verfahren den statischen Auslastungsgrad und/oder den dynamischen Auslastungsgrad einer oder mehrerer Vermittlungsstellen bestimmt,
    mit einem weiteren Schritt, bei dem die bestimmten Datenmengen in eine vordefinierte Tabelle von der immer gleichen Struktur kopiert werden, wobei die statistischen Verfahren aufgrund der gleichen Struktur der vordefinierten Tabelle so auf die vordefinierte Tabelle abgestimmt sind, dass unabhängig vom Inhalt eine Auswertung vorgenommen werden kann, ohne dass programmtechnische Änderungen vorzunehmen sind.
  2. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass sich der statische Auslastungsgrad aus dem Verhältnis von belegten Ports in der Vermittlungsstelle zu den Gesamtports eines Gerätes und/oder der dynamische Auslastungsgrad aus dem Verhältnis der Auslastung der belegten Ports zu allen belegten Ports bestimmt.
  3. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auslastung einer Vielzahl von Vermittlungsstellen zusammengefasst und normiert wird, wobei die Zusammenfassung vorzugsweise durch eine Addition und die Normierung durch eine Division erfolgt.
  4. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass dem Benutzer ein Dialog angeboten wird, durch den er ein statistisches Verfahren auswählen kann.
  5. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Dokumentenmanagementsystemstruktur mit einem Inhaltsverzeichnis vorhanden ist, das die Attribute Ablageserver, Ablagepfandnamen, Dokumentennamen umfasst, wobei zusätzlich weitere optionale Kriterien Dokumenterstellungsdatum, Ersteller und Textsuchkriterien sind.
  6. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Benutzer bestimmen kann, welche Spalten der vordefinierten Tabelle für eine statistische Auswertung heranzuziehen sind.
  7. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass vor der statistischen Auswertung ein Verfahren zur Aufzählung und/oder zum Ausschluss von Redundanzen nach einem oder mehreren der nachfolgenden Schritte angewendet wird.
  8. Verfahren zum Ermitteln und/oder Ausschließen von Redundanzen in Tabellen, insbesondere relationalen Tabellen
    mit einem Schritt, bei dem ein Cursor für die relationale Tabelle bestimmt wird, um schrittweise die Zeilen der Tabelle auszulesen, wobei die Zeilen über Schleifen aus der relationalen Tabelle gelesen werden, indem jede Zeile schrittweise aus der relationalen Tabelle gelesen wird,
    mit einem sich wiederholenden Schritt, bei dem die über den Cursor gelesene Zeile über eine SQL-Abfrage mit allen Zeilen der Tabelle verglichen wird, wobei jede Übereinstimmung gezählt wird.
  9. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass eine weitere Tabelle angelegt wird, in der die primären Schlüssel der redundanten Informationen mit einem entsprechenden Zählerwert abgelegt werden.
  10. Verfahren nach dem vorhergehenden Verfahrensanspruch, dadurch gekennzeichnet, dass die detektierten Änderungen in einer weiteren Tabelle abgelegt werden oder die erkannten Änderungen in der Gesamtdatenmenge der aktuellen (x+1) Zeitpunktstabelle visualisiert hervorgehoben auf dem Bildschirm dargestellt werden.
  11. Verwendung des vorhergehenden Verfahrens als Rekordladeverfahren in Datenbanken, wobei die Operationen Insert und/oder Update unter Berücksichtigung des vorhergehenden Verfahrens erkannt werden und anhand dieser der Datenimport ausgeführt wird.
  12. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Suche lediglich die Übereinstimmung eines Kompressionselementes der Zeilen geprüft wird, wobei dieses Element die weiteren Elemente der Zeile codiert.
  13. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass beim Fehlen eines solchen Kompressionselementes eine weitere Tabelle angelegt wird, die eindeutige Schlüssel der ersten Tabelle enthält und Kompressionselemente, wobei der Vergleich lediglich über die weitere Tabelle erfolgt.
  14. Computerprogramm, dadurch gekennzeichnet, dass es beim Ablauf auf einem Computer das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführt.
  15. Datenträger, auf dem eine Datenstruktur gespeichert ist, die nach einem Laden in einen Hauptspeicher eines Computers das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführt.
  16. Computersystem, bestehend aus einem oder mehreren Servern, gekennzeichnet durch Mittel, insbesondere Speicher, Netzwerkeinheiten, Prozessoren und Bussysteme, die so ausgebildet und eingerichtet sind, das ein Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausgeführt wird.
EP03006397A 2002-03-23 2003-03-20 Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen Ceased EP1376383A3 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10213174 2002-03-23
DE2002113174 DE10213174A1 (de) 2003-02-27 2002-03-23 Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen

Publications (2)

Publication Number Publication Date
EP1376383A2 true EP1376383A2 (de) 2004-01-02
EP1376383A3 EP1376383A3 (de) 2005-05-25

Family

ID=29716501

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03006397A Ceased EP1376383A3 (de) 2002-03-23 2003-03-20 Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen

Country Status (1)

Country Link
EP (1) EP1376383A3 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236657A (zh) * 2010-04-28 2011-11-09 阿里巴巴集团控股有限公司 一种处理上报数据的方法和服务器
CN103796232A (zh) * 2014-02-10 2014-05-14 大唐移动通信设备有限公司 一种rnc数据比对方法和设备
CN105868036A (zh) * 2015-12-14 2016-08-17 乐视网信息技术(北京)股份有限公司 异常确定方法及装置
CN106446046A (zh) * 2016-08-31 2017-02-22 山东威尔数据股份有限公司 一种在关系数据库中及时快速分析记录的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422736A (en) 1991-03-22 1995-06-06 Canon Kabushiki Kaisha Multi-mode image processing permitting selection of quantization process according to image characteristics
US5506844A (en) 1994-05-20 1996-04-09 Compression Labs, Inc. Method for configuring a statistical multiplexer to dynamically allocate communication channel bandwidth
EP1187394A2 (de) 2000-09-11 2002-03-13 Tenovis GmbH & Co. KG Verfahren zur Steuerung der Auslastung eines lokalen Netzes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422736A (en) 1991-03-22 1995-06-06 Canon Kabushiki Kaisha Multi-mode image processing permitting selection of quantization process according to image characteristics
US5506844A (en) 1994-05-20 1996-04-09 Compression Labs, Inc. Method for configuring a statistical multiplexer to dynamically allocate communication channel bandwidth
EP1187394A2 (de) 2000-09-11 2002-03-13 Tenovis GmbH & Co. KG Verfahren zur Steuerung der Auslastung eines lokalen Netzes

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AMER, P.CASSEL, L.: "Management of sampled real time network managments", MANAGEMENT OF SAMPLED REAL TIME NETWORK MANAGMENTS, PROCEEDINGS OF THE CONFERENCE ON LOCAL COMPUTER NETWORKS, 1989
STAPELBERG, S. ET AL., HTTPANALYSE, 1998

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236657A (zh) * 2010-04-28 2011-11-09 阿里巴巴集团控股有限公司 一种处理上报数据的方法和服务器
CN102236657B (zh) * 2010-04-28 2013-07-31 阿里巴巴集团控股有限公司 一种处理上报数据的方法和服务器
CN103796232A (zh) * 2014-02-10 2014-05-14 大唐移动通信设备有限公司 一种rnc数据比对方法和设备
CN105868036A (zh) * 2015-12-14 2016-08-17 乐视网信息技术(北京)股份有限公司 异常确定方法及装置
CN106446046A (zh) * 2016-08-31 2017-02-22 山东威尔数据股份有限公司 一种在关系数据库中及时快速分析记录的方法
CN106446046B (zh) * 2016-08-31 2019-09-13 山东威尔数据股份有限公司 一种在关系数据库中及时快速分析记录的方法

Also Published As

Publication number Publication date
EP1376383A3 (de) 2005-05-25

Similar Documents

Publication Publication Date Title
DE69031758T2 (de) Verfahren zur Organisation von und zum Zugriff auf Produkt beschreibenden Daten in Zusammenhang mit einem technischen Prozess
DE69030282T2 (de) Verfahren und Vorrichtung zur Erhaltung der funktionellen und organisatorischen Unversehrtheit einer relationalen Datenbasis in einem Datenverarbeitungssystem
EP1307816A1 (de) System zur ermittlung von fehlerursachen
DE60118973T2 (de) Verfahren zum abfragen einer struktur komprimierter daten
DE69532307T2 (de) Ausdrucks-Propagierung für hierarchisches Netzlisten
DE10039538A1 (de) Vorrichtung und Methode zum Analysieren der Leistung eines Computerprogramms
DE2722124A1 (de) Anordnung zum feststellen des prioritaetsranges in einem dv-system
DE102010042288A1 (de) Vorrichtung und Verfahren zum maschinellen Erstellen eines Prozessdiagramms
DE102017126349A1 (de) Verfahren zum verknüpfen eines ersten datenblocks mit einem zweiten datenblock, verfahren zum überprüfen der integrität einer blockchain-struktur, vorrichtung und computerprogrammprodukt
DE102020211679A1 (de) Computer-implementiertes system und verfahren mit einem digitalen zwilling und einer graphen-basierten struktur
DE102005012665A1 (de) Verfahren und Vorrichtung zum Ermitteln von Clustern aus einer Mehrzahl von in Aufträgen geordneten Daten
EP1637956A1 (de) Erzeugung anonymisierter Datensätze zum Testen und Entwickeln von Anwendungen
EP1376383A2 (de) Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen
EP3812949A1 (de) Konfigurierbarer digitaler zwilling
DE10048478A1 (de) Verfahren zum Zugriff auf eine Speichereinheit bei der Suche nach Teilzeichenfolgen sowie zugehörige Speichereinheit
WO1999017192A1 (de) Konfigurierungsverfahren für datenverarbeitungsanlagen
EP3719594A1 (de) Verfahren und system zum betreiben eines industriellen automatisierungssystems
DE10308364A1 (de) Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen
EP1204917A1 (de) Operandenstapelspeicher und verfahren zum betreiben eines operandenstapelspeichers
EP1261917A2 (de) Verfahren zur sicherstellung der kompatibilität und verfahren zur datensicherung innerhalb eines mehrere teilrechnersysteme aufweisenden verteilten rechnersystems
DE10213174A1 (de) Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen
EP1436673B1 (de) Automatische parametererfassung
EP1336922B1 (de) Verfahren und Vorrichtung zum automatischen Erstellen eines Datawarehouse
EP3494507B1 (de) Verfahren zur prüfung der verfügbarkeit und integrität eines verteilt gespeicherten datenobjekts
EP1376363B1 (de) Verfahren und Vorrichtung zum Monitoring/Controlling von Qualitätsvereinbarungen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1063083

Country of ref document: HK

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

AKX Designation fees paid
17P Request for examination filed

Effective date: 20051104

RBV Designated contracting states (corrected)

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

17Q First examination report despatched

Effective date: 20100118

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: DRACH, VALERIY

Owner name: NOLL, UWE

REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1063083

Country of ref document: HK

RIN1 Information on inventor provided before grant (corrected)

Inventor name: NOLL, UWE

Inventor name: DRACH, VALERIY

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20180318