DE10104902A1 - Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence - Google Patents

Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence

Info

Publication number
DE10104902A1
DE10104902A1 DE2001104902 DE10104902A DE10104902A1 DE 10104902 A1 DE10104902 A1 DE 10104902A1 DE 2001104902 DE2001104902 DE 2001104902 DE 10104902 A DE10104902 A DE 10104902A DE 10104902 A1 DE10104902 A1 DE 10104902A1
Authority
DE
Germany
Prior art keywords
dialog
sequence
speech
engine
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2001104902
Other languages
German (de)
Other versions
DE01104902T1 (en
Inventor
Gerhard Vollmar
Carsten Beuthel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Research Ltd Switzerland
Original Assignee
ABB Research Ltd Switzerland
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Research Ltd Switzerland filed Critical ABB Research Ltd Switzerland
Priority to DE2001104902 priority Critical patent/DE10104902A1/en
Publication of DE10104902A1 publication Critical patent/DE10104902A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

The method involves using a data processor (20) with a voice recognition engine (21) with access to a stored voice file (31), a dialog engine (22) and a voice file generator (23) and voice input /output devices (11,12) for dialog traffic with the dialog engine. It involves preprocessing input speech signals, comparing with the stored voice file and passing a recognized speech sequence to the dialog engine, which outputs a matching dialog sequence. Independent claims are also included for the following: a system for voice-controled fault diagnosis.

Description

Die Erfindung bezieht sich auf ein System und ein Verfahren zur sprachgesteuerten Fehlerdiagnose. Sie läßt sich anwenden zur Unterstützung von Servicetechnikern im Bereich des Anlagenservices.The invention relates to a system and a method for voice-controlled Fault diagnosis. It can be used to support service technicians in the Plant service area.

Insbesondere Fehlermodelle auf Basis von XML (Extended Markup Language) sind geeignet, die Arbeit von Servicetechnikern bei der Störungssuche, Analyse Fehler­ behebung zu erleichtern. Im Bereich des Services von Maschinenanlagen oder Anla­ genteilen werden bereits hierarchisch strukturierte Fehlermodelle, die für eine umfas­ sende Fehlerursachenanalyse tauglich sind, eingesetzt. Deren Datenstrukturen kön­ nen ebenfalls in XML abgebildet werden. Ein Fehlermodell, das im XML Format auf einem Web Server bereitgehalten wird, erlaubt das weltweite Durchführen einer Fehlerursachenanalyse über das Internet. Ein Fehleranalyst benötigt dazu einen Computer der mit einem Web Browser ausgestattet ist und über eine Internetverbin­ dung auf die Fehlerursachenanalysemodelle zugreifen kann. Fehlermodelle beste­ hen aus Knoten welche jeweils Hypothesen darstellen. Diese Knoten sind baumartig miteinander verkettet. Jeder Knoten verfügt über eine Checkliste, an Hand derer sich Hypothesen verifizieren oder negieren lassen. Bei der Suche nach einer Betriebsstö­ rung in einer Anlage navigiert der Fehleranalyst von Knoten zu Knoten und überprüft seine Anlage an Hand der angehängten Checklisten. Wenn er eine Hypothese auf diese Art akzeptiert, navigiert er zum unterliegenden Fehlermodell bzw. zum Fehler der zur Störung seiner Anlage geführt hat. In particular, error models based on XML (Extended Markup Language) are suitable, the work of service technicians when troubleshooting, analyzing errors to facilitate rectification. In the area of the service of machine systems or plant Parts are already hierarchically structured error models that include a send error cause analysis are used. Their data structures can can also be mapped in XML. An error model based on the XML format a web server is available, allows the worldwide implementation of one Failure cause analysis via the Internet. A fault analyst needs one for this Computer equipped with a web browser and an internet connection access to the fault cause analysis models. Failure models best They consist of nodes that each represent hypotheses. These knots are tree-like chained together. Each node has a checklist that it uses Verify or negate hypotheses. When looking for a breakdown In a system, the fault analyst navigates from node to node and checks it his system based on the attached checklists. If he hypothesized accepting this type, he navigates to the underlying error model or to the error which led to the malfunction of his system.  

Für einen Servicetechniker, der vor Ort an einem defekten Anlagenteil eine Fehler­ behebung durchführen muß, ist es in den seltensten Fällen möglich, über einen PC auf Diagnoseinformationen zuzugreifen. Der normale Bürocomputer ist hierzu recht unhandlich, außerdem auch den rauhen Umweltbedingungen im Service nicht immer angepaßt. Einfacher und deutlich praktischer in der Handhabung sind hierbei mobile Telefone. Sie sind leicht, einfach zu handhaben und bei Servicetechnikern als Ar­ beitswerkzeug akzeptiert, da sie im normalen Dienstalltag beispielsweise zur Fehler­ diagnose per Telefon als Konferenzschaltung mit einem Diagnoseexperten Verwen­ dung finden. Für ein solches Vorgehen wird jedoch ein Diagnoseexperte als Ge­ sprächspartner benötigt, der die entsprechenden Hinweise während eines Telefon­ gesprächs geben kann.For a service technician who has a fault on site with a defective system part remediation, it is rarely possible to use a PC access diagnostic information. The normal office computer is right for this unwieldy, and not always the harsh environmental conditions in service customized. Mobile are easier and much more practical to use Phones. They are light, easy to use, and as a service technician beitswerkzeug accepted, because in normal everyday work, for example, errors Diagnosis by telephone as a conference call with a diagnosis expert find. For such an approach, however, a diagnostic expert is called Ge call partner who needs the relevant information during a phone call can give conversation.

Sprachein- und Ausgabe ist andererseits im Bereich von Personalcomputern zum Bedienen und Diktieren weit verbreitet. Diese Systeme verarbeiten die analogen Si­ gnale eines Mikrophons durch Digitalisierung und bilden hieraus Phoneme, welche mit dem zugehörigen Spracherkennungssystem bekannten Wörtern verglichen wer­ den. Bei einer bestimmten Übereinstimmungsquote (Wahrscheinlichkeit) übergibt das Spracherkennungssystem das betreffende Wort an eine übergeordnete Anwen­ dung oder führt ein Kommando auf dem Computer aus. Mit diesen Spracherken­ nungssystemen lassen sich auch Dialogsysteme, wie sie beispielsweise für die Be­ stellung von Fahrkarten Verwendung finden, ansteuern.Voice input and output is on the other hand in the area of personal computers Operation and dictation widely used. These systems process the analog Si Signals of a microphone through digitization and form phonemes from them with the associated speech recognition system known words who compared the. Passes at a certain match rate (probability) the speech recognition system sends the word in question to a higher-level user or executes a command on the computer. With these speech skills Dialogue systems, such as those used for the Be position of tickets, use them.

Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren und ein zu seiner Durchführung geeignetes System anzugeben, das - ohne Zwischenschal­ tung eines menschlichen Diagnoseexperten - eine sprachgesteuerte Fehlerdiagnose im Anlagenservice ermöglicht.Proceeding from this, the object of the invention is a method and a to indicate suitable system for its implementation, which - without intermediate formwork of a human diagnosis expert - a voice-controlled fault diagnosis enabled in the plant service.

Diese Aufgabe wird durch ein Verfahren zur sprachgesteuerten Fehlerdiagnose ge­ löst, das die im Anspruch 1 angegebenen Merkmale aufweist. Vorteilhafte Ausge­ staltungen und ein entsprechendes System sind in weiteren Ansprüchen angegeben.This task is accomplished by a method for voice-controlled fault diagnosis triggers that has the features specified in claim 1. Advantageous Ausge Events and a corresponding system are specified in further claims.

Mit der Erfindung wird demnach vorgeschlagen, insbesondere mittels Mobiltelefon eingegebene Sprachsignale durch Digitalisierung und Filterung vorzuverarbeiten und mit einem gespeicherten Sprachsatz zu vergleichen. Zu einer dabei erkannten Sprachsequenz wird eine passende Dialogsequenz ausgegeben. Die passende Dia­ logsequenz kann durch Vergleich mit gespeicherten Dialogsequenzen ermittelt, oder dynamisch aus Fehlermodellen generiert werden.The invention accordingly proposes, in particular using a mobile phone preprocess input speech signals through digitization and filtering and to compare with a saved language sentence. To a recognized one  A suitable dialogue sequence is output for the speech sequence. The right slide log sequence can be determined by comparison with saved dialog sequences, or are generated dynamically from error models.

Eine weitere Beschreibung der Erfindung und deren Vorteile erfolgt nachstehend an­ hand eines in Zeichnungsfiguren dargestellten Ausführungsbeispiels.A further description of the invention and its advantages follows below hand of an embodiment shown in drawing figures.

Es zeigt:It shows:

Fig. 1 ein System zur sprachgesteuerten Diagnose, Fig. 1 shows a system for voice-controlled diagnosis,

Fig. 2 das Verfahren zur sprachgesteuerten Diagnose, Fig. 2, the method for voice-controlled diagnosis,

Fig. 3 einen Sprachschatz, Fig. 3 shows a vocabulary,

Fig. 4 wie in einem hierarchischen Fehlermodell sprachgesteuert navigiert wird, Fig. 4 is navigated such as voice control in a hierarchical fault model,

Fig. 5 ein Fehlermodell in Prinzipdarstellung, Fig. 5 an error model in basic representation,

Fig. 6 die Struktur eines Fehlerbaums, Fig. 6 shows the structure of a fault tree,

Fig. 7 ein Fehlermodell für Ventilfehler, und Fig. 7 is a fault model for valve failure, and

Fig. 8 beispielhaft die Instanz eines Fehlermodells in XML. Fig. 8 shows the instance of example an error model in XML.

Fig. 1 zeigt ein System 1 zur sprachgesteuerten Diagnose auf der Basis hierarchi­ scher Fehlermodelle im XML-Format. Das System 1 enthält eine Ein/Ausgabe- Einrichtung 10, eine Datenverarbeitungseinrichtung 20 zur Sprachverarbeitung, so­ wie Datenspeicher 30. Die Ein/Ausgabe-Einrichtung 10 enthält eine Spracheingabe- Einrichtung 11 und eine Sprachausgabe-Einrichtung 12. Die Datenverarbeitungsein­ richtung 20 enthält eine Spracherkennungs-Engine 21, eine Dialog-Engine 22 und einen Sprachschatz-Generator 23. Im Datenspeicher oder den Datenspeichern 30 sind ein Sprachschatz 31, Dialogsequenzen 32 und Fehlermodelle 33 gespeichert oder speicherbar. Fig. 1 shows a system 1 for voice-controlled diagnosis on the basis of hierarchical error models in XML format. The system 1 contains an input / output device 10 , a data processing device 20 for speech processing, such as data storage 30 . The input / output device 10 includes a voice input device 11 and a voice output device 12 . The data processing device 20 contains a speech recognition engine 21 , a dialog engine 22 and a vocabulary generator 23 . A vocabulary of words 31 , dialog sequences 32 and error models 33 are stored or can be stored in the data store or the data stores 30 .

In Fig. 1 ist der mögliche Informationsfluß durch Pfeile mit ausgezogenen Linien dar­ gestellt, mögliche Datenzugriffe durch Pfeile mit gestrichelten Linien. Daraus ist er­ sichtlich, daß die Spracheingabe-Einrichtung 11 dafür eingerichtet ist, analoge Sprachsignale an die Spracherkennungs-Engine 21 zu übermitteln. Die Spracher­ kennungs-Engine 21 digitalisiert und filtert die Signale und vergleicht die so vorverar­ beiteten Sprachsignale mit dem Sprachschatz 31. Die Spracherkennungs-Engine 21 gibt eine dabei erkannte Sprachsequenz an die Dialog-Engine 22 weiter. Die Dialog- Engine 22 ordnet die Sprachsequenz einer Dialogsequenz aus den Dialogsequenzen 32 zu und gibt die gefundene passende Dialogsequenz zur Sprachausgabe- Einrichtung 12. Die Dialog-Engine 22 ist dafür eingerichtet, aus den Fehlermodellen 33 dynamisch Dialogsequenzen zu erzeugen. Der Spracherkennungsgenerator 23 erzeugt unter Zugriff auf das Fehlermodell 33 einen ergänzenden Sprachschatz und fügt ihn dem gespeicherten Sprachsatz 31 hinzu.In Fig. 1 the possible flow of information is represented by arrows with solid lines, possible data accesses by arrows with dashed lines. From this it is clear that the speech input device 11 is set up to transmit analog speech signals to the speech recognition engine 21 . The speech recognition engine 21 digitizes and filters the signals and compares the speech signals processed in this way with the speech treasure 31 . The speech recognition engine 21 forwards a recognized speech sequence to the dialog engine 22 . The dialog engine 22 assigns the speech sequence to a dialog sequence from the dialog sequences 32 and passes the matching dialog sequence found to the speech output device 12 . The dialog engine 22 is set up to dynamically generate dialog sequences from the error models 33 . The speech recognition generator 23 generates a supplementary vocabulary by accessing the error model 33 and adds it to the stored speech set 31 .

In Fig. 2 ist das Verfahren zur sprachgesteuerten Diagnose auf Basis hierarchischer Fehlermodelle in XML, und damit die Arbeitsweise der in Fig. 1 gezeigten Einrichtung dargestellt. In Schritt 100 werden die von der Spracheingabe 11 bereitgestellten analogen Sprachsignale vorverarbeitet und analysiert. Die Signalsequenzen werden mit dem Sprachschatz 31 verglichen. Ein Sprachschatz ist in Fig. 3 beispielhaft dar­ gestellt. Eine aus dem Sprachschatz 31 erkannte Sprachsequenz wird in Schritt 200 weiter verarbeitet. FIG. 2 shows the method for voice-controlled diagnosis based on hierarchical error models in XML, and thus the mode of operation of the device shown in FIG. 1. In step 100 , the analog voice signals provided by voice input 11 are preprocessed and analyzed. The signal sequences are compared with the vocabulary 31 . A vocabulary is exemplified in Fig. 3. A speech sequence recognized from the vocabulary 31 is processed further in step 200 .

In Schritt 200 wird die Sprachsequenz mit den Dialogsequenzen 32 verglichen, mit dem Ziel, eine passende Dialogsequenz für die weitere Verarbeitung zu ermitteln. Die Dialogsequenzen 32 umfassen, wie anhand der Fig. 4 noch erläutert wird, jeweils die Struktur (Ablaufsequenz) des Dialoges und sämtliche statischen Anteile.In step 200 , the speech sequence is compared with the dialog sequences 32 with the aim of determining a suitable dialog sequence for further processing. As will be explained with reference to FIG. 4, the dialog sequences 32 each comprise the structure (sequence sequence) of the dialog and all static components.

In Schritt 300 wird von der Dialog-Engine 22 geprüft, ob die auszugebende Dia­ logsequenz als eine der statischen Dialogsequenzen 32 vorliegt, oder ob die Ausga­ be dynamisch aus dem Fehlermodell 33 generiert werden muß (siehe hierzu auch Fig. 4). liegt eine Dialogsequenz vor, erfolgt ihre Ausgabe durch die Sprachausgabe 12, und es geht weiter mit Schritt 100. Stellt dagegen die Dialog-Engine 22 fest, daß die passende Dialogsequenz dynamisch aus dem Fehlermodell 33 generiert werden muß, erfolgt Schritt 400.In step 300 , the dialog engine 22 checks whether the dialog sequence to be output is present as one of the static dialog sequences 32 , or whether the output must be generated dynamically from the error model 33 (see also FIG. 4). if there is a dialogue sequence, it is output by voice output 12 and the process continues with step 100 . If, on the other hand, the dialog engine 22 determines that the appropriate dialog sequence must be generated dynamically from the error model 33 , step 400 takes place.

In Schritt 400 fokusiert die Dialog-Engine 22 anhand der gesprochenen Anweisung im Fehlermodell 33 auf eine bestimmte Datenmenge. Eine solche Datenmenge be­ steht aus einem Fehlermodell, das eine Beschreibung eines Fehlerereignisses und zugehörige Fehlerhypothesen enthält (siehe Fig. 6 und Fig. 7). Aus den Bezeichnun­ gen der Fehlerhypothesen wird der Sprachschatz generiert und im Speicher für den Sprachschatz 31 gespeichert. Der gezielte Zugriff auf Inhalte in den XML-basierten Fehlermodelle ist möglich, da die Information bezüglich Inhalt und Struktur leicht ver­ arbeitbar beschrieben ist. Dieser Sachverhalt wird aus Fig. 8 deutlich.In step 400, the dialog engine 22 uses the spoken instruction in the error model 33 to focus on a specific amount of data. Such amount of data be available from a fault model that contains a description of a fault event and associated fault hypotheses (see FIG. 6 and FIG. 7). The vocabulary of words is generated from the names of the error hypotheses and stored in the memory for the vocabulary 31 . The targeted access to content in the XML-based error models is possible, since the information regarding content and structure is described so that it is easy to process. This fact is clear from Fig. 8.

In Schritt 500 erzeugt die Dialog-Engine 22 aus der im Schritt 400 ermittelten Da­ tenmenge die auszugebende Dialogsequenz. Ausgegeben werden beispielsweise die Bezeichnungen der gefundenen Hypothesen (vgl. auch Fig. 4 und Fig. 7). Da­ nach erfolgt erneut Schritt 100 zur Fortsetzung des Dialogs.In step 500 , the dialog engine 22 generates the dialog sequence to be output from the amount of data determined in step 400 . Are output, for example, the names of the found hypothesis (see. Also Fig. 4 and Fig. 7). Then after step 100 again to continue the dialog.

Fig. 3 zeigt beispielhaft einen Sprachschatz 31, der Bezeichnungen der Hypothesen des in Fig. 7 gezeigten Fehlermodells enthält. Die Dialog-Engine 22 hat diesen Sprachschatz in Schritt 400 aus den XML-Daten dynamisch erzeugt und im Speicher für den Sprachschatz 31 gespeichert. FIG. 3 shows, by way of example, a vocabulary 31 which contains descriptions of the hypotheses of the error model shown in FIG. 7. The dialog engine 22 generated this vocabulary dynamically from the XML data in step 400 and stored it in the memory for the vocabulary 31 .

Fig. 4 zeigt, wie in dem hierarchischen Fehlermodell 33 sprachgesteuert navigiert wird (vergl. hierzu auch Fig. 5, 6 und 7). Für die Navigation stehen in Abhängigkeit des Sprachdialogs mit den Sprachausgaben 321, 322, 323, verschiedene Standard- Sprachmodelle 312 zur Verfügung, die jeweils um spezifisch generierte Sprachmo­ delle 311, 313 erweitert werden. Übergeordnete Begriffe können den Standard- Sprachmodellen 312 entnommen werden; dabei haben diese die Aufgabe die Navi­ gation zu erleichtern oder zu erläutern. So steht im dargestellten Beispiel zu jedem Zeitpunkt eine Hilfefunktion über das Wort "Hilfe" zur Verfügung; oder der Begriff "Wiederholen" bewirkt, daß das System die zuletzt genannte Frage wiederholt. "Zu­ rück" bewirkt die Navigation zum letzten Dialog, "weiter" die Navigation zum Folge­ dialog. "Wo bin ich" gibt die Hierarchie im Fehlermodell an, "Alle vorlesen" bewirkt dass alle alternativen Begriffe gleicher Ebene dem Benutzer vorgelesen werden. FIG. 4 shows how navigation in the hierarchical error model 33 is voice-controlled (cf. also FIGS. 5, 6 and 7). Depending on the speech dialog with speech outputs 321 , 322 , 323 , various standard speech models 312 are available for navigation, each of which is expanded by specifically generated speech models 311 , 313 . Higher-level terms can be found in the standard language models 312 ; they have the task of facilitating or explaining the navigation. In the example shown, a help function is available at any time via the word "help"; or the term "repeat" causes the system to repeat the latter question. "Back" causes the navigation to the last dialog, "Next" navigation to the next dialog. "Where am I" indicates the hierarchy in the error model, "Read all" means that all alternative terms on the same level are read out to the user.

Weitere allgemeingültige Navigationshilfen sind an dieser Stelle möglich um zum Beispiel schnell von einem Ort des Fehlermodells an einen Ort eines anderen Feh­ lermodells zu navigieren.Further general navigation aids are possible at this point to Example quickly from one location of the fault model to a location of another fault to navigate the model.

Die Navigation in und zwischen Fehlermodellen wird an Hand eines in Fig. 7 ge­ zeigten Beispiels erläutert. Der Sprachdialog beginnt mit der Auswahl eines Fehler­ modells. Im Beispiel könnte diese lauten: "Ventilfehler", "Lagerfehler" oder "Hydrau­ likfehler". Alle alternativen Fehlermodelle werden dabei vom System vorgelesen. Der verfügbare Sprachschatz besteht jeweils aus den übergeordneten Begriffen 312 (Fig. 4), sowie den individuellen Schlüsselworten 311 des Dialogs. Weiterhin kann wäh­ rend des Vorlesens ein Begriff mit dem Schlüsselwort "wählen" ausgewählt werden. Im Beispiel gemäß Fig. 4 entscheidet sich der Benutzer für den Bergriff Ventilfehler. Der Dialog verzweigt nun in das Fehlermodell Ventilfehler.The navigation in and between error models is explained using an example shown in FIG. 7. The voice dialog begins with the selection of an error model. In the example, this could be: "valve error", "bearing error" or "hydraulic error". All alternative error models are read out by the system. The available vocabulary consists of the higher-level terms 312 ( FIG. 4) and the individual keywords 311 of the dialog. Furthermore, a term with the keyword "choose" can be selected during the reading. In the example according to FIG. 4, the user decides to use valve errors. The dialog now branches to the error model valve error.

Da es sich um XML basierte Fehlermodelle handelt, wie in Fig. 8 beispielhaft be­ schrieben, können die für den weiteren Dialog erforderlichen Informationen zur Navi­ gation und Position aus den vorhandenen Modellen extrahiert werden. Die so ge­ wonnenen Daten werden von der Dialog-Engine 22 ausgewertet und gruppiert, so daß sie in die Lage versetzt wird, eine neue Hierarchieebene zu bilden, in die der Benutzer verzweigt wird, im Beispiel aus den verschiedenen Fehlerhypothesen be­ stehend. Gleichzeitig werden auch alle für die Spracherkennung wesentlichen Daten gesammelt und dem Sprachschatz zur Generierung eines aktuellen Sprachmodells zugeführt. Der Umgang mit den gefundenen XML Strukturen und den zugehörigen Dialogsequenzen wird ebenfalls aus den vorhandenen Fehlermodell-Merkmalen ex­ trahiert. So entstehen die verschiedenen, im Beispiel vorgestellten Dialogarten, bzw. Sprachausgaben 321, 322 und 323.Since XML-based error models are involved, as described by way of example in FIG. 8, the information relating to navigation and position required for the further dialog can be extracted from the existing models. The data obtained in this way are evaluated and grouped by the dialog engine 22 so that it is able to form a new hierarchical level into which the user is branched, in the example consisting of the various error hypotheses. At the same time, all the data essential for speech recognition are also collected and fed to the language treasure to generate a current language model. The handling of the XML structures found and the associated dialog sequences is also extracted from the existing error model features. This is how the various dialog types or speech outputs 321 , 322 and 323 presented in the example are created.

Im Beispiel gemäß Fig. 4 verzweigt die Dialog-Engine in das Fehlermodell Ventilfeh­ ler, wobei dem Benutzer alle alternativen Hypothesen 322 vorgesprochen werden. Wiederum stehen ihm die aus den XML Modellen extrahierten Schlüsselworte für seine Entscheidung zur Verfügung: "Installationsfehler", "Überlast", "Dichtung un­ dicht", "Falsches Medium" und "Verschmutzung", sowie der Begriff "prüfen". Im Bei­ spiel entscheidet sich der Benutzer für die Alternative "Dichtung undicht". Die Dialog- Engine extrahiert auch hier aus den Fehlermodellen den weiteren Fortgang des Benutzerdialogs und verzweigt an dieser Stelle zu einer Checkliste 323, mit welcher der Benutzer die ausgewählte Hypothese prüfen kann. Ihm wird die Checkliste 323 vor­ gelesen und er kann die entsprechenden Bauteile gemäß der Checkliste kontrollie­ ren. Zur besseren Handhabung kann der Dialog nach jedem Checkpunkt stoppen und auf ein "weiter" Kommando warten. Teilweise kommt es vor, daß Fehlermodelle weitere Fehlermodelle referenzieren, wie Fig. 6 zeigt. Im Beispiel der Fig. 7 wird auf ein Fehlermodell mit Namen "Dichtungsfehler" verwiesen. Dies bringt der Dialog da­ durch zum Ausdruck, daß er eine Alternative mit: "tiefere Diagnose möglich: Dich­ tungsfehler" als Auswahl anbietet. Nennt der Benutzer den jeweiligen Fehlermodell­ namen, beispielsweise "Dichtungsfehler", beginnt das System mit der Sprachausga­ be 321, d. h. mit einer erneuten Dialogaufnahme.In the example according to FIG. 4, the dialog engine branches into the valve fault error model, with all alternative hypotheses 322 being spoken to the user. Again, the keywords extracted from the XML models are available for his decision: "Installation error", "Overload", "Seal not tight", "Wrong medium" and "Contamination", as well as the term "Check". In the example, the user opts for the alternative "seal leaking". Here too, the dialog engine extracts the further progress of the user dialog from the error models and at this point branches to a checklist 323 with which the user can test the selected hypothesis. The checklist 323 is read to him and he can check the corresponding components according to the checklist. For better handling, the dialog can stop after each checkpoint and wait for a "next" command. It sometimes happens that error models reference further error models, as shown in FIG. 6. In the example in FIG. 7, reference is made to an error model with the name "sealing error". The dialogue expresses this by offering an alternative with: "Deeper diagnosis possible: sealing error" as a selection. If the user names the respective fault model, for example "sealing fault", the system starts with the speech output 321 , ie with a renewed dialog recording.

Fig. 5 zeigt als Prinzipdarstellung ein Fehlermodell 33. Die oberste Ebene beinhaltet das Prozeßmodell mit mehreren Prozeßschritten. Jeder Prozeßschritt kann in weitere Prozeßschritte untergliedert werden. Zu jedem Prozeßschritt gibt es Fehlerereignisse und kritische Komponenten mit zugeordnetem Fehlerbaum. Die Knoten eines Feh­ lerbaumes repräsentieren Fehlerhypothesen. Wesentlicher inhaltlicher Bestandteil einer Fehlerhypothese ist eine Checkliste zur Verifikation. Die Inhalte einer Fehlerhy­ pothese sind in Fig. 7 beispielhaft angegeben Fig. 5 shows a schematic diagram of an error Modell 33. The top level contains the process model with several process steps. Each process step can be divided into further process steps. For each process step there are error events and critical components with an assigned error tree. The nodes of an error tree represent error hypotheses. A checklist for verification is an essential part of the content of an error hypothesis. The contents of an error hypothesis are given by way of example in FIG. 7

Fig. 6 zeigt die Struktur eines Fehlerbaums. Das Modell hat einen hierarchischen Aufbau und besteht in der einfachsten Ausprägung aus zwei Ebenen. Die oberste Ebene repräsentiert das Fehlerereignis. Einem Fehlerereignis können mehrere Feh­ lerhypothesen unterlagert sein. Die logische Abhängigkeit kann folgendermaßen formuliert werden: Ein oder mehrere Fehlerhypothesen können Ursache für das Fehlerereignis sein. Fehlerereignis und Fehlerhypothese haben eine ähnliche inhalt­ liche Beschreibung. Die Fehlerhypothese kann zur tiefergehenden Analyse auf ande­ re Fehlermodelle verweisen, d. h. ein Fehlerbaum kann sich aus mehreren Teilbäu­ men zusammensetzen. Die Verbindung wird durch das Attribut Fehlerbaumreferenz hergestellt. Fig. 6 shows the structure of a fault tree. The model has a hierarchical structure and consists of two levels in its simplest form. The top level represents the error event. Several error hypotheses can be subordinate to an error event. The logical dependency can be formulated as follows: One or more error hypotheses can be the cause of the error event. Fault event and fault hypothesis have a similar content description. The error hypothesis can refer to other error models for in-depth analysis, ie an error tree can consist of several subtrees. The connection is established using the error tree reference attribute.

Fig. 7 zeigt ein Fehlermodell für Ventilfehler. Die Hypothesen für das Fehlerereignis Ventilfehler sind: Installationsfehler, Überlast, Dichtung undicht, falsches Medium und Verschmutzung. Die Hypothese "Dichtung undicht" ist inhaltlich näher beschrieben. Fig. 7 illustrates an error model for valve faults. The hypotheses for the valve fault event are: installation errors, overload, seal leaking, wrong medium and contamination. The hypothesis "seal leaking" is described in more detail.

Sie besteht im Wesentlichen aus einer Verifikationscheckliste mit den Diagnosekrite­ rien: Leckage, zerstörte Dichtungselemente, falsches Dichtungselement und Dich­ tungssitz beschädigt. Zum Verifizieren dieser Hypothese kann mit Hilfe der Fehler­ baumreferenz das Fehlermodell für Dichtungsfehler herangezogen werden.It essentially consists of a verification checklist with the diagnostic criteria rien: Leakage, destroyed sealing elements, wrong sealing element and you seat damaged. The error can be used to verify this hypothesis tree reference, the failure model for sealing failures can be used.

Fig. 8 zeigt beispielhaft die Instanz eines Fehlermodells in XML. Sämtliche Typen beginnen mit dem Prefix rca, gefolgt von all für Attribut oder elt für Element. Danach folgt eine kurze Beschreibung des anwendungsspezifischen Kontextes, wie bei­ spielsweise 'Fehlerhypothese'. Die inhaltliche Bestandteile stehen entsprechend der XML-Syntax in Hochkomma. Da die Inhalte entsprechend ihres Kontextes beschrie­ ben sind, können XML-Daten auf einfache Weise verarbeitet werden. Fig. 8 the instance exemplifies an error model in XML. All types begin with the prefix rca, followed by all for attribute or elt for element. This is followed by a brief description of the application-specific context, such as in the case of an 'error hypothesis'. The content components are in single quotes in accordance with the XML syntax. Since the content is described according to its context, XML data can be processed easily.

Claims (8)

1. Verfahren zur sprachgesteuerten Fehlerdiagnose, wobei
eine Datenverarbeitungseinrichtung (20) verwendet wird, die eine Spracher­ kennungs-Engine (21) mit Zugriff auf einen gespeicherten Sprachschatz (31), eine Dialog-Engine (22) und einen Sprachschatzgenerator (23) enthält,
eine Spracheingabe-Einrichtung (11) und eine Sprachausgabe-Einrichtung (12) für einen Dialogverkehr mit der Dialog-Engine (22) verwendet wird, und
wobei zur Durchführung einer sprachgesteuerten Fehlerdiagnose:
  • a) in einem ersten Schritt (100) mittels der Spracheingabe-Einrichtung (11) eingege­ bene Sprachsignale mittels der Spracherkennungs-Engine (21) durch Digitalisie­ rung und Filterung der Sprachsignale vorverarbeitet werden, ein Vergleich mit dem gespeicherten Sprachschatz (31) durchgeführt wird, und eine damit erkannte Sprachsequenz an die Dialog-Engine (22) weitergegeben wird, und
  • b) in einem zweiten Schritt (200) die Dialog-Engine (22) eine zur erkannten Sprach­ sequenz passende Dialogsequenz mittels der Sprachausgabe-Einrichtung (12) ausgibt.
1. Procedure for voice-controlled fault diagnosis, whereby
a data processing device ( 20 ) is used, which contains a language recognition engine ( 21 ) with access to a stored vocabulary ( 31 ), a dialog engine ( 22 ) and a vocabulary generator ( 23 ),
a speech input device ( 11 ) and a speech output device ( 12 ) are used for a dialogue with the dialogue engine ( 22 ), and
whereby to carry out a voice-controlled fault diagnosis:
  • a) in a first step ( 100 ) by means of the speech input device ( 11 ) input speech signals are preprocessed by means of the speech recognition engine ( 21 ) by digitization and filtering of the speech signals, a comparison with the stored speech treasure ( 31 ) is carried out, and a speech sequence thus recognized is passed on to the dialog engine ( 22 ), and
  • b) in a second step ( 200 ) the dialog engine ( 22 ) outputs a dialog sequence matching the recognized speech sequence by means of the speech output device ( 12 ).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Datenver­ arbeitungseinrichtung (20) verwendet wird, deren Dialog-Engine (22) Zugriff auf ge­ speicherte Dialogsequenzen (32) und Fehlermodelle (33) hat, und dass die Ausgabe der zur erkannten Sprachsequenz passenden Dialogsequenz entweder
  • a) nach einem dritten Schritt (300) erfolgt, in dem die Dialog-Engine (22) die passende Dialogsequenz als eine der gespeicherten Dialogsequenzen (32) er­ mittelt hat, oder
  • b) nach mehreren Schritten (300, 400, 500) erfolgt, wobei im Fall einer in den gespeicherten Dialogsequenzen (32) fehlenden passenden Dialogsequenz, die auszugebende passende Dialogsequenz dynamisch aus den Fehlermodellen (33) generiert wird.
2. The method according to claim 1, characterized in that a Datenver processing device ( 20 ) is used, the dialog engine ( 22 ) has access to ge stored dialog sequences ( 32 ) and error models ( 33 ), and that the output of the recognized speech sequence matching dialogue sequence either
  • a) after a third step ( 300 ) in which the dialog engine ( 22 ) has determined the appropriate dialog sequence as one of the stored dialog sequences ( 32 ), or
  • b) takes place after several steps ( 300 , 400 , 500 ), whereby in the case of a suitable dialog sequence missing in the stored dialog sequences ( 32 ), the appropriate dialog sequence to be output is generated dynamically from the error models ( 33 ).
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine Datenver­ arbeitungseinrichtung (20) verwendet wird, die außerdem einen Sprachschatz- Generator (23) enthält, der Zugriff auf die Fehlermodelle (33) hat, und dass die dy­ namische Generierung der passenden Dialogsequenz dadurch erfolgt, dass in einem vierten Schritt (400) zunächst die Dialog-Engine (22) anhand der erkannten Sprach­ sequenz eines der Fehlermodelle (33) auswählt und aus dessen Fehlerhypothesen einen ergänzenden Sprachschatz generiert und dem gespeicherten Sprachschatz (31) hinzufügt, und dass die Dialog-Engine (22) in einem fünften Schritt (500) unter Zugriff auf den so ergänzten Sprachschatz (31) die auszugebende Dialogsequenz erzeugt.3. The method according to claim 2, characterized in that a data processing device ( 20 ) is used, which also contains a vocabulary generator ( 23 ) that has access to the error models ( 33 ), and that the dynamic generation of the appropriate dialog sequence in a fourth step ( 400 ), the dialog engine ( 22 ) first selects one of the error models ( 33 ) on the basis of the recognized language sequence and generates a supplementary vocabulary from its error hypothesis and adds it to the stored vocabulary ( 31 ), and the dialog engine ( 22 ) generates the dialog sequence to be output in a fifth step ( 500 ) while accessing the vocabulary ( 31 ) thus supplemented. 4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass XML basierte hierarchische Fehlermodelle (33) verwendet werden.4. The method according to claim 2 or 3, characterized in that XML-based hierarchical error models ( 33 ) are used. 5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeich­ net, dass ein Telefon, insbesondere Mobiltelefon zur Sprachein- und -ausgabe ver­ wendet wird.5. The method according to any one of the preceding claims, characterized net that ver a phone, especially mobile phone for voice input and output is applied. 6. System zur sprachgesteuerten Fehlerdiagnose, das eine Spracheingabe- Einrichtung (11), eine Sprachausgabe-Einrichtung (12), sowie eine Datenverarbei­ tungseinrichtung (20) aufweist, die eine Spracherkennungs-Engine (21) mit Zugriff auf einen gespeicherten Sprachschatz (31), eine Dialog-Engine (22) mit Zugriff auf gespeicherte Dialogsequenzen (32) und hierarchische XML basierte Fehlermodelle (33), und einen Sprachschatzgenerator (23) mit Zugriff auf die Fehlermodelle (33) enthält, wobei das System dafür eingerichtet ist, mittels der Spracheingabe- Einrichtung (11) eingegebene Sprachsignale mittels der Spracherkennungs-Engine (21) durch Digitalisierung und Filterung der Sprachsignale vorzuverarbeiten, einen Vergleich mit dem gespeicherten Sprachschatz (31) durchzuführen, eine damit erkannte Sprachsequenz an die Dialog-Engine (22) weiterzugeben, und eine zur er­ kannten Sprachsequenz passende Dialogsequenz auszugeben.6. System for voice-controlled error diagnosis, which has a voice input device ( 11 ), a voice output device ( 12 ), and a data processing device ( 20 ), which has a speech recognition engine ( 21 ) with access to a stored vocabulary ( 31 ) , contains a dialog engine ( 22 ) with access to stored dialog sequences ( 32 ) and hierarchical XML-based error models ( 33 ), and a vocabulary generator ( 23 ) with access to the error models ( 33 ), the system being set up by means of the Speech input device ( 11 ) preprocessed speech signals by means of the speech recognition engine ( 21 ) by digitizing and filtering the speech signals, carrying out a comparison with the stored vocabulary ( 31 ), forwarding a speech sequence thus recognized to the dialog engine ( 22 ), and to output a dialogue sequence that matches the recognized speech sequence. 7. System nach Anspruch 6, dadurch gekennzeichnet, daß die Fehlermodelle (33) Standard-Sprachmodelle (312) enthalten, die abhängig von einem geführten Dialog (321, 322, 323) um damit spezifisch generierte Sprachmodelle (311, 313) er­ weiterbar sind.7. System according to claim 6, characterized in that the error models ( 33 ) contain standard language models ( 312 ), which depending on a dialog ( 321 , 322 , 323 ) to specifically generated language models ( 311 , 313 ) he can be extended , 8. System nach Anspruch 6 oder 7, dadurch gekennzeichnet, daß als Sprach­ eingabe-Einrichtung (11) und als Sprachausgabe-Einrichtung (12) ein Telefon oder Mobiltelefon verwendet ist.8. System according to claim 6 or 7, characterized in that a telephone or mobile phone is used as a speech input device ( 11 ) and as a speech output device ( 12 ).
DE2001104902 2001-02-03 2001-02-03 Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence Withdrawn DE10104902A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001104902 DE10104902A1 (en) 2001-02-03 2001-02-03 Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001104902 DE10104902A1 (en) 2001-02-03 2001-02-03 Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence

Publications (1)

Publication Number Publication Date
DE10104902A1 true DE10104902A1 (en) 2002-08-08

Family

ID=7672749

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001104902 Withdrawn DE10104902A1 (en) 2001-02-03 2001-02-03 Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence

Country Status (1)

Country Link
DE (1) DE10104902A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009052913A1 (en) * 2007-10-19 2009-04-30 Daimler Ag Method and device for testing an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19709518C1 (en) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Speech entering method as motor vehicle destination address in real time
US5924069A (en) * 1997-01-30 1999-07-13 Lucent Technologies Inc. Voice-control integrated field support data communications system for maintenance, repair and emergency services
DE19801751A1 (en) * 1998-01-20 1999-07-22 T Angewandte System Technik Ma System for control or operation of sensors and switches or appliances using acoustic or modulated signals with at least one microphone for reception and further communication of acoustic and/or spoken commands

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5924069A (en) * 1997-01-30 1999-07-13 Lucent Technologies Inc. Voice-control integrated field support data communications system for maintenance, repair and emergency services
DE19709518C1 (en) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Speech entering method as motor vehicle destination address in real time
DE19801751A1 (en) * 1998-01-20 1999-07-22 T Angewandte System Technik Ma System for control or operation of sensors and switches or appliances using acoustic or modulated signals with at least one microphone for reception and further communication of acoustic and/or spoken commands

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP 01278161 A.,In: Patent Abstracts of Japan *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009052913A1 (en) * 2007-10-19 2009-04-30 Daimler Ag Method and device for testing an object
DE102007050127A1 (en) 2007-10-19 2009-04-30 Daimler Ag Method and device for testing an object

Similar Documents

Publication Publication Date Title
EP1303797B1 (en) System for support of an error cause analysis
DE60222093T2 (en) METHOD, MODULE, DEVICE AND VOICE RECOGNITION SERVER
DE60005326T2 (en) DETECTION UNITS WITH COMPLEMENTARY LANGUAGE MODELS
DE60016722T2 (en) Speech recognition in two passes with restriction of the active vocabulary
DE19615693C1 (en) Device and method for action determination
DE102005016561B4 (en) Method and device for the structured acquisition and processing of problems occurring in a system
EP1964110B1 (en) Method for triggering at least one first and second background application via a universal language dialogue system
WO2002013015A1 (en) System for determining error causes
EP1273003B1 (en) Method and device for the determination of prosodic markers
WO2005111752A1 (en) Knowledge-based diagnostic system for a complex technical system, comprising two separate knowledge bases for processing technical system data and customer complaints
DE19847419A1 (en) Procedure for the automatic recognition of a spoken utterance
DE10297333T5 (en) Chart parsing using condensed grammar representations
DE602004004310T2 (en) System with combined statistical and rule-based grammar model for speech recognition and understanding
EP0702353A2 (en) System and method for outputting synthetic speech in response to input speech signals
EP0836175B1 (en) Method and apparatus for the derivation of at least one sequence of words from a speech signal
EP1884924A1 (en) Method for creating a context-based voice dialogue output in a voice dialogue system
DE60133537T2 (en) AUTOMATIC UMTRAINING OF A LANGUAGE RECOGNITION SYSTEM
DE10100725C1 (en) Automatic dialogue system for speech interrogation of databank entries uses speech recognition system assisted by speech model obtained before beginning of dialogue
EP1035707A2 (en) Method, generation modul, server, control modul and storing device for creating validation rules
DE60002455T2 (en) METHOD AND DEVICE FOR AUTOMATIC SOFTWARE TESTING
EP1451689A2 (en) Method and system for processing fault hypotheses
DE10104902A1 (en) Voice-controled fault diagnosis involves comparing input speech signals with stored voice file, passing recognized speech sequence to dialog engine, which outputs matching dialog sequence
EP1321851A2 (en) Method for running a speech dialogue system
DE60126948T2 (en) INTERACTIVE DIALOGUE
DE60222413T2 (en) VOICE RECOGNITION

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee