DE69332282T2 - Verfahren und Gerät für Benutzersteuerung durch Ermittlung der nächsten Prozesszustände aus dem aktuellen Zustand und durch visuelle Darstellung der abgeleiteten nächsten Zustände - Google Patents

Verfahren und Gerät für Benutzersteuerung durch Ermittlung der nächsten Prozesszustände aus dem aktuellen Zustand und durch visuelle Darstellung der abgeleiteten nächsten Zustände

Info

Publication number
DE69332282T2
DE69332282T2 DE69332282T DE69332282T DE69332282T2 DE 69332282 T2 DE69332282 T2 DE 69332282T2 DE 69332282 T DE69332282 T DE 69332282T DE 69332282 T DE69332282 T DE 69332282T DE 69332282 T2 DE69332282 T2 DE 69332282T2
Authority
DE
Germany
Prior art keywords
camera
current state
derived
states
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69332282T
Other languages
English (en)
Other versions
DE69332282D1 (de
Inventor
Stephen Joy Boies
Liam David Comerford
John David Gould
Susan Lynn Spraragen
Jacob Paul Ukelson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE69332282D1 publication Critical patent/DE69332282D1/de
Application granted granted Critical
Publication of DE69332282T2 publication Critical patent/DE69332282T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Description

  • Die Vorliegende Erfindung befasst sich im Allgemeinen mit Systemen zur Prozesssteuerung und im Besonderen mit Systemen zur Prozesssteuerung mit einer Benutzerschnittstelle zur Anzeige von Informationen zu einem gesteuerten Prozess, wobei diese Systeme zur Prozesssteuerung weiterhin Eingaben vom Benutzer des Systems erhalten.
  • Ein System zur Prozesssteuerung kann einen digitalen Datenprozessor umfassen, der über Zugriffsmittel zum Steuern eines Prozesses sowie über eine grafische Anzeige zur Darstellung prozessbezogener Informationen für den Benutzer verfügt. Das System kann weiterhin ein oder mehrere Geräte für die Benutzereingabe zum Empfang von Eingaben durch den Benutzer des Systems umfassen. Die Anzeige kann den aktuellen Zustand des gesteuerten Prozesses grafisch darstellen und weiterhin eine Liste mit einer oder mehreren Zustandsvariablen zur Steuerung durch den Benutzer bereitstellen. Mögliche Beispiele umfassen ein Umgebungskontrollsystem für ein großes Gebäude, ein Kontrollsystem für einen Prozess zur Herstellung pharmazeutischer Produkte, für einen petrochemischen Raffinierungsprozess, ein Kontrollsystem für eine automatisierte Herstellungsoperation sowie ein Kontrollsystem zur Bildaufnahme oder für Photoapparate.
  • Im Allgemeinen beschränken sich die Möglichkeiten des Benutzers bei den bekannten Systemtypen auf den Versuch, einen anderen Status mittels probeweiser Bearbeitung einiger Systemvariablen zu erreichen (Trial and Error). Bei einem Umgebungskontrollsystem beispielsweise kann der Benutzer über die Möglichkeit verfügen, die Heißluftzufuhr in einem ausgewählten Bereich des Gebäudes zu ändern. Doch der Einsatz dieser Trial-and-Error-Methode bietet nicht immer ein optimales Ergebnis.
  • Weiterhin kann der Einsatz vorprogrammierter nächster Systemzustände nicht immer eine optimale Lösung im Falle eines bestimmten Prozesssteuerungsproblems bieten.
  • Sowohl beim Trial-and-Error-Ansatz als auch beim vorprogrammierten Ansatz ist der Benutzer möglicherweise nicht genügend über die Wirkung informiert, die ein bestimmter nächster Zustand auf das gesteuerte System haben kann. So trifft er eine Entscheidung ohne die nötigen Informationen über einen nächsten Zustand, basierend auf dem aktuellen Zustand des Systems.
  • Bekannte Systeme bieten normalerweise grafische Darstellungen von Objekten und sie bieten ein Mittel zum Implementieren von "Steuerungen" für diese Objekte, um ein gewünschtes Verhalten zu erzielen. Ein Beispiel ist hier das US-Patent Nr. 4,649,499 vom 10. März 1987 mit dem Titel "Touchscreen Two-Dimensional Emulation of Three-Dimensional Objects" von J. Sutton et al., das die Verwendung eines Touchscreens zum Emulieren dreidimensionaler Objekte auf einem zweidimensionalen Computerbildschirm beschreibt. Das System wird eingesetzt, um die Operation einer Desktop Rotary Card File und eines Taschenrechners zu emulieren. In dem Ausführungsbeispiel des Taschenrechners wird die Abbildung eines Taschenrechners gezeigt, und der Benutzer berührt die "Tasten", um den Taschenrechner zu bedienen. Dieses Ausführungsbeispiel umfasst jedoch nicht die Generierung und Anzeige von ermittelten (potentiellen) nächsten Zuständen eines Prozesses, in Verbindung mit einem aktuellen Zustand des Prozesses, oder die Möglichkeit für den Benutzer, aus einer Vielzahl von ermittelten nächsten Zuständen den tatsächlichen nächsten aktuellen Zustand auszuwählen.
  • US-A-5,049,988 legt ein Gerät offen, um eine Überwachungs- Videokamera mit Weitwinkelobjektiven und einem beweglichen Videosensor bereitzustellen. Der Sensor kann an einer beliebigen Stelle auf der Brennebene des optischen Systems platziert werden, so dass ein qualitativ hochwertiges Bild von jedem Bereich in Sichtweite des Kamera erstellt werden kann, indem der Sensor auf den Teil der Brennebene mit dem Bild dieses Bereichs bewegt wird.
  • In US-A-4,516,156 wird ein Gerät zur Steuerung von Videokonferenzen offengelegt, mit der Möglichkeit zur einfachen Handhabung des Videosystems selbst für unerfahrene Benutzer, so dass der Eindruck von Entfernung zwischen den Konferenzteilnehmern nicht mehr empfunden wird. Zu diesem Ziel erfordert die Erfindung mehrere Videokameras, so dass die Konferenzteilnehmer aus mehreren Winkeln aufgenommen werden können. Weitere Vorschläge werden für die Fernsteuerung der Kamera oder der Kameras gemacht, so dass die Ansicht angepasst werden kann.
  • WO 92/03816 beschreibt eine Methode zur Steuerung eines Systems zur Darstellung von Bildern auf einer ersten Anzeige, welches über einen Hilfsmonitor verfügt. Das bevorzugte Ausführungsbeispiel umfasst eine von Hand bediente Anzeigensteuerung einschließlich einer Reihe von Schaltern zur Steuerung des Hauptmonitors sowie des Hilfsmonitors, damit der Benutzer jede der verschiedenen Optionen anzeigen kann. Diese Optionen umfassen eine Kopie des angezeigten Bildes auf dem Hauptmonitor, das nächste, auf dem Hauptmonitor anzuzeigende Bild usw.
  • Es ist somit ein Ziel der vorliegenden Erfindung, eine Schnittstelle im Prozesskontrollsystem bereitzustellen, die einen oder mehrere nächste Zustände eines Systems ableitet, basierend auf einem aktuellen Zustand des Systems sowie auf einem rechnerischen Modell des Systems und das weiterhin eine visuelle Anzeige des einen oder der mehreren nächsten Zustände in Verbindung mit einer visuellen Anzeige des aktuellen Zustands bietet.
  • Es ist ein weiteres Ziel der vorliegenden Erfindung, eine Schnittstelle eines Prozesssteuerungssystems bereitzustellen, das einen oder mehrere nächste Zustände eines Systems ableitet, basierend auf einem aktuellen Zustand des Systems sowie auf einem rechnerischen Modell des Systems, das eine visuelle Anzeige des einen oder der mehreren nächsten Zustände sowie eine visuelle Anzeige des aktuellen Zustands bereitstellt, und das System in einen nächsten Zustand versetzt, in Reaktion auf die Auswahl von einem der angezeigten nächsten Zustände durch den Benutzer.
  • Die Erfindung wird in den unabhängigen Ansprüchen 1 und 20 beschrieben. Spezielle Ausführungsbeispiele werden in den abhängigen Ansprüchen beschrieben.
  • In Reaktion auf die Auswahl des angezeigten aktuellen Zustands des Prozesses durch den Benutzer, umfasst die Methode den Schritt zum Akzeptieren des aktuellen Zustands.
  • Ein Aspekt der vorliegenden Erfindung befasst sich mit der Erkennung eines gesteuerten Prozesses vom Standpunkt des Benutzers. In Übereinstimmung mit der vorliegenden Erfindung wird dem Benutzer entweder eine Reihe von Möglichkeiten geboten, die alle entweder den aktuellen Zustand oder einen oder mehrere mögliche nächste Zustände beschreiben, die vom aktuellen Zustand abgeleitet wurden. Jede Möglichkeit kann dem Benutzer grafisch oder auf andere Art dargestellt werden. Der Benutzer wählt aus den dargestellten Möglichkeiten aus, damit sich die Darstellung des aktuellen Zustands stärker einem gewünschten nächsten Zustand oder einem gewünschten Endzustand nähert. Das System und die Methode der vorliegenden Erfindung dienen der Unterstützung des Benutzers bei der Auswahl von Aktionen, die erforderlich sind, um die Vereinbarkeit zwischen aktuellem Zustand und dem gewünschten nächsten Zustand oder dem gewünschten Endzustand aufzuzeigen. Das System und die Methode dienen ebenfalls der Aktualisierung der Reihe von Möglichkeiten, basierend auf der vorangegangenen Auswahl durch den Benutzer und/oder basierend auf einem bestimmten Zeitablauf. Als Ergebnis muss der Benutzer lediglich zwischen verschiedenen angezeigten Alternativen wählen, bis ein zufriedenstellendes Ergebnis erzielt wurde.
  • Vorzugsweise werden die Darstellungen des aktuellen Zustands sowie die Darstellungen der alternativen Zustände, die von aktuellen Zustand abgeleitet wurden, auf eine Weise auf dem Bildschirm aufgereiht, dass sie für den Benutzer sinnvoll und nachvollziehbar hinsichtlich des Prozesses bleiben. Im Kontext der vorliegenden Erfindung bezieht sich der Begriff "abgleitet" auf computergenerierte vorgegebene Transformationen oder Umwandlungen. In einem möglichen Ausführungsbeispiel handelt es sich um die Ausrichtung einer Kamera, damit der Benutzer mithilfe des Selbstauslösers ein Bild von sich aufnehmen kann. Dafür werden abgeleitete geneigte Bilder der Kamera entlang einer y-Achse des Bildschirms und abgeleitete geschwenkte Bilder der Kamera entlang einer x-Achse des Bildschirms und abgeleitete vergrößerte oder verkleinerte (Zoom) Bilder der Kamera entlang einer einwärts gerichteten z-Achse platziert, mit einem physisch größeren abgeleiteten vergrößerten Bild, das dem Benutzer "näher" erscheint.
  • Eine Benutzerschnittstelle nach den Angaben der vorliegenden Erfindung umfasst eine Prozessmodelleinheit zur Vorhersage eines oder mehrerer nächster Zustände aus einem aktuellen Zustand des Prozesses sowie eine Anzeigeverarbeitungseinheit zum Ableiten einer Darstellung des zuzlässigen nächsten Zustands für jeden der zulässigen nächsten Zustände. Die Anzeigeverarbeitungseinheit verfügt über eine Ausgabe, die mit einem Anzeigebildschirm gekoppelt ist, um jede der Darstellungen in Verbindung mit einer einzelnen Darstellung des aktuellen Zustands des Prozesses anzuzeigen. Die Benutzerschnittstelle umfasst weiterhin einen Prozesscontroller, der mit einem Eingabemechanismus gekoppelt ist, wobei der Benutzer eine der Darstellungen der zulässigen nächsten Zustände auswählt. Der Prozesscontroller steuert Mechanismen, die den gesteuerten Prozess dergestalt ausführen, dass der Prozess in einen neuen nächsten Zustand übergeht, der wiederum der ausgewählten abgeleiteten Darstellung entspricht.
  • Der Bildschirm verfügt beispielsweise über Touchscreen- Funktionen, wobei der Benutzer eine der Darstellungen physikalisch auswählt, indem er den Bildschirm innerhalb eines Bereichs berührt, der dem einen ausgewählten Zustand aus den abgeleiteten möglichen Zuständen oder dem aktuellen Zustand entspricht.
  • In dem obigen Beispiel hat die Auswahl des aktuellen Zustands den Effekt, dass das aufgenommene Bild gespeichert wird. Generell hat die Auswahl des aktuellen Zustands Auswirkungen, die für den bestimmten gesteuerten Prozess charakteristisch sind. Diese Auswirkungen könnten beispielsweise die detailliertere Anzeige der vom Benutzer ausgewählten Darstellung oder das Ändern der Darstellung von Schwarz-Weiß in Farbe sein.
  • Die obige Beschreibung sowie weitere Eigenschaften der Erfindung werden veranschaulicht durch die nachfolgende detaillierte Beschreibung der Erfindung in Verbindung mit den begleitenden Zeichnungen, wobei
  • Fig. 1 das Blockdiagramm eines Beispiels für ein Prozesssteuerungssystem darstellt, das in Übereinstimmung mit der vorliegenden Erfindung erstellt und ausgeführt wird;
  • Fig. 2a und 2b den Benutzerbildschirm für das Beispiel eines Prozesssteuerungssystems aus Fig. 1 darstellen, mit einer grafischen Anzeige eines aktuellen Systemzustands sowie einer Vielzahl von abgeleiteten möglichen nächsten Zuständen, wobei Fig. 2a den aktuellen Zustand und eine Reihe von abgeleiteten nächsten Zuständen zu einem ersten Zeitpunkt zeigt und Fig. 2b das Ergebnis der Auswahl von einem der abgeleiteten nächsten Zustände aus Fig. 2b zeigt;
  • Fig. 3 ein Blockdiagramm zeigt, das detaillierter die Anzeigeverarbeitungseinheit aus Fig. 1 darstellt;
  • Fig. 4 ein Blockdiagramm zeigt, das detaillierter die Anzeigemodelleinheit aus Fig. 1 darstellt;
  • Fig. 5 ein Blockdiagramm zeigt, das detaillierter die Motorsteuerungseinheit aus Fig. 1 darstellt;
  • Fig. 6 ein Flussdiagramm zeigt, das eine Methode der Erfindung darstellt.
  • Fig. 1 ist ein Blockdiagramm eines beispielhaften Prozesssteuerungssystems 10, das in Übereinstimmung mit der vorliegenden Erfindung konstruiert und betrieben wird. In Fig. 1 steuert der Prozess die Anzeigerichtung sowie die Größe des Ansichtsfelds einer Kamera 12. Dennoch wird im Folgenden ersichtlich werden, dass die allgemeine Umsetzung der vorliegenden Erfindung nicht auf das dargestellte Ausführungsbeispiel beschränkt ist.
  • Die Kamera 12 ist auf einem Kardanrahmen befestigt und verfügt über einen zugehörigen Neigungssteuerungsmotor 14 zum Drehen der Kamera 12 entlang einer x-Achse, einen Schwenksteuerungsmotor 16 zum Drehen der Kamera 12 entlang einer y-Achse sowie über einen Zoomsteuerungsmotor 18 der Linse 12a, um die Umsetzung entlang einer z-Achse zu ermöglichen. Der Zoomsteuerungsmotor 18 ermöglicht der Kamera 12 Vergrößerungs- und Verkleinerungs-Operationen. Die Motoren 14, 16 und 18 empfangen elektrische Befehlssignale von einem Neigungs-, Schwenk- und Zoom-Controller 20, der wiederum von einer Motorsteuerungseinheit 22 Befehle erhält. Ein von der Motorsteuerungseinheit 22 generierter Motorbefehl kann beispielsweise der sein, den Schwenkwinkel um +3º zu ändern. Daraufhin interpretiert der Controller 20 den Motorbefehl und generiert ein entsprechendes Schwenkmotor 16- Betätigungssignal, so dass die Kamera um den genannten Wert geschwenkt wird.
  • Der Betrieb des Neigungs-, Schwenk- und Zoom-Controllers 20 und der angefügten Motoren 14, 16 und 18 ist bekannt und somit wird der Betrieb dieser Elemente im Folgenden nicht detaillierter beschrieben.
  • Kamera 12 verfügt über eine Videoausgabe oder über ein Videosignal 12b an einen Bildaufnahmepuffer 24, Fachleuten auch als Frame Grabber bekannt. Der Bildaufnahmepuffer 24 umfasst einen Speicher für digitale Informationen für mindestens ein durch die Kamera 12 generiertes Bild. Wenn das Videosignal 12b in analoger Form gegeben wird, umfasst der Puffer 24 ebenfalls einen Konverter von analog in digital, um das analoge Videosignal vor dem Speichern in ein digitales Signal zu konvertieren. Der Bildaufnahmepuffer 24 stellt die gespeicherten digitalen Informationen als ein aktuelles Bild 24a einer Anzeigeverarbeitungseinheit 26 bereit.
  • In Übereinstimmung mit einem Aspekt der vorliegenden Erfindung arbeitet die Anzeigeverarbeitungseinheit 26 generell, um die visuellen Darstellungen von einem oder mehreren möglichen nächsten Prozesszuständen von einem aktuellen Zustand des Prozesses abzuleiten. Beim dargestellten Ausführungsbeispiel leitet die Anzeigeverarbeitungseinheit 26 eine Vielzahl von nächsten Kamerabildzuständen vom aktuellen Bild 24a ab und bietet als Ausgabe das aktuelle Bild sowie ein oder mehrere abgeleitete Kamerabilder. Diese Informationen werden in einem konventionellen Anzeigepuffer 28 gespeichert; von dem aus sie einem Anzeigebildschirm 30 mit Grafikfunktionen bereitgestellt werden.
  • Im dargestellten Ausführungsbeispiel, und ebenfalls gezeigt in Fig. 2, zeigt der Anzeigebildschirm 30 den aktuellen Kamerabildzustand in einem Bereich 30a an, einen abgeleiteten Schwenk rechts-Zustand in einem Bereich 30b, einen abgeleiteten Schwenk links-Zustand in einem Bereich 30c, einen abgeleiteten Verkleinerungs-Zustand in einem Bereich 30d, einen abgeleiteten Vergrößerungs-Zustand in einem Bereich 30e, einen abgeleiteten Neigung nach unten-Zustand in einem Bereich 30f, einen abgeleiteten Neigung nach oben-Zustand in einem Bereich 30g. Die angezeigten Zustände 30b-30g wurden alle vom aktuellen Bildzustand 30a abgeleitet und es wird dem Benutzer das Ergebnis bei Ausführung der entsprechenden Aktion gezeigt. Das heißt, dass jeder abgeleitete Zustand 30b-30g anzeigt, was aus dem aktuellen Bildzustand werden würde, wenn der entsprechende abgeleitete Zustand zur Ausführung durch den Benutzer ausgewählt würde.
  • Im Kontext dieser Erfindung bezeichnet der Begriff "abgeleitet" computergenerierte vorausgesagte Transformationen.
  • In diesem Ausführungsbeispiel der vorliegenden Erfindung verfügt der Anzeigebildschirm über Touchscreen-Funktionen. Das heißt, dass jeder der Bereiche 30a-30g so definiert und ausgeführt wird, dass es Möglichkeiten zum Umschalten gibt, das heißt, dass in Reaktion auf die tatsächliche Berührung der Bereiche 30a-30g durch den Benutzer Touchscreen-Signale 31 generiert werden. Die Touchscreen-Signale 31 umfassen Informationen zu den x-y-Koordinaten, die einen Ort auf dem Anzeigebildschirm 30 bezeichnen, der vom Benutzer berührt wurde. Die Touchscreen-Signale 31 werden einer Touchscreen- Entschlüsselungseinheit 32 bereitgestellt. In der Touchscreen- Entschlüsselungseinheit 32 werden die mit jedem der Bereiche 30a-30g verbundenen Bildschirmkoordinaten vordefiniert, um einen der vielen bestimmten Touchscreen-Bereiche zu beschreiben, so dass in Reaktion auf die Touchscreen-Signale 31 die Touchscreen-Steuereinheit in der Lage ist zu ermitteln, welcher der Bereiche 30a-30g vom Benutzer berührt wurde. Das heißt, dass die Touchscreen-Entschlüsselungseinheit 32 die Touchscreen-Signale 31 in ein bestimmtes Umschaltsignal konvertiert. Im dargestellten Ausführungsbeispiel verfügt der Anzeigebildschirm 30 über sieben (Softwaregenerierte) unabhängige Schalter, die entsprechend den Bereichen 30a-30g zugeordnet sind.
  • In anderen dargestellten Ausführungsbeispielen der vorliegenden Erfindung kann die Touchscreen-Funktion beispielsweise durch eine Tastatur-gesteuerte Maus und/oder ein Zeigegerät (Maus oder Cursor) ersetzt werden, wodurch der Benutzer in der Lage ist, dem System 10 einen der Bereiche 30a-30g anzugeben. Die spezifische Implementierung der Benutzereingabefunktion ist dementsprechend nicht grundlegend für das Verständnis oder die Umsetzung der vorliegenden Erfindung. Das heißt, andere Auswahlmethoden, wie Stimmerkennung, Light Pen usw. sind denkbar.
  • Die Fig. 2a und 2b zeigen den Anzeigebildschirm 30 für das beispielhafte Prozesssteuerungssystem aus Fig. 1. In diesem Beispiel handelt es sich bei dem von der Kamera 12 abgelichteten Objekt um den Benutzer des Systems 10, wie es in einem Fotoautomaten vorkommt. Als ein Ergebnis kann das System 10 ebenfalls einen Drucker oder ein anderes geeignetes Gerät umfassen, um einen Auszug (Hard Copy) des Kamerabildes herzustellen, nachdem die Kamera 12 für das abzulichtende Objekt korrekt platziert wurde. Ein anderes Mittel kann ebenfalls bereitgestellt werden, um das Bild zur späteren Verwendung zu speichern und/oder zu übertragen.
  • Die Anwendung für Selbstporträts zeigt am besten die Nützlichkeit der vorliegenden Erfindung. Konventionelle Techniken für Selbstporträts zeigen Probleme auf, wenn es um die großen Höhenunterschiede zwischen den Objekten und um Feedback-Mechanismen geht, um festzustellen, ob die Kamera richtig auf das abzulichtende Objekt eingestellt wurde. Diese Probleme wurden offenkundig, als Computeranwendungen entwickelt wurden, bei denen Selbstporträts oder Bilder der Teilnehmer ein integraler Bestandteil der Anwendung darstellten. Bei diesen Anwendungen handelt es sich unter anderem um Sicherheitssysteme, Multimedia-Anwendungen und Systeme für Konferenzschaltungen.
  • Vorzugsweise werden die aktuellen und abgeleiteten Bilder auf dem Anzeigebildschirm 30 auf eine Weise aufgereiht, die das physische Verständnis des Benutzers vom Prozess unterstützt, in diesem Falle die Bewegung der Kamera. Das heißt, die abgeleiteten Neigungsbereiche 30g und 30f werden entlang einer x-Achse des Bildschirms und die abgeleiteten Zoom-Bereiche 30d und 30e werden entlang einer nach innen gerichteten z-Achse angeordnet, mit dem physisch größeren abgeleiteten Vergrößerungs-Bildbreich 30e derart platziert, dass er dem Benutzer "näher" erscheint.
  • Beim Betrieb berührt der Benutzer oder wählt auf andere Art einen der Bereiche 30a-30g aus. In Reaktion darauf wird die Kamera 12 entsprechend neu positioniert und das aktuelle Bild 30a zeigt das Ergebnis der Neupositionierungsoperation. Weiterhin wird jedes der abgeleiteten und in den Bereichen 30b-30g gezeigten Bilder entsprechend dem neu ausgewählten aktuellen Bild sowie nach bestimmten Zeitintervallen aktualisiert. Beispielsweise wird der abgeleitete Schwenk rechts-Bildbereich 30b aktualisiert, um das Ergebnis einer Operation Schwenk nach rechts wiederzugeben, basierend auf dem aktuellen aktualisierten Bild 30a. Dieser Prozess wird fortgesetzt, bis das aktuelle Bild 30a ein vom Benutzer angegebenes Kriterium erfüllt. An diesem Punkt wählt der Benutzer den aktuellen Bildbereich 30a aus und das aktuelle Bild 30a wird gespeichert und/oder ausgedruckt.
  • In Fig. 2 wählt der Benutzer das abgeleitete Schwenk rechts- Bild 30b aus, um das im aktuellen Bildbereich 30a dargestellte Bild mehr in die Mitte zu rücken. In Reaktion darauf wird die Kamera 12 durch eine aktuelle Schwenk rechts-Stufe neu positioniert, was zur Aufnahme und Anzeige eines neuen aktuellen Bildes im Bereich 30a in Fig. 2a führt. Die in den Bereichen 30b-30g dargestellten Bilder werden alle vom neuen aktuellen Bild abgeleitet und zeigen mögliche alternative nächste Zustände für den Abbildungsprozess.
  • Weiterhin in Übereinstimmung mit der vorliegenden Erfindung wird jeder der abgeleiteten nächsten Zustände quantifiziert. Das heißt, dass jeder nächste Zustand so abgeleitet wird, dass er sich innerhalb einer vorbestimmten Entfernung zum aktuellen Zustand befindet. Im Beispiel von Fig. 2 bilden die abgeleiteten Zustände Schwenk rechts und Schwenk links eine vordefinierte Winkelverschiebung um die y-Achse vom aktuellen Zustand und die abgeleiteten Zustände Neigung nach unten und Neigung nach oben bilden eine vordefinierte Winkelverschiebung entlang der y-Achse. Ebenso ergeben die abgeleiteten nächsten Zustände Verkleinern und Vergrößern eine vordefinierte lineare Entfernung entlang der z-Achse.
  • In Fig. 1 werden die Informationen zu den Quantisierungsfaktoren der abgeleiteten nächsten Zustände von einer Prozessmodelleinheit 34 verwaltet. Die Prozessmodelleinheit 34 ist gekoppelt mit der Anzeigeverarbeitungseinheit 26, wie auch in Fig. 3 zu sehen ist, um hier die Quantisierungsfaktoren (aktuelle Stufe) bereitzustellen. Die Prozessmodelleinheit 34 ist ebenfalls mit der Motorsteuerungseinheit 22 gekoppelt, um dieser die Quantisierungsfaktoren bereitzustellen.
  • Generell ist die Prozessmodelleinheit 34 verantwortlich für die Vorhersage der möglichen nächsten Zustände, für die Bereitstellung der erforderlichen Informationen für die Anzeigeverarbeitungseinheit 22, um das Aussehen der nächsten Zustände abzuleiten, sowie für die Bereitstellung für die Motorsteuerungseinheit 22 zur Positionierung der Kamera, um einen Zustand zu erreichen, der einem der abgeleiteten Zustände entspricht.
  • Wie in Fig. 3 gezeigt, empfängt die Anzeigeverarbeitungseinheit 26 das aktuelle Bild 24a. Das aktuelle Bild 24a wird an einen Skalierblock 40 angelegt, wobei das aktuelle Bild 24a auf eine Größe verringert wird, die mit dem aktuellen Bildbereich 30a (Fig. 2) übereinstimmt. Bei der Ausgabe des Bildskalierblocks 40 handelt es sich um das skalierte aktuelle Bild 40a. Das skalierte aktuelle Bild 40a wird dem Anzeigepuffer 28 zur Anzeige innerhalb des aktuellen Bildbereichs 30a sowie einem Block zur Umwandlung des Bildschwenks 42, einem Block zur Umwandlung der Bildneigung 44 und einem Block zur Umwandlung des Bildzooms 46 bereitgestellt. Die Blöcke 42, 44 und 46 wenden alle eine vordefinierte Bildtransformationsfunktion auf das skalierte aktuelle Bild 40a an, in Übereinstimmung mit einer zugeordneten aktuellen Schwenk-Stufe, einer aktuellen Neigungs-Stufe und einer aktuellen Zoom-Stufe. Die aktuellen Stufen werden von der Prozessmodelleinheit 34 empfangen. Beim Betrieb der Blöcke 42, 44 und 46 werden die abgeleiteten nächsten Zustände des skalierten aktuellen Bildes 40a zur Anzeige in den Bereichen 30b-30g des Anzeigebildschirms 30 generiert.
  • Der Block zur Umwandlung des Bildschwenks 42 beispielsweise verschiebt das skalierte aktuelle Bild 40a horizontal um eine Anzahl an Pixeln, die einer Winkelverschiebung entsprechen, welche von der aktuellen Schwenk-Stufe festgelegt ist. Der Block zur Umwandlung der Bildneigung 44 verschiebt das skalierte aktuelle Bild 40a vertikal um eine Anzahl an Pixeln, die einer Winkelverschiebung entsprechen, welche von der aktuellen Neigungs-Stufe festgelegt ist. Der Block zur Umwandlung der Bildvergrößerung oder -verkleinerung 44 wendet sowohl eine Pixelerweiterung als auch eine Stauchung beim skalierten aktuellen Bild 40a an, um den abgeleiteten Vergrößerungs-Zustand sowie entsprechend den abgeleiteten Verkleinerungs-Zustand zu erzielen. Der Umfang an Pixel- Erweiterung und -Stauchung wird vom aktuellen Zoom-Stufen- Signal angegeben.
  • Fig. 4 zeigt ein Blockdiagramm mit der Prozessmodelleinheit 34. Die Prozessmodelleinheit 34 umfasst einen Controller 50, der Schalterbetätigungsinformationen 32a von der Touchscreen- Entschlüsselungseinheit 32 erhält. Die
  • Schalterbetätigungsinformationen 32a geben die Berührungen des Anzeigebildschirms 30 in einem der Bereiche 30a-30g durch den Benutzer wieder. Der Controller 50 umfasst eine Vielzahl an Zählern 50a zum Zählen einer Anzahl an Schalterbetätigungen in jedem der Bereiche 30a bis 30g. Die Verwendung der Zähler 50a ermöglicht den Einsatz verschiedener Stufen als eine Funktion einer Anzahl an Schalterbetätigungen für einen bestimmten Touchscreen-Schalter. Für die ersten drei Schalter Schwenk links und Schwenk rechts beispielsweise kann eine erste Schwenkstufenauflösung (5º) verwendet werden, und für nachfolgende Schwenks links und Schwenks rechts eine zweite, feinere Stufenauflösung (2º) Verwendet werden. Eine weitere vordefinierte Anzahl an Betätigungen eines einzelnen Bildzustand-Touchscreenschalters kann festgelegt werden, so dass die Stufe auf den größeren Wert zurückgesetzt wird, da eine wiederholte Betätigung anzeigen kann, dass der Benutzer eine größere Änderung am Bildaspekt oder an der Bildposition vorzunehmen versucht.
  • Eine Betätigung des Schalters, der dem aktuellen Bildbereich 30a zugeordnetist, kann verwendet werden, um die Zähler 50a zurückzusetzen, die den Touchscreenschaltern für Schwenk, Neigung und Zoom zugeordnet sind, und um das System 10 neu zu initialisieren.
  • Mit dem Controller 50 ist bidirektional ein aktuelles Prozessmodell 52 gekoppelt, das vom Controller 50 in Verbindung mit den Schalterinformationen unterstützt wird. Das aktuelle Prozessmodell 52 repräsentiert die aktuelle Winkelausrichtung der Kamera 12 an den Schwenk- und Neigungsachsen und es repräsentiert ebenfalls die aktuelle Zoomeinstellung. Die Verwendung des aktuellen Prozessmodells 52 in Verbindung mit einem Block der zulässigen Zustände 56 ermöglicht es dem Controller 50, die Anzeigeverarbeitungseinheit 26 zu steuern, um nur zulässige nächste Zustände für den Prozess abzuleiten und anzuzeigen. Wenn beispielsweise bekannt ist, dass ein Hindernis es der Kamera 12 unmöglich macht, sich entlang der Neigungsachse über einen bestimmten vordefinierten Punkt zu bewegen, setzt der Controller 50 die Neigungs-Stufe auf Null, wenn das aktuelle Prozessmodell 52 anzeigt, dass die Kamera diesen vordefinierten Punkt erreicht hat. Das Ergebnis ist, dass die Anzeigeverarbeitungseinheit 26 keinen abgeleiteten nächsten Zustand (beispielsweise mit Neigung nach oben) generiert, mit dem der Benutzer die Kamera auf das Hindernis lenken würde.
  • Mit dem Controller 50 ist ebenfalls eine Liste mit Stufen für Neigung, Schwenk und Zoom gekoppelt. Wenn eine konstante Stufe verwendet wird, handelt es sich bei allen Stufen 54 um Konstanten, die auf die Zähler 50a verteilt werden können. Wenn es jedoch gewünscht wird, verschieden große Stufen einzusetzen, dann greift der Controller 50 auf den Stufenblock 54 zu, um eine aktuelle Stufe zu erhalten, als eine Funktion der Zählung des zugeordneten Zählers 50a und des aktuellen Prozessmodells 52.
  • Fig. 5 zeigt detaillierter die Motorsteuerungseinheit 22. Die Motorsteuerungseinheit 22 umfasst einen Controller 60, der die Schalterbetätigungsinformationen 32a sowie die aktuellen Stufen 34b von der Prozessmodelleinheit 34 erhält. Der Controller 60 übersetzt eine bestimmte Schalterbetätigung, beispielsweise Schwenk rechts-Stufe, und generiert einen entsprechenden Schwenkmotor-Befehl an den Controller für Neigung, Schwenk, Zoom 20 aus Fig. 1. Die Schalterbetätigung für den aktuellen Bildzustandsbereich 30a kann vom Controller 60 eingesetzt werden, um die Kamera 12 auf eine vordefinierte erste Ausrichtung zurückzusetzen.
  • Fig. 6 zeigt ein Flussdiagramm, das den Betrieb der Methode der vorliegenden Erfindung für die Ausführungsbeispiele der Fig. 1 bis 5 darstellt. Bei Block A werden die Kameraposition und das Prozessmodell 52 initialisiert. Der Anzeigebildschirm 30 wird ebenfalls mit einem aktuellen Bildzustand 30a und einer entsprechenden Vielzahl an abgeleiteten Bildzuständen 30b-30g initialisiert. Bei Block B wird festgestellt, ob der Benutzer eine Schalterbetätigung vorgenommen hat. Wenn NEIN, wird bei Block C festgestellt, ob ein Timer 36 (Fig. 1) einen Timerpuls generiert hat. Der Timer 36 wird bereitgestellt, damit der Bildaufnahmepuffer 24 ein neues Bild in regelmäßigen Intervallen aufnimmt, um die Darstellungen des aktuellen Bildes sowie die abgeleiteten Bilder zu aktualisieren. So können der aktuelle Bildbereich 30a und die abgeleiteten Bildbereiche 30b-30g Änderungen der Position und des Gesichtsausdrucks des Benutzers korrekt wiedergeben. Wenn NEIN bei Block C, fährt die Methode bei Block B fort.
  • Wenn JA bei Block B, wird bei Block D festgestellt, ob der Benutzer eine Schalterbetätigung für einen gewünschten Zustand der abgeleiteten Zustände 30b-30g oder für den aktuellen Bildzustand 30a vorgenommen hat. Wenn die Schalterbetätigung für den aktuellen Bildzustand 30a vorgenommen wurde, wird der Abzweig JA fortgeführt, und die Methode fährt bei Block E fort, an dem der aktuelle Bildzustand 30a akzeptiert wird. Das heißt, das aktuelle Bild kann gespeichert werden und/oder in eine andere Form konvertiert und/oder an einen entfernten Ort übertragen werden. Die Methode kehrt dann zu Block A zurück.
  • Im Allgemeinen initiiert der Vorgang zum Akzeptieren des aktuellen Zustands eine Akzeptanz-spezifische Operationssequenz. Um beispielsweise eine schnelle Ableitung nächster Zustände und die Anzeige derselben zu erhalten, kann das abgeleitete Video bearbeitet und als Schwarzweißbild angezeigt werden. Bei Auftreten eines Vorgangs zum Akzeptieren durch den Benutzer können das im aktuellen Bildbereich 30a erscheinende Bild und optional die Bereiche der nächsten Bildzustände 30b-30g in Farbe konvertiert werden. Bei einem weiteren Vorgang zum Akzeptieren durch den Benutzer kann das akzeptierte aktuelle farbige Bild gedruckt, gespeichert, übertragen oder auf andere Weise weiterverarbeitet werden. Es sollte klar sein, dass der Vorgang zum Akzeptieren des aktuellen Zustands nicht zwingend den ausgeführten Prozess beendet.
  • Bei NEIN in Block D wird die Schalterbetätigung auf die Prozessmodelleinheit 34 angewendet, die wiederum einen entsprechenden Satz an Stufen für Neigung, Schwenk und Zoom 34a und 34b (Block F) generiert. In Reaktion auf die aktualisierten Stufen 34b generiert die Motorsteuerungseinheit 22 einen entsprechenden Motorbefehl 22a, um die Kamera 12 auf eine Position zu bewegen, die dem ausgewählten abgeleiteten nächsten Zustand (Block G) entspricht und das Prozessmodell 52 wird aktualisiert, um die neue Ausrichtung der Kamera 12 wiederzugeben (Block H).
  • Der Vorgang in Block G führt eine Änderung im aktuellen Bild 24a herbei, das von der Anzeigeverarbeitungseinheit 26 bearbeitet wird, um das aktuelle angezeigte Bild 30a zu aktualisieren und in Verbindung mit den aktualisierten Stufen 34a die abgeleiteten nächsten Zustände 30b-30g (Block I) zu aktualisieren. Die Methode fährt dann bei Block B fort, um die nächste Schalterbetätigung durch den Benutzer zu bearbeiten.
  • Wenn bei Block C eine Timeout-Bedingung festgestellt wird, wird der Bildaufnahmepuffer 24 automatisch aktualisiert, um ein neues Bild mit Videoinformationen aufzunehmen und zu speichern. Dies führt eine Änderung im aktuellen Bild 24a herbei, das von der Anzeigeverarbeitungseinheit 26 bearbeitet wird, um das aktuelle angezeigte Bild 30a zu aktualisieren und in Verbindung mit einem aktuellen Satz an Stufen 34a die abgeleiteten nächsten Zustände 30b-30g (Block I) zu aktualisieren. Die Methode fährt bei Block B fort, um die nächste Schalterbetätigung durch den Benützer zu bearbeiten.
  • Obwohl die vorliegende Erfindung hier im Kontext eines Steuerungssystems für Videokameras beschrieben wurde, sollte den Fachleuten klar sein, dass die Methode der vorliegenden Erfindung auch beispielsweise auf die Steuerung einer Antenne oder eines Roboters anwendbar ist. Die Methode der vorliegenden Erfindung ist ebenfalls anwendbar beispielsweise auf ein Spielsystem, etwa Schach. Block 30a zeigt beispielsweise ein Bild mit dem aktuellen Stand der Spielfiguren, während jeder der abgeleiteten nächsten Zustände den Spielstand nach einem möglichen Spielzug zeigt, basierend auf den aktuellen Positionen der Spielfiguren. Durch Auswahl einer der abgeleiteten nächsten Zustände bewegt das System die Spielfigur des Benutzers entsprechend, generiert eine Vielzahl an aktualisierten abgeleiteten nächsten Zuständen. Die aktualisierten abgeleiteten nächsten Zustände werden dem Benutzer in Verbindung mit dem aktualisierten aktuellen Zustand angezeigt, so dass der Benutzer in der Lage ist, den nächsten Spielzug auszuwählen. Die Auswahl des aktuellen Zustands kann anzeigen, dass der Benutzer das Spiel aufgeben möchte.
  • Für diese letztere Ausführungsbeispiel umfasst die Modelleinheit 34 eine Datenbank mit Schachregeln zum Aktualisieren des aktuellen Prozessmodells 52, und die kann weiterhin einen Filter zum Auswählen von (n) bestmöglichen abgeleiteten nächsten Zuständen umfassen. Die Filterkriterien können ein Ergebnis in Zusammenhang mit jedem abgeleiteten nächsten Zustand (Spielzug) sein. In diesem letzten Ausführungsbeispiel können weiterhin vordefinierte Stufen 54 auf Eins gesetzt werden, um nur die nächsten Züge abzuleiten. Sie können auch auf Zwei gesetzt werden, um die nächsten Spielzüge bis zu einer Tiefe von Zwei oder mehr abzuleiten. Die Stufen werden einer Verarbeitungseinheit bereitgestellt, die der Anzeigeverarbeitungseinheit 26 entspricht, in der die abgeleiteten nächsten Spielzüge abgeleitet werden. Für dieses Ausführungsbeispiel stellt das aktuelle Prozessmodell 52 den aktuellen Zustand der Spielfiguren dar und wird der Verarbeitungseinheit zur Anzeige zur Verfügung gestellt.
  • Wie in den Fällen der Fig. 2a und 2b kann der Anzeigebildschirm so eingestellt werden, dass das Verständnis des Benutzers für den Prozess sinnvoll unterstützt wird, beispielsweise durch Anzeige für jeden abgeleiteten Zustand des Bereichs auf dem Spielbrett, von dem aus die Spielfigur bewegt werden soll.
  • Es sollte den Fachleuten klar sein, dass die Methode der vorliegenden Erfindung auf jede Anwendung zur Prozesssteuerung angewendet werden kann, in der es einen oder mehrere nächste mögliche Zustände gibt, der oder die sich aus einem aktuellen Zustand des Prozesses ergibt bzw. ergeben.
  • Ein wichtiger Aspekt der Erfindung bezieht sich auf das Verständnis des gesteuerten Prozesses durch den Benutzer. In Übereinstimmung mit der Methode der vorliegenden Erfindung werden dem Benutzer eine Reihe von Möglichkeiten aufgezeigt, die jede entweder den aktuellen Zustand des Prozesses oder einen oder mehrere nächste Zustände darstellen, die sich aus dem aktuellen Zustand ergeben. Jede Möglichkeit kann dem Benutzer grafisch dargestellt werden, obwohl auch andere Darstellungsformen im Sinne der vorliegenden Erfindung denkbar sind. Es kann beispielsweise jeder einer Vielzahl von nächsten Zuständen auf hörbare oder andere Art dem Benutzer präsentiert werden. Eine Mischung aus den fühlbaren Darstellungsformen wäre ebenfalls im Sinne der vorliegenden Erfindung möglich. In allen Fällen jedoch wählt der Benutzer aus der Vielzahl der dargestellten Möglichkeiten, um die Darstellung des aktuellen Zustands möglichst nahe an die Darstellung eines gewünschten Zustands zu bringen. Das System und die Methode der vorliegenden Erfindung arbeitet zur Unterstützung des Benutzers bei der Auswahl von Aktionen für die Verbesserung des aktuellen Zustands und zur Erlangung des gewünschten Endzustands. Das System und die Methode arbeiten ebenfalls zur Aktualisierung der Reihe von Möglichkeiten, basierend auf vorherigen Entscheidungen durch den Benutzer und/oder als Funktion nach Ablauf eines Zeitraums. Ein Ergebnis ist, dass der Benutzer weniger Fakten erfassen muss, um aus möglichen Aktionen auszuwählen und dass er leichter den Effekt eines Aktionsflusses im gesteuerten Prozess verfolgen kann.
  • In Systemen, in denen der Benutzer mit den Steuerungsaktionen nicht vertraut ist, in denen die Steuerungsaktionen sehr komplex sind oder sehr großen Kombinationsspielraum bieten, verhindert die Methode der vorliegenden Erfindung Unfälle und Fehler, die auf eine große Unübersichtlichkeit zurückzuführen sind. In jedem System kann sich der Benutzer auf die wesentlichen Ziele konzentrieren und im Gegensatz dazu die Mechanismen des Prozesses zur Erlangung dieser Ziele vernachlässigen.
  • Es sollte den Fachleuten klar sein, dass die Methode der vorliegenden Erfindung in einer Vielzahl an Ausführungsbeispielen Anwendung finden kann, die hier nicht beschrieben wurden. Die Anzeige des aktuellen Zustands und der abgeleiteten nächsten Zustände müssen beispielsweise nicht so statisch ausgeführt werden. Das heißt, dass ein Verkehrssteuerungssystem für den Bahnverkehr als nächste Zustände einen schneller oder langsamer fahrenden Zug anzeigen kann. In einem Verkehrssteuerungssystem für den Flugverkehr kann das System ein aktuelles Verkehrsmuster anzeigen und als abgeleitete nächste Zustände eine Anzahl an verschiedenen Verkehrsmustern für eine Vielzahl an Flugzeugen, die mit unterschiedlicher Geschwindigkeit und in verschiedenen Flughöhen fliegen.

Claims (24)

1. Eine Methode zum Steuern eines Prozesses, einschließlich folgender Schritte:
(a) Darstellen eines aktuellen Zustands (30a) eines Prozesses;
(b) Ableiten aus dem aktuellen Zustand des Prozesses von einem der mehreren vorhergesagten alternativen Zustände (30b-30g), wobei jeder dieser Zustände einen möglichen zukünftigen Zustand des Prozesses darstellt, der direkt oder indirekt vom aktuellen Zustand aus erreicht werden kann;
(c) Darstellung von einem oder mehreren abgeleiteten alternativen Zuständen (30b-30g) und in Reaktion auf eine Auswahl einer der Darstellungen von einem der abgeleiteten alternativen Zustände (30b-30g),
(d) Steuern des Prozesses, um einen neuen aktuellen Zustand anzunehmen, der dem abgeleiteten alternativen Zustand entspricht, der der ausgewählten Darstellung zugeordnet wurde.
2. Eine Methode nach Anspruch 1, und in Reaktion auf die Auswahl der Darstellung des aktuellen Zustands (30a) des Prozesses, weiterhin folgenden Schritt umfassend: Initiieren einer Akzeptanz-spezifischen Aktionssequenz.
3. Eine Methode nach einem der Ansprüche 1 oder 2, wobei der Schritt zum Steuern weiterhin einen Schritt zum Aktivieren eines Zugriffsmittels umfasst, um den Prozess in den neuen aktuellen Zustand zu bringen und/oder weiterhin einen Schritt umfassend zum Aktualisieren eines Prozessmodells, um eine Annahme des neuen aktuellen Zustands wiederzugeben.
4. Eine Methode nach einem der Ansprüche 1 oder 2, wobei der Schritt zum Ableiten das Ableiten von einem oder mehreren alternativen Zuständen in Übereinstimmung mit einer vordefinierten Stufe (34a, 34b) umfasst.
5. Eine Methode nach einem der vorangegangenen Ansprüche 1 bis 3, wobei der Schritt zum Steuern einen Schritt zum Aktualisieren der Stufe umfasst, welche beim Ableiten von einem oder mehreren alternativen Zuständen aus dem neuen aktuellen Zustand zum Einsatz kommt.
6. Eine Methode nach Anspruch 1, weiterhin folgende Schritte umfassend:
Regelmäßiges Aktualisieren des aktuellen Zustands des Prozesses;
Darstellen des aktualisierten aktuellen Zustands des Prozesses;
Ableiten aus dem aktualisierten aktuellen Zustand (30a) des Prozesses von einem oder mehreren alternativen Zuständen (30b-30g); und
Darstellen des einen oder der mehreren alternativen Zustände (30b-30g), die aus dem aktualisierten aktuellen Zustand abgeleitet wurden.
7. Eine Methode nach Anspruch 3, wobei der Schritt zum Aktivieren des Zugriffsmittels zum Ausführen des Prozesses eine vordefinierte Stufe umfasst.
8. Eine Methode nach Anspruch 1, wobei der Schritt (a) und der Schritt (c) die Darstellungen dergestalt präsentieren, dass das Verständnis des Benutzers hinsichtlich des Prozesses unterstützt wird.
9. Eine Methode nach einem der vorangegangenen Ansprüche, wobei die Darstellungen auf einem Anzeigemittel präsentiert werden, welches einen Anzeigebildschirm (30) mit Touchscreen-Funktion umfasst, und wobei ein Benutzer eine der Darstellungen von einem oder mehreren der alternativen Zustände (30b-30g) auswählt, indem er den Anzeigenbildschirm (30) berührt und dies innerhalb eines Bereichs, der dem ausgewählten der abgeleiteten alternativen Zustände (30b-30g) zugeordnet wurde.
10. Eine Methode nach jedem der vorangegangenen Ansprüche, wobei der Prozess die Positionierung einer Kamera (12) entlang oder um eine Achse steuert.
11. Eine Methode nach jedem der vorangegangenen Ansprüche, wobei es sich bei der Darstellung des aktuellen Zustands (30a) des Prozesses um ein mit einer Kamera 12 aufgenommenes Bild an einer aktuellen Stelle handelt, und wobei es sich bei den Darstellungen des einen oder der mehreren abgeleiteten alternativen Zustände (30b-30g) jeweils um ein von der Kamera 12 aufgenommenes Bild handelt, wenn die Kamera von der aktuellen Position aus um oder entlang einer Achse verschoben würde.
12. Eine Methode nach Anspruch 1, wobei die Schritte (a), (b), (c) und (d) so lange wiederholt werden, bis die Darstellung des aktuellen Zustands des Prozesses ausgewählt wurde.
13. Eine Methode nach jedem der vorangegangenen Ansprüche, wobei es sich bei dem genannten Prozess um einen Prozess zum Steuern einer Kamera (12) handelt.
14. Eine Methode nach Anspruch 13, wobei die abgeleiteten alternativen Bilder weiterhin Bilder umfassen, die erzielt werden würden, wenn ein Schwenkwinkel der Kamera (12) geändert würde und wobei die alternativen Zustände weiterhin Bilder umfassen, die von der Kamera erstellt würden, wenn der Neigungswinkel der Kamera geändert würde und wobei die alternativen Zustände weiterhin Bilder umfassen, die von der Kamera erstellt würden, wenn eine Zoomfunktion der Kamera geändert würde.
15. Eine Methode nach einem der Ansprüche 13 oder 14, wobei jedes der abgeleiteten alternativen Bilder dergestalt abgeleitet wird, dass es sich innerhalb einer vordefinierten Stufe zur Kamerapositionierung anders als die aktuelle Kameraposition befindet.
16. Eine Methode nach einem der Ansprüche 13, wobei der Schritt zum Umsetzen einen Schritt zum, Aktualisieren eines Modells der Kameraausrichtung umfasst, um die Umsetzung wiederzugeben, sowie gegebenenfalls einen Schritt zum Aktualisieren umfasst, mit dem eine oder mehrere der vordefinierten Stufen der Kamerabewegung aktualisiert werden können.
17. Eine Methode nach Anspruch 16, wobei der Schritt zum Aktualisieren der einen oder der mehreren vordefinierten Stufen für die Kamerabewegung einen ersten Schritt basierend auf dem aktualisierten Modell und auf einem oder mehreren vordefinierten zulässigen Kamerazuständen umfasst, mit dem festgelegt wird, ob eine weitere Umsetzung der Kamera (12) dazu führen würde, dass die Kamera (12) einen unzulässigen Zustand erreichen würde.
18. Eine Methode nach jedem der Ansprüche 13 bis 17, wobei die Schritte (a) und (c) zum Anzeigen die Darstellungen dergestalt anzeigen, dass das Verständnis des Benutzers hinsichtlich der Steuerung der Kamera (12) unterstützt wird.
19. Eine Methode nach Anspruch 13 und in Reaktion auf die Auswahl durch den Benutzer der Darstellung des aktuellen Bildes, weiterhin folgenden Schritt umfassend: Initiieren einer Akzeptanz-spezifischen Aktionssequenz zum Akzeptieren des aktuellen Bildes und/oder weiterhin folgenden Schritt umfassend: Akzeptieren des aktuellen Bildes durch Reproduzieren des aktuellen Bildes in einer greifbaren Form und/oder weiterhin folgenden Schritt umfassend: Speichern des aktuellen Bildes zur späteren Bearbeitung und/oder weiterhin folgenden Schritt umfassend: Übertragen des aktuellen Bildes an einen entfernten Ort.
20. Eine Benutzerschnittstelle für ein System zur Prozesssteuerung, folgendes umfassend:
Ein Mittel (20) zum Ableiten aus einem aktuellen Zustand (30a) des Prozesses von einem oder mehreren vorhergesagten alternativen Zuständen (30b-30g);
Ein Mittel (26) zum Darstellen des aktuellen Zustands des Prozesses und zum Darstellen des einen oder der mehreren abgeleiteten alternativen Zustände; und
Ein Steuermittel (34), das auf eine Benutzerauswahl für eine der Darstellungen der abgeleiteten alternativen Zustände reagiert, zum Steuern des Prozesses, um einen neuen aktuellen Zustand anzunehmen, der dem abgeleiteten alternativen Zustand entspricht, der mit der ausgewählten Darstellung übereinstimmt.
21. Eine Benutzerschnittstelle nach Anspruch 20, wobei das genannte Steuermittel auf die Benutzerauswahl des aktuellen Zustands des Prozesses reagiert, zum Initiieren einer Akzeptanz-spezifischen Operationssequenz, und wobei das Steuermittel ein Zugriffsmittel umfasst, um den Prozess in den neuen aktuellen Zustand zu versetzen.
22. Eine Benutzerschnittstelle nach Anspruch 20 oder 21, wobei das genannte Steuermittel ein Mittel zum Speichern und Aktualisieren eines Prozessmodells umfasst, um eine Annahme des neuen aktuellen Zustands wiederzugeben.
23. Eine Benutzerschnittstelle nach jedem der vorangegangenen Ansprüche 20 bis 22, wobei das genannte Mittel zum Ableiten ein Mittel zum Ableiten des einen oder der mehreren alternativen Zustände in Übereinstimmung mit einer vordefinierten Stufe umfasst, und wobei die genannte vordefinierte Stufe durch das genannte Steuermittel generiert wird.
24. Eine Benutzerschnittstelle nach einem der Ansprüche 20 bis 23, wobei das genannte Darstellungsmittel die Darstellungen nach Anspruch 8 oder 9 präsentiert.
DE69332282T 1992-04-17 1993-02-20 Verfahren und Gerät für Benutzersteuerung durch Ermittlung der nächsten Prozesszustände aus dem aktuellen Zustand und durch visuelle Darstellung der abgeleiteten nächsten Zustände Expired - Lifetime DE69332282T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US87050392A 1992-04-17 1992-04-17

Publications (2)

Publication Number Publication Date
DE69332282D1 DE69332282D1 (de) 2002-10-17
DE69332282T2 true DE69332282T2 (de) 2003-05-22

Family

ID=25355521

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69332282T Expired - Lifetime DE69332282T2 (de) 1992-04-17 1993-02-20 Verfahren und Gerät für Benutzersteuerung durch Ermittlung der nächsten Prozesszustände aus dem aktuellen Zustand und durch visuelle Darstellung der abgeleiteten nächsten Zustände

Country Status (7)

Country Link
US (1) US5426732A (de)
EP (1) EP0565830B1 (de)
JP (1) JP3050348B2 (de)
AT (1) ATE224076T1 (de)
CA (1) CA2089787C (de)
DE (1) DE69332282T2 (de)
ES (1) ES2179043T3 (de)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US5757418A (en) 1992-07-31 1998-05-26 Canon Kabushiki Kaisha Television conference system and method therefor
EP0971537B1 (de) * 1993-09-20 2006-06-28 Canon Kabushiki Kaisha Videosystem
EP0713331B1 (de) 1994-11-17 2001-03-14 Canon Kabushiki Kaisha Kamerasteuervorrichtung und -Verfahren
JP3335017B2 (ja) * 1994-11-29 2002-10-15 キヤノン株式会社 カメラ装置の制御装置
US6094600A (en) * 1996-02-06 2000-07-25 Fisher-Rosemount Systems, Inc. System and method for managing a transaction database of records of changes to field device configurations
US6868538B1 (en) 1996-04-12 2005-03-15 Fisher-Rosemount Systems, Inc. Object-oriented programmable controller
US5838563A (en) * 1996-04-12 1998-11-17 Fisher-Rosemont Systems, Inc. System for configuring a process control environment
US5940294A (en) * 1996-04-12 1999-08-17 Fisher-Rosemont Systems, Inc. System for assisting configuring a process control environment
EP0825506B1 (de) 1996-08-20 2013-03-06 Invensys Systems, Inc. Verfahren und Gerät zur Fernprozesssteuerung
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US6310609B1 (en) 1997-04-17 2001-10-30 Nokia Mobile Phones Limited User interface with guide lights
JP2000089889A (ja) * 1998-09-14 2000-03-31 Sharp Corp 入力表示装置
US7528508B2 (en) 1998-10-09 2009-05-05 Azoteq Pty Ltd. Touch sensor user interface with compressible material construction
US7265494B2 (en) 1998-10-09 2007-09-04 Azoteq Pty Ltd. Intelligent user interface with touch sensor technology
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
AU5025600A (en) 1999-05-17 2000-12-05 Foxboro Company, The Process control configuration system with parameterized objects
US6754885B1 (en) 1999-05-17 2004-06-22 Invensys Systems, Inc. Methods and apparatus for controlling object appearance in a process control configuration system
US7089530B1 (en) 1999-05-17 2006-08-08 Invensys Systems, Inc. Process control configuration system with connection validation and configuration
US6788980B1 (en) 1999-06-11 2004-09-07 Invensys Systems, Inc. Methods and apparatus for control using control devices that provide a virtual machine environment and that communicate via an IP network
US6618630B1 (en) 1999-07-08 2003-09-09 Fisher-Rosemount Systems, Inc. User interface that integrates a process control configuration system and a field device management system
WO2001009690A1 (en) 1999-07-29 2001-02-08 The Foxboro Company Methods and apparatus for object-based process control
JP2001054013A (ja) * 1999-08-13 2001-02-23 Fuji Photo Film Co Ltd 撮像信号処理装置およびその処理方法
US7071969B1 (en) * 2001-09-27 2006-07-04 National Semiconductor Corporation Parameterized preview array for iterative image optimization in remote applications
WO2003073185A2 (en) * 2002-02-28 2003-09-04 Zetacon Corporation Predictive control system and method
US6975914B2 (en) 2002-04-15 2005-12-13 Invensys Systems, Inc. Methods and apparatus for process, factory-floor, environmental, computer aided manufacturing-based or other control system with unified messaging interface
US7221398B2 (en) * 2003-05-01 2007-05-22 Hewlett-Packard Development Company, L.P. Accurate preview for digital cameras
US20040218080A1 (en) * 2003-05-02 2004-11-04 Stavely Donald J. Digital camera with preview alternatives
EP1651942A4 (de) * 2003-08-08 2010-02-03 Quantum Intech Inc Elektrophysiologischer intuitionsanzeiger
US7761923B2 (en) 2004-03-01 2010-07-20 Invensys Systems, Inc. Process control methods and apparatus for intrusion detection, protection and network hardening
US9165280B2 (en) * 2005-02-22 2015-10-20 International Business Machines Corporation Predictive user modeling in user interface design
US7860857B2 (en) * 2006-03-30 2010-12-28 Invensys Systems, Inc. Digital data processing apparatus and methods for improving plant performance
US7768527B2 (en) * 2006-05-31 2010-08-03 Beihang University Hardware-in-the-loop simulation system and method for computer vision
US8497928B2 (en) 2007-07-31 2013-07-30 Palm, Inc. Techniques to automatically focus a digital camera
US7987145B2 (en) * 2008-03-19 2011-07-26 Honeywell Internationa Target trajectory generator for predictive control of nonlinear systems using extended Kalman filter
US9352411B2 (en) 2008-05-28 2016-05-31 Illinois Tool Works Inc. Welding training system
EP2304536A4 (de) 2008-06-20 2012-08-15 Invensys Sys Inc Systeme und verfahren zur immersiven interaktion mit tatsächlichen und/oder simulierten einrichtungen zur prozess-, umwelt- und industriesteuerung
US20090327949A1 (en) * 2008-06-26 2009-12-31 Honeywell International Inc. Interactive overlay window for a video display
US8645871B2 (en) * 2008-11-21 2014-02-04 Microsoft Corporation Tiltable user interface
FR2939555B1 (fr) * 2008-12-10 2015-09-18 Somfy Sas Procede de fonctionnement d'un dispositif de commande d'un equipement domotique
US8127060B2 (en) 2009-05-29 2012-02-28 Invensys Systems, Inc Methods and apparatus for control configuration with control objects that are fieldbus protocol-aware
US8463964B2 (en) 2009-05-29 2013-06-11 Invensys Systems, Inc. Methods and apparatus for control configuration with enhanced change-tracking
NO332170B1 (no) 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
US9101994B2 (en) 2011-08-10 2015-08-11 Illinois Tool Works Inc. System and device for welding training
US9573215B2 (en) 2012-02-10 2017-02-21 Illinois Tool Works Inc. Sound-based weld travel speed sensing system and method
US8612093B2 (en) 2012-02-22 2013-12-17 Bae Systems Controls Inc. Automatic dynamic control of aircraft cabin systems
US9583014B2 (en) 2012-11-09 2017-02-28 Illinois Tool Works Inc. System and device for welding training
US9368045B2 (en) 2012-11-09 2016-06-14 Illinois Tool Works Inc. System and device for welding training
US9713852B2 (en) 2013-03-15 2017-07-25 Illinois Tool Works Inc. Welding training systems and devices
US9583023B2 (en) 2013-03-15 2017-02-28 Illinois Tool Works Inc. Welding torch for a welding training system
US9666100B2 (en) 2013-03-15 2017-05-30 Illinois Tool Works Inc. Calibration devices for a welding training system
US9728103B2 (en) 2013-03-15 2017-08-08 Illinois Tool Works Inc. Data storage and analysis for a welding training system
US9672757B2 (en) 2013-03-15 2017-06-06 Illinois Tool Works Inc. Multi-mode software and method for a welding training system
US11090753B2 (en) 2013-06-21 2021-08-17 Illinois Tool Works Inc. System and method for determining weld travel speed
US10056010B2 (en) 2013-12-03 2018-08-21 Illinois Tool Works Inc. Systems and methods for a weld training system
US9589481B2 (en) 2014-01-07 2017-03-07 Illinois Tool Works Inc. Welding software for detection and control of devices and for analysis of data
US9751149B2 (en) 2014-01-07 2017-09-05 Illinois Tool Works Inc. Welding stand for a welding system
US9757819B2 (en) 2014-01-07 2017-09-12 Illinois Tool Works Inc. Calibration tool and method for a welding system
US9724788B2 (en) 2014-01-07 2017-08-08 Illinois Tool Works Inc. Electrical assemblies for a welding system
US10170019B2 (en) 2014-01-07 2019-01-01 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US10105782B2 (en) 2014-01-07 2018-10-23 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US10665128B2 (en) 2014-06-27 2020-05-26 Illinois Tool Works Inc. System and method of monitoring welding information
US9937578B2 (en) 2014-06-27 2018-04-10 Illinois Tool Works Inc. System and method for remote welding training
US9862049B2 (en) 2014-06-27 2018-01-09 Illinois Tool Works Inc. System and method of welding system operator identification
US10307853B2 (en) 2014-06-27 2019-06-04 Illinois Tool Works Inc. System and method for managing welding data
US11014183B2 (en) 2014-08-07 2021-05-25 Illinois Tool Works Inc. System and method of marking a welding workpiece
US9724787B2 (en) 2014-08-07 2017-08-08 Illinois Tool Works Inc. System and method of monitoring a welding environment
US9875665B2 (en) 2014-08-18 2018-01-23 Illinois Tool Works Inc. Weld training system and method
US10239147B2 (en) 2014-10-16 2019-03-26 Illinois Tool Works Inc. Sensor-based power controls for a welding system
US11247289B2 (en) 2014-10-16 2022-02-15 Illinois Tool Works Inc. Remote power supply parameter adjustment
US10402959B2 (en) 2014-11-05 2019-09-03 Illinois Tool Works Inc. System and method of active torch marker control
US10373304B2 (en) 2014-11-05 2019-08-06 Illinois Tool Works Inc. System and method of arranging welding device markers
US10490098B2 (en) 2014-11-05 2019-11-26 Illinois Tool Works Inc. System and method of recording multi-run data
US10417934B2 (en) 2014-11-05 2019-09-17 Illinois Tool Works Inc. System and method of reviewing weld data
US10204406B2 (en) 2014-11-05 2019-02-12 Illinois Tool Works Inc. System and method of controlling welding system camera exposure and marker illumination
US10210773B2 (en) 2014-11-05 2019-02-19 Illinois Tool Works Inc. System and method for welding torch display
US10427239B2 (en) 2015-04-02 2019-10-01 Illinois Tool Works Inc. Systems and methods for tracking weld training arc parameters
US10373517B2 (en) 2015-08-12 2019-08-06 Illinois Tool Works Inc. Simulation stick welding electrode holder systems and methods
US10657839B2 (en) 2015-08-12 2020-05-19 Illinois Tool Works Inc. Stick welding electrode holders with real-time feedback features
US10593230B2 (en) 2015-08-12 2020-03-17 Illinois Tool Works Inc. Stick welding electrode holder systems and methods
US10438505B2 (en) 2015-08-12 2019-10-08 Illinois Tool Works Welding training system interface
US11288978B2 (en) 2019-07-22 2022-03-29 Illinois Tool Works Inc. Gas tungsten arc welding training systems
US11776423B2 (en) 2019-07-22 2023-10-03 Illinois Tool Works Inc. Connection boxes for gas tungsten arc welding training systems

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ218742A (en) * 1986-06-03 1990-09-26 Fisher & Paykel Programmed logic controller
US3911215A (en) * 1974-03-18 1975-10-07 Elographics Inc Discriminating contact sensor
US4085438A (en) * 1976-11-11 1978-04-18 Copes-Vulcan Inc. Digital sootblower control systems and methods therefor
US4220815B1 (en) * 1978-12-04 1996-09-03 Elographics Inc Nonplanar transparent electrographic sensor
US4479197A (en) * 1980-11-25 1984-10-23 Hewlett-Packard Company Method and apparatus for selecting and setting the mode of operation for a mechanism
JPS5833715A (ja) * 1981-08-21 1983-02-28 Hitachi Ltd 画面自動選択表示装置
US4516156A (en) * 1982-03-15 1985-05-07 Satellite Business Systems Teleconferencing method and system
JPS6066298A (ja) * 1983-09-21 1985-04-16 キヤノン株式会社 情報処理装置
DE3490635T1 (de) * 1984-01-30 1987-03-12
US4649499A (en) * 1984-03-07 1987-03-10 Hewlett-Packard Company Touchscreen two-dimensional emulation of three-dimensional objects
US5003505A (en) * 1984-05-07 1991-03-26 Hewlett-Packard Company Touchscreen/keyboard scanner
US4873623A (en) * 1985-04-30 1989-10-10 Prometrix Corporation Process control interface with simultaneously displayed three level dynamic menu
JPH0648445B2 (ja) * 1985-06-27 1994-06-22 株式会社東芝 プラント監視制御装置
JPH0772844B2 (ja) * 1985-10-23 1995-08-02 株式会社日立製作所 ロボット教示装置
US4803039A (en) * 1986-02-03 1989-02-07 Westinghouse Electric Corp. On line interactive monitoring of the execution of process operating procedures
US4929935A (en) * 1986-05-02 1990-05-29 John Fluke Mfg. Co., Inc. Apparatus for aligning raster scanned image to touch panel
JPS6361597A (ja) * 1986-09-01 1988-03-17 Mitsubishi Electric Corp 遠方監視制御装置の親局装置
US4823283A (en) * 1986-10-14 1989-04-18 Tektronix, Inc. Status driven menu system
US4868912A (en) * 1986-11-26 1989-09-19 Digital Electronics Infrared touch panel
US4763356A (en) * 1986-12-11 1988-08-09 AT&T Information Systems, Inc. American Telephone and Telegraph Company Touch screen form entry system
US4903012A (en) * 1987-01-20 1990-02-20 Alps Electric Co., Ltd. Coordinate system input device providing registration calibration and a mouse function
US4815014A (en) * 1987-02-27 1989-03-21 Westinghouse Electric Corp. Machine assisted execution of process operating procedures
US4988982A (en) * 1987-03-25 1991-01-29 The Grass Valley Group, Inc. Touch pad machine control
FR2615941B1 (fr) * 1987-05-25 1991-12-06 Sfena Dispositif de detection de position d'un organe de commande sur une tablette tactile
JPH0789268B2 (ja) * 1987-07-10 1995-09-27 株式会社日立製作所 画面表示制御方式
US4847604A (en) * 1987-08-27 1989-07-11 Doyle Michael D Method and apparatus for identifying features of an image on a video display
JPS6484325A (en) * 1987-09-28 1989-03-29 Oki Electric Ind Co Ltd Multiplex input detecting system in pressure sensitive type input device
US4931018A (en) * 1987-12-21 1990-06-05 Lenco, Inc. Device for training welders
US5053758A (en) * 1988-02-01 1991-10-01 Sperry Marine Inc. Touchscreen control panel with sliding touch control
GB2215942B (en) * 1988-02-12 1992-01-08 Pearpoint Ltd Scanning t.v.camera
US4980646A (en) * 1988-03-30 1990-12-25 The Trustees Of The University Of Pennsylvania Impedance tomographic tactile sensor
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
US4853498A (en) * 1988-06-13 1989-08-01 Tektronix, Inc. Position measurement apparatus for capacitive touch panel system
JP2759121B2 (ja) * 1988-06-27 1998-05-28 日本電信電話株式会社 関連画像情報へ誘導するためのナビゲータの生成表示方法及びその装置
DE3823219C1 (de) * 1988-07-08 1989-05-18 Telenorma Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt, De
US4957690A (en) * 1988-12-07 1990-09-18 General Electric Company System and method for monitoring and control of safety-related components of a nuclear power plant
US5027279A (en) * 1988-12-30 1991-06-25 Pitney Bowes Inc. Method and apparatus for remotely controlling a document inserter
US5051912A (en) * 1989-02-07 1991-09-24 Hurco Acquisition Corporation Vectoring/orbiting control unit for electrical discharge machining
US5038142A (en) * 1989-03-14 1991-08-06 International Business Machines Corporation Touch sensing display screen apparatus
US5121318A (en) * 1989-04-19 1992-06-09 Westinghouse Electric Corp. On-line plant operating procedure guidance system
JPH0378373A (ja) * 1989-08-22 1991-04-03 Fuji Photo Optical Co Ltd テレビカメラ操作装置
US5121319A (en) * 1989-10-23 1992-06-09 International Business Machines Corporation Method and apparatus for selective suspension and resumption of computer based manufacturing processes
US5055840A (en) * 1990-01-16 1991-10-08 Carroll Touch Incorporated Infrared touch input device and light emitted activation circuit
JP2820994B2 (ja) * 1990-02-19 1998-11-05 三菱電機株式会社 動的シミュレーション方法
US5276789A (en) * 1990-05-14 1994-01-04 Hewlett-Packard Co. Graphic display of network topology
JP2673464B2 (ja) * 1990-06-18 1997-11-05 ファナック株式会社 成形モニタ装置
JPH06503894A (ja) * 1990-08-16 1994-04-28 ゼネラル・パラメトリックス・コーポレーション 補助表示装置を含む表示制御装置
US5208903A (en) * 1990-09-10 1993-05-04 Eastman Kodak Company Video image display for predicting color hardcopy image quality
US5117285A (en) * 1991-01-15 1992-05-26 Bell Communications Research Eye contact apparatus for video conferencing
US5224053A (en) * 1991-01-22 1993-06-29 Dayton Reliable Tool & Mfg. Co. Interactive control for can end systems
JPH04260176A (ja) * 1991-02-15 1992-09-16 Hitachi Ltd 商品仕様決定装置及び環境イメージ作成装置
US5191645A (en) * 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
US5185628A (en) * 1991-11-18 1993-02-09 Easatman Kodak Company Reproduction apparatus with improved operator interactive display for use in job set-up
US5202726A (en) * 1991-12-18 1993-04-13 Xerox Corporation Facilitation of the diagnosis of malfunctions and set-up of a reproduction machine

Also Published As

Publication number Publication date
EP0565830A2 (de) 1993-10-20
EP0565830A3 (de) 1999-01-07
CA2089787C (en) 1999-01-26
DE69332282D1 (de) 2002-10-17
JPH0683437A (ja) 1994-03-25
ATE224076T1 (de) 2002-09-15
US5426732A (en) 1995-06-20
CA2089787A1 (en) 1993-10-18
JP3050348B2 (ja) 2000-06-12
EP0565830B1 (de) 2002-09-11
ES2179043T3 (es) 2003-01-16

Similar Documents

Publication Publication Date Title
DE69332282T2 (de) Verfahren und Gerät für Benutzersteuerung durch Ermittlung der nächsten Prozesszustände aus dem aktuellen Zustand und durch visuelle Darstellung der abgeleiteten nächsten Zustände
DE69629144T2 (de) Verfahren und Vorrichtung zur Kamerakontrolle
DE69725875T2 (de) Videobetrachtungserfahrungen mit hilfe von standbildern
DE19932217A1 (de) Steuervorrichtung
DE69727095T2 (de) Kamerasteuerung durch Steuerung eines Kamerasymbols auf einem Hintergrundbild
DE69429028T2 (de) Rundumsicht Überwachungssystem mit bewegungsloser Kamera
DE69520329T2 (de) Kamerasteuervorrichtung und -Verfahren
DE69827312T2 (de) Kamerakontrollsystem
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE69232663T2 (de) Rundumsichtausrichtungssystem mit bewegungsloser kamera
DE69129244T2 (de) Bildverarbeitungsgerät
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE10018690B4 (de) Steuereinheit für eine Linse bzw. ein Linsensystem
DE10234137A1 (de) System und Verfahren, um Benutzern zu ermöglichen, graphische Bilder zu editieren
DE69332110T2 (de) Einblenden von graphischen Daten mit Speicherung der graphischen Parameter
DE19825302A1 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE112006002954T5 (de) Virtuelles Schnittstellensystem
DE3871902T2 (de) Interaktives bildanzeigegeraet.
DE10245226A1 (de) Präsentationssystem
DE102004030593B4 (de) Digitalkamerabildbearbeiter
DE10012629A1 (de) Ferngesteuertes Schwenkkopfsystem
DE3545148C2 (de)
DE69324460T2 (de) Verfahren und Anordnung zum Manupulieren einer Darstellung von Bewegt-Video-Bildern in einem Datenverarbeitungssystem
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
EP2898666B1 (de) Client-einrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der client-einrichtung

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8328 Change in the person/name/address of the agent

Representative=s name: DUSCHER, R., DIPL.-PHYS. DR.RER.NAT., PAT.-ANW., 7