EP2953793B1 - System zur druckmaschinenbedienung - Google Patents

System zur druckmaschinenbedienung Download PDF

Info

Publication number
EP2953793B1
EP2953793B1 EP14704315.2A EP14704315A EP2953793B1 EP 2953793 B1 EP2953793 B1 EP 2953793B1 EP 14704315 A EP14704315 A EP 14704315A EP 2953793 B1 EP2953793 B1 EP 2953793B1
Authority
EP
European Patent Office
Prior art keywords
printing press
hand
sensor
control
control station
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP14704315.2A
Other languages
English (en)
French (fr)
Other versions
EP2953793A1 (de
Inventor
Horst Klingler
Matthias Zoll
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Manroland Sheetfed GmbH
Original Assignee
Manroland Sheetfed GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Manroland Sheetfed GmbH filed Critical Manroland Sheetfed GmbH
Publication of EP2953793A1 publication Critical patent/EP2953793A1/de
Application granted granted Critical
Publication of EP2953793B1 publication Critical patent/EP2953793B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41FPRINTING MACHINES OR PRESSES
    • B41F33/00Indicating, counting, warning, control or safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41FPRINTING MACHINES OR PRESSES
    • B41F33/00Indicating, counting, warning, control or safety devices
    • B41F33/0009Central control units

Definitions

  • the invention relates to a system for printing machine operation according to the preamble of claim 1.
  • a system for operating a printing press in particular a sheet-fed press, has a standard printing machine control station. There, relevant data for the operation of the printing press are entered and also visualized. It is connected to a plurality of control-side assemblies, which are arranged distributed in the printing press. So far, data can only be displayed in the area of the printing machine control station, which is why persons working on the printing machine, in particular printers or service personnel, always have to go to the area of the printing press control center for checking and correcting data.
  • a printing machine control system connected to a printing machine control station of a printing press.
  • the printing press in turn has a plurality of control-side assemblies, which are distributed in the printing press and assigned to different units of the printing press.
  • At least one eyeglass-type display device is provided for control, which is wearable by a person working on a respective printing machine as spectacles, and which displays the person working on the printing machine data.
  • the printing machine is provided with a printing machine control station and has a plurality of distributed in the printing machine arranged on the control side assemblies to aggregates of the printing press.
  • the printing machine control system comprises at least one portable pointing device, by means of which a monitor of the printing press can be controlled and a pointing element shown there can be activated.
  • An integrated operating concept has become known in printing presses.
  • An apparatus for operating machines for processing substrates in the graphics industry is provided with at least one computer and at least one operating device with an input device and an output device.
  • the device is characterized in that the computer is in communication with the input device and the output device and processes at least two signals from the group of acoustic, haptic or optical information.
  • the acoustic information comes from microphones
  • the haptic information comes from a wheel
  • the optical information comes from a video camera.
  • the operating device is provided with a screen for displaying a graphical user interface for controlling machine functions, with an operating device for inputting command-triggering operations for machine functions and for controlling functions of the graphical user interface.
  • a control device is provided for converting input command-triggering operator actions into control commands for the machine functions and functions of the graphical user interface by the operator. This includes a device for inputting manual operator actions and a device for entering non-contact operator actions.
  • the device for inputting non-contact operations comprises a sensor system for detecting non-contact actions of the operator, and a detection device for detecting a command-triggering operator action of the user detected by the sensor system non-contact actions of the operator.
  • a gesture control for printing machines known.
  • a control station with a screen for displaying Machine information provided.
  • the control station is provided with a plurality of sensors for detecting gestures of an operator.
  • a support for receiving sheets of printing material is arranged at the control station below a screen and at least one sensor detects gestures of the operator which are shown close to the surface of a printing material lying on the support.
  • the sensors are designed as cameras and connected in the control station with a computer that evaluates images of the cameras such that movements of the eyes of the operator are detected and taken into account when displaying the machine information on the screen.
  • gesture recognition as automatic recognition of gestures executed by humans by means of a computer is called.
  • a branch of computer science deals with the algorithms and mathematical methods for the recognition of gestures and the use of gestures for human-computer interaction. Every posture and body movement can represent a gesture in principle. However, the greatest importance has the recognition of hand and head gestures.
  • a variant of the gesture recognition is the detection of so-called mouse gestures.
  • a movement can be understood with reference to the human-computer interaction.
  • a static hand position can be understood. It can be distinguished between systems in which the sensor necessary for the detection is located directly on the body of the user, and those in which the user is observed by external sensors.
  • Most on-body or hand-guided sensor systems use accelerometers or position sensors built into data gloves. The disadvantage of data glove-based systems is that the user must wear the glove to use the system.
  • Hand-held systems such as game machine controllers can also be used for gesture input because they have acceleration sensors to detect the movement of the particular device.
  • the gestures can be developed in an ergonomically restricted manner, since the assignment in the plane above a printed sheet on the contact surface of the control panel must always be taken into account. Furthermore, gesture detection by means of a camera detects and evaluates the operating action in a two-dimensional arrangement. It is therefore imperative that the operation takes place in clear two-dimensional identifiable gestures. This in turn is also ergonomically disadvantageous.
  • touchscreens have the disadvantage that the display of help or explanatory texts by simply marking with a mouse pointer is not possible. Also, the so-called hovering, so the context-sensitive marking of active softbuttons for signaling a standby display in the screen display of a touchscreen monitor is not readily possible.
  • large monitors have been used for some time to display information at control stations of printing presses. Switching the information coming to the large screen monitor for display is usually done by a large screen monitor associated with the mouse or corresponding input devices such as a touchpad). Another obvious option is to switch over to a corresponding user interface on one of the two touchscreens. The execution of the large monitor as a touch does not make sense, because the monitor is out of the reach of the user.
  • the present invention is based on the problem to provide a novel system for printing press operation.
  • a system for printing machine operation of a printing press with a printing machine control station and a plurality of printing presses arranged on the control side assemblies of the printing machine wherein at least one touch-free responsive three-dimensional detecting detection device provided on the printing machine control center and can be activated by an operator.
  • data or control signals for the operation of the printing press can be generated via the printing machine control or the printing machine control center and transmitted to a large-screen monitor of the printing press control center.
  • the receiving device is preferably designed as a 3D sensor for detecting hand and finger gestures.
  • the detection device is used in the sphere of influence of the operating personnel for the printing machine control center to detect motions of an operating action on a large-screen monitor and to transmit them as control data.
  • the detection device can have a device for activation / deactivation and / or identification of the operating personnel.
  • the detection device is connected to transmit the control data determined and generated from the gesture by means of an interface with the printing machine and / or the printing press control and / or the printing machine control station.
  • the detector may be portable to perform the operator actions.
  • the detection device can be controlled by a service engineer to perform maintenance.
  • the detection means may be associated with a safety controller to prevent unintentional generation of control signals to the printing press control station.
  • the system for printing machine operation thus comprises at least one three-dimensionally detecting detection device as a 3D sensor.
  • This detects gestural movements with respect to a picture content on a monitor, which is arranged manually unreachable in the printing press control center.
  • a control action is carried out by means of a start gesture, from which follow-up actions can be initiated.
  • the printing machine control station can be controlled by means of the detection device in such a way that contents imaged on the large-screen monitor can be changed by influencing the recording device in the representation or by means of non-contact selection of pointing elements.
  • help information can be called up without accidental triggering of functions or unintentional inputs which are easily possible with a touch screen.
  • the solution according to the invention further offers several advantages in ergonomic terms.
  • the solution according to the invention is based on a gesture in three-dimensional assignment detecting device. This allows the operator to move his hands freely and is not forced to adapt this to a control surface or an operator panel. Also, as shown in a prior art solution, the operator does not have to constantly make sure that the gesture can also be constantly detected by a two-dimensionally imaging camera.
  • a certain area can be marked and by one or several other gestures, for. the color level in this area will be changed.
  • the operating personnel according to the invention generated by means of a detection device by gestures with one hand and their fingers or both hands and their fingers control signals that are used to control functions or for generating data by the person working on the printing press via a printing machine control center ,
  • the working coordinate on the large-screen monitor is represented by a mark which is appropriately designed in size and contrast of the remote operating position.
  • a kind of mouse pointer is displayed and moved on the large screen monitor by movements of the hand in front of or above the detection device.
  • the representation takes place in the appropriate size as a hand cursor.
  • the hand cursor may have the shape of a target.
  • special actions of individual fingers can trigger specific actions or other interactions at just selected positions.
  • the detection device reacts when a hand is held relatively quietly in front of or above the detection device for about one second in the detection area.
  • the hand cursor is displayed in the center of the screen and can be subsequently moved in the X and Y direction by changing the direction in which the hand is pointing or by changing the hand position or other parameters on the screen.
  • any number of additional parameters that influence certain operating characteristics can be visualized by means of special representations of the hand cursor.
  • the hand curl (hand more or less open) could be used for a radius change of the circle around the hand cursor, thus making the positioning faster but coarser or slower but finer.
  • the thumb can be moved relatively well independently of the other fingers. Therefore, with The thumb-specific actions are triggered according to mouse clicks. A quick drawing of the thumb on the index finger can correspond to such a mouse click. Furthermore, the detention of the mouse button can be imitated via a thumb held on the index finger. Therefore, drag-and-drop operations can be performed in a simple and intuitive way using the hold function.
  • the hand of the operator can be kept relaxed and thus a fatigue-free operation for a long time is possible.
  • the hand position is almost arbitrary and allows a safe operation from almost any position.
  • the secure operation is realized by checking an initial condition, wherein the initial condition makes the hand cursor appear in the screen center, and then an evaluation of the relative movements of the hand or hands is performed.
  • FIG. 1 shows a highly schematic representation of a trained as a sheet-fed press printing machine, according to.
  • the printing machine comprises a feeder 10, four printing units 11, 12, 13 and 14 and a boom 15.
  • the feeder 10, the printing units 11 to 14 and the boom 15 are each assigned at least one control-side subassembly 16, which are connected to a printing machine control station 17 and exchange data therewith.
  • the printing machine control station 17 and the control-side assemblies 16 are components of a system for printing machine operation.
  • the system for printing machine operation of the printing machine also includes at least one monitor 18.
  • One or more monitors 18 are disposed on the printing machine control station 17 connected to the printing machine and are used by the operating persons for control, monitoring and data entry. Currently mostly so-called touch-screen monitors are used.
  • FIG. 2 an enlarged perspective view of the printing machine control station 17 is shown. Substantial information about the operating state, machine data, process data and setting interfaces are made available to the person working on the printing press in the printing machine control station 17 on the monitors 18 and, if desired, by means of a large-screen monitor 19 in the form of a wall screen as a communication instrument.
  • the large-screen monitor 19 is arranged on a rear wall 23 forming vertical surface of the printing machine control station 17. Above the rear wall 23, a lighting device 24 for positioned on the support surface 22 proof sheet from the printing machine is arranged. The print sheet is thus so on a support surface 22, which is arranged before the large-screen monitor 19 on the table of the printing machine control station 17 and behind an input keyboard 21 for operating a controller for a Farbzoneneingnagnagna the printing press.
  • a three-dimensionally detecting 3D sensor 20 is therefore arranged to operate the printing machine control station 17 by means of the large-screen monitor 19 at a suitable location and in a preferred arrangement in the region of the front upper side of the printing machine control station 17.
  • the 3D sensor 20 is accordingly designed with a suitable three-dimensionally detecting sensor system. Therefore, when movements such as those performed by the operator in the accommodation area of the 3D sensor 20 are detected, these movements are detected not only in their local assignment but also in position, direction, and movement behavior, and by the control of the 3D sensor 20 in one appropriate data form implemented.
  • the 3D sensor 20 can have an approximately manually operable or near-sensor-sensitive additional detection device for switching off and on, in order to trigger or modify basic functions for operating the 3D sensor 20.
  • the 3D sensor 20 can have an evaluation device, by means of which specific functions or specific groups of gestures or groups of gestures can be triggered, data can be selected or command levels can be controlled.
  • the 3D sensor 20 is preferably used in its simplest embodiment and used without additional devices.
  • the adaptation with regard to specific application cases takes place via its configuration in the operating environment.
  • the movement data generated in the 3D sensor 20 can be used to control a mouse pointer or other type of display icon displayed on the monitor 18.
  • each operator can operate the 3D sensor 20 without special measures.
  • the operating personnel can then use the 3D sensor 20 to control printing data of the printing machine control station or of a color system or of any other assembly of the printing machine or of the system for printing machine operation.
  • This provides information options, machine settings or function selection options that the printer normally has to make directly at the printing machine control station 17 via corresponding manual interfaces such as a mouse, keyboard or touchscreen monitor.
  • the 3D sensor 20 via the interface motion data to the printing machine control station 17.
  • the detected motion data are recorded and forwarded to the large screen monitor 19 for visualization.
  • a function or selection option of the machine control or other systems of the printing press can then be selected and triggered directly via the 3D sensor 20.
  • the 3D sensor 20 of the system for printing press operation can also z. B. be worn by a service technician, the 3D sensor 20 then allowed the service engineer to control service instructions for the printing press and thereby to make the appropriate selection actions on the monitor 18 and on the large screen monitor 19 on the printing machine control station 17.
  • the control data to be transmitted can be sent wirelessly to the printing machine control station 17 or to a separate service computer, processed from from the desired data in the machine control or other systems of the printing press and optionally displayed or confirmed on the monitor 18.
  • an operating area 25 is to be provided in front of the printing machine control station 17, from which the operating personnel are in the appropriate contact distance to the 3D sensor 20. From there, the operator's gestures can best be captured and evaluated. In addition, the visual access to the large screen monitor 19 is optimal in this area.
  • FIG. 3 For this purpose, a lateral view is further shown, so that different arrangement options of the 3D sensor 20 are visible.
  • the operator is in front of the printing machine control station 17 with support surface 22, rear wall 23, large screen monitor 19 and illumination device 24.
  • the operator is facing the 3D sensor 20, wherein the 3D sensor 20 on the printing machine control center 19 of the support surface 22 in the region of the front edge and thus associated with the large screen monitor 19 on the rear wall 23 opposite.
  • the hands of the operator are assigned to the detection range of the 3D sensor 20.
  • FIG. 3 three mounting positions of the 3D sensor 20 are indicated in different line design. For each mounting position results in each case a different detection range 26, 27, 28 for the 3D sensor 20th For the approximately horizontal mounting position of the 3D sensor 20 in the plane of the support surface 22 results for the detection of movement substantially upwardly directed detection area 26th
  • a detection range 26 results for the movement detection.
  • the 3D sensor 20 can also be adjustably mounted in the printing press control station 17 in order to adapt it to changeable operating conditions.
  • the 3D sensor 20 is configured to provide a large number of 3D parameters from the operator's hand and from the individual fingers in a rapid sequence of data sets. In addition, a series of basic gestures are recognized in a standardized way.
  • the 3D sensor 20 delivers the mentioned parameters in rapid succession of data sets.
  • the recognized hands and fingers receive identification tags in order to be able to assign them unambiguously, as long as they can be tracked by the 3D sensor 20. This makes it easy to evaluate from record to record the relative changes of each parameter.
  • a finger can not be traced without gaps, its identification code disappears or it receives a new identification code.
  • finger identification tags disappear, for example when two fingertips touch, and the same identification tags reappear when the fingertips move away from each other once the 3D sensor 20 has succeeded in plausible tracking. This could be exploited to identify a gripping gesture between thumb and forefinger.
  • the evaluation of the 3D parameters determined and provided by the 3D sensor 20 takes place. From this, the system generates records for the detected movements during hand and / or finger and / or gesture recognition. In turn, on the large screen monitor 19, a mark is generated as a hand cursor 19 and the current monitor display is superimposed.
  • FIG. 4 the operating situation of the 3D sensor 20 is shown schematically on the printing machine control station 17 and in conjunction with a large-screen monitor 19.
  • a hand of the operator is arranged in the detection area 26 of the 3D sensor 20.
  • the 3D sensor 20 can evaluate this gesture as a start operation for initiating an operation. This is reported to the large screen monitor 19 via the printing machine control station 17. Then appears on the large screen monitor 19 in the middle of the hand cursor 29.
  • This is here formed in the manner of a crosshairs with the crosshairs surrounding rings.
  • the hand cursor 29 is instantly recognizable and still easily visible.
  • the hand cursor 29 can be guided over the image area of the large-screen monitor 19 by moving the hand detected by the 3D sensor 20 or its fingers.
  • an image area 30 and an input area 31 are symbolically indicated. Which hand movement thereby triggers which movement of the hand cursor 29 can be freely defined in the configuration of the 3D sensor 20 and is dependent on ergonomic considerations.
  • an image location or a picture element can be approached and marked by positioning the hand cursor 29 by triggering the marking action after the positioning by means of a finger movement, such as the thumb. Furthermore, entire image areas can be marked.
  • the hand cursor 29 is set to an image location that is marked. Thereafter, the hand cursor 29 is pulled with the aid of a special finger movement, such as with a hand applied to the thumb, to a second image location, which is then also marked again and thus determines the marking area.
  • this action can also be performed by detecting fingers of both hands. Furthermore, for turning over images or moving on to other views of the illustrated image system or to switch to other active applications, a wiping movement executable by the operator's hand in horizontal or vertical movement, actually moved transversely or longitudinally to the screen display on the large screen monitor 19 quickly becomes.
  • the operation by means of the hand cursor 29 takes place in the input area 31 of the large screen monitor 19 according to further principles.
  • the hand cursor 29 is guided over the input elements of the input area 31.
  • Explanation and help texts can be displayed via an input field by means of the corresponding positioning.
  • an input field can be displayed as active by discoloration.
  • control options are diverse and far from exhausted with the described embodiments.
  • the 3D sensor 20 To avoid incorrect inputs can be seen before that the 3D sensor 20 must first be armed by special gestures or a close operation. Likewise, it can be switched off correspondingly, and this can also be done automatically in the absence of gesture signals after an adjustable warning time.
  • the system for printing machine operation can in particular also be designed such that the 3D sensor 20 is assigned a safety control by means of which an unintended generation and transmission of control signals to the printing machine control station 17 is prevented.
  • this safety control can be carried out on the basis of a gesture analysis with respect to the standard supply of workable gestures.
  • the input should preferably be executable at certain times and in certain operating conditions.
  • the safety control can also be carried out on the basis of a check of the activation state, wherein an activation signal as a gesture or else directly to the 3D sensor 20 can be made necessary here, for example, for an input.
  • the 3D sensor 20 can be tuned to the gestures of specific persons depending on the size and arm reach.
  • the sensitization of the 3D sensor 20 on the basis of a coding by personal characteristics or by technical coding devices such as smart cards or USB devices can be done, which also serve to identify the operator on the printing machine control station 17. This ensures that safe operation can always take place.
  • a selection option can be mapped around the 3D control instrument via a selection carousel. Similar would be possible Control the operation of pie menus (pie menu) by means of the 3D sensor 20.
  • functional assignments to the hand cursor 29 and several existing activity buttons are specified context-sensitive in the respective action environment. Such an assignment may change for various applications in the printing press operation on display areas on the monitor.
  • the context-sensitive background information for the image area 30 and the action area 31 in the representation of the large-screen monitor 19 in FIG. 4 different, as the possible actions are fundamentally different.
  • the described functionalities in conjunction with the operating environment and derived from the respective movement data sets of the 3D sensor 29, can be integrated into each operating concept of a printing press and a printing press control station 17 and can be adapted in each case.

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

  • Die Erfindung betrifft ein System zur Druckmaschinenbedienung nach dem Oberbegriff des Anspruchs 1.
  • Ein System zur Bedienung einer Druckmaschinen, insbesondere einer Bogendruckmaschine, verfügt standardmäßig über einen Druckmaschinenleitstand. Dort werden für den Betrieb der Druckmaschine relevante Daten eingegeben und auch visualisiert. Es ist mit mehreren steuerungsseitigen Baugruppen, die in der Druckmaschine verteilt angeordnet sind, verbunden. Bislang können Daten nur im Bereich des Druckmaschinenleitstands angezeigt werden, weshalb an der Druckmaschine arbeitenden Personen, insbesondere Drucker oder Servicepersonal, zur Überprüfung und Korrektur von Daten stets in den Bereich des Druckmaschinenleitstands gehen müssen,
  • Aus der DE 20 2007 006 079 U1 ist ein Druckmaschinensteuerungssystem bekannt, das mit einem Druckmaschinenleitstand einer Druckmaschine verbunden ist. Die Druckmaschine weist wiederum mehrere in der Druckmaschine verteilt angeordnete, steuerungsseitige Baugruppen auf, die verschiedenen Aggregaten der Druckmaschine zugeordnet sind. Zur Steuerung ist mindestens eine brillenartige Anzeigeeinrichtung vorgesehen, die von einer an einer jeweiligen Druckmaschine arbeitenden Person als Brille tragbar ist, und die der an der Druckmaschine arbeitenden Person Daten anzeigt.
  • Aus der DE 10 2008 002 053 A1 ist ein weiteres Druckmaschinensteuerungssystem in einer Druckmaschine bekannt. Die Druckmaschine ist mit einem Druckmaschinenleitstand versehen und weist mehrere in der Druckmaschine verteilt angeordneten, steuerungsseitigen Baugruppen zu Aggregaten der Druckmaschine auf. Das Druckmaschinensteuerungssystem umfasst mindestens ein tragbares Zeigegerät, mittels dessen ein Monitor der Druckmaschine ansteuerbar und ein dort abgebildetes Zeigeelement ansteuerbar ist.
  • Aus der DE 10 2007 058 708 A1 ist ein integriertes Bedienkonzept bei Druckmaschinen bekannt geworden. Eine Vorrichtung zur Bedienung von Bedruckstoffe verarbeitenden Maschinen in der grafischen Industrie ist mit wenigstens einem Rechner und wenigstens einer Bedieneinrichtung mit einer Eingabeeinrichtung und einer Ausgabevorrichtung versehen. Die Vorrichtung kennzeichnet sich dadurch, dass der Rechner in Verbindung mit der Eingabevorrichtung und der Ausgabevorrichtung steht und wenigstens zwei Signale aus der Gruppe von akustischen, haptischen oder optischen Informationen verarbeitet. Die akustischen Informationen stammen von Mikrofonen, die haptischen Informationen stammen von einem Stellrad und die optischen Informationen stammen von einer Videokamera.
  • Aus der EP 2 520 993 A2 ist eine Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken bekannt geworden. Die Vorrichtung zum Bedienen ist mit einem Bildschirm zur Anzeige einer graphischen Benutzeroberfläche zum Steuern von Maschinenfunktionen, mit einer Bedieneinrichtung zur Eingabe von befehlsauslösenden Bedienhandlungen für Maschinenfunktionen und zum Steuern von Funktionen der graphischen Benutzeroberfläche versehen. Weiterhin ist eine Steuereinrichtung zum Umsetzen von eingegebenen befehlsauslösenden Bedienhandlungen in Steuerbefehle für die Maschinenfunktionen und Funktionen der graphischen Benutzeroberfläche durch die Bedienperson vorgesehen. Dies umfasst eine Einrichtung zur Eingabe von manuellen Bedienhandlungen und eine Einrichtung zur Eingabe von berührungslosen Bedienhandlungen. Die Einrichtung zur Eingabe berührungsloser Bedienhandlungen umfasst ein Sensorsystem zum Erfassen von berührungslosen Handlungen der Bedienperson, und eine Detektionseinrichtung zum Detektieren einer befehlsauslösenden Bedienhandlung der Bedienperson anhand der durch das Sensorsystem erfassten berührungslosen Handlungen der Bedienperson.
  • Aus der DE 10 2012 022 882 A1 ist eine Gestensteuerung für Druckmaschinen bekannt. In einer in diesem Zusammenhang beschriebenen Vorrichtung zum Steuern einer Druckmaschine ist ein Steuerstand mit einem Bildschirm zur Darstellung von Maschineninformationen vorgesehen. Der Steuerstand ist mit mehreren Sensoren zur Erfassung von Gesten einer Bedienperson versehen. Dazu ist am Steuerstand unterhalb eines Bildschirms eine Auflage zur Aufnahme von Bedruckstoffbögen angeordnet und wenigstens ein Sensor erkennt Gesten der Bedienperson die nahe an der Oberfläche eines auf der Auflage liegenden Bedruckstoffs gezeigt werden. Die Sensoren sind als Kameras ausgebildet und im Steuerstand mit einem Rechner verbunden, der Bilder der Kameras derart auswertet, dass Bewegungen der Augen der Bedienperson erfasst werden und bei der Anzeige der Maschineninformationen auf dem Bildschirm berücksichtigt werden.
  • Aus der Internetdatenbank Wikipedia ist am Anmeldetag bekannt, dass der Begriff Gestenerkennung als automatische Erkennung von durch Menschen ausgeführten Gesten mittels eines Computers bezeichnet wird. Ein Teilgebiet der Informatik beschäftigt sich mit den Algorithmen und mathematischen Methoden zur Erkennung von Gesten und der Nutzung von Gesten zur Mensch-Computer-Interaktion. Jede Körperhaltung und Körperbewegung kann dabei prinzipiell eine Geste darstellen. Die größte Bedeutung hat jedoch die Erkennung von Hand- und Kopfgesten. Eine Variante der Gestenerkennung ist die Erkennung sogenannter Mausgesten.
  • Als Geste kann mit Bezug auf die Mensch-Computer-Interaktion eine Bewegung verstanden werden. Weiterhin kann als Geste auch eine statische Handhaltung verstanden werden. Es kann zwischen Systemen unterschieden werden, bei denen sich die zur Erkennung notwendige Sensorik direkt am Körper des Benutzers befindet, und solchen, bei denen der Benutzer durch externe Sensorik beobachtet wird. Die meisten auf am Körper getragener oder mit der Hand geführter Sensorik basierenden Systeme nutzen in Datenhandschuhe integrierte Beschleunigungs- oder Positionssensoren. Der Nachteil von auf Datenhandschuhen basierenden Systemen ist, dass der Benutzer den Handschuh anziehen muss, um das System zu nutzen. Mit der Hand geführte Systeme wie Controller von Spielcomputern können ebenfalls zur Gesteneingabe genutzt werden, da sie über Beschleunigungssensoren verfügen, um die Bewegung des jeweiligen Gerätes festzustellen.
  • So wird in der DE 10 2007 020 511 A1 , in der eine Bedieneinrichtung für Druckmaschinen beschrieben ist, eine Kameraeinrichtung genannt, mittels derer Gesten erfasst und zur Festlegung von Messpunkten auf einem Druckbogen verwendet werden sollen. Dazu ist der Druckbogen auf einem Abmusterungstisch abgelegt und das Bedienpersonal befindet sich in einem Bereich, wo es diesen Druckbogen abdeckt. So soll auch die Verwendung von Gesten durch Aufnahme von Fingern oder Fingerbewegungen mittels der Kameraeinrichtung zur Positionierung eines Mauszeigers auf einem Bedienbildschirm möglich sein.
    Diese Lösung weist wesentliche Nachteile auf. Zum einen ist die Bedienhandlung fest an den Ort der Auflage eines Druckbogens auf dem Abmusterungstisch oder dem Leitstand gebunden, da diese Zuordnung Grundlage für die beschriebene Lösung ist. Daraus ergibt sich, dass die Gestik ergonomisch eingeschränkt entwickelbar ist, da ständig auf die Zuordnung in der Ebene oberhalb eines Druckbogens auf der Auflagefläche des Bedienpultes zu achten ist.
    Weiterhin wird durch Gestenerfassung mittels einer Kamera die Bedienaktion in zweidimensionaler Anordnung erfasst und ausgewertet. Es ist daher zwingend erforderlich, dass die Bedienung in eindeutigen zweidimensional identifizierbaren Gesten erfolgt. Dies wiederum ist ebenfalls ergonomisch nachteilig.
  • Weiterhin ist als Eingabemöglichkeit für einen Leitstand die Anwendung über einen oder mehrere Touchscreens bekannt. Touchscreens weisen den Nachteil auf, dass die Anzeige von Hilfe- oder Erläuterungstexten durch bloßes Markieren mit einem Mauszeiger nicht möglich ist. Auch ist das so genannte Hovering, also die kontextsensitive Markierung von aktiven Softbuttons zu Signalisierung einer Bereitschaftsanzeige in der Bildschirmdarstellung eines Touchscreen-Monitors nicht ohne weiteres möglich.
  • Darüber hinaus werden seit einiger Zeit große Monitore (Großbildmonitore) zur Darstellung von Informationen an Leitständen von Druckmaschinen verwendet. Das Umschalten der am Großbildmonitor zur Anzeige kommenden Informationen erfolgt üblicherweise durch eine dem Großbildmonitor zugeordnete Maus oder entsprechende Eingabegeräte wie ein Touchpad). Eine andere naheliegende Möglichkeit ist die Umschaltung durch eine entsprechende Bedienoberfläche auf einem der beiden Touchscreens. Die Ausführung des Großmonitors als Touch ist nicht sinnvoll, da der Monitor außerhalb der Reichweite des Anwenders ist.
  • Hiervon ausgehend liegt der vorliegenden Erfindung das Problem zugrunde, ein neuartiges System zur Druckmaschinenbedienung zu schaffen.
  • Dieses Problem wird mit den Merkmalen gemäß Patentanspruch 1 gelöst.
  • Erfindungsgemäß ist ein System zur Druckmaschinenbedienung einer Druckmaschine mit einem Druckmaschinenleitstand und mehreren in der Druckmaschine verteilt angeordneten, steuerungsseitigen Baugruppen der Druckmaschine vorgesehen, wobei durch mindestens eine auf Gesten berührungslos reagierende dreidimensional erfassende Erfassungseinrichtung an dem Druckmaschinenleitstand vorgesehen und von einem Bediener aktivierbar ist. So können Daten oder Steuersignale für die Bedienung der Druckmaschine über die Druckmaschinensteuerung oder den Druckmaschinenleitstand generiert und an einen Großbildmonitor des Druckmaschinenleitstandes übermittelt werden.
    Die Aufnahmeeinrichtung ist vorzugsweise als 3D-Sensor zur Erkennung von Hand- und Fingergesten ausgebildet.
    Die Erfassungseinrichtung dient im Einflussbereich des Bedienpersonals zum Druckmaschinenleitstand dazu, um auf einem Großbildmonitor Bewegungen einer Bedienungshandlung zu erfassen und als Steuerdaten zu übertragen.
    Die Erfassungseinrichtung kann eine Einrichtung zur Aktivierung/Deaktivierung und/oder Identifizierung des Bedienpersonals aufweisen.
    Die Erfassungseinrichtung ist zur Übermittlung der aus der Gestik ermittelten und generierten Steuerdaten mittels einer Schnittstelle mit der Druckmaschine und/oder der Druckmaschinensteuerung und/oder dem Druckmaschinenleitstand verbunden.
    Die Erfassungseinrichtung kann tragbar sein, um die Bedienaktionen auszuführen. Die Erfassungseinrichtung kann von einem Servicemonteur ansteuerbar, um Wartungsarbeiten auszuführen.
    Der Erfassungseinrichtung kann eine Sicherheitssteuerung zugeordnet sein, um nicht beabsichtigte Erzeugung von Steuersignalen an den Druckmaschinenleitstand zu verhindern.
  • Erfindungsgemäß umfasst das System zur Druckmaschinenbedienung also mindestens eine dreidimensional erfassende Erfassungseinrichtung als 3D-Sensor. Diese erfasst gestische Bewegungen in Bezug auf einen Bildinhalt an einem Monitor, der manuell nicht erreichbar in dem Druckmaschinenleitstand angeordnet ist. Hierbei wird mittels einer Startgestik eine Steuerungsaktion ausgeführt, von der aus Folgeaktionen eingeleitet werden können.
    Der Druckmaschinenleitstand ist mittels der Erfassungseinrichtung derart ansteuerbar, dass auf dem Großbildmonitor abgebildete Inhalte durch Beeinflussung des Aufnahmegerätes in der Darstellung veränderbar oder mittels berührungsloser Anwahl von Zeigeelementen ansteuerbar ist.
  • Weiterhin können Hilfeinformationen, Funktionserläuterungen, Vergrößerungsaktionen, Zuordnungsaktivitäten und Positionsdarstellungen ohne versehentliches Auslösen von Funktionen oder unbeabsichtigte Eingaben, wie sie bei einem Touchbildschirm leicht möglich sind, aufgerufen werden.
  • Mit Hilfe einer aktuell technisch realisierten Sensorik zur berührungsfreien Erkennung von Gesten wird eine völlig neue Bedienung an Druckmaschinenleitständen realisierbar. In einer Art und Weise, die ähnlich intuitiv wie bei einem Touchscreen erfolgt, kann ein nunmehr von einem Standort in Bezug auf einen weiter entfernt positionierten Bildschirm (Großbildmonitor in Verbindung mit der Rückwand des Druckmaschinenleitstandes) eine Maschinenbedienung durch relativ frei wählbare Gesten erfolgen, ohne dabei die Oberfläche des Monitors berühren zu müssen.
  • In der erfindungsgemäßen Lösung ist auch eine Zuordnung der Bedienhandlungen zu einer bestimmten genau definierten und abgegrenzten Bedienfläche - wie etwa in einer Lösung nach dem Stand der Technik oberhalb eines auf dem Bedienpult aufliegenden Druckbogens - nicht als zwingend erforderlich anzusehen, um eine ordnungsgemäße Bedienung des Druckmaschinenleitstandes zu ermöglichen.
    Gleichwohl kann aus ergonomischen Gründen eine Zuordnung zu einem bestimmten Bedienbereich erfolgen, um die mit der erfindungsgemäßen Einrichtung auszuführenden Aktionen ergonomisch gestalten zu können. Der Bedienbereich ist dabei so variabel, dass er örtlichen Gegebenheiten leicht und in optimiert ergonomischer Weise angepasst werden kann.
  • In diesem Zusammenhang bietet die erfindungsgemäße Lösung des Weiteren etliche Vorteile in ergonomischer Hinsicht. Die erfindungsgemäße Lösung basiert auf einem Gesten in dreidimensionaler Zuordnung erfassenden Gerät. Damit kann der Bediener seine Hände frei bewegen und ist nicht gezwungen diese einer Bedienfläche oder einem Bediengerät anzupassen. Der Bediener muss auch nicht, wie in einer Lösung nach dem Stand der Technik gezeigt wurde, ständig darauf achten, dass die Gestik auch ständig von einer zweidimensional abbildenden Kamera gut erfasst werden kann.
  • Daher kann jeder Bediener seine Hände für die Ausführung von Gesten frei bewegen und in angemessener ermüdungsfreier Bewegung gebrauchen.
  • Als Steuerungsziel sind etwa folgende Gesten aus dem Anwendungsbereich der Bediensteuerung denkbar:
    • Steuern eines Mauszeigers
    • Auslösen einer Funktion ähnlich einem Doppelklick mit der Maus
    • Wischen, um zum nächsten Anwendungsbildschirm oder einer anderen Informationsdarstellung zu wechseln
    • Vergrößerung eines Bildes oder Bildausschnittes durch Markieren und auseinanderziehen von zwei Fingern einer Hand oder den ausgestreckten Zeigefingern beider Hände
    • Bestätigen bzw. Abbruch einer Aktion
    • Markieren von Bereichen für Ansichten oder Funktionserweiterungen
    • Direktes Auslösen bestimmter Maschinenfunktionen
    • Anwählen und Anzeigen von Hintergrundinformationen
    • Anzeigen von aktiven Bedienelementen im Bereich der Ansteuerung
  • Des Weiteren kann mit Hilfe einer Gestensteuerung in Verbindung mit einem Großbildmonitor in Bezug auf einen auf der der Auflagefläche des Druckmaschinenleitstandes aufliegenden Bogen ein bestimmter Bereich markiert werden und durch eine oder verschiedene andere Gesten z.B. das Farbniveau in diesem Bereich verändert werden.
  • Zusammenfassend ist zu betonen, dass das Bedienpersonal erfindungsgemäß mittels einer Erfassungseinrichtung durch Gesten mit einer Hand und deren Fingern oder beiden Händen und deren Fingern Steuersignale generiert, die zur Ansteuerung von Funktionen oder zur Generierung von Daten durch die an der Druckmaschine arbeitende Person über einen Druckmaschinenleitstand dienen.
  • Beim erfindungsgemäßen System zur Druckmaschinenbedienung ist es demnach nicht mehr erforderlich, dass eine an der Druckmaschine arbeitende Person zur Eingabe von Daten oder von Steuerbefehlen direkt am Druckmaschinenleitstand eingreifen oder diesen aufsuchen muss. Insbesondere wird ein Eingriff in die Maschinenbedienung am Druckmaschinenleitstand über einen sehr übersichtlichen als Wallscreen ausgeführten Großbildmonitor ermöglicht.
  • In bevorzugter Ausführungsform wird die Arbeitskoordinate am Großbildmonitor durch eine Markierung dargestellt, die in Größe und Kontrastierung der entfernten Bedienposition angemessen ausgeführt ist.
    Vorzugsweise wird durch Bewegungen der Hand vor oder über dem Erfassungsgerät eine Art Mauszeiger auf dem Großbildmonitor dargestellt und bewegt. Zur besseren Auffindbarkeit auf dem entfernt positionierten Großbildmonitor erfolgt die Darstellung in entsprechender Größe als Hand-Cursor. Der Hand-Cursor kann die Form einer Zielscheibe haben.
  • In Weiterbildung können durch spezielle Bewegungen einzelner Finger, wie etwa des Daumens oder des Mittelfingers, an gerade angewählten Positionen gezielt Aktionen ausgelöst oder andere Interaktionen vorgenommen werden.
  • In Weiterbildung der Erfindung ist vorgesehen, Fehlbedienung zu vermeiden und das initiale Auffinden des Hand-Cursors zu erleichtern. Hierbei reagiert das Erfassungsgerät dann, wenn eine Hand im Erfassungsbereich etwa eine Sekunde lang relativ ruhig vor oder über dem Erfassungsgerät gehalten wird. Danach wird in der Bildschirmmitte der Hand-Cursor eingeblendet und kann in der Folge durch Ändern der Richtung, in die die Hand zeigt, oder durch Ändern der Handposition oder anderer Parameter am Bildschirm in X- und Y-Richtung bewegt werden.
  • In Weiterbildung kann durch spezielle Darstellungen des Hand-Cursors eine beliebige Anzahl weitere Parameter visualisiert werden, die bestimmte Bedieneigenschaften beeinflussen. Vorzugsweise könnte die Handwölbung (Hand mehr oder weniger geöffnet) für eine Radiusänderung des Kreises um den Hand-Cursor herangezogen werden, um auf diese Weise die Positionierung schneller, dabei aber grober oder langsamer, dabei aber feiner zu machen.
  • In bevorzugter Weiterbildung ist vorgesehen, auszunutzen, dass sich der Daumen relativ gut unabhängig von den anderen Fingern bewegen lässt. Daher sollen mit dem Daumen spezifische Aktionen entsprechend Mausklicks ausgelöst werden. Ein schnelles Heranziehen des Daumens an den Zeigefinger kann dabei einem solchen Mausklick entsprechen. Weiterhin kann das Festhalten der Maustaste über einen an den Zeigefinger herangezogen festgehaltenen Daumen nachbildet werden. Mittels der Festhaltefunktion können daher auch Drag&Drop-Operationen auf einfache und intuitive Art und Weise ausgeführt werden.
  • Als wesentlicher ergonomischer Vorteil ist zu sehen, dass die Hand des Bedieners entspannt gehalten werden kann und damit eine ermüdungsfreie Bedienung über längere Zeit möglich ist. Es ist bei der vorliegenden Erfindung im Unterschied zum Stand der Technik gerade nicht zwingend, eine Zeigegeste mit ausgestreckten ausgestreckter Zeigefinger zu machen, da alle Finger in bequemer Haltung nach vorne zeigen sollen. Auch die Handhaltung ist nahezu beliebig und ermöglicht von fast jeder Position aus eine sichere Bedienung.
    In bevorzugter Ausführungsform wird die sichere Bedienung durch die Überprüfung einer Anfangsbedingung realisiert, wobei die Anfangsbedingung den Hand-Cursor in der Bildschirmmitte erscheinen lässt, und anschließend eine Auswertung der Relativbewegungen der Hand bzw. der Hände durchgeführt wird.
  • Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen und der nachfolgenden Beschreibung. Ausführungsbeispiele der Erfindung werden, ohne hierauf beschränkt zu sein, an Hand der Zeichnung näher erläutert.
  • Dabei zeigt:
  • Figur 1:
    ein Blockschaltbild eines erfindungsgemäßen Systems zur Druckmaschinenbedienung,
    Figur 2
    einen Druckmaschinenleitstand zur Verwendung des Systems zur Druckmaschinenbedienung
    Figur 3
    eine schematische Seitenansicht der Anbringung eines 3D-Sensors am Druckmaschinenleitstand und
    Figur 4
    eine schematische Darstellung des Zusammenwirkens von 3D-Sensor und Großbildmonitor über den Druckmaschinenleitstand.
  • Figur 1 zeigt eine stark schematisierte Darstellung einer als Bogendruckmaschine ausgebildeten Druckmaschine, wobei gemäß .Figur 1 die Druckmaschine einen Anleger 10, vier Druckwerke 11, 12, 13 und 14 sowie einen Ausleger 15 umfasst. Wie Figur 1 exemplarisch und vereinfacht darstellt, sind dem Anleger 10, den Druckwerken 11 bis 14 sowie dem Ausleger 15 jeweils mindestens eine steuerungsseitige Baugruppe 16 zugeordnet, die mit einem Druckmaschinenleitstand 17 verbunden sind und mit diesem Daten austauschen. Der Druckmaschinenleitstand 17 sowie die steuerungsseitigen Baugruppen 16 sind Bestandteile eines Systems zur Druckmaschinenbedienung.
  • Gemäß Figur 1 umfasst das System zur Druckmaschinenbedienung der Druckmaschine auch wenigstens einen Monitor 18. Ein oder mehrere Monitore 18 sind an dem mit der Druckmaschine verbundenen Druckmaschinenleitstand 17 angeordnet und werden von den arbeitenden Personen zur Steuerung, Überwachung und zur Dateneingabe benutzt. Hierbei werden aktuell meist so genannte Touch-screen-Monitore verwendet.
  • In Figur 2 ist eine vergrößerte perspektivische Darstellung des Druckmaschinenleitstands 17 gezeigt. Wesentliche Informationen über den Betriebszustand, Maschinendaten, Prozessdaten und Einstellungsschnittstellen werden der an der Druckmaschine arbeitende Person im Druckmaschinenleitstand 17 auf den Monitoren 18 und auf Wunsch mittels eines als Wallscreen ausgebildeten Großbildmonitors 19 als Kommunikationsinstrument zur Verfügung gestellt.
  • Der Großbildmonitor 19 ist an einer eine Rückwand 23 bildenden senkrechten Fläche des Druckmaschinenleitstands 17 angeordnet. Oberhalb der Rückwand 23 ist eine Beleuchtungseinrichtung 24 für auf der Auflagefläche 22 positionierte Probedruckbogen aus der Druckmaschine angeordnet. Der Druckbogen liegt so also auf einer Auflagefläche 22, die vordem Großbildmonitor 19 auf dem Tisch des Druckmaschinenleitstands 17 und hinter einer Eingabetastatur 21 zur Bedienung einer Steuerung für eine Farbzoneneinstellung der Druckmaschine angeordnet ist.
  • Zur Anzeige am Großbildmonitor 19 sind unter anderem die folgenden Anwendungskategorien vorgesehen:
    • Anmeldebildschirm
    • Prozessvisualisierung: Maschinengrafik / Automatik
    • Messwertübersicht / Farbfernsteuerung
    • Druckbogendarstellung
    • Inspektionssysteme
    • Fernwartung, Ersatzteile und Fehlerbehebung
  • Diese verschiedenen Anwendungen erfordern teilweise nur Anzeigefunktionen, teilweise aber auch Anwählfunktionen und teilweise auch Eingabefunktionen. Daher ist vorgesehen, die Bedienung der Druckmaschine mittels der erfindungsgemäßen Einrichtung vorteilhaft auf wenige Handgriffe im Zusammenhang mit der Eingabe von Daten erforderlichen Handlungen an Maus, Tastatur oder Touch-Screen zu reduzieren. Dies erfolgt dadurch, dass alle Anzeige-, Informations- und Markierungsaktionen mittels des die Hände und Finger dreidimensional erfassenden 3D-Sensors 20 in Zuordnung zur Darstellung der jeweiligen Anwendung am Großbildmonitor 19 erfolgen. Diese Aktivitäten können quasi im Vorbeigehen durchgeführt werden und erfordern keine unergonomische Positionierung an fest zugeordneten Eingabegeräten wie Maus, Tastatur, Touch-Screen oder Bogenauflagefläche des Bedienpults.
  • Erfindungsgemäß ist daher zur Bedienung des Druckmaschinenleitstands 17 mittels des Großbildmonitors 19 an geeigneter Stelle und in bevorzugter Anordnung im Bereich der vorderen Oberseite des Druckmaschinenleitstands 17 ein dreidimensional erfassender 3D-Sensor 20 angeordnet. Der 3D-Sensor 20 ist mit demgemäß mit einer geeigneten dreidimensional erfassenden Sensorik ausgebildet. Wenn daher dergestalt Bewegungen, die die Bedienperson im Aufnahmebereich des 3D-Sensors 20 ausführt, erkannt werden, werden diese Bewegungen nicht nur in ihrer örtlichen Zuordnung, sondern auch in Lage, Richtung und Bewegungsverhalten erfasst und mittels der Steuerung des 3D-Sensors 20 in einer geeigneten Datenform umgesetzt.
    Weiterhin kann der 3D-Sensor 20 eine etwa manuell bedienbare oder im Nahbereich sensorisch reagierende zusätzliche Erfassungseinrichtung zum Aus- und Einschalten aufweisen, um grundsätzliche Funktionen zum Betrieb des 3D-Sensors 20 auszulösen oder abzuändern.
  • Weiterhin kann der 3D-Sensor 20 eine Auswerteeinrichtung aufweisen, mittels derer durch bestimmte Gesten oder Gestengruppen dezidierte Funktionen auslösbar, Daten auswählbar oder Befehlsebenen ansteuerbar sind.
  • Bevorzugt wird der 3D-Sensor 20 aber in seiner einfachsten Ausführungsform eingesetzt und ohne Zusatzeinrichtungen verwendet. Die Anpassung im Hinblick auf spezifische Anwendungsfälle erfolgt über seine Konfiguration im Bedienumfeld.
  • Durch entsprechend gestaltete, vorzugsweise kabellose Schnittstellen, wie ein Bluetooth-Datentransfersystem, können die in dem 3D-Sensor 20 generierten Bewegungsdaten zur Steuerung eines auf dem Monitor 18 dargestellten Mauszeigers oder andersartigen Anzeigesymbols verwendet werden. Damit ist die Bedienung einer Maus selbst am Druckmaschinenleitstand 17 nicht mehr erforderlich.
  • So ist es also möglich, dass jeder Bediener ohne besondere Maßnahmen den 3D-Sensor 20 bedienen kann. Während des Betriebs der Druckmaschine kann dann das Bedienpersonal mittels des 3D-Sensors 20 drucktechnische Daten des Druckmaschinenleitstands oder eines Colorpultsystems oder jeder anderen Baugruppe der Druckmaschine bzw. des Systems zur Druckmaschinenbedienung ansteuern. Damit sind Informationsmöglichkeiten, Maschineneinstellungen oder Funktionsauswahlmöglichkeiten gegeben, die der Drucker normalerweise am Druckmaschinenleitstand 17 direkt über entsprechende manuelle Schnittstellen wie Maus, Tastatur oder Touchscreen- Monitor vornehmen muss.
  • Bei der so gestalteten Steuerung übermittelt gemäß Figur 1 der 3D-Sensor 20 über die Schnittstelle Bewegungsdaten an den Druckmaschinenleitstand 17. In der Schnittstelle werden die erfassten Bewegungsdaten aufgenommen und an den Großbildmonitor 19 zur Visualisierung weitergeleitet. Je nach Positionierung des Anzeigesymbols am Großbildmonitor 19 kann wie bei einer Mausbedienung dann auch über den 3D-Sensor 20 direkt eine Funktion oder Auswahlmöglichkeit der Maschinensteuerung oder anderer Systeme der Druckmaschine ausgewählt und ausgelöst werden.
  • Der 3D-Sensor 20 des Systems zur Druckmaschinenbedienung kann auch z. B. von einem Servicemonteur getragen werden, wobei der 3D-Sensor 20 dann dem Servicemonteur erlaubt Serviceinstruktionen für die Druckmaschine anzusteuern und dabei die entsprechenden Auswahlaktionen auf dem Monitor 18 bzw. auf dem Großbildmonitor 19 an dem Druckmaschinenleitstand 17 zu treffen. Dabei können die zu übermittelnden Steuerdaten kabellos an den Druckmaschinenleitstand 17 oder an einen separaten Servicecomputer geschickt werden, von aus die gewünschten Daten in der Maschinensteuerung oder anderen Systemen der Druckmaschine verarbeitet und gegebenenfalls an dem Monitor 18 zur Anzeige gebracht oder bestätigt werden.
  • Wie in Figur 1 beispielhaft angedeutet, ist vor dem Druckmaschinenleitstand 17 ein Bedienbereich 25 vorzusehen, von dem aus das Bedienpersonal sich im geeigneten Kontaktabstand zum 3D-Sensor 20 befindet. Von dort aus können die Gesten des Bedieners am besten erfasst und ausgewertet werden. Außerdem ist in diesem Bereich der visuelle Zugriff auf den Großbildmonitor 19 optimal.
  • In Figur 3 ist hierzu weiterhin eine seitliche Sicht gezeigt, so dass verschiedene Anordnungsmöglichkeiten des 3D-Sensors 20 sichtbar sind. Der Bediener steht vor dem Druckmaschinenleitstand 17 mit Auflagefläche 22, Rückwand 23, Großbildmonitor 19 und Beleuchtungseinrichtung 24. Der Bediener ist dabei dem 3D-Sensor 20 zugewandt, wobei der 3D-Sensor 20 an dem Druckmaschinenleitstand 19 der Auflagefläche 22 im Bereich von deren Vorderkante und somit dem Großbildmonitor 19 an der Rückwand 23 gegenüberliegend zugeordnet ist. Insbesondere sind die Hände des Bedieners dem Erfassungsbereich des 3D-Sensors 20 zugeordnet.
  • In Figur 3 sind drei Einbaulagen des 3D-Sensors 20 in unterschiedlicher Strichausführung angedeutet. Zu jeder Einbaulage ergibt sich ein jeweils anderer Erfassungsbereich 26, 27, 28 für den 3D-Sensor 20.
    Für die etwa horizontale Einbaulage des 3D-Sensors 20 in der Tischebene der Auflagefläche 22 ergibt sich für die Bewegungserfassung ein im Wesentlichen nach oben gerichteter Erfassungsbereich 26.
  • Für die Einbaulage des 3D-Sensors 20 in einer Winkellage von etwa 45 Grad zur Tischebene der Auflagefläche 22 ergibt sich für die Bewegungserfassung nun einen mehr in Richtung der Vorderkante des Druckmaschinenleitstandes 17 gerichteter Erfassungsbereich 27.
    Für die Einbaulage des 3D-Sensors in einer etwa vertikalen Ausrichtung also etwas 90 Grad gedreht zur Tischebene der Auflagefläche 22 ergibt für die Bewegungserfassung einen Erfassungsbereich 26.
  • Je nach Bedarf kann also vorgesehen sein, dass der 3D-Sensor 20 auch verstellbar in dem Druckmaschinenleitstand 17 angebracht sein kann, um ihn auf veränderbare Bedienverhältnisse anzupassen.
  • Der 3D-Sensor 20 ist so ausgebildet, dass eine große Anzahl von 3D-Parametern von der Hand des Bedieners und von den einzelnen Fingern in einer schnellen Abfolge von Datensätzen bereitstellt. Außerdem wird eine Reihe von grundsätzlichen Gesten in standardisierter Weise erkannt.
  • Folgende Daten können bereitgestellt werden:
    1. 1. Als Hand-Attribute können die Handposition, die Handgeschwindigkeit, die Normalausrichtung und die aktuelle Ausrichtung der Hand, ein Mittelpunkts- und ein Umrisswert der Hand erfasst werden.
    2. 2. Für die Hand-Bewegung stehen eine Rotationsachse, ein Rotationswinkel (im Uhrzeigersinn), eine Rotationsmatrix, ein Skalierungsfaktor für Entfaltung oder Komprimierung der Hand und ein Vektor für die lineare Bewegung zur Verfügung.
    3. 3. Als Finger-Parameter werden weiterhin erfasst:
    4. 4. Länge, Breite des sichtbaren Teils, Richtungsvektor, Position der Fingerspitze, Geschwindigkeit und Richtung der Bewegung der Fingerspitze,
    5. 5. Grundlegende Gesten sind wie folgt definiert:
      • Drehen oder Kreis wird erkannt aus Rotationsbewegung eines Fingers
      • Wischen wird erkannt aus lineare Bewegung der Hand
      • Tastaturanschlag wird erkannt aus Bewegung wie beim Tastaturanschlag
      • Antasten eines Touch-Screens wird erkannt aus entsprechend ausgeführter Zeigefingerbewegung
  • Der 3D-Sensor 20 liefert die genannten Parameter in schneller Abfolge von Datensätzen. Die erkannten Hände und Finger erhalten dabei Identifikationskennungen, um sie eindeutig zuordnen zu können, solange sie von dem 3D-Sensor 20 verfolgbar sind. Dadurch können von Datensatz zu Datensatz leicht die relativen Änderungen der einzelnen Parameter ausgewertet werden.
  • Falls ein Finger nicht lückenlos verfolgt werden kann, verschwindet seine Identifikationskennung oder er erhält eine neue Identifikationskennung. Es gibt auch Situationen, in denen Finger-Identifikationskennungen verschwinden, etwa wenn sich zwei Fingerspitzen berühren, und die gleichen Identifikationskennungen wieder auftauchen, wenn die Fingerspitzen sich wieder voneinander entfernen, sofern dem 3D-Sensor 20 eine plausible Verfolgung gelungen ist. Dies könnte ausgenutzt werden, um eine Greifgeste zwischen Daumen und Zeigefinger zu identifizieren.
  • Auf der Grundlage dieser Erkenntnisse muss nun eine Verbindung für Steueraktionen in Form von Gesten gegenüber dem 3D-Sensor 20 zum Großbildmonitor 19 hergestellt werden. Letztlich ist für den 3D-Sensor 20 in Verbindung mit dem Großbildmonitor 19 eine entsprechende Steuerung / Schnittstelle herzustellen. Diese Steuerung / Schnittstelle verarbeitet die Bewegungsdaten des 3D-Sensors 20 in Echtzeit, so dass Gesten und optisch dargestellte Aktionen am Großbildmonitor 19 synchron ablaufen.
  • Zunächst erfolgt also die Auswertung der von dem 3D-Sensor 20 ermittelten und bereitgestellten 3D-Parameter. Daraus generiert das System Datensätze zu den erfassten Bewegungen bei der Hand- und / oder Finger- und / oder Gestenerkennung. Daraus wiederum wird auf dem Großbildmonitor 19 eine Markierung als Hand-Cursor 19 generiert und die aktuelle Monitoranzeige überlagernd abgebildet.
  • Folgende Schritte sind zur Darstellung und Positionierung des Hand-Cursors 29 erforderlich:
    1. 1. Anfangsbedingung prüfen
      Wenn eine Hand mit bestimmter Anzahl Finger für kurze Zeitdauer ohne große Bewegungen im Erfassungsbereich des 3D-Sensors 20 positioniert ist wird der Hand-Cursor 29 in der Bildschirmmitte eingeblendet.
    2. 2. Deltawert-Ermittlung
      Änderungen der Hand- oder Fingerhaltung zwischen zwei von dem 3D-Sensor 20 bereitgestellten Datensätzen werden ermittelt und geben erwünschte Bewegungsdaten wieder, die auf den Hand-Cursor 29 am Großbildmonitor 19 übertragbar sind.
    3. 3. Ausreißer eliminieren
      Durch den 3D-Sensor 20 erfasste Bewegungen, die nicht zur Positionierung des Hand-Cursors 29, sondern als Aktionsbewegungen zu interpretieren sind, werden bei der Bewegungssteuerung herausgefiltert. Für die Eliminierung der als Störfaktoren wirkenden Bewegungen, können etwa die Geschwindigkeitsvektoren der Fingerspitzen verwendet werden.
    4. 4. Mittelwertbildung
      Falls Finger-Parameter herangezogen werden, dann werden die Deltawerte zwischen den vom 3D-Sensor 20 gelieferten Datensätzen über die Daten aller erfassten Finger einer Hand gemittelt und für die Steuerung des Hand-Cursors 29 verwendet. Berücksichtigt werden dabei nur die Finger zu denen auch Deltawerte ermittelt werden konnten und die nicht als Ausreißer identifiziert wurden.
    5. 5. Positionierung des Hand-Cursors 29
      Die gefilterte und gemittelte 3D-Delta-Bewegung der Hand wird in eine 2D-Relativbewegung des Hand-Cursors 29 auf dem Großbildmonitor 19 umgesetzt. Eine Projektion auf die XY-Ebene ist dafür ausreichend. Es wird ein variabler Verstärkungsfaktor für die Bewegungsgeschwindigkeit des Hand-Cursors 29 verwendet, der entweder über eine Einstellung oder einen Handparameter verändert werden kann.
    6. 6. Tiefpassfilterung
      Die errechnete Position des Hand-Cursors 29 muss noch über einen Tiefpassfilter geführt werden, um ein Zittern des Hand-Cursors 29 zu vermeiden. Die Zeitkonstante des Filters soll einstellbar sein.
    7. 7. Aktionserkennung
      Bestimmte Bewegungscharakteristika in der Hand- und Fingerbewegung des Bedieners sollten als Mausklick oder als Halten der Maustaste usw. interpretiert werden. Hierbei hilft in besonderer Weise das Eliminieren von Ausreißern, wie etwa eine schnelle Daumenbewegung, oder aber es muss über aufwändigere Verfahren der Daumen als Element eigens identifiziert werden, um seinen Abstand vom Zeigefinger zu ermitteln und eine Greifgeste zu erkennen. Möglich ist auch die Auswertung von Gesten wie die Bewegung für einen Tastendruck.
    8. 8. Abbruchbedingung prüfen
      Wenn bestimmte vordefinierte Bedingungen der Hand- und Fingererkennung nicht mehr gegeben sind, wird der Hand-Cursor 29 wieder ausblendet. Diese Bedingungen können schwächer sein als bei der Anfangsbedingung, z. B. was die Anzahl der erkannten Finger angeht.
  • Für die Positionierung des Hand-Cursors 29 werden bevorzugt folgende vom 3D-Sensor 20 bereitgestellte Parameter herangezogen:
    • Hand-Position
    • Normale auf der Grundausrichtung der Hand
    • Hand-Grundrichtung
    • Fingerrichtung (gemittelt über alle verfolgbaren Finger)
    • Fingerspitzen-Position (gemittelt über alle verfolgbaren Finger)
  • In Figur 4 ist die Bediensituation des 3D-Sensors 20 am Druckmaschinenleitstand 17 und in Verbindung mit einem Großbildmonitor 19 schematisch dargestellt. Eine Hand des Bedieners ist im Erfassungsbereich 26 des 3D-Sensors 20 angeordnet. Wenn der Bediener zu Initialisierung seine Hand kurze Zeit ruhig in den Erfassungsbereich 26 hält, kann der 3D-Sensor 20 diese Geste als Startaktion für die Einleitung eines Bedienvorganges auswerten. Dies wird über den Druckmaschinenleitstand 17 an den Großbildmonitor 19 gemeldet. Dann erscheint auf dem Großbildmonitor 19 mittig der Hand-Cursor 29. Dieser ist hier in der Art eines Fadenkreuzes mit das Fadenkreuz umgebenden Ringen ausgebildet. So ist der Hand-Cursor 29 sofort erkennbar und auch weiterhin gut sichtbar. Von dieser Startposition aus kann der Hand-Cursor 29 durch Bewegung der vom 3D-Sensor 20 erkannten Hand oder deren Fingern über die Bildfläche des Großbildmonitors 19 geführt werden. Im Großbildmonitor 19 sind ein Bildbereich 30 und ein Eingabebereich 31 symbolisch angedeutet. Welche Handbewegung dabei welche Bewegung des Hand-Cursors 29 auslöst, kann bei der Konfiguration des 3D-Sensors 20 frei definiert werden und ist von ergonomischen Gesichtspunkten abhängig.
  • Bei der Bewegung des Hand-Cursors 29 im Bildbereich 30 sind verschiedene Aktionen vorgesehen.
    Zum einen kann mittels Positionierung des Hand-Cursors 29 eine Bildstelle oder ein Bildelement angefahren und markiert werden, indem nach der Positionierung mittels einer Fingerbewegung, etwa mit dem Daumen, die Markierungsaktion ausgelöst wird.
    Weiterhin können ganze Bildbereiche markiert werden. Dazu wird der Hand-Cursor 29 auf eine Bildstelle gesetzt, die markiert wird. Danach wird der Hand-Cursor 29 unter Zuhilfenahme einer besonderen Fingerbewegung, wie etwa mit einem an die Hand angelegten Daumen, zu einer zweiten Bildstelle gezogen, die dann ebenso wieder markiert wird und damit die Markierungsfläche festlegt.
  • Ebenso kann durch Erkennung von zwei Fingern der Hand des Bedieners eine Vergrößerung der Bilddarstellung an einer markierten Bildstelle erfolgen. Dazu werden die Finger beiden erkannten Fingern von einer an den Fingerspitzen berührenden Position auseinander bewegt.
  • Bei einer Anwendung mit Erfassung von beiden Händen kann diese Aktion auch über die Erkennung von Fingern beider Hände ausgeführt werden.
    Weiterhin ist zum Umblättern von Bildern oder zum Weitergehen auf weitere Ansichten des dargestellten Bildsystems oder zum Umschalten auf weitere aktive Anwendungen eine Wischbewegung ausführbar, indem die Hand des Bedieners in horizontaler oder vertikaler Bewegung, eigentlich in Quer- oder Längsrichtung zur Bildschirmdarstellung am Großbildmonitor 19 zügig bewegt wird.
  • Die Bedienung mittels des Hand-Cursors 29 erfolgt im Eingabebereich 31 des Großbildmonitors 19 nach weiteren Prinzipien.
    Hierzu wird der Hand-Cursor 29 über die Eingabeelemente des Eingabebereiches 31 geführt. Dabei können durch die entsprechende Positionierung über einem Eingabefeld Erklärungs- und Hilfetexte eingeblendet werden. Weiterhin kann ein Eingabefeld durch Verfärbung als aktiv angezeigt werden. Diese Funktionen sind bei Touch-Bildschirmen nicht ohne weiteres möglich.
    Zum Auslösen einer Funktion an einem Eingabebereich kann wieder eine konfigurierte Fingerbewegung verwendet werden. Diese kann eine Daumenbewegung oder eine Fingerbewegung in der Art eines Tastaturanschlages sein.
  • Die Bedienmöglichkeiten sind vielfältig und mit den beschriebenen Ausführungsformen bei weitem nicht erschöpft.
  • Zur Vermeidung von Fehleingaben kann vor gesehen sein, dass der 3D-Sensor 20 durch spezielle Gesten oder einer Nahbedienung zunächst scharf geschaltet werden muss. Ebenso kann sie entsprechen abgeschaltet werden, wobei dies auch automatisch bei Fehlen von Gestensignale nach einer einstellbaren Vorwarnzeit vorgenommen werden kann.
  • Das System zur Druckmaschinenbedienung kann insbesondere auch so ausgebildet sein, dass dem 3D-Sensor 20 eine Sicherheitssteuerung zugeordnet ist, mittels der eine nicht beabsichtigte Erzeugung und Übermittlung von Steuersignalen an den Druckmaschinenleitstand 17 verhindert wird. Dabei kann diese Sicherheitsteuerung auf der Basis einer Gestenanalyse bezüglich des Standardvorrats an verarbeitbaren Gesten ausgeführt werden. Weiterhin kann sie auf der Basis einer Analyse des Bedienzustands und -zeitraums ausgeführt werden, wobei die Eingabe bevorzugt zu bestimmten Zeiten und in bestimmten Betriebszuständen ausführbar sein soll. Schließlich kann die Sicherheitssteuerung auch anhand einer Prüfung des Aktivierungszustands ausgeführt werden, wobei hier etwa einer Eingabe ein Aktivierungssignal als Geste oder aber direkt an dem 3D-Sensor 20 erforderlich gemacht werden kann.
  • Weiterhin kann der 3D-Sensor 20 auf die Gestik von bestimmten Personen je nach Größe und Armreichweite abgestimmt werden. So kann die Sensibilisierung des 3D-Sensors 20 auf der Basis einer Codierung durch Personenmerkmale oder durch technische Codierungseinrichtungen wie Chipkarten oder USB-Geräte erfolgen, die auch der Identifizierung des Bedieners am Druckmaschinenleitstand 17 dienen. So ist sichergestellt, dass stets eine sichere Bedienung erfolgen kann.
  • Für die Auswertung der Funktionalität des 3D-Sensors 20 sind noch weitere Anwendungen vorstellbar.
    Ausgehend von der Basislösung, dass, sobald eine geöffnete Hand im Sensorbereich sicher erkannt wird, ein halbtransparentes grafisches 3D-Control-Instrument mittig auf dem Großbildmonitor erscheint. Es bleibt zunächst unabhängig von evtl. anfallenden Handbewegungen im Wesentlichen mittig dort stehen. Die Steuerung einer Bewegung des 3D-Controll-Instrumentes erfolgt über Drehbewegungen der Hand, etwa so, als hätte man einen Drehknopf oder eine Kugel in der Hand, die man nach links/rechts bzw. vor/zurück drehen kann. Über die Handwölbung kann ein Kreisradius um das 3D-Control-Instrument beeinflusst werden. Auf diese Weise kann auch ab einem Schwellwert der Handwölbung bzw. des Kreisradius eine Aktion ausgelöst werden. Durch Tastenbedien-Gesten einzelner Finger (Taste auf Tastatur anschlagen) können virtuelle Buttons am 3D-Control-Instrument ausgewählt und bedient werden. Durch komplettes Schließen der Hand können Aktionen abgebrochen werden.
  • Auf dieses 3D-Control-Instrument können verschiedene Bedienkonzepte abgebildet werden. Beispielsweise kann eine Auswahlmöglichkeit über ein Auswahl-Karussell um das 3D-Control-Instrument herum abgebildet werden. Ähnlich ließe sich die Bedienung von Pie-Menüs (Torten-Menü) mittels des 3D-Sensors 20 steuern.
    Dabei sind funktionale Zuordnungen zu Hand-Cursor 29 und mehreren jeweils vorhandenen Aktivitätsbuttons im jeweiligen Aktionsumfeld kontextsensitiv vorgegeben. Eine derartige Zuordnung kann sich für verschiedenartige Anwendungen bei der Druckmaschinenbedienung über Darstellungsbereiche am Monitor ändern. So sind die kontextsensitiven Hintergrundinformationen für den Bildbereich 30 und den Aktionsbereich 31 in der Darstellung des Großbildmonitors 19 in Figur 4 unterschiedlich, da sich die möglichen Aktionen grundlegend unterscheiden.
  • Ebenso ist die Zuordnung bei einer Verwendung des Großbildmonitors 19 in seinen verschiedenen Funktionen für die Darstellung eines Anmeldebildschirmes oder zur Prozessvisualisierung mit Maschinengrafik und Automatikfunktionen der Druckmaschine oder für eine Messwertübersicht im Zusammenhang mit Farbfernsteuerung und -regelung oder für die Darstellung eines gerade verarbeiteten Druckbogens oder für die Information über Kamera- und Inspektionssysteme oder und vor allem auch für die Verwendung zu Zwecken der Fernwartung, Ersatzteilversorgung und Fehlerbehebung jeweils unterschiedlich.
  • Die beschriebenen Funktionalitäten sind in Verbindung mit dem Bedienumfeld und abgeleitet von den jeweiligen Bewegungsdatensätzen des 3D-Sensors 29 in jedes Bedienkonzept einer Druckmaschine und eines Druckmaschinenleitstands 17 integrierbar und jeweils anpassbar.
  • Bezugszeichenliste
  • 10
    Anleger
    11
    Druckwerk
    12
    Druckwerk
    13
    Druckwerk
    14
    Druckwerk
    15
    Ausleger
    16
    steuerungsseitige Baugruppen
    17
    Druckmaschinenleitstand
    18
    Monitor
    19
    Großbildmonitor
    20
    3D-Sensor
    21
    Eingabetastatur
    22
    Auflagefläche
    23
    Rückwand
    24
    Beleuchtung
    25
    Bedienbereich
    26
    Erfassungsbereich
    27
    Erfassungsbereich
    28
    Erfassungsbereich
    29
    Hand-Cursor
    30
    Bildbereich
    31
    Bedienelemente

Claims (10)

  1. System zur Druckmaschinenbedienung einer Druckmaschine, insbesondere einer Bogendruckmaschine, mit einem Druckmaschinenleitstand (17) und mehreren in der Druckmaschine verteilt angeordneten, steuerungsseitigen Baugruppen (16) der Druckmaschine,
    gekennzeichnet durch mindestens eine auf Gesten berührungslos reagierende dreidimensional erfassende Erfassungseinrichtung (20), die an dem Druckmaschinenleitstand (17) oder im Bedienbereich des Druckmaschinenleitstands (17) angeordnet und von einer an der Druckmaschine arbeitenden Person mittels eine Geste aktivierbar ist, und mittels derer durch die an der Druckmaschine arbeitenden Person durch Ausführung von Gesten Daten oder Steuersignale oder Informationsaktionen über eine Schnittstelle in Verbindung mit einem an dem Druckmaschinenleitstand (17) angeordneten Großbildmonitor (19) generierbar und übermittelbar sind,
    wobei ausgehend von der Erfassungseinrichtung (20) durch die an der Druckmaschine arbeitenden Person Daten oder Steuersignale für die Bedienung der Druckmaschine über die Druckmaschinensteuerung und/oder den Druckmaschinenleitstand (17) generierbar und übermittelbar sind und
    wobei die Aufnahmeeinrichtung als 3D-Sensor (20) zur Erkennung von Hand- und Fingergesten ausgebildet ist,
    wobei die Erfassungseinrichtung (20) einem Bedienbereich (25) vor dem Druckmaschinenleitstand (17) zugeordnet ist und
    wobei die Erfassungseinrichtung (20) am Druckmaschinenleitstand (17) verstellbar angeordnet ist.
  2. System zur Druckmaschinenbedienung nach Anspruch 1,
    dadurch gekennzeichnet,
    dass die Erfassungseinrichtung (20) eine Einrichtung zur Aktivierung / Deaktivierung und/oder Identifizierung des Bedienpersonals aufweist.
  3. System zur Druckmaschinenbedienung nach Anspruch 1 bis 2,
    dadurch gekennzeichnet,
    dass der 3D-Sensor (20) tragbar ausgebildet ist und dass durch einen Drucker drucktechnische Daten und/oder Funktionen für den Produktionsbetrieb oder den Einrichtebetrieb der Druckmaschine über die Druckmaschinensteuerung und/oder des Druckmaschinenleitstands (17) und/oder eines Colorpultsystems generierbar und/oder auswahlbar und/oder auslösbar sind und/oder dass von einem Servicemonteur mittels des 3D-Sensors (20) Serviceinstruktionen für die Wartung der Druckmaschine über die Druckmaschinensteuerung und/oder den Druckmaschinenleitstand (17) generierbar und/oder auswählbar und/oder auslösbar sind.
  4. System zur Druckmaschinenbedienung nach Anspruch 1 bis 3,
    dadurch gekennzeichnet,
    dass der Erfassungseinrichtung (20) eine Sicherheitssteuerung zugeordnet ist, mittels der eine nicht beabsichtigte Erzeugung von Steuersignalen an den Druckmaschinenleitstand (17) verhindert wird, wobei die Sicherheitssteuerung auf der Basis einer Gestenanalyse, einer Analyse des Bedienzustands und -zeitraums oder anhand einer Prüfung des Aktivierungszustands ausgeführt wird.
  5. System zur Druckmaschinenbedienung nach Anspruch 1 bis 4,
    dadurch gekennzeichnet,
    dass die Erfassungseinrichtung (20) dazu ausgebildet ist einer Startgeste des Bedieners zu erkennen und danach eine Initialisierung einer Bediensequenz in Verbindung mit dem Großbildmonitor (19) auszulösen, wobei infolge der Startgeste am Großbildmonitor (19) ein Markierungs- oder Steuerelement eingeblendet wird.
  6. System zur Druckmaschinenbedienung nach Anspruch 5,
    dadurch gekennzeichnet,
    dass das Markierungs- und Steuerelement als Hand-Cursor (29) in der Art eines Fadenkreuzes ausgebildet ist und bei Initialisierung einer Bediensequenz mittig am Großbildmonitor (19) eingeblendet wird.
  7. System zur Druckmaschinenbedienung nach Anspruch 1 bis 6,
    dadurch gekennzeichnet,
    dass zur Positionierung des Hand-Cursors (29) auf dem Großbildmonitor (19) die Daten des 3D-Sensors (20) hinsichtlich der Position, Ausrichtung und die Bewegung der Hand des Bedieners ausgewertet werden.
  8. System zur Druckmaschinenbedienung nach Anspruch 1 bis 7,
    dadurch gekennzeichnet,
    dass zur Ausführung von Aktionen unter Verwendung einer Positionierung des Hand-Cursors (29) auf dem Großbildmonitor (19) die Daten des 3D-Sensors (20) hinsichtlich der Position, Ausrichtung und Bewegung von einem, mehreren oder allen Fingern ausgewertet werden.
  9. System zur Druckmaschinenbedienung nach Anspruch 1 bis 8,
    dadurch gekennzeichnet,
    dass die Darstellung des Hand-Cursors (29) in Form und Größe auf dem Großbildmonitor (19) durch Daten des 3D-Sensors (20) hinsichtlich der Veränderung der Form der Hand des Bedieners ausgewertet werden.
  10. System zur Druckmaschinenbedienung nach Anspruch 1 bis 9,
    dadurch gekennzeichnet,
    dass die Bedingung zur Initialisierung der Funktion des 3D-Sensors (20) bei Einleitung eines Bedienzyklus im Hinblick auf die Erkennung von Merkmalen stärker eingestellt werden, als die Bedingungen zur Abschaltung.
EP14704315.2A 2013-02-07 2014-02-07 System zur druckmaschinenbedienung Active EP2953793B1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013201979 2013-02-07
DE102014101516 2014-02-06
PCT/EP2014/052464 WO2014122280A1 (de) 2013-02-07 2014-02-07 System zur druckmaschinenbedienung

Publications (2)

Publication Number Publication Date
EP2953793A1 EP2953793A1 (de) 2015-12-16
EP2953793B1 true EP2953793B1 (de) 2017-11-08

Family

ID=50101878

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14704315.2A Active EP2953793B1 (de) 2013-02-07 2014-02-07 System zur druckmaschinenbedienung

Country Status (3)

Country Link
EP (1) EP2953793B1 (de)
DE (1) DE102014101545A1 (de)
WO (1) WO2014122280A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014000876B3 (de) 2014-01-23 2015-01-08 Heidelberger Druckmaschinen Ag 3D Digitaler Proof
DE102016204540A1 (de) 2016-03-18 2017-09-21 Koenig & Bauer Ag Inspektionssystem mit einem Bildschirm zur optischen Darstellung eines fotografischen Bildes
DE102016208521B4 (de) * 2016-05-18 2018-05-17 Koenig & Bauer Ag Leitstand einer Druckmaschine
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
US11401072B2 (en) 2020-05-14 2022-08-02 Eric Blagg Hands-free portable printer having housing, knob and at least sensors to detect motions in different directions, while the knob is adapted to rotate for scrolling through sets of alpha-numeric characters
DE102022115819B4 (de) 2022-06-24 2024-03-28 Koenig & Bauer Ag Bedienelement für eine Substrat verarbeitende Maschine

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007020511B4 (de) 2006-05-24 2021-06-24 Heidelberger Druckmaschinen Ag Bedieneinrichtung für Druckmaschinen
DE102007058708B4 (de) * 2006-12-22 2020-06-10 Heidelberger Druckmaschinen Ag Integriertes Bedienkonzept bei Druckmaschinen
DE202007006079U1 (de) 2007-04-27 2007-06-28 Man Roland Druckmaschinen Ag Druckmaschinensteuerungssystem
DE102008002053A1 (de) 2008-05-28 2009-12-03 Manroland Ag Druckmaschinensteuerungssystem
DE102011075467A1 (de) * 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
EP2953793A1 (de) 2015-12-16
DE102014101545A1 (de) 2014-08-07
WO2014122280A1 (de) 2014-08-14

Similar Documents

Publication Publication Date Title
EP2953793B1 (de) System zur druckmaschinenbedienung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2920656B1 (de) Verfahren zum sicheren und bewussten aktivieren von funktionen und/oder bewegungen einer steuerbaren technischen einrichtung
DE112014004307B4 (de) Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm
DE102012103030B3 (de) Verfahren zur Bedienung eines Industrieroboters
EP2735947B1 (de) Gestensteuerung für Druckmaschinen
EP3458939B1 (de) Interaktionssystem und -verfahren
DE102012103032B3 (de) Verfahren zur Bedienung eines Industrieroboters
DE102012103031A1 (de) Verfahren zur Bedienung eines Industrieroboters
EP2822814B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
DE102013011689A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Berührungssignalen eines Touchscreens
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102013019425A1 (de) Wallscreen mit Touchbedienung
EP3366434A1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
DE19845027C2 (de) Medizintechnisches System
DE102018208364A1 (de) Betriebsverfahren einer positionsmessvorrichtung
DE102009057739A1 (de) Bedienvorrichtung für ein Fahrzeug mit Druck- oder Gestenerfassung
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
WO2014067774A1 (de) Verfahren und vorrichtung zum betreiben einer eingabevorrichtung
WO2014067798A1 (de) Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
DE102013014889A1 (de) Mauszeigersteuerung für eine Bedienvorrichtung
EP3093182B1 (de) Fortbewegungsmittel, arbeitsmaschine, anwenderschnittstelle und verfahren zur anzeige eines inhaltes einer ersten anzeigeeinrichtung auf einer zweiten anzeigeeinrichtung
DE102017210599A1 (de) Verfahren zum Positionieren eines digitalen Anzeigeinhalts auf einer Anzeigeeinrichtung eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug mit Steuervorrichtung
EP3564787B1 (de) Verfahren zur interaktion einer zeigevorrichtung mit einem auf einer projektionsfläche eines virtuellen desktops angeordneten zielpunkt sowie hierzu eingerichtete zeigevorrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20150907

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20160620

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20161202

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAJ Information related to disapproval of communication of intention to grant by the applicant or resumption of examination proceedings by the epo deleted

Free format text: ORIGINAL CODE: EPIDOSDIGR1

GRAL Information related to payment of fee for publishing/printing deleted

Free format text: ORIGINAL CODE: EPIDOSDIGR3

GRAJ Information related to disapproval of communication of intention to grant by the applicant or resumption of examination proceedings by the epo deleted

Free format text: ORIGINAL CODE: EPIDOSDIGR1

GRAL Information related to payment of fee for publishing/printing deleted

Free format text: ORIGINAL CODE: EPIDOSDIGR3

INTC Intention to grant announced (deleted)
INTC Intention to grant announced (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

INTG Intention to grant announced

Effective date: 20170918

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

Ref country code: AT

Ref legal event code: REF

Ref document number: 943758

Country of ref document: AT

Kind code of ref document: T

Effective date: 20171115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502014006136

Country of ref document: DE

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20171108

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180208

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180208

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180209

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180308

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502014006136

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

26N No opposition filed

Effective date: 20180809

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20180228

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180207

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180207

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180228

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20140207

Ref country code: MK

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171108

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171108

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230221

Year of fee payment: 10

Ref country code: CH

Payment date: 20230307

Year of fee payment: 10

Ref country code: AT

Payment date: 20230217

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20230221

Year of fee payment: 10

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230601

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240219

Year of fee payment: 11