EP3680106B1 - Mn-detektion im druckbild - Google Patents

Mn-detektion im druckbild Download PDF

Info

Publication number
EP3680106B1
EP3680106B1 EP19151348.0A EP19151348A EP3680106B1 EP 3680106 B1 EP3680106 B1 EP 3680106B1 EP 19151348 A EP19151348 A EP 19151348A EP 3680106 B1 EP3680106 B1 EP 3680106B1
Authority
EP
European Patent Office
Prior art keywords
white
image
print
defects
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP19151348.0A
Other languages
English (en)
French (fr)
Other versions
EP3680106A1 (de
Inventor
Dr. Jan Krieger
Frank Schumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Priority to EP19151348.0A priority Critical patent/EP3680106B1/de
Priority to CN201911264871.3A priority patent/CN111434494B/zh
Priority to JP2020002847A priority patent/JP7412185B2/ja
Priority to US16/740,687 priority patent/US11752775B2/en
Publication of EP3680106A1 publication Critical patent/EP3680106A1/de
Application granted granted Critical
Publication of EP3680106B1 publication Critical patent/EP3680106B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J2/00Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
    • B41J2/005Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
    • B41J2/01Ink jet
    • B41J2/21Ink jet for multi-colour printing
    • B41J2/2132Print quality control characterised by dot disposition, e.g. for reducing white stripes or banding
    • B41J2/2142Detection of malfunctioning nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J2/00Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
    • B41J2/005Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
    • B41J2/01Ink jet
    • B41J2/21Ink jet for multi-colour printing
    • B41J2/2132Print quality control characterised by dot disposition, e.g. for reducing white stripes or banding
    • B41J2/2146Print quality control characterised by dot disposition, e.g. for reducing white stripes or banding for line print heads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J29/00Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
    • B41J29/38Drives, motors, controls or automatic cut-off devices for the entire printing mechanism
    • B41J29/393Devices for controlling or analysing the entire machine ; Controlling or analysing mechanical parameters involving printing of test patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J2/00Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
    • B41J2/005Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
    • B41J2/01Ink jet
    • B41J2/21Ink jet for multi-colour printing
    • B41J2/2132Print quality control characterised by dot disposition, e.g. for reducing white stripes or banding
    • B41J2/2139Compensation for malfunctioning nozzles creating dot place or dot size errors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J29/00Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
    • B41J29/38Drives, motors, controls or automatic cut-off devices for the entire printing mechanism
    • B41J29/393Devices for controlling or analysing the entire machine ; Controlling or analysing mechanical parameters involving printing of test patterns
    • B41J2029/3935Devices for controlling or analysing the entire machine ; Controlling or analysing mechanical parameters involving printing of test patterns by means of printed test patterns

Definitions

  • the present invention relates to a method for checking the print quality of an inkjet printing machine using a camera and a computer.
  • the invention lies in the technical field of digital printing.
  • a main problem here is drying of the ink in the event that the corresponding print head is not used for a long time and is not properly stored in the idle state.
  • the drying ink clogs the nozzle outlet opening and thus leads to a deviating pressure point of the print nozzle in question or, in extreme cases, even to complete failure.
  • the print nozzle no longer prints exactly where the actual print point should be and the print strength also deviates from the actually desired standard values.
  • the ingress of dust particles and similar dirt can also cause white line errors.
  • German patent application DE 2017 220361 A1 discloses such a method for detecting and compensating for failed printing nozzles in an inkjet printing machine using a computer, which involves printing a current print image, recording the printed print image using an image sensor and digitizing the recorded print image using the computer, adding digitized color values of the recorded print image of each column over the entire print image height and dividing the summed up color values by the number of pixels to obtain a column profile, subtracting an optimized column profile without failed printing nozzles from the original column profile to obtain a difference column profile, setting a threshold for maximum values exceeding which one out, applying this threshold for maximum values to the difference column profile, whereby in the resulting column profile each maximum marks a out of print nozzle, and compensating for the marked out print nozzles in the subsequent printing process as steps of the method.
  • the disadvantage of this method is that it cannot be implemented robustly in practice.
  • the method is based on the fact that there are very little differences between one reference image and a camera image. But that is not always the case in practice. Reasons for this are, for example, incorrectly calibrated cameras, a non-optimal or outdated white balance, different types of paper or suboptimal colors in the printing unit.
  • areas in the printed image that are as monochromatic as possible are used for the detection of the whitelines, which is why the method can only be used to a limited extent in the case of printed images that do not have such areas.
  • the US patent application U.S. 2012/092409 A1 also discloses a system and method according to the preamble of claim 1 for detecting missing inkjets in an inkjet imaging system.
  • the system and method detect missing inkjets in an inkjet imaging system.
  • the system creates digital images of printed documents that do not contain any test pattern data.
  • the digital images are processed to detect light stripes, and the positions of the light stripes are correlated to the ink jet positions in the printheads.
  • the identification of the ink color associated with the correlated ink jet positions is then obtained through an analysis of color separated images and/or color errors.
  • the object of the present invention is therefore to find a method for determining printing errors in a printing process of an inkjet printing machine which is more efficient and determines printing errors, in particular white line errors, better and more reliably than the methods known from the prior art.
  • the object is solved by a method for determining printing errors in a printing process, carried out in an inkjet printing machine for processing a print job by a computer, with printed products produced during the printing process being recorded and digitized using a camera system that generated camera image is fed to a detection algorithm on the computer, if printing errors are detected, a message is sent to a machine controller, which then, if necessary, ejects the printed product via a waste gate, which is characterized in that the detection algorithm separates color sections of the camera images and detects the printing errors in the color sections , links images of the individual color separations to a candidate image, filters the candidate image and finally enters the remaining detected printing errors in a list and sends this to the printing press.
  • the core of the method according to the invention is therefore to determine the printing errors directly from the generated camera image of the recorded and digitized printed product.
  • the printing errors are detected directly in the separated color separations, since the printing errors can be detected more easily here than in the composite camera image.
  • the camera usually delivers RGB images, so that a separation of the individual color separations of the camera image generated naturally delivers individual RGB color separations and not CMYK color separations, which correspond to the color space of the inkjet printing machine used.
  • a preferred development of the method according to the invention is that the printing errors are white line or dark line errors caused by defective printing nozzles of the inkjet printing machine.
  • the algorithm is therefore primarily intended to recognize the whiteline errors already described, since these printing errors in particular reduce the print quality of the printing process to such an extent that waste occurs.
  • a further preferred development of the method according to the invention is that in a further method step, before sending to the printing machine, the computer filters out pseudo-whiteline or darkline errors from the list of whiteline or darkline errors by using a specific test method . It is important that no false positive errors are output by the detection algorithm. In particular, thin, light lines in the print image to be generated, such as barcodes, are very susceptible to being marked as pseudo-whitelines. Therefore, in a further process step, the detection algorithm should use specific tests to check whether the detected white line is really a real white line in order to rule out the possibility that desired print image components are incorrectly detected as white line errors and thus cause additional waste unintentionally.
  • a further preferred development of the method according to the invention is that the computer determines the causative defective printing nozzles from the list of the remaining detected white line or dark line errors and, depending on this, compensates the white line or dark line errors using suitable compensation methods.
  • the actual goal of the method according to the invention is to precisely identify printed products in the form of printed sheets that have such quality-reducing whiteline errors that make the printed sheet produced a waste sheet
  • the information about the whiteline errors determined by the detection algorithm can of course be used also be used to to determine the causal defective printing nozzles and to have them compensated by a suitable compensation method. Compensation for the defective print nozzles finally allows the relevant inkjet printing machine to continue to be used to process the current print job without changing the print head.
  • a further preferred development of the method according to the invention is that the computer for the specific test method creates a reference image from preliminary data of the print job, applies the detection algorithm to this reference image and thus gains knowledge about either received candidates for pseudo white line or dark line errors and removes them from the list of whiteline or darkline defects or areas in the camera image with probable pseudo whiteline or darkline defects to which the detection algorithm is then not applied.
  • the easiest way to detect pseudo-white lines is to create a reference image from good data, e.g. the preliminary stage data, and then check whether the structure found that was detected as a white line is also located in this reference image. If this is the case, it is logically a pseudo white line. With the realization that you have found one, you can deal with it in two ways.
  • a further preferred development of the method according to the invention is that the computer creates the reference image in several sizes and/or resolutions, applies the detection algorithm several times to the various reference images and summarizes and uses the knowledge gained therefrom. This procedure increases the reliability of both the detection algorithm for the specific marking of whitelines and for the determination of pseudo-whiteline errors.
  • a further preferred development of the method according to the invention is that the algorithm is not applied to such areas, or results from such areas are excluded, which are characterized by a high variation of the gray values in a limited, local environment in the reference image.
  • Such areas such as barcodes, are particularly susceptible to the detection of pseudo-whiteline or darkline errors and must therefore be excluded from the algorithm's check.
  • a further preferred development of the method according to the invention is that the list of white line or dark line errors is created via column totals in the filtered candidate image by applying a limit value to the respectively determined column total in the candidate image.
  • True spurious whiteline/darkline errors typically span a larger area of the captured camera image.
  • pseudo-whiteline/darkline errors which is the case with very short whiteline errors is very probable, only those print columns in the candidate image are marked in which the determined print error exceeds a certain limit value.
  • a further preferred development of the method according to the invention is that the candidate image of the individual color separations is linked by the computer using a mathematical OR operation. This type of composition of the individual color extracts to form the candidate image has proven to be the most suitable from a computational point of view.
  • a further preferred development of the method according to the invention is that the filtering of the candidate image is carried out by the computer using morphological operations.
  • this allows very short printing errors or white lines to be filtered out, which are usually pseudo-white lines anyway or do not affect the print quality of the printed product or printed sheet so much that a waste decision has to be made here.
  • a further preferred development of the method according to the invention is that the detection algorithm is applied multiple times by the computer to the generated camera image, with the method being parameterized differently in each case in order to detect differently pronounced dark line or white line errors and the results of all color separations of all applications of the procedure can be logically linked with one another.
  • the detection algorithm can also be applied multiple times to the generated camera image. In particular, this increases the accuracy of the detection algorithm when filtering out pseudo whiteline or darkline errors, but is also positive for the hit accuracy when finding real whiteline or darkline errors.
  • a further preferred development of the method according to the invention is that for each of the differently parameterized applications of the method, the camera image is previously limited to a maximum gray value in each pixel.
  • the advantage of this is that bright outliers in paper white areas that could falsify the mean are filtered out.
  • a further preferred development of the method according to the invention is that the candidate image of a color channel is generated by dividing the image into horizontal strips, with each strip being reduced to a line signal by suitable averaging of each of its columns, in which whitelines or darklines are then a special search method can be sought and each line evaluated in this way results in a line of the whiteline candidate image.
  • This is an important feature of the method according to the invention, since the white/dark line detection using the detection algorithm in these strips is more efficient than if the algorithm had to work with the overall image.
  • a further preferred development of the method according to the invention is that the computer uses the white or dark line search method to search for a dark or
  • Whiteline at a position by evaluating a constrained neighborhood around the pixel of interest in the line signal.
  • the classification of whether a found error is really a real white line or dark line error is done by evaluating the immediately adjacent pixels. Only then can a pseudo-whiteline or darkline error be ruled out.
  • a further preferred development of the method according to the invention is that the search method first convolves the line signal with different filter kernels and converts the results into logical signals by comparing them with possibly different limit values, which are then converted into a white or dark line signal with the aid of a logical link. candidate line signal is converted.
  • the area of application of the preferred embodiment variant is an inkjet printing machine 7.
  • This is a sheet-fed inkjet printing machine 7 which is controlled by a control computer 6 .
  • this printing press 7 when this printing press 7 is in operation, failures of individual printing nozzles in the print heads 5 in the printing unit 4 can occur.
  • the result is white/dark lines or, in the case of a multicolored print, distorted color values.
  • An example of such a white/dark line 9 in a captured camera image 8 is shown in figure 3 shown.
  • figure 3 shows an example of a printed sheet 2 with captured camera images 13, one of which has a white/darkline error 14.
  • additional, downstream filtering can also be carried out with the aid of a reference image. This will be explained in more detail later in the description.
  • a reference image is usually required, which, in addition to the disadvantages already mentioned, impairs the processing speed.
  • the use of a reference image can further improve the quality of the method by avoiding false positive detected white/dark lines 14 .
  • the method according to the invention thus has many advantages over the prior art.
  • white balance, type of paper, short white/dark lines 14 they are often lost in the image/signal noise.
  • This disadvantage is eliminated with the method according to the invention.
  • the reference image must be transported into the computer 9 in full resolution, for example with 670 dpi. With the technical means currently available, this is only possible at great expense. Since the algorithm presented here does not require a reference image or at least a high-resolution reference image, these costs can be saved.
  • pseudo-white/darklines 14b are now filtered out of the white/darkline candidates 14 determined in stage one by using one or more filters.
  • This filter is to rule out very brief or isolated false detections. Because a white/dark line 14 will affect several areas of a column in most realistic print motifs, while false detections only occur locally.
  • the filter described in step four of the previous exemplary embodiment using the reference image is also carried out here with all the modifications described above.
  • the size of the reference image is adjusted beforehand. It can also make sense to process the reference image several times in different resolutions and to combine the results of these stages before filtering. This simulates the loss of quality on the "perfect" reference image by the camera system 10 and thus makes it possible to effectively detect different structures that can lead to white/darkline-like structures in the camera image 13 .
  • the further, particularly preferred exemplary embodiment has the additional advantage over the previous exemplary embodiment that it has a higher detection performance for white/dark lines 14 with a simultaneously smaller number of pseudo white/dark lines 14b.
  • this requires a reference image evaluation, the additional processing steps of which can lead to longer computing times for the computer 6, 9 used.
  • the decision as to which preferred embodiment is used should therefore be based on the requirements of the specific application. Print jobs in which the white/dark line detection is time- or performance-critical should rather use the first exemplary embodiment presented, while print jobs in which print images require a thorough detection of white/dark lines 14 and/or in which an increased There is a risk of pseudo-white/dark lines 14b appearing, should rather resort to the second exemplary embodiment presented.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Ink Jet (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Überprüfung der Druckqualität einer Inkjetdruckmaschine mittels einer Kamera und eines Rechners.
  • Die Erfindung liegt im technischen Gebiet des Digitaldrucks.
  • Beim Betrieb von Inkjetdruckmaschinen kommt es zu spezifischen Druckfehlern, welche spezifisch für diesen Druckmaschinentyp sind. Am verbreitetsten sind sogenannte Whiteline-Fehler, die entstehen, indem einzelne Druckdüsen der verwendeten Inkjetdruckköpfe von ihrem gewünschten Standardverhalten abweichen. Überschreitet diese Abweichung bestimmte Grenzen, so werden die betreffenden Druckdüsen in der Regel deaktiviert, da sie das Druckbild stören. Allerdings erzeugt eine derart deaktivierte Druckdüse dann einen entsprechenden Whiteline-Fehler. Dieser wird so genannt, da er am deutlichsten im Falle einer einfarbig gedruckten Fläche hervortritt, da in diesem Fall das darunterliegende Drucksubstrat, was in der Regel weiß ist, hervortritt. Wird dagegen mit einer hellen Druckfarbe (z.B. Deckweiß) auf dunkel aussehendem Untergrund gedruckt, erscheinen die Fehler als sogenannte Darkline-Fehler. Aber auch in mehrfarbigen Bildbereichen, wo mehrere Druckdüsen verschiedener Druckköpfe die einzelnen Farbauszüge übereinander drucken, führt der Ausfall bzw. die Deaktivierung einer beteiligten Druckdüse zu entsprechenden Farbverzerrungen im zu erzeugenden Druckbild. Da die Druckdüsen linienartig in Druckrichtung Tinte abgeben, wird auch der erzeugte Druckfehler linienförmig, woraus sich der Begriff White-/Darkline-Druckfehler ergibt.
  • Die Ursachen für das Auftreten dieser Abweichungen im Betrieb von Druckdüsen können vielfältiger Natur sein. Ein Hauptproblem ist hierbei Eintrocknen der Tinte für den Fall, dass der entsprechende Druckkopf zu lange Zeit nicht benutzt wird und nicht sachgemäß im Ruhezustand zwischengelagert wird. Die eintrocknende Tinte verstopft dabei die Düsenaustrittsöffnung und führt somit zu einem abweichenden Druckpunkt der betreffenden Druckdüse bzw. im Extremfall sogar zum vollständigen Ausfall. In jedem Fall druckt die Druckdüse nicht mehr exakt da, wo der eigentliche Druckpunkt liegen sollte und auch die Druckstärke weicht von den eigentlich gewünschten Standardwerten ab. Neben eingetrockneter Tinte können auch das Eindringen von Staubpartikeln und ähnlichem Schmutz die Whiteline-Fehler hervorrufen.
  • Zum Auffinden dieser Whiteline-Fehler sind aus dem Stand der Technik mehrere Ansätze bekannt. Am Üblichsten ist sicherlich das Drucken von Testmustern und die Detektion der Whitelines über eine automatisierte Erfassung und Auswertung dieser Testmuster. Dieser Ansatz hat jedoch den Nachteil, dass das Drucken der Testmuster je nach Lage und Größe auf dem Drucksubstrat Makulatur verursacht. Daher existieren Verfahren, welche das erzeugte Druckbild selbst untersuchen und aus diesem Druckbild dann auftretende Whiteline-Fehler detektieren. Dies hat zudem den Vorteil, dass nur solche Whitelines, bzw. diese verursachende Druckdüsen, detektiert werden, die für das aktuell zu erzeugende Druckbild wirklich störend sind.
  • Die deutsche Patentanmeldung DE 2017 220361 A1 offenbart ein solches Verfahren zur Detektion und Kompensation von ausgefallenen Druckdüsen in einer Inkjet-Druckmaschine durch einen Rechner, welches das Drucken eines aktuellen Druckbildes, die Aufnahme des gedruckten Druckbildes durch einen Bildsensor und Digitalisierung des aufgenommenen Druckbildes durch den Rechner, das Addieren von digitalisierten Farbwerten des aufgenommenen Druckbildes jeder Spalte über die gesamte Druckbildhöhe und dividieren der aufsummierten Farbwerte durch die Anzahl der Pixel zum Erhalt eines Spaltenprofils, das Subtrahieren eines optimierten Spaltenprofils ohne ausgefallene Druckdüsen vom Original-Spaltenprofil zu einem Differenz-Spaltenprofil, das Setzen einer Schwelle für Maximalwerte deren Überschreiten eine ausgefallene Druckdüse definiert, das Anwenden dieser Schwelle für Maximalwerte auf das Differenz-Spaltenprofil, wodurch im resultierenden Spaltenprofil jedes Maximum eine ausgefallene Druckdüse markiert und das Kompensation der markierten Druckdüsen im anschließenden Druckprozess als Schritte des Verfahrens umfasst.
  • Nachteilig an diesem Verfahren ist jedoch, dass es in der Praxis nicht robust umzusetzen ist. Das Verfahren beruht darauf, dass es nur sehr geringe Unterschiede zwischen einem Referenzbild und einem Kamerabild gibt. Genau das ist aber in der Praxis nicht immer der Fall. Ursachen hierfür sind zum Beispiel falsch kalibrierte Kameras, ein nicht optimaler oder veralteter Weißabgleich, unterschiedliche Papiersorten oder nicht optimale Farben im Druckwerk. Zudem werden möglichst einfarbig belegte Bereiche im Druckbild für die Detektion der Whitelines verwendet, weshalb bei Druckbildern die solche Flächen nicht aufweisen, das Verfahren nur eingeschränkt verwendet werden kann.
  • Aus dem US-Patent US 9,944,104 B2 ist ein Whiteline-Inspektionssystem bekannt. Hier wird zur Detektion der Whitelines ein einfacher Grenzwertvergleich vorgeschlagen, der davon ausgeht, dass das zu überprüfende Motiv an der Stelle homogen ist. Für den Fall eines Bildes, auf das diese Bedingung nicht zutrifft, wird vorgeschlagen, dass das Signal durch Abziehen eines lokal ausgerichteten, aus Vorstufendruckdaten erzeugten Referenzbildes zu generieren. Es ist allerdings weiterhin eine Differenzbildberechnung notwendig.
  • Die Patentanmeldung EP 3300907A1 beschreibt dagegen, wie ein Whiteline-Detektionssystem durch Einsatz verschiedener Verfahren, je nach Drucksituation eine erhöhte Güte erreichen kann, insbesondere um zu vermeiden, dass schwache und damit unkritische Whitelines detektiert werden, oder zwar schlecht kompensierte, aber für das menschliche Auge unsichtbare Whitelines als Defekt erkannt werden. Wie in US 9,944,104 B2 ist auch hier ein Referenzbild-Erzeugungsschritt notwendig, um Referenzdaten zum Auffinden von Whitelines zu erzeugen, auf welchen man gerne verzichten würde.
  • Die US-Patentanmeldung US 2012/092409 A1 offenbart zudem ein System und ein Verfahren nach dem Oberbegriff des Anspruchs 1 zum Erkennen fehlender Tintenstrahlen in einem TintenstrahlBilderzeugungssystem. Das System und das Verfahren erfassen fehlende Tintenstrahlen in einem Tintenstrahlbilderzeugungssystem. Das System erzeugt dabei digitale Bilder von gedruckten Dokumenten, die keine Testmusterdaten enthalten. Die digitalen Bilder werden verarbeitet, um Lichtstreifen zu erfassen, und die Positionen der Lichtstreifen werden mit den Tintenstrahlpositionen in den Druckköpfen korreliert. Die Identifizierung der Tintenfarbe, die mit den korrelierten Tintenstrahlpositionen assoziiert ist, wird dann durch eine Analyse von farbseparierten Bildern und / oder Farbfehlern erhalten.
  • Aufgabe der vorliegenden Erfindung ist somit, ein Verfahren zur Bestimmung von Druckfehlern in einem Druckprozess einer Inkjetdruckmaschine zu finden, welches effizienter ist und Druckfehler, insbesondere Whiteline-Fehler, besser und zuverlässiger ermittelt als die aus dem Stand der Technik bekannten Verfahren.
  • Gelöst wird die Aufgabe durch ein Verfahren zur Bestimmung von Druckfehlern in einem Druckprozess, durchgeführt in einer Inkjet-Druckmaschine zur Bearbeitung eines Druckauftrages, durch einen Rechner, wobei während des Druckprozesses erzeugte Druckprodukte mit Hilfe eines Kamerasystems erfasst und digitalisiert werden, das so erzeugte Kamerabild einem Detektionsalgorithmus auf dem Rechner zugeführt wird, bei erkannten Druckfehlern eine Meldung an eine Maschinensteuerung gesendet wird, welche dann gegebenenfalls das Druckprodukt über eine Makulaturweiche ausschleust, welches dadurch gekennzeichnet ist, dass der Detektionsalgorithmus Farbauszüge der Kamerabilder separiert, in den Farbauszügen die Druckfehler detektiert, Bilder der einzelnen Farbauszüge zu einem Kandidatenbild verknüpft, das Kandidatenbild filtert und abschließend die verbleibenden detektierten Druckfehler in eine Liste einträgt und diese an die Druckmaschine sendet. Der Kern des erfindungsgemäßen Verfahrens besteht also darin, die Druckfehler direkt aus dem erzeugten Kamerabild des erfassten und digitalisierten Druckproduktes zu ermitteln. Die Druckfehler werden dabei direkt in den separierten Farbauszügen detektiert, da sich hier die Druckfehler leichter detektieren lassen als im zusammengesetzten Kamerabild. Wichtig ist dabei jedoch, dass die Druckfehler im erzeugten Kamerabild überhaupt zu erkennen sind. Ist beispielsweise die Auflösung des erzeugten Kamerabildes zu niedrig, so gehen die Informationen über die entsprechenden Druckfehler verloren und der gesamte Detektionsalgorithmus läuft ins Leere. Wichtig ist auch zu beachten, dass die Kamera üblicherweise RGB-Bilder liefert, so dass eine Separation der einzelnen Farbauszüge des erzeugten Kamerabildes natürlich einzelne RGB-Farbauszüge liefert und nicht CMYK-Farbauszüge, welche dem Farbraum der verwendeten Inkjetdruckmaschine entsprechen. Dies stellt jedoch kein Problem für das erfindungsgemäße Verfahren dar, da es vor allem auf die genaue Lage der entsprechenden Druckfehler ankommt, bzw. darauf, dass überhaupt die Druckqualität beeinträchtigenden Druckfehler zuverlässig detektiert werden. Welcher Farbauszug im Maschinenfarbraum, sprich welche Tinte und damit welcher Druckkopf, vom Düsenausfall betroffen ist, lässt sich vom Rechner durch entsprechende Farbraumtransformationen feststellen. Zur Verbesserung des Detektionsalgorithmus, werden zudem anschließend an die Detektion in den Farbauszügen die Bilder der einzelnen Farbauszüge wieder zu einem gemeinsamen Kandidatenbild verknüpft und dieses Bild dann noch einer weiteren Filterung unterzogen um sicherzugehen, dass auch wirklich nur zur Makulatur führende Druckfehler entsprechend detektiert werden. Um sich eine spätere Detektion der die Druckfehler verursachenden Druckdüsen vorzuhalten, werden sämtliche Spalten im Kandidatenbild, die einen detektierten Druckfehler enthalten, gekennzeichnet.
  • Vorteilhafte und daher bevorzugte Weiterbildungen des Verfahrens ergeben sich aus den zugehörigen Unteransprüchen sowie aus der Beschreibung mit den zugehörigen Zeichnungen.
  • Eine bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass es sich bei den Druckfehlern um Whiteline- oder Darkline-Fehler verursacht von defekten Druckdüsen der Inkjet-Druckmaschine handelt. Der Algorithmus ist also in der Hauptsache für das Erkennen der bereits beschriebenen Whiteline-Fehler gedacht, da vor allem diese Druckfehler die Druckqualität des Druckprozesses so weit herabsetzen, dass es zur Makulatur kommt.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Rechner in einem weiteren Verfahrensschritt, vor dem Senden an die Druckmaschine, aus der Liste von Whiteline- oder Darkline-Fehlern durch Anwendung eines spezifischen Testverfahrens Pseudo-Whiteline- oder Darkline-Fehler herausfiltert. Wichtig ist dabei, dass keine Falsch-positiv-Fehler vom Detektionsalgorithmus ausgegeben werden. Insbesondere dünne, helle Linien im zu erzeugenden Druckbild, wie z.B. Barcodes, sind sehr anfällig als Pseudo-Whitelines gekennzeichnet zu werden. Daher sollte der Detektionsalgorithmus in einem weiteren Verfahrensschritt mittels spezifischer Tests überprüfen, ob die detektierte White line auch wirklich eine echte White line ist, um somit auszuschließen, dass gewollte Druckbildbestandteile fälschlicherweise als Whiteline-Fehler detektiert werden und somit ungewollt zusätzliche Makulatur verursacht wird.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Rechner aus der Liste der verbleibenden detektierten Whiteline- oder Darkline-Fehler, die ursächlichen defekten Druckdüsen ermittelt und davon abhängig über jeweils geeignete Kompensationsverfahren die Whiteline- oder Darkline-Fehler kompensiert. Obwohl das eigentliche Ziel des erfindungsgemäßen Verfahrens darin liegt, zielgenau Druckprodukte in der Form von Druckbögen zu erkennen, welche über derartige qualitätsmindernde Whiteline-Fehler verfügen, die aus dem erzeugten Druckbogen einen Makulaturbogen machen, können die vom Detektionsalgorithmus ermittelten Informationen über die Whiteline-Fehler selbstverständlich auch dazu verwendet werden, um die ursächlichen defekten Druckdüsen zu ermitteln und diese somit von einem geeigneten Kompensationsverfahren ausgleichen zu lassen. Die Kompensation der defekten Druckdüsen erlaubt es schließlich, ohne einen Druckkopfwechsel die betreffende Inkjetdruckmaschine weiter zur Abarbeitung des laufenden Druckauftrages zu verwenden.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Rechner für das spezifische Testverfahren aus Vorstufendaten des Druckauftrages ein Referenzbild erstellt, auf dieses Referenzbild den Detektionsalgorithmus anwendet und so daraus Erkenntnisse über entweder erhaltene Kandidaten für Pseudo-Whiteline- oder Darkline-Fehler gewinnt und diese aus der Liste von Whiteline- oder Darkline-Fehlern entfernt oder über Bereiche im Kamerabild mit wahrscheinlichen Pseudo-Whiteline- oder Darkline-Fehler, auf die der Detektionsalgorithmus dann nicht angewendet wird. Am leichtesten lassen sich Pseudo-Whitelines detektieren, indem man aus Gut-Daten, z.B. den Vorstufendaten, ein Referenzbild erstellt und dann überprüft, ob sich in diesem Referenzbild die gefundene Struktur, die als White line detektiert wurde, ebenfalls befindet. Ist dem der Fall, handelt es sich logischerweise um eine Pseudo-Whiteline. Mit der Erkenntnis, eine solche gefunden zu haben, kann man nun auf zweierlei Weise umgehen. Man kann den gefundenen Pseudo-Whiteline-Fehler aus der Liste ganz einfach entfernen, was sicherlich die einfachste Vorgehensweise ist. Falls man aber vermeiden will, dass im fortlaufenden erfindungsgemäßen Verfahren derselbe Pseudo-Whiteline-Fehler wieder vom Detektionsalgorithmus gefunden wird, so ist es am besten, den Bereich im Kamerabild, in dem dieser Pseudo-Whiteline-Fehler aufgetreten ist, von der erfindungsgemäßen Detektion auszunehmen.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Rechner das Referenzbild in mehreren Größen und/oder Auflösungen erstellt, den Detektionsalgorithmus entsprechend mehrfach auf die verschiedenen Referenzbilder anwendet und die daraus gewonnenen Erkenntnisse zusammenfasst und anwendet. Dieses Vorgehen erhöht die Zuverlässigkeit sowohl des Detektionsalgorithmus für die spezifische Kennzeichnung von Whitelines, als auch für die Bestimmung von Pseudo-Whiteline-Fehlern.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Algorithmus auf solche Bereiche nicht angewendet wird, oder Ergebnisse aus solchen Bereichen ausgeschlossen werden, die sich durch eine hohe Variation der Grauwerte in einer begrenzten, lokalen Umgebung im Referenzbild auszeichnen. Solche Bereiche, wie z.B. Barcodes, sind besonders anfällig für die Detektion von Pseudo-Whiteline- oder Darkline-Fehlern und müssen daher von der Prüfung des Algorithmus' ausgenommen werden.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass das Erstellen der Liste von Whiteline-oder Darkline-Fehlern über Spaltensummen im gefilterten Kandidatenbild erfolgt, mittels Anwendung eines Grenzwertes an die jeweils ermittelte Spaltensumme im Kandidatenbild. Echte störende Whiteline-/Darkline-Fehler erstrecken sich normalerweise über einen größeren Bereich des erfassten Kamerabildes. Um zu verhindern, dass auch nur ganz kleine, kurze Aussetzer der einzelnen Druckdüse zu einer Detektion eines Druckfehlers führen, obwohl diese eventuell gar nicht störend sind oder es sich gar um Pseudo-Whiteline-/Darkline-Fehler handelt, was bei sehr kurzen Whiteline-Fehlern sehr wahrscheinlich ist, werden nur solche Druckspalten im Kandidatenbild gekennzeichnet, in denen der ermittelte Druckfehler einen bestimmten Grenzwert überschreitet.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass das Kandidatenbild der einzelnen Farbauszüge vom Rechner mittels einer mathematischen ODER-Operation verknüpft. Diese Art der Zusammensetzung der einzelnen Farbauszüge zum Kandidatenbild hat sich rechentechnisch als am Besten geeignet erwiesen.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass die Filterung des Kandidatenbildes vom Rechner mittels morphologischer Operationen durchgeführt wird. Dies erlaubt insbesondere das Ausfiltern sehr kurzer Druckfehler bzw. White lines, die meist ohnehin Pseudo-Whitelines sind oder die Druckqualität des erzeugten Druckproduktes bzw. Druckbogens nicht so stark beeinflussen, dass hier eine Makulatur-Entscheidung getroffen werden muss.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Detektionsalgorithmus vom Rechner mehrfach auf das erzeugte Kamerabild angewendet wird, wobei das Verfahren jeweils anders parametriert wird, um unterschiedlich ausgeprägte Darkline- oder Whiteline-Fehler zu detektieren und die Ergebnisse aller Farbauszüge aller Anwendungen des Verfahrens logisch miteinander verknüpft werden. Zusätzlich zur mehrfachen Anwendung des Detektionsalgorithmus auf mehrere Referenzbilder, was ein optionaler Verfahrensschritt des erfindungsgemäßen Verfahrens ist, kann der Detektionsalgorithmus auch mehrfach auf das erzeugte Kamerabild angewendet werden. Dies erhöht insbesondere die Genauigkeit des Detektionsalgorithmus beim Ausfiltern von Pseudo-Whiteline- oder Darkline-Fehlern, ist aber auch positiv für die Treffergenauigkeit beim Finden echter Whiteline- oder Darkline-Fehler.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass für jeweils eine der unterschiedlich parametrierten Anwendungen des Verfahrens, das Kamerabild in jedem Pixel vorher auf einen maximalen Grauwert begrenzt wird. Dies hat den Vorteil, dass helle Ausreißer in Papierweiß-Bereichen, die den Mittelwert verfälschen könnten, ausgefiltert werden.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass die Erzeugung des Kandidatenbildes eines Farbkanales durch Aufteilung des Bildes in horizontale Streifen erfolgt, wobei jeder Streifen durch eine geeignete Mittelung jeder seiner Spalte auf ein Zeilensignal reduziert wird, in dem dann Whitelines oder Darklines durch ein spezielles Suchverfahren gesucht werden und jede so ausgewertete Zeile eine Zeile des Whiteline-Kandidatenbildes ergibt. Dies ist eine wichtiges Merkmal des erfindungsgemäßen Verfahrens, da die White-/Darkline-Detektion mittels des Detektionsalgorithmus in diesen Streifen effizienter ist, als wenn der Algorithmus mit dem Gesamtbild arbeiten müsste.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass der Rechner mittels des White- bzw. Darkline-Suchverfahrens eine Dark- oder
  • Whiteline an einer Position durch Bewertung einer eingeschränkten Nachbarschaft um den betrachteten Pixel im Zeilensignal, erkennt. Die Einordnung, ob ein gefundener Fehler wirklich ein echter Whiteline- oder Darkline-Fehler geschieht mittels der Bewertung der unmittelbar benachbarten Pixel. Erst dadurch kann ein Pseudo-Whiteline- oder Darkline-Fehler ausgeschlossen werden.
  • Eine weitere bevorzugte Weiterbildung ist des erfindungsgemäßen Verfahrens ist dabei, dass das Suchverfahren zunächst das Zeilensignal mit verschiedenen Filterkernen faltet und die Ergebnisse durch Vergleich mit jeweils möglicherweise unterschiedlichen Grenzwerten in logische Signale umwandelt, die dann mit Hilfe einer logischen Verknüpfung in ein White- oder Darkline-Kandidaten-Zeilensignal umgewandelt wird.
  • Die Erfindung als solche sowie konstruktiv und/oder funktionell vorteilhafte Weiterbildungen der Erfindung werden nachfolgend unter Bezug auf die zugehörigen Zeichnungen anhand wenigstens eines bevorzugten Ausführungsbeispiels näher beschrieben. In den Zeichnungen sind einander entsprechende Elemente mit jeweils denselben Bezugszeichen versehen.
  • Die Zeichnungen zeigen:
  • Figur 1:
    ein Beispiel des Aufbaus einer Bogen-Inkjet-Druckmaschine
    Figur 2:
    ein Beispiel eines zur Druckinspektion verwendeten Bilderfassungssystems
    Figur 3:
    ein Beispiel eines erfassten Kamerabildes
    Figur 4:
    ein Streifen des erfassten Kamerabildes
    Figur 5:
    ein Streifen des erfassten Kamerabildes mit markierten Whitelines
    Figur 6:
    ein vergrößerter Ausschnitt mit markierten Whitelines aus dem Streifen des erfassten Kamerabildes
    Figur 7
    aus Bildstreifen zusammengesetztes Bild mit markierten Whiteline-Kandidaten
    Figur 8:
    markierte Whiteline-Bereiche in einem Kamerabild
    Figur 9:
    Störung des Spaltenmittelwerts durch helle Papierweiß-Bereiche oder einzelne helle Pixel
    Figur 10:
    der schematische Ablauf des erfindungsgemäßen Verfahrens
  • Das Anwendungsgebiet der bevorzugten Ausführungsvariante ist eine Inkjet-Druckmaschine 7. Ein Beispiel für den grundlegenden Aufbau einer solchen Maschine 7, bestehend aus Anleger 1 für die Zufuhr des Drucksubstrats 2, üblicherweise eines Druckbogens 2, in das Druckwerk 4, wo es von den Druckköpfen 5 bedruckt wird, bis hin zum Ausleger 3, ist in Figur 1 dargestellt. Dabei handelt es sich hier um eine Bogen-Inkjetdruckmaschine 7, welche von einem Steuerungsrechner 6 kontrolliert wird. Beim Betrieb dieser Druckmaschine 7 kann es, wie bereits beschrieben, zu Ausfällen einzelner Druckdüsen in den Druckköpfen 5 im Druckwerk 4 kommen. Folge sind dann White-/Darklines, bzw. im Falle eines mehrfarbigen Drucks, verzerrte Farbwerte. Ein Beispiel einer solchen White-/Darkline 9 in einem erfassten Kamerabild 8 ist in Figur 3 dargestellt.
  • Im Gegensatz zu aus dem Stand der Technik bekannten Verfahren gestaltet sich im erfindungsgemäßen Verfahren die Einbettung der Detektionsmethode für die White-/Darklines 14 in den Gesamtablauf des Druckprozesses anders und erfordert auch keine Interaktion des Druckers 8 mehr. Der Gesamtablauf des Verfahrens in einer ersten, bevorzugten Ausführungsvariante ist schematisch in Figur 10 dargestellt:
    1. 1. Nach dem Druck wird der bedruckte Bogen mit Hilfe eines Kamerasystems 10, welches Teil eines Inline- Bilderfassungssystems 12 sein kann, digitalisiert. Figur 2 zeigt ein Beispiel für ein solches Bilderfassungssystem 12, welches das erfindungsgemäße Verfahren einsetzt. Es besteht aus mindestens einem Bildsensor 10, üblicherweise einer Kamera 10, welche in die Inkjet-Druckmaschine 7 integriert ist. Die mindestens eine Kamera 10 nimmt die von der Druckmaschine 7 erzeugten Druckbilder 13 auf und sendet die Daten an einen Rechner 6, 9 zur Auswertung. Dieser Rechner 6, 9 kann ein eigener separater Rechner 9 sein, z.B. ein oder mehrere spezialisierte Bildverarbeitungsrechner 9, oder auch mit dem Steuerungsrechner 6 der Druckmaschine 7 identisch sein. Mindestens der Steuerungsrechner 7 der Druckmaschine 7 besitzt ein Display 11, auf welchem die Ergebnisse der Bildinspektion dem Anwender 8 angezeigt werden. Bevorzugt wird für das im Folgenden beschriebene Verfahren der Bildverarbeitungsrechner 9 eingesetzt, auf welchem dann der Bildverarbeitungsalgorithmus läuft, welcher das erfindungsgemäße Verfahren ausführt. Das so erzeugte Kamerabild 13 hat dabei eine geringere Auflösung als der Druck. Üblich ist eine Kameraauflösung von 670dpi bei einer Druckauflösung von 1200dpi. Die Auflösung und Optik muss so gewählt sein, dass White-/Darklines 14 als 1-2 Kamerapixel breite, vertikale, aufgehellte Streifen erscheinen. Ist die Auflösung zu hoch, so kann das Bild 13 zunächst mit bekannten Verfahren der Bildverarbeitung auf passende Auflösung reduziert werden, insbesondere pyramidale Bildrepräsentationen können sich hier als nützlich erweisen.
    2. 2. Das Kamerabild 13 wird einem im Weiteren näher beschriebenen White-/Darkline-Detektionsalgorithmus zugeführt. Zusätzlich kann es parallel noch weiteren Auswertungen zugeführt werden.
    3. 3. Werden White-/Darklines 13 vom Detektionsalgorithmus erkannt, so werden diese vom Bildverarbeitungsrechner 9 an den Steuerungsrechner 6 der Druckmaschine 7 gemeldet, welche dann, zusammen mit anderen Daten der Druckmaschine 7, eine Makulaturentscheidung trifft und den bedruckten Bogen 2 eventuell über eine Makulaturschleuse ausschleust.
    4. 4. Optional können die gefundenen White-/Darklines 14 einer genaueren Auswertung unterzogen werden, um die defekte Düse zu identifizieren und diese Information zur Kompensation der defekten Düse zu nutzen.
  • Aus diesem Ablauf wird deutlich, dass eine schritthaltende Verarbeitung der Kamerabilder 13 für die Funktion des Gesamtsystems 12 essenziell ist.
  • Der bereits erwähnte Algorithmus zur White-/Darkline-Detektion wird hier nun im Gegensatz zum Stand der Technik nur auf das Kamerabild 13 angewendet. Figur 3 zeigt ein Beispiel eines Druckbogens 2 mit erfassten Kamerabildern 13, wobei eines einen White-/Darkline-Fehler 14 aufweist. Optional kann in einer weiteren Ausführungsvariante aber auch eine zusätzliche, nachgelagerte Filterung mit Hilfe eines Referenzbildes erfolgen. Dies wird im weiteren Verlauf der Beschreibung noch näher erläutert.
  • Die Grundlage des hier vorgestellten Detektionsalgorithmus bildet die Unterteilung des erfassten Kamerabildes 13 in horizontale Streifen 15, 15a, 15b. Der Algorithmus umfasst dabei folgende Schritte:
    1. 1. Separiere die RGB-Farbauszüge und für jeden Farbauszug C separat:
      • 1.1. Teile das Kamerabild 13 in ca. 1-10mm hohe Streifen 15, sh. Figur 4
      • 1.2. Jeder Streifen 15 wird in Laufrichtung des Bogens 2, also in y-Richtung, gemittelt. Es ergibt sich ein Signal Is(x) für den s-ten Streifen 15
      • 1.3. In jedem Streifen 15 werden White-/Darklines 14 separat detektiert, indem für jede x-Position ein Wahrheitswert berechnet wird:
        • 1.3.1. Als optionaler Schritt werden Pixel mit Grauwerten IC,s(x) > Gmax nicht berücksichtigt, da White-/Darklines 14 in hellen Bildbereichen nicht sichtbar werden.
        • 1.3.2. WLC(x,s) = (IC,s (x)- IC,s(x-1) > L) and ((IC,s(x)- IC,s(x+1)>L) or (IC,s(x) - IC,s (x+2) > L)) or (IC,s(x) - IC,s(x-2) > L) and ((IC,s(x) - IC,s(x+1) > L)) Dieser Ausdruck prüft, ob eine 1 oder 2 Pixel breite White-/Darkline 14 mit einer Aufhellung um mehr als L Graustufen besteht und schließt Kanten im Bild auf effektive Weise aus. Figur 5 und 6 zeigen jeweils einen Bildstreifen 15 mit erkannten White-/Darklines 14, welche mit einer entsprechenden Markierung 16 sind. Figur 6 zeigt dabei einen vergrößerten Ausschnitt 17 aus dem Streifen 15 mit Markierung 16 und White-/Darkline 14.
      • 1.4. So ergibt sich ein schwarz-weiß-Bild WLCC (x,y), in dem alle White-/Darkline-Kandidaten 14 vermerkt sind.
    2. 2. Die Bilder WLCC(x,y) der einzelnen Farbauszüge werden ODER-Verknüpft und ergeben dann ein einziges Kandidatenbild WLC(x,y) 21, welches beispielhaft in Figur 7 dargestellt wird. Es zeigt ein aus Bildstreifen 15 zusammengesetztes Bild 21 mit markierten White-/Darkline-Kandidaten 14.
    3. 3. Das Bild WLC(x,y) 21 kann nun noch mit morphologischen Operationen gefiltert werden. So erlaubt ein Erodieren mit einem Strukturelement SE der Form:
      • 0 1 0
      • 0 1 0
      • sehr kurze White-/Darklines 14 auszufiltern. Die Höhe von SE kann variabel eingestellt werden und erlaubt es so eine Mindestlänge der zu detektierenden White-/Darklines 14 voreinzustellen.
    4. 4. Die gleiche Auswertung, wie in den Schritten 1-3 beschrieben kann in einem weiteren Ausführungsbeispiel parallel auf ein eventuell vorhandenes Referenzbild, welches als RGB-Bild, direkt vom RIP erzeugt wird, angewendet werden. Die sich daraus ergebenden White-/Darkline-Kandidaten WLCREF(x,y) 14 markieren Bereiche des Druckbildes, in denen falsch-positive White-/Darkline-Detektionen durch das Kundenmotiv wahrscheinlich sind. Diese Bereiche sollten aus WLC(x,y) 21 aus dem Kamerabild 13 entfernt werden. Dazu werden zunächst die Bereiche in WLCREF(x,y) mit Hilfe einer morphologischen Dilatation ausgeweitet. Dies entspricht einer Glättung von WLCREF(x,y). Danach wird WLC(x,y) 21 durch WLCREF(x,y) gefiltert:
      WLC(x,y) ← WLC(x,y) and (not WLCREF(x,y))
    5. 5. Abschließend werden alle Spalten CWL in WLC(x,y) 21 detektiert, die eine White-/Darkline 14 enthalten. Dies kann über einen Grenzwert minWLPerColumn an die Spaltensumme erfolgen und zwar als Kodierung: keine White-/Darkline = 0, White-/Darkline = 1 in WLC(x,y) 21, d.h. zählen der als White-/Darkline 14 markierten Einträge in WLC(x,y) 21: CWL = x | y WLC x y > minWLPerColumn
      Figure imgb0001
  • Das erfindungsgemäße Verfahren kann zudem in weiteren bevorzugten Ausführungsformen angepasst werden:
    • So können die nachgelagerten Filter variiert werden.
    • Die Anzahl der der White-/Darkline-Kandidaten 14 muss eine Mindestanzahl pro Spalte erreichen um als White-/Darkline 14 gemeldet zu werden
    • Für den Helligkeitswert der Pixel wird ein Maximalwert definiert, damit sehr helle Pixel nicht den Mittelwert verfälschen. Denn eine White-/Darkline 14 hat keine sehr hellen Pixel in einem 670 dpi Kamerabild 13. D.h. alle Grauwerte im Bild > 50 werden auf 50 begrenzt;
    • Es wird geprüft, ob an den relevanten Stellen im Referenzbild starke Strukturen vorhanden sind, die schon im Referenzbild zu einer White-/Darkline-ähnlichen Struktur führen und deshalb im Kamerabild 13 ausgeblendet werden müssen. Dafür muss das Referenzbild nicht in der vollen Auflösung vorliegen, da nur eine grobe Abschätzung benötigt wird ob der Teilbereich des Referenzbildes strukturiert oder homogen ist; sh. Schritt 4.
    • Das oben beschriebene Verfahren kann zur schritthaltenden Anwendung auf einer Grafikkarte (GPU) als Rechenbeschleuniger implementiert werden.
    • Der beschriebene Detektionsalgorithmus kann als Teilkomponente des Bilderfassungssystems 12, welches die Bildinspektion durchführt, implementiert werden. Aus dem WLC(x,y)-Bild 21 können dann noch Daten für einen Report an den Bediener 8, bzw. Kunden abgeleitet werden, indem zusammenhängende Flächen (Blobs) im Bild 13 erkannt werden und in einem Übersichtsbild für den Bediener/-in 8 einer späteren Auswertung markiert werden. Figur 8 zeigt ein Beispiel für ein Kamerabild 13 mit markierten White-/Darkline-Bereichen 20 als Teil eines solchen Reports.
  • Allerdings wird bei diesen weiteren bevorzugten Ausführungsformen meist ein Referenzbild benötigt, was neben den bereits erwähnten Nachteilen die Bearbeitungsgeschwindigkeit beeinträchtigt. Der Einsatz eines Referenzbildes kann allerdings durch Vermeiden von falsch-positiv detektierten White-/Darklines 14 die Güte des Verfahrens weiter verbessern.
  • Das erfindungsgemäße Verfahren damit viele Vorteile gegenüber dem Stand der Technik auf. So gehen bei großen Farbabweichungen zwischen Sollbild und Kamerabild 13, z.B. bei einem falsch kalibrierten Workflow hinsichtlich Kameras 10, Weißabgleich, Papiersorte, kurze White-/Darklines 14 oft im Bild-/Signalrauschen unter. Mit dem erfindungsgemäßen Verfahren wird dieser Nachteil behoben. Auch muss bei aus dem Stand der Technik bekannten Verfahren das Referenzbild in der vollen Auflösung in den Rechner 9 transportiert werden, z.B. mit 670 dpi. Das ist mit derzeitig vorhandenen technischen Mitteln nur unter Aufwendung hoher Kosten möglich. Da der hier vorgestellte Algorithmus ohne Referenzbild bzw. zumindest ohne hochaufgelöstes Referenzbild auskommt kann man diese Kosten einsparen. Schließlich ist für die Detektion grundlegend kein Referenzbild nötig, auch wenn es zur Vermeidung von falsch-positiven White-/Darkline-Detektionen durch im Kunden-Motiv enthaltene Strukturen eingesetzt werden kann. Es muss insbesondere zur Detektion von White-/Darkline-Kandidaten 14 kein direkter Vergleich von Referenz- und Kamerabild 13 mehr erfolgen.
  • Für das erfindungsgemäße Verfahren existiert zudem ein weiteres, besonders bevorzugtes Ausführungsbeispiel, welches das Verfahren noch weiter verbessert. Es wird hierfür folgender, auf der vorherigen Ausführungsvariante basierender zweistufiger Algorithmus vorgeschlagen:
    In Stufe eins wird gezielt nach White-/Darkline-Kandidaten 14 gesucht:
    Hierfür wird der in den vorherigen Ausführungsbeispielen vorgestellte Algorithmus mehrfach, mit unterschiedlichen Parametern, aufgerufen. Die Ergebnisse der Durchläufe des Algorithmus werden dann logisch verknüpft. Außerdem wird der Algorithmus in seinen Abläufen weiter verbessert. Dies geschieht wie folgt:
    Der Algorithmus wird mehrfach auf das Kamerabild 13 des Bogens 2 angewendet. Bei den unterschiedlichen Anwendungen werden die Parameter wie folgt angepasst:
    1. 1. Das Kamerabild 13 wird in seinen Grauwerten/Farbkanalwerten komprimiert. Die Kompression wird so ausgeführt, dass Helligkeitswerte oberhalb einer Schwelle Smax auf den Schwellwert Smax begrenzt werden. Dies unterdrückt effektiv alle Strukturen im Bild 13, die heller als Smax sind. Damit werden in diesem Schritt White-/Darklines 14 in dunklen Flächen in homogenen und inhomogenen Bereichen sehr gut gefunden. Die Kompression wird vor dem ersten Schritt des vorherigen Ausführungsbeispiels ausgeführt.
    2. 2. Auch hier wird das Kamerabild 13 in seinen Grauwerten, bzw. Farbkanalwerten auf komprimiert. Die Kompression wird hier jedoch so ausgeführt, dass Helligkeitswerte oberhalb einer Schwelle Kmax (Kmax > Smax) auf den Schwellwert Kmax begrenzt werden. Die Kompression wird vor dem dritten Schritt des vorherigen Ausführungsbeispiels ausgeführt. Zusätzlich wird die lokale Homogenität des Bildes 13 berechnet, indem bei der Mittelung im zweiten Schritt des vorherigen Ausführungsbeispiels zum Mittelwert noch die Standardabweichung des Spaltensegments berechnet wird. Nur White-/Darklines 14 in relativ homogenen Flächen, d.h. bei einer Standardabweichung < σmax, werden in die Kandidatenliste aufgenommen. Diese Filterung kann im dritten Schritt des vorherigen Ausführungsbeispiels erfolgen. In diesem Ansatz werden White-/Darklines 14 in hellen, homogenen Flächen sehr gut gefunden. White-/Darklines 14 in hellen inhomogenen Bereichen sind für das menschliche Auge ohnehin nur schwer zu sehen und werden deshalb nicht berücksichtigt.
  • Beide Ergebnisse werden mit einem logisch ODER verknüpft und zu einer White-/Darkline-Kandidatenliste zusammengefasst. Auch komplexere Verknüpfungen mit weiteren Informationen sind optional denkbar.
  • Im zweiten Schritt des vorherigen Ausführungsbeispiels können zudem verschiedene Mittelungsverfahren, neben einem einfacher Mittelwertbildung, auf ein erzeugtes Bildsignal angewendet werden, die vorteilhafte Eigenschaften aufweisen. Dies sind z.B.:
    • Median statt Mittelwert; Vorteil ist hier, dass das Verfahren sehr robust auf Ausreißer reagiert
    • Mittelwert nur über Pixel, die einen maximalen Helligkeitswert Gmax,mean nicht überschreiten. Vorteil ist hier das Ausfiltern von hellen Ausreißern oder Papierweiß-Bereichen, die den Mittelwert verfälschen können. Dies ist beispielhaft in Figur 9 dargestellt. Gut ist hier die Störung des Spaltenmittelwerts im oberen und unteren Teil von Figur 9 durch helle Papierweiß-Bereich oder einzelne helle Pixel zu erkennen. Ein Problem stellt hier allerdings das Auftreten von Pseudo-White-/Darklines 14b, sowie ein mangelnder Kontrast des erfassten Druckbildes 13 dar. Im mittleren Teil ist dabei das von der Kamera 10 erfasste Druckbild 13 mit einem White-/Darkline-Fehler 14 abgebildet. Aus diesem Druckbild 13 wird jeweils ein Streifen mit Text 15a und ein Streifen am Bildrand 15b ausgeschnitten, aus denen dann jeweils Bildsignale 18, 19 erzeugt werden. Im Bildsignal 18 des Streifens mit Text 15a erkennt man gut die genannte Auswirkung des White-/Darkline-Fehlers 14 im Signal in Form eines entsprechenden Peaks 14a im Signal 18. Zudem ist ein Peak eines Pseudo-White-/Darkline-Fehler 14b dargestellt, der sich aus der Textdarstellung ergibt. Gut zu erkennen ist, dass eine Unterscheidung im Bildsignal 18 zwischen echtem Peak eines White-/Darkline-Fehlers 14a und dem Peak 14b eines Pseudo-White-/Darkline-Fehlers 14b schwer zu unterscheiden ist, da die Mindestdetektionshöhe 19 von beiden Peaks 14a, 14b überschritten wird. Im unteren Teil sind zwei Bildsignale 18a, 18b für den Fall des erzeugten Signals für den Bildrand dargestellt. Hier wird die Mindestdetektionshöhe 19 nur im Signal mit verbessertem Kontrast 18a überschritten und die White-/Darkline 14 sicher erkannt. Im zweiten Signal mit niedrigen Kontrast 18b wird die Mindestdetektionshöhe 19 nicht überschritten und die White-/Darkline 14 entsprechend nicht erkannt.
  • Im dritten Schritt des vorherigen Ausführungsbeispiels werden White-/Darklines 14 über eine Schwelle L detektiert. Für diese Schwelle werden in diesem weiteren Ausführungsbeispiel zudem zwei weitere Verbesserungen gefunden:
    1. 1. Es werden zwei Schwellen verwendet, je nachdem ob eine 1-Pixel-breite, oder eine 2-Pixel-breite White-/Darkline 14 detektiert werden soll. Je nach Kamerauflösung kann es zudem auch sinnvoll sein, auch 3-, 4-, ... N-Pixel breite White-/Darklines 14 zu finden. Es müssen dann entsprechend mehr Schwellen angewendet werden. Der Detektions-Ausdruck aus dem dritten Schritt lautet dann mit den zwei Schwellen L1 und L2: WLC x s = I C , s x I C , s x 1 > L 1 and I C , s x I C , s x + 1 > L 1 or I C , s x I C , s x 1 > L 2 and I C , s x I C , s x + 2 > L 2 or I C , s x I C , s x 2 > L 2 and I C , s x I C , s x + 1 > L 2
      Figure imgb0002
    2. 2. Die Schwelle kann von der lokalen Umgebung jedes Pixel x abhängig gemacht werden, sodass für White-/Darklines 14 in hellen Bildbereichen höhere Schwellen angewendet werden, als in Bildbereichen mit niedriger Helligkeit. Als Maß für die lokale Helligkeit können die Grauwerte in einer engen Umgebung um die Position x unter Ausschluss einer evtl. vorhandenen White-/Darkline 14 gemittelt werden. Alternativ kann ein gleitender Medianfilter auf IC,s(x) angewendet werden.
  • Als weitere vorteilhafte Verbesserung des vorherigen Ausführungsbeispiels kann der Algorithmus nicht auf ein RGB-Bild 13 angewendet werden, sondern das RGB-Bild 13 wird vorher mit einem geeigneten Verfahren in ein Graustufenbild umgerechnet, welches für White-/Darklines 14 einen möglichst guten Kontrast aufweist. Geeignete Transformations-Operationen hierfür sind:
    • Berechnung des Luminanz-Kanals aus dem Lab-Farbraum
    • Berechnung des Helligkeitswertes oder Sättigungswertes aus dem HSB-Farbraum
    • Mittelung der geeignet gewichteten RGB-Farbkanäle, auf das menschliche Auge angepasst
  • In Stufe 2 werden nun Pseudo-White-/Darklines 14b durch Anwendung eines oder mehrerer Filter aus den in Stufe eins ermittelten White-/Darkline-Kandidaten 14 herausgefiltert. Hierfür gibt es folgende Verbesserungen gegenüber dem vorherigen Ausführungsbeispiel:
    Durch Anwendung eines Spaltenfilters auf die White-/Darkline-Kandidatenliste werden alle White-/Darkline-Kandidaten 14, die nicht mindestens die Anzahl Ncol,min weitere White-/Darkline-Kandidaten 14 in ein und derselben Bildspalte haben aus der White-/Darkline-Kandidatenliste entfernt. Die Idee hinter diesem Filter ist es, sehr kurze oder vereinzelt auftretende Fehldetektionen auszuschließen. Denn eine White-/Darkline 14 wird sich in den meisten realistischen Druckmotiven auf mehrere Bereiche einer Spalte auswirken, während Fehldetektionen nur lokal verstreut auftreten.
  • Der im vorherigen Ausführungsbeispiel in Schritt vier beschriebene Filter mit Hilfe des Referenzbildes wird auch hier mit allen oben beschrieben Modifikationen ausgeführt. Dabei wird als Verbesserung das Referenzbild vorher in seiner Größe angepasst. Ebenso kann es sinnvoll sein das Referenzbild in unterschiedlichen Auflösungen mehrfach zu verarbeiten und die Ergebnisse dieser Stufen vor der Ausfilterung zusammenzufassen. Dies simuliert den Qualitätsverlust auf dem "perfekten" Referenzbild durch das Kamerasystem 10 und erlaubt es so effektiv verschiedene Strukturen zu detektieren die zu White-/Darkline-artigen Strukturen im Kamerabild 13 führen können.
  • Das weitere, besonders bevorzugte Ausführungsbeispiel hat gegenüber dem vorherigen Ausführungsbeispiel besonders den zusätzlichen Vorteil, dass es eine höhere Erkennungsleistung von White-/Darklines 14 bei gleichzeitig geringerer Anzahl von Pseudo-White-/Darklines 14b aufweist. Hierfür ist jedoch eine Referenzbild-Auswertung notwendig ist, deren zusätzliche Verarbeitungsschritte zu längeren Rechenzeiten des verwendeten Rechners 6, 9 führen können. Die Entscheidung welches bevorzugte Ausführungsbeispiel verwendet wird, sollte also auf Basis der Anforderungen des spezifischen Anwendungsfalles geschehen. Druckaufträge bei denen die White-/Darkline-Detektion zeit- bzw. performancekritisch ist, sollten eher das erste vorgestellte Ausführungsbeispiel verwenden, während Druckaufträge bei deren Druckbildern es besonders auf eine gründliche Detektion von White-/Darklines 14 ankommt und/oder bei denen eine erhöhte Gefahr des Auftretens von Pseudo-White-/Darklines 14b existiert, eher auf das zweite vorgestellte Ausführungsbeispiel zurückgreifen sollten.
  • Bezugszeichenliste
  • 1
    Anleger
    2
    Drucksubstrat
    3
    Ausleger
    4
    Inkjet-Druckwerk
    5
    Inkjet-Druckkopf
    6
    Steuerungsrechner der Inkjet-Druckmaschine
    7
    Inkjet-Druckmaschine
    8
    Anwender
    9
    Bildverarbeitungsrechner
    10
    Bildsensor / Kamera
    11
    Display
    12
    Bilderfassungssystem
    13
    erfasstes Druckbild
    14
    Whiteline-/Darkline-Druckfehler
    14a
    Peak einer Whiteline-/Darkline in erzeugtem Bildsignal
    14b
    Peak einer Pseudo-Whiteline-/Darkline in erzeugtem Bildsignal
    15
    Streifen des erfassten Druckbildes
    15a
    Streifen eines erfassten Druckbildes mit Textinhalt
    15b
    Streifen eines erfassten Druckbildes am Bildrand
    16
    erkannte und markierte White-/Darklines
    17
    vergrößerter Ausschnitt aus dem Streifen des erfassten Druckbildes
    18
    erzeugtes Bildsignal aus dem Streifen des erfassten Druckbildes mit Textinhalt
    18a
    erzeugtes Bildsignal aus dem Streifen des erfassten Druckbildes am Bildrand
    18b
    erzeugtes Bildsignal aus dem Streifen des erfassten Druckbildes am Bildrand
    19
    Mindestdetektionshöhe einer White-/Darkline im erzeugten Bildsignal
    20
    markierte White-/Darkline-Bereiche#
    21
    aus Streifen zusammengesetztes Kandidatenbild

Claims (15)

  1. Verfahren zur Bestimmung von Druckfehlern in einem Druckprozess, durchgeführt in einer Inkjet-Druckmaschine (7) zur Bearbeitung eines Druckauftrages, durch einen Rechner (9), wobei während des Druckprozesses erzeugte Druckprodukte (2) mit Hilfe eines Kamerasystems (10) erfasst und digitalisiert werden, das so erzeugte Kamerabild (13) einem Detektionsalgorithmus auf dem Rechner (9) zugeführt wird, bei erkannten Druckfehlern (14) eine Meldung an eine Maschinensteuerung (6) gesendet wird, welche dann gegebenenfalls das Druckprodukt (2) über eine Makulaturweiche ausschleust,
    dadurch gekennzeichnet,
    dass der Detektionsalgorithmus Farbauszüge der Kamerabilder (13) separiert, in den Farbauszügen die Druckfehler (14) detektiert, Bilder der einzelnen Farbauszüge zu einem Kandidatenbild (21) verknüpft, das Kandidatenbild (21) filtert, wobei man das Kandidatenbild (21) filtert, um sicherzugehen, dass nur zur Makulatur führende Druckfehler (14) detektiert werden, und abschließend die verbleibenden detektierten Druckfehler (14) in eine Liste einträgt und diese an die Maschinensteuerung (6) der Druckmaschine (7) sendet.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet,
    dass es sich bei den Druckfehlern (14) um Whiteline- oder Darkline-Fehler (14) verursacht von defekten Druckdüsen der Inkjet-Druckmaschine (7) handelt.
  3. Verfahren nach Anspruch 2,
    dadurch gekennzeichnet,
    dass der Rechner (9) in einem weiteren Verfahrensschritt, vor dem Senden an die Maschinensteuerung (6) Druckmaschine (7), aus der Liste von Whiteline- oder Darkline-Fehlern (14) durch Anwendung eines spezifischen Testverfahrens Pseudo-Whiteline- oder Darkline-Fehler (14b) herausfiltert.
  4. Verfahren nach einem der Ansprüche 2 bis 3,
    dadurch gekennzeichnet,
    dass der Rechner (9) aus der Liste der verbleibenden detektierten Whiteline- oder Darkline-Fehler (14), die ursächlichen defekten Druckdüsen ermittelt und davon abhängig über jeweils geeignete Kompensationsverfahren die Whiteline- oder Darkline-Fehler (14) kompensiert.
  5. Verfahren nach Anspruch 4,
    dadurch gekennzeichnet,
    dass der Rechner (9) für das spezifische Testverfahren aus Vorstufendaten des Druckauftrages ein Referenzbild erstellt, auf dieses Referenzbild den Detektionsalgorithmus anwendet und so daraus entweder Erkenntnisse über erhaltene Kandidaten für Pseudo-White-Line- oder Dark-Line-Fehler (14b) gewinnt und diese aus der Liste von White-Line- oder Dark-Line-Fehler (14) entfernt oder daraus Erkenntnisse über Bereiche im Kamerabild (13) mit wahrscheinlichen Pseudo-White-Line- oder Dark-Line-Fehlern (14b) gewinnt und somit den Detektionsalgorithmus auf diese Bereiche im Kamerabild nicht anwendet.
  6. Verfahren nach Anspruch 5,
    dadurch gekennzeichnet,
    dass der Rechner (9) das Referenzbild in mehreren Größen und/oder Auflösungen erstellt, den Detektionsalgorithmus entsprechend mehrfach auf die verschiedenen Referenzbilder anwendet und die daraus gewonnenen Erkenntnisse zusammenfasst und anwendet.
  7. Verfahren nach Anspruch 6,
    dadurch gekennzeichnet,
    dass der Algorithmus auf solche Bereiche nicht angewendet wird, oder Ergebnisse aus solchen Bereichen ausgeschlossen werden, die sich durch eine hohe Variation der Grauwerte in einer begrenzten, lokalen Umgebung im Referenzbild auszeichnen.
  8. Verfahren nach einem der vorherigen Ansprüche,
    dadurch gekennzeichnet,
    dass das Erstellen der Liste von Whiteline-oder Darkline-Fehlern (14) durch den Rechner (9) über Spaltensummen im gefilterten Kandidatenbild (21) erfolgt, mittels Anwendung eines Grenzwertes an die jeweils ermittelte Spaltensumme im Kandidatenbild (21).
  9. Verfahren nach einem der vorherigen Ansprüche,
    dadurch gekennzeichnet,
    dass das Kandidatenbild (21) der einzelnen Farbauszüge vom Rechner (9) mittels einer mathematischen ODER-Operation verknüpft.
  10. Verfahren nach einem der vorherigen Ansprüche,
    dadurch gekennzeichnet,
    dass die Filterung des Kandidatenbildes (21) vom Rechner (9) mittels morphologischer Operationen durchgeführt wird.
  11. Verfahren nach einem der vorherigen Ansprüche,
    dadurch gekennzeichnet,
    dass der Detektionsalgorithmus vom Rechner (9) mehrfach auf das erzeugte Kamerabild (13) angewendet wird, wobei das Verfahren jeweils anders parametriert wird, um unterschiedlich ausgeprägte Darkline- oder Whiteline-Fehler (14) zu detektieren und die Ergebnisse aller Farbauszüge aller Anwendungen des Verfahrens logisch miteinander verknüpft werden.
  12. Verfahren nach Anspruch 11,
    dadurch gekennzeichnet,
    dass für jeweils eine der unterschiedlich parametrierten Anwendungen des Verfahrens das erzeugte Kamerabild (13) in jedem Pixel vorher auf einen maximalen Grauwert begrenzt wird.
  13. Verfahren nach einem der vorherigen Ansprüche,
    dadurch gekennzeichnet,
    dass die Erzeugung des Kandidatenbildes (21) eines Farbkanales durch Aufteilung des erzeugten Kamerabildes (13) in horizontale Streifen (15) erfolgt, wobei jeder Streifen (15) durch eine geeignete Mittelung jeder seiner Spalte auf ein Bildsignal (18) reduziert wird, in dem dann White-oder Darklines (14) durch ein spezielles Suchverfahren gesucht werden und jede so ausgewertete Zeile eine Zeile des Whiteline-Kandidatenbildes (21) ergibt.
  14. Verfahren nach Anspruch 13,
    dadurch gekennzeichnet,
    dass das White- oder Darkline-Suchverfahren eine Dark- oder Whiteline (14) an einer Position erkennt, durch Betrachtung einer eingeschränkten Nachbarschaft um den betrachteten Pixel im Bildsignal (18).
  15. Verfahren nach Anspruch 14,
    dadurch gekennzeichnet,
    dass das Suchverfahren zunächst das Bildsignal (18) mit verschiedenen Filterkernen faltet und die Ergebnisse durch Vergleich mit jeweils möglicherweise unterschiedlichen Grenzwerten in logische Signale umwandelt, die dann mit Hilfe einer logischen Verknüpfung in ein White- oder Darkline-Kandidaten-Bildsignal umgewandelt wird.
EP19151348.0A 2019-01-11 2019-01-11 Mn-detektion im druckbild Active EP3680106B1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19151348.0A EP3680106B1 (de) 2019-01-11 2019-01-11 Mn-detektion im druckbild
CN201911264871.3A CN111434494B (zh) 2019-01-11 2019-12-11 印刷图像中的缺失喷嘴探测
JP2020002847A JP7412185B2 (ja) 2019-01-11 2020-01-10 印刷画像におけるmn(ミッシングノズル)検出
US16/740,687 US11752775B2 (en) 2019-01-11 2020-01-13 Method for determining print defects in a printing operation carried out on an inkjet printing machine for processing a print job

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19151348.0A EP3680106B1 (de) 2019-01-11 2019-01-11 Mn-detektion im druckbild

Publications (2)

Publication Number Publication Date
EP3680106A1 EP3680106A1 (de) 2020-07-15
EP3680106B1 true EP3680106B1 (de) 2023-08-23

Family

ID=65019358

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19151348.0A Active EP3680106B1 (de) 2019-01-11 2019-01-11 Mn-detektion im druckbild

Country Status (4)

Country Link
US (1) US11752775B2 (de)
EP (1) EP3680106B1 (de)
JP (1) JP7412185B2 (de)
CN (1) CN111434494B (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022134809A (ja) * 2021-03-04 2022-09-15 株式会社リコー 画像検査装置及び画像形成装置
JP2023044832A (ja) * 2021-09-21 2023-04-03 株式会社Screenホールディングス 画像検査装置、それを備えた印刷装置、および画像検査方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DD274786A1 (de) 1988-08-11 1990-01-03 Adw Ddr Kybernetik Inf Verfahren und anordnung zur ueberwachung der druckqualitaet mehrfarbiger rasterdruckvorlagen einer offset-druckmaschine
IT1284432B1 (it) 1996-03-22 1998-05-21 De La Rue Giori Sa Procedimento di controllo automatico della qualita' di stampa di un'immagine policroma
DE602008006517D1 (de) * 2008-02-25 2011-06-09 Oce Tech Bv Verfahren zur Erkennung fehlgesteuerter Düsen bei einem Tintenstrahldrucker
DE102009034853A1 (de) * 2008-09-23 2010-03-25 Heidelberger Druckmaschinen Ag Verfahren und Vorrichtung zur Ausschleusung von Fehlbogen am Anleger einer Verarbeitungsmaschine
JP2010228226A (ja) 2009-03-26 2010-10-14 Seiko Epson Corp 吐出不良検出方法及び吐出不良検出装置
US8371674B2 (en) 2010-09-08 2013-02-12 Xerox Corporation Method and printing system for implementing jet detection
JP5436388B2 (ja) * 2010-10-05 2014-03-05 キヤノン株式会社 画像処理装置、画像処理方法および画像記録装置
US8531743B2 (en) 2010-10-18 2013-09-10 Xerox Corporation System and method for detecting missing inkjets in an inkjet printer using image data of printed documents without a priori knowledge of the documents
EP2626209B1 (de) * 2012-02-12 2018-04-11 Baumer Inspection GmbH Verfahren und Vorrichtung zur Erkennung von Fehlfunktionen von Düsen eines Tintenstrahldruckers
JP5956935B2 (ja) * 2013-01-18 2016-07-27 黒崎播磨株式会社 画像処理方法及び画像処理装置
DE102013104679A1 (de) * 2013-05-07 2014-11-13 Witrins S.R.O. Verfahren und Vorrichtung zur optischen Analyse eines PCBs
DE102016224307A1 (de) * 2015-12-15 2017-06-22 Heidelberger Druckmaschinen Ag Verfahren zur Überprüfung eines Bildinspektionssystems
JP6571575B2 (ja) 2016-03-28 2019-09-04 富士フイルム株式会社 スジ検出方法及び装置、印刷装置並びにプログラム
DE102017207304A1 (de) * 2016-05-25 2017-11-30 Heidelberger Druckmaschinen Ag Verfahren zur Erkennung von Druckdüsenfehlern in einer Inkjetdruckmaschine
JP6694362B2 (ja) 2016-09-30 2020-05-13 富士フイルム株式会社 画像検査方法及び装置、プログラム並びに画像記録システム
CN106780438B (zh) * 2016-11-11 2020-09-25 广东电网有限责任公司清远供电局 基于图像处理的绝缘子缺陷检测方法及***
DE102016224303A1 (de) * 2016-12-07 2018-06-07 Heidelberger Druckmaschinen Ag Verfahren und Testmuster zur Detektion und Kompensation ausgefallener Druckdüsen in einer Inkjet-Druckmaschine
DE102017220361B4 (de) 2016-12-14 2023-04-20 Heidelberger Druckmaschinen Ag Verfahren und Testmuster zur Detektion und Kompensation ausgefallener Druckdüsen in einer Inkjet-Druckmaschine
CN107507172A (zh) * 2017-08-08 2017-12-22 国网上海市电力公司 融合红外可见光的特高压线路绝缘子串深度学习识别方法

Also Published As

Publication number Publication date
EP3680106A1 (de) 2020-07-15
JP2020111049A (ja) 2020-07-27
US11752775B2 (en) 2023-09-12
CN111434494B (zh) 2021-12-17
JP7412185B2 (ja) 2024-01-12
CN111434494A (zh) 2020-07-21
US20200223230A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
DE102017220361B4 (de) Verfahren und Testmuster zur Detektion und Kompensation ausgefallener Druckdüsen in einer Inkjet-Druckmaschine
DE102015207566B3 (de) Verfahren zur Detektion ausgefallener Druckdüsen in Inkjet-Drucksystemen
EP1728380B1 (de) Verfahren zur frühzeitigen erkennung einer abweichung in von einer druckmaschine erzeugten druckbildern einer laufenden produktion
DE112015003903B4 (de) Gerät zum Prüfen von Druckerzeugnissen, Verfahren zum Prüfen von Druckerzeugnissen und Programm
EP3332968A1 (de) Verfahren und testmuster zur detektion und kompensation ausgefallener druckdüsen in einer inkjet-druckmaschine
DE102011084310A1 (de) System und Verfahren zum Erfassen schwacher und fehlender Tintenstrahlen in einem Tintenstrahldrucker unter Anwendung von Bilddaten gedruckter Dokumente ohne vorhergehende Kenntnis der Dokumente
DE102006056858B4 (de) Verfahren zum Überprüfen der Druckqualität
DE102019208149A1 (de) Nozzle Health mit neuronalem Netz
EP3680106B1 (de) Mn-detektion im druckbild
WO2005104034A1 (de) Verfahren zur beurteilung einer qualität einer von einer druckmaschine produzierten drucksache
DE102017216260A1 (de) Bildinspektion von Druckerzeugnissen mit Fehlerklassen
EP3878653A1 (de) Inspektion mit fehlerklassifizierung
AT501210B1 (de) Verfahren zur qualitätskontrolle an oberflächenvariablen drucksachen
EP1578609A1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern
DE102010049945A1 (de) Ermittlungsverfahren und -vorrichtung für Geometriefehler eines Bedruckstoffes
DE102019134451A1 (de) Verbessertes Druckdüsentestmuster
EP3871892B1 (de) Makulaturoptimierte detektion
DE102019208257A1 (de) Druckqualitätsanalyse mit neuronalen Netzen
DE102018220524A1 (de) Verfahren zur Detektion ausgefallener Druckdüsen in einer Inkjet-Druckmaschine
EP3628489B1 (de) Registermessung ohne registermarken
EP3423280A1 (de) Verfahren zur überprüfung einer druckform, insbesondere eines tiefdruckzylinders
EP3659813B1 (de) Variable druckkontrollstreifen
EP3435056B1 (de) Druckinspektionsvorrichtung zur optischen inspektion eines druckbildes eines druckobjekts
EP1673226B1 (de) Verfahren und vorrichtung zum prüfen von druckergebnissen
EP3882032B1 (de) Bogeninspektion mit globaler helligkeitsanpassung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210115

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20220926

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20230503

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230522

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502019009002

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG9D

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20230823

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231124

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231223

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231226

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231123

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231223

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20231124

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240131

Year of fee payment: 6

Ref country code: GB

Payment date: 20240124

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230823

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20240126

Year of fee payment: 6