DE19509884C2 - Verfahren zum Ausrichten von Zuschnittsegmenten - Google Patents

Verfahren zum Ausrichten von Zuschnittsegmenten

Info

Publication number
DE19509884C2
DE19509884C2 DE19509884A DE19509884A DE19509884C2 DE 19509884 C2 DE19509884 C2 DE 19509884C2 DE 19509884 A DE19509884 A DE 19509884A DE 19509884 A DE19509884 A DE 19509884A DE 19509884 C2 DE19509884 C2 DE 19509884C2
Authority
DE
Germany
Prior art keywords
pixel
signals
column
line
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19509884A
Other languages
English (en)
Other versions
DE19509884A1 (de
Inventor
Craig L Chaiken
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gerber Scientific Inc
Original Assignee
Gerber Garment Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gerber Garment Technology Inc filed Critical Gerber Garment Technology Inc
Publication of DE19509884A1 publication Critical patent/DE19509884A1/de
Application granted granted Critical
Publication of DE19509884C2 publication Critical patent/DE19509884C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D5/007Control means comprising cameras, vision or image processing systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D5/005Computer numerical control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26FPERFORATING; PUNCHING; CUTTING-OUT; STAMPING-OUT; SEVERING BY MEANS OTHER THAN CUTTING
    • B26F1/00Perforating; Punching; Cutting-out; Stamping-out; Apparatus therefor
    • B26F1/38Cutting-out; Stamping-out
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D2005/002Performing a pattern matching operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D7/00Details of apparatus for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D7/01Means for holding or positioning work
    • B26D7/018Holding the work by suction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36503Adapt program to real coordinates, software orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45196Textile, embroidery, stitching machine

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Forests & Forestry (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Control Of Cutting Processes (AREA)
  • Control Of Position Or Direction (AREA)

Description

Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des Patentanspruchs 1 und liegt auf dem Gebiet der Schnittmuster­ systeme für Kleidungsstücke, insbesondere Konfektionsschneid­ systeme mit rechnergestützter Musterausrichtung von Stoffde­ signs wie Streifen, Karos oder entworfene Muster, die einer Videokamera unterschiedliche Kontraste bieten.
Zum Stand der Technik wird zunächst auf US-A-3 495 492 und US-A-3 548 697 Bezug genommen.
Die rechnergestützte Schnittmustererzeugung sowie entspre­ chende Schneidsysteme sind bereits bekannt. Hierzu gehören die Modelle S-91, S-93 und S-95 der Firma Gerber Garment Technology (GGT). Allgemein verwenden diese bekannten Systeme ein mit einem Rechner generiertes Schnittmuster zur Optimie­ rung der Zuschnittdichte und damit verbundenen Minimierung des Abfalls an Stoff. Stoffe mit einem Karo- oder Streifenmu­ ster verursachen jedoch Schwierigkeiten, weil der Modedesi­ gner eine Ausrichtung des Musters in mehreren einander benachbarten Stücken spezifizieren kann. Die größte Dichte der Stoffsegmente oder -teile in dem Schnittmuster bei dessen Auflage auf den Stoff ist daher nicht unbedingt diejenige, die die richtige Musterausrichtung ermöglicht.
Bisher haben die rechnergestützten Schnittmustersysteme ein­ fach ziemlich große Toleranzen zwischen benachbarten Teilen generiert. Das zu schneidende Material wurde einer erfahrenen Arbeitskraft übergeben, die die verschiedenen Teile manuell auf das geometrische Stoffdesign ausrichtete und dann den Stoff zuschnitt. Dadurch entstanden bei Tuchen mit geometri­ schen Mustern wie Streifen oder Karos unvermeidbar höhere Stoffkosten durch höheren Abfall und die Anwendung langsamer Expertenarbeit beim Schneidprozeß.
Bei einem bekannten Zuschneidesystem für Stoffe mit Karo- oder Streifenmuster erfolgt eine rechnergestützte Musteran­ passung, die das manuelle oder automatische Anpassen eines Schnittmusters an das Stoffmuster sowie auch zwischen einer Folge von Stoffteilen ermöglicht. Dieses System arbeitet mit Datenreduziertechniken zum Verkürzen der Prozeßzeit und ent­ hält eine Einrichtung zum Optimieren der Bildstabilität, der Scharfeinstellung und der Beleuchtung.
Bei dem Gegenstand der DE 41 00 534 C1 wird ein vorbestimmter Bereich eines Schneidgutes mit einer Videokamera abgetastet, und dabei werden zwei optisch signifikante Punkte eines Mu­ sters erfaßt. Diese entsprechen in einer Steuerung gespei­ cherten Punkten. Das System bestimmt den Unterschied der tat­ sächlichen und der gewünschten Position der beiden Punkte durch vektorielle oder Koordinatenversatzwerte, wodurch die Position und die Orientierung der Punkte bestimmt werden kön­ nen. Es sind zwei optisch signifikante Punkte in dem erfaßten Muster erforderlich, so daß das System nicht auf vom Standard abweichende Muster angewendet werden kann.
Die DE 35 44 251 A1 beschreibt ein Verfahren zum Erfassen von Kreisflächen oder Rechteckflächen mit einer Videokamera und zum Bestimmen, ob die Mitten dieser Flächen zu der Codierung eines Standardmusters passen. Durch Berechnen des Abstandes zwischen den Kreisflächen oder Rechteckflächen wird das Mu­ ster als eines von mehreren Standardmustern identifiziert. Ein Winkel zwischen einer Referenzachse und einer Linie, die die Mitten verbindet, definiert die Position des Standardmu­ sters bezogen auf die Horizontale. Mit einem Schneidwerkzeug kann dann der dem Standardmuster entsprechende Teil abhängig von seiner Position und dem Winkel geschnitten werden. Auch dieses System kann nicht auf von einem Standard abweichende Muster angewendet werden, die keine definierten Kreisflächen oder Rechteckflächen haben.
Die DE 27 29 509 B2 beschreibt zum Generieren von Steuersi­ gnalen für eine Zuschneidemaschine eine Korrelationseinheit, die Autokorrelations- und Kreuzkorrelationsfunktionen von Sensorsignalen erzeugt, welche ein Karomuster wiedergeben. Daraus werden Daten abgeleitet, die die Querstreifen des Mu­ sters angeben. Spitzen in der Autokorrelationsfunktion kenn­ zeichnen das Wiederholungsintervall des Streifenmusters. Die Kreuzkorrelationsfunktion dient zum Messen des Betrages der Verzerrung des Karomusters, also der Verkantung über die Breite des Materials.
Die DE 38 31 541 A1 beschreibt ein System, das das mit einer Kamera aufgenommene Bild eines gestreiften Stoffes in einem Speicher enthält, und der Neigungswinkel der Streifen wird bestimmt, indem Bildpixelwerte längs mehrerer zueinander be­ abstandeter Linien addiert werden. Abhängig von dem so be­ stimmten Neigungswinkel wird eine Korrekturvorrichtung mit einem Motor so bewegt, daß das gestreifte Tuch einen ge­ wünschten Neigungswinkel und eine gewünschte Position erhält, wodurch seine Position mechanisch korrigiert wird.
Die Aufgabe der Erfindung besteht darin, ein System für das Einstellen der Schnittmuster bei dem Zuschneiden gemusterter Stoffe anzugeben, das die Ausrichtung der Segmentanordnung eines Schnittmusters auf das Stoffmuster unabhängig von einer Fehlausrichtung des Stoffes selbst ermöglicht. Diese Ausrich­ tung soll auch unabhängig von dem mit einer Kamera auswertba­ ren Kontrast eines Stoffmusters möglich sein. Ferner soll auch eine Kalibrierung der Koordinaten einer Stoffbahn in be­ zug auf die entsprechenden Bildpixelsignale möglich sein.
Die Erfindung sieht zur Lösung dieser Aufgabe gemäß Patentan­ spruch 1 ein Verfahren zum Ausrichten der Anordnung von Zu­ schnittsegmenten an einer ausgewählten Stelle eines Schnitt­ musters auf das geometrische Design einer Stoffbahn in einem System mit einem beweglichen Videosubsystem vor, zu dem eine Kamera mit einer Anordnung von Pixelelementen zur Aufnahme von Licht aus einem Teil der Stoffbahn und zum Abgeben ent­ sprechender elektrischer Signale gehört. Das Verfahren ent­ hält die Schritte des Empfangs von Schnittmustersignalen ein­ schließlich Segmentlagesignale und ein Referenzsignal ent­ sprechend einer Referenzposition in dem Schnittmuster sowie eine Ausrichtung der Kamerapixelelemente darauf vor. Bei dem Verfahren werden von dem Kamera-Videosubsystem Signale ein­ schließlich Signale entsprechend dem Stoffdesign empfangen, die die anfängliche Stoffdesignausrichtung relativ zu der Re­ ferenzposition des Schnittmusters angeben, und die Stoffdesign­ signale werden in mehrere Winkelpositionen gedreht. Das Verfahren vergleicht für jede Winkelposition die gedrehten Stoffdesignsignale mit den pixelelement-Ausrichtsignalen und erzeugt daraus Signale, die die entsprechende Stoffbahnaus­ richtung angeben. Dann wird diejenige Winkelposition ausge­ wählt, die die beste Ausrichtung der Kamerapixelelemente auf das Stoffmuster ergeben, und es werden Signale zum Einstellen der Position der Segmentlagesignale in dem Schnittmuster er­ zeugt, um eine Verschiebung zwischen der anfänglichen Stoff­ designausrichtung und der ausgewählten Winkelposition zu be­ seitigen.
Vorteilhafte Weiterbildungen des Verfahrens sind in den Ansprüchen 2-6 beschrieben.
Die Erfindung wird im folgenden an Hand der Zeichnungen näher erläutert. Darin zeigen:
Fig. 1 eine vereinfachte schematische Darstellung eines Systems nach der Erfindung,
Fig. 2 eine vereinfachte schematische Darstellung eines Teils einer fehlausgerichteten Stoffbahn auf einem Tisch in dem System nach Fig. 1,
Fig. 3 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Einstellen eines Schnittmusters auf Fehlausrichtungen der Stoffbahn,
Fig. 4 eine vereinfachte schematische Zeichnung eines Stoffmusterteils in Fehlausrichtung relativ zu Ka­ merapixeln,
Fig. 5 eine vereinfachte schematische Darstellung einer rechnerischen Drehung in dem System nach Fig. 1,
Fig. 6 eine vereinfachte schematische Darstellung des Stoffmusterteils und der Kamerapixel nach Fig. 4 nach der rechnerischen Drehung,
Fig. 7 eine vereinfachte schematische Darstellung einer Zeilensegmentverschiebung in dem System nach Fig. 1,
Fig. 8 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Passen von Segmentanord­ nungen und Stoffmustern mit hohem Kontrast,
Fig. 9 eine schematische Darstellung einer Gauss′schen Be­ wertungsfunktion in dem System nach Fig. 1,
Fig. 10 eine vereinfachte Darstellung der relativen Verset­ zung einer berechneten Pixelanordnung als Unter­ gruppe eines Bildes,
Fig. 11 eine vereinfachte Darstellung eines Zeilensegments von Bildpixeln mit benachbarten Pixeln für einen Intensitäts-Mittelungsalgorithmus in dem System nach Fig. 1,
Fig. 12 eine schematische Darstellung eines in dem System nach Fig. 1 ausgeführten Algorithmus zum Passen von Segmentanordnungen und Stoffmustern mit geringem Kontrast,
Fig. 13 eine schematische Darstellung benachbarter Pixel mit jeweiligen relativen Intensitätswerten in einem Algorithmus in dem System nach Fig. 1 zum Berechnen eines bewerteten Mittelwertes benachbarter Bildpi­ xel,
Fig. 14 eine vereinfachte schematische Darstellung eines Teils eines Videobildes in dem System nach Fig. 1 mit einem Kalibrierungsobjekt,
Fig. 15 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Kalibrieren von Real­ welt- in Video-Bildkoordinaten, und
Fig. 16 eine schematische Darstellung eines Teils der Pixe­ lanordnung nach Fig. 13 mit Nachbar-Tabellenelemen­ ten.
Im folgenden wird ein Ausführungsbeispiel der Erfindung unter Anwendung der Einrichtung nach US-A-3 495 492 beschrieben. Auf diese Anwendung ist die Erfindung jedoch nicht be­ schränkt.
In Fig. 1 ist ein Schneidsystem 10 für Flachmaterial oder Stoffe dargestellt, das einen Tisch 12 auf Beinen 14 hat. Der Tisch 12 bildet einen behälterartigen Rahmen, der mehrere Plastikblöcke 16 mit Borsten trägt, die ein durchdringbares Bett 18 mit einer flachen Auflagefläche 20 bilden. Die durch­ gehende ebene Auflagefläche 20, die mit den Oberseiten der Blöcke 16 gebildet ist, trägt eine Lage 22 aus einer oder mehreren Schichten von Flachmaterial wie z. B. Stoff, die ver­ tikal gestapelt auf der Auflagefläche 20 liegen. Wie Fig. 6 und 7 zeigen, hat der Stoff ein periodisch eingewebtes geome­ trisches Muster 21. Die gestapelte Lage 22 kann mit einem dünnen Plastikfilm 24 beispielsweise aus Polyäthylen abge­ deckt sein, der einen auf die Lage 22 einwirkenden Unterdruck aufrecht erhält.
Ein Hauptwagen 26, der sich quer über den Tisch 12 erstreckt, wird an dem Tisch mit zwei länglichen Schienen 28 gehalten, die beiderseits des Tisches 12 in dessen Längsrichtung mon­ tiert sind, so daß der Wagen 26 in Längsrichtung oder X-Rich­ tung bewegt werden kann. Der Hauptwagen 26 hat eine nicht dargestellte Antriebswelle, die gleichfalls quer zum Tisch liegt und an ihren beiden Enden Ritzel hat, die in die Schie­ nen 28 zum Bewegen des Wagens 26 in Längsrichtung dienen, wenn ein Antriebsmotor 27 eingeschaltet ist, der mit der Welle antriebsmäßig verbunden ist. Der Hauptwagen 26 trägt einen Schneidkopfwagen 30, der in Y-Richtung an einer Füh­ rungsschiene oder einem Rohr 34 und an einer Führungsspindel 36 bewegbar geführt ist, die gleichfalls quer zum Tisch 12 liegt und den Schneidkopfwagen 30 quer über den Tisch oder in Y-Richtung trägt und führt, wenn ein weiterer Antriebsmotor 37 eingeschaltet ist, der mit der Führungsspindel 36 an­ triebsmäßig verbunden ist.
Der Schneidkopfwagen 30 hat einen Schneidkopf 40, der relativ zu ihm vertikal bewegt werden kann, so daß er gehoben und ab­ gesenkt wird, um ein hin und her bewegbares Messer 44 und ei­ ne zugehörige Andruckplatte aus einer normalen Schneidstel­ lung in eine Stellung zu bringen, in der beide Teile völlig außer Kontakt über der Lage 22 angeordnet sind. Wenn der Schneidkopf 40 angehoben wird, befindet sich das untere Ende des Messers 44 über der Lage 22, so daß der Schneidkopf 40 mit dem Messer 44 dann je nach Wunsch in jede voreingestellte Position über der Lage 22 gebracht und dann zum Schneiden ab­ gesenkt werden kann, so daß eine Schnittlinie an jeder ge­ wünschten Position in dem Stoff begonnen werden kann. Das Messer 44 wird vertikal mit einem nicht dargestellten Motor im Schneidkopf 40 hin und her bewegt und außerdem um seine eigene vertikale Achse gedreht, die auch als Theta-Achse be­ zeichnet wird, wie in Fig. 1 gezeigt. Hierzu dient ein weite­ rer nicht dargestellter Motor im Schneidkopf 40. Dem Fachmann ist geläufig, daß andere Schneideinrichtungen wie Laser oder Wasserstrahlschneider anstelle des Messers 44 verwendet wer­ den können.
Der Schneidkopf 40 trägt auch einen Zeiger 48 und ein Video­ subsystem mit einer Kamera 49. Der Zeiger 48 ist an einem Stift schwenkbar befestigt, der von dem Schneidkopf 40 ab­ steht, so daß er in die dargestellte Betriebsstellung vor dem Messer 44 gebracht werden kann, um den Schneidkopf 40 und das Messer 44 relativ zu einer gewünschten Position oder Index­ marke auf der Lage 22 genau zu positionieren. Dann wird der Zeiger 48 aufwärts in eine Ruhestellung gebracht, nachdem der Schneidkopf 40 positioniert wurde. Andere Zeiger als der in Fig. 1 dargestellte, beispielsweise ein Laser, können zur ge­ nauen Positionierung des Messers 44 auf einen bestimmten Punkt der Lage 22 vorgesehen sein.
Der Tisch 12 hat Kanäle 50, die mit einer Vakuumpumpe 52 ver­ bunden sind. Die Plastikabdeckung 24 auf der Lage 22 dient dazu, den durch die Tischoberfläche oder das Bett 18 aus po­ rösen oder vertikal belüfteten Plastikblöcken 16 einwirkenden Unterdruck zu halten, wodurch die Lage 22 als fester Stapel komprimiert wird, der beim Schneiden nicht verschoben wird. In der Zeichnung ist nur ein Tischsegment mit dem Unterdruck­ system schematisch zur leichteren Übersicht dargestellt. Je­ des Tischsegment hat ein separates Unterdruckventil, das durch den Hauptwagen 26 betätigt wird, wenn er sich über die­ sem Segment befindet. Unterdruck wird daher nur auf den Be­ reich unter dem Hauptwagen 26 ausgeübt, um das jeweils ge­ schnittene Material festzuhalten. Dies erlaubt ein leichtes Entfernen der geschnittenen Teile und ermöglicht den prakti­ schen Einsatz des Unterdrucks aus einer einzelnen Quelle.
Wenn mehr als eine gemusterte Stoffschicht zu schneiden ist, so kann auch ein Schneidetisch mit einem System aus Stiften günstig sein, der das Auslegen des Stoffes mit übereinstim­ mender Musterorientierung der aufeinanderliegenden Schichten erleichtert. Alternativ kann der Stoff entsprechend dem De­ sign ausgelegt werden, bevor der Stapel auf den Tisch aufge­ legt wird.
Das Schneidsystem 10 hat eine Steuerung 51 die über Leitun­ gen 54 Signale ausgibt und empfängtund sie entsprechend im folgenden zu beschreibenden Algorithmen verarbeitet. Die Steuerung enthält ein Sichtgerät 56 bekannter Art sowie eine normale Tastatur 58. Sie enthält ferner einen Personalcompu­ ter mit ausreichender Speicherkapazität und anderer periphe­ rer Hardware, um die noch zu beschreibenden Funktionen auszu­ führen. Es kann auch eine Bildverarbeitungsschaltung (video frame grabber) vorgesehen sein.
Bekanntlich besteht ein Schnittmuster aus mehreren benachbar­ ten Segmenten oder Zuschnittsteilen, die möglichst nahe bei­ einander liegen sollen, um den Stoffabfall minimal zu halten. Das hier beschriebene System verwendet eine rechnererzeugte Datei, die in der Steuerung als ein Schnittmuster enthalten ist. Sehr sorgfältig muß mit einem karierten oder anderen Stoffmaterial mit sich wiederholendem Muster vorgegangen wer­ den, um dieses Muster so zu positionieren, daß die Stoffseg­ mente die gewünschte Ausrichtung haben, wenn sie miteinander vernäht werden. Das Schnittmuster enthält also nicht nur In­ formationen über die Form der Stoffsegmente, sondern auch Da­ ten über das Stoffdesign und die gewünschte Beziehung zwi­ schen den einzelnen Stoffsegmenten. Diese Korrelationsinfor­ mation hat die Form von Paß- und Referenzpunkten, die typisch im Inneren der Zuschnittsteile liegen, wo ein bestimmter Punkt des Stoffdesigns liegen soll.
Das Ergebnis der Stoffherstellungsparameter wie ungenaue Ab­ messungsunterschiede in der Musterwiederholung sowie die Ef­ fekte des Biegens und Verkantens durch schlechte Steuerung während der Stoffendbearbeitungen zwingen den Schnittmuster­ erzeuger, relativ große Pufferzonen um die einzelnen Muster­ stückanordnungen vorzusehen, die eine Anpassung erfordern. Oft ist dies die halbe Designwiederholungslänge. In dieser Beschreibung ist "Passung" definiert als die Ausrichtung des sich wiederholenden Stoffdesigns von einem Segment zu einem entsprechenden Segment, d. h. das Schulterteil eines Mantels in Passung zum Vorderteil an einer bestimmten Stelle. Die Größe der Pufferzone oder der zulässigen Stoffbreite, um ein Segment in Passung mit seinem Nachbarsegment zu bringen, ist ein aus der Wiederholung des Stoffdesigns und der Stoffquali­ tät abgeleiteter Faktors.
Es muß genug zusätzlicher Stoff vorhanden sein, damit das Sy­ stem oder die Bedienungsperson das Zuschnittsteil in eine an­ dere Position bringen kann, die von derjenigen abweicht, die anfangs von dem Schnittmustererzeuger im CAD-System gewählt wurde. Ein automatisches System muß den Versetzungsbetrag be­ rechnen, der zum richtigen Ausrichten des Schnittmusters auf das aktuelle Stoffmuster erforderlich ist. Ferner muß manch­ mal das Schnittmuster oder ein oder mehrere Teile davon mit dem Stoff ausgerichtet werden, weil die Stoffbahn dem Schnei­ detisch unter einem kleinen Winkel zugeführt wurde oder in dem Stoff Fehler vorhanden sind. Das hier beschriebene System kann diese Aufgaben lösen, wie im folgenden beschrieben wird.
In Fig. 2, ist vereinfacht ein Teil einer verkanteten Stoff­ bahn 60 auf dem Schneidetisch des hier beschriebenen Systems dargestellt. Der Betrag 62 der Fehlausrichtung ist im Ver­ gleich zu einem Referenzkoordinatensystem 64 übertrieben dar­ gestellt. Es ist wichtig, anfangs das Vorhandensein und den Betrag jeder Fehlausrichtung der Stoffbahn 60 zu bestimmen, weil die Passung des Stoffmusters 66 zum Schnittmuster insge­ samt beeinträchtigt wird. Das hier beschriebene System prüft jegliche Fehlausrichtung und erzeugt eine entsprechende Kor­ rektur, wie es an Hand der Fig. 3 bis 6 beschrieben wird.
Theoretisch enthält das Videobild eines Stoffdesigns oder - musters eine Zeile (oder Spalte) von Bildpixeln übereinstim­ mender Intensität, so daß Intensitätsänderungen in Richtung des Stoffmusters oder auf der Stofffläche minimal sind. Wenn das Stoffmuster aber verkantet ist, kreuzt die Pixelzeile 76 das Stoffmuster 74, wie in Fig. 4 gezeigt, wodurch eine star­ ke Variation der Pixelintensitäten untereinander sowie rela­ tiv zu einem Mittelwert auftritt. Ein Zeilenverkantungsindex gibt den Grad der Übereinstimmung zwischen einem mittleren Pixelintensitätswert und jedem einzelnen Pixel in einer Zeile an.
Fig. 3 stellt einen Algorithmus 68 dar, der bei der Ausrich­ tung der Stoffbahn angewendet wird. Nachdem die Referenzkoor­ dinaten definiert sind (Block 70), wird ein Videobild bei Block 72 aufgenommen, das zu dem anzupassenden Stoffstück zentriert ist. Wie Fig. 4 zeigt, ist das Stoffmuster 74 zu­ nächst gegenüber einer Pixelzeile 76 der Systemkamera verkan­ tet. Hierbei wird vorausgesetzt, daß die Kamera anfangs ent­ sprechend den Referenzkoordinaten ausgerichtet wurde.
Das Videobild wird rechnerisch über einen Winkelbereich ge­ dreht (Block 78). Die Erfindung sieht keine Drehung der Kame­ ra vor, weil dies zusätzlichen Schaltungs- und Programmauf­ wand erfordern würde, dessen kumulativer Effekt die Gesamt­ leistung des Systems bzw. dessen Arbeitsgeschwindigkeit her­ absetzen würde. Das Videobild wird statt dessen rechnerisch gedreht, wie im folgenden beschrieben wird. Bei dem Ausfüh­ rungsbeispiel wird das Videobild zwischen -20 und +20 Grad in Schritten von jeweils 1 Grad gedreht. Der Effekt der rechne­ rischen Drehung ist in Fig. 5 zu erkennen, wo die Pixelzeile in Positionen 80 bis 86 dargestellt ist. Der Verkantungsindex des Videobildes wird für jede Position berechnet (Block 88). Unter den einundvierzig Positionen ist diejenige Position der besten horizontalen Ausrichtung zuzuordnen, die zu dem klein­ sten Verkantungsindex führt. Fig. 6 zeigt schematisch, daß der kleinste Verkantungsindex auftreten wird, wenn die Pixel­ zeile um den Betrag "gedreht" wird, der zum Ausrichten des Designs auf die Pixelzeile erforderlich ist, wodurch dann jegliche Fehlausrichtung beseitigt ist (Block 90).
Die folgenden Schritte dienen der Berechnung des Verkantungs­ index für das Videobild. Dieser Index ist anfangs auf Null gesetzt. Für jede Pixelzeile wird zunächst der mittlere Rot-, Grün- und Blauintensitätswert berechnet. Für jedes Pixel in der Zeile ergibt sich eine Differenz zwischen dem mittleren Rotintensitätswert und dem laufenden Rotintensitätswert, die dann summiert wird. Dieser Prozeß wird für die grünen und die blauen Pixel wiederholt. Alle Summen werden addiert, um den Verkantungsindex zu berechnen. In dem vorzugsweisen Ausfüh­ rungsbeispiel wird ein Farbbild verarbeitet. Dem Fachmann ist jedoch geläufig, daß die im folgenden beschriebene Technik auch leicht auf Schwarz-Weiß- oder auf Grauskalenbilder ange­ wendet werden kann.
Die rechnerische Drehung eines gerasterten Videobildes er­ folgt durch Verschieben von Zeilensegmenten variabler Größe nach rechts oder aufwärts oder abwärts, wie es in Fig. 7 ge­ zeigt ist. Das Zeilensegment 92 besteht aus Pixeln 94 bis 104. In der Figur ist das Zeilensegment 106 ein Abbild des Zeilensegments 92 nach einer rechnerischen Drehung im Gegen­ uhrzeigersinn. Die Videopixel werden also abwärts und nach rechts verschoben. Eine Drehung im Uhrzeigersinn entspricht einem Schieben aufwärts und nach links. Die Länge des Zeilen­ segments ist so gewählt, daß sie dem Kotangens des Positions­ winkels entspricht. Der Fachmann wird erkennen, daß die Dre­ hung des Zeilensegments einer vorgegebenen Zeile direkt zu der nachfolgenden Position benachbarter Zeilensegmente führt. Ferner wird in diesem Prozeß bei dem hier beschriebenen Aus­ führungsbeispiel eine Untergruppe von Pixeln des Bildes be­ nutzt. Nach Berechnen des Betrages der erforderlichen Drehung für minimalen Verkantungsindex stellt das System die Anord­ nung der Segmente in dem Schnittmuster so ein, daß sich der minimale Verkantungsindex ergibt (Block 108).
Wie vorstehend beschrieben, muß beim Schneiden von Stoffen manchmal ein Punkt eines Stoff- oder Polsterstoffsegments mit einem entsprechenden Punkt eines oder mehrerer weiterer Stüc­ ke in Übereinstimmung gebracht werden. Die Ungleichmäßigkeit des Materials verhindert die Voraussage der exakten Position einander entsprechender Punkte. Wenn eine Videokamera ein Bild an einem Referenzpunkt des Stoffes und dann ein weiteres Bild über dem ungefähren Paßpunkt aufnimmt, können die beiden Bilder überlagert und eine Versetzung berechnet werden. Oft sind Wiederholungen von Stoffmustern nur durch Farblinien de­ finiert, deren Intensität sich ändert und die nur einen klei­ nen Anteil des Bildes ausmachen. Diese Linien können von dem System bei dem Ausrichten nicht erkannt werden, wenn sie nicht hervorgehoben sind.
Das hier beschriebene System enthält eine Videoeinrichtung zum Ausführen eines Algorithmus zur Ausrichtung von Bildern mäßigen oder starken Kontrastes. Fig. 8 zeigt schematisch ei­ nen Algorithmus 110 zum Verbessern der Passung bei Stoffmu­ stern starken Kontrastes. Videobilder, die jeweils auf den Referenzpunkt und den ungefähren Paßpunkt zentriert sind, wenn das Stoffmaterial völlig gleichmäßig wäre, werden bei Block 112 und 114 aufgenommen. Ein Referenz- und ein Paßbild geringer Auflösung werden bei Block 116 und 118 aufgenommen, indem die Originalbilder mit einer Unschärfe versehen werden (Block 120), und die Ergebnisse werden gespeichert. Der Un­ schärfeprozeß dient zur Verbesserung der groben Merkmalsüber­ gänge, die beim Verarbeiten der digitalen Kamerasignale auf­ treten, und zum Verringern der zu verarbeitenden Datenmenge.
Der einem jeden Pixel geringer Auflösung zukommende aktuelle Wert ist das Ergebnis einer Gauss′schen Unschärfefunktion, die auf einen 16 × 16-Pixelblock des Originalbilde,s angewendet wird. Diese 16 × 16-Pixelblöcke überlappen einander in den vier oberen und unteren Zeilen und den vier linken und rechten Spalten. Bei der Anwendung der Gauss′schen Unschärfefunktion wird auch eine Bewertungsfunktion angewendet, die zu der Zu­ ordnung einer Bewertung für jedes Pixel in einer rechneri­ schen Pixelanordnung führt. Fig. 9 zeigt ein vereinfachtes Teildiagramm einer rechnerischen Pixelanordnung 122. Den Ele­ menten dieser Anordnung wird ein numerischer Wert zugeordnet, wobei die mittleren vier Pixel 124 den 16-fachen Wert der Eckenelemente, beispielsweise des Eckenelements 126, haben. Bei dem hier beschriebenen Ausführungsbeispiel entspricht je­ des Pixel in dem Bild geringer Auflösung einem 8 × 8-Pixelblock im Originalbild. Im Ausführungsbeispiel ist jede rechnerische Anordnung um acht Pixel versetzt. Fig. 10 stellt das Verfah­ ren dar, bei dem eine rechnerische Anordnung 128 über die Bildanordnung 130 bewegt wird.
Wie Fig. 8 zeigt, wird der minimale und der maximale Intensi­ tätswert für Rot, Grün und Blau bei dem Referenzbild geringer Auflösung (Blöcke 132, 134) und bei dem Paßbild (Blöcke 136, 138) berechnet. Danach ergibt sich bei Block 140 der Bereich der Werte für Rot, Grün und Blau in den Bildern geringer Auf­ lösung. Beispielsweise ist der Rotbereich die Differenz zwi­ schen dem maximalen und dem minimalen Rotwert. Bei Block 142 werden Skalierfaktoren für Rot, Grün und Blau berechnet. Der Rotwert ist dann gleich dem möglichen Maximalwert, geteilt durch den Rotbereich. Nimmt man an, daß der Rotbereich einen Wert von 60 hat und der mögliche Maximalwert 255 ist, so ist der Rotskalenwert 255/60 = 4,25. Für die anderen Farben wer­ den diese Werte gleichartig berechnet.
Alle Pixelwerte werden für das Referenzbild (Block 144) und das Paßbild (Block 146, 148) geringer Auflösung skaliert. Für die roten Pixel wird der Rotminimalwert von dem Rotwert eines jeden Pixels subtrahiert. Das Ergebnis wird mit dem Rotska­ lenwert multipliziert. Bei einem beispielsweisen Rotskalen­ wert von 4,25, einem Rotminimalwert von 32 und einem Rotori­ ginalwert von 52 ist der skalierte Rotwert für dieses Pixel (52-32) × 4,25 = 85. Auch hier wird diese Berechnung für die Pixelsignale der anderen Farben gleichfalls durchgeführt.
Die zentralen Bereiche des Referenzbildes und des Paßbildes geringer Auflösung werden so ausgewählt, daß sie rechnerische Pixelanordnungen in oben beschriebener Weise sind (Block 149). Bei dem hier beschriebenen Ausführungsbeispiel wird der Zentralbereich so gewählt, daß er die halbe Breite und Höhe der Bilder geringer Auflösung hat. Der Ursprung dieser Berei­ che ist gegeben durch X = Bildbreite/4, Y = Bildhöhe/4. Alle Zeilen in diesem Bereich werden bei Block 150 in zwei oder mehr teilweise überlappende Zeilensegmente geteilt. Wie in Fig. 11 schematisch gezeigt, liegt das Zeilensegment 152 benachbart zu Pixeln zweier weiterer Zeilensegmente 154, 156. Die Pixel in dem laufenden Zeilensegment werden mit 1 bewer­ tet, während die Pixel in den benachbarten Zeilensegmenten mit 0,5 bewertet werden. Die Pixelintensitätswerte werden mit diesem jeweiligen Wert multipliziert, bevor ein mittlerer In­ tensitätswert berechnet wird. In diesem Ausführungsbeispiel gehen das vordere und das hintere Zeilensegment jeweils mit vier Pixeln einer Bewertung von 0,5 in die Rechnung ein, so daß acht Pixel mit einer Bewertung von 0,5 und acht Pixel mit einer Bewertung von 1 vorliegen. Dieses Bewertungs- und Mit­ telungsverfahren gleicht die Effekte von Übergängen in den Pixelbildsignalen aus.
Für alle Zeilensegmente in dem Bereich wird der mittlere In­ tensitätswert für Rot, Grün und Blau wie oben beschrieben be­ rechnet (Block 157). Danach werden alle Spalten in diesem Be­ reich in zwei oder mehr teilweise überlappende Spaltensegmen­ te geteilt, und es wird der mittlere Intensitätswert für alle Spaltensegmente in dem Bereich für Rot, Grün und Blau berech­ net. Dies wird in gleicher Weise für den gewählten Bereich des Paßbildes geringer Auflösung durchgeführt. Dieser Bereich hat gleichfalls die halbe Breite und Höhe des entsprechenden Bereiches im Bild geringer Auflösung mit einem Ursprung an einer Stelle, die definiert ist durch XO = O, YO = O, X1 = Bildbreite/4, Y1 = Bildhöhe/4. Alle Zeilen in diesem Bereich werden in zwei oder mehr teilweise überlappende Zeilensegmen­ te geteilt, und es wird der mittlere Wert für alle Zeilenseg­ mente des Bereichs für Rot, Grün und Blau berechnet. Das Ver­ fahren ist für die überlappenden Spaltensegmente identisch.
Das hier beschriebene System entfernt den Effekt von Intensi­ tätsvariationen zwischen dem Paßbild und dem Referenzbild, indem zuerst die mittleren Intensitätsdifferenzen für benach­ barte Zeilen- und Spaltensegmente berechnet und diese dann mit entsprechenden Differenzen des Paßbildes verglichen wer­ den. Für eine gegebene Zeile in einem Referenzbereich gibt es mindestens zwei Zeilensegmente mit einer in oben beschriebe­ ner Weise berechneten Intensität. Das hier beschriebene Sy­ stem vergleicht die mittlere Intensität für ein gegebenes Zeilensegment mit einer mittleren Intensität eines Zeilenseg­ ments in einer vorherigen Zeile. Die Differenz wird mit einer entsprechenden Differenz in dem Paßbereich verglichen. Für dasselbe gegebene Zeilensegment wird die mittlere Intensität auch mit einer mittleren Intensität eines Zeilensegments in einer nachfolgenden Zeile verglichen und die Differenz mit einer entsprechenden Differenz im Paßbereich verglichen. Die­ ser Prozeß wird auch für die Spaltensegmente durchgeführt (Block 158). Die Absolutwerte aller Differenzen werden sum­ miert (Block 160).
Ein neuer Ursprung für einen neuen Paßbereich und Referenz­ bildbereich wird gewählt und der vorstehende Prozeß für alle möglichen Ursprünge in den Bereichen wiederholt. Die summier­ ten Absolutwerte werden verglichen (Block 162) , um zu bestim­ men, welche Position der rechnerischen Anordnung (durch ihren jeweiligen Ursprung bezeichnet) die beste Passung zu dem Re­ ferenzbild bringt. Dann wird die Versetzung des Paßbildes zum Referenzbild bestimmt (Block 164) und beseitigt, um die rich­ tige Ausrichtung zwischen Stoffmuster- und Schnittmusterseg­ menten zu erreichen.
Fig. 12 zeigt schematisch einen Algorithmus 166, der mit die­ sem System zur Videobildausrichtung auf Bilder mit mäßigem bis schwachem Kontrast bei ungleichmäßiger Beleuchtung durch­ geführt wird. Bei Block 168 wird ein Videobild auf den Refe­ renzpunkt zentriert aufgenommen. Ein entsprechendes Videobild über dem Punkt, der bei völlig gleichmäßigem Stoff der Paß­ punkt wäre, wird bei Block 170 aufgenommen.
In vorstehend beschriebener Weise werden ein Referenzbild und ein Paßbild geringer Auflösung erzeugt (Blöcke 172, 174), in­ dem die Originalbilder "verwischt" werden, und die Ergebnisse werden gespeichert (Block 176). Mit diesem System entspricht jedes Pixel in dem Bild geringer Auflösung einem 8 × 8-Pixel­ block des Originalbildes. Der aktuelle Wert in jedem Pixel geringer Auflösung ist das Ergebnis der Gauss′schen Unschär­ fefunktion, die auf einen 16 × 16-Pixelblock des Originalbildes angewendet wird. Hier überlappen sich wieder die 16 × 16-Pixel­ blöcke in den vier oberen und unteren Zeilen und in den vier linken und rechten Spalten.
Bei vielen Anwendungen haben die von der Kamera aufgenommenen Bilder unterschiedliche Lichtintensitäten. Ein einfacher In­ tensitätsvergleich ist ungünstig, weil die Ergebnisse durch jede Intensitätsänderung zwischen Paß- und Referenzbild ver­ schlechtert werden. Das hier beschriebene System erzeugt eine Tabelle aus Signalen, die für beide Bilder geringer Auflösung als eine "Nachbartabelle" bezeichnet wird (Blöcke 177, 178), und speichert die erhaltenen Signale im Systemspeicher. Der Zweck der Nachbartabellenanalyse besteht darin, den Effekt dieser Intensitätsänderungen durch Vergleiche von Intensi­ tätsübergängen zu beseitigen.
Eine Nachbartabelle ist eine zweidimensionale Matrix, die aus vier oder mehr Eingaben pro Pixel geringer Auflösung besteht. Jede Eingabe entspricht der Differenz der Werte eines Pixels und des benachbarten Pixels. Bei diesem Ausführungsbeispiel werden acht Nachbarpixel in einer Nachbartabelle gespeichert. Allgemein sind diese Nachbarpixel des Pixels (X, Y) die fol­ genden:
PIXEL (X + 1, Y)
PIXEL (X + 1, Y + 1)
PIXEL (X, Y + 1)
PIXEL (X - 1, Y + 1)
PIXEL (X - 1, Y)
PIXEL (X - 1, Y - 1)
PIXEL (X, Y - 1)
PIXEL (X + 1, Y - 1)
Fig. 13 zeigt schematisch die Nachbartabellenberechnung. Ein Teil einer Pixelanordnung 180 ist mit der jeweiligen Pixelin­ tensität dargestellt. Das Pixel 182 hat die Intensität 40. Zum Berechnen der Nachbartabelle wird dieser Intensitätswert mit den acht umgebenden Pixeln verglichen, die in dem Kasten 184 liegen, um die Gesamtdifferenz zu erhalten. Der Vergleich des Pixels 182 mit dem Pixel 186 ergibt 28, mit dem Pixel 188 ergibt er -10 usw. Jede Nachbartabelle hat für dieses Aus­ führungsbeispiel acht Eingaben für jedes Pixel, was zu einer dreidimensionalen Anordnung mit der achtfachen Größe der Ori­ ginalsignalanordnungen führt. Dieses Konzept ist schematisch in Fig. 16 dargestellt. Diese zeigt einen Teil 234 der Pixe­ lanordnung nach Fig. 18 mit Nachbartabellenelementen 236 für das Pixel 182.
Ein zentraler Bereich des Referenzbildes geringer Auflösung wird dann gewählt, um eine rechnerische Pixelanordnung zu bilden. Dieser Bereich hat die halbe Breite und Höhe des Bil­ des geringer Auflösung. Der Ursprung des Bereichs ist gegeben durch X = Bildbreite/4, Y = Bildhöhe/4. Ein entsprechender Bereich des Paßbildes geringer Auflösung wird gewählt, um nochmals eine rechnerische Pixelanordnung zu bilden. Dieser Bereich hat gleichfalls die halbe Breite und Höhe des ent­ sprechenden Bildes geringer Auflösung. Der Ursprung dieses Bereichs ist ein Punkt, der definiert ist durch XO = O, YO = O, X1 = Bildbreite/4, Y1 = Bildhöhe/4.
Ähnlich wie vorstehend bereits beschrieben wird ein zentraler Bereich der Nachbartabelle des Referenzbildes (ICENTER) auf die ähnlichste Position in der Nachbartabelle (J) des Paßbil­ des ausgerichtet. In diesem Ausführungsbeispiel erfolgt dies durch Berechnen (Block 190) eines Fehlerwertes für alle mög­ lichen XY-Positionen, wenn der Zentralbereich der Nachbarta­ belle des Referenzbildes mit der Nachbartabelle des Paßbildes verglichen wird. Der Fehlerwert wird berechnet durch Summie­ ren der Differenz einer jeden Eingabe des Zentralbereichs der Nachbartabelle des Referenzbildes und der entsprechenden Ein­ gabe der Nachbartabelle des Paßbildes. Ein neuer Ursprung für jeden Paß- und Referenzbildbereich wird gewählt, und der vor­ stehende Prozeß wird für alle möglichen Ursprungspunkte in den Bereichen wiederholt. Die möglichen Ursprungspunkte schließen natürlich nur solche Punkte ein, die eine vollstän­ dige rechnerische Anordnung ergeben, da Pixel außerhalb des Bildes nicht verfügbar sind. Bei einer guten Passung führen die Nachbarpositionen zu einem Fehlerwert, der kleiner als für Positionen ist, die um mehr als ein Pixel von der Paßpo­ sition versetzt sind. Die Position, die den kleinsten Fehler ergibt, wird als Paßpunkt bei geringer Auflösung festgesetzt. Danach wird das Schnittmuster so ausgerichtet, daß jegliche Versetzung beseitigt ist (Block 192).
Allgemein müssen die in einem rechnergestützten Videosystem benutzten Bilder bei Bewegungssteuerungen auf Realweltkoordi­ naten kalibriert werden. Dies erfolgt durch Anordnen eines Objekts bekannter Größe im Gesichtsfeld der Kamera, Berechnen der Pixelzeile für die Objektbreite und der Pixelspalte für die Objekthöhe und Berechnen der, Realgröße eines einzelnen Pixels. Dies ist ein langsamer und schwieriger manueller Pro­ zeß. Vorzugsweise wird er automatisch durchgeführt.
In dem hier beschriebenen System ist das Kameraobjektiv etwa 25 cm über der Tischoberfläche angeordnet. Die Stofflage kann dann abhängig von der Zahl der Schichten und der Stoffart ei­ ne Dicke haben, die im Bereich von 2,5 cm variiert. Die Kame­ rapixelkoordinaten müssen nicht auf diejenigen des aktuellen Stoffes kalibriert werden, weil diese Variation des Abstandes zwischen Kameraobjektiv und Stoff möglich ist. Das System enthält auch eine Einrichtung zum Ausführen eines Algorithmus zum automatischen, effizienten und genauen Kalibrieren des Videobildes auf Realweltkoordinaten. Zunächst muß ein Objekt bekannter Größe ausgewählt werden. Wegen der Unempfindlich­ keit gegen Drehung oder Verkantung dient hierzu vorzugsweise ein Kreis. Fig. 14 zeigt vereinfacht ein Kamerabild 194. Darin ist ein Kalibrierkreis 196 zu erkennen, der sich auf der obersten Stoffbahn einer Lage befindet, die vertikale und horizontale Musterlinien 198, 200 hat. Fig. 15 zeigt schema­ tisch einen Algorithmus 202, der zum Kalibrieren des Video­ bildes auf Realweltkoordinaten dient.
Zunächst lokalisiert die Bedienungsperson eine geometrische Marke auf dem Stoff und führt eine Passung hoher Auflösung aus, wie sie in den eingangs genannten US-Patentschriften be­ schrieben ist. Vorzugsweise soll die Suche nach dem Kali­ brierobjekt im Gesichtsfeld der Kamera minimiert werden, nachdem es dort lokalisiert wurde (Block 204). Das Kalibrier­ objekt wird also so plaziert, daß die Gesichtsfeldmitte ir­ gendwo innerhalb des Kalibrierkreises liegt. Bei der Suche nach der Objektmitte 206 (Block 208, Fig. 15) und Auswahl des Bildmittelpunktes 210 als Startpunkt für die Suche wird die Möglichkeit der Auswahl des falschen Kalibrierobjekts, wenn das Bild weitere Merkmale enthält, minimiert.
Bei Start in dem Bildmittelpunkt sucht das System nach links und nach rechts nach Punkten, an denen eine Pixelzeile die Außenkanten 212, 214 des Kalibrierkreises schneidet (Blöcke 216, 218, Fig. 15). Wiederum ausgehend von dem Bildmittel­ punkt sucht das System aufwärts und abwärts nach Punkten 220, 222, an denen eine Pixelspalte die Außenkante des Kalibrier­ kreises schneidet. Die exakte Mitte des Kalibrierkreises er­ gibt sich dann mit X = Mittelpunkt der linken und rechten X- Koordinaten der Punkte 212, 214. Die vertikale Koordinate ist Y = Mittelpunkt zwischen oberer und unterer Y-Koordinate der Punkte 220, 222.
Zusätzlich zu der Lokalisierung der Kreismitte kann auch die Breite und die Höhe des Kalibrierkreises gefunden werden (Block 224). Ausgehend von dem genauen Mittelpunkt des Kali­ brierkreises sucht das System links und rechts nach den Punk­ ten 226, 228, an denen diese Pixelzeile den Außenrand des Ka­ librierkreises schneidet. Wiederum ausgehend von dem genauen Mittelpunkt des Kalibrierkreises sucht das System aufwärts und abwärts nach den Punkten 230, 232, an denen diese Pixels­ palte den Außenrand des Kalibrierkreises schneidet. Die Größe des Kalibrierkreises ergibt sich mit Breite = Abstand zwi­ schen den Koordinaten der Punkte 226, 228, Höhe = Abstand der Punkte 230, 232.

Claims (16)

1. Verfahren (68) zum Ausrichten der Anordnung (66) von Zu­ schnittsegmenten an einer ausgewählten Position in einem Schnittmuster auf das geometrische Design einer Stoff­ bahn (60) auf einer Auflagefläche (20) eines Tisches (12) in einem System mit einem beweglichen Videosubsy­ stem mit Kamera, die eine Anordnung von Pixelelementen zur Aufnahme von Licht aus einem Teil der Stoffbahn hat und entsprechende elektrische Signale abgibt, wobei Schnittmustersignale einschließlich Segmentlagesignale sowie ein Referenzsignal entsprechend einer Referenzpo­ sition in dem Schnittmuster und einer zugehörigen Kame­ ra-Pixelelementausrichtung empfangen werden (70), von dem Videosubsystem Signale einschließlich Signale ent­ sprechend dem Stoffdesign empfangen werden (72), und Si­ gnale erzeugt werden, die die anfängliche Stoffdesign­ ausrichtung relativ zu der Schnittmuster-Referenzpositi­ on angeben, gekennzeichnet durch
rechnerisches Drehen der Stoffdesignsignale in mehrere Winkelpositionen (78),
Vergleichen der gedrehten Stoffdesignsignale in jeder Winkelposition mit den von der Kamera gelieferten Pixel­ element-Ausrichtsignalen und daraus
Erzeugen (88) von Signalen, die die entsprechende Stoff­ bahnausrichtung angeben,
Auswählen (90) derjenigen Winkelposition, die die beste Ausrichtung der Kamerapixelelemente mit dem Stoffmuster angeben, und
Erzeugen (108) von Signalen zum Einstellen der Position der Segmentlagesignale in dem Schnittmuster zum Entfer­ nen jeglicher Versetzung zwischen der anfänglichen Stoffbahnausrichtung und der gewählten Winkelposition.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die rechnerische Drehung durch Teilen der Zeilen der Stoffdesignsignale in mehrere Zeilensegmente und Ver­ schieben der Position der Zeilensegmente um eine vorbe­ stimmte Pixelanzahl in zwei orthogonalen Richtungen er­ folgt.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß zum Teilen die Zeilensegmente so gewählt werden, daß sie gleich dem Kotangens des Positionswinkels sind.
4. Verfahren, nach Anspruch 2 oder 3, dadurch gekennzeich­ net,
daß Verkantungsindexsignale berechnet werden (88), die auf den Wert Null initialisiert werden,
daß für eine Zeile der Stoffdesign-Pixelsignale Signale zur Angabe eines mittleren Intensitätswertes berechnet werden,
daß für die Pixelzeile, die die Stoffdesignsignale ent­ hält, Signale zu dem Verkantungsindexwert addiert wer­ den, die dem Unterschied zwischen dem mittleren Zeilen­ intensitätswert und jedem Pixelintensitätswert in dieser Zeile entsprechen,
daß für jede Winkelposition ein Verkantungsindexwert be­ rechnet wird,
daß die Verkantungsindexsignale der Winkelpositionen verglichen werden, und
daß Signale erzeugt werden (108), die diejenige Winkel­ position angeben, für die sich der kleinste Verkantungs­ indexwert ergibt.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch ge­ kennzeichnet, daß jedes Pixel eine Gruppe Intensitätssi­ gnale hat, die für eine entsprechende Anzahl Farben gel­ ten.
6. Verfahren nach einem der vorhergehenden Ansprüche, ge­ kennzeichnet durch
Anordnen (208) eines Kalibrierobjekts mit einer geome­ trischen Mitte (206) in dem Gesichtsfeld (194) der Kame­ ra so, daß dessen Mitte innerhalb der Grenzen des Kali­ brierobjekts liegt,
Suchen (216) längs einer Pixelelementzeile auf der Ge­ sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Suchen (218) längs einer Pixelelementspalte auf der Ge­ sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Erzeugen, von Signalen entsprechend dem in der Mitte zwi­ schen den Zeilenschnittpunkten liegenden Pixel,
Erzeugen von Signalen entsprechend dem in der Mitte zwi­ schen den Spaltenschnittpunkten liegenden Pixel und Berechnen (224) von Signalen entsprechend der Pixelele­ mentposition der Kalibrierobjektmitte aus den beiden Mittelpunktsignalen.
7. Verfahren nach Anspruch 6, gekennzeichnet durch Berechnen der Kalibrierobjekthöhe und -breite durch Su­ chen längs einer Pixelelementzeile durch die Kalibrier­ objektmitte nach Pixeln, die die Kalibrierobjektgrenzen schneiden und durch
Suchen längs einer Pixelelementspalte durch die Kali­ brierobjektmitte nach Pixeln, die die Kalibrierobjekt grenzen schneiden,
Erzeugen von Signalen entsprechend der Anzahl Pixel zwi­ schen den Zeilenpixeln an den Zeilenschnittpunkten und Erzeugen von Signalen entsprechend der Anzahl Pixel zwi­ schen den Spaltenpixeln an den Spaltenschnittpunkten.
8. Verfahren (110) nach einem der vorhergehenden Ansprüche, für eine Stoffbahn mit einem geometrischen Design hohen Kontrastes, gekennzeichnet durch
Empfangen (112, 114) von Signalen einschließlich Signale entsprechend dem Stoffdesign für eine Paß- und eine Re­ ferenzposition von dem Videosubsystem,
Erzeugen (120) von Signalen für die Referenzpositions- und die Paßpositionssignale, die jeweils einem Bild ge­ ringer Auflösung entsprechen, wozu eine unscharfe Pixe­ lanordnung entsprechend einer Untergruppe mehrerer Pixe­ lelementpositionen konfiguriert wird, die um ein vorge­ gebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe aus dem Produkt des Pixelintensitätswertes eines jeden Pixels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe, Berechnen (132 bis 138) eines minimalen und eines maxi­ malen Signalwertes für das Referenz- und das Paßbild ge­ ringer Auflösung,
Berechnen (140) eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Berechnen (142) von Signalen entsprechend einem Skalier­ faktor für das Referenz- und das Paßbild geringer Auflö­ sung,
Berechnen (144) skalierter Referenz- und Paßbildsignale mit dem Skalierungsfaktor,
Konfigurieren (149) rechnerischer Pixelanordnungen ent­ sprechend einer ersten zentralen Untergruppe von Pixele­ lementpositionen jeweils für das Referenz- und das Paß­ bild geringer Auflösung, einschließlich
Teilen (150) einer jeden Pixelzeile der rechnerischen Pixelanordnungen in mehrere Zeilensegmente,
Berechnen (157) eines mittleren Intensitätswertes für jedes Zeilensegment,
Teilen (150) einer jeden Pixelspalte der ersten rechne­ rischen Pixelanordnungen in mehrere Spaltensegmente, Berechnen (157) eines mittleren Pixelintensitätswertes für jedes Spaltensegment,
Erzeugen (158) vorheriger Zeilenübergangssignale für je­ des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei­ lensegment und ein entsprechendes Zeilensegment in einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen einander entspre­ chenden vorherigen Zeilenübergangssignalen in den rech­ nerischen Pixelanordnungen des Paßbildes und des Refe­ renzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg­ ment und ein entsprechendes Zeilensegment in einer nach­ folgenden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten­ segment und ein entsprechendes Spaltensegment einer vor­ herigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden vorherigen Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg­ ment und ein entsprechendes Spaltensegment einer nach­ folgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen (160) von Signalen, die eine erste Summe der Differenzen der Spaltensegment- und der Zeilensegment­ übergänge für die ersten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben,
Konfigurieren einer zweiten rechnerischen Pixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup­ pe von Pixelelementpositionen für das Paßbild, ein­ schließlich
Teilen einer jeden Pixelzeile der zweiten rechnerischen Pixelanordnung in mehrere Zeilensegmente, Berechnen eines mittleren Pixelintensitätswertes für je­ des dieser Zeilensegmente,
Teilen einer jeden Pixelspalte der zweiten rechnerischen Pixelanordnung in mehrere Spaltensegmente, Berechnen eines mittleren Pixelintensitätswertes für je­ des dieser Spaltensegmente,
Erzeugen (158) vorheriger Zeilenübergangssignale für je­ des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei­ lensegment und ein entsprechendes Zeilensegment einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent­ sprechenden vorherigen Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg­ ment und ein entsprechendes Zeilensegment einer nachfol­ genden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten­ segment und ein entsprechendes Spaltensegment in einer vorherigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden vorherigen Spaltenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg­ ment und ein entsprechendes Spaltensegment in einer nachfolgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen von Signalen, die eine zweite Summe der Spal­ tensegment- und der Zeilensegment-Übergangsdifferenzen für die zweiten rechnerischen Pixelanordnungen des Refe­ renz- und des Paßbildes angeben, und
Erzeugen (164) von Signalen, die als eine Passung dieje­ nige der rechnerischen Anordnungen des Paßbildes auswäh­ len, welche der niedrigsten der ersten und der zweiten Summen entspricht.
9. Verfahren nach Anspruch 8, gekennzeichnet durch Erzeugen von Signalen zum Einstellen der Position der Segmentmu­ stersignale in dem Schnittmuster zum Beseitigen jegli­ cher Versetzung zwischen der zentralen Pixelanordnungs­ position des Referenzbildes und der Position der rechne­ rischen Pixelanordnung des Paßbildes entsprechend der niedrigsten Summe der Absolutwerte.
10. Verfahren nach Anspruch 8 oder 9, gekennzeichnet durch Auswahl der Unschärfe-Pixelanordnungen mit einer Größe von 16 × 16 Pixeln.
11. Verfahren nach einem der Ansprüche 8 bis 10, gekenn­ zeichnet durch eine Intensitätswertskala mit relativen Werten von 0 bis 255.
12. Verfahren nach einem der Ansprüche 8 bis 11, gekenn­ zeichnet durch Mittelung jedes Zeilensegments mit Pixeln aus benachbarten Zeilensegmenten.
13. Verfahren nach Anspruch 12, gekennzeichnet durch Mitte­ lung eines jeden Spaltensegments mit Pixeln aus benach­ barten Spaltensegmenten.
14. Verfahren (166) nach Anspruch 1, gekennzeichnet durch Empfangen (168, 170) von Signalen entsprechend dem Stoffdesign bei einer Paßposition und einer Referenzpo­ sition aus dem Videosubsystem,
Erzeugen von Signalen entsprechend jeweils einem Bild geringer Auflösung für die Referenzpositions- und die Paßpositionssignale, mit folgenden Schritten:
Konfigurieren (176) einer unscharfen Pixelanordnung ent­ sprechend einer Untergruppe mehrerer Pixelelementposi­ tionen, die um ein vorgegebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe des Produkts des Pixelintensitätswertes eines jeden Pi­ xels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe,
Berechnen (172, 174) eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Erzeugen (177, 178) einer Nachbaranordnung von Signalen für jedes Referenz- und Paßbild-Pixelsignal, deren jedes Element der Differenz eines laufenden Pixelelements und mehrerer benachbarter Pixelelemente entspricht,
Konfigurieren (190) rechnerischer Nachbarpixelanordnun­ gen entsprechend einer ersten zentralen Untergruppe von Pixelelementpositionen jeweils für die Nachbarsignalan­ ordnungen des Referenz- und des Paßbildes geringer Auf­ lösung, einschließlich
Erzeugen von Signalen entsprechend einer Differenz zwi­ schen den einander entsprechenden Pixelelementen in den ersten rechnerischen Nachbarpixelanordnungen des Paß- und des Referenzbildes,
Erzeugen von Signalen, die eine Summe der ersten rechne­ rischen Nachbarpixelelementdifferenzen angeben,
Konfigurieren einer rechnerischen Nachbarpixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup­ pe der Nachbarpixelelementpositionen für das Paßbild,
Erzeugen von Signalen entsprechend einer Differenz zwi­ schen den einander entsprechenden Pixelelementen in der zweiten rechnerischen Nachbarpixelanordnung des Paß- und derjenigen des Referenzbildes,
Erzeugen von Signalen, die eine Summe der zweiten rech­ nerischen Nachbarpixelelementdifferenzen angeben, und Erzeugen (192) von Signalen, die als Passung diejenige rechnerische Nachbarpixelanordnung angeben, die der niedrigsten Summe entspricht.
15. Verfahren nach Anspruch 14, gekennzeichnet durch Erzeu­ gen von Signalen zum Einstellen der Position der Seg­ mentmustersignale in dem Schnittmuster zum Beseitigen jeglicher Versetzung zwischen der zentralen Pixelanord­ nungsposition des Referenzbildes und der Position der rechnerischen Pixelanordnung des Paßbildes entsprechend der niedrigsten Summe der Absolutwerte.
16. Verfahren nach Anspruch 14, gekennzeichnet durch Auswahl der unscharfen Pixelanordnungen mit einer Größe von 16 × 16 Pixeln.
DE19509884A 1994-03-17 1995-03-17 Verfahren zum Ausrichten von Zuschnittsegmenten Expired - Fee Related DE19509884C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/210,303 US5487011A (en) 1994-03-17 1994-03-17 Garment marker system having computer assisted alignment of variable contrast cloth designs

Publications (2)

Publication Number Publication Date
DE19509884A1 DE19509884A1 (de) 1995-09-21
DE19509884C2 true DE19509884C2 (de) 1998-01-29

Family

ID=22782366

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19509884A Expired - Fee Related DE19509884C2 (de) 1994-03-17 1995-03-17 Verfahren zum Ausrichten von Zuschnittsegmenten

Country Status (5)

Country Link
US (1) US5487011A (de)
JP (1) JP2561061B2 (de)
DE (1) DE19509884C2 (de)
FR (1) FR2717348B1 (de)
GB (1) GB2287786B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29812538U1 (de) 1998-07-14 1998-10-22 Hubert, Anton W., 41065 Mönchengladbach Schneidvorrichtung

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0664091B1 (de) * 1994-01-24 1998-12-16 Gerber Garment Technology, Inc. System und Verfahren zur automatischen Herstellung von Schnittbildern
HUT74049A (en) * 1994-04-23 1996-10-28 Stahl Method for treating of technical textile material and leather and apparatous thereof
FR2731595B1 (fr) * 1995-03-17 1997-06-06 Lectra Systemes Sa Procede pour la coupe automatique de pieces dans un tissu a motif
US6298275B1 (en) * 1995-03-23 2001-10-02 Gerber Garment Technology, Inc. Non-intrusive part identification system for parts cut from a sheet material
US5777880A (en) * 1996-02-21 1998-07-07 Albani Bayeux, Inc. Method and apparatus for correctively guiding a cutting device on a predetermined path along a sheet material
US6434444B2 (en) 1997-03-12 2002-08-13 Gerber Technology, Inc. Method and apparatus for transforming a part periphery to be cut from a patterned sheet material
GB2343399B (en) * 1997-03-28 2001-04-18 Preco Ind Inc Web or sheet-fed apparatus having high-speed positioning mechanism
US7640836B1 (en) 1997-03-28 2010-01-05 Preco Industries, Inc. Method for simultaneous x, y and θ registration of segment of continuous web with a processing station
IT1293481B1 (it) * 1997-06-03 1999-03-01 Balsira S A Procedimenti per il taglio di pelli e relativo prodotto intermedio
US5956525A (en) * 1997-08-11 1999-09-21 Minsky; Jacob Method of measuring body measurements for custom apparel manufacturing
US6173211B1 (en) 1998-04-15 2001-01-09 Gerber Technology, Inc. Apparatus and method for fabric printing of nested
US6856843B1 (en) * 1998-09-09 2005-02-15 Gerber Technology, Inc. Method and apparatus for displaying an image of a sheet material and cutting parts from the sheet material
US6178392B1 (en) 1998-09-22 2001-01-23 Intel Corporation Method for combining the computer models of two surfaces in 3-D space
GB2362596B (en) * 2000-05-26 2002-07-10 Gerber Technology Inc An apparatus and method for cutting a layup of sheet material
US6672585B2 (en) * 2000-06-02 2004-01-06 Fuji Photo Film Co., Ltd. Apparatus for stacking sheet members, apparatus for measuring dimensions of sheet members, and apparatus for and method of marking sheet members
US6314585B1 (en) * 2001-01-29 2001-11-13 Charles D. Mann Process of making image-displaying garments
US6807289B2 (en) 2001-08-10 2004-10-19 Gerber Technology, Inc. Method to compensate for pattern distortion on sheet-type work material spread onto a support surface
US6580962B2 (en) 2001-08-10 2003-06-17 Gerber Technology, Inc. Method for aligning a spatial array of pattern pieces comprising a marker method
WO2003027783A1 (de) * 2001-09-21 2003-04-03 Thomas Fuchs Verfahren zur bearbeitung von teilen sowie bearbeitungszentrum zur durchführung des verfahrens
US20040055691A1 (en) * 2002-06-26 2004-03-25 Plumley A. Bruce Method and apparatus for making a laminate
US7146049B2 (en) * 2003-02-28 2006-12-05 Hewlett-Packard Development Company, L.P. Making the apparent speed of elements imaged at different speeds approximately the same for image recognition
US7003370B2 (en) * 2003-09-23 2006-02-21 Gerber Scientific International, Inc. Method of symmetrically locating a pattern piece relative to work material having a variable repeat pattern
JP4738871B2 (ja) * 2005-04-12 2011-08-03 株式会社ミワックス 敷物製造方法及び敷物提供方法
TWI383277B (zh) * 2008-08-29 2013-01-21 Innovation Matrix Inc The working coordinate correction method of plane motor
JP2014109799A (ja) * 2012-11-30 2014-06-12 Seiren Co Ltd 柄模様位置検出方法
DE102015011013B4 (de) 2014-08-22 2023-05-04 Sigma Additive Solutions, Inc. Verfahren zur Überwachung von generativen Fertigungsprozessen
US10786948B2 (en) 2014-11-18 2020-09-29 Sigma Labs, Inc. Multi-sensor quality inference and control for additive manufacturing processes
WO2016115284A1 (en) 2015-01-13 2016-07-21 Sigma Labs, Inc. Material qualification system and methodology
CN104738861B (zh) * 2015-03-27 2017-03-22 上海和鹰机电科技股份有限公司 面料的排版与裁剪***
US10207489B2 (en) 2015-09-30 2019-02-19 Sigma Labs, Inc. Systems and methods for additive manufacturing operations
US10814668B2 (en) * 2016-11-08 2020-10-27 Jeffery James Jackson Kiosk and method for making puzzle tags
CN108230372B (zh) * 2017-11-30 2022-01-14 努比亚技术有限公司 一种图像处理方法、终端及计算机可读存储介质
CN114112592A (zh) * 2021-12-01 2022-03-01 苏州大学 一种利用纺织品试样剪裁机剪裁纺织品试样的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3495492A (en) * 1969-05-05 1970-02-17 Gerber Garment Technology Inc Apparatus for working on sheet material
US3548697A (en) * 1969-05-05 1970-12-22 Gerber Garment Technology Inc Apparatus for cutting sheet material
DE2729509B2 (de) * 1976-07-09 1979-09-06 Hughes Aircraft Co., Culver City, Calif. (V.St.A.) Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn
DE3544251A1 (de) * 1985-12-14 1987-06-19 Duerkopp System Technik Gmbh Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine
DE3831541A1 (de) * 1987-09-16 1989-03-30 Juki Kk Musterverarbeitungssystem
DE4100534C1 (de) * 1991-01-10 1992-01-23 Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4581762A (en) * 1984-01-19 1986-04-08 Itran Corporation Vision inspection system
US4853970A (en) * 1984-03-24 1989-08-01 Integrated Automation Apparatus for processing digitized images
ES8801003A1 (es) * 1986-04-02 1987-12-16 Investronica Sa Procedimiento de casado de piezas para corte automatico de tejidos con dibujo.
US4955062A (en) * 1986-12-10 1990-09-04 Canon Kabushiki Kaisha Pattern detecting method and apparatus
US5204913A (en) * 1987-09-16 1993-04-20 Juki Corporation Pattern processing system
JPH01250465A (ja) * 1988-03-31 1989-10-05 Juki Corp 自動裁断装置
US5020405A (en) * 1990-05-17 1991-06-04 Gerber Garment Technology, Inc. Apparatus with moveable pins for spreading and cutting layups of sheet material
US5333111A (en) * 1991-05-02 1994-07-26 Gerber Garment Technology, Inc. Garment cutting system having computer assisted pattern alignment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3495492A (en) * 1969-05-05 1970-02-17 Gerber Garment Technology Inc Apparatus for working on sheet material
US3548697A (en) * 1969-05-05 1970-12-22 Gerber Garment Technology Inc Apparatus for cutting sheet material
DE2729509B2 (de) * 1976-07-09 1979-09-06 Hughes Aircraft Co., Culver City, Calif. (V.St.A.) Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn
DE3544251A1 (de) * 1985-12-14 1987-06-19 Duerkopp System Technik Gmbh Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine
DE3831541A1 (de) * 1987-09-16 1989-03-30 Juki Kk Musterverarbeitungssystem
DE4100534C1 (de) * 1991-01-10 1992-01-23 Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29812538U1 (de) 1998-07-14 1998-10-22 Hubert, Anton W., 41065 Mönchengladbach Schneidvorrichtung

Also Published As

Publication number Publication date
FR2717348B1 (fr) 1997-10-24
GB9505165D0 (en) 1995-05-03
GB2287786B (en) 1998-05-13
GB2287786A (en) 1995-09-27
JPH081586A (ja) 1996-01-09
DE19509884A1 (de) 1995-09-21
US5487011A (en) 1996-01-23
JP2561061B2 (ja) 1996-12-04
FR2717348A1 (fr) 1995-09-22

Similar Documents

Publication Publication Date Title
DE19509884C2 (de) Verfahren zum Ausrichten von Zuschnittsegmenten
DE69024985T2 (de) Vorrichtung und Verfahren zur Farbenauswahl
DE102014205726B4 (de) Verfahren zum bestimmen von profildaten für ein kantenmerkmal in einem inspektionssystem mit maschineller bildverarbeitung
DE69826753T2 (de) Optischer Profilsensor
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE19724481C2 (de) Schablonenvergleichsverfahren
DE69027633T2 (de) Automatische Fahrzeugführung entlang Führungslinien
DE19825829C2 (de) Verfahren zur Bestimmung des Abstandes P einer Kante eines Strukturelementes auf einem Substrat
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE19525561C2 (de) 3D-Meßvorrichtung
DE4438278A1 (de) Automatisches optisches Prüfsystem insbesondere für Leiterplatten
DE2952443A1 (de) Verfahren und vorrichtung zum ermitteln der lage eines gegenstandes
DE19924077A1 (de) Bildregistrierungs-Verfahren, Bildregistrierungs-Vorrichtung und Aufzeichnungsmedium
DE3338765A1 (de) Verfahren zur perspektivischen darstellung von veraenderbaren gebilden
DE4142650A1 (de) Verfahren und anordnung zur ableitung eines steuersignals fuer die einblendung eines hintergrundsignals in teile eines vordergrundsignals
DE102006055758A1 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112012002533T5 (de) Tischbaugruppe und Steuerungsverfahren für eine Tischbaugruppe
DE102020126610A1 (de) Mikroskopiesystem und verfahren zum erzeugen von trainingsdaten
WO2003042920A1 (de) Verfahren und vorrichtung zum entzerren einer eingescannten abbildung
EP1022541A2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE102018123717B4 (de) Kalibriervorlage und Kalibrierverfahren zum geometrischen Kalibrieren einer Vielzahl von Kameras eines Kamera-Arrays
DE4331188A1 (de) Verfahren und Einrichtung zum Abtasten eines Bildträgers
DE10205562C1 (de) Verfahren und Vorrichtung zum Anzeigen eines Abbildes eines Flachmaterials und zum Ausschneiden von Teilen aus dem Flachmaterial
DE112021001440T5 (de) Dreidimensionales Messgerät, das aus einem von mehreren Kameras aufgenommenen Bild Positionsinformationen für eine Objektoberfläche erzeugt
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: GERBER TECHNOLOGY,INC., TOLLAND, CONN., US

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20111001