DE19509884C2 - Verfahren zum Ausrichten von Zuschnittsegmenten - Google Patents
Verfahren zum Ausrichten von ZuschnittsegmentenInfo
- Publication number
- DE19509884C2 DE19509884C2 DE19509884A DE19509884A DE19509884C2 DE 19509884 C2 DE19509884 C2 DE 19509884C2 DE 19509884 A DE19509884 A DE 19509884A DE 19509884 A DE19509884 A DE 19509884A DE 19509884 C2 DE19509884 C2 DE 19509884C2
- Authority
- DE
- Germany
- Prior art keywords
- pixel
- signals
- column
- line
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26D—CUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
- B26D5/00—Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
- B26D5/007—Control means comprising cameras, vision or image processing systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26D—CUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
- B26D5/00—Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26D—CUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
- B26D5/00—Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
- B26D5/005—Computer numerical control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26F—PERFORATING; PUNCHING; CUTTING-OUT; STAMPING-OUT; SEVERING BY MEANS OTHER THAN CUTTING
- B26F1/00—Perforating; Punching; Cutting-out; Stamping-out; Apparatus therefor
- B26F1/38—Cutting-out; Stamping-out
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/408—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
- G05B19/4083—Adapting programme, configuration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26D—CUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
- B26D5/00—Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
- B26D2005/002—Performing a pattern matching operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26D—CUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
- B26D7/00—Details of apparatus for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
- B26D7/01—Means for holding or positioning work
- B26D7/018—Holding the work by suction
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36503—Adapt program to real coordinates, software orientation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45196—Textile, embroidery, stitching machine
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Forests & Forestry (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
- Control Of Cutting Processes (AREA)
- Control Of Position Or Direction (AREA)
Description
Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des
Patentanspruchs 1 und liegt auf dem Gebiet der Schnittmuster
systeme für Kleidungsstücke, insbesondere Konfektionsschneid
systeme mit rechnergestützter Musterausrichtung von Stoffde
signs wie Streifen, Karos oder entworfene Muster, die einer
Videokamera unterschiedliche Kontraste bieten.
Zum Stand der Technik wird zunächst auf US-A-3 495 492 und
US-A-3 548 697 Bezug genommen.
Die rechnergestützte Schnittmustererzeugung sowie entspre
chende Schneidsysteme sind bereits bekannt. Hierzu gehören
die Modelle S-91, S-93 und S-95 der Firma Gerber Garment
Technology (GGT). Allgemein verwenden diese bekannten Systeme
ein mit einem Rechner generiertes Schnittmuster zur Optimie
rung der Zuschnittdichte und damit verbundenen Minimierung
des Abfalls an Stoff. Stoffe mit einem Karo- oder Streifenmu
ster verursachen jedoch Schwierigkeiten, weil der Modedesi
gner eine Ausrichtung des Musters in mehreren einander
benachbarten Stücken spezifizieren kann. Die größte Dichte
der Stoffsegmente oder -teile in dem Schnittmuster bei dessen
Auflage auf den Stoff ist daher nicht unbedingt diejenige,
die die richtige Musterausrichtung ermöglicht.
Bisher haben die rechnergestützten Schnittmustersysteme ein
fach ziemlich große Toleranzen zwischen benachbarten Teilen
generiert. Das zu schneidende Material wurde einer erfahrenen
Arbeitskraft übergeben, die die verschiedenen Teile manuell
auf das geometrische Stoffdesign ausrichtete und dann den
Stoff zuschnitt. Dadurch entstanden bei Tuchen mit geometri
schen Mustern wie Streifen oder Karos unvermeidbar höhere
Stoffkosten durch höheren Abfall und die Anwendung langsamer
Expertenarbeit beim Schneidprozeß.
Bei einem bekannten Zuschneidesystem für Stoffe mit Karo-
oder Streifenmuster erfolgt eine rechnergestützte Musteran
passung, die das manuelle oder automatische Anpassen eines
Schnittmusters an das Stoffmuster sowie auch zwischen einer
Folge von Stoffteilen ermöglicht. Dieses System arbeitet mit
Datenreduziertechniken zum Verkürzen der Prozeßzeit und ent
hält eine Einrichtung zum Optimieren der Bildstabilität, der
Scharfeinstellung und der Beleuchtung.
Bei dem Gegenstand der DE 41 00 534 C1 wird ein vorbestimmter
Bereich eines Schneidgutes mit einer Videokamera abgetastet,
und dabei werden zwei optisch signifikante Punkte eines Mu
sters erfaßt. Diese entsprechen in einer Steuerung gespei
cherten Punkten. Das System bestimmt den Unterschied der tat
sächlichen und der gewünschten Position der beiden Punkte
durch vektorielle oder Koordinatenversatzwerte, wodurch die
Position und die Orientierung der Punkte bestimmt werden kön
nen. Es sind zwei optisch signifikante Punkte in dem erfaßten
Muster erforderlich, so daß das System nicht auf vom Standard
abweichende Muster angewendet werden kann.
Die DE 35 44 251 A1 beschreibt ein Verfahren zum Erfassen von
Kreisflächen oder Rechteckflächen mit einer Videokamera und
zum Bestimmen, ob die Mitten dieser Flächen zu der Codierung
eines Standardmusters passen. Durch Berechnen des Abstandes
zwischen den Kreisflächen oder Rechteckflächen wird das Mu
ster als eines von mehreren Standardmustern identifiziert.
Ein Winkel zwischen einer Referenzachse und einer Linie, die
die Mitten verbindet, definiert die Position des Standardmu
sters bezogen auf die Horizontale. Mit einem Schneidwerkzeug
kann dann der dem Standardmuster entsprechende Teil abhängig
von seiner Position und dem Winkel geschnitten werden. Auch
dieses System kann nicht auf von einem Standard abweichende
Muster angewendet werden, die keine definierten Kreisflächen
oder Rechteckflächen haben.
Die DE 27 29 509 B2 beschreibt zum Generieren von Steuersi
gnalen für eine Zuschneidemaschine eine Korrelationseinheit,
die Autokorrelations- und Kreuzkorrelationsfunktionen von
Sensorsignalen erzeugt, welche ein Karomuster wiedergeben.
Daraus werden Daten abgeleitet, die die Querstreifen des Mu
sters angeben. Spitzen in der Autokorrelationsfunktion kenn
zeichnen das Wiederholungsintervall des Streifenmusters. Die
Kreuzkorrelationsfunktion dient zum Messen des Betrages der
Verzerrung des Karomusters, also der Verkantung über die
Breite des Materials.
Die DE 38 31 541 A1 beschreibt ein System, das das mit einer
Kamera aufgenommene Bild eines gestreiften Stoffes in einem
Speicher enthält, und der Neigungswinkel der Streifen wird
bestimmt, indem Bildpixelwerte längs mehrerer zueinander be
abstandeter Linien addiert werden. Abhängig von dem so be
stimmten Neigungswinkel wird eine Korrekturvorrichtung mit
einem Motor so bewegt, daß das gestreifte Tuch einen ge
wünschten Neigungswinkel und eine gewünschte Position erhält,
wodurch seine Position mechanisch korrigiert wird.
Die Aufgabe der Erfindung besteht darin, ein System für das
Einstellen der Schnittmuster bei dem Zuschneiden gemusterter
Stoffe anzugeben, das die Ausrichtung der Segmentanordnung
eines Schnittmusters auf das Stoffmuster unabhängig von einer
Fehlausrichtung des Stoffes selbst ermöglicht. Diese Ausrich
tung soll auch unabhängig von dem mit einer Kamera auswertba
ren Kontrast eines Stoffmusters möglich sein. Ferner soll
auch eine Kalibrierung der Koordinaten einer Stoffbahn in be
zug auf die entsprechenden Bildpixelsignale möglich sein.
Die Erfindung sieht zur Lösung dieser Aufgabe gemäß Patentan
spruch 1 ein Verfahren zum Ausrichten der Anordnung von Zu
schnittsegmenten an einer ausgewählten Stelle eines Schnitt
musters auf das geometrische Design einer Stoffbahn in einem
System mit einem beweglichen Videosubsystem vor, zu dem eine
Kamera mit einer Anordnung von Pixelelementen zur Aufnahme
von Licht aus einem Teil der Stoffbahn und zum Abgeben ent
sprechender elektrischer Signale gehört. Das Verfahren ent
hält die Schritte des Empfangs von Schnittmustersignalen ein
schließlich Segmentlagesignale und ein Referenzsignal ent
sprechend einer Referenzposition in dem Schnittmuster sowie
eine Ausrichtung der Kamerapixelelemente darauf vor. Bei dem
Verfahren werden von dem Kamera-Videosubsystem Signale ein
schließlich Signale entsprechend dem Stoffdesign empfangen,
die die anfängliche Stoffdesignausrichtung relativ zu der Re
ferenzposition des Schnittmusters angeben, und die Stoffdesign
signale werden in mehrere Winkelpositionen gedreht. Das
Verfahren vergleicht für jede Winkelposition die gedrehten
Stoffdesignsignale mit den pixelelement-Ausrichtsignalen und
erzeugt daraus Signale, die die entsprechende Stoffbahnaus
richtung angeben. Dann wird diejenige Winkelposition ausge
wählt, die die beste Ausrichtung der Kamerapixelelemente auf
das Stoffmuster ergeben, und es werden Signale zum Einstellen
der Position der Segmentlagesignale in dem Schnittmuster er
zeugt, um eine Verschiebung zwischen der anfänglichen Stoff
designausrichtung und der ausgewählten Winkelposition zu be
seitigen.
Vorteilhafte Weiterbildungen des Verfahrens sind in den Ansprüchen
2-6 beschrieben.
Die Erfindung wird im folgenden an Hand der Zeichnungen näher
erläutert. Darin zeigen:
Fig. 1 eine vereinfachte schematische Darstellung eines
Systems nach der Erfindung,
Fig. 2 eine vereinfachte schematische Darstellung eines
Teils einer fehlausgerichteten Stoffbahn auf einem
Tisch in dem System nach Fig. 1,
Fig. 3 eine schematische Darstellung eines Algorithmus in
dem System nach Fig. 1 zum Einstellen eines
Schnittmusters auf Fehlausrichtungen der Stoffbahn,
Fig. 4 eine vereinfachte schematische Zeichnung eines
Stoffmusterteils in Fehlausrichtung relativ zu Ka
merapixeln,
Fig. 5 eine vereinfachte schematische Darstellung einer
rechnerischen Drehung in dem System nach Fig. 1,
Fig. 6 eine vereinfachte schematische Darstellung des
Stoffmusterteils und der Kamerapixel nach Fig. 4
nach der rechnerischen Drehung,
Fig. 7 eine vereinfachte schematische Darstellung einer
Zeilensegmentverschiebung in dem System nach Fig.
1,
Fig. 8 eine schematische Darstellung eines Algorithmus in
dem System nach Fig. 1 zum Passen von Segmentanord
nungen und Stoffmustern mit hohem Kontrast,
Fig. 9 eine schematische Darstellung einer Gauss′schen Be
wertungsfunktion in dem System nach Fig. 1,
Fig. 10 eine vereinfachte Darstellung der relativen Verset
zung einer berechneten Pixelanordnung als Unter
gruppe eines Bildes,
Fig. 11 eine vereinfachte Darstellung eines Zeilensegments
von Bildpixeln mit benachbarten Pixeln für einen
Intensitäts-Mittelungsalgorithmus in dem System
nach Fig. 1,
Fig. 12 eine schematische Darstellung eines in dem System
nach Fig. 1 ausgeführten Algorithmus zum Passen von
Segmentanordnungen und Stoffmustern mit geringem
Kontrast,
Fig. 13 eine schematische Darstellung benachbarter Pixel
mit jeweiligen relativen Intensitätswerten in einem
Algorithmus in dem System nach Fig. 1 zum Berechnen
eines bewerteten Mittelwertes benachbarter Bildpi
xel,
Fig. 14 eine vereinfachte schematische Darstellung eines
Teils eines Videobildes in dem System nach Fig. 1
mit einem Kalibrierungsobjekt,
Fig. 15 eine schematische Darstellung eines Algorithmus in
dem System nach Fig. 1 zum Kalibrieren von Real
welt- in Video-Bildkoordinaten, und
Fig. 16 eine schematische Darstellung eines Teils der Pixe
lanordnung nach Fig. 13 mit Nachbar-Tabellenelemen
ten.
Im folgenden wird ein Ausführungsbeispiel der Erfindung unter
Anwendung der Einrichtung nach US-A-3 495 492 beschrieben.
Auf diese Anwendung ist die Erfindung jedoch nicht be
schränkt.
In Fig. 1 ist ein Schneidsystem 10 für Flachmaterial oder
Stoffe dargestellt, das einen Tisch 12 auf Beinen 14 hat. Der
Tisch 12 bildet einen behälterartigen Rahmen, der mehrere
Plastikblöcke 16 mit Borsten trägt, die ein durchdringbares
Bett 18 mit einer flachen Auflagefläche 20 bilden. Die durch
gehende ebene Auflagefläche 20, die mit den Oberseiten der
Blöcke 16 gebildet ist, trägt eine Lage 22 aus einer oder
mehreren Schichten von Flachmaterial wie z. B. Stoff, die ver
tikal gestapelt auf der Auflagefläche 20 liegen. Wie Fig. 6
und 7 zeigen, hat der Stoff ein periodisch eingewebtes geome
trisches Muster 21. Die gestapelte Lage 22 kann mit einem
dünnen Plastikfilm 24 beispielsweise aus Polyäthylen abge
deckt sein, der einen auf die Lage 22 einwirkenden Unterdruck
aufrecht erhält.
Ein Hauptwagen 26, der sich quer über den Tisch 12 erstreckt,
wird an dem Tisch mit zwei länglichen Schienen 28 gehalten,
die beiderseits des Tisches 12 in dessen Längsrichtung mon
tiert sind, so daß der Wagen 26 in Längsrichtung oder X-Rich
tung bewegt werden kann. Der Hauptwagen 26 hat eine nicht
dargestellte Antriebswelle, die gleichfalls quer zum Tisch
liegt und an ihren beiden Enden Ritzel hat, die in die Schie
nen 28 zum Bewegen des Wagens 26 in Längsrichtung dienen,
wenn ein Antriebsmotor 27 eingeschaltet ist, der mit der
Welle antriebsmäßig verbunden ist. Der Hauptwagen 26 trägt
einen Schneidkopfwagen 30, der in Y-Richtung an einer Füh
rungsschiene oder einem Rohr 34 und an einer Führungsspindel
36 bewegbar geführt ist, die gleichfalls quer zum Tisch 12
liegt und den Schneidkopfwagen 30 quer über den Tisch oder in
Y-Richtung trägt und führt, wenn ein weiterer Antriebsmotor
37 eingeschaltet ist, der mit der Führungsspindel 36 an
triebsmäßig verbunden ist.
Der Schneidkopfwagen 30 hat einen Schneidkopf 40, der relativ
zu ihm vertikal bewegt werden kann, so daß er gehoben und ab
gesenkt wird, um ein hin und her bewegbares Messer 44 und ei
ne zugehörige Andruckplatte aus einer normalen Schneidstel
lung in eine Stellung zu bringen, in der beide Teile völlig
außer Kontakt über der Lage 22 angeordnet sind. Wenn der
Schneidkopf 40 angehoben wird, befindet sich das untere Ende
des Messers 44 über der Lage 22, so daß der Schneidkopf 40
mit dem Messer 44 dann je nach Wunsch in jede voreingestellte
Position über der Lage 22 gebracht und dann zum Schneiden ab
gesenkt werden kann, so daß eine Schnittlinie an jeder ge
wünschten Position in dem Stoff begonnen werden kann. Das
Messer 44 wird vertikal mit einem nicht dargestellten Motor
im Schneidkopf 40 hin und her bewegt und außerdem um seine
eigene vertikale Achse gedreht, die auch als Theta-Achse be
zeichnet wird, wie in Fig. 1 gezeigt. Hierzu dient ein weite
rer nicht dargestellter Motor im Schneidkopf 40. Dem Fachmann
ist geläufig, daß andere Schneideinrichtungen wie Laser oder
Wasserstrahlschneider anstelle des Messers 44 verwendet wer
den können.
Der Schneidkopf 40 trägt auch einen Zeiger 48 und ein Video
subsystem mit einer Kamera 49. Der Zeiger 48 ist an einem
Stift schwenkbar befestigt, der von dem Schneidkopf 40 ab
steht, so daß er in die dargestellte Betriebsstellung vor dem
Messer 44 gebracht werden kann, um den Schneidkopf 40 und das
Messer 44 relativ zu einer gewünschten Position oder Index
marke auf der Lage 22 genau zu positionieren. Dann wird der
Zeiger 48 aufwärts in eine Ruhestellung gebracht, nachdem der
Schneidkopf 40 positioniert wurde. Andere Zeiger als der in
Fig. 1 dargestellte, beispielsweise ein Laser, können zur ge
nauen Positionierung des Messers 44 auf einen bestimmten
Punkt der Lage 22 vorgesehen sein.
Der Tisch 12 hat Kanäle 50, die mit einer Vakuumpumpe 52 ver
bunden sind. Die Plastikabdeckung 24 auf der Lage 22 dient
dazu, den durch die Tischoberfläche oder das Bett 18 aus po
rösen oder vertikal belüfteten Plastikblöcken 16 einwirkenden
Unterdruck zu halten, wodurch die Lage 22 als fester Stapel
komprimiert wird, der beim Schneiden nicht verschoben wird.
In der Zeichnung ist nur ein Tischsegment mit dem Unterdruck
system schematisch zur leichteren Übersicht dargestellt. Je
des Tischsegment hat ein separates Unterdruckventil, das
durch den Hauptwagen 26 betätigt wird, wenn er sich über die
sem Segment befindet. Unterdruck wird daher nur auf den Be
reich unter dem Hauptwagen 26 ausgeübt, um das jeweils ge
schnittene Material festzuhalten. Dies erlaubt ein leichtes
Entfernen der geschnittenen Teile und ermöglicht den prakti
schen Einsatz des Unterdrucks aus einer einzelnen Quelle.
Wenn mehr als eine gemusterte Stoffschicht zu schneiden ist,
so kann auch ein Schneidetisch mit einem System aus Stiften
günstig sein, der das Auslegen des Stoffes mit übereinstim
mender Musterorientierung der aufeinanderliegenden Schichten
erleichtert. Alternativ kann der Stoff entsprechend dem De
sign ausgelegt werden, bevor der Stapel auf den Tisch aufge
legt wird.
Das Schneidsystem 10 hat eine Steuerung 51 die über Leitun
gen 54 Signale ausgibt und empfängtund sie entsprechend im
folgenden zu beschreibenden Algorithmen verarbeitet. Die
Steuerung enthält ein Sichtgerät 56 bekannter Art sowie eine
normale Tastatur 58. Sie enthält ferner einen Personalcompu
ter mit ausreichender Speicherkapazität und anderer periphe
rer Hardware, um die noch zu beschreibenden Funktionen auszu
führen. Es kann auch eine Bildverarbeitungsschaltung (video
frame grabber)
vorgesehen sein.
Bekanntlich besteht ein Schnittmuster aus mehreren benachbar
ten Segmenten oder Zuschnittsteilen, die möglichst nahe bei
einander liegen sollen, um den Stoffabfall minimal zu halten.
Das hier beschriebene System verwendet eine rechnererzeugte
Datei, die in der Steuerung als ein Schnittmuster enthalten
ist. Sehr sorgfältig muß mit einem karierten oder anderen
Stoffmaterial mit sich wiederholendem Muster vorgegangen wer
den, um dieses Muster so zu positionieren, daß die Stoffseg
mente die gewünschte Ausrichtung haben, wenn sie miteinander
vernäht werden. Das Schnittmuster enthält also nicht nur In
formationen über die Form der Stoffsegmente, sondern auch Da
ten über das Stoffdesign und die gewünschte Beziehung zwi
schen den einzelnen Stoffsegmenten. Diese Korrelationsinfor
mation hat die Form von Paß- und Referenzpunkten, die typisch
im Inneren der Zuschnittsteile liegen, wo ein bestimmter
Punkt des Stoffdesigns liegen soll.
Das Ergebnis der Stoffherstellungsparameter wie ungenaue Ab
messungsunterschiede in der Musterwiederholung sowie die Ef
fekte des Biegens und Verkantens durch schlechte Steuerung
während der Stoffendbearbeitungen zwingen den Schnittmuster
erzeuger, relativ große Pufferzonen um die einzelnen Muster
stückanordnungen vorzusehen, die eine Anpassung erfordern.
Oft ist dies die halbe Designwiederholungslänge. In dieser
Beschreibung ist "Passung" definiert als die Ausrichtung des
sich wiederholenden Stoffdesigns von einem Segment zu einem
entsprechenden Segment, d. h. das Schulterteil eines Mantels
in Passung zum Vorderteil an einer bestimmten Stelle. Die
Größe der Pufferzone oder der zulässigen Stoffbreite, um ein
Segment in Passung mit seinem Nachbarsegment zu bringen, ist
ein aus der Wiederholung des Stoffdesigns und der Stoffquali
tät abgeleiteter Faktors.
Es muß genug zusätzlicher Stoff vorhanden sein, damit das Sy
stem oder die Bedienungsperson das Zuschnittsteil in eine an
dere Position bringen kann, die von derjenigen abweicht, die
anfangs von dem Schnittmustererzeuger im CAD-System gewählt
wurde. Ein automatisches System muß den Versetzungsbetrag be
rechnen, der zum richtigen Ausrichten des Schnittmusters auf
das aktuelle Stoffmuster erforderlich ist. Ferner muß manch
mal das Schnittmuster oder ein oder mehrere Teile davon mit
dem Stoff ausgerichtet werden, weil die Stoffbahn dem Schnei
detisch unter einem kleinen Winkel zugeführt wurde oder in
dem Stoff Fehler vorhanden sind. Das hier beschriebene System
kann diese Aufgaben lösen, wie im folgenden beschrieben wird.
In Fig. 2, ist vereinfacht ein Teil einer verkanteten Stoff
bahn 60 auf dem Schneidetisch des hier beschriebenen Systems
dargestellt. Der Betrag 62 der Fehlausrichtung ist im Ver
gleich zu einem Referenzkoordinatensystem 64 übertrieben dar
gestellt. Es ist wichtig, anfangs das Vorhandensein und den
Betrag jeder Fehlausrichtung der Stoffbahn 60 zu bestimmen,
weil die Passung des Stoffmusters 66 zum Schnittmuster insge
samt beeinträchtigt wird. Das hier beschriebene System prüft
jegliche Fehlausrichtung und erzeugt eine entsprechende Kor
rektur, wie es an Hand der Fig. 3 bis 6 beschrieben wird.
Theoretisch enthält das Videobild eines Stoffdesigns oder -
musters eine Zeile (oder Spalte) von Bildpixeln übereinstim
mender Intensität, so daß Intensitätsänderungen in Richtung
des Stoffmusters oder auf der Stofffläche minimal sind. Wenn
das Stoffmuster aber verkantet ist, kreuzt die Pixelzeile 76
das Stoffmuster 74, wie in Fig. 4 gezeigt, wodurch eine star
ke Variation der Pixelintensitäten untereinander sowie rela
tiv zu einem Mittelwert auftritt. Ein Zeilenverkantungsindex
gibt den Grad der Übereinstimmung zwischen einem mittleren
Pixelintensitätswert und jedem einzelnen Pixel in einer Zeile
an.
Fig. 3 stellt einen Algorithmus 68 dar, der bei der Ausrich
tung der Stoffbahn angewendet wird. Nachdem die Referenzkoor
dinaten definiert sind (Block 70), wird ein Videobild bei
Block 72 aufgenommen, das zu dem anzupassenden Stoffstück
zentriert ist. Wie Fig. 4 zeigt, ist das Stoffmuster 74 zu
nächst gegenüber einer Pixelzeile 76 der Systemkamera verkan
tet. Hierbei wird vorausgesetzt, daß die Kamera anfangs ent
sprechend den Referenzkoordinaten ausgerichtet wurde.
Das Videobild wird rechnerisch über einen Winkelbereich ge
dreht (Block 78). Die Erfindung sieht keine Drehung der Kame
ra vor, weil dies zusätzlichen Schaltungs- und Programmauf
wand erfordern würde, dessen kumulativer Effekt die Gesamt
leistung des Systems bzw. dessen Arbeitsgeschwindigkeit her
absetzen würde. Das Videobild wird statt dessen rechnerisch
gedreht, wie im folgenden beschrieben wird. Bei dem Ausfüh
rungsbeispiel wird das Videobild zwischen -20 und +20 Grad in
Schritten von jeweils 1 Grad gedreht. Der Effekt der rechne
rischen Drehung ist in Fig. 5 zu erkennen, wo die Pixelzeile
in Positionen 80 bis 86 dargestellt ist. Der Verkantungsindex
des Videobildes wird für jede Position berechnet (Block 88).
Unter den einundvierzig Positionen ist diejenige Position der
besten horizontalen Ausrichtung zuzuordnen, die zu dem klein
sten Verkantungsindex führt. Fig. 6 zeigt schematisch, daß
der kleinste Verkantungsindex auftreten wird, wenn die Pixel
zeile um den Betrag "gedreht" wird, der zum Ausrichten des
Designs auf die Pixelzeile erforderlich ist, wodurch dann
jegliche Fehlausrichtung beseitigt ist (Block 90).
Die folgenden Schritte dienen der Berechnung des Verkantungs
index für das Videobild. Dieser Index ist anfangs auf Null
gesetzt. Für jede Pixelzeile wird zunächst der mittlere Rot-,
Grün- und Blauintensitätswert berechnet. Für jedes Pixel in
der Zeile ergibt sich eine Differenz zwischen dem mittleren
Rotintensitätswert und dem laufenden Rotintensitätswert, die
dann summiert wird. Dieser Prozeß wird für die grünen und die
blauen Pixel wiederholt. Alle Summen werden addiert, um den
Verkantungsindex zu berechnen. In dem vorzugsweisen Ausfüh
rungsbeispiel wird ein Farbbild verarbeitet. Dem Fachmann ist
jedoch geläufig, daß die im folgenden beschriebene Technik
auch leicht auf Schwarz-Weiß- oder auf Grauskalenbilder ange
wendet werden kann.
Die rechnerische Drehung eines gerasterten Videobildes er
folgt durch Verschieben von Zeilensegmenten variabler Größe
nach rechts oder aufwärts oder abwärts, wie es in Fig. 7 ge
zeigt ist. Das Zeilensegment 92 besteht aus Pixeln 94 bis
104. In der Figur ist das Zeilensegment 106 ein Abbild des
Zeilensegments 92 nach einer rechnerischen Drehung im Gegen
uhrzeigersinn. Die Videopixel werden also abwärts und nach
rechts verschoben. Eine Drehung im Uhrzeigersinn entspricht
einem Schieben aufwärts und nach links. Die Länge des Zeilen
segments ist so gewählt, daß sie dem Kotangens des Positions
winkels entspricht. Der Fachmann wird erkennen, daß die Dre
hung des Zeilensegments einer vorgegebenen Zeile direkt zu
der nachfolgenden Position benachbarter Zeilensegmente führt.
Ferner wird in diesem Prozeß bei dem hier beschriebenen Aus
führungsbeispiel eine Untergruppe von Pixeln des Bildes be
nutzt. Nach Berechnen des Betrages der erforderlichen Drehung
für minimalen Verkantungsindex stellt das System die Anord
nung der Segmente in dem Schnittmuster so ein, daß sich der
minimale Verkantungsindex ergibt (Block 108).
Wie vorstehend beschrieben, muß beim Schneiden von Stoffen
manchmal ein Punkt eines Stoff- oder Polsterstoffsegments mit
einem entsprechenden Punkt eines oder mehrerer weiterer Stüc
ke in Übereinstimmung gebracht werden. Die Ungleichmäßigkeit
des Materials verhindert die Voraussage der exakten Position
einander entsprechender Punkte. Wenn eine Videokamera ein
Bild an einem Referenzpunkt des Stoffes und dann ein weiteres
Bild über dem ungefähren Paßpunkt aufnimmt, können die beiden
Bilder überlagert und eine Versetzung berechnet werden. Oft
sind Wiederholungen von Stoffmustern nur durch Farblinien de
finiert, deren Intensität sich ändert und die nur einen klei
nen Anteil des Bildes ausmachen. Diese Linien können von dem
System bei dem Ausrichten nicht erkannt werden, wenn sie
nicht hervorgehoben sind.
Das hier beschriebene System enthält eine Videoeinrichtung
zum Ausführen eines Algorithmus zur Ausrichtung von Bildern
mäßigen oder starken Kontrastes. Fig. 8 zeigt schematisch ei
nen Algorithmus 110 zum Verbessern der Passung bei Stoffmu
stern starken Kontrastes. Videobilder, die jeweils auf den
Referenzpunkt und den ungefähren Paßpunkt zentriert sind,
wenn das Stoffmaterial völlig gleichmäßig wäre, werden bei
Block 112 und 114 aufgenommen. Ein Referenz- und ein Paßbild
geringer Auflösung werden bei Block 116 und 118 aufgenommen,
indem die Originalbilder mit einer Unschärfe versehen werden
(Block 120), und die Ergebnisse werden gespeichert. Der Un
schärfeprozeß dient zur Verbesserung der groben Merkmalsüber
gänge, die beim Verarbeiten der digitalen Kamerasignale auf
treten, und zum Verringern der zu verarbeitenden Datenmenge.
Der einem jeden Pixel geringer Auflösung zukommende aktuelle
Wert ist das Ergebnis einer Gauss′schen Unschärfefunktion,
die auf einen 16 × 16-Pixelblock des Originalbilde,s angewendet
wird. Diese 16 × 16-Pixelblöcke überlappen einander in den vier
oberen und unteren Zeilen und den vier linken und rechten
Spalten. Bei der Anwendung der Gauss′schen Unschärfefunktion
wird auch eine Bewertungsfunktion angewendet, die zu der Zu
ordnung einer Bewertung für jedes Pixel in einer rechneri
schen Pixelanordnung führt. Fig. 9 zeigt ein vereinfachtes
Teildiagramm einer rechnerischen Pixelanordnung 122. Den Ele
menten dieser Anordnung wird ein numerischer Wert zugeordnet,
wobei die mittleren vier Pixel 124 den 16-fachen Wert der
Eckenelemente, beispielsweise des Eckenelements 126, haben.
Bei dem hier beschriebenen Ausführungsbeispiel entspricht je
des Pixel in dem Bild geringer Auflösung einem 8 × 8-Pixelblock
im Originalbild. Im Ausführungsbeispiel ist jede rechnerische
Anordnung um acht Pixel versetzt. Fig. 10 stellt das Verfah
ren dar, bei dem eine rechnerische Anordnung 128 über die
Bildanordnung 130 bewegt wird.
Wie Fig. 8 zeigt, wird der minimale und der maximale Intensi
tätswert für Rot, Grün und Blau bei dem Referenzbild geringer
Auflösung (Blöcke 132, 134) und bei dem Paßbild (Blöcke 136,
138) berechnet. Danach ergibt sich bei Block 140 der Bereich
der Werte für Rot, Grün und Blau in den Bildern geringer Auf
lösung. Beispielsweise ist der Rotbereich die Differenz zwi
schen dem maximalen und dem minimalen Rotwert. Bei Block 142
werden Skalierfaktoren für Rot, Grün und Blau berechnet. Der
Rotwert ist dann gleich dem möglichen Maximalwert, geteilt
durch den Rotbereich. Nimmt man an, daß der Rotbereich einen
Wert von 60 hat und der mögliche Maximalwert 255 ist, so ist
der Rotskalenwert 255/60 = 4,25. Für die anderen Farben wer
den diese Werte gleichartig berechnet.
Alle Pixelwerte werden für das Referenzbild (Block 144) und
das Paßbild (Block 146, 148) geringer Auflösung skaliert. Für
die roten Pixel wird der Rotminimalwert von dem Rotwert eines
jeden Pixels subtrahiert. Das Ergebnis wird mit dem Rotska
lenwert multipliziert. Bei einem beispielsweisen Rotskalen
wert von 4,25, einem Rotminimalwert von 32 und einem Rotori
ginalwert von 52 ist der skalierte Rotwert für dieses Pixel
(52-32) × 4,25 = 85. Auch hier wird diese Berechnung für
die Pixelsignale der anderen Farben gleichfalls durchgeführt.
Die zentralen Bereiche des Referenzbildes und des Paßbildes
geringer Auflösung werden so ausgewählt, daß sie rechnerische
Pixelanordnungen in oben beschriebener Weise sind (Block
149). Bei dem hier beschriebenen Ausführungsbeispiel wird der
Zentralbereich so gewählt, daß er die halbe Breite und Höhe
der Bilder geringer Auflösung hat. Der Ursprung dieser Berei
che ist gegeben durch X = Bildbreite/4, Y = Bildhöhe/4.
Alle Zeilen in diesem Bereich werden bei Block 150 in zwei
oder mehr teilweise überlappende Zeilensegmente geteilt. Wie
in Fig. 11 schematisch gezeigt, liegt das Zeilensegment 152
benachbart zu Pixeln zweier weiterer Zeilensegmente 154, 156.
Die Pixel in dem laufenden Zeilensegment werden mit 1 bewer
tet, während die Pixel in den benachbarten Zeilensegmenten
mit 0,5 bewertet werden. Die Pixelintensitätswerte werden mit
diesem jeweiligen Wert multipliziert, bevor ein mittlerer In
tensitätswert berechnet wird. In diesem Ausführungsbeispiel
gehen das vordere und das hintere Zeilensegment jeweils mit
vier Pixeln einer Bewertung von 0,5 in die Rechnung ein, so
daß acht Pixel mit einer Bewertung von 0,5 und acht Pixel mit
einer Bewertung von 1 vorliegen. Dieses Bewertungs- und Mit
telungsverfahren gleicht die Effekte von Übergängen in den
Pixelbildsignalen aus.
Für alle Zeilensegmente in dem Bereich wird der mittlere In
tensitätswert für Rot, Grün und Blau wie oben beschrieben be
rechnet (Block 157). Danach werden alle Spalten in diesem Be
reich in zwei oder mehr teilweise überlappende Spaltensegmen
te geteilt, und es wird der mittlere Intensitätswert für alle
Spaltensegmente in dem Bereich für Rot, Grün und Blau berech
net. Dies wird in gleicher Weise für den gewählten Bereich
des Paßbildes geringer Auflösung durchgeführt. Dieser Bereich
hat gleichfalls die halbe Breite und Höhe des entsprechenden
Bereiches im Bild geringer Auflösung mit einem Ursprung an
einer Stelle, die definiert ist durch XO = O, YO = O, X1 =
Bildbreite/4, Y1 = Bildhöhe/4. Alle Zeilen in diesem Bereich
werden in zwei oder mehr teilweise überlappende Zeilensegmen
te geteilt, und es wird der mittlere Wert für alle Zeilenseg
mente des Bereichs für Rot, Grün und Blau berechnet. Das Ver
fahren ist für die überlappenden Spaltensegmente identisch.
Das hier beschriebene System entfernt den Effekt von Intensi
tätsvariationen zwischen dem Paßbild und dem Referenzbild,
indem zuerst die mittleren Intensitätsdifferenzen für benach
barte Zeilen- und Spaltensegmente berechnet und diese dann
mit entsprechenden Differenzen des Paßbildes verglichen wer
den. Für eine gegebene Zeile in einem Referenzbereich gibt es
mindestens zwei Zeilensegmente mit einer in oben beschriebe
ner Weise berechneten Intensität. Das hier beschriebene Sy
stem vergleicht die mittlere Intensität für ein gegebenes
Zeilensegment mit einer mittleren Intensität eines Zeilenseg
ments in einer vorherigen Zeile. Die Differenz wird mit einer
entsprechenden Differenz in dem Paßbereich verglichen. Für
dasselbe gegebene Zeilensegment wird die mittlere Intensität
auch mit einer mittleren Intensität eines Zeilensegments in
einer nachfolgenden Zeile verglichen und die Differenz mit
einer entsprechenden Differenz im Paßbereich verglichen. Die
ser Prozeß wird auch für die Spaltensegmente durchgeführt
(Block 158). Die Absolutwerte aller Differenzen werden sum
miert (Block 160).
Ein neuer Ursprung für einen neuen Paßbereich und Referenz
bildbereich wird gewählt und der vorstehende Prozeß für alle
möglichen Ursprünge in den Bereichen wiederholt. Die summier
ten Absolutwerte werden verglichen (Block 162) , um zu bestim
men, welche Position der rechnerischen Anordnung (durch ihren
jeweiligen Ursprung bezeichnet) die beste Passung zu dem Re
ferenzbild bringt. Dann wird die Versetzung des Paßbildes zum
Referenzbild bestimmt (Block 164) und beseitigt, um die rich
tige Ausrichtung zwischen Stoffmuster- und Schnittmusterseg
menten zu erreichen.
Fig. 12 zeigt schematisch einen Algorithmus 166, der mit die
sem System zur Videobildausrichtung auf Bilder mit mäßigem
bis schwachem Kontrast bei ungleichmäßiger Beleuchtung durch
geführt wird. Bei Block 168 wird ein Videobild auf den Refe
renzpunkt zentriert aufgenommen. Ein entsprechendes Videobild
über dem Punkt, der bei völlig gleichmäßigem Stoff der Paß
punkt wäre, wird bei Block 170 aufgenommen.
In vorstehend beschriebener Weise werden ein Referenzbild und
ein Paßbild geringer Auflösung erzeugt (Blöcke 172, 174), in
dem die Originalbilder "verwischt" werden, und die Ergebnisse
werden gespeichert (Block 176). Mit diesem System entspricht
jedes Pixel in dem Bild geringer Auflösung einem 8 × 8-Pixel
block des Originalbildes. Der aktuelle Wert in jedem Pixel
geringer Auflösung ist das Ergebnis der Gauss′schen Unschär
fefunktion, die auf einen 16 × 16-Pixelblock des Originalbildes
angewendet wird. Hier überlappen sich wieder die 16 × 16-Pixel
blöcke in den vier oberen und unteren Zeilen und in den vier
linken und rechten Spalten.
Bei vielen Anwendungen haben die von der Kamera aufgenommenen
Bilder unterschiedliche Lichtintensitäten. Ein einfacher In
tensitätsvergleich ist ungünstig, weil die Ergebnisse durch
jede Intensitätsänderung zwischen Paß- und Referenzbild ver
schlechtert werden. Das hier beschriebene System erzeugt eine
Tabelle aus Signalen, die für beide Bilder geringer Auflösung
als eine "Nachbartabelle" bezeichnet wird (Blöcke 177, 178),
und speichert die erhaltenen Signale im Systemspeicher. Der
Zweck der Nachbartabellenanalyse besteht darin, den Effekt
dieser Intensitätsänderungen durch Vergleiche von Intensi
tätsübergängen zu beseitigen.
Eine Nachbartabelle ist eine zweidimensionale Matrix, die aus
vier oder mehr Eingaben pro Pixel geringer Auflösung besteht.
Jede Eingabe entspricht der Differenz der Werte eines Pixels
und des benachbarten Pixels. Bei diesem Ausführungsbeispiel
werden acht Nachbarpixel in einer Nachbartabelle gespeichert.
Allgemein sind diese Nachbarpixel des Pixels (X, Y) die fol
genden:
PIXEL (X + 1, Y)
PIXEL (X + 1, Y + 1)
PIXEL (X, Y + 1)
PIXEL (X - 1, Y + 1)
PIXEL (X - 1, Y)
PIXEL (X - 1, Y - 1)
PIXEL (X, Y - 1)
PIXEL (X + 1, Y - 1)
PIXEL (X + 1, Y + 1)
PIXEL (X, Y + 1)
PIXEL (X - 1, Y + 1)
PIXEL (X - 1, Y)
PIXEL (X - 1, Y - 1)
PIXEL (X, Y - 1)
PIXEL (X + 1, Y - 1)
Fig. 13 zeigt schematisch die Nachbartabellenberechnung. Ein
Teil einer Pixelanordnung 180 ist mit der jeweiligen Pixelin
tensität dargestellt. Das Pixel 182 hat die Intensität 40.
Zum Berechnen der Nachbartabelle wird dieser Intensitätswert
mit den acht umgebenden Pixeln verglichen, die in dem Kasten
184 liegen, um die Gesamtdifferenz zu erhalten. Der Vergleich
des Pixels 182 mit dem Pixel 186 ergibt 28, mit dem Pixel 188
ergibt er -10 usw. Jede Nachbartabelle hat für dieses Aus
führungsbeispiel acht Eingaben für jedes Pixel, was zu einer
dreidimensionalen Anordnung mit der achtfachen Größe der Ori
ginalsignalanordnungen führt. Dieses Konzept ist schematisch
in Fig. 16 dargestellt. Diese zeigt einen Teil 234 der Pixe
lanordnung nach Fig. 18 mit Nachbartabellenelementen 236 für
das Pixel 182.
Ein zentraler Bereich des Referenzbildes geringer Auflösung
wird dann gewählt, um eine rechnerische Pixelanordnung zu
bilden. Dieser Bereich hat die halbe Breite und Höhe des Bil
des geringer Auflösung. Der Ursprung des Bereichs ist gegeben
durch X = Bildbreite/4, Y = Bildhöhe/4. Ein entsprechender
Bereich des Paßbildes geringer Auflösung wird gewählt, um
nochmals eine rechnerische Pixelanordnung zu bilden. Dieser
Bereich hat gleichfalls die halbe Breite und Höhe des ent
sprechenden Bildes geringer Auflösung. Der Ursprung dieses
Bereichs ist ein Punkt, der definiert ist durch XO = O, YO =
O, X1 = Bildbreite/4, Y1 = Bildhöhe/4.
Ähnlich wie vorstehend bereits beschrieben wird ein zentraler
Bereich der Nachbartabelle des Referenzbildes (ICENTER) auf
die ähnlichste Position in der Nachbartabelle (J) des Paßbil
des ausgerichtet. In diesem Ausführungsbeispiel erfolgt dies
durch Berechnen (Block 190) eines Fehlerwertes für alle mög
lichen XY-Positionen, wenn der Zentralbereich der Nachbarta
belle des Referenzbildes mit der Nachbartabelle des Paßbildes
verglichen wird. Der Fehlerwert wird berechnet durch Summie
ren der Differenz einer jeden Eingabe des Zentralbereichs der
Nachbartabelle des Referenzbildes und der entsprechenden Ein
gabe der Nachbartabelle des Paßbildes. Ein neuer Ursprung für
jeden Paß- und Referenzbildbereich wird gewählt, und der vor
stehende Prozeß wird für alle möglichen Ursprungspunkte in
den Bereichen wiederholt. Die möglichen Ursprungspunkte
schließen natürlich nur solche Punkte ein, die eine vollstän
dige rechnerische Anordnung ergeben, da Pixel außerhalb des
Bildes nicht verfügbar sind. Bei einer guten Passung führen
die Nachbarpositionen zu einem Fehlerwert, der kleiner als
für Positionen ist, die um mehr als ein Pixel von der Paßpo
sition versetzt sind. Die Position, die den kleinsten Fehler
ergibt, wird als Paßpunkt bei geringer Auflösung festgesetzt.
Danach wird das Schnittmuster so ausgerichtet, daß jegliche
Versetzung beseitigt ist (Block 192).
Allgemein müssen die in einem rechnergestützten Videosystem
benutzten Bilder bei Bewegungssteuerungen auf Realweltkoordi
naten kalibriert werden. Dies erfolgt durch Anordnen eines
Objekts bekannter Größe im Gesichtsfeld der Kamera, Berechnen
der Pixelzeile für die Objektbreite und der Pixelspalte für
die Objekthöhe und Berechnen der, Realgröße eines einzelnen
Pixels. Dies ist ein langsamer und schwieriger manueller Pro
zeß. Vorzugsweise wird er automatisch durchgeführt.
In dem hier beschriebenen System ist das Kameraobjektiv etwa
25 cm über der Tischoberfläche angeordnet. Die Stofflage kann
dann abhängig von der Zahl der Schichten und der Stoffart ei
ne Dicke haben, die im Bereich von 2,5 cm variiert. Die Kame
rapixelkoordinaten müssen nicht auf diejenigen des aktuellen
Stoffes kalibriert werden, weil diese Variation des Abstandes
zwischen Kameraobjektiv und Stoff möglich ist. Das System
enthält auch eine Einrichtung zum Ausführen eines Algorithmus
zum automatischen, effizienten und genauen Kalibrieren des
Videobildes auf Realweltkoordinaten. Zunächst muß ein Objekt
bekannter Größe ausgewählt werden. Wegen der Unempfindlich
keit gegen Drehung oder Verkantung dient hierzu vorzugsweise
ein Kreis. Fig. 14 zeigt vereinfacht ein Kamerabild 194.
Darin ist ein Kalibrierkreis 196 zu erkennen, der sich auf
der obersten Stoffbahn einer Lage befindet, die vertikale und
horizontale Musterlinien 198, 200 hat. Fig. 15 zeigt schema
tisch einen Algorithmus 202, der zum Kalibrieren des Video
bildes auf Realweltkoordinaten dient.
Zunächst lokalisiert die Bedienungsperson eine geometrische
Marke auf dem Stoff und führt eine Passung hoher Auflösung
aus, wie sie in den eingangs genannten US-Patentschriften be
schrieben ist. Vorzugsweise soll die Suche nach dem Kali
brierobjekt im Gesichtsfeld der Kamera minimiert werden,
nachdem es dort lokalisiert wurde (Block 204). Das Kalibrier
objekt wird also so plaziert, daß die Gesichtsfeldmitte ir
gendwo innerhalb des Kalibrierkreises liegt. Bei der Suche
nach der Objektmitte 206 (Block 208, Fig. 15) und Auswahl des
Bildmittelpunktes 210 als Startpunkt für die Suche wird die
Möglichkeit der Auswahl des falschen Kalibrierobjekts, wenn
das Bild weitere Merkmale enthält, minimiert.
Bei Start in dem Bildmittelpunkt sucht das System nach links
und nach rechts nach Punkten, an denen eine Pixelzeile die
Außenkanten 212, 214 des Kalibrierkreises schneidet (Blöcke
216, 218, Fig. 15). Wiederum ausgehend von dem Bildmittel
punkt sucht das System aufwärts und abwärts nach Punkten 220,
222, an denen eine Pixelspalte die Außenkante des Kalibrier
kreises schneidet. Die exakte Mitte des Kalibrierkreises er
gibt sich dann mit X = Mittelpunkt der linken und rechten X-
Koordinaten der Punkte 212, 214. Die vertikale Koordinate ist
Y = Mittelpunkt zwischen oberer und unterer Y-Koordinate der
Punkte 220, 222.
Zusätzlich zu der Lokalisierung der Kreismitte kann auch die
Breite und die Höhe des Kalibrierkreises gefunden werden
(Block 224). Ausgehend von dem genauen Mittelpunkt des Kali
brierkreises sucht das System links und rechts nach den Punk
ten 226, 228, an denen diese Pixelzeile den Außenrand des Ka
librierkreises schneidet. Wiederum ausgehend von dem genauen
Mittelpunkt des Kalibrierkreises sucht das System aufwärts
und abwärts nach den Punkten 230, 232, an denen diese Pixels
palte den Außenrand des Kalibrierkreises schneidet. Die Größe
des Kalibrierkreises ergibt sich mit Breite = Abstand zwi
schen den Koordinaten der Punkte 226, 228, Höhe = Abstand der
Punkte 230, 232.
Claims (16)
1. Verfahren (68) zum Ausrichten der Anordnung (66) von Zu
schnittsegmenten an einer ausgewählten Position in einem
Schnittmuster auf das geometrische Design einer Stoff
bahn (60) auf einer Auflagefläche (20) eines Tisches
(12) in einem System mit einem beweglichen Videosubsy
stem mit Kamera, die eine Anordnung von Pixelelementen
zur Aufnahme von Licht aus einem Teil der Stoffbahn hat
und entsprechende elektrische Signale abgibt, wobei
Schnittmustersignale einschließlich Segmentlagesignale
sowie ein Referenzsignal entsprechend einer Referenzpo
sition in dem Schnittmuster und einer zugehörigen Kame
ra-Pixelelementausrichtung empfangen werden (70), von
dem Videosubsystem Signale einschließlich Signale ent
sprechend dem Stoffdesign empfangen werden (72), und Si
gnale erzeugt werden, die die anfängliche Stoffdesign
ausrichtung relativ zu der Schnittmuster-Referenzpositi
on angeben, gekennzeichnet durch
rechnerisches Drehen der Stoffdesignsignale in mehrere Winkelpositionen (78),
Vergleichen der gedrehten Stoffdesignsignale in jeder Winkelposition mit den von der Kamera gelieferten Pixel element-Ausrichtsignalen und daraus
Erzeugen (88) von Signalen, die die entsprechende Stoff bahnausrichtung angeben,
Auswählen (90) derjenigen Winkelposition, die die beste Ausrichtung der Kamerapixelelemente mit dem Stoffmuster angeben, und
Erzeugen (108) von Signalen zum Einstellen der Position der Segmentlagesignale in dem Schnittmuster zum Entfer nen jeglicher Versetzung zwischen der anfänglichen Stoffbahnausrichtung und der gewählten Winkelposition.
rechnerisches Drehen der Stoffdesignsignale in mehrere Winkelpositionen (78),
Vergleichen der gedrehten Stoffdesignsignale in jeder Winkelposition mit den von der Kamera gelieferten Pixel element-Ausrichtsignalen und daraus
Erzeugen (88) von Signalen, die die entsprechende Stoff bahnausrichtung angeben,
Auswählen (90) derjenigen Winkelposition, die die beste Ausrichtung der Kamerapixelelemente mit dem Stoffmuster angeben, und
Erzeugen (108) von Signalen zum Einstellen der Position der Segmentlagesignale in dem Schnittmuster zum Entfer nen jeglicher Versetzung zwischen der anfänglichen Stoffbahnausrichtung und der gewählten Winkelposition.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die rechnerische Drehung durch Teilen der Zeilen der
Stoffdesignsignale in mehrere Zeilensegmente und Ver
schieben der Position der Zeilensegmente um eine vorbe
stimmte Pixelanzahl in zwei orthogonalen Richtungen er
folgt.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß
zum Teilen die Zeilensegmente so gewählt werden, daß sie
gleich dem Kotangens des Positionswinkels sind.
4. Verfahren, nach Anspruch 2 oder 3, dadurch gekennzeich
net,
daß Verkantungsindexsignale berechnet werden (88), die auf den Wert Null initialisiert werden,
daß für eine Zeile der Stoffdesign-Pixelsignale Signale zur Angabe eines mittleren Intensitätswertes berechnet werden,
daß für die Pixelzeile, die die Stoffdesignsignale ent hält, Signale zu dem Verkantungsindexwert addiert wer den, die dem Unterschied zwischen dem mittleren Zeilen intensitätswert und jedem Pixelintensitätswert in dieser Zeile entsprechen,
daß für jede Winkelposition ein Verkantungsindexwert be rechnet wird,
daß die Verkantungsindexsignale der Winkelpositionen verglichen werden, und
daß Signale erzeugt werden (108), die diejenige Winkel position angeben, für die sich der kleinste Verkantungs indexwert ergibt.
daß Verkantungsindexsignale berechnet werden (88), die auf den Wert Null initialisiert werden,
daß für eine Zeile der Stoffdesign-Pixelsignale Signale zur Angabe eines mittleren Intensitätswertes berechnet werden,
daß für die Pixelzeile, die die Stoffdesignsignale ent hält, Signale zu dem Verkantungsindexwert addiert wer den, die dem Unterschied zwischen dem mittleren Zeilen intensitätswert und jedem Pixelintensitätswert in dieser Zeile entsprechen,
daß für jede Winkelposition ein Verkantungsindexwert be rechnet wird,
daß die Verkantungsindexsignale der Winkelpositionen verglichen werden, und
daß Signale erzeugt werden (108), die diejenige Winkel position angeben, für die sich der kleinste Verkantungs indexwert ergibt.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch ge
kennzeichnet, daß jedes Pixel eine Gruppe Intensitätssi
gnale hat, die für eine entsprechende Anzahl Farben gel
ten.
6. Verfahren nach einem der vorhergehenden Ansprüche, ge
kennzeichnet durch
Anordnen (208) eines Kalibrierobjekts mit einer geome trischen Mitte (206) in dem Gesichtsfeld (194) der Kame ra so, daß dessen Mitte innerhalb der Grenzen des Kali brierobjekts liegt,
Suchen (216) längs einer Pixelelementzeile auf der Ge sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Suchen (218) längs einer Pixelelementspalte auf der Ge sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Erzeugen, von Signalen entsprechend dem in der Mitte zwi schen den Zeilenschnittpunkten liegenden Pixel,
Erzeugen von Signalen entsprechend dem in der Mitte zwi schen den Spaltenschnittpunkten liegenden Pixel und Berechnen (224) von Signalen entsprechend der Pixelele mentposition der Kalibrierobjektmitte aus den beiden Mittelpunktsignalen.
Anordnen (208) eines Kalibrierobjekts mit einer geome trischen Mitte (206) in dem Gesichtsfeld (194) der Kame ra so, daß dessen Mitte innerhalb der Grenzen des Kali brierobjekts liegt,
Suchen (216) längs einer Pixelelementzeile auf der Ge sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Suchen (218) längs einer Pixelelementspalte auf der Ge sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Erzeugen, von Signalen entsprechend dem in der Mitte zwi schen den Zeilenschnittpunkten liegenden Pixel,
Erzeugen von Signalen entsprechend dem in der Mitte zwi schen den Spaltenschnittpunkten liegenden Pixel und Berechnen (224) von Signalen entsprechend der Pixelele mentposition der Kalibrierobjektmitte aus den beiden Mittelpunktsignalen.
7. Verfahren nach Anspruch 6, gekennzeichnet durch
Berechnen der Kalibrierobjekthöhe und -breite durch Su
chen längs einer Pixelelementzeile durch die Kalibrier
objektmitte nach Pixeln, die die Kalibrierobjektgrenzen
schneiden und durch
Suchen längs einer Pixelelementspalte durch die Kali brierobjektmitte nach Pixeln, die die Kalibrierobjekt grenzen schneiden,
Erzeugen von Signalen entsprechend der Anzahl Pixel zwi schen den Zeilenpixeln an den Zeilenschnittpunkten und Erzeugen von Signalen entsprechend der Anzahl Pixel zwi schen den Spaltenpixeln an den Spaltenschnittpunkten.
Suchen längs einer Pixelelementspalte durch die Kali brierobjektmitte nach Pixeln, die die Kalibrierobjekt grenzen schneiden,
Erzeugen von Signalen entsprechend der Anzahl Pixel zwi schen den Zeilenpixeln an den Zeilenschnittpunkten und Erzeugen von Signalen entsprechend der Anzahl Pixel zwi schen den Spaltenpixeln an den Spaltenschnittpunkten.
8. Verfahren (110) nach einem der vorhergehenden Ansprüche,
für eine Stoffbahn mit einem geometrischen Design hohen
Kontrastes, gekennzeichnet durch
Empfangen (112, 114) von Signalen einschließlich Signale entsprechend dem Stoffdesign für eine Paß- und eine Re ferenzposition von dem Videosubsystem,
Erzeugen (120) von Signalen für die Referenzpositions- und die Paßpositionssignale, die jeweils einem Bild ge ringer Auflösung entsprechen, wozu eine unscharfe Pixe lanordnung entsprechend einer Untergruppe mehrerer Pixe lelementpositionen konfiguriert wird, die um ein vorge gebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe aus dem Produkt des Pixelintensitätswertes eines jeden Pixels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe, Berechnen (132 bis 138) eines minimalen und eines maxi malen Signalwertes für das Referenz- und das Paßbild ge ringer Auflösung,
Berechnen (140) eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Berechnen (142) von Signalen entsprechend einem Skalier faktor für das Referenz- und das Paßbild geringer Auflö sung,
Berechnen (144) skalierter Referenz- und Paßbildsignale mit dem Skalierungsfaktor,
Konfigurieren (149) rechnerischer Pixelanordnungen ent sprechend einer ersten zentralen Untergruppe von Pixele lementpositionen jeweils für das Referenz- und das Paß bild geringer Auflösung, einschließlich
Teilen (150) einer jeden Pixelzeile der rechnerischen Pixelanordnungen in mehrere Zeilensegmente,
Berechnen (157) eines mittleren Intensitätswertes für jedes Zeilensegment,
Teilen (150) einer jeden Pixelspalte der ersten rechne rischen Pixelanordnungen in mehrere Spaltensegmente, Berechnen (157) eines mittleren Pixelintensitätswertes für jedes Spaltensegment,
Erzeugen (158) vorheriger Zeilenübergangssignale für je des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei lensegment und ein entsprechendes Zeilensegment in einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen einander entspre chenden vorherigen Zeilenübergangssignalen in den rech nerischen Pixelanordnungen des Paßbildes und des Refe renzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg ment und ein entsprechendes Zeilensegment in einer nach folgenden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten segment und ein entsprechendes Spaltensegment einer vor herigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden vorherigen Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg ment und ein entsprechendes Spaltensegment einer nach folgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen (160) von Signalen, die eine erste Summe der Differenzen der Spaltensegment- und der Zeilensegment übergänge für die ersten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben,
Konfigurieren einer zweiten rechnerischen Pixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup pe von Pixelelementpositionen für das Paßbild, ein schließlich
Teilen einer jeden Pixelzeile der zweiten rechnerischen Pixelanordnung in mehrere Zeilensegmente, Berechnen eines mittleren Pixelintensitätswertes für je des dieser Zeilensegmente,
Teilen einer jeden Pixelspalte der zweiten rechnerischen Pixelanordnung in mehrere Spaltensegmente, Berechnen eines mittleren Pixelintensitätswertes für je des dieser Spaltensegmente,
Erzeugen (158) vorheriger Zeilenübergangssignale für je des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei lensegment und ein entsprechendes Zeilensegment einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent sprechenden vorherigen Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg ment und ein entsprechendes Zeilensegment einer nachfol genden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten segment und ein entsprechendes Spaltensegment in einer vorherigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden vorherigen Spaltenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg ment und ein entsprechendes Spaltensegment in einer nachfolgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen von Signalen, die eine zweite Summe der Spal tensegment- und der Zeilensegment-Übergangsdifferenzen für die zweiten rechnerischen Pixelanordnungen des Refe renz- und des Paßbildes angeben, und
Erzeugen (164) von Signalen, die als eine Passung dieje nige der rechnerischen Anordnungen des Paßbildes auswäh len, welche der niedrigsten der ersten und der zweiten Summen entspricht.
Empfangen (112, 114) von Signalen einschließlich Signale entsprechend dem Stoffdesign für eine Paß- und eine Re ferenzposition von dem Videosubsystem,
Erzeugen (120) von Signalen für die Referenzpositions- und die Paßpositionssignale, die jeweils einem Bild ge ringer Auflösung entsprechen, wozu eine unscharfe Pixe lanordnung entsprechend einer Untergruppe mehrerer Pixe lelementpositionen konfiguriert wird, die um ein vorge gebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe aus dem Produkt des Pixelintensitätswertes eines jeden Pixels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe, Berechnen (132 bis 138) eines minimalen und eines maxi malen Signalwertes für das Referenz- und das Paßbild ge ringer Auflösung,
Berechnen (140) eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Berechnen (142) von Signalen entsprechend einem Skalier faktor für das Referenz- und das Paßbild geringer Auflö sung,
Berechnen (144) skalierter Referenz- und Paßbildsignale mit dem Skalierungsfaktor,
Konfigurieren (149) rechnerischer Pixelanordnungen ent sprechend einer ersten zentralen Untergruppe von Pixele lementpositionen jeweils für das Referenz- und das Paß bild geringer Auflösung, einschließlich
Teilen (150) einer jeden Pixelzeile der rechnerischen Pixelanordnungen in mehrere Zeilensegmente,
Berechnen (157) eines mittleren Intensitätswertes für jedes Zeilensegment,
Teilen (150) einer jeden Pixelspalte der ersten rechne rischen Pixelanordnungen in mehrere Spaltensegmente, Berechnen (157) eines mittleren Pixelintensitätswertes für jedes Spaltensegment,
Erzeugen (158) vorheriger Zeilenübergangssignale für je des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei lensegment und ein entsprechendes Zeilensegment in einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen einander entspre chenden vorherigen Zeilenübergangssignalen in den rech nerischen Pixelanordnungen des Paßbildes und des Refe renzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg ment und ein entsprechendes Zeilensegment in einer nach folgenden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten segment und ein entsprechendes Spaltensegment einer vor herigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden vorherigen Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg ment und ein entsprechendes Spaltensegment einer nach folgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen (160) von Signalen, die eine erste Summe der Differenzen der Spaltensegment- und der Zeilensegment übergänge für die ersten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben,
Konfigurieren einer zweiten rechnerischen Pixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup pe von Pixelelementpositionen für das Paßbild, ein schließlich
Teilen einer jeden Pixelzeile der zweiten rechnerischen Pixelanordnung in mehrere Zeilensegmente, Berechnen eines mittleren Pixelintensitätswertes für je des dieser Zeilensegmente,
Teilen einer jeden Pixelspalte der zweiten rechnerischen Pixelanordnung in mehrere Spaltensegmente, Berechnen eines mittleren Pixelintensitätswertes für je des dieser Spaltensegmente,
Erzeugen (158) vorheriger Zeilenübergangssignale für je des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei lensegment und ein entsprechendes Zeilensegment einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent sprechenden vorherigen Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg ment und ein entsprechendes Zeilensegment einer nachfol genden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten segment und ein entsprechendes Spaltensegment in einer vorherigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent sprechenden vorherigen Spaltenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg ment und ein entsprechendes Spaltensegment in einer nachfolgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje nigen des Referenzbildes,
Erzeugen von Signalen, die eine zweite Summe der Spal tensegment- und der Zeilensegment-Übergangsdifferenzen für die zweiten rechnerischen Pixelanordnungen des Refe renz- und des Paßbildes angeben, und
Erzeugen (164) von Signalen, die als eine Passung dieje nige der rechnerischen Anordnungen des Paßbildes auswäh len, welche der niedrigsten der ersten und der zweiten Summen entspricht.
9. Verfahren nach Anspruch 8, gekennzeichnet durch Erzeugen
von Signalen zum Einstellen der Position der Segmentmu
stersignale in dem Schnittmuster zum Beseitigen jegli
cher Versetzung zwischen der zentralen Pixelanordnungs
position des Referenzbildes und der Position der rechne
rischen Pixelanordnung des Paßbildes entsprechend der
niedrigsten Summe der Absolutwerte.
10. Verfahren nach Anspruch 8 oder 9, gekennzeichnet durch
Auswahl der Unschärfe-Pixelanordnungen mit einer Größe
von 16 × 16 Pixeln.
11. Verfahren nach einem der Ansprüche 8 bis 10, gekenn
zeichnet durch eine Intensitätswertskala mit relativen
Werten von 0 bis 255.
12. Verfahren nach einem der Ansprüche 8 bis 11, gekenn
zeichnet durch Mittelung jedes Zeilensegments mit Pixeln
aus benachbarten Zeilensegmenten.
13. Verfahren nach Anspruch 12, gekennzeichnet durch Mitte
lung eines jeden Spaltensegments mit Pixeln aus benach
barten Spaltensegmenten.
14. Verfahren (166) nach Anspruch 1, gekennzeichnet durch
Empfangen (168, 170) von Signalen entsprechend dem
Stoffdesign bei einer Paßposition und einer Referenzpo
sition aus dem Videosubsystem,
Erzeugen von Signalen entsprechend jeweils einem Bild geringer Auflösung für die Referenzpositions- und die Paßpositionssignale, mit folgenden Schritten:
Konfigurieren (176) einer unscharfen Pixelanordnung ent sprechend einer Untergruppe mehrerer Pixelelementposi tionen, die um ein vorgegebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe des Produkts des Pixelintensitätswertes eines jeden Pi xels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe,
Berechnen (172, 174) eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Erzeugen (177, 178) einer Nachbaranordnung von Signalen für jedes Referenz- und Paßbild-Pixelsignal, deren jedes Element der Differenz eines laufenden Pixelelements und mehrerer benachbarter Pixelelemente entspricht,
Konfigurieren (190) rechnerischer Nachbarpixelanordnun gen entsprechend einer ersten zentralen Untergruppe von Pixelelementpositionen jeweils für die Nachbarsignalan ordnungen des Referenz- und des Paßbildes geringer Auf lösung, einschließlich
Erzeugen von Signalen entsprechend einer Differenz zwi schen den einander entsprechenden Pixelelementen in den ersten rechnerischen Nachbarpixelanordnungen des Paß- und des Referenzbildes,
Erzeugen von Signalen, die eine Summe der ersten rechne rischen Nachbarpixelelementdifferenzen angeben,
Konfigurieren einer rechnerischen Nachbarpixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup pe der Nachbarpixelelementpositionen für das Paßbild,
Erzeugen von Signalen entsprechend einer Differenz zwi schen den einander entsprechenden Pixelelementen in der zweiten rechnerischen Nachbarpixelanordnung des Paß- und derjenigen des Referenzbildes,
Erzeugen von Signalen, die eine Summe der zweiten rech nerischen Nachbarpixelelementdifferenzen angeben, und Erzeugen (192) von Signalen, die als Passung diejenige rechnerische Nachbarpixelanordnung angeben, die der niedrigsten Summe entspricht.
Erzeugen von Signalen entsprechend jeweils einem Bild geringer Auflösung für die Referenzpositions- und die Paßpositionssignale, mit folgenden Schritten:
Konfigurieren (176) einer unscharfen Pixelanordnung ent sprechend einer Untergruppe mehrerer Pixelelementposi tionen, die um ein vorgegebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe des Produkts des Pixelintensitätswertes eines jeden Pi xels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe,
Berechnen (172, 174) eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Erzeugen (177, 178) einer Nachbaranordnung von Signalen für jedes Referenz- und Paßbild-Pixelsignal, deren jedes Element der Differenz eines laufenden Pixelelements und mehrerer benachbarter Pixelelemente entspricht,
Konfigurieren (190) rechnerischer Nachbarpixelanordnun gen entsprechend einer ersten zentralen Untergruppe von Pixelelementpositionen jeweils für die Nachbarsignalan ordnungen des Referenz- und des Paßbildes geringer Auf lösung, einschließlich
Erzeugen von Signalen entsprechend einer Differenz zwi schen den einander entsprechenden Pixelelementen in den ersten rechnerischen Nachbarpixelanordnungen des Paß- und des Referenzbildes,
Erzeugen von Signalen, die eine Summe der ersten rechne rischen Nachbarpixelelementdifferenzen angeben,
Konfigurieren einer rechnerischen Nachbarpixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup pe der Nachbarpixelelementpositionen für das Paßbild,
Erzeugen von Signalen entsprechend einer Differenz zwi schen den einander entsprechenden Pixelelementen in der zweiten rechnerischen Nachbarpixelanordnung des Paß- und derjenigen des Referenzbildes,
Erzeugen von Signalen, die eine Summe der zweiten rech nerischen Nachbarpixelelementdifferenzen angeben, und Erzeugen (192) von Signalen, die als Passung diejenige rechnerische Nachbarpixelanordnung angeben, die der niedrigsten Summe entspricht.
15. Verfahren nach Anspruch 14, gekennzeichnet durch Erzeu
gen von Signalen zum Einstellen der Position der Seg
mentmustersignale in dem Schnittmuster zum Beseitigen
jeglicher Versetzung zwischen der zentralen Pixelanord
nungsposition des Referenzbildes und der Position der
rechnerischen Pixelanordnung des Paßbildes entsprechend
der niedrigsten Summe der Absolutwerte.
16. Verfahren nach Anspruch 14, gekennzeichnet durch Auswahl
der unscharfen Pixelanordnungen mit einer Größe von 16 ×
16 Pixeln.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/210,303 US5487011A (en) | 1994-03-17 | 1994-03-17 | Garment marker system having computer assisted alignment of variable contrast cloth designs |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19509884A1 DE19509884A1 (de) | 1995-09-21 |
DE19509884C2 true DE19509884C2 (de) | 1998-01-29 |
Family
ID=22782366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19509884A Expired - Fee Related DE19509884C2 (de) | 1994-03-17 | 1995-03-17 | Verfahren zum Ausrichten von Zuschnittsegmenten |
Country Status (5)
Country | Link |
---|---|
US (1) | US5487011A (de) |
JP (1) | JP2561061B2 (de) |
DE (1) | DE19509884C2 (de) |
FR (1) | FR2717348B1 (de) |
GB (1) | GB2287786B (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE29812538U1 (de) | 1998-07-14 | 1998-10-22 | Hubert, Anton W., 41065 Mönchengladbach | Schneidvorrichtung |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0664091B1 (de) * | 1994-01-24 | 1998-12-16 | Gerber Garment Technology, Inc. | System und Verfahren zur automatischen Herstellung von Schnittbildern |
HUT74049A (en) * | 1994-04-23 | 1996-10-28 | Stahl | Method for treating of technical textile material and leather and apparatous thereof |
FR2731595B1 (fr) * | 1995-03-17 | 1997-06-06 | Lectra Systemes Sa | Procede pour la coupe automatique de pieces dans un tissu a motif |
US6298275B1 (en) * | 1995-03-23 | 2001-10-02 | Gerber Garment Technology, Inc. | Non-intrusive part identification system for parts cut from a sheet material |
US5777880A (en) * | 1996-02-21 | 1998-07-07 | Albani Bayeux, Inc. | Method and apparatus for correctively guiding a cutting device on a predetermined path along a sheet material |
US6434444B2 (en) | 1997-03-12 | 2002-08-13 | Gerber Technology, Inc. | Method and apparatus for transforming a part periphery to be cut from a patterned sheet material |
GB2343399B (en) * | 1997-03-28 | 2001-04-18 | Preco Ind Inc | Web or sheet-fed apparatus having high-speed positioning mechanism |
US7640836B1 (en) | 1997-03-28 | 2010-01-05 | Preco Industries, Inc. | Method for simultaneous x, y and θ registration of segment of continuous web with a processing station |
IT1293481B1 (it) * | 1997-06-03 | 1999-03-01 | Balsira S A | Procedimenti per il taglio di pelli e relativo prodotto intermedio |
US5956525A (en) * | 1997-08-11 | 1999-09-21 | Minsky; Jacob | Method of measuring body measurements for custom apparel manufacturing |
US6173211B1 (en) | 1998-04-15 | 2001-01-09 | Gerber Technology, Inc. | Apparatus and method for fabric printing of nested |
US6856843B1 (en) * | 1998-09-09 | 2005-02-15 | Gerber Technology, Inc. | Method and apparatus for displaying an image of a sheet material and cutting parts from the sheet material |
US6178392B1 (en) | 1998-09-22 | 2001-01-23 | Intel Corporation | Method for combining the computer models of two surfaces in 3-D space |
GB2362596B (en) * | 2000-05-26 | 2002-07-10 | Gerber Technology Inc | An apparatus and method for cutting a layup of sheet material |
US6672585B2 (en) * | 2000-06-02 | 2004-01-06 | Fuji Photo Film Co., Ltd. | Apparatus for stacking sheet members, apparatus for measuring dimensions of sheet members, and apparatus for and method of marking sheet members |
US6314585B1 (en) * | 2001-01-29 | 2001-11-13 | Charles D. Mann | Process of making image-displaying garments |
US6807289B2 (en) | 2001-08-10 | 2004-10-19 | Gerber Technology, Inc. | Method to compensate for pattern distortion on sheet-type work material spread onto a support surface |
US6580962B2 (en) | 2001-08-10 | 2003-06-17 | Gerber Technology, Inc. | Method for aligning a spatial array of pattern pieces comprising a marker method |
WO2003027783A1 (de) * | 2001-09-21 | 2003-04-03 | Thomas Fuchs | Verfahren zur bearbeitung von teilen sowie bearbeitungszentrum zur durchführung des verfahrens |
US20040055691A1 (en) * | 2002-06-26 | 2004-03-25 | Plumley A. Bruce | Method and apparatus for making a laminate |
US7146049B2 (en) * | 2003-02-28 | 2006-12-05 | Hewlett-Packard Development Company, L.P. | Making the apparent speed of elements imaged at different speeds approximately the same for image recognition |
US7003370B2 (en) * | 2003-09-23 | 2006-02-21 | Gerber Scientific International, Inc. | Method of symmetrically locating a pattern piece relative to work material having a variable repeat pattern |
JP4738871B2 (ja) * | 2005-04-12 | 2011-08-03 | 株式会社ミワックス | 敷物製造方法及び敷物提供方法 |
TWI383277B (zh) * | 2008-08-29 | 2013-01-21 | Innovation Matrix Inc | The working coordinate correction method of plane motor |
JP2014109799A (ja) * | 2012-11-30 | 2014-06-12 | Seiren Co Ltd | 柄模様位置検出方法 |
DE102015011013B4 (de) | 2014-08-22 | 2023-05-04 | Sigma Additive Solutions, Inc. | Verfahren zur Überwachung von generativen Fertigungsprozessen |
US10786948B2 (en) | 2014-11-18 | 2020-09-29 | Sigma Labs, Inc. | Multi-sensor quality inference and control for additive manufacturing processes |
WO2016115284A1 (en) | 2015-01-13 | 2016-07-21 | Sigma Labs, Inc. | Material qualification system and methodology |
CN104738861B (zh) * | 2015-03-27 | 2017-03-22 | 上海和鹰机电科技股份有限公司 | 面料的排版与裁剪*** |
US10207489B2 (en) | 2015-09-30 | 2019-02-19 | Sigma Labs, Inc. | Systems and methods for additive manufacturing operations |
US10814668B2 (en) * | 2016-11-08 | 2020-10-27 | Jeffery James Jackson | Kiosk and method for making puzzle tags |
CN108230372B (zh) * | 2017-11-30 | 2022-01-14 | 努比亚技术有限公司 | 一种图像处理方法、终端及计算机可读存储介质 |
CN114112592A (zh) * | 2021-12-01 | 2022-03-01 | 苏州大学 | 一种利用纺织品试样剪裁机剪裁纺织品试样的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3495492A (en) * | 1969-05-05 | 1970-02-17 | Gerber Garment Technology Inc | Apparatus for working on sheet material |
US3548697A (en) * | 1969-05-05 | 1970-12-22 | Gerber Garment Technology Inc | Apparatus for cutting sheet material |
DE2729509B2 (de) * | 1976-07-09 | 1979-09-06 | Hughes Aircraft Co., Culver City, Calif. (V.St.A.) | Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn |
DE3544251A1 (de) * | 1985-12-14 | 1987-06-19 | Duerkopp System Technik Gmbh | Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine |
DE3831541A1 (de) * | 1987-09-16 | 1989-03-30 | Juki Kk | Musterverarbeitungssystem |
DE4100534C1 (de) * | 1991-01-10 | 1992-01-23 | Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4581762A (en) * | 1984-01-19 | 1986-04-08 | Itran Corporation | Vision inspection system |
US4853970A (en) * | 1984-03-24 | 1989-08-01 | Integrated Automation | Apparatus for processing digitized images |
ES8801003A1 (es) * | 1986-04-02 | 1987-12-16 | Investronica Sa | Procedimiento de casado de piezas para corte automatico de tejidos con dibujo. |
US4955062A (en) * | 1986-12-10 | 1990-09-04 | Canon Kabushiki Kaisha | Pattern detecting method and apparatus |
US5204913A (en) * | 1987-09-16 | 1993-04-20 | Juki Corporation | Pattern processing system |
JPH01250465A (ja) * | 1988-03-31 | 1989-10-05 | Juki Corp | 自動裁断装置 |
US5020405A (en) * | 1990-05-17 | 1991-06-04 | Gerber Garment Technology, Inc. | Apparatus with moveable pins for spreading and cutting layups of sheet material |
US5333111A (en) * | 1991-05-02 | 1994-07-26 | Gerber Garment Technology, Inc. | Garment cutting system having computer assisted pattern alignment |
-
1994
- 1994-03-17 US US08/210,303 patent/US5487011A/en not_active Expired - Lifetime
-
1995
- 1995-03-15 GB GB9505165A patent/GB2287786B/en not_active Expired - Fee Related
- 1995-03-15 FR FR9502994A patent/FR2717348B1/fr not_active Expired - Fee Related
- 1995-03-17 DE DE19509884A patent/DE19509884C2/de not_active Expired - Fee Related
- 1995-03-17 JP JP7059460A patent/JP2561061B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3495492A (en) * | 1969-05-05 | 1970-02-17 | Gerber Garment Technology Inc | Apparatus for working on sheet material |
US3548697A (en) * | 1969-05-05 | 1970-12-22 | Gerber Garment Technology Inc | Apparatus for cutting sheet material |
DE2729509B2 (de) * | 1976-07-09 | 1979-09-06 | Hughes Aircraft Co., Culver City, Calif. (V.St.A.) | Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn |
DE3544251A1 (de) * | 1985-12-14 | 1987-06-19 | Duerkopp System Technik Gmbh | Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine |
DE3831541A1 (de) * | 1987-09-16 | 1989-03-30 | Juki Kk | Musterverarbeitungssystem |
DE4100534C1 (de) * | 1991-01-10 | 1992-01-23 | Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE29812538U1 (de) | 1998-07-14 | 1998-10-22 | Hubert, Anton W., 41065 Mönchengladbach | Schneidvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
FR2717348B1 (fr) | 1997-10-24 |
GB9505165D0 (en) | 1995-05-03 |
GB2287786B (en) | 1998-05-13 |
GB2287786A (en) | 1995-09-27 |
JPH081586A (ja) | 1996-01-09 |
DE19509884A1 (de) | 1995-09-21 |
US5487011A (en) | 1996-01-23 |
JP2561061B2 (ja) | 1996-12-04 |
FR2717348A1 (fr) | 1995-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19509884C2 (de) | Verfahren zum Ausrichten von Zuschnittsegmenten | |
DE69024985T2 (de) | Vorrichtung und Verfahren zur Farbenauswahl | |
DE102014205726B4 (de) | Verfahren zum bestimmen von profildaten für ein kantenmerkmal in einem inspektionssystem mit maschineller bildverarbeitung | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE19983341B4 (de) | Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren | |
DE19724481C2 (de) | Schablonenvergleichsverfahren | |
DE69027633T2 (de) | Automatische Fahrzeugführung entlang Führungslinien | |
DE19825829C2 (de) | Verfahren zur Bestimmung des Abstandes P einer Kante eines Strukturelementes auf einem Substrat | |
DE112013004103B4 (de) | Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte | |
DE19525561C2 (de) | 3D-Meßvorrichtung | |
DE4438278A1 (de) | Automatisches optisches Prüfsystem insbesondere für Leiterplatten | |
DE2952443A1 (de) | Verfahren und vorrichtung zum ermitteln der lage eines gegenstandes | |
DE19924077A1 (de) | Bildregistrierungs-Verfahren, Bildregistrierungs-Vorrichtung und Aufzeichnungsmedium | |
DE3338765A1 (de) | Verfahren zur perspektivischen darstellung von veraenderbaren gebilden | |
DE4142650A1 (de) | Verfahren und anordnung zur ableitung eines steuersignals fuer die einblendung eines hintergrundsignals in teile eines vordergrundsignals | |
DE102006055758A1 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
DE112012002533T5 (de) | Tischbaugruppe und Steuerungsverfahren für eine Tischbaugruppe | |
DE102020126610A1 (de) | Mikroskopiesystem und verfahren zum erzeugen von trainingsdaten | |
WO2003042920A1 (de) | Verfahren und vorrichtung zum entzerren einer eingescannten abbildung | |
EP1022541A2 (de) | Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon | |
DE102018123717B4 (de) | Kalibriervorlage und Kalibrierverfahren zum geometrischen Kalibrieren einer Vielzahl von Kameras eines Kamera-Arrays | |
DE4331188A1 (de) | Verfahren und Einrichtung zum Abtasten eines Bildträgers | |
DE10205562C1 (de) | Verfahren und Vorrichtung zum Anzeigen eines Abbildes eines Flachmaterials und zum Ausschneiden von Teilen aus dem Flachmaterial | |
DE112021001440T5 (de) | Dreidimensionales Messgerät, das aus einem von mehreren Kameras aufgenommenen Bild Positionsinformationen für eine Objektoberfläche erzeugt | |
DE19953063A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: GERBER TECHNOLOGY,INC., TOLLAND, CONN., US |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20111001 |