DE69513381T2 - Verfahren und vorrichtung zur erfassung von oberflächenmerkmalen durchsichtiger gegenstände - Google Patents

Verfahren und vorrichtung zur erfassung von oberflächenmerkmalen durchsichtiger gegenstände

Info

Publication number
DE69513381T2
DE69513381T2 DE69513381T DE69513381T DE69513381T2 DE 69513381 T2 DE69513381 T2 DE 69513381T2 DE 69513381 T DE69513381 T DE 69513381T DE 69513381 T DE69513381 T DE 69513381T DE 69513381 T2 DE69513381 T2 DE 69513381T2
Authority
DE
Germany
Prior art keywords
image
light
fruit
data
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69513381T
Other languages
English (en)
Other versions
DE69513381D1 (de
Inventor
Henry Affeldt
Richard Heck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sunkist Growers Inc
Original Assignee
Sunkist Growers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sunkist Growers Inc filed Critical Sunkist Growers Inc
Application granted granted Critical
Publication of DE69513381D1 publication Critical patent/DE69513381D1/de
Publication of DE69513381T2 publication Critical patent/DE69513381T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/3416Sorting according to other particular properties according to radiation transmissivity, e.g. for light, x-rays, particle radiation

Landscapes

  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Toxicology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Sorting Of Articles (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Ermitteln von Oberflächenmerkmalen lichtdurchlässiger Gegenstände.
  • Verfahren und Vorrichtungen zur topographischen Analyse der Oberflächentextur und Integrität von Gegenständen und das Sortieren dieser Gegenstände, basierend auf einer derartigen Oberflächenanalyse, sind daher das optische Analysieren des Oberflächenbereiches von Obst, insbesondere von Zitrusobst, so daß die Frucht gemäß gewählter Oberflächen-charakteristischer Kriterien sortiert werden kann. Vorrichtungen und Verfahren zum automatischen Beurteilen von Zitrusobst auf der Basis einer vermuteten Transparenz für Lichtstrahlen und diese darin gemäß einer derartigen Auswertung in einem Fördersystem selektiv zu trennen, wurde von Conway in "Method and Means for Internal Inspection Sorting of Produce", US-Patent 3,930,994 (1976) beschrieben, welches demselben Rechtsnachfolger wie die vorliegende Erfindung zugeordnet ist.
  • Conways Ziel ist es, das Ausmaß von Frostschaden auf das Fruchtfleisch zu bestimmen. Um dies zu erreichen, richtet er die Frucht auf einem Förderer zwischen einem Paar hochintensiver Lichtquellen - wie z. B. Quarz-Jod-Wolfram- Glühdrahtlampen, Röntgenstrahlgeneratoren oder Lasern - und einem Paar von Detektoren aus, welche so angeordnet sind, daß sie den Fruchtkern überspannen. Die Detektoren sind Photomultiplikatorröhren, deren parallelrichtende Öffnungen durch die Frucht durchgelassenes Licht - d. h. welches nicht darin absorbiert oder gestreut wurde- empfangen. Die Signale von den Detektoren sind an einen internen Analysecomputer gekoppelt, der durch Zeitsteuersensoren gesteuert wird, um unmittelbare Ausgaben von den zwei Detektoren zu vergleichen und somit das Ausmaß eines inneren Schadens in der Frucht zu messen (welcher aus vorher ge wählten Unterschieden bei den beiden Lesewerten angenommen wird), wonach die Frucht entsprechend dem Ausmaß des so festgestellten Schadens ausgesondert wird.
  • Aus der Erkenntnis, daß der Hautbereich der Frucht vom Fleischbereich verschiedene optische Absorptions- und Streucharakteristiken aufweist, sieht Conway durch die Detektoren erhalte Signale als Fehlersignale an, wenn deren Lesewerte Licht entsprechen, welches vom Schalenbereich der Frucht detektiert wurde. Siehe Spalte 6, Z. 32-43. Um zu vermeiden, daß irgendwelche Lesewerte von der Haut der Zitrusfrucht erhalten werden, benützt Conway zwei Zeitsteuersensoren, um die Schadensermittlung des Fleischbereichs nur zu beginnen, nachdem ein Detektor aufgehört hat, innerhalb gestreutes Licht und vom Schalenbereich projiziertes Licht zu empfangen und begonnen hat, durch den Fleischbereich der Frucht durchgelassenes Licht zu empfangen und die Auswertung zu beenden, bevor der Detektor wieder im Schalenbereich gestreutes Licht empfängt, da die Frucht über den Förderer zwischen dem einfallenden Lichtstrahl und dem Licht- Durchlaß-Detektor fortschreitet.
  • Jedoch stellte sich heraus, daß sogar das zuverlässige Detektieren der optischen Charakteristika des Fleischbereiches von Zitrusobst durch derartige optische Einrichtungen eine äußerst schwierige Aufgabe darstellt. Licht der meisten Frequenzen geht nicht einfach eine Frucht hindurch, als ob die Frucht ein transparenter Gegenstand wie etwa eine Kristallkugel wäre. Vielmehr wird es durch die Frucht absorbiert und in dieser gestreut. So können kleine Strukturen nicht zuverlässig identifiziert werden und nur sehr starker Frostschaden kann zuverlässig erfaßt werden, selbst bei Detektion des Inneren der Frucht unter Benutzung eines Röntgenstrahls für den die Frucht transparenter ist, wie allgemein im US-Patent 3,768,645 beschrieben ist.
  • Außerdem, obwohl das Detektieren und Aussortieren einer Frucht, welche beschädigte Fleischbereiche aufweist, einen wesentlichen Wert darstellt, ist die Fä higkeit, Obst in Kategorien zu trennen, die auf der Natur seiner Oberflächentextur oder der Integrität seiner Haut oder Schale basieren, eine Sortierfunktion von noch größerem Wert. Zum Beispiel wird ein Karton mit makellosen Orangen mit einwandfreien Schalen im allgemeinen einen höheren Preis auf dem Markt erzielen als ein Karton mit Orangen, welche eine Vielzahl von Hautmakeln und -texturen und/oder Defekten vorweist, selbst wenn der Fleischbereich beider akzeptabel ist und selbst wenn das Innere einiger Früchte leicht beschädigt sein sollte.
  • Eine Analogie zu Eiern kann hergestellt werden. Bei dieser Analogie ist der Stand der Technik, wie durch die vorhergehende Conway-Referenz exemplifiziert wurde, dem Prozeß, Eier mit Licht zu untersuchen (candling eggs) ähnlich - d. h. diese von der gegenüberliegenden Seite eines hochintensiven einfallenden Lichtstrahls zu betrachten, um Blutflecken oder andere Unreinheiten in diesen zu erfassen. Der innere Bereich eines Eis - der Dotter und das Eiweiß - und nicht die Schale ist von dominierender Wichtigkeit. In Analogie strebt Conway an, den inneren Bereich der Frucht zu untersuchen und nicht die Haut oder die äußere Oberfläche. Im Gegensatz dazu beschäftigt sich die vorliegende Erfindung nicht mit den inneren Inhalten des zu klassifizierenden und zu sortierenden Gegenstandes, sondern eher mit der topographischen Erscheinung und Integrität der äußeren "Hülle des Gegenstandes".
  • Während die äußeren Oberflächentexturen einer Zitrusfrucht oder von irgendwelchen anderen Gegenständen visuell bestimmt werden können und von menschlichen Qualitätskontrollarbeitern manuell beurteilt werden können, können die Kosten- und Verläßlichkeitsfaktoren eines derartigen menschlichen Sortierens in vielen Fällen unannehmbar werden. Darüber hinaus können menschliche Arbeiter nicht in die Schichten der Frucht unter der äußeren Oberfläche sehen, wegen des Gesundheitsrisikos, welches einem ausgedehnten ausgesetztsein des Auges gegen hohe Lichtintensitäten eigen ist, welche erforderlich sind, um genügend gestreutes Licht zu erzeugen, um die Haut ausreichend leuchten zu lassen, um die darunterliegende Schalentiefe sichtbar zu machen.
  • Und Menschen können kein nah-infrarotes Licht sehen, welches verglichen mit sichtbarem Licht eine höhere Durchdringung durch die Frucht und in die Fruchtschale hat.
  • Was also benötigt wird, ist eine intelligente automatische Einrichtung zum optischen Untersuchen der äußeren Oberflächen und des Oberflächenbereichs eines im wesentlichen lichtdurchlässigen oder durchsichtigen Gegenstandes, zum Bestimmen der Natur der Oberflächentextur und der Integrität des äußeren Bereichs und zum nachfolgenden Treffen einer Auswahlentscheidung, welche auf einer derartigen Bestimmung basiert.
  • US-Patent Nr. 5,026,982 bezieht sich in erster Linie auf das Bestimmen des Vorhandenseins von Vertiefungen oder Resten von Vertiefungen in einer mit Vertiefungen versehenen Frucht. In erster Linie wird eine Serie von parallel gerichteten Lichtstrahlen durch die Frucht hindurchgelassen und auf der anderen Seite durch Sensoren mit einem kleinen Sichtfeld detektiert. Die durch die Sensoren detektierte Lichtintensität liefert ein Anzeichen des Vorhandenseins oder Nichtvorhandenseins einer Vertiefung. Einige Oberflächendefekte können unter Benutzung der beschriebenen Vorrichtung bestimmt werden, um eine Klassifikation zu ermöglichen.
  • Es ist eine Aufgabe der Erfindung, ein verbessertes Verfahren zum Bestimmen gewählter Merkmale auf der Oberfläche eines lichtdurchlässigen Gegenstandes zu schaffen.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren zum Klassifizieren eines lichtdurchlässigen Gegenstandes hinsichtlich zumindest eines gewählten Oberflächenmerkmals des Gegenstandes geschaffen, welches die Schritte aufweist: Beleuchten des Gegenstandes; Detektieren von durch die Oberfläche des Gegenstandes durchgelassenem Licht; Konvertieren des erkannten Lichtes in Daten; Analy sieren derartiger Daten, um das Vorhandensein des gewählten Merkmals auf der Oberfläche zu bestimmen; und Klassifizieren des Gegenstandes auf der Basis einer derartigen Bestimmung, dadurch gekennzeichnet, daß der Schritt des Beleuchtens des Gegenstandes eingerichtet ist, um zu bewirken, daß Licht durch den ganzen Gegenstand gestreut wird und dadurch, daß der Detektieren-Schritt eingerichtet ist, die Intensität des gestreuten Lichtes zu detektieren, welches von verschiedenen definierten Bereichen der Oberfläche des Gegenstandes durchgelassen wird.
  • Gemäß der vorliegenden Erfindung ist des weiteren eine Vorrichtung zum Bestimmen des Vorhandenseins von zumindest einem gewählten Oberflächenmerkmal auf einem lichtdurchlässigen Gegenstand geschaffen, aufweisend: eine Einrichtung zum Beleuchten des Gegenstandes; eine Einrichtung zum Detektieren von durch die Oberfläche des Gegenstandes durchgelassenem Licht; eine Einrichtung zum Konvertieren von derartigem detektiertem Licht in Daten; und eine Einrichtung zum Analysieren derartiger Daten, um das Vorhandensein des gewählten Merkmals der Oberfläche zu bestimmen, dadurch gekennzeichnet, daß die Einrichtung zum Beleuchten des Gegenstandes derart ist, um zu bewirken, daß Licht durch den ganzen Gegenstand gestreut wird, und daß die Detektiereinrichtung eingerichtet ist, die Intensität dieses gestreuten Lichts, welches von verschiedenen definierten Bereichen der Oberfläche des Gegenstandes durchgelassen wird, zu detektieren.
  • Gemäß der vorliegenden Erfindung ist des weiteren eine Vorrichtung zum Bestimmen des Vorhandenseins eines gewählten Oberflächenmerkmals auf einem lichtdurchlässigen Gegenstand geschaffen, aufweisend: mindestens eine Lichtquelle, welche auf den Gegenstand gerichtet ist; eine Sensoreinrichtung zum Konvertieren von durch die Oberfläche des Gegenstandes durchgelassenem Licht in ein digitales Signal; und eine Auswerteeinrichtung zum Bestimmen, ob das derartige Merkmal vorhanden ist, dadurch gekennzeichnet, daß die Lichtquelle eingerichtet ist zu bewirken, daß Licht durch das Innere des Gegenstandes ge streut wird und daß die Sensoreinrichtung das Licht abtastet, welches von verschiedenen definierten Bereichen auf der Oberfläche des Gegenstandes ausgeht, um zu ermöglichen, daß die Auswerteeinrichtung das abgetastete Lichtmuster auswertet.
  • Die vorliegende Erfindung ist ein Verfahren und eine Vorrichtung zum Sortieren von Gegenständen, welche im wesentlichen lichtdurchlässig sind. Obst, insbesondere Zitrusobst, kann gemäß der Erfindung sortiert werden. Wie im nachfolgenden auseinandergesetzt ist, können auf diese Art viele andere Typen von Gegenständen sortiert werden, wenn diese Gegenstände für die besondere gewählte Lichtfrequenz im wesentlichen lichtdurchlässig oder durchsichtig sind. Aus Gründen der Vereinfachung wird hierbei speziell auf Obst Bezug genommen werden (insbesondere Bezug auf Zitrusobst), obwohl zu verstehen ist, daß alle derartigen Gegenstände beinhaltet werden.
  • Das Obst ist gemäß seiner Oberflächenbereichsmerkmale sortiert und das Verfahren beinhaltet das Beleuchten eines jeden davon, um Licht in ihnen und durch ihren Oberflächenbereich zu streuen. Im Fall von Obst, womit sich die bevorzugte Ausführungsform dieser Erfindung primär beschäftigt, wird jedes Stück beleuchtet, so daß das in der Frucht gestreute Licht ein Leuchten der Frucht bewirkt. Dieses Leuchten, welches durch den Oberflächenbereich nach außen durchgelassen wird, wird ermittelt und somit werden Bilder des gesamten Leuchtmusters erhalten.
  • Im Verlauf der Umsetzung dieser Erfindung in die Praxis wurde festgestellt, daß Mängel auf oder in der Nähe der äußeren Oberfläche deutlich klarer erscheinen als innere Mängel, wie von Convey, der Oberflächenmakel ignorierte, ursprünglich angestrebt. Daher bildet jedes derartige unmittelbare Bild eine Matrix von Daten entsprechend der Oberfläche und Merkmalen in der Nähe der Oberfläche der Frucht. Jedes ermittelte Bild wird zur Analyse in Daten umgewandelt, um zu bestimmen, ob das/die gesuchte Merkmal(e) vorliegt. Das kann durch Vergleichen der Daten mit gewählten Kriterien erreicht werden und die Frucht kann so gemäß der analysierten Daten klassifiziert werden, um jene zu identifizieren, welche in gewählte Kategorien fallen, basierend auf den beobachteten Oberflächenmerkmalsdaten. Die klassifizierte Frucht kann dann in Übereinstimmung mit den gewählten Definitionen derartiger Kategorien sortiert werden. Dies läßt eine automatische Klassifizierung und Sortieren der Frucht gemäß ihrer Oberflächenbereichsmerkmale zu.
  • Die Daten in den Bildern müssen verarbeitet werden, um eine Musterdetektierung der Oberflächenmerkmale der Frucht zu ermöglichen. Vor einer derartigen Verarbeitung der Daten werden abgetastete Daten, welche nicht von Licht stammen, welches durch die Oberflächenmerkmale des Gegenstandes gestreut wurde, entfernt. Ein statistisches Maß der Oberflächenmerkmale wird abgeleitet, um zu bestimmen, ob eine ausreichende Schwankung der Oberflächenmerkmale über im wesentlichen die gesamte Oberfläche jeder Frucht groß genug ist, um einen Oberflächenmangel anzuzeigen.
  • Das Verarbeiten der Daten beinhaltet normalerweise des weiteren das Wählen der Daten, welche von den Oberflächenmerkmalen abgetastet wurden, durch Filtern der Daten nach einer Frequenz relativ zu einer vorbestimmten Grenzfrequenz. In einigen derartigen Situationen beinhaltet das Datenfiltern das Durchlassen nur von hochfrequenten Datenkomponenten. In anderen derartigen Situationen beinhaltet das Datenfiltern das Durchlassen nur von niederfrequenten Komponenten der Daten.
  • Das Frucht-Leuchtbild wird typischerweise abgetastet, um die notwendigen Daten zu sammeln und wenn ja, beinhaltet dieser Schritt normalerweise das Abtasten der Frucht entlang einer vorbestimmten Linie, welche quer über den Gegenstand geht. Es wird auch erwogen, daß die Frucht entlang einer Vielzahl von Linien abgetastet werden kann. Jedes Abtasten kann unter demselben oder unter einem anderen, den Gegenstand überquerenden Winkel, ausgerichtet sein.
  • Das Verfahren kann des weiteren das optische Bilden eines Bildes der Frucht beinhalten, welches zugleich alle oder einen wesentlichen Teil ihrer Oberflächenmerkmale beinhaltet. Dort, wo die Frucht im allgemeinen sphärisch ist, wie im Falle einer Mehrzahl von Zitrusfrüchten, beinhaltet das Bilden des Bildes das Bilden eines getrennten Bildes im wesentlichen jeder Hemisphäre.
  • Bei der veranschaulichten Ausführungsform wird das Abtasten der Frucht optisch durchgeführt durch Reflektieren eines Bildes der beleuchteten Frucht (d. h. das davon ausgehende Leuchten) in eine von der beleuchteten Frucht weggerichteten Scan-Kamera, derart, daß ein direktes Übertragen von Licht in die Kamera vermieden wird. Das kann auch lediglich durch Ausrichten der Kamera unter einem Winkel relativ zur Richtung des einfallenden Strahls zur Beleuchtung der Frucht getan werden. Es sei jedoch angemerkt, daß das Verfahren dieser Erfindung selbst dann benutzt werden kann, wenn die Kamera direkt gegen den einfallenden Strahl gerichtet ist, da das meiste durch die Kamera detektierte Licht in der Frucht gestreut sein wird, um ein daraus resultierendes Leuchten hervorzurufen, welches durch ihren Oberflächenbereich projiziert ist. Und in diesem Fall, besonders, wenn der Strahl aus einer LED (Licht-emittierenden Diode) oder Laserquelle besteht, kann die damit gekoppelte Frucht-Scan- und Zeitsteuereinrichtung benutzt werden, um Schaden für die Kamera, welcher durch direkt erfaßtes Licht verursacht werden könnte, d. h. ohne eine dazwischenliegende Frucht, zu verhindern.
  • Im allgemeinen klassifiziert das Verfahren die Frucht entsprechend ihrer topografischen Oberflächenmerkmale. Bei Zitrusfrüchten (welche eine relativ dicke Haut haben), kann ein derartiges Kategorisieren ein Klassifizieren ihrer Schalen entsprechend der Porosität, dem Aufblähungen und Falten, Furchen und Vertiefungen, Brüche, Zersetzung und anderen gewählten Faktoren beinhalten.
  • Das Abtasten beinhaltet das Abtasten eines zweidimensionalen Feldes, um ein zweidimensionales grafisches Bild der topografischen Oberflächenmerkmale der Frucht zu liefern. Das Beleuchten der Frucht beinhaltet ihr Beleuchten mittels einer gewählten Lichterzeugungseinrichtung, welche Licht einer gewählten Frequenz oder Kombination von Frequenzen projiziert.
  • Das Verarbeiten der Daten beinhaltet auch das Zerlegen des abgetasteten Bildes in einen Hintergrund und einen Gegenstand und Entfernen des Hintergrunds von dem abgetasteten Bild, wobei primär der Gegenstand übriggelassen wird.
  • Klassifizieren der Zitrusfrucht gemäß der Porosität der Schale beinhaltet das Filtern des abgetasteten Bildes nach hochfrequenten Daten unter Benutzung eines Hochpaß-Datenfilters. Eine Schwelle für die Pixelintensität des gefilterten Bildes wird eingerichtet. Die Zahl der Pixel, welche eine Intensität über der eingerichteten Schwelle haben, wird tabuliert, um die Porosität der Schale zu identifizieren.
  • Das Klassifizieren der Zitrusfrucht nach Aufblähungen und Falten auf der äußeren Oberfläche der Schale beinhaltet das Filtern des Bildes nach niederfrequenten Daten unter Benutzung eines Tiefpaß/Glättungs-Datenfilters. Eine Pixelintensitätsschwelle für das gefilterte Bild wird eingerichtet. Die Zahl und die Verteilung der Pixel, welche eine Intensität über der Schwelle haben, wird tabuliert, um Aufblähungen und Falten auf der äußeren Oberfläche der Haut zu identifizieren.
  • Ein Klassifizieren gemäß erhöhter und vertiefter Furchen, oder Brüchen in der Schale beinhaltet das selektive Abtasten des Bildes nach Übergängen in der Pixelintensität. Eine Schwelle der Pixelintensität und des Übergangsgrades wird eingerichtet. Die Anzahl der Pixel, welche eine Intensität über der eingerichteten Schwelle in Umgebungen haben, welche an Pixelgrenzen aneinandergrenzen, welche scharfen Übergängen entsprechen, wird tabuliert. Die Umgebungen werden als Flecken definiert. Die Anzahl der Flecken, welche einen vorbestimmten charakteristischen Parameter übersteigen, wird tabuliert, um erhöhte und vertiefte Abschrägungen in der Schale zu identifizieren. Der charakteristische Parameter ist ein vorbestimmter Minimalbereich des Flecks und Tabulieren der Anzahl von Flecken, um erhöhte und vertiefte Abschrägungen in der Schale zu identifizieren, beinhaltet das Tabulieren der Anzahl von Flecken, welche den vorbestimmten Minimalbereich übersteigen. Oder der charakteristische Parameter kann die Form sein und Tabulieren der Anzahl von Flecken, um die erhöhten und vertieften Abschrägungen zu identifizieren, beinhaltet dann das Tabulieren der Anzahl von Flecken, welche eine Form haben, welche die vorbestimmte Formdefinition erfüllt. Ähnlich basiert die Identifizierung eines Bruches auf einer schmalen, scharfen Diskontinuität in der Intensität.
  • Das Klassifizieren nach Oberflächenzersetzung beinhaltet das Abtasten des Bildes der Zitrusfrucht nach allmählicheren Übergängen in der Pixelintensität. Eine vorbestimmte Schwelle wird eingerichtet. Die Anzahl der Pixel, welche eine Intensität über der vorbestimmten Schwelle in Umgebungen haben, welche an Pixelgrenzen mit allmählichen Übergängen aneinandergrenzen, wird tabuliert. Die Umgebungen sind als Flecken definiert. Die Anzahl der Flecken, welche einen gegebenen charakteristischen Parameter übersteigen, wird tabuliert, um die Oberflächenzersetzung zu identifizieren.
  • Die vorbestimmten Schwelle(n), Form, Bereich, Breite und charakteristische Parameter, wie sie für jedes der vorhergehenden Anstiegsverfahren geeignet sind, kann selektiv als eine Funktion der Größe der Zitrusfrucht eingerichtet werden, welche ermittelt werden kann und automatisch entsprechend gut bekannter Verfahren eingegeben werden kann.
  • Die Erfindung kann auch als eine Vorrichtung zum Sortieren von Gegenständen charakterisiert werden, welche im wesentlichen lichtdurchlässig sind, wie zum Beispiel Zitrusobst, oder im wesentlichen durchsichtig - für die gewählte(n) Lichtfrequenz oder Frequenzen - gemäß der Oberflächenbereichsmerkmale der Gegenstände. Eine derartige Vorrichtung beinhaltet eine Qualitätsprüfungsstation und mindestens eine Sortierstation. Ein Förderer bewegt die Gegenstände durch die Qualitätsprüfungsstation und zur Sortierstation. Ein Sortierer bei der Sortierstation sortiert die Gegenstände gemäß der Klassifizierung der Oberflächenmerkmale der Gegenstände durch selektive Umleitung von Gegenständen vom Förderer. Ein computerisierter optischer Scanner erzeugt ein grafisches Bild des Gegenstands bei der Qualitätsprüfungsstation und wertet die Oberflächenmerkmale des Gegenstands gemäß mindestens einem topografischen Kennzeichen des Oberflächenmerkmals aus. Die Gegenstände sind somit kategorisiert und gemäß den Oberflächenmerkmalen sortiert.
  • In einer Ausführungsform, durch welche Zitrusobst sortiert wird, beinhaltet der computerisierte optische Scanner zwei unabhängige Beleuchtungs-/Scanlicht- und Kameraaufbauten bei der Qualitätsprüfungsstation. In dieser Ausführungsform kann der computerisierte optische Scanner zwei Linsen-fokussierte Wolfram- Halogen-Lichtquellen beinhalten, welche unter ungefähr 120 Grad von einer vertikalen Ebene durch die Qualitätsprüfungsstation zum Beleuchten der Frucht angeordnet sind, und eine Scan-Kamera entsprechend jeder Lichtquelle zum Abtasten der Frucht, wobei die Kamera mit keiner der Lichtquellen ausgerichtet ist. In dieser Ausführungsform ist die Kamera von der Frucht weggerichtet und der computerisierte optische Scanner beinhaltet des weiteren eine Vielzahl von Spiegeln zum Reflektieren eines Bildes des Leuchtens, welches in der Frucht erzeugt und durch die Schale hindurchgelassen wurde, in diese Kamera.
  • Ein Verfahren und eine Vorrichtung zum Klassifizieren eines lichtdurchlässigen Gegenstandes gemäß mindestens einem gewählten Oberflächenmerkmal und das Ausführen der Erfindung wird jetzt mittels eines Beispiels unter Bezugnahme auf die begleitenden diagrammatischen Zeichnungen beschrieben, in welchen:
  • Fig. 1a ein vereinfachtes Blockdiagramm einer Klassifizierungs- und Sortiervorrichtung ist, welche einen Texturmoduscomputer gemäß der Erfindung benutzt.
  • Fig. 2a eine vereinfachte diagrammatische Querschnittsansicht des optischen Gehäuses ist, welches in dem System von Fig. 1 benutzt wird.
  • Fig. 2b eine vereinfachte isometrische Ansicht einer zweiten Ausführungsform des optischen Gehäuses ist, welches in dem System von Fig. 1 benutzt wird.
  • Fig. 3a ein Computerbild einer glatten Fruchtschale ist, wie es durch die Erfindung erzeugt wurde, während Fig. 3b das entsprechende Histogramm der Fruchtoberfläche ist, welches längs einer gewählten Scanlinie aufgenommen wurde.
  • Fig. 4a ein Computerbild einer Frucht ist, welche Sauerfäulnis hat, wie es durch die Erfindung erzeugt wurde, während Fig. 4b ein Histogramm ist, welches wiederum durch eine gewählte Scannlinie der Frucht von Fig. 4a aufgenommen wurde.
  • Fig. 5a ein Computerbild einer Frucht ist, wie durch die Erfindung erzeugt, welches Klar-Fäulnis zeigt, während Fig. 5b ein Histogramm ist, welches durch eine gewählte Scanlinie der Frucht von Fig. 5a aufgenommen wurde.
  • Fig. 6a ein Computerbild einer Frucht ist, welche eine narbige Schale hat, wie durch die Erfindung bestimmt, während Fig. 6b ein Histogramm der topographischen Oberflächentextur der Frucht von Fig. 6a ist, welches längs einer gewählten Scanlinie aufgenommen wurde.
  • Fig. 7a ein Computerbild einer Frucht ist, welche weiche Aufblähungen und Falten zeigt, wie durch die Erfindung ermittelt, während Fig. 7b ein Histogramm der topographischen Oberflächentextur der Frucht von Fig. 7a ist, welches längs einer gewählten Scanlinie aufgenommen wurde.
  • Fig. 8a ein Computerbild einer Frucht mit Furchen- und Vertiefungsmängeln ist, wie durch die Erfindung bestimmt, während Fig. 8b ein Histogramm ist, welches längs einer gewählten Scanlinie der Frucht von Fig. 8a aufgenommen wurde.
  • Fig. 9a ein Computerbild einer Frucht ist, welche eine Spalte oder Schnitt in der Haut hat, wie gemäß der Erfindung bestimmt wurde, während Fig. 9b ein Histogramm der Struktur der Frucht von Fig. 9a ist, welches längs einer gewählten Scanlinie aufgenommen wurde.
  • Fig. 10a ein Computerbild einer Frucht mit eindeutigen Aufblähungen und Falten ist, wie gemäß der Erfindung bestimmt wurde, während Fig. 10b ein Histogramm ist, welches längs einer gewählten Scanlinie der Frucht von Fig. 10a aufgenommen wurde.
  • Die Erfindung und ihre verschiedenen Ausführungsformen können jetzt durch Zuwenden zur nachfolgenden detaillierten Beschreibung verstanden werden.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen
  • Zu diesem Zeitpunkt wird es als wichtig erachtet, die bestimmte Terminologie klarzustellen, welche zuvor benutzt worden sein kann und welche im nachfolgenden benutzt werden kann.
  • Entsprechend ist "durchgelassenes Licht" Licht, welches durch ein Medium im wesentlichen als ein Strahl hindurchgeht, welches als Ergebnis seines Durchgangs durch das Medium "gestreut" sein oder nicht sein kann. In diesem Ausdruck wird auch betrachtet, daß der übrigbleibende Teil des einfallendes Lichtes, welches, nachdem ein Teil der Intensität, welche im einfallenden Strahl vorhanden ist, gestreut oder absorbiert wurde, weiter "vorwärts" durch das Medium fortschreitet.
  • Für die Zwecke dieser Diskussion ist "gestreutes" Licht Licht, welches von der Richtung des einfallenden Strahles weggestreut wurde. Es ist primär dieses gestreute Licht, welches das Leuchten in lichtdurchlässigen Gegenständen verursacht.
  • Mit "absorbiertem" Licht ist Licht vom einfallenden Strahl gemeint, welches weder durch das Medium hindurchgelassen wird noch in diesem gestreut wird, dessen Energie jedoch statt dessen durch das Medium zurückgehalten wird.
  • Hierin wird auf "lichtdurchlässige" Gegenstände Bezug genommen. Mit diesen Bezugnahmen sind Gegenstände gemeint, in welchen Licht einer gewählten Frequenz oder ein Spektrum eines einfallenden Strahls teilweise absorbiert und teilweise gestreut werden kann, aber bei welchen zumindest ein Teil des gestreuten Lichtes außen wegen eines Durchgangs durch seinen Oberflächenbereich ermittelt werden kann. Typische Beispiele sind Früchte (wie zum Beispiel Kürbisse, Melonen oder Zitrusfrüchte), Wachs, bestimmte Keramiken, bestimmte Kunststoffe und Komposite (Fibermaterialien, kombiniert mit einem gießbaren Harz), bei welchen die gewählten Frequenzen normalerweise das sichtbare Spektrum, das nahe Infrarot oder vielleicht Widere Frequenzen sein können.
  • Mit einem "durchsichtigen" Gegenstand ist ein Gegenstand gemeint, welcher einen im wesentlichen freien Durchlaß von einfallendem Licht einer gewählten Frequenz oder Frequenzen durch diesen zuläßt, primär in einem Strahl (welcher gestreut sein kann), wobei das durchgelassene Licht primär in dem Gegenstand nicht absorbiert oder gestreut ist. Ein typisches Beispiel wäre herkömmliches Fensterglas, wo die Frequenzen das sichtbare Spektrum und gewisse andere Frequenzen sind.
  • Ein durchsichtiger Gegenstand, von welchem zumindest ein Teil seines Oberflächenbereichs lichtdurchlässig ist oder Licht absorbiert, wird für die Zwecke des Interpretierens der Beschreibung, der Ansprüche und der Zusammenfassung als ein lichtdurchlässiger Gegenstand betrachtet, da eine teilweise Lichtstreuung oder Absorption in einem derartigen Gegenstand auftreten würde, zumindest in seinem Oberflächenbereich, und dies würde die Anwendung der Verfahren und der Vorrichtungen dieser Erfindung zulassen. Ein Beispiel eines derartigen Gegenstandes wäre ein Kunststoff all, bei dem das Innere - Luft - für sichtbares Licht durchsichtig, wäre, wogegen der Oberflächenbereich - Kunststoff - für sichtbares Licht nicht durchlässig wäre. Ein anderes Beispiel wäre eine Glasschicht, welche Unvollkommenheiten, wie zum Beispiel Kratzer, Wellen oder Flecken auf ihrer Oberfläche birgt. Derartige Unvollkommenheiten würden einen Teil von dem durch das Glas durchgelassenen Licht streuen und/oder absorbieren. Dies würde ermöglichen, es gemäß der Lehre dieser Erfindung zu klassifizieren und zu sortieren.
  • Im allgemeinen ist daher für entsprechende Fachleute, welche diese Erfindung betrifft, verständlich, daß viele Typen von Gegenständen entsprechend dieser Lehre klassifiziert und sortiert werden können. Für unsere Zwecke sind alle derartigen Gegenstände, die in dem Ausdruck "lichtdurchlässig" beinhaltet sind, zu betrachten und sind dafür maßgeblich.
  • Eine Bezugnahme auf Gegenstände kann hierin daher verstanden werden, jeden Gegenstand zu beinhalten, welcher in die vorhergehenden Definitionen fällt, einschließlich aber nicht begrenzt auf Zitrusobst. Ähnlich kann eine Bezugnahme auf Obst oder Zitrusobst hierin verstanden werden, sich auf irgendeinen Gegenstand zu beziehen, welcher gemäß dem Verfahren und der Vorrichtung dieser Erfindung klassifiziert und sortiert werden könnte.
  • Mit dem "Oberflächenbereich" eines Gegenstandes ist ein Bereich des Gegenstandes an seiner äußeren Peripherie gemeint, welcher eine beträchtliche Dicke haben kann wie zum Beispiel die Schale einer Zitrusfrucht und beinhaltet auch die äußere Oberfläche eines derartigen Gegenstands. Somit sind "Oberfläche" und "Oberflächenbereich" im wesentlichen synonym. Tatsächlich wird es einen geringen praktischen Unterschied für den Marktpreis der Frucht ausmachen, ob ein Mangel einer Frucht lediglich auf der äußeren Oberfläche oder "in" der Oberfläche vorhanden ist, wenn ein Beweis dafür an der äußeren Oberfläche visuell erkennbar ist.
  • Die Ausdrücke "Aufblähung", "Falte", "Klar-Fäulnis", "Sauer-Fäulnis", "genarbte Oberfläche" und jene anderen topographischen Merkmale und Merkmale, welche sich auf die Hautintegrität beziehen, welche hierin benutzt werden, sind in der Zitrusindustrie gut bekannt und sind lediglich als Beispiele von Merkmalen ange geben, welche ermittelt werden können und aufgrund welcher Früchte (oder andere Gegenstände) gemäß dieser Erfindung klassifiziert werden können.
  • Die topographischen Oberflächenmerkmale eines Gegenstandes, insbesondere eines sphärischen Gegenstandes wie etwa eine Zitrusfrucht mit einer Schale werden abgetastet und ausgewertet, um das Sortieren der Gegenstände gemäß ihrer Oberflächenmerkmale zuzulassen. Im Falle von Zitrusobst wird die Grobheit oder Narbigkeit, Aufblähungen und Falten, Furche und Vertiefung, Schnitte, Einstiche, Kratzer und Spalte, Klar-Fäulnis oder Sauer-Fäulnis der Haut optisch durch digitale Analyse der Pixel-Scaris identifiziert und basierend auf der Schalenoberflächenbereichsqualität sortiert.
  • Die Gegenstände werden durch Zerlegen ihres abgetasteten Bildes in das Hintergrundbild und in das Bild des Gegenstandes selbst klassifiziert. Das Hintergrundbild wird dann entfernt. Eine statistische Auswertung des Bildes des Gegenstandes als einem ganzen, einschließlich beider Hemisphären des Gegenstandes wird dann gemacht, um zu bestimmen, ob es dort irgendeine Oberflächenmerkmalsveränderung gibt, welche als ein Mangel bezeichnet werden könnte oder eine geeignete Basis sein könnte, auf welcher ein Klassifizierungsurteil getroffen werden kann. Wenn dem so ist, wird das Gegenstandsbild einer Hochfrequenz- oder Tiefpaßfilterung und dem Anwenden einer Schwelle der Pixelintensitäten unterworfen, um ein verfeinertes Bild abzuleiten. Das verfeinerte Bild wird dann tabuliert oder in Umgebungen eingeteilt, welche an scharfe Übergänge oder allmähliche Übergänge angrenzen, um spezielle Bereiche zu identifizieren, welche als Flecken definiert sind, welche, wenn sie mit einem gewählten Minimalbereich, einer Formerfordernis und/oder Breite verglichen werden als eine der oben beschriebenen Oberflächenunvollkommenheiten identifiziert werden können.
  • Fig. 1 ist ein Blockdiagramm einer Klassifizier- und Sortiervorrichtung, welche den Texturcomputer und die Methodik der Erfindung integriert. Die Klassifizier- und Sortiervorrichtung, von der hier manchmal als dem "System" gesprochen wird und welche allgemein mit dem Bezugszeichen 10 bezeichnet ist, beinhaltet eine herkömmliche Förderstrecke 12, auf welcher eine Vielzahl von Gegenständen 14 gefördert wird. Wie oben dargelegt, können die Gegenstände 14 in der veranschaulichten Ausführungsform Obst sein, oder insbesondere Zitrusobst, oder irgendein anderer Typ eines im wesentlichen lichtdurchlässigen oder durchsichtigen Gegenstandes. Irgendein derartiger Gegenstand, insbesondere jeder derartige sphärische Gegenstand, welcher eine topografische Oberflächentextur hat, könnte durch das System 10 ebenfalls verarbeitet werden.
  • Der Förderer 12 transportiert eine Frucht 14 in ein optisches Gehäuse 16, wo die Frucht an einer Qualitätsprüfungsstation 18 im Gehäuse 16 beleuchtet wird. Der Förderer 12 transportiert und richtet die Frucht aus, um die Präsentation der Frucht zum Abbilden zu steuern. Der Förderer ist so konstruiert, daß er eine maximale optische Belichtung der Frucht 14 bei der Qualitätsprüflingsstation 18 liefert. Das Fördersystem 12 in der veranschaulichten Ausführungsform beinhaltet angetriebene Spulen, um die Frucht 14 zu drehen. In der veranschaulichten Ausführungsform wird die Frucht 14 in eine retrograde Richtung gedreht, während sie sich durch die Bildstation 18 bewegt, um zumindest teilweise ihre Vorwärtsbewegung entlang dem Förderer 12 zu kompensieren. Mit anderen Worten, die Frucht wird gedreht, so daß tendenziell dieselbe Oberfläche der Kamera 30 während einer zeitlich ausgedehnten Belichtung zugewandt bleibt, um ein vollständiges und verläßliches Abbilden zu ermöglichen. Das kann natürlich durch im Stand der Technik gut bekannte Einrichtungen zeitsynchron sein.
  • Das optische Gehäuse 16 ist möglicherweise besser in der vereinfachten Querschnittsansicht von Fig. 2a abgebildet, welche eine Frucht 14 zeigt, welche durch den Förderer 12 in das Gehäuse 16 zur Station 18 getragen wird, woraufhin die Frucht 14 durch ein Paar hochintensiver Lichtquellen 22 und 24 beleuchtet wird. Die Lichtquellen 22 und 24 werden von unten auf die Frucht 14 fokussiert und können darüber hinaus mit herkömmlichen Optiken versehen sein, um das Schaffen einer optimalen Beleuchtung der Oberfläche der Frucht 14 zu unterstützen.
  • Alternativ können die hochintensiven optischen Quellen 22 und 24 durch zwei oder mehr optische Fibern ersetzt werden, welche entweder die Frucht 14 von der Seite beleuchten können oder unter einem kleineren geneigten Winkel angeordnet sein können, um nach oben zu projizieren, um so wenig wie möglich von der äußeren Oberfläche der Frucht zu beleuchten.
  • Als weitere Alternativen können die optischen Quellen 22 und 24 Laserstrahlen oder durch LEDs gebildete Lichtstrahlen sein. Darüber hinaus kann eine einzelne Lichtquelle benutzt werden und kann optisch in zwei optische Quellen 22 und 24 oder mehrere geteilt werden. Auf jeden Fall muß verstanden werden, daß diese optischen Quellen 22 und 24 oder eine einzelne Lichtquelle das einfallende Licht liefern, welches in der Frucht gestreut wird, um sie zum Leuchten zu bringen. Und, wie zuvor vorgeschlagen wurde, wird die Frequenz oder das Frequenzspektrum des Lichts, basierend auf den optischen Eigenschaften des zu prüfenden Gegenstandes gewählt, um das gewünschte Streuen in dem Gegenstand hervorzurufen und die daraus resultierende Projektion dieses Leuchtens durch seine Oberfläche. Bei einer Zitrusfrucht könnte das gewöhnliche sichtbare Spektrum ausreichend sein.
  • Für gewisse Anwendungen kann gewünscht werden, eine spezielle Wellenlänge oder ein Spektrum einfallenden Lichts zu benutzen, derart, daß ein gewünschter optischer Effekt den besonderen Mangeltyp in diesem zu überwachenden Typ von Gegenstand herausstellt. Es ist dem angemessen ausgebildeten Praktiker überlassen, welcher dem besonderen Typ von Gegenstand und Mangel gegenübersteht, die richtige Frequenz oder das richtige Spektrum des einfallenden Lichts zu bestimmen.
  • Die Qualitätsüberwachungsstation 18 ist geeignet nach Wunsch ausgekleidet, entweder um eine schwarze nicht-reflektierende Oberfläche zu liefern, um verfälschte Bilder zu vermeiden, oder um reflektierende Oberflächen einzuschließen, wenn gewünscht wird, die auf die Frucht einfallende Lichtintensität zu erhöhen. Auf jeden Fall wird, bei der in Fig. 2a veranschaulichten Ausführungsform, das Leuchten von in der Frucht 14 gestreutem und durch seine Haut projiziertem Licht von unteren Spiegeln 26a und b reflektiert und von dort zu oberen Spiegeln 28a und b. Wie des weiteren in Fig. 2a gezeigt ist, hat eine CCD-Matrix oder Scan- Kamera 30 Optiken 32, welche auf die oberen Spiegel 28a und b fokussiert sind, um in einem einzelnen Computerbild virtuell- die gesamte äußere Oberfläche einer Hemisphäre der Frucht 14 einzufangen, wie in Fig. 3a bis 10a abgebildet.
  • Wie in Fig. 2b gezeigt, gibt es in der Tat zwei Kameras 30a und b, von welchen jede ein Bild einer der zwei Hemisphären einfängt. Zum Beispiel wird das erste hemisphärische Bild der Frucht 14, wie man in Fig. 2b sieht, durch den unteren rechten Spiegel 27a zum oberen linken Spiegel 29a reflektiert und von dort zur ersten Kamera 30a. Das Bild dieser ersten Hemisphäre wird auch durch den unteren linken Spiegel 27b in den oberen rechten Spiegel 29b in die erste Kamera 30a reflektiert.
  • Dann wird, nachdem die Frucht 14 über den Förderer fortgeschritten ist und eine synchronisierte Drehung erfahren hat, um ihre andere Hemisphäre zu belichten, das Bild dieser zweiten Hemisphäre der Frucht 14 durch den unteren rechten Spiegel 27c zum oberen linken Spiegel 29c reflektiert und vom unteren linken Spiegel 27d zum oberen rechten Spiegel 29d, wobei beide resultierenden Bilder in die andere Kamera 30b reflektiert werden.
  • Wie in Fig. 1 gezeigt ist, ist die Kamera 30 mit einem Texturmoduscomputer 34 gekoppelt. Der Texturmoduscomputer 34 ist ein Personalcomputer, welcher sowohl mit einem Leit-Fern-Computer 36 gekoppelt ist, welcher die notwendigen Funktionen der Förder- und Sortiersysteme betreibt, als auch mit einem Eingabe/Ausgabecomputer 38, welcher den Benutzereingangs- und Ausgangszugang zum System 10 liefert. Die Texturanalyse der Frucht 14 wird im Texturmoduscomputer 34 durchgeführt. Gemäß Benutzerbefehlen veranlaßt eine Eingabe durch den Eingabe/Ausgabecomputer 38 zum Leit-Fern-Computer 36 eine Sortieroperation, wie durch den Texturmoduscomputer 34 bei einer Mehrzahl von Sortierstationen 40 vorgeschrieben wird, welche Magnetspulen-betriebene Auswurffinger, auf welchen die Frucht 14 reitet, beinhalten können und durch welche die Frucht 14 von der Förderstrecke 12 in geeignete Sortierkörbe 42 oder Sekundärförderer ausgeworfen wird. Ein derartiges Auswerfen wird von LaVars et al. in "Conveyor Discharge Apparatus and Method", US-Patent Nr. 5,174,429 (1992) beschrieben.
  • Somit kann durch Betrachten von Fig. 1 verstanden werden, daß das Texturmodul von System 10 aus drei Untersystemen besteht, welches die Beleuchtung und Optiken beinhaltende optische Gehäuse 16, das Abbilden, wie durch Kameras 30 und Spiegel 26a und b und 28a und b besorgt, und die Bildverarbeitung im Texturmoduscomputer 34 beinhaltet.
  • Der zentrale Eingabe/Ausgabecomputer 38 und der Leit-Fern-Computer 36 sind herkömmlich und sind im wesentlichen dieselben, wie sie im Stand der Technik für Klassifizier- und Sortiervorrichtungen benutzt werden. Aus diesem Grund werden diese Teile des Systems 10 nicht weiter in irgendwelchen anderen Einzelheiten als in der beschrieben, einen Hintergrund zu liefern, um die Beschreibung der Betriebsweise des Texturmoduscomputers 34 zu unterstützen. Der zentrale Eingabe/Ausgabecomputer 38 sorgt für die Systemsteuerung, einschließlich der Sorge für alle Aspekte einer Benutzerschnittstelle, der Auswahl für Eingabe und Ausgabe von verschiedenen Klassifizierungsparametern und für das Bestimmen von Förderpfaden in System 10, bei welchem mehrfache Spuren für den Förderer 12 in einem komplexeren Array als in der einfachen linearen, in Fig. 1 veranschaulichten Abbildung, vorgesehen sind.
  • Das Beleuchtungssystem benutzt zwei Wolfram-Halogen-Projektionslampen 22 und 24, welche auf gegenüberliegenden Seiten der Frucht 14 und unter der Frucht-Zentrumslinie liegen. Weder die Benutzung irgendeines bestimmten Lam pentyps oder Beleuchtungssystems wird durch die Konstruktionserfordernisse des Systems 10 vorgeschrieben, noch die Anzahl der Lampen. Das einzige Erfordernis ist, daß die Lampe oder Lampen genügend Licht der richtigen, auf die Frucht einfallenden, Frequenz oder Spektrums emittiert, um einen Leuchteffekt, welcher durch die Schale der Frucht 14 übertragen wird, zu erzeugen, welcher durch eine Kamera wahrgenommen werden kann. Mit anderen Worten wird die Frucht der Kamera einen Leuchteffekt gesetzt dem Fall liefern, daß die Positionierung, Intensität und Frequenz/Spektrum des Lichts so ist, daß das Eindringen des Lichts in die Schale oder Rinde der Frucht 14 auftritt und Licht in dieser gestreut wird, um einen Leuchteffekt durch die Schale zu liefern.
  • Auf der Kamera gibt es keinen speziellen Filter und die Belichtungszeit des Abbildens wird elektronisch gesteuert. Die elektronische Steuerung der Belichtungszeit kompensiert einen Unterschied aufgrund von Unterschieden in der Fruchtgröße und Schalendicke in der Leuchtintensität. Dies kann während des Anfangsteils des Laufs bestimmt werden und geeignete Korrekturen, entweder automatisch oder manuell, können durch den Eingabe/Ausgabekontroller 38 eingegeben werden.
  • Eine automatische Steuerung kann mittels einer Fotodiode 44, welche auf jeder Kamera 30 montiert ist, bewirkt werden, um eine Ausgabefrequenz durch einen Frequenzgenerator (nicht gezeigt) zu erzeugen, die von der Lichtmenge, welche durch jede Fotodiode abgetastet wird, abhängt. Durch Benutzung der Ausgabefrequenz vom Frequenzgenerator, gesteuert durch Fotodioden 44, wird die Belichtungszeit auf dem CCD-Chip in den Kameras 30 gesteuert.
  • Es gibt eine große Anzahl von Wegen, auf welchen die Frucht 14 beleuchtet werden kann, wie auch von Wegen, auf welchen ein Computerbild von der Frucht 14 aufgenommen werden kann, entweder unter Benutzung einer oder mehrerer Kameras und mehrerer optischer Systeme und Konfigurationen. Es ist nicht beabsichtigt, den Umfang der Erfindung durch ein beschränkt Bleiben auf das veran schaulichte optische System, das Beleuchtungssystem oder das Abbildungssystem zu begrenzen. Es wird im Gegenteil ausdrücklich betrachtet, daß viele andere Variationen und Ansätze äquivalent angewandt werden können, um die durch die Erfindung gewünschten Ergebnisse zu erhalten. Alles, was bei der bevorzugten Ausführungsform erforderlich ist, ist, daß ein im wesentlichen vollständiges Computerbild der Frucht 14 geliefert wird, ohne, daß Texturcharakterisierungen, wie sie im nachfolgenden diskutiert werden, irgendeinen bedeutenden Teil der Fruchtoberfläche auslassen. Tatsächlich kann für einige Anwendungen ein Bild von nur einer Hemisphäre, wobei eine einzelne Kamera 30 und vereinfachte Optiken benutzt werden, ausreichend sein.
  • Der Texturmoduscomputer 34 führt eine Bildverarbeitung durch und gibt die Klassifizierinformation an den Rest des Systems für eine End-Drop-Out-Selektion gemäß im Stand der Technik bekannter Einrichtungen. Das eigentliche Verfahren oder Algorithmus, durch den die Bildverarbeitung praktiziert wird, ist nicht kritisch und kann, abhängig von der Leistung und Leistungsfähigkeit des im Texturmoduscomputer 34 benutzten Prozessors und seiner Steuersofiware breit variiert werden. In der veranschaulichten Ausführungsform benutzt der Texturmoduscomputer 34 einen Mikroprozessor des Modells TMS320C40, hergestellt von Texas Instruments, um die Bildverarbeitung durch einen Algorithmus vorzusehen, welcher unter Benutzung eines allgemeinen Bildverarbeitungs- Entwicklungspaketes erzeugt wurde, welches unter der Marke KB Vision von Amerinex Artificial Intelligence, Inc., Maryland, verkauft wird.
  • Da die grundlegende Hardware des Systems 10 nun beschrieben wurde, betrachten wir im folgenden, wie das aufgenommene Bild bearbeitet wird, um eine topographische Oberflächentextur-Gradierung zu liefern. Bei der veranschaulichten Ausführungsform ist der erste Schritt bei der Verarbeitung, unzulässige Information, wie etwa reflektierte Lichtintensitäten von den Lichtquellen 22 und 24, welche nicht das Leuchten von Licht darstellt, welches in der Frucht 14 gestreut wurde, und durch ihre Schale herauskommt, auszuscheiden. Wendet man sich dem Beispiel von Fig. 3a zu, sind helle Abschnitte 46 eines tatsächlichen Computerbildes einer glatten Fruchtschale abgebildet. In Fig. 3a werden zwei Bilder der Frucht 14 gezeigt, welche im wesentlichen die zwei hemisphärischen Ansichten der Frucht abbilden. So können die Bereiche 46 des grafischen Bildes wegen ihrer unverkennbar höheren Intensitätsniveaus als Abschnitte des grafischen Informationssignals, welche keine Information über die topographische Oberflächentextur tragen, eliminiert werden.
  • Als nächstes wird ein gesamter Scan der Fruchtoberfläche durchgeführt, um die Maximal-, Minimal- und Standard-Abweichung der Intensität des gesamten Pixelmusters, welches das Bild bildet, zu liefern, um ein Anzeichen zu liefern, ob es dort Intensitätsschwankungen in dem Bild gibt, welche Oberflächenmängel begründen könnten, welche eine weitere Prüfung erfordern, wie etwa Aufblähungen und Falten, Schnitte, Einstiche oder Fäulnis.
  • Eine Aufblähung in einer Zitrusfrucht ist ein Bereich der Schale, welcher leicht vom darunterliegenden Fleisch abgelöst ist und so leicht geschwollen oder aufgebläht ist. Eine Falte ist das Entgegengesetzte, in welcher ein Teil der Rindenoberfläche im Vergleich zu angrenzenden Bereichen eingedrückt wurde.
  • Wenn keine Mängel festgestellt werden, wird das grafische Bild nach Hochfrequenzdaten überprüft, welche zum Beispiel für die Narbigkeit der Fruchtoberfläche bezeichnend wären. Die von der Frucht 14 abgeleiteten Daten können dann zum Leit-Fern-Computer 36 für Klassifizierzwecke gemäß Benutzerkriterien zurückgeführt werden.
  • Im Fall, daß eine globale statistische Analyse der Fruchtoberfläche anzeigt, daß Schalenmängel existieren, kann der Typ des Mangels durch Anwenden einer Serie von Datenfiltern dann bestimmt werden, um diese zu identifizieren. Der Hochpaß- Datenfilter kann benutzt werden, um nach Schnitten oder Einstichen zu suchen. Ein Tiefpaßfilter mit Flecken-Analyse, Abtasten und Größenverhältnis von Berei chen größerer Intensität ist nützlich, um Aufblähungen und Falten zu identifizieren und um sie von Fäulnis zu unterscheiden. Ein Fleck ist hier als ein zusammenhängender Bereich der Haut definiert, welcher eine topographische Oberflächentextur einer Kategorie hat.
  • Nachdem die Aufblähungs- und Faltendaten abgetrennt sind, kann eine Serie von Prüfungen, um Scheitelintensitäten geteilt durch Werte der Standardabweichung anzuzeigen, benutzt werden, um den Grad des Mangels innerhalb einer Mangelkategorie wie etwa Aufblähung und Falten zu identifizieren. Nachdem all dies Verarbeiten durchgeführt ist, wird dann die Größe der Frucht als ein ganzes mit dem betroffenen Bereich verglichen, um einen Prozentwert für den Mangel der betroffenen Oberfläche zu erzeugen. Andere Mängel, wie zum Beispiel Fäulnis oder Brüche in der Rinde, können einer Prozentauswertung nicht unterworfen sein, aber bilden einen Grund für das sofortige Aussortieren der Frucht, ungeachtet des Prozentsatzes des betroffenen Bereichs der Frucht.
  • Wie dieses Verarbeiten bewirkt werden kann, kann besser durch Betrachten der Fig. 3a bis 10a jetzt im Vergleich mit ihren Pixelintensitäts-Histogrammen, welche auf gewählten Scanlinien aufgenommen wurden, wie in den entsprechenden jeweiligen Fig. 3b bis 10b gezeigt ist, verstanden werden. Wir wenden uns erst Fig. 3a zu, in welcher ein Computerbild einer glatten Orangenrinde abgebildet ist, welches ein Doppelbild von dem der Kamera gelieferten reflektierten Bild veranschaulicht. Wie zuvor diskutiert, werden die von der Beleuchtungsquelle erhellten Bereiche 46 eliminiert, da sie keine für die Beschaffenheit des Schalenzustandes relevante Information enthalten.
  • Statistische Information wird dann aus dem gesamten grafischen Bild genommen, um Maxima, Minima und Standardabweichungen zu erhalten, um die Intensitätsschwankungen der Bildpixel zu charakterisieren. In diesem Fall würden die statistischen Abweichungen, welche eingebracht werden würden, anzeigen, daß die Frucht innerhalb des Akzeptanzbereichs glatt und gut war. An diesem Punkt wäre eine weitere statistische Analyse nicht notwendig und die Position der Frucht wäre im System 10 verzeichnet und sie würde über den Förderer 12 hinuntergetragen werden und wäre zu dem geeigneten Sortierkorb 42 oder dem Sekundärförderer zu leiten, oder zur Analyse und Klassifizierung gemäß zusätzlicher Verfahren und Kriterien.
  • Für Zwecke der Veranschaulichung wird eine typische Scanlinie 48 über einen Teil der zwei hemisphärischen Bilder in Fig. 3a aufgenommen. Die Scanlinienintensität ist dann im Histogramm von Fig. 3b abgebildet, wo die Intensität gegen die vertikale Skala aufgetragen ist und längs der Scanlinie längs der horizontalen Skala positioniert ist, wobei das Ende 50 dem linken Ende des Histogramms von Fig. 3b und das Ende 52 der Scanlinie 48 dem rechten Ende des Histogramms von Fig. 3b entspricht. Ein visuelles Prüfen des Histogramms von Fig. 3b zeigt Schwankungen der Pixelintensität an, welche innerhalb eines Bereichs mit einer ziemlich begrenzten Abweichung von einem Mittel beibehalten wird und somit ein Muster liefert, welches von den in Fig. 4b bis 10b abgebildeten Histogrammen ziemlich verschieden ist, welche verschiedene Fruchtmängel veranschaulichen. Durch herkömmliche statistische Maße können die Histogramme der Fig. 3b bis 10b durch sinnvolle statistische Parameter charakterisiert werden und durch diese Parameter in Kategorien sortiert werden, um verläßlich die topografische Oberflächentextur der Frucht 14 zu identifizieren.
  • Darüber hinaus ist, obwohl nur eine einzelne Scanlinie auf einem der hemisphärischen Bilder der Frucht 14 in Fig. 3a abgebildet ist, ausdrücklich zu verstehen, daß Vielfach-Scanlinien 48 mit unterschiedlichen Richtungen und Positionen, welche quer über jedes der hemisphärischen Bilder gewählt sind, aufgenommen werden könnten, um eine mittlere statistische Bestimmung der topographischen Oberflächentextur der Frucht 14 zu erhalten.
  • Fig. 4a veranschaulicht ein Computerbild einer Frucht 14, welche durch eine Oberflächenzersetzung, welche als Sauer-Fäulnis bekannt ist, beeinträchtigt ist, welche in der topografischen Oberflächentextur sichtbar ist. Wiederum werden helle Leuchtbereiche 46 aus dem Bild als irrelevant ausgeschieden. Eine gesamtstatistische Analyse wird durchgeführt, welche anzeigt, daß es dort eine ausreichende Pixelschwankung in der topografischen Oberflächentextur gibt, was eine weitere Datenverarbeitung für Hautmakel erfordert. Eine typische Scanlinie 48 wird folglich über eine der hemisphärischen Bilder der Frucht 14 aufgenommen und sein entsprechendes Intensitätshistogramm, welches in Fig. 4b geplottet ist, um die vom unteren Teil der Scanlinie in Fig. 4a (d. h. links im Histogramm von Fig. 4b) zum oberen Teil 52 der Scanlinie 48 in Fig. 4a (d. h. rechts im Histogramm in Fig. 4b) variierende Intensität zu zeigen.
  • Ein Vergleich der Pixel-Intensitätshistogramme von Fig. 3b und 4b zeigen unmittelbar einen deutlichen und definierten Unterschied im Charakter des Musters. Es gibt dort eine viel stärkere Schwankung zwischen Maxima und Minima und die Abweichung vom Mittel ist viel größer als in Fig. 3b. Das Bild wird verarbeitet, um Bereiche allmählicher Übergänge in der Pixelintensität zu identifizieren. Eine vorbestimmte Schwelle wird eingerichtet, entweder automatisch (basierend auf statistischen Maßen) oder gesetzt durch den Benutzer durch den Zentral- Eingabe/Ausgabe-Computer 38. Die Anzahl der Pixel, welche eine Intensität über der vorbestimmten Schwelle in Umgebungen haben, welche an Pixelgrenzen mit allmählichen Übergängen aneinander grenzen, wird tabuliert. Diese Umgebungen werden als Flecken definiert. Die Anzahl der Flecken, welche einen gegebenen charakteristischen Parameter übersteigen, welcher benutzt wird, um den Oberflächenmangel zu identifizieren, werden dann tabuliert. Wenn diese Anzahl einen gegebenen maximalen Prozentsatz der Schalenfläche überschreitet, wird die Frucht markiert und zum Aussortieren geleitet.
  • Wiedererkennung von Strukturformen der Histogramme kann auch im Texturmoduscomputer 34 durch herkömmliche Kurven, Fitt-Techniken durchgeführt werden. Das Sauer-Fäulnis-Histogramm ist durch einen großen zentralen Peak charakterisiert, welcher steil zu Plateauschultern abfällt. Mehrfach-Scanlinien 48 können, wenn gewünscht, durch beide hemisphärische Bilder der Frucht 14 aufgenommen werden. Die Frucht an der Aufnahmeposition 18, welche ein Pixel- Intensitätshistogramm dieser Form hat, kann dann als durch Sauer-Fäulnis beschädigt markiert werden und durch den Förderer 12 getragen und geeignet in einen Sammelkorb 42 oder einen Sekundärförderer sortiert werden unter der Steuerung des Leit-Fern-Computers 36, welcher auf Parametern agiert, welche in Antwort zum zentralen Eingabe/Ausgabecomputer 38 gesetzt wurden, dem die Texturmoduscharakterisierung vom Texturmoduscomputer 34 eingegeben wurde.
  • Ähnlich ist Fig. 5a ein Computerbild der zwei Hemisphären der Frucht 14, mit einer Frucht, welche durch eine Klar-Fäulnis-Hautbeschädigung charakterisiert ist. Das entsprechende in Fig. 5b gezeigte Histogramm ist durch einen großen Peak charakterisiert, welcher scharf zu einer mittleren Pixelintensität irgendwo auf der Scanlinie, vom Klar-Fäulnis-Fleck entfernt. Wieder ist dieses Bild verschieden von dem von Fig. 3b und 4b und kann unverwechselbar durch herkömmliche Musterdetektierung erkannt werden, wobei die Frucht im System 10 entsprechend markiert und sortiert wird. Das Verarbeiten des Bildes nach Klar- Fäulnis ist ähnlich dem oben für Sauer-Fäulnis beschriebenen.
  • Fig. 6a ist ein Computerbild der Frucht 14, welche eine starke Porosität oder eine narbige Oberfläche hat, was Verbraucher auf einigen Märkten als nicht vollkommen betrachten könnten. Das entsprechende Histogramm ist in Fig. 6b gezeigt, welches eine gestreute Schwankung hoher Pixelintensitäten veranschaulicht, welche in einem Wald von Wolkenkratzern von schmaler Breite resultieren, welche durch tiefe Täler getrennt sind. Das Histogramm von Fig. 6b ist von den Strukturen von Fig. 3b bis 5b verschieden und kann durch statistische und Muster- Detektierung identifiziert werden und die Frucht 14 kann im System 10 geeignet klassifiziert und sortiert werden. Insbesondere ist das abgetastete Bild gefiltert, um unter Benutzung eines Hochpaß-Datenfilters Hochfrequenzdaten übrig zu lassen. Eine Schwelle der Pixelintensität des gefilterten Bildes wird eingerichtet und die Anzahl von Pixeln, welche eine Intensität über einer derartigen Schwelle haben, wird tabuliert, um die Porosität der Haut zu bemessen.
  • Fig. 7a zeigt ein Computerbild der Frucht 14, deren Oberfläche durch die Oberflächenbeschädigungen, welche als weiche Aufblähungen und Falten bekannt sind, charakterisiert ist, oder durch Hügel und Täler in der Schalentopographie charakterisiert ist. Das entsprechende Histogramm ist in Fig. 7b gezeigt, wie längs der typischen Scanlinie 48 von Fig. 7a gesehen. Die Form des Histogramms ist von der von Fig. 3b bis 6b verschieden, wobei sie durch eine Vielzahl von hohen Peaks charakterisiert ist, von welchen einige mit mittlerer Breite durch Täler mittlerer Tiefe getrennt sind. Wieder kann das Histogramm von Fig. 7b statistisch und nach Muster erkannt werden, um ein Verzeichnen der Frucht 14 mit dem Mangel weiche Aufblähung und Falten zu ermöglichen und um dadurch ihr selektives Sortieren in den geeigneten Sammelkorb 42 oder einen Sekundärförderer des Systems 10 zu ermöglichen. Insbesondere ist das Bild nach niederfrequenten Daten unter Benutzung eines Tiefpaß-Datenfilters oder irgendeines Datenverarbeitungsalgorithmus, welcher die Pixeldatenintensitäten glättet oder weich macht, gefiltert. Eine Pixelintensitätsschwelle ist für das gefilterte Bild eingerichtet und die Anzahl von Pixeln, welche eine Intensität über der Schwelle haben, wird tabuliert, um Hügel und Täler in der Haut zu identifizieren.
  • Fig. 8b zeigt das grafische Bild der zwei Hemisphären einer Frucht 14, deren Haut durch einen Mangel, welcher als Furche und Vertiefung bekannt ist, beschädigt ist. Dies sind longitudinale Täler oder Furchen, welche auf der Außenseite der Schale während des Wachsens gebildet wurden. Das entsprechende Histogramm ist in Fig. 8b gezeigt und ist wieder ein von den Histogrammen von Fig. 3b bis 7b verschiedenes Muster, welches durch weite und hohe Peaks mit tiefen Tälern zwischen ihnen charakterisiert ist, welche den Furchen und Tälern, welche in der Fruchthaut gebildet sind, entsprechen. Die Frucht wird entsprechend gemäß statistischer und Muster-Detektierung durch das System 10 eingestuft und sortiert. Insbesondere wird das Bild selektiv nach scharfen Übergängen in der Pixelinten sität abgetastet. Eine Schwelle für die Pixelintensität wird eingerichtet. Die Anzahl der Pixel, welche eine Intensität über der eingerichteten Schwelle in Umgebungen haben, welche an Pixelgrenzen aneinandergrenzen, welche scharfen Übergängen entsprechen, wird tabuliert. Die Umgebungen sind als Flecken definiert. Die Anzahl der Flecken, welche einen vorbestimmten charakteristischen Parameter übersteigen, welcher benutzt wird, um erhöhte und vertiefte Abschrägungen in der Haut zu identifizieren, wird dann tabuliert. Wieder, wie in allen Fällen der Fig. 3a bis 10a, wird eine absolute Anzahl von Flecken oder der Prozentsatz der gesamten Schalenfläche in Flecken bestimmt, um ein Kriterium zu liefern, durch welches die Frucht angenommen, zurückgewiesen oder anderweitig behandelt wird.
  • Fig. 9a zeigt Fruchtbilder 14 für ein Stück Obst, welches "Brüche" zeigt, die gattungsgemäß definiert sind, Spalten, Schnitte, Einstiche und Kratzer zu beinhalten. Das entsprechende Histogramm ist in Fig. 9b gezeigt und ist durch sehr große und breite Peaks mit tiefen und breiten benachbarten Tälern charakterisiert. Das Histogramm ist optisch, statistisch und Muster-verschieden von den in Fig. 3b bis 8a gezeigten Histogrammen und ermöglicht ein geeignetes Klassifizieren und Sortieren der Frucht 14 im System 10. Insbesondere ist das Bild nach scharfen Übergängen in der Pixelintensität abgetastet. Eine vorbestimmte Schwelle ist geliefert. Die Anzahl von Pixeln, welche eine Intensität über der vorbestimmten Schwelle in Umgebungen haben, welche an Pixelgrenzen mit scharfen Übergängen aneinandergrenzen, ist tabuliert. Die Umgebungen sind als Flecken definiert. Die Anzahl der Flecken, welche eine vorbestimmte Fläche und eine vorbestimmte Breite überschreiten, werden tabuliert, um Brüche in der Haut zu identifizieren.
  • Fig. 10a ist ein Computerbild der zwei Hemisphären einer Frucht 14, welche durch klare Aufblähung- und Falten-Hautdefekte charakterisiert ist. Das entsprechende Histogramm ist in Fig. 10b gezeigt und liefert ein unverkennbares Muster von hohen Mehrfachpeaks mittlerer Breite mit schmalen Spitzen, welche durch tiefe Täler getrennt sind, was ein statistisch und Musterverschiedenes Bild von dem in Fig. 3b bis 9b gezeigten ist. Entsprechend kann die Frucht 14 mit klarer Aufblähung und Falten im System 10 selektiv klassifiziert und sortiert werden. Die Bildverarbeitung ist im wesentlichen dieselbe, wie die, welche mit weicher Aufblähung und Falten, welche oben beschrieben sind, praktiziert wird.
  • Die Hardware von System 10 und das Verarbeiten der Bilddaten sind jetzt beschrieben und wir betrachten die Gesamt-Softwarearchitektur, durch welche die Datenverarbeitung erreicht wird. Die Betriebsweise von System 10 und insbesondere die Softwaresteuerung des Texturmoduscomputers 34 wird durch das Software-Architekturdiagramm von Fig. 11 veranschaulicht. Der Softwareaufbau von Fig. 11 zeigt die Hauptmodule, welche durch den Texturmoduscomputer 34 benutzt werden, um die oben beschriebenen Operationen durchzuführen.
  • Ein Echtzeitkern 54 stellt das Betriebssystem der veranschaulichten Ausführungsform zur Verfügung. Ein Haupttexturmodul 56 führt Initialisierungsaufgaben durch, führt die verschiedenen mit dem Texturmoduscomputer 34 gekoppelten Resourcen, bearbeitet Ereignisunterbrechungen, was ein spezielles Verarbeiten erfordert, erzeugt oder überträgt Systemaufgaben, welche durchgeführt werden müssen, und teilt Prioritäten unter konkurrierenden Softwareabfragen im Texturmoduscomputer 34 zu.
  • Das Hauptstrukturmodul 56 kommuniziert parallel mit einer Vielzahl von anderen Modulen oder Resourcen. Zum Beispiel kommuniziert das Modul 56 durch ein Parallel-Kommunikationsportmodul 58 zur Steuerungs- und Datenkommunikation mit dem Leit-Fern-Computer 36. Die Kommunikation mit dem zentralen Eingabe/Ausgabecomputer 38 wird durch ein Lokal-Bereichsnetzwerkmodul (Lan) 60 bearbeitet. Bewegung und Synchronisierung des Förderers 12 wird durch ein Band-Synchronisationsmodul 62 geleitet, welches auch in Kommunikation mit dem Leit-Fern-Computer 36 ist, um Informationen, welche die Fördergeschwindigkeit und Position betreffen, zu erhalten.
  • Die Kamera 30 kommuniziert mit dem Texturmoduscomputer 34 in einem effizienten grafischen Bildeinfangprotokoll unter der Steuerung von Modul 64, welches benutzt wird, um die Operation der Videobildeinfangkarte zu beginnen und zu überwachen, welche bei der veranschaulichten Ausführungsform eine SPEC- TRUM-Videokarte ist, welche von Spectrum Signal Processing, Inc., British Columbia, Kanada, hergestellt wird.
  • Verarbeitete Grafikdaten werden von der Videokarte durch das Modul 66 gelesen und für Datenarchivierungszwecke auf einer Festplatte unter Steuerung des Datenbearbeitungsmoduls 68 gespeichert. Die verarbeiteten Bilddaten, wie sie in Fig. 3a bis 10a gesehen werden, werden zum zentralen Eingabe/Ausgabecomputer 38 zur Benutzerinformation mittels eines Lokalbereichs-Netzwerktransfermoduls 70 übertragen. Das ermöglicht dem Bediener, dieselben verarbeiteten Bilder zu sehen, welche durch das Strukturmodul 56 im System 10 gesehen wurden, während das System in Betrieb ist.
  • Zusätzliche Haushaltungssoftwareaufgaben werden durch Installation von Modul 72 bearbeitet, welches die Kommunikation mit den Computern 36 und 38 und anderen Systemen, mit welchen das System kombiniert werden könnte, einstellt und überwacht. Zum Beispiel das Einstufen und Sortieren des Systems 10 könnte mit einem System zum Einstufen von Farbe und Beschädigungen (Cab) der Zitrusfrucht kombiniert werden, wie im US-Patent 5,164,795 beschrieben ist, wobei die Kommunikation mit jenem Farb- und Beschädigungseinstufer mittels des Versorgungsmoduls 72 eingestellt wird. Das Modul 74 besorgt die Initialisierung der Videokarte und Bestätigung ihrer Betriebsbereitschaft. Das Versorgungsmodul 76 stellt ähnlich die Lokalbereichs-Netzwerksteuerung und Betriebsweise ein und richtet sie ein.
  • Es muß deutlich verstanden werden, daß das Softwaresystem und dessen Aufbau breit variiert werden können, während immer noch dieselben wesentlichen Funktionen des Akkumulierens von grafischen Daten, des Verarbeitens der Daten, um die Kategorie oder Beschaffenheit der topographischen Oberflächentextur zu charakterisieren, und das Liefern der Charakterisierung an einen Zentralcomputer 38 und einen Leit-Fern-Computer 36 für eine geeignete Entscheidung und Streckenleitung gemäß einer Benutzerwahl ausgeführt werden.

Claims (25)

1. Verfahren zum Klassifizieren eines lichtdurchlässigen Gegenstandes (14) gemäß mindestens einem gewählten Oberflächenmerkmal des Gegenstandes (14), aufweisend die Schritte:
Beleuchten des Gegenstandes (14);
Erkennen von durch die Oberfläche des Gegenstandes (14) durchgelassenem Licht;
Konvertieren des erkannten Lichtes in Daten;
Analysieren derartiger Daten, um das Vorhandensein des gewählten Merkmals auf der Oberfläche zu bestimmen; und
Klassifizieren des Gegenstandes (14) auf der Basis einer derartigen Bestimmung, dadurch gekennzeichnet, daß der Schritt des Beleuchtens des Gegenstandes eingerichtet ist, um zu bewirken, daß Licht durch den ganzen Gegenstand gestreut wird und dadurch, daß der Erkennen-Schritt eingerichtet ist, die Intensität dieses gestreuten Lichtes zu erkennen, welches von verschiedenen definierten Bereichen der Oberfläche des Gegenstandes durchgelassen wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt des Analysierens den Schritt des Durchführens einer Mustererkennung der Oberflächenmerkmale des Gegenstandes (14) aufweist.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß vor dem Schritt des Durchführens der Mustererkennung der weitere Schritt des Entfernens von Daten auftritt, welche nicht von Licht stammen, welches von innerhalb des Gegenstandes 14 durch dessen Oberfläche durchgelassen wurde.
4. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, daß der Schritt des Analysierens der Daten das Ableiten einer statistischen Messung der Daten aufweist, um zu bestimmen, ob ausreichend Variation der Lichtintensität vorhanden ist, um das Vorhandensein der Oberflächenmerkmale anzuzeigen.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß der Schritt des Konvertierens der Daten des weiteren den Schritt eines Frequenzfilterns der Daten relativ zu einer gewählten Grenzfrequenz aufweist.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß der Schritt des Frequenzfilterns entweder ein Durchlassen nur von hochfrequenten Datenkomponenten oder nur von niederfrequenten Datenkomponenten aufweist.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt des Erkennens des weiteren den Schritt eines optischen Formens eines Bildes des durchgelassenen gestreuten Lichts vom Gegenstand (14) und den Schritt eines Abtastens des so gebildeten Bildes längs mindestens einer gewählten Linie, welche ein derartiges Bild überquert, aufweist.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Gegenstand (14) im allgemeinen sphärisch ist, und daß der Schritt des optischen Formens eines Bildes das Formen eines Bildes von im wesentlichen beider Hemisphären des Gegenstandes (14) aufweist.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Schritt des optischen Formens eines Bildes ein optisches Reflektieren eines Bildes des gestreuten Lichts, welches vom Gegenstand (14) durchgelassen wurde, in eine Kamera aufweist, welche vom Gegenstand (14) weggerichtet ist.
10. Verfahren nach irgendeinem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Vielzahl von Oberflächenmerkmalen berücksichtigt wird, und daß der Schritt des Analysierens das Bestimmen umfaßt, ob irgendeines von derartigen Oberflächenmerkmalen auf dem Gegenstand (14) vorhanden ist.
11. Verfahren nach irgendeinem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß der Gegenstand (14) eine Zitrusfrucht mit einer Schale ist, und wobei der Schritt des Analysierens das Bestimmen von mindestens einem von dem Ausmaß der Porosität der Schale der Zitrusfrucht, dem Ausmaß des Aufblähens und der Falten in der Schale der Zitrusfrucht, dem Ausmaß von Furchen und Vertiefungen in der Schale der Zitrusfrucht, dem Ausmaß von Brüchen in der Schale der Zitrusfrucht und dem Ausmaß von Oberflächenzersetzung in der Schale der Zitrusfrucht aufweist.
12. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Schritt des Erkennens den Schritt des Abtastens des Bildes in einem zweidimensionalen Array aufweist, um ein zweidimensionales grafisches Bild von zumindest einem Abschnitt der Oberfläche des Gegenstandes zu liefern.
13. Verfahren nach irgendeinem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß der Schritt des Beleuchtens ein Beleuchten des Gegenstandes mit sichtbarem Licht, mit Licht außerhalb des sichtbaren Spektrums oder mit nah-infrarotem Licht aufweist.
14. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß der Schritt des Analysierens aufweist:
Trennen des Bildes in ein Hintergrundbild und ein Gegenstandsbild; und Entfernen des Hintergrundbildes, um ein Gegenstandsbild übrig zu lassen.
15. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß der Schritt des Analysierens des weiteren aufweist:
Abtasten des Gegenstandsbildes;
Filtern des abgetasteten Bildes für entweder hoch- oder niederfrequente Daten, unter Benutzung eines Hoch- oder Tiefpaß-Datenfilters;
Einrichten einer Schwelle Ihr die Pixel-Intensität des gefilterten Bildes; und
Tabulieren einer Anzahl von Pixeln, welche eine Intensität über der Schwelle haben.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß der Schritt des Analysierens des weiteren aufweist:
selektives Abtasten des Gegenstandsbildes nach scharfen Übergängen bei der Pixel-Intensität;
Einrichten einer Schwelle Ihr die Pixel-Intensität; und
Tabulieren der Anzahl von Pixeln, welche eine Intensität über der Schwelle in Umgebungen haben, welche an Pixelgrenzen aneinandergrenzen, welche scharfen Übergängen entsprechen, wobei die Umgebungen als Flecken definiert sind; und
Tabulieren der Anzahl von Flecken, welche einen vorbestimmten charakteristischen Parameter übersteigen, wobei erhöhte und vertiefte Abschrägungen in der Schale identifiziert werden.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß der charakteristische Parameter einen gewählten minimalen Fleckenbereich aufweist, und daß der Schritt des Tabulierens der Anzahl von Flecken entweder ein Tabulieren der Anzahl von Flecken, welche den gewählten Minimalbereich übersteigen, oder ein Tabulieren der Anzahl von Flecken aufweist, welche der gewählten Formdefinition entsprechen.
18. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß der Schritt des Analysierens des weiteren aufweist:
Abtasten des Gegenstandsbildes nach scharfen oder allmählichen Übergängen bei der Pixel-Intensität;
Einrichten einer gewählten Schwelle für die Pixel-Intensität des Gegenstandsbildes;
Tabulieren der Anzahl von Pixeln, welche eine Intensität über der gewählten Schwelle in Umgebungen haben, welche an Pixelgrenzen mit scharfen oder allmählichen Übergängen aneinandergrenzen, wobei diese Umgebungen als Flecken definiert sind; und
Tabulieren der Anzahl derartiger Flecken, welche einen gegebenen charakteristischen Parameter übersteigen.
19. Vorrichtung zum Bestimmen des Vorhandenseins von mindestens einem gewählten Oberflächenmerkmal auf einem lichtdurchlässigen Gegenstand (14), aufweisend:
eine Einrichtung (22, 24) zum Beleuchten des Gegenstandes (14);
eine Einrichtung (30) zum Erkennen von durch die Oberfläche des Gegenstandes durchgelassenem Licht;
eine Einrichtung zum Konvertieren von derartigem erkanntem Licht in Daten; und
eine Einrichtung (34) zum Analysieren derartiger Daten, um das Vorhandensein des gewählten Merkmals der Oberfläche zu bestimmen, dadurch gekennzeichnet, daß die Einrichtung (22, 24) zum Beleuchten des Gegenstandes (14) derart ist, um zu bewirken, daß Licht durch den ganzen Gegenstand (14) gestreut wird, und daß die Erkennungseinrichtung (30) eingerichtet ist, die Intensität dieses gestreuten Lichts, welches von verschiedenen definierten Bereichen der Oberfläche des Gegenstandes (14) durchgelassen wird, zu erkennen.
20. Vorrichtung nach Anspruch 19, dadurch gekennzeichnet, daß die Erkennungseinrichtung (30) eine Einrichtung zum Schaffen eines Bildes des durchgelassenen gestreuten Lichts aufweist und eine optische Abtasteinrichtung zum Abtasten eines derartigen Bildes beinhaltet.
21. Vorrichtung nach Anspruch 20, dadurch gekennzeichnet, daß die Erkennungseinrichtung (30) eine optische Abtasteinrichtung zum Abtasten eines derartigen Bildes aufweist, wobei die Abtasteinrichtung (30) angepaßt ist, unterschiedliche Abschnitte eines derartigen Bildes abzutasten.
22. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, daß der Gegenstand (14) im wesentlichen sphärisch ist, und daß jede der optischen Abtasteinrichtungen angepaßt ist, ein Bild abzutasten, welches im wesentlichen einer Hemisphäre des Gegenstandes entspricht.
23. Vorrichtung nach irgendeinem der Ansprüche 20 bis 22, gekennzeichnet durch eine Einrichtung, welche auf die Ausgabe von der Abtasteinrichtung (30) anspricht, um deren Ausgabe in Daten zu konvertieren, welche die relative Intensität von Licht in einer Vielzahl von Bereichen des Bildes wiedergibt.
24. Vorrichtung nach irgendeinem der Ansprüche 19 bis 23, dadurch gekennzeichnet, daß die Daten-Analysiereinrichtung (34) eine Einrichtung zum Vergleichen derartiger relativer Lichtintensitäten mit mindestens einem gewählten Kriterien-Muster aufweist.
25. Vorrichtung zum Bestimmen des Vorhandenseins eines gewählten Oberflächenmerkmals auf einem lichtdurchlässigen Gegenstand (14), aufweisend:
mindestens eine Lichtquelle (22, 24), welche auf den Gegenstand gerichtet ist;
eine Abfühleinrichtung (30) zum Konvertieren von durch die Oberfläche des Gegenstandes durchgelassenem Licht in ein digitales Signal; und
eine Auswerteeinrichtung (34) zum Bestimmen, ob das derartige Merkmal vorhanden ist, dadurch gekennzeichnet, daß die Lichtquelle (22, 24) eingerichtet ist, zu bewirken, daß Licht durch das Innere des Gegenstandes (14) gestreut wird, und daß die Abfühleinrichtung (30) das Licht abfühlt, welches von verschiedenen definierten Bereichen auf der Oberfläche des Gegenstandes ausgeht, um zu ermöglichen, daß die Auswerteeinrichtung (34) das abgefühlte Lichtmuster auswertet.
DE69513381T 1994-11-03 1995-09-06 Verfahren und vorrichtung zur erfassung von oberflächenmerkmalen durchsichtiger gegenstände Expired - Fee Related DE69513381T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/334,165 US5845002A (en) 1994-11-03 1994-11-03 Method and apparatus for detecting surface features of translucent objects
PCT/US1995/011318 WO1996014169A1 (en) 1994-11-03 1995-09-06 Method and apparatus for detecting surface features of translucent objects

Publications (2)

Publication Number Publication Date
DE69513381D1 DE69513381D1 (de) 1999-12-23
DE69513381T2 true DE69513381T2 (de) 2000-06-15

Family

ID=23305894

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69513381T Expired - Fee Related DE69513381T2 (de) 1994-11-03 1995-09-06 Verfahren und vorrichtung zur erfassung von oberflächenmerkmalen durchsichtiger gegenstände

Country Status (15)

Country Link
US (1) US5845002A (de)
EP (1) EP0738186B1 (de)
JP (1) JP3657991B2 (de)
KR (1) KR100374909B1 (de)
CN (1) CN1058644C (de)
AT (1) ATE186661T1 (de)
AU (1) AU699165B2 (de)
BR (1) BR9505063A (de)
CA (1) CA2180361C (de)
DE (1) DE69513381T2 (de)
ES (1) ES2138235T3 (de)
GR (1) GR3032417T3 (de)
NZ (1) NZ293112A (de)
PT (1) PT738186E (de)
WO (1) WO1996014169A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010030908A1 (de) * 2010-07-02 2012-01-05 Strube Gmbh & Co. Kg Verfahren zur Klassifizierung in Saatgutpartien enthaltener Objekte, Sortierverfahren und zugehörige Vorrichtungen
DE102011054659A1 (de) * 2011-10-20 2013-04-25 AeroMegt GmbH Verfahren und Vorrichtung zum Messen von Aerosolen in einem großen Volumenstrom

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2754058B1 (fr) * 1996-10-02 1998-12-18 Etat Francais Laboratoire Cent Procede de detection de defauts de surface sur une surface texturee
EP0880023A1 (de) * 1997-05-23 1998-11-25 Siemag Transplan Gmbh Verfahren und Vorrichtung zur automatischen Detektion von Oberflächenfehlern beim kontinuierlichen mechanischem Abtragen von Material von Stranggiessprodukten
US7212654B2 (en) * 1997-06-20 2007-05-01 Dawn Foods, Inc. Measurement of fruit particles
US6013915A (en) * 1998-02-10 2000-01-11 Philip Morris Incorporated Process control by transient thermography
US6600829B1 (en) * 1998-02-20 2003-07-29 Sunkist Growers Inc. Computer process for controlling a system for sorting objects by surface characteristics
US6137581A (en) 1998-05-15 2000-10-24 Mitsui Mining & Smelting Co., Ltd. Measurement apparatus for measuring internal quality of object
US7035428B1 (en) * 1999-04-23 2006-04-25 The Escher Group, Ltd. Workpiece authentication based upon one or more workpiece images
US20010048765A1 (en) * 2000-02-29 2001-12-06 Steven Yi Color characterization for inspection of a product having nonuniform color characteristics
AUPQ607100A0 (en) * 2000-03-07 2000-03-30 Colour Vision Systems Pty Ltd Spectral assessment of fruit
US6512577B1 (en) * 2000-03-13 2003-01-28 Richard M. Ozanich Apparatus and method for measuring and correlating characteristics of fruit with visible/near infra-red spectrum
WO2001079814A1 (fr) * 2000-04-13 2001-10-25 Mitsui Mining & Smelting Co.,Ltd. Dispositif destine a evaluer la qualite interieure de legumes ou de fruits, procede de mise en temperature au moyen du dispositif, et procede de mesure de la qualite interieure
US7151606B2 (en) * 2001-07-09 2006-12-19 Mitsui Mining & Smelting Co., Ltd. Method for evaluation of vegetables and fruits and evaluation apparatus therefor
US6391354B1 (en) * 2001-08-23 2002-05-21 Anzai Universal Laboratory Co., Ltd. Apparatus and method for selecting and separating out sprouted kernel
EP1436646A4 (de) * 2001-09-13 2006-09-13 Anzpac Systems Ltd Verfahren und vorrichtung zur artikeluntersuchung
CA2459558A1 (en) * 2001-09-17 2003-03-27 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Agriculture And Agri-Food Method for identifying and quantifying characteristics of seeds and other small objects
US6532064B1 (en) 2001-10-16 2003-03-11 Baader-Canpolar Inc. Automatic inspection apparatus and method for simultaneous detection of anomalies in a 3-dimensional translucent object
US6727452B2 (en) * 2002-01-03 2004-04-27 Fmc Technologies, Inc. System and method for removing defects from citrus pulp
FI115558B (fi) * 2002-03-27 2005-05-31 Metso Automation Oy Menetelmä havainnointialueen mittakaavan määrittämiseksi
CA2390056A1 (en) * 2002-06-07 2003-12-07 Du Pont Canada Inc. Method and system for managing commodity information in a supply chain of production
JP3923011B2 (ja) * 2002-12-24 2007-05-30 株式会社クボタ 果菜類の品質評価装置
US20040183900A1 (en) * 2003-03-20 2004-09-23 Everest Vit Method and system for automatically detecting defects in remote video inspection applications
US7406183B2 (en) * 2003-04-28 2008-07-29 International Business Machines Corporation System and method of sorting document images based on image quality
US20050004824A1 (en) * 2003-05-09 2005-01-06 Sunkist Growers Inc. System and method for concurrent recording, using and recovering a multi-referenced data in a real-time control system for a plant product sorting system
KR20070026501A (ko) * 2004-05-10 2007-03-08 히로무 마에다 온라인 내부품질 검사방법과 장치
US8121392B2 (en) 2004-10-25 2012-02-21 Parata Systems, Llc Embedded imaging and control system
GB2420403A (en) * 2004-11-23 2006-05-24 Danisco Analysing a food sample by the use of light scattering
CN100429501C (zh) * 2004-12-14 2008-10-29 中国农业大学 一种快速无损检测鸭梨黑心病的方法
CN100429502C (zh) * 2004-12-14 2008-10-29 中国农业大学 一种快速无损检测苹果内部质量的方法
US7721746B2 (en) * 2005-08-25 2010-05-25 North Pole Limited Moisture diversion system for a collapsible structure
NL1031823C2 (nl) * 2006-05-16 2007-11-20 Staalkat Internat B V Detectie van open breuken in eieren.
KR101396146B1 (ko) * 2006-10-05 2014-05-19 코닌클리케 필립스 엔.브이. 샘플의 표면을 관찰하기 위한 장치 및 방법
US8068104B2 (en) * 2007-06-29 2011-11-29 Carlyle Rampersad Totally integrated intelligent dynamic systems display
JP4906609B2 (ja) * 2007-06-29 2012-03-28 キヤノン株式会社 撮像装置および方法
US8107060B2 (en) * 2007-10-05 2012-01-31 Embrex, Inc. Methods and apparatus for candling eggs via embryo heartbeat detection
US20090274811A1 (en) * 2008-05-01 2009-11-05 Brock Lundberg Defect separation from dry pulp
CN101279321B (zh) * 2008-05-14 2012-10-10 合肥泰禾光电科技股份有限公司 颗粒物料光学色选机
EP2373957B1 (de) * 2009-01-06 2020-04-01 Siemens Healthcare Diagnostics Inc. Verfahren zur bestimmung eines flüssigkeitsstandes in einem behälter durch bilderzeugung
US9541505B2 (en) 2009-02-17 2017-01-10 The Boeing Company Automated postflight troubleshooting sensor array
US9418496B2 (en) * 2009-02-17 2016-08-16 The Boeing Company Automated postflight troubleshooting
US8812154B2 (en) * 2009-03-16 2014-08-19 The Boeing Company Autonomous inspection and maintenance
US9046892B2 (en) * 2009-06-05 2015-06-02 The Boeing Company Supervision and control of heterogeneous autonomous operations
JP5449997B2 (ja) * 2009-11-09 2014-03-19 株式会社マルハニチロ水産 魚卵熟度判定装置及び魚卵熟度判定方法
AT509382B1 (de) * 2010-01-18 2011-12-15 Wollsdorf Leder Schmidt & Co Gmbh Prüfeinrichtung zur bestimmung der qualität von leder
US8773289B2 (en) 2010-03-24 2014-07-08 The Boeing Company Runway condition monitoring
US8599044B2 (en) 2010-08-11 2013-12-03 The Boeing Company System and method to assess and report a health of a tire
US8712634B2 (en) 2010-08-11 2014-04-29 The Boeing Company System and method to assess and report the health of landing gear related components
US8982207B2 (en) * 2010-10-04 2015-03-17 The Boeing Company Automated visual inspection system
DE102010048022B4 (de) * 2010-10-09 2013-08-14 Testo Ag Verfahren zur berührungslosen Bestimmung der Temperatur eines Objekts und korrespondierende Wärmebildkamera
CN101984346A (zh) * 2010-10-19 2011-03-09 浙江大学 基于低通滤波的水果表面缺陷检测方法
JP5710408B2 (ja) * 2011-07-19 2015-04-30 国立大学法人京都大学 麺類のクラック検出装置、クラック検出方法および分別システム
JP6164804B2 (ja) * 2012-06-13 2017-07-19 株式会社日清製粉グループ本社 表面形状測定装置及び方法
CN102878946B (zh) * 2012-08-29 2015-01-21 宁波富邦电池有限公司 电池的密封件的检测装置
JP5619095B2 (ja) * 2012-09-03 2014-11-05 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP2014049015A (ja) * 2012-09-03 2014-03-17 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
IE20120388A1 (en) * 2012-09-07 2014-03-12 Odenberg Engineering Ltd Method and apparatus for handling harvested root crops
KR101270354B1 (ko) * 2013-02-12 2013-06-04 한국쓰리알환경산업(주) 폐기물 재활용 분류 시스템
US10534995B2 (en) 2013-03-15 2020-01-14 Qylur Intelligent Systems, Inc. Network of intelligent machines
US8805088B1 (en) 2013-12-16 2014-08-12 Google Inc. Specularity determination from images
BR112017020995A2 (pt) * 2015-03-31 2018-07-10 Nanopix Integrated Software Solutions Private Ltd novo sistema de gradação óptica baseado em cor com vistas de multi-refletância e multi-ângulo
CN105046700B (zh) * 2015-07-09 2018-03-09 北京农业智能装备技术研究中心 基于亮度校正与颜色分类的水果表面缺陷检测方法及***
JP6266574B2 (ja) * 2015-09-10 2018-01-24 株式会社日立ハイテクサイエンス X線検査方法及びx線検査装置
US9599459B1 (en) * 2016-02-24 2017-03-21 United Parcel Service Of America, Inc. Conveyor belt, conveyor belt assembly including an imaging system, and methods of using the same
KR102656451B1 (ko) * 2016-03-18 2024-04-12 (주)테크윙 전자부품 테스트용 핸들러
CN106179968B (zh) * 2016-07-13 2018-06-08 泉州有刺电子商务有限责任公司 苹果分级分拣装置
WO2018031956A2 (en) * 2016-08-12 2018-02-15 Amazon Technologies, Inc. Object sensing and handling system and associated methods
CN106442561B (zh) * 2016-08-29 2023-10-31 北京农业智能装备技术研究中心 用于检测柑橘表皮缺陷的在线图像采集***及方法
CN107064056B (zh) * 2017-03-08 2020-05-22 北京农业智能装备技术研究中心 一种水果无损检测的方法及装置
JP6943416B2 (ja) * 2017-04-28 2021-09-29 株式会社ナベル 卵の検査装置
CN108061734A (zh) * 2017-12-14 2018-05-22 东莞辰达电器有限公司 一种利用ccd视觉技术的产品的自动检查***
CN108325873A (zh) * 2017-12-27 2018-07-27 合肥市硕理机电科技有限公司 一种用于激光色选机的像元划分装置
CN108940926A (zh) * 2018-07-26 2018-12-07 福建工程学院 高反射面圆柱形零件表面瑕疵的检测方法及***
CN109827971B (zh) * 2019-03-19 2021-09-24 湖州灵粮生态农业有限公司 一种无损检测水果表面缺陷的方法
CN109827965A (zh) * 2019-03-19 2019-05-31 湖州灵粮生态农业有限公司 一种水果表面腐烂自动化识别方式
CN110044921A (zh) * 2019-04-28 2019-07-23 江苏理工学院 锂电池外观缺陷检测***和方法
CN110068276A (zh) * 2019-04-29 2019-07-30 赣南师范大学 一种精确测量柑橘果皮厚度的方法
US20220207709A1 (en) * 2019-05-10 2022-06-30 Sunkist Growers, Inc. Decay detection system
CN111156889B (zh) * 2020-01-07 2022-07-26 天津市农业科学院 玉米果皮厚度的测量方法及应用
CN111964635B (zh) * 2020-08-28 2023-10-24 哈尔滨工业大学 一种混凝土基体修复表面粗糙度的测试方法
US11836912B2 (en) * 2020-09-22 2023-12-05 Future Dial, Inc. Grading cosmetic appearance of a test object based on multi-region determination of cosmetic defects
US11900581B2 (en) 2020-09-22 2024-02-13 Future Dial, Inc. Cosmetic inspection system
CN112415006A (zh) * 2020-10-22 2021-02-26 安徽科博产品检测研究院有限公司 一种智能农产品检测平台
CN112488233B (zh) * 2020-12-09 2021-12-17 中国农业科学院农业资源与农业区划研究所 一种基于果纹图谱信息的编码和识别方法及装置
CN112580719A (zh) * 2020-12-18 2021-03-30 安徽唯嵩光电科技有限公司 一种基于ai识别的红枣分选方法及***
US20220272207A1 (en) * 2021-02-24 2022-08-25 General Electric Company Automated beam scan calibration, alignment, and adjustment
CN113070240A (zh) * 2021-03-25 2021-07-06 南京工业大学 一种基于机器视觉和深度学习的铜板表面缺陷检测及自动化分类方法
WO2022271007A1 (en) * 2021-06-22 2022-12-29 Tt Vision Technologies Sdn. Bhd. System and method of inspecting translucent object
CN117244804B (zh) * 2023-11-13 2024-03-22 济南鑫鑫体育用品有限公司 一种球类质量检测仪

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1943278A (en) * 1930-04-14 1934-01-09 Pacific Machinery Co Method of and apparatus for classifying fruit and vegetables
US3549890A (en) * 1969-01-16 1970-12-22 Emhart Corp Article inspection apparatus
US3768645A (en) * 1971-02-22 1973-10-30 Sunkist Growers Inc Method and means for automatically detecting and sorting produce according to internal damage
US3930994A (en) * 1973-10-03 1976-01-06 Sunkist Growers, Inc. Method and means for internal inspection and sorting of produce
US3932042A (en) * 1974-05-20 1976-01-13 Barry-Wehmiller Company Container inspection apparatus and method of inspection
NO135609C (de) * 1975-06-03 1977-05-11 Tore Planke
JPS5546172A (en) * 1978-09-29 1980-03-31 Kirin Brewery Co Ltd Detector for foreign material
US4493420A (en) * 1981-01-29 1985-01-15 Lockwood Graders (U.K.) Limited Method and apparatus for detecting bounded regions of images, and method and apparatus for sorting articles and detecting flaws
US4608709A (en) * 1983-03-08 1986-08-26 Owens-Illinois, Inc. Method and apparatus for gauging containers
US4741042A (en) * 1986-12-16 1988-04-26 Cornell Research Foundation, Inc. Image processing system for detecting bruises on fruit
US5007096A (en) * 1987-02-18 1991-04-09 Hajime Industries Ltd. Object inspection apparatus
US4760270A (en) * 1987-06-04 1988-07-26 Owens-Illinois Television Products Inc. Method of and apparatus for comparing data signals in an electrooptical inspection system
US5026982A (en) * 1989-10-03 1991-06-25 Richard Stroman Method and apparatus for inspecting produce by constructing a 3-dimensional image thereof
EP0501981A4 (en) * 1989-11-10 1993-05-19 Ovascan Pty. Limited Method and apparatus for grading shell eggs
US5174429A (en) * 1990-03-08 1992-12-29 Sunkist Growers, Inc. Conveyor discharge apparatus and method
US5164795A (en) * 1990-03-23 1992-11-17 Sunkist Growers, Inc. Method and apparatus for grading fruit
IL101612A0 (en) * 1992-04-16 1992-12-30 Electro Optics Ind Ltd Apparatus and method for inspecting articles such as agricultural produce

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010030908A1 (de) * 2010-07-02 2012-01-05 Strube Gmbh & Co. Kg Verfahren zur Klassifizierung in Saatgutpartien enthaltener Objekte, Sortierverfahren und zugehörige Vorrichtungen
DE102010030908B4 (de) * 2010-07-02 2014-10-16 Strube Gmbh & Co. Kg Verfahren zur Klassifizierung in Saatgutpartien enthaltener Objekte, Sortierverfahren und zugehörige Vorrichtungen
DE102011054659A1 (de) * 2011-10-20 2013-04-25 AeroMegt GmbH Verfahren und Vorrichtung zum Messen von Aerosolen in einem großen Volumenstrom
DE102011054659A9 (de) * 2011-10-20 2013-07-04 AeroMegt GmbH Verfahren und Vorrichtung zum Messen von Aerosolen in einem großen Volumenstrom

Also Published As

Publication number Publication date
CN1058644C (zh) 2000-11-22
CN1142205A (zh) 1997-02-05
EP0738186B1 (de) 1999-11-17
BR9505063A (pt) 1997-10-14
CA2180361C (en) 2005-03-29
JP3657991B2 (ja) 2005-06-08
AU699165B2 (en) 1998-11-26
CA2180361A1 (en) 1996-05-17
KR100374909B1 (ko) 2003-05-12
JPH09512342A (ja) 1997-12-09
NZ293112A (en) 1998-01-26
AU3547395A (en) 1996-05-31
WO1996014169A1 (en) 1996-05-17
PT738186E (pt) 2000-04-28
US5845002A (en) 1998-12-01
ES2138235T3 (es) 2000-01-01
ATE186661T1 (de) 1999-12-15
GR3032417T3 (en) 2000-05-31
EP0738186A1 (de) 1996-10-23
DE69513381D1 (de) 1999-12-23

Similar Documents

Publication Publication Date Title
DE69513381T2 (de) Verfahren und vorrichtung zur erfassung von oberflächenmerkmalen durchsichtiger gegenstände
DE19519861C2 (de) Verfahren und Vorrichtung zum Detektieren und Abführen von Fremdobjekten
DE60223956T2 (de) Untersuchungsgerät und System zur Untersuchung von Fremdkörpern in mit Flüssigkeit gefüllten Behältern
DE69731651T2 (de) Sortiervorrichtung
DE69610925T2 (de) Vorrichtung zur untersuchung von flaschengewinden und verfahren zu deren betrieb
DE69328533T2 (de) Methode zum Prüfen eines Festkörpers auf Fremdstoffe
US5675419A (en) Scattered/transmitted light information system
DE69107882T2 (de) Verfahren und Gerät zur Untersuchung eines Oberflächenmusters eines Objektes.
DE69205260T2 (de) Verfahren und Vorrichtung zur Bestimmung von synthetischen Fasern und/oder defekten Fasern und/oder anderen Fremdstoffen in der Aufbereitung von Seide-Abfällen.
DE69411308T2 (de) Verfahren und Vorrichtung zur automatischen Sortierung von Produkten, hauptsächlich von Früchten oder Gemüsen
AT12076U1 (de) Verfahren, sensoreinheit und maschine zum detektieren von ''zuckerspitzen''-defekten in kartoffeln
EP3679356A1 (de) Inspektionsvorrichtung mit farbbeleuchtung
DE102018202051A1 (de) Vorrichtung zum automatischen Prüfen von Linsen und Verfahren zum automatischen Prüfen einer Vielzahl von Linsen
DE112008001839T5 (de) Prüfvorrichtung und Prüfverfahren, welches durchdringende Strahlung verwendet
DE102019208299A1 (de) Verfahren und Vorrichtung zur optischen Inspektion von Behältern
EP0620050B1 (de) Vorrichtung und Verfahren zur Qualitäts- und Grössensortierung von Produkten und Artikeln
DE4340918A1 (de) Verfahren und Vorrichtung zum Erkennen und zum Verwendung einer Rahmenfüllinformation in einer Sortiermaschine
DE102007036621A1 (de) Verfahren und Vorrichtung zur Untersuchung von Flaschen aus Kunststoff oder Glas auf vorgewählte Eigenschaften
DE69819034T2 (de) Laufende faserbandüberwachung
DE4023979A1 (de) Sortiervorrichtung unter verwendung von transmittierter strahlung
DE102019208295A1 (de) Verfahren und Vorrichtung zur optischen Inspektion von Behältern
EP4356116A1 (de) Verfahren und vorrichtung zur vollbehälterinspektion
DE19930154A1 (de) Verfahren und Vorrichtung zur Bestimmung der Formation und/oder des Formationsindexes an einer laufenden Materialbahn
DE68902952T2 (de) Produkt-diskriminationssystem und verfahren dazu.
DE69030445T2 (de) Beleuchtungsarray zur videoprüfung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee