DE202024100262U1 - System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut - Google Patents

System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut Download PDF

Info

Publication number
DE202024100262U1
DE202024100262U1 DE202024100262.8U DE202024100262U DE202024100262U1 DE 202024100262 U1 DE202024100262 U1 DE 202024100262U1 DE 202024100262 U DE202024100262 U DE 202024100262U DE 202024100262 U1 DE202024100262 U1 DE 202024100262U1
Authority
DE
Germany
Prior art keywords
image
skin
unit
category
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202024100262.8U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202024100262.8U priority Critical patent/DE202024100262U1/de
Publication of DE202024100262U1 publication Critical patent/DE202024100262U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein System (100) zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut, wobei das System (100) Folgendes umfasst:
eine Eingabeeinheit (102) zum Erfassen mehrerer Hautbilder, um einen Datensatz zu bilden; Und
eine Bildverarbeitungseinheit (104), die mit der Eingabeeinheit (102) zum Verarbeiten der erfassten Hautbilder verbunden ist, wobei die Bildverarbeitungseinheit (104) Folgendes umfasst:
eine Vorverarbeitungseinheit (104a) zum Entfernen eines Fremdbilds aus dem Bild auf der Grundlage einer Medianfilterung, gefolgt von einer Histogrammausgleichstechnik;
eine Merkmalsextraktionseinheit (104b), die mit der Vorverarbeitungseinheit (104a) verbunden ist, um mindestens ein Merkmal der Haut zu extrahieren, um einen Hautzustand basierend auf einem Wavelet-Streuungsnetzwerk zu identifizieren; und
eine Klassifizierungseinheit (104c), die mit der Merkmalsextraktionseinheit (104b) verbunden ist, um das extrahierte Merkmal auf der Grundlage eines Restnetzwerks in mehrere Klassen zu klassifizieren, wobei die mehreren Klassen eine erste Klasse zum Bestimmen einer ersten Kategorie des Hautzustands umfassen und eine zweite Klasse zum Bestimmen einer zweiten Kategorie des Hautzustands.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf das Gebiet der auf Faltungsnetzwerken basierenden Klassifizierungssysteme. Insbesondere betrifft die vorliegende Erfindung ein System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut.
  • HINTERGRUND DER ERFINDUNG
  • Veränderungen der Haut können auf eine Erkrankung oder Veränderungen im Gesundheitszustand des Körpers hinweisen. Der Hauttyp variiert stark von Person zu Person und kann grob in zwei Typen, trockene Haut und fettige Haut, eingeteilt werden. Wenn man den Hauttyp einer Person kennt, kann man mögliche Hautkrankheiten eingrenzen und eine wirksame Möglichkeit zur Abhilfe schaffen. Es sind verschiedene Hauttypen wie normale Haut, fettige Haut, trockene Haut, Mischhaut und empfindliche Haut bekannt. Überschüssige Öle und Poren stehen im Zusammenhang mit fettiger Haut und werden durch überaktive Talgdrüsen produziert. Fettige Haut zeichnet sich durch eine glänzende, dicke, rutschige und schwere Textur aus. Es tritt häufiger bei jüngeren Menschen auf, aber mit zunehmendem Alter wird ihre Haut trockener. Trockene Haut ist kein schwerwiegender Zustand, obwohl es manchmal schwierig sein kann, sie zu heilen. Es kann mit anderen Hauterkrankungen oder pathologischen Zuständen wie Diabetes, Unterernährung usw. zusammenhängen. Trockene Haut ist ein problematischer Zustand, der zu Juckreiz, Schuppenbildung und Rissbildung führt. Es kann im Winter auftreten, wenn die Feuchtigkeitsversorgung vernachlässigt wird, und kann auch durch die Verwendung aggressiver Hautprodukte verursacht werden. Angesichts des zunehmenden Bewusstseins für Hautpflege und der zunehmenden Anzahl von Hauterkrankungen kann die Notwendigkeit einer zeitnahen Klassifizierung des Hauttyps Apothekern und Dermatologen dabei helfen, aus dem immensen möglichen Spektrum möglicher Hauterkrankungen einige wenige herauszufiltern. Doch die meisten Menschen verwenden immer noch nicht das richtige Produkt für ihren Hauttyp, da die meisten Menschen ihren Hauttyp einfach nicht kennen. Daher kann es sehr hilfreich sein, den eigenen Hauttyp zu kennen.
  • Basierend auf einer Reihe von Bildvorverarbeitungen der Trainingsdaten wurde eine herkömmliche Klassifizierungstechnik entwickelt. Die Merkmale des Gesichts werden mithilfe des lokalen binären Musters (LBP) und der diskreten Wavelet-Transformation (DWT) extrahiert. Ein Bild wird in vier Teilbilder mit einer Größe von einem Viertel des ursprünglichen Eingabebilds unterteilt. Die oben rechts, unten rechts und unten links positionierten Teilbilder sehen in etwa genauso aus wie das Original. Gleichzeitig wird der Teil oben links eine feinere Version haben, da er im Gegensatz zu den anderen drei Teilen tieferfrequente Komponenten enthält. LBP wird verwendet, um Texturen in einem Gesicht zu identifizieren. LBP vergleicht die Binärwerte der Pixel in der Bildmitte mit den 8-Pixel-Werten um das Bild herum, wobei jedes Pixel einen anderen Wert hat. Schließlich wird eine Support Vector Machine verwendet, um den Klassifizierungsprozess mehrerer Klassen durchzuführen. Die SVM-Klassifizierung wird so oft ausgeführt, wie Klassen vorhanden sind, um die Trainingsdaten korrekt zu klassifizieren. Die Median-Filtermethode, die im Wesentlichen ein bestimmtes Pixel durch einen Median aller Pixel im durch die Größe angegebenen Fenster ersetzt, wird als Vorverarbeitungsschritt verwendet, um jegliches Rauschen zu entfernen, d. h. das Bild zu entrauschen. Ihre Beobachtung basiert jedoch auf einem kleinen Datensatz von 9 Bildern pro Klasse.
  • Im SCHMT-Framework wurden ein Hidden-Markov-Baummodell und eine Streutransformation bereitgestellt. Die Streutransformation wandelt die Informationen in Kombination mit den Invarianten der Daten in tatsächliche Details mit größeren Dimensionen, aber geringerem Volumen um. Anschließend wird ein generatives kontradiktorisches Markov-BaumModell verwendet. Infolgedessen nutzt das vorgeschlagene Modell, wie die Streutransformation Abbildungen in die Darstellung einführt und wie Markov-Modelle Parameterabhängigkeiten bewahren. Versuche haben ergeben, dass die simulierte Verteilung auch mit kleinen Trainingsvolumina gute Klassifizierungsaufgaben erfüllen kann. Die vorgeschlagene Herausforderung bietet eine einzigartige Gelegenheit, die bioakustische Kategorisierung zu bewerten. Diese Aufgabe beinhaltet alle erheblichen Schwierigkeiten und Probleme, die bei der Arbeit mit einem großen Datensatz in der realen Welt auftreten. Die Autoren haben herausgefunden, dass noch nicht klar ist, wie man aus seinen Koeffizienten Informationen extrahieren kann. Das Konzept der Schwellenwertbildung/Kombination in den beiden Dimensionen scheint faszinierend zu sein. Die Fähigkeit, ein Merkmal mit einer zeitinvarianten Methode hinsichtlich seiner Position in einem Signal aufzuzeichnen, ist von Bedeutung. Allerdings muss ein „Zeit“-Element beibehalten werden, um die Frequenzentwicklung innerhalb der Merkmale zu untersuchen.
  • Um die oben genannten Einschränkungen zu überwinden, besteht daher ein Bedarf an der Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung kosmetischer Haut auf der Grundlage eines auf Wavelet-Streuung basierenden neuronalen Netzwerkklassifikators, der auf einem kleinen Datensatz trainiert und vielversprechende Ergebnisse liefert.
  • Die durch die vorliegende Erfindung offenbarten technischen Fortschritte überwinden die Einschränkungen und Nachteile bestehender und herkömmlicher Systeme und Methoden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut.
  • Ein Ziel der vorliegenden Erfindung ist die Entwicklung eines tief streuenden Faltungs-Neuronalen Netzwerks.
  • Ein weiteres Ziel der vorliegenden Erfindung besteht darin, ein kosmetisches Hautprodukt genau zu klassifizieren
  • Ein weiteres Ziel der vorliegenden Erfindung besteht darin, kosmetische Hautprobleme wie fettige oder trockene Haut zu identifizieren.
  • Eine Ausführungsform betrifft ein System zum Entwickeln eines tief streuenden Faltungsnetzwerks zum Klassifizieren einer kosmetischen Haut, wobei das System umfasst: eine Eingabeeinheit zum Erfassen einer Vielzahl von Hautbildern, um einen Datensatz zu bilden; und eine Bildverarbeitungseinheit, die mit der Eingabeeinheit zum Verarbeiten der erfassten Hautbilder verbunden ist, wobei die Bildverarbeitungseinheit Folgendes umfasst: eine Vorverarbeitungseinheit zum Entfernen eines Fremdbilds aus dem Bild auf der Grundlage einer Medianfilterung, gefolgt von einer Histogrammausgleichstechnik; eine Merkmalsextraktionseinheit, die mit der Vorverarbeitungseinheit verbunden ist, um mindestens ein Merkmal der Haut zu extrahieren, um einen Hautzustand basierend auf einem Wavelet-Streuungsnetzwerk zu identifizieren; und eine Klassifizierungseinheit, die mit der Merkmalsextraktionseinheit verbunden ist, um das extrahierte Merkmal auf der Grundlage eines Restnetzwerks in mehrere Klassen zu klassifizieren, wobei die mehreren Klassen eine erste Klasse zum Bestimmen einer ersten Kategorie des Hautzustands und eine zweite Klasse umfassen Bestimmen einer zweiten Kategorie des Hautzustands.
  • Um die Vorteile und Merkmale der vorliegenden Offenbarung weiter zu verdeutlichen, erfolgt eine detailliertere Beschreibung der Erfindung unter Bezugnahme auf spezifische Ausführungsformen davon, die in der beigefügten Zeichnung dargestellt sind. Es versteht sich, dass diese Zeichnung nur typische Ausführungsformen der Erfindung darstellt und daher nicht als deren Umfang einschränkend anzusehen ist. Die Erfindung wird anhand der beigefügten Zeichnung genauer und detaillierter beschrieben und erläutert.
  • KURZBESCHREIBUNG DER FIGUR
  • Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Offenbarung werden besser verständlich, wenn die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügte Zeichnung gelesen wird, in der gleiche Bezugszeichen gleiche Teile darstellen, wobei:
    • 1 zeigt ein Blockdiagramm eines Systems zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut.
  • Darüber hinaus werden erfahrene Handwerker erkennen, dass Elemente in der Zeichnung der Einfachheit halber dargestellt sind und möglicherweise nicht unbedingt maßstabsgetreu gezeichnet wurden. Beispielsweise veranschaulichen die Flussdiagramme die Methode anhand der wichtigsten Schritte, die dazu beitragen, das Verständnis von Aspekten der vorliegenden Offenbarung zu verbessern. Darüber hinaus können im Hinblick auf die Konstruktion des Geräts eine oder mehrere Komponenten des Geräts in der Zeichnung durch herkömmliche Symbole dargestellt worden sein, und die Zeichnung zeigt möglicherweise nur die spezifischen Details, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung relevant sind um die Zeichnung nicht durch Details zu verdecken, die für den Durchschnittsfachmann auf dem Gebiet, der Nutzen aus der Beschreibung hierin zieht, leicht ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG:
  • Um das Verständnis der Prinzipien der Erfindung zu fördern, wird nun auf die in der Zeichnung dargestellte Ausführungsform Bezug genommen und für deren Beschreibung eine spezifische Sprache verwendet. Es versteht sich jedoch, dass dadurch keine Einschränkung des Umfangs der Erfindung beabsichtigt ist, da Änderungen und weitere Modifikationen des dargestellten Systems und weitere Anwendungen der darin dargestellten Prinzipien der Erfindung in Betracht gezogen werden, wie sie einem Fachmann normalerweise in den Sinn kommen würden in der Technik, auf die sich die Erfindung bezieht.
  • Der Fachmann wird verstehen, dass die vorstehende allgemeine Beschreibung und die folgende detaillierte Beschreibung beispielhaft und erläuternd für die Erfindung sind und diese nicht einschränken sollen.
  • Verweise in dieser Spezifikation auf „einen Aspekt“, „einen anderen Aspekt“ oder eine ähnliche Sprache bedeuten, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Merkmal, das in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Offenbarung enthalten ist. Daher beziehen sich die Formulierungen „in einer Ausführungsform“, „in einer anderen Ausführungsform" und ähnliche Formulierungen in dieser Spezifikation möglicherweise, aber nicht unbedingt, auf dieselbe Ausführungsform.
  • Die Begriffe „umfasst“, „umfassend“ oder andere Variationen davon sollen eine nicht ausschließliche Einbeziehung abdecken, sodass ein Prozess oder eine Methode, die eine Liste von Schritten umfasst, nicht nur diese Schritte umfasst, sondern möglicherweise andere Schritte nicht umfasst ausdrücklich aufgeführt oder diesem Prozess oder dieser Methode innewohnend sind. Ebenso schließen ein oder mehrere Geräte oder Subsysteme oder Elemente oder Strukturen oder Komponenten, denen „umfasst...a“ vorangestellt ist, nicht ohne weitere Einschränkungen die Existenz anderer Geräte oder anderer Subsysteme oder anderer Elemente oder anderer Strukturen aus anderen Komponenten oder zusätzliche Geräte oder zusätzliche Subsysteme oder zusätzliche Elemente oder zusätzliche Strukturen oder zusätzliche Komponenten.
  • Sofern nicht anders definiert, haben alle hier verwendeten technischen und wissenschaftlichen Begriffe die gleiche Bedeutung, wie sie von einem Durchschnittsfachmann auf dem Gebiet, zu dem diese Erfindung gehört, allgemein verstanden werden. Das hier bereitgestellte System, die Methoden und Beispiele dienen nur der Veranschaulichung und sollen nicht einschränkend sein.
  • Ausführungsformen der vorliegenden Offenbarung werden im Folgenden ausführlich unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
  • 1 zeigt ein Blockdiagramm eines Systems (100) zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut, wobei das System (100) Folgendes umfasst: eine Eingabeeinheit (102), eine Bildverarbeitungseinheit (104), eine VorVerarbeitungseinheit (104a), eine Merkmalsextraktionseinheit (104b), eine Klassifizierungseinheit (104c) und eine Datenbank (106).
  • Die Eingabeeinheit (102) dient zum Erfassen mehrerer Hautbilder zur Bildung eines Datensatzes. Die Bildverarbeitungseinheit (104) ist mit der Eingabeeinheit (102) zum Verarbeiten der erfassten Hautbilder verbunden, wobei die Bildverarbeitungseinheit (104) Folgendes umfasst: eine Vorverarbeitungseinheit (104a) zum Entfernen eines Fremdbilds aus dem Bild basierend zur Medianfilterung, gefolgt von einer Histogrammausgleichstechnik; eine Merkmalsextraktionseinheit (104b), die mit der Vorverarbeitungseinheit (104a) verbunden ist, um mindestens ein Merkmal der Haut zu extrahieren, um einen Hautzustand basierend auf einem Wavelet-Streuungsnetzwerk zu identifizieren; und eine Klassifizierungseinheit (104c), die mit der Merkmalsextraktionseinheit (104b) verbunden ist, um das extrahierte Merkmal auf der Grundlage eines Restnetzwerks in mehrere Klassen zu klassifizieren, wobei die mehreren Klassen eine erste Klasse zum Bestimmen einer ersten Kategorie der Haut umfassen Zustand und eine zweite Klasse zur Bestimmung einer zweiten Kategorie des Hautzustands.
  • In einer Ausführungsform umfasst der Datensatz mehrere Bilder aus jeder der ersten Kategorie und der zweiten Kategorie und wird in einer Datenbank (106) gespeichert.
  • In einer Ausführungsform eliminiert die Vorverarbeitungseinheit (104a) Rauschen, um den Effekt winziger Partikel im Eingabebild durch eine Entrauschungstechnik zu verringern, wobei die Entrauschungstechnik einer transformierenden Domänenfilterung, einer partiellen Differentialgleichung und einer räumlichen Domänenfilterung unterzogen wird.
  • In einer Ausführungsform führt die Verarbeitungseinheit (104) eine Bildvergrößerungstechnik wie Zoomen, Drehen, Scheren, Spiegeln usw. durch, um die Anzahl der Bildbeispiele zu erhöhen.
  • In einer Ausführungsform durchläuft die Vorverarbeitungseinheit (104a) die Medianfiltertechnik, um Kanten des Bildes beizubehalten und gleichzeitig Rauschen aus dem Bild zu entfernen, wobei ein Fenster fester Größe über das Eingabebild und die Pixelwerte der Eingabebilder geschoben wird werden in einen Medianwert aller Pixel im jeweiligen Fenster geändert, die in aufsteigender Reihenfolge angeordnet sind.
  • In einer Ausführungsform führt die Vorverarbeitungseinheit (104a) einen Histogrammausgleich durch, um den visuellen Kontrast des Eingabebildes während der Vorverarbeitung durch Erweiterung des Intensitätswertebereichs eines Bildes zu erhöhen.
  • In einer Ausführungsform umfasst die Merkmalsextraktionseinheit (104b) ein tiefes Wavelet-Streuungsnetzwerk zum Filtern der vorverarbeiteten Daten, zum Anwenden von Nichtlinearitäten und zum Zusammenfassen oder Mitteln der Ausgabe über einen Satz von Epochen.
  • In einer Ausführungsform umfasst das Wavelet-Streuungs-Tiefennetzwerk eine erste Schicht mit einem Wavelet-Filter zum Aufnehmen eines vorverarbeiteten Bildes als Eingabe, wobei eine zweite Schicht nach der ersten Schicht zum Durchführen einer Wavelet-Transformation mit vorangehenden Ausgaben der ersten Schicht dient.
  • In einer Ausführungsform wird die Nichtlinearität dem extrahierten Merkmal hinzugefügt, indem ein Moduloperator angewendet wird, gefolgt von einer erneuten Filterung mit dem Wavelet-Filter, um Koeffizienten für verschiedene Schichten zu erhalten.
  • In einer Ausführungsform ist die erste Kategorie des Hautzustands ein trockener Zustand und die zweite Kategorie des Hautzustands ist ein fettiger Zustand.
  • In einer Ausführungsform umfasst die Eingabeeinheit entweder eine Kamera zum Erfassen der Bilder oder Videobilder einer Benutzeroberfläche oder einen Eingabeanschluss zum direkten Aufnehmen der Eingabebilder von einer Quelle.
  • In einer Ausführungsform besteht die Verarbeitungseinheit aus einem Mikroprozessor, der die Arithmetik-, Logik- und Steuerschaltungen enthält, die zum Ausführen der Funktionen der Zentraleinheit (CPU) eines Computers erforderlich sind. Der Mikroprozessor ist ein multifunktionaler, taktgesteuerter, registerbasierter, digitaler integrierter Schaltkreis, der Binärdaten als Eingabe akzeptiert, sie gemäß den in seinem Speicher gespeicherten Anweisungen verarbeitet und Ergebnisse (auch in binärer Form) als Ausgabe bereitstellt. Mikroprozessoren enthalten sowohl kombinatorische Logik als auch sequentielle digitale Logik und verarbeiten Zahlen und Symbole, die im binären Zahlensystem dargestellt werden. Der Mikroprozessor umfasst möglicherweise nur eine arithmetischlogische Einheit (ALU) und einen Steuerlogikabschnitt. Die ALU führt Additionen, Subtraktionen und Operationen wie AND oder OR durch. Jede Operation der ALU setzt ein oder mehrere Flags in einem Statusregister, die die Ergebnisse der letzten Operation anzeigen (Nullwert, negative Zahl, Überlauf oder andere). Die Steuerlogik ruft Befehlscodes aus dem Speicher ab und initiiert die Abfolge von Vorgängen, die die ALU zur Ausführung des Befehls benötigt.
  • In einer Ausführungsform ist die Medianfilterung eine weit verbreitete Bildverarbeitungstechnik, um Rauschen aus dem Bild zu entfernen. Es hilft dabei, die Bildränder beizubehalten und gleichzeitig zufälliges Rauschen zu entfernen. Bei dieser Methode wird ein Fenster fester Größe über das Bild geschoben und die Pixelwerte werden auf den Medianwert aller Pixel im jeweiligen Fenster in aufsteigender Reihenfolge geändert. Wie ein Tiefpassfilter glättet die Medianverarbeitung das Bild, behält jedoch die Grenzinformationen bei. Verschiedene Medianfiltertechniken
  • Entfernen Sie verrauschte Pixel in einem Bild. Wie die Adaptive Median Filtering-Technik, die eine Impulserkennungstechnik verwendet. Dabei wird Impulsrauschen entfernt und die verbleibenden Pixel geglättet. Um die Beschädigung benachbarter Pixel zu reduzieren, werden auch Objektgrenzen ausgedünnt und dicker. Zu anderen Medianfiltertechniken gehören der Tristate-Median-Filter (TMF), der Progressive Switching Median-Filter (PSMF), der zweistufige iterative Median-Filter und der zweiphasige Median-Filter. Sie haben die Verwendung einer einfachen Medianfilterung in ihren Datensatz integriert.
  • In einer Ausführungsform wird ein Histogrammausgleich durch eine grafische Darstellung der Verteilung der Bildintensität durchgeführt. Es zeigt die Anzahl der Pixel in einem Bild für jeden Intensitätswert an. Die X-Achse stellt den Intensitätswert von Schwarz links bis Weiß rechts dar. Die Anzahl der Pixel bei jeder Intensität wird auf der Y-Achse angezeigt. Der Histogrammausgleich ist eine Technik, die in der Bildverarbeitung zur Verbesserung des visuellen Kontrasts eingesetzt wird. Dies wird dadurch erreicht, dass der Intensitätswertbereich eines Bildes erweitert wird. Dieser Ansatz trägt zur Verbesserung des Kontrasts bei geringem Kontrast bei
  • Abschnitte eines Bildes. Jeder Kanal kann isoliert und die Entzerrung für ein Dreikanalbild (z. B. RGB) unabhängig durchgeführt werden. Das Auftreten von Pixeln mit einem bestimmten Grauwert wird als Wahrscheinlichkeit einer Gesamtzahl von Pixeln ausgedrückt. Anhand dieser Wahrscheinlichkeiten wird die entsprechende kumulative Wahrscheinlichkeitsfunktion berechnet. Anschließend wird eine Transformation angewendet, die jedem Wert im Originalbild entspricht. Die Pixel des Graustufenbilds werden einer Skala von 0 bis 1 zugeordnet. Diese zugeordneten Pixel werden transformiert, um den ursprünglichen Bereich des Bilds abzurufen.
  • In einer Ausführungsform umfasst die Merkmalsextraktionseinheit die Streunetzwerke, die die Idee der Streutransformationen und deren Verwendung als verallgemeinerte Eingabe für überwachte Lernprobleme nutzen. Ein streunetzwerkfähiges tiefes neuronales Netzwerk ist ein CNN, in dem die Filter als Wavelets spezifiziert sind. Die vorliegende Klassifizierungseinheit verwendet das Restnetzwerk (ResNet), das auf dem Streunetzwerk aufgebaut ist. Das tiefe Netzwerk umfasst normalerweise das Filtern der Eingabedaten, das Anwenden von Nichtlinearitäten und das Zusammenfassen oder Mitteln der Ausgabe über eine Reihe von Epochen. Die Filter in vollständig trainierten Netzwerken sind analog zu Wavelets; Diese werden in herkömmlichen CNNs oder RESNETs trainiert, sind jedoch in Wavelet festgelegt
  • Streunetzwerke. In der ersten Schicht, auch Schicht 0 genannt, wird das Eingangssignal (in ihrem Fall das Eingangsbild) mithilfe eines Wavelet-Filters (aus einer bestimmten Wellenfamilie) gemittelt, der als Tiefpassfilter fungiert. In nachfolgenden Schichten wird eine Wavelet-Transformation mit den vorherigen Ausgaben durchgeführt. Schließlich wird der Moduloperator angewendet, der Nichtlinearität hinzufügt, und anschließend erneut mit einem Wavelet-Filter (einem Tiefpassfilter) gefiltert. Der gleiche Vorgang wird wiederholt und es werden Koeffizienten für verschiedene Schichten ermittelt. Das Wavelet Scattering Network ähnelt in seiner mehrschichtigen Struktur dem Deep Convolutional Neural Network (CNN). Jede Schicht führt sowohl lineare als auch nichtlineare Berechnungen durch.
  • In einer Ausführungsform wird die Faltungsoperation des bereits definierten komplexen Filters mit dem Eingabebild zuerst auf jeder Schicht durchgeführt. Anschließend wird die Moduloperation, die Nichtlinearität einführt, auf das Ergebnis angewendet. Abschließend wird ein Tiefpassfilter verwendet, um den lokalen Durchschnitt zu berechnen.
  • In einer Ausführungsform besteht der Restblock aus einer „Skip-Verbindung“, die darauf hinweist, dass tatsächlich eine direkte Verbindung besteht, die die Schichten des Modells umgeht, eine Eigenschaft, die in herkömmlichen Faltungs-Neuronalen Netzen nicht vorhanden ist. Aufgrund dieser Verbindungen ist die Ausgabe unterschiedlich. Zuvor wurde die Eingabe „X“ mit den Schichtgewichten multipliziert, und dann wurde der Bias-Term hinzugefügt und mit der Aktivierungsfunktion angewendet und mathematisch wie folgt bezeichnet: ( x ) = ƒ ( w x + b )   o r   H ( x ) = ƒ ( x )
    Figure DE202024100262U1_0001
  • Aufgrund der neuen Sprungverbindungen wird nun die Ausgabe H(x) geändert in: H ( x ) = ƒ ( x ) + x
    Figure DE202024100262U1_0002
  • Allerdings kann die Dimension der Eingabe und Ausgabe aufgrund der Faltungs- und Pooling-Operation variieren. Um dieses Problem zu lösen, können sie entweder die übersprungenen Verbindungen mit Nullen auffüllen, um die Dimension zu erhöhen, was die Verringerung einer Dimension kompensieren kann, die während der Operationen einer Faltungsschicht der Größe 1x1 auftritt, die hinzugefügt wird, um sie an die Eingabegröße anzupassen. In einem solchen Fall wird die Ausgabe wie folgt aussehen: H ( x ) = ƒ ( x ) + w 1. x
    Figure DE202024100262U1_0003
    W1 ist ein eindeutiger Parameter, der für die 1x1-Faltung erstellt wurde. Die Einführung dieser Sprungverbindungen löst das Problem verschwindender Gradienten in Deep Convolution Neural Networks (CNN). Beim verschwindenden Gradienten nimmt der Gradient, der als Produkt vieler Gradienten (verschiedener Schichten) berechnet wird, aufgrund der großen Anzahl von Schichten in CNN mit jeder Multiplikation tendenziell ab, bis er so klein wird, dass er verschwindet weshalb sie nicht trainieren können. Die Sprungverbindung bietet einen alternativen oder kurzen Weg für den Verlauf des Gradienten, da weniger Berechnungen erforderlich sind und die Wahrscheinlichkeit des Verschwindens geringer ist. Wenn eine Schicht für die Leistung des Modells ungünstig ist , wird sie bei der Regularisierung übersprungen.
  • In einer beispielhaften Ausführungsform beeinflusst VGG-19 ein 34-schichtiges einfaches Netzwerk mit einer Verknüpfungs- oder Sprungverbindung. Diese Restblöcke oder Sprungverbindungen werden dann verwendet, um das Konzept weiter in ein Restnetzwerk umzuwandeln.
  • Die Wirksamkeit der vorliegenden Erfindung wird bewertet, indem ein Bilddatensatz von Dermatologen gesammelt und die Daten auf 66-33 Arten aufgeteilt werden, wobei 66 % der Bilder zum Trainieren des Modells und die restlichen 33 % zum Testen des Modells verwendet werden. Beim Vergleich derselben Daten mit anderen Modellen wird festgestellt, dass Gabor Features mit Support Vector Machine (SVM) schlecht klassifiziert wurden, was eine Genauigkeit von 48.8 % ergibt. VGG-16 ergab eine Genauigkeit von 95.9 %, gefolgt von Streuung zusammen mit Support Vector Machine (SVM) und diskreter Wavelet-Transformation in Kombination mit künstlichem neuronalem Netzwerk (ANN), die Ergebnisse von weniger als 65 % lieferten. Scattering ResNet hat die bestehenden Modelle übertroffen und eine Genauigkeit von 98 % erreicht. Support-Vektor-Maschinen sind bei Bildklassifizierungsproblemen nicht besonders gut geeignet, da sie nur über eine Schicht verfügen, die als Kernel bezeichnet wird. Es wird zu einer kniffligen Aufgabe, einen Kernel in SVM so zu entwerfen, dass er die Bilder linear trennen kann. Daher ist der beste Ansatz zur Bildklassifizierung die Verwendung eines tiefen neuronalen Netzwerks. Dies liegt daran, dass in einem tiefen neuronalen Netzwerk (das aus einer großen Anzahl von Neuronen besteht) nur wenige Neuronen (im Allgemeinen die letzte Schicht) die Aufgabe der Klassifizierung übernehmen, die die SVMs übernehmen, während der Rest als Kern fungiert und darauf hinarbeitet Merkmalsextraktion, und der Hauptvorteil besteht darin, dass diese Neuronen die Gewichte mit jeder verstreichenden Epoche selbst lernen. Daher ist die Leistung einer auf neuronalen Netzwerken basierenden Architektur besser. Die hohe Leistung von Scattering ResNets im Vergleich zu anderen Modellen lässt sich auf die Tatsache zurückführen, dass diese Netzwerke im Vergleich zu herkömmlichen RESNETs oder VGG-16 Filter verwenden, die bereits über trainierte Gewichte verfügen. Das Streunetzwerk verfügt über eine Streuschicht vor dem RESNET. Beim überwachten Lernen muss nicht immer eine frühe Schicht von CNNs trainiert werden und kann durch Streunetzwerke ersetzt werden. Wenn sie daher eine Hybridstruktur wie diese verwenden, erzielen sie tendenziell die besten Ergebnisse . Die Genauigkeit des Trainingssystems erstreckt sich über 60 Epochen, wobei die 40. Epoche zu sehen ist und die Genauigkeit über 80 % erreicht wird. Es ist häufig möglich, die Anzahl der Ergebnisse eines Modells zu kalibrieren und die Präzision zum Rückrufpreis zu verbessern oder umgekehrt. Es wird deutlich, dass Scattering ResNet VGG & DWT + ANN übertroffen hat. Das trainierte System, das in der trainierten Epoche 48 arbeitet, hat eine Testgenauigkeit von 98.50 % und einen Verlust von 0.076.
  • Die Zeichnung und die vorstehende Beschreibung geben Beispiele für Ausführungsformen. Fachleute werden erkennen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente einer Ausführungsform können zu einer anderen Ausführungsform hinzugefügt werden. Beispielsweise können die Reihenfolgen der hier beschriebenen Prozesse geändert werden und sind nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Flussdiagramms nicht in der gezeigten Reihenfolge implementiert werden; Es müssen auch nicht unbedingt alle Handlungen ausgeführt werden. Auch solche Handlungen, die nicht von anderen Handlungen abhängig sind, können parallel zu den anderen Handlungen durchgeführt werden. Der Umfang der Ausführungsformen wird durch diese spezifischen Beispiele keineswegs eingeschränkt. Zahlreiche Variationen, ob explizit in der Spezifikation angegeben oder nicht, wie z. B. Unterschiede in Struktur, Abmessung und Materialverwendung, sind möglich. Der Umfang der Ausführungsformen ist mindestens so breit wie durch die folgenden Ansprüche angegeben.
  • Vorteile, andere Vorzüge und Problemlösungen wurden oben im Hinblick auf spezifische Ausführungsformen beschrieben. Die Vorteile, Vorzüge, Problemlösungen und alle Komponenten, die dazu führen können, dass ein Nutzen, ein Vorteil oder eine Lösung eintritt oder ausgeprägter wird, dürfen jedoch nicht als kritische, erforderliche oder wesentliche Funktion oder Komponente von ausgelegt werden einzelne oder alle Ansprüche.
  • REFERENZEN
  • 100
    Ein System Zur Entwicklung Eines Tief Streuenden Faltungsnetzes Zur Klassifizierung Einer Kosmetischen Haut.
    102
    Eingabeeinheit
    104
    Bildverarbeitungseinheit
    104a
    Vorverarbeitungseinheit
    104b
    Merkmalsextraktionseinheit
    104c
    Klassifizierungseinheit
    106
    Datenbank

Claims (10)

  1. Ein System (100) zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut, wobei das System (100) Folgendes umfasst: eine Eingabeeinheit (102) zum Erfassen mehrerer Hautbilder, um einen Datensatz zu bilden; Und eine Bildverarbeitungseinheit (104), die mit der Eingabeeinheit (102) zum Verarbeiten der erfassten Hautbilder verbunden ist, wobei die Bildverarbeitungseinheit (104) Folgendes umfasst: eine Vorverarbeitungseinheit (104a) zum Entfernen eines Fremdbilds aus dem Bild auf der Grundlage einer Medianfilterung, gefolgt von einer Histogrammausgleichstechnik; eine Merkmalsextraktionseinheit (104b), die mit der Vorverarbeitungseinheit (104a) verbunden ist, um mindestens ein Merkmal der Haut zu extrahieren, um einen Hautzustand basierend auf einem Wavelet-Streuungsnetzwerk zu identifizieren; und eine Klassifizierungseinheit (104c), die mit der Merkmalsextraktionseinheit (104b) verbunden ist, um das extrahierte Merkmal auf der Grundlage eines Restnetzwerks in mehrere Klassen zu klassifizieren, wobei die mehreren Klassen eine erste Klasse zum Bestimmen einer ersten Kategorie des Hautzustands umfassen und eine zweite Klasse zum Bestimmen einer zweiten Kategorie des Hautzustands.
  2. System nach Anspruch 1, wobei der Datensatz aus einer Vielzahl von Bildern sowohl der ersten Kategorie als auch der zweiten Kategorie besteht und in einer Datenbank (106) gespeichert ist.
  3. System nach Anspruch 1, wobei die Vorverarbeitungseinheit (104a) Rauschen eliminiert, um die Wirkung winziger Partikel im Eingabebild durch eine Entrauschungstechnik zu verringern, wobei die Entrauschungstechnik einer transformierenden Domänenfilterung, einer partiellen Differentialgleichung und einer räumlichen Filterung unterzogen wird Domänenfilterung.
  4. System nach Anspruch 1, wobei die Verarbeitungseinheit (104) eine Bildvergrößerungstechnik wie Zoomen, Drehen, Scheren, Spiegeln usw. ausführt, um die Anzahl der Bildbeispiele zu erhöhen.
  5. System nach Anspruch 1, wobei die Vorverarbeitungseinheit (104a) die Medianfiltertechnik durchläuft, um Kanten des Bildes beizubehalten und gleichzeitig Rauschen aus dem Bild zu entfernen, wobei ein Fenster fester Größe über das Eingabebild und den Pixel geschoben wird, wobei dDie Werte der Eingabebilder in einen Medianwert aller Pixel im jeweiligen Fenster geändert werden, die in aufsteigender Reihenfolge angeordnet sind.
  6. System nach Anspruch 1, wobei die Vorverarbeitungseinheit (104a) einen Histogrammausgleich durchführt, um den visuellen Kontrast des Eingabebildes während der Vorverarbeitung durch Erweiterung des Intensitätswertbereichs eines Bildes zu verstärken.
  7. System nach Anspruch 1, wobei die Merkmalsextraktionseinheit (104b) ein tiefes Wavelet-Streuungsnetzwerk zum Filtern der vorverarbeiteten Daten, zum Anwenden von Nichtlinearitäten und zum Zusammenfassen oder Mitteln der Ausgabe über einen Satz von Epochen umfasst.
  8. System nach Anspruch 7, wobei das tiefe Wavelet-Streuungsnetzwerk eine erste Schicht mit einem Wavelet-Filter zum Aufnehmen eines vorverarbeiteten Bildes als Eingabe und eine zweite Schicht im Anschluss an die erste Schicht zum Durchführen einer Wavelet-Transformation mit vorangehenden Ausgaben umfasst ab der ersten Schicht.
  9. System nach Anspruch 7, wobei die Nichtlinearität dem extrahierten Merkmal durch Anwenden eines Moduloperators hinzugefügt wird, gefolgt von einer erneuten Filterung mit dem Wavelet-Filter, um Koeffizienten für verschiedene Schichten zu erhalten.
  10. System nach Anspruch 1, wobei die erste Kategorie des Hautzustands ein trockener Zustand und die zweite Kategorie des Hautzustands ein fettiger Zustand ist.
DE202024100262.8U 2024-01-18 2024-01-18 System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut Active DE202024100262U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202024100262.8U DE202024100262U1 (de) 2024-01-18 2024-01-18 System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202024100262.8U DE202024100262U1 (de) 2024-01-18 2024-01-18 System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut

Publications (1)

Publication Number Publication Date
DE202024100262U1 true DE202024100262U1 (de) 2024-02-26

Family

ID=90246199

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202024100262.8U Active DE202024100262U1 (de) 2024-01-18 2024-01-18 System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut

Country Status (1)

Country Link
DE (1) DE202024100262U1 (de)

Similar Documents

Publication Publication Date Title
EP0780002B1 (de) Verfahren und vorrichtung zur rekonstruktion von in rasterform vorliegenden linienstrukturen
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
Burger et al. Image denoising: Can plain neural networks compete with BM3D?
DE60130742T2 (de) Mustererkennung mit hierarchischen Netzen
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE60034668T2 (de) Methode zur texturanalyse von digitalen bildern
DE602004008471T2 (de) Verfahren und anordnung zur bestimmung einer objektkontur
DE10315461A1 (de) System und Verfahren für eine Verbesserung von Digitalbildern
DE102006002914A1 (de) Mehrdimensionale Segmentierung basierend auf adaptiven begrenzenden Kasten- und Ellipsoid-Modellen
DE102021004260A1 (de) Textuelles Bearbeiten von digitalen Bildern
EP2400458B1 (de) Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme
DE102019214402A1 (de) Verfahren und vorrichtung zum verarbeiten von daten mittels eines neuronalen konvolutionsnetzwerks
EP2679147B1 (de) Verfahren und Vorrichtung zur Kodierung von Augen- und Blickverlaufsdaten
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
EP0394959A2 (de) Verfahren zur Bildauswertung
WO2012052106A1 (de) Verfahren zur klassifizierung von mustern in bilddatensätzen
DE202024100262U1 (de) System zur Entwicklung eines tief streuenden Faltungsnetzwerks zur Klassifizierung einer kosmetischen Haut
DE112019001959T5 (de) Segmentieren unregelmässiger formen in bildern unter verwendung von tiefem bereichswachstum
WO2004017252A1 (de) Verfahren zur signalauswertung eines elektronischen bildsensors bei der mustererkennung von bildinhalten eines prüfkörpers
DE102021114350A1 (de) Verfahren und Vorrichtung zur faltungsfreien Bildverarbeitung
DE112020003002T5 (de) Skalierbares strukturlernen durch ein kontextfreies rekursives zerlegen von dokumenten
DE102020129164A1 (de) Verfahren und vorrichtung zur unterscheidung von verschiedenen konfigurationszuständen eines objekts auf der grundlage einer bildlichen darstellung des objekts
Delibasis et al. On image prefiltering for skin lesion characterization utilizing deep transfer learning
Dash et al. Real time retinal optic disc segmentation via guided filter and discrete wavelet transform
DE202022106317U1 (de) Ein System zur Klassifizierung von Melanombildern

Legal Events

Date Code Title Description
R207 Utility model specification