DE102022101854A1 - Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts - Google Patents

Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts Download PDF

Info

Publication number
DE102022101854A1
DE102022101854A1 DE102022101854.7A DE102022101854A DE102022101854A1 DE 102022101854 A1 DE102022101854 A1 DE 102022101854A1 DE 102022101854 A DE102022101854 A DE 102022101854A DE 102022101854 A1 DE102022101854 A1 DE 102022101854A1
Authority
DE
Germany
Prior art keywords
image
luminance distribution
human
lighting device
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022101854.7A
Other languages
English (en)
Inventor
Mathias Niedling
Katrin Schier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hella GmbH and Co KGaA
Original Assignee
Hella GmbH and Co KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hella GmbH and Co KGaA filed Critical Hella GmbH and Co KGaA
Priority to PCT/EP2022/064222 priority Critical patent/WO2022253672A1/de
Priority to CN202280039528.2A priority patent/CN117413298A/zh
Publication of DE102022101854A1 publication Critical patent/DE102022101854A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts, wobei in einem Verfahrensschritt ein digitales Bild (1) aufgenommen wird, das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, und wobei in einem weiteren Verfahrensschritt das digitale Bild (1) so verändert wird, dass das veränderte Bild (5) eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts.
  • Defekte Pixel von hochauflösenden Modulen sind nicht immer für den menschlichen Beobachter sichtbar, da sie von den umliegenden Pixeln überstrahlt werden können. Sind sie jedoch sichtbar, können sie den Fahrer ablenken, was zu einem erhöhten Sicherheitsrisiko führen kann. Sichtbare Pixelfehler führen zu einer ungewollten Veränderung des Lichtbilds und können den subjektiven Eindruck der Produktqualität deutlich verringern. Die Vorhersage ob ein defekter Pixel zu einer sichtbaren Veränderung des Lichtbilds führt ist nicht durch den reinen Leuchtdichteunterschied zwischen Defekt und der Umgebung vorhersagbar und stellt daher ein komplizierteres Problem dar, als auf den ersten Blick erkennbar ist.
  • Es wäre wünschenswert, über eine Methodik zur Vorhersage der Sichtbarkeit von defekten Pixeln im Lichtbild einer Beleuchtungsvorrichtung für ein Fahrzeug zu verfügen.
  • Das der vorliegenden Erfindung zugrunde liegende Problem ist daher die Angabe eines Verfahrens der eingangs genannten Art, das eine Aussage über die Wahrnehmbarkeit von Elementen oder Teilen einer Leuchtdichteverteilung durch einen Menschen ermöglicht.
  • Dies wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art mit den Merkmalen des Anspruchs 1 erreicht. Die Unteransprüche betreffen bevorzugte Ausgestaltungen der Erfindung.
  • Gemäß Anspruch 1 ist das Verfahren durch folgende Verfahrensschritte gekennzeichnet:
    • - ein digitales Bild, das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, wird aufgenommen,
    • - das digitale Bild wird so verändert, dass das veränderte Bild eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.
  • Anhand des veränderten Bildes kann beispielsweise ermittelt werden, ob vorhandene Pixelfehler eines hochauflösenden Moduls einer Beleuchtungsvorrichtung zu einer sichtbaren Veränderung des Lichtbilds führen. Davon ausgehend kann dann entschieden werden, ob das Modul der Beleuchtungsvorrichtung trotz der Pixelfehler weiter benutzt werden kann oder ob es durch ein anderes Modul ersetzt werden muss.
  • Es kann vorgesehen sein, dass das digitale Bild mit einem Algorithmus verändert wird, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert. Ein derartiger Ansatz eröffnet die Möglichkeit, vergleichsweise zuverlässige Aussagen über die Sichtbarkeit möglicher Veränderungen des Lichtbilds zu treffen.
  • Dabei kann der Algorithmus, insbesondere in einem ersten Schritt, die Veränderung eines Bildes durch den optischen Aufbau eines menschlichen Auges simulieren. Weiterhin kann der Algorithmus, insbesondere in einem zweiten Schritt, die Verarbeitung einer Bildinformation zu einer Kontrastinformation, die insbesondere durch das menschliche Gehirn beziehungsweise durch Zelltypen in der Retina erfolgt, simulieren. Zusätzlich kann der Algorithmus, insbesondere in einem dritten Schritt, eine Sichtbarkeits-Schwelle bestimmen. Die Sichtbarkeits-Schwelle dient insbesondere dazu, zu entscheiden, welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen wahrnehmbar sind und welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen nicht wahrnehmbar sind, wobei die gemäß dieser Entscheidung nicht von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung nicht in das veränderte Bild aufgenommen werden. Dadurch kann gewährleistet werden, dass in dem veränderten Bild zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind. Insbesondere handelt es sich also um einen Algorithmus, der auf verschiedenen wahrnehmungspsychologischen Modellen basiert, die die ersten Verarbeitungsschritte des menschlichen visuellen Systems simulieren. Vorzugsweise basiert der Algorithmus auf drei einzelnen Teilmodellen, die seriell miteinander verknüpft werden. Das Ergebnis des Algorithmus ist eine Rekonstruktion der Leuchtdichteverteilung, in der nur noch die Elemente enthalten sind, die vom Menschen noch wahrgenommen werden können.
  • Es besteht die Möglichkeit, dass das veränderte digitale Bild mit einem aus einer Soll-Leuchtdichteverteilung der Beleuchtungsvorrichtung generierten Bild verglichen wird, insbesondere um zu entscheiden, ob die von der Beleuchtungsvorrichtung erzeugte Lichtverteilung unter Berücksichtigung der Wahrnehmbarkeit durch einen Menschen geeigneten Vorgaben entspricht.
  • Es kann vorgesehen sein, dass die Aufnahme des digitalen Bildes eine Leuchtdichtemessung ist oder in eine Leuchtdichteverteilung umgerechnet wird. Durch beide Möglichkeiten kann gewährleistet werden, dass das zu verändernde Bild einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht.
  • Es besteht die Möglichkeit, dass die Beleuchtungsvorrichtung eine Schlussleuchte oder ein Scheinwerfer ist, insbesondere ein hochauflösender Scheinwerfer, der eine Lichtverteilung mit einer Vielzahl von Pixeln erzeugen kann. Insbesondere bei hochauflösenden Scheinwerfern mit entsprechend komplex aufgebauten Modulen erweist es sich als sehr vorteilhaft, mit dem erfindungsgemäßen Verfahren über eine Methodik zur Vorhersage der Sichtbarkeit von defekten Pixeln im Lichtbild zu verfügen.
  • Bei dem aufgenommenen digitalen Bild kann es sich beispielsweise um eine Aufnahme einer Scheinwerferlichtverteilung oder um eine Aufnahme einer Schlussleuchte handeln. Entsprechende Aufnahmen oder Leuchtdichtemessungen können als Eingabedaten des verwendeten Modells dienen. Als zusätzliche Eingangsparameter können beispielsweise Augenfarbe und Alter eines Beobachters sowie die Ortsauflösung des Leuchtdichtebilds verwendet werden.
  • Das Verfahren erlaubt die allgemeine Vorhersage der Sichtbarkeit von Inhomogenitäten im Lichtbild einer Beleuchtungsvorrichtung, insbesondere ohne eine Anpassung der Parameter an die konkrete Umgebung. Ebenfalls kann vorgesehen sein, dass das Verfahren die Positionsbestimmung der Inhomogenität ermöglicht. Ein Verwendungszweck des Verfahrens ist also der Vorhersage der Erkennbarkeit von Störstellen beispielsweise in einer Scheinwerferlichtverteilung.
  • Anhand der beigefügten Zeichnungen wird die Erfindung nachfolgend näher erläutert. Dabei zeigt:
    • 1 eine schematische Darstellung eines Beispiels eines erfindungsgemäßen Verfahrens;
    • 2 eine beispielhafte Darstellung einer optischen Kontrastempfindlichkeitsfunktion des menschlichen Auges, wobei die Kontrastsensitivität gegen die Ortsfrequenz aufgetragen ist;
    • 3 ein beispielhafter Versuchsaufbau zur Aufnahme eines Bildes, das einer Leuchtdichteverteilung des von einem Scheinwerfer ausgehenden Lichts entspricht;
    • 4 ein Beispiel eines Bildes, das einer Leuchtdichteverteilung mit Pixelfehlern entspricht;
    • 5 das Bild gemäß 4 nach einer Änderung durch ein erfindungsgemäßes Verfahren.
  • In den Figuren sind gleiche und funktional gleiche Teile und Bereiche mit gleichen Bezugszeichen versehen.
  • Hochauflösende Scheinwerfer ermöglichen die Erzeugung von Fahrspur- und Symbolprojektionen und bieten damit zusätzliche Informationen für den Fahrer und andere Verkehrsteilnehmer. Während auf der einen Seite die Möglichkeit besteht, einzelne Pixel hervorzuheben, soll das Lichtmuster ohne Projektionen einen gleichmäßigen Eindruck der Leuchtdichteverteilung vermitteln und keine auffälligen Intensitätsunterschiede zwischen benachbarten Pixeln aufweisen. Welche Intensitätsunterschiede zu sichtbaren Lücken im Lichtmuster führen, ist von einer Reihe von Parametern abhängig.
  • Durch ein erfindungsgemäßes Verfahren kann ein Modell zur Vorhersage der Sichtbarkeit solcher Intensitätslücken für den menschlichen Beobachter vorgeschlagen werden, eine Aufgabe, die direkt mit der Kontrasterkennung verknüpft ist. Daher kann das Modell sequentiell angewandte Teilmodelle implementieren, die auf der Kontrastempfindlichkeitsfunktion (CSF) basieren.
  • Die Erkennung von Objekten oder Flecken in einer von Scheinwerfern beleuchteten Szene ist stark mit der Kontrasterkennung korreliert. Für die Straßenbeleuchtung schlägt der CIE-Bericht 19/2 [1] vor, den Sichtbarkeitsgrad zu verwenden, der auf psychophysikalischen Daten basiert, die von Blackwell [2] zur Vorhersage der Erkennbarkeit eines Ziels in einer beleuchteten Umgebung gemessen wurden. Der Sichtbarkeitsgrad ist definiert als das Verhältnis zwischen dem Kontrast (zwischen Objekt und Hintergrund) und dem Schwellenkontrast. Sie ist zwar ein gutes Maß für die Erkennbarkeit von Objekten unter Laborbedingungen, aber für das im Rahmen dieser Anmeldung gelöste Problem nicht anwendbar, weil ein Fleck an einer unbekannten Position und nicht ein Objekt erkannt werden soll.
  • Blakemore und Campbell [3] postulierten, dass frühe visuelle Verarbeitungsmechanismen durch überlappende Kanäle modelliert werden können, die für unterschiedliche Ortsfrequenzen empfindlich sind. Die Autoren führten den Kehrwert des Schwellenkontrastes ein, der als Kontrastempfindlichkeitsfunktion (Contrast Sensitivity Function beziehungsweise CSF) bezeichnet wird. Die Kontrastempfindlichkeitsfunktion wird gemessen, indem dem Betrachter Bilder mit Sinusgittern gezeigt werden, weil die Frequenz dieser Testmuster sehr genau eingestellt werden kann.
  • Die Kontrastempfindlichkeitsfunktion wird typischerweise in einem Diagramm dargestellt, das die Kontrastempfindlichkeit über der Ortsfrequenz in Zyklen pro Grad (cyc/deg) angibt. Die Empfindlichkeit ändert sich auch mit der Leuchtdichte. Bei niedrigeren Leuchtdichten nimmt die Empfindlichkeit ab und die maximale Empfindlichkeit verschiebt sich zu kleineren Frequenzen (siehe 2). Da das menschliche Sehsystem sehr komplex ist und auch heute noch nicht vollständig verstanden ist, kann die Kontrastempfindlichkeitsfunktion nur ein vereinfachtes Modell sein, das auf bestimmte Einschränkungen reduziert ist. Nichtsdestotrotz wurde es erfolgreich für verschiedene Anwendungen eingesetzt, wie beispielsweise Qualitätsmessungen für Bildkomprimierungsalgorithmen [4] oder die Beurteilung des Sehvermögens von Patienten nach einer Augenoperation [5].
  • Joulan et al. [6] sind die ersten, die die Kontrastempfindlichkeitsfunktion in einem Kontext der Automobilbeleuchtung zur Vorhersage der Sichtbarkeit von Objekten, die von einem Scheinwerfer beleuchtet werden, verwenden. Sie schlagen vor, einen Multiskalen-Raumfilter auf Leuchtdichtebilder anzuwenden, der die einfache Kontrastwahrnehmung des menschlichen Sehens simuliert. Der Filter besteht aus einer gewichteten Summe von Differential of Gaussians (DoG). Die Gewichte werden so angepasst, dass der resultierende Filter der von Barten [7] entwickelten Kontrastempfindlichkeitsfunktion entspricht. Barten betont jedoch, dass sein CSF-Modell nur für das photopische Sehen gültig ist. Nachtfahrten hingegen liefern Szenarien, die im mesopischen Bereich liegen.
  • Bei dem Beispiel des erfindungsgemäßen Verfahrens wird ein Ansatz verwendet, der die Effekte des optischen Systems des Auges (optische Kontrastempfindlichkeitsfunktion) und die neuronale Verarbeitung des Netzhautbildes (neuronale Kontrastempfindlichkeitsfunktion) aufspaltet. Die optische Kontrastempfindlichkeitsfunktion beinhaltet Effekte wie die durch Streulicht verursachte Blendung. Die neuronale Kontrastempfindlichkeitsfunktion simuliert die rezeptiven Felder der frühen Stadien des menschlichen visuellen Cortex. Ein dritter Teil, der die Schwellenwert-Kontrastempfindlichkeitsfunktion induziert, schließt das Modell ab und ermöglicht die Vorhersage der Sichtbarkeit eines Kontrastes. Die gewählte Schwellenwert-Kontrastempfindlichkeitsfunktion ist für mesopisches Sehen gültig.
  • Das beschriebene Beispiel eines erfindungsgemäßen Verfahrens kann ein Modell mit einer sinnvollen Anzahl von Parametern sein. Dafür können die folgenden Randbedingungen berücksichtigt werden:
    • - Das Modell ist nur für die foveale Sicht gültig. Dies schließt Winkel von -2°α≤2° ein [8]. Das bedeutet auch, dass Reize nicht in der Peripherie erkannt werden müssen, bevor sie fokussiert werden.
    • - Die Kontrastempfindlichkeit ist auch abhängig von der Präsentationszeit des visuellen Reizes [9]. Unterhalb von 4 s [10] Betrachtungszeit ist die Kontrastempfindlichkeit reduziert. Hier werden nur statische Szenarien betrachtet und den Beobachtern wird mehr als 4 s Beobachtungszeit für die Stimuli gegeben. Daher kann die Zeitabhängigkeit der Kontrastempfindlichkeit vernachlässigt werden.
    • - Das Modell ist in einem ersten Schritt für achromatische Lichtmuster ausgelegt.
    • - Die Beobachtung wird immer bei binokularer Betrachtung des Reizes betrachtet.
    • - Bei der Betrachtung von Kontrasten mit einer bestimmten Frequenz für die Dauer von ca. 1 Minute tritt eine Kontrastadaption auf [3], die die Kontrastempfindlichkeit für den adaptierten Frequenzbereich reduziert. Dieser Effekt wird im Modell nicht berücksichtigt. Es wird angenommen, dass der Beobachter nur ca. 30 s Zeit hat, die Reize zu betrachten.
    • - Eine besondere Aufmerksamkeit des Beobachters auf bestimmte Regionen führt zu höheren Kontrastempfindlichkeiten [11]. Dieser Effekt wird nicht berücksichtigt.
  • Es besteht durchaus die Möglichkeit, für das Modell andere Randbedingungen zu wählen.
  • Das Modell ist für digitale Bilder 1 als Input ausgelegt, die Leuchtdichteverteilungen beziehungsweise Leuchtdichtebildern entsprechen. Das digitale Bild 1 wird gemäß dem Beispiel eines erfindungsgemäßen Verfahrens mit einem Algorithmus verändert, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert. Das Modell weist folgende Teilmodelle beziehungsweise Verfahrensschritte auf, die nacheinander angewendet werden (siehe 1):
    1. 1. Eine optische Kontrastempfindlichkeitsfunktion 2, die die Abbildungsfehler durch die Optik des menschlichen Auges simuliert. Dazu gehören beispielsweise Effekte wie Blendung, die durch Streuung am Augenmedium erfolgt. Im hier behandelten Beispiel ist das Modell von Watson implementiert [12]. Der Algorithmus simuliert somit in einem ersten Schritt die Veränderung eines Bildes durch den optischen Aufbau eines menschlichen Auges.
    2. 2. Eine neuronalen Kontrastempfindlichkeitsfunktion 3, welche die Kontrasterkennungsmechanismen in der menschlichen Netzhaut simuliert. Es handelt sich dabei insbesondere um eine starke Vereinfachung der heute bekannten Prozesse, die im Gehirn ablaufen. Die von Peli [13] entworfene CSF wird im hier behandelten Beispiel für die Anwendung gewählt. Der Algorithmus simuliert somit in einem zweiten Schritt die Verarbeitung einer Bildinformation zu einer Kontrastinformation durch das menschliche Gehirn.
    3. 3. Eine Schwellenwert-Kontrastempfindlichkeitsfunktion 4, mit der die Ergebnisse verglichen werden. Dieses Modell dient zur Bestimmung der Schwelle, anhand welcher entschieden wird, welche Elemente noch sichtbar sind und welche Elemente nicht. Die von Wuerger et al. [14] entwickelte Kontrastempfindlichkeitsfunktion wird im hier behandelten Beispiel als am besten geeignet für die gewünschte Anwendung ausgewählt. Sie ist für einen großen Bereich von Leuchtdichten ausgelegt und somit für mesopisches Sehen gültig. Der Algorithmus bestimmt somit in einem dritten Schritt eine Sichtbarkeits-Schwelle.
  • Ein Blockdiagramm dieses Modells ist in 1 dargestellt. Das digitale Bild 1 wird so verändert, dass das veränderte Bild 5 eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind. Jedes Teilmodell wird in den folgenden Abschnitten näher erläutert.
  • Die optische Kontrastempfindlichkeitsfunktion 2 beschreibt die Aberration des Bildes aufgrund von Effekten, die durch die Medien des Auges verursacht werden. Sie kann verwendet werden, um das resultierende Netzhautbild für einen Stimulus zu berechnen, der einem menschlichen Betrachter gezeigt wird [12]. Durch die Einbeziehung der optischen Kontrastempfindlichkeitsfunktion 2 in das Modell werden Effekte wie die Blendung berücksichtigt, die einen großen Einfluss auf die Gesamt-Kontrastempfindlichkeitsfunktion haben können.
  • Das hier implementierte Modell wurde von Watson [12] entwickelt. Die Pupillengröße, das Alter des Betrachters sowie die Augenfarbe beeinflussen die Aberration und werden daher als Eingabeparameter für das Modell berücksichtigt.
  • Watson verwendete zur Entwicklung des Modells die Daten einer großen Anzahl von Wellenfrontaberrationsmessungen. Zur Anpassung an die gemessenen Aberrationen wurden Zernike-Polynome bis zur 35. Ordnung eingesetzt [12]. Aus den Ergebnissen berechnete er eine mittlere radialsymmetrische reelle Modulationsübertragungsfunktion und approximierte eine Funktion, die am besten zu den Daten passt. Zusätzlich wird der Effekt des Streulichts einbezogen, der die Kontraste reduziert. Watson verwendet die von Ijspeert et al. 1993 [15] gefundene Formel, um den Einfluss des Streulichts mit einzubeziehen.
  • Wie in [12] angegeben, kommt Watsons Modell zu dem Schluss: C S F ( r , d ) = [ 1 + ( r u 1 ( d ) ) 2 ] 0.62 D ( r , d , λ ) ( 1 S ( a , p ) )
    Figure DE102022101854A1_0001
    mit r = u 2 + v 2 ,
    Figure DE102022101854A1_0002
    u ist die horizontale Ortsfrequenz und v die vertikale Ortsfrequenz. u1(d) ist ein Polynom-Fit, der die berechnete Kontrastempfindlichkeitsfunktion an unterschiedliche Pupillendurchmesser d anpasst. D berücksichtigt den rein beugungsbegrenzten Teil des Kontrastempfindlichkeitsfunktion. Er wird für weißes Licht mit einer Mittenwellenlänge von λ = 555nm berechnet.
  • S berücksichtigt den Effekt des Streulichts. Er ist abhängig vom Pigmentierungsfaktor p und dem Alter α des Beobachters, sowie dem vorgegebenen Referenzalter von 70 Jahren. Die Gleichungen für D, u1(d) und S(a,p) finden sich in der Veröffentlichung von Watson ([12], Gleichungen (1), (4), (6)).
  • Schließlich wird der Pupillendurchmesser wie in Watson et al. [16] angegeben berechnet. Dieses Modell ist eine Erweiterung des von Stanley und Davies [17] entworfenen Modells und beinhaltet Alterungseffekte sowie eine Unterscheidung zwischen binokularer und monokularer Sicht. Das hier vorgeschlagene Modell wird für binokulare Sicht betrachtet. Daraus ergibt sich die folgende Gleichung für die Berechnung des Pupillendurchmessers: d SD ( L , q ) = 7.75 5.75 ( ( L q 846 ) 0.41 ( L q 846 ) 0.41 + 2 )
    Figure DE102022101854A1_0003
  • Der Dynamikbereich der Pupille wird mit dem Alter reduziert. Dies wird in der Gleichung durch Hinzufügen eines zusätzlichen Terms berücksichtigt: d ( L , q , a ) = d S D ( L , q ) + ( a a r e f ) ( 0.02132 0.02132 0.009562 d S D ( L , q ) )
    Figure DE102022101854A1_0004
    L ist die mittlere Leuchtdichte des Sichtfeldes (fov), q die Fläche des fov und a das Alter des Betrachters. Das Referenzalter aref ist mit 28,58 Jahren angegeben.
  • Die implementierte neuronale Kontrastempfindlichkeitsfunktion 3 beziehungsweise neuronale Modulationsübertragungsfunktion wurde von Peli [13] entwickelt. Sie wird ursprünglich auf natürliche Bilder beziehungsweise komplexe Szenen angewendet und ermöglicht die Vorhersage, ob kleine Details im Bild für den menschlichen Beobachter sichtbar sind.
  • Das Bild wird mit verschiedenen Cosinus-Log-Bandpassfiltern gefaltet, die jeweils unterschiedliche Mittenfrequenzen und eine Bandbreite von einer Oktave haben. Die Filter im Ortsfrequenzbereich werden berechnet zu G k ( r ) = 0.5 ( 1 + cos ( π log 2 r π k ) )
    Figure DE102022101854A1_0005
  • Jeder Filter hat eine Mittenfrequenz von 2k, wobei k ein ganzzahliger Wert ist.
  • Die hier entworfenen Filter sind den Gabor-Filtern sehr ähnlich, mit dem Unterschied, dass die Summe der Filter gleich Eins ist [13]. Hubel und Wiesel [18] finden, dass rezeptive Felder eine große Ähnlichkeit zu Gabor-Filterfunktionen haben. Das Modell ist daher ein vereinfachter Ansatz zur Simulation früher Stadien der visuellen Verarbeitung, weil es Effekte wie die Orientierungsselektivität, wie sie von de Valois et al. [19] entdeckt wurde, nicht berücksichtigt.
  • Das Bild wird mit jedem Filter separat gefaltet, was k Ergebnisse liefert. a k ( x , y ) = ƒ ( x , y ) g k ( x , y )
    Figure DE102022101854A1_0006
  • Dabei ist f(x,y) der Bildwert an der horizontalen Pixelposition x und der vertikalen Pixelposition y, gk(x,y) ist die k-te Bandpassfilterfunktion im räumlichen Bereich und * stellt den Faltungsoperator dar. Für das beispielhaft erläuterte Modell wird das Bild vor der Filterung in jeder Richtung um die Hälfte der Filtergröße vergrößert. Die Werte an den Rändern des Bildes werden wiederholt, um eine künstliche Kantenbildung zu vermeiden. Die Auflösungsinformation des Bildes wird durch dieses Verfahren nicht verändert und nach der Filterung wird die Bildgröße wieder auf die Originalgröße reduziert. Dieses sogenannte Padding vermeidet Ringing-Artefakte, die durch die diskrete Fourier-Transformation entstehen und ist ein gängiges Verfahren bei der Multiplikation von Filtern im Frequenzbereich [20].
  • Da das beispielhaft erläuterte Modell für foveales Sehen ausgelegt ist, ist das Blickfeld auf ± 2 Grad begrenzt [8]. Die Fläche, die benötigt wird, um einen vollen Zyklus mit der kleinsten Frequenz darzustellen, sollte diesen Bereich nicht überschreiten. Unter Einhaltung der Konstruktionsregel des Peli-Modells, dass die Mittenfrequenz 2n beträgt, wird die kleinste Frequenz ƒc1= 2-2 cyc/deg gewählt. Die größte für den verwendeten Aufbau anwendbare Frequenz ist durch die Nyquist-Frequenz begrenzt. Da die hier gezeigten Leuchtdichtebilder eine Auflösung von ~ 75 pix/deg haben, ist die maximale Frequenz, die durch Fourier-Transformation erreicht werden kann, mit 35 pix/deg gegeben. Daraus ergibt sich eine maximale Mittenfrequenz von ƒc8 = 32 zyk/deg. Die resultierenden Frequenzen, die explizit für die Anwendung des hier vorgeschlagenen Modells gewählt wurden, sind somit gegeben zu: 0,5, 1, 2, 4, 8, 16 und 32 cyc/deg.
  • Für photopische Beleuchtungsumgebungen ist bekannt, dass ein gesunder und junger menschlicher Beobachter eine maximale Auflösung von 0,5' hat [21]. Dies entspricht einer Auflösung von 120 Zyklen/Grad. Im Gegensatz dazu ist die höchste Auflösung des Modells auf nur ein Viertel dieses Wertes eingestellt.
  • 2 zeigt die mit dem beispielhaft erläuterten Modell berechnete Kontrastempfindlichkeit für verschiedene Leuchtdichten. Vergleicht man die maximale Kontrastempfindlichkeit bei 200 cd/m2 mit der Kontrastempfindlichkeit von 0,2 cd/m2, so sinkt die maximale Empfindlichkeit auf etwa ein Viertel des Wertes. Somit dürfte die gewählte Auflösung für das Modell ausreichend sein.
  • Um die neuronalen Adaptationsprozesse zu berücksichtigen, berechnet Peli den Kontrast für jeden Kanal, indem die gefilterten Bilder durch einen Adaptationsleuchtdichtewert dividiert werden. Der Wert wird berechnet, indem nur die Frequenzen im Bild beibehalten werden, die unterhalb des Durchlassbereichs des Bandpassfilters liegen. Das bandpassgefilterte Bild wird dann durch das Ergebnis geteilt: c k ( x , y ) = a k ( x , y ) ƒ ( x , y ) l k ( x , y )
    Figure DE102022101854A1_0007
  • Dabei ist lk(x,y) der Tiefpassfilter im räumlichen Bereich, der mit dem Bild gefaltet wird.
  • Der berechnete Kontrast wird für jedes Pixel in jedem Kontrastbild mit dem Schwellenkontrast verglichen. Wenn der Kontrast für die gegebene Mittenfrequenz des Bandpasses kleiner als ein gegebener Schwellenwert ist, wird die Information im bandpassgefilterten Bild an diesem Pixel verworfen, indem das Pixel auf einen Wert von Null gesetzt wird. a k ( x , y ) { ƒ ( x , y ) g ( x , y ) , i ƒ   c k ( x , y ) c tresh   0, e l s e
    Figure DE102022101854A1_0008
  • Peli verwendet den gemessenen CSF jedes einzelnen Beobachters als Schwellenwert [22]. Nach der Verarbeitung jedes bandpassgefilterten Bildes auf diese Weise wird das resultierende Bild durch eine Summierung aller gefilterten und schwellenwertgeregelten Bilder, einschließlich der nieder- und hochfrequenten Residuen, rekonstruiert. ƒ rec ( x , y ) = l 0 ( x , y ) + k = 1 n 1 a k ( x , y ) + h n ( x , y )
    Figure DE102022101854A1_0009
  • Dabei ist l0 das Tiefpass-Residuum und hn das Hochpass-Residuum.
  • Auch wenn die Ergebnisse von Peli eine gute Übereinstimmung mit seiner Studie [23] haben, ist dieses Verfahren nicht direkt auf das hier vorgeschlagene Modell anwendbar. Das Ziel ist es, einen allgemeinen Ansatz zu entwickeln, nicht einen, der auf Individuen zugeschnitten ist. Aus diesem Grund wird zur Berechnung des Schwellenwerts ein Modell verwendet, das einen mittleren Kontrastempfindlichkeitsfunktion für gesunde Probanden vorhersagt.
  • Die Umgebung, in der Scheinwerfer typischerweise eingesetzt werden, weist Leuchtdichten unter 3 cd/m2 auf, wo der Übergang zwischen dem photopischen und dem mesopischen Sehen stattfindet [24]. Daher ist es wichtig, eine Kontrastempfindlichkeitsfunktion zu wählen, die für den Bereich des mesopischen Sehens gültig ist. Die für dieses Modell als Schwellenfunktion gewählte Kontrastempfindlichkeitsfunktion wurde für Adaptationsleuchtdichten zwischen 0,02 cd/m2 und 7000 cd/m2 entwickelt [14]. Sie enthält auch einen separierbaren Teil, der die chromatische Kontrastempfindlichkeitsfunktion beschreibt. Dies ermöglicht die mögliche Erweiterung des Modells in einem späteren Schritt, ohne eine andere Schwellwertfunktion implementieren zu müssen.
  • Wuerger et al. entwickeln das Modell als eine kontinuierliche Funktion, die von der umgebenden Leuchtdichte und Frequenz abhängt und die Berechnung für jede durchschnittliche Leuchtdichte oder Frequenz ermöglicht, die in der gemessenen Leuchtdichteverteilung gefunden wird. Sie validieren das Modell mit eigenen Messdaten sowie mit einem angemessenen Vergleich zu anderen veröffentlichten Datensätzen. Die Autoren schlagen eine Erweiterung des Modells vor, die die Abhängigkeit der Kontrastempfindlichkeitsfunktion von der dargestellten Zyklenzahl beinhaltet. Diese Erweiterung wird hier nicht angewendet, da die Autoren angeben, dass die Datenmenge zur Verifizierung der Erweiterung nicht groß genug ist. Der resultierende achromatische logarithmische Kontrastempfindlichkeitsfunktion wird also wie folgt berechnet: S log10 ( r , r max , b ) = log 10 ( s max ) ( log 10 ( r ) log 10 ( r max ) 0.5 2 b ) 2
    Figure DE102022101854A1_0010
  • Dabei ist r die Radialfrequenz, wie sie in den vorherigen Abschnitten verwendet wurde, rmax die Frequenz, bei der die Kontrastempfindlichkeitsfunktion ihren Maximalwert hat und Smax die maximale Empfindlichkeit beim Wert rmax. Die Berechnungen der Werte für rmax und Smax finden sich in Wuerger et al, [14], Gleichungen (16a,b).
  • Der zum Vergleich herangezogene Schwellenkontrast kann dann berechnet werden durch cthresh = 10Slog10 .
  • Die für die Berechnung der Schwelle verwendete Leuchtdichte L ist die mittlere Leuchtdichte, die auch für die Berechnung des Kontrastes in (6) verwendet wird.
  • Um die Anwendbarkeit des beispielhaft erläuterten Modells auf Scheinwerferlichtmuster zu testen, ist die Erzeugung einer großen Vielfalt von Lichtmustern notwendig. 3 zeigt einen beispielhaften Versuchsaufbau zur Aufnahme eines Bildes, das einer Leuchtdichteverteilung des von einem Scheinwerfer ausgehenden Lichts entspricht.
  • Eine Kamera 7 ist 2 m hinter einem Projektor 6 und 1,2 m über einer Straße 8 angebracht. Die Mitte des Projektorobjektivs befindet sich 0,64 m über der Straße. Kamera 7 und Projektor 6 sind somit in Positionen platziert, die der Position der Scheinwerfer und des Fahrers sehr ähnlich sind. Insbesondere kann von dem Projektor 6 eine Lichtverteilung 9 auf die Straße 8 projiziert werden, die der eines Scheinwerfers entsprechen kann.
  • Für beispielhafte Tests wird als Projektor 6 ein Hochleistungsprojektor vom Typ Barco W30 Flex verwendet, der geometrisch und bezüglich der Lichtstärke kalibriert ist (da er 8-Bit-Graustufenwerte als Eingangsdaten erhält). Der maximale Lichtstrom des Projektors 6 ist mit 30.000 Lumen angegeben. Bei einer Bildgröße von 1920 x 1200 Pixeln und einem entsprechenden Sichtfeld (fov) von ±15,03° in horizontaler Richtung und ±10,05° in vertikaler Richtung ergibt sich eine Auflösung des Projektors 6 von 0,017° vertikal und 0,016° horizontal. Der Projektor 6 befindet sich in einem Lichtkanal, der eine stabile, tageszeit- und wetterunabhängige Testumgebung ermöglicht.
  • Das Modell wird mit gemessenen Leuchtdichtebildern getestet. Als Kamera 7 dient dabei eine Leuchtdichtemesskamera vom Typ LMK5 Color, Techno Team, die unter Verwendung eines Objektivs mit einer Brennweite von 16 mm und einem Neutraldichtefilter mit einer Transmission von 7,93% die Leuchtdichtebilder erzeugt.
  • Um die Pixelpositionen in Winkelkoordinaten zu übersetzen, wird ein Punktraster verwendet. Der Mittelpunkt jedes Punktes hat einen Abstand von 0,5° in vertikaler und in horizontaler Richtung. Mit einem Bildverarbeitungsalgorithmus wird der Mittelpunkt der Punkte im Leuchtdichtebild in Pixelkoordinaten gemessen. In einem nächsten Schritt wird die Position mit dem entsprechenden Winkel verknüpft. Durch bilineare Interpolation zwischen den gemessenen Punkten erhält jedes Pixel im Bild eine Winkelkoordinate in Grad. Nachdem die Winkelpositionen des Projektors auf diese Weise bestimmt wurden, können die Winkelpositionen für das Kamerabild durch Kenntnis des Abstands zum Projektormittelpunkt berechnet werden.
  • Das für den Test verwendete Lichtmuster wird mit Hilfe einer simulierten Lichtstärkeverteilung eines Scheinwerfermoduls erzeugt, das aus einer hochauflösenden, gepixelten Lichtquelle besteht. Die Simulation ermöglicht das Dimmen und vollständige Abschalten einzelner Pixel.
  • Es werden drei verschiedene Szenarien untersucht:
    1. 1. Es wird ein dunkler Fleck auf einem gleichmäßig beleuchteten Hintergrund erzeugt, indem ausgewählte Pixel abgeschaltet werden. Die Größe des Flecks wird dann durch Abschalten benachbarter Pixel verändert. Es wird erwartet, dass sich die Sichtbarkeit mit der Größe des dunklen Flecks verbessert.
    2. 2. Ein heller Fleck wird auf dem gleichen Hintergrund erzeugt und die Größe des Flecks wird auf die gleiche Weise wie zuvor geändert. Es wird das gleiche prinzipielle Verhalten wie für den dunklen Fleck erwartet.
    3. 3. Bei dem letzten Szenario wird eine komplexe Szene einer typischen Landstraße mit stationärer Straßenbeleuchtung erzeugt. Die Auswirkung der lokalen Adaption auf die Auflösung wird getestet. Es wird erwartet, dass die Sehschärfe in dunkleren Bereichen abnimmt.
  • Die ersten beiden Szenarien werden zunächst auf eine in 3 nicht abgebildete weiße Leinwand projiziert, die sich in 8,4 m Entfernung zum Projektor 6 befindet. Dann wird die Leinwand entfernt und das gleiche Bild auf die Straße 8 projiziert. Für das dritte Szenario wird das Lichtmuster nur auf die Straße 8 projiziert. Für die gezeigten Szenarien wird das Alter des Beobachters auf 30 Jahre gesetzt, die Augenfarbe des Beobachters wird als braun angenommen.
  • Bei dem ersten Szenario werden dunkle Flecken untersucht, die sich in ihrer Größe ändern. Spotgrößen mit einem Durchmesser von 0,2°, 0,3° und 0,4° werden durch unterschiedlich starkes Dimmen benachbarter Pixel der Lichtquelle erzeugt. Die gewählte Simulation ergibt eine Umgebungslichtstärke von 16770 cd, und eine Lichtstärke des Spots von 11690 cd. Die schematische Darstellung in 4 zeigt beispielhaft einige kleine dunkle Flecken 10 und zwei große dunkle Flecken 11.
  • Die von der Kamera 7 aufgenommenen Leuchtdichtebilder werden mit Bandpassfiltern unterschiedlicher Mittenfrequenzen gefiltert. Dabei sprechen Bandpassfilter mit kleinen Mittenfrequenzen auf räumlich größere Elemente im Bild an und umgekehrt. Insbesondere sprechen Bandpassfilter mit 1, 2 und 4 cyc/deg am stärksten auf das Bild an.
  • Für die derart gefilterten Leuchtdichtebilder werden Kontraste und Schwellenkontraste berechnet. Da sich die Kontrastschwelle mit der Frequenz ändert, werden für jede Mittenfrequenz unterschiedliche Schwellenwerte berechnet. Bei einem Vergleich der Kontrastschwellen auf der Straße mit der Kontrastschwelle auf dem Bildschirm zeigt sich, dass sich die Kontrastschwellen mit der Leuchtdichte ändern. Dabei weisen dunklere Regionen einen deutlich höheren Schwellenwert auf.
  • Je kleiner die Spotgröße ist, desto größer ist die Unschärfe zwischen Hintergrund und Bildschirm. Während ein Teil dieses Effekts auf den verringerten Kontrast durch Unschärfe benachbarter Pixel zurückzuführen ist, zeigt das Modell den Effekt dennoch, weil er in der Rekonstruktion größer ist als im Original.
  • Ein beispielhaftes, mit einem erfindungsgemäßen Verfahren rekonstruiertes Bild für die Projektion auf die Straße ist in 5 ersichtlich. Es zeigt sich, dass für kleinere Spotgrößen die Sichtbarkeit reduziert wird, bis sie nicht mehr oder kaum noch sichtbar sind. Insbesondere sind die in 4 abgebildeten kleinen dunklen Flecken 10 in 5 nicht mehr sichtbar, wohingegen die großen Flecken 11 noch deutlich erkannt werden können. Diese Ergebnisse verdeutlichen, dass das Modell für den gewünschten Anwendungsbereich einsetzbar ist.
  • Bei dem zweiten Szenario werden sich in ihrer Größe verändernde helle Flecken untersucht. Für die Bewertung der Erkennungsqualität von hellen Flecken auf einem gleichmäßig beleuchteten Hintergrund wird für die simulierte Lichtquelle die gleiche Umgebungslichtstärke wie in dem ersten Szenario verwendet. Die Pixel, die die Flecken erzeugen, werden auf einen niedrigeren Dimmwert (höhere Intensität) als die Umgebung gesetzt. Die Lichtstärke für den hellen Spot wird mit 21490 cd angegeben.
  • Die Untersuchung verdeutlicht, dass in den rekonstruierten Bildern im Vergleich zum Originalbild die hellen Flecken unschärfer und weniger sichtbar erscheinen. Dies entspricht der beobachtbaren Tatsache, dass ein heller Fleck schwieriger von der Umgebung zu unterscheiden war als ein dunkler Fleck gleicher Größe.
  • Bei dem dritten Szenario wird eine komplexe Szene untersucht, insbesondere eine komplexere Szene einer typischen städtischen Straße bei Nacht. Eine Abblendlichtverteilung beleuchtet die Straße in Anwesenheit einer stationären Straßenbeleuchtung.
  • Es zeigt sich, dass für Regionen im Bild mit niedrigen Leuchtdichten eine deutlich geringere Auflösung des rekonstruierten Bildes beobachtet wird als für Regionen mit höheren Leuchtdichten. Dies steht wiederum im Einklang mit dem Verhalten des menschlichen Sehsystems. In dunkler Umgebung ist die Sehschärfe des visuellen Systems reduziert.
  • Für alle drei Szenarien stimmt somit das qualitative Verhalten des Modells mit dem erwarteten Verhalten überein. Dies ist ein sehr guter Indikator für die Anwendbarkeit des Modells. Der Vorteil des Modells ist die allgemeine Anwendbarkeit für eine Vielzahl von Leuchtdichteverteilungen und Umgebungen, ohne dass eine Parameteranpassung notwendig ist. Durch die Verwendung der drei Teilmodelle werden Effekte wie physiologischen Blendung und globale sowie lokale Leuchtdichteadaptionseffekte bei der Kontrastberechnung berücksichtigt.
  • Literaturverzeichnis
    1. [1] Commission Internationale de l'Eclairage, „An Analytic Model for Describing the Influence of Lighting Parameters upon Visual Performance“, CIE publication 19/2, Vienna, 1981.
    2. [2] H.R. Blackwell, „Contrast thresholds of the humane eye“, Journal of the Optical Society of America, 1946.
    3. [3] C. Blakemore, F. W. Campbell, „On the existence of neurones in the human visual system selectively sensitive to the orientation and size of retinal images“, Journal of Physiology, 203 (1), pp. 237-260, 1969
    4. [4] M.J. Nadenau, J. Reichel, and M. Kunt, „Wavelet-based color image compression: exploiting the contrast sensitivity function.“, IEEE Transactions on image processing, 12.1, pp: 58-70, 2003
    5. [5] N. Yamane, K. Miyata, T. Samejima, T. Hiraoka, T. Kiuchi, F. Okamoto, Y. Hirohara, T. Mihashi, and T. Oshika, „Ocular higher-order aberrations and contrast sensitivity after conventional laser in situ keratomileusis“, Investigative Ophthalmology & Visual Science, 45(11), pp.3986-3990, 2004.
    6. [6] K. Joulan, N. Hautiere, and N. Bremond, „Contrast sensitivity function for road visibility estimation on digital images“, Proc. 27th session of the Commission Internationale de l'Eclairage, 2011
    7. [7] P. G. J. Barten, „Contrast sensitivity of the human eye and its effects on image quality“, SPIE press, 1999
    8. [8] S. E. Palmer, Vision Science. Photons to Phenomenology, MIT Press, Cambridge, Massachusetts, 1999.
    9. [9] F. L. Van Nes, J. J. Koenderink, H. Nas, and M. A. Bouman, „Spatiotemporal Modulation Transfer in the Human Eye,“ Journal of the Optical Society of America A, 57, 1082-1088, 1967
    10. [10] B. Hauser, H. Ochsner, and E. Zrenner. „Der „Blendvisus“-Teil 1: Physiologische Grundlagen der Visusänderung bei steigender Testfeldleuchtdichte.“ Klinische Monatsblätter für Augenheilkunde (200.02), pp. 105-109, 1992
    11. [11] N. V. K. Medathati, H. Neumann, G. S. Masson, and P. Kornprobst, „Bio-inspired computer vision: Towards a synergistic approach of artificial and biological vision“, Computer Vision and Image Understanding, vol. 150, pp. 1-30, 2016.
    12. [12] A.B. Watson, „A formula for the mean human optical modulation transfer function as a function of pupil size.“ Journal of Vision, 13.6, 18-18, 2013
    13. [13] E. Peli, „Contrast in complex images“. Journal of the Optical Society of America A, 7, 10, 2032-2040, 1990
    14. [14] S. Wuerger, M. Ashraf, M. Kim, J. Martinovic, M. Pérez-Ortiz, and R. K. Mantiuk, „Spatio-chromatic contrast sensitivity under mesopic and photopic light levels“, Journal of Vision, 20(4), 2020
    15. [15] J. K. Ijspeert, T. J. T. P. Van Den Berg, and H. Spekreijse, „An improved mathematical description of the foveal visual point spread function with parameters for age, pupil size and pigmentation.“ Vision research 33(1) pp: 15-20, 1993.
    16. [16] A.B. Watson, and J. I. Yellott, „A unified formula for light-adapted pupil size.“, Journal of vision, 12.10, 12-12, 2012
    17. [17] P. A. Stanley, and A.K. Davies, „The effect of field of view size on steady-state pupil diameter.“, Ophthalmic & Physiological Optics, 15(6), pp. 601-603, 1995
    18. [18] D.H. Hubel, and T. Wiesel, „Receptive fields, binocular interaction, and functional architecture in the cat's visual cortex“, Journal of Physiology, London, 160:106-154, 1962
    19. [19] R. L. de Valois, D. G. Albrecht, and L. G. Thorell, „Spatial frequency selectivity of cells in macaque visual cortex“, Vision Research, 22(5), pp.545-559,1982
    20. [20] A. Distante, and C. Distante, Handbook of Image Processing and Computer Vision. Volume 1: From Energy to Image, p. 438, Springer International Publishing, 2020.
    21. [21] J.A. Ferwerda, „Elements of early vision for computer graphics.“, IEEE computer graphics and applications 21.5 pp: 22-33, 2001
    22. [22] E. Peli, „Test of a model of foveal vision by using simulations.“, Journal of the Optical Society of America A, 13.6, 1131-1138, 1996
    23. [23] E. Peli, „Contrast sensitivity function and image discrimination,“ Journal of the Optical Society of America A, 18, 283-293, 2001
    24. [24] B. Wördenweber, P. Boyce, D.D. Hoffmann and J. Wallaschek, „Automotive lighting and human vision“, Vol. 1., Springer-Verlag, Berlin Heidelberg, 2007.
  • Bezugszeichenliste
  • 1
    digitales Bild
    2
    optische Kontrastempfindlichkeitsfunktion
    3
    neuronale Kontrastempfindlichkeitsfunktion
    4
    Schwellenwert-Kontrastempfindlichkeitsfunktion
    5
    verändertes Bild
    6
    Projektor
    7
    Kamera
    8
    Straße
    9
    Lichtverteilung
    10
    kleiner dunkler Fleck
    11
    großer dunkler Fleck

Claims (10)

  1. Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts, gekennzeichnet durch folgende Verfahrensschritte: - ein digitales Bild (1), das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, wird aufgenommen, - das digitale Bild (1) wird so verändert, dass das veränderte Bild (5) eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das digitale Bild (1) mit einem Algorithmus verändert wird, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem ersten Schritt, die Veränderung eines Bildes (1) durch den optischen Aufbau eines menschlichen Auges simuliert.
  4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem zweiten Schritt, die Verarbeitung einer Bildinformation zu einer Kontrastinformation, die insbesondere durch das menschliche Gehirn beziehungsweise durch Zelltypen in der Retina erfolgt, simulieren.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem dritten Schritt, eine Sichtbarkeits-Schwelle bestimmt.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Sichtbarkeits-Schwelle dazu dient, zu entscheiden, welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen wahrnehmbar sind und welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen nicht wahrnehmbar sind, wobei die gemäß dieser Entscheidung nicht von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung nicht in das veränderte Bild (5) aufgenommen werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das veränderte digitale Bild (5) mit einem aus einer Soll-Leuchtdichteverteilung der Beleuchtungsvorrichtung generierten Bild verglichen wird, insbesondere um zu entscheiden, ob die von der Beleuchtungsvorrichtung erzeugte Lichtverteilung unter Berücksichtigung der Wahrnehmbarkeit durch einen Menschen geeigneten Vorgaben entspricht.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Aufnahme des digitalen Bildes (1) eine Leuchtdichtemessung ist oder in eine Leuchtdichteverteilung umgerechnet wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Beleuchtungsvorrichtung eine Schlussleuchte oder ein Scheinwerfer ist, insbesondere ein hochauflösender Scheinwerfer, der eine Lichtverteilung (9) mit einer Vielzahl von Pixeln erzeugen kann.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass es sich bei dem aufgenommenen digitalen Bild (1) um eine Aufnahme einer Scheinwerferlichtverteilung oder um eine Aufnahme einer Schlussleuchte handelt.
DE102022101854.7A 2021-06-02 2022-01-27 Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts Pending DE102022101854A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/EP2022/064222 WO2022253672A1 (de) 2021-06-02 2022-05-25 Verfahren zur analyse einer leuchtdichteverteilung des von einer beleuchtungsvorrichtung für ein fahrzeug ausgehenden lichts
CN202280039528.2A CN117413298A (zh) 2021-06-02 2022-05-25 用于分析来自用于车辆的照明设备的光的亮度分布的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021114301 2021-06-02
DE102021114301.2 2021-06-02

Publications (1)

Publication Number Publication Date
DE102022101854A1 true DE102022101854A1 (de) 2022-12-22

Family

ID=84283539

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022101854.7A Pending DE102022101854A1 (de) 2021-06-02 2022-01-27 Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts

Country Status (1)

Country Link
DE (1) DE102022101854A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60020795T2 (de) 1999-11-11 2006-05-04 Tektronix, Inc., Beaverton Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme
US20130201483A1 (en) 2012-02-03 2013-08-08 Chia-Liang Hsu Method and apparatus for testing light-emitting device
DE102013011975A1 (de) 2013-07-12 2015-01-29 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Bewertung von Scheinwerfern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60020795T2 (de) 1999-11-11 2006-05-04 Tektronix, Inc., Beaverton Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme
US20130201483A1 (en) 2012-02-03 2013-08-08 Chia-Liang Hsu Method and apparatus for testing light-emitting device
DE102013011975A1 (de) 2013-07-12 2015-01-29 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur Bewertung von Scheinwerfern

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PELI, Eli: Contrast in complex images. In: Journal of the Optical Society of America A (JOSA A): Optics, Image Science, and Vision, Bd. 7, 1990, H. 10, S. 2032-2040. - ISSN 0740-3232; 1084-7529 (P), 1520-8532. DOI: 10.1364/JOSAA.7.002032. URL: https://opg.optica.org/josaa/viewmedia.cfm?uri=josaa-7-10-2032&seq=0 [abgerufen am 2022-03-02].
WATSON, Andrew B.: A formula for the mean human optical modulation transfer function as a function of pupil size. In: Journal of Vision, Bd. 13, 2013, H. 6, S. 1-11. - ISSN 1534-7362 (E). DOI: 10.1167/13.6.18. URL: https://jov.arvojournals.org/arvo/content_public/journal/jov/932810/i1534-7362-13-6-18.pdf [abgerufen am 2022-03-02].
WUERGER, Sophie [u.a.]: Spatio-chromatic contrast sensitivity under mesopic and photopic light levels. In: Journal of Vision, Bd. 20, 2020, H. 4, S. 1-26. - ISSN 1534-7362 (E). DOI: 10.1167/jov.20.4.23. URL: https://jov.arvojournals.org/arvo/content_public/journal/jov/938446/i0035-8711-395-1-07118.pdf [abgerufen am 2022-03-03].

Similar Documents

Publication Publication Date Title
Geisler Sequential ideal-observer analysis of visual discriminations.
Hess et al. Contrast-coding in amblyopia. I. Differences in the neural basis of human amblyopia
AT505338B1 (de) Verfahren zur wahrnehmungsmessung
DE102019102373A1 (de) Verfahren, Softwareprodukt und System zur Refraktionsbestimmung auf einem mobilen Endgerät
EP2642425A1 (de) Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
DE102012208625B4 (de) Verfahren und System zur Verarbeitung von MRT-Daten des menschlichen Gehirns
EP2790566B1 (de) Universelle objektive refraktion
WO2022253672A1 (de) Verfahren zur analyse einer leuchtdichteverteilung des von einer beleuchtungsvorrichtung für ein fahrzeug ausgehenden lichts
EP3730036A1 (de) Bestimmung eines refraktionsfehlers eines auges
DE10100830A1 (de) Verfahren zur Segmentierung und Volumenberechnung von weisser Substanz, grauer Substanz und Zerebrospinalflüssigkeit von Kernspinresonanz-Bildern des menschlichen Gehirns
EP3352644B1 (de) Verfahren und system zur bestimmung der subjektiven refraktionseigenschaften eines auges
WO2005070285A1 (de) Verfahren und sehtestgerät zur ermittlung der notwendigkeit einer sehhilfe bei dunkelheit und/oder dämmerung sowie ein set von sehhilfen
DE102022101854A1 (de) Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts
WO2015091036A1 (de) Verfahren zur ermittlung der phasenverteilung
DE10333813A1 (de) Online-Wellenfrontmessung und Anzeige
WO2011104124A1 (de) Verfahren und vorrichtung zur analyse eines bildes einer bilderfassungseinrichtung für ein fahrzeug
DE102011120973B4 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zum Erfassen von objektiven Refraktionsdaten für die Anpassung und Optimierung einer Brille
DE102008008475B4 (de) Verfahren und Vorrichtung sowie korrespondierende Gegenstände zur Bestimmung der Beleuchtungsstrahlendosis bei der Operationsfeldbeleuchtung
EP2243419A1 (de) Integrale und differentiale visuelle Objekte zur Erhebung und Optimierung des Sehvermoegens
Schier et al. A model for predicting the visibility of intensity discontinuities in light patterns of vehicle headlamps
Peterzell On the nonrelation between spatial frequency and cerebral hemispheric competence
CN117413298A (zh) 用于分析来自用于车辆的照明设备的光的亮度分布的方法
DE102005016945A1 (de) Verfahren zum Betrieb eines Perimeters und Perimeter
Straßer et al. The perception threshold of the panda illusion, a particular form of 2D pulse-width-modulated halftone, correlates with visual acuity
DE102007001738B4 (de) Verfahren und Computerprogrammprodukt zur Blickerfassung

Legal Events

Date Code Title Description
R163 Identified publications notified