DE3844912C2 - Method for compensating evaluation errors of a device for determining the viewing direction of the user of a camera - Google Patents

Method for compensating evaluation errors of a device for determining the viewing direction of the user of a camera

Info

Publication number
DE3844912C2
DE3844912C2 DE3844912A DE3844912A DE3844912C2 DE 3844912 C2 DE3844912 C2 DE 3844912C2 DE 3844912 A DE3844912 A DE 3844912A DE 3844912 A DE3844912 A DE 3844912A DE 3844912 C2 DE3844912 C2 DE 3844912C2
Authority
DE
Germany
Prior art keywords
light
sensor
distribution
output signal
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3844912A
Other languages
German (de)
Inventor
Osamu Shindo
Shigeo Toji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP63143259A external-priority patent/JP2859270B2/en
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority claimed from DE19883841575 external-priority patent/DE3841575C2/en
Application granted granted Critical
Publication of DE3844912C2 publication Critical patent/DE3844912C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/10Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void
    • G01J1/20Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void intensity of the measured or reference value being varied to equalise their effects at the detectors, e.g. by varying incidence angle
    • G01J1/22Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void intensity of the measured or reference value being varied to equalise their effects at the detectors, e.g. by varying incidence angle using a variable element in the light-path, e.g. filter, polarising means
    • G01J1/24Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void intensity of the measured or reference value being varied to equalise their effects at the detectors, e.g. by varying incidence angle using a variable element in the light-path, e.g. filter, polarising means using electric radiation detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/14Viewfinders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors

Landscapes

  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Astronomy & Astrophysics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Automatic Focus Adjustment (AREA)

Description

Aus der US-PS 45 74 314 ist eine Kamera mit einem Suchersystem mit einer Einrichtung zum Feststellen der Blickrichtung des Benutzers bekannt, die ein Lichtübertragungssystem zum Übertragen eines Meßlichtstrahls auf das Auge des Benutzers und ein Lichtempfangssystem für den am Auge reflektierten Meßlichtstrahl enthält, der auf einem Lichtaufnahmeteil ein Bild des ersten Purkinje-Bildes erzeugt. Diese Kamera ist eine Fernseh-Studiokamera, in der ein Monitor zur Blickrichtungserfassung neben dem normalen, als Suchersystem dienenden Monitor angeordnet ist. Die Meßlichtquelle richtet den Meßlichtstrahl auf das Auge des Kamerabenutzers, wobei der am Auge reflektierte Meßlichtstrahl über denselben Weg wie der zum Auge hin gerichtete Meßlichtstrahl dem Monitor zur Blickrichtungserfassung zugeführt wird, bei dem auch die Meßlichtquelle angeordnet ist. Es ergibt sich dadurch eine optische Weglänge für den hinlaufenden und den rücklaufenden Meßlichtstrahl, die etwa dem doppelten Abstand des Monitors für die Blickrichtungserfassung zum Auge des Kamerabenutzers entspricht.From US-PS 45 74 314 is a camera with a viewfinder system with a device for determining the viewing direction known by the user that a light transmission system for Transmission of a measuring light beam to the user's eye and a light receiving system for the one reflected on the eye Contains measuring light beam, which on a light receiving part Image of the first Purkinje image created. This camera is one TV studio camera, in which a monitor for viewing direction detection in addition to the normal one that serves as a viewfinder system Monitor is arranged. The measuring light source directs the measuring light beam on the eye of the camera user, whereby the am Eye reflected measuring light beam over the same path as the Measuring light beam directed towards the eye to the monitor for detecting the direction of view is supplied, in which the measuring light source is arranged. The result is an optical one Path length for the incoming and the returning measuring light beam, which is about twice the distance of the monitor for the Gaze direction detection to the eye of the camera user corresponds.

Eine Anordnung dieser vorbekannten Art eignet sich nicht für kompakte Handkameras, da im Suchersystem solcher Kameras kein ausreichender Platz zur Verfügung steht. Verkleinert man die für die Blickrichtungserfassung erforderlichen Komponenten und ordnet sie so an, daß sich kurze Strahlengänge ergeben, so werden Fehler, die durch die Eigenschaften der verwendeten optischen Elemente verursacht sind, bei der Auswertung von Signalen stärker ins Gewicht fallen als bei großvolumigen Einrichtungen.An arrangement of this kind is not suitable for compact handheld cameras, since there is no such camera in the viewfinder system sufficient space is available. If you reduce the size Components required for the line of sight detection and arranges them so that there are short beam paths, so errors caused by the properties of the used optical elements are caused when evaluating Signals are more important than large-volume ones Facilities.

Aus der US-PS 45 08 963 ist es bekannt, bei einer aus paarweise angeordneten Halbleiterelementen bestehenden Sensoreinrichtung, die mit einer auszuwertenden Lichtverteilung bestrahlt wird, die Auswertegenauigkeit zu erhöhen, indem Differenzen der Ausgangssignale der Halbleiterelemente eines jeden Paars kompensiert werden. Hierzu werden die Signale mindestens des einen Halbleiterelements eines jeden Paars um einen Betrag abgeändert, der von der mittleren Fehlanpassung der Halbleiterelemente aller Paare zueinander abhängt. Dadurch weden die abgeänderten Signale der einen Halbleiterelemente denjenigen der anderen Halbleiterelemente angenähert. Es handelt sich dabei also um eine elektrische Grundeinstellung der Arbeitspunkte der Halbleiterelemente derart, daß sie untereinander weitgehend gleiche Signale abgeben, wenn sie mit ein und derselben Lichtstärke beaufschlagt werden.From US-PS 45 08 963 it is known, in one out in pairs arranged semiconductor elements existing sensor device,  which are irradiated with a light distribution to be evaluated will increase the evaluation accuracy by making differences the output signals of the semiconductor elements of each Pairs can be compensated. For this, the signals at least one semiconductor element of each pair by one Amount modified by the mean mismatch the semiconductor elements of all pairs depend on each other. Thereby the modified signals of the one semiconductor elements approximated to those of the other semiconductor elements. It is therefore a basic electrical setting the operating points of the semiconductor elements such that they give largely identical signals to each other when they with the same light intensity.

Dies kann aber solche Auswertefehler nicht beseitigen, die durch Fehler der Abbildungsoptik selbst entstehen, welche auf der Sensoranordnung ein auszuwertendes Bild erzeugt. Die optischen Elemente der Abbildungsoptik verursachen im Randbereich eines von ihnen erzeugten Bildes nämlich eine Lichtdämpfung, die gleichfalls zu Auswertungsfehlern bei der Blickrichtungserfassung führt.However, this cannot eliminate such evaluation errors that due to errors in the imaging optics themselves, which arise on the sensor arrangement generates an image to be evaluated. The optical Elements of the imaging optics cause in the edge area an image they create is a light attenuation, which also leads to evaluation errors in the Direction detection leads.

Es ist Aufgabe der Erfindung, eine Möglichkeit zum Kompensieren von Auswertungsfehlern dieser Art anzugeben, um auch bei kompakten Einrichtungen zur Blickrichtungserfassung eine höchstmögliche Auswertegenauigkeit zu erzielen.It is an object of the invention to provide a way to compensate of evaluation errors of this type to indicate in compact devices for detecting the direction of view to achieve the highest possible evaluation accuracy.

Zur Lösung dieser Aufgabe sieht die Erfindung ein Verfahren zum Kompensieren von Auswertungsfehlern einer Einrichtung zum Feststellen der Blickrichtung des Benutzers einer Kamera vor, bei der am Auge des in den Kamerasucher blickenden Benutzers reflektiertes Licht einer Meßlichtquelle über eine Abbildungsoptik auf eine lichtelektrische Sensoranordnung mit einer Vielzahl Sensorzellen geleitet wird, die eine Einrichtung zum Bestimmen des Drehwinkels des Auges gegenüber einer Normalposition ansteuert, wobei die Abbildungsoptik im Randbereich des von ihr auf der Sensoranordnung erzeugten Bildes eine Lichtdämpfung verursacht, wobei die Ausgangssignale der Sensorzellen bei der Abbildungsoptik zugeführtem Licht einer Parallellichtquelle mit über den gesamten Abbildungsquerschnitt gleichmäßiger Lichtverteilung ermittelt werden und aus dem Verhältnis, das das lichtelektrische Signal einer jeden Sensorzelle jeweils mit dem lichtelektrischen Signal des zentralen Bereichs der Sensoranordnung bildet, ein Korrekturfaktor für jede Sensorzelle abgeleitet und gespeichert wird, der dann jeweils beim Ermitteln der Lichtverteilung auf der Sensoranordnung zum Feststellen der Blickrichtung in Anrechnung gebracht wird, und wobei die korrigierte Lichtmengenverteilung in einen Anteil des an der Netzhaut reflektierten Lichts und in einen Anteil des an der Hornhaut reflektierten Lichts aufgeteilt wird, aus dem der Drehwinkel bestimmt wird.The invention provides a method for solving this problem to compensate for evaluation errors of a device for Determining the direction of view of the user of a camera, at the eye of the user looking into the camera viewfinder reflected light from a measuring light source via imaging optics on a photoelectric sensor arrangement with a A large number of sensor cells is directed to the device to determine the angle of rotation of the eye in relation to a normal position controls, the imaging optics in the edge area of the image generated by it on the sensor arrangement  causes a light attenuation, the output signals of the Sensor cells in the light supplied to the imaging optics Parallel light source with over the entire cross section uniform light distribution can be determined and from the ratio that each photo's electrical signal Sensor cell with the photoelectric signal of the forms a central area of the sensor arrangement, a correction factor is derived and stored for each sensor cell, which then in each case when determining the light distribution on the Sensor arrangement for determining the line of sight in credit is brought, and being the corrected light quantity distribution into a portion of that reflected on the retina Light and in a portion of that reflected on the cornea Light is divided from which the angle of rotation is determined.

Durch die Erfindung ist es möglich, die Dämpfung im Randbereich einer Abbildungsoptik elektrisch zu kompensieren, bevor die Auswertung der einzelnen Signale der Sensoranordnung vorgenommen wird. Die Bilderzeugung auf der Sensoranordnung wird dadurch so beeinflußt, daß gleiche Lichtmengen, die auf die Abbildungsoptik geleitet werden, an allen Stellen der Sensoranordnung auch gleiche Signalamplituden hervorrufen. Wenn ein Korrekturfaktor, der aus der Lichtmengenverteilung bei Einwirken parallelen, gleichmäßigen Lichts auf die Abbildungsoptik ermittelt ist, gespeichert wird, so kann die Korrektur auch des Fehlers, der durch die Lichtmengenverteilung bei Verwendung anderer optischer Elemente als die Abbildungsoptik verursacht wird, sowie der ungleichmäßigen Empfindlichkeit der verschiedenen fotoelektrischen Zellen der Sensoranordnung selbst durchgeführt werden. Bei einer solchen Korrektur können die optischen Eigenschaften der Sensoranordnung selbst vernachlässigt werden, und es ist eine Kostenverringerung durch Erhöhung der Herstellungsmenge möglich.The invention makes it possible to damp the edges to electrically compensate an imaging optics before the individual signals of the sensor arrangement are evaluated becomes. The imaging on the sensor assembly will influenced by the fact that equal amounts of light shining on the Imaging optics are guided at all points in the sensor arrangement also cause the same signal amplitudes. If a correction factor resulting from the light quantity distribution The effect of parallel, uniform light on the imaging optics is saved, the correction can be made also the error caused by the light quantity distribution when using other optical elements than the imaging optics is caused, as well as the uneven sensitivity of the various photoelectric cells of the sensor arrangement be carried out by yourself. With such a correction can change the optical properties of the sensor assembly themselves are neglected and it's a cost reduction possible by increasing the production quantity.

Durch die Aufteilung der korrigierten Lichtmengenverteilung in einen Anteil des an der Netzhaut und in einen Anteil des an der Hornhaut reflektierten Lichts, aus dem der Drehwinkel bestimmt wird, werden auch solche Auswertefehler verhindert, die durch das an der Netzhaut reflektierte Licht verursacht werden. Das Verfahren berücksichtigt somit nur das an der Hornhaut reflektierte Licht bei der Auswertung der Signale der Sensoranordnung, wodurch eine exakte Beziehung zwischen der Mitte der Pupille des Auges und der Mitte des auf dem Auge erscheinenden ersten Purkinje-Bildes gewährleistet ist.By dividing the corrected light quantity distribution in a portion of the retina and in a portion of the reflected light on the cornea, from which the angle of rotation  such evaluation errors are also prevented, caused by the light reflected from the retina become. The procedure therefore only takes into account that at the Cornea reflected light when evaluating the signals the sensor arrangement, creating an exact relationship between the middle of the pupil of the eye and the middle of the on the eye appearing first Purkinje picture is guaranteed.

In den Unteransprüchen sind vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens angegeben, die dieses weiter verbessern können. Es handelt sich dabei in erster Linie um Maßnahmen bei der digitalen elektrischen Signalverarbeitung.Advantageous further developments of the specified method according to the invention this further can improve. It is primarily about Measures in digital electrical signal processing.

Die Erfindung wird im folgenden anhand der Figuren näher beschrieben. Es zeigenThe invention is illustrated below of the figures described in more detail. Show it

Fig. 1 eine schematische Darstellung zur Erläuterung eines optischen Systems zum Erkennen der Blickrichtung des Auges als Anwendungsbeispiel der Erfindung in einer einäugigen Spiegelreflexkamera, Fig. 1 is a schematic diagram for explaining an optical system for detecting the gaze direction of the eye as an application example of the invention in a single lens reflex camera,

Fig. 2 eine Darstellung zur Erläuterung einer Vorrichtung zur Korrektur der Dämpfung im Randbereich der Abbildungsoptik, Fig. 2 is a view for explaining an apparatus for correcting attenuation in the edge region of the imaging optics,

Fig. 3 ein Blockdiagramm einer Verarbeitungsschaltung, die die Vorrichtung zur Korrektur enthält, Fig. 3 is a block diagram of a processing circuit, which contains the device for the correction,

Fig. 4 eine schematische Darstellung des Zusammenhangs zwischen einer aktuellen Lichtverteilung und dem primären Lichtsensor, Fig. 4 is a schematic representation of the relationship between a current light distribution and the primary light sensor,

Fig. 5 und 6 Darstellungen zur Erläuterung der Durchführung einer Bildtrennung, FIGS. 5 and 6 are diagrams for explaining the execution of an image separation,

Fig. 7, 8 und 9 graphische Darstellungen zur Erläuterung des Auffindens der Schwerpunktposition einer Lichtverteilung. Fig. 7, 8 and 9 are graphs for explaining of finding the center of gravity position of a light distribution.

Die Kamera enthält ein optisches Auswertesystem 246 zum Erkennen der Blickrichtung des Auges auf der ihm abgewandten Seite einer Vergrößerungsoptik 244, wobei ein Pentaprisma 240 zwischen beiden angeordnet ist.The camera contains an optical evaluation system 246 for recognizing the viewing direction of the eye on the side of a magnifying lens 244 facing away from it, a pentaprism 240 being arranged between the two.

Das optische System 246, das in Fig. 1 gezeigt ist, enthält eine Infrarotlichtquelle 248, beispielsweise eine Infrarot-Leuchtdiode. Das Infrarotlicht wird auf das Auge 245 als paralleles Strahlenbündel über einen halbdurchlässigen Spiegel 249, eine Verkleinerungslinse 250, ein Kompensationsprisma 251, das Pentaprisma 240 und die Vergrößerungsoptik 244 projiziert. Dadurch wird das erste Purkinje- Bild durch Reflexion an der Hornhaut 232 erzeugt. Bei diesem Beispiel wird Infrarotlicht verwendet, weil der Benutzer durch die Beleuchtung des optischen Auswertesystems 246 nicht geblendet werden soll. Ähnlich wird die Verkleinerungslinse 250 verwendet, weil die Länge des optischen Weges des Auswertesystems 246 möglichst kurz sein soll, damit das System kompakt in der Kamera untergebracht werden kann. Da nur das parallel zur optischen Achse lx reflektierte Infrarotlicht genutzt wird, kann die am Auge 245 reflektierte Lichtmenge als gering vorausgesetzt werden, und das reflektierte Licht wird in einem möglichst kleinen Bereich des lichtempfindlichen Elements in noch zu beschreibender Weise abgebildet, wodurch die Empfindlichkeit des lichtempfindlichen Elements erhöht wird.The optical system 246 shown in FIG. 1 includes an infrared light source 248 , such as an infrared light emitting diode. The infrared light is projected onto the eye 245 as a parallel bundle of rays via a semi-transparent mirror 249 , a reduction lens 250 , a compensation prism 251 , the pentaprism 240 and the magnifying optics 244 . As a result, the first Purkinje image is generated by reflection on the cornea 232 . In this example, infrared light is used because the user should not be blinded by the illumination of the optical evaluation system 246 . The reduction lens 250 is used in a similar manner because the length of the optical path of the evaluation system 246 should be as short as possible so that the system can be accommodated compactly in the camera. Since only the infrared light reflected parallel to the optical axis lx is used, the amount of light reflected at the eye 245 can be assumed to be small, and the reflected light is imaged in the smallest possible area of the photosensitive element in a manner to be described, as a result of which the sensitivity of the photosensitive element Element is increased.

Aus dem an der Hornhaut 232 des Auges 245 reflektierten Licht wird die parallel zu dem einfallenden Strahlenbündel verlaufende Strahlenbündel dem halbdurchlässigen Spiegel 249 über die Vergrößerungsoptik 244, das Pentaprisma 240, das Kompensationsprisma 251 und die Verkleinerungslinse 250 und dann über den halbdurchlässigen Spiegel 249 einer Abbildungslinse 252 zugeführt, so daß es auf einem zweidimensionalen lichtempfindlichen Festkörperelement 253, beispielsweise einem CCD-Zeilensensor, abgebildet wird. Die Abbildungslinse 252 ist mit einer Maske versehen. Diese hat eine Öffnung. Die Öffnungsmitte ist in dem Krümmungsmittelpunkt der Abbildungslinse 252 angeordnet. Der Durchmesser der Öffnung beträgt in diesem Ausführungsbeispiel ca. 0,2 mm.From the light reflected on the cornea 232 of the eye 245 , the bundle of rays running parallel to the incident beam of rays becomes the semi-transparent mirror 249 via the magnifying optics 244 , the pentaprism 240 , the compensation prism 251 and the reduction lens 250 and then via the semi-transparent mirror 249 of an imaging lens 252 supplied so that it is imaged on a two-dimensional light-sensitive solid element 253 , for example a CCD line sensor. The imaging lens 252 is provided with a mask. This has an opening. The opening center is located at the center of curvature of the imaging lens 252 . The diameter of the opening in this embodiment is approximately 0.2 mm.

Das Auge 245 des Benutzers wird normalerweise auf einen Augenpunkt gebracht. Das auf dem lichtempfindlichen Element 253 abgebildete Bild und die Pupille des Auges 245 befinden sich in optisch konjugierter Lage über der Vergrößerungsoptik 244, der Verkleinerungslinse 250 und der Abbildungslinse 252. Auf dem lichtempfindlichen Element 253 wird der Umfang der Pupille als Silhouette zusammen mit dem ersten Purkinje-Bild durch das an dem Auge reflektierte Licht abgebildet. Dann wird die Lichtabgabe des lichtempfindlichen Elements 253 mit einem Verstärker 256 verstärkt, dann mit einem Analog-Digital-Umsetzer 257 in ein digitales Signal umgesetzt und danach vorübergehend in einem Speicher 259 eines Mikrocomputers 258 gespeichert und dann verarbeitet, um einen Drehwinkel R zu ermitteln. Danach wird ein Signal aus dem ermittelten Drehwinkel R einem Treiberverstärker 261 zugeführt, das angibt, welche Zone ausgewählt wurde. Wenn das CCD-Element 8, 22 oder 25 des Autofokussystems, welches dieser ausgewählten Zone entspricht, mit dem Treiberverstärker 261 angesteuert wird, so kann automatisch für das in der ausgewählten Zone vorhandene Objekt die Entfernung ermittelt werden. The user's eye 245 is normally brought to an eye point. The image imaged on the photosensitive element 253 and the pupil of the eye 245 are in an optically conjugate position above the magnifying optics 244 , the reduction lens 250 and the imaging lens 252 . The circumference of the pupil is imaged on the light-sensitive element 253 as a silhouette together with the first Purkinje image by the light reflected from the eye. Then, the light output from the photosensitive member 253 is amplified by an amplifier 256 , then converted to a digital signal by an analog-to-digital converter 257 , and then temporarily stored in a memory 259 of a microcomputer 258 and then processed to determine an angle of rotation R. A signal from the determined angle of rotation R is then fed to a driver amplifier 261 , which indicates which zone was selected. If the CCD element 8, 22 or 25 of the autofocus system which corresponds to this selected zone is driven by the driver amplifier 261 , then the distance can be determined automatically for the object present in the selected zone.

Im Hinblick darauf, daß das optische System der Einrichtung 246 in ein Kameragehäuse eingebaut ist und daß Kostenerhöhungen möglichst zu vermeiden sind, sollte das optische System möglichst einfach ausgeführt sein, weshalb die Abbildungsoptik 252 vorzugsweise eine einzelne Linse ist.In view of the fact that the optical system of the device 246 is built into a camera housing and that cost increases are to be avoided as far as possible, the optical system should be as simple as possible, which is why the imaging optics 252 are preferably a single lens.

Wird eine solche Abbildungslinse 252 verwendet und mit einer gleichmäßig verteilten Lichtmenge beaufschlagt, so wird die auf das lichtempfindliche Element 253 einwirkende Lichtmenge im Randbereich gedämpft, wie es schematisch in Fig. 2 dargestellt ist. Dort bezeichnet die strichpunktierte Linie G₁ die Lichtmengenverteilung ohne Dämpfung, die gestrichelte Linie G₂ die Lichtmengenverteilung mit Dämpfung. Ferner ist lx die optische Achse des optischen Systems der Einrichtung 246.If such an imaging lens 252 is used and a uniformly distributed amount of light is applied, the amount of light acting on the photosensitive element 253 is attenuated in the edge region, as is shown schematically in FIG. 2. There the dash-dotted line G₁ denotes the light quantity distribution without damping, the dashed line G₂ the light quantity distribution with damping. Furthermore, lx is the optical axis of the optical system of device 246 .

Wenn eine Dämpfung vorhanden ist und die Lage des Maximums der Lichtmengenverteilung aus dem Ausgangssignal des lichtempfindlichen Elements 253 ermittelt wird, so besteht das Risiko, daß eine so ermittelte Lage gegenüber der aktuellen Lage versetzt ist, und wenn dann die Blickrichtung durch Berechnung mit einer so gefundenen Lage ermittelt wird, so tritt ein Fehler zwischen der tatsächlichen Blickrichtung und der so ermittelten Blickrichtung auf. Wenn der festzustellende Winkel der Blickrichtung groß ist, so kann der durch die Dämpfung erzeugte Fehler vernachlässigt werden. Der Fehler kann jedoch nicht unberücksichtigt bleiben, wenn der Winkel der Blickrichtung kleiner ist. Ein Fehler infolge Dämpfung wird deshalb nach Möglichkeit ausgeglichen.If attenuation is present and the position of the maximum of the light quantity distribution is determined from the output signal of the photosensitive element 253 , there is a risk that a position determined in this way is offset from the current position, and then the direction of view by calculation with a position found in this way Position is determined, an error occurs between the actual viewing direction and the viewing direction determined in this way. If the angle of the viewing direction to be determined is large, the error generated by the damping can be neglected. However, the error cannot be ignored if the angle of the viewing direction is smaller. An error due to damping is therefore compensated for if possible.

Hierzu ist in der Signalverarbeitungsschaltung eine Vorrichtung zum Ermitteln der Dämpfung und zum Speichern eines Lichtmengenkorrekturwertes in einem Nur- Lese-Speicher vorgesehen, die im folgenden beschrieben wird.For this purpose there is a device in the signal processing circuit to determine the damping and Storage of a light quantity correction value in a Read memory is provided, which is described below becomes.

Die Ausgangssignale der Zellen des lichtempfindlichen Elements 253 mit Dämpfung haben eine Verteilung gemäß der in Fig. 2 gezeigten Linie G₃. Dort bezeichnet i eine i-te fotoelektrische Zelle 253a, j eine j-te fotoelektrische Zelle 253a, Xi das Ausgangssignal der i-ten fotoelektrischen Zelle 253a und Xj das Ausgangssignal der j-ten fotoelektrischen Zelle 253a. Es sei angenommen, daß die j-te fotoelektrische Zelle 253a auf der optischen Achse lx liegt. Sie hat dann die mittlere Adresse zwischen der a-Adresse und der b-Adresse. In diesem Fall kann vorausgesetzt werden, daß das Ausgangssignal der j-ten fotoelektrischen Zelle 253a den maximalen Wert hat.The output signals of the cells of the photosensitive element 253 with attenuation have a distribution along the line G₃ shown in Fig. 2. There i denotes an i-th photoelectric cell 253 a, j a j-th photoelectric cell 253 a, X i the output signal of the i-th photoelectric cell 253 a and X j the output signal of the j-th photoelectric cell 253 a. It is assumed that the jth photoelectric cell 253 a lies on the optical axis lx. It then has the middle address between the a address and the b address. In this case, it can be assumed that the output signal of the jth photoelectric cell 253 a has the maximum value.

Deshalb werden die einzelnen Ausgangssignale von der fotoelektrischen Zelle 253a mit der a-Adresse bis zu der fotoelektrischen Zelle 253a mit der b-Adresse ermittelt und ein Korrekturfaktor Hi gebildet.Therefore, the individual output signals from the photoelectric cell 253 a with the a address to the photoelectric cell 253 a with the b address are determined and a correction factor H i is formed.

Es ergibt sich die folgende Beziehung zwischen dem Korrekturfaktor Hi, dem Ausgangssignal Xi und dem Ausgangssignal Xj:The following relationship results between the correction factor H i , the output signal X i and the output signal X j :

Hi Xi = Xj H i X i = X j

Um den Korrekturfaktor Hi zu normieren, wird er durch Xj geteilt, und der normierte Korrekturwert Hi′ wird in dem Nur-Lese-Speicher der Signalverarbeitungsschaltung gemäß Fig. 3 gespeichert.In order to normalize the correction factor H i , it is divided by X j , and the normalized correction value H i 'is stored in the read-only memory of the signal processing circuit according to FIG. 3.

Hi′ = Hi/Xj H i ′ = H i / X j

Wenn dieser normierte Korrekturwert Hi′ durch Multiplikation mit dem Ausgangssignal einer jeden Adresse (von der a-Adresse bis zur b-Adresse) verknüpft wird, das tatsächlich erhalten wird, so wird die gedämpfte Lichtmengenverteilung so korrigiert, wie es in Fig. 2 bei G₄ gezeigt ist. Dabei ist die Dämpfung im Randbereich der Abbildungslinse 252 kompensiert, und es ergibt sich eine gleichmäßige Lichtmengenverteilung.If this normalized correction value H i 'is linked by multiplication with the output signal of each address (from the a address to the b address) that is actually obtained, the attenuated light quantity distribution is corrected as shown in FIG G₄ is shown. At the same time, the damping in the edge region of the imaging lens 252 is compensated, and there is a uniform light quantity distribution.

Wenn ein Korrekturwert, der aus der Lichtmengenverteilung bei Einwirken parallelen, gleichmäßigen Lichts auf die Sucher- Vergrößerungsoptik 244 ermittelt ist, in einem einschreibbaren und überschreibbaren EEPROM gespeichert wird, so kann die Korrektur auch des Fehlers, der durch die Lichtmengenverteilung bei Verwendung anderer optischer Elemente als die Abbildungslinse 252 verursacht wird, sowie der ungleichmäßigen Empfindlichkeit der verschiedenen fotoelektrischen Zellen 253a des lichtempfindlichen Elements 253 selbst durchgeführt werden. Bei einer solchen Korrektur können die optischen Eigenschaften des lichtempfindlichen Elements 253 selbst vernachlässigt werden, und es ist eine Kostenverringerung durch Verbesserung der Herstellungsmenge möglich.If a correction value, which is determined from the light quantity distribution when parallel, uniform light acts on the viewfinder magnifying optics 244, is stored in a writable and rewritable EEPROM, the correction of the error caused by the light quantity distribution when using optical elements other than the imaging lens 252 is caused, as well as the uneven sensitivity of the various photoelectric cells 253 a of the photosensitive element 253 itself. With such a correction, the optical properties of the photosensitive member 253 itself can be neglected, and a cost reduction can be achieved by improving the manufacturing amount.

Um eine Schwerpunktposition der Lichtmengenverteilung zur Erzeugung des ersten Purkinje-Bildes durch Spiegelreflexion an der Hornhaut und die Schwerpunktposition der Lichtmengenverteilung des an der Netzhaut reflektierten Lichts zu ermitteln, muß das Ausgangssignal des lichtempfindlichen Elements 253 in einen Anteil des an der Netzhaut reflektierten Lichts und einen Anteil des das erste Purkinje- Bild erzeugenden, an der Hornhaut reflektierten Lichts aufgeteilt werden.In order to determine a focal position of the light quantity distribution for generating the first Purkinje image by specular reflection on the cornea and the focal position of the light quantity distribution of the light reflected on the retina, the output signal of the light-sensitive element 253 must be a fraction of the light reflected on the retina and a fraction of the light generating the first Purkinje image and reflected on the cornea.

Dies bedeutet, daß die aktuelle Lichtmengenverteilung etwa den in Fig. 4 durchgezogen dargestellten Verlauf G₅ hat. Wird die Signalverarbeitung ohne Aufteilung in das an der Netzhaut reflektierte Licht G₆ und das das erste Purkinje- Bild erzeugende reflektierte Licht G₇ vorgenommen, so kann nur eine Schwerpunktposition (Koordinate oder Adresse) gefunden werden, die beide Lichtmengen betrifft. Die Mitte der Pupille und die Mitte des ersten Purkinje-Bildes können jedoch nicht gefunden werden.This means that the current light quantity distribution has approximately the course G₅ shown in solid form in FIG. 4. If the signal processing is carried out without division into the light G₆ reflected on the retina and the reflected light G₇ generating the first Purkinje image, only a center of gravity position (coordinate or address) can be found which affects both amounts of light. However, the center of the pupil and the center of the first Purkinje image cannot be found.

In diesem Fall muß im Bereich der Grenzlinie ein Pegelwert SL festgelegt werden, um die beiden Lichtanteile G₆ und G₇ möglichst genau voneinander zu trennen. Zu diesem Zweck werden mehrere Referenzpegel ZN vorgesehen und die Ausgangssignale der fotoelektrischen Zellen 253a diesen zugeordnet.In this case, a level value SL must be defined in the area of the boundary line in order to separate the two light components G₆ and G₇ as precisely as possible. For this purpose, several reference levels ZN are provided and the output signals of the photoelectric cells 253 a are assigned to them.

In diesem Ausführungsbeispiel sind gemäß Fig. 5 acht Referenzpegel ZN vorgesehen. Diese sind mit ZN₁ bis ZN₈ bezeichnet.In this Embodiment 5, eight reference level ZN are shown in FIG. Provided. These are designated ZN₁ to ZN₈.

Zum Feststellen der Häufigkeitsverteilung der Ausgangssignale der fotoelektrischen Zellen 253a sind acht Register R₁ bis R₈ vorgesehen, die den acht Referenzpegeln ZN₁ bis ZN₈ entsprechen. Die Register R₁ bis R₈ haben eine Länge von jeweils 8 Bit. Die Ausgangssignale der fotoelektrischen Zellen 253a von der a-Adresse bis zur b-Adresse werden nacheinander digitalisiert und achtstellig in die Register R₁ bis R₈ eingegeben. Wenn beispielsweise das Ausgangssignal der a-Adresse "0" ist, so sind die Inhalte aller Register "0". Wenn das Ausgangssignal der fotoelektrischen Zelle 253a der i-Adresse dem Wert 2⁶ entspricht, so wird der Inhalt des Registers R₃ 00000010, weil dieser Wert bei dem Referenzsignal ZN₃ liegt. Wenn beispielsweise das Ausgangssignal der fotoelektrischen Zelle 253a der i+1-Adresse um 1 Bit größer als das Ausgangssignal der i-Adresse ist, so wird der Inhalt des Registers R₃ 10000010.To determine the frequency distribution of the output signals of the photoelectric cells 253 a, eight registers R₁ to R₈ are provided, which correspond to the eight reference levels ZN₁ to ZN₈. The registers R₁ to R₈ each have a length of 8 bits. The output signals of the photoelectric cells 253 a from the a address to the b address are digitized one after the other and entered in eight digits in the registers R₁ to R₈. If, for example, the output signal of the a-address is "0", the contents of all registers are "0". If the output signal of the photoelectric cell 253 a of the i-address corresponds to the value 2⁶, then the content of the register R₃ 00000010, because this value is at the reference signal ZN₃. If, for example, the output signal of the photoelectric cell 253 a of the i + 1 address is 1 bit larger than the output signal of the i address, the content of the register R₃ becomes 10000010.

Unter Beachtung der drei höchstwertigen Bits der Register R₁ bis R₈ wird +1 von den Registern R₁ bis R₈ ausgegeben, wenn die Inhalte der drei höchstwertigen Bits mindestens eine 1 umfassen. Das Ausgangssignal der fotoelektrischen Zelle 253a einer jeden Adresse (i=a bis b) wird eingegeben, und das Ausgangssignal eines jeden Registers R₁ bis R₈ wird schrittweise immer dann erhöht, wenn der Inhalt der drei höchstwertigen Bits mindestens eine 1 enthält. Wenn der Inhalt der drei höchstwertigen Bits keine 1 enthält, so wird nicht weitergezählt. Wenn auf diese Weise die Ausgänge der Register R₁ bis R₈ immer dann erhöht werden, wenn die fotoelektrische Zelle 253a einer jeden Adresse ein Ausgangssignal führt, wird die Zahl am Ausgang des Registers R₃ für die in Fig. 5 schematisch dargestellte Ausgangssignalverteilung am größten, da hier die Anzahl der fotoelektrischen Zellen 253a mit einem Ausgangspegel irgendwo zwischen den Zonenpegeln ZN₂ und ZN₃ am größten ist.Taking into account the three most significant bits of the registers R₁ to R₈, +1 is output from the registers R₁ to R₈ if the contents of the three most significant bits comprise at least one 1. The output of the photoelectric cell 253 a of each address (i = a to b) is input, and the output of each register R₁ to R₈ is incrementally increased whenever the content of the three most significant bits contains at least a 1. If the content of the three most significant bits does not contain 1, the counting is not continued. If the outputs of the registers R₁ to R₁ are increased in this way whenever the photoelectric cell 253 a of each address carries an output signal, the number at the output of the register R₃ for the output signal distribution shown in FIG. 5 is greatest because here the number of photoelectric cells 253 a with an output level somewhere between the zone levels ZN₂ and ZN₃ is greatest.

Betrachtet man die Ausgangssignalverteilung der fotoelektrischen Elemente 253a aller Adressen, so wird deshalb entschieden, welcher Ausgang der Register R₁ bis R₈ nach dem jeweiligen Zählschritt am größten ist. Dann wird der Referenzpegel ZN, der dem Register R₁ bis R₈ entspricht, für das die Zählschrittzahl am größten ist, als der Pegelwert SL1 festgelegt. Wird dieser Pegelwert verwendet, so können die Lichtmengenverteilung G₆ für das an der Netzhaut reflektierte Licht und die Lichtmengenverteilung G₇ für das das erste Purkinje- Bild erzeugende reflektierte Licht voneinander getrennt werden.If you consider the output signal distribution of the photoelectric elements 253 a of all addresses, it is therefore decided which output of the registers R₁ to R₈ is the largest after the respective counting step. Then the reference level ZN, which corresponds to the register R₁ to R₈, for which the counting step number is greatest, is set as the level value SL1. If this level value is used, the light quantity distribution G₆ for the light reflected on the retina and the light quantity distribution G₇ for the reflected light generating the first Purkinje image can be separated.

Die Breite der Referenzpegel ZN₁ bis ZN₈ wird entsprechend der Bandbreite der Reflexion an der Netzhaut eingestellt, und dieses "Störsignal" kann durch ein Tiefpaßfilter entfernt werden. Es kann aber auch durch die Signalverarbeitungs-Software entfernt werden, wobei die Referenzpegel ZN₁ bis ZN₈ einander überlappen.The width of the reference level ZN₁ to ZN₈ is accordingly the bandwidth of the reflection on the retina, and this "interference signal" can be caused by a Low pass filters are removed. But it can also be done through the Signal processing software are removed, the Reference levels ZN₁ to ZN₈ overlap each other.

Beispielsweise wird, wie Fig. 6 zeigt, die Summe der Zählschritte der einander benachbarten Register R₁ bis R₈ ermittelt, und das Register, in dem die Summe der Zählschritte am größten ist, wird bestimmt. Bei dem in Fig. 6 gezeigten Beispiel sind die Summen der Register R₃ und R₄ am größten, und es wird entschieden, daß die Summe der Zählschritte am Ausgang des Registers R₄ am größten ist.For example, as shown in Fig. 6, the sum of the counting steps of the adjacent registers R₁ to R₈ is determined, and the register in which the sum of the counting steps is largest is determined. In the example shown in Fig. 6, the sums of the registers R₃ and R₄ are the largest, and it is decided that the sum of the counting steps at the output of the register R₄ is the largest.

Da der Zwischenpegel am häufigsten in der Lichtmengenverteilung G₆ des an der Netzhaut reflektierten Lichts auftritt, werden die Register R₁ und R₈ bei der Ermittlung des Pegelwertes SL von Anfang an nicht berücksichtigt.Because the intermediate level is most common in the light quantity distribution G₆ of the light reflected on the retina occurs, the registers R₁ and R₈ in the determination of the level value SL is not taken into account from the start.

Auf diese Weise kann der Referenzpegel ZN₄ entsprechend dem Register R₄ ermittelt werden. Dabei wird zunächst entschieden, daß er zu der Ausgangssignalverteilung G₇ des das erste Purkinje-Bild erzeugenden reflektierten Lichts gehört, wenn der Inhalt des Registers R₄ 00000001 oder mehr beträgt, und daß er zu der Ausgangssignalverteilung G₆ des an der Netzhaut reflektierten Lichts gehört, wenn der Inhalt des Registers R₄ 00000110 oder weniger beträgt.In this way, the reference level ZN₄ corresponding to the Register R₄ can be determined. This will start with decided that he to the output signal distribution G₇ des the first Purkinje reflected light generating image  belongs when the content of register R₄ 00000001 or more, and that it is related to the output signal distribution G₆ of the light reflected on the retina belongs if the content of register R₄ 00000110 or less is.

Durch dieses Vorgehen können die Pegelwerte SL₁ und SL₂ wie in Fig. 4 gezeigt im Bereich der Grenzlinie zwischen der Verteilung G₆ und der Verteilung G₇ abhängig vom Inhalt des Registers R₄ ermittelt werden.By this procedure, the level values SL₁ and SL₂ can be determined as shown in Fig. 4 in the region of the boundary line between the distribution G₆ and the distribution G₇ depending on the content of the register R₄.

Auf diese Weise erhält man ein die Trennung der Lichtverteilungen angebendes Ausgangssignal der in Fig. 7 gezeigten Art, wenn die Pegelwerte SL₁ und SL₂ ermittelt sind und die Ausgangssignalzusammensetzung entsprechend der Lichtmengenverteilung gemäß Fig. 4 in Abschnitte geteilt wird. In Fig. 7 zeigt die durchgezogene Linie G₈ das Trennungs-Ausgangssignal für das an der Netzhaut reflektierte Licht, während die durchgezogene Linie G₉ das Trennungs-Ausgangssignal für das das erste Purkinje-Bild erzeugende, an der Hornhaut reflektierte Licht zeigt. In diesem Ausführungsbeispiel ist der Verlauf für das an der Netzhaut reflektierte Licht entsprechend der Linie G₈ trapezförmig, da die zuvor beschriebene Korrektur durchgeführt wurde, bevor das Ausgangssignal des lichtempfindlichen Elements 253 in die Anteile G₈ und G₉ für das an der Netzhaut reflektierte Licht und für das das erste Purkinje-Bild erzeugende Licht getrennt wurde. Wenn die Schwerpunktposition für die Verteilung G₈ mit X₁ und die Schwerpunktposition für die Verteilung G₉ des ersten Purkinje-Bildes mit X₂ bezeichnet wird, so ist der Abstand d′′ von der Mitte der Pupille bis zum ersten Purkinje- Bild aus der Beziehung d′′=X₂-X₁ herleitbar. In this way, an output signal indicating the separation of the light distributions of the type shown in FIG. 7 is obtained when the level values SL 1 and SL 2 are determined and the output signal composition is divided into sections in accordance with the light quantity distribution according to FIG. 4. In Fig. 7, the solid line G₈ shows the separation output signal for the light reflected on the retina, while the solid line G₉ shows the separation output signal for the light generating the first Purkinje image reflected on the cornea. In this exemplary embodiment, the course for the light reflected on the retina is trapezoidal according to the line G₈, since the correction described above was carried out before the output signal of the photosensitive element 253 into the proportions G₈ and G₉ for the light reflected on the retina and for that the first Purkinje image-producing light was separated. If the center of gravity position for the distribution G₈ is designated X₁ and the center of gravity position for the distribution G₉ of the first Purkinje image is X₂, then the distance d ′ ′ from the center of the pupil to the first Purkinje image is from the relationship d ′ ′ = X₂-X₁ derivable.

Als ein Algorithmus zur Berechnung der Schwerpunktposition wird ein solcher verwendet, bei dem das Ausgangssignal einer Sensordiode durch Rechnung realisiert wird. Wie in Fig. 8a und b gezeigt, erhält man die Faltung des Bildtrennungs-Ausgangssignals entsprechend den Gewichtungsfunktionen WA und WB, und diese wird danach integriert. Beispielsweise wird die Faltung der Bildtrennungs-Ausgangssignalverteilung G₉ und der Gewichtungsfunktionen WA und WB gemäß Fig. 8c und d verwendet, um die Multiplikationsergebnisse CA und CB zu erhalten. Diese werden dann integriert, und man erhält die Integrationswerte SA und SB.As an algorithm for calculating the center of gravity position, one is used in which the output signal of a sensor diode is realized by calculation. As shown in FIGS. 8a and b, the convolution of the image separation output signal is obtained according to the weighting functions W A and W B , and this is then integrated. For example, the convolution of the image separation output signal distribution G₉ and the weighting functions W A and W B according to FIGS. 8c and d is used to obtain the multiplication results C A and C B. These are then integrated and the integration values S A and S B are obtained .

Dann wird die Schwerpunktsposition X aus der folgenden Beziehung hergeleitet:Then the center of gravity X becomes the following Relationship Derived:

X = SF * {(SA - SB)/(SA + SB) + 1} x1/2 X = S F * {(S A - S B ) / (S A + S B ) + 1} x 1/2

Darin ist SF der Abstand vom Nullpunkt O.S F is the distance from the zero point O.

Bei diesem Verfahren muß jedes Bit multipliziert werden, um die Faltung zu erhalten. Da in jüngerer Zeit Mikrocomputer mit Multiplikationsfunktion weitläufig eingesetzt werden, kann die Schwerpunktsposition nach diesen Verfahren ermittelt werden.With this method, each bit must be multiplied to get the fold. Since more recently microcomputers widely used with multiplication function can be the center of gravity according to these procedures be determined.

Soll diese Schwerpunktsposition X jedoch durch Software ermittelt werden, so hat dies den Nachteil, daß die Berechnung einige Zeit erfordert.However, this focal point X should be achieved by software are determined, this has the disadvantage that the calculation requires some time.

Deshalb wird in diesem Ausführungsbeispiel eine Recheneinrichtung verwendet, die die Schwerpunktposition X in vergleichsweise kurzer Zeit berechnen kann.Therefore, in this embodiment, a computing device uses the center of gravity position X in comparatively can calculate in a short time.

Die erhaltenen Trennungs-Ausgangsverteilungen G₈ und G₉ werden bitweise bezüglich der Positionskoordinaten invertiert, um die inversen Ausgangsverteilungen G₈′ und G₉′ zu erhalten, die in Fig. 7 gezeigt sind.The obtained separation output distributions G₈ and G₉ are inverted bit by bit with respect to the position coordinates to obtain the inverse output distributions G₈ 'and G₉' shown in FIG. 7.

Bei diesem Verfahren kann die Schwerpunktposition durch Berechnen der Koordinatendifferenz der Ausgangsverteilungen G₈ und G₉ vor der Invertierung und der Ausgangsverteilungen G₈′ und G₉′ nach der Invertierung mit praktisch demselben Genauigkeitsgrad wie zuvor beschrieben ermittelt werden. Diese Differenz kann durch ein Rechenverfahren ähnlich der Funktionsberechnung einer Differenz ermittelt werden, die bei einer einäugigen Spiegelreflexkamera mit automatischer Fokussierung verwendet wird. Bei diesem Rechenverfahren kann bekanntlich durch Interpolationsrechnung eine Genauigkeit von einigen Zehnteln bis zu einigen Hundertsteln der Auflösung eines Bildelements eines Sensors erzielt werden.With this procedure, the center of gravity position can by Calculate the coordinate difference of the output distributions G₈ and G₉ before inversion and output distributions G₈ 'and G₉' after inverting with practically the same Degree of accuracy can be determined as described above. This difference can be similar by a calculation method the function calculation of a difference with a single-lens reflex camera with automatic focus is used. With this As is well known, calculation methods can be calculated by interpolation an accuracy of a few tenths to a few Hundredths of the resolution of a picture element of a sensor be achieved.

Im Gegensatz zu dem Fall der Aufnahme eines völlig unerwarteten Objekts kann das bei dieser Einrichtung 246 zur Feststellung der Blickrichtung erzielbare Signalmuster vorausgesehen werden. Wenn das an der Netzhaut reflektierte Licht und das das erste Purkinje-Bild erzeugende reflektierte Licht auf dem lichtempfindlichen Element 253 als Punktbild abgebildet werden, so erhält man symmetrische Trennungs-Ausgangsverteilungen G₈′ und G₉′. Wenn für das in Fig. 9 gezeigte Beispiel die Trennungs-Ausgangsverteilung G₈′ ein einfaches Muster ist, so kann deshalb die Mitte OE zwischen der Koordinate für die ansteigende Position und der Koordinate für die fallende Position praktisch als die Schwerpunktposition erwartet werden. Deshalb kann die Rechenzeit für die Koordinatendifferenz verkürzt werden, wenn eine Rechnung nur für den Bereich vor und hinter der Mitte OE durchgeführt wird. In contrast to the case of recording a completely unexpected object, the signal pattern that can be achieved with this device 246 for determining the viewing direction can be predicted. If the light reflected on the retina and the reflected light generating the first Purkinje image are imaged on the photosensitive element 253 as a point image, symmetrical separation output distributions G₈ ′ and G₉ ′ are obtained. If the separation output distribution G₈ 'is a simple pattern for the example shown in Fig. 9, therefore, the center O E between the coordinate for the rising position and the coordinate for the falling position can be practically expected as the center of gravity position. Therefore, the calculation time for the coordinate difference can be shortened if a calculation is only carried out for the area in front of and behind the center O E.

Konkreter gesagt, wird das Ausgangssignal des lichtempfindlichen Elements 253 mit a bezeichnet. Dabei ist n die Adresse der fotoelektrischen Zelle 253a. Bei Beachtung der n- und n+1-Adressen kann das Differential- Ausgangssignal E(n) aus der folgenden Gleichung erhalten werden:More specifically, the output of the photosensitive member 253 is denoted by a. Here, n is the address of the photoelectric cell 253 a. If the n and n + 1 addresses are observed, the differential output signal E (n) can be obtained from the following equation:

E(n) = S(n+1) - S(n)E (n) = S (n + 1) - S (n)

Auf diese Weise kann eine integrierte Ausgangsgröße der in Fig. 9 gezeigten Art erhalten werden.In this way, an integrated output of the type shown in Fig. 9 can be obtained.

Wenn dann die Koordinate, bei der E(n) am größten wird, mit t₁ und die Koordinate, für die E(n) am kleinsten wird, mit t₂ bezeichnet wird, so ist die Schwerpunktposition allgemein (t₁+T₂)/2.Then when the coordinate at which E (n) becomes largest, with t₁ and the coordinate for which E (n) becomes smallest, is denoted by t₂, so is the focus position general (t₁ + T₂) / 2.

Die invertierte Trennungs-Ausgangsverteilung für den Zeitpunkt, wenn die Positionskoordinate invertiert ist, wird zur Erzeugung der Differenz-Ausgangsverteilung R(n) mit G₈′′ bezeichnet. Die integrierte Ausgangsverteilung BE′, die der Ausgangsverteilung R(n) entspricht, ist als durchgezogene Linie dargestellt. Wenn hierbei alle Bitzahlen mit m bezeichnet werden und wenn die Korrelationsrechnung zum Ermitteln der Koordinatendifferenz von R(n) gegenüber S(n) vor und nach m-(t₁+t₂) durchgeführt wird, so kann die Schwerpunktposition gefunden werden. Auf dieselbe Weise kann die Koordinatendifferenz von BE und BE′ gefunden werden.The inverted separation output distribution for the time when the position coordinate is inverted is called G bezeichnet '' to generate the difference output distribution R (n). The integrated output distribution B E ', which corresponds to the output distribution R (n), is shown as a solid line. If all bit numbers are designated by m and if the correlation calculation for determining the coordinate difference between R (n) and S (n) is carried out before and after m- (t 1 + t 2), the center of gravity position can be found. In the same way, the coordinate difference between B E and B E 'can be found.

Wenn die Koordinatendifferenz von R(n) und S(n) oder die Koordinatendifferenz von BE und BE′ mit t bezeichnet wird, so kann die Schwerpunktposition gegenüber der Mittenkoordinate OE′ des Sensors für S(n) mit t/2 gefunden werden. If the coordinate difference of R (n) and S (n) or the coordinate difference of B E and B E 'is denoted by t, then the center of gravity position relative to the center coordinate O E ' of the sensor for S (n) can be found by t / 2 will.

Durch Anwendung eines solchen Algorithmus kann eine Einrichtung zur Feststellung der Blickrichtung mit hoher Genauigkeit verwirklicht werden.By using such an algorithm, a facility can to determine the viewing direction with high accuracy be realized.

Wird das Verfahren zur Ermittlung der Koordinatendifferenz von BE und BE′ nicht angewendet, so ist es nicht erforderlich, einen Speicherbereich zum Erzeugen von R(n) vorzusehen, da R(n) die Adressen zugeordnet sind, unter denen S(n) gespeichert ist. Somit kann Speicherkapazität gespart werden.If the method for determining the coordinate difference between B E and B E ′ is not used, it is not necessary to provide a memory area for generating R (n), since R (n) is assigned the addresses under which S (n) is saved. Storage space can thus be saved.

Da das Problem darin besteht, die größten und die kleinsten Adressen zum Erzeugen von E(n) und nicht diese Funktion selbst zu finden, ist die entsprechende Erzeugungszone auch nicht erforderlich.Because the problem is the biggest and the smallest Addresses for generating E (n) and not these Finding the function yourself is the corresponding production zone also not necessary.

Claims (10)

1. Verfahren zum Kompensieren von Auswertungsfehlern einer Einrichtung zum Feststellen der Blickrichtung des Benutzers einer Kamera, bei der am Auge des in den Kamerasucher blickenden Benutzers reflektiertes Licht einer Meßlichtquelle über eine Abbildungsoptik auf eine lichtelektrische Sensoranordnung mit einer Vielzahl Sensorzellen geleitet wird, die eine Einrichtung zum Bestimmen des Drehwinkels des Auges gegenüber einer Normalposition ansteuert, wobei die Abbildungsoptik im Randbereich des von ihr auf der Sensoranordnung erzeugten Bildes eine Lichtdämpfung verursacht, wobei die Ausgangssignale der Sensorzellen bei der Abbildungsoptik zugeführtem Licht einer Parallellichtquelle mit über den gesamten Abbildungsquerschnitt gleichmäßiger Lichtverteilung ermittelt werden und aus dem Verhältnis, das das lichtelektrische Signal einer jeden Sensorzelle jeweils mit dem lichtelektrischen Signal des zentralen Bereichs der Sensoranordnung bildet, ein Korrekturfaktor für jede Sensorzelle abgeleitet und gespeichert wird, der dann jeweils beim Ermitteln der Lichtverteilung auf der Sensoranordnung zum Feststellen der Blickrichtung in Anrechnung gebracht wird, und wobei die korrigierte Lichtmengenverteilung in einen Anteil des an der Netzhaut reflektierten Lichts und in einen Anteil des an der Hornhaut reflektierten Lichts aufgeteilt wird, aus dem der Drehwinkel bestimmt wird.1. Method for compensating evaluation errors of a Device for determining the viewing direction of the user a camera at the eye of the in the camera viewfinder looking user reflected light from a measuring light source via imaging optics to a photoelectric Sensor arrangement with a large number of sensor cells is directed to a device for determining the Controls the angle of rotation of the eye in relation to a normal position, the imaging optics in the edge area of the their image generated on the sensor arrangement a light attenuation causes, the output signals of the sensor cells in the imaging optics supplied light one Parallel light source with over the entire cross section uniform light distribution can be determined and from the ratio that the photoelectric signal of each sensor cell with the photoelectric Forms signal of the central area of the sensor arrangement, derived a correction factor for each sensor cell and is saved, which is then when determining the Light distribution on the sensor arrangement for detection the line of sight is taken into account, and whereby the corrected light quantity distribution in a portion of the light reflected in the retina and in a proportion of the light reflected from the cornea is split up, from which the angle of rotation is determined. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ein dem Verhältnis des Korrekturfaktors jeder Sensorzelle gegenüber einem Ausgangssignal aus dem Zentralbereich der Abbildung entsprechender, den normierten Korrekturfaktor repräsentierenderr Korrekturwert abgespeichert wird und der gespeicherte Korrekturwert mit dem tatsächlichen Ausgangssignal jeder Sensorzelle zur Korrektur der tatsächlichen Lichtverteilung multipliziert wird.2. The method according to claim 1, characterized in that a the ratio of the correction factor of each sensor cell compared to an output signal from the central area of the Representation of the corresponding, the standardized correction factor representative correction value is stored and the saved correction value with the actual output signal  each sensor cell to correct the actual Light distribution is multiplied. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß mindestens eine Schwerpunktposition der korrigierten Lichtmengenverteilung bestimmt wird.3. The method according to claim 2, characterized in that at least one center of gravity position of the corrected Light quantity distribution is determined. 4. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, daß ein Pegelwert im Bereich der Grenzlinie zwischen den beiden Lichtanteilen bestimmt wird.4. The method according to claim 1, 2 or 3, characterized in that a level value in the area of the boundary line between the two light components is determined. 5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß der Pegelwert aus mehreren Referenzpegelwerten ausgewählt wird.5. The method according to claim 4, characterized in that the level value is selected from several reference level values becomes. 6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß der Referenzpegelwert ausgewählt wird, bei dem die Anzahl der Sensorzellen mit einem in den Bereich dieses Referenzpegelwertes fallenden Ausgangssignal am größten ist.6. The method according to claim 5, characterized in that the reference level value is selected at which the number of the sensor cells with a value in the range of this reference level falling output signal is greatest. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Anzahl der Sensorzellen mit einem Ausgangssignal entsprechend einem vorbestimmten Referenzpegelwert gespeichert wird.7. The method according to claim 6, characterized in that the number of sensor cells with an output signal accordingly a predetermined reference level value becomes. 8. Verfahren nach einem der Ansprüche 1 bis 7, gekennzeichnet durch eine Signalverarbeitung zum Bestimmen einer Koordinatendifferenz der aus der Reflexion an der Netzhaut und der aus der Reflexion an der Hornhaut hervorgehenden Lichtanteile jeweils vor und nach einem Invertieren dieser Lichtanteile.8. The method according to any one of claims 1 to 7, characterized by signal processing to determine a coordinate difference that from the reflection on the retina and that resulting from the reflection on the cornea Light components before and after inverting them Light components. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Signalverarbeitung eine bitweise Invertierung der Positionskoordinaten beider Anteile und ein Berechnen der Koordinatendifferenz beider Anteile vor und nach der Invertierung umfaßt.9. The method according to claim 8, characterized in that the signal processing a bitwise inversion of the position coordinates both proportions and calculating the  Coordinate difference between the two parts before and after the inversion includes. 10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, daß die Berechnung der Koordinatendifferenz nur im Bereich der Mitte zwischen den Koordinaten für eine ansteigende und eine fallende Lichtmengenverteilung durchgeführt wird.10. The method according to claim 8 or 9, characterized in that the calculation of the coordinate difference is only in the range the middle between the coordinates for an increasing and performed a falling light quantity distribution becomes.
DE3844912A 1987-12-17 1988-12-09 Method for compensating evaluation errors of a device for determining the viewing direction of the user of a camera Expired - Fee Related DE3844912C2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP31933787 1987-12-17
JP12356288 1988-05-20
JP63143259A JP2859270B2 (en) 1987-06-11 1988-06-10 Camera gaze direction detection device
DE19883841575 DE3841575C2 (en) 1987-12-17 1988-12-09 Camera with a viewfinder system with a device for determining the viewing direction of the user

Publications (1)

Publication Number Publication Date
DE3844912C2 true DE3844912C2 (en) 1994-11-03

Family

ID=27434430

Family Applications (2)

Application Number Title Priority Date Filing Date
DE3844907A Expired - Fee Related DE3844907C2 (en) 1987-12-17 1988-12-09 Camera with a viewfinder with a device for determining the viewing direction of the user
DE3844912A Expired - Fee Related DE3844912C2 (en) 1987-12-17 1988-12-09 Method for compensating evaluation errors of a device for determining the viewing direction of the user of a camera

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE3844907A Expired - Fee Related DE3844907C2 (en) 1987-12-17 1988-12-09 Camera with a viewfinder with a device for determining the viewing direction of the user

Country Status (1)

Country Link
DE (2) DE3844907C2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2382056A1 (en) * 1977-02-28 1978-09-22 Inst Nat Sante Rech Med Eye movement tracking system - uses IR beam and TV camera to register reflections from cornea and retina
US4508963A (en) * 1982-09-28 1985-04-02 Honeywell Inc. Detector mismatch correction apparatus
US4574314A (en) * 1982-05-28 1986-03-04 Weinblatt Lee S Camera autofocus technique
WO1987001571A1 (en) * 1985-09-19 1987-03-26 Institut National De La Sante Et De La Recherche M Process and device for measuring the stare direction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2382056A1 (en) * 1977-02-28 1978-09-22 Inst Nat Sante Rech Med Eye movement tracking system - uses IR beam and TV camera to register reflections from cornea and retina
US4574314A (en) * 1982-05-28 1986-03-04 Weinblatt Lee S Camera autofocus technique
US4508963A (en) * 1982-09-28 1985-04-02 Honeywell Inc. Detector mismatch correction apparatus
WO1987001571A1 (en) * 1985-09-19 1987-03-26 Institut National De La Sante Et De La Recherche M Process and device for measuring the stare direction

Also Published As

Publication number Publication date
DE3844907C2 (en) 1994-03-17

Similar Documents

Publication Publication Date Title
DE2431860C2 (en) Focusing device for optical devices
DE69113889T2 (en) Passive distance measurement and fast autofocusing.
DE3429586A1 (en) DISTANCE DETECTOR
DE3151800A1 (en) ARRANGEMENT FOR DETERMINING THE LOCATION OF A WORKPIECE
DE3789283T2 (en) Exposure control for camera with interchangeable lens.
DE19612643B4 (en) TTL exposure control device
DE69204459T2 (en) Time-multiplexed multi-zone rangefinder.
DE4037907A1 (en) Sight direction detection arrangement - forms image of light reflected from eye on line sensor, corrects for individual dispersion
DE3406460C2 (en) Automatic focus detection device
DE3406578C2 (en) Automatic focus detection device
DE112016006183T5 (en) Sample mold measuring method and sample mold measuring apparatus
DE3223438A1 (en) AUTOMATIC LENS MEASURING DEVICE
DE10204367B4 (en) Autofocus module for microscope-based systems and autofocus method for a microscope-based system
DE4213604A1 (en) DEVICE FOR DETECTING THE FOCUS OF AN LENS
DE3828587A1 (en) AUTOMATIC MAGNIFICATION DEVICE FOR CAMERA ZOOM LENSES
DE3841575A1 (en) Device for determining the viewing direction of the user of a photographic camera
DE4218678C2 (en) Device for detecting the focusing of a lens
DE3215675A1 (en) NETWORK SKIN CAMERA
DE3005044A1 (en) FOCUS DETECTING DEVICE FOR A CAMERA
DE3233636C2 (en) Method for determining the focus state of a camera
DE3245675A1 (en) FOCUS DETECTOR
DE3312203C2 (en)
DE2917203C2 (en) Device for determining the focusing of a lens on a target focal plane
DE4039145C2 (en) Method for detecting the direction of view of the human eye
DE3331264C2 (en)

Legal Events

Date Code Title Description
Q172 Divided out of (supplement):

Ref country code: DE

Ref document number: 3841575

8110 Request for examination paragraph 44
AC Divided out of

Ref country code: DE

Ref document number: 3841575

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8339 Ceased/non-payment of the annual fee