EP2377306A1 - Controle de defauts optiques dans un systeme de capture d'images - Google Patents

Controle de defauts optiques dans un systeme de capture d'images

Info

Publication number
EP2377306A1
EP2377306A1 EP10706293A EP10706293A EP2377306A1 EP 2377306 A1 EP2377306 A1 EP 2377306A1 EP 10706293 A EP10706293 A EP 10706293A EP 10706293 A EP10706293 A EP 10706293A EP 2377306 A1 EP2377306 A1 EP 2377306A1
Authority
EP
European Patent Office
Prior art keywords
sensor
photosensitive elements
responses
image capture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP10706293A
Other languages
German (de)
English (en)
Inventor
César Douady
Frédéric Guichard
Imène TARCHOUNA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lens Correction Technologies SAS
Original Assignee
Dxo Labs SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dxo Labs SA filed Critical Dxo Labs SA
Publication of EP2377306A1 publication Critical patent/EP2377306A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Definitions

  • the present invention relates to the field of digital image capture systems.
  • Such an image capture system may for example be a module suitable for use in a digital camera, a SLR, a scanner, a fax, an endoscope, a camera, a camcorder , a surveillance camera, a toy, an integrated camera or connected to a telephone, personal assistant or computer, a thermal camera, an ultrasound machine, an MRI (magnetic resonance) x-ray machine, etc.
  • Such a system conventionally comprises a sensor including a plurality of photosensitive elements (eg pixels) that transform a received amount of light into digital values, and an optical device comprising one or more lenses for focusing light to the sensor. All of these two elements are commonly called “sensor-optical module”.
  • the sensor may be for example a CCD (Charged Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), a CID
  • IRCCD Infra-Red CCD
  • IRCCD Infra-Red CCD
  • ICCD Intensified CCD
  • EBCCD Electro Bombarded CCD
  • MIS Metal Insulator Semiconductor
  • Quantum Wells or whatever. It can optionally be associated with a Bayer filter to obtain a color image.
  • FIGS. 1A-1C show examples of a first positioning fault due to a tilt defect in a sensor-optical module.
  • the sensor-optical module presented in these figures comprises an optical device L and a sensor C, as indicated above.
  • a housing B receives the sensor C and has an optical support H (commonly called "holder" in English) for positioning the optical device L relative to the housing B, with a screw thread for example.
  • the different elements of the sensor-optical module are correctly mounted, in other words, the sensor C and the optical device L are parallel to each other, which represents a good optical assembly.
  • FIG. 1B illustrates a first example of relative inclination defect between a sensor C and an optical device L. It can be seen here that the sensor C is inclinedly mounted in the housing B of this module. This results in an asymmetrical change in the sharpness of the image rendered by the sensor C. This is called the ortho-frontality defect of this sensor, or equivalent "tilt sensor".
  • FIG. IC illustrates another example of relative tilt error between a C and an optical sensor device L.
  • the optical holder H which is positioned obliquely, it which causes a non-parallelism of the optical device L with respect to the sensor C.
  • Such verticality defect of the optical support H can be called “tilt holder” and likewise leads to an asymmetrical modification of the sharpness of the image returned by the sensor C.
  • a sensor-optical module may exhibit a relative decentration defect, illustrated by FIGS. 2A-2D.
  • FIG. 2A shows the sensor-optical module of an image capture system, comprising a circular optical device L, of center O L , projecting the light that it receives on a sensor C according to a circular illumination zone I
  • the present C sensor has a central zone Z comprising a certain number of pixels dedicated to the capture of the image and surrounded by a peripheral zone P.
  • the optical device L is perfectly centered with this zone.
  • center Z that is to say that the center O z of the central zone Z, situated at the intersection of its diagonals, coincides with the center Oi of the illumination zone I, which ensures optimum illumination of the central zone Z and thus a certain luminance homogeneity in the center of the image, illustrated by FIG. 2B.
  • FIG. 2B shows a reference image, consisting of a series of regularly spaced points, as received by a sensor-optical module according to FIG. 2A.
  • Such an image has an effect called “vignetting" on its edges, these being less bright at the periphery of the illuminated area of the sensor.
  • vignetting an effect called "vignetting" on its edges, these being less bright at the periphery of the illuminated area of the sensor.
  • vignetting may also appear on the edges of the image, this being due to the vignetting as defined above, depending on the color plane, which results in the appearance of certain colors. in some regions of the edge of the image.
  • the vignetting in the case of the module of FIG. 2A, is centered and will thus concern only the photosensitive elements situated at the periphery of the image. Such vignetting can be corrected by digital processing downstream of the sensor-optical module.
  • FIG. 2C shows the same sensor-optical module in which, this time, the optical device L is off-center with respect to the central zone Z of image capture of the sensor C. It can be seen that the right part of the central zone Z is this time in the center of the illumination zone I and will therefore be more illuminated than the left part of the central zone Z which will receive much lower light levels, or even no light if the decentering becomes too important .
  • Figure 2D illustrates the the consequences of this decentering on a reference image identical to that used in Figure 2B, but this time received by the off-center sensor-optical module of Figure 2C.
  • the vignetting effect, decentered to the right constitutes an optical defect that can no longer be corrected with the same adjusted digital processing to correct a centered vignetting as illustrated in FIG. 2A.
  • the optical-sensor modules may have, in production, an offset of the center O L of the optical device with respect to the center O z of the active zone Z of the sensor, which may be up to 200 ⁇ m, which may have a negative impact therefore on the correction of the vignetting effect.
  • a sensor-optical module may have a defocus defect of the optics relative to the sensor, which constitutes another type of optical defect, illustrated in FIGS. 3A and 3B.
  • the sensor C and the optical device L of a module must be separated by a certain distance F, typically a distance allowing the image to focus on the sensor C.
  • the illumination circle I then has a radius R 1 .
  • the step of optical assembly of a module is usually followed by a characterization step mounted module, during which it is determined whether the quality of the assembly is sufficiently acceptable or not.
  • the solution generally adopted is to characterize one or more optical defects of a sensor-optical module, and to correct the effect by digital processing, where possible.
  • This solution is usually performed by subjecting a reference scene, such as a test pattern, to the sensor-optical module in order to observe at the output of this module the image obtained.
  • a reference scene such as a test pattern
  • the reference scene, as well as the shooting conditions are chosen specifically to test certain properties of the module. They can differ according to the defect that one seeks to characterize, which makes the validation step long and expensive.
  • the characterization of a defect can be carried out in several ways. You can take a measurement on the image. One can also compare the image acquired by the module to be characterized to a reference image representing the same scene taken under the same conditions.
  • This characterization step makes it possible to detect the unusable modules, for example by using a criterion of quality applicable on the image at the output of the module. It also makes it possible to categorize the modules according to the quality of their optical assembly. Finally, it makes it possible to correct the effect of a positioning defect of each module by an individual calibration of the image processing chain associated with the corresponding module. This is called a unit calibration.
  • the sensor-optical module is shocked as when the device falls, which is common with devices digital photo for example, the relative positioning of the sensor and the optical device will be disordered, which will result in a degradation of the quality of the photographs.
  • An object of the present invention is to provide an image capture system which does not require a calibration step as described above, but which can self-calibrate.
  • the self-calibration of such a system can be useful on the production line, but also after its assembly and outside the assembly plant, especially after a shock, without the need for a external intervention.
  • a control method of an image capture system comprising a sensor including a plurality of photosensitive elements and an optical device for focusing the light emitted from a scene towards the sensor, the method comprising a step of obtaining respective responses of at least some of the photosensitive elements of the sensor to an exposure of the image capture system to any scene, followed by a step of determining at least one difference between at least one magnitude derived from the responses obtained and at least one reference quantity.
  • the exposure of the image capture system to any scene makes it possible to dispense with the initial calibration of the prior art which requires the acquisition, under controlled conditions, and the analysis of a reference scene, like a sight. It also allows you to control the image capture system anytime and anywhere.
  • a control method comprising, in addition to the steps previously described in the paragraph above, a step of estimating an optical defect of the image capture system from said determined difference.
  • a step of implementing an action capable of at least partially compensating for the estimated optical defect can also be implemented.
  • the estimate of the optical defect and / or its compensation can be implemented by the image capture system itself, by means located downstream of this system (for example by a third party to whom said image is supplied). determined deviation or an estimate of the optical defect), or shared by the image capture system and means downstream of this system.
  • the responses obtained comprise the responses of photosensitive elements sensitive to at least one common spectral band. This makes it possible to use relatively homogeneous responses spectrally, without the need to make a specific equalizing treatment for each spectral band. It is thus possible indirectly to detect a tilt defect between the sensor and its associated optical device.
  • the responses obtained comprise the responses of photosensitive elements sensitive to at least the spectral band of green. This makes it possible to use any type of scene to be able to detect a defect of the sensor-optical module, in addition to offering a more sensitive response.
  • the magnitude deduced from the responses obtained comprises a mathematical comparison between at least some of the responses obtained.
  • a mathematical comparison makes it possible to dispense with the components of the response related to the content of the image as such, and more clearly highlights the component related to the defect to be detected.
  • At least some of the photosensitive elements whose respective responses are obtained are neighbors of first or second order on the sensor. With such proximity, the area of the observed image has a very high homogeneity, which will eliminate the components of the response related to the content of the image, whatever it is.
  • the responses obtained comprise the responses of a plurality of pairs of photosensitive elements in which, for each of said pairs of photosensitive elements, a difference between a quantity deduced from the responses of the photosensitive elements belonging to said pair and a magnitude is determined. reference.
  • this plurality of pairs of photosensitive elements is positioned in a selected region of the sensor.
  • a region of the sensor receiving a portion of the image not subject to high frequency variations can be chosen, which will give a more reliable fault determination.
  • the responses obtained comprise the responses of photosensitive elements located at the periphery of the sensor.
  • Such a configuration makes it possible to detect, for example, an optical decentering defect, or information on the defocusing state of the lens.
  • the senor comprises a central image-capturing zone and a peripheral zone not participating in the image capture, and wherein said photosensitive elements situated at the periphery of the sensor belong to said peripheral zone. This makes it possible to detect an optical positioning fault before it has an impact on the central zone of the sensor.
  • the responses obtained comprise the responses of at least two photosensitive elements positioned on a first axis crossing the central image-capture zone, on either side of this central zone. This gives an indication of the direction and direction of decentering.
  • the responses obtained furthermore comprise the responses of at least two other photosensitive elements positioned on a second axis, crossing the central zone of image capture and substantially orthogonal to the first axis, on either side of the central zone. image capture. This makes it possible to characterize an optical defect such as a decentering in the two dimensions of the sensor.
  • the responses obtained comprise the responses of at least a first plurality of photosensitive elements, positioned on a first axis crossing the central image-capturing zone, belonging to a first secondary region of the sensor and being separated consecutively from one another. others of a determined distance, and a second plurality of photosensitive elements, positioned on a second axis crossing the central image-capturing zone and substantially orthogonal to said first axis, belonging to a second secondary region of the sensor distinct from said first secondary region and being separated consecutively from each other by a determined distance.
  • the present invention also provides an image capture system comprising means for implementing the method above.
  • the image capture system includes:
  • a sensor including a plurality of photosensitive elements
  • an optical device for focusing on the sensor the light emitted from a scene; means for determining at least one difference between at least one magnitude, deduced from respective responses of at least some of the photosensitive elements of the sensor to an exposure of the image capture system to any scene, and at least one magnitude reference.
  • This system also advantageously comprises a means for estimating an optical defect of the image capture system from said determined deviation, and possibly a means of at least partial compensation of the estimated optical defect.
  • the present invention also relates to a digital camera comprising a system for capturing images above.
  • FIGS. 1A-1C already commented on, illustrate a defect in optical tilt in a sensor-optical module
  • FIG. 4 is a block diagram showing an image capture system according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of controlling an image capture system according to an exemplary embodiment of the present invention
  • FIGS. 6A and 6B illustrate a first embodiment of the invention for detecting an optical inclination defect of the module
  • FIG. 7 illustrates the concept of first, second and third order neighborhoods for photosensitive elements of a sensor
  • FIG. 8 shows a particular example of a sensor-optical module comprising a sensor with a so-called "Bayer" colored filter
  • FIG. 9 illustrates the notion of image field in a conventional rectangular sensor
  • FIG. 1 OA shows a characterization curve of the average radius angle of an optics as a function of the position in the image field
  • FIG. 1 OB shows an intensity difference curve received between an element Gr and Gb as a function of the angle of attack of the light rays, for photosensitive elements Gr and Gb positioned at 60% of the field of the image. ;
  • FIG. 1 OC shows a characterization curve of a difference in intensity received between elements Gr and Gb of a Bayer filter in the image field of a sensor, along the X axis thereof;
  • FIGS. 11A-11C show a first example of a sensor of an image capture system according to a second embodiment of the invention.
  • FIG. 12 shows a second example of a sensor of an image capture system according to a second embodiment of the invention
  • FIG. 13 shows a third example of a sensor of an image capture system according to a second embodiment of the invention
  • FIG. 14 shows a fourth example of a sensor of an image capture system according to a second embodiment of the invention.
  • FIGS. 15A-15C show a fifth example of a sensor of an image capture system according to a second embodiment of the invention.
  • Fig. 4 is a block diagram showing an exemplary image capture system according to a possible embodiment of the present invention.
  • the image capture system 1 receives light from any scene S to be captured.
  • the system 1 comprises an optical device L and a sensor C, the optical device L serving to focus the light emitted from the scene S towards the sensor in order to focus them on the sensor C.
  • the optical device L and the sensor C form this. commonly called a sensor-optics module.
  • the sensor C comprises a plurality of photosensitive elements (for example pixels), each photosensitive element, in response to a quantity of light that it receives, can deliver an electrical intensity that can result in a certain numerical value.
  • the sensor C transforms the light received from the optical device L into a series of digital values corresponding to an image in digital form. This raw digital image may be affected by certain optical defects, including those presented above.
  • the system 1 of the present invention further comprises a means for determining at least one deviation DET.
  • This DET determination means which may for example take the form of a calculation module, within a processor for example, will receive the respective responses of certain photosensitive elements of the sensor C to an exposure of the capture system. images at the scene S, as explained below, and will deduce at least a magnitude G from these responses. In some cases, this magnitude G may be representative of a relative positioning state of the optical device L with respect to the sensor C.
  • the determination means DET also has at least one reference variable Gref.
  • This magnitude Gref corresponds for example to a situation where the optical device L and the sensor C would be correctly positioned. It will serve as a standard measure to which the magnitude G will be compared later.
  • Such a reference variable Gref can also be defined, inter alia, by initial characterization of the sensor C under different conditions, under several illumination angles, for example. Such characterization will be performed only once for a type of sensor, and not systematically for each mounting of an optical device with a sensor, for example. A magnitude G obtained subsequently, during the current use of the system 1, can then be calculated from any shot, not requiring the use of a special scene.
  • a difference ⁇ between the magnitude G and the reference variable Gref is then calculated by the determination means DET.
  • This difference ⁇ gives, for example, an indication of the positioning state of the optical device L with respect to the sensor C.
  • This difference ⁇ can be example proportional to the G-Gref difference between these two quantities, or to the G / Gref ratio between them.
  • This difference ⁇ can also take any other form allowing the mathematical comparison of the two quantities G and Gref.
  • This gap can finally take the form of an index in a correspondence table between reference data, and predetermined data.
  • the system 1 it is possible to detect an optical defect of the sensor-optical module. From this detection, the system 1 can advantageously be calibrated again at a repairer or factory, for example.
  • the detection of an optical defect of the sensor-optical module may be used for other purposes than a correction of this defect.
  • it can be used as a diagnostic for the module without any subsequent correction.
  • a selection of one or more sensor-optical modules can also be performed taking into account their respective optical defects.
  • Other control mechanisms are also conceivable as will be apparent to those skilled in the art.
  • the system 1 further comprises means for estimating DEF of an optical defect and possibly compensating means COMP of the estimated optical defect.
  • the means DEF receives the difference ⁇ determined by the determination means DET, and estimates as a function of this difference ⁇ the type of optical defect incriminated as well as its amplitude.
  • the means DEF then sends this information to the compensation means COMP.
  • This compensation means COMP also receives from the sensor C the raw digital image affected by the optical defects. Taking into account the information from the estimation means DEF, the compensation means COMP will be able to compensate for the optical defect determined, either totally or partially.
  • the compensation can be done without human intervention, for example at periodic time intervals, or following the appearance of certain events, such as shocks suffered by the system 1.
  • Such self-calibration is therefore much more flexible than the calibration of the prior art mentioned in the introduction.
  • the compensation in question can take various forms, in particular depending on the fault detected. It may comprise mechanical actions, for example a change of inclination of the sensor and / or the optical device to reduce or eliminate a relative inclination defect between these elements, a translation of the sensor and / or the optical device in a substantially plane. parallel to the sensor to reduce or eliminate a relative decentering error between these elements, a translation of the sensor and / or the optical device in a direction substantially orthogonal to the sensor to reduce or eliminate a defocus defect of the optics relative to the sensor, Or other.
  • These mechanical actions are for example carried out using mechanical means, possibly controlled electronically.
  • the abovementioned compensation may comprise an appropriate digital processing.
  • This digital processing can be implemented by the image capture system 1 itself, by digital processing means located downstream of this system, or shared between the image capture system 1 and the image capture system 1. digital processing means downstream.
  • a decentering defect of the optics relative to the sensor can modify the properties of the vignetting phenomenon (illustrated in FIG. 2C, commented on above).
  • the "original" vignetting phenomenon (i.e. regardless of decentering) is usually corrected numerically either on the capture system or by a specific downstream device.
  • the digital correction may for example be based on a vignetting correction model, function-among other- coordinates in the image of the pixel to be processed, the sensor-optical torque used, etc.
  • dx, dy decentering
  • a defocusing defect (as illustrated in FIGS. 3A and 3B) generates a blur in the image, since the focusing distance is not optimal.
  • the knowledge of the characteristics of the optics makes it possible to quantify the level of blur as a function of the defocusing.
  • a deflashing technique such as a deconvolution or otherwise.
  • the compensation performed by the compensation means COMP of the system 1 may be partial and limited modifying the received image to bring it back to an image having a degree of defect which can then be corrected by said downstream digital processing means. It may also consist in changing the parameters of the model used in the processing means located downstream, without affecting the image.
  • FIG. 5 is a flowchart illustrating a method of controlling an image capture system according to an exemplary embodiment of the present invention, as described for example in FIG. 4.
  • the determination means DET obtains respective responses from certain photosensitive elements of the sensor C of the image capture system 1. These different photosensitive elements are at least 2 in number.
  • the determination means DET determines, during a second step 200, the difference ⁇ between a quantity G, deduced from the responses obtained during step 100, and a reference quantity Gref, determined as explained above.
  • This gap makes it possible to detect a possible optical defect of the capture system, such as for example a bad positioning in the sensor-optical module.
  • the method further comprises a step 300, during which the estimation means DEF estimates the optical defect of the capture system 1 from the difference ⁇ determined during the second step 200.
  • FIGS. 6A and 6B illustrate the sensor-optical module of an image capture system according to a first embodiment of the invention, for detecting for example an optical defect related to a relative inclination between the sensor and the device optical as shown above in FIGS. 1A-1C.
  • FIGS. 6A and 6B are represented the optical device L and the sensor C of the image capture system, without the housing, or the optical medium that may possibly be composed, the latter elements being not essential to the understanding of the present embodiment. Further represented is the means for determining a difference DET receiving the response of certain elements of the sensor C.
  • the sensor C comprises a zone Z in which is located a plurality of photosensitive elements Zi, Z 2 , ..., Z n .
  • Each of these photosensitive elements is sensitive to a particular spectral band. Of all these photosensitive elements, some may be sensitive to spectral bands of which at least part is common. It is also possible to have, among the photosensitive elements of the sensor C, identical photosensitive elements and therefore sensitive to the same spectral band.
  • the sensor C has, among the plurality of photosensitive elements Z 1 , Z 2 ,..., Z n , at least two photosensitive elements E 1 and E 1 ', situated at different locations of the sensor and sensitive to at least one band. common spectral. Due to their different positions, the light reaching these elements will come from a different angle, and consequently their respective responses, in terms of intensities 1 (E 1 ) and 1 (E 1 ') representative of the amount of light received respectively by each of these two elements, will be different.
  • This difference in intensity response can be formulated in the form of a parameter G, corresponding to the magnitude presented above, which is a function of the responses in electrical intensities 1 (E 1 ) and 1 (E 1 ').
  • the parameter G calculated according to one of the preceding formulas will take a reference value Gref, corresponding to the optimal positioning in terms of parallelism of the sensor-optical module.
  • the reference parameter Gref can also be calculated from response measurements made under initial illumination of the sensor alone, under certain particular conditions, for example under particular lighting angles. Such a reference value Gref can then be stored in the determination means DET, for example.
  • the elements E 1 and E 1 ' whose response is used by the determination means DET, can be chosen from any of the photosensitive elements Z, of the sensor C, as long as they are sensitive. at least at a common spectral band.
  • their intensity responses will have a high probability of being substantially homogeneous in terms of image content, and can be compared directly, without the need for equalizing treatment between different spectral bands with more spectral response. or less sensitive.
  • Other functions can be used insofar as they are indicative of a difference in luminous intensity received by these two elements, which makes it possible to overcome, by mathematical comparison, the intensity component common to the two elements E 1 and E 1 ', corresponding to the content of the image acquired in the common spectral band, it will then be easier to distinguish the intensity component related to the angle of inclination ⁇ .
  • the two elements E 1 and E 1 'whose response is used by the means DET are chosen in close proximity to one another. They are either first-order neighbors, that is, they are adjacent to each other, or second-order neighbors, that is, they are not adjacent to each other. to one another but that there is at least one other photosensitive element to which they are both adjacent, for example, without this example being limiting.
  • This more or less close neighborhood concept is illustrated in Figure 7.
  • FIG. 7 shows a conventional sensor C, viewed from above, and comprising a plurality of photosensitive elements.
  • the photosensitive elements of a sensor are usually arranged in a grid in two directions.
  • the neighboring first-order elements thereof are those which are adjacent to V 0 in one of the two grid directions.
  • These first-order neighboring elements are the elements V 1 of FIG. 7.
  • the second-order neighboring elements V 2 of V 0 are the first-order neighboring elements of the first-order neighboring elements V 1 of the element V 0 this element V 0 itself being excluded.
  • the neighboring third-order elements V 3 of V 0 are the first-order neighboring elements of the second-order neighboring elements V 2 of the element V 0 , excluding the elements V 1 and so on.
  • This advantageous characteristic makes it possible to obtain a more reliable measurement, insofar as the acquired image may have more or less dark areas at different locations.
  • comparing the intensity received from a first element located in a dark zone to the intensity received from a second element located in a light zone would distort the measurement of the angle of inclination ⁇ . If the two elements are chosen in a region of small size, they will receive a relatively homogeneous light information, and therefore the comparison of their respective intensities will more effectively eliminate the useless intensity component here, which will bring out more clearly the component related to the angle ⁇ .
  • the invention is not limited to using the response of neighboring elements of first or second order.
  • the reasoning that has just been made above with only two photosensitive elements E 1 and E 1 ' can be done with a plurality of pairs of photosensitive elements (E 1 , E 1 '), advantageously sensitive to the same band common spectral.
  • the fact of increasing the number of elements used to give an answer makes it possible to avoid any transition zones of the image, in which the process would no longer work with only two elements, if these elements were to be found on both sides of this transition zone. This further reduces the effect of noise on the measurement.
  • a global difference ⁇ G may possibly be calculated from these particular deviations ⁇ ,.
  • This global gap ⁇ G can be for example the average of all individual differences ⁇ ,, or their median value, or any value for global characterize all of these particular differences ⁇ .
  • a possible after estimating an optical defect of the image capture system may be based on an overall gap ⁇ G. As a variant, it can be based on all or part of the particular deviations ⁇ ,.
  • a global deviation ⁇ G in the manner indicated above is particularly advantageous in the case where the different pairs of photosensitive elements (E 1 , E 1 ') whose response is used are substantially close to one another. Since the reference quantity changes as a function of the image field, it can also be envisaged, in the case where the different pairs of photosensitive elements (E 1 , E 1 ') whose answer is used are not close to each other, calculate particular angles ⁇ , for each of the pairs to obtain from them an overall inclination angle ⁇ G , corresponding for example to the average of particular angles ⁇ ,.
  • This example with two pairs of elements is of course not limiting.
  • the determination means DET uses the responses of a plurality of pairs (E 11 E 1 '), these pairs belong to a selected region E of the sensor C.
  • This region E which represents a sub-part of the surface the sensor, can be chosen to receive a homogeneous area of the image excluding high frequency areas, synonymous with transitions and therefore potential measurement errors.
  • Such a zone can be determined by methods known to those skilled in the art, such as using the noise curves of the sensor, or by using the information on other channels, located in other spectral bands than that photosensitive elements used.
  • Figure 8 illustrates in part an image capture system having an exemplary sensor including a popular example of a color filter, called a Bayer filter, commonly used in today's digital image capture apparatus.
  • the senor C is formed by the superposition of a FIL filter and a SUB substrate. sensitive to light.
  • the light coming from a source S and passing through an optical device L as described above, illuminates the color filter F.
  • Such an arrangement makes it possible to break down the light into different components according to a defined pattern, for example a grid, which allows a more suitable processing and transmission of information.
  • FIL filter that breaks down filtered light into its three green, blue and red components. This will receive, at different points of the substrate, intensities corresponding to these different components in order to use them to restore the image later.
  • the so-called "Bayer” filter consists of the repetition, in two dimensions, of a basic pattern Mb of 2x2 filtering elements, a blue filtering element B, a red filtering element R, and two Gr and Gb elements filtering green. Since the spectral band of green is the central band of the light spectrum, this band will generally contain more information than the others, and as moreover the human eye is more sensitive to this band, the choice of having two elements Gr and Gb detecting green has been made with this type of filter.
  • a typical defect of this kind of filter is what is called "cross-talk". It is reflected here that, when photons arrive on a photosensitive element, they are partially deflected to other nearby photosensitive elements.
  • the present invention uses such a normally deleterious phenomenon in a positive direction to better detect an optical defect.
  • the comparison of the responses in intensities 1 (E 1 ) and 1 (E 1 '), as explained above, will be applied to the intensities responses of two elements Gr and Gb of the same basic pattern Mb d a Bayer filter. As these two elements are close, they undergo a phenomenon of cross-talk and their response therefore contains a correlated information component, which can be all the more easily suppressed by the comparison of their two intensities, which will improve the observation of the angle of inclination ⁇ .
  • the magnitude G as defined above will therefore be derived from the comparison of the intensity I (Gr) received by an element Gr and the intensity l (Gb) received by a element Gb of the same basic pattern. Again, this comparison can be made by difference, ratio or difference from the mean between the two respective intensity values, among others. In the present example, the difference is the measure used for the comparison between these two values l (Gr) and l (Gb), expressed in percentages.
  • the sensor shown in the example of this figure 9 has a rectangular shape "4: 3", that is to say that its image width h is equivalent to 4/3 times its image height v.
  • image field serves to indicate the distance from the center of the sensor of FIG. 9.
  • a position at 100% of the image field corresponds to a position on one of the vertices of the rectangular sensor. which corresponds to a distance d maximum relative to the center equal to the diagonal of the rectangle.
  • FIG. 10A shows a curve representing the average radius angle ("CRA") characteristic of an optical system, as a function of their position in the image field.
  • CRA average radius angle
  • FIG. 10B shows a curve for characterizing the difference between photosensitive elements Gr and Gb, expressed in percentages, for a given sensor, as a function of the angle of attack of the rays thereon, for a given position in the image field.
  • the given position corresponds to 60% of the field on the X axis of the sensor. This curve does not depend on the optical device associated with the sensor.
  • FIG. 10C shows a record of the difference, in percentages, between the intensities received by photosensitive elements Gr and Gb belonging to the same basic pattern. This as a function of the position along a horizontal axis X of a rectangular sensor.
  • the abscissas are expressed in image field, as explained above.
  • such an estimate of the difference between the intensities received by the photosensitive elements Gr and Gb of a module can be made from an image, from a zone of the image or from of a set of areas of the image.
  • such an estimate of the difference between the intensities of the elements Gr and Gb is also possible on a video stream, on a sub-sampled version of the image.
  • the estimation can be done with prior knowledge of the variation model of the cross talk between elements Gr and Gb, as illustrated in FIG. 1 OC.
  • the measurements made on the image are thus used to adapt to a parametric model, which makes it possible to reduce the errors due to the measurements, and to have more advanced applications based on these estimates.
  • photosensitive elements sensitive to the green color were used to measure the inclination defect, because the Bayer filter has the particularity of having a microstructure with two green elements offset.
  • the use of this particular spectral band is advantageous because, on the one hand, the spectral response in this band is more sensitive, in particular that of the human eye.
  • this spectral band being in the middle of the optical spectrum, most of the images will have components in this band, in any case much more than with the other red and blue spectral bands.
  • any image can be used here to detect a relative tilt angle, without the need to make a specific choice of a certain type of image to make the measurement.
  • the invention is not limited to this example, and any elements sensitive to another color can be used.
  • sensor-optical module of an image capture system for detecting a defocusing or defocusing defect of this module, will now be presented.
  • FIG 11A shows a top view of a sensor C belonging to a sensor-optical module similar to those presented above.
  • a sensor advantageously has a central image-capture zone Z, comprising a certain number of photosensitive elements Z, dedicated to the capture of the incident photons to restore an image, surrounded by a peripheral zone P which does not include pixels specifically dedicated to capturing images and therefore not participating in image capture.
  • the central zone Z is described in this example as being rectangular, with a center O z located at the intersection of its diagonals, that is to say at the intersection of its two orthogonal axes of symmetry X and Y.
  • any other form of image capture area may be considered here, such as a circular shape for example.
  • the optical device L associated with the sensor C in the image capture system of the present invention and not shown in this view from above, will illuminate the sensor C with the light coming from the source S, and this according to a zone d illumination whose shape will depend on the shape of the device L itself.
  • the optical device L is of circular shape and will therefore have an illumination circle U f on the sensor C, the light intensity received outside this illuminance circle l ref being quasi nothing.
  • the size of this circle will depend on the distance separating the optical device L and the sensor C, as illustrated in FIGS. 3A and 3B above.
  • FIG. 11A represents the case where the optical device L is centered on the sensor C, that is to say the case where the center of the illumination circle l ref and the center O z of the central zone Z coincide, and where an optimal focusing distance F separates the optical device L and the sensor C.
  • the illumination circle l ref then has a radius R
  • the sensor C has a certain number of photosensitive elements P 1 , located in the peripheral zone P of the sensor C and whose response will make it possible to detect a defect of shifting or defocusing as illustrated respectively in Figures 2A-2D and 3A-3B above.
  • These photosensitive elements P 1 may for example have a binary digital response, that is to say, provide a "0" response when the received light intensity is less than a first threshold and provide a "1" response when the intensity received light is greater than a second threshold, greater than the first threshold.
  • the invention is not limited to this type of photosensitive element, and any type of element making it possible to distinguish a level of high light intensity from a level of low light intensity can be used here.
  • the sensor C has a first photosensitive element Pi located inside the reference illumination circle U, and a second photosensitive element P 2 located outside the reference illumination circle. l ref .
  • Gref 1 (P 1 ) + 1 (P 2 ).
  • FIG. 11B illustrates two cases in which the optical device L is off-center with respect to the sensor C in the direction of its axis X.
  • the optical device L In a first case where the optical device L is shifted to the right of the sensor C, it will project an illumination circle I 1 of center O n on the sensor C.
  • the two elements P 1 and P 2 belong to to the circle of illumination I 1 and the magnitude G, determined from their intensity response identically to the reference variable Gref, will have a value equal to 2. Then determining a difference ⁇ between this magnitude G and the magnitude reference Gref, by a calculation as described above, the fact that this deviation ⁇ is substantial will be indicative of a decentering defect. If for example, the gap
  • corresponds to the difference between G and Gref, ⁇ is no longer zero but here takes the value
  • the two elements P 1 and P 2 no longer belong to the illumination circle I 2 and the magnitude G, always determined identically to the reference variable Gref, will have a value of zero.
  • FIG. 11C illustrates two other cases where the optical device L is this time defocused with respect to the sensor C.
  • the illumination circle I 3 projected on the sensor C will be larger than the reference illumination circle. U f .
  • the two elements P 1 and P 2 belong to the circle of illumination I 3 , similarly to the case of the decentering of the optical device L towards the right of the sensor C presented previously in FIG. 11B and the magnitude G, determined similar to the previous cases, will have a value of "2".
  • the illumination circle I 4 projected on the sensor C will this time be smaller than the circle of illumination.
  • reference illumination U f the two elements P 1 and P 2 no longer belong to the circle of illumination I 4 , similarly to the case of the decentering of the optical device L to the left of the sensor C presented previously in FIG. 11B and the magnitude G, determined from their intensity response identically to the reference variable Gref, will have a value of zero.
  • an optical defect of decentering or defocusing type can therefore be detected, without being necessarily distinguishable.
  • the following examples of sensor advantageously make it possible to distinguish the type of optical defect incriminated.
  • FIG. 12 A second example of a sensor C is shown from above in FIG. 12.
  • This sensor C is similar to the one shown in FIGS. 11A-11C, with the difference that it has two photosensitive elements P 3 and FIG. P 4 , located in the peripheral zone P, for example inside the illumination circle U f , and on a Y axis passing through the center O z of the central rectangular zone Z, advantageously at an equal distance from the center O z of it, in order to obtain more concrete information.
  • This axis Y may for example be an axis of symmetry of the zone Z.
  • the reference variable Gref may correspond to the sum of the responses of the two elements P 3 and P 4 for example, which gives here a value of "2".
  • the optical device L is decentered along the Y axis, downwards for example, the element P 3 will no longer be illuminated while the element P 4 will remain.
  • the magnitude G will then have a value of "1".
  • the optical device L approaches the sensor C, the illumination circle will shrink to the point where the two elements P 3 and P 4 will no longer be illuminated.
  • the magnitude G will then take a value of zero.
  • elements P 3 and P 4 located outside the illumination circle U f it is possible to detect in the same way a distance of the optical device L with respect to the sensor C.
  • the determination of the difference ⁇ between the magnitude G obtained and the reference variable Gref then makes it possible to distinguish the type optical defect incriminated.
  • the difference ⁇ corresponds to the difference between G and Gref, then this difference ⁇ will be "1" in absolute value when there is a decentering, and the “2" in absolute value when there is approximation of the optical device L and the sensor C.
  • the difference ⁇ is therefore indicative of the type of fault.
  • a shift along the Y axis of the zone Z may be detected and discriminated from a defect related to the too close approximation of the optical device L with respect to the sensor C.
  • a third example, illustrated in FIG. 13, consists of extrapolating the example of FIG. 12, furthermore using the response of two other photosensitive elements P 5 and P 6 , still located in the peripheral zone P, inside the circle of illumination l ref and on the axis X of symmetry of the central rectangular zone Z, equidistant from the center O z thereof.
  • the reference variable Gref can then correspond to a pair of relative reference variables (Grefi, Gref 2 ) respectively corresponding to the sum of the responses of the elements P 3 and P 4 as well as elements P 5 and P 6, for example.
  • the reference variable Gref will here take the value (2,2).
  • the difference ⁇ calculated as (GrGrefi, G 2 -Gref 2 ) then takes the value (1, 0), which indicates a shift along the Y axis. If the magnitude G takes the value (2.1), the difference ⁇ then takes the value (0.1), which indicates a shift along the axis X. Finally, if the magnitude G takes the value (0,0), the difference ⁇ then takes the value (2,2), which indicates a focusing defect on the approximation of the optical device L with respect to the sensor C . In this third example of FIG. 13, a shift along the Y axis or the X axis of the zone Z can be detected and discriminated from a defect related to the too close approximation of the optical device L with respect to the sensor C.
  • a fourth example, illustrated in FIG. 14, consists in extrapolating the example of FIG. 13, furthermore using the response of four other photosensitive elements P 3 ', P 4 ', P 5 'and P 6 ' situated in the zone peripheral P, outside the illumination circle l ref , on the X and Y axis of the central rectangular zone Z, equidistant from the center O z thereof.
  • the reference variable Gref can then correspond to a series of four quantities Gref, reference relative to each pair of elements (P 1 , P 1 '), corresponding for example to the sum of the responses of the elements P 1 and P 1 'associates.
  • the global reference variable Gref will here take the value (1, 1, 1, 1).
  • the difference ⁇ then takes the value (-1, - 1, -1, -1), thus indicating a focusing defect due to the approximation of the optical device L with respect to the sensor C.
  • the overall quantity G takes the value (2,2,2,2) , that is to say if all the elements are illuminated, the difference ⁇ then takes the value (1, 1, 1, 1), thus indicating a focus defect due this time to the distance of the optical device L relative to the sensor C.
  • FIGS. 12 to 14 it is possible to detect and discriminate an optical defect of decentering or defocusing type.
  • the fifth example below also makes it possible to estimate the amplitude of the detected fault, in order to possibly perform a compensating action.
  • Figure 15A shows a top view of a C-sensor similar to that shown in Figures 12-14 above.
  • Such a sensor has secondary regions Pa, Pb, Pc and Pd, belonging to the peripheral region P, in which there are respectively a number of photosensitive elements Pa 1 , Pb 1 , Pc 1 and Pd 1 located on the axes of X or Y symmetry of the central zone Z.
  • each secondary region comprises four photosensitive elements, but the present invention is not limited to such a number.
  • the definition of a different number of secondary regions is also conceivable. By way of example, only the secondary regions Pa and Pb could be exploited.
  • the four photosensitive elements Pa 1 are consecutively spaced apart from each other by a determined distance ⁇ . This spacing distance may be used in all secondary regions, or each region may have its own spacing distance between the photosensitive elements.
  • the sensor of FIG. 15A is illuminated by an illumination circle 1 ref identical to that of FIG. 11A, that is to say corresponding to the optimal positioning of the optical device L with respect to the sensor C in terms of focusing. and decentering.
  • the illumination circle U f crosses all the secondary regions.
  • the illumination circle l ref passes between the elements Pa 2 and Pa 3 , which implies that the elements Pai and Pa 2 are substantially well lit while the elements Pa 3 and Pa 4 are not, if at all.
  • Gref a relative to the region Pa, corresponding to the illumination of the region Pa by a properly positioned optical device L.
  • Such a magnitude may for example be the sum of the intensities received by the photosensitive elements of the Pa region.
  • this sum equals the value "2" and reflects the fact that the illumination circle passes between the elements Pa 2 and Pa 3 .
  • a similar calculation can be done for each of the other secondary regions.
  • FIG. 15B now illustrates the case where the optical device L is off-center with respect to the sensor C in the direction of its axis X.
  • the circle of illumination I 5 of center O, 5 passes this time between the photosensitive elements Pc and 3 Pc 4 the secondary region Pc, as well as between the photosensitive elements Pd 2 and Pdi of the secondary region Pd.
  • the magnitude G d relative to the Pd region will therefore decrease relative to the optimal case and take the value "1" in the present example, while the magnitude G c relative to the Pc region will increase compared to the optimal case and take the value "3".
  • FIG. 15C illustrates two other cases where this time the optical device L is defocused with respect to the sensor C, in the absence of shifting between the device L and the sensor C
  • the illumination circle I 6 this time passes between the first and the second photosensitive elements of each secondary region.
  • the magnitudes G, relative to each region will therefore decrease compared to the optimal case and take the value "1" in the present example.
  • the comparison of these magnitudes G, relative to the relative reference values Gref which have the value "2" in the present example, will indicate a decrease in the radius of the illumination circle, and therefore a decrease in the distance separating the sensor C of the optical device L.
  • the fact that the quantities relative to the opposite secondary regions decrease simultaneously of the same order means that there is no decentering defect.
  • the illumination circle I 7 this time passes between the second and the third photosensitive elements of each secondary region.
  • the magnitudes G 1 relative to each region will thus increase with respect to the optimal case and take the value "3" in the present example.
  • the comparison of these relative magnitudes G 1 with relative reference values Gref which always have the value "2" in the present example, will indicate an increase in the radius of the illumination circle, and therefore an increase in the distance separating the sensor C from the optical device L.
  • each optical defect has been presented separately for the sake of simplification. It is obvious, however, that a decentering defect can occur simultaneously with a defocus.
  • the sensor-optical module shown in Figures 15A-15C by its configuration, will be able to detect and estimate each of the defects independently of one another.
  • control of the image capture system includes the estimation of an optical defect, for example for compensation purposes
  • the latter may be one of the optical defects mentioned above, or else any other defect optically conceivable and detectable from respective responses of at least some of the photosensitive elements of the sensor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

Procédé de contrôle d'un système de capture d'image (1 ) comportant un capteur (C) comprenant une pluralité d'éléments photosensibles (Z1,Z2, Zn) et un dispositif optique (L) pour focaliser vers le capteur la lumière émise depuis une scène. Ce procédé comprend une obtention (100) de réponses respectives de certains au moins des éléments photosensibles (E1, E'1, P1, P2) du capteur à une exposition du système de capture d'images à une scène (S) quelconque, suivie d'une détermination (200) d'au moins un écart (Δ) entre au moins une grandeur déduite (G) des réponses obtenues et au moins une grandeur de référence (Gref). Ces étapes peuvent être suivies par une estimation (300) d'un défaut optique du système de capture d'images (1 ) à partir dudit écart (Δ) déterminé et éventuellement par une mise en œuvre d'une action apte à compenser (400) au moins partiellement le défaut optique estimé.

Description

Contrôle de défauts optiques dans un système de capture d'images
La présente invention concerne le domaine des systèmes numériques de capture d'images.
Un tel système de capture d'images (fixes ou animées selon les cas) peut par exemple être un module apte à être utilisé dans un appareil photo numérique, un appareil reflex, un scanner, un fax, un endoscope, une caméra, un caméscope, une caméra de surveillance, un jouet, un appareil photo intégré ou relié à un téléphone, à un assistant personnel ou à un ordinateur, une caméra thermique, un appareil d'échographie, un appareil d'imagerie IRM (résonance magnétique), un appareil de radiographie à rayons X, etc.
Un tel système comprend classiquement un capteur incluant une pluralité d'éléments photosensibles (par exemple des pixels) qui transforme une quantité de lumière reçue en valeurs numériques, et un dispositif optique comprenant une ou plusieurs lentilles pour focaliser la lumière vers le capteur. L'ensemble de ces deux éléments est appelé couramment « module capteur-optique ».
Le capteur peut être par exemple un détecteur à transfert de charge CCD (Charged Coupled Device), un CMOS (Complementary Métal Oxyde Semiconductor), un CID
(Charge Induced Device), un IRCCD (Infra-Red CCD), un ICCD (Intensified CCD), un
EBCCD (Electron Bombarded CCD), un MIS (Métal Insulator Semiconductor), un APS
(Active Pixel Sensor), un QWIP (Quantum WeII Infrared Photodetectors), un MPQ (Multi-
Puits Quantiques), ou autre. Il peut éventuellement être associé à un filtre de Bayer afin d'obtenir une image couleur.
Lors de la fabrication d'un système de capture d'images, une étape de montage optique est nécessaire, pour chaque module capteur-optique, afin de positionner le capteur par rapport à son dispositif optique associé. Idéalement, ces deux éléments doivent être centrés l'un par rapport à l'autre et se présenter dans des plans parallèles, afin d'obtenir en sortie du module l'image la mieux restituée possible. Cependant, dans la réalité, le capteur et le dispositif optique peuvent ne pas être positionnés de façon optimale lors de cette étape de montage. Les figures 1A-1C montrent des exemples d'un premier défaut de positionnement dû à un défaut d'inclinaison dans un module capteur-optique.
Le module capteur-optique présenté dans ces figures comprend un dispositif optique L et un capteur C, comme indiqué précédemment. Un boîtier B reçoit le capteur C et présente un support d'optique H (couramment appelé « holder » en anglais) servant à positionner le dispositif optique L par rapport au boîtier B, grâce à un pas de vis par exemple.
Dans le cas de la figure "IA, les différents éléments du module capteur-optique sont correctement montés. En d'autres termes, le capteur C et le dispositif optique L sont parallèles entre eux, ce qui représente un bon montage optique.
L'exemple de la figure 1 B illustre un premier exemple de défaut d'inclinaison relatif entre un capteur C et un dispositif optique L. On voit ici que le capteur C est monté de façon inclinée dans le boîtier B de ce module. Ceci entraîne une modification asymétrique de la netteté de l'image rendue par le capteur C. On parle alors de défaut d'ortho-frontalité de ce capteur, ou de façon équivalente de « tilt capteur ».
L'exemple de la figure "I C illustre un autre exemple de défaut d'inclinaison relatif entre un capteur C et un dispositif optique L. Cette fois-ci, c'est le support d'optique H qui est positionné de façon inclinée, ce qui entraîne un non-parallélisme du dispositif optique L par rapport au capteur C. Un tel défaut de verticalité du support d'optique H peut être appelé « tilt holder » et entraîne de la même façon une modification asymétrique de la netteté de l'image rendue par le capteur C.
II est à noter que ces deux types de défauts d'inclinaison peuvent apparaître séparément, voire en même temps. La conséquence directe d'un tel défaut d'inclinaison relatif consiste en un phénomène de flou dit « asymétrique » sur l'image, qui constitue un défaut optique et qu'il convient de traiter afin d'obtenir une image nette. Ce flou évolue dans la direction du défaut d'inclinaison. On est ici, par exemple, en présence d'un défaut d'inclinaison suivant l'axe horizontal du capteur, l'optique étant inclinée vers la droite de cet axe. Le flou est dit de nature asymétrique, car la distance entre le capteur et l'optique diffère entre la partie droite et la partie gauche, ce qui correspond à une focalisation variable dans l'image. Ici, la partie droite de l'image reçue sera nette tandis que la partie gauche de l'image sera floue.
Un module capteur-optique peut présenter d'autre part un défaut de décentrement relatif, illustré par les figures 2A-2D.
La figure 2A présente le module capteur-optique d'un système de capture d'images, comprenant un dispositif optique circulaire L, de centre OL, projetant la lumière qu'il reçoit sur un capteur C selon une zone d'éclairement circulaire I centrée en Cv Le présent capteur C comporte une zone centrale Z comprenant un certain nombre de pixels dédiés à la capture de l'image et entourée d'une zone périphérique P. Dans cette figure 2A, le dispositif optique L est parfaitement centré avec cette zone centrale Z, c'est-à-dire que le centre Oz de la zone centrale Z, situé à l'intersection de ses diagonales, est confondu avec le centre Oi de la zone d'éclairement I, ce qui assure un éclairement optimal de la zone centrale Z et donc une certaine homogénéité en luminance au centre de l'image, illustré par la figure 2B.
La figure 2B présente une image de référence, constituée d'une série de points espacés régulièrement, telle que reçue par un module capteur-optique selon la figure 2A. Une telle image présente un effet dit de « vignetage » sur ses bords, ceux-ci étant moins lumineux en périphérie de la zone illuminée du capteur. De plus, un effet de vignetage dit « coloré » peut également apparaître sur les bords de l'image, ceci étant dû au vignetage tel que défini ci-avant, dépendant du plan couleur, ce qui se traduit par l'apparition de certaines couleurs dans certaines régions du bord de l'image. Le vignetage, dans le cas du module de la figure 2A, est centré et ne concernera donc seulement que les éléments photosensibles situés en périphérie de l'image. Un tel vignetage peut être corrigé par un traitement numérique en aval du module capteur-optique.
La figure 2C présente le même module capteur-optique dans lequel, cette fois-ci, le dispositif optique L est décentré par rapport à la zone centrale Z de capture d'image du capteur C. On voit que la partie droite de la zone centrale Z se trouve cette fois-ci au centre de la zone d'éclairement I et sera donc plus éclairée que la partie gauche de la zone centrale Z qui recevra des niveaux de lumière beaucoup plus faibles, voire plus aucune lumière si le décentrement devient trop important. La figure 2D illustre les conséquences de ce décentrage sur une image de référence identique à celle employée à la figure 2B, mais reçue cette fois-ci par le module capteur-optique décentré de la figure 2C. L'effet de vignetage, décentré vers la droite, constitue un défaut optique qui ne pourra plus être corrigé avec le même traitement numérique ajusté pour corriger un vignetage centré tel qu'illustré à la figure 2A.
Dans la pratique, les modules optique-capteur peuvent présenter, en production, un décalage du centre OL du dispositif optique par rapport au centre Oz de la zone active Z du capteur pouvant aller jusqu'à 200 μm, ce qui peut avoir un impact négatif conséquent sur la correction de l'effet de vignetage.
De plus, un module capteur-optique peut présenter un défaut de défocalisation de l'optique par rapport au capteur, qui constitue un autre type de défaut optique, illustré aux figures 3A et 3B. En effet, pour que la mise au point dans l'image soit optimale, comme dans le cas de la figure 3A, le capteur C et le dispositif optique L d'un module doivent être séparés d'une certaine distance F, typiquement une distance permettant la focalisation de l'image sur le capteur C. Le cercle d'éclairement I présente alors un rayon R1.
Cependant, si le « holder » est mal fixé, si le taraudage du « holder » est abimé ou du fait de variations de température entre autres, la distance F' séparant ces deux éléments peut être différente de la distance optimale F, comme illustré sur la figure 3B. On parle alors d'un défaut de défocalisation, qui se traduit par une image floue au niveau du capteur C. Dans l'exemple de la figure 3B, cela se traduit aussi par un agrandissement du cercle d'éclairement, dont le rayon devient Ri'.
Tous les défauts optiques présentés précédemment entraînent une dégradation de la qualité de l'image. L'étape de montage optique d'un module est donc habituellement suivie d'une étape de caractérisation du module monté, pendant laquelle il est déterminé si la qualité du montage est suffisamment acceptable ou pas.
Quand un montage est jugé inacceptable, le module en question peut être jeté, ce qui peut impliquer une grande perte de productivité. Une alternative consiste à corriger le montage lui-même, en réajustant mécaniquement le positionnement relatif de ses différents composants. Cette solution est extrêmement coûteuse, et souvent difficile à mettre en œuvre.
La solution généralement adoptée consiste à caractériser un ou plusieurs défauts optiques d'un module capteur-optique, et à en corriger l'effet par un traitement numérique, lorsque cela est possible.
Cette solution est habituellement effectuée en soumettant une scène de référence, comme une mire par exemple, au module capteur-optique afin d'observer en sortie de ce module l'image obtenue. La scène de référence, ainsi que les conditions de prise de vue sont choisies bien spécifiquement afin de tester certaines propriétés du module. Elles peuvent différer en fonction du défaut qu'on cherche à caractériser, ce qui rend l'étape de validation longue et coûteuse.
Une fois l'image acquise, la caractérisation d'un défaut peut être réalisée de plusieurs façons. On peut effectuer une mesure sur l'image. On peut aussi comparer l'image acquise par le module à caractériser à une image de référence représentant la même scène prise dans les mêmes conditions.
Cette étape de caractérisation permet de détecter les modules inutilisables, en utilisant par exemple un critère de qualité applicable sur l'image en sortie du module. Elle permet aussi de catégoriser les modules en fonction de la qualité de leur montage optique. Elle permet enfin de corriger l'effet d'un défaut de positionnement de chaque module par un calibrage individuel de la chaine de traitement d'images associée au module correspondant. On parle alors d'une calibration à l'unité.
Cette solution de calibrage à l'unité, réalisée pour chaque module capteur-optique en phase de production, est extrêmement coûteuse en temps et en argent, si l'on considère les volumes importants de modules capteur-optique à produire pour des marchés grand public.
De plus, si une fois monté dans un appareil quelconque, le module capteur-optique subit un choc comme lors de la chute de l'appareil, ce qui est fréquent avec des appareils photo numériques par exemple, le positionnement relatif du capteur et du dispositif optique va être déréglé, ce qui entraînera une dégradation de la qualité des photographies.
Un but de la présente invention est de proposer un système de capture d'images ne nécessitant pas une étape de calibration telle que décrite plus haut, mais qui peut s'auto- calibrer. L'auto-calibrage d'un tel système peut être utile sur la chaîne de production, mais également postérieurement à son assemblage et en dehors de l'usine de montage, notamment après un choc, sans qu'il ne soit besoin d'une intervention externe.
Elle propose à cet effet un procédé de contrôle d'un système de capture d'images comprenant un capteur incluant une pluralité d'éléments photosensibles et un dispositif optique pour focaliser vers le capteur la lumière émise depuis une scène, le procédé comprenant une étape d'obtention de réponses respectives de certains au moins des éléments photosensibles du capteur à une exposition du système de capture d'images à une scène quelconque, suivie d'une étape de détermination d'au moins un écart entre au moins une grandeur déduite des réponses obtenues et au moins une grandeur de référence.
L'exposition du système de capture d'images à une scène quelconque permet de s'affranchir de la calibration initiale de l'art antérieur qui requiert l'acquisition, dans des conditions maîtrisées, et l'analyse d'une scène de référence, comme une mire. Elle permet aussi de pouvoir effectuer un contrôle du système de capture d'images à tout moment et en tout lieu.
Elle propose aussi un procédé de contrôle comprenant, outre les étapes précédemment décrites dans le paragraphe ci-dessus, une étape d'estimation d'un défaut optique du système de capture d'images à partir dudit écart déterminé. Une étape de mise en œuvre d'une action apte à compenser au moins partiellement le défaut optique estimé peut également être mise en œuvre. L'estimation du défaut optique et/ou sa compensation peuvent être mis en œuvre par le système de capture d'images lui-même, par des moyens situés en aval de ce système (par exemple par un tiers à qui l'on fournit ledit écart déterminé ou une estimation du défaut optique), ou encore de façon partagée par le système de capture d'images et des moyens situés en aval de ce système. Dans une réalisation préférée, les réponses obtenues comprennent les réponses d'éléments photosensibles sensibles au moins à une bande spectrale commune. Ceci permet d'utiliser des réponses relativement homogènes spectralement, sans avoir besoin de faire un traitement égalisateur spécifique à chaque bande spectrale. On peut ainsi détecter indirectement un défaut d'inclinaison entre le capteur et son dispositif optique associé.
De préférence, les réponses obtenues comprennent les réponses d'éléments photosensibles sensibles au moins à la bande spectrale du vert. Ceci permet d'utiliser n'importe quel type de scène pour pouvoir détecter un défaut du module capteur-optique, en plus d'offrir une réponse plus sensible.
Avantageusement, la grandeur déduite des réponses obtenues comprend une comparaison mathématique entre certaines au moins des réponses obtenues. Une telle comparaison mathématique permet de s'affranchir des composantes de la réponse lié au contenu de l'image en tant que tel, et fait ressortir plus distinctement la composante liée au défaut à détecter.
De préférence, certains au moins des éléments photosensibles dont les réponses respectives sont obtenues sont voisins de premier ou de second ordre sur le capteur. Avec une telle proximité, la zone de l'image observée présente une très grande homogénéité, ce qui permettra de s'affranchir des composantes de la réponse lié au contenu de l'image, quelque soit celui-ci.
Avantageusement, les réponses obtenues comprennent les réponses d'une pluralité de paires d'éléments photosensibles dans lequel on détermine, pour chacune desdites paires d'éléments photosensibles, un écart entre une grandeur déduite des réponses des éléments photosensibles appartenant à ladite paire et une grandeur de référence. Ceci permet d'obtenir un écart global qui sera moins sensible aux transitions locales sur une zone particulière de l'image à acquérir.
De préférence, cette pluralité de paires d'éléments photosensibles est positionnée dans une région sélectionnée du capteur. Ainsi, une région du capteur recevant une partie de l'image non soumise à des variations de haute fréquence peut être choisie, ce qui donnera une détermination de défaut plus fiable.
Dans une autre réalisation préférée de l'invention, les réponses obtenues comprennent les réponses d'éléments photosensibles situés en périphérie du capteur. Une telle configuration permet de détecter par exemple un défaut de décentrement optique, ou une information sur l'état de défocalisation de la lentille.
Avantageusement, le capteur comprend une zone centrale de capture d'image et une zone périphérique ne participant pas à la capture d'images, et dans lequel lesdits éléments photosensibles situés en périphérie du capteur appartiennent à ladite zone périphérique. Ceci permet de détecter un défaut de positionnement optique avant que celui-ci n'ait un impact sur la zone centrale du capteur.
Préférentiellement, les réponses obtenues comprennent les réponses d'au moins deux éléments photosensibles positionnés sur un premier axe traversant la zone centrale de capture d'image, de part et d'autre de cette zone centrale. On peut obtenir ainsi une indication sur la direction et le sens du décentrement.
Avantageusement, les réponses obtenues comprennent en outre les réponses d'au moins deux autres éléments photosensibles positionnés sur un deuxième axe, traversant la zone centrale de capture d'image et sensiblement orthogonal au premier axe, de part et d'autre de la zone centrale de capture d'image. Cela permet de caractériser un défaut optique tel qu'un décentrement dans les deux dimensions du capteur.
De préférence, les réponses obtenues comprennent les réponses d'au moins une première pluralité d'éléments photosensibles, positionnés sur un premier axe traversant la zone centrale de capture d'images, appartenant à une première région secondaire du capteur et étant séparés consécutivement les uns des autres d'une distance déterminée, et une deuxième pluralité d'éléments photosensibles, positionnés sur un deuxième axe traversant la zone centrale de capture d'images et sensiblement orthogonal audit premier axe, appartenant à une deuxième région secondaire du capteur distincte de ladite première région secondaire et étant séparés consécutivement les uns des autres d'une distance déterminée. On obtient alors une quantification d'un défaut optique tel qu'un décentrement, dans les deux dimensions du capteur, ce qui permet d'effectuer plus précisément une éventuelle compensation ou de se ramener précisément à un cas permettant une éventuelle compensation.
La présente invention vise par ailleurs un système de capture d'images comportant des moyens pour mettre en œuvre le procédé ci-avant. Ainsi, le système de capture d'images comprend :
- un capteur incluant une pluralité d'éléments photosensibles ;
- un dispositif optique pour focaliser sur le capteur la lumière émise depuis une scène; - un moyen de détermination d'au moins un écart entre au moins une grandeur, déduite de réponses respectives de certains au moins des éléments photosensibles du capteur à une exposition du système de capture d'images à une scène quelconque, et au moins une grandeur de référence.
Ce système comprend en outre avantageusement un moyen d'estimation d'un défaut optique du système de capture d'images à partir dudit écart déterminé, ainsi éventuellement qu'un moyen de compensation au moins partielle du défaut optique estimé.
La présente invention vise aussi un appareil photo numérique comportant un système de capture d'images ci-avant.
D'autres caractéristiques et avantages de l'invention apparaîtront dans la description ci- après d'exemples de réalisation non limitatifs, en référence aux dessins, dans lesquels : - les figures 1 A-1 C, déjà commentées, illustrent un défaut d'inclinaison optique dans un module capteur-optique ;
- les figures 2A-2D, déjà commentées, illustrent un défaut de décentrement dans un module capteur-optique ;
- les figures 3A-3B, déjà commentées, illustrent un défaut de défocalisation dans un module capteur-optique ;
- la figure 4 est un schéma synoptique représentant un système de capture d'images selon un exemple de réalisation de la présente invention ;
- la figure 5 est un organigramme illustrant un procédé de contrôle d'un système de capture d'images selon un exemple de réalisation de la présente invention ; - les figures 6A et 6B illustrent un premier mode de réalisation de l'invention visant à détecter un défaut d'inclinaison optique du module ;
- la figure 7 illustre la notion de voisinage de premier, deuxième et troisième ordres pour des éléments photosensibles d'un capteur ; - la figure 8 montre un exemple particulier de module capteur-optique comprenant un capteur avec un filtre coloré dit de « Bayer » ;
- la figure 9 illustre la notion de champ d'image dans un capteur rectangulaire usuel ;
- la figure 1 OA montre une courbe de caractérisation de l'angle de rayon moyen d'une optique en fonction de la position dans le champ image ; - la figure 1 OB monte une courbe de différence d'intensité reçue entre un élément Gr et Gb en fonction de l'angle d'attaque des rayons lumineux, pour des éléments photosensibles Gr et Gb positionnés à 60% du champ de l'image ;
- la figure 1 OC montre une courbe de caractérisation d'une différence d'intensité reçue entre des éléments Gr et Gb d'un filtre Bayer dans le champ image d'un capteur, selon l'axe X de celui-ci ;
- les figures 1 1 A-1 1 C montrent un premier exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ;
- la figure 12 montre un deuxième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; - la figure 13 montre un troisième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ;
- la figure 14 montre un quatrième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; et
- les figures 15A-15C montrent un cinquième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention.
La figure 4 est un schéma synoptique représentant un exemple de système de capture d'images selon une réalisation possible de la présente invention.
Dans cette figure 4, le système de capture d'images 1 reçoit de la lumière en provenance d'une scène S quelconque à capturer. Le système 1 comprend un dispositif optique L ainsi qu'un capteur C, le dispositif optique L servant à focaliser vers le capteur la lumière émise depuis la scène S pour les focaliser sur le capteur C. Le dispositif optique L et le capteur C forment ce qu'on appelle couramment un module capteur-optique. Le capteur C comprend une pluralité d'éléments photosensibles (par exemple des pixels), chaque élément photosensible, en réponse à une quantité de lumière qu'il reçoit, peut délivrer une intensité électrique pouvant se traduire par une certaine valeur numérique. Ainsi le capteur C transforme la lumière reçue du dispositif optique L en une série de valeurs numériques correspondant à une image sous forme numérique. Cette image numérique brute peut être affectée par certains défauts optiques, dont ceux présentés plus haut.
Pour détecter de tels défauts, le système 1 de la présente invention comprend en outre un moyen de détermination d'au moins un écart DET. Ce moyen de détermination DET, qui peut par exemple prendre la forme d'un module de calcul, au sein d'un processeur par exemple, va recevoir les réponses respectives de certains éléments photosensibles du capteur C à une exposition du système de capture d'images à la scène S, comme expliqué ci-après, et va déduire au moins une grandeur G à partir de ces réponses. Dans certains cas, cette grandeur G pourra être représentative d'un état de positionnement relatif du dispositif optique L par rapport au capteur C.
Le moyen de détermination DET dispose par ailleurs d'au moins une grandeur de référence Gref. Cette grandeur Gref correspond par exemple à une situation où le dispositif optique L et le capteur C seraient positionnés correctement. Elle va servir de mesure étalon à laquelle sera comparée la grandeur G par la suite.
Une telle grandeur de référence Gref peut aussi être définie, entre autres, par caractérisation initiale du capteur C dans différentes conditions, sous plusieurs angles d'éclairement par exemple. Une telle caractérisation ne sera effectuée qu'une seule fois pour un type de capteur, et non pas systématiquement pour chaque montage d'un dispositif optique avec un capteur, par exemple. Une grandeur G obtenue par la suite, lors de l'utilisation courante du système 1 , peut alors être calculée à partir d'une prise de vue quelconque, ne nécessitant pas l'utilisation d'une scène spéciale.
Un écart Δ entre la grandeur G et la grandeur de référence Gref est alors calculé par le moyen de détermination DET. Cet écart Δ donne par exemple une indication sur l'état de positionnement du dispositif optique L par rapport au capteur C. Cet écart Δ peut être par exemple proportionnel à la différence G-Gref entre ces deux grandeurs, ou au rapport G/Gref entre celles-ci. Cet écart Δ peut aussi prendre n'importe quelle autre forme permettant la comparaison mathématique des deux grandeurs G et Gref. Cet écart peut enfin prendre la forme d'un index dans une table de correspondance entre des données de référence, et des données prédéterminées.
Ainsi, avec le système 1 tel qu'introduit ci-avant, il est possible de détecter un défaut optique du module capteur-optique. A partir de cette détection, le système 1 peut avantageusement être calibré de nouveau chez un réparateur ou en usine, par exemple.
En variante, la détection d'un défaut optique du module capteur-optique peut servir à d'autres fins qu'une correction de ce défaut. Elle peut par exemple servir de diagnostic pour le module, sans qu'une correction ultérieure soit réalisée. Une sélection d'un ou plusieurs modules capteurs-optiques peut également être effectuée en tenant compte de leurs défauts optiques respectifs éventuels. D'autres mécanismes de contrôle sont aussi envisageables comme cela apparaîtra à l'homme du métier.
Avantageusement, le système 1 comprend en outre un moyen d'estimation DEF d'un défaut optique et éventuellement un moyen de compensation COMP du défaut optique estimé. Le moyen DEF reçoit l'écart Δ déterminé par le moyen de détermination DET, et estime en fonction de cet écart Δ le type de défaut optique incriminé ainsi que son amplitude. Le moyen DEF envoie alors ces informations au moyen de compensation COMP. Ce moyen de compensation COMP reçoit par ailleurs du capteur C l'image numérique brute affectée par les défauts optiques. En tenant compte des informations provenant du moyen d'estimation DEF, le moyen de compensation COMP va pouvoir compenser le défaut optique déterminé, soit totalement, soit partiellement.
Dans ce cas, la compensation peut se faire sans intervention humaine, par exemple à intervalles de temps périodiques, ou suite à l'apparition de certains événements, comme de chocs subis par le système 1. Une telle auto-calibration est donc bien plus souple que la calibration de l'art antérieur mentionnée en introduction.
La compensation en question peut prendre diverses formes, notamment en fonction du défaut détecté. Elle peut comprendre des actions mécaniques, par exemple un changement d'inclinaison du capteur et/ou du dispositif optique pour réduire ou supprimer un défaut d'inclinaison relatif entre ces éléments, une translation du capteur et/ou du dispositif optique dans un plan sensiblement parallèle au capteur pour réduire ou supprimer un défaut de décentrement relatif entre ces éléments, une translation du capteur et/ou du dispositif optique dans une direction sensiblement orthogonale au capteur pour réduire ou supprimer un défaut de défocalisation de l'optique par rapport au capteur, ou autre. Ces actions mécaniques sont par exemple effectuées à l'aide de moyens mécaniques, éventuellement pilotés de manière électronique.
En variante ou en complément, la compensation susvisée peut comprendre un traitement numérique approprié. Ce traitement numérique peut être mis en œuvre par le système de capture d'images 1 lui-même, par des moyens de traitement numérique situés en aval de ce système, ou bien de façon partagée entre le système de capture d'images 1 et des moyens de traitement numérique en aval.
On donne ci-après deux exemples non limitatifs d'un tel traitement numérique. Bien sûr, d'autres exemples peuvent être envisagés, comme cela apparaîtra à l'homme du métier.
Un défaut de décentrement de l'optique par rapport au capteur peut modifier les propriétés du phénomène de vignetage (illustré à la figure 2C, commentée plus haut). Le phénomène de vignetage « original » (i.e. indépendamment du décentrement) est généralement corrigé de façon numérique soit sur le système de capture, soit par un dispositif spécifique en aval. La correction numérique peut par exemple être basée sur un modèle de correction de vignettage, fonction -entre autres- des coordonnées dans l'image du pixel à traiter, du couple capteur-optique utilisé, etc.
A titre d'illustration, prenons le cas simple d'un modèle radial du vignetage, variant comme un polynôme d'ordre n.
L'équation de correction pour un pixel en position (x,y) sera sous la forme : f(x,y) = somme (a[i] * racine carrée((x-xO)Λ2 + (y-yO)Λ2))Λi), i=0..n), où : xO, yO sont les coordonnées du centre du capteur et a[i] des paramètres liés à l'optique. Dans le cas d'un décentrement (dx,dy) détecté et estimé par la présente invention, on remplace avantageusement, dans le modèle ci-dessus, xO par xO+dx et yO par yO+dx pour compenser numériquement le défaut de décentrement.
Selon un autre exemple, un défaut de défocalisation (comme illustré aux figures 3A et 3B) génère un flou dans l'image, puisque la distance de mise au point n'est pas optimale. La connaissance des caractéristiques de l'optique permet de quantifier le niveau de flou en fonction de la défocalisation. Ainsi, quand on détecte une défocalisation d à l'aide de la présente invention, on peut connaître la quantité de flou qu'elle a générée, et la compenser numériquement par une technique de déflouage (telle qu'une déconvolution ou autre).
Lorsque le système de capture d'images 1 fait partie d'un appareil de capture numérique utilisant des moyens de traitement numérique en aval du système de capture 1 , la compensation réalisée par le moyen de compensation COMP du système 1 peut être partielle et se borner à modifier l'image reçue pour la ramener à une image présentant un certain degré de défaut pouvant être corrigé ensuite par lesdits moyens de traitement numérique situés en aval. Elle peut aussi consister à changer les paramètres du modèle utilisé dans les moyens de traitement situés en aval, sans pour autant affecter l'image.
La figure 5 est un organigramme illustrant un procédé de contrôle d'un système de capture d'images selon un exemple de réalisation de la présente invention, tel que décrit par exemple dans la figure 4.
Lors d'une première étape 100, le moyen de détermination DET obtient des réponses respectives de certains éléments photosensibles du capteur C du système de capture d'images 1 . Ces différents éléments photosensibles sont au moins au nombre de 2.
A la suite de cette étape, le moyen de détermination DET détermine, lors d'une deuxième étape 200, l'écart Δ entre une grandeur G, déduite des réponses obtenues lors de l'étape 100, et une grandeur de référence Gref, déterminée comme expliqué ci-avant. Cet écart permet de détecter un éventuel défaut optique du système de capture, comme par exemple un mauvais positionnement dans le module capteur-optique. Avantageusement, le procédé comprend en outre une étape 300, pendant laquelle le moyen d'estimation DEF estime le défaut optique du système de capture 1 à partir de l'écart Δ déterminé lors de la deuxième étape 200.
II devient alors possible, lors d'une quatrième étape 400, de mettre en œuvre une compensation totale ou partielle du défaut optique estimé au cours de l'étape 300, par le moyen de compensation COMP.
Différents modes de réalisation vont maintenant être présentés afin d'illustrer la présente invention.
Les figures 6A et 6B illustrent le module capteur-optique d'un système de capture d'images selon un premier mode de réalisation de l'invention, visant à détecter par exemple un défaut optique lié à une inclinaison relative entre le capteur et le dispositif optique tel que présenté ci-avant aux figures 1 A-1 C.
Sur ces figures 6A et 6B sont représentées le dispositif optique L et le capteur C du système de capture d'images, sans le boîtier, ni le support d'optique qui peuvent éventuellement le composer, ces derniers éléments n'étant pas essentiels à la compréhension du présent mode de réalisation. Est représenté en outre le moyen de détermination d'un écart DET recevant la réponse de certains éléments du capteur C.
Le capteur C selon l'invention comporte une zone Z dans laquelle est située une pluralité d'éléments photosensibles Zi,Z2,...,Zn. Chacun de ces éléments photosensibles est sensible à une bande spectrale particulière. Parmi tous ces éléments photosensibles, certains peuvent être sensibles à des bandes spectrales dont une partie au moins est commune. Il est aussi possible d'avoir, parmi les éléments photosensibles du capteur C, des éléments photosensibles identiques et donc sensibles à une même bande spectrale.
Le capteur C présente, parmi la pluralité d'éléments photosensibles Zi,Z2,...,Zn, au moins deux éléments photosensibles E1 et E1', situés à des endroits différents du capteur et sensibles au moins à une bande spectrale commune. Du fait de leurs positions différentes, la lumière atteignant ces éléments va provenir d'un angle différent, et par conséquent leurs réponses respectives, en termes d'intensités 1(E1) et 1(E1') représentatives de la quantité de lumière reçue respectivement par chacun de ces deux éléments, vont être différentes. Cette différence de réponse en intensité peut être formulée sous la forme d'un paramètre G, correspondant à la grandeur présentée précédemment, qui est fonction des réponses en intensités électriques 1(E1) et 1(E1').
Lorsque le capteur C et le dispositif optique L sont parfaitement positionnés, comme c'est le cas sur la figure 6A, c'est-à-dire lorsqu'ils ne sont pas inclinés l'un par rapport à l'autre mais se situent dans des plans parallèles, le paramètre G calculé selon l'une des formules précédentes prendra une valeur de référence Gref, correspondant au positionnement optimal en termes de parallélisme du module capteur-optique. Le paramètre de référence Gref peut aussi être calculé à partir de mesures de réponses faites sous éclairage initial du capteur seul, sous certaines conditions particulières, comme par exemple sous des angles d'éclairage particuliers. Une telle valeur de référence Gref peut alors être mémorisée dans le moyen de détermination DET, par exemple.
Lorsque le capteur C et le dispositif optique L ne sont plus parfaitement positionnés, comme c'est le cas sur la figure 6B, c'est-à-dire lorsqu'ils présentent une inclinaison relative l'un par rapport à l'autre d'un angle α, le paramètre G prendra une autre valeur, différente de Gref, qui reflétera indirectement ce défaut d'inclinaison. La comparaison relative de cette valeur G avec la valeur de référence Gref fournira un écart Δ représentant un éventuel défaut d'inclinaison et permettant de détecter ce défaut. Il sera alors possible de faire réparer le système optique par la suite ou, éventuellement de déterminer ce défaut optique et de l'estimer, afin d'entreprendre une action compensatrice dans le système de capture lui-même.
Dans un premier exemple, les éléments E1 et E1', dont la réponse est utilisée par le moyen de détermination DET, peuvent être choisis parmi n'importe lesquels des éléments photosensibles Z, du capteur C, du moment qu'ils sont sensibles au moins à une bande spectrale commune. Ainsi, leurs réponses en intensité auront une forte probabilité d'être substantiellement homogènes en termes de contenu d'image, et peuvent être comparées directement, sans qu'il soit besoin de faire un traitement égalisateur entre des bandes spectrales différentes ayant une réponse spectrale plus ou moins sensible. Avantageusement, la grandeur G déduite de la réponse en intensité des éléments E1 et E1' est fonction d'une comparaison mathématique de ces réponses, comme par exemple une simple fonction de différence G=I(E1J-I(E1'), une différence par rapport à la moyenne G=(I(E1)-I(E1'))/(I(E1)+I(E1')) ou bien un rapport d'intensités G=I(E1VI(E1'). D'autres fonctions peuvent être utilisées dans la mesure où elles sont indicatives d'une différence d'intensité lumineuse reçue par ces deux éléments. Cela permet de s'affranchir, par comparaison mathématique, de la composante d'intensité commune aux deux éléments E1 et E1', correspondant au contenu de l'image acquise dans la bande spectrale commune. On pourra alors plus facilement distinguer la composante d'intensité liée à l'angle d'inclinaison α.
Avantageusement, les deux éléments E1 et E1' dont la réponse est utilisée par le moyen DET sont choisis au voisinage proche l'un de l'autre. Ils sont soit voisins de premier ordre, c'est-à-dire qu'ils sont adjacents l'un à l'autre, soit voisins de second ordre, c'est-à-dire qu'ils ne sont pas adjacents l'un à l'autre mais qu'il existe au moins un autre élément photosensible auquel ils sont tous deux adjacents, par exemple, sans que cet exemple ne soit limitatif. Ce concept de voisinage plus ou moins proche est illustré à la figure 7.
La figure 7 présente un capteur usuel C, vu de dessus, et comprenant une pluralité d'éléments photosensibles. Pour des raisons pratiques et d'efficacité, les éléments photosensibles d'un capteur sont habituellement agencés selon un quadrillage en deux directions. Si l'on part d'un premier élément photosensible V0, les éléments voisins de premier ordre de celui-ci sont ceux qui sont adjacents à V0 selon l'une des deux directions du quadrillage. Ces éléments voisins de premier ordre sont les éléments V1 de la figure 7. Par extension, les éléments voisins V2 de deuxième ordre de V0 sont les éléments voisins de premier ordre des éléments voisins V1 de premier ordre de l'élément V0 cet élément V0 étant lui-même exclu. Par extension, les éléments voisins V3 de troisième ordre de V0 sont les éléments voisins de premier ordre des éléments voisins V2 de deuxième ordre de l'élément V0, en excluant les éléments V1 et ainsi de suite.
Lorsque l'on utilise des éléments E1 et E1' voisins d'un ordre faible pour obtenir la réponse servant à calculer la grandeur G, la probabilité d'avoir des variations de contenu, lors de l'acquisition d'une scène ne contenant pas de forte transition (autrement dit de hautes fréquences), est très faible et la composante de l'intensité reçue qui est liée au contenu de l'image en tant que tel est sensiblement la même sur les deux éléments E1 et E1'.
Dans le cas typique d'un capteur comprenant une répétition régulière d'un motif de base comprenant au moins deux éléments E1 et E1' sensibles au moins à une bande spectrale commune, ceci se traduit par le fait de choisir ces deux éléments E1 et E1' dans le même motif de base, par exemple.
Cette caractéristique avantageuse permet d'obtenir une mesure plus fiable, dans la mesure où l'image acquise peut présenter des zones plus ou moins sombres à différents endroits. Dans un tel cas, comparer l'intensité reçue d'un premier élément situé dans une zone sombre à l'intensité reçue d'un deuxième élément situé dans une zone lumineuse fausserait la mesure de l'angle d'inclinaison α. Si l'on choisit les deux éléments dans une région de taille restreinte, ils vont recevoir une information lumineuse relativement homogène, et donc la comparaison de leurs intensités respectives éliminera de façon plus efficace la composante d'intensité inutile ici, ce qui fera mieux ressortir la composante liée à l'angle α.
L'invention ne se limite pas à utiliser la réponse d'éléments voisins de premier ou de deuxième ordre. On peut imaginer utiliser la réponse d'éléments voisins d'ordres supérieurs, tant que cela permet d'obtenir des réponses relativement homogènes par rapport au contenu spectral de l'image qui est reçu par le capteur C.
Avantageusement, le raisonnement qui vient d'être fait ci-avant avec seulement deux éléments photosensibles E1 et E1 ' peut être fait avec une pluralité de paires d'éléments photosensibles (E1, E1'), avantageusement sensibles à une même bande spectrale commune. Le fait d'augmenter le nombre d'éléments utilisés pour donner une réponse permet de s'affranchir d'éventuelles zones de transition de l'image, dans lequel le procédé ne marcherait plus avec seulement deux éléments, si ces éléments venaient à se trouver de part et d'autre de cette zone de transition. Cela permet en outre de réduire l'effet du bruit sur la mesure.
Dans ce cas, quand le capteur C et le dispositif optique L sont parfaitement parallèles comme sur la figure 6A, au lieu d'obtenir un seul paramètre de référence Gref, on va obtenir une série de paramètres particuliers de références Gref, déterminés pour chaque paire d'éléments photosensibles (E11E1'), en fonction de leur position dans le champ image. De tels paramètres particuliers peuvent être déterminés initialement, par exemple par éclairage du capteur sous différents angles, et mémorisés dans une mémoire associée au système de capture 1 pour effectuer ultérieurement la comparaison. Cette série de paramètres particuliers peut être mémorisée dans le moyen de détermination DET.
Ainsi, quand le capteur C et le dispositif optique L sont inclinés l'un par rapport à l'autre comme sur la figure 6B, on détermine alors, pour chaque paire d'éléments photosensibles (E1, E1') utilisée, des une grandeur (G1) déduite des réponses des éléments photosensibles appartenant à ladite paire en fonction des réponses en intensité 1(E1)J(E1') des deux éléments photosensibles E1 et E1' constituant cette paire. Pour chaque paire (Ei, Ei'), on compare alors la valeur de la grandeur G1 obtenue avec la grandeur de référence correspondante Gref,, afin d'obtenir un écart Δ, particulier à cette paire. Une série d'écarts Δ, particuliers à chaque paire est alors obtenue.
Un écart global ΔG peut éventuellement être calculé à partir de ces écarts particuliers Δ,. Cet écart global ΔG peut être par exemple la moyenne de tous les écarts particuliers Δ,, ou leur valeur médiane, ou toute autre valeur permettant de caractériser globalement l'ensemble de ces écarts particuliers Δ. Une éventuelle estimation postérieure d'un défaut optique du système de capture d'images peut se fonder sur un écart global ΔG. En variante, elle peut se baser sur tout ou partie des écarts particuliers Δ,.
Par exemple, dans le cas illustré aux figures 6A et 6B où deux paires (Ei1E1'), (E21E2') sont utilisées, on obtient 2 écarts particuliers Δi et Δ2, où avec ) et Δ2 =G2-Gref2 avec G2=I(E2J-I(E2) par exemple. On peut alors déterminer un écart global ΔG=(Δ12)/2 correspondant à la moyenne des deux écarts particuliers de chaque paire, à titre d'exemple non limitatif.
Le calcul d'un écart global ΔG de la façon indiquée précédemment est particulièrement avantageux dans le cas où les différentes paires d'éléments photosensibles (E1, E1') dont la réponse est utilisée sont substantiellement voisines les unes des autres. Dans la mesure où la grandeur de référence change en fonction du champ image, on peut aussi envisager, dans le cas où les différentes paires d'éléments photosensibles (E1, E1') dont la réponse est utilisée ne sont pas voisines les unes des autres, de calculer des angles particuliers α, pour chacune des paires afin d'obtenir de ceux-ci un angle d'inclinaison global αG, correspondant par exemple à la moyenne des angles particuliers α,.
Ceci est particulièrement avantageux dans le cas où le capteur C reçoit une image présentant une transition importante, indiquée dans les figures 6A et 6B par une bordure T, entre une zone de faible luminosité à gauche de cet axe T et une zone de forte luminosité à droite de cet axe T. L'utilisation de la seule paire (E11E1') donnerait une mesure faussée, car ces deux éléments étant de chaque côté de la transition, ils présentent des réponses en intensité très contrastées. Le paramètre particulier G1=I(E1)- 1(E1') et par conséquent l'écart particulier A1 peuvent alors prendre des valeurs exagérées ne reflétant pas le degré de l'angle d'inclinaison α, qui peut être relativement faible en comparaison.
Si maintenant on inclut aussi dans le calcul la deuxième paire (E21E2'), on voit ici que ces deux éléments se trouvant du même côté de la transition dans l'image, leur mesure sera beaucoup plus homogène et donnera un paramètre G2 et un écart particulier Δ2 bien plus fiable, qui viendra pondérer l'écart faussé A1 dans le calcul d'un écart global ΔG moyen de ces deux écarts particuliers.
Cet exemple à deux paires d'éléments n'est bien sûr pas limitatif. On peut par exemple prendre la réponse d'un groupe quelconque d'éléments photosensibles E, appartenant à un voisinage d'ordre n (c'est-à-dire que tout élément E1 de ce groupe est voisin d'un ordre inférieur ou égal à n de tout autre élément E1 de ce groupe). On peut alors vérifier que ce groupe d'éléments E1 est associé à une zone homogène de l'image. Si c'est le cas, on peut alors calculer une grandeur G fiable, et en déduire un écart Δ qui permettra de détecter et d'estimer l'angle d'inclinaison α. Si ce groupe n'est pas associé à une zone homogène de l'image, on renonce à l'utiliser pour en choisir un autre, et ainsi de suite.
Avantageusement, lorsque le moyen de détermination DET utilise les réponses d'une pluralité de paires (E11E1'), ces paires appartiennent à une région E sélectionnée du capteur C. Cette région E, qui représente une sous-partie de la surface du capteur, peut être choisie pour recevoir une zone homogène de l'image excluant les zones de hautes fréquences, synonymes de transitions et donc d'erreurs de mesure potentielles. Une telle zone peut être déterminée par des méthodes connues de l'homme de l'art, comme par exemple en utilisant les courbes de bruit du capteur, ou bien en utilisant les informations sur d'autres canaux, situés dans d'autres bandes spectrales que celle des éléments photosensibles utilisés.
Un exemple plus spécifique de ce premier mode de réalisation va être maintenant décrit en détail.
La figure 8 illustre partiellement un système de capture d'images présentant un capteur exemplaire comprenant un exemple répandu de filtre coloré, appelé filtre de Bayer, couramment répandu parmi les appareils de capture d'image numérique actuels.
Dans le système de capture d'images de la figure 8, similaire au système des figures 6A et 6B mais où sont représentés seulement certains éléments spécifiques, le capteur C est formé par la superposition d'un filtre coloré FIL et d'un substrat SUB sensible à la lumière. La lumière, provenant d'une source S et traversant un dispositif optique L tel que décrit précédemment, illumine le filtre coloré F. Celui-ci filtre spatialement la lumière selon différentes bandes spectrales et décompose celle-ci en différents faisceaux lumineux de couleurs différentes, qui vont impacter le substrat SUB en différents endroits. Un tel agencement permet de décomposer la lumière en différentes composantes selon un motif défini, par exemple un quadrillage, ce qui permet un traitement et une transmission d'information plus adaptés.
Il est courant, par exemple, d'utiliser un filtre coloré FIL décomposant la lumière filtrée dans ses trois composantes vert, bleu et rouge. Cela permettra de recevoir, en différents points du substrat, des intensités correspondant à ces différentes composantes afin de les utiliser pour restituer ultérieurement l'image.
Dans le cas présent, le filtre dit « de Bayer » est constitué par la répétition, en deux dimensions, d'un motif de base Mb de 2x2 éléments filtrants, un élément B filtrant le bleu, un élément R filtrant le rouge, et deux éléments Gr et Gb filtrant le vert. La bande spectrale du vert étant la bande centrale du spectre lumineux, cette bande contiendra en général plus d'informations que les autres, et comme de plus l'œil humain est plus sensible à cette bande, le choix d'avoir deux éléments Gr et Gb détectant le vert a été fait avec ce type de filtre.
Un défaut typique touchant ce genre de filtre est ce qu'on appelle le « cross-talk ». Il se traduit ici par le fait que, quand des photons arrivent sur un élément photosensible, ils se trouvent partiellement déviés vers d'autres éléments photosensibles avoisinants. La présente invention utilise un tel phénomène, normalement délétère, dans un sens positif, afin de mieux détecter un défaut optique.
Pour cela, la comparaison des réponses en intensités 1(E1) et 1(E1'), telle qu'expliquée précédemment, va être appliquée aux réponses en intensités de deux éléments Gr et Gb d'un même motif de base Mb d'un filtre de Bayer. Comme ces deux éléments sont proches, ils subissent un phénomène de cross-talk et leur réponse contient donc une composante d'information corrélée, qui pourra être d'autant plus facilement supprimée par la comparaison de leurs deux intensités, ce qui va améliorer l'observation de l'angle d'inclinaison α. Dans le cas présent, la grandeur G telle que définie précédemment va donc être issue de la comparaison de l'intensité I (Gr) reçue par un élément Gr et de l'intensité l(Gb) reçue par un élément Gb d'un même motif de base. Encore une fois, cette comparaison peut être faite par différence, rapport ou différence par rapport à la moyenne entre les deux valeurs d'intensité respectives, entre autres. Dans l'exemple présent, on appelera différence la mesure utilisé pour la comparaison entre ces deux valeurs l(Gr) et l(Gb), exprimée en pourcents.
Afin d'exprimer des valeurs d'intensité en fonction de la position d'éléments photosensibles dans un capteur, la notion de champ d'image est introduite ci-après, car elle permet de mieux comprendre l'exemple abordé. La figure 9 illustre cette notion de champ image.
Le capteur présenté dans l'exemple de cette figure 9 a une forme rectangulaire « 4:3 », c'est-à-dire que sa largeur d'image h équivaut à 4/3 fois sa hauteur d'image v.
Ici, la notion de « champ image » sert à indiquer la distance par rapport au centre du capteur de la figure 9. Par exemple, une position à 100% du champ image correspond à une position sur l'un des sommets du capteur rectangulaire, ce qui correspond à une distance d maximale par rapport au centre égale à la diagonale du rectangle. Si on se place sur un des côtés, on est soit à 80%, soit à 60% du champ image en valeur absolue, le signe indiquant de quel côté par rapport au centre. Enfin, quand on se situe au centre du capteur, on est à 0% du champ image.
La figure 1OA montre une courbe représentant l'angle de rayon moyen (« CRA » en anglais) caractéristique d'une optique, en fonction de leur position dans le champ image. Une telle courbe est une caractérisation du dispositif optique associé au capteur, et ne dépend pas du capteur. Par exemple, à une position de 60% du champ image, l'angle de rayon moyen est de 20°.
La figure 10B montre une courbe de caractérisation de la différence entre des éléments photosensibles Gr et Gb, exprimée en pourcents, pour un capteur donné, en fonction de l'angle d'attaque des rayons sur ceux-ci, pour une position donnée dans le champ image. Dans cet exemple, la position donnée correspond à 60% du champ sur l'axe X du capteur. Cette courbe ne dépend pas du dispositif optique associé au capteur.
Si maintenant on considère un dispositif optique caractérisée par son CRA représenté dans la figure 10A, montée sur un capteur caractérisé par le cross-talk à 60% du champ donné par la figure 10B, on s'attend alors à avoir, à 60% du champ image, une différence de 0% entre Gr et Gb. On obtient alors la grandeur de référence Gref pour cette position, telle qu'expliquée précédemment, servant à déterminer l'écart Δ selon l'étape 200 du premier mode de réalisation.
Pour un module constitué du dispositif optique monté sur le capteur, tels que décrits dans le paragraphe précédent, la figure 10C montre un relevé de la différence, en pourcents, entre les intensités reçues par des éléments photosensibles Gr et Gb appartenant au même motif de base, ceci en fonction de la position suivant un axe horizontal X d'un capteur rectangulaire. Les abscisses sont exprimées en champ image, comme expliqué précédemment.
Pour obtenir une telle courbe, on peut par exemple éclairer un capteur tel que décrit à la figure 8 lors d'une phase initiale et observer la réponse de deux éléments Gr et Gb d'un même motif en différents endroits le long de l'axe horizontal X. Le pourcentage de différence entre les deux intensités sera mesuré pour chaque valeur de position dans le champ de l'image, ce qui donne la courbe de caractérisation de la figure 1 OC.
On remarque sur cette courbe que plus on s'éloigne du centre, plus la différence entre les éléments Gr et Gb est importante. Ceci est directement lié à l'angle moyen du dispositif optique, croissant en fonction de la position dans le champ image.
A partir de la figure 1 OC, on peut remarquer que pour une paire d'éléments photosensibles situés à environ 60% du champ, une différence entre l'élément Gr et l'élément Gb de l'ordre de -5% est mesurée. Cette mesure correspond à un angle d'attaque de rayon de 30% d'après la courbe de la figure 1 OB. Or, il apparait d'après la courbe de référence de la figure 1 OC qu'à 60% du champ, l'angle d'attaque du rayon devrait être de 20% pour un positionnement normal. On en déduit donc que l'angle d'inclinaison α vaut 30-20=10°.
De la même façon que précédemment, on peut aussi obtenir la réponse des éléments Gr et Gb appartenant à des motifs de base voisins Mb, Mb1 , Mb2 et Mb3 dans une région définie du capteur. On va alors obtenir une série de valeurs permettant de moyenner la mesure et donc de s'affranchir de phénomènes de transition éventuels. Plus on augmente le nombre de motifs de bases utilisés, plus on aura une mesure moyennée, et donc affranchie du bruit, en augmentant toutefois la probabilité de rencontrer une zone inhomogène de l'image.
Il est à noter qu'une telle estimation de la différence entre les intensités reçues par les éléments photosensibles Gr et Gb d'un module peut être réalisée à partir d'une image, à partir d'une zone de l'image ou à partir d'un ensemble de zones de l'image. De plus, une telle estimation de la différence entre les intensités des éléments Gr et Gb est aussi possible sur un flux vidéo, sur une version sous échantillonnée de l'image.
De préférence, l'estimation peut se faire avec une connaissance préalable du modèle de variation du cross talk entre éléments Gr et Gb, telle qu'illustrée à la figure 1 OC. Les mesures effectuées sur l'image servent donc à s'adapter à un modèle paramétrique, ce qui permet de diminuer les erreurs dues aux mesures, et d'avoir des applications plus poussées à partir de ces estimations. Dans l'exemple cité ici, on a utilisé des éléments photosensibles sensibles à la couleur verte pour mesurer le défaut d'inclinaison, car le filtre de Bayer présente la particularité d'avoir une microstructure avec deux éléments verts décalés. L'utilisation de cette bande spectrale particulière est avantageuse, car d'une part, la réponse spectrale dans cette bande est plus sensible, notamment celle de l'œil humain. D'autre part, cette bande spectrale se situant au milieu du spectre optique, la plupart des images auront des composantes dans cette bande, en tout cas beaucoup plus qu'avec les autre bandes spectrales rouge et bleue. Ainsi, n'importe quelle image peut être utilisée ici pour détecter un angle d'inclinaison relatif, sans qu'on n'ait besoin de faire un choix spécifique d'un certain type d'image pour réaliser la mesure. Cependant, l'invention ne se limite pas à cet exemple, et n'importe quels éléments sensibles à une autre couleur peuvent être utilisés.
D'autres exemples de module capteur-optique d'un système de capture d'images, selon un deuxième mode de réalisation de l'invention visant à détecter un défaut de décentrement ou de défocalisation de ce module, vont être présentés maintenant.
La figure 11 A présente une vue de dessus d'un capteur C appartenant à un module capteur-optique similaire à ceux présentés ci-avant. Un tel capteur présente avantageusement une zone centrale de capture d'images Z, comprenant un certain nombre d'éléments photosensibles Z, dédiés à la capture des photons incidents pour en restituer une image, entourée d'une zone périphérique P qui ne comprend pas de pixels dédiés spécifiquement à la capture d'images et ne participant donc pas à la capture d'images. La zone centrale Z est décrite dans cet exemple comme étant rectangulaire, avec un centre Oz situé à l'intersection de ses diagonales, c'est-à-dire à l'intersection de ses deux axes de symétrie orthogonaux X et Y. Cependant, toute autre forme de zone de capture d'images peut être envisagée ici, comme une forme circulaire par exemple.
Le dispositif optique L, associé au capteur C dans le système de capture d'image de la présente invention et non représenté sur cette vue de dessus, va éclairer le capteur C avec la lumière provenant de la source S, et ceci selon une zone d'éclairement dont la forme dépendra de la forme du dispositif L lui-même. Dans l'exemple présent, le dispositif optique L est de forme circulaire et va donc présenter un cercle d'éclairement Uf sur le capteur C, l'intensité lumineuse reçue en dehors de ce cercle d'éclairement lref étant quasi nulle. La taille de ce cercle dépendra de la distance séparant le dispositif optique L et le capteur C, comme illustré sur les figures 3A et 3B ci-avant.
L'exemple de la figure 1 1 A représente le cas où le dispositif optique L est centré sur le capteur C, c'est-à-dire le cas où le centre du cercle d'éclairement lref et le centre Oz de la zone centrale Z coïncident, et où une distance de focalisation F optimale sépare le dispositif optique L et le capteur C. Le cercle d'éclairement lref présente alors un rayon R|ref et constitue un cercle d'éclairement de référence, correspondant à un positionnement optimal du dispositif optique L en termes de décentrement et de focalisation par rapport au capteur C.
En plus des éléments photosensibles Z1 dédiés spécifiquement à la capture d'images, le capteur C présente un certain nombre d'éléments photosensibles P1, situés dans la zone périphérique P du capteur C et dont la réponse va permettre de détecter un défaut de décentrement ou de défocalisation tels qu'illustrés respectivement aux figures 2A-2D et 3A-3B ci-avant. Ces éléments photosensibles P1 peuvent par exemple présenter une réponse numérique binaire, c'est-à-dire fournir une réponse « 0 » quand l'intensité lumineuse reçue est inférieure à un premier seuil et fournir une réponse « 1 » quand l'intensité lumineuse reçue est supérieure à un deuxième seuil, supérieur au premier seuil. L'invention ne se limite cependant pas à ce type d'élément photosensible, et tout type d'élément permettant de distinguer un niveau de haute intensité lumineuse d'un niveau de basse intensité lumineuse peut être employé ici.
Dans l'exemple présent, le capteur C présente un premier élément photosensible Pi situé à l'intérieur du cercle d'éclairement de référence U, ainsi qu'un deuxième élément photosensible P2 situé à l'extérieur du cercle d'éclairement de référence lref. La réponse de ces deux éléments P1 et P2 peut servir à déterminer une grandeur de référence Gref, par exemple par la somme des intensités lumineuses reçues par P1 et P2 suivant la formule Gref=l(P1)+l(P2). Dans le cas présent, en considérant qu'un élément photosensible P1 reçoit soit une intensité non nulle quand il se situe dans le cercle d'éclairement, soit une intensité proche de zéro quand il se situe en dehors de celui-ci, et en utilisant des éléments photosensibles P1 avec une réponse binaire, la valeur de Gref sera non nulle. La figure 11 B illustre deux cas où le dispositif optique L est décentré par rapport au capteur C selon la direction de son axe X.
Dans un premier cas où le dispositif optique L est décalé vers la droite du capteur C, il va projeter un cercle d'éclairement I1 de centre On sur le capteur C. Dans ce cas, les deux éléments P1 et P2 appartiennent au cercle d'éclairement I1 et la grandeur G, déterminée à partir de leur réponse en intensité de façon identique à la grandeur de référence Gref, aura une valeur égale à 2. En déterminant alors un écart Δ entre cette grandeur G et la grandeur de référence Gref, par un calcul tel que décrit précédemment, le fait que cet écart Δ soit substantiel sera indicatif d'un défaut de décentrement. Si par exemple, l'écart
Δ correspond à la différence entre G et Gref, Δ n'est plus nul mais prend ici la valeur
« 1 », indicative d'un défaut de positionnement optique.
Dans un deuxième cas où le dispositif optique L est décalé cette fois-ci vers la gauche du capteur C, celui-ci va projeter un cercle d'éclairement I2 de centre O,2 sur le capteur C.
Dans ce cas, les deux éléments P1 et P2 n'appartiennent plus au cercle d'éclairement I2 et la grandeur G, déterminée toujours de façon identique à la grandeur de référence Gref, aura une valeur nulle. Encore une fois, la détermination d'un écart Δ substantiel entre cette grandeur G et la grandeur de référence Gref (ici par exemple, Δ=G-Gref=-1 ) sera indicatif d'un défaut de positionnement optique.
La figure 11 C illustre deux autres cas où le dispositif optique L est cette fois-ci défocalisé par rapport au capteur C.
Dans un premier cas où la distance entre le dispositif optique L et le capteur C est plus grande que la distance de focalisation optimale F, le cercle d'éclairement I3 projeté sur le capteur C sera plus grand que le cercle d'éclairement de référence Uf. Dans ce cas, les deux éléments P1 et P2 appartiennent au cercle d'éclairement I3, similairement au cas du décentrement du dispositif optique L vers la droite du capteur C présenté précédemment à la figure 1 1 B et la grandeur G, déterminée similaire aux cas précédents, aura une valeur « 2 ». La détermination d'un écart Δ entre cette grandeur G et la grandeur de référence Gref (par exemple Δ=G-Gref=1 ) sera donc indicative d'un défaut de positionnement optique. Dans un deuxième cas où la distance entre le dispositif optique L et le capteur C est plus petite que la distance de focalisation optimale, le cercle d'éclairement I4 projeté sur le capteur C sera cette fois-ci plus petit que le cercle d'éclairement de référence Uf. Dans ce cas, les deux éléments P1 et P2 n'appartiennent plus au cercle d'éclairement I4, similairement au cas du décentrement du dispositif optique L vers la gauche du capteur C présenté précédemment à la figure 1 1 B et la grandeur G, déterminée à partir de leur réponse en intensité de façon identique à la grandeur de référence Gref, aura une valeur nulle. La détermination d'un écart Δ entre cette grandeur G et la grandeur de référence Gref (par exemple Δ=G-Gref=-1 ) sera donc encore une fois indicative d'un défaut de positionnement optique.
Avec le premier exemple de capteur présenté ci-dessus, un défaut optique de type décentrement ou défocalisation peut donc être détecté, sans pouvoir nécessairement être distingué. Les exemples suivants de capteur permettent avantageusement de distinguer le type défaut optique incriminé.
Un deuxième exemple de capteur C est représenté vu de dessus, sur la figure 12. Ce capteur C est similaire à celui-ci présenté aux figures 1 1 A-1 1 C, à la différence qu'il présente deux éléments photosensibles P3 et P4, situés dans la zone périphérique P, par exemple à l'intérieur du cercle d'éclairement Uf, et sur un axe Y passant par le centre Oz de la zone rectangulaire centrale Z, avantageusement à égale distance du centre Oz de celle-ci, afin d'obtenir une information plus concrète. Cet axe Y peut par exemple être un axe de symétrie de la zone Z. La grandeur de référence Gref peut correspondre à la somme des réponses des deux éléments P3 et P4 par exemple, ce qui donne ici une valeur de « 2 ».
Si maintenant, dans un premier cas, le dispositif optique L se décentre le long de l'axe Y, vers le bas par exemple, l'élément P3 ne sera plus éclairé tandis que l'élément P4 le restera. La grandeur G n'aura plus alors qu'une valeur de « 1 ». Si dans un deuxième cas, le dispositif optique L se rapproche du capteur C, le cercle d'éclairement va se rétrécir au point où les deux éléments P3 et P4 ne seront plus éclairés. La grandeur G prendra alors une valeur nulle. A contrario, avec des éléments P3 et P4 situés à l'extérieur du cercle d'éclairement Uf, on peut détecter de la même façon un éloignement du dispositif optique L par rapport au capteur C. La détermination de l'écart Δ entre la grandeur G obtenue et la grandeur de référence Gref permet alors de distinguer le type défaut optique incriminé. En effet, si l'on considère par exemple que l'écart Δ correspond à la différence entre G et Gref, alors cet écart Δ sera « 1 » en valeur absolue quand il y a un décentrement, et la « 2 » en valeur absolue quand il y a rapprochement du dispositif optique L et du capteur C. L'écart Δ est donc bien indicatif du type de défaut.
Dans ce deuxième exemple de la figure 12, un décentrement selon l'axe Y de la zone Z peut être détecté et discriminé d'un défaut lié au rapprochement trop important du dispositif optique L par rapport au capteur C.
Un troisième exemple, illustré à la figure 13, consiste à extrapoler l'exemple de la figure 12 en utilisant en outre la réponse de deux autres éléments photosensibles P5 et P6, toujours situés dans la zone périphérique P, à l'intérieur du cercle d'éclairement lref et sur l'axe X de symétrie de la zone rectangulaire centrale Z, à égale distance du centre Oz de celle-ci. La grandeur de référence Gref peut alors correspondre à une paire de grandeur de référence relative (Grefi, Gref2) correspondant respectivement à la somme des réponses des éléments P3 et P4 ainsi que des éléments P5 et P6 par exemple. La grandeur de référence Gref prendra ici la valeur (2,2).
Avec l'exemple de la figure 13, il est maintenant possible de détecter et de discriminer aussi bien un décentrement le long de l'axe X que de l'axe Y, en déterminant un écart Δ correspondant par exemple aux différences respectives des grandeurs relatives Gi et G2 associées respectivement aux paires d'éléments (Pa1P4) et (P5, P6), et de leurs grandeurs de références Grefi et Gref2 associées.
Par exemple, si la grandeur G prend la valeur (1 ,2), avec G1=I et G2=2, l'écart Δ, calculé comme (GrGrefi,G2-Gref2) prend alors la valeur (1 ,0), ce qui indique un décentrement selon l'axe Y. Si la grandeur G prend la valeur (2,1 ), l'écart Δ prend alors la valeur (0,1 ), ce qui indique un décentrement selon l'axe X. Enfin, si la grandeur G prend la valeur (0,0), l'écart Δ prend alors la valeur (2,2), ce qui indique un défaut de focalisation du au rapprochement du dispositif optique L par rapport au capteur C. Dans ce troisième exemple de la figure 13, un décentrement selon l'axe Y ou l'axe X de la zone Z peut être détecté et discriminé d'un défaut lié au rapprochement trop important du dispositif optique L par rapport au capteur C.
Un quatrième exemple, illustré à la figure 14, consiste à extrapoler l'exemple de la figure 13 en utilisant en outre la réponse de quatre autres éléments photosensibles P3',P4',P5'et P6' situés dans la zone périphérique P, à l'extérieur du cercle d'éclairement lref, sur les axe X et Y de la zone rectangulaire centrale Z, à égale distance du centre Oz de celle-ci. La grandeur de référence Gref peut alors correspondre à une série de quatre grandeurs Gref, de référence relatives à chacune des paires d'éléments (P1, P1'), correspondant par exemple à la somme des réponses des éléments P1 et P1' associés. La grandeur de référence globale Gref prendra ici la valeur (1 ,1 ,1 ,1 ).
Avec l'exemple de la figure 14, il devient maintenant possible de détecter et de discriminer non seulement un décentrement le long de l'axe X ou de l'axe Y, mais aussi un défaut de focalisation dû aussi bien au rapprochement qu'à l'éloignement relatif du dispositif optique
L par rapport au capteur C. Ceci est obtenu en déterminant un écart Δ correspondant par exemple à la série des différences respectives des grandeurs relatives G1 aux paires éléments (P1, P1') et des grandeurs de références relatives Gref, à ces mêmes paires (P1, P1').
Par exemple, si la grandeur globale G prend la valeur (0,0,0,0), c'est-à-dire si plus aucun élément n'est éclairé, l'écart Δ prend alors la valeur (-1 ,-1 ,-1 ,-1 ), indiquant ainsi un défaut de focalisation dû au rapprochement du dispositif optique L par rapport au capteur C. A l'inverse, si la grandeur globale G prend la valeur (2,2,2,2), c'est-à-dire si tous les éléments sont éclairés, l'écart Δ prend alors la valeur (1 ,1 ,1 ,1 ), indiquant ainsi un défaut de focalisation dû cette fois à l'éloignement du dispositif optique L par rapport au capteur C.
Avec les exemples présentés aux figures 12 à 14, il est possible de détecter et discriminer un défaut optique de type décentrement ou défocalisation. Le cinquième exemple suivant permet en outre d'estimer l'amplitude du défaut détecté, afin de pouvoir effectuer éventuellement une action compensatrice. La figure 15A présente une vue de dessus d'un capteur C similaire à celui présenté aux figures 12-14 précédentes. Un tel capteur présente des régions secondaires Pa, Pb, Pc et Pd, appartenant à la région périphérique P, dans lesquelles se trouvent respectivement un certain nombre d'éléments photosensibles Pa1, Pb1, Pc1 et Pd1 situés sur les axes de symétrie X ou Y de la zone centrale Z. Dans l'exemple présent, chaque région secondaire comprend quatre éléments photosensibles, mais la présente invention n'est pas limitée à un tel nombre. De même, la définition d'un nombre différents de régions secondaires est également envisageable. A titre d'exemple, seules les régions secondaires Pa et Pb pourraient être exploitées.
Dans une région secondaire, comme la région Pa par exemple, les quatre éléments photosensibles Pa1 sont espacés consécutivement les uns les autres d'une distance déterminée ε. On peut utiliser cette distance d'espacement dans toutes les régions secondaires, ou bien chaque région peut disposer de sa propre distance d'espacement entre les éléments photosensibles.
Le capteur de la figure 15A est illuminé par un cercle d'éclairement lref identique à celui de la figure 1 1 A, c'est-à-dire correspondant au positionnement optimal du dispositif optique L par rapport au capteur C en termes de focalisation et de décentrement. Dans le cas présent, le cercle d'éclairement Uf traverse toutes les régions secondaires. Par exemple, dans le cas de la région Pa, le cercle d'éclairement lref passe entre les éléments Pa2 et Pa3, ce qui implique que les éléments Pai et Pa2 sont substantiellement bien éclairés tandis que les éléments Pa3 et Pa4 le sont peu, voire pas du tout. On peut définir une grandeur de référence Grefa relative à la région Pa, correspondant à l'éclairement de la région Pa par un dispositif optique L correctement positionné. Une telle grandeur peut par exemple être la somme des intensités reçues par les éléments photosensibles de la région Pa. Ici, cette somme équivaut à la valeur « 2 » et reflète le fait que le cercle d'éclairement passe entre les éléments Pa2 et Pa3. Un calcul similaire peut être fait pour chacune des autres régions secondaires.
La figure 15B illustre maintenant le cas où le dispositif optique L est décentré par rapport au capteur C selon la direction de son axe X. Dans ce cas, et en l'absence de modification de la distance entre le dispositif L et le capteur C, le cercle d'éclairement I5 de centre O,5 passe cette fois-ci entre les éléments photosensibles Pc3 et Pc4 de la région secondaire Pc, ainsi qu'entre les éléments photosensibles Pd2 et Pdi de la région secondaire Pd. La grandeur Gd relative à la région Pd va donc diminuer par rapport au cas optimal et prendre la valeur « 1 » dans l'exemple présent, tandis que la grandeur Gc relative à la région Pc va augmenter par rapport au cas optimal et prendre la valeur « 3 ».
Par l'écart entre les grandeurs relatives aux régions Pa-Pd (prenant ici les respectivement valeurs « 2 », « 2 », « 3 »,« 1 ») et les grandeurs de références relatives à ces mêmes régions (qui ont toutes la valeur « 2 » dans le cas présent), on a l'information d'un décentrement du dispositif optique L vers la droite du capteur C ainsi que son niveau d'amplitude avec une incertitude correspondant à la distance ε entre les éléments photosensibles d'une même région. On peut par ailleurs vérifier ici, par la détermination du point de passage du cercle d'éclairement dans les différentes régions secondaires, la taille du cercle d'éclairement, et donc son éventuelle défocalisation. Dans le cas présent, l'écart déterminé permet de conclure que la distance de focalisation n'est pas modifiée.
La figure 15C illustre deux autres cas où cette fois-ci le dispositif optique L est défocalisé par rapport au capteur C, en l'absence de décentrement entre le dispositif L et le capteur C
Dans un premier cas, le cercle d'éclairement I6 passe cette fois-ci entre les premiers et les deuxièmes éléments photosensibles de chaque région secondaire. Les grandeurs G, relatives à chaque région vont donc diminuer par rapport au cas optimal et prendre la valeur « 1 » dans l'exemple présent. La comparaison de ces grandeurs G, relatives avec les grandeurs relatives de référence Gref,, qui ont la valeur « 2 » dans l'exemple présent, va indiquer une diminution du rayon du cercle d'éclairement, et donc une diminution de la distance séparant le capteur C du dispositif optique L. Le fait que les grandeurs relatives aux régions secondaires opposées diminuent simultanément d'un même ordre signifie qu'il n'y a pas de défaut de décentrement.
La connaissance des points de passage du cercle d'éclairement I6 dans les régions secondaires permet de calculer son rayon R,6 avec une incertitude correspondant à deux fois la distance ε entre deux éléments photosensibles consécutifs d'une même région secondaire. A partir de ce rayon, et connaissant l'angle solide d'éclairement θ, on peut déduire la distance Fi6 séparant ici le capteur C du dispositif optique L par la relation tan(θ)= R|6/F|6. On obtient alors une mesure du degré de défocalisation du module capteur-optique.
Dans un deuxième cas, le cercle d'éclairement I7 passe cette fois-ci entre les deuxièmes et les troisièmes éléments photosensibles de chaque région secondaire. Les grandeurs G1 relatives à chaque région vont donc augmenter par rapport au cas optimal et prendre la valeur « 3 » dans l'exemple présent. La comparaison de ces grandeurs G1 relatives avec les grandeurs relatives de référence Gref,, qui ont toujours la valeur « 2 » dans l'exemple présent, va indiquer une augmentation du rayon du cercle d'éclairement, et donc une augmentation de la distance séparant le capteur C du dispositif optique L. Encore une fois, le fait que les grandeurs relatives aux régions secondaires opposées augmentent simultanément dans les mêmes proportions signifie qu'il n'y a pas de défaut de décentrement.
Similairement au cas précédent, la connaissance des points de passage du cercle d'éclairement I7 dans les régions secondaires permet de calculer son rayon R,7 avec une incertitude correspondant à deux fois la distance ε entre deux éléments photosensibles consécutifs d'une même région secondaire. A partir de ce rayon, et connaissant l'angle solide d'éclairement θ, on peut déduire la distance F,7 séparant ici le capteur C du dispositif optique L par la relation tan(θ)= R|7/F|7. On obtient alors une mesure du degré de défocalisation du module capteur-optique.
Dans les exemples des figures 1 1 A à 15C, chaque défaut optique a été présenté séparément dans un souci de simplification. Il est évident cependant qu'un défaut de décentrement peut se produire simultanément à un défaut de focalisation. Le module capteur-optique présenté aux figures 15A-15C, de par sa configuration, sera à même de détecter et d'estimer chacun des défauts indépendamment l'un de l'autre.
Les deux modes de réalisation précédents ont été présentés séparément. Il est cependant bien évident qu'un système selon l'invention peut combiner ces deux modes de réalisation et utiliser simultanément la réponse de certains éléments photosensibles dédiés à la capture d'images, dans l'esprit de ce qui est fait aux figures 6A et 6B, ainsi que la réponse de certains éléments photosensibles situés dans une zone périphérique P du capteur, dans l'esprit de ce qui est fait aux figures 1 1A ou 15A. Un tel système permet alors de détecter, et éventuellement compenser, aussi bien un défaut d'inclinaison qu'un défaut de décentrement ou un défaut de focalisation du module capteur-optique.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation ci-dessus décrits et représentés, à partir desquels on pourra prévoir d'autres modes et d'autres formes de réalisation, sans pour autant sortir du cadre de l'invention.
En particulier, lorsque le contrôle du système de capture d'images inclut l'estimation d'un défaut optique, par exemple à des fins de compensation, ce dernier peut être l'un des défauts optiques mentionnés plus haut, ou bien tout autre défaut optique envisageable et détectable à partir de réponses respectives de certains au moins des éléments photosensibles du capteur.

Claims

Revendications
1. Procédé de contrôle d'un système de capture d'images (1 ) comprenant un capteur (C) incluant une pluralité d'éléments photosensibles (Z1, Z2, Zn) et un dispositif optique (L) pour focaliser vers le capteur la lumière émise depuis une scène (S), le procédé comprenant les étapes suivantes :
/1/ obtention (100) de réponses respectives de certains au moins des éléments photosensibles (Ei, E/, Pi, P2) du capteur à une exposition du système de capture d'images à une scène (S) quelconque ; et
121 détermination (200) d'au moins un écart (Δ) entre au moins une grandeur (G) déduite des réponses obtenues et au moins une grandeur de référence (Gref).
2. Procédé de contrôle selon la revendication 1 , comprenant en outre l'étape suivante :
/3/ estimation (300) d'un défaut optique du système de capture d'images (1 ) à partir dudit écart (Δ) déterminé.
3. Procédé de contrôle selon la revendication 2, comprenant en outre l'étape suivante :
IAI mise en œuvre d'une action apte à compenser (400) au moins partiellement le défaut optique estimé.
4. Procédé de contrôle selon l'une des revendications précédentes, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles (E1, E1') sensibles au moins à une bande spectrale commune.
5. Procédé de contrôle selon la revendication 4, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles (E1, E1') sensibles au moins à la bande spectrale du vert.
6. Procédé de contrôle selon l'une quelconque des revendications précédentes, dans lequel la grandeur (G) déduite des réponses obtenues comprend une comparaison mathématique entre certaines au moins desdites réponses obtenues.
7. Procédé de contrôle selon l'une quelconque des revendications précédentes, dans lequel certains au moins des éléments photosensibles dont les réponses respectives sont obtenues sont voisins de premier ou de second ordre sur le capteur (C).
8. Procédé de contrôle selon l'une quelconque des revendications précédentes, dans lequel lesdites réponses obtenues comprennent les réponses d'une pluralité de paires d'éléments photosensibles ((E1, E1 1^(E2, E2')), dans lequel on détermine, pour chacune desdites paires d'éléments photosensibles (E1, E1'), un écart (A1) entre une grandeur (G1) déduite des réponses des éléments photosensibles appartenant à ladite paire et une grandeur de référence (Gref,).
9. Procédé de contrôle selon la revendication 8, dans lequel ladite pluralité de paires d'éléments photosensibles ((E1, E1'), (E2, E2')) est positionnée dans une région (E) sélectionnée du capteur (C).
10. Procédé de contrôle selon l'une des revendications précédentes, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles (P1, P2) situés en périphérie du capteur (C).
1 1 . Procédé de contrôle selon la revendication 10, dans lequel le capteur (C) comprend une zone centrale (Z) de capture d'images et une zone périphérique (P) ne participant pas à la capture d'images, et dans lequel lesdits éléments photosensibles (P11P2) situés en périphérie du capteur appartiennent à ladite zone périphérique (P).
12. Procédé de contrôle selon la revendication 10 ou 1 1 , dans lequel les réponses obtenues comprennent les réponses d'au moins deux éléments photosensibles (Pa1P4) positionnés sur un premier axe (Y) traversant la zone centrale (Z) de capture d'images, de part et d'autre de ladite zone centrale (Z).
13. Procédé de contrôle selon la revendication 12, dans lequel les réponses obtenues comprennent en outre les réponses d'au moins deux autres éléments photosensibles (P5, P6) positionnés sur un deuxième axe (X), traversant la zone centrale (Z) de capture d'images et sensiblement orthogonal audit premier axe (Y), de part et d'autre de ladite zone centrale (Z).
14. Procédé de contrôle selon l'une quelconque des revendications 1 1 à 13, dans lequel les réponses obtenues comprennent les réponses d'au moins une première pluralité d'éléments photosensibles (Pai,Pa2), positionnés sur un premier axe (Y) traversant la zone centrale (Z) de capture d'images, appartenant à une première région secondaire (Pa) du capteur et étant séparés consécutivement les uns des autres d'une distance déterminée, et une deuxième pluralité d'éléments photosensibles (Pci,Pc2), positionnés sur un deuxième axe (X) traversant la zone centrale (Z) de capture d'images et sensiblement orthogonal audit premier axe (Y), appartenant à une deuxième région secondaire (Pc) du capteur distincte de ladite première région secondaire et étant séparés consécutivement les uns des autres d'une distance déterminée.
15. Système de capture d'images pour la mise en œuvre du procédé selon l'une des revendications précédentes, comprenant :
- un capteur (C) incluant une pluralité d'éléments photosensibles (Z1, Z2, Zn);
- un dispositif optique (L) pour focaliser sur le capteur la lumière émise depuis une scène;
- un moyen (DET) de détermination d'au moins un écart (Δ) entre au moins une grandeur (G), déduite de réponses respectives de certains au moins des éléments photosensibles
(Ei,Ei',Pi,P2) du capteur à une exposition du système de capture d'images à une scène (S) quelconque, et au moins une grandeur de référence (Gref).
16. Système de capture d'images selon la revendication 15, comprenant en outre un moyen d'estimation (DEF) d'un défaut optique du système de capture d'images à partir dudit écart déterminé.
17. Système de capture d'images selon la revendication 16, comprenant en outre un moyen de compensation (COMP) au moins partielle du défaut optique estimé.
18. Appareil photo numérique comprenant un système de capture d'images selon l'une quelconque des revendications 15 à 17.
EP10706293A 2009-01-14 2010-01-11 Controle de defauts optiques dans un systeme de capture d'images Withdrawn EP2377306A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0950192A FR2941067B1 (fr) 2009-01-14 2009-01-14 Controle de defauts optiques dans un systeme de capture d'images
PCT/FR2010/050034 WO2010081982A1 (fr) 2009-01-14 2010-01-11 Controle de defauts optiques dans un systeme de capture d'images

Publications (1)

Publication Number Publication Date
EP2377306A1 true EP2377306A1 (fr) 2011-10-19

Family

ID=40532679

Family Applications (1)

Application Number Title Priority Date Filing Date
EP10706293A Withdrawn EP2377306A1 (fr) 2009-01-14 2010-01-11 Controle de defauts optiques dans un systeme de capture d'images

Country Status (4)

Country Link
US (1) US8634004B2 (fr)
EP (1) EP2377306A1 (fr)
FR (1) FR2941067B1 (fr)
WO (1) WO2010081982A1 (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010055809A1 (fr) * 2008-11-12 2010-05-20 コニカミノルタオプト株式会社 Procédé de réglage de dispositif d'imagerie et dispositif d'imagerie
US8350934B2 (en) 2010-10-21 2013-01-08 Taiwan Semiconductor Manufacturing Co., Ltd. Color image sensor array with color crosstalk test patterns
US8924168B2 (en) 2011-01-27 2014-12-30 General Electric Company Method and system to detect actuation of a switch using vibrations or vibration signatures
TW201326738A (zh) * 2011-12-16 2013-07-01 Hon Hai Prec Ind Co Ltd 相機模組檢測裝置及檢測方法
JP2019009653A (ja) * 2017-06-26 2019-01-17 アイホン株式会社 インターホン機器におけるカメラモジュールの調整方法
EP3853593A4 (fr) 2018-09-20 2021-11-17 Siemens Healthcare Diagnostics, Inc. Systèmes, procédés et appareil de vérification de diagnostic autonome de composants optiques de systèmes d'inspection fondés sur la vision
US11277544B2 (en) 2019-08-07 2022-03-15 Microsoft Technology Licensing, Llc Camera-specific distortion correction
US11663704B2 (en) 2021-04-28 2023-05-30 Microsoft Technology Licensing, Llc Distortion correction via modified analytical projection
WO2023014345A1 (fr) * 2021-08-02 2023-02-09 Google Llc Positionnement de capteur de caméra asymétrique pour améliorer la détection de paquet

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152095A1 (fr) * 2007-06-15 2008-12-18 Iee International Electronics & Engineering S.A. Procédé de détection de contamination dans une caméra à plage tof

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6864916B1 (en) * 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP3405302B2 (ja) * 1999-12-24 2003-05-12 株式会社豊田自動織機 画像歪補正装置
US20060125945A1 (en) * 2001-08-07 2006-06-15 Satoshi Suzuki Solid-state imaging device and electronic camera and shading compensaton method
KR20040058277A (ko) * 2001-11-13 2004-07-03 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 캘리브레이션 유도 방법, 이미지 처리 방법 및 이미지시스템
US7032472B2 (en) * 2002-05-10 2006-04-25 Caterpillar Inc. Counterbalance for linkage assembly
US7071966B2 (en) * 2003-06-13 2006-07-04 Benq Corporation Method of aligning lens and sensor of camera
TWI232349B (en) * 2003-07-07 2005-05-11 Benq Corp Method for adjusting relative position of lens module by using uniform light source
US7961973B2 (en) * 2004-09-02 2011-06-14 Qualcomm Incorporated Lens roll-off correction method and apparatus
JP4754939B2 (ja) * 2005-11-01 2011-08-24 オリンパス株式会社 画像処理装置
JP4014612B2 (ja) * 2005-11-09 2007-11-28 シャープ株式会社 周辺光量補正装置、周辺光量補正方法、電子情報機器、制御プログラムおよび可読記録媒体
US20070133893A1 (en) * 2005-12-14 2007-06-14 Micron Technology, Inc. Method and apparatus for image noise reduction
KR100808493B1 (ko) * 2005-12-28 2008-03-03 엠텍비젼 주식회사 렌즈 셰이딩 보상 장치, 보상 방법 및 이를 이용한 이미지프로세서
US20080111912A1 (en) * 2006-11-09 2008-05-15 Mei-Ju Chen Methods and apparatuses for generating information regarding spatial relationship between a lens and an image sensor of a digital imaging apparatus and related assembling methods
US8405711B2 (en) * 2007-01-09 2013-03-26 Capso Vision, Inc. Methods to compensate manufacturing variations and design imperfections in a capsule camera
KR100911378B1 (ko) * 2007-02-23 2009-08-10 삼성전자주식회사 렌즈 교정 방법 및 렌즈 교정 장치
JP2008227582A (ja) * 2007-03-08 2008-09-25 Hoya Corp 撮像装置
US7907185B2 (en) * 2007-07-16 2011-03-15 Aptina Imaging Corporation Lens correction logic for image sensors
US8085391B2 (en) * 2007-08-02 2011-12-27 Aptina Imaging Corporation Integrated optical characteristic measurements in a CMOS image sensor
JP2009205479A (ja) * 2008-02-28 2009-09-10 Kddi Corp 撮像装置のキャリブレーション装置、方法及びプログラム
US8970744B2 (en) * 2009-07-02 2015-03-03 Imagination Technologies Limited Two-dimensional lens shading correction
CN102035988A (zh) * 2009-09-29 2011-04-27 深圳富泰宏精密工业有限公司 手机摄像头拍照效果测试***及方法
CN102096307A (zh) * 2009-12-14 2011-06-15 鸿富锦精密工业(深圳)有限公司 测试相机镜头偏转角度的方法和装置
US8477195B2 (en) * 2010-06-21 2013-07-02 Omnivision Technologies, Inc. Optical alignment structures and associated methods
JP2012070046A (ja) * 2010-09-21 2012-04-05 Sony Corp 収差補正装置、収差補正方法、および、プログラム
TWI417640B (zh) * 2010-12-31 2013-12-01 Altek Corp 鏡頭校準系統
US8659689B2 (en) * 2011-05-17 2014-02-25 Rpx Corporation Fast measurement of alignment data of a camera system
US8786737B2 (en) * 2011-08-26 2014-07-22 Novatek Microelectronics Corp. Image correction device and image correction method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152095A1 (fr) * 2007-06-15 2008-12-18 Iee International Electronics & Engineering S.A. Procédé de détection de contamination dans une caméra à plage tof

Also Published As

Publication number Publication date
WO2010081982A1 (fr) 2010-07-22
US20110273569A1 (en) 2011-11-10
US8634004B2 (en) 2014-01-21
FR2941067A1 (fr) 2010-07-16
FR2941067B1 (fr) 2011-10-28

Similar Documents

Publication Publication Date Title
EP2377306A1 (fr) Controle de defauts optiques dans un systeme de capture d'images
EP2457379B1 (fr) Procédé d'estimation d'un défaut d'un système de capture d'images et systèmes associés
EP2780763B1 (fr) Procede et systeme de capture de sequence d'images avec compensation des variations de grandissement
EP2374270B1 (fr) Système de capture d'images et utilisation associée pour améliorer la qualité des images acquises
EP2465255A1 (fr) Système et procédé de capture d'images avec deux modes de fonctionnement
FR2833743A1 (fr) Procede et dispositif a faible resolution d'acquisition pour le controle d'un ecran d'affichage
WO2013174826A1 (fr) Convertisseur chromatique d'altimetrie
BE1019646A3 (fr) Systeme d'inspection et procede d'imagerie haute vitesse.
JP5920608B2 (ja) 画像の鮮明度を評価する撮像システムおよび方法
CA2976931A1 (fr) Procede et dispositif de caracterisation des aberrations d'un systeme optique
CA2701151A1 (fr) Systeme d'imagerie a modification de front d'onde et procede d'augmentation de la profondeur de champ d'un systeme d'imagerie
EP2746830B1 (fr) Mise au point optique d'un instrument de saisie d'image
FR3102845A1 (fr) Détermination d'au moins un paramètre optique d'une lentille optique
EP3884656A1 (fr) Appareil et procédé pour observer une scène comportant une cible
WO2019166720A1 (fr) Détection dynamique de lumière parasite dans une image numérique
BE1015708A3 (fr) Procede pour mesurer la hauteur de spheres ou d'hemispheres.
FR3130060A1 (fr) procédé et dispositif de caractérisation de distorsions dans une caméra plénoptique
FR3054678B1 (fr) Kit pour dispositif imageur
WO2023187170A1 (fr) Procédé de correction d'aberrations optiques introduites par un objectif optique dans une image, appareil et système mettant en œuvre un tel procédé
FR2688969A1 (fr) Procede de correction des defauts d'uniformite des pixels d'un senseur a l'etat solide et dispositif pour la mise en óoeuvre du procede.
FR3122938A1 (fr) Système de vidéoconférence permettant de réduire un effet de parallaxe associé à la direction du regard d’un utilisateur

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110706

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: DOUADY, CESAR

Inventor name: GUICHARD, FREDERIC

Inventor name: TARCHOUNA, IMENE

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20170322

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: LENS CORRECTION TECHNOLOGIES

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190330