WO2014024623A1 - 密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法 - Google Patents

密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法 Download PDF

Info

Publication number
WO2014024623A1
WO2014024623A1 PCT/JP2013/068833 JP2013068833W WO2014024623A1 WO 2014024623 A1 WO2014024623 A1 WO 2014024623A1 JP 2013068833 W JP2013068833 W JP 2013068833W WO 2014024623 A1 WO2014024623 A1 WO 2014024623A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
correction
image sensor
reference data
Prior art date
Application number
PCT/JP2013/068833
Other languages
English (en)
French (fr)
Inventor
徹 荒牧
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP13828729.7A priority Critical patent/EP2884729B1/en
Priority to CN201380042516.6A priority patent/CN104541495B/zh
Priority to US14/418,185 priority patent/US9516193B2/en
Publication of WO2014024623A1 publication Critical patent/WO2014024623A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/401Compensating positionally unequal response of the pick-up or reproducing head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • H04N1/0282Using a single or a few point light sources, e.g. a laser diode
    • H04N1/02835Using a single or a few point light sources, e.g. a laser diode in combination with a light guide, e.g. optical fibre, glass plate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • H04N1/0288Means for illuminating the original, not specific to a particular type of pick-up head using a two-dimensional light source, e.g. two-dimensional LED array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • H04N1/02885Means for compensating spatially uneven illumination, e.g. an aperture arrangement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • H04N1/02895Additional elements in the illumination means or cooperating with the illumination means, e.g. filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/03Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array
    • H04N1/031Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array the photodetectors having a one-to-one and optically positive correspondence with the scanned picture elements, e.g. linear contact sensors
    • H04N1/0318Integral pick-up heads, i.e. self-contained heads whose basic elements are a light-source, a lens array and a photodetector array which are supported by a single-piece frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40056Circuits for driving or energising particular reading heads or original illumination means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/028Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up
    • H04N2201/03Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted
    • H04N2201/031Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted deleted
    • H04N2201/03104Integral pick-up heads, i.e. self-contained heads whose basic elements are a light source, a lens and a photodetector supported by a single-piece frame
    • H04N2201/03108Components of integral heads
    • H04N2201/03112Light source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/028Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up
    • H04N2201/03Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted
    • H04N2201/031Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted deleted
    • H04N2201/03104Integral pick-up heads, i.e. self-contained heads whose basic elements are a light source, a lens and a photodetector supported by a single-piece frame
    • H04N2201/03108Components of integral heads
    • H04N2201/03125Light guide upstream of the scanned picture elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/028Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up
    • H04N2201/03Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted
    • H04N2201/031Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted deleted
    • H04N2201/03104Integral pick-up heads, i.e. self-contained heads whose basic elements are a light source, a lens and a photodetector supported by a single-piece frame
    • H04N2201/03108Components of integral heads
    • H04N2201/03133Window, i.e. a transparent member mounted in the frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/028Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up
    • H04N2201/03Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted
    • H04N2201/031Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted deleted
    • H04N2201/03104Integral pick-up heads, i.e. self-contained heads whose basic elements are a light source, a lens and a photodetector supported by a single-piece frame
    • H04N2201/03108Components of integral heads
    • H04N2201/03141Photodetector lens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/028Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up
    • H04N2201/03Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted
    • H04N2201/031Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted for picture information pick-up deleted deleted
    • H04N2201/03104Integral pick-up heads, i.e. self-contained heads whose basic elements are a light source, a lens and a photodetector supported by a single-piece frame
    • H04N2201/03108Components of integral heads
    • H04N2201/03145Photodetector

Definitions

  • the present invention relates to a contact image sensor, a contact image sensor output correction device, and a contact image sensor output correction method.
  • the contact image sensor irradiates the original M with light from a light source, converts the reflected light from the original M into an electrical signal by a light receiving element, reads an image represented on the original M, and uses the result as image data. Output.
  • the amount of light emitted from the light source may vary due to various factors. For example, due to the temperature characteristics of the light source, the amount of light from the light source may vary depending on the environmental temperature. In addition, the amount of light from the light source may fluctuate due to time-dependent factors such as the passage of a period of several seconds to several hours when it is short and several days to several years when it is long.
  • the bright output that is the output from the contact image sensor when the document M is white is corrected.
  • image data output from a light receiving element in response to reflected light from a platen roller described in Patent Document 1 or a white reference tape described in Patent Document 2 is used as reference data, and the reference data and predetermined standard data The bright output can be corrected by comparing.
  • the light receiving element receives the reflected light from the platen roller when the document M is placed. Since no light can be received, reference data cannot be acquired. Therefore, the bright output cannot be corrected while the document M is being placed. Since the amount of light from the light source may fluctuate in a short time due to environmental temperature, factors over time, etc., the bright output may become unstable.
  • the white reference tape is provided at a location where the original M on the platen glass does not pass.
  • the linear expansion coefficients of white reference tape and platen glass are often different. Therefore, when the output of the light receiving element corresponding to the reflected light from the white reference tape is used as the reference data, the accuracy of the reference data may be deteriorated due to fluctuations in the environmental temperature. Further, the accuracy of the reference data may be deteriorated due to the presence or absence of the document M and the density of the image represented on the document M. With the reference data with poor accuracy, the bright output cannot be corrected accurately, and as a result, the bright output may become unstable.
  • the present invention has been made to solve the above-described problems, and an object thereof is to provide a contact image sensor that can obtain a stable bright output.
  • a contact image sensor includes: A light source that emits light for irradiating the reading object; A light guide having a first emission part that propagates light emitted from the light source and emits light to the reading target, and a second emission part that is different from the first emission part and emits light to the outside.
  • a correction light-receiving unit that is provided in a region that receives direct light of light emitted from the second light-emitting unit and outputs reference data corresponding to the direct light;
  • a light receiving unit for reading that generates image data indicating an image to be read by photoelectrically converting light emitted from the first light emitting unit and reflected by the target to be read; Comparing predetermined reference data with reference data output from the correction light receiving unit, and based on the comparison result, image data generated by the reading light receiving unit when the reading target is white indicates And a correction unit that performs processing for correcting the bright output.
  • the reference data for correcting the bright output is in accordance with the direct light emitted from the light guide. Therefore, it is possible to correct the bright output based on the reference data that accurately reflects the amount of light emitted from the light source. Therefore, a stable bright output can be obtained.
  • FIG. 2 is a plan view of the contact image sensor according to Embodiment 1.
  • FIG. 3 is a cross-sectional view of the contact image sensor according to the first embodiment when viewed from the main scanning direction.
  • FIG. 3 is a cross-sectional view of the contact image sensor according to the first embodiment when viewed from the sub-scanning direction. It is a figure which expands and shows the edge part vicinity of the light guide in FIG. 2 is a diagram illustrating a functional configuration of a control unit according to Embodiment 1.
  • FIG. 3 is a flowchart showing a flow of reading processing according to the first embodiment.
  • FIG. 4 is a flowchart showing a flow of output correction processing according to the first embodiment. It is sectional drawing which looked at the contact
  • FIG. 10 is a perspective view showing the vicinity of an end portion of a light guide according to a sixth embodiment.
  • the contact image sensor according to the first embodiment of the present invention is a device that reads an image of an original M as a reading target.
  • a reading target For example, a facsimile, a copier, a scanner, a multifunction peripheral, a financial terminal, an industrial inspection device, or the like.
  • the reading target is not limited to the original M, and may be, for example, a mark sheet, a banknote, a check, or other securities.
  • the contact image sensor irradiates light to a linear reading unit extending in the main scanning direction which is predetermined as a place where the document M is brought into close contact. As a result, linear light is irradiated onto the original M that is in close contact with the reading unit.
  • the contact image sensor receives reflected light from the document M, and reads an image of a linear portion of the document M irradiated with light.
  • the contact image sensor reads the image on the reading surface of the document M by sequentially reading the image of the linear portion of the document M while the contact image sensor and the document M move relatively in the sub-scanning direction.
  • the sub-scanning direction is a direction that intersects the main scanning direction, and is a direction perpendicular to the main scanning direction in the present embodiment.
  • the contact image sensor 100 includes a frame 101, a transmissive body 102, a lens body 103, two light guides 104, four light source units 105, and four corrections.
  • a light receiving unit 106, a holding body 107, a sensor body 108, and a control unit 109 are provided.
  • the frame 101 is composed of a rectangular bottom having a main scanning direction as a longitudinal direction and a sub-scanning direction as a short direction, and a side wall extending upward from the outer edge thereof, and an open top.
  • a black resin for example, a black resin.
  • the bottom of the frame 101 has an opening extending in the longitudinal direction at the center in the short direction.
  • a transmission body 102 is attached to the upper part of the frame 101 so as to close the upper part thereof.
  • a sensor body 108 is attached to the outside of the bottom of the frame 101.
  • the lens body 103, the light guide body 104, the light source unit 105, the correction light receiving unit 106, and the holding body 107 are accommodated in a space that is generally sealed by the frame 101, the transmission body 102, and the lens body 103.
  • the location where the control unit 109 is attached may be determined as appropriate, in this embodiment, the control unit 109 is attached to the lower surface of the sensor body 108.
  • the transmissive member 102 is a member that transmits light irradiated to the document M arranged in close contact with the reading unit 110 and light reflected by the document M, and includes a transmissive unit 111 and a holding frame 112.
  • the transmission unit 111 has a linear reading unit 110 extending in the main scanning direction on the outer surface, and is made of, for example, a resin such as acrylic or polycarbonate, glass, or the like. It is a translucent, desirably a transparent flat plate.
  • the holding frame 112 is, for example, a resin frame that surrounds and holds the periphery of the transmission part 111. As shown in FIG. 3, which is a cross-sectional view of the contact image sensor 100 viewed from the main scanning direction, and FIG. 4, which is a cross-sectional view of the contact image sensor 100 viewed from the sub-scanning direction. Is attached in close contact with the upper portion of the frame 101. Thereby, the holding frame 112 closes the upper part of the frame 101 so that dust or the like does not enter.
  • the lens body 103 is a member that converges the light reflected from the document M onto the sensor body 108, and extends in the main scanning direction as shown in FIG.
  • the lens body 103 has a plurality of rod lenses arranged in the longitudinal direction. Each rod lens is disposed above the opening at the bottom of the frame 101 as shown in FIG.
  • Each of the light guides 104 is an elongated cylindrical member that propagates light incident on the light guide body 104 in the longitudinal direction.
  • Each of the light guides 104 includes an incident part 113, a first emission part 114, and a second emission part 115, as shown in FIG. 5 in which the vicinity of the end of the light guide 104 in FIGS. 3 and 4 is enlarged.
  • a light diffusion layer 116 is provided.
  • the incident portion 113 is a portion that allows light emitted from the light source portion 105 to enter the inside of the outer surface of the light guide 104.
  • the first emitting unit 114 is a part of the outer surface of the light guide 104 that emits light to the document M.
  • the second emission unit 115 is a part of the outer surface of each light guide 104 from which light to the correction light receiving unit 106 is emitted.
  • the light diffusing layer 116 is a portion that reflects and diffuses the light propagating through the light guide 104.
  • the light diffusing layer 116 is coated with a light reflective material such as a white pigment, and the surface of the light guide 104 is roughened and serrated. The prism shape processing or pyramid emboss shape processing is used.
  • the incident portion 113 and the second emitting portion 115 are formed at each end portion of each light guide body 104.
  • the first emission part 114 and the light diffusion layer 116 are part of the outer peripheral surface extending in the main scanning direction, and are formed substantially symmetrically via the long axis of the light guide 104.
  • Each of the light source units 105 is a member that emits light for irradiating the document M, and includes four LED (Light Emitting Diode) chips 117, an LED substrate 118, a heat conductive sheet 119, and a heat dissipation plate 120. Have.
  • LED Light Emitting Diode
  • Each LED chip 117 is a light source that emits visible light (red, blue, green, yellow), ultraviolet light having a wavelength of about 365 nm, infrared light having a wavelength of about 700 to 1000 nm, and the like.
  • Four LED chips 117 form one set, and light emitted from one set of LED chips 117 enters from the incident portion 113 of one light guide 104.
  • the two light source sections 105 have one LED board 118 in common. Therefore, eight LED chips 117 as light sources that emit light are mounted on the surface of the LED substrate 118.
  • the LED chip 117 may be directly mounted on the LED substrate 118 or may be provided as a package mounted on the LED substrate 118.
  • the heat conductive sheet 119 and the heat sink 120 are provided on the back surface of the LED substrate 118.
  • the heat conductive sheet 119 and the heat dissipation plate 120 can dissipate heat generated in the LED chip 117 to the outside, and the LED chip 117 can emit light efficiently.
  • Each of the correction light receiving units 106 is configured by a photodiode having light receiving sensitivity to light emitted from the LED chip 117, and outputs an electrical signal corresponding to the amount of received light.
  • One correction light receiving unit 106 is provided in association with one set of LED chips 117. Therefore, in the present embodiment, two correction light receiving portions 106 are mounted on the surface of one LED substrate 118.
  • the correction light receiving unit 106 may be directly mounted on the LED board 118 or may be provided as a package mounted on the LED board 118 together with the LED chip 117.
  • the holding body 107 is a member for fixing the two light guide bodies 104 and the light source section 105 provided with the correction light receiving section 106 in the frame 101, and includes two support sections 121 and two holder sections 122.
  • Each of the two support parts 121 is provided so as to support the longitudinal direction of one light guide 104 in the main scanning direction and to cover the outer peripheral surface of the light guide 104 excluding the first emission part 114.
  • Each of the holder parts 122 has two holes into which the end parts of the light guide 104 are fitted. Protrusions are provided on the outer peripheral surface in the vicinity of each end of each light guide 104. When each end fits into a hole in the holder part 122, each protrusion engages with the hole. As a result, the movement of each light guide 104 in the main scanning direction and the rotation around the major axis in the frame 101 are restricted.
  • Each of the support parts 121 supports one light guide 104, one end of the two light guides 104 fits in each of the holes of one holder part 122, and each of the holes of the other holder part 122
  • the two light guides 104 and the holding body 107 are fixed in the frame 101 with the other ends of the two light guides 104 fitted.
  • the two light guides 104 are fixed parallel to each other with the holding body 107 facing the longitudinal direction in the main scanning direction, and are arranged symmetrically via the lens body 103.
  • the light guide so that the light propagating through the interior, reflected by the light diffusion layer 116 and diffused is emitted from the first emitting unit 114 to the reading unit 110, that is, toward the document M.
  • Each of 104 is arranged.
  • the light diffusion layer 116 may be formed on each support portion 121 instead of each light guide 104 or together with each light guide 104.
  • the LED substrate 118 is attached to each of the holder portions 122 with the surface thereof facing the end portion of the light guide body 104.
  • a set of four LED chips 117 and one correction light-receiving unit 106 are arranged to face each other at the ends of the two light guides 104.
  • one of the LED chips 117 is disposed at the center of the light guide 104, and the other three LEDs are arranged at the same distance from the center above and to the left and right.
  • a chip 117 is arranged.
  • the correction light receiving unit 106 is located away from the transmission unit 111, that is, below the center of the light guide 104, in order to make it difficult to receive light entering from the outside of the contact image sensor 100 through the transmission unit 111 described in detail later. Placed in.
  • a sensor body (reading light receiving unit) 108 receives reflected light from the document M through the lens body 103 and performs photoelectric conversion to generate and output image data indicating the read image. Since the image data handled by the sensor body 108 is analog data, it is hereinafter referred to as analog image data. As shown in FIGS. 3 and 4, the sensor body 108 includes a sensor substrate 123, a plurality of reading conversion units 124, and an amplification unit 125.
  • the sensor substrate 123 is a rectangular substrate having the same size as the bottom of the frame 101, and the upper surface thereof is disposed to face the outer surface of the bottom of the frame 101, and is fixed to the frame 101 by, for example, screwing or the like. .
  • the reading conversion unit 124 includes a plurality of photodiodes, capacitors, and the like, has light receiving sensitivity with respect to light emitted from the LED chip 117, generates an electrical signal corresponding to each received light, and is obtained by photoelectric conversion. Output as analog image data. More specifically, the reading conversion unit 124 generates an electromotive force according to the received light, and generates an electric signal corresponding to the received light by photoelectric conversion that converts light energy into an electric signal.
  • a plurality of reading conversion units 124 are arranged on the upper surface of the sensor substrate 123 in the main scanning direction. When the sensor substrate 123 is fixed to the frame 101, the reading conversion unit 124 is positioned in the opening at the bottom of the frame 101 or below the opening.
  • the amplifying unit 125 is composed of, for example, a circuit provided on the sensor substrate 123, amplifies the electric signal generated by the reading conversion unit 124, and outputs the amplified electric signal.
  • the amplification unit 125 outputs the generated electrical signal as amplified analog image data.
  • the control unit 109 transmits / receives various signals (data) to / from the reading conversion unit 124, the light source unit 105, the correction light receiving unit 106, and the like, thereby correcting bright output, and image data indicating an image of the document M. Execute processing to output.
  • the image data output from the control unit 109 is digital data.
  • image data that is digital data is referred to as digital image data.
  • the bright output is the content (each pixel value or the like) indicated by the image data generated by the contact image sensor 100 when a white reading target is read.
  • the reading target is white.
  • the image data generated by the reading unit 110 indicates the content.
  • the control unit 109 is configured from an electric circuit, a microcomputer, a flash memory, or the like, or a combination thereof. As shown in FIG. 6, the control unit 109 functionally includes an LED driving unit 126, a correction A / D (Analog / Digital) conversion unit 127, a storage unit 128, and a comparison correction unit (correction unit) 129. A synchronization control unit 130, a reading A / D conversion unit 131, a shading correction unit 132, and an image processing unit 133.
  • a synchronization control unit 130 a reading A / D conversion unit 131, a shading correction unit 132, and an image processing unit 133.
  • the LED drive unit 126 causes the LED chip 117 to emit light while controlling the amount of light by controlling, for example, the magnitude of the current flowing through the LED chip 117 and the time during which the current flows through the LED chip 117.
  • the correction A / D conversion unit 127 converts the electrical signal that is analog data output from the correction light receiving unit 106 into reference data that is digital data.
  • the storage unit 128 stores reference data indicating a bright output reference.
  • the reference data is stored in the storage unit 128 when the contact image sensor 100 is shipped, for example, when the contact image sensor 100 is operated for the first time.
  • the reference data for example, the amount of light received from the LED chip 117 by the correction light receiving unit 106 at the time of storage is set.
  • the comparison correction unit 129 compares the reference data generated by the correction A / D conversion unit 127 with the standard data in the storage unit 128. Then, the comparison / correction unit 129 causes the LED driving unit 126 to change the time during which the current flows to the LED chip 117 and the magnitude of the current so that the content of the reference data satisfies the standard indicated by the standard data. Thereby, since the light quantity of the light which LED chip 117 emits is changed, a bright output can be corrected. Specifically, for example, the bright output is corrected so that each value indicated by the reference data is equal to the value indicated by the reference data.
  • the comparison correction unit 129 may correct the bright output based on the reference data of the analog data and the standard data corresponding to the reference data.
  • the synchronization control unit 130 outputs a synchronization signal for synchronizing the light emission of the LED chip 117 and one or both of the photoelectric conversion of the reading conversion unit 124 and the A / D conversion of the correction A / D conversion unit 127 to the LED.
  • the data is output to the drive unit 126 and one or both of the reading conversion unit 124 and the correction A / D conversion unit 127.
  • the reading A / D converter 131 converts the analog image data amplified by the amplifier 125 of the sensor body 108 into digital data, thereby generating digital image data.
  • the shading correction unit 132 obtains digital image data from the reading A / D conversion unit 131 and performs shading correction to generate digital image data that has been subjected to shading correction.
  • the image processing unit 133 acquires the digital image data subjected to the shading correction by the shading correction unit 132, performs predetermined image processing, and generates and outputs the image data.
  • the image processing unit 133 compares the generated image data with the determination data stored in advance so that the reading target is the inspection standard. It may be determined whether or not it is suitable.
  • the determination data indicates a criterion for determining whether or not the reading target meets the inspection standard. Then, the image processing unit 133 may output data indicating the determination result.
  • the image processing unit 133 may identify a mark selected on the mark sheet and output data indicating the identified result. Specifically, for example, the image processing unit 133 identifies the mark selected on the mark sheet by specifying the position of the mark selected on the mark sheet from the generated image data and collating it with the previously stored identification data. To do.
  • the identification data indicates, for example, a position where each mark (number, alphabet, symbol, etc.) is indicated on the mark sheet.
  • the contact image sensor 100 performs a general reading process as shown in FIG. 7 in response to a reading synchronization signal from the synchronization control unit 130 in a state where the document M is in close contact with the reading unit 110.
  • the contact image sensor 100 reads an image on the reading surface of the document M by repeatedly executing the reading process while moving relative to the document M in the sub-scanning direction while the document M is in close contact with the reading unit 110. Then, image data indicating the image is generated and output.
  • the LED driving unit 126 when the LED driving unit 126 receives the reading synchronization signal from the synchronization control unit 130, the LED driving unit 126 causes the LED chip 117 to emit light (step S101). At this time, the LED driving unit 126 controls the amount of light emitted from the LED chip 117 by controlling the current flowing through the LED chip 117 and the time during which the current flows through the LED chip 117 to a predetermined size and time length. To control.
  • the light emitted from the LED chip 117 enters the light guide 104 from the end of the light guide 104 facing the LED chip 117.
  • the light that has entered the light guide 104 propagates in the main scanning direction in the light guide 104 while being totally reflected.
  • a part of the light scattered and reflected by the light diffusion layer 116 is emitted from the first emission part 114.
  • the support portion 121 of the holding body 107 is provided so as to cover the outer peripheral surface of the light guide body 104 excluding the first emission portion 114 as described above. Therefore, the light leaking from the outer peripheral surface other than the first emitting portion 114 to the outside of the light guide 104 without being totally reflected inside the light guide 104 is reflected by the support portion 121. Therefore, the extraction efficiency of light emitted to the document M to be read can be improved by the support portion 121 that covers the outer peripheral surface of the light guide body 104 excluding the first emission portion 114.
  • the light emitted from the first emission unit 114 irradiates the document M that is in close contact with the reading unit 110 via the transmission unit 111 and is reflected by the document M.
  • the light reflected by the document M passes through the lens body 103 via the transmission unit 111.
  • the light that has passed through the lens body 103 is converged and received by each light receiving unit of the reading conversion unit 124.
  • Each of the reading conversion units 124 performs photoelectric conversion to generate an electrical signal corresponding to the received light (step S102).
  • Each of the reading conversion units 124 outputs analog image data obtained by photoelectric conversion.
  • the analog image data output from the plurality of reading conversion units 124 included in the sensor body 108 indicates an image of a linear portion of the document M that is in close contact with the reading unit 110.
  • the amplification unit 125 amplifies the electrical signal output from each of the reading conversion units 124, that is, the analog image data obtained by photoelectric conversion (step S103).
  • the amplifying unit 125 outputs the amplified analog image data.
  • the reading A / D conversion unit 131 converts the amplified analog image data into digital image data (step S104).
  • the reading A / D converter 131 outputs digital image data obtained by the conversion.
  • the shading correction unit 132 performs predetermined shading correction processing on the digital image data output from the reading A / D conversion unit 131 (step S105).
  • the shading correction unit 132 outputs digital image data subjected to shading correction.
  • the image processing unit 133 performs predetermined image processing on the digital image data subjected to the shading correction by the shading correction unit 132 (step S106).
  • the image processing unit 133 outputs digital image data subjected to image processing.
  • the image processing unit 133 ends the reading process.
  • read data, digital conversion data, shading correction data, and image data indicating an image appearing on the linear portion of the document M that is in close contact with the reading unit 110 are sequentially generated.
  • the contact image sensor 100 repeatedly performs the reading process while moving relatively to the document M in the sub-scanning direction in a state where the document M is in close contact with the reading unit 110, thereby displaying an image on the reading surface of the document M. Image data can be obtained.
  • the contact image sensor 100 executes an output correction process shown in FIG.
  • the output correction process is a process for correcting the bright output, and is executed in response to the output correction synchronization signal from the synchronization control unit 130.
  • This synchronization signal for output correction may be, for example, common to the above-described synchronization signal for reading, may be output when the contact image sensor 100 is activated, and is output in response to an operation on an operation unit (not shown). May be.
  • the LED driving unit 126 when receiving the output correction synchronization signal from the synchronization control unit 130, the LED driving unit 126 causes the LED chip 117 to emit light (step S111). At this time, the LED drive unit 126 controls the amount of light emitted from the LED chip 117 in the same manner as the light emission process in step S101.
  • step S111 and step S101 are the same processing.
  • the light emitted from the LED chip 117 opposed to one end of the light guide 104 propagates through the light guide 104 and is received by the correction light receiving unit 106 opposed to the other end of the light guide 104.
  • the correction light receiving unit 106 performs photoelectric conversion to generate an electrical signal corresponding to the received light (step S112).
  • the correction light receiving unit 106 outputs an electrical signal that is analog data generated by photoelectric conversion.
  • the correction A / D conversion unit 127 When receiving the synchronization signal from the synchronization control unit 130, the correction A / D conversion unit 127 generates reference data by performing A / D conversion into an electrical signal that is analog data acquired from the correction light receiving unit 106 at that time. (Step S113).
  • This reference data is digital data indicating the amount of light received from the LED chip 117 by the correction light receiving unit 106 when receiving the synchronization signal from the synchronization control unit 130.
  • the comparison correction unit 129 acquires the reference data from the correction A / D conversion unit 127 and reads the reference data from the storage unit 128 (step S114).
  • the comparison and correction unit 129 compares the reference data with the standard data (step S115).
  • the comparison correction unit 129 determines whether or not the bright output needs to be corrected based on the comparison result (step S116). For example, when the values indicated by the reference data and the reference data are the same, the comparison correction unit 129 determines that the bright output correction is not necessary (step S116; No), and ends the output correction process.
  • the comparison correction unit 129 determines that the bright output needs to be corrected (step S116; Yes).
  • the comparison correction unit 129 controls the LED driving unit 126 so that the values indicated by the reference data and the standard data are the same. Specifically, the comparison correction unit 129 adjusts the amount of light from the LED chip 117 by causing the LED driving unit 126 to change the magnitude of the current flowing through the LED chip 117 and the time during which the current flows through the LED chip 117. . Thereby, the comparison correction unit 129 corrects the bright output (step S117) and ends the output correction process.
  • the correction light receiving unit 106 directly receives the light propagated through the light guide 104.
  • the bright output is corrected based on the reference data corresponding to the direct light received by the correction light receiving unit 106. Therefore, the output correction process can be executed at any time, for example, depending on the light emitted in the reading process, regardless of the presence or absence of the document M. Therefore, not only the long-term deterioration of the LED chip 117 but also the light output can be corrected even when the amount of light from the LED chip 117 changes due to environmental temperature, short-term factors, etc. it can. Therefore, a stable bright output can be obtained.
  • the correction light receiving unit 106 receives direct light that has propagated through the light guide 104 rather than indirect light that is emitted from the light guide 104 and reflected by a member such as a platen roller or a white reference tape. Therefore, it is possible to obtain reference data that accurately reflects the amount of light emitted from the LED chip 117 without being affected by deterioration or contamination of intervening members. Therefore, a stable bright output can be obtained.
  • the image data output from the sensor body 108 may fluctuate transiently.
  • the bright output is corrected based on the reference data corresponding to the direct light received by the correction light receiving unit 106, and therefore, the image data output from the sensor body 108 may be subjected to a transient change. rare. Accordingly, it is possible to correct the bright output even during warm-up after power-on and obtain a stable bright output.
  • the image quality of the read image By obtaining stable bright output, the image quality of the read image, the accuracy of discrimination in inspection, the accuracy of identifying the mark selected on the mark sheet, etc. are improved according to the application of the device in which the contact image sensor 100 is mounted. It becomes possible to make it.
  • the correction light-receiving unit 106 is not directly irradiated with the external light transmitted through the transmissive body 102 or the reflected light from the original M, and the external light or the reflected light is received by the correction light-receiving unit 106. At least through the light guide 104. Therefore, it is possible to reduce the influence of external light or reflected light on the light received by the correction light receiving unit 106. As a result, the accuracy of the reference data can be improved, and a stable bright output can be obtained.
  • the correction light receiving unit 106 directly receives the light propagated through the light guide 104. Therefore, by adopting the correction light-receiving unit 106 having sensitivity to ultraviolet light, it is possible to obtain an accurate ultraviolet light reference output even when the LED chip 117 emits ultraviolet light. Therefore, a stable bright output can be obtained even with ultraviolet light. Similarly, a stable bright output can be obtained even with infrared light.
  • the bright output is corrected by causing the LED driving unit 126 to control the amount of light emitted from the LED chip 117.
  • the LED driving unit 126 is provided in a general contact image sensor 100. Therefore, in order to correct the bright output, it is possible to suppress an increase in the number of parts, and it is possible to obtain a stable bright output with a simple configuration.
  • Embodiment 2 FIG. In the contact image sensor according to the present embodiment, the arrangement of the light source unit and the correction light receiving unit is different from that of the contact image sensor 100 according to the first embodiment.
  • the contact image sensor 200 has one end of the light guide 104 as shown in FIG. 9 which is a cross-sectional view seen from the main scanning direction and FIG. 10 which is a cross-sectional view seen from the sub-scanning direction.
  • the light source unit 205 includes four LED chips 217 provided on the LED substrate, and each LED chip 217 is formed from the center of one end of the light guide 104.
  • the light guide 104 is disposed at an equidistant position in the vertical and horizontal directions so as to face one end of the light guide 104.
  • the contact image sensor 200 operates in the same manner as in the first embodiment.
  • the light emitted from the light source unit 205 enters from one end (incident unit 213) of the light guide 104 and propagates through the light guide 104.
  • a part of the light propagating through the light guide 104 is emitted from the other end (second emission part 215) of the light guide 104 and directly received by the correction light receiving part 206.
  • the correction light receiving unit 206 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • the LED substrate 218 having the LED chip 217 is disposed at one end of each light guide 104, and the correction light receiving unit 206 is disposed, for example, together with the substrate at the other end. Since the heat generation from the correction light receiving unit 206 is relatively small, it is not necessary to provide the heat conductive sheet 119 or the heat radiating plate 120 on the substrate of the correction light receiving unit 206. Therefore, the number of components constituting the contact image sensor 200 can be reduced, and the contact image sensor 200 can be made compact.
  • Embodiment 3 In the contact image sensor according to the present embodiment, the arrangement of the correction light receiving units is different from that of the contact image sensor 200 according to the second embodiment.
  • the LED chip 217 of the light source unit 205 similar to that of the second embodiment is disposed at one end of each light guide 104.
  • a hole 334 extending downward from the second emitting portion 315 formed on the outer peripheral surface near the other end of each light guide 104 to the upper surface of the sensor substrate 123 is formed in the support portion 121 and the frame 101. Is provided.
  • the contact image sensor 300 operates in the same manner as in the first embodiment.
  • light emitted from the light source unit 205 enters from one end (incident part) of the light guide 104 and propagates through the light guide 104 as in the second embodiment.
  • a part of the light propagating through the light guide 104 is emitted downward from a part of the outer peripheral surface in the vicinity of the other end of the light guide 104 (second emission part 315), and directly by the correction light receiving part 306. Is received.
  • the correction light receiving unit 306 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • the correction light receiving unit 306 is disposed in the vicinity of each end portion of each light guide 104, but the distance from the transmissive member 102 is that of the correction light receiving unit 306 in the first embodiment. It is farther than the correction light receiving unit 106 according to the above. Therefore, it is possible to further reduce the influence of the external light or the reflected light from the document M on the light received by the correction light receiving unit 306. As a result, the accuracy of the reference data can be improved, and a stable bright output can be obtained.
  • Embodiment 4 FIG.
  • the shape of the light guide and the arrangement of the correction light receiving unit are different from those of the contact image sensor 100 according to the first embodiment.
  • the light guide 404 is a member extending in the main scanning direction, and extends from the center toward both ends. It becomes thinner gradually.
  • a V-shaped notch 435 is provided at the upper center.
  • the cross section of the light guide body 404 viewed from the main scanning direction is, for example, an isosceles trapezoidal shape having a wide lower part.
  • a second emitting portion 415 is provided on the lower surface of the body 404.
  • the light diffusing layer 416 is provided on the lower surface of the light guide body 404 excluding the second emitting portion 415.
  • the light source unit 405 is disposed in the vicinity of each end of the light guide 404, and the LED chip of the light source 405 faces each end of the light guide 404.
  • the correction light receiving unit 406 is the center of the light guide 404 in the main scanning direction, and is disposed so as to face or be in contact with the lower surface.
  • the contact image sensor 400 operates in the same manner as in the first embodiment. Accordingly, light emitted from the light source unit 405 is incident from each end portion (incident unit 413) of the light guide 404 and propagates through the light guide 404 toward the center. A part of the light propagated to the vicinity of the center of the light guide 404 is reflected downward by the V-shaped cutout, and is emitted from the lower surface (second emission part 415) near the center of the light guide 404, Light is received by the correction light receiving unit 406. Then, the correction light receiving unit 406 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • Embodiment 5 FIG.
  • the shape of the light guide and the arrangement of the light source unit and the correction light receiving unit are different from those of the contact image sensor 100 according to Embodiment 1.
  • FIG. 13 shows a view of the contact image sensor 500 according to the present embodiment as viewed from the main scanning direction.
  • Each of the light guides 504 is a member having the same cross-sectional shape and extending in the main scanning direction, and integrally includes a front stage portion 536 located on the center side of the frame 101 and a rear stage portion 537 located on the side wall side of the frame 101. Have.
  • the front stage 536 has an end perpendicular to the main scanning direction, and a first emission part 514 is provided on the upper part.
  • the rear stage portion 537 has an end portion that forms an acute angle with the surface where the rear stage portion 537 and the front stage portion 536 are joined, as shown in FIG.
  • a light diffusion layer 516 is provided below the front stage part 536 and the rear stage part 537, and a first emission part 514 is provided above the front stage part 536.
  • the LED chip 517 of the light source unit 505 and the correction light receiving unit 506 are opposed to each end of the front stage 536 and the rear stage 537.
  • the correction light receiving unit 506 is provided on the LED substrate 518 included in the light source unit 505 as in the first embodiment.
  • the contact image sensor 500 operates in the same manner as in the first embodiment. Accordingly, light emitted from the light source unit 505 is incident from one end (incident unit 513) of the front stage 536 of the light guide 504 and propagates through the light guide 504. Part of the light propagating through the light guide 504 is emitted downward from the other end (second emission part 515) of the rear stage part 537 of the light guide 504, and is directly received by the correction light receiving part 506. The Then, the correction light receiving unit 506 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • Embodiment 6 FIG.
  • the shape of the light guide and the arrangement of the light source unit and the correction light receiving unit are different from those of the contact image sensor 100 according to Embodiment 1.
  • the light guide 604 has an isosceles trapezoidal cross section in which the width in the sub scanning direction becomes narrower from the upper side to the lower side, and extends in the main scanning direction. It is a member.
  • a light diffusion layer 616 is provided below the light guide 604, and a first light emitting portion 614 is provided above the light guide 604.
  • the end portion of the light guide 604 has a pair of inclined surfaces, and these inclined surfaces are provided symmetrically via a plane that faces up and down parallel to the main scanning direction.
  • the light source unit 605 includes an LED substrate 618 and an LED chip 617 provided on the LED substrate 618 as shown in FIG. 17 which is an enlarged view of the vicinity of the end of the light guide 604 as viewed from above.
  • the LED chip 617 is disposed to face one of the inclined surfaces of the light guide 604.
  • the correction light receiving unit 606 is provided on the LED substrate 618 and is disposed to face the other inclined surface of the light guide 604.
  • the end portion of the light guide 604 has a plurality of pairs of inclined surfaces that are symmetric via a plurality of different surfaces.
  • a correction light receiving unit 606 is provided on one of the inclined surfaces, and each of the other inclined surfaces.
  • the LED chip 617 may be opposed.
  • the contact image sensor 600 operates in the same manner as in the first embodiment. Accordingly, light emitted from the light source unit 605 is incident from one of the inclined surfaces (incident unit 613) provided at one end of the light guide 604 and propagates through the light guide 604. Part of the light propagating through the light guide 604 is emitted from the other inclined surface (second emission part 615) provided at the other end of the light guide 604, and directly by the correction light receiving part 606. Received light. Then, the correction light receiving unit 606 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • Embodiment 7 FIG.
  • the shape of the light guide and the arrangement of the light source unit and the correction light receiving unit are different from those of the contact image sensor 100 according to Embodiment 1.
  • FIG. 18 is an enlarged view of the light guide end portion 739 when the contact image sensor 700 is viewed from the sub-scanning direction.
  • the light guide end portion 739 is a portion located in the vicinity of the end portion of the light guide 704 and has an extending portion 740 extending in the main scanning direction.
  • the extending part 740 has an extending end part facing downward and an inclined surface having a shape obtained by extruding a part of an elliptical contour in the sub-scanning direction.
  • the light source unit 705 and the correction light receiving unit 706 are opposed to the extending end.
  • the LED chip 717 of the light source unit 705 is provided on the LED substrate 718, and the correction light receiving unit 706 is also provided on the LED substrate 718.
  • the contact image sensor 700 operates in the same manner as in the first embodiment. Accordingly, light emitted from the light source unit 705 is incident from one of the extending end portions (incident unit 713) of the light guide 704 and propagates through the light guide 704. Part of the light propagating through the light guide 704 is emitted from the other of the extending end portions of the light guide 704 (second emission part 715) and is directly received by the correction light receiving part 706.
  • the correction light receiving unit 706 generates an electrical signal corresponding to the received light, and corrects the bright output based on reference data generated from the electrical signal. Therefore, as in the first embodiment, it is possible to obtain a stable bright output.
  • Embodiment 8 FIG.
  • the bright output is corrected by adjusting the amount of light from the LED chip 117.
  • the amplification unit corrects the bright output by adjusting the output level from the sensor body.
  • the contact image sensor according to the present embodiment has substantially the same configuration as that of the contact image sensor 100 according to the first embodiment.
  • the configuration of the control unit 809 of the contact image sensor according to the present embodiment is different from the control unit 109 according to the first embodiment.
  • the control unit 809 according to the present embodiment includes a comparison correction unit 829 instead of the comparison correction unit 129 according to the first embodiment.
  • the comparison correction unit 829 causes the amplification unit 125 to change the output level so that the content of the reference data satisfies the standard indicated by the standard data. As a result, the content of the analog image data output from the sensor body 108 is changed, so that the bright output can be corrected.
  • the contact image sensor according to the present embodiment executes the same reading process and output correction process as in the first embodiment.
  • the comparison correction unit 829 adjusts the content of the analog image data by causing the amplification unit 125 to change the output level.
  • the bright output is corrected by causing the amplification unit 125 to control the output level.
  • the amplifying unit 125 is provided in a general contact image sensor. For this reason, it is possible to suppress an increase in the number of parts for correcting the bright output, and it is possible to obtain a stable bright output with a simple configuration.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Heads (AREA)
  • Image Input (AREA)

Abstract

 光源部105は、原稿に照射するための光を発する。導光体104は、光源部105から発せられた光を内部で伝播させ、原稿へ光を射出する第1出射部と、第1出射部とは異なる部分であって外部へ光を出射する第2出射部115とを有する。補正用受光部106は、第2出射部115から出射される光の直接光を受ける領域に設けられ、その直接光に応じた参照データを出力する。制御部は、所定の基準データと補正用受光部106から出力される参照データとを比較し、比較した結果に基づいて、明出力を補正するための処理を行なう。

Description

密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法
 本発明は、密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法に関する。
 密着イメージセンサは、光源からの光を原稿Mに照射し、原稿Mでの反射光を受光素子にて電気信号に変換することによって原稿Mに表される画像を読み取り、その結果を画像データとして出力する。
 光源から発せられる光の光量は、種々の要因により変動することがある。例えば光源の温度特性のために、光源からの光量は環境温度に応じて変動することがある。また、短い場合には数秒~数時間程度、長い場合には数日~数年程度の期間の経過という経時的要因のために、光源からの光量が変動することがある。
 光源からの光量の変動にかかわらず、密着イメージセンサにより原稿Mの画像を安定して読み取るために、原稿Mが白色である場合の密着イメージセンサからの出力である明出力が補正される。例えば、特許文献1に記載のプラテンローラ又は特許文献2に記載の白基準テープからの反射光に応じて受光素子から出力される画像データを参照データとし、その参照データと予め定めた基準データとを比較することによって、明出力を補正することができる。
特開平6-54189号公報 特開平7-79341号公報
 しかしながら、引用文献1に記載のようにプラテンローラからの反射光に応じた受光素子の出力を参照データとする場合、原稿Mが配置されているときに、受光素子はプラテンローラからの反射光を受光できないので、参照データを取得することができない。そのため、原稿Mが配置されている間は明出力を補正することができない。光源からの光量は環境温度、経時的要因などにより短時間で変動することがあるため、明出力が不安定になることがある。
 引用文献2では、白基準テープはプラテンガラス上の原稿Mが通過しない箇所に設けられる。白基準テープとプラテンガラスとの線膨張係数は異なることが多い。そのため、白基準テープからの反射光に応じた受光素子の出力を参照データとする場合、環境温度が変動することにより参照データの精度が悪くなることがある。また、原稿Mの有無や原稿Mに表される画像の濃度の影響のために、参照データの精度が悪くなることがある。精度が悪い参照データでは明出力を正確に補正できず、その結果、明出力が不安定になることがある。
 本発明は、上記のような課題を解決するためになされたものであり、安定した明出力を得ることが可能な密着イメージセンサなどを提供することを目的とする。
 上記目的を達成するため、本発明に係る密着イメージセンサは、
 読み取り対象に照射するための光を発する光源と、
 光源から発せられた光を内部で伝播させ、読み取り対象へ光を出射する第1出射部と、第1出射部とは異なる部分であって外部へ光を出射する第2出射部とを有する導光体と、
 第2出射部から出射される光の直接光を受ける領域に設けられ、この直接光に応じた参照データを出力する補正用受光部と、
 第1出射部から出射されて読み取り対象で反射される光を光電変換することによって、読み取り対象の画像を示す画像データを生成する読取用受光部と、
 予め定められた基準データと補正用受光部から出力される参照データとを比較し、比較した結果に基づいて、読み取り対象が白色である場合に読取用受光部にて生成される画像データが示す明出力を補正するための処理を行なう補正部とを備える。
 本発明によれば、明出力を補正するための参照データは、導光体から出射される光の直接光に応じたものである。そのため、光源から発せられた光の光量を精度よく反映させた参照データに基づいて、明出力を補正することができる。したがって、安定した明出力を得ることが可能になる。
本発明の実施の形態1に係る密着イメージセンサの分解斜視図である。 実施の形態1に係る密着イメージセンサの平面図である。 実施の形態1に係る密着イメージセンサを主走査方向から見た断面図である。 実施の形態1に係る密着イメージセンサを副走査方向から見た断面図である。 図4における導光体の端部近傍を拡大して示す図である。 実施の形態1に係る制御部の機能的な構成を示す図である。 実施の形態1に係る読取処理の流れを示すフローチャートである。 実施の形態1に係る出力補正処理の流れを示すフローチャートである。 本発明の実施の形態2に係る密着イメージセンサを主走査方向から見た断面図である。 実施の形態2に係る密着イメージセンサを副走査方向から見た断面図であって、導光体の端部近傍を拡大して示す図である。 本発明の実施の形態3に係る密着イメージセンサを主走査方向から見た断面図である。 本発明の実施の形態4に係る密着イメージセンサを副走査方向から見た断面図である。 本発明の実施の形態5に係る密着イメージセンサを主走査方向から見た断面図である。 実施の形態5に係る導光体の端部近傍と、光源部及び補正用受光部とを拡大して示す図である。 本発明の実施の形態6に係る密着イメージセンサを副走査方向から見た断面図であって、導光体の端部近傍を拡大して示す図である。 実施の形態6に係る導光体の端部近傍を示す斜視図である。 実施の形態6に係る導光体の端部近傍と、光源部及び補正用受光部とを拡大して示す平面図である。 実施の形態7に係る密着イメージセンサを副走査方向から見た断面図であって、導光体の端部近傍を拡大して示す図である。 本発明の実施の形態8に係る制御部の機能的な構成を示す図である。
 本発明の実施の形態について図を参照して説明する。全図を通じて同一の要素には同一の参照符号を付す。
 実施の形態1.
 本発明の実施の形態1に係る密着イメージセンサは、読み取り対象としての原稿Mの画像を読み取る機器であって、例えばファクシミリ、コピー機、スキャナ、複合機、金融系端末、工業用の検査装置などに搭載される。読み取り対象は原稿Mに限らず、例えばマークシート、紙幣、小切手その他の有価証券などであってもよい。
 密着イメージセンサは、原稿Mを密着させる場所として予め定められた主走査方向に延びる線状の読取部へ光を照射する。これにより、読取部に密着する原稿Mへ、線状の光が照射される。密着イメージセンサは、原稿Mからの反射光を受けることで、光が照射された原稿Mの線状部分の画像を読み取る。
 密着イメージセンサと原稿Mとが相対的に副走査方向へ移動しつつ、原稿Mの線状部分の画像を順次読み取ることによって、密着イメージセンサは、原稿Mの読み取り面の画像を読み取る。ここで、副走査方向は、主走査方向に交差する方向であって、本実施の形態では主走査方向に垂直な方向である。
 密着イメージセンサ100は、図1の分解斜視図に示すように、フレーム101と、透過体102と、レンズ体103と、2つの導光体104と、4つの光源部105と、4つの補正用受光部106と、保持体107と、センサ体108と、制御部109とを備える。
 フレーム101は、同図に示すように、主走査方向を長手方向、副走査方向を短手方向とする矩形の底部と、その外縁から上方へ延びる側壁とから構成される、上方が開放した箱状の部材であって、例えば黒色の樹脂製である。フレーム101の底部は、短手方向の中央にて長手方向に延びる開口を有する。
 フレーム101の上部には、その上方を塞ぐように透過体102が取り付けられる。フレーム101の底部外側には、センサ体108が取り付けられる。フレーム101と透過体102とレンズ体103とで概ね密閉される空間に、レンズ体103、導光体104、光源部105、補正用受光部106及び保持体107が収容される。制御部109が取り付けられる箇所は適宜定められてよいが、本実施形態では制御部109はセンサ体108の下面に取り付けられる。
 透過体102は、読取部110に密着して配置される原稿Mへ照射する光と原稿Mで反射した光とを透過させる部材であって、透過部111と保持枠体112とを有する。
 透過部111は、密着イメージセンサ100の平面図である図2に示すように、主走査方向に延びる線状の読取部110を外面に有し、例えばアクリル、ポリカーボネートなどの樹脂、ガラスなどを材料とする透光性の、望ましくは透明の平板である。
 保持枠体112は、透過部111の周囲を囲んで保持する、例えば樹脂製の枠体である。保持枠体112は、密着イメージセンサ100を主走査方向から見た断面図である図3、及び密着イメージセンサ100を副走査方向から見た断面図である図4に示すように、その外縁部がフレーム101の上部に密着するように取り付けられる。これにより、保持枠体112は、粉塵などが入り込まないようにフレーム101の上方を塞ぐ。
 レンズ体103は、原稿Mで反射した光をセンサ体108へ収束する部材であって、図1に示すように主走査方向に延びる。レンズ体103は、長手方向に配列された複数のロッドレンズを有する。各ロッドレンズは、光軸を上下方向に向けて、図3に示すように、フレーム101の底部の開口の上方に配置される。
 導光体104の各々は、内部に入射した光を長手方向に伝播させる細長い円柱状の部材である。導光体104の各々は、図3、及び図4における導光体104の端部近傍を拡大した図5に示すように、入射部113と、第1出射部114と、第2出射部115と、光拡散層116とを有する。
 入射部113は、導光体104の外面のうち、光源部105から発せられる光を内部へ入射させる部分である。第1出射部114は、導光体104の外面のうち、原稿Mへの光が出射する部分である。第2出射部115は、導光体104の各々の外面のうち、補正用受光部106への光が出射する部分である。光拡散層116は、導光体104の内部を伝播する光が反射し拡散する部分であって、白色顔料などの光反射性材料の塗布、導光体104の表面を粗面加工、鋸歯状のプリズム形状加工又はピラミッド状のエンボス形状加工などにより形成される。
 本実施の形態では、入射部113と第2出射部115とが、各導光体104の各端部に形成される。第1出射部114と光拡散層116とは、主走査方向に延びる外周面の一部であって、導光体104の長軸を介して概ね対称に形成される。
 光源部105の各々は、原稿Mに照射するための光を発する部材であって、4つのLED(Light Emitting Diode)チップ117と、LED基板118と、熱伝導シート119と、放熱板120とを有する。
 LEDチップ117の各々は、可視光(赤、青、緑、黄)、365nm程度の波長の紫外光、700~1000nm程度の波長の赤外光などを発する光源である。4つのLEDチップ117が1組となり、1組のLEDチップ117から発せられる光が1つの導光体104の入射部113から入射する。
 本実施の形態では、2つの光源部105が共通する1つのLED基板118を有する。そのため、LED基板118の表面には、光を発する光源としてのLEDチップ117が8つ実装されている。LEDチップ117はLED基板118に直接、実装されてもよく、LED基板118に実装されたパッケージとして備えられてもよい。
 LED基板118の裏面には、熱伝導シート119と放熱板120とが設けられる。熱伝導シート119と放熱板120とにより、LEDチップ117で発生する熱を外部へ放散させることができ、LEDチップ117を効率よく発光させることが可能になる。この放熱効率を高めるために、LED基板118の基板には、例えばセラミック基板、アルミ基板、リジットフレキシブル基板などが採用されることが望ましい。
 補正用受光部106の各々は、LEDチップ117が発する光に対する受光感度を有するフォトダイオードなどから構成され、受けた光の光量に応じた電気信号を出力する。1組のLEDチップ117に1つの補正用受光部106が対応付けて設けられる。したがって、本実施の形態では、1つのLED基板118の表面には、2つの補正用受光部106が実装される。補正用受光部106はLED基板118に直接、実装されてもよく、LEDチップ117とともにLED基板118に実装されたパッケージとして備えられてもよい。
 保持体107は、2つの導光体104と、補正用受光部106が設けられた光源部105とをフレーム101内で固定する部材であって、2つの支持部121と2つのホルダ部122とを有する。
 2つの支持部121の各々は、1つの導光体104の長手方向を主走査方向に向けて支持し、第1出射部114を除く導光体104の外周面を覆うように設けられる。
 ホルダ部122の各々は、導光体104の端部が嵌る孔を2つ有する。各導光体104の各端部近傍の外周面には突起が設けられており、各端部がホルダ部122の穴に嵌ると、各突起と穴とが係合する。これよって、フレーム101内における、各導光体104の主走査方向への移動及びその長軸を中心とした回転が規制される。
 支持部121の各々が1つの導光体104を支持し、一方のホルダ部122の穴の各々に2つの導光体104の一方の端部が嵌り、他方のホルダ部122の穴の各々に2つの導光体104の他方の端部が嵌った状態で、2つの導光体104と保持体107とがフレーム101内に固定される。フレーム101内では、2つの導光体104は、保持体107によって長手方向を主走査方向に向けて互いに平行に固定され、レンズ体103を介して対称に配置される。また、図3に示すように、内部を伝播し光拡散層116で反射し拡散した光が、第1出射部114から読取部110へ、すなわち原稿Mへ向けて出射するように、導光体104の各々は配置される。なお、光拡散層116は、各導光体104の代わりに又は各導光体104とともに、各支持部121に形成されてもよい。
 ホルダ部122の各々には、図5に示すように、LED基板118がその表面を導光体104の端部に向けて取り付けられる。これによって、2つの導光体104の端部のすべてに、4つのLEDチップ117の組と1つの補正用受光部106とが対向して配置される。
 ここで、導光体104の一方の端部の各々と、LEDチップ117の組及び補正用受光部106との位置関係を、図3を参照して説明する。
 同図に示すように、主走査方向から見た場合、LEDチップ117の1つは、導光体104の中心に配置され、その中心から等距離で上方と左右それぞれとに他の3つのLEDチップ117が配置される。補正用受光部106は、詳細後述する透過部111を介して密着イメージセンサ100の外部から入り込む光を受けにくくするために、透過部111から離れた位置、すなわち、導光体104の中心の下に配置される。
 センサ体(読取用受光部)108は、原稿Mからの反射光をレンズ体103を介して受け、光電変換などをすることによって、読み取った画像を示す画像データを生成して出力する。センサ体108にて扱われる画像データはアナログデータであるので、以下、アナログ画像データという。センサ体108は、図3及び図4に示すように、センサ基板123と、複数の読取用変換部124と、増幅部125とを有する。
 センサ基板123は、フレーム101の底部と同程度の大きさを有する長方形の基板であって、その上面がフレーム101の底部外面に対向して配置され、例えばネジ止めなどによってフレーム101に固定される。
 読取用変換部124は、複数のフォトダイオード、キャパシタなどから構成され、LEDチップ117が発する光に対する受光感度を有し、それぞれに受けた光に応じた電気信号を生成し、光電変換により得られたアナログ画像データとして出力する。詳細には、読取用変換部124は、受けた光に応じて光起電力を生じ、光のエネルギーを電気信号に変換する光電変換によって、受けた光に応じた電気信号を生成する。
 読取用変換部124は、センサ基板123の上面に主走査方向に並べて複数設けられ、センサ基板123がフレーム101に固定されると、フレーム101の底部の開口内に又は開口の下方に位置付けられる。
 増幅部125は、例えばセンサ基板123に設けられる回路から構成され、読取用変換部124にて生成された電気信号を増幅し、増幅した電気信号を出力する。増幅部125は、生成した電気信号を、増幅されたアナログ画像データとして出力する。
 制御部109は、読取用変換部124、光源部105及び補正用受光部106などと各種信号(データ)を送受信することによって、明出力を補正するための処理、原稿Mの画像を示す画像データを出力する処理などを実行する。制御部109が出力する画像データはデジタルデータである。以下、デジタルデータである画像データを、デジタル画像データという。
 ここで、明出力とは、白色の読み取り対象を読み取った場合に密着イメージセンサ100にて生成される画像データが示す内容(各画素値など)であり、詳細には、読み取り対象が白色である場合に読取部110にて生成される画像データが示す内容である。
 制御部109は、電気回路、マイコン、フラッシュメモリなどから、又はこれらを組み合わせて構成される。制御部109は機能的には、図6に示すように、LED駆動部126と、補正用A/D(Analog/Digital)変換部127と、記憶部128と、比較補正部(補正部)129と、同期制御部130と、読取用A/D変換部131と、シェーディング補正部132と、画像処理部133とを有する。
 LED駆動部126は、例えばLEDチップ117に流す電流の大きさ、LEDチップ117に電流を流す時間などを制御することによって光量を制御しつつ、LEDチップ117を発光させる。
 補正用A/D変換部127は、補正用受光部106から出力されるアナログデータである電気信号をデジタルデータである参照データに変換する。
 記憶部128は、明出力の基準を示す基準データを記憶している。基準データは例えば、密着イメージセンサ100の出荷時、密着イメージセンサ100を初めて動作させる時などに、記憶部128に格納される。基準データには例えば、これらの格納時に、補正用受光部106がLEDチップ117から受ける光の光量が設定される。
 比較補正部129は、補正用A/D変換部127により生成された参照データと、記憶部128の基準データとを比較する。そして、比較補正部129は、参照データの内容が基準データにより示される基準を満たすように、LEDチップ117に電流を流す時間、その電流の大きさなどをLED駆動部126に変更させる。これにより、LEDチップ117が発する光の光量が変更されるので、明出力を補正することができる。詳細には例えば、明出力は、参照データにより示される各値が基準データにより示される値と等しくなるように、補正される。
 なお、比較補正部129は、アナログデータの参照データと、それに応じた基準データとに基づいて、明出力を補正してもよい。
 同期制御部130は、LEDチップ117の発光と、読取用変換部124の光電変換及び補正用A/D変換部127のA/D変換の一方又は両方とを同期させるための同期信号を、LED駆動部126と、読取用変換部124及び補正用A/D変換部127の一方又は両方とへ出力する。読取用A/D変換部131は、センサ体108の増幅部125により増幅されたアナログ画像データをデジタルデータに変換することによって、デジタル画像データを生成する。シェーディング補正部132は、読取用A/D変換部131からデジタル画像データを取得し、シェーディング補正を行なうことによって、シェーディング補正されたデジタル画像データを生成する。画像処理部133は、シェーディング補正部132によりシェーディング補正されたデジタル画像データを取得し、所定の画像処理を施すことによって、画像データを生成して出力する。
 なお、例えば、密着イメージセンサ100が工業用の検査装置に適用される場合、画像処理部133は、生成した画像データと、予め記憶した判定用データとを照合することによって、読み取り対象が検査規準に適合するか否かを判別してもよい。ここで、判定用データは、読み取り対象が検査規準に適合するか否かを判別する基準を示すものである。そして、画像処理部133は、判別結果を示すデータを出力してもよい。
 また例えば、密着イメージセンサ100がマークシートの読取装置に適用される場合、画像処理部133は、マークシートにて選択されたマークを識別し、識別した結果を示すデータを出力してもよい。詳細には例えば、画像処理部133は、生成した画像データからマークシートにて選択されたマークの位置を特定し、予め記憶した識別用データと照合することによって、マークシートにて選択されたマークを識別する。ここで、識別用データは例えば、マークシートにて各マーク(数字、アルファベット、記号など)が示される位置を示す。
 これまで、本発明の実施の形態1に係る密着イメージセンサ100の構成について説明した。ここから、密着イメージセンサ100の動作について図を参照して説明する。
 密着イメージセンサ100は、原稿Mが読取部110に密着した状態で同期制御部130からの読取用の同期信号に応答して、図7に示すように、一般的な読取処理を実行する。密着イメージセンサ100は、読取部110に原稿Mを密着させた状態で副走査方向へ原稿Mに相対的に移動しながら、読取処理を繰り返し実行することによって、原稿Mの読み取り面の画像を読み取り、その画像を示す画像データを生成して出力する。
 同図に示すように、LED駆動部126は、同期制御部130から読取用の同期信号を受けると、LEDチップ117を発光させる(ステップS101)。このとき、LED駆動部126は、LEDチップ117に流す電流、LEDチップ117に電流を流す時間などを所定の大きさ、時間長さなどに制御することによって、LEDチップ117から発せられる光の光量を制御する。
 LEDチップ117から発せられた光は、そのLEDチップ117が対向する導光体104の端部から導光体104内へ入射する。導光体104内へ入射した光は、全反射しながら、導光体104内を主走査方向へ伝播する。導光体104を伝播する光のうち、光拡散層116にて散乱して反射した光の一部は、第1出射部114から出射する。
 ここで、保持体107の支持部121は、上述のように、導光体104の第1出射部114を除く外周面を覆うように設けられる。そのため、導光体104の内部を全反射せずに、第1出射部114以外の外周面から導光体104の外部へ漏れた光は、支持部121により反射する。したがって、導光体104の第1出射部114を除く外周面を覆う支持部121により、読み取り対象である原稿Mへ出射する光の取り出し効率を向上させることができる。
 第1出射部114から出射した光は、透過部111を介して読取部110に密着する原稿Mを照射し、その原稿Mにより反射する。原稿Mで反射した光は、透過部111を介してレンズ体103を通過する。レンズ体103を通過した光は、読取用変換部124の各々の受光部に収束して受光される。
 読取用変換部124の各々は、受けた光に応じた電気信号を生成する光電変換を行なう(ステップS102)。読取用変換部124の各々は、光電変換により得られたアナログ画像データを出力する。ここで、センサ体108が有する複数の読取用変換部124から出力されるアナログ画像データは、読取部110に密着した原稿Mの線状の部分の画像を示す。
 増幅部125は、読取用変換部124の各々から出力される電気信号、すなわち光電変換により得られたアナログ画像データを増幅する(ステップS103)。増幅部125は、増幅されたアナログ画像データを出力する。
 読取用A/D変換部131は増幅されたアナログ画像データをデジタル画像データに変換する(ステップS104)。読取用A/D変換部131は、変換により得られたデジタル画像データを出力する。
 シェーディング補正部132は、読取用A/D変換部131から出力されたデジタル画像データに所定のシェーディング補正処理を行なう(ステップS105)。シェーディング補正部132は、シェーディング補正されたデジタル画像データを出力する。
 画像処理部133は、シェーディング補正部132によりシェーディング補正されたデジタル画像データに、所定の画像処理を行なう(ステップS106)。画像処理部133は、画像処理したデジタル画像データを出力する。画像処理部133は読取処理を終了する。
 このように読取処理を実行することによって、読取部110に密着した原稿Mの線状の部分に現された画像を示す読取データ、デジタル変換データ、シェーディング補正データ及び画像データが順次生成される。密着イメージセンサ100が、読取部110に原稿Mを密着させた状態で副走査方向へ原稿Mに相対的に移動しながら、読取処理を繰り返し実行することによって、原稿Mの読み取り面の画像を示す画像データを得ることができる。
 密着イメージセンサ100は、図8に示す出力補正処理を実行する。出力補正処理は、明出力を補正するための処理であって、同期制御部130からの出力補正用の同期信号に応答して実行される。この出力補正用の同期信号は、例えば、上述の読取用の同期信号と共通であってもよく、密着イメージセンサ100の起動時に出力されてもよく、図示しない操作部への操作に応じて出力されてもよい。
 同図に示すように、LED駆動部126は、同期制御部130から出力補正用の同期信号を受けると、LEDチップ117を発光させる(ステップS111)。このとき、LED駆動部126は、ステップS101における発光処理と同様に、LEDチップ117から発せられる光の光量を制御する。
 なお、出力補正用の同期信号と読取用の同期信号とが共通である場合、ステップS111とステップS101とは同じ処理である。
 導光体104の一端に対置されたLEDチップ117から発せられた光は、導光体104を伝播し、その導光体104の他端に対置された補正用受光部106により受光される。補正用受光部106は、受けた光に応じた電気信号を生成する光電変換を行なう(ステップS112)。補正用受光部106は、光電変換により生成したアナログデータである電気信号を出力する。
 補正用A/D変換部127は、同期制御部130から同期信号を受けると、その時に補正用受光部106から取得したアナログデータである電気信号にA/D変換することによって参照データを生成する(ステップS113)。この参照データは、同期制御部130から同期信号を受けた時に、補正用受光部106がLEDチップ117から受けた光の光量を示すデジタルデータである。
 比較補正部129は、補正用A/D変換部127から参照データを取得し、記憶部128から基準データを読み出す(ステップS114)。
 比較補正部129は、参照データと基準データとを比較する(ステップS115)。
 比較補正部129は、比較した結果に基づいて明出力の補正が必要であるか否かを判断する(ステップS116)。例えば、参照データと基準データとのそれぞれが示す値が同じである場合に、比較補正部129は、明出力の補正が必要でないと判断し(ステップS116;No)、出力補正処理を終了する。
 例えば、参照データと基準データとのそれぞれが示す値が異なる場合に、比較補正部129は、明出力の補正が必要であると判断する(ステップS116;Yes)。
 比較補正部129は、参照データと基準データとのそれぞれが示す値が同じになるように、LED駆動部126を制御する。詳細には、比較補正部129は、LEDチップ117に流す電流の大きさ、LEDチップ117に電流を流す時間をLED駆動部126に変更させることによって、LEDチップ117からの光の光量を調整する。これにより、比較補正部129は明出力を補正し(ステップS117)、出力補正処理を終了する。
 本実施の形態では、補正用受光部106は導光体104を伝播した光を直接的に受ける。そして、明出力は、補正用受光部106が受ける直接光に応じた参照データに基づいて、補正される。そのため、出力補正処理は例えば、原稿Mの有無にかかわらず、読取処理にて発せられる光に応じて実行されるなど、任意の時に出力補正処理を実行することができる。したがって、LEDチップ117の長期的な経時劣化だけでなく、環境温度、短期的な経時的要因などによりLEDチップ117からの光の光量が変化する場合であっても、明出力を補正することができる。したがって、安定した明出力を得ることが可能になる。
 また、補正用受光部106が、導光体104から出射されてプラテンローラ、白基準テープなどの部材で反射した間接光ではなく、導光体104を伝播した直接光を受ける。そのため、介在する部材の劣化、汚れなどの影響を受けることなく、LEDチップ117から発せられる光の光量を精度よく反映した参照データを得ることができる。したがって、安定した明出力を得ることが可能になる。
 さらに、電源投入後のウォームアップ時には、センサ体108から出力される画像データは過渡的に変動することがある。本実施の形態では、明出力は、補正用受光部106が受ける直接光に応じた参照データに基づいて補正されるので、センサ体108から出力される画像データの過渡的な変動を受けることがほとんどない。したがって、電源投入後のウォームアップ時であっても明出力を補正し、安定した明出力を得ることが可能になる。
 安定した明出力を得ることによって、密着イメージセンサ100が搭載される装置の用途に応じて、読み取った画像の画質、検査における判別の精度、マークシートにて選択されたマークを識別する精度などを向上させることが可能になる。
 また、補正用受光部106に、透過体102を透過した外部光や原稿Mでの反射光が直接照射することはなく、外部光や反射光が補正用受光部106に受光されるには、少なくとも導光体104を介する。そのため、外部光や反射光による、補正用受光部106が受ける光への影響を減らすことができる。これによって、参照データの精度を向上させることができ、安定した明出力を得ることが可能になる。
 LEDチップ117が例えば紫外光を発する場合、プラテンローラ、白基準テープなどからの反射光を受けて参照データを得るとき、参照データを得ること自体が困難なことがあり、仮に参照データが得られても経時劣化が大きいため精度が悪くなることがある。本実施の形態によれば、補正用受光部106が導光体104を伝播した光を直接的に受ける。そのため、紫外光に対する感度がある補正用受光部106を採用することによって、LEDチップ117が紫外光を発する場合であっても、精度のよい紫外光のリファレンス出力を得ることが可能になる。したがって、紫外光であっても、安定した明出力を得ることが可能になる。同様に、赤外光であっても、安定した明出力を得ることが可能になる。
 本実施の形態では、LEDチップ117が発する光の光量をLED駆動部126に制御させることによって、明出力を補正する。LED駆動部126は、一般的な密着イメージセンサ100に備えられる。そのため、明出力を補正するために、部品点数が増加することを抑えることができ、簡易な構成で安定した明出力を得ることが可能になる。
 実施の形態2.
 本実施の形態に係る密着イメージセンサでは、光源部と補正用受光部との配置が、実施の形態1に係る密着イメージセンサ100と異なる。
 本実施の形態に係る密着イメージセンサ200は、主走査方向から見た断面図である図9及び副走査方向から見た断面図である図10に示すように、導光体104の一方の端部と他方の端部とのそれぞれに対向して配置される光源部205と補正用受光部206とを備える。光源部205は、主走査方向から見た図11に示すように、LED基板に設けられる4つのLEDチップ217を有し、LEDチップ217はそれぞれ、導光体104の一方の端部の中心から上下左右の方向に等距離の位置で、導光体104の一方の端部に対向して配置される。
 本実施の形態に係る密着イメージセンサ200は、実施の形態1と同様に動作する。これによって、図9及び図10に示すように、光源部205から発せられた光は、導光体104の一方の端部(入射部213)から入射して、導光体104を伝播する。導光体104を伝播する光の一部は、導光体104の他方の端部(第2出射部215)から出射し、補正用受光部206により直接的に受光される。そして、補正用受光部206は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 本実施の形態では、LEDチップ217を有するLED基板218は、各導光体104の一方の端部に配置され、他方の端部には補正用受光部206が例えば基板とともに配置される。補正用受光部206からの発熱は比較的小さいため、補正用受光部206の基板には、熱伝導シート119や放熱板120を設ける必要がない。そのため、密着イメージセンサ200を構成する部品点数の削減、密着イメージセンサ200のコンパクト化が可能になる。
 実施の形態3.
 本実施の形態に係る密着イメージセンサでは、補正用受光部の配置が、実施の形態2に係る密着イメージセンサ200と異なる。
 本実施の形態に係る密着イメージセンサ300では、図11に示すように、各導光体104の一方の端部に、実施の形態2と同様の光源部205のLEDチップ217が配置される。そして、各導光体104の他方の端部近傍の外周面に形成される第2出射部315から下方へ、センサ基板123の上面にまで延びる穴部334が、支持部121とフレーム101とに設けられている。
 本実施の形態に係る密着イメージセンサ300は、実施の形態1と同様に動作する。これによって、光源部205から発せられた光は、実施の形態2と同様に、導光体104の一方の端部(入射部)から入射して、導光体104を伝播する。導光体104を伝播する光の一部は、導光体104の他方の端部近傍の外周面の一部(第2出射部315)から下方へ出射し、補正用受光部306により直接的に受光される。そして、補正用受光部306は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 本実施の形態では、補正用受光部306は各導光体104の各端部の近傍に配置されるが、透過体102からの距離は、補正用受光部306の方が、実施の形態1に係る補正用受光部106よりも遠い。そのため、外部光や原稿Mでの反射光による、補正用受光部306が受ける光への影響をより一層減らすことができる。これによって、参照データの精度を向上させることができ、安定した明出力を得ることが可能になる。
 実施の形態4.
 本実施の形態に係る密着イメージセンサでは、導光体の形状と、補正用受光部の配置とが、実施の形態1に係る密着イメージセンサ100と異なる。
 本実施の形態に係る密着イメージセンサ400を副走査方向から見た断面図である図12に示すように、導光体404は、主走査方向に延びる部材であって、中心から両端へ向かって次第に細くなる。中心の上部にV字状の切り欠き435が設けられている。導光体404を主走査方向から見た断面は、例えば下方が広い等脚台形であり、導光体404の上面に第1出射部414が設けられ、切り欠き435の下方に位置する導光体404の下面に第2出射部415が設けられる。光拡散層416は、第2出射部415を除く導光体404の下面に設けられる。
 光源部405は、導光体404の各端部の近傍に配置され、光源部405のLEDチップは、導光体404の各端部に対置する。補正用受光部406は、導光体404の主走査方向の中心であって、下面に対向して又は接して配置される。
 本実施の形態に係る密着イメージセンサ400は、実施の形態1と同様に動作する。これによって、光源部405から発せられた光は、導光体404の各端部(入射部413)から入射して、中心へ向かって導光体404の内部を伝播する。導光体404の中心近傍まで伝播した光の一部は、V字状の切り欠きにより下方へ反射されて、導光体404の中心近傍の下面(第2出射部415)から出射して、補正用受光部406により受光される。そして、補正用受光部406は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 実施の形態5.
 本実施の形態に係る密着イメージセンサでは、導光体の形状と、光源部及び補正用受光部の配置とが、実施の形態1に係る密着イメージセンサ100と異なる。
 本実施の形態に係る密着イメージセンサ500を主走査方向から見た図を図13に示す。導光体504の各々は、同一の断面形状で主走査方向に延びる部材であって、フレーム101の中心側に位置する前段部536と、フレーム101の側壁側に位置する後段部537とを一体的に有する。
 前段部536は、主走査方向に対して垂直な端部を有し、その上部に第1出射部514が設けられる。後段部537は、導光体504の端部近傍を拡大した平面図を図14に示すように、後段部537と前段部536とが接合する面と鋭角をなす端部を有する。前段部536と後段部537との下部には、光拡散層516が設けられ、前段部536の上部には第1出射部514が設けられる。
 前段部536及び後段部537のそれぞれの各端部には、図14に示すように、光源部505のLEDチップ517と、補正用受光部506とが対置される。補正用受光部506は、実施の形態1と同様に、光源部505が有するLED基板518に設けられる。
 本実施の形態に係る密着イメージセンサ500は、実施の形態1と同様に動作する。これによって、光源部505から発せられた光は、導光体504の前段部536の一方の端部(入射部513)から入射して、導光体504を伝播する。導光体504を伝播する光の一部は、導光体504の後段部537の他方の端部(第2出射部515)から下方へ出射し、補正用受光部506により直接的に受光される。そして、補正用受光部506は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 実施の形態6.
 本実施の形態に係る密着イメージセンサでは、導光体の形状と、光源部及び補正用受光部の配置とが、実施の形態1に係る密着イメージセンサ100と異なる。
 本実施の形態に係る密着イメージセンサ600を副走査方向から見た断面図を図15に示す。導光体604は、端部近傍を拡大した斜視図である図16に示すように、例えば副走査方向の幅が上方から下方へ向かって狭くなる等脚台形の断面で、主走査方向に延びる部材である。導光体604の下部に光拡散層616が設けられ、導光体604の上部に第1出射部614が設けられる。導光体604の端部は、同図に示すように、一対の傾斜面を有し、この傾斜面は主走査方向に平行な上下を向く平面を介して対称に設けられる。
 光源部605は、導光体604の端部近傍を上方から見た拡大図である図17に示すように、LED基板618と、LED基板618に設けられたLEDチップ617とを有する。LEDチップ617は、導光体604の傾斜面の一方に対向して配置される。補正用受光部606は、LED基板618に設けられており、導光体604の傾斜面の他方に対向して配置される。
 なお、導光体604の端部は、複数の異なる面を介して対称な複数対の傾斜面を有し、例えば傾斜面の1つに補正用受光部606が、その他の傾斜面の各々にLEDチップ617が対置されてもよい。
 本実施の形態に係る密着イメージセンサ600は、実施の形態1と同様に動作する。これによって、光源部605から発せられた光は、導光体604の一方の端部に設けられた傾斜面の一方(入射部613)から入射して、導光体604を伝播する。導光体604を伝播する光の一部は、導光体604の他方の端部に設けられた傾斜面の他方(第2出射部615)から出射し、補正用受光部606により直接的に受光される。そして、補正用受光部606は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 実施の形態7.
 本実施の形態に係る密着イメージセンサでは、導光体の形状と、光源部及び補正用受光部の配置とが、実施の形態1に係る密着イメージセンサ100と異なる。
 図18は、密着イメージセンサ700を副走査方向から見た場合の導光体端部739の拡大図である。導光体端部739は、導光体704の端部近傍に位置する部分であって、主走査方向に延びる延在部740を有する。延在部740は、下方を向く延在端部と、楕円形の輪郭の一部を副走査方向に押し出した形状である傾斜面とを有する。図18に示すように、光源部705と補正用受光部706とが、延在端部に対置される。光源部705のLEDチップ717はLED基板718に設けられており、補正用受光部706もLED基板718に設けられている。
 本実施の形態に係る密着イメージセンサ700は、実施の形態1と同様に動作する。これによって、光源部705から発せられた光は、導光体704の延在端部の一方(入射部713)から入射して、導光体704を伝播する。導光体704を伝播する光の一部は、導光体704の延在端部の他方(第2出射部715)から出射し、補正用受光部706により直接的に受光される。そして、補正用受光部706は、受けた光に応じた電気信号を生成し、その電気信号から生成される参照データに基づいて明出力を補正する。そのため、実施の形態1と同様に、安定した明出力を得ることが可能になる。
 実施の形態8.
 実施の形態1では、LEDチップ117からの光の光量を調整することによって、明出力を補正した。本実施の形態では、増幅部がセンサ体からの出力レベルを調整することによって、明出力を補正する。
 本実施の形態に係る密着イメージセンサは、実施の形態1に係る密着イメージセンサ100と概ね同様の構成を備える。本実施の形態に係る密着イメージセンサの制御部809が備える構成が、実施の形態1に係る制御部109と異なる。
 本実施の形態に係る制御部809は、図19に示すように、実施の形態1に係る比較補正部129に代えて、比較補正部829を備える。比較補正部829は、参照データの内容が基準データにより示される基準を満たすように、出力レベルを増幅部125に変更させる。これにより、センサ体108から出力されるアナログ画像データの内容が変更されるので、明出力を補正することができる。
 本実施の形態に係る密着イメージセンサは、実施の形態1と同様の読取処理及び出力補正処理を実行する。本実施の形態では、図8に示す出力補正処理のステップS117において、比較補正部829は、出力レベルを増幅部125に変更させることによって、アナログ画像データの内容を調整する。
 本実施の形態では、出力レベルを増幅部125に制御させることによって、明出力を補正する。増幅部125は、一般的な密着イメージセンサに備えられる。そのため、明出力を補正するために部品点数が増加することを抑えることができ、簡易な構成で安定した明出力を得ることが可能になる。
 以上、本発明の実施の形態及び変形例明したが、本発明はこれらに限定されるものではない。本発明は、態及び変形例が適宜組み合わされたもの、それに適宜変更が加えられたものを含む。
 本出願は、2012年8月10日に出願した日本国特許出願2012-178137号に基づく優先権を主張するものである。この特許出願の開示内容は参照により全体として本出願に取り込まれる。
 100,200,300,400,500,600,700 密着イメージセンサ、101 フレーム、102 透過体、103 レンズ体、104,404,504,604,704 導光体、105,205,405,505,605,705 光源部、106,206,306,406,506,606,706 補正用受光部、107 保持体、108 センサ体、109,809 制御部、110 読取部、111 透過部、112 保持枠体、113,213,413,513,613,713 入射部、114,414,514,614,714 第1出射部、115,215,315,415,515,615,715 第2出射部、116,416,516,616,716 光拡散層、117,217,517,617,717 LEDチップ、118,218,518,618,718 LED基板、124 読取用変換部、125 増幅部、126 LED駆動部、127 補正用A/D変換部、128 記憶部、129,829 比較補正部、130 同期制御部、131 読取用A/D変換部、132 シェーディング補正部。

Claims (7)

  1.  読み取り対象に照射するための光を発する光源と、
     前記光源から発せられた光を内部で伝播させ、前記読み取り対象へ光を出射する第1出射部と、前記第1出射部とは異なる部分であって外部へ光を出射する第2出射部とを有する導光体と、
     前記第2出射部から出射される光の直接光を受ける領域に設けられ、当該直接光に応じた参照データを出力する補正用受光部と、
     前記第1出射部から出射されて前記読み取り対象で反射される光を光電変換することによって、前記読み取り対象の画像を示す画像データを生成する読取用受光部と、
     予め定められた基準データと前記補正用受光部から出力される前記参照データとを比較し、比較した結果に基づいて、前記読み取り対象が白色である場合に前記読取用受光部にて生成される前記画像データが示す明出力を補正するための処理を行なう補正部とを備える密着イメージセンサ。
  2.  前記読み取り対象が外面に密着して配置され、前記第1出射部から出射された光と前記読み取り対象で反射される光とを透過させる透過体をさらに備え、
     前記補正用受光部は、前記直接光を受ける領域であって、前記透過体を透過した外部光が直接に照射しない部分に設けられる
     請求項1に記載の密着イメージセンサ。
  3.  前記光源は、紫外光又は赤外光を前記読み取り対象に照射するための光として発する
     ことを特徴とする請求項1又は2に記載の密着イメージセンサ。
  4.  前記光源の光量を制御して前記光源を発光させる光源駆動部をさらに備え、
     前記補正部は、前記基準データと前記補正用受光部から出力される前記参照データとを比較し、比較した結果に基づいて、前記参照データの内容が前記基準データにより示される基準を満たす光量で前記光源駆動部に前記光源を発光させる
     請求項1から3のいずれか1項に記載の密着イメージセンサ。
  5.  前記読取用受光部は、
     前記第1出射部から出射されて前記読み取り対象で反射される光を受け、当該受けた光を光電変換することによって生成される変換信号を出力する読取用変換部と、
     前記読取用変換部から出力される前記変換信号を増幅することによって前記画像データを生成する増幅部とを備え、
     前記補正部は、前記基準データと前記補正用受光部から出力される前記参照データとを比較し、比較した結果に基づいて、前記参照データの内容が前記基準データにより示される基準を満たす増幅を前記増幅部にさせる
     請求項1から3のいずれか1項に記載の密着イメージセンサ。
  6.  光源から発せられた光を内部で伝播させるとともに外部へ出射する導光体から出射される光の直接光を受ける密着イメージセンサ内の領域に設けられ、当該直接光に応じた参照データを出力する補正用受光部と、
     予め定められた基準データと前記補正用受光部から出力される前記参照データとを比較し、比較した結果に基づいて、明出力を補正するための処理を行なう補正部とを備える密着イメージセンサ用出力補正装置。
  7.  光源から発せられた光を内部で伝播させるとともに外部へ出射する導光体から出射される光の直接光を密着イメージセンサ内で受け、
     前記直接光に応じた参照データを出力し、
     予め定められた基準データと前記参照データとを比較し、
     比較した結果に基づいて、明出力を補正するための処理を行なう密着イメージセンサ用出力補正方法。
PCT/JP2013/068833 2012-08-10 2013-07-10 密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法 WO2014024623A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13828729.7A EP2884729B1 (en) 2012-08-10 2013-07-10 Contact image sensor
CN201380042516.6A CN104541495B (zh) 2012-08-10 2013-07-10 接触式图像传感器、接触式图像传感器用输出校正装置以及接触式图像传感器用输出校正方法
US14/418,185 US9516193B2 (en) 2012-08-10 2013-07-10 Contact image sensor, output correction device for contact image sensor, and output correction method for contact image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-178137 2012-08-10
JP2012178137A JP6291707B2 (ja) 2012-08-10 2012-08-10 密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法

Publications (1)

Publication Number Publication Date
WO2014024623A1 true WO2014024623A1 (ja) 2014-02-13

Family

ID=50067863

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/068833 WO2014024623A1 (ja) 2012-08-10 2013-07-10 密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法

Country Status (5)

Country Link
US (1) US9516193B2 (ja)
EP (1) EP2884729B1 (ja)
JP (1) JP6291707B2 (ja)
CN (1) CN104541495B (ja)
WO (1) WO2014024623A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
EP2995986B1 (en) 2011-08-24 2017-04-12 Rockwell Collins, Inc. Data display
US20150010265A1 (en) 2012-01-06 2015-01-08 Milan, Momcilo POPOVICH Contact image sensor using switchable bragg gratings
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
WO2015015138A1 (en) 2013-07-31 2015-02-05 Milan Momcilo Popovich Method and apparatus for contact image sensing
JP2015136043A (ja) * 2014-01-17 2015-07-27 株式会社東芝 画像読取装置
JP6359898B2 (ja) * 2014-07-03 2018-07-18 シャープ株式会社 照明装置、画像読取装置及びそれを備えた画像形成装置
US10241330B2 (en) 2014-09-19 2019-03-26 Digilens, Inc. Method and apparatus for generating input images for holographic waveguide displays
JP2016100633A (ja) * 2014-11-18 2016-05-30 キヤノン・コンポーネンツ株式会社 照明装置、イメージセンサユニット、画像読取装置および紙葉類識別装置
CN111323867A (zh) 2015-01-12 2020-06-23 迪吉伦斯公司 环境隔离的波导显示器
CN105872279B (zh) * 2015-02-10 2018-11-09 佳能元件股份有限公司 图像传感器单元、纸张识别装置、图像读取以及形成装置
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
JP6100815B2 (ja) * 2015-02-18 2017-03-22 株式会社Pfu 光源ユニット
WO2016156776A1 (en) * 2015-03-31 2016-10-06 Milan Momcilo Popovich Method and apparatus for contact image sensing
JP1553417S (ja) * 2015-06-18 2016-07-11
JP1553848S (ja) * 2015-06-18 2016-07-11
JP1553845S (ja) * 2015-06-18 2016-07-11
JP1553846S (ja) * 2015-06-18 2016-07-11
JP1553413S (ja) * 2015-06-18 2016-07-11
JP1553847S (ja) * 2015-06-18 2016-07-11
JP1553412S (ja) * 2015-06-18 2016-07-11
JP1553414S (ja) * 2015-06-18 2016-07-11
EP3359999A1 (en) 2015-10-05 2018-08-15 Popovich, Milan Momcilo Waveguide display
WO2017162999A1 (en) 2016-03-24 2017-09-28 Popovich Milan Momcilo Method and apparatus for providing a polarization selective holographic waveguide device
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
CN107426511A (zh) * 2017-05-17 2017-12-01 威海华菱光电股份有限公司 图像传感器及具有其的图像传感扫描***
KR20200108030A (ko) 2018-01-08 2020-09-16 디지렌즈 인코포레이티드. 도파관 셀 내의 홀로그래픽 격자의 높은 처리능력의 레코딩을 위한 시스템 및 방법
KR20210134763A (ko) 2019-03-12 2021-11-10 디지렌즈 인코포레이티드. 홀로그래픽 도파관 백라이트 및 관련된 제조 방법
JP2022535460A (ja) 2019-06-07 2022-08-08 ディジレンズ インコーポレイテッド 透過格子および反射格子を組み込んだ導波路、ならびに関連する製造方法
WO2021041949A1 (en) 2019-08-29 2021-03-04 Digilens Inc. Evacuating bragg gratings and methods of manufacturing
JP7461172B2 (ja) * 2020-03-02 2024-04-03 グローリー株式会社 イメージセンサ用照明装置
JP2023073086A (ja) * 2021-11-15 2023-05-25 株式会社リコー 画像読取装置、および画像形成装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS545323A (en) * 1977-06-14 1979-01-16 Ricoh Co Ltd Compensating unit for light source output variation
JPH0654189A (ja) 1992-07-29 1994-02-25 Ricoh Co Ltd 密着型イメージセンサの出力補正装置
JPH0779341A (ja) 1993-09-08 1995-03-20 Fuji Xerox Co Ltd シェーディング補正制御方法及び装置
JP2005072696A (ja) * 2003-08-28 2005-03-17 Kyocera Mita Corp 原稿読取装置
JP2011029033A (ja) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd 照明装置
JP2011223389A (ja) * 2010-04-12 2011-11-04 Mitsubishi Electric Corp 照明装置および画像読取装置
JP2011234019A (ja) * 2010-04-26 2011-11-17 Konica Minolta Business Technologies Inc 画像読取装置
JP2012178137A (ja) 2011-02-02 2012-09-13 Hitachi Solutions Ltd セキュリティポリシー管理サーバ、セキュリティ監視システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999315B2 (ja) 1997-08-29 2007-10-31 ローム株式会社 イメージセンサ基板、およびこれを用いたイメージセンサ
CN1128534C (zh) * 2001-12-28 2003-11-19 清华紫光股份有限公司 接触式图像传感器扫描仪校正方法
KR101428482B1 (ko) * 2007-09-18 2014-08-11 삼성전자 주식회사 화상형성장치 및 그 제어방법
JP5740920B2 (ja) 2010-11-05 2015-07-01 富士ゼロックス株式会社 画像読取装置及び画像形成装置
TW201227014A (en) 2010-12-31 2012-07-01 Asia Tech Image Inc Light guide and high uniformity and high brightness light source module

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS545323A (en) * 1977-06-14 1979-01-16 Ricoh Co Ltd Compensating unit for light source output variation
JPH0654189A (ja) 1992-07-29 1994-02-25 Ricoh Co Ltd 密着型イメージセンサの出力補正装置
JPH0779341A (ja) 1993-09-08 1995-03-20 Fuji Xerox Co Ltd シェーディング補正制御方法及び装置
JP2005072696A (ja) * 2003-08-28 2005-03-17 Kyocera Mita Corp 原稿読取装置
JP2011029033A (ja) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd 照明装置
JP2011223389A (ja) * 2010-04-12 2011-11-04 Mitsubishi Electric Corp 照明装置および画像読取装置
JP2011234019A (ja) * 2010-04-26 2011-11-17 Konica Minolta Business Technologies Inc 画像読取装置
JP2012178137A (ja) 2011-02-02 2012-09-13 Hitachi Solutions Ltd セキュリティポリシー管理サーバ、セキュリティ監視システム

Also Published As

Publication number Publication date
EP2884729B1 (en) 2019-06-19
EP2884729A4 (en) 2016-04-27
CN104541495B (zh) 2017-11-24
US9516193B2 (en) 2016-12-06
JP6291707B2 (ja) 2018-03-14
CN104541495A (zh) 2015-04-22
JP2014036405A (ja) 2014-02-24
EP2884729A1 (en) 2015-06-17
US20150156372A1 (en) 2015-06-04

Similar Documents

Publication Publication Date Title
JP6291707B2 (ja) 密着イメージセンサ、密着イメージセンサ用出力補正装置及び密着イメージセンサ用出力補正方法
JP5244952B2 (ja) イメージセンサユニット、及び、画像読取装置
KR20070029087A (ko) 콘택트 이미지 센서가 구비하는 수광 소자 어레이 기판의위치 조정 방법, 콘택트 이미지 센서의 제조방법 및 콘택트이미지 센서
US10536603B2 (en) Light guide and image reading apparatus
JPWO2013022060A1 (ja) イメージセンサユニット及びこれを用いた画像読取装置
US8259364B2 (en) Image sensor
KR20030067592A (ko) 조명장치 및 화상판독장치
JP2017046241A (ja) 画像読取装置
JP2010219714A (ja) 照明装置及び画像読取装置
JP5126279B2 (ja) 画像読取装置
US11509776B2 (en) Apparatus and method for detecting foreign substance based on a difference in reading level of reflected light in a first wavelength range and a second wavelength range
JP5161610B2 (ja) イメージセンサモジュール
JP5100584B2 (ja) 照明系及びそれを用いた画像読取装置
JP2009037073A (ja) 光源装置および原稿読み取り装置
JP2006039996A (ja) 紙葉類の認識装置
JP4417368B2 (ja) イメージセンサ
JP2013012891A (ja) 画像読取装置
JP2008016998A (ja) 光学式読み取り装置とその補正方法
JP4864029B2 (ja) 原稿読取装置
JP6594562B2 (ja) 画像読取装置
JP6415336B2 (ja) 画像読取装置、それを備えた画像形成装置及び画像読取方法
JP2006229587A (ja) 画像読取り装置
JP5000535B2 (ja) イメージセンサモジュール
WO2013015305A1 (ja) 画像読取装置
JP2016158067A (ja) 照明装置、画像読取装置及び画像形成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13828729

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14418185

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013828729

Country of ref document: EP