WO2023210154A1 - 厚み分布計測装置および厚み分布計測方法 - Google Patents

厚み分布計測装置および厚み分布計測方法 Download PDF

Info

Publication number
WO2023210154A1
WO2023210154A1 PCT/JP2023/007633 JP2023007633W WO2023210154A1 WO 2023210154 A1 WO2023210154 A1 WO 2023210154A1 JP 2023007633 W JP2023007633 W JP 2023007633W WO 2023210154 A1 WO2023210154 A1 WO 2023210154A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
thickness
section
image sensor
thickness distribution
Prior art date
Application number
PCT/JP2023/007633
Other languages
English (en)
French (fr)
Inventor
邦彦 土屋
徹 松本
哲也 高
賢一 大塚
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Publication of WO2023210154A1 publication Critical patent/WO2023210154A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material

Definitions

  • the present disclosure relates to a thickness distribution measuring device and a thickness distribution measuring method.
  • Patent Document 1 discloses a film thickness measuring device.
  • the film thickness measuring device is a device that measures the film thickness of a measurement target.
  • the measurement object includes a base material having a front surface and a back surface, a first film formed on the front surface, and a second film formed on the back surface.
  • the film thickness measurement device includes a light irradiation section, a light detection section, and a film thickness calculation section.
  • the light irradiation unit irradiates light onto the surface side of the measurement target object.
  • the light detection unit detects the intensity of each wavelength of reflected light on the surface side of the object to be measured.
  • the film thickness calculating unit determines the film thickness of the first film by comparing the reflectance for each wavelength obtained based on the detection result in the photodetector with the theoretical reflectance for each wavelength.
  • the theoretical reflectance for each wavelength takes into account the reflectance and transmittance on the front side and the reflectance on the back side.
  • Patent Document 2 and Patent Document 3 disclose sensor units of image reading devices.
  • a spectral interference method as a method for measuring the thickness of an object.
  • a target object is irradiated with light, and the intensity of interference light between the reflected light on the light irradiated surface of the target object and the reflected light on the opposite surface of the target object from the light irradiated surface is measured.
  • the thickness of the object can be determined based on the change in interference light intensity depending on the wavelength.
  • this method locally measures the thickness of the object. Therefore, if you want to check the thickness distribution of an object while it is being transported, it is necessary to arrange multiple measurement units side by side, each having an irradiation section that irradiates the object with light and a measurement section that measures interference light. be. In that case, the larger the width of the object, the more measurement units it is necessary to have, and the more complicated the configuration becomes.
  • the present disclosure aims to provide a thickness distribution measuring device and a thickness distribution measuring method that can check the relative thickness distribution of an object to be transported with a simple configuration while the object is being transported. purpose.
  • a thickness distribution measuring device includes a transport section, a light source section, a light detection section, and a calculation section.
  • the conveyance unit conveys an object having a first surface and a second surface facing opposite to the first surface in a conveyance direction along the first surface and the second surface.
  • the light source section is disposed at a position facing the second surface of the object, and irradiates light onto a region of the object being transported in a width direction that intersects with the transport direction.
  • the light detection unit is arranged at a position facing the first surface of the object, and detects the emitted light that has passed through the object irradiated with light.
  • the arithmetic unit obtains information regarding the distribution of the relative thickness of the area of the object in the width direction based on the detection result of the photodetector.
  • the light detection section includes an image sensor and a lens section.
  • the image sensor has a pixel section including at least a plurality of pixels arranged in the width direction, detects the intensity of emitted light for each pixel, and outputs image data.
  • the lens section has a plurality of lenses arranged along the width direction and has a same magnification, and focuses the emitted light on the pixel section of the image sensor and forms an image.
  • a thickness distribution measuring method includes a method for measuring thickness distribution in a conveyance direction along the first surface and the second surface of an object having a first surface and a second surface facing opposite to the first surface. a step of starting conveyance of the object being conveyed, a step of starting irradiation of light to an area extending in the width direction intersecting the conveyance direction of the object being conveyed, and a step of starting the irradiation of light to an area extending in the width direction intersecting the conveyance direction; and obtaining information regarding the relative thickness distribution in the width direction of the region of the object based on the detection result in the detecting step.
  • the detecting step includes an image sensor having a pixel section including at least a plurality of pixels arranged in the width direction and outputting image data by detecting the intensity of emitted light for each pixel, and an image sensor having a same magnification.
  • a lens section having a plurality of lenses arranged along the width direction and condensing emitted light and forming an image on a pixel section of an image sensor is used.
  • the light transmittance of the object is uniform, the amount of light absorbed inside the object depends on the thickness of the object. Therefore, by irradiating light onto a region extending in the width direction of the object and detecting the light intensity of the emitted light from the region, it is possible to measure the relative thickness distribution of the object in the width direction. can.
  • the light intensity of the emitted light is detected using an image sensor having a plurality of pixels arranged in the width direction. The configuration can be simplified compared to the spectral interference method in which the devices are arranged side by side in the same direction.
  • the lens section can be brought close to the object. It is possible to increase the collection efficiency of the emitted light by arranging it and increase the detection sensitivity. Therefore, even with a simple configuration, the relative thickness distribution can be measured with practical accuracy.
  • the light source section is arranged to face the second surface, and the light detection section is arranged to face the first surface.
  • the light emitted from the object is light that has passed through the object.
  • the light intensity of the emitted light can be adjusted. depends largely on the thickness of the object. Therefore, the measurement accuracy of relative thickness distribution can be further improved.
  • the optical axis of the lens portion may be along the normal line of the first surface. In this case, since the light emitted perpendicularly from the surface of the object is detected, the influence of the polarization state on the light intensity of the emitted light can be avoided, further improving the measurement accuracy of relative thickness distribution. .
  • the optical axis of the lens portion may be inclined with respect to the normal to the first surface. In this case, it is possible to easily detect flaws existing on the surface of the object at the same time as measuring the relative thickness distribution.
  • the angle of inclination of the optical axis of the lens portion with respect to the normal line may be 5° or more and 80° or less.
  • the image sensor has an output from a plurality of pixels.
  • the gain value for amplifying the signal may be switchable. In this case, even if the light intensity of the emitted light changes, the relative thickness distribution can be measured without replacing the image sensor.
  • the thickness distribution measuring device may further include another light source section.
  • Another light source section is disposed at a position facing the first surface, and irradiates the above region or another region extending in the width direction of the object being transported with light.
  • the light detection unit may detect light emitted from an object irradiated with light by another light source unit.
  • the gain value of the image sensor when light is irradiated from another light source may be different from the gain value of the image sensor when light is irradiated from the light source.
  • one device can be used to detect the light emitted from the surface irradiated with light and the light emitted from the surface opposite to the surface irradiated with light. Therefore, since information regarding the relative thickness distribution can be obtained based on the detection results of these emitted lights, it is possible to further improve the measurement accuracy of the relative thickness distribution.
  • the thickness distribution measuring device may further include a thickness measuring section that locally measures the absolute thickness of the object. Then, the calculation section may correct the relative thickness measurement value based on the absolute thickness measured by the thickness measurement section.
  • the thickness distribution measuring method according to any one of [2] to [5] and [7] above further includes a step of locally measuring the absolute thickness of the object, and in the step of obtaining information, The measured value of the relative thickness may be corrected based on the absolute thickness measured in the step.
  • the intensity of the light output from the light source section changes over time
  • the intensity of the output light to be measured also changes over time.
  • the thickness measuring section may have a spectral interference method. In the step of measuring, a spectral interference method may be used.
  • the image sensor may be a line scan sensor.
  • the photodetecting section may further include a first optical filter and a second optical filter.
  • the first optical filter is provided on some of the pixels of the image sensor, and has a transmission wavelength band centered on the first wavelength.
  • the second optical filter is provided on at least some other pixels among the plurality of pixels of the image sensor, and has a transmission wavelength band centered on a second wavelength different from the first wavelength.
  • the present disclosure it is possible to provide a thickness distribution measuring device and a thickness distribution measuring method that can check the thickness distribution of a transported object with a simple configuration.
  • FIG. 1 is a diagram schematically showing the configuration of a thickness distribution measuring device according to an embodiment.
  • FIG. 2 is a perspective view showing a light source section and a light detection section.
  • FIG. 3 is a cutaway perspective view showing the internal structure of the photodetector.
  • FIG. 4 is a plan view of the image sensor.
  • FIG. 5 is an example of image data obtained by the image sensor.
  • FIG. 6 is a diagram showing the configuration of the internal circuit of the image sensor.
  • FIG. 7 is a diagram showing an example of the configuration of each pixel.
  • FIG. 8 is a perspective view schematically showing the lens array.
  • FIG. 9 is a perspective view schematically showing the lens array.
  • FIG. 10 is a diagram schematically showing the configuration of the control device.
  • FIG. 1 is a diagram schematically showing the configuration of a thickness distribution measuring device according to an embodiment.
  • FIG. 2 is a perspective view showing a light source section and a light detection section.
  • FIG. 3 is a
  • FIG. 11 is a diagram schematically showing an example of the hardware configuration of the control device.
  • FIG. 12 is a diagram schematically showing how light is attenuated when passing through an object.
  • FIG. 13 is a graph showing the relationship shown in equation (1).
  • FIG. 14 is a flowchart illustrating a thickness distribution measurement method according to one embodiment.
  • FIG. 15 is a perspective view showing, as a comparative example, a plurality of reduction optical type measurement units arranged side by side in the width direction of the object.
  • Part (a) of FIG. 16 shows an example of an image acquired through a high-magnification lens.
  • Part (b) of FIG. 16 shows an example of an image acquired through a 1-magnification lens.
  • FIG. 17 is a cutaway perspective view showing the internal structure of the photodetector as a first modification.
  • FIG. 18 is a diagram schematically showing how light emitted from an object passes through an optical filter group. Parts (a) and (b) of FIG. 19 are graphs representing the relationship shown in equation (1) for each wavelength.
  • FIG. 20 is a diagram schematically showing the configuration of a thickness distribution measuring device according to a second modification.
  • FIG. 21 is a diagram showing an example of the configuration of each pixel of the image sensor of the second modification.
  • FIG. 22 is a diagram schematically showing the configuration of a thickness distribution measuring device according to a third modification.
  • FIG. 23 is an example of image data obtained by the image sensor.
  • FIG. 20 is a diagram schematically showing the configuration of a thickness distribution measuring device according to a second modification.
  • FIG. 21 is a diagram showing an example of the configuration of each pixel of the image sensor of the second modification.
  • FIG. 22 is a diagram schematically showing the configuration of
  • FIG. 24 is a diagram schematically showing the configuration of a thickness distribution measuring device according to a fourth modification.
  • FIG. 25 is a diagram schematically showing the configuration of a thickness distribution measuring device according to a fifth modification.
  • FIG. 26 is a perspective view showing a part of the configuration of the thickness distribution measuring device.
  • FIG. 27 is a diagram showing a specific configuration of the thickness measuring section.
  • FIG. 28 is a diagram for explaining the principle of thickness measurement, and schematically shows a cross section of the object. Parts (a), (b), and (c) of FIG. 29 are graphs showing the relationship between the intensity and wavelength of reflected light after interference.
  • FIG. 30 is a plan view showing measurement lines by the thickness measurement section.
  • Part (a) of FIG. 31 is a graph showing an example of the thickness measurement result when the calculation unit does not correct the relative thickness measurement value.
  • Part (b) of FIG. 31 is a graph showing an example of the thickness measurement result when the calculation unit corrects the relative thickness measurement value.
  • FIG. 1 is a diagram schematically showing the configuration of a thickness distribution measuring device 1A according to an embodiment of the present disclosure.
  • the thickness distribution measuring device 1A is a device that obtains information regarding the relative thickness distribution of the object B.
  • the relative thickness distribution here refers to the relative thickness distribution of the object B in the width direction of the object B.
  • the object B is a plate-like object or a sheet-like object having a first surface Ba and a second surface Bb facing opposite to the first surface Ba.
  • the object B is a polymer film being transported, cloth such as fabric or nonwoven fabric, paper, a substrate, or the like.
  • the object B of this embodiment is made of a single layer (single material) and does not have a structure in which a plurality of layers are laminated.
  • the width direction of the object B means a direction that intersects both the conveyance direction D1 and the thickness direction D3.
  • the width direction of the object B is orthogonal to both the conveyance direction D1 and the thickness direction D3.
  • the thickness direction D3 is, for example, along the vertical direction.
  • the thickness distribution measuring device 1A of the present embodiment includes a transport section 10, a light source section 20, a light detection section 30, a control device 40, an input device 54, and a monitor 55. Be prepared.
  • the transport unit 10 transports the object B in a transport direction D1 along the first surface Ba and the second surface Bb.
  • the conveyance section 10 is, for example, a roller conveyor, and includes a plurality of roller pairs 11 and a drive section (not shown) such as a motor that rotationally drives the plurality of roller pairs 11.
  • Each of the plurality of roller pairs 11 includes a pair of rollers 11a and 11b having a rotation axis extending in the width direction of the object B.
  • the object B is conveyed while being sandwiched between the rollers 11a and 11b as the rollers 11a and 11b rotate in opposite directions.
  • FIG. 2 is a perspective view showing the light source section 20 and the light detection section 30.
  • the light source unit 20 is arranged at a position facing one of the first surface Ba and the second surface Bb of the object B.
  • the light source section 20 is arranged at a position facing the second surface Bb.
  • the light source unit 20 irradiates a region R1 extending in the width direction D2 of the object B being transported with light La (see FIG. 1).
  • the region R1 extends from one end edge of the object B in the width direction D2 to the other end edge.
  • the light source section 20 has, for example, a configuration in which a plurality of light emitting elements are arranged along the width direction D2.
  • the light emitting element is exemplified by a light emitting diode (LED), but is not limited thereto.
  • the light emission wavelength and the light emission intensity of the plurality of light emitting elements are the same among the plurality of light emitting elements.
  • the light La output from the light source section 20 is temporally continuous light.
  • the wavelength of the light La may be included in the visible range or may be included in the near-infrared range.
  • the light detection unit 30 is arranged at a position facing the other of the first surface Ba and the second surface Bb of the object B.
  • the photodetector 30 is arranged at a position facing the first surface Ba.
  • the light detection section 30 faces the light source section 20 with the object B in between.
  • the light detection unit 30 detects the emitted light Lb from the object B irradiated with the light La.
  • the light Lb emitted from the object B is the light La that has passed through the object B.
  • FIG. 3 is a cutaway perspective view showing the internal structure of the photodetector 30.
  • the photodetector 30 includes a housing 31, an image sensor 32, a lens array 33, a circuit board 34, and holding members 318 and 319.
  • the housing 31 is a hollow container that has a rectangular parallelepiped appearance and extends along the width direction D2.
  • the housing 31 includes a top plate 311, a bottom plate 312, and side plates 313 and 314.
  • the top plate 311 and the bottom plate 312 face each other in the thickness direction D3.
  • the side plate 313 extends along the thickness direction D3 and connects one edge of the top plate 311 in the conveyance direction D1 and one edge of the bottom plate 312 in the conveyance direction D1.
  • the side plate 314 extends along the thickness direction D3 and connects the other edge of the top plate 311 in the conveyance direction D1 and the other edge of the bottom plate 312 in the conveyance direction D1.
  • the housing 31 houses the image sensor 32, the lens array 33, the circuit board 34, and the holding members 318 and 319.
  • a slit 315 extending along the width direction D2 is formed in the bottom plate 312 of the housing 31. The emitted light Lb from the object B passes through the slit 315 and reaches the inside of the housing 31 .
  • FIG. 4 is a plan view of the image sensor 32.
  • the image sensor 32 is, for example, a line scan sensor, and includes a pixel portion 321 whose longitudinal direction is the width direction D2.
  • the pixel section 321 includes a plurality of pixels 322 arranged at least along the width direction D2.
  • Each pixel 322 includes a photodiode.
  • the image sensor 32 detects the intensity of the emitted light Lb for each pixel 322 and generates image data.
  • the image sensor 32 repeatedly generates such image data at a predetermined time period.
  • FIG. 5 is an example of image data obtained by the image sensor 32.
  • the image sensor 32 outputs the generated image data to the control device 40.
  • the image sensor 32 is mounted on a circuit board 34.
  • the circuit board 34 is attached and fixed to the top plate 311 such that the mounting surface 34a on which the image sensor 32 is mounted faces the bottom plate 312, and the surface opposite to the mounting surface 34a faces the top board 311. There is.
  • FIG. 6 is a diagram showing the configuration of the internal circuit of the image sensor 32.
  • the image sensor 32 includes a pixel section 321 in which a plurality of pixels 322 are arranged along the width direction D2.
  • the plurality of pixels 322 have a common configuration.
  • the image sensor 32 further includes a readout circuit 60 and a sensor control section 70.
  • the readout circuit 60 and pixel section 321 of the image sensor 32 are controlled by the control device 40 and the sensor control section 70.
  • the image sensor 32 sequentially outputs voltage values corresponding to the amount of light incident on each pixel 322 from the readout circuit 60 to the control device 40 via the video line 81.
  • the readout circuit 60 includes a plurality of hold circuits 61, a plurality of switches 62, and a plurality of switches 63 that correspond one-to-one with each pixel 322.
  • Each hold circuit 61 is connected to the output end of the pixel 322 via a corresponding switch 62.
  • Each hold circuit 61 holds the voltage value that was output from the pixel 322 immediately before the corresponding switch 62 changed from the on state to the off state.
  • Each hold circuit 61 is connected to a video line 81 via a corresponding switch 63.
  • Each hold circuit 61 outputs the held voltage value to the video line 81 when the corresponding switch 63 is in the on state.
  • the plurality of switches 62 are controlled by control signals given from the sensor control unit 70, and are turned on and off at the same timing.
  • the plurality of switches 63 are controlled by another control signal given from the sensor control unit 70 and are sequentially turned on for a certain period of time.
  • the sensor control unit 70 not only controls on/off of each of the plurality of switches 62 and the plurality of switches 63 of the readout circuit 60, but also controls the operation of each of the plurality of pixels 322.
  • FIG. 7 is a diagram showing an example of the configuration of each pixel 322.
  • Each pixel 322 includes a photodiode 64, a MOS transistor 65, a MOS transistor 66, and a source follower amplifier 67.
  • Source follower amplifier 67 includes a MOS transistor 671, an operation control switch 672, and a current source 673.
  • the photodiode 64 generates charges in response to incident light.
  • the anode of the photodiode 64 is connected to a second reference potential input terminal 92 into which a second reference potential (eg, ground potential) is input.
  • the gate of the MOS transistor 671 is connected to the cathode of the photodiode 64 via the MOS transistor 65, and serves as a first reference potential input terminal to which a first reference potential (for example, power supply potential) is input via the MOS transistor 66.
  • the drain of the MOS transistor 671 is connected to the first reference potential input terminal 91.
  • the operation control switch 672 is provided between the source of the MOS transistor 671 and the connection node 674. Operation control switch 672 may be configured with a MOS transistor. Current source 673 is provided between connection node 674 and second reference potential input terminal 92. Current source 673 may include a MOS transistor. Current source 673 may be configured with a resistor.
  • each of the MOS transistors 65 and 66 is controlled by a control signal given from the sensor control section 70.
  • MOS transistor 66 When MOS transistor 66 is on, the gate potential of MOS transistor 671 is initialized.
  • MOS transistors 65 and 66 are in the on state, charge accumulation in the junction capacitance of photodiode 64 is initialized.
  • the MOS transistor 65 is on and the MOS transistor 66 is off, the gate potential of the MOS transistor 671 corresponds to the amount of light incident on the photodiode 64.
  • On/off of the operation control switch 672 is also controlled by a control signal given from the sensor control section 70. While the operation control switch 672 is in the on state, a current flows from the first reference potential input terminal 91 to the second reference potential input terminal 92 via the MOS transistor 671, the operation control switch 672, and the current source 673. As a result, a voltage value corresponding to the gate potential of MOS transistor 671 is output from connection node 674. On the other hand, during the period when the operation control switch 672 is in the off state, no current flows through the source follower amplifier 67, and the source follower amplifier 67 is in a power down state.
  • Each pixel 322 further includes a capacitive element 68 and a charge amplifier 69.
  • Charge amplifier 69 includes an amplifier 691, a capacitor section 692, and a reset switch 693.
  • the amplifier 691 has an inverting input terminal, a non-inverting input terminal, and an output terminal. A fixed bias potential is input to the non-inverting input terminal of the amplifier 691.
  • the inverting input terminal of amplifier 691 is connected to connection node 674 of source follower amplifier 67 via capacitive element 68 .
  • the capacitor section 692 is provided between the inverting input terminal and the output terminal of the amplifier 691.
  • the capacitor section 692 accumulates an amount of charge corresponding to the voltage value output from the source follower amplifier 67.
  • the capacitive section 692 includes a capacitive element 694.
  • the reset switch 693 is provided in parallel to the capacitor section 692 between the inverting input terminal and the output terminal of the amplifier 691.
  • the reset switch 693 When the reset switch 693 is in the on state, charge accumulation in the capacitor section 692 is reset.
  • the reset switch 693 is in the off state, a voltage value corresponding to the amount of charge accumulated in the capacitor section 692 and the capacitance value of the capacitor section 692 is output from the output terminal of the amplifier 691.
  • On/off of the reset switch 693 is controlled by a control signal given from the sensor control section 70.
  • the holding members 318 and 319 are fixed to the housing 31 inside the housing 31.
  • the holding members 318 and 319 are arranged on both sides of the lens array 33 in the transport direction D1, and hold the lens array 33 on both sides.
  • the lens array 33 is an example of a lens section in this embodiment.
  • FIG. 8 is a perspective view schematically showing the lens array 33.
  • the lens array 33 has a plurality of lenses 331 arranged along the width direction D2.
  • the magnification of each of the plurality of lenses 331 is equal to the magnification, and in one example, the magnification is 1.
  • the magnification of each of the plurality of lenses 331 is equal to the same magnification, it is not strictly necessary to be equal to one, and for example, if it is 0.9 times or more and 1.1 times or less, it is acceptable as the same magnification.
  • Each of the plurality of lenses 331 is, for example, a glass rod lens.
  • the light incident end surface 332 of each lens 331 faces the first surface Ba of the object B (see FIG.
  • each lens 331 faces the pixel section 321 (see FIG. 4) of the image sensor 32.
  • Each lens 331 does not necessarily have to correspond one-to-one with each pixel 322 of the pixel section 321.
  • the lens array 33 focuses and images the emitted light Lb on the pixel portion 321 of the image sensor 32.
  • the magnification of the image captured on the image sensor 32 is the same as or smaller than the magnification of the object B, which is the subject.
  • a lens array 33 with multiple rows (for example, two rows or three rows) as shown in FIG. 9 is better than a lens array 33 with a single row as shown in FIG. Collection efficiency can be further improved.
  • the optical axis of the lens array 33 is along the normal line of the surface facing the photodetector 30 of the first surface Ba and the second surface Bb of the object B. In the illustrated example, the optical axis of the lens array 33 is along the normal to the first surface Ba. In other words, the optical axis of the lens array 33 is perpendicular to the surface of the first surface Ba and second surface Bb of the object B that faces the photodetector 30.
  • the control device 40 is electrically connected to the transport section 10, the light source section 20, and the light detection section 30.
  • FIG. 10 is a diagram schematically showing the configuration of the control device 40.
  • the control device 40 includes a conveyance control section 41 that controls the operation of the conveyance section 10 such as the conveyance speed, a light source control section 42 that controls the operation of the light source section 20, and a detection control section 43 that controls the operation of the light detection section 30. and an arithmetic unit 44.
  • the calculation unit 44 receives image data as a result of detecting the emitted light Lb from the light detection unit 30.
  • the calculation unit 44 obtains information regarding the distribution of the relative thickness of the region R1 of the object B in the width direction D2 based on the image data.
  • the control device 40 may be, for example, a personal computer; a smart device such as a smartphone or a tablet terminal; or a computer having a processor such as a cloud server. At least one of the transport control section 41, the light source control section 42, and the detection control section 43 may be configured by a computer separate from the calculation section 44.
  • FIG. 11 is a diagram schematically showing an example of the hardware configuration of the control device 40.
  • the control device 40 is physically configured as a normal computer including a processor (CPU) 401, main storage devices such as ROM 402 and RAM 403, and auxiliary storage device 404 such as a hard disk. obtain.
  • the processor 401 of the computer can realize each function of the control device 40 described above by reading the program stored in the ROM 402 or the auxiliary storage device 404. Therefore, the program causes the processor 401 of the computer to operate as the transport control section 41, the light source control section 42, the detection control section 43, and the calculation section 44 in the control device 40.
  • the storage device that stores the program may be a non-temporary recording medium. Examples of the recording medium include a recording medium such as a flexible disk, CD, or DVD, a recording medium such as a ROM, a semiconductor memory, or a cloud server.
  • the input device 54 is electrically connected to the control device 40.
  • the operator inputs various settings regarding the conveyance control section 41, light source control section 42, detection control section 43, and calculation section 44 through the input device 54.
  • the input device 54 can be, for example, a keyboard, a mouse, or a touch panel.
  • Monitor 55 is electrically connected to control device 40 .
  • the monitor 55 displays information regarding the relative thickness distribution determined by the calculation unit 44.
  • the monitor 55 may be a touch screen including the input device 54 which is a touch panel.
  • the calculation unit 44 shown in FIG. 10 obtains information regarding the distribution of the relative thickness of the region R1 of the object B in the width direction D2 based on the image data.
  • the information regarding the relative thickness distribution may be a relative thickness distribution, or may be some numerical group related to the relative thickness distribution.
  • the information regarding the relative thickness distribution may be the image data itself. This is because the light intensity of the emitted light Lb appearing in the image data has a correlation with the thickness of the object B.
  • the relative thickness refers to a relative value at another position with respect to the value at a certain position in the width direction D2. Therefore, the calculation unit 44 does not necessarily need to accurately calculate the absolute thickness at each position in the width direction D2.
  • FIG. 12 is a diagram schematically showing how the light La is attenuated when passing through the object B.
  • the thickness of the arrow in the figure represents the light intensity.
  • the light La emitted from the light source section 20 passes through the object B and becomes the emitted light Lb.
  • the emitted light Lb is detected by the image sensor 32.
  • the absorption coefficient of the object B is ⁇
  • the thickness of the object B is x
  • the vertical axis represents the ratio (I/I 0 ) of the light intensity I of the emitted light Lb to the light intensity I 0 of the light La
  • the horizontal axis represents the thickness x of the object B. From this relationship, for example, when the value of the ratio (I/I 0 ) is P 1 , the thickness x of the object B is x 1 , and when the value of the ratio (I/I 0 ) is P 2 , the thickness x of the object B is The thickness x is uniquely determined based on the magnitude of the ratio (I/I 0 ), such as the thickness x is x 2 .
  • the thickness x is determined based on the light intensity I of the emitted light Lb. Even if the light intensity I0 of the light La is unknown, if the irradiation intensity from the plurality of light emitting elements of the light source section 20 is uniform, the relative thickness distribution in the width direction D2 can be determined.
  • FIG. 14 is a flowchart showing the thickness distribution measurement method according to this embodiment.
  • This thickness distribution measuring method can be implemented using the above-mentioned thickness distribution measuring device 1A.
  • step ST1 the conveyance direction along the first surface Ba and the second surface Bb of the object B having the first surface Ba and the second surface Bb facing opposite to the first surface Ba. Start transport to D1.
  • step ST2 irradiation of light La to a region R1 of the object B being transported, which extends in the width direction D2 intersecting the transport direction D1, is started.
  • detection of the emitted light Lb from the object B irradiated with the light La is started.
  • step ST3 the image sensor 32 and the lens array 33 are used.
  • the image sensor 32 has the pixel section 321 including at least a plurality of pixels 322 arranged in the width direction D2, detects the intensity of the emitted light Lb for each pixel 322, and outputs image data.
  • the lens array 33 has a plurality of lenses 331 arranged in the width direction D2, and focuses and images the emitted light Lb on the pixel portion 321 of the image sensor 32.
  • step ST4 information regarding the distribution of the relative thickness of region R1 of object B in width direction D2 is obtained based on the detection result in step ST3.
  • the thickness distribution measuring device 1A and the thickness distribution measuring method of this embodiment described above will be explained.
  • the light transmittance of the object B is uniform, the amount of light absorbed inside the object B depends on the thickness of the object B. Therefore, by irradiating the region R1 extending in the width direction D2 of the object B with the light La and detecting the light intensity I of the emitted light Lb from the region R1, the relative thickness of the object B can be measured. The distribution of the object B in the width direction D2 can be measured.
  • the thickness distribution measuring device 1A and the thickness distribution measuring method of the present embodiment the light intensity I of the emitted light Lb is detected using the image sensor 32 having a plurality of pixels 322 arranged in the width direction D2. Therefore, compared to the spectral interference method in which a plurality of measurement units are arranged side by side in the width direction D2 of the object B, the configuration can be simplified.
  • FIG. 15 is a perspective view showing a configuration in which a plurality of reduction optical type measurement units 101 are arranged side by side in the width direction D2 of the object B, as a comparative example.
  • the reduction optical type measurement unit 101 has a lens with high magnification (that is, with a magnification greater than the same magnification).
  • the collection efficiency of the emitted light Lb is kept low.
  • Part (a) of FIG. 16 shows an example of an image obtained through a high-magnification lens and in which the collection efficiency of the emitted light Lb is low.
  • the emitted light Lb is focused and imaged on the image sensor 32 using a lens array 33 having a plurality of equal-magnification lenses 331 arranged in the width direction D2.
  • the lens array 33 close to the object B, thereby increasing the collection efficiency of the emitted light Lb and increasing the detection sensitivity.
  • Part (b) of FIG. 16 shows an example of an image that is acquired through a 1-magnification lens and has a high collection efficiency of the emitted light Lb.
  • the light source section 20 is arranged to face one of the first surface Ba and the second surface Bb
  • the light detection section 30 is arranged to face the other of the first surface Ba and the second surface Bb. may be placed facing the surface of the
  • the emitted light Lb from the object B may be light that has passed through the object B.
  • the light source section 20 and the light detection section 30 are arranged so that the object B is sandwiched between the light source section 20 and the light detection section 30, and the light that has passed through the object B is emitted from the object B.
  • the light intensity I of the emitted light Lb largely depends on the thickness of the object B. Therefore, the measurement accuracy of relative thickness distribution can be further improved.
  • the optical axis of the lens array 33 may be along the normal line of the surface facing the photodetector 30 of the first surface Ba and the second surface Bb.
  • the emitted light Lb emitted perpendicularly from the surface of the object B is detected. Therefore, the influence of the polarization state on the light intensity I of the emitted light Lb can be avoided, and the measurement accuracy of the relative thickness distribution can be further improved.
  • the plurality of light emitting elements included in the light source section 20 it is preferable to use ones with high directivity so that the light La is incident perpendicularly to the surface of the object B as much as possible.
  • FIG. 17 is a cutaway perspective view showing the internal structure of the photodetector 30A as a first modification.
  • the photodetection section 30A of this modification further includes an optical filter section 35 in addition to the configuration of the photodetection section 30 of the above embodiment.
  • the optical filter section 35 is provided on the pixel section 321 of the image sensor 32. The emitted light Lb from the object B passes through the optical filter section 35 and then enters the pixel section 321 of the image sensor 32.
  • FIG. 18 is a diagram schematically showing how the emitted light Lb from the object B passes through the optical filter section 35.
  • the optical filter section 35 has a plurality of optical filter groups 36 arranged along the width direction D2.
  • Each optical filter group 36 includes a plurality of optical filters 37-39.
  • One of the optical filters 37 to 39 is an example of the first optical filter in this modification, and the other one of the optical filters 37 to 39 is an example of the second optical filter in this modification.
  • the optical filter 37 is provided on some of the pixels 322 of the image sensor 32 .
  • the optical filter 38 is provided on some of the pixels 322 of the image sensor 32 .
  • the optical filter 39 is provided on the remaining pixels 322 among the plurality of pixels 322 of the image sensor 32.
  • the optical filter 37 has a transmission wavelength band centered on wavelength ⁇ 1 .
  • Optical filter 38 has a transmission wavelength band centered at wavelength ⁇ 2 which is greater than wavelength ⁇ 1 .
  • the optical filter 39 has a transmission wavelength band centered on wavelength ⁇ 1 and wavelength ⁇ 3 which is larger than wavelength ⁇ 2 .
  • the wavelength ⁇ 1 is not included in the transmission wavelength band of the optical filters 38 and 39.
  • the wavelength ⁇ 2 is not included in the transmission wavelength band of the optical filters 37 and 39.
  • the wavelength ⁇ 3 is not included in the transmission wavelength band of the optical filters 37 and 38.
  • a wavelength component centered around the wavelength ⁇ 1 passes through the optical filter 37 and enters the pixel 322 .
  • a wavelength component centered at wavelength ⁇ 2 passes through optical filter 38 and enters another pixel 322 .
  • the wavelength component centered at wavelength ⁇ 3 passes through the optical filter 39 and enters another pixel 322 . In this way, the light intensity I of the emitted light Lb is detected for each wavelength.
  • Parts (a) and (b) of FIG. 19 are graphs representing the relationship shown in equation (1) for each wavelength.
  • curve G1 corresponds to wavelength ⁇ 1
  • curve G2 corresponds to wavelength ⁇ 2
  • curve G3 corresponds to wavelength ⁇ 3 .
  • Curves G1 to G3 in part (b) of FIG. 19 are the same as curves G1 to G3 in part (a) of FIG. Since the absorption coefficient ⁇ depends on the wavelength, the curves differ depending on the wavelength. In this example, it is assumed that the larger the wavelength, the smaller the absorption coefficient ⁇ , that is, the larger the light transmittance. Assume now that the light intensity of the light La is a predetermined magnitude I0 and is known.
  • the value of the ratio (I/I 0 ) is P 11 at the wavelength ⁇ 1 ; P 12 at wavelength ⁇ 2 and P 13 at wavelength ⁇ 3 .
  • the calculation unit 44 calculates the calculated thickness of the object B to be x 1 no matter which value of the ratio (I/I 0 ) is used at any wavelength. It is assumed that after that, the light intensity of the light La fluctuates from a predetermined magnitude I0 . At this time, the light intensity I of the emitted light Lb changes, so as shown in part (b) of FIG.
  • the value of the ratio (I/I 0 ) changes from P 11 to P 21 at the wavelength ⁇ 1 . , changes from P 12 to P 22 at wavelength ⁇ 2 , and changes from P 13 to P 23 at wavelength ⁇ 3 .
  • the calculation result of the thickness of the object B by the calculation unit 44 is different for each wavelength: x 11 at the wavelength ⁇ 1 , x 12 at the wavelength ⁇ 2 , and x 13 at the wavelength ⁇ 3 . From this, the operator can know that the light intensity of the light La output from the light source section 20 has changed over time, and can know the timing to adjust the light intensity of the light La or the parameters of the formula. can.
  • each optical filter group 36 includes three optical filters 37 to 39, but the number of optical filters in each optical filter group 36 may be two, four or more. It's okay.
  • each optical filter group 36 includes only two optical filters 37 and 38, the optical filter 37 is provided on some of the pixels 322 of the image sensor 32, and the optical filter 38 is provided on some of the pixels 322 of the image sensor 32. It is provided on the remaining pixels 322 among the plurality of pixels 322 of the sensor 32 .
  • FIG. 20 is a diagram schematically showing the configuration of a thickness distribution measuring device 1B according to a second modification.
  • the thickness distribution measuring device 1B of this modification further includes a light source section 21 different from the light source section 20 in addition to the configuration of the thickness distribution measuring device 1A of the above embodiment.
  • the light source section 21 is arranged at a position facing a surface (in the illustrated example, the first surface Ba) opposite to the surface facing the light source section 20 among the first surface Ba and the second surface Bb of the object B. There is.
  • the light source unit 21 irradiates the region R1 or another region extending in the width direction D2 (see FIG. 2) of the object B being transported with light Lc.
  • the light source section 21 has, for example, a configuration in which a plurality of light emitting elements are arranged along the width direction D2.
  • the light emitting element is exemplified by a light emitting diode (LED), but is not limited thereto.
  • the light emission wavelength and the light emission intensity of the plurality of light emitting elements are the same among the plurality of light emitting elements.
  • the light source section 21 outputs light Lc that is continuous light.
  • the wavelength of the light Lc may be included in the visible range or may be included in the near-infrared range.
  • the light intensity of the light Lc may be equal to or different from the light intensity of the light La.
  • the wavelength of the light Lc may be equal to or different from the wavelength of the light La.
  • the thickness distribution measuring device 1B of this modification includes a photodetector 30B instead of the photodetector 30 of the above embodiment.
  • the photodetector 30B is different from the photodetector 30 of the above embodiment in that the image sensor 32 is configured to be able to switch gain values for amplifying signals output from a plurality of pixels; This point coincides with the photodetector 30 of the above embodiment.
  • the light detection section 30B detects the emitted light Lb from the object B irradiated with the light La by the light source section 20, and additionally detects the emitted light Lb from the object B irradiated with the light Lc by the light source section 21. To detect.
  • the irradiation timing of the light La and the irradiation timing of the light Lc are controlled by the light source control unit 42 (see FIG. 10) of the control device 40 and are different from each other.
  • the gain value of the image sensor 32 is controlled to be different when the light La is irradiated from the light source section 20 and when the light Lc is irradiated from the light source section 21. That is, if the light intensity I of the emitted light Lb when the light La is irradiated is larger than the light intensity I of the emitted light Lb when the light Lc is irradiated, the light La is emitted from the light source section 20.
  • the gain value of the image sensor 32 when being irradiated with the light Lc is controlled to be smaller than the gain value of the image sensor 32 when being irradiated with the light Lc.
  • the light intensity I of the emitted light Lb when the light La is irradiated is smaller than the light intensity I of the emitted light Lb when the light Lc is emitted, the light La is not emitted from the light source section 20.
  • the gain value of the image sensor 32 when the light Lc is being irradiated is controlled so as to be larger than the gain value of the image sensor 32 when the light Lc is being irradiated. Thereby, the fluctuation width of the signal output from the image sensor 32 can be reduced.
  • FIG. 21 is a diagram showing a configuration example of each pixel 322A of the image sensor 32 of this modification.
  • the pixel 322A has the same configuration and function as the pixel 322 of the above embodiment except for the following points. That is, the pixel 322A of this modification has a capacitor section 692A instead of the capacitor section 692 (see FIG. 7) of the above embodiment.
  • Capacitor section 692A is provided between the inverting input terminal and output terminal of amplifier 691.
  • the capacitor section 692A stores an amount of charge corresponding to the voltage value output from the source follower amplifier 67.
  • the capacitance value of the capacitor section 692A is variable.
  • the capacitor section 692A is configured to include a capacitor element 694, a capacitor element 695, and a switch 696, so that the capacitance value can be made variable. Capacitive element 695 and switch 696 are connected in series with each other. The series circuit consisting of the capacitive element 695 and the switch 696 and the capacitive element 694 are provided in parallel with each other. Depending on whether the switch 696 is on or off, the capacitance value of the capacitor section 692A differs, and the gain (gain value) of the charge amplifier 69 differs. On/off of the switch 696 is controlled by a control signal given from the sensor control section 70.
  • the image sensor 32 may be configured to be able to switch the gain value for amplifying the signals output from the plurality of pixels 322A.
  • the gain value By setting the gain value to an appropriate value, the S/N ratio is improved and the measurement accuracy of the relative thickness distribution is improved.
  • a light source section 21 separate from the light source section 20 is provided, and the light source section 21 is connected to the surface facing the light source section 20 of the first surface Ba and second surface Bb of the object B. may be arranged at a position facing the opposite surface, and may irradiate a region of the object B being transported along the width direction D2 with the light Lc.
  • the photodetector 30B further detects the light Lb emitted from the object B irradiated with the light Lc by the light source 21. May be detected.
  • FIG. 22 is a diagram schematically showing the configuration of a thickness distribution measuring device 1C according to a third modification.
  • the thickness distribution measuring device 1C of this modification differs from the thickness distribution measuring device 1A of the above embodiment in that the optical axis of the lens array 33 of the photodetector 30 is inclined.
  • the thickness distribution measuring device 1C of this modification includes a control device 40A instead of the control device 40 of the above embodiment.
  • the control device 40A includes a flaw detection unit that detects flaws that occur on the surface of the object B. It further has a section 45.
  • the optical axis of the lens array 33 in this modification is the one of the first surface Ba and the second surface Bb of the object B that faces the photodetector 30 (the first surface Ba in the illustrated example). Tilt to the normal.
  • the angle of inclination of the optical axis of the lens array 33 with respect to the normal line is, for example, 5° or more, and may be 45° or more. The angle of inclination may be 80° or less. The larger the inclination angle of the optical axis of the lens array 33 with respect to the normal line, the easier it becomes to detect a flaw, which will be described later.
  • the light detection unit 30 detects the emitted light Lb from the object B irradiated with the light La.
  • the calculation unit 44 obtains information regarding the distribution of the relative thickness of the object B in the width direction D2 based on the image data obtained by the image sensor 32, as in the above embodiment.
  • the flaw detection unit 45 detects flaws that occur on the surface of the object B based on the image data obtained by the image sensor 32.
  • FIG. 23 is an example of image data obtained by the image sensor 32.
  • This image data includes an image of a flaw E generated on the surface of the object B.
  • the scratches E generated on the surface of the object B can be made more clearly by detecting the scattered light by tilting the optical axis of the lens array 33 with respect to the normal to the surface of the object B facing the light detection unit 30. appears in the image data. Therefore, according to this modification, it is possible to detect flaws present on the surface of the object B at the same time as measuring the relative thickness distribution.
  • the thickness distribution measuring device 1C may include a control device 40 without the flaw detection section 45 instead of the control device 40A having the flaw detection section 45. That is, the optical axis of the lens array 33 may be tilted even if the purpose is only to obtain information regarding the distribution of the relative thickness of the object B in the width direction D2 without detecting the flaw E.
  • one photodetector 30 is used to acquire information regarding the relative thickness distribution and to detect flaws E generated on the surface of the object B, but separate photodetectors are used for each. 30 may be used.
  • the optical axis of the lens array 33 of the photodetector 30 for acquiring information regarding the relative thickness distribution is made parallel to the normal to the surface of the object B, and the optical axis for detecting the flaw E is The optical axis of the lens array 33 of the section 30 may be inclined with respect to the normal to the surface of the object B.
  • FIG. 24 is a diagram schematically showing the configuration of a thickness distribution measuring device 1D according to a fourth modification.
  • the thickness distribution measuring device 1D of this modification has the point that the light detection section 30 is arranged facing the same surface (second surface Bb in the illustrated example) as the surface of the object B that faces the light source section 20.
  • This embodiment differs from the embodiment described above, and is identical to the embodiment described above in other respects.
  • the light Lb emitted from the object B detected by the photodetector 30 is light emitted from the same surface as the surface into which the light La is incident.
  • This emitted light Lb includes light reflected on a surface opposite to the surface on which the light La is incident, that is, light that passes through the inside of the object B. Therefore, the light intensity of the emitted light Lb changes depending on the thickness of the object B.
  • the light detection section 30 is disposed facing the same surface as the surface of the object B that faces the light source section 20 as in this modification, the light detection section 30 is based on the image data obtained by the image sensor 32. Thus, information regarding the distribution of the relative thickness of the object B in the width direction D2 can be obtained. Also in this modification, the optical axis of the lens array 33 may be inclined with respect to the normal to the surface of the object B facing the photodetector 30, as in the third modification. [Fifth modification]
  • FIG. 25 is a diagram schematically showing the configuration of a thickness distribution measuring device 1E according to a fifth modification.
  • FIG. 26 is a perspective view showing a part of the configuration of the thickness distribution measuring device 1E.
  • the thickness distribution measuring device 1E of this modification further includes a thickness measuring section 50 in addition to the configuration of the thickness distribution measuring device 1A of the above embodiment.
  • the thickness measurement unit 50 locally measures the absolute thickness of the object B.
  • the thickness measurement unit 50 measures the absolute thickness of the object B using, for example, a spectral interference method.
  • the thickness measurement section 50 includes a measurement unit 56 and a control section 57.
  • the measurement unit 56 is arranged to face the first surface Ba, the second surface Bb, or both of the first surface Ba and the second surface Bb of the object B.
  • FIG. 27 is a diagram showing a specific configuration of the thickness measuring section 50.
  • the thickness measurement section 50 includes a light irradiation section 51, a light detection section 52, and a calculation section 53.
  • the light irradiation unit 51 irradiates the first surface Ba or the second surface Bb of the object B with light.
  • the light irradiation section 51 includes a light source 511, a light guiding member 512, and a light emitting section 513.
  • the light source 511 generates incoherent light L1.
  • the wavelength band of the light L1 may be in the visible wavelength range, and in that case, the light source 511 may be a lamp-based light source that emits white light, a white LED, or the like.
  • the wavelength band of the light L1 may be a wavelength band ranging from a visible wavelength range to a near-infrared wavelength range.
  • the wavelength band of the light L1 may have a substantially flat (broad) spectrum in the infrared wavelength range.
  • the light L1 can be transmitted even if the object B has a tint, so the influence of the tint of the object B on the measurement results can be reduced. can be reduced.
  • various light emitting elements such as an ASE (Amplified Spontaneous Emission) light source, an LED, and an SLD (Super Luminescent Diode) may be used as the light source 511.
  • a white light source and an optical component such as an optical film may be combined with each other.
  • the light guide member 512 has one end optically coupled to the light source 511 and guides the light L1 emitted from the light source 511.
  • a light guide, an optical fiber, or the like is suitably used as the light guide member 512.
  • the light emitting section 513 is optically coupled to the other end of the light guide member 512, and irradiates the object B with the light L1 guided by the light guide member 512.
  • the light emitting section 513 is housed in the measurement unit 56 and is arranged at a position facing the first surface Ba or the second surface Bb of the object B.
  • the light detection unit 52 detects the intensity (spectrum) of each wavelength of the emitted light L2 from the object B.
  • the light detection section 52 includes a light incidence section 521, a light guide member 522, and a spectral detection section 523.
  • the light L2 emitted from the object B enters the light incidence section 521.
  • the light incidence section 521 is housed in the measurement unit 56 and is arranged to face the same surface of the object B that faces the light emission section 513 .
  • the light entrance section 521 may be arranged to face a surface of the object B that is opposite to the surface of the object B that faces the light output section 513.
  • the optical axis of the light output section 513 and the optical axis of the light input section 521 may be parallel to each other, or may intersect with each other at the object B. Alternatively, the optical axis of the light emitting section 513 and the optical axis of the light incident section 521 may coincide with each other.
  • the light guide member 522 has one end optically coupled to the light incidence section 521 and guides the output light L2 that has entered the light incidence section 521.
  • a light guide, an optical fiber, or the like is used as the light guide member 522.
  • the spectral detection unit 523 is optically coupled to the other end of the light guide member 522, and spectrally spectra the output light L2 guided by the light guide member 522 into wavelengths, and detects the intensity of the light for each wavelength. .
  • the spectral detection unit 523 is preferably configured by, for example, a combination of a spectral optical element and an image sensor.
  • the spectral detection unit 523 outputs the detected light intensity as an electrical signal.
  • the spectroscopic optical element is, for example, a prism or a grating element.
  • the image sensor is, for example, a line sensor, an area image sensor, a photomultiplier tube, or a photodiode.
  • the calculation unit 53 calculates the absolute thickness of the object B based on the detection result of the light detection unit 52. That is, the calculation unit 53 compares the measured spectral reflectance, which is the reflectance for each wavelength obtained based on the detection result in the photodetector 52, and the theoretical spectral reflectance, which is the theoretical reflectance for each wavelength. , and by fitting these to each other, the absolute thickness of the object B is determined. The data regarding the absolute thickness of the object B thus determined is provided to the calculation unit 44.
  • the light source 511, the spectral detection section 523, and the calculation section 53 are included in the control section 57.
  • FIG. 28 is a diagram for explaining the principle of thickness measurement, and schematically shows a cross section of the object B.
  • the incoherent light L1 is incident on the object B
  • the light reflected from the first surface Ba of the object B and the light reflected from the second surface Bb of the object B interfere with each other.
  • the first surface Ba is a light entrance surface
  • the optical path length of the reflected light on the second surface Bb is longer than the optical path length of the reflected light on the first surface Ba by the amount of the optical path inside the object B. . Therefore, a phase difference depending on the thickness of the object B occurs between these reflected lights.
  • Parts (a), (b), and (c) of FIG. 29 are graphs showing the relationship between the intensity and wavelength of reflected light after interference.
  • Part (a) of FIG. 29 shows a case where the thickness of the object B is thinner than parts (b) and (c).
  • Part (c) of FIG. 29 shows a case where the object B is thicker than parts (a) and (b).
  • the spectrum of reflected light after interference (reflection spectrum) is wavy due to interference. The interval, or period, of the waves becomes smaller as the thickness of the object B becomes thicker.
  • the absolute thickness of the object B can be determined by using the relationship between the reflection spectrum and the thickness of the object B as described above.
  • Specific methods include a fast Fourier transform method and a curve fitting method.
  • the fast Fourier transform method the reflection spectrum is subjected to fast Fourier transform, and the film thickness is determined from the peak frequency.
  • the curve fitting method is a method in which the spectral reflectance determined from the measured reflection spectrum, that is, the measured spectral reflectance, is fitted to the theoretical spectral reflectance calculated from a theoretical formula, and the film thickness is determined from the fitted theoretical spectral reflectance. It is. According to the curve fitting method, even if the thickness of the object B is 1 ⁇ m or less, it can be measured with high accuracy.
  • the information regarding the relative thickness distribution of the object B calculated by the calculation unit 44 is influenced by temporal fluctuations in the light intensity of the light La irradiated onto the object B, and the like.
  • the calculation unit 44 of this modification corrects the measured value of the relative thickness distribution based on the absolute thickness measured by the thickness measurement unit 50. Specifically, at the point where the absolute thickness is measured by the thickness measurement unit 50, a mathematical formula such as light intensity I 0 is used so that the relative thickness x determined by formula (1) matches the absolute thickness. Correct the size of the parameter in (1).
  • the measurement unit 56 may emit the light L1 and detect the emitted light L2 while moving along the width direction D2 of the object B.
  • FIG. 30 is a plan view showing the measurement line Q1 by the thickness measurement section 50 in that case.
  • the object B is being transported at a constant speed along the transport direction D1. Therefore, when the measurement unit 56 reciprocates at a constant speed along the width direction D2, the trajectory of the measurement points by the thickness measurement section 50 forms a zigzag measurement line Q1, as shown in FIG. Then, the absolute thickness of the object B is measured only on the measurement line Q1.
  • the position of the measurement point where the relative thickness of the object B is measured based on the detection result of a certain pixel 322 of the image sensor 32 remains unchanged in the width direction D2. Therefore, the locus of the measurement point where the relative thickness is measured by a certain pixel 322 forms a measurement line Q2 extending along the conveyance direction D1.
  • the calculation unit 44 can correct the relative thickness measurement value obtained from the detection result at the one pixel 322 at the point S where the measurement line Q1 and the measurement line Q2 intersect.
  • Part (a) of FIG. 31 is a graph showing an example of the measurement result of the thickness x when the calculation unit 44 does not correct the relative thickness measurement value.
  • Part (b) of FIG. 31 is a graph showing an example of the measurement result of the thickness x when the calculation unit 44 corrects the relative thickness measurement value.
  • the vertical axis represents the relative thickness of the object B at the measurement line Q2
  • the horizontal axis represents the position of the object B in the transport direction D1.
  • the relative thickness measurement value becomes It gradually increases or decreases due to changes in the characteristics of the light source section 20 over time.
  • the parameter for calculating the relative thickness measurement value is Fixed. Therefore, regardless of temporal fluctuations in the light intensity of the light La, it is possible to suppress an increase or decrease in the measured value of the relative thickness.
  • each of the plurality of lenses 331 is a rod lens, but each of the plurality of lenses 331 may be a lens of another type, for example, a convex lens.
  • 1A, 1B, 1C, 1D, 1E... Thickness distribution measuring device 10... Conveyance section, 11... Roller pair, 11a, 11b... Roller, 20, 21... Light source section, 30, 30A, 30B... Light detection section, 31... Housing, 32... Image sensor, 33... Lens array (lens section), 34... Circuit board, 34a... Mounting surface, 35... Optical filter section, 36... Optical filter group, 37-39... Optical filter, 40, 40A... Control device, 41...Transportation control unit, 42...Light source control unit, 43...Detection control unit, 44...Calculation unit, 45...Flaw detection unit, 50...Thickness measurement unit, 51...Light irradiation unit, 52...Light detection unit, 53...
  • Arithmetic unit 54... Input device, 55... Monitor, 56... Measurement unit, 57... Control unit, 60... Readout circuit, 61... Hold circuit, 62, 63... Switch, 64... Photodiode, 65, 66... MOS Transistor, 67... Source follower amplifier, 68... Capacitive element, 69... Charge amplifier, 70... Sensor control section, 81... Video line, 101... Measurement unit, 311... Top plate, 312... Bottom plate, 313, 314...
  • Capacitive element 696... Switch, B... Object, Ba... First surface, Bb... Second surface, D1...Conveyance direction, D2...Width direction, D3...Direction, E...Flaw, F...Double-headed arrow, G1-G3...Curve, L1, La, Lc...Light, L2, Lb...Output light, Q1, Q2...Measurement line , R1...area, S...point.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

厚み分布計測装置1Aは、光源部20と、光検出部30と、制御装置40と、を備える。光源部20は、搬送中の対象物Bにおける、幅方向D2に延在する領域に光Laを照射する。光検出部30は、対象物Bを透過した出射光Lbを検出する。制御装置40は、光検出部30における検出結果に基づいて、対象物Bの幅方向D2における相対的な厚みの分布に関する情報を求める。光検出部30は、イメージセンサと、レンズアレイとを有する。イメージセンサは、幅方向D2に配列された複数の画素を有し、出射光Lbの強度を画素毎に検出する。レンズアレイは、等倍の倍率を有し幅方向D2に沿って配列された複数のレンズを有し、イメージセンサに出射光Lbを集光および結像する。

Description

厚み分布計測装置および厚み分布計測方法
 本開示は、厚み分布計測装置および厚み分布計測方法に関する。
 特許文献1は、膜厚計測装置を開示する。膜厚計測装置は、計測対象物の膜厚を計測する装置である。計測対象物は、表面及び裏面を有する基材と、表面上に形成された第1の膜と、裏面上に形成された第2の膜とを備える。膜厚計測装置は、光照射部と、光検出部と、膜厚算出部と、を備える。光照射部は、計測対象物の表面側に光を照射する。光検出部は、計測対象物の表面側における反射光の波長毎の強度を検出する。膜厚算出部は、光検出部における検出結果に基づいて得られる波長毎の反射率と、理論上の波長毎の反射率とを比較することにより、第1の膜の膜厚を決定する。理論上の波長毎の反射率には、表面側における反射率及び透過率、並びに裏面側における反射率が加味される。
 特許文献2および特許文献3は、画像読み取り装置のセンサユニットを開示する。
特開2015-141176号公報 特開2020-170973号公報 特開2017-046241号公報
 或る程度の幅を有する板状もしくは膜状の対象物の相対的な厚みの幅方向における分布を、幅方向と交差する方向に対象物が搬送される途中において確認したいという要望がある。例えば、高分子フィルムを製造する際には、高分子フィルムの材料を縦方向および横方向に延伸してフィルム状に成型したのち、そのフィルムの厚みが均一であることを検査して確認することが望まれる。
 従来、対象物の厚みを計測する方式として、分光干渉方式がある。分光干渉方式では、対象物に光を照射し、対象物の光照射面における反射光と、対象物の光照射面とは反対の面における反射光との干渉光の強度を計測する。干渉光強度の波長による変化に基づいて、対象物の厚みを求めることができる。しかしながら、この方式は、対象物の厚みを局所的に計測する方式である。従って、搬送される途中において対象物の厚み分布を確認したい場合には、対象物に光を照射する照射部と、干渉光を計測する計測部とを有する複数の計測ユニットを並べて配置する必要がある。その場合、対象物の幅が大きいほど計測ユニットの個数を多くする必要があり、構成が複雑になる。
 本開示は、搬送される対象物の相対的な厚みの分布を、対象物が搬送される途中において、簡易な構成によって確認することができる厚み分布計測装置および厚み分布計測方法を提供することを目的とする。
 [1]本開示の一実施形態による厚み分布計測装置は、搬送部と、光源部と、光検出部と、演算部と、を備える。搬送部は、第1面および第1面とは反対を向く第2面を有する対象物を、第1面および第2面に沿った搬送方向に搬送する。光源部は、対象物の第2面と対向する位置に配置され、搬送中の対象物における、搬送方向と交差する幅方向に延在する領域に光を照射する。光検出部は、対象物の第1面と対向する位置に配置され、光が照射された対象物を透過した出射光を検出する。演算部は、光検出部における検出結果に基づいて、対象物の前記領域の相対的な厚みの、幅方向における分布に関する情報を求める。光検出部は、イメージセンサと、レンズ部とを有する。イメージセンサは、少なくとも幅方向に配列された複数の画素を含む画素部を有し、出射光の強度を画素毎に検出して画像データを出力する。レンズ部は、等倍の倍率を有し幅方向に沿って配列された複数のレンズを有し、イメージセンサの画素部に出射光を集光および結像する。
 [2]本開示の一実施形態による厚み分布計測方法は、第1面および第1面とは反対を向く第2面を有する対象物の、第1面および第2面に沿った搬送方向への搬送を開始するステップと、搬送中の対象物における、搬送方向と交差する幅方向に延在する領域への光の照射を開始するステップと、光が照射された対象物を透過した出射光の検出を開始するステップと、検出するステップにおける検出結果に基づいて、対象物の前記領域の相対的な厚みの幅方向における分布に関する情報を求めるステップと、を含む。検出するステップでは、少なくとも幅方向に配列された複数の画素を含む画素部を有し、出射光の強度を画素毎に検出して画像データを出力するイメージセンサと、等倍の倍率を有し幅方向に沿って配列された複数のレンズを有し、イメージセンサの画素部に出射光を集光および結像するレンズ部と、を用いる。
 対象物の光透過率が均一である場合、対象物の内部における光の吸収量は対象物の厚みに依存する。したがって、対象物の幅方向に延在する領域に光を照射し、該領域からの出射光の光強度を検出することによって、対象物の相対的な厚みの幅方向における分布を計測することができる。上記の厚み分布計測装置および厚み分布計測方法によれば、幅方向に配列された複数の画素を有するイメージセンサを用いて出射光の光強度を検出するので、複数の計測ユニットを対象物の幅方向に並べて配置する分光干渉方式と比較して、構成を簡易化することができる。加えて、等倍の倍率を有し幅方向に配列された複数のレンズを有するレンズ部を用いて出射光をイメージセンサに集光および結像することによって、レンズ部を対象物に近接して配置して出射光の収集効率を高め、検出感度を高めることができる。故に、簡易な構成であっても、相対的な厚みの分布を実用的な精度で計測することができる。
 上記の厚み分布計測装置において、光源部は第2面と対向して配置され、光検出部は第1面と対向して配置されている。そして、対象物からの出射光は、対象物を透過した光である。このように、光源部と光検出部とを、対象物をそれらの間に挟むように配置し、対象物を透過した光を対象物からの出射光として検出することによって、出射光の光強度が対象物の厚みに大きく依存する。従って、相対的な厚みの分布の計測精度を更に向上することができる。
 [3]上記[1]の厚み分布計測装置および上記[2]の厚み分布計測方法において、レンズ部の光軸は、第1面の法線に沿っていてもよい。この場合、対象物の表面から垂直に出射する光を検出するので、偏光状態による出射光の光強度への影響を回避して、相対的な厚みの分布の計測精度を更に向上することができる。
 [4]上記[1]の厚み分布計測装置および上記[2]の厚み分布計測方法において、レンズ部の光軸は、第1面の法線に対して傾斜していてもよい。この場合、相対的な厚みの分布の計測と同時に、対象物の表面に存在する傷の検出を容易に行うことができる。法線に対するレンズ部の光軸の傾斜角は、5°以上80°以下であってもよい。
 [5]上記[1]、[3]、または[4]の厚み分布計測装置および上記[2]~[4]のいずれかの厚み分布計測方法において、イメージセンサは、複数の画素から出力される信号を増幅するゲイン値を切り替え可能なように構成されていてもよい。この場合、出射光の光強度が変化する場合であっても、イメージセンサを取り換えることなく相対的な厚みの分布を計測することができる。
 [6]上記[5]の厚み分布計測装置は、別の光源部を更に備えてもよい。別の光源部は、第1面と対向する位置に配置され、搬送中の対象物における、上記領域または幅方向に延在する別の領域に光を照射する。そして、光検出部は、別の光源部により光が照射された対象物からの出射光を検出してもよい。別の光源部から光が照射されているときのイメージセンサのゲイン値は、光源部から光が照射されているときのイメージセンサのゲイン値と異なってもよい。この場合、一つの装置を用いて、光が照射された面からの出射光と、光が照射された面とは反対の面からの出射光とを検出することができる。よって、これらの出射光の検出結果に基づいて相対的な厚みの分布に関する情報を求めることができるので、相対的な厚みの分布の計測精度を更に高めることができる。
 [7]上記[1]、[3]~[6]のいずれかの厚み分布計測装置は、対象物の絶対的な厚みを局所的に計測する厚み計測部を更に備えてもよい。そして、演算部は、厚み計測部によって計測された絶対的な厚みに基づいて、相対的な厚みの計測値を補正してもよい。同様に、上記[2]~[5]、[7]のいずれかの厚み分布計測方法は、対象物の絶対的な厚みを局所的に計測するステップを更に含み、情報を求めるステップでは、計測するステップによって計測された絶対的な厚みに基づいて、相対的な厚みの計測値を補正してもよい。上記の厚み分布計測装置では、光源部から出力される光の強度が時間的に変動すると、測定される出射光の強度も時間的に変動する。同様に、上記の厚み分布計測方法では、照射を開始するステップにおいて照射される光の強度が時間的に変動すると、測定される出射光の強度も時間的に変動する。厚み計測部(計測するステップ)により計測された絶対的な厚みに基づく補正によって、相対的な厚みの分布の計測精度を更に高めることができる。厚み計測部は、分光干渉方式を有してもよい。計測するステップでは、分光干渉方式を用いてもよい。
 [8]上記[1]、[3]~[7]のいずれかの厚み分布計測装置において、イメージセンサはラインスキャンセンサであってもよい。
 [9]上記[1]、[3]~[8]のいずれかの厚み分布計測装置において、光検出部は、第1光学フィルタと、第2光学フィルタとを更に有してもよい。第1光学フィルタは、イメージセンサの複数の画素のうち一部の画素上に設けられ、第1波長を中心とする透過波長帯域を有する。第2光学フィルタは、イメージセンサの複数の画素のうち他の少なくとも一部の画素上に設けられ、第1波長とは異なる第2波長を中心とする透過波長帯域を有する。前述したように、光源部から出力される光の強度が時間的に変動すると、測定される出射光の強度も時間的に変動する。故に、相対的な厚みの分布の計測結果が波長毎に異なる結果となる。このことにより、光源部から出力される光の強度が時間的に変動したことを知ることができる。
 本開示によれば、搬送される対象物の厚み分布を、簡易な構成によって確認することができる厚み分布計測装置および厚み分布計測方法を提供できる。
図1は、一実施形態に係る厚み分布計測装置の構成を模式的に示す図である。 図2は、光源部および光検出部を示す斜視図である。 図3は、光検出部の内部構造を示す切欠斜視図である。 図4は、イメージセンサの平面図である。 図5は、イメージセンサによって得られた画像データの一例である。 図6は、イメージセンサの内部回路の構成を示す図である。 図7は、各画素の構成例を示す図である。 図8は、レンズアレイを模式的に示す斜視図である。 図9は、レンズアレイを模式的に示す斜視図である。 図10は、制御装置の構成を概略的に示す図である。 図11は、制御装置のハードウェアの構成例を概略的に示す図である。 図12は、光が対象物を透過する際に減衰される様子を模式的に示す図である。 図13は、数式(1)に示される関係を表すグラフである。 図14は、一実施形態による厚み分布計測方法を示すフローチャートである。 図15は、比較例として、縮小光学型の複数の計測ユニットを対象物の幅方向に並べて配置した形態を示す斜視図である。 図16の(a)部は、高倍率のレンズを介して取得された画像の例を示す。図16の(b)部は、等倍レンズを介して取得された画像の例を示す。 図17は、第1変形例として、光検出部の内部構造を示す切欠斜視図である。 図18は、対象物からの出射光が光学フィルタ群を通過する様子を模式的に示す図である。 図19の(a)部および(b)部は、数式(1)に示される関係を、波長毎に表すグラフである。 図20は、第2変形例に係る厚み分布計測装置の構成を模式的に示す図である。 図21は、第2変形例のイメージセンサの各画素の構成例を示す図である。 図22は、第3変形例に係る厚み分布計測装置の構成を模式的に示す図である。 図23は、イメージセンサによって得られた画像データの一例である。 図24は、第4変形例に係る厚み分布計測装置の構成を模式的に示す図である。 図25は、第5変形例に係る厚み分布計測装置の構成を模式的に示す図である。 図26は、厚み分布計測装置の構成の一部を示す斜視図である。 図27は、厚み計測部の具体的な構成を示す図である。 図28は、厚み計測の原理を説明するための図であって、対象物の断面を模式的に示している。 図29の(a)部、(b)部および(c)部は、干渉後の反射光の強度と波長との関係を示すグラフである。 図30は、厚み計測部による計測ラインを示す平面図である。 図31の(a)部は、演算部が相対的な厚みの計測値を補正しないときの、厚みの計測結果の例を示すグラフである。図31の(b)部は、演算部が相対的な厚みの計測値を補正したときの、厚みの計測結果の例を示すグラフである。
 以下、添付図面を参照しながら本開示による厚み分布計測装置および厚み分布計測方法の実施の形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 図1は、本開示の一実施形態に係る厚み分布計測装置1Aの構成を模式的に示す図である。厚み分布計測装置1Aは、対象物Bの相対的な厚みの分布に関する情報を求める装置である。ここでいう相対的な厚みの分布とは、対象物Bの幅方向における、対象物Bの相対的な厚みの分布をいう。対象物Bは、第1面Baおよび第1面Baとは反対を向く第2面Bbを有する板状の物若しくはシート状の物である。一例では、対象物Bは搬送中の高分子フィルム、生地若しくは不織布といった布類、紙類、または基板等である。本実施形態の対象物Bは、単一層(単一材料)からなり、複数の層が積層された構造を有していない。対象物Bの幅方向とは、搬送方向D1および厚み方向D3の双方と交差する方向を意味する。一例では、対象物Bの幅方向は搬送方向D1および厚み方向D3の双方と直交する。搬送途中において、厚み方向D3は例えば鉛直方向に沿っている。
 図1に示されるように、本実施形態の厚み分布計測装置1Aは、搬送部10と、光源部20と、光検出部30と、制御装置40と、入力装置54と、モニタ55と、を備える。搬送部10は、対象物Bを、第1面Baおよび第2面Bbに沿った搬送方向D1に搬送する。搬送部10は、例えばローラコンベアであって、複数のローラ対11と、複数のローラ対11を回転駆動するモータ等の駆動部(不図示)とを有する。複数のローラ対11それぞれは、対象物Bの幅方向に延在する回転軸を有する一対のローラ11a,11bを含む。対象物Bは、ローラ11aとローラ11bとの間に挟まれた状態で、ローラ11aとローラ11bとが互いに逆向きに回転することによって搬送される。
 図2は、光源部20および光検出部30を示す斜視図である。光源部20は、対象物Bの第1面Baおよび第2面Bbのうち一方の面と対向する位置に配置される。図示例では、光源部20は第2面Bbと対向する位置に配置されている。光源部20は、搬送中の対象物Bにおける、幅方向D2に延在する領域R1に光La(図1を参照)を照射する。領域R1は、対象物Bの幅方向D2における一端縁から他端縁にわたって延びている。光源部20は、例えば、複数の発光素子が幅方向D2に沿って配列された構成を有する。発光素子としては発光ダイオード(LED)が例示されるが、これに限られない。複数の発光素子の発光波長および発光強度は複数の発光素子間で揃っている。光源部20から出力される光Laは、時間的に連続する光である。光Laの波長は、可視域に含まれてもよく、近赤外域に含まれてもよい。
 光検出部30は、対象物Bの第1面Baおよび第2面Bbのうち他方の面と対向する位置に配置されている。図示例では、光検出部30は第1面Baと対向する位置に配置されている。光検出部30は、対象物Bを間に挟んで光源部20と対向する。光検出部30は、光Laが照射された対象物Bからの出射光Lbを検出する。本実施形態では、対象物Bからの出射光Lbは、対象物Bを透過した光Laである。
 図3は、光検出部30の内部構造を示す切欠斜視図である。図3に示されるように、光検出部30は、筐体31と、イメージセンサ32と、レンズアレイ33と、回路基板34と、保持部材318,319とを有する。筐体31は、幅方向D2に沿って延びる直方体状の外観を有する中空容器である。筐体31は、天板311と、底板312と、側板313,314とを有する。天板311と底板312とは、厚み方向D3において互いに対向する。側板313は、厚み方向D3に沿って延在し、搬送方向D1における天板311の一方の端縁と、搬送方向D1における底板312の一方の端縁とを繋ぐ。側板314は、厚み方向D3に沿って延在し、搬送方向D1における天板311の他方の端縁と、搬送方向D1における底板312の他方の端縁とを繋ぐ。筐体31は、イメージセンサ32、レンズアレイ33、回路基板34、および保持部材318,319を収容する。筐体31の底板312には、幅方向D2に沿って延びるスリット315が形成されている。対象物Bからの出射光Lbは、スリット315を通って筐体31の内部に到達する。
 図4は、イメージセンサ32の平面図である。イメージセンサ32は、例えばラインスキャンセンサであって、幅方向D2を長手方向とする画素部321を有する。画素部321は、少なくとも幅方向D2に沿って配列された複数の画素322を含む。各画素322は、フォトダイオードを含む。イメージセンサ32は、出射光Lbの強度を画素322毎に検出して、画像データを生成する。イメージセンサ32は、このような画像データの生成を、所定の時間周期で繰り返し行う。図5は、イメージセンサ32によって得られた画像データの一例である。イメージセンサ32は、生成した画像データを、制御装置40へ出力する。図3に示されるように、イメージセンサ32は、回路基板34上に実装されている。回路基板34は、イメージセンサ32を搭載する搭載面34aが底板312と対向し、搭載面34aとは反対側の面が天板311と対向するように、天板311に取り付けられて固定されている。
 図6は、イメージセンサ32の内部回路の構成を示す図である。前述したように、イメージセンサ32は、複数の画素322が幅方向D2に沿って配列された画素部321を有する。複数の画素322は、互いに共通の構成を有している。イメージセンサ32は、読出回路60及びセンサ制御部70を更に有する。イメージセンサ32の読出回路60及び画素部321は、制御装置40及びセンサ制御部70により制御される。イメージセンサ32は、各画素322への入射光量に応じた電圧値を読出回路60からビデオライン81を介して制御装置40へ順次に出力する。
 読出回路60は、各画素322と一対一で対応する複数のホールド回路61、複数のスイッチ62、および複数のスイッチ63を含む。各ホールド回路61は、対応するスイッチ62を介して画素322の出力端と接続されている。各ホールド回路61は、対応するスイッチ62がオン状態からオフ状態に転じる直前に画素322から出力されていた電圧値を保持する。各ホールド回路61は、対応するスイッチ63を介してビデオライン81と接続されている。各ホールド回路61は、対応するスイッチ63がオン状態であるときに、保持している電圧値をビデオライン81へ出力する。
 複数のスイッチ62は、センサ制御部70から与えられる制御信号により制御されて、互いに同じタイミングでオン/オフが切り替えられる。複数のスイッチ63は、センサ制御部70から与えられる別の制御信号により制御されて、順次に一定期間だけオン状態となる。センサ制御部70は、読出回路60の複数のスイッチ62それぞれ及び複数のスイッチ63それぞれのオン/オフを制御する他、複数の画素322それぞれの動作をも制御する。
 図7は、各画素322の構成例を示す図である。各画素322は、フォトダイオード64、MOSトランジスタ65、MOSトランジスタ66及びソースフォロワアンプ67を備える。ソースフォロワアンプ67は、MOSトランジスタ671、動作制御スイッチ672及び電流源673を含む。
 フォトダイオード64は、光入射に応じて電荷を発生させる。フォトダイオード64のアノードは、第2基準電位(例えば接地電位)が入力される第2基準電位入力端92と接続される。MOSトランジスタ671のゲートは、MOSトランジスタ65を介してフォトダイオード64のカソードと接続されるとともに、MOSトランジスタ66を介して、第1基準電位(例えば電源電位)が入力される第1基準電位入力端91と接続される。MOSトランジスタ671のドレインは第1基準電位入力端91と接続される。
 動作制御スイッチ672は、MOSトランジスタ671のソースと接続ノード674との間に設けられている。動作制御スイッチ672はMOSトランジスタにより構成され得る。電流源673は、接続ノード674と第2基準電位入力端92との間に設けられている。電流源673は、MOSトランジスタを含んで構成され得る。電流源673は、抵抗器により構成されてもよい。
 MOSトランジスタ65,66それぞれのオン/オフは、センサ制御部70から与えられる制御信号により制御される。MOSトランジスタ66がオン状態であるとき、MOSトランジスタ671のゲート電位が初期化される。MOSトランジスタ65,66がオン状態であるとき、フォトダイオード64の接合容量における電荷の蓄積が初期化される。MOSトランジスタ65がオン状態であってMOSトランジスタ66がオフ状態であるとき、MOSトランジスタ671のゲート電位は、フォトダイオード64への入射光量に応じたものとなる。
 動作制御スイッチ672のオン/オフも、センサ制御部70から与えられる制御信号により制御される。動作制御スイッチ672がオン状態である期間、第1基準電位入力端91からMOSトランジスタ671、動作制御スイッチ672及び電流源673を経て第2基準電位入力端92へ電流が流れる。これにより、MOSトランジスタ671のゲート電位に応じた電圧値が接続ノード674から出力される。一方、動作制御スイッチ672がオフ状態である期間では、ソースフォロワアンプ67には電流が流れず、ソースフォロワアンプ67はパワーダウン状態となる。
 各画素322は、さらに、容量素子68及びチャージアンプ69を更に備える。チャージアンプ69は、アンプ691、容量部692及びリセットスイッチ693を含む。
 アンプ691は、反転入力端子、非反転入力端子及び出力端子を有する。アンプ691の非反転入力端子には、固定のバイアス電位が入力される。アンプ691の反転入力端子は、容量素子68を介して、ソースフォロワアンプ67の接続ノード674と接続されている。
 容量部692は、アンプ691の反転入力端子と出力端子との間に設けられている。容量部692は、ソースフォロワアンプ67から出力される電圧値に応じた量の電荷を蓄積する。容量部692は、容量素子694を含んで構成されている。
 リセットスイッチ693は、アンプ691の反転入力端子と出力端子との間において、容量部692に対して並列的に設けられている。リセットスイッチ693がオン状態であるとき、容量部692における電荷蓄積がリセットされる。リセットスイッチ693がオフ状態であるとき、容量部692における電荷蓄積量及び容量部692の容量値に応じた電圧値がアンプ691の出力端子から出力される。リセットスイッチ693のオン/オフは、センサ制御部70から与えられる制御信号により制御される。
 再び図3を参照する。保持部材318,319は、筐体31の内部において筐体31に固定されている。保持部材318,319は、レンズアレイ33の搬送方向D1における両側面に配置され、レンズアレイ33を挟んで保持する。レンズアレイ33は、本実施形態におけるレンズ部の例である。
 図8は、レンズアレイ33を模式的に示す斜視図である。レンズアレイ33は、幅方向D2に沿って配列された複数のレンズ331を有する。複数のレンズ331それぞれの倍率は等倍であり、一例では1倍である。複数のレンズ331それぞれの倍率が等倍である場合、厳密に1倍である必要は無く、例えば、0.9倍以上1.1倍以下であれば等倍として許容できる。複数のレンズ331それぞれは、例えばガラス製のロッドレンズである。各レンズ331の光入射端面332は、底板312のスリット315(図3を参照)を介して、対象物Bの第1面Ba(図2を参照)と対向する。光入射端面332と第1面Baとの距離は、例えば5mm以上20mm以下であり、一例では12mmである。各レンズ331の光出射端面333は、イメージセンサ32の画素部321(図4を参照)と対向する。各レンズ331は、必ずしも画素部321の各画素322と一対一で対応していなくてもよい。レンズアレイ33は、イメージセンサ32の画素部321に出射光Lbを集光および結像する。イメージセンサ32に写る像の倍率は、被写体である対象物Bの倍率と同じかそれよりも小さい。従って、高倍率のレンズと比較して、光の収集効率を高めることができる。特に、図8のような一列のレンズアレイ33よりも、図9のように複数列(例えば、2列或いは3列)のレンズアレイ33の方が、高倍率のレンズと比較して、光の収集効率をより高めることができる。レンズアレイ33の光軸は、対象物Bの第1面Baおよび第2面Bbのうち光検出部30と対向する面の法線に沿っている。図示例では、レンズアレイ33の光軸は第1面Baの法線に沿っている。換言すると、レンズアレイ33の光軸は、対象物Bの第1面Baおよび第2面Bbのうち光検出部30と対向する面に対して垂直である。
 制御装置40は、搬送部10、光源部20および光検出部30と電気的に接続されている。図10は、制御装置40の構成を概略的に示す図である。制御装置40は、搬送速度などの搬送部10の動作を制御する搬送制御部41と、光源部20の動作を制御する光源制御部42と、光検出部30の動作を制御する検出制御部43と、演算部44と、を有する。演算部44は、出射光Lbを検出した結果としての画像データを光検出部30から受ける。演算部44は、その画像データに基づいて、対象物Bの領域R1の相対的な厚みの、幅方向D2における分布に関する情報を求める。制御装置40は、例えば、パーソナルコンピュータ;スマートフォン、タブレット端末などのスマートデバイス;あるいはクラウドサーバなどのプロセッサを有するコンピュータであってよい。搬送制御部41、光源制御部42、および検出制御部43のうち少なくとも一つが、演算部44とは別個のコンピュータによって構成されてもよい。
 図11は、制御装置40のハードウェアの構成例を概略的に示す図である。図11に示されるように、制御装置40は、物理的には、プロセッサ(CPU)401、ROM402及びRAM403等の主記憶装置、ハードディスク等の補助記憶装置404などを含む、通常のコンピュータとして構成され得る。コンピュータのプロセッサ401は、ROM402または補助記憶装置404に記憶されたプログラムを読み出すことによって、上記の制御装置40の各機能を実現することができる。故に、プログラムは、コンピュータのプロセッサ401を、制御装置40における搬送制御部41、光源制御部42、検出制御部43、および演算部44として動作させる。プログラムを記憶する記憶装置は、非一時的記録媒体であってもよい。記録媒体としては、フレキシブルディスク、CD、若しくはDVD等の記録媒体、ROM等の記録媒体、半導体メモリ、またはクラウドサーバ等が例示される。
 入力装置54は、制御装置40と電気的に接続されている。作業者は、搬送制御部41、光源制御部42、検出制御部43および演算部44に関する各種の設定を、入力装置54を通じて入力する。入力装置54は、例えばキーボード、マウスまたはタッチパネルであることができる。モニタ55は、制御装置40と電気的に接続されている。モニタ55は、演算部44によって求められた、相対的な厚みの分布に関する情報を表示する。モニタ55は、タッチパネルである入力装置54を含むタッチスクリーンであってもよい。
 図10に示される演算部44は、画像データに基づいて、対象物Bの領域R1の相対的な厚みの幅方向D2における分布に関する情報を求める。相対的な厚みの分布に関する情報は、相対的な厚みの分布であってもよく、相対的な厚みの分布に関連する何らかの数値群であってもよい。例えば、相対的な厚みの分布に関する情報は、画像データそのものであってもよい。画像データに表れる出射光Lbの光強度は、対象物Bの厚みと相関を有するからである。相対的な厚みとは、幅方向D2における或る位置の値を基準としたときの、他の位置の相対値をいう。従って、演算部44は、必ずしも、幅方向D2の各位置における絶対的な厚みを正確に求めなくてもよい。
 図12は、光Laが対象物Bを透過する際に減衰される様子を模式的に示す図である。図中の矢印の太さは光強度を表している。上述したように、光源部20から出射された光Laは、対象物Bを透過して出射光Lbとなる。出射光Lbは、イメージセンサ32によって検出される。ここで、光Laの光強度をI、出射光Lbの光強度をI、対象物Bの吸収係数をα、対象物Bの厚みをxとすると、下記の数式(1)が成り立つ。
Figure JPOXMLDOC01-appb-M000001
吸収係数αは、対象物Bの材料に固有の数値であることから、容易に知ることができる。図13は、数式(1)に示される関係を表すグラフである。図13において、縦軸は光Laの光強度Iに対する出射光Lbの光強度Iの比(I/I)を表し、横軸は対象物Bの厚みxを表す。この関係から、例えば比(I/I)の値がPであるときには対象物Bの厚みxはxであり、比(I/I)の値がPであるときには対象物Bの厚みxはxであるといったように、比(I/I)の大きさに基づいて厚みxが一義的に求まる。光Laの光強度Iが既知であるとすると、出射光Lbの光強度Iに基づいて厚みxが求まる。光Laの光強度Iが不明であっても、光源部20の複数の発光素子からの照射強度が均一であれば、幅方向D2における相対的な厚み分布が求まる。
 図14は、本実施形態による厚み分布計測方法を示すフローチャートである。この厚み分布計測方法は、上述した厚み分布計測装置1Aを用いて実施され得る。この厚み分布計測方法では、ステップST1において、第1面Baおよび第1面Baとは反対を向く第2面Bbを有する対象物Bの、第1面Baおよび第2面Bbに沿った搬送方向D1への搬送を開始する。ステップST2において、搬送中の対象物Bにおける、搬送方向D1と交差する幅方向D2に延在する領域R1への光Laの照射を開始する。ステップST3において、光Laが照射された対象物Bからの出射光Lbの検出を開始する。ステップST3では、イメージセンサ32と、レンズアレイ33と、を用いる。前述したように、イメージセンサ32は、少なくとも幅方向D2に配列された複数の画素322を含む画素部321を有し、出射光Lbの強度を画素322毎に検出して画像データを出力する。レンズアレイ33は、幅方向D2に配列された複数のレンズ331を有し、イメージセンサ32の画素部321に出射光Lbを集光および結像する。ステップST4において、ステップST3における検出結果に基づいて、対象物Bの領域R1の相対的な厚みの、幅方向D2における分布に関する情報を求める。
 以上に説明した本実施形態の厚み分布計測装置1Aおよび厚み分布計測方法によって得られる効果について説明する。対象物Bの光透過率が均一である場合、対象物Bの内部における光の吸収量は対象物Bの厚みに依存する。したがって、対象物Bの幅方向D2に延在する領域R1に光Laを照射し、領域R1からの出射光Lbの光強度Iを検出することによって、対象物Bの相対的な厚みの、対象物Bの幅方向D2における分布を計測することができる。加えて、本実施形態の厚み分布計測装置1Aおよび厚み分布計測方法によれば、幅方向D2に配列された複数の画素322を有するイメージセンサ32を用いて出射光Lbの光強度Iを検出するので、複数の計測ユニットを対象物Bの幅方向D2に並べて配置する分光干渉方式と比較して、構成を簡易化することができる。
 ここで、図15は、比較例として、縮小光学型の複数の計測ユニット101を対象物Bの幅方向D2に並べて配置した形態を示す斜視図である。縮小光学型の計測ユニット101は、高倍率の(すなわち等倍よりも大きい倍率の)レンズを有する。この場合、計測ユニット101を対象物Bから大きな距離をあけて配置することとなるので、出射光Lbの収集効率が低く抑えられてしまう。図16の(a)部は、高倍率のレンズを介して取得された、出射光Lbの収集効率が低い画像の例を示す。加えて、高倍率のレンズでは、中心部と周縁部との間の歪みが大きいので、各計測ユニット101内での出射光Lbの収集効率のばらつきが大きくなってしまう。これに対し、本実施形態では、幅方向D2に配列された複数の等倍のレンズ331を有するレンズアレイ33を用いて出射光Lbをイメージセンサ32に集光および結像する。これによって、レンズアレイ33を対象物Bに近接して配置して出射光Lbの収集効率を高め、検出感度を高めることができる。図16の(b)部は、等倍レンズを介して取得された、出射光Lbの収集効率が高い画像の例を示す。この画像は、図16の(a)部に示された画像と比較して格段に明瞭である。加えて、各レンズ331の中心部と周縁部との間の歪みが小さいので、出射光Lbの収集効率のばらつきを小さく抑えることができる。以上のことから、本実施形態によれば、簡易な構成であっても、相対的な厚みの分布を実用的な精度で計測することができる。
 本実施形態のように、光源部20は、第1面Baおよび第2面Bbのうち一方の面と対向して配置され、光検出部30は第1面Baおよび第2面Bbのうち他方の面と対向して配置されてもよい。そして、対象物Bからの出射光Lbは、対象物Bを透過した光であってもよい。このように、光源部20と光検出部30との間に対象物Bを挟むように光源部20と光検出部30とを配置し、対象物Bを透過した光を対象物Bからの出射光Lbとして検出することによって、出射光Lbの光強度Iが対象物Bの厚みに大きく依存する。従って、相対的な厚みの分布の計測精度を更に向上することができる。
 本実施形態のように、レンズアレイ33の光軸は、第1面Baおよび第2面Bbのうち光検出部30と対向する面の法線に沿っていてもよい。この場合、対象物Bの表面から垂直に出射する出射光Lbを検出する。従って、偏光状態による出射光Lbの光強度Iへの影響を回避して、相対的な厚みの分布の計測精度を更に向上することができる。この場合、光源部20が有する複数の発光素子としては、出来る限り光Laが対象物Bの面に対して垂直に入射するように、指向性の高いものが用いられるとよい。
[第1変形例]
 図17は、第1変形例として、光検出部30Aの内部構造を示す切欠斜視図である。本変形例の光検出部30Aは、上記実施形態の光検出部30の構成に加えて、光学フィルタ部35を更に有する。光学フィルタ部35は、イメージセンサ32の画素部321上に設けられている。対象物Bからの出射光Lbは、光学フィルタ部35を通過したのちにイメージセンサ32の画素部321に入射する。
 図18は、対象物Bからの出射光Lbが光学フィルタ部35を通過する様子を模式的に示す図である。この図に模式的に示されるように、光学フィルタ部35は、幅方向D2に沿って配列された複数の光学フィルタ群36を有する。各光学フィルタ群36は、複数の光学フィルタ37~39を含む。光学フィルタ37~39のうち一つは、本変形例における第1光学フィルタの例であり、光学フィルタ37~39のうち他の一つは、本変形例における第2光学フィルタの例である。光学フィルタ37は、イメージセンサ32の複数の画素322のうち一部の画素322上に設けられる。光学フィルタ38は、イメージセンサ32の複数の画素322のうち他の一部の画素322上に設けられる。光学フィルタ39は、イメージセンサ32の複数の画素322のうち残りの画素322上に設けられる。光学フィルタ37は、波長λを中心とする透過波長帯域を有する。光学フィルタ38は、波長λより大きい波長λを中心とする透過波長帯域を有する。光学フィルタ39は、波長λおよび波長λより大きい波長λを中心とする透過波長帯域を有する。波長λは光学フィルタ38,39の透過波長帯域には含まれない。波長λは光学フィルタ37,39の透過波長帯域には含まれない。波長λは光学フィルタ37,38の透過波長帯域には含まれない。
 対象物Bからの出射光Lbのうち、波長λを中心とする波長成分は、光学フィルタ37を通過して画素322に入射する。波長λを中心とする波長成分は、光学フィルタ38を通過して別の画素322に入射する。波長λを中心とする波長成分は、光学フィルタ39を通過して更に別の画素322に入射する。こうして、出射光Lbの光強度Iが波長毎に検出される。
 図19の(a)部および(b)部は、数式(1)に示される関係を、波長毎に表すグラフである。図中において、曲線G1は波長λに対応しており、曲線G2は波長λに対応しており、曲線G3は波長λに対応している。図19の(b)部の曲線G1~G3は、図19の(a)部の曲線G1~G3と同一である。吸収係数αは波長に依存するので、このように波長毎に曲線が異なる。この例では、波長が大きいほど吸収係数αが小さい、すなわち光透過率が大きいものとする。いま、光Laの光強度が所定の大きさIであり既知であるとする。このとき、図19の(a)部に示されるように、対象物Bの或る厚みxに対して、比(I/I)の値は波長λにおいてP11であり、波長λにおいてP12であり、波長λにおいてP13である。そして、演算部44は、いずれの波長における比(I/I)の値を用いても、算出される対象物Bの厚みはxである。その後、光Laの光強度が所定の大きさIから変動したとする。このとき、出射光Lbの光強度Iが変動するので、図19の(b)部に示されるように、比(I/I)の値は波長λにおいてP11からP21へ変化し、波長λにおいてP12からP22へ変化し、波長λにおいてP13からP23へ変化する。すると、演算部44による対象物Bの厚みの算出結果は、波長λにおいてx11、波長λにおいてx12、波長λにおいてx13、と波長毎に異なる結果となる。このことから、作業者は、光源部20から出力される光Laの光強度が時間的に変動したことを知ることができ、光Laの光強度または数式のパラメータを調整するタイミングを知ることができる。
 上記の説明では各光学フィルタ群36が3個の光学フィルタ37~39を含む場合を例示したが、各光学フィルタ群36の光学フィルタの個数は2個であってもよく、4個以上であってもよい。各光学フィルタ群36が2個の光学フィルタ37,38のみを含む場合、光学フィルタ37は、イメージセンサ32の複数の画素322のうち一部の画素322上に設けられ、光学フィルタ38は、イメージセンサ32の複数の画素322のうち残りの画素322上に設けられる。
[第2変形例]
 図20は、第2変形例に係る厚み分布計測装置1Bの構成を模式的に示す図である。本変形例の厚み分布計測装置1Bは、上記実施形態の厚み分布計測装置1Aの構成に加えて、光源部20とは別の光源部21を更に備える。光源部21は、対象物Bの第1面Baおよび第2面Bbのうち、光源部20と対向する面とは反対の面(図示例では第1面Ba)と対向する位置に配置されている。光源部21は、搬送中の対象物Bにおける、領域R1、または幅方向D2(図2を参照)に延在する別の領域に光Lcを照射する。この別の領域は、領域R1と同様に、対象物Bの幅方向D2における一端縁から他端縁にわたって延びている。光源部21は、例えば、複数の発光素子が幅方向D2に沿って配列された構成を有する。発光素子としては発光ダイオード(LED)が例示されるが、これに限られない。複数の発光素子の発光波長および発光強度は複数の発光素子間で揃っている。光源部21は、連続光である光Lcを出力する。光Lcの波長は、可視域に含まれてもよく、近赤外域に含まれてもよい。光Lcの光強度は、光Laの光強度と等しくてもよく、異なってもよい。光Lcの波長は、光Laの波長と等しくてもよく、異なってもよい。
 本変形例の厚み分布計測装置1Bは、上記実施形態の光検出部30の代わりに、光検出部30Bを備える。光検出部30Bは、イメージセンサ32が、複数の画素から出力される信号を増幅するゲイン値を切り替え可能なように構成されている点で上記実施形態の光検出部30と相違し、他の点で上記実施形態の光検出部30と一致する。光検出部30Bは、光源部20により光Laが照射された対象物Bからの出射光Lbを検出し、加えて、光源部21により光Lcが照射された対象物Bからの出射光Lbを検出する。光Laの照射タイミングおよび光Lcの照射タイミングは、制御装置40の光源制御部42(図10を参照)によって制御され、互いに異なる。
 イメージセンサ32のゲイン値は、光源部20から光Laが照射されている時と、光源部21から光Lcが照射されている時とで、それぞれ異なるように制御される。すなわち、光Laが照射されている時の出射光Lbの光強度Iが、光Lcが照射されている時の出射光Lbの光強度Iよりも大きい場合には、光源部20から光Laが照射されている時のイメージセンサ32のゲイン値が、光Lcが照射されている時のイメージセンサ32のゲイン値よりも小さくなるように制御される。光Laが照射されている時の出射光Lbの光強度Iが、光Lcが照射されている時の出射光Lbの光強度Iよりも小さい場合には、光源部20から光Laが照射されている時のイメージセンサ32のゲイン値が、光Lcが照射されている時のイメージセンサ32のゲイン値よりも大きくなるように制御される。これにより、イメージセンサ32から出力される信号の大きさの変動幅を小さくすることができる。
 図21は、本変形例のイメージセンサ32の各画素322Aの構成例を示す図である。画素322Aは、下記の点を除いて、上記実施形態の画素322と同じ構成および機能を有する。すなわち、本変形例の画素322Aは、上記実施形態の容量部692(図7を参照)に代えて、容量部692Aを有する。容量部692Aは、アンプ691の反転入力端子と出力端子との間に設けられている。容量部692Aは、ソースフォロワアンプ67から出力される電圧値に応じた量の電荷を蓄積する。容量部692Aの容量値は可変である。容量部692Aは、容量素子694、容量素子695及びスイッチ696を含んで構成されることで、容量値を可変とすることができる。容量素子695及びスイッチ696は互いに直列的に接続されている。容量素子695及びスイッチ696からなる直列回路と容量素子694とは互いに並列的に設けられている。スイッチ696がオン/オフの何れの状態であるかによって、容量部692Aの容量値が異なり、チャージアンプ69のゲイン(ゲイン値)が異なる。スイッチ696のオン/オフは、センサ制御部70から与えられる制御信号により制御される。
 本変形例のように、イメージセンサ32は、複数の画素322Aから出力される信号を増幅するゲイン値を切り替え可能なように構成されていてもよい。この場合、出射光Lbの光強度Iが変化する場合であっても、イメージセンサ32を取り換えることなく相対的な厚みの分布を計測することができる。ゲイン値を適切な値にすることで、S/Nが向上し、相対的な厚みの分布の計測精度が向上する。
 本変形例のように、光源部20とは別の光源部21が設けられ、光源部21は、対象物Bの第1面Baおよび第2面Bbのうち、光源部20と対向する面とは反対の面と対向する位置に配置され、搬送中の対象物Bにおける、幅方向D2に沿って延在する領域に光Lcを照射してもよい。そして、光検出部30Bは、光源部20により光Laが照射された対象物Bからの出射光Lbに加えて、光源部21により光Lcが照射された対象物Bからの出射光Lbを更に検出してもよい。この場合、一つの厚み分布計測装置1Bを用いて、光が照射された面からの出射光Lbと、光が照射された面とは反対の面からの出射光Lbとを検出することができる。よって、これらの出射光Lbの検出結果に基づいて相対的な厚みの分布に関する情報を求めることができるので、相対的な厚みの分布の計測精度を更に高めることができる。
[第3変形例]
 図22は、第3変形例に係る厚み分布計測装置1Cの構成を模式的に示す図である。本変形例の厚み分布計測装置1Cは、光検出部30のレンズアレイ33の光軸が傾斜している点で、上記実施形態の厚み分布計測装置1Aと相違する。更に、本変形例の厚み分布計測装置1Cは、上記実施形態の制御装置40の代わりに制御装置40Aを備える。制御装置40Aは、上記実施形態の制御装置40の搬送制御部41、光源制御部42、検出制御部43、および演算部44に加えて、対象物Bの表面に生じた傷を検出する傷検出部45を更に有する。
 具体的には、本変形例におけるレンズアレイ33の光軸は、対象物Bの第1面Baおよび第2面Bbのうち光検出部30と対向する面(図示例では第1面Ba)の法線に対して傾斜している。その法線に対するレンズアレイ33の光軸の傾斜角は、例えば5°以上であり、45°以上であってもよい。傾斜角は80°以下であってもよい。その法線に対するレンズアレイ33の光軸の傾斜角が大きいほど、後述する傷の検出が容易となる。上記実施形態と同じように、光検出部30は、光Laが照射された対象物Bからの出射光Lbを検出する。光源部20からの光出射方向は対象物Bの第2面Bbに対して垂直であるため、レンズアレイ33の光軸は、光源部20の光出射方向に対しても傾斜している。演算部44は、上記実施形態と同じように、イメージセンサ32によって得られる画像データに基づいて、対象物Bの相対的な厚みの、幅方向D2における分布に関する情報を求める。
 加えて、本変形例では、傷検出部45が、イメージセンサ32によって得られた画像データに基づいて、対象物Bの表面に生じた傷を検出する。図23は、イメージセンサ32によって得られた画像データの一例である。この画像データには、対象物Bの表面に生じた傷Eの像が含まれている。対象物Bの表面に生じた傷Eは、光検出部30と対向する対象物Bの面の法線に対してレンズアレイ33の光軸を傾斜させて散乱光を検出することによって、より明瞭に画像データに現れる。従って、本変形例によれば、相対的な厚みの分布の計測と同時に、対象物Bの表面に存在する傷の検出を行うことができる。厚み分布計測装置1Cは、傷検出部45を有する制御装置40Aに代えて、傷検出部45を有しない制御装置40を備えてもよい。すなわち、傷Eの検出を行わず、対象物Bの相対的な厚みの、幅方向D2における分布に関する情報を求める用途のみであっても、レンズアレイ33の光軸を傾斜させてよい。
 本変形例では、相対的な厚み分布に関する情報の取得と、対象物Bの表面に生じた傷Eの検出とを一つの光検出部30を用いて行っているが、それぞれ別個の光検出部30を用いてもよい。その場合、相対的な厚み分布に関する情報を取得するための光検出部30のレンズアレイ33の光軸を対象物Bの面の法線に対して平行とし、傷Eを検出するための光検出部30のレンズアレイ33の光軸を対象物Bの面の法線に対して傾斜させてもよい。
[第4変形例]
 図24は、第4変形例に係る厚み分布計測装置1Dの構成を模式的に示す図である。本変形例の厚み分布計測装置1Dは、光検出部30が、光源部20と対向する対象物Bの面と同じ面(図示例では第2面Bb)と対向して配置されている点で上記実施形態と相違し、他の点で上記実施形態と一致する。この場合、光検出部30が検出する対象物Bからの出射光Lbは、光Laが入射した面と同じ面から出射した光である。この出射光Lbには、光Laが入射した面と反対の面において反射した光、すなわち対象物Bの内部を通った光が含まれる。従って、対象物Bの厚さに応じて出射光Lbの光強度が変化する。
 本変形例のように、光検出部30が、光源部20と対向する対象物Bの面と同じ面と対向して配置される場合であっても、イメージセンサ32によって得られる画像データに基づいて、対象物Bの相対的な厚みの、幅方向D2における分布に関する情報を求めることができる。本変形例においても、第3変形例と同じように、レンズアレイ33の光軸が、光検出部30と対向する対象物Bの面の法線に対して傾斜していてもよい。
[第5変形例]
 図25は、第5変形例に係る厚み分布計測装置1Eの構成を模式的に示す図である。図26は、厚み分布計測装置1Eの構成の一部を示す斜視図である。本変形例の厚み分布計測装置1Eは、上記実施形態の厚み分布計測装置1Aの構成に加えて、厚み計測部50を更に備える。厚み計測部50は、対象物Bの絶対的な厚みを局所的に計測する。厚み計測部50は、例えば分光干渉方式を用いて対象物Bの絶対的な厚みを計測する。具体的には、厚み計測部50は、計測ユニット56と、制御部57とを有する。計測ユニット56は、対象物Bの第1面Ba、第2面Bbまたはその双方と対向して配置される。
 図27は、厚み計測部50の具体的な構成を示す図である。厚み計測部50は、光照射部51と、光検出部52と、演算部53とを備えている。光照射部51は、対象物Bの第1面Baまたは第2面Bbに光を照射する。光照射部51は、光源511と、導光部材512と、光出射部513とを含んで構成されている。光源511は、非コヒーレント(インコヒーレント)な光L1を発生する。光L1の波長帯域は、可視波長域であっても良く、その場合、光源511としては、白色光を出射するランプ系光源若しくは白色LEDなどが用いられ得る。光L1の波長帯域は、可視波長域から近赤外波長域に亘る波長帯であってもよい。光L1の波長帯域は、赤外波長域において略平坦な(ブロードな)スペクトルを有してもよい。特に、光L1の波長帯域が近赤外波長域を含む場合、対象物Bに色味があっても光L1が透過することができるので、対象物Bの色味による計測結果への影響を低減することができる。その場合、光源511としては、ASE(Amplified Spontaneous Emission)光源、LED、SLD(Super Luminescent Diode)といった種々の発光要素が適用され得る。白色光源と光学フィルムなどの光学部品とが互いに組み合わされてもよい。
 導光部材512は、その一端が光源511に光結合されており、光源511から出射された光L1を導く。導光部材512としては、例えば、ライトガイドや光ファイバ等が好適に用いられる。光出射部513は、導光部材512の他端と光結合されており、導光部材512によって導かれた光L1を対象物Bに照射する。光出射部513は、計測ユニット56に収容され、対象物Bの第1面Baまたは第2面Bbと対向する位置に配置される。
 光検出部52は、対象物Bからの出射光L2の波長毎の強度(スペクトル)を検出する。光検出部52は、光入射部521と、導光部材522と、分光検出部523とを含んで構成されている。光入射部521には、対象物Bからの出射光L2が入射する。光入射部521は、計測ユニット56に収容され、光出射部513と対向する対象物Bの面と同じ面と対向して配置される。或いは、光入射部521は、光出射部513と対向する対象物Bの面とは反対の面と対向して配置されてもよい。光出射部513の光軸と光入射部521の光軸とは、互いに平行であってもよいし、対象物Bにおいて互いに交差してもよい。或いは、光出射部513の光軸と光入射部521の光軸とが互いに一致してもよい。導光部材522は、その一端が光入射部521に光結合されており、光入射部521に入射した出射光L2を導く。導光部材522としては、例えば、ライトガイドや光ファイバ等が用いられる。分光検出部523は、導光部材522の他端と光結合されており、導光部材522によって導かれた出射光L2を波長毎に分光し、分光された波長毎の光の強度を検出する。分光検出部523は、例えば、分光光学素子と、撮像素子との組合せによって好適に構成される。分光検出部523は、検出した光強度を電気信号として出力する。分光光学素子は、例えばプリズムまたはグレーティング素子である。撮像素子は、例えば、ラインセンサ、エリアイメージセンサ、光電子増倍管、またはフォトダイオードである。
 演算部53は、光検出部52における検出結果に基づいて、対象物Bの絶対的な厚みを求める。すなわち、演算部53は、光検出部52における検出結果に基づいて得られる波長毎の反射率である実測分光反射率と、理論上の波長毎の反射率である理論分光反射率とを比較し、これらを互いにフィッティングすることにより、対象物Bの絶対的な厚みを求める。こうして求められた対象物Bの絶対的な厚みに関するデータは、演算部44に提供される。光源511、分光検出部523および演算部53は、制御部57に含まれる。
 ここで、厚み計測部50を用いた厚み計測方法について詳細に説明する。図28は、厚み計測の原理を説明するための図であって、対象物Bの断面を模式的に示している。いま、対象物Bにインコヒーレントな光L1が入射すると、対象物Bの第1面Baでの反射光と、対象物Bの第2面Bbでの反射光とが相互に干渉する。第1面Baが光入射面である場合、第2面Bbでの反射光の光路長は、第1面Baでの反射光の光路長に対して対象物B内の光路の分だけ長くなる。従って、これらの反射光の間には、対象物Bの厚みに応じた位相差が生じる。
 図29の(a)部、(b)部および(c)部は、干渉後の反射光の強度と波長との関係を示すグラフである。図29の(a)部は、対象物Bの厚みが(b)部および(c)部よりも薄い場合を示している。図29の(c)部は、対象物Bの厚みが(a)部および(b)部よりも厚い場合を示している。図29に示されるように、干渉後の反射光のスペクトル(反射スペクトル)は干渉により波打つ。その波の間隔すなわち周期は、対象物Bの厚みが厚くなるほど小さくなる。
 上記のような反射スペクトルと対象物Bの厚みとの関係を利用して、対象物Bの絶対的な厚みを求めることができる。具体的な手法としては、高速フーリエ変換法及びカーブフィッティング法がある。高速フーリエ変換法では、反射スペクトルに対し高速フーリエ変換を行い、そのピーク周波数から膜厚を求める方法である。カーブフィッティング法は、計測された反射スペクトルから求められる分光反射率すなわち実測分光反射率と、理論式から算出された理論分光反射率とをフィッティングし、フィットした理論分光反射率から膜厚を求める方法である。カーブフィッティング法によれば、対象物Bの厚みが1μm以下であっても精度良く計測することができる。
 前述したように、演算部44によって算出される、対象物Bの相対的な厚みの分布に関する情報は、対象物Bに照射される光Laの光強度の時間的な変動などに影響される。本変形例の演算部44は、厚み計測部50によって計測された絶対的な厚みに基づいて、相対的な厚みの分布の計測値を補正する。具体的には、厚み計測部50により絶対的な厚みが計測された点において、数式(1)によって求まる相対的な厚みxが絶対的な厚みと一致するように、例えば光強度Iといった数式(1)のパラメータの大きさを修正する。
 図26の両矢印Fに示されるように、計測ユニット56は、対象物Bの幅方向D2に沿って移動しながら光L1の照射および出射光L2の検出を行ってもよい。図30は、その場合の厚み計測部50による計測ラインQ1を示す平面図である。対象物Bは、搬送方向D1に沿って一定速度で搬送されている。従って、計測ユニット56が幅方向D2に沿って定速で往復移動した場合、図30に示されるように、厚み計測部50による計測点の軌跡は、ジグザクの計測ラインQ1を形成する。そして、対象物Bの絶対的な厚みは、計測ラインQ1においてのみ計測される。一方、イメージセンサ32の或る一つの画素322における検出結果によって対象物Bの相対的な厚みが計測される計測点の位置は、幅方向D2において不変である。故に、或る一つの画素322によって相対的な厚みが計測される計測点の軌跡は、搬送方向D1に沿って延びる計測ラインQ2を形成する。演算部44は、計測ラインQ1と計測ラインQ2とが交差する点Sにおいて、当該一つの画素322における検出結果から求められる相対的な厚みの計測値を補正することができる。
 図31の(a)部は、演算部44が相対的な厚みの計測値を補正しないときの、厚みxの計測結果の例を示すグラフである。図31の(b)部は、演算部44が相対的な厚みの計測値を補正したときの、厚みxの計測結果の例を示すグラフである。図31の(a)部および(b)部において、縦軸は対象物Bの計測ラインQ2における相対的な厚みを表し、横軸は搬送方向D1における対象物Bの位置を表す。図31の(a)部に示されるように、演算部44が相対的な厚みの計測値を補正しない場合、光Laの光強度の時間的な変動によって、相対的な厚みの計測値が、光源部20の特性の経時的な変化により次第に増加または減少する。これに対し、図31の(b)部に示されるように、演算部44が相対的な厚みの計測値を補正する場合、相対的な厚みの計測値を算出するためのパラメータが点Sにおいて修正される。従って、光Laの光強度の時間的な変動にかかわらず、相対的な厚みの計測値の増加または減少を抑制することができる。
 本開示による厚み分布計測装置および厚み分布計測方法は、上述した実施形態に限られるものではなく、他に様々な変形が可能である。例えば、上述した第1変形例~第5変形例を、必要な目的及び効果に応じて互いに組み合わせてもよい。上記実施形態では複数のレンズ331それぞれがロッドレンズである場合を例示したが、複数のレンズ331それぞれは他の形態のレンズ、例えば凸レンズであってもよい。
 好適な実施の形態において本発明の原理を図示し説明してきたが、本発明は、そのような原理から逸脱することなく配置および詳細において変更され得ることは、当業者によって認識される。本発明は、本実施の形態に開示された特定の構成に限定されるものではない。したがって、特許請求の範囲およびその精神の範囲から来る全ての修正および変更に権利を請求する。
 1A,1B,1C,1D,1E…厚み分布計測装置、10…搬送部、11…ローラ対、11a,11b…ローラ、20,21…光源部、30,30A,30B…光検出部、31…筐体、32…イメージセンサ、33…レンズアレイ(レンズ部)、34…回路基板、34a…搭載面、35…光学フィルタ部、36…光学フィルタ群、37~39…光学フィルタ、40,40A…制御装置、41…搬送制御部、42…光源制御部、43…検出制御部、44…演算部、45…傷検出部、50…厚み計測部、51…光照射部、52…光検出部、53…演算部、54…入力装置、55…モニタ、56…計測ユニット、57…制御部、60…読出回路、61…ホールド回路、62,63…スイッチ、64…フォトダイオード、65,66…MOSトランジスタ、67…ソースフォロワアンプ、68…容量素子、69…チャージアンプ、70…センサ制御部、81…ビデオライン、101…計測ユニット、311…天板、312…底板、313,314…側板、315…スリット、318,319…保持部材、321…画素部、322…画素、331…レンズ、332…光入射端面、333…光出射端面、401…プロセッサ、402…ROM、403…RAM、404…補助記憶装置、511…光源、512…導光部材、513…光出射部、521…光入射部、522…導光部材、523…分光検出部、671…MOSトランジスタ、672…動作制御スイッチ、673…電流源、674…接続ノード、691…アンプ、692…容量部、693…リセットスイッチ、694,695…容量素子、696…スイッチ、B…対象物、Ba…第1面、Bb…第2面、D1…搬送方向、D2…幅方向、D3…方向、E…傷、F…両矢印、G1~G3…曲線、L1,La,Lc…光、L2,Lb…出射光、Q1,Q2…計測ライン、R1…領域、S…点。

Claims (15)

  1.  第1面および前記第1面とは反対を向く第2面を有する対象物を、前記第1面および前記第2面に沿った搬送方向に搬送する搬送部と、
     前記対象物の前記第2面と対向する位置に配置され、搬送中の前記対象物における、前記搬送方向と交差する幅方向に延在する領域に光を照射する光源部と、
     前記対象物の前記第1面と対向する位置に配置され、前記光が照射された前記対象物を透過した出射光を検出する光検出部と、
     前記光検出部における検出結果に基づいて、前記対象物の前記領域の相対的な厚みの前記幅方向における分布に関する情報を求める演算部と、
     を備え、
     前記光検出部は、
     少なくとも前記搬送方向に配列された複数の画素を含む画素部を有し、前記出射光の強度を前記画素毎に検出して画像データを出力するイメージセンサと、
     等倍の倍率を有し前記幅方向に沿って配列された複数のレンズを有し、前記イメージセンサの前記画素部に前記出射光を集光および結像するレンズ部と、
     を有する、厚み分布計測装置。
  2.  前記レンズ部の光軸は、前記第1面の法線に沿っている、請求項1に記載の厚み分布計測装置。
  3.  前記レンズ部の光軸は、前記第1面の法線に対して傾斜している、請求項1に記載の厚み分布計測装置。
  4.  前記法線に対する前記レンズ部の光軸の傾斜角は5°以上80°以下である、請求項3に記載の厚み分布計測装置。
  5.  前記イメージセンサは、前記複数の画素から出力される信号を増幅するゲイン値を切り替え可能なように構成されている、請求項1~4のいずれか1項に記載の厚み分布計測装置。
  6.  前記第1面と対向する位置に配置され、搬送中の前記対象物における、前記領域または前記幅方向に延在する別の領域に光を照射する別の光源部を更に備え、
     前記光検出部は、前記別の光源部により前記光が照射された前記対象物から反射された出射光を検出し、
     前記別の光源部から前記光が照射されているときの前記イメージセンサの前記ゲイン値が、前記光源部から前記光が照射されているときの前記イメージセンサの前記ゲイン値と異なる、請求項5に記載の厚み分布計測装置。
  7.  前記対象物の絶対的な厚みを局所的に計測する厚み計測部を更に備え、
     前記演算部は、前記厚み計測部によって計測された前記絶対的な厚みに基づいて、前記相対的な厚みの計測値を補正する、請求項1~6のいずれか1項に記載の厚み分布計測装置。
  8.  前記イメージセンサはラインスキャンセンサである、請求項1~7のいずれか1項に記載の厚み分布計測装置。
  9.  前記光検出部は、
     前記イメージセンサの前記複数の画素のうち一部の画素上に設けられ、第1波長を中心とする透過波長帯域を有する第1光学フィルタと、
     前記イメージセンサの前記複数の画素のうち他の少なくとも一部の画素上に設けられ、前記第1波長とは異なる第2波長を中心とする透過波長帯域を有する第2光学フィルタと、
     を更に有する、請求項1~8のいずれか1項に記載の厚み分布計測装置。
  10.  第1面および前記第1面とは反対を向く第2面を有する対象物の、前記第1面および前記第2面に沿った搬送方向への搬送を開始するステップと、
     搬送中の前記対象物における、前記搬送方向と交差する幅方向に延在する領域への光の照射を開始するステップと、
     前記光が照射された前記対象物を透過した出射光の検出を開始するステップと、
     前記検出するステップにおける検出結果に基づいて、前記対象物の前記領域の相対的な厚みの前記幅方向における分布に関する情報を求めるステップと、
     を含み、
     前記検出するステップでは、
     少なくとも前記幅方向に配列された複数の画素を含む画素部を有し、前記出射光の強度を前記画素毎に検出して画像データを出力するイメージセンサと、
     等倍の倍率を有し前記幅方向に沿って配列された複数のレンズを有し、前記イメージセンサの前記画素部に前記出射光を集光および結像するレンズ部と、
     を用いる、厚み分布計測方法。
  11.  前記レンズ部の光軸は、前記第1面の法線に沿っている、請求項10に記載の厚み分布計測方法。
  12.  前記レンズ部の光軸は、前記第1面の法線に対して傾斜している、請求項10に記載の厚み分布計測方法。
  13.  前記法線に対する前記レンズ部の光軸の傾斜角は5°以上80°以下である、請求項12に記載の厚み分布計測方法。
  14.  前記イメージセンサは、前記複数の画素から出力される信号を増幅するゲイン値を切り替え可能なように構成されている、請求項10~13のいずれか1項に記載の厚み分布計測方法。
  15.  前記対象物の絶対的な厚みを局所的に計測するステップを更に含み、
     前記情報を求めるステップでは、前記計測するステップによって計測された前記絶対的な厚みに基づいて、前記相対的な厚みの計測値を補正する、請求項10~14のいずれか1項に記載の厚み分布計測方法。
PCT/JP2023/007633 2022-04-27 2023-03-01 厚み分布計測装置および厚み分布計測方法 WO2023210154A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-073083 2022-04-27
JP2022073083 2022-04-27

Publications (1)

Publication Number Publication Date
WO2023210154A1 true WO2023210154A1 (ja) 2023-11-02

Family

ID=88518443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/007633 WO2023210154A1 (ja) 2022-04-27 2023-03-01 厚み分布計測装置および厚み分布計測方法

Country Status (2)

Country Link
TW (1) TW202409513A (ja)
WO (1) WO2023210154A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241125A (ja) * 1999-02-19 2000-09-08 Nippon Electro Sensari Device Kk 寸法測定装置
JP2004219108A (ja) * 2003-01-09 2004-08-05 Dainippon Printing Co Ltd 着色膜の膜厚ムラ検査方法及び装置
WO2009090871A1 (ja) * 2008-01-15 2009-07-23 Saki Corporation 被検査体の検査装置
JP2013190224A (ja) * 2012-03-12 2013-09-26 Konica Minolta Inc 厚さ測定装置及び厚さ測定方法
WO2016199683A1 (ja) * 2015-06-11 2016-12-15 住友化学株式会社 目付量測定方法、積層フィルム製造方法、及び目付量測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241125A (ja) * 1999-02-19 2000-09-08 Nippon Electro Sensari Device Kk 寸法測定装置
JP2004219108A (ja) * 2003-01-09 2004-08-05 Dainippon Printing Co Ltd 着色膜の膜厚ムラ検査方法及び装置
WO2009090871A1 (ja) * 2008-01-15 2009-07-23 Saki Corporation 被検査体の検査装置
JP2013190224A (ja) * 2012-03-12 2013-09-26 Konica Minolta Inc 厚さ測定装置及び厚さ測定方法
WO2016199683A1 (ja) * 2015-06-11 2016-12-15 住友化学株式会社 目付量測定方法、積層フィルム製造方法、及び目付量測定装置

Also Published As

Publication number Publication date
TW202409513A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
CN112985603B (zh) 用于非接触式感测物质的基准开关架构
US8587772B2 (en) Chromatic point sensor configuration including real time spectrum compensation
JP7325500B2 (ja) 分光計装置
US11138722B2 (en) Differential imaging for single-path optical wafer inspection
JP2012164801A (ja) 検査装置及び検査方法
CN109346492B (zh) 线阵图像传感器像素阵列及物体表面缺陷检测方法
CN115380194A (zh) 高灵敏度的基于影像的反射测量
US10732126B2 (en) Method and apparatus for inspecting defects on transparent substrate and method emitting incident light
EP0829162B1 (en) Light collection device for a film image digitizer
JPH09120445A (ja) 複数の光検出素子の出力信号を補正する方法及び装置
JP6502230B2 (ja) 検査装置および検査方法
CN114127520A (zh) 光谱仪装置
WO2023210154A1 (ja) 厚み分布計測装置および厚み分布計測方法
JP2008139062A (ja) 分光測定装置よび分光測定方法
CN115427754A (zh) 高灵敏度的基于影像的反射测量
US20220367217A1 (en) Image-based in-situ process monitoring
US11417010B2 (en) Image based metrology of surface deformations
WO2023210153A1 (ja) 屈折率分布計測装置、膜厚分布計測装置、屈折率分布計測方法、および膜厚分布計測方法
JP6664367B2 (ja) 検出器、ならびに、検出器の補正方法、校正方法、検出装置
WO2024122133A1 (ja) 膜厚計測装置及び膜厚計測方法
JP7199945B2 (ja) 光学的測定装置
JP7497544B1 (ja) 膜厚計測装置及び膜厚計測方法
JP2006170925A (ja) 光沢度測定方法および装置
JP2007127443A (ja) 光検出装置及び光検出方法
WO2023119816A1 (ja) 固体撮像装置、形状測定装置および形状測定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23795902

Country of ref document: EP

Kind code of ref document: A1