WO2019216213A1 - 分光計測装置、および分光計測方法 - Google Patents

分光計測装置、および分光計測方法 Download PDF

Info

Publication number
WO2019216213A1
WO2019216213A1 PCT/JP2019/017313 JP2019017313W WO2019216213A1 WO 2019216213 A1 WO2019216213 A1 WO 2019216213A1 JP 2019017313 W JP2019017313 W JP 2019017313W WO 2019216213 A1 WO2019216213 A1 WO 2019216213A1
Authority
WO
WIPO (PCT)
Prior art keywords
wavelength
spectroscopic measurement
spectroscopic
spatial resolution
light
Prior art date
Application number
PCT/JP2019/017313
Other languages
English (en)
French (fr)
Inventor
沱 庄
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020518244A priority Critical patent/JP7355008B2/ja
Priority to CN201980030327.4A priority patent/CN112105898A/zh
Priority to US17/052,362 priority patent/US11199448B2/en
Publication of WO2019216213A1 publication Critical patent/WO2019216213A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0229Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using masks, aperture plates, spatial light modulators or spatial filters, e.g. reflective filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0237Adjustable, e.g. focussing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/04Slit arrangements slit adjustment

Definitions

  • the present disclosure relates to a spectroscopic measurement apparatus and a spectroscopic measurement method. More specifically, the present invention relates to a spectroscopic measurement apparatus and a spectroscopic measurement method for analyzing the composition and the like of various measurement objects.
  • a spectroscopic measurement method is known as an object composition analysis method.
  • the spectroscopic measurement technique is a technique for analyzing composition (element, molecular structure, etc.) of an object by analyzing radiated light, reflected light or transmitted light from the object.
  • the light wavelength component of radiated light, reflected light or transmitted light from an object differs depending on the composition (element, molecular structure, etc.) of the object, and it is possible to analyze the composition of the object by analyzing this wavelength component.
  • a wavelength spectrum data indicating the quantity for each wavelength
  • a process for measuring the wavelength spectrum is called a spectroscopic measurement process.
  • the snapshot method is a method for acquiring the correspondence data between the spatial information of the object and the wavelength information with only one processing of the correspondence data between the spatial information of the object and the wavelength information, that is, the single imaging process by the spectroscopic measurement device.
  • a spectroscopic measurement apparatus to which the snapshot method is applied is configured by a combination of an optical system and a sensor including a plurality of lenses, a slit (field stop), a spectroscopic element, and the like.
  • the spatial resolution and wavelength resolution of the spectroscopic measurement apparatus are determined by the configuration of these optical systems and sensors.
  • the devices described in these documents and other conventional spectroscopic measurement devices do not have a configuration in which the spatial resolution and the wavelength resolution can be adjusted independently, and the measurement target and measurement application are different. Therefore, it is necessary to perform processing such as reconfiguring the apparatus having the desired spatial resolution and wavelength resolution by exchanging the entire apparatus.
  • the present disclosure has been made in view of the above-described problems, and an object thereof is to provide a spectroscopic measurement apparatus and a spectroscopic measurement method in which spatial resolution and wavelength resolution can be independently adjusted.
  • the first aspect of the present disclosure is: A spatial resolution adjustment unit for adjusting the spatial resolution of the spectroscopic measurement device; A wavelength resolution adjustment unit for adjusting the wavelength resolution of the spectroscopic measurement device; The spatial resolution adjustment unit is The spectroscopic measurement apparatus changes the spatial resolution without changing the wavelength resolution of the spectroscopic measurement apparatus.
  • the second aspect of the present disclosure is: A spectroscopic measurement method executed in a spectroscopic measurement device, A spatial resolution adjustment unit that adjusts the spatial resolution of the spectroscopic measurement device; and A wavelength resolution adjustment unit that adjusts the wavelength resolution of the spectroscopic measurement device; and An image capturing step for causing the sensor to receive the output light of the measurement object via the light collecting unit and the spectroscopic unit of the spectroscopic measurement device;
  • the arithmetic processing unit has a data cube generation step of generating a data cube composed of three-dimensional data of the spatial direction (XY) of the measurement target and the wavelength direction ( ⁇ ) based on the pixel value of the sensor,
  • the spectroscopic measurement method is a step of changing the spatial resolution without changing the wavelength resolution of the spectroscopic measurement device.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • a configuration in which the spatial resolution and the wavelength resolution of the spectroscopic measurement device can be independently adjusted is realized.
  • it has a spatial resolution adjustment unit that adjusts the spatial resolution of the spectroscopic measurement device and a wavelength resolution adjustment unit that adjusts the wavelength resolution of the spectroscopic measurement device, and the spatial resolution adjustment unit is a collection of spectroscopic measurement devices.
  • the spatial resolution is changed without changing the wavelength resolution of the spectroscopic measurement device by maintaining the output light from the optical unit to the spectroscopic imaging unit as parallel light and adjusting the parameters of the components of the condensing unit.
  • the wavelength resolution adjustment unit adjusts the parameters of the spectroscopic imaging unit of the spectroscopic measurement device, and changes the wavelength resolution without changing the spatial resolution of the spectroscopic measurement device.
  • a configuration in which the spatial resolution and wavelength resolution of the spectroscopic measurement apparatus can be independently adjusted is realized. Note that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • Visible light has a wavelength in the range of about 400 nm to 700 nm. Infrared light has a longer wavelength than visible light, while ultraviolet light has visible light. ) It has a characteristic that the wavelength is shorter.
  • the light wavelength component of radiated light, reflected light or transmitted light from an object differs depending on the composition (element, molecular structure, etc.) of the object, and the composition of the object is analyzed by analyzing this wavelength component.
  • the composition of the object is analyzed by analyzing this wavelength component.
  • data indicating the quantity for each wavelength is called a wavelength spectrum
  • a process for measuring the wavelength spectrum is called a spectroscopic measurement process.
  • FIG. 2 is a diagram showing an example of spectroscopic measurement of a luminescent object.
  • FIG. 2 shows which wavelength of light in the wavelength range of visible light (about 400 nm to 700 nm) is output from the sun, electric lamp, neon, hydrogen, mercury, and sodium. Areas with output are displayed whitish and areas with no output are shown in black.
  • FIG. 2 shows the result of spectroscopic measurement of output light from sunlight, electric light, and various heated substances.
  • the sun, electric light, neon, hydrogen, mercury, sodium, and each of these objects output light having a wavelength unique to each object. That is, even if the object is unknown, it is possible to analyze the composition of the object by analyzing the wavelength component contained in the light from the object.
  • the spectroscopic measurement observation system is provided with a spectroscopic element (a spectroscopic device) for separating light of each wavelength from light entering the camera.
  • spectroscopic element there is a prism shown in FIG.
  • Light incident on the prism that is, light of various wavelengths included in the incident light, is emitted from the prism at an incident light wavelength, an incident angle, and an emission angle corresponding to the prism shape.
  • a spectroscopic element such as this prism is provided in an observation system for spectroscopic measurement, and light having a wavelength unit can be individually received by a sensor.
  • each parameter of said (Formula 1) is as follows.
  • prism apex angle ⁇ 1 : incident angle with respect to the prism incident surface
  • ⁇ 2 the exit angle with respect to the prism exit surface
  • ⁇ 1 Refraction angle of the prism incident surface
  • ⁇ 2 Refraction angle of prism exit surface
  • Deviation angle (angle between incident light and outgoing light)
  • n is the refractive index of the prism, and the refractive index n depends on the wavelength.
  • ⁇ 1 Refraction angle of the prism incident surface, which depends on the refractive index n of the prism and the incident angle ⁇ 1 with respect to the prism incident surface. Therefore, the deflection angle (angle between incident light and outgoing light) ⁇ depends on the incident angle ⁇ 1 and the wavelength.
  • the emission angle ⁇ of the light beam by the diffraction grating can be expressed by the following formula (Formula 3).
  • sin ⁇ 1 (((m ⁇ ⁇ ) / d) ⁇ sin ⁇ ) (Formula 3)
  • d lattice spacing
  • incident angle
  • emission angle
  • m diffraction order.
  • FIG. 6 shows an example of data cube, that is, a data cube having three dimensions in the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object.
  • the data cube is data consisting of three dimensions of the spatial direction (XY) of the measurement object and the wavelength direction ( ⁇ ).
  • the coordinates of each point on the surface of the measurement object are indicated by XY coordinates, and the intensity ( ⁇ ) of each wavelength light at each coordinate position (x, y) is recorded.
  • the data cube shown in the figure is composed of 8 ⁇ 8 ⁇ 8 cube data, and one cube is data indicating the light intensity of a specific wavelength ( ⁇ ) at a specific position (x, y).
  • the number of cubes 8 ⁇ 8 ⁇ 8 is an example, and this number varies depending on the spatial resolution and wavelength resolution of the spectroscopic measurement apparatus.
  • FIG. 7 (a1) Point measurement method (spectrometer) A point measurement method (spectrometer) will be described with reference to FIG. As shown in FIG. 7 (a1), in the point measurement method, light emitted from one point to be measured is dispersed by a prism that is a spectroscopic element, and spectroscopic analysis is performed on a linear sensor in which elements are arranged only in one direction. It is the structure to project. With this configuration, different wavelength light is recorded in different elements (pixels) on the linear sensor.
  • the wavelength spectrum can be acquired by reading the value of each element (pixel) of the sensor.
  • the feature of this point measurement method is that the wavelength resolution depends on the element size (number of pixels) of the linear sensor. As the number of elements (number of pixels) is increased, more detailed wavelength information can be acquired. That is.
  • the spatial scanning method uses a wavelength in one direction of the space in the X direction of the area sensor with respect to the light from the measurement target dispersed by the spectroscopic element (prism, diffraction grating, etc.). The direction is recorded in the Y direction of the area sensor. Further, as shown in FIG. 9 (c2), the measurement device is scanned (scanned) in the remaining one direction with respect to the measurement target.
  • the data cube described above with reference to FIG. 6, that is, a data cube composed of three dimensions of the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object can be acquired.
  • this spatial scanning method can achieve high spatial resolution and wavelength resolution, there is a problem that a large apparatus is required for scanning, and the scanning processing time is required and the measurement time becomes long.
  • the data cube described with reference to FIG. 6 in one shooting that is, the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object as shown in FIG. 10 (d2).
  • a three-dimensional data cube can be acquired.
  • an example of an existing spectroscopic measurement system that acquires three-dimensional data in the spatial direction (XY) and wavelength direction ( ⁇ ) of a measurement object, that is, (a) a point measurement method (Spectrometer), (b) Wavelength scanning method, (c) Spatial scanning method, (d) Snapshot method, and these four types of methods have been described.
  • the (d) snapshot method described with reference to FIG. 10 has a high utility value because a data cube can be acquired by only one shooting.
  • each of the above four types has a problem that it is difficult to control spatial resolution and wavelength resolution.
  • the spectroscopic measurement device of the present disclosure has the same components as those of the snapshot method using the diffraction grating described with reference to FIG. 10 and can control the spatial resolution and the wavelength resolution independently independently. It is characterized by that.
  • An example of the spectroscopic measurement device of the present disclosure has a configuration in which the spatial resolution and the wavelength resolution can be individually controlled by using a computed tomography imaging spectrometer (CTIS) to which a snapshot method is applied. Have.
  • CTIS computed tomography imaging spectrometer
  • Non-Patent Document 1 “Practical Spectral Photography Ralf Habel, Michael Kudenov, Michael Wimmer, EUROGRAPHICS 2012”
  • Non-Patent Document 2 “A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005”
  • Non-Patent Document 3 “Lenslet Array Tunable Snapshot Imaging Spectrometer (LATIS) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017”
  • Non-Patent Document 1 The spectroscopic measurement device described in “Practical” Spectral ”Photography” Ralf ”Habel,“ Michael ”Kudenov,“ Michael ”Wimmer,“ EUROGRAPHICS ”2012 adopts the optical configuration of the above-mentioned CTIS method, and data with a fixed resolution. It has a configuration that makes it possible to acquire a cube by one shooting.
  • Non-Patent Document 1 makes it possible to acquire a data cube in one shot, but the spatial resolution and wavelength resolution are fixed. That is, it is necessary to replace the entire optical system in accordance with changes in usage scenes such as changing the spatial resolution or wavelength resolution.
  • Non-Patent Document 2 “A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005”
  • Non-Patent Document 3 “Lenslet Array Tunable Snapshot Imaging Spectrometer (LATIS) ) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017.
  • Non-Patent Document 2 The spectroscopic measurement apparatus described in Non-Patent Document 2 is used as a spectroscopic element instead of a general diffraction grating. By using an optical phase array, it is possible to electrically change the lattice spacing. As a result, the projection position of the image for each wavelength on the sensor surface can be dynamically changed. Thus, the wavelength resolution can be adjusted.
  • the configuration of Non-Patent Document 2 has a problem that although the wavelength resolution can be adjusted, the spatial resolution cannot be adjusted.
  • the spectroscopic measurement apparatus described in Non-Patent Document 3 has a configuration in which the objective lens in the configuration of Non-Patent Document 1 is replaced with a lens array composed of a plurality of lenses.
  • the size of the projected image for each wavelength on the sensor surface can be adjusted by simultaneously changing the focal lengths of the collimating lens and the imaging lens during photographing.
  • overlapping between the projected images can be avoided by rotating the lens array. With this configuration, spatial resolution and wavelength resolution can be adjusted simultaneously.
  • Non-Patent Document 3 the spatial resolution and the wavelength resolution can be adjusted simultaneously. However, since the focus of the collimating lens and the imaging lens is adjusted simultaneously, there is a problem that the spatial resolution and the wavelength resolution cannot be adjusted independently.
  • the spectroscopic measurement device solves the above-described problems. That is, the spatial resolution and the wavelength resolution can be independently adjusted, and the spectral measurement with the spatial resolution and the wavelength resolution adapted to various uses is realized.
  • FIG. 11 is a diagram illustrating a configuration example of the spectroscopic measurement apparatus 100 of the present disclosure.
  • the spectroscopic measurement device 100 of the present disclosure includes an objective lens 101, a slit (field stop) 102, a collimator lens 103, a spectroscopic element (diffraction grating) 104, an imaging lens 105, and a sensor (area sensor) 106.
  • a spatial resolution adjustment unit 151, a wavelength resolution adjustment unit 152, an arithmetic processing unit 153, and a recording unit 154 are provided.
  • a spectroscopic measurement apparatus 100 shown in FIG. 11 condenses light from a measurement target with an objective lens 101, converts light transmitted through a slit (field stop) 102 into parallel light with a collimator lens 103, and further splits the light.
  • the light transmitted through the element (diffraction grating) 104 is split into light in wavelength units by the imaging lens 105 and projected onto the surface of the sensor (area sensor) 106.
  • the imaging lens 105 the imaging lens 105 and projected onto the surface of the sensor (area sensor) 106.
  • each element (pixel) of the sensor (area sensor) 106 records light in which various wavelength lights from various positions to be measured are superimposed.
  • the arithmetic processing unit 153 acquires the output value (pixel value) of each element (pixel) of the sensor (area sensor) 106, and based on the output value of each element (pixel), the position (x, y) of the measurement target ) And wavelength light corresponding to each position ( ⁇ : vector information) is executed. That is, the arithmetic processing unit 153 generates a three-dimensional data cube of the spatial direction (XY) and wavelength direction ( ⁇ ) of the measurement object described above with reference to FIG. Record.
  • the spatial resolution adjustment unit 151 is a processing unit that adjusts the spatial resolution of the spectroscopic measurement apparatus 100.
  • the spatial resolution adjustment unit 151 controls the objective lens 101, the slit (field stop) 102, and the collimator lens 103 to adjust the spatial resolution of the spectroscopic measurement apparatus 100.
  • the wavelength resolution adjustment unit 152 controls the wavelength resolution by controlling the imaging lens 105 and the sensor (area sensor) 106. A specific control example will be described in detail later.
  • the spectroscopic measurement apparatus 100 of the present disclosure shown in FIG. 11 performs spectroscopic measurement by a snapshot method, similarly to the configuration described above with reference to FIG. 10, and refers to FIG. In other words, the data cube having the three dimensions of the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object as shown in FIG. 10 (d2) can be obtained.
  • the spectroscopic measurement device 100 of the present disclosure shown in FIG. 11 has a configuration capable of simultaneously capturing a normal image and a spectroscopic image.
  • both spatial information and wavelength information exist as continuous amounts, but since discrete data is recorded in the sensor (area sensor) 106, the spatial direction is determined from the output value of the sensor (area sensor) 106. In addition, only discrete values can be obtained in the wavelength direction. Therefore, the concept of resolution occurs, and there are spatial resolution and wavelength resolution as quantities that represent how finely the spatial direction and wavelength direction can be recorded.
  • the emitted light that has passed through the diffraction grating has a wavelength as shown in FIG. Each has a different exit angle and is recorded at a different position on the sensor surface.
  • spectral information can be recorded.
  • the spectroscopic measurement device 100 of the present disclosure has a configuration in which the spatial resolution and the wavelength resolution can be adjusted independently.
  • the spectroscopic measurement device 100 of the present disclosure shown in FIG. 11 can be optically divided into two parts with the collimating lens 103 as a reference. That is, as shown in FIG. 14, spectral imaging including an objective lens 101, a slit (field stop) 102 and a collimating lens 103, a spectroscopic element 104, an imaging lens 105, and a sensor (area sensor) 106. Divided into parts 220.
  • the spatial resolution adjusting unit 151 adjusts the spatial resolution of the spectroscopic measurement apparatus 100 by controlling the objective lens 101, the slit (field stop) 102, and the collimating lens 103 of the condensing unit 210.
  • the wavelength resolution adjustment unit 152 controls the wavelength resolution by controlling the imaging lens 105 and the sensor (area sensor) 106 of the spectroscopic imaging unit 220.
  • the condensing unit 210 and the spectral imaging unit 220 are connected to each other by optically parallel light, so that they are independent from each other, and there is no function interference. That is, the spatial resolution and the wavelength resolution should be adjusted independently. Is possible.
  • processing by the spatial resolution adjustment unit 151 that is, the spatial resolution adjustment unit 151 controls the objective lens 101, the slit (field stop) 102, and the collimating lens 103 of the condensing unit 210 to control the spatial resolution of the spectroscopic measurement apparatus 100.
  • the spatial resolution adjustment unit 151 controls the objective lens 101, the slit (field stop) 102, and the collimating lens 103 of the condensing unit 210 to control the spatial resolution of the spectroscopic measurement apparatus 100.
  • the spatial resolution adjustment unit 151 controls the objective lens 101, the slit (field stop) 102, and the collimating lens 103 of the condensing unit 210 to control the spatial resolution of the spectroscopic measurement apparatus 100.
  • the spatial resolution (rs) can be expressed by the following formula (Formula 6).
  • rs D / d (f 1 / (af 1 )) (Formula 6)
  • D Shooting range (field-of-view range) of the measurement object
  • d Projection range on the sensor surface (for example, the number of projection pixels)
  • f 1 Focal length of objective lens
  • a Distance to measurement object (distance from objective lens 101) It is.
  • the spatial resolution adjustment unit 151 first inputs a target spatial resolution setting value (rs) from, for example, an input unit. Next, the spatial resolution adjustment unit 151 calculates the focal length (f 1 ) of the objective lens 101 for setting the input spatial resolution setting value (rs) according to the above (Equation 6).
  • the focal length of the collimating lens 103 (f shown in FIG. 14) is matched with the distance a (the distance a shown in FIG. 14) to the measurement target and the focal length of the objective lens 101 (f 1 shown in FIG. 14). 2 ), and the distance between the objective lens 101 and the collimating lens 103 (d 1 shown in FIG. 14) is fixed. Therefore, the focal length f 1 of the objective lens 101, the light emitted from the collimating lens 103 by changing not parallel light unilaterally.
  • the spatial resolution adjustment unit 151 of the spectroscopic measurement device 100 maintains the output light from the collimator lens 103 in parallel light, so as to match the focal length (f 1 ) of the objective lens 101 as shown in FIG.
  • the distance (d 1 ) between the objective lens 101 and the collimating lens 103 and the focal length (f 2 ) of the collimating lens 103 are adjusted simultaneously.
  • the focal length (f 1 ) of the objective lens 101 is adjusted, the distance (d 1 ) between the objective lens 101 and the collimator lens 103 is expressed by the following equation ( It is set as the calculated value of Formula 7). Further, the focal length (f 2 ) of the collimator lens 103 is set as a calculated value of the following formula (Formula 8).
  • d 1 (a ⁇ f 1 ) / (af 1 ) (Expression 7)
  • f 2 d 1 (Expression 8)
  • the spatial resolution adjustment unit 151 of the spectroscopic measurement apparatus 100 of the present disclosure is The focal length (f 1 ) of the objective lens 101 for setting the target spatial resolution setting value (rs) calculated in accordance with (Equation 6) above, Calculated according to (Equation 7) and (Equation 8) above.
  • the focal length (f 2 ) of the collimating lens 103 are adjusted together.
  • the spatial resolution can be adjusted while maintaining the input light from the light collecting unit 210 to the spectral imaging unit 220 as parallel light. That is, the spatial resolution can be adjusted without causing an influence on the wavelength resolution.
  • FIG. 15 shows the behavior of light rays in the spectral imaging unit 220 shown in FIG.
  • the precondition is that the incident light from the collimating lens 103 of the condensing unit 210 to the spectroscopic element 104 of the spectroscopic imaging unit 220 is parallel light.
  • the outgoing light from the spectroscopic element 104 is divided into zero-order light and n-order diffracted light having an outgoing angle ⁇ corresponding to each wavelength.
  • the incident position x ′ on the sensor 106 of the light at the end of the input parallel light from the condensing unit 210 is expressed by (Equation 9) shown below.
  • x ′ ((f 3 ⁇ d 3 ) / f 3 ) ⁇ x + d 3 tan ⁇ (Equation 9)
  • x d 2 ⁇ tan ⁇ + x 0 (Expression 10) It is.
  • x 0 incident position of the end of incident light (parallel light) to the spectroscopic element (diffraction grating) 104
  • diffraction angle of the spectroscopic element (diffraction grating) 104
  • f 3 focal length of the imaging lens 105
  • d 2 the distance between the spectroscopic element (diffraction grating) 104 and the imaging lens 105
  • d 3 the distance between the imaging lens 105 and the sensor 106
  • x position of light on the imaging lens 105, It is.
  • the position x ′ on the sensor 106 where the light at the end of the light beam (input parallel light from the condensing unit 210) to the spectroscopic element 104 is incident has the following values. It depends on the value.
  • x 0 incident position of the end of incident light (parallel light) to the spectroscopic element (diffraction grating) 104
  • diffraction angle of the spectroscopic element (diffraction grating) 104
  • f 3 focal length of the imaging lens 105
  • d 2 the distance between the spectroscopic element (diffraction grating) 104 and the imaging lens 105
  • d 3 the distance between the imaging lens 105 and the sensor 106;
  • the diffraction angle ⁇ of the spectroscopic element (diffraction grating) 104 is a fixed value determined by the spec of the spectroscopic element 104.
  • the incident position x 0 of the incident light to the spectroscopic element (diffraction grating) 104 is a position determined by the configuration of the condensing unit 210.
  • the focal length f 3 of the image forming lens 105 if the distance d 3 of the imaging lens 105 and the sensor 106 is fixed, to the spectral element 104 light (input parallel light from the condensing portion 210) of the end portion
  • the position x ′ on the sensor 106 where light enters is a function of only the distance d 2 between the spectroscopic element (diffraction grating) 104 and the imaging lens 105. Therefore, if the distance d 2 between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 is adjusted, the position x ′ on the sensor 106 where the light at the end of the input parallel light from the condensing unit 210 enters is controlled. It becomes possible.
  • the spectral image projection range on the surface of the sensor 106 described above with reference to FIG. 12 ( d) can be adjusted.
  • the projection range (d) of the spectral image on the surface of the sensor 106 is a calculation parameter of the wavelength resolution (rw) calculation formula (Formula 5) described above, as described below.
  • rw ( ⁇ 3- ⁇ 1) / d (Formula 5) Therefore, by adjusting the distance d 2 of the spectral element (diffraction grating) 104 and the imaging lens 105, the light of the parallel light ends to enter the condensing section 210 becomes possible to control the position x 'on the sensor 106 which enters As a result, the wavelength resolution (rw) can be controlled.
  • the wavelength resolution adjustment unit 152 of the spectroscopic measurement apparatus 100 of the present disclosure first inputs a target wavelength resolution setting value (rw) from an input unit, for example. Next, the wavelength resolution adjustment unit 152 calculates the projection range (d) of the spectral image on the surface of the sensor 106 for setting the input wavelength resolution setting value (rw) according to the above (Equation 5).
  • the position x ′ of the end of the projection range is obtained from the calculated projection range (d) of the spectral image of the sensor 106 surface.
  • x ′ calculated in (Equation 9) and (Equation 10) is substituted, and is a fixed value.
  • x 0 incident position of the end of incident light (parallel light) to the spectroscopic element (diffraction grating) 104
  • diffraction angle of the spectroscopic element (diffraction grating) 104
  • f 3 focal length of the imaging lens 105
  • d 3 the distance between the imaging lens 105 and the sensor 106; Substituting these values, The distance (d 2 ) between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 is calculated.
  • the wavelength resolution adjustment unit 152 performs adjustment using the calculated parameter (d 2 ) as an adjustment parameter. In other words, the distance between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 is adjusted to coincide with the calculation parameter (d 2 ). In this way, the wavelength resolution adjustment unit 152 adjusts the wavelength resolution of the spectroscopic measurement device 100.
  • the projection magnification of the 0th-order light component that enters from the condenser 210 as parallel light is The projection range on the sensor 106 does not change, that is, the spatial resolution does not change.
  • the wavelength resolution adjustment unit 152 of the spectroscopic measurement device 100 of the present disclosure the spectral element by controlling the spacing d 2 of (diffraction grating) 104 and the imaging lens 105, without changing the spatial resolution, wavelength The resolution can be controlled.
  • each element (pixel) of the sensor (area sensor) 106 records light in which various wavelength lights from various positions to be measured are superimposed.
  • the arithmetic processing unit 153 acquires the output value (pixel value) of each element (pixel) of the sensor (area sensor) 106, and based on the output value of each element (pixel), the position (x, y) of the measurement target ) And wavelength light corresponding to each position ( ⁇ : vector information) is executed. That is, the arithmetic processing unit 153 generates a data cube composed of three-dimensional data of the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object described above with reference to FIG. To record.
  • the value of one block data (cube) C1 of a three-dimensional data cube in the spatial direction (XY) of the measurement object and the wavelength direction ( ⁇ ) It is calculated from the amount of light received by a plurality of pixels on the surface.
  • this pixel light on which various wavelength lights from various positions to be measured are superimposed is recorded. Therefore, the arithmetic processing unit 153 acquires the output value (pixel value) of each element (pixel) of the sensor (area sensor) 106, and based on the output value of each element (pixel), the position (x , Y) and wavelength light corresponding to each position ( ⁇ : vector information) must be executed.
  • the projection transformation matrix (H) is a matrix that can be acquired by prior calibration if the optical system of the spectroscopic measurement apparatus is determined. Therefore, it can be acquired before the start of the measurement process.
  • a projection transformation matrix (H) corresponding to a plurality of resolutions (spatial resolution and wavelength resolution) is acquired in advance.
  • an image matrix (g) of 1 ⁇ total number of pixels configured by output values (pixel values) of each element (pixel) of the sensor (area sensor) 106 is a matrix that can be acquired from a captured image.
  • the shooting data (g) is known after the execution of the measurement process. Under this condition, the calculation of (Equation 12) shown below is repeated to restore the data cube f, that is, the position (x, y) of the measurement target and the wavelength light corresponding to each position ( ⁇ : vector information). It can be restored.
  • ⁇ in (Equation 12) has a value range of 0 to 1 as a control parameter, and controls the termination speed of the iterative calculation.
  • each of the spatial resolution adjustment unit 151 and the wavelength resolution adjustment unit 152 adjusts a plurality of optical parameters.
  • the spatial resolution and the wavelength resolution can be adjusted independently.
  • the spatial resolution adjustment unit 151 The focal length (f1) of the objective lens 101, Distance between objective lens 101 and collimating lens 103 (d 1 shown in FIG. 14) Focal length of collimating lens 103 (f2) By adjusting these optical parameters, only the spatial resolution can be adjusted independently.
  • the wavelength resolution adjustment unit 152 Spacing between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 (d 2 shown in FIG. 14) By adjusting this optical parameter, only the wavelength resolution can be adjusted independently.
  • the spectroscopic measurement device 100 of the present disclosure has a configuration in which a plurality of optical parameters can be adjusted, and the spatial resolution and the wavelength resolution can be adjusted independently. Therefore, the data cube f can be restored using the above (Equation 12).
  • Equation 12 it is necessary to prepare and use the projection transformation matrix (H) according to the configuration after adjusting the optical parameters.
  • FIG. 17 is a diagram illustrating optical parameters adjusted by the spatial resolution adjustment unit 151 and the wavelength resolution adjustment unit 152 in the spectroscopic measurement apparatus 100 of the present disclosure.
  • FIG. 17 shows the following nine types of parameters that define the configuration of the spectroscopic measurement apparatus.
  • (1) Objective lens focal length f 1 (2) Distance between objective lens and collimating lens d 1 (3) Slit opening diameter p (4) Collimating lens focal length f 2 (5) Spectroscopic element (diffraction grating) opening diameter g (6) Spectral element-imaging lens distance d 2 (7) Collimating lens-imaging lens distance d 21 (8) Imaging lens focal length f 3 (9) Imaging lens-sensor distance d 3
  • the spatial resolution adjustment unit 151 of the spectroscopic measurement device 100 of the present disclosure is: (1) Objective lens focal length f 1 (2) Distance between objective lens and collimating lens d 1 (4) Collimating lens focal length f 2 These three types of parameters are adjusted.
  • the focal length (f 1 ) of the objective lens 101 for setting the target spatial resolution setting value (rs) calculated according to the above (Equation 6) is calculated.
  • the spatial resolution adjustment unit 151 is based on these three calculated values. (1) Objective lens focal length f 1 (2) Distance between objective lens and collimating lens d 1 (4) Collimating lens focal length f 2 These three types of parameters are adjusted.
  • the wavelength resolution adjustment unit 152 includes the above nine parameters. (6) Spectral element-imaging lens distance d 2 Adjust this parameter.
  • the spectral image projection range (d) on the surface of the sensor 106 for setting the target wavelength resolution setting value (rw) calculated in accordance with the above (Equation 5) is calculated.
  • the position x ′ of the end of the projection range is obtained from the calculated projection range (d) of the spectral image of the sensor 106 surface.
  • x ′ calculated in (Equation 9) and (Equation 10) is substituted, and is a fixed value.
  • x 0 incident position of the end of incident light (parallel light) to the spectroscopic element (diffraction grating) 104
  • diffraction angle of the spectroscopic element (diffraction grating) 104
  • f 3 focal length of the imaging lens 105
  • d 3 the distance between the imaging lens 105 and the sensor 106; Substituting these values, The distance (d 2 ) between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 is calculated.
  • the wavelength resolution adjusting unit 152 (6) Spectral element-imaging lens distance d 2 Adjust this parameter.
  • the spatial resolution adjustment unit 151 is (1) Objective lens focal length f 1 (2) Distance between objective lens and collimating lens d 1 (4) Collimating lens focal length f 2 Adjust these three parameters,
  • the wavelength resolution adjustment unit 152 (6) Spectral element-imaging lens distance d 2
  • the spatial resolution adjustment unit 151 and the wavelength resolution adjustment unit 152 may be configured to adjust other parameters.
  • the spatial resolution adjustment unit 151 (1) Objective lens focal length f 1 (2) Distance between objective lens and collimating lens d 1 (3) Slit opening diameter p (4) Collimating lens focal length f 2 These four types of parameters may be set to be adjusted. These parameters are parameters that can change the spatial resolution.
  • the wavelength resolution adjustment unit 152 (1) Objective lens focal length f 1 (6) Spectral element-imaging lens distance d 2 (8) Imaging lens focal length f 3 (9) Imaging lens-sensor distance d 3 These four types of parameters may be set to be adjusted. These parameters are parameters that can change the wavelength resolution.
  • the condition is that the emitted light from the light collecting unit 210 to the spectroscopic imaging unit 220 is maintained as parallel light.
  • f 2 d 1 (Expression 8)
  • the focal length (f 2 ) of the collimating lens 103 These parameters may be set.
  • the spatial resolution adjustment unit 151 and the wavelength resolution adjustment unit 152 are configured as shown in FIG. 18 and FIG. 19 as long as the condition for satisfying the condition for maintaining the output light from the condensing unit 210 to the spectral imaging unit 220 as parallel light is satisfied. Adjustment of various parameters as shown in FIG. 18 and FIG. 19 as long as the condition for satisfying the condition for maintaining the output light from the condensing unit 210 to the spectral imaging unit 220 as parallel light is satisfied. Adjustment of various parameters as shown in FIG.
  • Step S101 First, in step S101, a spatial resolution adjustment process is executed. This process is executed by the spatial resolution adjustment unit 151 of the spectroscopic measurement apparatus 100 shown in FIG.
  • the focal length (f 1 ) of the objective lens 101 for setting the target spatial resolution setting value (rs) calculated according to the above (Equation 6) is calculated.
  • the spatial resolution adjustment unit 151 is based on these three calculated values.
  • Objective lens focal length f 1 Objective lens-collimating lens distance d 1 Collimating lens focal length f 2 These three types of parameters are adjusted.
  • Step S102 The process of step S102 is a process that can be executed in parallel with the process of step S101.
  • wavelength resolution adjustment processing is executed. This process is executed by the wavelength resolution adjustment unit 152 of the spectroscopic measurement apparatus 100 shown in FIG.
  • the spectral image projection range (d) on the surface of the sensor 106 for setting the target wavelength resolution setting value (rw) calculated in accordance with the above (Equation 5) is calculated.
  • the position x ′ of the end of the projection range is obtained from the calculated projection range (d) of the spectral image of the sensor 106 surface.
  • x ′ calculated in (Equation 9) and (Equation 10) is substituted, and is a fixed value.
  • x 0 incident position of the end of incident light (parallel light) to the spectroscopic element (diffraction grating) 104
  • diffraction angle of the spectroscopic element (diffraction grating) 104
  • f 3 focal length of the imaging lens 105
  • d 3 the distance between the imaging lens 105 and the sensor 106; Substituting these values, The distance (d 2 ) between the spectroscopic element (diffraction grating) 104 and the imaging lens 105 is calculated.
  • the wavelength resolution adjusting unit 152 Spectral element-imaging lens distance d 2 Adjust this parameter.
  • the spatial resolution adjustment unit 151 and the wavelength resolution adjustment unit 152 are allowed to adjust various parameters as shown in FIGS.
  • Step S103 Next, in step S103, the measurement target is photographed.
  • This process is an image capturing process performed by the spectroscopic measurement apparatus 100 shown in FIG.
  • Step S104 a pixel value reading process is executed. This process is a process of outputting the pixel value of each pixel of the sensor 106 of the spectroscopic measurement apparatus 100 shown in FIG.
  • Step S105 Next, in step S105, a restoration process is executed.
  • This process is a process executed by the arithmetic processing unit 153 of the spectroscopic measurement apparatus 100 shown in FIG.
  • the arithmetic processing unit 153 acquires the output value (pixel value) of each element (pixel) of the sensor (area sensor) 106, and based on the output value of each element (pixel), the position (x, y) of the measurement target ) And wavelength light corresponding to each position ( ⁇ : vector information) is executed. That is, the arithmetic processing unit 153 generates a data cube composed of the three dimensions of the spatial direction (XY) and the wavelength direction ( ⁇ ) of the measurement object described above with reference to FIG.
  • the projection transformation matrix (H) is a matrix that can be acquired by prior calibration if the optical system of the spectroscopic measurement apparatus is determined. Therefore, it can be acquired before the start of the measurement process. Further, an image matrix (g) of 1 ⁇ total number of pixels configured by output values (pixel values) of each element (pixel) of the sensor (area sensor) 106 is a matrix that can be acquired from a captured image.
  • the imaging data (g), the projection transformation matrix (H), and the noise (n) are known, and the arithmetic processing unit 153 reconstructs the data cube f by repeating the calculation of (Equation 12) described above, that is, The position (x, y) of the measurement target and the wavelength light ( ⁇ : vector information) corresponding to each position are restored.
  • Step S106 the arithmetic processing unit 153 records in the recording unit 154 a data cube composed of three-dimensional data of the captured measurement object in the spatial direction (XY) and the wavelength direction ( ⁇ ).
  • the spectroscopic measurement device 100 of the present disclosure performs the spatial resolution adjustment and the wavelength resolution adjustment independently in steps S101 and S102, and sets desired spatial resolution and wavelength resolution. It is possible to generate and record a data cube composed of three-dimensional data in the spatial direction (XY) of the measurement object and the wavelength direction ( ⁇ ).
  • the technology disclosed in this specification can take the following configurations.
  • the spatial resolution adjustment unit is A spectroscopic measurement device that changes a spatial resolution without changing a wavelength resolution of the spectroscopic measurement device.
  • the wavelength resolution adjustment unit includes: The spectroscopic measurement device according to (1), wherein the wavelength resolution is changed without changing a spatial resolution of the spectroscopic measurement device.
  • the spatial resolution adjustment unit The spectroscopic measurement device according to (1) or (2), wherein the spatial resolution is changed so as to satisfy a condition that the output light from the light collecting unit of the spectroscopic measurement device to the spectroscopic imaging unit is maintained as parallel light.
  • the spatial resolution adjustment unit The spectroscopic measurement device according to any one of (1) to (3), wherein the spatial resolution is changed by adjusting parameters of components of the light collecting unit of the spectroscopic measurement device.
  • the spatial resolution adjustment unit It is a parameter of the constituent elements of the light collecting unit of the spectroscopic measurement device, (A) the objective lens focal length; (B) the distance between the objective lens and the collimating lens; (C) Collimating lens focal length,
  • the spectroscopic measurement device according to any one of (1) to (4), wherein the spatial resolution is changed by adjusting at least one of the parameters (a) to (c).
  • the wavelength resolution adjustment unit includes: 6.
  • the wavelength resolution adjustment unit includes: It is a parameter of a component of the spectral imaging unit of the spectral measurement device, The distance between the spectroscopic element and the imaging lens, The spectroscopic measurement device according to any one of (1) to (6), wherein wavelength resolution is changed by adjusting
  • the spectroscopic measurement device further includes: An arithmetic processing unit that inputs a light reception signal value of the sensor of the spectroscopic measurement device and executes arithmetic processing,
  • the arithmetic processing unit includes: A pixel value of each pixel of the sensor is acquired, and calculation processing for restoring the position (x, y) of the measurement target and the wavelength light ( ⁇ : vector information) corresponding to each position is executed (1) to (7 )
  • the spectroscopic measurement device according to any one of the above.
  • the arithmetic processing unit The spectroscopic measurement apparatus according to (8), wherein a data cube including three-dimensional data in the spatial direction (XY) of the measurement target and the wavelength direction ( ⁇ ) is generated.
  • a spectroscopic measurement method executed in the spectroscopic measurement device A spatial resolution adjustment unit that adjusts the spatial resolution of the spectroscopic measurement device; and A wavelength resolution adjustment unit that adjusts the wavelength resolution of the spectroscopic measurement device; and An image capturing step for causing the sensor to receive the output light of the measurement object via the light collecting unit and the spectroscopic unit of the spectroscopic measurement device;
  • the arithmetic processing unit has a data cube generation step of generating a data cube composed of three-dimensional data of the spatial direction (XY) of the measurement target and the wavelength direction ( ⁇ ) based on the pixel value of the sensor,
  • the spatial resolution adjustment step by the spatial resolution adjustment unit A spectroscopic measurement method which is a step of changing a spatial resolution without changing a wavelength resolution of the spectroscopic measurement device.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • a configuration in which the spatial resolution and the wavelength resolution of the spectroscopic measurement apparatus can be independently adjusted is realized.
  • it has a spatial resolution adjustment unit that adjusts the spatial resolution of the spectroscopic measurement device and a wavelength resolution adjustment unit that adjusts the wavelength resolution of the spectroscopic measurement device, and the spatial resolution adjustment unit is a collection of spectroscopic measurement devices.
  • the spatial resolution is changed without changing the wavelength resolution of the spectroscopic measurement device by maintaining the output light from the optical unit to the spectroscopic imaging unit as parallel light and adjusting the parameters of the components of the condensing unit.
  • the wavelength resolution adjustment unit adjusts the parameters of the spectroscopic imaging unit of the spectroscopic measurement device, and changes the wavelength resolution without changing the spatial resolution of the spectroscopic measurement device.
  • spectroscopic measurement device 101 objective lens 102 slit (field stop) 103 Collimating lens 104 Spectroscopic element (diffraction grating) 105 Imaging lens 106 Sensor (area sensor) 151 Spatial Resolution Adjustment Unit 152 Wavelength Resolution Adjustment Unit 153 Arithmetic Processing Unit 154 Recording Unit 210 Condensing Unit 220 Spectroscopic Imaging Unit

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

分光計測装置の空間分解能と波長分解能を独立に調整可能とした構成を実現する。分光計測装置の空間分解能を調整する空間分解能調整部と、分光計測装置の波長分解能を調整する波長分解能調整部を有し、空間分解能調整部は、分光計測装置の集光部から分光撮影部に対する出力光を平行光に維持し、集光部の構成要素のパラメータを調整して、分光計測装置の波長分解能を変更することなく空間分解能を変更する。波長分解能調整部は、分光計測装置の分光撮影部のパラメータを調整して、分光計測装置の空間分解能を変更することなく波長分解能を変更する。

Description

分光計測装置、および分光計測方法
 本開示は、分光計測装置、および分光計測方法に関する。さらに詳細には、様々な計測対象物の組成等を解析する分光計測装置、および分光計測方法に関する。
 物体の組成解析手法として分光計測手法が知られている。分光計測手法は物体からの放射光あるいは反射光あるいは透過光を解析することでその物体の組成(元素、分子構造など)を解析する手法である。
 物体からの放射光や反射光あるいは透過光は、物体の組成(元素、分子構造など)により、光波長成分が異なり、この波長成分を解析することで、物体の組成を解析することが可能となる。一般に、波長ごとの分量を示すデータを波長スペクトルと呼び、波長スペクトルを計測する処理を分光計測処理と呼ぶ。
 しかし、物体のある一点からの光(放射光、または反射光、あるいは透過光)の波長情報を解析しても、その一点の組成を解析することしかできない。すなわち、物体の表面の各点の組成を一回の観測で解析するためには、表面の各点からの光を全て解析することが必要となる。
 物体の表面の各点の組成を解析するためには、物体の空間情報と波長情報との対応データを取得することが必要となる。
 物体の空間情報と波長情報との対応データを1回の処理、すなわち分光計測装置による1回の撮影処理のみで、物体の空間情報と波長情報との対応データを取得する方式としてスナップショット方式が知られている。スナップショット方式を適用した分光計測装置は、複数のレンズやスリット(視野絞り)、分光素子等からなる光学系とセンサの組み合わせによって構成される。分光計測装置の空間分解能や波長分解能は、これらの光学系やセンサの構成によって決定される。
 なお、スナップショット方式を適用した分光計測装置については、例えば、非特許文献1(Practical Spectral Photography Ralf Habel, Michael Kudenov, Michael Wimmer, EUROGRAPHICS 2012)、非特許文献2(A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005)、非特許文献3(Lenslet Array Tunable Snapshot Imaging Spectrometer(LATIS) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017)等に記載がある。
 しかし、これらの文献に記載された装置や、その他の従来の分光計測装置は、空間分解能と波長分解能を独立に調整可能な構成を有しておらず、計測対象や計測用途が異なる場合には、装置全体を交換して目的の空間分解能や波長分解能を持つ装置を再構成する等の処理を行う必要があった。
Practical Spectral Photography Ralf Habel, Michael Kudenov, Michael Wimmer, EUROGRAPHICS 2012 A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005 Lenslet Array Tunable Snapshot Imaging Spectrometer(LATIS) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017
 本開示は、例えば、上記問題点に鑑みてなされたものであり、空間分解能や波長分解能を独立に調整可能とした分光計測装置、および分光計測方法を提供することを目的とする。
 本開示の第1の側面は、
 分光計測装置の空間分解能を調整する空間分解能調整部と、
 前記分光計測装置の波長分解能を調整する波長分解能調整部を有し、
 前記空間分解能調整部は、
 前記分光計測装置の波長分解能を変更することなく空間分解能を変更する分光計測装置にある。
 さらに、本開示の第2の側面は、
 分光計測装置において実行する分光計測方法であり、
 空間分解能調整部が、前記分光計測装置の空間分解能を調整する空間分解能調整ステップと、
 波長分解能調整部が、前記分光計測装置の波長分解能を調整する波長分解能調整ステップと、
 計測対象の出力光を前記分光計測装置の集光部と分光部を介してセンサに受光させる画像撮影ステップと、
 演算処理部が、前記センサの画素値に基づいて、前記計測対象の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成するデータキューブ生成ステップを有し、
 前記空間分解能調整部による前記空間分解能調整ステップは、
 前記分光計測装置の波長分解能を変更することなく空間分解能を変更するステップである分光計測方法にある。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、分光計測装置の空間分解能と波長分解能を独立に調整可能とした構成が実現される。
 具体的には、例えば、分光計測装置の空間分解能を調整する空間分解能調整部と、分光計測装置の波長分解能を調整する波長分解能調整部を有し、空間分解能調整部は、分光計測装置の集光部から分光撮影部に対する出力光を平行光に維持し、集光部の構成要素のパラメータを調整して、分光計測装置の波長分解能を変更することなく空間分解能を変更する。波長分解能調整部は、分光計測装置の分光撮影部のパラメータを調整して、分光計測装置の空間分解能を変更することなく波長分解能を変更する。
 本構成により、分光計測装置の空間分解能と波長分解能を独立に調整可能とした構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
光の種類と波長の関係について説明する図である。 発光物体の分光計測例について説明する図である。 ある食品の出力光の分光解析結果であるスペクトル強度解析結果の一例を示す図である。 分光素子であるプリズムについて説明する図である。 分光素子である解説格子について説明する図である。 計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータであるデータキューブの例について説明する図である。 点計測方式(スペクトロメータ)について説明する図である。 波長スキャン方式について説明する図である。 空間スキャン方式について説明する図である。 スナップショット方式について説明する図である。 本開示の分光計測装置100の構成例について説明する図である。 空間分解能について説明する図である。 波長分解能について説明する図である。 本開示の分光計測装置の集光部、および分光撮影部について説明する図である。 分光撮影部における光線の挙動について説明する図である。 スナップショット方式におけるデータキューブとセンサの受光データとの対応関係について説明する図である。 本開示の分光計測装置の空間分解能調整部と波長分解能調整部が調整する光学パラメータについて説明する図である。 本開示の分光計測装置の空間分解能調整部と波長分解能調整部が調整する光学パラメータについて説明する図である。 本開示の分光計測装置の空間分解能調整部と波長分解能調整部が調整する光学パラメータについて説明する図である。 本開示の分光計測装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。
 以下、図面を参照しながら本開示の分光計測装置、および分光計測方法の詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.分光計測装置の概要について
 2.回折格子を用いたスナップショット方式の分光計測装置の構成例について
 3.本開示の分光計測装置の構成と処理について
 4.演算処理部におけるデータキューブ復元処理について
 5.本開示の分光計測装置の実行する処理のシーケンスについて
 6.本開示の構成のまとめ
  [1.分光計測装置の概要について]
 まず、分光計測装置の概要について説明する。光は、例えば、赤外光(infrared radiation)、可視光(visible light)、紫外線(Ultraviolet)などが知られているが、これらの光は電磁波の一種であり、図1に示すように光の種類によって異なる波長(振動周期)を持っている。
 可視光(visible light)の波長は約400nm~700nmの範囲であり、赤外光(infrared radiation)は、可視光(visible light)より波長が長く、一方、紫外線(Ultraviolet)は可視光(visible light)より波長が短いという特性を持つ。
 前述したように、物体からの放射光や反射光あるいは透過光は、物体の組成(元素、分子構造など)により光波長成分が異なり、この波長成分を解析することで物体の組成を解析することが可能となる。一般に、波長ごとの分量を示すデータを波長スペクトルと呼び、波長スペクトルを計測する処理を分光計測処理と呼ぶ。
 図2は、発光物体の分光計測例を示す図である。図2には、太陽、電灯、ネオン、水素、水銀、ナトリウムから出力される光が、可視光の波長範囲(約400nm~700nm)のどの波長の光であるかを示している。出力のある領域が白っぽく表示され、出力の無い領域が黒く示されている。図2は、太陽光、電灯や熱せられた各種物質からの出力光を分光計測した結果である。
 図2に示すように、太陽、電灯、ネオン、水素、水銀、ナトリウム、これらの各物体は、それぞれの物体固有の波長光を出力する。
 すなわち、物体が不明であっても、その物体からの光に含まれる波長成分を解析することで、その物体の組成を解析することが可能となる。
 例えば、ある加工食品の組成が不明である場合、その食品の出力光(放射光や反射光あるいは透過光)を解析することで、その食品を構成している物質を解析することが可能となる。図3は、ある食品の出力光の分光解析結果であるスペクトル強度解析結果の一例を示す図である。この食品からは2種類の異なるスペクトル解析結果が得られている。
 このスペクトル強度解析結果と、予め様々な物質について解析済みのスペクトル強度解析結果データとを比較することで、物質Aと物質Bが何であるかを判定することが可能となり、食品の組成を解析することができる。
 上述のように、分光計測ができれば、計測対象物に関する様々な情報を取得することが可能となる。
 しかし、集光レンズとセンサを有する一般的なカメラでは、センサの各画素にすべての波長が入り混じった光が入射してしまうため、各波長単位の強度を解析することが困難となる。
 そこで、分光計測の観測系には、カメラに飛び込んでくる光から各波長の光を分離するための分光素子(分光デバイス)が設けられる。
 最も一般的に知られている分光素子として図4に示すプリズムがある。プリズムに対して入射する光、すなわち入射光に含まれる様々な波長の光は、入射光の波長と、入射角度と、プリズム形状に対応した出射角でプリズムから出射される。分光計測の観測系にはこのプリズムのような分光素子が設けられ、波長単位の光をセンサで個別に受光可能とした構成を持つ。
 なお、屈折率nのプリズムによる分光において、プリズムによる光の進行方向の変化を示す式は下式(式1)として示すことができる。
 δ=θ-φ+θ-φ=θ+θ-α ・・・(式1)
 なお、上記(式1)の各パラメータは以下の通りである。
 α:プリズムの頂角
 θ:プリズム入射面に対する入射角、
 θ:プリズム出射面に対する出射角、
 φ:プリズム入射面の屈折角、
 φ:プリズム出射面の屈折角、
 δ:偏角(入射光と出射光との角度)
 ここで、スネルの法則(sinθ=nsinΦ)に従うと、上記(式1)は下記の(式2)のように書き換えられる。
 δ=θ+sin-1(n・sin(α-φ)) ・・・(式2)
 なお、上記(式2)において、
 n:プリズムの屈折率
 であり、屈折率nは波長に依存する。また、
 φ:プリズム入射面の屈折角
 であり、プリズムの屈折率nと、プリズム入射面に対する入射角θに依存する。
 よって、偏角(入射光と出射光との角度)δは、入射角θと波長に依存する。
 また、図5に示すように、光の波としての性質を利用した回折格子による分光も可能である。回折格子による光線の出射角βは下式(式3)で示すことができる。
 β=sin-1(((m・λ)/d)-sinα) ・・・(式3)
 なお、上記(式3)において、
 d:格子間隔、
 α:入射角、
 β:出射角、
 m:回折次数
 である。
 しかし、前述したように、物体のある一点からの光の波長情報を解析しても、その一点の組成を解析することしかできない。すなわち、物体の表面の各点の組成を一回の観測により解析するためには、表面の各点からの光を全て解析することが必要となる。
 すなわち、計測対象物の表面の各点の組成を解析するためには、計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータを一回の観測で取得することが必要となる。
 図6は、計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータ、すなわちデータキューブの例を示している。
 データキューブは、計測対象物の空間方向(XY)と、波長方向(λ)の3次元からなるデータである。計測対象物の表面の各点の座標がXY座標で示され、各座標位置(x,y)の各波長光の強度(λ)が記録されたデータである。図に示すデータキューブは8×8×8の立方体データから構成されており、1つの立方体が、特定の位置(x,y)の特定波長(λ)の光強度を示すデータである。
 なお、立方体の数8×8×8は一例であり、分光計測装置の空間分解能や、波長分解能に応じてこの数は変動することになる。
 この図6に示すような、データキューブ、すなわち、計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータを取得する既存の分光計測システムの例について説明する。
 計測対象物の空間方向(XY)と波長方向(λ)の3次元データを取得する既存の分光計測システムは、下記の4種類に分類される。
 (a)点計測方式(スペクトロメータ)
 (b)波長スキャン方式
 (c)空間スキャン方式
 (d)スナップショット方式
 以下、これらの各方式の概要について説明する。
 (a)点計測方式(スペクトロメータ)
 図7を参照して点計測方式(スペクトロメータ)について説明する。
 図7(a1)に示すように、点計測方式は、計測対象の1点から出た光を、分光素子であるプリズムで分光し、1方向にのみ素子が配置されているリニアセンサに分光を投影する構成である。この構成により、異なる波長光がリニアセンサ上の異なる素子(画素)に記録される。
 センサの各素子(画素)の値を読み取れば波長スペクトルを取得することが可能となる。この点計測方式(スペクトロメータ)の特徴は波長分解能がリニアセンサの素子サイズ(画素数)に依存することであり、素子の数(画素数)を増やせば増やすほど細かい波長情報を取得可能となることである。
 しかし、点計測方式(スペクトロメータ)では、1回の撮影処理で、計測対象の1点から出た光のみを受光し、解析することが可能となるのみである。すなわち、図7(a2)に示すように、1回の撮影処理では、計測対象物の空間方向(XY)のある一点のみの波長情報(λ)しか得られない。従って、計測対象物の空間方向(XY)の様々な点の波長情報(λ)を得るためには、計測位置をずらしながら多数回の撮影と解析を行う必要がある。
 (b)波長スキャン方式
 次に、図8を参照して波長スキャン方式について説明する。
 図8(b1)に示すように、波長スキャン方式は、異なる波長通過特性を持つ複数の光学フィルタを時間ごとにカメラ(エリアセンサ(2次元センサ))の前で切り替えて撮影する。
 図8(b2)に示すように、1回の撮影で複数の空間位置に対応する1つの波長の強度情報を取得することが可能となり、光学フィルタを切り替えて撮影することで、複数の異なる波長の強度情報を取得することが可能となる。
 ただし、高い波長分解能を実現するには大量の異なるフィルタを用意し、切り替えて撮影する必要があるので計測時間が長くなるという問題がある。また、光学フィルタの特性により、取得できない波長帯域が存在するという問題がある。
 (c)空間スキャン方式
 次に、図9を参照して空間スキャン方式について説明する。
 図9(c1)に示すように、空間スキャン方式は、分光素子(プリズム、回折格子など)によって分光された計測対象からの光に対して、空間の1方向をエリアセンサのX方向に、波長方向をエリアセンサのY方向に記録する。さらに、図9(c2)に示すように、計測装置を計測対象に対して残りの1方向に走査(スキャン)する。この処理により、先に図6を参照して説明したデータキューブ、すなわち、計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータキューブを取得することができる。
 この空間スキャン方式では高い空間分解能と波長分解能を実現できるが、スキャンするのに大型な装置が必要なうえ、スキャン処理時間が必要で計測時間が長くなるという問題がある。
 (d)スナップショット方式
 次に、図10を参照してスナップショット方式について説明する。
 図10(d1)に示すように、スナップショット方式は、計測対象からの光を対物レンズで集光し、さらにコリメートレンズで平行光に変換し、分光素子を透過させセンサ(エリアセンサ)面上に投影する構成である。この構成により、計測対象上の異なる点からの異なる波長成分の光がセンサ(エリアセンサ)面の異なる素子(画素)に記録される。
 このスナップショット方式は、1回の撮影で、図6を参照して説明したデータキューブ、すなわち、図10(d2)に示すような計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータキューブを取得することができる。
 ただし、センサ(エリアセンサ)は有限であり、また波長方向の情報がセンサ面上で重なり合って記録されるため、撮影後は信号処理によってデータキューブを復元する処理が必要となる。また、信号処理に必要となるパラメータは、分光計測装置の光学系の構成や性能に連動しているため、従来の構成では光学系を固定にして使用する必要があり、応用目的に合わせて波長と空間分解能を調整することが困難であるという問題がある。
 なお、図10に示すスナップショット方式の応用例として、センサ上に異なる透過帯域を持つ光学フィルタを空間的に配置することでデータキューブを取得する構成も提案されている。しかし、センサ面積は有限であり、光学フィルタはセンサ上に装着することが必要となり、光学フィルタの装着によりセンサの空間分解能が低下するという問題がある。
 図7~図10を参照して、計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータを取得する既存の分光計測システムの例、すなわち、(a)点計測方式(スペクトロメータ)、(b)波長スキャン方式、(c)空間スキャン方式、(d)スナップショット方式、これら4種類の方式について説明した。
 これら4方式の中でも特に図10を参照して説明した(d)スナップショット方式は1回の撮影だけでデータキューブを取得できるため、利用価値が高い。
 ただし、上記4種類の方式は、いずれも、空間分解能や波長分解能の制御が困難であるという問題がある。特に空間分解能と波長分解能を個別に独立して制御することは不可能であるという問題がある。
  [2.回折格子を用いたスナップショット方式の分光計測装置の構成例について]
 本開示の分光計測装置は、図10を参照して説明した回折格子を用いたスナップショット方式と同様の構成要素を有し、かつ、空間分解能と波長分解能を個別に独立して制御可能としたことを特徴とする。本開示の分光計測装置の一例は、スナップショット方式を適用した計算トモグラフィ撮像分光計(CTIS:Computed Tomography Imaging Spectrometer)を利用して、さらに空間分解能と波長分解能を個別に制御可能とした構成を有する。
 図10を参照して説明した回折格子を用いたスナップショット方式の分光計測装置自体は、すでに公知であり、いくつかの構成が提案されている。まず、これらについて、その概要を簡単に説明する。
 以下の各文献に記載された構成について、順次、説明する。
 (1)非特許文献1 「Practical Spectral Photography Ralf Habel, Michael Kudenov, Michael Wimmer, EUROGRAPHICS 2012」
 (2)非特許文献2 「A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005」
 (3)非特許文献3 「Lenslet Array Tunable Snapshot Imaging Spectrometer(LATIS) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017」
 (1)非特許文献1 「Practical Spectral Photography Ralf Habel, Michael Kudenov, Michael Wimmer, EUROGRAPHICS 2012」に記載の分光計測装置は、上述のCTIS方式の光学構成を採用しており、固定された分解能でデータキューブを1回の撮影で取得することを可能とした構成を持つ。
 この非特許文献1の開示構成は、データキューブを1ショットで取得することを可能としているが、空間分解能と波長分解能は固定されている。すなわち、空間分解能や波長分解能を変更したいといった利用場面の変化に応じて光学系全体を取り換える必要がある。
 この課題を解決しようとして、非特許文献2「A Tunable Snapshot Imaging Spectrometer Tebow, Christopher, Degree thesis of doctor of philosophy of the university of Arisona, 2005」や、非特許文献3「Lenslet Array Tunable Snapshot Imaging Spectrometer(LATIS) for Hyperspectral Fluorescence Microscope JASON G. DWIGHT, TOMASZ S. TKACZYK, BIOMEDICAL OPTICS EXPRESS, Vol. 8, No. 3, 1 Mar 2017」に記載の構成が考案された。
 非特許文献2に記載された分光計測装置は、分光素子として、一般的な回折格子の代わりに。光学位相アレイ(Optical Phase Array)を利用することで、格子間隔を電気的に変更することを可能としている。これにより、波長ごとの画像のセンサ面上への投影位置を動的に変更できるようにした。これによって、波長分解能を調整できるようにした構成を持つ。
 しかし、非特許文献2の構成は、波長分解能を調整可能としたものの、空間分解能については調整できないという問題がある。
 また、非特許文献3に記載された分光計測装置は、は、非特許文献1の構成中の対物レンズを複数のレンズからなるレンズアレイで置き換えた構成を持つ。このレンズアレイ構成を利用して、撮影時にコリメートレンズと結像レンズの焦点距離を同時に変更することでセンサ面上での波長ごとの投影像のサイズを調整可能とした。また、レンズアレイを回転することで投影像の間の重畳を避けられる。この構成によって、空間分解能と波長分解能を同時に調整することができるようになった。
 この非特許文献3の構成では、空間分解能と波長分解能を同時に調整することが可能である。しかし、コリメートレンズと結像レンズのフォーカスを同時に調整するため、空間分解能と波長分解能をそれぞれ独立して調整することはできないという問題がある。
  [3.本開示の分光計測装置の構成と処理について]
 本開示の分光計測装置は上記のような問題を解決するものである。すなわち、空間分解能と波長分解能をそれぞれ独立して調整できるようにし、様々な用途に適応した空間分解能と波長分解能での分光計測を実現するものである。
 図11は、本開示の分光計測装置100の構成例を示す図である。
 図11に示すように、本開示の分光計測装置100は、対物レンズ101、スリット(視野絞り)102、コリメートレンズ103、分光素子(回折格子)104、結像レンズ105、センサ(エリアセンサ)106、さらに、空間分解能調整部151、波長分解能調整部152、演算処理部153、記録部154を有する。
 対物レンズ101、スリット(視野絞り)102、コリメートレンズ103、分光素子(回折格子)104、結像レンズ105、センサ(エリアセンサ)1060これらの基本構成は、先に図10を参照して説明したスナップショット方式の分光計測装置と同様の構成である。
 図11に示す分光計測装置100は、計測対象からの光を対物レンズ101で集光し、スリット(視野絞り)102を介して透過した光をコリメートレンズ103で平行光に変換し、さらに、分光素子(回折格子)104を透過させた光を結像レンズ105で波長単位の光に分光してセンサ(エリアセンサ)106面上に投影する構成である。この構成により、計測対象上の異なる点からの異なる波長成分の光がセンサ(エリアセンサ)106面の異なる素子(画素)に記録される。
 ただし、センサ(エリアセンサ)106の各素子(画素)には、計測対象の様々な位置からの様々な波長光が重畳した光が記録される。
 演算処理部153は、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)を取得して、各素子(画素)の出力値に基づいて、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行する。
 すなわち、演算処理部153は、先に図6を参照して説明した計測対象物の空間方向(XY)と、波長方向(λ)の3次元からなるデータキューブを生成して、記録部154に記録する。
 空間分解能調整部151は、分光計測装置100の空間分解能を調整する処理部である。空間分解能調整部151は、対物レンズ101、スリット(視野絞り)102、コリメートレンズ103を制御して分光計測装置100の空間分解能を調整する。
 波長分解能調整部152は、結像レンズ105、センサ(エリアセンサ)106を制御して波長分解能を制御する。
 具体的な制御例については後段で詳細に説明する。
 図11に示す本開示の分光計測装置100は、先に図10を参照して説明した構成と同様、スナップショット方式による分光計測を行うものであり、1回の撮影で、図6を参照して説明したデータキューブ、すなわち、図10(d2)に示すような計測対象物の空間方向(XY)と波長方向(λ)の3次元からなるデータキューブを取得することができる。
 なお、図11に示す本開示の分光計測装置100は、通常の画像と分光された画像を同時に撮影できる構成を有する。本来、空間情報も波長情報も連続量として存在しているが、センサ(エリアセンサ)106には、離散的なデータが記録されるため、センサ(エリアセンサ)106の出力値からは、空間方向も波長方向も離散的な値しか得られない。そこで分解能という概念が発生し、空間方向と波長方向をどこまで細かく記録できるかを表す量として空間分解能、波長分解能がある。
 図12、図13を参照して、空間分解能と波長分解能について説明する。
 まず、図12を参照して空間分解能について説明する。
 一般的に、図12で示したようなレンズとセンサから構成されるカメラの場合、被写体のある領域(D1)がセンサ上のある領域(d)に記録される。
 この構成の場合、空間分解能rsは下式(式4)のように表される。
 rs=D1/d ・・・(式4)
 また、本発開示のスナップショット方式の分光カメラ、すなわち図11に示すように分光素子104として回折格子を有する分光計測装置100では、図13に示すように、回折格子を通過した出射光は波長ごとに異なる出射角度を持ち、センサ面上の異なる位置に記録される。この構成により、分光情報が記録可能になる。
 このような構成において、λ1からλ3の波長範囲の光がセンサ面上でd個分の画素に記録された場合、波長分解能rwは下式(式5)として示される。
 rw=(λ3-λ1)/d ・・・(式5)
 先に説明した通り、本開示の分光計測装置100は、空間分解能と波長分解能をそれぞれ独立に調整可能とした構成を有する。
 図11に示す本開示の分光計測装置100は、コリメートレンズ103を基準に光学的に2つの部分に分割することが可能となる。すなわち、図14に示すように、対物レンズ101とスリット(視野絞り)102とコリメートレンズ103からなる集光部210と、分光素子104と結像レンズ105とセンサ(エリアセンサ)106からなる分光撮影部220に分けられる。
 空間分解能調整部151は、集光部210の対物レンズ101、スリット(視野絞り)102、コリメートレンズ103を制御して分光計測装置100の空間分解能を調整する。一方、波長分解能調整部152は、分光撮影部220の結像レンズ105、センサ(エリアセンサ)106を制御して波長分解能を制御する。
 集光部210と分光撮影部220の間は光学的に平行な光で結ばれているのでお互いに独立であり、機能の干渉が起きない、つまり空間分解能と波長分解能はそれぞれ独立に調整することが可能となる。
 次に、空間分解能調整部151による処理、すなわち、空間分解能調整部151が、集光部210の対物レンズ101、スリット(視野絞り)102、コリメートレンズ103を制御して分光計測装置100の空間分解能を調整する処理の具体例について説明する。
 空間分解能調整部151は、計測対象までの距離(a)(=対物レンズ101から計測対象までの距離)が不変であることを前提に、前述した空間分解能(rs)算出式、すなわち、
 rs=D1/d ・・・(式4)
 上記(式4)に従って、センサ面での投影像の範囲(d)を一定に保ちながら、視野範囲(D)を変更することで空間分解能を独立に調整する。
 一般的なカメラでは、対物レンズの焦点距離(f)を調整すれば、レンズの倍率が変化し、空間分解能を調整することが可能である。
 図11に示す構成を持つ本開示の分光計測装置100において、空間分解能(rs)は下式(式6)で示すことができる。
 rs=D/d(f/(a-f))・・・(式6)
 ただし、
 D:計測対象物の撮影範囲(視野範囲)
 d:センサ面での投影範囲(例えば投影画素数)
 f:対物レンズの焦点距離
 a:計測対象物までの距離(対物レンズ101からの距離)
 である。
 図11に示す構成を持つ本開示の分光計測装置100において、空間分解能調整部151は、まず、例えば、入力部から目的とする空間分解能設定値(rs)を入力する。次に、空間分解能調整部151は、上記(式6)に従って、入力した空間分解能設定値(rs)に設定するための対物レンズ101の焦点距離(f)を算出する。
 しかし、図11に示す構成を持つ本開示の分光計測装置100では、分光素子(回折格子)104への入射光を平行光にする必要がある。
 一般的には計測対象までの距離a(図14に示す距離a)と、対物レンズ101の焦点距離(図14に示すf)に合わせて、コリメートレンズ103の焦点距離(図14に示すf)と、対物レンズ101とコリメートレンズ103間の距離(図14に示すd)を固定している。従って、対物レンズ101の焦点距離fを、一方的に変更するとコリメートレンズ103からの出射光が平行光でなくなる。
 本開示の分光計測装置100の空間分解能調整部151は、コリメートレンズ103からの出射光を平行光に維持するため、図14に示すように、対物レンズ101の焦点距離(f)に併せて、対物レンズ101とコリメートレンズ103間の距離(d)と、コリメートレンズ103の焦点距離(f)を同時に調整する。
 対物レンズ101の焦点距離(f)を調整しても分光撮影部220への入力光を平行光にするために、対物レンズ101とコリメートレンズ103間の距離(d)を以下の式(式7)の算出値とする。また、コリメートレンズ103の焦点距離(f)を、以下の式(式8)の算出値とする。
 d=(a・f)/(a-f) ・・・(式7)
 f=d ・・・(式8)
 本開示の分光計測装置100の空間分解能調整部151は、
 上記(式6)に従って算出される目的の空間分解能設定値(rs)に設定するための対物レンズ101の焦点距離(f)と、
 上記(式7)、(式8)に従って算出される、
 対物レンズ101とコリメートレンズ103間の距離(d)と、
 コリメートレンズ103の焦点距離(f)、
 これらを併せて調整する。
 これによって、集光部210から分光撮影部220への入力光を平行光に維持しながら空間分解能を調整することができる。
 つまり波長分解能に対する影響を発生させることなく、空間分解能を調整することができる。
 次に、波長分解能を独立して調整する方法について説明する。
 図14に示す分光撮影部220における光線の挙動を図15に示す。
 前提条件は、集光部210のコリメートレンズ103から、分光撮影部220の分光素子104への入射光が平行光であることである。分光素子104からの出射光は0次光と各波長に対応した出射角θを持ったn次回折光に分けられる。
 また、図に示すように上方向にX軸を設定し、分光素子104への光線(集光部210からの入力平行光)端部の入射位置xの光が、距離dだけ離れた位置にある焦点距離がfの結像レンズ105上のxに到達し、結像レンズ105を通過後、距離dだけ離れた位置にあるセンサ106上のx'に到達するとする。
 この場合、集光部210からの入力平行光端部の光(分光素子104の入射位置x)の光のセンサ106上の入射位置x'は、以下に示す(式9)によって示される。
 x'=((f-d)/f)・x+dtanθ ・・・(式9)
 ただし、
 x=d・tanθ+x ・・・(式10)
 である。
 なお、上記(式9),(式10)において、
 x:分光素子(回折格子)104への入射光(平行光)端部の入射位置
 θ:分光素子(回折格子)104の回折角、
 f:結像レンズ105の焦点距離、
 d:分光素子(回折格子)104と結像レンズ105の間隔、
 d:結像レンズ105とセンサ106の間隔、
 x:結像レンズ105上の光の位置、
である。
 上記(式9)から理解されるように、分光素子104への光線(集光部210からの入力平行光)端部の光が入射するセンサ106上の位置x'は、以下の各値に依存する値となる。
 x:分光素子(回折格子)104への入射光(平行光)端部の入射位置
 θ:分光素子(回折格子)104の回折角、
 f:結像レンズ105の焦点距離、
 d:分光素子(回折格子)104と結像レンズ105の間隔、
 d:結像レンズ105とセンサ106の間隔、
 これらの各値中、分光素子(回折格子)104の回折角θ、すなわち、波長ごとの分光角度θは分光素子104の仕様によって決められている固定値である。また、分光素子(回折格子)104への入射光の入射位置xは集光部210の構成で決まる位置である。
 ここで結像レンズ105の焦点距離fと、結像レンズ105とセンサ106の間隔dを固定にすれば、分光素子104への光線(集光部210からの入力平行光)端部の光が入射するセンサ106上の位置x'は、分光素子(回折格子)104と結像レンズ105の間隔dのみの関数となる。
 従って、分光素子(回折格子)104と結像レンズ105の間隔dを調整すれば、集光部210からの入力平行光の端部の光が入射するセンサ106上の位置x'を制御することが可能となる。
 集光部210から入力する平行光端部の光が入射するセンサ106上の位置x'を制御することで、先に図12を参照して説明したセンサ106面での分光像の投影範囲(d)を調整することができる。
 センサ106面での分光像の投影範囲(d)は、以下に示すように、先に説明した波長分解能(rw)算出式(式5)の算出パラメータである。
 rw=(λ3-λ1)/d ・・・(式5)
 従って、分光素子(回折格子)104と結像レンズ105の間隔dを調整すれば、集光部210から入力する平行光端部の光が入射するセンサ106上の位置x'を制御可能となり、結果として、波長分解能(rw)を制御することが可能となる。
 本開示の分光計測装置100の波長分解能調整部152は、まず、例えば、入力部から目的とする波長分解能設定値(rw)を入力する。次に、波長分解能調整部152は、上記(式5)に従って、入力した波長分解能設定値(rw)に設定するためのセンサ106面での分光像の投影範囲(d)を算出する。
 次に、算出したセンサ106面の分光像の投影範囲(d)から、投影範囲の端部の位置x'を求める。この算出値x'は、先に説明した集光部210からの入力平行光端部の光(分光素子104の入射位置x)の光のセンサ106上の入射位置x'の算出式(式9)、すなわち、
 x'=((f-d)/f)・x+dtanθ ・・・(式9)
 上記(式9)のx'に相当する。
 ただし、
 x=d・tanθ+x ・・・(式10)
 である。
 次に、上記(式9)、(式10)に算出したx'を代入し、さらに、固定値である、
 x:分光素子(回折格子)104への入射光(平行光)端部の入射位置
 θ:分光素子(回折格子)104の回折角、
 f:結像レンズ105の焦点距離、
 d:結像レンズ105とセンサ106の間隔、
 これらの値を代入し、
 分光素子(回折格子)104と結像レンズ105の間隔(d)を算出する。
 波長分解能調整部152は、この算出パラメータ(d)を調整パラメータとして調整を行う。すなわち分光素子(回折格子)104と結像レンズ105の間隔を算出パラメータ(d)に一致するように調整する。
 このようにして、波長分解能調整部152は、分光計測装置100の波長分解能を調整する。
 なお、結像レンズ105の焦点距離fと、結像レンズ105とセンサ106の間隔dが固定されているので、集光部210から平行光として入ってくる0次光成分の投影倍率は変化せず、センサ106上での投影範囲が変化しない、つまり空間分解能は変化しないことになる。
 このように、本開示の分光計測装置100の波長分解能調整部152は、分光素子(回折格子)104と結像レンズ105の間隔dを制御することで、空間分解能を変化させずに、波長分解能を制御することが可能となる。
  [4.演算処理部におけるデータキューブ復元処理について]
 先に図11を参照して説明したように、センサ(エリアセンサ)106の各素子(画素)には、計測対象の様々な位置からの様々な波長光が重畳した光が記録される。
 演算処理部153は、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)を取得して、各素子(画素)の出力値に基づいて、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行する。
 すなわち、演算処理部153は、先に図6を参照して説明した計測対象物の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成して、記録部154に記録する。
 図16に示すように、スナップショット方式において、計測対象物の空間方向(XY)と、波長方向(λ)の3次元からなるデータキューブの1つのブロックデータ(立方体)C1の値は、センサ106面の複数の画素の受光量から算出される。この画素には、計測対象の様々な位置からの様々な波長光が重畳した光が記録される。従って、演算処理部153は、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)を取得して、各素子(画素)の出力値に基づいて、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行することが必要となる。
 センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)と、データキューブの構成ブロックの各値との関係式は、以下の(式11)によって示される。
 g=H・f+n ・・・(式11)
 上記(式11)において、
 g:センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)によって構成される1×総画素数の画像行列、
 f:データキューブの構成ブロックの各値によって構成される1×データキューブサイズの行列、
 H:投影変換行列、
 n:センサノイズ
 である。
 投影変換行列(H)は、分光計測装置の光学系が決まっていれば事前のキャリブレーションで取得することが可能な行列である。従って、計測処理の開始前に取得することができる。事前に複数の分解能(空間分解能、波長分解能)に対応する投影変換行列(H)を取得しておく。また、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)によって構成される1×総画素数の画像行列(g)は、撮影画像から取得可能な行列である。
 従って、計測処理の実行後において、撮影データ(g)は既知である。この条件の下、以下に示す(式12)の計算を繰り返すことでデータキューブfの復元、すなわち、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元することが可能となる。
Figure JPOXMLDOC01-appb-M000001
 なお、(式12)中のμは制御パラメータで0~1の値域を持ち、反復演算の終息速度を制御する。
 なお、データキューブfを正しく復元するためには光学系(集光部+分光撮影部)と1対1対応しているH行列を使う必要があるため、従来のシステムでは一旦光学系が構成されると2度と変更できないようにしてきた。
 しかし、図11に示す本開示の分光計測装置100は、先に図14を参照して説明したように、空間分解能調整部151と、波長分解能調整部152の各々が、複数の光学パラメータを調整して、空間分解能と、波長分解能を独立に調整可能としている。
 具体的には、空間分解能調整部151は、
 対物レンズ101の焦点距離(f1)、
 対物レンズ101とコリメートレンズ103間の距離(図14に示すd
 コリメートレンズ103の焦点距離(f2)
 これらの光学パラメータを調整して、空間分解能のみを独立に調整することができる。
 また、波長分解能調整部152は、
 分光素子(回折格子)104と結像レンズ105の間隔(図14に示すd
 この光学パラメータを調整して、波長分解能のみを独立に調整することができる。
 なお、本開示の分光計測装置100は、複数の光学パラメータを調整可能にし、空間分解能と波長分解能を独立に調整可能な構成であるので、上記(式12)を用いたデータキューブfの復元を行う際には、光学パラメータ調整後の構成に従った投影変換行列(H)を予め用意して利用することが必要である。
 図17に、本開示の分光計測装置100において、空間分解能調整部151と、波長分解能調整部152が調整する光学パラメータについて説明する図を示す。
 図17には、分光計測装置の構成を規定する以下の9種類のパラメータを示している。
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (3)スリット開口部径p
 (4)コリメートレンズ焦点距離f
 (5)分光素子(回折格子)開口部径g
 (6)分光素子-結像レンズ間距離d
 (7)コリメートレンズ-結像レンズ間距離d21
 (8)結像レンズ焦点距離f
 (9)結像レンズ-センサ間距離d
 これらの9種類のパラメータ中、本開示の分光計測装置100の空間分解能調整部151は、
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (4)コリメートレンズ焦点距離f
 これらの3種類のパラメータを調整する。
 すなわち、本開示の分光計測装置100の空間分解能調整部151は、
 先に説明した空間分解能(rs)算出式、すなわち、
 rs=D/d(f/(a-f))・・・(式6)
 上記(式6)に従って算出される目的の空間分解能設定値(rs)に設定するための対物レンズ101の焦点距離(f)を算出する。さらに、
 分光撮影部220への入力光を平行光にするための条件式である先に説明した(式7)、(式8)、すなわち、
 d=(a・f)/(a-f) ・・・(式7)
 f=d ・・・(式8)
 上記(式7)、(式8)に従って、対物レンズ101とコリメートレンズ103間の距離(d)と、コリメートレンズ103の焦点距離(f)を算出する。
 空間分解能調整部151は、これらの3つの算出値に基づいて、
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (4)コリメートレンズ焦点距離f
 これら3種類のパラメータを調整する。
 一方、波長分解能調整部152は、上記9種類のパラメータ中、
 (6)分光素子-結像レンズ間距離d
 このパラメータを調整する。
 すなわち、本開示の分光計測装置100の波長分解能調整部152は、
 先に説明した波長分解能(rw)算出式、すなわち、
 rw=(λ3-λ1)/d ・・・(式5)
 上記(式5)に従って算出される目的の波長分解能設定値(rw)に設定するためのセンサ106面での分光像の投影範囲(d)を算出する。
 次に、算出したセンサ106面の分光像の投影範囲(d)から、投影範囲の端部の位置x'を求める。この算出値x'は、先に説明した集光部210からの入力平行光端部の光(分光素子104の入射位置x)の光のセンサ106上の入射位置x'の算出式(式9)、すなわち、
 x'=((f-d)/f)・x+dtanθ ・・・(式9)
 上記(式9)のx'に相当する。
 ただし、
 x=d・tanθ+x ・・・(式10)
 である。
 次に、上記(式9)、(式10)に算出したx'を代入し、さらに、固定値である、
 x:分光素子(回折格子)104への入射光(平行光)端部の入射位置
 θ:分光素子(回折格子)104の回折角、
 f:結像レンズ105の焦点距離、
 d:結像レンズ105とセンサ106の間隔、
 これらの値を代入し、
 分光素子(回折格子)104と結像レンズ105の間隔(d)を算出する。
 波長分解能調整部152は、この算出値に基づいて、
 (6)分光素子-結像レンズ間距離d
 このパラメータを調整する。
 なお、図17に示す例では、空間分解能調整部151が、
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (4)コリメートレンズ焦点距離f
 これらの3種類のパラメータを調整し、
 波長分解能調整部152は、
 (6)分光素子-結像レンズ間距離d
 この1種類のパラメータを調整する例を示しているが、空間分解能調整部151や、波長分解能調整部152が、これら以外のパラメータを調整する構成としてもよい。
 例えば、図18に示すように、空間分解能調整部151が、
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (3)スリット開口部径p
 (4)コリメートレンズ焦点距離f
 これらの4種類のパラメータを調整する設定としてもよい。
 これらのパラメータは、いずれも空間分解能を変更することが可能なパラメータである。
 一方、波長分解能調整部152は、
 (1)対物レンズ焦点距離f
 (6)分光素子-結像レンズ間距離d
 (8)結像レンズ焦点距離f
 (9)結像レンズ-センサ間距離d
 これらの4種類のパラメータを調整する設定としてもよい。
 これらのパラメータは、いずれも波長分解能を変更することが可能なパラメータである。
 ただし、最終的には、図19に示すように、集光部210から分光撮影部220への出射光が平行光に維持することが条件となる。
 集光部210から分光撮影部220への出射光を平行光に維持するためには、先に説明した条件式(式7)、(式8)、すなわち、
 d=(a・f)/(a-f) ・・・(式7)
 f=d ・・・(式8)
 上記(式7)、(式8)を満足するように、
 対物レンズ101とコリメートレンズ103間の距離(d)、
 コリメートレンズ103の焦点距離(f)、
 これらのパラメータが設定されればよい。
 すなわち、図18、図19に示すように、空間分解能調整部151が、
 (1)対物レンズ焦点距離f
 (2)対物レンズ-コリメートレンズ間距離d
 (3)スリット開口部径p
 (4)コリメートレンズ焦点距離f
 これらの4種類のパラメータを調整し、
 波長分解能調整部152が、
 (1)対物レンズ焦点距離f
 (6)分光素子-結像レンズ間距離d
 (8)結像レンズ焦点距離f
 (9)結像レンズ-センサ間距離d
 これらのパラメータを調整した場合であっても、最終的に、上記(式7)、(式8)を満足するように、
 対物レンズ101とコリメートレンズ103間の距離(d)、
 コリメートレンズ103の焦点距離(f)、
 これらのパラメータが調整されれば、集光部210から分光撮影部220への出射光を平行光に維持することが可能となる。
 集光部210から分光撮影部220への出射光を平行光に維持する条件を満足するという設定の下であれば、空間分解能調整部151と、波長分解能調整部152は、図18、図19に示すような様々なパラメータの調整が許容される。
  [5.本開示の分光計測装置の実行する処理のシーケンスについて]
 次に、図20に示すフローチャートを参照して、本開示の分光計測装置100の実行する処理のシーケンスについて説明する。
 以下、図20に示すフローチャートの各ステップの処理について説明する。
  (ステップS101)
 まず、ステップS101において、空間分解能の調整処理を実行する。
 この処理は、図11に示す分光計測装置100の空間分解能調整部151が実行する。
 空間分解能調整部151は、先に説明した空間分解能(rs)算出式、すなわち、
 rs=D/d(f/(a-f))・・・(式6)
 上記(式6)に従って算出される目的の空間分解能設定値(rs)に設定するための対物レンズ101の焦点距離(f)を算出する。さらに、
 分光撮影部220への入力光を平行光にするための条件式である先に説明した(式7)、(式8)、すなわち、
 d=(a・f)/(a-f) ・・・(式7)
 f=d ・・・(式8)
 上記(式7)、(式8)に従って、対物レンズ101とコリメートレンズ103間の距離(d)と、コリメートレンズ103の焦点距離(f)を算出する。
 空間分解能調整部151は、これらの3つの算出値に基づいて、
 対物レンズ焦点距離f
 対物レンズ-コリメートレンズ間距離d
 コリメートレンズ焦点距離f
 これら3種類のパラメータを調整する。
  (ステップS102)
 ステップS102の処理は、ステップS101の処理と並列に実行可能な処理である。
 ステップS102では、波長分解能の調整処理を実行する。
 この処理は、図11に示す分光計測装置100の波長分解能調整部152が実行する。
 波長分解能調整部152は、先に説明した波長分解能(rw)算出式、すなわち、
 rw=(λ3-λ1)/d ・・・(式5)
 上記(式5)に従って算出される目的の波長分解能設定値(rw)に設定するためのセンサ106面での分光像の投影範囲(d)を算出する。
 次に、算出したセンサ106面の分光像の投影範囲(d)から、投影範囲の端部の位置x'を求める。この算出値x'は、先に説明した集光部210からの入力平行光端部の光(分光素子104の入射位置x)の光のセンサ106上の入射位置x'の算出式(式9)、すなわち、
 x'=((f-d)/f)・x+dtanθ ・・・(式9)
 上記(式9)のx'に相当する。
 ただし、
 x=d・tanθ+x ・・・(式10)
 である。
 次に、上記(式9)、(式10)に算出したx'を代入し、さらに、固定値である、
 x:分光素子(回折格子)104への入射光(平行光)端部の入射位置
 θ:分光素子(回折格子)104の回折角、
 f:結像レンズ105の焦点距離、
 d:結像レンズ105とセンサ106の間隔、
 これらの値を代入し、
 分光素子(回折格子)104と結像レンズ105の間隔(d)を算出する。
 波長分解能調整部152は、この算出値に基づいて、
 分光素子-結像レンズ間距離d
 このパラメータを調整する。
 なお、ステップS101の空間分解能調整処理、およびステップS102の波長分解能調整処理ステップでは、図18、図19を参照して説明したように、集光部210から分光撮影部220への出射光を平行光に維持する条件を満足するという設定の下であれば、空間分解能調整部151と、波長分解能調整部152は、図18、図19に示すような様々なパラメータの調整が許容される。
  (ステップS103)
 次に、ステップS103において、計測対象を撮影する。
 この処理は、図11に示す分光計測装置100による画像撮影処理である。
  (ステップS104)
 次に、ステップS104において、画素値読出し処理を実行する。
 この処理は、図11に示す分光計測装置100のセンサ106の各画素の画素値を演算処理部153に出力する処理である。
  (ステップS105)
 次に、ステップS105において、復元処理を実行する。
 この処理は、図11に示す分光計測装置100の演算処理部153が実行する処理である。
 演算処理部153は、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)を取得して、各素子(画素)の出力値に基づいて、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行する。
 すなわち、演算処理部153は、先に図6を参照して説明した計測対象物の空間方向(XY)と、波長方向(λ)の3次元からなるデータキューブを生成する。
 センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)と、データキューブの構成ブロックの各値との関係式は、先に説明した以下の(式11)によって示される。
 g=H・f+n ・・・(式11)
 上記(式11)において、
 g:センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)によって構成される1×総画素数の画像行列、
 f:データキューブの構成ブロックの各値によって構成される1×データキューブサイズの行列、
 H:投影変換行列、
 n:センサノイズ
 である。
 投影変換行列(H)は、分光計測装置の光学系が決まっていれば事前のキャリブレーションで取得することが可能な行列である。従って、計測処理の開始前に取得することができる。また、センサ(エリアセンサ)106の各素子(画素)の出力値(画素値)によって構成される1×総画素数の画像行列(g)は、撮影画像から取得可能な行列である。
 撮影データ(g)と投影変換行列(H)、ノイズ(n)は既知であり、演算処理部153は、先に説明した(式12)の計算を繰り返すことでデータキューブfの復元、すなわち、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する。
  (ステップS106)
 最後に、演算処理部153は、ステップS106において、撮影された計測対象物の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを記録部154に記録する。
 以上、説明したように、本開示の分光計測装置100は、ステップS101、ステップS102において、独立して空間分解能の調整と、波長分解能の調整を行い、所望の空間分解能と波長分解能を設定して計測対象物の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成して記録することが可能となる。
  [6.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 分光計測装置の空間分解能を調整する空間分解能調整部と、
 前記分光計測装置の波長分解能を調整する波長分解能調整部を有し、
 前記空間分解能調整部は、
 前記分光計測装置の波長分解能を変更することなく空間分解能を変更する分光計測装置。
 (2) 前記波長分解能調整部は、
 前記分光計測装置の空間分解能を変更することなく波長分解能を変更する(1)に記載の分光計測装置。
 (3) 前記空間分解能調整部は、
 前記分光計測装置の集光部から分光撮影部に対する出力光を平行光に維持するという条件を満たすように空間分解能を変更する(1)または(2)に記載の分光計測装置。
 (4) 前記空間分解能調整部は、
 前記分光計測装置の集光部の構成要素のパラメータを調整して空間分解能を変更する(1)~(3)いずれかに記載の分光計測装置。
 (5) 前記空間分解能調整部は、
 前記分光計測装置の集光部の構成要素のパラメータである、
 (a)対物レンズ焦点距離と、
 (b)対物レンズ-コリメートレンズ間距離と、
 (c)コリメートレンズ焦点距離、
 上記(a)~(c)の少なくともいずれかのパラメータを調整して空間分解能を変更する(1)~(4)いずれかに記載の分光計測装置。
 (6) 前記波長分解能調整部は、
 前記分光計測装置の分光撮影部の構成要素のパラメータを調整して波長分解能を変更する(1)~(5)いずれかに記載の分光計測装置。
 (7) 前記波長分解能調整部は、
 前記分光計測装置の分光撮影部の構成要素のパラメータである、
 分光素子-結像レンズ間距離、
 を調整して波長分解能を変更する(1)~(6)いずれかに記載の分光計測装置。
 (8) 前記分光計測装置は、さらに、
 前記分光計測装置のセンサの受光信号値を入力して演算処理を実行する演算処理部を有し、
 前記演算処理部は、
 前記センサの各画素の画素値を取得して、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行する(1)~(7)いずれかに記載の分光計測装置。
 (9) 前記演算処理部は、
 前記計測対象の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成する(8)に記載の分光計測装置。
 (10) 分光計測装置において実行する分光計測方法であり、
 空間分解能調整部が、前記分光計測装置の空間分解能を調整する空間分解能調整ステップと、
 波長分解能調整部が、前記分光計測装置の波長分解能を調整する波長分解能調整ステップと、
 計測対象の出力光を前記分光計測装置の集光部と分光部を介してセンサに受光させる画像撮影ステップと、
 演算処理部が、前記センサの画素値に基づいて、前記計測対象の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成するデータキューブ生成ステップを有し、
 前記空間分解能調整部による前記空間分解能調整ステップは、
 前記分光計測装置の波長分解能を変更することなく空間分解能を変更するステップである分光計測方法。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、分光計測装置の空間分解能と波長分解能を独立に調整可能とした構成が実現される。
 具体的には、例えば、分光計測装置の空間分解能を調整する空間分解能調整部と、分光計測装置の波長分解能を調整する波長分解能調整部を有し、空間分解能調整部は、分光計測装置の集光部から分光撮影部に対する出力光を平行光に維持し、集光部の構成要素のパラメータを調整して、分光計測装置の波長分解能を変更することなく空間分解能を変更する。波長分解能調整部は、分光計測装置の分光撮影部のパラメータを調整して、分光計測装置の空間分解能を変更することなく波長分解能を変更する。
 本構成により、分光計測装置の空間分解能と波長分解能を独立に調整可能とした構成が実現される。
 100 分光計測装置
 101 対物レンズ
 102 スリット(視野絞り)
 103 コリメートレンズ
 104 分光素子(回折格子)
 105 結像レンズ
 106 センサ(エリアセンサ)
 151 空間分解能調整部
 152 波長分解能調整部
 153 演算処理部
 154 記録部
 210 集光部
 220 分光撮影部

Claims (10)

  1.  分光計測装置の空間分解能を調整する空間分解能調整部と、
     前記分光計測装置の波長分解能を調整する波長分解能調整部を有し、
     前記空間分解能調整部は、
     前記分光計測装置の波長分解能を変更することなく空間分解能を変更する分光計測装置。
  2.  前記波長分解能調整部は、
     前記分光計測装置の空間分解能を変更することなく波長分解能を変更する請求項1に記載の分光計測装置。
  3.  前記空間分解能調整部は、
     前記分光計測装置の集光部から分光撮影部に対する出力光を平行光に維持するという条件を満たすように空間分解能を変更する請求項1に記載の分光計測装置。
  4.  前記空間分解能調整部は、
     前記分光計測装置の集光部の構成要素のパラメータを調整して空間分解能を変更する請求項1に記載の分光計測装置。
  5.  前記空間分解能調整部は、
     前記分光計測装置の集光部の構成要素のパラメータである、
     (a)対物レンズ焦点距離と、
     (b)対物レンズ-コリメートレンズ間距離と、
     (c)コリメートレンズ焦点距離、
     上記(a)~(c)の少なくともいずれかのパラメータを調整して空間分解能を変更する請求項1に記載の分光計測装置。
  6.  前記波長分解能調整部は、
     前記分光計測装置の分光撮影部の構成要素のパラメータを調整して波長分解能を変更する請求項1に記載の分光計測装置。
  7.  前記波長分解能調整部は、
     前記分光計測装置の分光撮影部の構成要素のパラメータである、
     分光素子-結像レンズ間距離、
     を調整して波長分解能を変更する請求項1に記載の分光計測装置。
  8.  前記分光計測装置は、さらに、
     前記分光計測装置のセンサの受光信号値を入力して演算処理を実行する演算処理部を有し、
     前記演算処理部は、
     前記センサの各画素の画素値を取得して、計測対象の位置(x,y)と各位置対応の波長光(λ:スベクトル情報)を復元する演算処理を実行する請求項1に記載の分光計測装置。
  9.  前記演算処理部は、
     前記計測対象の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成する請求項8に記載の分光計測装置。
  10.  分光計測装置において実行する分光計測方法であり、
     空間分解能調整部が、前記分光計測装置の空間分解能を調整する空間分解能調整ステップと、
     波長分解能調整部が、前記分光計測装置の波長分解能を調整する波長分解能調整ステップと、
     計測対象の出力光を前記分光計測装置の集光部と分光部を介してセンサに受光させる画像撮影ステップと、
     演算処理部が、前記センサの画素値に基づいて、前記計測対象の空間方向(XY)と、波長方向(λ)の3次元データからなるデータキューブを生成するデータキューブ生成ステップを有し、
     前記空間分解能調整部による前記空間分解能調整ステップは、
     前記分光計測装置の波長分解能を変更することなく空間分解能を変更するステップである分光計測方法。
PCT/JP2019/017313 2018-05-11 2019-04-23 分光計測装置、および分光計測方法 WO2019216213A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020518244A JP7355008B2 (ja) 2018-05-11 2019-04-23 分光計測装置、および分光計測方法
CN201980030327.4A CN112105898A (zh) 2018-05-11 2019-04-23 分光测量装置和分光测量方法
US17/052,362 US11199448B2 (en) 2018-05-11 2019-04-23 Spectroscopic measurement device and spectroscopic measurement method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018092593 2018-05-11
JP2018-092593 2018-05-11

Publications (1)

Publication Number Publication Date
WO2019216213A1 true WO2019216213A1 (ja) 2019-11-14

Family

ID=68468281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017313 WO2019216213A1 (ja) 2018-05-11 2019-04-23 分光計測装置、および分光計測方法

Country Status (4)

Country Link
US (1) US11199448B2 (ja)
JP (1) JP7355008B2 (ja)
CN (1) CN112105898A (ja)
WO (1) WO2019216213A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157398A1 (ja) * 2020-02-03 2021-08-12 ソニーグループ株式会社 変調器、撮像装置及び設計方法
WO2022196351A1 (ja) * 2021-03-15 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002532726A (ja) * 1998-12-14 2002-10-02 センサー・テクノロジーズ・エル・エル・シー 光電子工学的像拡大システム
JP2010502958A (ja) * 2006-08-28 2010-01-28 サーモ エレクトロン サイエンティフィック インストルメンツ リミテッド ライアビリティ カンパニー 空間分解能制御を備えた分光器
JP2010276552A (ja) * 2009-05-29 2010-12-09 Toyota Motor Corp スペクトル測定装置
US20160202178A1 (en) * 2015-01-12 2016-07-14 Verily Life Sciences Llc High-Throughput Hyperspectral Imaging With Superior Resolution And Optical Sectioning

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2630229B2 (ja) * 1993-11-04 1997-07-16 日本電気株式会社 分光計
US6907390B1 (en) 1998-12-14 2005-06-14 Smiths Detection Inc. Miniaturized opto-electronic magnifying system
CN1110698C (zh) * 2000-07-07 2003-06-04 清华大学 基于达曼光栅的并行共焦检测装置
CN2651731Y (zh) * 2003-11-13 2004-10-27 中国科学院西安光学精密机械研究所 旋转光栅层析成像光谱仪
CN1563947A (zh) * 2004-03-18 2005-01-12 中国科学院上海技术物理研究所 显微高光谱成像***
CN100451614C (zh) * 2004-12-28 2009-01-14 财团法人工业技术研究院 光谱影像测量装置
US20060202177A1 (en) 2005-03-11 2006-09-14 Taiwan Textile Research Institute Flame retardant composition
WO2008072709A1 (ja) * 2006-12-14 2008-06-19 Panasonic Corporation 回折光学素子の光学特性測定方法および回折光学素子の光学特性測定装置
WO2010101629A1 (en) * 2009-03-01 2010-09-10 Tau Science Corporation High speed quantum efficiency measurement apparatus utilizing solid state lightsource
CN202182974U (zh) * 2011-06-24 2012-04-04 南京英田光学工程有限公司 易于与激光-光纤组耦合、束散角可调激光发射光学***
CN102288391B (zh) * 2011-07-22 2013-03-27 苏州大学 一种用于光学传递函数测量的光谱目标发生器
CN103134587A (zh) * 2013-01-29 2013-06-05 北京理工大学 一种基于体全息光栅组件分光的光谱分光成像***光路
CN103134757A (zh) * 2013-02-01 2013-06-05 浙江大学 一种基于双目异质机器视觉的检测***及其检测方法
CN103148942B (zh) * 2013-03-11 2014-09-17 南京理工大学 基于反卷积的双光路光谱测量装置
CN103576430A (zh) * 2013-11-20 2014-02-12 苏州大学 一种光谱图像投影方法及其装置
CN103808410B (zh) * 2014-02-21 2016-02-24 清华大学 对偶编码压缩高光谱成像的装置
JP2016090290A (ja) * 2014-10-31 2016-05-23 パナソニックIpマネジメント株式会社 撮像装置、分光システム、および分光方法
CN104359553B (zh) * 2014-12-05 2016-09-28 中国科学院光电研究院 一种紧凑型光栅色散光谱成像仪
US10386300B2 (en) * 2015-12-21 2019-08-20 Verily Life Sciences Llc Spectrally and spatially multiplexed fluorescent probes for in situ cell labeling
JP6353145B2 (ja) * 2016-09-15 2018-07-04 ハイパーメツド・イメージング・インコーポレイテツド 組織酸素付与測定システム及び方法
CN107238005B (zh) * 2017-06-12 2019-01-22 中国科学院西安光学精密机械研究所 光谱分布与亮度可任意调谐的光源及光源调谐方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002532726A (ja) * 1998-12-14 2002-10-02 センサー・テクノロジーズ・エル・エル・シー 光電子工学的像拡大システム
JP2010502958A (ja) * 2006-08-28 2010-01-28 サーモ エレクトロン サイエンティフィック インストルメンツ リミテッド ライアビリティ カンパニー 空間分解能制御を備えた分光器
JP2010276552A (ja) * 2009-05-29 2010-12-09 Toyota Motor Corp スペクトル測定装置
US20160202178A1 (en) * 2015-01-12 2016-07-14 Verily Life Sciences Llc High-Throughput Hyperspectral Imaging With Superior Resolution And Optical Sectioning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HABEL, R. ET AL.: "Practical Spectral Photography", EUROGRAPHICS 2012/P. CIGNONI, T. ERTL, vol. 31, no. 2, 2012, pages 449 - 458, XP055651217 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157398A1 (ja) * 2020-02-03 2021-08-12 ソニーグループ株式会社 変調器、撮像装置及び設計方法
WO2022196351A1 (ja) * 2021-03-15 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2019216213A1 (ja) 2021-05-20
US20210055160A1 (en) 2021-02-25
US11199448B2 (en) 2021-12-14
CN112105898A (zh) 2020-12-18
JP7355008B2 (ja) 2023-10-03

Similar Documents

Publication Publication Date Title
JP6952277B2 (ja) 撮像装置および分光システム
US8351031B2 (en) Single-shot spectral imager
US7894058B2 (en) Single-lens computed tomography imaging spectrometer and method of capturing spatial and spectral information
JP2008545974A (ja) オーバーラップした画像を用いる光学分光法
WO2017017684A1 (en) Spectral imaging method and system
US9343491B2 (en) Spectral imaging sensors and methods
WO2016071909A1 (en) Spectral imaging method and system
JP5424108B2 (ja) ラマンイメージング装置
WO2019216213A1 (ja) 分光計測装置、および分光計測方法
JP2020529602A (ja) 符号化開口スペクトル画像解析装置
JP2016090291A (ja) 撮像装置、分光システム、および分光方法
Kim et al. Aperture-encoded snapshot hyperspectral imaging with a lensless camera
US11092489B2 (en) Wide-angle computational imaging spectroscopy method and apparatus
US11012643B2 (en) System and method for spectral imaging
WO2020241334A1 (ja) 回折素子及び撮像装置
JP6941124B2 (ja) フーリエ変換マルチチャンネルスペクトルイメージャ
US20220341781A1 (en) Optical device and method
McMackin et al. Design of a multi-spectral imager built using the compressive sensing single-pixel camera architecture
Dittrich et al. Extended characterization of multispectral resolving filter-on-chip snapshot-mosaic CMOS cameras
Zhang et al. Optical design and laboratory test of an internal pushbroom hyperspectral microscopy
WO2022185720A1 (ja) 撮像装置、および撮像装置の作動方法、並びにプログラム
WO2022196351A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019163990A (ja) 分光装置、ハイパースペクトル測定システム、及び、分光方法
JP4297830B2 (ja) 撮像装置およびその使用方法
KR101915883B1 (ko) 만화경을 이용한 초분광 영상 관측 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19799517

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020518244

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19799517

Country of ref document: EP

Kind code of ref document: A1