WO2018083848A1 - 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム - Google Patents

画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム Download PDF

Info

Publication number
WO2018083848A1
WO2018083848A1 PCT/JP2017/027684 JP2017027684W WO2018083848A1 WO 2018083848 A1 WO2018083848 A1 WO 2018083848A1 JP 2017027684 W JP2017027684 W JP 2017027684W WO 2018083848 A1 WO2018083848 A1 WO 2018083848A1
Authority
WO
WIPO (PCT)
Prior art keywords
infrared
far
markers
image
marker
Prior art date
Application number
PCT/JP2017/027684
Other languages
English (en)
French (fr)
Inventor
小柳津 秀紀
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018548557A priority Critical patent/JP6930545B2/ja
Priority to US16/331,592 priority patent/US10891756B2/en
Publication of WO2018083848A1 publication Critical patent/WO2018083848A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Definitions

  • the present disclosure relates to an image processing apparatus, a calibration chart, and a calibration system.
  • far-infrared images captured by a far-infrared camera have been used for night vision and the like.
  • a far-infrared image is produced
  • By using such a far-infrared image it is possible to detect the subject even under poor conditions such as at night or in bad weather.
  • Such a far-infrared camera needs to be calibrated in order to obtain a desired image like other cameras such as a visible light camera.
  • Camera calibration can be realized by using a calibration chart in which a plurality of markers are arranged. Specifically, an image showing a chart is captured by a camera, and calibration of the camera is executed using the image.
  • Patent Document 1 discloses a technique for realizing calibration of a far-infrared camera by using a chart in which objects having different emissivities are alternately arranged in a grid pattern. In the chart according to the document, for example, each of the objects can correspond to the marker.
  • the calibration of the far-infrared camera is executed based on the position of each marker in the far-infrared image showing the chart.
  • the calibration of the far-infrared camera is executed based on the position of each marker in the far-infrared image showing the chart.
  • the present disclosure proposes a new and improved image processing apparatus, calibration chart, and calibration system that can improve the calibration accuracy of the far-infrared camera.
  • a far infrared acquisition unit that acquires a far infrared image
  • a first extraction unit that extracts a plurality of first markers having a first temperature from the far infrared image
  • the plurality of firsts
  • An image processing apparatus comprising: a far-infrared specifying unit that specifies a position of each of the plurality of second markers having the second temperature in the far-infrared image based on a geometric relationship between each of the markers.
  • the plurality of first markers having the first temperature
  • the plurality of second markers having the second temperature
  • the third temperature the plurality of first markers
  • the plurality of first markers A base on which two markers are disposed, and a relative position in real space of each of the plurality of second markers with respect to the plurality of first markers is a geometry between each of the plurality of first markers.
  • a calibration chart is provided, which can be determined based on the scientific relationship.
  • the plurality of first markers having the first temperature
  • the plurality of second markers having the second temperature
  • the third temperature the plurality of first markers
  • the plurality of first markers Calibration of a far-infrared camera that captures the far-infrared image using a calibration chart comprising a base on which two markers are arranged, and a far-infrared image showing the calibration chart A relative position in real space of each of the plurality of second markers with respect to the plurality of first markers, the geometric relationship between each of the plurality of first markers.
  • the image processing apparatus can determine the far-infrared image, a first infrared extraction unit that extracts the plurality of first markers from the far-infrared image, The plurality of first markers A far-infrared specifying unit that specifies a position of each of the plurality of second markers in the far-infrared image based on a geometric relationship between each of the plurality of second markers, and the far-red of each of the plurality of second markers.
  • a calibration system comprising: a far-infrared calibration unit that performs calibration of the far-infrared camera based on a position in an outside image.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus according to the embodiment.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the embodiment.
  • FIG. 6 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus according to the embodiment.
  • 5 is a flowchart illustrating an example of a flow of a position specifying process performed by the image processing apparatus according to the embodiment.
  • It is a block diagram which shows an example of the hardware constitutions of the image processing apparatus which concerns on a 1st application example.
  • It is a block diagram which shows an example of a function structure of the image processing apparatus which concerns on a 1st application example.
  • 12 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus according to the first application example.
  • FIG. 1 is an explanatory diagram for explaining various uses of infrared images depending on wavelengths.
  • the horizontal direction in FIG. 1 corresponds to the wavelength of infrared rays, and the wavelength increases from left to right.
  • Light having a wavelength of 0.7 ⁇ m or less is visible light, and human vision senses this visible light.
  • the wavelength region adjacent to the visible light region is a near infrared (NIR) region, and infrared rays belonging to the NIR region are referred to as near infrared rays.
  • NIR near infrared
  • the upper limit of the wavelength in the NIR region varies depending on the definition, it is often assumed to be between 2.5 ⁇ m and 4.0 ⁇ m.
  • the relatively long wavelength portion of the NIR region is sometimes called the short wavelength infrared (SWIR) region.
  • Near-infrared light can be used, for example, for night vision, fluoroscopy, optical communication, and ranging.
  • a camera that captures a near-infrared image usually irradiates infrared rays in the vicinity and captures the reflected light.
  • a wavelength region adjacent to the NIR region on the long wavelength side is a far infrared (FIR) region, and infrared rays belonging to the FIR region are called far infrared rays.
  • a portion having a relatively short wavelength in the FIR region may be referred to as a mid-wavelength infrared (MWIR) region.
  • MWIR mid-wavelength infrared
  • the medium wavelength infrared can be used for identification of the substance.
  • Far infrared can be utilized for night vision, thermography, and heating. Infrared rays emitted by black body radiation from an object correspond to far infrared rays. Therefore, a night vision apparatus using far infrared rays can generate a far infrared image by capturing blackbody radiation from an object without irradiating infrared rays.
  • the boundary values of the wavelength range shown in FIG. 1 are merely examples. Various definitions exist for the boundary value of the infrared classification, and the advantages described below of the technology according to the present disclosure can be enjoyed under any definition.
  • the far-infrared image generated by receiving the far-infrared light has a plurality of objects reflected in the far-infrared image.
  • a temperature difference can be detected.
  • each marker arranged on the chart different from each other, even if some markers are not shown in the far-infrared image showing the chart, It is conceivable to obtain the correspondence relationship by identifying the shape of each marker. However, it may be difficult to identify the shape of each marker because the resolution of the far-infrared image is lower than that of the visible light image.
  • this specification proposes a mechanism that can improve the calibration accuracy of the far-infrared camera.
  • FIG. 2 is a schematic diagram illustrating an example of a schematic configuration of the calibration system 10 according to the present embodiment.
  • the calibration system 10 includes, for example, an image processing apparatus 1 and a chart 9 as shown in FIG.
  • a far-infrared image showing the chart 9 is captured by the far-infrared camera 102, and the image processing apparatus 1 performs calibration of the far-infrared camera 102 using the far-infrared image.
  • the far-infrared camera 102 is included in the image processing apparatus 1 will be described, but the far-infrared camera 102 may not be included in the image processing apparatus 1.
  • the image processing apparatus 1 is realized by an apparatus separate from the far-infrared camera 102.
  • FIG. 3 is a front view showing an example of the chart 9 according to the present embodiment.
  • FIG. 4 is a schematic cross-sectional view showing an example of the chart 9 according to this embodiment. Specifically, FIG. 4 is a schematic cross-sectional view taken along the line AA passing through the first marker 910 and the second marker 920 shown in FIG. 5 and 6 are front views showing another example of the chart 9 according to the present embodiment.
  • Chart 9 corresponds to the calibration chart according to the present disclosure.
  • the chart 9 includes a plurality of first markers 910, a plurality of second markers 920, and a base 930.
  • the first marker 910 and the second marker 920 are also simply referred to as markers unless otherwise distinguished.
  • an alphabet is added to the end of a code
  • an alphabet is given to the end of a code
  • the first marker 910 has a first temperature. As shown in FIG. 3, the first marker 910 is disposed on the base 930. In FIG. 3, the 1st marker 910 is shown by the part to which the substantially circular hatching was attached
  • the shape of the first marker 910 is not particularly limited, and may be a shape such as a substantially circular shape, a substantially oval shape, or a substantially polygonal shape.
  • the second marker 920 has a second temperature.
  • the second marker 920 is disposed on the base 930 as shown in FIG. In FIG. 3, the 2nd marker 920 is shown by the part which is not attached
  • the shape of the second marker 920 is not particularly limited, and may be a shape such as a substantially circular shape, a substantially oval shape, or a substantially polygonal shape.
  • the first marker 910 and the second marker 920 are disposed with a space therebetween.
  • the first marker 910 and the second marker 920 are arranged in a grid, for example. Specifically, as shown in FIG. 3, six and ten first markers 910 and two second markers 920 may be arranged in directions orthogonal to each other, and a total of 60 may be provided.
  • the second marker 920 may be disposed outside the first marker 910 so as to surround the first marker 910.
  • the first marker 910 may be arranged in a rectangular shape. For example, two first markers 910 may be provided in a direction orthogonal to each other, and a total of four first markers 910 may be provided, and a total of 56 second markers 920 may be provided.
  • the base 930 has a third temperature.
  • the first marker 910 and the second marker 920 are disposed on the base 930 as described above.
  • the base 930 may have a substantially rectangular shape.
  • the shape of the base 930 is not particularly limited, and may be a shape such as a substantially circular shape, a substantially oval shape, or a substantially polygonal shape.
  • the base 930 has, for example, a flat plate shape.
  • the first marker 910, the second marker 920, and the base 930 have different temperatures.
  • each area where the first marker 910 and the second marker 920 are reflected can be extracted separately from the other areas.
  • the temperature difference between the first marker 910, the second marker 920, and the base 930 is realized by the temperature adjustment mechanism H9 that can adjust the temperatures of the first marker 910, the second marker 920, and the base 930.
  • the temperature adjustment mechanism H9 includes, for example, a battery 950, a first resistor 941, and a second resistor 942, as shown in FIG. Specifically, the first resistor 941 and the second resistor 942 are connected to the battery 950 in parallel with each other. The first resistor 941 and the second resistor 942 are provided in close proximity to the first marker 910 and the second marker 920, respectively. The first resistor 941 and the second resistor 942 generate heat using resistance heating when power is supplied from the battery 950. Thereby, the first marker 910 and the second marker 920 located in the vicinity of the first resistor 941 and the second resistor 942 are heated.
  • the resistance of the first resistor 941 is lower than that of the second resistor 942.
  • the voltages applied to the first resistor 941 and the second resistor 942 are substantially the same, the lower the resistance of the resistor connected to the battery 950, the greater the amount of heat generated by the resistor. Therefore, the amount of heat generated by the first resistor 941 is larger than that of the second resistor 942. Therefore, the first temperature that is the temperature of the first marker 910 is higher than the second temperature that is the temperature of the second marker 920.
  • the third temperature which is the temperature of the base 930, is lower than the first temperature and the second temperature.
  • the temperature adjustment mechanism H9 is not limited to the above-described example as long as the temperatures of the first marker 910, the second marker 920, and the base 930 can be adjusted.
  • the temperature adjustment mechanism H9 is configured so that the detected values of the temperatures of the first marker 910, the second marker 920, and the base 930 approach the first temperature, the second temperature, and the third temperature as target temperatures. May be adjustable.
  • the relative positions of the plurality of second markers 920 in the real space with respect to the plurality of first markers 910 are in geometric relations between the plurality of first markers 910. Can be determined based on.
  • the geometric relationship is a relative positional relationship between each of the plurality of first markers 910.
  • Position can be determined.
  • the base 930 three or more first markers 910 are arranged.
  • vectors indicating relative positions of each of the other first markers 910 with respect to a certain first marker 910 can be linearly independent from each other. Therefore, the position on the plane in which each marker is included can be expressed by the above-described pair of vectors that are linearly independent from each other. Therefore, the relative position in real space of each of the plurality of second markers 920 with respect to the plurality of first markers 910 can be expressed by a pair of vectors that are linearly independent from each other. Thereby, the relative position in real space of each of the plurality of second markers 920 with respect to the plurality of first markers 910 is accurately determined based on the geometric relationship between each of the plurality of first markers 910. be able to.
  • first marker 910 and the second marker 920 in the chart 9 are not limited to the example illustrated in FIG.
  • FIG. 5 shows a chart 9a according to another example different from the example shown in FIG.
  • the first marker 910 and the second marker 920 are arranged in a lattice pattern. Specifically, seven and eleven first markers 910 and second markers 920 are arranged in directions orthogonal to each other, for a total of 77.
  • the second marker 920 is disposed outside the first marker 910 so as to surround the first marker 910.
  • the first marker 910 may be arranged in a cross shape as shown in FIG. For example, three first markers 910 may be arranged in a direction orthogonal to each other, and a total of five first markers 910 may be provided, and a total of 72 second markers 920 may be provided.
  • the first marker 910 and the second marker 920 are arranged in a lattice pattern. Specifically, seven and eleven first markers 910 and second markers 920 are arranged in directions orthogonal to each other, for a total of 77.
  • the second marker 920 is disposed outside the first marker 910 so as to surround the first marker 910.
  • the first marker 910 may be arranged in an L shape as shown in FIG. For example, two first markers 910 may be provided in a direction orthogonal to each other, and a total of three first markers 910 may be provided, and a total of 74 second markers 920 may be provided.
  • first marker 910, the second marker 920, and the base 930 may have different spectral reflection characteristics in the visible light region.
  • each area where the first marker 910 and the second marker 920 appear in the visible light image showing the chart 9 obtained by imaging with the visible light camera is extracted separately from the other areas. Can do. Therefore, by using the visible light camera, calibration between the far infrared camera 102 and the visible light camera can be performed using the same chart 9. Such calibration between the far-infrared camera 102 and the visible light camera will be described in detail in a first application example to be described later.
  • the first marker 910, the second marker 920, and the base 930 may have different spectral reflection characteristics in the near infrared region.
  • each area where the first marker 910 and the second marker 920 are reflected is extracted separately from the other areas. can do. Therefore, by using the near infrared camera, calibration between the far infrared camera 102 and the near infrared camera can be performed using the same chart 9. Such calibration between the far-infrared camera 102 and the near-infrared camera will be described in detail in a second application example to be described later.
  • the image processing apparatus 1 performs calibration of the far-infrared camera 102 using the far-infrared image on which the chart 9 is projected as described above. Specifically, the image processing apparatus 1 executes calibration of the far infrared camera 102 based on the position of each marker on the chart 9 in the far infrared image. In other words, the image processing apparatus 1 determines the camera parameter of the far infrared camera 102 based on the position of each marker on the chart 9 in the far infrared image. Specifically, the camera parameters include an internal parameter A and an external parameter [R
  • A is an internal parameter, which indicates the focal length, the image center, and the degree of lens distortion.
  • the internal parameter A is represented by the following formula (2), for example.
  • Equation (2) fx and fy are focal lengths expressed in units of pixels, cx and cy are image centers, and s is a skew ratio corresponding to the degree of lens distortion.
  • T] is an external parameter and indicates the posture and position of the camera.
  • T] is expressed by the following equation (3), for example.
  • R is a 3 ⁇ 3 matrix, which is a rotation component that represents the posture of the camera.
  • T is a 3 ⁇ 1 matrix and is a translational component representing the position of the camera.
  • the far-infrared camera 102 performs imaging a plurality of times while changing the posture and position of the chart 9, and based on the position of each marker in each of the obtained far-infrared images.
  • T] is determined. More specifically, for each of a plurality of far-infrared images obtained by imaging a plurality of times, the position of each marker in the far-infrared image is substituted into the two-dimensional coordinates (x, y) in equation (1). By doing so, a plurality of equations can be obtained.
  • the image processing apparatus 1 can determine the internal parameter A or the external parameter [R
  • the position of each marker in the far-infrared image is determined even when some markers are not reflected in the far-infrared image showing the chart 9. Therefore, the calibration accuracy of the far-infrared camera 102 can be improved. Details of such an image processing apparatus 1 will be described later.
  • FIG. 7 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus 1 according to the present embodiment.
  • the image processing apparatus 1 includes a far-infrared camera 102, an input interface 104, a memory 106, a display 108, a communication interface 110, a storage 112, a processor 114, a bus, 116.
  • the far-infrared camera 102 is an imaging module that performs imaging using far-infrared rays and obtains a far-infrared image. Specifically, the far-infrared camera 102 has an array of image sensors that sense far-infrared rays having a wavelength belonging to the FIR region. For example, the far-infrared camera 102 captures far-infrared images at regular time intervals. A series of far-infrared images obtained by the far-infrared camera 102 may constitute a video.
  • the input interface 104 is used for a user to operate the image processing apparatus 1 or input information to the image processing apparatus 1.
  • the input interface 104 may include an input device such as a touch sensor, a keyboard, a keypad, a button, or a switch.
  • the input interface 104 may include a voice input microphone and a voice recognition module.
  • the input interface 104 may also include a remote control module that receives commands selected by the user from a remote device.
  • the memory 106 is a storage medium that may include a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory 106 is connected to the processor 114 and stores programs and data for processing executed by the processor 114.
  • the display 108 is a display module having a screen for displaying an image.
  • the display 108 may be an LCD (Liquid Crystal Display), an OLED (Organic light-Emitting Diode), or a CRT (Cathode Ray Tube).
  • the communication interface 110 is a module that mediates communication between the image processing apparatus 1 and another apparatus.
  • the communication interface 110 establishes a communication connection according to an arbitrary wireless communication protocol or wired communication protocol.
  • the storage 112 is a storage device that stores image data or stores a database used in image processing.
  • the storage 112 contains a storage medium such as a semiconductor memory or a hard disk. Note that the program and data described in this specification may be acquired from a data source external to the image processing apparatus 1 (for example, a data server, a network storage, or an external memory).
  • the processor 114 is a processing module such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the processor 114 operates a function for enabling the calibration accuracy of the far-infrared camera 102 to be improved by executing a program stored in the memory 106 or another storage medium.
  • the bus 116 interconnects the far-infrared camera 102, the input interface 104, the memory 106, the display 108, the communication interface 110, the storage 112, and the processor 114.
  • FIG. 8 is a block diagram illustrating an example of a functional configuration that is realized when the components of the image processing apparatus 1 illustrated in FIG. 7 are linked to each other.
  • the image processing apparatus 1 includes a far infrared acquisition unit 120, a far infrared extraction unit 130, a far infrared identification unit 140, a far infrared calibration unit 150, An infrared storage unit 160.
  • the far-infrared storage unit 160 stores data referred to in each process performed by the image processing apparatus 1. For example, the far-infrared storage unit 160 stores information indicating a threshold value used in the binarization process performed by each of the first extraction unit 131 and the second extraction unit 133. Further, the far-infrared storage unit 160 may store a processing result obtained by each process performed by each functional unit. Each functional unit can acquire a processing result for each processing from the far-infrared storage unit 160. The far infrared storage unit 160 may store a far infrared image captured by the far infrared camera 102. Each functional unit can acquire a far infrared image captured by the far infrared camera 102 from the far infrared storage unit 160.
  • the far infrared acquisition unit 120 acquires a far infrared image. Specifically, the far-infrared acquisition unit 120 acquires a far-infrared image captured by the far-infrared camera 102 and showing the chart 9. In addition, the far infrared acquisition unit 120 outputs the acquired far infrared image to the far infrared extraction unit 130 and the far infrared identification unit 140. For example, the far infrared acquisition unit 120 may acquire a far infrared image directly from the far infrared camera 102. The far infrared acquisition unit 120 may be the far infrared camera 102 itself.
  • the far infrared acquisition unit 120 may acquire a far infrared image stored in the far infrared storage unit 160.
  • the far-infrared image acquired by the far-infrared acquisition unit 120 may be an image that has undergone preliminary processing such as signal amplification and noise removal.
  • FIG. 9 is an explanatory diagram showing an example of a far infrared image acquired by the far infrared acquisition unit 120.
  • a chart 9 is reflected in the far-infrared image.
  • the far-infrared image shows a person 801 and an object 802 as the background of the chart 9.
  • the shades of hatching indicate differences in pixel values. The darker the hatched area is, the lower the pixel value is.
  • the far-infrared extraction unit 130 extracts a region where a specific object is reflected from the far-infrared image acquired by the far-infrared acquisition unit 120, distinguishing it from other regions. Further, the far infrared extracting unit 130 outputs the extraction result to the far infrared specifying unit 140.
  • the far-infrared extraction unit 130 includes a first extraction unit 131 and a second extraction unit 133.
  • the first extraction unit 131 extracts a plurality of first markers 910 having a first temperature from the far-infrared image. Specifically, the first extraction unit 131 extracts a plurality of first markers 910 from the far-infrared image acquired by the far-infrared acquisition unit 120 and outputs the extraction result to the far-infrared specifying unit 140. For example, the first extraction unit 131 extracts a plurality of first markers 910 by performing binarization processing on the far-infrared image. Specifically, the first extraction unit 131 assigns a first pixel value having a relatively low value to a pixel having a pixel value lower than the first threshold value in the far infrared image, and the first threshold value in the far infrared image.
  • a second pixel value having a relatively high value is assigned to the pixels having the above pixel values.
  • the first threshold value is set to a pixel value corresponding to a temperature lower than the first temperature of the first marker 910 and higher than the second temperature of the second marker 920.
  • the second pixel value is assigned to the area where each first marker 910 is reflected, whereby extraction of the plurality of first markers 910 can be realized.
  • FIG. 10 is an explanatory diagram showing an example of a binarized image obtained in the extraction process of the first marker 910.
  • the first extraction unit 131 performs binarization processing on the far-infrared image shown in FIG.
  • the region excluding the region where the first marker 910 appears has a pixel value corresponding to a temperature equal to or lower than the second temperature. Therefore, since each pixel in the region excluding the region where the first marker 910 appears has a pixel value lower than the first threshold, the first extraction unit 131 has a relatively low first pixel for each pixel in the region. Assign a value.
  • the first extraction unit 131 assigns a relatively high second pixel value to each pixel in the area. . Thereby, the extraction of the plurality of first markers 910 is realized, and the binarized image shown in FIG. 10 is output as the extraction result.
  • the second extraction unit 133 extracts a second marker candidate that is a candidate for each of the plurality of second markers 920 from the far-infrared image. Specifically, the second extraction unit 133 extracts the second marker candidate from the far infrared image acquired by the far infrared acquisition unit 120 and outputs the extraction result to the far infrared identification unit 140. For example, the second extraction unit 133 extracts a second marker candidate by performing binarization processing on the far-infrared image. Specifically, the second extraction unit 133 assigns a first pixel value having a relatively low value to a pixel having a pixel value lower than the second threshold value in the far infrared image, and sets the second threshold value in the far infrared image.
  • a second pixel value having a relatively high value is assigned to the pixels having the above pixel values.
  • the second threshold value is set to a pixel value corresponding to a temperature lower than the second temperature of the second marker 920 and higher than the third temperature of the base 930.
  • FIG. 11 is an explanatory diagram showing an example of a binarized image obtained in the extraction process of the second marker candidate 820.
  • the second extraction unit 133 performs binarization processing on the far-infrared image illustrated in FIG.
  • the region excluding the region where the first marker 910, the second marker 920, and the high temperature part 802p of the object 802 are reflected is a pixel corresponding to a temperature equal to or lower than the third temperature. Has a value.
  • each pixel in the region excluding the region where the first marker 910, the second marker 920, and the high-temperature portion 802p of the object 802 are reflected has a pixel value lower than the second threshold value, so the second extraction unit 133 A relatively low first pixel value is assigned to each pixel.
  • the second extraction unit 133 applies each pixel in the region. A second pixel value having a relatively high value is assigned to the second pixel value.
  • the far infrared specifying unit 140 specifies the position of each marker in the far infrared image. Further, the far-infrared specifying unit 140 outputs information indicating the position of each specified marker in the far-infrared image to the far-infrared calibration unit 150. In the present embodiment, the far-infrared specifying unit 140 specifies the position of each of the plurality of second markers 920 in the far-infrared image based on the geometric relationship between each of the plurality of first markers 910. . For example, as illustrated in FIG. 8, the far-infrared specifying unit 140 includes a first generating unit 141, a first estimating unit 143, and a first center specifying unit 145. In addition, the 1st production
  • the first generation unit 141 generates candidate information that is information indicating a candidate for the position of the second marker 920 in the far-infrared image based on the geometric relationship between each of the plurality of first markers 910. In addition, the first generation unit 141 outputs the generated candidate information to the first estimation unit 143.
  • FIG. 12 is an explanatory diagram showing an example of the generated candidate information.
  • the first generation unit 141 generates candidate information using the binarized image illustrated in FIG. 10.
  • generation part 141 may produce
  • the first generation unit 141 generates a straight line in the far-infrared image passing through the first markers 910 adjacent to each other as candidate information.
  • the first marker 910 and the second marker 920 are arranged in a lattice shape.
  • the second marker 920 is located on a straight line passing through the first markers 910 adjacent to each other. Therefore, in the far-infrared image, the second marker 920 can be positioned on the straight line generated by the first generation unit 141.
  • the first generation unit 141 generates, as candidate information, a straight line 811a in a far-infrared image passing through the first markers 910a and 910b adjacent to each other. Moreover, the 1st production
  • generation part 141 produces
  • the straight line 811a and the straight line 811b are parallel to each other in the real space, and the straight line 811c and the straight line 811d are parallel to each other in the real space. Further, the straight line 811a and the straight line 811b and the straight line 812c and the straight line 812d are orthogonal to each other in the real space.
  • the candidate information generated by the first generation unit 141 is not limited to the example illustrated in FIG.
  • the first generation unit 141 may generate, as candidate information, a straight line in a far-infrared image that passes through the first markers 910a and 910d arranged side by side in a diagonal direction.
  • the candidate information may not be a straight line but may be a region having a width.
  • the first estimation unit 143 is configured to generate a second marker candidate 820 extracted by the second extraction unit 133 and each of the plurality of second markers 920 based on a geometric relationship between each of the plurality of first markers 910. Is estimated. In other words, the first estimation unit 143 estimates which second marker 920 the second marker candidate 820 is based on the geometric relationship between each of the plurality of first markers 910. In addition, the first estimation unit 143 outputs information indicating the estimated correspondence relationship to the first center specifying unit 145.
  • the correspondence relationship can be estimated with high accuracy.
  • the position in the far-infrared image of each of the plurality of second markers 920 can be specified with high accuracy.
  • the first estimation unit 143 estimates the correspondence relationship based on the candidate information generated by the first generation unit 141. More specifically, the first estimation unit 143 determines whether each of the second marker candidates 820 corresponds to one of the second markers 920 based on the candidate information. Then, the first estimation unit 143 estimates the correspondence relationship between the second marker candidate 820 determined to correspond to one of the second markers 920 and each of the plurality of second markers 920 based on the candidate information.
  • FIGS. 13 and 14 are explanatory diagrams for explaining the estimation process of the correspondence relationship between the second marker candidate 820 and each of the plurality of second markers 920.
  • the first estimation unit 143 estimates the correspondence relationship using, for example, the binarized image illustrated in FIG.
  • the first estimation unit 143 is positioned on each straight line of the straight lines 811a, 811b, 812a, 812b generated by the first generation unit 141 in the binarized image shown in FIG.
  • the second marker candidate 820 to be determined is one of the second markers 920.
  • the first estimation unit 143 may determine that the second marker candidate 820 corresponding to the first marker 910 extracted by the first extraction unit 131 does not correspond to any of the second markers 920.
  • the first estimation unit 143 determines which of the first markers 910 each of the second marker candidates 820 is based on information indicating the positions and dimensions of the second marker candidates 820 and the first markers 910 in the far-infrared images. It can be determined whether or not it corresponds.
  • the first estimation unit 143 determines, for example, the correspondence between the second marker candidate 820 positioned on each straight line generated by the first generation unit 141 and each of the plurality of second markers 920.
  • the estimation is based on the straight line where the candidate 820 is located and the positional relationship with the plurality of first markers 910 on the straight line.
  • the first estimation unit 143 includes a second marker candidate 820a that is adjacent to the first marker 910b on the straight line 812b and that is adjacent to the first marker 910b on the opposite side to the first marker 910b in the real space.
  • the marker 920 is estimated.
  • the first estimation unit 143 determines that the second marker candidate 820b adjacent to the second marker candidate 820a on the straight line 812b is the first marker for the second marker 920 corresponding to the second marker candidate 820a in the real space. It is estimated that the second marker 920 is adjacent to the opposite side of 910b.
  • the first estimation unit 143 generates, as additional candidate information, a straight line that passes through the second marker candidates 820 adjacent to each other that are determined to correspond to any of the second markers 920, for example.
  • the first marker 910 and the second marker 920 are arranged in a lattice pattern. Therefore, in the real space, another second marker 920 is positioned on a straight line passing through the second markers 920 adjacent to each other. Therefore, the second marker 920 can be positioned on a straight line additionally generated by the first estimation unit 143 in the far-infrared image. For example, as shown in FIG.
  • the first estimation unit 143 uses the second marker candidates 820 on the straight line 812a and the straight lines 811c to 811c passing through the second marker candidates 820 on the straight line 812b adjacent to the second marker candidate 820. 811i is additionally generated. The first estimation unit 143 additionally generates straight lines 812c to 812f passing through the second marker candidate 820 on the straight line 811a and the second marker candidate 820 on the straight line 811b adjacent to the second marker candidate 820.
  • the first estimation unit 143 determines that the second marker candidate 820 located on each additionally generated straight line corresponds to one of the second markers 920, for example. Then, the first estimation unit 143 determines the correspondence relationship between the second marker candidate 820 positioned on each additionally generated straight line and each of the plurality of second markers 920, for example, the second marker candidate 820 is positioned. And a positional relationship with another second marker candidate 820 on the straight line. For example, as shown in FIG. 14, the second marker candidate 820d is positioned on a straight line 811f passing through the second marker candidate 820a adjacent to the first marker 910b and the second marker candidate 820c adjacent to the first marker 910a.
  • the first estimation unit 143 has the second marker candidate 820d opposite to the second marker 920 corresponding to the second marker candidate 820c with respect to the second marker 920 corresponding to the second marker candidate 820a in the real space. It is estimated that the second marker 920 is adjacent.
  • the first estimation unit 143 estimates which second marker 920 is the second marker candidate 820 determined to correspond to any one of the second markers 920.
  • the first estimation unit 143 determines that the second marker candidate 820 that is not located on each straight line generated by the first generation unit 141 or the first estimation unit 143 does not correspond to any of the second markers 920. Also good.
  • the second marker candidate 820p corresponding to the high temperature part 802p of the object 802 shown in FIG. 9 is not positioned on any of the straight lines 811a to 811i and the straight lines 812a to 812f. In such a case, the first estimation unit 143 may determine that the second marker candidate 820p does not correspond to any of the second markers 920.
  • the first estimation unit 143 determines that the second marker candidate 820p does not correspond to any of the second markers 920 based on the geometric relationship between the extracted second marker candidates 820. Also good. Specifically, the first estimation unit 143 determines that the positional relationship between the second marker candidate 820p and the other second marker candidate 820 is the positional relationship between each second marker 920 and the other second marker 920 in the far-infrared image. If the second marker candidate 820p does not correspond to any of the second markers 920, it may be determined that the second marker candidate 820p does not correspond to any of the second markers 920. Also, the first estimation unit 143 may determine that the second marker candidate 820p does not correspond to any of the second markers 920 based on the size or shape of the second marker candidate 820p.
  • the first center specifying unit 145 specifies the center position of the second marker candidate 820 as the position in the far-infrared image of the second marker 920 associated with the correspondence estimated by the first estimating unit 143. Further, the first center specifying unit 145 specifies the center position of the first marker 910 extracted by the first extracting unit 131 as the position of the first marker 910 in the far-infrared image. The first center specifying unit 145 outputs information indicating the position of each specified marker in the far infrared image to the far infrared calibration unit 150.
  • each marker 920 in the far-infrared image can be specified with higher accuracy.
  • each far-infrared image of the plurality of first markers 910 is identified. The position at can be specified with higher accuracy.
  • FIG. 15 is an explanatory diagram for explaining the center specifying process.
  • the first center specifying unit 145 specifies the center position of each marker using the far-infrared image shown in FIG. Specifically, the first center specifying unit 145 sets the center 921 of the region where the second marker 920 corresponding to the second marker candidate 820 determined to correspond to one of the second markers 920 appears in the far-infrared image. The position is specified as the position of the second marker 920 in the far-infrared image.
  • the first center specifying unit 145 can specify the position of the center 921 of the region by performing image processing such as ellipse fitting on the region.
  • the first center specifying unit 145 specifies the position of the center 911 of the region where the extracted first marker 910 appears in the far-infrared image as the position of the first marker 910 in the far-infrared image.
  • the first center specifying unit 145 can specify the position of the center 911 of the region by performing image processing such as ellipse fitting on the region.
  • specification part 145 may identify the center position of each marker using the binarized image shown in FIG.10 and FIG.11. Specifically, the first center specifying unit 145 estimates the position of the center of the region where the second marker candidate 820 appears in the binarized image output by the second extraction unit 133 by the first estimation unit 143. You may specify as a position in the far-infrared image of the 2nd marker 920 matched by correspondence. In addition, the first center specifying unit 145 uses the position of the center of the region where the first marker 910 appears in the binarized image output from the first extraction unit 131 as the position of the first marker 910 in the far-infrared image. You may specify.
  • the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 that captures a far-infrared image based on the position of each marker in the far-infrared image. Specifically, the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 based on the position of each of the plurality of second markers 920 in the far-infrared image. More specifically, the far-infrared calibration unit 150 determines the far-infrared camera 102 based on the positions in the far-infrared image of each of the plurality of first markers 910 and the plurality of second markers 920. Calibration may be executed.
  • the far-infrared calibration unit 150 is obtained by substituting the position of each marker in the far-infrared image into the two-dimensional coordinates (x, y) in the equation (1).
  • the camera parameters of the far-infrared camera 102 are determined by solving a plurality of equations as an optimization problem.
  • the far-infrared calibration unit 150 determines the internal parameter A of the far-infrared camera 102 based on the position of each marker in the far-infrared image.
  • the far-infrared calibration unit 150 outputs information indicating the determined camera parameters of the far-infrared camera 102 to an external device.
  • An external device to which information indicating camera parameters of the far-infrared camera 102 is input performs various image processing based on the information. For example, the external device can perform processing for reducing camera distortion in the obtained far-infrared image based on the information.
  • the far-infrared calibration unit 150 may store information indicating the determined camera parameters of the far-infrared camera 102 in the far-infrared storage unit 160.
  • the far-infrared specifying unit 140 is based on the geometric relationship between each of the plurality of first markers 910.
  • the position of each marker 920 in the far-infrared image is specified.
  • the image processing apparatus 1 is based on the positions in the far-infrared image of each of the plurality of second markers 920 identified by the far-infrared identifying unit 140.
  • the camera 102 is calibrated. As a result, it is possible to perform calibration with high accuracy as the calibration of the far-infrared camera 102.
  • the relative positions in the real space of the plurality of second markers 920 with respect to the plurality of first markers 910 are geometric shapes between the plurality of first markers 910. Can be determined on the basis of academic relationships. Thereby, based on the geometric relationship between each of the plurality of first markers 910, the position of each of the plurality of second markers 920 in the far-infrared image can be specified. Therefore, even if a part of the second marker 920 is not shown in the far-infrared image showing the chart 9, the position of each marker in the far-infrared image can be specified. The accuracy of the calibration 102 can be improved.
  • FIG. 16 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus 1 according to the present embodiment.
  • the far-infrared acquisition unit 120 acquires a far-infrared image showing the chart 9 (step S501), and the acquired far-infrared image is converted into the far-infrared extraction unit 130 and the far-infrared image. Output to the infrared identification unit 140. Then, the first extraction unit 131 extracts a plurality of first markers 910 from the acquired far-infrared image (step S503), and outputs the extraction result to the far-infrared specifying unit 140. Then, the second extraction unit 133 extracts the second marker candidate 820 from the acquired far-infrared image (step S505), and outputs the extraction result to the far-infrared specifying unit 140.
  • the far-infrared specifying unit 140 specifies the position of each marker in the far-infrared image (step S550), and information indicating the position of each specified marker in the far-infrared image is the far-infrared calibration unit 150. Output to. Then, the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 that captures the far-infrared image based on the position of each marker in the far-infrared image (step S507) and determines the determined far-infrared Information indicating the camera parameters of the infrared camera 102 is output to an external device. Then, the process shown in FIG. 16 ends.
  • FIG. 17 is a flowchart illustrating an example of the flow of the position specifying process performed by the image processing apparatus 1 according to the present embodiment.
  • the position specifying process corresponds to the process of step S550 in the flowchart shown in FIG.
  • step S550 first, the first generation unit 141 first sets the second marker 920 in the far-infrared image based on the geometric relationship between each of the plurality of first markers 910.
  • Candidate information that is information indicating a position candidate is generated (step S551), and the generated candidate information is output to the first estimation unit 143.
  • the first estimation unit 143 estimates a correspondence relationship between the second marker candidate 820 extracted by the second extraction unit 133 and each of the plurality of second markers 920 (Step S1). S553), information indicating the estimated corresponding relationship is output to the first center specifying unit 145.
  • specification part 145 specifies the center position of the 1st marker 910 and the 2nd marker candidate 820 as a position in the far-infrared image of each marker (step S555), and the far-infrared of each specified marker Information indicating the position in the image is output to the far-infrared calibration unit 150. Then, the process shown in FIG. 17 ends.
  • FIG. 18 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus 2 according to the first application example. As shown in FIG. 18, the image processing apparatus 2 according to the first application example further includes a visible light camera 202, unlike the image processing apparatus 1 described above.
  • the visible light camera 202 is an imaging module that performs imaging using visible light and obtains a visible light image.
  • the visible light camera 202 has an array of image sensors that sense visible light having different wavelengths.
  • the visible light camera 202 may have an array of imaging elements each having a sensitivity range in a red range, a green range, and a blue range.
  • the visible light camera 202 captures visible light images at regular time intervals.
  • the series of visible light images obtained by the visible light camera 202 may constitute a video.
  • the first marker 910, the second marker 920, and the base 930 may have different spectral reflection characteristics in the visible light range.
  • the first marker 910 has a first color
  • the second marker 920 has a second color
  • the base 930 has a third color.
  • the first color, the second color, and the third color may have different spectral distributions.
  • the first color, the second color, and the third color may be different from each other in at least one of hue, saturation, or brightness.
  • the 1st marker 910, the 2nd marker 920, and the base 930 may have a mutually different shape. In that case, by using image processing such as template matching, each area where the first marker 910 and the second marker 920 are reflected in the visible light image showing the chart 9 is extracted separately from the other areas. be able to.
  • FIG. 19 is a block diagram illustrating an example of a functional configuration that is realized when the components of the image processing apparatus 2 illustrated in FIG. 18 are linked to each other.
  • the image processing device 2 according to the first application example is different from the image processing device 1 described above in that a visible light acquisition unit 220, a visible light extraction unit 230, a visible light identification unit 240, A visible light calibration unit 250 and a visible light storage unit 260 are further provided.
  • the visible light storage unit 260 stores data referred to in each process performed by the image processing apparatus 2. Specifically, the visible light storage unit 260 stores information used in each process performed by the functional units of the visible light acquisition unit 220, the visible light extraction unit 230, the visible light identification unit 240, and the visible light calibration unit 250.
  • the visible light storage unit 260 may store a processing result obtained by each process performed by each functional unit. Each functional unit can acquire a processing result for each processing from the visible light storage unit 260.
  • the visible light storage unit 260 may store a visible light image captured by the visible light camera 202. Each functional unit can acquire a visible light image captured by the visible light camera 202 from the visible light storage unit 260.
  • the visible light acquisition unit 220 acquires a visible light image. Specifically, the visible light acquisition unit 220 acquires a visible light image captured by the visible light camera 202 and showing the chart 9. Further, the visible light acquisition unit 220 outputs the acquired visible light image to the visible light extraction unit 230 and the visible light identification unit 240.
  • the visible light acquisition unit 220 may acquire a visible light image directly from the visible light camera 202.
  • the visible light acquisition unit 220 may be the visible light camera 202 itself.
  • the visible light acquisition unit 220 may acquire a visible light image stored in the visible light storage unit 260.
  • the visible light image acquired by the visible light acquisition unit 220 may be an image that has undergone preliminary processing such as signal amplification and noise removal.
  • the visible light extraction unit 230 extracts a region where a specific object is reflected from the visible light image acquired by the visible light acquisition unit 220, distinguishing it from other regions. Further, the visible light extraction unit 230 outputs the extraction result to the visible light identification unit 240.
  • the visible light extraction unit 230 includes, for example, a third extraction unit 231 and a fourth extraction unit 233 as illustrated in FIG.
  • the third extraction unit 231 extracts a plurality of first markers 910 from the visible light image. Specifically, the third extraction unit 231 extracts a plurality of first markers 910 from the visible light image acquired by the visible light acquisition unit 220 and outputs the extraction result to the visible light identification unit 240. For example, the third extraction unit 231 extracts a plurality of first markers 910 by performing a binarization process on the visible light image. Specifically, the third extraction unit 231 has a pixel value corresponding to the first color in the visible light image based on the relationship between the spectral reflectance characteristics of the first marker 910, the second marker 920, and the base 930.
  • a second pixel value having a relatively high value is assigned to the pixel, and a first pixel value having a relatively low value is assigned to the other pixels. Thereby, the second pixel value is assigned to the area where each first marker 910 is reflected, whereby extraction of the plurality of first markers 910 can be realized.
  • the fourth extraction unit 233 extracts a second marker candidate that is a candidate for each of the plurality of second markers 920 from the visible light image. Specifically, the fourth extraction unit 233 extracts the second marker candidate from the visible light image acquired by the visible light acquisition unit 220 and outputs the extraction result to the visible light identification unit 240. For example, the fourth extraction unit 233 extracts a second marker candidate by performing a binarization process on the visible light image. Specifically, the fourth extraction unit 233 corresponds to the first color or the second color in the visible light image based on the relationship between the spectral reflectance characteristics of the first marker 910, the second marker 920, and the base 930.
  • a second pixel value having a relatively high value is assigned to a pixel having a pixel value, and a first pixel value having a relatively low value is assigned to another pixel.
  • the extraction of the second marker candidate can be realized by assigning the second pixel value to an area where at least the second marker 920 appears in the visible light image.
  • the visible light specifying unit 240 specifies the position of each marker in the visible light image. Further, the visible light specifying unit 240 outputs information indicating the position of each specified marker in the visible light image to the visible light calibration unit 250 and the far infrared calibration unit 150. In the first application example, the visible light specifying unit 240 specifies the position of each of the plurality of second markers 920 in the visible light image based on the geometric relationship between each of the plurality of first markers 910. .
  • the visible light identification unit 240 includes, for example, a second generation unit 241, a second estimation unit 243, and a second center identification unit 245, as illustrated in FIG.
  • the second generation unit 241 generates candidate information that is information indicating a candidate for the position of the second marker 920 in the visible light image based on the geometric relationship between each of the plurality of first markers 910. In addition, the second generation unit 241 outputs the generated candidate information to the second estimation unit 243. For example, the second generation unit 241 may generate, as candidate information, a straight line in a visible light image corresponding to a straight line passing through the second marker 920 in real space.
  • the second estimation unit 243 determines whether the second marker candidate extracted by the fourth extraction unit 233 and each of the plurality of second markers 920 are based on the geometric relationship between each of the plurality of first markers 910. Estimate the correspondence. In other words, the second estimation unit 243 estimates which second marker 920 the second marker candidate is based on the geometric relationship between each of the plurality of first markers 910. Further, the second estimation unit 243 outputs information indicating the estimated correspondence relationship to the second center specifying unit 245. Specifically, the second estimation unit 243 estimates the correspondence relationship based on the candidate information generated by the second generation unit 241.
  • the correspondence relationship can be estimated with high accuracy.
  • the position in the visible light image of each of the plurality of second markers 920 can be specified with high accuracy.
  • the second center specifying unit 245 in the visible light image of the second marker 920 that associates the center position of the second marker candidate extracted by the fourth extracting unit 233 with the correspondence estimated by the second estimating unit 243. Specify as location. Further, the second center specifying unit 245 specifies the center position of the first marker 910 extracted by the third extracting unit 231 as the position of the first marker 910 in the visible light image. The second center specifying unit 245 outputs information indicating the position of each specified marker in the visible light image to the visible light calibration unit 250 and the far infrared calibration unit 150. The second center specifying unit 245 can specify the center positions of the first marker 910 and the second marker candidate by using image processing such as ellipse fitting, for example.
  • the center position of the second marker candidate as the position in the visible light image of the second marker 920 associated with the correspondence estimated by the second estimation unit 243.
  • the position in each visible light image can be specified with higher accuracy.
  • the center position of the first marker 910 extracted by the third extraction unit 231 as the position of the first marker 910 in the visible light image, the position of each of the plurality of first markers 910 in the visible light image. Can be specified with higher accuracy.
  • the far infrared specifying unit 140 also outputs information indicating the position of each marker in the far infrared image to the visible light calibration unit 250.
  • the first center specifying unit 145 outputs information indicating the position of each marker in the far infrared image to the far infrared calibration unit 150 and the visible light calibration unit 250.
  • the visible light calibration unit 250 calibrates the visible light camera 202 that captures a visible light image based on the position of each marker in the far-infrared image and the position of each marker in the visible light image.
  • the visible light calibration unit 250 includes a visible light camera based on the position of each of the plurality of second markers 920 in the far-infrared image and the position of each of the plurality of second markers 920 in the visible light image.
  • the calibration of 202 is executed. More specifically, the visible light calibration unit 250 determines the visible light based on the positions of the first markers 910 and the second markers 920 in the far-infrared image and the visible light image. Calibration of the camera 202 may be executed.
  • the visible light calibration unit 250 is obtained by substituting the position of each marker in each of the far-infrared image and the visible light image into the two-dimensional coordinates (x, y) in the equation (1).
  • the camera parameters of the visible light camera 202 are determined by solving a plurality of equations as an optimization problem.
  • the visible light calibration unit 250 determines the internal parameter A and the external parameter [R
  • T] is a parameter indicating the relative posture and position of the visible light camera 202 with respect to the far-infrared camera 102.
  • the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 based on the position of each marker in the far-infrared image and the position of each marker in the visible light image. Specifically, the far-infrared calibration unit 150 performs far-red based on the position of each of the plurality of second markers 920 in the far-infrared image and the position of each of the plurality of second markers 920 in the visible light image. Calibration of the outer camera 102 is executed. More specifically, the far-infrared calibration unit 150 performs the far-infrared calibration based on the positions of the first markers 910 and the second markers 920 in the far-infrared image and the visible light image. Calibration of the infrared camera 102 may be executed.
  • the far infrared calibration unit 150 is obtained by substituting the position of each marker in each of the far infrared image and the visible light image into the two-dimensional coordinates (x, y) in the equation (1).
  • the camera parameters of the far infrared camera 102 are determined by solving a plurality of equations as an optimization problem.
  • the far-infrared calibration unit 150 uses the internal parameter A and the external parameter [R
  • T] is a parameter indicating a relative posture and position of the far-infrared camera 102 with respect to the visible light camera 202.
  • the image processing apparatus 2 performs calibration between the far-infrared camera 102 and the visible light camera 202. Further, since the first marker 910, the second marker 920, and the base 930 have different spectral reflection characteristics in the visible light region, the calibration between the far-infrared camera 102 and the visible light camera 202 is the same. This can be done using the chart 9. Thereby, the calibration between the far-infrared camera 102 and the visible light camera 202 can be performed more easily.
  • the visible light calibration unit 250 and the far infrared calibration unit 150 output information indicating the determined camera parameters of the visible light camera 202 and the far infrared camera 102 to external devices, respectively.
  • An external device to which information indicating camera parameters of the visible light camera 202 and the far-infrared camera 102 is input performs various image processing based on the information.
  • the external device can perform processing for reducing camera distortion in each of the obtained visible light image and far-infrared image based on the information.
  • the external device can perform a rectification process, which is a process of parallelizing the obtained visible light image and far-infrared image, based on the information.
  • the external device can perform a process of substantially matching the scales of the same object shown in the obtained visible light image and far-infrared image based on the information.
  • the visible light calibration unit 250 and the far infrared calibration unit 150 transmit information indicating the determined camera parameters of the visible light camera 202 and the far infrared camera 102 to the visible light storage unit 260 and the far infrared storage unit 160. Each may be stored.
  • the visible light specifying unit 240 is based on the geometric relationship between each of the plurality of first markers 910.
  • the position of each of the two markers 920 in the visible light image is specified.
  • the image processing apparatus 2 includes the position and the visible light specifying unit of each of the plurality of second markers 920 specified by the far infrared specifying unit 140 in the far infrared image. Based on the position of each of the plurality of second markers 920 identified by 240 in the visible light image, the far-infrared camera 102 and the visible light camera 202 are calibrated. As a result, it is possible to execute calibration with high accuracy as calibration between the far-infrared camera 102 and the visible light camera 202.
  • FIG. 20 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus 2 according to the first application example.
  • the position specifying process (steps) performed by the far-infrared specifying unit 140 is compared with the process flow performed by the image processing apparatus 1 described with reference to FIGS. 16 and 17.
  • the processing after S550) is different.
  • the far-infrared specifying unit 140 displays information indicating the position of each specified marker in the far-infrared image as the far-infrared calibration unit 150 and the visible light calibration. Output to the unit 250.
  • the visible light acquiring unit 220 acquires a visible light image showing the chart 9. (Step S601), and outputs the acquired visible light image to the visible light extraction unit 230 and the visible light identification unit 240. Then, the third extraction unit 231 extracts a plurality of first markers 910 from the acquired visible light image (step S603), and outputs the extraction result to the visible light identification unit 240. Then, the fourth extraction unit 233 extracts the second marker candidate from the acquired visible light image (step S605), and outputs the extraction result to the visible light specifying unit 240.
  • the visible light specifying unit 240 specifies the position of each marker in the visible light image (step S650), and displays information indicating the position of each specified marker in the visible light image as the visible light calibration unit 250 and the far infrared. Output to the calibration unit 150.
  • the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 that captures a far-infrared image based on the position of each marker in the far-infrared image and the position of each marker in the visible light image.
  • information indicating the determined camera parameters of the far-infrared camera 102 is output to an external device.
  • the visible light calibration unit 250 performs calibration of the visible light camera 202 that captures a visible light image based on the position of each marker in the far-infrared image and the position of each marker in the visible light image (step)
  • step S609 information indicating the determined camera parameters of the visible light camera 202 is output to an external device. Then, the process shown in FIG. 20 ends.
  • FIG. 21 is a flowchart showing an example of the flow of the position specifying process performed by the image processing apparatus 2 according to the first application example.
  • the position specifying process corresponds to the process of step S650 in the flowchart shown in FIG.
  • step S650 the second generation unit 241 determines the position of the second marker 920 in the visible light image based on the geometric relationship between each of the plurality of first markers 910.
  • Candidate information that is information indicating the candidate is generated (step S651), and the generated candidate information is output to the second estimation unit 243.
  • the second estimation unit 243 estimates a correspondence relationship between the second marker candidate extracted by the fourth extraction unit 233 and each of the plurality of second markers 920 (step S653). ), Information indicating the estimated corresponding relationship is output to the second center specifying unit 245.
  • specification part 245 specifies the center position of the 1st marker 910 and a 2nd marker candidate as a position in the visible light image of each marker (step S655), and the position in the visible light image of each specified marker. Is output to the visible light calibration unit 250 and the far-infrared calibration unit 150. Then, the process shown in FIG. 21 ends.
  • FIG. 22 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus 3 according to the second application example. As illustrated in FIG. 22, the image processing apparatus 3 according to the second application example further includes a near-infrared camera 302, unlike the image processing apparatus 1 described above.
  • the near-infrared camera 302 is an imaging module that performs imaging using near-infrared rays and obtains near-infrared images. Specifically, the near-infrared camera 302 has an array of image sensors that sense near-infrared rays having a wavelength belonging to the NIR region. The near-infrared camera 302 also includes a light-emitting element that irradiates near the apparatus with near-infrared light having a wavelength belonging to the NIR region.
  • the near-infrared camera 302 emits near-infrared light from a light emitting element in response to a trigger such as a user input or periodically, and captures the near-infrared light reflected on the subject or its background, thereby obtaining a near-infrared image. obtain.
  • the near-infrared camera 302 captures near-infrared images at regular time intervals. A series of near-infrared images obtained by the near-infrared camera 302 may form a video.
  • the first marker 910, the second marker 920, and the base 930 may have different spectral reflection characteristics in the near infrared region.
  • the first marker 910 has a first characteristic
  • the second marker 920 has a second characteristic
  • the base 930 has a third characteristic.
  • FIG. 23 is a block diagram illustrating an example of a functional configuration that is realized when the components of the image processing apparatus 3 illustrated in FIG. 22 are linked to each other.
  • the image processing apparatus 3 according to the second application example is different from the image processing apparatus 1 described above in that the near-infrared acquiring unit 320, the near-infrared extracting unit 330, and the near-infrared specifying unit 340, a near-infrared calibration unit 350, and a near-infrared storage unit 360.
  • the near infrared storage unit 360 stores data referred to in each process performed by the image processing apparatus 3.
  • the near-infrared storage unit 360 includes each process performed by each function unit of the near-infrared acquisition unit 320, the near-infrared extraction unit 330, the near-infrared specifying unit 340, and the near-infrared calibration unit 350.
  • the information used in is stored.
  • storage part 360 may memorize
  • Each functional unit can acquire a processing result for each processing from the near-infrared storage unit 360.
  • the near infrared storage unit 360 may store a near infrared image captured by the near infrared camera 302.
  • Each functional unit can acquire a near-infrared image captured by the near-infrared camera 302 from the near-infrared storage unit 360.
  • the near-infrared acquisition unit 320 acquires a near-infrared image. Specifically, the near infrared acquisition unit 320 acquires a near infrared image captured by the near infrared camera 302 and showing the chart 9. In addition, the near infrared acquisition unit 320 outputs the acquired near infrared image to the near infrared extraction unit 330 and the near infrared identification unit 340. For example, the near infrared acquisition unit 320 may acquire a near infrared image directly from the near infrared camera 302. Further, the near infrared acquisition unit 320 may be the near infrared camera 302 itself.
  • the near infrared acquisition unit 320 may acquire a near infrared image stored in the near infrared storage unit 360.
  • the near-infrared image acquired by the near-infrared acquisition unit 320 may be an image that has undergone preliminary processing such as signal amplification and noise removal.
  • the near-infrared extraction unit 330 extracts a region in which a specific object is reflected from the near-infrared image acquired by the near-infrared acquisition unit 320 while distinguishing it from other regions. Further, the near infrared extracting unit 330 outputs the extraction result to the near infrared specifying unit 340.
  • the near-infrared extraction unit 330 includes a fifth extraction unit 331 and a sixth extraction unit 333.
  • the fifth extraction unit 331 extracts a plurality of first markers 910 from the near-infrared image. Specifically, the fifth extraction unit 331 extracts a plurality of first markers 910 from the near-infrared image acquired by the near-infrared acquisition unit 320, and outputs the extraction result to the near-infrared specifying unit 340. For example, the fifth extraction unit 331 extracts a plurality of first markers 910 by performing binarization processing on the near-infrared image. Specifically, the fifth extraction unit 331 calculates a pixel value corresponding to the first characteristic in the near-infrared image based on the relationship between the spectral reflection characteristics of the first marker 910, the second marker 920, and the base 930.
  • the second pixel value having a relatively high value is assigned to the pixel having the pixel value, and the first pixel value having a relatively low value is assigned to the other pixel. Thereby, the second pixel value is assigned to the area where each first marker 910 is reflected, whereby extraction of the plurality of first markers 910 can be realized.
  • the sixth extraction unit 333 extracts a second marker candidate that is a candidate for each of the plurality of second markers 920 from the near-infrared image. Specifically, the sixth extraction unit 333 extracts the second marker candidate from the near-infrared image acquired by the near-infrared acquisition unit 320, and outputs the extraction result to the near-infrared identification unit 340. For example, the sixth extraction unit 333 extracts the second marker candidate by performing binarization processing on the near-infrared image. Specifically, the sixth extraction unit 333 corresponds to the first characteristic or the second characteristic in the near-infrared image based on the relationship between the spectral reflection characteristics of the first marker 910, the second marker 920, and the base 930.
  • a second pixel value having a relatively high value is assigned to a pixel having a pixel value to be assigned, and a first pixel value having a relatively low value is assigned to another pixel.
  • the second marker candidate can be extracted by assigning the second pixel value to at least the region where the second marker 920 appears in the near-infrared image.
  • the near infrared specifying unit 340 specifies the position of each marker in the near infrared image. Further, the near infrared specifying unit 340 outputs information indicating the position of each specified marker in the near infrared image to the near infrared calibration unit 350 and the far infrared calibration unit 150. In the second application example, the near-infrared specifying unit 340 determines the position of each of the plurality of second markers 920 in the near-infrared image based on the geometric relationship between each of the plurality of first markers 910. Identify. For example, as illustrated in FIG. 23, the near-infrared specifying unit 340 includes a third generation unit 341, a third estimation unit 343, and a third center specifying unit 345.
  • 3rd generation part 341 generates candidate information which is information which shows a candidate of a position of the 2nd marker 920 in a near infrared picture based on a geometric relationship between each of a plurality of 1st markers 910.
  • the third generation unit 341 outputs the generated candidate information to the third estimation unit 343.
  • the third generation unit 341 may generate a straight line in the near-infrared image corresponding to the straight line passing through the second marker 920 in the real space as candidate information.
  • the third estimating unit 343 determines whether the second marker candidate extracted by the sixth extracting unit 333 and each of the plurality of second markers 920 are based on the geometric relationship between each of the plurality of first markers 910. Estimate the correspondence. In other words, the third estimation unit 343 estimates which second marker 920 is the second marker candidate based on the geometric relationship between each of the plurality of first markers 910. In addition, the third estimation unit 343 outputs information indicating the estimated correspondence relationship to the third center specifying unit 345. Specifically, the third estimation unit 343 estimates the correspondence relationship based on the candidate information generated by the third generation unit 341.
  • the correspondence relationship can be estimated with high accuracy. Thereby, the position in the near-infrared image of each of the 2nd marker 920 can be specified with sufficient accuracy.
  • the third center specifying unit 345 associates the center position of the second marker candidate extracted by the sixth extracting unit 333 with the correspondence estimated by the third estimating unit 343, and the near-infrared image of the second marker 920. Specify as the position in Further, the third center specifying unit 345 specifies the center position of the first marker 910 extracted by the fifth extracting unit 331 as the position of the first marker 910 in the near-infrared image. The third center specifying unit 345 outputs information indicating the position of each specified marker in the near-infrared image to the near-infrared calibration unit 350 and the far-infrared calibration unit 150. The third center specifying unit 345 can specify the center positions of the first marker 910 and the second marker candidate by using image processing such as ellipse fitting, for example.
  • the center position of the second marker candidate as the position in the near-infrared image of the second marker 920 associated with the correspondence estimated by the third estimation unit 343, a plurality of second markers
  • the position of each 920 in the near-infrared image can be specified with higher accuracy.
  • the center position of the first marker 910 extracted by the fifth extraction unit 331 as the position of the first marker 910 in the near-infrared image
  • each of the near-infrared images of the plurality of first markers 910 is identified.
  • the position at can be specified with higher accuracy.
  • the far infrared specifying unit 140 also outputs information indicating the position of each marker in the far infrared image to the near infrared calibration unit 350.
  • the first center specifying unit 145 outputs information indicating the position of each marker in the far infrared image to the far infrared calibration unit 150 and the near infrared calibration unit 350.
  • the near-infrared calibration unit 350 performs calibration of the near-infrared camera 302 that captures a near-infrared image based on the position of each marker in the far-infrared image and the position of each marker in the near-infrared image. . Specifically, the near-infrared calibration unit 350 generates a near-infrared based on the position of each of the plurality of second markers 920 in the far-infrared image and the position of each of the plurality of second markers 920 in the near-infrared image. Calibration of the infrared camera 302 is executed.
  • the near-infrared calibration unit 350 is based on the positions in the far-infrared image and the near-infrared image of each of the plurality of first markers 910 and each of the plurality of second markers 920. Calibration of the near-infrared camera 302 may be executed.
  • the near-infrared calibration unit 350 substitutes the position of each marker in each of the far-infrared image and the near-infrared image into the two-dimensional coordinates (x, y) in the equation (1)
  • the camera parameters of the near-infrared camera 302 are determined by solving the plurality of equations as an optimization problem. Specifically, the near-infrared calibration unit 350 determines the internal parameter A and the external parameter [R
  • the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 based on the position of each marker in the far-infrared image and the position of each marker in the near-infrared image. Specifically, the far-infrared calibration unit 150 performs the far-infrared based on the position of each of the plurality of second markers 920 in the far-infrared image and the position of each of the plurality of second markers 920 in the near-infrared image. Calibration of the infrared camera 102 is executed.
  • the far-infrared calibration unit 150 is based on the positions in the far-infrared image and the near-infrared image of each of the plurality of first markers 910 and each of the plurality of second markers 920. Calibration of the far-infrared camera 102 may be executed.
  • the far-infrared calibration unit 150 substitutes the position of each marker in each of the far-infrared image and the near-infrared image for the two-dimensional coordinates (x, y) in the equation (1)
  • the camera parameters of the far-infrared camera 102 are determined by solving the plurality of equations as an optimization problem. Specifically, the far-infrared calibration unit 150 determines the internal parameter A and the external parameter [R
  • the image processing apparatus 3 performs calibration between the far-infrared camera 102 and the near-infrared camera 302.
  • the calibration between the far infrared camera 102 and the near infrared camera 302 is the same.
  • This chart 9 can be used. Thereby, calibration between the far-infrared camera 102 and the near-infrared camera 302 can be performed more easily.
  • the near infrared calibration unit 350 and the far infrared calibration unit 150 output information indicating the determined camera parameters of the near infrared camera 302 and the far infrared camera 102 to external devices, respectively.
  • An external device to which information indicating camera parameters of the near infrared camera 302 and the far infrared camera 102 is input performs various image processing based on the information.
  • the external device can perform processing for reducing camera distortion in each of the obtained near-infrared image and far-infrared image based on the information.
  • the external device can perform a rectification process that is a process of parallelizing the obtained near-infrared image and far-infrared image based on the information.
  • the external device can perform processing for substantially matching the scales of the same object shown in the obtained near-infrared image and far-infrared image based on the information.
  • the near-infrared calibration unit 350 and the far-infrared calibration unit 150 store information indicating the determined camera parameters of the near-infrared camera 302 and the far-infrared camera 102 in the near-infrared storage unit 360 and the far-infrared storage unit.
  • Each of the units 160 may be stored.
  • the near-infrared specifying unit 340 has a plurality of the plurality of first markers 910 based on the geometric relationship between the plurality of first markers 910.
  • the position of each of the second markers 920 in the near-infrared image is specified. Therefore, even if it is a case where a part of 2nd marker 920 is not reflected in the near-infrared image which reflected the chart 9, the position of each marker in a near-infrared image can be pinpointed. Therefore, the position of each marker in the near-infrared image can be specified also for the near-infrared image in which the marker appears at the end.
  • the image processing device 3 specifies the position and the near-infrared identification in the far-infrared image of each of the plurality of second markers 920 identified by the far-infrared identification unit 140.
  • the far-infrared camera 102 and the near-infrared camera 302 are calibrated based on the positions in the near-infrared image of each of the plurality of second markers 920 specified by the unit 340.
  • FIG. 24 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus 3 according to the second application example.
  • the position specifying process (steps) performed by the far infrared specifying unit 140 is compared with the processing flow performed by the image processing apparatus 1 described with reference to FIGS. 16 and 17.
  • the processing after S550) is different.
  • the far-infrared specifying unit 140 uses the far-infrared calibration unit 150 and the near-infrared calibration to display information indicating the positions of the specified markers in the far-infrared image. To the output unit 350.
  • the near infrared acquiring unit 320 displays a near infrared image showing the chart 9. (Step S701), and the acquired near-infrared image is output to the near-infrared extracting unit 330 and the near-infrared specifying unit 340.
  • the fifth extraction unit 331 extracts a plurality of first markers 910 from the acquired near-infrared image (step S703), and outputs the extraction result to the near-infrared specifying unit 340.
  • the sixth extraction unit 333 extracts the second marker candidate from the acquired near-infrared image (step S705), and outputs the extraction result to the near-infrared specifying unit 340.
  • the near-infrared specifying unit 340 specifies the position of each marker in the near-infrared image (step S750), and information indicating the position of each specified marker in the near-infrared image is used as the near-infrared calibration unit 350. And output to the far-infrared calibration unit 150. Then, the far-infrared calibration unit 150 performs calibration of the far-infrared camera 102 that captures a far-infrared image based on the position of each marker in the far-infrared image and the position of each marker in the near-infrared image. This is executed (step S707), and information indicating the determined camera parameters of the far-infrared camera 102 is output to an external device.
  • the near-infrared calibration unit 350 performs calibration of the near-infrared camera 302 that captures a near-infrared image based on the position of each marker in the far-infrared image and the position of each marker in the near-infrared image. This is executed (step S709), and information indicating the determined camera parameters of the near-infrared camera 302 is output to an external device. Then, the process shown in FIG. 24 ends.
  • FIG. 25 is a flowchart showing an example of the flow of the position specifying process performed by the image processing apparatus 3 according to the second application example.
  • the position specifying process corresponds to the process of step S750 in the flowchart shown in FIG.
  • step S750 first, the third generation unit 341 selects the second marker 920 in the near-infrared image based on the geometric relationship between each of the plurality of first markers 910.
  • Candidate information that is information indicating a position candidate is generated (step S751), and the generated candidate information is output to the third estimation unit 343.
  • the third estimation unit 343 estimates the correspondence between the second marker candidate extracted by the sixth extraction unit 333 and each of the plurality of second markers 920 (step S753). ), And outputs information indicating the estimated correspondence relationship to the third center specifying unit 345.
  • specification part 345 specifies the center position of the 1st marker 910 and a 2nd marker candidate as a position in the near-infrared image of each marker (step S755), and the near-infrared image of each specified marker The information indicating the position at is output to the near-infrared calibration unit 350 and the far-infrared calibration unit 150. Then, the process illustrated in FIG. 25 ends.
  • the far-infrared specifying unit 140 determines each of the plurality of second markers 920 based on the geometric relationship between each of the plurality of first markers 910.
  • the position in the far infrared image is specified. Therefore, even if it is a case where a part of 2nd marker 920 is not reflected in the far-infrared image which projected the chart 9, the position of each marker in a far-infrared image can be pinpointed. Therefore, the position of each marker in the far-infrared image can be specified for the far-infrared image in which the marker is reflected at the end. Therefore, sufficient information for calibration of the far-infrared camera 102 can be ensured. Therefore, the calibration accuracy of the far infrared camera 102 can be improved.
  • the relative positions in the real space of the plurality of second markers 920 with respect to the plurality of first markers 910 are geometric shapes between the plurality of first markers 910. Can be determined on the basis of academic relationships. Thereby, based on the geometric relationship between each of the plurality of first markers 910, the position of each of the plurality of second markers 920 in the far-infrared image can be specified. Therefore, even if a part of the second marker 920 is not shown in the far-infrared image showing the chart 9, the position of each marker in the far-infrared image can be specified. The accuracy of the calibration 102 can be improved.
  • a series of control processing by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware.
  • a program constituting the software is stored in advance in, for example, a storage medium (non-transitory medium) provided inside or outside each device.
  • Each program is read into a RAM at the time of execution, for example, and executed by a processor such as a CPU.
  • the number of processors that execute each program may be one or more.
  • a computer program for realizing each function of the image processing apparatus 1 according to the present embodiment as described above or the image processing apparatuses 2 and 3 according to each application example is produced and mounted on a PC or the like.
  • the image processing apparatus 1 according to the present embodiment or the image processing apparatuses 2 and 3 according to each application example may correspond to a computer.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • each function of the image processing apparatus 1 according to the present embodiment or the image processing apparatuses 2 and 3 according to each application example may be divided by a plurality of computers. It can be realized by the above computer program.
  • step S505 may be executed before the process of step S503, or may be executed in parallel with the process of step S503.
  • the process of step S605 (S609) may be executed before the process of step S603 (S607), or may be executed in parallel with the process of step S603 (S607).
  • the flowchart shown in FIG. In the flowchart shown in FIG.
  • step S705 may be executed before the process of step S703 (S707), or may be executed in parallel with the process of step S703 (S707). . Further, additional processing steps may be employed, and some processing steps may be omitted.
  • a far infrared acquisition unit for acquiring a far infrared image
  • a first extraction unit for extracting a plurality of first markers having a first temperature from the far-infrared image
  • a far-infrared specifying unit that specifies a position of each of the plurality of second markers having a second temperature in the far-infrared image based on a geometric relationship between each of the plurality of first markers; Comprising Image processing device.
  • a second extraction unit that extracts a second marker candidate that is a candidate for each of the plurality of second markers from the far-infrared image;
  • the far-infrared specifying unit is configured such that each of the second marker candidates and the plurality of second markers extracted by the second extraction unit based on a geometric relationship between each of the plurality of first markers.
  • the far-infrared specifying unit generates candidate information that is information indicating a candidate for the position of the second marker in the far-infrared image based on a geometric relationship between each of the plurality of first markers.
  • Including a generating unit The estimation unit estimates the correspondence relationship based on the candidate information.
  • the image processing apparatus specifies a center position of the second marker candidate as a position in the far-infrared image of the second marker associated with the correspondence estimated by the estimating unit.
  • the image processing apparatus according to (2) or (3), including: (5) A far-infrared calibration unit configured to perform calibration of a far-infrared camera that captures the far-infrared image based on a position of each of the plurality of second markers in the far-infrared image; The image processing device according to any one of (4) to (4). (6) The image processing apparatus according to (5), including the far-infrared camera.
  • a visible light acquisition unit for acquiring a visible light image
  • a third extraction unit for extracting the plurality of first markers from the visible light image
  • a visible light specifying unit that specifies a position of each of the plurality of second markers in the visible light image based on a geometric relationship between each of the plurality of first markers;
  • the image processing apparatus according to (5) or (6).
  • Calibration of a visible light camera that captures the visible light image based on the position of each of the plurality of second markers in the far-infrared image and the position of each of the plurality of second markers in the visible light image.
  • the far-infrared calibration unit includes the far-infrared camera based on a position of each of the plurality of second markers in the far-infrared image and a position of each of the plurality of second markers in the visible light image. Perform calibration of the The image processing apparatus according to (7). (9) The image processing apparatus according to (8), including the visible light camera.
  • a near infrared acquisition unit for acquiring a near infrared image;
  • a fifth extraction unit for extracting the plurality of first markers from the near-infrared image;
  • a near-infrared specifying unit that specifies a position of each of the plurality of second markers in the near-infrared image based on a geometric relationship between each of the plurality of first markers;
  • the image processing apparatus according to (5) or (6).
  • a near-infrared camera that captures the near-infrared image based on the position of each of the plurality of second markers in the far-infrared image and the position of each of the plurality of second markers in the near-infrared image.
  • the far-infrared calibration unit is configured to perform the far-infrared based on a position of each of the plurality of second markers in the far-infrared image and a position of each of the plurality of second markers in the near-infrared image.
  • Perform camera calibration The image processing apparatus according to (10).
  • a calibration chart comprising: An image processing device that performs calibration of a far-infrared camera that captures the far-infrared image, using a far-infrared image showing the calibration chart; Including A relative position in real space of each of the plurality of second markers relative to the plurality of first markers can be determined based on a geometric relationship between each of the plurality of first markers;
  • the image processing apparatus includes: A far infrared acquisition unit for acquiring the far infrared image; A first extraction unit for extracting the plurality of first markers from the far-infrared image; A far-infrared specifying unit that specifies a position of each of the plurality of second markers in the far-infrared image based on a geometric relationship between each of the plurality of first markers; A far-infrared calibration unit that calibrates the far-infrared camera based on the position of each of the plurality of second markers in the far-infrared image; Comprising Calibration system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Radiation Pyrometers (AREA)
  • Image Analysis (AREA)

Abstract

【課題】遠赤外カメラのキャリブレーションの精度を向上させる。 【解決手段】遠赤外画像を取得する遠赤外取得部と、前記遠赤外画像から第1温度を有する複数の第1マーカを抽出する第1抽出部と、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、第2温度を有する複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、を備える、画像処理装置を提供する。

Description

画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム
 本開示は、画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステムに関する。
 近年、暗視等の目的で、遠赤外カメラにより撮像される遠赤外画像が利用されている。遠赤外画像は、物体からの黒体放射によって発せられる遠赤外線を撮像素子により捕捉することによって生成される。このような遠赤外画像を利用することによって、例えば、夜間又は悪天候時のような劣悪な条件下であっても被写体を検出することが可能となる。このような遠赤外カメラでは、可視光カメラ等の他のカメラと同様に、所望の画像を得るためにキャリブレーションを行う必要がある。
 カメラのキャリブレーションは、複数のマーカが配設されたキャリブレーション用のチャートを利用することによって実現され得る。具体的には、カメラによってチャートを映した画像を撮像し、当該画像を用いて当該カメラのキャリブレーションが実行される。例えば、特許文献1では、互いに異なる放射率を有する物体が格子状に交互に配設されたチャートを利用することによって、遠赤外カメラのキャリブレーションを実現する技術が開示されている。当該文献に係るチャートでは、例えば、上記物体の各々が上記マーカに相当し得る。
米国特許出願公開第2012/0069193号明細書
 ところで、遠赤外カメラに関する分野において、遠赤外カメラのキャリブレーションの精度を向上させることが望ましいと考えられる。具体的には、遠赤外カメラのキャリブレーションは、チャートを映した遠赤外画像における各マーカの位置に基づいて実行される。ここで、チャートを映した遠赤外画像において一部のマーカが映っていない場合には、遠赤外画像上のマーカと実空間におけるマーカとの対応関係を取得することが困難となり得る。それにより、遠赤外画像における各マーカの位置を特定することが困難となり得る。ゆえに、全てのマーカが遠赤外画像に映るように撮像を行う必要が生じるので、端部にマーカが映る遠赤外画像を取得することが困難となり得る。それにより、キャリブレーションに用いられる情報が十分に確保されない場合があるので、キャリブレーションの精度が低下し得る。
 そこで、本開示では、遠赤外カメラのキャリブレーションの精度を向上させることが可能な、新規かつ改良された画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステムを提案する。
 本開示によれば、遠赤外画像を取得する遠赤外取得部と、前記遠赤外画像から第1温度を有する複数の第1マーカを抽出する第1抽出部と、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、第2温度を有する複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、を備える、画像処理装置が提供される。
 また、本開示によれば、第1温度を有する複数の第1マーカと、第2温度を有する複数の第2マーカと、第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、を備え、前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能である、キャリブレーション用チャートが提供される。
 また、本開示によれば、第1温度を有する複数の第1マーカと、第2温度を有する複数の第2マーカと、第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、を備えるキャリブレーション用チャートと、前記キャリブレーション用チャートを映した遠赤外画像を用いて、前記遠赤外画像を撮像する遠赤外カメラのキャリブレーションを実行する画像処理装置と、を含み、前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能であり、前記画像処理装置は、前記遠赤外画像を取得する遠赤外取得部と、前記遠赤外画像から前記複数の第1マーカを抽出する第1抽出部と、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、前記複数の第2マーカの各々の前記遠赤外画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する遠赤外キャリブレーション部と、を備える、キャリブレーションシステムが提供される。
 以上説明したように本開示によれば、遠赤外カメラのキャリブレーションの精度を向上させることが可能である。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
波長に依存する赤外線画像の多様な用途について説明するための説明図である。 本開示の実施形態に係るキャリブレーションシステムの概略構成の一例を示す模式図である。 同実施形態に係るチャートの一例を示す正面図である。 同実施形態に係るチャートの一例を示す断面模式図である。 同実施形態に係るチャートの他の例を示す正面図である。 同実施形態に係るチャートの他の例を示す正面図である。 同実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 同実施形態に係る画像処理装置の機能構成の一例を示すブロック図である。 遠赤外取得部により取得される遠赤外画像の一例を示す説明図である。 第1マーカの抽出処理において得られる2値化画像の一例を示す説明図である。 第2マーカ候補の抽出処理において得られる2値化画像の一例を示す説明図である。 生成される候補情報の一例を示す説明図である。 第2マーカ候補と複数の第2マーカの各々との対応関係の推定処理について説明するための説明図である。 第2マーカ候補と複数の第2マーカの各々との対応関係の推定処理について説明するための説明図である。 中心特定処理について説明するための説明図である。 同実施形態に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 同実施形態に係る画像処理装置が行う位置特定処理の流れの一例を示すフローチャートである。 第1の応用例に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 第1の応用例に係る画像処理装置の機能構成の一例を示すブロック図である。 第1の応用例に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 第1の応用例に係る画像処理装置が行う可視光画像についての位置特定処理の流れの一例を示すフローチャートである。 第2の応用例に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 第2の応用例に係る画像処理装置の機能構成の一例を示すブロック図である。 第2の応用例に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 第2の応用例に係る画像処理装置が行う近赤外画像についての位置特定処理の流れの一例を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.導入
 2.キャリブレーションシステム
 3.画像処理装置
  3-1.ハードウェア構成
  3-2.機能構成
  3-3.動作
 4.応用例
  4-1.第1の応用例
  4-2.第2の応用例
 5.まとめ
 <1.導入>
 図1は、波長に依存する赤外線画像の多様な用途について説明するための説明図である。図1の水平方向は赤外線の波長に対応し、左から右へと波長は長くなる。0.7μm以下の波長を有する光線は可視光線であり、人間の視覚はこの可視光線を感知する。可視光領域に隣接する波長領域は近赤外(NIR)領域であり、NIR領域に属する赤外線を近赤外線という。NIR領域の波長の上限は、定義に依存して異なるものの、2.5μmから4.0μmの間にあるとされることが多い。NIR領域のうち相対的に波長の長い部分は、短波長赤外(SWIR)領域と呼ばれることもある。近赤外線は、例えば、暗視(night vision)、透視、光通信、及び測距のために利用され得る。近赤外画像を撮像するカメラは、通常、まず近傍に赤外線を照射し、その反射光を捕捉する。NIR領域に長波長側で隣接する波長領域は遠赤外(FIR)領域であり、FIR領域に属する赤外線を遠赤外線という。FIR領域のうち相対的に波長の短い部分は、中波長赤外(MWIR)領域と呼ばれることもある。中波長赤外線の波長範囲では物質固有の吸収スペクトルが現れることから、中波長赤外線は、物質の同定のために利用され得る。遠赤外線は、暗視、サーモグラフィ、及び加熱のために利用され得る。物体からの黒体放射によって発せられる赤外線は、遠赤外線に相当する。そのため、遠赤外線を用いた暗視装置は、赤外線を照射せずとも、物体からの黒体放射を捕捉することにより遠赤外画像を生成することができる。なお、図1に示した波長の範囲の境界値は例に過ぎない。赤外線の分類の境界値には様々な定義が存在しており、本開示に係る技術の後述する利点は、いかなる定義の下でも享受され得る。
 物体から放射される遠赤外線のエネルギと当該物体の温度とは相関関係を有するので、当該遠赤外線を受光することによって生成された遠赤外画像から、当該遠赤外画像に映る複数の物体の温度差を検出することができる。それにより、遠赤外画像から特定の物体が映る領域を、他の領域と区別して抽出することができる。ゆえに、他の部分と異なる温度を有する複数のマーカが配設されたチャートを映した遠赤外画像において各マーカが映る領域を、他の領域と区別して抽出することができる。よって、このようなチャートを利用することによって、遠赤外カメラのキャリブレーションを実現することができる。
 チャートを映した遠赤外画像において一部のマーカが映っていない場合には、上述したように、遠赤外画像上のマーカと実空間におけるマーカとの対応関係を取得することが困難となり得る。それにより、遠赤外画像における各マーカの位置を特定することが困難となり得る。ゆえに、全てのマーカが遠赤外画像に映るように撮像を行う必要が生じるので、端部にマーカが映る遠赤外画像を取得することが困難となり得る。それにより、キャリブレーションに用いられる情報が十分に確保されない場合がある。
 ここで、チャートに配設される各マーカの形状を互いに異ならせることにより、チャートを映した遠赤外画像において一部のマーカが映っていない場合であっても、当該遠赤外画像上の各マーカの形状を識別することによって上記対応関係の取得を図ることが考えられる。しかしながら、遠赤外画像の解像度は可視光画像と比較して低いことに起因して、各マーカの形状を識別することが困難となり得る。
 このように、遠赤外カメラのキャリブレーションに用いられる情報が十分に確保されない場合があるので、キャリブレーションの精度が低下し得る。そこで、本明細書では、遠赤外カメラのキャリブレーションの精度を向上させることができる仕組みを提案する。
 <2.キャリブレーションシステム>
 まず、図2~図6を参照して、本開示の実施形態に係るキャリブレーションシステム10の概要について説明する。
 図2は、本実施形態に係るキャリブレーションシステム10の概略構成の一例を示す模式図である。キャリブレーションシステム10は、例えば、図2に示したように、画像処理装置1と、チャート9と、を含む。キャリブレーションシステム10では、チャート9を映した遠赤外画像が遠赤外カメラ102により撮像され、画像処理装置1は当該遠赤外画像を用いて遠赤外カメラ102のキャリブレーションを実行する。なお、以下では、遠赤外カメラ102が画像処理装置1に含まれる例について説明するが、遠赤外カメラ102は画像処理装置1に含まれなくてもよい。その場合、画像処理装置1は遠赤外カメラ102と別体の装置によって実現される。
 以下、図3~図6を参照して、チャート9について説明する。図3は、本実施形態に係るチャート9の一例を示す正面図である。図4は、本実施形態に係るチャート9の一例を示す断面模式図である。具体的には、図4は、図3に示した第1マーカ910及び第2マーカ920を通るA-A断面における断面模式図である。図5及び図6は、本実施形態に係るチャート9の他の例を示す正面図である。
 チャート9は、本開示に係るキャリブレーション用チャートに相当する。図3に示したように、チャート9は、複数の第1マーカ910と、複数の第2マーカ920と、ベース930と、を備える。なお、以下では、第1マーカ910及び第2マーカ920を、特に区別しない場合には、単にマーカとも称する。また、複数の第1マーカ910のうちの特定の第1マーカ910を他と区別する場合には、符号の末尾にアルファベットを付与して称する。また、複数の第2マーカ920のうちの特定の第2マーカ920を他と区別する場合には、符号の末尾にアルファベットを付与して称する。
 第1マーカ910は、第1の温度を有する。第1マーカ910は、図3に示したように、ベース930に配設される。図3では、第1マーカ910は、略円形状のハッチングが付された部分によって示されている。なお、第1マーカ910の形状は特に限定されず、略円形状、略楕円状、略多角形状等の形状であってもよい。
 第2マーカ920は、第2の温度を有する。第2マーカ920は、図3に示したように、ベース930に配設される。図3では、第2マーカ920は、略円形状のハッチングが付されていない部分によって示されている。なお、第2マーカ920の形状は特に限定されず、略円形状、略楕円状、略多角形状等の形状であってもよい。
 ベース930において、第1マーカ910及び第2マーカ920は互いに間隔を空けて配設される。第1マーカ910及び第2マーカ920は、例えば、格子状に配設される。具体的には、第1マーカ910及び第2マーカ920は、図3に示したように、互いに直交する方向にそれぞれ6個及び10個配設され、合計で60個設けられてもよい。第2マーカ920は、第1マーカ910を囲むように第1マーカ910より外側に配設されてもよい。また、第1マーカ910は、矩形状に配設されてもよい。例えば、第1マーカ910は、互いに直交する方向にそれぞれ2個配設され合計で4個設けられ、第2マーカ920は、合計で56個設けられてもよい。
 ベース930は第3温度を有する。第1マーカ910及び第2マーカ920は、上述したように、ベース930に配設される。例えば、ベース930は、略矩形状であってもよい。なお、ベース930の形状は特に限定されず、略円形状、略楕円状、略多角形状等の形状であってもよい。ベース930は、例えば、平板形状を有する。
 第1マーカ910、第2マーカ920、及びベース930は、上述したように、互いに異なる温度を有する。それにより、遠赤外カメラ102による撮像によって得られるチャート9を映した遠赤外画像において、第1マーカ910及び第2マーカ920が映るそれぞれの領域を他の領域と区別して抽出することができる。第1マーカ910、第2マーカ920、及びベース930の間の温度差は、第1マーカ910、第2マーカ920、及びベース930の各温度を調整可能な温調機構H9によって実現される。
 温調機構H9は、例えば、図4に示したように、バッテリ950と、第1抵抗体941と、第2抵抗体942と、を含む。具体的には、第1抵抗体941及び第2抵抗体942は、バッテリ950に対して互いに並列に接続される。また、第1抵抗体941及び第2抵抗体942は、それぞれ第1マーカ910及び第2マーカ920と近接して設けられる。第1抵抗体941及び第2抵抗体942は、バッテリ950から電力が供給されることにより、抵抗加熱を利用して発熱する。それにより、第1抵抗体941及び第2抵抗体942の近傍にそれぞれ位置する第1マーカ910及び第2マーカ920が加熱される。
 第1抵抗体941の抵抗は、第2抵抗体942と比較して低い。ここで、第1抵抗体941及び第2抵抗体942に印加される電圧は略一致するので、バッテリ950と接続される抵抗体の抵抗が低いほど、当該抵抗体による発熱量は大きい。ゆえに、第1抵抗体941による発熱量は、第2抵抗体942と比較して大きい。よって、第1マーカ910の温度である第1温度は、第2マーカ920の温度である第2温度と比較して高くなる。また、ベース930の近傍には抵抗体が設けられないので、ベース930の温度である第3温度は、第1温度及び第2温度と比較して低くなる。
 なお、温調機構H9は、第1マーカ910、第2マーカ920、及びベース930の各温度を調整可能であればよく、上述した例に限定されない。また、温調機構H9は、第1マーカ910、第2マーカ920、及びベース930の各温度の検出値が目標温度としての第1温度、第2温度及び第3温度に近づくように当該各温度を調整可能であってもよい。
 本実施形態に係るチャート9では、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて決定可能である。上記幾何学的関係は、換言すると、複数の第1マーカ910の各々の間の相対的な位置関係である。例えば、チャート9では、ある第1マーカ910に対する他の第1マーカ910の各々についての相対的な位置に基づいて、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置が決定可能である。
 具体的には、ベース930において、複数の第1マーカ910は3個以上配設される。それにより、ある第1マーカ910に対する他の第1マーカ910の各々についての相対的な位置を示すベクトルが互いに1次独立となり得る。ゆえに、各マーカが含まれる平面上の位置を、互いに1次独立の上記のベクトルのペアによって表現することができる。よって、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置を、互いに1次独立の上記のベクトルのペアによって表現することができる。それにより、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置を、複数の第1マーカ910の各々の間の幾何学的関係に基づいて精度良く決定することができる。
 なお、チャート9における第1マーカ910及び第2マーカ920の個数及び配置は、図3に示した例に限定されない。
 図5では、図3に示した例と異なる他の例に係るチャート9aが示されている。チャート9aでは、図5に示したように、第1マーカ910及び第2マーカ920は、格子状に配設されている。具体的には、第1マーカ910及び第2マーカ920は、互いに直交する方向にそれぞれ7個及び11個配設され、合計で77個設けられている。第2マーカ920は、第1マーカ910を囲むように第1マーカ910より外側に配設されている。また、第1マーカ910は、図5に示したように、十字状に配設されてもよい。例えば、第1マーカ910は、互いに直交する方向にそれぞれ3個配設され合計で5個設けられ、第2マーカ920は、合計で72個設けられてもよい。
 また図6では、図3及び図5に示した例と異なる他の例に係るチャート9bが示されている。チャート9bでは、図6に示したように、第1マーカ910及び第2マーカ920は、格子状に配設されている。具体的には、第1マーカ910及び第2マーカ920は、互いに直交する方向にそれぞれ7個及び11個配設され、合計で77個設けられている。第2マーカ920は、第1マーカ910を囲むように第1マーカ910より外側に配設されている。また、第1マーカ910は、図6に示したように、L字状に配設されてもよい。例えば、第1マーカ910は、互いに直交する方向にそれぞれ2個配設され合計で3個設けられ、第2マーカ920は、合計で74個設けられてもよい。
 なお、第1マーカ910、第2マーカ920、及びベース930は、可視光域において互いに異なる分光反射特性を有してもよい。それにより、後述するように、可視光カメラによる撮像によって得られるチャート9を映した可視光画像において第1マーカ910及び第2マーカ920が映るそれぞれの領域を、他の領域と区別して抽出することができる。ゆえに、可視光カメラを利用することによって、遠赤外カメラ102と可視光カメラとの間でのキャリブレーションを同一のチャート9を用いて行うことができる。このような遠赤外カメラ102と可視光カメラとの間でのキャリブレーションについては、後述する第1の応用例において詳細に説明する。
 また、第1マーカ910、第2マーカ920、及びベース930は、近赤外域において互いに異なる分光反射特性を有してもよい。それにより、後述するように、近赤外カメラによる撮像によって得られるチャート9を映した近赤外画像において第1マーカ910及び第2マーカ920が映るそれぞれの領域を、他の領域と区別して抽出することができる。ゆえに、近赤外カメラを利用することによって、遠赤外カメラ102と近赤外カメラとの間でのキャリブレーションを同一のチャート9を用いて行うことができる。このような遠赤外カメラ102と近赤外カメラとの間でのキャリブレーションについては、後述する第2の応用例において詳細に説明する。
 画像処理装置1は、上述したように、チャート9を映した遠赤外画像を用いて遠赤外カメラ102のキャリブレーションを実行する。具体的には、画像処理装置1は、チャート9上の各マーカの当該遠赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。換言すると、画像処理装置1は、チャート9上の各マーカの当該遠赤外画像における位置に基づいて、遠赤外カメラ102のカメラパラメータを決定する。カメラパラメータは、具体的には、内部パラメータA及び外部パラメータ[R|T]を含む。
 ここで、カメラのキャリブレーションの概要について説明する。まず、画像上の二次元座標(x,y)と実空間上の三次元座標(X,Y,Z)との関係性は、以下の式(1)によって表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、Aは内部パラメータであり、焦点距離、画像中心、及びレンズ歪の程度を示す。内部パラメータAは、例えば、以下の式(2)によって表される。
Figure JPOXMLDOC01-appb-M000002
 式(2)において、fx及びfyはピクセル単位で表される焦点距離であり、cx及びcyは画像中心であり、sはレンズ歪の程度に相当するスキュー比である。
 また、式(1)において、[R|T]は外部パラメータであり、カメラの姿勢及び位置を示す。外部パラメータ[R|T]は、例えば、以下の式(3)によって表される。
Figure JPOXMLDOC01-appb-M000003
 式(3)に示すように、Rは3×3行列であり、カメラの姿勢を表す回転成分である。また、Tは3×1行列であり、カメラの位置を表す並進成分である。
 キャリブレーションシステム10では、具体的には、チャート9の姿勢及び位置を変更させつつ、遠赤外カメラ102によって複数回撮像を行い、得られた遠赤外画像の各々における各マーカの位置に基づいて、内部パラメータA又は外部パラメータ[R|T]を決定する。より具体的には、複数回の撮像によって得られた複数の遠赤外画像の各々について、遠赤外画像における各マーカの位置を式(1)中の二次元座標(x,y)に代入することによって、複数の方程式が得られる。画像処理装置1は、得られた複数の方程式を最適化問題として解くことによって、内部パラメータA又は外部パラメータ[R|T]を決定することができる。
 このように、遠赤外カメラ102のキャリブレーションでは、遠赤外画像における各マーカの位置を特定する必要がある。ここで、本実施形態に係る画像処理装置1によれば、チャート9を映した遠赤外画像において一部のマーカが映っていない場合であっても、遠赤外画像における各マーカの位置を特定することができるので、遠赤外カメラ102のキャリブレーションの精度を向上させることができる。このような画像処理装置1の詳細については、後述する。
 <3.画像処理装置>
 続いて、図7~図17を参照して、本実施形態に係る画像処理装置1について説明する。
  [3-1.ハードウェア構成]
 まず、図7~図15を参照して、本実施形態に係る画像処理装置1のハードウェア構成について説明する。
 図7は、本実施形態に係る画像処理装置1のハードウェア構成の一例を示すブロック図である。画像処理装置1は、例えば、図7に示したように、遠赤外カメラ102と、入力インタフェース104と、メモリ106と、ディスプレイ108と、通信インタフェース110と、ストレージ112と、プロセッサ114と、バス116と、を備える。
   (遠赤外カメラ)
 遠赤外カメラ102は、遠赤外線を利用した撮像を行い、遠赤外画像を得る撮像モジュールである。遠赤外カメラ102は、具体的には、FIR領域に属する波長を有する遠赤外線を感知する撮像素子の配列を有する。遠赤外カメラ102は、例えば、一定の時間間隔で遠赤外画像を撮像する。また、遠赤外カメラ102により得られる一連の遠赤外画像は、映像を構成してもよい。
   (入力インタフェース)
 入力インタフェース104は、ユーザが画像処理装置1を操作し又は画像処理装置1へ情報を入力するために使用される。例えば、入力インタフェース104は、タッチセンサ、キーボード、キーパッド、ボタン、又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース104は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。また、入力インタフェース104は、ユーザにより選択される命令をリモートデバイスから受信する遠隔制御モジュールを含んでもよい。
   (メモリ)
 メモリ106は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み得る記憶媒体である。メモリ106は、プロセッサ114に連結され、プロセッサ114により実行される処理のためのプログラム及びデータを記憶する。
   (ディスプレイ)
 ディスプレイ108は、画像を表示する画面を有する表示モジュールである。例えば、ディスプレイ108は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)、又はCRT(Cathode Ray Tube)などであってもよい。
   (通信インタフェース)
 通信インタフェース110は、画像処理装置1と他の装置との間の通信を仲介するモジュールである。通信インタフェース110は、任意の無線通信プロトコル又は有線通信プロトコルに従って、通信接続を確立する。
   (ストレージ)
 ストレージ112は、画像データを蓄積し又は画像処理において利用されるデータベースを記憶する記憶デバイスである。ストレージ112は、半導体メモリ又はハードディスクなどの記憶媒体を内蔵する。なお、本明細書で説明するプログラム及びデータは、画像処理装置1の外部のデータソース(例えば、データサーバ、ネットワークストレージ、又は外付けメモリなど)から取得されてもよい。
   (プロセッサ)
 プロセッサ114は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などの処理モジュールである。プロセッサ114は、メモリ106又は他の記憶媒体に記憶されるプログラムを実行することにより、遠赤外カメラ102のキャリブレーションの精度を向上させることを可能とするための機能を動作させる。
   (バス)
 バス116は、遠赤外カメラ102、入力インタフェース104、メモリ106、ディスプレイ108、通信インタフェース110、ストレージ112、及びプロセッサ114を相互に接続する。
  [3-2.機能構成]
 続いて、図8を参照して、本実施形態に係る画像処理装置1の機能構成について説明する。
 図8は、図7に示した画像処理装置1の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。画像処理装置1は、例えば、図8に示したように、遠赤外取得部120と、遠赤外抽出部130と、遠赤外特定部140と、遠赤外キャリブレーション部150と、遠赤外記憶部160と、を備える。
   (遠赤外記憶部)
 遠赤外記憶部160は、画像処理装置1が行う各処理において参照されるデータを記憶する。例えば、遠赤外記憶部160は、第1抽出部131及び第2抽出部133の各々が行う二値化処理において用いられる閾値を示す情報を記憶する。また、遠赤外記憶部160は、各機能部が行う各処理によって得られる処理結果を記憶してもよい。各機能部は、遠赤外記憶部160から各処理についての処理結果を取得し得る。また、遠赤外記憶部160は、遠赤外カメラ102によって撮像された遠赤外画像を記憶してもよい。各機能部は、遠赤外記憶部160から遠赤外カメラ102によって撮像された遠赤外画像を取得し得る。
   (遠赤外取得部)
 遠赤外取得部120は、遠赤外画像を取得する。具体的には、遠赤外取得部120は、遠赤外カメラ102により撮像されチャート9を映した遠赤外画像を取得する。また、遠赤外取得部120は、取得した遠赤外画像を遠赤外抽出部130及び遠赤外特定部140へ出力する。例えば、遠赤外取得部120は、遠赤外カメラ102から直接的に遠赤外画像を取得してもよい。また、遠赤外取得部120は、遠赤外カメラ102そのものであってもよい。また、遠赤外取得部120は、遠赤外記憶部160に記憶されている遠赤外画像を取得してもよい。遠赤外取得部120により取得される遠赤外画像は、信号の増幅及びノイズ除去などの予備的な処理を経た画像であってもよい。
 図9は、遠赤外取得部120により取得される遠赤外画像の一例を示す説明図である。図9に示したように、当該遠赤外画像には、チャート9が映っている。当該遠赤外画像では、全ての第1マーカ910が映っている一方で、一部の第2マーカ920は映っていない。また、当該遠赤外画像には、チャート9の背景として、人801及び物体802が映っている。ここで、図9~図15に示した画像において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。
   (遠赤外抽出部)
 遠赤外抽出部130は、遠赤外取得部120により取得された遠赤外画像から特定の物体が映る領域を、他の領域と区別して抽出する。また、遠赤外抽出部130は、抽出結果を遠赤外特定部140へ出力する。遠赤外抽出部130は、例えば、図8に示したように、第1抽出部131と、第2抽出部133と、を含む。
 第1抽出部131は、遠赤外画像から第1温度を有する複数の第1マーカ910を抽出する。具体的には、第1抽出部131は、遠赤外取得部120により取得された遠赤外画像から複数の第1マーカ910を抽出し、抽出結果を遠赤外特定部140へ出力する。第1抽出部131は、例えば、遠赤外画像に対して2値化処理を施すことによって、複数の第1マーカ910を抽出する。具体的には、第1抽出部131は、遠赤外画像において第1閾値より低い画素値を有する画素に対して比較的低い値の第1画素値を割り当て、遠赤外画像において第1閾値以上の画素値を有する画素に対して比較的高い値の第2画素値を割り当てる。ここで、第1閾値は、第1マーカ910が有する第1温度より低く、かつ、第2マーカ920が有する第2温度より高い温度に対応する画素値に設定される。それにより、各第1マーカ910が映る領域に第2画素値が割り当てられることによって、複数の第1マーカ910の抽出が実現され得る。
 図10は、第1マーカ910の抽出処理において得られる2値化画像の一例を示す説明図である。第1抽出部131は、例えば、図9に示した遠赤外画像に対して2値化処理を施す。図9に示したように、当該遠赤外画像において、第1マーカ910が映る領域を除く領域は、第2温度以下の温度に対応する画素値を有する。ゆえに、第1マーカ910が映る領域を除く領域の各画素は第1閾値より低い画素値を有するので、第1抽出部131は、当該領域の各画素に対して比較的低い値の第1画素値を割り当てる。一方、第1マーカ910が映る領域の各画素は第1閾値以上の画素値を有するので、第1抽出部131は、当該領域の各画素に対して比較的高い値の第2画素値を割り当てる。それにより、複数の第1マーカ910の抽出が実現され、図10に示した2値化画像が抽出結果として出力される。
 第2抽出部133は、遠赤外画像から複数の第2マーカ920の各々の候補である第2マーカ候補を抽出する。具体的には、第2抽出部133は、遠赤外取得部120により取得された遠赤外画像から第2マーカ候補を抽出し、抽出結果を遠赤外特定部140へ出力する。第2抽出部133は、例えば、遠赤外画像に対して2値化処理を施すことによって、第2マーカ候補を抽出する。具体的には、第2抽出部133は、遠赤外画像において第2閾値より低い画素値を有する画素に対して比較的低い値の第1画素値を割り当て、遠赤外画像において第2閾値以上の画素値を有する画素に対して比較的高い値の第2画素値を割り当てる。ここで、第2閾値は、第2マーカ920が有する第2温度より低く、かつ、ベース930が有する第3温度より高い温度に対応する画素値に設定される。それにより、遠赤外画像において少なくとも第2マーカ920が映る領域に第2画素値が割り当てられることによって、第2マーカ候補の抽出が実現され得る。
 図11は、第2マーカ候補820の抽出処理において得られる2値化画像の一例を示す説明図である。第2抽出部133は、例えば、図9に示した遠赤外画像に対して2値化処理を施す。図9に示したように、当該遠赤外画像において、第1マーカ910、第2マーカ920、及び物体802の高温部802pが映る領域を除く領域は、第3温度以下の温度に対応する画素値を有する。ゆえに、第1マーカ910、第2マーカ920、及び物体802の高温部802pが映る領域を除く領域の各画素は第2閾値より低い画素値を有するので、第2抽出部133は、当該領域の各画素に対して比較的低い値の第1画素値を割り当てる。一方、第1マーカ910、第2マーカ920、及び物体802の高温部802pが映る領域の各画素は第2閾値以上の画素値を有するので、第2抽出部133は、当該領域の各画素に対して比較的高い値の第2画素値を割り当てる。それにより、第2マーカ候補820の抽出が実現され、図11に示した2値化画像が抽出結果として出力される。
   (遠赤外特定部)
 遠赤外特定部140は、各マーカの遠赤外画像における位置を特定する。また、遠赤外特定部140は、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150へ出力する。本実施形態では、遠赤外特定部140は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の遠赤外画像における位置を特定する。遠赤外特定部140は、例えば、図8に示したように、第1生成部141と、第1推定部143と、第1中心特定部145と、を含む。なお、第1生成部141、第1推定部143、及び第1中心特定部145は、本開示に係る生成部、推定部、及び中心特定部にそれぞれ相当する。
 第1生成部141は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、遠赤外画像において第2マーカ920の位置の候補を示す情報である候補情報を生成する。また、第1生成部141は、生成した候補情報を第1推定部143へ出力する。
 図12は、生成された候補情報の一例を示す説明図である。第1生成部141は、例えば、図10に示した2値化画像を用いて、候補情報を生成する。第1生成部141は、実空間において第2マーカ920を通る直線と対応する遠赤外画像における直線を、候補情報として生成してもよい。具体的には、第1生成部141は、互いに隣接する第1マーカ910を通る遠赤外画像における直線を、候補情報として生成する。ここで、チャート9では、上述したように、第1マーカ910及び第2マーカ920が格子状に配設されている。ゆえに、実空間では、互いに隣接する第1マーカ910を通る直線上に第2マーカ920が位置する。よって、遠赤外画像において、第1生成部141によって生成される直線上に第2マーカ920が位置し得る。
 具体的には、第1生成部141は、互いに隣接する第1マーカ910a,910bを通る遠赤外画像における直線811aを、候補情報として生成する。また、第1生成部141は、互いに隣接する第1マーカ910c,910dを通る遠赤外画像における直線811bを、候補情報として生成する。また、第1生成部141は、互いに隣接する第1マーカ910a,910cを通る遠赤外画像における直線812aを、候補情報として生成する。また、第1生成部141は、互いに隣接する第1マーカ910b,910dを通る遠赤外画像における直線812bを、候補情報として生成する。直線811aと直線811bとは、実空間において互いに平行であり、直線811cと直線811dとは、実空間において互いに平行である。また、直線811a及び直線811bと直線812c及び直線812dとは、実空間において互いに直交する。
 なお、第1生成部141によって生成される候補情報は、図12に示した例に限定されない。例えば、第1生成部141は、互いに対角線方向に並設される第1マーカ910a,910dを通る遠赤外画像における直線を、候補情報として生成してもよい。また、候補情報は、直線でなくともよく、幅を有する領域であってもよい。
 第1推定部143は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第2抽出部133により抽出された第2マーカ候補820と複数の第2マーカ920の各々との対応関係を推定する。換言すると、第1推定部143は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第2マーカ候補820がいずれの第2マーカ920であるかを推定する。また、第1推定部143は、推定した上記対応関係を示す情報を第1中心特定部145へ出力する。
 このように、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、上記対応関係を推定することによって、上記対応関係を精度良く推定することができる。それにより、複数の第2マーカ920の各々の遠赤外画像における位置を精度良く特定することができる。
 第1推定部143は、具体的には、第1生成部141により生成された候補情報に基づいて、上記対応関係を推定する。より具体的には、第1推定部143は、第2マーカ候補820の各々が第2マーカ920のいずれかに該当するか否かを、候補情報に基づいて判定する。そして、第1推定部143は、第2マーカ920のいずれかに該当すると判定した第2マーカ候補820と複数の第2マーカ920の各々との対応関係を、候補情報に基づいて推定する。
 図13及び図14は、第2マーカ候補820と複数の第2マーカ920の各々との対応関係の推定処理について説明するための説明図である。第1推定部143は、例えば、図11に示した2値化画像を用いて、上記対応関係を推定する。
 第1推定部143は、例えば、図13に示したように、図11に示した2値化画像において第1生成部141によって生成された直線811a,811b,812a,812bの各直線上に位置する第2マーカ候補820は第2マーカ920のいずれかに該当すると判定する。ここで、第1推定部143は、第1抽出部131により抽出された第1マーカ910と対応する第2マーカ候補820は第2マーカ920のいずれにも該当しないと判定してもよい。第1推定部143は、例えば、第2マーカ候補820及び第1マーカ910のそれぞれの遠赤外画像における位置及び寸法を示す情報に基づいて、各第2マーカ候補820が第1マーカ910のいずれかと対応するか否かを判定し得る。
 そして、第1推定部143は、例えば、第1生成部141によって生成された各直線上に位置する第2マーカ候補820と複数の第2マーカ920の各々との対応関係を、当該第2マーカ候補820が位置する直線及び当該直線上における複数の第1マーカ910との位置関係に基づいて、推定する。例えば、第1推定部143は、直線812b上において第1マーカ910bに対して隣接する第2マーカ候補820aが実空間において第1マーカ910bに対して第1マーカ910dと逆側に隣接する第2マーカ920であると推定する。また、第1推定部143は、直線812b上において第2マーカ候補820aに対して隣接する第2マーカ候補820bが実空間において第2マーカ候補820aと対応する第2マーカ920に対して第1マーカ910bと逆側に隣接する第2マーカ920であると推定する。
 また、第1推定部143は、例えば、第2マーカ920のいずれかに該当すると判定された互いに隣接する第2マーカ候補820を通る直線を、追加的な候補情報として生成する。チャート9では、上述したように、第1マーカ910及び第2マーカ920が格子状に配設されている。ゆえに、実空間では、互いに隣接する第2マーカ920を通る直線上に他の第2マーカ920が位置する。よって、遠赤外画像において、第1推定部143によって追加的に生成される直線上に第2マーカ920が位置し得る。例えば、第1推定部143は、図14に示したように、直線812a上の第2マーカ候補820及び当該第2マーカ候補820と隣接する直線812b上の第2マーカ候補820を通る直線811c~811iを追加的に生成する。また、第1推定部143は、直線811a上の第2マーカ候補820及び当該第2マーカ候補820と隣接する直線811b上の第2マーカ候補820を通る直線812c~812fを追加的に生成する。
 また、第1推定部143は、例えば、追加的に生成した各直線上に位置する第2マーカ候補820は第2マーカ920のいずれかに該当すると判定する。そして、第1推定部143は、追加的に生成した各直線上に位置する第2マーカ候補820と複数の第2マーカ920の各々との対応関係を、例えば、当該第2マーカ候補820が位置する直線及び当該直線上における他の第2マーカ候補820との位置関係に基づいて、推定する。例えば、図14に示したように、第2マーカ候補820dが、第1マーカ910bと隣接する第2マーカ候補820a及び第1マーカ910aと隣接する第2マーカ候補820cを通る直線811f上に位置し、第2マーカ候補820aに対して第2マーカ候補820cと逆側に隣接する場合について考える。この場合、第1推定部143は、第2マーカ候補820dが実空間において第2マーカ候補820aと対応する第2マーカ920に対して第2マーカ候補820cと対応する第2マーカ920と逆側に隣接する第2マーカ920であると推定する。
 このように、第1推定部143は、第2マーカ920のいずれかに該当すると判定した第2マーカ候補820がいずれの第2マーカ920であるかを推定する。なお、第1推定部143は、第1生成部141又は第1推定部143によって生成された各直線上に位置しない第2マーカ候補820は第2マーカ920のいずれにも該当しないと判定してもよい。例えば、図14に示したように、図9に示した物体802の高温部802pに対応する第2マーカ候補820pは、直線811a~811i及び直線812a~812fのいずれの直線上にも位置しない。このような場合に、第1推定部143は、第2マーカ候補820pは第2マーカ920のいずれにも該当しないと判定してもよい。また、第1推定部143は、抽出された第2マーカ候補820の各々の間の幾何学的関係に基づいて、第2マーカ候補820pが第2マーカ920のいずれにも該当しないと判定してもよい。具体的には、第1推定部143は、第2マーカ候補820pの他の第2マーカ候補820に対する位置関係が、遠赤外画像における各第2マーカ920の他の第2マーカ920に対する位置関係として想定され得る関係と対応しない場合に、第2マーカ候補820pが第2マーカ920のいずれにも該当しないと判定してもよい。また、第1推定部143は、第2マーカ候補820pの寸法又は形状に基づいて、第2マーカ候補820pが第2マーカ920のいずれにも該当しないと判定してもよい。
 第1中心特定部145は、第2マーカ候補820の中心位置を、第1推定部143により推定された対応関係によって対応付けられる第2マーカ920の遠赤外画像における位置として特定する。また、第1中心特定部145は、第1抽出部131によって抽出された第1マーカ910の中心位置を、第1マーカ910の遠赤外画像における位置として特定する。第1中心特定部145は、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150へ出力する。
 このように、第2マーカ候補820の中心位置を、第1推定部143により推定された対応関係によって対応付けられる第2マーカ920の遠赤外画像における位置として特定することによって、複数の第2マーカ920の各々の遠赤外画像における位置をより精度良く特定することができる。また、第1抽出部131によって抽出された第1マーカ910の中心位置を、第1マーカ910の遠赤外画像における位置として特定することによって、複数の第1マーカ910の各々の遠赤外画像における位置をより精度良く特定することができる。
 図15は、中心特定処理について説明するための説明図である。第1中心特定部145は、例えば、図9に示した遠赤外画像を用いて、各マーカの中心位置を特定する。具体的には、第1中心特定部145は、第2マーカ920のいずれかに該当すると判定された第2マーカ候補820に相当する第2マーカ920が遠赤外画像において映る領域の中心921の位置を、当該第2マーカ920の遠赤外画像における位置として特定する。第1中心特定部145は、当該領域について楕円フィッティング等の画像処理を施すことによって、当該領域の中心921の位置を特定し得る。また、第1中心特定部145は、抽出された第1マーカ910が遠赤外画像において映る領域の中心911の位置を、当該第1マーカ910の遠赤外画像における位置として特定する。第1中心特定部145は、当該領域について楕円フィッティング等の画像処理を施すことによって、当該領域の中心911の位置を特定し得る。
 なお、第1中心特定部145は、図10及び図11に示した2値化画像を用いて、各マーカの中心位置を特定してもよい。具体的には、第1中心特定部145は、第2抽出部133により出力される2値化画像において第2マーカ候補820が映る領域の中心の位置を、第1推定部143により推定された対応関係によって対応付けられる第2マーカ920の遠赤外画像における位置として特定してもよい。また、第1中心特定部145は、第1抽出部131により出力される2値化画像において第1マーカ910が映る領域の中心の位置を、当該第1マーカ910の遠赤外画像における位置として特定してもよい。
   (遠赤外キャリブレーション部)
 遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置に基づいて、遠赤外画像を撮像する遠赤外カメラ102のキャリブレーションを実行する。具体的には、遠赤外キャリブレーション部150は、複数の第2マーカ920の各々の遠赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。より具体的には、遠赤外キャリブレーション部150は、複数の第1マーカ910の各々及び複数の第2マーカ920の各々の双方の遠赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行してもよい。
 具体的には、遠赤外キャリブレーション部150は、上述したように、遠赤外画像における各マーカの位置を式(1)中の二次元座標(x,y)に代入し、得られた複数の方程式を最適化問題として解くことによって、遠赤外カメラ102のカメラパラメータを決定する。具体的には、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置に基づいて、遠赤外カメラ102の内部パラメータAを決定する。
 遠赤外キャリブレーション部150は、決定した遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へ出力する。遠赤外カメラ102のカメラパラメータを示す情報が入力される外部の装置は、当該情報に基づいて、各種画像処理を行う。例えば、当該外部の装置は、当該情報に基づいて、得られる遠赤外画像におけるカメラ歪を低減する処理を行うことができる。なお、遠赤外キャリブレーション部150は、決定した遠赤外カメラ102のカメラパラメータを示す情報を遠赤外記憶部160へ記憶させてもよい。
 以上説明したように、本実施形態に係る画像処理装置1によれば、遠赤外特定部140は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の遠赤外画像における位置を特定する。それにより、チャート9を映した遠赤外画像において第2マーカ920の一部が映っていない場合であっても、遠赤外画像における各マーカの位置を特定することができる。ゆえに、端部にマーカが映る遠赤外画像についても、当該遠赤外画像における各マーカの位置を特定することができる。よって、遠赤外カメラ102のキャリブレーションに用いられる情報を十分に確保することができる。従って、遠赤外カメラ102のキャリブレーションの精度を向上させることができる。
 また、本実施形態に係る画像処理装置1は、上述したように、遠赤外特定部140によって特定された複数の第2マーカ920の各々の遠赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。それにより、遠赤外カメラ102のキャリブレーションとして精度良いキャリブレーションを実行することが実現される。
 また、本実施形態に係るチャート9によれば、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて決定可能である。それにより、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の遠赤外画像における位置を特定することが可能となる。ゆえに、チャート9を映した遠赤外画像において第2マーカ920の一部が映っていない場合であっても、遠赤外画像における各マーカの位置を特定することができるので、遠赤外カメラ102のキャリブレーションの精度を向上させることができる。
  [3-3.動作]
 続いて、図16及び図17を参照して、本実施形態に係る画像処理装置1が行う処理の流れについて説明する。
 図16は、本実施形態に係る画像処理装置1が行う処理の流れの一例を示すフローチャートである。
 図16に示したように、まず、遠赤外取得部120は、チャート9を映した遠赤外画像を取得し(ステップS501)、取得した遠赤外画像を遠赤外抽出部130及び遠赤外特定部140へ出力する。そして、第1抽出部131は、取得された遠赤外画像から複数の第1マーカ910を抽出し(ステップS503)、抽出結果を遠赤外特定部140へ出力する。そして、第2抽出部133は、取得された遠赤外画像から第2マーカ候補820を抽出し(ステップS505)、抽出結果を遠赤外特定部140へ出力する。
 次に、遠赤外特定部140は、各マーカの遠赤外画像における位置を特定し(ステップS550)、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150へ出力する。そして、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置に基づいて、遠赤外画像を撮像する遠赤外カメラ102のキャリブレーションを実行し(ステップS507)、決定した遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へ出力する。そして、図16に示した処理は終了する。
 図17は、本実施形態に係る画像処理装置1が行う位置特定処理の流れの一例を示すフローチャートである。当該位置特定処理は、図16に示したフローチャートにおけるステップS550の処理に相当する。
 図17に示したように、ステップS550において、まず、第1生成部141は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、遠赤外画像において第2マーカ920の位置の候補を示す情報である候補情報を生成し(ステップS551)、生成した候補情報を第1推定部143へ出力する。そして、第1推定部143は、生成された候補情報に基づいて、第2抽出部133により抽出された第2マーカ候補820と複数の第2マーカ920の各々との対応関係を推定し(ステップS553)、推定した当該対応関係を示す情報を第1中心特定部145へ出力する。そして、第1中心特定部145は、第1マーカ910及び第2マーカ候補820の中心位置を、各マーカの遠赤外画像における位置として特定し(ステップS555)、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150へ出力する。そして、図17に示した処理は終了する。
 <4.応用例>
 続いて、図18~図25を参照して、各種応用例について説明する。
  [4-1.第1の応用例]
 まず、図18~図21を参照して、第1の応用例に係る画像処理装置2について説明する。第1の応用例では、図2~図17を参照して説明した実施形態と比較して、主に画像処理装置2の構成が異なる。ゆえに、以下では、第1の応用例に係る画像処理装置2について、主に説明する。
 図18は、第1の応用例に係る画像処理装置2のハードウェア構成の一例を示すブロック図である。図18に示したように、第1の応用例に係る画像処理装置2は、上述した画像処理装置1と異なり、可視光カメラ202をさらに備える。
 可視光カメラ202は、可視光線を利用した撮像を行い、可視光画像を得る撮像モジュールである。可視光カメラ202は、具体的には、互いに異なる波長の可視光線を感知する撮像素子の配列を有する。例えば、可視光カメラ202は、赤色域、緑色域及び青色域にそれぞれ感度域を持つ撮像素子の配列を有してもよい。可視光カメラ202は例えば、一定の時間間隔で可視光画像を撮像する。また、可視光カメラ202により得られる一連の可視光画像は、映像を構成してもよい。
 チャート9では、上述したように、第1マーカ910、第2マーカ920、及びベース930は、可視光域において互いに異なる分光反射特性を有し得る。例えば、第1マーカ910は第1色を有し、第2マーカ920は第2色を有しベース930は第3色を有する。なお、第1色、第2色、第3色は、互いに分光分布が異なればよい。例えば、第1色、第2色、第3色は、色相、彩度、又は明度の少なくとも1つについて互いに異なればよい。それにより、可視光カメラ202による撮像によって得られるチャート9を映した可視光画像において第1マーカ910及び第2マーカ920が映るそれぞれの領域を、他の領域と区別して抽出することができる。
 なお、第1マーカ910、第2マーカ920、及びベース930は、互いに異なる形状を有してもよい。その場合には、テンプレートマッチング等の画像処理を利用することにより、チャート9を映した可視光画像において第1マーカ910及び第2マーカ920が映るそれぞれの領域を、他の領域と区別して抽出することができる。
 図19は、図18に示した画像処理装置2の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図19に示したように、第1の応用例に係る画像処理装置2は、上述した画像処理装置1と異なり可視光取得部220と、可視光抽出部230と、可視光特定部240と、可視光キャリブレーション部250と、可視光記憶部260と、をさらに備える。
 可視光記憶部260は、画像処理装置2が行う各処理において参照されるデータを記憶する。具体的には、可視光記憶部260は、可視光取得部220、可視光抽出部230、可視光特定部240、及び可視光キャリブレーション部250の各機能部が行う各処理において用いられる情報を記憶する。また、可視光記憶部260は、当該各機能部が行う各処理によって得られる処理結果を記憶してもよい。各機能部は、可視光記憶部260から各処理についての処理結果を取得し得る。また、可視光記憶部260は、可視光カメラ202によって撮像された可視光画像を記憶してもよい。各機能部は、可視光記憶部260から可視光カメラ202によって撮像された可視光画像を取得し得る。
 可視光取得部220は、可視光画像を取得する。具体的には、可視光取得部220は、可視光カメラ202により撮像されチャート9を映した可視光画像を取得する。また、可視光取得部220は、取得した可視光画像を可視光抽出部230及び可視光特定部240へ出力する。例えば、可視光取得部220は、可視光カメラ202から直接的に可視光画像を取得してもよい。また、可視光取得部220は、可視光カメラ202そのものであってもよい。また、可視光取得部220は、可視光記憶部260に記憶されている可視光画像を取得してもよい。可視光取得部220により取得される可視光画像は、信号の増幅及びノイズ除去などの予備的な処理を経た画像であってもよい。
 可視光抽出部230は、可視光取得部220により取得された可視光画像から特定の物体が映る領域を、他の領域と区別して抽出する。また、可視光抽出部230は、抽出結果を可視光特定部240へ出力する。可視光抽出部230は、例えば、図19に示したように、第3抽出部231と、第4抽出部233と、を含む。
 第3抽出部231は、可視光画像から複数の第1マーカ910を抽出する。具体的には、第3抽出部231は、可視光取得部220により取得された可視光画像から複数の第1マーカ910を抽出し、抽出結果を可視光特定部240へ出力する。第3抽出部231は、例えば、可視光画像に対して2値化処理を施すことによって、複数の第1マーカ910を抽出する。具体的には、第3抽出部231は、第1マーカ910、第2マーカ920、及びベース930の分光反射特性の関係性に基づいて、可視光画像において第1色と対応する画素値を有する画素に対して比較的高い値の第2画素値を割り当て、他の画素に対して比較的低い値の第1画素値を割り当てる。それにより、各第1マーカ910が映る領域に第2画素値が割り当てられることによって、複数の第1マーカ910の抽出が実現され得る。
 第4抽出部233は、可視光画像から複数の第2マーカ920の各々の候補である第2マーカ候補を抽出する。具体的には、第4抽出部233は、可視光取得部220により取得された可視光画像から第2マーカ候補を抽出し、抽出結果を可視光特定部240へ出力する。第4抽出部233は、例えば、可視光画像に対して2値化処理を施すことによって、第2マーカ候補を抽出する。具体的には、第4抽出部233は、第1マーカ910、第2マーカ920、及びベース930の分光反射特性の関係性に基づいて、可視光画像において第1色又は第2色と対応する画素値を有する画素に対して比較的高い値の第2画素値を割り当て、他の画素に対して比較的低い値の第1画素値を割り当てる。それにより、可視光画像において少なくとも第2マーカ920が映る領域に第2画素値が割り当てられることによって、第2マーカ候補の抽出が実現され得る。
 可視光特定部240は、各マーカの可視光画像における位置を特定する。また、可視光特定部240は、特定した各マーカの可視光画像における位置を示す情報を可視光キャリブレーション部250及び遠赤外キャリブレーション部150へ出力する。第1の応用例では、可視光特定部240は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の可視光画像における位置を特定する。可視光特定部240は、例えば、図19に示したように、第2生成部241と、第2推定部243と、第2中心特定部245と、を含む。
 第2生成部241は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、可視光画像において第2マーカ920の位置の候補を示す情報である候補情報を生成する。また、第2生成部241は、生成した候補情報を第2推定部243へ出力する。第2生成部241は、例えば、実空間において第2マーカ920を通る直線と対応する可視光画像における直線を、候補情報として生成してもよい。
 第2推定部243は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第4抽出部233により抽出された第2マーカ候補と複数の第2マーカ920の各々との対応関係を推定する。換言すると、第2推定部243は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第2マーカ候補がいずれの第2マーカ920であるかを推定する。また、第2推定部243は、推定した上記対応関係を示す情報を第2中心特定部245へ出力する。第2推定部243は、具体的には、第2生成部241により生成された候補情報に基づいて、上記対応関係を推定する。
 このように、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、上記対応関係を推定することによって、上記対応関係を精度良く推定することができる。それにより、複数の第2マーカ920の各々の可視光画像における位置を精度良く特定することができる。
 第2中心特定部245は、第4抽出部233により抽出された第2マーカ候補の中心位置を、第2推定部243により推定された対応関係によって対応付けられる第2マーカ920の可視光画像における位置として特定する。また、第2中心特定部245は、第3抽出部231によって抽出された第1マーカ910の中心位置を、第1マーカ910の可視光画像における位置として特定する。第2中心特定部245は、特定した各マーカの可視光画像における位置を示す情報を可視光キャリブレーション部250及び遠赤外キャリブレーション部150へ出力する。第2中心特定部245は、例えば、楕円フィッティング等の画像処理を利用することによって、第1マーカ910及び第2マーカ候補の中心位置を特定し得る。
 このように、第2マーカ候補の中心位置を、第2推定部243により推定された対応関係によって対応付けられる第2マーカ920の可視光画像における位置として特定することによって、複数の第2マーカ920の各々の可視光画像における位置をより精度良く特定することができる。また、第3抽出部231によって抽出された第1マーカ910の中心位置を、第1マーカ910の可視光画像における位置として特定することによって、複数の第1マーカ910の各々の可視光画像における位置をより精度良く特定することができる。
 第1の応用例では、遠赤外特定部140は、各マーカの遠赤外画像における位置を示す情報を可視光キャリブレーション部250に対しても出力する。具体的には、第1中心特定部145は、各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150及び可視光キャリブレーション部250へ出力する。
 可視光キャリブレーション部250は、各マーカの遠赤外画像における位置及び各マーカの可視光画像における位置に基づいて、可視光画像を撮像する可視光カメラ202のキャリブレーションを実行する。具体的には、可視光キャリブレーション部250は、複数の第2マーカ920の各々の遠赤外画像における位置及び複数の第2マーカ920の各々の可視光画像における位置に基づいて、可視光カメラ202のキャリブレーションを実行する。より具体的には、可視光キャリブレーション部250は、複数の第1マーカ910の各々及び複数の第2マーカ920の各々の双方の遠赤外画像及び可視光画像における位置に基づいて、可視光カメラ202のキャリブレーションを実行してもよい。
 可視光キャリブレーション部250は、上述したように、遠赤外画像及び可視光画像の各々における各マーカの位置を式(1)中の二次元座標(x,y)に代入し、得られた複数の方程式を最適化問題として解くことによって、可視光カメラ202のカメラパラメータを決定する。具体的には、可視光キャリブレーション部250は、各マーカの遠赤外画像及び可視光画像の各々における位置に基づいて、可視光カメラ202の内部パラメータA及び外部パラメータ[R|T]を決定する。当該外部パラメータ[R|T]は、具体的には、可視光カメラ202の遠赤外カメラ102に対する相対的な姿勢及び位置を示すパラメータである。
 また、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置及び各マーカの可視光画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。具体的には、遠赤外キャリブレーション部150は、複数の第2マーカ920の各々の遠赤外画像における位置及び複数の第2マーカ920の各々の可視光画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。より具体的には、遠赤外キャリブレーション部150は、複数の第1マーカ910の各々及び複数の第2マーカ920の各々の双方の遠赤外画像及び可視光画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行してもよい。
 遠赤外キャリブレーション部150は、上述したように、遠赤外画像及び可視光画像の各々における各マーカの位置を式(1)中の二次元座標(x,y)に代入し、得られた複数の方程式を最適化問題として解くことによって、遠赤外カメラ102のカメラパラメータを決定する。具体的には、遠赤外キャリブレーション部150は、各マーカの遠赤外画像及び可視光画像の各々における位置に基づいて、遠赤外カメラ102の内部パラメータA及び外部パラメータ[R|T]を決定する。当該外部パラメータ[R|T]は、具体的には、遠赤外カメラ102の可視光カメラ202に対する相対的な姿勢及び位置を示すパラメータである。
 このように、第1の応用例に係る画像処理装置2は、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションを実行する。また、第1マーカ910、第2マーカ920、及びベース930が可視光域において互いに異なる分光反射特性を有することによって、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションを同一のチャート9を用いて行うことができる。それにより、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションをより容易に行うことができる。
 可視光キャリブレーション部250及び遠赤外キャリブレーション部150は、決定した可視光カメラ202及び遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へそれぞれ出力する。可視光カメラ202及び遠赤外カメラ102のカメラパラメータを示す情報が入力される外部の装置は、当該情報に基づいて、各種画像処理を行う。例えば、当該外部の装置は、当該情報に基づいて、得られる可視光画像及び遠赤外画像の各々におけるカメラ歪を低減する処理を行うことができる。また、当該外部の装置は、当該情報に基づいて、得られる可視光画像及び遠赤外画像を平行化する処理であるレクティフィケーション処理を行うことができる。また、当該外部の装置は、当該情報に基づいて、得られる可視光画像及び遠赤外画像に映る同一の対象物の縮尺を略一致させる処理を行うことができる。なお、可視光キャリブレーション部250及び遠赤外キャリブレーション部150は、決定した可視光カメラ202及び遠赤外カメラ102のカメラパラメータを示す情報を可視光記憶部260及び遠赤外記憶部160へそれぞれ記憶させてもよい。
 以上説明したように、第1の応用例に係る画像処理装置2によれば、可視光特定部240は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の可視光画像における位置を特定する。それにより、チャート9を映した可視光画像において第2マーカ920の一部が映っていない場合であっても、可視光画像における各マーカの位置を特定することができる。ゆえに、端部にマーカが映る可視光画像についても、当該可視光画像における各マーカの位置を特定することができる。よって、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションに用いられる情報を十分に確保することができる。従って、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションの精度を向上させることができる。
 また、第1の応用例に係る画像処理装置2は、上述したように、遠赤外特定部140によって特定された複数の第2マーカ920の各々の遠赤外画像における位置及び可視光特定部240によって特定された複数の第2マーカ920の各々の可視光画像における位置に基づいて、遠赤外カメラ102及び可視光カメラ202のキャリブレーションを実行する。それにより、遠赤外カメラ102と可視光カメラ202との間でのキャリブレーションとして精度良いキャリブレーションを実行することが実現される。
 続いて、図20及び図21を参照して、第1の応用例に係る画像処理装置2が行う処理の流れについて説明する。
 図20は、第1の応用例に係る画像処理装置2が行う処理の流れの一例を示すフローチャートである。第1の応用例に係る処理の流れでは、図16及び図17を参照して説明した画像処理装置1が行う処理の流れと比較して、遠赤外特定部140が行う位置特定処理(ステップS550)以降の処理が異なる。なお、第1の応用例では、ステップS550の処理において、遠赤外特定部140は、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150及び可視光キャリブレーション部250へ出力する。
 図20に示したように、第1の応用例では、遠赤外特定部140が行う位置特定処理(ステップS550)の後、可視光取得部220は、チャート9を映した可視光画像を取得し(ステップS601)、取得した可視光画像を可視光抽出部230及び可視光特定部240へ出力する。そして、第3抽出部231は、取得された可視光画像から複数の第1マーカ910を抽出し(ステップS603)、抽出結果を可視光特定部240へ出力する。そして、第4抽出部233は、取得された可視光画像から第2マーカ候補を抽出し(ステップS605)、抽出結果を可視光特定部240へ出力する。
 次に、可視光特定部240は、各マーカの可視光画像における位置を特定し(ステップS650)、特定した各マーカの可視光画像における位置を示す情報を可視光キャリブレーション部250及び遠赤外キャリブレーション部150へ出力する。そして、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置及び各マーカの可視光画像における位置に基づいて、遠赤外画像を撮像する遠赤外カメラ102のキャリブレーションを実行し(ステップS607)、決定した遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へ出力する。そして、可視光キャリブレーション部250は、各マーカの遠赤外画像における位置及び各マーカの可視光画像における位置に基づいて、可視光画像を撮像する可視光カメラ202のキャリブレーションを実行し(ステップS609)、決定した可視光カメラ202のカメラパラメータを示す情報を外部の装置へ出力する。そして、図20に示した処理は終了する。
 図21は、第1の応用例に係る画像処理装置2が行う位置特定処理の流れの一例を示すフローチャートである。当該位置特定処理は、図20に示したフローチャートにおけるステップS650の処理に相当する。
 図21に示したように、ステップS650において、まず、第2生成部241は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、可視光画像において第2マーカ920の位置の候補を示す情報である候補情報を生成し(ステップS651)、生成した候補情報を第2推定部243へ出力する。そして、第2推定部243は、生成された候補情報に基づいて、第4抽出部233により抽出された第2マーカ候補と複数の第2マーカ920の各々との対応関係を推定し(ステップS653)、推定した当該対応関係を示す情報を第2中心特定部245へ出力する。そして、第2中心特定部245は、第1マーカ910及び第2マーカ候補の中心位置を、各マーカの可視光画像における位置として特定し(ステップS655)、特定した各マーカの可視光画像における位置を示す情報を可視光キャリブレーション部250及び遠赤外キャリブレーション部150へ出力する。そして、図21に示した処理は終了する。
  [4-2.第2の応用例]
 続いて、図22~図25を参照して、第2の応用例に係る画像処理装置3について説明する。第2の応用例では、図2~図17を参照して説明した実施形態と比較して、主に画像処理装置3の構成が異なる。ゆえに、以下では、第2の応用例に係る画像処理装置3について、主に説明する。
 図22は、第2の応用例に係る画像処理装置3のハードウェア構成の一例を示すブロック図である。図22に示したように、第2の応用例に係る画像処理装置3は、上述した画像処理装置1と異なり、近赤外カメラ302をさらに備える。
 近赤外カメラ302は、近赤外線を利用した撮像を行い、近赤外画像を得る撮像モジュールである。近赤外カメラ302は、具体的には、NIR領域に属する波長を有する近赤外線を感知する撮像素子の配列を有する。また、近赤外カメラ302は、NIR領域に属する波長を有する近赤外線を装置の近傍に照射する発光素子をも有する。例えば、近赤外カメラ302は、ユーザ入力などのトリガに応じて又は周期的に発光素子から近赤外線を照射し、被写体又はその背景において反射した近赤外線を捕捉することにより、近赤外画像を得る。近赤外カメラ302は、例えば、一定の時間間隔で近赤外画像を撮像する。また、近赤外カメラ302により得られる一連の近赤外画像は、映像を構成してもよい。
 チャート9では、上述したように、第1マーカ910、第2マーカ920、及びベース930は、近赤外域において互いに異なる分光反射特性を有し得る。例えば、第1マーカ910は第1特性を有し、第2マーカ920は第2特性を有しベース930は第3特性を有する。それにより、近赤外カメラ302による撮像によって得られるチャート9を映した近赤外画像において第1マーカ910及び第2マーカ920が映るそれぞれの領域を、他の領域と区別して抽出することができる。
 図23は、図22に示した画像処理装置3の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図23に示したように、第2の応用例に係る画像処理装置3は、上述した画像処理装置1と異なり近赤外取得部320と、近赤外抽出部330と、近赤外特定部340と、近赤外キャリブレーション部350と、近赤外記憶部360と、をさらに備える。
 近赤外記憶部360は、画像処理装置3が行う各処理において参照されるデータを記憶する。具体的には、近赤外記憶部360は、近赤外取得部320、近赤外抽出部330、近赤外特定部340、及び近赤外キャリブレーション部350の各機能部が行う各処理において用いられる情報を記憶する。また、近赤外記憶部360は、当該各機能部が行う各処理によって得られる処理結果を記憶してもよい。各機能部は、近赤外記憶部360から各処理についての処理結果を取得し得る。また、近赤外記憶部360は、近赤外カメラ302によって撮像された近赤外画像を記憶してもよい。各機能部は、近赤外記憶部360から近赤外カメラ302によって撮像された近赤外画像を取得し得る。
 近赤外取得部320は、近赤外画像を取得する。具体的には、近赤外取得部320は、近赤外カメラ302により撮像されチャート9を映した近赤外画像を取得する。また、近赤外取得部320は、取得した近赤外画像を近赤外抽出部330及び近赤外特定部340へ出力する。例えば、近赤外取得部320は、近赤外カメラ302から直接的に近赤外画像を取得してもよい。また、近赤外取得部320は、近赤外カメラ302そのものであってもよい。また、近赤外取得部320は、近赤外記憶部360に記憶されている近赤外画像を取得してもよい。近赤外取得部320により取得される近赤外画像は、信号の増幅及びノイズ除去などの予備的な処理を経た画像であってもよい。
 近赤外抽出部330は、近赤外取得部320により取得された近赤外画像から特定の物体が映る領域を、他の領域と区別して抽出する。また、近赤外抽出部330は、抽出結果を近赤外特定部340へ出力する。近赤外抽出部330は、例えば、図23に示したように、第5抽出部331と、第6抽出部333と、を含む。
 第5抽出部331は、近赤外画像から複数の第1マーカ910を抽出する。具体的には、第5抽出部331は、近赤外取得部320により取得された近赤外画像から複数の第1マーカ910を抽出し、抽出結果を近赤外特定部340へ出力する。第5抽出部331は、例えば、近赤外画像に対して2値化処理を施すことによって、複数の第1マーカ910を抽出する。具体的には、第5抽出部331は、第1マーカ910、第2マーカ920、及びベース930の分光反射特性の関係性に基づいて、近赤外画像において第1特性と対応する画素値を有する画素に対して比較的高い値の第2画素値を割り当て、他の画素に対して比較的低い値の第1画素値を割り当てる。それにより、各第1マーカ910が映る領域に第2画素値が割り当てられることによって、複数の第1マーカ910の抽出が実現され得る。
 第6抽出部333は、近赤外画像から複数の第2マーカ920の各々の候補である第2マーカ候補を抽出する。具体的には、第6抽出部333は、近赤外取得部320により取得された近赤外画像から第2マーカ候補を抽出し、抽出結果を近赤外特定部340へ出力する。第6抽出部333は、例えば、近赤外画像に対して2値化処理を施すことによって、第2マーカ候補を抽出する。具体的には、第6抽出部333は、第1マーカ910、第2マーカ920、及びベース930の分光反射特性の関係性に基づいて、近赤外画像において第1特性又は第2特性と対応する画素値を有する画素に対して比較的高い値の第2画素値を割り当て、他の画素に対して比較的低い値の第1画素値を割り当てる。それにより、近赤外画像において少なくとも第2マーカ920が映る領域に第2画素値が割り当てられることによって、第2マーカ候補の抽出が実現され得る。
 近赤外特定部340は、各マーカの近赤外画像における位置を特定する。また、近赤外特定部340は、特定した各マーカの近赤外画像における位置を示す情報を近赤外キャリブレーション部350及び遠赤外キャリブレーション部150へ出力する。第2の応用例では、近赤外特定部340は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の近赤外画像における位置を特定する。近赤外特定部340は、例えば、図23に示したように、第3生成部341と、第3推定部343と、第3中心特定部345と、を含む。
 第3生成部341は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、近赤外画像において第2マーカ920の位置の候補を示す情報である候補情報を生成する。また、第3生成部341は、生成した候補情報を第3推定部343へ出力する。第3生成部341は、例えば、実空間において第2マーカ920を通る直線と対応する近赤外画像における直線を、候補情報として生成してもよい。
 第3推定部343は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第6抽出部333により抽出された第2マーカ候補と複数の第2マーカ920の各々との対応関係を推定する。換言すると、第3推定部343は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、第2マーカ候補がいずれの第2マーカ920であるかを推定する。また、第3推定部343は、推定した当該対応関係を示す情報を第3中心特定部345へ出力する。第3推定部343は、具体的には、第3生成部341により生成された候補情報に基づいて、当該対応関係を推定する。
 このように、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、上記対応関係を推定することによって、上記対応関係を精度良く推定することができる。それにより、複数の第2マーカ920の各々の近赤外画像における位置を精度良く特定することができる。
 第3中心特定部345は、第6抽出部333により抽出された第2マーカ候補の中心位置を、第3推定部343により推定された対応関係によって対応付けられる第2マーカ920の近赤外画像における位置として特定する。また、第3中心特定部345は、第5抽出部331によって抽出された第1マーカ910の中心位置を、第1マーカ910の近赤外画像における位置として特定する。第3中心特定部345は、特定した各マーカの近赤外画像における位置を示す情報を近赤外キャリブレーション部350及び遠赤外キャリブレーション部150へ出力する。第3中心特定部345は、例えば、楕円フィッティング等の画像処理を利用することによって、第1マーカ910及び第2マーカ候補の中心位置を特定し得る。
 このように、第2マーカ候補の中心位置を、第3推定部343により推定された対応関係によって対応付けられる第2マーカ920の近赤外画像における位置として特定することによって、複数の第2マーカ920の各々の近赤外画像における位置をより精度良く特定することができる。また、第5抽出部331によって抽出された第1マーカ910の中心位置を、第1マーカ910の近赤外画像における位置として特定することによって、複数の第1マーカ910の各々の近赤外画像における位置をより精度良く特定することができる。
 第2の応用例では、遠赤外特定部140は、各マーカの遠赤外画像における位置を示す情報を近赤外キャリブレーション部350に対しても出力する。具体的には、第1中心特定部145は、各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150及び近赤外キャリブレーション部350へ出力する。
 近赤外キャリブレーション部350は、各マーカの遠赤外画像における位置及び各マーカの近赤外画像における位置に基づいて、近赤外画像を撮像する近赤外カメラ302のキャリブレーションを実行する。具体的には、近赤外キャリブレーション部350は、複数の第2マーカ920の各々の遠赤外画像における位置及び複数の第2マーカ920の各々の近赤外画像における位置に基づいて、近赤外カメラ302のキャリブレーションを実行する。より具体的には、近赤外キャリブレーション部350は、複数の第1マーカ910の各々及び複数の第2マーカ920の各々の双方の遠赤外画像及び近赤外画像における位置に基づいて、近赤外カメラ302のキャリブレーションを実行してもよい。
 近赤外キャリブレーション部350は、上述したように、遠赤外画像及び近赤外画像の各々における各マーカの位置を式(1)中の二次元座標(x,y)に代入し、得られた複数の方程式を最適化問題として解くことによって、近赤外カメラ302のカメラパラメータを決定する。具体的には、近赤外キャリブレーション部350は、各マーカの遠赤外画像及び近赤外画像の各々における位置に基づいて、近赤外カメラ302の内部パラメータA及び外部パラメータ[R|T]を決定する。当該外部パラメータ[R|T]は、具体的には、近赤外カメラ302の遠赤外カメラ102に対する相対的な姿勢及び位置を示すパラメータである。
 また、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置及び各マーカの近赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。具体的には、遠赤外キャリブレーション部150は、複数の第2マーカ920の各々の遠赤外画像における位置及び複数の第2マーカ920の各々の近赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行する。より具体的には、遠赤外キャリブレーション部150は、複数の第1マーカ910の各々及び複数の第2マーカ920の各々の双方の遠赤外画像及び近赤外画像における位置に基づいて、遠赤外カメラ102のキャリブレーションを実行してもよい。
 遠赤外キャリブレーション部150は、上述したように、遠赤外画像及び近赤外画像の各々における各マーカの位置を式(1)中の二次元座標(x,y)に代入し、得られた複数の方程式を最適化問題として解くことによって、遠赤外カメラ102のカメラパラメータを決定する。具体的には、遠赤外キャリブレーション部150は、各マーカの遠赤外画像及び近赤外画像の各々における位置に基づいて、遠赤外カメラ102の内部パラメータA及び外部パラメータ[R|T]を決定する。当該外部パラメータ[R|T]は、具体的には、遠赤外カメラ102の近赤外カメラ302に対する相対的な姿勢及び位置を示すパラメータである。
 このように、第2の応用例に係る画像処理装置3は、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションを実行する。また、第1マーカ910、第2マーカ920、及びベース930が近赤外域において互いに異なる分光反射特性を有することによって、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションを同一のチャート9を用いて行うことができる。それにより、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションをより容易に行うことができる。
 近赤外キャリブレーション部350及び遠赤外キャリブレーション部150は、決定した近赤外カメラ302及び遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へそれぞれ出力する。近赤外カメラ302及び遠赤外カメラ102のカメラパラメータを示す情報が入力される外部の装置は、当該情報に基づいて、各種画像処理を行う。例えば、当該外部の装置は、当該情報に基づいて、得られる近赤外画像及び遠赤外画像の各々におけるカメラ歪を低減する処理を行うことができる。また、当該外部の装置は、当該情報に基づいて、得られる近赤外画像及び遠赤外画像を平行化する処理であるレクティフィケーション処理を行うことができる。また、当該外部の装置は、当該情報に基づいて、得られる近赤外画像及び遠赤外画像に映る同一の対象物の縮尺を略一致させる処理を行うことができる。なお、近赤外キャリブレーション部350及び遠赤外キャリブレーション部150は、決定した近赤外カメラ302及び遠赤外カメラ102のカメラパラメータを示す情報を近赤外記憶部360及び遠赤外記憶部160へそれぞれ記憶させてもよい。
 以上説明したように、第2の応用例に係る画像処理装置3によれば、近赤外特定部340は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の近赤外画像における位置を特定する。それにより、チャート9を映した近赤外画像において第2マーカ920の一部が映っていない場合であっても、近赤外画像における各マーカの位置を特定することができる。ゆえに、端部にマーカが映る近赤外画像についても、当該近赤外画像における各マーカの位置を特定することができる。よって、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションに用いられる情報を十分に確保することができる。従って、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションの精度を向上させることができる。
 また、第2の応用例に係る画像処理装置3は、上述したように、遠赤外特定部140によって特定された複数の第2マーカ920の各々の遠赤外画像における位置及び近赤外特定部340によって特定された複数の第2マーカ920の各々の近赤外画像における位置に基づいて、遠赤外カメラ102及び近赤外カメラ302のキャリブレーションを実行する。それにより、遠赤外カメラ102と近赤外カメラ302との間でのキャリブレーションとして精度良いキャリブレーションを実行することが実現される。
 続いて、図24及び図25を参照して、第2の応用例に係る画像処理装置3が行う処理の流れについて説明する。
 図24は、第2の応用例に係る画像処理装置3が行う処理の流れの一例を示すフローチャートである。第2の応用例に係る処理の流れでは、図16及び図17を参照して説明した画像処理装置1が行う処理の流れと比較して、遠赤外特定部140が行う位置特定処理(ステップS550)以降の処理が異なる。なお、第2の応用例では、ステップS550の処理において、遠赤外特定部140は、特定した各マーカの遠赤外画像における位置を示す情報を遠赤外キャリブレーション部150及び近赤外キャリブレーション部350へ出力する。
 図24に示したように、第2の応用例では、遠赤外特定部140が行う位置特定処理(ステップS550)の後、近赤外取得部320は、チャート9を映した近赤外画像を取得し(ステップS701)、取得した近赤外画像を近赤外抽出部330及び近赤外特定部340へ出力する。そして、第5抽出部331は、取得された近赤外画像から複数の第1マーカ910を抽出し(ステップS703)、抽出結果を近赤外特定部340へ出力する。そして、第6抽出部333は、取得された近赤外画像から第2マーカ候補を抽出し(ステップS705)、抽出結果を近赤外特定部340へ出力する。
 次に、近赤外特定部340は、各マーカの近赤外画像における位置を特定し(ステップS750)、特定した各マーカの近赤外画像における位置を示す情報を近赤外キャリブレーション部350及び遠赤外キャリブレーション部150へ出力する。そして、遠赤外キャリブレーション部150は、各マーカの遠赤外画像における位置及び各マーカの近赤外画像における位置に基づいて、遠赤外画像を撮像する遠赤外カメラ102のキャリブレーションを実行し(ステップS707)、決定した遠赤外カメラ102のカメラパラメータを示す情報を外部の装置へ出力する。そして、近赤外キャリブレーション部350は、各マーカの遠赤外画像における位置及び各マーカの近赤外画像における位置に基づいて、近赤外画像を撮像する近赤外カメラ302のキャリブレーションを実行し(ステップS709)、決定した近赤外カメラ302のカメラパラメータを示す情報を外部の装置へ出力する。そして、図24に示した処理は終了する。
 図25は、第2の応用例に係る画像処理装置3が行う位置特定処理の流れの一例を示すフローチャートである。当該位置特定処理は、図24に示したフローチャートにおけるステップS750の処理に相当する。
 図25に示したように、ステップS750において、まず、第3生成部341は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、近赤外画像において第2マーカ920の位置の候補を示す情報である候補情報を生成し(ステップS751)、生成した候補情報を第3推定部343へ出力する。そして、第3推定部343は、生成された候補情報に基づいて、第6抽出部333により抽出された第2マーカ候補と複数の第2マーカ920の各々との対応関係を推定し(ステップS753)、推定した当該対応関係を示す情報を第3中心特定部345へ出力する。そして、第3中心特定部345は、第1マーカ910及び第2マーカ候補の中心位置を、各マーカの近赤外画像における位置として特定し(ステップS755)、特定した各マーカの近赤外画像における位置を示す情報を近赤外キャリブレーション部350及び遠赤外キャリブレーション部150へ出力する。そして、図25に示した処理は終了する。
 <5.まとめ>
 以上説明したように、本開示の実施形態によれば、遠赤外特定部140は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の遠赤外画像における位置を特定する。それにより、チャート9を映した遠赤外画像において第2マーカ920の一部が映っていない場合であっても、遠赤外画像における各マーカの位置を特定することができる。ゆえに、端部にマーカが映る遠赤外画像についても、当該遠赤外画像における各マーカの位置を特定することができる。よって、遠赤外カメラ102のキャリブレーションに用いられる情報を十分に確保することができる。従って、遠赤外カメラ102のキャリブレーションの精度を向上させることができる。
 また、本実施形態に係るチャート9によれば、複数の第1マーカ910に対する複数の第2マーカ920の各々の実空間における相対的な位置は、複数の第1マーカ910の各々の間の幾何学的関係に基づいて決定可能である。それにより、複数の第1マーカ910の各々の間の幾何学的関係に基づいて、複数の第2マーカ920の各々の遠赤外画像における位置を特定することが可能となる。ゆえに、チャート9を映した遠赤外画像において第2マーカ920の一部が映っていない場合であっても、遠赤外画像における各マーカの位置を特定することができるので、遠赤外カメラ102のキャリブレーションの精度を向上させることができる。
 なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。各プログラムを実行するプロセッサは、単数であっても複数であってもよい。
 具体的には、上述のような本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置2,3の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置2,3は、コンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、本実施形態に係る画像処理装置1又は各応用例に係る画像処理装置2,3の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。
 また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。例えば、図16に示したフローチャートについて、ステップS505の処理はステップS503の処理より前に実行されてもよく、ステップS503の処理と並列的に実行されてもよい。また、図20に示したフローチャートについて、ステップS605(S609)の処理はステップS603(S607)の処理より前に実行されてもよく、ステップS603(S607)の処理と並列的に実行されてもよい。また、図24に示したフローチャートについて、ステップS705(S709)の処理はステップS703(S707)の処理より前に実行されてもよく、ステップS703(S707)の処理と並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 遠赤外画像を取得する遠赤外取得部と、
 前記遠赤外画像から第1温度を有する複数の第1マーカを抽出する第1抽出部と、
 前記複数の第1マーカの各々の間の幾何学的関係に基づいて、第2温度を有する複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、
 を備える、
 画像処理装置。
(2)
 前記遠赤外画像から前記複数の第2マーカの各々の候補である第2マーカ候補を抽出する第2抽出部を備え、
 前記遠赤外特定部は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記第2抽出部により抽出された前記第2マーカ候補と前記複数の第2マーカの各々との対応関係を推定する推定部を含む、
 前記(1)に記載の画像処理装置。
(3)
 前記遠赤外特定部は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記遠赤外画像において前記第2マーカの位置の候補を示す情報である候補情報を生成する生成部を含み、
 前記推定部は、前記候補情報に基づいて、前記対応関係を推定する、
 前記(2)に記載の画像処理装置。
(4)
 前記遠赤外特定部は、前記第2マーカ候補の中心位置を、前記推定部により推定された前記対応関係によって対応付けられる前記第2マーカの前記遠赤外画像における位置として特定する中心特定部を含む、前記(2)又は(3)に記載の画像処理装置。
(5)
 前記複数の第2マーカの各々の前記遠赤外画像における位置に基づいて、前記遠赤外画像を撮像する遠赤外カメラのキャリブレーションを実行する遠赤外キャリブレーション部を備える、前記(1)~(4)のいずれか一項に記載の画像処理装置。
(6)
 前記遠赤外カメラを備える、前記(5)に記載の画像処理装置。
(7)
 可視光画像を取得する可視光取得部と、
 前記可視光画像から前記複数の第1マーカを抽出する第3抽出部と、
 前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記可視光画像における位置を特定する可視光特定部と、
 を備える、前記(5)又は(6)に記載の画像処理装置。
(8)
 前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記可視光画像における位置に基づいて、前記可視光画像を撮像する可視光カメラのキャリブレーションを実行する可視光キャリブレーション部を備え、
 前記遠赤外キャリブレーション部は、前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記可視光画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する、
 前記(7)に記載の画像処理装置。
(9)
 前記可視光カメラを備える、前記(8)に記載の画像処理装置。
(10)
 近赤外画像を取得する近赤外取得部と、
 前記近赤外画像から前記複数の第1マーカを抽出する第5抽出部と、
 前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記近赤外画像における位置を特定する近赤外特定部と、
 を備える、前記(5)又は(6)に記載の画像処理装置。
(11)
 前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記近赤外画像における位置に基づいて、前記近赤外画像を撮像する近赤外カメラのキャリブレーションを実行する近赤外キャリブレーション部を備え、
 前記遠赤外キャリブレーション部は、前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記近赤外画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する、
 前記(10)に記載の画像処理装置。
(12)
 前記近赤外カメラを備える、前記(11)に記載の画像処理装置。
(13)
 第1温度を有する複数の第1マーカと、
 第2温度を有する複数の第2マーカと、
 第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、
 を備え、
 前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能である、
 キャリブレーション用チャート。
(14)
 前記ベースにおいて、前記複数の第1マーカは3個以上配設される、前記(13)に記載のキャリブレーション用チャート。
(15)
 前記複数の第1マーカ、前記複数の第2マーカ、及び前記ベースは、可視光域において互いに異なる分光反射特性を有する、前記(13)又は(14)に記載のキャリブレーション用チャート。
(16)
 前記複数の第1マーカ、前記複数の第2マーカ、及び前記ベースは、近赤外域において互いに異なる分光反射特性を有する、前記(13)~(15)のいずれか一項に記載のキャリブレーション用チャート。
(17)
 第1温度を有する複数の第1マーカと、第2温度を有する複数の第2マーカと、第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、を備えるキャリブレーション用チャートと、
 前記キャリブレーション用チャートを映した遠赤外画像を用いて、前記遠赤外画像を撮像する遠赤外カメラのキャリブレーションを実行する画像処理装置と、
 を含み、
 前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能であり、
 前記画像処理装置は、
 前記遠赤外画像を取得する遠赤外取得部と、
 前記遠赤外画像から前記複数の第1マーカを抽出する第1抽出部と、
 前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、
 前記複数の第2マーカの各々の前記遠赤外画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する遠赤外キャリブレーション部と、
 を備える、
 キャリブレーションシステム。
1,2,3 画像処理装置
9 チャート
10 キャリブレーションシステム
102 遠赤外カメラ
104 入力インタフェース
106 メモリ
108 ディスプレイ
110 通信インタフェース
112 ストレージ
114 プロセッサ
116 バス
120 遠赤外取得部
130 遠赤外抽出部
131 第1抽出部
133 第2抽出部
140 遠赤外特定部
141 第1生成部
143 第1推定部
145 第1中心特定部
150 遠赤外キャリブレーション部
160 遠赤外記憶部
202 可視光カメラ
220 可視光取得部
230 可視光抽出部
231 第3抽出部
233 第4抽出部
240 可視光特定部
241 第2生成部
243 第2推定部
245 第2中心特定部
250 可視光キャリブレーション部
260 可視光記憶部
302 近赤外カメラ
320 近赤外取得部
330 近赤外抽出部
331 第5抽出部
333 第6抽出部
340 近赤外特定部
341 第3生成部
343 第3推定部
345 第3中心特定部
350 近赤外キャリブレーション部
360 近赤外記憶部
820 第2マーカ候補
910 第1マーカ
920 第2マーカ
930 ベース
941 第1抵抗体
942 第2抵抗体
950 バッテリ

Claims (17)

  1.  遠赤外画像を取得する遠赤外取得部と、
     前記遠赤外画像から第1温度を有する複数の第1マーカを抽出する第1抽出部と、
     前記複数の第1マーカの各々の間の幾何学的関係に基づいて、第2温度を有する複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、
     を備える、
     画像処理装置。
  2.  前記遠赤外画像から前記複数の第2マーカの各々の候補である第2マーカ候補を抽出する第2抽出部を備え、
     前記遠赤外特定部は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記第2抽出部により抽出された前記第2マーカ候補と前記複数の第2マーカの各々との対応関係を推定する推定部を含む、
     請求項1に記載の画像処理装置。
  3.  前記遠赤外特定部は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記遠赤外画像において前記第2マーカの位置の候補を示す情報である候補情報を生成する生成部を含み、
     前記推定部は、前記候補情報に基づいて、前記対応関係を推定する、
     請求項2に記載の画像処理装置。
  4.  前記遠赤外特定部は、前記第2マーカ候補の中心位置を、前記推定部により推定された前記対応関係によって対応付けられる前記第2マーカの前記遠赤外画像における位置として特定する中心特定部を含む、請求項2に記載の画像処理装置。
  5.  前記複数の第2マーカの各々の前記遠赤外画像における位置に基づいて、前記遠赤外画像を撮像する遠赤外カメラのキャリブレーションを実行する遠赤外キャリブレーション部を備える、請求項1に記載の画像処理装置。
  6.  前記遠赤外カメラを備える、請求項5に記載の画像処理装置。
  7.  可視光画像を取得する可視光取得部と、
     前記可視光画像から前記複数の第1マーカを抽出する第3抽出部と、
     前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記可視光画像における位置を特定する可視光特定部と、
     を備える、請求項5に記載の画像処理装置。
  8.  前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記可視光画像における位置に基づいて、前記可視光画像を撮像する可視光カメラのキャリブレーションを実行する可視光キャリブレーション部を備え、
     前記遠赤外キャリブレーション部は、前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記可視光画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する、
     請求項7に記載の画像処理装置。
  9.  前記可視光カメラを備える、請求項8に記載の画像処理装置。
  10.  近赤外画像を取得する近赤外取得部と、
     前記近赤外画像から前記複数の第1マーカを抽出する第5抽出部と、
     前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記近赤外画像における位置を特定する近赤外特定部と、
     を備える、請求項5に記載の画像処理装置。
  11.  前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記近赤外画像における位置に基づいて、前記近赤外画像を撮像する近赤外カメラのキャリブレーションを実行する近赤外キャリブレーション部を備え、
     前記遠赤外キャリブレーション部は、前記複数の第2マーカの各々の前記遠赤外画像における位置及び前記複数の第2マーカの各々の前記近赤外画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する、
     請求項10に記載の画像処理装置。
  12.  前記近赤外カメラを備える、請求項11に記載の画像処理装置。
  13.  第1温度を有する複数の第1マーカと、
     第2温度を有する複数の第2マーカと、
     第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、
     を備え、
     前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能である、
     キャリブレーション用チャート。
  14.  前記ベースにおいて、前記複数の第1マーカは3個以上配設される、請求項13に記載のキャリブレーション用チャート。
  15.  前記複数の第1マーカ、前記複数の第2マーカ、及び前記ベースは、可視光域において互いに異なる分光反射特性を有する、請求項13に記載のキャリブレーション用チャート。
  16.  前記複数の第1マーカ、前記複数の第2マーカ、及び前記ベースは、近赤外域において互いに異なる分光反射特性を有する、請求項13に記載のキャリブレーション用チャート。
  17.  第1温度を有する複数の第1マーカと、第2温度を有する複数の第2マーカと、第3温度を有し、前記複数の第1マーカ及び前記複数の第2マーカが配設されるベースと、を備えるキャリブレーション用チャートと、
     前記キャリブレーション用チャートを映した遠赤外画像を用いて、前記遠赤外画像を撮像する遠赤外カメラのキャリブレーションを実行する画像処理装置と、
     を含み、
     前記複数の第1マーカに対する前記複数の第2マーカの各々の実空間における相対的な位置は、前記複数の第1マーカの各々の間の幾何学的関係に基づいて決定可能であり、
     前記画像処理装置は、
     前記遠赤外画像を取得する遠赤外取得部と、
     前記遠赤外画像から前記複数の第1マーカを抽出する第1抽出部と、
     前記複数の第1マーカの各々の間の幾何学的関係に基づいて、前記複数の第2マーカの各々の前記遠赤外画像における位置を特定する遠赤外特定部と、
     前記複数の第2マーカの各々の前記遠赤外画像における位置に基づいて、前記遠赤外カメラのキャリブレーションを実行する遠赤外キャリブレーション部と、
     を備える、
     キャリブレーションシステム。
PCT/JP2017/027684 2016-11-07 2017-07-31 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム WO2018083848A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018548557A JP6930545B2 (ja) 2016-11-07 2017-07-31 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム
US16/331,592 US10891756B2 (en) 2016-11-07 2017-07-31 Image processing device, chart for calibration, and calibration system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-217509 2016-11-07
JP2016217509 2016-11-07

Publications (1)

Publication Number Publication Date
WO2018083848A1 true WO2018083848A1 (ja) 2018-05-11

Family

ID=62075998

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/027684 WO2018083848A1 (ja) 2016-11-07 2017-07-31 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム

Country Status (3)

Country Link
US (1) US10891756B2 (ja)
JP (1) JP6930545B2 (ja)
WO (1) WO2018083848A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135705A (ko) * 2018-05-29 2019-12-09 한국전기연구원 단일 컬러 카메라를 이용하고 가시광선 및 근적외선 영상 동시 획득이 가능한 가시광선 및 근적외선 영상 제공 시스템 및 방법
JP2023003627A (ja) * 2021-06-24 2023-01-17 シヤチハタ株式会社 コンピュータデバイス、方法およびコンピュータプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727597B2 (en) * 2018-12-21 2023-08-15 Sony Group Corporation Calibrating volumetric rig with structured light
US20200380725A1 (en) * 2019-05-28 2020-12-03 GM Global Technology Operations LLC Calibration for vehicle cameras
US11940568B2 (en) 2020-08-17 2024-03-26 Argo AI, LLC Enhanced multispectral sensor calibration

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170648A (ja) * 2004-12-13 2006-06-29 Kurabo Ind Ltd キャリブレーション用チャート及び内部パラメータの測定方法
JP2008014940A (ja) * 2006-06-08 2008-01-24 Fast:Kk 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
US20120069193A1 (en) * 2010-09-16 2012-03-22 Honeywell International Inc. Thermal camera calibration
JP2014206952A (ja) * 2013-04-16 2014-10-30 セイコーエプソン株式会社 プロジェクターおよび制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209914A (ja) * 2010-12-08 2012-10-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US8928758B2 (en) * 2012-06-18 2015-01-06 Electronic Warfare Associates, Inc. Imaging data correction system and method
US9129526B2 (en) * 2013-07-19 2015-09-08 Superior Traffic Sysems, LLC Traffic management system
JP6386732B2 (ja) * 2014-01-20 2018-09-05 キヤノン株式会社 検出装置、検出方法、及びリソグラフィ装置
US10736551B2 (en) * 2014-08-11 2020-08-11 The Board Of Trustees Of The University Of Illinois Epidermal photonic systems and methods
US10250871B2 (en) * 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10129490B2 (en) * 2015-04-05 2018-11-13 Hema Imaging Llc Systems and approaches for thermal image corrections
JP6721884B2 (ja) * 2015-09-29 2020-07-15 日本電気株式会社 カメラ校正用ボード、カメラ校正用装置、カメラ校正用方法、及びカメラ校正用プログラム記録媒体
US10710307B2 (en) * 2017-08-11 2020-07-14 Applied Materials, Inc. Temperature control for additive manufacturing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170648A (ja) * 2004-12-13 2006-06-29 Kurabo Ind Ltd キャリブレーション用チャート及び内部パラメータの測定方法
JP2008014940A (ja) * 2006-06-08 2008-01-24 Fast:Kk 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
US20120069193A1 (en) * 2010-09-16 2012-03-22 Honeywell International Inc. Thermal camera calibration
JP2014206952A (ja) * 2013-04-16 2014-10-30 セイコーエプソン株式会社 プロジェクターおよび制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135705A (ko) * 2018-05-29 2019-12-09 한국전기연구원 단일 컬러 카메라를 이용하고 가시광선 및 근적외선 영상 동시 획득이 가능한 가시광선 및 근적외선 영상 제공 시스템 및 방법
KR102190398B1 (ko) * 2018-05-29 2020-12-11 한국전기연구원 단일 컬러 카메라를 이용하고 가시광선 및 근적외선 영상 동시 획득이 가능한 가시광선 및 근적외선 영상 제공 시스템 및 방법
JP2023003627A (ja) * 2021-06-24 2023-01-17 シヤチハタ株式会社 コンピュータデバイス、方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2018083848A1 (ja) 2019-09-19
JP6930545B2 (ja) 2021-09-01
US10891756B2 (en) 2021-01-12
US20190362520A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
WO2018083848A1 (ja) 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム
Wolff et al. Quantitative measurement of illumination invariance for face recognition using thermal infrared imagery
US8810658B2 (en) Estimating a visible vector representation for pixels in an infrared image
KR102668750B1 (ko) 공간정보 인식장치
TW201601536A (zh) 紅外線焦平面陣列模組的性能參數量測方法及壞點偵測方法
US20180262748A1 (en) Camera calibration board, camera calibration device, camera calibration method, and program-recording medium for camera calibration
JP2016533829A (ja) 表面のシミュレーション
US20220132052A1 (en) Imaging method and device
CN110186566A (zh) 基于光场相机多谱测温的二维真实温度场成像方法及***
JP2015049200A (ja) 計測装置、方法及びプログラム
CN110320523A (zh) 跟随机器人的目标定位装置及方法
JP2011198270A (ja) 対象認識装置及びそれを用いた制御装置、並びに対象認識方法
JP2022079798A (ja) 物体認識装置および物体認識方法
WO2013104313A1 (zh) 一种用于检测输入设备的三维位置信息的方法与***
Jabari et al. Improving UAV imaging quality by optical sensor fusion: an initial study
Barone et al. A biomedical application combining visible and thermal 3D imaging
US20190316966A1 (en) Image processing device and image processing method
CN113284127B (zh) 图像融合显示方法、装置、计算机设备和存储介质
KR101630856B1 (ko) 다분광 포토메트릭 스테레오 시스템 그리고 이의 동작 방법
CN210604404U (zh) 用于高温测试的光学***及应用其的高温测试***
CN101660947A (zh) 三维测温成像***及其测量方法
KR20190042472A (ko) 인공신경망 기반의 플렌옵틱 카메라 어레이 깊이 영상 획득 방법 및 장치
Ospina et al. Software tool for thermographic inspection using multimodal fusing of thermal and visible images
Kubicki et al. Nasycenie procesu absorpcji promieniowania termicznego w atmosferycznym dwutlenku węgla
KR20200090296A (ko) 구조적 깊이 카메라 시스템에서 인코딩 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868316

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018548557

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868316

Country of ref document: EP

Kind code of ref document: A1