WO2016158490A1 - 投影システム、プロジェクター装置、撮像装置、および、プログラム - Google Patents

投影システム、プロジェクター装置、撮像装置、および、プログラム Download PDF

Info

Publication number
WO2016158490A1
WO2016158490A1 PCT/JP2016/058679 JP2016058679W WO2016158490A1 WO 2016158490 A1 WO2016158490 A1 WO 2016158490A1 JP 2016058679 W JP2016058679 W JP 2016058679W WO 2016158490 A1 WO2016158490 A1 WO 2016158490A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
unit
projection
pixel
Prior art date
Application number
PCT/JP2016/058679
Other languages
English (en)
French (fr)
Inventor
橋本 直己
千春 小針
雄基 原口
史也 新宮
基康 田中
Original Assignee
株式会社メガチップス
国立大学法人電気通信大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス, 国立大学法人電気通信大学 filed Critical 株式会社メガチップス
Publication of WO2016158490A1 publication Critical patent/WO2016158490A1/ja
Priority to US15/720,167 priority Critical patent/US9964839B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/13Projectors for producing special effects at the edges of picture, e.g. blurring
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems

Definitions

  • the present invention relates to a technique for appropriately displaying an image (video) projected by a projection type projector apparatus.
  • a technology for reducing luminance unevenness and color unevenness of an image (video) projected on a projection surface by a projection type projector apparatus has been developed.
  • Patent Document 1 discloses that an image (video) when a video is projected by a projection-type projector device is corrected in consideration of the reflection characteristics of the projection surface, whereby brightness unevenness of the projected image (video) is corrected.
  • a technique for reducing color unevenness is disclosed.
  • Patent Document 1 Japanese Patent Laid-Open No. 2012-28877
  • the luminance value of each color component for each pixel of the captured image obtained by imaging the projected image is measured, and each measured color component for each pixel is measured.
  • a light distribution map indicating the rate of change of the luminance with respect to the luminance of the reference point in the video is calculated.
  • the measured luminance value of each color component for each pixel is normalized using a light distribution map, a response function is calculated, and the luminance value of each color component for each pixel of the input video signal is calculated. Is corrected using a response function and a light distribution map, and a corrected video signal is obtained.
  • the corrected video signal is projected onto a projection plane.
  • the above technique in order to calculate a light distribution map and a response function with high accuracy, it is necessary to capture the projected image with a high-performance imaging device. That is, the above technique requires a high-performance imaging device that has a high imaging sensitivity and can acquire a captured image (captured video) with a good S / N ratio.
  • the above technique is premised on a wide dynamic range of the projected image, and a projector device with high illuminance is required. For this reason, it is difficult to apply the above technique to a low-illuminance projector apparatus having a narrow dynamic range of a projected image.
  • the present invention eliminates uneven brightness and color unevenness of an image (video) projected on a projection plane by a projection type projector device even when a projector device with high illuminance (high brightness) or a high-performance imaging device is not used.
  • An object of the present invention is to realize a projection system, a projector apparatus, and a program that can be appropriately reduced.
  • a first invention is a projection system that projects an image obtained by performing a predetermined process on an input image, the projection unit, an imaging unit, a gamma characteristic acquisition unit, A pixel association unit, a response characteristic acquisition unit, a coefficient setting unit, a target image acquisition unit, and a correction unit are provided.
  • the projection unit projects the image onto the projection target.
  • the imaging unit acquires the image projected by the projection unit as a captured image.
  • the gamma characteristic acquisition unit acquires the gamma characteristic determined by the optical system of the projection unit and the optical system of the imaging unit.
  • the pixel association unit is configured to detect a pixel on the captured image and a captured image corresponding to the pixel on the captured image based on the projection image that is an image projected from the projection unit and the captured image acquired by the imaging unit. Pixel association data in which the upper pixel is associated is acquired.
  • the response characteristic acquisition unit captures, for each pixel, a white value that is a pixel value of a captured image acquired by capturing the W100% image projected by the projection unit by the imaging unit, and a W0% image projected by the projection unit.
  • a black value that is a pixel value of a captured image acquired by capturing in the unit, a representative white value that is a representative value derived from the acquired white value, and a representative value derived from the acquired black value Get a representative black value.
  • the coefficient setting unit sets the first coefficient.
  • the target image acquisition unit acquires a target image from the input image based on the gamma characteristic acquired by the gamma characteristic acquisition unit and the first coefficient.
  • the correction unit acquires a corrected image by executing a correction process based on the gamma characteristic acquired by the gamma characteristic acquisition unit, the white value, and the black value for the target image.
  • the target image acquisition unit acquires the target image so that, when the projection unit projects the corrected image, in the image predicted to be captured by the imaging unit, the number of pixels whose pixel values are saturated decreases.
  • a target image for reducing the number of pixels saturated when projected is acquired based on the gamma characteristic of the entire system of the projection system by the first coefficient.
  • correction processing is executed on the acquired target image based on the gamma characteristic, white value, and black value of the entire system of the projection system.
  • this projection system can reduce the number of saturated pixels in the projected image, so that even if the dynamic range of the entire system is narrow, the user who viewed the projected image (or captured image) It is possible to realize image projection processing that does not cause discomfort.
  • W100% image refers to an image in which the pixel values of all the pixels forming the image are the upper limit of the range of pixel values. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the pixel value of the pixel of “W100% image” is “255”.
  • “W0% image” refers to an image in which the pixel values of all the pixels forming the image are the lower limit of the range of pixel values. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the pixel value of the pixel of “W0% image” is “0”.
  • the “target image” is, for example, an image obtained by adjusting an input image based on gamma characteristics determined by the optical system of the projection unit and the optical system of the imaging unit, and the pixel value of the pixels forming the image is The image is gain-adjusted and offset-adjusted so that it falls within a predetermined range.
  • the second invention is the first invention, wherein the input image and the target image are N-bit images (N: natural number), and the pixel values Px of the pixels of the input image and the target image are 0 ⁇ Px ⁇ 2 ⁇ N-1 is satisfied, the first coefficient is Br, 0 ⁇ Br ⁇ 1, the pixel value of coordinates (u, v) on the image of the input image is I u, v , and the target image
  • the pixel value of coordinates (u, v) on the image is T u, v
  • the gamma value for determining the gamma characteristic is ⁇
  • the representative white value is Wave
  • the representative black value is Bmax
  • the target image acquisition unit Or
  • the target image is acquired by acquiring the pixel value Tu, v of the target image.
  • a target image that reduces the number of pixels that are saturated when projected by the coefficient Br (0 ⁇ Br ⁇ 1) is acquired based on the gamma characteristic of the entire system of the projection system.
  • correction processing is executed on the acquired target image based on the gamma characteristic of the entire system of the projection system and the white value.
  • this projection system can reduce the number of saturated pixels in the projected image, so that even if the dynamic range of the entire system is narrow, the user who viewed the projected image (or captured image) It is possible to realize image projection processing that does not cause discomfort.
  • the coefficient Br for example, when the luminance (illuminance) of light emitted from the projection unit is low (for example, a projector device with low illuminance (low luminance) is used as the projection unit).
  • the luminance (illuminance) of light emitted from the projection unit is low (for example, a projector device with low illuminance (low luminance) is used as the projection unit).
  • the number of saturated pixels in the image can be reduced. Therefore, in this projection system, even when a low-illuminance (low-brightness) projection unit (for example, a projector device) is used, an image that does not cause discomfort to the user who viewed the projection image (or captured image) Projection processing can be realized.
  • a low-illuminance (low-brightness) projection unit for example, a projector device
  • the third invention is the second invention, and the representative black value Bmax is “0”.
  • the target image can be acquired with the representative black value Bmax set to “0”.
  • a fourth invention is any one of the first to third inventions, wherein the target image and the corrected image are N-bit images (N: natural number), and the pixel value Px of the pixels of the input image and the target image Satisfy 0 ⁇ Px ⁇ 2 ⁇ N ⁇ 1, the pixel value of the coordinates (u, v) on the image of the target image is T u, v, and the coordinates (u, v) on the image of the corrected image Is set to P u, v , the gamma value for determining the gamma characteristic is set to ⁇ , and the white value of the pixel Px (x, y) on the captured image corresponding to the pixel Px (u, v) of the projection image is The value W u, v is the black value of the pixel Px (x, y) on the captured image corresponding to the pixel Px (u, v) of the projection image, and the value B u, v is the first coefficient for black value adjustment.
  • the corrected image is acquired by acquiring the pixel value Pu, v of the corrected image.
  • a target image that reduces the number of pixels that are saturated when projected by a coefficient Br (0 ⁇ Br ⁇ 1) is acquired based on the gamma characteristics of the entire system of the projection system.
  • a corrected image is acquired by adjusting the black value with the first coefficient for black value adjustment and the second coefficient for black value adjustment with respect to the acquired target image, and using the adjusted black value. To do.
  • a corrected image is acquired by the same processing as when the black value is reduced with respect to the target image. For this reason, in this projection system, the dynamic range of the corrected image can be widened.
  • the luminance (illuminance) of light emitted from the projection unit is low (for example, when a projector device with low illuminance (low luminance) is used as the projection unit)
  • a wide dynamic range of the projected image can be ensured, and an image projection process that does not cause discomfort to the user who viewed the projected image (or captured image) can be realized.
  • the fifth invention is the fourth invention, wherein the first coefficient k1 for black value adjustment is “0”, and the second coefficient k2 for black value adjustment is “0”.
  • the corrected image is acquired for the target image by the same process as when the black value is set to “0”. For this reason, in this projection system, the dynamic range of the corrected image can be widened.
  • the luminance (illuminance) of light emitted from the projection unit is low (for example, when a projector device with low illuminance (low luminance) is used as the projection unit)
  • a wide dynamic range of the projected image can be ensured, and an image projection process that does not cause discomfort to the user who viewed the projected image (or captured image) can be realized.
  • the sixth invention is a projector apparatus used in the projection system according to any one of the first to fifth inventions.
  • the projector device includes a projection unit, a gamma characteristic acquisition unit, a pixel association unit, a response characteristic acquisition unit, a coefficient setting unit, a target image acquisition unit, and a correction unit.
  • the seventh invention is an imaging apparatus used in the projection system according to any one of the first to fifth inventions, and includes an imaging unit.
  • the eighth invention is a program for causing a computer to execute a projection method that is used in a projection system including a projection unit and an imaging unit, and projects an image obtained by performing a predetermined process on an input image.
  • the projection method includes a projection step, an imaging step, a gamma characteristic acquisition step, a step, a pixel association step, a response characteristic acquisition step, a coefficient setting step, a target image acquisition step, and a correction step. .
  • Projection step projects an image onto a projection target.
  • the imaging step acquires the image projected by the projecting step as a captured image.
  • the gamma characteristic acquisition step the gamma characteristic determined by the optical system of the projection unit and the optical system of the imaging unit is acquired.
  • the pixel associating step includes a pixel on the captured image and a captured image corresponding to the pixel on the captured image based on the projection image that is an image projected from the projection unit and the captured image acquired by the imaging unit. Pixel association data in which the upper pixel is associated is acquired.
  • the response characteristic acquisition step captures, for each pixel, a white value that is a pixel value of a captured image acquired by capturing the W100% image projected by the projection unit with the imaging unit, and a W0% image projected by the projection unit.
  • a black value that is a pixel value of a captured image acquired by capturing in the unit, a representative white value that is a representative value derived from the acquired white value, and a representative value derived from the acquired black value Get a representative black value.
  • the coefficient setting step sets the first coefficient.
  • the gamma characteristic acquisition step is performed so that the image that is predicted to be acquired when the image obtained by projecting the input image by the projection unit is captured by the imaging unit is reduced in the number of pixels in which the pixel value is saturated.
  • the target image is acquired from the input image based on the gamma characteristic acquired by the above and the first coefficient.
  • the correction step acquires a corrected image by executing a correction process based on the gamma characteristic acquired by the gamma characteristic acquisition step, the white value, and the black value for the target image.
  • the present invention even when a projector device with high illuminance (high luminance) or a high-performance imaging device is not used, luminance unevenness or color of an image (video) projected on the projection plane by the projection type projector device. It is possible to realize a projection system, a projector apparatus, and a program that appropriately reduce unevenness.
  • FIG. 1 is a schematic configuration diagram of a projection system 1000 according to a first embodiment.
  • 10 is a flowchart showing processing of the projection system 1000.
  • FIG. 6 is a diagram showing an example of an image Img0 (8-bit image) input to the projection system 1000. The figure which shows the image of the object (projection object) projected with the projection system 1000.
  • FIG. The figure which shows the picked-up image when image Img0 of FIG. 3 is projected on the projection object of FIG. 4 without performing the process in the target image acquisition part 2 and the process in the correction
  • FIG. 5 is a diagram showing a captured image when the image Img0 in FIG. 3 is projected on the projection target in FIG. 4 by executing processing in the target image acquisition unit 2 and processing in the correction unit 3;
  • FIG. 1 is a schematic configuration diagram of a projection system 1000 according to the first embodiment.
  • the projection system 1000 includes a coefficient setting unit 1, a target image acquisition unit 2, a correction unit 3, a test image generation unit 4, a selector SEL 1, a projection unit 5, and an imaging unit 6. , A gamma characteristic acquisition unit 7, a pixel association unit 8, and a response characteristic acquisition unit 9.
  • the coefficient setting unit 1 sets the coefficient Br to a predetermined value and outputs the set coefficient Br to the target image acquisition unit 2.
  • the target image acquisition unit 2 includes an image signal Din (image Img0) input to the projection system 1000, a coefficient Br output from the coefficient setting unit 1, and a gamma value ⁇ (gamma value) output from the gamma characteristic acquisition unit 7.
  • Information ⁇ ) and information on the target image black value (for example, Bmax) and the target image white value (for example, Wave) output from the response characteristic acquisition unit 9 are input.
  • the target image acquisition unit 2 generates a target image Img_T from the image signal Din (image Img0) based on the coefficient Br, the gamma value ⁇ , the target image black value Bmax, and the target image white value Wave, and generates the generated target An image signal forming the image Img_T is output to the correction unit 3 as an image signal D1.
  • the correction unit 3 includes an image signal D1 output from the target image acquisition unit 2, a gamma value ⁇ (information ⁇ regarding the gamma value) output from the gamma characteristic acquisition unit 7, and a white output from the response characteristic acquisition unit 9.
  • the black value (the white value of the pixel at the coordinate (u, v) on the image is expressed as W u, v ) and the black value (the black value of the pixel at the coordinate (u, v) on the image as B u, v ) ).
  • the correction unit 3 performs correction processing on the image signal D1 using the gamma value ⁇ , the white value, and the black value output from the response characteristic acquisition unit 9. Then, the correction unit 3 outputs the processed image signal (image signal forming the image Img_P) to the selector SEL1 as the image signal D2.
  • the test image generation unit 4 generates the following test images (1) to (4), uses the image signal forming the generated image as the image signal D0, the selector SEL1, the gamma characteristic acquisition unit 7, and the pixel correspondence And output to the attachment unit 8.
  • Test image Img_for_gamma for acquiring the gamma value of the entire optical system of the projection system 1000
  • Test image Img_for_map for associating pixels between the projection image projected from the projection unit 5 and the captured image acquired by capturing the captured image by the imaging unit 6
  • the “W 100% image” refers to an image in which the pixel values of all the pixels forming the image are the upper limit of the range of pixel values. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the pixel value of the pixel of “W100% image” is “255”.
  • “W0% image” refers to an image in which the pixel values of all the pixels forming the image are the lower limit of the range of pixel values. For example, when the pixel value is 8-bit data and takes a value of 0 to 255, the pixel value of the pixel of “W0% image” is “0”.
  • the selector SEL1 inputs the image signal D0 output from the test image generation unit 4, the image signal D2 output from the correction unit 3, and the selection signal sel1.
  • the selection signal sel1 is generated by a control unit (not shown).
  • the selector SEL1 selects either the image signal D0 or the image signal D2 in accordance with the selection signal sel1, and outputs the selected image signal as the image signal D3 to the projection unit 5.
  • the projection unit 5 has an optical system for projecting an image.
  • the projection unit 5 receives the image signal D3 output from the selector SEL1, and projects the input image signal D3 onto a projection target.
  • the imaging unit 6 has an optical system for capturing an image projected by the projection unit 5.
  • the imaging unit 6 captures the image projected by the projection unit 5, acquires the captured image, and sets an image signal forming the acquired captured image as an image signal D4, and a gamma characteristic acquisition unit 7 and a pixel association unit 8 and the response characteristic acquisition unit 9.
  • the gamma characteristic acquisition unit 7 receives the image signal D4 output from the imaging unit 6 and the image signal D0 output from the test image generation unit 4.
  • the gamma characteristic acquisition unit 7 determines (estimates) the gamma characteristic of the entire system of the projection system 1000 (the optical system of the projection unit 5 and the optical system of the imaging unit 6) based on the image signal D4 and the image signal D0. Then, the gamma characteristic acquisition unit 7 acquires the gamma value ⁇ from the determined gamma characteristic, and outputs the acquired gamma value ⁇ to the target image acquisition unit 2 and the correction unit 3.
  • the pixel association unit 8 receives the image signal D4 output from the imaging unit 6 and the image signal D0 output from the test image generation unit 4. The pixel association unit 8 performs pixel association by determining which pixel of the image formed by the image signal D4 corresponds to the pixel of the image formed by the image signal D0. Then, the pixel associating unit 8 acquires map information Map including information regarding the association of all the pixels, and outputs the acquired map information Map to the response characteristic acquiring unit 9.
  • the response characteristic acquisition unit 9 receives the image signal D4 output from the imaging unit 6 and the map information Map output from the pixel association unit 8.
  • the response characteristic acquisition unit 9 acquires the target image white value (for example, Wave) from the image signal D4 that forms the captured image when the W100% image is projected, and acquires the acquired target image white value (for example, Wave). , Wave) is output to the target image acquisition unit 2. Further, the response characteristic acquisition unit 9 acquires a target image black value (for example, Bmax) from the image signal D4 that forms a captured image when the W0% image is projected, and acquires the acquired target image black value. (For example, Bmax) is output to the target image acquisition unit 2.
  • a target image black value for example, Bmax
  • the response characteristic acquisition unit 9 projects the projected image based on the map information Map.
  • the pixel Px (x, y) on the captured image corresponding to the pixel Px (u, v) is specified.
  • the response characteristic acquisition unit 9 outputs the white value (W100% image of the captured image when the W100% image is projected) of the pixel Px (x, y) on the captured image corresponding to the pixel Px (u, v) of the projected image.
  • the response characteristic acquisition unit 9 captures the black value (W0% image of the captured image when the W0% image is projected) of the pixel Px (x, y) on the captured image corresponding to the pixel Px (u, v) of the projected image. pixel Px (x, y) of the pixel value) of the black value B u, as v, and outputs the acquired acquired black value B u, v in the correction unit 3.
  • FIG. 2 is a flowchart showing the processing of the projection system 1000.
  • Step S1 In step S1, a process of determining (estimating) gamma characteristics of the entire system of the projection system 1000 (the optical system of the projection unit 5 and the optical system of the imaging unit 6) is executed.
  • the test image generation unit 4 generates a test image Img_for_gamma for acquiring the gamma value of the entire optical system of the projection system 1000, and outputs an image signal D0 that forms the generated test image Img_for_gamma to the selector SEL1.
  • the control unit generates a selection signal sel1 for selecting the terminal 0 of the selector SEL1, and outputs it to the selector SEL1.
  • the selector SEL1 selects the terminal 0 according to the selection signal sel1, and outputs the image signal D0 that forms the test image Img_for_gamma output from the test image generation unit 4 to the projection unit 5.
  • the projection unit 5 projects the test image Img_for_gamma onto the projection target.
  • test image Img_for_gamma is an 8-bit image, and the pixel value of the image takes 0 to 255.
  • the test image generation unit 4 generates a test image having only the above R component, and the generated test image is projected by the projection unit 5.
  • the imaging unit 6 outputs to the gamma characteristic acquisition unit 7 an image signal D4 that forms a captured image obtained by imaging the test image having only the R component projected by the projection unit 5.
  • the gamma characteristic acquisition unit 7 performs a process of determining the gamma characteristic based on the image signal D4 output from the imaging unit 6.
  • the gamma characteristic is determined (estimated) by the gamma characteristic acquisition unit 7 by repeatedly executing the above process while changing the value of the R component value A1 of the pixel Px (u, v) of the test image Img_for_gamma.
  • the R component value of the pixel of the projection image obtained by projecting the test image Img_for_gamma by the projection unit 5 is xR_prj
  • the R component value of the pixel of the captured image of the projection image is yR_cap
  • yR_cap ⁇ ⁇ (xR_prj / 255) ⁇ ⁇ + ⁇ ⁇ , ⁇ : constants. That is, the above formula is a formula showing the gamma characteristic of the entire system of the projection system 1000 (the optical system of the projection unit 5 and the optical system of the imaging unit 6).
  • the R component value A1 of the pixel Px (u, v) of the test image Img_for_gamma is changed and repeatedly projected, and the gamma characteristic acquisition unit 7 and the R component value xR_prj of the pixel of the projection image and the captured image of the projection image Is determined (estimated) from the R component value yR_cap of each of the pixels, the numerical value ⁇ indicating the gamma characteristics of the entire system of the projection system 1000 (the optical system of the projection unit 5 and the optical system of the imaging unit 6).
  • the gamma value ⁇ (gamma value for R component) acquired in this way is output from the gamma characteristic acquisition unit 7 to the target image acquisition unit 2 and the correction unit 3.
  • the test image Img_for_gamma is treated as an image having only the G component having the same value for all the pixels, and the same processing as described above is executed to obtain the gamma value ⁇ (gamma value for the G component).
  • the acquired gamma value ⁇ (gamma value for G component) is output from the gamma characteristic acquisition unit 7 to the target image acquisition unit 2 and the correction unit 3.
  • the test image Img_for_gamma is treated as an image having only the B component having the same value for all the pixels, and the same processing as described above is executed to obtain the gamma value ⁇ (gamma value for the B component).
  • the acquired gamma value (B component gamma value) is output from the gamma characteristic acquisition unit 7 to the target image acquisition unit 2 and the correction unit 3.
  • Step S2 In step S2, a pixel association process between the projected image and the captured image is executed.
  • the test image generation unit 4 generates a test image Img_for_map for performing pixel association between the projection image projected from the projection unit 5 and the captured image acquired by capturing the captured image by the imaging unit 6.
  • the image signal D0 for forming the generated test image Img_for_map is output to the selector SEL1.
  • the control unit generates a selection signal sel1 for selecting the terminal 0 of the selector SEL1, and outputs it to the selector SEL1.
  • the selector SEL1 selects the terminal 0 according to the selection signal sel1, and outputs the image signal D0 that forms the test image Img_for_map output from the test image generation unit 4 to the projection unit 5.
  • the projection unit 5 projects the test image Img_for_map onto the projection target.
  • the test image Img_for_map is, for example, an image based on a gray code (a pattern of “0” or “1”) or a phase pattern image (a pattern image based on a sine wave having a predetermined period and phase).
  • the imaging unit 6 outputs an image signal D4 that forms a captured image obtained by imaging the test image Img_for_map projected by the projection unit 5 to the pixel association unit 8.
  • the pixel association unit 8 performs pixel association by determining which pixel of the image formed by the image signal D4 corresponds to the pixel of the image formed by the image signal D0. Then, the pixel associating unit 8 acquires map information Map including information regarding the association of all the pixels, and outputs the acquired map information Map to the response characteristic acquiring unit 9.
  • Step S3 In step S3, processing for acquiring response characteristics is executed.
  • the test image generation unit 4 generates a W100% image Img_w100 as a test image, and outputs an image signal D0 that forms the generated test image Img_w100 to the selector SEL1.
  • the control unit generates a selection signal sel1 for selecting the terminal 0 of the selector SEL1, and outputs it to the selector SEL1.
  • the selector SEL1 selects the terminal 0 according to the selection signal sel1, and outputs the image signal D0 that forms the test image Img_w100 output from the test image generation unit 4 to the projection unit 5.
  • Projection unit 5 projects test image Img_w100 onto the projection target.
  • the imaging unit 6 outputs to the response characteristic acquisition unit 9 an image signal D4 that forms a captured image obtained by imaging the test image Img_w100 projected by the projection unit 5.
  • the response characteristic acquisition unit 9 calculates the average value of the pixel values of each pixel of the captured image when the W100% image is projected. Then, the response characteristic acquisition unit 9 acquires the calculated value as the target image white value Wave. The response characteristic acquisition unit 9 outputs the acquired target image white value Wave to the target image acquisition unit 2.
  • the response characteristic acquisition unit 9 holds the value of each pixel of the captured image when the W100% image is projected. Specifically, the response characteristic acquisition unit 9 determines from the map information Map the pixel P (u, v) of the projected image corresponding to the pixel Px (x, y) of the captured image when the W100% image is projected. And the pixel value of the pixel Px (x, y) of the captured image when the W100% image is projected is held as the white value Wu, v . Then, in response to a request from the correction unit 3, the response characteristic acquisition unit 9 outputs the retained white value W u, v to the correction unit 3.
  • the response characteristic acquisition unit 9 holds the value of each pixel of the captured image when the W0% image is projected. Specifically, the response characteristic acquisition unit 9 calculates from the map information Map the pixel P (u, v) of the projection image corresponding to the pixel Px (x, y) of the captured image when the W0% image is projected. And the pixel value of the pixel Px (x, y) of the captured image when the W0% image is projected is held as the black value Bu, v . Then, in response to a request from the correction unit 3, the response characteristic acquisition unit 9 outputs the held black value B u, v to the correction unit 3.
  • test image generation unit 4 generates a W0% image Img_w0 as a test image, and outputs an image signal D0 that forms the generated test image Img_w0 to the selector SEL1.
  • the control unit generates a selection signal sel1 for selecting the terminal 0 of the selector SEL1, and outputs it to the selector SEL1.
  • the selector SEL1 selects the terminal 0 according to the selection signal sel1, and outputs the image signal D0 that forms the test image Img_w0 output from the test image generation unit 4 to the projection unit 5.
  • Projection unit 5 projects test image Img_w0 onto the projection target.
  • the imaging unit 6 outputs an image signal D4 that forms a captured image obtained by imaging the test image Img_w0 projected by the projection unit 5 to the response characteristic acquisition unit 9.
  • the response characteristic acquisition unit 9 obtains the maximum value among the pixel values of each pixel of the captured image when the W0% image is projected. Then, the response characteristic acquisition unit 9 acquires the obtained value as the target image black value Bmax. The response characteristic acquisition unit 9 outputs the acquired target image black value Bmax to the target image acquisition unit 2.
  • the response characteristic acquisition process is executed.
  • Step S4 In step S4, the coefficient Br is set by the coefficient setting unit 1 as a value satisfying 0 ⁇ Br ⁇ 1. Then, the set coefficient Br is output from the coefficient setting unit 1 to the target image acquisition unit 2.
  • Step S5 the target image acquisition unit 2 generates a target image Img_T from the image signal Din (image Img0) based on the coefficient Br, the gamma value ⁇ , the target image black value Bmax, and the target image white value Wave. .
  • the target image acquisition unit 2 sets the pixel values of the pixels (u, v) on the image of the input image Img0 as I u, v, and coordinates (u, v) on the image of the target image Img_T.
  • the target image Img_T is generated by executing processing corresponding to the following (Equation 4) or (Equation 5).
  • the above processing is performed for the R component gamma value, the G component pixel value, and the B component pixel value of the image Img0 and image Img_T, respectively. It is executed using the gamma value of.
  • the value Wave is an example and may be another value.
  • the value Wave may be replaced with a value such as an upper limit value, a lower limit value, or an intermediate value of the pixel value of each pixel of the captured image when a W100% image is projected.
  • the target image acquisition unit 2 may generate the target image Img_T by executing processes corresponding to the following (Equation 6) and (Equation 7).
  • the value Wave and the value Bmax are examples, and may be other values.
  • the value Wave may be replaced with a value such as an upper limit value, a lower limit value, or an intermediate value of the pixel value of each pixel of the captured image when a W100% image is projected.
  • the value Bmax may be replaced with a value such as an average value, an upper limit value, or an intermediate value of the pixel values of each pixel of the captured image when the W0% image is projected.
  • the image signal D1 that forms the target image Img_T generated in this way is output from the target image acquisition unit 2 to the correction unit 3.
  • Step S6 the correction unit 3 corrects the image signal D1 using the gamma value ⁇ output from the gamma characteristic acquisition unit 7 and the white value W u, v output from the response characteristic acquisition unit 9.
  • the process is executed to obtain the corrected image Img_P.
  • the correction unit 3 executes processing corresponding to the following (Equation 8) when the pixel value of the pixel at the coordinate (u, v) on the image of the image Img_P is P u, v. Then, the corrected image Img_P is acquired.
  • k1 first coefficient k1 for black value adjustment (0 ⁇ k1 ⁇ 1)
  • k2 first coefficient k2 for black value adjustment (0 ⁇ k2 ⁇ 1)
  • the black value adjusting first coefficient k1 and the black value adjusting second coefficient k2 are set by a control unit (not shown), for example.
  • the correction unit 3 executes a process corresponding to the above (Formula 8) to acquire the image Img_P after the correction process.
  • the image signal D2 that forms the corrected image Img_P generated in this way is output from the correction unit 3 to the selector SEL1.
  • Step S7 the control unit generates a selection signal sel1 for selecting the terminal 1 of the selector SEL1, and according to the selection signal sel1, the selector SEL1 selects the terminal 1 and outputs the image signal D2 output from the correction unit 3. Output to the projection unit 5.
  • the projection unit 5 projects the image signal D2 (image Img_P) onto the projection target.
  • the projection system 1000 performs processing.
  • FIG. 3 is an example of an image Img0 (8-bit image) input to the projection system 1000.
  • the image Img0 is composed of eight patterns, and the eight patterns (single color patterns) are designated as pattern 1, pattern 2, pattern 3, and pattern 4 from the left in the upper part of FIG. If the pattern 5, the pattern 6, the pattern 7, and the pattern 8 are from the left, the colors (R component value, G component value, B component value) of the eight patterns are as follows.
  • FIG. 5 is a captured image when the image Img0 in FIG. 3 is projected onto the projection target in FIG. 4 without performing the processing in the target image acquisition unit 2 and the processing in the correction unit 3 (as they are). .
  • FIG. 6 is a captured image when the image Img0 of FIG. 3 is projected onto the projection target of FIG. 4 by executing the processing in the target image acquisition unit 2 and the processing in the correction unit 3.
  • the portion of the board to be projected (the boundary between the board and the background) can be clearly recognized.
  • the portion of the plate to be projected (the boundary between the plate and the background) is inconspicuous, and it can be seen that a good correction process has been performed.
  • the target image Img_T that reduces the number of pixels saturated when projected by the coefficient Br (0 ⁇ Br ⁇ 1) is obtained based on the gamma characteristics of the entire system of the projection system 1000. get. Then, the projection system 1000 obtains a projection image Img_P by setting the black value B u, v to “0” in the conversion formula based on the gamma characteristic of the entire system of the projection system 1000 with respect to the obtained target image Img_T. To do.
  • the projection system 1000 the number of saturated pixels of the projected image is reduced, and even if the S / N ratio of the captured image acquired by capturing the projected image is poor, the projected image ( Alternatively, it is possible to realize an image projection process that does not cause the user who has viewed the captured image) to feel uncomfortable.
  • the projection system 1000 by adjusting the coefficient Br, for example, the luminance (illuminance) of light emitted from the projection unit 5 is low (for example, the projection unit 5 has low illuminance (low luminance)).
  • the number of pixels saturated in the image can be reduced. Therefore, in the projection system 1000, even when the projection unit 5 (for example, a projector device) with low illuminance (low brightness) is used, the user who viewed the projection image (or the captured image) does not feel uncomfortable. Image projection processing can be realized.
  • the projection system 1000 acquires a corrected image by the same processing as that for setting the black value to “0” for the target image. For this reason, in the projection system 1000, the dynamic range of the corrected image can be widened. As a result, in the projection system 1000, for example, even when the luminance (illuminance) of light emitted from the projection unit 5 is low (for example, a projector device with low illuminance (low luminance) is used as the projection unit 5). Even in this case, a wide dynamic range of the projected image can be ensured, and an image projection process that does not cause discomfort to the user who viewed the projected image (or captured image) can be realized.
  • the projection system 1000 even when a projector device with high illuminance (high luminance) or a high-performance imaging device is not used, uneven luminance and uneven color of the projected image (video) are appropriately obtained. This makes it possible to realize a good image (video) projection process.
  • the projection system of the above embodiment may be realized as one device, or a part of each functional unit may be realized as another device.
  • the imaging unit 6 may be provided in the imaging device, and functional units other than the imaging unit 6 may be provided in the projector device, and the projection system may be realized by the imaging device and the projector device.
  • each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • part or all of the processing of each functional block in each of the above embodiments may be realized by a program.
  • a part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in the computer.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.
  • OS operating system
  • middleware middleware
  • predetermined library predetermined library
  • execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, large-capacity DVD, next-generation DVD, and semiconductor memory. .
  • the computer program is not limited to the one recorded on the recording medium, but may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • circuit may be realized in whole or in part by hardware, software, or a mixture of hardware and software.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Picture Signal Circuits (AREA)
  • Projection Apparatus (AREA)

Abstract

高性能な撮像装置を用いない場合であっても、投影型プロジェクター装置により投影面に投影された画像(映像)の輝度むらや色むらを、適切に低減させる。投影システム(1000)では、係数設定部(1)により設定された係数Br(0≦Br≦1)により、投影したときに飽和する画素数を低減させる目標画像を、投影システムの系全体のガンマ特性に基づいて、取得する。そして、投影システム(1000)では、取得した目標画像に対して、投影システムの系全体のガンマ特性と、ホワイト値とに基づいて、補正処理が実行される。これにより、投影システム(1000)では、投影される画像の飽和する画素数を低減させるとともに、投影画像を撮像して取得した撮像画像のS/N比が悪い場合等であっても、投影画像を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。

Description

投影システム、プロジェクター装置、撮像装置、および、プログラム
 本発明は、投影型プロジェクター装置で投影される画像(映像)を適切に表示するための技術に関する。
 投影型プロジェクター装置により投影面に投影された画像(映像)の輝度むらや色むらを低減する技術が開発されている。
 例えば、特許文献1には、投影型プロジェクター装置で映像を投影する場合における画像(映像)を、投影面の反射特性を考慮して補正することで、投影された画像(映像)の輝度むらや色むらを低減する技術が開示されている。
 特許文献1(特開2012-28877号公報)の技術では、投影された映像を撮像して得られた撮像映像の画素ごとの各色成分の輝度値を計測し、計測された画素ごとの各色成分の輝度値に基づいて、映像中の基準点の輝度に対する輝度の変化率を示す配光マップを算出する。そして、特許文献1の技術では、計測された画素ごとの各色成分の輝度値を、配光マップを用いて正規化して、応答関数を算出し、入力映像信号の画素ごとの各色成分の輝度値を、応答関数及び配光マップを利用して補正し、補正された映像信号を取得する。そして、特許文献1の技術では、その補正された映像信号を投影面に投影する。
 上記技術では、精度の高い配光マップ、応答関数を算出するために、投影された映像を、高性能な撮像装置で撮像する必要がある。つまり、上記技術は、撮像感度が良く、S/N比の良い撮像画像(撮像映像)を取得することができる高性能な撮像装置を必要とする。また、上記技術は、投影画像のダイナミックレンジが広いことが前提とされており、高照度のプロジェクター装置が必要とされる。このため、上記技術を、投影画像のダイナミックレンジが狭い低照度のプロジェクター装置に適用するのは困難である。
 本発明は、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影型プロジェクター装置により投影面に投影された画像(映像)の輝度むらや色むらを、適切に低減させる投影システム、プロジェクター装置、および、プログラムを実現することを目的とする。
 上記課題を解決するために、第1の発明は、入力画像に対して、所定の処理を実行した画像を投影する投影システムであって、投影部と、撮像部と、ガンマ特性取得部と、画素対応付け部と、応答特性取得部と、係数設定部と、目標画像取得部と、補正部と、を備える。
 投影部は、画像を投影対象に投影する。
 撮像部は、投影部により投影された画像を撮像画像として取得する。
 ガンマ特性取得部は、投影部の光学系および撮像部の光学系により決定されるガンマ特性を取得する。
 画素対応付け部は、投影部から投影される画像である投影画像と、撮像部により取得された撮像画像とに基づいて、撮像画像上の画素と、撮像画像上の当該画素に対応する撮像画像上の画素とを対応付けた画素対応付けデータを取得する。
 応答特性取得部は、画素ごとに、投影部により投影されたW100%画像を撮像部で撮像して取得した撮像画像の画素値であるホワイト値と、投影部により投影されたW0%画像を撮像部で撮像して取得した撮像画像の画素値であるブラック値と、取得するとともに、取得したホワイト値から導出される代表値である代表ホワイト値と、取得したブラック値から導出される代表値である代表ブラック値とを取得する。
 係数設定部は、第1係数を設定する。
 目標画像取得部は、ガンマ特性取得部により取得されたガンマ特性と、第1係数とに基づいて、入力画像から目標画像を取得する。
 補正部は、目標画像に対して、ガンマ特性取得部により取得されたガンマ特性と、ホワイト値と、ブラック値とに基づく補正処理を実行することで補正画像を取得する。
 そして、目標画像取得部は、投影部が補正画像を投影したときに、撮像部により撮像されると予測される画像において、画素値が飽和する画素が少なくなるように、目標画像を取得する。
 この投影システムでは、第1係数により、投影したときに飽和する画素数を低減させる目標画像を、投影システムの系全体のガンマ特性に基づいて、取得する。そして、この投影システムでは、取得した目標画像に対して、投影システムの系全体のガンマ特性と、ホワイト値と、ブラック値とに基づいて、補正処理が実行される。
 これにより、この投影システムでは、投影される画像の飽和する画素数を低減させることができるので、系全体のダイナミックレンジが狭い場合であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 したがって、この投影システムでは、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影された画像(映像)の輝度むらや色むら等を適切に低減させ、良好な画像(映像)投影処理を実現することができる。
 なお、「W100%画像」とは、当該画像を形成する全ての画素の画素値が、画素値の取り得る範囲の上限値である画像のことをいう。例えば、画素値が8ビットデータであり、0~255の値をとる場合、「W100%画像」の画素の画素値は、「255」である。
 「W0%画像」とは、当該画像を形成する全ての画素の画素値が、画素値の取り得る範囲の下限値である画像のことをいう。例えば、画素値が8ビットデータであり、0~255の値をとる場合、「W0%画像」の画素の画素値は、「0」である。
 「目標画像」とは、例えば、入力画像を、投影部の光学系および撮像部の光学系により決定されるガンマ特性に基づいて調整した画像であって、当該画像を形成する画素の画素値が所定の範囲内となるように、ゲイン調整およびオフセット調整がなされた画像である。
 第2の発明は、第1の発明であって、入力画像および目標画像がNビット画像(N:自然数)であり、入力画像および目標画像の画素の画素値Pxは、0≦Px≦2^N-1を満たすものとし、第1係数をBrとし、0≦Br≦1を満たすものとし、入力画像の画像上の座標(u,v)の画素値をIu,vとし、目標画像の画像上の座標(u,v)の画素値をTu,vとし、ガンマ特性を決定するガンマ値をγとし、代表ホワイト値をWaveとし、代表ブラック値をBmaxとしたとき、
 目標画像取得部は、
Figure JPOXMLDOC01-appb-M000004

または、
Figure JPOXMLDOC01-appb-M000005

により、前記目標画像の画素値Tu,vを取得することで、前記目標画像を取得する。
 この投影システムでは、係数Br(0≦Br≦1)により、投影したときに飽和する画素数を低減させる目標画像を、投影システムの系全体のガンマ特性に基づいて、取得する。そして、この投影システムでは、取得した目標画像に対して、投影システムの系全体のガンマ特性と、ホワイト値とに基づいて、補正処理が実行される。
 これにより、この投影システムでは、投影される画像の飽和する画素数を低減させることができるので、系全体のダイナミックレンジが狭い場合であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 この投影システムでは、係数Brを調整することで、例えば、投影部から照射される光の輝度(照度)が低い場合であって(例えば、投影部として、低照度(低輝度)のプロジェクター装置を用いた場合であって)、当該投影部からW100%画像を投影した場合において、当該画像の飽和する画素数を低減させることができる。したがって、この投影システムでは、低照度(低輝度)の投影部(例えば、プロジェクター装置)を用いた場合であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 第3の発明は、第2の発明であって、代表ブラック値Bmaxは、「0」である。
 これにより、この投影システムでは、代表ブラック値Bmaxを「0」として、目標画像を取得することができる。
 第4の発明は、第1から第3のいずれかの発明であって、目標画像、および、補正画像がNビット画像(N:自然数)であり、入力画像および目標画像の画素の画素値Pxは、0≦Px≦2^N-1を満たすものとし、目標画像の画像上の座標(u,v)の画素値をTu,vとし、補正画像の画像上の座標(u,v)の画素値をPu,vとし、ガンマ特性を決定するガンマ値をγとし、投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)のホワイト値を、値Wu,vとし、投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)のブラック値を、値Bu,vとし、ブラック値調整用第1係数をk1(0≦k1≦1)とし、ブラック値調整用第2係数をk2(0≦k2≦1)としたとき、
 補正部は、
Figure JPOXMLDOC01-appb-M000006

により、前記補正画像の画素値Pu,vを取得することで、前記補正画像を取得する。
 この投影システムでは、係数Br(0≦Br≦1)により、投影したときに飽和する画素数を低減させる目標画像を、投影システムの系全体のガンマ特性に基づいて、取得する。そして、この投影システムでは、取得した目標画像に対して、ブラック値調整用第1係数およびブラック値調整用第2係数によりブラック値を調整し、調整したブラック値を用いることで、補正画像を取得する。
 これにより、この投影システムでは、投影される画像の飽和する画素数を低減させるとともに、投影画像を撮像して取得される撮像画像のS/N比が悪い場合等であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 また、この投影システムでは、目標画像に対して、ブラック値の値を小さくしたときと同様の処理で、補正画像を取得する。このため、この投影システムでは、補正画像のダイナミックレンジを広くすることができる。その結果、この投影システムでは、例えば、投影部から照射される光の輝度(照度)が低い場合であっても(例えば、投影部として、低照度(低輝度)のプロジェクター装置を用いた場合であっても)、投影画像のダイナミックレンジを広く確保することができ、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 したがって、この投影システムでは、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影された画像(映像)の輝度むらや色むら等を適切に低減させ、良好な画像(映像)投影処理を実現することができる。
 第5の発明は、第4の発明であって、ブラック値調整用第1係数k1は、「0」であり、ブラック値調整用第2係数k2は、「0」である。
 これにより、この投影システムでは、目標画像に対して、ブラック値の値を「0」にしたときと同様の処理で、補正画像を取得する。このため、この投影システムでは、補正画像のダイナミックレンジを広くすることができる。その結果、この投影システムでは、例えば、投影部から照射される光の輝度(照度)が低い場合であっても(例えば、投影部として、低照度(低輝度)のプロジェクター装置を用いた場合であっても)、投影画像のダイナミックレンジを広く確保することができ、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 したがって、この投影システムでは、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影された画像(映像)の輝度むらや色むら等を適切に低減させ、良好な画像(映像)投影処理を実現することができる。
 第6の発明は、第1から第5のいずれかの発明である投影システムに用いられるプロジェクター装置である。
 プロジェクター装置は、投影部と、ガンマ特性取得部と、画素対応付け部と、応答特性取得部と、係数設定部と、目標画像取得部と、補正部と、を備える。
 これにより、第1から第5のいずれかの発明である投影システムに用いられるプロジェクター装置を実現することができる。
 第7の発明は、第1から第5のいずれかの発明である投影システムに用いられる撮像装置であって、撮像部を備える。
 これにより、第1から第5のいずれかの発明である投影システムに用いられる撮像装置を実現することができる。
 第8の発明は、投影部と撮像部とを備える投影システムに用いられ、入力画像に対して、所定の処理を実行した画像を投影する投影方法をコンピュータに実行させるためのプログラムである。投影方法は、投影ステップと、撮像ステップと、ガンマ特性取得ステップと、ステップと、画素対応付けステップと、応答特性取得ステップと、係数設定ステップと、目標画像取得ステップと、補正ステップと、を備える。
 投影ステップは、画像を投影対象に投影する。
 撮像ステップは、投影ステップにより投影された画像を撮像画像として取得する。
 ガンマ特性取得ステップは、投影部の光学系および撮像部の光学系により決定されるガンマ特性を取得する。
 画素対応付けステップは、投影部から投影される画像である投影画像と、撮像部により取得された撮像画像とに基づいて、撮像画像上の画素と、撮像画像上の当該画素に対応する撮像画像上の画素とを対応付けた画素対応付けデータを取得する。
 応答特性取得ステップは、画素ごとに、投影部により投影されたW100%画像を撮像部で撮像して取得した撮像画像の画素値であるホワイト値と、投影部により投影されたW0%画像を撮像部で撮像して取得した撮像画像の画素値であるブラック値と、取得するとともに、取得したホワイト値から導出される代表値である代表ホワイト値と、取得したブラック値から導出される代表値である代表ブラック値とを取得する。
 係数設定ステップは、第1係数を設定する。
 目標画像取得ステップは、投影部により入力画像を投影した画像を、撮像部により撮像したときに取得されると予測される画像において、画素値が飽和する画素が少なくなるように、ガンマ特性取得ステップにより取得されたガンマ特性と、第1係数とに基づいて、入力画像から目標画像を取得する。
 補正ステップは、目標画像に対して、ガンマ特性取得ステップにより取得されたガンマ特性と、ホワイト値と、ブラック値とに基づく補正処理を実行することで補正画像を取得する。
 これにより、第1の発明と同様の効果を奏する投影方法をコンピュータに実行させるためのプログラムを実現することができる。
 本発明によれば、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影型プロジェクター装置により投影面に投影された画像(映像)の輝度むらや色むらを、適切に低減させる投影システム、プロジェクター装置、および、プログラムを実現することができる。
第1実施形態に係る投影システム1000の概略構成図。 投影システム1000の処理を示すフローチャート。 投影システム1000に入力される画像Img0(8ビット画像)の一例を示す図。 投影システム1000で投影する対象(投影対象)の画像を示す図。 図3の画像Img0を、図4の投影対象に、目標画像取得部2での処理、補正部3での処理を実行せずに(そのまま)、投影したときの撮像画像を示す図。 図3の画像Img0を、図4の投影対象に、目標画像取得部2での処理、補正部3での処理を実行して、投影したときの撮像画像を示す図。
 [第1実施形態]
 第1実施形態について、図面を参照しながら、以下、説明する。
 <1.1:投影システムの構成>
 図1は、第1実施形態に係る投影システム1000の概略構成図である。
 投影システム1000は、図1に示すように、係数設定部1と、目標画像取得部2と、補正部3と、テスト画像生成部4と、セレクタSEL1と、投影部5と、撮像部6と、ガンマ特性取得部7と、画素対応付け部8と、応答特性取得部9とを備える。
 係数設定部1は、係数Brを所定の値に設定し、設定した係数Brを目標画像取得部2に出力する。
 目標画像取得部2は、投影システム1000に入力される画像信号Din(画像Img0)と、係数設定部1から出力される係数Brと、ガンマ特性取得部7から出力されるガンマ値γ(ガンマ値に関する情報γ)と、応答特性取得部9から出力される目標画像用ブラック値(例えば、Bmax)および目標画像用ホワイト値(例えば、Wave)に関する情報と、を入力する。目標画像取得部2は、画像信号Din(画像Img0)から、係数Br、ガンマ値γ、目標画像用ブラック値Bmaxおよび目標画像用ホワイト値Waveに基づいて、目標画像Img_Tを生成し、生成した目標画像Img_Tを形成する画像信号を、画像信号D1として、補正部3に出力する。
 補正部3は、目標画像取得部2から出力される画像信号D1と、ガンマ特性取得部7から出力されるガンマ値γ(ガンマ値に関する情報γ)と、応答特性取得部9から出力されるホワイト値(画像上の座標(u,v)の画素のホワイト値をWu,vと表記する。)およびブラック値(画像上の座標(u,v)の画素のブラック値をBu,vと表記する。)と、を入力する。補正部3は、ガンマ値γ、応答特性取得部9から出力されるホワイト値、ブラック値を用いて、画像信号D1に対して補正処理を実行する。そして、補正部3は、処理後の画像信号(画像Img_Pを形成する画像信号)を、画像信号D2としてセレクタSEL1に出力する。
 テスト画像生成部4は、以下の(1)~(4)のテスト画像を生成し、生成した画像を形成する画像信号を画像信号D0として、セレクタSEL1と、ガンマ特性取得部7と、画素対応付け部8と、に出力する。
(1)投影システム1000の光学系の系全体のガンマ値を取得するためのテスト画像Img_for_gamma
(2)投影部5から投影される投影画像と、当該撮像画像を撮像部6により撮像することで取得される撮像画像との画素対応付けを行うためのテスト画像Img_for_map
(3)W100%画像Img_w100
(4)W0%画像Img_w0
 なお、「W100%画像」とは、当該画像を形成する全ての画素の画素値が、画素値の取り得る範囲の上限値である画像のことをいう。例えば、画素値が8ビットデータであり、0~255の値をとる場合、「W100%画像」の画素の画素値は、「255」である。
 「W0%画像」とは、当該画像を形成する全ての画素の画素値が、画素値の取り得る範囲の下限値である画像のことをいう。例えば、画素値が8ビットデータであり、0~255の値をとる場合、「W0%画像」の画素の画素値は、「0」である。
 セレクタSEL1は、テスト画像生成部4から出力される画像信号D0と、補正部3から出力される画像信号D2と、選択信号sel1とを入力する。選択信号sel1は、制御部(不図示)により生成される。セレクタSEL1は、選択信号sel1に従い、画像信号D0および画像信号D2のいずれか一方を選択し、選択した画像信号を画像信号D3として、投影部5に出力する。
 投影部5は、画像を投影するための光学系を有している。投影部5は、セレクタSEL1から出力される画像信号D3を入力し、入力した画像信号D3を、投影対象に投影する。
 撮像部6は、投影部5により投影された画像を撮像するための光学系を有している。撮像部6は、投影部5により投影された画像を撮像し、撮像画像を取得し、取得した撮像画像を形成する画像信号を、画像信号D4として、ガンマ特性取得部7と、画素対応付け部8と、応答特性取得部9とに出力する。
 ガンマ特性取得部7は、撮像部6から出力される画像信号D4と、テスト画像生成部4から出力される画像信号D0とを入力する。ガンマ特性取得部7は、画像信号D4と画像信号D0とに基づいて、投影システム1000の系全体(投影部5の光学系と撮像部6の光学系)のガンマ特性を決定(推定)する。そして、ガンマ特性取得部7は、決定したガンマ特性からガンマ値γを取得し、取得したガンマ値γを、目標画像取得部2と、補正部3とに出力する。
 画素対応付け部8は、撮像部6から出力される画像信号D4と、テスト画像生成部4から出力される画像信号D0とを入力する。画素対応付け部8は、画像信号D0により形成される画像の画素が、画像信号D4により形成される画像のどの画素に対応するのかを決定することで、画素対応付けを行う。そして、画素対応付け部8は、すべての画素の対応付けについての情報を含むマップ情報Mapを取得し、取得したマップ情報Mapを応答特性取得部9に出力する。
 応答特性取得部9は、撮像部6から出力される画像信号D4と、画素対応付け部8から出力されるマップ情報Mapとを入力する。
 応答特性取得部9は、W100%画像が投影されているときの撮像画像を形成する画像信号D4から、目標画像用ホワイト値(例えば、Wave)を取得し、取得した目標画像用ホワイト値(例えば、Wave)を目標画像取得部2に出力する。また、応答特性取得部9は、W0%画像が投影されているときの撮像画像を形成する画像信号D4から、目標画像用ブラック値(例えば、Bmax)を取得し、取得した目標画像用ブラック値(例えば、Bmax)を目標画像取得部2に出力する。
 また、応答特性取得部9は、補正部3において、画像上の座標が(u,v)である画素Px(u,v)を処理対象画素とするとき、マップ情報Mapに基づいて、投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)を特定する。そして、応答特性取得部9は、投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)のホワイト値(W100%画像が投影されているときの撮像画像の画素Px(x,y)の画素値)を、ホワイト値Wu,vとして、取得し、取得したホワイト値Wu,vを補正部3に出力する。
 また、応答特性取得部9は、投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)のブラック値(W0%画像が投影されているときの撮像画像の画素Px(x,y)の画素値)を、ブラック値Bu,vとして、取得し、取得したブラック値Bu,vを補正部3に出力する。
 <1.2:投影システムの動作>
 以上のように構成された投影システム1000の動作について、以下、説明する。
 図2は、投影システム1000の処理を示すフローチャートである。
 以下では、図2のフローチャートを参照しながら、投影システム1000の動作について、説明する。
 なお、投影システム1000では、画像信号として、RGB色空間の画像信号に対して処理が実行されるものとして、以下、説明する。
 (ステップS1):
 ステップS1では、投影システム1000の系全体(投影部5の光学系と撮像部6の光学系)のガンマ特性を決定(推定)する処理が実行される。
 テスト画像生成部4は、投影システム1000の光学系の系全体のガンマ値を取得するためのテスト画像Img_for_gammaを生成し、生成したテスト画像Img_for_gammaを形成する画像信号D0をセレクタSEL1に出力する。
 制御部は、セレクタSEL1の端子0を選択するための選択信号sel1を生成し、セレクタSEL1に出力する。
 セレクタSEL1は、選択信号sel1に従い、端子0を選択し、テスト画像生成部4から出力されるテスト画像Img_for_gammaを形成する画像信号D0を投影部5に出力する。
 投影部5は、テスト画像Img_for_gammaを投影対象に投影する。
 テスト画像Img_for_gammaは、例えば、全ての画素が同一の値であるR成分のみを有する画像である。つまり、テスト画像Img_for_gammaの画素Px(u,v)のR成分値をR(Px(u,v))とし、G成分値をG(Px(u,v))とし、B成分値をB(Px(u,v))とすると、
  R(Px(u,v))=A1 (0≦A1≦255)
  G(Px(u,v))=0
  B(Px(u,v))=0
となる画像である。
 なお、テスト画像Img_for_gammaは、8ビットの画像であり、当該画像の画素値は、0~255をとるものとする。
 テスト画像生成部4は、上記のR成分のみを有するテスト画像を生成し、生成したテスト画像は、投影部5により投影される。
 そして、撮像部6は、投影部5により投影されている上記R成分のみを有するテスト画像を撮像した撮像画像を形成する画像信号D4をガンマ特性取得部7に出力する。
 ガンマ特性取得部7は、撮像部6から出力される画像信号D4に基づいて、ガンマ特性を決定する処理を行う。
 上記処理を、テスト画像Img_for_gammaの画素Px(u,v)のR成分値A1の値を変化させて繰り返し実行することで、ガンマ特性取得部7により、ガンマ特性が決定(推定)される。
 つまり、投影部5から投影される投影画像の画素のR成分値を0~255の範囲で変化させた場合、撮像画像の画素の画素値がどのような値になるかを調べることで、ガンマ特性が決定(推定)される。
 テスト画像Img_for_gammaを投影部5が投影した投影画像の画素のR成分値をxR_prjとし、当該投影画像の撮像画像の画素のR成分値をyR_capとすると、
  yR_cap=α×(xR_prj/255)^γ+β
  α、β:定数
となる。つまり、上記数式が、投影システム1000の系全体(投影部5の光学系と撮像部6の光学系)のガンマ特性を示す数式である。
 テスト画像Img_for_gammaの画素Px(u,v)のR成分値A1の値を変化させて繰り返し投影し、ガンマ特性取得部7は、投影画像の画素のR成分値xR_prjと、当該投影画像の撮像画像の画素のR成分値yR_capとから、上記投影システム1000の系全体(投影部5の光学系と撮像部6の光学系)のガンマ特性を示す数式の値γを決定(推定)する。
 このようにして取得されたガンマ値γ(R成分用のガンマ値)は、ガンマ特性取得部7から目標画像取得部2および補正部3に出力される。
 なお、投影システム1000では、テスト画像Img_for_gammaを、全ての画素が同一の値であるG成分のみを有する画像として、上記と同様の処理を実行し、ガンマ値γ(G成分用のガンマ値)を取得し、取得した当該ガンマ値γ(G成分用のガンマ値)は、ガンマ特性取得部7から目標画像取得部2および補正部3に出力される。
 また、投影システム1000では、テスト画像Img_for_gammaを、全ての画素が同一の値であるB成分のみを有する画像として、上記と同様の処理を実行し、ガンマ値γ(B成分用のガンマ値)を取得し、取得した当該ガンマ値(B成分用のガンマ値)は、ガンマ特性取得部7から目標画像取得部2および補正部3に出力される。
 (ステップS2):
 ステップS2では、投影画像と撮像画像との画素対応付け処理が実行される。
 テスト画像生成部4は、投影部5から投影される投影画像と、当該撮像画像を撮像部6により撮像することで取得される撮像画像との画素対応付けを行うためのテスト画像Img_for_mapを生成し、生成したテスト画像Img_for_mapを形成する画像信号D0をセレクタSEL1に出力する。
 制御部は、セレクタSEL1の端子0を選択するための選択信号sel1を生成し、セレクタSEL1に出力する。
 セレクタSEL1は、選択信号sel1に従い、端子0を選択し、テスト画像生成部4から出力されるテスト画像Img_for_mapを形成する画像信号D0を投影部5に出力する。
 投影部5は、テスト画像Img_for_mapを投影対象に投影する。
 テスト画像Img_for_mapは、例えば、グレイコード(「0」、「1」のパターン)による画像や、位相パターン画像(所定の周期、位相の正弦波によるパターン画像)である。
 撮像部6は、投影部5により投影されているテスト画像Img_for_mapを撮像した撮像画像を形成する画像信号D4を画素対応付け部8に出力する。
 画素対応付け部8は、画像信号D0により形成される画像の画素が、画像信号D4により形成される画像のどの画素に対応するのかを決定することで、画素対応付けを行う。そして、画素対応付け部8は、すべての画素の対応付けについての情報を含むマップ情報Mapを取得し、取得したマップ情報Mapを応答特性取得部9に出力する。
 (ステップS3):
 ステップS3では、応答特性を取得する処理が実行される。
 テスト画像生成部4は、テスト画像として、W100%画像Img_w100を生成し、生成したテスト画像Img_w100を形成する画像信号D0をセレクタSEL1に出力する。
 制御部は、セレクタSEL1の端子0を選択するための選択信号sel1を生成し、セレクタSEL1に出力する。
 セレクタSEL1は、選択信号sel1に従い、端子0を選択し、テスト画像生成部4から出力されるテスト画像Img_w100を形成する画像信号D0を投影部5に出力する。
 投影部5は、テスト画像Img_w100を投影対象に投影する。
 撮像部6は、投影部5により投影されているテスト画像Img_w100を撮像した撮像画像を形成する画像信号D4を応答特性取得部9に出力する。
 応答特性取得部9は、W100%画像が投影されているときの撮像画像の各画素の画素値の平均値を算出する。そして、応答特性取得部9は、算出した値を、目標画像用ホワイト値Waveとして取得する。応答特性取得部9は、取得した目標画像用ホワイト値Waveを目標画像取得部2に出力する。
 また、応答特性取得部9は、W100%画像が投影されているときの撮像画像の各画素の値を保持する。具体的には、応答特性取得部9は、マップ情報Mapから、W100%画像が投影されているときの撮像画像の画素Px(x,y)に対応する投影画像の画素P(u,v)を特定するとともに、W100%画像が投影されているときの撮像画像の画素Px(x,y)の画素値をホワイト値Wu,vとして保持する。そして、応答特性取得部9は、補正部3からの要求に応じて、保持しているホワイト値Wu,vを補正部3に出力する。
 また、応答特性取得部9は、W0%画像が投影されているときの撮像画像の各画素の値を保持する。具体的には、応答特性取得部9は、マップ情報Mapから、W0%画像が投影されているときの撮像画像の画素Px(x,y)に対応する投影画像の画素P(u,v)を特定するとともに、W0%画像が投影されているときの撮像画像の画素Px(x,y)の画素値をブラック値Bu,vとして保持する。そして、応答特性取得部9は、補正部3からの要求に応じて、保持しているブラック値Bu,vを補正部3に出力する。
 次に、テスト画像生成部4は、テスト画像として、W0%画像Img_w0を生成し、生成したテスト画像Img_w0を形成する画像信号D0をセレクタSEL1に出力する。
 制御部は、セレクタSEL1の端子0を選択するための選択信号sel1を生成し、セレクタSEL1に出力する。
 セレクタSEL1は、選択信号sel1に従い、端子0を選択し、テスト画像生成部4から出力されるテスト画像Img_w0を形成する画像信号D0を投影部5に出力する。
 投影部5は、テスト画像Img_w0を投影対象に投影する。
 撮像部6は、投影部5により投影されているテスト画像Img_w0を撮像した撮像画像を形成する画像信号D4を応答特性取得部9に出力する。
 応答特性取得部9は、W0%画像が投影されているときの撮像画像の各画素の画素値の中で最大値を求める。そして、応答特性取得部9は、求めた値を、目標画像用ブラック値Bmaxとして取得する。応答特性取得部9は、取得した目標画像用ブラック値Bmaxを目標画像取得部2に出力する。
 以上のようにして、投影システム1000では、応答特性の取得処理が実行される。
 (ステップS4):
 ステップS4では、係数設定部1により係数Brが、0≦Br≦1を満たす値として設定される。そして、設定された係数Brは、係数設定部1から目標画像取得部2に出力される。
 (ステップS5):
 ステップS5では、目標画像取得部2は、画像信号Din(画像Img0)から、係数Br、ガンマ値γ、目標画像用ブラック値Bmaxおよび目標画像用ホワイト値Waveに基づいて、目標画像Img_Tを生成する。具体的には、目標画像取得部2は、入力される画像Img0の画像上の座標(u,v)の画素の画素値をIu,vとし、目標画像Img_Tの画像上の座標(u,v)の画素の画素値をTu,vとすると、以下の(数式4)または(数式5)に相当する処理を実行することで、目標画像Img_Tを生成する。
Figure JPOXMLDOC01-appb-M000007

Figure JPOXMLDOC01-appb-M000008

 なお、上記処理は、画像Img0、画像Img_TのR成分の画素値、G成分の画素値、B成分の画素値について、それぞれ、R成分用のガンマ値、G成分用のガンマ値、B成分用のガンマ値を用いて実行される。
 上記処理において、Brが0≦Br≦1を満たす値に設定されているので、目標画像Img_Tの各画素の画素値を小さくすることができる。これにより、投影部5から投影した画像において、飽和する画素を少なくすることができ、良好な画像投影を実現することができる。
 また、値Waveは、一例であり、他の値としてもよい。例えば、値Waveを、W100%画像が投影されているときの撮像画像の各画素の画素値の上限値や下限値や中間値等の値に代替させてもよい。
 なお、目標画像取得部2は、以下の(数式6)、(数式7)に相当する処理を実行することで、目標画像Img_Tを生成するようにしてもよい。
Figure JPOXMLDOC01-appb-M000009

Figure JPOXMLDOC01-appb-M000010

 上記(数式6)、(数式7)において、値Wave、値Bmaxは、一例であり、他の値としてもよい。例えば、値Waveを、W100%画像が投影されているときの撮像画像の各画素の画素値の上限値や下限値や中間値等の値に代替させてもよい。また、値Bmaxを、W0%画像が投影されているときの撮像画像の各画素の画素値の平均値、上限値、あるいは、中間値等の値に代替させてもよい。
 なお、(数式4)、(数式5)は、それぞれ、(数式6)、(数式7)において、Bmax=0とした数式に相当する。このため、目標画像取得部2において、(数式4)、(数式5)に相当する処理が実行されることで、目標画像のダイナミックレンジを広げる効果を得ることができる。
 このようにして生成された目標画像Img_Tを形成する画像信号D1は、目標画像取得部2から補正部3に出力される。
 (ステップS6):
 ステップS6では、補正部3は、ガンマ特性取得部7から出力されるガンマ値γと、応答特性取得部9から出力されるホワイト値Wu,vとを用いて、画像信号D1に対して補正処理を実行して、補正処理後の画像Img_Pを取得する。具体的には、補正部3は、画像Img_Pの画像上の座標(u,v)の画素の画素値をPu,vとすると、以下の(数式8)に相当する処理を実行することで、補正処理後の画像Img_Pを取得する。
Figure JPOXMLDOC01-appb-M000011

  k1:ブラック値調整用第1係数k1(0≦k1≦1)
  k2:ブラック値調整用第1係数k2(0≦k2≦1)
 なお、ブラック値調整用第1係数k1、および、ブラック値調整用第2係数k2は、例えば、制御部(不図示)により、設定される。
 なお、k1=k2=0として、補正部3は、上記(数式8)に相当する処理を実行し、補正処理後の画像Img_Pを取得することが好ましい。
 なお、以下の(数式9)に相当する処理を実行することで、補正処理後の画像Img_Pを取得することも考えられる。
Figure JPOXMLDOC01-appb-M000012

 Bu,v:投影画像の画素Px(u,v)に対応する撮像画像上の画素Px(x,y)のブラック値(W0%画像が投影されているときの撮像画像の画素Px(x,y)の画素値)
 上記(数式9)に相当する処理を実行する場合、投影部5、撮像部6等の性能が高い場合、良好な結果が得られるが、投影部5に投影された画像を撮像部6により撮像して取得された画像のS/N比が悪い場合等には、上記(数式9)による処理よりも、上記(数式8)による処理を行った方が、ユーザーが、投影されている画像(あるいは撮像画像)を見たときに不快感を抱かないことが、本願発明者らによって見出された。
 したがって、投影システム1000の補正部3は、良好な投影画像(撮像画像)を取得するために、上記(数式8)による処理(Bu,v=0とする処理(k1=k2=0とする処理))を実行する。
 なお、上記(数式8)による処理は、画像Img_T、画像Img_PのR成分の画素値、G成分の画素値、B成分の画素値について、それぞれ、R成分用のガンマ値、G成分用のガンマ値、B成分用のガンマ値を用いて実行される。
 このようにして生成された補正処理後の画像Img_Pを形成する画像信号D2は、補正部3からセレクタSEL1に出力される。
 (ステップS7):
 ステップS7では、制御部がセレクタSEL1の端子1を選択する選択信号sel1を生成し、当該選択信号sel1に従い、セレクタSEL1は、端子1を選択して、補正部3から出力される画像信号D2を投影部5に出力する。
 投影部5は、画像信号D2(画像Img_P)を投影対象に投影する。
 以上のようにして、投影システム1000では、処理が実行される。
 ここで、実際に投影システム1000において処理された画像を図に示す。
 図3は、投影システム1000に入力される画像Img0(8ビット画像)の一例である。具体的には、画像Img0は、8つのパターンからなり、8つのパターン(単一色のパターン)を、図3の上段の左からパターン1、パターン2、パターン3、パターン4とし、図3の下段の左からパターン5、パターン6、パターン7、パターン8とすると、8つのパターンの色(R成分値、G成分値、B成分値)は、下記の通りである。
  パターン1:R=150;G=120;B= 30;
  パターン2:R= 80;G= 90;B=120;
  パターン3:R=120;G=180;B=210;
  パターン4:R=150;G= 50;B=100;
  パターン5:R=  0;G=150;B=110;
  パターン6:R= 50;G=120;B=200;
  パターン7:R= 20;G=200;B=100;
  パターン8:R=120;G=150;B= 90;
 図4は、投影システム1000で投影する対象(投影対象)の画像である。
 図5は、図3の画像Img0を、図4の投影対象に、目標画像取得部2での処理、補正部3での処理を実行せずに(そのまま)、投影したときの撮像画像である。
 図6は、図3の画像Img0を、図4の投影対象に、目標画像取得部2での処理、補正部3での処理を実行して、投影したときの撮像画像である。
 図5の撮像画像では、投影対象の板の部分(板と背景との境界)がはっきり認識できる。一方、図6の撮像画像では、投影対象の板の部分(板と背景との境界)が目立たない状態となっており、良好な補正処理がなされていることが分かる。
 以上のように、投影システム1000では、係数Br(0≦Br≦1)により、投影したときに飽和する画素数を低減させる目標画像Img_Tを、投影システム1000の系全体のガンマ特性に基づいて、取得する。そして、投影システム1000では、取得した目標画像Img_Tに対して、投影システム1000の系全体のガンマ特性に基づく変換式において、ブラック値Bu,vを「0」として、投影用の画像Img_Pを取得する。
 これにより、投影システム1000では、投影される画像の飽和する画素数を低減させるとともに、投影画像を撮像して取得される撮像画像のS/N比が悪い場合等であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 また、投影システム1000では、係数Brを調整することで、例えば、投影部5から照射される光の輝度(照度)が低い場合であって(例えば、投影部5として、低照度(低輝度)のプロジェクター装置を用いた場合であって)、投影部5からW100%画像を投影した場合において、当該画像の飽和する画素数を低減させることができる。したがって、投影システム1000では、低照度(低輝度)の投影部5(例えば、プロジェクター装置)を用いた場合であっても、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 また、投影システム1000では、目標画像に対して、ブラック値を「0」としたのと同様の処理で、補正画像を取得する。このため、投影システム1000では、補正画像のダイナミックレンジを広くすることができる。その結果、投影システム1000では、例えば、投影部5から照射される光の輝度(照度)が低い場合であっても(例えば、投影部5として、低照度(低輝度)のプロジェクター装置を用いた場合であっても)、投影画像のダイナミックレンジを広く確保することができ、投影画像(あるいは撮像画像)を見たユーザーに不快感を抱かせない画像投影処理を実現することができる。
 このように、投影システム1000では、高照度(高輝度)のプロジェクター装置や高性能な撮像装置を用いない場合であっても、投影された画像(映像)の輝度むらや色むら等を適切に低減させ、良好な画像(映像)投影処理を実現することができる。
 [他の実施形態]
 上記実施形態の投影システムは、1つの装置として実現されるものであってもよいし、また、各機能部の一部を別の装置として実現されるものであってもよい。例えば、撮像部6は、撮像装置に設けられ、撮像部6以外の機能部が、プロジェクター装置に設けられ、撮像装置とプロジェクター装置により、投影システムが実現されるものであってもよい。
 上記実施形態で説明した投影システムにおいて、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
 また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 また、文言「部」は、「サーキトリー(circuitry)」を含む概念であってもよい。サーキトリーは、ハードウェア、ソフトウェア、あるいは、ハードウェアおよびソフトウェアの混在により、その全部または一部が、実現されるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
1000 投影システム
1 係数設定部
2 目標画像取得部
3 補正部
4 テスト画像生成部
5 投影部
6 撮像部
7 ガンマ特性取得部
8 画素対応付け部
9 応答特性取得部

Claims (8)

  1.  入力画像に対して、所定の処理を実行した画像を投影する投影システムであって、
     画像を投影対象に投影する投影部と、
     投影部により投影された画像を撮像画像として取得する撮像部と、
     前記投影部の光学系および前記撮像部の光学系により決定されるガンマ特性を取得するガンマ特性取得部と、
     前記投影部から投影される画像である投影画像と、前記撮像部により取得された撮像画像とに基づいて、前記撮像画像上の画素と、前記撮像画像上の当該画素に対応する前記撮像画像上の画素とを対応付けた画素対応付けデータを取得する画素対応付け部と、
     画素ごとに、前記投影部により投影されたW100%画像を前記撮像部で撮像して取得した撮像画像の画素値であるホワイト値と、前記投影部により投影されたW0%画像を前記撮像部で撮像して取得した撮像画像の画素値であるブラック値と、取得するとともに、取得した前記ホワイト値から導出される代表値である代表ホワイト値と、取得した前記ブラック値から導出される代表値である代表ブラック値とを取得する応答特性取得部と、
     第1係数を設定する係数設定部と、
     前記ガンマ特性取得部により取得された前記ガンマ特性と、前記第1係数とに基づいて、前記入力画像から目標画像を取得する目標画像取得部と、
     前記目標画像に対して、前記ガンマ特性取得部により取得された前記ガンマ特性と、前記ホワイト値と、前記ブラック値とに基づく補正処理を実行することで補正画像を取得する補正部と、
    を備え、
     前記目標画像取得部は、
     前記投影部が前記補正画像を投影したときに、前記撮像部により撮像されると予測される画像において、画素値が飽和する画素が少なくなるように、前記目標画像を取得する、
     投影システム。
  2.  前記入力画像および前記目標画像がNビット画像(N:自然数)であり、前記入力画像および前記目標画像の画素の画素値Pxは、0≦Px≦2^N-1を満たすものとし、
     前記第1係数をBrとし、0≦Br≦1を満たすものとし、
     前記入力画像の画像上の座標(u,v)の画素値をIu,vとし、
     前記目標画像の画像上の座標(u,v)の画素値をTu,vとし、
     前記ガンマ特性を決定するガンマ値をγとし、
     前記代表ホワイト値をWaveとし、
     前記代表ブラック値をBmaxとしたとき、
     前記目標画像取得部は、
    Figure JPOXMLDOC01-appb-I000001
    または、
    Figure JPOXMLDOC01-appb-I000002

    により、前記目標画像の画素値Tu,vを取得することで、前記目標画像を取得する、
     請求項1に記載の投影システム。
  3.  前記代表ブラック値Bmaxは、「0」である、
     請求項2に記載の投影システム。
  4.  前記目標画像、および、前記補正画像がNビット画像(N:自然数)であり、前記入力画像および前記目標画像の画素の画素値Pxは、0≦Px≦2^N-1を満たすものとし、
     前記目標画像の画像上の座標(u,v)の画素値をTu,vとし、
     前記補正画像の画像上の座標(u,v)の画素値をPu,vとし、
     前記ガンマ特性を決定するガンマ値をγとし、
     前記投影画像の画素Px(u,v)に対応する前記撮像画像上の画素Px(x,y)の前記ホワイト値を、値Wu,vとし、
     前記投影画像の画素Px(u,v)に対応する前記撮像画像上の画素Px(x,y)の前記ブラック値を、値Bu,vとし、
     ブラック値調整用第1係数をk1(0≦k1≦1)とし、
     ブラック値調整用第2係数をk2(0≦k2≦1)としたとき、
     前記補正部は、
    Figure JPOXMLDOC01-appb-I000003

    により、前記補正画像の画素値Pu,vを取得することで、前記補正画像を取得する、
     請求項1から3のいずれかに記載の投影システム。
  5.  前記ブラック値調整用第1係数k1は、「0」であり、
     前記ブラック値調整用第2係数k2は、「0」である、
     請求項4に記載の投影システム。
  6.  請求項1から5のいずれかに記載の投影システムに用いられるプロジェクター装置であって、
     前記投影部と、前記ガンマ特性取得部と、前記画素対応付け部と、前記応答特性取得部と、前記係数設定部と、前記目標画像取得部と、前記補正部と、を備える、
     プロジェクター装置。
  7.  請求項1から5のいずれかに記載の投影システムに用いられる撮像装置であって、
     前記撮像部を備える、
     撮像装置。
  8.  投影部と撮像部とを備える投影システムに用いられ、入力画像に対して、所定の処理を実行した画像を投影する投影方法をコンピュータに実行させるためのプログラムであって、
     画像を投影対象に投影する投影ステップと、
     投影ステップにより投影された画像を撮像画像として取得する撮像ステップと、
     前記投影部の光学系および前記撮像部の光学系により決定されるガンマ特性を取得するガンマ特性取得ステップと、
     前記投影部から投影される画像である投影画像と、前記撮像部により取得された撮像画像とに基づいて、前記撮像画像上の画素と、前記撮像画像上の当該画素に対応する前記撮像画像上の画素とを対応付けた画素対応付けデータを取得する画素対応付けステップと、
     画素ごとに、前記投影部により投影されたW100%画像を前記撮像部で撮像して取得した撮像画像の画素値であるホワイト値と、前記投影部により投影されたW0%画像を前記撮像部で撮像して取得した撮像画像の画素値であるブラック値と、取得するとともに、取得した前記ホワイト値から導出される代表値である代表ホワイト値と、取得した前記ブラック値から導出される代表値である代表ブラック値とを取得する応答特性取得ステップと、
     第1係数を設定する係数設定ステップと、
     前記投影部により前記入力画像を投影した画像を、前記撮像部により撮像したときに取得されると予測される画像において、画素値が飽和する画素が少なくなるように、前記ガンマ特性取得ステップにより取得された前記ガンマ特性と、前記第1係数とに基づいて、前記入力画像から目標画像を取得する目標画像取得ステップと、
     前記目標画像に対して、前記ガンマ特性取得ステップにより取得された前記ガンマ特性と、前記ホワイト値と、ブラック値とに基づく補正処理を実行することで補正画像を取得する補正ステップと、
    を備える投影システムをコンピュータに実行させるためのプログラム。
PCT/JP2016/058679 2015-03-31 2016-03-18 投影システム、プロジェクター装置、撮像装置、および、プログラム WO2016158490A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/720,167 US9964839B2 (en) 2015-03-31 2017-09-29 Projection system, projector apparatus, imaging apparatus, and projection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-070677 2015-03-31
JP2015070677A JP6543067B2 (ja) 2015-03-31 2015-03-31 投影システム、プロジェクター装置、撮像装置、および、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/720,167 Continuation US9964839B2 (en) 2015-03-31 2017-09-29 Projection system, projector apparatus, imaging apparatus, and projection method

Publications (1)

Publication Number Publication Date
WO2016158490A1 true WO2016158490A1 (ja) 2016-10-06

Family

ID=57005679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/058679 WO2016158490A1 (ja) 2015-03-31 2016-03-18 投影システム、プロジェクター装置、撮像装置、および、プログラム

Country Status (3)

Country Link
US (1) US9964839B2 (ja)
JP (1) JP6543067B2 (ja)
WO (1) WO2016158490A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019041621A1 (zh) * 2017-08-31 2019-03-07 深圳光峰科技股份有限公司 图像处理装置及方法、显示装置及方法、图像拍摄与显示装置及方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3525457B1 (en) * 2018-02-07 2023-12-13 Nintendo Co., Ltd. Method and apparatus for compensating the colorimetry of a projected image
EP3869781A1 (en) * 2020-02-20 2021-08-25 Koninklijke Philips N.V. Determining intensity distributions in imaging

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
JP2005055830A (ja) * 2003-08-07 2005-03-03 Sony Corp 画像表示方法及び装置
JP2005244835A (ja) * 2004-02-27 2005-09-08 Olympus Corp マルチプロジェクションシステム
JP2009187002A (ja) * 2008-01-11 2009-08-20 Nikon Corp プロジェクタ
JP2011205199A (ja) * 2010-03-24 2011-10-13 Seiko Epson Corp 画像処理装置、画像表示システム、画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7639849B2 (en) * 2005-05-17 2009-12-29 Barco N.V. Methods, apparatus, and devices for noise reduction
WO2009088080A1 (ja) * 2008-01-11 2009-07-16 Nikon Corporation プロジェクタ
JP5320865B2 (ja) * 2008-07-04 2013-10-23 セイコーエプソン株式会社 プロジェクタおよびプロジェクタの制御方法
JP5590668B2 (ja) 2010-07-20 2014-09-17 国立大学法人電気通信大学 プロジェクタ装置、映像信号補正装置、映像信号補正方法及びプログラム
JP6757157B2 (ja) * 2016-03-29 2020-09-16 キヤノン株式会社 投影装置およびその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
JP2005055830A (ja) * 2003-08-07 2005-03-03 Sony Corp 画像表示方法及び装置
JP2005244835A (ja) * 2004-02-27 2005-09-08 Olympus Corp マルチプロジェクションシステム
JP2009187002A (ja) * 2008-01-11 2009-08-20 Nikon Corp プロジェクタ
JP2011205199A (ja) * 2010-03-24 2011-10-13 Seiko Epson Corp 画像処理装置、画像表示システム、画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019041621A1 (zh) * 2017-08-31 2019-03-07 深圳光峰科技股份有限公司 图像处理装置及方法、显示装置及方法、图像拍摄与显示装置及方法

Also Published As

Publication number Publication date
US20180024423A1 (en) 2018-01-25
JP6543067B2 (ja) 2019-07-10
US9964839B2 (en) 2018-05-08
JP2016191773A (ja) 2016-11-10

Similar Documents

Publication Publication Date Title
CN110505459B (zh) 适用于内窥镜的图像颜色校正方法、装置和存储介质
CN108668093B (zh) Hdr图像的生成方法及装置
JP5980294B2 (ja) データ処理装置、撮像装置、およびデータ処理方法
US8902328B2 (en) Method of selecting a subset from an image set for generating high dynamic range image
CN107590791B (zh) 图像增强方法以及图像处理装置
JP5356666B2 (ja) イメージの輝度補正のための装置および方法
US20150365612A1 (en) Image capture apparatus and image compensating method thereof
WO2016158490A1 (ja) 投影システム、プロジェクター装置、撮像装置、および、プログラム
JP6486055B2 (ja) 撮像装置およびその制御方法、並びにプログラム
JP2004200971A (ja) 画像処理装置、画像処理プログラム、画像処理方法および電子カメラ
US10373293B2 (en) Image processing apparatus, image processing method, and storage medium
JP6617432B2 (ja) 画像処理装置及びプログラム
JP2007096437A (ja) 画像生成者の意図の判定
JP7462458B2 (ja) 画像処理装置、画像処理方法
KR100791374B1 (ko) 색역 내에 존재하는 색상을 영상 적응적으로 조절하는 방법및 장치
TWI551141B (zh) A high dynamic range image synthesizing apparatus and a method thereof for performing exposure mapping based on individual pixels
CN115587948A (zh) 一种图像暗场校正方法及设备
US11363245B2 (en) Image processing device, image processing method, and image processing program
JP2008252227A (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2020025224A (ja) カメラ評価値測定装置およびカメラ評価値測定方法
CN115379180B (zh) 一种投影画面调整方法、装置、设备及存储介质
JP2013115571A (ja) 情報処理装置
CN113038109B (zh) 图像过曝修正方法与电路***
JP2012134576A (ja) 画像処理装置、画像処理方法
WO2015079481A1 (ja) 撮像方法及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772373

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772373

Country of ref document: EP

Kind code of ref document: A1