WO2019230109A1 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
WO2019230109A1
WO2019230109A1 PCT/JP2019/009424 JP2019009424W WO2019230109A1 WO 2019230109 A1 WO2019230109 A1 WO 2019230109A1 JP 2019009424 W JP2019009424 W JP 2019009424W WO 2019230109 A1 WO2019230109 A1 WO 2019230109A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
blur
projection
blur correction
evaluation
Prior art date
Application number
PCT/JP2019/009424
Other languages
English (en)
French (fr)
Inventor
孝明 鈴木
紀晃 高橋
晴香 三森
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP19812087.5A priority Critical patent/EP3780587A4/en
Priority to US17/049,420 priority patent/US11394941B2/en
Priority to CN201980034077.1A priority patent/CN112189337B/zh
Priority to JP2020521720A priority patent/JP7287390B2/ja
Publication of WO2019230109A1 publication Critical patent/WO2019230109A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present technology relates to an image processing apparatus and a method thereof, and particularly relates to a technical field for correcting a focus blur generated in a projection image.
  • image projection apparatuses that project and display an image on a projection object such as a screen, such as a liquid crystal projector apparatus, are widely known.
  • a projection object such as a screen
  • a liquid crystal projector apparatus As an image projection using such an image projection apparatus, for example, a plurality of image projection apparatuses project the target image on a projection object so as to increase brightness (so-called projection). Superimposed projection).
  • Patent Document 1 the pixel values of the images projected by the image projection devices are sequentially set so that the difference between the pixel value of the pixel of the superimposed projection image and the pixel value of the pixel of the input image corresponding to the pixel decreases.
  • a changing feedback image correction technique is disclosed. By using this correction technique, it is possible to correct the focus blurring that occurs in the superimposed projection image.
  • a method of performing blur correction processing using a filter designed by an inverse function of blur to an input image to obtain a blur correction image, and projecting the blur correction image There is also.
  • the lens shift mechanism of the image projection device (the position of the projection image is shifted in a direction parallel to the projection plane). (A mechanism for (translation)) is used, or the installation angle (rotation angle in the pan or tilt direction) of the image projection apparatus is adjusted. That is, the image projection range of each image projection apparatus is adjusted by setting the optical adjustment value of the image projection apparatus such as the lens shift amount by the lens shift mechanism and the rotation angle in the pan or tilt direction of the image projection apparatus.
  • the optical adjustment values of the image projection apparatus such as the lens shift amount and the rotation angle in the pan or tilt direction change, the characteristics (blurring condition) of the focus blur that occurs in the projected image also change.
  • the adjustment of the image projection range described above there may be a plurality of combinations of optical adjustment values for aligning the image projection range of each image projection apparatus. If a combination of adjustment values is set, even if blur correction is performed by signal processing, such as the above-described method using the inverse function of blur, there is a risk that image quality cannot be improved sufficiently.
  • the present technology has been made in view of the above circumstances, and as an optical adjustment value of the image projection apparatus, it is possible to search for an adjustment value that can obtain a good blur correction effect by the blur correction processing, and a focus generated in the projected image.
  • An object is to improve the blur correction performance when blur correction is performed by signal processing.
  • the image processing apparatus has a blur characteristic that is a characteristic of a focus blur that occurs in a projection image of the image projection apparatus that is measured in a state where a predetermined candidate value is set as an optical adjustment value of the image projection apparatus.
  • a blur correction unit that performs a blur correction process for focus blur correction on the input image, and an evaluation related to the focus blur for a projection image obtained by projecting the image subjected to the blur correction process by the image projection device
  • a use determination unit that determines whether the candidate value can be used based on the result of the evaluation.
  • the blur correction unit is measured when the plurality of image projection apparatuses individually perform image projection in a state where the corresponding candidate values are set. Based on the blur characteristic for each image projection device, the blur correction process for each image projection device is performed on the input image to obtain a blur correction image for each image projection device, and the use determination unit obtains the blur correction image It is desirable that an evaluation related to the focus blur is performed on a superimposed projection image obtained by performing the superimposed projection using the plurality of image projection apparatuses, and the determination is performed based on a result of the evaluation.
  • the blur correction unit is a derivation formula for deriving a filter coefficient for blur correction corresponding to each of the image projection devices, It is desirable to perform the blur correction processing for each image projection device based on the filter coefficient for each image projection device obtained by a derivation formula in which the blur characteristics are integrated and integrated.
  • the correction filter coefficient for each image projection apparatus tends to cancel the blur itself (that is, the enhancement in the direction in which the blur is large). It is possible to converge to a tendency that the enhancement in the direction where the blur is large is small and the enhancement in the direction where the blur is small is large.
  • the use determination unit projects a predetermined image by the image projection device in a state where the candidate value is set, evaluates a projection range of the predetermined image, and projects the projection.
  • the range does not satisfy a predetermined range condition, it is desirable to exclude the combination of the candidate value and the image projection device from the evaluation target related to the focus blur.
  • the projection range of the image is defined in the combination of a certain candidate value and the image projection device.
  • the image projection range may not satisfy the predetermined range condition, such as greatly deviating from the projection range. Since the fact that the image projection range does not satisfy the predetermined range condition is a problem before the image quality improvement, the combination of these candidate values and the image projection device is excluded from the focus blur evaluation target in the adjustment value search. To do.
  • the use determination unit includes the focus blur for the image projection device arranged adjacent to the image projection device to be evaluated for the focus blur. It is desirable to exclude from such evaluation.
  • Image projection apparatuses having close arrangement positions tend to be set as close values such as pan or tilt angles and lens shift amounts, for example. Therefore, with respect to the image projecting device arranged adjacent to the image projecting device that is the object of evaluation related to the focus blur for determining the adjustment value, the number of processes for adjusting value search can be reduced by thinning out the image projecting device. Plan.
  • the use determination unit projects the image using the adjustment value for the non-target device that is the image projection device excluded from the evaluation target as the evaluation target. It is desirable to obtain based on the adjustment value used for the image projection device located closest to the non-target device among the devices.
  • the adjustment value of the image projection apparatus excluded from the evaluation target for the adjustment value search can be appropriately acquired by using the closeness of the adjustment value according to the closeness of the arrangement position.
  • the adjustment value includes an adjustment value related to a rotation angle of the image projection apparatus in a pan or tilt direction.
  • the rotation angle in the pan or tilt direction of the image projector is one of the factors that change the characteristics of the focus blur that occurs in the projected image.
  • the adjustment value includes an adjustment value related to a lens shift amount of the image projection device.
  • the lens shift amount of the image projector is one of the factors that change the characteristic of the focus blur that occurs in the projected image.
  • the adjustment value includes an adjustment value related to a focus position of the image projection device.
  • the focus position of the image projector is one of the factors that change the characteristics of the focus blur that occurs in the projected image.
  • the use determination unit determines whether or not the degree of the focus blur is below a predetermined level based on the evaluation result related to the focus blur. It is desirable to determine whether the candidate value can be used.
  • the use determination unit determines the candidate value to be used based on a result of relative evaluation of the focus blur for a plurality of candidate values.
  • the use determination unit relates to the focus blur for the image projection device based on a temperature detection result by a temperature detection unit that detects the temperature of the image projection device. It is desirable to re-execute the evaluation and re-execute the determination based on the result of the re-executed evaluation.
  • the image processing method is a blur characteristic that is a characteristic of a focus blur that occurs in a projection image of the image projection device that is measured in a state where a predetermined candidate value is set as an optical adjustment value of the image projection device.
  • a blur correction procedure for performing blur correction processing for focus blur correction on the input image, and a projected image obtained by projecting the image subjected to the blur correction processing by the image projection device to focus blur A use determination procedure for performing such an evaluation and performing a determination on whether or not the candidate value can be used based on a result of the evaluation.
  • the present technology as an optical adjustment value of the image projection apparatus, it is possible to search for an adjustment value that can obtain a good blur correction effect by the blur correction process, and the correction of the focus blur generated in the projection image is performed by signal processing. In this case, the blur correction performance can be improved.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • First embodiment> [1-1. Overview of image projection system] [1-2. Configuration of image projection apparatus and image processing apparatus] [1-3. About blur correction processing] [1-4. Search Method for Optical Adjustment Value as Embodiment] [1-5. Modified example of candidate value evaluation] ⁇ 2.
  • Second embodiment> [2-1. Configuration of Image Projecting Device and Image Processing Device as Second Embodiment] [2-2. Processing procedure] ⁇ 3.
  • Modification> ⁇ 4. Summary of Embodiment> ⁇ 5. This technology>
  • FIG. 1 shows a configuration example of an image projection system (an image projection system as an embodiment) configured to include an image processing apparatus 1 as an embodiment according to the present technology.
  • the image projection system as an embodiment includes an image processing apparatus 1, n projector apparatuses 2 (n is a natural number of 2 or more), and an imaging apparatus 3.
  • n projector apparatuses 2 n is a natural number of 2 or more
  • Each projector device 2 is configured as a transmissive liquid crystal projector device. Specifically, the projector device 2 is configured as a so-called three-plate liquid crystal projector device including liquid crystal panels corresponding to R (red), G (green), and B (blue) colors.
  • the image processing device 1 includes a computer device such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), and performs various signal processing (image processing) on an image based on digital data. Can be distributed and output.
  • a computer device such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), and performs various signal processing (image processing) on an image based on digital data. Can be distributed and output.
  • CPU Central Processing Unit
  • DSP Digital Signal Processor
  • each projector device 2 projects an image distributed and output by the image processing device 1 onto a common screen S.
  • the images are projected so that the projected images of the projector apparatuses 2 overlap each other on the screen S (so-called “superimposition projection”).
  • the superimposing projection is performed so that the pixel positions of the projected images by the projector devices 2 coincide.
  • the projection target of the image by the projector device 2 is not limited to the screen S, and may be other than the screen S, such as an indoor wall surface.
  • an image displayed on the projection object by superimposing projection will be referred to as “superimposed projection image Pp”.
  • the imaging device 3 is configured as a digital camera device having an imaging device such as a CCD (Charged-coupled devices) sensor or a CMOS (Complementary metal-oxide-semiconductor) sensor.
  • the imaging device 3 is configured to be communicable with the image processing device 1 and is capable of transmitting a captured image to the image processing device 1.
  • the imaging device 3 is used by the image processing device 1 to obtain an observation image of the projection image by the projector device 2, and is arranged at a position where the entire projection range of the image on the screen S falls within the angle of view.
  • FIG. 2 is a block diagram showing an example of the internal configuration of the projector device 2.
  • the projector device 2 includes an image processing unit 21, a modulator driving unit 22, an optical system 23, an installation angle adjusting unit 24, a control unit 25, and a wireless communication unit 26.
  • the image processing unit 21 performs predetermined image signal processing on the input image and outputs it to the modulator driving unit 22.
  • the modulator driving unit 22 drives the spatial light modulator 23 a arranged in the optical system 23 in accordance with the image input from the image processing unit 21.
  • the spatial light modulator 23a is a transmissive liquid crystal panel in this example.
  • the spatial light modulator 23a is provided with three corresponding to the respective colors of R, G, and B, and the image processing unit 21 selects each of the R, G, and B colors based on the input image.
  • R image, G image, and B image corresponding to the above are generated and output to the modulator control unit 22.
  • the modulator control unit 22 drives the corresponding spatial light modulators 23a with drive signals based on the input R image, G image, and B image.
  • the optical system 23 includes a light source (not shown), various optical elements such as a polarizing plate and a wave plate, and various lenses such as a projection lens.
  • the light emitted from the light source is modulated by the spatial light modulator 23a and passed through the projection lens. Output.
  • the optical system 23 of this example includes an optical adjustment mechanism 23b and an actuator 23c.
  • the optical adjustment mechanism 23b comprehensively represents a lens shift mechanism and a focus position adjustment mechanism.
  • the lens shift mechanism is a mechanism for shifting (translating) the position of the projection image.
  • the focus position adjustment mechanism is a mechanism for adjusting the position where the focus is achieved in the projection image.
  • the actuator 23c comprehensively represents an actuator for driving the lens shift mechanism and the focus position adjusting mechanism.
  • the adjustment of the projected image position by the lens shift mechanism and the adjustment of the focus position by the focus position adjustment mechanism will be described.
  • the position of the projected image can be shifted in a direction parallel to the projection plane on the screen S (in the figure, the projected image position indicated by a thick broken line and the thick solid line). (See Difference with projected image position to represent).
  • the focus position adjusting mechanism it is possible to adjust a focus position (represented by a black circle in the figure) in a projected image represented by a thick solid line in the figure.
  • the installation angle adjustment unit 24 comprehensively represents a mechanism for adjusting the installation angle of the projector device 2 and its actuator.
  • the installation angle adjusting unit 24 is configured to be able to adjust at least the rotation angle of the projector device 2 in the pan or tilt direction.
  • the installation angle adjustment unit 24 in this example is configured to be able to adjust the rotation angle of each of the pan and tilt directions of the projector device 2.
  • the installation angle adjustment unit 24 may be provided outside the projector device 2. Further, in order to be able to adjust the rotation angle of each of the pan and tilt directions of the projector device 2, it is not essential to provide the installation angle adjusting unit 24.
  • the installation angle adjusting unit 24 When the installation angle adjusting unit 24 is not provided, the rotation angle in the pan direction and the tilt direction of the projector device 2 is manually set (that is, the person moves the projector device 2 to set the rotation angle in the pan direction and the tilt direction, that is, the arrangement angle). Set).
  • the image processing device 1 is configured to instruct a person about a value of a candidate parameter to be described later regarding the installation angle.
  • the image processing apparatus 1 is provided with an information presenting unit that presents information by image display or audio output, and the presenting unit presents candidate parameter values.
  • the control unit 25 includes a microcomputer including a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and executes processing according to a program stored in the ROM, for example. Thus, various operations of the projector device 2 are controlled. Specifically, the control unit 25 performs operation control of the image processing unit 21, the actuator 23 c, and the installation angle adjustment unit 24.
  • a wireless communication unit 26 is connected to the control unit 25.
  • the wireless communication unit 26 performs wireless communication with an external device in accordance with a predetermined wireless communication method such as Bluetooth (registered trademark) or WiFi (registered trademark).
  • the control unit 25 can communicate various data with an external predetermined device, particularly in this example, with the image processing device 1 via the wireless communication unit 26.
  • FIG. 5 is a block diagram for explaining an internal configuration example of the image processing apparatus 1, and shows the imaging apparatus 3 shown in FIG. 1 together with the internal configuration example of the image processing apparatus 1.
  • the image processing apparatus 1 performs signal processing for blur correction on an image to be projected in order to correct a blur generated in the superimposed projection image Pp, that is, a blur in which a blur generated in the projection image of each projector apparatus 2 is combined. (Filter processing) is performed, and the image subjected to the signal processing can be distributed and output to each projector device 2 and projected.
  • the image processing apparatus 1 projects a predetermined image for each projector apparatus 2 as calibration before performing the superimposed projection on the actual image content, and each image obtained by the imaging apparatus 3 at that time is projected. Based on the image, the projector apparatus 2 is configured to execute a process for optimizing the optical adjustment value.
  • the image processing apparatus 1 includes an image input unit 5, a control unit 6, a blur correction unit 7, an image output unit 8, and a wireless communication unit 9.
  • the image input unit 5 inputs an image to be projected by the projector device 2 (that is, an image to be projected).
  • the image may be input from an external device of the image processing apparatus 1 or stored in a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) provided in the image processing apparatus 1.
  • the read image data may be read and input, and the specific input method is not particularly limited.
  • the blur correction unit 7 performs blur correction processing for each projector device 2 on the image input by the image input unit 5 based on the filter coefficient for blur correction instructed by the control unit 6 (coefficient acquisition unit 11 described later).
  • the blur correction image for each projector device 2 is obtained.
  • the blur correction unit 7 in this example includes the same number of blur correction filters 7a as the projector device 2, and each blur correction filter 7a has a filter coefficient acquired for the corresponding projector device 2. Is used to perform a blur correction process on the input image. Thereby, a blur correction image for each projector apparatus 2 is obtained.
  • signal processing using a filter designed by an inverse function of blur is employed for blur correction processing. Since the filter coefficient is acquired based on a blur characteristic measured by a blur measurement unit 10 described later, the blur correction unit 7 performs focus blur correction on the input image based on the measured blur characteristic. It can be said that blur correction processing is performed.
  • the image output unit 8 individually outputs a plurality of blur correction images obtained by the blur correction unit 7. Specifically, the image output unit 8 of this example outputs one corresponding blur correction image for each projector device 2.
  • Each projector device 2 projects a corresponding blur correction image, thereby eliminating the focus blur in the superimposed projection image Pp.
  • the blur correction unit 7 in this example is configured to be able to output an input image from the image input unit 5 without performing blur correction processing.
  • the image output unit 8 can select the projector device 2 that is the output target of the image from among the connected projector devices 2 (four examples here) based on an instruction from the control unit 6. It is configured.
  • the control unit 6 includes a microcomputer having a CPU, a ROM, a RAM, and the like, for example, and controls various operations of the image processing apparatus 1 by executing a process according to a program stored in the ROM, for example. I do.
  • the control unit 6 of this example can be expressed as having the blur measurement unit 10, the coefficient acquisition unit 10, and the use determination unit 12 in the figure as functional units.
  • the blur measurement unit 10 measures a characteristic of focus blurring (hereinafter referred to as “blur characteristic”) generated in the projection image of the projector device 2 based on a captured image input from the imaging device 3.
  • the blur characteristic related to the focus blurring generated in the projection image of the projector device 2 can be different for each pixel of the projection image. Therefore, the blur measurement unit 10 measures blur characteristics of a captured image input from the imaging device 3 at a plurality of positions (a plurality of image areas) in the image.
  • the coefficient acquisition unit 11 acquires a filter coefficient for blur correction based on the blur characteristic of each projector device 2 measured by the blur measurement unit 10.
  • the filter coefficient acquisition in this example is performed by calculation using a predetermined derivation formula designed so that the corresponding filter coefficient can be obtained from the blur characteristic.
  • the use determination unit 12 searches for an adjustment value for enhancing the effect of correcting the focus blurring generated in the projection image as an optical adjustment value of the projector device 2, and determines an adjustment value to be used. Specifically, the use determination unit 12 causes the projector device 2 to project an image subjected to the blur correction process by the blur correction unit 7 in a state where the optical adjustment value candidate values are set in the projector device 2. The projection image obtained in this way is evaluated for focus blur, and a determination is made regarding whether or not the candidate value can be used based on the result of the evaluation.
  • the “optical adjustment value” targeted in the present embodiment is an adjustment value that changes the blur characteristics of the focus blur that occurs in the projection image in accordance with the change of the value.
  • the adjustment value includes the installation angle of the projector device 2 (rotation angle in the pan direction, rotation angle in the tilt direction), and the shift amount of the projection image by the lens shift mechanism (hereinafter referred to as “lens shift amount”). And a value related to the adjustment of the focus position adjusted by the focus position adjustment mechanism.
  • adjustment parameters the values related to the adjustment of the rotation angle in the pan direction, the rotation angle in the tilt direction, the lens shift amount, and the focus position are also referred to as “adjustment parameters”. Specific processing executed by the control unit 6 to realize the function as the use determination unit 12 will be described later.
  • the wireless communication unit 9 performs wireless communication with an external device according to a predetermined wireless communication method such as Bluetooth or WiFi.
  • a wireless communication unit 9 is connected to the control unit 6, whereby the control unit 6 communicates with an external predetermined device, particularly in this example, the projector device 2 (control unit 25) via the wireless communication unit 9.
  • Various data can be communicated between them. For example, data such as adjustment parameters determined by the use determination unit 12 can be transmitted to the projector device 2.
  • FIG. 6A illustrates two different image areas A1 and A2 in the superimposed projection image Pp.
  • the horizontal and vertical directions of the paper correspond to the horizontal and vertical directions of the image, respectively, the image area A1 is the upper left corner area of the superimposed projected image Pp, and the image area A2 is the upper right corner area of the superimposed projected image Pp.
  • the image area A1 is the upper left corner area of the superimposed projected image Pp
  • the image area A2 is the upper right corner area of the superimposed projected image Pp.
  • the superimposed projection image Pp is obtained by image projection of two projector apparatuses 2. Since the two projector apparatuses 2 cannot be arranged at the same position during the superimposing projection, the projected images by the respective projector apparatuses 2 have different characteristics, mainly due to the difference in the optical path length to the projection surface. Blur occurs. At this time, the focus blur generated in the superimposed projection image Pp is caused by the focus blur generated in each projection image of the projector device 2, but in the projection image of the projector device 2 alone, for each pixel (for each area in the image). ) Focus blur characteristics may be different. This is due to the difference in the optical path length to each area in the image.
  • the characteristic of the focus blur occurring in the image area A1 in the projection image of the left projector apparatus 2 is referred to as a blur characteristic C1L.
  • the characteristic of the focus blur occurring in the image area A2 in the projection image of the left projector device 2 is defined as a blur characteristic C2L.
  • the characteristics of the focus blur occurring in the image areas A1 and A2 in the projection image of the right projector apparatus 2 are set as the blur characteristics C1R and C2R, respectively.
  • FIG. 6C schematically illustrates examples of the blur characteristics C1L, C2L, C1R, and C2R.
  • a visualization model of a point spread function (PSF) is represented as a visualization model of each blur characteristic C.
  • PSF point spread function
  • the blur characteristics C1R and C2R by the right projector device 2 tend to have small blur in the vertical direction and large blur in the horizontal direction, and the blur characteristic C2R has large blur in the vertical direction and blur in the horizontal direction. Tends to be smaller. Focusing on the image area A1, the blur characteristic C1L of the left projector device 2 tends to be less blurred in the horizontal direction because the optical path length in the horizontal direction from the projector device 2 to the image area A1 is relatively short. On the other hand, the blur characteristic C1R of the right projector device 2 tends to be largely blurred in the horizontal direction because the optical path length in the horizontal direction from the projector device 2 to the image area A1 is relatively long.
  • the blur characteristic C2L of the left projector apparatus 2 tends to be largely blurred in the horizontal direction
  • the blur characteristic C2R of the right projector apparatus 2 tends to be less blurred in the horizontal direction. It becomes.
  • the blur characteristics of each projector device 2 may be different for each area in the image.
  • FIG. 6 is an explanatory diagram of a blur correction method as a preceding example.
  • superimposed projection is performed by two projector apparatuses 2.
  • a blur correction process for a single area in the image is considered.
  • blur correction of the entire superimposed projection image Pp can be realized by performing blur correction by a method similar to the method described below.
  • the blur correction method as a prior example uses a filter designed by an inverse function of blur for blur correction. That is, the blur correction filter 7a described above is used. In the figure, two blur correction filters 7a are provided corresponding to the case where the superimposing projection is performed by two projector apparatuses 2.
  • the blur characteristic generated in the projection image of one projector apparatus 2 (here, a single area in the image) is defined as a blur characteristic ⁇
  • the projection image of the other projector apparatus 2 (also a single area in the image).
  • the characteristic of the blur that occurs in is defined as a blur characteristic ⁇ .
  • a filter coefficient for correcting blur due to the blur characteristic ⁇ is w1
  • a filter coefficient for correcting blur due to the blur characteristic ⁇ is w2.
  • the filter processing for blur correction here is processing for enhancing (enhancing) edges, and is performed using a plurality of sets of filter coefficients such as a 5 ⁇ 5 filter, for example. That is, the filter coefficients w1 and w2 include a plurality of filter coefficients.
  • the pixel value of the image obtained by performing filter processing for blur correction by the blur correction filter 7a on the input image and projecting this by the projector device 2 is as follows for each projector device 2 [Formula 1] [Formula 2] Can be expressed as That is, the value of the projection image of one projector apparatus 2 in this case is the blur addition process based on the blur characteristic ⁇ and the blur correction process based on the filter coefficient w1 with respect to the pixel value x of the input image as in [Equation 1]. It can represent as a value which gave.
  • the value of the projection image of the other projector device 2 is subjected to the blur addition process based on the blur characteristic ⁇ and the blur correction process based on the filter coefficient w2 with respect to the pixel value x as in [Equation 2]. Can be expressed as a value.
  • the filter coefficients w1 and w2 for blur correction are obtained based on the derivation formulas shown in [Formula 3] and [Formula 4] below.
  • “y” is an ideal value of the pixel value of the superimposed projection image Pp, and specifically, the pixel value of the superimposed projection image Pp in an ideal state in which no focus blur occurs. Represents.
  • Q1 represented by [Expression 3], that is, a value obtained by performing a blur addition process based on the blur characteristic ⁇ and a blur correction process based on the filter coefficient w1 on the pixel value x and a predetermined ideal value (here, y / Based on the error value of 2) a filter coefficient w1 corresponding to one projector device 2 is obtained. Specifically, a filter coefficient w1 that minimizes the error Q1 is obtained.
  • Q2 represented by [Expression 4] that is, a value obtained by performing a blur addition process based on the blur characteristic ⁇ and a blur correction process based on the filter coefficient w2 on the pixel value x and a predetermined ideal value (y / 2).
  • the filter coefficient w for each projector device 2 is obtained individually so as to cancel out the blur ( ⁇ or ⁇ ) due to a single characteristic. May not be able to correct the blur.
  • the blur characteristic ⁇ is a characteristic in which the vertical blur is large and the horizontal blur is small like the blur characteristic C1L described above, and the blur characteristic ⁇ is a large blur in the horizontal direction like the blur characteristic C1R and the vertical blur. Is a small characteristic.
  • the filter coefficient w1 for eliminating the blur due to ⁇ is obtained as in [Equation 3]
  • the filter coefficient w1 for increasing the enhancement in the vertical direction where the blur is large is obtained.
  • the filter coefficient w2 for eliminating the blur due to ⁇ is obtained as in [Expression 4]
  • the filter coefficient w2 for increasing the horizontal enhancement with a large blur is obtained.
  • the filter coefficient w has a tendency to derive a coefficient having a larger absolute value in order to cancel out the larger blur.
  • the pixel value after blur correction may exceed the dynamic range, and the correction effect may not be reflected in the projected image. Therefore, there is a limit to the size of the blur that can be eliminated by the prior art technique that tends to increase the enhancement in the direction of greater blur as described above.
  • the filter coefficients w1 and w2 are obtained on the basis of a derivation formula in which a plurality of blur characteristics are integrated into one set as shown in [Formula 5] below. Specifically, filter coefficients w1 and w2 that minimize the error Q in [Expression 5] are obtained.
  • the error Q is a sum of values obtained by performing blur addition processing based on the blur characteristic and blur correction processing based on the filter coefficients (w1, w2) on the pixel value x, and a predetermined value. It can be said that the difference from the ideal value (y).
  • [Expression 5] may be said that the filter coefficients w1 and w2 are not calculated based on only a single blur characteristic as in the previous example, but based on a plurality of blur characteristics. it can.
  • each filter coefficient is obtained on the basis of a plurality of blur characteristics as shown in [Expression 5], that is, if it is obtained by a derivation formula in which a plurality of blur characteristics are collectively incorporated
  • the filter coefficient w is not limited to the tendency to cancel a single blur as in the previous example (the tendency to increase the enhancement in the direction where the blur is large), but the enhancement in the direction where the blur is large is small and the direction where the blur is small. It becomes possible to converge to the tendency to increase the enhancement of. That is, for example, the filter coefficient w used for the left projector device 2 in which the vertical blur is large and the horizontal blur is small as in the blur characteristic C1L for the image area A1 illustrated in FIG.
  • the filter coefficient w used for the right projector device 2 in which the horizontal blur is large and the vertical blur is small is set so that the vertical enhancement is set large. It becomes possible to converge to the filter coefficient w that makes the direction enhancement small. As a result of summing up the corrections by these filter coefficients w, the combined blur due to the two blur characteristics is appropriately corrected for the image area A1.
  • the horizontal enhancement for the left projector device 2 functions as a correction for horizontal blur occurring in the projected image of the right projector device 2
  • the vertical enhancement for the right projector device 2 is It functions as a correction for the vertical blur generated in the projection image of the left projector device 2, and the correction for the combined blur is appropriately performed by the sum of the two corrections.
  • the method of enhancing the direction in which the blur is large as in the previous example As a result, the amount of blur that can be corrected can be increased. That is, it is possible to improve the correction performance with respect to the synthesis blur, and to further improve the image quality.
  • the derivation formula for the combined blur when the two projector apparatuses 2 perform the superimposing projection is illustrated, but the deriving formula when the n projector apparatuses 2 perform the superimposing projection represents the blur for each projector apparatus 2.
  • a derivation formula that incorporates the characteristics, that is, n blur characteristics, is used.
  • the above derivation formula is a formula for deriving a blur correction filter coefficient generated in one image area. In order to perform blur correction over the entire area of the superimposed projection image Pp, a plurality of required formulas in the image are required. For each image area, the filter coefficient w of each projector apparatus 2 is obtained by the same derivation formula.
  • the coefficient acquisition unit 11 in this example is based on the blur characteristics for each image area of each projector device 2 measured by the blur measurement unit 11, and the blur characteristics for each projector device 2 are collectively set as in [Formula 5].
  • a filter coefficient w for each image area of each projector apparatus 2 is obtained using the incorporated derivation formula.
  • FIG. 8 is a flowchart showing a specific processing procedure to be executed by the CPU in the control unit 6 in order to realize the adjustment parameter search method according to the first embodiment.
  • the processing shown in FIG. 8 is executed at the time of calibration at the stage before the superimposed projection is performed on the above-described actual image content.
  • image projection is executed in a state in which preset adjustment parameter candidate values (hereinafter referred to as “candidate parameters”) are set for each projector apparatus 2.
  • the blur characteristic is measured for each projector device 2, and the filter coefficient w based on the measured blur characteristic is acquired (steps S102 and S110).
  • a blur correction image for each projector apparatus 2 is obtained by blur correction processing using the acquired filter coefficient w, and the blur correction image is superimposed and projected, and based on the captured image of the imaging apparatus 3 obtained at that time Evaluation related to the focus blur is performed, and adjustment parameters are determined based on the evaluation result (steps S111 to S116).
  • step S101 the control unit 6 sets the setting condition identifier M to “1”, and performs a process for setting candidate parameters for the Mth setting condition in each projector apparatus 2 in step S102.
  • the setting condition identifier M is an identifier for identifying a setting condition of candidate parameters for each projector device 2.
  • each setting condition defines a combination of candidate parameters to be individually set for n projector apparatuses 2.
  • the candidate parameters set for each projector apparatus 2 under each setting condition are the rotation angle in the pan direction (“pan” in the figure), the rotation angle in the tilt direction (“tilt” in the figure), and the lens shift amount ( In the drawing, “lens shift”) and four types of focus positions are used.
  • the image processing apparatus 1 stores table information defining a plurality of setting conditions for candidate parameters as shown in FIG. 9 in a predetermined storage device (for example, a storage device such as a ROM provided in the control unit 6). ing.
  • a predetermined storage device for example, a storage device such as a ROM provided in the control unit 6.
  • step S102 of FIG. 8 the control unit 6 reads candidate parameters for the Mth setting condition from the table information, transmits the parameters to the corresponding projector devices 2 via the wireless communication unit 9, and instructs the control unit 25 to set the parameters. To do.
  • the control unit 25 in each projector apparatus 2 issues a drive instruction for the optical adjustment mechanism 23b and a setting instruction for the rotation angle based on the received candidate parameters to the actuator 23c and the installation angle adjustment unit 24, respectively.
  • the adjustment values of the rotation angle in the pan direction and the tilt direction, the lens shift amount, and the focus position of each projector device 2 are set as adjustment values as candidate parameters.
  • the processing in steps S103 to S109 following step S102 is processing for determining whether or not the candidate parameters set in each projector apparatus 2 are appropriate as evaluation targets. Specifically, a process for determining whether or not the candidate parameter is appropriate as an evaluation target based on whether or not the image projection range of the projector device 2 with the candidate parameter set satisfies a predetermined range condition. is there.
  • FIG. 10A illustrates a state where the projection image Pa of the projector device 2 is contained in the captured image Pi by the imaging device 3, and FIG. 10B illustrates a state where the projection image Pa is not fully contained in the captured image Pi. Yes.
  • the candidate parameter is set, it can be assumed that the position of the projection image Pa greatly deviates from an appropriate position as shown in FIG. 10B. In this way, when there is even one projector device 2 in which the image projection position is inappropriate, it is no longer possible to properly perform superimposed projection. Therefore, the candidate parameters in this case are excluded from the evaluation target related to the focus blur.
  • step S103 in FIG. 8 the control unit 6 sets the projector identifier N to “1”.
  • the projector identifier N is an identifier for identifying the projector device 2.
  • the control unit 6 causes the Nth projector device 2 to project an all-white image. That is, an instruction is given to the image input unit 5 to cause the blur correction unit 7 to input an all-white image in which all pixels are displayed in white. At this time, the blur correction unit 7 is instructed to turn off the blur correction function so that the input all-white image is input to the image output unit 8 without being subjected to the blur correction process. At this time, the image output unit 8 is instructed to output an all-white image only to the Nth projector apparatus 2.
  • step S ⁇ b> 105 the control unit 6 executes processing for acquiring a captured image (Pi) of the projection image (Pa), that is, processing for acquiring a captured image by the imaging device 3.
  • step S106 the control unit 6 performs a process for confirming the image projection range based on the acquired captured image as the projection state confirmation process.
  • the control unit 6 performs a process of obtaining the number of pixels whose luminance value is equal to or greater than a predetermined threshold value TH1 (hereinafter referred to as “pixel number V”) in the captured image.
  • pixel number V a predetermined threshold value
  • the control unit 6 determines whether or not the projection state is inappropriate. Specifically, in this example, it is determined whether or not the number of pixels V is less than a predetermined threshold value THv. If the number of pixels v is large, it can be estimated that the area of the projected image displayed in the captured image is large. Therefore, determining whether the number of pixels V is less than the threshold value THv is that the image projection range satisfies a predetermined range condition. This is equivalent to determining whether or not the image projection range is satisfied, specifically, whether or not the image projection range is greatly deviated from the specified range.
  • the method for determining whether or not the image projection range satisfies the predetermined range condition is not limited to the method exemplified above.
  • the number of pixels v is obtained for all the pixels of the captured image Pi, but as shown in FIG. 11, the target area At is determined in the captured image Pi, and the number of pixels v is obtained in the target area At. You can also.
  • the determination method is not limited to the determination method using the number of pixels v, and other determination methods such as a determination based on the result of detecting the edge of the projection image may be employed.
  • the image to be projected in determining whether the image projection range satisfies the predetermined range condition does not necessarily need to be an all-white image.
  • step S107 If it is determined in step S107 that the number of pixels V is less than the predetermined threshold THv and the projection state is inappropriate, the control unit 6 proceeds to step S115 and increments the setting condition identifier M by 1 (M ⁇ M + 1). Above, it returns to step S102. Thereby, candidate parameters corresponding to the following setting conditions are set in each projector device 2. That is, for the setting conditions including candidate parameters whose projection state is inappropriate, the processing after step S110 is not executed and is excluded from the evaluation target related to the focus blur. In other words, at least a set of the candidate parameter and the projector apparatus 2 that are inappropriate in the projection state is excluded from the evaluation target related to the focus blur.
  • step S107 If it is determined in step S107 that the number of pixels V is not less than the predetermined threshold THv and the projection state is not inappropriate, the control unit 6 proceeds to step S108, and the projector identifier N is n or more (N ⁇ n). If N ⁇ n, the process returns to step S104. As a result, for the next projector device 2, the processing described in steps S104 to S107, that is, the processing for determining whether or not the set of the set candidate parameter and the projector device 2 is appropriate as the evaluation target is executed.
  • This filter coefficient acquisition process is a process of acquiring the filter coefficient w for the blur correction process based on the blur characteristic of the projection image measured for each projector device 2.
  • FIG. 12 is a flowchart showing the filter coefficient acquisition process in step S110.
  • the control unit 6 sets a projector identifier N to “1” in step S201, and then causes the Nth projector apparatus 2 to project a predetermined test image in step S202.
  • a predetermined test image In this example, an image in which o representative points (o is a natural number of 2 or more) are set as test images. For example, five or more points including a total of five points at the center and four corners of the image are set as the representative points, and for the test image, for example, an image in which only pixels corresponding to the representative points are emitted is used.
  • the control unit 6 instructs the image input unit 5 to input a test image to the blur correction unit 7.
  • the blur correction unit 7 is instructed to turn off the blur correction function so that the input test image is input to the image output unit 8 without undergoing the blur correction process.
  • the image output unit 8 is instructed to output a test image only to the Nth projector apparatus 2.
  • step S ⁇ b> 203 the control unit 6 performs processing for acquiring a captured image of the projection image from the imaging device 3. Further, in the next step S204, the control unit 6 measures the blur characteristic of each representative point.
  • the blur characteristic data may be data representing a point spread function.
  • data of a simplified blur model as illustrated in FIG. 13 is employed to reduce the data capacity.
  • the simple model shown in FIG. 13 simply represents the blur characteristic on the assumption that the blur spread on the projection plane is a normal distribution.
  • the blur degree ( ⁇ a, ⁇ b) and the blur direction in each direction are expressed as follows.
  • the blur characteristic is expressed by the angle ⁇ for definition.
  • ⁇ a and ⁇ b respectively represent the degree of blur in directions orthogonal to each other.
  • the specific data representing the blur characteristic is not particularly limited, and may be, for example, LPF (Low Pass Filter) coefficient data.
  • step S205 the control unit 6 performs processing for storing the measured blur characteristics in association with the current projector device 2. That is, the blur characteristic for each representative point measured in step S204 is stored in a predetermined storage device (for example, the RAM of the control unit 6) in association with the current projector device 2 (current projector identifier N).
  • a predetermined storage device for example, the RAM of the control unit 6
  • step S206 the control unit 6 determines whether or not the projector identifier N is n or more (N ⁇ n). That is, it is determined whether or not the blur characteristics have been measured for all the projector apparatuses 2. If N ⁇ n is not satisfied in step S206, the controller 6 increments the value of the projector identifier N by 1 (N ⁇ N + 1) in step S207, and returns to step S202. Thereby, the projection of the test image and the measurement of the blur characteristic are performed for the next projector device 2.
  • step S208 calculates the filter coefficient w of each projector device 2 for each representative point. That is, for each representative point, the filter coefficient w of each projector apparatus 2 is calculated using a derivation formula in which the blur characteristics (n blur characteristics) of each projector apparatus 2 are integrated into a set.
  • the terms subtracted from the ideal value y include the blur characteristic ⁇ and the blur characteristic ⁇ , respectively, corresponding to the case where the two projector apparatuses 2 perform the superimposed projection.
  • the derivation formula used in step S208 subtracts n terms including one corresponding to each of the blur characteristics measured for each projector device 2 for the target representative point from the ideal value y. Is used.
  • step S209 the control unit 6 executes a process for storing the calculated filter coefficient w for each representative point of each projector apparatus 2.
  • the filter coefficient w is stored in, for example, the RAM of the control unit 6.
  • the control unit 6 ends the filter coefficient acquisition process shown in FIG.
  • the filter coefficient w for minimizing the focus blur is acquired under the candidate parameters set according to the Mth setting condition.
  • step S 110 the control unit 6 advances the process to step S111 shown in FIG.
  • step S ⁇ b> 111 the control unit 6 executes a superimposed projection process of the blur correction image. That is, the filter coefficient w for each representative point of each projector apparatus 2 acquired in the filter coefficient acquisition process in step S110 is set in the blur correction filter 7a provided for each projector apparatus 2 in the blur correction section 7, and the image input section 5, a predetermined image is input, and the blur correction unit 7 generates a blur correction image for each projector device 2. Then, the image output unit 8 outputs the blur correction image for each of the projector devices 2 to the corresponding projector device 2, and the n projector devices 2 superimpose and project the blur correction images.
  • a filter based on the filter coefficient w at the representative point is used, for example, by linearly interpolating the filter coefficient w at the representative point. Run with coefficients.
  • step S112 the control unit 6 performs captured image acquisition processing, that is, processing for acquiring a captured image of the superimposed projection image Pp displayed on the screen S by the processing in step S111 from the imaging device 3, and then In step S113, a blur evaluation process is performed.
  • the blur evaluation process in step S113 is a process for performing an evaluation related to the focus blur occurring in the superimposed projection image Pp based on the captured image acquired in step S112.
  • an evaluation value Vr representing the sense of resolution of the projected image is used as an evaluation value for performing the evaluation related to the focus blur.
  • the maximum value of the luminance difference between adjacent pixels in the image to be evaluated (hereinafter referred to as “adjacent pixel maximum luminance difference value”) is the value of the dynamic range of the luminance.
  • the divided value is “255” when the luminance value is 256 gradations (0 to 255).
  • FIG. 14 is an explanatory diagram of the evaluation value Vr.
  • the adjacent pixel maximum luminance difference value in the image is “255” from
  • FIG. 14B illustrates a case where the edge portion between the white pixel and the black pixel illustrated in FIG. 14A is blurred due to the focus blur.
  • the adjacent pixel maximum luminance difference value is smaller than “255”, and a value smaller than “1” is calculated as the evaluation value Vr.
  • the evaluation value Vr indicates that “1” indicates the highest resolution, and the value decreases as the value decreases.
  • step S113 of FIG. 8 the control unit 6 calculates such an evaluation value Vr for the captured image acquired in step S112.
  • the method using the evaluation value Vr as described above is merely an example, and should not be limited to a specific method.
  • step S114 the control unit 6 determines whether or not the image quality condition is satisfied, specifically, whether or not the evaluation value Vr is equal to or greater than a predetermined threshold value THr (the resolution is higher than the predetermined height). Whether or not there is).
  • a predetermined threshold value THr the resolution is higher than the predetermined height.
  • the determination of whether or not the evaluation value Vr is greater than or equal to the threshold value THr is an example of determination of whether or not the degree of focus blur is below a predetermined degree.
  • the control unit 6 increments the setting condition identifier M by 1 in step S115 and then returns to step S102.
  • candidate parameters are set according to the following setting conditions (S102), and then processing (S103 to S109) for determining whether the set candidate parameters are appropriate as evaluation targets is performed. If it is determined to be appropriate, processing for evaluation related to focus blurring for the set candidate parameters (S110 to S113) and image quality determination processing based on the evaluation result (S114) are executed.
  • step S114 determines a candidate parameter for the Mth setting condition as a use parameter in step S116.
  • the candidate parameter of the Mth setting condition is determined as an adjustment parameter used when the actual image content is superimposed and projected.
  • the control unit 6 ends the series of processes shown in FIG. 8 in response to the execution of the process of step S116.
  • step S114 If it is determined in step S114 that the image quality condition is satisfied, the candidate parameters to be evaluated for the determination are already set in each projector device 2. Therefore, the determination process in step S116 is not executed, and the process can be shifted to the process for starting the superimposed projection of the actual image content.
  • step S114 corresponds to the determination regarding whether or not the candidate parameter set in step S102 is usable.
  • the candidate parameter to be used can be determined based on the result of relative evaluation of the focus blur. Specifically, in that case, the processing of steps S110 to S113 is executed for M setting conditions, and an evaluation value Vr is obtained for each setting condition. Thereafter, the setting condition with the maximum evaluation value Vr, that is, the candidate parameter for each projector apparatus 2 is determined as the optimum candidate parameter. In other words, it is determined as an adjustment parameter used for the superimposed projection of the actual image content.
  • the candidate parameters to be used are determined by relative evaluation of the focus blur of a plurality of candidate parameters as described above, the combination of the candidate parameter whose projection range does not satisfy the predetermined range condition and the projector device 2 is combined.
  • the setting conditions to include it can exclude from the object of evaluation. That is, the processing of steps S102 to S109 can be applied.
  • FIG. 15 shows a specific example thereof.
  • a case where five projector apparatuses 2 are arranged side by side and superimposed projection is illustrated, but in this case, for example, three projector apparatuses 2 located at the hatched center and both left and right ends are illustrated.
  • the control unit 6 executes the process shown in FIG. 8 for only the three projector devices 2.
  • control unit 6 sets the adjustment parameter for the projector device 2 (non-target device) excluded from the evaluation target to the nearest target device out of the projector devices 2 to be evaluated. Obtained based on the adjustment parameters used for the projector device 2 located.
  • the adjustment parameters of the projector device 2 excluded from the evaluation target for the adjustment parameter search can be appropriately acquired by using the closeness of the adjustment parameters according to the closeness of the arrangement position. Therefore, it is possible to achieve both the improvement of the blur correction performance, the reduction of the processing load for that purpose, and the reduction of the processing time.
  • the lens shift amount of the nearest projector device 2 is set to the nearest The correction is obtained based on the position difference from the projector device 2.
  • the projector device 2 located at the center and the projector devices located at both the left and right (or sometimes up and down) ends. 2 is an evaluation target for the adjustment parameter search.
  • the central projector device 2 is arranged substantially parallel to the projection surface, whereas the end projector device 2 is not substantially parallel to the projection surface.
  • the adjustment parameters tend to be relatively large between the central and end projector devices 2 (particularly when the number of projector devices 2 to be arranged is large). Therefore, it is desirable to select at least one projector device 2 other than the projector device 2 at the center and the end as the projector device 2 to be excluded from the evaluation target.
  • the thinning interval is set to every other unit.
  • the thinning interval is not limited to every other unit, and every other unit is set. You can also.
  • the thinning interval is not limited to a constant value. For example, when a large number of projector apparatuses 2 such as several tens are used, the thinning interval can be gradually reduced from the center to the end side.
  • the same candidate parameter as that of another projector apparatus 2 may be set to perform evaluation related to the focus blur. Accordingly, it is not necessary to store candidate parameters for all projector devices 2 as the table information shown in FIG. 9, and the capacity of the table information can be reduced.
  • Second embodiment> [2-1. Configuration of Image Projecting Device and Image Processing Device as Second Embodiment] Next, the second embodiment will be described. In the second embodiment, the adjustment parameter is searched again according to the temperature of the image projection apparatus.
  • parts that are the same as the parts that have already been described are assigned the same reference numerals and description thereof is omitted.
  • FIG. 16 is a block diagram illustrating an internal configuration example of the projector apparatus 2 used in the second embodiment.
  • the difference from the projector device 2 of the first embodiment is that a thermistor 23d for temperature detection is added.
  • the thermistor 23d is disposed at a predetermined position in the optical system 23 so that the temperature of the optical system 23 can be detected.
  • the thermistor 23d is connected to the control unit 25, and the control unit 25 can acquire temperature information detected by the thermistor 23d.
  • FIG. 17 is a diagram for explaining an internal configuration example of the image processing apparatus 1A as the second embodiment, and illustrates the imaging apparatus 3 together with the internal configuration example of the image processing apparatus 1A.
  • the difference from the image processing apparatus 1 is that a control unit 6A is provided instead of the control unit 6, and an operation unit 30 is further provided.
  • the control unit 6A is different from the control unit 6 in that a use determination unit 12A is provided instead of the use determination unit 12.
  • the operation unit 30 comprehensively represents an operation input device for a user to perform an operation input to the image processing apparatus 1A, and outputs operation information corresponding to the user's operation input to the control unit 6A.
  • Examples of the operation unit 6A include various button operators and touch sensors.
  • user operation input can be performed via a remote controller.
  • the operation unit 30 includes a receiving unit that receives a transmission signal from the remote controller.
  • control unit 6A after executing the adjustment parameter search process (calibration) described in the first embodiment, the use determination unit 12A again adjusts the adjustment parameter based on the temperature detection result of the thermistor 23d in the projector device 2A.
  • the search process is executed.
  • FIG. 18 is a flowchart showing a specific processing procedure to be executed by the CPU of the control unit 6A in order to realize the adjustment parameter search method according to the second embodiment.
  • the process shown in FIG. 18 is started at a predetermined timing after the execution of the search process as the calibration exemplified in FIG.
  • step S301 the control unit 6A acquires the optical system temperature of each projector device 2A. That is, the temperature information detected by the thermistor 23d is acquired by the control unit 25 in the projector device 2A, and the temperature information is acquired via the wireless communication unit 26 and the wireless communication unit 9.
  • control unit 6A determines whether there is projector apparatus 2A that satisfies the reset temperature condition.
  • the reset temperature condition is determined in this example that the acquired optical system temperature is equal to or higher than a predetermined threshold value THt. If it is determined that there is no projector device 2A that satisfies the reset temperature condition (hereinafter referred to as “corresponding projector”), the control unit 6A returns to step S301.
  • the control unit 6A causes each projector apparatus 2A to execute an alert display indicating that the adjustment parameter is to be searched again as an alert process in step S303.
  • the alert display for example, image information including message information asking whether or not to re-search the adjustment parameter and icons representing selection buttons of “Yes” and “No” are displayed.
  • each projector apparatus 2A may be superimposing the actual image content. Therefore, the above alert process is executed, and the user is asked whether or not the re-search should be executed. . Note that it is not essential to determine whether to perform a re-search based on a user operation.
  • the control unit 6A determines the presence or absence of a predetermined operation. Specifically, in this example, it is determined whether or not an operation for selecting the above “Yes” has been performed within a predetermined time. When the predetermined operation is not performed, that is, when the operation for selecting “Yes” is not performed within the predetermined time or when the operation for selecting “No” is performed, the control unit 6A performs a series of processes shown in FIG. Exit. That is, the adjustment parameter re-search is not executed.
  • step S305 the control unit 6A sets the setting condition identifier M to “1”, and in step S306, executes a process of causing the corresponding projector to set candidate parameters for the Mth setting condition.
  • the projector apparatus 2A other than the projector is maintained in the adjustment parameter setting state so far.
  • the control unit 6A executes the processes of steps S110 to S114 described with reference to FIG.
  • the filter coefficient w (filter coefficient w for each representative point of each projector apparatus 2A) that minimizes the focus blur in a state where the candidate parameter according to the Mth setting condition is set for the corresponding projector is obtained (S110). Evaluation regarding the focus blur is performed on the superimposed projection image when the blur correction process using the filter coefficient w is performed (S111 to S113), and it is determined whether or not the image quality condition is satisfied (S114).
  • step S114 If it is determined in step S114 that the image quality condition is not satisfied, the control unit 6A increments the setting condition identifier M by 1 in step S115, and then returns to step S306. As a result, when the candidate parameter of the next setting condition is set for the projector, the filter coefficient w that minimizes the focus blur is obtained, and the superimposed projection image when the blur correction process using the filter coefficient w is performed. Whether or not the image quality condition is satisfied is determined.
  • step S114 determines whether the image quality condition is satisfied. If it is determined in step S114 that the image quality condition is satisfied, the control unit 6A proceeds to step S307, determines the candidate parameter of the Mth setting condition as the use parameter of the projector, and ends the series of processes shown in FIG. In this case as well, it is not essential to perform the process of determining the use parameter.
  • the focus blur characteristic also changes.
  • the change in the blur characteristic becomes relatively large.
  • candidate parameters prepared in advance for the projector are evaluated.
  • candidate parameters to be evaluated can be selected by a user operation.
  • candidate parameters having a large difference from the adjustment parameter being set for example, the difference is greater than or equal to the threshold
  • the search range is limited to the vicinity of the adjustment parameter being set, etc. Conceivable.
  • the projector device 2A having a temperature equal to or higher than the predetermined value is the target of the re-search.
  • the projector device 2A having a large temperature ratio with respect to the total temperature of all the projector devices 2A is the target of the re-search.
  • the re-search can be not performed when the evaluation related to the focus blur of the superimposed projection image is good.
  • the execution condition of the re-search based on the temperature is not limited to the above-exemplified conditions, and can be variously considered.
  • the projection range of the projection image with the candidate parameters set is evaluated by the same processing as the previous steps S104 to S107, and if the projection range does not satisfy the predetermined range condition, The candidate parameter can also be excluded from the evaluation target related to the focus blur.
  • the present technology is not limited to the specific examples described above, and various modifications are possible.
  • the filter coefficient w is a combination of blur characteristics. It can also be obtained from the table information in which the corresponding filter coefficient w is associated with each. More specifically, as a combination of blur characteristics for each image area of each projector apparatus 2 (or 2A), table information storing a corresponding filter coefficient w for each possible combination is stored in the image processing apparatus 1 (1A).
  • the filter coefficient w is acquired based on the table information and the blur characteristics for each image area measured based on the captured image of the imaging device 3.
  • the coefficient acquisition unit 11 may specify a combination that matches the combination of the measured blur characteristics among the combinations of the blur characteristics in the table information, and acquire the filter coefficient w based on the specified combination. .
  • blur correction processing may also be performed using the filter coefficient w obtained by the method described as the preceding example (see [Expression 3] and [Expression 4]). it can.
  • the blur correction process is not limited to the process using the filter coefficient w obtained from the derivation formula, for example, using the filter coefficient obtained by the feedback type correction technique disclosed in Patent Document 1 described above. Processing by other methods can also be performed.
  • the order of candidate parameters to be evaluated can be devised.
  • the candidate parameters prepared in advance are evaluated in order from the largest value. It is done.
  • the adjustment is performed in response to a case where a technique (see step S114) that ends the search in response to the discovery of a candidate parameter that satisfies the image quality condition (the degree of focus blurring is lower than a predetermined degree) is found. It is possible to shorten the processing time required for parameter search and reduce the processing load.
  • the spatial light modulator 23a included in the projector device 2 (2A) is an example of a transmissive liquid crystal panel.
  • a reflective liquid crystal panel or DMD Digital Micromirror
  • Device or the like can also be used, and is not limited to a transmissive liquid crystal panel.
  • the image processing apparatus is any projector apparatus 2. It can also be configured integrally.
  • the image processing apparatus (1 or 1A) of the embodiment has a predetermined candidate value (candidate parameter) as an optical adjustment value (adjustment parameter) of the image projection apparatus (projector apparatus 2 or 2A).
  • a blur correction unit (seventh) that performs a blur correction process for focus blur correction on the input image based on a blur characteristic that is a characteristic of a focus blur generated in the projection image of the image projection apparatus measured in the set state;
  • a use determination unit that performs evaluation related to the focus blur for a projection image obtained by projecting the image subjected to the blur correction processing by the image projection device, and determines whether or not the candidate value can be used based on the evaluation result ( 12 or 12A).
  • an optical adjustment value of the image projection apparatus an adjustment value that can obtain a good blur correction effect by the blur correction process can be searched. Therefore, it is possible to improve the blur correction performance when the focus blur generated in the projection image is corrected by signal processing.
  • the blur correction unit is configured to measure each image projection apparatus measured when the plurality of image projection apparatuses individually perform image projection with corresponding candidate values set. Based on the blur characteristic, the blur correction process for each image projection apparatus is performed on the input image to obtain a blur correction image for each image projection apparatus, and the use determination unit causes the plurality of image projection apparatuses to superimpose and project the blur correction image. Evaluation on the focus blur is performed on the superimposed projection image obtained in this manner, and determination is performed based on the evaluation result.
  • the blur correction unit is a derivation formula for deriving a filter coefficient for blur correction corresponding to each of the image projection apparatuses
  • the blur characteristic for each image projection apparatus is The blur correction process for each image projection apparatus is performed based on the filter coefficient for each image projection apparatus obtained by a derivation formula integrated into a set.
  • the correction filter coefficient for each image projection apparatus tends to cancel the blur itself (that is, the enhancement in the direction in which the blur is large). It is possible to converge to a tendency that the enhancement in the direction where the blur is large is small and the enhancement in the direction where the blur is small is large. Therefore, it is possible to further improve the blur correction performance with respect to the focus blur that occurs in the superimposed projection image.
  • the use determination unit projects a predetermined image by an image projection apparatus in which candidate values are set, evaluates the projection range of the predetermined image, and the projection range is predetermined.
  • the range condition is not satisfied, the combination of the candidate value and the image projection apparatus is excluded from the evaluation target related to the focus blur.
  • the projection range of the image is defined in the combination of a certain candidate value and the image projection device.
  • the image projection range may not satisfy the predetermined range condition, such as greatly deviating from the projection range. Since the fact that the image projection range does not satisfy the predetermined range condition is a problem before the image quality improvement, the combination of these candidate values and the image projection device is excluded from the focus blur evaluation target in the adjustment value search. To do.
  • the blur characteristic measurement by the blur measurement unit, the blur correction process by the blur correction unit, and the focus blur evaluation by the adjustment value determination unit are performed. It is possible to reduce the processing load required for optimizing the adjustment value and shorten the processing time.
  • the use determination unit determines whether the image projecting apparatus arranged adjacent to the image projecting apparatus subject to the evaluation related to the focus blur is the target of the evaluation related to the focus blur. Excluded.
  • Image projection apparatuses having close arrangement positions tend to be set as close values such as pan or tilt angles and lens shift amounts, for example. Therefore, with respect to the image projecting device arranged adjacent to the image projecting device that is the object of evaluation related to the focus blur for determining the adjustment value, the number of processes for adjusting value search can be reduced by thinning out the image projecting device. Plan. Accordingly, it is possible to reduce the processing load for optimizing the adjustment value and shorten the processing time.
  • the use determination unit includes the adjustment value for the non-target apparatus that is the image projection apparatus excluded from the evaluation target, and the non-target apparatus among the image projection apparatuses that are the target of evaluation. Is obtained based on the adjustment value used for the image projection apparatus located at the nearest position.
  • the adjustment value of the image projection apparatus excluded from the evaluation target for the adjustment value search can be appropriately acquired using the closeness of the adjustment value according to the closeness of the arrangement position. Therefore, it is possible to achieve both the improvement of the blur correction performance, the reduction of the processing load for that purpose, and the reduction of the processing time.
  • the adjustment value includes an adjustment value related to the rotation angle in the pan or tilt direction of the image projection apparatus.
  • the rotation angle in the pan or tilt direction of the image projection apparatus is one of the factors that change the characteristic of the focus blur that occurs in the projection image. Therefore, the blur correction performance can be improved by optimizing the adjustment value related to the rotation angle in the pan or tilt direction.
  • the adjustment value includes an adjustment value related to the lens shift amount of the image projection apparatus.
  • the lens shift amount of the image projection apparatus is one of the factors that change the characteristic of the focus blur that occurs in the projection image. Therefore, the blur correction performance can be improved by optimizing the adjustment value related to the lens shift amount.
  • the adjustment value includes an adjustment value related to the focus position of the image projection apparatus.
  • the focus position of the image projection apparatus is one of the factors that change the characteristic of the focus blur that occurs in the projection image. Therefore, the blur correction performance can be improved by optimizing the adjustment value related to the focus position.
  • the use determination unit determines whether or not the degree of the focus blur is below a predetermined level based on the result of the evaluation related to the focus blur. Whether or not can be used is determined.
  • the use determination unit determines the candidate value to be used based on the result of relative evaluation of the focus blur for a plurality of candidate values.
  • the use determination unit (12A) targets the image projection apparatus based on the temperature detection result by the temperature detection unit (thermistor 23d) that detects the temperature of the image projection apparatus.
  • the evaluation related to the focus blur is re-executed, and the determination is re-executed based on the result of the re-executed evaluation.
  • the image processing method is an image measured in a state where a predetermined candidate value (candidate parameter) is set as an optical adjustment value (adjustment parameter) of the image projection apparatus (projector apparatus 2 or 2A).
  • This technology> can also take the following structures.
  • An image processing apparatus is
  • the blur correction unit Based on the blur characteristics for each of the image projection devices measured when the image values are individually projected in a state where the candidate values respectively corresponding to the plurality of image projection devices are set, the image projection device with respect to an input image
  • the blur correction process is performed for each image projection device to obtain a blur correction image for each image projection device
  • the use determination unit The image processing apparatus according to (1), wherein an evaluation related to focus blur is performed on a superimposed projection image obtained by superimposing and projecting the blur correction image by a plurality of the image projection apparatuses, and the determination is performed based on a result of the evaluation. .
  • the blur correction unit A derivation formula for deriving a filter coefficient for blur correction corresponding to each of the image projection devices, wherein the image projection is obtained by a derivation formula in which the blur characteristics for each of the image projection devices are integrated together.
  • the use determination unit Projecting a predetermined image by the image projection apparatus in a state where the candidate value is set to evaluate a projection range of the predetermined image, and when the projection range does not satisfy a predetermined range condition, the candidate value and the image projection The image processing apparatus according to any one of (1) to (3), wherein a combination with the apparatus is excluded from an evaluation target related to the focus blur.
  • the use determination unit The image projecting device arranged adjacent to the image projecting device as an evaluation target related to the focus blur is excluded from the evaluation target related to the focus blur. (2) or (3) Image processing device. (6) The use determination unit The adjustment value for the non-target device, which is the image projection device excluded from the evaluation target, is used for the image projection device located closest to the non-target device among the image projection devices targeted for the evaluation.
  • the image processing apparatus according to (5) acquired based on the adjustment value.
  • the image processing device includes an adjustment value related to a lens shift amount of the image projection device.
  • the image processing device includes an adjustment value related to a focus position of the image projection device.
  • the use determination unit Whether or not the candidate value can be used is determined by determining whether or not the degree of the focus blur is below a predetermined level based on the evaluation result relating to the focus blur. Any of (1) to (9) An image processing apparatus according to claim 1. (11) The use determination unit The image processing device according to any one of (1) to (9), wherein the candidate value to be used is determined based on a result of relative evaluation of the focus blur for a plurality of candidate values.
  • the use determination unit Based on the temperature detection result by the temperature detection unit that detects the temperature of the image projection device, the evaluation relating to the focus blur for the image projection device is re-executed, and the determination is performed again based on the re-executed evaluation result.
  • the image processing apparatus according to any one of (1) to (11).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値の探索を可能とし、投影画像に生じるフォーカスボケの補正を信号処理により行う場合におけるボケ補正性能の向上を図る。 本技術に係る画像処理装置は、画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正部と、ボケ補正処理が施された画像を画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき候補値の使用可否に係る判定を行う使用判定部とを備えている。

Description

画像処理装置、画像処理方法
 本技術は、画像処理装置とその方法に関するものであり、特には、投影画像に生じるフォーカスボケを補正する技術分野に関する。
 例えば液晶プロジェクタ装置等、スクリーン等の投影対象物に画像を投影して表示する画像投影装置が広く知られている。このような画像投影装置を用いた画像投影としては、例えば輝度を稼ぐ目的等により、複数の画像投影装置が対象の画像を投影対象物上に重ねて投影するということが行われている(いわゆる重畳投影)。
 重畳投影を行う場合には、設置の都合上、全ての画像投影装置を投影対象物に対し適切な位置に配置することが困難となる。そのため、少なくとも適切でない位置に配置された画像投影装置による投影画像にはフォーカスずれに起因した画像ボケ(フォーカスボケ)が生じ易くなり、重畳投影画像の画質劣化を招来する。
 下記特許文献1には、重畳投影画像の画素の画素値とその画素に対応する入力画像の画素の画素値との差分が減少するように、各画像投影装置が投影する画像の画素値を順次変更していくフィードバック型の画像補正技術が開示されている。この補正技術を利用することで、重畳投影画像に生じるフォーカスボケを補正することが可能となる。
 また、フォーカスボケの補正には、ボケの逆関数により設計されるフィルタを用いたボケ補正処理(オーバーエンハンス処理)を入力画像に施してボケ補正画像を得、該ボケ補正画像を投影するという手法もある。
特開2009-8974号公報
 ここで、重畳投影を行う場合は、各画像投影装置の画像投影範囲を揃える必要があり、そのためには、画像投影装置が有するレンズシフト機構(投影面に平行な方向において投影画像の位置をシフト(平行移動)させるための機構)が用いられたり、画像投影装置の設置角度(パン又はチルト方向の回転角度)の調整が行われたりする。すなわち、レンズシフト機構によるレンズシフト量や、画像投影装置のパン又はチルト方向の回転角度といった画像投影装置の光学的な調整値の設定によって、各画像投影装置の画像投影範囲が調整される。
 しかしながら、上記したレンズシフト量やパン又はチルト方向の回転角度といった画像投影装置の光学的な調整値が変化すると、投影画像に生じるフォーカスボケの特性(ボケ具合)にも変化が生じる。
 上記した画像投影範囲の調整に関して、各画像投影装置の画像投影範囲を揃えるための光学的な調整値の組合わせは複数通り存在し得るものであるが、このとき、フォーカスボケの特性的に不利な調整値の組合わせが設定されてしまうと、上述したボケの逆関数を利用した手法等、信号処理によるボケ補正を行ったとしても、十分な画質向上が図られない虞がある。
 本技術は上記事情に鑑み為されたものであり、画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値の探索を可能とし、投影画像に生じるフォーカスボケの補正を信号処理により行う場合におけるボケ補正性能の向上を図ることを目的とする。
 本技術に係る画像処理装置は、画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された前記画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正部と、前記ボケ補正処理が施された画像を前記画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記候補値の使用可否に係る判定を行う使用判定部と、を備えるものである。
 これにより、画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値を探索可能とされる。
 上記した本技術に係る画像処理装置においては、前記ボケ補正部は、複数の前記画像投影装置がそれぞれ対応する前記候補値が設定された状態で個別に画像投影を行った際に計測された前記画像投影装置ごとのボケ特性に基づき、入力画像に対し前記画像投影装置ごとの前記ボケ補正処理を施して前記画像投影装置ごとにボケ補正画像を得、前記使用判定部は、前記ボケ補正画像を複数の前記画像投影装置により重畳投影させて得られる重畳投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記判定を行うことが望ましい。
 これにより、重畳投影を行う各画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値を探索可能とされる。
 上記した本技術に係る画像処理装置においては、前記ボケ補正部は、前記画像投影装置の個々に対応したボケ補正のためのフィルタ係数が導出される導出式であって、前記画像投影装置ごとの前記ボケ特性が一式にまとめて組み込まれた導出式によって求まる前記画像投影装置ごとの前記フィルタ係数に基づき、前記画像投影装置ごとの前記ボケ補正処理を行うことが望ましい。
 上記のように画像投影装置ごとのボケ特性をまとめて組み込んだ導出式を解くようにすれば、画像投影装置ごとの補正フィルタ係数は、そのボケ単体を打ち消す傾向(つまりボケが大きい方向のエンハンスを大とする傾向)に収束することに限らず、ボケが大きい方向のエンハンスを小、ボケが小さい方向のエンハンスを大とする傾向に収束可能となる。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、前記候補値が設定された状態の前記画像投影装置により所定画像を投影させて前記所定画像の投影範囲を評価し、前記投影範囲が所定の範囲条件を満たさない場合は当該候補値と前記画像投影装置との組合わせを前記フォーカスボケに係る評価の対象から除外することが望ましい。
 例えば、調整値の最適点を求めるための探索範囲を広げるべく、候補値の振り幅を大きくした場合には、或る候補値と画像投影装置との組合わせにおいて、画像の投影範囲が規定の投影範囲から大きく逸脱する等、画像投影範囲が所定の範囲条件を満たさなくなることがあり得る。画像投影範囲が所定の範囲条件を満たさないことは、画質改善以前の問題となることから、これら候補値と画像投影装置との組合わせについては、調整値探索にあたってのフォーカスボケの評価対象から除外する。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、前記フォーカスボケに係る評価の対象とした前記画像投影装置に対して隣接配置された前記画像投影装置については、前記フォーカスボケに係る評価の対象から除外することが望ましい。
 配置位置が近接している画像投影装置同士は、例えばパン又はチルトの角度やレンズシフト量といった調整値として近い値が設定される傾向となる。そこで、調整値決定のためのフォーカスボケに係る評価の対象とした画像投影装置に隣接配置される画像投影装置については、該評価の対象から間引くことで、調整値探索のための処理数削減を図る。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、前記評価の対象から除外した前記画像投影装置である対象外装置についての前記調整値を、前記評価の対象とした前記画像投影装置のうち前記対象外装置の最寄りに位置する前記画像投影装置に使用する前記調整値に基づいて取得することが望ましい。
 これにより、調整値探索のための評価対象から除外された画像投影装置の調整値を、配置位置の近似性に応じた調整値の近似性を利用して適切に取得可能とされる。
 上記した本技術に係る画像処理装置においては、前記調整値は、前記画像投影装置のパン又はチルト方向の回転角度に係る調整値を含むことが望ましい。
 画像投影装置のパン又はチルト方向の回転角度は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 上記した本技術に係る画像処理装置においては、前記調整値は、前記画像投影装置のレンズシフト量に係る調整値を含むことが望ましい。
 画像投影装置のレンズシフト量は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 上記した本技術に係る画像処理装置においては、前記調整値は、前記画像投影装置のフォーカス位置に係る調整値を含むことが望ましい。
 画像投影装置のフォーカス位置は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、前記フォーカスボケに係る評価の結果に基づき、当該フォーカスボケの度合いが所定の度合いを下回るか否かを判定することで、前記候補値の使用可否を判定することが望ましい。
 これにより、所定のボケ補正性能条件を満たす調整値を探索するにあたり、全ての候補値を試す必要がなくなる。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、複数の前記候補値についての前記フォーカスボケを相対評価した結果に基づき、使用する前記候補値の判定を行うことが望ましい。
 これにより、複数の候補値のうち評価結果が最良となる候補値を使用調整値として探索することが可能とされる。
 上記した本技術に係る画像処理装置においては、前記使用判定部は、前記画像投影装置の温度を検出する温度検出部による温度検出結果に基づき、前記画像投影装置を対象とした前記フォーカスボケに係る評価を再実行し、再実行した評価の結果に基づき前記判定を再実行することが望ましい。
 これにより、温度に依存して最適な調整値が変化する場合に対応して、調整値を再探索することが可能とされる。
 また、本技術に係る画像処理方法は、画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された前記画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正手順と、前記ボケ補正処理が施された画像を前記画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記候補値の使用可否に係る判定を行う使用判定手順と、を有するものである。
 このような画像処理方法によっても、上記した本技術に係る画像処理装置と同様の作用が得られる。
 本技術によれば、画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値の探索を可能とし、投影画像に生じるフォーカスボケの補正を信号処理により行う場合におけるボケ補正性能の向上を図ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
実施形態としての画像処理装置を含んで構成される画像投影システムの構成例を示した図である。 第一実施形態における画像投影装置の内部構成例を示したブロック図である。 レンズシフト機構による投影画像位置の調整についての説明図である。 フォーカス位置調整機構によるフォーカス位置の調整についての説明図である。 第一実施形態の画像処理装置の構成例を説明するためのブロック図である。 合成ボケについての説明図である。 先行例としてのボケ補正手法についての説明図である。 第一実施形態としての調整パラメータの探索手法を実現するために実行すべき具体的な処理手順を示したフローチャートである。 候補パラメータの設定条件についての説明図である。 画像投影範囲が所定の範囲条件を満たすか否かについての判定手法の例を説明するための図である。 画像投影範囲が所定の範囲条件を満たすか否かについての判定手法の別例を説明するための図である。 実施形態におけるフィルタ係数取得処理のフローチャートである。 ボケの簡易化モデルのデータの例を説明するための図である。 フォーカスボケに係る評価値の例についての説明図である。 候補値評価についての変形例の説明図である。 第二実施形態における画像投影装置の内部構成例を示したブロック図である。 第二実施形態の画像処理装置の構成例を説明するためのブロック図である。 第二実施形態としての調整パラメータの探索手法を実現するために実行すべき具体的な処理手順を示したフローチャートである。
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。

<1.第一実施形態>
[1-1.画像投影システムの概要]
[1-2.画像投影装置、画像処理装置の構成]
[1-3.ボケ補正処理について]
[1-4.実施形態としての光学的調整値の探索手法]
[1-5.候補値評価についての変形例]
<2.第二実施形態>
[2-1.第二実施形態としての画像投影装置、画像処理装置の構成]
[2-2.処理手順]
<3.変形例>
<4.実施形態のまとめ>
<5.本技術>
<1.第一実施形態>
[1-1.画像投影システムの概要]

 図1は、本技術に係る実施形態としての画像処理装置1を含んで構成される画像投影システム(実施形態としての画像投影システム)の構成例を示している。
 実施形態としての画像投影システムは、画像処理装置1と、n台(nは2以上の自然数)のプロジェクタ装置2と、撮像装置3とを備える。図中では、プロジェクタ装置2を4台(n=4)備えた画像投影システムの構成を例示している。
 各プロジェクタ装置2は、透過型の液晶プロジェクタ装置として構成されている。具体的に、プロジェクタ装置2は、R(赤)色、G(緑)色及びB(青)色のそれぞれに対応する液晶パネルを備えた、いわゆる三板式の液晶プロジェクタ装置として構成されている。
 画像処理装置1は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Processor)等のコンピュータ装置を備えて構成され、デジタルデータによる画像に各種の信号処理(画像処理)を施し、各プロジェクタ装置2に対して分配出力することが可能に構成されている。
 本実施形態の画像投影システムでは、画像処理装置1が分配出力した画像を、各プロジェクタ装置2が共通のスクリーンS上に投影する。このとき、画像の投影は、各プロジェクタ装置2の投影画像がスクリーンS上で互いに重なるように行われる(いわゆる「重畳投影」)。具体的に、本実施形態では、スクリーンS上に表示される画像の輝度向上を図るべく、各プロジェクタ装置2による投影画像の各画素位置が一致するように重畳投影が行われる。
 なお、プロジェクタ装置2による画像の投影対象はスクリーンSに限定されるものではなく、例えば室内の壁面等、スクリーンS以外とすることもできる。
 ここで以下、重畳投影により投影対象物上に表示される画像のことを「重畳投影画像Pp」と表記する。
 撮像装置3は、例えばCCD(Charged-coupled devices)センサやCMOS(Complementary metal-oxide-semiconductor)センサ等の撮像素子を有するデジタルカメラ装置として構成されている。撮像装置3は、画像処理装置1と通信可能に構成され、撮像画像を画像処理装置1に送信可能とされている。本例において、撮像装置3は、画像処理装置1がプロジェクタ装置2による投影画像の観察画像を得るために用いられ、スクリーンS上における画像の投影範囲全体が画角に収まる位置に配置される。
[1-2.画像投影装置、画像処理装置の構成]

 図2は、プロジェクタ装置2の内部構成例を示したブロック図である。
 図示のようにプロジェクタ装置2は、画像処理部21、変調器駆動部22、光学系23、設置角度調整部24、制御部25、及び無線通信部26を備えている。
 画像処理部21は、入力画像に対して所定の画像信号処理を施し、変調器駆動部22に出力する。変調器駆動部22は、画像処理部21から入力された画像に応じて、光学系23内に配置された空間光変調器23aを駆動する。空間光変調器23aは、本例では透過型の液晶パネルとされる。本例のプロジェクタ装置2において、実際には、空間光変調器23aはR,G,Bの各色に対応した三つが設けられ、画像処理部21は、入力画像に基づいてR,G,B各色に対応したR画像、G画像、B画像を生成して変調器制御部22に出力する。変調器制御部22は、入力されたR画像、G画像、B画像に基づく駆動信号によりそれぞれ対応する色の空間光変調器23aを駆動する。
 光学系23は、不図示の光源、及び偏光板や波長板等の各種光学素子、及び投影レンズ等の各種レンズを備え、光源から発せられる光を空間光変調器23aにより変調し投影レンズを介して出力する。
 本例の光学系23には、光学調整機構23b及びアクチュエータ23cが備えられている。光学調整機構23bは、レンズシフト機構及びフォーカス位置調整機構を包括的に表したものである。レンズシフト機構は、投影画像の位置をシフト(平行移動)させるための機構である。フォーカス位置調整機構は、投影画像内におけるフォーカスが合う位置を調整するための機構である。
 アクチュエータ23cは、上記のレンズシフト機構、フォーカス位置調整機構を駆動するためのアクチュエータを包括的に表したものである。
 ここで、図3、図4を参照し、レンズシフト機構による投影画像位置の調整、フォーカス位置調整機構によるフォーカス位置の調整について説明しておく。
 図3に示すように、レンズシフト機構によっては、投影画像の位置を、スクリーンS上の投影面に平行な方向にシフトさせることができる(図中、太破線で表す投影画像位置と太実線で表す投影画像位置との差を参照)。
 また、図4に示すように、フォーカス位置調整機構によっては、図中の太実線で表す投影画像内において、フォーカスが合う位置(図中黒丸で表す)を調整することができる。
 説明を図2に戻す。
 設置角度調整部24は、プロジェクタ装置2の設置角度を調整する機構及びそのアクチュエータを包括的に表している。設置角度調整部24は、プロジェクタ装置2の少なくともパン又はチルト方向の回転角度を調整可能に構成されるものである。本例における設置角度調整部24は、プロジェクタ装置2のパン及びチルト方向それぞれの回転角度を調整可能に構成されている。
 なお、設置角度調整部24は、プロジェクタ装置2の外部に設けられてもよい。
 また、プロジェクタ装置2のパン、チルト方向それぞれの回転角度を調整可能とするにあたり、設置角度調整部24を設けることは必須ではない。設置角度調整部24を設けない場合、プロジェクタ装置2のパン方向やチルト方向の回転角度は人手により設定する(つまり人がプロジェクタ装置2を動かしてパン方向、チルト方向の回転角度、すなわち配置角度を設定する)。このようにプロジェクタ装置2の設置角度を人手により調整する場合には、画像処理装置1は、設置角度についての後述する候補パラメータの値を人に対して指示するように構成しておく。具体的には、画像処理装置1に画像表示や音声出力により情報提示を行う情報提示部を設けておき、該提示部によって候補パラメータの値を提示する等の手法を採ることが考えられる。
 制御部25は、例えばCPU、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータを有して構成され、例えば上記ROMに格納されたプログラムに従った処理を実行することで、プロジェクタ装置2の各種動作制御を行う。具体的に制御部25は、画像処理部21、アクチュエータ23c、及び設置角度調整部24の動作制御を行う。
 制御部25に対しては、無線通信部26が接続されている。無線通信部26は、例えばブルートゥース(Bluetooth:登録商標)やWiFi(登録商標)等の所定の無線通信方式に従って外部装置との間で無線通信を行う。
 制御部25は、無線通信部26を介して外部の所定装置、特に本例では画像処理装置1との間で各種データの通信を行うことが可能とされている。
 図5は、画像処理装置1の内部構成例を説明するためのブロック図であり、画像処理装置1の内部構成例と共に、図1に示した撮像装置3を併せて示している。
 画像処理装置1は、重畳投影画像Ppに生じる合成ボケ、すなわち個々のプロジェクタ装置2の投影画像に生じるボケが合成されたボケを補正するために、投影対象の画像にボケ補正のための信号処理(フィルタ処理)を施し、該信号処理を施した画像を各プロジェクタ装置2に分配出力して投影させることが可能に構成されている。
 また、画像処理装置1は、本番の画像コンテンツについて重畳投影を行う前の段階で、キャリブレーションとして、プロジェクタ装置2ごとに所定の画像を投影させ、その際に撮像装置3で得られた各撮像画像に基づいて、各プロジェクタ装置2の光学的な調整値を最適化するための処理を実行するように構成されている。
 図示のように画像処理装置1は、画像入力部5、制御部6、ボケ補正部7、画像出力部8、及び無線通信部9を備えている。
 画像入力部5は、プロジェクタ装置2により投影する画像(つまり投影対象の画像)を入力する。画像の入力は、例えば画像処理装置1の外部装置から行ってもよいし、或いは、画像処理装置1に設けられた例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶デバイスに記憶された画像データを読み出して入力する構成とすることもでき、具体的な入力手法は特に限定されない。
 ボケ補正部7は、制御部6(後述する係数取得部11)から指示されたボケ補正のためのフィルタ係数に基づき、画像入力部5が入力した画像に対しプロジェクタ装置2ごとのボケ補正処理を施し、プロジェクタ装置2ごとのボケ補正画像を得る。具体的に、本例におけるボケ補正部7は、プロジェクタ装置2と同数のボケ補正フィルタ7aを有しており、各ボケ補正フィルタ7aが、それぞれ対応するプロジェクタ装置2に対して取得されたフィルタ係数を用いて、入力画像に対するボケ補正処理を施す。これにより、プロジェクタ装置2ごとのボケ補正画像が得られる。
 本例において、ボケ補正処理には、ボケの逆関数により設計されるフィルタを用いた信号処理が採用される。
 なお、上記のフィルタ係数は、後述するボケ計測部10が計測したボケ特性に基づき取得されることから、ボケ補正部7は、計測されたボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すものと言える。
 画像出力部8は、ボケ補正部7により得られた複数のボケ補正画像を個別に出力する。具体的に、本例の画像出力部8は、プロジェクタ装置2ごとに、対応する一つのボケ補正画像を出力する。
 各プロジェクタ装置2がそれぞれ対応するボケ補正画像を投影することで、重畳投影画像Ppにおけるフォーカスボケの解消が図られる。
 なお、本例におけるボケ補正部7は、画像入力部5からの入力画像をボケ補正処理を施さずに出力することが可能に構成されている。また、画像出力部8は、制御部6からの指示に基づき、接続されたプロジェクタ装置2(ここでは4台の例としている)のうち画像の出力対象とするプロジェクタ装置2を選択することが可能に構成されている。
 制御部6は、例えばCPU、ROM、RAM等を備えたマイクロコンピュータを有して構成され、例えば上記ROMに格納されたプログラムに従った処理を実行することで、画像処理装置1の各種動作制御を行う。
 本例の制御部6は、その機能部として、図中のボケ計測部10、係数取得部10、及び使用判定部12を有するものと表すことができる。
 ボケ計測部10は、撮像装置3より入力される撮像画像に基づき、プロジェクタ装置2の投影画像に生じるフォーカスボケの特性(以下「ボケ特性」と表記する)を計測する。
 ここで、プロジェクタ装置2の投影画像に生じるフォーカスボケに係るボケ特性は、投影画像の画素ごとに異なり得るものである。そのため、ボケ計測部10は、撮像装置3より入力される撮像画像について、画像内の複数位置(複数の画像エリア)においてボケ特性の計測を行う。
 係数取得部11は、ボケ計測部10が計測したプロジェクタ装置2ごとのボケ特性に基づき、ボケ補正のためのフィルタ係数を取得する。後述もするが、本例におけるフィルタ係数の取得は、ボケ特性から対応するフィルタ係数が求まるように設計された所定の導出式を用いた計算により行われる。
 なお、上記の導出式を含め、実施形態で採用するボケ補正のための信号処理手法の詳細については後に改めて説明する。
 使用判定部12は、プロジェクタ装置2の光学的な調整値として、投影画像に生じるフォーカスボケの補正効果を高めるための調整値を探索し、使用する調整値の判定を行う。具体的に、使用判定部12は、プロジェクタ装置2に光学的な調整値の候補値が設定された状態で、ボケ補正部7によるボケ補正処理が施された画像をプロジェクタ装置2により投影させ、これにより得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき候補値の使用可否に係る判定を行う。
 ここで、本実施形態で対象とする上記「光学的な調整値」は、その値が変化することに応じ投影画像に生じるフォーカスボケのボケ特性が変化する調整値となる。具体的に、当該調整値には、前述したプロジェクタ装置2の設置角度(パン方向の回転角度、チルト方向の回転角度)、レンズシフト機構による投影画像のシフト量(以下「レンズシフト量」と表記する)、及びフォーカス位置調整機構により調整されるフォーカス位置の調整に係る値が含まれる。
 なお以下、上記したパン方向の回転角度、チルト方向の回転角度、レンズシフト量、及びフォーカス位置それぞれの調整に係る値のことを「調整パラメータ」とも表記する。
 制御部6が使用判定部12としての機能を実現するために実行する具体的な処理については後に改めて説明する。
 無線通信部9は、例えばブルートゥースやWiFi等の所定の無線通信方式に従って外部装置との間で無線通信を行う。
 制御部6に対しては無線通信部9が接続されており、これにより制御部6は、無線通信部9を介して外部の所定装置、特に本例ではプロジェクタ装置2(制御部25)との間で各種データの通信を行うことが可能とされている。例えば、上記の使用判定部12で決定した調整パラメータ等のデータをプロジェクタ装置2に送信することが可能とされる。
[1-3.ボケ補正処理について]

 実施形態で採用するボケ補正処理の手法について説明する。
 先ずは、重畳投影画像Ppに生じる合成ボケについて、図6を参照して説明しておく。
 図6Aは、重畳投影画像Ppにおける二つの異なる画像エリアA1、A2を例示している。紙面の横方向、縦方向がそれぞれ画像の水平方向、垂直方向に対応しており、画像エリアA1は重畳投影画像Ppの左上角の領域、画像エリアA2は重畳投影画像Ppの右上角の領域であるとする。
 図6Bに示すように、説明上、重畳投影画像Ppを2台のプロジェクタ装置2の画像投影により得る場合を考える。
 重畳投影時には2台のプロジェクタ装置2を同一位置に配置することはできないため、主に投影面までの光路長の差等に起因して、各プロジェクタ装置2による投影画像にはそれぞれ異なる特性のフォーカスボケが生じる。このとき、重畳投影画像Ppに生じるフォーカスボケは、プロジェクタ装置2各々の投影画像に生じるフォーカスボケに起因したものとなるが、プロジェクタ装置2単体の投影画像においては、画素ごと(画像内のエリアごと)にフォーカスボケの特性が異なり得る。これは、画像内の各エリアまでの光路長に差が生じることに起因する。
 ここで、例えば図6Bのように2台のプロジェクタ装置2が左右に離間して配置された場合において、左側のプロジェクタ装置2の投影画像における画像エリアA1に生じるフォーカスボケの特性をボケ特性C1Lとする。また、左側のプロジェクタ装置2の投影画像における画像エリアA2に生じるフォーカスボケの特性をボケ特性C2Lとする。さらに、右側のプロジェクタ装置2の投影画像における画像エリアA1、A2に生じるフォーカスボケの特性をそれぞれボケ特性C1R、C2Rとする。
 図6Cは、これらボケ特性C1L、C2L、C1R、C2Rの例を模式的に表している。ここでは、各ボケ特性Cの視覚化モデルとして、点広がり関数(PSF:Point Spread Function )の視覚化モデルを表している。
 図示のように、左側のプロジェクタ装置2によるボケ特性C1L、C2Lについては、ボケ特性C1Lは画像の水平方向におけるボケが小さく垂直方向におけるボケが大きくなる傾向であるのに対し、ボケ特性C2Lは、逆に垂直方向におけるボケが小さく水平方向におけるボケが大きくなる傾向とされる。
 また、右側のプロジェクタ装置2によるボケ特性C1R、C2Rについて、ボケ特性C1Rは垂直方向におけるボケが小さく水平方向におけるボケが大きくなる傾向となり、ボケ特性C2Rは、垂直方向におけるボケが大きく水平方向におけるボケが小さくなる傾向とされる。
 画像エリアA1に着目すると、左側のプロジェクタ装置2のボケ特性C1Lは、該プロジェクタ装置2から画像エリアA1までの水平方向における光路長が比較的短いことから、水平方向におけるボケが小さい傾向となる。一方、右側のプロジェクタ装置2のボケ特性C1Rは、該プロジェクタ装置2から画像エリアA1までの水平方向における光路長が比較的長いことから、水平方向におけるボケが大きい傾向となる。同様の理由により、画像エリアA2に着目すると、左側のプロジェクタ装置2のボケ特性C2Lは水平方向におけるボケが大きい傾向となり、逆に右側のプロジェクタ装置2のボケ特性C2Rは水平方向におけるボケが小さい傾向となる。
 このように、重畳投影を行う場合は、画像内のエリアごとに各プロジェクタ装置2のボケ特性が異なり得る。
 ここで、重畳投影画像Ppに生じるボケを補正するための手法として、以下のような先行例としての手法が存在する。
 図6は、先行例としてのボケ補正手法についての説明図である。
 なお、ここでも説明の便宜上、2台のプロジェクタ装置2により重畳投影を行う前提とする。また、ここでは、画像内の単一エリアについてのボケ補正処理を考える。画像内の各エリアについて、以下で説明する手法と同様の手法でボケ補正を行うことで、重畳投影画像Pp全体のボケ補正を実現することができる。
 先行例としてのボケ補正手法は、ボケの補正にあたり、ボケの逆関数により設計されるフィルタを用いる。すなわち、前述したボケ補正フィルタ7aを用いる。図中では、重畳投影が2台のプロジェクタ装置2により行われる場合に対応して、ボケ補正フィルタ7aが二つ設けられている。
 ここで、一方のプロジェクタ装置2の投影画像(ここでは画像内の単一エリア)に生じるボケの特性をボケ特性φとし、他方のプロジェクタ装置2の投影画像(同様に画像内の単一エリア)に生じるボケの特性をボケ特性Φとする。
 また、ボケ特性φによるボケを補正するためのフィルタ係数をw1、ボケ特性Φによるボケを補正するためのフィルタ係数をw2とする。
 ここでのボケ補正のためのフィルタ処理は、エッジを強調(エンハンス)する処理であり、例えば5×5フィルタ等、複数1セットのフィルタ係数を用いて行われるものである。すなわち、上記のフィルタ係数w1、w2は、複数のフィルタ係数を含む。
 ボケ補正フィルタ7aによるボケ補正のためのフィルタ処理を入力画像に施し、これをプロジェクタ装置2により投影して得られる画像の画素値は、プロジェクタ装置2ごとに以下の[式1][式2]で表すことができる。


Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 すなわち、この場合における一方のプロジェクタ装置2の投影画像の値は、[式1]のように、入力画像の画素値xに対しボケ特性φに基づくボケ付加処理及びフィルタ係数w1に基づくボケ補正処理を施した値として表すことができる。また、この場合における他方のプロジェクタ装置2の投影画像の値は、[式2]のように、画素値xに対しボケ特性Φに基づくボケ付加処理及びフィルタ係数w2に基づくボケ補正処理を施した値として表すことができる。
 先行例においては、ボケ補正のためのフィルタ係数w1、w2を、以下の[式3][式4]に示す導出式に基づき求めるものとしている。


Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 但し、[式3][式4]において、「y」は重畳投影画像Ppの画素値の理想値であり、具体的には、フォーカスボケが生じない理想状態での重畳投影画像Ppの画素値を表す。
 先行例では、[式3]が表すQ1、すなわち、画素値xに対しボケ特性φに基づくボケ付加処理及びフィルタ係数w1に基づくボケ補正処理を施した値と所定の理想値(ここではy/2)との誤差の値に基づいて、一方のプロジェクタ装置2に対応するフィルタ係数w1を求める。具体的には、誤差Q1をできるだけ小さくするフィルタ係数w1を求める。
 また先行例では、[式4]が表すQ2、すなわち、画素値xに対しボケ特性Φに基づくボケ付加処理及びフィルタ係数w2に基づくボケ補正処理を施した値と所定の理想値(y/2)との誤差の値に基づいて、他方のプロジェクタ装置2に対応するフィルタ係数w2を求める。具体的には、誤差Q2をできるだけ小さくするフィルタ係数w2を求める。
 しかしながら、上記先行例の手法によると、プロジェクタ装置2ごとのフィルタ係数wは、それぞれ単一の特性によるボケ(φ又はΦ)を打ち消すように個別に求められることから、発生するボケが大きい場合には、ボケを補正しきれない虞がある。
 例えば、ボケ特性φが前述したボケ特性C1Lのように垂直方向のボケが大きく水平方向のボケが小さい特性であり、ボケ特性Φがボケ特性C1Rのように水平方向のボケが大きく垂直方向のボケが小さい特性であったとする。
 この場合、[式3]のようにφによるボケを解消するフィルタ係数w1を求めた場合には、ボケの大きい垂直方向のエンハンスを大きくするフィルタ係数w1が求まる。また[式4]のようにΦによるボケを解消するフィルタ係数w2を求めた場合には、ボケの大きい水平方向のエンハンスを大きくするフィルタ係数w2が求まる。
 このとき、フィルタ係数wは、より大きなボケを打ち消すためにはより絶対値の大きい係数が導出される傾向となるが、打ち消すべきボケが大きく、絶対値が大きな係数が求められた場合には、ボケ補正後の画素値がダイナミックレンジを超える虞があり、補正の効果を投影画像に反映しきれなくなる虞がある。
 従って、上記のようにボケが大きい方向のエンハンスを大きくする傾向となる先行例の手法では、解消できるボケの大きさに限界がある。
 そこで、本実施形態では、下記[式5]のように、複数のボケ特性が一式にまとめて組み込まれた導出式に基づきフィルタ係数w1、w2を求める。


Figure JPOXMLDOC01-appb-M000005
 具体的には、[式5]における誤差Qをできるだけ小さくするフィルタ係数w1、w2を求める。
 この誤差Qは、ボケ特性(φ、Φ)ごとに、画素値xに対しボケ特性に基づくボケ付加処理及びフィルタ係数(w1、w2)に基づくボケ補正処理を施した値の総和と、所定の理想値(y)との差と言うことができる。
 [式5]は、端的に言えば、フィルタ係数w1、w2を、先行例のように単一のボケ特性のみに基づき求めるのではなく、複数のボケ特性に基づき求めるものであると言うことができる。
 複数のボケ特性について、先行例のようにボケ特性単体ごとに導出式を解いていると(つまり単体のボケ特性しか組み込まれていない導出式を解いていると)、そのボケ特性によるボケを打ち消すようにするフィルタ係数wしか求まらない。つまり、例えば垂直方向のボケが大きければ垂直方向をエンハンスするフィルタ係数wしか求まらない。
 これに対し、[式5]のようにそれぞれのフィルタ係数を複数のボケ特性に基づき求めるようにする、すなわち複数のボケ特性をまとめて組み込んだ導出式により求めるようにすれば、ボケ特性ごとのフィルタ係数wは、先行例のように単体のボケを打ち消す傾向(ボケが大きい方向のエンハンスを大とする傾向)に収束することに限らず、ボケが大きい方向のエンハンスを小、ボケが小さい方向のエンハンスを大とする傾向に収束可能となる。つまり、例えば図3で示した画像エリアA1についてのボケ特性C1Lのように、垂直方向のボケが大且つ水平方向のボケが小となる左側のプロジェクタ装置2に用いるフィルタ係数wについては、垂直方向のエンハンスを小とし水平方向のエンハンスを小とするフィルタ係数wに収束可能となる。また、画像エリアA1についてのボケ特性C1Rのように、水平方向のボケが大且つ垂直方向のボケが小となる右側のプロジェクタ装置2に用いるフィルタ係数wについては、垂直方向のエンハンスを大とし水平方向のエンハンスを小とするフィルタ係数wに収束可能となる。これらのフィルタ係数wによる補正を合計した結果、画像エリアA1については、二つのボケ特性による合成ボケが適切に補正されるようになる。つまり、左側のプロジェクタ装置2についての水平方向のエンハンスは、右側のプロジェクタ装置2の投影画像に生じる水平方向ボケへの補正として機能し、また、右側のプロジェクタ装置2についての垂直方向のエンハンスは、左側のプロジェクタ装置2の投影画像に生じる垂直方向ボケへの補正として機能することになり、二つの補正の合計により、合成ボケに対する補正が適正に行われるものである。
 このように、各ボケ特性について互いにボケが小さい方向をエンハンスし、それらの補正の合計によって合成ボケを補正するということができれば、先行例のようにボケが大きい方向をエンハンスするという手法を採る場合よりも、補正可能なボケ量を大きくすることができる。すなわち、合成ボケについての補正性能の向上を図ることができ、画質のさらなる向上を図ることができる。
 なお、上記では2台のプロジェクタ装置2が重畳投影を行う場合の合成ボケに対する導出式を例示したが、n台のプロジェクタ装置2が重畳投影を行う場合の導出式は、プロジェクタ装置2ごとのボケ特性、すなわちn個のボケ特性をまとめて組み込んだ導出式を用いる。
 また、上記の導出式は、一つの画像エリアで生じるボケの補正フィルタ係数を導出する式であり、重畳投影画像Ppの全域でボケ補正を行うためには、画像内における必要とされる複数の画像エリアごとに、それぞれ同様の導出式によって各プロジェクタ装置2のフィルタ係数wを求める。
 本例における係数取得部11は、ボケ計測部11が計測した各プロジェクタ装置2の画像エリアごとのボケ特性に基づき、上記[式5]のようにプロジェクタ装置2ごとのボケ特性がまとめて一式に組み込まれた導出式を用いて、各プロジェクタ装置2の画像エリアごとのフィルタ係数wを求める。
[1-4.実施形態としての光学的調整値の探索手法]

 図8乃至図14を参照し、第一実施形態としての調整パラメータの探索手法について説明する。
 図8は、第一実施形態としての調整パラメータの探索手法を実現するために制御部6におけるCPUが実行すべき具体的な処理手順を示したフローチャートである。図8に示す処理は、前述した本番の画像コンテンツについて重畳投影を行う前の段階でのキャリブレーション時において実行される。
 大まかな処理の流れとしては、先ず、プロジェクタ装置2ごとに、予め定められた調整パラメータの候補値(以下「候補パラメータ」と表記する)を設定させた状態で画像投影を実行させ、その際に撮像装置3で得られる撮像画像に基づいてプロジェクタ装置2ごとにボケ特性の計測、及び計測したボケ特性に基づくフィルタ係数wの取得を行う(ステップS102、S110)。その上で、取得したフィルタ係数wを用いたボケ補正処理によりプロジェクタ装置2ごとのボケ補正画像を得、それらボケ補正画像を重畳投影させ、その際に得られる撮像装置3の撮像画像に基づいてフォーカスボケに係る評価を行い、評価結果に基づいて調整パラメータの決定を行う(ステップS111~S116)。
 具体的な処理を説明する。
 先ず、制御部6はステップS101で、設定条件識別子Mを「1」にセットし、ステップS102で各プロジェクタ装置2に第M設定条件の候補パラメータを設定するための処理を行う。設定条件識別子Mは、プロジェクタ装置2ごとの候補パラメータの設定条件を識別するための識別子である。
 本例では、候補パラメータの設定条件として、図9に例示するように第1~第mまでのm個(mは2以上の自然数)の設定条件が予め定められている。
 図示のように各設定条件は、n台のプロジェクタ装置2の個々に設定されるべき候補パラメータの組合わせを定義したものである。本例では、各設定条件においてプロジェクタ装置2ごとに設定される候補パラメータは、パン方向の回転角度(図中「パン」)、チルト方向の回転角度(図中「チルト」)、レンズシフト量(図中「レンズシフト」)、及びフォーカス位置の4種とされている。
 本例において、画像処理装置1には、図9に示すように候補パラメータについて複数の設定条件を定義したテーブル情報が所定の記憶装置(例えば制御部6が備えるROM等の記憶装置)に記憶されている。
 図8のステップS102で制御部6は、上記のテーブル情報から第M設定条件の候補パラメータを読み出し、無線通信部9を介してそれぞれ対応するプロジェクタ装置2に送信して制御部25に設定を指示する。
 上記の指示に応じ各プロジェクタ装置2における制御部25は、受信した候補パラメータによる光学調整機構23bの駆動指示、回転角度の設定指示をそれぞれアクチュエータ23c、設置角度調整部24に対して行う。これにより、各プロジェクタ装置2のパン方向及びチルト方向の回転角度、レンズシフト量、及びフォーカス位置の各調整値が、候補パラメータとしての調整値に設定される。
 ステップS102に続くステップS103~S109の処理は、各プロジェクタ装置2に設定した候補パラメータが、評価対象として適切か否かを判定するための処理となる。具体的には、候補パラメータを設定した状態でのプロジェクタ装置2の画像投影範囲が所定の範囲条件を満たすか否かに基づき、候補パラメータが評価対象として適切か否かを判定するための処理である。
 図10Aは、撮像装置3による撮像画像Pi内において、プロジェクタ装置2の投影画像Paが収まっている状態を、図10Bは撮像画像Pi内に投影画像Paが収まり切っていない状態をそれぞれ例示している。
 候補パラメータを設定した場合には、図10Bのように投影画像Paの位置が適正な位置から大きくずれることも想定され得る。このように画像投影位置が不適切となるプロジェクタ装置2が1台でも存在する場合には、もはや重畳投影を適切に行うことが不能となる。そのため、この場合の候補パラメータについては、フォーカスボケに係る評価の対象から除外する。
 図8におけるステップS103で制御部6は、プロジェクタ識別子Nを「1」にセットする。プロジェクタ識別子Nは、プロジェクタ装置2を識別するための識別子である。
 続くステップS104で制御部6は、第Nのプロジェクタ装置2により全白画像を投影させる。すなわち、画像入力部5に対する指示を行って、全画素を白表示とする全白画像をボケ補正部7に入力させる。このとき、ボケ補正部7にはボケ補正機能をオフとする指示を行い、入力された全白画像がボケ補正処理を経ずに画像出力部8に入力されるようにする。またこの際、画像出力部8には、第Nのプロジェクタ装置2に対してのみ全白画像を出力するように指示を行う。
 ステップS104に続くステップS105で制御部6は、投影画像(Pa)の撮像画像(Pi)を取得する処理、すなわち撮像装置3による撮像画像を取得する処理を実行する。
 次いで、制御部6はステップS106で、投影状態確認処理として、取得した撮像画像に基づき画像投影範囲を確認するための処理を行う。具体的に、制御部6は、該確認処理として、撮像画像において輝度値が所定の閾値THl以上である画素の数(以下「画素数V」と表記)を求める処理を行う。
 続くステップS107で制御部6は、投影状態が不適切か否かを判定する。具体的に本例では、上記した画素数Vが所定の閾値THv未満であるか否かを判定する。画素数vが多ければ撮像画像内に映し出されている投影画像の面積が大きいと推定でき、従って画素数Vが閾値THv未満か否かを判定することは、画像投影範囲が所定の範囲条件を満たすか否か、具体的には、画像投影範囲が規定範囲から大きくずれているか否かを判定していることに相当する。
 なお、画像投影範囲が所定の範囲条件を満たすか否かの判定手法は、上記で例示した手法に限定されるものではない。
 例えば、撮像画像Piの全画素を対象として画素数vを求めたが、図11に示すように、撮像画像Pi内において対象エリアAtを定めておき、該対象エリアAt内において画素数vを求めることもできる。
 また、画素数vを用いた判定手法に限らず、例えば投影画像のエッジを検出した結果に基づく判定とする等、他の判定手法を採ることもできる。
 また、画像投影範囲が所定の範囲条件を満たすか否かの判定にあたって投影する画像は、必ずしも全白画像である必要はない。
 ステップS107において、画素数Vが所定の閾値THv未満であり、投影状態が不適切であると判定した場合、制御部6はステップS115に進んで設定条件識別子Mを1インクリメント(M←M+1)した上で、ステップS102に戻る。これにより、各プロジェクタ装置2には、次の設定条件に対応する候補パラメータが設定される。すなわち、投影状態が不適切となる候補パラメータを含む設定条件については、ステップS110以降の処理が実行されず、フォーカスボケに係る評価の対象から除外されることになる。換言すれば、少なくとも投影状態が不適切となる候補パラメータとプロジェクタ装置2との組については、フォーカスボケに係る評価の対象から除外される。
 また、ステップS107において、画素数Vが所定の閾値THv未満ではなく、投影状態が不適切でないと判定した場合、制御部6はステップS108に進んで、プロジェクタ識別子Nがn以上(N≧n)か否かを判定し、N≧nでなければ、ステップS104に戻る。これにより、次のプロジェクタ装置2について、ステップS104~S107で説明した処理、すなわち設定した候補パラメータとプロジェクタ装置2の組が評価対象として適切か否かの判定のための処理が実行される。
 一方、ステップS108でN≧nであると判定した場合、制御部6はステップS110のフィルタ係数取得処理を実行する。このフィルタ係数取得処理は、プロジェクタ装置2ごとに計測した投影画像のボケ特性に基づき、ボケ補正処理のためのフィルタ係数wを取得する処理となる。
 図12は、ステップS110のフィルタ係数取得処理を示したフローチャートである。 図12において、制御部6はステップS201で、プロジェクタ識別子Nを「1」にセットした上で、ステップS202で第Nのプロジェクタ装置2により所定のテスト画像を投影させる。本例では、テスト画像としてo個(oは2以上の自然数)の代表点が設定された画像を用いる。例えば、代表点としては、画像の中央及び四隅の計5点を含む5以上の点が設定され、テスト画像は、例えばそれら代表点に該当する画素のみを発光させる画像が用いられる。
 制御部6は、画像入力部5に対する指示を行ってテスト画像をボケ補正部7に入力させる。このとき、ボケ補正部7にはボケ補正機能をオフとする指示を行い、入力されたテスト画像がボケ補正処理を経ずに画像出力部8に入力されるようにする。またこの際、画像出力部8には、第Nのプロジェクタ装置2に対してのみテスト画像を出力するように指示を行う。
 次いで、制御部6はステップS203で、投影画像の撮像画像を撮像装置3より取得する処理を行う。
 さらに、次のステップS204で制御部6は、各代表点のボケ特性を計測する。
 この際、ボケ特性のデータについては、点広がり関数を表すデータとしてもよいが、本例では、例えばデータ容量削減のため、図13に示すようなボケの簡易化モデルのデータを採用する。この図13に示す簡易モデルは、投影面におけるボケの広がりが正規分布状になるとの前提でボケ特性を簡易的に表すもので、各方向のボケ度合い(σa、σb)と、ボケの方向を定義するための角度θとでボケ特性を表すものとされる。σaとσbは、互いに直交する方向のボケ度合いをそれぞれ表す。
 なお、ボケ特性を表す具体的なデータについては特に限定されるものではなく、例えばLPF(Low Pass Filter)の係数データとすることもできる。
 ステップS204に続くステップS205で制御部6は、計測したボケ特性を現在のプロジェクタ装置2と対応づけて記憶するための処理を行う。すなわち、ステップS204で計測した代表点ごとのボケ特性を現在のプロジェクタ装置2(現在のプロジェクタ識別子N)と対応づけて所定の記憶装置(例えば制御部6のRAM等)に記憶させる。
 次いで、制御部6はステップS206で、プロジェクタ識別子Nがn以上であるか否か(N≧n)を判定する。すなわち、全てのプロジェクタ装置2についてボケ特性を計測したか否かを判定する。
 ステップS206において、N≧nでなければ、制御部6はステップS207でプロジェクタ識別子Nの値を1インクリメント(N←N+1)し、ステップS202に戻る。これにより、次のプロジェクタ装置2についてテスト画像の投影やボケ特性の計測が行われる。
 一方、N≧nであれば、制御部6はステップS208に進み、代表点ごとに各プロジェクタ装置2のフィルタ係数wを計算する。すなわち、代表点ごとに、各プロジェクタ装置2のボケ特性(n個のボケ特性)が一式にまとめて組み込まれた導出式を用いて、各プロジェクタ装置2のフィルタ係数wを計算する。先の[式5]の導出式は、2台のプロジェクタ装置2で重畳投影を行う場合に対応して、理想値yから減算される項がそれぞれボケ特性φ、ボケ特性Φを含んだ二つとされていたが、ステップS208で用いる導出式は、対象とする代表点について各プロジェクタ装置2ごとに計測されたボケ特性のうちそれぞれ対応する一つを含んだn個の項を理想値yより減算する式を用いる。
 ステップS208に続くステップS209で制御部6は、計算した各プロジェクタ装置2の代表点ごとのフィルタ係数wを記憶するための処理を実行する。この際、フィルタ係数wは、例えば制御部6のRAM等に記憶する。
 ステップS209の記憶処理を実行したことに応じ、制御部6は図12に示すフィルタ係数取得処理を終える。
 図12に示すフィルタ係数取得処理が実行されることで、第M設定条件による候補パラメータが設定された下でフォーカスボケを最小化するためのフィルタ係数wが取得される。
 ステップS110のフィルタ係数取得処理を実行したことに応じ、制御部6は、図8に示すステップS111に処理を進める。
 ステップS111で制御部6は、ボケ補正画像の重畳投影処理を実行する。すなわち、ステップS110のフィルタ係数取得処理で取得した各プロジェクタ装置2の代表点ごとのフィルタ係数wをボケ補正部7におけるプロジェクタ装置2ごとに設けられたボケ補正フィルタ7aに設定させると共に、画像入力部5により所定画像を入力させて、ボケ補正部7においてプロジェクタ装置2ごとのボケ補正画像が生成されるようにする。そして、画像出力部8によりこれらプロジェクタ装置2ごとのボケ補正画像をそれぞれ対応するプロジェクタ装置2に出力させて、n台のプロジェクタ装置2によりボケ補正画像を重畳投影させる。
 なお、ボケ補正部7におけるボケ補正処理について、代表点以外の各画素のフィルタ処理については、例えば代表点でのフィルタ係数wを線形補間して用いる等、代表点でのフィルタ係数wに基づくフィルタ係数を用いて実行する。
 続くステップS112で制御部6は、撮像画像の取得処理、すなわち上記ステップS111の処理によってスクリーンS上に表示された重畳投影画像Ppについての撮像画像を撮像装置3より取得する処理を行い、次のステップS113で、ボケ評価処理を行う。
 ステップS113のボケ評価処理は、ステップS112で取得した撮像画像に基づき、重畳投影画像Ppに生じるフォーカスボケに係る評価を行う処理である。本例では、フォーカスボケに係る評価を行うための評価値として、投影画像の解像感を表す評価値Vrを用いる。具体的に、この場合の評価値Vrとしては、評価対象の画像内における隣接画素間の輝度差分の最大値(以下「隣接画素最大輝度差分値」と表記)を、輝度のダイナミックレンジの値で除した値とする。ここで、ダイナミックレンジの値は、輝度値が256階調(0~255)であれば「255」となる。
 図14は、評価値Vrについての説明図である。
 図14Aは、白画素(輝度値=255)と黒画素(輝度値=0)とが隣接している画像の例である。この場合、画像内における隣接画素最大輝度差分値は、|255-0|より「255」であり、評価値Vrとしては「1」が算出される。
 図14Bは、図14Aに示す白画素と黒画素とのエッジ部分がフォーカスボケによりぼやけた場合を例示している。この場合、隣接画素最大輝度差分値は「255」よりも小さくなり、評価値Vrとしては「1」より小さい値が算出されることになる。
 このように評価値Vrは、「1」が解像感が最も高いことを表し、値が小さくなるに従って解像感がより低いことを表す値となる。
 図8のステップS113において、制御部6は、ステップS112で取得した撮像画像についてこのような評価値Vrを計算する。
 なお、フォーカスボケに係る評価の手法として、上記のような評価値Vrを用いる手法はあくまで一例を挙げたものに過ぎず、特定の手法に限定されるべきものではない。
 続くステップS114で制御部6は、画質条件を満たすか否か、具体的には、評価値Vrが所定の閾値THr以上であるか否か(解像感の高さが所定の高さ以上であるか否か)を判定する。ここで、評価値Vrが閾値THr以上であるか否かの判定は、フォーカスボケの度合いが所定の度合いを下回るか否かの判定の一例である。
 評価値Vr≧THrでなく、画質条件を満たさないと判定した場合、制御部6はステップS115で設定条件識別子Mを1インクリメントした上で、ステップS102に戻る。これにより、次の設定条件による候補パラメータの設定(S102)が行われた上で、設定した候補パラメータが評価対象として適切か否かの判定のための処理(S103~S109)が行われ、評価対象として適切とされた場合には、設定した候補パラメータについてのフォーカスボケに係る評価のための処理(S110~S113)、及び評価結果に基づく画質判定処理(S114)が実行される。
 一方、ステップS114において評価値Vr≧THrであり、画質条件を満たすと判定した場合、制御部6はステップS116で第M設定条件の候補パラメータを使用パラメータとして決定する。すなわち、第M設定条件の候補パラメータを、本番の画像コンテンツを重畳投影する際に使用する調整パラメータとして決定する。
 制御部6は、ステップS116の処理を実行したことに応じ図8に示す一連の処理を終える。
 なお、ステップS114で画質条件を満たすと判定した場合、該判定のための評価対象とした候補パラメータは既に各プロジェクタ装置2に設定された状態にある。そのため、ステップS116の決定処理は実行せず、そのまま本番の画像コンテンツの重畳投影を開始するための処理に移行することもできる。
 ここで、ステップS114の判定処理は、ステップS102で設定した候補パラメータについて、その使用可否に係る判定を行っていることに相当する。
 上記のような一連の処理により、各プロジェクタ装置2の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値が探索される。
 従って、投影画像に生じるフォーカスボケの補正を信号処理により行う場合におけるボケ補正性能の向上を図ることができる。
 なお、上記では、重畳投影に使用する調整パラメータを探索する処理として、画質条件を満たす設定条件が発見されたことに応じて探索を終了する例を挙げたが、予め用意されたM個全ての設定条件について、フォーカスボケを相対評価した結果に基づき、使用する候補パラメータの判定を行うこともできる。具体的にその場合には、ステップS110~S113の処理をM個の設定条件について実行し、設定条件ごとに評価値Vrを得る。その後、評価値Vrが最大である設定条件、すなわちプロジェクタ装置2ごとの候補パラメータを、最適な候補パラメータとして決定する。換言すれば、本番の画像コンテンツの重畳投影に用いる調整パラメータとして決定する。
 なお、上記のように複数の候補パラメータのフォーカスボケを相対評価して使用する候補パラメータの判定を行う場合においても、投影範囲が所定の範囲条件を満たさない候補パラメータとプロジェクタ装置2の組合わせを含む設定条件については、評価の対象から除外することができる。すなわち、ステップS102~S109の処理を適用することができる。
[1-5.候補値評価についての変形例]

 ここで、重畳投影を行う複数のプロジェクタ装置2において、配置位置が近いプロジェクタ装置2同士は、光学的な調整パラメータも近似する傾向となる。
 そこで、使用パラメータの判定にあたってのフォーカスボケに係る評価の対象としたプロジェクタ装置2に隣接配置されているプロジェクタ装置2については、該フォーカスボケに係る評価の対象から除外することもできる。
 図15にその具体例を示す。
 図中では、5台のプロジェクタ装置2を横並びに配列させて重畳投影を行う場合を例示しているが、例えばこの場合、ハッチングを施した中央、及び左右両端に位置する3台のプロジェクタ装置2についてはフォーカスボケ評価の対象とし、それ以外のプロジェクタ装置2については該評価の対象から除外する。つまり、この場合の制御部6(使用判定部12)は、上記3台のプロジェクタ装置2のみを対象として、図8に示した処理を実行する。
 この場合、制御部6(使用判定部12)は、評価の対象から除外したプロジェクタ装置2(対象外装置)についての調整パラメータを、評価の対象としたプロジェクタ装置2のうち対象外装置の最寄りに位置するプロジェクタ装置2に使用する調整パラメータに基づき取得する。
 これにより、調整パラメータ探索のための評価対象から除外されたプロジェクタ装置2の調整パラメータを、配置位置の近似性に応じた調整パラメータの近似性を利用して適切に取得可能とされる。
 従って、ボケ補正性能の向上と、そのための処理負担の軽減及び処理時間の短縮化との両立を図ることができる。
 上記のように対象外装置の調整パラメータを最寄りのプロジェクタ装置2の調整パラメータに基づき取得する場合、対象外装置のレンズシフト量については、該最寄りのプロジェクタ装置2のレンズシフト量を、該最寄りのプロジェクタ装置2との位置の差に基づき補正して取得する。
 ここで、上記では、重畳投影のために配列された複数のプロジェクタ装置2のうち、少なくとも中央部に位置するプロジェクタ装置2と、左右(又は上下の場合もある)の両端部に位置するプロジェクタ装置2とを調整パラメータ探索のための評価対象としたが、通常、中央部のプロジェクタ装置2は投影面に略平行に配置されるのに対し、端部のプロジェクタ装置2は投影面に略平行ではなく斜めに配置される傾向となり(特に配列するプロジェクタ装置2の数が多い場合)、これら中央部と端部のプロジェクタ装置2間では調整パラメータに比較的大きな差が生じる傾向となる。
 従って、評価対象から除外するプロジェクタ装置2としては、少なくとも中央部と端部のプロジェクタ装置2以外のプロジェクタ装置2から選出することが望ましい。
 なお、図15では評価対象から除外するプロジェクタ装置2の配置間隔、すなわち間引きの間隔を1台おきとする例を挙げたが、間引きの間隔は1台おきに限定されず、複数台おきとすることもできる。また、間引き間隔は一定とすることに限らず、例えばプロジェクタ装置2を数十台など多数用いる場合には、中央から端部側にかけて間引き間隔を次第に小さくするといったことも可能である。
 また、重畳投影を行う一部のプロジェクタ装置2については、他のプロジェクタ装置2(例えば最寄りのプロジェクタ装置2)と同じ候補パラメータを設定してフォーカスボケに係る評価を行ってもよい。
 これにより、図9に示したテーブル情報として、プロジェクタ装置2全台分の候補パラメータを格納しておく必要がなくなり、テーブル情報の容量削減を図ることができる。
<2.第二実施形態>
[2-1.第二実施形態としての画像投影装置、画像処理装置の構成]

 続いて、第二実施形態について説明する。
 第二実施形態は、画像投影装置の温度に応じて調整パラメータの再探索を行うものである。なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号を付して説明を省略する。
 図16は、第二実施形態で用いるプロジェクタ装置2の内部構成例を示したブロック図である。
 第一実施形態のプロジェクタ装置2との差異点は、温度検出を行うためのサーミスタ23dが追加されている点である。本例では、サーミスタ23dは光学系23内の所定位置に配置され、光学系23の温度を検出可能とされている。
 サーミスタ23dは制御部25と接続され、制御部25はサーミスタ23dにより検出される温度情報を取得可能とされている。
 図17は、第二実施形態としての画像処理装置1Aの内部構成例を説明するための図であり、画像処理装置1Aの内部構成例と共に撮像装置3を併せて示している。
 画像処理装置1との差異点は、制御部6に代わり制御部6Aが設けられ、さらに、操作部30が設けられた点である。
 制御部6Aは、制御部6と比較して、使用判定部12に代わり使用判定部12Aが設けられた点が異なる。
 操作部30は、ユーザが画像処理装置1Aに対する操作入力を行うための操作入力デバイスを包括的に表したものであり、ユーザの操作入力に応じた操作情報を制御部6Aに出力する。操作部6Aの例としては、例えば各種のボタン操作子やタッチセンサ等を挙げることができる。或いは、ユーザ操作入力はリモートコントローラを介して行うこともでき、その場合、操作部30はリモートコントローラによる送信信号を受信する受信部を備えた構成とする。
 制御部6Aにおいて、使用判定部12Aは、第一実施形態で説明した調整パラメータの探索処理(キャリブレーション)を実行した後において、プロジェクタ装置2Aにおけるサーミスタ23dの温度検出結果に基づき、再度、調整パラメータの探索処理を実行する。
[2-2.処理手順]

 図18は、第二実施形態としての調整パラメータの探索手法を実現するために制御部6AのCPUが実行すべき具体的な処理手順を示したフローチャートである。図18に示す処理は、図8に例示したキャリブレーションとしての探索処理の実行後における所定のタイミングで開始されるものである。
 先ず、制御部6AはステップS301で、各プロジェクタ装置2Aの光学系温度を取得する。すなわち、プロジェクタ装置2Aにおける制御部25にサーミスタ23dが検出した温度情報を取得させ、該温度情報を無線通信部26及び無線通信部9を介して取得する。
 続くステップS302で制御部6Aは、再設定温度条件を満たすプロジェクタ装置2Aがあるか否かを判定する。ここで、再設定温度条件は、本例では、取得した光学系温度が所定の閾値THt以上であることと定められている。
 再設定温度条件を満たすプロジェクタ装置2A(以下「該当プロジェクタ」と表記する)が無いと判定した場合、制御部6AはステップS301に戻る。
 一方、該当プロジェクタがあると判定した場合、制御部6AはステップS303のアラート処理として、調整パラメータの再探索を行う旨を表すアラート表示を各プロジェクタ装置2Aに実行させる。アラート表示としては、例えば調整パラメータの再探索を行うか否かを問うメッセージ情報と、「はい」「いいえ」の選択ボタンを表すアイコンとを含む画像情報を表示させる。
 キャリブレーション後には、各プロジェクタ装置2Aが本番の画像コンテンツを重畳投影中である場合があるため、上記のようなアラート処理を実行し、ユーザに再探索を実行すべきか否かを問うものとしている。なお、再探索を行うか否かをユーザ操作に基づき判定することは必須ではない。
 続くステップS304で制御部6Aは、所定操作の有無を判定する。具体的に本例では、所定時間以内に上記の「はい」を選択する操作が行われたか否かを判定する。
 所定操作が行われていない、つまり所定時間以内に「はい」を選択する操作が行われなかったか、「いいえ」を選択する操作が行われた場合、制御部6Aはこの図に示す一連の処理を終了する。すなわち、調整パラメータの再探索は実行されない。
 一方、所定操作が行われた場合、制御部6AはステップS305以降の処理を実行して、該当プロジェクタについての調整パラメータ再探索のための処理を実行する。
 先ず、制御部6AはステップS305で、設定条件識別子Mを「1」にセットし、ステップS306で該当プロジェクタに第M設定条件の候補パラメータを設定させる処理を実行する。このとき、該当プロジェクタ以外のプロジェクタ装置2Aについては、それまでの調整パラメータの設定状態を維持させる。
 そして、制御部6Aは、ステップS306の設定処理を実行したことに応じ、図8で説明したステップS110~S114の処理を実行する。これにより、該当プロジェクタに第M設定条件による候補パラメータが設定された状態でフォーカスボケを最小にするフィルタ係数w(各プロジェクタ装置2Aの代表点ごとのフィルタ係数w)が求められると共に(S110)、それらフィルタ係数wによるボケ補正処理が行われた場合の重畳投影画像についてフォーカスボケに係る評価が行われ(S111~S113)、画質条件を満たすか否かが判定される(S114)。
 ステップS114において、画質条件を満たさないと判定した場合、制御部6AはステップS115で設定条件識別子Mを1インクリメントした上で、ステップS306に戻る。これにより、該当プロジェクタに次の設定条件の候補パラメータを設定した場合について、フォーカスボケを最小にするフィルタ係数wが求められると共に、該フィルタ係数wによるボケ補正処理が行われた場合の重畳投影画像について画質条件を満たすか否かが判定される。
 一方、ステップS114において画質条件を満たすと判定した場合、制御部6AはステップS307に進み、第M設定条件の候補パラメータを該当プロジェクタの使用パラメータとして決定し、図18に示す一連の処理を終える。
 なお、この場合も、使用パラメータを決定する処理を行うことは必須ではない。
 プロジェクタ装置2Aの光学系23の温度(特に投影レンズの温度)が変化するとフォーカスのボケ特性にも変化が生じる。特に、投影レンズとしてガラス製レンズが用いられる場合には、ボケ特性の変化が比較的大きくなる。
 上記のような再探索を行うことで、温度変化に伴う画質劣化の防止を図ることができる。
 なお、上記では、該当プロジェクタについて、予め用意した全ての候補パラメータを評価対象とする例を挙げたが、一部の候補パラメータのみを評価対象とすることもできる。例えば、評価対象とする候補パラメータはユーザ操作により選択可能とすることもできる。或いは、設定中であった調整パラメータとの差が大きい(例えば差が閾値以上の)候補パラメータは評価対象から除外する、換言すれば、探索範囲を設定中の調整パラメータの近傍に限定する等も考えられる。
 また、上記では、温度が所定値以上のプロジェクタ装置2Aを再探索の対象とする例を挙げたが、全てのプロジェクタ装置2Aの合計温度に対する温度の割合が大きいプロジェクタ装置2Aを再探索の対象とすることもできる。
 或いは、温度が所定値以上であっても、重畳投影画像のフォーカスボケに係る評価が良好である場合には、再探索を行わないようにすることもできる。
 このように温度に基づく再探索の実行条件としては、上記で例示したものに限定されず多様に考えられる。
 また、再探索時においても、先のステップS104~S107と同様の処理により、候補パラメータを設定した状態での投影画像の投影範囲を評価し、投影範囲が所定の範囲条件を満たさない場合は、当該候補パラメータをフォーカスボケに係る評価の対象から除外することもできる。
<3.変形例>

 なお、本技術は上記で説明した具体例に限定されず、多様な変形例が考えられる。
 例えば、上記では、画像処理装置1(又は1A)が所定の導出式を用いた計算によってボケ補正のためのフィルタ係数wを取得する例を挙げたが、フィルタ係数wは、ボケ特性の組合わせごとに対応するフィルタ係数wが対応づけられたテーブル情報から取得することもできる。具体的には、各プロジェクタ装置2(又は2A)の画像エリアごとのボケ特性の組合わせとして、想定される組合わせごとに、対応するフィルタ係数wを格納したテーブル情報を画像処理装置1(1A)に記憶させておき、該テーブル情報と、撮像装置3の撮像画像に基づき計測した画像エリアごとのボケ特性とに基づき、フィルタ係数wを取得する構成である。
 この場合、係数取得部11は、テーブル情報におけるボケ特性の組合わせのうち、計測されたボケ特性の組合わせとマッチする組合わせを特定し、特定した組合わせによるフィルタ係数wを取得すればよい。
 また、上記では、ボケの逆関数により設計されるフィルタを用いたボケ補正処理として、[式5]のようにプロジェクタ装置2(2A)ごとのボケ特性がまとめて一式に組み込まれた導出式で求まったフィルタ係数wを用いた処理を行う例を挙げたが、先行例として説明した手法([式3][式4]参照)で求まったフィルタ係数wを用いてボケ補正処理を行うこともできる。
 或いは、ボケ補正処理としては、導出式から求まったフィルタ係数wを用いた処理に限定されず、例えば前述した特許文献1に開示されるフィードバック型の補正技術により求まったフィルタ係数を使用する等、他の手法による処理とすることもできる。
 また、上記では特に言及しなかったが、評価対象とする候補パラメータの順番を工夫することもできる。例えば、投影面に対する設置角度が大きい(パン又はチルト方向の回転角度が大きい)プロジェクタ装置2(2A)については、予め用意した候補パラメータのうち、値の大きいものから順に評価対象としていくことが考えられる。これにより、画質条件を満たす(フォーカスボケの度合いが所定の度合いを下回る)候補パラメータが発見されたことに応じて探索を終了する手法(ステップS114参照)が採用される場合に対応して、調整パラメータの探索に要する処理時間の短縮化及び処理負担の軽減を図ることができる。
 また、上記では、プロジェクタ装置2(2A)が有する空間光変調器23aが透過型の液晶パネルとされる例を挙げたが、空間光変調器23aとしては、反射型液晶パネルやDMD(Digital Micromirror Device)等を用いることもでき、透過型液晶パネルに限定されるものではない。
 また、第一、第二実施形態では、実施形態としての画像処理装置(1又は1A)がプロジェクタ装置2と別体に設けられた例を示したが、画像処理装置は何れかのプロジェクタ装置2と一体に構成することもできる。
<4.実施形態のまとめ>

 以上説明してきたように実施形態の画像処理装置(同1又は1A)は、画像投影装置(プロジェクタ装置2又は2A)の光学的な調整値(調整パラメータ)として所定の候補値(候補パラメータ)が設定された状態で計測された画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正部(同7)と、ボケ補正処理が施された画像を画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき候補値の使用可否に係る判定を行う使用判定部(同12又は12A)と、を備えるものである。
 これにより、画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値を探索可能とされる。
 従って、投影画像に生じるフォーカスボケの補正を信号処理により行う場合におけるボケ補正性能の向上を図ることができる。
 また、実施形態としての画像処理装置においては、ボケ補正部は、複数の画像投影装置がそれぞれ対応する候補値が設定された状態で個別に画像投影を行った際に計測された画像投影装置ごとのボケ特性に基づき、入力画像に対し画像投影装置ごとのボケ補正処理を施して画像投影装置ごとにボケ補正画像を得、使用判定部は、ボケ補正画像を複数の画像投影装置により重畳投影させて得られる重畳投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき判定を行っている。
 これにより、重畳投影を行う各画像投影装置の光学的な調整値として、ボケ補正処理により良好なボケ補正効果が得られる調整値を探索可能とされる。
 従って、重畳投影画像に生じるフォーカスボケについてのボケ補正性能の向上を図ることができる。
 さらに、実施形態としての画像処理装置においては、ボケ補正部は、画像投影装置の個々に対応したボケ補正のためのフィルタ係数が導出される導出式であって、画像投影装置ごとのボケ特性が一式にまとめて組み込まれた導出式によって求まる画像投影装置ごとのフィルタ係数に基づき、画像投影装置ごとのボケ補正処理を行っている。
 上記のように画像投影装置ごとのボケ特性をまとめて組み込んだ導出式を解くようにすれば、画像投影装置ごとの補正フィルタ係数は、そのボケ単体を打ち消す傾向(つまりボケが大きい方向のエンハンスを大とする傾向)に収束することに限らず、ボケが大きい方向のエンハンスを小、ボケが小さい方向のエンハンスを大とする傾向に収束可能となる。
 従って、重畳投影画像に生じるフォーカスボケについてのボケ補正性能のさらなる向上を図ることができる。
 さらにまた、実施形態としての画像処理装置においては、使用判定部は、候補値が設定された状態の画像投影装置により所定画像を投影させて所定画像の投影範囲を評価し、投影範囲が所定の範囲条件を満たさない場合は当該候補値と画像投影装置との組合わせをフォーカスボケに係る評価の対象から除外している。
 例えば、調整値の最適点を求めるための探索範囲を広げるべく、候補値の振り幅を大きくした場合には、或る候補値と画像投影装置との組合わせにおいて、画像の投影範囲が規定の投影範囲から大きく逸脱する等、画像投影範囲が所定の範囲条件を満たさなくなることがあり得る。画像投影範囲が所定の範囲条件を満たさないことは、画質改善以前の問題となることから、これら候補値と画像投影装置との組合わせについては、調整値探索にあたってのフォーカスボケの評価対象から除外する。
 これにより、不要と考えられる候補値と画像投影装置との組合わせについては、ボケ計測部によるボケ特性の計測、ボケ補正部によるボケ補正処理、及び調整値決定部によるフォーカスボケに係る評価を行わないようにすることが可能とされ、調整値の最適化に要する処理負担の軽減、及び処理時間の短縮化を図ることができる。
 また、実施形態としての画像処理装置においては、使用判定部は、フォーカスボケに係る評価の対象とした画像投影装置に対して隣接配置された画像投影装置については、フォーカスボケに係る評価の対象から除外している。
 配置位置が近接している画像投影装置同士は、例えばパン又はチルトの角度やレンズシフト量といった調整値として近い値が設定される傾向となる。そこで、調整値決定のためのフォーカスボケに係る評価の対象とした画像投影装置に隣接配置される画像投影装置については、該評価の対象から間引くことで、調整値探索のための処理数削減を図る。
 従って、調整値の最適化のための処理負担の軽減、及び処理時間の短縮化を図ることができる。
 さらに、実施形態としての画像処理装置においては、使用判定部は、評価の対象から除外した画像投影装置である対象外装置についての調整値を、評価の対象とした画像投影装置のうち対象外装置の最寄りに位置する画像投影装置に使用する調整値に基づいて取得している。
 これにより、調整値探索のための評価対象から除外された画像投影装置の調整値を、配置位置の近似性に応じた調整値の近似性を利用して適切に取得可能とされる。
 従って、ボケ補正性能の向上と、そのための処理負担の軽減及び処理時間の短縮化との両立を図ることができる。
 さらにまた、実施形態としての画像処理装置においては、調整値は、画像投影装置のパン又はチルト方向の回転角度に係る調整値を含んでいる。
 画像投影装置のパン又はチルト方向の回転角度は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 従って、当該パン又はチルト方向の回転角度に係る調整値の最適化を図ることで、ボケ補正性能の向上が図られる。
 また、実施形態としての画像処理装置においては、調整値は、画像投影装置のレンズシフト量に係る調整値を含んでいる。
 画像投影装置のレンズシフト量は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 従って、当該レンズシフト量に係る調整値の最適化を図ることで、ボケ補正性能の向上が図られる。
 さらに、実施形態としての画像処理装置においては、調整値は、画像投影装置のフォーカス位置に係る調整値を含んでいる。
 画像投影装置のフォーカス位置は、投影画像に生じるフォーカスボケの特性変化要因の一つである。
 従って、当該フォーカス位置に係る調整値の最適化を図ることで、ボケ補正性能の向上が図られる。
 さらにまた、実施形態としての画像処理装置においては、使用判定部は、フォーカスボケに係る評価の結果に基づき、当該フォーカスボケの度合いが所定の度合いを下回るか否かを判定することで、候補値の使用可否を判定している。
 これにより、複数の候補値のうち評価結果が最良となる候補値を使用調整値として探索することが可能とされる。
 従って、ボケ補正性能を最大限に高めることができる。
 また、実施形態としての画像処理装置においては、使用判定部は、複数の候補値についてのフォーカスボケを相対評価した結果に基づき、使用する候補値の判定を行っている。
 これにより、複数の候補値のうち評価結果が最良となる候補値を使用調整値として探索することが可能とされる。
 従って、ボケ補正性能を最大限に高めることができる。
 さらに、実施形態としての画像処理装置においては、使用判定部(同12A)は、画像投影装置の温度を検出する温度検出部(サーミスタ23d)による温度検出結果に基づき、画像投影装置を対象としたフォーカスボケに係る評価を再実行し、再実行した評価の結果に基づき判定を再実行している。
 これにより、温度に依存して最適な調整値が変化する場合に対応して、調整値を再探索することが可能とされる。
 従って、温度変化に伴う画質劣化の防止を図ることができる。
 また、実施形態としての画像処理方法は、画像投影装置(プロジェクタ装置2又は2A)の光学的な調整値(調整パラメータ)として所定の候補値(候補パラメータ)が設定された状態で計測された画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正手順と、ボケ補正処理が施された画像を画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき候補値の使用可否に係る判定を行う使用判定手順と、を有するものである。
 このような実施形態としての画像処理方法によっても、上記した実施形態としての画像処理装置と同様の作用及び効果を得ることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<5.本技術>

 なお本技術は以下のような構成も採ることができる。
(1)
 画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された前記画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正部と、
 前記ボケ補正処理が施された画像を前記画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記候補値の使用可否に係る判定を行う使用判定部と、を備える
 画像処理装置。
(2)
 前記ボケ補正部は、
 複数の前記画像投影装置がそれぞれ対応する前記候補値が設定された状態で個別に画像投影を行った際に計測された前記画像投影装置ごとのボケ特性に基づき、入力画像に対し前記画像投影装置ごとの前記ボケ補正処理を施して前記画像投影装置ごとにボケ補正画像を得、
 前記使用判定部は、
 前記ボケ補正画像を複数の前記画像投影装置により重畳投影させて得られる重畳投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記判定を行う
 前記(1)に記載の画像処理装置。
(3)
 前記ボケ補正部は、
 前記画像投影装置の個々に対応したボケ補正のためのフィルタ係数が導出される導出式であって、前記画像投影装置ごとの前記ボケ特性が一式にまとめて組み込まれた導出式によって求まる前記画像投影装置ごとの前記フィルタ係数に基づき、前記画像投影装置ごとの前記ボケ補正処理を行う
 前記(2)に記載の画像処理装置。
(4)
 前記使用判定部は、
 前記候補値が設定された状態の前記画像投影装置により所定画像を投影させて前記所定画像の投影範囲を評価し、前記投影範囲が所定の範囲条件を満たさない場合は当該候補値と前記画像投影装置との組合わせを前記フォーカスボケに係る評価の対象から除外する
 前記(1)乃至(3)の何れかに記載の画像処理装置。
(5)
 前記使用判定部は、
 前記フォーカスボケに係る評価の対象とした前記画像投影装置に対して隣接配置された前記画像投影装置については、前記フォーカスボケに係る評価の対象から除外する
 前記(2)又は(3)に記載の画像処理装置。
(6)
 前記使用判定部は、
 前記評価の対象から除外した前記画像投影装置である対象外装置についての前記調整値を、前記評価の対象とした前記画像投影装置のうち前記対象外装置の最寄りに位置する前記画像投影装置に使用する前記調整値に基づいて取得する
 前記(5)に記載の画像処理装置。
(7)
 前記調整値は、前記画像投影装置のパン又はチルト方向の回転角度に係る調整値を含む
 前記(1)乃至(6)の何れかに記載の画像処理装置。
(8)
 前記調整値は、前記画像投影装置のレンズシフト量に係る調整値を含む
 前記(1)乃至(7)の何れかに記載の画像処理装置。
(9)
 前記調整値は、前記画像投影装置のフォーカス位置に係る調整値を含む
 前記(1)乃至(8)の何れかに記載の画像処理装置。
(10)
 前記使用判定部は、
 前記フォーカスボケに係る評価の結果に基づき、当該フォーカスボケの度合いが所定の度合いを下回るか否かを判定することで、前記候補値の使用可否を判定する
 前記(1)乃至(9)の何れかに記載の画像処理装置。
(11)
 前記使用判定部は、
 複数の前記候補値についての前記フォーカスボケを相対評価した結果に基づき、使用する前記候補値の判定を行う
 前記(1)乃至(9)の何れかに記載の画像処理装置。
(12)
 前記使用判定部は、
 前記画像投影装置の温度を検出する温度検出部による温度検出結果に基づき、前記画像投影装置を対象とした前記フォーカスボケに係る評価を再実行し、再実行した評価の結果に基づき前記判定を再実行する
 前記(1)乃至(11)の何れかに記載の画像処理装置。
 1、1A 画像処理装置、2、2A プロジェクタ装置、3 撮像装置、5 画像入力部、6、6A 制御部、7 ボケ補正部、7a ボケ補正フィルタ、8 画像出力部、9 無線通信部、10 ボケ計測部、11 係数取得部、12、12A 使用判定部、21 画像処理部、22 変調器駆動部、23 光学系、23a 空間光変調器、23b 光学調整機構、23c アクチュエータ、23d サーミスタ、24 設置角度調整部、25 制御部、26 無線通信部、30 操作部、S スクリーン、Pp 重畳投影画像

Claims (13)

  1.  画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された前記画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正部と、
     前記ボケ補正処理が施された画像を前記画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記候補値の使用可否に係る判定を行う使用判定部と、を備える
     画像処理装置。
  2.  前記ボケ補正部は、
     複数の前記画像投影装置がそれぞれ対応する前記候補値が設定された状態で個別に画像投影を行った際に計測された前記画像投影装置ごとのボケ特性に基づき、入力画像に対し前記画像投影装置ごとの前記ボケ補正処理を施して前記画像投影装置ごとにボケ補正画像を得、
     前記使用判定部は、
     前記ボケ補正画像を複数の前記画像投影装置により重畳投影させて得られる重畳投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記判定を行う
     請求項1に記載の画像処理装置。
  3.  前記ボケ補正部は、
     前記画像投影装置の個々に対応したボケ補正のためのフィルタ係数が導出される導出式であって、前記画像投影装置ごとの前記ボケ特性が一式にまとめて組み込まれた導出式によって求まる前記画像投影装置ごとの前記フィルタ係数に基づき、前記画像投影装置ごとの前記ボケ補正処理を行う
     請求項2に記載の画像処理装置。
  4.  前記使用判定部は、
     前記候補値が設定された状態の前記画像投影装置により所定画像を投影させて前記所定画像の投影範囲を評価し、前記投影範囲が所定の範囲条件を満たさない場合は当該候補値と前記画像投影装置との組合わせを前記フォーカスボケに係る評価の対象から除外する
     請求項1に記載の画像処理装置。
  5.  前記使用判定部は、
     前記フォーカスボケに係る評価の対象とした前記画像投影装置に対して隣接配置された前記画像投影装置については、前記フォーカスボケに係る評価の対象から除外する
     請求項2に記載の画像処理装置。
  6.  前記使用判定部は、
     前記評価の対象から除外した前記画像投影装置である対象外装置についての前記調整値を、前記評価の対象とした前記画像投影装置のうち前記対象外装置の最寄りに位置する前記画像投影装置に使用する前記調整値に基づいて取得する
     請求項5に記載の画像処理装置。
  7.  前記調整値は、前記画像投影装置のパン又はチルト方向の回転角度に係る調整値を含む
     請求項1に記載の画像処理装置。
  8.  前記調整値は、前記画像投影装置のレンズシフト量に係る調整値を含む
     請求項1に記載の画像処理装置。
  9.  前記調整値は、前記画像投影装置のフォーカス位置に係る調整値を含む
     請求項1に記載の画像処理装置。
  10.  前記使用判定部は、
     前記フォーカスボケに係る評価の結果に基づき、当該フォーカスボケの度合いが所定の度合いを下回るか否かを判定することで、前記候補値の使用可否を判定する
     請求項1に記載の画像処理装置。
  11.  前記使用判定部は、
     複数の前記候補値についての前記フォーカスボケを相対評価した結果に基づき、使用する前記候補値の判定を行う
     請求項1に記載の画像処理装置。
  12.  前記使用判定部は、
     前記画像投影装置の温度を検出する温度検出部による温度検出結果に基づき、前記画像投影装置を対象とした前記フォーカスボケに係る評価を再実行し、再実行した評価の結果に基づき前記判定を再実行する
     請求項1に記載の画像処理装置。
  13.  画像投影装置の光学的な調整値として所定の候補値が設定された状態で計測された前記画像投影装置の投影画像に生じるフォーカスボケの特性であるボケ特性に基づき、入力画像に対しフォーカスボケ補正のためのボケ補正処理を施すボケ補正手順と、
     前記ボケ補正処理が施された画像を前記画像投影装置により投影させて得られる投影画像についてフォーカスボケに係る評価を行い、該評価の結果に基づき前記候補値の使用可否に係る判定を行う使用判定手順と、を有する
     画像処理方法。
PCT/JP2019/009424 2018-05-28 2019-03-08 画像処理装置、画像処理方法 WO2019230109A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19812087.5A EP3780587A4 (en) 2018-05-28 2019-03-08 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US17/049,420 US11394941B2 (en) 2018-05-28 2019-03-08 Image processing device and image processing method
CN201980034077.1A CN112189337B (zh) 2018-05-28 2019-03-08 图像处理装置和图像处理方法
JP2020521720A JP7287390B2 (ja) 2018-05-28 2019-03-08 画像処理装置、画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-101546 2018-05-28
JP2018101546 2018-05-28

Publications (1)

Publication Number Publication Date
WO2019230109A1 true WO2019230109A1 (ja) 2019-12-05

Family

ID=68698734

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009424 WO2019230109A1 (ja) 2018-05-28 2019-03-08 画像処理装置、画像処理方法

Country Status (5)

Country Link
US (1) US11394941B2 (ja)
EP (1) EP3780587A4 (ja)
JP (1) JP7287390B2 (ja)
CN (1) CN112189337B (ja)
WO (1) WO2019230109A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117319618A (zh) * 2023-11-28 2023-12-29 维亮(深圳)科技有限公司 一种用于清晰度评价的投影仪热跑焦判断方法及***

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110383828B (zh) * 2017-03-09 2022-02-08 索尼公司 图像处理设备和方法
WO2019230108A1 (ja) * 2018-05-28 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077956A (ja) * 2000-08-30 2002-03-15 Hitachi Ltd 液晶プロジェクタ並びに液晶プロジェクタのフォーカス計測方法及びその装置
JP2006174184A (ja) * 2004-12-16 2006-06-29 Olympus Corp プロジェクタ
JP2009008974A (ja) 2007-06-29 2009-01-15 Sony Corp 画像生成装置及び方法、プログラム、並びに記録媒体
JP2009524849A (ja) * 2006-01-24 2009-07-02 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体
JP2011237482A (ja) * 2010-05-06 2011-11-24 Canon Inc 画像投射装置
WO2016157671A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び画像表示装置
JP2017032891A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 投影装置、フォーカス補正方法、およびプログラム
WO2017085802A1 (ja) * 2015-11-18 2017-05-26 日立マクセル株式会社 画像投射装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3735158B2 (ja) * 1996-06-06 2006-01-18 オリンパス株式会社 画像投影システム、画像処理装置
JPWO2004034326A1 (ja) * 2002-10-08 2006-02-09 ソニー株式会社 画像変換装置、画像変換方法、および、画像投射装置
EP1821183A4 (en) * 2004-10-05 2011-01-26 Nikon Corp ELECTRONIC EQUIPMENT
RU2322771C2 (ru) * 2005-04-25 2008-04-20 Святослав Иванович АРСЕНИЧ Стереопроекционная система
US7546026B2 (en) * 2005-10-25 2009-06-09 Zoran Corporation Camera exposure optimization techniques that take camera and scene motion into account
US20070286514A1 (en) * 2006-06-08 2007-12-13 Michael Scott Brown Minimizing image blur in an image projected onto a display surface by a projector
JP2008109545A (ja) * 2006-10-27 2008-05-08 Sharp Corp 画像ブレ検出装置並びにこれを備えた画像ブレ補正装置、固体撮像装置、及び電子機器
US7742011B2 (en) * 2006-10-31 2010-06-22 Hewlett-Packard Development Company, L.P. Image display system
JP5300133B2 (ja) * 2008-12-18 2013-09-25 株式会社ザクティ 画像表示装置及び撮像装置
JP5725724B2 (ja) 2010-04-01 2015-05-27 キヤノン株式会社 投影装置
US8885941B2 (en) * 2011-09-16 2014-11-11 Adobe Systems Incorporated System and method for estimating spatially varying defocus blur in a digital image
CN107079127B (zh) * 2014-11-10 2019-11-29 麦克赛尔株式会社 投影仪以及影像显示方法
JP6569742B2 (ja) * 2016-01-13 2019-09-04 株式会社リコー 投影システム、画像処理装置、投影方法およびプログラム
WO2019230108A1 (ja) * 2018-05-28 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法
WO2020046716A1 (en) * 2018-08-29 2020-03-05 Pcms Holdings, Inc. Optical method and system for light field displays based on mosaic periodic layer

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077956A (ja) * 2000-08-30 2002-03-15 Hitachi Ltd 液晶プロジェクタ並びに液晶プロジェクタのフォーカス計測方法及びその装置
JP2006174184A (ja) * 2004-12-16 2006-06-29 Olympus Corp プロジェクタ
JP2009524849A (ja) * 2006-01-24 2009-07-02 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体
JP2009008974A (ja) 2007-06-29 2009-01-15 Sony Corp 画像生成装置及び方法、プログラム、並びに記録媒体
JP2011237482A (ja) * 2010-05-06 2011-11-24 Canon Inc 画像投射装置
WO2016157671A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び画像表示装置
JP2017032891A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 投影装置、フォーカス補正方法、およびプログラム
WO2017085802A1 (ja) * 2015-11-18 2017-05-26 日立マクセル株式会社 画像投射装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3780587A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117319618A (zh) * 2023-11-28 2023-12-29 维亮(深圳)科技有限公司 一种用于清晰度评价的投影仪热跑焦判断方法及***
CN117319618B (zh) * 2023-11-28 2024-03-19 维亮(深圳)科技有限公司 一种用于清晰度评价的投影仪热跑焦判断方法及***

Also Published As

Publication number Publication date
US20210368149A1 (en) 2021-11-25
CN112189337A (zh) 2021-01-05
EP3780587A4 (en) 2021-06-02
JPWO2019230109A1 (ja) 2021-07-08
CN112189337B (zh) 2024-05-14
EP3780587A1 (en) 2021-02-17
US11394941B2 (en) 2022-07-19
JP7287390B2 (ja) 2023-06-06

Similar Documents

Publication Publication Date Title
JP6701669B2 (ja) 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
WO2019230109A1 (ja) 画像処理装置、画像処理方法
JP5736535B2 (ja) 投写型映像表示装置及び画像調整方法
US20100157127A1 (en) Image Display Apparatus and Image Sensing Apparatus
US10638103B2 (en) Image projection apparatus, control method of the image projection apparatus, and storage medium
JP3852456B2 (ja) プロジェクタ及びパターン画像表示方法
JP6056290B2 (ja) 画像処理装置、プロジェクター、及び画像処理方法
JP5372857B2 (ja) 投写型映像表示装置
JP2017208677A (ja) プロジェクター
JP2010039160A (ja) 画像処理装置、画像表示装置、画像処理方法、画像表示方法及びプログラム
WO2012046575A1 (ja) 投写型映像表示装置
US20120140189A1 (en) Projection Display Apparatus
JP2012222669A (ja) 画像処理装置およびその方法
US10455204B2 (en) Display system and information processing method
US20210195153A1 (en) Image processing device and image processing method
JP2020154283A (ja) 撮像装置、コンピュータプログラム、記憶媒体および撮像制御方法
WO2016197802A1 (zh) 一种投影修正的方法及***和终端
JP2012078490A (ja) 投写型映像表示装置及び画像調整方法
US20190096298A1 (en) Display apparatus and control method therefor
JP2015115788A (ja) 投射型表示装置および画像処理方法
JP7179648B2 (ja) 投射制御装置、画像投射装置および投射制御方法
JP2010039184A (ja) 画像表示装置
JP5605473B2 (ja) 投写型映像表示装置
JP2006140556A (ja) プロジェクタ
JP2015115801A (ja) 画像投射装置および画像投射方法並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19812087

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020521720

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2019812087

Country of ref document: EP

Effective date: 20201104

NENP Non-entry into the national phase

Ref country code: DE