WO2022102514A1 - 信号処理装置、信号処理方法 - Google Patents

信号処理装置、信号処理方法 Download PDF

Info

Publication number
WO2022102514A1
WO2022102514A1 PCT/JP2021/040638 JP2021040638W WO2022102514A1 WO 2022102514 A1 WO2022102514 A1 WO 2022102514A1 JP 2021040638 W JP2021040638 W JP 2021040638W WO 2022102514 A1 WO2022102514 A1 WO 2022102514A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
correction
function
images
deterioration
Prior art date
Application number
PCT/JP2021/040638
Other languages
English (en)
French (fr)
Inventor
孝明 鈴木
紀晃 高橋
優斗 小林
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022102514A1 publication Critical patent/WO2022102514A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Definitions

  • This technique relates to a signal processing device and its method, and more particularly to a technique for correcting a decrease in resolution in the time direction that occurs in a presented image.
  • a projector device such as a liquid crystal projector device that projects and displays an image on a projection object such as a screen is widely known.
  • a method of image projection using a projector device for example, as disclosed in Patent Document 1 below, a high-resolution (for example, 8k) input image (original image) is converted into two or more low-resolution (for example, 4k) images.
  • a high-resolution (for example, 8k) input image original image
  • low-resolution for example, 4k
  • By performing such shift presentation it is possible to improve the resolution (resolution) of the projected image beyond the resolution of the projector device (liquid crystal panel).
  • Patent Document 2 is also mentioned as a related conventional technique.
  • Patent Document 2 when the same input image is superimposed and projected by a plurality of projector devices, the superimposed projection image is corrected by using a feedback loop so that the difference between the superimposed projection image and the input image is minimized.
  • a technique for suppressing blurring (degradation of image quality) that occurs in the image is disclosed.
  • the technique for improving the spatial resolution by presenting a shift as disclosed in Patent Document 1 is a technique for reproducing one original image by presenting a plurality of downsampled images, and therefore the frame rate.
  • the frame rate causes a decline in. That is, it causes a decrease in resolution in the time direction.
  • the frame rate is halved.
  • This technique was made in view of the above circumstances, and when a plurality of images generated based on the original image are visually mixed and presented in the time direction, the reduction in resolution in the time direction that occurs in the presented image is suppressed.
  • the purpose is to plan.
  • the signal processing apparatus performs the correction processing of the resolution deterioration in the time direction that occurs in the presented image when a plurality of images generated based on the original image are visually mixed and presented in the time direction. It is equipped with a correction processing unit applied to an image. "Visually mixed in the time direction" means that it is visually recognized as being simultaneously presented by the integral effect of the human eye. According to the above configuration, it is possible to correct the resolution decrease in the time direction that occurs in the presented image when a plurality of images generated based on the original image are visually mixed and presented in the time direction. To.
  • the correction processing unit is configured to perform the correction processing so that the result of visually mixing the plurality of images in the time direction approaches the original image. Is possible. This makes it possible to perform correction processing so as to cancel the deterioration of image quality due to an optical factor or the like that occurs in the presented image.
  • a deterioration function acquisition unit that acquires a deterioration function indicating the deterioration characteristics of the presented image with respect to the original image, and a correction according to the deterioration function acquired by the deterioration function acquisition unit. It is possible to include a correction function acquisition unit for acquiring a function, and the correction processing unit may be configured to perform the correction processing based on the correction function acquired by the correction function acquisition unit. This makes it possible to perform correction processing according to the characteristics of deterioration that occur in the actual image presentation environment.
  • the correction function acquisition unit is the deterioration function acquired by the deterioration function acquisition unit from among the plurality of correction functions stored for each type of the deterioration function. It is possible to select and acquire the correction function according to the type.
  • the type of deterioration function means a type related to the characteristics of the deterioration function, and the deterioration functions having similar degrees of deterioration are classified into the same type, or deterioration among a plurality of deterioration items. It is conceivable to classify deterioration functions having a predetermined number or more of items with a large degree of matching into similar types.
  • the correction function corresponding to the type of the deterioration function acquired by the deterioration function acquisition unit may be acquired from a plurality of correction functions prepared in advance and used for the correction processing, and the correction function can be used as the deterioration function. There is no need to calculate and obtain based on it.
  • the correction processing unit presents the plurality of images sampled with a phase shift in the spatial direction visually mixed in the time direction as the correction processing. It is possible to configure the process to correct the decrease in resolution in each of the spatial direction and the temporal direction that occurs in the presented image.
  • the resolutions of the presented image in the spatial direction and the time direction are respectively. There is a drop. Therefore, a process for correcting the resolution deterioration in each of the spatial direction and the temporal direction is performed.
  • the correction processing unit can be configured to perform the correction processing on the plurality of images whose presentation position is shifted in units of less than a pixel.
  • the presentation image is blurred (pixels) due to the superposition of different images. Blurring due to the opening) occurs, which causes a decrease in spatial resolution due to the blurring. Therefore, for a plurality of images whose presentation positions are shifted in units of less than pixels, processing is performed to correct the resolution deterioration in each of the spatial direction and the temporal direction.
  • the original image is an image for the left eye and an image for the right eye used for presenting a stereoscopic image by a parallax barrier method
  • the correction processing unit uses the image for the left eye as described above. It is possible to configure the plurality of images generated as the original image and the image for the right eye to perform the correction processing on each of the plurality of images generated as the original image.
  • a plurality of images sampled with a phase shift in the spatial direction are visually mixed and presented in the time direction. Therefore, in the case of suppressing the decrease in spatial resolution of each of the left-eye image and the right-eye image, it is possible to suppress the decrease in resolution in the time direction due to the mixed presentation of a plurality of images in the time direction.
  • the correction processing unit is configured to perform the correction processing on the plurality of images by using different correction functions for the animal body region and the animal body background region. Is possible.
  • the animal body region can be corrected by the correction function suitable for the animal body region
  • the background region can be corrected by the correction function suitable for the background region.
  • the correction processing unit is a calculation method in which the correction processing for the animal body region gives priority to the correction of the resolution reduction in the time direction rather than the correction of the resolution reduction in the spatial direction.
  • the correction function for the background area is performed by using the correction function calculated by a calculation method that prioritizes the correction of the resolution reduction in the spatial direction over the correction of the resolution reduction in the time direction. It is possible to make the configuration to be performed. As a result, it is possible to improve the dynamic resolution (moving image resolution) in the animal body region and improve the spatial resolution in the background region.
  • the plurality of images are images generated by color-separating the original image as a color image into images of a plurality of colors
  • the correction processing unit is the plurality of images. It is possible to configure the configuration to perform correction processing for the resolution decrease in the time direction that occurs in the presented image when the color images are visually mixed and presented in the time direction.
  • the resolution of the presented image is reduced in the time direction. Therefore, the plurality of images are subjected to a correction process for reducing the resolution in the time direction.
  • the signal processing method according to the present technology performs the correction processing of the resolution decrease in the time direction that occurs in the presented image when a plurality of images generated based on the original image are visually mixed and presented in the time direction. This is a signal processing method applied to a plurality of images. Even with such a signal processing method, the same operation as that of the signal processing apparatus according to the present technique described above can be obtained.
  • First Embodiment> (1-1. Configuration example of signal processing device) (1-2. Conventional shift presentation) (1-3. Shift presentation method as the first embodiment) (1-4. Processing procedure) ⁇ 2.
  • Second embodiment> ⁇ 3.
  • Third Embodiment> ⁇ 4.
  • Fourth Embodiment> ⁇ 5.
  • Fifth Embodiment> ⁇ 6.
  • Modification example> ⁇ 7. Summary of embodiments> ⁇ 8. This technology>
  • FIG. 1 is a block diagram for explaining a configuration example of a projector device 1 as a first embodiment of a signal processing device according to the present technology.
  • the projector device 1 is configured as, for example, a transmissive liquid crystal projector device.
  • the projector device 1 projects an image on a projection object 100 such as a screen.
  • the projection object 100 the surface on which the image is projected is referred to as a projection surface 100a as shown in the figure.
  • the projector device 1 includes a signal processing unit 2 and a control unit 3, and also has a light source unit 4, a collimation lens 5, a spatial light modulator 6, a shift unit 8, and projection optics as an optical system for image projection. It has a system 7. Further, the projector device 1 of this example includes a camera 9.
  • the signal processing unit 2 is configured to include a computer device such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), and performs various signal processing (image processing) on an input image of digital data for projection. Generate an image.
  • the input image is, for example, a moving image having a resolution of 8k (4k8k) and a frame rate of 120Hz.
  • the signal processing unit 2 has functions as a phase image generation unit 21 and a correction processing unit 22.
  • the phase image generation unit 21 generates a plurality of phase images for shift presentation by downsampling the 8k original image as an input image with the phase shifted in the spatial direction.
  • the expression "phase” is used because the shift amount is in units of less than a pixel. The processing as an embodiment performed by the phase image generation unit 21 will be described later.
  • the correction processing unit 22 performs correction processing based on the inverse function H (correction function) described later on the phase image generated by the phase image generation unit 21. The specific processing of the correction processing unit 22 will be described in detail later.
  • the light source unit 4 is configured to have one or a plurality of light emitting elements such as an LED (Light Emitting Diode) and a laser, and emits light for image projection.
  • the light emitted by the light source unit 4 is converted into parallel light by the collimated lens 5 and incident on the spatial light modulator 6.
  • the spatial light modulator 6 applies spatial light intensity modulation (hereinafter abbreviated as "intensity modulation") to the incident light to give an intensity distribution, thereby producing an image (reproduced image) to be projected on the projection surface 100a.
  • intensity modulation spatial light intensity modulation
  • a transmissive liquid crystal panel is used.
  • the spatial light modulator 6 performs intensity modulation on the incident light based on the phase image output by the signal processing unit 2.
  • the number of effective pixels of the liquid crystal panel as the spatial light modulator 6 is 4k (2k4k), and the display frame rate (maximum frame rate) is 120 Hz.
  • a transmissive liquid crystal panel is mentioned as an example of the spatial light modulator 6 for generating an image to be projected, but the spatial light modulator 6 is, for example, a reflective liquid crystal panel or a DMD (Digital Micromirror Device). ) Etc. can also be used.
  • DMD Digital Micromirror Device
  • the shift unit 8 is an optical component for shifting (translating) the position of the projected image.
  • DMD is used for the shift unit 8.
  • light intensity-modulated by the spatial light modulator 6 is incident on the shift portion 8 as the DMD.
  • By slightly changing the angle of the micromirror in the DMD it is possible to shift the projection position (presentation position) of the phase image in units of less than a pixel.
  • a configuration for shifting the projection position of the phase image in units of less than a pixel for example, a configuration using a vibration device for vibrating the optical axis can be adopted.
  • the projection optical system 7 has a projection lens and projects an image generated by intensity modulation of the spatial light modulator 6 on the projection surface 100a.
  • the light intensity-modulated by the spatial light modulator 6 is reflected by the shift unit 8 and incident on the projection optical system, whereby the projection optical system 7 is intensity-modulated by the spatial light modulator 6.
  • the image generated by is projected onto the projection surface 100a.
  • the camera 9 is configured as a digital camera device having an image pickup element such as a CCD (Charged-coupled devices) sensor or a CMOS (Complementary metal-oxide-semiconductor) sensor.
  • the camera 9 is used to obtain an observed image of the projected image by the projector device 1, and is arranged so that the entire projection range of the image on the projection surface 100a fits in the angle of view.
  • the control unit 3 includes, for example, a microcomputer equipped with a CPU, a ROM (ReadOnlyMemory), a RAM (RandomAccessMemory), etc., and executes processing according to a program stored in the ROM, for example. Then, various operation controls of the projector device 1 are performed. Specifically, the control unit 3 controls the operation of the signal processing unit 2, the shift unit 8, and the camera 9.
  • control unit 3 has a function as a deterioration function calculation unit 31 and an inverse function calculation unit 32.
  • the deterioration function calculation unit 31 calculates the deterioration function W indicating the deterioration characteristics of the projected image (presented image) with respect to the original image based on the image captured by the camera 9. The calculation process of the deterioration function W and the deterioration function W performed by the deterioration function calculation unit 31 will be described later.
  • the inverse function calculation unit 32 calculates the inverse function H, which is the inverse function of the deterioration function W obtained by the deterioration function calculation unit 31.
  • the calculation method of the inverse function H will be described later.
  • the conventional shift presentation will be described with reference to FIGS. 2 and 3.
  • the shift presentation as shown in FIG. 2, the presentation in which the phase image is shifted obliquely by half a pixel is repeatedly performed. Specifically, the presentation position of the phase image is alternately shifted between the position shown by the solid line and the position shown by the dotted line in the figure for each frame period.
  • the frame rate of the phase image is 120 Hz. That is, the period of the image shift is 120 Hz, which is the same as the frame rate.
  • FIG. 3 is a diagram showing the relationship between the input image (original image) and the phase image in the conventional shift presentation.
  • the conventional shift presentation two phase images generated from one frame image in the input image (8k, 120Hz in this example) are shifted and presented so as to be visually mixed in the time direction.
  • This is a method for reproducing the spatial resolution of the one frame image.
  • “visually mixed in the time direction” means that they are visually recognized as being simultaneously presented by the integral effect of the human eye.
  • a frame image every other frame is used for the input image.
  • two phase images are generated for each.
  • the two phase images are generated by downsampling the original images with their phases shifted in the spatial direction, as described above.
  • downsampling is performed by shifting the sampling position diagonally by one pixel with respect to the original image (8k) in response to the diagonal shift as illustrated in FIG.
  • two phase images are generated. In this way, the phase images generated from the input frame images every other frame are alternately shifted and presented at a cycle of 120 Hz as shown in FIG.
  • the spatial resolution of the presented image can be improved more than the spatial resolution of the spatial light modulator 6, and when the spatial resolution of the phase image is 4k as in the above example, In theory, it is possible to achieve a spatial resolution of 8k.
  • the phase image is generated based on only one input frame image while the frame rate of the phase image is the same as the frame rate of the input image. , It is designed to be performed every other frame of the input image. For this reason, in the conventional shift presentation, the frame rate of the presented image is halved with respect to the input image, in other words, the resolution in the time direction is halved.
  • FIG. 4 is a diagram for explaining blurring due to a pixel opening.
  • each square shown by a solid line schematically represents a pixel opening (area for one pixel) of each pixel of one phase image
  • each square shown by a dotted line represents a pixel opening of each pixel of the other phase image. It is represented schematically.
  • the circles schematically represent the center of gravity of each pixel. It should be noted that the shift presentation has the effect of increasing the center of gravity of the pixels visually (that is, by the integral effect of the eyes). From this point, the spatial resolution can be improved.
  • the phase images are superimposed on each other, so that the presentation image is blurred due to the pixel opening.
  • the blur caused by the pixel aperture generated in each pixel is considered by taking the pixel located at the upper left as an example.
  • the pixels of the phase image shown by the dotted line can be divided into four regions in which the superimposed pixels of the pixels in the phase image shown by the solid line are different. The ratios of these four regions are set to ⁇ 0 , ⁇ 1 , ⁇ 2 , and ⁇ 3 , respectively.
  • the pixel value of the pixel superimposed on the region of the ratio ⁇ 0 is I 10
  • the pixel value of the pixel superimposed on the region of the ratio ⁇ 1 is I 11
  • the ratio ⁇ 2 is used.
  • I 12 be the pixel value of the pixel superimposed on the area
  • I 13 be the pixel value of the pixel superimposed on the area by the ratio ⁇ 3 .
  • the pixel value of the target pixel (here, the upper left pixel) among the pixels of the phase image shown by the dotted line is set to I 01 .
  • the model of blur due to pixel aperture is ( ⁇ 0 + ⁇ 1 + ⁇ 2 + ⁇ 3 ) I 01 + ⁇ 0 I 10 + ⁇ 1 I 11 + ⁇ 2 I 12 + ⁇ 3 I 13 ) Can be represented by.
  • FIG. 5 is an explanatory diagram of the shift presentation method as the first embodiment.
  • each frame image in the input image is given a reference numeral according to the position in the time direction.
  • three consecutive frame images in the time direction are designated by Gi1, Gi2, and Gi3 from the past side to the future side.
  • These three frame images Gi1, Gi2, and Gi3 that are continuous in the time direction are regarded as one unit, and the input image is expressed as a plurality of the units arranged in the time direction.
  • three consecutive images in the time direction are designated as phase images Gp1, Gp2, and Gp3, respectively, and the unit consisting of these three phase images Gp1, Gp2, and Gp3 is in the time direction. It is expressed as being arranged in multiples.
  • each phase image Gp is not generated from one frame image Gi, but is generated based on a plurality of continuous frame images Gi in the time direction.
  • a method of alternately presenting the phase image Gp between the first position and the second position obliquely offset by half a pixel from the first position is adopted.
  • the phase image Gp is generated based on two consecutive frame images Gi in the time direction.
  • the phase image Gp1 is generated based on the frame image Gi1 and the frame image Gi3 one frame before the frame image Gi1.
  • phase image Gp2 is generated based on the frame image Gi1 and the frame image Gi2 one frame after the frame image Gi1
  • the phase image Gp3 is generated based on the frame image Gi2 and the frame image Gi3 one frame after the frame image Gi2. ..
  • the generation of the phase image Gp based on the plurality of frame images Gi is a downsampling process by a method such as downsampling a composite image of the plurality of frame images Gi so that the image contents of the plurality of frame images are inherited. Do by.
  • the downsampling from the frame image Gi is performed by changing the sampling phase between the phase image Gp presented at the first position and the phase image Gp presented at the second position, and specifically, the downsampling is performed at the first position.
  • the sampling phase of the phase image Gp presented at the second position is set to a phase shifted by one pixel (one pixel in the frame image Gi) in the diagonal direction with respect to the phase image Gp.
  • phase image Gp generation process as described above is performed by the phase image generation unit 21 shown in FIG.
  • the presentation positions of two continuous phase image Gp in the time direction are switched between the above-mentioned first position and the second position. Do it by doing so.
  • the shift period of the phase image Gp is set to a period (120 Hz in this example) that matches the frame rate of the input image.
  • Such a shift of the presentation position of the phase image Gp is performed by the control unit 3 shown in FIG. 1 controlling the shift unit 8.
  • the following method is adopted in order to suppress the reduction in the resolution of the presented image in the spatiotemporal direction. That is, a method is adopted in which the plurality of phase images Gp are corrected so that the result of visually mixing the plurality of phase images Gp generated based on the same original image in the time direction approaches the original image.
  • the inverse function H which is the inverse function of the deterioration function W described above.
  • the deterioration function W is a function indicating deterioration characteristics of the presented image with respect to the original image.
  • the deterioration function calculation unit 31 shown in FIG. 1 obtains the deterioration function W based on the image captured by the camera 9 (observation image of the projected image).
  • the deterioration function W is a function indicating deterioration characteristics with respect to spatial resolution.
  • the deterioration function W is obtained as a function showing deterioration characteristics due to both the blur caused by the pixel aperture caused by the shift presentation and the blur caused by the elements other than the shift presentation.
  • the blurring due to the pixel aperture is obtained by calculation based on the phase image Gp which is visually superimposed on each other without observing the presented image. Can be done.
  • blurring caused by factors other than shift presentation is calculated based on the observed image of the projected image.
  • the blur caused by the elements other than the shift presentation has different characteristics between the first position and the second position when the shift presentation of the phase image Gp is performed. Therefore, the characteristic information of blur caused by factors other than the shift presentation is calculated for each of the first position and the second position.
  • the deterioration function calculation unit 31 shown in FIG. 1 first calculates the characteristic information of blur caused by elements other than the shift presentation based on the image captured by the camera 9.
  • PSF Point Spread Function
  • this characteristic information of blur caused by elements other than shift presentation this PSF is obtained for each area of the image.
  • the characteristics of blur caused by factors other than shift presentation differ between the first position and the second position. Therefore, when obtaining the above characteristic information, the observation image of the projected image at the first position and the observation image are used.
  • the observation image of the projected image at the second position is input from the camera 9, and the characteristic information of the blur caused by the elements other than the shift presentation is calculated for each of the first position and the second position. Further, the deterioration function calculation unit 31 calculates the characteristic information about the first position and the characteristic information about the second position as the characteristic information of the blur due to the pixel aperture. Then, the deterioration function calculation unit 31 is based on the blur characteristic information due to the pixel aperture calculated for the first position and the blur characteristic information due to factors other than the shift presentation, and the deterioration characteristic due to both blurs for the first position. The deterioration function W indicating the above is calculated.
  • the deterioration function calculation unit 31 is based on the blur characteristic information due to the pixel aperture calculated for the second position and the blur characteristic information due to factors other than the shift presentation, and the deterioration characteristic due to both blurs for the second position.
  • the deterioration function W indicating the above is calculated.
  • the deterioration function W obtained for the first position will be referred to as “deterioration function W 1 ”
  • the deterioration function W obtained for the second position will be referred to as “deterioration function W 2 ”.
  • FIG. 6 is an explanatory diagram of a method for obtaining an inverse function H as a correction function.
  • the current time of the phase image Gp is set to time t.
  • the current time on the frame image Gi side is set to time t'.
  • This time t' is the two frame images Gi that are the sources of the phase image Gp at time t when the shift presentation is performed between the two positions of the first position and the second position as in this example. Of these, it is the time of the frame image Gi on the front side (past side) in terms of time.
  • the inverse function H for correction is obtained based on the cost function Q represented by the following [Equation 1].
  • Y t' is the current input image (frame image Gi)
  • Y t'-1 is the input image one hour ago
  • X t is the current output image (phase image Gp)
  • At -1 is one hour ago.
  • the output image of, At + 1 means the output image one time later.
  • the shift presentation as the first embodiment described with reference to FIG. 5 and the like is the time t of the output image (At -1) at time t-1 and the output image (X t ) at time t.
  • the input image (Y t'-1 ) of'-1 is reproduced, and the output image (X t ) of time t and the output image (At + 1 ) of time t + 1 are used to input the input image (Y t' ) of time t'.
  • the result of multiplying the output image At + 1 by the deterioration function W 1 and the inverse function of the deterioration function W 2 with respect to the current output image X t is subtracted from the input image Y t' , but even in the second term, if the inverse function H t cancels the deterioration function W 2 , the image to be reproduced ( In this case, the difference from the input image Y t' ) becomes small. Therefore, in the present embodiment, the inverse function Ht that minimizes the cost function Q shown in [Equation 1] is obtained as a function for correction. This corresponds to finding the inverse function Ht for making the result of visually mixing a plurality of images generated based on the original image as an input image in the time direction closer to the original image.
  • the feature of [Equation 1] is not only the input image and the output image (two phase images Gp) at the current time but also the input image at the time adjacent to the current time as the derivation formula of the inverse function Ht .
  • the point is that the formula is based on the output image. From this point, by using [Equation 1], it is possible to obtain an inverse function Ht capable of suppressing a decrease in resolution in the time direction.
  • step S101 the control unit 3 executes a process of obtaining deterioration functions W 1 and W 2 based on the captured image. This is a process as the deterioration function calculation unit 31. Specifically, in step S101, the control unit 3 causes the camera 9 to execute an imaging operation for the image presented at the first position and the image presented at the second position, and the image presented at the first position and the second position are executed. Captured images (observation images) of the images presented at the positions are obtained, and the deterioration functions W1 and W2 are obtained by the above - mentioned method based on the captured images.
  • step S102 following step S101 the control unit 3 starts inputting the output image A and the output image X. That is, the signal processing unit 2 (phase image generation unit 21) starts the generation of the phase image Gp based on the input image, and starts the input of the generated phase image Gp.
  • step S103 following step S102 the control unit 3 obtains the inverse function Ht by the least squares method based on [Equation 1].
  • the method for obtaining the inverse function Ht based on [Equation 1] is not limited to the least squares method, and other methods such as obtaining the inverse function Ht for which the value of Q is equal to or less than a predetermined threshold can be used. You can also take it.
  • Equation 1 is a derivation formula of the inverse function Ht on the premise that the presentation position of the phase image Gp at the current time t is the second position of the first position and the second position. Strictly speaking, the deterioration function W at the first position and the second position are different, so if more accurate correction is to be performed, the inverse function H t for the first position (hereinafter referred to as "inverse function H ta "). Notation) is desirable.
  • step S104 following step S103 is performed.
  • the inverse function Ht is obtained again based on [Equation 1] using the obtained A't -1 and A't + 1 in the following step S107. Specifically, A't-1 is substituted for "W1 ⁇ At-1 " in [Equation 1], and A't + 1 is substituted for "W1 ⁇ At + 1 ", and the inverse function is obtained by the least squares method. Find H t again.
  • step S108 the control unit 3 obtains A't using the obtained inverse function H t , and again obtains the inverse function H ta based on [Equation 2].
  • step S109 the control unit 3 determines whether or not the values of Q when the inverse function H t and the inverse function H ta are obtained are equal to or less than the threshold value. That is, it is determined whether or not each of the value of Q when the inverse function H t is obtained in step S107 and the value of Q when the inverse function H ta is obtained in step S108 is equal to or less than the threshold value.
  • the control unit 3 If the values of both Qs are not equal to or less than the threshold value, the control unit 3 returns to step S106. As a result, the inverse function H t and the inverse function H ta are recalculated until the values of both Qs are equal to or less than the threshold value. On the other hand, if the values of both Qs are equal to or less than the threshold value, the control unit 3 ends a series of processes shown in FIG. 7. That is, the inverse function H t and the inverse function H ta used for the correction process of the phase image Gp can be obtained from this.
  • the control unit 3 sets the inverse function H t and the inverse function H ta obtained in the process of FIG. 7 in the signal processing unit 2.
  • the signal processing unit 2 (correction processing unit 22) performs correction processing on the phase image Gp generated by the function as the phase image generation unit 21 by using the set inverse function H t and the inverse function H ta . Specifically, the phase image Gp whose presentation position is the first position is corrected using the inverse function H ta , and the phase image Gp whose presentation position is the second position is corrected using the inverse function H ta . Perform correction processing.
  • the signal processing unit 2 performs correction processing using the inverse function Ht for each phase image Gp.
  • Second embodiment Subsequently, the second embodiment will be described.
  • the first embodiment an example is given in which the projector device 1 has a calculation function of the inverse function H, and the phase image Gp is corrected by using the inverse function H calculated by the calculation function.
  • a table storing a pre-calculated inverse function H is prepared, and the corresponding inverse function H is acquired from the table and used for correction.
  • FIG. 8 is a block diagram for explaining a configuration example of the projector device 1A as the second embodiment.
  • the same parts as those already described will be designated by the same reference numerals and the description thereof will be omitted.
  • the projector device 1A is different from the projector device 1 shown in FIG. 1 in that the control unit 3A is provided in place of the control unit 3 and that the memory unit 10 is added.
  • the memory unit 10 is configured as, for example, a non-volatile memory device, and is used for storing various types of information.
  • the inverse function table 10a is stored in the memory unit 10.
  • the inverse function table 10a is set as table information to which the information of the inverse function H is associated with each type of the deterioration function W.
  • the type of the deterioration function W means a type related to the characteristics of the deterioration function W, and the deterioration functions W having similar degrees of deterioration are classified into the same type, or a plurality of types. It is conceivable to classify the deterioration functions in which the items with a large degree of deterioration match a predetermined number or more among the deterioration items of the above into the same type.
  • the inverse function table 10a is information in which the information of the corresponding inverse function H is associated with each type of the deterioration function W classified in advance.
  • the control unit 3A is different from the control unit 3 in that it has an inverse function selection unit 33 instead of the inverse function calculation unit 32.
  • the inverse function selection unit 33 selects the corresponding inverse function H from the inverse function table 10a based on the deterioration function W calculated by the deterioration function calculation unit 31. Then, the selected inverse function H is set in the signal processing unit 2 (correction processing unit 22). As a result, the signal processing unit 2 can execute the correction processing of the phase image Gp using the appropriate inverse function H corresponding to the actually measured image deterioration characteristic.
  • the projector device 1A having the above configuration, it is not necessary to calculate the inverse function H based on the deterioration function W in order to realize the appropriate correction processing corresponding to the image deterioration characteristics actually measured in this way. Therefore, it is possible to reduce the processing load in the correction.
  • FIG. 9 is a flowchart showing an example of a processing procedure of the control unit 3A for realizing the correction method as the second embodiment described above.
  • the control unit 3A performs a process of obtaining the deterioration function W based on the captured image.
  • the control unit 3A performs a process of determining the type of the deterioration function W. That is, a process of determining the type of the deterioration function W is performed according to a predetermined classification standard of the type.
  • step S203 the control unit 3A performs a process of selecting the inverse function H corresponding to the type of the deterioration function W from the inverse function table 10a, and in the subsequent step S204, sets the selected inverse function H in the signal processing unit 2. This process is performed, and the series of processes shown in FIG. 9 is completed.
  • the control unit 3A performs the process of obtaining the deterioration functions W 1 and W 2 in step S201 as in the previous step S101, determines the type for each deterioration function W 1 and W 2 in step S202, and steps S203.
  • step S204 a process of setting the selected inverse function H t and the inverse function H ta in the signal processing unit 2 is performed.
  • FIG. 10 is an explanatory diagram of a shift presentation method as a third embodiment.
  • the presentation position of the phase image Gp is shifted between the four positions as shown as the transition from FIG. 10A to FIG. 10D. Specifically, after the presentation at the first position shown in FIG. 10A, the presentation is performed at a position deviated by a half pixel downward from the first position (referred to as the second position in the third embodiment) (FIG. 10B). ), Then the presentation (FIG.
  • FIG. 10C a position shifted to the right by half a pixel from the second position (referred to as the third position), and then a position shifted upward by half a pixel from the third position.
  • the presentation (FIG. 10D) is performed at (the fourth position). After the presentation at the fourth position, the presentation at the first position is performed again.
  • FIG. 11 is a diagram schematically showing the correspondence relationship between each frame image Gi of the input image and the phase image Gp in the third embodiment in the time direction. Also in the third embodiment, for the sake of explanation, it is assumed that the frame rate of the input image and the frame rate of the phase image Gp are both 120 Hz.
  • one frame image Gi is reproduced by shift presentation of four continuous phase images Gp in the time direction.
  • the frame image Gi3 at a certain time is reproduced by the shift presentation of four consecutive phase images Gp1, Gp2, Gp3, and Gp4 in the time direction, and the frame image Gi2 one time before the frame image Gi3 is the time. It is schematically shown that the four phase images Gp4, Gp1, Gp2, and Gp3 that are continuous in the direction are reproduced by the shift presentation.
  • each phase image Gp is generated based on a plurality of consecutive frame images Gi including the frame image Gi to be reproduced.
  • the phase image Gp1 includes four continuous frame images Gi4, Gi1, Gi2 in the time direction including the frame image Gi3 to be reproduced. Generated based on Gi3.
  • the phase image Gp2 is generated based on four consecutive frame images Gi1, Gi2, Gi3, and Gi4 including the same frame image Gi3, and the phase image Gp3 is generated in the time direction including the same frame image Gi3.
  • Generated based on four consecutive frame images Gi2, Gi3, Gi4, Gi1, and the phase image Gp4 is generated based on four consecutive frame images Gi3, Gi4, Gi1, Gi2 including the same frame image Gi3. ..
  • FIG. 12 is an explanatory diagram of a method for obtaining the inverse function H in the third embodiment. Similar to FIG. 6, the current time of the phase image Gp is set to time t, and the current time of the frame image Gi side is set to time t'. In this case, the time t'is the time of the frame image Gi to be reproduced by four consecutive phase images Gp of the times t-1, t, t + 1, and t-1.
  • the inverse function Ht is obtained based on the cost function Q represented by the following [Equation 3].
  • the deterioration functions W 1 , W 2 , W 3 , and W 4 mean the deterioration functions W for the first position, the second position, the third position, and the fourth position described in FIG. 10, respectively.
  • FIG. 13 is a block diagram for explaining a configuration example of the projector device 1B as the third embodiment.
  • the projector device 1B is different in that the signal processing unit 2B is provided in place of the signal processing unit 2 and the control unit 3B is provided in place of the control unit 3.
  • the signal processing unit 2B has a phase image generation unit 21B and a correction processing unit 22B.
  • the control unit 3B has a deterioration function calculation unit 31B and an inverse function calculation unit 32B.
  • the phase image generation unit 21B performs downsampling of the input image based on the input image with the sampling phases corresponding to the four presentation positions from the first position to the fourth position, respectively, from the first position.
  • a phase image Gp corresponding to each presentation position of the fourth position is generated. As described above, each phase image Gp is generated based on a plurality of consecutive frame images Gi including the frame image Gi to be reproduced.
  • the control unit 3B differs from the control unit 3 in that the control unit 3B controls the shift unit 8 to cyclically change the image presentation position between the first position and the fourth position as described with reference to FIG. .. Further, in the control unit 3B, the deterioration function calculation unit 31B performs deterioration functions W 1 , W 2 , W 3 , and W 4 corresponding to each presentation position from the first position to the fourth position based on the image captured by the camera 9. calculate.
  • the inverse function calculation unit 32B obtains the inverse function Ht based on [Equation 3] using the deterioration functions W 1 , W 2 , W 3 , and W 4 calculated by the deterioration function calculation unit 31B. Then, the obtained inverse function Ht is set in the signal processing unit 2B (correction processing unit 22B).
  • the correction processing unit 22B uses the set inverse function Ht to perform correction processing for each phase image Gp generated by the phase image generation unit 21B.
  • the control unit 3B (inverse function calculation unit 32B) sequentially obtains the inverse function H for another presentation position based on the inverse function Ht by the same method as the method described with reference to FIG. 7. I do.
  • the derivation operation of the inverse function H at each position may be repeated on condition that the value of Q is equal to or less than a predetermined threshold value.
  • the example in which the projector device 1B calculates the inverse function H as in the first embodiment is given, but also in the fourth embodiment, the inverse function H is changed to the deterioration function W as in the second embodiment. It is also possible to adopt a configuration in which the inverse function H corresponding to the type of the deterioration function W is acquired from the table stored for each type of.
  • FIG. 14 is an explanatory diagram of the animal body region Rm and the background region Rs.
  • the subject as a horse is the animal body Om in the image
  • the image region including the animal body Om is detected as the animal body region Rm.
  • the region of the animal body Om in the image can be detected based on the image difference between the frame images and the like.
  • the region surrounding the detection region of the animal body Om is defined as the animal body region Rm.
  • the region other than the animal body region Rm is the background region Rs.
  • the correction process is performed using different inverse functions H in the animal body region Rm and the background region in the phase image Gp.
  • the animal body region Rm is corrected by using the inverse function H calculated by a calculation method that prioritizes the correction of the resolution reduction in the time direction over the correction of the resolution reduction in the spatial direction, and the background region Rs. Is performed using a correction function calculated by a calculation method that prioritizes the correction of the resolution deterioration in the spatial direction over the correction of the resolution reduction in the time direction.
  • the inverse function H for the animal body region Rm and the inverse function H for the background region Rs are obtained based on the following [Equation 4].
  • ⁇ 0 and ⁇ 1 each represent a weighting coefficient.
  • the sign of the deterioration function W is set to "W'" because a deterioration function other than W 1 and W 2 can be used as the deterioration function W in the fourth embodiment.
  • the inverse function H for the animal body region Rm the inverse function H that minimizes the value of Q is used as [Equation 4] by substituting the unit matrix into the deterioration functions W'1 and W'2 , respectively.
  • the unit matrix can be rephrased as a deterioration function W indicating that there is no deterioration in image quality in the spatial direction.
  • the weighting coefficients ⁇ 0 and ⁇ 1 are both set to “1”.
  • the deterioration function indicating that there is no image quality deterioration in the spatial direction is used, but the deterioration function (in other words, the deterioration function indicating that the image quality deterioration is small) is used. Then, it is also possible to use a deterioration function) indicating that there is a blur of a predetermined amount or less.
  • FIG. 15 is a block diagram for explaining a configuration example of the projector device 1C as the fourth embodiment.
  • the difference from the projector device 1 is that the animal body region detection unit 15 and the memory unit 10 are added, a signal processing unit 2C is provided in place of the signal processing unit 2, and the control unit 3C replaces the control unit 3. It is a provided point.
  • the animal body region detection unit 15 detects the animal body region Rm from the input image.
  • the signal processing unit 2C is different from the signal processing unit 2 in that it has the correction processing unit 22C instead of the correction processing unit 22.
  • the control unit 3C has an inverse function calculation unit 32C instead of the inverse function calculation unit 32, and is different from the control unit 3 in that the inverse function setting unit 34 is added.
  • the inverse function calculation unit 32C is an inverse function for the animal body region Rm by the method using the above-mentioned [Equation 4] based on the deterioration functions W 1 and W 2 calculated by the deterioration function calculation unit 31.
  • H t that is, an inverse function H t that gives priority to the correction of the resolution decrease in the time direction
  • an inverse function H t for the background region Rs that is, an inverse function H t that gives priority to the correction of the resolution decrease in the spatial direction are obtained.
  • the control unit 3C stores the inverse function Ht for the animal body region Rm and the inverse function Ht for the background region Rs obtained in this way in the memory unit 10 as the animal body function information 10b and the background function information 10c, respectively. Perform the process of making it.
  • the inverse function setting unit 34 in the control unit 3C stores the function information 10b for the animal body and the function information 10c for the background in the memory unit 10, respectively, for the animal body region Rm.
  • the inverse function H t and the inverse function H t for the background region Rs are read out and set in the signal processing unit 2C (correction processing unit 22C).
  • the correction processing unit 22C has the animal body region Rm and the background region in the phase image Gp based on the information (information indicating the region position and range) of the animal body region Rm detected by the animal body region detection unit 15. Correction processing is performed using an inverse function Ht that is different from Rs. Specifically, when the animal body region Rm is detected, the correction processing unit 22C performs correction processing on the animal body region Rm in the phase image Gp using the inverse function Ht for the animal body region Rm, and also performs correction processing using the inverse function Ht for the animal body region Rm. The region Rs is corrected by using the inverse function Ht for the background region Rs. When the animal body region Rm is not detected, it is conceivable to perform correction processing on the phase image Gp using the inverse function Ht obtained based on [Equation 1].
  • the fourth embodiment it is possible to adopt the method of obtaining the inverse function H for each presentation position as described with reference to [Equation 2] in the first embodiment. That is, in that case, the control unit 3C (inverse function calculation unit 32C) calculates the inverse function H for each presentation position as the inverse function H for the animal body region Rm and the background region Rs. Further, the fourth embodiment can be applied to the case where the presentation positions are four as in the third embodiment.
  • the fifth embodiment is an example of application to a display device for a stereoscopic image by a parallax barrier method.
  • FIG. 16 is an explanatory diagram of a stereoscopic image display by a parallax barrier method.
  • a parallax barrier 41 is arranged on the front side (display surface side) of a display 40 such as a liquid crystal display, for example.
  • a parallax barrier is a vertical photon-shaped mask member in which slits of equal width and light-shielding parts are paired and arranged at equal intervals.
  • a row of pixels Px for displaying a left-eye image (indicated as L1 to L4 in the figure) and a pixel Px for displaying a right-eye image. Rows (indicated by R1 to R4 in the figure) are arranged alternately.
  • the display columns for the left-eye image and the right-eye image are each one.
  • the parallax barrier 41 guides the image light from the column for displaying the left eye image to only the left eye position of the observer's left eye position and right eye position as shown in the figure, and is used for displaying the right eye image.
  • Image light from the column is directed only to the right eye position.
  • the left-eye image and the right-eye image are images in every other row, so that the resolution in the spatial direction is lowered. Therefore, in the paralux barrier method, the shift presentation described above is performed by switching and displaying a plurality of phase images sampled by shifting the phase in the spatial direction with respect to the original image for each of the right-eye image and the left-eye image in the time direction. It is conceivable to suppress the decrease in spatial resolution by the same principle as above.
  • FIG. 17 is a diagram for explaining a specific example of a method of switching and displaying a plurality of phase images in the time direction for each of the right-eye image and the left-eye image.
  • the right-eye image original image: input image
  • the left-eye image original image: input image
  • an image obtained by sampling only even rows of pixels is generated as a left eye phase image.
  • the images in each column of the right-eye phase image generated as described above are displayed in the columns for displaying the right-eye image on the display 40, and the images in each column of the left-eye phase image are displayed.
  • the odd-numbered frame period for the right-eye image, for example, an image obtained by sampling only the pixels of the odd-numbered column is generated as a right-eye phase image
  • the left-eye image for example, an image obtained by sampling only the pixels of the odd-numbered column is generated as the left-eye phase. Generate as an image.
  • the images in each column of the right-eye phase image generated as described above are displayed in the columns for displaying the right-eye image on the display 40, and the images in each column of the left-eye phase image are displayed.
  • the odd-numbered columns of the original image may be sampled in the even-numbered frame period, and the even-numbered columns of the original image may be sampled in the odd-numbered frame period.
  • FIG. 18 is a block diagram showing a configuration example of a display device 1D as a fourth embodiment in which correction processing for each of the right-eye phase image and the left-eye phase image is performed.
  • the display device 1D includes a display 40 and a parallax barrier 41 arranged in front of the display 40 for displaying a stereoscopic image by a parallax barrier method. Further, the display device 1D includes a signal processing unit 2D, a control unit 3D, and a memory unit 10.
  • the signal processing unit 2D includes a right-eye phase image generation unit 21R, a left-eye phase image generation unit 21L, a correction processing unit 22D, and a synthesis unit 23.
  • the right-eye phase image generation unit 21R generates the above-mentioned right-eye phase image based on the input image of the right-eye image.
  • the left-eye phase image generation unit 21L generates the above-mentioned left-eye phase image based on the input image of the left-eye image.
  • the right-eye phase image and the left-eye phase image are generated as a sampled image of only the pixels of the even-numbered columns in the input image in the even-numbered frame period, and input in the even-numbered frame period. Only the odd-numbered pixels in the image are generated as a sampled image.
  • the control unit 3D has a deterioration function acquisition unit 35 and an inverse function selection unit 33D.
  • the deterioration function acquisition unit 35 acquires the deterioration function W for the image presented at each of the right eye position and the left eye position.
  • the deterioration function W for each of the presented images of the right eye position and the left eye position is obtained by calculation in advance from the design values of the display 40 and the parallax barrier 41, and is stored in the display device 1D. Can be considered.
  • the inverse function table 10d is stored in the memory unit 10 in this case.
  • the inverse function table 10d is information in which the inverse function H for each type of the deterioration function W is stored for each of the right eye and the left eye.
  • the inverse function H in this case is obtained based on [Equation 1] by using the deterioration function W for the presented image at the right eye position and the deterioration function W for the presented image at the left eye position.
  • the inverse function selection unit 33D is an inverse function in the memory unit 10 based on the deterioration function W for the presentation image at the right eye position acquired by the deterioration function acquisition unit 35 and the deterioration function W for the presentation image at the left eye position.
  • the corresponding inverse function H is selected from the table 10d. Specifically, in this example, the type of the deterioration function W for the presentation image at the right eye position and the deterioration function W for the presentation image at the left eye position acquired by the deterioration function acquisition unit 35 are determined respectively, and correspond to the determined types.
  • the inverse function H on the right eye side and the inverse function H on the left eye side are selected.
  • the inverse function selection unit 33D sets the selected inverse function H on the right eye side and the inverse function H on the left eye side in the signal processing unit 2D (correction processing unit 22D).
  • the correction processing unit 22D performs correction processing of the right-eye phase image generated by the right-eye phase image generation unit 21R using the set inverse function H on the right-eye side, and reverses the set left-eye side.
  • the function H is used to correct the left-eye phase image generated by the left-eye phase image generation unit 21L.
  • the compositing unit 23 inputs the right-eye phase image and the left-eye phase image that have been corrected by the correction processing unit 22D in this way, and converts the images in each column of the right-eye phase image into the column for displaying the right-eye image on the display 40. Each is displayed, and display image data for displaying the image of each column of the left-eye phase image in the column for displaying the left-eye image on the display 40 is generated and output to the display 40.
  • the embodiment is not limited to the specific examples described so far, and configurations as various modified examples can be adopted.
  • the technique as an embodiment that is, the derivation of the inverse function H based on [Equation 1] and [Equation 3] and the technique of signal correction processing using the inverse function H, have a plurality of colors of the original image as a color image. It can also be applied to a configuration in which a plurality of images obtained by color separation into an image are displayed in a time-divided manner to reproduce a color image.
  • FIG. 19 is a block diagram for explaining a configuration example of the projector device 1E as a modification in which the technique as an embodiment is applied in the case of performing such time-division color display.
  • the difference from the projector device 1 shown in FIG. 1 is that a color wheel 45 and a drive unit 46 for rotationally driving the color wheel 45 are added in the optical system, and a mirror 47 is provided in place of the shift unit 8.
  • the difference is that the signal processing unit 2E is provided in place of the signal processing unit 2, and the control unit 3E is provided in place of the control unit 3.
  • R (red), G (green), and B (blue) color filters are arranged on the color wheel 45 in the circumferential direction, and the colors of the presented image are changed to R, G, B, and R by rotating the color wheel 45. It is possible to switch cyclically in the order of ,.
  • the signal processing unit 2E has each color image generation unit 24 and a correction processing unit 22E.
  • Each color image generation unit 24 color-separates an input image as a color image into a plurality of color images to generate a plurality of color images. Specifically, in this example, the input image as a color image is color-separated into R, G, and B to generate R, G, and B color images. As will be described later, in this example, each color image of R, G, B is cyclically switched and presented in the order of R, G, B, R, .... Therefore, each color image generation unit 24 periodically switches and generates each color image in the order of R, G, B, R, ... From the input image as a color image. The details of each color image generation unit 24 and correction processing unit 22E will be described later.
  • the control unit 3E has a deterioration function calculation unit 31E and an inverse function calculation unit 32E. Further, the control unit 3E controls the drive unit 46.
  • the deterioration function calculation unit 31E sets the deterioration function W as the deterioration function W for the presentation image of R (the presentation image whose presentation color is R) and the presentation image of G (the presentation color is G).
  • the deterioration function W for the presentation image) and the deterioration function W for the presentation image B (the presentation image whose presentation color is B) are calculated, respectively.
  • the deterioration function calculation unit 31E controls the camera 9 so that the captured image of the presented image of R, the captured image of the presented image of G, and the captured image of the presented image of B can be obtained. Then, the deterioration function W for the presented image of each color is calculated based on the captured image of the presented image of each color.
  • the inverse function calculation unit 32E uses the deterioration function W for the presented image of each color calculated by the deterioration function calculation unit 31E, and the correction processing unit 22E uses the inverse function for the correction processing of the color image based on [Equation 5] described later. Generate H.
  • FIG. 20 is an explanatory diagram of a time-division presentation method of a color image in this modification.
  • the input image color image
  • the image resolution of the R, G, and B color images is 4k8k, which is the same as the input image
  • the presentation switching cycle of the color image is 120Hz. It is an example.
  • a method of reproducing one input image by three consecutive color images in the time direction is adopted.
  • each color image is generated based on a plurality of continuous input frame images in the time direction including the input frame image to be reproduced.
  • the color image is generated based on a total of three input frame images, that is, an input frame image to be reproduced and an input frame image one frame before and after the input frame image.
  • the inverse function Ht used for the correction of the color image is obtained based on the cost function Q shown in the following [Equation 5].
  • the time t'me ans the current time of the input image as a color image
  • the time t means the current time of the color image (see FIG. 20).
  • the deterioration functions W 1 , W 2 , and W 3 mean the deterioration functions W for the presented images of each color of R, G, and B calculated by the deterioration function calculation unit 31E.
  • the inverse function calculation unit 32E shown in FIG. 19 uses the deterioration functions W 1 , W 2 , and W 3 for the presented images of the R, G, and B colors calculated by the deterioration function calculation unit 31E in [Equation 5].
  • the inverse function H t that minimizes the indicated cost function Q is obtained as the inverse function H t for correction.
  • the control unit 3E sets the inverse function Ht calculated by the inverse function calculation unit 32E in the signal processing unit 2E (correction processing unit 22E).
  • the correction processing unit 22E performs correction processing using the set inverse function Ht for each color image of R, G, and B periodically generated by each color image generation unit 24.
  • the numerical values of the frame rate and the image resolution for the input image, the phase image, and the color image are not limited to the numerical values exemplified in the above explanations.
  • the image resolution of the phase image Gp may be Full HD or the like while the image resolution of the input image is 2k4k.
  • the camera 9 has been provided with an example of the projector device, but the camera 9 may be externally attached to the projector device.
  • a plurality of images generated based on the original image are visually mixed in the time direction. It is provided with a correction processing unit (22, 22B, 22C, 22D, 22E) for performing correction processing for a decrease in resolution in the time direction that occurs in the presented image when the image is presented.
  • a correction processing unit 22, 22B, 22C, 22D, 22E
  • the correction processing unit performs correction processing so that the result of visually mixing a plurality of images in the time direction approaches the original image (from [Equation 1]). [Equation 5]). This makes it possible to perform correction processing so as to cancel the deterioration of image quality due to an optical factor or the like that occurs in the presented image. Therefore, deterioration of the image quality of the presented image can be suppressed.
  • the deterioration function acquisition unit (deterioration function calculation unit 31, 31B, 31E, deterioration function acquisition unit 35) for acquiring the deterioration function indicating the deterioration characteristic of the presented image with respect to the original image
  • a correction function acquisition unit (inverse function calculation unit 32, 32B, 32C, 32E, inverse function selection unit 33, 33D) for acquiring a correction function corresponding to the deterioration function acquired by the deterioration function acquisition unit is provided, and a correction processing unit is provided. Performs correction processing based on the correction function acquired by the correction function acquisition unit. This makes it possible to perform correction processing according to the characteristics of deterioration that occur in the actual image presentation environment. Therefore, deterioration of the image quality of the presented image can be suppressed.
  • the correction function acquisition unit (inverse function selection units 33, 33D) has a deterioration function acquisition unit from among a plurality of correction functions stored for each type of deterioration function.
  • the correction function according to the type of the acquired deterioration function is selected and acquired.
  • the correction function corresponding to the type of the deterioration function acquired by the deterioration function acquisition unit may be acquired from a plurality of correction functions prepared in advance and used for the correction processing, and the correction function can be used as the deterioration function. There is no need to calculate and obtain based on it. Therefore, it is possible to reduce the processing load in the correction.
  • the correction processing unit performs the correction processing in the spatial direction.
  • a process is performed to correct the decrease in resolution in each of the spatial direction and the time direction that occurs in the presented image.
  • the resolutions of the presented image in the spatial direction and the time direction are respectively. There is a drop.
  • the correction processing unit (2, 2B, 2C) has a plurality of images whose presentation positions are shifted in units of less than pixels.
  • correction processing is applied.
  • the presentation image is blurred (pixels) due to the superposition of different images. Blurring due to the opening) occurs, which causes a decrease in spatial resolution due to the blurring. Therefore, for a plurality of images whose presentation positions are shifted in units of less than pixels, processing is performed to correct the resolution deterioration in each of the spatial direction and the temporal direction.
  • a method of improving the spatial resolution by shifting and presenting a plurality of images in units of less than pixels it is possible to suppress the decrease in resolution in the spatiotemporal direction that occurs in the presented image.
  • the original images are the left-eye image and the right-eye image used for presenting a stereoscopic image by the paralux barrier method
  • the correction processing unit (22D) Performs correction processing for each of a plurality of images generated with the left-eye image as the original image and a plurality of images generated with the right-eye image as the original image.
  • a plurality of images sampled with a phase shift in the spatial direction are visually mixed and presented in the time direction.
  • the correction processing unit (22C) corrects a plurality of images by using different correction functions for the animal body region and the animal body background region. It is carried out. As a result, the animal body region can be corrected by the correction function suitable for the animal body region, and the background region can be corrected by the correction function suitable for the background region. Therefore, appropriate correction processing can be applied to the animal body region and the background region, respectively.
  • the correction processing unit calculates the correction processing for the animal body region by a calculation method in which the correction of the resolution reduction in the time direction is prioritized over the correction of the resolution reduction in the spatial direction.
  • the correction function for the background area is performed by using the correction function calculated by a calculation method that prioritizes the correction of the resolution deterioration in the spatial direction over the correction of the resolution deterioration in the time direction.
  • the plurality of images are images generated by color-separating the original image as a color image into images of a plurality of colors
  • the correction processing unit correction processing unit (1E). 22E) performs correction processing for a decrease in resolution in the time direction that occurs in the presented image when images of a plurality of colors are visually mixed and presented in the time direction.
  • the resolution of the presented image is reduced in the time direction. Therefore, the plurality of images are subjected to a correction process for reducing the resolution in the time direction.
  • a plurality of images generated by color-separating the original image are visually mixed and presented in the time direction, it is possible to suppress the decrease in resolution in the time direction that occurs in the presented image.
  • a plurality of correction processes for reducing the resolution in the time direction that occur in the presented image when a plurality of images generated based on the original image are visually mixed and presented in the time direction are performed.
  • This is a signal processing method applied to the image of. Even with such a signal processing method as an embodiment, the same operations and effects as those of the signal processing apparatus as the above-described embodiment can be obtained.
  • the present technology can also adopt the following configurations.
  • the plurality of images are provided with a correction processing unit that performs correction processing for a decrease in resolution in the time direction that occurs in the presented image when a plurality of images generated based on the original image are visually mixed and presented in the time direction.
  • Signal processing device The correction processing unit The signal processing apparatus according to (1), wherein the correction process is performed so that the result of visually mixing the plurality of images in the time direction approaches the original image.
  • a deterioration function acquisition unit that acquires a deterioration function indicating deterioration characteristics of the presented image with respect to the original image, and a deterioration function acquisition unit.
  • a correction function acquisition unit for acquiring a correction function corresponding to the deterioration function acquired by the deterioration function acquisition unit is provided.
  • the correction function acquisition unit Described in (3) above, the correction function corresponding to the type of the deterioration function acquired by the deterioration function acquisition unit is selected and acquired from the plurality of correction functions stored for each type of the deterioration function. Signal processing device.
  • the correction processing unit As the correction process, when the plurality of images sampled out of phase in the spatial direction are visually mixed and presented in the time direction, the resolution deterioration in the spatial direction and the time direction that occurs in the presented image is corrected.
  • the signal processing apparatus according to any one of (1) to (4) above.
  • the correction processing unit The signal processing device according to (5), wherein the correction processing is performed on the plurality of images whose presentation position is shifted in units of less than pixels.
  • the original image is an image for the left eye and an image for the right eye used for presenting a stereoscopic image by the parallax barrier method.
  • the correction processing unit The signal processing according to (5), wherein the correction processing is performed on each of the plurality of images generated by using the left-eye image as the original image and the plurality of images generated by using the right-eye image as the original image.
  • Device (8)
  • the correction processing unit The signal processing apparatus according to any one of (5) to (7) above, wherein the correction processing is performed on the plurality of images using different correction functions for the animal body region and the animal body background region.
  • the correction processing unit The correction process for the animal body region is performed by using a correction function calculated by a calculation method that prioritizes the correction of the resolution degradation in the time direction over the correction of the resolution degradation in the spatial direction, and the correction for the background region.
  • the signal processing apparatus wherein the processing is performed using a correction function calculated by a calculation method that prioritizes the correction of the resolution deterioration in the spatial direction over the correction of the resolution reduction in the time direction.
  • the plurality of images are regarded as images generated by color-separating the original image as a color image into images of a plurality of colors.
  • the correction processing unit The signal processing according to any one of (1) to (4) above, which corrects the resolution decrease in the time direction that occurs in the presented image when the images of the plurality of colors are visually mixed and presented in the time direction.
  • Device (11) A signal processing method in which a plurality of images generated based on an original image are visually mixed and presented in the time direction, and correction processing for a decrease in resolution in the time direction that occurs in the presented image is performed on the plurality of images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

本技術に係る信号処理装置は、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を複数の画像に施す補正処理部を備えている。

Description

信号処理装置、信号処理方法
 本技術は、信号処理装置とその方法に関するものであり、特には、提示画像に生じる時間方向における解像度低下を補正するための技術に関する。
 例えば液晶プロジェクタ装置等、スクリーン等の投影対象物に画像を投影して表示するプロジェクタ装置が広く知られている。プロジェクタ装置を用いた画像投影の手法としては、例えば下記特許文献1に開示されるように、高解像度(例えば8k)の入力画像(元画像)を低解像度(例えば4k)の2以上の画像にダウンサンプリングし、ダウンサンプリングしたそれぞれの画像の投影位置を画素未満単位で高速にシフトさせるものがある。このようなシフト提示を行うことで、プロジェクタ装置(液晶パネル)が持つ解像度以上に投影画像の解像度(解像感)を向上させることができる。
 なお、関連する従来技術については下記特許文献2も挙げられる。特許文献2では、複数のプロジェクタ装置が同一の入力画像を重畳投影する場合において、重畳投影画像と入力画像との差分が最小となるようにフィードバックループを用いた補正を行うことで、重畳投影画像に生じるボケ(画質劣化)を抑制する技術が開示されている。
特開2019-36952号公報 特開2009-8974号公報
 しかしながら、上記特許文献1に開示されるようなシフト提示により空間解像度を向上させる技術は、ダウンサンプリングした複数枚の画像の提示によって1枚の元画像を再現しようとする技術となるため、フレームレートの低下を招く。すなわち、時間方向における解像度の低下を招来する。具体的に、ダウンサンプリングした2枚の画像のシフト提示を行う場合には、フレームレートは半減するものとなってしまう。
 本技術は上記事情に鑑み為されたものであり、元画像に基づき生成された複数の画像を時間方向において視覚的に混合して提示する場合において、提示画像に生じる時間方向の解像度低下の抑制を図ることを目的とする。
 本技術に係る信号処理装置は、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す補正処理部を備えたものである。
 「時間方向において視覚的に混合される」とは、人の目の積分効果により同時提示されたものとして視認されることを意味する。上記構成によれば、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向の解像度低下について、補正を行うことが可能とされる。
 上記した本技術に係る信号処理装置においては、前記補正処理部は、前記複数の画像が時間方向において視覚的に混合された結果が前記元画像に近づくように前記補正処理を行う構成とすることが可能である。
 これにより、提示画像に生じる光学的要因等による画質劣化をキャンセルするように補正処理を行うことが可能となる。
 上記した本技術に係る信号処理装置においては、前記元画像に対する前記提示画像の劣化特性を示す劣化関数を取得する劣化関数取得部と、前記劣化関数取得部が取得した前記劣化関数に応じた補正関数を取得する補正関数取得部と、を備え、前記補正処理部は、前記補正関数取得部が取得した前記補正関数に基づいて前記補正処理を行う構成とすることが可能である。
 これにより、実際の画像提示環境で生じる劣化の特性に応じた補正処理を行うことが可能となる。
 上記した本技術に係る信号処理装置においては、前記補正関数取得部は、前記劣化関数の類型ごとに記憶された複数の前記補正関数のうちから、前記劣化関数取得部が取得した前記劣化関数の類型に応じた前記補正関数を選択して取得する構成とすることが可能である。
 劣化関数の類型とは、劣化関数が有する特徴に係る類型を意味するものであり、劣化の度合いが近似している劣化関数同士を同類型に分類したり、或いは、複数の劣化項目のうち劣化の度合いが大きい項目が所定数以上一致している劣化関数同士を同類型に分類したりすること等が考えられる。上記構成によれば、予め用意された複数の補正関数のうちから劣化関数取得部が取得した劣化関数の類型に応じた補正関数を取得して補正処理に用いればよく、補正関数を劣化関数に基づいて計算して取得する必要がなくなる。
 上記した本技術に係る信号処理装置においては、前記補正処理部は、前記補正処理として、空間方向に位相をずらしてサンプリングされた前記複数の画像が時間方向において視覚的に混合されて提示される際に前記提示画像に生じる空間方向及び時間方向それぞれの解像度低下を補正する処理を行う構成とすることが可能である。
 元画像に基づく複数の画像として、空間方向に位相をずらしてサンプリングされた複数の画像を時間方向において視覚的に混合して提示する場合には、提示画像において、空間方向及び時間方向それぞれの解像度低下が生じる。そこで、これら空間方向及び時間方向それぞれの解像度低下を補正する処理を行う。
 上記した本技術に係る信号処理装置においては、前記補正処理部は、提示位置が画素未満単位でシフトされる前記複数の画像に対して前記補正処理を施す構成とすることが可能である。
 元画像に基づき生成した複数の画像を画素未満単位でシフトさせて提示することで空間解像度の向上を図る手法を採った場合には、異なる画像が重畳されることに伴う提示画像のボケ(画素開口によるボケ)が生じ、該ボケに起因した空間解像度の低下を招来する。そこで、提示位置が画素未満単位でシフトされる複数の画像に対して、空間方向及び時間方向それぞれの解像度低下を補正する処理を行う。
 上記した本技術に係る信号処理装置においては、前記元画像は、パララックスバリア方式による立体画像提示に用いられる左目用画像と右目用画像とされ、前記補正処理部は、前記左目用画像を前記元画像として生成された前記複数の画像と前記右目用画像を前記元画像として生成された前記複数の画像のそれぞれについて前記補正処理を行う構成とすることが可能である。
 これにより、パララックスバリア方式による立体画像提示に用いる左目用画像、右目用画像のそれぞれについて、空間方向に位相をずらしてサンプリングされた複数の画像を時間方向に視覚的に混合させて提示することにより左目用画像、右目用画像それぞれの空間解像度低下の抑制を図る場合において、複数の画像を時間方向に混合して提示することに伴う時間方向の解像度低下の抑制を図ることが可能となる。
 上記した本技術に係る信号処理装置においては、前記補正処理部は、前記複数の画像について、動物体領域と動物体の背景領域とで異なる補正関数を用いて前記補正処理を行う構成とすることが可能である。
 これにより、動物体領域については動物体領域に適した補正関数による補正を行い、背景領域については背景領域に適した補正関数による補正を行うことが可能となる。
 上記した本技術に係る信号処理装置においては、前記補正処理部は、前記動物体領域についての前記補正処理を、空間方向の解像度低下の補正よりも時間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行い、前記背景領域についての前記補正処理を、時間方向の解像度低下の補正よりも空間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行う構成とすることが可能である。
 これにより、動物体領域については動解像度(動画解像度)の向上が図られるようにし、背景領域については空間解像度の向上が図られるようにすることが可能となる。
 上記した本技術に係る信号処理装置においては、前記複数の画像は、カラー画像としての前記元画像を複数色の画像に色分解して生成された画像とされ、前記補正処理部は、前記複数色の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を行う構成とすることが可能である。
 カラー画像としての元画像を複数色の画像に色分解して生成された複数の画像を時間方向において視覚的に混合して提示する場合、提示画像には時間方向の解像度低下が生じる。そこで、時間方向における解像度低下の補正処理を前記複数の画像に施す。
 また、本技術に係る信号処理方法は、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す信号処理方法である。
 このような信号処理方法によっても、上記した本技術に係る信号処理装置と同様の作用が得られる。
本技術に係る第一実施形態としての信号処理装置の構成例を説明するためのブロック図である。 従来のシフト提示について説明図である。 従来のシフト提示における入力画像(元画像)と位相画像との関係を示した図である。 画素開口によるボケを説明するための図である。 第一実施形態としてのシフト提示手法の説明図である。 補正関数を求めるための手法についての説明図である。 補正関数を求めるための具体的な処理例を示したフローチャートである。 第二実施形態としての信号処理装置の構成例を説明するためのブロック図である。 第二実施形態としての補正手法を実現するための処理手順例を示したフローチャートである。 第三実施形態としてのシフト提示手法の説明図である。 第三実施形態における入力画像の各フレーム画像と位相画像との時間方向における対応関係を模式的に示した図である。 第三実施形態における補正関数を求めるための手法についての説明図である。 第三実施形態としての信号処理装置の構成例を説明するためのブロック図である。 動物体領域と背景領域の説明図である。 第四実施形態としての信号処理装置の構成例を説明するためのブロック図である。 パララックスバリア方式による立体画像表示についての説明図である。 右目画像、左目画像それぞれについて複数の位相画像を時間方向において切り替えて表示する手法の具体例を説明するための図である。 第四実施形態としての信号処理装置の構成例を示したブロック図である。 変形例としての信号処理装置の構成例を説明するためのブロック図である。 変形例における色画像の時分割提示手法についての説明図である。 変形例における各色画像の生成手法についての説明図である。
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。

<1.第一実施形態>
(1-1.信号処理装置の構成例)
(1-2.従来のシフト提示について)
(1-3.第一実施形態としてのシフト提示手法)
(1-4.処理手順)
<2.第二実施形態>
<3.第三実施形態>
<4.第四実施形態>
<5.第五実施形態>
<6.変形例>
<7.実施形態のまとめ>
<8.本技術>
<1.第一実施形態>
(1-1.信号処理装置の構成例)

 図1は、本技術に係る信号処理装置の第一実施形態としてのプロジェクタ装置1の構成例を説明するためのブロック図である。
 本例において、プロジェクタ装置1は、例えば透過型の液晶プロジェクタ装置として構成されている。プロジェクタ装置1は、例えばスクリーン等の投影対象物100に対し画像投影を行う。投影対象物100において、画像が投影される面を図示のように投影面100aと表記する。
 図示のようにプロジェクタ装置1は、信号処理部2と制御部3を備えると共に、画像投影のための光学系として光源部4、コリメーションレンズ5、空間光変調器6、シフト部8、及び投影光学系7を備えている。また、本例のプロジェクタ装置1は、カメラ9を備えている。
 信号処理部2は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Processor)等のコンピュータ装置を備えて構成され、デジタルデータによる入力画像に各種の信号処理(画像処理)を施し、投影用の画像を生成する。
 本例において、入力画像は、例えば解像度が8k(4k8k)、フレームレートが120Hzの動画像とされる。
 信号処理部2は、位相画像生成部21及び補正処理部22としての機能を有する。位相画像生成部21は、入力画像としての8kの元画像を空間方向に位相をずらしてダウンサンプリングすることで、シフト提示用の複数枚の位相画像を生成する。ここで、「位相」の表現を用いているのは、シフト量が画素未満単位であることによる。
 なお、位相画像生成部21が行う実施形態としての処理については後に改めて説明する。
 補正処理部22は、位相画像生成部21が生成した位相画像に対し、後述する逆関数H(補正関数)に基づく補正処理を施す。
 この補正処理部22の具体的な処理についても詳細は後に改めて説明する。
 光源部4は、例えばLED(Light Emitting Diode)やレーザ等の発光素子を一又は複数有して構成され、画像投影のための光を発する。
 光源部4により発せられた光はコリメーションレンズ5により平行光に変換されて空間光変調器6に入射する。空間光変調器6は、入射光に対して空間光強度変調(以下「強度変調」と略称する)を施して強度分布を与えることで、投影面100aに投影されるべき像(再生像)を生成するもので、本例では透過型の液晶パネルが用いられる。
 空間光変調器6は、信号処理部2が出力する位相画像に基づいて入射光に対する強度変調を施す。これにより、再生像として位相画像に基づく像が生成される。
 本例において、空間光変調器6としての液晶パネルの有効画素数は4k(2k4k)とされ、表示フレームレート(最大フレームレート)は120Hzである。
 なお、ここでは投影すべき像を生成するための空間光変調器6の例として透過型の液晶パネルを挙げたが、空間光変調器6としては例えば反射型の液晶パネルやDMD(Digital Micromirror Device)等を用いることもできる。
 シフト部8は、投影画像の位置をシフト(平行移動)させるための光学部品である。本例では、シフト部8にはDMDが用いられる。図示のようにDMDとしてのシフト部8には空間光変調器6により強度変調された光が入射される。DMDにおけるマイクロミラーの角度を微小に変化させることで、位相画像の投影位置(提示位置)を画素未満単位でシフトさせることが可能とされる。
 なお、位相画像の投影位置を画素未満単位でシフトさせるための構成としては、例えば光軸を振動させるための振動デバイスを用いた構成を採ることもできる。
 投影光学系7は、投影レンズを有し、空間光変調器6の強度変調により生成された像を投影面100aに投影する。本例では、空間光変調器6により強度変調された光はシフト部8で反射されて投影光学系に入射するようにされており、これにより投影光学系7は空間光変調器6の強度変調により生成された像を投影面100aに投影する。
 カメラ9は、例えばCCD(Charged-coupled devices)センサやCMOS(Complementary metal-oxide-semiconductor)センサ等の撮像素子を有するデジタルカメラ装置として構成されている。カメラ9は、プロジェクタ装置1による投影画像の観察画像を得るために用いられ、投影面100a上における画像の投影範囲全体が画角に収まるように配置されている。
 制御部3は、例えばCPU、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータを有して構成され、例えば上記ROMに格納されたプログラムに従った処理を実行することで、プロジェクタ装置1の各種動作制御を行う。具体的に制御部3は、信号処理部2、シフト部8、及びカメラ9の動作制御を行う。
 また、制御部3は、劣化関数計算部31、逆関数計算部32としての機能を有する。劣化関数計算部31は、カメラ9による撮像画像に基づき、元画像に対する投影画像(提示画像)の劣化特性を示す劣化関数Wを計算する。なお、劣化関数Wや、劣化関数計算部31が行う劣化関数Wの計算処理については後述する。
 逆関数計算部32は、劣化関数計算部31が求めた劣化関数Wの逆関数である逆関数Hを計算する。逆関数Hの計算手法については後に改めて説明する。
(1-2.従来のシフト提示について)

 図2及び図3を参照し、従来のシフト提示について説明する。
 ここでは、シフト提示として、図2に示すように位相画像を斜め方向に半画素分シフトさせる提示を繰り返し行うものとする。具体的には、フレーム期間ごとに位相画像の提示位置を図中実線で示す位置と点線で示す位置との間で交互にシフトさせるものである。
 ここでは、位相画像のフレームレートは120Hzであるものとする。すなわち、画像シフトの周期は該フレームレートと同じ120Hzである。
 図3は、従来のシフト提示における入力画像(元画像)と位相画像との関係を示した図である。
 従来のシフト提示においては、入力画像(本例では8k、120Hz)における1枚のフレーム画像から生成した2枚の位相画像を時間方向で視覚的に混合されるようにシフトして提示することで、該1枚のフレーム画像の空間解像度を再現しようとする手法となる。
 ここで、「時間方向において視覚的に混合される」とは、人の目の積分効果により同時提示されたものとして視認されることを意味する。
 具体的に、従来のシフト提示では、入力画像について、1フレームおきのフレーム画像を用いる。そして、これら1フレームおきの入力フレーム画像に基づき、それぞれ2枚の位相画像を生成する。このとき、2枚の位相画像については、前述のように、元画像を空間方向に位相をずらしてダウンサンプリングすることで生成する。具体的に本例では、図2に例示したように斜め方向のシフトを行うことに対応して、元画像(8k)に対してサンプリング位置を斜め方向に一画素分ずらしたダウンサンプリングを行うことで、2枚の位相画像を生成する。
 このように1フレームおきの入力フレーム画像からそれぞれ生成される位相画像を120Hzの周期で図2のように交互にシフトさせて提示する。
 このような従来のシフト提示によれば、提示画像の空間解像度を空間光変調器6の空間解像度よりも向上させることができ、上記例のように位相画像の空間解像度=4kである場合に、理論上は8kの空間解像度を実現することが可能となる。
 しかしながら、従来のシフト提示では、位相画像のフレームレートを入力画像のフレームレートと同じとしながら、位相画像をそれぞれ1枚の入力フレーム画像のみに基づき生成するものとしていることから、位相画像の生成は、入力画像の1フレームおきに行うようにされている。このことから、従来のシフト提示では、入力画像に対して提示画像のフレームレートが半減する、換言すれば、時間方向の解像度が半減するものとなってしまう。
 また、そもそもシフト提示を行う場合には、位相画像同士が重畳されることに伴う(正確には、視覚的に重畳されて視認されることに伴う)画素開口によるボケに起因した空間解像度の劣化が生じるものとなる。
 図4は、画素開口によるボケを説明するための図である。
 図中において、実線で示す各四角は一方の位相画像の各画素の画素開口(1画素分の領域)を模式的に表し、点線で示す各四角は他方の位相画像の各画素の画素開口を模式的に表している。
 また、図中において、丸印は各画素の画素重心を模式的に表している。なお、シフト提示を行うことで、視覚的には(つまり目の積分効果によって)、画素重心が増える効果が得られる。この点より、空間解像度の向上が図られるものである。
 図示のようにシフト提示を行う場合には、位相画像同士が重畳することになるため、提示画像には、該重畳に起因したボケが画素開口によるボケとして生じる。
 ここで、図中点線で示す方の位相画像について、最も左上に位置する画素を例に、各画素に生じる画素開口によるボケを考える。
 この場合、点線で示す位相画像の画素は、実線で示す位相画像における画素のうち重畳される画素が異なる四つの領域に分割できる。この四つの領域の割合をそれぞれδ、δ、δ、δとおく。また、実線で示す位相画像の画素のうち、割合δによる領域に重畳する画素の画素値をI10とし、割合δによる領域に重畳する画素の画素値をI11とし、割合δによる領域に重畳する画素の画素値をI12とし、割合δによる領域に重畳する画素の画素値をI13とする。さらに、点線で示す位相画像の画素のうち対象とする画素(ここでは最も左上の画素)の画素値をI01とする。

 この場合、画素開口によるボケのモデルは、

 (δ+δ+δ+δ)I01+δ10+δ11+δ12+δ13

 で表すことができる。
 シフト提示を行う場合には、このような画素開口によるボケに起因した空間解像度の劣化が生じるものである。
(1-3.第一実施形態としてのシフト提示手法)

 本実施形態では、シフト提示を行うことによる時間方向の解像度低下と、上記したような画素開口によるボケ等に起因した空間方向の解像度低下との抑制を図るためのシフト提示の手法を提案する。
 図5は、第一実施形態としてのシフト提示手法の説明図である。
 ここでは、入力画像における各フレーム画像に時間方向における位置に応じた符号を付している。具体的に、ここでは、時間方向において連続する三つのフレーム画像について、過去側から未来側にかけてGi1、Gi2、Gi3の符号を付している。これら時間方向に連続する三つのフレーム画像Gi1、Gi2、Gi3を一つのユニットとし、入力画像は該ユニットが時間方向に複数配置されたものであるとして表現している。
 また、入力画像から生成される位相画像についても、同様に時間方向において連続する三つの画像をそれぞれ位相画像Gp1、Gp2、Gp3とし、これら三つの位相画像Gp1、Gp2、Gp3によるユニットが時間方向に複数配置されたものであるとして表現している。
 先ず、本実施形態では、各位相画像Gpは、1枚のフレーム画像Giから生成するものとはせず、時間方向において連続する複数のフレーム画像Giに基づき生成する。具体的に、本例では、従来のシフト提示と同様に、位相画像Gpを第一位置と第一位置から斜め方向に半画素分ずれた第二位置との間で交互に提示する手法を採るものとし、これに対応して、位相画像Gpは時間方向に連続する2枚のフレーム画像Giに基づき生成する。
 具体的に、位相画像Gp1については、フレーム画像Gi1とその1フレーム前のフレーム画像Gi3とに基づき生成する。また、位相画像Gp2については、フレーム画像Gi1とその1フレーム後のフレーム画像Gi2とに基づき生成し、さらに、位相画像Gp3についてはフレーム画像Gi2とその1フレーム後のフレーム画像Gi3とに基づき生成する。このとき、複数のフレーム画像Giに基づく位相画像Gpの生成は、例えば、複数のフレーム画像Giの合成画像をダウンサンプリングする等、複数のフレーム画像の画像内容が引き継がれるような手法によるダウンサンプリング処理によって行う。
 また、フレーム画像Giからのダウンサンプリングは、上記した第一位置に提示する位相画像Gpと第二位置に提示する位相画像Gpとで、サンプリング位相を変えて行う具体的に、第一位置に提示する位相画像Gpに対し、第二位置に提示する位相画像Gpのサンプリング位相は、斜め方向に1画素(フレーム画像Giにおける1画素)分ずれた位相とする。
 ここで、上記のような位相画像Gpの生成処理は、図1に示した位相画像生成部21が行うものである。
 第一実施形態としてのシフト提示では、上記のように生成される位相画像Gpについて、時間方向に連続する二つの位相画像Gpの提示位置を前述した第一位置と第二位置との間で切り替えるようにすることで行う。この場合も、位相画像Gpのシフト周期は、入力画像のフレームレートと一致する周期(本例では120Hz)とする。
 このような位相画像Gpの提示位置のシフトは、図1に示した制御部3がシフト部8を制御することで行う。
 第一実施形態では、上記のような位相画像Gpのシフト提示を行うことを前提とした場合において、提示画像の時空間方向の解像度低下の抑制を図るために、次のような手法を採る。すなわち、同じ元画像に基づき生成された複数の位相画像Gpが時間方向において視覚的に混合された結果が元画像に近づくように、それら複数の位相画像Gpを補正するという手法を採る。
 この補正にあたっては、前述した劣化関数Wの逆関数である逆関数Hを用いる。劣化関数Wは、元画像に対する提示画像の劣化特性を示す関数であり、本例では、図1に示した劣化関数計算部31がカメラ9による撮像画像(投影画像の観察画像)に基づき求める。
 ここで、劣化関数Wは、空間解像度についての劣化特性を示す関数とされる。プロジェクタ装置を用いて位相画像のシフト提示を行う場合において、提示画像に生じる空間解像度の低下の要因としては、シフト提示そのものに起因した要因と、シフト提示以外の要素に起因した要因とに大別できる。
 シフト提示そのものに起因した要因としては、前述した画素開口によるボケを挙げることができる。
 シフト提示以外の要素に起因した要因としては、以下の要因を挙げることができる。
 ・投影面100aにおいて投影光が拡散反射することにより生じるボケ
 ・投影面100aが微細な凹凸を有する(部分的に奥行きの差がある)ことに起因したボケ
 ・レンズや光源等の光学部品が有する光学特性に起因して生じるボケ
 本例において、劣化関数Wは、これらシフト提示に起因した画素開口によるボケと、シフト提示以外の要素に起因したボケの双方による劣化特性を示す関数として求められる。 ここで、先の図4の説明から理解されるように、画素開口によるボケについては、提示画像を観察することなく、視覚的に重畳し合う関係となる位相画像Gpに基づいて計算により求めることができる。
 一方、シフト提示以外の要素に起因したボケについては、投影画像の観察画像に基づいて計算する。ここで、シフト提示以外の要素に起因したボケは、位相画像Gpのシフト提示を行う場合は、第一位置と第二位置とで異なる特性となる。このため、シフト提示以外の要素に起因したボケの特性情報については、第一位置と第二位置ごとに計算する。
 図1に示した劣化関数計算部31は、劣化関数Wを求めるにあたり、先ず、カメラ9による撮像画像に基づき、シフト提示以外の要素に起因したボケの特性情報を計算する。本例において、この特性情報としては、例えばPSF(Point Spread Function:点広がり関数)を計算する。シフト提示以外の要素に起因したボケの特性情報としては、画像のエリアごとにこのPSFを求める。
 上述のように、シフト提示以外の要素に起因したボケの特性は第一位置と第二位置とで異なるので、上記の特性情報を求めるにあたっては、第一位置の投影画像についての観察画像と、第二位置の投影画像についての観察画像とをカメラ9より入力し、第一位置、第二位置それぞれについて、シフト提示以外の要素に起因したボケの特性情報を計算する。
 また、劣化関数計算部31は、画素開口によるボケの特性情報として、第一位置についての特性情報と第二位置についての特性情報を計算する。
 そして、劣化関数計算部31は、第一位置について計算した画素開口によるボケの特性情報とシフト提示以外の要素に起因したボケの特性情報とに基づき、第一位置について、双方のボケによる劣化特性を示す劣化関数Wを計算する。また、劣化関数計算部31は、第二位置について計算した画素開口によるボケの特性情報とシフト提示以外の要素に起因したボケの特性情報とに基づき、第二位置について、双方のボケによる劣化特性を示す劣化関数Wを計算する。
 ここで、以下、第一位置について求められた劣化関数Wを「劣化関数W」と表記し、第二位置について求められた劣化関数Wを「劣化関数W」と表記する。
 図6は、補正関数としての逆関数Hを求めるための手法についての説明図である。
 ここでは、位相画像Gpについての現時刻を時刻tとする。また、フレーム画像Gi側の現時刻を時刻t’とする。この時刻t’は、本例のように第一位置と第二位置の二つの位置間でシフト提示を行う場合には、時刻tの位相画像Gpの生成元である2枚のフレーム画像Giのうち、時間的に前側(過去側)のフレーム画像Giの時刻となる。
 第一実施形態において、補正のための逆関数Hは、下記[式1]で示すコスト関数Qに基づいて求める。

Figure JPOXMLDOC01-appb-M000001
 ただし、Yt’は現在の入力画像(フレーム画像Gi)、Yt’-1は1時刻前の入力画像、Xは現在の出力画像(位相画像Gp)、At-1は1時刻前の出力画像、At+1は1時刻後の出力画像を意味する。
 ここで、図5等を参照して説明した第一実施形態としてのシフト提示は、時刻t-1の出力画像(At-1)と時刻tの出力画像(X)とで、時刻t’-1の入力画像(Yt’-1)を再現し、時刻tの出力画像(X)と時刻t+1の出力画像(At+1)とで、時刻t’の入力画像(Yt’)を再現するものであると捉えることができる。
 [式1]の右辺においては、出力画像At-1に対して劣化関数Wを乗じた結果と、現在の出力画像Xに対し劣化関数Wと逆関数Hとを乗じた結果との和(つまり2画像を合成した成分)を、入力画像Yt’-1から減じる項(以下「第一項」とする)があるが、該第一項において、逆関数Hが劣化関数Wを打ち消すものであれば、入力画像Yt’-1との差(つまり再現すべき画像との差)は小さくなる。
 また、[式1]において、第一項に続く第二項では、出力画像At+1に対して劣化関数Wを乗じた結果と、現在の出力画像Xに対し劣化関数Wと逆関数Hとを乗じた結果との和を入力画像Yt’から減じているが、該第二項においても、逆関数Hが劣化関数Wを打ち消すものであれば、再現すべき画像(この場合は入力画像Yt’)との差は小さくなる。
 このため、本実施形態では、[式1]に示すコスト関数Qを最小化する逆関数Hを、補正のための関数として求める。これは、入力画像としての元画像に基づき生成された複数の画像が時間方向において視覚的に混合された結果が元画像に近づくようにするための逆関数Hを求めることに相当する。
 ここで、[式1]の特徴は、逆関数Hの導出式として、現時刻の入力画像と出力画像(2枚の位相画像Gp)のみでなく、現時刻に隣接する時刻の入力画像と出力画像とを用いた式としている点である。
 この点より、[式1]を用いることで、時間方向の解像度低下の抑制が可能な逆関数Hを求めることができる。
(1-4.処理手順)

 図7のフローチャートを参照し、逆関数Hを求めるための具体的な処理例について説明する。
 ここで、図7に示す処理は、制御部3が前述した劣化関数計算部31及び逆関数計算部32の処理として実行するものである。
 先ず、制御部3はステップS101で、撮像画像に基づき劣化関数W、Wを求める処理を実行する。これは、劣化関数計算部31としての処理である。
 具体的に、ステップS101で制御部3は、カメラ9により第一位置に提示した画像と第二位置に提示した画像についての撮像動作を実行させて、これら第一位置に提示した画像と第二位置に提示した画像についての撮像画像(観察画像)を得、それらの撮像画像に基づき、前述した手法により劣化関数W、Wを求める。
 ステップS101に続くステップS102で制御部3は、出力画像Aと出力画像Xの入力を開始する。すなわち、信号処理部2(位相画像生成部21)に入力画像に基づく位相画像Gpの生成を開始させ、生成された位相画像Gpの入力を開始する。
 ステップS102に続くステップS103で制御部3は、[式1]に基づき最小二乗法により逆関数Hを求める。
 なお、[式1]に基づき逆関数Hを求める手法は最小二乗法に限定されるものではなく、例えばQの値を所定の閾値以下とする逆関数Hを求める等、他の手法を採ることもできる。
 ここで、補正関数としては、ステップS103で求まる逆関数Hを用いることも可能である。ただし、[式1]は、現時刻tの位相画像Gpの提示位置が第一位置と第二位置のうち第二位置であることを前提とした逆関数Hの導出式となっている。厳密には、第一位置と第二位置での劣化関数Wは異なるものであるため、より正確な補正を行うのであれば第一位置についての逆関数H(以下「逆関数Hta」と表記する)を求めることが望ましい。また、このように第一位置の逆関数Htaを用いるのであれば、実際に補正した位相画像Gpの提示を行う際には、出力画像At-1、At+1として逆関数Htaにより補正された画像を提示することになるので、逆関数Htaを考慮していない[式1]で求まる逆関数Hは、厳密には正確でない。
 そこで、本例では、ステップS103に続くステップS104以降の処理を行うものとしている。
 ステップS104で制御部3は、逆関数Hを用いてA’(=W・H(X))を求める。そして、続くステップS105で制御部3は、下記[式2]に基づき、最小二乗法により逆関数Htaを求める。

Figure JPOXMLDOC01-appb-M000002
 ステップS105に続くステップS106で制御部3は、逆関数Htaを用いてA’t-1(=W・Hta(At-1))、A’t+1(=W・Hta(At+1))を求めた上で、続くステップS107で、求めたA’t-1、A’t+1を用いて[式1]に基づき逆関数Hを再度求める。具体的には、[式1]における「W・At-1」にA’t-1を代入し、「W・At+1」にA’t+1を代入して最小二乗法により逆関数Hを再度求める。
 次いで、制御部3はステップS108で、求めた逆関数Hを用いてA’を求め、[式2]に基づき逆関数Htaを再度求める。
 ステップS108に続くステップS109で制御部3は、逆関数H、逆関数Htaが求まった際のそれぞれのQの値が閾値以下か否かを判定する。すなわち、ステップS107で逆関数Hが求まった際のQの値と、ステップS108で逆関数Htaが求まった際のQの値のそれぞれが閾値以下であるか否かを判定する。
 双方のQの値が閾値以下でなければ、制御部3はステップS106に戻る。これにより、双方のQの値が閾値以下となるまで、逆関数Hと逆関数Htaの再計算が行われる。
 一方、双方のQの値が閾値以下であれば、制御部3は図7に示す一連の処理を終える。つまりこれにより、位相画像Gpの補正処理に用いる逆関数Hと逆関数Htaが求まる。
 図示による説明は省略するが、制御部3は、図7の処理で求めた逆関数Hと逆関数Htaを信号処理部2に設定する。
 信号処理部2(補正処理部22)は、設定された逆関数Hと逆関数Htaを用いて、位相画像生成部21としての機能により生成した位相画像Gpについての補正処理を行う。具体的には、提示位置が第一位置となる位相画像Gpについては逆関数Htaを用いた補正処理を行い、提示位置が第二位置となる位相画像Gpについては逆関数Hを用いた補正処理を行う。
 なお、ステップS103で求めた逆関数Hを補正関数として用いる場合、信号処理部2は、各位相画像Gpに対し逆関数Hを用いた補正処理を行う。
<2.第二実施形態>

 続いて、第二実施形態について説明する。
 第一実施形態では、プロジェクタ装置1が逆関数Hの計算機能を有し、該計算機能により計算した逆関数Hを用いて位相画像Gpの補正を行う例を挙げた。
 第二実施形態は、予め計算された逆関数Hを格納したテーブルを用意し、該テーブルから対応する逆関数Hを取得して補正に用いるものである。
 図8は、第二実施形態としてのプロジェクタ装置1Aの構成例を説明するためのブロック図である。
 なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号を付して説明を省略する。
 図示のようにプロジェクタ装置1Aは、図1に示したプロジェクタ装置1と比較して、制御部3に代えて制御部3Aが設けられる点と、メモリ部10が追加された点とが異なる。
 メモリ部10は、例えば不揮発性のメモリ装置として構成され、各種情報の記憶に用いられる。本実施形態において、メモリ部10には、逆関数テーブル10aが記憶されている。
 逆関数テーブル10aは、劣化関数Wの類型ごとに逆関数Hの情報が対応づけられたテーブル情報とされる。ここで、劣化関数Wの類型とは、劣化関数Wが有する特徴に係る類型を意味するものであり、劣化の度合いが近似している劣化関数W同士を同類型に分類したり、或いは、複数の劣化項目のうち劣化の度合いが大きい項目が所定数以上一致している劣化関数同士を同類型に分類したりすること等が考えられる。
 逆関数テーブル10aは、予め分類された劣化関数Wの類型ごとに、対応する逆関数Hの情報が紐付けられた情報とされる。
 制御部3Aは、制御部3と比較して、逆関数計算部32に代えて逆関数選択部33を有する点が異なる。
 逆関数選択部33は、劣化関数計算部31により計算された劣化関数Wに基づき、逆関数テーブル10aから対応する逆関数Hを選択する。そして、選択した逆関数Hを信号処理部2(補正処理部22)に設定する。
 これにより、信号処理部2において、実測された画像劣化特性に対応した適切な逆関数Hを用いた位相画像Gpの補正処理を実行させることができる。
 上記構成によるプロジェクタ装置1Aによれば、このように実測された画像劣化特性に対応した適切な補正処理を実現するにあたり、劣化関数Wに基づき逆関数Hを計算する必要がなくなる。
 従って、補正にあたっての処理負担軽減を図ることができる。
 図9は、上記により説明した第二実施形態としての補正手法を実現するための制御部3Aの処理手順例を示したフローチャートである。
 先ず、制御部3AはステップS201で、撮像画像に基づき劣化関数Wを求める処理を行う。そして、続くステップS202で制御部3Aは、劣化関数Wの類型を判定する処理を行う。すなわち、予め定められた類型の分類基準に従って、劣化関数Wの類型を判定する処理を行う。
 次いで、制御部3AはステップS203で、劣化関数Wの類型に対応する逆関数Hを逆関数テーブル10aから選択する処理を行い、続くステップS204で、選択した逆関数Hを信号処理部2に設定する処理を行い、図9に示す一連の処理を終える。
 ここで、逆関数Hとして逆関数Hと逆関数Htaを用いる場合には、逆関数テーブル10aとしては、劣化関数Wの類型ごとに逆関数Htaが対応づけられ、劣化関数Wの類型ごとに逆関数Hが対応づけられた情報を用いる。
 この場合、制御部3Aは、ステップS201では先のステップS101と同様に劣化関数W、Wを求める処理を行い、ステップS202で劣化関数W、Wごとに類型を判定し、ステップS203では劣化関数Wの類型に対応した逆関数Htaと劣化関数Wの類型に対応した逆関数Hとを逆関数テーブル10aから選択する処理を行う。そして、ステップS204では選択した逆関数Hと逆関数Htaを信号処理部2に設定する処理を行う。
<3.第三実施形態>

 第三実施形態は、第一実施形態では位相画像Gpのシフト提示位置を第一位置と第二位置の二つの位置としていたものを、四つに増やすものである。
 図10は、第三実施形態としてのシフト提示手法の説明図である。
 第三実施形態では、図10Aから図10Dの遷移として示すように、位相画像Gpの提示位置を四つの位置の間でシフトさせる。具体的には、図10Aに示す第一位置での提示を行った後、第一位置から下方向に半画素ずれた位置(第三実施形態では第二位置とする)での提示(図10B)を行い、その後、第二位置から右方向に半画素ずれた位置(第三位置とする)での提示(図10C)を行い、さらにその後、第三位置から上方向に半画素ずれた位置(第四位置とする)での提示(図10D)を行う。第四位置での提示を行った後は、再度、第一位置での提示を行う。
 このように位相画像Gpのシフト提示位置を増やすことで、提示画像の空間解像度のさらなる向上を図ることができる。
 図11は、第三実施形態における入力画像の各フレーム画像Giと位相画像Gpとの時間方向における対応関係を模式的に示した図である。
 第三実施形態においても、説明上、入力画像のフレームレート、位相画像Gpのフレームレートは共に120Hzであるとする。
 第三実施形態では、時間方向において連続する四つの位相画像Gpのシフト提示によって一つのフレーム画像Giを再現する。図中では、或る時刻におけるフレーム画像Gi3が、時間方向において連続する四つの位相画像Gp1、Gp2、Gp3、Gp4のシフト提示により再現され、フレーム画像Gi3の1時刻前のフレーム画像Gi2が、時間方向において連続する四つの位相画像Gp4、Gp1、Gp2、Gp3のシフト提示により再現されることを模式的に示している。
 この場合も各位相画像Gpは、再現対象とするフレーム画像Giを含む時間方向に連続した複数枚のフレーム画像Giに基づき生成する。例えば、同じフレーム画像Gi3を再現対象とする四つの位相画像Gp1からGp4について、位相画像Gp1は、再現対象とするフレーム画像Gi3を含む、時間方向において連続する四つのフレーム画像Gi4、Gi1、Gi2、Gi3に基づき生成する。また、位相画像Gp2は、同フレーム画像Gi3を含む、時間方向において連続する四つのフレーム画像Gi1、Gi2、Gi3、Gi4に基づき生成し、位相画像Gp3は、同フレーム画像Gi3を含む、時間方向において連続する四つのフレーム画像Gi2、Gi3、Gi4、Gi1に基づき生成し、位相画像Gp4は、同フレーム画像Gi3を含む、時間方向において連続する四つのフレーム画像Gi3、Gi4、Gi1、Gi2に基づき生成する。
 図12は、第三実施形態における逆関数Hを求めるための手法についての説明図である。
 先の図6と同様に、位相画像Gpについての現時刻を時刻tとし、フレーム画像Gi側の現時刻を時刻t’とする。この場合、時刻t’は、時刻t-1、t、t+1、t-1の連続する4枚の位相画像Gpが再現対象とするフレーム画像Giの時刻である。
 第三実施形態においては、逆関数Hを下記[式3]で示すコスト関数Qに基づき求める。

Figure JPOXMLDOC01-appb-M000003
 ただし、劣化関数W、W、W、Wは、それぞれ図10で説明した第一位置、第二位置、第三位置、第四位置についての劣化関数Wを意味する。
 この[式3]で示すコスト関数Qを最小化する逆関数Hを、補正のための関数として求める。
 図13は、第三実施形態としてのプロジェクタ装置1Bの構成例を説明するためのブロック図である。
 第一実施形態のプロジェクタ装置1と比較して、プロジェクタ装置1Bでは、信号処理部2に代えて信号処理部2Bが設けられ、制御部3に代えて制御部3Bが設けられた点が異なる。
 図示のように信号処理部2Bは、位相画像生成部21Bと補正処理部22Bとを有する。また、制御部3Bは、劣化関数計算部31Bと逆関数計算部32Bとを有する。
 信号処理部2Bにおいて、位相画像生成部21Bは、入力画像に基づき、第一位置から第四位置の四つの提示位置にそれぞれ対応したサンプリング位相により入力画像に対するダウンサンプリングを行って、第一位置から第四位置の各提示位置に対応した位相画像Gpを生成する。前述のように、各位相画像Gpは、再現対象とするフレーム画像Giを含む時間方向において連続した複数枚のフレーム画像Giに基づき生成する。
 制御部3Bは、シフト部8の制御として、図10で説明したような第一位置から第四位置の間で画像提示位置を循環的に変化させるための制御を行う点が制御部3と異なる。
 また、制御部3Bにおいて、劣化関数計算部31Bは、カメラ9による撮像画像に基づき、第一位置から第四位置の各提示位置に対応した劣化関数W、W、W、Wを計算する。
 逆関数計算部32Bは、劣化関数計算部31Bが計算した劣化関数W、W、W、Wを用いて、[式3]に基づき逆関数Hを求める。そして、求めた逆関数Hを信号処理部2B(補正処理部22B)に設定する。
 補正処理部22Bは、設定された逆関数Hを用いて、位相画像生成部21Bが生成する各位相画像Gpの補正処理を行う。
 ここで、第三実施形態においても、第一実施形態において[式2]を参照して説明したような提示位置ごとの逆関数Hを求める手法を採ることもできる。その場合、制御部3B(逆関数計算部32B)は、先の図7で説明した手法と同様の手法により、逆関数Hに基づき別の提示位置についての逆関数Hを順次求めていく処理を行う。この際、図7で説明した手法と同様に、Qの値が所定の閾値以下となることを条件として各位置の逆関数Hの導出演算を反復して行うようにすることもできる。
 なお、上記では、第一実施形態のようにプロジェクタ装置1Bが逆関数Hの計算を行う例を挙げたが、第四実施形態においても、第二実施形態のように逆関数Hを劣化関数Wの類型ごとに格納したテーブルから劣化関数Wの類型に対応する逆関数Hを取得する構成を採ることもできる。
<4.第四実施形態>

 第四実施形態は、画像中における動きのある領域とそうでない領域とで、異なる逆関数Hを使い分けるものである。
 図14は、動物体領域Rmと背景領域Rsの説明図である。
 図示の例では、馬としての被写体が画像中における動物体Omであり、該動物体Omを含む画像領域が動物体領域Rmとして検出される。画像中における動物体Omの領域は、フレーム画像間での画像差分等に基づき検出可能である。動物体Omの検出領域を囲む領域を動物体領域Rmとして定める。
 画像中において、動物体領域Rm以外の領域が、背景領域Rsである。
 第四実施形態では、位相画像Gpにおける動物体領域Rmと背景領域とで、異なる逆関数Hを用いて補正処理を行う。具体的に、動物体領域Rmについては、空間方向の解像度低下の補正よりも時間方向の解像度低下の補正を優先する計算手法により計算された逆関数Hを用いて補正処理を行い、背景領域Rsについては、時間方向の解像度低下の補正よりも空間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行う。
 第四実施形態において、動物体領域Rm用の逆関数Hと、背景領域Rs用の逆関数Hは、下記[式4]に基づき求める。

Figure JPOXMLDOC01-appb-M000004
 ただし、γ、γはそれぞれ重み係数を表す。なお、[式4]において、劣化関数Wの符号を「W’」としているのは、第四実施形態では劣化関数WとしてW、W以外の劣化関数が用いられ得るためである。
 背景領域Rs用の逆関数Hについては、[式4]として、例えばγ=0、γ=1とする等、現時刻t’側の重みであるγを時刻t’-1側の重みであるγよりも大きくした式を用いて、Qの値を最小化する逆関数Hを求める。このとき、劣化関数W’、W’については、それぞれ劣化関数W、Wを用いる。
 [式4]において、現時刻t’側の重みであるγの方を大きくすることで、現時刻側が優先され、時間方向の解像度低下の抑制に係る作用が薄れる。このため、時間方向の解像度低下の抑制よりも空間方向の解像度低下の抑制を優先した逆関数Hが求まる。
 一方、動物体領域Rm用の逆関数Hについては、[式4]として、劣化関数W’、W’にそれぞれ単位行列を代入した式を用いてQの値を最小化する逆関数Hを求める。ここで、単位行列は、空間方向の画質劣化が無いことを示す劣化関数Wと換言することができるものである。この場合、重み係数γ、γは共に「1」とする。 
 [式4]において、劣化関数W’、W’にそれぞれ単位行列を代入することで、空間方向の解像度低下の抑制に係る作用がなくなる。このため、時間方向における解像度低下の抑制に係る作用が高められ、空間方向の解像度低下の抑制よりも時間方向の解像度低下の抑制を優先した逆関数Hが求まる。
 なお、上記では時間方向の解像度低下の抑制(補正)を優先させる場合に空間方向の画質劣化が無いことを示す劣化関数を用いるものとしたが、該画質劣化が少ないことを示す劣化関数(換言すれば、所定量以下のボケがあることを示す劣化関数)を用いることもできる。
 図15は、第四実施形態としてのプロジェクタ装置1Cの構成例を説明するためのブロック図である。
 プロジェクタ装置1との相違点は、動物体領域検出部15及びメモリ部10が追加されると共に、信号処理部2に代えて信号処理部2Cが設けられ、制御部3に代えて制御部3Cが設けられた点である。
 動物体領域検出部15は、入力画像から動物体領域Rmを検出する。
 信号処理部2Cは、補正処理部22に代えて補正処理部22Cを有する点が信号処理部2と異なる。
 制御部3Cは、逆関数計算部32に代えて逆関数計算部32Cを有し、逆関数設定部34が追加された点が制御部3と異なる。
 制御部3Cにおいて、逆関数計算部32Cは、劣化関数計算部31により計算された劣化関数W、Wに基づき、前述した[式4]を用いた手法により動物体領域Rm用の逆関数H、すなわち時間方向の解像度低下の補正を優先した逆関数Hと、背景領域Rs用の逆関数H、すなわち空間方向の解像度低下の補正を優先した逆関数Hとを求める。
 制御部3Cは、このように求めた動物体領域Rm用の逆関数H、背景領域Rs用の逆関数Hをメモリ部10にそれぞれ動物体用関数情報10b、背景用関数情報10cとして記憶させる処理を行う。
 位相画像Gpのシフト提示を行う際には、制御部3Cにおける逆関数設定部34が、メモリ部10にそれぞれ動物体用関数情報10b、背景用関数情報10cとして記憶された動物体領域Rm用の逆関数Hと、背景領域Rs用の逆関数Hとを読み出して信号処理部2C(補正処理部22C)に設定する。
 信号処理部2Cにおいて、補正処理部22Cは、動物体領域検出部15が検出した動物体領域Rmの情報(領域位置及び範囲を示す情報)に基づき、位相画像Gpにおける動物体領域Rmと背景領域Rsとでそれぞれ異なる逆関数Hを用いた補正処理を行う。具体的に、補正処理部22Cは、動物体領域Rmが検出された場合は、位相画像Gpにおける動物体領域Rmについて動物体領域Rm用の逆関数Hを用いた補正処理を行うと共に、背景領域Rsについては背景領域Rs用の逆関数Hを用いた補正処理を行う。
 なお、動物体領域Rmが非検出の場合には、[式1]に基づき求めた逆関数Hを用いて位相画像Gpに対する補正処理を行うことが考えられる。
 ここで、第四実施形態においても、第一実施形態において[式2]を参照して説明したような提示位置ごとの逆関数Hを求める手法を採ることもできる。つまりその場合、制御部3C(逆関数計算部32C)は、動物体領域Rm用、背景領域Rs用それぞれの逆関数Hとして、提示位置ごとの逆関数Hを計算する。
 また、第四実施形態は、第三実施形態のように提示位置を四つとする場合にも適用可能なものである。
<5.第五実施形態>

 第五実施形態は、パララックスバリア方式による立体画像の表示装置への適用例である。
 図16は、パララックスバリア方式による立体画像表示についての説明図である。
 周知のようにパララックスバリア方式では、例えば液晶ディスプレイ等のディスプレイ40の前面側(表示面側)にパララックスバリア(parallax barrier)41が配置される。パララックスバリアは 等しい幅のスリットと遮光部が対になって等間隔に並んだ縦光子状のマスク部材である。
 パララックスバリア方式では、ディスプレイ40の横方向(水平方向)において、左目画像を表示するための画素Pxの列(図中、L1からL4と示す)と、右目画像を表示するための画素Pxの列(図中、R1からR4と示す)とが交互に配置されている。本例では、左目画像、右目画像それぞれの表示用の列は各一列とされている。
 パララックスバリア方式では、パララックスバリア41により、図示のように左目画像表示用の列からの画像光は、観察者の左目位置、右目位置のうち左目位置にのみ導かれ、右目画像表示用の列からの画像光は右目位置のみに導かれる。これにより、観察者の左目には左目画像のみが視認され、右目には右目画像のみが視認され、裸眼立体画像表示が実現される。
 このようなパララックスバリア方式の立体画像表示では、左目画像、右目画像はそれぞれ一列おきの画像となるため、空間方向の解像度低下が生じる。このため、パララックスバリア方式において、右目画像、左目画像のそれぞれについて、元画像に対し空間方向の位相をずらしてサンプリングした複数の位相画像を時間方向で切り替えて表示することで、前述したシフト提示と同様の原理により、空間解像の低下抑制を図ることが考えられる。
 図17は、このように右目画像、左目画像それぞれについて複数の位相画像を時間方向において切り替えて表示する手法の具体例を説明するための図である。
 例えば、偶数番目のフレーム期間においては、右目画像(元画像:入力画像)について、例えば偶数列の画素のみをサンプリングした画像を右目位相画像として生成すると共に、左目画像(元画像:入力画像)について、例えば偶数列の画素のみをサンプリングした画像を左目位相画像として生成する。そして、偶数番目のフレーム期間の画像表示としては、上記のように生成した右目位相画像の各列の画像をディスプレイ40における右目画像表示用の列にそれぞれ表示させ、左目位相画像の各列の画像をディスプレイ40における左目画像表示用の列にそれぞれ表示させる。
 一方、奇数番目のフレーム期間においては、右目画像について、例えば奇数列の画素のみをサンプリングした画像を右目位相画像として生成すると共に、左目画像について、例えば奇数列の画素のみをサンプリングした画像を左目位相画像として生成する。そして、奇数番目のフレーム期間の画像表示としては、上記のように生成した右目位相画像の各列の画像をディスプレイ40における右目画像表示用の列にそれぞれ表示させ、左目位相画像の各列の画像をディスプレイ40における左目画像表示用の列にそれぞれ表示させる。
 なお、偶数番目のフレーム期間に元画像の奇数列をサンプリングし、奇数番目のフレーム期間に元画像の偶数列をサンプリングしてもよい。
 このように元画像に対し空間方向の位相をずらしてサンプリングした複数の位相画像を時間方向で切り替えて表示することによっては、シフト提示を行う場合と同様に、時間方向における解像度低下を招来する。
 このため、第一実施形態の場合と同様に、[式1]に基づき求めた逆関数Hを用いて、右目位相画像と左目位相画像のそれぞれを補正することが有効である。
 図18は、このような右目位相画像と左目位相画像のそれぞれの補正処理を行う第四実施形態としての表示装置1Dの構成例を示したブロック図である。
 図示のように表示装置1Dは、パララックスバリア方式による立体画像の表示のため、ディスプレイ40と、その前面に配置されたパララックスバリア41とを備えている。
 また、表示装置1Dは、信号処理部2D、制御部3D、及びメモリ部10を備えている。
 信号処理部2Dは、右目位相画像生成部21R、左目位相画像生成部21L、補正処理部22D、及び合成部23を有する。
 右目位相画像生成部21Rは、右目画像の入力画像に基づき、前述した右目位相画像を生成する。また、左目位相画像生成部21Lは、左目画像の入力画像に基づき、前述した左目位相画像を生成する。前述のように、本例において右目位相画像、左目位相画像については、それぞれ偶数番目のフレーム期間においては入力画像における偶数列の画素のみをサンプリングした画像として生成し、奇数番目のフレーム期間においては入力画像における奇数列の画素のみをサンプリングした画像として生成する。
 制御部3Dは、劣化関数取得部35と逆関数選択部33Dとを有する。劣化関数取得部35は、右目位置、左目位置のそれぞれにおいて提示される画像についての劣化関数Wを取得する。ここで、これら右目位置、左目位置それぞれの提示画像についての劣化関数Wは、例えば、ディスプレイ40やパララックスバリア41の設計値等から予め計算により求められ表示装置1Dにおいて記憶されたものを取得することが考えられる。或いは、第一実施形態等のように、カメラ9を設け、撮像画像に基づいて計算により求めることも考えられる。
 ここで、この場合のメモリ部10には、逆関数テーブル10dが記憶されている。逆関数テーブル10dは、右目、左目ごとに、劣化関数Wの類型ごとの逆関数Hが格納された情報とされる。
 この場合の逆関数Hは、右目位置の提示画像についての劣化関数W、左目位置の提示画像についての劣化関数Wを用いて、[式1]に基づき求められたものである。
 制御部3Dにおいて、逆関数選択部33Dは、劣化関数取得部35が取得した右目位置の提示画像についての劣化関数W、左目位置の提示画像についての劣化関数Wに基づき、メモリ部10における逆関数テーブル10dから対応する逆関数Hをそれぞれ選択する。具体的に本例では、劣化関数取得部35が取得した右目位置の提示画像についての劣化関数W、左目位置の提示画像についての劣化関数Wについて、それぞれ類型を判定し、判定した類型に対応する右目側の逆関数H、左目側の逆関数Hをそれぞれ選択する。
 逆関数選択部33Dは、選択した右目側の逆関数H、左目側の逆関数Hを信号処理部2D(補正処理部22D)に設定する。
 信号処理部2Dにおいて、補正処理部22Dは、設定された右目側の逆関数Hを用いて右目位相画像生成部21Rが生成する右目位相画像の補正処理を行うと共に、設定された左目側の逆関数Hを用いて左目位相画像生成部21Lが生成する左目位相画像の補正処理を行う。
 合成部23は、このように補正処理部22Dによって補正処理が施された右目位相画像と左目位相画像とを入力し、右目位相画像の各列の画像をディスプレイ40における右目画像表示用の列にそれぞれ表示させ、左目位相画像の各列の画像をディスプレイ40における左目画像表示用の列にそれぞれ表示させるための表示画像データを生成し、ディスプレイ40に出力する。
 上記のような表示装置1Dにより、パララックスバリア方式による立体画像提示において、空間方向の解像度低下抑制と時間方向の解像度低下抑制との両立を図ることができる。
<6.変形例>

 ここで、実施形態としてはこれまでに説明した具体例に限定されるものでなく、多様な変形例としての構成を採り得るものである。
 例えば、実施形態としての技術、すなわち、[式1]や[式3]に基づく逆関数Hの導出や逆関数Hを用いた信号補正処理の技術は、カラー画像としての元画像を複数色の画像に色分解して得られる複数の画像を時分割表示してカラー画像を再現する構成にも適用可能である。
 図19は、実施形態としての技術をこのような時分割カラー表示を行う場合に適用した変形例としてのプロジェクタ装置1Eの構成例を説明するためのブロック図である。
 図1に示したプロジェクタ装置1との相違点は、光学系においてカラーホイール45とカラーホイール45を回転駆動する駆動部46とが追加され、またシフト部8に代えてミラー47が設けられた点と、信号処理部2に代えて信号処理部2Eが設けられ、制御部3に代えて制御部3Eが設けられた点が異なる。
 カラーホイール45には、周方向においてR(赤色)、G(緑色)、B(青色)のカラーフィルタが配置され、カラーホイール45が回転することで提示画像の色をR,G,B,R,・・・の順で循環的に切り替えることが可能とされている。
 信号処理部2Eは、各色画像生成部24と補正処理部22Eとを有する。
 各色画像生成部24は、カラー画像としての入力画像を複数色の画像に色分解して複数の色画像を生成する。具体的に、本例では、カラー画像としての入力画像をR,G,Bに色分解して、R,G,Bの各色画像を生成する。
 後述するように、本例では、R,G,Bの各色画像をR,G,B,R,・・・の順で循環的に切り替えて提示する。このため各色画像生成部24は、カラー画像としての入力画像から各色画像をR,G,B,R,・・・の順で循環的に切り替えて生成する。
 なお、各色画像生成部24、補正処理部22Eの詳細については後述する。
 制御部3Eは、劣化関数計算部31Eと逆関数計算部32Eとを有する。
 また、制御部3Eは、駆動部46の制御を行う。
 劣化関数計算部31Eは、カメラ9による撮像画像に基づき、劣化関数Wとして、Rの提示画像(提示色がRの提示画像)についての劣化関数Wと、Gの提示画像(提示色がGの提示画像)についての劣化関数Wと、Bの提示画像(提示色がBの提示画像)についての劣化関数Wとをそれぞれ計算する。このために、劣化関数計算部31Eは、カメラ9によりRの提示画像についての撮像画像と、Gの提示画像についての撮像画像と、Bの提示画像についての撮像画像とが得られるように制御を行い、これら各色の提示画像の撮像画像に基づき、各色の提示画像についての劣化関数Wを計算する。
 逆関数計算部32Eは、劣化関数計算部31Eが計算した各色の提示画像についての劣化関数Wを用いて、後述する[式5]に基づき補正処理部22Eが色画像の補正処理に用いる逆関数Hを生成する。
 図20は、本変形例における色画像の時分割提示手法についての説明図である。
 この場合、入力画像(カラー画像)は画像解像度=4k8k、フレームレート=120Hzであり、R,G,Bの色画像の画像解像度は入力画像と同じ4k8k、また色画像の提示切り替え周期は120Hzである例としている。
 本変形例では、時間方向に連続する三つの色画像によって1枚の入力画像を再現する手法を採る。
 図21に示すように、各色画像については、その色画像が再現対象とする入力フレーム画像を含む時間方向に連続した複数枚の入力フレーム画像に基づき生成する。具体的に、本例において色画像は、再現対象とする入力フレーム画像と、該入力フレーム画像の1フレーム前、後の入力フレーム画像の計3枚の入力フレーム画像に基づいて生成する。
 上記のような各色画像の時分割切り替え提示を行う前提において、色画像の補正に用いる逆関数Hは、下記[式5]に示すコスト関数Qに基づき求める。

Figure JPOXMLDOC01-appb-M000005
 [式5]において、時刻t’はカラー画像としての入力画像の現時刻、時刻tは色画像の現時刻をそれぞれ意味する(図20参照)。また、劣化関数W、W、Wは、劣化関数計算部31Eが計算したR,G,B各色の提示画像についての劣化関数Wを意味する。
 図19に示した逆関数計算部32Eは、劣化関数計算部31Eが計算したR,G,B各色の提示画像についての劣化関数W、W、Wを用いて、[式5]で示すコスト関数Qを最小化する逆関数Hを、補正のための逆関数Hとして求める。
 制御部3Eは、このように逆関数計算部32Eが計算した逆関数Hを信号処理部2E(補正処理部22E)に設定する。
 信号処理部2Eにおいて、補正処理部22Eは、各色画像生成部24が循環的に生成するR,G,Bの各色画像に対し、設定された逆関数Hを用いた補正処理を行う。
 これにより、R,G,Bの各色画像を時間方向において視覚的に混合して提示する場合において、提示画像に生じる時間方向の解像度低下の抑制を図ることができる。
 なお、上記では色分解の手法としてR,G,Bの三原色に分離する手法を採る場合を例示したが、例えばY(イエロー),M(マゼンタ,C(シアン),K(ブラック)の4色分解を行う場合にも本変形例は適用可能である。
 ここで、入力画像や位相画像、色画像についてのフレームレートや画像解像度の数値については、これまでの説明で例示した数値に限定されない。例えば、入力画像の画像解像度=2k4kに対し、位相画像Gpの画像解像度=Full HD等であってもよい。
 また、これまでの説明において、カメラ9については、プロジェクタ装置に備えられた例を挙げたが、カメラ9はプロジェクタ装置に外付けとされてもよい。
<7.実施形態のまとめ>

 以上説明してきたように実施形態の信号処理装置(プロジェクタ装置1,1A,1B,1C,1E、又は表示装置1D)は、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を複数の画像に施す補正処理部(同22,22B,22C,22D,22E)を備えたものである。
 上記構成によれば、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向の解像度低下について、補正を行うことが可能とされる。
 従って、元画像に基づき生成された複数の画像を時間方向において視覚的に混合して提示する場合において、提示画像に生じる時間方向の解像度低下の抑制を図ることができる。
 また、実施形態としての信号処理装置においては、補正処理部は、複数の画像が時間方向において視覚的に混合された結果が元画像に近づくように補正処理を行っている([式1]から[式5]を参照)。
 これにより、提示画像に生じる光学的要因等による画質劣化をキャンセルするように補正処理を行うことが可能となる。
 従って、提示画像の画質劣化抑制を図ることができる。
 さらに、実施形態としての信号処理装置においては、元画像に対する提示画像の劣化特性を示す劣化関数を取得する劣化関数取得部(劣化関数計算部31,31B,31E、劣化関数取得部35)と、劣化関数取得部が取得した劣化関数に応じた補正関数を取得する補正関数取得部(逆関数計算部32,32B,32C,32E、逆関数選択部33,33D)と、を備え、補正処理部は、補正関数取得部が取得した補正関数に基づいて補正処理を行っている。
 これにより、実際の画像提示環境で生じる劣化の特性に応じた補正処理を行うことが可能となる。
 従って、提示画像の画質劣化抑制を図ることができる。
 さらにまた、実施形態としての信号処理装置においては、補正関数取得部(逆関数選択部33,33D)は、劣化関数の類型ごとに記憶された複数の補正関数のうちから、劣化関数取得部が取得した劣化関数の類型に応じた補正関数を選択して取得している。
 上記構成によれば、予め用意された複数の補正関数のうちから劣化関数取得部が取得した劣化関数の類型に応じた補正関数を取得して補正処理に用いればよく、補正関数を劣化関数に基づいて計算して取得する必要がなくなる。
 従って、補正にあたっての処理負担軽減を図ることができる。
 また、実施形態としての信号処理装置(プロジェクタ装置1,1A,1B,1C,表示装置1D)においては、補正処理部(同22,22B,22C,22D)は、補正処理として、空間方向に位相をずらしてサンプリングされた複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる空間方向及び時間方向それぞれの解像度低下を補正する処理を行っている。
 元画像に基づく複数の画像として、空間方向に位相をずらしてサンプリングされた複数の画像を時間方向において視覚的に混合して提示する場合には、提示画像において、空間方向及び時間方向それぞれの解像度低下が生じる。そこで、これら空間方向及び時間方向それぞれの解像度低下を補正する処理を行う。
 これにより、空間方向に位相をずらしてサンプリングされた複数の画像を時間方向において視覚的に混合して提示する場合において、提示画像に生じる時空間方向の解像度低下の抑制を図ることができる。
 さらに、実施形態としての信号処理装置(プロジェクタ装置1,1A,1B,1C)においては、補正処理部(同2,2B,2C)は、提示位置が画素未満単位でシフトされる複数の画像に対して補正処理を施している。
 元画像に基づき生成した複数の画像を画素未満単位でシフトさせて提示することで空間解像度の向上を図る手法を採った場合には、異なる画像が重畳されることに伴う提示画像のボケ(画素開口によるボケ)が生じ、該ボケに起因した空間解像度の低下を招来する。そこで、提示位置が画素未満単位でシフトされる複数の画像に対して、空間方向及び時間方向それぞれの解像度低下を補正する処理を行う。
 これにより、複数の画像を画素未満単位でシフトさせて提示することで空間解像度の向上を図る手法を採る場合において、提示画像に生じる時空間方向の解像度低下の抑制を図ることができる。
 さらにまた、実施形態としての信号処理装置(表示装置1D)においては、元画像は、パララックスバリア方式による立体画像提示に用いられる左目用画像と右目用画像とされ、補正処理部(同22D)は、左目用画像を元画像として生成された複数の画像と右目用画像を元画像として生成された複数の画像のそれぞれについて補正処理を行っている。
 これにより、パララックスバリア方式による立体画像提示に用いる左目用画像、右目用画像のそれぞれについて、空間方向に位相をずらしてサンプリングされた複数の画像を時間方向に視覚的に混合させて提示することにより左目用画像、右目用画像それぞれの空間解像度低下の抑制を図る場合において、複数の画像を時間方向に混合して提示することに伴う時間方向の解像度低下の抑制を図ることが可能となる。
 従って、パララックスバリア方式による立体画像提示において、空間方向の解像度低下抑制と時間方向の解像度低下抑制との両立を図ることができる。
 また、実施形態としての信号処理装置(プロジェクタ装置1C)においては、補正処理部(同22C)は、複数の画像について、動物体領域と動物体の背景領域とで異なる補正関数を用いて補正処理を行っている。
 これにより、動物体領域については動物体領域に適した補正関数による補正を行い、背景領域については背景領域に適した補正関数による補正を行うことが可能となる。
 従って、動物体領域と背景領域とについてそれぞれ適切な補正処理を施すことができる。
 さらに、実施形態としての信号処理装置においては、補正処理部は、動物体領域についての補正処理を、空間方向の解像度低下の補正よりも時間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行い、背景領域についての補正処理を、時間方向の解像度低下の補正よりも空間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行っている。
 これにより、動物体領域については動解像度(動画解像度)の向上が図られるようにし、背景領域については空間解像度の向上が図られるようにすることが可能となる。
 従って、動物体領域と背景領域とを有する画像について、動物体領域における動解像度の向上と背景領域における空間解像度の向上との両立を図ることができる。
 さらにまた、実施形態としての信号処理装置(プロジェクタ装置1E)においては、複数の画像は、カラー画像としての元画像を複数色の画像に色分解して生成された画像とされ、補正処理部(同22E)は、複数色の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を行っている。
 カラー画像としての元画像を複数色の画像に色分解して生成された複数の画像を時間方向において視覚的に混合して提示する場合、提示画像には時間方向の解像度低下が生じる。そこで、時間方向における解像度低下の補正処理を前記複数の画像に施す。
 これにより、元画像を色分解して生成された複数の画像を時間方向において視覚的に混合して提示する場合において、提示画像に生じる時間方向の解像度低下の抑制を図ることができる。
 また、実施形態としての信号処理方法は、元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を複数の画像に施す信号処理方法である。
 このような実施形態としての信号処理方法によっても、上記した実施形態としての信号処理装置と同様の作用及び効果を得ることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<8.本技術>

 なお本技術は以下のような構成も採ることができる。
(1)
 元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す補正処理部を備えた
 信号処理装置。
(2)
 前記補正処理部は、
 前記複数の画像が時間方向において視覚的に混合された結果が前記元画像に近づくように前記補正処理を行う
 前記(1)に記載の信号処理装置。
(3)
 前記元画像に対する前記提示画像の劣化特性を示す劣化関数を取得する劣化関数取得部と、
 前記劣化関数取得部が取得した前記劣化関数に応じた補正関数を取得する補正関数取得部と、を備え、
 前記補正処理部は、前記補正関数取得部が取得した前記補正関数に基づいて前記補正処理を行う
 前記(1)又は(2)に記載の信号処理装置。
(4)
 前記補正関数取得部は、
 前記劣化関数の類型ごとに記憶された複数の前記補正関数のうちから、前記劣化関数取得部が取得した前記劣化関数の類型に応じた前記補正関数を選択して取得する
 前記(3)に記載の信号処理装置。
(5)
 前記補正処理部は、
 前記補正処理として、空間方向に位相をずらしてサンプリングされた前記複数の画像が時間方向において視覚的に混合されて提示される際に前記提示画像に生じる空間方向及び時間方向それぞれの解像度低下を補正する処理を行う
 前記(1)から(4)の何れかに記載の信号処理装置。
(6)
 前記補正処理部は、
 提示位置が画素未満単位でシフトされる前記複数の画像に対して前記補正処理を施す
 前記(5)に記載の信号処理装置。
(7)
 前記元画像は、パララックスバリア方式による立体画像提示に用いられる左目用画像と右目用画像とされ、
 前記補正処理部は、
 前記左目用画像を前記元画像として生成された前記複数の画像と前記右目用画像を前記元画像として生成された前記複数の画像のそれぞれについて前記補正処理を行う
 前記(5)に記載の信号処理装置。
(8)
 前記補正処理部は、
 前記複数の画像について、動物体領域と動物体の背景領域とで異なる補正関数を用いて前記補正処理を行う
 前記(5)から(7)の何れかに記載の信号処理装置。
(9)
 前記補正処理部は、
 前記動物体領域についての前記補正処理を、空間方向の解像度低下の補正よりも時間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行い、前記背景領域についての前記補正処理を、時間方向の解像度低下の補正よりも空間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行う
 前記(8)に記載の信号処理装置。
(10)
 前記複数の画像は、カラー画像としての前記元画像を複数色の画像に色分解して生成された画像とされ、
 前記補正処理部は、
 前記複数色の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を行う
 前記(1)から(4)の何れかに記載の信号処理装置。
(11)
 元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す
 信号処理方法。
1,1A,1B,1C,1E プロジェクタ装置
1D 表示装置
2,2B,2C,2D,2E 信号処理部
21,21B 位相画像生成部
21R 右目位相画像生成部
21L 左目位相画像生成部
22,22B,22C,22D,22E 補正処理部
3,3A,3B,3C,3D,3E 制御部
23 合成部
24 各色画像生成部
31,31B,31E 劣化関数計算部
32,32B,32C,32E 逆関数計算部
33,33D 逆関数選択部
34 逆関数設定部
35 劣化関数取得部
6 空間光変調器
8 シフト部
9 カメラ
10 メモリ部
10a,10d 逆関数テーブル
10b 動物体用関数情報
10c 背景用関数情報
15 動物体領域検出部
40 ディスプレイ
41 パララックスバリア
42 合成部
45 カラーホイール
46 駆動部
47 ミラー
Om 動物体
Rm 動物体領域
Rs 背景領域
100 投影対象物
100a 投影面

Claims (11)

  1.  元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す補正処理部を備えた
     信号処理装置。
  2.  前記補正処理部は、
     前記複数の画像が時間方向において視覚的に混合された結果が前記元画像に近づくように前記補正処理を行う
     請求項1に記載の信号処理装置。
  3.  前記元画像に対する前記提示画像の劣化特性を示す劣化関数を取得する劣化関数取得部と、
     前記劣化関数取得部が取得した前記劣化関数に応じた補正関数を取得する補正関数取得部と、を備え、
     前記補正処理部は、前記補正関数取得部が取得した前記補正関数に基づいて前記補正処理を行う
     請求項1に記載の信号処理装置。
  4.  前記補正関数取得部は、
     前記劣化関数の類型ごとに記憶された複数の前記補正関数のうちから、前記劣化関数取得部が取得した前記劣化関数の類型に応じた前記補正関数を選択して取得する
     請求項3に記載の信号処理装置。
  5.  前記補正処理部は、
     前記補正処理として、空間方向に位相をずらしてサンプリングされた前記複数の画像が時間方向において視覚的に混合されて提示される際に前記提示画像に生じる空間方向及び時間方向それぞれの解像度低下を補正する処理を行う
     請求項1に記載の信号処理装置。
  6.  前記補正処理部は、
     提示位置が画素未満単位でシフトされる前記複数の画像に対して前記補正処理を施す
     請求項5に記載の信号処理装置。
  7.  前記元画像は、パララックスバリア方式による立体画像提示に用いられる左目用画像と右目用画像とされ、
     前記補正処理部は、
     前記左目用画像を前記元画像として生成された前記複数の画像と前記右目用画像を前記元画像として生成された前記複数の画像のそれぞれについて前記補正処理を行う
     請求項5に記載の信号処理装置。
  8.  前記補正処理部は、
     前記複数の画像について、動物体領域と動物体の背景領域とで異なる補正関数を用いて前記補正処理を行う
     請求項1に記載の信号処理装置。
  9.  前記補正処理部は、
     前記動物体領域についての前記補正処理を、空間方向の解像度低下の補正よりも時間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行い、前記背景領域についての前記補正処理を、時間方向の解像度低下の補正よりも空間方向の解像度低下の補正を優先する計算手法により計算された補正関数を用いて行う
     請求項8に記載の信号処理装置。
  10.  前記複数の画像は、カラー画像としての前記元画像を複数色の画像に色分解して生成された画像とされ、
     前記補正処理部は、
     前記複数色の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を行う
     請求項1に記載の信号処理装置。
  11.  元画像に基づき生成された複数の画像が時間方向において視覚的に混合されて提示される際に提示画像に生じる時間方向における解像度低下の補正処理を前記複数の画像に施す
     信号処理方法。
PCT/JP2021/040638 2020-11-11 2021-11-04 信号処理装置、信号処理方法 WO2022102514A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-188230 2020-11-11
JP2020188230A JP2022077388A (ja) 2020-11-11 2020-11-11 信号処理装置、信号処理方法

Publications (1)

Publication Number Publication Date
WO2022102514A1 true WO2022102514A1 (ja) 2022-05-19

Family

ID=81601231

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040638 WO2022102514A1 (ja) 2020-11-11 2021-11-04 信号処理装置、信号処理方法

Country Status (2)

Country Link
JP (1) JP2022077388A (ja)
WO (1) WO2022102514A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007535705A (ja) * 2004-04-30 2007-12-06 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 全ての画像サブフレームロケーションよりも少ない画像サブフレームロケーションへの最下位カラー画像ビットプレーンの表示方法
JP2018121213A (ja) * 2017-01-25 2018-08-02 株式会社リコー 画像処理装置、画像投影装置、および画像処理方法
JP2019211677A (ja) * 2018-06-06 2019-12-12 キヤノン株式会社 投影装置及びその制御方法並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007535705A (ja) * 2004-04-30 2007-12-06 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 全ての画像サブフレームロケーションよりも少ない画像サブフレームロケーションへの最下位カラー画像ビットプレーンの表示方法
JP2018121213A (ja) * 2017-01-25 2018-08-02 株式会社リコー 画像処理装置、画像投影装置、および画像処理方法
JP2019211677A (ja) * 2018-06-06 2019-12-12 キヤノン株式会社 投影装置及びその制御方法並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INOUE MASUTAKA, MASUMOTO YOSHIHIRO, NOGUCHI TOSHIYUKI, AKEYAMA TAMOTSU, MASHITANI KEN, ABE TAKAAKI: "Core Technology of 4K Projector to Create a Next-Generation Immersive Image Quality", PANASONIC TECHNICAL JOURNAL - SPECIAL FEATURE: APPLIANCE PRODUCTS AND TECHNOLOGIES THAT CREATE CUSTOMER VALUE, vol. 61, no. 2, 16 November 2015 (2015-11-16), pages 31 - 36, XP055931022 *

Also Published As

Publication number Publication date
JP2022077388A (ja) 2022-05-23

Similar Documents

Publication Publication Date Title
US7808527B2 (en) Image pickup apparatus and method, image processing apparatus and method, image display system, recording medium and program
JP4777675B2 (ja) 画像処理装置、画像表示装置、画像処理方法、その方法をコンピュータに実行させるプログラム、および記録媒体
JP5701785B2 (ja) カメラモジュール
US8988591B2 (en) Solid-state imaging device, camera module, and focus adjustment method of camera module
EP1868373A2 (en) Apparatus and method for generating images
JP4827783B2 (ja) 画像表示装置
JP2007043274A (ja) 投写画像の位置調整方法
WO2013073028A1 (ja) 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
WO2018211588A1 (ja) 撮像装置、撮像方法及びプログラム
US20170155895A1 (en) Generation of drive values for a display
JP5781021B2 (ja) レンズ装置および撮像装置
JP6718432B2 (ja) オートステレオスコピックモニタ上に三次元シーンを表示する方法
JP2009157733A (ja) 画像歪み補正方法、画像歪み補正装置及び画像形成装置
WO2022102514A1 (ja) 信号処理装置、信号処理方法
WO2016103481A1 (ja) 撮像装置の駆動方法、信号処理方法
JP2006246295A (ja) 撮像装置
JP2009207128A (ja) 表示装置及び表示方法
JP4985672B2 (ja) 画像表示システム
JP4138451B2 (ja) 表示装置及び方法
JP5062196B2 (ja) 撮像装置および方法、並びにプログラム
JPH0795595A (ja) カラー撮像装置
JP2006201544A (ja) 画像表示装置、画像表示方法及び電子機器
JP5691440B2 (ja) 撮像装置
JP2006041795A (ja) 画像表示装置
JP5062195B2 (ja) 撮像装置および方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21891760

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21891760

Country of ref document: EP

Kind code of ref document: A1