WO2021019898A1 - 制御装置、投影装置、制御方法、及び制御プログラム - Google Patents

制御装置、投影装置、制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2021019898A1
WO2021019898A1 PCT/JP2020/021644 JP2020021644W WO2021019898A1 WO 2021019898 A1 WO2021019898 A1 WO 2021019898A1 JP 2020021644 W JP2020021644 W JP 2020021644W WO 2021019898 A1 WO2021019898 A1 WO 2021019898A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
correction
image data
control method
input image
Prior art date
Application number
PCT/JP2020/021644
Other languages
English (en)
French (fr)
Inventor
和紀 井上
晶啓 石塚
智紀 増田
一樹 石田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202080053909.7A priority Critical patent/CN114270809B/zh
Priority to JP2021536634A priority patent/JP7194834B2/ja
Publication of WO2021019898A1 publication Critical patent/WO2021019898A1/ja
Priority to US17/583,927 priority patent/US11796899B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/206Control of light source other than position or intensity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof

Definitions

  • the present invention relates to a control device, a projection device, a control method, and a control program.
  • Patent Document 1 describes that the brightness unevenness of a projected image is corrected by increasing the brightness of a peripheral portion with respect to the brightness of the central portion of the projected image.
  • the minimum brightness of the projected image is set as the reference brightness
  • the value obtained by dividing the reference brightness by the brightness of each pixel of the projected image is used as the correction coefficient
  • this correction coefficient is used as the correction coefficient of the image information that is the source of the projected image. It is described that the brightness of each pixel of the projected image is made uniform by multiplying each pixel.
  • the pixel value of the pixel at the edge of the projected image at which the brightness is the minimum is set as the above reference brightness. Is described.
  • One embodiment according to the technique of the present disclosure provides a control device, a projection device, a control method, and a control program capable of reducing the brightness unevenness of the projected image without significantly reducing the brightness of the projected image. To do.
  • the control device of the present invention is a control device of a projection device that projects an image from a display unit that displays an image based on input image data onto a projection target through an optical system, and is projected onto the projection target.
  • the projection device of the present invention includes the control device and the optical system.
  • the control method of the present invention is a control method of a projection device that projects an image from a display unit that displays an image based on input image data onto a projection object through an optical system, and is projected onto the projection object.
  • the control program of the present invention is a control program of a projection device that projects an image from a display unit that displays an image based on input image data onto a projection object through an optical system, and is projected onto the projection object.
  • control device capable of reducing the brightness unevenness of the projected image without significantly reducing the brightness of the projected image.
  • FIG. 1 It is a schematic diagram which shows the appearance structure of the projector 100 which is one Embodiment of the projection apparatus of this invention. It is a schematic diagram which shows an example of the internal structure of the light source unit 11 of FIG. It is sectional drawing of the optical unit 6 of the projector 100 shown in FIG. It is a schematic diagram which looked at the image G1 projected on the screen SC in the direction X2. It is a figure which shows the state which the 1st member 2 was moved to the direction Y2 side by the shift mechanism 5 from the state shown in FIG. It is a figure which shows the state which the 1st member 2 was moved to the direction Y2 side by the shift mechanism 5 from the state shown in FIG. It is a schematic diagram which shows the internal block structure of the projector 100 shown in FIG.
  • FIG. 1 is a schematic view showing an external configuration of a projector 100, which is an embodiment of the projection device of the present invention.
  • FIG. 2 is a schematic view showing an example of the internal configuration of the light source unit 11 of FIG.
  • FIG. 3 is a schematic cross-sectional view of the optical unit 6 of the projector 100 shown in FIG. FIG. 3 shows a cross section of the light emitted from the main body 1 along the optical path.
  • the projector 100 includes a main body portion 1 and an optical unit 6 provided so as to project from the main body portion 1.
  • the optical unit 6 includes a first member 2 supported by the main body 1 and a second member 3 supported by the first member 2.
  • the second member 3 may be fixed to the first member 2 in a rotatable state. Further, the first member 2 and the second member 3 may be integrated members.
  • the optical unit 6 may be detachably configured (in other words, interchangeable) in the main body 1.
  • the main body 1 has a housing 15 (see FIG. 3) in which an opening 15a (see FIG. 3) for passing light is formed in a portion connected to the optical unit 6.
  • the light source unit 11 As shown in FIG. 1, inside the housing 15 of the main body 1, the light source unit 11 and the light modulation element that spatially modulates the light emitted from the light source unit 11 based on the input image data to generate an image.
  • An optical modulation unit 12 including 12a (see FIG. 2) is provided.
  • the display unit is composed of the light source unit 11 and the light modulation unit 12.
  • the light source unit 11 includes a light source 41 that emits white light, a color wheel 42, and an illumination optical system 43.
  • the light source 41 is configured to include a light emitting element such as a laser or an LED (Light Emitting Diode).
  • the color wheel 42 is arranged between the light source 41 and the illumination optical system 43.
  • the color wheel 42 is a disk-shaped member, and an R filter that transmits red light, a G filter that transmits green light, and a B filter that transmits blue light are provided along the circumferential direction thereof.
  • the color wheel 42 is rotated about an axis, and the white light emitted from the light source 41 is separated into red light, green light, and blue light in a time-divided manner and guided to the illumination optical system 43.
  • the light emitted from the illumination optical system 43 is incident on the light modulation element 12a.
  • a DMD Digital Micromirror Device
  • LCOS Liquid crystal on silicon
  • MEMS Micro Electro Mechanical Systems
  • liquid crystal display element or the like can also be used.
  • the image formed by the light spatially modulated by the optical modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 6 to be projected.
  • the image G1 is projected onto the screen SC as an object so that the image G1 can be visually recognized by the observer.
  • the light modulation element 12a has a configuration in which display pixels for forming one pixel of the image G1 have a display surface arranged in a two-dimensional manner.
  • the optical unit 6 includes a first member 2 having a hollow portion 2A connected to the inside of the main body portion 1, a second member 3 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 21 and the reflecting member 22 arranged, and the second optical system 31, the branch member 32, the third optical system 33, the fourth optical system 37, the image sensor 38, and the lens 34 arranged in the hollow portion 3A.
  • a shift mechanism 5 5.
  • the first member 2 is a member having a rectangular cross-sectional outer shape as an example, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 2 is supported by the main body 1 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 1.
  • the light emitted from the light modulation element 12a of the light modulation unit 12 of the main body 1 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 2.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 1 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction from the front to the back of the paper is described as the direction Z1
  • the direction from the back to the front of the paper is described as the direction Z2.
  • the direction perpendicular to the direction X and the direction Z is described as the direction Y
  • the upward direction in FIG. 3 is described as the direction Y1
  • the downward direction in FIG. 3 is described as the direction Y2. .
  • the projector 100 is arranged so that the direction Y2 is the vertical direction.
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are optical systems for projecting the image formed by the light modulation element 12a onto the screen SC. It constitutes (hereinafter referred to as a projection optical system).
  • FIG. 3 shows the optical axis K of this projection optical system.
  • the first optical system 21, the reflective member 22, the second optical system 31, the branch member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the light modulation element 12a side.
  • the light modulation element 12a is arranged eccentrically on the direction Y2 side with respect to the optical axis K.
  • the center of the image formed by the light modulation element 12a does not coincide with the optical axis K and is located on the direction Y2 side of the optical axis K.
  • the first optical system 21 includes at least one lens, and guides light traveling from the main body 1 to the first member 2 in the direction X1 to the reflecting member 22.
  • the reflecting member 22 reflects the light incident from the first optical system 21 in the direction Y1.
  • the reflective member 22 is composed of, for example, a mirror or the like.
  • the first member 2 has an opening 2b formed on the optical path of the light reflected by the reflecting member 22, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 3.
  • the second member 3 is a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 2.
  • the light from the main body 1 that has passed through the opening 2b of the first member 2 is incident on the hollow portion 3A of the second member 3 through the opening 3a.
  • the cross-sectional outer shape of the first member 2 and the second member 3 is arbitrary and is not limited to those described above.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 2 to the branch member 32.
  • the branch member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33. Further, the branch member 32 transmits the subject light incident on the lens 34 from the screen SC side and traveling in the direction X1 passing through the third optical system 33, and guides the subject light to the fourth optical system 37.
  • the branch member 32 is composed of, for example, a half mirror or a polarizing plate.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the branch member 32 to the lens 34.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 3 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the screen SC.
  • the fourth optical system 37 includes at least one lens and is arranged next to the branch member 32 on the direction X1 side, and guides the subject light that passes through the branch member 32 and travels in the direction X1 to the image sensor 38.
  • the optical axis of the fourth optical system 37 coincides with the optical axis of the lens 34 and the third optical system 33.
  • the fourth optical system 37 may include a lens having a variable focal length.
  • the image sensor 38 is a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.
  • the image sensor 38 images the screen SC through the lens 34, the third optical system 33, the branch member 32, and the fourth optical system 37.
  • the lens 34, the third optical system 33, and the branch member 32 form a part of the projection optical system.
  • the shift mechanism 5 is a mechanism for moving the optical axis K (in other words, the optical unit 6) of the projection optical system in a direction perpendicular to the optical axis K (direction Y in FIG. 3). Specifically, the shift mechanism 5 is configured so that the position of the first member 2 in the direction Y with respect to the main body 1 can be changed.
  • the shift mechanism 5 may be one that manually moves the first member 2 or one that electrically moves the first member 2.
  • FIG. 3 shows a state in which the first member 2 is maximally moved toward the direction Y1 by the shift mechanism 5. From the state shown in FIG. 3, the first member 2 is moved in the direction Y2 by the shift mechanism 5, so that the center of the image (in other words, the center of the display surface) formed by the light modulation element 12a and the optical axis K are aligned. The relative position changes, and the image G1 projected on the screen SC can be shifted (translated) in the direction Y2.
  • the shift mechanism 5 may be a mechanism that moves the light modulation element 12a in the direction Y instead of moving the optical unit 6 in the direction Y. Even in this case, the image G1 projected on the screen SC can be shifted in the direction Y2.
  • FIG. 4 is a schematic view of the image G1 projected on the screen SC in the direction X2.
  • FIG. 4 shows a state in which the first member 2 is maximally moved toward the direction Y1 by the shift mechanism 5 (the shift position of the first member 2 is referred to as the shift position PU).
  • FIG. 4 shows an image circle C1 showing a light receiving range in the screen SC of light that can be emitted from the projection optical system.
  • a boundary circle C2 is shown on the same plane as the image circle C1.
  • the image circle C1 and the boundary circle C2 are each one of the concentric circles centered on the optical axis K.
  • the optical characteristics of the projection optical system are such that the amount of light projected in the range inside the boundary circle C2 on the screen SC is substantially uniform, and is projected in the range outside the boundary circle C2 on the screen SC.
  • the amount of light is reduced with respect to the amount of light projected in the range inside the boundary circle C2. That is, when uniform light is emitted from the projection optical system, the amount of light projected in the range between the boundary circle C2 and the outer peripheral edge of the image circle C1 (hereinafter referred to as the light amount reduction range) is the boundary circle C2. It is lower than the amount of light projected inward.
  • the amount of light projected inside the boundary circle C2 may have a distribution that gradually decreases from the optical axis K toward the periphery.
  • the ratio of the amount of light Ka projected at the position of the optical axis K on the screen SC to the amount of light Kb projected in the above-mentioned range of decrease in the amount of light (hereinafter referred to as the peripheral illumination ratio) is defined as the value obtained by dividing the amount of light Kb by the amount of light Ka. If the radius of concentric circles centered on the optical axis K is defined as the image height, the peripheral illumination ratio becomes smaller as the image height increases.
  • the image G1 has a non-uniform light amount distribution in its projection plane.
  • the specific region Ga outside the boundary circle C2 has a lower light intensity than the region inside the boundary circle C2.
  • the higher the image height the greater the degree of decrease in the amount of light with respect to the amount of light Ka.
  • the specific region Ga of the image G1 is a region where the amount of light is relatively reduced, which is determined by the amount of light distribution of the image G1 generated by the optical characteristics (peripheral illumination ratio) of the projection optical system.
  • the position and size of the specific region Ga in the image G1 may change depending on the projection conditions.
  • the projection condition is any one of the focal length of the projection optical system, the focal position of the projection optical system, and the distance between the projection optical system and the screen SC, or a plurality of combinations selected from these.
  • the position of the specific region Ga in the image G1 may also change depending on the shift position of the first member 2 by the shift mechanism 5.
  • FIG. 6 is a diagram showing a state in which the first member 2 is moved to the direction Y2 side by the shift mechanism 5 from the state shown in FIG. FIG. 6 shows a state in which the first member 2 is maximally moved toward the direction Y2 by the shift mechanism 5 (a state in which the shift position of the first member 2 is the shift position PD).
  • FIG. 7 is a schematic view showing the internal block configuration of the projector 100 shown in FIG.
  • the main body 1 of the projector 100 includes a light source unit 11, a light modulation unit 12 including a light modulation element 12a and a light modulation element drive unit 12b for driving the light modulation element 12a, and a system control unit 14 that controls the whole. , Are provided.
  • the optical unit 6 is provided with an image sensor 38 and an image processing unit 39 that processes an image image signal input from the image sensor 38 to generate image image data.
  • the captured image data generated by the image processing unit 39 is input to the system control unit 14.
  • the image pickup unit 38 is composed of the image pickup element 38 and the image processing unit 39.
  • the light modulation element driving unit 12b drives the light modulation element 12a based on the input image data input from the system control unit 14, and spatially modulates the light from the light source unit 11 with the input image data.
  • the input image data is not limited to the image data input from an external device such as a personal computer, a smartphone, or a tablet terminal, and may be input image data generated inside the projector 100.
  • the data format of the input image data may be either digital data or analog data after digital-to-analog conversion.
  • the system control unit 14 includes various processors, a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • programmable logic which is a processor whose circuit configuration can be changed after manufacturing
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed for executing a specific process such as a device (Programmable Logic Device: PLD) or an ASIC (Application Special Integrated Circuit), and the like are included.
  • PLD Process Control Deformation Device
  • ASIC Application Special Integrated Circuit
  • the processor of the system control unit 14 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • the processor of the system control unit 14 functions as a control device including a correction unit by executing a control program.
  • the image G1 in the state shown in FIG. 4 is, for example, a white image in which the pixel value of each pixel of the input image data is set to the upper limit value (“255” in the case of an 8-bit image).
  • the amount of light decreases in the specific region Ga of the image G1. Therefore, the image G1 is not an image that is entirely white, but an image that is slightly darkened by a specific region Ga and has uneven brightness.
  • the correction unit corrects the input image data in order to reduce this luminance unevenness.
  • the correction unit performs a first process of increasing the pixel value of the pixel of the input image data corresponding to the specific area Ga, and a second process of uniformly reducing each pixel value of the input image data by the first pixel amount.
  • the processing and the processing are performed to correct the input image data.
  • the ROM of the system control unit 14 stores information on which pixel of the input image data is the pixel (correction target pixel) corresponding to the specific area Ga for each projection condition. Then, the information of each pixel corresponding to the specific region Ga is stored in association with the optical characteristics of the projection optical system and the correction coefficient according to the peripheral illumination ratio determined based on the projection condition.
  • the correction coefficient corresponding to an arbitrary pixel for example, the reciprocal of the peripheral illumination ratio at the position (image height) of the projected image corresponding to the pixel is used. For example, a correction coefficient of "1 / 0.8" is stored in association with the pixel corresponding to the image height at which the peripheral illumination ratio is 0.8.
  • FIG. 8 is a schematic diagram showing an example of information stored in the ROM of the system control unit 14.
  • a large number of correction tables T1 are stored in the ROM of the system control unit 14.
  • the correction table T1 contains information on the projection conditions, the pixels of the input image data (correction target pixels) corresponding to the specific region Ga generated in the projection conditions, and the correction coefficient corresponding to the correction target pixels. Is a data table containing.
  • the correction table T1 is prepared and stored for each settable projection condition. Further, in the correction table T1 for each projection condition shown in FIG. 8, the shift position of the first member 2 is in the shift position PU and the shift position of the first member 2 is in the shift position PD, respectively. Created and stored individually.
  • FIG. 9 is a flowchart for explaining the operation of the system control unit 14.
  • FIG. 10 is a schematic diagram for explaining the operation of the system control unit 14.
  • the horizontal axis of the graph shown in FIG. 10 represents the position of each pixel of the input image data by the image height in the projected image corresponding to each pixel.
  • the position of each pixel of the input image data is normalized with the image height of the image circle C1 as "1".
  • the vertical axis of the graph shown in FIG. 10 shows the pixel value of the input image data, and the upper limit value that can be input to the optical modulation unit 12 is normalized as “1.0”.
  • step S1 When the system control unit 14 acquires the input image data g1 (step S1), the system control unit 14 determines the shift position of the first member 2 set at that time (step S2).
  • step S2 When the shift position is the shift position PC shown in FIG. 5 (step S2: YES), the system control unit 14 inputs the acquired input image data g1 to the optical modulation unit 12, and the input image data An image based on g1 is projected from the projection optical system onto the screen SC (step S11).
  • the shift position is the shift position PC
  • the light intensity reduction region and the image G1 do not overlap. Therefore, when the determination in step S2 is YES, the input image data g1 is corrected. I can't.
  • step S3 When the shift position is the shift position PU or the shift position PD shown in FIG. 4 or 6 (step S2: NO), the system control unit 14 sets the projection conditions set at that time and the first.
  • the correction table T1 corresponding to the shift position of the member 2 is read from the ROM (step S3).
  • Step S4 corresponds to the first process.
  • the data after the processing of step S4 of the input image data g1 will be referred to as the input image data g2.
  • FIG. 10 shows the input image data g1 in which each pixel value is “1.0” and the input image data g2 after the processing of step S4 is performed on the input image data g1.
  • the pixel value is increased only in the portion (pixels in the range of image height 0.8 to 1) corresponding to the specific region Ga in the input image data g1.
  • the system control unit 14 identifies the maximum pixel having the maximum pixel value among the correction target pixels whose pixel values have been increased in step S4, and the pixel value of the maximum pixel is the optical modulation unit 12. It is determined whether or not the upper limit value (for example, “255” in the case of an 8-bit image) that can be input to is exceeded (step S5).
  • the upper limit value for example, “255” in the case of an 8-bit image
  • step S6 the system control unit 14 subtracts the pixel value of the maximum pixel before processing in step S4 from the pixel value of the maximum pixel.
  • the value obtained in this manner is determined as an offset amount (step S6).
  • the offset amount corresponds to the above-mentioned first pixel amount.
  • the pixel with the image height “1” is the maximum pixel, and the pixel value of this maximum pixel exceeds the upper limit of 1.0.
  • the difference between the pixel value of the image height "1" in the input image data g2 and the pixel value of the image height "1" in the input image data g1 is M1, which is an offset. Determined as a quantity.
  • Step S7 corresponds to the second process. Further, the correction step is configured by step S4 and step S7.
  • the lower part of FIG. 10 shows the input image data g2 after the processing of step S7 is performed. As shown in FIG. 10, by the process of step S7, each pixel value of the input image data g2 becomes a value equal to or less than the upper limit value.
  • step S7 the system control unit 14 inputs the input image data g2 to the optical modulation unit 12 and projects an image based on the input image data g2 from the projection optical system onto the screen SC (step S8).
  • step S5 When the determination in step S5 is NO, that is, when the pixel value of the maximum pixel is equal to or less than the upper limit value, the system control unit 14 omits steps S6 and S7, in other words, described above.
  • the offset amount is determined to be zero, and the process of step S8 is performed.
  • step S9 When new input image data g1 is input after the processing of step S8 and step S11 (step S9: YES), the system control unit 14 returns the processing to step S1.
  • step S9: NO the system control unit 14 determines whether or not the shift position of the first member 2 has been changed. Determine (step S10).
  • step S10: YES When the shift position is changed (step S10: YES), the system control unit 14 returns the process to step S2, and when the shift position is not changed (step S10: NO), the system control unit 14 processes in step S9. Return.
  • the input image data g1 is a white image (all pixel values are 1.0) as illustrated in FIG. 10, it is specified by the processing of steps S4 and S7.
  • the pixel value of the pixel corresponding to the region Ga can be made larger than the pixel value of the pixel corresponding to other than the specific region Ga.
  • the brightness of the portion other than the specific region Ga is slightly lower than that of the state of FIG. 4, but the luminance difference between this portion and the specific region Ga can be eliminated. .. Therefore, it is possible to project the image G1 with reduced luminance unevenness.
  • the input image data g1 is not a white image and steps S6 and S7 are omitted, only the pixel values of the pixels corresponding to the specific region Ga in the input image data g1 correspond to the peripheral illumination ratio. Will be in an increased state. As a result, in the image G1, the brightness of the specific region Ga can be increased, and the brightness unevenness of the image G1 can be reduced.
  • step S6 the difference between the value of the maximum pixel after processing in step S4 and the value before processing in step S4 is determined as the offset amount.
  • the system control unit 14 may determine the offset amount based on the distribution of the pixel values of the pixels corresponding to the specific region Ga in the input image data g2 obtained by the process of step S4. ..
  • FIG. 11 is a diagram showing an example of a histogram of the pixel values of the input image data g2 obtained by the process of step S4.
  • the horizontal axis of FIG. 11 shows the pixel value, and the vertical axis shows the appearance frequency of the pixel value.
  • the range of the pixel value of 255 or more exceeds the upper limit value that can be input by the optical modulation unit 12, and therefore is not projected as an image. (Saturated part).
  • the system control unit 14 determines the pixel value so as not to exceed the upper limit value in this range. For example, the system control unit 14 integrates the frequencies from the highest pixel value in this range, and detects the pixel value at the time when the integrated value reaches the threshold value (for example, 100). Then, the system control unit 14 determines the difference between the detected pixel value and the upper limit value (255) as an offset amount. For example, in the example of FIG. 11, the integrated value of the frequency in the range where the pixel value is 275 or more is 100, and “20”, which is the difference between the pixel value: 275 and the pixel value: 255, is determined as the offset amount. ..
  • FIG. 12 is a diagram showing a histogram in a state where each pixel value of the input image data g2 having the histogram shown in FIG. 11 is reduced by “20”.
  • FIGS. 11 and 12 by determining the offset amount based on the histogram, the number of pixel values that become saturated portions in the specific region Ga in the input image data g2 after the second processing is reduced. Therefore, it is possible to reduce the uneven brightness of the projected image G1.
  • the system control unit 14 may adjust the offset amount based on the input image data g1. Specifically, the adjustment table T2 or the adjustment table T3 illustrated in FIG. 13 is stored in the ROM of the system control unit 14.
  • the adjustment table T2 is a table in which adjustment coefficients are associated with each brightness condition of the input image data g1 before processing in step S4.
  • the brightness conditions include, for example, a brightness condition L1 in which the brightness (for example, average brightness) of the input image data g1 exceeds the brightness threshold, and the brightness of the input image data g1 is equal to or less than the above brightness threshold.
  • the brightness condition L2 and the above are included.
  • the adjustment coefficient ⁇ 1 corresponding to the brightness condition 1 is a value larger than the adjustment coefficient ⁇ 2 corresponding to the brightness condition 2. For example, the adjustment coefficient ⁇ 1 is “1” and the adjustment coefficient ⁇ 2 is “0.8”.
  • the adjustment table T3 is a table in which adjustment coefficients are associated with each attribute condition of the input image data g1 before processing in step S4.
  • the attribute information of the image data is information indicating the content of the image data, such as whether the image data is mainly composed of photographs or the image data is mainly composed of characters (sentences). ..
  • the attribute information of the image data is added to the metadata of the image data, for example, when the image data is generated.
  • the attribute condition includes, for example, an attribute condition AT1 indicating that the attribute information of the input image data g1 is mainly photographed, and an attribute condition AT2 indicating that the attribute information of the input image data g1 is mainly character. ..
  • the adjustment coefficient ⁇ 3 corresponding to the attribute condition AT1 is smaller than the adjustment coefficient ⁇ 4 corresponding to the attribute condition AT2. For example, the adjustment coefficient ⁇ 3 is “0.8” and the adjustment coefficient ⁇ 4 is “1”.
  • step S6 the system control unit 14 provisionally determines the offset amount by the method described above, then calculates the brightness of the input image data g1, and if the calculated brightness exceeds the above-mentioned brightness threshold value, provisionally determines the offset amount.
  • the offset amount is determined by multiplying the determined offset amount by the adjustment coefficient ⁇ 1 of the adjustment table T2. If the calculated brightness is equal to or less than the above-mentioned brightness threshold value, the system control unit 14 multiplies the tentatively determined offset amount by the adjustment coefficient ⁇ 2 of the adjustment table T2 to determine the offset amount.
  • the input image data g1 when the input image data g1 is dark (when the brightness is equal to or less than the brightness threshold), when the input image data g1 is bright (when the brightness exceeds the brightness threshold).
  • the offset amount is adjusted to a smaller value than. Therefore, in a dark image, it is possible to reduce the brightness unevenness while preventing the overall brightness from being reduced. Further, in a bright image, uneven brightness can be strongly suppressed.
  • step S6 the system control unit 14 tentatively determines the offset amount by the method described above, and then determines the content of the input image data g1 based on the attribute information of the input image data g1, and the content is mainly photograph. For example, the tentatively determined offset amount is multiplied by the adjustment coefficient ⁇ 3 of the adjustment table T3 to determine the offset amount. If the content is mainly characters, the system control unit 14 multiplies the tentatively determined offset amount by the adjustment coefficient ⁇ 4 of the adjustment table T3 to determine the offset amount.
  • the offset amount is adjusted to a smaller value than when the input image data g1 is mainly a character. For this reason, in a photograph-based image that requires a wide dynamic range, it is possible to project a high-quality image while reducing brightness unevenness and preventing a decrease in the dynamic range. Further, in a character-based image in which a wide dynamic range is not required, uneven brightness can be strongly suppressed.
  • the system control unit 14 determines the offset amount based on the brightness and content of the input image data g1 or the pixel value of the input image data g2. The decision was made. However, the system control unit 14 may set the offset amount used in the process of step S7 to a predetermined fixed value. Even when the offset amount is set to a fixed value in this way, it is preferable to adjust the offset amount by multiplying the fixed value by an adjustment coefficient based on the brightness and content of the input image data g1.
  • the system control unit 14 controls the offset amount based on the brightness and content of the input image data g1.
  • the system control unit 14 adjusts the offset amount based on the brightness and content of the input image data g1, but in step S4, each correction target pixel is based on the brightness and content of the input image data g1. You may control the rate of increase of the pixel value of.
  • the rate of increase in the pixel value of any of the correction target pixels used in step S4 is the reciprocal of the peripheral illumination ratio at the image height of the specific region Ga corresponding to the correction target pixel.
  • the system control unit 14 controls the increase rate according to the brightness and content of the input image data g1 by multiplying this increase rate by the adjustment coefficient shown in FIG. 13 based on the brightness and content of the input image data g1. May be good.
  • the system control unit 14 sets a value obtained by multiplying the correction coefficient of each correction target pixel used in step S4 by the adjustment coefficient ⁇ 1.
  • the input image data g2 is generated by multiplying the pixel value of the pixel to be corrected. If the brightness of the input image data g1 is equal to or less than the brightness threshold value, the system control unit 14 corrects the correction coefficient of each correction target pixel used in step S4 by multiplying the correction coefficient ⁇ 2.
  • the input image data g2 is generated by multiplying the pixel value of the target pixel.
  • the system control unit 14 sets a value obtained by multiplying the correction coefficient of each correction target pixel used in step S4 by the adjustment coefficient ⁇ 3, and sets each correction target pixel.
  • the input image data g2 is generated by multiplying the pixel value of.
  • the system control unit 14 sets a value obtained by multiplying the correction coefficient of each correction target pixel used in step S4 by the adjustment coefficient ⁇ 2 for each correction target pixel.
  • the input image data g2 is generated by multiplying the pixel value.
  • the correction coefficient (increase rate) used in the process of step S4 may be adjusted to be low.
  • the increase rate is adjusted to be low in this way, the amount of increase in the pixel value of the maximum pixel also becomes small. Therefore, the offset amount determined in step S6 becomes small.
  • the brightness of the image based on the input image data g2 after the processing of step S7 can be optimized according to the brightness and content of the image.
  • the system control unit 14 determines the offset amount in step S6 of FIG. 9, the offset amount is stored in the RAM, and when the offset amount is determined next, the offset amount stored in the RAM is taken into consideration.
  • the offset amount may be determined.
  • the system control unit 14 stores the RAM.
  • the stored past offset amount is determined as the offset amount used for the subsequent processing in step S7.
  • the change in the input image data g1 may be large, for example, in a moving image or the like. In this way, when the change in the offset amount becomes large, the processing in step S7 is performed without changing the offset amount, thereby suppressing the change in the brightness of the projected image and the quality of the projected image. Can be enhanced.
  • the system control unit 14 changes between the past correction coefficient stored in the RAM and the correction coefficient determined in step S4.
  • the amount for example, the difference between the two
  • the past correction coefficient stored in the RAM may be determined as the correction coefficient used for the processing in step S4.
  • the change in the input image data g1 may be large, for example, in a moving image or the like.
  • the process in step S4 is performed without changing the correction coefficient to suppress the change in the brightness unevenness of the projected image and to suppress the change in the brightness unevenness of the projected image. The quality can be improved.
  • the system control unit 14 obtains a change amount of the past input image data g1 stored in the RAM and the input image data g1 currently acquired, and the change amount is a value that can be determined to be a moving image. If, the past offset amount or correction coefficient stored in the RAM may be determined as the offset amount or correction coefficient used for the processing in step S7 or step S4. By doing so, it is possible to suppress the change in brightness of the projected image and improve the quality of the projected image.
  • the system control unit 14 is input image data when the shift position shown in FIG. 4 is changed to the shift position shown in FIG. 5 or when the shift position shown in FIG. 6 is changed to the shift position shown in FIG.
  • the process of step S7 can be performed on g1 using the offset amount determined in step S6 before the shift position is changed, and the image based on the input image data g1 after the process can be projected onto the screen SC. preferable.
  • step S11 when the shift position is changed from the shift position PU or the shift position PD to the shift position PC, the process of step S11 is performed. That is, the input image data g1 is directly input to the optical modulation unit 12 without being corrected, and an image based on the input image data g1 is projected.
  • step S2 when the determination in step S2 is YES, the system control unit 14 uses this offset amount to input image data if the offset amount determined in the immediately preceding step S6 is stored in the RAM. A process of uniformly reducing each pixel value of g1 by this offset amount is performed, and then the process proceeds to step S11.
  • the shift position is in the shift position PU or the shift position PD, and the shift position is changed from the state in which the process of step S7 is being performed to the shift position PC that does not need to be processed in step S7.
  • the overall brightness of the input image data g1 can be brought close to the brightness of the input image data g2 before the shift position is changed. As a result, it is possible to suppress a large change in the brightness of the projected image due to the change in the shift position.
  • system control unit 14 of the specific projector 100 When the system control unit 14 of the specific projector 100 is connected to the system control unit 14 of the projector 100 other than the own device, it operates in the panorama mode.
  • the system control unit 14 has input image data g1 for the own device that is the source of the image to be projected from the own device and input image data for the other device that is the source of the image to be projected from the other device. g1 and g1 are obtained respectively.
  • the system control unit 14 acquires the input image data g1 for its own device, the system control unit 14 corrects the input image data g1 according to the operation shown in FIG.
  • the system control unit 14 similarly corrects the input image data g1 for another device by using the correction coefficient and the offset amount of the correction target pixel used for this correction, and uses the corrected input image data g2 of the other device. It is transmitted to the system control unit 14.
  • each projector 100 projects an image based on the input image data g2 corrected by the same parameters (correction coefficient and offset amount) onto the screen SC.
  • the projector 100 shown in FIG. 1 has been described as being used in an installed state in which the direction Y2 shown in FIG. 3 is the vertical direction. However, it may be used in an installed state in which the direction Y1 is the vertical direction, for example, when the projector 100 is installed on the ceiling.
  • the position of the correction target pixel corresponding to the specific region Ga shown in FIGS. 4 and 6 is determined by the shift position and the projection condition, and does not change depending on the installation state of the projector 100.
  • the system control unit 14 first provides the projector 100 with whether the installation state is the first installation state in which the direction Y2 is the vertical direction or the second installation state in which the direction Y1 is the vertical direction. Judgment is made based on the information of the acceleration sensor and the like.
  • the system control unit 14 corrects the input image data g1 according to the contents described above.
  • the system control unit 14 is in the second installation state, the acquired input image data g1 is turned upside down, and then the input image data g1 is corrected according to the contents described above.
  • the input image data g1 may be corrected according to the contents described above, and then the corrected input image data g1 may be inverted vertically to project the image. Instead, the input image data g1 is inverted upside down, the input image data g1 is corrected, and an image based on the corrected input image data g1 is projected, so that the image is projected even if the installation state changes. It is possible to reduce uneven brightness of the image.
  • the system control unit 14 has a correction mode for performing the processing shown in FIG. 9 (processing including correction (first processing and second processing) of the input image data g1) and the processing shown in FIG. 9 (processing of the input image data g1).
  • a non-correction mode in which correction (first process and second process) is not performed may be selectively executed.
  • step S11 is performed. The process is performed, and the process shifts to step S9.
  • the system control unit 14 switches between the correction mode and the non-correction mode when it receives a switching instruction input from an operation unit (not shown) provided on the projector 100, for example.
  • the system control unit 14 determines the content of the input image data g1, executes the correction mode if the input image data g1 is a still image, and executes the non-correction mode if the input image data g1 is a moving image. May be good.
  • the system control unit 14 inputs test image data (for example, data for displaying a white image) to the optical modulation unit 12. Input and project a test image based on this test image data on the screen SC.
  • test image data for example, data for displaying a white image
  • the system control unit 14 captures the test image by the image sensor 38 in the state where the test image is projected, and acquires the captured image data obtained by the imaging.
  • the system control unit 14 analyzes the pixel value of each pixel of the captured image data, and detects a specific region of the test image projected on the screen SC, which is determined by the in-plane light amount distribution of the screen SC. Then, in the captured image data, the pixel corresponding to the specific area is set as the correction target pixel, and the inverse number of the ratio of the pixel value of the correction target pixel and the pixel value of the pixel outside the specific area in the captured image data is calculated. Calculate as a correction coefficient and register in the correction table. In this way, the system control unit 14 generates a correction table based on the captured image data, so that even when the optical unit 6 whose optical characteristics are unknown is mounted, the brightness unevenness of the projected image can be reduced. It will be possible.
  • the imaging unit has a configuration in which the screen SC is imaged through a part of the projection optical system.
  • the imaging unit may be provided as a separate body from the optical unit 6.
  • the configuration of the optical unit 6 of the projector 100 is an example, and is not limited to that shown in FIG.
  • the image from the display unit may be directly incident on the second optical system 31.
  • the shift mechanism 5 is not essential and can be omitted.
  • a control device for a projection device that projects an image from a display unit that displays an image based on input image data onto a projection object through an optical system.
  • the first process of increasing the pixel value of the pixel of the input image data corresponding to a specific region determined by the light amount distribution in the projection target surface of the image projected on the projection object, and the input image data.
  • a control device including a correction unit that performs a second process of uniformly reducing each pixel value of the above and a correction unit for correcting the input image data.
  • the control device is a control device determined based on the optical characteristics of the optical system.
  • the optical characteristic is a control device which is a ratio of the amount of light projected on the optical axis position of the optical system to the amount of light projected on a position away from the optical axis position.
  • the correction unit is a control device that controls the amount of the first pixel based on the pixel value of the pixel corresponding to the specific region that has been first processed.
  • the correction unit is a control device that controls the amount of the first pixel based on the pixel value of the maximum pixel having the maximum pixel value among the pixels corresponding to the specific region that has been first processed.
  • the correction unit uses the pixel value of the maximum pixel and the pixel value of the maximum pixel before the first processing.
  • a control device in which the difference between the above is the first pixel amount.
  • the correction unit is a control device that omits the second process when the pixel value of the maximum pixel is equal to or less than the upper limit value that can be input to the display unit.
  • the correction unit is a control device that controls the amount of the first pixel based on the distribution of the pixel values of the pixels corresponding to the specific region that has been first processed.
  • the correction unit is a control device that controls the rate of increase of the pixel value or the amount of the first pixel in the first process based on the input image data before correction.
  • the correction unit is a control device that controls the increase rate or the first pixel amount based on the brightness of the input image data before correction.
  • the correction unit is a control device that controls the increase rate or the first pixel amount based on the content of the input image data before correction.
  • the correction unit is a control device that controls the position of a pixel that increases the pixel value in the first process and the rate of increase of the pixel value based on the projection condition of the image.
  • the control device is a control device including at least one of the focal length of the optical system, the focal position of the optical system, and the distance between the optical system and the projection object.
  • the control device according to any one of (1) to (14).
  • the projection device has a mode of projecting a plurality of the above images on the projection target in a state of being partially overlapped in cooperation with the other projection device.
  • the correction unit executes the second process on the input image data input to the display unit of the other projection device by using the first pixel amount determined by the own device. Control device.
  • the control device according to any one of (1) to (14).
  • the projection device can project the image in a state where the display surface of the display unit is eccentric in one direction with respect to the optical axis of the optical system.
  • the correction unit is a control device that rotates the input image data based on the posture of the projection device and then performs the first processing and the second processing.
  • the control device according to any one of (1) to (14).
  • the projection device has a shift mechanism that changes the relative position of the display surface of the display unit and the optical axis of the optical system in one direction.
  • the correction unit is a control device that performs correction including the first process and the second process at the relative position where the specific area occurs.
  • the control device has an imaging unit that images the projection object.
  • the correction unit is a control device that detects the specific region based on the captured image data of the image projected on the projection object acquired from the imaging unit.
  • the control device according to any one of (1) to (19).
  • the specific area is a control device that is a peripheral area of the image projected on the projection object.
  • control device according to any one of (1) to (20).
  • a control device that selectively executes a correction mode that executes a correction including the first process and the second process, and a non-correction mode that does not execute the correction.
  • a control method including a correction step of performing a second process of uniformly reducing each pixel value of the above and correcting the input image data.
  • the light amount distribution is a control method determined based on the optical characteristics of the optical system.
  • the optical characteristic is a control method in which the amount of light projected on the optical axis position of the optical system is the ratio of the amount of light projected on a position away from the optical axis position.
  • the control method is a control method for controlling the amount of the first pixel based on the pixel value of the pixel corresponding to the specific region that has been first processed.
  • the correction step is a control method for controlling the first pixel amount based on the pixel value of the maximum pixel having the maximum pixel value among the pixels corresponding to the specific region that has been first processed.
  • the correction step is a control method that omits the second process when the pixel value of the maximum pixel is equal to or less than the upper limit value that can be input to the display unit.
  • the correction step is a control method for controlling the amount of the first pixel based on the distribution of the pixel values of the pixels corresponding to the specific region that has been first processed.
  • the control method is a control method for controlling the rate of increase of the pixel value or the amount of the first pixel in the first process based on the input image data before correction.
  • the correction step is a control method for controlling the increase rate or the first pixel amount based on the brightness of the input image data before correction.
  • the correction step is a control method for controlling the increase rate or the first pixel amount based on the content of the input image data before correction.
  • the correction step is a control method for controlling the position of a pixel that increases the pixel value in the first process and the rate of increase of the pixel value based on the projection condition of the image.
  • the projection condition is a control method including at least one of the focal length of the optical system, the focal position of the optical system, and the distance between the optical system and the projection object.
  • the control method according to any one of (25) to (38).
  • the projection device has a mode of projecting a plurality of the above images on the projection target in a state of being partially overlapped in cooperation with the other projection device.
  • the second process for the input image data input to the display unit of the other projection device is executed using the first pixel amount determined by the own device. Control method.
  • the control method according to any one of (25) to (38).
  • the projection device can project the image in a state where the display surface of the display unit is eccentric in one direction with respect to the optical axis of the optical system.
  • the correction step is a control method in which the input image data is rotated based on the posture of the projection device, and then the first process and the second process are performed.
  • the control method according to any one of (25) to (38).
  • the projection device has a shift mechanism that changes the relative position of the display surface of the display unit and the optical axis of the optical system in one direction.
  • the correction step is a control method for performing correction including the first process and the second process at the relative position where the specific area occurs.
  • the control method according to any one of (25) to (42).
  • the projection device has an imaging unit that images the projection object.
  • the correction step is a control method for detecting the specific region based on the captured image data of the image projected on the projection object acquired from the imaging unit.
  • a control program for a projection device that projects an image from a display unit that displays an image based on input image data onto a projection object through an optical system.
  • the first process of increasing the pixel value of the pixel of the input image data corresponding to a specific region determined by the light amount distribution in the projection target surface of the image projected on the projection object, and the input image data.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

投影される画像の明るさを大きくさげることなく、その画像の輝度ムラを低減することのできる制御装置、投影装置、制御方法、及び制御プログラムを提供する。 入力画像データg1に基づいて画像を表示する表示部からの画像G1を、光学系を通してスクリーンSCに投影するプロジェクタ(100)のシステム制御部(14)は、スクリーンSCに投影される画像G1のうちの特定領域Gaに対応する入力画像データg1の画素(補正対象画素)の画素値を増加させる第一処理(ステップS4)と、入力画像データg1の各画素値を一律で第一画素量減少させる第二処理(ステップS7)と、を行って入力画像データg1を補正する。

Description

制御装置、投影装置、制御方法、及び制御プログラム
 本発明は、制御装置、投影装置、制御方法、及び制御プログラムに関する。
 投影した画像の周辺に生じる輝度低下を抑制する機能を持つ投影装置が知られている。例えば、特許文献1には、投影画像の中心部の輝度に対して周辺部の輝度を上げることで投影画像の輝度ムラを補正することが記載されている。特許文献2には、投影画像のうちの最小輝度を基準輝度とし、基準輝度を投影画像の各画素の輝度で除算した値を補正係数とし、この補正係数を投影画像の元となる画像情報の各画素に乗算することで、投影画像の各画素の輝度の均一化を図ることが記載されている。特許文献2には、投影画像の端の画素が最大輝度になっている状態では補正が不可となるため、輝度が最小となる投影画像の端の画素の画素値を上記の基準輝度とすることが記載されている。
日本国特開2004-226608号公報 日本国特開2009-216767号公報
 本開示の技術に係る1つの実施形態は、投影される画像の明るさを大きくさげることなく、その画像の輝度ムラを低減することのできる制御装置、投影装置、制御方法、及び制御プログラムを提供する。
 本発明の制御装置は、入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御装置であって、上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正部を備えるものである。
 本発明の投影装置は、上記制御装置と、上記光学系と、を備えるものである。
 本発明の制御方法は、入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御方法であって、上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正ステップを含むものである。
 本発明の制御プログラムは、入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御プログラムであって、上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正ステップをコンピュータに実行させるためのものである。
 本発明によれば、投影される画像の明るさを大きくさげることなく、その画像の輝度ムラを低減することのできる制御装置、投影装置、制御方法、及び制御プログラムを提供することができる。
本発明の投影装置の一実施形態であるプロジェクタ100の外観構成を示す模式図である。 図1の光源ユニット11の内部構成の一例を示す模式図である。 図1に示すプロジェクタ100の光学ユニット6の断面模式図である。 スクリーンSCに投影された画像G1を方向X2に見た模式図である。 図4に示す状態から、シフト機構5によって第一部材2が方向Y2側に移動された状態を示す図である。 図5に示す状態から、シフト機構5によって第一部材2が方向Y2側に移動された状態を示す図である。 図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。 システム制御部14のROMに記憶される情報の例を示す模式図である。 システム制御部14の動作を説明するためのフローチャートである。 システム制御部14の動作を説明するための模式図である。 ステップS4の処理によって得られた入力画像データg2の画素値のヒストグラムの一例を示す図である。 図11に示すヒストグラムを持つ入力画像データg2の各画素値を“20”だけ減少させた状態のヒストグラムを示す図である。 システム制御部14のROMに記憶される情報の例を示す模式図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の投影装置の一実施形態であるプロジェクタ100の外観構成を示す模式図である。図2は、図1の光源ユニット11の内部構成の一例を示す模式図である。図3は、図1に示すプロジェクタ100の光学ユニット6の断面模式図である。図3は、本体部1から出射される光の光路に沿った面での断面を示している。
 図1に示すように、プロジェクタ100は、本体部1と、本体部1から突出して設けられた光学ユニット6と、を備える。光学ユニット6は、本体部1に支持される第一部材2と、第一部材2に支持された第二部材3と、を備える。なお、第二部材3は、第一部材2に回転可能な状態にて固定されていてもよい。また、第一部材2と第二部材3は一体化された部材であってもよい。光学ユニット6は、本体部1に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部1は、光学ユニット6と連結される部分に光を通すための開口15a(図3参照)が形成された筐体15(図3参照)を有する。
 本体部1の筐体15の内部には、図1に示すように、光源ユニット11と、光源ユニット11から出射される光を入力画像データに基づいて空間変調して画像を生成する光変調素子12a(図2参照)を含む光変調ユニット12と、が設けられている。光源ユニット11と光変調ユニット12によって表示部が構成される。
 図2に示す例では、光源ユニット11は、白色光を出射する光源41と、カラーホイール42と、照明光学系43と、を備える。光源41は、レーザ又はLED(Light Emitting Diode)等の発光素子を含んで構成される。カラーホイール42は、光源41と照明光学系43の間に配置されている。カラーホイール42は、円板状の部材であり、その周方向に沿って、赤色光を透過するRフィルタ、緑色光を透過するGフィルタ、及び青色光を透過するBフィルタが設けられている。カラーホイール42は軸周りに回転され、光源41から出射される白色光を時分割にて赤色光、緑色光、及び青色光に分光して照明光学系43に導く。照明光学系43から出射された光は光変調素子12aに入射される。
 光変調ユニット12に含まれる光変調素子12aは、図2の光源ユニット11の構成であればDMD(Digital Micromirror Device)が例えば用いられる。光変調素子12aとしては、LCOS(Liquid crystal on silicon)、MEMS(Micro Electro Mechanical Systems)素子、又は液晶表示素子等を用いることもできる。図3に示すように、光変調ユニット12によって空間変調された光によって形成される画像(表示部の表示画像)は、筐体15の開口15aを通過して光学ユニット6に入射され、投影対象物としてのスクリーンSCに投影されて、画像G1が観察者から視認可能となる。
 光変調素子12aは、この画像G1の1画素を形成するための表示画素が二次元状に配置された表示面を有する構成である。
 図3に示すように、光学ユニット6は、本体部1の内部と繋がる中空部2Aを有する第一部材2と、中空部2Aと繋がる中空部3Aを有する第二部材3と、中空部2Aに配置された第一光学系21及び反射部材22と、中空部3Aに配置された第二光学系31、分岐部材32、第三光学系33、第四光学系37、撮像素子38、及びレンズ34と、シフト機構5と、を備える。
 第一部材2は、断面外形が一例として矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材2は、本体部1の開口15aと対面する位置に開口2aが配置される状態にて、本体部1によって支持されている。本体部1の光変調ユニット12の光変調素子12aから射出された光は、開口15a及び開口2aを通って第一部材2の中空部2Aに入射される。
 本体部1から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図3において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。方向Zのうち、紙面手前から奥に向かう方向を方向Z1と記載し、紙面奥から手前に向かう方向を方向Z2と記載する。また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図3において上に向かう方向を方向Y1と記載し、図3において下に向かう方向を方向Y2と記載する。図3の例では、方向Y2が鉛直方向となるようにプロジェクタ100が配置されている。
 第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12aによって形成された画像をスクリーンSCに投影するための光学系(以下、投影光学系という)を構成している。図3には、この投影光学系の光軸Kが示されている。第一光学系21、反射部材22、第二光学系31、分岐部材32、第三光学系33、及びレンズ34は、光変調素子12a側からこの順に光軸Kに沿って配置されている。図3の例では、光変調素子12aは、光軸Kよりも方向Y2側に偏心して配置されている。換言すると、光変調素子12aによって形成される画像の中心(後述の表示面12Aの中心)は、光軸Kとは一致しておらず、光軸Kよりも方向Y2側に位置する。
 第一光学系21は、少なくとも1つのレンズを含み、本体部1から第一部材2に入射された方向X1に進む光を反射部材22に導く。
 反射部材22は、第一光学系21から入射された光を方向Y1に反射させる。反射部材22は、例えばミラー等によって構成される。第一部材2には、反射部材22にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材3の中空部3Aへと進む。
 第二部材3は、断面外形が略T字状の部材であり、第一部材2の開口2bと対面する位置に開口3aが形成されている。第一部材2の開口2bを通過した本体部1からの光は、この開口3aを通って第二部材3の中空部3Aに入射される。なお、第一部材2や第二部材3の断面外形は任意であり、上述したものには限定されない。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材2から入射された光を、分岐部材32に導く。
 分岐部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。また、分岐部材32は、スクリーンSC側からレンズ34に入射されて第三光学系33を通過した方向X1に進む被写体光を透過させて、第四光学系37に導く。分岐部材32は、例えばハーフミラー又は偏光板等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、分岐部材32にて反射された光をレンズ34に導く。
 レンズ34は、第二部材3の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光をスクリーンSCに投影する。
 第四光学系37は、少なくとも1つのレンズを含み、分岐部材32の方向X1側の隣に配置されており、分岐部材32を透過して方向X1に進む被写体光を撮像素子38に導く。第四光学系37の光軸と、レンズ34及び第三光学系33の光軸とは一致している。なお、第四光学系37は焦点距離が可変のレンズを含んでいてもよい。
 撮像素子38は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。撮像素子38は、レンズ34、第三光学系33、分岐部材32、及び第四光学系37を通して、スクリーンSCを撮像する。レンズ34、第三光学系33、分岐部材32は、投影光学系の一部を構成している。
 シフト機構5は、投影光学系の光軸K(換言すると光学ユニット6)をその光軸Kに垂直な方向(図3の方向Y)に移動させるための機構である。具体的には、シフト機構5は、第一部材2の本体部1に対する方向Yの位置を変更することができるように構成されている。シフト機構5は、手動にて第一部材2を移動させるものの他、電動にて第一部材2を移動させるものであってもよい。
 図3は、シフト機構5によって第一部材2が方向Y1側に最大限移動された状態を示している。この図3に示す状態から、シフト機構5によって第一部材2が方向Y2に移動することで、光変調素子12aによって形成される画像の中心(換言すると表示面の中心)と光軸Kとの相対位置が変化して、スクリーンSCに投影されている画像G1を方向Y2にシフト(平行移動)させることができる。
 なお、シフト機構5は、光学ユニット6を方向Yに移動させる代わりに、光変調素子12aを方向Yに移動させる機構であってもよい。この場合でも、スクリーンSCに投影されている画像G1を方向Y2にシフトさせることができる。
 図4は、スクリーンSCに投影された画像G1を方向X2に見た模式図である。図4は、シフト機構5によって第一部材2が方向Y1側に最大限移動された状態(第一部材2のシフト位置がシフト位置PUである状態という)を示している。
 図4には、投影光学系から射出可能な光のスクリーンSCにおける受光範囲を示すイメージサークルC1が示されている。イメージサークルC1の内側には、イメージサークルC1と同一面上に境界サークルC2が示されている。イメージサークルC1と境界サークルC2は、それぞれ、光軸Kを中心とする同心円の1つである。
 プロジェクタ100においては、投影光学系の光学特性が、スクリーンSCにおいて境界サークルC2よりも内側の範囲に投影される光の光量は略均一となり、スクリーンSCにおいて境界サークルC2の外側の範囲に投影される光の光量は、境界サークルC2よりも内側の範囲に投影される光の光量に対し低下するものとなっている。つまり、投影光学系から一様な光を射出した場合に、境界サークルC2とイメージサークルC1の外周縁との間の範囲(以下、光量低下範囲という)に投影される光量は、境界サークルC2の内側に投影される光量よりも低下する。なお、境界サークルC2の内側に投影される光量は、光軸Kから周辺に向かって徐々に低下する分布を持っていてもよい。
 スクリーンSCにおいて光軸Kの位置に投影される光量Kaと、上記の光量低下範囲に投影される光量Kbとの比(以下、周辺光量比という)を、光量Kbを光量Kaで除した値とし、光軸Kを中心とする同心円の半径を像高と定義すると、周辺光量比は、像高が大きいほど、小さくなっている。
 図4に示すように、第一部材2のシフト位置がシフト位置PUにある状態においては、スクリーンSCに投影される画像G1の一部が光量低下範囲に重なる。したがって、画像G1は、その投影面内において一様でない光量分布を持つことになる。
 具体的には、画像G1のうち、境界サークルC2の外側にある特定領域Gaは、境界サークルC2の内側にある領域よりも光量が低下している。この特定領域Gaでは、像高が大きい位置にあるものほど、光量Kaに対する光量の低下度合が大きくなっている。画像G1の特定領域Gaは、投影光学系の光学特性(周辺光量比)によって生じる画像G1の光量分布によって決まる、光量が相対的に低下している領域である。
 なお、画像G1における特定領域Gaの位置及び大きさは、投影条件によって変化し得る。投影条件とは、投影光学系の焦点距離、投影光学系の焦点位置、及び、投影光学系とスクリーンSCとの距離のうちのいずれか1つ、或いは、これらから選ばれる複数の組み合わせである。また、画像G1における特定領域Gaの位置は、シフト機構5による第一部材2のシフト位置によっても変化し得る。
 図5は、図4に示す状態から、シフト機構5によって第一部材2が方向Y2側に移動された状態を示す図である。図5は、画像G1の中心と光軸Kとが一致した状態(第一部材2のシフト位置がシフト位置PCである状態)を示している。図5に示す状態においては、画像G1が光量低下領域と重なっていない。このため、画像G1に特定領域Gaは発生しない。
 図6は、図5に示す状態から、シフト機構5によって第一部材2が方向Y2側に移動された状態を示す図である。図6は、シフト機構5によって第一部材2が方向Y2側に最大限移動された状態(第一部材2のシフト位置がシフト位置PDである状態)を示している。
 図6に示す状態においては、画像G1が光量低下領域と重なるため、画像G1に特定領域Gaが発生する。しかし、その特定領域Gaの位置は、図5のときとは上下反転した位置となる。このように、第一部材2のシフト状態によって、画像G1における特定領域Gaの位置は変化する。
 図7は、図1に示すプロジェクタ100の内部ブロック構成を示す模式図である。プロジェクタ100の本体部1には、光源ユニット11と、光変調素子12a及び光変調素子12aを駆動する光変調素子駆動部12bを含む光変調ユニット12と、全体を統括制御するシステム制御部14と、が設けられている。光学ユニット6には、撮像素子38と、撮像素子38から入力された撮像画像信号を処理して撮像画像データを生成する画像処理部39と、が設けられている。画像処理部39によって生成された撮像画像データはシステム制御部14に入力される。撮像素子38と画像処理部39によって撮像部が構成される。
 光変調素子駆動部12bは、システム制御部14から入力される入力画像データに基づいて光変調素子12aを駆動し、光源ユニット11からの光をこの入力画像データによって空間変調させる。入力画像データとは、パーソナルコンピュータ、スマートフォン、タブレット端末等の外部装置から入力される画像データに限定されず、プロジェクタ100内部で生成した入力画像データでもよい。また、入力画像データのデータ形式は、デジタルデータ、デジタルアナログ変換後のアナログデータのどちらであってもよい。
 システム制御部14は、各種のプロセッサと、ROM(Read Only Memory)と、RAM(Random Accsess Memory)と、を備える。
 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Prosessing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 システム制御部14のプロセッサは、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。システム制御部14のプロセッサは、制御プログラムを実行することにより、補正部を備える制御装置として機能する。
 図4に示した状態の画像G1が、例えば入力画像データの各画素の画素値を上限値(8ビット画像であれば“255”)とした白画像である場合を想定する。この場合、画像G1のうち特定領域Gaにおいては光量が低下する。このため、画像G1は、全体が白の画像とはならず、特定領域Gaだけ少し暗くなった輝度ムラのある画像となる。補正部は、この輝度ムラを低減するために、入力画像データの補正を行う。
 具体的には、補正部は、特定領域Gaに対応する入力画像データの画素の画素値を増加させる第一処理と、この入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って、その入力画像データを補正する。
 システム制御部14のROMには、投影条件毎に、入力画像データのうちのどの画素が、特定領域Gaに対応する画素(補正対象画素)となるかの情報が記憶されている。そして、その特定領域Gaに対応する各画素の情報には、投影光学系の光学特性とその投影条件に基づいて決まる上記の周辺光量比に応じた補正係数が対応付けて記憶されている。任意の画素に対応する補正係数は、その画素に対応する投影像の位置(像高)における周辺光量比の逆数が例えば用いられる。例えば、周辺光量比が0.8となる像高に対応する画素には、“1/0.8”の補正係数が対応付けて記憶される。
 図8は、システム制御部14のROMに記憶される情報の例を示す模式図である。図8に示すように、システム制御部14のROMには、多数の補正テーブルT1が記憶されている。補正テーブルT1は、上述したように、投影条件と、その投影条件において生じる特定領域Gaに対応する入力画像データの画素(補正対象画素)の情報と、その補正対象画素に対応する補正係数と、を含むデータテーブルである。
 補正テーブルT1は、設定可能な投影条件毎に用意されて記憶されている。また、図8に示した投影条件毎の補正テーブルT1は、第一部材2のシフト位置がシフト位置PUにある状態と、第一部材2のシフト位置がシフト位置PDにある状態とで、それぞれ個別に作成されて記憶される。
 図9は、システム制御部14の動作を説明するためのフローチャートである。図10は、システム制御部14の動作を説明するための模式図である。
 図10に示したグラフの横軸は、入力画像データの各画素の位置を、その各画素に対応する投影像における像高で表したものとなっている。この入力画像データの各画素の位置は、イメージサークルC1の像高を“1”として正規化している。また、図10に示したグラフの縦軸は、入力画像データの画素値を示しており、光変調ユニット12に入力可能な上限値を“1.0”として正規化したものとなっている。
 システム制御部14は、入力画像データg1を取得すると(ステップS1)と、その時点にて設定されている第一部材2のシフト位置を判定する(ステップS2)。シフト位置が図5に示したシフト位置PCであった場合(ステップS2:YES)には、システム制御部14は、取得した入力画像データg1を光変調ユニット12に入力して、この入力画像データg1に基づく画像を投影光学系からスクリーンSCに投影させる(ステップS11)。なお、本実施形態においては、シフト位置がシフト位置PCである場合に、光量低下領域と画像G1とが重ならない構成のため、ステップS2の判定がYESのときには、入力画像データg1の補正が行われない。しかし、例えば、上述した境界サークルC2が小さい場合など、シフト位置がシフト位置PCであっても画像G1と光量低下領域とが重なる場合には、そのシフト位置に応じた補正テーブルを利用して、入力画像データg1の補正を行うことが好ましい。
 シフト位置が図4又は図6に示したシフト位置PU又はシフト位置PDであった場合(ステップS2:NO)には、システム制御部14は、その時点にて設定されている投影条件と第一部材2のシフト位置に対応する補正テーブルT1をROMから読み出す(ステップS3)。
 そして、システム制御部14は、入力画像データg1の画素のうち、補正テーブルT1にて指定されている各補正対象画素の画素値に、その各補正対象画素に対応する補正係数を乗じることで、各補正対象画素の画素値を増加させる処理を行う(ステップS4)。ステップS4は第一処理に相当する。以下では、入力画像データg1のステップS4の処理後のデータを、入力画像データg2という。
 図10には、各画素値が“1.0”となる入力画像データg1と、この入力画像データg1に対してステップS4の処理がなされた後の入力画像データg2とが示されている。ステップS4の処理により、入力画像データg1のうち、特定領域Gaに対応する部分(像高0.8から1の範囲の画素)だけ、画素値が増加される。
 次に、システム制御部14は、ステップS4にて画素値を増加させた補正対象画素のうち、画素値が最大となった最大画素を特定し、その最大画素の画素値が、光変調ユニット12に入力可能な上限値(例えば、8ビット画像であれば“255”)を超えているか否かを判定する(ステップS5)。
 システム制御部14は、最大画素の画素値が上限値を超えていた場合(ステップS5:YES)には、その最大画素の画素値から、その最大画素のステップS4の処理前の画素値を減算して得た値をオフセット量として決定する(ステップS6)。オフセット量は、上記の第一画素量に相当する。
 例えば、図10に示す例では、入力画像データg2のうち、像高“1”の画素が最大画素となっており、この最大画素の画素値は上限値である1.0を超えている。この例であれば、入力画像データg2のうちの像高“1”の画素値と、入力画像データg1のうちの像高“1”の画素値との差はM1となっており、これがオフセット量として決定される。
 オフセット量を決定すると、システム制御部14は、入力画像データg2の各画素の画素値を、このオフセット量だけ一律に減少させる処理を行う(ステップS7)。ステップS7は、第二処理に相当する。また、ステップS4とステップS7によって補正ステップが構成される。
 図10の下段には、ステップS7の処理が行われた後の入力画像データg2が示されている。図10に示すように、ステップS7の処理によって、入力画像データg2の各画素値は、上限値以下の値になる。
 ステップS7の後、システム制御部14は、入力画像データg2を光変調ユニット12に入力して、この入力画像データg2に基づく画像を投影光学系からスクリーンSCに投影させる(ステップS8)。
 ステップS5の判定がNOであった場合、つまり、最大画素の画素値が上限値以下であった場合には、システム制御部14は、ステップS6とステップS7を省略して、換言すると、上述のオフセット量をゼロに決定して、ステップS8の処理を行う。
 システム制御部14は、ステップS8とステップS11の処理後、新たな入力画像データg1が入力された場合(ステップS9:YES)には、ステップS1に処理を戻す。システム制御部14は、ステップS8とステップS11の処理後、新たな入力画像データg1が入力されていない場合(ステップS9:NO)には、第一部材2のシフト位置が変更されたか否かを判定する(ステップS10)。システム制御部14は、シフト位置が変更された場合(ステップS10:YES)には、ステップS2に処理を戻し、シフト位置が変更されていない場合(ステップS10:NO)には、ステップS9に処理を戻す。
 図9に示す動作によれば、図10に例示したように、入力画像データg1が白画像(全ての画素値が1.0)であった場合でも、ステップS4とステップS7の処理によって、特定領域Gaに対応する画素の画素値を、特定領域Ga以外に対応する画素の画素値よりも大きくすることができる。この結果、入力画像データg2に基づく画像G1は、図4の状態と比較すると、特定領域Ga以外の部分の輝度は多少低くなるものの、この部分と特定領域Gaとの輝度差をなくすことができる。したがって、輝度ムラを低減した画像G1を投影することが可能となる。
 また、入力画像データg1が白画像ではなく、ステップS6とステップS7が省略される場合には、入力画像データg1のうち、特定領域Gaに対応する画素の画素値だけが、周辺光量比に応じて増加された状態となる。この結果、画像G1において、特定領域Gaの輝度を持ち上げることができ、画像G1の輝度ムラを低減することができる。
(実施形態のプロジェクタの第一変形例)
 図9の動作例では、ステップS6において、最大画素のステップS4の処理後の値とステップS4の処理前の値との差分をオフセット量として決定している。この変形例として、システム制御部14は、ステップS4の処理によって得られた入力画像データg2のうち、特定領域Gaに対応する画素の画素値の分布に基づいて、オフセット量を決定してもよい。
 図11は、ステップS4の処理によって得られた入力画像データg2の画素値のヒストグラムの一例を示す図である。図11の横軸は画素値を示し、縦軸は画素値の出現頻度を示している。図11に示すヒストグラムのうち、画素値255以上の範囲(図中の破線よりも右側の範囲)は、光変調ユニット12の入力可能な上限値を超える範囲であるため、画像として投影されなくなる部分(飽和部分)である。
 この範囲における度数の累積値が大きいと、特定領域Gaの輝度低下(画像G1の輝度ムラ)が大きくなる。そこで、システム制御部14は、この範囲において、上限値を超えないようにする画素値を決定する。システム制御部14は、例えば、この範囲における画素値の高い方から度数を積算していき、積算値が閾値(例えば100)に達した時点の画素値を検出する。そして、システム制御部14は、この検出した画素値と上限値(255)との差をオフセット量として決定する。例えば、図11の例では、画素値が275以上の範囲の度数の積算値が100となっており、画素値:275と画素値:255の差である“20”がオフセット量として決定される。
 図12は、図11に示すヒストグラムを持つ入力画像データg2の各画素値を“20”だけ減少させた状態のヒストグラムを示す図である。図11と図12を比較してわかるように、ヒストグラムに基づいてオフセット量を決定することで、第二処理後の入力画像データg2において、特定領域Gaにおいて飽和部分となる画素値の数を減らして、投影される画像G1の輝度ムラを低減することができる。
(実施形態のプロジェクタの第二変形例)
 図9のステップS6においてオフセット量を決定する際に、システム制御部14が、入力画像データg1に基づいて、オフセット量の調整を行ってもよい。具体的には、システム制御部14のROMに、図13に例示する調整テーブルT2又は調整テーブルT3を記憶しておく。
 調整テーブルT2は、ステップS4の処理前の入力画像データg1の明るさ条件毎に調整係数を対応付けたテーブルである。この明るさ条件には、例えば、入力画像データg1の明るさ(例えば平均輝度)が明るさ閾値を超えるという明るさ条件L1と、入力画像データg1の明るさが上記の明るさ閾値以下になるという明るさ条件L2と、が含まれる。明るさ条件1に対応する調整係数β1は、明るさ条件2に対応する調整係数β2よりも大きい値となっている。例えば、調整係数β1は“1”であり、調整係数β2は“0.8”である。
 調整テーブルT3は、ステップS4の処理前の入力画像データg1の属性条件毎に調整係数を対応付けたテーブルである。画像データの属性情報とは、その画像データが例えば写真を主体にしたものであるのか、その画像データが文字(文章)を主体にしたものであるのかといった、画像データの内容を示す情報である。画像データの属性情報は、例えば、その画像データの生成時に、その画像データのメタデータに付加される。
 属性条件には、例えば、入力画像データg1の属性情報が写***体であることを示す属性条件AT1と、入力画像データg1の属性情報が文字主体であることを示す属性条件AT2と、が含まれる。属性条件AT1に対応する調整係数β3は、属性条件AT2に対応する調整係数β4よりも小さい値となっている。例えば、調整係数β3は“0.8”であり、調整係数β4は“1”である。
 システム制御部14は、ステップS6において、上述した方法によってオフセット量を仮決定した後、入力画像データg1の明るさを算出し、算出した明るさが上記の明るさ閾値を超えていれば、仮決定したオフセット量に調整テーブルT2の調整係数β1を乗じて、オフセット量を決定する。システム制御部14は、算出した明るさが上記の明るさ閾値以下であれば、仮決定したオフセット量に、調整テーブルT2の調整係数β2を乗じて、オフセット量を決定する。
 以上の処理により、入力画像データg1が暗いものである場合(明るさが明るさ閾値以下の場合)には、入力画像データg1が明るいものである場合(明るさが明るさ閾値を超える場合)よりも、オフセット量が小さい値に調整される。このため、暗い画像においては、全体の明るさが低減するのを防ぎつつ、輝度ムラを低減することができる。また、明るい画像においては、輝度ムラを強く抑制することができる。
 または、システム制御部14は、ステップS6において、上述した方法によってオフセット量を仮決定した後、入力画像データg1の属性情報に基づいて入力画像データg1の内容を判定し、内容が写***体であれば、仮決定したオフセット量に調整テーブルT3の調整係数β3を乗じて、オフセット量を決定する。システム制御部14は、内容が文字主体あれば、仮決定したオフセット量に、調整テーブルT3の調整係数β4を乗じて、オフセット量を決定する。
 以上の処理により、入力画像データg1が写***体である場合には、入力画像データg1が文字主体である場合よりも、オフセット量が小さい値に調整される。このため、広いダイナミックレンジが求められる写***体の画像においては、輝度ムラを低減しつつ、ダイナミックレンジの低下を防いで、高品質の画像を投影することができる。また、広いダイナミックレンジが求められない文字主体の画像においては、輝度ムラを強く抑制することができる。
(実施形態のプロジェクタの第三変形例)
 ここまでの説明では、図9のステップS6においてオフセット量を決定する際に、システム制御部14が、入力画像データg1の明るさや内容、又は、入力画像データg2の画素値に基づいて、オフセット量の決定を行うものとした。しかし、システム制御部14は、ステップS7の処理で用いるオフセット量を予め決められた固定値としてもよい。このようにオフセット量を固定値とする場合でも、入力画像データg1の明るさや内容に基づいてその固定値に調整係数を乗じてオフセット量を調整することが好ましい。
(実施形態のプロジェクタの第四変形例)
 第二変形例では、システム制御部14が、入力画像データg1の明るさや内容に基づいてオフセット量を制御するものとした。システム制御部14は、ステップS6にて、入力画像データg1の明るさや内容に基づいてオフセット量を調整する代わりに、ステップS4において、入力画像データg1の明るさや内容に基づいて、各補正対象画素の画素値の増加率を制御してもよい。
 ステップS4にて用いられる任意の補正対象画素の画素値の増加率は、その補正対象画素に対応する特定領域Gaの像高における周辺光量比の逆数である。システム制御部14は、入力画像データg1の明るさや内容に基づく図13に示した調整係数を、この増加率に乗じることで、入力画像データg1の明るさや内容に応じて増加率を制御してもよい。
 例えば、システム制御部14は、入力画像データg1の明るさが明るさ閾値を超えていれば、ステップS4にて用いられる各補正対象画素の補正係数に調整係数β1を乗じた値を、その各補正対象画素の画素値に乗じることで、入力画像データg2を生成する。また、システム制御部14は、入力画像データg1の明るさが明るさ閾値以下であれば、ステップS4にて用いられる各補正対象画素の補正係数に調整係数β2を乗じた値を、その各補正対象画素の画素値に乗じることで、入力画像データg2を生成する。
 同様に、システム制御部14は、入力画像データg1の内容が写***体であれば、ステップS4にて用いられる各補正対象画素の補正係数に調整係数β3を乗じた値を、その各補正対象画素の画素値に乗じることで、入力画像データg2を生成する。また、システム制御部14は、入力画像データg1の内容が文字主体であれば、ステップS4にて用いられる各補正対象画素の補正係数に調整係数β2を乗じた値を、その各補正対象画素の画素値に乗じることで、入力画像データg2を生成する。
 このようにした場合には、ステップS4の処理に用いられる補正係数(増加率)が低く調整される場合がある。このように増加率が低く調整されると、最大画素の画素値の増加量も小さくなる。そのため、ステップS6にて決定されるオフセット量が小さくなる。この結果、画像の明るさや内容に応じて、ステップS7の処理後の入力画像データg2に基づく画像の明るさを最適化することができる。
(実施形態のプロジェクタの第五変形例)
 システム制御部14は、図9のステップS6にてオフセット量を決定すると、このオフセット量をRAMに記憶しておき、次にオフセット量を決定する際に、このRAMに記憶したオフセット量を考慮して、オフセット量を決定してもよい。
 例えば、システム制御部14は、RAMに記憶されている過去のオフセット量と、ステップS6にて決定したオフセット量の変化量(例えば両者の差)が閾値以上となっている場合には、RAMに記憶されている過去のオフセット量を、その後のステップS7の処理に用いるオフセット量として決定する。
 上記のオフセット量の変化量が閾値以上となる場合には、例えば、動画等のように、入力画像データg1の変化が大きい場合がある。このように、オフセット量の変化が大きくなる場合には、オフセット量を変化させずにステップS7の処理を行うことで、投影される画像の明るさ変化を抑制して、投影される画像の品質を高めることができる。
 なお、前述したようにステップS4にて用いる補正係数を制御する形態であれば、システム制御部14は、RAMに記憶されている過去の補正係数と、ステップS4にて決定した補正係数との変化量(例えば両者の差)が閾値以上となっている場合には、RAMに記憶されている過去の補正係数を、ステップS4の処理に用いる補正係数として決定すればよい。
 上記の補正係数の変化量が閾値以上となる場合には、例えば、動画等のように、入力画像データg1の変化が大きい場合がある。このように、補正係数の変化が大きくなる場合には、補正係数を変化させずにステップS4の処理を行うことで、投影される画像の輝度ムラの変化を抑制して、投影される画像の品質を高めることができる。
 また、システム制御部14は、RAMに記憶されている過去の入力画像データg1と、現在取得している入力画像データg1の変化量を求め、この変化量が動画であると判定できる程度の値となっている場合には、RAMに記憶されている過去のオフセット量又は補正係数を、そのステップS7又はステップS4の処理に用いるオフセット量又は補正係数として決定してもよい。このようにすることでも、投影される画像の明るさ変化を抑制して、投影される画像の品質を高めることができる。
(実施形態のプロジェクタの第六変形例)
 システム制御部14は、図4に示すシフト位置から図5に示すシフト位置に変更された場合や、図6に示すシフト位置から図5に示すシフト位置に変更された場合においては、入力画像データg1に対し、シフト位置の変更前にステップS6にて決定していたオフセット量を用いて、ステップS7の処理を行い、その処理後の入力画像データg1に基づく画像をスクリーンSCに投影させることが好ましい。
 図9の動作例では、例えば、シフト位置が、シフト位置PU又はシフト位置PDからシフト位置PCに変更されると、ステップS11の処理が行われる。すなわち、入力画像データg1が補正されることなく、そのまま光変調ユニット12に入力されて、この入力画像データg1に基づく画像が投影される。
 この変形例では、ステップS2の判定がYESになると、システム制御部14は、直前のステップS6にて決定されたオフセット量がRAMに記憶されていれば、このオフセット量を用いて、入力画像データg1の各画素値をこのオフセット量だけ一律に減少させる処理を行い、その後、ステップS11に処理を移行する。
 この変形例によれば、シフト位置がシフト位置PU又はシフト位置PDにあり、ステップS7の処理が行われている状態から、シフト位置がステップS7の処理を行う必要のないシフト位置PCに変化した場合であっても、入力画像データg1の全体の明るさを、シフト位置の変更前の入力画像データg2の明るさに近づけることができる。この結果、シフト位置の変更による投影画像の明るさの大きな変化を抑制することができる。
(実施形態のプロジェクタの第七変形例)
 この変形例では、図1に示すプロジェクタ100を複数台用いて1つの大画面を表示させるシステムを前提としている。この大画面は、各プロジェクタ100からスクリーンSCに投影される画像の一部を重複させた状態にて形成される。
 特定のプロジェクタ100のシステム制御部14は、自装置以外の他のプロジェクタ100のシステム制御部14と接続されると、パノラマモードで動作する。
 このパノラマモードでは、システム制御部14は、自装置から投影すべき画像の元となる自装置用の入力画像データg1と、他装置から投影すべき画像の元となる他装置用の入力画像データg1と、をそれぞれ取得する。システム制御部14は、自装置用の入力画像データg1を取得すると、図9に示した動作にしたがって、入力画像データg1の補正を行う。システム制御部14は、この補正に用いた補正対象画素の補正係数及びオフセット量を用いて、他装置用の入力画像データg1の補正を同様に行い、補正後の入力画像データg2を他装置のシステム制御部14に送信する。これにより、各プロジェクタ100からは、同じパラメータ(補正係数及びオフセット量)によって補正された入力画像データg2に基づく画像がスクリーンSCに投影される。
 この変形例によれば、複数のプロジェクタ100から画像の一部を重複させて大画面投影を行う場合に、各画像の明るさの差を抑制することができる。したがって、大画面投影時における画像の品質を高めることができる。
(実施形態のプロジェクタの第八変形例)
 図1に示したプロジェクタ100は、図3に示す方向Y2が鉛直方向となる設置状態にて使用されるものとして説明してきた。しかし、例えばプロジェクタ100が天井に設置されるなどして、方向Y1が鉛直方向となる設置状態で用いられることもある。
 方向Y1が鉛直方向となる設置状態においては、図3の設置状態に対し、表示部の表示面に表示させる画像を上下反転させる必要がある。一方で、図4や図6に示した特定領域Gaに対応する補正対象画素の位置は、シフト位置や投影条件によって決まるものであり、プロジェクタ100の設置状態によって変化はしない。
 そこで、システム制御部14は、まず、設置状態が、方向Y2が鉛直方向となる第一設置状態と、方向Y1が鉛直方向となる第二設置状態とのどちらであるのかを、プロジェクタ100に設けられた加速度センサ等の情報に基づいて判定する。システム制御部14は、第一設置状態であった場合には、上述してきた内容にて、入力画像データg1の補正を行う。システム制御部14は、第二設置状態であった場合には、取得した入力画像データg1を上下反転させてから、上述してきた内容にて、その入力画像データg1の補正を行う。
 このように、第二設置状態である場合に、上述してきた内容にて入力画像データg1の補正を行ってから、その補正後の入力画像データg1の上下反転を行って画像を投影させるのではなく、入力画像データg1の上下反転を行ってから、その入力画像データg1の補正を行い、補正後の入力画像データg1に基づく画像を投影させることで、設置状態が変化した場合でも、投影される画像の輝度ムラを低減することができる。
(実施形態のプロジェクタの第九変形例)
 システム制御部14は、図9に示した処理(入力画像データg1の補正(第一処理及び第二処理)を含む処理)を行う補正モードと、図9に示した処理(入力画像データg1の補正(第一処理及び第二処理)を行わない非補正モードと、を選択的に実行できるものであってもよい。非補正モードにおいては、図9に示したステップS1の後、ステップS11の処理が行われて、ステップS9に処理が移行される。
 システム制御部14は、例えば、プロジェクタ100に設けられた図示省略の操作部から入力される切替指示を受けると、補正モードと非補正モードの切り替えを行う。なお、システム制御部14は、入力画像データg1の内容を判別し、入力画像データg1が静止画であれば補正モードを実行し、入力画像データg1が動画であれば非補正モードを実行してもよい。
(実施形態のプロジェクタの第十変形例)
 ここまでの説明では、システム制御部14のROMに、図8に示した補正テーブルT1が予め記憶されているものとした。しかし、光学ユニット6が交換可能であり、その光学ユニット6の光学特性が不明な場合には、補正テーブルT1を補正に用いることはできない。
 そこで、システム制御部14は、補正テーブルT1が対応付けて記憶されていない光学ユニット6が装着された場合には、光変調ユニット12にテスト画像データ(例えば白画像を表示するためのデータ)を入力して、このテスト画像データに基づくテスト画像をスクリーンSCに投影させる。
 システム制御部14は、このテスト画像が投影された状態にて、撮像素子38によってそのテスト画像を撮像させ、その撮像によって得られる撮像画像データを取得する。システム制御部14は、この撮像画像データの各画素の画素値を解析し、スクリーンSCに投影されたテスト画像のうちのスクリーンSCの面内の光量分布によって決まる特定領域を検出する。そして、撮像画像データのうち、その特定領域に対応する画素を補正対象画素とし、その補正対象画素の画素値と、撮像画像データのうちの特定領域外の画素の画素値との比の逆数を補正係数として算出して補正テーブルに登録する。このようにして、システム制御部14は、撮像画像データに基づいて補正テーブルを生成することで、光学特性が未知の光学ユニット6が装着された場合でも、投影される画像の輝度ムラの低減が可能となる。
 ここまで説明してきた実施形態とその変形例は、矛盾の生じない範囲にて、適宜組み合わせ可能である。
 図1に示すプロジェクタ100では、撮像部が、投影光学系の一部を通してスクリーンSCを撮像する構成となっている。しかし、撮像部は、光学ユニット6とは別体として設けられていてもよい。また、プロジェクタ100の光学ユニット6の構成は一例であり、図3に示したものに限定されるものではない。例えば、表示部からの画像が第二光学系31に直接入射される構成であってもよい。また、シフト機構5は必須ではなく省略可能である。
(1)
 入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御装置であって、
 上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正部を備える制御装置。
(2)
 (1)記載の制御装置であって、
 上記光量分布は、上記光学系の光学特性に基づいて決まる制御装置。
(3)
 (2)記載の制御装置であって、
 上記光学特性は、上記光学系の光軸位置に投影される光量と上記光軸位置から離れた位置に投影される光量との比である制御装置。
(4)
 (1)から(3)のいずれか1つに記載の制御装置であって、
 上記補正部は、上記第一処理された上記特定領域に対応する上記画素の画素値に基づいて上記第一画素量を制御する制御装置。
(5)
 (4)記載の制御装置であって、
 上記補正部は、上記第一処理された上記特定領域に対応する上記画素のうちの画素値が最大となる最大画素の上記画素値に基づいて上記第一画素量を制御する制御装置。
(6)
 (5)記載の制御装置であって、
 上記補正部は、上記最大画素の上記画素値が上記表示部に入力可能な上限値を超える場合には、上記最大画素の上記画素値と、上記最大画素の上記第一処理前の画素値との差を、上記第一画素量とする制御装置。
(7)
 (5)記載の制御装置であって、
 上記補正部は、上記最大画素の上記画素値が上記表示部に入力可能な上限値以下の場合には、上記第二処理を省略する制御装置。
(8)
 (4)記載の制御装置であって、
 上記補正部は、上記第一処理された上記特定領域に対応する上記画素の画素値の分布に基づいて上記第一画素量を制御する制御装置。
(9)
 (1)から(3)のいずれか1つに記載の制御装置であって、
 上記補正部は、補正前の上記入力画像データに基づいて、上記第一処理における上記画素値の増加率又は上記第一画素量を制御する制御装置。
(10)
 (9)記載の制御装置であって、
 上記補正部は、補正前の上記入力画像データの明るさに基づいて上記増加率又は上記第一画素量を制御する制御装置。
(11)
 (9)記載の制御装置であって、
 上記補正部は、補正前の上記入力画像データの内容に基づいて上記増加率又は上記第一画素量を制御する制御装置。
(12)
 (9)から(11)のいずれか1つに記載の制御装置であって、
 上記補正部は、複数の上記入力画像データの補正を行う場合に、上記入力画像データの変化量、或いは、上記増加率又は上記第一画素量の変化量が閾値以上となる場合には、上記増加率又は上記第一画素量を、直前に補正した上記入力画像データの補正に用いられた値に維持する制御装置。
(13)
 (1)から(12)のいずれか1つに記載の制御装置であって、
 上記補正部は、上記画像の投影条件に基づいて、上記第一処理にて上記画素値を増加させる画素の位置と、その画素値の増加率を制御する制御装置。
(14)
 (13)記載の制御装置であって、
 上記投影条件は、上記光学系の焦点距離、上記光学系の焦点位置、及び、上記光学系と上記投影対象物の距離の少なくとも1つを含む制御装置。
(15)
 (1)から(14)のいずれか1つに記載の制御装置であって、
 上記投影装置は、別の上記投影装置と連携して上記投影対象物に複数の上記画像を一部重複させた状態にて投影するモードを有し、
 上記補正部は、上記モードにおいては、自装置において決定した上記第一画素量を用いて、上記別の上記投影装置の上記表示部に入力される上記入力画像データに対する上記第二処理を実行する制御装置。
(16)
 (1)から(14)のいずれか1つに記載の制御装置であって、
 上記投影装置は、上記表示部の表示面が上記光学系の光軸に対して一方向に偏心した状態にて上記画像を投影可能であり、
 上記補正部は、上記投影装置の姿勢に基づいて上記入力画像データを回転させてから、上記第一処理及び上記第二処理を行う制御装置。
(17)
 (1)から(14)のいずれか1つに記載の制御装置であって、
 上記投影装置は、上記表示部の表示面と上記光学系の光軸との一方向における相対位置を変更するシフト機構を有し、
 上記補正部は、上記特定領域が発生する上記相対位置において、上記第一処理及び上記第二処理を含む補正を行う制御装置。
(18)
 (17)記載の制御装置であって、
 上記補正部は、上記特定領域が発生する上記相対位置から、上記特定領域が消滅する上記相対位置へと変更された場合には、上記補正の代わりに、上記入力画像データの各画素値を上記変更前の上記補正時における上記第一画素量だけ一律に減少させる処理を行う制御装置。
(19)
 (1)から(18)のいずれか1つに記載の制御装置であって、
 上記投影装置は、上記投影対象物を撮像する撮像部を有し、
 上記補正部は、上記撮像部から取得した上記投影対象物に投影された上記画像の撮像画像データに基づいて上記特定領域を検出する制御装置。
(20)
 (1)から(19)のいずれか1つに記載の制御装置であって、
 上記特定領域は、上記投影対象物に投影される上記画像のうちの周辺領域である制御装置。
(21)
 (1)から(20)のいずれか1つに記載の制御装置であって、
 上記第一処理及び上記第二処理を含む補正を実行する補正モードと、上記補正を非実行とする非補正モードとを選択的に実行する制御装置。
(22)
 (21)記載の制御装置であって、
 入力指示に基づいて、上記補正モードと上記非補正モードを切り替える制御装置。
(23)
 (21)記載の制御装置であって、
 上記入力画像データの内容に基づいて、上記補正モードと上記非補正モードを切り替える制御装置。
(24)
 (1)から(23)のいずれか1つに記載の制御装置と、
 上記光学系と、を備える投影装置。
(25)
 入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御方法であって、
 上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正ステップを含む制御方法。
(26)
 (25)記載の制御方法であって、
 上記光量分布は、上記光学系の光学特性に基づいて決まる制御方法。
(27)
 (26)記載の制御方法であって、
 上記光学特性は、上記光学系の光軸位置に投影される光量と上記光軸位置から離れた位置に投影される光量との比である制御方法。
(28)
 (25)から(27)のいずれか1つに記載の制御方法であって、
 上記補正ステップは、上記第一処理された上記特定領域に対応する上記画素の画素値に基づいて上記第一画素量を制御する制御方法。
(29)
 (28)記載の制御方法であって、
 上記補正ステップは、上記第一処理された上記特定領域に対応する上記画素のうちの画素値が最大となる最大画素の上記画素値に基づいて上記第一画素量を制御する制御方法。
(30)
 (29)記載の制御方法であって、
 上記補正ステップは、上記最大画素の上記画素値が上記表示部に入力可能な上限値を超える場合には、上記最大画素の上記画素値と、上記最大画素の上記第一処理前の画素値との差を、上記第一画素量とする制御方法。
(31)
 (29)記載の制御方法であって、
 上記補正ステップは、上記最大画素の上記画素値が上記表示部に入力可能な上限値以下の場合には、上記第二処理を省略する制御方法。
(32)
 (28)記載の制御方法であって、
 上記補正ステップは、上記第一処理された上記特定領域に対応する上記画素の画素値の分布に基づいて上記第一画素量を制御する制御方法。
(33)
 (25)から(27)のいずれか1つに記載の制御方法であって、
 上記補正ステップは、補正前の上記入力画像データに基づいて、上記第一処理における上記画素値の増加率又は上記第一画素量を制御する制御方法。
(34)
 (33)記載の制御方法であって、
 上記補正ステップは、補正前の上記入力画像データの明るさに基づいて上記増加率又は上記第一画素量を制御する制御方法。
(35)
 (33)記載の制御方法であって、
 上記補正ステップは、補正前の上記入力画像データの内容に基づいて上記増加率又は上記第一画素量を制御する制御方法。
(36)
 (33)から(35)のいずれか1つに記載の制御方法であって、
 上記補正ステップは、複数の上記入力画像データの補正を行う場合に、上記入力画像データの変化量、或いは、上記増加率又は上記第一画素量の変化量が閾値以上となる場合には、上記増加率又は上記第一画素量を、直前に補正した上記入力画像データの補正に用いられた値に維持する制御方法。
(37)
 (25)から(36)のいずれか1つに記載の制御方法であって、
 上記補正ステップは、上記画像の投影条件に基づいて、上記第一処理にて上記画素値を増加させる画素の位置と、その画素値の増加率を制御する制御方法。
(38)
 (37)記載の制御方法であって、
 上記投影条件は、上記光学系の焦点距離、上記光学系の焦点位置、及び、上記光学系と上記投影対象物の距離の少なくとも1つを含む制御方法。
(39)
 (25)から(38)のいずれか1つに記載の制御方法であって、
 上記投影装置は、別の上記投影装置と連携して上記投影対象物に複数の上記画像を一部重複させた状態にて投影するモードを有し、
 上記補正ステップは、上記モードにおいては、自装置において決定した上記第一画素量を用いて、上記別の上記投影装置の上記表示部に入力される上記入力画像データに対する上記第二処理を実行する制御方法。
(40)
 (25)から(38)のいずれか1つに記載の制御方法であって、
 上記投影装置は、上記表示部の表示面が上記光学系の光軸に対して一方向に偏心した状態にて上記画像を投影可能であり、
 上記補正ステップは、上記投影装置の姿勢に基づいて上記入力画像データを回転させてから、上記第一処理及び上記第二処理を行う制御方法。
(41)
 (25)から(38)のいずれか1つに記載の制御方法であって、
 上記投影装置は、上記表示部の表示面と上記光学系の光軸との一方向における相対位置を変更するシフト機構を有し、
 上記補正ステップは、上記特定領域が発生する上記相対位置において、上記第一処理及び上記第二処理を含む補正を行う制御方法。
(42)
 (41)記載の制御方法であって、
 上記補正ステップは、上記特定領域が発生する上記相対位置から、上記特定領域が消滅する上記相対位置へと変更された場合には、上記補正の代わりに、上記入力画像データの各画素値を上記変更前の上記補正時における上記第一画素量だけ一律に減少させる処理を行う制御方法。
(43)
 (25)から(42)のいずれか1つに記載の制御方法であって、
 上記投影装置は、上記投影対象物を撮像する撮像部を有し、
 上記補正ステップは、上記撮像部から取得した上記投影対象物に投影された上記画像の撮像画像データに基づいて上記特定領域を検出する制御方法。
(44)
 (25)から(43)のいずれか1つに記載の制御方法であって、
 上記特定領域は、上記投影対象物に投影される上記画像のうちの周辺領域である制御方法。
(45)
 (25)から(44)のいずれか1つに記載の制御方法であって、
 上記第一処理及び上記第二処理を含む補正を実行する補正モードと、上記補正を非実行とする非補正モードとを選択的に実行する制御方法。
(46)
 (45)記載の制御方法であって、
 入力指示に基づいて、上記補正モードと上記非補正モードを切り替える制御方法。
(47)
 (45)記載の制御方法であって、
 上記入力画像データの内容に基づいて、上記補正モードと上記非補正モードを切り替える制御方法。
(48)
 入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御プログラムであって、
 上記投影対象物に投影される上記画像のうちの上記投影対象物面内の光量分布によって決まる特定領域に対応する上記入力画像データの画素の画素値を増加させる第一処理と、上記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って上記入力画像データを補正する補正ステップをコンピュータに実行させるための制御プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年7月26日出願の日本特許出願(特願2019-138119)に基づくものであり、その内容は本出願の中に参照として援用される。
100 プロジェクタ
1 本体部
2 第一部材
2a、2b 開口
2A 中空部
21 第一光学系
22 反射部材
3 第二部材
3a、3c 開口
3A 中空部
31 第二光学系
32 分岐部材
33 第三光学系
34 レンズ
37 第四光学系
38 撮像素子
39 画像処理部
5 シフト機構
6 光学ユニット
11 光源ユニット
41 光源
42 カラーホイール
43 照明光学系
12 光変調ユニット
12a 光変調素子
12b 光変調素子駆動部
14 システム制御部
15 筐体
15a 開口
K 光軸
SC スクリーン
C1 イメージサークル
C2 境界サークル
G1 画像
Ga 特定領域
g1、g2 入力画像データ
M1 差
T1 補正テーブル
T2、T3 調整テーブル

Claims (48)

  1.  入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御装置であって、
     前記投影対象物に投影される前記画像のうちの前記投影対象物面内の光量分布によって決まる特定領域に対応する前記入力画像データの画素の画素値を増加させる第一処理と、前記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って前記入力画像データを補正する補正部を備える制御装置。
  2.  請求項1記載の制御装置であって、
     前記光量分布は、前記光学系の光学特性に基づいて決まる制御装置。
  3.  請求項2記載の制御装置であって、
     前記光学特性は、前記光学系の光軸位置に投影される光量と前記光軸位置から離れた位置に投影される光量との比である制御装置。
  4.  請求項1から3のいずれか1項記載の制御装置であって、
     前記補正部は、前記第一処理された前記特定領域に対応する前記画素の画素値に基づいて前記第一画素量を制御する制御装置。
  5.  請求項4記載の制御装置であって、
     前記補正部は、前記第一処理された前記特定領域に対応する前記画素のうちの画素値が最大となる最大画素の前記画素値に基づいて前記第一画素量を制御する制御装置。
  6.  請求項5記載の制御装置であって、
     前記補正部は、前記最大画素の前記画素値が前記表示部に入力可能な上限値を超える場合には、前記最大画素の前記画素値と、前記最大画素の前記第一処理前の画素値との差を、前記第一画素量とする制御装置。
  7.  請求項5記載の制御装置であって、
     前記補正部は、前記最大画素の前記画素値が前記表示部に入力可能な上限値以下の場合には、前記第二処理を省略する制御装置。
  8.  請求項4記載の制御装置であって、
     前記補正部は、前記第一処理された前記特定領域に対応する前記画素の画素値の分布に基づいて前記第一画素量を制御する制御装置。
  9.  請求項1から3のいずれか1項記載の制御装置であって、
     前記補正部は、補正前の前記入力画像データに基づいて、前記第一処理における前記画素値の増加率又は前記第一画素量を制御する制御装置。
  10.  請求項9記載の制御装置であって、
     前記補正部は、補正前の前記入力画像データの明るさに基づいて前記増加率又は前記第一画素量を制御する制御装置。
  11.  請求項9記載の制御装置であって、
     前記補正部は、補正前の前記入力画像データの内容に基づいて前記増加率又は前記第一画素量を制御する制御装置。
  12.  請求項9から11のいずれか1項記載の制御装置であって、
     前記補正部は、複数の前記入力画像データの補正を行う場合に、前記入力画像データの変化量、或いは、前記増加率又は前記第一画素量の変化量が閾値以上となる場合には、前記増加率又は前記第一画素量を、直前に補正した前記入力画像データの補正に用いられた値に維持する制御装置。
  13.  請求項1から12のいずれか1項記載の制御装置であって、
     前記補正部は、前記画像の投影条件に基づいて、前記第一処理にて前記画素値を増加させる画素の位置と、当該画素値の増加率を制御する制御装置。
  14.  請求項13記載の制御装置であって、
     前記投影条件は、前記光学系の焦点距離、前記光学系の焦点位置、及び、前記光学系と前記投影対象物の距離の少なくとも1つを含む制御装置。
  15.  請求項1から14のいずれか1項記載の制御装置であって、
     前記投影装置は、別の前記投影装置と連携して前記投影対象物に複数の前記画像を一部重複させた状態にて投影するモードを有し、
     前記補正部は、前記モードにおいては、自装置において決定した前記第一画素量を用いて、前記別の前記投影装置の前記表示部に入力される前記入力画像データに対する前記第二処理を実行する制御装置。
  16.  請求項1から14のいずれか1項記載の制御装置であって、
     前記投影装置は、前記表示部の表示面が前記光学系の光軸に対して一方向に偏心した状態にて前記画像を投影可能であり、
     前記補正部は、前記投影装置の姿勢に基づいて前記入力画像データを回転させてから、前記第一処理及び前記第二処理を行う制御装置。
  17.  請求項1から14のいずれか1項記載の制御装置であって、
     前記投影装置は、前記表示部の表示面と前記光学系の光軸との一方向における相対位置を変更するシフト機構を有し、
     前記補正部は、前記特定領域が発生する前記相対位置において、前記第一処理及び前記第二処理を含む補正を行う制御装置。
  18.  請求項17記載の制御装置であって、
     前記補正部は、前記特定領域が発生する前記相対位置から、前記特定領域が消滅する前記相対位置へと変更された場合には、前記補正の代わりに、前記入力画像データの各画素値を前記変更前の前記補正時における前記第一画素量だけ一律に減少させる処理を行う制御装置。
  19.  請求項1から18のいずれか1項記載の制御装置であって、
     前記投影装置は、前記投影対象物を撮像する撮像部を有し、
     前記補正部は、前記撮像部から取得した前記投影対象物に投影された前記画像の撮像画像データに基づいて前記特定領域を検出する制御装置。
  20.  請求項1から19のいずれか1項記載の制御装置であって、
     前記特定領域は、前記投影対象物に投影される前記画像のうちの周辺領域である制御装置。
  21.  請求項1から20のいずれか1項記載の制御装置であって、
     前記第一処理及び前記第二処理を含む補正を実行する補正モードと、前記補正を非実行とする非補正モードとを選択的に実行する制御装置。
  22.  請求項21記載の制御装置であって、
     入力指示に基づいて、前記補正モードと前記非補正モードを切り替える制御装置。
  23.  請求項21記載の制御装置であって、
     前記入力画像データの内容に基づいて、前記補正モードと前記非補正モードを切り替える制御装置。
  24.  請求項1から23のいずれか1項記載の制御装置と、
     前記光学系と、を備える投影装置。
  25.  入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御方法であって、
     前記投影対象物に投影される前記画像のうちの前記投影対象物面内の光量分布によって決まる特定領域に対応する前記入力画像データの画素の画素値を増加させる第一処理と、前記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って前記入力画像データを補正する補正ステップを含む制御方法。
  26.  請求項25記載の制御方法であって、
     前記光量分布は、前記光学系の光学特性に基づいて決まる制御方法。
  27.  請求項26記載の制御方法であって、
     前記光学特性は、前記光学系の光軸位置に投影される光量と前記光軸位置から離れた位置に投影される光量との比である制御方法。
  28.  請求項25から27のいずれか1項記載の制御方法であって、
     前記補正ステップは、前記第一処理された前記特定領域に対応する前記画素の画素値に基づいて前記第一画素量を制御する制御方法。
  29.  請求項28記載の制御方法であって、
     前記補正ステップは、前記第一処理された前記特定領域に対応する前記画素のうちの画素値が最大となる最大画素の前記画素値に基づいて前記第一画素量を制御する制御方法。
  30.  請求項29記載の制御方法であって、
     前記補正ステップは、前記最大画素の前記画素値が前記表示部に入力可能な上限値を超える場合には、前記最大画素の前記画素値と、前記最大画素の前記第一処理前の画素値との差を、前記第一画素量とする制御方法。
  31.  請求項29記載の制御方法であって、
     前記補正ステップは、前記最大画素の前記画素値が前記表示部に入力可能な上限値以下の場合には、前記第二処理を省略する制御方法。
  32.  請求項28記載の制御方法であって、
     前記補正ステップは、前記第一処理された前記特定領域に対応する前記画素の画素値の分布に基づいて前記第一画素量を制御する制御方法。
  33.  請求項25から27のいずれか1項記載の制御方法であって、
     前記補正ステップは、補正前の前記入力画像データに基づいて、前記第一処理における前記画素値の増加率又は前記第一画素量を制御する制御方法。
  34.  請求項33記載の制御方法であって、
     前記補正ステップは、補正前の前記入力画像データの明るさに基づいて前記増加率又は前記第一画素量を制御する制御方法。
  35.  請求項33記載の制御方法であって、
     前記補正ステップは、補正前の前記入力画像データの内容に基づいて前記増加率又は前記第一画素量を制御する制御方法。
  36.  請求項33から35のいずれか1項記載の制御方法であって、
     前記補正ステップは、複数の前記入力画像データの補正を行う場合に、前記入力画像データの変化量、或いは、前記増加率又は前記第一画素量の変化量が閾値以上となる場合には、前記増加率又は前記第一画素量を、直前に補正した前記入力画像データの補正に用いられた値に維持する制御方法。
  37.  請求項25から36のいずれか1項記載の制御方法であって、
     前記補正ステップは、前記画像の投影条件に基づいて、前記第一処理にて前記画素値を増加させる画素の位置と、当該画素値の増加率を制御する制御方法。
  38.  請求項37記載の制御方法であって、
     前記投影条件は、前記光学系の焦点距離、前記光学系の焦点位置、及び、前記光学系と前記投影対象物の距離の少なくとも1つを含む制御方法。
  39.  請求項25から38のいずれか1項記載の制御方法であって、
     前記投影装置は、別の前記投影装置と連携して前記投影対象物に複数の前記画像を一部重複させた状態にて投影するモードを有し、
     前記補正ステップは、前記モードにおいては、自装置において決定した前記第一画素量を用いて、前記別の前記投影装置の前記表示部に入力される前記入力画像データに対する前記第二処理を実行する制御方法。
  40.  請求項25から38のいずれか1項記載の制御方法であって、
     前記投影装置は、前記表示部の表示面が前記光学系の光軸に対して一方向に偏心した状態にて前記画像を投影可能であり、
     前記補正ステップは、前記投影装置の姿勢に基づいて前記入力画像データを回転させてから、前記第一処理及び前記第二処理を行う制御方法。
  41.  請求項25から38のいずれか1項記載の制御方法であって、
     前記投影装置は、前記表示部の表示面と前記光学系の光軸との一方向における相対位置を変更するシフト機構を有し、
     前記補正ステップは、前記特定領域が発生する前記相対位置において、前記第一処理及び前記第二処理を含む補正を行う制御方法。
  42.  請求項41記載の制御方法であって、
     前記補正ステップは、前記特定領域が発生する前記相対位置から、前記特定領域が消滅する前記相対位置へと変更された場合には、前記補正の代わりに、前記入力画像データの各画素値を前記変更前の前記補正時における前記第一画素量だけ一律に減少させる処理を行う制御方法。
  43.  請求項25から42のいずれか1項記載の制御方法であって、
     前記投影装置は、前記投影対象物を撮像する撮像部を有し、
     前記補正ステップは、前記撮像部から取得した前記投影対象物に投影された前記画像の撮像画像データに基づいて前記特定領域を検出する制御方法。
  44.  請求項25から43のいずれか1項記載の制御方法であって、
     前記特定領域は、前記投影対象物に投影される前記画像のうちの周辺領域である制御方法。
  45.  請求項25から44のいずれか1項記載の制御方法であって、
     前記第一処理及び前記第二処理を含む補正を実行する補正モードと、前記補正を非実行とする非補正モードとを選択的に実行する制御方法。
  46.  請求項45記載の制御方法であって、
     入力指示に基づいて、前記補正モードと前記非補正モードを切り替える制御方法。
  47.  請求項45記載の制御方法であって、
     前記入力画像データの内容に基づいて、前記補正モードと前記非補正モードを切り替える制御方法。
  48.  入力画像データに基づいて画像を表示する表示部からの画像を、光学系を通して投影対象物に投影する投影装置の制御プログラムであって、
     前記投影対象物に投影される前記画像のうちの前記投影対象物面内の光量分布によって決まる特定領域に対応する前記入力画像データの画素の画素値を増加させる第一処理と、前記入力画像データの各画素値を一律で第一画素量減少させる第二処理と、を行って前記入力画像データを補正する補正ステップをコンピュータに実行させるための制御プログラム。
     
PCT/JP2020/021644 2019-07-26 2020-06-01 制御装置、投影装置、制御方法、及び制御プログラム WO2021019898A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080053909.7A CN114270809B (zh) 2019-07-26 2020-06-01 控制装置、投影装置、控制方法及存储介质
JP2021536634A JP7194834B2 (ja) 2019-07-26 2020-06-01 制御装置、投影装置、制御方法、及び制御プログラム
US17/583,927 US11796899B2 (en) 2019-07-26 2022-01-25 Control device, projection apparatus, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-138119 2019-07-26
JP2019138119 2019-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/583,927 Continuation US11796899B2 (en) 2019-07-26 2022-01-25 Control device, projection apparatus, control method, and control program

Publications (1)

Publication Number Publication Date
WO2021019898A1 true WO2021019898A1 (ja) 2021-02-04

Family

ID=74228437

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021644 WO2021019898A1 (ja) 2019-07-26 2020-06-01 制御装置、投影装置、制御方法、及び制御プログラム

Country Status (4)

Country Link
US (1) US11796899B2 (ja)
JP (1) JP7194834B2 (ja)
CN (1) CN114270809B (ja)
WO (1) WO2021019898A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223519A (ja) * 1994-12-14 1996-08-30 Matsushita Electric Ind Co Ltd 投写型画像表示装置
JPH11196356A (ja) * 1997-12-26 1999-07-21 Matsushita Electric Ind Co Ltd シェーディング補正回路
JP2003018502A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 投射型表示装置
JP2006113541A (ja) * 2004-09-14 2006-04-27 Canon Inc 表示装置及び表示方法
JP2008070711A (ja) * 2006-09-15 2008-03-27 Brother Ind Ltd 投影装置
JP2017215475A (ja) * 2016-05-31 2017-12-07 キヤノン株式会社 投射型表示装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1070013C (zh) 1994-12-14 2001-08-22 松下电器产业株式会社 具有校正亮度不均匀性的电路的投影型图像显示装置
JP2004226608A (ja) 2003-01-22 2004-08-12 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2009216767A (ja) 2008-03-07 2009-09-24 Seiko Epson Corp プロジェクタ
WO2011083555A1 (ja) * 2010-01-07 2011-07-14 パナソニック株式会社 画像処理装置、画像生成システム、方法、およびプログラム
JP2012088636A (ja) * 2010-10-22 2012-05-10 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法
JP5863554B2 (ja) * 2012-05-01 2016-02-16 国立大学法人旭川医科大学 画像処理装置、画像処理方法、およびプログラム
JP6050268B2 (ja) * 2014-01-30 2016-12-21 富士フイルム株式会社 画像処理装置及び方法、プログラム、並びにインクジェット印刷システム
CN107409192B (zh) * 2015-03-27 2021-04-16 索尼公司 图像显示设备及方法、信息处理方法以及计算机可读介质
US10303414B2 (en) * 2016-07-15 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Device, system, and method of controlling projection image
JP7167503B2 (ja) * 2018-06-27 2022-11-09 セイコーエプソン株式会社 プロジェクター

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223519A (ja) * 1994-12-14 1996-08-30 Matsushita Electric Ind Co Ltd 投写型画像表示装置
JPH11196356A (ja) * 1997-12-26 1999-07-21 Matsushita Electric Ind Co Ltd シェーディング補正回路
JP2003018502A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 投射型表示装置
JP2006113541A (ja) * 2004-09-14 2006-04-27 Canon Inc 表示装置及び表示方法
JP2008070711A (ja) * 2006-09-15 2008-03-27 Brother Ind Ltd 投影装置
JP2017215475A (ja) * 2016-05-31 2017-12-07 キヤノン株式会社 投射型表示装置

Also Published As

Publication number Publication date
CN114270809A (zh) 2022-04-01
US20220146918A1 (en) 2022-05-12
JPWO2021019898A1 (ja) 2021-02-04
CN114270809B (zh) 2024-05-03
JP7194834B2 (ja) 2022-12-22
US11796899B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
US10672349B2 (en) Device for project an image
JP4059271B2 (ja) 投射型表示装置
US9811876B2 (en) Display apparatus and control method
WO2012031983A1 (en) A device for projecting an image
WO2010116836A1 (ja) マルチプロジェクションディスプレイシステム及び画面形成方法
JP2015132747A (ja) プロジェクター
JP2010048917A (ja) プロジェクタ
WO2020250739A1 (ja) 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
WO2019064968A1 (ja) 投影装置および投影方法
WO2021019898A1 (ja) 制御装置、投影装置、制御方法、及び制御プログラム
US20220132080A1 (en) Control device, projection system, control method, and control program
JP2014092574A (ja) 画像処理装置、投影装置、制御方法、及びプログラム
JP2006251445A (ja) プロジェクタ、画像表示方法、および画像表示プログラム
JP2020136909A (ja) 投写画像の調整方法、及び投写装置
TWI511571B (zh) 投影系統及其影像調整方法
JP2014048527A (ja) 画像処理装置、画像表示装置、画像処理方法及びプログラム
US8469524B2 (en) Projection display device
JP7101316B2 (ja) 制御装置、投影装置、制御方法、及び制御プログラム
JP2017130779A (ja) プロジェクター、撮像装置、及び、撮像画像の補正方法
US8322865B2 (en) Projection apparatus and image adjustment method
JP4913356B2 (ja) 視覚情報処理装置及びその視覚情報処理方法
JP2004361500A (ja) 照明装置、投射型表示装置及びその駆動方法
JP7267713B2 (ja) 投影装置、その制御方法、プログラム
JP2012095181A (ja) プロジェクター、及び、プロジェクターの制御方法
JP4595961B2 (ja) 投射型表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20846003

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021536634

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20846003

Country of ref document: EP

Kind code of ref document: A1