WO2023085013A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2023085013A1
WO2023085013A1 PCT/JP2022/038796 JP2022038796W WO2023085013A1 WO 2023085013 A1 WO2023085013 A1 WO 2023085013A1 JP 2022038796 W JP2022038796 W JP 2022038796W WO 2023085013 A1 WO2023085013 A1 WO 2023085013A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
illuminance
display device
illuminance sensor
projector
Prior art date
Application number
PCT/JP2022/038796
Other languages
English (en)
French (fr)
Inventor
英治 虎谷
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023085013A1 publication Critical patent/WO2023085013A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present disclosure relates to, for example, a display device having an illuminance sensor.
  • an acquisition unit that acquires environmental information around a display unit including a transparent screen that reflects an image projected from a projector and a light control film with a variable transmittance, and based on the environmental information
  • a display control device includes a display control section that controls pixel information projected onto a transparent screen and the transmittance of a light control film.
  • a display device includes an image forming unit that generates a projected image based on an input video signal, a detection unit that includes an illuminance sensor that detects the illuminance of ambient light, and an installation state and an illuminance sensor and a control unit including a plurality of threshold data groups for changing set values of pixel information of the projected image according to the detected illuminance.
  • a detection unit including an illuminance sensor that detects illuminance of ambient light, and setting values of pixel information of a projected image are changed according to an installation state and illuminance detected by the illuminance sensor. and a control section containing a plurality of threshold data groups. As a result, the image quality is automatically corrected according to the ambient light.
  • FIG. 1 is a block diagram showing an example configuration of a projector according to an embodiment of the present disclosure
  • FIG. 2 is a schematic diagram showing the appearance of the projector shown in FIG. 1.
  • FIG. 3 is a diagram for explaining an installation state of the projector shown in FIG. 2
  • FIG. 2 is a schematic diagram showing an example of a configuration of an optical system of the projector shown in FIG. 1
  • FIG. 2 is a schematic diagram showing an example of the configuration of the light source device shown in FIG. 1
  • FIG. 2 is a diagram showing an example of a data table stored in a memory section shown in FIG. 1
  • FIG. 2 is a diagram illustrating an example of a threshold data group stored in a memory unit shown in FIG. 1;
  • FIG. 1 It is a cross-sectional schematic diagram showing an example of the structure of the illuminance sensor shown in FIG. 1, and its periphery. 9 is a perspective view showing an example of the shape of the light guide tube shown in FIG. 8.
  • FIG. 2 is a flow chart showing the flow of image quality control of the projector shown in FIG. 1;
  • FIG. 1 is a block diagram showing an example configuration of a display device (projector 1) according to an embodiment of the present disclosure.
  • the projector 1 magnifies and projects a projection image (projection light) created by a display device smaller in size than a projected image (projection image) onto a projection surface such as a wall surface.
  • the "image” here includes still images and moving images.
  • the projector 1 has, for example, a light source device 10 , an image generation system 20 , a projection section 30 , a control section 40 and a detection section 50 .
  • the image generation system 20 has an illumination optical system 21 and an image forming section 22 .
  • the control unit 40 has a signal processing unit 41 , a memory unit 42 , an acquisition unit 43 and a calculation unit 44 .
  • the detector 50 includes an illuminance sensor 51 .
  • the memory unit 42 stores a plurality of threshold data groups for changing the pixel information of the projected image according to the installation state of the projector 1 and the illuminance detected by the illuminance sensor 51 .
  • the light source device 10, the image generation system 20, the projection section 30, the control section 40 and the detection section 50 are housed in the housing 60, for example.
  • the housing 60 has, for example, as shown in FIG. 2, a first surface S1 facing the installation surface on which the projector 1 is installed, and a second surface S2 opposite to the first surface S1.
  • the illuminance sensor 51 is arranged near the second surface S2, as shown in FIG. 8, for example.
  • the projector 1 is installed on a desk or used in a state of being suspended from the ceiling (ceiling suspended state).
  • This desktop installation state or suspended state corresponds to a specific example of the "installation state" of the present disclosure.
  • the projector 1 automatically corrects the image quality according to the ambient light around the projector 1 based on its installation state and the illuminance detected by the illuminance sensor 51 .
  • FIG. 4 is a schematic diagram showing, as an example of the configuration of the projector 1, an example of the optical system configuration of a reflective 3LCD type projector that modulates light using a reflective liquid crystal panel (LCD).
  • LCD liquid crystal panel
  • FIG. 5 shows an example of the configuration of the light source device 10.
  • the light source device 10 has, for example, a light source section 110 , a phosphor wheel 120 , a polarizing beam splitter (PBS) 131 , a quarter wave plate 132 and a condensing optical system 133 .
  • the above components constituting the light source device 10 are arranged between the light source unit 110 and the phosphor wheel 120 in the following order from the light source unit 110 side: the PBS 131, the quarter-wave plate 132, and the condensing optical system 133. is arranged on the optical path of the light (excitation light EL) emitted from the .
  • the light source unit 110 has, as a light source, for example, a plurality of solid state light emitting elements 112 that emit light (excitation light EL) in a predetermined wavelength band.
  • a plurality of solid state light emitting devices 112 are arranged, for example, in an array on the pedestal portion 111 .
  • the pedestal part 111 supports the plurality of solid state light emitting devices 112 and promotes heat dissipation of the plurality of solid state light emitting devices 112 that generate heat due to light emission. Therefore, the pedestal 111 is preferably formed using a material with high thermal conductivity, such as aluminum (Al), copper (Cu), and iron (Fe).
  • a material with high thermal conductivity such as aluminum (Al), copper (Cu), and iron (Fe).
  • a semiconductor laser (Laser Diode: LD), for example, is used for the plurality of solid-state light emitting devices 112 .
  • LD Laser Diode
  • an LD that oscillates laser light (blue light) in a wavelength band corresponding to blue with a wavelength of 400 nm to 470 nm, for example, is used.
  • LEDs light emitting diodes
  • a plurality of lenses 113 are arranged above the plurality of solid state light emitting devices 112 for each solid state light emitting device 112 .
  • the plurality of lenses 113 is, for example, a collimating lens, and adjusts the laser light (excitation light EL) emitted from each of the plurality of solid-state light emitting elements 112 into parallel light and emits the parallel light.
  • the phosphor wheel 120 is a wavelength conversion element that converts the excitation light EL into light (fluorescence FL) having a different wavelength band from the excitation light EL and emits the light.
  • the phosphor wheel 120 has a phosphor layer 122 provided on a wheel substrate 121 rotatable around a rotation axis (eg, axis J123).
  • the wheel substrate 121 is for supporting the phosphor layer 122 and has, for example, a disk shape. It is preferable that the wheel substrate 121 further have a function as a heat radiating member. Therefore, the wheel substrate 121 can be made of a metal material with high thermal conductivity. Moreover, the wheel substrate 121 can be formed using a metal material or a ceramic material that can be mirror-finished. As a result, it is possible to suppress the temperature rise of the phosphor layer 122 and improve the extraction efficiency of the fluorescence FL.
  • the phosphor layer 122 contains a plurality of phosphor particles, is excited by the excitation light EL, and emits light (fluorescence FL) in a wavelength band different from the wavelength band of the excitation light EL.
  • the phosphor layer 122 includes phosphor particles that are excited by blue light (excitation light EL) emitted from the light source unit 110 to emit fluorescence FL in a wavelength band corresponding to yellow.
  • Examples of such phosphor particles include YAG (yttrium-aluminum-garnet)-based materials.
  • the phosphor layer 122 may further contain semiconductor nanoparticles such as quantum dots, organic dyes, and the like.
  • the phosphor layer 122 is formed in a plate shape, for example, and is made of, for example, a so-called ceramic phosphor or a binder-type phosphor.
  • the phosphor layer 122 is formed continuously on the wheel substrate 121, for example, in the circumferential direction of rotation.
  • a motor 123 is attached to the center of the wheel substrate 121 .
  • the motor 123 is for rotating the wheel substrate 121 at a predetermined number of revolutions.
  • the phosphor wheel 120 becomes rotatable, and the irradiation position of the excitation light EL on the phosphor layer 122 temporally changes (moves) at a speed corresponding to the number of rotations.
  • the PBS 131 separates the excitation light EL incident from the light source unit 110 and the combined light (for example, white light Lw) incident from the phosphor wheel 120 side. Specifically, the PBS 131 emits the excitation light EL incident from the light source section 110 toward the quarter-wave plate 132 . In addition, the PBS 131 reflects the white light Lw incident from the phosphor wheel 120 side through the condensing optical system 133 and the quarter-wave plate 132 toward the illumination optical system 21 .
  • the quarter-wave plate 132 is a phase difference element that produces a phase difference of ⁇ /2 with respect to incident light.
  • circularly polarized light is converted into linearly polarized light.
  • Linearly polarized excitation light EL incident from the PBS 131 is converted into circularly polarized excitation light EL by the quarter-wave plate 132 .
  • the circularly polarized excitation light component contained in the white light Lw incident from the phosphor wheel 120 side is converted into linearly polarized light by the quarter-wave plate 132 .
  • the condensing optical system 133 converges the excitation light EL incident from the quarter-wave plate 132 to a predetermined spot diameter and emits it toward the phosphor wheel 120 .
  • the condensing optical system 133 converts the white light Lw incident from the phosphor wheel 120 side into parallel light and emits it toward the quarter-wave plate 132 .
  • the condensing optical system 133 may be composed of, for example, one collimating lens, or may be configured to convert incident light into parallel light using a plurality of lenses.
  • the configuration of the optical member that separates the excitation light EL incident from the light source unit 110 and the white light Lw incident from the phosphor wheel 120 side is not limited to the PBS 131, and a configuration that enables the light separation operation described above. Any optical member can be used. Also, the light source device 10 need not have all the optical members shown in FIG. 5, and may have other optical members. For example, the light source device 10 may have multiple phosphor wheels.
  • the illumination optical system 21 includes a PS converter 211, dichroic mirrors 212, 216, and total reflection mirrors 213, 214, 215 along the optical axis of the white light Lw emitted from the light source device 10.
  • the image forming section 22 includes PBSs 221, 222 and 223, reflective liquid crystal panels 224R, 224G and 224B, and a cross prism 225 as a color synthesizing means.
  • the projection section 30 projects the combined light emitted from the cross prism 225 toward the screen 70 .
  • the PS converter 211 functions to polarize and transmit the white light Lw incident from the light source device 10 .
  • S-polarized light is transmitted as it is, and P-polarized light is converted into S-polarized light.
  • the dichroic mirror 212 has a function of separating the white light Lw transmitted through the PS converter 211 into blue light B and other color lights (red light R, green light G).
  • the total reflection mirror 213 reflects the color light (red light R, green light G) transmitted through the dichroic mirror 212 toward the total reflection mirror 215 , and the total reflection mirror 215 reflects the reflected light (red light G) from the total reflection mirror 213 .
  • R and green light (G) are reflected toward the dichroic mirror 216 .
  • the dichroic mirror 216 has a function of separating the color light (red light R, green light G) incident from the total reflection mirror 215 into red light R and green light G.
  • the total reflection mirror 214 reflects the blue light B separated by the dichroic mirror 212 toward the PBS 223 .
  • PBSs 221, 222, and 223 are arranged along the optical paths of red light R, green light G, and blue light B, respectively.
  • the PBSs 221, 222, and 223 have polarization splitting surfaces 221A, 222A, and 223A, respectively, and have the function of splitting the incident color light into two mutually orthogonal polarization components on the polarization splitting surfaces 221A, 222A, and 223A. are doing.
  • the polarization splitting surfaces 221A, 222A, and 223A reflect one polarization component (for example, S-polarization component) and transmit the other polarization component (for example, P-polarization component).
  • Colored lights (red light R, green light G and blue light B ) is incident.
  • the reflective liquid crystal panels 224R, 224G, and 224B are driven according to a drive voltage given based on a video signal, modulate incident light, and output the modulated colored light (red light R, green light G, and blue light B) are reflected toward the PBSs 221, 222, and 223, respectively.
  • the cross prism 225 receives colored light (red light R, green light G, and blue light B) of predetermined polarized components (for example, P polarized components) emitted from the reflective liquid crystal panels 224R, 224G, and 224B and transmitted through the PBSs 221, 222, and 223. are synthesized and emitted toward the projection section 30. As shown in FIG.
  • the projection unit 30 includes, for example, a plurality of lenses (for example, the lens 31 , see FIG. 2), etc., and magnifies the projection image (projection light) created by the image forming unit 22 and projects the image onto the screen 70 . It is.
  • the control unit 40 has the signal processing unit 41, the memory unit 42, the acquisition unit 43, and the calculation unit 44 as described above.
  • the control unit 40 further includes, for example, a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), etc. (none of which are shown).
  • the CPU reads the control program stored in the ROM, develops it in the RAM, and executes the steps of the program on the RAM.
  • the control unit 40 controls the overall operation of the projector 1 by executing programs by the CPU.
  • control unit 40 controls the pixel information of the projection image so that the projection image projected from the projector 1 onto the screen 70 has an appropriate image quality according to the ambient light around the projector 1 .
  • control unit 40 adjusts the contrast, resolution, coloration, etc. of the projection image projected on the screen 70 according to the illuminance detected by the illuminance sensor 51 to set values corresponding to the illuminance. , to control the output value of the video signal.
  • the control unit 40 when it is determined that the surroundings of the projector 1 are dark (for example, the projector 1 is in a darkroom or other suitable state for use), the control unit 40 outputs a standard video signal to the image forming unit 22 to drive the image forming unit 22 . department (not shown). Further, for example, when it is determined that the surroundings of the projector 1 are bright (for example, the projector 1 is in a state of being exposed to external light (white light) or the like), the control unit 40 further controls the outline and coloring of the image. A clear video signal is supplied to the driving section of the image forming section 22 .
  • the signal processing unit 41 performs various signal processing from video signals input from external devices such as computers, DVD players, and TV tuners.
  • the signal processing unit 41 performs image resizing, gamma adjustment, color adjustment, and the like by, for example, characteristic correction and amplification of the video signal, and decomposes the video signal into R, G, and B image data.
  • the signal processing unit 41 also generates light modulation signals for driving the reflective liquid crystal panels 224R, 224G, and 224B for each color light, and supplies them to the driving unit of the image forming unit 22.
  • a signal for designating the display direction of the projected image by the user is input from the acquisition unit 43 to the signal processing unit 41 .
  • a signal designating a normal image is input. be.
  • a signal designating a reversed image inverted image in which the image is vertically and horizontally reversed. is entered.
  • environmental information based on ambient light around the projector 1 is input from the computing unit 44 to the signal processing unit 41 .
  • the illuminance information including the average illuminance value measured at predetermined intervals by the illuminance sensor 51 and calculated by the calculation unit 44 and the direction of change in the illuminance from the previous average illuminance value is transmitted, for example, at regular intervals. is entered.
  • the signal processing unit 41 generates a video signal according to the ambient light around the projector 1 based on the input display direction designation signal and illuminance information, and supplies the video signal to the driving unit of the image forming unit 22 .
  • the signal processing unit 41 refers to a data table and a corresponding threshold data group stored in the memory unit 42, which will be described later, based on the input display direction designation signal and environment information.
  • a video signal in which pixel information such as resolution and coloring is corrected is generated and supplied to the driving section of the image forming section 22 .
  • contrast can be enhanced by increasing brightness by raising the mid-signal level in the positive (+) direction.
  • by increasing the brightness of the entire projected image in the plus (+) direction it is possible to make the low gradation portion easier to see.
  • the sense of resolution can be improved, for example, by enhancing edges through super-resolution.
  • the color is lifted by the color to improve the color development and increase the contrast.
  • the memory unit 42 stores data in which information on how to control the pixel information of the projected image is set according to the installation state of the projector 1 and the ambient illuminance.
  • FIG. 6 is an example of a data table stored in the memory unit 42.
  • the data table includes setting information in which the illuminance around the projector 1 and the pixel information of the projected image are associated with each other. have.
  • illuminance level for example, a darkroom environment suitable for use of the projector 1 is set to level 0, and levels 0 to 9, for example, 10 levels of "brightness", “resolution” and “coloring” are set. .
  • the memory unit 42 further stores a plurality of threshold data groups according to the installation state of the projector 1. For example, the memory unit 42 has different threshold data groups depending on whether the projector 1 is in the desktop installation state (A) or in the hanging state (B).
  • (A) of FIG. 7 is an example of a threshold data group when switching the reference destination (illuminance level of the data table) of the setting information that the signal processing unit 41 refers to, for example, in the desktop installation state.
  • (B) of FIG. 7 is an example of a threshold data group when switching the reference destination (illuminance level of the data table) of the setting information that the signal processing unit 41 refers to, for example, in the suspended state.
  • the threshold data groups shown in FIGS. 7A and 7B have hysteresis characteristics in which the thresholds for switching the illuminance level of the data table to be referred to are different from each other in the change direction of the illuminance around the projector 1. .
  • the threshold when the illuminance around the projector 1 changes upward is set higher than the threshold when the illuminance around the projector 1 changes downward.
  • the threshold for switching from level 0 to level 1 due to an increase in illuminance around projector 1 is 100 lx
  • the threshold for switching from level 1 to level 0 due to a decrease in illuminance around projector 1 is 80 lx. is set. As a result, frequent switching of image quality due to changes in illuminance around the projector 1 is reduced.
  • the acquisition unit 43 acquires the installation information of the projector 1 from the display direction of the projected image selected by the user, generates a display direction designation signal, and supplies it to the signal processing unit 41 .
  • the calculation unit 44 acquires, for example, the environment information around the projector 1 detected by the detection unit 50 and supplies the acquired environment information around the projector 1 to the signal processing unit 41 .
  • the calculation unit 44 calculates an average illuminance value from N illuminance sensor values measured at predetermined intervals by the illuminance sensor 51 and supplies the average illuminance value to the signal processing unit 41 as illuminance information. Further, from the second time onward, the calculation unit 44 supplies the change direction from the previous average illuminance value to the signal processing unit 41 as illuminance information together with the average illuminance value.
  • the detection unit 50 detects various information by controlling various sensors.
  • the detection unit 50 includes an illuminance sensor 51 and detects the illuminance around the projector 1 by controlling it.
  • the detector 50 supplies the illuminance value (illuminance sensor value) obtained by the illuminance sensor 51 to the calculator 44 .
  • the illuminance sensor 51 is also called an ambient light sensor or the like, and is a device that detects ambient illuminance using a phototransistor, photodiode, or the like.
  • FIG. 8 schematically shows an example of the cross-sectional configuration of the illuminance sensor 51 and its periphery corresponding to the line I-I' shown in FIG.
  • the illuminance sensor 51 has, for example, a substrate 511 and a light receiving element 512, and the light receiving element 512 is composed of, for example, a phototransistor.
  • the illuminance sensor 51 is arranged near the second surface S2 of the housing 60, for example, as shown in FIG.
  • the housing 60 is provided with an intake window 62 for taking in ambient light L in a top cover 61 forming the second surface S2.
  • an intake window 62 for taking in ambient light L in a top cover 61 forming the second surface S2.
  • a recessed portion 64 in which the illuminance sensor 51 is fitted is provided.
  • the illuminance sensor 51 is arranged in the dug portion 64 so that the light receiving element 512 is arranged below the take-in window 62 .
  • a light guide tube 63 is fitted in the intake window 62 so that ambient light L taken in through the intake window 62 is guided to the light receiving element 512 .
  • FIG. 9 schematically shows an example of the shape of the light guide tube 63 shown in FIG.
  • the light guide tube 63 has a light intake surface 63S1 forming substantially the same surface as the second surface S2 of the housing 60, and a light extraction surface 63S2 facing the light intake surface 63S1.
  • the light guide tube 63 has, for example, a pedestal portion 631 facing the bottom surface of the dug portion 64 and a convex portion 632 fitted into the intake window 62.
  • the lower surface opposite to the surface facing the bottom surface of the dug portion 64 corresponds to the light extraction surface 63S2.
  • the surface of the light guide tube 63 is embossed to reduce the dependence of light on the angle of incidence.
  • the light guide tube 63 is configured using a transparent material having light transmittance.
  • transparent materials include acrylic resin, polycarbonate, glass, polystyrene and urethane.
  • a plurality of scattering particles are kneaded into the transparent material, which further reduces the incident angle dependence of the light.
  • Materials for the scattering particles include, for example, silicon oxide (SiO 2 ), titanium oxide (TiO 2 ), aluminum oxide (Al 2 O 3 ), aluminum nitride (AlN), boron nitride (BN) and zinc oxide (ZnO). is mentioned.
  • the scattering particles may also be, for example, air bubbles entrained in the transparent material.
  • the light guide tube 63 may further have a side surface 63S3 between the light intake surfaces 63S1 and 63S1 painted in a single color.
  • the side surface 63S3 of the light guide tube 63 may be painted black or white using paint or the like.
  • the surface of the base portion 611 facing the bottom surface of the dug portion 64, the side surface of the base portion 631, and the side surface of the convex portion 632 correspond to the "side surface" of the light guide tube 63. do.
  • the inside of the intake window 62 and the dug portion 64 of the housing 60 in which the light guide tube 63 is fitted may be shielded from light.
  • the inside of the intake window 62 and the recessed portion 64 of the housing 60 into which the light guide tube 63 is fitted may be painted in a single color such as black or white.
  • the acquisition unit 43 confirms the display direction of the projected image selected by the user and acquires the information (step S101).
  • the signal processing unit 41 determines a threshold data group to be referenced from the display direction designation signal supplied from the acquisition unit 43 (step S102).
  • the detection unit 50 starts detecting the illuminance around the projector 1 (step S103).
  • the illuminance sensor 51 measures the illuminance around the projector 1 N times every predetermined time.
  • the calculation unit 44 calculates an average illuminance value from the illuminance sensor values measured N times by the illuminance sensor 51 . Also, the change direction of the illuminance from the previous average illuminance value is calculated (step S104).
  • the signal processing unit 41 determines the setting information of the data table to be referred to based on the illuminance information calculated by the calculation unit 44 (step S105).
  • the signal processing section 41 generates a video signal as pixel information according to the setting information of the data table to be referred to, and supplies this to the driving section of the image forming section 22 .
  • the projector 1 projects a projection image on the screen 70 according to the illuminance around the projector 1 (step S106).
  • the projector 1 determines whether or not an operation to end projection of the projection image has been received from the user (step S107).
  • the projector 1 repeats steps S103 to S107 to obtain an appropriate image quality according to the illuminance around the projector 1.
  • steps S103 to S107 continue to adjust the brightness, resolution and coloration of the projected image so that
  • the projector 1 ends the projection of the projection image.
  • the projector 1 of the present embodiment includes a detection unit 50 including an illuminance sensor 51 that detects the illuminance of ambient light, and changes the set value of pixel information of a projected image according to the installation state and the illuminance detected by the illuminance sensor 51.
  • a control unit 40 including a plurality of threshold data groups to be used is provided to automatically correct the image quality according to the ambient light. This will be explained below.
  • the projector 1 of the present embodiment can improve the quality of the projected image.
  • an acceleration sensor may be installed in the detection unit 50 to detect the installation state of the projector 1 .
  • the projector 1 and the display unit may be spatially separated.
  • the projector 1 and the display unit may be integrated.
  • the projector 1 may be embedded in the lower or upper bezel (edge) of the display section.
  • the optical members constituting the projector 1 were specifically described, but it is not necessary to include all the optical members, and other optical members may be included.
  • a detection unit including an illuminance sensor that detects the illuminance of ambient light, and a plurality of threshold data for changing the image quality of a projected image according to the installation state and the illuminance detected by the illuminance sensor.
  • a control section containing groups is provided. As a result, the image quality is automatically corrected according to the ambient light. Therefore, visibility can be improved.
  • an image forming unit that generates a projection image based on an input video signal; a detection unit including an illuminance sensor that detects the illuminance of ambient light; and a control unit including a plurality of threshold data groups for changing pixel information of the projection image according to an installation state and the illuminance detected by the illuminance sensor.
  • the control unit further includes setting information in which the illuminance and the pixel information are associated with each other; each of the plurality of threshold data groups has a plurality of thresholds for switching the setting information to be referred to according to the illuminance;
  • the display device according to (1), wherein the plurality of threshold values are different between an increasing direction and a decreasing direction of the illuminance.
  • a housing having a first surface facing the installation surface and a second surface opposite to the first surface, and housing the image forming unit, the detecting unit, and the control unit;
  • the control unit controls, as the plurality of threshold data groups, a first threshold data group selected when the second surface is the top surface and a second threshold data group selected when the second surface is the bottom surface.
  • the housing has an intake window on the second surface for taking in the ambient light, The display device according to (3) or (4), wherein the illuminance sensor is arranged near the second surface.
  • the display device (6) The display device according to (5), wherein a light guide tube that guides the ambient light to the illuminance sensor is fitted in the intake window. (7) The display device according to (6) above, wherein the surface of the light guide tube is textured. (8) The display device according to (6) or (7), wherein a plurality of scattering particles are kneaded in the light guide tube. (9) The light guide tube has a light intake surface forming substantially the same surface as the second surface of the housing, and a light extraction surface facing the light intake surface for extracting the captured environmental light to the illuminance sensor.
  • the display device according to any one of (6) to (8), wherein the side surface of the light guide tube is painted in a single color.
  • the display device according to any one of (6) to (9), wherein the housing has a surface facing the light guide tube and the illuminance sensor shielded from light.
  • the display device according to any one of (1) to (10) above, further comprising a projection section that projects the projection image generated in the image formation section.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本開示の一実施形態の表示装置は、入力された映像信号に基づいて投影画像を生成する画像形成部と、環境光の照度を検出する照度センサを含む検出部と、設置状態および照度センサにおいて検出される照度に応じて投影画像の画素情報の設定値を変更する複数の閾値データ群を含む制御部とを備える。

Description

表示装置
 本開示は、例えば、照度センサを有する表示装置に関する。
 例えば、特許文献1では、プロジェクタから投影される映像を反射する透明スクリーンと透過率が可変な調光フィルムとを含む表示部の周囲の環境情報を取得する取得部と、環境情報に基づいて、透明スクリーンに投影される画素情報と、調光フィルムの透過率とを制御する表示制御部とを備えた表示制御装置が開示されている。
特開2020-87049号公報
 ところで、プロジェクタでは、視認性の向上が求められている。
 視認性を向上させることが可能な表示装置を提供することが望ましい。
 本開示の一実施形態の表示装置は、入力された映像信号に基づいて投影画像を生成する画像形成部と、環境光の照度を検出する照度センサを含む検出部と、設置状態および照度センサにおいて検出される照度に応じて投影画像の画素情報の設定値を変更する複数の閾値データ群を含む制御部とを備えたものである。
 本開示の一実施形態の表示装置では、環境光の照度を検出する照度センサを含む検出部と、設置状態および照度センサにおいて検出される照度に応じて投影画像の画素情報の設定値を変更する複数の閾値データ群を含む制御部とを設けるようにした。これにより、環境光に応じた画質の補正を自動で行う。
本開示の一実施の形態に係るプロジェクタの構成の一例を表すブロック図である。 図1に示したプロジェクタの外観を表す模式図である。 図2に示したプロジェクタの設置状態を説明する図である。 図1に示したプロジェクタの光学系の構成の一例を表す概略図である。 図1に示した光源装置の構成の一例を表す概略図である。 図1に示したメモリ部に格納されたデータテーブルの一例を表す図である。 図1に示したメモリ部に格納された閾値データ群の一例を説明する図である。 図1に示した照度センサおよびその周辺の構造の一例を表す断面模式図である。 図8に示した導光管の形状の一例を表す斜視図である。 図1に示したプロジェクタの画質の制御のフローを表すフローチャートである。
 以下、本開示における実施の形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.実施の形態(照度センサおよび投影画像の画質を変更する複数の閾値データ群を有するプロジェクタの例)
 2.その他の実施の形態
<1.実施の形態>
 図1は、本開示の一実施の形態に係る表示装置(プロジェクタ1)の構成の一例を表したブロック図である。プロジェクタ1は、投射される画(投影画像)のサイズよりも小さな表示デバイスにより作成された投影画像(投影光)を、壁面等の投射面に対して拡大して投射するものである。なお、ここで「画像」とは、静止画および動画を含むものである。
[プロジェクタの構成]
 プロジェクタ1は、例えば、光源装置10と、画像生成システム20と、投射部30と、制御部40と、検出部50とを有する。画像生成システム20は、照明光学系21と、画像形成部22とを有する。制御部40は、信号処理部41と、メモリ部42と、取得部43、演算部44とを有する。検出部50は、照度センサ51を含む。メモリ部42には、プロジェクタ1の設置状態および照度センサ51において検出される照度に応じて投影画像の画素情報を変更する複数の閾値データ群が格納されている。
 光源装置10、画像生成システム20、投射部30、制御部40および検出部50は、例えば、筐体60に収容されている。筐体60は、例えば図2に示したように、プロジェクタ1が設置される設置面と対向する第1面S1と、第1面S1とは反対側の第2面S2とを有する。照度センサ51は、例えば図8に示したように、第2面S2の近傍に配置されている。
 プロジェクタ1は、例えば図3に示したように、机上に設置したり、天井に吊り下げられた状態(天吊り状態)で使用される。この机上設置状態または天吊り状態が、本開示の「設置状態」の一具体例に相当する。プロジェクタ1は、その設置状態および照度センサ51において検出された照度に基づいて、プロジェクタ1の周囲の環境光に応じた画質の補正を自動で行うものである。
 図4は、プロジェクタ1の構成の一例として、反射型の液晶パネル(LCD)により光変調を行う反射型3LCD方式のプロジェクタの光学系の構成の一例を表した概略図である。
 図5は、光源装置10の構成の一例を表したものである。光源装置10は、例えば光源部110と、蛍光体ホイール120と、偏光ビームスプリッタ(PBS)131と、1/4波長板132と、集光光学系133とを有している。光源装置10を構成する上記構成部材は、光源部110と蛍光体ホイール120との間に、光源部110側から、PBS131、1/4波長板132および集光光学系133の順に、光源部110から出射される光(励起光EL)の光路上に配置されている。
 光源部110は、光源として、所定の波長帯域の光(励起光EL)を出射する、例えば複数の固体発光素子112を有している。複数の固体発光素子112は、台座部111に、例えばアレイ状に配置されている。
 台座部111は、複数の固体発光素子112を支持すると共に、発光によって発熱した複数の固体発光素子112の放熱を促すためのものである。このため、台座部111は、熱伝導率の高い材料を用いて形成されていることが好ましく、例えば、アルミニウム(Al)、銅(Cu)および鉄(Fe)等を用いて形成されている。
 複数の固体発光素子112には、例えば、半導体レーザ(Laser Diode:LD)が用いられている。具体的には、例えば波長400nm~470nmの青色に対応する波長帯域のレーザ光(青色光)を発振するLDが用いられている。この他、複数の固体発光素子112としては、発光ダイオード(Light Emitting Diode:LED)を用いてもよい。
 複数の固体発光素子112の上方には、それぞれ、複数のレンズ113が固体発光素子112毎に配置されている。複数のレンズ113は、例えばコリメートレンズであり、複数の固体発光素子112からそれぞれ出射されたレーザ光(励起光EL)を平行光に調整して出射する。
 蛍光体ホイール120は、励起光ELを、励起光ELとは波長帯域の異なる光(蛍光FL)に変換して出射する波長変換素子である。蛍光体ホイール120は、回転軸(例えば、軸J123)を中心に回転可能なホイール基板121に蛍光体層122が設けられている。
 ホイール基板121は、蛍光体層122を支持するためのものであり、例えば円板形状を有している。ホイール基板121は、さらに、放熱部材としての機能を有することが好ましい。このため、ホイール基板121は、熱伝導率が高い金属材料によって形成することができる。また、ホイール基板121は、鏡面加工が可能な金属材料やセラミックス材料を用いて形成することができる。これにより、蛍光体層122の温度上昇を抑制し、蛍光FLの取り出し効率を向上させることが可能となる。
 蛍光体層122は、複数の蛍光体粒子を含むものであり、励起光ELによって励起されて、励起光ELの波長帯域とは異なる波長帯域の光(蛍光FL)を発するものである。具体的には、蛍光体層122は、光源部110から出射される青色光(励起光EL)により励起されて黄色に対応する波長帯域の蛍光FLを発する蛍光体粒子を含んで構成されている。このような蛍光体粒子としては、例えばYAG(イットリウム・アルミニウム・ガーネット)系材料が挙げられる。蛍光体層122は、さらに、量子ドット等の半導体ナノ粒子や有機色素等を含んでいてもよい。蛍光体層122は、例えばプレート状に形成されており、例えば所謂セラミックス蛍光体やバインダ式の蛍光体によって構成されている。蛍光体層122は、ホイール基板121に、例えば回転円周方向に連続して形成されている。
 ホイール基板121の中心には、例えば、モータ123が取り付けられている。モータ123は、ホイール基板121を所定の回転数で回転駆動するためのものである。これにより、蛍光体ホイール120は回転可能となり、蛍光体層122に対する励起光ELの照射位置が、回転数に対応した速度で時間的に変化(移動)する。これにより、蛍光体層122の同じ位置に励起光が長時間照射されることによる蛍光体粒子の劣化を避けることができる。
 PBS131は、光源部110から入射する励起光ELと、蛍光体ホイール120側から入射する合波光(例えば、白色光Lw)とを分離するものである。具体的には、PBS131は、光源部110から入射した励起光ELを1/4波長板132に向かって出射する。また、PBS131は、蛍光体ホイール120側から集光光学系133および1/4波長板132を透過して入射した白色光Lwを照明光学系21へ向けて反射する。
 1/4波長板132は、入射光に対してπ/2の位相差を生じさせる位相差素子であり、入射光が直線偏光の場合には直線偏光を円偏光に変換し、入射光が円偏光の場合には円偏光を直線偏光に変換するものである。PBS131から入射する直線偏光の励起光ELは、1/4波長板132によって円偏光の励起光ELに変換される。また、蛍光体ホイール120側から入射する白色光Lwに含まれる円偏光の励起光成分は、1/4波長板132によって直線偏光に変換される。
 集光光学系133は、1/4波長板132から入射した励起光ELを所定のスポット径に集光して蛍光体ホイール120に向けて出射するものである。また、集光光学系133は、蛍光体ホイール120側から入射した白色光Lwを平行光に変換して1/4波長板132に向けて出射するものである。なお、集光光学系133は、例えば、1枚のコリメートレンズで構成してもよいし、複数のレンズを用いて入射光を平行光に変換する構成としてもよい。
 光源部110から入射する励起光ELと、蛍光体ホイール120側から入射する白色光Lwとを分離する光学部材の構成としては、PBS131に限定されず、上述した光の分離動作を可能にする構成であれば、任意の光学部材を用いることができる。また、光源装置10は、図5に示した光学部材の全てを有している必要はなく、他の光学部材を有していてもよい。例えば、光源装置10は複数の蛍光体ホイールを備えていてもよい。
 照明光学系21は、光源装置10から出射された白色光Lwの光軸に沿って、PSコンバータ211と、ダイクロイックミラー212,216と、全反射ミラー213,214,215とを備えている。画像形成部22は、PBS221,222,223と、反射型液晶パネル224R,224G,224Bと、色合成手段としてのクロスプリズム225とを備えている。投射部30は、クロスプリズム225から出射された合成光を、スクリーン70に向けて投射するものである。
 PSコンバータ211は、光源装置10から入射した白色光Lwを偏光させて透過するように機能するものである。ここでは、S偏光をそのまま透過し、P偏光をS偏光に変換する。
 ダイクロイックミラー212は、PSコンバータ211を透過した白色光Lwを、青色光Bとそれ以外の色光(赤色光R、緑色光G)とに分離する機能を有している。全反射ミラー213は、ダイクロイックミラー212を透過した色光(赤色光R、緑色光G)を全反射ミラー215に向けて反射し、全反射ミラー215は、全反射ミラー213からの反射光(赤色光R、緑色光G)をダイクロイックミラー216に向けて反射するようになっている。ダイクロイックミラー216は、全反射ミラー215から入射した色光(赤色光R,緑色光G)を、赤色光Rと緑色光Gとに分離する機能を有している。全反射ミラー214は、ダイクロイックミラー212によって分離された青色光Bを、PBS223へ向けて反射するようになっている。
 PBS221,222,223は、それぞれ、赤色光R、緑色光Gおよび青色光Bの光路に沿って配設されている。PBS221,222,223は、それぞれ、偏光分離面221A,222A,223Aを有し、この偏光分離面221A,222A,223Aにおいて、入射した各色光を互いに直交する2つの偏光成分に分離する機能を有している。偏光分離面221A,222A,223Aは、一方の偏光成分(例えばS偏光成分)を反射し、他方の偏光成分(例えP偏光成分)を透過するようになっている。
 反射型液晶パネル224R,224G,224Bには、それぞれ、偏光分離面221A,222A,223Aにおいて分離された所定の偏光成分(例えばS偏光成分)の色光(赤色光R、緑色光Gおよび青色光B)が入射されるようになっている。反射型液晶パネル224R,224G,224Bは、映像信号に基づいて与えられた駆動電圧に応じて駆動され、入射光を変調すると共に、その変調された色光(赤色光R、緑色光Gおよび青色光B)を、それぞれ、PBS221,222,223へ向けて反射するように機能するものである。
 クロスプリズム225は、反射型液晶パネル224R,224G,224Bから出射されPBS221,222,223を透過した所定の偏光成分(例えばP偏光成分)の色光(赤色光R、緑色光Gおよび青色光B)を合成し、投射部30に向けて出射するものである。
 投射部30は、例えば、複数のレンズ(例えば、レンズ31、図2参照)等を含んで構成され、画像形成部22において作成された投影画像(投影光)を拡大してスクリーン70へ投射するものである。
 制御部40は、上記のように、信号処理部41と、メモリ部42と、取得部43と、演算部44とを有している。制御部40は、さらに、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)等を有している(いずれも図示せず)。CPUは、ROMに記憶された制御プログラムを読み出してRAMに展開し、このRAM上のプログラムのステップを実行する。制御部40は、このCPUによるプログラム実行によって、プロジェクタ1全体の動作を制御する。
 例えば、制御部40は、プロジェクタ1からスクリーン70に投射される投影画像がプロジェクタ1の周囲の環境光に応じた適切な画質となるよう、投影画像の画素情報を制御する。具体的には、制御部40は、照度センサ51において検出された照度に応じて、スクリーン70に投射される投影画像のコントラスト、解像感および発色等が、照度に応じた設定値となるよう、映像信号の出力値を制御する。
 例えば、プロジェクタ1の周囲が暗い(例えば、暗室等のプロジェクタ1の使用に適した状態にある)と判断される場合には、制御部40は、標準的な映像信号を画像形成部22の駆動部(図示せず)に供給する。また、例えば、プロジェクタ1の周囲が明るい(例えば、プロジェクタ1が外光(白色光)等に晒された状態にある)と判断される場合には、制御部40は、より映像の輪郭や発色が鮮明となる映像信号を画像形成部22の駆動部に供給する。
 信号処理部41は、例えば、コンピュータ、DVDプレーヤ、TVチューナ等の外部機器から入力される映像信号から各種信号処理を行うものである。信号処理部41は、例えば映像信号の特性補正、増幅等により、画像のリサイズ、ガンマ調整、色調整等を行うと共に、映像信号をR,G,Bの各画像データに分解する。また、信号処理部41は、各色光用の反射型液晶パネル224R,224G,224Bを駆動するための光変調信号を生成し、画像形成部22の駆動部に供給する。
 信号処理部41には、例えば、ユーザによって投影画像の表示方向を指定する信号(表示方向指定信号)が取得部43から入力される。具体的には、図3に示したように、例えば、筐体60の第2面S2が上面となる机上設置状態の場合には、通常の画像(正位像)を指定する信号が入力される。また、図3に示したように、例えば、筐体60の第2面S2が下面となる天吊り状態の場合には、画像の上下左右を反転させた反転画像(倒立像)を指定する信号が入力される。
 更に、信号処理部41には、プロジェクタ1の周囲の環境光に基づく環境情報が演算部44から入力される。具体的には、例えば、照度センサ51において所定の間隔で測定され、演算部44において算出された平均照度値および前回の平均照度値からの照度の変化方向を含む照度情報が、例えば一定間隔で入力される。
 信号処理部41は、入力された表示方向指定信号および照度情報に基づいて、プロジェクタ1の周囲の環境光に応じた映像信号を生成し、画像形成部22の駆動部に供給する。具体的には、信号処理部41は、例えば、入力された表示方向指定信号および環境情報に基づいて、後述するメモリ部42に格納されたデータテーブルおよび対応する閾値データ群を参照し、コントラスト、解像感および発色等の画素情報が補正された映像信号を生成し、画像形成部22の駆動部に供給する。
 なお、外光(白色光)によって劣化した投影画像は、コントラスト、解像感および発色等の各画質要素をプラス(+)方向に持ち上げることで、視認性を向上させることができる。例えば、コントラストは、中間信号レベルをプラス(+)方向に持ち上げによる明るさの向上によって高めることができる。あるいは、投影画像全体の明るさをプラス(+)方向に持ち上げることによって低諧調部を見やすくすることができる。解像感は、例えば、超解像によってエッジを強調することで改善することができる。更に、カラーによる色の持ち上げによって発色を改善すると共に、コントラストを高めることができる。
 メモリ部42には、プロジェクタ1の設置状態および周囲の照度に応じて、どのように投影画像の画素情報を制御するかという情報が設定されたデータが格納されている。
 図6は、メモリ部42に格納されたデータテーブルの一例である。データテーブルは、プロジェクタ1の周囲の照度と投影画像の画素情報とがそれぞれ対応付けられた設定情報を含み、例えば、「照度レベル」、「明るさ」、「解像度」および「発色」といった項目を有する。照度レベルは、例えば、プロジェクタ1の使用に適した暗室環境をレベル0とし、レベル0~レベル9の、例えば10段階の「明るさ」、「解像度」および「発色」の値が設定されている。
 メモリ部42には、さらに、プロジェクタ1の設置状態に応じた複数の閾値データ群が格納されている。例えば、メモリ部42は、プロジェクタ1が机上設置状態(A)か、天吊り状態(B)かで異なる閾値データ群を有する。
 図7の(A)は、机上設置状態において、例えば信号処理部41が参照する設定情報の参照先(データテーブルの照度レベル)を切り替える際の閾値データ群の一例である。図7の(B)は、天吊り状態において、例えば信号処理部41が参照する設定情報の参照先(データテーブルの照度レベル)を切り替える際の閾値データ群の一例である。
 図7の(A)および(B)に示した閾値データ群は、それぞれ、プロジェクタ1の周囲の照度の変化方向で、参照するデータテーブルの照度レベルを切り替える際の閾値が互いに異なるヒステリシス特性を有する。例えば、プロジェクタ1の周囲の照度が上昇方向に変化する場合の閾値は、プロジェクタ1の周囲の照度が下降方向に変化する場合の閾値よりも高く設定される。具体的には、例えば、プロジェクタ1の周囲の照度の上昇によってレベル0からレベル1に切り替わる閾値を100lxとした場合、プロジェクタ1の周囲の照度の下降によってレベル1からレベル0に切り替わる閾値は80lxに設定されている。これにより、プロジェクタ1の周囲の照度変化による頻繁な画質の切り替わりが低減される。
 取得部43は、例えば、ユーザによって選択された投影画像の表示方向から、プロジェクタ1の設置情報を取得し、表示方向指定信号を生成して信号処理部41へ供給する。
 演算部44は、例えば、検出部50において検出されたプロジェクタ1の周囲の環境情報を取得し、取得したプロジェクタ1の周囲の環境情報を信号処理部41へ供給する。例えば、演算部44は、照度センサ51において所定の間隔で測定されたN回分の照度センサ値から平均照度値を算出し、これを照度情報として信号処理部41へ供給する。また、2回目以降では、演算部44は、平均照度値と共に、前回の平均照度値からの変化方向を照度情報として信号処理部41へ供給する。
 検出部50は、各種センサを制御することにより、各種情報を検出する。
 例えば、検出部50は照度センサ51を含み、これを制御することにより、プロジェクタ1の周囲の照度を検出する。検出部50は、照度センサ51によって得られた照度値(照度センサ値)を演算部44へ供給する。
 照度センサ51は、環境光センサ等とも称され、フォトトランジスタやフォトダイオード等を利用して、周囲の照度を検出するデバイスである。
 図8は、図2に示したI-I’線に対応する照度センサ51およびその周辺の断面構成の一例を模式的に表したものである。
 照度センサ51は、例えば、基板511と、受光素子512とを有し、受光素子512は、例えばフォトトランジスタによって構成されている。照度センサ51は、図8に示したように、例えば、筐体60の第2面S2の近傍に配置される。
 例えば、筐体60は、第2面S2を構成するトップカバー61に環境光Lを取り込む取り込み窓62が設けられている。トップカバー61の裏側の取り込み窓62の周囲には、例えば、照度センサ51が嵌め込まれる掘り込み部64が設けられている。
 照度センサ51は、取り込み窓62の下方に受光素子512が配置されるように掘り込み部64内に配設される。取り込み窓62には導光管63が嵌め込まれており、取り込み窓62から取り込まれた環境光Lが受光素子512に導かれるようになっている。
 図9は、図8に示した導光管63の形状の一例を模式的に表したものである。
 導光管63は、筐体60の第2面S2と略同一面を形成する光取り込み面63S1と、光取り込み面63S1と対向する光取り出し面63S2とを有する。導光管63は、例えば掘り込み部64の底面と対向する台座部631と、取り込み窓62に嵌め込まれる凸部632とを有し、この凸部632の上面が光取り込み面63S1、台座部631の掘り込み部64の底面と対向する面とは反対側の下面が光取り出し面63S2に相当する。導光管63の表面にはシボ加工が施されており、これにより、光の入射角度依存性が低減される。
 導光管63は、光透過性を有する透明材料を用いて構成されている。透明材料としては、例えば、アクリル樹脂、ポリカーボネート、ガラス、ポリスチレンおよびウレタン等が挙げられる。透明材料には、例えば、複数の散乱粒子が混錬されており、これにより、光の入射角度依存性がさらに低減される。
 散乱粒子の材料としては、例えば、酸化ケイ素(SiO)、酸化チタン(TiO)、酸化アルミニウム(Al)、窒化アルミニウム(AlN)、窒化ホウ素(BN)および酸化亜鉛(ZnO)等が挙げられる。また、散乱粒子は、例えば、透明材料中に混入させた気泡であってもよい。
 導光管63は、さらに、光取り込み面63S1と光取り込み面63S1との間の側面63S3を単色で塗装するようにしてもよい。例えば、導光管63の側面63S3は、塗料等を用いて黒塗りまたは白塗りするようにしてもよい。なお、図9に示した導光管63では、台座部611の掘り込み部64の底面と対向する面および台座部631の側面ならびに凸部632の側面が導光管63の「側面」に相当する。
 あるいは、導光管63が嵌め込まれる筐体60の取り込み窓62および掘り込み部64の内側を遮光するようにしてもよい。具体的には、導光管63が嵌め込まれる筐体60の取り込み窓62および掘り込み部64の内側を、例えば黒塗りや白塗り等の単色で塗装するようにしてもよい。
 これにより、筐体60の第2面S2側からの透過光や反射光による照度センサ値のばらつきが低減される。また、筐体60の色の影響が低減される。
[プロジェクタの制御方法]
 プロジェクタ1の投射中の画質の制御について、図10に示したフローチャートを用いて説明する。
 投影画像の画質の制御を開始するに当たっては、まず、取得部43が、ユーザによって選択された投影画像の表示方向を確認し、その情報を取得する(ステップS101)。
 次に、信号処理部41は、取得部43から供給された表示方向指定信号から参照する閾値データ群を決定する(ステップS102)。
 続いて、検出部50は、プロジェクタ1の周囲の照度の検出を開始する(ステップS103)。ここでは、照度センサ51においてプロジェクタ1の周囲の照度を所定の時間毎にN回測定する。
 次に、演算部44は、照度センサ51において測定されたN回分の照度センサ値から平均照度値を算出する。また、前回の平均照度値からの照度の変化方向を算出する(ステップS104)。
 続いて、信号処理部41は、演算部44で算出された照度情報を基に参照するデータテーブルの設定情報を決定する(ステップS105)。次に、信号処理部41は、参照するデータテーブルの設定情報に応じた画素情報となる映像信号を生成し、これを画像形成部22の駆動部に供給する。これにより、プロジェクタ1は、プロジェクタ1の周囲の照度に応じた投影画像をスクリーン70に投射する(ステップS106)。
 その後、プロジェクタ1は、ユーザから投影画像の投射を終了する操作を受け付けたか否かを判定する(ステップS107)。ユーザから投影画像の投射を終了する操作を受けつけなかった場合(ステップS107;N)には、プロジェクタ1は、ステップS103~ステップS107を繰り返し、プロジェクタ1の周囲の照度に応じた適切な画質となるよう、投影画像の明るさ、解像度および発色の調整を継続する。一方、ユーザからの画像の投射を終了する操作を受け付けた場合(ステップS107;Y)には、プロジェクタ1は、投影画像の投射を終了する。
[作用・効果]
 本実施の形態のプロジェクタ1は、環境光の照度を検出する照度センサ51を含む検出部50と、設置状態および照度センサ51において検出される照度に応じて投影画像の画素情報の設定値を変更する複数の閾値データ群を含む制御部40とを設け、環境光に応じた画質の補正を自動で行うようにした。以下、これについて説明する。
 以上により、本実施の形態のプロジェクタ1では、投影画像の品質を向上させることが可能となる。
<2.その他の実施の形態>
 上記実施の形態では、ユーザによって指定された投影画像の表示方向から、プロジェクタ1の設置状態を判断する例を示したが、これに限定されるものではない。例えば、検出部50に加速度センサを搭載し、これにより、プロジェクタ1の設置状態を検出するようにしてもよい。
 また、上記実施の形態では、予め設定された複数の閾値データ群がメモリ部42に格納されている例を示したが、閾値データ群を構成する複数の閾値は、計算式から複数個求めるようにしてもよい。
 更に、上記実施の形態では、プロジェクタ1と表示部(スクリーン70)とが空間的に分離している例を示したが、プロジェクタ1と表示部とは一体であってもよい。例えば、プロジェクタ1は、表示部の下部や上部のベゼル(縁)に埋め込まれていてもよい。
 以上、実施の形態およびその他の実施の形態を挙げて本技術を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々変形が可能である。
 例えば、上記実施の形態等では、プロジェクタ1を構成する光学部材を具体的に挙げて説明したが、全ての光学部材を備える必要はなく、また、他の光学部材をさらに備えていてもよい。
 なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
 なお、本開示は以下のような構成を取ることも可能である。以下の構成の本技術によれば、環境光の照度を検出する照度センサを含む検出部と、設置状態および照度センサにおいて検出される照度に応じて、投影画像の画質を変更する複数の閾値データ群を含む制御部とを設けるようにした。これにより、環境光に応じた画質の補正を自動で行う。よって、視認性を向上させることが可能となる。
(1)
 入力された映像信号に基づいて投影画像を生成する画像形成部と、
 環境光の照度を検出する照度センサを含む検出部と、
 設置状態および前記照度センサにおいて検出される前記照度に応じて前記投影画像の画素情報を変更する複数の閾値データ群を含む制御部と
 を備えた表示装置。
(2)
 前記制御部は、前記照度と前記画素情報とがそれぞれ対応付けられた設定情報をさらに含み、
 前記複数の閾値データ群は、それぞれ、前記照度に応じて参照する前記設定情報を切り替える複数の閾値を有し、
 前記複数の閾値は、前記照度の上昇方向と下降方向とで互いに異なる、前記(1)に記載の表示装置。
(3)
 設置面と対向する第1の面および前記第1の面とは反対側の第2の面とを有すると共に、前記画像形成部、前記検出部および前記制御部を収容する筐体をさらに有する、前記(1)または(2)に記載の表示装置。
(4)
 前記制御部は、前記複数の閾値データ群として、前記第2の面が上面となる場合に選択される第1の閾値データ群と、前記第2の面が下面となる場合に選択される第2の閾値データ群とを有する、前記(3)に記載の表示装置。
(5)
 前記筐体は、前記第2の面に前記環境光を取り込む取り込み窓を有し、
 前記照度センサは、前記第2の面の近傍に配置されている、前記(3)または(4)に記載の表示装置。
(6)
 前記取り込み窓には、前記環境光を前記照度センサへ導く導光管が嵌め込まれている、前記(5)に記載の表示装置。
(7)
 前記導光管の表面にはシボ加工が施されている、前記(6)に記載の表示装置。
(8)
 前記導光管には複数の散乱粒子が混錬されている、前記(6)または(7)に記載の表示装置。
(9)
 前記導光管は、前記筐体の前記第2の面と略同一面を形成する光取り込み面と、取り込んだ前記環境光を前記照度センサへ取り出す、前記光取り込み面と対向する光取り出し面と、前記光取り込み面と前記光取り出し面との間の側面とを有し、
 前記導光管の前記側面は単色で塗装されている、前記(6)乃至(8)のうちのいずれか1つに記載の表示装置。
(10)
 前記筐体は、前記導光管および前記照度センサと対向する面が遮光されている、前記(6)乃至(9)のうちのいずれか1つに記載の表示装置。
(11)
 前記画像形成部において生成された投影画像を投射する投射部をさらに有する、前記(1)乃至(10)のうちのいずれか1つに記載の表示装置。
 本出願は、日本国特許庁において2021年11月12日に出願された日本特許出願番号2021-185015号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (11)

  1.  入力された映像信号に基づいて投影画像を生成する画像形成部と、
     環境光の照度を検出する照度センサを含む検出部と、
     設置状態および前記照度センサにおいて検出される前記照度に応じて前記投影画像の画素情報を変更する複数の閾値データ群を含む制御部と
     を備えた表示装置。
  2.  前記制御部は、前記照度と前記画素情報とがそれぞれ対応付けられた設定情報をさらに含み、
     前記複数の閾値データ群は、それぞれ、前記照度に応じて参照する前記設定情報を切り替える複数の閾値を有し、
     前記複数の閾値は、前記照度の上昇方向と下降方向とで互いに異なる、請求項1に記載の表示装置。
  3.  設置面と対向する第1の面および前記第1の面とは反対側の第2の面とを有すると共に、前記画像形成部、前記検出部および前記制御部を収容する筐体をさらに有する、請求項1に記載の表示装置。
  4.  前記制御部は、前記複数の閾値データ群として、前記第2の面が上面となる場合に選択される第1の閾値データ群と、前記第2の面が下面となる場合に選択される第2の閾値データ群とを有する、請求項3に記載の表示装置。
  5.  前記筐体は、前記第2の面に前記環境光を取り込む取り込み窓を有し、
     前記照度センサは、前記第2の面の近傍に配置されている、請求項3に記載の表示装置。
  6.  前記取り込み窓には、前記環境光を前記照度センサへ導く導光管が嵌め込まれている、請求項5に記載の表示装置。
  7.  前記導光管の表面にはシボ加工が施されている、請求項6に記載の表示装置。
  8.  前記導光管には複数の散乱粒子が混錬されている、請求項6に記載の表示装置。
  9.  前記導光管は、前記筐体の前記第2の面と略同一面を形成する光取り込み面と、取り込んだ前記環境光を前記照度センサへ取り出す、前記光取り込み面と対向する光取り出し面と、前記光取り込み面と前記光取り出し面との間の側面とを有し、
     前記導光管の前記側面は単色で塗装されている、請求項6に記載の表示装置。
  10.  前記筐体は、前記導光管および前記照度センサと対向する面が遮光されている、請求項6に記載の表示装置。
  11.  前記画像形成部において生成された投影画像を投射する投射部をさらに有する、請求項1に記載の表示装置。
PCT/JP2022/038796 2021-11-12 2022-10-18 表示装置 WO2023085013A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-185015 2021-11-12
JP2021185015 2021-11-12

Publications (1)

Publication Number Publication Date
WO2023085013A1 true WO2023085013A1 (ja) 2023-05-19

Family

ID=86335659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038796 WO2023085013A1 (ja) 2021-11-12 2022-10-18 表示装置

Country Status (1)

Country Link
WO (1) WO2023085013A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144081A (ja) * 1992-10-30 1994-05-24 Kansei Corp 車両用自動調光機能を備えたヘッドアップディスプレイ装置
WO2008026576A1 (fr) * 2006-08-29 2008-03-06 Panasonic Corporation Procédé et dispositif d'affichage d'image
JP2015222344A (ja) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 プロジェクター
WO2016121414A1 (ja) * 2015-01-30 2016-08-04 株式会社日立エルジーデータストレージ レーザ投射表示装置、及びそれに用いるレーザ光源駆動部の制御方法
US20190333431A1 (en) * 2018-04-30 2019-10-31 Apple Inc. Electronic Devices Having Ambient Light Sensors With Lens Diffusers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144081A (ja) * 1992-10-30 1994-05-24 Kansei Corp 車両用自動調光機能を備えたヘッドアップディスプレイ装置
WO2008026576A1 (fr) * 2006-08-29 2008-03-06 Panasonic Corporation Procédé et dispositif d'affichage d'image
JP2015222344A (ja) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 プロジェクター
WO2016121414A1 (ja) * 2015-01-30 2016-08-04 株式会社日立エルジーデータストレージ レーザ投射表示装置、及びそれに用いるレーザ光源駆動部の制御方法
US20190333431A1 (en) * 2018-04-30 2019-10-31 Apple Inc. Electronic Devices Having Ambient Light Sensors With Lens Diffusers

Similar Documents

Publication Publication Date Title
KR101173351B1 (ko) 발광장치 및 광원장치와 이 광원장치를 이용한 프로젝터
JP4873276B2 (ja) 光源ユニット及びプロジェクタ
JP5396012B2 (ja) 投射前に画像を自動的に修正するシステム
JP2017003643A (ja) 光源装置及び投影装置
US8670170B2 (en) Optical scanning projection system
JP7178469B2 (ja) 光源装置、プロジェクタ及び色度調整方法
JP6579362B2 (ja) 光源装置及び投影装置
JP2017151293A (ja) 光源装置及び投影装置
JP2011145681A (ja) 発光装置及び光源装置並びにこの光源装置を用いたプロジェクタ
JP6425058B2 (ja) 光源装置及び投影装置
JP2012198439A (ja) プロジェクタ
WO2023085013A1 (ja) 表示装置
JP6820703B2 (ja) 光源装置及び投影装置
JP6070982B2 (ja) 表示装置
JP2018091994A (ja) 車両用表示装置
JP2015121575A (ja) 光学ホイール装置及び投影装置
US11397375B2 (en) Image projection apparatus
JP6332678B2 (ja) 光源装置及び投影装置
TWI511571B (zh) 投影系統及其影像調整方法
JP2010032932A (ja) プロジェクタ
JP2008233487A (ja) 光源制御装置
JP2018128695A (ja) 光源装置及び投影装置
JP2014053844A (ja) プロジェクタ及び投影制御方法と投影制御プログラム
JP6263840B2 (ja) プロジェクター
JP2006292781A (ja) 投射型表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892513

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023559510

Country of ref document: JP