WO2007034875A1 - 画像投射装置 - Google Patents

画像投射装置 Download PDF

Info

Publication number
WO2007034875A1
WO2007034875A1 PCT/JP2006/318739 JP2006318739W WO2007034875A1 WO 2007034875 A1 WO2007034875 A1 WO 2007034875A1 JP 2006318739 W JP2006318739 W JP 2006318739W WO 2007034875 A1 WO2007034875 A1 WO 2007034875A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
laser beam
region
sub
image projection
Prior art date
Application number
PCT/JP2006/318739
Other languages
English (en)
French (fr)
Inventor
Akira Kurozuka
Hironori Tomita
Osamu Kajino
Hiroshi Obi
Masanari Mohri
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US12/067,196 priority Critical patent/US8182093B2/en
Priority to JP2007536553A priority patent/JP4885865B2/ja
Priority to CN200680034982XA priority patent/CN101268402B/zh
Publication of WO2007034875A1 publication Critical patent/WO2007034875A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3161Modulator illumination systems using laser light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen

Definitions

  • the present invention relates to an image projection apparatus that displays an image by projecting laser light, and particularly relates to a technology for improving the safety of the image projection apparatus.
  • Patent Document 1 the projection area is monitored by an electromagnetic radiation sensor, a thermal radiation sensor, a pyroelectric sensor, a temperature sensor, etc., and when an object is present in the projection area, it is rendered harmless to humans.
  • An image projection apparatus that switches to an operation mode is disclosed.
  • Patent Document 2 discloses an image projection apparatus that monitors a projected image with a camera, extracts a region where a person is present, and masks the image in that region. With this device, it is only necessary to limit the radiant power to the area of the projection area where it is determined that there is a person! Therefore, it is possible to continue displaying images in other areas.
  • an image projection apparatus also referred to as a laser projector
  • the laser light output from the laser light emitting element has higher color purity than the light output from the lamp, color reproducibility can be improved.
  • the optical system can be miniaturized and the power consumption can be suppressed, a small and power-saving image projection apparatus can be realized.
  • a two-dimensional image display device such as a liquid crystal panel or DMD (Digital Micromirror Device) is used to display an image by modulating the intensity of the laser beam.
  • DMD Digital Micromirror Device
  • the scan type laser projector can be mounted on a small mopile device, and a large screen display can be enjoyed even on a mobile phone or the like that is difficult to mount a large display.
  • Patent Document 1 Japanese Patent No. 2994469
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2004-254145
  • a conventional image projection apparatus needs to include a separate sensor for detection and a camera for image monitoring as a mechanism for detecting an object or a person, and is expensive and limited in size.
  • the allowable radiation power is defined by safety standards, and sufficient brightness cannot be secured within the safe range for the human eye, ensuring safety.
  • a technique for increasing the radiation power is required.
  • the present invention has been made in view of the above problems, and has as its object to provide an image projection apparatus that can be reduced in size and cost and that can be displayed safely and with sufficient brightness. To do.
  • An image projection apparatus of the present invention includes a light source that outputs laser light, and a mirror unit that reflects and projects the laser light output from the light source, and an image is generated by at least part of the projected laser light.
  • the image projection apparatus includes: a detection unit that detects at least a part of the laser light returned from the laser light projection direction; and an image display based on the detected light. And a calculation unit for determining a possible area, wherein the mirror part reflects at least a part of the laser beam returned from the projection direction of the laser beam to guide the detection unit to the detection unit.
  • the apparatus further includes a modulation unit that generates a modulation signal for modulating the laser beam according to an image signal, and the light source modulates the laser beam modulated according to the modulation signal.
  • the calculation unit calculates the detected light intensity and the modulation signal. The image displayable area is determined by comparison.
  • the modulation unit generates a modulation signal for displaying an image corresponding to the image signal in the image displayable area, and the modulation unit displays the image display.
  • a modulation signal for projecting detection laser light for detecting an obstacle is generated in an area other than the possible area.
  • the modulation unit determines that image display is possible.
  • a modulated signal is generated for displaying an image corresponding to the image signal in the at least a part of the region.
  • the detection laser light is projected in a dot pattern.
  • the mirror unit scans the laser beam two-dimensionally to display an image
  • the calculation unit performs the image displayable area determination process for each scanning line.
  • the modulation unit reflects the result of the determination process in the modulation of the laser light corresponding to the subsequent scanning line.
  • the mirror unit displays the image by scanning the laser beam two-dimensionally
  • the modulation unit can display the image determined at the time of displaying the previous image frame. Based on the active area, the laser beam corresponding to the uppermost scanning line of the image frame is modulated.
  • the maximum radiation power of the laser beam is such that the energy incident on the human eye when the laser beam is scanned is within a safety level determined by safety standards. Radiant power.
  • the maximum radiation power of the laser beam is such that the energy incident on the human eye when the laser beam is scanned is within a safety level determined by safety standards.
  • the radiation power of the detection laser beam projected by the dot pattern is equal to or greater than the radiation power of the laser beam for image display.
  • the light source projects the detection laser light before displaying an image.
  • the light source has n primary colors (n is a natural number of 3 or more) of each color.
  • Laser light is output, and the light source independently outputs the laser light of each color as the detection laser light.
  • the calculation unit determines the image displayable region based further on light intensity detected by the detection unit during a blank period in which the light source is not turned on.
  • the blank period is a horizontal blank period.
  • the blank period is a vertical blank period.
  • the calculation unit measures a distance between the projection object onto which the laser light is projected and the image projection device based on the detected light, and the calculation unit Detects a substantially planar region of the projection object based on the distance, and determines the substantially planar region as the image displayable region.
  • the computing unit is based on the distance!
  • the surface corresponding to the object to be obtained obtained by dividing is divided into a plurality of sub-regions, and whether or not the surface is substantially flat is determined for each sub-region.
  • the calculation unit calculates a virtual plane in the sub-region, and a degree of dispersion of a distance between the virtual plane and the projection object is within a predetermined value.
  • the sub-region is determined to be substantially flat.
  • the image processing apparatus further includes a storage unit that holds position information of the projection object in the sub-region determined as the substantially flat surface, and a difference between the newly measured distance and the position information is predetermined. If the value is greater than or equal to a value, the calculation unit re-determines a sub-region where the difference is greater than or equal to a predetermined value as a non-planar region, and the light source is configured to output an image to a sub-region where the difference is greater than or equal to a predetermined value.
  • the display is interrupted.
  • the computing unit determines the sub-regions that are positioned on the same plane among the sub-regions determined to be the substantially flat surfaces, and classifies the sub-regions into one group.
  • the sub-regions are divided into a plurality of groups, and the image is displayed in the sub-region having the largest area and belonging to the group.
  • the image processing apparatus further includes a storage unit that holds position information of the projection object in the sub-region determined to be the substantially plane, and the position information newly measures the distance. Only when the position indicated by the position information does not change for a predetermined time, the light source starts displaying an image on the sub-region determined to be the substantially flat surface.
  • the calculation unit calculates a profile of the projection object based on the distance, and removes an uneven portion whose profile force is smaller than a predetermined unevenness.
  • the calculation unit calculates the curvature of the projection object based on the distance, and the light source is directed to an area where the curvature is within a predetermined range. Does not display an image.
  • the calculation unit calculates a profile of the projection object based on the distance, and removes an uneven portion having a profile force smaller than a predetermined unevenness.
  • the calculation unit calculates the curvature of the projection object based on the profile.
  • the apparatus further includes a temperature measurement unit that measures the temperature of the surface of the projection object, and when the temperature of the image displayable area is within a predetermined range, the light source is the temperature Interrupts the display of the image in the area within the predetermined range.
  • the temperature measurement unit measures the temperature of the surface of the projection object during a stop period of the laser beam output for measuring the distance.
  • the mirror for image display also serves as a mechanism for detecting an image displayable area.
  • the calculation unit distinguishes an image displayable area that is determined to have no human and an area that is determined to have no human. It is possible to ensure safety by not displaying an image in an area where it is determined that a human being exists.
  • the image displayable area determined that there is no human being is strong and can display an image with light, it is possible to realize a bright image display.
  • an image displayable area is detected using a laser beam for displaying an image.
  • the device can detect the image displayable area simply by providing a detection unit and a calculation unit for detecting the reflected light intensity, realizing further cost reduction and downsizing of the device. can do.
  • the apparatus includes a separate detection sensor and an image monitoring camera. Therefore, it is possible to realize an image projection apparatus that is small and inexpensive and that can display a bright image safely.
  • the human detection operation is continued in both the image displayable area and the other area.
  • the display of the image in the entry area can be interrupted immediately.
  • the display of images in that area can be resumed.
  • the detection laser beam is projected in a dot pattern.
  • human detection can be performed while ensuring safety by reducing the amount of light that can enter the human eye.
  • an image displayable area determination process is performed for each scan line, and the result of the process is reflected in the modulation of the laser beam corresponding to the subsequent scan line.
  • the calculation unit determines an image displayable region based on the intensity of light detected by the detection unit during a blank period in which the light source is not turned on, other than the reflected light of laser light. By detecting this light, the image displayable area can be accurately determined under various conditions such as the brightness of the place of use and the state of the object in the projection area.
  • FIG. 1 is a diagram showing an image projection apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a scanning method according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram showing a distance between a pupil and a projector and a projection area according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing a signal processing procedure of the image projection apparatus according to Embodiment 1 of the present invention.
  • FIG. 5 is a flowchart showing an operation of the image projection apparatus according to the first embodiment of the present invention.
  • FIG. 6 is a flowchart showing arithmetic processing of the image projection apparatus according to Embodiment 1 of the present invention.
  • FIG. 7 is a diagram showing an image projection apparatus according to Embodiment 2 of the present invention.
  • FIG. 8 is a diagram showing an example of a distance measurement process using infrared laser light according to Embodiment 2 of the present invention.
  • FIG. 9 is a diagram showing flatness detection processing according to the second embodiment of the present invention.
  • FIG. 10 is a diagram showing an example of a flatness calculation result according to the second embodiment of the present invention.
  • FIG. 11 is a view showing recorded contents of a laser stop position storage unit according to Embodiment 2 of the present invention.
  • FIG. 12 is a flowchart showing an operation of the image projection apparatus according to the second embodiment of the present invention.
  • FIG. 13 shows an image projection apparatus according to Embodiment 3 of the present invention.
  • FIG. 14 is a diagram for explaining a sub-region according to Embodiment 3 of the present invention.
  • FIG. 15A is a diagram for explaining plane determination calculation according to Embodiment 3 of the present invention.
  • FIG. 15B is a diagram for explaining plane determination calculation according to Embodiment 3 of the present invention.
  • FIG. 16A is a diagram showing recorded contents of a screen area storage unit according to the third embodiment of the present invention.
  • FIG. 16B is a diagram showing a distance measurement operation during image projection according to Embodiment 3 of the present invention.
  • FIG. 17 is a flowchart showing an operation of the image projection apparatus according to the third embodiment of the present invention.
  • FIG. 18 is a diagram showing an image projection apparatus according to Embodiment 4 of the present invention.
  • FIG. 19 is a flowchart showing an operation of the image projection apparatus according to the fourth embodiment of the present invention.
  • FIG. 20 is a flowchart showing an operation of the image projection apparatus according to the fourth embodiment of the present invention. Explanation of symbols
  • FIG. 1 is a diagram showing an image projection apparatus 100 of the present embodiment.
  • the image projection apparatus 100 displays an image on a screen or the like by at least a part of the projected laser light.
  • the laser beam for image display and the mirror unit are also used for the detection operation of the image displayable area. As a result, the number of parts can be reduced to realize low cost and the size of the video projector 100 can be reduced.
  • the image projection apparatus 100 reflects and projects the light source 1 that outputs laser light 10a to LOc, the collimating lens 2, the dichroic prism 3, the half mirror 5, and the laser light 10a to LOc.
  • the mirror part 6 is provided.
  • Light source 1 outputs laser light of each of the n primary colors (n is a natural number of 3 or more).
  • the light source 1 includes a light emitting element la that outputs red laser light 10a and And a light emitting element lb for outputting the green laser light 10b and a light emitting element lc for outputting the blue laser light 10c.
  • the light source 1 may output multi-primary laser beams having four or more primary colors.
  • the image projection apparatus 100 includes a laser modulation unit 12 that modulates the laser beams 10a to 10c, a mirror drive unit 13 that drives the mirror unit 6, and at least a laser beam that has returned from the projection direction of the laser beam. It further includes a light detection unit 9 that detects a part of the intensity, a calculation unit 15 that determines an image displayable region based on the detected intensity, and a control unit that controls these components.
  • Laser beams 10 a to 10 c (RGB three primary colors) output from the light source 1 are narrowed down by the respective collimating lenses 2, and synthesized by the dichroic prism 3 to become one projection laser beam 4.
  • the laser beam 4 enters the mirror section (scan mirror) 6 through the half mirror 5.
  • the mirror unit 6 is a laser beam scanning unit that displays an image by scanning the laser beam 4 two-dimensionally.
  • the mirror unit 6 may use, for example, two force uniaxial mirror elements that are biaxial rotating mirror elements, or may use a rotating polygon mirror element.
  • the laser beam 4 reflected by the mirror section 6 is projected onto the screen 20 through the opening section 7.
  • the projected laser light 4 is reflected by the screen 20 or the like, and the reflected light is incident on the mirror unit 6 again.
  • the mirror unit 6 reflects at least a part of the laser beam 4 returned from the projection direction of the laser beam 4 in order to guide it to the light detection unit 9.
  • the reflected laser light 4 is branched by the half mirror 5, passes through the condenser lens 8, and is detected by the light detection unit 9.
  • the optical system for light detection is set so as to measure the reflected light intensity of the spot area of the projected laser beam 4.
  • the light detection unit 9 is, for example, a photodiode, and it is particularly preferable to use an amorphous silicon photodiode.
  • Amorphous silicon photodiodes are visible light sensors that can be used without filters that have wavelength sensitivity characteristics close to human visual sensitivity compared to single crystal silicon diodes. The manufacturing cost is also low.
  • the image signal 10 of the displayed image is also input to the control unit 11 as an external force.
  • the laser modulation unit 12 generates a modulation signal for modulating the laser light according to the image signal.
  • the light source 1 outputs laser light modulated according to the modulation signal.
  • Laser modulator 12 is laser light
  • the mirror driving unit 13 drives the mirror unit 6 in synchronization with the modulation of.
  • the angular displacement signal 16 output from the mirror unit 6 is returned to the control unit 11, whereby the mirror unit 6 is feedback-controlled.
  • the laser beam 4 scanned by the mirror unit 6 draws a laser beam spot locus 21 on the screen 20.
  • An example of a laser beam scanning method will be described with reference to FIG.
  • FIG. 2 shows the laser beam spot locus 21 of the scanning method, and the horizontal direction (H) and the vertical direction.
  • the drive signal waveform of (V) is shown.
  • Fig. 2 (a) shows a linear raster scanning method and shows a linear drive signal waveform in both the horizontal and vertical directions. Use this scanning method when polygon mirror elements are used. Since the drive frequency is high in the horizontal direction, it is usually difficult to drive the rotating mirror linearly at the speed of light. The period during which the screen returns from the right edge to the left edge, and the lower force returns upward is a blank period during which only the mirror returns without turning on the laser beam. The horizontal blanking period 32 and the vertical blanking period 33 are indicated by dotted lines.
  • FIG. 2B shows a resonance raster scanning method, and the laser beam is scanned in the horizontal direction by the resonance operation of the rotating mirror.
  • Resonance drive provides a large amplitude with a relatively small force compared to the case where the rotating mirror is driven linearly. Since the frequency is low in the vertical direction, the galvano mirror can be driven linearly.
  • the mirror operation is a sine wave, and the horizontal direction is one-way scanned. Therefore, the horizontal blank period is lengthened and the lighting time of the laser light is halved.
  • FIG. 2 (c) shows a resonant raster scanning method that performs reciprocal scanning in the horizontal direction.
  • the drive frequency is half, so it is easy to drive. Compared with the method shown in Fig. 2 (b), the laser light lighting time is doubled. However, since the scanning lines are not strictly parallel !, it is necessary to correct the vertical drive signal waveform in steps to make the scanning lines parallel.
  • light detection unit 9 generates a reflected light intensity signal corresponding to the received laser light.
  • the reflected light intensity signal is amplified by the detection amplifier 14 and sent to the calculation unit 15.
  • the calculation unit 15 compares the intensity indicated by the reflected light intensity signal with the modulation signal generated by the laser modulation unit 12 to determine an image displayable area.
  • the calculation unit 15 receives the reflected light intensity signal.
  • the image displayable area may be determined by comparing the intensity shown with the image signal.
  • the laser modulator 12 generates a modulation signal for displaying an image corresponding to the image signal in the image displayable area.
  • the laser modulation unit 12 generates a modulation signal for projecting a detection laser beam for detecting an obstacle in an area other than the image displayable area. Details of the image displayable area determination process and the detection laser beam will be described later.
  • the image projection apparatus 100 realizes an obstacle detection operation only by including the half mirror 5, the condensing lens 8, and the light detection unit 9. There is no separate radiation source.
  • the light detection unit 9 is a single sensor that is not a two-dimensional sensor array such as a CCD, but can detect a projection region two-dimensionally by a scan mirror that performs two-dimensional scanning. With such a configuration, an extremely small and inexpensive image projection apparatus can be obtained.
  • the maximum radiation power of the laser beam is set to a radiation power that allows the energy incident on the human eye when the laser beam is scanned to be within the safety level defined by the safety standards.
  • JIS laser product radiation safety standards
  • class 1 radiation emission limits (hereinafter referred to as AEL), which are considered to be basically safe, are determined according to wavelength and exposure time in Table 1 (not shown) of 3, and visible light For the products to be emitted, they are defined as Class 2 AEL in Table 2 (not shown) of JIS!
  • the reaction time is set to 0.25 seconds, and the emission duration is set to 0.25 seconds.
  • the emission duration is set to 0.25 seconds.
  • lmW and below 0.25 seconds, it is the same as Class 1 AEL.
  • the radiation output is limited to lmW for a continuous wave laser beam such as a laser pointer.
  • Exposure from any single pulse in the pulse train must not exceed the AEL (AELsingle) for a single pulse.
  • the average power of the pulse train with the emission duration T shall not exceed the power corresponding to the AEL specified in Tables 1 to 4 (not shown) for each single pulse with the emission duration T.
  • AELtrain AELsingle X C5
  • N is the number of times the pupil is scanned during 0.25 seconds.
  • N is increased by scanning the pupil with laser light, and the condition 3) is usually the most severe.
  • FIG. 3 is a side view showing the distance between the pupil and the projector and the projection area.
  • the measurement conditions of the radiation power of the scanning laser beam are set such that the diameter of the measurement aperture 25 is 7 mm and the measurement distance r is 100 mm.
  • the measurement aperture 25 of ⁇ 7mm assumes the maximum value of the human pupil diameter.
  • the radiation power calculated under the specified measurement conditions varies depending on the scanning conditions. An example of calculation under the following scanning condition is shown below. In each parameter, the subscripts h and V represent horizontal and vertical, respectively.
  • the horizontal scanning frequency fh is expressed as follows.
  • the number N of times the pupil is scanned in 0.25 seconds is expressed as follows.
  • N (D / r) / ( ⁇ v / Nv) * fv * 0.25
  • the average pulse energy AELtrain in the pulse train (AEL of the repetitive pulse) is
  • AELtrain AELsingle XN "-0.25 ... (Formula 4)
  • the radiation power can be increased up to about 280 mW by performing an appropriate process described later.
  • the scanning frequency can be selected according to the peak power required for the projector. For example, if the peak power P is 150 mW, the number of scans may be limited to 12.
  • the brightness of the projector is about 10 lumens.
  • the projection size that can secure the brightness that can be visually recognized in a room of 400 lux, which is a general office brightness, for example, 500 lux is about 8 inches. If the projection size is 19 inches, the brightness of the screen is about 89 lux, which cannot be seen in a bright room.
  • the brightness of the projector is 56 It becomes a lumen, and it becomes about 500 lumens in 19 inches.
  • the control is performed so as to limit the number of times that the laser beam crosses the pupil, a sufficiently bright screen can be obtained even when projecting to a larger size while ensuring safety.
  • the Ptrain gets bigger.
  • the Ptrain is 281.7 mW (approximately 280 mW) at a measurement distance of approximately 400 mm (the three measurement apertures 25 shown in FIG. 3). The state of the measurement opening 25 shown in the lower right of this).
  • the light detection unit 9 detects the reflected light intensity according to the display image. However, if an obstacle 22 such as a person is present in the laser light projection area, the reflected light in that area is disturbed, and the correlation between the reflected light intensity and the image signal is lost, and a signal of a predetermined level is obtained. It becomes impossible. By disabling such an area from the image displayable area and interrupting the image display, even if there is a person in the projection area, an eye damage is prevented.
  • the image projection apparatus 100 does not have a light source for detection other than the light source for image display, but can detect the reflected light by displaying a random dot pattern as a display pattern for detection in the area where the display is interrupted. .
  • the random dot pattern is similar to a polka dot pattern.
  • the number of pulses that enter the pupil in 0.25 seconds should be assumed and kept within a safe level.
  • the light source 1 may display white dots by simultaneously emitting laser beams of three primary colors (RGB) as detection laser light for displaying a random dot pattern, or lasers of the respective colors. Light may be output independently to display each color dot. By determining which color of the laser light is reflected, the difference in color of the projection area can be determined using the single-color light detection unit 9.
  • RGB primary colors
  • a portable projector may project onto various objects without being limited to a screen.
  • there may be many light sources such as fluorescent lamps and windows in the projection area, and the object is illuminated by any ambient light. It is necessary to determine the state of the object in the projection area from the detected reflected light intensity.
  • the reflected light intensity signal Sd detected by the light detection unit 9 is the laser to be irradiated.
  • Sd RX (Si + Samb) (Equation 8) where Si is the light intensity signal, Samb is the light intensity of ambient light 24 (Fig. 1), and R is the reflectance of the irradiation point.
  • R X Samb Sb That is, the reflected light intensity of the projection point power in the state where the laser beam is not irradiated is measured as the background illuminance distribution,
  • the intensity signal S becomes a signal corresponding to the reflectance distribution in the projection area, and the state of the object in the projection area can be recognized without being affected by ambient light.
  • the background illuminance distribution is measured during a blank period of laser light scanning.
  • the background illuminance distribution can be obtained by driving the mirror unit 6 in the blank period when the light source 1 is not turned on and detecting the intensity of the light incident on the mirror unit 6 by the detection unit 9 during the blank period.
  • the calculation unit 15 also determines the image displayable area using the background illuminance distribution.
  • the size of the human head at a distance that requires a detection operation occupies a large part of the projection area.
  • Such a high resolution is sufficient if at least the human head and background can be separated, and the peripheries of the eyes can be identified.
  • the ratio of the ⁇ 7mm pupil to the screen size of 332mm at a distance of 400mm is 332: 747: 1, so even the number of scan lines during the blank period can sufficiently identify the periphery of the eye .
  • the background illuminance distribution may be measured during the horizontal blank period.
  • the horizontal blanking period is the same as the display period for each scanning line, so it can be used for blank detection.
  • the number of blank detection scanning lines is the same as the number of image display scanning lines.
  • FIG. 4 is a diagram illustrating a signal processing procedure executed by the calculation unit 15.
  • FIG. 4 shows the image luminance signal (laser modulation signal) Si on the scanning line 35 (i) for displaying the image 34, the background illuminance signal (blank detection signal) Sb at the corresponding position, and the light detection unit in that state.
  • the reflection intensity signals Sd detected in Fig. 9 are shown.
  • the image luminance signal Si has a safety level 36, and the area A1 represents an area below the safety level of the image luminance signal Si.
  • Safety level 36 is the radiated power defined in the above-mentioned JIS safety standards, and in this embodiment, it is 50 mW. The radiated power is lower than this, and the area can be displayed unconditionally.
  • the area A1 is stored in the memory.
  • a reflection intensity signal Sd having an intensity distribution corresponding to the image luminance signal Si is obtained.
  • a reflection intensity signal Sd having an intensity distribution not corresponding to the image luminance signal Si is obtained.
  • the signal waveform Sdl is a waveform when the obstacle 33 is not present.
  • the region A2 is a region where the signal Si and the signal Sd correspond well, and from this, it can be said that the reflectance is almost constant.
  • Ld represents the peak level when the random dot pattern is displayed, and Lw represents the peak level of the laser beam for white display.
  • the calculation unit 15 performs the determination process of the image displayable area for each scanning line, and the laser modulation unit 12 converts the determination processing result into the modulation of the laser light corresponding to the subsequent scanning line. To reflect. If the determination process is continued and no obstacle is detected in at least a part of the area other than the image displayable area, the calculation unit 15 displays an image in the area where no obstacle is detected. Judge that it is possible. In this case, the laser modulation unit 12 generates a modulation signal for displaying an image corresponding to the image signal in a region newly determined to be capable of image display.
  • the determination process is performed for each scanning line, the calculation can be performed with a minimum processing time as compared to processing two-dimensional data for each frame. If the delay time required for the above arithmetic processing is within the horizontal blank period, the determination result in the scanning line (i) can be immediately applied to the scanning line (i + 1). Therefore, even if there is a person in the projection area as an obstacle and the eye and the scan line overlap, at the worst, only the pupil is scanned once, and the laser beam for image display does not scan the pupil in the next scan line . Normally, a human is detected before the scanning line reaches the pupil without the presence of a pupil at the upper end of the contour of the head, so that the image display laser light does not enter the pupil.
  • the image display laser light does not scan the pupil again.
  • the possibility of scanning the pupil once is based on the assumption that the laser beam that started display passes through the pupil at the moment when the image is switched from a completely dark image to a bright image. In other cases, since the scan line is switched to the detection mode before reaching the pupil, the image display laser light does not enter the pupil.
  • the peak power of the laser beam for white display can be set to 280 mW.
  • the peak power shown in Table 1 may be selected according to the number of times.
  • FIG. 5 is a flowchart showing the operation of the image projection apparatus 100.
  • the mirror unit 6 is first driven (SI), and the background illuminance distribution in the projection area is measured and stored in the memory as two-dimensional data (S2) .
  • the light source 1 projects a detection laser beam in a random dot pattern, and starts scanning the frame while detecting the reflected light intensity (S3). This ensures safety for the eyes of the person at startup.
  • Line (1) of the first frame is scanned in the detection mode (S4 and S5).
  • the image displayable area determined in the previous frame is called from memory (S6).
  • the laser modulator 12 modulates the laser beam corresponding to the uppermost scanning line of the image frame based on the image displayable area determined at the time of displaying the previous image frame.
  • the line (i) is scanned according to the settings in S5 and S6 (S7 to S10), the calculation process (S11) is performed while detecting the reflected light intensity, and the image displayable area is updated and saved (S12 ).
  • the image is displayed in the image displayable area determined in the previous line (S13 to S15), and the detection mode is left in the other areas (S16).
  • arithmetic processing (S17) is performed, the displayable area is updated (S18), and the next line is scanned.
  • FIG. 6 is a flowchart showing details of the arithmetic processing.
  • the image projection apparatus 100 detects an image displayable region using the laser beam for displaying an image.
  • the image displayable region can be detected simply by including the detection unit 9 and the calculation unit 15 for detecting the reflected light intensity.
  • the detection unit 9 and the calculation unit 15 for detecting the reflected light intensity.
  • a mechanism for detecting an object or person there is no need to provide a separate sensor for detection or a camera for image monitoring, so that a small and inexpensive image projection device capable of displaying a bright image safely can be realized. Can do.
  • the process of determining the image displayable area is performed for each scan line, and the result is reflected in the next scan line, so the mode can be switched with a minimum processing time and the safety level is increased. Can do.
  • the calculation unit 15 determines the image displayable area
  • the light source 1 is not turned on.
  • the luminance signal detected by the detection unit 9 during the blank period the brightness of the place of use and the projection area This makes it possible to carry out accurate decision processing under various conditions such as the state of an object in the area, which can further enhance safety.
  • FIG. 7 is a diagram showing an image projection apparatus 200 of the present embodiment.
  • the image projection apparatus 200 measures the distance between the screen 20 and the image projection apparatus 200, and detects an obstacle such as a person from the measured value. For example, the distance and inclination between the screen 20 and the image projection apparatus 200 are measured in advance, and the measurement results are stored. The distance measurement is continued in parallel with the image display, and the approach of the obstacle can be detected by comparing the stored distance with the newly measured distance.
  • the distance between the projection object such as the screen 20 and the image projection apparatus 200 is the distance between the projection object and an arbitrary position of the image projection apparatus 200. It is the distance between the mirror part 6 and the projection object
  • the image projection apparatus 200 When the image projection apparatus 200 is a handy type or the like, the image projection apparatus 200 itself The position and posture of the body can change frequently. Even in such a case, the image projection device 200 automatically detects the screen area again. User's own power It is not necessary to reset the screen area after confirming that there is no obstacle between the S-screen 20 and the image projection device 200, so the convenience of the user can be improved. .
  • image projecting apparatus 200 is slightly different in the arrangement of components from image projecting apparatus 100 (FIG. 1).
  • the image projection apparatus 200 includes a light emitting element Id that outputs infrared laser light 4a as a component of a light source, and includes reflecting portions 3a to 3c and a half mirror 5a as optical elements.
  • the laser beams output from the light emitting elements la, lb, and lc are two-dimensionally scanned by the mirror unit 6 (beam scanning unit) through the reflecting units 3a, 3b, and 3c, and are used as image display laser beams 4 Projected on screen 20.
  • the two-dimensional scanning by the mirror unit 6 is, for example, ⁇ 22.5 ° in the Y direction (direction perpendicular to the Z direction) and ⁇ 30 ° in the X direction (Fig. 8) with reference to the predetermined projection direction (Z direction). Done in a range.
  • the mirror unit 6 is provided with an angle sensor 13a, which independently detects the rotation angles of the two axes, and is controlled to a predetermined projection angle by the mirror driving unit 13.
  • the screen 20 is not necessarily installed completely perpendicular to the Z direction, and may have a predetermined inclination depending on the installation state of the image projection apparatus 200.
  • the mirror unit 6 for example, a biaxial rotating mirror element having independent rotating axes in the X direction and the Y direction is used, but two uniaxial mirror elements may be used, or a rotating polygon mirror may be used. An element may be used.
  • the calculation unit 15 includes a distance calculation unit 15a, a profile storage unit 15b, an LPF (low-pass filter) 15c, and a system controller 11.
  • the image signal is input to the system controller 11, and the mirror drive unit 13 drives the mirror unit 6 to display an image in synchronization with the laser modulation unit 12 modulating the laser beam 4 for image display. .
  • infrared laser light 4a is emitted from the light emitting element Id. Since the infrared laser beam 4a is invisible, there is no deterioration in image display quality due to projection.
  • the infrared laser beam 4a passes through the half mirror 5a, is reflected by the mirror unit 6, and is projected onto the screen 20. A part of the infrared laser beam 4a reflected by the screen 20 is reflected by the mirror part 6 and the noise mirror 5a and enters the detection unit 9.
  • the distance between the point reflected by the infrared laser beam 4a and the image projection device 200 is calculated by counting the phase difference between the light emitted from the light emitting element Id and the light incident on the detection unit 9, which is pulse-modulated. To do.
  • the distance calculation unit 15a performs counting of the phase difference and calculation of the distance. By recording the distance continuously calculated by scanning with the infrared laser beam 4a, the profile of the outer shape of the portion reflected by the infrared laser beam 4a can be acquired.
  • the calculation unit 15 includes a profile storage unit 15b and an LPF (low-pass filter) 15c.
  • the profile storage unit 15b calculates the profile of the projection object from the calculated distance.
  • the profile is recorded in the profile storage unit 15b together with the projection direction of the infrared laser beam 4a that can also specify the biaxial rotational angular force measured by the angle sensor 13a.
  • the infrared laser beam 4a is offset from the optical axis of the image display laser beam 4, and therefore the force projected on the screen 20 is slightly different.
  • Image display and profile acquisition are common areas (shown in FIG. 7). In area S). Image display and distance measurement are performed only during scanning in the X + direction during scanning, not in the X ⁇ direction. For this reason, the infrared laser beam 4a always scans ahead of the image display beam 4. In the area other than the area S among the scannable areas of the image display beam 4, the irradiation of the image display beam 4 is always stopped.
  • the system controller 11 detects a substantially planar region of the projection object based on the distance, and determines the substantially planar region as an image displayable region.
  • the system controller 11 calculates the curvature of the profile for each projection position based on the recorded profile.
  • the system controller 11 also functions as a part of a calculation unit that executes each calculation process.
  • the part acquired on the screen 20 has a curvature close to 0 because the screen 20 is almost flat, and the part obtained is an object force approximately similar to a sphere like a human head.
  • An LPF (low-pass filter) 19 removes irregularities smaller than the irregularities of a predetermined size from the profile. Extremely small irregularities are detected with extremely large curvature.
  • the laser stop position storage unit 11a is a memory that records, for each projection position, a flag indicating whether the light source 1 for displaying an image is turned ON or OFF.
  • the system controller 11 determines whether the calculated curvature is within a predetermined range (for example, a range near the curvature close to a human head). If it is within the range, a flag indicating that the display of the image at that point is turned off is written in the laser stop position storage unit 11a, and if it is out of the range, a flag indicating that the display is turned on is written.
  • the system controller 11 switches the light source 1 between ON and OFF by controlling the laser modulation unit 12 while referring to the flag recorded in the laser stop position storage unit 1 la.
  • the light source 1 does not display an image in an area where the curvature is within a predetermined range! /.
  • FIG. 8 is a perspective view showing an example of a distance measuring operation using the infrared laser beam 4a.
  • the infrared laser beam 4a for distance measurement scans the screen 20 in the X + direction, acquires the profile file, and sequentially changes the Y-direction scanning position in the Y + direction force Y- direction.
  • the infrared laser beam 4a is reflected by the obstacle 22, so that the measured distance is shortened and a discontinuous profile 41 is obtained.
  • FIG. 9 shows an example of processing for detecting the flatness of the projection object from the profile 41.
  • region A and region C of profile 41 are portions indicating distances measured when reflected by infrared laser light 4a force S screen 20, and these regions are This indicates that the screen 20 is inclined with respect to the reference projection direction (Z direction) of the image projection apparatus 200 because it is substantially straight and has an inclination.
  • a region B of the profile 41 is a portion indicating a distance measured when the infrared laser beam 4 a is reflected by the obstacle 22, and a region B is a curve along the outer shape of the obstacle 22.
  • the calculation of the curvature is not waited.
  • the display flags for all positions in the laser stop position storage unit 1 la are set to flags indicating OFF.
  • the flatness within the scanning range is detected by calculating the curvature from the profile 41 and detecting a portion where the curvature is almost zero.
  • the curvature of the profile 41 in the region B is 10 to 20 cm and the curvature (the reciprocal of the curvature radius) is about 0.05 to 0.1 lZcm.
  • the plane portion (that is, the screen 20) in the scanning range can be sorted by the curvature. A method of calculating the curvature from the distance measurement results of points 35a, 35b, and 35c on the profile 41 of region B will be described below.
  • the distance from mirror section 6 to point 35a is ml
  • the distance to point 35b is m2
  • the distance to point 35c is m3.
  • the radius of curvature R which is the distance from each point to the center of curvature O
  • the curvature 1ZR are the distance a between the points 35a and 35b, the distance b between the points 35b and 35c, the points 35a and 35c It is expressed by (Equation 10) using the distance c between.
  • the distances a, b, c can be calculated by (Equation 11) to (Equation 13).
  • the distances ml, m2, and m3 are extracted from the profile 41 through the LPF15c, and the influence of extremely small irregularities and noise is removed. It is possible.
  • the number of points used for calculating the curvature may be calculated using the least square method using more points than the one limited to three. Also, it is possible to extract points that are separated from each other rather than adjacent points!
  • FIG. 10 is a diagram showing an example of the flatness calculation result.
  • region B the curvature corresponding to the outer shape of obstacle 22 is shown, and the curvatures in regions A and C are almost zero.
  • Th for example, 0.02 Zcm
  • FIG. 11 is a diagram showing recording data in the laser stop position storage unit 11a.
  • the system controller 11 Each time the system controller 11 scans the infrared laser beam 4a and calculates the curvature, it writes a flag at a corresponding position in the laser stop position storage unit 11a.
  • the contents of the flag are schematically displayed in correspondence with the positions on the screen 20 (however, the number of display positions is a simple display reduced from the actual display).
  • the portion where the display flag OFF point 37 is written is a portion where the image display whose curvature is larger than the threshold value Th is turned off, and is shown in black.
  • a flag for turning on image display is written in the other white portions (image displayable area).
  • the infrared laser beam 4a is scanned prior to the image display laser beam 4, and the curvature can be calculated and evaluated before the image display laser beam 4 performs display.
  • the system controller 11 scans the image display laser beam 4 power S screen 20
  • the system controller 11 refers to the contents of the laser stop position storage unit 11a and turns on the light source 1 only when the flag indicates ON. Display.
  • the image display laser beam 4 is turned off at a position other than the screen 20, so that a highly safe image projection system can be provided.
  • FIG. 12 is a flowchart showing flatness determination processing.
  • scanning with the infrared laser beam 4a is performed to calculate the profile 41, and the profile 41 is stored in the profile storage unit 15b (S112). If a distance smaller than the predetermined distance L min is detected in the process of calculating the profile 41 (S113), it is determined that there is an object in the vicinity of the image projection device, and all of the laser stop position storage unit 11a is determined.
  • the position display flag is set to OFF and the display is turned off to stop the irradiation of the image display laser beam 4 (S114) to ensure safety.
  • the curvature is calculated from the profile 41 (S115). If the curvature is larger than the threshold Th (S116), the flag of the corresponding position in the laser stop position storage unit 11a is set to display OFF setting (S1 17). If it is smaller than the threshold value Th, it is determined as a flat surface, and the flag of the corresponding position in the laser stop position storage unit 11a is set to display ON (S118). If there is no instruction to turn off the power (S119), the operation returns to the operation of step S112.
  • the flatness can be calculated from the curvature of the profile 41, and the image display laser beam can be selectively projected only on the flat surface portion.
  • a highly safe image projection apparatus that can prevent projection onto an obstacle, particularly a human head, and prevent laser projection onto an eyeball.
  • the detection of the flat surface is automatically performed in real time based only on the distance measurement result, there is no need to bother the user, and the image projection device is highly convenient and has a simple configuration. Can be provided at low cost.
  • the curvature is calculated after passing the profile 41 through the LPF 15c, the influence of extremely small unevenness and noise can be removed and the curvature within a predetermined range can be accurately extracted.
  • FIG. 13 is a diagram showing an image projection device 300 according to Embodiment 3 of the present invention.
  • FIG. 14 is a perspective view for explaining a sub-region (plane determination region)
  • FIG. 15A is a perspective view for explaining an example of sub-region plane judgment calculation
  • FIG. 15B is another example of sub-region plane judgment calculation.
  • FIG. 14 is a perspective view for explaining a sub-region (plane determination region)
  • FIG. 15A is a perspective view for explaining an example of sub-region plane judgment calculation
  • FIG. 15B is another example of sub-region plane judgment calculation.
  • the image projecting device 300 automatically calculates the distance and inclination between the image projecting device 300 and the image projection area before displaying the image, and calculates the substantially planar region and its plane position. Extract it. When an image is displayed, an obstacle is detected by determining whether the measured distance is equal to the distance between the extracted planes.
  • the system controller 11 divides the surface corresponding to the projection object obtained based on the distance into a plurality of sub-regions 45 (FIG. 14), and determines whether the sub-regions 45 are substantially flat or not. To do. In the extraction of an area that is a substantially flat surface in the image projection area, the entire image projection area is divided into sub-areas 45 that are small areas, and a force determination is made for each sub-area 45 that has a substantially flat surface. To do.
  • the distance storage unit 15d included in the calculation unit 15 is measured for each projection position. It is a memory that records the measured distance.
  • the noise component is removed from the profile 41 recorded in the profile storage unit 15b through the LPF 15c, and the distance at each projection position is extracted from the profile 41 and recorded.
  • sub region 45 is a small region set by dividing the entire image projection region.
  • the system controller 11 determines whether the sub-region 45 is a substantially plane, and if it is determined to be a plane, an equation representing that plane. Is recorded in 1 lb of the plane information storage unit. Since plane determination is performed using all distance measurement data in the sub-region 45, more accurate determination is possible. Since the system controller 11 performs image display with the image display laser beam 4 only on the sub-region 45 determined to be substantially flat, the system controller 11 applies to the obstacle 22 having a predetermined curvature such as a human head. Image projection can be accurately prevented, and a highly safe image projection apparatus can be provided.
  • infrared laser beam 4a is scanned in the X + direction on screen 20 to obtain profile 41, and the scanning position in the Y direction is sequentially changed in the Y ⁇ direction. At this time, the projection of the image display laser beam 4 is turned off.
  • the entire image projection area is divided into a number of sub-areas 45. However, the boundary line is described for convenience and is a virtual line.
  • Each profile 41 has its noise removed via LPF15c after acquisition is completed, and each position in sub-region 45 (horizontal projection acquired by angle sensor 13a). Angle and vertical projection angle) and is stored in the distance storage unit 15d.
  • the system controller 11 determines whether or not each sub-region 45 is a plane.
  • plane determination point 50 in sub-region 45 is a point at which horizontal and vertical projection angles and measurement distances are recorded in distance storage unit 15d. Multiple areas are distributed throughout the area 45.
  • the system controller 11 calculates the X, Y, and ⁇ coordinates of each plane determination point 50 based on the horizontal and vertical projection angles and measurement distances of each plane determination point 50! /.
  • the system controller 11 uses a least-squares method to calculate a virtual plane (hereinafter referred to as a least-squares plane) with the smallest mean square from the X, ⁇ , and ⁇ coordinates of all plane determination points 50 in the sub-region 45. Calculated).
  • the least square plane is calculated using the following formula.
  • the least squares plane is expressed as (Equation 14)
  • Equation 1 5 Equation 1 5
  • ⁇ XX represents the sum of the squares of the X coordinate of all plane judgment point 50
  • the calculated least squares plane substantially coincides with the sub-region 45.
  • the least squares plane is like the plane 51 and is calculated apart from some plane determination points 50.
  • the variance of the length of the perpendicular line 52 dropped from each plane determination point 50 is calculated.
  • the degree of dispersion dispersion value
  • the system controller 11 determines that the sub-region is a substantially flat surface when the degree of dispersion of the distance between the least squares plane (virtual plane) and the projection object is within a predetermined value. .
  • the equation representing the position and inclination of the sub-region 45 is expressed by (Equation 14). Therefore, these plane coefficients ⁇ , j8, and ⁇ are used as plane determination results in the plane information storage unit l ib. Record. In the plane information storage unit l ib, the determination result is recorded individually for each sub-region 45. When the sub-region 45 is determined to be a plane, a flag indicating that it is a plane, a coefficient H, and ⁇ ⁇ ⁇ are set. If it is recorded and it is determined that it is not a plane, only the flag indicating that it is not a plane is recorded.
  • the sub areas 45 determined to be planes are grouped for each of those located on substantially the same plane. For example, whether or not two sub-regions 45 are substantially on the same plane is determined by whether the respective coefficients a ;, ⁇ , and ⁇ recorded in the plane information storage unit ib are the same within a predetermined error range. it can. If there is only one group, that is, if all the sub-areas 45 determined to be planes are on the same plane, it is determined that all of these sub-areas 45 are screens 20, and the result is the screen area. Record in storage unit 11c.
  • What is recorded in the screen area storage unit 11c is a flag indicating whether or not the force is that the position is the screen 20 for each sub-area 45. If there are a plurality of groups, that is, there are a plurality of planes having different positions or inclinations in the projection area, it is necessary to determine the force of which plane is the screen 20. For example, this may occur when the obstacle 22 that has entered the projection area has a flat surface.
  • the determination when there are multiple groups is made by comparing the areas of each plane and detecting the plane with the largest area. For example, when the areas of the sub-regions 45 are all set to be the same, it can be easily detected by selecting the group having the largest number of sub-regions 45 belonging to each group.
  • the system controller 11 classifies the sub-regions determined to be substantially flat into a plurality of groups by classifying the sub-regions located on the same plane out of the sub-regions determined to be substantially flat into one group. I will. Then, an image is displayed in a sub-region belonging to the group having the largest area. By determining the plane with the largest area as the screen, the image is projected onto the plane area with the largest area in the projection area, so that the missing part of the image can be minimized and the quality of the image can be reduced.
  • a high image projection apparatus can be provided. Further, since the screen 20 is specified and the image is projected only on the screen 20, it is possible to provide a highly safe image projecting apparatus that can surely prevent projection onto a human head or the like.
  • FIG. 16A is a diagram showing an example of information recorded by the recording in the screen area storage unit 11c.
  • FIG. 16B is a diagram showing a distance measurement operation at the time of image projection.
  • screen area 55 is a set of sub areas 45 shown in white.
  • the sub areas 45 in the screen area 55 are all determined to be flat and are located on the same plane.
  • the non-screen area 56 is a set of sub-areas 45 indicated by hatching.
  • the sub-region 45 in the non-screen region 56 is determined to be a force plane that is determined to be non-planar, but may belong to a group of planes with a small area.
  • the contents of the screen area storage unit 11c are referred to when an image is displayed, and are used to stop the display in the non-screen area 52.
  • adjacent sub-regions 45 are not on the same plane, but are continuously connected within a predetermined error range, and the directions of the normal vectors of the respective planes match within the predetermined range.
  • the sub-regions 45 may be grouped. Thereby, for example, even when the entire screen 20 is bent slightly, the position of the screen 20 can be specified.
  • the system controller 11 refers to the screen area storage unit 11c to determine whether the sub area 45 to be scanned by the laser beam 2 is in the screen area 55 or in the non-screen area 56, and the screen area The laser beam 2 is projected only within 55. As a result, an image can always be projected only on the screen 20.
  • the system controller 11 simultaneously performs distance measurement using the infrared laser light 4a, and refers to the screen area storage unit 11c, so that the sub area 4 scanned by the infrared laser light 4a is scanned. It is determined whether 5 is in the screen area 55 or the non-screen area 56.
  • the infrared laser beam 4a is reflected by the screen 20 based on the plane information recorded in the plane information storage section l ib. Judging the strength of the power. At this time, if it is determined that the light is not reflected by the screen 20, it is determined that an obstacle has newly entered. As described above, when the difference between the newly measured distance and the position information is equal to or larger than the predetermined value, the system controller 11 re-determines the sub-region where the difference is equal to or larger than the predetermined value as the non-planar region. At this time, the light source interrupts the display of the image in the sub-region where the difference is a predetermined value or more.
  • the system controller 11 immediately re-determines the corresponding sub-area 61 as a non-planar area, and rewrites the storage contents of the plane information storage section l ib and the screen area storage section 11 c.
  • the image display laser beam 4 that scans the same area following the infrared laser beam 4a is not projected onto the area, and image projection onto the newly entered obstacle 60 can be immediately prevented.
  • the expected value of the distance calculated based on the flat information detected by force detection is compared with the actually measured distance, so the judgment process is performed, so the flatness is calculated. Therefore, it is possible to provide a highly safe image projection apparatus that can eliminate the time for performing a new process and can perform high-speed determination.
  • the sub-region 45 scanned by the infrared laser beam 4a is within the non-screen region 56, the sub-region 45 is re-evaluated to determine whether it is a substantially flat surface after measuring the distance, and further to the screen. Is in the same plane as the area 55. The position of the sub-region 45 newly evaluated if it is on the same plane as the screen region 55 is recorded in the screen region storage unit 1lc, and image display by the image display laser beam 4 is performed.
  • FIG. 17 is a flowchart showing the operation of the image projection apparatus 300.
  • the projection of the image display laser beam 4 is stopped (S30).
  • the mirror drive unit 13 drives the mirror unit 6 to start scanning.
  • Start projection of the infrared laser beam 4a (S31), and the image projection area shown below Continuously scan within the area.
  • the profile 41 is calculated based on the reflected light of the infrared laser beam 4a.
  • the distance is extracted for each plane determination point 50 and recorded in the distance storage unit 15d (S32).
  • the force determination that the plane determination process has been completed at all positions within the image projection area is determined (S36). If it is not completed, the process returns to step S32. If it is completed, the screen area is checked. A determination is made, and the determination result is recorded in the screen area storage unit 11c (S37). This time force image display is started, and the light source 1 is controlled so that the laser beam 2 is projected only on the screen position (S38). The light source 1 is controlled by referring to the stored contents of the screen area storage unit 1lc, and is performed independently and in parallel with rewriting of the screen area storage unit 11c by scanning with the infrared laser light 4a described below.
  • the image display is started immediately after the determination of the screen area is completed. However, when the entire image projection area is scanned and the screen area is determined several times, the screen area does not change.
  • the process may proceed to an image display step.
  • the position information of the projection object in the sub-region determined to be substantially flat is updated every time the distance is newly measured, but only when the position indicated by the position information does not change for a predetermined time, the light source Display of the image in the sub-region determined to be flat is started.
  • the projection of the image display laser beam 4 is stopped when the projection direction is changing.
  • the projection direction does not change for a predetermined time, that is, the image projection apparatus moves, and it can be confirmed that the projection of the laser beam 4 for image display can be started with power, the safety can be further improved.
  • the scanning time of the entire image projection area is set to 1Z60 seconds, for example, and is extremely short, so the time that image display stops even if several scans are performed has a short effect on image quality. Can be reduced. [0187] Next, processing during image display will be described. The distance is measured by the infrared laser beam 4a (S39), and it is determined whether or not the position force screen area is at the distance measurement point (S40). If it is not the screen area, the process proceeds to S43, which is a process corresponding to the non-screen area.
  • a force determination is made that the measured distance matches the distance of the screen 20 (S41). This determination is based on the expected value of the distance to the screen that can be calculated from the plane equation of the sub region 45 extracted from the plane information storage unit l ib and the projection direction of the infrared laser beam 4a, and the actually measured distance. Can be determined by comparing. If it is determined that the light is reflected from the screen 20, the process proceeds to S46. However, if it is determined that the light is reflected from the screen 20 and is a bad light, the obstacle 22 is the image projection area. The contents stored in the screen area storage unit 11c are modified so that the sub area 45 is excluded from the screen area 55 (S42). Thereby, the projection of the laser beam 4 for image display onto this area can be stopped. Furthermore, processing corresponding to the non-screen area is performed.
  • the image projection area is divided into sub-areas 45 and plane determination is performed using all the distance data in the sub-area 45. Therefore, more accurate plane determination can be performed.
  • a possible image projection apparatus can be provided.
  • the screen area is detected and the plane information is calculated in advance, and the expected distance Since the approach of the obstacle is detected by comparing the measured value and the measured value, it is possible to make a high-speed determination without having to recalculate the flatness at the time of detection, and to provide a highly safe image projection apparatus.
  • FIG. 18 is a diagram showing an image projection apparatus 400 according to Embodiment 4 of the present invention.
  • FIG. 19 is a flowchart showing the operation of the image projection apparatus 400 before displaying an image.
  • FIG. 20 is a flowchart showing the operation of the image projection apparatus 400 during image display.
  • image projection apparatus 400 includes temperature measurement unit 60.
  • the temperature measurement unit 60 is a temperature sensor that detects, for example, the screen 5 or infrared rays radiated according to the human power temperature or body temperature that has entered between the screen 5 and the image projection device, and measures the temperature.
  • a part of the infrared ray radiated by the screen 5 isotropic force is reflected by the mirror unit 6 along the infrared path 61 and enters the temperature measurement unit 60.
  • the temperature distribution of the scanned area can be acquired.
  • a temperature range close to the human body temperature for example, between 30 and 40 degrees
  • the temperature measuring unit 60 measures the temperature of the surface of the projection object, the irradiation of the infrared laser beam 4a for distance measurement is stopped. By measuring the temperature while the output of the infrared laser beam 4a is stopped, leakage of the infrared laser beam 4a to the temperature measurement unit 60 is prevented, and the temperature measurement accuracy is improved by eliminating the influence on the temperature measurement. ing.
  • the flatness determination and the temperature measurement are performed by switching each time the mirror unit 6 scans the entire projection area once, for example, and after scanning twice, the screen area is determined by combining the flatness determination result and the temperature measurement result. Size Determine.
  • steps S30 to S36 are similar to the processing described with reference to FIG. 17, and the flatness in the sub-region is calculated by projecting the infrared laser beam 4a.
  • step S36 after the scanning of the entire screen is completed, the infrared laser beam 4a is turned off (S50).
  • Mira part 6 starts scanning from the initial position for drawing the screen again, and at the same time, temperature measurement unit 60 measures the temperature, and stores the scanning position and the temperature at that position in a memory (not shown) (S51). ).
  • the temperature measurement in each sub-region is finished (S52)
  • the average temperature is calculated (S53) and stored in a memory (not shown).
  • step S37 the processing power of step S37 is also continued, and image display is started (S38).
  • the image projection apparatus performs the projection of the image only on the screen region 55 while switching the calculation of the flatness and the measurement of the temperature for each image frame in parallel.
  • the processing in steps S39 to S46 is the same as the processing described with reference to FIG.
  • step S46 after scanning of the entire screen is completed, the infrared laser beam 4a is turned off (S50). Mira part 6 starts scanning from the initial position where the screen is drawn again, and at the same time, the temperature measuring unit 60 measures the temperature.
  • the processing of steps S57 to S60 is the same as the processing of steps S52 to S54 and S37 described with reference to FIG. It is determined whether there is an instruction to end the image display (S61). If there is no instruction, the process returns to S39, and if there is, the operation is ended.
  • the image projection apparatus 400 includes the temperature measurement unit 60, and projects an image onto an area that is close to a human body temperature and in which a temperature range (for example, between 30 and 40 degrees) is detected. It is possible to improve safety by interrupting.
  • a temperature range for example, between 30 and 40 degrees
  • the temperature is not measured when the infrared laser beam 4a is irradiated, which is not limited to this.
  • it may be configured to perform temperature measurement once after the flatness evaluation is scanned multiple times.
  • the present invention is particularly useful in the field of an image projection apparatus that projects an image by projecting a laser beam, and realizes downsizing and low cost of the apparatus, and an image that can be displayed safely and with sufficient brightness.
  • a projection device can be provided.

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 本発明の画像投射装置は、レーザ光を出力する光源と、光源が出力したレーザ光を反射して投射するミラー部とを備え、投射したレーザ光の少なくとも一部により画像を表示する。画像投射装置は、レーザ光の投射方向から戻ってきたレーザ光の少なくとも一部を検出する検出部と、検出した光に基づいて画像表示可能領域を決定する演算部とを備える。ミラー部は、レーザ光の投射方向から戻ってきたレーザ光の少なくとも一部を検出部へ導くために反射する。

Description

明 細 書
画像投射装置
技術分野
[0001] 本発明は、レーザ光を投射して画像を表示する画像投射装置に関し、特に、画像 投射装置の安全性向上技術に関する。
背景技術
[0002] スクリーンに画像を投射するプロジェクタとスクリーンとの間の投射光路内に人間が 進入して、投射側に顔を向けた場合、投射光が眼に刺激を与える危険性がある。こ のため、投射光路内の物体の有無を検出する検出部と、放射パワーを制御する制御 部とを画像投射装置に設け、投射光路内に物体を検出した場合には、放射パワーを 減少させることで危険性を防止する方式が提案されている。
[0003] 例えば、特許文献 1は、電磁放射線センサ、熱放射線センサ、焦電センサ、温度セ ンサ等により投射領域を監視して、投射領域に物体が存在する場合、人間に対して 無害化した動作モードに切り替える画像投射装置を開示している。
[0004] また、特許文献 2は、投射された画像をカメラで監視して、人間が居る領域を抽出し てその領域の画像をマスクする画像投射装置を開示されている。この装置では、投 射領域のうちの人間が居ると判断された領域に対してのみ放射パワーを制限すれば よ!、ので、他の領域では画像を表示し続けることができる。
[0005] また、レーザ光を投射して画像を表示する画像投射装置(レーザプロジェクタとも称 される)の開発が進められている。レーザ発光素子が出力するレーザ光は、ランプが 出力する光よりも色純度が高いため、色再現性を向上させることができる。また、光学 系を小型化できると共に消費電力も抑えることができるので、小型で省電力の画像投 射装置を実現することができる。
[0006] レーザ光は細く絞った状態で走査させることができるので、ミラー素子等を用いてレ 一ザ光を 2次元走査させて画像を表示することができる。このようなスキャン方式のレ 一ザプロジヱクタでは、レーザ光の強度を変調させて画像の表示を行うため、液晶パ ネルや DMD (Digital Micromirror Device)などの 2次元の画像表示デバイスを 用いた通常のプロジェクタに比べさらに省電力であり、また、 2次元画像デバイスを均 一に照明する照明光学系が不要なので装置の小型化も実現できる。
[0007] このように、スキャン方式のレーザプロジェクタは、小型のモパイル機器にも搭載可 能であり、大型ディスプレイの搭載が困難な携帯電話等でも大画面表示が楽しめるよ うにすることができる。
特許文献 1:特許第 2994469号公報
特許文献 2:特開 2004— 254145号公報
発明の開示
発明が解決しょうとする課題
[0008] 従来の画像投射装置は、物体や人物を検出する機構として、別途検出用のセンサ や画像監視用のカメラを備える必要があり、高価で小型化にも限界があった。
[0009] レーザプロジェクタ等のレーザ応用製品に対しては、安全基準で許容放射パワー が定められており、人の目に対して安全な範囲では十分な明るさが確保できないの で、安全を確保しつつ放射パワーを上げる技術が求められる。
[0010] 本発明は、上記課題を鑑みてなされたものであり、小型化および低コストィ匕を実現 すると共に、安全でかつ十分な明るさで表示可能な画像投射装置を提供することを 目的とする。
課題を解決するための手段
[0011] 本発明の画像投射装置は、レーザ光を出力する光源と、前記光源が出力した前記 レーザ光を反射して投射するミラー部とを備え、前記投射したレーザ光の少なくとも 一部により画像を表示する画像投射装置であって、前記画像投射装置は、前記レー ザ光の投射方向から戻ってきた前記レーザ光の少なくとも一部を検出する検出部と、 前記検出した光に基づいて画像表示可能領域を決定する演算部とを備え、前記ミラ 一部は、前記レーザ光の投射方向から戻ってきた前記レーザ光の少なくとも一部を 前記検出部へ導くために反射することを特徴とする。
[0012] ある実施形態によれば、画像信号に応じて前記レーザ光を変調させるための変調 信号を生成する変調部をさらに備え、前記光源は、前記変調信号に応じて変調した 前記レーザ光を出力し、前記演算部は、前記検出した光の強度と前記変調信号とを 比較して、前記画像表示可能領域を決定する。
[0013] ある実施形態によれば、前記変調部は、前記画像表示可能領域には前記画像信 号に応じた画像を表示させるための変調信号を生成し、前記変調部は、前記画像表 示可能領域以外の領域には、障害物を検出するための検出用レーザ光を投射する ための変調信号を生成する。
[0014] ある実施形態によれば、前記演算部が前記画像表示可能領域以外の領域の少な くとも一部で画像表示が可能と判断した場合は、前記変調部は、画像表示が可能と 判断された前記少なくとも一部の領域に前記画像信号に応じた画像を表示させるた めの変調信号を生成する。
[0015] ある実施形態によれば、前記検出用レーザ光はドットパターンで投射される。
[0016] ある実施形態によれば、前記ミラー部は、前記レーザ光を 2次元に走査させて画像 を表示し、前記演算部は、前記画像表示可能領域の決定処理を走査ライン毎に行 ない、前記変調部は、前記決定処理の結果を、後に続く走査ラインに対応した前記 レーザ光の変調に反映させる。
[0017] ある実施形態によれば、前記ミラー部は、前記レーザ光を 2次元に走査させて画像 を表示し、前記変調部は、 1つ前の画像フレームの表示時に決定された画像表示可 能領域に基づ 、て、画像フレームの最上端の走査ラインに対応した前記レーザ光を 変調する。
[0018] ある実施形態によれば、前記レーザ光の最大放射パワーは、人間の目を前記レー ザ光が走査したときに前記目に入射するエネルギーが安全基準の定める安全レべ ル内となる放射パワーである。
[0019] ある実施形態によれば、前記レーザ光の最大放射パワーは、人間の目を前記レー ザ光が走査したときに前記目に入射するエネルギーが安全基準の定める安全レべ ル内となる放射パワーであり、前記ドットパターンで投射される前記検出用レーザ光 の放射パワーは、画像表示用のレーザ光の放射パワー以上である。
[0020] ある実施形態によれば、前記画像投射装置の起動時には、画像を表示する前に前 記光源は前記検出用レーザ光を投射する。
[0021] ある実施形態によれば、前記光源は、 n原色 (nは 3以上の自然数)それぞれの色の レーザ光を出力し、前記光源は、前記検出用レーザ光として、前記それぞれの色の レーザ光を独立に出力する。
[0022] ある実施形態によれば、前記演算部は、前記光源を点灯させないブランク期間に 前記検出部で検出された光の強度にさらに基づいて前記画像表示可能領域を決定 する。
[0023] ある実施形態によれば、前記ブランク期間は水平ブランク期間である。
[0024] ある実施形態によれば、前記ブランク期間は垂直ブランク期間である。
[0025] ある実施形態によれば、前記演算部は、前記検出した光に基づいて、前記レーザ 光が投射された被投射物と前記画像投射装置との間の距離を測定し、前記演算部 は、前記距離に基づいて前記被投射物のうちの略平面の領域を検出し、前記略平 面の領域を前記画像表示可能領域に決定する。
[0026] ある実施形態によれば、前記演算部は、前記距離に基づ!ヽて得られる前記被投射 物に対応した面を複数のサブ領域に分割し、前記サブ領域毎に略平面であるカゝ否 か判定する。
[0027] ある実施形態によれば、前記演算部は、前記サブ領域内の仮想平面を算出し、前 記仮想平面と前記被投射物との間の距離の分散の度合いが所定値以内である場合 に、前記サブ領域を略平面であると判定する。
[0028] ある実施形態によれば、前記略平面と判定したサブ領域内の前記被投射物の位置 情報を保持する記憶部をさらに備え、新たに測定した距離と前記位置情報との差が 所定値以上である場合には、前記演算部は、前記差が所定値以上であるサブ領域 を非平面領域と再判定し、前記光源は、前記差が所定値以上であるサブ領域への 画像の表示を中断する。
[0029] ある実施形態によれば、前記演算部は、前記略平面と判定したサブ領域のうち同 一平面上に位置するサブ領域を 1つのグループに分類することで、前記略平面と判 定したサブ領域を複数のグループに分け、最も面積が広 、グループに属するサブ領 域に画像を表示する。
[0030] ある実施形態によれば、前記略平面と判定したサブ領域内の前記被投射物の位置 情報を保持する記憶部をさらに備え、前記位置情報は前記距離を新たに測定する 毎に更新され、前記位置情報の示す位置が所定時間変化しない場合に限り、前記 光源は、前記略平面と判定したサブ領域への画像の表示を開始する。
[0031] ある実施形態によれば、前記演算部は、前記距離に基づ!、て前記被投射物のプロ ファイルを算出し、前記プロファイル力も所定の凹凸より小さい凹凸部分を除去する。
[0032] ある実施形態によれば、前記演算部は、前記距離に基づ!、て前記被投射物の曲 率を算出し、前記光源は、前記曲率が所定の範囲内である領域への画像の表示を 行わない。
[0033] ある実施形態によれば、前記演算部は、前記距離に基づ!、て前記被投射物のプロ ファイルを算出し、前記プロファイル力 所定の凹凸より小さい凹凸部分を除去し、前 記演算部は、前記プロファイルに基づいて前記被投射物の曲率を算出する。
[0034] ある実施形態によれば、前記被投射物表面の温度を測定する温度測定部をさらに 備え、前記画像表示可能領域の温度が所定の範囲内である場合は、前記光源は、 前記温度が所定の範囲内の領域への画像の表示を中断する。
[0035] ある実施形態によれば、前記温度測定部は、前記距離を測定するために出力する レーザ光の停止期間に、前記被投射物表面の温度を測定する。
発明の効果
[0036] 本発明によれば、画像表示用のミラー部が画像表示可能領域検出のための機構を 兼ねている。これにより部品数を減らして低コストィ匕を実現すると共に、装置の小型化 を実現することができる。また、演算部は、人間が存在しないと判断した画像表示可 能領域と、人間が存在すると判断したそれ以外の領域とを区別する。人間が存在す ると判断した領域には画像を表示しな 、ことで安全性を確保することができる。また、 人間が存在しな 、と判断した画像表示可能領域には強 、光で画像を表示することが できるので、明る ヽ画像表示を実現することができる。
[0037] また、ある実施形態によれば、画像を表示するためのレーザ光を用いて画像表示 可能領域を検出する。画像表示用の構成要素に加えて、反射光強度を検出する検 出部と演算部とを装置が備えるだけで画像表示可能領域の検出が可能となり、装置 のさらなる低コストィ匕および小型化を実現することができる。本発明によれば、物体や 人物を検出する機構として、別途検出用のセンサや画像監視用のカメラを装置が備 える必要がないので、小型且つ安価で、安全に明るい画像表示が可能な画像投射 装置を実現することができる。
[0038] また、ある実施形態によれば、画像表示可能領域およびそれ以外の領域の両方で 、人間の検出動作を続ける。これにより、画像表示可能領域に人間が進入してきたと きは、直ちにその進入領域への画像の表示を中断することができる。また、画像表示 可能領域以外の領域力 人間が検出されなくなったときは、その領域への画像の表 示を再開することができる。
[0039] また、ある実施形態によれば、検出用レーザ光をドットパターンで投射する。これに より、人間の目に入射し得る光の量を少なくして安全を確保しながら、人間の検出動 作を行うことができる。
[0040] また、ある実施形態によれば、画像表示可能領域の決定処理を走査ライン毎に行 ない、その処理の結果を、後に続く走査ラインに対応したレーザ光の変調に反映させ る。これにより、走査ライン毎に処理することにより最小限の処理時間で画像の表示と 非表示とを切り替えることができる。また、その処理結果を後に続く走査ラインに反映 させることにより、人間の目に入射し得る光の量をより少なくすることができる。
[0041] また、ある実施形態によれば、演算部は、光源を点灯させないブランク期間に検出 部で検出された光の強度にさらに基づいて画像表示可能領域を決定する、レーザ光 の反射光以外の光を検出しておくことにより、使用場所の明暗や投射領域内にある 物体の状態などの様々な条件下で、的確に画像表示可能領域を決定することができ る。
図面の簡単な説明
[0042] [図 1]本発明の実施形態 1による画像投射装置を示す図である。
[図 2]本発明の実施形態 1による走査方式を示す図である。
[図 3]本発明の実施形態 1による瞳とプロジェクタとの間の距離および投射領域を示 す図である。
[図 4]本発明の実施形態 1による画像投射装置の信号処理手順を示す図である。
[図 5]本発明の実施形態 1による画像投射装置の動作を示すフローチャートである。
[図 6]本発明の実施形態 1による画像投射装置の演算処理を示すフローチャートであ る。
[図 7]本発明の実施形態 2による画像投射装置を示す図である。
[図 8]本発明の実施形態 2による赤外線レーザ光による距離測定処理の一例を示す 図である。
[図 9]本発明の実施形態 2による平面度検出処理を示す図である。
[図 10]本発明の実施形態 2による平面度の算出結果の一例を示す図である。
[図 11]本発明の実施形態 2によるレーザ停止位置記憶部の記録内容を示す図であ る。
[図 12]本発明の実施形態 2による画像投射装置の動作を示すフローチャートである。
[図 13]本発明の実施形態 3による画像投射装置を示す図である。
[図 14]本発明の実施形態 3によるサブ領域を説明する図である。
[図 15A]本発明の実施形態 3による平面判定計算を説明する図である。
[図 15B]本発明の実施形態 3による平面判定計算を説明する図である。
[図 16A]本発明の実施形態 3によるスクリーン領域記憶部の記録内容を示す図である
[図 16B]本発明の実施形態 3による画像投射時の距離測定動作を示す図である。
[図 17]本発明の実施形態 3による画像投射装置の動作を示すフローチャートである。
[図 18]本発明の実施形態 4による画像投射装置を示す図である。
[図 19]本発明の実施形態 4による画像投射装置の動作を示すフローチャートである。
[図 20]本発明の実施形態 4による画像投射装置の動作を示すフローチャートである。 符号の説明
1 光源
2 コリメートレンズ
3 ダイクロイツクプリズム
4 投射レーザ光
5 ノヽーフミラー
6 ミラー部 8 集光レンズ
9 光検出器
10 画像信号
11 制御部
12 レーザ変調部
13 ミラー駆動部
14 検出アンプ
15 演算部
16 角度変位信号
20 スクリーン
21 レーザビームスポット軌跡
22 障害物
23 ランダムドット
24 周辺光
発明を実施するための最良の形態
[0044] 以下、図面を参照しながら本発明の実施形態を説明する。同様の構成要素には同 様の参照符号を付し、同様の説明の繰り返しは省略する。
[0045] (実施形態 1)
図 1〜図 6を参照して、本発明による画像投射装置の第 1の実施形態を説明する。 まず、図 1を参照する。図 1は、本実施形態の画像投射装置 100を示す図である。映 像投射装置 100は、投射したレーザ光の少なくとも一部によりスクリーン等に画像を 表示する。映像投射装置 100では、画像表示用のレーザ光およびミラー部を、画像 表示可能領域の検出動作にも用いる。これにより部品数を減らして低コストィ匕を実現 すると共に、映像投射装置 100の小型化を実現することができる。
[0046] 画像投射装置 100は、レーザ光 10a〜: LOcを出力する光源 1と、コリメートレンズ 2と 、ダイクロイツクプリズム 3と、ハーフミラー 5と、レーザ光 10a〜: LOcを反射して投射す るミラー部 6とを備える。光源 1は、 n原色 (nは 3以上の自然数)それぞれの色のレー ザ光を出力する。この例では、光源 1は、赤色レーザ光 10aを出力する発光素子 laと 、緑色レーザ光 10bを出力する発光素子 lbと、青色レーザ光 10cを出力する発光素 子 lcとを備える。なお、光源 1は 4原色以上の多原色のレーザ光を出力してもよい。
[0047] 画像投射装置 100は、レーザ光 10a〜10cを変調するレーザ変調部 12と、ミラー部 6を駆動するミラー駆動部 13と、レーザ光の投射方向から戻ってきたレーザ光の少な くとも一部の強度を検出する光検出部 9と、検出した強度に基づいて画像表示可能 領域を決定する演算部 15と、これらの構成要素を制御する制御部とをさらに備える。
[0048] 次に、画像投射装置 100の動作をより詳細に説明する。
[0049] 光源 1から出力されたレーザ光 10a〜10c (RGBの 3原色)は、それぞれのコリメート レンズ 2によって絞り込まれ、ダイクロイツクプリズム 3で合成されて 1本の投射レーザ 光 4となる。レーザ光 4は、ハーフミラー 5を経て、ミラー部 (スキャンミラー) 6に入射す る。ミラー部 6は、レーザ光 4を 2次元に走査させて画像を表示するレーザ光走査手 段である。ミラー部 6は、例えば 2軸の回動ミラー素子である力 1軸のミラー素子を 2 個使用してもよいし、回転ポリゴンミラー素子を用いてもよい。ミラー部 6で反射したレ 一ザ光 4は、開口部 7を通ってスクリーン 20に投射される。
[0050] 投射されたレーザ光 4はスクリーン 20等で反射され、その反射光は再びミラー部 6 に入射する。ミラー部 6は、レーザ光 4の投射方向から戻ってきたレーザ光 4の少なく とも一部を光検出部 9へ導くために反射する。反射されたレーザ光 4は、ハーフミラー 5で分岐されて集光レンズ 8を通って光検出部 9で検出される。
[0051] 光検出用の光学系は、投射されるレーザ光 4のスポット領域の反射光強度を計測 するように設定される。
[0052] 光検出部 9は、例えばフォトダイオードであり、特に、アモルファスシリコンフォトダイ オードを用いるのが好適である。アモルファスシリコンフォトダイオードは、単結晶シリ コンダイオードと比べて、波長感度特性が人の視感度に近ぐフィルター無しで使え る可視光センサであり、 PIN構造のため応答性に優れ、基板材料が安価で製造コス トも安いという特徴を持つ。
[0053] 表示される画像の画像信号 10は外部力も制御部 11に入力される。レーザ変調部 1 2は、画像信号に応じてレーザ光を変調させるための変調信号を生成する。光源 1は 、その変調信号に応じて変調したレーザ光を出力する。レーザ変調部 12がレーザ光 を変調するのに同期して、ミラー駆動部 13はミラー部 6を駆動する。
[0054] ミラー部 6から出力された角度変位信号 16は制御部 11に戻され、これによりミラー 部 6はフィードバック制御されている。
[0055] ミラー部 6によって走査されたレーザ光 4は、スクリーン 20上にレーザビームスポット 軌跡 21を描く。レーザ光の走査方式の例を図 2を参照して説明する。
[0056] 図 2は、走査方式のレーザビームスポット軌跡 21と、水平方向(H)および垂直方向
(V)の駆動信号波形を示す。
[0057] 図 2 (a)はリニアラスタ走査方式を示しており、水平方向および垂直方向ともにリニ ァな駆動信号波形を示す。ポリゴンミラー素子を使用する場合はこの走査方式を採 用する。水平方向では駆動周波数が高いので、回動ミラーを光速でリニアに駆動す るのは通常困難である。画面の右端から左端、また下力も上へ戻る期間は、レーザ 光を点灯せずにミラーだけが戻るブランク期間である。水平ブランク期間 32および垂 直ブランク期間 33を点線で示して 、る。
[0058] 図 2 (b)は共振ラスタ走査方式を示しており、回動ミラーの共振動作でレーザ光は 水平方向に走査される。共振駆動では、回動ミラーをリニアに駆動する場合に比べて 比較的小さな力で大きな振幅が得られる。垂直方向は周波数が低いのでガルバノミ ラーをリニアに駆動することが可能である。
[0059] また、共振駆動ではミラーの動作がサイン波状になり、水平方向を片道走査してい るので、水平ブランク期間が長くなり、レーザ光の点灯時間が半分になる。
[0060] 図 2 (c)は、水平方向では往復走査をする共振ラスタ走査方式を示して!/、る。
[0061] 往復走査をすれば、駆動周波数が半分でょ 、ので駆動しやす 、。また図 2 (b)に示 す方式と比べて、レーザ光の点灯時間が倍になるので効率が良い。ただし、走査線 が厳密には平行でな!、ので垂直駆動信号波形をステップ状に補正して走査線を平 行化する必要がある。
[0062] 図 1を参照して、光検出部 9は受光したレーザ光に応じた反射光強度信号を生成 する。反射光強度信号は、検出アンプ 14で増幅されて演算部 15に送られる。演算 部 15は、反射光強度信号が示す強度と、レーザ変調部 12が生成した変調信号とを 比較して、画像表示可能領域を決定する。なお、演算部 15は、反射光強度信号が 示す強度と、画像信号とを比較して、画像表示可能領域を決定してもよい。レーザ変 調部 12は、画像表示可能領域には画像信号に応じた画像を表示させるための変調 信号を生成する。また、レーザ変調部 12は、画像表示可能領域以外の領域には、障 害物を検出するための検出用レーザ光を投射するための変調信号を生成する。画 像表示可能領域の決定処理および検出用レーザ光の詳細は後述する。
[0063] 画像投射装置 100では、スキャン方式のレーザプロジェクタの構成に加えて、ハー フミラー 5と集光レンズ 8と光検出部 9を備えるだけで障害物検出動作を実現しており 、検出用の放射源を別途設けていない。また、光検出部 9は、 CCD等のような 2次元 センサアレイではなぐ単一のセンサであるが、 2次元走査するスキャンミラーによって 投射領域を 2次元的に検出することができる。このような構成により、極めて小型で安 価な画像投射装置となって ヽる。
[0064] 次に、レーザ光の安全基準に沿った画像投射装置 100の動作を説明する。レーザ 光の最大放射パワーは、人間の目をレーザ光が走査したときに目に入射するェネル ギ一が安全基準の定める安全レベル内となる放射パワーに設定する。
[0065] まず、レーザ光の安全基準によって定められた放射パワーについて説明し、次に、 より強いレーザ光を発する場合の考え方、およびその考え方によって放射可能となる 放射パワーとプロジェクターの明るさについて説明する。
[0066] レーザ光の安全基準として「IEC60825— 1基準」、日本では「JIS C6802 レー ザ製品の放射安全基準」(以下 JISと略称する)があり、レーザ製品のクラス分けと測 定方法が定められている。
[0067] その中で、基本的に安全とされるクラス 1の被ばく放射限界(以下 AELと称する)は 、 3の表1 (不図示)に波長と露光時間別に定められており、可視光を発する製品に っ 、ては、 JISの表 2 (不図示)にクラス 2の AELとして定められて!/、る。
[0068] これによると、可視光のレーザ光に対しては瞬きなどの嫌悪動作によって目が保護 されることを考慮し、その反応時間を 0. 25秒として、放出持続時間が 0. 25秒以上 のときは lmW、 0. 25秒以下のときはクラス 1の AELと同じ、となっている。即ち、レー ザポインタのような連続波のレーザ光では放射出力は lmWに制限される。
[0069] これに対し、走査型のレーザ製品に対しては、 JISの 8. 4クラス分けの規則の(f)繰 返しパルスレーザおよび変調レーザの項に AELの決定の仕方が定められている。
[0070] これによると、次の 3つの条件で最も厳 、ものを用いて決定する。
1)パルス列内のどの単一パルスからの露光も、単一パルスに対する AEL (AELsin gle)を超えてはならない。
2)放出持続時間 Tのパルス列の平均パワーは、放出持続時間 Tの単一パルスに 対して、それぞれ表 1〜4 (不図示)に規定した AELに対応するパワーを超えてはな らない。
3)パルス列内のパルスの平均パルスエネルギーは、単一パルスの AELに補正係 数 C5を乗じた値 (AELtrain)を超えてはならな!、。
[0071] AELtrain =AELsingle X C5
C5=N" -0. 25…(式 1)
ここで Nは 0. 25秒の間に瞳を走査する回数である。
[0072] スキャン方式のプロジェクタのように 2次元に走査する場合、瞳をレーザ光が走査す ることによって Nが大きくなり、 3)の条件が通常最も厳しくなる。測定方法 ίお ISの 9. 3 測定光学系の項に定められている。
[0073] 以下、図 3を参照して、放射パワーの計算方法を説明する。図 3は、瞳とプロジ ク タとの間の距離および投射領域を示す側面図である。
[0074] 走査型レーザ光の放射パワーの測定条件は、測定開口 25の直径が φ 7mm,測定 距離 rが 100mmと定められている。測定開口 25の φ 7mmは、人の瞳径の最大値を 想定したものである。定められた測定条件で計算される放射パワーは、走査条件によ つて様々に変化する。以下、次の走査条件での計算例を示す。各パラメータで、添え 字の h、 Vはそれぞれ水平、垂直を表している。
[0075] 走査条件:
表示解像度 XGA (Nh= 1024、 Nv= 768 ピクセル)
フレームレート fv=60Hz
画角 0 h=6O° 、 θ v=45°
オーバースキャン率(画角 Z走査全角) Kosh=Kosv=0. 7
水平方向は往復走査 Kub = 2 (図 2 (c)の走査方式に相当) [0076] 水平走査周波数 fhは、次のように表される。
f h = f V X N v/Ko s v/Kub = 32.9kHz · · · (式 2)
[0077] 図 3に示すように距離 r= 100mmの位置にある D= φ 7mmの瞳をレーザ光が横切 る時間 tは、次のように表される。
t =測定開口の視角 Z水平走査角速度
= (D/r) /(2XfhX Θ h/Kosh) · · · (式 3)
=7. IE— 7(sec)
[0078] 0.25秒の間に瞳を走査する回数 Nは、次のように表される。
N = (D/r) / ( Θ v/Nv) * fv * 0.25
= 1020(0)
[0079] t=7. lE— 7(sec)に対するAELsingle(単ーパルスのAEL)は、JISの表lょり、 AELsingle = 2. OE— 7 (J)となる。パルス列内の平均パルスエネルギー AELtrain ( 繰り返しパルスの AEL)は、(式 1)から、
AELtrain = AELsingle XN" -0.25··· (式 4)
=2.0E-7X1020"-0.25
=3.54E— 8(J)
となる(図 3に示す 3個の測定開口 25のうちの左下に示す測定開口 25の状態のとき)
[0080] 放射パワー Ptrainは、
Ptrain = AELtrain/t - · · (式 5)
=3.54E-8/7.1E— 7水 1000
=49.9(mW)
となる。
[0081] これより、プロジェクタのピーク放射パワーを 50mW以下に抑えれば、 100mmまで 近づ 、て瞳に入射する放射エネルギー量が安全なレベルであり、 100mm以上の距 離ではレーザ光が分散することからより安全であり、 100mm以下の距離では瞳を走 查するレーザ光が網膜上の 1点に合焦されず安全である。即ち、あらゆる条件におい て安全なレベルであると言える。 [0082] ここで、前述の条件 1)の、単一パルスに対する AEL力 放射パワーを求めると、
Figure imgf000016_0001
· · (式 6)
= 2. OE- 7/7. IE— 7
= 281. 7 (mW)
となり、約 5. 6倍のパワーとなる。
[0083] これは、レーザ光が瞳を横切る回数を 1回に制限した場合に相当する(図 3に示す
0卜0
3個の測定開口 25のうちの左上に示す測定開口 25の状態)。
[0084] 従って、後述する適切な処理を行うことによって、放射パワーは最大 280mW程度 まで上げられる。
[0085] 同様に、回数 Nに対して P (mW)は、
[表 1]
N N - 0. 25 P (mW)
1 1. 00 281. 7
2 0. 84 236. 9
3 0. 76 214. 0
4 0. 71 199. 2
5 0. 67 188. 4
6 0. 64 180. 0
7 0. 61 173. 2
8 0. 59
9 0. 58 162. 6
10 0. 56
11 0. 55
12 0. 54 15 1. 3 となり、プロジェクタとして必要なピークパワーに対応して、走査回数を選択すればよ い。例えば、ピークパワー P= 150mWとする場合は、走査回数を 12回に制限すれ ば良い。
[0086] ピーク放射パワーが 50mWのとき、プロジェクタの明るさは 10ルーメン程度である。
一般的なオフィスの明るさである 400ルクスの部屋で視認可能である明るさ、例えば 5 00ルクスを確保できる投射サイズは 8インチ程度である。投射サイズを 19インチとす ると、画面の明るさは 89ルクス程度となり、明るい部屋では視認できない。
[0087] それに対し、ピーク放射パワーが最大の 280mWでは、プロジェクタの明るさは 56 ルーメンとなり、 19インチで約 500ルーメンとなる。つまり、上述のように、レーザ光が 瞳を横切る回数に制限を加えるよう制御すれば、安全を確保しつつ、より大きなサイ ズに投射しても十分明る ヽ画面が得られる。
[0088] 測定距離を 100mm力も遠ざけると、 tも Nも小さくなるので、計算される放射パワー
Ptrainは大きくなる。 t= l . 78E— 7 (s)、 N= 255 (回)のとき、測定距離約 400m mでは、 Ptrainが 281. 7mW (約 280mW)となる(図 3に示す 3個の測定開口 25のう ちの右下に示す測定開口 25の状態)。
[0089] つまり、放射パワーを 280mWに上げた状態でも、 400mm以上離れると瞳への入 射エネルギーは安全なレベルとなるため、少なくとも 100mmから 400mmの範囲で 上述の処理を行って 、れば問題無 、ことになる。
[0090] 次に、光検出部 9の動作をより詳細に説明する。
[0091] 図 1に示すように、表面が均一なスクリーン 20上に画像が投射されている状態では 、光検出部 9では表示画像に応じた反射光強度が検出される。しかし、レーザ光の投 射領域内に人等の障害物 22が存在すると、その領域の反射光が乱されるので、反 射光強度と画像信号との相関が失われて所定レベルの信号が得られなくなる。この ような領域を画像表示可能領域から除外して画像の表示を中断することにより、投射 領域に人が居たとしても、目に対する障害を防止する。
[0092] 画像表示を中断した領域においても反射光強度の検出を続行して、障害物の存在 がなくなつたと判断されれば画像の表示を再開する必要がある。しかし、周囲が暗い 場合は十分な反射光が得られないので、表示を中断した領域を監視することはでき ない。画像投射装置 100は、画像表示用の光源以外に検出用の光源を設けていな いが、表示を中断した領域では検出用の表示パターンとしてランダムドットパターンを 表示することによってその反射光を検出できる。ランダムドットパターンは、水玉模様 に似たパターンである。
[0093] このような領域ではスクリーンを遮る障害物が存在しているので、画像を表示せず 検出用のパターンを表示しても問題無い。また、ドットパターンで投射される検出用の レーザ光は短いパルス状の照射になるため、仮に目に入っても危険はない。
[0094] 例えば、上述の走査条件で、 1ピクセルを表示する時間 tpは、 tp=Kosh/2fh/Nh- · · (式 7)
= 1. 04E— 8 (s)
となり、瞳を横切る時間に比べても非常に短いので、最大放射パワーのレーザ光を 照射しても安全であり、必要があれば画像表示時のピークパワーを超える放射パヮ 一で照射しても問題ない。ドットを表示する密度と瞳直径から、 0. 25秒間に瞳に入る パルスの数を想定し、安全レベル内に抑えればよい。ドットパターンで投射される検 出用レーザ光の放射パワーを、画像表示用のレーザ光の放射パワー以上とすること で、パルス発光でも、より多くの光を検出することができる。
[0095] また、フレームごとにドットの表示位置を変える(即ちランダムドット)ことにより、パル ス照射の間隔を空けて表示しても、数フレーム表示する間により細かい領域の判定 ができる。
[0096] さらに、光源 1は、ランダムドットパターンを表示する検出用レーザ光として、 3原色( RGB)のレーザ光を同時に発光して白色のドットを表示してもよいし、それぞれの色 のレーザ光を独立に出力して、各色のドットを表示してもよい。どの色のレーザ光を照 射した時の反射光強度かを判別すれば、単色の光検出部 9を用いながら、投射領域 の色の違いも判別できる。
[0097] ところで、携帯型のプロジェクタでは、据え置き型とは異なり、スクリーンに限らず様 々な物体に向力つて投射することが起こり得る。また、周囲が明るい状態で使用され る場合も多ぐ蛍光灯や窓などの光の発生源が投射領域内に存在する可能性もあり 、任意の周辺光に照らされた物体に照射した状態で検出された反射光強度から、投 射領域内の物体の状態を判定する必要がある。
[0098] ある点から検出される反射光強度は、その点を照らす光強度とその点の反射率の 積で決まるので、光検出部 9で検出される反射光強度信号 Sdは、照射するレーザ光 の強度信号を Si、周辺光 24 (図 1)の光強度を Samb、照射点の反射率を Rとすると、 Sd=RX (Si+Samb) · · · (式 8)
で表される。従って、強度信号 Siと反射光強度信号 Sdとを比較するだけでは、周辺 光の影響によって障害物の存在が正確に判定できない可能性がある。
[0099] 例えば、白いスクリーンの前に暗い色の物体が存在するにもかかわらず、物体周辺 のみ外部力 光が当たっており、物体からの反射光がスクリーン力 の反射光と同等 になってしまうような場合が考えられる。
[0100] そこで、 R X Samb = Sb 即ち、レーザ光を照射しない状態での投射点力もの反射 光強度を背景照度分布として計測し、
3 = (3(1—31)) 73 ' '(式9)
を求めれば、強度信号 Sは、投射領域の反射率の分布に相当する信号となり、周辺 光の影響を受けることなく投射領域内の物体の状態を認識することができる。
[0101] 背景照度分布は、レーザ光走査のブランク期間に計測する。光源 1を点灯させない ブランク期間にミラー部 6を走査時と同様に駆動し、ミラー部 6に入射した光の強度を 検出部 9で検出することにより、背景照度分布を得ることができる。演算部 15は、背 景照度分布も用いて画像表示可能領域を決定する。
[0102] 基本的には、垂直ブランク期間に背景照度分布を計測する。垂直方向のオーバー スキャン率 Kosv=0. 7から、ブランク期間中の走査線数は、画像表示の走査線数 7 68に対して、 768 X 3/7 = 329ラインとなる。
[0103] 図 3に示したように、検出動作が必要な距離での人の頭部の大きさ(高さ 250mm 程度)は、投射領域の中で大きな部分を占めるので、背景照度検出にはそれほど高 い解像度は必要なぐ少なくとも人の頭部と背景が分離でき、さらに目の周辺部が識 別できれば十分である。図 3で、 φ 7mmの瞳と 400mmの距離にある画面サイズ 332 mmとの比は 332 : 7 47 : 1なので、上記ブランク期間中の走査線数でも十分に目 の周辺部は識別可能である。
[0104] ブランク期間中に計測した背景照度分布のデータは、一旦メモリに保存し、画像表 示中の処理時に、対応する位置のデータを呼び出して使用する。画像表示中の検 出動作と区別するため、ブランク期間中の検出をブランク検出と称する。
[0105] なお、水平ブランク期間に背景照度分布を計測してもよい。図 2 (b)に示す走査方 式では、水平方向に片道走査するので、走査線毎に水平ブランク期間が表示期間と 同じだけあるのでブランク検出に使用できる。この場合は、画像表示走査線と同数の ブランク検出走査線数となる。
[0106] 次に、図 4を参照して、検出部 9が検出した信号の処理手順をより詳細に説明する [0107] 図 4は、演算部 15が実行する信号処理手順を説明する図である。
[0108] 図 4を参照して、均一なスクリーンの前に障害物 33が存在しており、投射領域 31中 の背景照度分布 32に影響を与えている。図 4は、画像 34を表示するための走査ライ ン 35 (i)上の画像輝度信号 (レーザ変調信号) Si、対応する位置の背景照度信号( ブランク検出信号) Sb、その状態で光検出部 9で検出される反射強度信号 Sdをそれ ぞれ示している。
[0109] 画像輝度信号 Siには安全レベル 36が存在し、領域 A1は画像輝度信号 Siの安全 レベル以下の領域を表して 、る。
[0110] 安全レベル 36とは、前述の JISの安全基準で定められた放射パワーであり、本実施 形態では 50mWである。放射パワーがこれより低 、領域は無条件に表示可能であり
、領域 A1としてメモリに記憶しておく。
[0111] 均一なスクリーンの領域では、画像輝度信号 Siに対応した強度分布となる反射強 度信号 Sdが得られる。しかし、障害物 33の存在する領域では、画像輝度信号 Siとは 対応しない強度分布となる反射強度信号 Sdが得られる。なお、信号波形 Sdlは、障 害物 33が存在しないときの波形である。ここで、
S = (Sd-Sb) /Si
を計算し、さらに信号 Sの微分信号 S'を所定の閾値でスライスすることにより信号 Sが 一定レベルで平坦な領域 A2を抽出する。領域 A2は、信号 Siと信号 Sdとがよく対応 した領域であり、このことから、反射率が一定に近い領域であると言える。
[0112] そこで、 A=A1 +A2により得られる領域 Aを画像表示可能領域と決定する。そして 、次の走査ライン 35 (i+ 1)を表示する際、画像輝度信号 Si+ 1が示すように、領域 A では画像を表示し、それ以外の領域は検出モードとしてランダムドットパターンを表 示する。 Ldは、ランダムドットパターン表示時のピークレベルを表し、 Lwは、白色表 示用のレーザ光のピークレベルを表している。
[0113] 通常、ある走査ラインで障害物があると判断された領域は、次の走査ラインタイミン グでもやはり障害物が存在するので、この領域ではランダムドットパターンに対応する 反射光は検出されず、引き続き障害物存在領域として判定される。時間が経過して 障害物がなくなり、表示可能領域と同等の反射光が検出されれば、表示可能領域と して画像の表示を再開する。
[0114] このように、演算部 15は、画像表示可能領域の決定処理を走査ライン毎に行ない、 レーザ変調部 12は、決定処理の結果を、後に続く走査ラインに対応したレーザ光の 変調に反映させる。また、決定処理を継続して行い、画像表示可能領域以外の領域 の少なくとも一部で障害物が検出されなくなると、演算部 15は、障害物が検出されな くなつた領域への画像表示が可能と判断する。この場合、レーザ変調部 12は、新た に画像表示が可能と判断された領域に画像信号に応じた画像を表示させるための 変調信号を生成する。
[0115] 走査ライン毎に決定処理を行うので、 1フレーム毎に 2次元データを処理するよりも 最小限の処理時間で演算を行うことができる。上記の演算処理に要する遅延時間が 水平ブランク期間内であれば、走査ライン (i)に於ける判定結果を走査ライン (i+ 1) に直ちに適用できる。従って、障害物として投射領域に人が存在し、目と走査ライン が重なったとしても、最悪でも瞳を 1回走査するだけで、次の走査ラインでは画像表 示用レーザ光が瞳を走査しない。通常は頭部の輪郭の上端に瞳が存在することはな ぐ走査ラインが瞳に到達する前に人が検出されるので、画像表示用レーザ光が瞳 へ入射することはない。また、次のフレームの該当走査ラインにも処理結果を反映さ せるので、画像表示用レーザ光が瞳を再び走査することはない。瞳を 1回走査する可 能性は、真っ暗な画像から明るい画像に切り替わった瞬間に、表示を始めたレーザ 光が瞳を通過する場合を想定している。それ以外の場合は、走査ラインが瞳に到達 する前に検出モードに切り替わっているので、画像表示用レーザ光が瞳へ入射する ことはない。
[0116] この場合、白色表示用のレーザ光のピークパワーを 280mWに設定することができ る。
[0117] 仮に、演算処理に要する遅延時間が長ぐ 2回以上瞳を走査することを許容する場 合は、その回数に応じ、表 1に示したピークパワーを選択すればよい。
[0118] 次に、図 5を参照して、上述の動作をさらに説明する。図 5は画像投射装置 100の 動作を示すフローチャートである。 [0119] 画像投射装置 100の起動直後、光源を点灯する前にまずミラー部 6を駆動し (SI) 、投射領域内の背景照度分布を計測して 2次元データとしてメモリに保存する (S2)。 その後、全面検出モードとして、画像を表示する前に光源 1は検出用レーザ光をラン ダムドットパターンで投射して、反射光強度を検出しながらフレームの走査を開始す る(S3)。これにより、起動時の人の目に対する安全を確保する。
[0120] 最初のフレームのライン(1)は、検出モードで走査する(S4および S5)。 2フレーム 目以降では、 1つ前のフレームで判定した画像表示可能領域をメモリから呼び出す( S6)。レーザ変調部 12は、 1つ前の画像フレームの表示時に決定された画像表示可 能領域に基づ 、て、画像フレームの最上端の走査ラインに対応したレーザ光を変調 する。 S5および S6での設定に従ってライン (i)を走査し (S7〜S10)、反射光強度の 検出をしながら演算処理 (S11)を行な 、、画像表示可能領域を更新して保存する( S12)。次のライン以降 (ライン 2〜Nv)では、前のラインで決定された画像表示可能 領域で画像を表示し (S13〜S15)、それ以外の領域では検出モードのままとする(S 16)。同時に演算処理 (S17)を行ない、表示可能領域を更新して (S18)、次のライ ンを走査する。
[0121] 1フレーム分の走査が終わったら、垂直ブランク期間に背景照度分布を検出して、 背景照度分布のデータを更新する(S 19)。フレーム走査(S3)へ戻り、画像再生動 作が OFFになるまでこれらの動作を繰り返す(S20)。
[0122] これらの動作により、障害物のない均一なスクリーン部分に画像が順次表示されて いく。
[0123] 図 6を参照して、演算処理 (S11および S17)をより詳細に説明する。図 6は、演算 処理の詳細を示すフローチャートである。
[0124] まず、画像輝度信号 S 安全レベル以下の領域 A1を求める(S21)。
[0125] 光検出部 9は反射光強度信号 Sdを生成し (S22)、それに対応する位置の背景照 度信号 Sbをメモリから呼び出し (S23)、 S= (Sd— Sb) ZSiを計算する(S24)。さら に信号 Sの微分信号 S'を計算して (S25)、微分信号 S'を所定の閾値でスライスして 領域 A2を求める(S26)。
[0126] 次に、 A=A1 +A2を計算して画像表示可能領域 Aを決定して更新する(S27)。 [0127] 上述したように画像投射装置 100は、画像を表示するためのレーザ光を用いて画 像表示可能領域を検出する。画像表示用の構成要素に加えて、反射光強度を検出 する検出部 9と演算部 15とを装置が備えるだけで画像表示可能領域の検出が可能と なる。物体や人物を検出する機構として、別途検出用のセンサや画像監視用のカメ ラを装置が備える必要がないので、小型且つ安価で、安全に明るい画像表示が可能 な画像投射装置を実現することができる。また、人物等の障害物の範囲のみ画像の 表示を中断することで人の目に対する安全を確保することができる。検出モードに切 り替えた領域でも、ランダムドットパターンを表示して反射光の検出は続行するので、 障害物の存在が無くなれば自動的に通常の画像表示モードに復帰可能である。
[0128] さらに、画像表示可能領域の決定処理を走査ライン毎に行ない、その結果を次の 走査ラインに反映するので、最小限の処理時間でモードの切り替えができ、安全レべ ルを高めることができる。
[0129] また、演算部 15が画像表示可能領域の決定処理を行う際、光源 1を点灯させない ブランク期間に検出部 9で検出された輝度信号を用いることにより、使用場所の明暗 や投射領域内にある物体の状態など、様々な条件下で的確な決定処理を行なうこと ができ、安全性をより高めることができる。
[0130] (実施形態 2)
次に、図 7〜図 12を参照して、本発明による画像投射装置の第 2の実施形態を説 明する。図 7は、本実施形態の画像投射装置 200を示す図である。
[0131] 画像投射装置 200は、スクリーン 20と画像投射装置 200との間の距離を測定し、そ の測定値から人等の障害物を検出する。例えば、スクリーン 20と画像投射装置 200 との間の距離および傾きを予め測定し、測定結果を記憶しておく。画像表示と並行し て距離の測定も継続し、記憶された距離と新たに測定した距離との比較を行うことで 、障害物の進入を検出することができる。なお、スクリーン 20等の被投射物と画像投 射装置 200との間の距離とは、被投射物と画像投射装置 200の任意の位置との間の 距離であり、例えば、画像投射装置 200のミラー部 6と被投射物との間の距離である
[0132] また、画像投射装置 200がハンディタイプ等である場合は、画像投射装置 200自 身の位置や姿勢が頻繁に変更される可能がある。このような場合でも、画像投射装 置 200は、スクリーン領域を自動的に検出し直す。利用者自ら力 Sスクリーン 20と画像 投射装置 200との間に障害物がない状態を確認した上で、スクリーン領域の再設定 を行う必要が無 、ので、利用者の利便性を高めることができる。
[0133] 図 7を参照して、画像投射装置 200は画像投射装置 100 (図 1)と比較して構成要 素の配置が若干異なっている。画像投射装置 200は、光源の構成要素として赤外線 レーザ光 4aを出力する発光素子 Idを備え、光学素子として反射部 3a〜3cおよびハ 一フミラー 5aを備える。
[0134] 発光素子 la、 lb、 lcから出力されたレーザ光は、反射部 3a、 3b、 3cを経てミラー 部 6 (ビーム走査手段)によって 2次元に走査されて、画像表示用レーザ光 4としてス クリーン 20に投射される。ミラー部 6による 2次元走査は、所定の投射方向(Z方向)を 基準として、例えば Y方向(Z方向に垂直な方向)に ± 22. 5° 、X方向(図 8)に ± 30 ° の範囲で行われる。ミラー部 6には角度センサ 13aが設けられ、 2軸の回動角をそ れぞれ独立に検出しており、ミラー駆動部 13により所定の投射角度に制御される。こ の際、スクリーン 20は、 Z方向に対して完全に垂直に設置されているとは限らず、画 像投射装置 200の設置の状況により所定の傾きを持って 、る場合もあり得る。ミラー 部 6としては、例えば、 X方向と Y方向に独立な回動軸を有する 2軸の回動ミラー素子 を用いるが、 1軸のミラー素子を 2枚使用してもよいし、回転ポリゴンミラー素子を用い てもよい。
[0135] 演算部 15は、距離算出部 15aと、プロファイル記憶部 15bと、 LPF (ローパスフィル タ) 15cと、システムコントローラ 11とを備えている。画像信号はシステムコントローラ 1 1に入力され、レーザ変調部 12が画像表示用レーザ光 4を変調するのに同期して、ミ ラー駆動部 13がミラー部 6を駆動することにより画像が表示される。
[0136] また、画像表示用レーザ光 4とは別に、赤外線レーザ光 4aが発光素子 Idから放射 される。赤外線レーザ光 4aは非可視光なので、投射による画像表示品質の劣化は 発生しない。赤外線レーザ光 4aは、ハーフミラー 5aを通過し、ミラー部 6で反射してス クリーン 20に投射される。スクリーン 20で反射した赤外線レーザ光 4aの一部は、ミラ 一部 6およびノヽーフミラー 5aで反射して検出部 9に入射する。赤外線レーザ光 4aは パルス変調されており、発光素子 Idからの出射光と検出部 9への入射光の位相差を カウントすることにより、赤外線レーザ光 4aが反射した点と映像投射装置 200との間 の距離を算出する。位相差のカウントおよび距離の算出は、距離算出部 15aが行う。 赤外線レーザ光 4aの走査により連続的に算出された距離を記録することで、赤外線 レーザ光 4aが反射した箇所の外形のプロファイルが取得できる。
[0137] 演算部 15は、距離算出部 15aの他にも、プロファイル記憶部 15bと、 LPF (ローバ スフィルタ) 15cとを備えている。プロファイル記憶部 15bは、算出された距離から被 投射物のプロファイルを算出する。プロファイルは、角度センサ 13aにより測定される 2軸の回動角力も特定できる赤外線レーザ光 4aの投射方向と合わせてプロファイル 記憶部 15bに記録される。なお、赤外線レーザ光 4aは、画像表示用レーザ光 4とは 光軸とずらしているのでスクリーン 20に投射される範囲がわずかに異なる力 画像表 示およびプロファイル取得は共通の領域(図 7に示す領域 S)で行われる。画像表示 および距離測定は、走査時のうちの X+方向の走査時のみ行い、 X—方向では行わ ない。このため赤外線レーザ光 4aは常に画像表示用ビーム 4に先行して走査してい る。画像表示用ビーム 4の走査可能領域のうち、領域 S以外の領域においては、画像 表示用ビーム 4の照射は常に停止されている。
[0138] システムコントローラ 11は、距離に基づいて被投射物のうちの略平面の領域を検出 し、その略平面の領域を画像表示可能領域に決定する。
[0139] システムコントローラ 11は、記録されたプロファイルを元にプロファイルの曲率を投 射位置毎に算出する。システムコントローラ 11は、各演算処理を実行する演算部の 一部としても機能する。プロファイルのうち、スクリーン 20上で取得された部分はスクリ ーン 20がほぼ平面に近いことから曲率は 0に近くなり、人間の頭部の様に近似的に 球に近い物体力 取得された部分は所定の大きさの曲率を有する。これにより、ほぼ 平面に近いスクリーンとそれ以外の判定を、所定の閾値を基準にすることにより自動 的に行うことが可能となる。また、 LPF (ローパスフィルタ) 19は、プロファイルから、所 定の大きさの凹凸よりも小さい凹凸部分を除去する。極端に小さな凹凸は曲率が極 めて大きく検出される力 LPF19にプロファイルを通すことにより、小さな凹凸の影響 を除去し判定精度を高めて!/、る。 [0140] レーザ停止位置記憶部 11aは、画像を表示するための光源 1を ONするか OFFす るかを示すフラグを投射位置毎に記録するメモリである。システムコントローラ 11は、 算出された曲率が、所定の範囲(例えば人間の頭部に近い曲率の近傍の範囲)にあ るかを判定する。範囲内にある場合には、その点における画像の表示を OFFにする ことを示すフラグをレーザ停止位置記憶部 11aに書き込み、範囲外の場合は表示を ONすることを示すフラグを書き込む。同時に、システムコントローラ 11は、レーザ停 止位置記憶部 1 laに記録されたフラグを参照しながら、レーザ変調部 12を制御して 光源 1の ONと OFFを切り替える。このように、光源 1は、曲率が所定の範囲内である 領域への画像の表示を行わな!/、。
[0141] 図 8は、赤外線レーザ光 4aを用いた距離測定動作の一例を示す斜視図である。
[0142] 距離測定用の赤外線レーザ光 4aがスクリーン 20上を X+方向に走査することでプ 口ファイルを取得しつつ、 Y方向の走査位置を Y+方向力 Y—方向に順に変更して いる。画像投射装置 200とスクリーン 20との間に障害物 22がある場合には、障害物 2 2で赤外線レーザ光 4aが反射するため、測定される距離が短くなり不連続なプロファ ィノレ 41となる。
[0143] 図 9は、プロファイル 41から被投射物の平面度を検出する処理の一例を示す。図 9
(a)は、平面度検出を行うプロファイルを示している。図 9 (b)は、平面度の算出方法 を示している。
[0144] 図 9 (a)を参照して、プロファイル 41の領域 Aおよび領域 Cは、赤外線レーザ光 4a 力 Sスクリーン 20で反射したときに測定された距離を示す部分であり、これらの領域は ほぼ直線で傾きを有しているので、画像投射装置 200の基準の投射方向(Z方向)に 対してスクリーン 20が傾いていることを示している。プロファイル 41の領域 Bは、赤外 線レーザ光 4aが障害物 22で反射したときに測定された距離を示す部分であり、領域 Bは障害物 22の外形に沿う曲線である。なお、プロファイル 41を取得する過程で所 定値 (Lmin)より小さい距離が検出された場合、つまり画像投射装置 200の極めて 近傍に物体があることが検出された場合は、曲率の算出を待たずに直ちに画像表示 用レーザ光 4の照射を停止する。具体的にはレーザ停止位置記憶部 1 laの全ての位 置の表示フラグを、ー且 OFFを示すフラグにする。 [0145] 走査範囲内における平面度の検出は、プロファイル 41から曲率を算出し、曲率が ほぼ 0の箇所を検出することで行う。例えば領域 Bにおけるプロファイル 41の曲率は 、障害物 22が人間の頭部の場合、曲率半径が 10〜20cm、曲率(曲率半径の逆数) が約 0. 05〜0. lZcmとなる。一方、スクリーン領域のプロファイルの曲率はほぼ 0 であることから、走査範囲のうちの平面部(つまりスクリーン 20)を曲率で分別すること ができる。領域 Bのプロファイル 41上のポイント 35a、 35b、 35cの距離測定結果から 曲率を算出する方法を以下に説明する。
[0146] 図 9 (b)を参照して、ミラー部 6からポイント 35aまでの距離を ml、ポイント 35bまで の距離を m2、ポイント 35cまでの距離を m3とする。各ポイントから曲率中心 Oまでの 距離である曲率半径 Rと、曲率 1ZRとは、ポイント 35aとポイント 35bとの間の距離 a、 ポイント 35bとポイント 35cと間の距離 b、ポイント 35aとポイント 35cとの間の距離 cを 用いて (式 10)で表される。
1ZR = ((a + b + c) (b + c -a) (c + a— b) (a + b -c) ) /abc …(式 10)
[0147] また、角度センサ 13aにより取得される、ポイント 35aとポイント 35bとの間のスキャン 角 θ 1と、ポイント 35bとポイント 35cとの間のスキャン角 Θ 2を用いて、距離 a、 b、 cは (式 11)〜 (式 13)で計算できる。
a = ^ (ml " 2+m2" 2- 2mlm2COS θ 1) · · · (式 11)
b = ^ (m2" 2+m3" 2- 2m2m3COS Θ 2) · · · (式 12)
c = ^ (ml " 2+m3" 2- 2mlm3COS ( Θ 1 + Θ 2) ) …(式 13)
[0148] ここで距離 ml、 m2、 m3は、 LPF15cを通したプロファイル 41から抽出されており、 極端に小さな凹凸やノイズの影響を除去されているので、所定の範囲の曲率を精度 良く抽出することが可能である。また曲率の算出に用いるポイント数は 3点に限る物で はなぐより多くの点数を用い最小自乗法を用いて算出してもよい。また隣接するボイ ントではなく離れて!/、る点同士を抽出して算出に用いてもょ 、。
[0149] 図 10は、平面度算出結果の一例を示す図である。
[0150] 図 10を参照して、領域 Bでは障害物 22の外形に応じた曲率が示され、領域 Aおよ び Cでの曲率はほぼ 0になっている。所定の閾値 Th (例えば 0. 02Zcm)を設定する ことで、距離測定データのみから、平面部とそれ以外の部分とを判別することが可能 となる。
[0151] 図 11は、レーザ停止位置記憶部 11aの記録データを示す図である。
[0152] システムコントローラ 11は、赤外線レーザ光 4aの走査および曲率の算出が行われ る毎に、レーザ停止位置記憶部 11 aの対応する位置にフラグを書き込む。図 11では 、模式的にフラグの内容をスクリーン 20上での位置に対応させて表示している(ただ し表示位置の数は実際より減らした簡易表示である)。 表示フラグ OFF点 37が書き 込まれた箇所は、曲率が閾値 Thより大きぐ画像表示を OFFする箇所であり、黒塗り で示している。また、それ以外の白塗りの部分 (画像表示可能領域)は、画像表示を ONするフラグが書き込まれている。赤外線レーザ光 4aは、画像表示用レーザ光 4に 先行して走査しており、画像表示用レーザ光 4が表示を行うのに先立って曲率の算 出および評価を行うことができる。システムコントローラ 11は、画像表示用レーザ光 4 力 Sスクリーン 20を走査する際に、レーザ停止位置記憶部 11aの内容を参照して、フラ グが ONを示す場合のみ光源 1を ONにして画像の表示を行う。これにより画像表示 用レーザ光 4がスクリーン 20以外の位置では OFFにされるので、安全性の高い画像 投射システムを提供できる。
[0153] 図 12は、平面度判定処理を示すフローチャートである。
[0154] 画像投射装置 200の電源が投入されると、レーザ停止位置記憶部 11a内のフラグ が全て表示 OFFに設定される(S 110)。次に、ミラー駆動部 13がミラー部 6を駆動し て走査を開始する(S111)。システムコントローラ 11は、以下のフローとは独立に画 像表示用レーザ光 4の制御を継続して行う。
[0155] 次に、赤外線レーザ光 4aによる走査を行ってプロファイル 41を算出し、プロフアイ ル記憶部 15bに格納する(S 112)。プロファイル 41を算出する過程で、所定の距離 L minより小さい距離が検出された場合 (S113)は、画像投射装置の極めて近傍に物 体があると判断し、レーザ停止位置記憶部 11aの全ての位置の表示フラグを、ー且、 表示 OFFに設定して画像表示用レーザ光 4の照射を停止し (S114)、安全性を確保 する。
[0156] 次にプロファイル 41から曲率を算出(S115)し、閾値 Thより大きければ(S116)、 レーザ停止位置記憶部 11a内の対応する位置のフラグを表示 OFF設定にする(S1 17)。また閾値 Thより小さければ平面と判断し、レーザ停止位置記憶部 11a内の対 応する位置のフラグを表示 ON設定にする(S 118)。電源 OFFの指示が無ければ(S 119)、ステップ S 112の動作に戻る。
[0157] なお、プロファイル 41を算出する過程で、所定の距離 Lminより小さい距離が検出 された場合に、画像表示用レーザ光 4の照射を停止しているが、距離に応じた出力 まで光源 1の出力を絞る構成としてもよい。
[0158] 以上の様に本実施形態によれば、プロファイル 41の曲率から平面度を算出し、平 面部のみに選択的に画像表示用レーザ光を投射できる。これにより、障害物、特に 人間の頭部への投射を防止し、眼球へのレーザ投射が防止可能な安全性の高い画 像投射装置を提供できる。また、距離測定結果のみに基づいて、平面部の検出をリ アルタイムかつ自動で行うので、使用者の手を煩わせることが無!、利便性の高 、画 像投射装置を、簡便な構成により低コストで提供できる。また、プロファイル 41を LPF 15cに通してから曲率の算出を行うので、極端に小さな凹凸やノイズの影響を除去し 所定の範囲の曲率を精度良く抽出することができる。
[0159] (実施形態 3)
図 13は、本発明の実施形態 3による画像投射装置 300を示す図である。図 14は、 サブ領域 (平面判定領域)を説明する斜視図、図 15Aはサブ領域の平面判定計算 の一例を説明する斜視図、図 15Bはサブ領域の平面判定計算の別の一例を説明す る斜視図である。
[0160] 画像投射装置 300では、画像表示を行う前に、画像投射装置 300と被画像投射領 域との間の距離および傾きを自動的に算出し、略平面である領域とその平面位置を 抽出しておく。画像表示時には、測定された距離と抽出済の平面の距離とがー致し ている力否かを判定することで障害物を検出する。また、システムコントローラ 11は、 距離に基づいて得られる被投射物に対応した面を複数のサブ領域 45 (図 14)に分 割し、サブ領域 45毎に略平面であるカゝ否カゝ判定する。被画像投射領域のうちの略平 面である領域の抽出は、被画像投射領域全体を小領域であるサブ領域 45に分割し 、サブ領域 45毎にその箇所が略平面である力判定することにより行う。
[0161] 図 13を参照して、演算部 15が備える距離記憶部 15dは、各投射位置毎に測定さ れた距離を記録するメモリである。プロファイル記憶部 15bに記録されたプロファイル 41から LPF15cに通してノイズ成分を除去した上で、プロファイル 41から各投射位置 における距離を抽出して記録する。
[0162] 図 14を参照して、サブ領域 45は、被画像投射領域全体を分割して設定される小領 域である。サブ領域 45の中の、全ての投射位置の距離測定が完了した段階で、シス テムコントローラ 11はサブ領域 45が略平面であるか判定を行い、平面と判定された 場合はその平面を表す方程式の係数を平面情報記憶部 1 lbに記録する。サブ領域 45内の全ての距離測定データを用いて平面判定を行うのでより高精度な判定が可 能である。システムコントローラ 11は、略平面と判定されたサブ領域 45に対してのみ 画像表示用レーザ光 4による画像表示を行うので、人間の頭部などの様に所定の曲 率を有する障害物 22への画像の投射を正確に防止することができ、安全性の高い 画像投射装置を提供できる。
[0163] また、略平面であるサブ領域 45のうち、スクリーン 20上に直接投射している領域は 全て略同一平面上に存在するはずなので、複数のサブ領域の中から同一平面上に ある箇所を抽出することによりスクリーン 20の位置を特定できる。スクリーン 20上にあ ると特定されたサブ領域の位置はスクリーン領域記憶部 11cに記録される。通常、略 平面形状を有する障害物は人間の頭部である可能性は極めて低ぐ非平面形状に 対してのみ画像投射しても安全上の問題は少な 、が、スクリーン 20を特定して選択 的に画像投射することにより、安全性をさらに高めることが可能である。
[0164] 次に、画像投射装置 300の動作をより詳細に説明する。
[0165] まず、画像表示を行う前段階の、略平面であるサブ領域 45を抽出する処理を説明 する。
[0166] 図 14を参照して、赤外線レーザ光 4aをスクリーン 20上の X+方向に走査させて、 プロファイル 41を取得しつつ、 Y方向の走査位置を Y—方向に順に変更していく。こ の際、画像表示用レーザ光 4の投射は OFFされている。被画像投射領域全体は、多 数のサブ領域 45に分けられて 、る。ただし境界線は便宜上記載して 、るもので仮想 的なラインである。各プロファイル 41は、取得が完了した後に LPF15cを経由してノィ ズを除去され、サブ領域 45内の各位置 (角度センサ 13aにより取得された水平投射 角および垂直投射角)における距離に分解されて距離記憶部 15dに記憶される。サ ブ領域 45内の全ての位置における距離が取得されたら、システムコントローラ 11は、 各サブ領域 45が平面であるカゝ否かの判定を行う。
[0167] 図 15Aを参照して、サブ領域 45内の平面判定ポイント 50は、距離記憶部 15d内に 水平および垂直投射角と測定距離が記録されているポイントであり、プロファイル 41 に沿ってサブ領域 45内全体に複数分布している。システムコントローラ 11は、各平 面判定ポイント 50の水平および垂直投射角と測定距離に基づ!/、て、各平面判定ポ イント 50の X、 Y、 Ζ座標を算出する。次に、システムコントローラ 11は、最小自乗法を 用いて、サブ領域 45内の全ての平面判定ポイント 50の X、 Υ、 Ζ座標から、自乗平均 が最小となる仮想平面 (以下、最小自乗平面と称する)を算出する。最小自乗平面は 以下の計算式により算出する。最小自乗平面を (式 14)の様に表し、
ζ= α χ + j8 y + γ …(式 14)
係数 a;、 j8、 γを (式 15)の行列式を解くことにより求める。
[0168] [数 1]
Σ Χ Χ Σ Χ Υ Σ Χ a Σ Χ Ζ
Σ Χ Υ Σ Υ Υ ∑ Υ β ∑ Υ Ζ
Σ Χ ∑ Υ ∑ 1 Ύ ∑ ζ (式 1 5 ) ここで、例えば∑ XXは、全平面判定ポイント 50の X座標の自乗の総和を示している
[0169] 図 15Aに示す様に、サブ領域 45が略平面であり、平面判定ポイント 50がほぼサブ 領域 45上にある場合には、算出した最小自乗平面はサブ領域 45にほぼ一致する。 また、図 15Bに示す場合では、最小自乗平面は平面 51の様になり、一部の平面判 定ポイント 50と離れて算出される。
[0170] 次に、算出した最小自乗平面に対し、各平面判定ポイント 50から下ろした垂線 52 の長さの分散を算出する。この分散の度合い (分散値)が所定値以下の場合は、各 平面判定ポイント 50が最小自乗平面上にある、つまりサブ領域 45が略平面であると 判定する。図 15Bの様に、垂線 52の長さが大きい場合は分散値が所定値より大きく なり、サブ領域 45は略平面ではないと判定することができる。これにより、距離の測定 誤差が残留している場合にもその影響を少なくし、的確な平面判定が可能である。こ のように、システムコントローラ 11は、最小自乗平面 (仮想平面)と被投射物との間の 距離の分散の度合いが所定値以内である場合に、そのサブ領域を略平面であると 判定する。
[0171] このとき、サブ領域 45の位置と傾きを表す方程式は(式 14)により表されるので、こ れら平面の係数 α、 j8、 γを平面判定結果として平面情報記憶部 l ibに記録する。 平面情報記憶部 l ibには、サブ領域 45毎に個別に判定結果が記録され、サブ領域 45が平面と判定された場合には、平面であることを示すフラグと係数ひ、 βヽ γが記 録され、平面でないと判定された場合には、平面でないことを示すフラグのみが記録 される。
[0172] 次に、スクリーン 20の位置の選別方法を説明する。被画像投射領域内の全ての位 置の平面判定を完了した段階で、平面であると判定されたサブ領域 45を略同一平 面上に位置するもの毎にグループ化する。例えば 2つのサブ領域 45が略同一平面 上にあるかどうかは、平面情報記憶部 l ibに記録された各々の係数 a;、 β、 γが所 定の誤差の範囲で同一であるかにより判定できる。グループが 1つしかない場合、つ まり平面であると判定されたサブ領域 45が全て同一平面上にある場合は、それらの サブ領域 45全てをスクリーン 20であると判定し、その結果をスクリーン領域記憶部 11 cに記録する。スクリーン領域記憶部 11cに記録されるのは、サブ領域 45毎にその箇 所がスクリーン 20である力否かを示すフラグである。もしもグループが複数ある場合、 つまり、投射領域内に異なる位置または傾きを有する平面が複数ある場合は、どの平 面がスクリーン 20である力判定する必要がある。例えば投射領域内に侵入した障害 物 22が平面部を有する場合に起こり得る。グループが複数ある場合の判定は、各々 の平面の面積を比較し、最も面積の大きい平面を検出することにより行う。例えば各 サブ領域 45の面積を全て同一に設定してある場合は、各グループに属するサブ領 域 45の個数が最も多いグループを選定することで容易に検出できる。システムコント ローラ 11は、略平面と判定したサブ領域のうち同一平面上に位置するサブ領域を 1 つのグループに分類することで、略平面と判定したサブ領域を複数のグループに分 ける。そして、最も面積が広いグループに属するサブ領域に画像を表示する。最も面 積の大きい平面をスクリーンとして判定することにより、投射領域の中で最も面積の大 きな平面部に画像を投影するので、画像の欠落部を最小限に抑えることが出来、品 位の高い画像投射装置を提供できる。またスクリーン 20を特定してスクリーン 20にの み画像を投射するので、人間の頭部等への投射を確実に防止することが出来る安全 性の高 、画像投射装置を提供できる。
[0173] 図 16Aは、スクリーン領域記憶部 11cの記録が記録する情報の一例を示す図であ る。図 16Bは、画像投射時の距離測定動作を示す図である。
[0174] 図 16Aを参照して、スクリーン領域 55は、白抜きで示すサブ領域 45の集合である。
スクリーン領域 55内のサブ領域 45は全て平面と判定されたものであり、かつ同一平 面上に位置している。非スクリーン領域 56は、斜線で示すサブ領域 45の集合である 。非スクリーン領域 56内のサブ領域 45は非平面と判定されたものである力 平面と 判定されたが面積の小さい平面のグループに属するものでも有り得る。スクリーン領 域記憶部 11cの内容は画像表示を行う際に参照され、非スクリーン領域 52で表示を 停止するために用いられる。
[0175] 上記では、スクリーン 20の位置を特定する方法として、略同一平面上に位置するも のをグループィ匕して特定する方法を説明したが、これに限定されな!、。
[0176] 例えば、隣接するサブ領域 45間が同一平面上にはないが、所定の誤差の範囲で 連続的に接続されており、各々の平面の法線ベクトルの方向が所定の範囲内で一致 しているサブ領域 45をグループ化してもよい。これにより、例えばスクリーン 20全体 が僅かにたわんでいる様な場合にも、スクリーン 20の位置の特定が可能となる。
[0177] 次に、画像表示を行う処理を説明する。
[0178] システムコントローラ 11は、スクリーン領域記憶部 11cを参照して、レーザ光 2による 走査を行うサブ領域 45がスクリーン領域 55内であるか非スクリーン領域 56内である かを判定し、スクリーン領域 55内である場合に限りレーザ光 2を投射する。これにより 常にスクリーン 20に対してのみ画像を投射することができる。
[0179] 一方、システムコントローラ 11は、赤外線レーザ光 4aによる距離測定も同時に実施 し、スクリーン領域記憶部 11cを参照して、赤外線レーザ光 4aが走査するサブ領域 4 5がスクリーン領域 55内であるか非スクリーン領域 56内であるかを判定する。
[0180] 赤外線レーザ光 4aが走査するサブ領域 45がスクリーン領域 55内である場合には、 平面情報記憶部 l ibに記録されている平面情報に基づき、赤外線レーザ光 4aがス クリーン 20で反射している力判定する。この時、スクリーン 20で反射していないと判 定された場合は、障害物が新たに侵入したと判定する。このように、新たに測定した 距離と位置情報との差が所定値以上である場合には、システムコントローラ 11は、そ の差が所定値以上であるサブ領域を非平面領域と再判定する。このとき、光源は、そ の差が所定値以上であるサブ領域への画像の表示を中断する。
[0181] 図 16Bを参照して、画像表示中に障害物 60が新たに侵入してきた場合、赤外線レ 一ザ光 4aは本来反射すべきサブ領域 61で反射せずに障害物 60で反射する。この ため、測定される距離はサブ領域 61で反射される場合よりも短くなり、これにより、障 害物 60の侵入を検出できる。この場合、システムコントローラ 11は、該当するサブ領 域 61を非平面領域と直ちに再判定し、平面情報記憶部 l ibおよびスクリーン領域記 憶部 11 cの記憶内容を書き換える。赤外線レーザ光 4aに続いて同領域を走査する 画像表示用レーザ光 4は、その領域には投射されず、新たに侵入した障害物 60へ の画像投射を直ちに防止することが出来る。この様に、あら力じめ検出している平面 情報に基づいて算出される距離の期待値と、実際に測定された距離とを比較して、 判定処理を行っているので、平面度の算出を新たに行う時間を無くすることができ、 高速な判定が可能な安全性の高い画像投射装置を提供できる。
[0182] また、赤外線レーザ光 4aが走査するサブ領域 45が非スクリーン領域 56内である場 合には、サブ領域 45内を距離測定した後に略平面であるかを再評価し、さらにスクリ ーン領域 55と同一平面上にあるかを評価する。スクリーン領域 55と同一平面上にあ ると新たに評価されたサブ領域 45の位置は、スクリーン領域記憶部 1 lcに記録され、 画像表示用レーザ光 4による画像表示が行われる様になる。
[0183] 図 17は、画像投射装置 300の動作を示すフローチャートである。
[0184] 画像投射装置の電源が投入されると、まず、画像表示用レーザ光 4の投射を停止し た状態にする(S30)。次に、ミラー駆動部 13がミラー部 6を駆動して走査を開始する とともに。赤外線レーザ光 4aの投射を開始する(S31)し、以下に示す被画像投射領 域内の走査を継続的に実施する。赤外線レーザ光 4aの反射光に基づいてプロファ ィル 41が算出される。 LPF15cを通ったプロファイル 41を用いて、平面判定ポイント 50毎に距離を抽出して距離記憶部 15dに記録する(S32)。
[0185] 次に、サブ領域 45の内部の全ての平面判定ポイント 50での距離測定を完了してい るかを判定し(S33)、完了していない場合はステップ S32の処理に戻り、完了してい るサブ領域 45がある場合は、サブ領域 45内の平面判定ポイント 50の座標カゝら最小 自乗平面の算出を行う (S34)。次に平面判定ポイント 50から最小自乗平面に降ろし た垂線の長さの分散の度合いを算出し、所定の値より低い場合にはサブ領域 45が 平面であると判断し、その平面 (最小自乗平面)の方程式を平面情報記憶部 l ibに 記録する(S35)。次に被画像投射領域内の全ての位置で平面判定処理を完了して いる力判定し(S36)、完了していない場合はステップ S32の処理に戻り、完了してい る場合にはスクリーン領域の判定を行い、判定結果をスクリーン領域記憶部 11cに記 録する(S37)。この時点力 画像表示が開始され、スクリーン位置のみにレーザ光 2 が投射される様に光源 1を制御する(S38)。光源 1の制御はスクリーン領域記憶部 1 lcの記憶内容を参照することにより行い、以下に説明する赤外線レーザ光 4aの走査 によるスクリーン領域記憶部 11cの書き換えとは独立かつ平行に行われる。
[0186] なお、上記では、スクリーン領域の判定が完了した直後から画像表示を開始してい るが、被画像投射領域全体の走査とスクリーン領域の判定を数回行い、スクリーン領 域が変化しない場合に、画像表示のステップに進んでもよい。略平面と判定したサブ 領域内の被投射物の位置情報は、距離を新たに測定する毎に更新されるが、その 位置情報の示す位置が所定時間変化しない場合に限り、光源は、その略平面と判 定したサブ領域への画像の表示を開始する。特に、携帯型の画像投射装置の様に、 投射方向が高頻度で変動する場合には、投射方向が変化しているときは画像表示 用レーザ光 4の投射を停止する。投射方向が所定時間変化しない、つまり画像投射 装置が動!、て 、な 、ことを確認して力も画像表示用レーザ光 4の投射を開始できる ので安全性をより高めることが出来る。なお、被画像投射領域全体の走査時間は、例 えば 1Z60秒に設定され、極めて短時間であるため、数回の走査を行っても画像表 示が停止する時間は短ぐ画像品質への影響は少なく抑えることが出来る。 [0187] 次に、画像表示が行われている間の処理を説明する。赤外線レーザ光 4aによる距 離測定を行う (S39)とともに、距離測定点の位置力スクリーン領域であるかを判定 (S 40)する。スクリーン領域でない場合には、非スクリーン領域に対応する処理である S 43に進む。スクリーン領域である場合には、測定された距離がスクリーン 20の距離と 一致している力判定する(S41)。この判定は、平面情報記憶部 l ibから取り出したサ ブ領域 45の平面の方程式と赤外線レーザ光 4aの投射方向とから算出できるスクリー ンまでの距離の期待値と、実際に測定された距離とを比較することにより判定できる。 ここでスクリーン 20から反射していると判定された場合には、 S46の処理に進むが、 スクリーン 20から反射して ヽな ヽと判定された場合には、障害物 22が被画像投射領 域に進入したと判断し、サブ領域 45をスクリーン領域 55から除く様にスクリーン領域 記憶部 11cの記憶内容を修正する(S42)。これにより、この領域への画像表示用レ 一ザ光 4の投射を停止することが出来る。さらに非スクリーン領域に対応する処理を 行う。
[0188] 非スクリーン領域に対応する処理では、サブ領域 45内の全ての平面判定ポイント 5 0の距離測定を完了している力否かを判定する(S43)。完了している場合には最小 自乗平面の算出(S44)を行い、続いて、平面判定ポイント 50から最小自乗平面に降 ろした垂線の長さの分散の度合いを算出し、所定の値より低いかの平面判断を行う( S45) 0さらに、被画像投射領域全体の距離測定が完了していれば (S46)、スクリー ン領域決定処理を再度行 、 (S47)、スクリーン領域記憶部 1 lcの記憶内容を最新の スクリーン位置に更新する。画像表示の終了の指示があるか判定し (S48)、無けれ ば S39の処理に戻り、有れば動作を終了する。
[0189] 以上の様に、本実施形態によれば、被画像投射領域を、サブ領域 45に分割しその 中の全ての距離データを用いて平面判定を行うので、より高精度な平面判定が可能 な画像投射装置を提供できる。
[0190] またサブ領域内で測定された距離測定ポイントの座標データ力 最小自乗平面を 算出し、分散値を用いて平面度を判定しているので、測定誤差を有する場合でも高 精度な平面判定が可能な画像投射装置を提供できる。
[0191] また、あらかじめスクリーン領域の検出と平面情報の算出をしておき、距離の期待値 と実測値とを比較して障害物の進入を検出するので、検出の際に平面度の再計算を 行う必要が無ぐ高速な判定が可能で、安全性の高い画像投射装置を提供できる。
[0192] また、平面と判定されたサブ領域の中からスクリーン領域を抽出して、スクリーン領 域にのみ画像を表示するので、さらに安全性の高い画像投射装置を提供できる。
[0193] また、スクリーン領域を抽出した後、スクリーン領域が変動しないことを確認してから 画像の投射をする。これにより、画像投射装置自身が動いていない状態で画像の投 射を開始できるので、さらに安全性の高い画像投射装置を提供できる。
[0194] (実施形態 4)
図 18は、本発明の実施形態 4による画像投射装置 400を示す図である。図 19は、 画像投射装置 400の画像表示前の動作を示すフローチャートである。図 20は、画像 投射装置 400の画像表示中の動作を示すフローチャートである。
[0195] 図 18を参照して、画像投射装置 400は、温度測定部 60を備える。温度測定部 60 は、例えばスクリーン 5や、スクリーン 5と画像投射装置との間に進入した人間力 温 度や体温に応じて放射する赤外線を検出し、その温度を測定する温度センサである
[0196] スクリーン 5等力も放射される赤外線の一部は、赤外線経路 61に沿って、ミラー部 6 で反射されて、温度測定部 60に入射する。ミラー部 6が表示領域を走査しながら温 度を測定することで、走査する領域の温度分布を取得することが出来る。これにより、 平面と判定された領域でも、もしも人間の体温に近い温度範囲(例えば 30〜40度の 間)が検出されれば、その領域における画像の投射を停止することにより、顔や腕な ど人間の肌が露出している箇所へ誤投射する可能性をさらに低減でき、より安全性を 高めた画像投射装置を提供できる。
[0197] また、温度測定部 60が被投射物表面の温度を測定する時には、距離測定用の赤 外線レーザ光 4aの照射を停止する。赤外線レーザ光 4aの出力を停止している期間 に温度測定を行うことで、赤外線レーザ光 4aの温度測定部 60への漏れ込みを防止 し、温度測定への影響を無くして温度測定精度を高めている。平面度の判定と温度 の測定は、例えばミラー部 6が投射領域全体を 1回走査する毎に切り替えて実施し、 2回走査した後に、平面度判定結果と温度測定結果を合わせてスクリーン領域を判 定する。
[0198] 図 19を参照して、画像投射装置 400の動作をより詳細に説明する。
[0199] ステップ S30〜S36の処理は、図 17を参照して説明した処理と同様であり、赤外線 レーザ光 4aを投射して、サブ領域内の平面度を算出する。ステップ S36の処理にお いて、画面全体の走査が完了した後、赤外線レーザ光 4aを OFFにする(S50)。ミラ 一部 6は、もう一度画面を描画する初期位置から走査を開始し、同時に温度測定部 6 0が温度測定を行い、走査位置とその位置における温度をメモリ(図示せず)に格納 する(S51)。各々のサブ領域中の温度測定が終わると(S52)、その平均温度を算出 して(S53)、メモリ(図示せず)に格納する。画面全体の走査が完了すると(S54)、ス テツプ S35の処理で平面と判定された領域のうち、平均温度が所定の温度範囲(例 えば 30〜40度)であるものを除去し、残りをスクリーン領域 55として設定する(S37)
[0200] 図 20を参照して、ステップ S37の処理力も続いて、画像の表示を開始する(S38)。
以下、画像投射装置は、画像の投射をスクリーン領域 55にのみに行いながら、並行 して平面度の算出と温度の測定を 1画像フレーム毎に切り替えて実施する。ステップ S39〜S46の処理は図 17を参照して説明した処理と同様である。ステップ S46にお いて、画面全体の走査が完了した後、赤外線レーザ光 4aを OFFにする(S50)。ミラ 一部 6はもう一度画面を描画する初期位置から走査を開始し、同時に温度測定部 60 が温度測定を行う。ステップ S57〜S60の処理は、図 18を参照して説明したステップ S52〜S54、 S37の処理と同様である。画像表示の終了の指示があるか判定し(S6 1)、無ければ S39の処理に戻り、有れば動作を終了する。
[0201] 以上の様に、画像投射装置 400は、温度測定部 60を備え、人間の体温に近 、温 度範囲(例えば 30〜40度の間)が検出された領域に対して画像の投射を中断するこ とにより、より安全性を高めることができる。
[0202] また、温度測定部 60の温度測定時には、距離測定用の赤外線レーザ光 4aの照射 を停止することで、赤外線レーザ光 4aによる温度測定への影響を無くし、温度測定 部 60の温度測定精度を高めることが可能である。
[0203] なお、上記の説明では、赤外線レーザ光 4aの照射による平面度判定と温度測定と を、 1画像フレームの走査毎に切り替えた力 これに限定されるものではなぐ赤外線 レーザ光 4aの照射時には温度測定を行わな 、構成であればょ 、。例えば平面度の 評価を複数回走査した後に、温度測定を 1回行う構成としても良 、。
産業上の利用可能性
本発明は、レーザ光を投射して画像を表示する画像投射装置の分野で特に有用 であり、装置の小型化および低コストィ匕を実現すると共に、安全でかつ十分な明るさ で表示可能な画像投射装置を提供することができる。

Claims

請求の範囲
[1] レーザ光を出力する光源と、
前記光源が出力した前記レーザ光を反射して投射するミラー部と
を備え、前記投射したレーザ光の少なくとも一部により画像を表示する画像投射装 置であって、
前記画像投射装置は、
前記レーザ光の投射方向から戻ってきた前記レーザ光の少なくとも一部を検出す る検出部と、
前記検出した光に基づいて画像表示可能領域を決定する演算部と
を備え、
前記ミラー部は、前記レーザ光の投射方向から戻ってきた前記レーザ光の少なくと も一部を前記検出部へ導くために反射する、画像投射装置。
[2] 画像信号に応じて前記レーザ光を変調させるための変調信号を生成する変調部を さらに備え、
前記光源は、前記変調信号に応じて変調した前記レーザ光を出力し、 前記演算部は、前記検出した光の強度と前記変調信号とを比較して、前記画像表 示可能領域を決定する、請求項 1に記載の画像投射装置。
[3] 前記変調部は、前記画像表示可能領域には前記画像信号に応じた画像を表示さ せるための変調信号を生成し、
前記変調部は、前記画像表示可能領域以外の領域には、障害物を検出するため の検出用レーザ光を投射するための変調信号を生成する、請求項 2に記載の画像 投射装置。
[4] 前記演算部が前記画像表示可能領域以外の領域の少なくとも一部で画像表示が 可能と判断した場合は、前記変調部は、画像表示が可能と判断された前記少なくとも 一部の領域に前記画像信号に応じた画像を表示させるための変調信号を生成する 、請求項 3に記載の画像投射装置。
[5] 前記検出用レーザ光はドットパターンで投射される、請求項 3に記載の画像投射装 置。
[6] 前記ミラー部は、前記レーザ光を 2次元に走査させて画像を表示し、 前記演算部は、前記画像表示可能領域の決定処理を走査ライン毎に行な 、、 前記変調部は、前記決定処理の結果を、後に続く走査ラインに対応した前記レー ザ光の変調に反映させる、請求項 3に記載の画像投射装置。
[7] 前記ミラー部は、前記レーザ光を 2次元に走査させて画像を表示し、
前記変調部は、 1つ前の画像フレームの表示時に決定された画像表示可能領域に 基づ 、て、画像フレームの最上端の走査ラインに対応した前記レーザ光を変調する 、請求項 3に記載の画像投射装置。
[8] 前記レーザ光の最大放射パワーは、人間の目を前記レーザ光が走査したときに前 記目に入射するエネルギーが安全基準の定める安全レベル内となる放射パワーであ る、請求項 1に記載の画像投射装置。
[9] 前記レーザ光の最大放射パワーは、人間の目を前記レーザ光が走査したときに前 記目に入射するエネルギーが安全基準の定める安全レベル内となる放射パワーであ り、
前記ドットパターンで投射される前記検出用レーザ光の放射パワーは、画像表示用 のレーザ光の放射パワー以上である、請求項 5に記載の画像投射装置。
[10] 前記画像投射装置の起動時には、画像を表示する前に前記光源は前記検出用レ 一ザ光を投射する、請求項 3に記載の画像投射装置。
[11] 前記光源は、 n原色 (nは 3以上の自然数)それぞれの色のレーザ光を出力し、 前記光源は、前記検出用レーザ光として、前記それぞれの色のレーザ光を独立に 出力する、請求項 3に記載の画像投射装置。
[12] 前記演算部は、前記光源を点灯させないブランク期間に前記検出部で検出された 光の強度にさらに基づ 、て前記画像表示可能領域を決定する、請求項 1に記載の 画像投射装置。
[13] 前記ブランク期間は水平ブランク期間である、請求項 12に記載の画像投射装置。
[14] 前記ブランク期間は垂直ブランク期間である、請求項 12に記載の画像投射装置。
[15] 前記演算部は、前記検出した光に基づいて、前記レーザ光が投射された被投射物 と前記画像投射装置との間の距離を測定し、 前記演算部は、前記距離に基づいて前記被投射物のうちの略平面の領域を検出 し、前記略平面の領域を前記画像表示可能領域に決定する、請求項 1に記載の画 像投射装置。
[16] 前記演算部は、前記距離に基づいて得られる前記被投射物に対応した面を複数 のサブ領域に分割し、前記サブ領域毎に略平面である力否力判定する、請求項 15 に記載の画像投射装置。
[17] 前記演算部は、前記サブ領域内の仮想平面を算出し、前記仮想平面と前記被投 射物との間の距離の分散の度合いが所定値以内である場合に、前記サブ領域を略 平面であると判定する、請求項 16に記載の画像投射装置。
[18] 前記略平面と判定したサブ領域内の前記被投射物の位置情報を保持する記憶部 をさらに備え、
新たに測定した距離と前記位置情報との差が所定値以上である場合には、前記演 算部は、前記差が所定値以上であるサブ領域を非平面領域と再判定し、
前記光源は、前記差が所定値以上であるサブ領域への画像の表示を中断する、 請求項 16に記載の画像投射装置。
[19] 前記演算部は、前記略平面と判定したサブ領域のうち同一平面上に位置するサブ 領域を 1つのグループに分類することで、前記略平面と判定したサブ領域を複数の グループに分け、最も面積が広いグループに属するサブ領域に画像を表示する、請 求項 16に記載の画像投射装置。
[20] 前記略平面と判定したサブ領域内の前記被投射物の位置情報を保持する記憶部 をさらに備え、
前記位置情報は前記距離を新たに測定する毎に更新され、
前記位置情報の示す位置が所定時間変化しない場合に限り、前記光源は、前記 略平面と判定したサブ領域への画像の表示を開始する、請求項 16に記載の画像投 射装置。
[21] 前記演算部は、前記距離に基づいて前記被投射物のプロファイルを算出し、前記 プロファイル力も所定の凹凸より小さい凹凸部分を除去する、請求項 15に記載の画 像投射装置。
[22] 前記演算部は、前記距離に基づいて前記被投射物の曲率を算出し、 前記光源は、前記曲率が所定の範囲内である領域への画像の表示を行わない、 請求項 15に記載の画像投射装置。
[23] 前記演算部は、前記距離に基づいて前記被投射物のプロファイルを算出し、前記 プロファイル力も所定の凹凸より小さい凹凸部分を除去し、
前記演算部は、前記プロファイルに基づいて前記被投射物の曲率を算出する、請 求項 22に記載の画像投射装置。
[24] 前記被投射物表面の温度を測定する温度測定部をさらに備え、
前記画像表示可能領域の温度が所定の範囲内である場合は、前記光源は、前記 温度が所定の範囲内の領域への画像の表示を中断する、請求項 15に記載の画像 投射装置。
[25] 前記温度測定部は、前記距離を測定するために出力するレーザ光の停止期間に、 前記被投射物表面の温度を測定する、請求項 24に記載の画像投射装置。
PCT/JP2006/318739 2005-09-21 2006-09-21 画像投射装置 WO2007034875A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/067,196 US8182093B2 (en) 2005-09-21 2006-09-21 Image projection device including determining displayable region
JP2007536553A JP4885865B2 (ja) 2005-09-21 2006-09-21 画像投射装置
CN200680034982XA CN101268402B (zh) 2005-09-21 2006-09-21 图像投射装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-273321 2005-09-21
JP2005-273319 2005-09-21
JP2005273321 2005-09-21
JP2005273319 2005-09-21

Publications (1)

Publication Number Publication Date
WO2007034875A1 true WO2007034875A1 (ja) 2007-03-29

Family

ID=37888918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318739 WO2007034875A1 (ja) 2005-09-21 2006-09-21 画像投射装置

Country Status (4)

Country Link
US (1) US8182093B2 (ja)
JP (1) JP4885865B2 (ja)
CN (1) CN101268402B (ja)
WO (1) WO2007034875A1 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008261942A (ja) * 2007-04-10 2008-10-30 Sumitomo Electric Ind Ltd 光源装置、プロジェクタ光学系、及びプロジェクタ装置
WO2009031094A1 (en) * 2007-09-04 2009-03-12 Philips Intellectual Property & Standards Gmbh Laser scanning projection device with eye detection unit
JP2009116163A (ja) * 2007-11-08 2009-05-28 Sony Corp 液晶表示素子および投射型液晶表示装置、並びに電子機器
JP2010127972A (ja) * 2008-11-25 2010-06-10 Sharp Corp レーザプロジェクタ装置及びそれを備えた携帯電話端末
JP2010197487A (ja) * 2009-02-23 2010-09-09 Seiko Epson Corp 表示装置
CN101859053A (zh) * 2009-04-08 2010-10-13 三洋电机株式会社 投射型影像显示装置
WO2011037237A1 (ja) * 2009-09-28 2011-03-31 京セラ株式会社 投影装置
EP2061257A3 (en) * 2007-11-14 2011-05-04 Funai Electric Co., Ltd. Image display apparatus and method for displaying image
JP2011145699A (ja) * 2011-03-22 2011-07-28 Necディスプレイソリューションズ株式会社 プロジェクタ
JP2011170097A (ja) * 2010-02-18 2011-09-01 Mitsubishi Electric Corp 画像投影装置および画像表示装置
US20110261260A1 (en) * 2010-04-26 2011-10-27 Microsoft Corporation Projected image enhancement
US20110304833A1 (en) * 2009-02-25 2011-12-15 Kyocera Corporation Mobile electronic device
US20120170095A1 (en) * 2009-05-29 2012-07-05 Intenzity Innovations, Inc. Single mirror optical scanner
JP2013501247A (ja) * 2009-07-31 2013-01-10 レモプティックス ソシエテ アノニム 光学マイクロプロジェクションシステムおよび投影方法
US8696142B2 (en) 2009-02-25 2014-04-15 Kyocera Corporation Mobile electronic device which includes a projector that projects an image on a projection area
JP2014174195A (ja) * 2013-03-06 2014-09-22 Funai Electric Co Ltd プロジェクタ安全装置、これを備えるプロジェクタ、及びプロジェクタ安全制御方法
JP2014174194A (ja) * 2013-03-06 2014-09-22 Funai Electric Co Ltd プロジェクタ安全装置、これを備えるプロジェクタ、及びプロジェクタ安全制御方法
JP2014199450A (ja) * 2014-05-15 2014-10-23 船井電機株式会社 プロジェクタ
JP2015025564A (ja) * 2013-07-24 2015-02-05 パナソニック株式会社 空気調和機
JP2015079168A (ja) * 2013-10-18 2015-04-23 増田 麻言 レーザ光投射装置および投影装置
JP2016024755A (ja) * 2014-07-24 2016-02-08 三菱重工業株式会社 安全確認装置、光照射システム、安全確認方法、及び安全確認プログラム
JP2016532144A (ja) * 2013-06-26 2016-10-13 インテル・コーポレーション 改善された安全性を有する画像を投射する方法および装置
JP2017504047A (ja) * 2013-10-31 2017-02-02 マイクロビジョン,インク. 走査レーザ近接検出
JPWO2016002119A1 (ja) * 2014-07-02 2017-04-27 ソニー株式会社 画像表示装置
WO2017073111A1 (ja) * 2015-10-30 2017-05-04 株式会社Jvcケンウッド 光照射装置および光照射方法
JP2017538302A (ja) * 2014-09-11 2017-12-21 マイクロビジョン,インク. 走査型レーザ平面度検出
JP2017227903A (ja) * 2017-08-10 2017-12-28 インテル・コーポレーション 改善された安全性を有する画像を投射する方法および装置
CN111200232A (zh) * 2018-11-19 2020-05-26 维蒂克影像国际无限责任公司 限制任意激光模板投影的激光曝光的***和方法
JP2021512496A (ja) * 2018-02-01 2021-05-13 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh レーザ光の送信方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7972005B2 (en) * 2007-04-02 2011-07-05 Agere Systems Inc. Computer projector method and apparatus having a safety feature for blacking out a portion of the image being projected onto a person
US8251517B2 (en) * 2007-12-05 2012-08-28 Microvision, Inc. Scanned proximity detection method and apparatus for a scanned image projection system
US8690357B2 (en) * 2008-10-31 2014-04-08 Nec Display Solutions, Ltd. Projector having a light transmitting window movably disposed in-front of the zoom lens and a control method for the same
JP2010250249A (ja) * 2009-03-24 2010-11-04 Sanyo Electric Co Ltd 投写型映像表示装置
JP5669211B2 (ja) * 2009-03-26 2015-02-12 Necディスプレイソリューションズ株式会社 プロジェクタ及びその制御方法
US8585213B2 (en) * 2009-05-28 2013-11-19 Transpacific Image, Llc Projection-type display and control thereof
US8864313B2 (en) * 2009-06-15 2014-10-21 Eastman Kodak Company Dynamic illumination control for laser projection display
JP2011013400A (ja) * 2009-07-01 2011-01-20 Funai Electric Co Ltd プロジェクタ
CN104614924B (zh) * 2010-01-29 2016-10-05 Nec显示器解决方案株式会社 投影仪
JP5424367B2 (ja) 2010-01-29 2014-02-26 Necディスプレイソリューションズ株式会社 照明光学系とこれを用いたプロジェクタ
US20110216205A1 (en) * 2010-03-03 2011-09-08 Christie Digital Systems Usa, Inc. Automatic calibration of projection system using non-visible light
JP2011191633A (ja) * 2010-03-16 2011-09-29 Canon Inc 走査型画像投射装置
US8434873B2 (en) * 2010-03-31 2013-05-07 Hong Kong Applied Science and Technology Research Institute Company Limited Interactive projection device
JP5700963B2 (ja) * 2010-06-29 2015-04-15 キヤノン株式会社 情報処理装置およびその制御方法
JP5803184B2 (ja) * 2010-11-19 2015-11-04 株式会社リコー 画像投影装置、メモリアクセス方法
DE102010063921A1 (de) * 2010-12-22 2012-06-28 Osram Ag Projektionsvorrichtung zum Projizieren mindestens eines Bildes auf eine Projektionsfläche und entsprechendes Verfahren zum Betreiben einer Projektionsvorrichtung
JP2012230321A (ja) * 2011-04-27 2012-11-22 Hitachi Media Electoronics Co Ltd 走査型画像表示装置
DE102011075133A1 (de) * 2011-05-03 2012-11-08 Osram Ag Projektionsvorrichtung zum projizieren mindestens eines bildpunktes und verfahren zum betreiben einer projektionsvorrichtung
JP5517992B2 (ja) * 2011-05-20 2014-06-11 株式会社日立メディアエレクトロニクス 走査型投射装置
DE202011110054U1 (de) * 2011-07-06 2012-10-26 Testo Ag Visualisierungseinrichtung zur Visualisierung eines ortsaufgelösten Messergebnisses
JP5790248B2 (ja) * 2011-07-27 2015-10-07 株式会社リコー 画像投影装置
JP2013065061A (ja) * 2011-09-15 2013-04-11 Funai Electric Co Ltd プロジェクタ
DE102012203682B4 (de) * 2012-03-08 2021-09-23 Osram Gmbh Projektionsvorrichtung
DE102012208113A1 (de) * 2012-05-15 2013-11-21 Robert Bosch Gmbh Lasermodul mit duochromatischer Laserdiode für einen tragbaren Bildprojektor
GB2505708B (en) * 2012-09-11 2015-02-25 Barco Nv Projection system with safety detection
JP6135389B2 (ja) 2012-09-19 2017-05-31 船井電機株式会社 画像表示装置および光学部品
JP6079239B2 (ja) * 2013-01-04 2017-02-15 株式会社Jvcケンウッド 画像表示装置
KR102082702B1 (ko) * 2013-03-28 2020-02-28 엘지전자 주식회사 레이저 영상표시장치
JP2014194495A (ja) * 2013-03-29 2014-10-09 Funai Electric Co Ltd プロジェクタ装置、ヘッドアップディスプレイ装置及びプロジェクタ装置の制御方法
DE102013210536B4 (de) * 2013-06-06 2022-10-27 Siemens Healthcare Gmbh Projektionsvorrichtung und Verfahren zum Betrieb einer Projektionsvorrichtung
KR102138508B1 (ko) * 2013-08-13 2020-07-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
DE102013225566A1 (de) * 2013-12-11 2015-06-11 Robert Bosch Gmbh Mobiler Mikroprojektor
DE102014205702A1 (de) * 2014-03-27 2015-10-01 Siemens Aktiengesellschaft Positionierungseinheit zur Positionierung eines Patienten, bildgebendes Gerät sowie Verfahren zum optischen Erzeugen einer Positionierungshilfe
DE102014108905A1 (de) * 2014-06-25 2015-12-31 Osram Opto Semiconductors Gmbh Projektionsvorrichtung und Verfahren zur Erzeugung eines Projektionsbildes
US9268204B2 (en) * 2014-07-15 2016-02-23 X-Laser LLC Verification of laser projector safety system operation
CN105491359B (zh) * 2014-10-13 2018-07-06 联想(北京)有限公司 投影设备、投影***和投影方法
TWI688789B (zh) * 2014-11-20 2020-03-21 美商英特爾股份有限公司 虛擬影像產生器及投影虛擬影像的方法
CN104598034B (zh) * 2015-02-09 2019-03-29 联想(北京)有限公司 信息处理方法和信息处理设备
JP6822396B2 (ja) * 2015-04-10 2021-01-27 日本電気株式会社 位置特定装置、位置特定方法及びプログラム
US9762873B2 (en) * 2015-09-04 2017-09-12 Microvision, Inc. Dynamic constancy of brightness or size of projected content in a scanning display system
US20170102232A1 (en) * 2015-10-04 2017-04-13 Daniel Roman Prochoda Method and apparatuses for projecting scaled images
US20170150110A1 (en) * 2015-11-25 2017-05-25 Ziv Nevo Projecting an image on an irregularly shaped display surface
EP3229469A1 (de) * 2016-04-06 2017-10-11 Fisba AG Lichtmodul zur emission von licht und verfahren zum emittieren von sichtbarem und nicht-sichtbarem licht
JP6460088B2 (ja) * 2016-12-14 2019-01-30 カシオ計算機株式会社 投影装置、投影方法及びプログラム
US10690923B1 (en) * 2017-06-15 2020-06-23 Facebook Technologies, Llc Scanning system for a tiling display
DE102018200696A1 (de) * 2018-01-17 2019-07-18 Robert Bosch Gmbh Vorrichtung und Verfahren zum Projizieren eines Bildes
CN110211544A (zh) * 2018-04-13 2019-09-06 京东方科技集团股份有限公司 栅极驱动模组、栅极驱动控制方法和显示装置
EP4203466A1 (en) * 2018-05-16 2023-06-28 Dolby Laboratories Licensing Corporation Projector controller and associated method
JP7152897B2 (ja) * 2018-08-02 2022-10-13 キヤノン株式会社 投写装置及びその制御方法ならびにプログラム
US11487105B2 (en) * 2018-12-18 2022-11-01 Microsoft Technology Licensing, Llc Modified slow-scan drive signal
CN110308458B (zh) * 2019-06-27 2021-03-23 Oppo广东移动通信有限公司 调节方法、调节装置、终端及计算机可读存储介质
US11397317B2 (en) * 2019-09-23 2022-07-26 Microvision, Inc. Automatic power reduction using a pre-scanned virtual protective housing
JP2021076719A (ja) * 2019-11-08 2021-05-20 シャープ福山セミコンダクター株式会社 プロジェクタ装置、プロジェクタ装置の制御方法、プログラム、および、記録媒体
CN110798671B (zh) * 2019-11-25 2021-12-24 成都极米科技股份有限公司 投影装置亮度的自适应调节方法及调节***
JP2021105641A (ja) * 2019-12-26 2021-07-26 セイコーエプソン株式会社 プロジェクター
US11143944B2 (en) * 2020-02-04 2021-10-12 Coretronic Corporation Projection device and calibration method thereof
US11630379B2 (en) * 2020-03-03 2023-04-18 Microvision, Inc. Optical power reduction by masking pixels of image content
EP3985433A1 (en) * 2020-10-16 2022-04-20 Barco N.V. Light source device and image projection device having a light source device
CN113794868A (zh) * 2021-09-29 2021-12-14 中国联合网络通信集团有限公司 投影方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031526A (ja) * 2003-07-09 2005-02-03 Sony Corp 投射型画像表示装置
JP2005173097A (ja) * 2003-12-10 2005-06-30 Sony Corp 画像表示装置及びその制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19640404A1 (de) 1996-09-30 1998-04-09 Ldt Gmbh & Co Vorrichtung zur Darstellung von Bildern
JP2003029201A (ja) * 2001-07-11 2003-01-29 Canon Inc 画像投射装置及び画像補正方法
JP3849654B2 (ja) 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
US7111940B2 (en) * 2004-06-04 2006-09-26 Imatte, Inc. Background image control by presenter position

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031526A (ja) * 2003-07-09 2005-02-03 Sony Corp 投射型画像表示装置
JP2005173097A (ja) * 2003-12-10 2005-06-30 Sony Corp 画像表示装置及びその制御方法

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008261942A (ja) * 2007-04-10 2008-10-30 Sumitomo Electric Ind Ltd 光源装置、プロジェクタ光学系、及びプロジェクタ装置
WO2009031094A1 (en) * 2007-09-04 2009-03-12 Philips Intellectual Property & Standards Gmbh Laser scanning projection device with eye detection unit
JP2009116163A (ja) * 2007-11-08 2009-05-28 Sony Corp 液晶表示素子および投射型液晶表示装置、並びに電子機器
EP2061257A3 (en) * 2007-11-14 2011-05-04 Funai Electric Co., Ltd. Image display apparatus and method for displaying image
US8123367B2 (en) 2007-11-14 2012-02-28 Funai Electric Co., Ltd. Image display apparatus and method for displaying image using laser light emission control
JP2010127972A (ja) * 2008-11-25 2010-06-10 Sharp Corp レーザプロジェクタ装置及びそれを備えた携帯電話端末
JP2010197487A (ja) * 2009-02-23 2010-09-09 Seiko Epson Corp 表示装置
US20110304833A1 (en) * 2009-02-25 2011-12-15 Kyocera Corporation Mobile electronic device
US8696142B2 (en) 2009-02-25 2014-04-15 Kyocera Corporation Mobile electronic device which includes a projector that projects an image on a projection area
US8833948B2 (en) * 2009-02-25 2014-09-16 Kyocera Corporation Mobile electronic device
CN101859053A (zh) * 2009-04-08 2010-10-13 三洋电机株式会社 投射型影像显示装置
JP2010243921A (ja) * 2009-04-08 2010-10-28 Sanyo Electric Co Ltd 投写型映像表示装置
US20120170095A1 (en) * 2009-05-29 2012-07-05 Intenzity Innovations, Inc. Single mirror optical scanner
US8786928B2 (en) * 2009-05-29 2014-07-22 Intenzity Innovation Aps Single mirror optical scanner
US9004698B2 (en) 2009-07-31 2015-04-14 Lemoptix Sa Optical micro-projection system and projection method
JP2013501247A (ja) * 2009-07-31 2013-01-10 レモプティックス ソシエテ アノニム 光学マイクロプロジェクションシステムおよび投影方法
US8931907B2 (en) 2009-09-28 2015-01-13 Kyocera Corporation Projecting device for detecting brightness regions of a projecting surface and projecting method therefor
JP2011070136A (ja) * 2009-09-28 2011-04-07 Kyocera Corp 投影装置
WO2011037237A1 (ja) * 2009-09-28 2011-03-31 京セラ株式会社 投影装置
JP2011170097A (ja) * 2010-02-18 2011-09-01 Mitsubishi Electric Corp 画像投影装置および画像表示装置
US8733951B2 (en) * 2010-04-26 2014-05-27 Microsoft Corporation Projected image enhancement
US20110261260A1 (en) * 2010-04-26 2011-10-27 Microsoft Corporation Projected image enhancement
JP2011145699A (ja) * 2011-03-22 2011-07-28 Necディスプレイソリューションズ株式会社 プロジェクタ
JP2014174194A (ja) * 2013-03-06 2014-09-22 Funai Electric Co Ltd プロジェクタ安全装置、これを備えるプロジェクタ、及びプロジェクタ安全制御方法
JP2014174195A (ja) * 2013-03-06 2014-09-22 Funai Electric Co Ltd プロジェクタ安全装置、これを備えるプロジェクタ、及びプロジェクタ安全制御方法
JP2016532144A (ja) * 2013-06-26 2016-10-13 インテル・コーポレーション 改善された安全性を有する画像を投射する方法および装置
JP2015025564A (ja) * 2013-07-24 2015-02-05 パナソニック株式会社 空気調和機
JP2015079168A (ja) * 2013-10-18 2015-04-23 増田 麻言 レーザ光投射装置および投影装置
US9482938B2 (en) 2013-10-18 2016-11-01 Makoto Masuda Laser beam projection apparatus and projector having light source module for combination
JP2017504047A (ja) * 2013-10-31 2017-02-02 マイクロビジョン,インク. 走査レーザ近接検出
JP2014199450A (ja) * 2014-05-15 2014-10-23 船井電機株式会社 プロジェクタ
JPWO2016002119A1 (ja) * 2014-07-02 2017-04-27 ソニー株式会社 画像表示装置
JP2016024755A (ja) * 2014-07-24 2016-02-08 三菱重工業株式会社 安全確認装置、光照射システム、安全確認方法、及び安全確認プログラム
JP2017538302A (ja) * 2014-09-11 2017-12-21 マイクロビジョン,インク. 走査型レーザ平面度検出
WO2017073111A1 (ja) * 2015-10-30 2017-05-04 株式会社Jvcケンウッド 光照射装置および光照射方法
JP2017227903A (ja) * 2017-08-10 2017-12-28 インテル・コーポレーション 改善された安全性を有する画像を投射する方法および装置
JP2021512496A (ja) * 2018-02-01 2021-05-13 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh レーザ光の送信方法
US11527863B2 (en) 2018-02-01 2022-12-13 Robert Bosch Gmbh Method for emitting laser light
CN111200232A (zh) * 2018-11-19 2020-05-26 维蒂克影像国际无限责任公司 限制任意激光模板投影的激光曝光的***和方法

Also Published As

Publication number Publication date
US8182093B2 (en) 2012-05-22
JPWO2007034875A1 (ja) 2009-03-26
JP4885865B2 (ja) 2012-02-29
US20090147224A1 (en) 2009-06-11
CN101268402A (zh) 2008-09-17
CN101268402B (zh) 2010-08-18

Similar Documents

Publication Publication Date Title
JP4885865B2 (ja) 画像投射装置
US6984039B2 (en) Laser projector having silhouette blanking for objects in the output light path
US10218951B2 (en) MEMS scan controlled keystone and distortion correction
US7144117B2 (en) Projection type image display apparatus
US9459448B2 (en) Beam scanning type display apparatus
US9955149B2 (en) Method and device for projecting a 3-D viewable image
JP3735624B2 (ja) 投影表示装置
US7679579B2 (en) Projection type image display apparatus
US10210818B2 (en) Device for projecting an image
US10444519B2 (en) Image projection device
JP2004070298A (ja) 画像投射装置及び画像投射方法
US20180020198A1 (en) Laser projection display system
JP2002328428A (ja) プロジェクタおよび画像投射システム
JP2008268645A (ja) 画像投影装置、携帯端末、及び画像投影方法
US7018055B2 (en) Image projecting device and image projecting method
JP2007324643A (ja) 画像投射装置及び画像投射スクリーン及び画像表示システム
JPH09197249A (ja) 液晶プロジェクタ
JP2009180821A (ja) レーザプロジェクタ
JP2007086266A (ja) 光学ユニット及び画像表示装置
WO2020042907A1 (zh) 一种光纤扫描显示装置及设备、扫描方法
JP7152897B2 (ja) 投写装置及びその制御方法ならびにプログラム
JP4433762B2 (ja) プロジェクション装置及び映像投射方法
JP2010211149A (ja) 画像表示装置
JP2005107456A (ja) 画像表示装置
JP2004184507A (ja) 画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680034982.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2007536553

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12067196

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06810399

Country of ref document: EP

Kind code of ref document: A1