WO2012014690A1 - プロジェクタ - Google Patents

プロジェクタ Download PDF

Info

Publication number
WO2012014690A1
WO2012014690A1 PCT/JP2011/066050 JP2011066050W WO2012014690A1 WO 2012014690 A1 WO2012014690 A1 WO 2012014690A1 JP 2011066050 W JP2011066050 W JP 2011066050W WO 2012014690 A1 WO2012014690 A1 WO 2012014690A1
Authority
WO
WIPO (PCT)
Prior art keywords
laser beam
light
visible
laser
projector
Prior art date
Application number
PCT/JP2011/066050
Other languages
English (en)
French (fr)
Inventor
長島 賢治
Original Assignee
船井電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 船井電機株式会社 filed Critical 船井電機株式会社
Priority to KR1020137004260A priority Critical patent/KR20130094307A/ko
Priority to EP11812282.9A priority patent/EP2600185A4/en
Priority to US13/812,953 priority patent/US20130127717A1/en
Publication of WO2012014690A1 publication Critical patent/WO2012014690A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen

Definitions

  • the present invention relates to a projector, and more particularly, to a projector provided with a laser light generator.
  • a plurality of laser diodes that generate laser beams of three colors of red, green, and blue, and a laser diode that generates infrared laser beams (laser light generation) Part), a rotatable MEMS mirror, and a photodiode for detecting the reflected light of the infrared laser light
  • This laser scanning projector reflects the red, green, and blue laser beams respectively generated from a plurality of laser diodes by the main mirror portion of the MEMS mirror, and scans it by rotating the MEMS mirror, thereby It is configured to project an image on the screen.
  • infrared laser light generated from the laser diode passes through the beam splitter, the first mirror frame of the MEMS mirror, and the reflection mirror to the vicinity (1 mm above the wall surface) on the wall surface. It is comprised so that it may irradiate along the surface. That is, the infrared laser is configured to be irradiated through a path different from the path irradiated with the three colors of red, green, and blue laser beams. The infrared laser light is configured to be scanned horizontally on the wall surface by the rotation of the MEMS mirror.
  • the distance between the finger and the photodiode is measured by detecting the light reflected by the finger with the photodiode. Then, based on the distance between the finger and the photodiode and the coordinates in the horizontal plane of the image irradiated with the three colors of red, green, and blue laser light when the light reflected from the finger is detected.
  • the coordinates on the wall surface touched by the finger are obtained. Thereby, for example, when an icon or the like is projected by laser light of three colors of red, green, and blue, it is possible to detect that the finger touches the icon based on the coordinates on the wall surface touched by the finger. .
  • the present invention has been made to solve the above-described problems, and one object of the present invention is to detect the position of a detection target while suppressing the complexity of the configuration. Providing a simple projector.
  • a projector scans in synchronization with a first laser light generation unit that emits visible laser light, and a visible laser beam emitted from the first laser light generation unit.
  • a first laser light generation unit that emits visible laser light
  • a visible laser beam emitted from the first laser light generation unit By scanning the laser beam of the visible light emitted from the second laser light generating unit that emits invisible light for detecting the position of the object and the first laser light generating unit, an image can be displayed in an arbitrary projection region.
  • a projection unit for projecting, and the optical axes of the visible laser beam irradiated from the first laser beam generator and the invisible laser beam irradiated from the second laser beam generator substantially coincide with each other. It is configured.
  • the optical axes of the visible laser beam irradiated from the first laser beam generator and the invisible laser beam irradiated from the second laser beam generator Is configured so that the visible laser light emitted from the first laser light generating unit projects the invisible laser light emitted from the second laser light generating unit onto the region where the image is projected. Since the irradiation is performed, it is possible to prevent the configuration from becoming complicated because there is no need to separately provide a reflection mirror or the like for irradiating invisible light to the region where the visible laser beam is projected.
  • the position of the detection target can be detected based on detecting invisible laser light reflected by the detection target.
  • the optical axes of the visible laser beam emitted from the first laser beam generator and the invisible laser beam emitted from the second laser beam generator are preferably substantially the same.
  • the projection unit is configured to irradiate visible laser light and non-visible laser light in a matched state. If comprised in this way, an image can be projected on a projection area
  • the visible laser beam emitted from the first laser beam generator and the invisible laser beam emitted from the second laser beam generator are preferably the same scanning path. Are configured to be scanned.
  • the optical axes of the visible laser beam emitted from the first laser beam generator and the invisible laser beam emitted from the second laser beam generator coincide with each other.
  • the position of the detection object can be easily determined based on the scanning path of the visible laser beam emitted from the first laser light generation unit when the invisible laser beam is reflected by the detection object. Can be detected.
  • the projector preferably further includes a photodetector for detecting invisible laser light that is irradiated from the second laser light generation unit and reflected by the detection target.
  • a photodetector for detecting invisible laser light that is irradiated from the second laser light generation unit and reflected by the detection target.
  • a control unit is further provided for detecting the position of the detection target based on the scanning signal of the laser beam of light. If comprised in this way, unlike the case where a position is detected, for example by calculating the distance between a detection target object and a photodetector, based on the scanning signal of the laser beam which a projector originally has, the detection target object is detected. Since the position can be detected, the calculation (calculation) time for detecting the position of the detection target can be shortened.
  • the control unit is preferably configured such that the first detector at the time when the photodetector detects invisible laser light that is emitted from the second laser light generation unit and reflected by the detection target.
  • the coordinates based on the scanning signal of the visible laser beam emitted from the laser beam generation unit are detected as the coordinates of the detection target.
  • the light detector includes a first light detector and a second light detection whose height from the projection region is higher than that of the first light detector.
  • a control unit based on the difference between the intensity of the invisible light detected by the first photodetector and the intensity of the invisible light detected by the second photodetector, It is configured to perform control for calculating the height from the projection area. If comprised in this way, in addition to the position on the plane of a detection target object, the height from a projection area
  • the operation of dragging the icon and the operation of moving the detection target away from the icon are determined, and the icon
  • the icon is dragged, and an image for moving the icon in conjunction with the movement of the detection target is projected.
  • the control unit is based on the height from the projection area of the detection target detected by the first photodetector and the second photodetector. After determining that the height of the detection object from the surface of the projection area is substantially zero and then determining that the detection object is separated from the surface of the projection area, the height at which the detection object is separated from the surface of the projection area When the height is less than a predetermined height, it is determined that the detection target object has dragged the icon projected onto the projection area. If comprised in this way, the image
  • the control unit determines that the detection target object has dragged the icon projected on the projection area, and then detects the projection area of the detection target object detected by the first photodetector and the second photodetector. If it is determined that the height from the surface of the projection area of the detection object is substantially zero based on the height from the detection object, it is determined that the detection object has dropped the icon projected onto the projection area It is configured. If comprised in this way, the image
  • the control unit is based on the height from the projection area of the detection target detected by the first photodetector and the second photodetector. After determining that the height of the detection object from the surface of the projection area is substantially zero and then determining that the detection object is separated from the surface of the projection area, the height at which the detection object is separated from the surface of the projection area When the height is greater than or equal to a predetermined height, it is determined that the detection object has released the icon projected on the projection area. If comprised in this way, the image
  • the detection target is a human finger
  • the light detector is irradiated from the second laser light generation unit and reflected by the human finger as the detection target. It is configured to detect invisible laser light. With this configuration, for example, when a human finger touches the projection area, the position on the projection area touched by the human finger can be detected.
  • the second laser light generation unit preferably includes an infrared laser light generation unit that emits infrared laser light as invisible light. If comprised in this way, the position of a detection target object can be detected with the infrared laser beam as invisible light irradiated from a 2nd laser beam generation part. In addition, even when a black image is displayed in the projection region, infrared laser light as invisible light is reflected by the detection object, so that the position of the detection object can be detected.
  • the first laser light generation unit includes a laser light generation unit that emits red, green, and blue laser beams as visible light. If comprised in this way, a color image can be displayed on a projection area
  • the red, green, and blue visible laser beams emitted from the first laser beam generation unit and the second laser are preferable.
  • the optical axes of the visible laser light and the invisible laser light are configured to substantially coincide with each other. . If comprised in this way, while displaying a color image in a projection area
  • the position of the detection target can be detected by infrared laser light as invisible light.
  • infrared laser light as invisible light.
  • the visible laser beam and the infrared laser beam are located downstream of the reference point.
  • a second laser light generation unit is disposed on the upstream side of the reference point on the extension line of the optical axis substantially coincident with the visible laser beam and the infrared laser beam.
  • each of the red, green, and blue visible laser beams irradiated from the first laser beam generator is reflected.
  • the optical axes of the visible laser beam and the invisible laser beam are reflected by each of them and the invisible laser beam irradiated from the second laser beam generator passes through the plurality of optical members.
  • each of the red, green, and blue visible laser beams irradiated from the first laser beam generator and the invisible laser beam irradiated from the second laser beam generator can be easily made substantially coincident with each other by a plurality of optical members.
  • the amounts of red, green, and blue visible light emitted from the first laser light generation unit are projected images.
  • the amount of infrared light emitted from the second laser light generator is substantially constant. If comprised in this way, while the light quantity of visible light can change, the image which has a light and shade can be projected, and since the light quantity of infrared rays is substantially constant, control for irradiating infrared rays is made easy. be able to.
  • the projection unit In the projector that irradiates the projection unit in a state where the optical axes of the visible laser beam and the invisible laser beam substantially coincide with each other, preferably, the projection unit is arranged in a vertical direction and a horizontal direction of an arbitrary projection region.
  • An optical axis of a visible laser beam irradiated from the first laser beam generator and an invisible laser beam irradiated from the second laser beam generator, including a vibrating mirror that projects an image by scanning. are substantially coincided with each other, visible laser light and non-visible laser light are applied to the vibrating mirror and scanned. If comprised in this way, an image can be projected on a projection area
  • the optical axes of the visible laser beam emitted from the first laser beam generator and the invisible laser beam emitted from the second laser beam generator are preferably substantially the same.
  • a splitter member is further provided for projecting images onto a plurality of projection areas in a matched state.
  • the user uses a projection image projected on one of the plurality of projection areas for operation, and projects the projection image on another projection area among the plurality of projection areas.
  • the projected image thus obtained can be used for presentation (for display).
  • FIG. 1 is a block diagram illustrating a configuration of a projector according to an embodiment of the present invention. It is the flowchart which showed operation
  • FIGS. 1 and 2 A configuration of a projector 100 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.
  • a projector 100 is configured to be used by being placed on a table 1 as shown in FIG.
  • the projector 100 is configured to project (2D display (planar display)) an image 2a for presentation (display) toward a projection area such as the screen 2.
  • the table 1 and the screen 2 are examples of the “projection area” in the present invention.
  • the projector 100 is configured such that an image 1a similar to the presentation image 2a is projected (2D display (planar display)) on the upper surface of a projection area such as the table 1.
  • the size of the image 1a projected on the table 1 is projected so as to be smaller than the size of the image 2a projected on the screen 2.
  • two infrared detectors 10a and 10b for detecting infrared laser light are provided on the side surface of the projector 100 on which the image 1a is projected.
  • the infrared detector 10b is arranged so that the height of the infrared detector 10b from the surface of the table 1 is larger than the height of the infrared detector 10a from the surface of the table 1.
  • the infrared detector 10a is an example of the “first photodetector” in the present invention
  • the infrared detector 10b is an example of the “second photodetector” in the present invention.
  • the projector 100 includes an operation panel 20, a control processing block 30, a data processing block 40, a digital signal processor (DSP) 50, a laser light source 60, a video RAM (SD RAM) 71, Beam splitter 80 and two magnifying lenses 90 and 91.
  • the beam splitter 80 is an example of the “splitter member” in the present invention.
  • the control processing block 30 includes a control unit 31 that controls the entire projector 100, a video I / F 32 that is an interface (I / F) for receiving an external video signal, an SD-RAM 33, and an external I / F 34. including.
  • the data processing block 40 includes a data / gradation converter 41, a bit data converter 42, a timing controller 43, and a data controller 44.
  • the digital signal processor 50 includes a mirror servo block 51 and a converter 52.
  • the laser light source 60 includes a red laser control circuit 61, a green laser control circuit 62, a blue laser control circuit 63, and an infrared laser control circuit 64. Also, red laser light that irradiates red laser light (visible laser light) to the red laser control circuit 61, the green laser control circuit 62, the blue laser control circuit 63, and the infrared laser control circuit 64, respectively.
  • red laser light that irradiates red laser light (visible laser light) to the red laser control circuit 61, the green laser control circuit 62, the blue laser control circuit 63, and the infrared laser control circuit 64, respectively.
  • An infrared LD 64a is connected.
  • the optical axes when the red LD 61a, the green LD 62a, the blue LD 63a, and the infrared LD 64a are incident on the MEMS mirror 69a of the laser light are configured to substantially coincide with each other.
  • the red LD 61a, the green LD 62a, the blue LD 63a, and the infrared LD 64a are configured to operate in synchronization.
  • the red, green, and blue laser beams emitted from the red LD 61a, green LD 62a, and blue LD 63a are scanned to project images 1a and 2a on the table 1 and the screen 2, respectively.
  • the laser light emitted from each of the red LD 61a, the green LD 62a, and the blue LD 63a and the infrared laser light emitted from the infrared LD 64a are combined on the same optical axis, so that the optical axes substantially coincide with each other.
  • the same scanning path is scanned. That is, the position (coordinates) of the laser light emitted from the red LD 61a, the green LD 62a, and the blue LD 63a on the table 1 is the same as the position (coordinates) of the infrared laser light emitted from the infrared LD 64a. It is configured.
  • the infrared detectors 10a and 10b detect light emitted from the infrared detectors 10a and 10b.
  • the light amounts of the red, green, and blue laser beams emitted from the red LD 61a, the green LD 62a, and the blue LD 63a change according to the projected image, while the light amounts of the infrared laser beams emitted from the infrared LD 64a. Is substantially constant.
  • the red LD 61a, the green LD 62a, and the blue LD 63a are examples of the “first laser light generation unit” of the present invention, and the infrared LD 64a is an example of the “second laser light generation unit” of the present invention.
  • the laser light source 60 includes four collimating lenses 65, three polarizing beam splitters 66a, 66b and 66c, a photodetector 67, a lens 68, and a MEMS mirror 69a for scanning the laser light in the horizontal direction. , A MEMS mirror 69b for scanning the laser beam in the vertical direction, and an actuator 70 for driving the MEMS mirror 69a and the MEMS mirror 69b in the horizontal direction and the vertical direction.
  • the MEMS mirrors 69a and 69b are examples of the “projection unit” and “vibration mirror” of the present invention.
  • the polarization beam splitters 66a, 66b and 66c are examples of the “optical member” of the present invention.
  • Each of the visible laser beams emitted from the red LD 61a, the green LD 62a, and the blue LD 63a is reflected by changing the direction by about 90 degrees by each of the three polarization beam splitters 66a, 66b, and 66c, and from the infrared LD 64a.
  • the irradiated infrared laser light passes through the three polarization beam splitters 66a, 66b, and 66c, so that the optical axes of the visible laser light and the infrared laser light are substantially aligned.
  • the reference point (the central point of the polarization beam splitter 66c) where each of the visible laser light emitted from the red LD 61a, the green LD 62a, and the blue LD 63a and the infrared laser light emitted from the infrared LD 64a is combined.
  • the optical axes of the visible laser beam and the infrared laser beam substantially coincide with each other on the downstream side with respect to the reference point (the side where the MEMS mirrors 69a and 69b of the polarization beam splitter 66c are disposed). It is configured.
  • the infrared LD 64a is upstream of the reference point on the extension line of the optical axis where the visible laser beam and the infrared laser beam substantially coincide (on the side where the MEMS mirrors 69a and 69b of the polarization beam splitter 66c are disposed). Is arranged on the opposite side).
  • the operation panel 20 is provided on the surface or side surface of the casing of the projector 100.
  • Operation panel 20 includes, for example, a display device (not shown) for displaying operation details, a switch for receiving an operation input to projector 100, and the like.
  • the operation panel 20 is configured to transmit a signal corresponding to the operation content to the control unit 31 of the control processing block 30 when receiving an operation from the user.
  • the external video signal given from the outside of the projector 100 is configured to be input to the Video I / F 32.
  • the external I / F 34 is configured to be capable of mounting a memory such as an SD card 92, for example.
  • the control unit 31 is configured to read data from the SD card 92 and store the read data in the video RAM 71.
  • control unit 31 is configured to control display of video based on image data temporarily held in the Video RAM 71 by communicating with the timing controller 43 of the data processing block 40.
  • the timing controller 43 is configured to read data held in the video RAM 71 via the data controller 44 based on a signal output from the control unit 31.
  • the data controller 44 is configured to transmit the read data to the bit data converter 42.
  • the bit data converter 42 is configured to transmit data to the data / gradation converter 41 based on a signal from the timing controller 43.
  • the bit data converter 42 has a function of converting image data given from the outside into data suitable for a format that can be projected by laser light.
  • the timing controller 43 is connected to the infrared laser control circuit 64, and controls the infrared laser so that the laser light is emitted from the infrared LD 64a in synchronization with the laser light emitted from the red LD 61a, the green LD 62a, and the blue LD 63a. A signal is transmitted to the circuit 64.
  • the data / gradation converter 41 converts the data output from the bit data converter 42 into gradations of three colors of red (R: Red), green (G: Green), and blue (B: Blue), The converted data is transmitted to the red laser control circuit 61, the green laser control circuit 62, and the blue laser control circuit 63, respectively.
  • the red laser control circuit 61 is configured to transmit data from the data / gradation converter 41 to the red LD 61a.
  • the green laser control circuit 62 is configured to transmit data from the data / gradation converter 41 to the green LD 62a.
  • the blue laser control circuit 63 is configured to transmit data from the data / gradation converter 41 to the blue LD 63a.
  • an adder 11 and a subtracter 12 are connected to the two infrared detectors 10a and 10b provided on the side surface of the projector 100 on which the image 1a is projected.
  • the adder 11 has a function of adding the intensity of light detected by the infrared detector 10a and the intensity of light detected by the infrared detector 10b.
  • the subtractor 12 has a function of subtracting the light intensity detected by the infrared detector 10a and the light intensity detected by the infrared detector 10b.
  • the signals output from the adder 11 and the subtractor 12 are configured to be input to the control unit 31 via the converter 52.
  • the control unit 31 is configured to calculate the height of the detection object from the table 1 based on the intensity difference of the reflected light from the detection object (user's finger) detected by the infrared detectors 10a and 10b. ing. And the control part 31 discriminate
  • control unit 31 when the projector 100 detects the detection target will be described with reference to FIGS. 1 and 3 to 10.
  • red, green, and blue laser beams are emitted from red LD 61a, green LD 62a, and blue LD 63a (see FIG. 2), respectively, and the laser beam is scanned to scan table 1 and screen 2 Images 1a and 2a are projected on the top, respectively. For example, an image such as an icon is projected on the table 1 and the screen 2. Further, in synchronization with the red LD 61a, the green LD 62a, and the blue LD 63a, the infrared laser beam is irradiated from the infrared LD 64a and the laser beam is scanned. As shown in FIG.
  • step S1 whether or not the infrared laser light emitted from the infrared LD 64a and reflected by the detection target (for example, the user's finger) is detected by the infrared detectors 10a and 10b. To be judged. If the infrared laser light reflected by the detection target is not detected by the infrared detectors 10a and 10b, the operation of step S1 is repeated.
  • step S1 If it is determined in step S1 that the infrared laser light reflected by the detection target is detected by the infrared detectors 10a and 10b, the process proceeds to step S2.
  • step S2 in the present embodiment, the image scanned with the laser light emitted from the red LD 61a, the green LD 62a, and the blue LD 63a at the time when the infrared detectors 10a and 10b detect the reflected light from the detection target.
  • the coordinates 1a (table 1 coordinates) are determined as the coordinates on the table 1 of the detection target.
  • the intensity of the reflected light from the fingernail is greater than the intensity of the reflected light from the finger skin.
  • the intensity of the reflected light from the detection objects detected by the infrared detectors 10a and 10b is added by the adder 11 (see FIG. 2), and the added reflected light has the highest intensity (reflected from the finger).
  • the coordinates of the image 1a irradiated from the red LD 61a, the green LD 62a, and the blue LD 63a at the time of the detection) are determined as the coordinates on the table 1 of the detection target, thereby identifying the part of the image touched by the user's finger It becomes possible to do.
  • the height of the detection object from the table 1 is calculated based on the intensity difference of the reflected light from the detection object detected by the infrared detectors 10a and 10b.
  • the intensity of the reflected light from the detection target detected by the infrared detector 10a is The intensity of the reflected light from the detection object detected by the infrared detector 10b provided at a position higher than that of the infrared detector 10a increases as the distance to the detection object decreases.
  • the intensity of the reflected light from the detection target detected by the infrared detector 10b is infrared.
  • the intensity of the reflected light from the detection object detected by the infrared detector 10a provided at a position lower than that of the detector 10b is larger because the distance to the detection object is smaller.
  • the intensity of the reflected light detected by the infrared detectors 10a and 10b is different. Therefore, the reflected light detected by the infrared detectors 10a and 10b.
  • the height of the detection object from the surface of the table 1 can be calculated based on the magnitude of the difference in intensity.
  • step S4 it is determined whether or not the detection object touches the surface of the table 1 (whether or not the height of the detection object from the surface of the table 1 is zero). If it is determined in step S4 that the detection object does not touch the surface of the table 1, the process returns to step S1. That is, the operations of Steps S1 to S4 are repeated until the detection object touches the surface of the table 1. If it is determined in step S4 that the detection object has touched the surface of the table 1, the process proceeds to step S5 to determine whether or not the detection object has moved in the horizontal direction on the surface of the table 1. . That is, as shown in FIG. 6, it is determined whether or not the detection object has moved on the surface of the table 1 while the height from the surface of the table 1 remains zero.
  • step S6 If it is determined that the detection target has moved horizontally on the surface of the table 1, the process proceeds to step S6, and the pointer is moved in conjunction with the movement of the detection target as shown in FIG. The image to be projected is projected onto the table 1 and the screen 2. Then, it returns to step S1.
  • step S5 If it is determined in step S5 that the detection target does not move on the surface of the table 1 in the horizontal direction, the process proceeds to step S7 to determine whether or not the detection target is separated from the surface of the table 1 (detection target). Whether or not the height of the object from the surface of the table 1 is greater than zero). Note that the coordinates of the detection target on the table 1 correspond to the icon image. If it is determined in step S7 that the detection target is separated from the surface of the table 1, the process proceeds to step S8, and whether or not the distance that the detection target is separated from the surface of the table 1 is a predetermined distance or more. Is judged.
  • step S8 if it is determined that the distance that the detection target is separated from the surface of the table 1 is less than a predetermined distance (see state A in FIG. 8), the process proceeds to step S9, and the detection target (user's finger) ) Is dragged on the icon projected on the table 1. Then, as shown in FIG. 9, a video for dragging the icon is projected on the table 1 (screen 2). Thereafter, the icon image is moved in conjunction with the movement of the detection target (state B in FIG. 8). If it is determined in step S10 that the detection object has touched the surface of the table 1, it is determined in step S11 that the icon has been dropped. Then, an image for dropping the icon is projected on the table 1 (screen 2). Then, it returns to step S1.
  • step S8 when it is determined that the distance that the detection target is separated from the surface of the table 1 is a predetermined distance or more (see FIG. 10), the detection target (user's finger) is projected on the table 1. It is determined that the icon is released. Then, it returns to step S1.
  • the optical axes of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a and the invisible infrared laser beam emitted from the infrared LD 64a are substantially the same.
  • the laser beams of the three colors red, green, and blue are irradiated with the infrared laser light, the laser beams of the three colors red, green, and blue are imaged. Since it is not necessary to separately provide a reflection mirror or the like for irradiating an infrared laser beam to the region where the light is projected, it is possible to prevent the configuration from becoming complicated.
  • infrared LD 64a that emits invisible light for detecting the position of the detection target (user's finger), which is scanned in synchronization with the visible laser beam emitted from each of red LD 61a, green LD 62a, and blue LD 63a.
  • the position of the detection target (user's finger) can be detected based on detecting the invisible infrared laser beam reflected by the detection target (user's finger).
  • the optical axes of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a and the infrared laser beam emitted from the infrared LD 64a are substantially matched.
  • the optical axes of the visible laser light and the invisible infrared laser light are substantially matched.
  • the image 1a (2a) can be projected onto the table 1 (screen 2) by the MEMS mirrors 69a and 69b.
  • the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a is the same as the invisible infrared laser beam emitted from the infrared LD 64a.
  • the optical axes of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a respectively coincide with the invisible infrared laser beam emitted from the infrared LD 64a.
  • the infrared detector 10a detects the invisible infrared laser beam irradiated from the infrared LD 64a and reflected by the detection target (user's finger). Even when the color of the detection target is black, the infrared light of the invisible light reflected by the detection target can be detected by the infrared detector 10a. The position of the detection target (user's finger) can be detected based on the detection of the laser beam.
  • the control unit 31 detects the invisible infrared laser beam irradiated from the infrared LD 64a and reflected by the detection target (user's finger) by the infrared detector 10a.
  • the position of the detection target (user's finger) can be detected based on the scanning signal of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a at the time, for example.
  • the position of the detection object can be detected based on the scanning signal of the laser beam originally possessed by the projector.
  • the calculation (calculation) time for detecting the position of the detection object can be shortened.
  • the control unit 31 detects the invisible infrared laser beam irradiated from the infrared LD 64a and reflected by the detection target (user's finger) by the infrared detector 10a.
  • the coordinates based on the scanning signal of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a at the time of the detection are detected as the coordinates of the detection target (user's finger). Since the coordinates (position) of the detection target can be detected based on the scanning signal of the laser beam originally possessed by, the calculation (calculation) time for detecting the coordinates (position) of the detection target can be shortened.
  • the user's finger Since the height from the table 1 is detected in addition to the position on the plane of the user's finger by calculating the height from the table 1, the three-dimensional position of the user's finger can be detected. .
  • the operation of dragging the icon and the user's finger move away from the icon.
  • Table 1 for selecting an icon by determining an action and projecting a video of moving the icon in conjunction with the movement of the user's finger when the icon is determined to be dragged.
  • the height of the user's finger from the surface of the table 1 is approximately based on the height of the user's finger from the table 1 detected by the infrared detectors 10a and 10b.
  • the control unit 31 determines that the icon projected on the table 1 has been dragged, it is possible to easily project an image in which the icon is dragged based on the operation of the user's finger.
  • the control unit 31 determines that the icon projected by the user's finger has been dropped on the table 1.
  • the height of the user's finger from the surface of the table 1 is approximately based on the height of the user's finger from the table 1 detected by the infrared detectors 10a and 10b.
  • the control unit 31 determines that the icon projected on the table 1 has been released, it is possible to easily project an image in which the icon is released based on the operation of the user's finger.
  • the infrared detectors 10a and 10b detect the infrared laser light emitted from the infrared LD 64a and reflected by the user's finger, so that the user's finger is placed on the table 1. When touching, the position on the table 1 touched by the user's finger can be detected.
  • the first laser light generation unit of the present invention includes the red LD 61a, the green LD 62a, and the blue LD 63a that respectively radiate red, green, and blue laser light as visible light
  • the second laser light generation unit of the present invention includes an infrared LD 64a that irradiates infrared laser light as invisible light, so that red, green as visible light emitted from the red LD 61a, green LD 62a, and blue LD 63a, respectively.
  • a color image can be displayed on the table 1 by the blue laser light, and the position of the detection target (user's finger) can be detected by the infrared laser light as invisible light emitted from the infrared LD 64a.
  • the position of the detection target can be detected.
  • the reference point is the point where the infrared laser light emitted from the infrared LD 64a is combined
  • the visible laser light and the infrared light are transmitted downstream of the reference point.
  • the irradiated infrared laser light it is not necessary to change the optical axis, and therefore it is not necessary to provide a member for changing the optical axis of the infrared laser light irradiated from the infrared LD 64a. Thereby, since it is not necessary to provide a member that changes the optical axis, it is possible to prevent the configuration of the projector 100 from becoming complicated.
  • each of the visible laser beams emitted from the red LD 61a, the green LD 62a, and the blue LD 63a is reflected by each of the three polarization beam splitters 66a, 66b, and 66c, and the infrared rays are reflected.
  • the infrared laser light emitted from the LD 64a is transmitted through the three polarization beam splitters 66a, 66b, and 66c so that the optical axes of the visible laser light and the infrared laser light are substantially matched, thereby the red LD 61a, Three polarization beam splitters 66a are used for the optical axes of the red, green, and blue visible laser beams emitted from the green LD 62a and the blue LD 63a and the invisible infrared laser beam emitted from the infrared LD 64a, respectively. 66b and 66c can be easily matched. That.
  • the amount of red, green, and blue visible light emitted from the red LD 61a, the green LD 62a, and the blue LD 63a changes according to the projected image 1a (2a). Since the amount of infrared light emitted from the infrared LD 64a is substantially constant, the image 1a (2a) having a light and shade can be projected by changing the amount of visible light, and the amount of infrared light is substantially constant. Therefore, control for irradiating infrared laser light can be facilitated.
  • the optical axes of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a and the infrared laser beam emitted from the infrared LD 64a are substantially matched.
  • the MEMS lasers 69a and 69b are scanned with the visible laser beam and the infrared laser beam so that the optical axes of the visible laser beam and the infrared laser beam are substantially aligned with each other.
  • the image 1a (2a) can be projected onto the table 1 (screen 2) by the mirrors 69a and 69b.
  • the optical axes of the visible laser beam emitted from the red LD 61a, the green LD 62a, and the blue LD 63a and the infrared laser beam emitted from the infrared LD 64a are substantially matched.
  • an image is projected by irradiating laser beams of three colors of red, green, and blue is shown, but the present invention is not limited to this.
  • an image may be projected with laser light of one color or two colors, or an image may be projected with laser light of four or more colors.
  • the position (coordinates) of the detection target is detected by irradiating the infrared laser beam
  • the present invention is not limited to this.
  • the position (coordinates) of the detection target may be detected by invisible laser light other than infrared laser light.
  • the projector is provided with two infrared detectors, but the present invention is not limited to this.
  • the projector may be provided with one or more infrared detectors.
  • the position (coordinates) of the detection target is calculated based on the difference in the intensity of light detected by the infrared detector
  • the present invention is not limited to this.
  • the position (coordinates) of the detection target may be calculated by a method other than the calculation based on the difference in intensity of light detected by the infrared detector.
  • the present invention is not limited to this.
  • the coordinates (two-dimensional coordinates) of the detection target on the table 1 may be obtained.
  • one infrared detector may be provided in the projector.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

 構成が複雑化するのを抑制しながら、検出対象物の位置を検知することが可能なプロジェクタを提供する。このプロジェクタ(100)は、第1レーザ光発生部(61a、62a、63a)から照射される可視光のレーザ光と、第2レーザ光発生部(64a)から照射される非可視光のレーザ光との光軸が略一致するように構成されている。

Description

プロジェクタ
 この発明は、プロジェクタに関し、特に、レーザ光発生部を備えるプロジェクタに関する。
 従来、レーザ光発生部を備えるプロジェクタが知られている。このようなプロジェクタは、たとえば、特開2009-258569号公報に開示されている。
 上記特開2009-258569号公報には、赤、緑および青の3色のレーザ光をそれぞれ発生させる複数のレーザダイオード(レーザ光発生部)と、赤外線レーザ光を発生させるレーザダイオード(レーザ光発生部)と、回転可能なMEMSミラーと、赤外線レーザ光の反射光を検出するフォトダイオードとを備えるレーザ走査型プロジェクタが開示されている。このレーザ走査型プロジェクタは、複数のレーザダイオードからそれぞれ発生される赤、緑および青の3色のレーザ光をMEMSミラーのメインミラー部によって反射させるとともに、MEMSミラーの回転によって走査させることにより、壁面などに画像を投影するように構成されている。
 また、このレーザ走査型プロジェクタでは、レーザダイオードから発生される赤外線レーザ光は、ビームスプリッタ、MEMSミラーの第1ミラーフレームおよび反射ミラーを介して、壁面上の近傍(壁面から1mm上)を壁面の表面に沿って照射させるように構成されている。つまり、赤外線レーザは、赤、緑および青の3色のレーザ光の照射される経路とは異なる経路を介して照射されるように構成されている。なお、赤外線レーザ光は、MEMSミラーの回転により、壁面上を水平に走査されるように構成されている。これにより、壁面上をユーザの指が触れた場合に、指により反射される光をフォトダイオードで検出することにより、指とフォトダイオードとの間の距離を測定するように構成されている。そして、指とフォトダイオードとの間の距離と、指から反射される光が検出された時点での赤、緑および青の3色のレーザ光が照射する画像の水平面内の座標とに基づいて、指が触れた壁面上の座標が求められる。これにより、たとえば赤、緑および青の3色のレーザ光によりアイコンなどを投影した場合、指が触れた壁面上の座標に基づいて、指がアイコンを触れたことを検出することが可能となる。
特開2009-258569号公報
 しかしながら、上記特開2009-258569号公報に記載のレーザ走査型プロジェクタでは、投影された画像のうちユーザの指(検出対象物)を検知するための赤外線レーザ光が照射される経路と、赤、緑および青の3色のレーザ光が照射される経路とが異なるため、赤、緑および青の3色のレーザ光が画像を投影する領域に赤外線レーザ光を照射するために反射ミラーなどを別途設ける必要がある。このため、構成が複雑化するという問題点がある。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、構成が複雑化するのを抑制しながら、検出対象物の位置を検知することが可能なプロジェクタを提供することである。
課題を解決するための手段および発明の効果
 この発明の一の局面によるプロジェクタは、可視光のレーザ光を照射する第1レーザ光発生部と、第1レーザ光発生部から照射される可視光のレーザ光と同期して走査され、検出対象物の位置を検知するための非可視光を照射する第2レーザ光発生部と、第1レーザ光発生部から照射される可視光のレーザ光を走査させることにより、任意の投影領域に画像を投影する投影部とを備え、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が略一致するように構成されている。
 この一の局面によるプロジェクタでは、上記のように、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が略一致するように構成することによって、第1レーザ光発生部から照射される可視光のレーザ光が画像を投影する領域に第2レーザ光発生部から照射される非可視光のレーザ光が照射されるので、可視光のレーザ光が画像を投影する領域に非可視光を照射するための反射ミラーなどを別途設ける必要がない分、構成が複雑化するのを抑制することができる。また、第1レーザ光発生部から照射される可視光のレーザ光と同期して走査され、検出対象物の位置を検知するための非可視光を照射する第2レーザ光発生部を備えることによって、たとえば、検出対象物により反射される非可視光のレーザ光を検知することに基づいて、検出対象物の位置を検知することができる。
 上記一の局面によるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が略一致した状態で、可視光のレーザ光および非可視光のレーザ光が投影部に照射されるように構成されている。このように構成すれば、可視光のレーザ光と非可視光のレーザ光との光軸を略一致させた状態で投影部により画像を投影領域に投影することができる。
 上記一の局面によるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光とは、同じ走査経路を走査されるように構成されている。このように構成すれば、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が一致しているので、たとえば、検出対象物により非可視光のレーザ光が反射された時点での第1レーザ光発生部から照射される可視光のレーザ光の走査経路に基づいて、容易に、検出対象物の位置を検知することができる。
 上記一の局面によるプロジェクタにおいて、好ましくは、第2レーザ光発生部から照射され、検出対象物により反射される非可視光のレーザ光を検知するための光検出器をさらに備える。このように構成すれば、検出対象物の色が黒である場合でも、検出対象物により反射される非可視光のレーザ光を光検出器により検知することができるので、光検出器の非可視光のレーザ光の検知に基づいて、検出対象物の位置を検知することができる。
 この場合、好ましくは、第2レーザ光発生部から照射され、検出対象物により反射される非可視光のレーザ光を光検出器が検知した時点での第1レーザ光発生部から照射される可視光のレーザ光の走査信号に基づいて、検出対象物の位置を検知する制御部をさらに備える。このように構成すれば、たとえば、検出対象物と光検出器との間の距離を算出することによって位置を検出する場合と異なり、プロジェクタが元々有するレーザ光の走査信号に基づいて検出対象物の位置を検出することができるので、検出対象物の位置を検出する演算(算出)時間を短縮することができる。
 上記制御部を備えるプロジェクタにおいて、好ましくは、制御部は、第2レーザ光発生部から照射され、検出対象物により反射される非可視光のレーザ光を光検出器が検知した時点での第1レーザ光発生部から照射される可視光のレーザ光の走査信号に基づく座標を検出対象物の座標として検知するように構成されている。このように構成すれば、プロジェクタが元々有するレーザ光の走査信号に基づいて検出対象物の座標(位置)を検出できるので、検出対象物の座標(位置)を検出する演算(算出)時間を短縮することができる。
 上記検出対象物の位置を検知する制御部を備えるプロジェクタにおいて、好ましくは、光検出器は、第1光検出器と、投影領域からの高さが第1光検出器よりも高い第2光検出器とを含み、制御部は、第1光検出器により検出される非可視光の強度と、第2光検出器により検出される非可視光の強度との差に基づいて、検出対象物の投影領域からの高さを算出する制御を行うように構成されている。このように構成すれば、検出対象物の平面上の位置に加えて、投影領域からの高さも検出されるので、検出対象物の3次元の位置を検出することができる。
 この場合、好ましくは、第1レーザ光発生部から照射される可視光のレーザ光を走査させることにより、投影領域にアイコンに対応する画像を投影するように構成されており、制御部は、第1光検出器および第2光検出器により検出される検出対象物の投影領域からの高さに基づいて、アイコンをドラッグする動作と、アイコンから検出対象物が離れる動作とを判別するとともに、アイコンをドラッグしたと判別した場合に、アイコンをドラッグするとともに検出対象物の移動に連動してアイコンを移動する映像を投影するように構成されている。このように構成すれば、アイコンを選択するような投影領域上の動作に加えて、アイコンをドラッグするような投影領域からある程度離れた高さ位置での動作も行うことができるので、操作可能な動作の種類を多くすることができる。
 上記投影領域にアイコンに対応する画像を投影するプロジェクタにおいて、好ましくは、制御部は、第1光検出器および第2光検出器により検出される検出対象物の投影領域からの高さに基づいて、検出対象物の投影領域の表面からの高さが略ゼロであると判断した後、検出対象物が投影領域の表面から離れたと判断した際、検出対象物が投影領域の表面から離れた高さが所定の高さ未満の場合には、検出対象物が投影領域に投影されるアイコンをドラッグしたと判断するように構成されている。このように構成すれば、検出対象物の動作に基づいて容易にアイコンをドラッグした映像を投影することができる。
 この場合、好ましくは、制御部は、検出対象物が投影領域に投影されるアイコンをドラッグしたと判断した後、第1光検出器および第2光検出器により検出される検出対象物の投影領域からの高さに基づいて、検出対象物の投影領域の表面からの高さが略ゼロであると判断した場合には、検出対象物が投影領域に投影されるアイコンをドロップしたと判断するように構成されている。このように構成すれば、検出対象物の動作に基づいて容易にアイコンをドロップした映像を投影することができる。
 上記投影領域にアイコンに対応する画像を投影するプロジェクタにおいて、好ましくは、制御部は、第1光検出器および第2光検出器により検出される検出対象物の投影領域からの高さに基づいて、検出対象物の投影領域の表面からの高さが略ゼロであると判断した後、検出対象物が投影領域の表面から離れたと判断した際、検出対象物が投影領域の表面から離れた高さが所定の高さ以上の場合には、検出対象物が投影領域に投影されるアイコンを離したと判断するように構成されている。このように構成すれば、検出対象物の動作に基づいて容易にアイコンを離した映像を投影することができる。
 上記光検出器を備えるプロジェクタにおいて、好ましくは、検出対象物は、人間の指であり、光検出器は、第2レーザ光発生部から照射され、検出対象物としての人間の指により反射される非可視光のレーザ光を検知するように構成されている。このように構成すれば、たとえば、人間の指が投影領域に触れている場合に、人間の指が触れている投影領域上の位置を検知することができる。
 上記一の局面によるプロジェクタにおいて、好ましくは、第2レーザ光発生部は、非可視光としての赤外線のレーザ光を照射する赤外線レーザ光発生部を含む。このように構成すれば、第2レーザ光発生部から照射される非可視光としての赤外線のレーザ光により検出対象物の位置を検知することができる。また、投影領域に黒色の画像が表示された場合にも、非可視光としての赤外線のレーザ光が検出対象物により反射されるので、検出対象物の位置を検知することができる。
 この場合、好ましくは、第1レーザ光発生部は、可視光としての赤色、緑色および青色のレーザ光を照射するレーザ光発生部を含む。このように構成すれば、第1レーザ光発生部から照射される可視光としての赤色、緑色および青色のレーザ光により投影領域にカラーの画像を表示することができる。
 上記赤色、緑色および青色のレーザ光を照射するレーザ光発生部を備えるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光と、第2レーザ光発生部から照射される赤外線のレーザ光とが同一光軸上に合成されることにより、可視光のレーザ光と非可視光のレーザ光との光軸が略一致するように構成されている。このように構成すれば、第1レーザ光発生部から照射される可視光としての赤色、緑色および青色のレーザ光により投影領域にカラーの画像を表示するとともに、第2レーザ光発生部から照射される非可視光としての赤外線のレーザ光により検出対象物の位置を検知することができる。また、可視光としての赤色、緑色および青色のレーザ光により投影領域に黒色の画像が表示された場合にも、非可視光としての赤外線のレーザ光が検出対象物により反射されるので、検出対象物の位置を検知することができる。
 上記可視光のレーザ光と非可視光のレーザ光との光軸が略一致するように構成されたプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光と、第2レーザ光発生部から照射される赤外線のレーザ光とが合成される点を基準点とした場合に、基準点に対する下流側において可視光のレーザ光と赤外線のレーザ光との光軸が略一致するとともに、可視光のレーザ光と赤外線のレーザ光との略一致する光軸の延長線上の基準点に対する上流側に第2レーザ光発生部が配置されている。このように構成すれば、第2レーザ光発生部から照射される赤外線のレーザ光については、光軸を変化させる必要がないので、第2レーザ光発生部から照射される赤外線のレーザ光の光軸を変化させる部材を設ける必要がない。これにより、光軸を変化させる部材を設ける必要がない分、プロジェクタの構成が複雑化するのを抑制することができる。
 上記赤色、緑色および青色のレーザ光を照射するレーザ光発生部を備えるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光の各々を反射させるとともに、第2レーザ光発生部から照射される赤外線のレーザ光を透過させる複数の光学部材をさらに備え、第1レーザ光発生部から照射される可視光のレーザ光の各々が複数の光学部材の各々により反射されるとともに、第2レーザ光発生部から照射される非可視光のレーザ光が複数の光学部材を透過することにより、可視光のレーザ光と非可視光のレーザ光との光軸が略一致するように構成されている。このように構成すれば、第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光の各々と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸を複数の光学部材により、容易に、略一致させることができる。
 上記赤色、緑色および青色のレーザ光を照射するレーザ光発生部を備えるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される赤色、緑色および青色の可視光の光量は、投影される画像に応じて変化するとともに、第2レーザ光発生部から照射される赤外線の光量は、略一定である。このように構成すれば、可視光の光量が変化することにより濃淡を有する画像を投影することができるとともに、赤外線の光量が略一定であることにより、赤外線を照射するための制御を容易にすることができる。
 上記可視光のレーザ光と非可視光のレーザ光との光軸が略一致した状態で投影部に照射されるプロジェクタにおいて、好ましくは、投影部は、任意の投影領域の縦方向および横方向に走査することにより画像を投影する振動ミラーを含み、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が略一致した状態で、可視光のレーザ光および非可視光のレーザ光が振動ミラーに照射されて走査されるように構成されている。このように構成すれば、可視光のレーザ光と非可視光のレーザ光との光軸を略一致させた状態で振動ミラーにより画像を投影領域に投影することができる。
 上記一の局面によるプロジェクタにおいて、好ましくは、第1レーザ光発生部から照射される可視光のレーザ光と、第2レーザ光発生部から照射される非可視光のレーザ光との光軸が略一致した状態で複数の投影領域に画像を投影するスプリッタ部材をさらに備える。このように構成すれば、たとえば、複数の投影領域のうちの1つの投影領域に投影された投影画像を使用者が操作用として使用するとともに、複数の投影領域のうちの他の投影領域に投影された投影画像をプレゼンテーション用(表示用)として使用することができる。
本発明の一実施形態によるプロジェクタの使用状態を示した模式図である。 本発明の一実施形態によるプロジェクタの構成を示したブロック図である。 本発明の一実施形態によるプロジェクタの制御部の動作を示したフロー図である。 本発明の一実施形態によるプロジェクタの比較的低い位置にある検出対象物の高さを検出する動作を説明するための図である。 本発明の一実施形態によるプロジェクタの比較的高い位置にある検出対象物の高さを検出する動作を説明するための図である。 本発明の一実施形態によるプロジェクタのポインタを移動させる動作を説明するための図である。 図6に示すポインタを移動させる動作を説明するための平面図である。 本発明の一実施形態によるプロジェクタのドラッグおよびドロップの動作を説明するための図である。 図8に示すドラッグおよびドロップの動作を説明するための平面図である。 本発明の一実施形態によるプロジェクタのアイコンから指を離す動作を説明するための図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
 図1および図2を参照して、本発明の一実施形態によるプロジェクタ100の構成を説明する。
 本発明の一実施形態によるプロジェクタ100は、図1に示すように、テーブル1上に配置して使用されるように構成されている。そして、プロジェクタ100は、スクリーン2などの投影領域に向けてプレゼンテーション用(表示用)の画像2aが投影(2D表示(平面表示))されるように構成されている。なお、テーブル1およびスクリーン2は、本発明の「投影領域」の一例である。また、プロジェクタ100は、テーブル1などの投影領域の上面に対して、プレゼンテーション用の画像2aと同様の画像1aが投影(2D表示(平面表示))されるように構成されている。なお、テーブル1上に投影される画像1aの大きさは、スクリーン2に投影される画像2aの大きさよりも小さくなるように投影される。また、プロジェクタ100の画像1aが投影される側の側面には、赤外線のレーザ光(非可視光のレーザ光)を検出するための2つの赤外線検出器10aおよび10bが設けられている。なお、赤外線検出器10bのテーブル1の表面上からの高さが、赤外線検出器10aのテーブル1の表面上からの高さよりも大きくなるように赤外線検出器10bが配置されている。なお、赤外線検出器10aは、本発明の「第1光検出器」の一例であり、赤外線検出器10bは、本発明の「第2光検出器」の一例である。
 図2に示すように、プロジェクタ100は、操作パネル20と、制御処理ブロック30と、データ処理ブロック40と、デジタル信号プロセッサ(DSP)50と、レーザ光源60と、Video RAM(SD RAM)71と、ビームスプリッタ80と、2つの拡大レンズ90および91とを含む。なお、ビームスプリッタ80は、本発明の「スプリッタ部材」の一例である。
 制御処理ブロック30は、プロジェクタ100全体の制御を司る制御部31と、外部ビデオ信号を受信するためのインターフェース(I/F)であるVideo I/F32と、SD-RAM33と、外部I/F34とを含む。
 データ処理ブロック40は、データ/階調変換器41と、ビットデータ変換器42と、タイミングコントローラ43と、データコントローラ44とを含んでいる。
 デジタル信号プロセッサ50は、ミラーサーボブロック51と、変換器52とを含んでいる。
 また、レーザ光源60は、赤色レーザ制御回路61と、緑色レーザ制御回路62と、青色レーザ制御回路63と、赤外線レーザ制御回路64とを含んでいる。また、赤色レーザ制御回路61と、緑色レーザ制御回路62と、青色レーザ制御回路63と、赤外線レーザ制御回路64とには、それぞれ、赤色のレーザ光(可視光のレーザ光)を照射する赤色LD(レーザダイオード)61aと、緑色のレーザ光(可視光のレーザ光)を照射する緑色LD62aと、青色のレーザ光(可視光のレーザ光)を照射する青色LD63aと、赤外線のレーザ光を照射する赤外線LD64aとが接続されている。ここで、本実施形態では、赤色LD61aと、緑色LD62aと、青色LD63aと、赤外線LD64aとがそれぞれ照射するレーザ光のMEMSミラー69aに入射する際の光軸は、略一致するように構成されている。また、赤色LD61a、緑色LD62aおよび青色LD63aと、赤外線LD64aとは、同期して動作するように構成されている。なお、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される赤色、緑色および青色のレーザ光が走査されることにより、テーブル1およびスクリーン2にそれぞれ画像1aおよび2aが投影される。なお、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射されるレーザ光と、赤外線LD64aから照射される赤外線のレーザ光とは、同一光軸上に合成されることにより、光軸が互いに略一致した状態で、同じ走査経路を走査されるように構成されている。つまり、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射されるレーザ光のテーブル1上の位置(座標)と、赤外線LD64aから照射される赤外線のレーザ光の位置(座標)とが同じになるように構成されている。また、赤外線LD64aから照射され、ユーザ(人間)の指などの検出対象物により反射された光は、赤外線検出器10aおよび10bにより検出される。また、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される赤色、緑色および青色のレーザ光の光量は、投影される画像に応じて変化する一方、赤外線LD64aから照射される赤外線のレーザ光の光量は、略一定である。なお、赤色LD61a、緑色LD62aおよび青色LD63aは、本発明の「第1レーザ光発生部」の一例であり、赤外線LD64aは、本発明の「第2レーザ光発生部」の一例である。
 また、レーザ光源60は、4つのコリメートレンズ65と、3つの偏光ビームスプリッタ66a、66bおよび66cと、光検出器67と、レンズ68と、レーザ光を水平方向に走査するためのMEMSミラー69aと、レーザ光を垂直方向に走査するためのMEMSミラー69bと、MEMSミラー69aおよびMEMSミラー69bを水平方向および垂直方向に駆動させるためのアクチュエータ70とを含んでいる。なお、MEMSミラー69aおよび69bは、本発明の「投影部」および「振動ミラー」の一例である。また、偏光ビームスプリッタ66a、66bおよび66cは、本発明の「光学部材」の一例である。
 また、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光の各々は、3つの偏光ビームスプリッタ66a、66bおよび66cの各々により約90度方向を変えて反射するとともに、赤外線LD64aから照射される赤外線のレーザ光は、3つの偏光ビームスプリッタ66a、66bおよび66cを透過することにより、可視光のレーザ光と赤外線のレーザ光との光軸が略一致するように構成されている。
 また、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光の各々と、赤外線LD64aから照射される赤外線のレーザ光とが合成される点(偏光ビームスプリッタ66cの中心点)を基準点とした場合には、基準点に対する下流側(偏光ビームスプリッタ66cのMEMSミラー69aおよび69bが配置されている側)において可視光のレーザ光と赤外線のレーザ光との光軸が略一致するように構成されている。また、赤外線LD64aは、可視光のレーザ光と赤外線のレーザ光との略一致する光軸の延長線上の基準点に対する上流側(偏光ビームスプリッタ66cのMEMSミラー69aおよび69bが配置されている側とは反対側)に配置されている。
 操作パネル20は、プロジェクタ100の筐体の表面または側面に設けられている。操作パネル20は、たとえば、操作内容を表示するためのディスプレイ装置(図示せず)や、プロジェクタ100に対する操作入力を受け付けるスイッチなどを含む。操作パネル20は、使用者からの操作を受け付けると、操作内容に応じた信号を制御処理ブロック30の制御部31に送信するように構成されている。
 また、プロジェクタ100の外部から与えられた外部ビデオ信号は、Video I/F32に入力されるように構成されている。また、外部I/F34は、たとえば、SDカード92などのメモリを装着することが可能に構成されている。そして、制御部31は、SDカード92からデータを読み出し、読み出されたデータは、Video RAM71に格納されるように構成されている。
 また、制御部31は、データ処理ブロック40のタイミングコントローラ43と相互に通信することにより、Video RAM71に一時的に保持されている画像データに基づく映像の表示を制御するように構成されている。
 また、データ処理ブロック40では、タイミングコントローラ43は、制御部31から出力される信号に基づいて、データコントローラ44を介してVideo RAM71に保持されているデータを読み出すように構成されている。データコントローラ44は、読み出したデータをビットデータ変換器42に送信するように構成されている。ビットデータ変換器42は、タイミングコントローラ43からの信号に基づいて、データをデータ/階調変換器41に送信するように構成されている。ビットデータ変換器42は、外部から与えられた画像データをレーザ光により投影可能な形式に適合したデータに変換する機能を有する。また、タイミングコントローラ43は、赤外線レーザ制御回路64に接続されており、赤色LD61a、緑色LD62aおよび青色LD63aから照射されるレーザ光に同期して、赤外線LD64aからレーザ光を照射するように赤外線レーザ制御回路64に信号を送信するように構成されている。
 データ/階調変換器41は、ビットデータ変換器42から出力されたデータを赤色(R:Red)、緑色(G:Green)および青色(B:Blue)の3色の階調に変換し、変換後のデータを赤色レーザ制御回路61と、緑色レーザ制御回路62と、青色レーザ制御回路63とにそれぞれ送信するように構成されている。
 また、赤色レーザ制御回路61は、データ/階調変換器41からのデータを赤色LD61aに送信するように構成されている。また、緑色レーザ制御回路62は、データ/階調変換器41からのデータを緑色LD62aに送信するように構成されている。また、青色レーザ制御回路63は、データ/階調変換器41からのデータを青色LD63aに送信するように構成されている。
 また、プロジェクタ100の画像1aが投影される側の側面に設けられる2つの赤外線検出器10aおよび10bには、それぞれ、加算器11と減算器12とが接続されている。加算器11は、赤外線検出器10aが検出した光の強度と赤外線検出器10bが検出した光の強度とを加算する機能を有する。また、減算器12は、赤外線検出器10aが検出した光の強度と赤外線検出器10bが検出した光の強度とを減算する機能を有する。また、加算器11および減算器12から出力された信号は、変換器52を介して、制御部31に入力されるように構成されている。
 制御部31は、赤外線検出器10aおよび10bが検出する検出対象物(ユーザの指)からの反射光の強度差に基づいて、検出対象物のテーブル1からの高さを算出するように構成されている。そして、制御部31は、赤外線検出器10aおよび10bが検出する検出対象物のテーブル1からの高さに基づいて、アイコンをドラッグする動作と、アイコンから検出対象物が離れる動作とを判別して、アイコンをドラッグしたと判別した後、アイコンをドラッグするとともに検出対象物の移動に連動してアイコンを移動する映像を投影するように構成されている。
 次に、図1および図3~図10を参照して、プロジェクタ100が検出対象物を検出する際の制御部31の動作について説明する。
 図1に示すように、赤色LD61a、緑色LD62aおよび青色LD63a(図2参照)からそれぞれ赤色、緑色および青色のレーザ光が照射されるとともに、レーザ光が走査されることにより、テーブル1およびスクリーン2上にそれぞれ画像1aおよび2aが投影される。たとえば、テーブル1およびスクリーン2上には、アイコンなどの画像が投影されている。また、赤色LD61a、緑色LD62aおよび青色LD63aに同期して、赤外線LD64aから赤外線のレーザ光が照射されるとともに、レーザ光が走査される。そして、図3に示すように、ステップS1において、赤外線LD64aから照射され、検出対象物(たとえばユーザの指)により反射される赤外線のレーザ光が赤外線検出器10aおよび10bによって検出されたか否かが判断される。なお、検出対象物により反射される赤外線のレーザ光が赤外線検出器10aおよび10bによって検出されない場合は、ステップS1の動作が繰り返される。
 そして、ステップS1において、検出対象物により反射される赤外線のレーザ光が赤外線検出器10aおよび10bによって検出されたと判断された場合、ステップS2に進む。ステップS2において、本実施形態では、赤外線検出器10aおよび10bが検出対象物からの反射光を検出した時点での、赤色LD61a、緑色LD62aおよび青色LD63aから照射されるレーザ光が走査している画像1aの座標(テーブル1の座標)を、検出対象物のテーブル1上の座標として判断する。なお、検出対象物がユーザの指である場合には、指の爪からの反射光の強さが、指の皮膚からの反射光の強さよりも大きくなる。そこで、赤外線検出器10aおよび10bがそれぞれ検出する検出対象物からの反射光の強度を加算器11(図2参照)によって加算して、加算された反射光の強度が最も大きい時点(指から反射された時点)の赤色LD61a、緑色LD62aおよび青色LD63aから照射される画像1aの座標を、検出対象物のテーブル1上の座標として判断することにより、ユーザの指が触れている画像の部分を特定することが可能となる。
 次に、ステップS3に進んで、赤外線検出器10aおよび10bによって検出された検出対象物からの反射光の強度差に基づいて、検出対象物のテーブル1からの高さが算出される。具体的には、たとえば図4に示すように、検出対象物(ユーザの指)がテーブル1の表面に触れている場合では、赤外線検出器10aが検出する検出対象物からの反射光の強度は、赤外線検出器10aよりも高い位置に設けられる赤外線検出器10bが検出する検出対象物からの反射光の強度よりも、検出対象物までの距離が小さい分、大きくなる。一方、図5に示すように、検出対象物(ユーザの指)がテーブル1の表面から離れた位置にある場合では、赤外線検出器10bが検出する検出対象物からの反射光の強度は、赤外線検出器10bよりも低い位置に設けられる赤外線検出器10aが検出する検出対象物からの反射光の強度よりも、検出対象物までの距離が小さい分、大きくなる。このように、検出対象物のテーブル1の表面からの高さが異なることにより、赤外線検出器10aおよび10bが検出する反射光の強度がそれぞれ異なるので、赤外線検出器10aおよび10bが検出する反射光の強度の差分の大きさにより、検出対象物のテーブル1の表面からの高さを算出することが可能となる。
 次に、ステップS4に進んで、検出対象物がテーブル1の表面に触れたか否か(検出対象物のテーブル1の表面からの高さがゼロか否か)が判断される。なお、ステップS4において、検出対象物がテーブル1の表面に触れていないと判断された場合には、ステップS1に戻る。つまり、検出対象物がテーブル1の表面に触れるまで、ステップS1~ステップS4の動作が繰り返される。ステップS4において、検出対象物がテーブル1の表面に触れたと判断された場合には、ステップS5に進んで、検出対象物が、テーブル1の表面を水平方向に移動したか否かが判断される。つまり、図6に示すように、検出対象物のテーブル1の表面からの高さがゼロのまま、テーブル1の表面上を移動したか否かが判断される。そして、検出対象物がテーブル1の表面上を水平方向に移動したと判断された場合には、ステップS6に進んで、図7に示すように、検出対象物の移動に連動してポインタを移動する映像をテーブル1およびスクリーン2に投影する。その後、ステップS1に戻る。
 また、ステップS5において、検出対象物がテーブル1の表面を水平方向に移動しないと判断された場合には、ステップS7に進んで、検出対象物がテーブル1の表面から離れたか否か(検出対象物のテーブル1の表面からの高さがゼロよりも大きいか否か)が判断される。なお、検出対象物のテーブル1上の座標は、アイコンの画像に対応しているとする。そして、ステップS7において、検出対象物がテーブル1の表面から離れたと判断された場合には、ステップS8に進んで、検出対象物がテーブル1の表面から離れた距離が所定の距離以上か否かが判断される。ステップS8において、検出対象物がテーブル1の表面から離れた距離が所定の距離未満(図8の状態A参照)と判断された場合には、ステップS9に進んで、検出対象物(ユーザの指)がテーブル1に投影されるアイコンをドラッグしたと判断される。そして、図9に示すように、アイコンをドラッグする映像がテーブル1(スクリーン2)に投影される。その後、検出対象物の移動(図8の状態B)に連動して、アイコンの画像を移動させる。そして、ステップS10において、検出対象物がテーブル1の表面に触れたと判断された場合には、ステップS11において、アイコンをドロップしたと判断される。そして、アイコンをドロップする映像がテーブル1(スクリーン2)に投影される。その後、ステップS1に戻る。
 また、ステップS8において、検出対象物がテーブル1の表面から離れた距離が所定の距離以上(図10参照)と判断された場合には、検出対象物(ユーザの指)がテーブル1に投影されるアイコンを離したと判断される。その後、ステップS1に戻る。
 本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光のレーザ光と、赤外線LD64aから照射される非可視光の赤外線のレーザ光との光軸が略一致するように構成することによって、赤、緑および青の3色のレーザ光が画像を投影する領域に赤外線のレーザ光が照射されるので、赤、緑および青の3色のレーザ光が画像を投影する領域に赤外線のレーザ光が照射するための反射ミラーなどを別途設ける必要がない分、構成が複雑化するのを抑制することができる。また、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光のレーザ光と同期して走査され、検出対象物(ユーザの指)の位置を検知するための非可視光を照射する赤外線LD64aを備えることによって、検出対象物(ユーザの指)により反射される非可視光の赤外線のレーザ光を検知することに基づいて、検出対象物(ユーザの指)の位置を検知することができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光と、赤外線LD64aから照射される赤外線のレーザ光との光軸が略一致した状態で、可視光のレーザ光および非可視光の赤外線のレーザ光がMEMSミラー69aおよび69bに照射することによって、可視光のレーザ光と非可視光の赤外線のレーザ光との光軸を略一致させた状態でMEMSミラー69aおよび69bにより画像1a(2a)をテーブル1(スクリーン2)に投影することができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光のレーザ光と、赤外線LD64aから照射される非可視光の赤外線のレーザ光とが、同じ走査経路を走査することによって、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光のレーザ光と、赤外線LD64aから照射される非可視光の赤外線のレーザ光との光軸が一致しているので、たとえば、検出対象物(ユーザの指)により非可視光の赤外線のレーザ光が反射された時点での赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光のレーザ光の走査経路に基づいて、容易に、検出対象物の位置を検知することができる。
 また、本実施形態では、上記のように、赤外線検出器10aが、赤外線LD64aから照射され、検出対象物(ユーザの指)により反射される非可視光の赤外線のレーザ光を検知することによって、検出対象物の色が黒である場合でも、検出対象物により反射される非可視光の赤外線のレーザ光を赤外線検出器10aにより検知することができるので、赤外線検出器10aの非可視光の赤外線のレーザ光の検知に基づいて、検出対象物(ユーザの指)の位置を検知することができる。
 また、本実施形態では、上記のように、制御部31が、赤外線LD64aから照射され、検出対象物(ユーザの指)により反射される非可視光の赤外線のレーザ光を赤外線検出器10aが検知した時点での赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光の走査信号に基づいて、検出対象物(ユーザの指)の位置を検知するように制御することによって、たとえば、検出対象物と赤外線検出器10aとの間の距離を算出することによって位置を検出する場合と異なり、プロジェクタが元々有するレーザ光の走査信号に基づいて検出対象物の位置を検出することができるので、検出対象物の位置を検出する演算(算出)時間を短縮することができる。
 また、本実施形態では、上記のように、制御部31が、赤外線LD64aから照射され、検出対象物(ユーザの指)により反射される非可視光の赤外線のレーザ光を赤外線検出器10aが検知した時点での赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光の走査信号に基づく座標を検出対象物(ユーザの指)の座標として検知するように制御することによって、プロジェクタ100が元々有するレーザ光の走査信号に基づいて検出対象物の座標(位置)を検出できるので、検出対象物の座標(位置)を検出する演算(算出)時間を短縮することができる。
 また、本実施形態では、上記のように、赤外線検出器10aにより検出される赤外線レーザ光の強度と、赤外線検出器10bにより検出される赤外線レーザ光の強度との差に基づいて、ユーザの指のテーブル1からの高さを算出することによって、ユーザの指の平面上の位置に加えて、テーブル1からの高さも検出されるので、ユーザの指の3次元の位置を検出することができる。
 また、本実施形態では、上記のように、赤外線検出器10aおよび10bにより検出されるユーザの指のテーブル1からの高さに基づいて、アイコンをドラッグする動作と、アイコンからユーザの指が離れる動作とを判別するとともに、アイコンをドラッグしたと判別した場合に、アイコンをドラッグするとともにユーザの指の移動に連動してアイコンを移動する映像を投影することによって、アイコンを選択するようなテーブル1上の動作に加えて、アイコンをドラッグするようなテーブル1からある程度離れた高さ位置での動作も行うことができるので、操作可能な動作の種類を多くすることができる。
 また、本実施形態では、上記のように、赤外線検出器10aおよび10bにより検出されるユーザの指のテーブル1からの高さに基づいて、ユーザの指のテーブル1の表面からの高さが略ゼロであると判断した後、ユーザの指がテーブル1の表面から離れたと判断した際、ユーザの指がテーブル1の表面から離れた高さが所定の高さ未満の場合には、ユーザの指がテーブル1に投影されるアイコンをドラッグしたと制御部31が判断することによって、ユーザの指の動作に基づいて容易にアイコンをドラッグした映像を投影することができる。
 また、本実施形態では、上記のように、ユーザの指がテーブル1に投影されるアイコンをドラッグしたと判断した後、赤外線検出器10aおよび10bにより検出されるユーザの指のテーブル1からの高さに基づいて、ユーザの指のテーブル1の表面からの高さが略ゼロであると判断した場合には、ユーザの指がテーブル1に投影されるアイコンをドロップしたと制御部31が判断することによって、ユーザの指の動作に基づいて容易にアイコンをドロップした映像を投影することができる。
 また、本実施形態では、上記のように、赤外線検出器10aおよび10bにより検出されるユーザの指のテーブル1からの高さに基づいて、ユーザの指のテーブル1の表面からの高さが略ゼロであると判断した後、ユーザの指がテーブル1の表面から離れたと判断した際、ユーザの指がテーブル1の表面から離れた高さが所定の高さ以上の場合には、ユーザの指がテーブル1に投影されるアイコンを離したと制御部31が判断することによって、ユーザの指の動作に基づいて容易にアイコンを離した映像を投影することができる。
 また、本実施形態では、上記のように、赤外線検出器10aおよび10bは、赤外線LD64aから照射され、ユーザの指により反射される赤外線のレーザ光を検知することによって、ユーザの指がテーブル1に触れている場合に、ユーザの指が触れているテーブル1上の位置を検知することができる。
 また、本実施形態では、上記のように、本発明の第1レーザ光発生部が、可視光としての赤色、緑色および青色のレーザ光をそれぞれ照射する赤色LD61a、緑色LD62aおよび青色LD63aを含み、本発明の第2レーザ光発生部が、非可視光としての赤外線のレーザ光を照射する赤外線LD64aを含むことによって、赤色LD61a、緑色LD62aおよび青色LD63aからそれぞれ照射される可視光としての赤色、緑色および青色のレーザ光によりテーブル1にカラーの画像を表示するとともに、赤外線LD64aから照射される非可視光としての赤外線のレーザ光により検出対象物(ユーザの指)の位置を検知することができる。また、可視光としての赤色、緑色および青色のレーザ光によりテーブル1またはスクリーン2に黒色の画像が表示された場合にも、非可視光としての赤外線のレーザ光が検出対象物(ユーザの指)により反射されるので、検出対象物(ユーザの指)の位置を検知することができる。
 また、本実施形態では、上記のように、赤外線LD64aから照射される赤外線のレーザ光とが合成される点を基準点とした場合に、基準点に対する下流側において可視光のレーザ光と赤外線のレーザ光との光軸を略一致させるとともに、可視光のレーザ光と赤外線のレーザ光との略一致する光軸の延長線上の基準点に対する上流側に赤外線LD64aを配置することによって、赤外線LD64aから照射される赤外線のレーザ光については、光軸を変化させる必要がないので、赤外線LD64aから照射される赤外線のレーザ光の光軸を変化させる部材を設ける必要がない。これにより、光軸を変化させる部材を設ける必要がない分、プロジェクタ100の構成が複雑化するのを抑制することができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光の各々が3つの偏光ビームスプリッタ66a、66bおよび66cの各々により反射するとともに、赤外線LD64aから照射される赤外線のレーザ光が3つの偏光ビームスプリッタ66a、66bおよび66cを透過することにより、可視光のレーザ光と赤外線のレーザ光との光軸を略一致させることによって、赤色LD61a、緑色LD62aおよび青色LD63aから照射される赤色、緑色および青色の可視光のレーザ光の各々と、赤外線LD64aから照射される非可視光の赤外線のレーザ光との光軸を3つの偏光ビームスプリッタ66a、66bおよび66cにより、容易に、略一致させることができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aから照射される赤色、緑色および青色の可視光の光量が、投影される画像1a(2a)に応じて変化するとともに、赤外線LD64aから照射される赤外線の光量が、略一定であることによって、可視光の光量が変化することにより濃淡を有する画像1a(2a)を投影することができるとともに、赤外線の光量が略一定であることにより、赤外線のレーザ光を照射するための制御を容易にすることができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光と、赤外線LD64aから照射される赤外線のレーザ光との光軸が略一致した状態で、可視光のレーザ光および赤外線のレーザ光がMEMSミラー69aおよび69bに照射されて走査されることによって、可視光のレーザ光と赤外線のレーザ光との光軸を略一致させた状態でMEMSミラー69aおよび69bにより画像1a(2a)をテーブル1(スクリーン2)に投影することができる。
 また、本実施形態では、上記のように、赤色LD61a、緑色LD62aおよび青色LD63aから照射される可視光のレーザ光と、赤外線LD64aから照射される赤外線のレーザ光との光軸が略一致した状態でテーブル1(スクリーン2)に画像1a(2a)を投影するビームスプリッタ80を設けることによって、テーブル1に投影された画像1aをユーザが操作用として使用するとともに、スクリーン2に投影された画像2aをプレゼンテーション用(表示用)として使用することができる。
 なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
 たとえば、上記実施形態では、赤色、緑色および青色の3色のレーザ光を照射することにより画像を投影する例を示したが、本発明はこれに限らない。たとえば、1色または2色のレーザ光により画像を投影してもよいし、4色以上のレーザ光により画像を投影してもよい。
 また、上記実施形態では、赤外線のレーザ光を照射することにより検出対象物の位置(座標)を検知する例を示したが、本発明はこれに限られない。たとえば、赤外線のレーザ光以外の非可視光のレーザ光により検出対象物の位置(座標)を検知してもよい。
 また、上記実施形態では、プロジェクタに赤外線検出器が2つ設けられる例を示したが、本発明はこれに限らない。たとえば、プロジェクタに赤外線検出器を1つまたは3つ以上設けてもよい。
 また、上記実施形態では、赤外線検出器が検出する光の強度差に基づいて、検出対象物の位置(座標)を算出する例を示したが、本発明はこれに限らない。本発明では、赤外線検出器が検出する光の強度差に基づく算出以外の方法によって、検出対象物の位置(座標)を算出してもよい。
 また、上記実施形態では、検出対象物の3次元の座標を求める例を示したが、本発明はこれに限られない。たとえば、検出対象物のテーブル1上の座標(2次元座標)を求めてもよい。この場合、赤外線検出器をプロジェクタに1つ設ければよい。

Claims (20)

  1.  可視光のレーザ光を照射する第1レーザ光発生部(61a、62a、63a)と、
     前記第1レーザ光発生部から照射される前記可視光のレーザ光と同期して走査され、検出対象物の位置を検知するための非可視光を照射する第2レーザ光発生部(64a)と、
     前記第1レーザ光発生部から照射される前記可視光のレーザ光を走査させることにより、任意の投影領域(1、2)に画像を投影する投影部(69a、69b)とを備え、
     前記第1レーザ光発生部から照射される前記可視光のレーザ光と、前記第2レーザ光発生部から照射される前記非可視光のレーザ光との光軸が略一致するように構成されている、プロジェクタ(100)。
  2.  前記第1レーザ光発生部から照射される前記可視光のレーザ光と、前記第2レーザ光発生部から照射される前記非可視光のレーザ光との光軸が略一致した状態で、前記可視光のレーザ光および前記非可視光のレーザ光が前記投影部に照射されるように構成されている、請求項1に記載のプロジェクタ。
  3.  前記第1レーザ光発生部から照射される前記可視光のレーザ光と、前記第2レーザ光発生部から照射される前記非可視光のレーザ光とは、同じ走査経路を走査されるように構成されている、請求項1に記載のプロジェクタ。
  4.  前記第2レーザ光発生部から照射され、前記検出対象物により反射される前記非可視光のレーザ光を検知するための光検出器(10a、10b)をさらに備える、請求項1に記載のプロジェクタ。
  5.  前記第2レーザ光発生部から照射され、前記検出対象物により反射される前記非可視光のレーザ光を前記光検出器が検知した時点での前記第1レーザ光発生部から照射される前記可視光のレーザ光の走査信号に基づいて、前記検出対象物の位置を検知する制御部(31)をさらに備える、請求項4に記載のプロジェクタ。
  6.  前記制御部は、前記第2レーザ光発生部から照射され、前記検出対象物により反射される前記非可視光のレーザ光を前記光検出器が検知した時点での前記第1レーザ光発生部から照射される前記可視光のレーザ光の走査信号に基づく座標を前記検出対象物の座標として検知するように構成されている、請求項5に記載のプロジェクタ。
  7.  前記光検出器は、第1光検出器(10a)と、前記投影領域からの高さが前記第1光検出器よりも高い第2光検出器(10b)とを含み、
     前記制御部は、前記第1光検出器により検出される前記非可視光の強度と、前記第2光検出器により検出される前記非可視光の強度との差に基づいて、前記検出対象物の前記投影領域からの高さを算出する制御を行うように構成されている、請求項5に記載のプロジェクタ。
  8.  前記第1レーザ光発生部から照射される前記可視光のレーザ光を走査させることにより、前記投影領域にアイコンに対応する画像を投影するように構成されており、
     前記制御部は、前記第1光検出器および前記第2光検出器により検出される前記検出対象物の前記投影領域からの高さに基づいて、前記アイコンをドラッグする動作と、前記アイコンから前記検出対象物が離れる動作とを判別するとともに、前記アイコンをドラッグしたと判別した場合に、前記アイコンをドラッグするとともに前記検出対象物の移動に連動して前記アイコンを移動する映像を投影するように構成されている、請求項7に記載のプロジェクタ。
  9.  前記制御部は、前記第1光検出器および前記第2光検出器により検出される前記検出対象物の前記投影領域からの高さに基づいて、前記検出対象物の前記投影領域の表面からの高さが略ゼロであると判断した後、前記検出対象物が前記投影領域の表面から離れたと判断した際、前記検出対象物が前記投影領域の表面から離れた高さが所定の高さ未満の場合には、前記検出対象物が前記投影領域に投影されるアイコンをドラッグしたと判断するように構成されている、請求項8に記載のプロジェクタ。
  10.  前記制御部は、前記検出対象物が前記投影領域に投影されるアイコンをドラッグしたと判断した後、前記第1光検出器および前記第2光検出器により検出される前記検出対象物の前記投影領域からの高さに基づいて、前記検出対象物の前記投影領域の表面からの高さが略ゼロであると判断した場合には、前記検出対象物が前記投影領域に投影されるアイコンをドロップしたと判断するように構成されている、請求項9に記載のプロジェクタ。
  11.  前記制御部は、前記第1光検出器および前記第2光検出器により検出される前記検出対象物の前記投影領域からの高さに基づいて、前記検出対象物の前記投影領域の表面からの高さが略ゼロであると判断した後、前記検出対象物が前記投影領域の表面から離れたと判断した際、前記検出対象物が前記投影領域の表面から離れた高さが所定の高さ以上の場合には、前記検出対象物が前記投影領域に投影されるアイコンを離したと判断するように構成されている、請求項8に記載のプロジェクタ。
  12.  前記検出対象物は、人間の指であり、
     前記光検出器は、前記第2レーザ光発生部から照射され、前記検出対象物としての人間の指により反射される前記非可視光のレーザ光を検知するように構成されている、請求項4に記載のプロジェクタ。
  13.  前記第2レーザ光発生部は、前記非可視光としての赤外線のレーザ光を照射する赤外線レーザ光発生部(64a)を含む、請求項1に記載のプロジェクタ。
  14.  前記第1レーザ光発生部は、前記可視光としての赤色、緑色および青色のレーザ光を照射するレーザ光発生部(61a、62a、63a)を含む、請求項13に記載のプロジェクタ。
  15.  前記第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光と、前記第2レーザ光発生部から照射される赤外線のレーザ光とが同一光軸上に合成されることにより、前記可視光のレーザ光と前記非可視光のレーザ光との光軸が略一致するように構成されている、請求項14に記載のプロジェクタ。
  16.  前記第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光と、前記第2レーザ光発生部から照射される赤外線のレーザ光とが合成される点を基準点とした場合に、前記基準点に対する下流側において前記可視光のレーザ光と赤外線のレーザ光との光軸が略一致するとともに、前記可視光のレーザ光と赤外線のレーザ光との略一致する光軸の延長線上の前記基準点に対する上流側に前記第2レーザ光発生部が配置されている、請求項15に記載のプロジェクタ。
  17.  前記第1レーザ光発生部から照射される赤色、緑色および青色の可視光のレーザ光の各々を反射させるとともに、前記第2レーザ光発生部から照射される赤外線のレーザ光を透過させる複数の光学部材(66a、66b、66c)をさらに備え、
     前記第1レーザ光発生部から照射される可視光のレーザ光の各々が前記複数の光学部材の各々により反射されるとともに、前記第2レーザ光発生部から照射される非可視光のレーザ光が前記複数の光学部材を透過することにより、前記可視光のレーザ光と前記非可視光のレーザ光との光軸が略一致するように構成されている、請求項14に記載のプロジェクタ。
  18.  前記第1レーザ光発生部から照射される赤色、緑色および青色の可視光の光量は、投影される画像に応じて変化するとともに、前記第2レーザ光発生部から照射される赤外線の光量は、略一定である、請求項14に記載のプロジェクタ。
  19.  前記投影部は、前記任意の投影領域の縦方向および横方向に走査することにより画像を投影する振動ミラー(69a、69b)を含み、
     前記第1レーザ光発生部から照射される前記可視光のレーザ光と、前記第2レーザ光発生部から照射される前記非可視光のレーザ光との光軸が略一致した状態で、前記可視光のレーザ光および前記非可視光のレーザ光が前記振動ミラーに照射されて走査されるように構成されている、請求項2に記載のプロジェクタ。
  20.  前記第1レーザ光発生部から照射される前記可視光のレーザ光と、前記第2レーザ光発生部から照射される前記非可視光のレーザ光との光軸が略一致した状態で複数の投影領域に画像を投影するスプリッタ部材(80)をさらに備える、請求項1に記載のプロジェクタ。
PCT/JP2011/066050 2010-07-29 2011-07-14 プロジェクタ WO2012014690A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020137004260A KR20130094307A (ko) 2010-07-29 2011-07-14 프로젝터
EP11812282.9A EP2600185A4 (en) 2010-07-29 2011-07-14 PROJECTOR
US13/812,953 US20130127717A1 (en) 2010-07-29 2011-07-14 Projector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010169928A JP5510155B2 (ja) 2010-07-29 2010-07-29 プロジェクタ
JP2010-169928 2010-07-29

Publications (1)

Publication Number Publication Date
WO2012014690A1 true WO2012014690A1 (ja) 2012-02-02

Family

ID=45529906

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/066050 WO2012014690A1 (ja) 2010-07-29 2011-07-14 プロジェクタ

Country Status (6)

Country Link
US (1) US20130127717A1 (ja)
EP (1) EP2600185A4 (ja)
JP (1) JP5510155B2 (ja)
KR (1) KR20130094307A (ja)
TW (1) TW201218765A (ja)
WO (1) WO2012014690A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176815A1 (en) * 2012-12-26 2014-06-26 Funai Electric Co., Ltd. Video Projection Device and Video Display Device
JP2014138257A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 画像投影装置、画像投影システム、制御方法およびプログラム
CN105247414A (zh) * 2013-09-27 2016-01-13 日立麦克赛尔株式会社 影像投射装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234149A (ja) * 2011-04-20 2012-11-29 Panasonic Corp 映像投影装置
JP6102330B2 (ja) * 2013-02-22 2017-03-29 船井電機株式会社 プロジェクタ
KR102082702B1 (ko) * 2013-03-28 2020-02-28 엘지전자 주식회사 레이저 영상표시장치
JP6100080B2 (ja) * 2013-05-08 2017-03-22 株式会社東芝 プロジェクタ及び携帯端末
JP6160329B2 (ja) * 2013-07-24 2017-07-12 船井電機株式会社 プロジェクタ
JP6314688B2 (ja) * 2014-06-25 2018-04-25 船井電機株式会社 入力装置
JPWO2016042637A1 (ja) * 2014-09-18 2017-07-13 Necディスプレイソリューションズ株式会社 光源装置、電子黒板システムおよび光源装置の制御方法
CN105589607B (zh) * 2016-02-14 2018-09-07 京东方科技集团股份有限公司 触控***、触控显示***和触控交互方法
KR101976605B1 (ko) 2016-05-20 2019-05-09 이탁건 전자기기 및 그 동작 방법
JP7152897B2 (ja) 2018-08-02 2022-10-13 キヤノン株式会社 投写装置及びその制御方法ならびにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050096A (ja) * 1998-07-31 2000-02-18 Ricoh Co Ltd 画像印刷方法およびその方法を用いた電子黒板システム
JP2003029201A (ja) * 2001-07-11 2003-01-29 Canon Inc 画像投射装置及び画像補正方法
JP2007040720A (ja) * 2005-07-29 2007-02-15 Sunx Ltd 光電センサ
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
JP2009258569A (ja) 2008-04-21 2009-11-05 Ricoh Co Ltd 電子機器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2651093B2 (ja) * 1992-10-27 1997-09-10 松下電工株式会社 形状検出方法およびその装置
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
US7869204B2 (en) * 2008-09-15 2011-01-11 International Business Machines Corporation Compact size portable computer having a fully integrated virtual keyboard projector and a display projector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050096A (ja) * 1998-07-31 2000-02-18 Ricoh Co Ltd 画像印刷方法およびその方法を用いた電子黒板システム
JP2003029201A (ja) * 2001-07-11 2003-01-29 Canon Inc 画像投射装置及び画像補正方法
JP2007040720A (ja) * 2005-07-29 2007-02-15 Sunx Ltd 光電センサ
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
JP2009258569A (ja) 2008-04-21 2009-11-05 Ricoh Co Ltd 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2600185A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176815A1 (en) * 2012-12-26 2014-06-26 Funai Electric Co., Ltd. Video Projection Device and Video Display Device
JP2014138257A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 画像投影装置、画像投影システム、制御方法およびプログラム
CN105247414A (zh) * 2013-09-27 2016-01-13 日立麦克赛尔株式会社 影像投射装置
CN105247414B (zh) * 2013-09-27 2017-07-18 日立麦克赛尔株式会社 影像投射装置

Also Published As

Publication number Publication date
KR20130094307A (ko) 2013-08-23
TW201218765A (en) 2012-05-01
EP2600185A1 (en) 2013-06-05
JP2012032464A (ja) 2012-02-16
US20130127717A1 (en) 2013-05-23
JP5510155B2 (ja) 2014-06-04
EP2600185A4 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
WO2012014690A1 (ja) プロジェクタ
JP5488306B2 (ja) プロジェクタ
JP5710929B2 (ja) プロジェクタ
JP2013065061A (ja) プロジェクタ
JP6123365B2 (ja) 画像表示システム及び頭部装着型表示装置
JP5971053B2 (ja) 位置検出装置及び画像表示装置
US8184101B2 (en) Detecting touch on a surface via a scanning laser
JP2013061598A (ja) プロジェクタおよびプロジェクタ機能を有する電子機器
JP6102751B2 (ja) インターフェース装置およびインターフェース装置の駆動方法
JP6314688B2 (ja) 入力装置
JP2014170149A (ja) プロジェクタ
CN108475147B (zh) 图像识别装置、图像识别方法以及图像识别单元
US20150185321A1 (en) Image Display Device
JP5971368B2 (ja) プロジェクタ
JP2014123170A (ja) 位置判定装置及び位置判定方法
US9335158B2 (en) Projector and projector system
JP2014025721A (ja) 投影装置、投影方法、及び投影プログラム
JP2013065066A (ja) プロジェクタ
JP6168174B2 (ja) プロジェクタ
JP2013062769A (ja) プロジェクタ
JP5494853B2 (ja) プロジェクタ
CN117795391A (zh) 2d扫描显示中的3d映射
JP2016192799A (ja) 位置検出装置及び画像表示装置
WO2023015024A1 (en) 3d mapping in 2d scanning display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11812282

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13812953

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20137004260

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011812282

Country of ref document: EP