WO2008038473A1 - Appareil et procédé d'affichage - Google Patents

Appareil et procédé d'affichage Download PDF

Info

Publication number
WO2008038473A1
WO2008038473A1 PCT/JP2007/066001 JP2007066001W WO2008038473A1 WO 2008038473 A1 WO2008038473 A1 WO 2008038473A1 JP 2007066001 W JP2007066001 W JP 2007066001W WO 2008038473 A1 WO2008038473 A1 WO 2008038473A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
unit
information
display device
Prior art date
Application number
PCT/JP2007/066001
Other languages
English (en)
French (fr)
Inventor
Yoichiro Sako
Masaaki Tsuruta
Taiji Ito
Masamichi Asukai
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to BRPI0715227-2A priority Critical patent/BRPI0715227A2/pt
Priority to EP07792624.4A priority patent/EP2071558B1/en
Priority to US12/440,591 priority patent/US8982013B2/en
Priority to CN2007800327577A priority patent/CN101512632B/zh
Publication of WO2008038473A1 publication Critical patent/WO2008038473A1/ja
Priority to US14/612,722 priority patent/US20150145753A1/en
Priority to US15/457,565 priority patent/US10481677B2/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours

Definitions

  • the present invention displays an image by arranging display means so as to be positioned in front of the user's eyes in a state of being mounted on the user by, for example, a spectacle-type or head-mounted type mounting unit.
  • the present invention relates to a display device and a display method.
  • JP-A-8-126031 JP-A-9 27970, JP-A-9 185009
  • display is performed immediately before the user's eyes by using a spectacle-type or head-mounted type mounting unit.
  • Various devices for arranging and displaying parts have been proposed.
  • an object of the present invention is to perform an accurate or interesting display operation according to the external environment (the surrounding environment, the date and time, the location, the input image, etc.). To do.
  • the display device of the present invention is arranged so as to be positioned in front of the user's eyes and displays an image, external world information acquisition means for acquiring external world information, and the external world information acquisition means.
  • Control means for controlling the operation of the display means based on the information acquired in
  • an image pickup means for picking up an image is further provided.
  • the control means performs control for displaying the image data captured by the imaging means on the display means based on the information acquired by the external world information acquisition means.
  • a reproducing means for reproducing data from the recording medium is further provided. Further, in this case, the control means performs control for displaying the data reproduced by the reproduction means on the display means based on the information obtained by the outside world information obtaining means.
  • receiving means for receiving data by communicating with an external device is further provided. Also this place In this case, the control unit performs control to display the data received by the receiving unit on the display unit based on the information acquired by the outside world information acquiring unit.
  • the display means can switch between a transparent state or a translucent through state and a display state in which the supplied data is displayed.
  • the outside world information acquisition means is a sensor that detects a surrounding environment state as the outside world information.
  • the outside world information acquisition unit is a sensor that detects information regarding an imaging target of the imaging unit as the outside world information.
  • the outside world information acquisition unit acquires current position information as the outside world information.
  • the outside world information acquisition unit acquires the current date and time as the outside world information.
  • the outside world information acquisition means acquires the outside world information through communication with an external device.
  • the outside world information acquisition unit acquires the outside world information by image analysis of an image supplied to the display unit.
  • the outside world information acquired by the outside world information acquisition means is the ambient brightness or temperature.
  • the outside world information acquired by the outside world information acquiring means is information on a point corresponding to the current position.
  • the outside world information acquired by the outside world information acquiring unit is information on a building or a natural object in the area corresponding to the current position.
  • the outside world information acquired by the outside world information acquiring unit is information for determining a specific target included in the input image data.
  • the outside world information acquired by the outside world information acquisition unit is information for identifying a person, an animal, a building, a natural object, or a device as a specific target included in the input image data. is there.
  • the outside world information acquired by the outside world information acquisition unit is information on the movement of a target included in the input image data.
  • the outside world information acquired by the outside world information acquiring means is input image data. This is information for identifying an individual person included in.
  • the outside world information acquired by the outside world information acquiring unit is information for determining whether or not a character image is included in the input image data.
  • the outside world information acquired by the outside world information acquisition means is information on brightness or darkness or sharpness of input image data.
  • the outside world information acquired by the outside world information acquisition means is information on partial brightness or partial sharpness in an image of input image data.
  • the control means controls the start / end of the display operation in the display means.
  • the control means performs switching control between the through state and the display state with respect to the display means.
  • control means performs switching control of a supply source of data to be displayed on the display means.
  • the control means controls enlargement / reduction of the display image on the display means.
  • the control means controls highlight display of a part of the screen displayed on the display means.
  • the control means controls screen division display on the display means.
  • the control means controls display luminance in the display means.
  • the control means controls signal processing of an image signal displayed on the display means.
  • speech synthesis means for synthesizing speech based on characters included in the image supplied to the display means, and speech output means for outputting the speech generated by the speech synthesis means are further provided.
  • the display method of the present invention includes an external information step for acquiring external information as a display method of a display device that is arranged so as to be positioned in front of the user's eyes and that displays an image. And a control step for controlling the display operation in the display means based on the information acquired in the external information acquisition step.
  • the user can visually recognize the display means located in front of the eyes by wearing the display device with, for example, a spectacle-type or head-mounted type mounting unit. It becomes. That is, the user can visually recognize the image captured by the imaging unit, the image of the data reproduced by the reproduction unit, or the image of the data received by the reception unit in the wearing state.
  • control according to the situation is performed as control related to the display operation, such as switching of input to the display means (some highlights, etc.), but in the present invention, these are not performed by the operation of the user's operator.
  • Various controls are performed based on external information.
  • various images are displayed on the display unit that is in front of the user's eyes.
  • the operation burden is imposed on the user by performing control related to the display operation based on external world information.
  • the display operation is performed according to the situation. As a result, it is possible to realize a display device that is easy to use for the user and that can provide various viewing scenes.
  • the display means can be in a transparent or translucent through state, so that it does not interfere with normal life even in the mounted state. Therefore, the advantages of the display device of the present invention can be obtained effectively in the normal life of the user.
  • FIG. 1 is an explanatory diagram of an external appearance example of a display device according to an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram of a usage pattern of the display device of the embodiment.
  • FIG. 3 is a block diagram of a configuration example of the display device according to the embodiment.
  • FIG. 4 is a block diagram of another configuration example of the display device according to the embodiment.
  • FIG. 5 is an explanatory diagram of a through state and a captured image display state according to the embodiment.
  • FIG. 6 is an explanatory diagram of a display state of an image from the storage unit according to the embodiment.
  • FIG. 7 is an explanatory diagram of a display state of an image from the communication unit according to the embodiment.
  • FIG. 8 is an explanatory diagram of a display state of an image from the communication unit according to the embodiment.
  • FIG. 9 is an explanatory diagram of split display according to the embodiment.
  • FIG. 10 is an explanatory diagram of a display state of an enlarged image according to the embodiment.
  • FIG. 11 is an explanatory diagram of a display state of a brightness adjustment image according to the embodiment.
  • FIG. 12 is an explanatory diagram of image processing according to the embodiment.
  • FIG. 13 is a flowchart of control processing according to the embodiment.
  • FIG. 14 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 15 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 16 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 17 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 18 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 19 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 20 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 21 is a flowchart of display control trigger determination processing according to the embodiment.
  • FIG. 22 is a flowchart of a source switching trigger determination process according to the embodiment.
  • FIG. 23 is a flowchart of a source switching trigger determination process according to the embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows an example of the appearance of a display device 1 having a glasses-type display.
  • the display device 1 has a mounting unit having a frame structure that, for example, makes a half turn from the head of both sides to the back of the head, and is worn by the user by being put on both ear shells as shown in the figure.
  • the display device 1 is placed in front of the user's eyes in the wearing state as shown in FIG. That is, the pair of display units 2 and 2 for the left eye and the right eye are arranged at a position where a lens in normal glasses is located.
  • a liquid crystal panel is used for the display unit 2, and by controlling the transmittance, a through state as shown in the figure, that is, a transparent or translucent state can be obtained.
  • the imaging lens 3a is arranged facing forward so as to capture an image with the direction visually recognized by the user as the subject direction when the user is wearing it.
  • the light emitting unit 4a that illuminates the imaging direction of the imaging lens 3a is provided.
  • the light emitting section 4a is formed by, for example, an LED (Light Emitting Diode).
  • a pair of earphone speakers 5a that can be inserted into the user's right ear hole and left ear hole in a worn state are provided.
  • Microphones 6a and 6b for collecting external sound are arranged on the right side of the display unit 2 for the right eye and on the left side of the display unit 2 for the left eye.
  • FIG. 1 is an example, and various structures for the user to wear the display device 1 can be considered.
  • the display unit 2 may be provided close to the front of the user's eyes, at least in the present embodiment.
  • one display unit 2 may be provided corresponding to one eye.
  • the earphone speaker 5a may not be a left and right stereo speaker, but only one earphone speaker 5a may be provided to be attached only to one ear.
  • the microphone may be one of the microphones 6a and 6b.
  • FIG. 1 shows an example including an imaging function
  • an example without an imaging function is also conceivable.
  • the display device 1 does not include a microphone or an earphone speaker is also conceivable.
  • This display device 1 has a playback function for playing back a recording medium (storage unit 25 described in FIGS. 3 and 4) and a communication function for communicating with an external device. (Communication section 26 described in Fig. 3 and Fig. 4) may be provided.
  • the source of data as an image to be displayed on the display unit 2 is the imaging function part.
  • a reproduction function part and a communication function part are assumed.
  • FIG. 2 illustrates a usage pattern of the display device 1 in relation to an external device.
  • FIG. 2 (a) shows a case where the display device 1 is used alone.
  • the display device 1 has an imaging function
  • the captured image data is displayed on the display unit 2.
  • the display device 1 has a reproduction function
  • an image based on the data reproduced from the recording medium can be displayed on the display unit 2.
  • the data reproduced from the recording medium includes, for example, moving image contents such as movies and video clips, still image contents captured by a digital still camera or the like and recorded on the recording medium, data such as electronic books, and a user using a personal computer.
  • Any data that is recorded on a recording medium and is subject to display such as computer-use data such as spreadsheet data, or a game image based on a game program recorded on a recording medium, is assumed.
  • FIG. 2B shows an example in which the display device 1 has a communication function and communicates with the external imaging device 70.
  • the display device 1 receives an image (moving image / still image) captured by the imaging device 70 and displays the image on the display unit 2.
  • the external imaging device 70 can be assumed to be a video camera having a communication function, a digital still camera, or the like, and the display device 1 having an imaging function as shown in FIG. It can also be considered as an external imaging device 70.
  • the external imaging device 70 is an imaging device owned by the user who uses the display device 1, an imaging device owned by an acquaintance of the user of the display device 1, or a public or image provider that provides images. There are various types of imaging devices such as service companies that can communicate with the display device 1! /.
  • FIG. 2 is an example in which the display device 1 has a communication function and communicates with the external content source device 71.
  • the display device 1 receives the image (moving image / still image) provided from the content source device 71 and displays it on the display unit 2.
  • the content source device 71 is, for example, an AV (Audio-Visual) device such as a video device, a television tuner, or a home server device, or an information processing device such as a personal computer, a PDA (Personal Digital Assistant), or a mobile phone. Etc. can be assumed.
  • AV Audio-Visual
  • PDA Personal Digital Assistant
  • the content source device 71 can also be considered variously, such as a device owned by the user who uses the display device 1 or his / her acquaintance, or a server device of a public or service company that provides various contents.
  • Examples of data transmitted from the content source device 71 to the display device 1 include moving image content such as movies and video clips, still image content captured by a digital still camera and recorded on a recording medium, and electronic books Such data, image data created by the user with a personal computer, text data, computer data such as spreadsheet data, game images, and other data to be displayed are assumed.
  • FIG. 2 (d) shows that the display device 1 has a communication function, particularly a communication access function via the network 73 such as the Internet, so that an external imaging device 70 or content source device connected via the network 73 is displayed.
  • 71 is an example of communicating with 71.
  • the display device 1 receives various data via the network 73 and causes the display unit 2 to display an image of the received data.
  • FIG. 3 shows an example of the internal configuration of the display device 1.
  • the system controller 10 is composed of, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile resident memory unit, and an interface unit. The control of the entire display device 1 is performed.
  • a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile resident memory unit, and an interface unit. The control of the entire display device 1 is performed.
  • the system controller 10 controls each part in the display device 1 based on the external environment. In other words, it operates according to an operation program designed to detect and determine the situation of the outside world and to control the operation of each part accordingly. For this reason, from a functional point of view, as shown in the figure, it has an external environment determination function 10a for determining the external environment situation, and an operation control function 10b for giving a control instruction to each part according to the determination result of the external environment determination function 10a. .
  • an imaging unit 3 In the display device 1, an imaging unit 3, an imaging control unit 11, and an imaging signal processing unit 15 are provided as a configuration for imaging a scene in front of the user.
  • the imaging unit 3 performs a focusing operation and a zooming operation on a lens system including the imaging lens 3a illustrated in FIG. 1, the diaphragm, the zoom lens, the focus lens, and the lens system.
  • a drive system for performing the detection, and further, a solid-state imaging device array that detects imaging light obtained by the lens system and generates an imaging signal by performing photoelectric conversion are provided.
  • the solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
  • the imaging signal processing unit 15 includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device of the imaging unit 3, and a video A / D converter. An imaging signal is obtained as digital data.
  • the imaging signal processing unit 15 also performs white balance processing, luminance processing, color signal processing, blur correction processing, and the like on the imaging signal.
  • the imaging control unit 11 controls the operations of the imaging unit 3 and the imaging signal processing unit 15 based on instructions from the system controller 10. For example, the imaging control unit 11 controls on / off of operations of the imaging unit 3 and the imaging signal processing unit 15.
  • the imaging control unit 11 performs control (motor control) for causing the imaging unit 3 to execute operations such as auto focus, automatic exposure adjustment, aperture adjustment, and zoom.
  • the imaging control unit 11 includes a timing generator, and for the sample hold / AGC circuit and the video A / D converter of the solid-state imaging device and the imaging signal processing unit 15, timing signals generated by the timing generator. To control the signal processing operation.
  • the imaging frame rate can be variably controlled by this timing control.
  • the imaging control unit 11 controls imaging sensitivity and signal processing in the solid-state imaging device and the imaging signal processing unit 15. For example, gain control of the signal read from the solid-state image sensor as imaging sensitivity control, black level setting control, various coefficient control of imaging signal processing at the digital data stage, correction amount control in blur correction processing, etc. You can. Regarding imaging sensitivity, overall sensitivity adjustment that does not specifically consider the wavelength band, and sensitivity adjustment that adjusts the imaging sensitivity of a specific wavelength band, such as the infrared region or the ultraviolet region (for example, imaging that cuts a specific wavelength band) Etc. are also possible. Sensitivity adjustment according to the wavelength can be performed by inserting a wavelength filter in the imaging lens system or by processing the wavelength filter for the imaging signal.
  • the imaging control unit 11 can perform sensitivity control by insertion control of a wavelength filter, designation of a filter calculation coefficient, or the like.
  • An imaging signal (image data obtained by imaging) captured by the imaging unit 3 and processed by the imaging signal processing unit 15 is supplied to the image input / output control unit 27.
  • the image input / output control unit 27 controls the transfer of image data in accordance with the control of the system controller 10. That is, transfer of image data among the imaging system (imaging signal processing unit 15), the display system (display image processing unit 12), the storage unit 25, and the communication unit 26 is controlled.
  • the image input / output control unit 27 supplies the image data as the imaging signal processed by the imaging signal processing unit 15 to the display image processing unit 12, the storage unit 25, the communication unit The operation to supply to 26 is performed.
  • the image input / output control unit 27 performs an operation of supplying, for example, image data reproduced from the storage unit 25 to the display image processing unit 12 or to the communication unit 26.
  • the image input / output control unit 27 performs an operation of supplying the image data received by the communication unit 26 to the display image processing unit 12 or the storage unit 25, for example.
  • a display unit 2 As a configuration for displaying to the user on the display device 1, a display unit 2, a display image processing unit 12, a display drive unit 13, and a display control unit 14 are provided.
  • image data as an imaging signal captured by the imaging unit 3 and processed by the imaging signal processing unit 15 can be supplied to the display image processing unit 12 via the image input / output control unit 27.
  • the display image processing unit 12 is a so-called video processor, for example, and is a part capable of executing various display processes on the supplied image data. For example, it is possible to adjust image data brightness level, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and so on.
  • the display image processing unit 12 generates an enlarged image obtained by enlarging a part of the supplied image data, or generates a reduced image, separation and synthesis of images for split display of the supplied image data, Image processing that highlights (highlights) a part of the image, generation of a character image or image, and processing of combining the generated image with the supplied image data can also be performed. In other words, it is possible to perform various processing on the supplied image data.
  • the display driving unit 13 includes a pixel driving circuit for displaying the image data supplied from the display image processing unit 12 on the display unit 2 which is a liquid crystal display, for example. That is, for each pixel arranged in a matrix in the display unit 2, Then, a drive signal based on the video signal is applied at a predetermined horizontal / vertical drive timing to execute display. Further, the display drive unit 13 controls the transmittance of each pixel of the display unit 2 to make it a through shape.
  • the display control unit 14 controls the processing operation of the display image processing unit 12 and the operation of the display driving unit 13 based on an instruction from the system controller 10. That is, the display image processing unit 12 is caused to execute the various processes described above. Further, the display drive unit 13 is controlled to be switched between the through state and the image display state.
  • image data reproduced by the storage unit 25 and image data received by the communication unit 26 can also be supplied to the display image processing unit 12 via the image input / output control unit 27. In that case, a reproduced image and a received image are output on the display unit 2 by the above operations of the display image processing unit 12 and the display drive unit 13.
  • the display device 1 is provided with an audio input unit 6, an audio signal processing unit 16, and an audio output unit 5.
  • the audio input unit 6 includes the microphones 6a and 6b shown in FIG. 1, and a microphone amplifier unit and an A / D converter for amplifying the audio signals obtained by the microphones 6a and 6b. Is output.
  • the voice data obtained by the voice input unit 6 is supplied to the voice input / output control unit 28.
  • the voice input / output control unit 28 controls the transfer of voice data in accordance with the control of the system controller 10. That is, it controls the transfer of audio signals among the audio input unit 6, audio signal processing unit 16, storage unit 25, and communication unit 26.
  • the voice input / output control unit 28 supplies the voice data obtained by the voice input unit 6 to the voice signal processing unit 16, to the storage unit 25, or to the communication unit 26 I do.
  • the audio input / output control unit 28 performs an operation of supplying the audio data reproduced by the storage unit 25 to the audio signal processing unit 16 or supplying the communication unit 26, for example.
  • the audio input / output control unit 28 performs an operation of supplying the audio data received by the communication unit 26 to the audio signal processing unit 16 or the storage unit 25, for example.
  • the audio signal processing unit 16 includes, for example, a digital signal processor, a D / A converter, and the like.
  • the audio signal processing unit 16 is supplied with audio data obtained by the audio input unit 6 and audio data from the storage unit 25 or the communication unit 26 via the audio input / output control unit 28.
  • the audio signal processing unit 16 performs processing such as volume adjustment, sound quality adjustment, and acoustic effect on the supplied audio data according to the control of the system controller 10.
  • the processed audio data is converted into an analog signal and supplied to the audio output unit 5.
  • the audio signal processing unit 16 is not limited to a configuration that performs digital signal processing, and may perform signal processing using an analog amplifier or an analog filter.
  • the audio output unit 5 includes the pair of earphone speakers 5a shown in FIG.
  • the audio input unit 6 the audio signal processing unit 16, and the audio output unit 5
  • the user listens to the external audio, the audio reproduced in the storage unit 25, or the audio received by the communication unit 26. I can hear you.
  • the audio output unit 5 may be configured as a so-called bone conduction speaker.
  • the storage unit 25 is a part that records and reproduces data on a predetermined recording medium.
  • a predetermined recording medium For example, it is realized as an HDD (Hard Disc Drive).
  • various recording media such as a solid-state memory such as a flash memory, a memory card with a built-in fixed memory, an optical disk, a magneto-optical disk, and a hologram memory are conceivable.
  • the storage unit 25 performs recording / reproduction according to the recording medium employed. What is necessary is just to be set as the structure which can be performed.
  • Image data as an imaging signal captured by the imaging unit 3 and processed by the imaging signal processing unit 15 and image data received by the communication unit 26 are stored in the storage unit via the image input / output control unit 27. Can be supplied to 25.
  • the voice data obtained by the voice input unit 6 and the voice data received by the communication unit 26 can be supplied to the storage unit 25 via the voice input / output control unit 28.
  • the storage unit 25 performs an encoding process for recording on the recording medium on the supplied image data and audio data according to the control of the system controller 10 and records the encoded data on the recording medium.
  • the storage unit 25 receives images from the recording medium according to the control of the system controller 10. Play data and audio data.
  • the reproduced image data is output to the image input / output control unit 27, and the reproduced audio data is output to the audio input / output control unit 28.
  • the communication unit 26 transmits / receives data to / from an external device.
  • external devices various devices such as the imaging device 70 and the content source device 71 described in FIG. 2 can be considered.
  • the communication unit 26 may be configured to perform network communication via short-range wireless communication with a network access point using a method such as wireless LAN or Bluetooth, or may be configured to communicate with an external device having a corresponding communication function. It can be anything that performs direct wireless communication between them.
  • Image data as an imaging signal captured by the imaging unit 3 and processed by the imaging signal processing unit 15 and image data reproduced by the storage unit 25 are transmitted to the communication unit 26 via the image input / output control unit 27. Can be supplied to.
  • the voice data obtained by the voice input unit 6 and the voice data reproduced by the storage unit 25 can be supplied to the communication unit 26 via the voice input / output control unit 28.
  • the communication unit 26 Under the control of the system controller 10, the communication unit 26 performs encoding processing, modulation processing, and the like for transmission on the supplied image data and audio data, and transmits them to an external device.
  • the communication unit 26 performs a data reception operation from an external device.
  • the received and demodulated image data is output to the image input / output control unit 27, and the received and demodulated audio data is output to the audio input / output control unit 28.
  • the display device 1 is provided with a speech synthesizer 29.
  • the voice synthesizer 29 synthesizes a voice in response to an instruction from the system controller 10 and outputs a voice signal.
  • the audio signal output from the audio synthesis unit 29 is supplied to the audio signal processing unit 16 via the audio input / output control unit 28 and processed, and then supplied to the audio output unit 5 for the user. Sound is output.
  • the speech synthesizer 29 generates, for example, a speech signal of a read-out speech to be described later.
  • the display device 1 is provided with an illumination unit 4 and an illumination control unit 18.
  • the illumination unit 4 includes a light emitting unit 4a shown in FIG. 1 and a light emitting circuit that emits light from the light emitting unit 4a (for example, LED).
  • Lighting control The unit 18 causes the lighting unit 4 to perform a light emission operation based on an instruction from the system controller 10.
  • the light emitting unit 4a in the illuminating unit 4 is attached to illuminate the front as shown in FIG. 1, the illuminating unit 4 performs an illuminating operation with respect to the user's visual field direction.
  • This display device 1 has a configuration for acquiring external world information as an ambient environment sensor 19, an imaging target sensor 20, a GPS receiver 21, a date and time counting unit 22, an image analysis unit 17, and a communication unit 26.
  • the ambient environment sensor 19 for example, an illuminance sensor, a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
  • the ambient environment of the display device 1 ambient brightness, temperature, humidity, or The sensor obtains information for detecting weather and the like.
  • the imaging target sensor 20 is a sensor that detects information about an imaging target that is a subject of an imaging operation in the imaging unit 3. For example, it detects information and energy such as a specific wavelength of infrared rays emitted by the imaging target, such as a distance measuring sensor that detects information about the distance from the display device 1 to the imaging target, and an infrared sensor such as a pyroelectric sensor. Sensors are assumed. In the case of a pyroelectric sensor, for example, it is possible to detect whether an imaging target is a living body such as a person or an animal.
  • sensors such as various UV (Ultra Violet) sensors that detect information and energy such as a specific wavelength of ultraviolet rays emitted from an imaging target are also assumed.
  • the object to be imaged is a fluorescent substance or a phosphor, and to detect an external ultraviolet dose necessary for sunburn countermeasures.
  • the GPS receiver 21 receives a radio wave from a GPS (Global Positioning System) satellite and outputs information of latitude and longitude as the current position.
  • GPS Global Positioning System
  • the date / time counting unit 22 counts the date / time (year / month / day / hour / minute / second) as a so-called clock unit and outputs the current date / time information.
  • the image analysis unit 17 performs image analysis of the image data.
  • Image data is supplied to the image analysis unit 17 via the image input / output control unit 27.
  • the image data subject to image analysis in the image analysis unit 17 is the image data obtained by the imaging unit 3 and the imaging signal processing unit 15. It is image data as an image, image data received by the communication unit 26, or image data reproduced from a recording medium by the storage unit 25. That is, the image data input by the display device 1 so that it can be displayed on the display unit 2 becomes an image analysis target in the image analysis unit 17. Then, the image analysis unit 17 analyzes the image data, and obtains image information included in the image data.
  • the communication unit 26 performs data communication with an external device.
  • External devices are assumed to be all devices with information processing and communication functions, such as computer devices, PDAs (Personal Digital Assistants), mobile phones, video devices, audio devices, and tuner devices.
  • PDAs Personal Digital Assistants
  • mobile phones video devices, audio devices, and tuner devices.
  • a terminal device, a server device, or the like connected to a network such as the Internet is also assumed as an external device to be communicated.
  • a non-contact communication IC card incorporating an IC chip, a two-dimensional barcode such as a QR code, a hologram memory, and the like are external devices, and the communication unit 26 is configured to read information from these external devices. It is also possible.
  • Another display device 1 is also assumed as an external device.
  • the communication unit 26 may be configured to perform network communication via short-range wireless communication with a network access point using a method such as wireless LAN or Bluetooth, or may be configured to communicate with an external device having a corresponding communication function. Even those that directly communicate with each other are good.
  • the ambient environment sensor 19, the imaging target sensor 20, the GPS reception unit 21, the date and time counting unit 22, the image analysis unit 17, and the communication unit 26 obtain information on the outside world as viewed from the display device 1, Supplied to the system controller 10.
  • the system controller 10 controls the imaging operation and the display operation by the process of the operation control function 10b according to the acquired external environment information by the process of the external environment determination function 10a. That is, the system controller 10 instructs the display control unit 14 to control the operation of the display image processing unit 12 and the display drive unit 13, to select the source of data to be displayed, and to perform the reproduction operation of the storage unit 25. Controls the communication operation of the communication unit 26.
  • the ambient environment sensor 19 As a configuration for acquiring external information, the ambient environment sensor 19, an imaging target sensor
  • GPS receiver 21 GPS receiver 21, date and time counting unit 22, image analysis unit 17, and communication unit 26 are shown. They do not necessarily have to have everything. In addition, other sensors such as a voice analysis unit that detects and analyzes surrounding sounds may be provided.
  • FIG. 4 shows a configuration example of the display device 1 having no imaging function. Note that blocks having the same functions as those in FIG.
  • FIG. 4 is different from the configuration of FIG. 3 in that the imaging unit 3, the imaging signal processing unit 15, and the imaging control unit 11
  • the lighting unit 4, the lighting control unit 18, the voice input unit 6, and the imaging target sensor 20 are omitted.
  • the sources of data to be displayed on the display unit 2 are the imaging function system (imaging unit 3, imaging signal processing unit 15, imaging control unit 11), and playback function system (storage unit). 25) and the three powers of the reception function system (communication unit 26).
  • the source of data to be displayed on the display unit 2 is the playback function system (storage unit 25) and the reception function.
  • the system (communication part 26).
  • FIG. 3 is an example in the case where three sources are provided in the display device 1 as the source of the display image
  • FIG. 4 is an example in which two sources are provided in the display device 1.
  • the image data to be subjected to image analysis in the image analysis unit 17 is image data received by the communication unit 26 or image data reproduced from a recording medium by the storage unit 25.
  • FIGS. 3 and 4 for example, as a configuration example of the display device 1, in addition to FIGS. 3 and 4, for example, as a source of a display image in the display device 1, for example, only an imaging function system, only a playback function system is used.
  • An example having only a reception function system, an example having an imaging function system and a reproduction function system, an example having an imaging function system and a reception function system, and the like can be considered.
  • the system controller 10 controls the display operation according to the acquired external world information, selects the source of data to be displayed, and performs display image processing. You can see the image of the display content.
  • Various display examples are shown in Figs.
  • FIG. 5A shows a case where the display unit 2 is in a through state.
  • the display unit 2 is simply a transparent plate-like body, and the user can view the view scene with the transparent display unit 2. It is in a state to see through.
  • FIG. 5B shows a state in which the image captured by the image capturing unit 3 is displayed on the display unit 2.
  • the imaging unit 3, imaging signal processing unit 15, display image processing unit 12, and display driving unit 13 operate in the state of Fig. 5 (a), and the captured image is normally displayed on the display unit 2.
  • the captured image (normal captured image) displayed on the display unit 2 in this case is almost the same as in the through state. In other words, it is a state where the user sees the normal field of view as a captured image.
  • FIG. 5C shows a case where the system controller 10 causes the imaging unit 3 to execute telephoto imaging via the imaging control unit 11, and the telephoto image is displayed on the display unit 2.
  • the system controller 10 causes the imaging unit 3 to perform wide-angle imaging via the imaging control unit 11, an image in which a short-distance scene is projected at a wide angle is displayed on the display unit 2. Will be shown. Note that the telephoto / wide-angle control can be performed not only by driving the zoom lens in the imaging unit 3 but also by signal processing in the imaging signal processing unit 15.
  • Fig. 5 (b) and (c) show an example in which the imaging function system is used as the image source for display on the display unit 2, but Fig. 6 shows that the storage unit 25 is used as the source of the display image.
  • An example of display is shown in.
  • FIG. 6 (a) is an example in which moving image or still image image content is recorded on the recording medium in the storage unit 25, and the image content is reproduced and displayed on the display unit 2.
  • FIG. 6B is an example in which a game program is recorded on a recording medium in the storage unit 25 and an image based on the game program is displayed on the display unit 2.
  • FIG. 6 (c) is an example in which electronic book content is recorded on a recording medium in the storage unit 25, and the electronic book content is reproduced and displayed on the display unit 2.
  • the user can enjoy the reproduced image of the data recorded on the recording medium using the display device 1.
  • FIG. 7 and FIG. 8 show examples in which display is performed on the display unit 2 using the communication unit 26 as a display image source.
  • Fig. 7 is a communication as shown in Fig. 2 (b) or Fig. 2 (d), and is transmitted from the external imaging device 70. This is an example in which an image received by the communication unit 26 is displayed.
  • Fig. 7 (a) shows, for example, that the field of view from the user is as shown in Fig. 5 (a), that is, when the player is watching soccer from the audience seats in the stadium.
  • the communication unit 26 receives the video from the imaging device 70 that performs imaging at the display unit 2 and displays the video on the display unit 2. For example, by receiving video from the imaging device 70 installed near the supervisor's seat or the small imaging device 70 worn by the referee and displaying it on the display unit 2, the ability to watch games more interestingly S can.
  • Fig. 7 (b) shows the image captured by the imaging device 70 installed in a resort area or the imaging device 70 possessed by a traveling acquaintance received by the communication unit 26 and displayed on the display unit 2. This is an example. Such video display allows the user to view videos in various regions while at home, for example.
  • Fig. 7 (c) shows an example in which the communication unit 26 receives the ground image (bird view image) captured by the imaging device 70 installed in the aircraft or satellite and displays it on the display unit 2. It is. Such video display allows the user to enjoy a landscape that is not normally visible.
  • FIG. 8 is an example of displaying an image transmitted from the external content source device 71 and received by the communication unit 26 in the communication as shown in FIG. 2 (c) or FIG. 2 (d).
  • Fig. 8 (a) shows that when image content of a moving image or a still image is received from a content source device 71 such as an AV device or a personal computer, the image content is displayed on the display unit 2, This is an example.
  • a content source device 71 such as an AV device or a personal computer
  • (b) of FIG. 8 is for causing the display device 1 to transmit image data as a browser screen of a website accessed by the content source device 71 such as a personal computer or an active application screen.
  • the image data received by the communication unit 26 is displayed on the display unit 2.
  • FIG. 8 (c) shows a list display image of photographic images that can be viewed on the content source device 71 such as a personal computer, for example, transmitted to the display device 1 and received by the communication unit 26 in the display device 1. This is an example displayed on the display unit 2.
  • the content source device 71 such as a personal computer
  • a video player or the like A By receiving data from information processing devices such as V devices and personal computers and displaying images, the user can check these images on the attached display device 1.
  • FIG. 6 is described as an image with the storage unit 25 as a source
  • FIG. 8 is an image with the communication unit 26 as a source.
  • the image contents shown in FIG. 6 can be considered as an image transmitted from an external device and received by the communication unit 26.
  • FIG. 9, FIG. 10, FIG. 11 and FIG. 12 perform processing related to display mode and image data for images from various sources as described above (imaging function system, playback function system, or reception function system). It is an example.
  • FIG. 9 shows the case where the display unit 2 is in the through state! /.
  • the system controller 10 instructs the display control unit 14 (display image processing unit 12, display drive unit 13) to perform split display, an image as shown in Fig. 9B is displayed on the display unit 2.
  • the power S can be made.
  • the screen of the display unit 2 is divided into areas AR1 and AR2, and the area AR1 is in a through state or normal image display, and the area AR2 is an image (for example, a playback unit) that uses the storage unit 25 or the communication unit 26 as a source. Or an image of the received video content).
  • FIG. 9 (c) shows another example of divided display.
  • the screen of the display unit 2 is divided into areas AR1, AR2, AR3, AR4, and each area includes One frame of the image is extracted and displayed at predetermined time intervals.
  • the display image processing unit 12 extracts one frame of the image data at intervals of 0.5 seconds, and displays the extracted frame image in the order of the area AR 1 ⁇ AR2 ⁇ AR3 ⁇ AR4 ⁇ AR1 ⁇ AR2 '-'. To go.
  • FIG. 10 shows a case where the image from the imaging function system, the playback function system, or the reception function system is displayed in the normal size as it is! /
  • the system controller 10 sends the display image processing unit 12 to the display image processing unit 12 via the display control unit 14.
  • the display unit 2 can display the enlarged image as shown in FIG.
  • FIG. 11 (a) shows a case where an image from the imaging function system, playback function system, or reception function system is normally displayed on the display unit 2! /.
  • this display image has low brightness! /, And is not an image that is comfortable for the user.
  • the system controller 10 instructs the display control unit 14 (the display image processing unit 12 and the display drive unit 13) to adjust the brightness, contrast, and sharpness. As shown in b), a clearer image can be displayed on the display unit 2.
  • FIG. 12 shows that when an image from an imaging function system, a playback function system, or a reception function system is normally displayed on the display unit 2, or the display unit 2 is in a through state. It shows the case. In this image, for example, in a soccer stadium, the boundary between the shade and the sun appears on the pitch, making it difficult to see.
  • the system controller 10 instructs the display image processing unit 12 to improve the display luminance of, for example, the pixels in the area corresponding to the shaded part, while the pixels in the area corresponding to the shaded part.
  • the display brightness By reducing the display brightness, an image in which the influence of the sun / shade is reduced is displayed as shown in (b) of FIG.
  • FIG. 12 (c) shows a display example in which, for example, when a bird is included in the image as a specific target, the bird is highlighted so as to highlight the bird.
  • the imaging function system when used as the display image source, telephoto display, wide-angle display, telephoto power, zoom-in or zoom-out display from wide angle to wide-angle display, enlarged display, reduced display, variable frame rate display ( High frame rate, low frame rate imaging, etc.), high brightness display, low brightness display, contrast variable display, sharpness variable display, imaging sensitivity increased state display, infrared imaging sensitivity increased state display, ultraviolet imaging sensitivity increased state Display and images with a specific wavelength band cut can be displayed.
  • variable frame rate display High frame rate, low frame rate imaging, etc.
  • high brightness display low brightness display
  • contrast variable display sharpness variable display
  • imaging sensitivity increased state display infrared imaging sensitivity increased state display
  • ultraviolet imaging sensitivity increased state Display and images with a specific wavelength band cut can be displayed.
  • the playback function system and reception function system are used as the display image source
  • personal computers such as image display by variable speed playback such as high-speed playback, slow playback, frame-by-frame playback, display page switching, scroll display, etc.
  • a display similar to the display in is also possible.
  • an image effect display such as mosaic image / inverted luminance image / soft focus / partial highlighting in the image / variable color atmosphere of the entire image or a combination thereof. Etc. are also assumed.
  • divided display combining these various image displays, divided display combining the through state and the captured image (or reproduced image or received image), and 1 of the captured image (or reproduced image or received image).
  • a wide variety of display modes are assumed, such as still image display that continues frame display.
  • the display device 1 of the present example has a configuration for acquiring outside world information as the surrounding environment sensor 19, the imaging target sensor 20, the GPS receiving unit 21, the date and time counting unit 22, and the image analysis unit 17
  • an illuminance sensor As the ambient environment sensor 19, an illuminance sensor, a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
  • the display device 1 can be used for ambient brightness and Therefore, the system controller 10 can execute display control suitable for ambient brightness and weather conditions by using these as external information.
  • the imaging target sensor 20 is provided to detect information about the imaging target.
  • a distance measuring sensor or a pyroelectric sensor can be considered. The distance from the imaging target and information for determining the imaging target itself can be obtained.
  • the system controller 10 controls the execution of the display operation according to the distance, or detects that the imaging target is a living body such as a person.
  • the display operation according to the object can be executed and controlled.
  • the GPS receiving unit 21 acquires information of latitude'longitude as the current position.
  • information on the location (near the location) at the current location can be obtained by referring to the map database.
  • a recording medium that can be referred to by the system controller 10, for example, an HDD (Hard Disk Drive), a flash memory, etc., and a relatively large capacity recording medium is mounted,
  • HDD Hard Disk Drive
  • flash memory etc.
  • a relatively large capacity recording medium is mounted
  • the display device 1 does not have a built-in map database, for example, a network server or a map database built-in device is accessed via the communication unit 26, and the latitude and longitude are transmitted to obtain information according to the current position. May be requested and information may be received.
  • a network server or a map database built-in device is accessed via the communication unit 26, and the latitude and longitude are transmitted to obtain information according to the current position. May be requested and information may be received.
  • Information related to the current position includes name information such as a place name, a building name, a facility name, a store name, and a station name near the current position.
  • Information relating to the current location includes information indicating the type of building such as a park, a theme park, a concert hall, a theater, a movie theater, and a sports facility.
  • Information relating to the current position includes information on the types and names of natural objects such as coasts, seas, rivers, mountains, mountain peaks, forests, lakes, and plains.
  • the system controller 10 can execute and control display operations according to the current position, geographical conditions in the vicinity of the current point, facilities, and the like.
  • the date / time counting unit 22 counts year / month / day / hour / minute / second, for example.
  • the date and time counting unit 22 allows the system controller 10 to recognize the current time, day / night distinction, month, season, and the like. For this reason, for example, it is possible to execute and control a display operation according to the day and night (time), a display operation suitable for the current season, and the like.
  • various kinds of information as described below can be detected from input image data such as a captured image, a received image, and a reproduced image.
  • AV Audio-Visual
  • the types of these specific objects can be discriminated based on whether or not the shapes corresponding to the shapes are included in the input image data by setting the characteristics of various shapes in advance.
  • the image analysis by the image analysis unit 17 it is possible to detect a motion of an object in the image, for example, a quick motion within the image by a method such as detection of a difference between frames before and after the image. For example, it is possible to detect a situation where a subject of quick movement is included in an image of a sport or a moving car!
  • the image analysis unit 17 performs image analysis on the captured image data captured by the imaging unit 3, it is also possible to determine the surrounding situation. For example, it is possible to determine the brightness situation due to day and night or weather, and it is also possible to recognize the intensity of rain.
  • the input image data such as the captured image, the received image, and the reproduction image includes, for example, a book or a newspaper
  • the image is included.
  • character recognition in an image or shape of a book or newspaper may be recognized.
  • the system controller 10 can supply the recognized character to the speech synthesis unit 29 as text data.
  • a person's face can be converted into personal feature data as relative position information of the components of the face. For example, the ratio of the distance between the center of the eye and the nose, the distance Ed between the distance between the eyes and the eye (Ed / EN), the distance between the center of the eye and the mouth, EM, and the ratio between the distance Ed between the eyes (Ed / EM) This information is unique to each individual and is not affected by changes in appearance due to items such as hairstyles and glasses. Furthermore, it is known that it does not change with aging.
  • the image analysis unit 17 can detect the personal feature data as described above by analyzing the image data when the face of the person is included in the image data.
  • a HDD Hard Disk Drive
  • a flash memory or the like is installed as a recording medium that can be referred to by the system controller 10, for example, and a person database is stored in these recording media. If so, it is possible to obtain personal information contained in the image data.
  • the display device 1 accesses, for example, a network server or a built-in person data base device via the communication unit 26, sends personal characteristic data, requests information, and specifies Even if you want to receive information about other people.
  • the system can be used when a certain person is included in the image data.
  • the controller 10 can retrieve the person's information.
  • latitude / longitude or personal characteristic data transmitted from the display device 1 Information retrieved by an external device can be acquired according to the above.
  • the external equipment power is the ability to acquire weather-related information such as weather information, temperature information, and humidity information.
  • Facility usage information, imaging prohibition / permission information, guidance information, and the like can be acquired from an external device.
  • identification information of the external device itself can be acquired.
  • the device type or device ID identified as a network device in a given communication protocol can be acquired.
  • information such as humidity obtained by the ambient environment sensor 19 and weather information received by the communication unit 26 can be combined to more accurately determine the current weather.
  • the current position and the situation of the imaging target may be more accurately determined based on the information on the current location acquired by the operation of the GPS receiving unit 21 and the communication unit 26 and the information obtained by the image analysis unit 17. I'll do it.
  • the display device 1 of the present embodiment includes the ambient environment sensor 19 and the imaging target sensor.
  • the system controller 10 controls the display operation according to the external information that can be acquired. It is possible to provide a variety of images to the user by executing appropriate and interesting displays according to the display.
  • FIG. 13 shows a control process as the operation control function 10b of the system controller 10.
  • Step F101 shows a control process in which the system controller 10 brings the display unit 2 into a through state with respect to the display control unit 14! /. For example, the initial stage when the display device 1 is turned on. On the floor, the system controller 10 controls the display unit 2 to the through state in step F101.
  • the system controller 10 confirms whether or not a display start trigger has occurred in step F102.
  • a display start trigger is generated that starts display on the display unit 2 when the user operates the predetermined operator. That's fine.
  • it can also be determined that a display start trigger has occurred according to the force S, which will be described later, and external information.
  • step F103 the system controller 10 advances the process to step F103 to perform display start control. That is, the display control unit 14 is instructed to cause the display image processing unit 12 and the display driving unit 13 to execute an operation for displaying the supplied data on the display unit 2 in the form of a normal captured image.
  • the display image processing unit 12 is supplied with image data via the image input / output control unit 27.
  • image data For example, when a plurality of image data sources are provided as shown in FIG. 3 or FIG. At the time, it is selected by default setting among the sources of the imaging function system (imaging unit 3, imaging signal processing unit 15), playback function system (storage unit 25), and reception function system (communication unit 26)!
  • imaging function system imaging unit 3, imaging signal processing unit 15
  • playback function system storage unit 25
  • reception function system communication unit 26
  • the system controller 10 instructs the imaging control unit 11 to start imaging during the display start control in Step F103, and the imaging unit 3 and the imaging signal processing unit 15
  • the normal imaging operation is executed, and image data as the imaging signal is supplied to the display image processing unit 12 via the image input / output control unit 27.
  • the display unit 2 is switched to, for example, the through state force of FIG. 5A, for example, the monitor display state of the normal captured image of FIG. 5B.
  • the storage unit 25 is also controlled during the display start control! /, And menu screens such as content playback and content selection are displayed on the display unit 2.
  • the default setting source is the communication unit 26, the control of the operation of the communication unit 26 is also performed during the display start control, and the communication screen and the display by the received data from the external device are performed. You may make the display part 2 perform.
  • the image data from that source is the display image. It may be supplied to the processing unit 12.
  • Step F103 image data from the image source is not supplied, and a menu screen, a source selection screen, and the like are displayed on the display unit 2 as an initial screen. It may be possible to use wholesale.
  • the audio output operation from the audio output unit 5 is not particularly described, but when the display operation is executed in the display unit 2, the system controller 10 displays the display image.
  • the audio input / output control unit 28 and the audio signal processing unit 16 are controlled so that audio output based on audio data from the same source is executed.
  • step F104 monitors whether a display control trigger has occurred in step F104, monitors whether a source switching trigger has occurred in step F105, and determines whether a display end trigger has occurred in step F106. To monitor.
  • the occurrence of a display control trigger means that the system controller 10 itself when the display image mode in the display operation or the processing related to the image data to be displayed is changed according to the external state determined by the external state determination function 10a. Means to judge.
  • the occurrence of the source switching trigger is displayed depending on the situation determined by the external environment judgment function 10a when the display device 1 is provided with a plurality of sources as shown in FIGS. This means that the system controller 10 itself determines that the image data source to be switched is switched.
  • the display end trigger is a trigger that ends the display on display unit 2 and switches to the through state.
  • a display end trigger is generated by a user operation (display end operation by a predetermined operation).
  • the system controller 10 can also determine whether a display end trigger has occurred according to external information.
  • the system controller 10 advances the process to steps F1 04, F107, and performs control related to the image display operation. That is, a predetermined instruction is given to the display control unit 14, and various types of display are displayed according to the external environment at that time. To run in. Depending on the source currently selected, the system controller 10 may control the imaging function system, control the operation of the storage unit 25, and control the operation of the communication unit 26.
  • step F107 After the display operation control is performed in step F107, the system controller 10 continues to perform step F1.
  • step F If it is determined that the source switching trigger has occurred, the system controller 10 proceeds to step F.
  • the display unit 2 is switched from a state in which an image captured by the imaging unit 3 is displayed to a state in which a playback image is displayed in the storage unit 25, for example. Will be.
  • step F108 Even after the source switching control is performed in step F108, the system controller 10 monitors the trigger generation in steps F104, F105, and F106.
  • the system controller 10 If it is determined that a display end trigger has occurred, the system controller 10 returns the process from step F106 to step F101, and instructs the display control unit 14 to pass through the display unit 2. In addition, it instructs the image source selected at that time to end the image supply operation.
  • the operation control function 10b of the system controller 10 performs control processing as shown in FIG. 13, for example.
  • the display start control based on the determination of the display start trigger, the display mode control based on the determination of the display control trigger, the source switching control based on the determination of the source switching trigger, and the display end trigger are performed.
  • Control is performed to stop the display on the display unit 2 based on the judgment and enter the through state. Specific examples of trigger judgment and control contents will be described in FIG. 14 and subsequent figures.
  • FIG. 14 also shows an example of processing of the system controller 10 as the external environment situation determination function 10a, and these are executed in parallel with the processing of FIG. 13 by the operation control function 10b.
  • parallel processing means that, for example, the system controller 10 in FIG. It is only necessary that the detection process as shown in FIGS. 14 to 23 is periodically performed as an interrupt process during the period in which the process is executed.
  • These processing programs shown in FIGS. 13 to 19 may be incorporated in the program that executes the processing of FIG. 13 or may be other programs that are called periodically. In other words, the form of the program is not limited.
  • step F104 in FIG. 13 are powers as an example of processing relating to the determination of display control trigger generation as step F104 in FIG. 13.
  • FIG. 14 based on information from the ambient environment sensor 19 or the image analysis unit 17 Shows an example of determining that a display control trigger has occurred.
  • Step F201 in FIG. 14 shows processing in which the system controller 10 monitors information on one or both of the ambient environment sensor 19 and the image analysis unit 17.
  • the ambient environment sensor 19 is an illuminance sensor
  • the image analysis unit 17 performs processing for analyzing ambient brightness from the captured image.
  • the image analysis unit 17 cannot analyze the captured image data in the vicinity unless the external imaging device 70 is in the vicinity because of the configuration. Normally, only the surrounding environment sensor 19 is checked.
  • the system controller 10 determines whether or not the surroundings are currently in a dark state or too bright. To do. For example, the detected illuminance is digitized, and if the detected illuminance is less than X lux, it is judged as dark, and if the detected illuminance is greater than y lux, it is judged as too bright.
  • step F205 an adjustment value corresponding to the current ambient illuminance (brightness) is calculated. For example, adjustment values such as display brightness, contrast, and sharpness are calculated.
  • step F203 If the system controller 10 determines that the surrounding environment is too bright, the system controller 10 proceeds from step F203 to F206, and determines that a display control trigger has occurred.
  • step F207 adjustment values such as display brightness, contrast, and sharpness are calculated according to the current ambient illuminance.
  • step F104 the display image processing unit 12 is instructed to perform processing such as brightness adjustment, contrast adjustment, and sharpness adjustment.
  • the image quality of the display image on the display unit 2 is adjusted, and an adjusted image corresponding to the brightness of the surroundings is displayed.
  • the adjustment according to the brightness of the surroundings is performed by displaying a through or normal captured image (that is, an image of the visual field that is the outside world) and a captured image of the video content as a screen division. It is conceivable to adjust the image quality on the video content side when! For example, the adjustment is made so that the brightness of the through and content images can be balanced on the screen to eliminate the user's visual difficulty.
  • the image quality of the video content is also darkened to avoid over-blinding, or conversely the brightness of the through area is bright. If it is high, it may be possible to enhance the brightness of the image content, enhance the contrast and sharpness, and make it clearly visible. Alternatively, the transmittance of the through area may be lowered.
  • the captured image is displayed on the display unit 2 using the imaging function system as a source, if the surrounding area is dark, the display brightness, contrast, and sharpness are increased, and the user can display on the display unit 2.
  • the surroundings are visually confirmed by the image. For example, if the surroundings are dark and the display image on the display unit 2 is as shown in (a) of FIG. 11! /, It is possible to change the state to be easy to see as shown in (b) of FIG. .
  • the system controller 10 may perform control to cause the illumination unit 4 to perform illumination.
  • FIG. 15 is an example in which it is determined that a display control trigger is generated based on information from the ambient environment sensor 19 or the communication unit 26.
  • Step F301 in FIG. 15 shows a process in which the system controller 10 monitors information detected by the ambient environment sensor 19 and / or information received by the communication unit 26.
  • the ambient environment sensor 19 a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
  • the communication unit 26 is assumed to receive weather information sequentially from a network server, for example.
  • the system controller 10 can determine, for example, the atmospheric conditions obtained by the ambient environment sensor 19 such as atmospheric pressure, humidity, and temperature.
  • the weather conditions can also be determined from the weather information received by the communication unit 26.
  • the system controller 10 In order to receive the weather conditions from the network server, the system controller 10 sequentially transmits the current position information obtained by the GPS receiving unit 21 to the network server, and the region corresponding to the current position is transmitted. It is recommended that weather information be received from a network server.
  • the system controller 10 may require image adjustment according to changes in weather conditions such as sunny weather, cloudy weather, rainy weather, thunderstorms, typhoons, snowfall, and rainy weather, rain stops, or cloudy weather. Determine whether. If it is determined that the situation requires adjustment, the system controller 10 advances the process from step F302 to F303, determines that a display control trigger has occurred, and calculates an adjustment value according to the current weather in step F304. For example, adjustment values such as display brightness, contrast, sharpness, and color processing are obtained.
  • step F104 the display image processing unit 12 is adjusted in brightness, contrast, and sharpness. Instructs processing such as color processing.
  • the image quality of the display image on the display unit 2 is adjusted to the image quality according to the weather condition.
  • the image quality according to the weather condition means that the user can select the display unit 2 according to the ambient brightness due to the weather. It is conceivable that the image quality at which the image displayed on the screen is easy to see.
  • the system controller 10 may perform control to cause the illumination unit 4 to perform illumination.
  • the force that the weather judgment is made based on the reception information of the ambient environment sensor 19 or the communication unit 26 By recognizing the rain image in the image analysis unit 17, the rain has started or the rain has stopped. That means that it is possible to accurately detect the occurrence of lightning.
  • FIG. 16 shows an example in which it is also determined that a display control trigger has occurred based on information from the ambient environment sensor 19.
  • Step F401 in FIG. 16 shows processing in which the system controller 10 monitors the information of the ambient environment sensor 19.
  • the ambient environment sensor 19 is a temperature sensor and a humidity sensor.
  • the system controller 10 detects the current ambient temperature and humidity based on the detection information of the ambient environment sensor 19, and determines, for example, whether the temperature is high or high or low. .
  • step F402 If it is determined that the user feels uncomfortable due to high temperature and high humidity, the system controller 10 proceeds from step F402 to F404, and determines that a display control trigger has occurred. In step F405, adjustment values such as sharpness, color processing, and image effects are obtained.
  • step F407 adjustment values such as sharpness, color processing, and image effects are obtained.
  • step F404 Through the processing in steps F404 and F405, or the processing in steps F406 and F407, the processing in FIG. 13 of the system controller 10 proceeds from step F104 to F107, and the system controller 10 displays the display image processing unit 12. Instruct the display brightness, contrast, sharp Instructs adjustment of image data such as image quality, color processing, and image effects.
  • the power of judging the situation of “high temperature and high humidity” and “low temperature” and the situation of “low humidity” may be added to the judgment.
  • the surrounding conditions can be determined for “high temperature and high humidity” and “low temperature and low humidity”, and image control can be performed according to each case. It is possible to discriminate the four situations described above and perform image control according to each case.
  • FIG. 17 shows an example in which it is determined that the display control trigger is generated based on the current time information by the date / time counting unit 22.
  • Step F501 in FIG. 17 shows processing in which the system controller 10 checks the current date and time counted by the date and time counting unit 22.
  • the system controller 10 determines the time zone based on the current time. For example, the time zone of early morning, morning, daytime, evening, and night is identified. For example, 4:00 to 7:00 is early morning, 7:00 to 9:00 is morning, 9:00 to 17:00 is daytime, 17:00 to 19:00 is evening, and 19:00 to 4 is nighttime.
  • time delimitation criteria for each time zone may be changed according to the judgment of the month and day.
  • the judgment time for each time zone is changed.
  • the early morning hours are from 4 to 7 in the summer, and from 6 to 8 in the winter.
  • step F501 If it is determined that the time zone has changed as the time zone determined by the date and time check in step F501, the system controller 10 advances the process from step F502 to step F503.
  • step F503 when it is time for early morning, the process proceeds from step F503 to F507, where it is determined that a display control trigger for the display operation for early morning has occurred.
  • step F504 When it is time to be in the morning, the process proceeds from step F504 to F508, and it is determined that a display control trigger for the morning display operation has occurred.
  • step F505 When the daytime is reached, the process proceeds to step F505, and then to F509, and it is determined that the display control trigger for the daytime display operation has occurred.
  • step F511 determines that a display control trigger for the night display operation has occurred.
  • step F104 the display control unit 14 is instructed to perform a display operation corresponding to the time zone. For example, instruct processing such as display brightness adjustment, contrast adjustment, sharpness adjustment, and color adjustment. Or you can instruct image effects such as soft focus display.
  • an image corresponding to a time zone is provided to the user as a captured image, a reproduced image, or a received image.
  • a captured image For example, an image with soft image quality in the early morning, a clear image with strong contrast during the day, an image with a sepia color in the evening, and a dull image at night.
  • an image with soft image quality in the early morning For example, an image with soft image quality in the early morning, a clear image with strong contrast during the day, an image with a sepia color in the evening, and a dull image at night.
  • an image with soft image quality in the early morning For example, an image with soft image quality in the early morning, a clear image with strong contrast during the day, an image with a sepia color in the evening, and a dull image at night.
  • the season from the date and time information instead of the time zone and adjust the image quality according to the season. For example, in the displayed image, the blue component is emphasized in summer, the red component is emphasized in autumn, the white component is emphasized in winter, and the green / pink system is emphasized in spring. To do.
  • FIG. 18 is an example in which it is determined that a display control trigger has occurred based on the reception information of the GPS receiving unit 21 and the communication unit 26.
  • Step F601 in FIG. 18 is a step in which the system controller 10 obtains the latitude / longitude information of the current position obtained by the GPS receiving unit 21 from the communication unit 26 on a network server or map data basis. This shows the operation to send to the device installed on the network, have the destination search for the current location information, and receive the current location information. If the map database is held in the display device 1, the system controller 10 can search the current location information from the map database based on the latitude and longitude from the GPS receiver 21.
  • the system controller 10 determines whether or not the current location where the predetermined display control is to be executed is! /. If it is determined that the current position is a place where the predetermined display control is to be executed, the process proceeds from step F602 to F603, where it is determined that a display control trigger for executing the predetermined display control has occurred.
  • step F603 When it is determined in step F603 that a display control trigger has occurred, the processing in FIG. 13 of the system controller 10 proceeds from step F104 to F107, and the display controller 14 performs predetermined image processing. The instructions are given.
  • the place name, the name of the facility that is being imaged can be superimposed and displayed in character images or characters, advertising information, facility guidance information, It may be possible to control to display the caution information on the display unit 2.
  • Fig. 19 (a) is a force that is an example of determining that a display control trigger has occurred based on information from the image analysis unit 17. This is particularly true when the image data is an image of a newspaper, a book, or the like. This is an example of determining whether or not it contains characters, such as image data of an electronic book as shown in (c) of Fig. 6.
  • Step F701 in (a) of FIG. 19 shows processing in which the system controller 10 monitors information from the image analysis unit 17. It is assumed that the image analysis unit 17 detects whether or not characters are included in the image data by image analysis! [0284] Based on the analysis result information of the image processing unit 17, the system controller 10 determines whether or not characters are included in the image data! /.
  • step F70 If it is determined that the character contains a character, the system controller 10 proceeds to step F70.
  • step F704 an adjustment value suitable for reading a character image is calculated. For example, as an adjustment value for display brightness, contrast, sharpness, etc., an adjustment value that allows the user to comfortably read characters on the display screen is obtained.
  • step F104 the display image processing unit 12 is adjusted in brightness, contrast, and sharpness. Instruct the process.
  • the image quality of the display image on the display unit 2 is adjusted, and for example, the character can be easily read in the image as shown in (c) of FIG.
  • ambient brightness may also be detected, and ambient brightness may be reflected in the calculation of the adjustment value.
  • the display image processing unit 12 may execute an enlargement process to display an enlarged image so that the user can easily read characters! / And provide an image.
  • step F703 If the captured image is displayed on the display unit 2 using the imaging function system as a source, the condition to proceed to step F703 is to recognize the shape of the book or newspaper during the image analysis. It may be added. In this case, when it is determined that the imaging target is a newspaper or the like, the system controller 10 may perform control for causing the illumination unit 4 to perform illumination.
  • the image analysis unit 17 may determine the characters and supply the characters to the system controller 10 as text data.
  • the system controller 10 causes the speech synthesizer 29 to execute speech synthesis processing based on the text data detected from the image.
  • a voice signal is generated as a reading voice of characters included in the image data.
  • the system controller 10 outputs this read-out voice from the voice output unit 5. In this way, the user can hear the read-out voice when viewing the image including the characters on the display unit 2.
  • Fig. 19 (b) is also an example in which the display control trigger is determined to be generated based on information from the image analysis unit 17. This is an example of improving the visibility of image data from a certain source. is there.
  • Step F710 in (b) of Fig. 19 shows processing in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 analyzes the image data to determine whether the image is in a suitable luminance state and whether the sharpness is appropriate.
  • the system controller 10 advances the process from step F711 to F712, and determines that a display control trigger has occurred.
  • step F713 an adjustment value for improving visibility is calculated. For example, as adjustment values for display brightness, contrast, sharpness, etc., an adjustment value that allows the user to comfortably view the image on the display screen is obtained.
  • step F104 the display image processing unit 12 is adjusted in brightness, contrast, and sharpness. Instruct the process.
  • the image quality of the display image on the display unit 2 is adjusted, and an easy-to-view image can be provided to the user.
  • FIG. 20 (a) is also an example in which it is determined that a display control trigger has occurred based on information from the image analysis unit 17.
  • Step F801 in (a) of FIG. 20 shows processing in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 detects whether or not a specific target is included in the image data by analyzing the captured image.
  • step F802 If it is detected as a result of image analysis that a specific target is imaged, the system controller 10 proceeds from step F802 to F803 and determines that a display control trigger has occurred.
  • step F803 When it is determined in step F803 that a display control trigger has occurred, the system controller
  • step F104 The processing of FIG. 13 in FIG. 13 proceeds from step F104 to F107, and a predetermined image processing instruction is given to the display control unit.
  • Display image processing unit 1 to execute highlight display of bird part in image as shown in (c) It is possible to instruct the second operation. As a result, it is possible to perform display in which the user can easily find a bird in the captured image, the received image, and the reproduced image. Of course, the same applies to animals other than birds.
  • a specific object such as a person, an animal, or a building is displayed! Only the specific object is displayed, and the image around the specific object such as a person is completely filled. You may make it display.
  • FIG. 20B is also an example in which it is determined that a display control trigger has occurred based on information from the image analysis unit 17.
  • Step F810 in (b) of FIG. 20 shows a process in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 detects whether or not the image data is generated! /, Quickly, and moving by analyzing the captured image. For example, the quickness of motion is determined from the difference in each frame of moving image data.
  • step F811 the system controller 10 proceeds from step F811 to F812, and determines that a display control trigger has occurred.
  • step F812 When it is determined in step F812 that a display control trigger has occurred, the processing in FIG. 13 of the system controller 10 proceeds from step F104 to F107, and the display control unit 14 is instructed to perform image processing. I do.
  • a strobe display such as (c) in Fig. 9 is provided so that the user can easily confirm the quick movement. It is conceivable to instruct image processing so as to execute.
  • the storage unit 25 can be instructed to perform slow playback so that a quick movement is shown slowly.
  • FIG. 21 is also an example in which it is determined that a display control trigger has occurred based on information from the image analysis unit 17.
  • this is an example in which a person is identified when the person is imaged.
  • Step F901 in Fig. 21 (a) shows processing in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 analyzes the captured image to determine whether the image data includes a person's face! If the person includes a face! / Personal feature data is generated from the face image.
  • the personal characteristic data is the ratio of the distance between the center of the eye and the nose EN to the distance Ed between the distance between the eyes and the distance Ed (Ed / EN), the distance between the center of the eye and the mouth, and the distance between the EM and the distance between the eyes.
  • step F902 If the personal feature data is extracted, the system controller 10 proceeds from step F902 to F903, and searches for personal information based on the personal feature data.
  • the system controller 10 transmits the personal characteristic data from the communication unit 26 to the network server or the person database-equipped device, has the person search for the person information, and receives the search result.
  • the system controller 10 can search the person database based on the personal feature data.
  • step F904 If the personal information of a specific person can be searched as a search result by the external device or the system controller 10 itself, the process proceeds from step F904 to F905, and it is determined that a display control trigger for displaying the personal information is generated.
  • step F905 When it is determined in step F905 that a display control trigger has occurred, the processing in FIG. 13 of the system controller 10 proceeds from step F104 to F107.
  • the display controller 14 is searched for.
  • the person information is instructed to be superimposed and displayed.
  • this processing when a captured image, a reproduced image, and a received image are displayed, a person who has met in the past or a celebrity in these images is registered in the person database. If the person is present, information (information registered in the person database, such as name, affiliation, and place you have met in the past) will be displayed on the display unit 2 along with the person's image. The user can accurately recognize the person.
  • FIG. 21B is also an example in which it is determined that a display control trigger has occurred based on information from the image analysis unit 17. This is a processing example corresponding to the case where the image becomes difficult to see due to the influence of the sun and shade as shown in Fig. 12 (a).
  • Step F910 in (b) of FIG. 21 shows a process in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 analyzes the image data to detect whether a bright region or a dark region is generated in the image depending on the sunshine condition.
  • step F912 When it is determined in step F912 that a display control trigger has occurred, the processing in FIG. 13 of the system controller 10 proceeds from step F104 to F107. Instructs image processing that eliminates the difference in shade, for example, changing the partial display brightness level. As a result, for example, as shown in FIG. 12 (b), it is possible to provide a user with an easy-to-view image with little influence of the sun / shade.
  • control for the display image processing unit 12 includes enlargement / reduction control, brightness, contrast, sharpness, etc.
  • Control of image effects such as mosaic image / inverted brightness / soft focus, and screen division and strobe display as shown in Fig. 9 can be executed according to the external environment.
  • a display state in which the through state and an image (reproduced image, received image, captured image) are combined is also conceivable.
  • the display unit 2 is in a half-through state with a transmittance of about 50%, and an image is displayed in that state.
  • the imaging unit 2 When the captured image is displayed on the display unit 2 using the imaging function system as a source, the imaging unit
  • the imaging signal processing unit 15 As the operation control of the imaging signal processing unit 15, it is possible to perform telephoto / wide-angle zoom processing, imaging sensitivity control, switching of imaging frame rate, change control of infrared imaging sensitivity and ultraviolet imaging sensitivity, and the like.
  • the display control trigger can be set to fast forward / reverse, cue, frame advance, slow, temporary. It is used as a trigger for variable speed playback control such as stop, page feed, page scroll, feed of selected part on list display, cursor movement, decision operation, game operation, storage unit 25 and communication unit 26 It is assumed that the control is performed so as to execute a required operation.
  • any combination of these can be considered.
  • FIG. 22 (a) is an example of determining the occurrence of a source switching trigger based on the analysis result of the image analysis unit 17.
  • Step F1001 in FIG. 22 shows processing in which the system controller 10 monitors information from the image analysis unit 17.
  • the image analysis unit 17 analyzes the captured image data captured by the imaging unit 3, V, and the subject of the imaging unit 3 It shall be detected whether or not an electronic device subject to communication is included!
  • devices that can perform data communication such as personal computers, mobile phones, AV devices, and PDAs, are identified by appearance.
  • step F1002 If it is detected as an image analysis result that the electronic device has been imaged, the system controller 10 proceeds from step F1002 to F1003 and instructs the communication unit 26 to communicate with the electronic device. Send an establishment request. If the captured electronic device is a device that can communicate with the display device 1 of this example, a response to the communication establishment request is obtained, and the communication state is established. When it is determined that the external electronic device is a compatible device in this way, the system controller 10 also proceeds to step F1004 in step F1004, and determines that a source switching trigger that designates the communication unit 26 as a source has occurred.
  • step F1005 When it is determined in step F1005 that a source switching trigger has occurred, the process of Fig. 13 of the system controller 10 proceeds from step F105 to F108, and the source switching process using the communication unit 26 as the image source is performed. Do. That is, the image data received by the communication unit 26 is switched to the state displayed on the display unit 2.
  • Fig. 22 (b) is an example in which source switching is performed in response to a request from an external device at a specific location.
  • Step F1010 in FIG. 22 (b) is a step in which the system controller 10 obtains the latitude / longitude information of the current position obtained by the GPS receiver 21 from the communication unit 26 from the network server or map data. It shows the operation of sending to the database-equipped device, having the destination search for the current location information, and receiving the current location information. If the map database is held in the display device 1, the system controller 10 can search the current location information from the map database based on the latitude and longitude from the GPS receiver 21.
  • the system controller 10 determines whether or not the current position is within a predetermined district or facility based on the acquired information on the current position. If it is determined that the current position is a predetermined area or facility, the process proceeds from step F1011 to F1012 to determine whether or not there is a communication request from an external device. For example, a communication request from an external device may be waited for a predetermined time.
  • step F1013 If there is a communication request from an external device, in step F1013, the communication unit 26 establishes a communication connection state with the external device and executes a communication operation.
  • step F1014 When the communication operation is started, it is determined in step F1014 that a source switching trigger for designating the communication unit 26 as a source has occurred.
  • step F1014 When it is determined in step F1014 that a source switching trigger has occurred, the processing in FIG. 13 of the system controller 10 proceeds from step F105 to F108, and the source switching processing in which the communication unit 26 is the image source is performed. The image data received by the communication unit 26 is displayed on the display unit 2.
  • the present invention can also be applied to the case where an image as shown in Fig. 7 (a) provided by the organizer is provided to the user of the display device 1.
  • FIG. 23 is an example of determining the occurrence of a source switching trigger based on the analysis result of the imaging target sensor 20 or the image analysis unit 17.
  • This is a configuration example with an imaging function system as shown in Fig. 3.
  • This is a processing example that can be adopted in
  • step F1101 of FIG. 23 the system controller 10 determines whether or not a captured image is being displayed on the display unit 2 using the imaging function system as a source. When the captured image is displayed, the processing of (a) in FIG. 23 is not performed. On the other hand, for example, when the playback image of the storage unit 25 or the received image received by the communication unit 26 is displayed on the display unit 2, the process proceeds to step F1102.
  • Step F1102 shows a process in which the system controller 10 monitors information from the image analysis unit 17 or the imaging target sensor 20.
  • the image analysis unit 17 is analyzing the captured image data captured by the imaging unit 3 and detects whether or not a specific target is included as a subject of the imaging unit 3.
  • a specific target For example, people, animals, buildings, and natural objects.
  • the imaging target sensor 20 is a pyroelectric sensor, and it is possible to determine whether a specific target is a person or animal and a living body!
  • step F1103 If the system controller 10 determines from the information of the image analysis unit 17 or the imaging target sensor 20 that the specific target is included in the captured image, the system controller 10 proceeds from step F1103 to Fl 104, and performs the imaging function system. It is determined that a source switching trigger that specifies (imaging unit 3, imaging signal processing unit 15) as a source has occurred.
  • step F1104 When it is determined in step F1104 that a source switching trigger has occurred, the processing of the system controller 10 in Fig. 13 proceeds from step F105 to F108, and the source switching processing with the imaging function system as the image source is performed. Line! /, The image data captured by the imaging unit 3 is displayed on the display unit 2.
  • Fig. 23 (b) is an example of determining the occurrence of a source switching trigger according to the time and the current position.
  • step F1110 of FIG. 23 (b) the system controller 10 acquires the current time from the date / time counting unit 22. Further, in step 1, the current position information is acquired based on the current latitude and longitude in the GPS receiver 21. [0359] In step Fl 112, the system controller 10 determines whether or not it is currently in a specific place at a specific time, and if it is in a specific place at a specific time, step Fl 11
  • step Fill3 When it is determined that the source switching trigger has occurred in this step Fill3, the processing of the system controller 10 in Fig. 13 proceeds from step F105 to F108, and the source switching processing is performed.
  • the storage unit 25 is used as a source, and an operation in which a playback image is displayed on the storage unit 25 is realized.
  • the communication unit 26 becomes the source, and the communication unit
  • the operation of displaying the received image at 26 is realized.
  • a content service system it can be applied to services that provide content at a specific time and place.
  • force S which is an example of determining the occurrence of a source switching trigger according to external information
  • force S is only an example. There are a wide variety of examples.
  • the system controller 10 can determine whether or not the display start trigger in step F102 and the display end trigger in step F106 in FIG. 13 are generated according to the external world information.
  • the through state may be switched to the display state.
  • the temperature and humidity may be detected as shown in Fig. 16, and it may be determined that a display start trigger has occurred under a predetermined condition.
  • the display start trigger is generated according to the time zone, the date, the season, or the like.
  • step F103 if it is determined that the monitor display start trigger has occurred and the process proceeds to step F103 in FIG. 13, if the user wears the display device 1 in the through state, the user does not need to perform any operation.
  • the display operation is executed according to the situation, and an image according to the situation can be seen.
  • the display end trigger can be similarly determined.
  • ambient brightness when ambient brightness is detected as shown in FIG. 14, it may be determined that a display end trigger has occurred according to ambient brightness.
  • the temperature and humidity may be detected and it may be determined that a display end trigger has occurred under a predetermined condition.
  • a display end trigger has occurred according to the time zone, month, day, season, or the like.
  • the display unit 2 arranged in the spectacle-type or head-mounted type mounting unit displays an image immediately before the eyes of the user.
  • the display operation and display source selection are based on the external environment information such as ambient brightness, weather, subject status, recognition of a specific target in the image data, target movement, location, date and time, etc.
  • the display device 1 is a device that is easy to use for the user and can provide a variety of visual scenes.
  • the display unit 2 can be in a transparent or translucent through state by transmittance control, so that it does not interfere with normal life even when the display unit 2 is mounted by the mounting unit. Therefore, the advantage of the display device 1 of this example can be effectively utilized in the normal life of the user.
  • the power described in the embodiment particularly about the control related to the display operation such as power on / off / standby switching, control of the volume and quality of the sound output from the sound output unit 5, etc. It may be based on information. For example, the sound volume may be adjusted according to the time or place, or the surrounding sound volume may be detected and the speaker output sound volume adjusted according to the sound volume.
  • the appearance and configuration of the display device 1 are not limited to the examples of FIGS. 1, 3, and 4, and various modifications are possible.
  • the display device of the present invention is only required to be configured to display in front of the user's eyes.
  • a headphone type, a neckband type, an ear hook type, or any other mounting unit may be worn by the user.
  • it may be configured to be worn by the user by attaching to a pair of normal glasses, a visor, or headphones with an attachment such as a clip.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)

Description

明 細 書
表示装置、表示方法
技術分野
[0001] 本発明は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどによりユーザに装 着された状態で、ユーザの目の前方に位置するように表示手段が配置されて画像の 表示を行う表示装置と、表示方法に関する。
背景技術
[0002] 例えば、特開平 8— 126031号公報、特開平 9 27970号公報、特開平 9 1850 09号公報のように、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザの目の 直前に表示部を配置して表示を行う装置が、各種提案されている。
[0003] しかしながら従来の装置では、ユーザによる操作キー等の操作子の操作を不要とし たうえで、状況に応じて望まし!/、表示動作を行う装置は開発されてレ、なレ、。
[0004] そこで本発明では、外界の状況 (周囲の環境、 日時、場所、入力された画像等)に 応じて、的確な、或いはおもしろみのある表示動作が行われるようにすることを目的と する。
発明の開示
[0005] 本発明の表示装置は、使用者の目の前方に位置するように配置されて画像の表示 を行う表示手段と、外界情報を取得する外界情報取得手段と、上記外界情報取得手 段で取得された情報に基づいて上記表示手段の動作を制御する制御手段とを備え
[0006] また画像の撮像を行う撮像手段を更に備える。またこの場合、上記制御手段は、上 記外界情報取得手段で取得された情報に基づレ、て、上記撮像手段で撮像された画 像データを上記表示手段で表示させる制御を行う。
[0007] また記録媒体からデータを再生する再生手段を更に備える。またこの場合、上記制 御手段は、上記外界情報取得手段で取得された情報に基づいて、上記再生手段で 再生されたデータを上記表示手段で表示させる制御を行う。
[0008] また外部機器と通信を行ってデータを受信する受信手段を更に備える。またこの場 合、上記制御手段は、上記外界情報取得手段で取得された情報に基づいて、上記 受信手段で受信されたデータを上記表示手段で表示させる制御を行う。
[0009] また上記表示手段は、透明もしくは半透明であるスルー状態と、供給されたデータ の表示を行う表示状態とを切換可能である。
[0010] また上記外界情報取得手段は、上記外界情報として周囲環境状況を検出するセン サである。
[0011] また上記外界情報取得手段は、上記外界情報として、上記撮像手段の撮像対象 に関する情報を検出するセンサである。
[0012] また上記外界情報取得手段は、上記外界情報として、現在位置情報を取得する。
[0013] また上記外界情報取得手段は、上記外界情報として、現在日時を取得する。
[0014] また上記外界情報取得手段は、外部機器との通信により、上記外界情報を取得す
[0015] また上記外界情報取得手段は、上記表示手段に供給する画像についての画像解 析により、上記外界情報を取得する。
[0016] また上記外界情報取得手段が取得する上記外界情報は、周囲の明るさ、又は温度
、又は湿度、又は気圧、又は天候の情報である。
[0017] また上記外界情報取得手段が取得する上記外界情報は、現在位置に該当する地 点の情報である。
[0018] また上記外界情報取得手段が取得する上記外界情報は、現在位置に該当する地 域における建造物、又は自然物の情報である。
[0019] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ に含まれる特定の対象を判別する情報である。
[0020] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ に含まれる特定の対象として、人物、又は動物、又は建造物、又は自然物、又は機 器を判別する情報である。
[0021] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ に含まれる対象の動きの情報である。
[0022] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ に含まれる人物の個人を特定する情報である。
[0023] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ に文字画像が含まれるか否力、を判別する情報である。
[0024] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ の明暗、又は鮮明度の情報である。
[0025] また上記外界情報取得手段が取得する上記外界情報は、入力された画像データ の画像内の部分的な明暗、又は部分的な鮮明度の情報である。
[0026] また上記制御手段は、上記表示手段における表示動作の開始/終了の制御を行
5。
[0027] また上記制御手段は、上記表示手段に対して上記スルー状態と上記表示状態の 切換制御を行う。
[0028] また上記制御手段は、上記表示手段で表示するデータの供給ソースの切換制御を 行う。
[0029] また上記制御手段は、上記表示手段における表示画像の拡大/縮小の制御を行
5。
[0030] また上記制御手段は、上記表示手段に表示する画面の一部のハイライト表示の制 御を行う。
[0031] また上記制御手段は、上記表示手段における画面分割表示の制御を行う。
[0032] また上記制御手段は、上記表示手段における表示輝度の制御を行う。
[0033] また上記制御手段は、上記表示手段で表示させる画像信号の信号処理の制御を 行う。
[0034] また上記表示手段に供給する画像に含まれる文字に基づいて音声合成を行う音声 合成手段と、上記音声合成手段で生成された音声を出力する音声出力手段とを更 に備える。
[0035] 本発明の表示方法は、使用者の目の前方に位置するように配置されて画像の表示 を行う表示手段を備えた表示装置の表示方法として、外界情報を取得する外界情報 ステップと、上記外界情報取得ステップで取得された情報に基づ!/、て上記表示手段 における表示動作に関する制御を行う制御ステップとを備える。 [0036] 以上の本発明では、使用者 (ユーザ)は、表示装置を例えば眼鏡型もしくは頭部装 着型の装着ユニットなどにより装着することで、 目の前方に位置する表示手段を視認 する状態となる。即ちユーザは装着状態で、撮像手段で撮像された画像や、再生手 段で再生されたデータの画像、或レ、は受信手段で受信されたデータの画像などを表 示手段で視認できる。
[0037] ここで、表示動作のオン/オフ/スルー、表示する画像データのソースの選択、各 種表示動作態様 (例えば分割表示、拡大/縮小表示、表示輝度などの表示画質調 整、画像の一部のハイライトなど)や表示手段に対する入力の切換など、表示動作に 関する制御として状況に応じた制御が行われることが好ましいが、本発明では、これ らをユーザの操作子の操作ではなぐ外界情報に基づいて各種の制御を行うように する。
[0038] 本発明によれば、ユーザの眼の直前とされる表示手段で各種画像を表示させるが 、この場合に、外界情報に基づいて表示動作に関する制御を行うことで、ユーザに操 作負担がなレ、まま、状況に応じた的確或レ、はおもしろみのある表示動作が実行され る。これによりユーザにとって使用性が良ぐまた多様な視界光景を提供できる表示 装置を実現できるとレ、う効果がある。
[0039] また表示手段は透明又は半透明のスルー状態ともできるようにもすることで、装着 状態のままでも通常の生活に支障がないようにできる。このためユーザの通常の生活 の中で、本発明の表示装置の利点を有効に得ることができる。
図面の簡単な説明
[0040] [図 1]図 1は、本発明の実施の形態の表示装置の外観例の説明図である。
[図 2]図 2は、実施の形態の表示装置の使用形態の説明図である。
[図 3]図 3は、実施の形態の表示装置の構成例のブロック図である。
[図 4]図 4は、実施の形態の表示装置の他の構成例のブロック図である。
[図 5]図 5は、実施の形態のスルー状態と撮像画像表示状態の説明図である。
[図 6]図 6は、実施の形態のストレージ部から画像の表示状態の説明図である。
[図 7]図 7は、実施の形態の通信部からの画像の表示状態の説明図である。
[図 8]図 8は、実施の形態の通信部からの画像の表示状態の説明図である。 [図 9]図 9は、実施の形態の分割表示の説明図である。
[図 10]図 10は、実施の形態の拡大画像の表示状態の説明図である。
[図 11]図 11は、実施の形態の明るさ調整画像の表示状態の説明図である。
[図 12]図 12は、実施の形態の画像処理の説明図である。
[図 13]図 13は、実施の形態の制御処理のフローチャートである。
[図 14]図 14は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 15]図 15は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 16]図 16は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 17]図 17は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 18]図 18は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 19]図 19は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 20]図 20は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 21]図 21は、実施の形態の表示制御トリガの判別処理のフローチャートである。
[図 22]図 22は、実施の形態のソース切換トリガの判別処理のフローチャートである。
[図 23]図 23は、実施の形態のソース切換トリガの判別処理のフローチャートである。 発明を実施するための最良の形態
[0041] 以下、本発明の表示装置、表示方法の実施の形態を、次の順序で説明する。
[0042] [1.表示装置の外観例及び外部機器との関連]
[2.表示装置の構成例]
[3.表示例]
[4.外界情報の検出]
[5.各種動作例]
[6.実施の形態の効果、変形例及び拡張例]
[0043] [1.表示装置の外観例及び外部機器との関連]
実施の形態として、図 1に眼鏡型ディスプレイとした表示装置 1の外観例を示す。表 示装置 1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造 の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。
[0044] そしてこの表示装置 1は、図 1のような装着状態において、ユーザの両眼の直前、 即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示 部 2、 2が配置される構成とされている。この表示部 2には、例えば液晶パネルが用い られ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態 とできる。表示部 2がスルー状態とされることで、眼鏡のようにユーザが常時装着して いても、通常の生活には支障がない。
[0045] またユーザが装着した状態において、ユーザが視認する方向を被写体方向として 撮像するように、前方に向けて撮像レンズ 3aが配置されている。
[0046] また撮像レンズ 3aによる撮像方向に対して照明を行う発光部 4aが設けられる。発 光部 4aは例えば LED (Light Emitting Diode)により形成される。
[0047] また、図では左耳側しか示されていないが、装着状態でユーザの右耳孔及び左耳 孔に揷入できる一対のイヤホンスピーカ 5aが設けられる。
[0048] また右眼用の表示部 2の右方と、左眼用の表示部 2の左方に、外部音声を集音す るマイクロホン 6a, 6bが配置される。
[0049] なお図 1は一例であり、表示装置 1をユーザが装着するための構造は多様に考えら れる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されればよぐ 少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部 2が設けられ ていればよい。また表示部 2は、両眼に対応して一対設けられる他、片側の眼に対応 して 1つ設けられる構成でもよい。
[0050] またイヤホンスピーカ 5aは、左右のステレオスピーカとせずに、一方の耳にのみ装 着するために 1つ設けられるのみでもよい。またマイクロホンも、マイクロホン 6a, 6bの うちの一方でもよい。
[0051] また図 1は撮像機能を含む例としているが、撮像機能を備えない例も考えられる。
[0052] さらには、表示装置 1としてマイクロホンやイヤホンスピーカを備えない構成も考えら れる。また発光部 4aを設けない構成も考えられる。
[0053] ところで内部構成例については後述する力 この表示装置 1は、記録媒体に対して 再生を行う再生機能(図 3,図 4で述べるストレージ部 25)や、外部機器と通信を行う 通信機能(図 3,図 4で述べる通信部 26)を備えることも考えられる。
[0054] 従って、表示部 2において表示する画像としてのデータのソースは、撮像機能部位 、再生機能部位、通信機能部位が想定される。
[0055] 図 2は、表示装置 1の使用形態を、外部機器との関連において例示したものである
[0056] 図 2の(a)は表示装置 1を単体で使用する場合であり、この場合、表示装置 1が撮 像機能を有していれば、撮像された画像データを表示部 2に表示させることができる 。また、表示装置 1が再生機能を有していれば、記録媒体から再生されたデータによ る画像を表示部 2に表示させることができる。記録媒体から再生されるデータとしては 、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像 されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパ 一ソナルコンピュータ等で作成して記録媒体に記録した画像データ、テキストデータ
、表計算データ等のコンピュータユースのデータ、記録媒体に記録されたゲームプロ グラムに基づくゲーム画像など、記録媒体に記録されて表示対象となるあらゆるデー タが想定される。
[0057] 図 2の (b)は、表示装置 1が通信機能を備え、外部の撮像装置 70と通信を行う例で ある。この場合、表示装置 1は、撮像装置 70で撮像された画像 (動画/静止画)を受 信して表示部 2に表示させる。外部の撮像装置 70とは、通信機能を備えたビデオ力 メラ、デジタルスチルカメラなどが想定できるし、また図 1のように撮像機能を備えた表 示装置 1を、或る表示装置 1に対して外部の撮像装置 70と考えることもできる。
[0058] また外部の撮像装置 70は、表示装置 1を用いるユーザ本人が所有する撮像装置 であったり、表示装置 1のユーザの知人が所有する撮像装置であったり、或いは画像 提供を行う公共或いはサービス企業等の撮像装置であって表示装置 1と通信可能と されて!/、るものなど多様に考えられる。
[0059] 図 2の(c)は、表示装置 1が通信機能を備え、外部のコンテンツソース機器 71と通 信を行う例である。この場合、表示装置 1は、コンテンツソース機器 71から提供される 画像 (動画/静止画)を受信して表示部 2に表示させる。
[0060] コンテンツソース機器 71とは、例えばビデオ機器、テレビジョンチューナ、ホームサ ーバ機器等の AV (Audio-Visual)機器や、パーソナルコンピュータ、 PDA (Personal Digital Assistant)、携帯電話機などの情報処理装置などが想定できる。このようなコ ンテンッソース機器 71も、表示装置 1を用いるユーザ本人やその知人が所有する機 器であったり、各種コンテンツ提供を行う公共或いはサービス企業等のサーバ機器 であるなど多様に考えられる。
[0061] コンテンツソース機器 71から表示装置 1に送信されるデータとしては、例えば映画 やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒 体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンビ ユータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータュ ースのデータ、ゲーム画像など、表示対象となるあらゆるデータが想定される。
[0062] 図 2の(d)は、表示装置 1が通信機能、特にインターネット等のネットワーク 73を介し た通信アクセス機能を備えることで、ネットワーク 73で接続される外部の撮像装置 70 やコンテンツソース機器 71と通信を行う例である。この場合表示装置 1は、ネットヮー ク 73を介して各種データを受信し、その受信したデータの画像を表示部 2で表示さ せる。
[0063] [2.表示装置の構成例]
図 3に表示装置 1の内部構成例を示す。
[0064] システムコントローラ 10は、例えば CPU (Central Processing Unit)、 ROM (Read O nly Memory)、 RAM (Random Access Memory)、不揮発十生メモリ部、インターフエ一 ス部を備えたマイクロコンピュータにより構成され、表示装置 1の全体を制御する制御 とされる。
[0065] このシステムコントローラ 10は外界の状況に基づいて、表示装置 1内の各部の制御 を行う。つまり外界の状況を検知判定し、それに応じて各部の動作制御を実行するよ うにされた動作プログラムに従って動作する。このため機能的に見れば、図示するよ うに外界の状況を判定する外界状況判定機能 10aと、外界状況判定機能 10aの判 定結果に従って各部に制御指示を行う動作制御機能 10bを有することになる。
[0066] 表示装置 1内では、ユーザの前方の光景の撮像のための構成として、撮像部 3、撮 像制御部 11、撮像信号処理部 15が設けられる。
[0067] 撮像部 3は、図 1に示した撮像レンズ 3aや、絞り、ズームレンズ、フォーカスレンズな どを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を 行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行う ことで撮像信号を生成する固体撮像素子アレイなどが設けられる。固体撮像素子ァ レイは、例えば CCD (Charge Coupled Device)センサアレイや、 CMOS (Complemen tary Metal Oxide Semiconductor)センサアレイとされる。
[0068] 撮像信号処理部 15は、撮像部 3の固体撮像素子によって得られる信号に対するゲ イン調整や波形整形を行うサンプルホールド/ AGC(Automatic Gain Control)回路 や、ビデオ A/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また撮 像信号処理部 15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処 理、ぶれ補正処理なども行う。
[0069] 撮像制御部 11は、システムコントローラ 10からの指示に基づいて、撮像部 3及び撮 像信号処理部 15の動作を制御する。例えば撮像制御部 11は、撮像部 3,撮像信号 処理部 15の動作のオン/オフを制御する。また撮像制御部 11は撮像部 3に対して、 オートフォーカス、 自動露出調整、絞り調整、ズームなどの動作を実行させるための 制御(モータ制御)を行うものとされる。
[0070] また撮像制御部 11はタイミングジェネレータを備え、固体撮像素子及び撮像信号 処理部 15のサンプルホールド/ AGC回路、ビデオ A/Dコンバータに対しては、タ イミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。 また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
[0071] さらに撮像制御部 11は、固体撮像素子及び撮像信号処理部 15における撮像感度 や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出され る信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像 信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができ る。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば 赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整( 例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度 調整は、撮像レンズ系における波長フィルタの揷入や、撮像信号に対する波長フィ ルタ演算処理により可能である。これらの場合、撮像制御部 11は、波長フィルタの揷 入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。 [0072] 撮像部 3で撮像され、撮像信号処理部 15で処理された撮像信号 (撮像による画像 データ)は画像入出力コントロール部 27に供給される。
[0073] 画像入出力コントロール部 27は、システムコントローラ 10の制御に応じて、画像デ ータの転送を制御する。即ち撮像系(撮像信号処理部 15)、表示系(表示画像処理 部 12)、ストレージ部 25、通信部 26の間の画像データの転送を制御する。
[0074] 例えば画像入出力コントロール部 27は、撮像信号処理部 15で処理された撮像信 号としての画像データを、表示画像処理部 12に供給したり、ストレージ部 25に供給し たり、通信部 26に供給する動作を行う。
[0075] また画像入出力コントロール部 27は例えばストレージ部 25から再生された画像デ ータを、表示画像処理部 12に供給したり、通信部 26に供給する動作を行う。
[0076] また画像入出力コントロール部 27は例えば通信部 26で受信された画像データを、 表示画像処理部 12に供給したり、ストレージ部 25に供給する動作を行う。
[0077] 表示装置 1にお!/、てユーザに対して表示を行う構成としては、表示部 2、表示画像 処理部 12、表示駆動部 13,表示制御部 14が設けられる。
[0078] 例えば撮像部 3で撮像され、撮像信号処理部 15で処理された撮像信号としての画 像データは、画像入出力コントロール部 27を介して表示画像処理部 12に供給するこ とができる。表示画像処理部 12は、例えばいわゆるビデオプロセッサとされ、供給さ れた画像データに対して各種表示処理を実行できる部位とされる。例えば画像デー タの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを 行うこと力 Sできる。また表示画像処理部 12は、供給された画像データの一部を拡大し た拡大画像の生成、或いは縮小画像の生成、供給された画像データの分割表示の ための画像の分離や合成、画像内の一部をハイライト表示(強調表示)させる画像処 理、キャラクタ画像やイメージ画像の生成や、生成した画像を供給された画像データ に合成する処理なども行うことができる。つまり供給された画像データに対しての各種 処理を fiうこと力 Sできる。
[0079] 表示駆動部 13は、表示画像処理部 12から供給される画像データを、例えば液晶 ディスプレイとされる表示部 2において表示させるための画素駆動回路で構成されて いる。即ち表示部 2においてマトリクス状に配置されている各画素について、それぞ れ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を 実行させる。また表示駆動部 13は、表示部 2の各画素の透過率を制御して、スルー 状 とすることあでさる。
[0080] 表示制御部 14は、システムコントローラ 10の指示に基づいて、表示画像処理部 12 の処理動作や表示駆動部 13の動作を制御する。即ち表示画像処理部 12に対して は、上記の各種処理を実行させる。また表示駆動部 13に対してはスルー状態、画像 表示状態の切り換えが行われるように制御する。
[0081] なお、ストレージ部 25で再生された画像データや、通信部 26で受信された画像デ ータも、画像入出力コントロール部 27を介して表示画像処理部 12に供給できる。そ の場合、表示画像処理部 12、表示駆動部 13の上記動作により、表示部 2において 再生画像や受信画像が出力されることになる。
[0082] また表示装置 1には、音声入力部 6、音声信号処理部 16,音声出力部 5が設けら れる。
[0083] 音声入力部 6は、図 1に示したマイクロホン 6a, 6bと、そのマイクロホン 6a, 6bで得 られた音声信号を増幅処理するマイクアンプ部や A/D変換器を有し、音声データ を出力する。
[0084] 音声入力部 6で得られた音声データは音声入出力コントロール部 28に供給される
[0085] 音声入出力コントロール部 28は、システムコントローラ 10の制御に応じて、音声デ ータの転送を制御する。即ち音声入力部 6、音声信号処理部 16、ストレージ部 25、 通信部 26の間の音声信号の転送を制御する。
[0086] 例えば音声入出力コントロール部 28は、音声入力部 6で得られた音声データを、 音声信号処理部 16に供給したり、ストレージ部 25に供給したり、通信部 26に供給す る動作を行う。
[0087] また音声入出力コントロール部 28は例えばストレージ部 25で再生された音声デー タを、音声信号処理部 16に供給したり、通信部 26に供給する動作を行う。
[0088] また音声入出力コントロール部 28は例えば通信部 26で受信された音声データを、 音声信号処理部 16に供給したり、ストレージ部 25に供給する動作を行う。 [0089] 音声信号処理部 16は、例えばデジタルシグナルプロセッサ、 D/A変換器などから なる。この音声信号処理部 16には、音声入力部 6で得られた音声データや、ストレー ジ部 25、或いは通信部 26からの音声データが、音声入出力コントロール部 28を介し て供給される。音声信号処理部 16は、供給された音声データに対して、システムコン トローラ 10の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そ して処理した音声データをアナログ信号に変換して音声出力部 5に供給する。なお、 音声信号処理部 16は、デジタル信号処理を行う構成に限られず、アナログアンプや アナログフィルタによって信号処理を行うものでも良い。
[0090] 音声出力部 5は、図 1に示した一対のイヤホンスピーカ 5aと、そのイヤホンスピーカ
5aに対するアンプ回路を有する。
[0091] この音声入力部 6、音声信号処理部 16,音声出力部 5により、ユーザは外部音声を 聞いたり、ストレージ部 25で再生された音声を聞いたり、通信部 26で受信された音 声を聞くこと力できる。なお音声出力部 5は、いわゆる骨伝導スピーカとして構成され てもよい。
[0092] ストレージ部 25は、所定の記録媒体に対してデータの記録再生を行う部位とされる 。例えば HDD (Hard Disc Drive)として実現される。もちろん記録媒体としては、フラ ッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気デ イスク、ホログラムメモリなど各種考えられ、ストレージ部 25としては採用する記録媒体 に応じて記録再生を実行できる構成とされればよい。
[0093] 撮像部 3で撮像され、撮像信号処理部 15で処理された撮像信号としての画像デー タゃ、通信部 26で受信した画像データは、画像入出力コントロール部 27を介してスト レージ部 25に供給することができる。また音声入力部 6で得られた音声データや、通 信部 26で受信した音声データは、音声入出力コントロール部 28を介してストレージ 部 25に供給することができる。
[0094] ストレージ部 25はシステムコントローラ 10の制御に従って、供給された画像データ や音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒 体に記録する。
[0095] またストレージ部 25はシステムコントローラ 10の制御に従って、記録媒体から画像 データや音声データを再生する。再生した画像データは画像入出力コントロール部 2 7へ出力し、また再生した音声データは音声入出力コントロール部 28へ出力する。
[0096] 通信部 26は外部機器との間でのデータの送受信を行う。外部機器としては、図 2で 述べた撮像装置 70やコンテンツソース機器 71などとしての各種の機器が考えられる
[0097] 通信部 26は、無線 LAN、ブルートゥースなどの方式で、例えばネットワークアクセス ポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし 、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよレ、。
[0098] 撮像部 3で撮像され、撮像信号処理部 15で処理された撮像信号としての画像デー タゃ、ストレージ部 25で再生した画像データは、画像入出力コントロール部 27を介し て通信部 26に供給することができる。また音声入力部 6で得られた音声データや、ス トレージ部 25で再生された音声データは、音声入出力コントロール部 28を介して通 信部 26に供給すること力 Sできる。
[0099] 通信部 26はシステムコントローラ 10の制御に従って、供給された画像データや音 声データに対して、送信のためのエンコード処理、変調処理等を行い、外部機器に 送信する。
[0100] また通信部 26は外部機器からのデータ受信動作を行う。受信復調した画像データ は画像入出力コントロール部 27へ出力し、また受信復調した音声データは音声入出 力コントロール部 28へ出力する。
[0101] また表示装置 1には音声合成部 29が設けられる。この音声合成部 29はシステムコ ントローラ 10の指示に応じて音声合成を行い、音声信号を出力する。
[0102] 音声合成部 29から出力された音声信号は、音声入出力コントロール部 28を介して 音声信号処理部 16に供給されて処理された後、音声出力部 5に供給され、ユーザに 対して音声出力される。
[0103] この音声合成部 29は、例えば後述する読み上げ音声の音声信号を発生させること になる。
[0104] 表示装置 1には照明部 4と照明制御部 18が設けられる。照明部 4は、図 1に示した 発光部 4aとその発光部 4a (例えば LED)を発光させる発光回路から成る。照明制御 部 18は、システムコントローラ 10の指示に基づいて、照明部 4に発光動作を実行さ せる。
[0105] 照明部 4における発光部 4aが図 1に示したように前方に対する照明を行うものとして 取り付けられていることで、照明部 4はユーザの視界方向に対する照明動作を行うこ とになる。
[0106] この表示装置 1は、外界情報を取得するための構成として、周囲環境センサ 19、撮 像対象センサ 20、 GPS受信部 21、 日時計数部 22、画像解析部 17、及び通信部 26 を有する。
[0107] 周囲環境センサ 19としては、具体的には例えば照度センサ、温度センサ、湿度セ ンサ、気圧センサ等が想定され、表示装置 1の周囲環境として、周囲の明るさ、温度 、湿度、或いは天候等を検出するための情報を得るセンサとされる。
[0108] 撮像対象センサ 20は、撮像部 3での撮像動作の被写体となっている撮像対象に関 する情報を検出するセンサである。例えば当該表示装置 1から撮像対象までの距離 の情報を検出する測距センサや、焦電センサなどの赤外線センサのように、撮像対 象が発する赤外線の特定の波長などの情報やエネルギーを検出するセンサなどが 想定される。焦電センサの場合、例えば撮像対象が人や動物などの生体であるか否 かの検出が可能となる。
[0109] さらに、各種 UV (Ultra Violet)センサのように、撮像対象が発する紫外線の特定の 波長などの情報やエネルギーを検出するセンサも想定される。この場合、例えば撮 像対象が蛍光物質や蛍光体であるか否かの検出や、 日焼け対策に必要な外界の紫 外線量の検出が可能となる。
[0110] GPS受信部 21は、 GPS (Global Positioning System)の衛星からの電波を受信し、 現在位置としての緯度 ·経度の情報を出力する。
[0111] 日時計数部 22は、いわゆる時計部として、 日時 (年月日時分秒)を計数し、現在日 時情報を出力する。
[0112] 画像解析部 17は、画像データの画像解析を行う。画像解析部 17には、画像入出 力コントロール部 27を介して画像データが供給される。画像解析部 17において画像 解析の対象となる画像データとは、撮像部 3,撮像信号処理部 15により得られた撮 像画像としての画像データや、通信部 26で受信された画像データ、或いはストレー ジ部 25で記録媒体から再生された画像データとなる。つまり表示装置 1が、表示部 2 において表示可能に入力した画像データが画像解析部 17での画像解析対象となる 。そして画像解析部 17は画像データを解析し、画像データに含まれる画像の情報を 得る。
[0113] 通信部 26は、外部機器との間でのデータ通信を行う。外部機器としては、コンビュ ータ機器、 PDA (Personal Digital Assistant)、携帯電話機、ビデオ機器、オーディオ 機器、チューナ機器など、情報処理及び通信機能を備えたあらゆる機器が想定され
[0114] またインターネット等のネットワークに接続された端末装置、サーバ装置なども通信 対象の外部機器として想定される。
[0115] さらには、 ICチップを内蔵した非接触通信 ICカード、 QRコード等の二次元バーコ ード、ホログラムメモリなどを外部機器とし、通信部 26はこれらの外部機器から情報を 読み取る構成とすることも考えられる。
[0116] さらには他の表示装置 1も外部機器として想定される。
[0117] 通信部 26は、無線 LAN、ブルートゥースなどの方式で、例えばネットワークアクセス ポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし 、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでも良レ、。
[0118] これら周囲環境センサ 19、撮像対象センサ 20、 GPS受信部 21、 日時計数部 22、 画像解析部 17、及び通信部 26により、表示装置 1からみての外界の情報が取得さ れ、システムコントローラ 10に供給される。
[0119] システムコントローラ 10は外界状況判定機能 10aの処理により、取得した外界情報 に応じて、動作制御機能 10bの処理により、撮像動作や表示動作に関する制御を行 う。即ちシステムコントローラ 10は表示制御部 14に指示して表示画像処理部 12や表 示駆動部 13の動作を制御したり、表示するデータのソースを選択したり、またストレー ジ部 25の再生動作や通信部 26の通信動作の制御を行う。
[0120] なお、外界情報を取得するための構成として周囲環境センサ 19、撮像対象センサ
20、 GPS受信部 21、 日時計数部 22、画像解析部 17、及び通信部 26を示したが、こ れらは必ずしも全てを備える必要はない。また、周囲の音声を検知 ·解析する音声解 析部など、他のセンサが設けられても良い。
[0121] 次に図 4は、撮像機能を有しない表示装置 1の構成例を示すものである。なお、図 3 と同一機能のブロックには同一符号を付し、重複説明を避ける。
[0122] この図 4の構成は、図 3の構成から、撮像部 3,撮像信号処理部 15、撮像制御部 11
、照明部 4、照明制御部 18、音声入力部 6、撮像対象センサ 20を省いたものとなって いる。
[0123] 上記図 3の構成例の場合、表示部 2に表示させるデータのソースは、撮像機能系( 撮像部 3,撮像信号処理部 15、撮像制御部 11)と、再生機能系(ストレージ部 25)と 、受信機能系(通信部 26)の 3つとなる力、この図 4の構成例の場合、表示部 2に表示 させるデータのソースは、再生機能系(ストレージ部 25)と、受信機能系(通信部 26) の 2つとなる。
[0124] つまり図 3は表示画像のソースとして表示装置 1内に 3系統のソースを備える場合の 例であり、図 4は表示装置 1内に 2系統のソースを備える場合の例である。
[0125] この場合、画像解析部 17において画像解析の対象となる画像データとは、通信部 26で受信された画像データ、或いはストレージ部 25で記録媒体から再生された画像 データとなる。
[0126] なお図示しないが表示装置 1の構成例としては、この図 3,図 4以外に、表示装置 1 内の表示画像のソースとして、例えば撮像機能系のみを備える例、再生機能系のみ を備える例、受信機能系のみを備える例、撮像機能系と再生機能系を備える例、撮 像機能系と受信機能系を備える例などが、それぞれ考えられる。
[0127] [3.表示例]
システムコントローラ 10が、取得した外界情報に応じて表示動作に関する制御を行 い、表示するデータのソースを選択したり、表示画像処理を行うことなどにより、ユー ザは表示部 2において多様な表示態様、表示内容の画像を見ることができる。図 5か ら図 12により、各種の表示例を示す。
[0128] 図 5の(a)は表示部 2がスルー状態となっている場合を示しているとする。つまり、表 示部 2は単なる透明の板状体となっており、ユーザが視界光景を透明の表示部 2を 介して見てレ、る状態である。
[0129] 図 5の (b)は、撮像部 3で撮像した画像が表示部 2に表示された状態である。例え ば図 5の(a)の状態で撮像部 3,撮像信号処理部 15,表示画像処理部 12,表示駆 動部 13が動作し、撮像画像を通常に表示部 2に表示した状態である。この場合の表 示部 2に表示される撮像画像(通常撮像画像)は、スルー状態の場合とほぼ同様とな る。つまりユーザにとっては、通常の視界を、撮像された画像として見ている状態であ
[0130] 図 5の(c)は、システムコントローラ 10が撮像制御部 11を介して撮像部 3に望遠撮 像を実行させた場合であり、望遠画像が表示部 2に表示されている。
[0131] 図示しないが、逆にシステムコントローラ 10が撮像制御部 11を介して撮像部 3に広 角撮像を実行させれば、近距離の光景が広角に映し出された画像が表示部 2に表 示されることになる。なお、望遠一広角の制御は、撮像部 3におけるズームレンズの 駆動制御の他、撮像信号処理部 15での信号処理でも可能である。
[0132] 上記図 5の (b) (c)は撮像機能系を画像ソースとして表示部 2に表示を行った例を 示したが、図 6はストレージ部 25を表示画像のソースとして表示部 2に表示を行う例を 示している。
[0133] 図 6の(a)は、ストレージ部 25における記録媒体に動画や静止画の画像コンテンツ が記録されており、その画像コンテンツが再生されて表示部 2で表示されている例で ある。
[0134] 図 6の(b)は、ストレージ部 25における記録媒体にゲームプログラムが記録されて おり、そのゲームプログラムに基づく画像が表示部 2で表示されている例である。
[0135] 図 6の(c)は、ストレージ部 25における記録媒体に電子書籍コンテンツが記録され ており、その電子書籍コンテンツが再生されて表示部 2で表示されている例である。
[0136] これら図 6の(a) (b) (c)のようにユーザは表示装置 1を用いて記録媒体に記録され たデータの再生画像を楽しむことができる。
[0137] 次に図 7,図 8は通信部 26を表示画像のソースとして表示部 2に表示を行う例を示 している。
[0138] 図 7は、図 2の(b)又は図 2の(d)のような通信で、外部の撮像装置 70から送信され 、通信部 26で受信した画像を表示する例である。
[0139] 図 7の(a)は、例えばユーザからの視界が図 5の(a)のようであり、つまりスタジアム で客席からサッカーを観戦している状態にあるときに、スタジアムの別の場所で撮像 を行う撮像装置 70による映像を、通信部 26で受信し、表示部 2に表示させている例 である。例えば監督席近辺に設置された撮像装置 70や、審判が装着する小型の撮 像装置 70などからの映像を受信して、表示部 2で表示することで、より興味深く試合 観戦を fiうこと力 Sできる。
[0140] 図 7の (b)は、リゾート地に設置した撮像装置 70や、旅行中の知人が所持する撮像 装置 70によって撮像した映像を、通信部 26で受信し、表示部 2に表示させている例 である。このような映像表示により、ユーザは、例えば自宅等にいながら、多様な地域 の映像を見ることができる。
[0141] 図 7の(c)は、航空機や衛星に設置された撮像装置 70で撮像した地上の映像 (バ ードビュー映像)を、通信部 26で受信し、表示部 2に表示させている例である。このよ うな映像表示により、ユーザは、通常は見ることのできない風景を楽しむことができる
[0142] 図 8は、図 2の(c)又は図 2の(d)のような通信で、外部のコンテンツソース機器 71 から送信され、通信部 26で受信した画像を表示する例である。
[0143] 図 8の(a)は、 AV機器やパーソナルコンピュータ等のコンテンツソース機器 71から 、動画や静止画の画像コンテンツを受信した場合に、その画像コンテンツが表示部 2 で表示されてレ、る例である。
[0144] 図 8の(b)は、例えばパーソナルコンピュータ等のコンテンツソース機器 71において アクセスしているウェブサイトのブラウザ画面、或いは起動中のアプリケーション画面 などとしての画像データを、表示装置 1に送信させ、表示装置 1においては通信部 2 6で受信した画像データを表示部 2で表示させている例である。
[0145] 図 8の(c)は、例えばパーソナルコンピュータ等のコンテンツソース機器 71において 見ることのできる写真画像の一覧表示画像などを表示装置 1に送信させ、表示装置 1 において通信部 26で受信し、表示部 2に表示させている例である。
[0146] 例えばこのようにコンテンツソース機器 71からの画像として、ビデオプレーヤ等の A V機器や、パーソナルコンピュータ等の情報処理装置からのデータを受信して画像 表示を行うことで、ユーザは装着した表示装置 1において、これらの画像を確認したり
、各種の作業を行うことができる。
[0147] なお、図 6はストレージ部 25をソースとする画像、図 8は通信部 26をソースとする画 像として述べたが、例えば図 8で例に挙げた画像内容を、ストレージ部 25からの再生 画像と考えることもできるし、図 6で例に挙げた画像内容を、外部機器から送信されて 通信部 26で受信した画像と考えることもできる。
[0148] 図 9,図 10,図 11 ,図 12は、上記のような各種ソース(撮像機能系、再生機能系、 又は受信機能系)からの画像について、表示態様や画像データに関する処理を行う 例である。
[0149] 図 9の(a)は、表示部 2がスルー状態とされて!/、る場合を示して!/、る。
[0150] システムコントローラ 10が表示制御部 14 (表示画像処理部 12、表示駆動部 13)に 対して分割表示を指示することにより、図 9の(b)のような画像を表示部 2に表示させ ること力 Sできる。即ち表示部 2の画面上を領域 AR1、 AR2に分割し、領域 AR1はス ルー状態又は通常画像表示とし、領域 AR2には、例えばストレージ部 25或いは通 信部 26をソースとする画像(例えば再生又は受信した映像コンテンツの画像など)を 表示させている例である。
[0151] また図 9の(c)は他の分割表示の例を示しており、この場合は表示部 2の画面上を 領域 AR1、 AR2、 AR3, AR4に分割するとともに、各領域には、所定時間間隔で画 像の 1フレームを抽出して表示させている。例えば表示画像処理部 12に、画像デー タについて 0. 5秒間隔で 1フレームを抽出させ、抽出したフレームの画像を領域 AR 1→AR2→AR3→AR4→AR1→AR2 ' - 'と順に表示させていく。これは、いわゆる ストロボ表示と呼ばれるような画像を表示部 2で分割表示により実行した例である。
[0152] もちろん画面上の複数の領域で、それぞれ異なるソースからの画像を表示すること も考えられる。
[0153] 図 10の(a)は表示部 2に、撮像機能系、再生機能系、又は受信機能系からの画像 がそのまま通常のサイズで表示されて!/、る場合を示して!/、る。
[0154] このときにシステムコントローラ 10が、表示制御部 14を介して表示画像処理部 12に 対して画像拡大処理を指示することで、図 10の(b)のような拡大画像を表示部 2に表 示させること力 Sでさる。
[0155] 図 11の(a)は表示部 2に、撮像機能系、再生機能系、又は受信機能系からの画像 が通常に表示されて!/、る場合を示して!/、る。
[0156] 但しこの表示画像は、輝度の低!/、画像であって、ユーザにとって快適な見やすレ、 画像ではないとする。
[0157] このような場合に、システムコントローラ 10は表示制御部 14 (表示画像処理部 12、 表示駆動部 13)に対して輝度アップ、コントラスト、シャープネス調整を指示すること などにより、図 11の (b)のように、よりはっきりした画像を表示部 2に表示させることが できる。
[0158] 図 12の(a)は、表示部 2に、撮像機能系、再生機能系、又は受信機能系からの画 像が通常に表示されている場合、もしくは表示部 2がスルー状態とされている場合を 示している。この画像では、例えばサッカースタジアムにおいてピッチ上に日陰と日 なたの境界が生じ、見にくい状況となっている。
[0159] システムコントローラ 10は、表示画像処理部 12に指示して、例えば日陰部分に相 当する領域の画素について表示輝度を向上させ、一方、 日なた部分に相当する領 域の画素にっレ、て表示輝度を低下させることで、図 12の(b)のように日なた/日陰 の影響が低減された画像が表示される。
[0160] 図 12の(c)は特定の対象として、画像内に例えば鳥が含まれている場合に、その 鳥を強調させるようにハイライト表示させた表示例である。
[0161] 画像内で、鳥が検知される場合に、その鳥の部分をハイライト表示させることで、ュ 一ザが例えば鳥という特定の対象を見つけやすくした表示を実現できる。
[0162] ハイライト画像処理としては、画像内で注目部分のみの輝度を上げたり、注目部分 以外の輝度を下げたり、注目部分をカラー表示で注目部分以外をモノクロ表示とする などの手法が考えられる。また注目部分に注目枠やカーソル、ポインタマーク等、何 らかのキャラクタ画像を表示させることで画像内の特定部分を強調しても良い。
[0163] ここまで各種の表示例を示したが、これらは一例にすぎない。本例においては、撮 像機能系、再生機能系、受信機能系というソースの選択や、撮像機能系や再生機能 系の動作、さらには表示画像処理部 12,表示駆動部 13の各処理や動作を制御する ことで、多様な表示形態が実現される。
[0164] 例えば、撮像機能系を表示画像ソースとする場合は、望遠表示、広角表示、望遠 力、ら広角までの間のズームインもしくはズームアウト表示、拡大表示、縮小表示、フレ ームレートの可変表示(高フレームレートや低フレームレートでの撮像など)、高輝度 表示、低輝度表示、コントラスト可変表示、シャープネス可変表示、撮像感度上昇状 態の表示、赤外線撮像感度上昇状態の表示、紫外線撮像感度上昇状態の表示、特 定波長帯域をカットした画像の表示なども可能である。
[0165] また再生機能系、受信機能系を表示画像ソースとする場合は、高速再生、スロー再 生、コマ送り再生などの変速再生による画像表示や、表示ページの切換、スクロール 表示などパーソナルコンピュータ等における表示と同様の表示も可能である。
[0166] また表示画像処理部 12の処理により、モザイク画像/輝度反転画像/ソフトフォー カス/画像内の一部の強調表示/画像全体の色の雰囲気の可変などの画像エフェ タト表示やその組み合わせなども想定される。
[0167] さらに、これらの各種の画像表示を組み合わせた分割表示、スルー状態と撮像画 像(又は再生画像又は受信画像)を組み合わせた分割表示、撮像画像(又は再生画 像又は受信画像)の 1フレームの表示を継続させる静止画表示など、非常に多様な 表示態様が想定される。
[0168] [4.外界情報の検出]
上述したように本例の表示装置 1は、外界情報を取得するための構成として周囲環 境センサ 19、撮像対象センサ 20、 GPS受信部 21、 日時計数部 22、画像解析部 17
、及び通信部 26を有する。
[0169] 周囲環境センサ 19としては、照度センサ、温度センサ、湿度センサ、気圧センサ等 が想定される。
[0170] 照度センサによっては、表示装置 1の周囲の明るさの情報を検出できる。
[0171] また温度センサ、湿度センサ、気圧センサによっては、温度、湿度、気圧或いは天 候を判別する情報を得ることができる。
[0172] これらの周囲環境センサ 19により、表示装置 1は周囲の明るさや戸外の場合の気 象状況などを判定できるため、システムコントローラ 10は、これらを外界情報として用 いて、周囲の明るさや気象状況に適した表示動作を実行制御できる。
[0173] 図 3の構成の場合、撮像対象センサ 20が設けられて撮像対象についての情報を検 知する。例えば測距センサゃ焦電センサなどが考えられる力 撮像対象との距離や、 撮像対象自体を判定する情報を得ることができる。
[0174] 撮像対象までの距離を検出することで、システムコントローラ 10は、距離に応じた表 示動作を実行制御したり、撮像対象が人などの生体であることを検知することで、撮 像対象に応じた表示動作を実行制御できる。
[0175] GPS受信部 21は、現在位置としての緯度'経度の情報を取得する。緯度'経度を 検出した場合、地図データベース等を参照することで、現在位置における地点(地点 近辺)の情報を得ることができる。図 3、図 4の構成では特に述べていないが、例えば システムコントローラ 10が参照できる記録媒体として、例えば HDD (Hard Disk Drive )やフラッシュメモリなどであって比較的大容量の記録媒体を搭載し、これらの記録媒 体に地図データベースを記憶させることで、現在位置に関連する情報を取得できる。
[0176] また表示装置 1に地図データベースを内蔵していなくても、通信部 26を介して例え ばネットワークサーバや地図データベース内蔵機器にアクセスし、緯度'経度を送信 して現在位置に応じた情報を要求し、情報を受信するようにしてもよい。
[0177] 現在位置に関連する情報としては、現在位置近辺の地名、建造物名、施設名、店 名、駅名などの名称情報がある。
[0178] また現在位置に関連する情報としては、公園、テーマパーク、コンサートホール、劇 場、映画館、スポーツ施設など、建造物の種別を示す情報もある。
[0179] また現在位置に関連する情報としては、海岸、海上、河川、山間部、山頂部、森林 、湖、平野部など、自然物の種別や名称の情報もある。
[0180] また、より詳細な位置についての情報として、例えばテーマパーク内でのエリアや、 野球場、サッカー場などでの観戦席のエリア、コンサートホールでの座席のエリアの 情報なども現在位置についての情報として取得することができる。
[0181] これら、現在位置に関する情報を取得することで、システムコントローラ 10は、現在 位置や現在地点の近辺の地理的条件や施設などに応じた表示動作を実行制御でき [0182] 日時計数部 22は例えば年月日時分秒を計数する。この日時計数部 22によってシ ステムコントローラ 10は、現在時刻、昼夜の別、月、季節などを認識できる。このため 、例えば昼夜の別(時刻)に応じた表示動作や、現在の季節に適した表示動作など を実行制御できる。
[0183] 画像解析部 17によれば、撮像画像、受信画像、再生画像等の、入力された画像デ ータから、以下のような各種の情報を検出できる。
[0184] まず、各ソースから供給された画像データとしての画像に含まれて!/、る人物、動物、 自然物、建造物、機器などを判別できる。例えば動物としては、画像内に鳥が含まれ ている状況や猫が含まれている状況等を判別できる。また自然物としては、海、山、 樹木、河川、湖、空、太陽、月などを判別できる。建造物としては、家屋、ビル、競技 場などを判別できる。機器としては、パーソナルコンピュータ、 AV (Audio-Visual)機 器、携帯電話機、 PDA, ICカード、二次元バーコードなどが含まれている状況を判 別できる。例えば解析対象が撮像部 3で撮像した撮像画像データであったり、外部の 撮像装置 70で撮像された撮像画像データであった場合、これらの特定の対象が撮 像対象となって!/、ること力 S判別できる。
[0185] これら特定の対象の種別は、予め各種別の形状の特徴を設定しておき、入力され た画像データ内に、形状が該当する対象が含まれているか否かにより判別可能であ
[0186] また画像解析部 17による画像解析によれば、画像の前後フレームの差分検出など の手法で、画像内の対象の動きの検出、例えば素早い動きが画像内も可能である。 例えばスポーツの画像や、走行している自動車等の画像について、動きの素早い対 象が含まれて!/、ると!/、う状況を検知することができる。
[0187] また撮像部 3で撮像した撮像画像データを画像解析部 17で画像解析する場合に おいては、周囲の状況を判定することも可能である。例えば昼夜や天候による明るさ の状況を判定できるし、雨の強さなども認識可能である。
[0188] また、画像解析部 17による画像解析によれば、撮像画像、受信画像、再生画像等 の入力された画像データにおいて、例えば書籍や新聞などが含まれていたり、文字 の画像が含まれていることも判別できる。例えば画像内での文字認識を行うことや、 書籍や新聞などの形状の認識を行えばよい。
[0189] なお画像解析部 17で文字認識を行った場合、システムコントローラ 10は、その認 識した文字をテキストデータとして音声合成部 29に供給することができる。
[0190] また、画像解析部 17による画像解析によれば、画像データに人物が含まれている 場合に、その人物の顔から人物個人を特定する判別も可能である。既に知られてい るように、人物の顔は、顔の構成要素の相対位置情報として個人特徴データ化する こと力 Sできる。例えば目の中心と鼻との距離 ENと目の間隔の距離 Edの比(Ed/EN )や、 目の中心と口との距離 EMと目の間隔の距離 Edの比(Ed/EM)は、個人毎に 特有となるとともに、髪型や眼鏡等の装着物などによる、外観上の変化の影響を受け ない情報である。さらに加齢によっても変化しないことが知られている。
[0191] 従って、画像解析部 17は、画像データ内に或る人物の顔が含まれているときに、そ の画像データを解析すれば上記のような個人特徴データを検出することができる。
[0192] 画像データから個人特徴データを検出した場合、例えばシステムコントローラ 10が 参照できる記録媒体として、例えば HDD (Hard Disk Drive)やフラッシュメモリなどを 搭載し、これらの記録媒体に人物データベースを記憶させておけば、画像データに 含まれている個人の情報を取得できる。或いは、表示装置 1に人物データベースを 内蔵していなくても、通信部 26を介して例えばネットワークサーバや人物データべ一 ス内蔵機器にアクセスし、個人特徴データを送信して情報を要求し、特定の人物の 情報を受信するようにしてもょレ、。
[0193] 例えばユーザ自身が、過去に出会った人物の氏名や所属などの人物情報を個人 特徴データとともに人物データベースに登録しておけば、或る人物が画像データに 含まれていたときに、システムコントローラ 10は、その人物の情報を検索できる。
[0194] また、有名人の情報を個人特徴データとともに登録した人物データベースが用意さ れていれば、有名人が画像データに含まれていたときに、その人物の情報を検索で きる。
[0195] 通信部 26によれば、外界情報として、多様な情報を取得できる。
[0196] 例えば上述したように表示装置 1から送信した緯度 ·経度、或いは個人特徴データ などに応じて外部機器で検索された情報を取得できる。
[0197] また外部機器力 天候情報、気温情報、湿度情報など気象に関する情報を取得す ること力 Sでさる。
[0198] また外部機器から施設の利用情報、施設内での撮像禁止/許可情報、案内情報 などを取得することができる。
[0199] また外部機器自体の識別情報を取得することができる。例えば所定の通信プロトコ ルにおいてネットワークデバイスとして識別される機器の種別や機器 ID等である。
[0200] また外部機器に格納されて!/、る画像データ、外部機器で再生或いは表示して!/、る 画像データ、外部機器で受信している画像データなどを取得することができる。
[0201] 以上、周囲環境センサ 19、撮像対象センサ 20、 GPS受信部 21、 日時計数部 22、 画像解析部 17、通信部 26のそれぞれで取得できる情報の例を挙げたが、これらのう ちの複数の系統で或る外界情報にっレ、て検知判別してもよレ、。
[0202] 例えば周囲環境センサ 19で得られた湿度等の情報と、通信部 26で受信された天 候情報を組み合わせ、より正確に現在の天候を判別することもできる。
[0203] また GPS受信部 21と通信部 26の動作により取得した現在場所に関する情報と、画 像解析部 17で得られる情報により、現在位置や撮像対象の状況をより正確に判別す ることあでさる。
[0204] [5.各種動作例]
本実施の形態の表示装置 1は、以上のように周囲環境センサ 19、撮像対象センサ
20、 GPS受信部 21、 日時計数部 22、画像解析部 17、通信部 26で取得できる外界 情報に応じて、システムコントローラ 10が表示動作に関する制御をすることで、表示 部 2において、状況に応じた的確な表示やおもしろみのある表示を実行し、これによ つてユーザに多様な画像を提供できる。
[0205] このためのシステムコントローラ 10の制御に基づく各種動作例を説明していく。
[0206] 図 13は、システムコントローラ 10の動作制御機能 10bとしての制御処理を示してい
[0207] ステップ F101は、システムコントローラ 10が表示制御部 14に対して表示部 2をスル 一状態とする制御処理を示して!/、る。例えば表示装置 1が電源オンとされた初期段 階では、システムコントローラ 10はステップ F101で表示部 2をスルー状態に制御す
[0208] 表示部 2をスルー状態にしている期間は、システムコントローラ 10はステップ F102 で表示開始トリガが発生したか否かを確認している。図 3,図 4では示していないが、 例えばユーザが操作できる操作子を設け、ユーザが所定の操作子の操作を行うこと で表示部 2での表示を開始させる表示開始トリガの発生と判断すればよい。但し、後 に例を述べる力 S、外界情報に応じて表示開始トリガの発生と判断することもできる。
[0209] 表示開始トリガがあつたと判別した場合は、システムコントローラ 10は処理をステツ プ F103に進め、表示開始制御を行う。即ち表示制御部 14に指示して、表示画像処 理部 12及び表示駆動部 13に、供給されるデータを通常撮像画像の態様で表示部 2 に表示させる動作を実行させる。
[0210] 表示画像処理部 12には、画像入出力コントロール部 27を介して画像データが供 給されるが、例えば図 3又は図 4のように複数の画像データソースを備える場合は、こ の時点では、撮像機能系(撮像部 3、撮像信号処理部 15)、再生機能系 (ストレージ 部 25)、受信機能系(通信部 26)のソースのうちでデフォルト設定で選択されて!/、るソ ースからの画像データ力 表示画像処理部 12に供給されるようにすればよい。例え ば撮像機能系をデフォルト設定のソースであるとすると、ステップ F103の表示開始 制御の際に、システムコントローラ 10は撮像制御部 11に撮像開始を指示して撮像部 3及び撮像信号処理部 15の通常撮像動作を実行させ、その撮像信号としての画像 データを、画像入出力コントロール部 27を介して表示画像処理部 12に供給させる。 この場合、表示部 2では例えば図 5の(a)のスルー状態力、ら例えば図 5の(b)の通常 撮像画像のモニタ表示状態に切り換えられることになる。
[0211] また、デフォルト設定のソースがストレージ部 25であれば、表示開始制御の際にスト レージ部 25の制御も行!/、、コンテンツの再生やコンテンツ選択等のメニュー画面を 表示部 2に表示させてもよいし、デフォルト設定のソースが通信部 26であれば、表示 開始制御の際に通信部 26の動作の制御も行い、通信用の画面や、外部機器からの 受信データによる表示を表示部 2に実行させてもよい。
[0212] もちろん、ソースが 1つの構成の場合は、そのソースからの画像データが表示画像 処理部 12に供給されるようにすればよい。
[0213] さらには、ステップ F103での表示開始制御の際には、画像ソースからの画像デー タは供給させず、初期画面としてメニュー画面やソース選択画面等を表示部 2に表示 させるような制卸を fiうことも考えられる。
[0214] なお、この図 13の処理では音声出力部 5からの音声出力動作については特に述 ベないが、表示部 2で表示動作が実行される際には、システムコントローラ 10は、表 示画像と同一のソースからの音声データに基づく音声出力が実行されるように音声 入出力コントロール部 28及び音声信号処理部 16を制御するものとする。
[0215] 表示部 2で或るソースからの画像の表示を行っている期間は、システムコントローラ
10は、ステップ F104で表示制御トリガが発生したか否かを監視し、またステップ F10 5でソース切換トリガが発生したか否かを監視し、またステップ F106で表示終了トリガ が発生したか否かを監視する。
[0216] 表示制御トリガの発生とは、外界状況判定機能 10aによって判定された外界の状況 により、表示動作における表示画像態様や表示する画像データに関する処理などに ついての変更を行うとシステムコントローラ 10自身が判断することを意味している。
[0217] またソース切換トリガの発生とは、例えば図 3,図 4のように表示装置 1に複数のソー スが設けられている場合に、外界状況判定機能 10aによって判定された状況により、 表示する画像データのソースの切換を行うとシステムコントローラ 10自身が判断する ことを意味している。
[0218] 表示制御トリガ、ソース切換トリガの発生の判断手法やトリガに応じた制御内容につ いての具体例は後述する。
[0219] 表示終了トリガは、表示部 2での表示を終了してスルー状態への切り換えを行うトリ ガであり、例えばユーザの操作 (所定の操作による表示終了の操作)により表示終了 トリガの発生と判断すればよいが、後に例を述べるように、システムコントローラ 10が 外界情報に応じて表示終了トリガ発生の判断をすることもできる。
[0220] 表示制御トリガ発生と判断した場合は、システムコントローラ 10は処理をステップ F1 04力、ら F107に進め、画像の表示動作に関しての制御を行う。つまり表示制御部 14 に所定の指示を与え、その時点の外界の状況に応じて各種態様の表示を表示部 2 において実行させる。その時点で選択されているソースによっては、システムコント口 ーラ 10は撮像機能系の制御、ストレージ部 25に対する動作制御、通信部 26に対す る動作制御を行う場合もある。
[0221] ステップ F107で表示動作制御を行った後も、システムコントローラ 10はステップ F1
04, F105, F106のトリガ発生の監視を行う。
[0222] ソース切換トリガ発生と判断した場合は、システムコントローラ 10は処理をステップ F
105力、ら F108に進め、ソース切換制御を行う。この場合、切換前後のソースに対す る動作制御や、新たなソースからの画像データ/音声データが、表示画像処理部 12
/音声信号処理部 16に供給されるように画像入出力コントロール部 27/音声入出 力コントロール部 28の制御を行う。
[0223] このソース切換制御により、例えば表示部 2は、撮像部 3で撮像された画像が表示 されていた状態から、例えばストレージ部 25での再生画像が表示される状態等に切 り換免られることになる。
[0224] ステップ F108でソース切換制御を行った後も、システムコントローラ 10はステップ F 104, F105, F106のトリガ発生の監視を行う。
[0225] 表示終了トリガ発生と判断した場合は、システムコントローラ 10は処理をステップ F1 06から F101に戻し、表示制御部 14に対して表示部 2をスルーとする指示を行う。ま たその時点で選択されていた画像ソースに対して画像供給動作の終了を指示する。
[0226] ユーザが表示装置 1を装着して電源オンとしている期間は、システムコントローラ 10 の動作制御機能 10bは、例えばこの図 13のような制御処理を行うことになる。
[0227] そしてこの処理にお!/、ては、表示開始トリガの判断による表示開始制御、表示制御 トリガの判断による表示態様制御、ソース切換トリガの判断によるソース切換制御、及 び表示終了トリガの判断による表示部 2の表示を停止させてスルー状態とする制御を 行うが、これらのトリガ判断と制御内容の具体例について、図 14以降で説明していく
[0228] 図 14力も図 23は、システムコントローラ 10の外界状況判定機能 10aとしての処理 例を示しており、これらは動作制御機能 10bによる上記図 13の処理と並列的に実行 されているとする。なお並列的な処理とは、例えばシステムコントローラ 10が図 13の 処理を実行している期間中に、図 14〜図 23のような検知処理が定期的に割込処理 として行われればよいものである。これら図 13〜図 19のような処理のプログラムは、 図 13の処理を実行するプログラムに組み込まれていても良いし、定期的に呼び出さ れる別のプログラムとされても良い。つまりプログラムの形態が限定されるものではな い。
[0229] 図 14〜図 21は、図 13のステップ F104としての表示制御トリガ発生の判断に関す る処理例である力 まず図 14では、周囲環境センサ 19もしくは画像解析部 17からの 情報に基づいて表示制御トリガ発生と判断する例を示す。
[0230] 図 14のステップ F201は、システムコントローラ 10が周囲環境センサ 19と画像解析 部 17の一方又は両方の情報を監視する処理を示している。ここでは周囲環境センサ 19が照度センサであり、また画像解析部 17は撮像した画像から周囲の明るさを解析 する処理を行ってレヽるものとする。
[0231] なお、図 4の構成例の場合は、その構成上、外部の撮像装置 70が近辺にある場合 を除いて、画像解析部 17は近辺の撮像画像データの解析を行うことができないため 、通常は周囲環境センサ 19のチェックのみとなる。
[0232] システムコントローラ 10は周囲環境センサ 19と画像解析部 17の一方又は両方から の情報に基づいて、現在、周囲が喑ぃ状況であるか否か、或いは明るすぎる状況で あるか否か判別する。例えば検出照度を数値化し、検出照度が Xルクス以下であれ ば暗い状況、検出照度が yルクス以上であれば明るすぎる状況と判断する。
[0233] 周囲が喑ぃ状況であると判断した場合、システムコントローラ 10は処理をステップ F 202から F204に進め、表示制御トリガ発生と判別する。そしてステップ F205で、現 在の周囲の照度(喑さ)に応じた調整値を算出する。例えば表示輝度、コントラスト、 シャープネス等の調整値を算出する。
[0234] またシステムコントローラ 10は、周囲が明るすぎる状況であると判断した場合も、処 理をステップ F203から F206に進め、表示制御トリガ発生と判別する。そしてステップ F207で、現在の周囲の照度に応じて表示輝度、コントラスト、シャープネス等の調整 値を算出する。
[0235] このステップ F204, F205の処理、又はステップ F206, F207の処理により、システ ムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、この場 合は表示画像処理部 12に対して輝度調整、コントラスト調整、シャープネス調整など の処理を指示する。
[0236] この処理により、表示部 2での表示画像の画質が調整され、周囲の明暗に応じた調 整画像が表示される。周囲の明暗に応じた調整とは、例えば図 9の(b)のように画面 分割としてスルーもしくは通常撮像画像(即ち外界である視界の画像)と、映像コンテ ンッの撮像画像等を表示して!/、る際に、映像コンテンツ側の画質を調整することが考 えられる。例えば画面上でスルーとコンテンツ画像の明るさのバランスがとれるように し、ユーザが視覚上見にくく感じることを解消するような調整である。例えば周囲が喑 く、画面上のスルー状態の領域が喑ぃ場合は、それにあわせて映像コンテンツの画 質も暗めにしてまぶしすぎないようにしたり、逆に周囲が明るくスルー状態の領域の 輝度が高い場合は、映像コンテンツの画質の輝度上昇や、コントラスト、シャープネス を強調させ、はっきり見えるようにすることが考えられる。又は、スルーとされている領 域の透過率を下げるようにしても良い。
[0237] また、分割表示でなくとも、通信部 26をソースとする受信画像や、ストレージ部 25を ソースとする再生画像を表示部 2で表示して!/、る場合に、表示部 2の周囲からの外光 の影響で、画面上の表示が影響を受けるため、周囲の明るさに応じて表示輝度、コ ントラスト、シャープネス等を調整して、ユーザに見やすい画像表示を提供することが 好適である。
[0238] また撮像機能系をソースとして撮像画像の表示を表示部 2で行っている場合は、周 囲が暗ければ、表示輝度、コントラスト、シャープネスを上昇させ、ユーザが表示部 2 での表示画像により周囲を視認しゃすい状態とする。例えば周囲が暗くて表示部 2 の表示画像が図 11の(a)のようになって!/、る状況から、図 11の(b)のような見やす!/、 状態にすることが考えられる。
[0239] なお、このように周囲が暗い状況と判断した場合は、システムコントローラ 10は照明 部 4に照明を実行させる制御を行っても良い。
[0240] また、撮像機能系をソースとして表示部 2の表示を行っている場合において周囲が 明るすぎる状況であれば、この場合、ユーザがまぶしい感じを受けないように表示輝 度を低下させルと!/、う処理が考えられる。
[0241] 図 15は、周囲環境センサ 19もしくは通信部 26からの情報に基づいて表示制御トリ ガ発生と判断する例である。
[0242] 図 15のステップ F301は、システムコントローラ 10が周囲環境センサ 19からの検出 情報と通信部 26による受信情報の一方又は両方の情報を監視する処理を示してい る。周囲環境センサ 19としては温度センサ、湿度センサ、気圧センサ等が想定される 。また通信部 26では、例えばネットワークサーバ等から逐次気象情報が受信されるも のとする。
[0243] システムコントローラ 10は、例えば周囲環境センサ 19で得られる気圧、湿度、気温 力 周囲の天候状況を判別できる。また通信部 26で受信される気象情報でも天候状 況を判別できる。なお、ネットワークサーバから天候状況を受信するためには、システ ムコントローラ 10は逐次 GPS受信部 21で得られる現在位置情報をネットワークサー バに対して送信するようにし、その現在位置に該当する地域の気象情報をネットヮー クサーバから受信するようにするとよい。
[0244] 周囲環境センサ 19の検出情報、又は通信部 26の受信情報により、システムコント ローラ 10は周囲の天候状況を判断できる力 この両方の情報を用いれば、より正確 に天候状況を判断できることにもなる。
[0245] システムコントローラ 10は例えば晴天、曇天、雨天、雷雨、台風、降雪などの状況 や、雨が降り出す、雨が止む、曇天となるなど天候状況の変化に応じて、画像調整が 必要か否かを判断する。そして調整が必要な状況と判断したら、システムコントローラ 10は処理をステップ F302から F303に進め、表示制御トリガ発生と判別し、ステップ F304で、現在の天候に応じた調整値を算出する。例えば表示輝度、コントラスト、シ ヤープネス、色処理等の調整値を求める。
[0246] このステップ F303, F304の処理により、システムコントローラ 10の図 13の処理は ステップ F104から F107に進むことになり、この場合は表示画像処理部 12に対して 輝度調整、コントラスト調整、シャープネス調整、色処理などの処理を指示する。この 処理により、表示部 2での表示画像の画質が天候状況に応じた画質に調整される。
[0247] 天候状況に応じた画質とは、天候による周囲の明るさに応じて、ユーザが表示部 2 での表示画像が見やすく感じる画質とすることが考えられる。
[0248] また天候のイメージにあった雰囲気の画質にすることも考えられる。例えば降雪時 に、青色を強調して周囲の気温のイメージに合わせた画像を表示させたり、逆に赤 色を強調して、寒さに反して暖かみを感じさせる画質にするなどである。
[0249] なお、図 3の構成で撮像画像を表示部 2で表示させている場合は、天候によっては
、システムコントローラ 10は照明部 4に照明を実行させる制御を行っても良い。
[0250] また、ここでは周囲環境センサ 19又は通信部 26の受信情報により天候判断を行う とした力 画像解析部 17で雨の画像を認識することで、雨が降り出したことや雨が止 んだこと、雷が発生したことなども正確に検知できるようになる。
[0251] 次に図 16により、これも周囲環境センサ 19からの情報に基づいて表示制御トリガ発 生と判断する例を示す。
[0252] 図 16のステップ F401は、システムコントローラ 10が周囲環境センサ 19の情報を監 視する処理を示している。ここでは周囲環境センサ 19が温度センサ、湿度センサで あるとする。
[0253] システムコントローラ 10は周囲環境センサ 19の検出情報に基づいて、現在の周囲 の温度状況、湿度状況を検知し、例えば高温高湿な状況であるか、また低温状況で あるかを判別する。
[0254] 高温高湿でユーザが不快に感じるような状況であると判断したら、システムコント口 ーラ 10は処理をステップ F402から F404に進め、表示制御トリガ発生と判別する。そ してステップ F405で、例えばシャープネス、色処理、画像エフェクト等の調整値を求 める。
[0255] また、周囲が低温でユーザが寒さを感じる状況であると判断したら、システムコント口 ーラ 10は処理をステップ F403から F406に進め、表示制御トリガ発生と判別する。そ してステップ F407で、例えばシャープネス、色処理、画像エフェクト等の調整値を求 める。
[0256] このステップ F404, F405の処理、又はステップ F406, F407の処理により、システ ムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、システ ムコントローラ 10は表示画像処理部 12に指示して、表示輝度、コントラスト、シャープ ネス、色処理、画像エフェクト等の画像データの調整を指示する。
[0257] この処理により、撮像画像、又は再生画像、又は受信画像の表示を行う場合に、例 えば高温高湿の状況であれば、青系統の涼しげな色合いの画像としたり、低温状況 であれば、赤系統の色合いやソフトフォーカスなどの処理により、暖かみのある画像と するなどである。
[0258] なお、この例では「高温高湿」と「低温」という状況を判断した力 「低湿」という状況 を判断に加えても良い。例えば周囲の状況について「高温高湿」と「低温低湿」とに ついて判別して各場合に応じた画像制御を行ったり、「高温高湿」「高温低湿」「低温 高湿」「低温低湿」という 4とおりの状況を判別して、各場合に応じた画像制御を行つ てもよい。
[0259] 図 17は、 日時計数部 22による現在時刻の情報に基づいて表示制御トリガ発生と判 断する例である。
[0260] 図 17のステップ F501は、システムコントローラ 10が日時計数部 22で計数されてい る現在日時時刻をチェックする処理を示している。システムコントローラ 10は、現在時 刻に基づいて、時間帯を判断する。例えば早朝、朝方、 日中、夕方、夜間という時間 帯を判別する。例えば 4時〜 7時を早朝、 7時〜 9時を朝方、 9時〜 17時を日中、 17 時〜 19時を夕方、 19時〜 4時を夜間などとする。
[0261] また、この時間帯毎の時刻の区切りの基準は、月日の判断により変更するとよい。
例えば月日によって日の出時間、 日没時間の違いを考慮して、上記各時間帯として の判断時刻を変化させる。例えば早朝とする時間帯を夏期は 4時〜 7時、冬期を 6時 〜8時とするなどである。
[0262] ステップ F501での日時チェックにより判別される時間帯として、時間帯の変化があ つたと判断した場合は、システムコントローラ 10は処理をステップ F502から F503以 降に進む。
[0263] 例えば早朝とされる時刻になった時点では、ステップ F503から F507に進み、早朝 用の表示動作の表示制御トリガの発生と判別する。
[0264] また朝方とされる時刻になったときは、ステップ F504から F508に進み、朝方用の 表示動作の表示制御トリガの発生と判別する。 [0265] また日中とされる時刻になったときは、ステップ F505力、ら F509に進み、 日中用の 表示動作の表示制御トリガの発生と判別する。
[0266] また夕方とされる時刻になったときは、ステップ F506力、ら F510に進み、夕方用の 表示動作の表示制御トリガの発生と判別する。
[0267] また夜間とされる時刻になったときは、ステップ F511に進み、夜間用の表示動作の 表示制御トリガの発生と判別する。
[0268] ステップ F507、 F508, F509, F510, F511のいずれ力、で表示制卸卜リガの発生 と判断された場合は、システムコントローラ 10の図 13の処理はステップ F104から F1 07に進むことになり、表示制御部 14に、時間帯に応じた表示動作の指示を行う。例 えば表示輝度調整、コントラスト調整、シャープネス調整、色調整などの処理を指示 する。或いはソフトフォーカス表示などの画像エフェクトを指示しても良レ、。
[0269] この処理により、撮像画像、又は再生画像、又は受信画像として、時間帯に応じた イメージの画像がユーザに提供される。例えば早朝では柔らかい画質の画像、 日中 はコントラストの強いはっきりした画像、夕方はセピア色のような画質の画像、夜間は くすんだ画質の画像などである。このように時間帯毎のユーザの気分に合わせたよう なおもしろみのある画像提供を実現できる。
[0270] もちろん、時間帯毎の明るさに応じて画質を調整し、視認性を向上させるという画質 調整も考えられる。
[0271] なお、時間帯とともに、天候状況、屋内/屋外の別を判断して、状況に好適な画質 調整を行うことも考えられる。
[0272] また、時間帯ではなく日時情報から季節を判断して、季節に応じた画質調整を行う ことも考えられる。例えば表示画像において、夏は青色成分を強調させ、秋は赤色成 分を強調させ、冬は白色成分を強調させ、春は緑/ピンク系統を強調させるなどとし て、季節感のある画像提供を行うことなどである。
[0273] 図 18は GPS受信部 21及び通信部 26の受信情報に基づいて表示制御トリガ発生 と判断する例である。
[0274] 図 18のステップ F601は、システムコントローラ 10が GPS受信部 21で得られる現在 位置の緯度 ·経度の情報を通信部 26からネットワークサーバ或いは地図データべ一 ス搭載機器に送信し、送信先において現在地点の情報を検索してもらい、その現在 地点の情報を受信する動作を示している。なお表示装置 1内に地図データベースが 保持されていれば、システムコントローラ 10は、 GPS受信部 21からの緯度'経度に基 づレ、て、地図データベースから現在地点の情報を検索することができる。
[0275] システムコントローラ 10は、取得した現在地点の情報に基づいて、現在、所定の表 示制御を実行する場所に!/、るか否力、を判別する。そして現在位置が所定の表示制 御を実行する場所であると判断したら、ステップ F602から F603に進み、当該所定の 表示制御を実行すべき表示制御トリガ発生と判断する。
[0276] このステップ F603で表示制御トリガの発生と判断されることで、システムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、表示制御部 14に対 して所定の画像処理の指示を行う。
[0277] この場合の表示制御としては、次のような例が考えられる。
[0278] 例えば現在位置としての地区について、海岸、山、都市部、農村部などを判別する ことに応じて、それらのイメージに応じた画質の表示を行うことが考えられる。
[0279] また、取得された現在地点の情報に基づいて、地名、撮像している施設'店舗等の 名称などをキャラクタ画像や文字で重畳表示させたり、宣伝情報、施設の案内情報、 周辺の注意情報などを表示部 2に表示させるように制御することも考えられる。
[0280] また、屋内/屋外の判別により、表示輝度等を調整することも考えられる。
[0281] また、図 7の(c)のようなバードビュー画像を表示している場合であれば、現在位置 の変化に応じて通信部 26を介して画像を取得し、画像を切り換えていくことが考えら れる。
[0282] 図 19の(a)は、画像解析部 17からの情報に基づいて表示制御トリガ発生と判断す る例である力 これは特に画像データが新聞、書籍等の画像であったり、図 6の(c)の ような電子書籍の画像データであるなどで、文字を含むものであるか否かを判別する 例である。
[0283] 図 19の(a)のステップ F701は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は画像解析により、画像データに文 字が含まれて!/、るか否かを検出するものとする。 [0284] システムコントローラ 10は、画像処理部 17の解析結果の情報に基づいて、画像デ ータに文字が含まれて!/、るか否かを判別する。
[0285] 文字を含んでいると判断された場合、システムコントローラ 10は処理をステップ F70
2から F703に進め、表示制御トリガ発生と判別する。
[0286] そしてステップ F704で、文字画像を読む場合に適した調整値を算出する。例えば 表示輝度、コントラスト、シャープネス等の調整値として、ユーザが表示画面上で文字 を快適に読める調整値を求める。
[0287] このステップ F703, F704の処理により、システムコントローラ 10の図 13の処理は ステップ F104から F107に進むことになり、この場合は表示画像処理部 12に対して 輝度調整、コントラスト調整、シャープネス調整などの処理を指示する。この処理によ り、表示部 2での表示画像の画質が調整され、例えば図 6の(c)のような画像におい て文字を読みやすレ、状態とすることができる。
[0288] なお、文字を含むことの検出に加え、周囲の明るさも検出し、周囲の明るさを上記 調整値の算出に反映させてもよい。
[0289] また、画質調整ではなぐ例えば表示画像処理部 12に拡大処理を実行させて拡大 画像を表示させ、ユーザに文字を読みやす!/、画像を提供することも考えられる。
[0290] また、撮像機能系をソースとして撮像画像を表示部 2で表示させて!/、る場合は、画 像解析の際に書籍や新聞の形状を認識することを、ステップ F703に進む条件に加 えても良い。またその場合に、撮像対象が新聞等であると判断した場合は、システム コントローラ 10は照明部 4に照明を実行させる制御を行つても良い。
[0291] また、文字を含む画像の場合に、画像解析部 17は文字を判別し、文字をテキスト データとしてシステムコントローラ 10に供給してもよい。この場合、システムコントロー ラ 10は画像から検出されたテキストデータに基づいて音声合成部 29に音声合成処 理を実行させる。
[0292] すると音声合成部 29では、画像データに含まれる文字の読み上げ音声としての音 声信号が生成される。システムコントローラ 10は、この読み上げ音声を音声出力部 5 力、ら出力させる。このようにすると、ユーザは文字を含む画像を表示部 2で見る際に、 その読み上げ音声を聞くことができるようになる。 [0293] 図 19の (b)も、画像解析部 17からの情報に基づいて表示制御トリガ発生と判断す る例である力 これは或るソースからの画像データの見やすさを改善する例である。
[0294] 図 19の(b)のステップ F710は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は画像データの解析により、その画 像が好適な輝度状態であるか否かや、鮮明度が適切であるか否力、を判別する。
[0295] 低輝度の画像、或いは鮮明度の低!/、画像であると判断された場合、システムコント ローラ 10は処理をステップ F711から F712に進め、表示制御トリガ発生と判別する。
[0296] そしてステップ F713で、見やすさを改善するための調整値を算出する。例えば表 示輝度、コントラスト、シャープネス等の調整値として、ユーザが表示画面上で画像を 快適に見ることのできる調整値を求める。
[0297] このステップ F712, F713の処理により、システムコントローラ 10の図 13の処理は ステップ F104から F107に進むことになり、この場合は表示画像処理部 12に対して 輝度調整、コントラスト調整、シャープネス調整などの処理を指示する。この処理によ り、表示部 2での表示画像の画質が調整され、見やすい画像をユーザに提供できる
[0298] 図 20の(a)も画像解析部 17からの情報に基づいて表示制御トリガ発生と判断する 例である。
[0299] 図 20の(a)のステップ F801は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は撮像画像の解析により、画像デー タに特定の対象が含まれているか否かを検出するものとする。
[0300] 画像解析結果として、特定の対象が撮像されてレ、ると検出された場合は、システム コントローラ 10はステップ F802から F803に進み表示制御トリガの発生と判断する。
[0301] このステップ F803で表示制御トリガの発生と判断されることで、システムコントローラ
10の図 13の処理はステップ F104から F107に進むことになり、表示制御部 14に対 して所定の画像処理の指示を行う。
[0302] この場合の画像処理制御としては、次のような例が考えられる。
[0303] 例えば特定の対象を鳥とした場合、画像データ内で鳥が検出されることで、図 12の
(c)のように画像内の鳥の部分のハイライト表示を実行させるように表示画像処理部 1 2の動作を指示することが考えられる。これにより、撮像画像、受信画像、再生画像に おいてユーザが鳥を見つけやすい表示を行うことができる。もちろん、鳥以外の動物 であっても同様である。
[0304] また特定の対象を人物した場合、画像データ内で人物が検出されることで、画像内 の人物の部分をハイライト表示等で強調させたり、拡大表示等を実行させるように表 示画像処理部 12の動作を指示することが考えられる。
[0305] また人物や動物、或いは建造物などの特定の対象にお!/、て、その特定の対象のみ が表示され、人物等の特定の対象の周囲の光景は全て塗りつぶされるような画像を 表示させるようにしてあよい。
[0306] 逆に、特定の対象として人物を検知したら、その人物のみが画像内で消されるよう な画像処理を実行させることも考えられる。例えば自然風景内で人物や車などの人 ェ的なものを排除 (マスキング)した画像を表示させるなどである。この場合、マスキン グしょうとする特定対象の周囲の画素からの補間処理で、特定対象の画素部分を埋 めるような処理を行っても良い。
[0307] また人物等の特定対象にっレ、てはモザイク表示などの画像エフェクトを加えることも 考えられる。
[0308] 図 20の (b)も画像解析部 17からの情報に基づいて表示制御トリガ発生と判断する 例である。
[0309] 図 20の(b)のステップ F810は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は撮像画像の解析により、画像デー タにお!/、て素早レ、動きが発生して!/、るか否かを検出する。例えば動画データの各フ レームでの差分から動きの素早さを判定する。
[0310] 画像解析結果として、素早い動きの対象が検出された場合は、システムコントローラ 10はステップ F811から F812に進み、表示制御トリガの発生と判断する。
[0311] このステップ F812で表示制御トリガの発生と判断されることで、システムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、表示制御部 14に対 して画像処理の指示を行う。
[0312] 例えばユーザが素早い動きを確認しやすいように、図 9の(c)のようなストロボ表示 を実行させるように画像処理の指示を行うことが考えられる。
[0313] 或いは、動きの速い対象の部分をハイライト表示や拡大表示等とするようにして、ュ 一ザに注目させるような画像処理を指示することも考えられる。
[0314] またストレージ部 25をソースとする再生画像データであれば、システムコントローラ 1
0はストレージ部 25にスロー再生を指示して素早い動きをスローで見せるような制御 も考えられる。
[0315] 図 21の(a)も画像解析部 17からの情報に基づいて表示制御トリガ発生と判断する 例である。これは特に、人物が撮像された際に、その人物の個人判別を行う例である
[0316] 図 21の(a)のステップ F901は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は撮像画像の解析により、画像デー タにお!/、て人物の顔が含まれてレ、るかを判別し、また人物が顔が含まれて!/、た場合 、その顔の画像から個人特徴データを生成する。個人特徴データとは、例えば上述 したように目の中心と鼻との距離 ENと目の間隔の距離 Edの比(Ed/EN)や、 目の 中心と口との距離 EMと目の間隔の距離 Edの比(Ed/EM)である。
[0317] 個人特徴データが抽出された場合、システムコントローラ 10はステップ F902から F 903に進み、個人特徴データに基づいて人物情報を検索する。
[0318] 例えばシスムコントローラ 10は個人特徴データを通信部 26からネットワークサーバ 或いは人物データベース搭載機器に送信し、送信先において人物情報を検索して もらい、その検索結果を受信する。或いは表示装置 1内に人物データベースが保持 されていれば、システムコントローラ 10は、個人特徴データに基づいて人物データべ ースを検索することができる。
[0319] 外部装置もしくはシステムコントローラ 10自身による検索結果として、特定の人物の 人物情報が検索できたら、処理をステップ F904から F905に進め、人物情報表示の 表示制御トリガの発生と判断する。
[0320] このステップ F905で表示制御トリガの発生と判断されることで、システムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、表示制御部 14に対 して、例えば検索された人物情報を重畳表示させるように指示する。 [0321] この処理によれば、撮像画像、再生画像、受信画像を表示させている場合におい て、これらの画像内にユーザが過去に会った人、或いは有名人などで、人物データ ベースに登録されている人がいた場合に、表示部 2にはその人物の画像とともに情 報 (氏名や所属、過去に出会った場所など、人物データベースに登録されていた情 報)が表示されることになり、ユーザは人物を正確に認識できる。
[0322] 図 21の (b)も画像解析部 17からの情報に基づいて表示制御トリガ発生と判断する 例である。これは図 12の(a)のように日なた、 日陰の影響で画像が見づらくなつてい る場合に対応する処理例である。
[0323] 図 21の(b)のステップ F910は、システムコントローラ 10が画像解析部 17からの情 報を監視する処理を示している。画像解析部 17は画像データの解析により、画像内 で、 日照状況によって明るい領域、暗い領域が発生しているか否かを検出する。
[0324] 撮像画像、再生画像、受信画像を表示させて!/、る場合にお!/、て、これらの画像デ ータの画像解析結果として、画像上に日なた/日陰による差が生じていると判別され た場合は、システムコントローラ 10はステップ F911から F912に進み、表示制御トリ ガの発生と判断する。
[0325] このステップ F912で表示制御トリガの発生と判断されることで、システムコントローラ 10の図 13の処理はステップ F104から F107に進むことになり、表示制御部 14に対 して日なた/日陰の差を解消するような画像処理、例えば部分的な表示輝度レベル の変更を指示する。これにより、例えば図 12の(b)のように日なた/日陰の影響の少 ない、見やすい画像をユーザに提供できる。
[0326] なお、 日照による影響ではなぐ家屋や施設内での照明等の影響で部分的な明暗 の差が大きく生じているような場合や、画像が部分的に不鮮明となるような場合に、画 面内の部分的な輝度調整、撮像感度調整、コントラスト調整などを実行させることも想 定される。
[0327] ここまでの図 14〜図 21の処理として、撮像画像、再生画像、受信画像の表示の際 に、外界情報に応じて、表示する画像の表示態様、或いは表示する画像データの処 理を行う例を挙げた力 S、これらは一例にすぎず、他にも表示制御トリガの判別及び制 御例として非常に多様な例が考えられる。 [0328] 表示制御トリガとしては、周囲環境センサ 19、撮像対象センサ 20、 GPS受信部 21 、 日時計数部 22、画像解析部 17、通信部 26からの各情報から外界の状況を検知し 、所定の条件が満たされた場合にトリガ発生と判断すればよ!/、。
[0329] そして多様な条件にお!/、て表示制御トリガ発生と判断した場合の制御例として、表 示画像処理部 12に対する制御としては、拡大/縮小の制御、輝度、コントラスト、シ ヤープネス等の調整制御、モザイク画像/輝度反転画像/ソフトフォーカスなどの画 像エフェクト表示、更には図 9のような画面分割やストロボ表示などの制御を、外界の 状況に応じて実行できる。
[0330] またスルー状態と画像 (再生画像、受信画像、撮像画像)を合成するような表示態 様も考えられる。例えば表示部 2を半スルー状態として 50%程度の透過率とし、その 状態で画像を表示させるような例である。
[0331] また撮像機能系をソースとして撮像画像を表示部 2に表示している場合は、撮像部
3,撮像信号処理部 15の動作制御として、望遠/広角のズーム処理、撮像感度の制 御、撮像フレームレートの切換、赤外線撮像感度や紫外線撮像感度の変更制御など を行うことが考えられる。
[0332] またストレージ部 25での再生画像や通信部 26での受信画像を表示部 2に表示して いる場合は、表示制御トリガを、早送り/早戻し、頭出し、コマ送り、スロー、一時停止 などの変速再生制御を行ったり、ページ送り、ページスクロール、一覧表示上での選 択部分の送り、カーソル移動、決定操作、ゲーム操作などのトリガとして扱い、ストレ ージ部 25や通信部 26に所要の動作を実行させるように制御することが想定される。
[0333] 即ち、表示制御トリガの発生判断の条件と、それに応じた制御内容としては、これら の中でのあらゆる組み合わせが考えられる。
[0334] また、以上のように表示制御トリガに応じて表示部 2の表示を切り換える際には、図 9の(b)のように表示部 2の画面上でスルー状態もしくは通常撮像画像の領域 AR1を 残し、一部の領域 AR2において、異なる態様の画像の表示を行うようにしてもよい。 もちろん逆に広!/、領域 AR1にお!/、て、表示制御トリガに応じた画像を表示してもよ!/ヽ し、画面上を等分割して、通常撮像画像と、表示制御トリガに応じた画像を表示して あよい。 [0335] 次に、図 22,図 23により図 13のステップ F105のソース切換トリガの発生判断の例 を べる。
[0336] 図 22の(a)は画像解析部 17の解析結果によりソース切換トリガの発生判断を行う 例である。
[0337] 図 22のステップ F1001は、システムコントローラ 10が画像解析部 17からの情報を 監視する処理を示している。なお、これは図 3のように撮像機能系を有する構成例で あって、画像解析部 17は撮像部 3で撮像した撮像画像データについて解析を行って V、るものとし、撮像部 3の被写体に通信対象となる電子機器が含まれて!/、るか否かを 検出するものとする。例えばパーソナルコンピュータ、携帯電話機、 AV機器、 PDA など、データ通信が実行できる可能性のある機器を外観で判別する。
[0338] 画像解析結果として、電子機器が撮像されてレ、ると検出された場合は、システムコ ントローラ 10はステップ F1002から F1003に進み、通信部 26に指示して、電子機器 に対して通信確立要求を送信させる。もし、撮像された電子機器が、本例の表示装 置 1と通信可能な機器であれば、通信確立要求に対してのレスポンスが得られ、通信 状態が確立される。このようにして外部の電子機器が通信可能な対応機器であると 判別できた場合、システムコントローラ 10はステップ F1004力も F1005に進み、通信 部 26をソースとして指定するソース切換トリガ発生と判断する。
[0339] このステップ F1005でソース切換トリガの発生と判断されることで、システムコント口 ーラ 10の図 13の処理はステップ F105から F108に進み、通信部 26を画像ソースと するソース切換処理を行う。即ち通信部 26で受信された画像データが表示部 2で表 示される状態に切り換える。
[0340] これにより、周囲に通信可能な外部機器(図 2の撮像装置 70やコンテンツソース機 器 71)が存在するときに、それらの外部機器からの受信画像が表示部 2で表示される ようにすることカでさる。
[0341] また図 22の(b)は、特定の場所において、外部機器からの要求に応じてソース切 換を行う例である。
[0342] 図 22の(b)のステップ F1010は、システムコントローラ 10が GPS受信部 21で得ら れる現在位置の緯度 ·経度の情報を通信部 26からネットワークサーバ或いは地図デ ータベース搭載機器に送信し、送信先において現在地点の情報を検索してもらい、 その現在地点の情報を受信する動作を示している。なお表示装置 1内に地図データ ベースが保持されていれば、システムコントローラ 10は、 GPS受信部 21からの緯度' 経度に基づいて、地図データベースから現在地点の情報を検索することができる。
[0343] システムコントローラ 10は、取得した現在地点の情報に基づいて、現在位置が、所 定の地区又は施設内であるか否かを判別する。そして現在位置が所定の地区や施 設であると判断したら、ステップ F1011から F1012に進み、外部機器からの通信要 求があるか否力、を判別する。例えば所定時間、外部機器からの通信要求を待機して あよい。
[0344] 外部機器からの通信要求があったら、ステップ F1013で、通信部 26による外部機 器との通信接続状態を確立させ、通信動作を実行する。
[0345] そして通信動作が開始されたら、ステップ F1014で通信部 26をソースとして指定す るソース切換トリガ発生と判断する。
[0346] このステップ F1014でソース切換トリガの発生と判断されることで、システムコント口 ーラ 10の図 13の処理はステップ F105から F108に進み、通信部 26を画像ソースと するソース切換処理を行い、通信部 26で受信された画像データが表示部 2で表示さ れる状態とする。
[0347] これにより、特定の地区や施設で、外部機器(図 2の撮像装置 70やコンテンツソー ス機器 71 )からのアクセスがあつたときに、それらの外部機器からの受信画像が表示 ¾2で表示されるようにすること力 Sでさる。
[0348] 例えば地区や施設のガイドの画像、注意画像、サービス画像などをユーザに提供 すること力 S考免られる。
[0349] また、スポーツ観戦において、例えば主催者側が提供する図 7の(a)のような画像 を、表示装置 1のユーザに提供するような場合にも適用できる。
[0350] また地区に応じて、図 7の(c)のようなバードビュー画像をユーザに提供するような 場合にも適用できる。
[0351] 図 23の(a)は、撮像対象センサ 20又は画像解析部 17の解析結果によりソース切 換トリガの発生判断を行う例である。これは図 3のように撮像機能系を有する構成例 において採用できる処理例である。
[0352] 図 23の(a)のステップ F1101においてシステムコントローラ 10は、撮像機能系をソ ースとして表示部 2に撮像画像を表示しているか否力、を判断する。撮像画像を表示し ている場合はこの図 23の(a)の処理は行わない。一方、例えばストレージ部 25の再 生画像や通信部 26で受信した受信画像を表示部 2で表示して!/、る場合は、ステップ F1102に進む。
[0353] ステップ F1102は、システムコントローラ 10が画像解析部 17又は撮像対象センサ 2 0からの情報を監視する処理を示している。なお画像解析部 17は撮像部 3で撮像し た撮像画像データについて解析を行っているものとし、撮像部 3の被写体として特定 の対象が含まれているか否かを検出するものとする。例えば人物、動物、建造物、 自 然物などである。或いは撮像対象センサ 20が焦電センサとされており、特定の対象と して人物や動物とレ、つた生体が撮像対象となって!/、るか否かを判別できるものとする
[0354] システムコントローラ 10は、画像解析部 17又は撮像対象センサ 20の情報により、 特定の対象が撮像画像に含まれていると判断した場合は、ステップ F1103から Fl 1 04に進み、撮像機能系(撮像部 3,撮像信号処理部 15)をソースとして指定するソー ス切換トリガ発生と判断する。
[0355] このステップ F1104でソース切換トリガの発生と判断されることで、システムコント口 ーラ 10の図 13の処理はステップ F105から F108に進み、撮像機能系を画像ソース とするソース切換処理を行!/、、撮像部 3で撮像された画像データが表示部 2で表示さ れる状態とする。
[0356] これにより、例えばユーザが再生画像や受信画像をみているときに、特定の対象が ユーザの前に現れたら、表示部 2での表示が撮像画像に切り換えられることになる。
[0357] 図 23の(b)は、時刻と現在位置に応じてソース切換トリガの発生判断を行う例であ
[0358] 図 23の(b)のステップ F1110においてシステムコントローラ 10は、 日時計数部 22 から現在の時刻を取得する。またステップ Fi l l 1では、 GPS受信部 21での現在の 緯度 '経度に基づいて現在位置の情報を取得する。 [0359] ステップ Fl 112では、システムコントローラ 10は現在、特定の時刻であって特定の 場所に居るか否力、を判別し、特定の時刻に特定の場所に居る場合はステップ Fl 11
3に進んでソース切換トリガ発生と判断する。
[0360] このステップ Fi l l 3でソース切換トリガの発生と判断されることで、システムコント口 ーラ 10の図 13の処理はステップ F105から F108に進み、ソース切換処理を行う。
[0361] 例えば特定の時刻に特定の場所に居ることで、ストレージ部 25がソースとされ、スト レージ部 25での再生画像が表示されるような動作が実現される。
[0362] 或いは、特定の時刻に特定の場所に居ることで、撮像機能系がソースとされ、撮像 画像が表示されるような動作が実現される。
[0363] 或いは、特定の時刻に特定の場所に居ることで、通信部 26がソースとされ、通信部
26での受信画像が表示されるような動作が実現される。或るコンテンツサービスシス テムとして、特定の時刻及び場所においてコンテンツを提供するようなサービスに適 用できる。
[0364] 以上の図 22、図 23の処理として、外界情報に応じてソース切換トリガの発生判断を 行う例を挙げた力 S、これらは一例にすぎず、他にもソース切換トリガの発生判断の例と して非常に多様な例が考えられる。
[0365] そしてこれらのようにソース切換トリガの発生判断を行うことで、状況に応じてソース 切換が行われ、ユーザにとって適切な画像提供を行うことができる。
[0366] ところで、図 13のステップ F102の表示開始トリガや、ステップ F106の表示終了トリ ガも、外界情報に応じてシステムコントローラ 10が発生判断することができる。
[0367] 例えば図 14のように周囲の明るさを検知し、周囲が喑状態と判断した場合に表示 開始トリガ発生と判別し、スルー状態から表示状態に切り換えても良い。
[0368] 図 15のように天候を判別する場合に、天候に応じて表示開始トリガ発生と判別して あよい。
[0369] 図 16のように気温や湿度を検知し、所定の条件で表示開始トリガ発生と判別しても よい。
[0370] 図 17のように時間帯、月日、季節等に応じて表示開始トリガ発生と判別してもよい。
[0371] 図 18のように現在位置が所定の場所となったときに表示開始トリガ発生と判別して も良い。すると特定の場所や施設の種別において表示機能を発揮させるようにするこ と力 Sできる。
[0372] 図 19、図 20、図 21のように画像解析部 17の情報を検知する場合において、画像 解析部 17が撮像画像データの解析を行う場合に、特定の対象が検知された場合、 素早い動きが検知された場合、特定の人物が検知された場合、明暗の分布が検知さ れた場合などに表示開始トリガ発生と判別しても良い。
[0373] これらのようにモニタ表示開始のトリガ発生と判別し、図 13のステップ F103に進む ようにすれば、ユーザはスルー状態で表示装置 1を装着していれば、特に操作をせ ずに、状況に応じて表示動作が実行され、かつその状況に応じた画像を見ることが できる。
[0374] また表示終了トリガも同様に判別できる。
[0375] 例えば図 14のように周囲の明るさを検知している場合、周囲の明るさに応じて表示 終了トリガ発生と判別してもよい。
[0376] 図 15のように天候を判別する場合に、天候に応じて表示終了トリガ発生と判別して も良い。
[0377] 図 16のように気温や湿度を検知し、所定の条件で表示終了トリガ発生と判別しても よい。
[0378] 図 17のように時間帯、月日、季節等に応じて表示終了トリガ発生と判別してもよい。
[0379] 図 18のように現在位置が所定の場所となったときに表示終了トリガ発生と判別して も良い。すると特定の場所や施設の種別において表示機能を停止させるようにするこ と力 Sできる。
[0380] 図 19、図 20、図 21のように画像解析部 17の情報を検知する場合において、画像 解析部 17が撮像画像データの解析を行う場合に、その解析結果に応じて表示終了 トリガ発生と判別しても良い。
[0381] これらのようにモニタ表示終了のトリガ発生と判別し、図 13のステップ F101に戻る ようにすれば、ユーザにとってモニタ表示の必要性が低下した、或いは必要性が無く なった状況、さらにはモニタ表示機能を禁止させたい状況において、自動的にスル 一状 とすること力でさる。 [0382] [6.実施の形態の効果、変形例及び拡張例]
以上、実施の形態を説明してきたが、実施の形態によれば、眼鏡型もしくは頭部装 着型の装着ユニットに配置された表示部 2により、使用者の目の直前で画像を表示さ せる力 この場合に、外界状況として周囲の明るさ、天候、被写体の状況、画像デー タにおける特定の対象の認識、対象の動き、場所、 日時などの外界情報に基づいて 表示動作や表示ソース選択の制御を行うことで、ユーザに操作負担をかけずに、状 況に応じた的確な表示動作やおもしろみのある表示動作が実行される。これにより表 示装置 1は、ユーザにとって使用性が良ぐまた多様な視界光景を提供できる装置と なる。
[0383] また表示部 2は、透過率制御により透明又は半透明のスルー状態とできることで、 装着ユニットにより装着されたままでも通常の生活に支障がないようにできる。このた めユーザの通常の生活の中で、本例の表示装置 1の利点を有効に活用できる。
[0384] なお、実施の形態では特に表示動作に関する制御について説明した力 例えば電 源オン/オフ/スタンバイの切換や、音声出力部 5から出力される音声の音量や音 質の制御などを、外界情報に基づいて行っても良い。例えば時刻や場所に応じて音 量調整を行ったり、或いは周囲の音量を検知し、その音量に応じてスピーカ出力音 量調整を行うことなども考えられる。
[0385] また、表示装置 1の外観や構成は図 1 ,図 3,図 4の例に限定されるものではなぐ 各種の変形例が考えられる。
[0386] 表示画像 1として眼鏡型或いは頭部装着型の装着ユニットを有する例を述べたが、 本発明の表示装置は、ユーザの眼前で表示を行うことができるように構成されればよ ぐ例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットで ユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザ一、 或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着される ような形態であってもよい。

Claims

請求の範囲
[I] 使用者の目の前方に位置するように配置されて画像の表示を行う表示手段と、 外界情報を取得する外界情報取得手段と、
上記外界情報取得手段で取得された情報に基づレ、て、上記表示手段の動作を制 御する制御手段と、
を備えることを特徴とする表示装置。
[2] 画像の撮像を行う撮像手段を更に備えることを特徴とする請求項 1に記載の表示装 置。
[3] 上記制御手段は、上記外界情報取得手段で取得された情報に基づ!/、て、上記撮 像手段で撮像された画像データを上記表示手段で表示させる制御を行うことを特徴 とする請求項 2に記載の表示装置。
[4] 記録媒体からデータを再生する再生手段を更に備えることを特徴とする請求項 1に 記載の表示装置。
[5] 上記制御手段は、上記外界情報取得手段で取得された情報に基づ!/、て、上記再 生手段で再生されたデータを上記表示手段で表示させる制御を行うことを特徴とす る請求項 4に記載の表示装置。
[6] 外部機器と通信を行ってデータを受信する受信手段を更に備えることを特徴とする 請求項 1に記載の表示装置。
[7] 上記制御手段は、上記外界情報取得手段で取得された情報に基づ!/、て、上記受 信手段で受信されたデータを上記表示手段で表示させる制御を行うことを特徴とす る請求項 6に記載の表示装置。
[8] 上記表示手段は、透明もしくは半透明であるスルー状態と、供給されたデータの表 示を行う表示状態とを切換可能であることを特徴とする請求項 1に記載の表示装置。
[9] 上記外界情報取得手段は、上記外界情報として周囲環境状況を検出するセンサ であることを特徴とする請求項 1に記載の表示装置。
[10] 上記外界情報取得手段は、上記外界情報として、上記撮像手段の撮像対象に関 する情報を検出するセンサであることを特徴とする請求項 2に記載の表示装置。
[I I] 上記外界情報取得手段は、上記外界情報として、現在位置情報を取得することを 特徴とする請求項 1に記載の表示装置。
[12] 上記外界情報取得手段は、上記外界情報として、現在日時を取得することを特徴 とする請求項 1に記載の表示装置。
[13] 上記外界情報取得手段は、外部機器との通信により、上記外界情報を取得するこ とを特徴とする請求項 1に記載の表示装置。
[14] 上記外界情報取得手段は、入力された画像データについての画像解析により、上 記外界情報を取得することを特徴とする請求項 1に記載の表示装置。
[15] 上記外界情報取得手段が取得する上記外界情報は、周囲の明るさ、又は温度、又 は湿度、又は気圧、又は天候の情報であることを特徴とする請求項 1に記載の表示 装置。
[16] 上記外界情報取得手段が取得する上記外界情報は、現在位置に該当する地点の 情報であることを特徴とする請求項 1に記載の表示装置。
[17] 上記外界情報取得手段が取得する上記外界情報は、現在位置に該当する地域に おける建造物、又は自然物の情報であることを特徴とする請求項 1に記載の表示装 置。
[18] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データに含 まれる特定の対象を判別する情報であることを特徴とする請求項 1に記載の表示装 置。
[19] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データに含 まれる特定の対象として、人物、又は動物、又は建造物、又は自然物、又は機器を 判別する情報であることを特徴とする請求項 1に記載の表示装置。
[20] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データに含 まれる対象画像の動きの情報であることを特徴とする請求項 1に記載の表示装置。
[21] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データに含 まれる人物の個人を特定する情報であることを特徴とする請求項 1に記載の表示装 置。
[22] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データに文 字画像が含まれるか否力、を判別する情報であることを特徴とする請求項 1に記載の 表示装置。
[23] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データの明 喑、又は鮮明度の情報であることを特徴とする請求項 1に記載の表示装置。
[24] 上記外界情報取得手段が取得する上記外界情報は、入力された画像データの画 像内の部分的な明暗、又は部分的な鮮明度の情報であることを特徴とする請求項 1 に記載の表示装置。
[25] 上記制御手段は、上記表示手段における表示動作の開始/終了の制御を行うこと を特徴とする請求項 1に記載の表示装置。
[26] 上記表示手段は、透明もしくは半透明であるスルー状態と、供給されたデータの表 示を行う表示状態とが切換可能とされるとともに、
上記制御手段は、上記表示手段に対して上記スルー状態と上記表示状態の切換 制御を行うことを特徴とする請求項 1に記載の表示装置。
[27] 上記制御手段は、上記表示手段で表示するデータの供給ソースの切換制御を行う ことを特徴とする請求項 1に記載の表示装置。
[28] 上記制御手段は、上記表示手段における表示画像の拡大/縮小の制御を行うこと を特徴とする請求項 1に記載の表示装置。
[29] 上記制御手段は、上記表示手段に表示する画面の一部のハイライト表示の制御を 行うことを特徴とする請求項 1に記載の表示装置。
[30] 上記制御手段は、上記表示手段における画面分割表示の制御を行うことを特徴と する請求項 1に記載の表示装置。
[31] 上記制御手段は、上記表示手段における表示輝度の制御を行うことを特徴とする 請求項 1に記載の表示装置。
[32] 上記制御手段は、上記表示手段で表示させる画像信号の信号処理の制御を行うこ とを特徴とする請求項 1に記載の表示装置。
[33] 上記表示手段に供給する画像に含まれる文字に基づいて音声合成を行う音声合 成手段と、
上記音声合成手段で生成された音声を出力する音声出力手段と、
を更に備えることを特徴とする請求項 1に記載の表示装置。 使用者の目の前方に位置するように配置されて画像の表示を行う表示手段を備え た表示装置の表示方法として、
外界情報を取得する外界情報ステップと、
上記外界情報取得ステップで取得された情報に基づいて上記表示手段における 表示動作に関する制御を行う制御ステップと、
を備えることを特徴とする表示方法。
PCT/JP2007/066001 2006-09-27 2007-08-17 Appareil et procédé d'affichage WO2008038473A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
BRPI0715227-2A BRPI0715227A2 (pt) 2006-09-27 2007-08-17 aparelho de exibiÇço, e, mÉtodo de exibiÇço usado no mesmo
EP07792624.4A EP2071558B1 (en) 2006-09-27 2007-08-17 Display apparatus and display method
US12/440,591 US8982013B2 (en) 2006-09-27 2007-08-17 Display apparatus and display method
CN2007800327577A CN101512632B (zh) 2006-09-27 2007-08-17 显示设备和显示方法
US14/612,722 US20150145753A1 (en) 2006-09-27 2015-02-03 Display apparatus and display method
US15/457,565 US10481677B2 (en) 2006-09-27 2017-03-13 Display apparatus and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006261976A JP5119636B2 (ja) 2006-09-27 2006-09-27 表示装置、表示方法
JP2006-261976 2006-09-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/440,591 A-371-Of-International US8982013B2 (en) 2006-09-27 2007-08-17 Display apparatus and display method
US14/612,722 Continuation US20150145753A1 (en) 2006-09-27 2015-02-03 Display apparatus and display method

Publications (1)

Publication Number Publication Date
WO2008038473A1 true WO2008038473A1 (fr) 2008-04-03

Family

ID=39229913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/066001 WO2008038473A1 (fr) 2006-09-27 2007-08-17 Appareil et procédé d'affichage

Country Status (9)

Country Link
US (3) US8982013B2 (ja)
EP (1) EP2071558B1 (ja)
JP (1) JP5119636B2 (ja)
KR (1) KR20090060421A (ja)
CN (1) CN101512632B (ja)
BR (1) BRPI0715227A2 (ja)
RU (1) RU2009111141A (ja)
TW (1) TWI384256B (ja)
WO (1) WO2008038473A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197477A (ja) * 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) * 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP4458131B2 (ja) 2007-08-23 2010-04-28 ソニー株式会社 画像撮像装置、撮像方法
US8130204B2 (en) * 2007-09-27 2012-03-06 Visteon Global Technologies, Inc. Environment synchronized image manipulation
JP4458151B2 (ja) 2007-11-06 2010-04-28 ソニー株式会社 自動撮像装置、自動撮像制御方法、画像表示システム、画像表示方法、表示制御装置、表示制御方法
US8125163B2 (en) 2008-05-21 2012-02-28 Manufacturing Resources International, Inc. Backlight adjustment system
JP5056744B2 (ja) * 2008-12-23 2012-10-24 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010164782A (ja) * 2009-01-15 2010-07-29 Brother Ind Ltd 画像表示装置
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5263092B2 (ja) * 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP4585601B1 (ja) * 2009-09-14 2010-11-24 株式会社東芝 映像表示装置及び映像表示方法
JP5218354B2 (ja) * 2009-09-16 2013-06-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
US8730219B2 (en) 2009-10-30 2014-05-20 Sharp Kabushiki Kaisha Display device
JP2011124898A (ja) * 2009-12-14 2011-06-23 Brother Industries Ltd ヘッドマウントディスプレイ
US20110193964A1 (en) * 2010-02-07 2011-08-11 Mcleod Gregory F Method and System for Wireless Monitoring
GB201002428D0 (en) * 2010-02-15 2010-03-31 Bamidele Michael O eBook reader device,eBook cartridges and eBook lens system
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20120212499A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20120206335A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
JP5494153B2 (ja) 2010-04-08 2014-05-14 ソニー株式会社 頭部装着型ディスプレイにおける画像表示方法
US8908043B2 (en) * 2010-04-12 2014-12-09 Symbol Technologies, Inc. System and method for location-based operation of a head mounted display
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
TWI423654B (zh) * 2010-09-16 2014-01-11 Acer Inc 控制立體眼鏡所接收之環境亮度的方法、立體眼鏡以及視訊顯示裝置
JP5258862B2 (ja) 2010-10-19 2013-08-07 キヤノン株式会社 画像形成装置
KR101843337B1 (ko) * 2010-10-28 2018-03-30 삼성전자주식회사 디스플레이 모듈 및 디스플레이 시스템
JP5810540B2 (ja) * 2011-02-04 2015-11-11 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2012153405A1 (ja) * 2011-05-11 2012-11-15 パイオニア株式会社 画像描画装置、画像描画方法及び画像描画プログラム
US8670000B2 (en) * 2011-09-12 2014-03-11 Google Inc. Optical display system and method with virtual image contrast control
CA2849902C (en) 2011-09-23 2019-02-26 Manufacturing Resources International, Inc. System and method for environmental adaptation of display characteristics
US9881528B2 (en) 2011-10-13 2018-01-30 Manufacturing Resources International, Inc. Transparent liquid crystal display on display case
US8183997B1 (en) 2011-11-14 2012-05-22 Google Inc. Displaying sound indications on a wearable computing system
US9183807B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US9229231B2 (en) 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US20130169513A1 (en) * 2012-01-04 2013-07-04 Google Inc. Wearable computing device
US9372343B2 (en) 2012-01-12 2016-06-21 Htc Corporation Head-up display, vehicle and controlling method of head-up display
JP2013171074A (ja) * 2012-02-17 2013-09-02 Nec Corp 自動表示調整装置および自動表示調整方法
US9165381B2 (en) 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US9219901B2 (en) * 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
CN103517226A (zh) * 2012-06-29 2014-01-15 联想(北京)有限公司 信息处理方法、装置及电子设备
JP5935640B2 (ja) 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US20140098226A1 (en) * 2012-10-08 2014-04-10 Google Inc. Image capture component on active contact lens
US9609097B2 (en) 2012-10-17 2017-03-28 Sony Corporation Mobile terminal comprising a display rotable about a casing
JP6102939B2 (ja) 2012-11-22 2017-03-29 ソニー株式会社 情報処理装置、システム、情報処理方法およびプログラム
KR101370027B1 (ko) * 2012-11-29 2014-03-06 주식회사 매크론 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
JP5954147B2 (ja) 2012-12-07 2016-07-20 ソニー株式会社 機能制御装置およびプログラム
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
CN104020843B (zh) * 2013-03-01 2017-07-25 联想(北京)有限公司 一种信息处理方法及一种电子设备
US9911361B2 (en) 2013-03-10 2018-03-06 OrCam Technologies, Ltd. Apparatus and method for analyzing images
US9436887B2 (en) * 2013-03-15 2016-09-06 OrCam Technologies, Ltd. Apparatus and method for automatic action selection based on image context
CN104063038A (zh) * 2013-03-18 2014-09-24 联想(北京)有限公司 信息处理方法、装置及电子设备
CN104063039A (zh) * 2013-03-18 2014-09-24 朱慧灵 一种穿戴式计算机智能终端的人机交互方法
JP6361649B2 (ja) * 2013-03-29 2018-07-25 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
JP5786900B2 (ja) * 2013-06-13 2015-09-30 横河電機株式会社 情報表示装置及び情報表示方法
US9360672B2 (en) * 2013-07-11 2016-06-07 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
JP6268778B2 (ja) * 2013-07-11 2018-01-31 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6398157B2 (ja) * 2013-08-19 2018-10-03 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR102160650B1 (ko) 2013-08-26 2020-09-28 삼성전자주식회사 사용자의 의도를 자동으로 인지하여 정보를 제공하는 모바일 장치 및 그의 동작 방법
JP5786910B2 (ja) * 2013-08-29 2015-09-30 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
JP5751315B2 (ja) * 2013-11-20 2015-07-22 ソニー株式会社 頭部装着型ディスプレイにおける画像表示方法
FR3013852B1 (fr) * 2013-11-22 2017-05-19 Airbus Operations Sas Methode et dispositif d'affichage d'information a lisibilite amelioree
CN104683683A (zh) * 2013-11-29 2015-06-03 英业达科技有限公司 拍摄影像的***及其方法
JP6264014B2 (ja) * 2013-12-17 2018-01-24 セイコーエプソン株式会社 頭部装着型表示装置
JP6331374B2 (ja) * 2013-12-17 2018-05-30 セイコーエプソン株式会社 頭部装着型表示装置
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
KR101591937B1 (ko) * 2014-02-11 2016-02-05 (주)그린광학 수술용 헤드 마운트 디스플레이
GB2523345B (en) * 2014-02-20 2018-01-17 Samsung Electronics Co Ltd Detecting user viewing difficulty from facial parameters
TWI503577B (zh) * 2014-03-20 2015-10-11 Syndiant Inc 頭戴式擴增實境顯示系統
WO2015152923A1 (en) * 2014-04-03 2015-10-08 Empire Technology Development Llc Color smear correction based on inertial measurements
US9851575B2 (en) 2014-05-15 2017-12-26 Omnivision Technologies, Inc. Wafer-level liquid-crystal-on-silicon projection assembly, systems and methods
TWI497149B (zh) * 2014-05-30 2015-08-21 Super Electronics Co Ltd 智慧型眼鏡
US9535293B2 (en) 2014-06-16 2017-01-03 Manufacturing Resources International, Inc. Sealed transparent liquid crystal display assembly
US9633366B2 (en) 2014-06-16 2017-04-25 Manufacturing Resources International, Inc. System for tracking and analyzing display case usage
US9500896B2 (en) 2014-06-16 2016-11-22 Manufacturing Resources International, Inc. Cooling system for liquid crystal display
JP2015007986A (ja) * 2014-07-25 2015-01-15 京セラ株式会社 電子機器、電子機器制御用プログラム、及び電子機器の制御方法
JP6634697B2 (ja) * 2015-05-13 2020-01-22 セイコーエプソン株式会社 頭部装着型表示装置
JP6500382B2 (ja) * 2014-10-03 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
CN107076992A (zh) * 2014-10-03 2017-08-18 精工爱普生株式会社 适应于环境的头戴式显示装置
US10649273B2 (en) 2014-10-08 2020-05-12 Manufacturing Resources International, Inc. LED assembly for transparent liquid crystal display and static graphic
US9832847B2 (en) 2014-10-09 2017-11-28 Manufacturing Resources International, Inc. System for decreasing energy usage of a transparent LCD display case
US10182665B2 (en) 2014-10-15 2019-01-22 Manufacturing Resources International, Inc. System and method for preventing damage to products
CN104469158A (zh) * 2014-12-15 2015-03-25 安徽华米信息科技有限公司 一种运动拍摄、拍摄控制方法及装置
GB2533573A (en) * 2014-12-22 2016-06-29 Nokia Technologies Oy Image processing method and device
JP2016133541A (ja) * 2015-01-16 2016-07-25 株式会社ブリリアントサービス 電子眼鏡および電子眼鏡の制御方法
JP2016143310A (ja) * 2015-02-04 2016-08-08 ソニー株式会社 情報処理装置、画像処理方法及びプログラム
JP6828235B2 (ja) * 2015-12-07 2021-02-10 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
US10691314B1 (en) * 2015-05-05 2020-06-23 State Farm Mutual Automobile Insurance Company Connecting users to entities based on recognized objects
US9924583B2 (en) 2015-05-14 2018-03-20 Mnaufacturing Resources International, Inc. Display brightness control based on location data
WO2016183576A1 (en) * 2015-05-14 2016-11-17 Manufacturing Resources International, Inc. Display brightness control based on location data
US10607520B2 (en) 2015-05-14 2020-03-31 Manufacturing Resources International, Inc. Method for environmental adaptation of display characteristics based on location
US10593255B2 (en) 2015-05-14 2020-03-17 Manufacturing Resources International, Inc. Electronic display with environmental adaptation of display characteristics based on location
US9520002B1 (en) * 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
AU2016308187B2 (en) * 2015-08-17 2019-10-31 Manufacturing Resources International, Inc. Electronic display with environmental adaptation of display characteristics based on location
KR102399724B1 (ko) 2015-09-24 2022-05-20 삼성전자주식회사 디스플레이 장치, 그를 가지는 도어 및 냉장고
US9927619B2 (en) 2015-11-06 2018-03-27 Omnivision Technologies, Inc. Pupillary adjustable head mounted device
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体
EP3422907A4 (en) 2016-03-02 2019-09-18 Manufacturing Resources International, Inc. SALES AUTOMAT WITH A TRANSPARENT DISPLAY
WO2017213165A1 (ja) * 2016-06-10 2017-12-14 コニカミノルタ株式会社 表示装置及び電子機器
KR20190026850A (ko) 2016-07-08 2019-03-13 매뉴팩처링 리소시스 인터내셔널 인코포레이티드 통합형 전자 디스플레이를 갖는 미러
US10586508B2 (en) 2016-07-08 2020-03-10 Manufacturing Resources International, Inc. Controlling display brightness based on image capture device data
US10261328B2 (en) * 2016-09-02 2019-04-16 Microsoft Technology Licensing, Llc Enhanced illumination system
KR20180099182A (ko) * 2017-02-28 2018-09-05 엘지전자 주식회사 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
US10264380B2 (en) * 2017-05-09 2019-04-16 Microsoft Technology Licensing, Llc Spatial audio for three-dimensional data sets
KR102344334B1 (ko) 2017-06-27 2021-12-29 삼성전자주식회사 영상을 처리하기 위한 방법 및 디스플레이 장치
CN107329267B (zh) * 2017-07-06 2020-03-10 华为技术有限公司 近眼显示器及近眼显示***
US10578658B2 (en) 2018-05-07 2020-03-03 Manufacturing Resources International, Inc. System and method for measuring power consumption of an electronic display assembly
WO2019241546A1 (en) 2018-06-14 2019-12-19 Manufacturing Resources International, Inc. System and method for detecting gas recirculation or airway occlusion
JP2019020738A (ja) * 2018-09-10 2019-02-07 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
CN109151446A (zh) * 2018-09-25 2019-01-04 联想(北京)有限公司 控制方法和电子设备
CN113227940A (zh) 2018-11-09 2021-08-06 贝克曼库尔特有限公司 具有选择性数据提供的服务眼镜
JP2022047548A (ja) * 2019-01-16 2022-03-25 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
EP3956858A1 (en) 2019-04-18 2022-02-23 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
US11526044B2 (en) 2020-03-27 2022-12-13 Manufacturing Resources International, Inc. Display unit with orientation based operation
KR20220006680A (ko) * 2020-07-08 2022-01-18 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 표시 패널의 구동 방법
JP7285904B2 (ja) * 2020-08-26 2023-06-02 ソフトバンク株式会社 表示制御装置、プログラム、及びシステム
CN112904564B (zh) * 2021-02-25 2022-09-02 安徽领域无线网络技术有限公司 一种基于工业互联网的ar增强现实成像装置
KR20230154964A (ko) 2021-03-15 2023-11-09 매뉴팩처링 리소시스 인터내셔널 인코포레이티드 전자 표시장치 조립체를 위한 팬 제어
US11740322B2 (en) * 2021-09-10 2023-08-29 Htc Corporation Head mounted display device and position device thereof
WO2023152852A1 (ja) * 2022-02-10 2023-08-17 マクセル株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ連携システム及びヘッドマウントディスプレイ制御方法
US12027132B1 (en) 2023-06-27 2024-07-02 Manufacturing Resources International, Inc. Display units with automated power governing

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03189677A (ja) * 1989-12-19 1991-08-19 Shimadzu Corp ヘルメットマウント形ディスプレイ用バイザー
JPH05333891A (ja) * 1992-05-29 1993-12-17 Sharp Corp 自動読書装置
JPH08126031A (ja) 1994-10-20 1996-05-17 Minolta Co Ltd 方位検出機構付hmd
JPH0927970A (ja) 1995-07-13 1997-01-28 Minolta Co Ltd 映像表示装置
JPH09101477A (ja) * 1995-10-04 1997-04-15 Canon Inc 情報表示装置
JPH09185009A (ja) 1995-12-28 1997-07-15 Fuji Xerox Co Ltd メガネディスプレイ
JP2004289340A (ja) * 2003-03-20 2004-10-14 Ricoh Co Ltd 画像拡大処理装置
JP2005086328A (ja) 2003-09-05 2005-03-31 Fuji Photo Film Co Ltd ヘッドマウントディスプレイ及びそのコンテンツ再生方法
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP2005172581A (ja) 2003-12-10 2005-06-30 Oki Electric Ind Co Ltd 半導体試験装置
JP2005181378A (ja) * 2003-12-16 2005-07-07 Nikon Corp 情報表示装置
WO2005122128A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 装着型情報提示装置

Family Cites Families (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2213019B (en) * 1980-08-19 1989-10-25 Elliott Brothers London Ltd Head-up display systems
US5294940A (en) * 1991-02-06 1994-03-15 Dale A. Wennagel Pulsed laser optical display device
US5227769A (en) * 1991-05-23 1993-07-13 Westinghouse Electric Corp. Heads-up projection display
US5386829A (en) * 1992-09-17 1995-02-07 Cedars-Sinai Medical Center Method for adjusting an image according to a priori probabilities
US5509048A (en) * 1993-07-26 1996-04-16 Meidan; Reuven Radio transceiver with interface apparatus which visually displays information and method therefor
JP4001643B2 (ja) * 1993-10-05 2007-10-31 スナップ−オン・テクノロジイズ・インク 両手解放型自動車整備装置
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
US7310072B2 (en) * 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
JPH085954A (ja) 1994-06-21 1996-01-12 Matsushita Electric Ind Co Ltd 眼鏡型画像表示装置
US5978015A (en) 1994-10-13 1999-11-02 Minolta Co., Ltd. Stereoscopic system with convergence and dioptric power adjustments according to object distance
US6184969B1 (en) * 1994-10-25 2001-02-06 James L. Fergason Optical display system and method, active and passive dithering using birefringence, color image superpositioning and display enhancement
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
JPH08339172A (ja) * 1995-06-09 1996-12-24 Sony Corp 表示制御装置
US5905525A (en) 1995-07-13 1999-05-18 Minolta Co., Ltd. Image display apparatus having a display controlled by user's head movement
JP3102313B2 (ja) 1995-09-19 2000-10-23 住友電装株式会社 車載用ナビゲーション装置
JPH09159747A (ja) 1995-12-08 1997-06-20 Matsushita Electric Ind Co Ltd Gps機能内蔵ヘッドマウントディスプレイ装置
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
US5966680A (en) * 1996-02-15 1999-10-12 Butnaru; Hanan Motion sickness/vertigo prevention device and method
US6050717A (en) * 1996-05-15 2000-04-18 Sony Corporation Head-mounted image display having selective image suspension control and light adjustment
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置
US6313851B1 (en) * 1997-08-27 2001-11-06 Microsoft Corporation User friendly remote system interface
JP3397101B2 (ja) * 1997-10-29 2003-04-14 株式会社日立製作所 欠陥検査方法および装置
EP1027627B1 (en) * 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
US6175343B1 (en) * 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
AU2823999A (en) 1998-03-25 1999-10-18 W. Stephen G. Mann Wearable camera system with viewfinder means
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000347596A (ja) 1998-08-31 2000-12-15 Semiconductor Energy Lab Co Ltd 携帯情報処理システム
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
US6456261B1 (en) * 1998-11-23 2002-09-24 Evan Y. W. Zhang Head/helmet mounted passive and active infrared imaging system with/without parallax
US6255650B1 (en) * 1998-12-11 2001-07-03 Flir Systems, Inc. Extreme temperature radiometry and imaging apparatus
JP2000284742A (ja) 1999-03-30 2000-10-13 Minolta Co Ltd 画像再生システム
US6538623B1 (en) * 1999-05-13 2003-03-25 Pirooz Parnian Multi-media data collection tool kit having an electronic multi-media “case” file and method of use
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
US6681043B1 (en) * 1999-08-16 2004-01-20 University Of Washington Interactive video object processing environment which visually distinguishes segmented video object
US6301050B1 (en) * 1999-10-13 2001-10-09 Optics Wireless Led, Inc. Image enhancement system for scaled viewing at night or under other vision impaired conditions
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
TW536836B (en) * 2000-05-22 2003-06-11 Semiconductor Energy Lab Light emitting device and electrical appliance
JP2002072998A (ja) * 2000-08-25 2002-03-12 Internatl Business Mach Corp <Ibm> 輝度制御装置、輝度調節システム、コンピュータシステム、液晶ディスプレイ装置、輝度制御方法、コンピュータプログラム及び記憶媒体
WO2002031580A1 (de) * 2000-10-07 2002-04-18 Physoptics Opto-Electronic Gmbh Informationssystem
US7405884B2 (en) * 2000-12-21 2008-07-29 Olympus Corporation Optical apparatus
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
JP3848092B2 (ja) 2001-03-13 2006-11-22 キヤノン株式会社 画像処理装置及び方法、並びにプログラム
US20020130953A1 (en) * 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
JP2002298294A (ja) * 2001-03-29 2002-10-11 Toshiba Corp Phs電話機を用いたナビゲーション方法及びそのシステム
US6538643B2 (en) * 2001-04-25 2003-03-25 Interlink Electronics, Inc. Remote control having a touch pad operable in a pad-to-screen mapping mode for highlighting preselected parts of a slide displayed on a display screen
US7190378B2 (en) * 2001-08-16 2007-03-13 Siemens Corporate Research, Inc. User interface for augmented and virtual reality systems
FR2830105B1 (fr) 2001-09-24 2004-03-26 Neoptec Tech Procede d'anonymation de documents, de controle, de lecture, de traitement des informations et de desanonymation par lecture par scanner
WO2003036553A1 (en) 2001-10-19 2003-05-01 Symbol Technologies, Inc. Electro-optical assembly for image projection, especially in portable instruments
JP3866109B2 (ja) 2002-01-16 2007-01-10 富士通テン株式会社 車載用撮像装置
JP3870109B2 (ja) * 2002-03-08 2007-01-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示装置、画像表示方法、及び画像表示プログラム
US7494216B2 (en) * 2002-07-26 2009-02-24 Oakely, Inc. Electronic eyewear with hands-free operation
US6753899B2 (en) * 2002-09-03 2004-06-22 Audisoft Method and apparatus for telepresence
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
FR2848304A1 (fr) * 2002-12-10 2004-06-11 Ingineo Nouveau systeme audiovisuel mobile de gestion d'information
US6947014B2 (en) * 2002-12-23 2005-09-20 Wooten Gary L Personalized, private eyewear-based display system
JP4366944B2 (ja) 2003-01-31 2009-11-18 株式会社ニコン ヘッドマウントディスプレイ
WO2004099851A2 (en) 2003-05-12 2004-11-18 Elbit Systems Ltd. Method and system for audiovisual communication
US7580033B2 (en) * 2003-07-16 2009-08-25 Honeywood Technologies, Llc Spatial-based power savings
EP1706772A1 (de) * 2003-12-01 2006-10-04 Durner, Andreas Elektronische brille, insbesondere nachtsichtbrille
EP2148504B1 (en) * 2003-12-03 2012-01-25 Nikon Corporation Information Display Device
JP2005164978A (ja) * 2003-12-03 2005-06-23 Nikon Corp ヘッドマウントディスプレイ
JP2005223524A (ja) 2004-02-04 2005-08-18 Nissan Motor Co Ltd 車両周辺監視装置
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
US7505056B2 (en) * 2004-04-02 2009-03-17 K-Nfb Reading Technology, Inc. Mode processing in portable reading machine
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
JP2006106254A (ja) * 2004-10-04 2006-04-20 Denso Corp 車両用ヘッドアップディスプレイ
US7787012B2 (en) * 2004-12-02 2010-08-31 Science Applications International Corporation System and method for video image registration in a heads up display
US7818672B2 (en) * 2004-12-30 2010-10-19 Microsoft Corporation Floating action buttons
CN1815437A (zh) * 2005-02-04 2006-08-09 乐金电子(中国)研究开发中心有限公司 一种外置头戴式手机显示装置及方法
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
US7400777B2 (en) * 2005-05-25 2008-07-15 Microsoft Corporation Preprocessing for information pattern analysis
WO2006128648A2 (de) * 2005-05-30 2006-12-07 Andreas Durner Elektronische tag- und nachtsichtbrille
RU2008110056A (ru) * 2005-08-15 2009-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем
KR100940018B1 (ko) * 2005-09-06 2010-02-03 후지쓰 텐 가부시키가이샤 표시 장치 및 표시 방법
KR101152064B1 (ko) * 2005-11-02 2012-06-11 엘지디스플레이 주식회사 화상 구현 장치 및 그 구동방법
US7736006B2 (en) * 2005-11-21 2010-06-15 Microvision, Inc. Substrate-guided display with improved image quality
US7744216B1 (en) * 2006-01-06 2010-06-29 Lockheed Martin Corporation Display system intensity adjustment based on pupil dilation
JP4895352B2 (ja) * 2006-02-07 2012-03-14 任天堂株式会社 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
US20080040233A1 (en) 2006-08-08 2008-02-14 Thomas Alfred Wildman Mobile order fulfillment
US8872753B2 (en) * 2006-08-31 2014-10-28 Ati Technologies Ulc Adjusting brightness of a display image in a display having an adjustable intensity light source
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5017989B2 (ja) * 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5228307B2 (ja) * 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP4961984B2 (ja) * 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
US7484847B2 (en) * 2007-01-02 2009-02-03 Hind-Sight Industries, Inc. Eyeglasses having integrated telescoping video camera and video display
JP4853320B2 (ja) 2007-02-15 2012-01-11 ソニー株式会社 画像処理装置、画像処理方法
US9229230B2 (en) * 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
US7605719B1 (en) * 2007-07-25 2009-10-20 Rockwell Collins, Inc. System and methods for displaying a partial images and non-overlapping, shared-screen partial images acquired from vision systems
US7777960B2 (en) * 2007-09-10 2010-08-17 Microvision, Inc. Wide field of view head-up display system
KR101465668B1 (ko) * 2008-06-24 2014-11-26 삼성전자주식회사 단말 및 그의 블로깅 방법
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示***和装置
US8682391B2 (en) * 2009-08-27 2014-03-25 Lg Electronics Inc. Mobile terminal and controlling method thereof
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US7982959B1 (en) * 2010-08-02 2011-07-19 Matvey Lvovskiy Head-up display
US20120050142A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display with eye state detection
TWI442093B (zh) * 2011-01-27 2014-06-21 Acer Inc 於快門眼鏡操作於二維影像觀看模式時調整快門眼鏡所接收之周遭環境亮度的方法、快門眼鏡以及調整快門眼鏡所接收之週遭環境亮度的電子裝置
US8203502B1 (en) * 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8194036B1 (en) * 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
US8199126B1 (en) * 2011-07-18 2012-06-12 Google Inc. Use of potential-touch detection to improve responsiveness of devices
US9087471B2 (en) * 2011-11-04 2015-07-21 Google Inc. Adaptive brightness control of head mounted display
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
TWI486630B (zh) * 2013-03-27 2015-06-01 聚晶半導體股份有限公司 適應性調整頭戴式顯示器的方法與頭戴式顯示器
KR101511587B1 (ko) * 2013-12-12 2015-04-14 현대오트론 주식회사 헤드업 디스플레이 정보 표시 장치 및 방법
US9696551B2 (en) * 2014-08-13 2017-07-04 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9946361B2 (en) * 2014-08-14 2018-04-17 Qualcomm Incorporated Management for wearable display
US20160048022A1 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Management for wearable display
JP2016057814A (ja) * 2014-09-09 2016-04-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
US9880441B1 (en) * 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03189677A (ja) * 1989-12-19 1991-08-19 Shimadzu Corp ヘルメットマウント形ディスプレイ用バイザー
JPH05333891A (ja) * 1992-05-29 1993-12-17 Sharp Corp 自動読書装置
JPH08126031A (ja) 1994-10-20 1996-05-17 Minolta Co Ltd 方位検出機構付hmd
JPH0927970A (ja) 1995-07-13 1997-01-28 Minolta Co Ltd 映像表示装置
JPH09101477A (ja) * 1995-10-04 1997-04-15 Canon Inc 情報表示装置
JPH09185009A (ja) 1995-12-28 1997-07-15 Fuji Xerox Co Ltd メガネディスプレイ
JP2004289340A (ja) * 2003-03-20 2004-10-14 Ricoh Co Ltd 画像拡大処理装置
JP2005086328A (ja) 2003-09-05 2005-03-31 Fuji Photo Film Co Ltd ヘッドマウントディスプレイ及びそのコンテンツ再生方法
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP2005172581A (ja) 2003-12-10 2005-06-30 Oki Electric Ind Co Ltd 半導体試験装置
JP2005181378A (ja) * 2003-12-16 2005-07-07 Nikon Corp 情報表示装置
WO2005122128A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 装着型情報提示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2071558A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197477A (ja) * 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
EP2071558B1 (en) 2018-08-08
TW200829957A (en) 2008-07-16
EP2071558A4 (en) 2011-06-22
RU2009111141A (ru) 2010-10-10
JP2008083290A (ja) 2008-04-10
EP2071558A1 (en) 2009-06-17
US20170186204A1 (en) 2017-06-29
CN101512632A (zh) 2009-08-19
CN101512632B (zh) 2012-11-07
KR20090060421A (ko) 2009-06-12
US20150145753A1 (en) 2015-05-28
US20090278766A1 (en) 2009-11-12
US8982013B2 (en) 2015-03-17
TWI384256B (zh) 2013-02-01
US10481677B2 (en) 2019-11-19
BRPI0715227A2 (pt) 2013-06-18
JP5119636B2 (ja) 2013-01-16

Similar Documents

Publication Publication Date Title
JP5119636B2 (ja) 表示装置、表示方法
JP5017989B2 (ja) 撮像装置、撮像方法
JP6137113B2 (ja) 表示装置、表示方法、プログラム
US9772686B2 (en) Imaging display apparatus and method
US20180067313A1 (en) Display method and display apparatus in which a part of a screen area is in a through-state
JP2008083289A (ja) 撮像表示装置、撮像表示方法
JP2013174898A (ja) 撮像表示装置、撮像表示方法
JP5664677B2 (ja) 撮像表示装置、撮像表示方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780032757.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07792624

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 458/DELNP/2009

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12440591

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007792624

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2009111141

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020097006207

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0715227

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20090227