WO2012161076A1 - 表示装置および方法、並びにプログラム - Google Patents

表示装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2012161076A1
WO2012161076A1 PCT/JP2012/062637 JP2012062637W WO2012161076A1 WO 2012161076 A1 WO2012161076 A1 WO 2012161076A1 JP 2012062637 W JP2012062637 W JP 2012062637W WO 2012161076 A1 WO2012161076 A1 WO 2012161076A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
parallax
image
channel
user
Prior art date
Application number
PCT/JP2012/062637
Other languages
English (en)
French (fr)
Inventor
辰吾 鶴見
将也 五十嵐
紀之 山下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP12789096.0A priority Critical patent/EP2717583B1/en
Priority to KR1020137029064A priority patent/KR20140022861A/ko
Priority to RU2013151418A priority patent/RU2615330C2/ru
Priority to KR1020197015914A priority patent/KR102103681B1/ko
Priority to US14/110,486 priority patent/US9842570B2/en
Priority to CN201280024287.0A priority patent/CN103548346B/zh
Publication of WO2012161076A1 publication Critical patent/WO2012161076A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/312Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being placed behind the display panel, e.g. between backlight and spatial light modulator [SLM]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0209Crosstalk reduction, i.e. to reduce direct or indirect influences of signals directed to a certain pixel of the displayed image on other pixels of said image, inclusive of influences affecting pixels in different frames or fields or sub-images which constitute a same image, e.g. left and right images of a stereoscopic display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Definitions

  • the present technology relates to a display device, a method, and a program, and more particularly, to a display device, a method, and a program for performing stereoscopic display of an image by a naked eye method using a parallax separation unit such as a parallax barrier.
  • a glasses method using stereoscopic glasses and a naked-eye method that enables stereoscopic viewing with no naked eyes without using special glasses for stereoscopic viewing.
  • a shutter spectacle method using shutter spectacles having a left eye shutter and a right eye shutter there is a shutter spectacle method using shutter spectacles having a left eye shutter and a right eye shutter.
  • the left-eye and right-eye parallax images are alternately displayed on the two-dimensional display panel at a high frame sequential speed.
  • the left-eye shutter and the right-eye shutter are alternately switched in accordance with the display timing of each parallax image, so that the left-eye parallax image for the observer's left eye and the right-eye parallax for the right eye Only the image is incident, and stereoscopic viewing of the image becomes possible.
  • typical examples of the naked eye method include a parallax barrier method and a lenticular method.
  • a parallax image for stereoscopic viewing (a parallax image for the right eye and a parallax image for the left eye in the case of two viewpoints) is displayed in a space-divided manner on the two-dimensional display panel.
  • the image is separated in the horizontal direction by the parallax separation unit to realize stereoscopic viewing.
  • a parallax barrier provided with a slit-shaped opening is used as a parallax separation unit
  • a lenticular lens in which a plurality of cylindrical divided lenses are arranged in parallel is used as a parallax separation unit. It is done.
  • the present technology has been made in view of such a situation, and makes it possible to present a high-quality stereoscopic image more easily.
  • a display device includes a display unit in which a plurality of block regions each including pixels of a plurality of channels of three or more are provided, and a separation unit that separates an image displayed on each channel pixel in the block region And a parallax image is displayed in a first area consisting of a plurality of pixels adjacent to each other in the block area, and pixels of two or more different channels, according to the viewpoint position of the user observing the display unit, A plurality of parallax images for each channel pixel in the block area so that the parallax image and other parallax images having parallax are displayed in a second area different from the first area in the block area.
  • An allocation control unit that allocates any one of the above, and a generation unit that synthesizes a plurality of parallax images according to the allocation by the allocation control unit and generates a composite image.
  • the plurality of parallax images may be the right-eye parallax image and the left-eye parallax image.
  • the allocation control unit includes a viewing position calculation unit that obtains a viewing position on a viewing pixel in the block region observed by the user for each block region based on the viewpoint position, and the viewing position includes the viewing position.
  • the position of the block area that is substantially the center of the visual pixel is calculated as a boundary position, and the block area between the boundary position and another boundary position closest to the boundary position is calculated for the block area.
  • a boundary position calculation unit that assigns the same parallax image to pixels of the same channel in the block region can be provided.
  • the channel of the visual pixel of the block area at the boundary position, and the other boundary position can be assigned to the pixel of the same channel as the channel of the visible pixel in the block area.
  • an intermediate position between the boundary position calculated with reference to the user's right eye and the boundary position calculated with reference to the user's left eye is determined as the final boundary. Position.
  • the allocation control unit includes the boundary position calculated with reference to the user's right eye and the boundary position calculated with reference to the user's left eye as the target area.
  • a blend ratio calculation unit that calculates a blend ratio based on a pixel position in the target region is further provided, and the generation unit includes both the left and right in the target region.
  • the pixel of the composite image displayed on the pixel observed by the eye of the right eye can be generated by blending the parallax image for the right eye and the parallax image for the left eye at the blend ratio. .
  • the allocation control unit can cause the display unit to display either the parallax image for the right eye or the left eye when the viewpoint position is outside a predetermined region. .
  • a display method or program includes a plurality of pixels adjacent to each other in a block region according to a viewpoint position of a user observing the display unit, and a first method including pixels of two or more different channels.
  • Each parallax image in the block area is displayed such that a parallax image is displayed in the area and another parallax image having parallax with the parallax image is displayed in a second area different from the first area in the block area.
  • a parallax image is formed in a first area including pixels of two or more different channels in a block area, which are adjacent to each other in a block area, according to a viewpoint position of a user observing the display unit. Is displayed on the pixel of each channel in the block area so that the parallax image and another parallax image having parallax are displayed in a second area different from the first area in the block area. Any of a plurality of parallax images is assigned, and a plurality of parallax images are synthesized according to the assignment, and a synthesized image is generated.
  • a high-quality stereoscopic image can be presented more easily.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a display device to which the present technology is applied.
  • the display device 11 is a display device that stereoscopically displays a subject using parallax images from a plurality of viewpoints.
  • the display device 11 includes an imaging unit 21, a detection unit 22, an assignment control unit 23, a recording unit 24, a generation unit 25, a display control unit 26, and a display unit 27.
  • the imaging unit 21 captures and detects an image of a user around the display device 11, for example, an image of a user observing an image displayed on the display unit 27 (hereinafter referred to as a peripheral image) from almost the front of the display unit 27. Supplied to the unit 22.
  • the detection unit 22 detects the user's eyes from the peripheral image supplied from the imaging unit 21 and supplies the detection result to the assignment control unit 23.
  • the detection unit 22 includes a viewpoint position calculation unit 31, and the viewpoint position calculation unit 31 calculates a user's viewpoint position with respect to the display unit 27 based on the peripheral image and supplies the calculated position to the assignment control unit 23.
  • the allocation control unit 23 allocates a plurality of parallax images to each region on the display surface of the display unit 27 based on the detection result from the detection unit 22 and the viewpoint position of the user.
  • the allocation control unit 23 includes a determination unit 32, a visual position calculation unit 33, and a boundary position calculation unit 34.
  • the determination unit 32 determines whether or not stereoscopic display (3D display) of a subject using a plurality of parallax images is possible, and the allocation control unit 23 determines whether or not the subject is stereoscopically displayed. Image generation in the generation unit 25 is controlled.
  • the visual recognition position calculation unit 33 calculates the position in the pixel on the display surface of the display unit 27 visually recognized by the user as the visual recognition position based on the viewpoint position from the detection unit 22.
  • the boundary position calculation unit 34 assigns a plurality of parallax images to each region on the display surface of the display unit 27 based on the visual recognition position.
  • the recording unit 24 records a plurality of parallax images constituting a stereoscopic image, and supplies the parallax images to the generation unit 25 as necessary.
  • the generation unit 25 Based on the parallax image from the recording unit 24, the generation unit 25 generates a synthesized image obtained by spatially dividing these parallax images and supplies the synthesized image to the display control unit 26 under the control of the allocation control unit 23.
  • the generation unit 25 supplies any of the parallax images from the recording unit 24 to the display control unit 26 as it is under the control of the allocation control unit 23.
  • the display control unit 26 supplies the composite image from the generation unit 25 to the display unit 27 to display the stereoscopic image of the subject on the parallax image, or supplies the parallax image from the generation unit 25 to the display unit 27.
  • the display unit 27 includes a liquid crystal display panel that can display a stereoscopic image by the naked eye method, and displays a composite image or a parallax image supplied from the display control unit 26.
  • [Configuration example of display unit] 1 is configured as shown in FIG. 2, for example.
  • the display unit 27 includes a backlight 61, a light modulation panel 62, and a barrier element 63.
  • the backlight 61 includes, for example, an LED (Light Emitting Diode) light source, a light guide plate, and the like, emits light for displaying an image, and enters the light modulation panel 62.
  • LED Light Emitting Diode
  • the light modulation panel 62 is made of, for example, a liquid crystal layer or color filters of R, G, and B colors, and transmits light incident from the backlight 61 to display an image. At this time, the light modulation panel 62 performs gradation display of each pixel of the image by changing the light transmittance for each pixel provided in the light modulation panel 62.
  • the light modulation panel 62 includes a transparent substrate 71, a transparent substrate 72, and a liquid crystal layer 73.
  • the liquid crystal layer 73 is a flat transparent substrate 71 and a transparent substrate that are disposed so as to face each other. 72 is formed.
  • the liquid crystal layer 73 is provided with a transmissive portion as a pixel for displaying an image.
  • the barrier element 63 includes a polarizing plate, a switch liquid crystal layer, and the like.
  • the barrier element 63 optically separates the parallax images by blocking a part of the light incident from the light modulation panel 62 and transmitting the remaining part.
  • the barrier element 63 includes a transparent substrate 74, a transparent substrate 75, and a switch liquid crystal layer 76, and the switch liquid crystal layer 76 is disposed between the flat transparent substrate 74 and the transparent substrate 75 arranged so as to face each other. Is formed.
  • Electrodes are formed on the transparent substrate 74 and the transparent substrate 75, and when a voltage is applied to some or all of these electrodes, the orientation direction of the liquid crystal molecules in the switch liquid crystal layer 76 changes, thereby A parallax barrier is formed in the switch liquid crystal layer 76.
  • the openings 81-1 to 81-3 that transmit the light incident from the light modulation panel 62 and the shielding portions 82-1 to 82-3 that shield the light incident from the light modulation panel 62 are used.
  • -3 is formed in the switch liquid crystal layer 76.
  • openings 81-1 to 81-3 are also simply referred to as the openings 81, and it is not necessary to particularly distinguish the shielding parts 82-1 to 82-3. Also simply referred to as a shielding portion 82.
  • a parallax barrier is formed on the barrier element 63, but a parallax image that is a 2D image is displayed on the light modulation panel 62. In that case, no parallax barrier is formed in the barrier element 63.
  • the user observes an image displayed on the light modulation panel 62 from the barrier element 63 side.
  • the barrier element 63 when a composite image is displayed, light emitted from the backlight 61 and transmitted through the light modulation panel 62 and the barrier element 63 is incident on the user's right eye ER or left eye EL.
  • different lights separated by the barrier element 63 are incident on the user's right eye ER and left eye EL, different parallax images having parallax are observed between the right eye ER and the left eye EL.
  • the barrier element 63 has been described as an example of a separation unit that optically separates parallax images.
  • the separation unit is not limited to a parallax barrier, and may be a lenticular lens or the like.
  • the parallax barrier as the separation unit is not limited to a variable barrier, and may be a fixed barrier in which an opening is provided in a shielding plate or the like.
  • the barrier element 63 may be disposed between the light modulation panel 62 and the backlight 61.
  • the display unit 27 included in the display device 11 displays parallax images at four different viewpoints, and allows the user to observe parallax images at two viewpoints among the four viewpoints, thereby converting the parallax images into a three-dimensional form.
  • the display device can display four viewpoints.
  • the horizontal direction and the vertical direction are the x direction and the y direction, respectively, and the direction perpendicular to the x direction and the y direction is the z direction.
  • the x direction is the direction in which the user's right eye ER and left eye EL are arranged, that is, the parallax direction of the parallax image displayed on the light modulation panel 62
  • the y direction is the direction perpendicular to the display surface of the light modulation panel 62.
  • pixels of channel CH0, channel CH1, channel CH2, and channel CH3 are arranged in order from the right side to the left side in FIG. 2, and pixels of the same channel are arranged in the z direction. ing.
  • the barrier element 63 is provided with one opening 81 constituting a parallax barrier for one block region.
  • an area composed of pixels of the same channel in one block area is also referred to as a channel area.
  • the display unit when a parallax image of four viewpoints is displayed on the display unit, the display unit is provided with a block area composed of pixels of channels CH0 to CH3, and the parallax images of each viewpoint are displayed on the pixels of each channel. .
  • the position and size of the opening of the display unit for example, when a predetermined position in front of the display unit is set as a reference position, and the user observes the display unit from the reference position, It is predetermined that pixels of the same channel are observed.
  • the distance in the y direction from the display surface of the display unit to the reference position is also referred to as an appropriate viewing distance.
  • the user's right eye ER can be compared with the user's right eye ER through an opening 112 provided in the shielding unit 111 of the display unit.
  • the left eye EL adjacent pixels are observed.
  • the horizontal direction and the vertical direction indicate the x direction and the y direction, respectively.
  • the pixel G11 is observed in the user's left eye EL, and the pixel G12 adjacent to the pixel G11 is observed in the user's right eye ER.
  • the parallax images of different viewpoints are displayed on the pixel G11 and the pixel G12, parallax images of different viewpoints having parallax are observed with the left and right eyes of the user.
  • the pixel G13 is observed in the user's left eye EL, and the user's right eye ER is a position away from the pixel G13 by two pixels. A pixel G15 located at is observed. In this state, even if the user's viewpoint position moves slightly in the right direction in FIG. 3, the parallax image displayed on the pixel G13 is not observed in the user's right eye ER. Does not occur.
  • the pixels in the block area visually recognized by the user's right eye and left eye are separated by a distance of two pixels. Pixel.
  • the right-eye and left-eye parallax images are appropriately displayed on the pixels of each channel, and the user can reduce the appropriate viewing distance. If a parallax image is observed from half the distance, the occurrence of crosstalk can be suppressed.
  • a right-eye parallax image is displayed on the adjacent channel CH0 and channel CH1 pixels
  • a left-eye parallax image is displayed on the adjacent channel CH2 and channel CH3 pixels. Suppose that it is displayed.
  • the user can feel the switching of the display of the left and right parallax images in each region. Thus, a more natural image can be presented.
  • a stereoscopic image display method As described above, according to the viewpoint position of the user, appropriately display the parallax image for the right eye or the left eye on the pixel of each channel, and if the user observes from a distance about half of the normal suitable viewing distance, It is possible to suppress the occurrence of crosstalk and present a higher quality image.
  • a semi-viewing distance display method such a stereoscopic image display method is referred to as a semi-viewing distance display method.
  • parallax barrier design When left and right parallax images are displayed using such a semi-viewing distance display method, the same is applied to the user who observes the display unit 27 from a position that is approximately half the normal viewing distance via each opening 81. In order to make the pixel of the channel visible, it is necessary to appropriately determine the distance between the openings 81, the distance from the openings 81 to the light modulation panel 62, and the like.
  • the distance between the user's right eye ER and left eye EL (hereinafter referred to as the interocular distance E) is 65 mm and the appropriate viewing distance Z0 is 900 mm. Note that a typical adult interocular distance is about 65 mm.
  • a distance D1 from the opening 81 to the light modulation panel 62 and a distance D2 between the openings 81 are determined.
  • the horizontal direction and the vertical direction indicate the x direction and the y direction.
  • each square on the lower side represents a pixel on the light modulation panel 62.
  • one pixel G21 is visually recognized through the opening 81 from the position PE11 of the user's eye as shown on the left side in the figure. Assuming that the distance between the pixels is D3, the center of the pixel G21 is located away from the straight line A11 by D3.
  • the position of the light modulation panel 62 seen through the screen should be separated by 4 pixels.
  • the horizontal direction and the vertical direction indicate the x direction and the y direction, respectively.
  • the viewpoint position of the user is a distance Z0 / 2 away from the center of the light modulation panel 62 in the y direction. That is, it is assumed that the user observes the light modulation panel 62 from the front at a distance Z0 / 2 from the light modulation panel 62.
  • the pixels G31 to G34 in the block region provided for the opening 81 are the pixels of the channels CH3 to CH0, respectively.
  • the center of the pixel of the channel CH3 in each block region of the entire light modulation panel 62 is observed in the user's left eye EL, and the light modulation panel is displayed in the user's right eye ER.
  • the center of the pixel of channel CH1 in each block area of the entire 62 is observed.
  • the refraction angle of light emitted from the light modulation panel 62 and entering the user's eyes through the opening 81 changes. Therefore, in the block region located at a position away from the center of the light modulation panel 62, the position on the pixel observed by the user is slightly shifted from the center.
  • the left eye EL of the user has pixels G31 and G32. The position between is observed. Further, the position between the pixel G33 and the pixel G34 is observed in the right eye ER of the user.
  • the user's eyes since the refraction angle of light incident on the user's eyes from the pixels of the light modulation panel 62 changes depending on the position on the light modulation panel 62, the user's eyes have either of the two pixels. A slightly larger area of the pixel can be seen.
  • the display control of the parallax image on the display device 11 is basically the same regardless of whether the configuration shown on the right side in the figure or the configuration shown on the left side in the figure.
  • the display device 11 when the viewpoint position of the user is detected, which position of the pixel of which channel in the block area is visually recognized by the user for each block area (opening 81) based on the viewpoint position. Calculated. Based on the calculation result, a right-eye or left-eye parallax image is assigned to each channel pixel in the block region.
  • the display device 11 identifies the positions of the block areas where the luminance of light from the pixels viewed by the user is highest among the block areas on the display surface of the light modulation panel 62, and The position is the boundary position. That is, the position of the block area where the center of the pixel is visually recognized by the user's eyes is set as the boundary position.
  • the display device 11 assigns left and right parallax images to the pixels of each channel for each region divided by the boundary position on the light modulation panel 62. At this time, in one area divided by the boundary position, the same parallax image is always assigned to the pixel of the same channel in all the block areas.
  • a composite image is generated in accordance with the assignment of the parallax image to the pixel of each channel in such a block area, and the generated composite image is displayed on the light modulation panel 62.
  • the viewpoint position of the user moves from this state, the position of the pixel visually recognized by the user in each block area changes, so that the position of the boundary position also moves following the change of the viewpoint position. Therefore, according to the movement of the boundary position, the assignment of the parallax image to the pixel of each channel in the block region is changed.
  • an area composed of several block areas arranged in succession, and an area composed of block areas in which the same parallax image is assigned to pixels of the same channel is also referred to as a continuous block area. And That is, the area divided by the boundary position is a continuous block area.
  • the boundary position of the continuous block area is the position of the block area where the luminance of light from the pixel visually recognized by the user is highest.
  • the block region having the highest luminance is a block region where the approximate center of the pixel is visually recognized by the user.
  • a predetermined light beam H11 passes through the air, enters a glass material having a thickness D21, and reaches the surface of the light modulation panel 62.
  • a straight line passing through the incident position of the light beam H11 on the glass material and perpendicular to the surface of the glass material is defined as a straight line A21.
  • the horizontal direction in the drawing that is, the direction parallel to the display surface of the light modulation panel 62 is the x direction
  • the vertical direction in the drawing that is, the display surface of the light modulation panel 62.
  • a predetermined position on the xy coordinate system is a position CP of the user's eyes, where the direction perpendicular to the y direction is the y direction.
  • the opening 81 in the center of the barrier element 63 is defined as the 0th opening 81
  • the nth opening 81 in the left direction from the opening 81 in the figure is defined as the nth opening 81, and the 0th.
  • the n-th opening 81 in the right direction from the first opening 81 is defined as the ⁇ n-th opening 81.
  • the incident angle T11 of the light beam from the position CP to the nth opening 81 is obtained. That is, the incident angle T11 is an angle formed by the straight line L21 parallel to the y direction and the light beam from the position CP.
  • the position in the pixel visually recognized by the user is a value between ⁇ 0.5 and 0.5, with the center position of the pixel being 0.
  • the left end position in the pixel diagram is +0.5
  • the right end position in the pixel diagram is ⁇ 0.5.
  • the channel m of the pixel (hereinafter also referred to as a visible pixel) visually recognized by the user for each block region (opening 81), and the visual position on the visible pixel
  • the result shown in FIG. 8 is obtained.
  • the horizontal axis indicates the number n of the opening 81
  • the vertical axis indicates the channel number or the viewing position of the viewing pixel.
  • the direction from the 0th opening 81 toward the nth (where 1 ⁇ n) opening 81 is the + x direction, and the direction opposite to the + x direction is the ⁇ x direction.
  • the straight line C11 indicates the channel number of the visual recognition pixel in each block area visible from the user's right eye
  • the curved line C12 indicates the visual recognition position of the visual recognition pixel in each block area visible from the user's right eye.
  • the pixel of the channel CH1 is visually recognized by the right eye of the user through all the openings 81, that is, in all the block regions on the light modulation panel 62. Further, it can be seen that the center (center) of the pixel of the channel CH1 is visually recognized by the right eye of the user observing the 0th opening 81.
  • the position of the opening 81 located on the + x direction side from the 0th opening 81 is shifted in the + x direction from the center as viewed from the pixel by the user's right eye.
  • the position on the pixel visually recognized by the user's right eye is shifted from the center in the ⁇ x direction toward the ⁇ x direction side of the 0th opening 81.
  • the straight line C13 indicates the channel number of the visible pixel in each block area visible from the user's left eye
  • the curve C14 indicates the block area of each block area visible from the user's left eye.
  • the visual recognition position in the visual recognition pixel is shown.
  • the pixel of the channel CH3 is visually recognized by the user's left eye through all the openings 81, and the pixel of the channel CH3 is observed by the user's left eye observing the 0th opening 81. It can be seen that the center is visible.
  • the viewing position is shifted in the + x direction from the pixel center, and the opening 81 on the ⁇ x direction side from the 0th opening 81. It can be seen that the viewing position is shifted in the ⁇ x direction from the pixel center.
  • the display device 11 sets the position of the block area (opening 81) where the visual recognition position is 0 as the boundary position LB11 of the continuous block area from the curves C12 and C14. More specifically, the curve indicating the viewing position in each opening 81 such as the curve C12 and the curve C14 has a position that crosses 0 on the vertical axis in a section in which the pixel of the same channel is the viewing pixel, that is, the viewing position is A position where the value changes from a negative value to a positive value is set as a boundary position.
  • the display device 11 assigns a parallax image to the pixel of each channel for each continuous block region obtained by being divided by the boundary position LB11.
  • a parallax image for the right eye is assigned to the pixels of the channel CH0 and the channel CH1, and the channel CH2 and the channel CH1.
  • a parallax image for the left eye is assigned to the pixel of CH3.
  • the pixel of the channel CH1 is visually recognized by the user's right eye as a visual pixel, and the visual recognition position is from the center of the visual pixel to the left side, that is, the pixel side of the channel CH0. It's off. Therefore, in the region on the left side from the boundary position LB11, a right-eye parallax image is assigned to the pixels of the channel CH0 and the channel CH1.
  • right-eye parallax images are assigned to the pixels of the channel CH1 and the channel CH2, and the channel CH0 and the channel CH3 are assigned.
  • a left-eye parallax image is assigned to the pixel.
  • pixels of the same channel in each block area are observed as visual pixels by the user's eyes, but when the user's viewpoint position moves, for example, as shown in FIG.
  • This pixel may be a visible pixel.
  • the horizontal axis indicates the number n of the opening 81
  • the vertical axis indicates the channel number or the viewing position of the viewing pixel.
  • the broken line C ⁇ b> 21 indicates the channel number of the visible pixel in each block area visible from the user's right eye
  • the broken line C ⁇ b> 22 indicates the visual recognition position in the visible pixel of each block area visible from the user's right eye. Yes.
  • the position of the pixel of the channel CH0 on the + x direction side is observed through the opening 81 to the right eye of the user.
  • the position of the pixel of the channel CH1 on the ⁇ x direction side is observed through the opening 81 to the right eye of the user. I understand that.
  • the broken line C ⁇ b> 23 indicates the channel number of the visible pixel in each block area visible from the user's left eye
  • the broken line C ⁇ b> 24 indicates the visual recognition position in the visible pixel of each block area visible from the user's left eye. Is shown.
  • the left eye of the user passes through the opening 81 on the + x direction side of the pixel of the channel CH2. It can be seen that the position is observed. Further, in the opening 81 on the ⁇ x direction side from the 0th opening 81, the position of the pixel of the channel CH3 on the ⁇ x direction side is observed through the opening 81 to the left eye of the user. I understand that.
  • the broken line C22 and the broken line C24 indicating the viewing position do not cross the viewing position “0” (does not cross 0) in the section where the pixel of the same channel is the viewing pixel. There is no boundary position.
  • the right-eye parallax image is assigned to the pixels of the channel CH0 and the channel CH1 that are the visible pixels in each block area.
  • a left-eye parallax image is assigned to the pixels of the channel CH2 and the channel CH3 that are the visible pixels.
  • the entire light modulation panel 62 is set as one continuous block region.
  • the boundary position of the continuous block region is determined.
  • a channel to which the left and right parallax images are assigned is determined for each block area belonging to each continuous block area.
  • the boundary position of the continuous block area is ideally the same as the boundary position when viewed from the right eye and the boundary position when viewed from the left eye. Since the positions of the eyes and the left eyes are different from each other, there may be a shift in the boundary position between them as shown in FIG.
  • the horizontal axis indicates the number n of the opening 81
  • the vertical axis indicates the channel number or the viewing position of the viewing pixel.
  • the broken line C31 indicates the channel number of the visible pixel in each block area visible from the user's right eye
  • the broken line C32 indicates the visual recognition position in the visible pixel of each block area visible from the user's right eye.
  • a straight line LB31 and a straight line LB32 indicate the boundary position of the continuous block region determined from the broken line C32.
  • the broken line C33 indicates the channel number of the visible pixel in each block area visible from the user's left eye
  • the broken line C34 indicates the visual recognition position in the visible pixel of each block area visible from the user's left eye.
  • the straight line LB41 and the straight line LB42 indicate the boundary position of the continuous block region determined from the broken line C34.
  • the straight line LB31 and the straight line LB32 are also referred to as the boundary position LB31 and the boundary position LB32
  • the straight line LB41 and the straight line LB42 are also referred to as the boundary position LB41 and the boundary position LB42.
  • the boundary position LB41 and the boundary position LB42 with the left eye as a reference correspond to the boundary position LB31 and the boundary position LB32 with the right eye as a reference, but the boundary positions are shifted.
  • a contradiction arises in the assignment of the parallax image to the pixel of each channel in the block region.
  • the right-eye parallax image is assigned to the pixels of the channel CH0 and the channel CH3 in the block region between the end of the light modulation panel 62 on the ⁇ x direction side and the boundary position LB31 with the right eye as a reference.
  • a parallax image for the left eye is assigned to the pixels of the channel CH2 and the channel CH3 in the block region between the boundary position LB41 and the boundary position LB42 with the left eye as a reference.
  • both the right-eye parallax image and the left-eye parallax image are assigned to the pixel of the channel CH3.
  • an intermediate position (average position) between the boundary position LB31 and the boundary position LB41, and an intermediate position between the boundary position LB32 and the boundary position LB42 are set as boundary positions LB51 and LB52 which are final boundary positions. To do.
  • the area divided by the boundary position LB51 and the boundary position LB52 is set as a continuous block area, and a parallax image is allocated in each block area.
  • the channel numbers of the pixels to which the parallax images for the right eye and the left eye are assigned in each region are shown on the lower side.
  • right-eye parallax images are assigned to the pixels of the channel CH0 and the channel CH3 in the block region, and the channel CH1 and the channel CH2 A left-eye parallax image is assigned to the pixel.
  • right-eye parallax images are assigned to the channels CH0 and CH1 in the block region, and left-eye parallax images are assigned to the channels CH2 and CH3. Is assigned.
  • right-eye parallax images are assigned to the pixels of the channels CH1 and CH2 in the block region, and the pixels of the channels CH0 and CH3 are assigned. Is assigned a parallax image for the left eye.
  • the boundary position between the boundary position based on the right eye and the boundary position based on the left eye is the boundary position of the final continuous block region, the right eye or the left eye is used as the reference in the vicinity of the boundary position.
  • pixels in the same channel are observed as visual pixels in the user's right eye and left eye in some block areas.
  • the horizontal axis indicates the number n of the opening 81
  • the vertical axis indicates the channel number or the viewing position of the viewing pixel.
  • the broken line C41 indicates the channel number of the visible pixel in each block area visible from the user's right eye
  • the broken line C42 indicates the visual recognition position in the visible pixel of each block area visible from the user's right eye.
  • a broken line C43 indicates a channel number of a visible pixel in each block area visible from the user's left eye
  • a broken line C44 indicates a visual recognition position in the visible pixel of each block area visible from the user's left eye.
  • the polygonal line C41 and the polygonal line C43 partially overlap, and in these parts, pixels in the same channel are visible pixels in the user's right eye and left eye in the block region. And parallax images for both the left eye and the left eye must be assigned. That is, the user cannot observe the subject stereoscopically, and stereoscopic display using the parallax image for the right eye and the parallax image for the left eye becomes impossible.
  • the parallax image is obtained when the user observes the display unit 27 from the current viewpoint position based on the result. It is possible to specify whether or not stereoscopic viewing is possible.
  • a hatched area WR11 of the surrounding area of the display unit 27 indicates an area in which a parallax image can be stereoscopically displayed. Therefore, when the stereoscopic display of the parallax image is performed by the semi-view distance display method, the display device 11 sets the region WR12 in the region WR11 as a region where the stereoscopic display of the parallax image is possible. The display device 11 stereoscopically displays the subject based on the left and right parallax images when the user's viewpoint position is within the region WR12, and when the user's viewpoint position is outside the region WR12, A parallax image is displayed.
  • the display device 11 performs display processing when a stereoscopic image including a parallax image for the right eye and a parallax image for the left eye is designated, and display of these parallax images by the semi-viewing distance display method is instructed, A parallax image is stereoscopically displayed.
  • display processing by the display device 11 will be described with reference to the flowchart of FIG.
  • step S ⁇ b> 11 the imaging unit 21 captures an image of a region around the display unit 27 as a peripheral image and supplies the image to the detection unit 22.
  • step S ⁇ b> 12 the detection unit 22 detects the user's eyes based on the peripheral image supplied from the imaging unit 21. For example, the detection unit 22 detects the user's face from the peripheral image, and further detects the user's eyes from the detected face area.
  • step S13 the detection unit 22 determines whether or not the user's eyes are detected from the surrounding images.
  • step S14 the viewpoint position calculation unit 31 calculates the user's viewpoint position from the detected user's eye position, and sends it to the assignment control unit 23. Supply. For example, the viewpoint position calculation unit 31 obtains an intermediate position between the left and right eyes of the user on the xy plane as the viewpoint position.
  • step S15 the determination unit 32 of the allocation control unit 23 determines whether or not stereoscopic display of a parallax image is possible based on the viewpoint position of the user supplied from the viewpoint position calculation unit 31.
  • the determination unit 32 records area information for specifying the stereoscopically displayable area WR12 illustrated in FIG. 12 in advance, and based on the recorded area information, the user's viewpoint position is within the area WR12. By specifying whether or not it is a position, it is determined whether or not stereoscopic display is possible. Therefore, for example, when the viewpoint position of the user is a position in the region WR12, it is determined that stereoscopic display is possible.
  • step S16 the viewing position calculation unit 33 visually recognizes each opening 81 based on the viewpoint position of the user supplied from the viewpoint position calculation unit 31. Pixels and viewing positions are calculated.
  • the visual recognition position calculation unit 33 performs the calculation described with reference to FIG. 7 for the right eye position and the left eye position of the user determined from the viewpoint position, and opens the opening for each opening 81 (block region).
  • the visual recognition pixel observed through the part 81 and the visual recognition position in the visual recognition pixel are calculated.
  • the calculation result shown in FIG. 10 is obtained. That is, for each block region, a channel number of a pixel (viewing pixel) observed from the user's right eye or left eye and a position (viewing position) observed by the user on the pixel are obtained.
  • step S17 the boundary position calculation unit 34 calculates the boundary position of the continuous block area based on the calculation result of the visual recognition pixel and the visual recognition position for each block area.
  • the boundary position calculation unit 34 specifies a block area whose viewing position is “0” based on the viewing position of each block area obtained for the right eye position. Then, the boundary position calculation unit 34 has different viewing positions of the block areas arranged on the left and right sides (x direction) of the block area, and the viewing positions of the three block areas are the same when the channels of the viewing pixels are the same.
  • the position of the block area that is “0” is set as a boundary position with the right eye as a reference.
  • the boundary position calculation unit 34 calculates the boundary position with reference to the left eye based on the visual recognition pixel of each block area obtained for the left eye position and the calculation result of the visual recognition position. Then, the boundary position calculation unit 34 determines the intermediate position between the boundary position with reference to the right eye and the boundary position with reference to the left eye corresponding to these boundary positions as the boundary of the final continuous block region. Position.
  • the boundary position based on the left eye which corresponds to the boundary position based on the right eye, is the boundary position based on the left eye that is closest to the boundary position based on the right eye. is there.
  • the boundary position LB51 and the boundary position LB52 shown in FIG. 10 are obtained by such calculation. Note that, as in the example illustrated in FIG. 9, there may be no boundary position depending on the viewpoint position of the user.
  • step S18 the boundary position calculation unit 34 assigns right-eye or left-eye parallax images to the pixels in each block area based on the calculation result of the boundary position of the continuous block area.
  • a right-eye parallax image is assigned to the pixels (channel regions) of channel CH0 and channel CH1 in all block regions on the display surface of the light modulation panel 62.
  • parallax images for the left eye are assigned to the pixels of channel CH2 and channel CH3.
  • the right eye is applied to the pixels of the channel CH0 and the channel CH1.
  • a parallax image for use is assigned.
  • a left-eye parallax image is assigned to the pixels of the channel CH2 and the channel CH3.
  • an area composed of four pixels on the light modulation panel 62 is a block area BR1 and a block area BR2.
  • the horizontal direction indicates the x direction.
  • rectangles indicated by arrows Q41 to Q43 represent the parallax image for the right eye, the parallax image for the left eye, and the light modulation panel 62.
  • one rectangle in the rectangle represents one pixel, and the characters “R”, “G”, and “B” in each pixel represent the color of the pixel.
  • a region including the pixels G51 to G54 on the light modulation panel 62 is a block region BR1
  • a region including the pixels G55 to G58 is a block region BR2.
  • the pixel G51 is a pixel that is provided with an R (red) color filter and transmits only R light
  • the pixel G52 is a G light that is provided with a G (green) color filter. It is a pixel that transmits only.
  • each pixel on the light modulation panel 62 the channel numbers of these pixels are written on the lower side.
  • the pixel G51 is a pixel of the channel CH0
  • the pixel G52 is a pixel of the channel CH1.
  • pixels on an image have values of R, G, and B colors
  • adjacent R, G, and B areas are defined as one pixel
  • R, G, and B color areas are defined as one pixel. It is often treated as a subpixel (subpixel).
  • a region composed of three consecutive pixels of R, G, and B at the left end is generally one pixel (hereinafter also referred to as RGB pixel as appropriate).
  • the pixels G61 and G62 of each color are treated as sub-pixels. However, here, these pixels G61 and G62 are referred to as one pixel.
  • the three color regions composed of the pixels G51 to G53 may be treated as one pixel, but here each of the pixels G51 to G53 is treated as one pixel. .
  • the boundary position calculation unit 34 assigns a right-eye parallax image to the pixels of the channel CH0 and the channel CH1, and a parallax image for the left eye to the pixels of the channel CH2 and the channel CH3. Is assigned.
  • the boundary position calculation unit 34 assigns the pixel G61 and the pixel G62 of the parallax image for the right eye to the pixel G51 and the pixel G52 on the light modulation panel 62 at the same position as those pixels. Further, the boundary position calculation unit 34 assigns the pixel G71 and the pixel G72 of the parallax image for the left eye to the pixel G53 and the pixel G54 on the light modulation panel 62 at the same position as those pixels.
  • the boundary position calculation unit 34 assigns the pixel G63 and the pixel G64 of the parallax image for the right eye to the pixel G55 and the pixel G56, the pixel G73 and the pixel G74 of the parallax image for the left eye, and the pixel G57 and the pixel G57. Assign to G58.
  • a right-eye or left-eye parallax image is assigned to a pixel of a predetermined channel in the block region, more specifically, the right-eye at the same position as the pixel is assigned to the pixel of the channel.
  • a pixel of a parallax image for use or for the left eye is assigned.
  • the boundary position calculation unit 34 supplies the assignment result to the generation unit 25, and the composite image Instruct the generation of.
  • step S ⁇ b> 19 the generation unit 25 generates a composite image based on the allocation result supplied from the boundary position calculation unit 34 and the right-eye and left-eye parallax images read from the recording unit 24, and displays them. It supplies to the control part 26. For example, when the assignment illustrated in FIG. 14 is performed, the generation unit 25 displays the pixel G61 and the pixel G62 of the parallax image for the right eye on the pixel G51 and the pixel G52, and the pixel of the parallax image for the left eye A composite image is generated so that G71 and pixel G72 are displayed on pixel G53 and pixel G54.
  • the parallax image may be acquired from an external device or the parallax image may be received.
  • step S20 the display control unit 26 supplies the composite image supplied from the generation unit 25 to the display unit 27 for display.
  • the display unit 27 emits light from the backlight 61 based on the supplied composite image, and applies a voltage to the light modulation panel 62 to control the transmittance of light from the backlight 61 for each pixel. Further, the display unit 27 applies a voltage to the barrier element 63 to form a parallax barrier composed of the opening 81 and the shielding unit 82.
  • the light transmitted through each pixel of the light modulation panel 62 from the backlight 61 is optically separated by the parallax barrier, and a part of the separated light is incident on the right eye or the left eye of the user,
  • the user observes the subject on the parallax image stereoscopically. That is, the parallax image area for the right eye on the synthesized image is observed by the user's right eye, and the parallax image area for the left eye on the synthesized image is observed by the user's left eye.
  • the display device 11 outputs the accompanying sound from a speaker (not shown) in accordance with the display of the composite image.
  • step S21 the display device 11 determines whether to turn off the power of the display device 11. For example, when an instruction to turn off the power is given by a user operation, it is determined that the power is turned off.
  • step S21 If it is determined in step S21 that the power is not turned off, the process returns to step S11 and the above-described process is repeated. That is, according to the movement of the user's viewpoint position, the assignment of the parallax image to the pixel of each channel in the block region is changed, and the composite image generated according to the new assignment is displayed.
  • step S21 when it is determined in step S21 that the power is turned off, the display device 11 stops the processing of each unit and turns off the power, and the display process ends.
  • step S15 If it is determined in step S15 that stereoscopic display is not possible, the allocation control unit 23 instructs the generation unit 25 to display a two-dimensional parallax image, and the process proceeds to step S22.
  • step S22 the generation unit 25 displays a two-dimensional parallax image in response to an instruction from the allocation control unit 23. That is, the generation unit 25 reads out the right-eye or left-eye parallax image from the recording unit 24 and supplies the read-out parallax image to the display control unit 26 as it is.
  • the display control unit 26 supplies the parallax image supplied from the generation unit 25 to the display unit 27 to display the parallax image.
  • the barrier element 63 does not form a parallax barrier, and the display unit 27 displays the parallax image as it is.
  • the parallax image is displayed two-dimensionally (2D display) by causing the display unit 27 to display the parallax image as it is.
  • step S22 When the parallax image is displayed in step S22, the process thereafter proceeds to step S21, and the above-described process is performed.
  • step S13 If it is determined in step S13 that the user's eyes have not been detected, the detection unit 22 supplies a detection result indicating that no eyes have been detected to the assignment control unit 23, and the process proceeds to step S23.
  • step S23 the allocation control unit 23 determines whether or not a predetermined time has elapsed since the user's eyes are not detected.
  • step S23 If it is determined in step S23 that the predetermined time has not elapsed, the process proceeds to step S22, and the above-described process is performed. That is, the parallax image is two-dimensionally displayed on the display unit 27.
  • step S24 the allocation control unit 23 controls the generation unit 25 so that no image is displayed.
  • the generation unit 25 stops the supply of the image to the display control unit 26 according to the control of the allocation control unit 23. As a result, no image is displayed on the display unit 27. That is, the image is erased.
  • the power consumption can be suppressed by erasing the image.
  • step S24 If it is determined that the image is erased in step S24, then the process proceeds to step S21, the above-described process is performed, and the display process ends.
  • the display device 11 calculates the viewing pixel and the viewing position for each block area based on the viewpoint position of the user, and based on the calculation result, the display device 11 applies the right eye to the pixel of each channel in the block area.
  • a composite image is generated by assigning parallax images for the left eye or the left eye.
  • the user can feel more natural without switching the display of the parallax image in each channel. Can present high-quality images.
  • the display device 11 when the user observes the display unit 27 from an area in which stereoscopic display is possible, almost the same position in each block area becomes a visual recognition position. Does not occur.
  • the display device 11 is designed so that the viewing position of each block area is substantially the same when the user's viewpoint position is at a position that is approximately half the appropriate viewing distance. The number of boundary positions can be reduced.
  • the determination unit 32 records in advance area information for specifying an area that can be stereoscopically displayed.
  • area information is not recorded in advance and is visually recognized. Whether or not stereoscopic display is possible may be determined from the pixel calculation result.
  • the determination unit 32 uses the calculation result of the visual pixel in each block area calculated by the visual position calculation unit 33. That is, the determination unit 32 determines that stereoscopic display is not possible when there is a block region in which a visual pixel based on the right eye and a visual pixel based on the left eye are pixels of the same channel.
  • ⁇ Modification 1> In the above description, it has been described that the display device 11 performs stereoscopic display by the semi-viewing distance display method alone. However, a stereoscopic display by the semi-viewing distance display method is performed by a display system including several devices. It may be.
  • the display system is configured as shown in FIG. 15, for example.
  • the display system of FIG. 15 includes an imaging device 121, an image processing device 122, and a display device 123.
  • parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the imaging device 121 captures an image around the display device 123 as a peripheral image and supplies it to the image processing device 122.
  • the image processing device 122 generates a composite image using the peripheral image from the imaging device 121 and supplies the composite image to the display device 123.
  • the image processing apparatus 122 includes a detection unit 22, an assignment control unit 23, a recording unit 24, and a generation unit 25.
  • the detection unit 22 detects the user's eyes from the peripheral image from the imaging device 121 and supplies the detection result to the allocation control unit 23.
  • the allocation control unit 23 is based on the detection result from the detection unit 22.
  • the parallax image is assigned to the pixel of each channel in the block area.
  • the generation unit 25 generates a composite image from the parallax images of the left and right eyes recorded in the recording unit 24 according to the control of the assignment control unit 23 and supplies the composite image to the display device 123.
  • the display device 123 is a display device that has the same functions as the display unit 27 and the display control unit 26 and can display a stereoscopic image. Based on the composite image supplied from the generation unit 25, the display device 123 displays a subject on the parallax image. Is displayed in 3D.
  • the display unit 27 is a display device capable of stereoscopically displaying parallax images of four viewpoints.
  • the display unit 27 can stereoscopically display parallax images of five or more viewpoints. It may be a display device.
  • the display unit 27 can stereoscopically display a parallax image of six viewpoints, as illustrated in FIG. 16, an area including pixels of six different channels is set as a block area, and one opening is provided for the block area. A part 81 is provided.
  • FIG. 16 the same reference numerals are given to the portions corresponding to those in FIG. 2, and the description thereof will be omitted as appropriate.
  • an area including pixels G91 to G96 of six different channels is defined as one block area.
  • the viewpoint position of the user who can stereoscopically view the parallax image is, for example, a position where pixels at positions separated by 3 pixels from each other become visual pixels based on the user's right eye and left eye.
  • the pixel G95 is visually recognized by the user's right eye ER
  • the pixel G92 is visually recognized by the user's left eye EL.
  • parallax images for right eye or left eye are assigned to pixels of at least three consecutively arranged channels. For example, in FIG. 16, parallax images for the left eye are allocated to the pixels G91 to G93, and parallax images for the right eye are allocated to the pixels G94 to G96.
  • the right and left eye viewing pixels are arranged two or more pixels continuously arranged in the parallax direction.
  • a parallax image of the same viewpoint can be assigned to the above pixels.
  • the opening width of the opening 81 is too narrow, the screen is bright when the center of the pixel is visually recognized by the user, but the screen is dark when the position between the pixels is visually recognized by the user. In such a case, when the user moves the viewpoint position in the x direction, a state in which the screen becomes brighter or darker at a predetermined cycle is repeated.
  • the opening width of the opening 81 is the same as the pixel width or the distance between the pixels.
  • the aperture width is a value obtained by subtracting the pixel width from a value twice the distance between the pixels.
  • the user's eyes are at a position separated from the display unit 27 in the y direction by a distance Z0 / 2 that is half the appropriate viewing distance (hereinafter also referred to as a semi-appropriate viewing distance).
  • a distance Z0 / 2 that is half the appropriate viewing distance (hereinafter also referred to as a semi-appropriate viewing distance).
  • the user is looking at the pixel on the light modulation panel 62 through the opening 81.
  • the horizontal direction and the vertical direction in the figure indicate the x direction and the y direction.
  • pixels G121 to G125 are arranged in the x direction on the light modulation panel 62, and these pixels G121 to G125 are the pixels of channels CH0, CH1, CH2, CH3, and CH0, respectively. ing.
  • the numerical value in each pixel represents the channel number of that pixel.
  • the user's right eye ER and left eye EL are located at a semi-appropriate viewing distance from the display unit 27, and the user's right eye ER and left eye EL have light modulation panels, respectively.
  • a region VR11 and a region VL11 on 62 are visually recognized.
  • the region VR11 is approximately the region of the pixel G122 and the region VL11 is approximately the region of the pixel G124, the region at the center of the pixel G122 and the pixel G124 is visually recognized by the user's right eye ER and left eye EL. . Therefore, no crosstalk occurs in this state.
  • the region VR12 visually recognized by the user's right eye ER is a region including a part of the pixel G121 and the pixel G122
  • the region VL12 visually recognized by the user's left eye EL is the pixel G124.
  • the region includes a part of the pixel G125.
  • the pixel of the channel CH0 is visible to both the right eye and the left eye of the user, and crosstalk occurs.
  • the region VR13 visually recognized by the user's right eye ER is a region including a part of the pixel G122 and the pixel G123
  • the region VL13 visually recognized by the user's left eye EL is the pixel G123.
  • the region includes a part of the pixel G124.
  • the pixel of the channel CH2 is visible to both the right eye and the left eye of the user, and crosstalk occurs.
  • FIG. 18 shows an example in which the user's viewpoint position is closer to the display unit 27 than the position of the semi-appropriate viewing distance.
  • the horizontal direction indicates the x direction
  • one square represents one pixel provided on the light modulation panel 62.
  • the numerical values in these pixels indicate the channel number of each pixel.
  • each of the regions VR21-1 to VR21-8 indicates a region on the light modulation panel 62 that is visually recognized by the user's right eye ER through each opening 81.
  • the regions VL21-1 to VL21-8 indicate regions on the light modulation panel 62 that are visually recognized by the user's left eye EL through the openings 81.
  • region VR21-1 to the region VR21-8 are also simply referred to as a region VR21, and if the region VL21-1 to the region VL21-8 are not particularly required to be distinguished, they are also simply referred to as a region VL21.
  • the intermediate position between these boundary positions is the final position.
  • the right and left parallax images are assigned.
  • the straight line LB81 and the straight line LB82 indicate the boundary position with reference to the right eye and the boundary position with reference to the left eye, respectively, and these boundary positions are different positions. Therefore, the position of the straight line LB83 that is in the middle of the straight line LB81 and the straight line LB82 is the final boundary position of the continuous block region.
  • a left-eye parallax image is assigned to the channel CH0 and channel CH3 pixels
  • a right-eye parallax image is assigned to the channel CH1 and channel CH2 pixels in the region on the left side of the line LB83 in the drawing.
  • the left-eye parallax image is assigned to the channel CH2 and channel CH3 pixels
  • the right-eye parallax image is assigned to the channel CH0 and channel CH1 pixels.
  • a white image is displayed as a parallax image for the right eye and a black image is displayed as a parallax image for the left eye.
  • the channel VR1 in this area has a channel CH1. And the pixel region of the channel CH0.
  • the visual pixel based on the user's right eye is the channel CH1 pixel.
  • the pixel of the channel CH1 but also a partial region of the pixel of the channel CH0 is visually recognized by the user's right eye.
  • the parallax image for the left eye is assigned to the pixel of the channel CH0, and therefore, the parallax image for the left eye leaks to the right eye of the user in this area. Will be visible. That is, crosstalk occurs in the user's right eye.
  • the portion corresponding to the region from the straight line LB83 to the straight line LB81 becomes a grayish image.
  • the crosstalk amount increases in the region closer to the straight line LB83, whereas crosstalk occurs on the right side in the figure of the straight line LB83. Absent. Therefore, a line-shaped crosstalk that is long in the z direction is generated in the image PR11, and the crosstalk becomes somewhat conspicuous.
  • the channel VL21 in this area has a channel CH0. And the pixel region of the channel CH3.
  • the right eye parallax image is leaked to the left eye of the user in this area because the right eye parallax image is assigned to the pixel of the channel CH0. Will be visible.
  • the portion corresponding to the area from the straight line LB83 to the straight line LB82 becomes a whited image.
  • the crosstalk amount increases in the region closer to the straight line LB83, whereas crosstalk occurs on the left side in the figure of the straight line LB83. Absent. For this reason, a line-shaped crosstalk that is long in the z direction also occurs in the image PL11.
  • the pixel area of the channel CH0 is visually recognized by the left and right eyes of the user, and thus crosstalk occurs regardless of the allocation of the left and right parallax images. End up. Note that when the parallax image is assigned with the position of either the straight line LB81 or the straight line LB82 as the boundary position of the continuous block region, crosstalk hardly occurs in one of the left and right eyes, but a large amount in the other eye Crosstalk will occur.
  • the left and right parallax images are blended into the pixels that cause crosstalk, that is, the pixels that are visible to both the left and right eyes. You may make it display.
  • the pixel that causes the crosstalk is in a region between the straight line LB81 that is the boundary position with the right eye as a reference and the straight line LB82 that is the boundary position with the left eye as a reference.
  • the same reference numerals are given to the portions corresponding to those in FIG. 18, and description thereof will be omitted as appropriate.
  • the pixel of the channel CH0 in the region between the straight line LB81 and the straight line LB82 is visually recognized by both eyes of the user. It was.
  • the pixels of the left and right parallax images are blended in proportion to the amount of leakage (leakage amount) leaked as crosstalk from the pixels of the channel CH0 in the region between the straight line LB81 and the straight line LB82.
  • An image of pixel values obtained by blending the values is displayed.
  • the straight line LB83 that is, the pixel of the channel CH0 at the boundary position
  • the light (image) from the pixel leaks into the region VR21-4 and the region VL21-5, resulting in crosstalk. It is the same. Therefore, an image having a pixel value obtained by blending pixel values of corresponding pixels of the left and right parallax images at the same ratio is displayed on the pixel of the channel CH0 at the boundary position.
  • an image having a pixel value Out (X) obtained by the following equation (1) may be displayed on a pixel that causes crosstalk.
  • variable X is the left end position of the light modulation panel 62, that is, the + x direction side end position as the origin, and the right direction ( ⁇ x direction) in the figure is the + X axis direction.
  • the position of the pixel on the light modulation panel 62 in the coordinate system is shown.
  • R (X) and L (X) indicate the pixel values of the right-eye and left-eye parallax images at the position X, respectively, and X1 and X2 indicate the right eye and the left eye, respectively.
  • the reference boundary position is shown.
  • Out (X) will be required.
  • the pixel value Out (X) is the pixel value of the pixel at the position X of the parallax image for the left eye, weighted by the ratio of the amount of light leakage from the pixel at the position X to the left and right eyes, It is obtained by a weighted average with the pixel value of the pixel at position X of the parallax image for the right eye.
  • the ratio (blend ratio) of the amount of light leakage from the pixel at the position X to the left and right eyes is the positional relationship between the position X and the positions X1 and X2, that is, the target in the region to be blended. Is obtained from the pixel position.
  • the blend ratio is the ratio of the size of the pixel region that is visually recognized by the left and right eyes of the user. For example, at the position X closer to the position X1, the amount of light from the pixel of the channel CH0 leaks to the left eye more, so that more parallax images for the left eye are blended.
  • the composite image displayed here is obtained by blending a partial region of an image composed of a white image as a parallax image for the right eye and a black image as a parallax image for the left eye. This is an image obtained by replacing the obtained image.
  • crosstalk slightly occurs on both the left and right sides of the straight line LB83, but the crosstalk is distributed to the left and right of the straight line LB83 by blending the parallax images. Therefore, crosstalk is less noticeable than in the case of the image PR11 and the image PL11. That is, although the crosstalk occurrence area is wide, the amount of leakage in each area is small, so that the deterioration of the image quality of the stereoscopic image caused by the occurrence of crosstalk is improved.
  • the light from the pixel of the channel CH0 at the position of the straight line LB83 leaks by approximately the same amount to the left and right eyes of the user. Therefore, compared to the case where only one of the parallax image components is included in each pixel of the composite image displayed on this pixel by including half of the left and right parallax image components, Crosstalk in the right and left eyes is improved.
  • the display device As described above, when blending parallax images with respect to pixels that cause crosstalk, the display device is configured as shown in FIG. 20, for example.
  • FIG. 20 includes an imaging unit 21, a detection unit 22, an assignment control unit 23, a recording unit 24, a generation unit 25, a display control unit 26, and a display unit 27.
  • FIG. 20 parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • the display device 151 in FIG. 20 is different from the display device 11 in FIG. 1 in that a blend ratio calculation unit 161 is provided in the allocation control unit 23 of the display device 151, and the other configurations are the same. .
  • the blend ratio calculation unit 161 when trying to display a stereoscopic image by the semi-view distance display method, if there is a pixel of a channel to be blended on the light modulation panel 62, the blend ratio of the parallax image in the pixel of that channel Is calculated.
  • a channel of a pixel to be blended is also referred to as a target channel.
  • the generation unit 25 calculates a target channel pixel in the region by the blend ratio calculation unit 161 when there is a region that needs to be blended. Based on the blend ratio, blending is performed to generate a composite image.
  • or step S58 is the same as the process of FIG.13 S11 thru
  • step S59 the blend ratio calculation unit 161 determines whether there is an area to be blended.
  • step S57 when the boundary position based on the right eye calculated in the process of step S57 is different from the boundary position based on the left eye, it is determined that there is an area to be blended. At this time, an area between the boundary position with the right eye as a reference and the boundary position with the left eye as a reference is an area to be blended.
  • step S59 If it is determined in step S59 that there is no region to be blended, the boundary position calculation unit 34 supplies the allocation result of the left and right parallax images to the pixels of each channel to the generation unit 25, and the process proceeds to step S60. .
  • step S ⁇ b> 60 the generation unit 25 generates a composite image based on the allocation result supplied from the boundary position calculation unit 34 and the right-eye and left-eye parallax images read from the recording unit 24, and displays them. It supplies to the control part 26.
  • step S60 processing similar to that in step S19 in FIG. 13 is performed. If the process of step S60 is performed, then the process proceeds to step S64.
  • step S61 the blend ratio calculation unit 161 calculates a target channel to be blended.
  • the blend ratio calculation unit 161 determines the pixel that is visually recognized by the left and right eyes of the user among the pixels in the region between the boundary position with reference to the right eye and the boundary position with reference to the left eye. Find the channel as the target channel.
  • the target channel can be obtained from the visual recognition position of the visual pixel in the region between the boundary position based on the right eye and the boundary position based on the left eye.
  • the visual pixel of the left eye is the channel CH2 and the visual recognition position is a positive position from the broken line C34, not only the pixel of the channel CH2 but also the channel CH2 It can be seen that the pixel of CH3 is also visually recognized. Therefore, in this case, the channel CH3 is specified as the target channel.
  • step S62 the blend ratio calculation unit 161 calculates the blend ratio for each pixel of the target channel in the region to be blended from the calculation of the above-described formula (1). For example, assuming that the pixel position of the target channel to be processed is position X, the blend ratio of the parallax image for the left eye is (X2-X) / (X2-X1), and the blend of the parallax image for the right eye The ratio is (X-X1) / (X2-X1). X1 and X2 indicate boundary positions based on the right eye and the left eye, respectively.
  • the blend ratio calculation unit 161 supplies the calculated blend ratio and the assignment result of the left and right parallax images to the pixels of each channel to the generation unit 25, and the process proceeds to step S63.
  • step S ⁇ b> 63 the generation unit 25 performs blending based on the blend ratio supplied from the blend ratio calculation unit 161 and the parallax image assignment result, and the right-eye and left-eye parallax images read from the recording unit 24. Processing is performed to generate a composite image.
  • the generation unit 25 performs the same process as step S19 in FIG. 13 to generate a composite image. However, at this time, the generation unit 25 performs the calculation of the above-described formula (1) based on the blend ratio for the pixel of the composite image corresponding to the pixel of the target channel in the region to be blended, and the calculated pixel value Is the pixel value of the pixel of the composite image.
  • the generating unit 25 When the generating unit 25 generates the composite image, the generating unit 25 supplies the generated composite image to the display control unit 26, and then the process proceeds to step S64.
  • step S63 or step S60 When the composite image is generated in step S63 or step S60, the processes in steps S64 to S68 are performed and the display process is terminated. These processes are the same as the processes in steps S20 to S24 in FIG. Therefore, the description is omitted.
  • the display device 151 calculates the viewing pixel and the viewing position for each block region based on the viewpoint position of the user, and based on the calculation result, the display device 151 applies the right eye or the pixel to each channel pixel of the block region.
  • a composite image is generated by assigning a parallax image for the left eye.
  • the display device 151 generates pixels of the composite image corresponding to the pixels of the target channel by blending the left and right parallax images as necessary. Thereby, crosstalk can be reduced and a higher quality image can be presented.
  • the display system shown in FIG. 23 includes an imaging device 121, an image processing device 181, and a display device 123.
  • the image processing apparatus 181 includes a detection unit 22, an assignment control unit 23, a recording unit 24, and a generation unit 25.
  • the image processing device 181 differs from the image processing device 122 in FIG. 15 in that the blend ratio calculation unit 161 is provided in the allocation control unit 23 of the image processing device 181, and the other configurations are the same. It has become.
  • the display system shown in FIG. 23 processing similar to the display processing in FIGS. 21 and 22 is performed.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
  • FIG. 24 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 205 is further connected to the bus 204.
  • the input / output interface 205 includes an input unit 206 including a keyboard, a mouse, and a microphone, an output unit 207 including a display and a speaker, a recording unit 208 including a hard disk and nonvolatile memory, and a communication unit 209 including a network interface.
  • a drive 210 for driving a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.
  • the CPU 201 loads, for example, the program recorded in the recording unit 208 to the RAM 203 via the input / output interface 205 and the bus 204, and executes the program. Is performed.
  • Programs executed by the computer (CPU 201) are, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor.
  • the program is recorded on a removable medium 211 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 208 via the input / output interface 205 by attaching the removable medium 211 to the drive 210.
  • the program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the recording unit 208.
  • the program can be installed in the ROM 202 or the recording unit 208 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can be configured as follows.
  • a display unit provided with a plurality of block regions each including pixels of three or more channels; A separation unit that separates an image displayed on a pixel of each channel in the block region; According to the viewpoint position of the user observing the display unit, a parallax image is displayed in a first area consisting of a plurality of pixels adjacent to each other in the block area, and pixels of two or more different channels, and the parallax Any of a plurality of parallax images is displayed on each channel pixel in the block area so that another parallax image having parallax with the image is displayed in a second area different from the first area in the block area.
  • An assignment control unit for assigning A display device comprising: a generation unit configured to combine a plurality of parallax images according to the allocation by the allocation control unit and generate a composite image.
  • a generation unit configured to combine a plurality of parallax images according to the allocation by the allocation control unit and generate a composite image.
  • the allocation control unit Based on the viewpoint position, for each block area, a viewing position calculation unit that obtains a viewing position on a viewing pixel in the block area observed by the user; The position of the block area where the visual recognition position is substantially the center of the visual recognition pixel is calculated as a boundary position, and the block area between the boundary position and another boundary position closest to the boundary position is calculated. And a boundary position calculation unit that assigns the same parallax image to pixels of the same channel in the block region. [5] The boundary position calculation unit is configured to determine the channel of the visible pixel in the block area at the boundary position and the other boundary position with respect to the block area between the boundary position and the other boundary position.
  • the display device wherein the same parallax image is assigned to a pixel of the same channel as the channel of the visual recognition pixel in a certain block region.
  • the boundary position calculation unit calculates an intermediate position between the boundary position calculated with reference to the user's right eye and the boundary position calculated with reference to the user's left eye as the final boundary position.
  • the display device according to [4] or [5].
  • the allocation control unit includes the user in the target area from the boundary position calculated with the user's right eye as a reference to the boundary position calculated with the user's left eye as a reference.
  • a blend ratio calculation unit that calculates a blend ratio based on a pixel position in the target region for each pixel observed by both the left and right eyes of
  • the generator generates the pixel of the composite image displayed on the pixels observed by both the left and right eyes in the target region, the parallax image for the right eye and the parallax image for the left eye.
  • the display device according to [6], which is generated by blending at the blend ratio.
  • the allocation control unit causes the display unit to display one of the parallax images for the right eye or the left eye when the viewpoint position is outside a predetermined region.
  • the display device according to any one of [7].
  • 11 display device 21 imaging unit, 22 detection unit, 23 allocation control unit, 25 generation unit, 26 display control unit, 27 display unit, 31 viewpoint position calculation unit, 32 determination unit, 33 visual recognition position calculation unit, 34 boundary position calculation Part, 81-1 to 81-3, 81 opening, 161 blend ratio calculation part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本技術は、より簡単に高品質な立体画像を提示できるようにする表示装置および方法、並びにプログラムに関する。 表示部はパララックスバリアを有する4視点用の表示装置であり、表示部には視差方向に並ぶチャンネルCH0乃至チャンネルCH3の画素からなるブロック領域が、視差方向に複数並べられて設けられている。割り当て制御部は、ユーザの視点位置に応じて、ブロック領域の各チャンネルの画素に左眼用または右眼用の視差画像を割り当てる。例えば、視差方向に隣接する2つの異なるチャンネルの画素に同じ視差画像が割り当てられる。生成部は、割り当て制御部の割り当てにしたがって、左眼用および右眼用の視差画像を合成して合成画像を生成し、表示部で立体表示させる。本発明は、表示装置に適用することができる。

Description

表示装置および方法、並びにプログラム
 本技術は表示装置および方法、並びにプログラムに関し、特に、パララックスバリア等の視差分離部を利用して裸眼方式による画像の立体表示を行なう表示装置および方法、並びにプログラムに関する。
 例えば、立体画像を表示する方法として、立体視用の眼鏡を用いる眼鏡方式と、立体視用の特殊な眼鏡を用いることなく裸眼での立体視を可能にした裸眼方式が知られている。
 眼鏡方式の代表的なものとしては、左眼用シャッタと右眼用シャッタとを有するシャッタ眼鏡を用いるシャッタ眼鏡方式がある。シャッタ眼鏡方式では、フレームシーケンシャルで高速に、左眼用と右眼用の各視差画像が交互に2次元表示パネルに表示される。そして、各視差画像の表示タイミングに合わせて左眼用シャッタと右眼用シャッタとが交互に切り替えられることで、観察者の左眼には左眼用視差画像、右眼には右眼用視差画像のみが入射し、画像の立体視が可能となる。
 一方、裸眼方式の代表的なものとしては、パララックスバリア方式とレンチキュラ方式とがある。パララックスバリア方式やレンチキュラ方式の場合、2次元表示パネルに立体視用の視差画像(2視点の場合には右眼用視差画像と左眼用視差画像)が空間分割されて表示され、その視差画像が視差分離部によって水平方向に視差分離されて立体視が実現される。このときパララックスバリア方式では、視差分離部としてスリット状の開口が設けられたパララックスバリアが用いられ、レンチキュラ方式では、視差分離部として、シリンドリカル状の分割レンズを複数並列配置したレンチキュラレンズが用いられる。
 また、裸眼方式の表示装置として、液晶パネルの画像形成面とパララックスバリアとの距離を短くすることで、設計上の適視距離を短くできるようにするものも提案されている(例えば、特許文献1参照)。
特開平9-50019号公報
 しかしながら視差分離部を用いた裸眼方式では、ユーザの視点位置が変化すると、ユーザの片方の眼で左右の視差画像が観察されるクロストークが発生しやすく、安定して高品質な立体画像を表示させることができなかった。
 本技術は、このような状況に鑑みてなされたものであり、より簡単に高品質な立体画像を提示することができるようにするものである。
 本技術の一側面の表示装置は、3以上の複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、前記表示部を観察するユーザの視点位置に応じて、前記ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当てる割り当て制御部と、前記割り当て制御部による割り当てにしたがって複数の視差画像を合成し、合成画像を生成する生成部とを備える。
 前記複数の前記視差画像を、右眼用の前記視差画像と左眼用の前記視差画像とすることができる。
 所定の視点位置から前記ユーザが前記表示部を観察した場合、各前記ブロック領域の同じチャンネルの画素が観察されるようにすることができる。
 前記割り当て制御部には、前記視点位置に基づいて、前記ブロック領域ごとに、前記ユーザにより観察される前記ブロック領域内の視認画素上の視認位置を求める視認位置算出部と、前記視認位置が前記視認画素の略中央となる前記ブロック領域の位置を境界位置として算出するとともに、前記境界位置から、前記境界位置に最も近い他の境界位置までの間にある前記ブロック領域に対して、それらの前記ブロック領域の同じチャンネルの画素に同じ前記視差画像を割り当てる境界位置算出部とを設けることができる。
 前記境界位置算出部には、前記境界位置から前記他の境界位置までの間にある前記ブロック領域に対して、前記境界位置にある前記ブロック領域の前記視認画素のチャンネル、および前記他の境界位置にある前記ブロック領域の前記視認画素のチャンネルと同じチャンネルの画素に、同じ前記視差画像を割り当てさせることができる。
 前記境界位置算出部には、前記ユーザの右眼を基準として算出された前記境界位置と、前記ユーザの左眼を基準として算出された前記境界位置との中間の位置を、最終的な前記境界位置とさせることができる。
 前記割り当て制御部には、前記ユーザの右眼を基準として算出された前記境界位置から、前記ユーザの左眼を基準として算出された前記境界位置までを対象領域として、前記対象領域内にある前記ユーザの左右両方の眼で観察される各画素について、前記対象領域における画素位置に基づいてブレンド比率を算出するブレンド比率算出部をさらに設け、前記生成部には、前記対象領域内の前記左右両方の眼で観察される画素に表示される前記合成画像の画素を、前記右眼用の前記視差画像と前記左眼用の前記視差画像とを前記ブレンド比率でブレンドすることにより生成させることができる。
 前記割り当て制御部には、前記視点位置が予め定められた領域外にある場合、前記右眼用または前記左眼用の前記視差画像のうちの何れかを、前記表示部に表示させることができる。
 本技術の一側面の表示方法またはプログラムは、表示部を観察するユーザの視点位置に応じて、ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当て、その割り当てにしたがって複数の視差画像を合成し、合成画像を生成するステップを含む。
 本技術の一側面においては、表示部を観察するユーザの視点位置に応じて、ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかが割り当てられ、その割り当てにしたがって複数の視差画像が合成され、合成画像が生成される。
 本技術の一側面によれば、より簡単に高品質な立体画像を提示することができる。
表示装置の一実施の形態の構成例を示す図である。 表示部のより詳細な構成例を示す図である。 4視点の視差画像の立体表示について説明する図である。 開口部の各部の設計について説明する図である。 適視距離の半分の距離からの視聴について説明する図である。 視認位置の算出について説明する図である。 視認位置の算出について説明する図である。 視差画像の割り当てについて説明する図である。 視差画像の割り当てについて説明する図である。 視差画像の割り当てについて説明する図である。 立体表示できない視点位置について説明する図である。 立体表示可能な領域について説明する図である。 表示処理を説明するフローチャートである。 視差画像の割り当てについて説明する図である。 表示システムの構成例を示す図である。 6視点用の表示部における視差画像の割り当てについて説明する図である。 半視距離表示方式におけるクロストークの発生について説明する図である。 半視距離表示方式におけるクロストークの発生について説明する図である。 半視距離表示方式におけるクロストークの改善について説明する図である。 表示装置の他の構成例を示す図である。 表示処理を説明するフローチャートである。 表示処理を説明するフローチャートである。 表示システムの他の構成例を示す図である。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[表示装置の構成例]
 図1は、本技術を適用した表示装置の一実施の形態の構成例を示す図である。
 この表示装置11は、複数視点の視差画像を用いて被写体を立体表示させる表示装置である。表示装置11は、撮像部21、検出部22、割り当て制御部23、記録部24、生成部25、表示制御部26、および表示部27から構成される。
 撮像部21は、表示装置11周辺のユーザの画像、例えば表示部27のほぼ正面から、表示部27に表示された画像を観察するユーザの画像(以下、周辺画像と称する)を撮像し、検出部22に供給する。
 検出部22は、撮像部21から供給された周辺画像からユーザの眼を検出し、その検出結果を割り当て制御部23に供給する。また、検出部22は、視点位置算出部31を備えており、視点位置算出部31は、周辺画像に基づいて、表示部27に対するユーザの視点位置を算出し、割り当て制御部23に供給する。
 割り当て制御部23は、検出部22からの検出結果やユーザの視点位置に基づいて、表示部27の表示面上の各領域に、複数の視差画像を割り当てる。割り当て制御部23は、判定部32、視認位置算出部33、および境界位置算出部34を備えている。
 判定部32は、検出部22からの視点位置に基づいて、複数の視差画像による被写体の立体表示(3D表示)が可能か否かを判定し、割り当て制御部23は、その判定結果に応じて生成部25での画像生成を制御する。
 視認位置算出部33は、検出部22からの視点位置に基づいて、ユーザにより視認されている表示部27の表示面上の画素内の位置を視認位置として算出する。境界位置算出部34は、視認位置に基づいて、表示部27の表示面上の各領域に複数の視差画像を割り当てる。
 記録部24は、立体画像を構成する複数の視差画像を記録しており、必要に応じて視差画像を生成部25に供給する。生成部25は、割り当て制御部23の制御にしたがって、記録部24からの視差画像に基づいて、それらの視差画像を空間分割して合成した合成画像を生成し、表示制御部26に供給する。また、生成部25は、割り当て制御部23の制御にしたがって、記録部24からの視差画像のうちの何れかを、そのまま表示制御部26に供給する。
 表示制御部26は、生成部25からの合成画像を表示部27に供給して表示させることで、視差画像上の被写体を立体表示させたり、生成部25からの視差画像を表示部27に供給して表示させたりする。表示部27は、裸眼方式により立体画像を表示可能な液晶表示パネルなどからなり、表示制御部26から供給された合成画像や視差画像を表示する。
[表示部の構成例]
 また、図1の表示部27は、例えば図2に示すように構成される。
 すなわち、表示部27は、バックライト61、光変調パネル62、およびバリア素子63から構成される。
 バックライト61は、例えばLED(Light Emitting Diode)光源や導光板などからなり、画像を表示させるための光を射出し、光変調パネル62に入射させる。
 光変調パネル62は、例えば液晶層やR,G,Bの各色のカラーフィルタなどからなり、バックライト61から入射した光を透過させることで、画像を表示させる。このとき、光変調パネル62は、光変調パネル62に設けられた画素ごとに、光の透過率を変化させることで、画像の各画素の階調表示を行なう。
 より詳細には、光変調パネル62は、透明基板71、透明基板72、および液晶層73を備えており、液晶層73は、互いに対向するように配置された平板状の透明基板71と透明基板72の間に形成されている。液晶層73には、画像が表示される画素としての透過部が設けられており、画像の表示時において、透明基板71と透明基板72に設けられている電極に電圧が印加されると、バックライト61から透過部に入射した光の透過率が印加された電圧に応じて変化する。
 また、バリア素子63は、偏光板やスイッチ液晶層などからなり、光変調パネル62から入射した光の一部を遮光し、残りの一部を透過させることで、各視差画像を光学的に分離させる。バリア素子63は、透明基板74、透明基板75、およびスイッチ液晶層76を備えており、スイッチ液晶層76は、互いに対向するように配置された平板状の透明基板74と透明基板75の間に形成されている。
 透明基板74と透明基板75には、電極が形成されており、これらの電極の一部または全部に電圧が印加されると、スイッチ液晶層76内の液晶分子の配向方向が変化し、これにより、スイッチ液晶層76にはパララックスバリアが形成される。
 図2の例では、光変調パネル62から入射した光を透過させる開口部81-1乃至開口部81-3と、光変調パネル62から入射した光を遮光する遮蔽部82-1乃至遮蔽部82-3とからなるパララックスバリアが、スイッチ液晶層76に形成されている。
 なお、以下、開口部81-1乃至開口部81-3を特に区別する必要のない場合、単に開口部81とも称し、遮蔽部82-1乃至遮蔽部82-3を特に区別する必要のない場合、単に遮蔽部82とも称する。また、被写体を立体表示する合成画像が光変調パネル62に表示される場合には、バリア素子63にパララックスバリアが形成されるが、2D画像である視差画像が光変調パネル62に表示される場合には、バリア素子63にパララックスバリアは形成されない。
 図2のように構成される表示部27では、ユーザはバリア素子63側から光変調パネル62に表示される画像を観察する。特に、合成画像の表示時には、バックライト61から射出され、光変調パネル62およびバリア素子63を透過した光が、ユーザの右眼ERまたは左眼ELに入射する。このとき、ユーザの右眼ERと左眼ELには、バリア素子63で分離された異なる光が入射するので、右眼ERと左眼ELで互いに視差を有する異なる視差画像が観察される。
 なお、図2では、視差画像を光学的に分離する分離部の例としてバリア素子63について説明したが、分離部はパララックスバリアに限らず、レンチキュラレンズなどとされてもよい。また、分離部としてのパララックスバリアは、可変式のバリアに限らず、遮蔽板等に開口部が設けられた固定式のバリアとされてもよい。
 さらに、バリア素子63は、光変調パネル62とバックライト61の間に配置されるようにしてもよい。
[立体画像の観察について]
 例えば、表示装置11を構成する表示部27は、4つの異なる視点の視差画像を表示し、ユーザにそれらの4つの視点のうちの2つの視点の視差画像を観察させることで、視差画像を立体表示可能な4視点用の表示装置とされる。
 ここで、図2中、横方向および縦方向をそれぞれx方向およびy方向とし、x方向およびy方向に垂直な方向をz方向とする。x方向はユーザの右眼ERと左眼ELが並ぶ方向、つまり光変調パネル62に表示される視差画像の視差方向であり、y方向は光変調パネル62の表示面と垂直な方向である。
 表示部27が4視点用の表示装置である場合、光変調パネル62の表示面には、4つの視差画像のそれぞれが表示される画素である、チャンネルCH0乃至チャンネルCH3の4つの各チャンネルの画素からなるブロック領域が、x方向に並ぶように設けられている。例えば、各ブロック領域では、図2中、右側から左側方向に、チャンネルCH0、チャンネルCH1、チャンネルCH2、およびチャンネルCH3の画素が順番に並び、かつz方向には同じチャンネルの画素が並ぶようになされている。
 また、バリア素子63には、1つのブロック領域に対して、パララックスバリアを構成する1つの開口部81が設けられている。以下、1つのブロック領域内において、同じチャンネルの画素からなる領域をチャンネル領域とも称することとする。さらに、以下では表示部27が4視点用の表示装置であるものとして、説明を続ける。
 一般的に4視点の視差画像を表示部に表示させる場合、表示部にはチャンネルCH0乃至チャンネルCH3の画素からなるブロック領域が設けられ、各チャンネルの画素に、各視点の視差画像が表示される。
 ここで、表示部の開口部の位置や大きさは、例えば表示部正面の所定位置が基準位置とされ、ユーザが基準位置から表示部を観察したときに、ユーザの眼に各ブロック領域内の同じチャンネルの画素が観察されるように予め定められている。なお、以下、表示部の表示面から上述の基準位置までのy方向の距離を適視距離とも称することとする。
 このような表示部に4視点の視差画像が表示される場合、例えば図3の左側に示すように、表示部の遮蔽部111に設けられた開口部112を介して、ユーザの右眼ERと左眼ELには、それぞれ互いに隣接する画素が観察される。なお、図3において、横方向および縦方向は、それぞれx方向およびy方向を示している。
 図3の例では、ユーザの左眼ELには画素G11が観察され、ユーザの右眼ERには、画素G11に隣接する画素G12が観察されている。このとき、画素G11と画素G12とに異なる視点の視差画像が表示されるので、ユーザの左右の眼には、互いに視差を有する異なる視点の視差画像が観察される。
 この状態で、ユーザが図3中、右方向にわずかに移動したとする。そうすると、画素G11と画素G12は互いに隣接しているから、ユーザの右眼ERには、これまで見えていた画素G12だけでなく、左眼ELで見えていた画素G11も見えてしまい、クロストークが発生する。すなわち、視差画像上の被写体が2重に見えてしまう。
 これに対して、表示部からユーザの視点位置までのy方向の距離が、適視距離の約半分の距離となる位置でユーザが表示部を観察すると、例えば図3の右側に示すように、ユーザの右眼ERと左眼ELには、2画素分だけ離れた位置が観察されるようになる。
 図3の例では、連続して並ぶ3つの画素G13乃至画素G15のうち、ユーザの左眼ELには画素G13が観察され、ユーザの右眼ERには、画素G13から2画素だけ離れた位置にある画素G15が観察されている。この状態でユーザの視点位置が図3中、右方向にわずかに移動しても、ユーザの右眼ERには画素G13に表示されている視差画像が観察されることはないので、クロストークは発生しない。
 このように、通常、適視距離とされる距離の約半分の距離から表示部を観察すると、ユーザの右眼と左眼により視認されるブロック領域内の画素は、2画素分の距離だけ離れた画素となる。
 そのため、右眼用と左眼用の視差画像を表示部27に表示させる場合に、各チャンネルの画素に適切に右眼用または左眼用の視差画像を表示させ、ユーザが適視距離の約半分の距離から視差画像を観察すれば、クロストークの発生を抑制することができる。
 例えば、光変調パネル62のブロック領域において、互いに隣接するチャンネルCH0とチャンネルCH1の画素に右眼用の視差画像を表示させ、互いに隣接するチャンネルCH2とチャンネルCH3の画素に左眼用の視差画像を表示させたとする。
 この場合、ユーザの右眼ERには右眼用の視差画像が観察され、ユーザの左眼ELには左眼用の視差画像が観察されることになる。この状態からユーザがx方向にわずかに移動しても、チャンネルCH0とチャンネルCH2の画素は2画素分だけ離れているので、ユーザの右眼ERに左眼用の視差画像が観察されることはない。
 さらに、ユーザの視点位置の移動に応じて、クロストークが発生する前に各チャンネルの画素における視差画像の表示の切り替えを行なえば、各領域における左右の視差画像の表示の切り替えをユーザに感じさせることなく、より自然な画像の提示が可能となる。
 このように、ユーザの視点位置に応じて、各チャンネルの画素に適切に右眼用または左眼用の視差画像を表示させ、ユーザが通常の適視距離の約半分の距離から観察すれば、クロストークの発生を抑制し、より高品質な画像を提示することが可能である。以下、このような立体画像の表示方式を、半視距離表示方式と称することとする。
[パララックスバリアの設計について]
 このような半視距離表示方式で左右の視差画像を表示させる場合、通常の適視距離の約半分の距離だけ離れた位置から表示部27を観察するユーザに、各開口部81を介して同じチャンネルの画素が視認されるようにするには、開口部81間の距離や、開口部81から光変調パネル62までの距離などを適切に定める必要がある。
 例えば、ユーザの右眼ERと左眼ELとの距離(以下、眼間距離Eと称する)が65mmであり、適視距離Z0=900mmであるとする。なお、一般的な大人の眼間距離は約65mmである。
このような場合、図4に示すように、開口部81から光変調パネル62までの距離D1と、開口部81間の距離D2が定められる。なお、図中、横方向および縦方向はx方向およびy方向を示している。
 図4の左側において、開口部81の中心を通るy方向に平行な直線を直線A11とし、ユーザの片方の眼が点PE11にあるとする。ここで、点PE11は、直線A11からx方向に距離X1だけ離れており、かつ開口部81からy方向に距離Z0/2=450mmだけ離れた位置にある。また、バリア素子63の図中、下側にある各四角形は、光変調パネル62上の画素を表している。
 例えば、図中、左側に示すようにユーザの眼の位置PE11から、開口部81を介して1つの画素G21が視認されるとする。各画素間の距離をD3とすると、この画素G21の中心は、直線A11からD3だけ離れた位置にある。
 ここで、バリア素子63から光変調パネル62の各画素までの間がガラス材で満たされており、点PE11からこのガラス材へと進む光の相対屈折率がk1であるとすると、X1:Z0/2=D3:D1/k1である。したがって、D1=(Z0/2)×D3×k1/X1となる。例えば、Z0=900mm,D3=0.05435mm,X1=32.5mm,k1=1.5であるとすると、これらの値からD1=900/2×0.05435×1.5/32.5=1.1288mmとなる。
 また、図中、右側に示すように、ユーザの眼が直線A11上の点PE12にあるとする。この場合、光変調パネル62は4視点用であるから、点PE12から図中、左側の開口部81を介して見える光変調パネル62の位置と、その開口部81の右側に隣接する開口部81を介して見える光変調パネル62の位置とは4画素分だけ離れているはずである。
 したがって、Z0/2:D2=((Z0/2)+D1/k1):4×D3が成立するので、D2=Z0/2×D3×4/((Z0/2)+(D1/k1))により、開口部81間の距離D2が求まる。ここで、Z0=900mm,D3=0.05435mm,D1=1.1288mm,k1=1.5であるとすると、これらの値からD2=900/2×0.05435×4/((900/2)+(1.1288/1.5))=0.217037mmとなる。
[適視距離の半分の距離からの観察について]
 このように光変調パネル62に対する開口部81の大きさや位置を定める場合、例えば図5に示すように、ユーザが光変調パネル62の真正面から開口部81を見たときに、画素の中心が観察される設計と、画素の間が観察される設計とが考えられる。
 なお、図5において、横方向および縦方向は、それぞれx方向およびy方向を示している。また、ユーザの視点位置は、光変調パネル62の中心からy方向に距離Z0/2だけ離れた距離にあるものとする。つまり、ユーザが光変調パネル62から距離Z0/2の位置で、光変調パネル62を真正面から観察するものとする。
 例えば、図5の左側に示す設計では、開口部81に対して設けられたブロック領域内の画素G31乃至画素G34のうち、ユーザの左眼ELには画素G31の中心が観察され、ユーザの右眼ERには画素G33の中心が観察されている。ここで、画素G31乃至画素G34は、それぞれチャンネルCH3乃至チャンネルCH0の画素である。
 この場合、矢印Q11に示すように、ユーザの左眼ELには、光変調パネル62全体の各ブロック領域内のチャンネルCH3の画素の中心が観察され、ユーザの右眼ERには、光変調パネル62全体の各ブロック領域内のチャンネルCH1の画素の中心が観察される。
 なお、より詳細には、光変調パネル62上の位置によって、光変調パネル62から射出され、開口部81を介してユーザの眼に入射する光の屈折角が変化する。そのため、光変調パネル62の中央から離れた位置にあるブロック領域では、ユーザにより観察される画素上の位置が中心からわずかにずれることになる。
 このような図5の左側に示す設計では、ユーザが真正面から光変調パネル62を観察する場合に、各開口部81を介してユーザの眼に画素の中心が観察されるため、光変調パネル62に表示される画像が明るく見える。
 一方で、ユーザが光変調パネル62を真正面から見ている状態で、半視距離表示方式により立体画像を表示させる場合、各ブロック領域でチャンネルCH1の画素に右眼用の視差画像が表示され、チャンネルCH3の画素に左眼用の視差画像が表示されるように制御される。この場合、後述するように、ユーザから見て光変調パネル62の中央から右側半分と左側半分とで、チャンネルCH0とチャンネルCH2のそれぞれに、右眼用または左眼用のどちらの視差画像を表示させるかを切り替える必要がある。
 これに対して、例えば、図5の右側に示す設計では、開口部81に対して設けられたブロック領域内の画素G31乃至画素G34のうち、ユーザの左眼ELには画素G31と画素G32の間の位置が観察される。また、ユーザの右眼ERには画素G33と画素G34の間の位置が観察される。
 この場合、矢印Q12に示すように、ユーザの右眼ERには、光変調パネル62全体の各ブロック領域内のチャンネルCH0とチャンネルCH1の画素が観察される。また、ユーザの左眼ELには、光変調パネル62全体の各ブロック領域内のチャンネルCH2とチャンネルCH3の画素が観察される。
 なお、より詳細には、光変調パネル62上の位置によって、光変調パネル62の画素からユーザの眼に入射する光の屈折角が変化するので、ユーザの眼には2つの画素のうち、何れかの画素の領域がわずかに多く見えることになる。
 図5の右側に示す設計では、ユーザが真正面から光変調パネル62を観察する場合に、各ブロック領域において、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像を表示させ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像を表示させればよい。そのため、視差画像の表示制御が簡単であるという利点がある。
 一方、ユーザが光変調パネル62を真正面から見ている状態では、各ブロック領域において、ユーザの眼には画素と画素の間が見えるため、ユーザにより知覚される視差画像全体が多少暗く感じられる可能性がある。
 但し、真正面から光変調パネル62を観察しているユーザが視点位置をx方向に移動させていくと、ユーザの眼に各ブロック領域で画素の中央が観察される状態と、画素と画素の間が観察される状態とが交互に繰り返されることになる。そのため、図中、右側に示した構成としても、図中、左側に示した構成としても、基本的に表示装置11における視差画像の表示制御は同じである。
[半視距離表示方式における表示制御について]
 次に、左眼用と右眼用の視差画像に基づいて、半視距離表示方式により立体画像を表示させる具体的な制御について説明する。
 表示装置11では、ユーザの視点位置が検出されると、その視点位置に基づいてブロック領域(開口部81)ごとに、ブロック領域内のどのチャンネルの画素のどの位置がユーザにより視認されるかが算出される。そして、その算出結果に基づいて、ブロック領域内の各チャンネルの画素に右眼用または左眼用の視差画像が割り当てられる。
 より具体的には、表示装置11は、光変調パネル62の表示面上のブロック領域のうち、ユーザにより視認される画素からの光の輝度が最も高くなるブロック領域の位置を特定し、それらの位置を境界位置とする。つまり、ユーザの眼により画素の中心が視認されるブロック領域の位置が境界位置とされる。
 境界位置が特定されると、表示装置11は光変調パネル62上の境界位置により分割される各領域に対して、各チャンネルの画素への左右の視差画像の割り当てを行なう。このとき、境界位置により分割される1つの領域内では、全てのブロック領域において、同じチャンネルの画素に対して必ず同じ視差画像が割り当てられる。
 そして、このようなブロック領域における各チャンネルの画素への視差画像の割り当てにしたがって合成画像が生成され、生成された合成画像が光変調パネル62に表示される。
 さらに、この状態からユーザの視点位置が移動すると、各ブロック領域内でユーザにより視認される画素の位置が変化するので、視点位置の変化に追従して境界位置の位置も移動する。そのため、境界位置の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てが変更される。
 なお、以下、光変調パネル62において、連続して並ぶいくつかのブロック領域からなる領域であって、同じチャンネルの画素に同じ視差画像が割り当てられるブロック領域からなる領域を、連続ブロック領域とも称することとする。つまり、境界位置により分割される領域が連続ブロック領域である。
 上述したように連続ブロック領域の境界位置は、ユーザにより視認される画素からの光の輝度が最も高くなるブロック領域の位置である。ここで、輝度が最も高くなるブロック領域とは、ユーザにより画素の略中央が視認されているブロック領域である。
 ところで、表示部27の端付近では、バリア素子63と光変調パネル62との間にあるガラス材の見かけ上の厚みが薄くなるという現象が起こることが知られている。そのため、ユーザの視点位置に基づいて、連続ブロック領域の境界位置を求める場合には、光の入射角と屈折角の厳密式を用いて、ブロック領域ごとにどのチャンネルの画素のどの位置がユーザにより視認されているかを正確に求めることが望ましい。
 例えば、図6に示すように、所定の光線H11が空気中を通って、厚さD21のガラス材に入射し、光変調パネル62の表面に到達したとする。また、光線H11のガラス材への入射位置を通り、ガラス材の表面に垂直な直線を直線A21とする。
 このとき、空気中を伝播する光線H11のガラス材への入射角度T1に対して、光線H11のガラス材への入射後の光路と、直線A21とのなす角度T2は、光線H11が空気中からガラス材へと進むときの相対屈折率k11と入射角度T1とから求まる。すなわち、角度T2=asin(sin(T1/k11))である。
 また、角度T2が求まると、ガラス材の見かけの厚みD22と角度T2とにより、直線A21から、光線H11の光変調パネル62の表面への入射位置までの距離x11が求まる。すなわち、距離x11=D22×tan(T2)である。
 このようにして距離x11を求めることで、各ブロック領域について、ユーザにより視認される画素上の正確な位置(以下、画素の視認位置とも称する)を求めることができる。
 具体的には、例えば図7に示すように、図中、横方向、つまり光変調パネル62の表示面と平行な方向をx方向とし、図中、縦方向、つまり光変調パネル62の表示面と垂直な方向をy方向として、xy座標系上の所定位置がユーザの眼の位置CPであるとする。
 また、バリア素子63の中央にある開口部81を0番目の開口部81として、その開口部81から図中、左方向にn番目にある開口部81をn番目の開口部81とし、0番目の開口部81から図中、右方向にn番目にある開口部81を-n番目の開口部81とする。
 ここで、n番目の開口部81(以下、番号nの開口部81とも称する)について、その開口部81からユーザによりブロック領域内のどのチャンネルの画素が視認されるかを求めることを考える。まず、位置CPの座標と、開口部81の中心位置の座標とから、位置CPからの光線のn番目の開口部81への入射角度T11が求まる。すなわち、入射角度T11は、y方向に平行な直線L21と、位置CPからの光線とのなす角度である。
 入射角度T11が求まると、位置CPから開口部81に入射し、光変調パネル62へと進む光線、つまりその光線の光路を示す直線L22と、直線L21とのなす角度T12とが求まる。すなわち、図6を参照して説明したように、入射角度T11と、開口部81から光変調パネル62の画素までの間のガラス材の屈折率k11とから、角度T12=asin(sin(T11/k11))が求まる。
 すると、直線L22を表す式(例えば、y=ax+b)が求まるので、光線の光路を表す直線L22が光変調パネル62の画素と交わる点の座標を求めれば、どのチャンネルの画素のどの位置がユーザにより視認されるかを求めることができる。図7では、位置CPからの光線は、画素G41に到達しており、この画素G41がユーザにより視認されることが分かる。
 また、ユーザにより視認される画素内の位置、つまり画素におけるユーザの視認位置は、画素の中心位置が0とされて、-0.5から0.5までの間の値とされる。例えば、画素の図中、左端の位置が+0.5とされ、画素の図中、右端の位置が-0.5とされる。
 このようにして、ユーザの右眼と左眼について、ブロック領域(開口部81)ごとにユーザにより視認される画素(以下、視認画素とも称する)のチャンネルmと、その視認画素上の視認位置とを求めると、例えば図8に示す結果が得られる。
 なお、図8において、横軸は開口部81の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。また、0番目の開口部81から、n番目(但し、1≦n)の開口部81に向かう方向を+x方向とし、+x方向と反対方向を-x方向とする。
 図8では、直線C11は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、曲線C12は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。
 この場合、ユーザの右眼には、全ての開口部81を介して、つまり光変調パネル62上の全てのブロック領域で、チャンネルCH1の画素が視認されることが分かる。また、0番目の開口部81を観察するユーザの右眼には、チャンネルCH1の画素の中央(中心)が視認されることが分かる。
 さらに、0番目の開口部81から+x方向側にある開口部81ほど、ユーザの右眼により視認される画素上の位置が中心から、+x方向にずれていくことが分かる。逆に、0番目の開口部81から-x方向側にある開口部81ほど、ユーザの右眼により視認される画素上の位置が中心から、-x方向にずれていくことが分かる。
 右眼における場合と同様に、図8において、直線C13は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、曲線C14は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。
 例えば、直線C13から、ユーザの左眼には、全ての開口部81を介してチャンネルCH3の画素が視認され、0番目の開口部81を観察するユーザの左眼には、チャンネルCH3の画素の中央が視認されることが分かる。
 また、0番目の開口部81から+x方向側にある開口部81ほど、視認位置が画素中心から、+x方向にずれており、0番目の開口部81から-x方向側にある開口部81ほど、視認位置が画素中心から、-x方向にずれていることが分かる。
 このような計算結果が得られると、表示装置11は、曲線C12と曲線C14とから、視認位置が0となるブロック領域(開口部81)の位置を連続ブロック領域の境界位置LB11とする。より詳細には、曲線C12や曲線C14などの各開口部81における視認位置を示す曲線が、同じチャンネルの画素が視認画素とされている区間内で縦軸の0をまたぐ位置、つまり視認位置が負の値から正の値に変化する位置が境界位置とされる。
 このようにして境界位置LB11が求まると、表示装置11は、境界位置LB11により分割されて得られる連続ブロック領域ごとに、各チャンネルの画素に対して視差画像を割り当てる。
 すなわち、光変調パネル62の-x方向側の端から境界位置LB11までの間にある各ブロック領域では、チャンネルCH0とチャンネルCH1の画素に、右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
 境界位置LB11から図中、左側の領域では、ユーザの右眼によりチャンネルCH1の画素が視認画素として視認されるとともに、視認位置が視認画素の中心から図中、左側、つまりチャンネルCH0の画素側にずれている。そのため、境界位置LB11から左側の領域では、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられる。
 同様に、光変調パネル62の+x方向側の端から境界位置LB11までの間にある各ブロック領域では、チャンネルCH1とチャンネルCH2の画素に右眼用の視差画像が割り当てられ、チャンネルCH0とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
 また、図8の例では、ユーザの眼により各ブロック領域の同じチャンネルの画素が視認画素として観察されるが、ユーザの視点位置が移動すると、例えば図9に示すように、ブロック領域によって異なるチャンネルの画素が視認画素となることもある。
 なお、図9において、横軸は開口部81の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
 図9では、折れ線C21は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C22は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。
 この例では、0番目の開口部81から+x方向側にある開口部81では、ユーザの右眼には、それらの開口部81を介してチャンネルCH0の画素の+x方向側の位置が観察されることが分かる。また、0番目の開口部81から-x方向側にある開口部81では、ユーザの右眼には、それらの開口部81を介してチャンネルCH1の画素の-x方向側の位置が観察されることが分かる。
 同様に、図9において、折れ線C23は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C24は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。
 これらの折れ線C23と折れ線C24から、0番目の開口部81から+x方向側にある開口部81では、ユーザの左眼には、それらの開口部81を介してチャンネルCH2の画素の+x方向側の位置が観察されることが分かる。また、0番目の開口部81から-x方向側にある開口部81では、ユーザの左眼には、それらの開口部81を介してチャンネルCH3の画素の-x方向側の位置が観察されることが分かる。
 図9の例では、視認位置を示す折れ線C22や折れ線C24が、同じチャンネルの画素が視認画素となっている区間において、視認位置「0」をまたいでいない(0と交差していない)ので、境界位置は設けられない。
 したがって、この場合、光変調パネル62の全領域において、各ブロック領域では、視認画素とされたチャンネルCH0とチャンネルCH1の画素に、右眼用の視差画像が割り当てられる。また、各ブロック領域では、視認画素とされたチャンネルCH2とチャンネルCH3の画素に、左眼用の視差画像が割り当てられる。図9の例では、境界位置がないので光変調パネル62全体が1つの連続ブロック領域とされる。
 以上のように、各開口部81(ブロック領域)について、視認画素のチャンネル番号と、その視認画素における視認位置とが求まると、連続ブロック領域の境界位置が定まる。これにより、各連続ブロック領域に属すブロック領域ごとに、左右の視差画像を割り当てるチャンネルが定まる。
 但し、連続ブロック領域の境界位置は、右眼から見たときの境界位置と、左眼から見たときの境界位置とが同じ位置となるのが理想的であるが、実際にはユーザの右眼と左眼の位置は異なる位置にあるので、例えば図10に示すように、それらの境界位置にずれが生じることがある。
 このようなユーザの右眼と左眼を基準とした境界位置のずれは、中央からx方向に離れた位置ほど大きくなる。
 なお、図10において、横軸は開口部81の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
 図10では、折れ線C31は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C32は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。また、直線LB31および直線LB32は、それぞれ折れ線C32から定まる連続ブロック領域の境界位置を示している。
 さらに、折れ線C33は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C34は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。また、直線LB41および直線LB42は、それぞれ折れ線C34から定まる連続ブロック領域の境界位置を示している。
 なお、以下、直線LB31および直線LB32を境界位置LB31および境界位置LB32とも称し、直線LB41および直線LB42を境界位置LB41および境界位置LB42とも称する。
 図10の例では、左眼を基準とした境界位置LB41および境界位置LB42が、右眼を基準とした境界位置LB31および境界位置LB32に対応するが、それらの境界位置にはずれが生じている。このようなずれが生じると、ブロック領域における各チャンネルの画素への視差画像の割り当てに矛盾が生じてしまう。
 例えば、右眼を基準として、光変調パネル62の-x方向側の端から境界位置LB31までの間のブロック領域で、チャンネルCH0とチャンネルCH3の画素に右眼用の視差画像を割り当てるとする。また、左眼を基準として、境界位置LB41から境界位置LB42までの間のブロック領域で、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像を割り当てるとする。
 そうすると、境界位置LB41から境界位置LB31までの間のブロック領域では、チャンネルCH3の画素に対して、右眼用の視差画像と左眼用の視差画像の両方が割り当てられることになってしまう。
 そこで、表示装置11では、境界位置LB31と境界位置LB41の中間位置(平均位置)、および境界位置LB32と境界位置LB42の中間位置を、最終的な境界位置である境界位置LB51および境界位置LB52とする。
 これにより、例えば図中、下側に示すように、境界位置LB51および境界位置LB52で分割される領域を連続ブロック領域として、各ブロック領域で視差画像の割り当てが行なわれる。なお、図中、下側には、各領域で右眼用および左眼用の視差画像が割り当てられる画素のチャンネル番号が記されている。
 例えば、光変調パネル62の-x方向側の端から境界位置LB51までの間では、ブロック領域内のチャンネルCH0とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、チャンネルCH1とチャンネルCH2の画素に左眼用の視差画像が割り当てられる。
 また、境界位置LB51から境界位置LB52までの間では、ブロック領域内のチャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。さらに、境界位置LB52から光変調パネル62の+x方向側の端までの間では、ブロック領域内のチャンネルCH1とチャンネルCH2の画素に右眼用の視差画像が割り当てられ、チャンネルCH0とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
 なお、右眼を基準とする境界位置と左眼を基準とする境界位置との中間位置を、最終的な連続ブロック領域の境界位置とすると、境界位置近傍では右眼または左眼を基準とした視差画像の割り当てと多少のずれが生じるが、特に視差画像の立体視に影響は生じない。
 但し、ユーザの視点位置が、半視距離表示方式における最適な視距離であるZ0/2からずれてくると、すなわち、例えばユーザの視点位置が表示部27に近付いたり、遠ざかったりすると、次第に右眼を基準とする境界位置と左眼を基準とする境界位置とのずれが大きくなる。
 そうすると、例えば図11に示すように、いくつかのブロック領域において、ユーザの右眼と左眼とで同じチャンネルの画素が視認画素として観察されてしまう。なお、図11において、横軸は開口部81の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
 図11では、折れ線C41は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C42は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。また、折れ線C43は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C44は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。
 この例では、折れ線C41と折れ線C43の一部が重なっており、これらの部分ではブロック領域において、ユーザの右眼と左眼で同じチャンネルの画素が視認画素となるため、同じチャンネルに右眼用と左眼用の両方の視差画像を割り当てなくてはならなくなる。つまり、ユーザが被写体を立体的に観察できなくなり、右眼用の視差画像と左眼用の視差画像とを用いた立体表示が不可能となる。
 このように、各視点位置において、開口部81(ブロック領域)ごとに、ブロック領域内の視認画素を求めると、その結果から、ユーザが現視点位置から表示部27を観察する場合に、視差画像の立体視が可能であるかを特定することができる。
 したがって、各視点位置について、ブロック領域ごとに視認画素を求める演算を行なえば、例えば図12に示すように、xy平面上において立体表示(立体視)が可能な領域と不可能な領域とを求めることができる。なお、図12において、横方向および縦方向はx方向およびy方向を示している。
 図12の例では、表示部27の周囲の領域のうち、斜線の施された領域WR11は、視差画像の立体表示が可能な領域を示している。そこで、表示装置11は、半視距離表示方式により視差画像の立体表示を行なう場合において、領域WR11内にある領域WR12を視差画像の立体表示が可能な領域とする。そして、表示装置11は、ユーザの視点位置が領域WR12内にある場合、左右の視差画像に基づいて被写体を立体表示させ、ユーザの視点位置が領域WR12外にある場合、左右の何れか一方の視差画像を表示する。
 このようにユーザの視点位置に応じて、3D表示と2D表示を切り替えることで、ユーザに違和感のない自然な画像を提示することができる。
[表示処理の説明]
 次に、表示装置11の具体的な動作について説明する。
 表示装置11は、右眼用の視差画像と左眼用の視差画像からなる立体画像が指定され、これらの視差画像の半視距離表示方式による表示が指示されると、表示処理を行って、視差画像を立体表示させる。以下、図13のフローチャートを参照して、表示装置11による表示処理について説明する。
 ステップS11において、撮像部21は、表示部27の周囲の領域の画像を周辺画像として撮像し、検出部22に供給する。
 ステップS12において、検出部22は、撮像部21から供給された周辺画像に基づいて、ユーザの眼を検出する。例えば検出部22は、周辺画像からユーザの顔を検出し、検出された顔の領域から、さらにユーザの眼を検出する。
 ステップS13において、検出部22は周辺画像からユーザの眼が検出されたか否かを判定する。
 ステップS13において、ユーザの眼が検出されたと判定された場合、ステップS14において、視点位置算出部31は、検出されたユーザの眼の位置から、ユーザの視点位置を算出し、割り当て制御部23に供給する。例えば視点位置算出部31は、xy平面上におけるユーザの左右の眼の中間の位置を、視点位置として求める。
 ステップS15において、割り当て制御部23の判定部32は、視点位置算出部31から供給されたユーザの視点位置に基づいて、視差画像の立体表示が可能であるか否かを判定する。
 例えば判定部32は、図12に示した立体表示可能な領域WR12を特定するための領域情報を予め記録しており、記録している領域情報に基づいて、ユーザの視点位置が領域WR12内の位置であるか否かを特定することで、立体表示が可能であるかを判定する。したがって、例えばユーザの視点位置が領域WR12内の位置である場合、立体表示が可能であると判定される。
 ステップS15において、立体表示が可能であると判定された場合、ステップS16において、視認位置算出部33は、視点位置算出部31から供給されたユーザの視点位置に基づいて、開口部81ごとに視認画素および視認位置を算出する。
 すなわち、視認位置算出部33は、視点位置から定まるユーザの右眼位置と左眼位置とについて、図7を参照して説明した演算を行なって、開口部81(ブロック領域)ごとに、その開口部81を介して観察される視認画素と、その視認画素における視認位置を算出する。これにより、例えば図10に示した演算結果が得られる。すなわち、各ブロック領域について、ユーザの右眼または左眼から観察される画素(視認画素)のチャンネル番号と、その画素上のユーザにより観察される位置(視認位置)が求まる。
 ステップS17において、境界位置算出部34は、各ブロック領域についての視認画素と視認位置の算出結果に基づいて、連続ブロック領域の境界位置を算出する。
 具体的には境界位置算出部34は、右眼位置について求められた各ブロック領域の視認位置に基づいて、視認位置が「0」となるブロック領域を特定する。そして、境界位置算出部34は、そのブロック領域の左右(x方向)に並ぶブロック領域の視認位置の符号が異なり、それらの3つのブロック領域の視認画素のチャンネルが同じである場合、視認位置が「0」であるブロック領域の位置を、右眼を基準とする境界位置とする。
 同様に、境界位置算出部34は、左眼位置について求められた各ブロック領域の視認画素と視認位置の算出結果に基づいて、左眼を基準とする境界位置を算出する。そして、境界位置算出部34は、右眼を基準とする境界位置と、それらの境界位置に対応する、左眼を基準とする境界位置との中間の位置を、最終的な連続ブロック領域の境界位置とする。
 ここで、右眼を基準とする境界位置に対応する、左眼を基準とする境界位置とは、右眼を基準とする境界位置に最も近い位置にある、左眼を基準とする境界位置である。
 このような演算により、例えば図10に示した境界位置LB51および境界位置LB52が求められる。なお、図9に示した例のように、ユーザの視点位置によっては、境界位置がない場合もある。
 ステップS18において、境界位置算出部34は、連続ブロック領域の境界位置の算出結果に基づいて、各ブロック領域の画素に右眼用または左眼用の視差画像を割り当てる。
 例えば、境界位置が存在しない図9に示した例では、光変調パネル62の表示面上の全ブロック領域において、チャンネルCH0とチャンネルCH1の画素(チャンネル領域)に右眼用の視差画像が割り当てられる。また、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
 さらに図10の例では、例えば光変調パネル62の表示面上のブロック領域のうち、境界位置LB51から境界位置LB52の間にあるブロック領域では、チャンネルCH0とチャンネルCH1の画素に対して、右眼用の視差画像が割り当てられる。また、境界位置LB51から境界位置LB52の間にあるブロック領域において、チャンネルCH2とチャンネルCH3の画素に対して、左眼用の視差画像が割り当てられる。
 より具体的には、例えば図14に示すように、光変調パネル62上の4つの画素からなる領域がブロック領域BR1およびブロック領域BR2とされたとする。なお、図14において、横方向はx方向を示している。
 図14では、矢印Q41乃至矢印Q43により示される長方形は、右眼用の視差画像、左眼用の視差画像、および光変調パネル62を表している。また、それらの長方形内の1つの四角形は1つの画素を表しており、各画素内の文字「R」,「G」,「B」は、それぞれ画素の色を表している。
 例えば、光変調パネル62上の画素G51乃至画素G54が含まれる領域が、ブロック領域BR1とされており、画素G55乃至画素G58が含まれる領域が、ブロック領域BR2とされている。ここで、例えば画素G51は、R(赤)のカラーフィルタが設けられた、Rの光のみを透過させる画素であり、画素G52は、G(緑)のカラーフィルタが設けられた、Gの光のみを透過させる画素である。
 また、光変調パネル62上の各画素の図中、下側には、それらの画素のチャンネル番号が記されている。例えば、画素G51はチャンネルCH0の画素であり、画素G52は、チャンネルCH1の画素である。
 さらに、図中、横方向において光変調パネル62上の各画素と同じ位置には、それらの画素と同じ位置にある、右眼用および左眼用の視差画像の画素が示されている。
 一般的に、画像上の画素は、R,G,Bの各色の値をもつため、互いに隣接するR,G,Bの領域が1つの画素とされ、R,G,Bの各色の領域がサブピクセル(サブ画素)として扱われることが多い。
 具体的には、例えば右眼用の視差画像の図中、左端の連続するR,G,Bの3つの画素からなる領域が一般的には1つの画素(以下、適宜、RGB画素とも称する)とされ、各色の画素G61や画素G62がサブピクセルとして扱われることが多い。しかし、ここでは、これらの画素G61や画素G62を1つの画素と呼ぶこととする。
 同様に、一般的には画素G51乃至画素G53からなる3つの色の領域が1つの画素として扱われることがあるが、ここでは画素G51乃至画素G53のそれぞれを、1つの画素として扱うこととする。
 例えば、ブロック領域BR1とブロック領域BR2において、境界位置算出部34により、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられたとする。
 このとき、境界位置算出部34は、右眼用の視差画像の画素G61と画素G62を、それらの画素と同じ位置にある光変調パネル62上の画素G51と画素G52に割り当てる。また、境界位置算出部34は、左眼用の視差画像の画素G71と画素G72を、それらの画素と同じ位置にある光変調パネル62上の画素G53と画素G54に割り当てる。
 同様に、境界位置算出部34は、右眼用の視差画像の画素G63と画素G64を、画素G55と画素G56に割り当て、左眼用の視差画像の画素G73と画素G74を、画素G57と画素G58に割り当てる。
 このように、ブロック領域の所定のチャンネルの画素に右眼用または左眼用の視差画像が割り当てられたとき、より詳細には、そのチャンネルの画素には、その画素と同じ位置にある右眼用または左眼用の視差画像の画素が割り当てられる。
 このようにして、ブロック領域ごとに、各チャンネルの画素に対して右眼用または左眼用の視差画像を割り当てると、境界位置算出部34はその割り当て結果を生成部25に供給し、合成画像の生成を指示する。
 ステップS19において、生成部25は、境界位置算出部34から供給された割り当て結果と、記録部24から読み出した右眼用および左眼用の視差画像とに基づいて、合成画像を生成し、表示制御部26に供給する。例えば、図14に示した割り当てが行なわれた場合、生成部25は、右眼用の視差画像の画素G61と画素G62が、画素G51と画素G52に表示され、左眼用の視差画像の画素G71と画素G72が、画素G53と画素G54に表示されるように、合成画像を生成する。
 なお、視差画像を記録部24から取得するのではなく、外部の装置から視差画像を取得したり、視差画像を受信したりするようにしてもよい。
 ステップS20において、表示制御部26は、生成部25から供給された合成画像を表示部27に供給して表示させる。
 例えば、表示部27は、供給された合成画像に基づいてバックライト61から光を射出させるとともに、光変調パネル62に電圧を印加させてバックライト61からの光の透過率を画素ごとに制御する。また、表示部27はバリア素子63に電圧を印加させて開口部81と遮蔽部82とからなるパララックスバリアを形成させる。
 これにより、バックライト61から光変調パネル62の各画素を透過した光は、パララックスバリアにより光学的に分離され、分離された一部の光がユーザの右眼または左眼に入射して、ユーザにより視差画像上の被写体が立体的に観察される。すなわち、合成画像上の右眼用の視差画像の領域がユーザの右眼により観察され、合成画像上の左眼用の視差画像の領域がユーザの左眼により観察される。
 このとき、例えば左右の視差画像に付随する音声がある場合には、表示装置11は、合成画像の表示に合わせて、付随する音声を図示せぬスピーカから出力させる。
 ステップS21において、表示装置11は、表示装置11の電源をオフするか否かを判定する。例えば、ユーザの操作により電源のオフが指示された場合、電源をオフすると判定される。
 ステップS21において、電源をオフしないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、ユーザの視点位置の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てが変更され、新たな割り当てにしたがって生成された合成画像が表示される。
 これに対して、ステップS21において、電源をオフすると判定された場合、表示装置11は各部の処理を停止させて電源をオフし、表示処理は終了する。
 また、ステップS15において、立体表示が可能でないと判定された場合、割り当て制御部23は、生成部25に2次元の視差画像の表示を指示し、処理はステップS22へと進む。
 ステップS22において、生成部25は、割り当て制御部23からの指示に応じて、2次元の視差画像を表示させる。すなわち、生成部25は、記録部24から右眼用または左眼用の何れかの視差画像を読み出して、読み出した視差画像をそのまま表示制御部26に供給する。
 すると、表示制御部26は、生成部25から供給された視差画像を表示部27に供給し、視差画像を表示させる。このとき、例えばバリア素子63は、パララックスバリアを形成せず、表示部27は視差画像をそのまま表示させる。また、表示部27に設けられるパララックスバリアが固定式のものである場合でも、表示部27に視差画像をそのまま表示させることで、視差画像が2次元表示(2D表示)される。
 ステップS22において視差画像が表示されると、その後、処理はステップS21へと進み、上述した処理が行われる。
 また、ステップS13において、ユーザの眼が検出されなかったと判定された場合、検出部22は、眼が検出されなかった旨の検出結果を割り当て制御部23に供給し、処理はステップS23に進む。
 ステップS23において、割り当て制御部23は、ユーザの眼が検出されていない状態となってから、一定時間が経過したか否かを判定する。
 ステップS23において、一定時間が経過していないと判定された場合、処理はステップS22に進み、上述した処理が行われる。すなわち、表示部27に視差画像が2次元表示される。
 これに対して、ステップS23において、一定時間経過したと判定された場合、ステップS24において、割り当て制御部23は、生成部25を制御して画像が表示されない状態とさせる。生成部25は、割り当て制御部23の制御にしたがって、画像の表示制御部26への供給を停止する。これにより、表示部27に画像が表示されない状態となる。つまり、消画された状態となる。
 なお、視差画像に付随する音声がある場合、消画された状態で音声のみが継続して再生されるようにしてもよいし、音声も消音されるようにしてもよい。このように、一定時間、ユーザの眼が検出されなかった場合、ユーザは視差画像を見ていないはずであるので、消画することで消費電力を抑えることができる。
 ステップS24において消画された状態とされると、その後、処理はステップS21に進み、上述した処理が行われて表示処理は終了する。
 以上のようにして、表示装置11は、ユーザの視点位置に基づいて、ブロック領域ごとに視認画素と視認位置を算出し、その算出結果に基づいて、ブロック領域の各チャンネルの画素に、右眼用または左眼用の視差画像を割り当てて合成画像を生成する。
 このとき、ブロック領域の少なくともx方向に隣接して並ぶ2つの画素に、同じ視点の視差画像が割り当てられるようにすることで、より簡単にクロストークの発生を抑制し、より高品位な画像を提示することができるようになる。
 また、ユーザの視点位置の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てを変化させることで、各チャンネルにおける視差画像の表示の切り替えをユーザに感じさせることなく、より自然で高品位な画像を提示することができる。
 さらに、表示装置11では、立体表示が可能な領域からユーザが表示部27を観察すると、各ブロック領域のほぼ同じ位置が視認位置となるので、表示される画像全体において輝度分布が均一となり、モアレが生じることもない。
 しかも、表示装置11では、ユーザの視点位置が適視距離の略半分の距離の位置にある場合に、各ブロック領域の視認位置がほぼ同じ位置となるように設計されているので、連続ブロック領域の境界位置の数を少なくすることができる。
 例えば、通常の4視点用の表示装置を適視距離の半分の距離から観察すると、ブロック領域によって異なるチャンネルの画素が視認され、連続ブロック領域の境界位置の数が4以上となる。これに対して、表示装置11では、境界位置が必ず3以下となるので、より簡単に視差画像の表示制御を行なうことができる。
 なお、以上において説明した表示処理では、判定部32が立体表示可能な領域を特定するための領域情報を予め記録していると説明したが、そのような領域情報を予め記録せずに、視認画素の算出結果から、立体表示可能かを判定するようにしてもよい。
 そのような場合、判定部32は、視認位置算出部33により算出された、各ブロック領域の視認画素の算出結果を用いる。すなわち、判定部32は、右眼を基準とする視認画素と、左眼を基準とする視認画素とが、同じチャンネルの画素となるブロック領域がある場合、立体表示が可能でないと判定する。
〈変形例1〉
 また、以上においては、表示装置11が単独で半視距離表示方式による立体表示を行なうと説明したが、いくつかの装置からなる表示システムにより、半視距離表示方式での立体表示が行なわれるようにしてもよい。
 そのような場合、表示システムは、例えば図15に示すように構成される。
 すなわち、図15の表示システムは、撮像装置121、画像処理装置122、および表示装置123から構成される。なお、図15において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 撮像装置121は、表示装置123の周囲の画像を周辺画像として撮像し、画像処理装置122に供給する。画像処理装置122は、撮像装置121からの周辺画像を用いて合成画像を生成し、表示装置123に供給する。
 画像処理装置122は、検出部22、割り当て制御部23、記録部24、および生成部25から構成される。検出部22は、撮像装置121からの周辺画像からユーザの眼を検出して、その検出結果を割り当て制御部23に供給し、割り当て制御部23は、検出部22からの検出結果に基づいて、ブロック領域の各チャンネルの画素への視差画像の割り当てを行なう。
 また、生成部25は、割り当て制御部23の制御にしたがって記録部24に記録された左右の眼の視差画像から合成画像を生成し、表示装置123に供給する。
 表示装置123は、例えば表示部27および表示制御部26と同様の機能を有する、立体画像を表示可能な表示装置であり、生成部25から供給された合成画像に基づいて、視差画像上の被写体を立体表示する。
〈変形例2〉
 さらに、以上においては、表示部27が4視点の視差画像を立体表示可能な表示装置である場合を例として説明したが、表示部27は、5以上の複数視点の視差画像を立体表示可能な表示装置であってもよい。
 例えば、表示部27が6視点の視差画像を立体表示可能である場合、図16に示すように、6つの異なるチャンネルの画素からなる領域がブロック領域とされ、そのブロック領域に対して1つの開口部81が設けられる。なお、図16において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図16の例では、6つの異なるチャンネルの画素G91乃至画素G96を含む領域が、1つのブロック領域とされている。
 この場合、視差画像を立体視可能なユーザの視点位置は、例えば互いに3画素だけ離れた位置にある画素が、ユーザの右眼および左眼を基準とした視認画素となるような位置とされる。図16の例では、ユーザの右眼ERにより画素G95が視認されており、ユーザの左眼ELにより画素G92が視認されている。
 また、視差画像の割り当て時には、少なくとも連続して並ぶ3つのチャンネルの画素に、右眼用または左眼用の何れかの視差画像が割り当てられる。例えば、図16では画素G91乃至画素G93に左眼用の視差画像が割り当てられ、画素G94乃至画素G96に右眼用の視差画像が割り当てられる。
 このように、複数視点の視差画像を立体表示可能な表示部では、右眼と左眼の視認画素が、2画素以上離れた画素となるようにすることで、視差方向に連続して並ぶ2以上の画素に同じ視点の視差画像を割り当てることができる。これにより、簡単にクロストークの発生を抑制し、より高品質な視差画像を提示することができるようになる。
 さらに、以上においては、表示装置11を観察するユーザの眼には、各ブロック領域の略同じ位置が視認されるため、光変調パネル62の表示面全体の輝度が均一となり、モアレが発生しないと説明した。
 しかし、開口部81の開口幅が狭すぎると、ユーザにより画素の中心が視認されているときは画面が明るいが、ユーザにより画素間の位置が視認されているときは画面が暗くなってしまう。そのような場合、ユーザがx方向に視点位置を移動させていくと、所定周期で画面が明るくなったり暗くなったりする状態が繰り返されることになる。
 このような明暗が繰り返される状態を抑制するには、開口部81の開口幅を適切に設定する必要があるが、例えば開口幅を画素幅や画素間の距離と同じ距離とすることが考えられる。また、開口幅を、画素間の距離の2倍の値から画素幅を減算して得られる値などとすることも考えられる。
〈第2の実施の形態〉
[クロストークの発生と軽減について]
 ところで、上述した半視距離表示方式により立体画像を表示すれば、クロストークの発生を抑制し、高品位な画像を提示することができるが、半視距離表示方式においても僅かにクロストークは発生する。
 例えば、図17の左側に示すように、ユーザの両眼が表示部27からy方向に適視距離の半分の距離Z0/2(以下、半適視距離とも称する)だけ離れた位置にある状態で、開口部81を介してユーザが光変調パネル62上の画素を見ているとする。なお、図17において、図中、横方向および縦方向は、x方向およびy方向を示している。
 図17では、光変調パネル62上には5つの画素G121乃至画素G125がx方向に並んでおり、これらの画素G121乃至画素G125は、それぞれチャンネルCH0,CH1,CH2,CH3,CH0の画素となっている。なお、各画素内の数値は、その画素のチャンネル番号を表している。
 例えば、図中、左側の例では、ユーザの右眼ERおよび左眼ELは、表示部27から半適視距離の位置にあり、ユーザの右眼ERおよび左眼ELには、それぞれ光変調パネル62上の領域VR11および領域VL11が視認されている。
 領域VR11はほぼ画素G122の領域であり、領域VL11はほぼ画素G124の領域であるので、ユーザの右眼ERおよび左眼ELには、画素G122および画素G124のほぼ中央の領域が視認されている。したがって、この状態ではクロストークは発生しない。
 これに対して、図中、左側に示す状態から、ユーザの視点位置が半適視距離の位置よりも表示部27に近くなると、図中、中央に示すように光変調パネル62上のユーザにより視認される領域は変化する。すなわち、この例ではユーザの右眼ERにより視認される領域VR12は、画素G121と画素G122の一部を含む領域となっており、ユーザの左眼ELにより視認される領域VL12は、画素G124と画素G125の一部を含む領域となっている。
 したがって、この場合、ユーザの右眼と左眼の両方に、チャンネルCH0の画素が見えてしまうことになり、クロストークが発生する。
 また、図中、左側に示す状態から、ユーザの視点位置が半適視距離の位置よりも表示部27から遠くなると、図中、右側に示すように光変調パネル62上のユーザにより視認される領域は変化する。すなわち、この例ではユーザの右眼ERにより視認される領域VR13は、画素G122と画素G123の一部を含む領域となっており、ユーザの左眼ELにより視認される領域VL13は、画素G123と画素G124の一部を含む領域となっている。
 したがって、この場合、ユーザの右眼と左眼の両方にチャンネルCH2の画素が見えてしまうことになり、クロストークが発生する。
 より詳細には、ユーザの視距離の変化によるクロストークは、図18に示すように、連続ブロック領域の境界位置近傍で発生する。なお、図18は、ユーザの視点位置が半適視距離の位置よりも表示部27に近い場合の例を示している。また、図中、横方向はx方向を示しており、図中、1つの正方形は光変調パネル62に設けられた1つの画素を表している。さらに、それらの画素内の数値は、各画素のチャンネル番号を示している。
 図18では、各領域VR21-1乃至領域VR21-8は、各開口部81を介してユーザの右眼ERにより視認される光変調パネル62上の領域を示している。また、各領域VL21-1乃至領域VL21-8は、各開口部81を介してユーザの左眼ELにより視認される光変調パネル62上の領域を示している。
 以下、領域VR21-1乃至領域VR21-8を特に区別する必要のない場合、単に領域VR21とも称し、領域VL21-1乃至領域VL21-8を特に区別する必要のない場合、単に領域VL21とも称する。
 半視距離表示方式では、右眼を基準とする連続ブロック領域の境界位置と、左眼を基準とする連続ブロック領域の境界位置とが異なる場合には、それらの境界位置の中間位置が最終的な境界位置とされ、左右の視差画像の割り当てが行なわれる。
 例えば、図18では、直線LB81および直線LB82は、それぞれ右眼を基準とする境界位置、および左眼を基準とする境界位置を示しており、これらの境界位置は異なる位置となっている。したがって、これらの直線LB81と直線LB82との中間の位置にある直線LB83の位置が、連続ブロック領域の最終的な境界位置とされる。
 この場合、直線LB83よりも図中、左側の領域では、チャンネルCH0およびチャンネルCH3の画素に左眼用の視差画像が割り当てられ、チャンネルCH1およびチャンネルCH2の画素に右眼用の視差画像が割り当てられる。
 また、直線LB83よりも図中、右側の領域では、チャンネルCH2およびチャンネルCH3の画素に左眼用の視差画像が割り当てられ、チャンネルCH0およびチャンネルCH1の画素に右眼用の視差画像が割り当てられる。
 このような視差画像の割り当てを行なった場合に、右眼用の視差画像として白い画像を表示させ、左眼用の視差画像として黒い画像を表示させたとする。
 このとき、連続ブロック領域の境界位置である直線LB83の位置から、右眼を基準とする境界位置である直線LB81の位置までの領域に注目すると、この領域内にある領域VR21には、チャンネルCH1とチャンネルCH0の画素領域が含まれている。
 すなわち、この領域では、ユーザの右眼にはチャンネルCH1の画素の半分以上の領域が視認されているため、ユーザの右眼を基準とする視認画素は、チャンネルCH1の画素となっている。しかし、ユーザの右眼には、チャンネルCH1の画素だけでなく、チャンネルCH0の画素の一部の領域も視認されている。
 ところが、直線LB83から直線LB81までの領域では、チャンネルCH0の画素には、左眼用の視差画像が割り当てられているので、この領域においては、ユーザの右眼に左眼用の視差画像が漏れて見えてしまうことになる。つまり、ユーザの右眼ではクロストークが発生してしまうことになる。
 その結果、ユーザの右眼で知覚される画像PR11は、直線LB83から直線LB81までの領域に対応する部分が、灰色がかった画像となってしまう。特に、境界位置である直線LB83よりも図中、左側では、直線LB83に近い領域ほど、クロストーク量が多くなっているのに対して、直線LB83の図中、右側ではクロストークは発生していない。そのため、画像PR11には、z方向に長いライン状のクロストークが生じ、そのクロストークがやや目立ってしまうことになる。
 同様に、連続ブロック領域の境界位置である直線LB83の位置から、左眼を基準とする境界位置である直線LB82の位置までの領域に注目すると、この領域内にある領域VL21には、チャンネルCH0とチャンネルCH3の画素領域が含まれている。
 ところが、直線LB83から直線LB82までの領域では、チャンネルCH0の画素には、右眼用の視差画像が割り当てられているので、この領域においては、ユーザの左眼に右眼用の視差画像が漏れて見えてしまうことになる。
 その結果、ユーザの左眼で知覚される画像PL11は、直線LB83から直線LB82までの領域に対応する部分が、白みがかった画像となってしまう。特に、境界位置である直線LB83よりも図中、右側では、直線LB83に近い領域ほど、クロストーク量が多くなっているのに対して、直線LB83の図中、左側ではクロストークは発生していない。そのため、画像PL11にも、z方向に長いライン状のクロストークが生じることになる。
 このように、直線LB81から直線LB82の間の領域では、ユーザの左右の眼にチャンネルCH0の画素領域が視認されてしまうため、左右の視差画像の割り当てかたによらず、クロストークが発生してしまう。なお、直線LB81または直線LB82の何れかの位置を連続ブロック領域の境界位置として視差画像の割り当てを行なうと、左右の一方の眼にはクロストークがほぼ発生しないが、他方の目には多量のクロストークが発生してしまうことになる。
 そこで、半視距離表示方式において、さらにクロストークを低減させるために、クロストークが発生する要因となる画素、つまり左右両方の眼に視認されてしまう画素には、左右の視差画像をブレンドして表示させるようにしてもよい。
 例えば、図19に示すようにクロストークが発生する要因となる画素は、右眼を基準とする境界位置である直線LB81から、左眼を基準とする境界位置である直線LB82の間の領域に存在する。なお、図19において、図18における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図19の例では、図18を参照して説明したように、直線LB81から直線LB82の間の領域にあるチャンネルCH0の画素が、ユーザの両方の眼に視認されてしまい、クロストークの原因となっていた。
 そこで、直線LB81から直線LB82の間の領域にあるチャンネルCH0の画素には、それらの画素からクロストークとして漏れて出る量(漏れ量)に応じたブレンド比率で、左右の視差画像の画素の画素値をブレンドして得られた画素値の画像が表示される。
 例えば、直線LB83の位置、すなわち境界位置にあるチャンネルCH0の画素では、その画素からの光(画像)が領域VR21-4と領域VL21-5とに漏れ出してクロストークとなり、その漏れ量はほぼ同じとなっている。そこで、境界位置にあるチャンネルCH0の画素には、左右の視差画像の対応する画素の画素値が同じ割合でブレンドされて得られた画素値の画像が表示される。
 また、直線LB81の図中、右側に隣接するチャンネルCH0の画素では、その画素からの光が領域VR21-2と領域VL21-3とに漏れ出してクロストークとなるが、領域VL21-3、つまり左眼への漏れ量がより多くなっている。そこで、直線LB81の右側に隣接するチャンネルCH0の画素には、左右の視差画像の対応する画素のうち、左眼用の視差画像の画素がより高い割合でブレンドされて得られた画素値の画像が表示される。
 これに対して、直線LB82の図中、左側に隣接するチャンネルCH0の画素では、その画素からの光が領域VR21-6と領域VL21-7とに漏れ出してクロストークとなるが、領域VR21-6、つまり右眼への漏れ量が左眼への漏れ量よりも多くなっている。そこで、直線LB82の左側に隣接するチャンネルCH0の画素には、左右の視差画像の対応する画素のうち、右眼用の視差画像の画素がより高い割合でブレンドされて得られた画素値の画像が表示される。
 以上において説明したことを一般化すると、クロストークの発生要因となる画素には、次式(1)により求まる画素値Out(X)の画像を表示すればよい。
 Out(X)=(R(X)×(X-X1)+L(X)×(X2-X))/(X2-X1)   ・・・(1)
 なお、式(1)において、変数Xは、光変調パネル62の図中、左端の位置、すなわち+x方向側の端の位置を原点とし、図中、右方向(-x方向)を+X軸方向とする座標系における光変調パネル62上の画素の位置を示している。
 また、R(X)およびL(X)は、それぞれ位置Xにある右眼用および左眼用の視差画像の画素の画素値を示しており、X1およびX2は、それぞれ右眼および左眼を基準とした境界位置を示している。例えば、直線LB81の位置が位置X=X1であり、直線LB82の位置が位置X=X2である。
 したがって、式(1)の計算では、位置X1から位置X2の間の位置Xにある、ユーザの両方の眼に視認されるチャンネルの画素に表示される、合成画像の位置Xの画素の画素値Out(X)が求められることになる。そして、その画素値Out(X)は、位置Xにある画素からの左右の眼への光の漏れ量の比率を重みとした、左眼用の視差画像の位置Xの画素の画素値と、右眼用の視差画像の位置Xの画素の画素値との加重平均により求められる。
 なお、位置Xにある画素からの左右の眼への光の漏れ量の比率(ブレンド比率)は、位置Xと、位置X1および位置X2との位置関係、つまりブレンドを行なうべき領域内における対象となる画素の位置から求まる。換言すればブレンド比率は、ユーザの左右の各眼で視認される画素領域の大きさの比率である。例えば位置X1により近い位置Xでは、チャンネルCH0の画素からの光は左眼への漏れ量がより多くなるので、左眼用の視差画像がより多くブレンドされることになる。
 このようにクロストークとして漏れ出てくる光の漏れ度合いに応じてブレンドを行うと、その結果得られた合成画像を表示させた場合に、ユーザの右眼ERには画像PR21が知覚され、ユーザの左眼ELには画像PL21が知覚されることになる。
 なお、ここで表示される合成画像は、右眼用の視差画像としての白い画像と、左眼用の視差画像としての黒い画像とからなる画像の一部の領域を、ブレンドを行なうことで得られた画像に置き換えて得られる画像である。
 画像PR21および画像PL21では、直線LB83の左右両側で僅かにクロストークが発生しているが、視差画像のブレンドによってクロストークが直線LB83の左右に分散されている。したがって、画像PR11や画像PL11の場合と比べてクロストークが目立たなくなっている。つまり、クロストークの発生領域は広くなっているが、各領域における漏れ量は少なくなっているので、クロストークの発生により生じる立体画像の画質の劣化が改善されている。 
 例えば、直線LB83の位置にあるチャンネルCH0の画素からの光は、ユーザの左右の眼にそれぞれほぼ同じ量だけ漏れ出す。そこで、この画素に表示される合成画像の画素には、左右の視差画像成分が半分ずつ含まれるようにすることで、何れか一方の視差画像成分だけが含まれている場合と比較して、右眼と左眼におけるクロストークが改善される。
[表示装置の構成例]
 以上のように、クロストーク発生の要因となる画素について、視差画像のブレンドを行なう場合、表示装置は、例えば図20に示すように構成される。
 図20の表示装置151は、撮像部21、検出部22、割り当て制御部23、記録部24、生成部25、表示制御部26、および表示部27から構成される。なお、図20において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図20の表示装置151と、図1の表示装置11とは、表示装置151の割り当て制御部23にブレンド比率算出部161が設けられている点で異なり、その他の点では同じ構成となっている。
 ブレンド比率算出部161は、半視距離表示方式により立体画像を表示しようとする場合に、光変調パネル62上にブレンドを行なうべきチャンネルの画素があるときには、そのチャンネルの画素における視差画像のブレンド比率を算出する。なお、以下、ブレンドを行なうべき画素のチャンネルを、ターゲットチャンネルとも称することとする。
 生成部25は、記録部24からの視差画像から合成画像を生成する場合に、ブレンドを行なう必要がある領域があるときには、その領域内のターゲットチャンネルの画素について、ブレンド比率算出部161で算出されたブレンド比率に基づいて、ブレンドを行い、合成画像を生成する。
[表示処理の説明]
 次に、図21および図22のフローチャートを参照して、表示装置151により行なわれる表示処理について説明する。
 なお、ステップS51乃至ステップS58の処理は、図13のステップS11乃至ステップS18の処理と同様であるので、その説明は省略する。ステップS51乃至ステップS58の処理により、ブロック領域ごとに、各チャンネルの画素に対して、右眼用または左眼用の視差画像が割り当てられる。
 ステップS59において、ブレンド比率算出部161は、ブレンドをするべき領域があるか否かを判定する。
 例えば、ステップS57の処理で算出された右眼を基準とする境界位置と、左眼を基準とする境界位置とが異なる位置である場合、ブレンドをするべき領域があると判定される。このとき、右眼を基準とする境界位置と、左眼を基準とする境界位置との間の領域がブレンドをすべき領域とされる。
 ステップS59において、ブレンドをすべき領域がないと判定された場合、境界位置算出部34は、各チャンネルの画素に対する左右の視差画像の割り当て結果を生成部25に供給し、処理はステップS60に進む。
 ステップS60において、生成部25は、境界位置算出部34から供給された割り当て結果と、記録部24から読み出した右眼用および左眼用の視差画像とに基づいて、合成画像を生成し、表示制御部26に供給する。このステップS60では、図13のステップS19と同様の処理が行なわれる。ステップS60の処理が行なわれると、その後、処理はステップS64へと進む。
 これに対して、ステップS59において、ブレンドすべき領域があると判定された場合、ステップS61において、ブレンド比率算出部161は、ブレンドを行なうべきターゲットチャンネルを算出する。
 例えば、ブレンド比率算出部161は、右眼を基準とする境界位置と、左眼を基準とする境界位置との間の領域内の各画素のうち、ユーザの左右の眼により視認される画素のチャンネルを、ターゲットチャンネルとして求める。
 ターゲットチャンネルは、右眼を基準とする境界位置と、左眼を基準とする境界位置との間の領域内の視認画素の視認位置から求めることができる。
 例えば、図10に示した直線LB41と直線LB31との間の領域がブレンドすべき領域となる。この領域では、右眼の視認画素はチャンネルCH0であるが、その視認位置は折れ線C31から負の位置であることが分かるので、ユーザの右眼にはチャンネルCH0の画素だけでなく、チャンネルCH3の画素も視認されることが分かる。
 同様に、この領域では、左眼の視認画素はチャンネルCH2であり、その視認位置は折れ線C34から正の位置であることが分かるので、ユーザの左眼にはチャンネルCH2の画素だけでなく、チャンネルCH3の画素も視認されることが分かる。したがって、この場合、チャンネルCH3がターゲットチャンネルであると特定される。
 ステップS62において、ブレンド比率算出部161は、ブレンドすべき領域内にあるターゲットチャンネルの各画素について、上述した式(1)の計算からブレンド比率を算出する。例えば、処理対象のターゲットチャンネルの画素位置が位置Xであるとすると、左眼用の視差画像のブレンド比率は(X2-X)/(X2-X1)であり、右眼用の視差画像のブレンド比率は(X-X1)/(X2-X1)である。なお、X1,X2は、それぞれ右眼および左眼を基準とした境界位置を示している。
 ブレンド比率が算出されると、ブレンド比率算出部161は算出したブレンド比率と、各チャンネルの画素に対する左右の視差画像の割り当て結果を生成部25に供給し、処理はステップS63に進む。
 ステップS63において、生成部25は、ブレンド比率算出部161から供給されたブレンド比率、および視差画像の割り当て結果と、記録部24から読み出した右眼用および左眼用の視差画像とに基づいてブレンド処理を行い、合成画像を生成する。
 例えば、生成部25は、図13のステップS19と同様の処理を行い、合成画像を生成する。但し、このとき生成部25は、ブレンドすべき領域内のターゲットチャンネルの画素に対応する合成画像の画素については、ブレンド比率に基づいて上述した式(1)の計算を行い、算出された画素値を合成画像の画素の画素値とする。
 生成部25は、合成画像を生成すると、生成した合成画像を表示制御部26に供給し、その後、処理はステップS64に進む。
 ステップS63またはステップS60において合成画像が生成されると、ステップS64乃至ステップS68の処理が行なわれて表示処理は終了するが、これらの処理は図13のステップS20乃至ステップS24の処理と同様であるので、その説明は省略する。
 以上のようにして、表示装置151は、ユーザの視点位置に基づいてブロック領域ごとに視認画素と視認位置を算出し、その算出結果に基づいて、ブロック領域の各チャンネルの画素に右眼用または左眼用の視差画像を割り当てて合成画像を生成する。
 このとき、表示装置151は、必要に応じてターゲットチャンネルの画素に対応する合成画像の画素を左右の視差画像のブレンドにより生成する。これにより、クロストークを軽減させることができ、より高品位な画像を提示することができるようになる。
 なお、半視距離表示方式に上述したブレンド処理を適用させる場合、図23に示す表示システムにより、各処理が行われるようにしてもよい。なお、図23において、図15または図20における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図23に示す表示システムは、撮像装置121、画像処理装置181、および表示装置123から構成される。また、画像処理装置181は、検出部22、割り当て制御部23、記録部24、および生成部25から構成されている。
 ここで、画像処理装置181と、図15の画像処理装置122とは、画像処理装置181の割り当て制御部23にブレンド比率算出部161が設けられている点で異なり、その他の点では同じ構成となっている。また、図23に示す表示システムでは、図21および図22の表示処理と同様の処理が行われる。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記録部208、ネットワークインターフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。
 以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
 そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 さらに、本技術は、以下の構成とすることも可能である。
[1]
 3以上の複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
 前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、
 前記表示部を観察するユーザの視点位置に応じて、前記ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当てる割り当て制御部と、
 前記割り当て制御部による割り当てにしたがって複数の視差画像を合成し、合成画像を生成する生成部と
 を備える表示装置。
[2]
 前記複数の前記視差画像は、右眼用の前記視差画像と左眼用の前記視差画像である
 [1]に記載の表示装置。
[3]
 所定の視点位置から前記ユーザが前記表示部を観察した場合、各前記ブロック領域の同じチャンネルの画素が観察される
 [2]に記載の表示装置。
[4]
 前記割り当て制御部は、
  前記視点位置に基づいて、前記ブロック領域ごとに、前記ユーザにより観察される前記ブロック領域内の視認画素上の視認位置を求める視認位置算出部と、
  前記視認位置が前記視認画素の略中央となる前記ブロック領域の位置を境界位置として算出するとともに、前記境界位置から、前記境界位置に最も近い他の境界位置までの間にある前記ブロック領域に対して、それらの前記ブロック領域の同じチャンネルの画素に同じ前記視差画像を割り当てる境界位置算出部と
 を備える[3]に記載の表示装置。
[5]
 前記境界位置算出部は、前記境界位置から前記他の境界位置までの間にある前記ブロック領域に対して、前記境界位置にある前記ブロック領域の前記視認画素のチャンネル、および前記他の境界位置にある前記ブロック領域の前記視認画素のチャンネルと同じチャンネルの画素に、同じ前記視差画像を割り当てる
 [4]に記載の表示装置。
[6]
 前記境界位置算出部は、前記ユーザの右眼を基準として算出された前記境界位置と、前記ユーザの左眼を基準として算出された前記境界位置との中間の位置を、最終的な前記境界位置とする
 [4]または[5]に記載の表示装置。
[7]
 前記割り当て制御部は、前記ユーザの右眼を基準として算出された前記境界位置から、前記ユーザの左眼を基準として算出された前記境界位置までを対象領域として、前記対象領域内にある前記ユーザの左右両方の眼で観察される各画素について、前記対象領域における画素位置に基づいてブレンド比率を算出するブレンド比率算出部をさらに備え、
 前記生成部は、前記対象領域内の前記左右両方の眼で観察される画素に表示される前記合成画像の画素を、前記右眼用の前記視差画像と前記左眼用の前記視差画像とを前記ブレンド比率でブレンドすることにより生成する
 [6]に記載の表示装置。
[8]
 前記割り当て制御部は、前記視点位置が予め定められた領域外にある場合、前記右眼用または前記左眼用の前記視差画像のうちの何れかを、前記表示部に表示させる
 [2]乃至[7]の何れかに記載の表示装置。
 11 表示装置, 21 撮像部, 22 検出部, 23 割り当て制御部, 25 生成部, 26 表示制御部, 27 表示部, 31 視点位置算出部, 32 判定部, 33 視認位置算出部, 34 境界位置算出部, 81-1乃至81-3,81 開口部, 161 ブレンド比率算出部

Claims (10)

  1.  3以上の複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
     前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、
     前記表示部を観察するユーザの視点位置に応じて、前記ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当てる割り当て制御部と、
     前記割り当て制御部による割り当てにしたがって複数の視差画像を合成し、合成画像を生成する生成部と
     を備える表示装置。
  2.  前記複数の前記視差画像は、右眼用の前記視差画像と左眼用の前記視差画像である
     請求項1に記載の表示装置。
  3.  所定の視点位置から前記ユーザが前記表示部を観察した場合、各前記ブロック領域の同じチャンネルの画素が観察される
     請求項2に記載の表示装置。
  4.  前記割り当て制御部は、
      前記視点位置に基づいて、前記ブロック領域ごとに、前記ユーザにより観察される前記ブロック領域内の視認画素上の視認位置を求める視認位置算出部と、
      前記視認位置が前記視認画素の略中央となる前記ブロック領域の位置を境界位置として算出するとともに、前記境界位置から、前記境界位置に最も近い他の境界位置までの間にある前記ブロック領域に対して、それらの前記ブロック領域の同じチャンネルの画素に同じ前記視差画像を割り当てる境界位置算出部と
     を備える請求項3に記載の表示装置。
  5.  前記境界位置算出部は、前記境界位置から前記他の境界位置までの間にある前記ブロック領域に対して、前記境界位置にある前記ブロック領域の前記視認画素のチャンネル、および前記他の境界位置にある前記ブロック領域の前記視認画素のチャンネルと同じチャンネルの画素に、同じ前記視差画像を割り当てる
     請求項4に記載の表示装置。
  6.  前記境界位置算出部は、前記ユーザの右眼を基準として算出された前記境界位置と、前記ユーザの左眼を基準として算出された前記境界位置との中間の位置を、最終的な前記境界位置とする
     請求項5に記載の表示装置。
  7.  前記割り当て制御部は、前記ユーザの右眼を基準として算出された前記境界位置から、前記ユーザの左眼を基準として算出された前記境界位置までを対象領域として、前記対象領域内にある前記ユーザの左右両方の眼で観察される各画素について、前記対象領域における画素位置に基づいてブレンド比率を算出するブレンド比率算出部をさらに備え、
     前記生成部は、前記対象領域内の前記左右両方の眼で観察される画素に表示される前記合成画像の画素を、前記右眼用の前記視差画像と前記左眼用の前記視差画像とを前記ブレンド比率でブレンドすることにより生成する
     請求項6に記載の表示装置。
  8.  前記割り当て制御部は、前記視点位置が予め定められた領域外にある場合、前記右眼用または前記左眼用の前記視差画像のうちの何れかを、前記表示部に表示させる
     請求項4に記載の表示装置。
  9.  3以上の複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
     前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、
     前記表示部を観察するユーザの視点位置に応じて、前記ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当てる割り当て制御部と、
     前記割り当て制御部による割り当てにしたがって複数の視差画像を合成し、合成画像を生成する生成部と
     を備える表示装置の表示方法であって、
     前記割り当て制御部が前記ブロック領域内の各チャンネルの画素に視差画像を割り当て、
     前記生成部が前記合成画像を生成する
     ステップを含む表示方法。
  10.  3以上の複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部とを備える表示装置を制御するコンピュータに、
     前記表示部を観察するユーザの視点位置に応じて、前記ブロック領域内の互いに隣接する複数の画素からなり、異なる2以上のチャンネルの画素からなる第1の領域に視差画像が表示され、前記視差画像と視差を有する他の視差画像が前記ブロック領域内の前記第1の領域とは異なる第2の領域に表示されるように、前記ブロック領域内の各チャンネルの画素に複数の視差画像の何れかを割り当て、
     前記割り当てにしたがって複数の視差画像を合成し、合成画像を生成する
     ステップを含む処理を実行させるプログラム。
PCT/JP2012/062637 2011-05-26 2012-05-17 表示装置および方法、並びにプログラム WO2012161076A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP12789096.0A EP2717583B1 (en) 2011-05-26 2012-05-17 Display device and method, and program
KR1020137029064A KR20140022861A (ko) 2011-05-26 2012-05-17 표시 장치 및 방법, 및 프로그램
RU2013151418A RU2615330C2 (ru) 2011-05-26 2012-05-17 Устройство и способ отображения и программа
KR1020197015914A KR102103681B1 (ko) 2011-05-26 2012-05-17 표시 장치 및 방법, 및 프로그램
US14/110,486 US9842570B2 (en) 2011-05-26 2012-05-17 Display device and method, and program
CN201280024287.0A CN103548346B (zh) 2011-05-26 2012-05-17 显示装置和方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-117650 2011-05-26
JP2011117650 2011-05-26
JP2012-056700 2012-03-14
JP2012056700A JP6050941B2 (ja) 2011-05-26 2012-03-14 表示装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2012161076A1 true WO2012161076A1 (ja) 2012-11-29

Family

ID=47217154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/062637 WO2012161076A1 (ja) 2011-05-26 2012-05-17 表示装置および方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9842570B2 (ja)
EP (1) EP2717583B1 (ja)
JP (1) JP6050941B2 (ja)
KR (2) KR102103681B1 (ja)
CN (1) CN103548346B (ja)
RU (1) RU2615330C2 (ja)
WO (1) WO2012161076A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103813153A (zh) * 2014-01-27 2014-05-21 北京乐成光视科技发展有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
US20140152663A1 (en) * 2012-12-03 2014-06-05 Sony Corporation Image processing device, image processing method, and program
CN112868226A (zh) * 2018-08-24 2021-05-28 三维媒体有限公司 适用于具有主导眼的观察者的三维显示器

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104076592B (zh) * 2013-03-26 2018-06-05 上海科斗电子科技有限公司 指向光源裸眼3d投影***及其3d成像屏幕
JP6931268B2 (ja) * 2015-06-08 2021-09-01 キヤノン株式会社 画像処理装置および画像処理方法
KR101963392B1 (ko) * 2017-08-16 2019-03-28 한국과학기술연구원 무안경식 3차원 영상표시장치의 동적 최대 시역 형성 방법
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法
US11356653B2 (en) 2018-02-23 2022-06-07 Sony Corporation Display device, display method, and computer program
EP3989541A4 (en) * 2019-06-21 2023-05-24 Kyocera Corporation THREE-DIMENSIONAL DISPLAY DEVICE, THREE-DIMENSIONAL DISPLAY SYSTEM AND MOVABLE OBJECT

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950019A (ja) 1995-05-30 1997-02-18 Sanyo Electric Co Ltd 立体表示装置
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム
US20090123030A1 (en) * 2006-07-06 2009-05-14 Rene De La Barre Method For The Autostereoscopic Presentation Of Image Information With Adaptation To Suit Changes In The Head Position Of The Observer

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59708088D1 (de) * 1996-12-18 2002-10-02 Dresden 3D Gmbh Verfahren und anordnung zur dreidimensionalen darstellung von information
JP2003011423A (ja) 2001-07-04 2003-01-15 Fuji Photo Film Co Ltd 画像形成装置
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP2005110010A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 立体画像生成方法および立体画像表示装置
DE102004059729B3 (de) * 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
EP1708010A1 (en) * 2005-03-28 2006-10-04 Kabushiki Kaisha Toshiba Image display apparatus
JP4764305B2 (ja) 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
JP2008134617A (ja) * 2006-10-23 2008-06-12 Nec Lcd Technologies Ltd 表示装置、端末装置、表示パネル及び光学部材
DE102007055026B4 (de) * 2007-11-15 2011-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum autostereoskopischen Darstellen von Bildinformationen
JP5342796B2 (ja) * 2008-03-27 2013-11-13 株式会社東芝 三次元画像表示方法および装置
JP5491702B2 (ja) 2008-03-28 2014-05-14 株式会社東芝 画像表示装置および画像表示方法
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
JP2011081630A (ja) * 2009-10-07 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950019A (ja) 1995-05-30 1997-02-18 Sanyo Electric Co Ltd 立体表示装置
US20090123030A1 (en) * 2006-07-06 2009-05-14 Rene De La Barre Method For The Autostereoscopic Presentation Of Image Information With Adaptation To Suit Changes In The Head Position Of The Observer
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2717583A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152663A1 (en) * 2012-12-03 2014-06-05 Sony Corporation Image processing device, image processing method, and program
US9282322B2 (en) * 2012-12-03 2016-03-08 Sony Corporation Image processing device, image processing method, and program
CN103856769B (zh) * 2012-12-03 2017-04-12 索尼公司 图像处理装置和图像处理方法
CN103813153A (zh) * 2014-01-27 2014-05-21 北京乐成光视科技发展有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN103813153B (zh) * 2014-01-27 2015-12-30 万象三维视觉科技(北京)有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN112868226A (zh) * 2018-08-24 2021-05-28 三维媒体有限公司 适用于具有主导眼的观察者的三维显示器
CN112868226B (zh) * 2018-08-24 2023-07-07 三维媒体有限公司 适用于具有主导眼的观察者的三维显示器

Also Published As

Publication number Publication date
EP2717583A1 (en) 2014-04-09
US20140028670A1 (en) 2014-01-30
RU2615330C2 (ru) 2017-04-04
KR20140022861A (ko) 2014-02-25
JP2013008001A (ja) 2013-01-10
JP6050941B2 (ja) 2016-12-21
US9842570B2 (en) 2017-12-12
KR20190067253A (ko) 2019-06-14
CN103548346B (zh) 2016-01-20
KR102103681B1 (ko) 2020-04-22
RU2013151418A (ru) 2015-05-27
EP2717583A4 (en) 2014-12-10
EP2717583B1 (en) 2017-11-01
CN103548346A (zh) 2014-01-29

Similar Documents

Publication Publication Date Title
JP5874197B2 (ja) 表示装置および方法、並びにプログラム
JP6050941B2 (ja) 表示装置および方法、並びにプログラム
JP5924046B2 (ja) 表示装置および方法、情報処理装置および方法、並びにプログラム
US8154799B2 (en) 2D/3D switchable autostereoscopic display apparatus and method
US8780013B2 (en) Display device and method
WO2011125368A1 (ja) 立体画像表示装置、表示システム、駆動方法、駆動装置、表示制御方法、表示制御装置、プログラム、およびコンピュータ読み取り可能な記録媒体
US9253479B2 (en) Method and apparatus for displaying partial 3D image in 2D image display area
US9509984B2 (en) Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas
MX2013010174A (es) Dispositivo de visualizacion de imagenes de multiples puntos de vision.
JP2010164852A (ja) 立体画像表示装置、立体画像表示方法
JP2013050538A (ja) 表示装置および電子機器
JPH0678342A (ja) 立体表示装置
JP2011186224A5 (ja)
US9019324B2 (en) Display apparatus and electronic device
JP2017520968A (ja) ディスプレイのための駆動値の生成
KR20150065056A (ko) 영상 표시 장치
JP2012104375A (ja) 表示装置およびバックライト装置
JP2019154008A (ja) 立体画像表示装置、液晶ディスプレイの表示方法、および液晶ディスプレイのプログラム
JP2013050539A (ja) 表示装置および電子機器
EP2737709B1 (en) Autostereoscopic display system
JP5924047B2 (ja) 表示装置および方法、並びにプログラム
JP2013192060A (ja) 表示装置および情報処理方法、並びにプログラム
JP2012203050A (ja) 立体表示装置並びに信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789096

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14110486

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012789096

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012789096

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20137029064

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2013151418

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE