WO2012147482A1 - 立体画像表示装置および立体画像表示方法 - Google Patents

立体画像表示装置および立体画像表示方法 Download PDF

Info

Publication number
WO2012147482A1
WO2012147482A1 PCT/JP2012/059311 JP2012059311W WO2012147482A1 WO 2012147482 A1 WO2012147482 A1 WO 2012147482A1 JP 2012059311 W JP2012059311 W JP 2012059311W WO 2012147482 A1 WO2012147482 A1 WO 2012147482A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
stereoscopic image
display device
image display
unit
Prior art date
Application number
PCT/JP2012/059311
Other languages
English (en)
French (fr)
Inventor
永雄 服部
山本 健一郎
久雄 熊井
郁子 椿
幹生 瀬戸
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012147482A1 publication Critical patent/WO2012147482A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis

Definitions

  • the present invention relates to a technique for displaying a stereoscopic image.
  • the binocular distance of the observer is one of the major factors that determine the parallax range of a stereoscopic image suitable for stereoscopic viewing. This means that the appropriate parallax range varies from observer to observer.
  • 3D sickness This phenomenon is generally called “3D sickness” and is said to be caused by a discrepancy with the sense of depth perceived in the real world.
  • Patent Document 1 a display device that presents a viewpoint image according to the binocular distance of the observer is disclosed in Patent Document 1 below.
  • an HMD unit including two first and second imaging units and two display units is provided, and the first imaging unit is an observer who wears the HMD unit on the head.
  • the second imaging unit captures an image of the real space corresponding to the left eye of the observer (a real space image for the left eye). It is configured to take an image.
  • An object of the present invention is to provide a stereoscopic image generation technique and a display technique that can simultaneously present a stereoscopic image suitable for a plurality of observers and that do not require a large display device.
  • a display control unit that performs display control for sequentially displaying three or more images in time division, a synchronization unit that outputs a synchronization signal in synchronization with the control of the display control unit, A receiving unit that receives the synchronization signal from the synchronization unit and operates in synchronization with the display control unit, and selectively presents the right eye and the left eye from the three or more images; and
  • the blocking unit has a function of selecting a set of images to be presented to the right eye and the left eye from the three or more images according to a preset setting value, and a stereoscopic image display device is provided.
  • a set of images presented to the right eye and the left eye can be selected by a time-division method, and the same stereoscopic image is displayed according to the shielding and opening operation of the blocking unit.
  • Different images suitable for each of a plurality of observers can be presented. That is, the first observer uses the first shielding part, and a set of images presented to the right eye and the left eye is selected according to the set value set in the first shielding part, and the first observer is selected.
  • the second observer uses, for example, the second shielding part, and the set of images presented to the right eye and the left eye according to the set value set in the second shielding part (same) (Or different) is selected and presented to the second observer.
  • the set value set in the second shielding part (same) (Or different) is selected and presented to the second observer.
  • the three or more images are images obtained by capturing subjects from different viewpoints, and a combination of the three or more images is generated to generate a set of images to be presented to two or more sets of right and left eyes. And It is possible to present an image suitable for each user with different preferable parallaxes.
  • the three or more images are characterized by comprising images with different lateral parallaxes. As the three or more different images, images with different parallax can be presented to the user.
  • the set of images presented to the right eye and the left eye is an image realized by a combination of the three or more images, and at least one of the three or more images is presented to the plurality of right eyes and left eyes. It is characterized by being incorporated into a set of images. It is possible to reduce the constituent images of images with parallax.
  • the set of images to be presented to the right eye and the left eye is selected from images including images for two-dimensional display in addition to the three or more images.
  • a two-dimensional image can also be presented to the user. For example, it is possible to recover eye fatigue by presenting a planar image.
  • the display control unit displays the display target depending on time according to the display timing when the display control is performed in time division.
  • the image is adjusted in position.
  • a moving display object can be displayed without a sense of incongruity.
  • the shielding unit is configured to select a set of images to be presented to the right eye and the left eye from the three or more images according to the eye width of the user who uses the shielding unit.
  • a selection corresponding to glasses with a fixed width can be made without “detecting” the eye width. That is, the pair of glasses and images has a one-to-one correspondence, and the user can select an image by selecting the glasses.
  • a plurality of types of the shielding parts are prepared according to the eye width of the user who uses the shielding part.
  • the user can select glasses according to the eye width of the user and present a suitable stereoscopic image.
  • the shielding portion has a structure in which a width can be changed, and a set of images presented to the right eye and the left eye is selected from the three or more images according to the width after the shielding portion is changed. .
  • a suitable stereoscopic image can be presented according to the eye width of the user.
  • the shielding unit selects a set of images to be presented to the right eye and the left eye from the three or more images according to the height of the shielding unit.
  • a suitable stereoscopic image can be presented in accordance with the height (height) that is substantially proportional to the user's eye width.
  • the shielding part has a structure in which the height can be changed, and a set of images presented to the right eye and the left eye is selected from the three or more images according to the height of the shielding part.
  • a stereoscopic image can be presented according to the height proportional to the user's eye width.
  • the observation window is formed in the shielding portion so that the observation can be made only from a certain height range, and the height of the observation window portion can be adjusted.
  • the different viewpoints are set in association with the types of the shielding parts having different widths or heights.
  • An appropriate viewpoint can be easily set and changed by adjusting the width or height of the shielding part or replacing the shielding part.
  • the shielding unit to be used is provided separately from the main body so that a user can select it. Different types of shields can be added or changed as appropriate.
  • a shielding part type acquisition unit for acquiring the type of the shielding part is provided.
  • the device can automatically recognize the type of the shielding part currently used, and provide right and left images corresponding to the type.
  • a shielding part type holding part for holding the type of the shielding part is further provided.
  • the settings can be saved, and left and right images suitable for that can be presented.
  • the shielding part is a glasses type. Can be worn without a sense of incongruity.
  • the shield is a helmet type. Dropping can be prevented.
  • the shielding part is a surface type covering the face. By covering the face, stray light can be reduced.
  • the synchronization signal includes a signal indicating correspondence between the three or more images and a set value set in the blocking unit.
  • the degree of freedom of display increases.
  • the synchronization signal is output by infrared rays. This can be realized without using connection lines.
  • the synchronization signal is output by radio waves. This can be realized even if the synchronization signal is not visible.
  • An image adjustment unit is further provided, and the parallax is adjusted by relatively shifting the entire or part of the screen area of the three or more images at least in the horizontal direction.
  • the parallax can be adjusted.
  • the image adjustment unit generates an image that can be regarded as viewed from the different viewpoints by adjusting the three or more images.
  • a viewpoint image that has not been input can be generated.
  • a stereoscopic image display device that can simultaneously present a stereoscopic image suitable for a plurality of observers and that does not require a large display device.
  • FIG. 1 It is a figure which shows a mode that the combination of six types of different viewpoint images can be obtained from the image of 4 viewpoints (V11-V14) by setting the distance between viewpoints appropriately. It is a figure which shows the example arrange
  • FIG. 1 is a functional block diagram illustrating a configuration example of a stereoscopic image display apparatus according to the present embodiment.
  • the stereoscopic image display device according to the present embodiment has an input unit 10 that receives image data, and display data that can be displayed in 3D by processing the input image data (hereinafter, “stereoscopic image”).
  • 3D image processing unit 100 that performs image processing for generating data, a parallax adjustment unit (1) 101 that adjusts the parallax of the image, and a display control unit that performs display control by aligning the image with the display unit 102, a display unit 103 that displays an image, a system control unit 104 that controls the entire system, a user input unit 105 that an observer inputs, and a glasses synchronization unit 106 that synchronizes shutter glasses. Further, as the system, shutter glasses 107 worn by an observer are used.
  • the configuration excluding the display unit 103 corresponds to a stereoscopic image generation unit that generates stereoscopic image data. That is, the stereoscopic image display apparatus is provided with a display unit in addition to the stereoscopic image generation apparatus (the same applies hereinafter).
  • FIG. 2 is a diagram illustrating a configuration example of the parallax adjustment unit (1) 101 in FIG.
  • the parallax adjustment unit (1) 101 further includes a communication / control unit 1011 and a parallax calculation unit 1012, for example, first to third shift processing units 1013a to 1013c.
  • FIG. 3 is a diagram illustrating a configuration example of the shutter glasses 107.
  • the shutter glasses 107 include a glasses synchronization receiving unit 1071, a shutter control unit 1072, a width specifying unit 1073, a first shutter unit 1074a, and a second shutter unit 1074b.
  • the first shutter unit 1074a and the second shutter unit 1074b correspond to a right-eye shutter and a left-eye shutter, respectively.
  • step S1 the image data input to the stereoscopic image display device via the input unit 10 is converted into left-eye image data and right-eye image data in the stereoscopic image processing unit 100 according to the input format. Expanded (step S2).
  • the input image data may be a source such as a broadcast wave, an electronic read from a recording medium, or a communication acquired. That is, the input unit 10 may be a semiconductor memory reading device, or may have a communication function with an optical disk or magnetic disk reading device, a radio wave receiver, or a network.
  • any data can be used as long as it can input data that can be interpreted as a stereoscopic image.
  • the right-eye image data and the left-eye image data may be created from a single piece of image data. That is, it may be a multi-viewpoint image synthesized from image data and depth data or parallax data, or a multi-viewpoint image created by estimating depth information. It may be a multi-view image for multi-view display. If there is additional information in the input image data, the additional information is extracted and transmitted to the system control unit.
  • the additional data may be parameters at the time of shooting, parallax information, parallax amount correction information, depth data, and the like.
  • the developed left-eye image data and right-eye image data are sent to the parallax adjustment unit 101 and recombined into a plurality of viewpoint images (step S3).
  • a communication / control unit 1011 that communicates with the system control unit 104 controls each unit.
  • the input image data is input to the parallax calculation unit 1012, and the parallax is calculated from the shift between corresponding points of the left and right images (step S4-1), and the calculated parallax data is system-controlled via the communication / control unit 1011. Sent to the unit 104.
  • depth data is input or when depth data is created, it may be used as parallax of image data.
  • the data to be sent may be, for example, the maximum amount and the minimum amount of parallax in the image.
  • the disparity on the far side of the display screen is expressed as a positive value, and the near side is expressed as a negative value, so the maximum value of the disparity is the disparity of the farthest point on the screen, and the minimum value is the most observer on the screen. Represents the parallax of a point close to.
  • the system control unit 104 obtains an image shift amount appropriate for each viewpoint image based on the received parallax data and the set viewpoint position (step S4-2), and the image shift processing units 1013a to 1013c receive images. Send the shift amount.
  • each viewpoint position may be set in advance so that the distance between the viewpoint positions is, for example, 6.5 cm, 6 cm, 5.5 cm, and 4 cm in accordance with all types of prepared shutter glasses.
  • the distance between the viewpoint positions may be set to a fixed value such as 6 cm, 4 cm, 2 cm, or 0 cm in association with the four levels of strong, medium and weak.
  • the shutter glasses are provided with a plurality of types (types) as functions of the viewpoint position depending on attributes such as the interval between the viewpoint positions, and the user can easily understand the types of the shutter glasses. It is sufficient that attributes such as the viewpoint position interval are described.
  • the type of shutter glasses 107 used in combination for example, it may be set in advance at the time of shipment, but the user operates the user input unit 105 to select the shutter glasses to be used, and the corresponding viewpoint position May be set. The user may select the viewpoint position according to his / her preference. When the setting of the viewpoint position is changed, the type (attribute) corresponding to the setting change may be described in the shutter glasses.
  • the system control unit 104 may recognize the shutter glasses 107 and automatically set the viewpoint position.
  • the shutter glasses 107 and the system control unit 104 perform two-way communication, or include a marker for each type of the shutter glasses 107 and acquire the type of the shutter glasses 107 by image recognition from the display unit side. realizable. If the type of the shutter glasses 107 selected by these is stored in the system control unit 104, it is not necessary to perform the same setting every time the shutter glasses are used, and if the shutter glasses are already set, a new setting is made. An image can be observed using different types of shutter glasses.
  • the system control unit 104 In order for the system control unit 104 to recognize the type (attribute) of the shutter glasses 107, for example, a storage unit that stores the currently set viewpoint position is provided in the shutter glasses 104, and reading from the storage unit is performed. Thus, the system control unit 104 can recognize the type of the shutter glasses 107, and generate and present an appropriate image (an image in which parallax or the like is adjusted depending on the viewpoint) according to the type.
  • the image shift processing units 1013a to 1013c receive the instruction from the system control unit 104 via the communication / control unit 1011 and perform a process of shifting the entire right-eye image to the left and right to adjust the parallax (step S4- 3).
  • the left and right eye image data whose parallax has been adjusted are each output from the parallax adjusting unit 101.
  • the parallax is adjusted by shifting only the right-eye image, but the left-eye image may be shifted or both the left-right image may be shifted.
  • the parallax may be adjusted by relatively shifting the corresponding points of the plurality of viewpoint images to the left and right.
  • the image shift amount may be a value calculated in advance without using the calculation result by the parallax calculation unit 1012.
  • the parallax calculation unit 1012 can be omitted, and the processing amount of the system control unit 104 can be reduced.
  • the parallax range may be attached to the image data or may be determined by agreement.
  • the plurality of viewpoint images whose parallax has been adjusted are sent to the display control unit 102 (step S4-4).
  • the display control unit 102 performs display control in accordance with the display unit 103 and sends a signal to the glasses synchronization unit 106 (step S5).
  • the glasses synchronization unit 106 can send a synchronization signal to the shutter glasses 107 worn by the observer (step S6) and perform synchronization processing with the display unit 103.
  • display control is performed.
  • the unit 102 sequentially outputs four viewpoint images to the display unit 103.
  • the output frequency is, for example, 60 images each second corresponding to each viewpoint.
  • the display unit 103 displays the image sent from the display control unit 102 at any time.
  • the display unit 103 and the shutter glasses 107 are synchronized, and the left-eye shutter is displayed on one of the four viewpoint images sequentially displayed on the display unit 103.
  • the corresponding viewpoint images are presented to the left eye and the right eye to realize stereoscopic viewing.
  • the shutter control unit 1072 controls the timing of the shutter open / close signal from the synchronization signal received by the glasses synchronization receiving unit 1071 and the width designation signal obtained from the width designation unit 1073. Then, by driving the first shutter unit 1074a and the second shutter unit 1074b, the viewpoint image is presented to the observer in synchronization with the display unit 103.
  • the width designation unit 1073 records a width designation signal that is used in advance to select a parallax amount corresponding to the width of the shutter glasses 107, and outputs the width designation signal to the shutter control unit 1072. For example, open and close the left and right shutters, display the left eye image when the left shutter is open and the right shutter is closed, and the right eye image when the left shutter is closed and the right shutter is open. A stereoscopic view can be realized by the display.
  • the burden on the observer can be reduced by transmitting the synchronization signal wirelessly without connecting by wire.
  • the glasses synchronization unit 106 is provided at a position where the viewer can see the display screen by providing the glasses synchronization unit 106 at a position where the viewer can observe the display screen.
  • the shutter glasses 107 can receive the synchronization signal.
  • the synchronization signal is transmitted by radio waves, it is not necessary to provide the glasses synchronization unit 106 at a position that can be seen by the observer near the display unit 103, and the shutter glasses 107 do not need to face the glasses synchronization unit 106. Synchronization is possible even if there is an obstacle between 106 and the shutter glasses 107.
  • FIG. 6 is a top view of the observer and the display.
  • FIG. 6A shows a normal two-dimensional display state, in which a corresponding point between the right-eye image and the left-eye image is at the same position on the display (display surface) when displaying a stereoscopic image. In this case, this point is perceived as being on the display.
  • FIG. 6B shows a state where the corresponding points of the right-eye image and the left-eye image are shifted on the display to the right (P 2 ) for the right-eye image and to the left (P 1 ) for the left-eye image. In this state, the observer perceives this point deeper than the display surface (display surface) (P 4 ).
  • FIG. 6C shows a state in which the corresponding points of the right-eye image and the left-eye image are shifted on the display (display surface), the right-eye image is shifted to the left, and the left-eye image is shifted to the right. In this state, the observer perceives this point in front of the display surface.
  • FIG. 6D is a diagram summarizing these.
  • the corresponding points between the right eye image and the left eye image are displayed with the right eye image shifted to the right, the left eye image shifted to the left, and the distance between the corresponding points is the binocular distance. If the distance between the corresponding points (P 8 -P 9 ) exceeds the binocular distance, the line of sight does not point in the divergent direction and cannot be fused.
  • the corresponding point of the right eye image and the left eye image, the right-eye image P 8 on the left in the state where the left-eye image P 9 is greatly shifted to the right, the line of sight becomes extreme cross-eyed state, Unable to merge.
  • the depth range in which stereoscopic viewing can be comfortably performed that is, the comfortable fusion range shown in FIG.
  • the left and right eye images are relatively shifted to the left and right to increase or decrease the shift of corresponding points in the left and right eye images. , You can be in the foreground.
  • the eyeball in a state where the amount of parallax exceeds the binocular distance, the eyeball is not directed in the divergent direction and stereoscopic viewing is impossible, or the eyeball moves in the divergent direction and moves the exotropia. It is not preferable because it may cause a dangerous situation such as inducing. Therefore, it is necessary to perform processing in accordance with the observer so that the maximum parallax value in the screen does not exceed the binocular distance. Specifically, the maximum value of the parallax does not exceed the binocular distance by relatively shifting one or both of the stereoscopic images to the left and right.
  • a stereoscopic image corresponding to a plurality of types of binocular distances is created, and an observer selects a set of viewpoint images suitable for the observer from a plurality of viewpoint images constituting the plurality of types of stereoscopic images.
  • a safe stereoscopic view can be realized.
  • the example of the image corresponding to several binocular distance was shown here, the image etc. from which the convergence angle differs with the same binocular distance may be used.
  • shutter glasses are shown.
  • stereoscopic viewing is enabled by selecting an appropriate combination from a plurality of viewpoint images and displaying a viewpoint image with an appropriate amount of parallax in synchronization with the synchronization signal sent from the glasses synchronization unit 106.
  • the human binocular distance is approximately proportional to the width of the glasses, by limiting the amount of parallax that can be selected according to the width of the glasses, stereoscopic viewing can be safely performed according to the observer. be able to.
  • eyeglasses suitable for the width of a child's face are prepared as children's glasses, and a viewpoint image whose maximum parallax does not exceed about 5 cm, which is equivalent to the binocular distance of children, is received.
  • a viewpoint image whose maximum parallax does not exceed about 5 cm, which is equivalent to the binocular distance of children is received.
  • several types of glasses for adults are prepared according to the width of the face, and viewpoint images are received according to the assumed binocular distance.
  • an adult's binocular distance is 6.5 cm on average
  • the maximum parallax value does not necessarily have to be a binocular distance, and may be a value equal to or smaller than the binocular distance.
  • an image with particularly reduced parallax or glasses for displaying only a two-dimensional image may be prepared.
  • the amount of parallax is not necessarily fixed for each pair of glasses, and the amount of parallax may be freely selected within a range that does not exceed the assumed binocular distance. In this case, the set value of the above-described width specifying unit 1073 is changed.
  • the width may be variable according to the user's eye width. This is shown in FIG. As shown in FIG. 7A, by changing the length of the temple 107b of the eyeglass frame 107a, the distance between the lenses can be made variable according to the eye width of the user. That is, in the glasses of FIG. 7B compared to FIG. 7A, the temple 107b is elongated by a mechanical mechanism, and thus the width of the glasses 107 can be changed.
  • the display corresponding to the eye width is displayed. Control is possible.
  • the angle of the vine (not shown) of the glasses may have the same function as changing the width.
  • the viewpoint image corresponding to the parallax to be selected may be selected in accordance with the binocular distance, or may be arbitrarily selected by the observer within a range not exceeding the binocular distance.
  • the switch used for selection is a rotary type or a slide type, there is less risk of erroneous operation when handling glasses compared to a push-type switch, and the selection range is mechanically limited with a variable width mechanism. It becomes easy to realize the mechanism simultaneously.
  • the position of a shutter (blocking means) such as glasses may be fixed so that observation can be made from the blocking means like a viewing window.
  • a combination of images to be presented may be selected according to the height of the blocking means.
  • the height may be variable, and a combination of presented images corresponding to the height may be selected.
  • the distance between human eyes is roughly proportional to height. Therefore, by associating the height of the blocking means with the height, for example, the blocking means located at a low position receives a viewpoint image whose maximum parallax does not exceed approximately 5 cm, which is equivalent to a child's binocular distance. Also good.
  • the shutter glasses 107 select a parallax by selecting a specific set of images from the viewpoint images displayed in time division.
  • four viewpoint images may be used as two different sets of left and right images.
  • different viewpoint images may be obtained by using each viewpoint image in common and selecting each viewpoint image combination. it can.
  • the degree of freedom of combination is increased. Can be improved.
  • viewpoint images corresponding to multiple binocular distances can be obtained. That is, a stereoscopic image with a parallax amount corresponding to the assumed binocular distance can be obtained, and a stereoscopic image can be presented to a plurality of observers with an appropriate parallax amount from a combination of respective viewpoint images. Can simultaneously enjoy the same display screen with different parallaxes.
  • the shutter glasses used by each observer select an appropriate combination of viewpoint images, the number of observers can be increased as much as possible for one display device.
  • the shutter glasses worn by each observer are not significantly different from general sunglasses and the visual discomfort is not so great that it is unlikely to hinder communication between the observers.
  • the image is moved left and right due to the influence of parallax adjustment. Accordingly, when the same image is observed with the left and right eyes among the images that have undergone the shifting process, parallax is not added, so that the image is observed as a two-dimensional image. However, the image is preferably moved to the left and right according to the shifting process. Absent. Thus, by presenting the image that has not undergone the processing of the shift processing unit 1013 to both eyes as a two-dimensional display image, the input image itself can be satisfactorily observed as a two-dimensional image.
  • the set of viewpoint images selected by the shutter glasses may include a combination that presents the same left and right viewpoint images.
  • an image different from the image for stereoscopic display as an image to be displayed in two dimensions. Since a stereoscopic image is produced on the premise that it is observed with both eyes, when one of the stereoscopic images is extracted, it may not always be an appropriate viewpoint. This is particularly noticeable when the distance to the subject is close to the baseline length. In order to avoid this phenomenon, if an image to be displayed two-dimensionally is prepared, a good two-dimensional image can be presented.
  • a plurality of parallaxes can be generated by the shift process, and thus there is an advantage that a stereoscopic image suitable for a plurality of observers can be presented simultaneously.
  • FIG. 1 A configuration example of the stereoscopic image display apparatus according to the present embodiment is shown in FIG. 1 as in the first embodiment.
  • the stereoscopic image display apparatus according to the present embodiment has an input unit 10 and a stereoscopic image processing unit 100 that processes input image data and performs image processing for generating stereoscopic image data.
  • a parallax adjustment unit 101 that adjusts the parallax of the image, a display control unit 102 that performs display control by aligning the image with the display unit, a display unit 103 that displays an image, a system control unit 104 that controls the entire system, A user input unit 105 for input by an observer and a glasses synchronization unit 106 for synchronizing shutter glasses are provided. Further, the system includes shutter glasses 107 worn by an observer.
  • FIG. 8 is a diagram illustrating a configuration example of the parallax adjustment unit 101 according to the present embodiment.
  • the parallax adjustment unit 101 includes a communication / control unit 1011, a parallax calculation unit 1012, a parallax adjustment unit 1014, a shielding compensation unit 1015, and first to fourth image processing units 1016a to 1016d.
  • the configuration of the shutter glasses 107 is as shown in the first embodiment and FIG.
  • FIG. 9 is a flowchart showing the flow of processing according to the present embodiment. Details of step S4 in FIG. 4 will be described.
  • the image data input to the stereoscopic image display device via the input unit 10 is developed into left-eye image data and right-eye image data in the stereoscopic image processing unit 100 according to the input format.
  • the additional information is extracted and transmitted to the system control unit 104.
  • the input image data may be any data such as one based on a broadcast wave, one read electronically from a recording medium, or one obtained via communication.
  • the right-eye image data and the left-eye image data may be created from a single piece of image data.
  • it may be a multi-viewpoint image synthesized from image data and depth data or parallax data, or a multi-viewpoint image created by estimating depth information.
  • it may be a multi-viewpoint image input as multi-viewpoint image data.
  • the developed left-eye image data and right-eye image data are sent to the parallax adjustment unit 101 and recombined into a plurality of viewpoint images.
  • a communication / control unit 1011 that communicates with the system control unit 104 controls each unit.
  • the input image data is input to the parallax calculation unit 1012, and the parallax is calculated from the shift between corresponding points of the left and right images (step S4-11), and the calculated parallax data is sent to the parallax adjustment unit (2) 1014 (step S4-11).
  • the data to be sent may be a so-called parallax map representing parallax for each pixel, for example.
  • the parallax adjustment unit (2) 1014 inside the parallax adjustment unit 101 selects parameters necessary for system control from the received parallax data (step S4-13), and performs system control via the communication control unit 1011. To the unit 104.
  • the parameters to be transmitted may be, for example, the maximum and minimum values of parallax within the screen.
  • the system control unit 104 obtains an appropriate correction parameter for each viewpoint image based on the received parameter (step S4-14), and transmits the correction parameter to the parallax adjustment unit (2) 1014.
  • the parallax adjustment unit (2) 1014 calculates the received correction parameter to the parallax data received from the parallax calculation unit 1012 and calculates a plurality of corrected parallax data corresponding to the assumed viewpoint positions, respectively (step). S4-15).
  • the plurality of corrected parallax data is output to the shielding compensation unit 1015 and the image processing unit 1016 corresponding to each viewpoint image (step S4-16).
  • the parallax data at this time is also preferably a so-called parallax map.
  • the occlusion compensation unit 1015 when the image is re-synthesized based on the plurality of parallax data corrected by the parallax adjustment unit (2) 1014, the occlusion relation is changed by changing the viewpoint, and the image data is related to a portion where no image data exists To generate compensation image data to be compensated (step S4-17).
  • the compensation image data can be generated using, for example, images of other viewpoints having different shielding relations among the input images.
  • a plurality of pieces of compensation image data are output corresponding to the number of image processing units 1016.
  • the first to fourth image processing units 1016a to 1016d use the plurality of corrected parallax data and compensated image data to re-synthesize new viewpoint images that are respectively matched to the assumed viewpoint positions (steps). S4-18). More specifically, the pixel data of the target region is moved based on the plurality of corrected parallax data, and the pixel data of the corresponding portion of the compensation image data is supplemented in the region where the corresponding pixel disappears due to the movement. . In this way, a viewpoint image that is not included in the input stereoscopic data is generated.
  • the left and right images are input to the image processing unit 1016, but one of the right and left images may be input. In this way, it is possible to re-synthesize the viewpoint images whose camera positions have been virtually adjusted, generate a plurality of viewpoint images, and generate images corresponding to a plurality of binocular distances.
  • the generated plurality of viewpoint images are sent to the display control unit 102.
  • the display control unit 102 performs display control in accordance with the display unit 103 and sends a signal to the glasses synchronization unit 106.
  • the glasses synchronization unit 106 sends a synchronization signal to the shutter glasses 107 worn by the observer, and synchronization processing with the display unit 103 is performed.
  • the control unit 102 sequentially outputs four viewpoint images to the display unit 103.
  • the output frequency is, for example, 60 images each second corresponding to each viewpoint.
  • the display unit 103 displays the image sent from the display control unit 102 at any time.
  • the display unit 103 and the shutter glasses 107 are synchronized, and any one of four viewpoint images sequentially displayed on the display unit 103 is displayed.
  • the shutter control unit 1072 controls the timing of the shutter open / close signal based on the synchronization signal received by the glasses synchronization receiving unit 1071 and the width designation signal obtained from the width designation unit 1073.
  • a viewpoint image is presented to the observer in synchronization with the display unit 103. It is assumed that a width designation signal for selecting a parallax amount corresponding to the width of the glasses is recorded in the width designation unit 1073 in advance.
  • the parallax is caused by the relative shift between the left and right viewpoints (V1, V2) and (V3, V4). If two images with appropriate viewpoint shift amounts are extracted and used as the right-eye image and the left-eye image, respectively, the parallax amount can be selected, and a plurality of stereoscopic images can be obtained according to the combination of the viewpoint images. This is shown in FIG. In this case, by appropriately setting the distance between the viewpoints, a combination of six different viewpoint images can be obtained from the images of the four viewpoints (V11 to V14) ( 4 C 2 ), and the viewpoint images that are the elements Can be reduced. This is shown in FIG. As shown in FIG. 12, a combination of six different viewpoint images with distances between viewpoints of 1 cm, 1.5 cm, 2.5 cm, 4 cm, 5 cm, and 6.5 cm can be obtained. Needless to say, the more viewpoint images that are elements, the more combinations can be obtained.
  • the shutter glasses 107 select and display a combination that matches the allowable parallax range set for each shutter glasses 107 from the plurality of viewpoint images. Since the distance between human eyes is roughly proportional to the width of the glasses, by limiting the amount of parallax that can be selected according to the width of the glasses, stereoscopic viewing can be safely performed according to the observer. .
  • a plurality of stereoscopic images corresponding to a plurality of binocular distances can be obtained. That is, a stereoscopic image with a parallax amount corresponding to the assumed binocular distance can be obtained, and a stereoscopic image can be presented to a plurality of observers with an appropriate parallax amount from a combination of the respective viewpoint images.
  • images may be acquired using an actual camera for four viewpoints.
  • the arrangement of the viewpoints may be arranged so that the optical axes are parallel or arranged so that the optical axes are converging, or even if the viewpoints are arranged in a horizontal row so that the distance to the convergence point of the optical axis is equidistant. What you did is fine.
  • FIG. 13 is a diagram showing an example in which the convergence point of the optical axis is equidistant from each of the cameras C1 to C4 among the above examples. Although an example with four viewpoints is shown, the number of viewpoints is not limited to four, and should be adjusted according to the frame rate of the image and the response speed of the display device.
  • a viewpoint image to be displayed as a two-dimensional image is added, and the same image is displayed as a two-dimensional image with the left and right eyes. It is even better to be able to observe. Since a stereoscopic image is produced on the premise of observing with both eyes, when one of the stereoscopic images is extracted, it may not always be an appropriate viewpoint. This is particularly noticeable when the distance to the subject is close to the baseline length. In addition, it is possible to avoid image alteration due to viewpoint conversion. By the two-dimensional display, it is possible to safely observe an image including an observer who is not suitable for viewing a stereoscopic image due to the constitution and physical condition. Similarly, a two-dimensional image can be presented using shutter glasses.
  • the system has been described by taking a parallax map representing parallax for each pixel as an example.
  • the parallax map for a reduced image is not necessarily required for each pixel.
  • the parallax map having a low resolution may be used as it is, but a parallax map having a higher resolution by filter processing or the like may be used.
  • FIG. 14 is a functional block showing a configuration example of the stereoscopic image display apparatus according to the present embodiment.
  • the stereoscopic image display apparatus according to the present embodiment includes a user operation unit 20, a game control unit 201, a display control unit 202, a display unit 203, and a glasses synchronization unit 206. Furthermore, the user wears shutter glasses 207.
  • the game control unit 201 further includes a system control unit 2011, a program storage unit 2012, and a stereoscopic image generation unit 2013.
  • the user operation unit 20 includes a game controller
  • the system control unit 2011 includes a CPU, a memory, a user operation unit, an I / O with a program storage unit, a stereoscopic image generation unit, a display control unit, and the like.
  • the storage unit 2012 may be configured by storing game software or the like on a hard disk or an optical disk
  • the stereoscopic image generation unit 2013 may be configured by a GPU (Graphic Processing Unit) and a memory.
  • the display unit 203 can be configured with a liquid crystal display, a plasma display, an organic EL display, or the like, but is preferably a display device with a high response speed. If an LED display or the like is used, a high-speed response can be obtained.
  • the glasses synchronization unit 206 sends a synchronization signal to the shutter glasses 207 by infrared rays or radio waves. There may be a plurality of user operation units 20 and shutter glasses 207.
  • the configuration of the shutter glasses 207 is the same as the configuration of the shutter glasses 107 shown in the first embodiment and FIG.
  • FIG. 15 is a flowchart showing the flow of processing according to the present embodiment.
  • the system control unit 2011 reads the program from the program storage unit 2012 and executes it.
  • the program may be one that reads an optical disk, one that reads a hard disk, or the like. Of course, even a solid-state memory may be used.
  • the program may be stored in the hard disk in any form such as a method of reading from the optical disk, a method of acquiring by communication, and a method of reading from the solid-state memory.
  • the system control unit 2011 outputs a stereoscopic image model to the stereoscopic image generation unit 2013.
  • the three-dimensional image model represents the shape and arrangement of an object to be displayed, the position of a light source serving as illumination, a virtual viewpoint position, and the like on three-dimensional coordinates.
  • the three-dimensional coordinates may be an orthogonal coordinate system or a polar coordinate system.
  • the pattern and state of the surface of the object to be displayed may be described.
  • the stereoscopic image generation unit 2013 expands the stereoscopic image model to generate individual viewpoint images (step S21). More specifically, a plurality of viewpoint images are obtained by generating a diagram in which an arrangement diagram of an object included in the stereoscopic image model is viewed from the positions of a plurality of virtual cameras included in the stereoscopic image model.
  • the positions of the plurality of virtual cameras are positions corresponding to a plurality of viewpoints, for example, as shown in FIG. FIG. 12 shows how six stereoscopic images can be obtained from four viewpoint images by four cameras V11 to V14.
  • the positions of the plurality of virtual cameras are determined by the assumed binocular distance.
  • the assumed binocular distance may be input by the user or may be set in advance in the program. When the user inputs, a stereoscopic image corresponding to the binocular distance according to the user's preference can be presented. On the other hand, when a preset program is used, an image suitable for the scene assumed by the program can be presented.
  • the plurality of viewpoint images generated in the stereoscopic image generation unit 2013 are sent to the display control unit 202 (step S22).
  • the display control unit 202 controls the display according to the display unit 203 and simultaneously sends a synchronization signal to the glasses synchronization unit 206.
  • the glasses synchronization unit 206 sends a synchronization signal to the shutter glasses 207 worn by the user, and the shutter glasses 207 performs a synchronization process with the display unit 203.
  • the display control unit 202 sequentially outputs four viewpoint images to the display unit 203 (step S23).
  • the output frequency is, for example, 60 images each second corresponding to each viewpoint.
  • the display unit 203 displays the image sent from the display control unit 202 at any time, but the display unit 203 and the shutter glasses 207 are synchronized, and the left-eye image is displayed on any of the four viewpoint images sequentially displayed on the display unit 203.
  • the corresponding viewpoint images are displayed on the left eye and the right eye, respectively, thereby realizing stereoscopic viewing (step S24).
  • the stereoscopic image generation unit 2013 generates a time axis for each viewpoint image in consideration of the timing displayed on the display unit 203 in actual time division. Smooth movement along is perceived and even better.
  • FIG. FIG. 16 shows a point-like object D being fired from the cylindrical object B.
  • the appearance of the cylindrical object B changes in each frame according to the viewpoint, and the display position of the dot-like object D changes as time passes.
  • the appearance of the point-like object D also changes in accordance with the viewpoint, since it is small in FIG. 16, the viewpoint change is omitted in the representation of the figure.
  • An image along the time axis may be generated by interpolation of time-series images.
  • the shutter glasses 207 selects and displays a combination that matches the allowable parallax range set for each shutter glasses 207 from the plurality of viewpoint images. Since the human binocular distance is roughly proportional to the width of the glasses, by limiting the amount of parallax that can be selected according to the width of the glasses, stereoscopic viewing can be safely performed according to the user. .
  • viewpoint images corresponding to a plurality of viewpoints and binocular distances can be obtained. That is, a stereoscopic image with a parallax amount corresponding to the assumed binocular distance can be obtained, and a stereoscopic image can be presented with an appropriate parallax amount to a plurality of users from a combination of respective viewpoint images.
  • the user can simultaneously enjoy a stereoscopic display game toward the same display screen.
  • the shielding means used by each user selects an appropriate combination of viewpoint images, the number of users who observe the display on one display device can be increased as much as possible.
  • shutter glasses are used as an example of shielding means for selecting an image in synchronization with the display device.
  • the shape of the shielding means is not limited to glasses.
  • it may be a blocking means provided with a shielding element, such as a liquid crystal shutter, on a part that covers a face or a part that covers the eyes of a helmet.
  • a shielding element such as a liquid crystal shutter
  • the effect of external light from the gap between the glasses and the face when using glasses can be reduced by imitating a protective surface used for ball games or martial arts, or a helmet used for motor sports, etc.
  • a more immersive game device using a stereoscopic image display device can be configured.
  • each component device is connected by wire, but compared to glasses, the surface and helmet support the weight of the connection line, etc. The troublesomeness caused by lines can be reduced.
  • a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed.
  • the “computer system” here includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included.
  • the program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.
  • the present invention can be used for a stereoscopic image display device.
  • DESCRIPTION OF SYMBOLS 10 ... Input part, 20 ... User operation part, 100 ... Three-dimensional image processing part, 101 ... Parallax adjustment part (1), 102 ... Display control part, 103 ... Display part, 104 ... System control part, 105 ... User input part, DESCRIPTION OF SYMBOLS 106 ... Glasses synchronization part, 107 ... Shutter glasses, 107a ... Frame, 107b ... Temple, 201 ... Game control part, 202 ... Display control part, 203 ... Display part, 206 ... Glasses synchronization part, 207 ... Shutter glasses, 1011 ... Communication Control unit, 1012 ... parallax calculation unit, 1013a to 1013c ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

3つ以上の画像を時分割で順に表示する表示制御を行う表示制御部と、前記表示制御部の制御と同期して同期信号を出力する同期部と、前記同期部からの前記同期信号を受信し、前記表示制御部と同期させて動作させることにより、前記3つ以上の画像から選択的に右目および左目に画像を呈示する遮蔽部と、を備え、前記遮断部は、予め設定された設定値に従って、前記3つ以上の画像から、右目および左目に呈示する画像の組みを選択する機能を有することを特徴とする立体画像表示装置。これにより、複数の観察者に適した立体画像を同時に提示することが可能になる。

Description

立体画像表示装置および立体画像表示方法
 本発明は、立体画像を表示する技術に関するものである。
 人間は一定の間隔を持つ2つの目により得られる画像の違いから空間を把握する能力を持つ。左右の眼による異なる視点から得られる画像中の対応点のずれを視差と呼び、視差を手掛かりの一つとして対象物の位置関係を立体的に把握している。このことを利用して、右目用画像を右目に表示し、左目用画像を左目に表示する手段を設け、右目用画像、左目用画像として視差を設けた画像を生成し提示することにより立体視が可能であることが知られている。ここでは、立体視を意図して視差を設けた複数の画像を、「立体画像」と称する。
 立体視において、人間は視差に応じた両眼の光軸のなす角度、すなわち輻輳の大きさを対象物までの距離に対応付けている。従って、右目用画像を右方向に、左目用画像を左方向に相対的にずらし、視差を付けた画像を提示すると、実際の表示面より遠くに表示物を知覚させることができる。しかしながら、このときに視差をつけすぎ、観察者の目の間隔、正確には無限遠を見ている時の瞳孔間の距離を超えた視差とすると、自然界では起き得ない状態となり、立体視が不可能となるか、立体視ができたとしても人体に強い負担を強いることになる。同様に、近距離側でも極端な視差は不自然な位置関係を生じるうえ、極度な寄り目を観察者に強いることとなり、快適な立体視ができなくなる。また、視差が大きくなるほど輻輳と目の焦点の調節との乖離が大きくなり、不自然な状態となるためで、違和感を生じる。このように、立体画像の視差量が、ある一定の範囲では快適に立体視が可能であるが、視差量が大きくなると両目の画像が融合しなくなり、立体視ができなくなる。
 従って、人間が視差を手掛かりに奥行き知覚をするにあたり、観察者の両眼距離が立体視に適当な立体画像の視差範囲を決める大きな要素の一つとなる。このことは、すなわち、適切な視差範囲は観察者によって異なることを意味している。
 また、観察者によっては立体画像のもたらす奥行き感に違和感を覚え、不快感を覚えることもある。この現象は一般的に「3D酔い」などと呼ばれ、現実の世界で知覚される奥行き感との齟齬が原因といわれている。
 そこで、観察者の両眼距離に合わせて視点画像を提示する表示装置が、以下の特許文献1に示されている。特許文献1に記載の技術では、第1及び第2の2つの撮像部と2つの表示部により構成されているHMD部を設け、第1の撮像部はHMD部を頭部に装着する観察者の右目に対応する現実空間の画像(右目用現実空間画像)を撮像するものであり、第2の撮像部は、この観察者の左目に対応する現実空間の画像(左目用現実空間画像)を撮像するように構成している。
特開2006-285609号公報(キヤノンHMD)
 上記特許文献1の方法によれば、観察者の両眼距離に合わせた視点画像を提示することができる。しかしながら、観察者一人一人の頭部に特殊な表示装置を装着させる必要があり、大型の装置を頭部に取り付ける違和感や疲労感をもたらすことが避けられない。また、視界が表示装置に占有されるため、映像酔いの影響が顕著になる恐れがある。頭部を大きく覆う装置ため、観察者同士のコミュニケーションを阻害する要因ともなる。
 本発明の目的は、複数の観察者に適した立体画像を同時に提示することができ、かつ大型の表示装置を装着させる必要のない立体画像生成技術及び表示技術を提供することである。
 本発明の一観点によれば、3つ以上の画像を時分割で順に表示する表示制御を行う表示制御部と、前記表示制御部の制御と同期して同期信号を出力する同期部と、前記同期部からの前記同期信号を受信し、前記表示制御部と同期させて動作させることにより、前記3つ以上の画像から選択的に右目および左目に画像を呈示する遮蔽部と、を備え、前記遮断部は、予め設定された設定値に従って、前記3つ以上の画像から、右目および左目に呈示する画像の組みを選択する機能を有することを特徴とする立体画像表示装置が提供される。
 予め設定された設定値に従って、前記3つ以上の画像から、右目および左目に呈示する画像の組みを時分割方式により選択することができる遮断部の遮蔽及び開口動作に応じて、同じ立体画像を観察している複数の観察者のそれぞれに適した異なる画像を提示することができる。すなわち、第1の観察者は、第1の遮蔽部を用いており、その第1の遮蔽部に設定されている設定値に従って、右目および左目に呈示する画像の組みが選択されて第1の観察者に提示され、第2の観察者は、例えば第2の遮蔽部を用いており、その第2の遮蔽部に設定されている設定値に従って、右目および左目に呈示する画像の組み(同じ又は異なる)が選択されて第2の観察者に提示されるようになっている。この構成により、遮蔽部を観察者に応じて変更するだけで、同じソースからの立体画像を、それぞれの観察者に適した状態で提示することができる。
 前記3つ以上の画像は、それぞれ異なる視点から被写体をとらえた画像からなり、前記3つ以上の画像を組み合わせることにより、2組以上の右目及び左目に呈示する画像の組を生成することを特徴とする。好ましい視差が異なる、それぞれの使用者に適した画像を提示することができる。
 前記3つ以上の画像は、それぞれ異なる横方向の視差を持つ画像からなることを特徴とする。異なる3つ以上の画像として、視差の異なる画像を使用者に提示することができる。
 前記右目及び左目に呈示する画像の組は、前記3つ以上の画像の組み合わせにより実現される画像であり、前記3つ以上の画像のうちの少なくとも1つを、複数の前記右目及び左目に呈示する画像の組に組み込むことを特徴とする。視差のついた画像の構成画像を削減することができる。
 前記右目及び左目に呈示する画像の組は、前記3つ以上の画像に加えて、2次元表示のための画像を含む画像から選択されることを特徴とする。使用者に2次元画像(平面画像)も提示できる。例えば、平面画像の提示により目の疲労を回復させるようにすることが可能である。
 前記3つ以上の画像が、移動する表示対象を含む画像である場合に、前記表示制御部により、時分割で表示される制御を行う際の表示タイミングに合わせて、時間に依存して表示対象の位置が調整された画像とすることを特徴とする。移動する表示物を違和感なく表示できる。
 前記遮蔽部は、前記遮蔽部を使用する使用者の眼幅に応じて、前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする。眼幅を「検出」することなく、固定幅のメガネに対応する選択をすることができる。すなわち、メガネと画像の組は1対1対応で、使用者がメガネを選択することによって画像を選択することができる。
 前記遮蔽部は、前記遮蔽部を使用する前記使用者の眼幅に応じて、複数種類用意されていることを特徴とする。使用者の眼幅に応じてメガネをユーザが選択して、適した立体画像を提示することができる。
 前記遮蔽部は、幅が変更できる構造であり、前記遮蔽部の変更後の幅に応じて、前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする。使用者の眼幅に応じて、適した立体画像を提示することができる。
 前記遮蔽部は、前記遮蔽部の高さに応じて、前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする。使用者の眼幅と略比例する身長(高さ)に応じて、適した立体画像を提示することができる。
 前記遮蔽部は、高さが変更できる構造であり、前記遮蔽部の高さに応じて、前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする。使用者の眼幅と比例する身長に応じて立体画像を提示することができる。例えば、のぞき窓を遮蔽部において形成するようにしてある高さ範囲のみから観察できるようにし、のぞき窓の部分の高さを調整できるようにする。
 前記異なる視点を、異なる幅又は高さを有する前記遮蔽部の種類と対応付けて設定されることを特徴とする。適切な視点を、遮蔽部の幅又は高さの調整又は遮蔽部の取り替えにより簡単に設定、変更を行うことができる。
 前記用いられる前記遮蔽部は、使用者が選択することができるように、本体とは別に設けられていることを特徴とする。異なる種類の遮蔽部を、適宜、追加・変更することができる。
 前記遮蔽部の種別を取得する遮蔽部種別取得部が設けられていることを特徴とする。現在使用されている遮蔽部の種別を自動的に装置が認識して、それに応じた左右画像を提供するようにすることができる。
 前記遮蔽部の種別を保持する遮蔽部種別保持部を更に設けていることを特徴とする。設定を保存し、それに適した視点の左右画像を提示することができる。
 前記遮蔽部は、メガネ型であることを特徴とする。違和感なく装着することができる。
 前記遮蔽部は、ヘルメット型であることを特徴とする。脱落を防ぐことができる。
 前記遮蔽部は、顔を覆う面型であることを特徴とする。顔を覆うことで、迷光を軽減することができる。
 前記同期信号は、前記3つ以上の画像と、前記遮断部に設定された設定値と、の対応を表す信号を含むことを特徴とする。表示の自由度が増す。
 前記同期信号は、赤外線で出力されることを特徴とする。接続線を用いずに実現できる。
 前記同期信号は、電波で出力されることを特徴とする。同期信号が見える位置になくとも実現できる。
 画像調整部を更に設け、前記3つ以上の画像の画面領域の全面または一部を、少なくとも横方向に相対的にずらすことによって視差を調整することを特徴とする。視差を調整することができる。
 前記画像調整部は、前記3つ以上の画像を調整することにより、前記異なる視点からとらえたとみなせる画像を生成することを特徴とする。入力されていない視点画像を生成することができる。
 本明細書は本願の優先権の基礎である日本国特許出願2011-101818号の明細書および/または図面に記載される内容を包含する。
 本発明によれば、複数の観察者に適した立体画像を同時に提示することができ、かつ大型の表示装置を装着させる必要のない立体画像表示装置を実現できる。
本発明の第1の実施形態による立体画像表示装置の一構成例を示す機能ブロック図である。 図1の視差調整部(1)101の一構成例を示す図である。 シャッタメガネ107の構成例を示す図である。 本実施の形態による立体画像生成処理の流れを示すフローチャート図である。 本実施の形態による立体画像生成処理の流れを示すフローチャート図である。 視差と奥行き表示との関係を示す図である。 ユーザの眼幅に応じて、幅(レンズ間の距離)を可変としたメガネの図である。 本発明の第2の実施の形態による視差調整部の一構成例を示す図である。 本実施の形態による処理の流れを示すフローチャート図である。 視差が、左右の視点(V1,V2)、(V3,V4)の相対的なずれにより生ずる様子を示す図である。 複数の視点からの画像のうち、相対的に視点のずれ量が適切な画像を2枚抽出し、それぞれ右目用画像及び左目用画像として用いれば視差量を選択でき、視点画像の組み合わせに応じて複数の立体画像を得ることができる様子を示す図である。 視点間の距離を適切に設定することにより、4視点(V11~V14)の画像から6種類の異なる視点画像の組み合わせを得ることができる様子を示す図である。 光軸の輻輳点がそれぞれのカメラC1からC4から等距離になるよう配置した例を示す図である。 本発明の第3の実施形態による立体画像表示装置の一構成例を示す機能ブロックである。 本実施の形態による処理の流れを示すフローチャート図である。 円筒形の物体Bから点状の物体Dが発射されている様子を表す図である。
 <第1の実施形態>
 以下に、本発明の第1の実施形態による立体画像生成装置を含む立体画像表示装置について、図面を参照して説明する。図1は、本実施形態による立体画像表示装置の一構成例を示す機能ブロック図である。図1に示すように、本実施形態による立体画像表示装置は、画像データを受け付ける入力部10と、入力された画像データを処理し、立体表示が可能な表示データ(以下、「立体視用画像データ」と称する。)を生成するための画像処理を行う立体画像処理部100と、画像の視差を調整する視差調整部(1)101と、画像を表示部に合わせ表示制御を行う表示制御部102と、画像を表示する表示部103と、システム全体を制御するシステム制御部104と、観察者が入力を行うユーザ入力部105と、シャッタメガネの同期を行うメガネ同期部106と、を有する。さらに、システムとしては、観察者が装着するシャッタメガネ107が用いられる。立体画像表示装置において、表示部103を除く構成が、立体画像データを生成する立体画像生成部に相当する。すなわち、立体画像表示装置は、立体画像生成装置に加えて、表示部を設けたものである(以下、同様である)。
 図2は、図1の視差調整部(1)101の一構成例を示す図である。視差調整部(1)101は、更に、通信・制御部1011、視差算出部1012、例えば第1から第3までのずらし処理部1013a~1013cを有している。
 図3は、シャッタメガネ107の構成例を示す図である。シャッタメガネ107は、メガネ同期受信部1071、シャッタ制御部1072、幅指定部1073、第1シャッタ部1074a及び第2シャッタ部1074b、を有している。第1シャッタ部1074a及び第2シャッタ部1074bは、それぞれ右目用シャッタ及び左目用シャッタに対応する。
 次に、各機能部の動作例について説明する。図4、図5は、本実施の形態による立体画像生成処理の流れを示すフローチャート図である。ステップS1で画像データを受け取ると、入力部10を経由して立体画像表示装置に入力された画像データは、立体画像処理部100において入力形式に合わせて左目用画像データと右目用画像データとに展開される(ステップS2)。ここで、入力される画像データは、放送波によるもの、記録メディアから電子的に読みだされたもの、通信により取得されたものなど、ソースを問わない。すなわち、入力部10は、半導体メモリ読み出し装置であっても良いし、光ディスクや磁気ディスクの読み出し装置、電波の受信機や、ネットワークとの通信機能を持つものであっても良い。要するに、立体画像として解釈可能なデータを入力できるものであればよい。また、右目用画像データ、左目用画像データは、1枚の画像データから作成されたものでも良い。すなわち、画像データと奥行きデータもしくは視差データから合成された複数視点画像、奥行き情報を推定して作成された複数視点画像であってもよい。多眼表示用の多視点画像であっても良い。入力された画像データに付加情報がある場合は付加情報を抽出し、システム制御部に伝送する。付加データは、撮影時のパラメータや視差情報、視差量補正情報や奥行きデータ等であっても良い。
 展開された左目用画像データと右目用画像データは、視差調整部101に送られ、複数の視点画像に再合成される(ステップS3)。視差調整部101の内部では、システム制御部104と通信する通信・制御部1011が各部を制御している。入力された画像データは視差算出部1012に入力され、左右画像の対応点のずれから視差を算出され(ステップS4-1)、算出された視差データは通信・制御部1011を経由してシステム制御部104に送られる。前述のように奥行きデータが入力されるもの、あるいは奥行きデータが作成されるものでは、それを画像データの視差として用いても良い。送られるデータは、例えば画像内の視差の最大量および最小量であるとよい。なお、ここでは表示画面より遠景側の視差を正の値、近景側を負の値と表現するので、視差の最大値は画面内の最も遠い点の視差、最小値は画面内の最も観察者に近い点の視差を表す。
 システム制御部104は、受信した視差データと、設定された視点位置と、に基づいて、各視点画像に適切な画像ずらし量を求め(ステップS4-2)、画像ずらし処理部1013a~1013cに画像ずらし量を送信する。ここで、各視点位置は、準備されたシャッタメガネ全種類に合わせて視点位置の間隔が例えば6.5cm、6cm、5.5cm、4cmとなるように予め設定するとよいが、視差の大きさを例えば強中弱切の4段階と対応付けて視点位置の間隔を6cm、4cm、2cm、0cmなどの固定の値に決めておいてもよい。すなわち、シャッタメガネは、視点位置の関数として、例えば、視点位置の間隔等の属性に依存して複数の種類(種別)のものが用意されており、その種別に関して、利用者に判りやすいように、視点位置の間隔などの属性が記載されていれば良い。
 他に、組み合わせて用いられるシャッタメガネ107の種類に応じて、例えば出荷時にあらかじめ設定されても良いが、ユーザがユーザ入力部105を操作して、使用するシャッタメガネを選択し、対応する視点位置を設定するようにしても良い。ユーザが好みに応じて視点位置を選択しても良い。視点位置の設定変更を行った場合には、その設定変更に応じた種別(属性)をシャッタメガネに記載しても良い。
 システム制御部104がシャッタメガネ107を認識して、自動的に視点位置を設定するようにしても良い。この場合、シャッタメガネ107とシステム制御部104とは双方向通信をするか、シャッタメガネ107の種類別に例えばマーカを備え、表示手段側から画像認識によりシャッタメガネ107の種類を取得するなどの方法により実現できる。また、これらによって選択されたシャッタメガネ107の種類をシステム制御部104に保存しておくと、シャッタメガネを使用する都度同様の設定をする必要がなくなり、設定済みのシャッタメガネならば新たに設定をせずとも異なる種類のシャッタメガネを用いて画像を観察することができる。
 システム制御部104がシャッタメガネ107の種別(属性)を認識するためには、例えば、シャッタメガネ104に、現在設定されている視点位置を記憶する記憶部を設けておき、その記憶部からの読み出しにより、システム制御部104がシャッタメガネ107の種別を認識し、その種別に応じた適切な画像(視点に依存して視差等を調整した画像)を生成し提示するようにすることができる。
 画像ずらし処理部1013a~1013cは、システム制御部104の指示を、通信・制御部1011を経由してそれぞれ受け、右目用画像全面を左右にずらす処理をそれぞれ行い、視差を調整する(ステップS4-3)。視差を調整された左右目用画像データはそれぞれ視差調整部101から出力される。なお、ここでは右目用画像のみずらして視差を調節したが、左目用画像をずらしても、左右目用画像両方をずらしてもよい。要するに、複数の視点画像の対応点同士を相対的に左右にずらすことによって視差を調節できるようにしてあればよい。また、予め視差範囲が想定できる場合には、視差算出部1012による算出結果を用いず、画像ずらし量を予め算出した値としてもよい。この場合、視差算出部1012を省略でき、さらにシステム制御部104の処理量も軽減できる。視差範囲は画像データに付随するものでも、取り決めによるものでも構わない。
 視差が調整された複数の視点画像は表示制御部102に送られる(ステップS4-4)。表示制御部102は、表示部103に合わせた表示制御をするとともに、メガネ同期部106に対し信号を送る(ステップS5)。メガネ同期部106は、観察者の装着するシャッタメガネ107に対し同期信号を送り(ステップS6)、表示部103と同期処理を行うことができる。
 より具体的には、例えば、表示部103に液晶表示パネルを用い、たとえば4視点の視点画像を表示し、観察者の装着したシャッタメガネ107と同期して立体視を行う方式の場合、表示制御部102は表示部103に対し、4視点の視点画像を順に出力する。出力の頻度は、例えば各視点に対応する画像をそれぞれ毎秒60枚とする。表示部103は表示制御部102から送られる画像を随時表示するが、表示部103とシャッタメガネ107は同期し、表示部103に順に表示される4視点の視点画像のいずれかに左目用シャッタ、右目用シャッタを同期して開とすることにより、それぞれ対応する視点画像を左目及び右目に呈示して、立体視を実現する。
 より具体的には、図3に示すシャッタメガネ107は、メガネ同期受信部1071で受信した同期信号及び幅指定部1073から得られる幅指定信号からシャッタ制御部1072がシャッタの開閉信号のタイミングを制御し、第1シャッタ部1074a及び第2シャッタ部1074bを駆動することによって、表示部103と同期して観察者に視点画像を呈示する。幅指定部1073には、予めシャッタメガネ107の幅に対応した視差量を選択するのに用いられる、幅指定信号が記録されており、この幅指定信号をシャッタ制御部1072に出力する。例えば、左右それぞれのシャッタの開閉と、それと同期した左シャッタが開で右シャッタが閉の時の左眼用画像の表示と、左シャッタが閉で右シャッタが開の時の右眼用画像を表示により立体視を実現することができる。
 なお、同期信号を有線で接続することなく無線で伝達することにより観察者の負担を軽減することができる。例えば、同期信号を赤外線で伝送すると、表示部103付近の観察者から見える位置にメガネ同期部106を設けることにより、観察者が表示画面を観察できる位置にいれば、メガネ同期部106とメガネ同期受信部1071との間には障害物がなく、かつ、適切な距離を保つことになり、シャッタメガネ107は同期信号を受信することができる。同期信号を無線電波で伝送すると、表示部103付近の観察者から見える位置にメガネ同期部106を設ける必要がなく、シャッタメガネ107がメガネ同期部106を向いている必要もないので、メガネ同期部106とシャッタメガネ107の間に障害物があった場合でも同期が可能である。
 次に、視差と奥行き表示との関係を図6に示す。図6は観察者とディスプレイを上から見た図である。
 図6(a)は、通常の2次元表示状態であり、立体画像表示時には、右目用画像と左目用画像の対応点がディスプレイ(表示面)上で同じ位置にある状態である。この場合、この点はディスプレイ上にあるように知覚される。
 図6(b)は、ディスプレイ上で、右目用画像と左目用画像の対応点が、右目用画像は右に(P)、左目用画像は左に(P)ずれた状態である。この状態では、観察者にはこの点は、ディスプレイ面(表示面)よりも奥に知覚される(P)。
 図6(c)は、ディスプレイ(表示面)上で、右目用画像と左目用画像の対応点が、右目用画像は左に、左目用画像は右にずれた状態である。この状態では、観察者にはこの点はディスプレイ面よりも手前に知覚される。
 図6(d)は、これらをまとめた図である。前述したとおり、右目用画像と左目用画像との対応点が、右目用画像が右にずれて表示され、左目用画像が左にずれて表示され、かつ、対応点間の距離が両眼距離に等しい場合、この点は無限遠に知覚されるが、対応点間の距離(P-P)が両眼距離を超えた場合、視線は開散方向には向かず、融合できなくなる。同様に、ディスプレイ上で、右目用画像と左目用画像の対応点が、右目用画像Pは左に、左目用画像Pは右に大きくずれた状態では、視線は極端な寄り目状態となり、融合できなくなる。従って、快適に立体視できる奥行きの範囲、すなわち、図6(d)に示した快適融合範囲は、これらの融合範囲よりもディスプレイ面に対し内側となる。これらを応用し、左右目用画像を相対的に左右にずらし、左右目用画像中の対応点のずれを大きくしたり小さくしたりすることによって、立体画像の奥行き感を全体的により奥にしたり、より手前にしたりすることができる。
 図6(d)に示したように、視差量が両眼距離を超える状態では、眼球は開散方向に向かず立体視が不可能であるか、眼球が開散方向に運動し外斜視を誘発する恐れがあるなど危険な状態となり好ましくない。従って、画面内の視差の最大値が両眼距離を超えないような処理を観察者に合わせて行う必要がある。具体的には、立体画像の片方または両方を相対的に左右にずらすことによって視差の最大値が両眼距離を超えないようにする。この時、左目用画像を右に、右目用画像を左に移動することによって、最遠景の視差の最大値を小さくする処理を行うと、両眼が開散方向に向くことは避けられ、立体画像は全体的に手前に知覚されるようになる。同様に、極端な寄り目を誘発する立体画像は人体に負担となるが、左目用画像を左に、右目用画像を右にずらすことによって、極端な寄り目は軽減され、立体画像は全体的に奥に知覚されるようになる。
 このようにして、複数種類の両眼距離に対応する立体画像を作成し、観察者がこの複数種類の立体画像を構成する複数の視点画像から、観察者に合った視点画像の組を選択することにより、安全な立体視を実現することができる。なお、ここでは複数の両眼距離に対応した画像の例を示したが、このほかに、同じ両眼距離でも輻輳角の異なる画像などでもよい。
 次に、シャッタメガネについて示す。前述のとおり、メガネ同期部106から送られる同期信号に同期して、複数の視点画像から適当な組み合わせを選び、適切な視差量の視点画像を表示することにより立体視を可能とする。ここで、人間の両眼距離は概ねメガネの幅に比例するため、メガネの幅に対応して選択できる視差量に制限を持たせることにより、観察者に合わせて安全に立体視を可能とすることができる。すなわち、例えば子供用メガネとして子供の顔の幅に合わせたものを用意し、視差の最大値が子供の両眼距離相当であるおよそ5cmを超えない視点画像を受信するようにする。同様に、大人用のメガネとしても顔の幅に合わせたものを数種類用意し、それぞれ想定される両眼距離に合わせた視点画像を受信するようにする。大人の両眼距離は平均で6.5cmと言われているが、必ずしも視差の最大値が両眼距離である必要もなく、両眼距離以下の値をとればよい。立体画像の観察が得意でない観察者のために、特に視差を弱めた画像や、2次元画像のみ表示するメガネを用意しても良い。視差量は必ずしもメガネ毎に固定である必要はなく、想定される両眼距離を超えない範囲で視差量を自由に選択できるようにしても良い。この場合、前述の幅指定部1073の設定値を変更するようにする。
 メガネの幅は、数種類のものを用意するとよいが、ユーザの眼幅に応じて、幅(レンズ間の距離)を可変としてもよい。この様子を図7に示す。図7(a)に示すように、メガネフレーム107aのテンプル107bの長さを変えることで、ユーザの眼幅に適したように応じてレンズ間の距離を可変とすることができる。すなわち、図7(a)に比べて図7(b)のメガネでは、テンプル107bがメカニカルな機構により長くなっており、このようにして、メガネ107の幅を変えることができる。この際、メガネ107の設定幅を装置側から検出する(メガネ107からの信号により検知するなど)して、装置側でメガネの幅を知ることができるようにすると、その眼幅に応じた表示制御が可能である。
 尚、メガネのつる(図示せず)の角度を可変にすることにより、幅を可変するのと同等の働きを持たせても良い。また、選択する視差に対応する視点画像は、両眼距離に対応して1通り選択としても良いし、観察者が任意に、両眼距離を超えない範囲で選択しても良い。このとき、選択に用いるスイッチを回転式やスライド式にすると、プッシュ式のスイッチと比較してメガネの取り扱いで誤操作する恐れが減るほか、幅を可変とする機構と機械的に選択範囲を制限する機構を同時に実現することが容易となる。
 また、メガネ等のシャッター(遮断手段)の位置は固定にし、のぞき窓のようにして遮蔽手段から観察できるようにしてもよい。この場合は遮断手段の高さに応じて呈示する画像の組み合わせを選択するようにするとよい。高さを可変できるようにし、高さに対応した呈示画像の組み合わせを選択できるようにしてもよい。人間の両眼距離は、概ね身長に比例する。従って、遮断手段の高さを身長と対応付けて、例えば、低い位置にある遮断手段は、視差の最大値が子供の両眼距離相当であるおよそ5cmを超えない視点画像を受信するようにしても良い。
 シャッタメガネ107は、前述の通り、時分割で表示される視点画像から特定の画像の組を選択することによって視差を選択する。ここで、例えば4視点の画像を2種類の異なる左右画像の組として用いても良いが、各視点画像を共通に用い、各視点画像の組み合わせを選ぶことによって異なる左右画像の組を得ることができる。この時、同期信号に各々の視点画像に関する情報や組み合わせに関する情報を重畳し、シャッタメガネ107で重畳された情報をもとに呈示する視点画像の組み合わせを選択するようにすると、組み合わせの自由度を向上させることができる。
 このようにして、複数通りの両眼距離に対応する視点画像を得ることができる。すなわち、想定した両眼距離に対応した視差量の立体画像を得ることができ、それぞれの視点画像の組み合わせから、複数の観察者に対し適切な視差量で立体画像を提示することができ、複数の観察者が同時に異なる視差で同じ表示画面を楽しむことができる。また、それぞれの観察者が用いるシャッタメガネがそれぞれ適切な視点画像の組み合わせを選択しているため、1台の表示装置に対して観察者をいくらでも増やすことができる。それぞれの観察者の装着するシャッタメガネは一般的なサングラスと大きな違いはなく、見た目の違和感も大きくはないゆえ、観察者同士のコミュニケーションを阻害する要因にもなりにくい。
 なお、本実施の形態では、図2に示すように、入力画像に改変を加えずに表示部に送られる画像がある(L1)。第1から第3までのずらし処理部1013a~cによる処理を経ると、画像は視差調整の影響により左右に移動される。従って、ずらし処理を経た画像のうち、同じ画像を左右の目で観察すると、視差が付加されないため、2次元画像として観察されるが、画像は、ずらし処理に応じて左右に移動することとなり好ましくない。そこで、ずらし処理部1013の処理を経ない画像を2次元表示用画像として両眼に同時に呈示することによって、入力された画像そのものを2次元画像として良好に観察することができる。シャッタメガネが選択する視点画像の組には、このように左右同一の視点画像を提示する組み合わせがあっても良い。
 また、2次元表示する画像として立体表示用の画像とは異なる画像を予め用意すると良い。立体画像は両目で観察することを前提に制作されるので、立体画像のうちの1枚を抽出すると、必ずしも適切な視点となっていない場合がある。特に基線長に対し被写体までの距離が近い場合に顕著である。この現象を避けるために2次元表示する画像を用意すると良好な2次元画像を提示することができる。
 以上に説明したように、本実施の形態によれば、ずらし処理による複数視差を生成することができるため、複数の観察者に適した立体画像を同時に提示することができるという利点がある。
 <第2の実施形態>
 以下に、本発明の第2の実施形態による立体画像表示装置について、図面を参照して説明する。本実施形態による立体画像表示装置の構成例は第1の実施形態と同様に図1で示される。図1が示すように、本実施形態による立体画像表示装置は、入力部10と、入力された画像データを処理し、立体視用画像データを生成するための画像処理を行う立体画像処理部100と、画像の視差を調整する視差調整部101と、画像を表示部に合わせ表示制御を行う表示制御部102と、画像を表示する表示部103と、システム全体を制御するシステム制御部104と、観察者が入力を行うユーザ入力部105と、シャッタメガネの同期を行うメガネ同期部106と、を有している。また、システムとしては、観察者が装着するシャッタメガネ107が含まれる。
 図8は、本実施の形態による視差調整部101の一構成例を示す図である。視差調整部101は、通信・制御部1011、視差算出部1012、視差調整部1014、遮蔽補償部1015、第1から第4の画像加工部1016a~1016dと、を有している。
 シャッタメガネ107の構成は、第1の実施形態及び図3に示した通りであるので省略する。
 次に、各部の動作を説明する。図9は、本実施の形態による処理の流れを示すフローチャート図である。図4のステップS4の詳細について説明する。立体画像表示装置に入力部10を経由して入力された画像データは、立体画像処理部100において入力形式に合わせて左目用画像データと右目用画像データとに展開される。同時に、入力された画像データに付加情報がある場合は、付加情報を抽出し、システム制御部104に伝送する。ここで、入力される画像データは、放送波によるもの、記録メディアから電子的に読みだされたもの、通信により取得されたものなど、どのようなものでも良い。また、右目用画像データ、左目用画像データは、1枚の画像データから作成されたものでも良い。すなわち、画像データと奥行きデータもしくは視差データから合成された複数視点画像、奥行き情報を推定して作成された複数視点画像であってもよい。多視点画像データとして入力された複数視点画像であってももちろん良い。
 展開された左目用画像データと右目用画像データとは、視差調整部101に送られ、複数の視点画像に再合成される。視差調整部101の内部では、システム制御部104と通信する通信・制御部1011が各部を制御している。入力された画像データは視差算出部1012に入力され、左右画像の対応点のずれから視差を算出し(ステップS4-11)、算出した視差データは視差調整部(2)1014に送られる(ステップS4-12)。送られるデータは例えば画素ごとに視差を表した、いわゆる視差マップであるとよい。
 視差調整部101の内部の視差調整部(2)1014は、受信した視差データのうち、システム制御に必要なパラメータを選択して(ステップS4-13)、通信制御部1011を経由してシステム制御部104に送信する。送信するパラメータは、例えば画面内の視差の最大値、最小値であると良い。
 システム制御部104は、受信したパラメータをもとに、各視点画像に適切な補正パラメータを求め(ステップS4-14)、視差調整部(2)1014に送信する。視差調整部(2)1014では、受信した補正パラメータを、視差算出部1012から受信した視差データに演算し、それぞれ想定された視点位置に対応する、補正された複数の視差データを算出する(ステップS4-15)。補正された複数の視差データは遮蔽補償部1015及び各視点画像に対応する画像加工部1016に出力される(ステップS4-16)。この時の視差データも同様にいわゆる視差マップであるとよい。
 遮蔽補償部1015では、視差調整部(2)1014により補正された複数の視差データに基づき画像を再合成する際、視点が変わることによって遮蔽関係が変化し、画像データがない部分に関し、画像データを生成して補償する補償画像データを生成する(ステップS4-17)。補償画像データは、例えば入力された画像のうち、遮蔽関係の異なる他の視点の画像を用いて生成できる。補償画像データは、画像加工部1016の数に対応して複数出力される。
 第1から第4の画像加工部1016a~1016dは、上記の補正された複数の視差データ及び補償画像データを用いて、それぞれ想定された視点位置に合わせた新たな視点画像を再合成する(ステップS4-18)。より具体的には、上記の補正された複数の視差データに基づいて、対象領域の画素データを移動させ、移動によって対応する画素がなくなった領域には補償画像データの対応部分の画素データを補う。このようにして、入力された立体視用データに含まれていない視点の画像を生成する。
 なお、ここでは、左右画像から視差を求めて演算したが、入力が画像データと奥行きデータとの組み合わせである場合は、入力された奥行きデータを視差データに変換して用いても良い。また、図8では画像加工部1016に対し左右の画像が入力されているが、右または左のうち一方の画像を入力するようにしても良い。このようにすと、仮想的にカメラ位置を調整した視点画像を再合成し、複数の視点画像を生成して、複数の両眼距離に対応した画像を生成することができる。
 生成された複数の視点画像は、表示制御部102に送られる。表示制御部102は、表示部103に合わせた表示制御をするとともに、メガネ同期部106に対して信号を送る。メガネ同期部106は、観察者の装着するシャッタメガネ107に対して同期信号を送り、表示部103と同期処理が行われる。具体的には、例えば、表示部103に液晶表示パネルを用いて4視点の視点画像を時分割で表示し、観察者の装着したシャッタメガネ107と同期して立体視を行う方式の場合、表示制御部102は表示部103に対し、4視点の視点画像を順に出力する。出力の頻度は、例えば各視点に対応する画像をそれぞれ毎秒60枚とする。
 表示部103は、表示制御部102から送られる画像を随時表示するが、表示部103とシャッタメガネ107とは同期しており、表示部103に順に表示される4視点の視点画像のいずれかに左目用シャッタ、右目用シャッタを同期して開とすることにより、それぞれ対応する視点画像を左目及び右目に表示して、立体視を実現する。具体的には、シャッタメガネ107は、メガネ同期受信部1071で受信した同期信号及び幅指定部1073から得られる幅指定信号から、シャッタ制御部1072がシャッタの開閉信号のタイミングを制御し、第1シャッタ部1074a及び第2シャッタ部1074bを駆動することによって、表示部103と同期して観察者に視点画像を呈示する。幅指定部1073には、予めメガネの幅に対応した視差量を選択する、幅指定信号が記録されているものとする。
 図10(a)、(b)に示すように、視差は左右の視点(V1,V2)、(V3,V4)の相対的なずれにより生ずるので、複数の視点からの画像のうち、相対的に視点のずれ量が適切な画像を2枚抽出し、それぞれ右目用画像及び左目用画像として用いれば視差量を選択でき、視点画像の組み合わせに応じて複数の立体画像を得ることができる。この様子を図11に示す。この場合、各視点間の距離を適切に設定することにより、4視点(V11~V14)の画像から6種類の異なる視点画像の組み合わせを得ることができ()、要素となる視点画像を削減することができる。この様子を図12に示す。図12に示すように、視点間の距離が、1cm、1.5cm、2.5cm、4cm、5cm、6.5cmの6種類の異なる視点画像の組み合わせを得ることができる。要素となる視点画像が多いほど多くの組み合わせを得ることができるのは言うまでもない。
 シャッタメガネ107は、これら複数の視点画像から、それぞれのシャッタメガネ107に設定された許容視差範囲に合う組み合わせを選択し、表示する。人間の両眼距離は概ねメガネの幅に比例するゆえ、メガネの幅に対応して選択できる視差量に制限を持たせることにより、観察者に合わせて安全に立体視を可能とすることができる。
 このようにして、複数の両眼距離に対応する複数の立体画像を得ることができる。すなわち、想定した両眼距離に対応した視差量の立体画像を得ることができ、それぞれの視点画像の組み合わせから、複数の観察者に対し適切な視差量で立体画像を提示することができる。
 なお、ここでは2点の視点画像から4点の視点画像を変換により得る方法を示したが、当然のことながら、実際のカメラを4視点分用いて画像を取得しても良い。視点の配置は、光軸を平行に設置したものでも光軸が輻輳するように配置したものでも良いし、横一列に視点を配置したものでも光軸の輻輳点までが等距離になるよう配置したものでも良い。
 図13は、上記の例のうち、光軸の輻輳点がそれぞれのカメラC1からC4から等距離になるよう配置した例を示す図である。また、4視点での例を示したが、視点数は4に限定されるものではなく、画像のフレームレートや表示デバイスの応答速度に応じて加減されるべきものである。
 また、本実施形態では、仮想的にカメラ位置を移動した4視点の画像を表示したが、このほかに2次元画像として表示する視点画像を追加し、左右の目で同じ画像を2次元画像として観察できるようにするとなおよい。立体画像は両目で観察することを前提に制作されるため、立体画像のうちの1枚を抽出すると、必ずしも適切な視点となっていない場合がある。特に、基線長に対し被写体までの距離が近い場合に顕著である。また、視点の変換に伴う画像の変質を避けることができる。2次元表示により、体質・体調により立体画像の鑑賞に適さない観察者も含めて安全に画像を観察することができる。2次元画像も同様にシャッタメガネを用いて提示することができる。
 なお、本実施形態では、画素ごとに視差を表した視差マップを例にシステムを説明したが、必ずしも画素ごとの視差である必要はなく、縮小画像に対しての視差マップであっても良い。この場合、実際に処理する際に、低い解像度の視差マップのままで用いても良いが、フィルタ処理等により解像度を高めた視差マップを用いるとよい。
 <第3の実施形態>
 以下に、本発明の第3の実施の形態による立体画像表示装置について、図面を参照して説明する。図14は、本実施形態による立体画像表示装置の一構成例を示す機能ブロックである。図14に示すように、本実施形態による立体画像表示装置は、ユーザ操作部20と、ゲーム制御部201と、表示制御部202と、表示部203と、メガネ同期部206と、から構成され、さらに、シャッタメガネ207をユーザが着用する。ゲーム制御部201は、更にシステム制御部2011と、プログラム蓄積部2012と、立体画像生成部2013と、を有している。
 より具体的には、ユーザ操作部20は、ゲームコントローラ、システム制御部2011はCPUやメモリ及びユーザ操作部、プログラム蓄積部・立体画像生成部・表示制御部とのI/Oなどを備え、プログラム蓄積部2012はハードディスクや光ディスクなどにゲームソフト等を収めたもの、立体画像生成部2013はGPU(Graphic Processing Unit)及びメモリから構成されていても良い。表示部203は、液晶ディスプレイやプラズマディスプレイ、有機ELディスプレイなどで構成可能であるが、応答速度が高速な表示デバイスであることが望ましい。LEDディスプレイ等を用いれば高速な応答が得られる。メガネ同期部206は、シャッタメガネ207に対し、赤外線や電波などで同期信号を送る。ユーザ操作部20やシャッタメガネ207は複数あっても良い。
 シャッタメガネ207の構成は、第1の実施形態及び図3に示したシャッタメガネ107の構成と同様である。
 次に、各部の動作を説明する。図15は、本実施の形態による処理の流れを示すフローチャート図である。ユーザ操作部20からの操作を受け、システム制御部2011はプログラム蓄積部2012からプログラムを読み出して実行する。プログラムは、前述の通り光ディスクを読み出すもの、ハードディスクを読み出すものなどで良い。固体メモリであってももちろん構わない。ハードディスクを読み出す場合、ハードディスクへのプログラムの蓄積は、光ディスクから読み出す方法、通信により取得する方法、固体メモリから読み出す方法など、どのような形でもよい。
 プログラムの実行に伴い、システム制御部2011は、立体画像生成部2013に対し、立体画像モデルを出力する。
 ここで、立体画像モデルとは、表示すべき物体の形状や配置、照明となる光源の位置、及び仮想的な視点位置等を3次元座標上に表現したものである。3次元座標は、直交座標系でも極座標系でも構わない。また、表示すべき物体の表面の模様や状態等が記述されていても良い。
 立体画像生成部2013では、立体画像モデルを展開して個々の視点画像を生成する(ステップS21)。より具体的には、立体画像モデルに含まれる物体の配置図を、立体画像モデルに含まれる複数の仮想カメラの位置から見た図を生成することによって複数の視点画像を得る。複数の仮想カメラの位置は、複数の視点に対応する位置とし、例えば図12に示すような配置とする。図12は、4台のカメラV11~V14による4つの視点画像から6通りの立体画像を得ることができる様子を示している。尚、複数の仮想カメラの位置は、想定された両眼距離によって決定される。想定された両眼距離は、ユーザが入力しても良いし、プログラムに予め設定されたものを用いても良い。ユーザが入力する場合は、ユーザの好みに応じた両眼距離に対応する立体画像が呈示できる。一方、プログラムに予め設定されたものを用いる場合は、プログラムの想定する場面に合った画像が呈示できる。
 立体画像生成部2013において生成された複数の視点画像は、表示制御部202に送られる(ステップS22)。表示制御部202は、表示部203に合わせた表示制御をすると同時に、メガネ同期部206に対し同期信号を送る。メガネ同期部206は、ユーザの装着するシャッタメガネ207に対し同期信号を送り、シャッタメガネ207では、表示部203との同期処理が行われる。具体的には、例えば、表示部203に液晶表示パネルを用い、たとえば4視点の視点画像を表示し、観察者の装着したシャッタメガネ207と同期して立体視を行う方式の場合、表示制御部202は表示部203に対し、4視点の視点画像を順に出力する(ステップS23)。出力の頻度は、例えば各視点に対応する画像をそれぞれ毎秒60枚とする。表示部203は、表示制御部202から送られる画像を随時表示するが、表示部203とシャッタメガネ207とは同期し、表示部203に順に表示される4視点の視点画像のいずれかに左目用シャッタ、右目用シャッタを同期して開とすることにより、それぞれ対応する視点画像を左目及び右目に表示して、立体視を実現する(ステップS24)。
 この時、複数の視点画像は順に表示されるので、立体画像生成部2013では、各視点画像に関し、表示部203において実際に時分割で表示されるタイミングを考慮して画像を生成すると時間軸に沿った滑らかな動きが知覚され、なおよい。この様子を、図16に示す。図16は、円筒形の物体Bから点状の物体Dが発射されている様子を表している。このとき、円筒形の物体Bは視点に合わせて見え方が各フレームで変化しており、点状の物体Dは時間の経過に合わせて表示位置が変化している。点状の物体Dも視点に合わせて見え方が変化するが、図16では小型であるので、図の表現上、視点変化は省略されている。時間軸に沿った画像は、時系列画像の補間により生成しても良い。
 前述のとおり、シャッタメガネ207は、これら複数の視点画像から、それぞれのシャッタメガネ207に設定された許容視差範囲に合う組み合わせを選択し、表示する。人間の両眼距離は、概ねメガネの幅に比例するため、メガネの幅に対応して選択できる視差量に制限を持たせることにより、ユーザに合わせて安全に立体視を可能とすることができる。
 このようにして、複数の視点及び両眼距離に対応する視点画像を得ることができる。すなわち、想定した両眼距離に対応した視差量の立体画像を得ることができ、それぞれの視点画像の組み合わせから、複数のユーザに対し適切な視差量で立体画像を提示することができ、複数のユーザが同時に同じ表示画面に向かって立体表示のゲームを楽しむことができる。また、それぞれのユーザが用いる遮蔽手段がそれぞれ適切な視点画像の組み合わせを選択しているため、1台の表示装置に対して表示を観察するユーザをいくらでも増やすことができる。
 尚、上記では、表示装置に同期して画像を選択する遮蔽手段としてシャッタメガネを例に挙げているが、遮蔽手段の形状をメガネに限定するものではない。例えば、顔を覆う面のようなものやヘルメットの目を覆う部分に遮蔽素子、例えば液晶シャッタを設けた遮断手段としても良い。この場合、球技や格闘技等に用いる防護面や、モータスポーツ等に用いるヘルメットを模したものとすることにより、メガネを用いた場合のメガネと顔の隙間からの外光の影響を軽減することができ、立体画像表示装置を用いた、より没入感のあるゲーム装置を構成することができる。この際にも、頭部の大きさに応じて適切な面やヘルメットの大きさが異なるので、メガネと同様に、これらの寸法から適切な視差を推定することができる。また、公共空間に設置されるゲーム装置では、個々の構成装置は有線接続されることが好ましいが、メガネと比較して面やヘルメットでは接続線の重量等を頭全体で支えることになり、接続線によるわずらわしさを軽減することができる。
 また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
 また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 本発明は、立体画像表示装置に利用することが可能である。
10…入力部、20…ユーザ操作部、100…立体画像処理部、101…視差調整部(1)、102…表示制御部、103…表示部、104…システム制御部、105…ユーザ入力部、106…メガネ同期部、107…シャッタメガネ、107a…フレーム、107b…テンプル、201…ゲーム制御部、202…表示制御部、203…表示部、206…メガネ同期部、207…シャッタメガネ、1011…通信・制御部、1012…視差算出部、1013a~1013c…ずらし処理部、1014…視差調整部(2)、1015…遮蔽補償部、1016a~d…画像加工部、1071…メガネ同期受信部、1072…シャッタ制御部、1073…幅指定部、1074a、1074b…シャッタ部、2011…システム制御部、2012…プログラム蓄積部、2013…立体画像生成部。
 本明細書で引用した全ての刊行物、特許および特許出願をそのまま参考として本明細書にとり入れるものとする。

Claims (25)

  1.  3つ以上の画像を時分割で順に表示する表示制御を行う表示制御部と、
     前記表示制御部の制御と同期して同期信号を出力する同期部と、
     前記同期部からの前記同期信号を受信し、前記表示制御部と同期させて動作させることにより、前記3つ以上の画像から選択的に右目および左目に画像を呈示する遮蔽部と、
    を備え、
     前記遮断部は、予め設定された設定値に従って、前記3つ以上の画像から、右目および左目に呈示する画像の組みを選択する機能を有することを特徴とする立体画像表示装置。
  2.  前記3つ以上の画像は、
     それぞれ異なる視点から被写体をとらえた画像からなり、
     前記3つ以上の画像を組み合わせることにより、2組以上の右目及び左目に呈示する画像の組を生成することを特徴とする立体画像表示装置。
  3.  前記3つ以上の画像は、
     それぞれ異なる横方向の視差を持つ画像からなることを特徴とする、請求項1又は2に記載の立体画像表示装置。
  4.  前記右目及び左目に呈示する画像の組は、
     前記3つ以上の画像の組み合わせにより実現される画像であり、
     前記3つ以上の画像のうちの少なくとも1つを、複数の前記右目及び左目に呈示する画像の組に組み込むことを特徴とする、請求項1から3までのいずれか1項に記載の立体画像表示装置。
  5.  前記右目及び左目に呈示する画像の組は、
     前記3つ以上の画像に加えて、2次元表示のための画像を含む画像から選択されることを特徴とする、請求項1から4までのいずれか1項に記載の立体画像表示装置。
  6.  前記3つ以上の画像が、移動する表示対象を含む画像である場合に、
     前記表示制御部により、時分割で表示される制御を行う際の表示タイミングに合わせて、時間に依存して表示対象の位置が調整された画像とすることを特徴とする、請求項1から3までのいずれか1項に記載の立体画像表示装置。
  7.  前記遮蔽部は、前記遮蔽部を使用する使用者の眼幅に応じて、
     前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする、請求項1から6に記載の立体画像表示装置。
  8.  前記遮蔽部は、
     前記遮蔽部を使用する前記使用者の眼幅に応じて、
     複数種類用意されていることを特徴とする、請求項7に記載の立体画像表示装置。
  9.  前記遮蔽部は、
     幅が変更できる構造であり、
     前記遮蔽部の変更後の幅に応じて、
     前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする、請求項7に記載の立体画像表示装置。
  10.  前記遮蔽部は、
     前記遮蔽部の高さに応じて、
     前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする、請求項1から3までのいずれか1項に記載の立体画像表示装置。
  11.  前記遮蔽部は、
     高さが変更できる構造であり、
     前記遮蔽部の高さに応じて、
     前記3つ以上の画像から、右目及び左目に呈示する画像の組を選択することを特徴とする、請求項10に記載の立体画像表示装置。
  12.  前記異なる視点を、
     異なる幅又は高さを有する前記遮蔽部の種類と対応付けて設定されることを特徴とする、請求項2に記載の立体画像表示装置。
  13.  前記用いられる前記遮蔽部は、
     使用者が選択することができるように、前記立体画像表示装置の本体とは別に設けられていることを特徴とする、請求項1から12までのいずれか1項に記載の立体画像表示装置。
  14.  前記遮蔽部の種別を取得する遮蔽部種別取得部が設けられていることを特徴とする、請求項1から13に記載の立体画像表示装置。
  15.  前記遮蔽部の種別を保持する遮蔽部種別保持部を更に設けていることを特徴とする請求項1から14までのいずれか1項に記載の立体画像表示装置。
  16.  前記遮蔽部は、メガネ型であることを特徴とする、請求項1から15までのいずれか1項に記載の立体画像表示装置。
  17.  前記遮蔽部は、ヘルメット型であることを特徴とする、請求項1から15までのいずれか1項に記載の立体画像表示装置。
  18.  前記遮蔽部は、
     顔を覆う面型であることを特徴とする、請求項1から15までのいずれか1項に記載の立体画像表示装置。
  19.  前記同期信号は、
     前記3つ以上の画像と、前記遮断部に設定された設定値と、の対応を表す信号を含むことを特徴とする、請求項1から18までのいずれか1項に記載の立体画像表示装置。
  20.  前記同期信号は、
     赤外線で出力されることを特徴とする、請求項1から19までのいずれか1項に記載の立体画像表示装置。
  21.  前記同期信号は、電波で出力されることを特徴とする、請求項1から20までのいずれか1項に記載の立体画像表示装置。
  22.  画像調整部を更に設け、
     前記3つ以上の画像の画面領域の全面または一部を、少なくとも横方向に相対的にずらすことによって視差を調整することを特徴とする、請求項1から21までのいずれか1項に記載の立体画像表示装置。
  23.  前記画像調整部は、
     前記3つ以上の画像を調整することにより、前記異なる視点からとらえたとみなせる画像を生成することを特徴とする、請求項1から21までのいずれか1項に記載の画像表示装置。
  24.  3つ以上の画像を時分割で順に表示する表示制御を行う表示制御ステップと、
     前記表示制御ステップの制御と同期して同期信号を出力する同期ステップと、
     前記同期ステップにおける前記同期信号を受信し、前記表示制御ステップと同期させて動作させることにより、前記3つ以上の画像から選択的に右目および左目に画像を呈示する遮蔽表示ステップと、
    を備え、
     前記遮断表示ステップは、予め設定された設定値に従って、前記3つ以上の画像から、右目および左目に呈示する画像の組みを選択することを特徴とする立体画像表示方法。
  25.  請求項24に記載の立体画像表示方法を、コンピュータに実行させるためのプログラム。
PCT/JP2012/059311 2011-04-28 2012-04-05 立体画像表示装置および立体画像表示方法 WO2012147482A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011101818A JP2012235270A (ja) 2011-04-28 2011-04-28 立体画像表示装置および立体画像表示方法
JP2011-101818 2011-04-28

Publications (1)

Publication Number Publication Date
WO2012147482A1 true WO2012147482A1 (ja) 2012-11-01

Family

ID=47072006

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059311 WO2012147482A1 (ja) 2011-04-28 2012-04-05 立体画像表示装置および立体画像表示方法

Country Status (2)

Country Link
JP (1) JP2012235270A (ja)
WO (1) WO2012147482A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014147957A1 (ja) 2013-03-21 2014-09-25 パナソニック株式会社 画像処理方法及び画像処理装置
CN113568170A (zh) * 2016-03-15 2021-10-29 奇跃公司 虚拟图像生成***及其操作方法
JP2019159886A (ja) * 2018-03-14 2019-09-19 凸版印刷株式会社 画像生成方法および画像生成装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
WO2008140787A2 (en) * 2007-05-09 2008-11-20 Dolby Laboratories Licensing Corporation System for 3d image projections and viewing
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
JP2010268036A (ja) * 2009-05-12 2010-11-25 Panasonic Corp 立体映像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078843A (ja) * 2001-09-06 2003-03-14 Tsumura Sogo Kenkyusho:Kk 映像上映システムおよびそのための映像多重化装置
JP4751801B2 (ja) * 2006-10-17 2011-08-17 シャープ株式会社 立体画像検索装置
US20100079585A1 (en) * 2008-09-29 2010-04-01 Disney Enterprises, Inc. Interactive theater with audience participation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
WO2008140787A2 (en) * 2007-05-09 2008-11-20 Dolby Laboratories Licensing Corporation System for 3d image projections and viewing
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
JP2010268036A (ja) * 2009-05-12 2010-11-25 Panasonic Corp 立体映像装置

Also Published As

Publication number Publication date
JP2012235270A (ja) 2012-11-29

Similar Documents

Publication Publication Date Title
US10054796B2 (en) Display
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP2008033219A (ja) 混合現実環境用のフェイスマウントディスプレイ装置
JP7471572B2 (ja) キャリブレーションシステム、及び、キャリブレーション方法
KR20110080035A (ko) 3d 글래스 구동 방법 및 이를 이용한 3d 글래스와 3d 디스플레이 장치
WO2020115815A1 (ja) ヘッドマウントディスプレイ装置
US20120188226A1 (en) Method and system for displaying stereoscopic images
KR101821141B1 (ko) 3차원 영상 시스템 및 그 영상 재생 방법
WO2012147482A1 (ja) 立体画像表示装置および立体画像表示方法
TW201733351A (zh) 3d自動對焦顯示方法及其系統
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
KR101320477B1 (ko) 카메라 간격 및 이동속도 조절이 가능한 건축물 내비게이션 장치 및 방법
JP5562122B2 (ja) 画像処理装置及びその制御方法
CN108702499A (zh) 二维影像的立体影像化显示装置
JP5037713B1 (ja) 立体画像表示装置および立体画像表示方法
JP2012244466A (ja) 立体画像処理装置
EP3419287A1 (en) An apparatus and a method for displaying a 3d image
KR20140115637A (ko) 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법
WO2017085803A1 (ja) 映像表示装置及び映像表示方法
CA3018454C (en) Camera-based display method and system for simulators
JP6867566B2 (ja) 画像表示装置及び画像表示システム
KR20110116509A (ko) 3차원 영상 시청 장치 및 시스템
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
JP2020106587A (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12777031

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12777031

Country of ref document: EP

Kind code of ref document: A1