WO2004093467A1 - 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体 - Google Patents

3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2004093467A1
WO2004093467A1 PCT/JP2004/005484 JP2004005484W WO2004093467A1 WO 2004093467 A1 WO2004093467 A1 WO 2004093467A1 JP 2004005484 W JP2004005484 W JP 2004005484W WO 2004093467 A1 WO2004093467 A1 WO 2004093467A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
dimensional image
dimensional
amount
Prior art date
Application number
PCT/JP2004/005484
Other languages
English (en)
French (fr)
Inventor
Toshio Nomura
Hiroaki Yabe
Ryuji Kitaura
Kazuto Ohara
Masahiro Shioi
Tadashi Uchiumi
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2003112801A external-priority patent/JP4251907B2/ja
Priority claimed from JP2003130711A external-priority patent/JP4259913B2/ja
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to US10/550,710 priority Critical patent/US7636088B2/en
Priority to CN200480010332A priority patent/CN100596209C/zh
Priority to EP04728007A priority patent/EP1617684A4/en
Publication of WO2004093467A1 publication Critical patent/WO2004093467A1/ja
Priority to US12/604,242 priority patent/US7889196B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals

Definitions

  • 3D image creating device 3D image reproducing device, 3D image processing device, 3D image processing program, and recording medium storing the program
  • the present invention relates to a three-dimensional image creation device that attaches attribute information to image data when creating image data for three-dimensional display, and a three-dimensional image reproduction device that reproduces the data.
  • the present invention provides a method for allowing a user to perform a stereoscopic view of a three-dimensional image after the enlargement or reduction of the three-dimensional image.
  • the present invention relates to a three-dimensional image processing device, a three-dimensional image processing program, and a recording medium on which the program is intended to warn the user that the stereoscopic effect can be corrected if possible.
  • the one that is generally used is the one that uses binocular parallax and is called the “binocular system”. That is, stereo vision is performed by preparing a left-eye image and a right-eye image with binocular parallax and projecting them independently to the left and right eyes.
  • FIG. 16 is a conceptual diagram for explaining a “time-division method” which is one of the typical two-lens systems.
  • the left-eye image and right-eye image are arranged alternately in one pixel in the vertical direction, and the display of the left-eye image and the display of the right-eye image are alternated. It is switched to and displayed.
  • the vertical resolution of the left-eye image and the right-eye image is 1/2 that of normal two-dimensional display.
  • the observer switches the display Wear evening shirts that open and close in synchronization with the period. In the shirt used here, the left eye is open and the right eye is closed when the left eye image is displayed, and the left eye is closed and the right eye is open when the right eye image is displayed. By doing so, the left-eye image can be observed only with the left eye and the right-eye image can be observed only with the right eye, and stereoscopic vision can be performed.
  • FIG. 17 is a conceptual diagram for explaining another typical two-lens system, the “paralux barrier system”.
  • FIG. 17A is a diagram illustrating the principle of generating parallax.
  • FIG. 17 (b) is a diagram showing a screen displayed in the parallax barrier method.
  • FIG. 17 (a) the left-eye image and the right-eye image as shown in FIG.
  • Images arranged alternately every other pixel are displayed on the image display panel 401, and a parallax barrier 402 having slits at intervals smaller than the interval between pixels at the same viewpoint is placed in front of the image display panel 401.
  • a parallax barrier 402 having slits at intervals smaller than the interval between pixels at the same viewpoint is placed in front of the image display panel 401.
  • lenticular method as a method for displaying an image as shown in FIG. 17B in three dimensions.
  • An example of a recording data format for use in the lenticular method is disclosed in Japanese Patent Application Laid-Open No. H11-41627.
  • FIG. 18 is a conceptual diagram showing an example of such a lenticular-type recording data format. From the left-eye image 501 shown in FIG. 18 (a) and the right-eye image 502 shown in FIG. 18 (b), each of them is thinned out to 1/2 in the horizontal direction, and one image shown in FIG. 18 (c) is mixed. Create and record image 503. At the time of reproduction, by rearranging the mixed image 503, a composite image as shown in FIG. 17 (b) is created.
  • Japanese Patent Application Laid-Open No. 2001-337994 stores additional information for identifying thumbnail images.
  • a method of displaying additional information over a thumbnail image is disclosed.
  • the distance between the corresponding points of the left and right images (hereinafter referred to as “parallax”) is comfortable within a certain range.
  • parallax the distance between the corresponding points of the left and right images
  • recording is performed in a fixed recording data format so as to be suitable for the display method determined on the playback device side, and the recording data has versatility. That is not considered.
  • the image data of each viewpoint is recorded independently of each other, and only the image of the desired viewpoint is simply read and reproduced, and it has not been considered that the image data should be reproduced.
  • the conventional technology does not sufficiently consider compatibility with existing devices. That is, in the system disclosed in Japanese Patent Application Laid-Open No. 2001-337994, only a display system capable of interpreting additional information is considered, and the additional information is useless in a display system that cannot interpret the additional information.
  • FIGS. Each of these drawings is a schematic view of a user observing the stereoscopic display 1 with a distance between the eyes d as viewed from above.
  • the distance between the eyes of a user is d [m]
  • the distance between the user and the stereoscopic display 1 is D [m]
  • the width of the display is W [m]
  • the resolution of the display is P [dot] 3 If the distance between the corresponding points on the left and right of the two-dimensional image is 1 [do t],
  • Fig. 39 (a) shows the 3D image before the enlargement process
  • Fig. 39 (b) shows the 3D image after the enlargement process.
  • indicates the left and right corresponding points after the enlargement
  • z ' indicates the amount of protrusion after the enlargement.
  • Fig. 40 (a) when a 3D image that is retracted deeper than the stereoscopic display is displayed in an enlarged manner, the amount of pull-in also increases, and depending on the magnification, the binocular image as shown in Fig. 40 (b) is displayed. Stereo focus cannot be achieved due to lack of focus. Conversely, when reducing a three-dimensional image, the displacement between the left and right images is reduced, so that the amount of protrusion or retraction is reduced, and the stereoscopic effect is reduced.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a general-purpose image display for three-dimensional display and to provide an image of an arbitrary viewpoint. It is an object of the present invention to provide a three-dimensional image creation device capable of efficiently selecting a three-dimensional image, and a three-dimensional image reproduction device for reproducing the data.
  • an object of the present invention is to warn the user when a three-dimensional image is scaled up or down, and the amount of parallax changes.
  • An object of the present invention is to provide a three-dimensional image processing device, a three-dimensional image processing program, and a recording medium on which the program is recorded.
  • the present invention provides a main image creation unit for creating a main image which is image information corresponding to a plurality of viewpoints.
  • a thumbnail image creating unit that creates a thumbnail image; a three-dimensional control information creating unit that creates three-dimensional control information for three-dimensionally displaying the main image; a main image, the thumbnail image and the three-dimensional image
  • This is a three-dimensional image creation device characterized by including a multiplexing unit that multiplexes control information.
  • the thumbnail image creating unit creates a thumbnail image that is reduced as it is the main image, extracts an image for one viewpoint from the main image to create a thumbnail image, and indicates that the thumbnail image is a three-dimensional image. Or embedding the symbol shown, or extracting a reduced image of the main image and an image for one viewpoint from the main image to create a thumbnail image in which the reduced image is formed into a picture-in-picture form.
  • the present invention also provides a demultiplexing unit that separates main image data, thumbnail data, and three-dimensional control information from input image data, and a three-dimensional (3D) image when the main image data is a three-dimensional image.
  • a three-dimensional image reproducing apparatus comprising: a thumbnail generation unit that outputs, as a thumbnail, a superimposed symbol indicating an image.
  • the present invention provides a parallax range obtaining unit that obtains a parallax range capable of stereoscopic viewing, a parallax amount obtaining unit that obtains a parallax amount of a three-dimensional image, and whether the parallax amount of the three-dimensional image is within the parallax range.
  • a three-dimensional image processing apparatus comprising: a determination unit configured to determine whether the three-dimensional image processing is performed.
  • a parallax range obtaining unit that obtains a stereoscopically visible parallax range; a parallax amount obtaining unit that obtains a parallax amount of a three-dimensional image; and a ratio obtaining unit that obtains an enlargement or reduction ratio of the three-dimensional image.
  • a three-dimensional image processing device comprising: a determination unit configured to determine whether a parallax amount of the three-dimensional image enlarged or reduced according to the ratio is within the parallax range.
  • the determination means performs a determination process on a partial area of the three-dimensional image.
  • the present invention includes a warning unit that warns a user or a parallax adjustment unit that adjusts a parallax amount of a three-dimensional image when the determination unit determines that the parallax amount is not within the parallax region. It is characterized by the following.
  • the parallax amount obtaining means uses a resolution, a Z or a size of a stereoscopic display for displaying the three-dimensional image. Further, the parallax range obtaining means uses the ability of the stereoscopic display for displaying the three-dimensional image to separate left and right images. Further, the parallax amount obtaining means uses a value added to the three-dimensional image in advance.
  • the present invention is a three-dimensional image processing program that causes a computer to function as each of the above means.
  • the present invention is a computer-readable recording medium recording the above program.
  • the main image is a three-dimensional image
  • three-dimensional control information for displaying the main image in three dimensions is created, and the main image, the thumbnail image, and the three-dimensional control information are multiplexed.
  • a thumbnail image can be displayed three-dimensionally by creating a thumbnail image in which the main image is reduced as it is.
  • the present invention it is possible to display a distortion-free thumbnail image by extracting an image for one viewpoint from the main image and creating a thumbnail image.
  • the present invention by embedding a symbol indicating that the image is a three-dimensional image in the thumbnail image, even in a conventional three-dimensional image reproducing apparatus that cannot interpret the three-dimensional control information, the selected file is three-dimensional. Can be determined by a thumbnail.
  • the present invention by generating a thumbnail image in which a reduced image of a main image and an image obtained by extracting an image for one viewpoint from the main image and reducing the same are in a picture-by-picture form, distortion-free images are obtained. Confirmation of image content by image and actual recorded as main image It is possible to check the shape of the image being displayed at the same time.
  • the thumbnail data is output as a thumbnail with a symbol indicating that it is a three-dimensional image, so that the selected file is 2D or not.
  • 3D can be identified by thumbnails.
  • it is determined whether or not the amount of parallax of a three-dimensional image is within a parallax range where stereoscopic viewing is possible, so that a countermeasure can be taken when stereoscopic viewing is not possible. For example, it can warn the user or adjust the amount of parallax in a 3D image.
  • the parallax amount (for example, the maximum pop-out amount and the maximum pull-in amount) of the entire or a part of the 3D image and the parallax range that allows comfortable stereoscopic viewing on the stereoscopic display are determined. Considering this, it is possible to adjust the parallax so that stereoscopic vision can be performed as comfortably as possible.
  • the user can appropriately check the contents of the three-dimensional image and, even when the image is enlarged or reduced, appropriately present the contents of the three-dimensional image to the user.
  • FIG. 1 is a diagram illustrating a configuration of a three-dimensional image creation device according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of installation of an imaging device in a multi-viewpoint case.
  • FIG. 3 is a diagram showing an example of how to assign viewpoint numbers.
  • FIG. 4 is a diagram illustrating an example of the combination when the number of viewpoints is two.
  • FIG. 5 is a diagram showing a lattice arrangement of multi-viewpoint images.
  • FIG. 6 is a diagram showing a format example of 3D information.
  • FIG. 7 is a diagram showing a file format of image data.
  • FIG. 8 is a diagram showing an example of a format for storing an image file in an existing format file.
  • FIG. 9 is a diagram showing an example of a format when storing image data in a new format file.
  • FIG. 10 is a diagram showing an example of storing image data when recording multi-view image data in separate files.
  • FIG. 11 is a diagram illustrating a format example of 3D information.
  • FIG. 12 is a diagram illustrating an example of set values of the 3D information.
  • FIG. 13 is a diagram showing a format example of management information.
  • FIG. 14 is a diagram showing an example of recording multi-view image data in separate files.
  • FIG. 15 is a diagram illustrating a configuration of a three-dimensional image reproduction device according to the third embodiment.
  • FIG. 16 is a diagram showing a display format of an image in the time division method.
  • FIG. 17 is a diagram for explaining the concept of the parallax barrier method.
  • FIG. 18 is a diagram for explaining a display format of an image in the parallax barrier method.
  • FIG. 19 is a diagram illustrating a configuration of a three-dimensional image creation device according to the second embodiment.
  • FIG. 20 is a diagram illustrating a configuration of a three-dimensional image reproduction device according to the fourth embodiment.
  • FIG. 21 is a diagram showing an image file format in which thumbnail images are recorded for three-dimensional display.
  • FIG. 22 is a diagram showing a combination of a main image and thumbnail images reduced to 160 pixels ⁇ 120 pixels.
  • FIG. 23 is a diagram showing a thumbnail image in which a symbol indicating that data of a 3D image is stored is embedded.
  • FIG. 24 is a diagram showing combinations of thumbnail images in which symbols indicating that data of the main image and 3D images are stored are embedded.
  • FIG. 25 is a diagram illustrating an example of a thumbnail represented by picture-in-picture.
  • FIG. 26 is a diagram illustrating a configuration of a three-dimensional image reproducing apparatus that reproduces a file in which thumbnails are recorded according to the sixth embodiment.
  • FIG. 27 is a diagram illustrating a configuration of a three-dimensional image reproduction device capable of switching between 3D display and 2D display according to the seventh embodiment.
  • FIG. 28 is a diagram illustrating a configuration of a three-dimensional image creating apparatus that records a thumbnail image in a file according to the fifth embodiment.
  • FIG. 29 is an explanatory diagram showing a GUI screen of a three-dimensional image in the eighth embodiment.
  • FIG. 30 is a flowchart showing a process according to the eighth embodiment.
  • FIG. 31 is an explanatory diagram showing a GUI screen of a three-dimensional image in the ninth embodiment.
  • FIG. 32 is a flowchart showing the processing in the ninth embodiment.
  • FIG. 33 is an explanatory diagram illustrating a parallax amount of a three-dimensional image in the correction processing.
  • FIG. 34 is an explanatory diagram showing the correction of the stereoscopic effect by changing the shift amount of the left and right images.
  • FIG. 35 is a flowchart showing processing in the tenth embodiment.
  • FIG. 36 is a flowchart showing the process of step 17 in the tenth embodiment.
  • FIG. 37 is an explanatory diagram showing a method of changing the parallax amount acquisition area.
  • FIG. 38 is a block diagram showing a three-dimensional image processing apparatus according to the first embodiment. It is.
  • FIG. 39 is a diagram illustrating pop-out of a three-dimensional image.
  • FIG. 40 is a diagram for explaining indentation of a three-dimensional image.
  • FIG. 1 is a block diagram showing the configuration of the three-dimensional image creating apparatus according to the first embodiment.
  • the three-dimensional image creation device 100 determines the arrangement method of image ⁇ ⁇ from image 1 of multiple viewpoints (the number of viewpoints K, where ⁇ is an integer greater than or equal to 2), and makes these adjacent.
  • Combining unit 101 that creates a combined image by combining image ⁇ , whether to combine image ⁇ ⁇ from image 1 (with or without combination), whether to reduce image ⁇ ⁇ from image 1 (with or without reduction),
  • An image signal composed of consecutive frames is input to the three-dimensional image creation device for each frame.
  • the number of imaging devices for inputting an image to the three-dimensional image creation device 100 is arranged in a grid in a plane in the horizontal direction and in the vertical direction in a grid pattern.
  • Shall be numbered (viewpoint numbers) (where ⁇ and ⁇ are integers of 1 or more).
  • Figure 2 shows an example of installation when the number of viewpoints is eight (a figure in which the installed imaging device is viewed obliquely downward from behind).
  • the viewpoint numbers are given in order from left to right and from top to bottom. I do. That is, the imaging device 301 is 1, the imaging device 302 is 2, the imaging device 303 is 3, the imaging device 304 is 4, and similarly, the imaging devices 305 to 308 are 5 to 8, It is.
  • an image captured by an imaging device with a viewpoint number k throughout this embodiment is referred to as an image k (where k is an integer of 1 or more).
  • the control unit 102 specifies the presence or absence of reduction, the presence or absence of combination, 2D selection, the number of viewpoints M in the horizontal direction, the number N of viewpoints in the vertical direction, and the arrangement order of images.
  • the presence or absence of reduction takes one of the values "with reduction” or “no reduction”
  • the presence or absence of combination takes one of the values "no combination” or "with connection”.
  • the viewpoint number or the value of “unspecified J” is used.
  • the arrangement order of the images is specified by the arrangement of the images by the viewpoint number.
  • the image combination unit 101 sets the images input in parallel according to the arrangement order of the images specified by the control unit 102. It is assumed that images K are output in series from 1. Alternatively, when the image of each viewpoint is output, the viewpoint number specified in the 2D selection may always be output first.
  • the image combining unit 101 selects the arrangement method from the input image 1 to the input image K.
  • the method of arranging the images may or may not match the method of arranging the imaging device.
  • FIG. 3 shows an example of the arrangement order of the images when the images captured by the imaging device shown in FIG. 2 are arranged in a grid pattern.
  • one square represents an image, and the numbers are viewpoint numbers.
  • FIG. 3 (a) shows a case where the arrangement order of the images is designated as 1, 2, 3, 4, 5, 6, 7, 8 and the arrangement is the same as the viewpoint number given to the imaging device.
  • Figure 3 (b) shows the case where 2, 3, 1, 4, 6, 7, 5, and 8 are specified.
  • the input image of each viewpoint is reduced.
  • the reduction ratio at this time is not fixed, but is determined according to the number of viewpoints. That is, it is reduced to 1 ZM in the horizontal direction and 1 N in the vertical direction.
  • FIGS. 4 and 5 show examples of the result of combining by the image combining unit 101 at this time.
  • FIG. 4 shows a case in which, for example, two viewpoints using only viewpoint numbers 1 and 2 are used among the imaging devices in FIG. 2, and
  • FIG. 5 shows a case in which all the imaging devices are used.
  • Fig. 4 (a) shows the case of “No reduction” and “No connection”
  • Fig. 4 (b) shows the case of “No reduction” and “With connection (horizontal arrangement)”
  • Fig. 4 (c) "No", “with connection (vertical arrangement)”
  • Fig. 4 (d) shows “with reduction”
  • Fig. 4 (d) shows “with reduction”
  • Fig. 4 (e) shows “with reduction”
  • “with connection ( 4 (f) shows the case of "with reduction” and the case of “with connection (vertical arrangement)”.
  • the resolution in the horizontal direction or the vertical direction is halved by thinning pixels or the like.
  • Fig. 5 shows an example of a grid-like arrangement of multi-viewpoint images.
  • H and V are the number of pixels in the horizontal direction and the number of lines in the vertical direction of each viewpoint image before reduction, respectively.
  • the reduction ratio is 1Z4 in the horizontal direction and 1/2 in the vertical direction.
  • the size of the image after reduction is H pixels horizontally and V lines vertically, which is the same as the image size of each viewpoint before reduction.
  • the arrangement of the images is consistent with the installation 4 images in the 7K horizontal direction and 2 images in the vertical direction.
  • the numbers attached to the images indicate viewpoint numbers.
  • the images are arranged in ascending order of viewpoint number. The upper left is the image taken by the imaging unit 301 (viewpoint number 1), and the lower right is the image taken by the imaging unit 310 (viewpoint number 8). is there.
  • the 3D information creation unit 103 formats 3D information by formatting the presence or absence of reduction, the presence or absence of combination, 2D selection, the number of horizontal and vertical viewpoints, the arrangement order and arrangement method of images. create.
  • FIG. 6 shows an example of the 3D information at this time.
  • the image order indicates that the arrangement of the images is “factory view number order” or “arbitrary order”. This is followed by multiple viewpoint numbers. These viewpoint numbers indicate the arrangement of images in the combined image when the presence or absence of the combination indicates "with connection”.
  • the first viewpoint number is 2, and in the following order, 3, 1, 4, 6, 7, 5, and 8.
  • the presence or absence of combination indicates "no combination”
  • it indicates the order of multiplexed image information.
  • the image order indicates “viewpoint number order”
  • these view numbers may be omitted.
  • the set value may be used as it is, or may be encoded by fixed-length encoding or variable-length encoding.
  • the multiplexing unit 104 converts the image information, the 3D information, and the management information into a predetermined format and outputs it to the outside.
  • the output order from the image combining unit 101 is the arrangement order of the images specified by the control unit 102 as described above.
  • the images are arranged in order.
  • the encoded image information may be input to the multiplexing unit 104.
  • FIG. 19 shows the configuration of the three-dimensional image creation device 110 in such a case.
  • the three-dimensional image creation device 110 is different from the three-dimensional image creation device 100 in FIG. 1 in that an encoding unit 105 is provided. .
  • the output destination of the multiplexing unit 104 is connected to a recording device II such as an IC memory, a magneto-optical disk, a magnetic tape, or an octal disk, and a communication device such as a LAN or a modem.
  • a recording device II such as an IC memory, a magneto-optical disk, a magnetic tape, or an octal disk
  • a communication device such as a LAN or a modem.
  • a file system such as a FAT (File Alc oat ti on Table) is constructed on the IC memory, and data is recorded as a file.
  • the file format used here may be an existing format or a newly defined proprietary format.
  • FIG. 7 is a diagram showing a file format for recording image data. In Fig. 7, it is assumed that data is recorded in the file in order from the top to the bottom of the figure.
  • Fig. 7 (a) shows an example using the existing format
  • Fig. 7 (b) shows an example using the new format.
  • the 3D information shall be recorded as part of the existing header, generally using a mechanism that extends the header provided in the existing format.
  • the extended header is called an extension header.
  • a file header points to an application data segment in JPEG, and defines a new application data segment to record 3D information.
  • the file header points to Visua1 Object Secuencce or Video Object Layer, and the 3D information is recorded as user data in these.
  • J PEG file generally has a .j Pg extension
  • MP EG file generally has a .mpg or .mp 4 extension W MV (Windows (R) Media Vi Video).
  • W MV Windows (R) Media Vi Video
  • the extension .wm V is used. In this way, even a conventional playback device that does not have a three-dimensional image display function can recognize a file in an existing format and display it as a two-dimensional image.
  • Fig. 7 (b) when a new format is used, 3D information is recorded at the beginning of the file, for example, as shown in Fig. 7 (b). Also, add a unique extension to distinguish the file from the existing format so that it can be identified as a new format file.
  • the management information in Figs. 7 (a) and 7 (b) is used to record information that is not directly related to the 3D image, such as the date of creation and the creator.
  • each frame may be coded independently like Motion J'PEG, or the difference may be coded using inter-frame prediction like MPEG-4.
  • FIG. 7 (b) The case where a new format shown in FIG. 7 (b) is used will be described.
  • an existing format JPEG, bitmap, etc.
  • type information (called an image type) is recorded in the 3D information in order to distinguish these types of differences.
  • FIG. 9 shows an example of storage and an example of 3D information when the presence or absence of a connection indicates "no connection".
  • the K file headers and image information in Fig. 9 are in a format that can be recognized as a file in the existing format by itself.
  • images 1 through K are recorded as independent pitmap files, and the 3D information, management information, and the bitmap file of image 1.
  • the file is connected in order.
  • multi-view image information may be recorded as separate image data in a file.
  • the image information of each viewpoint is recorded in the format shown in Fig. 7 (a) for the existing format, and in the format shown in Fig. 7 (b) for the new format.
  • Fig. 7 (a) for the existing format
  • Fig. 7 (b) for the new format.
  • Figure 10 shows an example using the existing format. Since the number of viewpoints is K, K files are created.
  • the 3D information creating unit 103 creates 3D information for the number of viewpoints.
  • the image order is omitted, and the viewpoint number is recorded to indicate which viewpoint number each file corresponds to.
  • FIG. 11 shows an example of the 3D information at this time.
  • FIG. 12 is a diagram illustrating an example of 3D information when the number of viewpoints is two.
  • Negus spot numbers 1 and 2 are used. Since the number of viewpoints is 2, two 3D information shown in FIGS. 12 (a) and (b) are created. The 3D information items are shown on the left side, and the setting values are shown on the right side. Of the items, the same values are recorded for the arrangement method, the number of viewpoints in the horizontal direction, the number of viewpoints in the vertical direction, and 2D selection in Fig. 12 (a) and Fig. 12 (b). The other items are different, and Fig. 12 (a) is the image of viewpoint number 1 and not reduced, and Fig.
  • FIG. 12 (b) is the image of viewpoint number 2 and reduced. Is shown. Furthermore, when recording multi-view image information as separate files, it is necessary to identify the file of the corresponding viewpoint among the multi-view images captured by the same imaging device from the multiple recorded files. There is.
  • information for identifying a file of each viewpoint image captured by the same imaging device may be recorded in the management information.
  • FIG. 13 is a diagram showing an example of the management information at this time, in which information as to what name the file of the multi-viewpoint image is recorded on the recording medium is recorded. In Fig.
  • the file configuration takes the values of "separation” and "integration", where "separation” indicates that each viewpoint image is recorded as a separate file, and "integration" indicates that all viewpoint images are recorded. Indicates that is recorded in one file. The viewpoint number and the file name are recorded in association with each other so that the file name of the corresponding image data can be known from the viewpoint number.
  • a file name may be given according to a predetermined naming rule so that the set of multi-view images captured by the imaging device is the same. For example, if the number of viewpoints is 2 as described above, the file names of one set of image 1 and image 2 are "stereo 1 —1.j pg” and “stereo 1_2.jpg” respectively, and the file names of another set are respectively stereo 2-1.jpg "and stereo 2-1.jpg.
  • the 3D information or management information recorded in each file has overlapping parts.
  • the same information is shown except for the presence or absence of reduction and the viewpoint number.
  • the management information shown in FIG. 13 the contents of the management information are common to all files.
  • the common information may be recorded in only one file, and only the information (individual information) unique to the image data may be recorded in other files.
  • FIG. FIG. 14 (a) shows a file in which individual information and common information are recorded
  • FIG. 14 (b) shows a file in which only individual information is not recorded.
  • the file in Figure 14 (a) is in the existing format.
  • the file shown in Fig. 14 (b) is recorded in a new format, and the file extension is used to distinguish the file in which common information is recorded from the file in which only other individual information is recorded.
  • the file name of the file in which the common information is recorded may be recorded as the individual management information. This makes it easy to specify a file in which common information is recorded from a file in which only individual information is recorded.
  • the method of identifying these files is to use the naming rule described above so that the image file of each viewpoint can be identified, and to specify the specific viewpoint such as the viewpoint number specified in 2D selection.
  • the common information may be recorded in the numbered image file.
  • duplicate information may be combined into one to create a management file, and each image file may record only unique information.
  • a unique extension different from the image file is used for the management file.
  • directories are used to manage files collectively.
  • One set of created image files for each viewpoint may include management files if they exist) may be recorded in the same directory.
  • the image information of the image combined into one is recorded in the image information area of FIGS. 7 (a) and 7 (b).
  • a plurality of images obtained by combining corresponding frames of a multi-view image are recorded.
  • the viewpoint number is fixed and the arrangement order of the images can be changed arbitrarily.
  • the image arrangement order is fixed and the viewpoint number is changed arbitrarily.
  • the method of installing the imaging device can be any arrangement other than the lattice arrangement.
  • a reference imaging device viewpoint number is 1
  • the position is expressed in a coordinate system with this as the origin.
  • the position coordinates of the imaging device for each viewpoint are recorded in the order of the viewpoint numbers.
  • 3D information and management information are recorded at the beginning of the file, but the file in the new format is not limited to this.
  • the storage location may be after the file header or after the image information, or may be the same as the existing format shown in Fig. 7 (a).
  • FIG. 15 is a block diagram showing a configuration of the three-dimensional image reproducing device according to the embodiment of the present invention.
  • the three-dimensional image reproducing device 200 includes an inverse multiplexing unit 201, a 3D information analyzing unit 202, and an image converting unit 203.
  • the demultiplexing unit 201 reads the image data multiplexed in a predetermined format from the recording device ⁇ the communication device, and separates the image data into 3D information and management information. Although not shown in FIG. 15, when voice and music are multiplexed, those data are also separated by the demultiplexing unit 201.
  • the 3D information analysis unit 202 analyzes 3D information of a predetermined format and extracts a set value for each item.
  • the image converter 203 has different display formats, such as a two-dimensional display device using a normal CRT or liquid crystal panel, a three-dimensional display device using a lenticular method, a parallax barrier method, a time-division method, etc. The device is connected.
  • the demultiplexer 201 uses the existing format file shown in Fig. 7 (a) when the file to be played back is a file of the existing format. Reads 3D information from the extended area of the file header. In the case of the new format shown in Fig. 7 (b), 3D information is read from the beginning of the file.
  • the 3D information analysis unit 202 analyzes the 3D information and extracts setting values such as presence / absence of connection, presence / absence of reduction, number of viewpoints, arrangement method, and 2D selection. Further, the viewpoint number of the image to be displayed as a three-dimensional image is determined. In order to display multi-viewpoint image data as a three-dimensional image, two viewpoints having parallax may be selected from the multi-viewpoint image and used as a left-eye image and a right-eye image. For example, in the case of image data recorded by the imager shown in Fig. 2, you can select from 1 and 2, 1 and 3, 1 and 4, 2 and 3, 2 and 4, etc. It is.
  • a set of 1 and 5, 2 and 6, 3 and 7 and 4 and 8 can be displayed as a three-dimensional image. If the presence / absence of combination indicates “no combination”, the selected file contains only the image information of one viewpoint as shown in Fig. 10 or each of the uncombined parts as shown in Fig. 8 Either all the image information of the viewpoint is recorded. In order to distinguish between them, as a result of analyzing the 3D information, it is sufficient to check whether or not the 3D information includes image order information. The latter is the case if the image order is included in the 3D information.
  • the demultiplexing unit 201 reads out the image information of the input viewpoint number from the file, and outputs it to the image conversion unit 203. If the image information of the input viewpoint number is not recorded in the file, the file in which the image information is recorded is found out from the management information and the naming rule as described above and read out. Alternatively, the file configuration in the management information may be referred to distinguish whether only one view or all views are recorded in the file. If the file structure is "separated”, image information of one viewpoint is recorded, and if it is "integrated”, image information of all viewpoints is recorded.
  • the viewpoint number is output to the image conversion unit 203.
  • FIG. 20 shows the configuration of the three-dimensional image reproducing device 210 in such a case.
  • the three-dimensional image reproducing device 210 differs from the three-dimensional image reproducing device 200 in FIG. 15 in that a decoding unit 204 is provided.
  • the image conversion unit 203 selects the demultiplexing unit 2 according to the presence / absence of coupling, presence / absence of reduction, number of viewpoints, arrangement method, 2D selection, and viewpoint number input by the 3D information analysis unit 202. 01
  • the image information separated by 1 is converted into a display format.
  • the presence or absence of the connection indicates "no connection”
  • the conversion is performed when the image information specified by the viewpoint number is completed. If the image information is not complete due to the file being deleted or the like, the image with the viewpoint number closest to the arrangement may be used instead, or two-dimensional display may be performed.
  • the presence or absence of the combination is “with combination”, the image of the viewpoint specified by the viewpoint number is cut out from the combined image and then converted.
  • a 3D image playback device 200 is connected to a display device of the parallax barrier type
  • the format of Fig. 4 (e) above is the easiest to handle.
  • the left and right images only need to be arranged every other pixel in the horizontal direction.
  • the left and right images are thinned to 1Z2 in the horizontal direction before being arranged every other pixel in the horizontal direction.
  • the 3D information is added to the image data, it can be converted to a display format suitable for the display device.
  • the image with the viewpoint number specified by 2D selection is displayed.
  • the presence or absence of the reduction is "no reduction”
  • it is displayed as it is, and if it is "reduction”, it is enlarged and displayed twice.
  • any one of the displayed images may be selected and displayed.
  • the selection method is, for example, the one with the smallest viewpoint number, the one with the largest viewpoint number, the one with the closest distance to the viewpoint number specified by 2D selection in terms of installation of the imaging device and the arrangement of the combined image, and the one with the left eye image
  • an image to be displayed is selected by a predetermined method.
  • the image specified by 2D selection is displayed.
  • the display method is the same as the two-dimensional display on the three-dimensional display device. If the file selected by the user is a management file, the presence or absence of the combination recorded in the 3D information indicates “no combination”, but any combination of the stereoscopically viewable viewpoint numbers is selected. do it.
  • the operation from the reading of the image data from the image file to the conversion to the display format is the same as described above, and the description is omitted here.
  • the viewpoint number and the file name are recorded in the management information. That is, in the three-dimensional image creation device I 00, the image information is a set of multi-view images captured by the same imaging device. Is recorded in the common information and the individual information, and in the three-dimensional image reproducing apparatus 200, the image information is read only when the file name and the identification number match. One identification number may be assigned to a set of multi-view images, or a different number may be assigned to each viewpoint. By doing so, it is possible to prevent malfunction due to falsification of the file name.
  • thumbnail image may be recorded in an image file.
  • the DCF Design rule for Camera File system
  • the DCF standard which was formulated to ensure compatibility of image files, requires minimum playback compatibility even if the main image (image information) cannot be played. In order to keep it, thumbnail images must be stored.
  • the DCF standard does not specify the number of pixels in the main image, the number of pixels in the thumbnail image is limited to one type of 160 pixels x 120 pixels.
  • a form as shown in Fig. 21 (b) can be considered. That is, it is assumed that 3D information is added to the image file in the format of FIG. 21 (a), and the main image in FIG. 21 (b) is a 3D image.
  • Fig. 21 (b) for example, as shown in Fig. 4 (e), it is assumed that an image obtained by reducing the image of the two viewpoints in the horizontal direction and reducing them by 1/2 is stored. Assume that the number of pixels is 640 pixels X 480 pixels. Also, assuming that an image obtained by reducing the main image to 160 pixels ⁇ 120 pixels is used as the thumbnail image, the image included in this file is as shown in FIG. 22 (a). In this case, it can be said that both the main image and the thumbnail image are 3D images.
  • thumbnail display as shown can be performed. Also, by performing the image conversion performed when the main image is displayed in 3D on the thumbnail image, the thumbnail can be displayed in 3D. Furthermore, by giving a parallax to the symbol indicating that the image is a 3D image (for example, the character “3D” in FIG. 23 (c)) itself, it is possible to enhance the visibility by displaying the 3D image.
  • a thumbnail image as shown in Fig.
  • thumbnail image does not need to be a reduced version of the main image
  • a combination of the main image and the thumbnail image as shown in FIG. 22 (b) can be considered.
  • the main image in Fig. 22 (b) is the same as Fig. 22 (a), except that the thumbnail image is obtained by extracting only one viewpoint image from the main image and reducing the whole image to 160 pixels x 120 pixels. Has become.
  • the main image is reduced by 1/2 in the horizontal direction, that is, the ratio of the length in the horizontal direction to the length in the vertical direction is 1: 2. After taking out the image, it is assumed to be enlarged twice in the horizontal direction. ,
  • thumbnail display as shown in FIG. 23 (b) can be made.
  • Fig. 22 (b) by extracting only one viewpoint image from the main image and making it a thumbnail image, it is possible to quickly display a thumbnail without distortion. Note that even if the thumbnail image is as shown in Fig. 22 (a), only one viewpoint is taken out when displaying the thumbnail, and 3D is stored after being enlarged twice in the horizontal direction. By overlaying on the thumbnail image, a thumbnail display as shown in FIG. 23 (b) is possible.
  • FIG. 22 shows a case where the presence or absence of the combination of the main images is “with combination”, but the main image may be “without combination” as shown in FIG. 4 (a).
  • the presence / absence of combination of the main images is “no combination”
  • a reduced one of a plurality of images recorded as the main image may be recorded as a thumbnail image.
  • the “2D selection” information was explained earlier. However, regardless of whether the main image is combined with “combined” or “uncombined”, the information specified by “2P selection”
  • a thumbnail image may be created by extracting an image corresponding to the viewpoint, or a thumbnail may be displayed.
  • a 3D image playback device that can interpret 3D information as described so far can receive a file as shown in Fig. 21 (b), it can process it properly.
  • the 3D image reproducing apparatus does not have the 3D information analysis unit 202 and the image conversion unit 203 in FIG. 20 and cannot be connected to a 3D display. Since such a three-dimensional image reproducing apparatus cannot interpret 3D information, it is not known whether the image information stored in this file is a 2D image or a 3D image, and if it is, Even if it turns out to be a 3D image by some means, it cannot reproduce image information correctly because it does not have an image converter.
  • thumbnail image in which a symbol indicating that this file stores a 3D image is recorded as a thumbnail image.
  • a thumbnail image may be a picture with the pictogram "3D" superimposed on the lower right of the image, or as shown in Fig. 23 (b).
  • Thumbnail images may have the word “3D” embedded in the center of the screen like a watermark.
  • the image shown in Fig. 23 (c) is recorded as a thumbnail image, it can be recognized that at least this file contains a 3D image.
  • the embedding position and size may be specified by the user at the time of recording. Alternatively, a plurality of symbols may be prepared so that an arbitrary symbol can be selected from among them. Further, when creating a thumbnail image, the background area of the image may be automatically determined, and a symbol may be written in the background area. In addition, when a symbol representing 3D is automatically embedded in the thumbnail image as described above, the thumbnail image once recorded is checked, and if the position or size of the symbol is not preferable, a thumbnail image is created. You may make it possible to do it again.
  • FIG. 24 shows an example of a combination of the main image and the thumbnail image of the image file thus recorded.
  • an image in which the images of the two viewpoints are horizontally reduced to 1Z2 and combined as shown in Fig. 4 (e) is stored as the main image.
  • the number of pixels is 640 pixels X 480 pixels.
  • the thumbnail image an image obtained by embedding a symbol indicating that this file is a 3D image stored in an image obtained by reducing the main image to 160 pixels ⁇ 120 pixels is used.
  • a thumbnail image as shown in FIG. 23 (c) is stored
  • a combination as shown in FIG. 24 (a) is stored, and when a thumbnail image as shown in FIG. 23 (b) is stored, The combination is as shown in Fig. 24 (b).
  • the symbol itself may be text, a mark, or a specific image if it represents 3D.
  • a 3D image playback device that can interpret 3D information does not necessarily support all data formats.
  • a three-dimensional image reproducing apparatus that supports only four-eye 3D images cannot display correctly even if it receives two-eye 3D image data.
  • a 3D image playback device that can interpret 3D information can determine whether or not the main image contained in the file can be played back correctly by interpreting the 3D information.
  • a thumbnail image may be displayed, and a message such as "3D data not supported-in evening format" may be displayed.
  • FIG. 28 shows an example of a three-dimensional image creating apparatus that records a thumbnail image in a file.
  • the three-dimensional image creation device 120 shown in FIG. 28 includes a thumbnail image creation unit 106, which multiplexes thumbnail data together with encoded data (or uncompressed image information) and 3D information. Create a file by multiplexing in 4.
  • the output destination of the file can be a recording device such as an IC memory, a magneto-optical disk, a magnetic tape, or a hard disk, or a communication device such as a LAN or a modem.
  • the size of a thumbnail image is defined as 160 pixels ⁇ 120 pixels, but a general thumbnail image is not limited to this size.
  • FIG. 26 shows an example of a three-dimensional image reproducing apparatus that performs a thumbnail display as shown in FIG. 23 from a thumbnail image as shown in FIG.
  • portions having the same functions as those of the three-dimensional image reproducing device 210 shown in FIG. 20 are denoted by the same reference numerals, and description thereof is omitted.
  • thumbnail data is separated in the inverse multiplexing unit 221. If the data to be reproduced is a 3D image, the thumbnail generation unit 225 decodes the thumbnail data according to an instruction from the 3D information analysis unit 202 (decoding is necessary for uncompressed data).
  • Thumbnail image is displayed with the thumbnail image and the symbol indicating that it is a 3D image.
  • the thumbnail generation unit 225 performs the same process on the thumbnail image as the conversion performed by the image conversion unit 203 on the main image.
  • FIG. 27 shows an example of a three-dimensional image reproducing apparatus capable of switching and outputting a 3D display image and a 2D display image.
  • portions having the same functions as those of the three-dimensional image reproducing device 220 shown in FIG. 26 are denoted by the same reference numerals, and description thereof is omitted.
  • the image reproducing apparatus 230 shown in FIG. 27 when image data obtained by encoding the main image and the thumbnail image as shown in FIG. 24 is input, the image data is decoded by the decoding unit 204. The image information is sent to the image conversion unit 203 and also to the thumbnail generation unit 225.
  • the control unit 226 gives an instruction to output a 3D display image or a 2D display image to the image conversion unit 203 and the thumbnail generation unit 225.
  • the thumbnail generation unit 225 may output the thumbnail image as shown in FIG. 24 as it is (in this case, a symbol indicating 3D is also displayed).
  • the input main image may be reduced, and a thumbnail image that does not include a symbol indicating that the image is 3D may be output by performing the same processing as the image conversion unit 203.
  • the input main image may be reduced and the same processing as that performed by the image conversion unit 203 may be performed.
  • a 3D file is displayed as a 3D symbol, which indicates that it is a 3D file, but the thumbnail image is displayed as it is for a 3D file. If the file is a 2D file, a symbol indicating that the file is 2D may be displayed so as to overlap the thumbnail image.
  • the information included in the 3D information is displayed on the thumbnail image. It may be. Further, the information included in the 3D information and the symbol indicating 3D may be displayed not only on the thumbnail image but also at a predetermined position near the thumbnail image.
  • FIG. 25 shows another example of a thumbnail image stored in a file.
  • FIG. 25 (a) shows the first image as the parent image and the second image as the child image
  • the parent image and the child image may be switched as shown in FIG. 25 (b).
  • FIGS. 25 (0) and 25 (d) show the images of FIGS. 25 (a) and 25 (b), respectively, in which a symbol indicating 3D is embedded.
  • the symbol indicating that the image is 3D may not be recorded in the thumbnail image, but may be output when the thumbnail is displayed.
  • a personal computer performs a three-dimensional display process using a GUI application software for three-dimensional image display, and performs three-dimensional display on a three-dimensional display. That is, the CPU provided in the personal computer is recorded on a recording medium such as a CD-ROM / hard disk. Performs processing on moving images and still images according to the body display application software, and displays them three-dimensionally on the stereo display. Furthermore, if the user gives an instruction about stereoscopic processing using a mouse or a keyboard, the CPU performs processing based on the instruction.
  • FIG. 29 is a diagram for explaining a display image of a three-dimensional display according to the eighth embodiment.
  • a display image 2 processed by a three-dimensional image display application is displayed on a display 1.
  • the processing display image 2 of the 3D image display application includes a 3D image display area 3, a magnification change bar 4, and a warning display area 5.
  • step S1 display information is obtained.
  • the display information here is the width W [m] of the display, the resolution P [dot] of the display, and the distance D [m] between the user and the display.
  • the distance between the user and the display may be accurately obtained using a position sensor or the like.For example, if the display size is 15 inches, the distance from the user is about lm. It is convenient to store the approximate distance in advance on the basis of the distance to the user according to the display size and type, and use that value. Also, in a three-dimensional display that projects different images to the left and right eyes to give a three-dimensional effect
  • the left and right images are not mixed.
  • an image viewed from the user's left eye is used.
  • the right-eye image may be slightly overlapped and displayed.
  • Cross this thing! Call In general, the less crosstalk, the better the stereoscopic display, and the greater the crosstalk, the narrower the range of comfortable stereoscopic viewing. For this reason, when the crosstalk is large as described below, the range of the parallax that can be comfortably viewed on the stereoscopic display may be reduced when the crosstalk is large as described below, including the crosstalk information as the display information.
  • step S2 a parallax range that allows stereoscopic viewing is obtained.
  • the CPU of the personal computer can calculate the parallax amount 0 in the range where stereoscopic viewing can be performed comfortably at this time using Equations (1), (2), and (3) based on the displacement of the left and right images.
  • t f — f and t h — b are expressed as the distance (parallax) between the left and right corresponding points on the stereoscopic display surface.
  • the degree of deviation of the right-eye image is calculated based on the left-eye image, and the value of the parallax is positive when the image pops out (the left-eye image is on the right side).
  • the disparity value is negative.
  • the range of the parallax value from th— to th-b is the maximum parallax range of the stereoscopic display that enables comfortable stereoscopic viewing.
  • t h-t h-b are threshold values indicating the maximum parallax range, respectively.
  • Equations (1), (2), and (3) are instead of using them, the values obtained by experimenting with the display performance of the stereoscopic display may be stored in advance in a database or the like, and then used by the CPU.
  • the maximum projection amount f [dot] and the maximum retraction amount b [dot] of the display source 3D image are acquired from the tag information of the 3D image.
  • the tag information is additional information separately attached to the three-dimensional image, such as a photographing condition at the time of photographing.
  • the information of the maximum pop-out amount and the maximum pull-in amount of the three-dimensional image is added as evening information in advance, but there is also a method of automatically obtaining the information of f and b by stereo matching.
  • f and b are also expressed as the amount of parallax on the stereoscopic display surface. These values indicate the parallax range (parallax range) of the 3D image.
  • step S 4 the user inputs the enlargement or reduction ratio E [%] of the three-dimensional image using the enlargement ratio change bar 4. Entering the zoom factor
  • step S5 the enlargement or reduction ratio can be obtained.
  • step S5 it is determined whether or not the amount of parallax of the three-dimensional image is within a parallax range where stereoscopic viewing is possible.
  • step S3 the enlargement ratio E [%] obtained in step S4
  • step S6 the CPU of the personal computer determines whether the amount of parallax of the three-dimensional image deviates from the parallax range in which stereoscopic viewing is possible. Messages such as "Protrusion is too weak" and "Retraction is too weak" are determined and displayed in the warning display area 5. At this time, the message may be notified by voice, or the color of the three-dimensional image display area 3 may be changed.
  • the warning for the user is not limited to the display of the message in the warning display area 5.
  • the parallax amount [dot] which is the shift of the corresponding point between the left and right images, is used to determine the pop-out amount of the three-dimensional image.
  • the determination may be made using the amount z [m] that can be seen from the display in advance.
  • the processing display image 6 of the three-dimensional display 1 in the ninth embodiment includes a three-dimensional image display area 3, a magnification change bar 4, and a warning display area 5, as shown in FIG.
  • Steps S1 to S5 are the same as in the eighth embodiment.
  • step S16 as shown in FIG. 33, the pop-out correction (parallax adjustment) is performed.
  • Fig. 33 (a) the range of parallax of the 3D image before the enlargement processing is shown, and in (b), The parallax range of the three-dimensional image after the enlargement processing is shown, and (c) shows the parallax range of the three-dimensional image after the correction processing.
  • the horizontal axis indicates the size of the shift (dot) of the stereo correspondence point between the left and right images, and the hatched area indicates the parallax range where comfortable stereoscopic viewing is possible.
  • the symbol is f, the maximum amount of protrusion of the 3D image before the enlargement processing is performed, the amount of retraction is b, the maximum amount of protrusion of the image after enlargement is ⁇ , the amount of retraction is b ', and a 3D display is comfortable.
  • the maximum amount of projection that can be viewed stereoscopically is th-f, and the amount of bow I penetration is th-b. Even if the maximum projection amount f 'of the enlarged image f' is larger than th-f, but is smaller than f'-b-th force th-f-th-b, the entire right-eye image is as shown in Fig. 34.
  • the entire right-eye image is represented by b
  • the entire 3D image is displayed so that it protrudes from the 3D display, enabling comfortable 3D viewing.
  • the shift amount is positive, the entire right-eye image is shifted to the right.
  • the shift amount is negative, the entire right-eye image is shifted to the left.
  • pop-out correction of the entire 3D image is performed by shifting the right-eye image.
  • the present invention is not limited to shifting the right-eye image, and a method of fixing the right-eye image and shifting the left-eye image Or, both may be shifted at the same time.
  • the warning area displays “Too strong and cannot be corrected”, or displays only one of the left and right images in the 3D image display area. To prevent users from displaying unpleasant 3D images Although the warning display area 5 is not essential, it is not necessary to warn the user.
  • the 3D image that has been reduced in the stereoscopic effect due to the reduction process can be popped out or retracted as a whole to emphasize the stereoscopic effect.
  • step S16 as the processing when the enlargement ratio of step S4 is smaller than 1, the 3D image after the reduction processing is shifted by f-1: T so as to protrude from the display to the front to reduce the size.
  • the tenth embodiment of the present invention is an improvement of the pop-out correction process (parallax amount adjustment process) of step S16 in the ninth embodiment.
  • the stereoscopic effect is adjusted by giving priority to the central portion of the 3D image. This makes it possible to display the image as if it were too light. This is based on the property that human vision can see objects closer to the center than to the periphery of the visual field.
  • step S1 to step S5 in the flowchart shown in FIG. 32 is the same as that in the ninth embodiment, but instead of the parallax amount adjustment in step S16, Then, the amount of parallax is adjusted in step S17. That is, the processing from step S21 to step S26 in FIG. 35 is performed.
  • the processing flow at this time will be described below with reference to the flowchart in FIG.
  • 21 is the initial value of the parallax amount acquisition area of the 3D image to be processed. To specify the entire image.
  • step S22 the protruding amount and the retracting amount of each pixel are compared in the parallax amount acquiring area, and the maximum pop-out amount ⁇ and the maximum retracting amount b ′ in the parallax amount acquiring area are acquired.
  • the pop-out amount and the pull-in amount information are added in advance as tag information for each pixel of the image, but there is also a method of automatically obtaining each pixel by stereo matching. It is not limited to information acquisition. Further, it is not necessary to obtain the pop-out amount and the pull-in amount for all the pixels, and a method of obtaining some special pixels in the parallax amount obtaining area may be used.
  • step S23 it is determined whether or not stereoscopic viewing is possible by adjusting the amount of parallax for shifting the entire three-dimensional image.
  • Fig. 34 by shifting by f 1 t h-3, the entire 3D image is displayed so as to be retracted from the 3D display, and comfortable stereoscopic vision becomes possible.
  • ⁇ i-b ' is larger than th -—- th-b, pop-out cannot be corrected by simply shifting the entire left and right images.
  • the CPU of the personal computer determines that stereoscopic viewing cannot be performed by adjusting the amount of parallax when ⁇ 1b, is larger than th-f-th-b, and determines the amount of parallax in step S24.
  • the acquisition area is reduced, and the processing from step S22 is repeated again.
  • the entire three-dimensional image is set to a range L1 (horizontal wl, vertical h2) as an initial value, and when correction processing cannot be performed in L1, L2 (horizontal w2, Length h2) is the range to be corrected, and if correction cannot be performed with L2, repeat L3 (horizontal w3, vertical) ⁇ 3).
  • the personal computer CPU adjusts the amount of parallax in step 23. If it is determined that stereoscopic vision is possible, the amount of parallax due to shifting of the three-dimensional image is determined in step S25. Make adjustments.
  • the point where the three-dimensional effect is adjusted is not the center of the screen, but the object that has the largest protrusion ⁇
  • the object that is the most noticed is specified as the point of interest in advance, and the three-dimensional effect is adjusted by giving priority to the area around the point of interest By doing so, it is also possible to display images so that they can be easily viewed in stereo.
  • the color data for each pixel of the three-dimensional image data is supplied from the three-dimensional image data supply unit 10.
  • Evening and parallax data are stored in the data processing storage unit 11 from the three-dimensional image display unit 12, the size and resolution of the display device, and the magnitude of crosstalk.
  • the three-dimensional image data supply unit 10 a magnetic disk, a semiconductor memory, data transmission over a wired or wireless network, or the like can be considered.
  • the temporary memory for data processing may be a semiconductor memory or a magnetic disk mounted on a PDA, a mobile phone, or the like.
  • the enlargement ratio designating unit 13 may be a button for enlarging / reducing, a dial, or the like.
  • the parallax adjustment unit 14 performs the same processing as steps S1 to S5 in the eighth embodiment on the three-dimensional image data stored in the data processing storage unit 11. That is, the display information stored in the data processing storage unit 11 is obtained, the parallax range in which the three-dimensional image data can be viewed stereoscopically is obtained, and this is obtained by viewing the three-dimensional image. It is determined whether or not the parallax amount of the three-dimensional image is within the parallax range where stereoscopic viewing is possible, by comparing with the parallax amount.
  • the warning processing unit 15 warns in the three-dimensional image display unit 12.
  • the text to be displayed as a warning is stored in the data processing storage unit 11, and the warning processing unit 15 determines based on how much the parallax amount of the three-dimensional image deviates from the parallax range in which stereoscopic viewing is possible. . In this way, the word to be warned is temporarily stored in the data processing storage unit 11 and is overlaid and displayed on the three-dimensional image display unit 12 to warn the user.
  • a warning-dedicated display unit different from the three-dimensional image display unit 12 may be used, or a warning sound or the like may be issued by using a speaker or a headphone.
  • the present invention relates to a three-dimensional image creation device, a three-dimensional image processing device, and the like for displaying a three-dimensional image, so that a user can appropriately confirm the contents of the three-dimensional image, and the image is enlarged and reduced. Even in this case, it is suitable for a device that appropriately presents the contents of a 3D image to the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書
3次元画像作成装置、 3次元画像再生装置、 3次元画像処理装置、 3次元画像処 理プログラムおよびそのプログラムを記録した記録媒体
技術分野
本発明は、 3次元表示するための画像データを作成する際に、 画像データに属 性情報を付随させる 3次元画像作成装置およびそのデータを再生する 3次元画像 再生装置に関するものである。
また、 本発明は、 3次元画像を拡大縮小すると視差量が変化することにより、 拡大後の 3次元画像が立体視しにくくなったり、 立体感にかけるおそれがある時 には、 ユーザ一にその旨を警告し、 また、 立体感の補正が可能であれば補正を行 うことを目的とする 3次元画像処理装置、 3次元画像処理プログラムおよびその プログラムを記録した記録媒体に関する。
背景技術
従来、 3次元画像を表示する様々な方法が提案されてきた。 その中でも一般的 に用いられているのは両眼視差を利用する 「2眼式」 と呼ばれるものである。 す なわち、 両眼視差を持った左眼画像と右眼画像を用意し、 それぞれ独立に左右の 眼に投影することにより立体視を行う。
図 1 6は、 この 2眼式の代表的な方式の 1つである 「時分割方式」 を説明する ための概念図である。
この時分割方式は、 図 1 6のように、 左眼画像と右眼画像が垂直方向 1画素お きに交互にならんだ形に配置され、 左眼画像の表示と右眼画像の表示が交互に切 り替えて表示されるものである。 左眼画像および右眼画像は通常の 2次元表示時 に比べて垂直解像度が 1 / 2になっている。 観察者はディスプレイの切り替え周 期に同期して開閉するシャツ夕式のメガネを着用する。 ここで使用するシャツ夕 は、 左眼画像が表示されている時は左眼側が開いて右眼側が閉じ、 右眼画像が表 示されている時は左眼側が閉じて右眼側が開く。 こうすることで、 左眼画像は左 眼だけで、 右眼画像は右眼だけで観察されることになり、 立体視を行うことがで きる。
図 17は、 2眼式のもう 1つの代表的な方式である 「パララクスバリァ方式」 を説明するための概念図である。
図 17 (a) は、 視差が生じる原理を示す図である。 一方、 図 17 (b) は、 パララクスバリア方式で表示される画面を示す図である。
図 17 (a) では、 図 17 (b) に示すような左眼画像と右眼画像が水平方向
1画素おきに交互にならんだ形に配置された画像を、 画像表示パネル 401に表 示し、 同一視点の画素の間隔よりも狭い間隔でスリットを持つパララクスバリア 402を画像表示パネル 401の前面に置くことにより、 左眼画像は左眼 403 だけで、 右眼画像は右眼 404だけで観察することになり、 立体視を行うことが できる。
ところで、 パララクスバリア方式と同様に図 17 (b) に示すような画像を 3 次元表示する方式に、 「レンチキユラ方式」 がある。 このレンチキユラ方式で用 いるための記録データ形式の一例が、 特開平 11— 41627号公報において開 示されている。
図 18は、 このようなレンチキユラ方式の記録データ形式の一例を示す概念図 である。 図 18 (a) に示す左眼画像 501と図 18 (b) に示す右眼画像 50 2から、 それぞれを水平方向に 1/2に間引きして図 18 (c) に示す 1枚の混 合画像 503を作って記録する。 再生時にはこの混合画像 503を並べ替えるこ とにより図 17 (b) に示したような合成画像が作成される。
さて、 3次元画像に限った話ではないが、 特開 2001— 337994号公報 にはサムネイル画像の識別のために付加情報を記憶しておき、 表示装置において 付加情報をサムネイル画像に重ねて表示する方法が開示されている。
このように左右の目で異なった画像を観察することで、 立体視を可能とする方 法では、 左右の画像の対応点の距離 (以降、 視差と呼ぶ) がある一定の範囲では 、 快適に立体視することができるが、 視差が大きくなると両眼の画像が融合しな くなり立体視できなくなる。 この時の視差の大きさについては、 例えば、 平成 1 4年に財団法人機械システム振興協会が発行した 「3次元映像に関するガイドラ イン試案」 により、 報告されている。
上記の視差が大きいために両眼画像が融合せず立体視しにくい 3次元画像を表 示する際に、 左右画像の表示位置を立体ディスプレイ上でずらすことで視差を調 整し、 3次元画像を見やすく表示する方法が、 特開 2 0 0 0— 7 8 6 1 5号公報 ゃ特開平 1 0— 2 2 1 7 7 5号公報に公開されている。
上記のように、 従来の 3次元表示システムにおいては、 再生装置側で決められ た表示方式に適するように、 記録データ形式を固定した記録が行われており、 記 録データに汎用性を持たせることは考えられていない。
表示方式以外にも画像の間引き方法や、 いわゆる 「多眼式」 における視点の数 など、 3次元表示に必要な情報はいろいろあるが、 表示方式が単一の場合、 それ らの情報は記録データとして記録されない。 いつも同じ表示方式を使うなら、 あ えてそれらの情報を記録する必要がないからだが、 このために記録データの汎用 性が著しく損なわれている。 例えば、 パララクスバリア方式 (あるいはレンチキ ユラ方式) 用のデ一夕を記録する場合に限っても、 左眼画像と右眼画像を別々の シーケンスとして記録することもできるし、 図 1 8 ( c ) のような左眼画像と右 眼画像が画面半分ずつ左右に並んだ混合画像を記録することもできるし、 図 1 7 ( b ) のような左眼画像と右眼画像が水平方向 1画素おきに並んだ合成画像を記 録することもできる。 当然記録形式が違えばこれを表示するための処理方法も異 なるが、 記録されたデータからはどの形式で記録されたかを知ることができない ため、 第三者がそのデータを手にした時、 どのような処理によって表示すればよ いのかがわからないという問題がある。
さらに、 従来の技術では、 各視点の画像データを互いに独立に記録し、 所望の 視点の画像のみを簡単に読み出し、 再生するといつたことが考慮されていなかつ た。
また、 従来の技術では既存の装置との互換性が十分に考えられていない。 すな わち、 特開 2001 _ 337994号公報に開示されているシステムにおいては 、 付加情報を解釈できる表示システムのことだけが考えられており、 それを解釈 できない表示システムでは付加情報は役に立たない。
さらに、 上記従来の技術による 3次元画像を拡大あるいは縮小すると、 3次元 画像の飛び出し量や引き込み量が変化してしまい、 所望の立体感が得られなくな るという問題がある。
以下ではまず、 左右両眼に別の画像を表示することで、 立体視を行う立体ディ スプレイの原理について、 図 39、 図 40を用いて簡単に説明する。 これらの図 面はいずれも立体ディスプレイ 1を両眼間隔 dのユーザーが観察しているところ を、 上方からみた模式図である。
一般に、 ュ一ザ一の両眼間隔を d [m] 、 ユーザ一と立体ディスプレイ 1との 距離を D [m] 、 ディスプレイの幅を W [m] 、 ディスプレイの解像度を P [d o t] 、 3次元画像の左右の対応点の距離を 1 [do t] とすると、
3次元画像が飛び出し時の飛び出し量 z [m] は、
z = ( 1 XW/P) XD/ (d+ (1 XW/P) ) · · ·式 (1)
3次元画像が引っ込み時の引き込み量 z [m] は、
z = ( 1 XW/P) XD/ (d- ( 1 XW/P) ) · · ·式 (2)
この時の視差 0は、
0= t an- 1 ( 1 /2D) X 2 · · ·式 (3)
であらわされる。
3次元画像を拡大あるいは縮小すると、 左右 画像のずれの大きさが変わるため、 立体感が変化する。 図 3 9 ( a ) に拡大処理 前の 3次元画像、 図 3 9· ( b ) で拡大処理後の 3次元画像を示して説明する。 図 3 9 ( a ) のような、 立体ディスプレイよりも手前に飛び出す 3次元画像を拡大 すると、 図 3 9 ( b ) のように飛び出し量が大きくなる。 ここで、 Γ は拡大後 の左右の対応点、 z ' は拡大後の飛び出し量を示す。
また図 4 0 ( a ) に示すように、 立体ディスプレイよりも奥に引っ込む 3次元 画像を、 拡大表示すると、 引き込み量も大きくなり、 拡大率によっては図 4 0 ( b ) のように両眼の焦点が合わず立体視が出来なくなる。 反対に、 3次元画像の 縮小時には、 左右画像のずれが小さくなるために、 飛び出し量あるいは引き込み 量が小さくなり、 立体感が弱くなつてしまう。
このように、 3次元画像の拡大縮小時には、 拡大時には視差が大きくなるため 飛び出しが大きくなり、 縮小時には逆に視差が小さくなるために飛び出しが小さ くなるというように、 立体感が変更されるため、 通常の 2次元画像と同様の手法 で拡大縮小を行うと、 所望の立体視が出来ずに混乱が生じたり、 無理な立体視を して目に負担がかかるという問題がある。
本発明は、 以上のような問題点を解決するためになされたものであって、 その 目的は、 3次元表示のための画像デ一夕に汎用性を持たせるとともに、 任意の視 点の画像を効率よく選択することを可能とする 3次元画像作成装置、 およびその データを再生する 3次元画像再生装置を提供することにある。
また、 本発明の目的は、 3次元画像を拡大縮小すると視差量がかわるため、 立 体視しにくくなったり、 立体感にかけるおそれがある時には、 ユーザーに警告し 、 立体視が快適にできるように補正する 3次元画像処理装置、 3次元画像処理プ ログラムおよびそのプログラムを記録した記録媒体を提供することにある。
発明の開示
.本発明は、 複数視点に対応した画像情報である主画像を作成する主画像作成部 と、 サムネイル画像を作成するサムネイル画像作成部と、 前記主画像を 3次元表 示するための 3次元制御情報を作成する 3次元制御情報作成部と、 前記主画像と 前記サムネイル画像と前記 3次元制御情報とを多重化する多重化部とを備えるこ とを特徵とする 3次元画像作成装置である。
ここで、 前記サムネィル画像作成部は、 主画像 そのまま縮小したサムネイル 画像を作成すること、 主画像から 1視点分の画像を抜き出してサムネイル画像を 作成すること、 サムネイル画像に 3次元画像であることを示すシンボルを埋め込 むこと、 あるいは、 主画像の縮小画像と主画像から 1視点分の画像を抜き出して 縮小した画像をピクチャ一インピクチャーの形にしたサムネィル画像を作成する ことを特徴とする。
また、 本発明は、 入力された画像データから主画像データとサムネイルデータ と 3次元制御情報を分離する逆多重化部と、 主画像データが 3次元画像である場 合にはサムネイルデータに 3次元画像であることを示すシンボルを重ねたものを サムネイルとして出力するサムネイル生成部とを備えることを特徴とする 3次元 画像再生装置である。
本発明は、 立体視可能な視差範囲を取得する視差範囲取得手段と、 3次元画像 の視差量を取得する視差量取得手段と、 前記 3次元画像の視差量が前記視差範囲 内にあるか否かを判定する判定手段とを備えたことを特徴とする 3次元画像処理 装置である。
また、 立体視可能な視差範囲を取得する視差範囲取得手段と、 3次元画像の視 差量を取得する視差量取得手段と、 前記 3次元画像の拡大あるいは縮小の比率を 取得する比率取得手段と、 前記比率に従って拡大あるいは縮小した前記 3次元画 像の視差量が前記視差範囲内にあるか否かを判定する判定手段とを備えたことを 特徴とする 3次元画像処理装置である。
ここで、 前記判定手段は、 3次元画像の一部の領域について判定処理を行うこ とを特徴とする。 また、 本発明は、 前記判定手段が前記視差量が前記視差領域内にないと判定し た場合に、 ユーザに警告を行う警告手段あるいは 3次元画像の視差量を調整する 視差調整手段を備えたことを特徴とする。
ここで、 前記視差量取得手段は、 前記 3次元画像を表示する立体ディスプレイ の解像度及び Zまたは大きさを用いることを特徴とする。 また、 前記視差範囲取 得手段は、 前記 3次元画像を表示する立体ディスプレイの左右画像の分別能力を 用いることを特徴とする。 また、 前記視差量取得手段は、 予め 3次元画像に付加 されている値を用いることを特徴とする。
また、 本発明は、 コンピュータを、 上記各手段として機能させることを特徴と する 3次元画像処理プログラムである。
また、 本発明は、 上記プログラムを記録したコンピュータ読み取り可能な記録 媒体である。
本発明によれば、 主画像を 3次元表示するための 3次元制御情報を作成し、 主 画像とサムネィル画像と 3次元制御情報とを多重化することにより、 主画像が 3 次元画像である場合に、 画像内容を適切に確認するためのサムネイル画像を出力 することが可能となる。
本発明によれば、 主画像をそのまま縮小したサムネイル画像を作成することに より、 サムネイル画像を 3次元表示することが可能となる。
本発明によれば、 主画像から 1視点分の画像を抜き出してサムネイル画像を作 成することにより、 歪みのないサムネイル画像を表示することが可能である。 本発明によれば、 サムネイル画像に 3次元画像であることを示すシンポルを埋 め込むことにより、 3次元制御情報を解釈できない従来の 3次元画像再生装置に おいても、 選んだフアイルが 3次元であることをサムネィルで判別可能である。 本発明によれば、 主画像の縮小画像と、 主画像から 1視点分の画像を抜き出し て縮小した画像をピクチャ一^ fンピクチャーの形にしたサムネイル画像を作成す ることにより、 歪のない画像による画像内容確認と実際に主画像として記録され ている画像の形の確認を両方を同時に行うことが可能である。
本発明によれば、 主画像データが 3次元画像である場合にはサムネイルデータ に 3次元画像であることを示すシンボルを重ねたものをサムネイルとして出力す ることにより、 選んだフアイルが 2 Dか 3 Dかをサムネィルで判別可能である。 本発明によれば、 3次元画像の視差量が立体視可能な視差範囲内にあるか否か を判定するので、 立体視できない場合に対応処置をとることができる。 例えば、 ユーザーに警告を行ったり、 3次元画像の視差量を調整したりできる。 また、 3 次元画像を拡大 ·縮小する時にも、 3次元画像の視差量が立体視できる視差範囲 にあるか判定して、 その結果立体視が困難になる時は、 各対応処置がとれる。 また、 立体視が困難になる時は、 3次元画像の全体もしくは一部の範囲の視差 量 (例えば、 最大飛び出し量及び最大引き込み量) と、 立体ディスプレイ上にて 快適に立体視できる視差範囲を考慮し、 できるだけ快適に立体視ができるように 、 視差を調整することが可能となる。
このように、 本発明によれば、 ユーザーが 3次元画像の内容を適切に確認でき るようにし、 また、 拡大縮小した場合でも 3次元画像の内容をュ一ザ一に適切に 提示することによって、 3次元画像の観察を快適に行える 3次元画像再生装置あ るいは画像データ処理装置を提供することができる。 図面の簡単な説明
図 1は、 第 1の実施の形態における 3次元画像作成装置の構成を示す図である 図 2は、 多視点の場合の撮像装置の設置例を示す図である。
図 3は、 視点番号のふり方の例を示す図である。
図 4は、 視点数 2の場合の結合例を示す図である。
図 5は、 多視点画像の格子状配置を示す図である。
図 6は、 3 D情報のフォーマツト例を示す図である。 図 7は、 画像データのファイル形式を示す図である。
図 8は、 既存形式のフアイルに画像デ一夕を格納する際のフォーマツ卜の一例 を示す図である。
図 9は、 新規形式のフアイルに画像デ一夕を格納する際のフォーマットの一例 を示す図である。
図 1 0は、 多視点の画像データを別々のフアイルに記録する際の画像デー夕の 格納例を示す図である。
図 1 1は、 3 D情報のフォーマット例を示す図である。
図 1 2は、 3 D情報の設定値の一例を示す図である。
図 1 3は、 管理情報のフォーマツト例を示す図である。
図 1 4は、 多視点の画像データを別々のファイルに記録する際の一例を示す図 である。
図 1 5は、 第 3の実施の形態における 3次元画像再生装置の構成を示す図であ る。
図 1 6は、 時分割方式における画像の表示形式を示す図である。
図 1 7は、 パララクスバリア方式の概念を説明するための図である。
図 1 8は、 パララクスバリア方式における画像の表示形式を説明するための図 である。
図 1 9は、 第 2の実施の形態における 3次元画像作成装置の構成を示す図であ る。
図 2 0は、 第 4の実施の形態における 3次元画像再生装置の構成を示す図であ る。
図 2 1は、 サムネイル画像デ一夕を 3次元表示のために記録する画像ファイル 形式を示す図である。
図 2 2は、 主画像と 1 6 0画素 X 1 2 0画素に縮小したサムネイル画像の組み 合わせを示す図である。 図 2 3は、 3 D画像のデータを格納したものであることを示すシンポルを埋め 込んだサムネイル画像を示す図である。
図 2 4は、 主画像と 3 D画像のデータを格納したものであることを示すシンポ ルを埋め込んだサムネイル画像の組み合わせを示す図である。
図 2 5は、 ピクチャーインピクチャーで表現されたサムネイルの例を示す図で ある。
図 2 6は、 第 6の実施の形態におけるサムネイルが記録されたファイルを再生 する 3次元画像再生装置の構成を示す図である。
図 2 7は、 第 7の実施の形態における 3 D表示と 2 D表示の切り替えが可能な 3次元画像再生装置の構成を示す図である。
図 2 8は、 第 5の実施の形態におけるサムネイル画像をファイル中に記録する 3次元画像作成装置の構成を示す図である。
図 2 9は、 第 8の実施の形態における 3次元画像の GU I画面を示す説明図で ある。
図 3 0は、 第 8の実施の形態における処理を示すフローチャートである。 図 3 1は、 第 9の実施の形態における 3次元画像の GU I画面を示す説明図で める。
図 3 2は、 第 9の実施の形態における処理を示すフロ一チヤ一トである。 図 3 3は、 補正処理における 3次元画像の視差量を示す説明図である。
図 3 4は、 左右画像のずらし量を変更することによる立体感の補正を示す説明 図である。
図 3 5は、 第 1 0の実施の形態における処理を示すフローチャートである。 図 3 6は、 第 1 0の実施の形態におけるステツプ 1 7の処理を示すフローチヤ —卜である。
図 3 7は、 視差量取得エリァの変更方法を示す説明図である。
図 3 8は、 第 1 1の実施の形態における 3次元画像処理装置を示すプロック図 である。
図 3 9は、 3次元画像の飛び出しを説明する図である。
図 4 0は、 3次元画像のひっこみを説明する図である。
発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図面を参照しながら説明する。
ぐ第 1の実施の形態 >
図 1は第 1の実施の形態による 3次元画像作成装置の構成を示すプロック図で ある。 図 1において、 3次元画像作成装置 1 0 0は、 多視点 (視点数 K、 ここで Κは 2以上の整数である) の画像 1から画像 Κの配置方法を決定し、 これらを隣 接させて結合した結合画像を作成する画像結合部 1 0 1、 画像 1から画像 Κを結 合するか否か (結合の有無) 、 画像 1から画像 Κを縮小するか否か (縮小の有無 ) 、 2次元表示の際に使用すべき画像 (2 D選択) 、 視点数および画像の配置順 を指定する制御部 1 0 2、 前記縮小の有無、 結合の有無、 画像の配置方法、 2 D 選択および視点数の情報をフォーマツト化して 3 D情報を作成する 3 D情報作成 部 1 0 3、 記録媒体や通信回線にアクセスする手段を備え、 画像情報と 3 D情報 を多重化して画像データを出力する多重化部 1 0 4から構成される。
以上のように構成された 3次元画像作成装置 1 0 0について、 その動作を説明 する。
連続するフレームから構成される画像信号は、 1フレームごとに 3次元画像作 成装置に入力される。 ここで、 3次元画像作成装置 1 0 0に対して画像を入力す るための撮像装置は、 平面内に水平方向に Μ個、 垂直方向に Ν個格子状に並べら れ、 各撮像装置にはそれぞれ番号 (視点番号) がふられているものとする (ただ し、 Μ, Νは 1以上の整数である) 。
図 2に視点数が 8の場合の設置例 (設置された撮像装置を後から斜め下方に見 下ろした図) を示す。 ここで視点番号は、 左から右、 上から下の順にふるものと する。 つまり撮像装置 3 0 1が 1、 撮像装置 3 0 2が 2、 撮像装置 3 0 3が 3、 撮像装置 3 0 4が 4、 同様にして撮像装置 3 0 5〜3 0 8が 5〜8、 である。 な お、 本実施の形態を通して視点番号 kの撮像装置で撮影された画像を、 画像 k ( ここで kは 1以上の整数である) と呼ぶこととする。
制御部 1 0 2は、 縮小の有無、 結合の有無、 2 D選択、 水平方向の.視点数 Mと 垂直方向の視点数 Nおよび画像の配置順を指定する。 ここで、 縮小の有無は、 「 縮小あり」 、 「縮小なし」 のどちらかの値をとり、 結合の有無は、 「結合なし」 、 「結合あり」 のどちらかの値をとる。 2 D選択は、 視点番号または 「指定なし J の値をとる。 画像の配置順は画像の並びを視点番号で指定する。 また、 視点数 は、 図 2の例では M= 4、 N= 2となる。
画像結合部 1 0 1は、 制御部 1 0 2から入力された結合の有無が 「結合なし」 を示す場合、 制御部 1 0 2により指定された画像の配置順にしたがって、 並列に 入力された画像 1から画像 Kを直列に出力するものとする。 または、 各視点の画 像を出力する際に、 2 D選択で指定された視点番号が、 常に最初になるようにし て出力してもよい。
また、 画像結合部 1 0 1は結合の有無が 「結合あり」 を示す場合、 入力された 画像 1から画像 Kまでの配置方法を選択する。 配置方法は、 多視点画像を水平に 並べた水平配置、 多視点画像を上下に並べた垂直配置および水平 ·垂直の両方向 に並べた格子状配置の 3通りが選択可能である。
ここで、 画像の配置方法は撮像装置の設置方法と一致するとしてもよいし、 一 致しなくてもよい。 画像の配置を撮像部の設置方法と一致させる場合、 M= l、 N≥ 2のときには垂直配置、 M≥2、 N= lのときには水平配置、 それ以外のと きには格子状配置となる。 また、 一致させない場合は、 M== l、 N≥2または M ≥2、 N= lのときに、 垂直配置と水平配置のいずれかが選択できるようにして もよい。
己置方法が決まったら、 制御部 1 0 2から入力された画像の配置順にしたがつ て、 画像を結合する。 図 3は、 図 2に示した撮像装置により撮影された画像を格 子状配置にしたときの、 画像の配置順の例を示す。 図 3において、 1マスは画像 を表しており、 数字は視点番号である。 図 3 (a) は画像の配置順が 1、 2、 3 、 4、 5、 6、 7、 8と指定された場合を示し、 撮像装置にふられた視点番号と 同じ並びとなる。 図 3 (b) は 2、 3、 1、 4、 6、 7、 5、 8と指定された場 合を示す。
また、 制御部 102から入力された縮小の有無が 「縮小あり」 を示す場合、 入 力された各視点の画像を縮小する。 このときの縮小率は固定的なものではなく、 視点数に応じて決定されるものとする。 すなわち、 水平方向に 1ZM、 垂直方向 に 1ノ Nに縮小する。
このときの画像結合部 101による結合結果の例を図 4および図 5に示す。 図 4は図 2の撮像装置のうち、 例えば視点番号 1と 2のみを使用した 2視点の場合 、 図 5は撮像装置の全てを用いた場合である。
図 4 (a) は 「縮小なし」 、 「結合なし」 の場合を、 図 4 (b) は 「縮小なし 」 、 「結合あり (水平配置) 」 の場合を、 図 4 (c) は 「縮小なし」 、 「結合あ り (垂直配置) 」 の場合を、 図 4 (d) は 「縮小あり」 、 「結合なし」 の場合を 、 図 4 (e) は 「縮小あり」 、 「結合あり (水平配置) 」 の場合を、 図 4 (f) は 「縮小あり」 、 「結合あり (垂直配置) 」 の場合を示している。 ここでは、 「 縮小あり」 の場合には、 画素の間引き等により、 水平方向または垂直方向の解像 度を 1/2にしている。
図 5は多視点画像の格子状配置の例を示しており、 縮小の有無が 「縮小なし」 を示す場合、 図 5 (a) のようになる。 ここで、 H、 Vはそれぞれ縮小前の各視 点画像の水平方向画素数、 垂直方向ライン数である。 縮小の有無が 「縮小あり」 を示す場合、 図 5 (b) のようになる。 縮小率は水平方向に 1Z4、 垂直方向に 1/2となり、 縮小後の画像のサイズは、 横 H画素、 縦 Vラインであり、 縮小前 ®各視点の画像サイズと同じになる。 画像の配列は撮像装置の設置方法と一致し 、 7K平方向に 4つ、 垂直方向に 2つの画像が並べられている。 ここで画像に付さ れた数字は視点番号を示す。 画像は視点番号の小さい順に並べられており、 左上 が撮像部 3 0 1で撮影した画像 (視点番号 1 ) であり、 右下が撮像部 3 0 8で撮 影した画像 (視点番号 8 ) である。
なお、 ここでは、 水平方向および垂直方向の縮小率を固定として説明したが、 これらは可変でもよい。 可変の場合には縮小率を 3 D情報に記録する。 また、 結 合の有無が 「結合なし」 を示す場合には、 各視点の画像毎に指定するようにして もよい。
3 D情報作成部 1 0 3は、 縮小の有無、 結合の有無、 2 D選択、 水平方向の視 点数と垂直方向の視点数、 画像の配置順および配置方法をフォーマット化して、 3 D情報を作成する。
このときの 3 D情報の一例を図 6に示す。 ここで、 画像順序は画像の配置が 厂 視点番号順」 か 「任意順」 を示す。 このあとには、 複数の視点番号が記録される 。 これらの視点番号は、 結合の有無が 「結合あり」 を示す場合、 結合画像におけ る画像の並び方を示す。 図 3 ( b ) の例では第 1の視点番号が 2であり、 以下、 3、 1、 4、 6、 7、 5、 8の順となる。 また、 結合の有無が 「結合なし」 を示 す場合、 多重化される画像情報の順序を示す。 画像順序が 「視点番号順」 を示す 場合には、 これらの視点番号は省略されてもよい。 3 D情報を作成する際には、 設定値をそのまま用いてもよいし、 固定長符号化または可変長符号化により符号 化してもよい。
多重化部 1 0 4は、 画像情報と 3 D情報および管理情報を所定のフォーマツト に変換して外部に出力する。 画像の結合をしない場合には、 前述したように画像 結合部 1 0 1からの出力順が制御部 1 0 2により指定された画像の配置順である ため、 画像情報が多重化される順番も画像の配列順となる。 図 1には図示してい ないが、 音声や音楽を多重化する場合は、 それらのデータも多重化部 1 0 4にて 多重ィヒされる。 ぐ集 2の実施の形態 >
ここで、 符号化した画像情報を多重化部 104に入力してもよい。 図 19にこ のような場合の 3次元画像作成装置 110の構成を示す。 3次元画像作成装置 1 10は符号化部 105を備える点が図 1の 3次元画像作成装置 100と異なって いる。 .
多重化部 104の出力先には、 I Cメモリや光磁気ディスク、 磁気テープ、 八 ―ドディスクなどの記録デバィスゃ、 L ANやモデムなどの通信デバイスが接続 される。 ここでは、 多重化部 104に I Cメモリが接続されているものとする。 以下では、 この場合の記録フォーマツ卜について説明する。
一般に I Cメモリを記録媒体に使用する場合には、 I Cメモリ上に FAT (F i l e A l l o c a t i on Tab l e) などのファイルシステムが構築さ れ、 データはファイルとして記録される。 ここで使用するファイル形式は、 既存 の形式を使用してもよいし、 新規に定めた独自の形式を使用してもよい。
図 7は画像データを記録するファイル形式を示す図である。 図 7では、 デ一夕 は図の上から下に向かう順にファイルに記録されるものとする。 図 7 (a) は既 存の形式を使用した場合であり、 図 7 (b) は新規の形式を用いた場合の一例で ある。
既存の形式を使用する場合、 3 D情報は一般に既存の形式に用意されているへ ッダ部を拡張する仕組みを用いて、 既存のへッダ部の一部として記録されるもの とする。 ここでは、 拡張されたヘッダを拡張ヘッダと呼ぶ。 例えば、 ファイルへ ッダは J PEGではアプリケーションデータセグメントを指し、 新たなアプリケ —シヨンデータセグメントを定義して 3D情報を記録する。 また、 MP EG— 4 ではファイルヘッダは V i s u a 1 Ob j e c t S e d u e n c eまたは および V i de o Ob j e c t Laye rを指し、 3D情報はこれらの中に ユーザデータとして記録される。
また、 既存の形式を使用する場合には、 一般に使用されている拡張子をそのま ま使用する。 例えば、 J PEGファイルの場合、 一般に. j Pgという拡張子が 、 MP EGファイルの場合、 一般に. mpgまたは. mp 4という拡張子が、 W MV (Wi ndows (R) Me d i a V i de o) の場合 一般に. wm Vという拡張子が用いられている。 こうすることで、 3次元画像の表示機能を持 たない従来の再生装置でも既存の形式のファイルとして認識し、 2次元画像とし て表示することができる。
一方、 新規の形式を使用する場合には、 例えば、 図 7 (b) のように 3D情報 をフアイルの先頭に記録する。 また、 新規の形式ファイルであることがわかるよ うに、 既存形式のファイルと区別することのできるユニークな拡張子をつける。 なお、 図 7 (a) 、 (b) の管理情報は作成日や作成者など、 3次元画像と直接 関係ない情報の記録に使用するものとする。
まず、 結合の有無が 「結合なし」 を示す場合について、 多視点画像の格納の仕 方を説明する。 ファイル形式として、 図 7 (a) に示す既存形式を使用した場合 、 図 7 (a) の画像情報の領域に多視点の複数の画像を別々に記録する。 動画像 の場合には、 各視点それぞれについて、 複数枚のフレームデータが記録される。 このときの格納例を図 8に示す。 動画像の場合には、 各視点それぞれについて、 複数枚のフレームデータが記録される。このとき、各フレームは Mo t i on J 'PEGのように各々独立して符号化してもよいし、 MP EG— 4のようにフレ一 ム間予測を用いて差分を符号化してもよい。
ファイル形式として、 図 7 (b) に示す新規形式を使用した場合について説明 する。 新規形式では、 図 7 (b) におけるファイルヘッダおよび画像情報の部分 に、 既存の形式 (J PEG、 ビットマップなど) を用いる場合と、 全く新しい独 自の形式を用いる場合がある。 したがって、 これらの形式の違いを区別するため に、 3D情報に種別情報 (画像タイプと呼ぶ) を記録する。
画像デ一夕の記録の仕方についてであるが、 図 7 (b) の画像情報の領域に多 視点の複数の画像データを記録する。 動画像の場合には、 各視点それぞれについ て、 複数枚のフレームデータが記録される。 図 9に、 結合の有無が 「結合なし」 を示す場合の格納例と 3 D情報の例を示す。 図 9の K個のファイルへッダと画像 情報は、 単体で既存形式のファイルとして認識可能なフォーマットである。 つま り、 ビットマツプファイルを例に説明すると、 画像 1から画像 Kまでをそれぞれ 独立なピットマップファイルとして記録し、 3D情報、 管理情報、 画.像 1のビッ トマップフアイルから画像 Kのビットマツプファィルを順に接続した形式となつ ている。
なお、 結合の有無が 「結合なし」 を示す場合には、 多視点の画像情報を別々の 画像データとしてファイルに記録してもよい。 このとき各視点の画像情報は、 既 存形式の場合には図 7 (a) .に、 新規形式の場合には図 7 (b) に示すフォーマ ットで記録される。 ファイルを記録する際には、 既存形式のみを使用してもよい し、 新規形式のみを使用してもよいし、 両者を混在して使用してもよい。 図 10 に、 既存形式を使用した場合の例を示す。 視点数が Kであるため、 K個のフアイ ルが作成される。
このとき、 3 D情報作成部 103は、 視点数分だけの 3 D情報を作成する。 こ こでは、 1つのファイルに記録される画像情報は 1つであるため、 画像順序を省 略し、 各ファイルがどの視点番号に対応するかを示すために視点番号を記録する ものとする。 このときの 3D情報の一例を図 11に示す。
図 12は、 視点数が 2の場合における 3D情報の一例を示す図である。 ここで 、 撮像装置として、 図 2に示す撮像装置のうち、 ネ草点番号 1と 2を使用するもの とする。 視点数が 2であるので、 図 12 (a) および (b) の 2つの 3D情報が 作成される。 で結ばれた左側が 3D情報の項目、 右側がその設定値を示し ている。 項目のうち、 配置方法、 水平方向の視点数、 垂直方向の視点数、 および 2D選択は、 図 12 (a) と図 12 (b) で同じ値が記録される。 それ以外の項 目については異なっており、 図 12 (a) は視点番号 1の画像で、 縮小されてお らず、 図 12 (b) は視点番号 2の画像で、 縮小されていることを示している。 さらに、 多視点の画像情報を別々のファイルとして記録する際には、 複数記録 されたファイルの中から、 同じ撮像装置で撮影された多視点画像のうち、 対応す る視点のフアイルを識別する必要がある。 ここで.. 例えば図 1の多重化部 104 において、 同一の撮像装置で撮影した各視点画像のファイルを識別するための情 報を、 前述の管理情報に記録してもよい。 図 13は、 このときの管 ¾情報の一例 を示す図であり、 多視点画像のファイルが、 どのような名称で記録媒体上に記録 されているかの情報が記録されている。 図 13において、 ファイル構成は 「分離 」 、 「統合」 の値をとり、 「分離」 の場合、 各視点画像が別々のファイルとして 記録されていることを示し、 「統合」 の場合、 全視点画像が 1つのファイルに記 録されていることを示す。 視点番号から該当する画像データのファイル名を知る ことができるように、 視点番号とファイル名を対応させて記録している。
または、 撮像装置で撮影した多視点画像の組が同じであることがわかるように 、 所定の命名規則によってファイル名をつけてもよい。 例えば、 前述の視点数 2 の場合、 画像 1および画像 2の 1組のファイル名を、 それぞれ "s t e r e o 1 —1. j pg" 、 "s t e r e o 1_2. j p g" とし、 別の組のファイル名を それぞれ s t e r e o 2― 1. j p g" 、 s t e r e o 2一 2. j p g と することにより区別する。
ところで、 それぞれのファイルに記録される 3D情報または管理情報には、 重 複している部分がある。 例えば、 図 12に示す 3D情報の例では、 縮小の有無と 視点番号以外は同一の情報を示している。 また図 13に示す管理情報の例では、 管理情報の内容はすべてのファイルについて共通である。
したがって、 これらの共通する情報 (共通情報) は 1つのファイルのみに記録 し、 他のファイルには画像データ固有の情報 (個別情報) のみを記録するように してもよい。 このときの例を図 14に示す。 図 14 (a) は、 個別情報と共通情 報が記録されたファイルを示しており、 図 14 (b) は、 個別情報のみが記録さ ねたファイルを示している。 この例では、 図 14 (a) のファイルは既存形式で 、 図 1 4 ( b ) のファイルは新規形式で記録し、 ファイルの拡張子により、 共通 情報が記録されたファイルを他の個別情報のみが記録されたフアイルと識別でき るようにしている。 また、 図 1 4 ( b) に示すように個別の管理情報として、 共 通情報の記録されたファイルのファイル名を記録するようにしてもよい。 こうす ることで、 個別情報のみが記録されたファイルから共通情報が記録されたフアイ ルを指定することが容易になる。
なお、 これらのファイルを識別する方法は、 上記以外にも、 前述の命名規則を 用いて、 各視点の画像ファイルが識別できるようにし、 2 D選択で指定された視 点番号など、 特定の視点番号の画像ファィルに共通情報を記録するようにしても よい。
あるいは、 重複する情報を 1つにまとめて、 管理用のファイルを作成し、 各画 像ファイルには固有の情報のみを記録してもよい。 管理用ファイルには画像ファ ィルとは異なるユニークな拡張子を使用するものとする。
さらに、 前述の F ATなどのファイルシステムでは、 ファイルをまとめて管理 するためにディレクトリが使用される。 作成した各視点の画像ファイル 1組 (存 在すれば管理用ファイルを含めてもよい) を、 同一のディレクトリに記録するよ うにしてもよい。
結合の有無が 「結合あり」 を示す場合には、 図 7 ( a ) および図 7 ( b ) の画 像情報の領域に 1つに結合された画像の画像情報が記録される。 動画像の場合に は、 多視点画像の対応するフレームを結合した画像が複数枚記録される。
なお、 上記の実施の形態では視点番号のふり方を固定して画像の配置順を任意 に変更できるようにしたが、 画像の配置順を固定して、 視点番号のふり方を任意 に変更しても構わない。 さらに、 撮像装置の設置方法は格子状配置だけでなく、 任意の配置にすることもできる。 この場合には、 基準となる撮像装置 (視点番号 は 1とする) を選択し、 これを原点とした座標系で位置を表現する。 3 D情報に は視点番号順に各視点の撮像装置の位置座標を記録する。 また、 上記の実施の形態では、 新規形式のファイルの場合、 3 D情報および管 理情報をファイルの先頭に記録しているが、 新規形式のファイルはこれに限定さ れるものではなく、 これらの格納位置はファイルへッダの後や、 画像情報の後で もよいし、 図 7 ( a) に示す既存形式と同じでもよい。
<第 3の実施の形態 >
続いて、 3次元画像作成装置 1 0 0で作成した画像データを 3次元画像として 表示するための再生装置について説明する。
図 1 5は、 本発明における実施の形態の 3次元画像再生装置の構成を示すプロ ック図である。 図 1 5において、 3次元画像再生装置 2 0 0は、 逆多重ィ匕部 2 0 1、 3 D情報解析部 2 0 2および画像変換部 2 0 3から構成される。
逆多重ィヒ部 2 0 1は、 記録デバィスゃ通信デバィスから所定のフォーマットに 多重化された画像データを読み込み、 画像情報と 3 D情報および管理情報に分離 する。 図 1 5には図示していないが、 音声や音楽が多重化されている場合は、 そ れらのデータも逆多重化部 2 0 1にて分離される。
3 D情報解析部 2 0 2は、 所定のフォ一マツトの 3 D情報を解析し、 項目ごと の設定値を抽出する。
画像変換部 2 0 3には、 通常のブラウン管や液晶パネルを用いた 2次元表示装 置、 レンチキユラ方式、 パララクスバリア方式、 時分割方式などを用いた立体表 示装置など、 それぞれ表示形式が異なる表示装置が接続される。
以上のように構成された 3次元画像再生装置 2 0 0について、 その動作を説明 する。 ここでは、 逆多重化部 2 0 1に I Cメモリが接続されているものとする。 前述したように、 I Cメモリには既存形式および新規形式の画像ファイル、 なら びに、 管理用ファイルが記録される。 画像ファイルと管理用ファイルの区別は、 ファイルの拡張子によって行うことができる。 ここでは、 図示しない指定手段に より使用者が画像ファイルまたは管理用ファイルを 1つ選択するものとする。
, まず、 選択されたファイルが画像ファイルの場合について説明する。 この場合 、 既存形式と新規形式の区別は、 ファイルの拡張子によって行うことができるの で、 逆多重化部 2 0 1は、 再生するファイルが図 7 ( a ) に示す既存形式のファ ィルの場合、 ファイルヘッダの拡張領域から 3 D情報を読み出す。 また図 7 ( b ) に示す新規形式の場合には、 ファイルの先頭から 3 D情報を読み出す。
3 D情報解析部 2 0 2は、 3 D情報を解析し、 結合の有無、 縮小の.有無、 視点 数、 配置方法、 2 D選択などの設定値を抽出する。 さらに、 3次元画像として表 示するための画像の視点番号を決定する。 多視点の画像データを 3次元画像とし て表示するためには、 多視点の画像から視差のある 2視点を選択して、 左眼画像 、 右眼画像とすればよい。 例えば、 図 2の撮影装置で記録された画像データの場 合には、 1と 2、 1と 3、 1と 4、 2と 3、 2と 4など、 水平方向に並んだ中か ら選択可能である。 また、 表示の際に 9 0 ° 回転させれば、 1と 5、 2と 6、 3 と 7および 4と 8の組を選択しても、 3次元画像として表示することができる。 結合の有無が 「結合なし」 を示す場合、 選択されたファイルには、 図 1 0のよ うに 1つの視点の画像情報のみが記録されているか、 または、 図 8のように結合 されていない各視点の画像情報がすべて記録されているかのどちらかである。 これらを区別するためには、 3 D情報を解析した結果、 3 D情報に画像順序の 情報が含まれているか否かを調べればよい。 3 D情報に画像順序が含まれていれ ば、 後者である。 3 D情報に記録された第 1の視点番号から第 Kの視点番号まで の中から立体視可能な任意の視点の組み合わせを選択する。 そうでなければ、 前 者であり、 3 D情報に記録されている視点番号 i (ここで iは 1以上の整数であ る) と組み合わせることで、 立体視が可能となるような視点番号を選択する。 選 択した視点番号は、 逆多重化部 2 0 1に対して出力される。
逆多重化部 2 0 1は、 入力された視点番号の画像情報をファイルから読み出し て、 画像変換部 2 0 3に出力する。 入力された視点番号の画像情報がフアイルに 記録されていない場合には、 前述のような管理情報や命名規則などから該画像情 報が記録されているファイルを見つけ出して、 読み出すようにする。 または、 ファイル記録されているのが 1視点のみか、 全視点かを区別するため に、 管理情報内のファイル構成を参照してもよい。 ファイル構成が 「分離」 なら ば 1視点の、 「統合」 ならば全視点の画像情報が記録されている。
一方、 結合の有無が 「結合あり」 の場合、 ファイルに記録されているのは 1枚 の結合画像のみであるため、 任意の視点番号が選択可能である。 この場合には、 視点番号を画像変換部 2 0 3に対して出力する。
ぐ第 4の実施の形態 >
ここで、 画像情報が符号化されている場合には、 逆多重化した後に復号を行う 。 図 2 0にこのような場合の 3次元画像再生装置 2 1 0の構成を示す。 3次元画 像再生装置 2 1 0は復号部 2 0 4を備える点が図 1 5の 3次元画像再生装置 2 0 0と異なっている。
画像変換部 2 0 3は、 3 D情報解析部 2 0 2により入力された結合の有無、 縮 小の有無、 視点数、 配置方法、 2 D選択および視点番号に応じて、 逆多重化部 2 0 1により分離された画像情報を表示形式に変換する。 このとき、 結合の有無が 「結合なし」 を示すならば、 視点番号により指定された画像情報がそろった時点 で変換を行う。 ファイルが削除された等の理由により、 画像情報がそろわなかつ た場合、 配置の最も近い視点番号の画像を代用してもよいし、 2次元表示を行う ようにしてもよい。 結合の有無が 「結合あり」 の場合、 視点番号により指定され た視点の画像を結合画像から切り出してから変換を行う。
表示形式への変換であるが、 例えば、 3次元画像再生装置 2 0 0にパララクス バリア方式の表示装置が接続されている場合には、 前述の図 4 ( e ) の形式が最 も扱いやすく、 この場合には左右画像を水平方向 1画素おきに並べるだけでよい 。 また、 図 4 ( b ) の場合には、 水平方向 1画素おきに並べる前に左右画像を水 平方向に 1 Z 2に間引きをする。 いずれの場合においても、 画像データに 3 D情 報が付け加えられているので、 表示装置に合つた表示形式に変換することができ る。 なお、 画像情報を符号化する場合、 パララクスバリア方式を例にとると、 表示 する画像が図 1 7 ( b ) のようなものであっても、 図 4 ( e ) のような配置の画 像を符号化すると符号化効率が大きく向上する。 これは図 1 Ί ( b ) の状態より も図 4 ( e ) の状態の方が隣接画素間の相関が高くなるからである。 符号化され た図 4 ( e ) の画像をパララクスバリア方式に用いるには、 図 2 0の 3次元画像 再生装置 2 1 0において復号部 2 0 4で画像を復号した後に画像変換部 2 0 3で 図 1 7 ( b ) のように並べ換えをすればよい。
3次元画像の表示中に 2次元表示に切り替えられた場合、 2 D選択により指定 された視点番号の画像を表示する。 このとき、 縮小の有無が 「縮小なし」 の場合 はそのまま、 「縮小あり」 の場合には 2倍に拡大して表示する。 ただし、 その画 像が表示中でない場合には、 表示中の画像のうち、 いずれか 1つを選択して表示 してもよい。 選択の仕方は例えば、 視点番号の最小のもの、 最大のもの、 撮像装 置の設置や結合画像の配置的に 2 D選択で指定された視点番号に距離が一番近い もの、 左眼画像に用いられているもの、 右眼画像に用いられているものなどがあ り、 ここでは特に限定しない。 また、 2 D選択が 2次元表示に使用する画像を指 定していない場合には、 所定の方法で表示する画像を選択することとする。 また、 2次元表示装置が接続されている場合には、 2 D選択で指定された画像 を表示する。 表示の仕方は 3次元表示装置における 2次元表示と同様である。 また、 使用者によって選択されたファイルが管理用ファイルの場合、 3 D情報 に記録されている結合の有無は 「結合なし」 を示しているが、 立体視可能な視点 番号の任意の組み合わせを選択すればよい。 画像ファイルから画像データが読み 出されて、 表示形式に変換されるまでの動作は、 上記と同様であるため、 ここで の説明は省略する。
また、 上記の実施の形態では、 管理情報に視点番号とファイル名を記録した場 合について述べたが、 以下のようにしてもよい。 すなわち、 3次元画像作成装置 I 0 0において、 画像情報が同じ撮像装置で撮影された一組の多視点画像である ことを示す識別番号を、 共通情報と個別情報に記録するようにし、 3次元画像再 生装置 200において、 ファイル名と識別番号が一致するときにのみ画像情報を 読み出すようにする。 識別番号は一組の多視点画像に対して 1つの番号を付けて もよいし、 視点ごとに異なる番号を付けてもよい。 こうすることで、 ファイル名 の捏造による誤動作を防ぐことができる。
以上のように、 様々な 3次元画像の撮影方式で作成されたデ一夕を統一的に扱 レ、 3次元画像の表示機能を持たない従来の再生装置においては、 2次元画像を 正常に表示することができるようになるため、 汎用性をもたせることができる。 ところで、 図 21 (a) に示すように画像ファイル中にサムネイル画像を記録 する場合がある。 画像ファイルの互換性を確保するために策定された DC F (De sign rule for Camera File system) 規格では、 たとえ主画像 (画像情報) を再 生できない場合であっても最低限の再生互換性を保っために、 サムネイル画像の 格納を義務付けている。 DCF規格では主画像の画素数に規定はないが、 サムネ ィル画像の画素数については 160画素 X 120画素の一種類に限定されてい る。
このような思想に則つて 3次元表示のための情報をファイルに記録するには、 図 21 (b) のような形が考えられる。 すなわち、 図 21 (a) の形式の画像フ アイルに 3D情報を追加したような形であり、 図 21 (b) における主画像は 3 D画像であるものとする。
ここで図 21 (b) における主画像として、 例えば図 4 (e) のように 2つの 視点の画像が水平方向に 1 / 2に縮小されて結合された画像が格納されているも のとし、 その画素数を 640画素 X 480画素であるとする。 また、 サムネイル 画像としては、 主画像をそのまま 160画素 X 120画素に縮小した画像を用い るものとすると、 このファイル中に含まれる画像は図 22 (a) のようなものに なる。 この場合、 主画像もサムネイル画像も 3D画像であると言える。
したがって、 図 22 (a) のような画像があった場合に、 3D情報を解釈でき 、 且つ 3 D表示が可能な 3次元画像再生装置においては、 このファイルが 3 Dを 格納したものであることを示す情報を、 サムネイル画像の上に重ね書きすること により、 図 23 (c) に示すようなサムネイル表示が可能となる。 また、 主画像 を 3 D表示する際に行う画像変換を、 サムネィル画像に対しても行うことにより 、 サムネイルを 3D表示することも可能である。 さらに、 3D画像であることを 示すシンボル (例えば図 23 (c) における 「3D」 という文字) 自体にも視差 を与えることにより 3 D表示することで、 視認性をより高めることが可能である サムネイルを 3D表示する際、 図 22 (a) のようなサムネイル画像を用いる ことにより、 復号した主画像を縮小して 3D表示する場合に比べて高速な描画が 可能となる。 サムネイル画像は小さいため、 主画像のような大きな画像を一旦復 号する必要がなく、 復号処理が高速に行えるためである。
ここで、 サムネィル画像は主画像をそのまま縮小したものである必要はないの で、 図 22 (b) に示すような主画像とサムネイル画像の組み合わせも考えられ る。 図 22 (b) における主画像は図 22 (a) と同じであるが、 サムネイル画 像は主画像から 1視点分の画像だけを取り出して、 全体を 160画素 X 120画 素に縮小したものとなっている。 図 22 (b) では主画像が水平方向に 1/2縮 小されている、 すなわち水平方向と垂直方向の長さの比が 1 : 2となっているた め、 サムネィル画像は 1視点分の画像を取り出した後に水平方向に 2倍拡大した ものとしている。 ,
図 22 (b) のような画像があった場合に、 3D情報を解釈でき、 3D表示が 可能な 3次元画像再生装置においては、 このファイルが 3 Dを格納したものであ ることを示す情報をサムネイル画像の上に重ね書きすることにより、 図 23 (b ) に示すようなサムネイル表示が可能となる。 図 22 (b) のように主画像中の 1視点分の画像だけを取り出してサムネイル画像とすることにより、 歪みのない サムネイル表示を迅速に行うことが可能となる。 なお、 図 2 2 ( a ) のようなサムネイル画像であっても、 サムネイル表示する 際に 1視点分だけを取り出し、 水平方向に 2倍拡大した後に 3 Dを格納したもの であることを示す情報をサムネィル画像の上に重ね書きすることにより、 図 2 3 ( b ) に示すようなサムネィル表示が可能となる。
ところで、 図 2 2では主画像の結合の有無が 「結合あり」 の場合を示している が、 主画像は図 4 ( a ) のように 「結合なし」 であってもよい。 主画像の結合の 有無が 「結合なし」 の場合は、 主画像として記録される複数の画像のうちの 1枚 を縮小したものをサムネイル画像として記録すればよい。 また、 先に 「2 D選択 」 情報について説明したが、 主画像の結合の有無が 「結合あり」 であっても 「結 合なし」 であっても、 「2 P選択」 で指定された 1視点分の画像を取り出してサ ムネィル画像を作成したり、 サムネィル表示を行うようにしてもよい。
さて、 これまで説明してきたような 3 D情報を解釈できる 3次元画像再生装置 であれば、 図 2 1 ( b ) のようなファイルを受け取っても適切に処理できるが、 ここで 3 D情報を角釈できない古いタイプの 3次元画像再生装置を考えてみる。 この 3次元画像再生装置には、 図 2 0における 3 D情報解析部 2 0 2も画像変換 部 2 0 3もなく、 3次元ディスプレイが接続できないものとする。 このような 3 次元画像再生装置は、 3 D情報を角军釈できないのであるから、 このファイルに格 納されている画像情報が 2 D画像であるか 3 D画像であるかわからず、 また仮に 何らかの手段で 3 D画像だとわかったとしても、 画像変換部を持たないため画像 情報を正しく再生することができない。
このような場合であっても、 上記の D C F規格のような思想に則つてサムネィ ル画像が記録してあれば、 サムネイル画像だけは表示できることが期待できる。 そこで、 本発明においては、 サムネイル画像中にこのファイルが 3 D画像を格 納したものであることを示すシンポルを埋め込んだものをサムネィル画像として 記録する。 例えば図 2 3 ( a ) に示すように、 画像の右下に 「3 D」 という絵文 字を重ねたものをサムネイル画像としてもよいし、 図 2 3 ( b ) に示すように 「 3 D」 という文字を画面中央に透かしのような形で埋め込んだものをサムネイル 画像としてもよい。 また、 図 2 3 ( c ) のような画像をサムネイル画像として記 録しても.. 少なくともこのファイルが 3 D画像を格納したものだということが認 識できる。
3 Dであることを表すシンポルをサムネイル画像中に埋め込む場合、 埋め込む 位置やサイズについては、 記録時にユーザーが指定できるようにしてもよい。 ま た、 複数のシンポルを準備しておいて、 その中から任意のシンポルを選択できる ようにしてもよい。 さらに、 サムネイル画像を作成する際に画像の背景領域を自 動的に判別し、 背景領域にシンポルを書くようにしてもよい。 加えて、 上記のよ うにサムネイル画像中に自動的に 3 Dを表すシンポルを埋め込んだ場合、 一旦記 録されたサムネイル画像を確認し、 シンポルの位置やサイズが好ましくない場合 にはサムネィル画像を作成しなおすことができるようにしてもよい。
このようにして記録された画像ファイルの主画像とサムネイル画像の組み合わ せの例を図 2 4に示す。 ここで主画像として図 2 2の塲合と同様、 例えば図 4 ( e ) のように 2つの視点の画像が水平方向に 1 Z 2に縮小されて結合された画像 が格納されているものとし、 その画素数を 6 4 0画素 X 4 8 0画素であるとする 。 また、 サムネイル画像としては主画像を 1 6 0画素 X 1 2 0画素に縮小した画 像にこのフアイルが 3 D画像を格納したものであることを示すシンポルを埋め込 んだものを用いるものとすると、 図 2 3 ( c ) のようなサムネイル画像を格納す る場合には図 2 4 ( a ) のような組み合わせに、 図 2 3 ( b ) のようなサムネィ ル画像を格納する場合には図 2 4 ( b ) のような組み合わせになる。
シンボル自体はそれが 3 Dを示すものであればテキストであってもよいし、 マ ークであってもよいし、 特定の画像であってもよい。 また、 サムネイル画像内に おけるシンボルの位置に何ら限定はない。 しかし、 いずれの場合であつてもサム ネイル画像の一部として記録されている必要がある。 逆に言えば、 これらのシン ポルはサムネイル画像と分離して記録されたものではない。 ここが重要な点である。 3 D情報を解釈できない 3次元画像再生装置において 有意義なサムネイル表示を行うには、 図 2 3に示したような画像をサムネイル画 像として、 予めファイル中に記録しておく必要がある。 このようにすれば.. 3次 元画像再生装置は、 3 D画像のファイルであっても、 2 D画像のファイルと同じ ようにサムネイル画像を再生するだけで、 画像の中身を確認することができ、 2 D画像のファイルと 3 D画像のファイルを区別することができる。
ところで、 3 D情報を解釈できる 3次元画像再生装置であっても、 あらゆるデ —夕形式をサポートしているとは限らない。 すなわち、 例えば 4眼式の 3 D画像 だけをサボ一トしている 3次元画像再生装置は、 2眼式の 3 D画像データを受け 取っても正しく表示することができない。 このような場合にサムネイル画像を表 示することにより、 画像内容を確認することができる。 3 D情報を解釈できる 3 次元画像再生装置は、 3 D情報を角军釈することにより、 ファイルに含まれる主画 像を正しく再生できるかどうか判定可能であるから、 正しく再生できないデ一夕 形式である場合にはサムネィル画像を表示するとともに、 「サポート外の 3 Dデ' —夕形式である」 旨のメッセ一ジ等を表示するようにしてもよい。
ぐ第 5の実施の形態 >
ここで、 サムネイル画像をファイル中に記録する 3次元画像作成装置の例を図 2 8に示す。 図 2 8の 3次元画像作成装置 1 2 0においてはサムネィル画像作成 部 1 0 6を備え、 符号化データ (もしくは非圧縮の画像情報) 、 3 D情報ととも にサムネイルデータを多重化部 1 0 4において多重化してファイルを作成する。 ファイルの出力先としては I Cメモリや光磁気ディスク、 磁気テープ、 ハードデ イスクなどの記録デバイスや、 L ANやモデムなどの通信デバイスが考えられる 。 なお、 D C F規格ではサムネイル画像の大きさが 1 6 0画素 X 1 2 0画素と定 義されているが、 一般的なサムネイル画像はこのサイズに限定されるものではな い。
ぐ第 6の実施の形態 > 00傷 5484
次に、 図 2 2に示したようなサムネイル画像から図 2 3に示したようなサムネ ィル表示を行う 3次元画像再生装置の例を図 2 6に示す。 図 2 6において図 2 0 に示した 3次元画像再生装置 2 1 0と機能が同じ部分については同じ番号を付し て説明を省略する。 図 2 6に示した 3次元画像再生装置 2 2 0においては、 逆多 重化部 2 2 1においてサムネイルデータが分離される。 再生しょうとするデータ が 3 D画像であつた場合、 3 D情報解析部 2 0 2からの指示により、 サムネイル 生成部 2 2 5は、 サムネイルデータを復号した (非圧縮データの場合は復号する 必要はない) サムネイル画像と 3 D画像であることを示すシンポルを重ねてサム ネイル表示する。 サムネイルを 3 D表示する場合には、 サムネイル生成部 2 2 5 は、 画像変換部 2 0 3が主画像に対して行う変換と同じ処理を、 サムネイル画像 に対して施す。
<第 7の実施の形態 >
また、 3 D表示用画像と 2 D表示用画像を切り替えて出力できる 3次元画像再 生装置の例を図 2 7に示す。 図 2 7において図 2 6に示した 3次元画像再生装置 2 2 0と機能が同じ部分については同じ番号を付して説明を省略する。 図 2 7に 示した 3次元画像再生装置 2 3 0において、 図 2 4に示したような主画像および サムネイル画像を符号化した画像データが入力された場合、 復号部 2 0 4で復号 された画像情報は画像変換部 2 0 3に送られるとともに、 サムネイル生成部 2 2 5にも送られる。 制御部 2 2 6は 3 D表示用画像を出力するか 2 D表示用画像を 出力するかの指示を画像変換部 2 0 3とサムネイル生成部 2 2 5に与える。 サム ネイルの 2 D表示を行う場合、 サムネイル生成部 2 2 5は、 図 2 4のようなサム ネイル画像をそのまま出力してもよいし (この場合は 3 Dを示すシンポルも表示 される) 、 入力された主画像を縮小し、 画像変換部 2 0 3と同様の処理を行うこ とにより 3 Dであることを示すシンポルを含まないサムネイル画像を出力しても よい。 サムネイルの 3 D表示を行う場合は、 入力された主画像を縮小し、 画像変 換部 2 0 3と同様の処理を行えばよい。 なお、 これまでの説明では、 3Dのファイルであれば 3Dであることを示すシ ンポルを、 サムネイル画像に重ねて表示するものとしたが、 逆に 3Dのファイル に対してはサムネィル画像をそのまま表示し、 2Dのファイルである場合に 2D であることを示すシンポルをサムネイル画像に重ねて表示してもよい。
また、 3Dのファイルに対して 3Dであることを示すシンポルをサムネイル画 像に重ねて表示するのみならず、 視点数や視点番号等、 3D情報に含まれる情報 をサムネイル画像に重ねて表示するようにしてもよい。 さらに、 3D情報に含ま れる情報や 3 Dであることを示すシンボルは、 サムネイル画像に重ねて表示する のみならず、 サムネイル画像近傍の所定の位置に表示するようにしてもよい。 図 25は、 ファイルに格納するサムネイル画像の別の例を示したものである。
2つ以上の視点の画像が結合された第 1の画像と、 そこから 1つの視点だけを取 り出した第 2の画像をピクチャーインピクチャーの形にしたものである。 図 25 (a) は、 第 1の画像を親画像とし、 第 2の画像を子画像としたものであるが、 図 25 (b) に示すように親画像と子画像を入れ替えてもよい。 また、 図 25 ( 0) 、 図25 (d) は、 それぞれ図 25 (a) 、 図 25 (b) の画像に 3Dであ ることを示すシンポルを埋め込んだものである。 図 25 (c) 、 (d) について は、 3Dであることを示すシンポルをサムネイル画像中には記録せず、 サムネィ ル表示する際に重ねて出力するようにしてもよい。 図 25のようなサムネイル表 示を用いることにより、 歪のない画像による画像内容確認と実際に主画像として 記録されている画像の形の確認を両方同時に行うことができる。
以下、 本発明の実施の形態について、 図面を参照しながら説明する。
<第 8の実施の形態 >
本発明の第 8の実施の形態においては、 3次元画像表示の GU Iアプリケーシ ヨンソフトによりパーソナルコンピュータ (以降パソコンと略称する) が立体表 示処理を行って、 立体ディスプレイに立体表示する。 すなわち、 パソコンに備え もれた C P Uが CD— ROMゃハ一ドディスク等の記録媒体に記録されている立 体表示アプリケーションソフトに従って、 動画や静止画に対して処理を行い、 立 体ディスプレイに立体表示する。 更に、 ユーザ一がマウスあるいはキーポードに より立体処理について指示を行えば、 それに基づいて C P Uが処理を行う。 図 2 9は第 8の実施形態による立体ディスプレイの表示画像を説明する図であ り、 ディスプレイ 1上に 3次元画像表示アプリケーションによる処理表示画像 2 が表示されている。 3次元画像表示アプリケーションの処理表示画像 2は、 3次 元画像表示エリア 3、 拡大率変更バー 4、 警告表示エリア 5からなる。
従来の技術の説明に用いた図 3 9、 図 4 0からわかるように、 3次元画像が拡 大表示される時には、 立体ディスプレイより手前に飛び出して見える飛び出し量 、 立体ディスプレイよりも奥に引っ込んで見える引き込み量ともに拡大され、 そ れぞれ、 ある閾値より大きくなると立体視が不可能となる。 この時、 予め表示す る 3次元画像の最大飛び出し量、 最大引き込み量がわかっていれば、 式 (1 ) 、 式 (2 ) により、 拡大率に応じて、 3次元画像の飛び出し量及び引き込み量がど の程度変化するか求められる。 本実施の形態では、 例えば、 3次元画像の飛び出 しが強くなり、 長時間見続けるとユーザーに負担がかかるような時に、 ユーザー に対して警告する。
次に、 第 8の実施の形態の処理の流れを図 3 0のフローチャートにより説明す る。
ステップ S 1にて、 ディスプレイ情報を取得する。 ここでいうディスプレイ情 報とは、 ディスプレイの幅 W [m] 及び、 ディスプレイの解像度 P [ d o t ] 、 及びユーザーとディスプレイとの距離 D [m] である。 ユーザ一とディスプレイ との距離は、 位置センサ一等を用いて正確に取得しても良いが、 例えば、 デイス プレイサイズが 1 5インチであれば、 ユーザ一との距離は約 l m程度となるなど 、 ディスプレイサイズゃ種類に応じてどの程度のユーザーとの距離が離れている か予め、 おおよその距離をデ一夕ベース等に蓄えておき、 その値を使用する方法 が簡便である。 また、 左右両眼に異なる映像を映し出して立体感を出す立体ディスプレイでは
、 例えば、 HMDのように左右両眼に全く別々の表示装置を用いる場合には左右 画像が混じることはないが、 パララックバリァ方式やレンチキュラ方式の立体デ イスプレイでは、 ユーザーの左眼から見た画像に、 右眼用の画像がわずかに混じ つて重なって表示されることがある。 このことをクロス! クと呼ぶ。 一般にク ロストークが無いほど立体ディスプレイとして優秀であり、 クロストークが大き くなると、 快適に立体視できる範囲が狭くなる。 このようなことから、 ディスプ レイ情報としてクロストークの情報を含め、 以下で説明するようにクロストーク が大きい時には、 立体ディスプレイで快適に立体視できる視差の範囲を小さくす るようにしても良い。
そこで、 ステップ S 2にて、 立体視できる視差範囲を取得する。
パソコンの C P Uは、 式 (1 ) 、 式 (2 ) 、 式 (3 ) を用いて、 この時の快適 に立体視できる範囲の視差量 0を、 左右画像のずれにより計算することで、 快適 に立体視できる範囲の、 飛び出し量 t h— f [ d o t ] 、 引き込み量 t h— b [ d o t ] を決定する。 ここで、 t h— f , t h—bは立体ディスプレイ面上の左 右の対応点の距離 (視差) として表現されている。 図 3 9、 図 4 0より明らかな ように、 画面より飛び出す画像では、 左眼画像が右眼画像よりも右側にあり、 画 ' 面より引っ込む画像では、 左眼画像が右眼画像よりも左側にあるために、 本発明 では左眼画像を基準として右眼画像の程度ずれを求め、 飛び出し (左眼画像が右 側) の時には視差の値を正、 引っ込み (左眼画像が左側) の時には視差の値を負 とする。
視差の値が t h— から t h一 bまでの範囲は、 快適に立体視できる立体表示 の最大視差範囲であるということができる。 また、 t h— t h—bはそれぞ れ最大視差範囲を示す閾値である。
快適に立体視できる視差量 0は、 各種研究によって経験的に求められており、 立体ディスプレイの大きさ及びクロストークと相関があることが知られている。 例えば、 1 5ィンチの立体ディスプレイ使用時に快適に立体視できる Θの範囲を 、 飛び出し 3 5分、 引っ込み 3 5分と、 ユーザーの両眼間隔を 6 0 mmとすると 、 立体表示の最大視差範囲を示す閾値は、 約 t h— f = 2 5, t h— b =— 2 5 [ d o t ] となる。 従って、 立体視可能な視差範囲は、 —2 5≤S≤2 5となる 。 当然のことながら、 この数値は S 1で取得されるディスプレイの情報によって 変化し、 また、 あくまでも、 経験的に求められる値であるため、 式 (1 ) 、 式 ( 2 ) 、 式 (3 ) を用いずに、 立体ディスプレイの表示性能を実験して求められた 値を予めデータベース等に保存して、 それを C P Uが利用することも当然考えら れる。
ステップ S 3にて、 表示元となる 3次元画像の最大飛び出し量 f [ d o t ] 及 び最大引き込み量 b [ d o t ] 、 すなわち 3次元画像の最大視差量を 3次元画像 のタグ情報から取得する。 ここでタグ情報とは撮影された時の撮影条件等、 3次 元画像に別途付けられた付加情報のことである。 本実施形態では、 予め 3次元画 像の最大飛び出し量及び最大引き込み量の情報が夕グ情報として付加されている こととしたが、 fや bの情報をステレオマッチングにより自動的に求める方法も あり、 タグ情報からの取得に限定するものではない。 ここでも、 f、 bは立体デ イスプレイ面上での視差量として表現されている。 これらの値は 3次元画像の視 差の範囲 (視差範囲) を示すものである。
ステップ S 4にて、 ュ一ザ一により、 3次元画像の拡大あるいは縮小の比率 E [%] を拡大率変更バー 4により入力する。 拡大率の入力は、 ある特定のキーポ
―ドを押すことによつて変更したり、 マウスのスクロ一ルバ一によつて変更する 等でも良く、 拡大率変更バーに限るものではない。 また、 本発明は拡大処理だけ でなく縮小処理にも対応できるものとし、 ステップ S 5では拡大あるいは縮小の 比率を取得できるものとする。
ステップ S 5にて、 3次元画像の視差量が立体視可能な視差範囲内にあるか否 かを判定する。 ステップ S 4にて得られた拡大率 E [%] と、 ステップ S 3にて 求められた最大飛び出し量 f及び最大引き込み量 bをそれぞれ掛け合わせ、 拡大 後の 3次元画像の最大飛び出し量 f ' =E f [do t] 及び拡大後の 3次元画像 の最大引き込み量 b' =Eb [d o t] を求め、 ステツプ S 3にて求められた、 t h_f , t h— bと比較し、 ステップ S 5にて立体視可能な視差範囲内にある か否かを判定する。 3次元画像の視差量が前記視差範囲内にあれば、 .処理を終了 し、 3次元画像の視差量が前記視差範囲外にあれば、 ステップ S 6に進む。 パソコンの C P Uは、 ステツプ S 6にて、 3次元画像の視差量が立体視可能な 視差範囲からどの程度ずれているかにより、 「飛び出しが強すぎます」 、 「引つ 込みが強すぎます」 、 「飛び出しが弱すぎます」 、 「引っ込みが弱すぎます」 等 のメッセ一ジを決定し、 警告表示エリア 5に表示する。 この時、 メッセージを音 声で知らせたり、 また、 3次元画像表示エリア 3の色を変える等でも良く、 ユー ザ一に対する警告は、 メッセージの警告表示エリア 5への表示に限るものではな い。
なお、 本実施形態では、 3次元画像の飛び出し量の判定に、 左右画像の対応点 のずれである視差量 [do t] を使用しているが、 図 39、 図 40で示すような 、 実際にディスプレイから飛び出してみえる量 z [m] を用いて判定しても良い ことは、 明白である。
<第 9の実施の形態 >
本発明の第 9の実施の形態について説明する。
第 9の実施の形態における立体ディスプレイ 1の処理表示画像 6は、 図 31に 示すように、 3次元画像表示エリア 3、 拡大率変更バー 4、 警告表示エリア 5か らなる。
第 9の実施の形態の処理の流れを図 32のフローチャートにより説明する。 ス テツプ S 1からステップ S 5までは、 第 8の実施の形態と同じである。
ステップ S 16では、 図 33で示すように、 飛び出しの補正 (視差量調整) を 衧ぅ。 図 33 (a) では、 拡大処理前の 3次元画像の視差の範囲を、 (b) では 拡大処理後の 3次元画像の視差範囲を、 (c ) では、 補正処理後の 3次元画像の 視差範囲を示している。 図 3 3において、 横軸は左右画像のステレオ対応点のず れ (d o t ) の大きさを示し、 ハッチングされている範囲は快適に立体視できる 視差の範囲を示している。 記号は、 拡大処理を行う前の 3次元画像の最大飛び出 し量を f、 引き込み量を bとし、 拡大後の画像の最大飛び出し量を Γ 、 引き込 み量を b ' 、 立体ディスプレイで快適に立体視できる最大飛び出し量を t h—f , 弓 Iき込み量を t h— bとする。 拡大後の画像の最大飛び出し量 f ' が、 t h— f よりも大きくても、 f ' 一 b ' 力 t h—f — t h— bよりも小さいときには 、 右眼画像全体を図 3 4に示すように: f 一 t h—f ' だけずらすことにより、 3 次元画像全体を立体ディスプレイから引っ込むように表示させることによって、 立体感の補正を行う。 図 3 4で破線で囲まれた部分 6が元画像を、 実線で囲まれ た部分 7がずらし処理後の画像を表している。 しかし、 f ' — b, が、 t h— f 一 t h— bよりも大きい時には、 単純に右眼画像全体をずらしだけでは、 飛び出 しの補正を行うことは出来ない。
引っ込みにおいても同様に、 拡大後の画像の最大引き込み量 b ' が、 t h— b よりも小さく、 Γ - b ' が、 t h— f— t h— bよりも小さいときには、 右眼 画像全体を、 b ' — t h—bだけずらすことにより、 3次元画像全体を立体ディ スプレイから飛び出すように表示することで、 快適な立体視が可能となる。 なお 、 ずらし量が正の時は、 右眼画像全体を右にずらし、 ずらし量が負の時は右眼画 像全体を左にずらす。
本実施形態では、 右眼画像をずらすことで、 3次元画像全体の飛び出し補正を 行っているが、 右眼画像のずらしに限定したものではなく、 右眼画像を固定し左 眼画像をずらす方法や、 両方同時にずらしても良い。
更に、 Γ _ b, が、 t h—f— t h— bよりも大きい時には、 警告エリアに 「強すぎて補正できません」 と表示をしたり、 3次元画像表示エリアに、 左右画 像の片方だけ表示することで、 ユーザーに不快な 3次元画像を表示しないように することも可能であるが、 警告表示エリア 5は必須ではなく、 警告しなくとも良 い。
また、 拡大処理時における立体感の補正だけでなく、 縮小処理して立体感の乏 しくなつた 3次元画像を、 全体的に飛び出し、 もしくは引っ込ませることで、 立 体感を強調して表示することも可能である。 例えば、 ステップ S 1 6において、 ステツプ S 4の拡大率が 1より小さい時の処理として、 縮小処理後の 3次元画像 を、 f 一 : T だけ、 ディスプレイより前面に飛び出すようにずらすことにより、 縮小処理後と縮小処理前との最大飛び出し位置を同じにすることで、 飛び出し感 が大きい 3次元画像を、 縮小後でも画面より手前に大きく飛び出してみせること ができる。 逆に、 最大飛び出し位置を固定せずに、 最大引き込み位置を固定して 、 引き込み量を同じにしてもよい。
ぐ第 1 0の実施の形態 > '
本発明の第 1 0の実施の形態について説明する。
本発明は第 1 0の実施の形態は、 第 9の実施の形態におけるステップ S 1 6の 飛び出しの補正処理 (視差量調整処理) を改良したものである。
本実施の形態では、 3次元画像全体をずらしても快適な立体視が不可能な場合 であっても、 3次元画像の中央部を優先して立体感の調整を行うことにより、 立 体視しゃすいように表示することを可能とする。 これは、 人間の視覚が視野の周 辺よりも中心の方が物をはつきりと見ることができる特性を利用したものである 。
第 1 0の実施の形態では、 図 3 2の示すフローチャートのステップ S 1からス テツプ S 5までは第 9の実施の形態と同じ処理であるが、 ステップ S 1 6の視差 量調製の代わりに、 ステップ S 1 7の視差量調整を行う。 すなわち、 図 3 5のス テツプ S 2 1からステップ S 2 6の処理を行う。 この時の処理の流れを図 3 5の フローチャートを用いて以下に説明する。
2 1では、 処理対象の 3次元画像の視差量取得エリアの初期値とし て、 画像全体を指定する。
ステップ S 22では、 視差量取得エリア内において、 各画素ごとのび出し量及 び引き込み量を比較し、 視差量取得エリア内の最大飛び出し量 Γ 及び最大引き 込み量 b' を取得する。 本実施の形態では、 予め画像の各画素ごとに飛び出し量 及び引き込み量の情報がタグ情報として付加されていることとするが、 ステレオ マツチングにより自動的に各画素ごとに求める方法もあり、 夕グ情報からの取得 に限定するものではない。 また、 全ての画素において、 飛び出し量及び引き込み 量を所得する必要はなく、 視差量取得エリァ内の一部の特徵的な画素について、 取得する方法を用いても良い。
ステツプ S 23では、 3次元画像全体をずらす視差量の調整により立体視が可 能となるかどうかを判断する。 図 34で示すように f 一 t h— Γ だけずらすこ とにより、 3次元画像全体を立体ディスプレイから引っ込むように表示すること で、 快適な立体視が可能となる。 しかし、 Γ 一 b' が、 t h— ί— t h— bよ りも大きい時には、 単純に左右画像全体をずらすだけでは、 飛び出しの補正を行 うことは出来ない。
従って、 パソコンの CPUは、 Γ 一 b, が、 t h— f — t h— bよりも大き い時には、 上記視差量の調整により立体視が可能とならないと判断し、 ステップ S 24にて、 視差量取得エリアを縮小して、 再度、 ステップ S 22からの処理を 繰り返す。 本実施形態では、 図 37で示すように、 初期値として 3次元画像全体 を範囲 L1 (横 wl, 縦 h2) に設定し、 L 1にて補正処理が行えないときには 、 L 2 (横 w2, 縦 h2) を補正処理を行う範囲とし、 L 2で補正処理が行えな いときには、 L3 (横 w3, 縦] Ί3) …と繰り返す。 ここで、 wn=0. 9 Xw n— 1、 n = 0. 9Xhn— 1とするが、 この漸化式に限定するものではない こうして、 パソコンの CPUは、 ステップ 23にて視差量の調整により立体視 が可能と判断した場合に、 ステップ S 25にて 3次元画像のずらしによる視差量 調整を行う。
立体感の調整を行う点として画面中央でなく、 一番飛び出しが大きい物体ゃ最 も注目している物体を、 予め注目点として指定しておき、 その注目点周辺を優先 して立体感の調整を行うことにより、 立体視しやすいように表示することも可能 である。
<第 1 1の実施の形態 >
これまで説明したいずれの実施の形態もパソコン上のァプリケ一ションに限定 するものではなく、 TVや P D A、 携帯電話等でも実施可能である。 これについ て、 本発明の第 1 1の実施の形態として以下に説明する。
第 4の実施の形態は、 図 3 8に示すように、 3次元画像データ供給部 1 0、 デ
—夕処理用一時記憶部 1 1、 3次元画像表示部 1 2、 拡大率指定部 1 3、 視差調 整部 1 4、 警告判定部 1 5、 警告表示部 1 6から構成される。
まず、 3次元画像データ供給部 1 0から 3次元画像データの各画素ごとの色デ
—夕及び視差データが、 3次元画像表示部 1 2から表示装置の大きさ及び解像度 、 クロストークの大きさが、 データ処理用記憶部 1 1に格納される。 ここで、 3 次元画像データ供給部 1 0として、 磁気ディスクや半導体メモリー、 有線及び無 線ネットワークによるデ一夕送信等が考えられる。 データ処理用一時記憶部とし て、 P D Aや携帯電話等に搭載される半導体メモリ一や磁気ディスク等が考えら れる。
次に、 ユーザ一によって、 拡大率指定部 1 3により、 3次元画像表示をする時 の拡大率を指定する。 拡大率指定部 1 3としては、 拡大縮小を行うポタンや、 ダ ィャル等が考えられる。
視差調整部 1 4では、 データ処理用記憶部 1 1に格納されている 3次元画像デ —夕に対して、 第 8の実施形態におけるステップ S 1〜S 5と同様の処理を行う 。 すなわち、 データ処理用記憶部 1 1に格納されているディスプレイ情報を取得 、 3次元画像データの立体視可能な視差範囲を取得し、 これを 3次元画像の視 差量と比較して、 3次元画像の視差量が立体視可能な視差範囲内にあるかを判定 する。
もし、 立体視可能な視差範囲外である場合、 警告処理部 1 5が、 3次元画像表 示部 1 2にて警告する。 警告表示する文言は、 データ処理用記憶部 1 1に記憶さ れており、 3次元画像の視差量が立体視可能な視差範囲からどの程度ずれている かにより、 警告処理部 1 5が判断する。 こうして、 警告する文言を一旦データ処 理用記憶部 1 1に格納して 3次元画像表示部 1 2にてオーバ一レイ表示して警告 する。
警告は、 3次元画像表示部 1 2とは別の警告専用示部を用いても良いし、スピー 力—やへッドフォンを使用して警告音等で警告しても良い。
産業上の利用可能性
本発明は、 3次元画像を表示させるための 3次元画像作成装置や 3次元画像処 理装置等であり、 ユーザ一が 3次元画像の内容を適切に確認できるようにし、 ま た、 拡大縮小した場合でも 3次元画像の内容をユーザーに適切に提示する装置に 適している。

Claims

請 求 の 範 囲 '
1 . 複数視点に対応した画像情報である主画像を作成する主画像作成部と、 サ ムネィル画像を作成するサムネィル画像作成部と、 前記主画像を 3次元表示する ための 3次元制御情報を作成する 3次元制御情報作成部と、 前記主画像と前記サ ムネイル画像と前記 3次元制御情報とを多重化する多重化部とを備えることを特 徵とする 3次元画像作成装置。
2 . 前記サムネィル画像作成部は、 主画像をそのまま縮小したサムネィル画像 を作成することを特徴とする請求の範囲第 1項に記載の 3次元画像作成装置。
3 . 前記サムネィル画像作成部は、 主画像から 1視点分の画像を抜き出してサ ムネィル画像を作成することを特徴とする請求の範囲第 1項に記載の 3次元画像
4. 前記サムネイル画像作成部は、 サムネイル画像に 3次元画像であることを 示すシンポルを埋め込むことを特徴とする請求の範囲第 1項に記載の 3次元画像 作成装置。
5 . 前記サムネイル画像作成部は、 主画像の縮小画像と、 主画像から 1視点分 の画像を抜き出して縮小した画像をピクチャーインピクチャ一の形にしたサムネ ィル画像を作成することを特徴とする請求の範囲第 1項に記載の 3次元画像作成
6 . 入力された画像デ一夕から主画像データとサムネイルデータと 3次元制御 情報を分離する逆多重化部と、 主画像データが 3次元画像である場合にはサムネ ィルデー夕に 3次元画像であることを示すシンポルを重ねたものをサムネイルと して出力するサムネイル生成部とを備えることを特徴とする 3次元画像再生装置
7 . 立体視可能な視差範囲を取得する視差範囲取得手段と、
' 3次元画像の視差量を取得する視差量取得手段と、 前記 3次元画像の視差量が前記視差範囲内にあるか否かを判定する判定手段と を備えたことを特徴とする 3次元画像処理装置。
8 . 立体視可能な視差範囲を取得する視差範囲取得手段と、
3次元画像の視差量を取得する視差量取得手段と、
前記 3次元画像の拡大あるいは縮小の比率を取得する比率取得手段と、 前記比率に従って拡大あるいは縮小した前記 3次元画像の視差量が前記視差範 囲内にあるか否かを判定する判定手段とを備えたことを特徴とする 3次元画像処
9 . 前記判定手段は、 3次元画像の一部の領域について判定処理を行うことを 特徴とする請求の範囲第 7項または第 8項に記載の 3次元画像処理装置。
1 0 . 前記判定手段が前記視差量が前記視差領域内にないと判定した場合にュ 一ザ一に警告を行う警告手段を備えたことを特徴とする請求の範囲第 7項乃至第 9項のいずれかに記載の 3次元画像処理装置。
1 1 . 前記判定手段が前記視差量が前記視差範囲内にないと判定した場合に 3 次元画像の視差量を調整する視差調整手段を備えたことを特徴とする請求の範囲 第 7項乃至第 9項のいずれかに記載の 3次元画像処理装置。
1 2 . 前記視差量取得手段は、 前記 3次元画像を表示する立体ディスプレイの 解像度及び Zまたは大きさを用いることを特徴とする請求の範囲第 7項乃至第 1 1項のいずれかに記載の 3次元画像処理装置。
1 3 . 前記視差範囲取得手段は、 前記 3次元画像を表示する立体ディスプレイ の左右画像の分別能力を用いることを特徴とする請求の範囲第 7項乃至第 1 1項 のいずれかに記載の 3次元画像処理装置。
1 4. 前記視差量取得手段は、 予め 3次元画像に付加されている値を用いるこ とを特徴とする請求の範囲第 7項乃至第 1 1項のいずれかに記載の 3次元画像処
1 5 . コンピュータを、 立体視可能な視差範囲を取得する視差範囲取得手段と 、 3次元画像の視差量を取得する視差量取得手段と、 前記 3次元画像の視差量が 前記視差範囲内にあるか否かを判定する判定手段として機能させることを特徴と する 3次元画像処理プログラム。
1 6 . コンピュータを、 立体視可能な視差範囲を取得する視差範囲取得手段と 、 3次元画像の視差量を取得する視差量取得手段と、 前記 3次元画像の拡大ある いは縮小の比率を取得する比率取得手段と、 前記比率に従って拡大あるいは縮小 した前記 3次元画像の視差量が前記視差範囲内にあるか否かを判定する判定手段 として機能させることを特徴とする 3次元画像処理プログラム。
1 7 . 前記判定手段は、 3次元画像の一部の領域について判定処理を行うこと を特徴とする請求の範囲第 1 5項または第 1 6項に記載の 3次元画像処理プログ ラム。
1 8 . コンピュータを、 前記判定手段が前記視差量が前記視差領域内にないと 判定した場合にユーザーに警告を行う警告手段として機能させることを特徴とす る請求の範囲第 1 5項乃至第 1 7項のいずれかに記載の 3次元画像処理プロダラ ム。
1 9 . コンピュータを、 前記判定手段が前記視差量が前記視差範囲内にないと 判定した場合に 3次元画像の視差量を調整する視差調整手段として機能させるこ とを特徴とする請求の範囲第 1 5項乃至第 1 7項のいずれかに記載の 3次元画像 処理プログラム。
2 0 . 前記視差量取得手段は、 前記 3次元画像を表示する立体ディスプレイの 解像度及び Zまたは大きさを用いることを特徴とする請求の範囲第 1 5項乃至第 1 9項のいずれかに記載の 3次元画像処理プログラム。
2 1 . 前記視差範囲取得手段は、 前記 3次元画像を表示する立体ディスプレイ の左右画像の分別能力を用いることを特徴とする請求の範囲第 1 5項乃至第 1 9 項のいずれかに記載の 3次元画像処理プログラム。
2 . 前記視差量取得手段は、 予め 3次元画像に付加されている値を用いるこ とを特徴とする請求の範囲第 1 5項乃至第 1 9項のいずれかに記載の 3次元画像 処理プログラム。
2 3 . 請求の範囲第 1 5項乃至第 2 2項のいずれかのプログラムを記録したコ ンピュータ読み取り可能な記録媒体。
PCT/JP2004/005484 2003-04-17 2004-04-16 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体 WO2004093467A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/550,710 US7636088B2 (en) 2003-04-17 2004-04-16 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
CN200480010332A CN100596209C (zh) 2003-04-17 2004-04-16 三维图像生成装置
EP04728007A EP1617684A4 (en) 2003-04-17 2004-04-16 THREE-DIMENSIONAL IMAGE CREATION DEVICE, THREE-DIMENSIONAL IMAGE REPRODUCING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
US12/604,242 US7889196B2 (en) 2003-04-17 2009-10-22 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-112801 2003-04-17
JP2003112801A JP4251907B2 (ja) 2003-04-17 2003-04-17 画像データ作成装置
JP2003130711A JP4259913B2 (ja) 2003-05-08 2003-05-08 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2003-130711 2003-05-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10550710 A-371-Of-International 2004-04-16
US12/604,242 Division US7889196B2 (en) 2003-04-17 2009-10-22 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program

Publications (1)

Publication Number Publication Date
WO2004093467A1 true WO2004093467A1 (ja) 2004-10-28

Family

ID=33302227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005484 WO2004093467A1 (ja) 2003-04-17 2004-04-16 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体

Country Status (5)

Country Link
US (2) US7636088B2 (ja)
EP (1) EP1617684A4 (ja)
KR (1) KR100768837B1 (ja)
CN (1) CN101841728B (ja)
WO (1) WO2004093467A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1912446A1 (en) * 2005-07-26 2008-04-16 Sharp Kabushiki Kaisha 3d image recording device and program
EP1703744A3 (en) * 2005-03-16 2010-02-24 Sony Corporation Apparatus and method for stereoscopic image recording/reproduction and display
WO2010151027A3 (ko) * 2009-06-22 2011-04-14 엘지전자 주식회사 영상표시장치 및 그 동작방법
JP5295236B2 (ja) * 2008-06-18 2013-09-18 三菱電機株式会社 三次元映像変換記録装置、三次元映像変換記録方法、記録媒体、三次元映像変換装置、及び三次元映像伝送装置

Families Citing this family (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005083637A1 (es) * 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Método y sistema de decodificación digital de imágenes de video 3d estereoscópicas
EP1727091A1 (en) * 2004-02-27 2006-11-29 Tdvision Corporation S.A. DE C.V. Method and system for digital coding 3d stereoscopic video images
US7281229B1 (en) * 2004-09-14 2007-10-09 Altera Corporation Method to create an alternate integrated circuit layout view from a two dimensional database
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
DE102005010030B4 (de) * 2005-03-04 2007-05-10 Siemens Ag Verfahren zur mobilen Kommunikation, sowie mobiles Gerät und Kommunikationseinrichtung
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR101005998B1 (ko) * 2005-07-05 2011-01-05 산요덴키가부시키가이샤 입체 화상 처리 방법 및 입체 화상 처리 장치 및 프로그램이 저장된 기록 매체
GB0613352D0 (en) * 2006-07-05 2006-08-16 Ashbey James A Improvements in stereoscopic imaging systems
US7814407B1 (en) * 2006-10-26 2010-10-12 Bank Of America Corporation Method and system for treating data
TWI322613B (en) * 2006-11-15 2010-03-21 Quanta Comp Inc 3d image adjusting apparatus and method of the same
JP4457316B2 (ja) * 2006-12-01 2010-04-28 富士フイルム株式会社 画像再生装置及び方法
JP4569561B2 (ja) * 2006-12-01 2010-10-27 富士フイルム株式会社 画像ファイル作成装置
JP4686795B2 (ja) * 2006-12-27 2011-05-25 富士フイルム株式会社 画像生成装置及び画像再生装置
KR20080066408A (ko) * 2007-01-12 2008-07-16 삼성전자주식회사 3차원 영상 처리 장치 및 방법
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US20080225040A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method of treating semi-transparent features in the conversion of two-dimensional images to three-dimensional images
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
WO2009002115A2 (en) * 2007-06-26 2008-12-31 Lg Electronics Inc. Media file format based on, method and apparatus for reproducing the same, and apparatus for generating the same
JP4947593B2 (ja) * 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
GB0716776D0 (en) * 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
US8400497B2 (en) 2007-09-07 2013-03-19 Samsung Electronics Co., Ltd Method and apparatus for generating stereoscopic file
EP2235956A2 (en) 2007-12-18 2010-10-06 Koninklijke Philips Electronics N.V. Transport of stereoscopic image data over a display interface
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
JP4657313B2 (ja) * 2008-03-05 2011-03-23 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
JP2009246625A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
KR101456001B1 (ko) * 2008-05-23 2014-11-03 엘지전자 주식회사 단말기 및 그 제어 방법
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
EP2306729B1 (en) * 2008-07-31 2013-08-14 Mitsubishi Electric Corporation Video encoding device, video encoding method, video reproduction device, video recording medium, and video data stream
JP5012729B2 (ja) * 2008-08-08 2012-08-29 ソニー株式会社 表示パネルモジュール、半導体集積回路、画素アレイ部の駆動方法及び電子機器
JP2010062695A (ja) * 2008-09-02 2010-03-18 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
JP5163409B2 (ja) * 2008-10-03 2013-03-13 ソニー株式会社 撮像装置、撮像方法、およびプログラム
KR20100040640A (ko) 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
KR20100040563A (ko) * 2008-10-10 2010-04-20 삼성전자주식회사 방송 표시장치 및 그의 2차원 영상 표시 방법
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR101500440B1 (ko) * 2008-10-17 2015-03-09 삼성전자 주식회사 영상처리장치 및 영상처리방법
CN104409032B (zh) * 2008-11-26 2017-05-10 日本电气株式会社 显示设备、终端设备和显示方法
US9282315B2 (en) 2008-12-30 2016-03-08 Lg Electronics Inc. Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same
JP5266126B2 (ja) * 2009-03-31 2013-08-21 富士フイルム株式会社 画像表示装置および方法並びにプログラム
JP4915458B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
KR101648454B1 (ko) * 2009-04-27 2016-08-16 엘지전자 주식회사 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법
WO2010150961A1 (ko) * 2009-06-23 2010-12-29 (주)엘지전자 3차원 영상 제공 장치, 표시 장치 및 그 방법
EP2430839B1 (en) * 2009-06-23 2017-08-16 LG Electronics Inc. Receiving system and method of providing 3d image
EP2452506A4 (en) * 2009-07-07 2014-01-22 Lg Electronics Inc METHOD FOR DISPLAYING A THREE-DIMENSIONAL USER INTERFACE
WO2011005056A2 (ko) * 2009-07-09 2011-01-13 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기
JP5430266B2 (ja) * 2009-07-21 2014-02-26 富士フイルム株式会社 画像表示装置および方法並びにプログラム
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
JP5503438B2 (ja) * 2009-07-21 2014-05-28 富士フイルム株式会社 3次元画像表示装置及び3次元画像表示方法
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
CN102172032A (zh) * 2009-08-31 2011-08-31 松下电器产业株式会社 立体视控制装置、集成电路、立体视控制方法
US20110050869A1 (en) * 2009-09-01 2011-03-03 Yoshiho Gotoh Stereoscopic display control device, integrated circuit, and stereoscopic display control method
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
KR20110040378A (ko) * 2009-10-14 2011-04-20 삼성전자주식회사 영상 제공방법, 그리고 이를 이용한 영상 제공장치, 디스플레이 장치 및 영상 제공 시스템
CN102577410B (zh) * 2009-10-16 2016-03-16 Lg电子株式会社 指示3d内容的方法和处理信号的装置
CN102687513B (zh) * 2009-11-10 2015-09-09 Lg电子株式会社 记录和重放视频数据的方法和使用该方法的显示装置
KR20110055196A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 디스플레이장치 및 그 영상신호처리방법
JP5540746B2 (ja) 2009-11-20 2014-07-02 ソニー株式会社 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
US9307224B2 (en) 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
JP4763827B2 (ja) * 2009-11-26 2011-08-31 富士フイルム株式会社 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
US8773430B2 (en) * 2009-12-09 2014-07-08 Thomson Licensing Method for distinguishing a 3D image from a 2D image and for identifying the presence of a 3D image format by feature correspondence determination
US8462197B2 (en) * 2009-12-17 2013-06-11 Motorola Mobility Llc 3D video transforming device
IT1397591B1 (it) * 2009-12-21 2013-01-16 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
US20110169818A1 (en) * 2010-01-13 2011-07-14 Sharp Laboratories Of America, Inc. Reducing viewing discomfort
EP2524510B1 (en) * 2010-01-13 2019-05-01 InterDigital Madison Patent Holdings System and method for combining 3d text with 3d content
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
EP2355526A3 (en) * 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
BR112012017469A2 (pt) * 2010-01-22 2016-04-19 Sony Corp aparelho receptor e transmissor, sistema de comunicação,e, método de controle de aparelho receptor
GB2477333B (en) * 2010-01-29 2014-12-03 Sony Corp A method and apparatus for creating a stereoscopic image
JP2011164781A (ja) * 2010-02-05 2011-08-25 Sony Computer Entertainment Inc 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
KR101445777B1 (ko) * 2010-02-19 2014-11-04 삼성전자 주식회사 재생 기기 및 그 제어방법
GB2478157A (en) * 2010-02-26 2011-08-31 Sony Corp Method and apparatus for cutting between a first and second image sequence in a stereoscopic video
GB2478156A (en) * 2010-02-26 2011-08-31 Sony Corp Method and apparatus for generating a disparity map for stereoscopic images
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
JP5353770B2 (ja) * 2010-03-05 2013-11-27 カシオ計算機株式会社 立体映像観察装置、立体映像表示装置、及びプログラム
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US8189037B2 (en) * 2010-03-17 2012-05-29 Seiko Epson Corporation Various configurations of the viewing window based 3D display system
US8363091B2 (en) * 2010-03-31 2013-01-29 Fujifilm Corporation Stereoscopic image pick-up apparatus
EP2553933B1 (en) 2010-03-31 2018-10-24 Thomson Licensing 3d disparity maps
EP2391119B1 (en) * 2010-03-31 2015-06-03 FUJIFILM Corporation 3d-image capturing device
JP5515988B2 (ja) * 2010-04-05 2014-06-11 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
WO2011136137A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体撮像装置及びその制御方法
US20110273437A1 (en) * 2010-05-04 2011-11-10 Dynamic Digital Depth Research Pty Ltd Data Dependent Method of Configuring Stereoscopic Rendering Parameters
KR101685343B1 (ko) * 2010-06-01 2016-12-12 엘지전자 주식회사 영상표시장치 및 그 동작방법
US9596453B2 (en) * 2010-06-14 2017-03-14 Lg Electronics Inc. Electronic device and control method thereof
JP5186715B2 (ja) 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム
KR20110136414A (ko) * 2010-06-15 2011-12-21 삼성전자주식회사 영상처리장치 및 그 제어방법
JP6106586B2 (ja) 2010-06-28 2017-04-05 トムソン ライセンシングThomson Licensing 立体コンテンツの3次元効果をカスタマイズする方法及び装置
US9111342B2 (en) * 2010-07-07 2015-08-18 Electronics And Telecommunications Research Institute Method of time-efficient stereo matching
JP2012019383A (ja) * 2010-07-08 2012-01-26 Panasonic Corp 記録制御装置、半導体記録装置および記録システム
CN102316332B (zh) * 2010-07-09 2014-11-26 深圳Tcl新技术有限公司 一种立体图像信号的处理方法
CN103026387B (zh) * 2010-07-26 2019-08-13 香港城市大学 用于从单一的图像生成多视图像的方法
KR101690256B1 (ko) * 2010-08-06 2016-12-27 삼성전자주식회사 영상 처리 방법 및 장치
JP2012044383A (ja) * 2010-08-18 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP5569263B2 (ja) * 2010-08-30 2014-08-13 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
JP5255028B2 (ja) * 2010-08-30 2013-08-07 シャープ株式会社 画像処理装置、表示装置、再生装置、記録装置、画像処理装置の制御方法、情報記録媒体、画像処理装置の制御プログラム及びコンピュータ読取可能な記録媒体
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
US20150179218A1 (en) * 2010-09-10 2015-06-25 3DOO, Inc. Novel transcoder and 3d video editor
JP5368399B2 (ja) * 2010-09-17 2013-12-18 富士フイルム株式会社 電子アルバム生成装置および立体画像貼り付け装置ならびにそれらの動作制御方法およびそれらのプログラム
KR20120056929A (ko) * 2010-09-20 2012-06-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5723721B2 (ja) 2010-09-28 2015-05-27 富士フイルム株式会社 立体画像編集装置および立体画像編集方法
JP5612548B2 (ja) * 2010-09-28 2014-10-22 富士フイルム株式会社 立体画像貼り付けシステムならびにその動作制御方法およびその制御プログラム
JP5681588B2 (ja) * 2010-09-30 2015-03-11 富士フイルム株式会社 立体画像編集装置および立体画像編集方法
KR101633336B1 (ko) * 2010-10-01 2016-06-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2012083412A (ja) * 2010-10-07 2012-04-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9305398B2 (en) 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
TW201216684A (en) * 2010-10-12 2012-04-16 Unique Instr Co Ltd Stereoscopic image display device
JP4956658B2 (ja) * 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
JP5778776B2 (ja) 2010-10-14 2015-09-16 トムソン ライセンシングThomson Licensing 3dビデオ・システムのためのリモコン装置
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
JP2012090094A (ja) * 2010-10-20 2012-05-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US20130265398A1 (en) * 2010-10-29 2013-10-10 Bradley Neal Suggs Three-Dimensional Image Based on a Distance of a Viewer
JP5002047B2 (ja) * 2010-11-05 2012-08-15 シャープ株式会社 立体画像データ再生装置
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
IT1402995B1 (it) * 2010-11-12 2013-09-27 Sisvel Technology Srl Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
WO2012068724A1 (zh) * 2010-11-23 2012-05-31 深圳超多维光电子有限公司 立体图像获取***及方法
KR20120055991A (ko) * 2010-11-24 2012-06-01 삼성전자주식회사 영상처리장치 및 그 제어방법
KR101727899B1 (ko) 2010-11-26 2017-04-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR20120062589A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 3d 디스플레이 장치 및 그 방법
CN102551812B (zh) * 2010-12-09 2015-11-25 Ge医疗***环球技术有限公司 超声容积探头导航与控制方法和装置及超声设备
WO2012101916A1 (ja) 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
CN102638689A (zh) * 2011-02-09 2012-08-15 扬智科技股份有限公司 三维显示放大方法
JP5625979B2 (ja) * 2011-02-10 2014-11-19 ソニー株式会社 表示装置および表示方法ならびに表示制御装置
JP2012205148A (ja) 2011-03-25 2012-10-22 Kyocera Corp 電子機器
JP2012213583A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 立体視表示装置
US8963998B2 (en) * 2011-04-15 2015-02-24 Tektronix, Inc. Full reference system for predicting subjective quality of three-dimensional video
JP5765418B2 (ja) 2011-05-06 2015-08-19 富士通株式会社 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
CN102780890A (zh) * 2011-05-09 2012-11-14 原创奈米科技股份有限公司 三次元影像显示的装置
JP6005731B2 (ja) 2011-05-26 2016-10-12 トムソン ライセンシングThomson Licensing スケール非依存マップ
JP5849811B2 (ja) * 2011-05-27 2016-02-03 株式会社Jvcケンウッド 裸眼立体視用映像データ生成方法
CN102854972B (zh) * 2011-06-30 2015-12-16 宏达国际电子股份有限公司 观赏区域提示方法及***
KR101877802B1 (ko) 2011-06-30 2018-07-13 한국전자통신연구원 3차원 디스플레이에서의 영상 확대 장치 및 방법
KR20130008746A (ko) 2011-07-13 2013-01-23 삼성전자주식회사 3d 영상변환장치, 그 구현방법 및 그 저장매체
JP5921102B2 (ja) * 2011-07-19 2016-05-24 株式会社東芝 画像処理システム、装置、方法及びプログラム
KR101893601B1 (ko) * 2011-07-22 2018-08-31 삼성전자 주식회사 디스플레이장치의 입력장치, 디스플레이 시스템 및 그 제어방법
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
JP5367034B2 (ja) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP5785038B2 (ja) * 2011-08-31 2015-09-24 オリンパス株式会社 撮影機器
JP5978573B2 (ja) * 2011-09-06 2016-08-24 ソニー株式会社 映像信号処理装置および映像信号処理方法
US9560334B2 (en) * 2011-09-08 2017-01-31 Qualcomm Incorporated Methods and apparatus for improved cropping of a stereoscopic image pair
JP5281720B1 (ja) * 2011-09-20 2013-09-04 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
US20130076872A1 (en) * 2011-09-23 2013-03-28 Himax Technologies Limited System and Method of Detecting and Correcting an Improper Rendering Condition in Stereoscopic Images
CN103065602A (zh) * 2011-10-24 2013-04-24 冠捷投资有限公司 可侦测与提示使用者观赏位置的显示器
JP5918982B2 (ja) * 2011-11-22 2016-05-18 キヤノン株式会社 撮像装置、再生装置、その制御方法、撮像システム、及びプログラム
US9381431B2 (en) * 2011-12-06 2016-07-05 Autodesk, Inc. Property alteration of a three dimensional stereoscopic system
FR2984665A1 (fr) * 2011-12-19 2013-06-21 Thomson Licensing Procede de reduction du crosstalk dans les images stereoscopiques.
JP6215228B2 (ja) * 2012-01-04 2017-10-18 トムソン ライセンシングThomson Licensing 3d画像シーケンスの処理
JP5181084B1 (ja) 2012-01-27 2013-04-10 パナソニック株式会社 立体画像表示制御装置及び立体画像表示制御方法
CN103959769B (zh) * 2012-02-02 2016-12-14 太阳专利托管公司 用于使用视差信息的3d媒体数据产生、编码、解码和显示的方法和装置
JP2013192196A (ja) * 2012-02-16 2013-09-26 Panasonic Corp カーソル合成装置およびカーソル合成方法
CN104137539B (zh) 2012-02-23 2016-07-27 富士胶片株式会社 立体图像显示控制装置、具有该装置的摄像装置及立体图像显示控制方法
US8937644B2 (en) 2012-03-21 2015-01-20 Canon Kabushiki Kaisha Stereoscopic image capture
US9384518B2 (en) 2012-03-26 2016-07-05 Amerasia International Technology, Inc. Biometric registration and verification system and method
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
EP2912843A1 (en) * 2012-10-29 2015-09-02 Telefonaktiebolaget LM Ericsson (PUBL) 3d video warning module
US9208369B2 (en) 2012-10-30 2015-12-08 Lockheed Martin Corporation System, method and computer software product for searching for a latent fingerprint while simultaneously constructing a three-dimensional topographic map of the searched space
US20160150209A1 (en) * 2013-06-19 2016-05-26 Telefonaktiebolaget L M Ericsson (Publ) Depth Range Adjustment of a 3D Video to Match the Depth Range Permissible by a 3D Display Device
JP6214233B2 (ja) * 2013-06-21 2017-10-18 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム。
CN105432081B (zh) * 2013-08-06 2019-12-31 索尼电脑娱乐公司 三维图像生成设备、三维图像生成方法、程序和信息存储介质
CN103634586A (zh) * 2013-11-26 2014-03-12 深圳市唯特视科技有限公司 立体图像获取方法及装置
CN106063260B (zh) * 2014-05-08 2018-04-03 奥林巴斯株式会社 视频处理器、视频处理器的工作方法
US10713697B2 (en) 2016-03-24 2020-07-14 Avante International Technology, Inc. Farm product exchange system and method suitable for multiple small producers
JP2017211694A (ja) * 2016-05-23 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10728537B2 (en) * 2016-08-29 2020-07-28 Hitachi, Ltd. Photographing device and photographing method
KR20180074369A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 3차원 컨텐츠의 썸네일 관리 방법 및 그 장치
JP7227448B2 (ja) 2018-07-18 2023-02-22 日本電信電話株式会社 表示装置および表示方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750855A (ja) * 1993-08-06 1995-02-21 Sharp Corp 画像伝送装置
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH09121370A (ja) * 1995-08-24 1997-05-06 Matsushita Electric Ind Co Ltd 立体tv装置
JP2001281754A (ja) * 2000-03-31 2001-10-10 Minolta Co Ltd カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体
JP2002232914A (ja) * 2001-02-01 2002-08-16 Canon Inc 複眼カメラ
JP2003009185A (ja) * 2001-06-25 2003-01-10 Olympus Optical Co Ltd 立体観察システム
US6507358B1 (en) 1997-06-02 2003-01-14 Canon Kabushiki Kaisha Multi-lens image pickup apparatus

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3241429A (en) * 1962-05-14 1966-03-22 Pid Corp Pictorial parallax panoramagram units
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US6084978A (en) * 1993-12-16 2000-07-04 Eastman Kodak Company Hierarchical storage and display of digital images used in constructing three-dimensional image hard copy
JPH0829701A (ja) * 1994-07-18 1996-02-02 Olympus Optical Co Ltd 立体視内視鏡システム
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
EP1094674B1 (en) 1996-12-04 2014-04-02 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
JPH10221775A (ja) 1997-02-07 1998-08-21 Canon Inc 立体視撮像表示プログラムを記録した媒体及び複眼画像入出力装置
JPH1141627A (ja) 1997-07-18 1999-02-12 Sanyo Electric Co Ltd 画像合成装置
US6208348B1 (en) * 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
CN1244762A (zh) * 1998-08-10 2000-02-16 袁灿伦 实现立体视频图象的方法及其装置
JP2000078615A (ja) 1998-09-02 2000-03-14 Sanyo Electric Co Ltd ディジタル放送受信機
JP4245750B2 (ja) * 1999-10-15 2009-04-02 オリンパス株式会社 立体観察装置
JP4700164B2 (ja) * 2000-04-24 2011-06-15 富士フイルム株式会社 画像記録装置及び方法
JP2001337994A (ja) 2000-05-26 2001-12-07 Ricoh Co Ltd サムネイル表示システムと方法およびその処理プログラムを記録した記録媒体
JP3999929B2 (ja) 2000-06-16 2007-10-31 三洋電機株式会社 立体映像表示装置
US20050210145A1 (en) * 2000-07-24 2005-09-22 Vivcom, Inc. Delivering and processing multimedia bookmark
JP2002232913A (ja) 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2002300405A (ja) 2001-03-30 2002-10-11 Fuji Photo Film Co Ltd 画像圧縮方法
JP2002300403A (ja) 2001-03-30 2002-10-11 Fuji Photo Film Co Ltd 画像処理装置
US7113634B2 (en) * 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2003043599A (ja) 2001-07-31 2003-02-13 Canon Inc 立体画像形成方法、立体画像形成システム、プログラム及び記憶媒体
JP3789794B2 (ja) 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
JP4541610B2 (ja) * 2001-09-17 2010-09-08 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750855A (ja) * 1993-08-06 1995-02-21 Sharp Corp 画像伝送装置
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH09121370A (ja) * 1995-08-24 1997-05-06 Matsushita Electric Ind Co Ltd 立体tv装置
US6507358B1 (en) 1997-06-02 2003-01-14 Canon Kabushiki Kaisha Multi-lens image pickup apparatus
JP2001281754A (ja) * 2000-03-31 2001-10-10 Minolta Co Ltd カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体
JP2002232914A (ja) * 2001-02-01 2002-08-16 Canon Inc 複眼カメラ
JP2003009185A (ja) * 2001-06-25 2003-01-10 Olympus Optical Co Ltd 立体観察システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1617684A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1703744A3 (en) * 2005-03-16 2010-02-24 Sony Corporation Apparatus and method for stereoscopic image recording/reproduction and display
KR101226874B1 (ko) 2005-03-16 2013-01-25 소니 주식회사 기록 재생 장치 및 방법과, 입체 영상 시각 효과 확인 장치및 방법
EP1912446A1 (en) * 2005-07-26 2008-04-16 Sharp Kabushiki Kaisha 3d image recording device and program
EP1912446A4 (en) * 2005-07-26 2013-10-09 Sharp Kk DEVICE AND PROGRAM FOR RECORDING 3D IMAGE
JP5295236B2 (ja) * 2008-06-18 2013-09-18 三菱電機株式会社 三次元映像変換記録装置、三次元映像変換記録方法、記録媒体、三次元映像変換装置、及び三次元映像伝送装置
WO2010151027A3 (ko) * 2009-06-22 2011-04-14 엘지전자 주식회사 영상표시장치 및 그 동작방법

Also Published As

Publication number Publication date
CN101841728B (zh) 2012-08-08
US7889196B2 (en) 2011-02-15
US20100039499A1 (en) 2010-02-18
KR100768837B1 (ko) 2007-10-19
EP1617684A1 (en) 2006-01-18
KR20050121246A (ko) 2005-12-26
CN101841728A (zh) 2010-09-22
US20060192776A1 (en) 2006-08-31
US7636088B2 (en) 2009-12-22
EP1617684A4 (en) 2009-06-03

Similar Documents

Publication Publication Date Title
WO2004093467A1 (ja) 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
JP4251907B2 (ja) 画像データ作成装置
US7679616B2 (en) Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto
JP5449162B2 (ja) 映像符号化装置、映像符号化方法、映像再生装置、及び映像再生方法
EP1501316A1 (en) Multimedia information generation method and multimedia information reproduction device
KR100740607B1 (ko) 화상 데이터 작성 장치 및 그 데이터를 재생하는 화상데이터 재생 장치
JP4251864B2 (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP4630150B2 (ja) 立体画像記録装置及びプログラム
JP4181446B2 (ja) 立体画像表示装置
US20090128622A1 (en) Image processing device
JP4252105B2 (ja) 画像データ作成装置及び画像データ再生装置
JP2004274091A (ja) 画像データ作成装置、画像データ再生装置、画像データ記録方式および画像データ記録媒体
JPWO2007116549A1 (ja) 画像処理装置
US20090244258A1 (en) Stereoscopic display apparatus, stereoscopic display method, and program
JP2005184377A (ja) 画像変換装置及びそれを用いた画像記録装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004728007

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006192776

Country of ref document: US

Ref document number: 10550710

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057018993

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048103322

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057018993

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004728007

Country of ref document: EP

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWP Wipo information: published in national office

Ref document number: 10550710

Country of ref document: US