WO2011136190A1 - 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 - Google Patents

立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 Download PDF

Info

Publication number
WO2011136190A1
WO2011136190A1 PCT/JP2011/060095 JP2011060095W WO2011136190A1 WO 2011136190 A1 WO2011136190 A1 WO 2011136190A1 JP 2011060095 W JP2011060095 W JP 2011060095W WO 2011136190 A1 WO2011136190 A1 WO 2011136190A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
viewpoint
stereoscopic
maximum
Prior art date
Application number
PCT/JP2011/060095
Other languages
English (en)
French (fr)
Inventor
敏 中村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201180020899.8A priority Critical patent/CN102860019B/zh
Priority to JP2012512838A priority patent/JP5449536B2/ja
Publication of WO2011136190A1 publication Critical patent/WO2011136190A1/ja
Priority to US13/659,638 priority patent/US9560341B2/en
Priority to US15/377,353 priority patent/US20170094267A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Definitions

  • the present invention relates to a stereoscopic image reproduction apparatus and method, a stereoscopic imaging apparatus, and a stereoscopic display apparatus, and more particularly to a technique for appropriately reproducing and displaying a stereoscopic image recorded in a three-dimensional image file.
  • the stereoscopic imaging apparatus captures the same subject from the left and right viewpoints using two imaging units (imaging units) arranged with parallax on the left and right sides, and acquires a left eye image and a right eye image, respectively, and a recording medium To record.
  • the acquired left and right images are read from the recording medium and input to a 3D display capable of three-dimensional (3D) display so that the left eye image and the right eye image can be viewed separately by the left and right eyes. By being displayed, it can be recognized as a stereoscopic image.
  • an intermediate viewpoint image that should be seen from an arbitrary viewpoint is generated from a left-eye image and a right-eye image in a playback apparatus.
  • Patent Document 1 discloses a technique for transmitting information about the imaging size of a camera that captures an image and the distance between the center of the lens and the imaging surface when transmitting an image of two or more viewpoints. Yes. According to this technique, information on the viewing angle at the time of imaging can be obtained on the display side.
  • Patent Document 1 has a drawback that the processing on the display device side is complicated. Further, since this is a technique related to data transmission, it is not disclosed how these pieces of information are recorded when a stereoscopic image is recorded on a recording medium.
  • the present invention has been made in view of such circumstances, and a stereoscopic image reproducing apparatus and method for displaying a stereoscopic image with an appropriate amount of parallax based on auxiliary information recorded in a three-dimensional image file, a stereoscopic imaging apparatus, a stereoscopic image
  • An object is to provide a display device.
  • a stereoscopic image reproduction device displays a plurality of viewpoint images for stereoscopic viewing and auxiliary information for the plurality of viewpoint images, and displays the plurality of viewpoint images on a stereoscopic display.
  • First acquisition means for reading a three-dimensional image file in which auxiliary information including a maximum display size capable of binocular fusion is recorded, and acquiring the plurality of viewpoint images and auxiliary information from the three-dimensional image file;
  • the second acquisition means for acquiring the display size of the output destination stereoscopic display, the acquired display size of the stereoscopic display and the maximum display size are compared, and the display size of the stereoscopic display is greater than the maximum display size.
  • Determining means for determining whether or not the display size of the three-dimensional display; When it is determined that is larger than the maximum display size, a plurality of viewpoint images in which at least the distant view-side parallax between the plurality of viewpoint images is reduced based on the plurality of viewpoint images acquired by the first acquisition unit
  • the determination unit determines that the display size of the stereoscopic display is larger than the maximum display size
  • the viewpoint image generated by the image processing unit is output to the stereoscopic display.
  • an output unit that outputs the viewpoint image acquired by the first acquisition unit to the three-dimensional display is provided.
  • distal view side here refers to the distal side away from the imaging means to the subject side, and conversely, the “near view side” is opposite to the far view side and from the subject to the imaging means side.
  • proximal side that approaches
  • the stereoscopic image can be displayed with an appropriate amount of parallax.
  • the stereoscopic image reproducing device records a plurality of viewpoint images for stereoscopic viewing and attached information including a maximum disparity amount on the far side in the plurality of viewpoint images.
  • a first acquisition unit that reads a three-dimensional image file and acquires the plurality of viewpoint images and attached information from the three-dimensional image file; a second acquisition unit that acquires a display size of a stereoscopic display as an output destination; Whether or not binocular fusion is possible when the plurality of viewpoint images are displayed on the stereoscopic display based on the acquired maximum disparity on the distant view side, the display size of the stereoscopic display, and a predetermined value indicating the binocular interval between humans
  • a plurality of viewpoint images based on a plurality of viewpoint images acquired by the first acquisition means.
  • An image processing unit that generates a plurality of viewpoint images with small disparity on the far side in between, and if the determination unit determines that binocular fusion is impossible, the viewpoint image generated by the image processing unit is displayed on the stereoscopic display.
  • Output means for outputting the viewpoint image acquired by the first acquisition means to the stereoscopic display when it is determined that the binocular fusion is possible.
  • the second aspect of the present invention acquired from the 3D image file based on at least the maximum disparity amount on the far side obtained from the 3D image file, the display size of the stereoscopic display, and the predetermined value indicating the binocular distance between humans.
  • the display size of the stereoscopic display When displaying a plurality of viewpoint images on a stereoscopic display, it is determined whether or not binocular fusion is possible. Since the image is output to the display, a stereoscopic image can be displayed with an appropriate amount of parallax.
  • the determination unit displays the plurality of viewpoint images on the stereoscopic display based on the acquired maximum disparity amount on the far view side and the display size of the stereoscopic display.
  • Image displacement amount calculation means for calculating the image displacement amount on the stereoscopic display corresponding to the maximum amount of parallax, and the calculated image displacement amount exceeds a predetermined value indicating a human binocular interval It is preferable to determine whether binocular fusion is possible or not.
  • the image processing means determines a maximum disparity amount on the far side of the plurality of viewpoint images on the stereoscopic display as a predetermined distance indicating a human binocular interval. It is preferable to perform a parallax shift between the plurality of viewpoint images that are equal to or less than a value, and generate a viewpoint shift image shifted in parallax.
  • the additional information of the three-dimensional image file includes a maximum amount of parallax on the near view side in the plurality of viewpoint images, and the plurality of information on the three-dimensional display.
  • Adding means for adding the maximum parallax amount on the near view side of the viewpoint image and the shift amount on the stereoscopic display of the viewpoint shift image, and an image shift amount corresponding to the added maximum parallax amount on the near view side Determination means for determining whether or not the binocular fusion limit is exceeded when displayed on the stereoscopic display, and the output means determines that the image deviation amount exceeds the binocular fusion limit by the determination means.
  • any one of a plurality of viewpoint images acquired by the first acquisition unit is output to the stereoscopic display to display a two-dimensional image.
  • the image processing means indicates a deviation amount between feature points whose features match from a plurality of viewpoint images acquired by the first acquisition means.
  • the output means determines that the display size of the stereoscopic display is larger than the maximum display size by the determining means, or the calculated image.
  • the deviation amount exceeds a predetermined value indicating the human binocular interval
  • one of the plurality of viewpoint images acquired by the first acquisition unit is output to the stereoscopic display 2 It is preferable to display a three-dimensional image, and then output the virtual viewpoint image instead of the two-dimensional image when the image processing means generates the virtual viewpoint image.
  • the image can be displayed on the stereoscopic display.
  • the stereoscopic image reproduction device further comprises display image generation means for generating a plurality of display images having an image size smaller than the viewpoint image based on the plurality of viewpoint images,
  • the image processing means uses the plurality of generated display images instead of the plurality of viewpoint images acquired by the first acquisition means, and at least a distant parallax between the plurality of display images is small.
  • a plurality of display images, and the output means outputs the display image generated by the display image generation means or the display image generated by the image processing means to the stereoscopic display. preferable.
  • At least one of the viewpoint image generated by the image processing means and the display image generated by the display image generating means is selected as the three-dimensional image. It is preferable that a recording unit for additionally recording or overwriting the image file is provided.
  • the stereoscopic imaging device has the same characteristics as the imaging means for acquiring a plurality of viewpoint images obtained by capturing the same subject from a plurality of viewpoints, and the acquired viewpoint images.
  • a parallax amount calculating unit that calculates a parallax amount indicating a deviation amount between feature points, a maximum parallax amount acquiring unit that acquires a disparity maximum parallax amount of each calculated feature point, and the acquired Maximum display size acquisition means for acquiring a maximum display size capable of binocular fusion when displaying a stereoscopic image based on the plurality of viewpoint images on a stereoscopic display based on a maximum disparity amount on the far side, and the plurality of viewpoint images
  • a recording means for generating a recorded three-dimensional image file and recording the three-dimensional image file on a recording medium, wherein the plurality of viewpoint images are recorded in the three-dimensional image file; And a recording unit that records the maximum parallax amount and the maximum display size on the far side in the three-dimensional image file as attached information, and the stereoscopic image reproducing device according to claim 1. It is characterized by.
  • a stereoscopic display device includes the output destination stereoscopic display and the stereoscopic image reproducing device according to any one of claims 1 to 9. .
  • a stereoscopic image reproduction method includes a plurality of viewpoint images for stereoscopic viewing and additional information for the plurality of viewpoint images, and displays the plurality of viewpoint images on a stereoscopic display.
  • the second acquisition step of acquiring the display size of the output stereoscopic display is compared with the acquired display size of the stereoscopic display and the maximum display size, and the display size of the stereoscopic display is greater than the maximum display size.
  • a determination step for determining whether or not the three-dimensional display When it is determined that is larger than the maximum display size, a plurality of viewpoint images in which at least the disparity on the distant view side between the plurality of viewpoint images is reduced based on the plurality of viewpoint images acquired by the first acquisition step
  • the determination process determines that the display size of the stereoscopic display is larger than the maximum display size
  • the viewpoint image generated by the image processing process is output to the stereoscopic display.
  • an output step of outputting the viewpoint image acquired in the first acquisition step to the stereoscopic display is provided.
  • a stereoscopic image reproduction method provides a plurality of viewpoint images for stereoscopic viewing, and additional information for the plurality of viewpoint images, and a maximum disparity on the far side in the plurality of viewpoint images.
  • the plurality of viewpoint images are displayed on the stereoscopic display based on the second acquisition step to be acquired, the acquired maximum disparity amount on the distant view side, the display size of the stereoscopic display, and a predetermined value indicating the binocular distance between humans.
  • a figure showing how to capture two viewpoint images A diagram schematically showing the data structure of a 3D image file Flow chart showing shooting and recording processing The figure which shows an example of two viewpoint images A figure showing how to capture four viewpoint images A diagram schematically showing the data structure of a 3D image file The figure which showed typically the other aspect of the data structure of 3D image file Illustration for explaining the virtual viewpoint A diagram schematically showing the data structure of a 3D image file Diagram for explaining the principle of parallax shifting Diagram showing left and right viewpoint images and parallax shift Flow chart showing shooting and recording processing A diagram schematically showing the data structure of a 3D image file Flow chart showing playback display processing Flow chart showing playback display processing based on maximum parallax amount Flow chart showing processing for recording in 3D image file A diagram schematically showing the data structure of a 3D image file Flow chart showing processing for 2D display Flowchart showing processing considering maximum parallax amount (near view) The figure which shows the external appearance of a stereoscopic imaging device Block diagram showing the internal configuration of the
  • the stereoscopic image reproducing apparatus includes first acquisition means, second acquisition means, determination means, image processing means, and output means.
  • first acquisition means a plurality of viewpoint images for stereoscopic viewing by the first acquisition means and additional information for the plurality of viewpoint images, and a maximum display size that can be binocularly fused when displaying the plurality of viewpoint images on a stereoscopic display Is read, and a plurality of viewpoint images and attached information are acquired from the 3D image file (first acquisition step).
  • the display size of the output destination stereoscopic display is acquired by the second acquisition means (second acquisition step).
  • the determination unit compares the acquired display size of the stereoscopic display with the maximum display size, and determines whether or not the display size of the stereoscopic display is larger than the maximum display size (determination step).
  • the image processing means is configured to provide at least a distant view side between the plurality of viewpoint images based on the plurality of viewpoint images acquired by the first acquisition means determined that the display size of the stereoscopic display is larger than the maximum display size.
  • a plurality of viewpoint images with small parallax are generated (image processing step).
  • the output means outputs the viewpoint image generated by the image processing means to the stereoscopic display, and when the display size of the stereoscopic display is determined to be equal to or less than the maximum display size, the viewpoint image acquired by the first acquisition means Is output to a three-dimensional display (output process).
  • the display size of the stereoscopic display is compared with the maximum display size acquired from the 3D image file, and if it is determined that the display size of the stereoscopic display is larger, at least the disparity on the far side It is possible to generate a plurality of viewpoint images with a small and output to a stereoscopic display. As a result, a stereoscopic image can be displayed with an appropriate amount of parallax.
  • the second acquisition means After obtaining a plurality of viewpoint images and attached information by the first acquisition means, and acquiring the display size of the output destination stereoscopic display by the second acquisition means, Based on the display size of the stereoscopic display and a predetermined value indicating the distance between both eyes of the human, it is determined whether or not binocular fusion is possible when a plurality of viewpoint images are displayed on the stereoscopic display. Then, when it is determined that binocular fusion is impossible by the determination unit using the image processing unit, the disparity on the distant side between the plurality of viewpoint images is small based on the plurality of viewpoint images acquired by the first acquisition unit. A plurality of viewpoint images are generated.
  • the viewpoint image generated by the image processing means is output to the stereoscopic display, and if it is determined that binocular fusion is possible, the first acquisition is performed.
  • the viewpoint image acquired by the means is output to the stereoscopic display. Accordingly, a plurality of viewpoints acquired from the 3D image file based on at least the maximum disparity amount on the far side acquired from the 3D image file, the display size of the stereoscopic display, and the predetermined value indicating the binocular distance between humans. Determine whether binocular fusion is possible when displaying an image on a stereoscopic display.
  • the discriminating unit is configured on the stereoscopic display corresponding to the maximum parallax amount when a plurality of viewpoint images are displayed on the stereoscopic display based on the acquired maximum disparity amount on the distant view side and the display size of the stereoscopic display. And determining whether or not binocular fusion is possible based on whether or not the calculated image shift amount exceeds a predetermined value indicating a human binocular interval. preferable. This is because it is possible to determine whether or not binocular fusion is possible.
  • the image processing means includes a plurality of viewpoints that make the maximum disparity amount on the far side of the plurality of viewpoint images on the three-dimensional display equal to or less than a predetermined value indicating a human binocular interval. It is preferable to perform a parallax shift between images and generate a viewpoint shift image shifted in parallax. This is because a viewpoint image can be appropriately generated.
  • the attached information of the 3D image file includes the maximum disparity amount on the near view side in the plurality of viewpoint images, and the maximum disparity amount on the near view side of the plurality of viewpoint images on the stereoscopic display and the stereoscopic display of the viewpoint shift image.
  • the output means displays one of the plurality of viewpoint images acquired by the first acquiring means as a three-dimensional display. It is preferable to display the two-dimensional image. This is because an appropriate image can be displayed.
  • the image processing unit includes a parallax amount calculating unit that calculates a parallax amount indicating a shift amount between feature points having matching features from a plurality of viewpoint images acquired by the first acquiring unit, and a first acquiring unit.
  • a virtual viewpoint that generates one or a plurality of virtual viewpoint images corresponding to an arbitrary virtual viewpoint based on at least one viewpoint image of the plurality of viewpoint images acquired by the above and the amount of parallax calculated by the parallax amount calculating means It is preferable to have an image generation means. This is because an appropriate viewpoint image can be generated.
  • the output means determines that the display size of the stereoscopic display is larger than the maximum display size by the determination means, or if the calculated image shift amount exceeds a predetermined value indicating the human binocular interval.
  • the image processing means includes display image generation means for generating a plurality of display images having a smaller image size than the viewpoint image based on the plurality of viewpoint images, and the image processing means includes the plurality of viewpoints acquired by the first acquisition means.
  • a plurality of display images generated instead of the image are used to generate a plurality of display images with at least a distant view-side parallax between the plurality of display images, and the output unit generates the display image
  • the output unit generates the display image
  • FIG. 1 is a diagram showing a state in which two viewpoint images are taken from different viewpoints of the subject 100 (imaging process) by the respective imaging means of the two imaging devices 101-2 and 101-3.
  • 1 schematically shows the data structure of a 3D image file in which two viewpoint images 201-2 and 201-3 photographed by the respective imaging means of the imaging devices 101-2 and 101-3 shown in FIG. 1 are recorded.
  • FIG. 1 is a diagram showing a state in which two viewpoint images are taken from different viewpoints of the subject 100 (imaging process) by the respective imaging means of the two imaging devices 101-2 and 101-3. 1 schematically shows the data structure of a 3D image file in which two viewpoint images 201-2 and 201-3 photographed by the respective imaging means of the imaging devices 101-2 and 101-3 shown in FIG. 1 are recorded.
  • the 3D image file shown in FIG. 2 is an MP file conforming to the MP format, and a plurality of viewpoint images of the same subject are connected and combined into one file.
  • an SOI Start (of Image) marker is recorded at the leading end of the data
  • an EOI End of Image
  • each viewpoint image data is composed of an image area and an attached information area.
  • the maximum display size (width, height, unit: mm) acquired at the time of image recording, and at the time of image recording Assumed viewing distance (distance between viewer and display when observing a stereoscopic image) (unit: mm), maximum parallax amount (near view) (%), maximum parallax amount (far view) (%), and each viewpoint image Ancillary information including the angle of convergence of the photographed device, the base line length, the imaging unit arrangement (viewpoint number), and the number of times of photographing when each viewpoint image is acquired is recorded.
  • a plurality of viewpoint images are acquired (step S11).
  • two images are taken one by one with respect to the subject 100 by the two imaging devices 101-2 and 101-3, and two viewpoint images 201-2 and 201-3 are obtained.
  • the imaging apparatus 101-2 is referred to as viewpoint number 2
  • the imaging apparatus 101-3 is referred to as viewpoint number 3.
  • a plurality of feature points are extracted from the two viewpoint images 201-2 and 201-3 using the parallax amount calculation means (step S12), and the parallax amount for each feature point is calculated (step S13).
  • the amount of parallax refers to a difference in distance between corresponding feature points between viewpoint images from the left end of each viewpoint image, and the unit is a pixel. From the parallax amount for each feature point calculated in this manner, the maximum parallax amount on the near view side and the maximum parallax amount on the far view side are acquired using the maximum parallax amount acquisition unit (step S14).
  • FIG. 4 is a diagram showing an example of two viewpoint images, FIG. 4A shows a left viewpoint image 201-2, and FIG. 4B shows a right viewpoint image 201-3.
  • the maximum parallax amount on the foreground side is 213N, and feature points having this parallax amount (maximum parallax amount position (near view)) are 211N and 212N, respectively.
  • the maximum disparity amount on the distant view side is 213F, and feature points having the disparity amount (maximum disparity amount position (distant view)) are 211F and 212F, respectively. That is, when a stereoscopic image based on the two viewpoint images 201-2 and 201-3 is stereoscopically viewed, the maximum parallax amount position (near view) appears closest, and the maximum parallax amount position (distant view) is farthest away. Will be seen.
  • the ratio (%) of the maximum parallax amount 213N on the near view side and the maximum parallax amount 213F on the near view side to the image width is the maximum parallax amount (near view) (%) and the maximum parallax amount (far view) (%).
  • the maximum display size is acquired using the maximum display size acquisition means (step S15). If the amount of parallax on the far side exceeds the human binocular interval, the position of the image cannot be binocularly fused and stereoscopic viewing is impossible. Therefore, the maximum display size in which the parallax does not exceed the human binocular interval is acquired from the ratio (%) of the maximum parallax amount (far view) calculated in step S14 to the image width.
  • the maximum display width allowed for stereoscopic viewing is 500 mm. That is, if the display has a width of 500 mm or less, the parallax amount at the maximum parallax position (distant view) is displayed without exceeding the binocular spacing of 50 mm, and as a result, the viewer can view a stereoscopic image.
  • the maximum display height is 281.25 mm.
  • the maximum display width allowed for stereoscopic viewing is about 433 mm.
  • the maximum display height is about 244 mm.
  • a table in which the maximum display size corresponding to the maximum amount of parallax is recorded is prepared in advance, and the maximum display size is obtained by referring to this table. Also good.
  • the two viewpoint images 201-2 and 201-3 and the attached information are recorded as one 3D image file as shown in FIG. 2 using the recording means (step S16).
  • the maximum display size acquired in step S15 the assumed viewing distance, the maximum parallax amount (near view) (%), and the maximum parallax amount (far view) acquired in step S14. (%),
  • the angle of convergence of the imaging devices 101-2 and 101-3 in step S11, the base line length, the viewpoint number, and the number of times of imaging are recorded in the attached information, and then the image information of the viewpoint image 201-2, the EOI marker Record.
  • the SOI marker, attached information, image information, and EOI marker of the viewpoint image 201-3 are recorded. Only the Exif attached information may be recorded in the attached information area of the viewpoint image 201-3.
  • the 3D image file shown in FIG. 2 can be recorded.
  • the 3D image file recorded in this way is read by the stereoscopic image playback device when displayed on the 3D display.
  • it is easy to determine whether or not stereoscopic viewing is possible by comparing the maximum display size recorded in the attached information of the 3D image file with the display size of the 3D display to be displayed. Can be determined. Therefore, when it is determined that stereoscopic viewing is possible, the recorded image may be displayed as it is, and the process of adjusting the parallax amount according to the screen size in the stereoscopic image playback device can be reduced.
  • the amount of parallax can be appropriately adjusted by using information on the assumed viewing distance and the number of times of photographing recorded in the attached information.
  • the maximum display size is determined based only on the maximum disparity amount on the far side, but may be determined in consideration of the maximum amount of disparity on the near side.
  • the maximum parallax amount on the near view side it becomes possible to determine the maximum display size that enables appropriate stereoscopic viewing not only on the far view side but also on the near view side.
  • a display size where the amount of parallax in the foreground is 50 mm or less may be set as the maximum display size. This is because when the amount of parallax on the near view side increases, the viewer feels fatigue when viewing stereoscopically, so it is preferable to set the amount to a predetermined amount or less.
  • FIG. 5 is a diagram illustrating a state in which four viewpoint images are photographed from different viewpoints with respect to the subject 100 by the four imaging devices 101-1 to 101-4.
  • the viewpoint numbers of the imaging devices 101-1 to 101-4 are sequentially set to 1 to 4.
  • FIG. 6 is a diagram schematically showing a data structure of a 3D image file in which four viewpoint images photographed by the four imaging devices 101-1 to 101-4 are recorded.
  • this 3D image file in addition to the four viewpoint images, a display image in which the size of each viewpoint image generated by the display image generation unit is reduced is recorded.
  • a display image a full HD size image with a resolution of 1920 ⁇ 1080 is suitable.
  • these images include a viewpoint image of viewpoint number 1 (hereinafter referred to as viewpoint image (1)), a display image of viewpoint number 1 (hereinafter referred to as thumbnail image (1)), and a viewpoint.
  • a viewpoint image of number 2 hereinafter referred to as viewpoint image (2)
  • a display image of viewpoint number 2 hereinafter referred to as thumbnail image (2)
  • a viewpoint image of viewpoint number 3 hereinafter referred to as viewpoint image (3)
  • a display image with viewpoint number 3 hereeinafter referred to as thumbnail image (3)
  • a viewpoint image with viewpoint number 4 hereinafter referred to as viewpoint image (4)
  • viewpoint image a display image with viewpoint number 4
  • a viewpoint image (1) photographed with a viewpoint number 1 as a reference viewpoint is recorded as a head image, and the recording area includes an SOI marker, an attached information area, an image information area, and an EOI marker.
  • the attached information area in addition to Exif attached information such as shooting device information and shooting mode information, the maximum display size, the assumed viewing distance, the maximum parallax amount (near view), and the maximum parallax amount ( Attached information, such as a distant view), a convergence angle of the device that captured each viewpoint image, a base line length, an imaging unit arrangement (viewpoint number), and the number of times of capturing when each viewpoint image is acquired, is recorded.
  • Attached information such as a distant view
  • a convergence angle of the device that captured each viewpoint image a base line length
  • an imaging unit arrangement viewpoint number
  • the number of times of capturing when each viewpoint image is acquired is recorded.
  • the maximum display size, the maximum amount of parallax, and the like are recorded when the entire 3D image file is used. Specifically, based on the viewpoint image (1) photographed from the reference viewpoint, the maximum parallax amount calculated from the viewpoint image (here, the viewpoint image (4)) having the largest parallax amount, and the maximum parallax amount. The acquired maximum display size is recorded. As for the convergence angle, the base line length, etc., the convergence angle and the base line length with the apparatus that captured the same viewpoint image (here, the viewpoint image (4)) are recorded.
  • the image information of the viewpoint image (1) is recorded in the image information area, and subsequently the EOI marker is recorded.
  • the thumbnail image (1) generated from the viewpoint image (1) is recorded, and the recording area is the same as before, the SOI marker, the attached information area, the image information area. , And an EOI marker. Normal Exif attached information is recorded in the attached information area.
  • the viewpoint image (2) is recorded after the thumbnail image (1).
  • the recording area of the viewpoint image (2) also has an SOI marker, an attached information area, an image information area, and an EOI marker.
  • the attached information area in addition to normal Exif attached information, the maximum display size, the assumed viewing distance, and the maximum parallax amount (near view) calculated from the viewpoint image (2) and the viewpoint image (1) photographed at the reference viewpoint. ), Maximum parallax amount (distant view), and the attached information such as the convergence angle, base line length, viewpoint number of the apparatus that captured the two viewpoint images, and the number of times of capturing the two viewpoint images are recorded. Has been.
  • a thumbnail image (2) generated from the viewpoint image (2) is recorded, and then the viewpoint image (3) is recorded.
  • the recording area of the viewpoint image (3) also includes an SOI marker, an attached information area, an image information area, and an EOI marker.
  • the viewpoint image (3 ) And the maximum display size calculated from the viewpoint image (1) taken from the reference viewpoint are recorded in the same manner.
  • viewpoint image (4) is also recorded in the same manner.
  • the 3D image file recorded in this way is read by the stereoscopic image playback device when displayed on the 3D display.
  • the stereoscopic display can be appropriately realized by comparing the maximum display size for each viewpoint image recorded in the attached information of the 3D image file with the display size of the 3D display to be displayed. It can be easily determined whether or not.
  • recording order of the multi-viewpoint images is not limited to the order shown in FIG.
  • viewpoint image (1), thumbnail image (1) to thumbnail image (4), viewpoint image (2) to viewpoint image (4) may be recorded in this order.
  • the image reading at the time of reading the file when performing the display becomes faster, and the time required until the image is displayed on the 3D display can be reduced.
  • Each viewpoint image is mainly used for printing, and printing requires a predetermined time. Therefore, even if it is recorded in the latter half of the file, there are few harmful effects.
  • the recording order of the thumbnail images may be recorded in advance for the recommended images to be displayed on the 3D display. For example, if stereoscopic display using the thumbnail image (2) and the thumbnail image (3) is recommended, as shown in FIG. 7B, the thumbnail image (2) and the thumbnail are displayed next to the viewpoint image (1) of the top image. The image (3) may be recorded, and then the thumbnail image (1) and the thumbnail image (4) may be recorded.
  • the two images have a smaller amount of parallax, even a large display can be displayed stereoscopically. Also, using an image with a viewpoint close to the center is more suitable for stereoscopic viewing. Therefore, in such a case, it is preferable to record the thumbnail image (2) and the thumbnail image (3) first, assuming that the images at the viewpoint number 2 and the viewpoint number 3 are recommended.
  • thumbnail image (1) may be recorded, and then the thumbnail image (2) and the thumbnail image (4) may be recorded.
  • the maximum display size, the assumed viewing distance, and the maximum parallax amount in the recommended image may be recorded in the attached information of the viewpoint image (1) that is the top image.
  • the multi-viewpoint image as in the second embodiment does not need to be an image that is actually actually captured, and may include a virtual viewpoint image corresponding to the virtual viewpoint.
  • viewpoint number 1 and viewpoint number 4 are generated using virtual viewpoint image generation means, and viewpoint number 2 and viewpoint image 2 and viewpoint image 3 are generated in a virtual viewpoint that does not actually exist. May be.
  • viewpoint number 1 and viewpoint number 4 are generated using virtual viewpoint image generation means, and viewpoint number 2 and viewpoint image 2 and viewpoint image 3 are generated in a virtual viewpoint that does not actually exist. May be.
  • a virtual viewpoint image there are a method of internally dividing each pixel of a plurality of captured images, a method of generating using a parallax map generated from a plurality of captured images and a single captured image, and the like. There is no particular limitation.
  • FIG. 9A is a diagram schematically showing the data structure of a 3D image file in which each viewpoint image acquired in this way is recorded.
  • two actually captured viewpoint images (1) and (4), thumbnail images (1), thumbnail images (4), and virtual viewpoints, which are display images, are displayed.
  • a thumbnail image (2) and a thumbnail image (3) which are images for image display are recorded.
  • the viewpoint image (1) is recorded as the head image, and then the thumbnail image (2), the thumbnail image (3), the thumbnail image (1), and the thumbnail image (4) are recorded, and then the viewpoint image (4) is recorded. It is recorded.
  • the order of thumbnail images is recorded in the recommended order, but may be recorded in the order of viewpoints, or may be recorded in the order closer to the central viewpoint.
  • the thumbnail image (2) and the thumbnail image (3) may be generated from the thumbnail image (1) and the thumbnail image (4), or may be generated from the viewpoint image (1) and the viewpoint image (4). Good.
  • each image recording area has an SOI marker, an attached information area, an image information area, and an EOI marker. Further, in the attached information area of the viewpoint image (1), in addition to the maximum display size, the assumed viewing distance, and the maximum parallax amount, whether each viewpoint number is the viewpoint (actual viewpoint) where the actual shooting is performed, The viewpoint information indicating whether or not is recorded.
  • viewpoint image for printing may be recorded without having an image for display.
  • two actually captured viewpoint images (1) and (4), a viewpoint image (2) that is a virtual viewpoint image, and a viewpoint image (3) are recorded.
  • the recording order is the recommended order of printing or display.
  • the viewpoint image (2) is recorded as the first image, and then the viewpoint image (3) and the viewpoint image (1) are recorded.
  • a viewpoint image (4) is recorded. As before, they may be recorded in order of viewpoint.
  • the parallax shift is performed as the adjustment of the parallax amount.
  • FIG. 10 is a diagram for explaining the principle of parallax shifting.
  • FIG. 11A shows a left viewpoint image
  • FIG. 11B shows a right viewpoint image.
  • the viewer's left eye is at coordinates (0, D)
  • the viewer's right eye is at coordinates (X B , D).
  • the object displayed at the coordinates (X L , 0) of the left viewpoint image and the coordinates (X R , 0) of the right viewpoint image is the coordinates (X P , Y P ).
  • the amount of parallax can be adjusted by shifting the parallax. Therefore, when the amount of parallax on the distant view side exceeds the human binocular interval, the parallax shift can be performed to fit within the human binocular interval, and appropriate stereoscopic viewing can be achieved.
  • FIG. 12 is a flowchart showing shooting and recording processing for recording a 3D image file according to the present embodiment.
  • a plurality of viewpoint images are acquired (step S21). Here, it is assumed that two viewpoint images are taken.
  • a plurality of feature points are extracted from each of the two viewpoint images (step S22), and the amount of parallax for each feature point is calculated (step S23).
  • the maximum parallax amount on the near view side and the maximum parallax amount on the far view side are acquired from the parallax amount for each feature point thus calculated (step S24).
  • the display width of the assumed display to be displayed is acquired.
  • the display width of the assumed display may be determined and stored in advance, or when the 3D display is connected by an external connection terminal such as an HDMI terminal, the size of the 3D display is determined by communication according to the connection. You may read.
  • step S25 When the stereoscopic image is displayed on the display having the display width, it is determined whether or not the maximum disparity position on the distant view side is stereoscopically visible (step S25). Specifically, the product of the display width and the maximum disparity amount (%) on the far side is calculated, and it is determined whether or not the calculated product is a human binocular interval of 50 mm or more.
  • the two captured viewpoint images are recorded as they are (step S27).
  • it may be recorded as a 3D image file having the data structure shown in FIG. 2, or a display thumbnail image or a virtual viewpoint image may be generated and recorded.
  • the parallax is shifted so that the maximum disparity position on the distant view side can be stereoscopically viewed so that the product is less than 50 mm (step S26).
  • the parallax shift may be performed by shifting the right viewpoint image in the left direction, or by shifting the left viewpoint image in the right direction. Further, both the left and right viewpoint images may be shifted toward each other.
  • FIG. 13 is a diagram schematically showing the data structure of the 3D image file recorded here.
  • this 3D image file in addition to the two photographed original images, a display image and a thumbnail image after shifting the parallax obtained by reducing the size of each original image are recorded.
  • the display image is a full HD size image
  • the thumbnail image is a VGA size image.
  • the thumbnail image is used when, for example, a thumbnail image is displayed on a small liquid crystal display provided on the back of the imaging device for image retrieval.
  • these images include a display image with viewpoint number 1, a display image with viewpoint number 2, a thumbnail image with viewpoint number 1, a thumbnail image with viewpoint number 2, an original image with viewpoint number 1, a viewpoint
  • the original images of No. 2 are recorded in the order, and each recording area has an SOI marker (not shown), an attached information area, an image information area, and an EOI marker (not shown).
  • a display image of viewpoint number 1 which is a reference viewpoint is recorded as the top image, and the maximum amount of parallax is recorded in the attached information area.
  • the image recorded for viewpoint number 2 is recorded, and this image is an image obtained as a result of performing the above-described parallax shift.
  • the ancillary information area of the display image of viewpoint number 2 information that has been subjected to the parallax shifting process and the shift amount (unit: pixel) are recorded.
  • thumbnail image with viewpoint number 2 is recorded.
  • the thumbnail image may be an image after shifting the parallax or may be an image generated from the original image of viewpoint number 2.
  • the original image of viewpoint number 1 and the original image of viewpoint number 2 are recorded.
  • the maximum amount of parallax is also recorded in the attached information area of the original image of viewpoint number 1.
  • the maximum parallax position on the far side can always be stereoscopically viewed when displayed on a display of the assumed size, and the viewer can appropriately stereoscopically view it. Become.
  • VGA size thumbnail images are recorded, it is also effective for display during image search.
  • the assumed display size may be recorded in the attached information area of the top image. By recording the assumed display size, it is easy to determine whether or not stereoscopic viewing is possible properly by comparing the read assumed display size with the display size of the 3D display to be displayed in the stereoscopic image playback device. Can be determined.
  • a 3D image file is read (step S31).
  • the size of the display for displaying the 3D image is acquired (step S32).
  • the maximum display size capable of appropriately 3D displaying each viewpoint image for 3D display is acquired from the attached information of the read 3D image file (step S33).
  • step S34 the width of the display that will display the 3D image is compared with the width of the maximum display size.
  • step S36 If the width of the maximum display size is larger, since each viewpoint image recorded in the 3D image file may be displayed as it is, stereoscopic vision may be displayed, so that the read viewpoint image is displayed as it is (step S36).
  • the adjustment of the amount of parallax is performed by parallax shifting or parallax compression (step S35).
  • the parallax shift adjusts the parallax amount by shifting one or both of the left and right viewpoint images.
  • the parallax compression generates a virtual viewpoint image having a smaller parallax amount than the left and right viewpoint images, and adjusts the parallax amount by displaying the generated virtual viewpoint image. .
  • Which of the parallax amounts is adjusted may be determined in advance or may be configured to be selectable by the user. By adjusting either amount of parallax, at least the disparity on the far side can be reduced.
  • the parallax amount suitable for the width of the display to be used is adjusted by parallax shifting or parallax compression, and the adjusted image is displayed in 3D (step S36).
  • the maximum display size recorded as the attached information is read out, and compared with the display size for actual display, if the maximum display size is larger, the 3D recorded as having no problem in stereoscopic viewing.
  • processing can also be performed by reading the maximum amount of parallax recorded in the attached information of the 3D image file.
  • FIG. 15 is a flowchart when the reproduction display process is performed based on the maximum parallax amount. Parts common to the flowchart shown in FIG. 14 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the maximum parallax amount (distant view) is acquired from the attached information of the read 3D image file (step S41). This maximum parallax amount (distant view) is recorded as a ratio (%) to the image width.
  • step S42 it is determined whether or not the product of the display width acquired in step S32 and the maximum parallax amount (distant view) is 50 mm or more (step S42).
  • the product of the display width and the maximum amount of parallax (distant view) is the actual amount of parallax at the position of the maximum amount of disparity (distant view) on the displayed image.
  • this amount of parallax is 50 mm or more, which is the distance between both eyes of a human, since the portion cannot be viewed stereoscopically, the parallax amount is adjusted by parallax shifting or parallax compression for the read viewpoint image (step S35). 3D display is performed (step S36).
  • the recorded viewpoint images may be displayed as they are, so that the read viewpoint images are displayed as they are (step S36).
  • playback display can be controlled based on the maximum amount of parallax (far view) read from the 3D image file. This is particularly effective when the maximum display size is not recorded in the attached information of the 3D image file, and only the maximum amount of parallax is recorded.
  • the amount of parallax is adjusted by parallax shifting or parallax compression, and then 3D display is performed on the entire display.
  • the image size that is, an image size corresponding to the maximum display size may be displayed in 3D.
  • FIG. 16 shows a flowchart in the case of performing processing for recording in a 3D image file.
  • the image generated by the parallax shift or the parallax compression in step S35 is added or rewritten to the 3D image file as a display thumbnail image in step S43. Note that addition and rewriting to the 3D image file may be performed after the 3D display in step S36.
  • FIG. 17 is a diagram schematically showing a data structure of a 3D image file in which four viewpoint images and four display thumbnail images generated from the viewpoint images are recorded.
  • FIG. 17A is a step of FIG. The 3D image file when read in S31 is shown, and
  • FIG. 17B shows the 3D image file after being rewritten in step S43.
  • the auxiliary information of the viewpoint image (1) which is the head image, the maximum amount of parallax (distant view) between the viewpoint image (1) and the viewpoint image (4) is recorded.
  • step S41 the maximum amount of parallax is read out.
  • step S42 when it is determined that the product of the display width and the maximum amount of parallax (distant view) is 50 mm or more, parallax shifting or parallax compression is performed in step S35.
  • step S43 the thumbnail image (4) after the parallax shift is recorded instead of the thumbnail image (4).
  • the information that has been subjected to the parallax shifting process and the shift amount (unit: pixel) are recorded in the attached information of the thumbnail image (4) after the parallax shifting.
  • step S35 If parallax compression is performed in step S35, the thumbnail image (4) after parallax compression is recorded instead of the thumbnail image (4).
  • the maximum parallax amount (distant view) after parallax compression may be recorded as the auxiliary information.
  • thumbnail image (4) after adjusting the parallax amount is recorded instead of the thumbnail image (4), but the thumbnail image (4) after adjusting the parallax amount may be additionally recorded.
  • a display thumbnail image is generated and recorded as a 3D image file as shown in FIG. 17B. Also good.
  • the parallax adjustment is not limited to the thumbnail image, and the parallax adjustment of the viewpoint image may be performed. For example, if the parallax adjustment of the parallax image (4) is performed, the parallax image (4) and the thumbnail image (4) generated based on the parallax image (4) are overwritten or additionally recorded.
  • step S42 there is a mode in which the product of the display width and the maximum amount of parallax (distant view) calculated in step S42 is recorded in the attached information area of the top image of the 3D image file as the maximum display size.
  • FIG. 18 is a flowchart showing processing for performing 2D display.
  • symbol is attached
  • step S42 If it is determined in step S42 that the product of the display width and the maximum amount of parallax (distant view) is 50 mm or more, which is the human binocular interval, the viewpoint image or the display thumbnail image recorded in the 3D image file. Is displayed in 2D on the display (step S51). Thereafter, parallax compression processing is performed (step S35).
  • the display thumbnail image of the 3D image file is added or rewritten (step S43), and the parallax compressed image is displayed in 3D on the display (step S36). After performing 3D display, it may be recorded in a 3D image file.
  • the 2D display may be performed while the parallax shifting process is being performed. Further, it may be displayed simultaneously with the 2D display that the parallax amount adjustment processing is being performed. By displaying in this way, the viewer can know the reason why 2D display is performed on the 3D display.
  • the parallax amount is adjusted based on the maximum parallax amount (distant view) and 3D display is performed.
  • the parallax shift is performed as the parallax amount adjustment, the parallax amount on the foreground side increases.
  • display may be performed in consideration of the maximum parallax amount (near view).
  • FIG. 19 is a flowchart when the parallax shifting process is performed in consideration of the maximum parallax amount (near view).
  • symbol is attached
  • step S42 it is determined whether or not the product of the width of the display used for display and the maximum amount of parallax (distant view) is equal to or greater than 50 mm, which is the distance between human eyes. If the product is smaller than 50 mm, the 3D image recorded in the 3D image file may be displayed as it is, so that the read 3D image is displayed as it is (step S64).
  • a parallax shift amount (necessary shift amount) that makes the product less than 50 mm is calculated (step S61).
  • the parallax shift is performed by the calculated required shift amount, it is determined whether or not the maximum disparity amount position on the foreground side can be appropriately stereoscopically viewed. Specifically, it is determined whether or not the value obtained by adding the necessary shift amount to the product of the width of the display used for display and the maximum parallax amount (near view) is 50 mm or less (step S62). Here, it is determined that the stereoscopic view is appropriately possible when the near-field parallax amount is 50 mm or less, but the value of 50 mm may be determined as appropriate.
  • the parallax shift is performed (step S63), and the image subjected to the parallax shift is displayed in 3D on the 3D display (step S64). Furthermore, the image subjected to the parallax shift may be added or rewritten to the 3D image file.
  • step S65 2D display is performed on the 3D display (step S65).
  • a viewpoint image or a display thumbnail image recorded in the 3D image file is displayed.
  • a warning may be displayed to the effect that the image is not 3D displayed because the display size is too large.
  • FIG. 20 is a diagram showing an external appearance of the stereoscopic imaging apparatus according to the present invention
  • FIG. 20A is a perspective view of the stereoscopic imaging apparatus as viewed from the front side
  • FIG. 20B is a rear view.
  • This stereoscopic imaging device (compound-eye camera) 10 is a digital camera capable of recording and reproducing 2D / 3D still images and 2D / 3D moving images, and as shown in FIG. 20, the top surface of a thin rectangular parallelepiped camera body. Are provided with a shutter button 11 and a zoom button 12.
  • a lens barrier 13 having a width substantially equal to the width in the left-right direction of the camera body is disposed so as to be movable in the up-down direction of the camera body.
  • the front surfaces of the pair of left and right photographic optical systems 14-1 and 14-2 can be opened and closed simultaneously by moving in the vertical direction between the position indicated by and the position indicated by the solid line. Note that as the photographing optical systems 14-1 and 14-2, a zoom lens of a bending optical system is used.
  • the camera power supply can be turned on / off in conjunction with the opening / closing operation of the lens front surface by the lens barrier 13.
  • a 3D liquid crystal monitor 16 is disposed at the center of the back of the camera body.
  • the liquid crystal monitor 16 can display a plurality of parallax images (right viewpoint image and left viewpoint image) as directional images each having a predetermined directivity by a parallax barrier.
  • the 3D liquid crystal monitor 16 uses a lenticular lens, or can display a right viewpoint image and a left viewpoint image individually by wearing dedicated glasses such as polarized glasses or liquid crystal shutter glasses. Is applicable.
  • the operation switch 18A is a changeover switch for switching between still image shooting and moving image shooting
  • the operation switch 18B is a parallax adjustment switch for adjusting the amount of parallax between the right viewpoint image and the left viewpoint image
  • the operation switch 18C is 2D imaging. This is a changeover switch for switching between 3D imaging.
  • the operation switch 18D is a seesaw key that functions as both a MENU / OK button and a playback button
  • the operation switch 18E is a multifunction cross key
  • the operation switch 18F is a DISP / BACK key.
  • the MENU / OK button is an operation switch having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 16 and a function as an OK button for instructing confirmation and execution of selection contents. It is.
  • the playback button is a button for switching from the shooting mode to the playback mode.
  • the cross key is an operation switch for inputting instructions in four directions, up, down, left, and right.
  • a macro button, a flash button, a self-timer button, or the like is assigned to the menu key. When a menu is selected, the menu screen is displayed. Function as a switch (cursor moving operation means) for selecting an item from the menu or instructing selection of various setting items from each menu.
  • the left / right key of the cross key functions as a frame advance (forward / reverse feed) button in the playback mode.
  • the DISP / BACK key is used for switching the display form of the liquid crystal monitor 16, canceling the instruction content on the menu screen, or returning to the previous operation state.
  • 15 is a stereo microphone.
  • FIG. 21 is a block diagram showing an internal configuration of the stereoscopic imaging apparatus 10.
  • the stereoscopic imaging apparatus 10 mainly includes a plurality of imaging units 20-1, 20-2, a central processing unit (CPU) 32, the shutter button 11, the zoom button 12, and various operation switches described above. Including an operation unit 34, a display control unit 36, a liquid crystal monitor 16, a recording control unit 38, a compression / expansion processing unit 42, a digital signal processing unit 44, an AE (Automatic Exposure) detection unit 46, and an AF (Auto Focus: Automatic focus detection unit 48, AWB (Automatic) A white balance (automatic white balance) detection unit 50, a VRAM 52, a RAM 54, a ROM 56, an EEPROM 58, and the like. Note that the imaging units 20-1 and 20-2 capture two parallax images, a left-eye image and a right-eye image, that have parallax with each other, but there may be three or more imaging units 20.
  • the imaging units 20-1 and 20-2 capture two parallax images, a left-eye image and a right-eye image
  • the imaging unit 20-1 that captures an image for the left eye includes an imaging optical system 14-1 (FIG. 20) including a prism (not shown), a focus lens and a zoom lens 21, an optical unit including a diaphragm 22 and a mechanical shutter 23.
  • the imaging unit 20-2 that captures the image for the right eye has the same configuration as the imaging unit 20-1 that captures the image for the left eye, and thus the description of the specific configuration is omitted.
  • the CPU 32 controls the overall operation of the camera according to a predetermined control program based on the input from the operation unit 34.
  • the CPU 32 also calculates the maximum display size, shifts the parallax, and generates a virtual viewpoint image.
  • the ROM 56 stores a control program executed by the CPU 32 and various data necessary for the control.
  • the EEPROM 58 stores various information indicating adjustment results at the time of adjustment before product shipment, for example, pixel defect information of the CCD 24, A correction parameter used for image processing or the like, a correspondence table between the maximum parallax amount and the maximum display size, and the like are stored.
  • the VRAM 52 is a memory for temporarily storing image data for display displayed on the liquid crystal monitor 16, and the RAM 54 includes a calculation work area for the CPU 32 and a temporary storage area for image data.
  • the focus lens and zoom lens 21 included in the photographing optical system are driven by the lens driving unit 28 and moved back and forth along the optical axis.
  • the CPU 32 controls the driving of the lens driving unit 28 to control the position of the focus lens so as to adjust the focus so that the subject is in focus, and in response to a zoom command from the zoom button 12 in the operation unit 34. Control the zoom position of the zoom lens to change the zoom magnification.
  • the diaphragm 22 is configured by an iris diaphragm, for example, and is driven by the diaphragm driving unit 29 to operate.
  • the CPU 32 controls the aperture amount (aperture value) of the aperture 22 via the aperture drive unit 29 and controls the amount of light incident on the CCD 24.
  • the mechanical shutter 23 determines the exposure time in the CCD 24 by opening and closing the optical path, and prevents unwanted light from entering the CCD 24 when the image signal is read from the CCD 24, thereby preventing smear.
  • the CPU 32 outputs a shutter close signal synchronized with the exposure end time corresponding to the shutter speed to the shutter control unit 30 to control the mechanical shutter 23.
  • the CCD 24 is composed of a two-dimensional color CCD solid-state imaging device. A large number of photodiodes are two-dimensionally arranged on the light receiving surface of the CCD 24, and color filters are arranged in a predetermined arrangement on each photodiode.
  • the optical image of the subject imaged on the CCD light receiving surface via the optical unit having the above configuration is converted into a signal charge corresponding to the amount of incident light by the photodiode.
  • the signal charge accumulated in each photodiode is sequentially read out from the CCD 24 as a voltage signal (image signal) corresponding to the signal charge based on a drive pulse given from the CCD control unit 31 according to a command from the CPU 32.
  • the CCD 24 has an electronic shutter function, and the exposure time (shutter speed) is controlled by controlling the charge accumulation time in the photodiode.
  • the electronic shutter controls the charge accumulation start time corresponding to the shutter speed, and the exposure end time (charge accumulation end time) is controlled by closing the mechanical shutter 23.
  • the CCD 24 is used as the image pickup device, but an image pickup device having another configuration such as a CMOS sensor may be used.
  • the analog signals R, G, and B read from the CCD 24 are subjected to correlated double sampling (CDS) and amplification by the analog signal processing unit 25, and then the R, G, and B analog signals are output by the A / D converter 26. Converted to a digital signal.
  • CDS correlated double sampling
  • the image input controller 27 has a built-in line buffer having a predetermined capacity, and temporarily stores R, G, B image signals (CCDRAW data) A / D converted by the A / D converter 26 and then a bus 60. And stored in the RAM 54.
  • the CPU 32 controls the imaging unit 20-2 that captures the right viewpoint image in the same manner as the imaging unit 20-1 that captures the left viewpoint image in the 3D imaging mode.
  • the AE detection unit 46 calculates subject brightness necessary for AE control based on an image signal captured when the shutter button 11 is half-pressed, and outputs a signal indicating the subject brightness (shooting EV value) to the CPU 32.
  • the CPU 32 sets the shutter speed (exposure time), aperture value, and imaging sensitivity in the plurality of imaging units 20-1 and 20-2 according to a predetermined program diagram based on the input imaging EV value.
  • the AF detection unit 48 integrates the absolute value of the high frequency component of the image signal in the AF area captured when the shutter button 11 is half-pressed, and outputs this integrated value (AF evaluation value) to the CPU 32.
  • the CPU 32 moves the focus lens from the closest position to the infinity side, searches for a focus position where the AF evaluation value detected by the AF detection unit 48 is maximum, and moves the focus lens to the focus position. Adjust the focus on the subject (main subject).
  • so-called hill climbing control is performed in which the focus lens is moved so that the AF evaluation value always takes the maximum value.
  • the AWB detection unit 50 automatically obtains the light source type (the color temperature of the object scene) based on the R, G, and B image signals acquired at the time of the main imaging, and R, G, The corresponding white balance gain is read out from the table storing the B white balance gain (white balance correction value).
  • the digital signal processing unit 44 interpolates a spatial shift of color signals such as R, G, and B accompanying a white balance correction circuit, a gradation conversion processing circuit (for example, a gamma correction circuit), and a color filter array of a single-plate CCD.
  • the image processing is performed on the R, G, and B image signals (CCDRAW data) stored in the RAM 54, including a synchronization circuit for aligning the position of each color signal, a contour correction circuit, a luminance / color difference signal generation circuit, and the like. .
  • the R, G, and B CCDRAW data are multiplied by the white balance gain detected by the AWB detection unit 50 in the digital signal processing unit 44 and subjected to white balance correction, and thereafter, a gradation conversion process (for example, After predetermined processing such as gamma correction is performed, the signal is converted into a YC signal including a luminance signal (Y signal) and a color difference signal (Cr, Cb signal).
  • Y signal a luminance signal
  • Cr, Cb signal color difference signal
  • the YC signal processed by the digital signal processing unit 44 is stored in the RAM 54.
  • the digital signal processing unit 44 cuts out an image of a predetermined cutout area from each of the distortion correction circuit and the left and right viewpoint images for correcting the lens distortion correction of the imaging optical systems of the plurality of imaging units 20-1 and 20-2.
  • the image pickup processing circuit includes an image cutout processing circuit that corrects an optical axis shift of the imaging optical system of the plurality of imaging units 20-1 and 20-2.
  • the compression / decompression processing unit 42 compresses the YC signal stored in the RAM 54 in accordance with a command from the CPU 32 during recording on the memory card 40, and decompresses the compressed compressed data recorded on the memory card 40. To YC signal.
  • the recording control unit 38 converts the compressed data compressed by the compression / decompression processing unit 42 into an image file in a predetermined format (for example, 3D still image is MP file, 3D moving image is motion JPEG, H.264, MPEG4, MPEG4- MVC moving image file) is recorded on the memory card 40, or an image file is read from the memory card 40.
  • a predetermined format for example, 3D still image is MP file, 3D moving image is motion JPEG, H.264, MPEG4, MPEG4- MVC moving image file
  • the recording control unit 38 in addition to the Exif attached information, the maximum display size, the assumed viewing distance, the maximum parallax amount (near view) (%), and the maximum parallax amount (far view) ) (%), Etc. are recorded in the memory card 40 as attached information.
  • the liquid crystal monitor 16 is used as an image display unit for displaying captured images, and is used as a GUI (graphical user interface) at various settings.
  • the liquid crystal monitor 16 is used as an electronic viewfinder that displays a live view image (hereinafter referred to as “through image”) for confirming the angle of view in the shooting mode.
  • the display control unit 36 alternately displays the left viewpoint image and the right viewpoint image held in the VRAM 52 pixel by pixel.
  • the left and right images alternately arranged pixel by pixel are visually recognized separately by the left and right eyes of the user observing from a predetermined distance. This enables stereoscopic viewing.
  • the above-described embodiment can be realized by the stereoscopic imaging device 10 configured as described above.
  • the stereoscopic imaging device 10 described here includes two imaging units for capturing images of two left and right viewpoints, but includes three or more imaging units and captures three or more viewpoint images. You may comprise as follows. For example, as shown in FIG. 5, four viewpoint images may be taken by providing four imaging units such as the four imaging devices 101-1 to 101-4.
  • Steposcopic image playback device Note that the fifth to eighth embodiments can also be realized in a stereoscopic image reproduction device that does not include an imaging unit.
  • FIG. 22 is a diagram showing an overall configuration of the stereoscopic image reproduction device 300 and the 3D display 320 according to the present invention. As shown in the figure, the stereoscopic image reproduction device 300 and the 3D display 320 are devices configured separately and are communicably connected by a communication cable 310.
  • the 3D display 320 is a parallax barrier type or lenticular type display, and alternately displays the left viewpoint image and the right viewpoint image input from the stereoscopic image reproduction device 300 to the 3D display 320 for each line.
  • the 3D display 320 may be a display that switches the left viewpoint image and the right viewpoint image alternately in time. In this case, the viewer visually recognizes the 3D display 320 using special glasses.
  • FIG. 23 is a block diagram showing an internal configuration of the stereoscopic image reproduction device 300.
  • the stereoscopic image reproduction apparatus 300 includes a CPU 301, a recording control unit 305, a memory card 306, a display control unit 307, a communication interface 308, and the like.
  • the CPU 301 controls the overall operation of the stereoscopic image reproduction apparatus 300 based on a control program recorded in the ROM 302.
  • the RAM 303 is used as a calculation work area for the CPU 301.
  • the recording control unit 305 and the display control unit 307 are connected to the CPU 301 via the bus 304.
  • the recording control unit 305 controls data reading / writing of the 3D image file with respect to the memory card 306.
  • the memory card 306 is the same as the memory card 40 of the stereoscopic imaging device 10 shown in FIG. 21, for example, and stores a 3D image file including each viewpoint image captured by the stereoscopic imaging device 10 and attached information.
  • the communication interface 308 is a connector unit to which the communication cable 310 is connected, and the display control unit 307 displays a stereoscopic image on the 3D display 320 via these.
  • the communication interface 308 and the communication cable 310 it is conceivable to adopt an HDMI standard.
  • the stereoscopic image reproduction device 300 can acquire the display size of the 3D display 320 connected via the communication cable 310.
  • the stereoscopic image reproduction device 300 may be provided with a compound eye imaging unit for capturing each viewpoint image, and the captured viewpoint image may be recorded in the memory card 306. Further, the stereoscopic image reproduction device 300 and the 3D display 320 may be configured as an integrated device.
  • 10 stereoscopic imaging device, 16 ... liquid crystal monitor, 20-1,20-2 ... imaging unit, 40 ... memory card, 44 ... digital signal processing unit, 100 ... subject, 101-1 to 101-4 ... imaging device, 211N 212N ... Maximum parallax amount position (near view), 211F, 212F ... Maximum parallax amount position (far view), 213N ... Maximum disparity amount on the near view side, 213F ... Maximum parallax amount on the distant view side, 300 ... Stereoscopic image playback device, 320 ... 3D display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3次元画像ファイルに記録された付属情報に基づいて適切な視差量で立体画像を表示する。3D画像ファイルを読み出すとともに(ステップS31)、3D表示を行うディスプレイのサイズを取得する(ステップS32)。また、読み出した3D画像ファイルのメタデータから、視点画像を適切に3D表示可能な最大ディスプレイサイズを取得する(ステップS33)。ステップS32で取得したサイズとステップS33で取得した最大ディスプレイサイズとを比較し(ステップS34)、最大ディスプレイサイズの方が小さい場合には、視差ずらし又は視差圧縮を行ってから(ステップS35)、3D表示を行う(ステップS36)。このように最大ディスプレイサイズに基づいて適切に表示を行うことができる。

Description

立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
 本発明は立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置に係り、特に、3次元画像ファイルに記録された立体画像を適切に再生表示する技術に関する。
 立体撮像装置は、左右に視差をもって並べられた2つの撮像部(撮像手段)を使って同一被写体を左右の視点から撮影し、左目用の画像と右目用の画像とをそれぞれ取得して記録媒体に記録している。この取得した左右の画像が記録媒体から読み出され、3次元(3D)表示が可能な3Dディスプレイに入力され、左目用の画像と右目用の画像とが左右の目で別々に視認できるように表示されることにより、立体画像として認識できるようになる。
 ところが、3Dディスプレイには様々な画面のサイズのものがあり、記録された左右の画像の視差量が、当該左右画像を再生表示しようとする3Dディスプレイのサイズに対して適切でない場合も存在する。このような場合、画面からの飛び出し量や引っ込み量が過大となり、自然な立体画像として認識できないという問題点が発生する。
 このような課題に対して、再生装置において、左目用の画像と右目用の画像とから任意の視点で見えるべき中間視点画像を生成することが行われている。このように、視点の異なる複数の画像から中間視点画像を生成するためには、画像間で画素の対応を求めて奥行きを推定する必要がある。
 しかし、表示時に目の疲れにくい表示(例えば視差制御)を行おうとする際に、どの奥行き範囲に対して行えばよいのかわからないという課題を有していた。このような表示を行うには、撮影時の視野角や撮像面のサイズ、レンズ中心と撮像面との距離等の条件をもとに、観察距離を適切に決定する必要がある。
 この問題を解決するために、特許文献1には、2視点以上の画像の伝送において、画像を撮像するカメラの撮像サイズ及びレンズ中心と撮像面との距離の情報を伝送する技術が開示されている。この技術によれば、表示側において撮像時の視野角の情報を得ることができる。
特開2003-333621号公報
 しかしながら、特許文献1の技術では、表示装置側の処理が煩雑であるという欠点があった。また、データ伝送に関する技術であるため、立体画像が記録媒体に記録される場合に、これらの情報がどのように記録されるのかは開示されていない。
 本発明はこのような事情に鑑みてなされたもので、3次元画像ファイルに記録された付属情報に基づいて適切な視差量で立体画像を表示する立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置を提供することを目的とする。
 前記目的を達成するために第一発明の立体画像再生装置は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別手段と、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段とを備えたことを特徴とする。なお、ここでいう「遠景側」とは、撮像手段から被写体側に離間する遠位側を言うものであり、反対に「近景側」とは、遠景側とは反対に、被写体から撮像手段側に近づく近位側を言うものである。
 上記の第一発明によれば、立体ディスプレイのディスプレイサイズと3次元画像ファイルから取得した最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズの方が大きいと判別されると、少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力するようにしたので、適切な視差量で立体画像を表示することができる。
 また、前記目的を達成するために第二発明の立体画像再生装置は、立体視用の複数の視点画像と、該複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別手段と、前記判別手段により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、前記判別手段により両眼融合不能と判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段とを備えたことを特徴とする。
 上記第二発明によれば、3次元画像ファイルから取得した少なくとも遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、3次元画像ファイルから取得した複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別し、両眼融合不能と判別した場合には少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力するようにしたので、適切な視差量で立体画像を表示することができる。
 また、第二発明の立体画像再生装置において、前記判別手段は、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズとに基づいて、前記複数の視点画像を前記立体ディスプレイに表示させた場合の、前記最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することが好ましい。
 これにより、適切に両眼融合可能か否かを判別することができる。
 更に、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段は、前記立体ディスプレイ上での前記複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする前記複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することが好ましい。
 これにより、適切に視点画像を生成することができる。
 更にまた、第一発明及び第二発明の立体画像再生装置において、前記3次元画像ファイルの付属情報は、前記複数の視点画像における近景側の最大視差量を含み、前記立体ディスプレイ上での前記複数の視点画像の近景側の最大視差量と前記視点シフト画像の前記立体ディスプレイ上でのずらし量とを加算する加算手段と、前記加算された近景側の最大視差量に対応する画像ずれ量が前記立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段とを備え、前記出力手段は、前記判別手段により画像ずれ量が両眼融合限界を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させることが好ましい。
 これにより、適切な画像を表示させることができる。
 加えて、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段は、前記第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と前記視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段とを有することが好ましい。
 これにより、適切な視点画像を生成することができる。
 このとき、第一発明及び第二発明の立体画像再生装置において、前記出力手段は、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別され、又は前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させ、その後、前記画像処理手段により前記仮想視点画像が生成されると、前記2次元画像に代えて前記仮想視点画像を出力することが好ましい。
 これにより、仮想視点画像の生成に時間がかかる場合であっても、立体ディスプレイに画像を表示することができる。
 また、第一発明及び第二発明の立体画像再生装置において、前記複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、前記画像処理手段は、前記第1の取得手段により取得した複数の視点画像の代わりに前記生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、前記出力手段は、前記表示用画像生成手段により生成された表示用画像、又は前記画像処理手段により生成された表示用画像を前記立体ディスプレイに出力することが好ましい。
 これにより、適切なサイズの画像を立体ディスプレイに出力することができる。
 更に、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段により生成された視点画像及び前記表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、前記3次元画像ファイルに追記し又は上書きする記録手段を備えたことが好ましい。
 これにより、次回表示する際には画像処理を行うことなく適切な視差量の画像を表示することができる。
 また、前記目的を達成するために第三発明の立体撮像装置は、複数の視点から同一被写体を撮影した複数の視点画像を取得する撮像手段と、前記取得した複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記算出した各特徴点の視差量のうちの遠景側の最大視差量を取得する最大視差量取得手段と、前記取得した遠景側の最大視差量に基づいて、前記複数の視点画像による立体画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを取得する最大ディスプレイサイズ取得手段と、前記複数の視点画像が記録される3次元画像ファイルを生成し、該3次元画像ファイルを記録媒体に記録する記録手段であって、前記複数の視点画像を前記3次元画像ファイルに記録し、かつ、前記遠景側の最大視差量及び最大ディスプレイサイズを付属情報として前記3次元画像ファイルに記録する記録手段と、請求項1から9のいずれかに記載の立体画像再生装置とを備えたことを特徴とする。
 これにより、適切な視差量で立体画像を表示することができる。
 更に、前記目的を達成するために第四発明の立体ディスプレイ装置は、前記出力先の立体ディスプレイと、請求項1から9のいずれかに記載の立体画像再生装置とを備えたことを特徴とする。
 これにより、適切な視差量で立体画像を表示することができる。
 前記目的を達成するために第五発明の立体画像再生方法は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別工程と、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得工程により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、前記判別工程により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程とを備えたことを特徴とする。
 前記目的を達成するために第六発明の立体画像再生方法は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別工程と、前記判別工程により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、前記判別工程により両眼融合不能と判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程とを備えたことを特徴とする。
 本発明によれば、3次元画像ファイルに記録された付属情報に基づいて適切な視差量で立体画像を表示することができる。
2枚の視点画像を撮影する様子を示した図 3D画像ファイルのデータ構造を模式的に示した図 撮影、記録処理を示したフローチャート 2枚の視点画像の一例を示す図 4枚の視点画像を撮影する様子を示した図 3D画像ファイルのデータ構造を模式的に示した図 3D画像ファイルのデータ構造のその他の態様を模式的に示した図 仮想視点について説明するための図 3D画像ファイルのデータ構造を模式的に示した図 視差ずらしの原理を説明するための図 左右の視点画像と視差ずらしを示す図 撮影、記録処理を示すフローチャート 3D画像ファイルのデータ構造を模式的に示した図 再生表示処理を示すフローチャート 最大視差量に基づく再生表示処理を示すフローチャート 3D画像ファイルに記録する処理を示すフローチャート 3D画像ファイルのデータ構造を模式的に示した図 2D表示を行う処理を示すフローチャート 最大視差量(近景)を考慮する処理を示すフローチャート 立体撮像装置の外観を示す図 立体撮像装置の内部構成を示すブロック図 立体画像再生装置と3Dディスプレイの全体構成を示す図 立体画像再生装置の内部構成を示すブロック図
 この発明の立体画像再生装置は、第1の取得手段、第2の取得手段、判別手段、画像処理手段及び出力手段を備えている。まず、第1の取得手段により立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから複数の視点画像及び付属情報を取得する(第1の取得工程)。また、第2の取得手段により出力先の立体ディスプレイのディスプレイサイズを取得する(第2の取得工程)。その後、判別手段により、取得された立体ディスプレイのディスプレイサイズと最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいか否かを判別する(判別工程)。そして、画像処理手段は、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいと判別された第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する(画像処理工程)。最後に、出力手段が、画像処理手段により生成された視点画像を立体ディスプレイに出力し、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズ以下と判別されると、第1の取得手段により取得された視点画像を立体ディスプレイに出力する(出力工程)。上記構成を採用することにより、立体ディスプレイのディスプレイサイズと3次元画像ファイルから取得した最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズの方が大きいと判別された場合に、少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力することができる。その結果、適切な視差量で立体画像を表示することが可能となる。
 或いは、第1の取得手段により複数の視点画像及び付属情報を取得し、第2の取得手段により出力先の立体ディスプレイのディスプレイサイズを取得した後に、判別手段により取得した遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する。そして、画像処理手段を用い、判別手段により両眼融合不能と判別されると、第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する。その後、出力手段を用い、判別手段により両眼融合不能と判別されると、画像処理手段により生成された視点画像を立体ディスプレイに出力し、両眼融合可能と判別されると、第1の取得手段により取得された視点画像を立体ディスプレイに出力する。これらのことにより、3次元画像ファイルから取得した少なくとも遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、3次元画像ファイルから取得した複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別し、両眼融合不能と判別した場合には少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力することが可能となる。その結果、適切な視差量で立体画像を表示することできる。このとき、判別手段は、取得した遠景側の最大視差量と立体ディスプレイのディスプレイサイズとに基づいて、複数の視点画像を立体ディスプレイに表示させた場合の、最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することが好ましい。なぜなら、適切に両眼融合可能か否かを判別することが可能となるからである。
 更に、上述した種々の立体画像再生装置において、画像処理手段は、立体ディスプレイ上での複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することが好ましい。なぜなら、適切に視点画像を生成することが可能となるからである。更にまた、3次元画像ファイルの付属情報は、複数の視点画像における近景側の最大視差量を含み、立体ディスプレイ上での複数の視点画像の近景側の最大視差量と視点シフト画像の立体ディスプレイ上でのずらし量とを加算する加算手段と、加算された近景側の最大視差量に対応する画像ずれ量が立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段とを備え、出力手段は、判別手段により画像ずれ量が両眼融合限界を越えると判別されると、第1の取得手段により取得された複数の視点画像のうちのいずれか1つを立体ディスプレイに出力して2次元画像を表示させることが好ましい。なぜなら、適切な画像を表示させることが可能となるからである。加えて、画像処理手段は、第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段とを有することが好ましい。なぜなら、適切な視点画像を生成することが可能となるからである。このとき、出力手段は、判別手段により立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいと判別され、又は算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、第1の取得手段により取得された複数の視点画像のうちのいずれか1つを立体ディスプレイに出力して2次元画像を表示させ、その後、画像処理手段により仮想視点画像が生成されると、2次元画像に代えて仮想視点画像を出力することが好ましい。なぜなら、仮想視点画像の生成に時間がかかる場合であっても、立体ディスプレイに画像を表示することが可能となるからである。また、複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、画像処理手段は、第1の取得手段により取得した複数の視点画像の代わりに生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、出力手段は、表示用画像生成手段により生成された表示用画像、又は画像処理手段により生成された表示用画像を立体ディスプレイに出力することが好ましい。なぜなら、適切なサイズの画像を立体ディスプレイに出力することが可能となるからである。更に、画像処理手段により生成された視点画像及び表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、3次元画像ファイルに追記し又は上書きする記録手段を備えたことが好ましい。なぜなら、次回表示する際には画像処理を行うことなく適切な視差量の画像を表示することが可能となるからである。
 以下、添付図面に従って本発明の実施の形態の一部について詳説する。
 [第1の実施形態]
 第1の実施形態に係る3D画像ファイルについて説明する。
 図1は、2つの撮像装置101-2、101-3の夫々の撮像手段によって、被写体100について異なる視点から2枚の視点画像を撮影する(撮像工程)様子を示した図であり、図2は、図1に示す撮像装置101-2、101-3の夫々の撮像手段によって撮影された2枚の視点画像201-2、201-3が記録された3D画像ファイルのデータ構造を模式的に示した図である。
 図2に示す3D画像ファイルは、MPフォーマットに準拠したMPファイルであり、同一被写体の複数の視点画像が連結されて1つのファイルにまとめられている。連結される各視点画像には、そのデータの先端にSOI(Start of Image)マーカが記録されるとともに、終端にEOI(End of Image)マーカが記録される。これにより、各画像の読込開始位置と終了位置を認識することができる。
 さらに各視点画像データは、画像領域と付属情報領域とから構成される。付属情報領域には、撮影機器情報や撮影モードの情報等からなるExif付属情報の他、本実施形態では、画像記録時に取得した最大ディスプレイサイズ(幅、高さ、単位:mm)、画像記録時に想定した視距離(立体画像を観察する際の視認者とディスプレイとの距離)(単位:mm)、最大視差量(近景)(%)、最大視差量(遠景)(%)、各視点画像を撮影した装置の輻輳角、基線長、撮像部配置(視点番号)、各視点画像を取得した際の撮影回数、が含まれた付属情報が記録されている。
 このような3D画像ファイルを記録するための撮影、記録処理について、図3のフローチャートを用いて説明する。
 まず、複数の視点画像を取得する(ステップS11)。ここでは、図1に示すように2つの撮像装置101-2、101-3によって被写体100について1枚ずつ撮影を行い、2枚の視点画像201-2、201-3を取得する。なお、ここでは撮像装置101-2を視点番号2、撮像装置101-3を視点番号3とする。
 次に、視差量算出手段を用いて2枚の視点画像201-2、201-3から複数の特徴点を抽出し(ステップS12)、特徴点毎の視差量を算出する(ステップS13)。ここで、視差量とは、視点画像間で対応する特徴点の、それぞれの視点画像の左端からの距離の差を指し、単位はピクセルである。このように算出した特徴点毎の視差量から、最大視差量取得手段を用いて近景側の最大視差量と遠景側の最大視差量を取得する(ステップS14)。
 図4は2枚の視点画像の一例を示す図であり、図4Aは左視点画像201-2を示し、図4Bは右視点画像201-3を示している。
 図4の例では、近景側の最大視差量は213Nであり、この視差量を持つ特徴点(最大視差量位置(近景))は、それぞれ211N、212Nである。また、遠景側の最大視差量は213Fであり、この視差量を持つ特徴点(最大視差量位置(遠景))は、それぞれ211F、212Fである。即ち、この2枚の視点画像201-2、201-3に基づく立体画像を立体視した場合には、最大視差量位置(近景)が最も近くに見え、最大視差量位置(遠景)が最も離れて見えることになる。
 これら近景側の最大視差量213N及び遠景側の最大視差量213Fの、画像幅に対する比率(%)が、最大視差量(近景)(%)、最大視差量(遠景)(%)となる。
 このように算出した最大視差量に基づいて、最大ディスプレイサイズ取得手段を用いて最大ディスプレイサイズを取得する(ステップS15)。遠景側の視差量が人間の両眼間隔を超えると、画像のその位置は両眼融合不能となり、立体視ができなくなる。したがって、ステップS14で算出した最大視差量(遠景)の画像幅に対する比率(%)から、視差が人間の両眼間隔を超えない最大ディスプレイサイズを取得する。
 例えば、人間の両眼間隔を50mmと仮定し、最大視差量(遠景)の画像幅に対する比率が10%であれば、立体視するのに許容される最大のディスプレイ幅は500mmとなる。即ち、幅500mm以下のディスプレイであれば、最大視差位置(遠景)の視差量が両眼間隔50mmを超えることなく表示され、その結果、視認者は立体視画可能となる。ここで、縦横比が16:9のディスプレイを想定する場合には、最大のディスプレイ高さは281.25mmとなる。
 なお、人間の両眼間隔は、対象とする視認者に応じて適宜決めればよい。例えば、成人だけを対象とする場合には、65mm等の幅広の値に設定してもよい。
 例えば、人間の両眼間隔を65mmと仮定し、最大視差量(遠景)の画像幅に対する比率が15%であれば、立体視するのに許容される最大のディスプレイ幅は約433mmとなる。また、縦横比が16:9のディスプレイを想定する場合には、最大のディスプレイ高さは約244mmとなる。
 また、人間の両眼間隔から算出するのではなく、予め最大視差量に対応する最大ディスプレイサイズが記録されているテーブルを用意しておき、このテーブルを参照することにより最大ディスプレイサイズを取得してもよい。
 最後に、記録手段を用いて2枚の視点画像201-2、201-3と、付属情報とを、図2に示すように1つの3D画像ファイルとして記録する(ステップS16)。
 即ち、視点画像201-2についてのSOIマーカに続けて、ステップS15において取得した最大ディスプレイサイズ、想定した視距離、ステップS14において取得した最大視差量(近景)(%)、最大視差量(遠景)(%)、ステップS11における撮像装置101-2、101-3の輻輳角、基線長、視点番号、及び撮影回数を付属情報に含んで記録し、その後視点画像201-2の画像情報、EOIマーカを記録する。
 さらに、視点画像201-3のSOIマーカ、付属情報、画像情報、EOIマーカを記録する。視点画像201-3の付属情報領域には、Exif付属情報のみを記録すればよい。
 以上のように、図2に示す3D画像ファイルを記録することができる。
 このように記録された3D画像ファイルは、3Dディスプレイに表示される際に立体画像再生装置によって読み出される。この際、立体画像再生装置において、3D画像ファイルの付属情報に記録されている最大ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、立体視可能か否かを容易に判別することができる。したがって、立体視可能と判断した場合には、記録されている画像をそのまま表示すればよく、立体画像再生装置における画面サイズに応じて視差量を調整する処理を軽減させることができる。
 また、立体画像再生装置において視差量を調整する必要がある場合には、付属情報に記録されている想定視距離や撮影回数の情報を用いることにより、適切に視差量を調整することができる。
 なお、本実施形態では、遠景側の最大視差量だけに基づいて最大ディスプレイサイズを決定したが、近景側の最大視差量を考慮して決定してもよい。近景側の最大視差量を考慮することにより、遠景側だけでなく、近景側も適切に立体視可能な最大ディスプレイサイズを決定することができるようになる。
 例えば、近景の視差量が50mm以下となるディスプレイサイズを最大ディスプレイサイズとしてもよい。近景側の視差量が大きくなると、視認者は立体視をするのに疲労を感じるため、所定量以下とすることが好ましいからである。
 [第2の実施形態]
 第1の実施形態では、2視点から撮影した2枚の視点画像を例に説明したが、本発明に係る立体画像の視点の数は2点に限られず、多視点の視点画像であってもよい。
 図5は、4つの撮像装置101-1~101-4によって、被写体100について異なる視点から4枚の視点画像を撮影する様子を示した図である。ここでは、撮像装置101-1~101-4の視点番号を順に1~4とする。
 図6は、この4つの撮像装置101-1~101-4によって撮影された4枚の視点画像が記録された3D画像ファイルのデータ構造を模式的に示した図である。この3D画像ファイルには、4枚の視点画像の他に、表示用画像生成手段により生成された各視点画像のサイズを縮小した表示用画像が記録されている。表示用画像としては、解像度が1920×1080のフルHDサイズの画像が適している。
 これらの画像は、図6に示すように、視点番号1の視点画像(以下、視点画像(1)と呼ぶ)、視点番号1の表示用画像(以下、サムネイル画像(1)と呼ぶ)、視点番号2の視点画像(以下、視点画像(2)と呼ぶ)、視点番号2の表示用画像(以下、サムネイル画像(2)と呼ぶ)、視点番号3の視点画像(以下、視点画像(3)と呼ぶ)、視点番号3の表示用画像(以下、サムネイル画像(3)と呼ぶ)、視点番号4の視点画像(以下、視点画像(4)と呼ぶ)、視点番号4の表示用画像(以下、サムネイル画像(4)と呼ぶ)、の順に記録されている。
 まず先頭画像として、基準視点である視点番号1で撮影された視点画像(1)が記録されており、その記録領域は、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。
 付属情報領域には、第1の実施形態と同様に、撮影機器情報や撮影モードの情報等のExif付属情報の他、最大ディスプレイサイズ、想定視距離、最大視差量(近景)、最大視差量(遠景)、各視点画像を撮影した装置の輻輳角、基線長、撮像部配置(視点番号)、各視点画像を取得した際の撮影回数、等の付属情報が含まれて記録されている。
 なお、この最大ディスプレイサイズ、最大視差量等は、当該3D画像ファイル全体を使用した場合の値が記録される。具体的には、基準視点で撮影された視点画像(1)を基準として、最も視差量が大きい視点画像(ここでは視点画像(4))から算出された最大視差量、及びこの最大視差量から取得された最大ディスプレイサイズが記録される。輻輳角、基線長等についても、同様の視点画像(ここでは視点画像(4))を撮影した装置との輻輳角、基線長が記録される。
 さらに、画像情報領域には視点画像(1)の画像情報が記録され、続いてEOIマーカが記録される。
 視点画像(1)に続いて、視点画像(1)から生成されたサムネイル画像(1)が記録されており、その記録領域は、これまでと同様に、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。付属情報領域には、通常のExif付属情報が記録される。
 サムネイル画像(1)に続いて、視点画像(2)が記録されている。視点画像(2)の記録領域についても、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。
 付属情報領域には、通常のExif付属情報の他、当該視点画像(2)と基準視点で撮影された視点画像(1)とから算出された最大ディスプレイサイズ、想定視距離、最大視差量(近景)、最大視差量(遠景)、2枚の視点画像を撮影した装置の輻輳角、基線長、視点番号、2枚の視点画像を取得した際の撮影回数、等の付属情報が含まれて記録されている。
 視点画像(2)に続いて、視点画像(2)から生成されたサムネイル画像(2)が記録されており、その後には視点画像(3)が記録されている。
 視点画像(3)の記録領域についても、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有しており、付属情報領域には、通常のExif付属情報の他、当該視点画像(3)と基準視点で撮影された視点画像(1)とから算出された最大ディスプレイサイズ等が同様に記録されている。
 以下、視点画像(4)についても同様に記録されている。
 このように、多視点の視点画像を記録する場合には、それぞれの視点画像の付属情報として、先頭画像との関係における最大ディスプレイサイズを記録することが好ましい。
 このように記録された3D画像ファイルは、3Dディスプレイに表示される際に立体画像再生装置によって読み出される。この際、立体画像再生装置において、3D画像ファイルの付属情報に記録されている視点画像毎の最大ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、適切に立体視可能か否かを容易に判別することができる。
 なお、多視点画像の記録順は、図6に示した順序に限定されるものではない。
 例えば、図7Aに示すように、視点画像(1)、サムネイル画像(1)~サムネイル画像(4)、視点画像(2)~視点画像(4)の順に記録してもよい。表示用のサムネイル画像を先に記録しておくことで、表示を行うときのファイル読み出し時の画像読み込みが早くなり、3Dディスプレイに画像を表示するまでの所要時間の縮小が可能になる。また、各視点画像は主にプリントに使用されるものであり、プリントは所定の時間を要することから、ファイルの後半部に記録されていても、弊害が少ない。
 さらに、各サムネイル画像の記録順は、3Dディスプレイに表示させる際の推奨画像を先に記録するようにしてもよい。例えば、サムネイル画像(2)とサムネイル画像(3)による立体表示が推奨されるのであれば、図7Bに示すように、先頭画像の視点画像(1)の次に、サムネイル画像(2)、サムネイル画像(3)を記録し、その後にサムネイル画像(1)、サムネイル画像(4)を記録してもよい。
 2枚の画像の視差量が小さい方が、大きなディスプレイであっても立体視可能に表示が可能である。また、中央に近い視点の画像を用いた方が、立体視に適している。したがって、このような場合には、視点番号2と視点番号3における画像が推奨されるとして、サムネイル画像(2)とサムネイル画像(3)を先に記録しておくことが好ましい。
 同様に、サムネイル画像(1)とサムネイル画像(3)による立体表示が推奨されるのであれば、図7Cに示すように、先頭画像の視点画像(1)の次に、サムネイル画像(1)、サムネイル画像(3)を記録し、その後にサムネイル画像(2)、サムネイル画像(4)を記録してもよい。
 立体表示における推奨画像が存在する場合には、先頭画像である視点画像(1)の付属情報に、推奨画像における最大ディスプレイサイズ、想定視距離、最大視差量を記録してもよい。
 [第3の実施形態]
 第2の実施形態のような多視点画像は、全てが実際に撮影された画像である必要はなく、仮想視点に対応した仮想視点画像を含んでいてもよい。
 例えば、図8に示すように、2つの撮像装置101-1、101-4によって、被写体100について異なる視点(視点番号1、視点番号4)から2枚の視点画像を撮影する。さらに、仮想視点画像生成手段を用いて視点番号1と視点番号4とは異なる視点であって、実際には存在しない仮想視点における視点番号2、視点番号3の視点画像2、視点画像3を生成してもよい。仮想視点画像を生成するには、複数の撮影画像の各画素を内分する方法や、複数の撮影画像から生成された視差マップと、1枚の撮影画像を用いて生成する方法等があるが、特に限定されるものではない。
 図9Aは、このように取得した各視点画像が記録された3D画像ファイルのデータ構造を模式的に示した図である。同図の例では、実際に撮影された2枚の視点画像(1)、視点画像(4)と、これらの表示用画像であるサムネイル画像(1)、サムネイル画像(4)、及び、仮想視点画像の表示用画像であるサムネイル画像(2)、サムネイル画像(3)が記録されている。
 まず先頭画像として視点画像(1)が記録され、その後にサムネイル画像(2)、サムネイル画像(3)、サムネイル画像(1)、サムネイル画像(4)が記録され、続いて視点画像(4)が記録されている。ここでは、サムネイル画像の順序は、推奨順で記録されているが、視点の並び順に記録してもよいし、中央の視点に近い順に記録してもよい。また、サムネイル画像(2)、サムネイル画像(3)は、サムネイル画像(1)及びサムネイル画像(4)から生成してもよいし、視点画像(1)及び視点画像(4)から生成してもよい。
 これまでと同様に、各画像の記録領域は、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。また、視点画像(1)の付属情報領域には、最大ディスプレイサイズ、想定視距離、最大視差量の他、各視点番号が実際に撮影が行われた視点(実視点)であるか、仮想視点であるかを示す視点情報が記録されている。
 また、表示用の画像を有さず、プリント用の視点画像だけが記録されていてもよい。図9Bに示す例では、実際に撮影された2枚の視点画像(1)、視点画像(4)と、仮想視点画像である視点画像(2)、視点画像(3)が記録されている。
 また、記録順としてはプリント又は表示の推奨順となっており、具体的には先頭画像として視点画像(2)が記録されており、その後に続いて視点画像(3)、視点画像(1)、視点画像(4)が記録されている。これまでと同様に、視点順に記録されていてもよい。
 このように、仮想視点画像を生成して記録することで、実視点画像として2枚の画像があれば足りることになり、撮像装置の撮像光学系の簡略化、軽量化を計ることが可能となる。
 [第4の実施形態]
 想定したサイズのディスプレイに表示すると、遠景側の視差量が人間の両眼間隔を超えると判断した場合に、当該サイズのディスプレイに表示しても立体視が可能になるように画像の視差量を調整してから記録するようにしてもよい。
 本実施形態では、視差量の調整として視差ずらしを行う。
 図10は、視差ずらしの原理を説明するための図である。また、図11Aは左視点画像、図11Bは右視点画像を示す図である。ここで、座標(0、D)に視認者の左目、座標(X、D)に視認者の右目があるとする。Z=0上に表示された左右の視点画像において、左視点画像の座標(X、0)、かつ右視点画像の座標(X、0)に表示された被写体は、座標(X、Y)にあるように視認される。
 この状態で、図11Bに示すように、右視点画像を左方向にX-X´だけシフトしたとすると、図10に示すように被写体の右視点画像の座標が(X´、0)となる結果、被写体は座標(X´、Y´)にあるように視認される。
 このように、視差ずらしを行うことで、視差量の調整を行うことが可能である。したがって、遠景側の視差量が人間の両眼間隔を超える場合に、視差ずらしを行うことで人間の両眼間隔内に収めることができ、適切に立体視することが可能となる。
 図12は、本実施形態に係る3D画像ファイルを記録するための撮影、記録処理を示すフローチャートである。
 まず、複数の視点画像を取得する(ステップS21)。ここでは、2枚の視点画像を撮影するものとする。次に、各2枚の視点画像から複数の特徴点を抽出し(ステップS22)、特徴点毎の視差量を算出する(ステップS23)。このように算出した特徴点毎の視差量から、近景側の最大視差量と遠景側の最大視差量を取得する(ステップS24)。
 ここで、表示を行う想定ディスプレイについて、その表示幅を取得する。想定ディスプレイの表示幅は、予め決められて記憶されていてもよいし、HDMI端子等の外部接続端子によって3Dディスプレイが接続されている場合には、当該接続に応じた通信により3Dディスプレイのサイズを読み取ってもよい。
 この表示幅のディスプレイに当該立体画像を表示した場合に、遠景側の最大視差位置が立体視可能か否かを判定する(ステップS25)。具体的には、表示幅と遠景側の最大視差量(%)との積を算出し、算出した積が人間の両眼間隔50mm以上であるか否かを判定する。
 算出した積が50mm未満の場合は、撮影した2枚の視点画像をそのまま記録する(ステップS27)。例えば、図2に示すデータ構造の3D画像ファイルとして記録してもよいし、表示用サムネイル画像や仮想視点画像を生成して記録してもよい。
 算出した積が50mm以上の場合は、遠景側の最大視差位置が立体視可能となるように、当該積が50mm未満になるように視差ずらしを行う(ステップS26)。
 視差ずらしは、図11に示すように、右視点画像を左方向にずらすことによって行ってもよいし、左視点画像を右方向にずらすことによって行ってもよい。また、左右視点画像両方をそれぞれ近づける方向にずらしてもよい。
 視差ずらし処理が終了したら、記録を行う(ステップS27)。図13は、ここで記録する3D画像ファイルのデータ構造を模式的に示した図である。この3D画像ファイルには、撮影された2枚の原画像の他に、各原画像のサイズを縮小した視差ずらし後の表示用画像及びサムネイル画像が記録されている。ここでは、表示用画像はフルHDサイズの画像であり、サムネイル画像はVGAサイズの画像である。サムネイル画像は、例えば撮像装置の背面に設けられた小型の液晶ディスプレイに、画像検索のために表示する際等に用いられるものである。
 これらの画像は、図13に示すように、視点番号1の表示用画像、視点番号2の表示用画像、視点番号1のサムネイル画像、視点番号2のサムネイル画像、視点番号1の原画像、視点番号2の原画像、の順に記録されており、それぞれの記録領域は、SOIマーカ(図では省略)、付属情報領域、画像情報領域、及びEOIマーカ(図では省略)を有している。
 まず先頭画像として、基準視点である視点番号1の表示用画像が記録されており、その付属情報領域には、最大視差量が記録されている。
 次に記録されているのは、視点番号2の表示用画像であり、この画像は上記の視差ずらしを行った結果の画像である。視点番号2の表示用画像の付属情報領域には、視差ずらし処理済みである情報と、そのシフト量(単位:ピクセル)が記録されている。
 続いて視点番号1のサムネイル画像が記録されており、この付属情報領域にも、最大視差量が記録されている。
 さらに、視点番号2のサムネイル画像が記録されている。このサムネイル画像は、視差ずらし後の画像であってもよいし、視点番号2の原画像から生成した画像であってもよい。
 その後には、視点番号1の原画像及び視点番号2の原画像が記録されている。視点番号1の原画像の付属情報領域にも、最大視差量が記録されている。
 このような3D画像ファイルとすることで、想定したサイズのディスプレイに表示する際に、常に遠景側の最大視差位置が立体視可能となっており、視認者に適切に立体視させることが可能となる。
 また、VGAサイズのサムネイル画像も記録したため、画像検索時の表示にも有効である。
 なお、想定したディスプレイサイズを、先頭画像の付属情報領域に記録してもよい。想定ディスプレイサイズを記録しておくことにより、立体画像再生装置において、読み出した想定ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、適切に立体視可能か否かを容易に判別することができる。
 [第5の実施形態]
 次に、このように記録された3D画像ファイルを読み出して再生表示する処理について、図14のフローチャートを用いて説明する。
 最初に、3D画像ファイルを読み込む(ステップS31)。同時に、これから3D画像の表示を行うディスプレイのサイズを取得する(ステップS32)。また、読み込んだ3D画像ファイルの付属情報から、3D表示を行おうとする各視点画像を適切に3D表示することができる最大ディスプレイサイズを取得する(ステップS33)。
 次に、これから3D画像の表示を行うディスプレイの横幅と、最大ディスプレイサイズの幅とを比較する(ステップS34)。
 最大ディスプレイサイズの幅の方が大きい場合は、3D画像ファイルに記録されている各視点画像をそのまま表示しても立体視に差し支えないため、読み出した視点画像をそのまま表示する(ステップS36)。
 しかし、実際のディスプレイ幅の方が大きい場合には、読み出した視点画像をそのまま表示すると遠側の最大視差位置の視差量が人間の両眼間隔を超えてしまい、その部分が立体視できないことになる。したがって、左右の視点画像の視差量を調整する必要がある。
 視差量の調整は、視差ずらし又は視差圧縮によって行う(ステップS35)。視差ずらしは、図11を用いて説明したように、左右視点画像の一方又は両方をずらすことにより視差量を調整する。また、視差圧縮は、図8を用いて説明したように、左右の視点画像よりも視差量の小さい仮想視点の画像を生成し、生成した仮想視点の画像を表示することにより視差量を調整する。どちらによって視差量を調整するのかは、予め決めておいてもよいし、ユーザが選択可能に構成してもよい。どちらの視差量調整によっても、少なくとも遠景側の視差を小さくすることができる。
 視差ずらし又は視差圧縮によって、使用するディスプレイの幅に適した視差量に調整し、調整した画像を3D表示する(ステップS36)。
 このように、付属情報として記録されている最大ディスプレイサイズを読み出し、実際に表示を行うディスプレイサイズと比較し、最大ディスプレイサイズの方が大きい場合には立体視に問題が無いとして記録されている3D画像をそのまま表示し、実際に表示を行うディスプレイサイズの方が大きい場合には立体視ができない領域があると判断して記録されている3D画像の視差量を調整してから表示することで、常に適切な3D画像を表示することが可能となる。
 なお、このような処理は、3D画像ファイルの付属情報に記録されている最大視差量を読み出すことによっても可能である。
 図15は、最大視差量に基づいて再生表示処理を行う場合のフローチャートである。なお、図14に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
 読み込んだ3D画像ファイルの付属情報から、最大視差量(遠景)を取得する(ステップS41)。この最大視差量(遠景)は、画像幅に対する比率(%)として記録されている。
 次に、ステップS32において取得したディスプレイの幅と、最大視差量(遠景)との積が、50mm以上であるか否かを判定する(ステップS42)。ディスプレイの幅と最大視差量(遠景)との積は、表示された画像上の最大視差量位置(遠景)における実際の視差量となる。この視差量が人間の両眼間隔である50mm以上となる場合には、その部分が立体視できないため、読み出した視点画像について視差ずらし又は視差圧縮による視差量の調整を行ってから(ステップS35)、3D表示を行う(ステップS36)。
 50mm未満の場合には、記録されている各視点画像をそのまま表示しても差し支えないため、読み出した視点画像をそのまま表示する(ステップS36)。
 このように、3D画像ファイルから読み出した最大視差量(遠景)に基づいて、再生表示を制御することができる。特に、3D画像ファイルの付属情報に最大ディスプレイサイズが記録されておらず、最大視差量のみが記録されている場合に有効である。
 なお、本実施形態においては、適切に3D表示ができないと判断した場合には、視差ずらし又は視差圧縮によって視差量を調整してからディスプレイ全体に3D表示させているが、適切な視差量になる画像サイズ、即ち最大ディスプレイサイズに相当する画像サイズで3D表示させてもよい。
 [第6の実施形態]
 また、上記のように視差ずらし又は視差圧縮して生成された画像を、3D画像ファイルに記録してもよい。図16に、3D画像ファイルに記録する処理を行う場合のフローチャートを示す。
 ここでは、ステップS35において視差ずらし又は視差圧縮によって生成された画像を、ステップS43において表示用サムネイル画像として3D画像ファイルに追加又は書き換えを行っている。なお、3D画像ファイルへの追加、書き換えは、ステップS36の3D表示後に行ってもよい。
 図17は、4枚の視点画像及び視点画像から生成された4枚の表示用サムネイル画像が記録された3D画像ファイルのデータ構造を模式的に示した図であり、図17Aは図16のステップS31で読み込んだときの3D画像ファイルを示し、図17BはステップS43において書き換えた後の3D画像ファイルを示している。先頭画像である視点画像(1)の付属情報には、視点画像(1)と視点画像(4)との最大視差量(遠景)が記録されている。
 ステップS41においてこの最大視差量を読み出し、ステップS42において、ディスプレイの幅と最大視差量(遠景)との積が50mm以上であると判定されると、ステップS35において視差ずらし又は視差圧縮を行う。例えば、サムネイル画像(4)の視差ずらしを行った場合には、ステップS43において、サムネイル画像(4)に換えて視差ずらし後のサムネイル画像(4)を記録する。また、視差ずらし後のサムネイル画像(4)の付属情報には、視差ずらし処理済みである情報と、そのシフト量(単位:ピクセル)を記録する。
 また、ステップS35において視差圧縮を行う場合であれば、サムネイル画像(4)に換えて、視差圧縮後のサムネイル画像(4)を記録する。この場合には、付属情報として、視差圧縮後の最大視差量(遠景)を記録してもよい。
 ここでは、サムネイル画像(4)に換えて、視差量調整後のサムネイル画像(4)を記録したが、視差量調整後のサムネイル画像(4)を追加して記録するようにしてもよい。
 また、図16のステップS31で読み込んだときの3D画像ファイルに表示用サムネイル画像が存在しない場合であっても、表示用サムネイル画像を生成し、図17Bに示すような3D画像ファイルとして記録してもよい。
 なお、視差調整を行うのはサムネイル画像に限られず、視点画像の視差調整を行ってもよい。例えば、視差画像(4)の視差調整を行うのであれば、視差画像(4)と、その視差画像(4)に基づいて生成されたサムネイル画像(4)を上書き、又は追加記録する。
 さらに、ステップS42において算出した、ディスプレイの幅と最大視差量(遠景)との積を、最大ディスプレイサイズとして3D画像ファイルの先頭画像の付属情報領域に記録する態様もある。
 [第7の実施形態]
 視差圧縮の処理(仮想視点画像の生成)にはある程度の時間を要するため、すぐには視差圧縮後の画像を表示することができず、視認者に煩わしさを感じさせる可能性がある。本実施形態では、視差圧縮処理を行っている間に、3Dディスプレイに2D表示を行わせる。
 図18は、2D表示を行う処理を示すフローチャートである。なお、図16に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
 ステップS42において、ディスプレイの幅と最大視差量(遠景)との積が、人間の両眼間隔である50mm以上であると判断すると、当該3D画像ファイルに記録されている視点画像又は表示用サムネイル画像のいずれかをディスプレイに2D表示させる(ステップS51)。その後、視差圧縮処理を行う(ステップS35)。
 視差圧縮処理が終了したら、3D画像ファイルの表示用サムネイル画像の追加又は書き換えを行い(ステップS43)、視差圧縮画像をディスプレイに3D表示させる(ステップS36)。3D表示を行ってから、3D画像ファイルに記録してもよい。
 このように2D表示を行うことで、視差圧縮処理を行っている間に画像を表示できない欠点を補うことができる。
 ここでは、視差圧縮を行う場合を例に説明したが、視差ずらし処理に時間がかかる場合には、視差ずらし処理を行っている間に2D表示を行うように構成してもよい。また、2D表示と同時に、視差量の調整処理を行っている旨を表示してもよい。このように表示することで、視認者は、3Dディスプレイに2D表示がされている理由を知ることができる。
 [第8の実施形態]
 これまでの実施形態では、最大視差量(遠景)に基づいて視差量の調整を行い、3D表示を行っているが、視差量の調整として視差ずらしを行うと、近景側の視差量が増大するという欠点がある。したがって、視差ずらしを行う場合には、最大視差量(近景)を考慮して表示を行ってもよい。
 図19は、最大視差量(近景)を考慮して視差ずらし処理を行う場合のフローチャートである。なお、図16に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
 ステップS42において、表示に使用するディスプレイの幅と最大視差量(遠景)との積が、人間の両眼間隔である50mm以上であるか否かを判断する。積が50mmより小さい場合には、3D画像ファイルに記録されている3D画像をそのまま表示しても差し支えないため、読み出した3D画像をそのまま表示する(ステップS64)。
 積が50mm以上の場合には、そのまま表示すると遠側の最大視差位置の立体視ができないため、視差量を調整する必要がある。したがって、積が50mm未満となる視差ずらし量(必要ずらし量)を算出する(ステップS61)。
 次に、算出した必要ずらし量だけ視差ずらしを行った場合に、近景側の最大視差量位置が適切に立体視可能か否かを判定する。具体的には、表示に使用するディスプレイの幅と最大視差量(近景)との積に、必要ずらし量を加算した値が、50mm以下であるか否かを判定する(ステップS62)。ここでは、近景の視差量が50mm以下の場合を適切に立体視可能と判断しているが、この50mmの値は、適宜決めればよい。
 50mm以下の場合には、視差ずらしを実施し(ステップS63)、視差ずらしを行った画像を3Dディスプレイに3D表示する(ステップS64)。さらに、視差ずらしを行った画像を3D画像ファイルに追加又は書き換えてもよい。
 これに対し、50mmより大きい場合には、視差ずらしを行わないと遠景側に立体視できない部分があり、遠景側の最大視差量が適切になるように視差ずらしを行うと近景側が適切に立体視できないことになるので、3D表示は行わず、3Dディスプレイに2D表示を行う(ステップS65)。2D表示は、3D画像ファイルに記録されている視点画像又は表示用サムネイル画像のうちいずれかを表示する。2D表示とともに、ディスプレイサイズが大きすぎるために当該画像は3D表示を行わない旨を警告表示してもよい。
 このように、最大視差量(遠景)だけでなく、最大視差量(近景)も考慮して視差量の調整を行うことで、適切な3D画像を表示させることができる。
 [立体撮像装置の外観]
 次に、上記の実施形態を実現するための装置について説明する。
 図20は本発明に係る立体撮像装置の外観を示す図であり、図20Aは立体撮像装置を前面側から見た斜視図であり、図20Bは背面図である。
 この立体撮像装置(複眼カメラ)10は、2D/3Dの静止画、及び2D/3Dの動画の記録再生が可能なデジタルカメラであり、図20に示すように薄型の直方体状のカメラ本体の上面には、シャッタボタン11、ズームボタン12が配設されている。
 カメラ本体の前面には、カメラ本体の左右方向の幅と略一の幅を有するレンズバリア13が、カメラ本体の上下方向に移動自在に配設されており、このレンズバリア13を、二点鎖線で示す位置と実線で示す位置との間で上下方向に移動させることにより、左右一対の撮影光学系14-1,14-2の前面を同時に開閉できるようになっている。尚、撮影光学系14-1,14-2としては、屈曲光学系のズームレンズが使用されている。また、レンズバリア13によるレンズ前面の開閉動作に連動して、カメラ電源をON/OFFさせることができるようになっている。
 図20Bに示すようにカメラ本体の背面には、その中央部に3D用の液晶モニタ16が配設されている。液晶モニタ16は、複数の視差画像(右視点画像、左視点画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できるものである。尚、3D用の液晶モニタ16としては、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで右視点画像と左視点画像とを個別に見ることができるものなどが適用できる。
 上記液晶モニタ16の左右には、各種の操作スイッチが配設されている。操作スイッチ18Aは、静止画撮影と動画撮影とを切り替える切替えスイッチであり、操作スイッチ18Bは、右視点画像と左視点画像の視差量を調整する視差調整スイッチであり、操作スイッチ18Cは2D撮像と3D撮像とを切り替える切替えスイッチである。また、操作スイッチ18Dは、MENU/OKボタンと再生ボタンとを兼ねたシーソーキーであり、操作スイッチ18Eは、マルチファンクションの十字キーであり、操作スイッチ18Fは、DISP/BACKキーである。
 MENU/OKボタンは、液晶モニタ16の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作スイッチである。再生ボタンは、撮影モードから再生モードに切り替えるボタンである。十字キーは、上下左右の4方向の指示を入力する操作スイッチであり、マクロボタン、フラッシュボタン、セルフタイマーボタン等が割り当てられており、また、メニューが選択されている場合には、そのメニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示するスイッチ(カーソル移動操作手段)として機能する。また、十字キーの左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。DISP/BACKキーは、液晶モニタ16の表示形態を切り替えたり、メニュー画面上での指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。
 尚、図20A上で、15はステレオマイクである。
 [立体撮像装置の内部構成]
 図21は上記立体撮像装置10の内部構成を示すブロック図である。
 図21に示すように、この立体撮像装置10は、主として複数の撮像部20-1,20-2、中央処理装置(CPU)32、前述したシャッタボタン11、ズームボタン12、及び各種の操作スイッチを含む操作部34、表示制御部36、液晶モニタ16、記録制御部38、圧縮/伸張処理部42、デジタル信号処理部44、AE(Automatic Exposure:自動露出)検出部46、AF(Auto Focus:自動焦点)検出部48、AWB(Automatic
White Balance:自動ホワイトバランス)検出部50、VRAM52、RAM54、ROM56、及びEEPROM58等から構成されている。尚、撮像部20-1,20-2は、互いに視差を有する左眼用画像と右眼用画像の2枚の視差画像を撮像するが、撮像部20は、3つ以上あってもよい。
 左眼用画像を撮像する撮像部20-1は、プリズム(図示せず)、フォーカスレンズ及びズームレンズ21からなる撮影光学系14-1(図20)、絞り22及びメカシャッタ23からなる光学ユニットと、固体撮像素子(CCD)24と、アナログ信号処理部25と、A/D変換器26と、画像入力コントローラ27と、前記光学ユニットを駆動するレンズ駆動部28、絞り駆動部29及びシャッタ制御部30と、CCD24を制御するCCD制御部31とを備えている。尚、右眼用画像を撮像する撮像部20-2は、前記左眼用画像を撮像する撮像部20-1と同じ構成を有するため、その具体的な構成の説明は省略する。
 CPU32は、操作部34からの入力に基づき所定の制御プログラムに従ってカメラ全体の動作を統括制御する。最大ディスプレイサイズの算出、視差ずらし、仮想視点画像の生成等も、CPU32によって行われる。
 なお、ROM56には、CPU32が実行する制御プログラム及び制御に必要な各種データ等が格納され、EEPROM58には、製品出荷前の調整時の調整結果を示す各種の情報、例えばCCD24の画素欠陥情報、画像処理等に使用する補正パラメータや、最大視差量と最大ディスプレイサイズとの対応テーブル等が記憶されている。
 また、VRAM52は、液晶モニタ16に表示する表示用の画像データを一時記憶するメモリであり、RAM54は、CPU32の演算作業用領域及び画像データの一時記憶領域を含んでいる。
 撮影光学系に含まれるフォーカスレンズ及びズームレンズ21は、レンズ駆動部28により駆動されて光軸に沿って前後に移動する。CPU32は、レンズ駆動部28の駆動を制御することにより、フォーカスレンズの位置を制御して被写体に焦点が合うように焦点調節を行うとともに、操作部34中のズームボタン12からのズーム指令に応じてズームレンズのズーム位置を制御してズーム倍率を変更させる。
 絞り22は、例えば、アイリス絞りで構成されており、絞り駆動部29に駆動されて動作する。CPU32は、絞り駆動部29を介して絞り22の開口量(絞り値)を制御し、CCD24への入射光量を制御する。
 メカシャッタ23は、光路を開閉することによりCCD24での露光時間を決めるとともに、CCD24からの画像信号の読み出し時に不要光がCCD24に入射しないようにしてスミアの発生を防止する。CPU32は、シャッタ速度に対応する露光終了時点に同期したシャッタ閉信号をシャッタ制御部30に出力し、メカシャッタ23を制御する。
 CCD24は、2次元のカラーCCD固体撮像素子により構成されている。CCD24の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードには所定の配列でカラーフィルタが配置されている。
 上記構成の光学ユニットを介してCCD受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU32の指令に従ってCCD制御部31から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)としてCCD24から順次読み出される。CCD24は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。尚、電子シャッタによりシャッタ速度に対応する電荷蓄積開始時点が制御され、前記メカシャッタ23を閉じることにより露光終了時点(電荷蓄積終了時点)が制御される。この実施形態では、撮像素子としてCCD24を用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
 CCD24から読み出されたR、G、Bのアナログ信号は、アナログ信号処理部25により相関二重サンプリング(CDS)や増幅が行われた後、A/D変換器26によりR、G、Bのデジタル信号に変換される。
 画像入力コントローラ27は、所定容量のラインバッファを内蔵しており、A/D変換器26によりA/D変換されたR、G、Bの画像信号(CCDRAWデータ)を一時蓄積したのち、バス60を介してRAM54に格納する。
 CPU32は、3D撮像モード時には左視点画像を撮像する撮像部20-1と同様に右視点画像を撮像する撮像部20-2を制御する。
 AE検出部46は、シャッタボタン11の半押し時に取り込まれる画像信号に基づいてAE制御に必要な被写体輝度を算出し、被写体輝度(撮影EV値)を示す信号をCPU32に出力する。CPU32は、入力する撮影EV値に基づいて所定のプログラム線図にしたがって複数の撮像部20-1,20-2におけるシャッタ速度(露光時間)、絞り値、撮影感度を設定する。
 AF検出部48は、シャッタボタン11の半押し時に取り込まれるAFエリアの画像信号の高周波成分の絶対値を積算し、この積算した値(AF評価値)をCPU32に出力する。CPU32は、フォーカスレンズを至近から無限遠側に移動させ、AF検出部48により検出されるAF評価値が最大となる合焦位置をサーチし、その合焦位置にフォーカスレンズを移動させることにより、被写体(主要被写体)への焦点調節を行う。尚、動画撮影時には、前記AF評価値が常に最大値をとるようにフォーカスレンズを移動させる、いわゆる山登り制御が行われる。
 AWB検出部50は、本撮像時に取得されたR、G、Bの画像信号に基づいて自動的に光源種(被写界の色温度)を求め、予め光源種別に設定されたR、G、Bのホワイトバランスゲイン(ホワイトバランス補正値)を記憶するテーブルから対応するホワイトバランスゲインを読み出す。
 デジタル信号処理部44は、ホワイトバランス補正回路、階調変換処理回路(例えば、ガンマ補正回路)、単板CCDのカラーフィルタ配列に伴うR,G,Bなどの色信号の空間的なズレを補間して各色信号の位置を合わせる同時化回路、輪郭補正回路、輝度・色差信号生成回路等を含み、RAM54に格納されたR、G、Bの画像信号(CCDRAWデータ)に対して画像処理を行う。即ち、R、G、BのCCDRAWデータは、デジタル信号処理部44において、AWB検出部50により検出されたホワイトバランスゲインが乗算されてホワイトバランス補正が行われ、その後、階調変換処理(例えば、ガンマ補正)等の所定の処理が施された後、輝度信号(Y信号)及び色差信号(Cr、Cb信号)からなるYC信号に変換される。デジタル信号処理部44により処理されたYC信号はRAM54に格納される。
 また、デジタル信号処理部44は、複数の撮像部20-1,20-2の撮影光学系のレンズ歪補正を補正するディストーション補正回路、左右視点画像からそれぞれ所定の切り出しエリアの画像を切り出すことにより複数の撮像部20-1,20-2の撮影光学系の光軸ずれを補正する画像切り出し処理回路を含んで構成されている。
 圧縮/伸張処理部42は、メモリカード40への記録時にはCPU32からの指令に従い、RAM54に格納されたYC信号を圧縮処理し、また、メモリカード40に記録された圧縮された圧縮データを伸張処理してYC信号にする。
 記録制御部38は、圧縮/伸張処理部42により圧縮された圧縮データを所定形式の画像ファイル(例えば、3D静止画は、MPファイル、3D動画は、モーションJPEG、H.264、MPEG4、MPEG4-MVCの動画ファイル)にしてメモリカード40に記録し、又はメモリカード40から画像ファイルの読み出しを行う。
 また、記録制御部38は、本発明に係るMPファイルを記録する際には、Exif付属情報の他、最大ディスプレイサイズ、想定視距離、最大視差量(近景)(%)、最大視差量(遠景)(%)、等を付属情報としてメモリカード40に記録する。
 液晶モニタ16は、撮影済み画像を表示するための画像表示部として使用されるとともに、各種設定時にGUI(グラフィカルユーザインターフェース)として使用される。また、液晶モニタ16は、撮影モード時に画角を確認するためのライブビュー画像(以下、「スルー画」という)を表示する電子ビューファインダとして利用される。表示制御部36は、液晶モニタ16に3D画像を表示させる場合には、VRAM52に保持されている左視点画像と右視点画像とを1画素ずつ交互に表示させる。液晶モニタ16に設けられているパララックスバリアにより、所定の距離から観察するユーザの左右の眼には、1画素ずつ交互に配列された左右の画像がそれぞれ別々に視認される。これにより、立体視を可能にしている。
 以上のように構成された立体撮像装置10により、上記実施形態を実現することができる。なお、ここで説明した立体撮像装置10は、左右2視点の画像を撮影するために2つの撮像部を備えているが、3つ以上の撮像部を備えて3点以上の視点画像を撮影するように構成してもよい。例えば、図5に示すように、4つの撮像装置101-1~101-4のように4つの撮像部を備えることによって、4枚の視点画像を撮影するように構成してもよい。
 [立体画像再生装置]
 なお、第5~第8の実施形態については、撮像部を有しない立体画像再生装置において実現することも可能である。
 図22は、本発明に係る立体画像再生装置300と3Dディスプレイ320の全体構成を示す図である。同図に示すように、立体画像再生装置300と3Dディスプレイ320とは、別個に構成された装置であり、通信ケーブル310により通信可能に接続されている。
 3Dディスプレイ320は、パララックスバリア方式やレンチキュラー方式のディスプレイであり、立体画像再生装置300から3Dディスプレイ320に入力された左視点画像及び右視点画像を1ライン毎に交互に表示する。
 また、3Dディスプレイ320は、左視点画像及び右視点画像を時間的に交互に切り換えて表示するものでもよい。この場合は、視認者は特殊なメガネを用いて3Dディスプレイ320を視認する。
 図23は、立体画像再生装置300の内部構成を示すブロック図である。同図に示すように、立体画像再生装置300は、CPU301、記録制御部305、メモリカード306、表示制御部307、通信インターフェース308などを備えて構成されている。
 CPU301は、ROM302に記録された制御プログラムに基づいて立体画像再生装置300全体の動作を統括制御する。RAM303は、CPU301の演算作業用領域として使用される。
 記録制御部305、表示制御部307は、バス304を介してCPU301と接続されている。記録制御部305は、メモリカード306に対する3D画像ファイルのデータ読み書きを制御する。メモリカード306は、例えば図21に示した立体撮像装置10のメモリカード40と同じものであり、立体撮像装置10において撮影された各視点画像と付属情報を含む3D画像ファイルが記録されている。
 通信インターフェース308は、通信ケーブル310が接続されるコネクタ部であり、表示制御部307は、これらを介して3Dディスプレイ320に立体画像を表示させる。通信インターフェース308、通信ケーブル310として、HDMI規格のものを採用することが考えられる。HDMI規格によれば、立体画像再生装置300は、通信ケーブル310を介して接続されている3Dディスプレイ320のディスプレイサイズを取得することができる。
 なお、立体画像再生装置300に、各視点画像を撮影するための複眼の撮像手段を備えさせ、撮影した視点画像をメモリカード306に記録するように構成してもよい。また、立体画像再生装置300と3Dディスプレイ320を一体の装置として構成してもよい。
 10…立体撮像装置、16…液晶モニタ、20-1,20-2…撮像部、40…メモリカード、44…デジタル信号処理部、100…被写体、101-1~101-4…撮像装置、211N、212N…最大視差量位置(近景)、211F、212F…最大視差量位置(遠景)、213N…近景側の最大視差量、213F…遠景側の最大視差量、300…立体画像再生装置、320…3Dディスプレイ

Claims (13)

  1.  立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、
     出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、
     前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別手段と、
     前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、
     前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段と、
     を備えたことを特徴とする立体画像再生装置。
  2.  立体視用の複数の視点画像と、該複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、
     出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、
     前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別手段と、
     前記判別手段により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、
     前記判別手段により両眼融合不能と判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段と、
     を備えたことを特徴とする立体画像再生装置。
  3.  前記判別手段は、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズとに基づいて、前記複数の視点画像を前記立体ディスプレイに表示させた場合の、前記最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することを特徴とする請求項2に記載の立体画像再生装置。
  4.  前記画像処理手段は、前記立体ディスプレイ上での前記複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする前記複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することを特徴とする請求項1から3のいずれかに記載の立体画像再生装置。
  5.  前記3次元画像ファイルの付属情報は、前記複数の視点画像における近景側の最大視差量を含み、
     前記立体ディスプレイ上での前記複数の視点画像の近景側の最大視差量と前記視点シフト画像の前記立体ディスプレイ上でのずらし量とを加算する加算手段と、
     前記加算された近景側の最大視差量に対応する画像ずれ量が前記立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段と、を備え、
     前記出力手段は、前記判別手段により画像ずれ量が両眼融合限界を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させることを特徴とする請求項4に記載の立体画像再生装置。
  6.  前記画像処理手段は、前記第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と前記視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段と、を有することを特徴とする請求項1又は2に記載の立体画像再生装置。
  7.  前記出力手段は、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別され、又は前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させ、その後、前記画像処理手段により前記仮想視点画像が生成されると、前記2次元画像に代えて前記仮想視点画像を出力することを特徴とする請求項6に記載の立体画像再生装置。
  8.  前記複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、
     前記画像処理手段は、前記第1の取得手段により取得した複数の視点画像の代わりに前記生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、
     前記出力手段は、前記表示用画像生成手段により生成された表示用画像、又は前記画像処理手段により生成された表示用画像を前記立体ディスプレイに出力することを特徴とする請求項1から7のいずれかに記載の立体画像再生装置。
  9.  前記画像処理手段により生成された視点画像及び前記表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、前記3次元画像ファイルに追記し又は上書きする記録手段を備えたことを特徴とする請求項1から8のいずれかに記載の立体画像再生装置。
  10.  複数の視点から同一被写体を撮影した複数の視点画像を取得する撮像手段と、
     前記取得した複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、
     前記算出した各特徴点の視差量のうちの遠景側の最大視差量を取得する最大視差量取得手段と、
     前記取得した遠景側の最大視差量に基づいて、前記複数の視点画像による立体画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを取得する最大ディスプレイサイズ取得手段と、
     前記複数の視点画像が記録される3次元画像ファイルを生成し、該3次元画像ファイルを記録媒体に記録する記録手段であって、前記複数の視点画像を前記3次元画像ファイルに記録し、かつ、前記遠景側の最大視差量及び最大ディスプレイサイズを付属情報として前記3次元画像ファイルに記録する記録手段と、
     請求項1から9のいずれかに記載の立体画像再生装置と、
     を備えたことを特徴とする立体撮像装置。
  11.  前記出力先の立体ディスプレイと、
     請求項1から9のいずれかに記載の立体画像再生装置と、
     を備えたことを特徴とする立体ディスプレイ装置。
  12.  立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、
     出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、
     前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別工程と、
     前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得工程により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、
     前記判別工程により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程と、
     を備えたことを特徴とする立体画像再生方法。
  13.  立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、
     出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、
     前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別工程と、
     前記判別工程により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、
     前記判別工程により両眼融合不能と判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程と、
     を備えたことを特徴とする立体画像再生方法。
PCT/JP2011/060095 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 WO2011136190A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201180020899.8A CN102860019B (zh) 2010-04-28 2011-04-25 立体图像再生装置及方法、立体摄像装置、立体显示器装置
JP2012512838A JP5449536B2 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
US13/659,638 US9560341B2 (en) 2010-04-28 2012-10-24 Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
US15/377,353 US20170094267A1 (en) 2010-04-28 2016-12-13 Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010103905 2010-04-28
JP2010-103905 2010-04-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/659,638 Continuation US9560341B2 (en) 2010-04-28 2012-10-24 Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device

Publications (1)

Publication Number Publication Date
WO2011136190A1 true WO2011136190A1 (ja) 2011-11-03

Family

ID=44861489

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060095 WO2011136190A1 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置

Country Status (4)

Country Link
US (2) US9560341B2 (ja)
JP (1) JP5449536B2 (ja)
CN (1) CN102860019B (ja)
WO (1) WO2011136190A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118459A (ja) * 2011-12-02 2013-06-13 Canon Inc 撮像装置およびその制御方法
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
JP5449536B2 (ja) * 2010-04-28 2014-03-19 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
WO2011136137A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体撮像装置及びその制御方法
CN103329549B (zh) 2011-01-25 2016-03-09 富士胶片株式会社 立体视频处理器、立体成像装置和立体视频处理方法
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US8997021B2 (en) * 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
RU2695285C2 (ru) * 2014-12-24 2019-07-22 Конинклейке Филипс Н.В. Автостереоскопическое устройство отображения и способ возбуждения
JPWO2016117194A1 (ja) * 2015-01-21 2017-12-07 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
JP6618271B2 (ja) * 2015-05-01 2019-12-11 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
CN106572389A (zh) * 2015-10-08 2017-04-19 小米科技有限责任公司 调节显示图像方法及装置
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
CN108171682B (zh) * 2017-12-04 2022-04-19 北京中科慧眼科技有限公司 基于远景的双目同步曝光率检测方法、***及存储介质
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10567744B1 (en) 2018-09-24 2020-02-18 Cae Inc. Camera-based display method and system for simulators
US10567743B1 (en) 2018-09-24 2020-02-18 Cae Inc. See-through based display method and system for simulators

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333621A (ja) * 1996-04-05 2003-11-21 Matsushita Electric Ind Co Ltd 多視点画像伝送方法
JP2004334833A (ja) * 2003-04-17 2004-11-25 Sony Corp 立体視画像処理装置,情報提供方法,画像表示方法
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP2008109267A (ja) * 2006-10-24 2008-05-08 Sharp Corp 立体画像生成装置及び立体画像復号装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP4138425B2 (ja) * 2002-09-25 2008-08-27 シャープ株式会社 画像表示装置および方法
JP4578294B2 (ja) * 2005-03-18 2010-11-10 株式会社エヌ・ティ・ティ・データ三洋システム 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
WO2009051457A2 (en) * 2007-10-19 2009-04-23 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data
JP2010169777A (ja) * 2009-01-21 2010-08-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
GB2473282B (en) * 2009-09-08 2011-10-12 Nds Ltd Recommended depth value
US20110116540A1 (en) * 2009-11-18 2011-05-19 General Instrument Corporation Multimedia Content Handling in a Home-Network System
JP5390016B2 (ja) * 2010-03-24 2014-01-15 パナソニック株式会社 映像処理装置
JP5449536B2 (ja) * 2010-04-28 2014-03-19 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
CN102893613B (zh) * 2010-04-28 2016-06-22 富士胶片株式会社 立体图像再生装置及方法、立体摄像装置、立体显示器装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333621A (ja) * 1996-04-05 2003-11-21 Matsushita Electric Ind Co Ltd 多視点画像伝送方法
JP2004334833A (ja) * 2003-04-17 2004-11-25 Sony Corp 立体視画像処理装置,情報提供方法,画像表示方法
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP2008109267A (ja) * 2006-10-24 2008-05-08 Sharp Corp 立体画像生成装置及び立体画像復号装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US9924155B2 (en) 2011-10-04 2018-03-20 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US10587860B2 (en) 2011-10-04 2020-03-10 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
JP2013118459A (ja) * 2011-12-02 2013-06-13 Canon Inc 撮像装置およびその制御方法

Also Published As

Publication number Publication date
JP5449536B2 (ja) 2014-03-19
US20170094267A1 (en) 2017-03-30
US9560341B2 (en) 2017-01-31
JPWO2011136190A1 (ja) 2013-07-18
US20130093859A1 (en) 2013-04-18
CN102860019A (zh) 2013-01-02
CN102860019B (zh) 2015-07-29

Similar Documents

Publication Publication Date Title
JP5449536B2 (ja) 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
JP5449537B2 (ja) 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
JP5584677B2 (ja) 立体撮像装置及び画像補正方法
JP4875225B2 (ja) 立体撮像装置
JP5166650B2 (ja) 立体撮像装置、画像再生装置及び編集ソフトウエア
JP5449535B2 (ja) 立体撮像装置及びその制御方法
JP5486697B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5160460B2 (ja) 立体撮像装置および立体撮像方法
JP5466773B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5750457B2 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
WO2013094332A1 (ja) 画像出力装置、方法およびプログラムならびにその記録媒体
JP2010200024A (ja) 立体画像表示装置および立体画像表示方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180020899.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11774971

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012512838

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11774971

Country of ref document: EP

Kind code of ref document: A1