WO2014057557A1 - 映像観察システム - Google Patents

映像観察システム Download PDF

Info

Publication number
WO2014057557A1
WO2014057557A1 PCT/JP2012/076313 JP2012076313W WO2014057557A1 WO 2014057557 A1 WO2014057557 A1 WO 2014057557A1 JP 2012076313 W JP2012076313 W JP 2012076313W WO 2014057557 A1 WO2014057557 A1 WO 2014057557A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information processing
processing terminal
image
unit
Prior art date
Application number
PCT/JP2012/076313
Other languages
English (en)
French (fr)
Inventor
田原 博史
Original Assignee
Tahara Hirofumi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tahara Hirofumi filed Critical Tahara Hirofumi
Priority to JP2014540687A priority Critical patent/JP6245652B2/ja
Priority to CN201280076375.5A priority patent/CN104718495B/zh
Priority to PCT/JP2012/076313 priority patent/WO2014057557A1/ja
Publication of WO2014057557A1 publication Critical patent/WO2014057557A1/ja
Priority to US14/684,119 priority patent/US9888230B2/en
Priority to HK15112420.8A priority patent/HK1211708A1/xx

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • G02B30/35Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers using reflective optical elements in the optical path between the images and the observer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Definitions

  • the present invention relates to a video observation system for viewing a video displayed on a display unit of an information processing terminal.
  • a technique for realizing stereoscopic viewing by separately providing a left-eye image and a right-eye image, which are two-dimensional images with parallax in the left and right eyes of an observer is known.
  • the left-eye video and the right-eye video are alternately displayed and synchronized with this alternate display.
  • polarization method in which the polarization direction of the left-eye image and the right-eye image is made different so that only one image is transmitted by the polarization filter of the glasses worn by the observer.
  • an apparatus including an optical system that provides an image independently to the left and right eyes of an observer such as HMD (Head Mounted Display) (for example, Patent Document 1).
  • 3D image technologies various 3D image contents such as movies and games are distributed.
  • a stereoscopic image is used for visual acuity recovery and visual ability training such as training of eye movement muscles and dynamic visual acuity.
  • the stereoscopic image apparatus including the polarizing filter, the shutter control mechanism, or the optical system as described above has a problem in that each device is expensive and has a large number of parts, so that the manufacturing cost is high. Some observers may experience so-called “video sickness” such as headache, nausea, dizziness, blurred vision when observing such stereoscopic video content.
  • the present invention has been made in view of the above points, and provides a video observation system capable of viewing stereoscopic video content at a low cost with a simple configuration and increasing the chance of observing stereoscopic video. Is the subject.
  • the present invention is an image observation system for viewing an image displayed on a display unit of an information processing terminal, which is disposed in front of an observer's eyes and is located at a position corresponding to the left and right eyes.
  • Another invention is an image observation system for viewing an image displayed on a display unit of an information processing terminal, which is arranged in front of an observer's eyes and arranged at a position corresponding to the left and right eyes And a pedestal part on which the information processing terminal is installed, a connecting part that fixes a positional relationship between the lens part and the pedestal part, and the connecting part, and is held between the lens part and the pedestal part. And a mirror part that reflects the image light displayed on the information processing terminal toward the lens part.
  • images for the right eye and the left eye are displayed using an information processing terminal owned by many people, and the others are the minimum configuration such as a lens unit and a mirror unit.
  • a stereoscopic image can be observed easily and inexpensively without using expensive equipment such as a polarizing lens or a lens shutter control mechanism.
  • the form of “information processing terminal is installed” includes a method of placing, engaging or storing the information processing terminal on the pedestal portion, and the pedestal portion being placed on the information processing terminal. And a process method such as placement and engagement.
  • the information processing terminal is installed in the pedestal part, the positional relationship between the lens part and the pedestal part is fixed by the connecting part, and the information processing terminal is fixed by the holding part.
  • the observer views the image from the lens unit, the right eye is focused only on the right eye image, and the left eye is focused only on the left eye image. A simple but good stereoscopic image can be observed.
  • a reference display for matching the video position displayed on the display unit is written on the pedestal unit.
  • the information processing terminal can be installed at a position where the stereoscopic video can be appropriately observed only by arranging the information processing terminal based on the reference display, the setting for observing the stereoscopic video Can be made easier.
  • the information processing terminal includes an application execution unit that executes a program for displaying a video, and a model information acquisition unit that inputs information related to the type of the information processing terminal to the application execution unit. Change the size, position, and aspect ratio of the video displayed on the display unit based on the information about the type input from the model information acquisition unit, and change the position of the reference mark indicating the reference position of the video Is preferred.
  • the size, position and aspect ratio of the image displayed on the display unit are changed according to the model of the information processing terminal, and the position of the reference mark indicating the reference position of the image is changed.
  • stereoscopic images can be observed with various types of information processing terminals, and opportunities for many users to observe stereoscopic images can be increased.
  • the information processing terminal includes an application execution unit that executes a program for displaying a video
  • the program is a video for the left eye and a video for the right eye that correspond to the left and right eyes of the observer.
  • a stereoscopic image composed by generating a convergence angle and parallax with the video is displayed, and the convergence angle and the parallax of the stereoscopic video are changed to bring the focus on the observer's eye closer and closer to the observer. It is preferable to guide them apart.
  • the program displays the video by changing the convergence angle and parallax of the stereoscopic video, when the observer views the video from the lens unit, the right eye is focused only on the right eye image. The left eye is focused only on the left eye image, and a good stereoscopic image can be observed.
  • the information processing terminal includes an application execution unit that executes a program for displaying video, and a voice recognition unit that recognizes voice and inputs the recognition result to the application execution unit. It is preferable to change the image based on the recognition result input from the voice recognition unit. In this case, since the voice uttered by the user can be recognized, for example, visual acuity recovery and dynamic visual acuity training can be easily performed without requiring a key operation.
  • the program displays a three-dimensional image configured by generating a convergence angle and a parallax between the left-eye image and the right-eye image corresponding to the left and right eyes of the observer as the image.
  • a convergence angle and a parallax between the left-eye image and the right-eye image corresponding to the left and right eyes of the observer as the image.
  • the voice recognition unit It is preferable to record the speech recognition result and the measurement result.
  • an object whose position and orientation in the virtual space change is displayed on the display unit, or the object is changed. Can be activated to restore visual acuity.
  • the present invention when stereoscopically viewing an image displayed on a display unit of an information processing terminal such as a smartphone, a mobile phone, or a tablet PC, it is simplified by an inexpensive member such as paper or cloth. With a simple configuration, it is possible to view stereoscopic video content and increase opportunities to observe stereoscopic video while reducing manufacturing costs.
  • (A) is explanatory drawing explaining the centerline for position adjustment displayed on the screen which concerns on 1st Embodiment
  • (b) is explanatory drawing which shows the frame which adjusts a stereoscopic video display range.
  • (A) is a top view explaining the centerline for position adjustment displayed on the screen which concerns on 2nd Embodiment
  • (b) is a top view explaining the frame which adjusts a stereoscopic video display range. is there.
  • the visual acuity recovery method concerning a 1st embodiment is a stereoscopic perspective image. It is a figure explaining the visual acuity recovery method which concerns on 1st Embodiment as a direction perspective training method. It is a flowchart of the whole operation
  • (A) is explanatory drawing which shows the image for stereoscopic examinations displayed on the display part which concerns on 1st Embodiment, The same figure (b) and (c) shows how an observer's image looks. It is explanatory drawing shown.
  • (A) is explanatory drawing which shows the image for stereoscopic examinations displayed on the display part which concerns on 1st Embodiment, The same figure (b) and (c) shows how an observer's image looks. It is explanatory drawing shown.
  • (A) is explanatory drawing which shows the image for stereoscopic examinations displayed on the display part which concerns on 1st Embodiment, The same figure (b) and (c) shows how an observer's image looks. It is explanatory drawing shown.
  • FIG. 1 is a perspective view which shows the housing
  • the figure (b) is a perspective view which shows the packaging member which packs the information processing terminal concerning this modification
  • the figure (c) are the perspective views which show the state which accommodated the housing
  • (A) It is a perspective view which shows the housing
  • the same figure (b) is a perspective view which shows the upper case of the packing member which packs the information processing terminal which concerns on this modification
  • the figure (c) ) Is a perspective view showing a lower case of a packaging member that packs the information processing terminal according to the modified example, and FIG.
  • FIG. 4D is a perspective view showing a state in which the casing according to the modified example is stored in the packaging member. It is. It is explanatory drawing which shows schematic structure of the stereoscopic video delivery system which concerns on this embodiment. It is a perspective view which shows the state which has arrange
  • A) is a top view showing a holding portion according to a modified example,
  • (b) is a side view thereof, and (c) is a cross-sectional view taken along line AA in FIG. (A). is there.
  • (A) is a top view which shows the base part to which the holding
  • the same figure (b) is explanatory drawing which shows the state by which the information processing terminal was hold
  • FIG. 1 is a perspective view showing the overall configuration of the stereoscopic video display apparatus according to the first embodiment
  • FIG. 2 is an exploded view of the housing according to the first embodiment
  • FIG. 3 is a plan view showing the pedestal portion according to the first embodiment
  • FIG. 4 is a perspective view showing a state in which the information processing terminal 10 according to the first embodiment is arranged in the housing.
  • the video observation system is a system for viewing video displayed on the display unit 13a of the information processing terminal 10, and includes a substantially rectangular housing 20 and an information processing terminal. 10.
  • the housing 20 is formed of, for example, paper, plastic or the like, and as shown in FIG. 1, a pair of lens portions 21 and 21 are disposed on the top sheet at positions corresponding to the left and right eyes.
  • a pedestal portion 23 on which the information processing terminal 10 is installed is provided on the lower surface sheet facing the upper surface provided with the pair of lens portions 21 and 21.
  • the base part 23 and the connection part 28 which fixes the positional relationship of the lens parts 21 and 21 are provided.
  • the pair of lens portions 21 are convex eyepieces that enlarge a real image formed at the focal point.
  • the shape of the lens is not limited.
  • a sheet-shaped Fresnel lens having a saw-like cross section may be used by dividing a normal convex lens into concentric regions and reducing the thickness.
  • the side sheet connecting the upper sheet and the lower sheet serves as the connecting portion 28, and the distance in the longitudinal direction of the connecting portion 28 is determined when the observer views the image from the pair of lens portions 21 and 21. It has a predetermined length so that a stereoscopic image can be viewed satisfactorily.
  • the side sheet, the top sheet, and the bottom sheet are integrally formed by cutting out from a single sheet, and when folded, a substantially rectangular housing as shown in FIG. Become.
  • a holding portion 24 for positioning the information processing terminal 10 is formed on the surface of the pedestal portion 23 (the inner surface when assembled). As shown in FIG. 3, the holding part 24 has a pair of upper and lower fixing parts 241 and 241 and a pair of side part fixing parts 242 and 242.
  • the upper and lower fixing parts 241 and the pair of side part fixing parts 242 are inserted into a notch 243 formed in the lower surface sheet serving as the pedestal part 23 at both end portions 241b and 242b, and can be slid by the length of the notch 243. It has become.
  • the pair of upper and lower fixing parts 241 and 241 and the pair of side part fixing parts 242 and 242 include stoppers 241a and 242a that can be bent toward the inside of the housing on the outer edge side of the sheet. As shown in FIG. 4, the stoppers 241 a and 242 a are bent and brought into contact with the side surface of the information processing terminal 10 when the information processing terminal 10 is placed on the pedestal portion 23. The shift is prevented.
  • a reference display for matching the video position displayed on the display unit 13a is written on the pedestal unit 23. Specifically, as shown in FIG. 3, center lines CL1 and CL2 extending in the vertical direction and the horizontal direction passing through the seat center point CP1 of the pedestal 23 are displayed. By matching with the center line displayed on the display unit 13a, the information processing terminal 10 can be adjusted to an appropriate video position. Further, when the information processing terminal 10 is installed on the pedestal portion 23, a mark 244 is marked at a position where the outer edge portion of the information processing terminal 10 is located. A plurality of the marks 244 are displayed based on the size of the information processing terminal 10 of each company.
  • the housing 20 is provided with an opening 22 for accommodating the information processing terminal 10 inside the pedestal 23 of the side sheet serving as the connecting portion 28.
  • this opening part 22 may be covered with a cover member so that external light does not enter inside.
  • the housing 20 is provided with an operation hole 25 in the side sheet for operating the information processing terminal 10 when observing a stereoscopic image.
  • the information processing terminal 10 can be taken in and out from the operation hole 25, and the opening 22 may be omitted.
  • the pair of lens portions 21 and 21 are arranged on the upper portion. However, when used, for example, the observer lifts the housing 20 and tilts the housing 20 so that the information processing terminal 10 does not fall down. To observe stereoscopic images.
  • the connecting portion 28 is formed by an integrated side sheet.
  • the side sheet is cut off to form a pair of lens portions 21 and 21.
  • a connecting portion 28a that can be slid by being separated from the housing 20b in which the pedestal portion 23 is formed may be formed.
  • different focal positions can be freely set depending on the observer and the information processing terminal 10 of each manufacturer, a better stereoscopic image can be observed.
  • the information processing terminal 10 is a portable telephone using wireless communication, and a relay point such as a base station and a mobile telephone communicate wirelessly and receive communication services such as calls and data communication while moving. Can do.
  • Examples of the communication system of the cellular phone include an FDMA system, a TDMA system, a CDMA system, a W-CDMA, a PHS (Personal Handyphone System) system, and the like.
  • this mobile phone is equipped with various functions such as a digital camera function, an application software execution function, or a position information acquisition function using GPS (Global Positioning System), and functions as a personal digital assistant (PDA).
  • PDA personal digital assistant
  • FIG. 5 is a block diagram showing an internal structure of the information processing terminal according to the present embodiment
  • FIG. 6A illustrates a center line for position adjustment displayed on the screen according to the first embodiment. It is explanatory drawing, (b) is explanatory drawing which shows the frame which adjusts a stereoscopic video display range.
  • the “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or device, software having the function, or a combination thereof, and achieves a predetermined operation. .
  • the information processing terminal 10 includes an input interface 12 and an output interface 13 as user interface modules as shown in FIG.
  • the input interface 12 is a device that inputs user operations such as operation buttons, a touch panel, and a jog dial.
  • the input interface 12 is provided with a microphone 12a that acquires sound.
  • the output interface 13 is a device that outputs video and sound, such as a display and a speaker.
  • the output interface 13 includes a display unit 13a such as a liquid crystal display, and displays stereoscopic images and the like corresponding to various programs executed by the application execution unit 141 on the display unit 13a.
  • the information processing terminal 10 includes a control unit 14 and a memory 15 as functional modules for displaying the stereoscopic video of the present invention.
  • the memory 15 includes an OS (Operating System) and various programs such as stereoscopic image content and visual acuity measurement according to the present embodiment, other programs for various applications installed in the terminal, and device identification information ( ID) and the like.
  • OS Operating System
  • ID device identification information
  • the control unit 14 includes a processor such as a CPU and a DSP (Digital Signal Processor), a memory, hardware such as other electronic circuits, software such as a program having the function, or a combination thereof.
  • a processor such as a CPU and a DSP (Digital Signal Processor)
  • a memory such as other electronic circuits
  • software such as a program having the function, or a combination thereof.
  • Various function modules are virtually constructed by reading and executing programs as appropriate, and each constructed function module performs processing related to image data, operation control of each unit, and various processing for user operations. Module to perform.
  • control unit 14 includes an application execution unit 141, a model information acquisition unit 142, and a voice recognition unit 143.
  • the model information acquisition unit 17 is a module that inputs information related to the type of the information processing terminal 10 to the application execution unit 141.
  • the speech recognition unit 18 is a module that recognizes speech and inputs the recognition result to the application execution unit.
  • the speech recognition unit 18 acquires speech data from the microphone 12a provided in the terminal and analyzes the speech data by performing speech recognition processing. The acoustic features are taken out of the data and analyzed.
  • the operation of the observer is accepted by voice.
  • an operation on the touch panel may be received, or an operation device such as a mouse or a keyboard may be separately connected by a cable or the like, and an observer's operation may be received based on the operation device.
  • the application execution unit 141 is a module that executes applications such as a general OS, browser software, and a media viewing application, and is usually realized by a CPU or the like.
  • the application execution unit 141 executes various programs related to visual acuity (such as a visual acuity measurement program and a visual acuity training program), and displays the stereoscopic video content recorded in the memory 15 on the display unit 13a.
  • This module performs arithmetic processing such as visual acuity measurement.
  • a convergence angle and a parallax are generated as an image between the left-eye image and the right-eye image corresponding to the left and right eyes of the observer.
  • the generated stereoscopic video is displayed on the screen, and the convergence angle and the parallax of the stereoscopic video are changed to guide the observer's eyes toward and away from the observer.
  • the convergence angle and the parallax of the stereoscopic video are changed to guide the observer's eyes toward and away from the observer.
  • the image to be displayed on the display unit 13a is changed in the display of the video depending on the positional relationship between the display unit 13a for displaying the video and the pair of lens units 21 and 21.
  • the image is displayed without being rotated and inverted as shown in FIG.
  • FIG. 34 (c) the right-eye image and the left-eye image are separated and the left-right direction is inverted.
  • a normal image is displayed as one image on the display unit 13a.
  • a side-by-side stereoscopic image is displayed on the display unit 13a
  • a right-eye video signal is displayed.
  • 41 frames and one frame of the video signal for the left eye are each compressed in half in the horizontal direction and displayed side by side as a single frame, as shown in FIG.
  • the image becomes a vertically long image, and when such an image is viewed through the lens unit 21, a correct stereoscopic image cannot be observed.
  • the application execution unit 141 reduces the image so that the aspect ratio of the image is maintained, and displays the image on the display unit 13a. .
  • the vertical length of the two-frame image as shown in FIG. 41B is reduced to be the same as the aspect ratio of the normal one-frame image as shown in FIG.
  • the stereoscopic image is moved up and down on the screen according to the lens unit 21.
  • the right-eye image and the left-eye image can be further reduced depending on the model of the information processing terminal. Even in this case, the image is reduced while maintaining the aspect ratio of the respective images, and the stereoscopic video is moved to a predetermined position on the screen in accordance with the lens unit 21. Details of various programs will be described later.
  • the application execution unit 141 changes the size, position, and aspect ratio of the video displayed on the display unit 13a based on the information regarding the type input from the model information acquisition unit 17 before displaying the stereoscopic video. At the same time, the position of the reference mark indicating the reference position of the video is changed. Specifically, when the position adjustment program is recorded in the memory 15 and the application execution unit 141 executes the position adjustment program, as shown in FIG. 6A, the horizontal center passing through the center CP1 of the screen is displayed. A line CL4 and a vertical center line CL3 passing through the center CP1 of the screen are displayed. When the information processing terminal 10 is arranged in the housing 20, the information processing terminal 10 is arranged so that the center lines CL 3 and CL 4 overlap with the center lines CL 1 and CL 2 marked on the pedestal portion 23. It can be placed at an appropriate position.
  • the memory 15 also stores a program for expanding and reducing the display range of the stereoscopic video.
  • the application execution unit 141 performs an external operation as illustrated in FIG. A frame F1 is displayed.
  • the outer frame F1 enlarges or reduces the outer frame F1 according to an operation from the input interface 12, and changes the display range.
  • the information processing terminal 10 includes a communication interface 11 as a communication interface module.
  • the communication interface 11 is a communication interface for performing data communication, and has a function of performing contact (wired) communication by wireless or the like, or by a cable, an adapter unit, or the like.
  • the camera 16 is an imaging device that captures a still image or a moving image.
  • the camera 16 includes a lens and a fixed imaging device such as a CCD or a CMOS, and incident light representing an object image is formed on a light receiving surface of the CCD. Then, image data is generated via a camera signal processing circuit, an A / D converter, and the like.
  • FIG. 10 is a diagram illustrating a case where the visual acuity recovery method according to the present embodiment is a stereoscopic perspective image
  • FIG. 11 is a diagram illustrating the visual acuity recovery method according to the present embodiment as a direction perspective training method.
  • the vision recovery program is read from the memory 15 by the application execution unit 141.
  • the player automatically changes to an observer or trainer immediately.
  • the menu includes, for example, a stereo perspective image and a stereo direction image.
  • FIG. 10 ceptual display
  • FIG. 11 ceptual display
  • the stereoscopic image 100 a is displayed on the display unit 13 a at a position close to the lens unit 21 (although the image appears on the display unit 13 a), and then gradually from the lens unit 21. Displayed away. Eventually, the stereoscopic video 100b is displayed in the distance after a predetermined time. An observer looking into the lens units 21 and 21 adjusts the focus of his / her eyes so that the stereoscopic image 100b is clearly visible.
  • the trainee makes an effort to read the character.
  • the ciliary body and the eyeball moving muscles are automatically activated to adjust the thickness of the crystalline lens so that the character image is accurately focused on the retina.
  • the ciliary body and the eye movement muscles act to focus on the retina.
  • the trainee can input in advance the separation speed V1 and the moving range distance L of the stereoscopic image 100a and the designation of sound during training.
  • the moving range distance L is set to 10 m
  • stereoscopic images 100a for example, fish, cats, heart shapes, stars, circles, triangles, squares, or other three-dimensional characters can be selected.
  • Each of these stereoscopic images 100a can be freely set in size, and various colors such as red, blue, yellow, purple, orange, pink, or a color stripe pattern can be selected.
  • the audio data from the memory 15 is sent to the speaker after predetermined processing. For example, various voices during training can be selected from a list of readings of poetry by Fujisaki Shimazaki, classical music, pop songs, pops, jazz, folk songs, wind sounds, wave sounds, and the like.
  • the speed at which the stereoscopic image 100a moves away is adjusted. (Set the time in seconds to be small) to increase the exercise power of the ciliary body and the eyeball moving muscles.
  • V2 the approach speed of the ciliary body and the eyeball moving muscles.
  • the separation speed V1 can be slowed (the second of the time is set to be large), and the exercise force such as the ciliary body and the eye movement muscle can be moderated. Since the elderly trainee of hyperopia is difficult to see the vicinity, the approaching speed V2 can be increased (the number of seconds in the time is set small) to increase the exercise power of the ciliary body, the eyeball moving muscle, and the like.
  • This training is carried out about every 3 or 4 minutes at the end of the office work on the computer or during breaks.
  • the stereoscopic image 100a approaches very close to the upper left of the left eye and gradually goes farther toward the back of the center of the screen.
  • the appropriate speed can be set from the input interface 12 for the speed at which the stereoscopic image is far and the speed at which it approaches.
  • the trainee tracks this stereoscopic image 100a with both eyes. At this time, the face is left facing forward, and both eyes are moved so that, for example, characters of the stereoscopic image 100a are visually recognized (focused). By tracking with both eyes, the ciliary body and the eyeball moving muscles of both eyes move actively or expand or contract to move.
  • the stereoscopic image 100b gradually approaches the upper right direction of the right eye from the center of the back.
  • the actual 3D image is displayed on the screen, but in order to view the 3D image, the trainee's eyes must be focused on the virtual image. Both eyes move the ciliary body and the eye movement muscle. Furthermore, the stereoscopic image approaches very close to the upper right of the right eye, and gradually goes farther toward the back of the center of the screen.
  • the stereoscopic image 100b gradually approaches from the center of the back toward the lower right of the right eye. Similarly, this time, the stereoscopic image approaches very close to the lower left of the left eye and gradually goes farther toward the back of the center of the screen.
  • These approach / separation positions, speeds, and movement orders can be appropriately set from the input interface 12 according to the visual acuity of the trainee in advance.
  • the size of the stereoscopic image 100a can be freely set by the input interface 12, and various colors can be selected from a list such as red, blue, yellow, purple, orange, pink, or a color stripe pattern.
  • various voices during training can be selected from a list of poetry readings, classical music, pop songs, pops, jazz, folk songs, wind sounds, wave sounds, and the like.
  • FIG. 12 is a flowchart of the overall operation of the method for measuring and training visual ability according to the present embodiment
  • FIG. 13 is a common flowchart of each operation of the method for measuring and training visual ability according to the present embodiment. .
  • FIG. 14 and 15 are diagrams in which, in the method for measuring and training visual ability according to the present embodiment, the three-dimensional symbols displayed on the screen are spheres, and C-shaped marks and numbers are drawn.
  • FIG. 15 is a diagram in which a three-dimensional symbol displayed by a method for measuring and training visual ability according to the present embodiment is a sphere and characters are drawn.
  • FIG. 17 shows three spheres displayed on the screen in the method of measuring and training visual ability according to the embodiment.
  • FIG. 12 shows STAGE. 1, STAGE. 2, STAGE. 3, STAGE. 4, STAGE. 5 is a common flowchart of the flow of FIG.
  • Reference numeral 1 denotes a program for measuring and training the dynamic visual acuity (DVA) and the eye movement (OMS) in the lateral direction, and will be described according to the flowchart of FIG. 13 with reference to FIG. The STAGE.
  • DVA dynamic visual acuity
  • OMS eye movement
  • FIG. 1 first, the upper half of the pseudo sky (blue) and the lower half of the pseudo sea surface (purple) are displayed on the screen together with a perspective lattice pattern across a horizontal line.
  • a green or yellow sphere like a small point is generated far from the horizontal line at the back of the screen, and it gradually approaches the reference screen while floating to the left and right. It pops out of the screen and appears to approach the viewer (hereinafter referred to as “subject”) while floating.
  • the subject first cuts off the Randle mark (C mark) drawn on the sphere that stares at the sphere displayed on the display unit 13a and floats left and right as shown in FIG. Answer by speaking the direction up, down, right, left.
  • the application execution unit 141 determines whether the answer is correct.
  • the figure drawn on the sphere is a Randall mark (C mark), but may be, for example, an alphabet used in a Snellen chart or a hiragana character.
  • the number of problems that is, the number of occurrences of the sphere, is 50 questions. If you make a mistake, you will lose points and the MISS count will increase. If you answer correctly, the score will increase and the sphere will burst. Considering the length of the response time, it is important to respond quickly and accurately. It is repeatedly executed until the number of questions (50) is over, and the answer results are totaled and recorded.
  • RANK evaluation
  • a to E A is the best
  • POINT the score
  • TIME time
  • MISS error
  • Measurement and training LEVEL can be performed in EASY (easy), NORMAL (normal), and HARD (altitude).
  • the subject Since the subject has received explanations about the measurement and training contents in advance, follow the sphere that pops out while floating left and right in the three-dimensional space. However, the direction in which the landmark marks drawn on the sphere are cut, and the numbers and letters (alphabetic characters, hiragana, etc.) are determined randomly, so that the visual nerve is concentrated in order to determine what direction these are.
  • By tracking and tracking a sphere that moves in three-dimensional space it becomes necessary to adjust the focal length, covering the ciliary body, ciliary muscle, chin band, lens, and eye around the eye.
  • the epithelium, the superior rectus muscle, the inferior rectus muscle, the inferior oblique muscle, the superior levator muscle, and the upper and lower muscles of the eye ring move actively.
  • the image of the moving sphere is transmitted as a biological signal to the retina of the eye, the optic nerve, the optic bundle examination, the lateral knee, and the visual (field) cortex one after another.
  • the sphere's biological signal is sent to the brain's judgment unit, and the direction, number, or character (such as alphabet or hiragana) where the landmark is broken is sent, and the biological control signal is sent to the hand.
  • the finger of the hand inputs the answer into the key.
  • STAGE. 2 is a program that trains moving visual acuity (KVA) in the vertical direction and eye movement.
  • KVA moving visual acuity
  • the sphere protrudes linearly from the center of the black hole-shaped screen indicated by concentric circles, but the sense of speed and accuracy are important.
  • the number of questions ranges from 30 to 50. If you make a mistake, the number of points will be reduced and the MISS count will increase. If you answer correctly, the sphere will explode.
  • RANK addition is A to E (A is the best)
  • POINT is calculated by the number of TIME and MISS.
  • the operation method the subject determines the letters of the alphabet drawn on the sphere popping out from the back of the screen and answers using the alphabet keys.
  • LEVEL is STAGE. Similar to 1, there are EASY, NORMAL, and HARD depending on the moving speed of the sphere, and PRACTICE in practice mode is possible before getting used. By jumping straight from the back to the front and quickly seeing the display on the sphere approaching the subject's side and quickly answering it, we can determine the moving visual acuity (KVA) and multiple targets one after another. It measures and trains the ability of eye movement.
  • KVA moving visual acuity
  • STAGE. 3 is a program that trains instantaneous vision (VRT) for quickly perceiving necessary information and eye movement (OMS).
  • VRT instantaneous vision
  • OVS eye movement
  • RANKS are attached from A to E (A is the best), and POINT is calculated by the number of TIME and MISS. LEVEL is STAGE. Similar to 1, there are EASY, NORMAL, and HARD depending on the moving speed of the sphere, and PRACTICE in practice mode is possible before getting used.
  • STAGE. 4 is a program for measuring and training stereoscopic vision ability (DP deep vision) for recognizing the relative positional relationship of a plurality of targets.
  • FIG. 17 first, STAGE. Similar to 1, the upper half of the pseudo sky (blue) and the lower half of the pseudo sea surface (purple) are displayed with a perspective grid pattern across the horizontal line. On the screen, two spheres (yellow) arranged left and right are rotating clockwise and counterclockwise. In the meantime, another sphere (yellow) gradually approaches the screen from a position like a small dot from the horizon at the back of the screen, and then gradually grows up to the size of a fist. It looks like it ’s approaching right in front of you.
  • the subject who has judged when the position of the sphere that gradually increases and moves as the position changes and the positions of the left and right spheres at a certain position, that is, when the three positions are aligned presses the space key, for example.
  • the number of problems is 3 or more. If the distance error is large, the points will be deducted, and the MISS count will increase. When the depth position matches at the right time, pressing the key accurately will be the point to the high score.
  • RANKing is A to E (A is the best), and POINT is calculated by the number of TIME and MISS. LEVEL is STAGE.
  • STAGE. 5 is a program that trains the ability to capture what is around the eye with an image, the ability to respond quickly and accurately to a target captured in the peripheral vision (E / H), and eye movement (OMS).
  • E / H peripheral vision
  • OVS eye movement
  • the screen is displayed with vertical and horizontal perspective glands as if looking through a thin blue box from above, and red and yellow spheres pop out from the bottom of the box.
  • the yellow and white spheres arranged on the left and right are rotated clockwise and counterclockwise as a whole image, and the color of one sphere changes to red at a certain timing.
  • the subject recognizes the change and utters A if the yellow sphere ⁇ red, and B if the white sphere ⁇ red.
  • the number of questions will be 30 questions. If you make a mistake, the number of points will be deducted and the MISS count will increase. Recognizing it quickly will give you a high score by answering correctly.
  • RANKing is A to E (A is the best), and POINT is calculated by the number of TIME and MISS.
  • POINT is calculated by the number of TIME and MISS.
  • LEVEL is STAGE. Similar to 1, there are EASY, NORMAL, and HARD depending on the moving speed of the sphere, and PRACTICE in practice mode is possible before getting used. Reflexes that respond quickly and accurately to the target captured in the peripheral vision by hand are important, and the ability of eye movement to identify multiple targets one after another is measured and trained.
  • Advertisement Video Display Program an advertisement video display program executed in the application execution unit 141 will be described.
  • This advertisement video display program is designed to show a board on which advertising characters such as products are written, and a stereoscopic video in which the product itself is advertised.
  • This advertisement video display program is stored in the memory 15 and is played back according to a command from the application execution unit 141, and a left-eye video and a right-eye video are displayed on the screen of the stereoscopic video display device.
  • there are two types of menus for example, when the advertisement stereoscopic perspective image is selected, FIG. 10 (conceptual display), and when the advertisement stereoscopic direction image is selected, FIG. 11 (conceptual display) is displayed on the display unit 13a. Alternatively displayed.
  • the advertisement stereoscopic perspective image may be an advertisement character drawn on a three-dimensional (three-dimensional) product as shown in FIG.
  • the advertisement stereoscopic video 100a is displayed on the display unit 13a at a position close to the observer (although the image is displayed on the display unit 13a), and then gradually observed. It is displayed away from the person.
  • the advertisement stereoscopic video 100b is displayed in the distance after a predetermined time.
  • a large advertisement stereoscopic video 63 that has popped out is displayed, and then becomes an advertisement stereoscopic video 64 that has moved to the right. Gradually away from the viewer, enter the display unit 13a and become a small advertisement stereoscopic image 65, and finally become the smallest advertisement stereoscopic image 61.
  • a large advertisement stereoscopic image 62 slightly approaching the observer is displayed jumping out from the display unit 13a. The user adjusts the focus of his / her eyes so that the distant advertisement stereoscopic image 100b (61) is clearly visible.
  • the can beverage “ER” product can surely penetrate the trainee.
  • the ciliary body and the eye movement muscles automatically act to adjust the thickness of the crystalline lens so that the letter image is accurately focused on the retina. .
  • the ciliary body and the eye movement muscles act to focus on the retina.
  • the trainee can input in advance the separation speed V1 and the moving range distance L of the advertisement stereoscopic video 100a (61 to 65) and the designation of the voice during training.
  • the moving range distance L is set to 10 m
  • ⁇ Fish, cat, heart shape, star, circle, triangle, square or other 3D characters according to other products and services can be selected.
  • These advertisement stereoscopic images 100a (61 to 65) can be freely set in size and various colors such as red, blue, yellow, purple, orange, pink, or a color stripe pattern can be selected.
  • the healing music data from the memory 15 is sent to the speaker after predetermined processing.
  • the music being trained can be selected from a list of Japanese music classics by Michio Miyagi, classical music by Mozart and Bach, quiet folk songs, gentle sound of the wind, sound of waves, etc. with the consent of the copyright.
  • the moving speed of the advertisement stereoscopic image 100a (61 to 65) is adjusted.
  • the separation speed V1 can be increased to increase the exercise power of the ciliary body, the eyeball moving muscle, and the like.
  • the approach speed V2 can be slowed down so that the motility of the ciliary body and the eyeball moving muscles can be moderated.
  • the separation speed V1 can be slowed down so that the movement of the ciliary body and the eyeball moving muscles can be moderated.
  • the approach speed V2 can be further increased to increase the exercise power of the ciliary body, the eyeball moving muscle, and the like.
  • the advertisement stereoscopic image 100a (61 to 65) approaches very close to the upper left of the left eye and gradually goes farther toward the back of the center of the screen.
  • Corporate CM (advertising) and basic training for visual enhancement can be realized at the same time, and the advertisement stereoscopic video is tracked with the eyes, so that the memory effect on the advertising stereoscopic video works greatly for the observer. If you use a personal computer in your daily workplace, you will be able to receive eye training in a relaxed mental state at a familiar location, and you will be able to increase your concentration on advertising stereoscopic video.
  • the trainee tracks the advertisement 3D image 100a (61 to 65) with both eyes.
  • the face remains facing forward, and the binoculars are moved to display, for example, advertisement characters of the advertisement 3D image 100a (61 to 65). Make it visible (read ER).
  • the ciliary body and the eyeball moving muscles of both eyes move actively or expand or contract to move.
  • the advertisement stereoscopic video 100b gradually approaches the upper right direction of the right eye from the center of the back.
  • the actual advertisement stereoscopic video is displayed on the screen, but in order to view the advertisement stereoscopic video, the trainee's eyes must be focused on the virtual image, so that when a real object approaches closely In addition, both eyes move the ciliary body and the eye movement muscle.
  • the advertisement stereoscopic video 100b (61 to 65) gradually approaches from the center of the back toward the lower right of the right eye. Similarly, this time, the advertisement stereoscopic video approaches very close to the lower left of the left eye and gradually goes farther toward the back of the center of the screen.
  • the visual acuity of the trainee (observer) improves, so the moving speed and route of the corresponding advertisement stereoscopic video are appropriately changed.
  • the advertisement stereoscopic video software itself can be changed to display a different video.
  • Set appropriate values for the speed and speed at which advertising stereoscopic video is far away.
  • Various settings can be made according to the current eyesight of the individual, and various personal data such as the gender, age, constitution, preference, eyesight recovery status, and training frequency of the observer can be collected as necessary. Training customized to personal data is possible.
  • the advertising request company pays monthly advertising fees to the system operating company.
  • the operating company pays a certain fee every month for the advertising place provision fee to the video advertising place company.
  • Companies in video advertising places incur costs when introducing a set of eyesight recovery devices, but by using advertising 3D video as eyesight recovery software, the video advertising place provision fee will be income, recover the initial cost, and continue Will open the way for additional income.
  • the vision recovery program can be used by anyone anywhere in the office, home or commuter train. Even those who are busy with eyesight recovery or those who are negligent in eyesight recovery training will be able to continue training, and if they provide a video advertising place personally, they can earn income.
  • these electronic devices can have an advertisement 3D video display function to forcibly restore eyesight automatically during working hours, and by viewing advertisements, it is possible to create opportunities for secondary income.
  • FIG. 19 is an explanatory view showing an image for binocular examination displayed on the display unit 13a according to the present embodiment, and FIGS. 20A and 20B show how the observer sees the image. It is explanatory drawing shown.
  • the binocular vision inspection program is read from the memory 15 by the application execution unit 141, and on the screen, as shown in FIG. ) And an image for the left eye (dolphins). Then, when an observer looks into the pair of lens portions 21 and 21 and observes these images, when the observer's binocular vision function is normal, as shown in FIG. It looks like the image is placed in place. On the other hand, when the binocular vision function is not normal, the positions of the two images appear to be shifted as shown in FIG. In such a case, a message recommending examination in the ophthalmologist and site information of the affiliated hospital are displayed.
  • the application execution unit 141 may display not only images as shown in FIGS. 19 and 20, but also simple images. Specifically, as shown in FIG. 21A, a circle image may be displayed as the right eye image, and a small circle and a line intersecting the center of the circle may be displayed as the left eye image. . Also, for example, as shown in FIG. 22A, a circle image is displayed as the right eye image, and a triangle image having a size that allows the right eye circle to enter the inside is displayed as the left eye image. May be.
  • the binocular vision inspection program when executed, it can be easily determined whether or not the binocular vision function is normal. Accordingly, it is possible to prevent a person who does not have a normal binocular vision function from viewing a 3D movie and causing video sickness.
  • FIG. 29 is an explanatory diagram showing a schematic configuration of the stereoscopic video distribution system according to the present embodiment.
  • the stereoscopic video distribution system is a system for observing a stereoscopic video via a communication network 7.
  • various service providing servers that provide various services with the management server 5. 6 and the communication network 7 are connected to a wireless base station 4 and an information processing terminal 10 capable of wireless communication through the wireless base station 4.
  • the communication network 7 is constructed by mutually connecting various communication lines (public lines such as telephone lines, ISDN lines, ADSL lines, optical communication lines, dedicated lines, and wireless communication networks) using the communication protocol TCP / IP.
  • This communication network 7 includes not only the Internet but also LANs such as 10BASE-T, 100BASE-TX, and other intranets (home networks) and home networks. .
  • the communication network 7 can be connected via wired connection or WiFi communication.
  • a game device 9 capable of wireless communication with a WiFi router or a wireless LAN router is used as an access point. And the two-way communication between the management server 5 and the game machine 9 can be performed.
  • the wireless base station 4 is a device that is connected to the communication network 7 through a relay device (not shown), establishes a wireless communication connection with the information processing terminal 10, and provides communication and data communication by the information processing terminal 10.
  • the relay device is a node device such as a modem, a terminal adapter, or a gateway device for connecting to the communication network 7, performs communication path selection and mutual conversion of data (signals), the wireless base station 4, and the communication network The relay process between 7 is performed.
  • the management server 5 When viewing stereoscopic video content, the management server 5 performs customer management such as authentication processing of an observer who observes the stereoscopic video, and distributes various programs and video content for the above-described stereoscopic video inspection and eyesight recovery.
  • a server device which is a server computer that transmits information such as an HTML (Hyper Text Markup Language) file, an image file, or a music file in a document system such as WWW (World Wide Web) or software having the function.
  • the management server 5 accumulates information such as HTML documents and images, and transmits such information through an IP network such as the Internet in response to a request from client software such as a Web browser.
  • the management server 5 includes a database 8 for managing customers.
  • the database 8 is associated with customer IDs, in addition to names, telephone numbers, credit card information, and training results such as a vision recovery program. Information and history information such as contents of the viewed stereoscopic video are also included.
  • the various service providing servers 6 are servers that provide various services to the observer through the management server 5.
  • the service providing server 6 includes medical servers such as ophthalmologists and stereoscopic video contents such as movies and dramas.
  • a content distribution server that distributes content, a settlement server that charges for content viewing, and the like.
  • the housing 20 that is a 3D viewer is distributed in, for example, a movie theater or a street corner.
  • a QR code registered trademark
  • the QR code registered trademark
  • the Web site of the server 5 can be accessed.
  • the user can input the keyword of the video observation system on the Web browser or directly enter the URL. Is accessible.
  • an observer who accesses the management server 5 displays a member registration Web page and prompts the user to input information such as the name and address of the observer.
  • the input member information is associated with the newly assigned customer ID and stored in the database 8.
  • information of a new 3D movie guide is transmitted from the management server 5 to the information processing terminal 10 of the observer registered as a member.
  • the management server 5 first confirms the binocular inspection result stored in the database 8.
  • a message requesting the binocular vision inspection is transmitted to the information processing terminal 10 and the binocular vision inspection program is distributed.
  • an image for the eye and an image for the right eye as shown in FIG. 19 are displayed on the display unit 13a by the binocular vision inspection program.
  • the observer observes the image for the left eye and the image for the right eye from the lens portions 21 and 21 of the housing 20, and as shown in FIG. 20A, the two images are arranged at predetermined positions. Or whether the two images appear to be shifted as shown in FIG. 20B.
  • information on the inspection result is transmitted to the management server 5.
  • This inspection result also includes an item indicating whether or not video sickness has occurred when a stereoscopic image for inspection is observed, and this information is also transmitted to the management server 5.
  • the management server 5 obtains information on the examination result in which the stereoscopic image could not be normally observed and information on the examination result in which video sickness occurred, the ophthalmology (hospital) Web in the various service providing servers 6 is acquired.
  • the site information is transmitted to the information processing terminal 10 or a stereoscopic training program is distributed.
  • 3D video content can be downloaded.
  • content such as a 3D movie is distributed from the video content distribution server in the various service providing servers 6.
  • the information on viewing the video content is recorded in the database 8 of the management server 5, and billing processing is performed from the settlement server or the like based on the viewing history information.
  • each program according to the embodiment described above is stored on a portable terminal 171 in which a portable information terminal (PDA) is integrated with a cellular phone / communication function, a personal computer 172 used on the client side, and a network.
  • PDA portable information terminal
  • These programs can be distributed through a communication line, for example, and can be transferred as a package application that operates on a stand-alone computer.
  • Such a program can be recorded on recording media 181 to 85 that can be read by a personal computer.
  • a magnetic recording medium such as a flexible disk 183 and a cassette tape 182 or an optical disk 181 such as a CD-ROM and a DVD-ROM, a USB memory 185, a memory card 184, and the like.
  • a magnetic recording medium such as a flexible disk 183 and a cassette tape 182 or an optical disk 181 such as a CD-ROM and a DVD-ROM, a USB memory 185, a memory card 184, and the like.
  • images for the right eye and the left eye are displayed using the information processing terminal 10 owned by many people, and the others are the minimum such as the pair of lens units 21 and 21. Since it is configured, stereoscopic images can be observed easily and inexpensively without using expensive equipment such as a polarizing lens and a lens shutter control mechanism.
  • the binocular vision function can be trained by a stereoscopic vision training program even for an observer who experiences video sickness, the binocular vision function can be made normal. As a result, stereoscopic video content can be safely viewed.
  • the information processing terminal 10 is installed on the pedestal portion 23, the positional relationship between the pair of lens portions 21 and 21 and the pedestal portion 23 is fixed by the connecting portion 28, and the information processing terminal 10 is fixed by the holding portion 24. Is positioned on the surface of the pedestal 23, so that when the observer views an image from the pair of lens portions 21 and 21, the right eye is focused only on the right eye image, and the left eye is focused on the left eye. This is suitable only for an image for use, and a simple but good stereoscopic image can be observed.
  • the reference display for matching the video position displayed on the display unit 13a is written on the pedestal unit 23
  • only the information processing terminal is arranged based on the reference display.
  • the information processing terminal can be installed at a position where the stereoscopic video can be appropriately observed, and the setting for observing the stereoscopic video can be facilitated.
  • the information processing terminal 10 is based on the information regarding the type of the information processing terminal 10 input from the model information acquisition unit 142, and the size, position, and position of the video displayed on the display unit 13a. Since the aspect ratio is changed and the position of the reference mark indicating the reference position of the video is changed, the setting according to each information processing terminal 10 manufactured by each manufacturer and having a different standard size is possible. As a result, stereoscopic images can be observed with various types of information processing terminals 10, and opportunities for many users to observe stereoscopic images can be increased.
  • the application execution unit 141 uses the convergence angle and the right-eye video as images corresponding to the left-eye video and the right-eye video.
  • the stereoscopic image configured by generating the parallax is displayed and the convergence angle and the parallax of the stereoscopic image are changed, the focus on the observer's eyes is guided to approach and separate from the observer.
  • the observer views the video from the pair of lens units 21 and 21, the right eye is focused only on the right eye image, and the left eye is focused only on the left eye image. The video can be observed.
  • FIG. 8 is a perspective view showing the overall configuration of the stereoscopic image display apparatus according to the second embodiment
  • FIG. 9A is a center for position adjustment displayed on the screen according to the second embodiment. It is a top view explaining a line
  • (b) is a top view explaining a frame which adjusts a stereoscopic image display range.
  • the video observation system in the present embodiment includes a housing 20a and an information processing terminal 10a.
  • the information processing terminal 10a in the present embodiment is larger in size than the information processing terminal 10 in the first embodiment.
  • casing 20 is provided in the front side of the side sheet.
  • the side sheet provided with the pedestal portion 23a is provided with an opening 22a for taking in image light displayed on the display portion 13a.
  • the predetermined area 13b in the display part 13a is located in the position of the opening part 22a provided in the side sheet
  • a pair of video light that is held between the pair of lens portions 21 and 21 and the pedestal portion 23a and displayed on the information processing terminal 10a by the connecting portion 28 inside the housing 20a.
  • the mirror part 29 which reflects toward the lens parts 21 and 21 is provided.
  • the mirror unit 29 has a reflective surface 29a on the surface facing the pair of lens units 21 and 21, and reflects the image light emitted from the opening 22a to the pair of lens units 21 and 21 side. It is arranged in an inclined state so as to make it.
  • the application execution unit 141 executes the position adjustment program, so that the size, position, and aspect ratio of the video displayed on the display unit 13a are determined based on the information regarding the type of the information processing terminal 10a. In addition to the change, the position of the reference mark indicating the reference position of the video is changed.
  • the application execution unit 141 does not display an image on the entire surface of the display unit 13a, as illustrated in FIGS. 9A and 9B.
  • the size, position, and aspect ratio of the video are changed so that the video is displayed in the predetermined area 13b of the display unit 13a.
  • the application execution unit 141 uses a horizontal center line CL4a passing through the center CP2 of the predetermined area 13b as a reference mark indicating the reference position of the video in the predetermined area 13b.
  • the vertical center line CL3a passing through the center CP2 of the screen is displayed.
  • the application execution unit 141 displays an outer frame F1a for expanding and reducing the display range of the stereoscopic video so that the display range can be changed based on a user operation.
  • FIG. 23 is a perspective view showing the overall configuration of the stereoscopic video display apparatus according to the third embodiment
  • FIG. 24 is an exploded view of the housing according to the third embodiment
  • FIG. 25 is a developed view of the holding unit according to the third embodiment
  • FIG. 26 is an explanatory diagram illustrating a state in which the information processing terminal is held by the holding unit according to the third embodiment.
  • the same components as those in the first embodiment described above are denoted by the same reference numerals, and the functions and the like are the same unless otherwise specified, and the description thereof is omitted.
  • the housing 20c in the present embodiment has a substantially rectangular shape formed of paper, plastic or the like, and a pair of lens portions 21 and 21 are provided on the front sheet 206 in the longitudinal direction.
  • a pedestal portion 23 is formed on the back sheet 201 facing the front sheet 206.
  • the back sheet 201 on which the pedestal portion 23 is formed has a top sheet 202, a bottom sheet 203, a right sheet 204, and a left sheet 205 connected to each other through a crease.
  • a front sheet 206 provided with a pair of lens units 21 and 21 on the side opposite to the pedestal 23 is connected to the left side sheet 205.
  • an inner side sheet 207 disposed in the housing 20c at the time of assembly is connected to the front sheet 206 in the opposite direction to the left side sheet 205.
  • the top sheet 202 communicates with the back sheet 201 of the pedestal 23, and has a function as an upper lid when assembled.
  • the information processing terminal 10 can be taken in and out from the inside through the opening when the upper lid is opened.
  • An insertion portion 202a is formed at the distal end portion of the upper surface sheet 202 through a fold at the distal end so as to be inserted into the front sheet 206 portion, and the insertion portion 202a is inserted into the housing 20c. This prevents the outside light from being projected into the housing 20c.
  • the right side sheet 204 is formed with a locking piece 204a at an end portion in the direction opposite to the pedestal portion 23, and this locking piece 204a is the inner side sheet 207 at the time of assembly. Is inserted into and engaged with a locking hole 207b. Further, a locking piece 207a is formed at the left end of the inner surface sheet 207, and this locking piece 207a is a locking hole provided at the right end of the back sheet 201 on which the pedestal portion 23 is formed during assembly. 201a is inserted and engaged. Further, the casing 20c is formed with a margin 208 that is in contact with each sheet and adhered to the right side sheet 204, the left side sheet 205, and the bottom sheet 203 with an adhesive.
  • a holding portion 30 for holding the information processing terminal 10 is formed on the surface (the inner surface at the time of assembly) of the base portion 23 of the casing 20.
  • the holding unit 30 is made of paper, plastic or the like, and extends from the bottom sheet 301 installed on the pedestal unit 23 and the long side of the bottom sheet 301 as shown in FIG.
  • the pair of side fixing pieces 303 and 303 thus formed and the pair of upper and lower fixed sides 302 and 302 extending from the short side are integrally formed.
  • the bottom sheet 301 is formed to be slightly smaller in size than the outer edge of the back sheet 201 of the housing, and a pair of insertion pieces 301 a and 301 a that engage with the pedestal 23 at the end facing the bottom sheet 301. Is formed. Specifically, by inserting the pair of insertion pieces 301a and 301a into the locking hole 201a and the locking hole 201b provided in the back sheet 201 of the housing 20c, the holding unit 30 is attached to the housing 20c. To be fixed.
  • the pair of side fixing pieces 303 and 303 and the pair of upper and lower fixed sides 302 and 302 are formed with crease lines L1, L2, and L3, respectively, and the information processing terminal 10 is bent along the crease lines. A space to be fitted is formed to hold the information processing terminal 10 as shown in FIG.
  • the side sheet 303 and the fold line L1 and the crease line L2 of the upper and lower fixed sides 302 are folded inward, and the crease line L3 is folded outward, whereby a bottom sheet is obtained.
  • a convex shape 304 is formed on the outer edges of the four directions 301.
  • the distance G between the inner surfaces 302 a of the pair of convex shapes 304 formed by the pair of upper and lower fixed sides 302 and 302 matches the length of the long side of the information processing terminal 10. It has become.
  • the distance between the pair of convex shapes formed by the pair of side fixing pieces 303 and 303 matches the length of the short side of the information processing terminal 10.
  • the convex shape can hold down the information processing terminal 10 and fix the information processing terminal 10. Thereby, even if it is a case where the housing
  • a plurality of creases L1, L2, and L3 are displayed based on the size of the information processing terminal 10 of each company, and the distance between the convex shapes can be changed by the selected crease line. . Thereby, the setting according to each information processing terminal manufactured from each maker and having a different standard size is possible.
  • FIG. 35 is a developed view of the cover case according to the fourth embodiment
  • FIG. 36 is a perspective view showing the overall configuration of the cover case according to the fourth embodiment.
  • FIG. 37 is a side view when the cover case according to the fourth embodiment is assembled
  • FIG. 38 is an explanatory diagram illustrating a state in which the lens unit and the mirror unit are folded when not used according to the fourth embodiment. is there.
  • the same components as those in the first embodiment described above are denoted by the same reference numerals, and the functions and the like are the same unless otherwise specified, and the description thereof is omitted.
  • a case where a sheet-like Fresnel lens is used as the lens unit 21 will be described as an example.
  • the cover case 50 that accommodates the information processing terminal 10 is integrally formed by bending from a single piece of plastic, cloth, paper, or the like and folded as shown in the development view shown in FIG.
  • This is a box that can accommodate the information processing terminal 10.
  • Such a cover case 50 includes a right side sheet 504 that is in contact with the side surface of the information processing terminal 10 and a left side sheet 506 from both sides of the bottom sheet 505 serving as the base 23 held by the information processing terminal 10. Are connected via a fold.
  • an upper surface sheet 503 that is in contact with the display portion of the information processing terminal 10 is connected to the opposite side of the bottom sheet 505 via a fold.
  • the top sheet 503 has a function of protecting the display unit 13a, and an opening 503a is formed in the central portion according to the size of the display unit 13a of the information processing terminal 10.
  • a mirror sheet 501 provided with a mirror portion 29 on the opposite side of the right side sheet 504 is connected to the top sheet 503 through a fold.
  • the mirror sheet 501 is provided with a lens sheet 502 provided with a pair of lens portions 21 on the opposite side of the upper surface sheet 503 via a fold, and from the upper and lower edges, the mirror sheet 501 and the lens sheet are provided.
  • light shielding sheets 508 and 509 for preventing external light from entering the inside of the housing are connected via a fold.
  • the light shielding sheets 508 and 509 may not be formed integrally with other sheet members, and may be, for example, cloth members or the like that are locked to the mirror sheet.
  • the light shielding sheets 508 and 509 can be omitted, and can be removed particularly when used indoors.
  • the cover case 50 having such a configuration When the cover case 50 having such a configuration is assembled, as shown in FIG. 36, the bottom sheet 505 and the top sheet 503 are opposed to each other, and the right side sheet 504 and the left side sheet 506 are opposed to each other. Thus, it becomes a substantially rectangular shape inside the air, and the information processing terminal 10 can be taken in and out through the opening 510.
  • the insertion pieces 502a and 502a protruding from the edge of the lens sheet 502 are inserted into and engaged with locking holes 503b formed at the edge of the upper surface sheet. Further, the insertion pieces 506a and 506a protruding from the edge of the left side sheet 506 are engaged with the engagement holes 501a and 501a formed in the edge of the mirror sheet 501.
  • the lens sheet 502 is erected perpendicularly to the surface of the display unit 13a of the information processing terminal 10, and the mirror sheet 501 is approximately 45 with respect to the surface of the display unit 13a. It will be tilted at an angle of degrees.
  • the angle displayed between the mirror sheet 501 and the lens sheet 502 is not limited as long as the image displayed on the display unit 13a is incident on the lens unit 21 reflected by the mirror unit 29 and an observer can observe a stereoscopic image.
  • the display unit 13a emits the image as shown in FIG.
  • the light passes through the opening portion 503a and enters the mirror portion 29, the light is reflected by the reflecting surface 29a and emitted to the pair of lens portions 21 and 21 side.
  • the right-eye image and the left-eye image are incident on the pair of lens units 21 and 21, respectively, and a stereoscopic video can be seen by the observer's eye EY.
  • the pedestal portion 23 of the cover case 50 may be provided with a holding portion that holds the information processing terminal 10.
  • maintenance part 30 like embodiment mentioned above may be sufficient, and another structure may be sufficient.
  • the cover case 50 also has a function as a normal cover case.
  • the cover case 50 is folded so that the lens sheet 502 and the mirror sheet 501 overlap as shown in FIG.
  • the lens sheet 502 is bent so as to be sandwiched between the mirror sheet 501 and the upper surface sheet 503.
  • the information processing terminal 10 can be protected, and the lens units 21 and 21 and the mirror unit 29 are also located inside the sheet, so that the lens, the mirror, and the like are broken by an external impact. Can be prevented.
  • FIG. 42 is a developed view of the cover case according to the fifth embodiment
  • FIG. 43 is a perspective view showing the overall configuration of the cover case according to the fifth embodiment
  • FIG. 44 is a side view when the cover case according to the fifth embodiment is assembled
  • FIG. 45 is an explanatory diagram illustrating a state in which the lens unit and the mirror unit are folded when not used according to the fifth embodiment. is there.
  • the same components as those in the first embodiment described above are denoted by the same reference numerals, and the functions and the like are the same unless otherwise specified, and the description thereof is omitted.
  • a case where a sheet-like Fresnel lens is used as the lens unit 21 will be described as an example.
  • the cover case 60 that accommodates the information processing terminal 10 is integrally formed by cutting out from a single piece of plastic, cloth, paper, or the like and folded as shown in the development view shown in FIG.
  • This is a box that can accommodate the information processing terminal 10.
  • the upper surface sheet 503 that connects the right side sheet 504 and the mirror sheet 503 shown in the fourth embodiment is omitted, and instead, the upper sheet 602 that connects the lens sheet 601 and the mirror sheet 603. It is characterized by the structure provided with.
  • the cover case 60 includes a right side sheet 604 that is in contact with a side surface of the information processing terminal 10 and a left side sheet 606 from both sides of the bottom sheet 605 serving as the pedestal portion 23 held by the information processing terminal 10. And are connected via a fold. Further, the right side sheet 604 is provided with a mirror sheet 603 provided with the mirror portion 29 on the opposite side of the bottom sheet 605 via a fold line, and the mirror sheet 603 is provided on the opposite side of the right side sheet 604.
  • the upper sheets 602 are connected via folds.
  • a lens sheet 601 provided with a pair of lens portions 21 is connected to the upper sheet 602 through a fold line on the opposite side of the mirror sheet 603.
  • a light shielding sheet for preventing external light from entering the housing is not shown, but is not integrally formed with other sheet members. Alternatively, it may be detachably provided with a cloth member or the like.
  • the information processing terminal 10 is slid from the side and stored in the cover case.
  • the information processing terminal 10 placed on the pedestal 23 is used.
  • the information processing terminal 10 is configured to be taken in and out from the upper part, with the holding parts 24a for positioning the parts being arranged at the respective edge parts of the pedestal part 23.
  • a member formed of a flexible member such as sponge or urethane is used as the holding portion 24a, and the holding portion 24a is placed on the pedestal portion 23 so as to be in contact with the side portion of the information processing terminal 10.
  • a mark indicating the attachment location of the holding portion 24a is a size of the information processing terminal 10 of each company so that the information processing terminals of the respective companies are arranged at appropriate positions. A plurality are described corresponding to.
  • seat 606 may be sufficient as the holding
  • the thickness of the holding unit 24a by changing the thickness of the holding unit 24a, the information processing terminal 10 is appropriately held corresponding to the size of the information processing terminal 10 of each company.
  • the holding unit 24a that holds the information processing terminal 10 is a flexible member, but is not limited thereto, and may be the holding unit 24 or the holding unit 30 as in the above-described embodiment. It may be a configuration. Further, the holding unit 24a used in the present embodiment can also be used in other embodiments and modified examples.
  • the bottom sheet 605 and the upper sheet 602 are opposed to each other, and the right side sheet 604 and the left side sheet 606 are opposed to each other. It becomes a nearly pentagonal prism shape in the air.
  • the locking piece 601 a protruding from the edge of the lens sheet 601 is provided with an adhesive member such as a magic tape (registered trademark) or a double-sided tape, and is adhered to the surface of the left side sheet 606. Thereby, as shown in FIG. 43, a three-dimensional shape is maintained.
  • the lens sheet 601 When the cover case 60 is assembled, the lens sheet 601 is erected perpendicular to the surface of the display unit 13a of the information processing terminal 10, and the mirror sheet 603 is approximately 45 with respect to the surface of the display unit 13a. It will be tilted at an angle of degrees.
  • the angle displayed between the mirror sheet 603 and the lens sheet 601 is not limited as long as the image displayed on the display unit 13a is incident on the lens unit 21 reflected by the mirror unit 29 and an observer can observe a stereoscopic image. And
  • the cover case 60 also has a function as a normal cover case.
  • the lens sheet 601 and the mirror sheet 603 are replaced with the upper sheet 602.
  • the lens sheet 601 and the upper sheet 602 are bent so as to be sandwiched between the mirror sheet 603 and the information processing terminal 10.
  • the information processing terminal 10 can be protected, and the lens units 21 and 21 and the mirror unit 29 are also located inside the sheet, so that the lens, the mirror, and the like are broken by an external impact. Can be prevented.
  • Modification Example 1 Next, Modification Example 1 will be described.
  • the right-eye lens uses a lens that focuses only on the right-eye image
  • the left-eye lens uses a lens that focuses only on the left-eye image.
  • the present invention is not limited to this. There is nothing to do, the image for the right eye is formed only on the right eye, and the image for the left eye is formed only on the left eye, and the lens units 21 and 21 may have other configurations.
  • an electronic shutter lens provided with a shutter control mechanism that alternately displays a left-eye image and a right-eye image and opens and closes shutters provided on the left and right lenses in synchronization with the alternate display may be used.
  • the lens units 21 and 21 are provided with an electronic shutter driving unit that drives a shutter, and the electronic shutter driving unit and the information processing terminal 10 are connected by a cable or the like.
  • the application execution unit 141 of the information processing terminal 10 alternately displays the left-eye video and the right-eye video, and transmits a synchronization signal synchronized with the alternate display to the electronic shutter driving unit.
  • the shutters provided on the left and right lenses are opened and closed, so that the left-eye image is directed to the viewer's left eye and the right-eye image is directed to the viewer's right eye on the screen of the display unit 13a. It is possible to allow the observer to recognize a stereoscopic image by alternately passing through the screen.
  • a polarizing filter may be attached.
  • the polarizing sheet 21b is attached to the opening 503a of the top sheet 503 where the lens unit 21 and the display unit 13a are located.
  • the polarizing sheet that can pass only the longitudinal wave and the polarizing sheet that can pass only the transverse wave are used separately for the right eye and the left eye.
  • the right-eye image is formed only on the right eye
  • the left-eye image is formed only on the left eye, so that a stereoscopic image can be observed more reliably and reliably.
  • the place where the polarizing sheet is pasted is not limited to the lens unit 21 and the opening 503a.
  • the polarizing sheet 21b is pasted on the surface of the lens unit 21 and the mirror unit 29.
  • the structure to attach may be sufficient.
  • FIG. 27A is a perspective view showing a housing according to this modification example
  • FIG. 27B is a perspective view showing a packing member for packing the information processing terminal according to this modification example
  • (C) is a perspective view which shows the state which accommodated the housing
  • FIG. 28 (a) is a perspective view showing a housing according to this modification
  • FIG. 28 (b) is a perspective view showing an upper case of a packing member for packing the information processing terminal according to this modification.
  • FIG. 10 is a perspective view showing a lower case of a packing member for packing the information processing terminal according to the present modified example, and (d) in FIG. 10 accommodates the casing according to the modified example in the packing member. It is a perspective view which shows a state.
  • the packaging member used when shipping the information processing terminal 10 is integrally formed by cutting out from a piece of paper or plastic, and is bent into a substantially rectangular shape.
  • a packing member 40a has the top sheet 41 as an upper lid, and the information processing terminal 10 can be taken out by opening the top sheet 41.
  • a holding unit 42 for holding the information processing terminal 10 is provided inside the packing member 40a.
  • the holding unit 42 is a member that holds the side surface portion of the information processing terminal 10, and may be, for example, the holding unit 30 shown in the third embodiment or the holding unit 24a shown in the fifth embodiment. Other configurations may be used.
  • maintenance part differs according to each manufacturer which manufactures a packaging member.
  • the housing 20d is formed of paper or plastic, and as shown in FIG. 27A, the upper surface sheet 210 on which the pair of lens portions 21 and 21 are formed, and the four sides and the fold line of the upper surface sheet 210 are interposed. Are formed from four side sheets. Moreover, the housing
  • the positions of the pair of lens portions 21 and 21 formed on the upper surface sheet 210 are equal to the distance between the central portion of the display portion 13a and each lens portion 21 corresponding to the holding portion 42 for each manufacturer. Is set to
  • the housing 20d is first housed in the state where the information processing terminal 10 is held by the holding portion 42, and then the upper surface.
  • the insertion portion 41a formed at the tip of the sheet 41 is inserted into the housing 20d and shipped.
  • FIG. 27 (c) when observing a stereoscopic image, as shown in FIG. 27 (c), the information processing terminal 10 is placed in the holding unit 42, and the casing 20d is then housed inside the packing member 40a, and the top sheet 41 is in an open state. In this state, the observer observes a stereoscopic image through the pair of lens units 21 and 21.
  • such a simplified housing 20d may be used for a packing member having another shape.
  • a packing member having another shape For example, as shown in FIG. 28B, an upper case 43 having an opening 44 on the lower side and a lower case 45 having an opening 46 on the upper side as shown in FIG. It can also be used.
  • the packing member 40b also has a holding portion 42 for holding the information processing terminal 10 at the bottom portion of the lower case 45.
  • the information processing terminal 10 is placed in the holding portion 42, and then the housing 20d is housed in the lower case 45. Thereafter, the lower case 45 is fitted into the upper case 43 so as to cover it before shipping.
  • the information processing terminal 10 is arranged in the holding unit 42 and the housing 20 d is housed in the lower case 45. In this state, the observer observes a stereoscopic image through the pair of lens units 21 and 21.
  • the kit for observing the stereoscopic image can be bundled with the packing members 40a and 40b for packing the information processing terminal 10, the number of parts is reduced and the manufacturing cost is further reduced. It is possible to provide an opportunity for more users to observe stereoscopic images.
  • the entire information processing terminal 10 is housed inside the housing 20c.
  • a part of the information processing terminal 10 may be disposed outside.
  • the speaker portion is outside, it is possible to prevent the sound from being trapped inside.
  • the information processing terminal 10 has an operation device such as a button, it can be easily operated by arranging the operation device outside.
  • the holding unit 30 has the pair of side fixing pieces 303 and 303 and the pair of upper and lower fixed sides 302 and 302 bent to form the convex portion 304.
  • FIG. 4 the information processing terminal 10 may be held using a holding part 31 formed of a flexible member such as sponge or urethane.
  • the holding unit 31 in this modification is a holding member that holds the information processing terminal 10 from three directions other than the insertion direction when the information processing terminal 10 is inserted from the opening 22. is there.
  • the holding unit 31 has a substantially U-shaped cross section, and holds the information processing terminal 10 by fitting it in this gap.
  • the holding unit 31 includes an adhesive member 32 such as a double-sided tape on the back surface, and the holding unit 31 is attached to the back sheet 201 by the adhesive member 32. It is fixed with respect to the base part 23b.
  • a mark 201c of an attachment location of the holding portion 31 is written so that the information processing terminal 10 is arranged at an appropriate position. .
  • a plurality of the marks 201c are displayed based on the size of the information processing terminal 10 of each company.
  • the holding unit 31 when the holding unit 31 is pasted and fixed to the pedestal portion 23b and the information processing terminal 10 is slid and moved from the opening 22, as shown in FIG.
  • the information processing terminal 10 is stored in the gap.
  • the holding member 31 is formed of a flexible member such as sponge or urethane, so that the holding unit 31 can be deformed according to the shape of the information processing terminal 10.
  • the information processing terminal 10 when the information processing terminal 10 is stored in the holding unit, the information processing terminal 10 can be held without forming a gap between the information processing terminal 10 and the holding unit 31, and the position of the information processing terminal 10 can be further shifted. Can be prevented.
  • such a structure can be used for the holding part in each embodiment and each modification mentioned above.
  • the holding portion may be formed of a synthetic resin such as plastic or a paper member.
  • the housing is separated into two and the focal length is adjusted by the slidable connecting portion 28a.
  • the holding portion that holds the information processing terminal 10 is slid inside the housing 20c.
  • the focal length may be adjusted so as to be movable.
  • the housing 20c and the holding unit 30 described in the third embodiment can be used.
  • the housing 20c is provided with locking holes 201a and 201b in the back sheet 201 serving as a pedestal portion, and in the holding portion 30 as shown in FIG. Are provided with insertion pieces 301a, 301a on the bottom sheet 301.
  • the pair of insertion pieces 301a and 301a are inserted into the locking holes 201a and 201b, and the pair of insertion pieces 301a and 301a are slid to move the holding unit 30 and the lens unit. 21 is changed.
  • the insert pieces 301a and 301a are bent and brought into contact with the back sheet 201, and then the insert piece 301a is attached to the back sheet 201 with an adhesive tape or the like and fixed.
  • a mark corresponding to the information processing terminal 10 of each manufacturer may be written on the surface of the insertion piece 301a.
  • the holding unit 30 is moved based on the mark written on the insertion piece 301a.
  • the focal length can be easily adjusted.
  • a fixing member such as a sponge is disposed inside the space S formed between the back sheet 201 and the bottom sheet of the holding unit 30. May be fixed.
  • the focal length can be adjusted only by arranging the fixing member inside, and the holding unit 30 is supported by the fixing member, so that the position of the information processing terminal 10 is prevented from being displaced. Can do.
  • a plurality of fixing members having different thicknesses may be prepared according to the information processing terminal 10 of each manufacturer. In this case, it is possible to easily focus by simply placing a fixing member corresponding to the information processing terminal 10 of the manufacturer owned by itself. Further, when adjusting the focal length, the holding portion may be fixed by either one of the fixing means using the adhesive tape and the fixing means for arranging the fixing material, or the two fixing means are used in combination. The part may be fixed.
  • Locking Hole 210 ... Upper surface sheet 211 ... Opening 241 ... Vertical fixing part 241a, 242a ... Stopper 241b, 242b ... Both ends 242 ... Side part fixing part 243 ... Cut 244 ... Mark 301 ... Bottom sheet 301a ... Insertion piece 302 ... Vertical fixing Side 303 ... Side fixing piece 304 ... Convex shape 501 ... Mirror sheet 501a ... Locking hole 502 ... Lens sheet 502a ... Insertion piece 503 ... Top sheet 503a ... Opening part 503b ... Locking hole 504 ... Right side sheet 505 ... Bottom sheet 506 ... Left side sheet 506a ... Insertion piece 508, 509 ... Light-shielding sheet 510 ... Opening portion 601 ... Lens sheet 601a ... Locking piece 602 ... Upper sheet 603 ... Mirror sheet 604 ... Right side sheet 605 ... Bottom sheet 606 ... Left side sheet 606 ... Left side sheet 606

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Rehabilitation Tools (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】簡易な構成で且つ安価に立体映像コンテンツを視聴可能とし、視力能力の訓練や、映像酔いが生じるか否かの検査を気軽に行うことができる。 【解決手段】情報処理端末10の表示部13aに表示された映像を観るための映像観察システムであって、観察者の眼前に配置され、左右の眼に対応した箇所に配置される一対のレンズ部21,21と、情報処理端末10が設置される台座部23と、一対のレンズ部21,21と台座部23との位置関係を固定する連結部と、台座部の表面において、情報処理端末の位置決めをする保持部24とを備える。

Description

映像観察システム
 本発明は、情報処理端末の表示部に表示された映像を見るための映像観察システムに関する。
 従来、観察者の左眼及び右眼に互いに視差がある2次元映像である左眼用映像と右眼用映像を、別々に提供して立体視を実現する技術が知られている。左眼用映像を左眼だけに提供し、右眼用映像を右眼用だけに提供する方法としては、例えば、左眼用映像と右眼用映像を交互に表示し、この交互表示と同期して観察者が装着したメガネの左右のシャッタを開閉するシャッタ方式がある。また、例えば、左眼用映像と右眼用映像の偏光方向を異ならせ、観察者が装着したメガネの偏光フィルターにより一方の画像のみが透過するようにする偏光方式がある。更に、HMD(Head Mounted Display)のように、観察者の左右の眼に独立して像を提供する光学系を備えた装置を使う方式もある(例えば、特許文献1)。
 そして、これらのような立体映像技術を用いて、映画、ゲームなど、様々な立体映像コンテンツが配信されている。また、このような立体映像は、眼球移動筋や、動体視力を鍛えるなど、視力回復や、視覚能力の訓練に用いられている。
特開2004-104742号公報
 しかしながら、上記のような偏光フィルター、シャッタ制御機構、又は光学系を備える立体映像装置は、各機器が高価で、且つ部品点数が多いため、製造コストが高いという問題点があった。また、観察者によっては、このような立体映像コンテンツを観察している際、頭痛、吐き気、めまい、眼のかすみなどの、いわゆる「映像酔い」が生じることがある。
 この映像酔いが起こる原因については、解明されていないが、視覚によって得られる動きと、それ以外の身体感覚によって得られる動きとの感覚の相違(例えば視覚上では動いているはずなのに身体は実際には動いていない)によって乗り物酔いと似た症状に至るものと考えられている。特に、左右の眼の網膜でとらえた映像を脳が融合し、ひとつの見やすい映像に修正する機能である両眼視機能が発達過程にある就学時前の小児や、両眼視機能が正常でない成人では、このような映像酔いが生じ易い。
 そのため、立体映像に対して映像酔いが生じるか否かは、事前に立体映像を観察したり、病院等で検査等する必要がある。しかしながら、立体映像装置は高価であるため気軽に立体映像を観察、検査することができないという問題もある。
 そこで、本発明は以上の点に鑑みてなされたもので、簡易な構成で、且つ安価に立体映像コンテンツを視聴可能とし、立体映像を観察する機会を増やすことができる映像観察システムを提供することをその課題とする。
 上記課題を解決するために、本発明は、情報処理端末の表示部に表示された映像を見るための映像観察システムであって、観察者の眼前に配置され、左右の眼に対応した箇所に配置されるレンズ部と、前記情報処理端末が設置される台座部と、前記レンズ部と前記台座部との位置関係を固定する連結部と、前記台座部の表面において、前記情報処理端末の位置決めをする保持部とを備えることを特徴とする。
 また、他の発明は、情報処理端末の表示部に表示された映像を見るための映像観察システムであって、観察者の眼前に配置され、左右の眼に対応した箇所に配置されるレンズ部と、前記情報処理端末が設置される台座部と、前記レンズ部と前記台座部との位置関係を固定する連結部と、前記連結部により、前記レンズ部と前記台座部との間に保持され、前記情報処理端末に表示された映像光を前記レンズ部に向けて反射させるミラー部とを備えることを特徴とする。
 これらのような発明によれば、多くの人が所有する情報処理端末を用いて右眼用及び左眼用の画像を表示させ、その他は、レンズ部やミラー部など最低限の構成としているので、偏光レンズやレンズシャッタ制御機構など高価な機器を用いることなく、簡易且つ安価に立体映像を観察させることができる。なお、上記発明において、「情報処理端末が設置される」という形態としては、台座部上に情報処理端末が載置、係合又は収納などの方式の他、台座部が情報処理端末上に載置、係合等の工程方式などが挙げられる。
 したがって、情報処理端末以外の構成部材を多く製造して、配布することができるため、多くのユーザーに立体映像を観察させる機会を増やすことができ、視力能力の訓練や、映像酔いが生じるか否かの検査を行わせることができる
 また、本発明では、台座部に情報処理端末を設置され、連結部によってレンズ部と台座部との位置関係を固定するとともに、保持部によって情報処理端末を台座部の表面において位置決めするので、観察者がレンズ部から映像を見た際には、右眼の焦点は右眼用画像のみに合い、左眼の焦点は左眼用画像のみに合うことなり、簡易ながらも良好な立体映像を観察することができる。
 上記発明において、台座部には、表示部に表示された映像位置に合致させるための基準表示が記されていることが好ましい。この場合には、基準表示に基づいて情報処理端末を配置させるのみで、立体映像が適切に観察することができる位置に情報処理端末を設置することができるので、立体映像を観察するための設定を容易にすることができる。
 上記発明において、情報処理端末は、映像を表示させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部に対し当該情報処理端末の種別に関する情報を入力する機種情報取得部とを備え、プログラムは、機種情報取得部から入力された種別に関する情報に基づいて、表示部に表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更することが好ましい。
 この場合には、情報処理端末の機種に応じて、表示部に表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更するので、各メーカーから製造され、規格サイズの異なる各情報処理端末に応じた設定が可能となる。これにより、様々な種類の情報処理端末で立体画像を観察させることができ、多くのユーザーに立体映像を観察させる機会を増やすことができる。
 上記発明において、情報処理端末は、映像を表示させるためのプログラムが実行されるアプリケーション実行部を備え、プログラムは、映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させるとともに、立体映像の輻輳角及び視差を変化させて、観測者の眼に対する焦点を、観察者に対して接近及び離隔するように誘導することが好ましい。この場合には、プログラムは、立体映像の輻輳角及び視差を変化させて映像を表示するので、観察者がレンズ部から映像を見た際には、右眼の焦点は右眼用画像のみに合い、左眼の焦点は左眼用画像のみに合うことなり、良好な立体映像を観察することができる。
 上記発明において、情報処理端末は、映像を表示させるためのプログラムが実行されるアプリケーション実行部と、音声を認識し、その認識結果をアプリケーション実行部に入力する音声認識部とを備え、プログラムは、音声認識部から入力される認識結果に基づいて、画像を変化させることが好ましい。この場合には、ユーザーから発せられた音声を認識することができるので、例えば、視力回復や動体視力の訓練をキー操作不要で簡易に行うことができる。
 上記発明において、プログラムは、映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させるとともに、立体映像中に、仮想空間内における位置及び向きが変化するオブジェクトを表示し、仮想空間内におけるオブジェクトの出現時間、及びその間における当該オブジェクトの変位及び向きの変化を測定するとともに、音声認識部における音声の認識結果と、測定の結果とを記録することが好ましい。この場合には、表示部上に仮想空間内における位置及び向きが変化するオブジェクトを表示させたり、そのオブジェクトを変化させているので、観察者がこのオブジェクトを眼で追うことで、眼の各種筋肉を活性化させ、以て視力を回復させることができる。
 以上述べたように、この発明によれば、スマートフォンや携帯電話、タブレットPCなどの情報処理端末の表示部に表示された映像を、立体視する際に、紙や布などの安価な部材による簡易な構成で、製造コストを低廉化しつつ、立体映像コンテンツを視聴可能とし、立体映像を観察する機会を増やすことができる。
第1実施形態に係る立体映像表示装置の全体構成を示す斜視図である。 第1実施形態に係る筐体を展開した展開図である。 第1実施形態に係る台座部を示す平面図である。 第1実施形態に係る情報処理端末を筐体内に配置させた状態を示す斜視図である。 第1実施形態に係る情報処理端末の内部構造を示すブロック図である。 (a)は、第1実施形態に係る画面上に表示される位置調整用の中心線を説明する説明図であり、(b)は、立体映像表示範囲を調整する枠を示す説明図である。 第1実施形態に係る筐体の長さ調整機構を示す斜視図である。 第2実施形態に係る立体映像表示装置の全体構成を示す斜視図である。 (a)は、第2実施形態に係る画面上に表示される位置調整用の中心線を説明する平面図であり、(b)は、立体映像表示範囲を調整する枠を説明する平面図である。 第1実施形態に係る視力回復方法が立体遠近映像の場合を説明する図である。 第1実施形態に係る視力回復方法を方向遠近トレーニング法として説明する図である。 第1実施形態に係る視覚能力を測定し訓練する動作全体のフローチャートである。 第1実施形態に係る視覚能力を測定し訓練する各動作の共通フローチャートである。 第1実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄が球体でC状マークと数字が描かれた図である。 第1実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄が球体で文字が描かれた図である。 第1実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄がトランプのカードである図である 第1実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄が3個の球体である図である。 第1実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄が2個の色付き球体である図である。 第1実施形態に係る広告立体映像の移動例を示す図である。 (a)は、第1実施形態に係る表示部上に表示される立体視検査用の画像を示す説明図であり、同図(b)及び(c)は、観察者の画像の見え方を示す説明図である。 (a)は、第1実施形態に係る表示部上に表示される立体視検査用の画像を示す説明図であり、同図(b)及び(c)は、観察者の画像の見え方を示す説明図である。 (a)は、第1実施形態に係る表示部上に表示される立体視検査用の画像を示す説明図であり、同図(b)及び(c)は、観察者の画像の見え方を示す説明図である。 第3実施形態に係る立体映像表示装置の全体構成を示す斜視図である。 第3実施形態に係る筐体を展開した展開図である。 第3実施形態に係る保持部を展開した展開図である。 第3実施形態に係る保持部により情報処理端末を保持する状態を示す説明図である。 (a)は、変更例に係る筐体を示す斜視図であり、同図(b)は、本変更例に係る情報処理端末を梱包する梱包部材を示す斜視図であり、同図(c)は、変更例に係る筐体を梱包部材に収納した状態を示す斜視図である。 (a)変更例に係る筐体を示す斜視図であり、同図(b)は、本変更例に係る情報処理端末を梱包する梱包部材の上部ケースを示す斜視図であり、同図(c)は、本変更例に係る情報処理端末を梱包する梱包部材の下部ケースを示す斜視図であり、同図(d)は、変更例に係る筐体を梱包部材に収納した状態を示す斜視図である。 本実施形態に係る立体映像配信システムの概略構成を示す説明図である。 変更例に係る情報処理端末を筐体に配置させた状態を示す斜視図である。 (a)は、変更例に係る保持部を示す上面図であり、同図(b)は、その側面図であり、同図(c)は、同図(a)のA-A断面図である。 (a)は、変更例に係る保持部が貼り付けられる台座部を示す上面図であり、同図(b)は、保持部によって情報処理端末が保持された状態を側面より示す説明図である。 変更例に係る焦点距離調整機構を示す説明図である。 実施形態に係る表示部に表示される立体映像用の表示態様を示す説明図である。 第4実施形態に係るカバーケースを展開した展開図である。 第4実施形態に係るカバーケースの全体構成を示す斜視図である。 第4実施形態に係るカバーケースを組み立てた際の側面図である。 第4実施形態に係る未使用時にレンズ部及びミラー部を折りたたむ状態を示す説明図である。 (a)及び(b)は、変更例に係るレンズ部に偏光シートを貼り付けた状態を示すカバーケースの展開図である。 実施形態に係る映像観察プログラムを記録したコンピュータ読み取り可能な記録媒体を示す説明図である。 実施形態に係る表示部に表示される立体映像用の表示態様を示す説明図である。 第5実施形態に係るカバーケースを展開した展開図である。 第5実施形態に係るカバーケースの全体構成を示す斜視図である。 第5実施形態に係るカバーケースを組み立てた際の側面図である。 第5実施形態に係る未使用時にレンズ部及びミラー部を折りたたむ状態を示す説明図である。
 以下、本発明に係る3Dビューワーである立体映像表示装置の実施形態について図面を参照しつつ、詳細に説明する。
[第1実施形態]
 図1は、第1実施形態に係る立体映像表示装置の全体構成を示す斜視図であり、図2は、第1実施形態に係る筐体を展開した展開図である。図3は、第1実施形態に係る台座部を示す平面図であり、図4は、第1実施形態に係る情報処理端末10を筐体内に配置させた状態を示す斜視図である。
 図1に示すように、本発明に係る映像観察システムは、情報処理端末10の表示部13aに表示された映像を見るためのシステムであって、略長方形状の筐体20と、情報処理端末10とから構成される。
 筐体20は、例えば、紙やプラステック等から形成され、図1に示すように、上面シートにおいて、左右の眼に対応した箇所に配置される一対のレンズ部21,21が配置されるとともに、この一対のレンズ部21,21が備えられた上面と対向する下面シートには、情報処理端末10が設置される台座部23が設けられている。そして、この台座部23と、レンズ部21,21との位置関係を固定する連結部28とが設けられている。一対のレンズ部21は、焦点に作られた実像を拡大する凸状の接眼レンズである。なお、レンズの形状は、限定するものでははく、例えば、通常の凸レンズを同心円状の領域に分割し厚みを減らして、のこぎり状の断面を持つシート状のフレネルレンズを用いてもよい。
 また、筐体20は、上面シート及び下面シートを連結する側面シートが連結部28となり、連結部28における長手方向の距離は、観察者が一対のレンズ部21,21から映像を見た際に立体映像を良好に見ることができるように所定の長さとなっている。この側面シートと、上面シート、及び下面シートとは、図2に示すように、一枚紙から切り抜くことにより一体形成されており、折り曲げることで図1に示すように略長方形状の筐体となる。
 さらに、台座部23の表面(組み立て時には内面)には、情報処理端末10の位置決めをする保持部24が形成されている。保持部24は、図3に示すように、一対の上下固定部241,241、と、一対の側部固定部242,242とを有している。
 上下固定部241及び一対の側部固定部242は、それぞれ、両端部分241b,242bが台座部23となる下面シートに形成された切り目243に挿通されており、切れ目243の長さ分スライド移動可能となっている。
 また、一対の上下固定部241,241及び一対の側部固定部242,242は、シートの外縁側において、筐体内部方向に折り曲げ可能なストッパー241a,242aを備えている。このストッパー241a,242aは、図4に示すように、台座部23上に情報処理端末10を配置させた際、折り曲げて情報処理端末10の側面に当接させることで、情報処理端末10の位置ずれを防止するようになっている。
 また、台座部23には、表示部13aに表示された映像位置に合致させるための基準表示が記されている。具体的には、図3に示すように、台座部23のシート中心点CP1を通過する上下方向及び左右方向に伸びる中心線CL1及びCL2が表示されている。表示部13aに表示された中心線と合わせることで情報処理端末10を適切な映像位置に合わせることができるようになっている。また、台座部23には、情報処理端末10が設置された際、情報処理端末10の外縁部分が位置する箇所にマーク244が記されている。このマーク244は、各社の情報処理端末10のサイズに基づいて複数表示されている。
 また、筐体20には、連結部28となる側面シートの台座部23寄りに情報処理端末10を内部に収納させる開口部22が設けられている。なお、この開口部22は、情報処理端末10を内部に収納させた際には、蓋部材で覆い外光が内部に入らないようにしてもよい。更に、筐体20には、立体映像を観察する際に、情報処理端末10を操作するための操作孔25が側面シートに設けられている。なお、操作孔25から情報処理端末10を出し入れする構成とし、開口部22を省略してもよい。なお、図面上は、一対のレンズ部21,21を上部に配置しているが、使用時には、例えば、観察者が筐体20を持ち上げ、情報処理端末10が倒れない程度に筐体20を傾けて立体映像を観察する。
 さらに、本実施形態において、連結部28は、一体化された側面シートによって形成したが、例えば、図7に示すように、側面シートを切り離し、一対のレンズ部21,21が形成される筐体20aと、台座部23が形成される筐体20bとで分離させてスライド可能な連結部28aを形成させてもよい。この場合には、観察者や各メーカーの情報処理端末10によって異なる焦点位置を自由に設定することができるので、より良好な立体映像を観察することができる。
 一方、情報処理端末10は、無線通信を利用した、携帯可能な電話機であり、基地局等の中継点と携帯電話機が無線で通信し、通話やデータ通信等の通信サービスを移動しつつ受けることができる。この携帯電話機の通信方式としては、例えば、FDMA方式、TDMA方式、CDMA方式、W-CDMAの他、PHS(Personal Handyphone System)方式等が挙げられる。また、この携帯電話機は、デジタルカメラ機能、アプリケーションソフトの実行機能、あるいはGPS(Global Positioning System)などによる位置情報取得機能等、種々の機能が搭載され、携帯情報端末(PDA)としての機能も果たす。
(情報処理端末10の内部構造)
 次いで、情報処理端末10の内部構造について説明する。図5は、本実施形態に係る情報処理端末の内部構造を示すブロック図であり、図6(a)は、第1実施形態に係る画面上に表示される位置調整用の中心線を説明する説明図であり、(b)は、立体映像表示範囲を調整する枠を示す説明図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、あるいはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
 情報処理端末10には、図5に示すように、ユーザーインターフェース系のモジュールとして入力インターフェース12と、出力インターフェース13とを備えている。入力インターフェース12は、操作ボタンやタッチパネル、ジョグダイヤルなどユーザー操作を入力するデバイスである。また、入力インターフェース12には、音声を取得するマイクロフォン12aを備えている。
 出力インターフェース13は、ディスプレイやスピーカなど、映像や音響を出力するデバイスである。特に、この出力インターフェース13には、液晶ディスプレイなどの表示部13aが含まれており、アプリケーション実行部141によって実行された各種のプログラムに応じた立体映像等を、この表示部13aに表示する。
 また、情報処理端末10には、本発明の立体映像を表示させる機能モジュールとして、制御部14と、メモリ15とを備えている。メモリ15は、OS(Operating System)や本実施形態に係る、立体映像コンテンツや、視力測定等の各種プログラム、その他、当該端末に搭載される各種のアプリケーション用のプログラム、当該端末の機器識別情報(ID)などを記憶する記憶装置である。
 制御部14は、CPUやDSP(Digital Signal Processor)等のプロセッサ、メモリ、及びその他の電子回路等のハードウェア、あるいはその機能を持ったプログラム等のソフトウェア、又はこれらの組み合わせなどによって構成された演算モジュールであり、プログラムを適宜読み込んで実行することにより種々の機能モジュールを仮想的に構築し、構築された各機能モジュールによって、画像データに関する処理や、各部の動作制御、ユーザー操作に対する種々の処理を行うモジュールである。
 本実施形態において、制御部14には、アプリケーション実行部141と、機種情報取得部142と、音声認識部143とを備えている。機種情報取得部17は、アプリケーション実行部141に対し情報処理端末10の種別に関する情報を入力するモジュールである。音声認識部18は、音声を認識し、その認識結果をアプリケーション実行部に入力するモジュールであり、端末に設けられたマイクロフォン12aから音声データを取得し、音声認識処理により分析することで、音声データから音響的な特徴量を取出してどのような内容かを解析する。
 本実施形態においては、原則として、視力能力に関するプログラムが実行されると、観察者の操作は、音声によって受け付けるようになっている。しかしながら、例えば、タッチパネルに対する操作を受け付けたり、別途ケーブル等でマウスやキーボード等の操作デバイスを接続してその操作デバイスに基づいて観察者の操作を受け付けたりしてもよい。
 アプリケーション実行部141は、一般のOSやブラウザソフト、メディア視聴アプリケーションなどのアプリケーションを実行するモジュールであり、通常はCPU等により実現される。本実施形態において、アプリケーション実行部141は、視力能力に関する各種のプログラム(視力能力測定プログラムや視力能力訓練プログラム等)を実行し、メモリ15に記録された立体映像コンテンツを表示部13aに表示させるとともに、視力測定等の演算処理を行うモジュールである。
 このアプリケーション実行部141において、本発明に係る各種プログラムが実行されると、映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を画面上に表示させるとともに、立体映像の輻輳角及び視差を変化させて、観測者の眼に対する焦点を、観察者に対して接近及び離隔するように誘導する。これによって右眼には右眼用映像のみ焦点が合うとともに、左眼には左眼用映像のみ焦点が合うようになり、良好な立体映像が観察することができる。
 ここで、表示部13aに表示させる画像は、映像を表示する表示部13aと、一対のレンズ部21,21との位置関係によって、映像の表示を変更するようになっている。具体的には、図1に示すように、表示部13aとレンズ部21とが対面する構成の場合には、図34(a)に示すように、画像を回転及び反転させずに表示するが、後述するように、表示部13aとレンズ部21とが対面せず、ミラーを使って観察者に映像を見せる場合には、先ず、図34(b)に示すように、上下方向の反転を行い、その後、図34(c)に示すように、右眼用画像及び左眼用画像をそれぞれ分離して左右方向の反転を行う。
 なお、図41(a)に示すように、通常の画像は、表示部13a上に1つの画像が表示されるが、サイドバイサイド方式の立体映像を表示部13aに表示させると、右眼用映像信号の1フレーム及び左眼用映像信号の1フレームの、2つのフレームをそれぞれ水平方向に1/2に圧縮し、それらを横に並べて1枚のフレームとして表示することとなり、図41(b)に示すように、縦長の画像となってしまい、このような画像を、レンズ部21を介して見ると、正しい立体映像を観察することはできない。
 したがって、アプリケーション実行部141は、表示部13a上に右眼用画像及び左眼用画像を表示させる際、画像の縦横サイズの比率が維持されるように縮小させて、表示部13a上に表示させる。具体的には、図41(b)に示すような2フレームの画像の縦を、図41(c)に示すように、通常の1フレーム画像の縦横比と同じになるように縮小させる。この際、レンズ部21に応じて立体映像を画面の上下に移動させるようになっている。また、図41(d)に示すように、情報処理端末の機種によっては、さらに、右眼用画像及び左眼用画像を縮小させることも可能である。この場合であっても、それぞれの画像の縦横比は維持されたまま縮小させ、レンズ部21に応じて立体映像を画面上に所定位置に移動させるようになっている。なお、各種のプログラムについての詳細は後述する。
 なお、アプリケーション実行部141では、立体映像を表示する前に、機種情報取得部17から入力された種別に関する情報に基づいて、表示部13aに表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更する。具体的には、メモリ15に位置調整プログラムが記録されており、アプリケーション実行部141が位置調整プログラムを実行すると、図6(a)に示すように、画面の中心CP1を通過する横方向の中心線CL4と、画面の中心CP1を通過する縦方向の中心線CL3とが表示される。情報処理端末10を筐体20内に配置させる際には、この中心線CL3及びCL4が、台座部23に記された中心線CL1及びCL2と重なるように配置させることで、情報処理端末10を適切な位置に配置させることができる。
 また、メモリ15には、立体映像の表示範囲を拡縮させるプログラムも蓄積されており、ユーザー操作によって表示範囲変更操作が行われると、アプリケーション実行部141は、図6(b)に示すように外枠F1が表示される。この外枠F1は、入力インターフェース12からの操作に応じて、外枠F1を拡大又は縮小させ、表示範囲を変更させる。
 さらに、情報処理端末10には、通信インターフェース系のモジュールとして、通信インターフェース11を備えている。通信インターフェース11は、データ通信を行うための通信インターフェースであり、無線等による非接触通信や、ケーブル,アダプタ手段等により接触(有線)通信をする機能を備えている。カメラ16は、静止画、又は動画を撮影する撮像装置であって、レンズと、CCD、又はCMOSである固定撮像素子から構成され、入射された被写体像を表す光がCCDの受光面に結像され、カメラ信号処理回路及びA/D変換器等を介して、画像データを生成する。
(各種プログラムについて)
 次いで、上述したアプリケーション実行部141において実行される各種のプログラムについて説明する。
(1)視力回復用プログラム
 初めに、アプリケーション実行部141において実行される視力回復プログラムについて説明する。図10は、本実施形態に係る視力回復方法が立体遠近映像の場合を説明する図であり、図11は、本実施形態に係る視力回復方法を方向遠近トレーニング法として説明する図である。
 プレーヤが端末10を操作すると、メモリ15から、視力回復プログラムがアプリケーション実行部141により読み出される。プレーヤが即観察者や訓練者に自動的に成り変ることになる。メニューには例えば立体遠近映像と立体方向性映像とがあり、立体遠近映像を選択すると図10(概念的に表示)が、また立体方向性映像を選択すると図11(概念的に表示)が表示部13aに択一的に表示される。
 立体遠近映像の場合には、図10において、表示部13aにはレンズ部21に接近した位置(画像は表示部13aに写るが)には、立体映像100aが表示され、その後次第にレンズ部21から遠ざかって表示される。やがて所定時間後には遠くに立体映像100bが表示される。レンズ部21,21を覗いた観察者は立体映像100bをはっきり視認するように自己の眼の焦点調整を行う。
 訓練者は立体映像100aが文字である場合は、文字を読むように努力する。この時自動的に毛様体と眼球移動筋等が活動して、水晶体の厚みを調整し、文字像が正確に網膜上に焦点を結ぶようになる。文字を読むために、網膜上に焦点を結ぶように毛様体と眼球移動筋等が活動する。立体遠近映像の場合には、訓練者は予め、立体映像100aの離隔速度V1と移動範囲距離Lと訓練中の音声の指定を入力できる。例えば移動範囲距離Lを10mに設定し、離隔速度V1=10m/6秒と接近速度V2=10m/12秒等を入力インターフェース12に基づいて入力する。
 立体映像100aのその他の形状については、例えば、魚、猫、ハート形、星、円、三角、四角あるいはその他の立体キャラクター等が選択できる。又これらの立体映像100aはそれぞれ大きさも自由に設定できるとともに、その色彩についても赤、青、黄、紫、橙、ピンク、あるいは色縞模様など各種選択できる。メモリ15からの音声データは所定処理の後スピーカに送られる。訓練中の音声は例えば島崎藤村の詩の朗読や古典音楽、歌謡曲、ポップス、ジャズ、民謡又は風の音、波の音等を一覧から各種選定できる。
 立体映像の移動距離を割る時間の秒数を大又は小に設定することで、立体映像100aの遠ざかる速度を調整する、若年者で近視の訓練者は遠くが見え難いので、離隔速度V1を早く(時間の秒数を小に設定)して毛様体と眼球移動筋等の運動力を高めるようにできる。若年者で近視の訓練者は近くは良く見えるので、接近速度V2は遅く(時間の秒数を大に設定)して毛様体と眼球移動筋等の運動力を緩やかにできる。
 一方年配者の遠視の訓練者は遠くが良く見えるので、離隔速度V1を遅く(時間の秒数を大に設定)して毛様体と眼球移動筋等の運動力を緩やかにできる。 年配者の遠視の訓練者は近くが見え難いので、接近速度V2を早く(時間の秒数を小に設定)して毛様体と眼球移動筋等の運動力を高めるようにできる。パソコン等で事務作業を始める前や途中の休憩時間に、終了時に約3、4分毎回この訓練を実行する。方向遠近トレーニング法の類似方法では、図11に示すように立体映像100aが左眼の左上に極めて近くまで接近し、次第に画面中央の奥に向かって遠のいて行く。
 立体映像が遠のく速度や近づく速度は入力インターフェース12から適当の数値を設定できるようにする。この立体映像100aを訓練者は両眼で追跡する、この時顔は正面を向いたままとし、両眼球を動かして立体映像100aの例えば文字を視認(焦点を合わせる)するようにする。両眼で追跡することで、両眼の毛様体と眼球移動筋等が活発に動くか動こうと伸びたり縮んだりする。
 次に立体映像100bは奥の中央部から次第に右眼の右上方向に向かって近づいてくる。実際の立体映像は画面上に表示されるが、立体映像を視認するためには、訓練者の両眼を虚像に焦点を合わせなければならないので、現実の物体が離隔接近する時のように、両眼は毛様体と眼球移動筋等を動かすことになる。更に、立体映像が右眼の右上に極めて近くまで接近し、次第に画面中央の奥に向かって遠のいて行く。
 また次に立体映像100bは奥の中央部から次第に右眼の右下方向に向かって近づいて来る。同様に今度は立体映像が左眼の左下に極めて近くまで接近し、次第に画面中央の奥に向かって遠のいて行く。これら接近・離隔の位置と速度や移動順序はいろいろと入力インターフェース12から予め訓練者の視力に応じて適当に設定できる。
 この方法でも入力インターフェース12により立体映像100aはそれぞれ大きさも自由に設定できるとともに、その色彩についても赤、青、黄、紫、橙、ピンク、又は色縞模様など一覧表から各種選択できる。訓練中の音声も例えば詩の朗読や古典音楽、歌謡曲、ポップス、ジャズ、民謡又は風の音、波の音等を一覧表から各種選定できる。
(2)視覚能力測定用プログラム
 次いで、アプリケーション実行部141において実行される視覚能力測定プログラムについて説明する。図12は、本実施形態に係る視覚能力を測定し訓練する方法の動作全体のフローチャートであり、図13は、本実施形態に係る視覚能力を測定し訓練する方法の各動作の共通フローチャートである。
 図14及び図15は、本実施形態に係る視覚能力を測定し訓練する方法において、画面上に表示される立体図柄が球体であり、C字状のマークと数字が描かれた図であり、図15は、本実施形態に係る視覚能力を測定し訓練する方法で表示する立体図柄が球体で文字が描かれた図である。更に、図17は、実施形態に係る視覚能力を測定し訓練する方法において、画面上に表示される立体図柄が3個の球体である。
 図12に示すように、本実施形態では、測定・訓練処理STAGE.1~STAGE.5を選択することにより、動体視力と眼球運動能力、瞬間視力、立体視能力、周辺視野能力の全ての測定が可能である。図13は、STAGE.1、STAGE.2、STAGE.3、STAGE.4、STAGE.5のフローの共通フローチャートである。
 STAGE.1は、横方向への動体視力(DVA)と、眼球運動(OMS)を測定し鍛えるプログラムであり、図13のフローチャートに従って、図14を参照しながら説明する。本実施形態のSTAGE.1においては、先ず画面には上半分の擬似空(青色)と下半分の擬似海面(紫色)とが水平線を挟んで遠近法の格子模様とともに表示される。
 次に、遠く、画面奥の水平線から小さな点のような緑又は黄色の球体が発生し、基準となる画面に左右に浮遊しながら近づいてきて次第に大きくなり、ついには拳ほどの大きさになって画面から飛び出し、浮遊しながら観察者(以下被験者という)の目前にまで迫ってくるように見える。
 測定・訓練では、被験者は、先ず、図14に示すように表示部13a上に表示された球体を凝視して左右に浮遊しながら飛び出す球体に描かれたランドルマーク(Cマーク)の切れている方向を上下右左と発声することで回答する。その回答の音声は、音声認識された後、アプリケーション実行部141において正誤判定される。なお、本実施形態において、球体に描かれた図形は、ランドルマーク(Cマーク)としたが、例えば、スネレン視力表で用いられるアルファベットであってもよく、又は平仮名であってもよい。
 次に図15に示すように、左右に浮遊しながら飛び出す球体に描かれた0~9までの数字を発声することで回答する。アプリケーション実行部141ではその正誤を判定する。このSTAGE.1では正確さとスピード感が重要である。ランドルマークや数字が描かれた球体は、次々と発生し、位置と大きさが異なるが、複数個が同時に表示され、回答するまで、複数の目標を次々に見極める眼球運動が測定され、鍛えられる。
 問題数、即ち球体の発生回数をそれぞれ50問とし、間違えると、減点となりMISSのカウントが増え、正解すると得点が増え、球体が破裂する。回答時間の長短も考慮され、早く正確に、回答することが、高得点へのポイントである。問題数(50個)が終わるまで繰り返し実行され、回答結果は集計され、記録される。
 RANK(評価)付けはA~E(Aが一番よい)で行い、TIME(時間)とMISS(誤)の数により得点(POINT)が算出される。測定と訓練LEVELは、EASY(容易)、NORMAL(普通)、HARD(高度)で行うことができる。
 被験者(観察者)が慣れるまで、PRACTICE(練習モード)で練習できる。EASYでは、球体の動きが遅く、NORMALではゆっくりで、HARDは早い速度で浮遊し移動する。被験者は球体上に描かれた表示を見極めながら球体を観察し、球体が大きくなる前に素早く正確に回答を入力するほど得点は高くなる。
 被験者は測定と訓練内容について、予め説明を受けているので、3次元空間を左右に浮遊しながら飛び出す球体を眼で追い掛ける。しかし球体に描かれたランドルマークの切れている方向や、数字や文字(アルファベットや平仮名等)は乱数的に決められるので、これらがどの方向で何であるかを見極めようと視覚神経を集中する。3次元空間を移動する球体を注視追跡することで、焦点距離を調整する必要に責められるようになり、眼の周りの毛様体、毛様体筋、チン小帯、水晶体、及び眼を覆っている外膜のきょう膜、上直筋、下直筋、下斜筋、上瞼挙筋、眼輪上・下筋が活発に動くことになる。
 移動する球体の像は次々と眼の網膜、視神経、視束考査、外側膝状体、視覚(野)皮質に生体信号として伝わる。脳の視覚(野)皮質では球体の生体信号を脳の判断部に送り、ランドルマークの切れている方向、数字、又は文字(アルファベットや平仮名等)を判断して、手に生体制御信号を送り、手の指は回答をキーに入力する。
 球体を常時把握し、早期に切れている方向がどこか、又は数字が何であるかを見極めようと努力するので、眼の周りの各種筋肉が鍛えられ、水晶体が有効に伸び縮みされてその弾力性を活性化され、視神経系が情報伝達を活発化するように鍛えられる。STAGE.1の終了後次に別の任意STAGEに進むことができる、そのまま終了してもよい。
 STAGE.2は、縦方向への動体視力(KVA)と、眼球運動を鍛えるプログラムである。図16において、同心円で示すブラックホール状の画面中心から球体が直線的に飛び出してくるが、スピード感と正確さが重要である。問題数は30問~50問であり、間違えると減点となりMISSのカウントが増え、正解すると球体が破裂し、早く正確に、回答することが高得点へのポイントである。RANK付けはA~E(Aが一番よい)で、TIMEとMISSの数によりPOINTが算出される。操作方法は、被験者が画面奥から手前に飛び出してくる球体に描かれたアルファベットの文字を判定し、アルファベットのキーを使用して回答する。
 LEVELはSTAGE.1と同様に球体の移動速度によりEASY、NORMAL、HARDとがあり、慣れるまでに練習モードのPRACTICEが可能である。奥から手前に直線的に飛び出し、被験者の傍を通り過ぎるように迫ってくる球体上の表示を見極め素早く回答することで、近づいてくる目標を見極める動体視力(KVA)と複数の目標を次々と見極める眼球運動の能力を測定し、鍛えることになる。
 STAGE.3は、必要な情報を素早く知覚する瞬間視(VRT)と、眼球運動(OMS)を鍛えるプログラムである。このSTAGE.3では、先ず画面には上半分の擬似空と下半分の逆の擬似空とが水平線を挟んで表示される。次に、遠く、画面奥の水平線から最初は小さな点のようなオブジェクト(例えば、トランプのカードなど)が画面に近づいてきて、次第に矩形のカードの形に大きくなり、ついには掌ほどの大きさになって画面から飛び出し被験者の目前にまで迫ってくるように見える。被験者は、画面奥から手前に回転しながら飛び出してくるオブジェクトの特徴や種類(トランプの絵柄(数字)またはカード種など)を回答する。なお、問題数は、30問~50問であり、間違えると減点となりMISSのカウントが増え、正解するとトランプが消える、数字を見るというよりイメージとしてとらえることがポイントである。早く正確に、正確なキーを押すことで高得点が得られる。
 RANK付けは、A~E(Aが一番よい)で、TIMEとMISSの数によりPOINTが算出される。LEVELはSTAGE.1と同様に球体の移動速度によりEASY、NORMAL、HARDとがあり、慣れるまでに練習モードのPRACTICEが可能である。奥から手前に回転しながら飛び出してくるトランプのカードの図柄や数字を見極め素早く回答することで、必要な情報を瞬時に知覚する能力の瞬間視と複数の目標を次々と見極める眼球運動の能力を測定し、鍛えることになる。
 STAGE.4は、複数の目標の相対的な位置関係を認識する立体視能力(DP深視力)を測定し鍛えるプログラムである。図17において、先ず画面にはSTAGE.1と同様に、上半分の擬似空(青色)と下半分の擬似海面(紫色)とが水平線を挟んで遠近法の格子模様とともに表示される。画面には左右に離れて配置された2個の球体(黄色)が右回転、左回転で回っている。その間を他のもう一つの球体(黄色)が、画面奥の水平線から小さな点のような位置から画面に近づいてきて次第に大きくなり、放置するとついには拳ほどの大きさになって画面から飛び出し被験者の目前にまで迫ってくるように見える。
 操作法は、位置が変化して次第に大きくなり動いてくる球体の位置と一定位置にある左右の球体の位置とが、即ち3つの位置が揃った時点を判断した被験者が例えばスペースキーを押す。問題数は、3回以上とし、距離の誤差が大きいと減点となりMISSのカウントが増え、タイミングよく奥行き位置が一致した時、正確にキーを押すことが高得点へのポイントとなる。RANK付けは、A~E(Aが一番よい)で、TIMEとMISSの数によりPOINTが算出される。LEVELはSTAGE.1と同様に球体の移動速度によりEASY、NORMAL、HARDとがあり、慣れるまでに練習モードのPRACTICEが可能である。複数目標の相対的な位置関係を認識する能力の深視力を測定し鍛えることができる。
 STAGE.5は、眼の周りにあるものをイメージでとらえる能力、周辺視野でとらえた目標に素早く正確に手で反応する能力(E/H)、眼球運動(OMS)を鍛えるプログラムである。例えば、先ず画面に薄い青色箱の中を上から覗くように縦横の遠近格子の腺で表示し、箱の底から赤や黄色の球体が湧き出すように飛び出してくる。操作法は、左右に配置された黄色と白の球体が全体像として右回転、左回転で回っていて一定のタイミングで、どちらか1つの球体の色が赤に変わる。そこで変わったと同時に、被験者は変化を認識して、黄色の球体→赤であればAと発声し、白の球体→赤であればBと発声する。
 問題数は、30問とし、間違えると減点となりMISSのカウントが増える、早く認識して、正確に、回答ことで高得点が得られる。RANK付けは、A~E(Aが一番よい)で、TIMEとMISSの数によりPOINTが算出される。ここでは特にTIMEとして30問正解するまでの所要時間を与える。LEVELはSTAGE.1と同様に球体の移動速度によりEASY、NORMAL、HARDとがあり、慣れるまでに練習モードのPRACTICEが可能である。周辺視野でとらえた目標に素S早く正確に手で反応する反射神経が重要な能力と、複数の目標を次々と見極める眼球運動の能力を測定し、鍛えることになる。
(3)広告映像表示プログラム
 次いで、アプリケーション実行部141において実行される広告映像表示プログラムについて説明する。
 この広告映像表示プログラムは、商品等の広告文字が記載された板や、商品そのものに広告が施された立体映像を示すようになっている。この広告映像表示プログラムはメモリ15に格納されており、アプリケーション実行部141の指令により再生され、立体映像表示装置の画面には、左眼用の映像と右眼用の映像とが表示される。ここで、メニューには例えば2種類があり、広告立体遠近映像を選択すると図10(概念的に表示)が、また広告立体方向性映像を選択すると図11(概念的に表示)が表示部13aに択一的に表示される。
 以下の説明では便宜上矩形板上の文字を使用するが、広告立体遠近映像は図19に示すように立体(3次元)商品に広告文字を描いたものや、車なら車体そのものの映像でもよい。さて、広告立体遠近映像の場合には、図10において、表示部13aには観察者に接近した位置(画像は表示部13aに写るが)には、広告立体映像100aが表示され、その後次第に観察者から遠ざかって表示される。やがて所定時間後には遠くに広告立体映像100bが表示される。
 飛び出した大きな広告立体映像63が表示され、その後右方に移動した広告立体映像64となる。次第に観察者から遠ざかって表示部13aに入って行き小さな広告立体映像65となり、最後には最小の広告立体映像61となる。次にまた画面左側で、観察者にやや接近した大きな広告立体映像62が表示部13aから飛び出しかけて表示される。ユーザーは遠くの広告立体映像100b(61)をはっきり視認するように自己の眼の焦点調整を行う。同時に図19の広告立体遠近映像では、缶飲料“ER”商品が確実に訓練者に浸透できる。
 文字“ER”を読むように努力する、この時自動的に毛様体と眼球移動筋等が活動して、水晶体の厚みを調整し、文字像が正確に網膜上に焦点を結ぶようになる。文字を読むために、網膜上に焦点を結ぶように毛様体と眼球移動筋等が活動する。立体遠近映像の場合には、訓練者は予め、広告立体映像100a(61~65)の離隔速度V1と移動範囲距離Lと訓練中の音声の指定を入力できる。例えば移動範囲距離Lを10mに設定し、離隔速度V1=10m/6秒と接近速度V2=10m/12秒等を入力インターフェースから入力する。
 魚、猫、ハート形、星、円、三角、四角あるいはその他の商品やサービスに応じた立体キャラクター等が選択できる。又これらの広告立体映像100a(61~65)はそれぞれ大きさも自由に設定できるとともに、その色彩についても赤、青、黄、紫、橙、ピンク、あるいは色縞模様など各種選択できる。メモリ15からの癒し系の音楽データは所定処理の後スピーカに送られる。訓練中の音楽は著作権の承諾の上で、例えば宮城道雄の邦楽古典やモーツアルトやバッハの古典音楽や静かな民謡又はやさしい風の音、波の音等を一覧から各種選定できる。
 ことで、広告立体映像100a(61~65)の遠ざかる速度を調整する、図10において離隔速度V1を早くして毛様体と眼球移動筋等の運動力を高めるようにできる。逆に接近速度V2を遅くして毛様体と眼球移動筋等の運動力を緩やかにできる。更にまた、離隔速度V1を遅くして毛様体と眼球移動筋等の運動力を緩やかにできる。なお更に接近速度V2を早くして毛様体と眼球移動筋等の運動力を高めるようにできる。
 3、4分毎回この訓練を実行する。方向遠近トレーニング法の類似方法では、図10、図11に示すように広告立体映像100a(61~65)が左眼の左上に極めて近くまで接近し、次第に画面中央の奥に向かって遠のいて行く。企業CM(広告)と視力強化の基本トレーニングが同時に実現でき、広告立体映像を眼で追跡するので、観察者にとっては広告立体映像への記憶効果が大きく作用する。日常の仕事場のパソコンを使用すれば、馴染みの位置でリラックスした精神状態で眼のトレーニングが受けられることになり、広告立体映像への集中力が一層高められることになる。
 この広告立体映像100a(61~65)を訓練者は両眼で追跡する、この時顔は正面を向いたままとし、両眼球を動かして広告立体映像100a(61~65)の例えば広告文字を視認(ERを読む)するようにする。両眼で追跡することで、両眼の毛様体と眼球移動筋等が活発に動くか動こうと伸びたり縮んだりする。次に広告立体映像100b(61~65)は奥の中央部から次第に右眼の右上方向に向かって近づいてくる。実際の広告立体映像は画面上に表示されるが、広告立体映像を視認するためには、訓練者の両眼を虚像に焦点を合わせなければならないので、現実の物体が離隔接近する時のように、両眼は毛様体と眼球移動筋等を動かすことになる。
 画面中央の奥に向かって遠のいて行く。また次に広告立体映像100b(61~65)は奥の中央部から次第に右眼の右下方向に向かって近づいて来る。同様に今度は広告立体映像が左眼の左下に極めて近くまで接近し、次第に画面中央の奥に向かって遠のいて行く。このようなトレーニングを繰り返し継続して行くうちに、訓練者(観察者)の視力は向上していくので、対応した広告立体映像の移動速度や経路を適宜変更する。更に広告立体映像ソフトそのものを変更して異なる映像を表示できる。
 広告立体映像が遠のく速度や近づく速度は適当の数値を設定できるようにする。個人の現状視力に対応して各種設定でき、また必要に応じて観察者の性別、年齢、体質、嗜好性、視力の回復状況、訓練頻度等の各種個人データが回収できる。個人データにカスタマイズしたトレーニングができる。
 この際、広告依頼元の企業からシステムの運営会社に毎月広告料が支払われる。また運営会社は、映像広告場所の企業に毎月、広告場所提供代として一定の料金を支払う。映像広告場所の企業は視力回復装置一式の導入時に、費用を発生するが、広告立体映像を視力回復ソフトとして使用することで、映像広告場所提供代が収入となり、初期コストを回収し、以後継続した副収入の道が開けることになる。
 視力回復プログラムは何時でも、事務所や自宅や通勤電車内等どこでも誰でも利用できる。多忙な視力回復希望者や、視力回復訓練に怠慢な人であっても訓練継続が確実になり、個人的にも映像広告場所を提供した場合は収入が得られる。電子表示装置を見ることが、仕事の一環となった今日では、近視や疲れ目や乱視が発生する恐れが多くなっている。しかし逆にこれら電子機器に広告立体映像表示機能を持たせて、強制的に自動的に勤務時間内に視力回復が図れるとともに、広告を見ることで副収入の機会が創造できる。
(4)両眼視検査用プログラム
 次いで、アプリケーション実行部141において実行される両眼視検査用プログラムについて説明する。図19は、本実施形態に係る表示部13a上に表示される両眼視検査用の画像を示す説明図であり、図20(a)及び(b)は、観察者の画像の見え方を示す説明図である。
 観察者が端末10を操作すると、メモリ15から、両眼視検査用プログラムがアプリケーション実行部141により読み出され、画面上には、図21(a)に示すように、右眼用画像(球体)と左眼用画像(イルカ)とが表示される。そして、観察者が一対のレンズ部21,21を覗いて、これらの画像を観察すると、観察者の両眼視機能が正常である場合には、図21(b)に示すように、2つの画像が所定の位置に配置されているように見える。一方、両眼視機能が正常でない場合には、図21(c)に示すように、2つの画像の位置がズレているように見える。このような場合には、眼科において検査することを勧めるメッセージと、提携された病院のサイト情報とを表示させる。
 なお、このアプリケーション実行部141は、図19及び20に示すような画像のみならず、簡易的な画像を表示させてもよい。具体的には、図21(a)に示すように、右眼用画像として、円の画像を表示させ、左眼用画像として、小さな円と円の中心を交差する線を表示させてもよい。また、例えば、図22(a)に示すように、右眼用画像として円の画像を表示させ、左眼用画像として右眼用の円が内部に入りこめる大きさの三角形の画像を表示させてもよい。
 これらの画像を観察者が一対のレンズ部21,21を覗いて観察すると、観察者の両眼視機能が正常である場合には、図21(b)及び図22(b)に示すように、2つの画像の中心が重なっているように見える。一方、両眼視機能が正常でない場合には、図21(c)、及び図22(c)に示すように、2つの画像の中心がズレているように見える。このような場合には、眼科において検査することを勧めるメッセージと、提携された病院のサイト情報とを表示させる。なお、両眼視が正常な場合の見え方の画像と、ズレて見える場合との画像とは、例えば、観察した後に画面上に表示させて、観察者がレンズ部21を介さずに見ることで確認できるようにしてもよい。
 このように、両眼視検査プログラムを実行させると、両眼視機能が正常であるか否かが簡易に判別できる。これにより、両眼視機能が正常に働いていない者が3D映画を鑑賞してしまい、映像酔いが生じることを未然に防止することができる。
(立体映像観察システムについて)
 次いで、上述した立体映像観察装置を用いて観察者に立体映像を観察させる立体映像観察システムについて説明する。図29は、本実施形態に係る立体映像配信システムの概略構成を示す説明図である。
 同図に示すように、立体映像配信システムは、通信ネットワーク7を介して立体映像を観察させるシステムであって、通信ネットワーク7上には、管理サーバ5と各種のサービスを提供する各種サービス提供サーバ6とが配置されており、更に通信ネットワーク7には、無線基地局4と、無線基地局4を通じて無線通信が可能な情報処理端末10が接続されている。
 通信ネットワーク7は、通信プロトコルTCP/IPを用いて種々の通信回線(電話回線やISDN回線、ADSL回線、光通信回線などの公衆回線、専用回線、無線通信網)を相互に接続して構築される分散型の通信ネットワーク(IP網)であり、この通信ネットワーク7には、インターネットの他、10BASE-Tや100BASE-TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、通信ネットワーク7には、有線接続やWifi通信を介しての接続が可能であり、例えば、Wifiルータや無線LANルータなどをアクセスポイントとして、これらと無線通信が可能なゲーム機器9を接続することができ、管理サーバ5とゲーム機器9との双方向通信を行うことができる。
 無線基地局4は、図示しない中継装置を通じて通信ネットワーク7に接続され、情報処理端末10との間で無線通信接続を確立し、情報処理端末10による通話やデータ通信を提供する装置である。中継装置は、通信ネットワーク7に接続するためのモデムやターミナルアダプタ、ゲートウェイ装置等のノード装置であり、通信経路の選択や、データ(信号)の相互変換を行い、無線基地局4と、通信ネットワーク7との間における中継処理を行う。
 管理サーバ5は、立体映像コンテンツの視聴に際し、立体映像を観察する観察者の認証処理など顧客管理を行ったり、上記の立体映像の検査や、視力回復のための各種プログラムや映像コンテンツを配信するサーバ装置であり、WWW(World Wide Web)等のドキュメントシステムにおいて、HTML(Hyper Text Markup Language)ファイルや画像ファイル、音楽ファイルなどの情報送信を行うサーバコンピューターあるいはその機能を持ったソフトウェアである。管理サーバ5は、HTML文書や画像などの情報を蓄積しておき、Webブラウザなどのクライアントソフトウェアの要求に応じて、インターネットなどのIP網を通じて、これらの情報を送信する。
 また、この管理サーバ5には、顧客を管理するデータベース8を備えており、データベース8には、顧客IDに関連付けられて氏名、電話番号、クレジットカード情報の他、視力回復プログラム等の訓練結果の情報や、視聴した立体映像のコンテンツ等の履歴情報等も含まれている。
 各種サービス提供サーバ6は、管理サーバ5を通じて、観察者に各種のサービスを提供するサーバ群であり、このサービス提供サーバ6内には、眼科などの医療サーバや、映画及びドラマなどの立体映像コンテンツを配信するコンテンツ配信サーバ、コンテンツ視聴に対して課金を行う決済サーバ等が含まれている。
 このような構成を有する映像観察システムにおいて、観察者に立体映像を観察させるための手順について説明する。先ず、3Dビューワーである筐体20を、例えば、映画館や街角で配布する。この際、筐体20には、管理サーバ5にアクセスするためのQRコード(登録商標)が印刷されており、このQRコード(登録商標)を情報処理端末のカメラ16で撮影することで、管理サーバ5のWebサイトへアクセス可能となる。なお、管理サーバ5のWebサイトへのアクセスは、QRコード(登録商標)をカメラ16で読み取る以外にもユーザーがWebブラウザ上で映像観察システムのキーワードを入力したり、直接URLを入力することでアクセス可能である。
 ここで、初めて、管理サーバ5にアクセスする観察者には、会員登録用のWebページが表示され、観察者の氏名、住所等の情報の入力を促す。入力された会員情報は、新たに付与した顧客IDに関連付けられ、データベース8に蓄積される。会員登録された観察者の情報処理端末10には、管理サーバ5から、例えば、新作の3D映画の案内の情報が送信される。観察者の操作によって、3D映画を視聴する操作があると、管理サーバ5では、初めにデータベース8に蓄積された両眼視の検査結果を確認する。両眼視の検査がされていない場合には、情報処理端末10に両眼視の検査を依頼するメッセージを送信するとともに、両眼視検査用プログラムを配信する。
 情報処理端末10では、両眼視検査用プログラムによって、表示部13a上に、図19に示すような眼用画像と右眼用画像とが表示される。観察者は筐体20のレンズ部21,21から左眼用画像と右眼用画像と観察して、図20(a)に示すように、2つの画像が所定の位置に配置されているように見えるか、図20(b)に示すように、2つの画像がズレて配置されているように見えるかを検査する。その後、観察者が情報処理端末10を操作することで、検査結果の情報は管理サーバ5に送信される。なお、この検査結果には、検査用の立体映像を観察した場合に、映像酔いが生じたか否かの項目も含まれており、この情報についても管理サーバ5へ送信される。
 管理サーバ5では、立体映像が正常に観察することができなかった検査結果の情報や、映像酔いが生じた検査結果の情報を取得すると、各種サービス提供サーバ6内にある眼科(病院)のWebサイト情報を情報処理端末10に送信したり、立体視のトレーニングプログラムを配信する。
 一方、検査結果が正常である場合には、3D映像のコンテンツをダウンロード可能とする。これにより、各種サービス提供サーバ6内にある映像コンテンツ配信サーバから3D映画等のコンテンツが配信される。その後、映像コンテンツを視聴した情報は、管理サーバ5のデータベース8に記録され、この視聴履歴情報に基づいて、決済サーバ等から課金処理が行われる。
(プログラム記録媒体)
 上述した実施形態係る各プログラムは、図40に示すように、このプログラムを携帯情報端末(PDA)に携帯電話・通信機能を統合した携帯端末機171、クライアント側が使用するパーソナルコンピュータ172、ネットワーク上に配置されてクライアント側にデータや機能を提供するサーバ装置173、又はゲーム装置などの専用装置174、又はICチップ186にインストールし、CPU上で実行することにより、上述した各機能を有するシステムを容易に構築することができる。これらのプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。
 そして、このようなプログラムは、パーソナルコンピュータで読み取り可能な記録媒体181~85に記録することができる。具体的には、図40に示すような、フレキシブルディスク183やカセットテープ182等の磁気記録媒体、若しくはCD-ROMやDVD-ROM等の光ディスク181の他、USBメモリ185やメモリカード184など、種々の記録媒体に記録することができる。
(作用・効果)
 このような本実施形態によれば、多くの人が所有する情報処理端末10を用いて右眼用及び左眼用の画像を表示させ、その他は、一対のレンズ部21,21など最低限の構成としているので、偏光レンズやレンズシャッタ制御機構など高価な機器を用いることなく、簡易且つ安価に立体映像を観察させることができる。
 したがって、情報処理端末10以外の構成部材を多く製造して、様々な場所で筐体20を配布することができるため、多くのユーザーに立体映像を観察させる機会を増やすことができる。これにより、鑑賞前に、映像酔いが生じるか否かの検査を行わせることができるので、両眼視機能が発達過程にある就学時前の小児や、両眼視機能が正常でない成人の被害を未然に防止でき、安全に立体映像コンテンツを視聴させることができる。
 詳述すると、従来、例えば、映画館で3D映画を鑑賞する際には、映像酔いが生じるか否かの検査を行っていないため、両眼視機能が発達過程にある就学時前の小児や、両眼視機能が正常でない成人が3D映画を鑑賞することで、映像酔いが生じてしまっていた。映画を鑑賞する顧客にとっては、安全に映画を鑑賞したいため、事前に映像酔いが生じるか否かを検査したい要望もある。このような映像酔いが生じるか否かを確認するには、病院等で検査したり、高価な立体映像観察装置を購入して実際に立体映像を観察しなければならない。
 しかしながら、検査用として立体映像観察装置を購入することや、病院等で検査するには、コスト的及び時間的に負担が大きい。一方、店舗側で立体映像観察装置を設置することも考えられるが、検査用として高価な立体映像観察装置を大量に設置するにはコスト的に負担が増大するという問題もある。
 本実施形態では、自己が所有する情報処理端末10と、映画館で配布される筐体20との簡易な構成で立体映像を観察させることができるので、3D映画を鑑賞する前に、映像酔いが生じるか否かを簡易且つ即時に検査することができる。これにより、映像酔いが生じるユーザーは、鑑賞を中止するため、映像酔いの被害を未然に防止でき、安全に立体映像コンテンツを視聴させることができる。
 また、本実施形態によれば、映像酔いが生じる観察者に対しても、立体視訓練プログラムによって、両眼視機能を訓練することができるので、両眼視機能を正常にさせることができるので、結果的に立体映像のコンテンツを安全に鑑賞させることができる。
 さらに、実施形態では、台座部23に情報処理端末10を設置され、連結部28によって一対のレンズ部21,21と台座部23との位置関係を固定するとともに、保持部24によって情報処理端末10を台座部23の表面において位置決めするので、観察者が一対のレンズ部21,21から映像を見た際には、右眼の焦点は右眼用画像のみに合い、左眼の焦点は左眼用画像のみに合うことなり、簡易ながらも良好な立体映像を観察することができる。
 また、本実施形態において、台座部23には、表示部13aに表示された映像位置に合致させるための基準表示が記されているので、この基準表示に基づいて情報処理端末を配置させるのみで、立体映像が適切に観察することができる位置に情報処理端末を設置することができる、立体映像を観察するための設定を容易にすることができる。
 更に、本実施形態によれば、情報処理端末10は、機種情報取得部142から入力された、情報処理端末10の種別に関する情報に基づいて、表示部13aに表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更するので、各メーカーから製造され、規格サイズの異なる各情報処理端末10に応じた設定が可能となる。これにより、様々な種類の情報処理端末10で立体画像を観察させることができ、多くのユーザーに立体映像を観察させる機会を増やすことができる。
 更に、本実施形態によれば、情報処理端末10は、アプリケーション実行部141は、映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させるとともに、立体映像の輻輳角及び視差を変化させて、観測者の眼に対する焦点を、観察者に対して接近及び離隔するように誘導するので、観察者が一対のレンズ部21,21から映像を見た際には、右眼の焦点は右眼用画像のみに合い、左眼の焦点は左眼用画像のみに合うことなり、良好な立体映像を観察することができる。
[第2実施形態]
 次いで、本発明の第2実施形態について説明する。本実施形態では、筐体内に収容できないサイズの情報処理端末10aを用いた場合を要旨とする。図8は、第2実施形態に係る立体映像表示装置の全体構成を示す斜視図であり、図9は、(a)は、第2実施形態に係る画面上に表示される位置調整用の中心線を説明する平面図であり、(b)は、立体映像表示範囲を調整する枠を説明する平面図である。なお、以下の実施形態及び変更例において、上述した実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
 本実施形態における映像観察システムは、筐体20aと、情報処理端末10aとから構成される。本実施形態における情報処理端末10aは、第1実施形態における情報処理端末10よりも大きいサイズとなっている。また、本実施形態において、筐体20の台座部23aは、側面シートの表側に設けられている。また、この台座部23aが設けられた側面シートには、表示部13aに表示された画像光を取り込むための開口部22aが設けられている。そして、本実施形態では、情報処理端末10aを台座部23aに設置させることで、側面シートに設けられた開口部22aの位置に表示部13aにおける所定領域13bが位置されるようになっている。
 また、本実施形態においては、筐体20aの内部において、連結部28により、一対のレンズ部21,21と台座部23aとの間に保持され、情報処理端末10aに表示された映像光を一対のレンズ部21,21に向けて反射させるミラー部29が設けられている。具体的に、ミラー部29は、一対のレンズ部21,21に対向する面に反射面29aを有し、開口部22aから内部に出射された映像光を一対のレンズ部21,21側に反射させるように傾斜した状態で配置されている。
 また、本実施形態においても、アプリケーション実行部141が位置調整プログラムを実行することで、情報処理端末10aの種別に関する情報に基づいて、表示部13aに表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更する。
 本実施形態においては、情報処理端末10aは大きいサイズとなっているため、アプリケーション実行部141は、表示部13aの全面に映像を表示させずに、図9(a)及び(b)に示すように、表示部13aの所定領域13bに映像を表示させるように、映像のサイズ、位置及び縦横比を変更する。
 その後、アプリケーション実行部141は、図9(a)に示すように、その所定領域13b内において、映像の基準位置を示す基準マークとして、所定領域13bの中心CP2を通る横方向の中心線CL4aと、画面の中心CP2を通る縦方向の中心線CL3aとを表示させる。また、アプリケーション実行部141は、図9(b)に示すように、立体映像の表示範囲を拡縮させる外枠F1aを表示させて、ユーザー操作に基づいて表示範囲を変更可能とする。
[第3実施形態]
 次いで、本発明の第3実施形態を説明する。本実施形態では、保持部の他の構成について説明する。図23は、第3実施形態に係る立体映像表示装置の全体構成を示す斜視図であり、図24は、第3実施形態に係る筐体を展開した展開図である。また、図25は、第3実施形態に係る保持部を展開した展開図であり、図26は、第3実施形態に係る保持部によって情報処理端末を保持する状態を示す説明図である。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
 図23に示すように、本実施形態における筐体20cは、紙やプラステック等から形成された略長方形状をなし、一対のレンズ部21,21が長手方向の正面シート206に設けられ、この正面シート206と対向する背面シート201に台座部23が形成されている。
 台座部23が形成された背面シート201は、図24に示すように、それぞれの縁から上面シート202、底面シート203、右側面シート204、左側面シート205が折り目を介して連設している。また、左側面シート205には、台座部23と反対側に一対のレンズ部21,21が設けられた正面シート206が連設されている。また、正面シート206には、左側面シート205とは反対方向に、組立時において筐体20c内部に配置される内側面シート207が連設されている。
 上面シート202は、台座部23の背面シート201と連通しており、組立された場合において上蓋としての機能を有する。この上蓋を開いた際の開口部分から情報処理端末10が内部から出し入れ可能となっている。この上面シート202の先端部分には、正面シート206部分の内側に差し込まれるように、先端に折り目を介して差込部202aが構成されており、この差込部202aを筐体20c内部に差し込むことで、筐体20c内部に外光が射し込まれることを防止している。
 また、図24に示すように、右側面シート204には、台座部23と反対方向の端部分に係止片204aが形成されており、この係止片204aは組立時において、内側面シート207に設けられた係止孔207bに挿通されて係合されるようになっている。また、内側面シート207の左端には、係止片207aが形成されており、この係止片207aは組立時において、台座部23が形成された背面シート201の右端に設けられた係止孔201aに挿通されて係合される。更に、筐体20cには、右側面シート204、左側面シート205、及び底面シート203においては、各シートに当接して粘着材で粘着されるのりしろ208が形成されている。
 このような筐体20の台座部23の表面(組み立て時には内面)には、情報処理端末10を保持する保持部30が形成されている。本実施形態において、保持部30は、紙、又はプラステック等で形成されており、図25に示すように、台座部23に設置される底面シート301と、底面シート301の長辺から延出された一対の側部固定片303,303と、短辺から延出された一対の上下固定辺302,302とが一体形成されている。
 底面シート301は、筐体の背面シート201の外縁よりも若干小さくサイズで形成されており、底面シート301と対向する端部には、台座部23と係合する一対の差込片301a,301aが形成されている。具体的には、一対の差込片301a,301aを、筐体20cの背面シート201に設けられた係止孔201a、及び係止孔201bへ差し込むことで、保持部30が筐体20cに対して固定されるようになっている。
 一対の側部固定片303,303及び一対の上下固定辺302,302は、それぞれ、折り目線L1,L2,L3が形成されており、この折り目線に沿って折り曲げることで、情報処理端末10が嵌め込まれるような空間を形成させて、図23に示すように、情報処理端末10を保持するようになっている。
 具体的には、図26に示すように、側部固定片303、及び上下固定辺302の折り目線L1と折り目線L2とを内側に折り曲げるとともに、折り目線L3を外側に折り曲げることで、底面シート301の四方向の外縁に凸形状304を形成させる。ここで、図26に示すように、一対の上下固定辺302,302によって形成された一対の凸形状304の内面302a間における距離Gは、情報処理端末10の長辺の長さと合致するようになっている。また、図示しないが、一対の側部固定片303,303によって形成された一対の凸形状間の距離は、情報処理端末10の短辺の長さと合致するようになっている。
 このような構成により、情報処理端末10が凸形状の間に差し込まれると、凸形状が情報処理端末10を押さえ込み、情報処理端末10を固定することができる。これにより、筐体20cを傾けた場合であっても情報処理端末10の位置がズレることを防止することができる。なお、本実施形態において、折り目L1,L2,L3は、各社の情報処理端末10のサイズに基づいて複数表示されており、選択された折り目線によって凸形状間の距離を変更可能となっている。これにより、各メーカーから製造され、規格サイズの異なる各情報処理端末に応じた設定が可能となる。
[第4実施形態]
 次いで、本発明の第4実施形態を説明する。本実施形態では、情報処理端末10を収納するカーバーケースを用いて立体映像を観察する場合を要旨とする。図35は、第4実施形態に係るカバーケースを展開した展開図であり、図36は、第4実施形態に係るカバーケースの全体構成を示す斜視図である。また、図37は、第4実施形態に係るカバーケースを組み立てた際の側面図であり、図38は、第4実施形態に係る未使用時にレンズ部及びミラー部を折りたたむ状態を示す説明図である。なお、本実施形態において、上述した第各実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。また、本実施形態では、レンズ部21として、シート状のフレネルレンズを用いた場合を例に説明する。
 図35に示すように、情報処理端末10を収納するカバーケース50は、図35に示した展開図のように、一枚のプラスティック、布、又は紙等から切り抜くことにより一体形成され、折り曲げることで情報処理端末10を収納可能な函体である。このようなカバーケース50は、情報処理端末10が保持する台座部23となる底面シート505の両側部から、情報処理端末10の側面に当接される右側面シート504と、左側面シート506とが折り目を介して連結されている。また、右側面シート504には、底面シート505の反対側に情報処理端末10の表示部分に当接される上面シート503が折り目を介して連設されている。この上面シート503は、表示部13aを保護する機能を有しており、情報処理端末10の表示部13aのサイズに応じて、中央部分に開口部503aが形成されている。
 また、上面シート503には、右側面シート504の反対側にミラー部29が設けられたミラーシート501が折り目を介して連設されている。さらに、ミラーシート501には、上面シート503の反対側に一対のレンズ部21が設けられたレンズシート502が折り目を介して連設されるとともに、上下の縁からは、ミラーシート501とレンズシート502とが山折り状に組み立てられた際、筐体内部に外光が射し込むのを防止するための遮光シート508,509が折り目を介して連結されている。なお、この遮光シート508,509は、その他のシート部材と一体形成されてなくてもよく、例えば、ミラーシートに係止された布部材等であってもよい。また、この遮光シート508及び509は省略可能であり、特に屋内での使用時は取り外すことができる。
 このような構成を有するカバーケース50を組み立てると、図36に示すように、底面シート505と上面シート503とが対向するとともに、右側面シート504と左側面シート506とが対向するように配置されて内部空中の略長方形状となり、開口部分510から情報処理端末10を出し入れ可能となる。この際、レンズシート502の縁から突出された差込片502a,502aは、上面シートの縁に形成された係止孔503bに挿通されて係合される。また、左側面シート506の縁から突出された差込片506a,506aは、ミラーシート501の縁に形成された係止孔501a,501aに挿通された係合される。これにより、図36に示すように、立体形状が維持されるようになっている。カバーケース50が組み立てられた際、レンズシート502は、情報処理端末10の表示部13aの表面に対して垂直に起立された状態となり、ミラーシート501は、表示部13aの表面に対して略45度の角度で傾いた状態となる。なお、表示部13aに表示された画像がミラー部29に反射されたレンズ部21に入射されて、観察者が立体画像を観察できればよく、ミラーシート501とレンズシート502との角度は限定されないものとする。
 このような構成により、カバーケース50を組み立てて、内部に情報処理端末10を収納させた状態で、表示部13aに立体映像を表示させると、図37に示すように、表示部13aから出射された光は、開口部分503aを通過してミラー部29に入射されると、反射面29aで反射して一対のレンズ部21,21側へ出射される。そして、一対のレンズ部21,21には、それぞれ右眼用画像及び左眼用画像が入射され、観察者の眼EYには立体映像が見えるようになる。
 また、このような実施形態では、例えば、老眼やピントフリーズ現象により、近くが見え難いというユーザーに対して、眼の各種筋肉の調整運動(ストレッチ)を行わせて、ピント調整を容易にさせることができる。なお、本実施形態において、カバーケース50の台座部23には、情報処理端末10を保持する保持部を設けてもよい。この保持部の構成としては、上述した実施形態のような保持部24や保持部30であってもよく、他の構成であってもよい。
 さらに、カバーケース50は、通常のカバーケースとしての機能も備えており、立体映像を見ない場合には、図38に示すように、レンズシート502と、ミラーシート501とが重なるように折り曲げるとともに、レンズシート502が、ミラーシート501と上面シート503との間に挟まれるように折り曲げる。これにより、情報処理端末10を保護できるとともに、レンズ部21,21及びミラー部29についてもシートの内側に位置することとなるため、外部からの衝撃で、レンズやミラー等が割れてしまうことを防止することができる。
[第5実施形態]
 次いで、本発明の第5実施形態を説明する。本実施形態では、カバーケースの他の形態について説明する。図42は、第5実施形態に係るカバーケースを展開した展開図であり、図43は、第5実施形態に係るカバーケースの全体構成を示す斜視図である。また、図44は、第5実施形態に係るカバーケースを組み立てた際の側面図であり、図45は、第5実施形態に係る未使用時にレンズ部及びミラー部を折りたたむ状態を示す説明図である。なお、本実施形態において、上述した第各実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。また、本実施形態においても、レンズ部21として、シート状のフレネルレンズを用いた場合を例に説明する。
 図42に示すように、情報処理端末10を収納するカバーケース60は、図35に示した展開図のように、一枚のプラスティック、布、又は紙等から切り抜くことにより一体形成され、折り曲げることで情報処理端末10を収納可能な函体である。このようなカバーケース60は、第4実施形態に示した右側面シート504とミラーシート503とを連結する上面シート503が省略され、代わりにレンズシート601とミラーシート603とを連結する上部シート602を備える構成を特徴としている。
 具体的に、カバーケース60は、情報処理端末10が保持する台座部23となる底面シート605の両側部から、情報処理端末10の側面に当接される右側面シート604と、左側面シート606とが折り目を介して連結されている。また、右側面シート604には、底面シート605の反対側にミラー部29が設けられたミラーシート603が折り目を介して連設され、ミラーシート603には、右側面シート604の反対側に、上部シート602が折り目を介して連接されている。上部シート602には、ミラーシート603の反対側に、一対のレンズ部21が設けられたレンズシート601が折り目を介して連設されている。なお、本実施形態においては、カバーケースが組み立てられた際、筐体内部に外光が射し込むのを防止するための遮光シートは、図示していないが、他のシート部材と一体形成されてなくてもよく、また、布部材等で着脱可能に設けてもよい。
 また、上述した第4実施形態では、情報処理端末10を側部からスライドさせてカバーケース内に収納させる構成としたが、本実施形態では、台座部23上に載置された情報処理端末10を位置決めするための保持部24aを台座部23の各縁部分に配置させ、情報処理端末10は、上部から出し入れする構成となっている。
 ここで、保持部24aは、例えば、スポンジやウレタン等の可撓性部材で形成された部材が用いられ、情報処理端末10の側部に当接されるように台座部23上に載置される。また、台座部23(底面シート605)の表面には、各社の情報処理端末が適切な位置に配置されるように、保持部24aの貼り付け箇所を示すマークが各社の情報処理端末10のサイズに対応して複数記されている。
 なお、情報処理端末10の長手方向の側面に当接される保持部24a,24aは、右側面シート604及び左側面シート606の内面に固定される構成であってもよい。この場合、保持部24aの厚みを変更させることで、各社の情報処理端末10のサイズに対応して情報処理端末10を適切に保持するようになっている。
 情報処理端末10を保持する保持部24aは、可撓性部材としたが、これに限定するものではなく、上述した実施形態のような保持部24や保持部30であってもよく、他の構成であってもよい。また、本実施形態で用いられた保持部24aも他の実施形態及び変更例で用いることも可能である。
 このような構成を有するカバーケース60を組み立てると、図43に示すように、底面シート605と上部シート602とが対向するとともに、右側面シート604と左側面シート606とが対向するように配置されて内部空中の略五角柱状となる。この際、レンズシート601の縁から突出された係止片601aには、例えば、マジックテープ(登録商標)や両面テープ等の粘着部材が設けられており、左側面シート606の表面に接着されるようになっており、これにより、図43に示すように、立体形状が維持されるようになっている。カバーケース60が組み立てられた際、レンズシート601は、情報処理端末10の表示部13aの表面に対して垂直に起立された状態となり、ミラーシート603は、表示部13aの表面に対して略45度の角度で傾いた状態となる。なお、表示部13aに表示された画像がミラー部29に反射されたレンズ部21に入射されて、観察者が立体画像を観察できればよく、ミラーシート603とレンズシート601との角度は限定されないものとする。
 このような構成により、内部に情報処理端末10を収納させた状態で、表示部13aに立体映像を表示させると、図44に示すように、表示部13aから出射された光は、ミラーシート603側に入射され、ミラー部29の反射面29aで反射して一対のレンズ部21,21側へ出射される。そして、一対のレンズ部21,21には、それぞれ右眼用画像及び左眼用画像が入射され、観察者の眼EYには立体映像が見えるようになる。このような実施形態では、例えば、老眼やピントフリーズ現象により、近くが見え難いというユーザーに対して、眼の各種筋肉の調整運動(ストレッチ)を行わせて、ピント調整を容易にさせることができる。
 さらに、カバーケース60は、通常のカバーケースとしての機能も備えており、立体映像を見ない場合には、図45に示すように、レンズシート601と、ミラーシート603とを、上部シート602を介して重なるように折り曲げるとともに、レンズシート601及び上部シート602が、ミラーシート603と情報処理端末10との間に挟まれるように折り曲げる。これにより、情報処理端末10を保護できるとともに、レンズ部21,21及びミラー部29についてもシートの内側に位置することとなるため、外部からの衝撃で、レンズやミラー等が割れてしまうことを防止することができる。
[変更例]
 なお、上述した各実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更や、それぞれの構成を組み合わせることが可能であることはもちろんである。なお、以下の変更例において、上述した各実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
(変更例1)
 次いで、変更例1について説明する。上述した実施形態では、右眼用レンズは右眼用映像のみ焦点が合い、また、左眼用レンズは左眼用映像のみ焦点が合うようなレンズを用いたが、本発明は、これに限定するものはなく、右眼用映像が右眼のみに結像され、左眼用映像が左眼のみに結像されればよく、レンズ部21,21を他の構成としてもよい。
 例えば、左眼用映像と右眼用映像を交互に表示し、この交互表示と同期して左右のレンズに設けられたシャッタを開閉するシャッタ制御機構を備えた電子シャッタレンズを用いてもよい。この場合には、レンズ部21,21には、シャッタを駆動させる電子シャッタ駆動部を備え、この電子シャッタ駆動部と情報処理端末10とをケーブル等で接続する。そして情報処理端末10のアプリケーション実行部141は、左眼用映像と右眼用映像を交互に表示するとともに、この交互表示と同期する同期信号を電子シャッタ駆動部に送信する。これにより、左右のレンズに設けられたシャッタが開閉することで、表示部13aの画面上に左眼用映像を観察者の左眼の方向へ、右眼用映像を観察者の右眼の方向へそれぞれ交互に透過させて、観察者には立体映像を認識させることができる。
 また、例えば、第4実施形態及び第5実施形態のように、レンズ部21としてフレネルレンズを用いた場合には、偏光フィルターを貼付してもよい。具体的には、図39(a)に示すように、レンズ部21及び表示部13aが位置する上面シート503の開口部分503aに偏光シート21bを貼り付ける。この際、右眼用及び左眼用とで、縦波のみを通過可能な偏光シートと、横波のみが通過可能な偏光シートと分けて使用する。この場合には、右眼用画像は右眼にのみ結像され、左眼用画像は左眼にのみ結像されるようになるので、より確実に立体映像を良好に観察させることができる。なお、偏光シートを貼り付ける場所は、レンズ部21と、開口部分503aに限定されず、例えば、図39(b)に示すように、レンズ部21とミラー部29の表面に偏光シート21bを貼り付ける構成であってもよい。
(変更例2)
 次いで、変更例2について説明する。本変更例では、情報処理端末10を梱包する梱包部材を用いて立体映像を観察可能とする場合を要旨とする。図27(a)は、本変更例に係る筐体を示す斜視図であり、同図(b)は、本変更例に係る情報処理端末を梱包する梱包部材を示す斜視図であり、同図(c)は、変更例に係る筐体を梱包部材に収納した状態を示す斜視図である。また、図28(a)本変更例に係る筐体を示す斜視図であり、同図(b)は、本変更例に係る情報処理端末を梱包する梱包部材の上部ケースを示す斜視図であり、同図(c)は、本変更例に係る情報処理端末を梱包する梱包部材の下部ケースを示す斜視図であり、同図(d)は、変更例に係る筐体を梱包部材に収納した状態を示す斜視図である。
 情報処理端末10を出荷する際に用いられる梱包部材には、例えば、図27(b)に示すように、一枚の紙又はプラスティック等から切り抜くことにより一体形成され、折り曲げることで略長方形状となる梱包部材40aがある。このような梱包部材40aは、上面シート41が上蓋となっており、この上面シート41を開放させることで情報処理端末10が取り出し可能となっている。また、梱包部材40aの内部には、情報処理端末10を保持するための保持部42を備えている。保持部42は、情報処理端末10の側面部分を保持する部材であり、例えば、第3実施形態で示したような保持部30や第5実施形態で示した保持部24aであってもよく、他の構成であってもよい。この保持部は、梱包部材を製造する各メーカーに応じて異なっている。
 一方、筐体20dは、紙又はプラスティック等で形成され、図27(a)に示すように、一対のレンズ部21,21が形成される上面シート210と、上面シート210の四辺と折り目を介して連設される4つの側面シートから形成されている。また、筐体20は、上面シート210と対向する側に開口部211を有し、内部空中となっており、筐体20dの大きさは、梱包部材40aに収納可能なサイズとなっている。なお、上面シート210上に形成される一対のレンズ部21,21の位置は、各メーカー毎の保持部42に対応して表示部13aの中心部分と、各レンズ部21との距離が等しくなるように設定されている。
 そして、図27(a)及び(b)に示すように、情報処理端末10の出荷時には、先ず情報処理端末10を保持部42に保持した状態で筐体20dを内部に収納し、その後、上面シート41の先端に形成された差込部41aを筐体20d内部に差し込んで出荷する。一方、立体映像を観察する際には、図27(c)に示すように、保持部42に情報処理端末10を配置させるとともに、次に筐体20dを梱包部材40a内部に収納させ、上面シート41を開いた状態とする。この状態で、観察者が一対のレンズ部21,21を介して立体映像が観察する。
 なお、このような簡易化された筐体20dは、他の形状をなす梱包部材に用いてもよい。例えば、図28(b)に示すように、下方が開口44された上部ケース43と、図28(c)に示すように、上部が開口46された下部ケース45とを嵌め合わせる梱包部材40bに用いることもできる。
 この梱包部材40bにおいても、下部ケース45の底部分に情報処理端末10を保持する保持部42を有している。そして、出荷時には、図28(a)~(c)に示すように、先ず、保持部42に情報処理端末10を配置し、次いで、下部ケース45内部に筐体20dを収納させる。その後、下部ケース45に上部ケース43を覆うように嵌め込ませて出荷する。一方、立体映像を観察する際には、図28(d)に示すように、保持部42に情報処理端末10を配置させ、筐体20dを下部ケース45に収納させた状態とする。この状態で、観察者が一対のレンズ部21,21を介して立体映像が観察する。
 このような変更例によれば、立体映像を観察するためのキットを情報処理端末10を梱包する梱包部材40a及び40bに同梱させることができるので、部品点数が低減し、より製造コストを廉価させることができ、より多くのユーザーに立体映像を観察するための機会を与えることができる。
(変更例3)
 上述した各実施形態において、筐体20c内部に情報処理端末10全体を収納させる構成としたが、例えば、図30に示すように、一部を外部に配置させた構成としてもよい。この場合には、例えば、スピーカー部分が外部に出ていれば、音が内部にこもることを防止できる。また、ボタン等の操作デバイスがある情報処理端末10であれば、この操作デバイスを外部に配置させることで、操作し易くすることができる。
 また、上述した第3実施形態において、保持部30は、一対の側部固定片303,303及び一対の上下固定辺302,302を折り曲げて凸部304を形成させたが、図31(a)に示すように、スポンジやウレタン等の可撓性部材で形成された保持部31を用いて、情報処理端末10を保持してもよい。
 この本変更例における保持部31は、図31(a)に示すように、情報処理端末10を開口部22から差し込んだ際、情報処理端末10を挿通方向以外の3方向から保持する保持部材である。本実施形態において、保持部31は、図31(c)に示すように、断面形状が略コ字状をなしており、この隙間に情報処理端末10を嵌め込ませて保持する。
 また、この保持部31は、図31(b)に示すように、裏面に両面テープ等の粘着部材32を備えており、保持部31は、粘着部材32によって背面シート201に貼り付けられることで台座部23bに対して固定される。ここで、台座部23bの表面には、図32(a)に示すように、情報処理端末10が適切な位置に配置されるように保持部31の貼り付け箇所のマーク201cが記されている。なお、このマーク201cは、各社の情報処理端末10のサイズに基づいて複数表示されている。
 このように、本変更例では、保持部31を台座部23bに貼り付けて固定し、情報処理端末10を開口部22からスライド移動させると、図32(b)に示すように、保持部31の隙間に情報処理端末10を収納される。これにより、情報処理端末10の画面側も押えることができるので、筐体20を傾けた場合であっても情報処理端末10の位置がズレることを防止することができる。また、本変更例によれば、保持部材31は、スポンジやウレタン等の可撓性部材で形成されているので、保持部31は情報処理端末10の形状に合わせて変形することができる。これにより、情報処理端末10を保持部に収納した際、情報処理端末10と保持部31との間に隙間を形成させずに保持することができ、より情報処理端末10の位置がズレることを防止することができる。なお、このような構成は、上述した各実施形態や各変更例における保持部に用いることができる。
 ここで、第2実施形態のように、大きいサイズの情報処理端末10aを保持する場合には、開口部22aが設けられた側面シートの表面部分に、保持部31を3箇所貼り付け、その保持部31の隙間に情報処理端末10aをスライド移動させるようにする。この場合、保持部は、プラステック等の合成樹脂や、紙部材で形成させてもよい。
(変更例4)
 また、上述した第1実施形態では、筐体を2つに切り離し、スライド可能な連結部28aによって焦点距離を調整したが、例えば、情報処理端末10を保持する保持部を筐体20c内部でスライド移動可能として焦点距離を調整してもよい。
 この焦点距離を調整する構成としては、例えば、第3実施形態で説明した筐体20c及び保持部30を用いることができる。具体的には、図24に示したように、筐体20cには、台座部となる背面シート201に係止孔201a,201bが設けられ、また、図25に示すように、保持部30には、底面シート301に差込片301a,301aが備えられている。そして、図33に示すように、この係止孔201a,201bに、一対の差込片301a,301aを差し込み、この一対の差込片301a,301aをスライド移動させて、保持部30とレンズ部21との距離G2を変化させる。
 そして、焦点が合った場所で、この差込片301a,301aを折り曲げて背面シート201と接触させ、その後、粘着テープ等で差込片301aを背面シート201に貼り付けて固定させる。なお、この際、差込片301aの表面には各メーカーの情報処理端末10に応じたマークを記してもよい。この場合、情報処理端末10の画面サイズは端末毎に定まっており、その画面サイズにより焦点距離も決定されるため、差込片301aに記されたマークに基づいて、保持部30を移動させることで、容易に焦点距離を調整することができる。
 なお、保持部30を筐体20cに固定する手段としては、例えば、背面シート201と保持部30の底面シートとの間に形成される空間S内に、スポンジ等の固定部材を内部に配置させて固定してもよい。この場合には、固定部材を内部に配置させるのみで、焦点距離を調整することができるとともに、保持部30は固定部材によって支持されるので、情報処理端末10の位置がズレることを防止することができる。
 また、この際、各メーカーの情報処理端末10に応じて厚みの異なる固定部材を複数用意してもよい。この場合には、自己が所有するメーカーの情報処理端末10に対応する固定部材を内部に配置させるのみで、容易に焦点をあわせることができる。また、焦点距離を調整する際には、粘着テープによる固定手段及び固定材等を配置させる固定手段のいずれか一方で保持部を固定してもよく、また、2つの固定手段を併用して保持部を固定してもよい。
 4…無線基地局
 5…管理サーバ
 6…サービス提供サーバ
 7…通信ネットワーク
 8…データベース
 9…ゲーム機器
 10(10a,10b)…情報処理端末
 11…通信インターフェース
 12…入力インターフェース
 12a…マイクロフォン
 13…出力インターフェース
 13a…表示部
 13b…所定領域
 14…制御部
 15…メモリ
 16…カメラ
 17…機種情報取得部
 18…音声認識部
 20(20a~20d)…筐体
 21…レンズ部
 22(22a)…開口部
 23(23a,23b)…台座部
 24(24a)…保持部
 60…カバーケース
 25…操作孔
 28(28a)…連結部
 29…ミラー部
 29a…反射面
 30,31…保持部
 40a,40b…梱包部材
 41…上面シート
 41a…差込部
 42…保持部
 43…上部ケース
 44,46…開口
 45…下部ケース
 50,60…カバーケース
 61~65…広告立体映像
 100a…立体映像
 100b…立体映像
 141…アプリケーション実行部
 142…機種情報取得部
 143…音声認識部
 201…背面シート
 201a,201b…係止孔
 202…上面シート
 202a…差込部
 203…底面シート
 204…右側面シート
 204a…係止片
 205…左側面シート
 206…正面シート
 207…内側面シート
 207a…係止片
 207b…係止孔
 210…上面シート
 211…開口部
 241…上下固定部
 241a,242a…ストッパー
 241b,242b…両端部分
 242…側部固定部
 243…切れ目
 244…マーク
 301…底面シート
 301a…差込片
 302…上下固定辺
 303…側部固定片
 304…凸形状
 501…ミラーシート
 501a…係止孔
 502…レンズシート
 502a…差込片
 503…上面シート
 503a…開口部分
 503b…係止孔
 504…右側面シート
 505…底面シート
 506…左側面シート
 506a…差込片
 508,509…遮光シート
 510…開口部分
 601…レンズシート
 601a…係止片
 602…上部シート
 603…ミラーシート
 604…右側面シート
 605…底面シート
 606…左側面シート

Claims (7)

  1.  情報処理端末の表示部に表示された映像を観るための映像観察システムであって、
     観察者の眼前に配置され、左右の眼に対応した箇所に配置されるレンズ部と、
     前記情報処理端末が設置される台座部と、
     前記レンズ部と前記台座部との位置関係を固定する連結部と、
     前記台座部の表面において、前記情報処理端末の位置決めをする保持部と
    を備えることを特徴とする映像観察システム。
  2.  前記台座部には、前記表示部に表示された映像位置に合致させるための基準表示が記されていることを特徴とする請求項1に記載の映像観察システム。
  3.  情報処理端末の表示部に表示された映像を観るための映像観察システムであって、
     観察者の眼前に配置され、左右の眼に対応した箇所に配置されるレンズ部と、
     前記情報処理端末が設置される台座部と、
     前記レンズ部と前記台座部との位置関係を固定する連結部と、
     前記連結部により、前記レンズ部と前記台座部との間に保持され、前記情報処理端末に表示された映像光を前記レンズ部に向けて反射させるミラー部と
    を備えることを特徴とする映像観察システム。
  4.  前記情報処理端末は、
     前記映像を表示させるためのプログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部に対し当該情報処理端末の種別に関する情報を入力する機種情報取得部と
    を備え、
     前記プログラムは、前記機種情報取得部から入力された前記種別に関する情報に基づいて、前記表示部に表示される映像のサイズ、位置及び縦横比を変更するとともに、前記映像の基準位置を示す基準マークの位置を変更する
    ことを特徴とする請求項1又は3に記載の映像観察システム。
  5.  前記情報処理端末は、
     前記映像を表示させるためのプログラムが実行されるアプリケーション実行部を備え、
     前記プログラムは、前記映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させるとともに、前記立体映像の前記輻輳角及び視差を変化させて、前記観測者の眼に対する焦点を、前記観察者に対して接近及び離隔するように誘導する
    ことを特徴とする請求項1又は3に記載の映像観察システム。
  6.  前記情報処理端末は、
     前記映像を表示させるためのプログラムが実行されるアプリケーション実行部と、
     音声を認識し、その認識結果を前記アプリケーション実行部に入力する音声認識部と、
    を備え、
     前記プログラムは、前記音声認識部から入力される前記認識結果に基づいて、画像を変化させる
    ことを特徴とする請求項1又は3に記載の映像観察システム。
  7.  前記プログラムは、
     前記映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させるとともに、前記立体映像中に、仮想空間内における位置及び向きが変化するオブジェクトを表示し、
     前記仮想空間内における前記オブジェクトの出現時間、及びその間における当該オブジェクトの変位及び向きの変化を測定するとともに、前記音声認識部における音声の認識結果と、前記測定の結果とを記録する
    ことを特徴とする請求項6に記載の映像観察システム。
PCT/JP2012/076313 2012-10-11 2012-10-11 映像観察システム WO2014057557A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014540687A JP6245652B2 (ja) 2012-10-11 2012-10-11 映像観察システム
CN201280076375.5A CN104718495B (zh) 2012-10-11 2012-10-11 视频观察***
PCT/JP2012/076313 WO2014057557A1 (ja) 2012-10-11 2012-10-11 映像観察システム
US14/684,119 US9888230B2 (en) 2012-10-11 2015-04-10 Video observation system
HK15112420.8A HK1211708A1 (en) 2012-10-11 2015-12-17 Video observation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/076313 WO2014057557A1 (ja) 2012-10-11 2012-10-11 映像観察システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/684,119 Continuation-In-Part US9888230B2 (en) 2012-10-11 2015-04-10 Video observation system

Publications (1)

Publication Number Publication Date
WO2014057557A1 true WO2014057557A1 (ja) 2014-04-17

Family

ID=50477045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/076313 WO2014057557A1 (ja) 2012-10-11 2012-10-11 映像観察システム

Country Status (5)

Country Link
US (1) US9888230B2 (ja)
JP (1) JP6245652B2 (ja)
CN (1) CN104718495B (ja)
HK (1) HK1211708A1 (ja)
WO (1) WO2014057557A1 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5887626B1 (ja) * 2015-07-27 2016-03-16 株式会社アクティエージェント バーチャル・リアリティ・ビューワー
JP2016073473A (ja) * 2014-10-07 2016-05-12 満里 平岡 検査システム、機能回復システム、及びこれらの方法、プログラム
JP2016109715A (ja) * 2014-12-02 2016-06-20 凸版印刷株式会社 携帯端末用観察部材
JP2016184865A (ja) * 2015-03-26 2016-10-20 株式会社楽しい研究所 立体視用画像作成装置
US20160349836A1 (en) * 2015-05-27 2016-12-01 Google Inc. Virtual reality headset
JP2016206585A (ja) * 2015-04-28 2016-12-08 凸版印刷株式会社 3dビューワ
JP2017021139A (ja) * 2015-07-09 2017-01-26 凸版印刷株式会社 映像鑑賞機能付き包装容器
JP2017040809A (ja) * 2015-08-20 2017-02-23 パーセク合同会社 立体表示具
JP2017059936A (ja) * 2015-09-15 2017-03-23 凸版印刷株式会社 3次元画像表示システム及び3次元画像表示方法
USD792398S1 (en) 2015-07-31 2017-07-18 Google Inc. Smartphone packaging and virtual reality headset
JP2017156738A (ja) * 2015-08-28 2017-09-07 株式会社ライツ 立体映像表示装置及びそのシート部材
US9804393B1 (en) 2015-02-09 2017-10-31 Google Inc. Virtual reality headset
KR20170134979A (ko) * 2015-07-31 2017-12-07 구글 엘엘씨 스마트폰 패키징 및 가상 현실 헤드셋
JP2018002219A (ja) * 2016-06-30 2018-01-11 凸版印刷株式会社 包装箱
JP2018072808A (ja) * 2016-10-21 2018-05-10 凸版印刷株式会社 映像鑑賞機能付き包装容器
JP2018097069A (ja) * 2016-12-09 2018-06-21 大日本印刷株式会社 端末閲覧器具
JP2018124500A (ja) * 2017-02-03 2018-08-09 凸版印刷株式会社 簡易3次元ビューワ
JP2018528628A (ja) * 2015-07-31 2018-09-27 グーグル エルエルシー 一体化されたモバイルデバイスパッケージングおよび仮想現実ヘッドセット
USD853231S1 (en) 2016-02-24 2019-07-09 Google Llc Combined smartphone package and virtual reality headset
TWI692241B (zh) * 2018-09-10 2020-04-21 宏碁股份有限公司 立體顯示裝置與立體顯示方法
US10750162B2 (en) 2017-09-11 2020-08-18 Google Llc Switchable virtual reality headset and augmented reality device
JP2020140320A (ja) * 2019-02-27 2020-09-03 任天堂株式会社 情報処理システムおよびゴーグル装置
WO2021225082A1 (ja) * 2020-05-07 2021-11-11 ソニーグループ株式会社 情報処理装置、情報処理方法、ヘッドマウントディスプレイ用筐体、およびヘッドマウントディスプレイシステム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105160974A (zh) * 2015-07-28 2015-12-16 石方迪 压碎玻璃杯并使其复原的魔术箱
CN104991350A (zh) * 2015-07-28 2015-10-21 石方迪 基于视错觉立体画的移物魔术箱
US20170165148A1 (en) * 2015-12-09 2017-06-15 William J. Barclift Float the ball
CN105652446B (zh) * 2016-03-11 2018-11-23 北京小鸟看看科技有限公司 一种虚拟现实头盔的视频播放设备放置装置
CN105800119A (zh) * 2016-05-06 2016-07-27 田亚录 一种多功能包装盒
CN107438179B (zh) * 2016-05-27 2019-09-20 腾讯科技(北京)有限公司 一种信息处理方法及终端
TWI586587B (zh) * 2016-06-28 2017-06-11 宏碁股份有限公司 包裝結構
CN105892063B (zh) * 2016-06-28 2019-02-15 姜冬英 外挂屏装置、外挂屏式vr眼镜及屏幕的显示方法和装置
CN106333642B (zh) * 2016-09-27 2018-08-24 深圳市亮睛视觉研究所 一种动态视力测试仪及其测试方法
US20180309971A1 (en) * 2017-04-19 2018-10-25 2Sens Ltd. System device and methods for grading discomfort effects of three dimensional (3d) content

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236888A (ja) * 2007-03-20 2008-10-02 Seiko Epson Corp 携帯装置用充電装置、客席用テーブル、携帯装置用充電装置の決済処理方法およびプログラム
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP2011154144A (ja) * 2010-01-27 2011-08-11 Panasonic Corp 立体画像表示機能付き電子機器
JP2011191384A (ja) * 2010-03-12 2011-09-29 Panasonic Corp 表示装置
JP2012003374A (ja) * 2010-06-15 2012-01-05 J & K Car Electronics Corp 操作装置および操作方法
JP2012065327A (ja) * 2010-09-20 2012-03-29 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012129776A (ja) * 2010-12-15 2012-07-05 Akio Hachinohe スマートフォン用3dビューア
JP2012145787A (ja) * 2011-01-13 2012-08-02 Quasar Technology Inc 立体表示装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4369078B2 (ja) * 2001-05-11 2009-11-18 オリンパスビジュアルコミュニケーションズ株式会社 立体映像を利用する視力回復装置及び立体映像の表示方法
JP2003131606A (ja) * 2001-10-23 2003-05-09 Nsp Corp 視力回復装置を利用した広告システム
US6702442B2 (en) * 2002-03-08 2004-03-09 Eastman Kodak Company Monocentric autostereoscopic optical apparatus using resonant fiber-optic image generation
JP2004104742A (ja) 2002-09-11 2004-04-02 Remedia:Kk 立体映像データの発生方法と装置
JP4243732B2 (ja) * 2003-04-30 2009-03-25 オリンパスビジュアルコミュニケーションズ株式会社 立体映像により視覚能力を測定する方法と装置
JP2007075300A (ja) * 2005-09-13 2007-03-29 Konami Digital Entertainment:Kk 立体視眼鏡
JP5022869B2 (ja) * 2007-11-20 2012-09-12 株式会社村上開明堂 発光表示装置付きバックミラー
US8246170B2 (en) * 2007-11-21 2012-08-21 Panasonic Corporation Display apparatus
US8203657B2 (en) * 2008-07-11 2012-06-19 Audiovox Corporation Inductively powered mobile entertainment system
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
WO2012035174A1 (es) * 2010-09-17 2012-03-22 Alonso Fernandez Angel Victor Visor estereoscópico desmontable, personalizable y económico para dispositivos personales portátiles.
JP5389139B2 (ja) * 2011-10-14 2014-01-15 株式会社東芝 電子機器及び表示制御方法
WO2013188761A1 (en) * 2012-06-14 2013-12-19 Flextronics Ap, Llc Methosd and system for customizing television content

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236888A (ja) * 2007-03-20 2008-10-02 Seiko Epson Corp 携帯装置用充電装置、客席用テーブル、携帯装置用充電装置の決済処理方法およびプログラム
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP2011154144A (ja) * 2010-01-27 2011-08-11 Panasonic Corp 立体画像表示機能付き電子機器
JP2011191384A (ja) * 2010-03-12 2011-09-29 Panasonic Corp 表示装置
JP2012003374A (ja) * 2010-06-15 2012-01-05 J & K Car Electronics Corp 操作装置および操作方法
JP2012065327A (ja) * 2010-09-20 2012-03-29 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012129776A (ja) * 2010-12-15 2012-07-05 Akio Hachinohe スマートフォン用3dビューア
JP2012145787A (ja) * 2011-01-13 2012-08-02 Quasar Technology Inc 立体表示装置

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016073473A (ja) * 2014-10-07 2016-05-12 満里 平岡 検査システム、機能回復システム、及びこれらの方法、プログラム
JP2016109715A (ja) * 2014-12-02 2016-06-20 凸版印刷株式会社 携帯端末用観察部材
US9804393B1 (en) 2015-02-09 2017-10-31 Google Inc. Virtual reality headset
JP2016184865A (ja) * 2015-03-26 2016-10-20 株式会社楽しい研究所 立体視用画像作成装置
JP2016206585A (ja) * 2015-04-28 2016-12-08 凸版印刷株式会社 3dビューワ
KR101936918B1 (ko) 2015-05-27 2019-01-10 구글 엘엘씨 가상 현실 헤드셋
US10209769B2 (en) 2015-05-27 2019-02-19 Google Llc Virtual reality headset
CN107438789A (zh) * 2015-05-27 2017-12-05 谷歌公司 虚拟现实头戴装置
JP2018524831A (ja) * 2015-05-27 2018-08-30 グーグル エルエルシー バーチャルリアリティヘッドセット
KR20170104622A (ko) * 2015-05-27 2017-09-15 구글 인코포레이티드 가상 현실 헤드셋
US20160349836A1 (en) * 2015-05-27 2016-12-01 Google Inc. Virtual reality headset
JP2017021139A (ja) * 2015-07-09 2017-01-26 凸版印刷株式会社 映像鑑賞機能付き包装容器
WO2017018274A1 (ja) * 2015-07-27 2017-02-02 株式会社アクティエージェント バーチャル・リアリティ・ビューワー
JP5887626B1 (ja) * 2015-07-27 2016-03-16 株式会社アクティエージェント バーチャル・リアリティ・ビューワー
US10139637B2 (en) 2015-07-31 2018-11-27 Google Llc Integrated mobile device packaging and virtual reality headset
JP2018528628A (ja) * 2015-07-31 2018-09-27 グーグル エルエルシー 一体化されたモバイルデバイスパッケージングおよび仮想現実ヘッドセット
US9857595B2 (en) 2015-07-31 2018-01-02 Google Llc Integrated mobile device shipping container and virtual reality headset
USD792398S1 (en) 2015-07-31 2017-07-18 Google Inc. Smartphone packaging and virtual reality headset
JP2018529112A (ja) * 2015-07-31 2018-10-04 グーグル エルエルシー スマートフォン・パッケージングおよびバーチャル・リアリティ・ヘッドセット
KR20170134979A (ko) * 2015-07-31 2017-12-07 구글 엘엘씨 스마트폰 패키징 및 가상 현실 헤드셋
KR102015556B1 (ko) 2015-07-31 2019-08-28 구글 엘엘씨 스마트폰 패키징 및 가상 현실 헤드셋
JP2017040809A (ja) * 2015-08-20 2017-02-23 パーセク合同会社 立体表示具
JP2017156738A (ja) * 2015-08-28 2017-09-07 株式会社ライツ 立体映像表示装置及びそのシート部材
JP2017059936A (ja) * 2015-09-15 2017-03-23 凸版印刷株式会社 3次元画像表示システム及び3次元画像表示方法
USD853231S1 (en) 2016-02-24 2019-07-09 Google Llc Combined smartphone package and virtual reality headset
JP2018002219A (ja) * 2016-06-30 2018-01-11 凸版印刷株式会社 包装箱
JP2018072808A (ja) * 2016-10-21 2018-05-10 凸版印刷株式会社 映像鑑賞機能付き包装容器
JP2018097069A (ja) * 2016-12-09 2018-06-21 大日本印刷株式会社 端末閲覧器具
JP2018124500A (ja) * 2017-02-03 2018-08-09 凸版印刷株式会社 簡易3次元ビューワ
US10750162B2 (en) 2017-09-11 2020-08-18 Google Llc Switchable virtual reality headset and augmented reality device
TWI692241B (zh) * 2018-09-10 2020-04-21 宏碁股份有限公司 立體顯示裝置與立體顯示方法
JP2020140320A (ja) * 2019-02-27 2020-09-03 任天堂株式会社 情報処理システムおよびゴーグル装置
JP7253934B2 (ja) 2019-02-27 2023-04-07 任天堂株式会社 情報処理システムおよびゴーグル装置
WO2021225082A1 (ja) * 2020-05-07 2021-11-11 ソニーグループ株式会社 情報処理装置、情報処理方法、ヘッドマウントディスプレイ用筐体、およびヘッドマウントディスプレイシステム
US11933988B2 (en) 2020-05-07 2024-03-19 Sony Group Corporation Information processing apparatus, information processing method, head mounted display housing, and head mounted display system

Also Published As

Publication number Publication date
JPWO2014057557A1 (ja) 2016-08-25
HK1211708A1 (en) 2016-05-27
CN104718495B (zh) 2018-02-27
JP6245652B2 (ja) 2017-12-13
US9888230B2 (en) 2018-02-06
US20150215608A1 (en) 2015-07-30
CN104718495A (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
JP6245652B2 (ja) 映像観察システム
US9285871B2 (en) Personal audio/visual system for providing an adaptable augmented reality environment
US20130083007A1 (en) Changing experience using personal a/v system
JP7038713B2 (ja) 検出された特徴を用いた3dオブジェクトレンダリング
US20130083008A1 (en) Enriched experience using personal a/v system
CN107847226B (zh) 视觉认知测定***、服务器控制方法
CN104838326B (zh) 可佩戴的食物营养反馈***
US9035955B2 (en) Synchronizing virtual actor's performances to a speaker's voice
CN104956252B (zh) 用于近眼显示设备的***显示器
EP2600331A1 (en) Head-mounted display based education and instruction
EP3981320A1 (en) Enhanced optical and perceptual digital eyewear
US20130242262A1 (en) Enhanced optical and perceptual digital eyewear
US20130307855A1 (en) Holographic story telling
Amer et al. Affordable altered perspectives: Making augmented and virtual reality technology accessible
JP2002336317A (ja) 立体映像を利用する視力回復装置及び立体映像の表示方法
WO2014144918A2 (en) Enhanced optical and perceptual digital eyewear
Weir et al. I see therefore i read: improving the reading capabilities of individuals with visual disabilities through immersive virtual reality
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
Vlahovic et al. Usability assessment of a wearable video-communication system
US11853476B2 (en) Augmented and virtual reality display systems for oculometric assessments
Hirsimäki et al. Expert evaluation of aspects related to virtual reality systems and suggestions for future studies
Duh Use of an independent visual background to alleviate simulator sickness in the virtual environments that employ wide-field displays
JP2024054489A (ja) 虚像表示装置用光学系、虚像表示装置及びヘッドマウントディスプレイ
Cook TICLE

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12886410

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014540687

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12886410

Country of ref document: EP

Kind code of ref document: A1