WO2012157177A1 - 輻輳能力判定装置及びその方法 - Google Patents

輻輳能力判定装置及びその方法 Download PDF

Info

Publication number
WO2012157177A1
WO2012157177A1 PCT/JP2012/002345 JP2012002345W WO2012157177A1 WO 2012157177 A1 WO2012157177 A1 WO 2012157177A1 JP 2012002345 W JP2012002345 W JP 2012002345W WO 2012157177 A1 WO2012157177 A1 WO 2012157177A1
Authority
WO
WIPO (PCT)
Prior art keywords
convergence
congestion
user
vergence
eyeball
Prior art date
Application number
PCT/JP2012/002345
Other languages
English (en)
French (fr)
Inventor
井上 剛
小澤 順
加藤 弓子
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012525789A priority Critical patent/JP5096643B1/ja
Priority to CN2012800043576A priority patent/CN103283245A/zh
Priority to US13/627,491 priority patent/US9186056B2/en
Publication of WO2012157177A1 publication Critical patent/WO2012157177A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Definitions

  • the present invention relates to a convergence ability determination device that can determine the convergence movement ability of a user's eyeball watching a stereoscopic image.
  • a three-dimensional image can be felt in the user's brain by displaying different images for the user's right eye and left eye.
  • stereoscopic vision by a method different from the reality gives a user visual fatigue and discomfort.
  • a stereoscopic image display device that estimates the degree of eye fatigue based on the amount of visual function degradation due to fatigue of both eyes, and adjusts the degree of solidity (a value indicating the degree of solidity) according to the estimated degree of fatigue.
  • the degree of solidity a value indicating the degree of solidity
  • Patent Document 1 detects the user's fatigue based on the number of eyeball convergences within a certain period and the number of abnormal phenomena in which the binocular binocular joint collapses, and changes the three-dimensionality. Further, the change of the solidity is realized by lowering the solidity by one step when the user's fatigue is detected.
  • stereoscopic viewing is possible depends on the vergence movement ability of the user's eyeball. Specifically, as the degree of stereoscopicity increases, a larger amount of vergence is required to view the image. Therefore, in stereoscopic images including various stereoscopic degrees, a user with low convergence movement ability is larger than a certain degree of stereoscopicity. You cannot view stereoscopic images with 3D. If the user continues to view such a stereoscopic image that exceeds the convergence ability of the user's eyeball, the user may feel tired or uncomfortable.
  • Patent Document 1 the degree of solidity is lowered by one step every time fatigue is detected.
  • the stereoscopic degree of the stereoscopic image is considerably larger than the convergence movement ability of the user's eyeball. Therefore, it takes a considerable amount of time to lower the solidity to a level appropriate for the user, and there is a problem that the user is more tired.
  • the congestion capability determination device includes an eyeball information acquisition unit that acquires eyeball information that is information related to a user's eyeball movement during stereoscopic video viewing, and the eyeball information acquired by the eyeball information acquisition unit.
  • a convergence motion calculation unit that calculates a convergence motion amount indicating a degree of convergence motion of the user's eyeball, and a convergence motion calculation unit in an evaluation section that is a predetermined playback time section of the stereoscopic video that the user is viewing.
  • the vergence of the eyeball of the user is compared.
  • the present invention it is possible to determine the convergence movement ability in each stereoscopic degree of a user who is watching a stereoscopic video, and to change the stereoscopic degree of the stereoscopic video to a stereoscopic degree suitable for the user based on the result. It is possible to provide a congestion capacity determination device that enables this.
  • FIG. 1 is a diagram for explaining the principle of eyeglass control that enables stereoscopic viewing.
  • FIG. 2A is a diagram for explaining a convergence angle in stereoscopic vision.
  • FIG. 2B is a diagram illustrating a convergence angle in stereoscopic vision.
  • FIG. 3 is a block diagram showing a functional configuration of the congestion capability determination apparatus according to the embodiment of the present invention.
  • FIG. 4 is a flowchart showing the operation of the congestion capability determination apparatus according to the embodiment of the present invention.
  • FIG. 5A is a diagram illustrating an example of stereoscopic eyeglasses for measuring electrooculogram.
  • FIG. 5B is a diagram illustrating an example of stereoscopic eyeglasses for eyeball photography.
  • FIG. 5A is a diagram illustrating an example of stereoscopic eyeglasses for measuring electrooculogram.
  • FIG. 5B is a diagram illustrating an example of stereoscopic eyeglasses for eyeball photography.
  • FIG. 5C is a view seen from the side with the eyeglass portion of FIG. 5B removed.
  • FIG. 6 is a diagram illustrating an example of an eyeball image photographed as eyeball information.
  • FIG. 7 is a diagram illustrating a specific example of the convergence exercise data stored in the convergence exercise accumulation unit.
  • FIG. 8 is a graph showing a temporal change in the pupil center position of both eyes of the user and a temporal change in the amount of convergence.
  • FIG. 9 is a diagram for explaining an experiment performed on a user.
  • FIG. 10 is a diagram for explaining a difference in convergence angle depending on the viewing position of the user.
  • FIG. 11 is a diagram illustrating a specific example of the congestion pattern data stored in the congestion pattern accumulation unit.
  • FIG. 12 is a diagram illustrating a specific example of the congestion amount distribution stored in the congestion pattern accumulation unit.
  • FIG. 13 is a diagram illustrating an example of reproduced video information.
  • FIG. 14 is a diagram illustrating an example of the result of calculation of convergence motion.
  • FIG. 15 is a diagram illustrating an example of the measured congestion amount distribution.
  • FIG. 16A is a diagram illustrating a specific example of a convergence amount distribution stored in the convergence motion accumulation unit.
  • FIG. 16B is a diagram illustrating a specific example of the congestion amount distribution stored in the convergence motion accumulation unit.
  • FIG. 17 is a diagram illustrating an example of a congestion pattern stored in the congestion pattern accumulation unit.
  • FIG. 18 is a diagram illustrating an example of a congestion pattern for each viewing distance.
  • FIG. 19 is a diagram for explaining a viewing position setting method.
  • FIG. 20 is a block diagram showing a functional configuration of another congestion capability determination apparatus according to the embodiment of the present invention.
  • FIG. 21 is a block diagram showing a functional configuration of the congestion pattern creation device according to the embodiment of the present invention.
  • FIG. 22 is a flowchart showing the operation of the congestion pattern creation device.
  • FIG. 23 is a diagram illustrating a specific example of the convergence exercise data for one subject stored in the convergence exercise accumulation unit.
  • FIG. 24 is a diagram illustrating average value and variance value data of the amount of convergence stored in the convergence motion accumulation unit.
  • FIG. 25 is a diagram illustrating an example of evaluation section information stored in the convergence motion accumulation unit.
  • FIG. 26 is a diagram for explaining a method of calculating the congestion speed distribution.
  • FIG. 20 is a block diagram showing a functional configuration of another congestion capability determination apparatus according to the embodiment of the present invention.
  • FIG. 21 is a block diagram showing a functional configuration of the congestion pattern
  • FIG. 27 is a diagram illustrating an example of a congestion pattern.
  • FIG. 28 is a diagram illustrating an example of a measured convergence speed distribution stored in the convergence motion accumulation unit.
  • FIG. 29 is a diagram showing an example of a congestion pattern stored in the congestion pattern accumulation unit according to Embodiment 2 of the present invention.
  • FIG. 30 is a diagram illustrating an example of a congestion pattern stored in the congestion pattern accumulation unit.
  • FIG. 31 is a diagram illustrating an example of an ideal congestion amount distribution.
  • FIG. 32 is a block diagram showing a functional configuration of a congestion capability judging device composed of essential components of the present invention.
  • the congestion capability determination device includes an eyeball information acquisition unit that acquires eyeball information that is information related to a user's eyeball movement during stereoscopic video viewing, and the eyeball information acquired by the eyeball information acquisition unit.
  • a convergence motion calculation unit that calculates a convergence motion amount indicating a degree of convergence motion of the user's eyeball, and a convergence motion calculation unit in an evaluation section that is a predetermined playback time section of the stereoscopic video that the user is viewing.
  • the vergence of the eyeball of the user is compared.
  • the vergence momentum of the user's eyeball during stereoscopic viewing is calculated from the eyeball information of the user watching the stereoscopic video, and the distribution of the vergence momentum in the evaluation section is compared with the ideal vergence momentum distribution.
  • the vergence ability of the user's eyeball is determined. For this reason, it is possible to determine the convergence movement ability at each stereoscopic degree of the user watching the stereoscopic video, and change the stereoscopic degree of the stereoscopic video to a stereoscopic degree suitable for the user based on the result. In this way, by changing the stereoscopic degree based on the determination result, it is possible to provide a stereoscopic image with a stereoscopic degree suitable for the user by a single change in the stereoscopic degree. Can be provided.
  • the congestion capability determination device disclosed in the present invention can be applied not only to a stereoscopic image but also to a stereoscopic image such as a still image.
  • the determination unit for each range when the range of possible values of the convergence momentum in the evaluation section is divided into a plurality of ranges, the convergence momentum calculated by the convergence motion calculation unit included in the range By comparing the accumulated time and the accumulated time of the vergence movement amount determined according to the depth information of the stereoscopic video included in the range, the ability of the user's eyeballs for vergence movement may be determined.
  • the determination unit may be configured such that, among the plurality of ranges, the integration time of the convergence exercise amount calculated by the convergence exercise calculation unit is determined according to the depth information of the stereoscopic image. In a smaller range, it may be determined that the ability of the user's eyeballs to converge is low.
  • the determination unit includes the convergence momentum calculated by the convergence motion calculation unit in each range when the range of values that the convergence momentum can take in the evaluation section is divided into a plurality of ranges. Is compared with information indicating whether or not the range includes the amount of vergence movement determined according to the depth information of the stereoscopic image, and thereby the vergence movement of the user's eyeball is compared. You may judge ability.
  • the congestion capacity determination device stores only information on whether or not the range of convergence momentum is included for each range when the range of values that the congestion momentum can take is divided into a plurality of ranges. Just do it. For this reason, the size of the information stored in the congestion capability determination device can be reduced.
  • the determination unit performs a determination process of whether or not the convergence exercise amount is included, not the comparison process of the accumulated time of the convergence exercise amount. For this reason, the calculation amount of the determination unit can be reduced.
  • the evaluation interval may be a reproduction time interval of the stereoscopic video when a state in which the variance value of the convergence momentum of a plurality of subjects who viewed the stereoscopic video is equal to or less than a predetermined value continues for a predetermined time or longer.
  • a congestion capability determination device is a congestion capability determination device that determines the capability of convergence movement of the user's eyeball from the state of the user's eyeball during stereoscopic video viewing. From the eyeball information acquisition unit that acquires eyeball information that is information relating to the user's eyeball movement, and the eyeball information acquired by the eyeball information acquisition unit, a vergence movement amount indicating a degree of vergence movement of the user's eyeball is calculated.
  • Distribution data indicating a distribution of the convergence motion amount calculated by the convergence motion calculation unit in a first evaluation section that is a predetermined playback time section of the stereoscopic video that the user is viewing;
  • the vergence exercise amount calculated by the vergence exercise calculation unit in the second evaluation interval, which is a predetermined playback time interval of the stereoscopic video that the user is viewing is different from the evaluation interval.
  • a determination unit that determines the ability of the user's eyeballs to perform a vergence movement by comparing the distribution data indicating the cloth, and the vergence determined according to depth information of the stereoscopic video in the first evaluation section
  • the distribution data indicating the momentum distribution is the same as the distribution data indicating the convergence momentum distribution determined according to the depth information of the stereoscopic video in the second evaluation section.
  • the convergence momentum of the user's eyeball during stereoscopic viewing is calculated from the eyeball information of the user viewing the stereoscopic video, and the distribution of the convergence momentum in the evaluation section is compared with the distribution of the convergence momentum in the other evaluation sections.
  • the vergative movement ability of the user's eyeball is determined.
  • the convergence momentum may be a convergence amount indicating a value corresponding to the distance between the pupil centers of the left and right eyeballs of the user.
  • the convergence momentum may be a convergence speed indicating a temporal change amount of the convergence amount indicating a value corresponding to a distance between the pupil centers of the left and right eyeballs of the user.
  • the above-described congestion capability determination device further includes a stereoscopic degree changing unit that changes the stereoscopic degree of the stereoscopic video so as not to cause the convergence movement of the amount of congestion determined to be low by the determination unit. May be.
  • one of the devices for providing a stereoscopic video to a user displays a right-eye video and a left-eye video alternately on a display (hereinafter, such video is referred to as “stereoscopic video”).
  • stereoscopic video There is an apparatus that provides a video corresponding to the left and right eyes to the user by allowing the liquid crystal shutter glasses for stereoscopic viewing to pass the video alternately left and right in synchronization with the display of the stereoscopic video (frame sequential method). That is, the shutter eyeglass synchronization control is performed so that the left eye displays the left eye image and the right eye displays the right eye image.
  • the eye movement of the user who is viewing the stereoscopic image will be briefly described.
  • different images are displayed on the left and right eyes depending on the stereoscopic image, but the user can perceive the depth stereoscopic degree by showing different images in the horizontal direction.
  • the displayed object appears closer as the distance (parallax) between the objects in the left-eye image and the right-eye image increases in the opposite direction to the left and right eyes (hereinafter referred to as “the left-eye image”).
  • the expression “the degree of solidity is increased”) the user's eyeball at that time rotates inward. This movement is called convergence movement, and the angle formed by the direction of the line of sight of both eyes at this time is called convergence angle.
  • the convergence angle is an amount indicating how far the left and right eyeballs are located (relative to the state of looking at infinity).
  • the three-dimensional perceived position of the object is the eye. The closer the angle is, the larger the convergence angle becomes.
  • FIG. 2B when the three-dimensional perceived position of the stereoscopically displayed object moves away from the eye, the user's eyeball rotates outward. This movement is called divergent movement. The vergence angle becomes smaller during the diverging movement.
  • the vergence ability determination apparatus calculates the vergence amount indicating the degree of vergence movement for each vergence angle of the user who is viewing stereoscopic video, and determines the vergence ability of the user's eye movement.
  • the vergence ability of the user's eye movement instead of calculating the convergence angle of the eyeball as the amount of convergence motion, a convergence amount correlated with the convergence angle is calculated and used.
  • the congestion ability of the user's eye movement is determined based on the measurement result of the convergence movement of each user according to the amount of congestion.
  • the convergence movement is described as the user's eye movement, but the diverging movement can be measured by the same method.
  • FIG. 3 is a block diagram showing a functional configuration of the congestion capability determination apparatus according to the present embodiment.
  • the convergence capability determination apparatus includes an eyeball information acquisition unit 101, a convergence motion calculation unit 102, a convergence motion storage unit 103, a stereoscopic video information acquisition unit 104, a convergence pattern storage unit 105, an evaluation interval determination unit 106, a motion A capability calculation unit 107, a determination unit 108, and a solid degree change unit 109 are provided.
  • the eyeball information acquisition unit 101 acquires the eyeball information of the user who is watching a stereoscopic image using a sensor such as a camera or an electrode.
  • the eyeball information is information related to the movement of the eyeball.
  • the vergence movement calculation unit 102 calculates the vergence amount of eye movement based on the eyeball information acquired by the eyeball information acquisition unit 101 and stores it in the vergence movement accumulation unit 103.
  • the stereoscopic video information acquisition unit 104 acquires information on the currently displayed stereoscopic video from, for example, a television displaying a stereoscopic video or a player playing back the stereoscopic video. For example, a stereoscopic video title, a stereoscopic level representing the overall stereoscopic level of the currently displayed stereoscopic video, an elapsed time from the start time of the stereoscopic video, and the like are acquired.
  • the congestion pattern accumulation unit 105 stores ideal congestion information on the currently displayed stereoscopic video.
  • the evaluation interval determination unit 106 determines a time interval during which the vergence exercise is evaluated.
  • the time interval is also simply referred to as an interval.
  • the athletic ability calculation unit 107 calculates the stereoscopic viewing time for each amount of convergence in the section determined by the evaluation section determination unit 106 based on the amount of convergence exercise calculated by the convergence movement calculation unit 102.
  • the determination unit 108 determines the vergence ability of the user's eyeball based on the comparison result between the result calculated by the athletic ability calculation unit 107 and the ideal information stored in the vergence pattern accumulation unit 105.
  • the stereoscopic degree changing unit 109 determines how to change the stereoscopic degree of the currently displayed stereoscopic video based on the result determined by the determining unit 108, and stores the result in the congestion pattern accumulation unit 105. At the same time, the same result is transmitted to a device whose stereoscopic degree can be changed.
  • a device capable of changing the stereoscopic degree for example, a player reproducing a stereoscopic video, a television displaying a stereoscopic video, or glasses required for viewing the stereoscopic video (hereinafter referred to as “stereoscopic glasses”). Description).
  • step S401 the eyeball information acquisition unit 101 acquires the user's eyeball information at predetermined time intervals using a sensor.
  • an eyeball information acquisition method for example, there are a method of measuring an electrooculogram using an electrode as a sensor and measuring a variation in the potential, and a method of capturing an eyeball image using a camera as a sensor.
  • FIG. 5A to FIG. 5C show an example of an overview of stereoscopic glasses in which sensors such as electrodes and cameras are attached and eye movements can be measured.
  • FIG. 5A shows stereoscopic glasses for measuring electrooculogram, and electrodes 501 and 502 for measuring electrooculogram are provided in a frame portion.
  • the electrode 501 is an electrode for measuring the potential of both eyes, and includes four electrodes 501A to 501D.
  • the electrode 502 is a ground electrode, and changes in the potential of both eyes are measured by the potential difference between the electrodes 501 and 502.
  • FIG. 5B shows stereoscopic eyeglasses for eyeball photography, which includes a camera 503 and a half mirror 504. The user's eyeball photographed on the half mirror 504 is photographed by the camera 503 attached to the upper part.
  • FIG. 5C is a view seen from the side with the eyeglass portion of FIG. 5B removed. As shown in FIG. 5C, the image of the user's eyes reflected by the half mirror enters the camera 503 while the image reaches the user's eyes through the half mirror.
  • the eyeball information acquisition unit 101 uses the camera 503 to photograph the user's eyeball at predetermined intervals.
  • FIG. 6 shows an example of a photographed image.
  • step S ⁇ b> 402 the vergence movement calculation unit 102 calculates the vergence movement amount of the user's eyeball and stores it in the vergence movement accumulation unit 103.
  • the vergence movement calculation unit 102 extracts the pupil by performing image processing on the image data of the eyeball obtained by the eyeball information acquisition unit 101, and further calculates the center coordinates of the pupil.
  • the convergence motion calculation unit 102 calculates the convergence amount calculated from the horizontal coordinate (x coordinate) and the value thereof among the calculated pupil center coordinates of both eyes, and stores it in the convergence motion accumulation unit 103. To do.
  • a value obtained by subtracting the x-coordinate value of the right eye from the x-coordinate value of the left eye is used as the amount of congestion.
  • the amount of congestion is defined in this way, the amount of congestion is always a constant value when looking at an object on the screen, but becomes a value smaller than the certain value when the user sees an object that has jumped out of the screen.
  • An item 701 indicates the measurement date and time.
  • An item 702 indicates the x coordinate (pixel unit) of the pupil center coordinate of the right eye.
  • An item 703 indicates the x coordinate (pixel unit) of the pupil center coordinate of the left eye.
  • An item 704 indicates the amount of congestion.
  • the congestion amount is a value (in pixels) obtained by subtracting the value of the item 702 from the value of the item 703.
  • FIG. 8 shows the pupils of both eyes of the user when an experiment is performed in which the mark displayed on the screen (display) as shown in FIG. 9 and the mark displayed at a position of a predetermined three-dimensionality from the screen are alternately displayed.
  • FIG. 8A and FIG. 8B are graphs showing temporal changes in the pupil center coordinates of the left eye and right eye, respectively, and FIG. 8C is the pupil center coordinates of the left eye at the same time (FIG. 8 ( The time change of the amount of convergence which subtracted the pupil center coordinate (FIG.8 (b)) of the right eye from a)) is shown.
  • FIG. 8 The time change of the amount of convergence which subtracted the pupil center coordinate (FIG.8 (b)) of the right eye from a)
  • the distance between the centers of the horizontal pupils of both eyes when viewing the video on a non-stereoscopic screen is used as a reference so that the amount of convergence of the user can be expressed larger as the video with a higher degree of stereo is viewed.
  • This is defined as the amount of decrease in the distance between the centers of the horizontal pupils of both eyes. For example, as shown in FIG. 8, when the horizontal pupil center distance of both eyes when viewing on the screen is 375 pixels and the horizontal pupil center distance of both eyes when viewing an image at a certain time is 365 pixels, Assume that the quantity is 10 pixels.
  • the congestion pattern accumulation unit 105 stores ideal congestion amount distribution data in one or a plurality of evaluation sections from the start time to the end time of the stereoscopic video.
  • the distribution of the congestion amount in the evaluation section is a distribution of how much congestion amount and how long the evaluation section exists in the evaluation section, and the ideal distribution of the congestion amount is assumed by the 3D creator. It is a distribution of congestion amount.
  • the ideal distribution of congestion amount it is assumed that the stereoscopic image creator looks at the user on the screen in the evaluation section, and the theoretical congestion amount when the user sees the assumed point. And its distribution may be calculated.
  • an experiment is performed to show a plurality of subjects the same stereoscopic video, and the subject's congestion amount distribution in each evaluation section at the time of the experiment is obtained, and the largest amount of congestion amount distribution is the ideal congestion amount distribution. It is also good.
  • the amount of vergence of a subject when a stereoscopic image of various degrees of solidity is shown is measured, and whether or not the amount of vergence falls within a predetermined range with respect to the calculated value is tested. To do.
  • measure the rate of change of the subject's amount of convergence when showing a moving image displaying an object that moves at a predetermined speed while changing the degree of solidity and test whether the rate of change is within a predetermined range. You may do it. Also, as shown in FIG.
  • the amount of congestion differs depending on the distance of the user from the screen (hereinafter referred to as “viewing distance”). Therefore, when determining the ideal congestion amount distribution, a viewing position from a general television may be assumed, and the ideal congestion amount distribution at the assumed position may be determined.
  • the ideal congestion distribution data stored in the congestion pattern storage unit 105 is stored for each stereoscopic video and for each stereoscopic degree. Hereinafter, these data are described as “congestion pattern”.
  • FIG. 1 An example of a congestion pattern stored in the congestion pattern accumulation unit 105 is shown in FIG.
  • an item 901 indicates an ID assigned to each stereoscopic video.
  • An item 902 indicates the stereoscopic degree of the stereoscopic image, and the larger the value, the larger the stereoscopic image is displayed.
  • An item 903 indicates an evaluation section number.
  • An item 904 indicates an evaluation interval time corresponding to the evaluation interval indicated by the evaluation interval number.
  • the evaluation section time indicates the start time and end time of the evaluation section by the elapsed time from the start of playback of the stereoscopic video. For example, in the evaluation section time of evaluation section number 1 in FIG. 11, the evaluation section start time is one minute after the stereoscopic video reproduction start time, and the evaluation section end time is six minutes later.
  • An item 905 indicates the time width of the evaluation section.
  • the time width of the evaluation section of evaluation section number 1 in FIG. 11 is 5 minutes.
  • An item 906 indicates the distribution of congestion amount.
  • the distribution of the amount of congestion indicates how long the amount of congestion exists in the corresponding evaluation section for how long (total time in each amount of congestion).
  • the object located on the screen The total time of the amount of congestion when the difference from the amount of congestion when viewing is divided in units of 10 pixels is shown. More specifically, in the item described as “0-10” in the item 906, the difference value of the congestion amount is 0 to 10 pixels when compared with the congestion amount when the object located on the screen is viewed. In the case of evaluation section number 1, it is 2 minutes 30 seconds.
  • the distribution of the congestion amount calculated based on the ideal congestion amount is described as “ideal congestion amount distribution”.
  • FIG. 12 shows an example in which the congestion amount distribution of the evaluation section number 1 is graphed in FIG.
  • the evaluation section determination unit 106 includes information (hereinafter referred to as “playback video information”) about the stereoscopic video acquired by the stereoscopic video information acquisition unit 104 from a television displaying the stereoscopic video, a player playing the stereoscopic video, or the like.
  • playback video information information about the stereoscopic video acquired by the stereoscopic video information acquisition unit 104 from a television displaying the stereoscopic video, a player playing the stereoscopic video, or the like.
  • playback video information information about the stereoscopic video acquired by the stereoscopic video information acquisition unit 104 from a television displaying the stereoscopic video, a player playing the stereoscopic video, or the like.
  • playback video information information about the stereoscopic video acquired by the stereoscopic video information acquisition unit 104 from a television displaying the stereoscopic video, a player playing the stereoscopic video, or the like.
  • data including information such as a stereoscopic video ID, a
  • the stereoscopic video information acquisition unit 104 transmits the playback video information to the convergence motion calculation unit 102.
  • the convergence motion calculation unit 102 stores the elapsed time from the start of the stereoscopic video in association with the measured and calculated congestion amount as indicated by an item 1805 in FIG.
  • the measurement date and time that is “ ⁇ 1” in the item 1805 indicates that the measurement date and time is other than the evaluation section.
  • an item 1804 in FIG. 14 indicates the amount of congestion.
  • the distance between the horizontal pupil centers when viewed on the screen is determined in advance.
  • the value is stored in the convergence motion calculation unit 102 as a value.
  • the convergence motion calculation unit 102 calculates a difference value from the predetermined value from the measurement result, and stores the calculated value in the convergence motion storage unit 103 as the amount of congestion. Further, as the amount of convergence when viewing the screen, the result measured when viewing the planar image may be stored in the convergence motion calculation unit 102 and used.
  • the evaluation section determination unit 106 compares the elapsed time of the received playback video information with the end time of the evaluation section stored in the congestion pattern storage unit 105. For example, in FIG. 11, since the end time of the evaluation section of evaluation section number 1 is 0 hour 6 minutes 0 seconds after the start of the stereoscopic video, when the elapsed time in the received video information is 0 hours 6 minutes 0 seconds, The evaluation section determination unit 106 determines that the evaluation section having the evaluation section number 1 has ended.
  • step S404 the evaluation section determination unit 106 determines that the elapsed time from the stereoscopic video start time acquired from the stereoscopic video information acquisition unit 104 matches the end time of the evaluation section.
  • the process proceeds to step S404, and the evaluation section determination unit 106 The corresponding evaluation section number is transmitted to the athletic ability calculation unit 107.
  • the process at this time is ended, and the processes after step S401 are repeatedly executed.
  • step S ⁇ b> 404 when the athletic ability calculation unit 107 receives information from the evaluation interval determination unit 106 that the evaluation interval has ended, the athletic ability calculation unit 107 first acquires the amount of congestion in the corresponding evaluation interval from the congestion exercise accumulation unit 103. Next, the athletic ability calculation unit 107 calculates a distribution of the convergence amount with respect to the acquired amount of congestion, and stores it in the congestion exercise accumulation unit 103 together with the reproduction video information and information indicating the evaluation section. Specifically, for example, for the evaluation section number 1, the athletic ability calculation unit 107 acquires the amount of congestion from the start of stereoscopic video 1 minute to 6 minutes from the convergence exercise accumulation unit 103.
  • the athletic ability calculation unit 107 calculates a distribution to which the congestion amount belongs to the interval of 10 pixel intervals with respect to the acquired congestion amount, and the amount of congestion included in each interval is calculated.
  • the congestion amount time distribution (hereinafter, this congestion amount time distribution is described as “measured congestion amount distribution”) is calculated from the number of data.
  • An example of the measured congestion amount distribution stored in the convergence motion accumulation unit 103 is shown in FIG.
  • An item 1901 indicates the ID of the currently viewed stereoscopic video.
  • An item 1902 indicates the stereoscopic degree of the stereoscopic image.
  • An item 1903 indicates an evaluation section number.
  • An item 1904 indicates the measured congestion amount distribution.
  • the athletic ability calculation unit 107 notifies the determination unit 108 of the fact.
  • step S ⁇ b> 405 the determination unit 108 compares the measured congestion amount distribution in the evaluation section stored in the congestion motion accumulation unit 103 with the ideal congestion amount distribution in the congestion pattern stored in the congestion pattern accumulation unit 105.
  • the ideal congestion amount distribution to be compared is the ideal congestion amount having the same ID and stereoscopic degree as the ID and stereoscopic degree of the reproduced video information of the currently displayed stereoscopic video obtained by the stereoscopic video information acquisition unit 104. This is the ideal congestion amount distribution in the same evaluation section as the evaluation section of the reproduced video information in the distribution.
  • the determination unit 108 compares the total time for each amount of convergence, and determines that the convergence movement capacity of the user's eyeball is low for the amount of congestion that differs by a predetermined ratio or more. .
  • FIGS. 16A and 16B show two examples of the distribution of the amount of convergence of the eye movement of the user in a certain evaluation section (for example, the evaluation section of evaluation section number 1) accumulated in the convergence movement accumulating unit 103.
  • the dotted line in the figure indicates the ideal congestion amount distribution stored in the congestion pattern accumulation unit 105 illustrated in FIG.
  • the congestion amount is not measured in the interval where the congestion amount is 30 to 40, and the ideal congestion amount is not measured in the interval where the congestion amount is 20 to 30. Compared to the total time, the total amount of congestion measured is slightly less. On the other hand, in the interval where the amount of congestion is 10 to 20, the total time of the amount of congestion measured is larger than the total amount of ideal congestion. From this result, it is determined that the user having the measured congestion amount distribution of FIG. 16A does not have the ability to move the eyeball for viewing a stereoscopic image in which the ideal amount of convergence is between 30 and 40.
  • the eyeball's ability to watch stereoscopic images generated when the ideal amount of convergence is between 20 and 30 is also low.
  • the amount of congestion in the range from 10 to 40 is not measured, while the amount of congestion in the range from 0 to 10 is increased. Therefore, this user determines that there is no eyeball movement ability for viewing a stereoscopic image in which the ideal amount of convergence is in the range of 10 to 40. In such a case, a more detailed distribution may be calculated within the range of congestion amounts from 0 to 10. As a result, it can be seen that, in the distribution where the amount of congestion is 0 to 10, when the value of most of the amount of congestion is 0, the user cannot perform stereoscopic viewing itself.
  • step S406 when it is determined that there is no or low congestion exercise capacity in a certain amount of congestion, the process proceeds to step S406. On the other hand, if it is determined that there is no difference of a predetermined ratio or more between the measured distribution of congestion amounts of the user and the ideal congestion amount distribution, the process is terminated.
  • step S ⁇ b> 406 the stereoscopic degree changing unit 109 sends a request for changing the stereoscopic degree of the currently displayed stereoscopic video based on the determination result of the determining unit 108, and a television or stereoscopic video that controls the stereoscopic degree of the stereoscopic video. Is sent to the player who is playing.
  • the degree of solidity is changed so that the maximum amount of congestion is 30.
  • the stereoscopic degree is changed so that the amount of congestion is 10 at the maximum.
  • the distribution of the congestion amount 0 to 10 is further examined in FIG. 16B, and when most of the values are the congestion amount 0, the stereoscopic degree is changed to 0 so that the congestion amount becomes 0. That is, it changes to a plane image.
  • the solid degree change unit 109 changes the congestion pattern referred to by the evaluation section determination unit 106 and the determination unit 108 to a congestion pattern that matches the changed degree of solidity. For example, a congestion pattern with a stereoscopic degree of 3 including a congestion amount in the range of 30 to 40 as shown in FIG. 11 is changed to a congestion pattern with a stereoscopic degree of 2 with a maximum congestion amount 30 as shown in FIG.
  • the congestion capability determination device calculates the amount of convergence of the user's eyeball in stereoscopic view from the eyeball information of the user watching the stereoscopic video, and the distribution of the congestion amount in the evaluation section Is compared with the ideal distribution of vergence to determine the vergence ability of the user's eyeball. For this reason, it is possible to determine the convergence movement ability at each stereoscopic degree of the user watching the stereoscopic video, and change the stereoscopic degree of the stereoscopic video to a stereoscopic degree suitable for the user based on the result. In this way, by changing the stereoscopic degree based on the determination result, it is possible to provide a stereoscopic image with a stereoscopic degree suitable for the user by a single change in the stereoscopic degree. Can be provided.
  • the congestion capability determination apparatus according to the present invention has been described according to the embodiment, the present invention is not limited to this embodiment.
  • the congestion pattern is created assuming a general viewing position from the television, but a plurality of congestion patterns may be created for each viewing distance (for example, every 50 cm) as shown in FIG. .
  • a congestion pattern that is closest to the set viewing distance is selected and used for determining the congestion capability.
  • FIG. 20 is a block diagram showing a functional configuration of the congestion capability determination apparatus in this case. The difference from FIG. 3 is that a viewing distance input unit 3101 for receiving a viewing distance from the user is added.
  • the vergence movement ability of the user's eyeball is determined by comparing the ideal vergence amount distribution and the measured vergence amount distribution in the evaluation section with the determination of the vergence movement ability of the user's eyeball.
  • the place where the user actually sees in the evaluation section and the place seen by the user assumed when creating the congestion pattern match it is possible to determine the congestion exercise ability more accurately.
  • the determination unit 108 determines that there is a problem in the convergence movement ability of the user's eyeball. As described above, in order to more accurately determine the vergence ability of the user's eyeball, it is necessary to set a section having a high possibility of looking at the same place as the evaluation section.
  • FIG. 21 is a block diagram showing a functional configuration of a congestion pattern creating apparatus that creates a congestion pattern of a certain stereoscopic video in the above embodiment.
  • FIG. 22 is a flowchart showing the operation of the congestion pattern creation device.
  • the convergence pattern creation device includes an eye movement acquisition unit 2401, a convergence motion calculation unit 2402, a convergence motion accumulation unit 2403, an evaluation interval determination unit 2404, a convergence pattern creation unit 2405, and a congestion pattern accumulation unit 105.
  • step S2501 first, a test stereoscopic image is shown to a plurality of subjects, and only a predetermined number of subjects who are correctly performing a vergence exercise are extracted.
  • the difference between the measured congestion amount distribution and the ideal congestion amount distribution may be calculated using the congestion capability determination apparatus shown in FIG. 3, and a predetermined number of persons may be extracted from subjects having a small difference.
  • a stereoscopic image that is a target for creating a convergence pattern is shown to the plurality of extracted subjects, and the eye movement at that time is measured by an eye movement acquisition unit 2401.
  • the vergence movement calculation unit 2402 calculates the vergence exercise amount from the measured eye movement and records it in the vergence movement accumulation unit 2403. Specifically, time-series data of the amount of convergence is calculated and recorded as the convergence movement.
  • the amount of convergence is, for example, the distance between the horizontal pupil centers of both eyes when the distance between the horizontal pupil centers of both eyes when viewing an image on a non-stereoscopic screen as in the above embodiment. Defined as the amount of decrease.
  • FIG. 23 shows an example of a measurement result for one subject stored in the convergence motion accumulation unit 2403.
  • An item 2601 indicates the ID of the target stereoscopic video.
  • An item 2602 indicates a subject ID.
  • An item 2603 indicates the stereoscopic degree of the target stereoscopic video.
  • An item 2604 indicates an elapsed time from the start of the target stereoscopic video.
  • Items 2605 to 2607 are the amount of congestion obtained by subtracting the difference value between the x-coordinates of the left and right eyes and the x-coordinates of the left and right eyes when the object located on the screen is viewed, as in the above embodiment. It shows.
  • step S2503 the evaluation interval determination unit 2404 calculates an average value and a variance value for the time-series data of the congestion amounts of the plurality of subjects calculated in step S2502, and stores the results in the convergence motion accumulation unit 103.
  • An example of the result of the accumulated average value and variance value is shown in FIG.
  • An item 2701 indicates the ID of the target stereoscopic video.
  • An item 2702 indicates the stereoscopic degree of the target stereoscopic video.
  • An item 2703 indicates an elapsed time from the start of the target stereoscopic video.
  • An item 2704 indicates the congestion amount of each subject, and an item 2705 and an item 2706 indicate the average value and the variance value of the congestion amount shown in the item 2704, respectively.
  • the evaluation interval determination unit 2404 determines an evaluation interval from the variance value of the amount of congestion with respect to each elapsed time from the start time of the stereoscopic video of each subject calculated and stored in step S2503.
  • the evaluation section is determined based on the basic idea that the amount of congestion at the same elapsed time is different because the place where the video is viewed is different because the subjects are only those who can stereoscopically view the stereoscopic video. Is done.
  • the state in which the variance value of the item 2706 continues for a predetermined time or longer continues for a predetermined time or more, and the second and subsequent evaluation intervals are determined as intervals where a predetermined time has elapsed from the previous evaluation interval. More specifically, the interval in which the variance value is 0.05 or less continues for 5 minutes, and in the second and subsequent evaluation intervals, an interval in which 30 minutes or more have elapsed from the previous evaluation interval is determined as the evaluation interval. .
  • the evaluation interval determination unit 2404 stores the information of the evaluation interval determined as described above in the convergence motion accumulation unit 2403.
  • An example of the information on the accumulated evaluation section is shown in FIG.
  • An item 2801 indicates the ID of the target stereoscopic video.
  • An item 2802 indicates the stereoscopic degree of the target stereoscopic video.
  • An item 2703 indicates an evaluation section number.
  • An item 2804 and an item 2805 indicate an evaluation section time (start time and end time) corresponding to the evaluation section number of the item 2804 and a time width thereof, respectively. The start time and end time of the evaluation section are expressed by the elapsed time from the start of the stereoscopic video.
  • step S ⁇ b> 2505 the congestion pattern creation unit 2405 calculates the average of the congestion amounts of a plurality of subjects in each evaluation interval from the information of each evaluation interval stored in the convergence motion accumulation unit 2403 and the average value of the congestion amounts of the plurality of subjects. The distribution of values is calculated, and a congestion pattern of the format shown in FIG. 11 is created together with the information of the evaluation section, and the created congestion pattern is stored in the congestion pattern accumulation unit 105.
  • Modification 1 the distribution of the user congestion amount in the evaluation section is compared with the congestion pattern. That is, the vergence movement ability of the user's eyeball was determined by comparing the distribution of which amount of convergence was in the evaluation section and how long it was with the ideal distribution.
  • the distribution of the convergence speed is used instead of the distribution of the amount of convergence as a parameter used to determine the convergence movement ability of the user's eyeball. Since most of the processing is the same as in the above embodiment, only the differences will be described below.
  • the congestion pattern storage unit 105 stores a congestion pattern indicating an ideal congestion speed distribution.
  • the congestion rate distribution is calculated as follows. That is, by differentiating an ideal amount of congestion as shown in FIG. 26A, a congestion speed that is a speed change of the amount of congestion as shown in FIG. 26B is calculated. Using this congestion speed, an ideal congestion speed distribution indicating how long each congestion speed has been in the evaluation section is calculated.
  • FIG. 27 shows an example of a congestion pattern showing an ideal congestion rate distribution. 27 shows an example in which the absolute value of the congestion speed is calculated and the distribution is stored, but the distribution of the congestion speed including a negative speed may be stored.
  • Items 2201 to 2205 are the same as the items 901 to 905 of the congestion pattern shown in FIG. 11, and therefore description thereof will not be repeated.
  • Item 2206 shows the distribution of congestion speed. The distribution of the congestion speed indicates how long the congestion speed exists in the corresponding evaluation section for how long (total time at each congestion speed). In the case of FIG. 27, the congestion speed is divided in units of 5 pixels / second. It shows the total time of congestion speed. More specifically, in the item described as “0-5” in the item 2206, it is the total time of the video in which the congestion speed is 0 to 5 pixels / second. Seconds.
  • the athletic ability calculation unit 107 calculates a distribution for each congestion speed, not for each congestion amount, from the calculation result for the convergence movement stored in the convergence movement accumulation unit 103, and for the result. For example, it is stored in the convergence motion accumulating unit 103 in the form as shown in FIG.
  • the items 2301 to 2303 are the same as the items 1901 to 1903 of the measured congestion amount distribution shown in FIG.
  • An item 2304 indicates the measured congestion rate distribution. If only the measured congestion speed distribution calculated from the measurement result in the time zone of evaluation section number 1 is calculated, the calculation result is stored only in the storage area of the measured congestion speed distribution of evaluation section number 1. When the storage is completed, the athletic ability calculation unit 107 notifies the determination unit 108 of the fact.
  • the determination unit 108 compares the convergence speed distribution of the user's eyeball with the convergence speed distribution in the convergence pattern in the same evaluation section, thereby determining the convergence movement ability of the user's eyeball. In the distribution of the convergence movement of the user's eyeball, when the distribution of the fast velocity is smaller than the distribution of the convergence pattern, it can be determined that the user has not been able to follow the change in the stereoscopic degree in the stereoscopic video.
  • the degree-of-sterilization change unit 109 is displayed by reducing the degree of three-dimensionality of the currently displayed stereoscopic image. So that the stereoscopic video is within the change of the stereoscopic degree that the user can follow.
  • the congestion capability determination device calculates the convergence speed of the user's eyeball during stereoscopic viewing from the eyeball information of the user viewing the stereoscopic video, and calculates the distribution of the congestion speed in the evaluation section.
  • the vergence ability of the user's eyeball is determined. For this reason, it is possible to determine the convergence movement ability at each stereoscopic degree of the user watching the stereoscopic video, and change the stereoscopic degree of the stereoscopic video to a stereoscopic degree suitable for the user based on the result. In this way, by changing the stereoscopic degree based on the determination result, it is possible to provide a stereoscopic image with a stereoscopic degree suitable for the user by a single change in the stereoscopic degree. Can be provided.
  • the user's eyeball's eye movement ability is determined by comparing the user congestion amount distribution in the evaluation section with the congestion pattern.
  • the congestion pattern accumulation unit 105 does not store the ideal distribution of the congestion pattern, but stores only the evaluation interval and information indicating whether or not each congestion amount value exists in an ideal state. A method for determining the vergence motor ability will be described.
  • FIG. 29 shows an example of the congestion pattern stored in the congestion pattern accumulation unit 105 in this modification.
  • the item 906 does not store the total time in each congestion amount range as in the above embodiment, but stores a binary value of 0 or 1. 1 indicates that there is a congestion amount included in the congestion amount range, and 0 indicates that there is no congestion amount included in the congestion amount range.
  • the exercise capacity calculation unit 107 calculates the measured congestion amount distribution in the evaluation section in the same manner as the above embodiment, and stores it in the convergence exercise accumulation unit 103.
  • the determination unit 108 compares the calculation result with the ideal congestion distribution stored in the congestion pattern accumulation unit 105, and there is no measured congestion amount included in the congestion amount range in which the value is 1 in the ideal congestion distribution.
  • the stereoscopic degree changing unit 109 changes the stereoscopic degree of the stereoscopic video to a stereoscopic degree in which the convergence amount is smaller than the convergence amount range where the congestion amount does not exist.
  • the size of the congestion pattern stored in the congestion pattern accumulating unit 105 can be reduced, and the amount of calculation at the time of determining the congestion exercise ability can be reduced.
  • the vergence movement ability of the user's eyeball is determined by comparing the measured congestion amount distribution with the ideal convergence amount distribution in the evaluation section.
  • the ideal congestion amount distribution is not stored as the congestion pattern, and the congestion movement ability of the user's eyeball is determined by comparing the measured congestion amount distributions in the evaluation sections having different time zones.
  • the configuration of the congestion capability determination device according to this modification is the same as that shown in FIG.
  • FIG. 30 shows an example of a congestion pattern stored in the congestion pattern accumulation unit 105 in this modification.
  • An item 3201 indicates the ID of a stereoscopic video.
  • An item 3202 indicates an evaluation section number.
  • An item 3203 indicates an evaluation interval time corresponding to the evaluation interval indicated by the evaluation interval number.
  • An item 3204 indicates the time width of the evaluation section.
  • the ideal congestion amount distribution is the same in all the evaluation sections of the present modification. For example, it is assumed to have an ideal congestion amount distribution as shown in FIG. For this reason, the congestion pattern shown in FIG. 30 does not include the ideal congestion amount distribution.
  • the ideal convergence amount distribution is the same in all evaluation sections regardless of the degree of solidity, the congestion pattern for each degree of solidity is not stored.
  • the processing executed by the congestion capability determination device according to this modification is the same as the processing executed by the congestion capability determination device according to the embodiment shown in FIG. 4, but the processing after step S404 is different. Therefore, differences from the above embodiment will be described below.
  • step S404 when the athletic ability calculation unit 107 receives information from the evaluation section determination unit 106 that the evaluation section has ended, the athletic ability calculation section 107 calculates the measured congestion amount distribution in the completed evaluation section, and the measured congestion amount distribution as shown in FIG. Is stored in the convergence motion accumulating unit 103.
  • the determination unit 108 when the completed evaluation section is the first evaluation section, the determination unit 108 does not determine the convergence movement ability of the user's eyeball. That is, the process proceeds from step S404 to the end.
  • step S405 the determination unit 108 compares the measured congestion amount distribution of the previous evaluation section and the completed evaluation section, It is determined whether or not the congestion amount has decreased by a predetermined rate or more in the congestion amount range.
  • the process proceeds to the end.
  • step S406 if there is a decrease in the amount of congestion of a predetermined rate or more in a certain amount of congestion range, the process proceeds to step S406.
  • step S406 the stereoscopic degree changing unit 109 controls the stereoscopic degree change request and the stereoscopic degree change request so that the stereoscopic degree does not include the congestion amount range in which the amount of congestion has decreased by a predetermined ratio or more. To a player who is playing a live TV or a 3D image.
  • the determination method in the present modification it is possible to detect temporal deterioration of the congestion movement ability due to viewing of the stereoscopic video of the user.
  • the user's original congestion exercise ability cannot be determined.
  • the size of the congestion pattern stored in the congestion pattern accumulation unit 105 can be reduced by implementing the determination method according to the present modification.
  • FIG. 32 is a block diagram showing a functional configuration of a congestion capability judging device composed of essential components of the present invention.
  • the congestion ability determination device is a congestion ability determination device that determines the ability of the user's eyeballs to perform the convergence movement from the state of the user's eyeball when viewing the stereoscopic video, and is information regarding the movement of the user's eyeball when viewing the stereoscopic video.
  • An eyeball information acquisition unit 101 that acquires eyeball information
  • a vergence movement calculation unit 102 that calculates a vergence exercise amount indicating the degree of vergence movement of the user's eyeball from the eyeball information acquired by the eyeball information acquisition unit 101, and a user's viewing.
  • Distribution data indicating the distribution of the convergence motion amount calculated by the convergence motion calculation unit 102 in the evaluation section, which is a predetermined playback time section of the stereoscopic video, and the congestion motion amount determined according to the depth information of the stereoscopic video in the evaluation section.
  • a determination unit 108 is provided that determines the ability of the user's eyeballs to converge by comparing the distribution data indicating the distribution.
  • each of the above devices may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like.
  • a computer program is stored in the RAM or hard disk drive.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • each of the above-described devices may be configured from an IC card or a single module that can be attached to and detached from each device.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the congestion capability determination method includes: an eyeball information acquisition step of acquiring eyeball information that is information relating to a user's eyeball movement when viewing stereoscopic video; and the user's eyeball from the eyeball information acquired in the eyeball information acquisition step.
  • the present invention relates to a non-transitory recording medium that can read the computer program or the digital signal, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD ( It may be recorded on a Blu-ray Disc (registered trademark), a semiconductor memory, or the like.
  • the digital signal may be recorded on these non-temporary recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • the stereoscopic video providing apparatus has been described based on the embodiment, but the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, one or more of the present invention may be applied to various modifications that can be conceived by those skilled in the art, or forms constructed by combining components in different embodiments. It may be included within the scope of the embodiments.
  • the present invention can provide a stereoscopic image having a comfortable stereoscopic degree suitable for a user with respect to a user having various convergence exercise capabilities.
  • the present invention can be used for many stereoscopic video apparatuses whose stereoscopic degree can be changed, and the applicability of the present invention is very large.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

 輻輳能力判定装置は、立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部(101)と、眼球情報取得部(101)が取得した眼球情報から、ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部(102)と、ユーザが視聴している立体映像の所定の再生時間区間である評価区間における輻輳運動算出部(102)が算出した輻輳運動量の分布を示す分布データと、評価区間における立体映像の奥行き情報に応じて決定される輻輳運動量の分布を示す分布データとを比較することにより、ユーザの眼球の輻輳運動の能力を判定する判定部(108)とを備える。

Description

輻輳能力判定装置及びその方法
 本発明は、立体映像を見ているユーザの眼球の輻輳運動能力を判定することを可能とする輻輳能力判定装置に関する。
 平面ディスプレイ上に表示した映像からユーザが立体的な映像を見る方法として、両眼視差を利用した方法がある。これは人の右眼と左眼は離れた位置にあり、それぞれの眼に入る映像は視点が異なるため、人が奥行きを感じることを利用した方法である。
 両眼視差を利用した方法では、ユーザの右眼と左眼に対して異なる映像を表示することでユーザの脳の中で立体を感じさせることができる。しかしながら、このような現実とは異なる方法による立体視は視覚疲労や不快感をユーザに与える可能性がある。
 そこで、両眼の疲労による視覚機能の低下量に基づいて眼の疲労度を推定し、推定された疲労度に応じて立体度(立体度合いを示す値)を調整する立体映像表示装置が提案されている(例えば、特許文献1参照)。
特開平9-18894号公報
 特許文献1では一定期間内の眼球の輻輳回数や左右の両眼共同運動が崩壊する異常現象の回数に基づいてユーザの疲労を検出し、立体度を変更する。また、立体度の変更は、上記ユーザの疲労を検出すると立体度を1段階下げることにより実現している。
 一方、立体視が可能であるか否かはユーザの眼球の輻輳運動能力に依存する。具体的には、立体度合いが大きくなると、その映像を見るにはより大きな輻輳運動が必要となるため、様々な立体度合いを含む立体映像において、輻輳運動能力が低いユーザは、ある立体度より大きな立体度の立体映像を正しく見ることができない。このようなユーザの眼球の輻輳運動能力を超えた立体映像をユーザが見続けると疲労や不快を感じる可能性がある。
 しかしながら、このような正しく立体視ができない立体度合いの映像を見ているユーザに対して、特許文献1のように一定期間内の眼球の輻輳回数や左右の両眼共同運動が崩壊する異常現象の回数を計測することは、正しく立体視することができない立体度合いの映像に対する疲労を計測するのではなく、ユーザが正しく見ることができる立体度合いの映像に対する疲労を計測することとみなされてしまう。このため、正しく立体視することができない立体度合いの映像に対する疲労や不快感を正しく検出できないという課題が存在すると共に、疲労が発生してからしか立体度合いが変更できないという課題も存在する。
 また、特許文献1では、疲労を検出するごとに立体度を1段階下げているが、疲労の検出に所定時間を要するため、立体映像の立体度合いがユーザの眼球の輻輳運動能力よりかなり大きい場合、ユーザにとって適切な立体度まで立体度を下げるまでにはかなりの時間を要してしまい、ユーザに、より疲労を与えてしまうという課題も存在する。
 本発明のある局面に係る輻輳能力判定装置は、立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部と、前記眼球情報取得部が取得した前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部と、前記ユーザが視聴している立体映像の所定の再生時間区間である評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データと、前記評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定部とを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 以上のように、本発明によると、立体映像を見ているユーザの各立体度における輻輳運動能力を判定し、その結果に基づき立体映像の立体度をユーザに適した立体度に変更することを可能とする輻輳能力判定装置を提供することができる。
図1は、立体視を可能とする眼鏡制御原理を説明する図である。 図2Aは、立体視における輻輳角を説明する図である。 図2Bは、立体視における輻輳角を説明する図である。 図3は、本発明の実施の形態に係る輻輳能力判定装置の機能的な構成を示すブロック図である。 図4は、本発明の実施の形態に係る輻輳能力判定装置の動作を示すフローチャートである。 図5Aは、眼電位計測用の立体視用眼鏡の一例を示す図である。 図5Bは、眼球撮影用の立体視用眼鏡の一例を示す図である。 図5Cは、図5Bの眼鏡部分を取り除き横から見た図である。 図6は、眼球情報として撮影された眼球画像の一例を示す図である。 図7は、輻輳運動蓄積部に記憶される輻輳運動データの具体例を示す図である。 図8は、ユーザの両眼の瞳孔中心位置の時間変化と輻輳量の時間変化を示すグラフである。 図9は、ユーザに対して行った実験を説明するための図である。 図10は、ユーザの視聴位置による輻輳角の違いを説明する図である。 図11は、輻輳パターン蓄積部に記憶される輻輳パターンデータの具体例を示す図である。 図12は、輻輳パターン蓄積部に記憶される輻輳量分布の具体例を示す図である。 図13は、再生映像情報の一例を示す図である。 図14は、輻輳運動算出結果の一例を示す図である。 図15は、計測輻輳量分布の一例を示す図である。 図16Aは、輻輳運動蓄積部に記憶される輻輳量分布の具体例を示す図である。 図16Bは、輻輳運動蓄積部に記憶される輻輳量分布の具体例を示す図である。 図17は、輻輳パターン蓄積部に記憶される輻輳パターンの一例を示す図である。 図18は、視聴距離別の輻輳パターンの一例を示す図である。 図19は、視聴位置の設定方法を説明するための図である。 図20は、本発明の実施の形態に係る他の輻輳能力判定装置の機能的な構成を示すブロック図である。 図21は、本発明の実施の形態に係る輻輳パターン作成装置の機能的な構成を示すブロック図である。 図22は、輻輳パターン作成装置の動作を示すフローチャートである。 図23は、輻輳運動蓄積部に記憶される被験者1人分の輻輳運動データの具体例を示す図である。 図24は、輻輳運動蓄積部に記憶される輻輳量の平均値と分散値のデータを示す図である。 図25は、輻輳運動蓄積部に記憶される評価区間の情報の一例を示す図である。 図26は、輻輳速度分布の算出方法を説明するための図である。 図27は、輻輳パターンの一例を示す図である。 図28は、輻輳運動蓄積部に記憶される計測輻輳速度分布の一例を示す図である。 図29は、本発明の実施の形態2に係る輻輳パターン蓄積部に記憶される輻輳パターンの一例を示す図である。 図30は、輻輳パターン蓄積部に記憶される輻輳パターンの一例を示す図である。 図31は、理想輻輳量分布の一例を示す図である。 図32は、本発明の必須の構成要素から構成される輻輳能力判定装置の機能的な構成を示すブロック図である。
 以下、本発明の実施の形態について図面を参照しながら説明する。
 本発明の一態様に係る輻輳能力判定装置は、立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部と、前記眼球情報取得部が取得した前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部と、前記ユーザが視聴している立体映像の所定の再生時間区間である評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データと、前記評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定部とを備える。
 この構成によると、立体映像を見ているユーザの眼球情報から立体視中のユーザの眼球の輻輳運動量を算出し、評価区間における輻輳運動量の分布を理想的な輻輳運動量の分布と比較することで、ユーザの眼球の輻輳運動能力を判定している。このため、立体映像を見ているユーザの各立体度における輻輳運動能力を判定し、その結果に基づき立体映像の立体度をユーザに適した立体度に変更することが可能となる。このように、判定結果に基づいて立体度を変更することで、ユーザに適した立体度の立体映像が、一度の立体度変更により提供可能となるため、疲労や不快感の少ない立体映像をユーザに提供することが可能となる。
 なお、本発明に開示される輻輳能力判定装置は、立体映像のみならず、静止画などの立体画像にも適用可能である。
 また、前記判定部は、前記評価区間における、輻輳運動量がとり得る値の範囲を複数の範囲に分割したときの範囲ごとの、当該範囲に含まれる前記輻輳運動算出部が算出した前記輻輳運動量の積算時間と、当該範囲に含まれる前記立体映像の奥行き情報に応じて決定された前記輻輳運動量の積算時間とを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定しても良い。
 この構成によると、輻輳運動の能力が低い輻輳運動量の範囲を正確に特定することができる。
 また、前記判定部は、前記複数の範囲のうち、前記輻輳運動算出部が算出した前記輻輳運動量の積算時間の方が、前記立体映像の奥行き情報に応じて決定された前記輻輳運動量の積算時間よりも小さい範囲において、前記ユーザの眼球の輻輳運動の能力が低いと判定しても良い。
 また、前記判定部は、前記評価区間における、輻輳運動量がとり得る値の範囲を複数の範囲に分割したときの範囲ごとの、当該範囲に前記輻輳運動算出部が算出した前記輻輳運動量が含まれるか否かを示す情報と、当該範囲に前記立体映像の奥行き情報に応じて決定された前記輻輳運動量が含まれるか否かを示す情報とを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定しても良い。
 この構成によると、輻輳能力判定装置は、輻輳運動量がとり得る値の範囲を複数の範囲に分割したときの範囲ごとに、その範囲に輻輳運動量が含まれるか否かの情報のみを記憶していれば良い。このため、輻輳能力判定装置に記憶される情報のサイズを小さくすることができる。また、判定部は、輻輳運動量の積算時間の大小比較処理ではなく、輻輳運動量が含まれるか否かの判断処理を行なっている。このため、判定部の演算量を少なくすることができる。
 また、前記評価区間は、前記立体映像を視聴した複数の被験者の輻輳運動量の分散値が所定値以下となる状態が所定時間以上継続するときの前記立体映像の再生時間区間であっても良い。
 この構成によると、評価区間に表示される立体映像の中に、注視した際の輻輳運動量が異なる複数の被写体が存在しないことが保証される。つまり、上記立体映像中に奥行きの異なる複数の被写体が存在する場合には、各被験者が注視する被写体は異なる場合がある。このような場合には、被験者間で眼球の輻輳運動量が異なるため、輻輳運動量の分散値が大きくなる。ところが、上記立体映像の中に注視対象となる被写体が1つしか含まれていない場合には、被験者間で眼球の輻輳運動量がほぼ等しくなるため、輻輳運動量の分散値が小さくなる。このため、輻輳運動量の分散値が小さくなる再生時間区間を評価区間とすることにより、ユーザの輻輳運動能力を正確に判定することができる。
 本発明の他の局面に係る輻輳能力判定装置は、立体映像視聴時におけるユーザの眼球の状態から前記ユーザの眼球の輻輳運動の能力を判定する輻輳能力判定装置であって、立体映像視聴時の前記ユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部と、前記眼球情報取得部が取得した前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部と、前記ユーザが視聴している立体映像の所定の再生時間区間である第1評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データと、前記第1評価区間とは異なる前記ユーザが視聴している立体映像の所定の再生時間区間である第2評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定部とを備え、前記第1評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データと、前記第2評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとは等しい。
 この構成によると、立体映像を見ているユーザの眼球情報から立体視中のユーザの眼球の輻輳運動量を算出し、評価区間における輻輳運動量の分布を、他の評価区間における輻輳運動量の分布と比較することで、ユーザの眼球の輻輳運動能力を判定している。このため、立体映像を見ているユーザの輻輳運動能力の劣化を判定し、その結果に基づき立体映像の立体度をユーザに適した立体度に変更することが可能となる。このように、判定結果に基づいて立体度を変更することで、ユーザに適した立体度の立体映像が、一度の立体度変更により提供可能となるため、疲労や不快感の少ない立体映像をユーザに提供することが可能となる。
 また、前記輻輳運動量は、前記ユーザの左右の眼球の瞳孔中心間の距離に対応する値を示す輻輳量であっても良い。
 また、前記輻輳運動量は、前記ユーザの左右の眼球の瞳孔中心間の距離に対応する値を示す輻輳量の時間的な変化量を示す輻輳速度であっても良い。
 また、上述の輻輳能力判定装置は、さらに、前記判定部において輻輳運動能力が低いと判定された輻輳量の輻輳運動を引き起こさないように前記立体映像の立体度合いを変更する立体度合い変更部を備えていても良い。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 次に、立体視を可能とする眼鏡制御の原理について説明する。
 立体映像をユーザに提供する装置の一つに、図1に示すように、ディスプレイ上に右眼用と左眼用の映像を交互に表示し(以後このような映像を「立体映像」と記述)、立体視用の液晶シャッター眼鏡が立体映像の表示に同期して左右交互に映像を通過させることで、ユーザに左右の眼に対応した映像を提供する装置がある(フレームシーケンシャル方式)。つまり、左眼には左眼用映像が表示され、右眼には右眼用映像が表示されるようにシャッター眼鏡のシャッターの同期制御が行われる。このような装置を用いて左右の眼に対して異なる映像を表示することで、ユーザは立体視が可能となる。
 ここで、立体映像を見ているユーザの眼球運動について簡単に説明する。立体映像によって上記のように左右の眼に異なる映像を見せるが、水平方向に異なる映像を見せることで奥行き的な立体度をユーザに知覚させる。ここで、図2Aに示すように、左眼用映像および右眼用映像における物体間の距離(視差)が左右の眼と逆の方向に離れるほど、表示されている物体は近づいて見え(以後「立体度合いが大きくなる」と表現)、その際のユーザの眼球は内側に回転する。この運動を輻輳運動といい、このときの両眼の視線方向の成す角を輻輳角という。輻輳角は、左右の眼球が(無限遠方を見ている状態に対して)どれほど内側に位置しているかを示す量であり、図2Aから分かるように物体の3次元的な知覚位置が眼に近づくほど輻輳角は大きくなる。一方、図2Bに示すように立体表示されている物体の3次元的な知覚位置が眼から遠ざかるとユーザの眼球は外側方向に回転する。この運動を開散運動という。開散運動時は輻輳角が小さくなる。
 本実施の形態に係る輻輳能力判定装置は、立体映像を見ているユーザの輻輳角別の輻輳運動の度合いを示す輻輳運動量を算出し、ユーザの眼球運動の輻輳能力を判定する。ただし、本実施の形態では輻輳運動量として眼球の輻輳角を算出するのではなく、輻輳角と相関がある輻輳量を算出し利用する。
 以下、本発明の実施の形態について、ユーザの輻輳量別の輻輳運動を計測した結果に基づいてユーザの眼球運動の輻輳能力を判定し、制御を行う具体例について図面を参照しながら説明する。なお、本実施の形態ではユーザの眼球運動として輻輳運動について述べるが、開散運動についても同様の方法で計測可能である。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 図3は、本実施の形態に係る輻輳能力判定装置の機能的な構成を示すブロック図である。
 輻輳能力判定装置は、眼球情報取得部101と、輻輳運動算出部102と、輻輳運動蓄積部103と、立体映像情報取得部104と、輻輳パターン蓄積部105と、評価区間決定部106と、運動能力算出部107と、判定部108と、立体度合い変更部109とを備える。
 眼球情報取得部101は、例えばカメラや電極といったセンサを用いて、立体映像を見ているユーザの眼球情報を取得する。眼球情報とは、眼球の運動に関する情報である。
 輻輳運動算出部102は、眼球情報取得部101で取得された眼球情報に基づいて眼球運動の輻輳運動量を算出し、輻輳運動蓄積部103に記憶する。
 立体映像情報取得部104は、例えば立体映像を表示しているテレビや立体映像を再生しているプレイヤーから、現在表示されている立体映像の情報を取得する。例えば、立体映像のタイトルや現在表示されている立体映像の全体の立体度合いを表す立体度、また立体映像の開始時刻からの経過時間などを取得する。
 輻輳パターン蓄積部105は、現在表示されている立体映像における理想的な輻輳情報を記憶している。
 評価区間決定部106は、輻輳運動を評価する時間区間を決定する。以下、時間区間のことを単に区間とも言う。
 運動能力算出部107は、評価区間決定部106で決定された区間における輻輳量別の立体視時間を、輻輳運動算出部102で算出された輻輳運動量に基づいて算出する。
 判定部108は、運動能力算出部107により算出された結果と輻輳パターン蓄積部105に記憶されている理想的な情報との比較結果に基づいて、ユーザの眼球の輻輳運動能力を判定する。
 立体度合い変更部109は、判定部108で判定された結果に基づいて、現在表示されている立体映像の立体度をどのように変更するかを決定し、その結果を輻輳パターン蓄積部105に記憶すると共に、同結果を立体度が変更可能な装置に送信する。ここで、前記立体度が変更可能な装置として、例えば立体映像を再生しているプレイヤー、立体映像を表示しているテレビ、または立体映像を見るために必要な眼鏡(以後「立体視用眼鏡」と記述)がある。
 以下、輻輳能力判定装置が実行する処理について、図4のフローチャートを用いて説明する。
 図4に示す輻輳能力判定装置の処理は、立体映像の開始から終了まで所定の時間間隔で行われる。
 ステップS401において、眼球情報取得部101は、センサを用いて所定の時間間隔でユーザの眼球情報を取得する。ここで、眼球情報の取得方法として、例えば、センサとして電極を用いて眼電位を計測し、その電位変動を計測する方法や、センサとしてカメラを用いて眼球画像を撮影する方法などがある。図5A~図5Cに電極やカメラといったセンサを取り付け、眼球運動を計測可能とした立体視用眼鏡の概観の一例を示す。
 図5Aは眼電位計測用の立体視用眼鏡であり、フレーム部分に眼電位を計測するための電極501及び502が設けられている。電極501は両眼の電位を計測するための電極であり、電極501Aから電極501Dの4つの電極を含む。また、電極502はアース電極であり、両眼の電位変化を電極501と電極502での電位差により計測する。また、図5Bは眼球撮影用の立体視用眼鏡であり、カメラ503と、ハーフミラー504とを備える。ハーフミラー504に写るユーザの眼球を、上部に取り付けたカメラ503で撮影する。なお、図5Cは図5Bの眼鏡部分を取り除き横から見た図である。図5Cのように、ユーザの眼にはハーフミラーを通して映像が届く一方でハーフミラーに反射したユーザの眼の映像はカメラ503に入る。
 以降の処理の説明は、図5Bのようなユーザの眼球情報を撮影可能な立体映像用眼鏡により得る場合について具体的に説明を行う。
 眼球情報取得部101は、カメラ503を用いて、所定の間隔でユーザの眼球の撮影を行う。図6に撮影した画像の一例を示す。
 ステップS402において、輻輳運動算出部102はユーザの眼球の輻輳運動量を算出し、輻輳運動蓄積部103に記憶する。まず、輻輳運動算出部102で算出する輻輳運動について具体的に説明する。輻輳運動算出部102は眼球情報取得部101で得た眼球の画像データに画像処理を施すことにより瞳孔を抽出し、さらに瞳孔の中心座標を算出する。輻輳運動算出部102は、算出した両眼の瞳孔中心座標のうち、水平方向の座標(x座標)とその値から算出される輻輳量を、輻輳運動量として計算し、輻輳運動蓄積部103に記憶する。本実施の形態では輻輳量として、左目のx座標の値から右目のx座標の値を引いた値を用いる。このように輻輳量を定義すると、輻輳量は画面上の物体を見ているときは常に一定値であるが、画面より飛び出した物体をユーザが見ると前記一定値より小さな値となる。
 次に、輻輳運動蓄積部103に記憶される輻輳運動量算出結果の一例を図7に示す。項目701は計測日時を示す。項目702は右目の瞳孔中心座標のx座標(ピクセル単位)を示す。項目703は左目の瞳孔中心座標のx座標(ピクセル単位)を示す。項目704は輻輳量を示す。輻輳量は、項目703の値から項目702の値を引いた値(ピクセル単位)である。図8に図9に示すような画面(ディスプレイ)上に表示された印と画面から所定の立体度の位置に表示された印とを交互に見せる実験を行った際のユーザの両眼の瞳孔中心位置の時間変化と前記輻輳量の時間変化をグラフ化した結果を示す。上記実験を詳しく説明すると、ユーザから90cm先の画面上と画面から60cm手前の位置に十字マークを3秒~5秒間隔で900秒間提示し、そのときの両眼の瞳孔中心位置の時間変化と輻輳量の時間変化とを求めた。図8(a)および図8(b)はそれぞれ左眼と右眼の瞳孔中心座標の時間変化を示すグラフであり、図8(c)は同時間における左眼の瞳孔中心座標(図8(a))から右眼の瞳孔中心座標(図8(b))を引いた輻輳量の時間変化を示す。図8(c)の輻輳量において、値が約375ピクセルの位置にあるときにユーザは画面上に表示された印を見ており、輻輳量の値が約330ピクセルの位置にあるときにユーザは画面から所定の立体度の位置に表示された印を見ている。
 ここで、立体度合いが大きな映像を見るほどユーザの輻輳量が大きく表現できるように、改めて輻輳量を立体的でない画面上の映像を見ているときの両眼の水平瞳孔中心間距離を基準としたときの両眼の水平瞳孔中心間距離の減少量として定義する.例えば、図8のように画面上を見ているときの両眼の水平瞳孔中心距離が375ピクセルであり、ある時刻の映像視聴時の両眼の水平瞳孔中心距離が365ピクセルである場合、輻輳量は10ピクセルであるとする。
 輻輳パターン蓄積部105に蓄積されるデータについて説明する。輻輳パターン蓄積部105には立体映像の開始時刻から終了時刻までにある1つまたは複数の評価区間における理想的な輻輳量の分布データが記憶される。
 ここで、評価区間における輻輳量の分布とは、前記評価区間においてどの大きさの輻輳量がどのくらいの時間存在するかの分布であり、理想的な輻輳量の分布とは立体映像作成者が想定する輻輳量の分布である。この理想的な輻輳量の分布の決定方法としては、立体映像作成者がこの評価区間における画面上でユーザが見る点を想定し、前記想定した点をユーザが見たときの理論的な輻輳量を計算し、その分布を計算しても良い。また、別の方法として、同立体映像を複数の被験者に見せる実験を行い、その実験時の各評価区間における被験者の輻輳量の分布を求め、最も多い輻輳量分布を理想的な輻輳量の分布としても良い。なお、前記複数の被験者を用いて理想的な分布を求める場合、事前に輻輳能力のテストを行い、正しく輻輳運動が行える被験者のみに対して実験を行っても良い。テストの具体的な方法としては例えば、様々な立体度合いの立体画像を見せたときの被験者の輻輳量を計測し、その輻輳量が計算値に対して所定範囲以内に入っているか否かをテストする。同様に立体度が変化しながら所定の速さで動く対象物が表示される動画を見せたときの被験者の輻輳量の変化速度を測定し、前記変化速度が所定範囲以内に入っているかをテストしても良い。また、図10に示すように、同一立体映像においても画面からのユーザの距離(以後「視聴距離」と記述)により輻輳量は異なる。そこで、上記理想的な輻輳量の分布を決定する際は一般的なテレビからの視聴位置を想定し、前記想定位置における理想的な輻輳量の分布を決定しても良い。
 輻輳パターン蓄積部105に蓄積される理想的な輻輳分布データは立体映像ごと、かつ、立体度合いごとに記憶されている。以後これらのデータを「輻輳パターン」と記述する。
 輻輳パターン蓄積部105に記憶される輻輳パターンの一例を図11に示す。
 図11において、項目901は立体映像ごとに割り振られているIDを示す。項目902は立体映像の立体度を示し、値が大きいほど大きな立体度合いで立体映像が表示される。項目903は評価区間番号を示す。項目904は前記評価区間番号で示される評価区間に対応した評価区間時間を示す。前記評価区間時間は立体映像の再生開始からの経過時間により、評価区間の開始時刻と終了時刻を示している。例えば図11の評価区間番号1の評価区間時間は、立体映像の再生開始時刻から1分後を評価区間の開始時刻とし、6分後を評価区間の終了時刻とする。項目905は前記評価区間の時間幅を示し、例えば図11の評価区間番号1の評価区間の時間幅は5分である。項目906は輻輳量の分布を示す。輻輳量の分布は、対応する評価区間においてどの大きさの輻輳量がどのくらいの時間存在するか(各輻輳量における総時間)を示すものであり、図11の場合、画面上に位置する対象物を見る場合の輻輳量との差分を10ピクセル単位で分割したときの輻輳量の総時間を示している。より具体的には、項目906において「0-10」と記述されている項目では画面上に位置する対象物を見る場合の輻輳量と比較したときに、輻輳量の差分値が0から10ピクセルとなる映像の時間の総和であり、評価区間番号1の場合2分30秒である。以後この理想的な輻輳量に基づいて算出された輻輳量の分布を「理想輻輳量分布」と記述する。
 図11において評価区間番号1の輻輳量分布をグラフ化した一例を図12に示す。
 ステップS403において、評価区間決定部106は立体映像情報取得部104が立体映像を表示しているテレビや立体映像を再生しているプレイヤーなどから取得した立体映像に関する情報(以後「再生映像情報」と記述)を取得する。具体的には、例えば図13に示すように立体映像のID、現在の立体度、立体映像の開始時刻からの経過時間(時間:分:秒)、総輻輳量といった情報を含むデータを例えば1秒間隔で取得する。総輻輳量とは、立体映像の開始時刻から経過時間までの輻輳量の積算値である。
 また、立体映像情報取得部104は前記再生映像情報を輻輳運動算出部102にも送信する。輻輳運動算出部102は再生映像情報を受信したら、図14の項目1805のように立体映像開始からの経過時間を計測及び計算した輻輳量と対応づけて保存する。項目1805において「-1」となっている計測日時は、評価区間の以外の計測日時であることを示している。なお、図14の項目1804は、輻輳量を示す。このように画面上を見たときの水平瞳孔中心間距離からの水平瞳孔中心間距離の減少量を輻輳量計算するためには、画面上を見たときの水平瞳孔中心間距離を予め決めた値として輻輳運動算出部102に記憶しておく。輻輳運動算出部102は、計測結果から前記予め決めた値との差分値を算出し、算出した値を輻輳量として輻輳運動蓄積部103に記憶する。また、画面上を見たときの輻輳量として、平面映像を見ているときに計測した結果を輻輳運動算出部102に記憶しておいて利用しても良い。
 評価区間決定部106は、前記再生映像情報を受信すると、受信した再生映像情報の経過時間と輻輳パターン蓄積部105に記憶されている評価区間の終了時刻とを比較する。例えば、図11において、評価区間番号1の評価区間の終了時刻が立体映像開始から0時間6分0秒後であるので、受信した映像情報における経過時間が0時間6分0秒である場合、評価区間決定部106は評価区間番号1の評価区間が終了したと判定する。
 評価区間決定部106が立体映像情報取得部104から取得した立体映像開始時刻からの経過時間が評価区間の終了時刻と一致したと判定したときは、ステップS404へ進み、評価区間決定部106は、対応する評価区間番号を運動能力算出部107に伝える。一方、前記経過時間が評価区間の終了時刻と一致しない場合は、本時刻における処理を終了し、ステップS401以降の処理を繰返し実行する。
 ステップS404において、運動能力算出部107は評価区間決定部106から評価区間が終了したという情報を受け取ると、まず、輻輳運動蓄積部103から対応する評価区間における輻輳量を取得する。次に、運動能力算出部107は、取得した輻輳量に対し輻輳量の分布を算出し、再生映像情報及び評価区間を示す情報とあわせて輻輳運動蓄積部103に記憶する。具体的には、例えば評価区間番号1については、運動能力算出部107は、立体映像開始1分から6分までの輻輳量を、輻輳運動蓄積部103から取得する。次に、運動能力算出部107は、取得した輻輳量に対し各輻輳量が10ピクセル間隔の輻輳量の区間のうち、どの区間に属するかの分布を算出し、各区間に含まれる輻輳量のデータ数から輻輳量の時間分布(以後この輻輳量時間分布を「計測輻輳量分布」と記述する)を算出する。輻輳運動蓄積部103に記憶される計測輻輳量分布の一例を図15に示す。項目1901は現在見ている立体映像のIDを示す。項目1902は前記立体映像の立体度を示す。項目1903は評価区間番号を示す。項目1904は計測輻輳量分布を示す。評価区間番号1の時間帯における計測結果から算出した計測輻輳量分布のみが算出されているとすると、評価区間番号1の計測輻輳量分布の記憶領域のみに算出結果が記憶されている。前記記憶が終わると、運動能力算出部107は、そのことを判定部108に伝える。
 ステップS405において、判定部108は、輻輳運動蓄積部103に記憶されている評価区間における計測輻輳量分布と、輻輳パターン蓄積部105に記憶されている輻輳パターンにおける前記理想輻輳量分布とを比較することで、ユーザの眼球の輻輳運動能力を判定する。ここで、比較対象である理想輻輳量分布は、立体映像情報取得部104で得られた現在表示中の立体映像の再生映像情報のID及び立体度と同一のID及び立体度を有する理想輻輳量分布の中で、再生映像情報の評価区間と同一の評価区間における理想輻輳量分布である。ユーザの眼球の運動能力の判定方法として、判定部108は、各輻輳量における総時間を比較し、所定の割合以上の違いがある輻輳量についてはユーザの眼球の輻輳運動能力が低いと判定する。図16Aおよび図16Bを用いてより具体的に説明する。図16Aおよび図16Bに輻輳運動蓄積部103に蓄積されるある評価区間(例えば評価区間番号1番の評価区間)のユーザの眼球運動の輻輳量の分布の例を2つ示す。ここで、図中点線は図12に示した輻輳パターン蓄積部105に記憶されている理想輻輳量分布を示しており、計測輻輳量分布と同じ評価区間における輻輳量の時間の総和を示している。図16Aの場合、理想輻輳量分布と比較した場合、輻輳量が30から40の区間においては、輻輳量が計測されておらず、輻輳量が20から30の区間では、理想的な輻輳量の総時間に比べて計測された輻輳量の総時間は少し少なくなっている。一方で、輻輳量が10から20の区間では、理想的な輻輳量の総時間に比べて計測された輻輳量の総時間が多くなっている。この結果より図16Aの計測輻輳量分布を示すユーザの場合、理想的な輻輳量が30から40の間で発生する立体映像を見るための眼球の運動能力は無いと判断する。また、理想的な輻輳量が20から30の間で発生する立体映像を見るための眼球の運動能力も低いと判断する。同様に図16Bのユーザ場合、10から40までの範囲の輻輳量が計測されておらず、一方で0から10の範囲の輻輳量が増えていることがわかる。そこで、このユーザは、理想的な輻輳量が10から40の範囲で発生する立体映像を見るための眼球の運動能力がないと判断する。なお、このような場合、輻輳量0から10の範囲の中で、さらに詳細な分布を算出しても良い。その結果、輻輳量が0から10の分布において、ほとんどの輻輳量の値が0である場合は、ユーザは立体視自体を行えていないことがわかる。
 このように、ある輻輳量における輻輳運動能力が無い、もしくは低いと判定された場合、ステップS406へ進む。一方、計測されたユーザの各輻輳量の分布と理想輻輳量分布との間に所定割合以上の違いが無いと判定された場合、処理を終了する。
 ステップS406において、立体度合い変更部109は、判定部108における判定結果に基づいて、現在表示されている立体映像の立体度の変更要求を、立体映像の立体度を制御しているテレビや立体映像を再生しているプレイヤーに対して送信する。
 変更方法は例えば、図16Aのように、輻輳量30から40の輻輳運動能力が無いと判断されている場合には、輻輳量が最大30となるように立体度を変更する。また、図16Bのような場合、輻輳量が最大10となるように立体度を変更する。なお、前述のように図16Bにおいてさらに輻輳量0から10の分布を調べ、ほとんどの値が輻輳量0である場合は、輻輳量が0となるように立体度を0に変更する。即ち平面映像に変更する。
 現在表示されている立体映像の立体度が変更されると、その後のユーザの眼球の輻輳運動能力の判定に用いられる輻輳パターンを変更する必要がある。そこで、立体度合い変更部109は、評価区間決定部106や判定部108で参照する輻輳パターンを、変更後の立体度に合った輻輳パターンに変更する。例えば、図11に示すような30から40の範囲の輻輳量が含まれる立体度が3の輻輳パターンを、図17に示すような最大輻輳量30となる立体度2の輻輳パターンに変更する。
 以上説明したように、本実施の形態に係る輻輳能力判定装置は、立体映像を見ているユーザの眼球情報から立体視中のユーザの眼球の輻輳量を算出し、評価区間における輻輳量の分布を理想的な輻輳量の分布と比較することで、ユーザの眼球の輻輳運動能力を判定している。このため、立体映像を見ているユーザの各立体度における輻輳運動能力を判定し、その結果に基づき立体映像の立体度をユーザに適した立体度に変更することが可能となる。このように、判定結果に基づいて立体度を変更することで、ユーザに適した立体度の立体映像が、一度の立体度変更により提供可能となるため、疲労や不快感の少ない立体映像をユーザに提供することが可能となる。
 以上、本発明に係る輻輳能力判定装置について実施の形態に即して説明を行ったが、本発明は、この実施の形態に限定されるものではない。
 例えば、上記実施の形態では、テレビからの一般的な視聴位置を想定して輻輳パターンを作成したが、図18のように輻輳パターンを視聴距離別(例えば50cm毎)に複数作成しても良い。ユーザは例えば図19のような表示画面において視聴位置(視聴距離)を設定すると、設定した視聴距離に最も視聴距離が近い輻輳パターンが選択され輻輳能力の判定に利用される。これにより、輻輳量の実測値とのより正確な比較が可能となる。この場合の輻輳能力判定装置の機能的な構成を示すブロック図を図20に示す。図3との違いは、ユーザからの視聴距離を受け付ける視聴距離入力部3101が追加されている点である。
 また、上記実施の形態では、ユーザの眼球の輻輳運動能力の判定に評価区間における理想輻輳量分布と計測輻輳量分布を比較し、ユーザの眼球の輻輳運動能力を判定した。ここで、評価区間においてユーザが実際に見ている場所と、輻輳パターンの作成時に想定したユーザが見ている場所が一致していることにより、より正確に輻輳運動能力を判定が可能となる。
 これは、例えば同じ画面上に奥行きの異なる人物Aと人物Bの2人の人物が登場しており、ユーザが人物Aを見ていたのに対し、輻輳パターンとして、被験者が人物Bを見ている場合の輻輳運動量を記録している場合、ユーザは正しく人物Aを立体的に見ることができていたにも関わらず、両分布が異なる。このため、判定部108はユーザの眼球の輻輳運動能力に問題があると判定してしまう。このように、より正しくユーザの眼球の輻輳運動能力を判定するためには、評価区間として、同一の場所を見ている可能性が高い区間を設定する必要がある。
 そこで、上記実施の形態における、ある立体映像の輻輳パターンを作成する輻輳パターン作成装置の機能的な構成を示すブロック図を図21に示す。また図22は、輻輳パターン作成装置の動作を示すフローチャートである。
 輻輳パターン作成装置は、眼球運動取得部2401と、輻輳運動算出部2402と、輻輳運動蓄積部2403と、評価区間決定部2404と、輻輳パターン作成部2405と、輻輳パターン蓄積部105とを含む。
 ステップS2501において、まず、複数の被験者に対して、テスト用立体映像を見せ、正しく輻輳運動が行えている被験者のみを所定人数抽出する。この抽出処理は、図3に示した輻輳能力判定装置を用いて、計測輻輳量分布と理想輻輳量分布との差を算出し、当該差が小さい被験者から所定人数を抽出するようにしてもよい。前記抽出した複数の被験者に対して輻輳パターン作成対象である立体映像を見せ、その際の眼球運動を眼球運動取得部2401で計測する。
 ステップS2502において、輻輳運動算出部2402は、前記計測した眼球運動から輻輳運動量を算出し、輻輳運動蓄積部2403に記録する。具体的には輻輳運動として輻輳量の時系列データを算出及び記録する。ここで、輻輳量は例えば、上記実施の形態と同様に立体的でない画面上の映像を見ているときの両眼の水平瞳孔中心間距離を基準としたときの両眼の水平瞳孔中心間距離の減少量として定義する。図23に輻輳運動蓄積部2403に記憶される被験者1人分の計測結果の一例を示す。項目2601は対象立体映像のIDを示す。項目2602は被験者IDを示す。項目2603は対象立体映像の立体度を示す。項目2604は対象立体映像開始からの経過時間を示す。項目2605から項目2607は上記実施の形態と同様に左右の眼のx座標と、左右のx座標の差分値から画面上に位置する対象物を見ている際の同差分値を引いた輻輳量とを示す。
 ステップS2503において、評価区間決定部2404はステップS2502で算出した複数の被験者の輻輳量の時系列データに対して平均値と分散値を算出し、その結果を輻輳運動蓄積部103に記憶する。前記蓄積される平均値と分散値の結果の一例を図24に示す。項目2701は対象立体映像のIDを示す。項目2702は前記対象立体映像の立体度を示す。項目2703は前記対象立体映像の開始からの経過時間を示す。項目2704は各被験者の輻輳量を示し、項目2705及び項目2706は項目2704に示す輻輳量の平均値及び分散値をそれぞれ示す。
 ステップS2504において、評価区間決定部2404はステップS2503において算出及び記憶した各被験者の立体映像の開始時刻からの各経過時間に対する輻輳量の分散値から、評価区間を決定する。ここで、評価区間は、被験者は立体映像を正しく立体視できる被験者ばかりなので、同一経過時間における輻輳量が異なるのは映像の見ている場所が異なるためであるという基本的な思想に基づいて決定される。具体的には項目2706の分散値が所定値以下の状態が所定時間以上継続し、かつ2つめ以降の評価区間は前回の評価区間から所定時間以上経過した区間を評価区間として決定する。より具体的には分散値が0.05以下の状態が5分間継続する区間でかつ、2つめ以降の評価区間においては前回の評価区間から30分以上経過している区間を評価区間と決定する。
 評価区間決定部2404は上記のようにして決定した評価区間の情報を、輻輳運動蓄積部2403に記憶する。前記蓄積される評価区間の情報の一例を図25に示す。項目2801は対象立体映像のIDを示す。項目2802は前記対象立体映像の立体度を示す。項目2703は評価区間番号を示す。項目2804及び項目2805は、項目2804の評価区間番号に対応した評価区間時間(開始時刻と終了時刻)及びその時間幅をそれぞれ示す。前記評価区間の開始時刻及び終了時刻は立体映像の開始からの経過時間により表現する。
 ステップS2505において、輻輳パターン作成部2405は、輻輳運動蓄積部2403に記憶されている各評価区間の情報と、複数の被験者の輻輳量の平均値から各評価区間における複数の被験者の輻輳量の平均値の分布を算出し、前記評価区間の情報と合わせて例えば図11のような形式の輻輳パターンを作成し、作成した輻輳パターンを輻輳パターン蓄積部105に記憶する。
 (変形例1)
 上記の実施の形態では、評価区間におけるユーザ輻輳量の分布を輻輳パターンと比較した。即ち評価区間においてどの輻輳量がどのくらいの時間あったかという分布を理想分布と比較することで、ユーザの眼球の輻輳運動能力の判定を行った。
 本変形例では、ユーザの眼球の輻輳運動能力を判定するために用いるパラメータとして、輻輳量の分布の代わりに、輻輳速度の分布を用いる。大半の処理は上記実施の形態と同様であるため、以下では異なる点のみ説明を行う。
 輻輳量の分布ではなく、輻輳速度の分布によるユーザの眼球の輻輳運動能力を判定するために、輻輳パターン蓄積部105には、理想的な輻輳速度分布を示す輻輳パターンが記憶されている。輻輳速度分布は以下のように算出される。つまり、図26(a)に示すような理想的な輻輳量を微分することで、図26(b)に示すような輻輳量の速度変化である輻輳速度が算出される。この輻輳速度を用いて、評価区間において各輻輳速度がどのくらいの時間あったかを示す理想的な輻輳速度分布を算出する。図27は、理想的な輻輳速度分布を示す輻輳パターンの一例を示す。なお、図27では、輻輳速度の絶対値を計算し、その分布を記憶した例を示すが、負の速度も含めた輻輳速度の分布を記憶しても良い。項目2201~2205は、図11に示した輻輳パターンの項目901~905と同じであるため、説明を繰り返さない。項目2206輻輳速度の分布を示す。輻輳速度の分布は、対応する評価区間においてどの大きさの輻輳速度がどのくらいの時間存在するか(各輻輳速度における総時間)を示すものであり、図27の場合、5ピクセル/秒単位で分割したときの輻輳速度の総時間を示している。より具体的には、項目2206において「0-5」と記述されている項目では、輻輳速度が0から5ピクセル/秒となる映像の時間の総和であり、評価区間番号1の場合2分30秒である。
 運動能力算出部107は、上記実施の形態と同様にして、輻輳運動蓄積部103に記憶されている輻輳運動の算出結果から輻輳量別ではなく、輻輳速度別の分布を算出し、その結果を例えば図28のような形で輻輳運動蓄積部103に記憶する。項目2301~2303は、図15に示した計測輻輳量分布の項目1901~1903と同様であるため、説明を繰り返さない。項目2304は計測輻輳速度分布を示す。評価区間番号1の時間帯における計測結果から算出した計測輻輳速度分布のみが算出されているとすると、評価区間番号1の計測輻輳速度分布の記憶領域のみに算出結果が記憶されている。前記記憶が終わると、運動能力算出部107は、そのことを判定部108に伝える。
 判定部108は前記ユーザの眼球の輻輳速度分布と同一評価区間における前記輻輳パターンにおける輻輳速度分布との比較を行うことで、ユーザの眼球の輻輳運動能力の判定を行う。ユーザの眼球の輻輳運動の分布において、速い速度の分布が輻輳パターンの分布に比べ小さくなっている場合、ユーザは立体映像における立体度合いの変化に追従できていないと判定できる。
 判定部108がユーザの眼球の輻輳運動能力においてある立体度合いの変化に追従できていないと判定すると、立体度合い変更部109は現在表示されている立体映像の立体度合いを小さくすることで、表示されている立体映像がユーザの追従できる立体度合いの変化に収まるようにする。
 以上説明したように、本変形例に係る輻輳能力判定装置は、立体映像を見ているユーザの眼球情報から立体視中のユーザの眼球の輻輳速度を算出し、評価区間における輻輳速度の分布を理想的な輻輳速度の分布と比較することで、ユーザの眼球の輻輳運動能力を判定している。このため、立体映像を見ているユーザの各立体度における輻輳運動能力を判定し、その結果に基づき立体映像の立体度をユーザに適した立体度に変更することが可能となる。このように、判定結果に基づいて立体度を変更することで、ユーザに適した立体度の立体映像が、一度の立体度変更により提供可能となるため、疲労や不快感の少ない立体映像をユーザに提供することが可能となる。
 (変形例2)
 上記の実施の形態では、評価区間におけるユーザ輻輳量の分布を輻輳パターンと比較することで、ユーザの眼球の輻輳運動能力を判定している。
 本変形例では、輻輳パターン蓄積部105に輻輳パターンの理想分布を記憶するのではなく、評価区間と、理想的な状態において各輻輳量の値が存在するか否かを示す情報のみを記憶し、輻輳運動能力判定を行う方法について述べる。
 本変形例における輻輳パターン蓄積部105に記憶される輻輳パターンの一例を図29に示す。図11との違いは項目906に上記の実施の形態のように各輻輳量範囲における総時間が記憶されるのではなく、0か1の2値が記憶される。1はその輻輳量範囲に含まれる輻輳量が存在することを示し、0はその輻輳量範囲に含まれる輻輳量が存在しないことを示す。
 運動能力算出部107は、評価区間において、上記実施の形態と同様に計測輻輳量分布を算出し、輻輳運動蓄積部103に記憶する。判定部108は前記算出結果と輻輳パターン蓄積部105に記憶されている理想輻輳分布とを比較し、理想輻輳分布において値が1となる輻輳量範囲に含まれる計測された輻輳量が存在しない場合、立体度合い変更部109は前記輻輳量が存在しない輻輳量範囲より小さな輻輳量しか発生しない立体度に、立体映像の立体度を変更する。
 本変形例により、輻輳パターン蓄積部105に記憶される輻輳パターンのサイズを小さくすることができるとともに、輻輳運動能力の判定時の演算量を少なくすることができる。
 (変形例3)
 上記の実施の形態では、評価区間における計測輻輳量分布と理想輻輳量分布とを比較することにより、ユーザの眼球の輻輳運動能力を判定している。
 本変形例では輻輳パターンとして、理想輻輳量分布を記憶せず、時間帯の異なる評価区間における計測輻輳量分布同士を比較することで、ユーザの眼球の輻輳運動能力を判定する。
 本変形例に係る輻輳能力判定装置の構成は図3に示したものと同様である。
 本変形例における輻輳パターン蓄積部105に記憶される輻輳パターンの一例を図30に示す。項目3201は立体映像のIDを示す。項目3202は評価区間番号を示す。項目3203は、前記評価区間番号で示される評価区間に対応した評価区間時間を示す。項目3204は評価区間の時間幅を示す。ここで、上記の実施の形態と異なる点として、本変形例の全ての評価区間においては理想輻輳量分布が等しいものとする。例えば、図31に示されるような理想輻輳量分布を有するものとする。このため、図30に示す輻輳パターンには理想輻輳量分布は含まれていない。また、すべての評価区間において立体度に関係なく理想輻輳量分布が等しいため立体度ごとの輻輳パターンも記憶されていない。
 本変形例に係る輻輳能力判定装置が実行する処理は、図4に示した上記実施の形態に係る輻輳能力判定装置が実行する処理と同様であるが、ステップS404以降の処理が異なる。このため、上記実施の形態との相違点を以下に説明する。
 ステップS404において、運動能力算出部107は評価区間決定部106から評価区間が終了したという情報を受け取ると、前記終了した評価区間における計測輻輳量分布を算出し、図15のような計測輻輳量分布を輻輳運動蓄積部103に記憶する。ここで、前記終了した評価区間が1番初めの評価区間である場合、判定部108はユーザの眼球の輻輳運動能力の判定を行わない。即ちステップS404からエンドに進む。
 一方、前記終了した評価区間が1番初めの評価区間で無い場合、ステップS405に進み、判定部108は一つ前の評価区間と前記終了した評価区間の計測輻輳量分布を比較し、それぞれの輻輳量範囲において輻輳量が所定割合以上減少しているか否かを判定する。ここで、所定割合以上の輻輳量の減少がどの輻輳量範囲においても無い場合はエンドに進む。一方、ある輻輳量範囲において所定割合以上の輻輳量の減少があった場合は、ステップS406に進む。ステップS406において、立体度合い変更部109は、所定割合以上の輻輳量の減少があった輻輳量範囲を含まない立体度合いになるように、立体度の変更要求を、立体映像の立体度を制御しているテレビや立体映像を再生しているプレイヤーに対して送信する。
 本変形例における判定方法によると、ユーザの立体映像の視聴による時間的な輻輳運動能力の劣化を検出することができる。ただし、ユーザのもともとの輻輳運動能力は判定できない。しかしながら、本変形例による判定方法の実施により輻輳パターン蓄積部105に記憶される輻輳パターンのサイズを小さくすることができる。
 なお、本発明の必須の構成要素は、図3に示した輻輳能力判定装置のうち、眼球情報取得部101と、輻輳運動算出部102と、判定部108とである。その他の構成要素は、立体映像提供装置に備わっているのが望ましいが、必ずしも必須ではない。図32は、本発明の必須の構成要素から構成される輻輳能力判定装置の機能的な構成を示すブロック図である。輻輳能力判定装置は、立体映像視聴時におけるユーザの眼球の状態からユーザの眼球の輻輳運動の能力を判定する輻輳能力判定装置であって、立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部101と、眼球情報取得部101が取得した眼球情報から、ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部102と、ユーザが視聴している立体映像の所定の再生時間区間である評価区間における輻輳運動算出部102が算出した輻輳運動量の分布を示す分布データと、評価区間における立体映像の奥行き情報に応じて決定される輻輳運動量の分布を示す分布データとを比較することにより、ユーザの眼球の輻輳運動の能力を判定する判定部108とを備える。
 なお、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。
 また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。
 すなわち、このコンピュータプログラムは、コンピュータに、輻輳能力判定方法に含まれるステップを実行させる。この輻輳能力判定方法は、立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得ステップと、前記眼球情報取得ステップにおいて取得された前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出ステップと、前記ユーザが視聴している立体映像の所定の再生時間区間である評価区間における前記輻輳運動算出ステップにおいて算出された前記輻輳運動量の分布を示す分布データと、前記評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定ステップとを含む。
 さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしても良い。
 また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
 また、上記プログラムまたは上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
 以上、本発明の一つまたは複数の態様に係る立体映像提供装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 本発明は、様々な輻輳運動能力を持つユーザに対してユーザにあった快適な立体度合いの立体映像を提供することが可能である。本発明は立体度合いが変更可能な多くの立体映像装置に対して利用可能であり、本発明の利用可能性は非常に大きい。
 101、2401 眼球情報取得部
 102、2402 輻輳運動算出部
 103、2403 輻輳運動蓄積部
 104 立体映像情報取得部
 105 輻輳パターン蓄積部
 106、2404 評価区間決定部
 107 運動能力算出部
 108 判定部
 109 立体度合い変更部
 2405 輻輳パターン作成部
 3101 視聴距離入力部

Claims (11)

  1.  立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部と、
     前記眼球情報取得部が取得した前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部と、
     前記ユーザが視聴している立体映像の所定の再生時間区間である評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データと、前記評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定部と
     を備える輻輳能力判定装置。
  2.  前記判定部は、前記評価区間における、輻輳運動量がとり得る値の範囲を複数の範囲に分割したときの範囲ごとの、当該範囲に含まれる前記輻輳運動算出部が算出した前記輻輳運動量の積算時間と、当該範囲に含まれる前記立体映像の奥行き情報に応じて決定された前記輻輳運動量の積算時間とを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する
     請求項1に記載の輻輳能力判定装置。
  3.  前記判定部は、前記複数の範囲のうち、前記輻輳運動算出部が算出した前記輻輳運動量の積算時間の方が、前記立体映像の奥行き情報に応じて決定された前記輻輳運動量の積算時間よりも小さい範囲において、前記ユーザの眼球の輻輳運動の能力が低いと判定する
     請求項2に記載の輻輳能力判定装置。
  4.  前記判定部は、前記評価区間における、輻輳運動量がとり得る値の範囲を複数の範囲に分割したときの範囲ごとの、当該範囲に前記輻輳運動算出部が算出した前記輻輳運動量が含まれるか否かを示す情報と、当該範囲に前記立体映像の奥行き情報に応じて決定された前記輻輳運動量が含まれるか否かを示す情報とを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する
     請求項1に記載の輻輳能力判定装置。
  5.  前記評価区間は、前記立体映像を視聴した複数の被験者の輻輳運動量の分散値が所定値以下となる状態が所定時間以上継続するときの前記立体映像の再生時間区間である
     請求項1~4のいずれか1項に記載の輻輳能力判定装置。
  6.  立体映像視聴時におけるユーザの眼球の状態から前記ユーザの眼球の輻輳運動の能力を判定する輻輳能力判定装置であって、
     立体映像視聴時の前記ユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得部と、
     前記眼球情報取得部が取得した前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出部と、
     前記ユーザが視聴している立体映像の所定の再生時間区間である第1評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データと、前記第1評価区間とは異なる前記ユーザが視聴している立体映像の所定の再生時間区間である第2評価区間における前記輻輳運動算出部が算出した前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定部とを備え、
     前記第1評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データと、前記第2評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとは等しい
     輻輳能力判定装置。
  7.  前記輻輳運動量は、前記ユーザの左右の眼球の瞳孔中心間の距離に対応する値を示す輻輳量である
     請求項1~6のいずれか1項に記載の輻輳能力判定装置。
  8.  前記輻輳運動量は、前記ユーザの左右の眼球の瞳孔中心間の距離に対応する値を示す輻輳量の時間的な変化量を示す輻輳速度である
     請求項1~6のいずれか1項に記載の輻輳能力判定装置。
  9.  さらに、
     前記判定部において輻輳運動能力が低いと判定された輻輳量の輻輳運動を引き起こさないように前記立体映像の立体度合いを変更する立体度合い変更部を備える
     請求項1~8のいずれか1項に記載の輻輳能力判定装置。
  10.  立体映像視聴時のユーザの眼球の運動に関する情報である眼球情報を取得する眼球情報取得ステップと、
     前記眼球情報取得ステップにおいて取得された前記眼球情報から、前記ユーザの眼球の輻輳運動の度合いを示す輻輳運動量を算出する輻輳運動算出ステップと、
     前記ユーザが視聴している立体映像の所定の再生時間区間である評価区間における前記輻輳運動算出ステップにおいて算出された前記輻輳運動量の分布を示す分布データと、前記評価区間における前記立体映像の奥行き情報に応じて決定される前記輻輳運動量の分布を示す分布データとを比較することにより、前記ユーザの眼球の輻輳運動の能力を判定する判定ステップと
     を含む輻輳能力判定方法。
  11.  請求項10に記載の輻輳能力判定方法に含まれる全てのステップをコンピュータに実行させるためのプログラム。
PCT/JP2012/002345 2011-05-19 2012-04-04 輻輳能力判定装置及びその方法 WO2012157177A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012525789A JP5096643B1 (ja) 2011-05-19 2012-04-04 輻輳能力判定装置及びその方法
CN2012800043576A CN103283245A (zh) 2011-05-19 2012-04-04 会聚能力判定装置以及其方法
US13/627,491 US9186056B2 (en) 2011-05-19 2012-09-26 Device and method for determining convergence eye movement performance of a user when viewing a stereoscopic video

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-112680 2011-05-19
JP2011112680 2011-05-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/627,491 Continuation US9186056B2 (en) 2011-05-19 2012-09-26 Device and method for determining convergence eye movement performance of a user when viewing a stereoscopic video

Publications (1)

Publication Number Publication Date
WO2012157177A1 true WO2012157177A1 (ja) 2012-11-22

Family

ID=47176532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002345 WO2012157177A1 (ja) 2011-05-19 2012-04-04 輻輳能力判定装置及びその方法

Country Status (4)

Country Link
US (1) US9186056B2 (ja)
JP (1) JP5096643B1 (ja)
CN (1) CN103283245A (ja)
WO (1) WO2012157177A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5475893B2 (ja) * 2011-05-20 2014-04-16 パナソニック株式会社 視覚疲労度測定装置およびその方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2904452B1 (en) * 2012-10-05 2016-12-07 Essilor International (Compagnie Générale D'Optique) Method for improving visual comfort to a wearer and associated active system of vision
US11064881B2 (en) * 2015-11-13 2021-07-20 Hennepin Healthcare System, Inc Method for predicting convergence disorders caused by concussion or other neuropathology
CN109271030B (zh) * 2018-09-25 2020-12-22 华南理工大学 一种三维空间下注视点轨迹多维度比较方法
US10924727B2 (en) * 2018-10-10 2021-02-16 Avalon Holographics Inc. High-performance light field display simulator
US20230200640A1 (en) * 2020-05-27 2023-06-29 Kanohi Eye Private Limited Assessment system for higher grades of binocular vision

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918894A (ja) * 1995-06-26 1997-01-17 Sanyo Electric Co Ltd 立体映像表示装置
JP2004333661A (ja) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> 立体画像表示装置、立体画像表示方法および立体画像表示プログラム
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
JP2010259006A (ja) * 2009-04-28 2010-11-11 Nikon Corp 画像提示システム、プログラムおよび画像提示方法
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059590B2 (ja) * 1992-09-30 2000-07-04 富士通株式会社 立体表示方法及び装置
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6932476B2 (en) * 2002-09-20 2005-08-23 Canon Kabushiki Kaisha Stereoscopic image display apparatus and stereoscopic image display system
JP2004298461A (ja) * 2003-03-31 2004-10-28 Topcon Corp 屈折測定装置
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
RU2322771C2 (ru) * 2005-04-25 2008-04-20 Святослав Иванович АРСЕНИЧ Стереопроекционная система
CN102027752B (zh) 2008-05-12 2016-02-17 汤姆森特许公司 用于测量立体运动画面的潜在眼睛疲劳的***和方法
US20110228051A1 (en) * 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
CN103081485A (zh) * 2010-08-30 2013-05-01 夏普株式会社 立体图像生成方法、立体图像生成装置和具备该装置的显示装置
KR20120051308A (ko) * 2010-11-12 2012-05-22 삼성전자주식회사 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치
CN103283244A (zh) * 2011-05-20 2013-09-04 松下电器产业株式会社 立体影像提供装置以及其方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918894A (ja) * 1995-06-26 1997-01-17 Sanyo Electric Co Ltd 立体映像表示装置
JP2004333661A (ja) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> 立体画像表示装置、立体画像表示方法および立体画像表示プログラム
WO2010084849A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
JP2010259006A (ja) * 2009-04-28 2010-11-11 Nikon Corp 画像提示システム、プログラムおよび画像提示方法
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5475893B2 (ja) * 2011-05-20 2014-04-16 パナソニック株式会社 視覚疲労度測定装置およびその方法
JPWO2012160741A1 (ja) * 2011-05-20 2014-07-31 パナソニック株式会社 視覚疲労度測定装置およびその方法
US8899752B2 (en) 2011-05-20 2014-12-02 Panasonic Corporation Visual fatigue level measuring device, visual fatigue level measuring method, visual fatigue level measuring system, and three-dimensional glasses

Also Published As

Publication number Publication date
US20130021456A1 (en) 2013-01-24
JPWO2012157177A1 (ja) 2014-07-31
US9186056B2 (en) 2015-11-17
JP5096643B1 (ja) 2012-12-12
CN103283245A (zh) 2013-09-04

Similar Documents

Publication Publication Date Title
US8913790B2 (en) System and method for analyzing three-dimensional (3D) media content
JP5475893B2 (ja) 視覚疲労度測定装置およびその方法
US8094927B2 (en) Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
CN108600733B (zh) 一种基于人眼跟踪的裸眼3d显示方法
JP5096643B1 (ja) 輻輳能力判定装置及びその方法
JP5565258B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5148016B2 (ja) 立体映像提供装置及びその方法
CN103380625A (zh) 头戴式显示器及其位置偏差调整方法
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
US9628770B2 (en) System and method for stereoscopic 3-D rendering
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
Terzic et al. Causes of discomfort in stereoscopic content: a review
JP2006287813A (ja) 3次元画像表示装置
CN117412020A (zh) 视差调整方法、装置、存储介质和计算设备
JP5331785B2 (ja) 立体画像分析装置
JP5725159B2 (ja) 測定装置、立体画像表示装置及び測定方法
TWI784428B (zh) 立體影像產生方法與使用該方法的電子裝置
KR100380994B1 (ko) 응시지점을 따라가는 입체 영상 표시 장치 및 그 방법
JP5521991B2 (ja) 立体画像表示装置
CN108234990B (zh) 立体显示设备及立体显示方法
JP2006042280A (ja) 画像処理装置
Hori et al. Comparison of 2D and 3D vision gaze with simultaneous measurements of accommodation and convergence
Hofmeyer et al. Model-based prediction towards the limitations of binocular gaze tracking for 3DTV-Applications

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012525789

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12785373

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12785373

Country of ref document: EP

Kind code of ref document: A1