CN103283245A - 会聚能力判定装置以及其方法 - Google Patents

会聚能力判定装置以及其方法 Download PDF

Info

Publication number
CN103283245A
CN103283245A CN2012800043576A CN201280004357A CN103283245A CN 103283245 A CN103283245 A CN 103283245A CN 2012800043576 A CN2012800043576 A CN 2012800043576A CN 201280004357 A CN201280004357 A CN 201280004357A CN 103283245 A CN103283245 A CN 103283245A
Authority
CN
China
Prior art keywords
convergence
eyeball
stereopsis
user
evaluation interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012800043576A
Other languages
English (en)
Inventor
井上刚
小泽顺
加藤弓子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN103283245A publication Critical patent/CN103283245A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

会聚能力判定装置具备:眼球信息获得部(101),获得作为与视听立体影像时的用户的眼球的运动有关的信息的眼球信息;会聚运动计算部(102),根据眼球信息获得部(101)获得的眼球信息,计算示出用户的眼球的会聚运动的程度的会聚运动量;以及判定部(108),对示出作为用户视听的立体影像的规定的再生时间区间的评价区间中的会聚运动计算部(102)计算出的会聚运动量的分布的分布数据、与示出评价区间中的按照立体影像的深度信息而决定的会聚运动量的分布的分布数据进行比较,从而判定用户的眼球的会聚运动的能力。

Description

会聚能力判定装置以及其方法
技术领域
本发明涉及,能够判定观看立体影像的用户的眼球的会聚运动能力的会聚能力判定装置。
背景技术
用户从显示在平面显示器上的影像中观看立体的影像的方法有,利用了双眼视差的方法。该方法利用以下的情况,即,人的右眼和左眼位于离开的位置,进入各个眼睛的影像的视点不同,因此人感觉深度。
在利用了双眼视差的方法中,通过对用户的右眼和左眼显示不同的影像,从而能够令用户在头脑中感觉立体。然而,由这样的与现实不同的方法的立体视,会有给用户带来视觉疲劳以及不快感的可能性。
于是,提出了一种立体影像显示装置,根据因双眼的疲劳而引起的视觉功能的降低量来估计眼睛的疲劳度,按照估计的疲劳度来调整立体度(示出立体程度的值)(例如,参照专利文献1)。
(现有技术文献)
(专利文献)
专利文献1:日本特开平9-18894号公报
在专利文献1中,根据一定期间内的眼球的会聚次数以及左右的双眼共同运动崩溃的异常现象的次数,检测用户的疲劳,变更立体度。并且,若检测出所述用户的疲劳,则将立体度降低一阶段,从而实现立体度的变更。
另一方面,是否能够进行立体视,依赖于用户的眼球的会聚运动能力。具体而言,若立体程度变大,为了观看该影像,而需要更大的会聚运动,因此,在包含各种各样的立体程度的立体影像中,会聚运动能力低的用户,不能准确观看比某立体度大的立体度的立体影像。若用户继续观看这样的超过用户的眼球的会聚运动能力的立体影像,会有感觉疲劳以及不快的可能性。
然而,针对观看这样的不能准确进行立体视的立体程度的影像的用户,如专利文献1测量一定期间内的眼球的会聚次数以及左右的双眼共同运动崩溃的异常现象的次数的情况,不被视为测量针对不能准确进行立体视的立体程度的影像的疲劳,而被视为测量针对用户能够准确观看的立体程度的影像的疲劳。因此,存在不能准确地检测针对不能准确进行立体视的立体程度的影像的疲劳以及不快感的问题,并且,也存在仅在疲劳发生之后能够变更立体程度的问题。
并且,专利文献1,每当检测出疲劳时将立体度降低一阶段,但是,为了检测疲劳而需要规定时间,因此,在立体影像的立体程度比用户的眼球的会聚运动能力非常大的情况下,将立体度降低到对用户适当的立体度而需要长时间,也存在给用户带来的疲劳更大的问题。
发明内容
本发明的某状况涉及的会聚能力判定装置,具备:眼球信息获得部,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;会聚运动计算部,根据所述眼球信息获得部获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及判定部,对示出评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据、与示出所述评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述评价区间是所述用户视听的立体影像的规定的再生时间区间。
而且,这样的全面或具体的形态,可以由***、方法、集成电路、计算机程序或记录介质实现,也可以由***、方法、集成电路、计算机程序或记录介质的任意的组合实现。
如上所述,根据本发明,能够提供一种会聚能力判定装置,能够判定观看立体影像的用户的各个立体度的会聚运动能力,根据其结果,将立体影像的立体度变更为适于用户的立体度。
附图说明
图1是说明使立体视成为可能的眼镜控制原理的图。
图2A是说明立体视中的会聚角的图。
图2B是说明立体视中的会聚角的图。
图3是示出本发明的实施例涉及的会聚能力判定装置的功能结构的方框图。
图4是示出本发明的实施例涉及的会聚能力判定装置的工作的流程图。
图5A是示出眼电位测量用的立体视用眼镜的一个例子的图。
图5B是示出眼球摄影用的立体视用眼镜的一个例子的图。
图5C是除去图5B的眼镜部分而从横向看时的图。
图6是示出拍摄为眼球信息的眼球图像的一个例子的图。
图7是示出会聚运动积蓄部所存储的会聚运动数据的具体例的图。
图8是示出用户的双眼的瞳孔中心位置的时间变化和会聚量的时间变化的图表。
图9是用于说明对用户进行的实验的图。
图10是用于说明基于用户的视听位置的会聚角的不同的图。
图11是示出会聚模式积蓄部所存储的会聚模式数据的具体例的图。
图12是示出会聚模式积蓄部所存储的会聚量分布的具体例的图。
图13是示出再生影像信息的一个例子的图。
图14是示出会聚运动计算结果的一个例子的图。
图15是示出测量会聚量分布的一个例子的图。
图16A是示出会聚运动积蓄部所存储的会聚量分布的具体例的图。
图16B是示出会聚运动积蓄部所存储的会聚量分布的具体例的图。
图17是示出会聚模式积蓄部所存储的会聚模式的一个例子的图。
图18是示出按每个视听距离的会聚模式的一个例子的图。
图19是用于说明视听位置的设定方法的图。
图20是示出本发明的实施例涉及的其他的会聚能力判定装置的功能结构的方框图。
图21是示出本发明的实施例涉及的会聚模式制作装置的功能结构的方框图。
图22是示出会聚模式制作装置的工作的流程图。
图23是示出会聚运动积蓄部所存储的一名被试验者的会聚运动数据的具体例的图。
图24是示出会聚运动积蓄部所存储的会聚量的平均值和方差值的数据的图。
图25是示出会聚运动积蓄部所存储的评价区间的信息的一个例子的图。
图26是用于说明会聚速度分布的计算方法的图。
图27是示出会聚模式的一个例子的图。
图28是示出会聚运动积蓄部所存储的测量会聚速度分布的一个例子的图。
图29是示出本发明的实施例2涉及的会聚模式积蓄部所存储的会聚模式的一个例子的图。
图30是示出会聚模式积蓄部所存储的会聚模式的一个例子的图。
图31是示出理想会聚量分布的一个例子的图。
图32是示出本发明的由必须的构成要素构成的会聚能力判定装置的功能结构的方框图。
具体实施方式
以下,参照附图说明本发明的实施例。
本发明的实施方案之一涉及的会聚能力判定装置,眼球信息获得部,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;会聚运动计算部,根据所述眼球信息获得部获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及判定部,对示出评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据、与示出所述评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述评价区间是所述用户视听的立体影像的规定的再生时间区间。
根据该结构,根据观看立体影像的用户的眼球信息计算立体视中的用户的眼球的会聚运动量,对评价区间中的会聚运动量的分布与理想的会聚运动量的分布进行比较,从而判定用户的眼球的会聚运动能力。因此,判定观看立体影像的用户的各个立体度的会聚运动能力,根据其结果,能够将立体影像的立体度变更为适于用户的立体度。如此,通过根据判定结果变更立体度,以一次的立体度变更能够提供适于用户的立体度的立体影像,因此,向用户能够提供疲劳以及不快感少的立体影像。
而且,本发明所公开的会聚能力判定装置,不仅适用于立体影像,也能够适用于静止图像等的立体图像。
并且,也可以是,所述判定部,按照所述评价区间中的、将会聚运动量可取的值的范围分割为多个范围时的每个范围,对该范围内包含的所述会聚运动计算部计算出的所述会聚运动量的累计时间、与该范围内包含的按照所述立体影像的深度信息而决定的所述会聚运动量的累计时间进行比较,从而判定所述用户的眼球的会聚运动的能力。
根据该结构,能够准确地确定会聚运动的能力低的会聚运动量的范围。
并且,也可以是,所述判定部,在所述多个范围之中的所述会聚运动计算部计算出的所述会聚运动量的累计时间为,比按照所述立体影像的深度信息而决定的所述会聚运动量的累计时间小的范围内,判定为所述用户的眼球的会聚运动的能力低。
并且,也可以是,所述判定部,按照所述评价区间中的、将会聚运动量可取的值的范围分割为多个范围时的每个范围,对示出该范围内是否包含所述会聚运动计算部计算出的所述会聚运动量的信息、与示出该范围内是否包含按照所述立体影像的深度信息而决定的所述会聚运动量的信息进行比较,从而判定所述用户的眼球的会聚运动的能力。
根据该结构,会聚能力判定装置,按照将会聚运动量可取的值的范围分割为多个范围时的每个范围,仅存储该范围内是否包含会聚运动量的信息即可。因此,能够将会聚能力判定装置所存储的信息的尺寸变小。并且,判定部,不进行会聚运动量的累计时间的大小比较处理,而进行是否包含会聚运动量的判断处理。因此,能够减少判定部的运算量。
并且,也可以是,所述评价区间是,视听了所述立体影像的多个被试验者的会聚运动量的方差值成为规定值以下的状态持续了规定时间以上时的所述立体影像的再生时间区间。
根据该结构能够保证,在评价区间显示的立体影像中,不存在注视时的会聚运动量不同的多个被摄体。也就是说,在所述立体影像中存在深度不同的多个被摄体的情况下,会有各个被试验者注视的被摄体不同的情况。在这样的情况下,被试验者间的眼球的会聚运动量不同,因此,会聚运动量的方差值变大。然而,在所述立体影像中仅包含一个成为注视对象的被摄体的情况下,被试验者间的眼球的会聚运动量大致相等,因此,会聚运动量的方差值变小。因此,将会聚运动量的方差值变小的再生时间区间设为评价区间,从而能够准确判定用户的会聚运动能力。
本发明的其他的局面涉及的会聚能力判定装置,根据视听立体影像时的用户的眼球的状态,判定所述用户的眼球的会聚运动的能力,所述会聚能力判定装置具备:眼球信息获得部,获得眼球信息,该眼球信息是与视听立体影像时的所述用户的眼球的运动有关的信息;会聚运动计算部,根据所述眼球信息获得部获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及判定部,对示出第一评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据、与示出第二评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述第一评价区间是所述用户视听的立体影像的规定的再生时间区间,所述第二评价区间是与所述第一评价区间不同的所述用户视听的立体影像的规定的再生时间区间,示出所述第一评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据、与示出所述第二评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据相等。
根据该结构,根据观看立体影像的用户的眼球信息计算立体视中的用户的眼球的会聚运动量,对评价区间中的会聚运动量的分布与其他的评价区间中的会聚运动量的分布进行比较,从而判定用户的眼球的会聚运动能力。因此,判定观看立体影像的用户的会聚运动能力的劣化,根据其结果,能够将立体影像的立体度变更为适于用户的立体度。如此,通过根据判定结果变更立体度,以一次的立体度变更能够提供适于用户的立体度的立体影像,因此,向用户能够提供疲劳以及不快感少的立体影像。
并且,也可以是,所述会聚运动量是示出与所述用户的左右的眼球的瞳孔中心间的距离对应的值的会聚量。
并且,也可以是,所述会聚运动量是示出会聚量在时间上的变化量的会聚速度,该会聚量示出与所述用户的左右的眼球的瞳孔中心间的距离对应的值。
并且,也可以是,所述的会聚能力判定装置还具备立体程度变更部,该立体程度变更部,以不使在所述判定部判定为会聚运动能力低的会聚量的会聚运动发生的方式,来变更所述立体影像的立体程度。
而且,这样的整体或具体的形态,可以由***、方法、集成电路、计算机程序或记录介质实现,也可以由***、方法、集成电路、计算机程序或记录介质的任以的组合实现。
接着,说明使立体视成为可能的眼镜控制的原理。
向用户提供立体影像的装置之一有如下装置,如图1示出,在显示器上交替显示右眼用和左眼用的影像(以后,将这样的影像描述为“立体影像”),立体视用的液晶快门眼镜,与立体影像的显示同步来使影像左右交替通过,从而向用户提供与左右的眼睛对应的影像(帧序列方式)。也就是说,以向左眼显示左眼用影像、向右眼显示右眼用影像的方式,来进行快门眼镜的快门的同步控制。利用这样的装置,向左右的眼睛显示不同的影像,从而用户能够进行立体视。
在此,对于观看立体影像的用户的眼球运动,进行简单的说明。通过立体影像,如上所述向左右的眼睛显示不同的影像,在水平方向上显示不同的影像,从而令用户感知具有深度的立体度。在此,如图2A示出,左眼用影像以及右眼用影像中的物体间的距离(视差)在与左右的眼睛相反的方向上越离开,就越看作显示的物体接近(以后表现为“立体程度变大”),此时的用户的眼球向内侧旋转。将该运动称为会聚运动,将此时的双眼的视线方向形成的角度称为会聚角。会聚角是示出,左右的眼球(相对于观看无穷远方的状态)多少位于内侧的量,如图2A得知,物体的三维感知位置与眼睛越接近,会聚角就越大。另一方面,如图2B示出,若被立体显示的物体的三维感知位置与眼睛远离,则用户的眼球向外侧方向旋转。将该运动称为开散运动。在开散运动时会聚角变小。
本实施例涉及的会聚能力判定装置,计算示出观看立体影像的用户的每个会聚角的会聚运动的程度的会聚运动量,判定用户的眼球运动的会聚能力。但是,在本实施例中,对于会聚运动量,不计算眼球的会聚角,而计算与会聚角相关的会聚量来利用。
以下,对于本发明的实施例,参照附图说明根据用户的每个会聚量的会聚运动的测量结果,判定用户的眼球运动的会聚能力来进行控制的具体例。而且,在本实施例中,对于用户的眼球运动,说明会聚运动,但是,通过同样的方法,也能够测量开散运动。
而且,以下说明的实施例,都示出本发明的一个具体例子。以下的实施例所示的数值、形状、构成要素、构成要素的配置位置以及连接形态、步骤、步骤的顺序等,是一个例子,而不是限定本发明的宗旨。并且,对于以下的实施例的构成要素中的、示出最上位概念的独立权利要求中没有记载的构成要素,作为任意的构成要素进行说明。
图3是示出本实施例涉及的会聚能力判定装置的功能结构的方框图。
会聚能力判定装置具备,眼球信息获得部101、会聚运动计算部102、会聚运动积蓄部103、立体影像信息获得部104、会聚模式积蓄部105、评价区间决定部106、运动能力计算部107、判定部108、以及立体程度变更部109。
眼球信息获得部101,利用例如摄像机以及电极那样的传感器,获得观看立体影像的用户的眼球信息。眼球信息是,与眼球的运动有关的信息。
会聚运动计算部102,根据由眼球信息获得部101获得的眼球信息,计算眼球运动的会聚运动量,存储到会聚运动积蓄部103。
立体影像信息获得部104,从例如显示立体影像的电视机、以及再生立体影像的播放机,获得正在显示的立体影像的信息。例如,获得表示立体影像的标题及正在显示的立体影像的整体的立体程度的立体度、以及从立体影像的开始时刻的经过时间等。
会聚模式积蓄部105,存储正在显示的立体影像的理想的会聚信息。
评价区间决定部106,决定评价会聚运动的时间区间。以下,将时间区间也简称为区间。
运动能力计算部107,根据会聚运动计算部102计算出的会聚运动量,计算由评价区间决定部106决定的区间中的每个会聚量的立体视时间。
判定部108,根据运动能力计算部107计算出的结果与会聚模式积蓄部105所存储的理想的信息的比较结果,判定用户的眼球的会聚运动能力。
立体程度变更部109,根据判定部108判定的结果,决定如何变更正在显示的立体影像的立体度,将其结果存储到会聚模式积蓄部105,并且将该结果发送到能够变更立体度的装置。在此,所述能够变更立体度的装置有,例如再生立体影像的播放机、显示立体影像的电视机、或观看立体影像所需要的眼镜(以后记载为“立体视用眼镜”)。
以下,对于会聚能力判定装置执行的处理,利用图4的流程图进行说明。
对于图4示出的会聚能力判定装置的处理,从立体影像的开始直到结束为止,以规定的时间间隔进行。
在步骤S401中,眼球信息获得部101,利用传感器,以规定的时间间隔获得用户的眼球信息。在此,眼球信息的获得方法有,例如,利用作为传感器的电极测量眼电位来测量其电位变动的方法、以及利用作为传感器的摄像机来拍摄眼球图像的方法等。图5A至图5C示出,安装电极以及摄像机那样的传感器的、能够测量眼球运动的立体视用眼镜的概观的一个例子。
图5A是眼电位测量用的立体视用眼镜,在框架部分设置有用于测量眼电位的电极501以及502。电极501是用于测量双眼的电位的电极,包含电极501A至电极501D的四个电极。并且,电极502是接地电极,根据电极501和电极502的电位差,测量双眼的电位变化。并且,图5B是眼球摄影用的立体视用眼镜,具备摄像机503、以及半反射镜504。由安装在上部的摄像机503拍摄,映在半反射镜504中的用户的眼球。而且,图5C是除去图5B的眼镜部分而从横向看时的图。如图5C,影像通过半反射镜到达用户的眼睛,另一方面,由半反射镜反射的用户的眼睛的影像进入摄像机503。
在以后的处理的说明中,对于由如图5B的能够拍摄用户的眼球的立体影像用眼镜获得用户的眼球信息的情况,进行具体说明。
眼球信息获得部101,利用摄像机503,以规定的间隔进行用户的眼球的拍摄。图6示出拍摄的图像的一个例子。
在步骤S402中,会聚运动计算部102计算用户的眼球的会聚运动量,存储到会聚运动积蓄部103。首先,对于会聚运动计算部102计算的会聚运动,进行具体说明。会聚运动计算部102,对由眼球信息获得部101获得的眼球的图像数据施行图像处理来提取瞳孔,进一步,计算瞳孔的中心坐标。会聚运动计算部102,将根据计算出的双眼的瞳孔中心坐标中的、水平方向的坐标(X坐标)和其值而计算出的会聚量,作为会聚运动量来计算,存储到会聚运动积蓄部103。在本实施例中,对于会聚量,利用从左眼的X坐标的值中减去右眼的X坐标的值之后的值。若如此定义会聚量,对于会聚量,观看画面上的物体时总是一定值,但是,若用户观看从画面跳出的物体,则成为比所述一定值小的值。
接着,图7示出会聚运动积蓄部103所存储的会聚运动量计算结果的一个例子。项目701示出测量日期及时间。项目702示出右眼的瞳孔中心坐标的X坐标(像素单位)。项目703示出左眼的瞳孔中心坐标的X坐标(像素单位)。项目704示出会聚量。会聚量是,从项目703的值中减去项目702的值之后的值(像素单位)。图8示出,将进行交替观看图9示出的显示在画面(显示器)上的标记和显示在距画面的规定的立体度的位置的标记的实验时的用户的双眼的瞳孔中心位置的时间变化和所述会聚量的时间变化图表化的结果。若详细说明所述实验,在用户的前方90cm的画面上和距画面的60cm的靠前方的位置,以3秒至5秒的间隔提示十字标记900秒钟,求出此时的双眼的瞳孔中心位置的时间变化和会聚量的时间变化。图8(a)以及图8(b)分别是示出用户的双眼的瞳孔中心坐标的时间变化的图表,图8(c)示出从同时间的左眼的瞳孔中心坐标(图8(a))中减去右眼的瞳孔中心坐标(图8(b))之后的会聚量的时间变化。在图8(c)的会聚量中,在值大致位于375像素的位置时,用户观看显示在画面上的标记,在会聚量的值大致位于330像素的位置时,用户观看显示在距画面的规定的立体度的位置的标记。
在此,为了观看的影像的立体程度越大,就能够表现越大的用户的会聚量,而将会聚量重新定义为,以观看非立体的画面上的影像时的双眼的水平瞳孔中心间距离为基准时的双眼的水平瞳孔中心间距离的减少量。例如,如图8,在观看画面上时的双眼的水平瞳孔中心距离为375像素、某时刻的影像视听时的双眼的水平瞳孔中心距离为365像素的情况下,将会聚量设为10像素。
说明会聚模式积蓄部105所积蓄的数据。会聚模式积蓄部105存储从立体影像的开始时刻到结束时刻为止的某一个或多个评价区间中的理想的会聚量的分布数据。
在此,评价区间中的会聚量的分布是,在所述评价区间中哪种大小的会聚量存在多长时间的分布,理想的会聚量的分布是,立体影像制作者估计的会聚量的分布。对于该理想的会聚量的分布的决定方法也可以,立体影像制作者估计在该评价区间中在画面上用户观看的点,计算用户观看所述估计的点的的逻辑的会聚量,来计算其分布。并且,对于其他的方法也可以,进行使多个被试验者观看相同立体影像的实验,求出该实验时的各个评价区间中的被试验者的会聚量的分布,将最多的会聚量分布设为理想的会聚量的分布。而且,也可以是,在利用所述多个被试验者求出理想的分布的情况下,事先进行会聚能力的试验,仅对能够进行准确的会聚运动的被试验者进行实验。对于试验的具体方法,例如,测量观看各种各样的立体程度的立体图像时的被试验者的会聚量,试验该会聚量相对于计算值而是否在规定范围以内。同样,也可以是,测量观看一边立体度变化一边以规定的速度运动的对象物被显示的动画时的被试验者的会聚量的变化速度,试验所述变化速度是否在规定范围以内。并且,如图10示出,在同一立体影像中,也根据距画面的用户的距离(以后,记载为“视听距离”),会聚量不同。于是,也可以是,在决定所述理想的会聚量的分布时,估计距一般的电视机的视听位置,决定所述估计位置的理想的会聚量的分布。
会聚模式积蓄部105所积蓄的理想的会聚分布数据是,按每个立体影像,且按每个立体程度存储的。以后将这样的数据记载为“会聚模式”。
图11示出会聚模式积蓄部105所存储的会聚模式的一个例子。
在图11中,项目901示出按每个立体影像分配的ID。项目902示出立体影像的立体度,值越大,就越显示立体程度大的立体影像。项目903示出评价区间号码。项目904示出与所述评价区间号码所示的评价区间对应的评价区间时间。所述评价区间时间,以从立体影像的再生开始的经过时间,来示出评价区间的开始时刻和结束时刻。例如,对于图11的评价区间号码1的评价区间时间,将从立体影像的再生开始时刻的1分后设为评价区间的开始时刻,将6分后设为评价区间的结束时刻。项目905示出所述评价区间的时间宽度,例如,图11的评价区间号码1评价区间的时间宽度为5分。项目906示出会聚量的分布。会聚量的分布示出,在对应的评价区间中哪种大小的会聚量存在多长时间的分布(各个会聚量的总时间),在图11的情况下示出,以10像素为单位,对与观看位于画面上的对象物的情况的会聚量的差分进行分割时的会聚量的总时间。更具体地说,在项目906的记载为“0-10”的项目中,在与观看位于画面上的对象物的情况的会聚量比较时,是会聚量的差分值成为0至10像素的影像的时间的总和,在评价区间号码1的情况下为2分30秒。以后,将根据该理想的会聚量计算出的会聚量的分布记载为“理想会聚量分布”。
图12示出将图11中的评价区间号码1的会聚量分布图表化的一个例子。
在步骤S403中,评价区间决定部106,获得与立体影像信息获得部104从显示立体影像的电视机以及再生立体影像的播放机等获得的立体影像有关的信息(以后记载为“再生影像信息”)。具体而言,例如,如图13示出,例如,以1秒间隔获得包含立体影像的ID、当前的立体度、从立体影像的开始时刻的经过时间(时间:分:秒)、总会聚量那样的信息的数据。总会聚量是,从立体影像的开始时刻到经过时间为止的会聚量的累计值。
并且,立体影像信息获得部104,将所述再生影像信息也发送到会聚运动计算部102。会聚运动计算部102,接收再生影像信息后,像图14的项目1805那样,将从立体影像开始的经过时间与测量以及计算后的会聚量对应起来保存。在项目1805中示出,“-1"的测量日期及时间为,评价区间以外的测量日期及时间。而且,图14的项目1804示出会聚量。如此,为了计算从观看画面上时的水平瞳孔中心间距离的水平瞳孔中心间距离的减少量,将观看画面上时的水平瞳孔中心间距离作为预先决定的值,存储在会聚运动计算部102中。会聚运动计算部102,根据测量结果计算与所述预先决定的值的差分值,将计算出的值作为会聚量存储到会聚运动积蓄部103。并且,也可以是,对于观看画面上时的会聚量,将观看平面影像时测量的结果,存储在会聚运动计算部102中来利用。
评价区间决定部106,若接收所述再生影像信息,对接收的再生影像信息的经过时间与会聚模式积蓄部105所存储的评价区间的结束时刻进行比较。例如,在图11中,评价区间号码1的评价区间的结束时刻为从立体影像开始的0小时6分0秒后,因此,在接收的影像信息的经过时间为0小时6分0秒的情况下,评价区间决定部106判定为评价区间号码1的评价区间结束了。
在评价区间决定部106判定为从立体影像信息获得部104获得的从立体影像开始时刻的经过时间与评价区间的结束时刻一致的情况下,进行到步骤S404,评价区间决定部106,将对应的评价区间号码传递给运动能力计算部107。另一方面,在所述经过时间与评价区间的结束时刻不一致的情况下,结束本时刻的处理,反复执行步骤S401以后的处理。
在步骤S404中,在运动能力计算部107从评价区间决定部106接受评价区间结束的信息的情况下,首先,从会聚运动积蓄部103获得对应的评价区间中的会聚量。接着,运动能力计算部107,针对获得的会聚量计算会聚量的分布,与再生影像信息以及示出评价区间的信息一起存储到会聚运动积蓄部103。具体而言,例如,对于评价区间号码1,运动能力计算部107,将立体影像开始后1分至6分的会聚量,从会聚运动积蓄部103获得。接着,运动能力计算部107,针对获得的会聚量计算各个会聚量属于10像素间隔的会聚量的区间中的哪个区间的分布,根据各个区间中包含的会聚量的数据数计算会聚量的时间分布(以后,将该会聚量时间分布记载为“测量会聚量分布")。图15示出会聚运动积蓄部103所存储的测量会聚量分布的一个例子。项目1901示出正在观看的立体影像的ID。项目1902示出所述立体影像的立体度。项目1903示出评价区间号码。项目1904示出测量会聚量分布。若仅计算出根据评价区间号码1的时间段的测量结果计算出的测量会聚量分布,则仅在评价区间号码1的测量会聚量分布的存储区域存储计算结果。若结束所述存储,运动能力计算部107,向判定部108传递其情况。
在步骤S405中,判定部108,对会聚运动积蓄部103所存储的评价区间中的测量会聚量分布、与会聚模式积蓄部105所存储的会聚模式的所述理想会聚量分布进行比较,从而判定用户的眼球的会聚运动能力。在此,作为比较对象的理想会聚量分布是,具有与由立体影像信息获得部104获得的正在显示中的立体影像的再生影像信息的ID以及立体度同一的ID以及立体度的理想会聚量分布之中的、与再生影像信息的评价区间同一的评价区间中的理想会聚量分布。对于用户的眼球的运动能力的判定方法,判定部108,比较各个会聚量的总时间,对于存在规定的比例以上的不同的会聚量,判定为用户的眼球的会聚运动能力低。利用图16A以及图16B进行更具体说明。图16A以及图16B示出会聚运动积蓄部103所积蓄的某评价区间(例如,评价区间号码1号的评价区间)的用户的眼球运动的会聚量的分布的两个例子。在此,在图中,虚线示出,图12所示的会聚模式积蓄部105所存储的理想会聚量分布,示出与测量会聚量分布相同的评价区间中的会聚量的时间的总和。在图16A的情况下,在与理想会聚量分布比较的情况下,在会聚量为30至40的区间中,没有测量会聚量,在会聚量为20至30的区间中,与理想的会聚量的总时间相比,测量出的会聚量的总时间稍微少。另一方面,在会聚量为10至20的区间中,与理想的会聚量的总时间相比,测量出的会聚量的总时间多。根据其结果,在示出图16A的测量会聚量分布的用户的情况下,判断为理想的会聚量发生在30至40之间的用于观看立体影像的眼球的运动能力不存在。并且,也判断为理想的会聚量发生在20至30之间的用于观看立体影像的眼球的运动能力低。同样,在图16B的用户的情况下,得知的是,没有测量10至40的范围的会聚量,另一方面,0至10的范围的会聚量增加。于是,将该用户,判断为理想的会聚量发生在10至40之间的用于观看立体影像的眼球的运动能力不存在。而且,在这样的情况下也可以,在会聚量0至10的范围中,计算更详细的分布。根据其结果得知,在会聚量为0至10的分布中,在大部分的会聚量的值为0的情况下,用户没有进行立体视本身。
如此,在判定为某会聚量的会聚运动能力不存在、或者低的情况下,进行到步骤S406。另一方面,在判定为测量出的用户的各个会聚量的分布与理想会聚量分布之间不存在规定比例以上的不同的情况下,结束处理。
在步骤S406中,立体程度变更部109,根据判定部108的判定结果,将正在显示的立体影像的立体度的变更请求,发送给控制立体影像的立体度的电视机以及再生立体影像的播放机。
对于变更方法,例如,如图16A,在判断为会聚量30至40的会聚运动能力不存在的情况下,变更立体度,以使会聚量成为最大30。并且,在图16B的情况下,变更立体度,以使会聚量成为最大10。而且,如上所述,在图16B中还检查会聚量0至10的分布,在大部分的值为会聚量0的情况下,将立体度变更为0,以使会聚量成为0。也就是说,变更为平面影像。
在变更正在显示的立体影像的立体度的情况下,需要变更以后的用户的眼球的会聚运动能力的判定所利用的会聚模式。于是,立体程度变更部109,将评价区间决定部106以及判定部108中参考的会聚模式,变更为适于变更后的立体度的会聚模式。例如,将图11所示的30至40的范围的会聚量被包含的立体度为3的会聚模式,变更为图17所示的成为最大会聚量30的立体度2的会聚模式。
如上所述,本实施例涉及的会聚能力判定装置,根据观看立体影像的用户的眼球信息计算立体视中的用户的眼球的会聚量,对评价区间中的会聚量的分布与理想的会聚量的分布进行比较,从而判定用户的眼球的会聚运动能力。因此,判定观看立体影像的用户的各个立体度的会聚运动能力,根据其结果,能够将立体影像的立体度变更为适于用户的立体度。如此,通过根据判定结果变更立体度,以一次的立体度变更能够提供适于用户的立体度的立体影像,因此,向用户能够提供疲劳以及不快感少的立体影像。
以上,对于本发明涉及的会聚能力判定装置,根据实施例进行了说明,但是,本发明,不仅限于该实施例。
例如,在所述实施例中,估计距电视机的一般的视听位置制作会聚模式,但是,如图18,也可以按每个视听距离(例如,按每个50cm)制作多个会聚模式。例如,在用户像图19那样的显示画面中设定视听位置(视听距离)的情况下,选择视听距离与设定的视听距离最近的会聚模式,利用于会聚能力的判定。据此,能够进行与会聚量的实际测量值的准确的比较。图20示出表示此时的会聚能力判定装置的功能结构的方框图。与图3不同,增加接受距用户的视听距离的视听距离输入部3101。
并且,在所述实施例中,对于用户的眼球的会聚运动能力的判定,对评价区间中的理想会聚量分布与测量会聚量分布进行比较,判定用户的眼球的会聚运动能力。在此,在评价区间中用户实际观看的地方、与会聚模式的制作时估计的用户观看的地方一致,从而能够更准确地判定会聚运动能力。
在此,例如,在相同的画面上出现深度不同的人物A和人物B的两名人物,用户观看人物A,对此,记录有被试验者观看人物B的情况的会聚运动量以作为会聚模式的情况下,即使用户能够准确且立体地观看人物A,两个分布也不同。因此,判定部108判定为用户的眼球的会聚运动能力有问题。如此,为了更准确地判定用户的眼球的会聚运动能力,而需要设定观看同一地方的可能性高的区间,以作为评价区间。
于是,图21示出所述实施例中的表示制作某立体影像的会聚模式的会聚模式制作装置的功能结构的方框图。并且,图22是示出会聚模式制作装置的工作的流程图。
会聚模式制作装置具备,眼球运动获得部2401、会聚运动计算部2402、会聚运动积蓄部2403、评价区间决定部2404、会聚模式制作部2405、以及会聚模式积蓄部105。
在步骤S2501中,首先,使多个被试验者,观看试验用立体影像,仅提取规定人数的准确地进行会聚运动的被试验者。该提取处理也可以,利用图3示出的会聚能力判定装置,计算测量会聚量分布和理想会聚量分布的差,从该差小的被试验者中提取规定人数。使所述提取的多个被试验者观看作为会聚模式制作对象的立体影像,由眼球运动获得部2401测量此时的眼球运动。
在步骤S2502中,会聚运动计算部2402,根据所述测量出的眼球运动计算会聚运动量,记录到会聚运动积蓄部2403。具体而言,计算并记录会聚量的时间序列数据,以作为会聚运动。在此,与所述实施例同样,将会聚量定义为,例如以观看非立体的画面上的影像时的双眼的水平瞳孔中心间距离为基准时的双眼的水平瞳孔中心间距离的减少量。图23示出会聚运动积蓄部2403所存储的一名被试验者的测量结果的一个例子。项目2601示出对象立体影像的ID。项目2602示出被试验者ID。项目2603示出对象立体影像的立体度。项目2604示出从对象立体影像开始的经过时间。项目2605至项目2607与所述实施例同样示出,左右的眼睛的X坐标、以及从左右的X坐标的差分值中减去观看位于画面上的对象物时的该差分值的会聚量。
在步骤S2503中,评价区间决定部2404,针对步骤S2502中计算出的多个被试验者的会聚量的时间序列数据,计算平均值和方差值,将其结果存储到会聚运动积蓄部103。图24示出被积蓄的所述平均值和方差值的结果的一个例子。项目2701示出对象立体影像的ID。项目2702示出所述对象立体影像的立体度。项目2703示出从所述对象立体影像的开始的经过时间。项目2704示出各个被试验者的会聚量,项目2705以及项目2706分别示出项目2704所示的会聚量的平均值以及方差值。
在步骤S2504中,评价区间决定部2404根据在步骤S2503中计算以及存储后的针对从各个被试验者的立体影像的开始时刻的各个经过时间的会聚量的方差值,决定评价区间。在此,评价区间取决于以下的基本思想,即,由于被试验者都是能够进行立体影像的准确的立体视的被试验者,因此同一经过时间的会聚量的不同起因于观看影像的地方不同。具体而言,将项目2706的方差值为规定值以下的状态持续了规定时间以上、且第二个以后的评价区间为从上一次的评价区间经过规定时间以上的区间决定为评价区间。更具体地说,将方差值为0.05以下的状态持续了5分钟的区间、且第二个以后的评价区间为从上一次的评价区间经过30分以上的区间决定为评价区间。
评价区间决定部2404将如上决定的评价区间的信息,存储到会聚运动积蓄部2403。图25示出被积蓄的所述评价区间的信息的一个例子。项目2801示出对象立体影像的ID。项目2802示出所述对象立体影像的立体度。项目2703示出评价区间号码。项目2804以及项目2805分别示出,与项目2804的评价区间号码对应的评价区间时间(开始时刻和结束时刻)以及其时间宽度。所述评价区间的开始时刻以及结束时刻,由从立体影像的开始的经过时间表示。
在步骤S2505中,会聚模式制作部2405,根据会聚运动积蓄部2403所存储的各个评价区间的信息、和多个被试验者的会聚量的平均值,计算各个评价区间中的多个被试验者的会聚量的平均值的分布,与所述评价区间的信息一起,制作例如图11那样的形式的会聚模式,将制作后的会聚模式存储到会聚模式积蓄部105。
(变形例1)
在所述实施例中,对评价区间中的用户会聚量的分布与会聚模式进行比较。也就是说,对在评价区间中哪个会聚量存在多长时间那样的分布与理想分布进行比较,从而进行用户的眼球的会聚运动能力的判定。
在本变形例中,对于为了判定用户的眼球的会聚运动能力而利用的参数,代替会聚量的分布,而利用会聚速度的分布。大部分的处理与所述实施例同样,因此,以下仅说明不同之处。
为了判定不基于会聚量的分布、而基于会聚速度的分布的用户的眼球的会聚运动能力,会聚模式积蓄部105存储有,示出理想的会聚速度分布的会聚模式。如下计算会聚速度分布。也就是说,对图26(a)所示的理想的会聚量进行微分,从而计算图26(b)所示的作为会聚量的速度变化的会聚速度。利用该会聚速度,计算示出在评价区间中各个会聚速度存在多长时间那样的理想的会聚速度分布。图27示出表示理想的会聚速度分布的会聚模式的一个例子。而且,图27示出,计算会聚速度的绝对值,存储该分布的例子,但也可以存储还包含负的速度的会聚速度的分布。项目2201至2205,与图11示出的会聚模式的项目901至905同样,因此不反复说明。项目2206示出会聚速度的分布。会聚速度的分布示出,在对应的评价区间中哪种大小的会聚速度存在多长时间(各个会聚速度的总时间),在图27的情况下示出,以5像素/秒单位分割时的会聚速度的总时间。更具体地说,在项目2206的记载为"0-5”的项目中,是会聚速度为0至5像素/秒的影像的时间的总和,在评价区间号码1的情况下,是2分30秒。
运动能力计算部107,与所述实施例同样,根据会聚运动积蓄部103所存储的会聚运动的计算结果,不计算按每个会聚量的分布,而计算按每个聚速度的分布,将其结果,以例如像图28那样的形式,存储到会聚运动积蓄部103。项目2301至2303,与图15示出的测量会聚量分布的项目1901至1903同样,因此不反复说明。项目2304示出测量会聚速度分布。若仅计算出根据评价区间号码1的时间段的测量结果计算出的测量会聚速度分布,则仅在评价区间号码1的测量会聚速度分布的存储区域存储计算结果。若结束所述存储,运动能力计算部107,向判定部108传递其情况。
判定部108,对所述用户的眼球的会聚速度分布与在同一评价区间中的所述会聚模式的会聚速度分布进行比较,从而进行用户的眼球的会聚运动能力的判定。在用户的眼球的会聚运动的分布中,在快速度的分布比会聚模式的分布小的情况下,能够判定为用户不能跟随立体影像的立体程度的变化。
在判定部108判定为用户的眼球的会聚运动能力上不能跟随某立体程度的变化的情况下,立体程度变更部109使正在显示的立体影像的立体程度变小,从而使显示中的立体影像处于用户能够跟随的立体程度的变化。
如上所述,本变形例涉及的会聚能力判定装置,根据观看立体影像的用户的眼球信息计算立体视中的用户的眼球的会聚速度,对评价区间中的会聚速度的分布与理想的会聚速度的分布进行比较,从而判定用户的眼球的会聚运动能力。因此,能够判定观看立体影像的用户的各个立体度的会聚运动能力,根据其结果,将立体影像的立体度变更为适于用户的立体度。如此,通过根据判定结果变更立体度,以一次的立体度变更,能够提供适于用户的立体度的立体影像,因此,向用户能够提供疲劳以及不快感少的立体影像。
(变形例2)
在所述实施例中,通过对评价区间中的用户会聚量的分布与会聚模式进行比较,从而判定用户的眼球的会聚运动能力。
在本变形例中说明,在会聚模式积蓄部105不存储会聚模式的理想分布,而仅存储评价区间、以及示出在理想的状态下是否存在各个会聚量的值的信息,进行会聚运动能力判定的方法。
图29示出本变形例的会聚模式积蓄部105所存储的会聚模式的一个例子。与图11不同,在项目906中不存储如所述实施例的各个会聚量范围内的总时间,而存储0或1的2值。1示出存在包含在其会聚量范围内的会聚量,0示出不存在包含在其会聚量范围内的会聚量。
运动能力计算部107,在评价区间中,与所述实施例同样计算测量会聚量分布,存储到会聚运动积蓄部103。判定部108,对所述计算结果与会聚模式积蓄部105所存储的理想会聚分布进行比较,在理想会聚分布中包含在值为1的会聚量范围内的测量出的会聚量不存在的情况下,立体程度变更部109将立体影像的立体度变更为仅发生比所述会聚量不存在的会聚量范围小的会聚量的立体度。
根据本变形例,能够使会聚模式积蓄部105所存储的会聚模式的尺寸变小,并且,能够使会聚运动能力的判定时的运算量变少。
(变形例3)
在所述实施例中,通过对评价区间中的测量会聚量分布与理想会聚量分布进行比较,从而判定用户的眼球的会聚运动能力。
在本变形例中,不存储作为会聚模式的理想会聚量分布,而对时间段不同的评价区间中的测量会聚量分布彼此进行比较,从而判定用户的眼球的会聚运动能力。
本变形例涉及的会聚能力判定装置的结构与图3示出的结构同样。
图30示出本变形例的会聚模式积蓄部105所存储的会聚模式的一个例子。项目3201示出立体影像的ID。项目3202示出评价区间号码。项目3203示出与所述评价区间号码所示的评价区间对应的评价区间时间。项目3204示出评价区间的时间宽度。在此,与所述实施例不同,在本变形例的所有的评价区间中理想会聚量分布相同。例如,设想具有图31所示的理想会聚量分布。因此,图30所示的会聚模式中没有包含理想会聚量分布。并且,在所有的评价区间中,与立体度无关,理想会聚量分布相等,因此,也没有记录每个立体度的会聚模式。
本变形例涉及的会聚能力判定装置执行的处理,与图4示出的所述实施例涉及的会聚能力判定装置执行的处理同样,但是,步骤S404以后的处理不同。因此,以下说明与所述实施例不同之处。
在步骤S404中,运动能力计算部107,在从评价区间决定部106接受评价区间结束的信息的情况下,计算所述结束的评价区间中的测量会聚量分布,将如图15的测量会聚量分布存储到会聚运动积蓄部103。在此,在所述结束的评价区间为最初的评价区间的情况下,判定部108不进行用户的眼球的会聚运动能力的判定。也就是说,从步骤S404进行到结束。
另一方面,在所述结束的评价区间不是最初的评价区间的情况下,进行到步骤S405,判定部108,对前一个评价区间与所述结束的评价区间的测量会聚量分布进行比较,判定在各个会聚量范围内会聚量是否减少了规定比例以上。在此,在哪个会聚量范围内都没有规定比例以上的会聚量的减少的情况下,进行到结束。另一方面,在某个会聚量范围内存在规定比例以上的会聚量的减少的情况下,进行到步骤S406。在步骤S406中,立体程度变更部109,以成为不包含规定比例以上的会聚量的减少存在的会聚量范围的立体程度的方式,将立体度的变更请求,发送给控制立体影像的立体度的电视机以及再生立体影像的播放机。
根据本变形例的判定方法,能够检测用户的基于立体影像的视听的时间上的会聚运动能力的恶化。但是,不能判定用户的原来的会聚运动能力。然而,根据本变形例的判定方法的实施,能够使会聚模式积蓄部105所存储的会聚模式的尺寸变小。
而且,本发明的必须构成要素是,图3所示的会聚能力判定装置中的、眼球信息获得部101、会聚运动计算部102、以及判定部108。对于其他的构成要素,优选的是由立体影像提供装置具备,但是,并不一定是必须的。图32是示出本发明的由必须的构成要素构成的会聚能力判定装置的功能结构的方框图。一种会聚能力判定装置,根据视听立体影像时的用户的眼球的状态,判定用户的眼球的会聚运动的能力,所述会聚能力判定装置具备:眼球信息获得部101,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;会聚运动计算部102,根据眼球信息获得部101获得的眼球信息,计算示出用户的眼球的会聚运动的程度的会聚运动量;以及判定部108,对示出评价区间中的会聚运动计算部102计算出的会聚运动量的分布的分布数据、与示出评价区间中的按照立体影像的深度信息而决定的会聚运动量的分布的分布数据进行比较,从而判定用户的眼球的会聚运动的能力,所述评价区间是用户视听的立体影像的规定的再生时间区间。
而且,所述述的各个装置,具体而言,也可以被构成为由微处理器、ROM、RAM、硬盘驱动器、显示器单元、键盘、鼠标等构成的计算机***。RAM或硬盘驱动器存储有计算机程序。微处理器根据计算机程序进行工作,据此,各个装置实现其功能。在此,计算机程序是,为了实现规定的功能,组合表示对计算机的命令的多个指令码而构成的。
进而,构成所述的各个装置的构成要素的一部分或全部也可以,由一个***LSI(Large Scale Integration:大规模集成电路)构成。***LSI是,在一个芯片上集成多个构成部而制造的超多功能LSI,具体而言,是包含微处理器、ROM、RAM等而构成的计算机***。RAM存储有计算机程序。微处理器根据计算机程序进行工作,据此,***LSI实现其功能。
进而,并且,构成所述的各个装置的构成要素的一部分或全部也可以,由与各个装置可装卸的IC卡或单体的模块构成。IC卡或模块是,由微处理器、ROM、RAM等构成的计算机***。IC卡或模块也可以,包含所述的超多功能LSI。微处理器根据计算机程序进行工作,据此,IC卡或模块实现其功能。该IC卡或该模块也可以,具有防篡改性。
并且,本发明也可以是所述的方法。并且,可以是由计算机实现这样的方法的计算机程序,也可以是由所述计算机程序而成的数字信号。
也就是说,该计算机程序,使计算机执行会聚能力判定方法中包含的步骤。该会聚能力判定方法包括:眼球信息获得步骤,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;会聚运动计算步骤,根据在所述眼球信息获得步骤中获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及判定步骤,对示出评价区间中的在所述会聚运动计算步骤中计算出的所述会聚运动量的分布的分布数据、与示出所述评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述评价区间是所述用户视听的立体影像的规定的再生时间区间。
进而,本发明也可以,将所述计算机程序或所述数字信号记录到计算机可读取的非暂时的记录介质,例如,软盘、硬盘、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(注册商标))、半导体存储器等。并且,也可以是这样的非暂时的记录介质所记录的所述数字信号。
并且,本发明也可以,将所述计算机程序或所述数字信号,经由电通信线路、无线或有线通信线路、以互联网为代表的网络、数据广播等传输。
并且,本发明也可以是,具备微处理器和存储器的计算机***,所述存储器存储有所述计算机程序,所述微处理器根据所述计算机程序进行工作。
并且,也可以是,将所述程序或所述数字信号记录到所述非暂时的记录介质来转送,或者,将所述程序或所述数字信号经由所述网络等转送,从而由独立的其他的计算机***实施。
以上,对于本发明的一个或多个实施方案涉及的立体影像提供装置,根据实施例进行了说明,但是,本发明,不仅限于该实施例。只要不脱离本发明的宗旨,对本实施例施行本领域的技术人员想到的各种变形的形态、或组合不同的实施例中的构成要素而构成的形态,也包含在本发明的一个或多个实施方案的范围内。
本发明,针对具有各种各样的会聚运动能力的用户,能够提供与用户相符的舒适的立体程度的立体影像。本发明,能够利用于能够变更立体程度的许多立体影像装置,本发明的利用可能性非常大。
符号说明
101、2401眼球信息获得部
102、2402会聚运动计算部
103、2403会聚运动积蓄部
104立体影像信息获得部
105会聚模式积蓄部
106、2404评价区间决定部
107运动能力计算部
108判定部
109立体程度变更部
2405会聚模式制作部
3101视听距离输入部

Claims (11)

1.一种会聚能力判定装置,具备:
眼球信息获得部,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;
会聚运动计算部,根据所述眼球信息获得部获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及
判定部,对示出评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据、与示出所述评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述评价区间是所述用户视听的立体影像的规定的再生时间区间。
2.如权利要求1所述的会聚能力判定装置,
所述判定部,按照所述评价区间中的、将会聚运动量可取的值的范围分割为多个范围时的每个范围,对该范围内包含的所述会聚运动计算部计算出的所述会聚运动量的累计时间、与该范围内包含的按照所述立体影像的深度信息而决定的所述会聚运动量的累计时间进行比较,从而判定所述用户的眼球的会聚运动的能力。
3.如权利要求2所述的会聚能力判定装置,
所述判定部,在所述多个范围之中的所述会聚运动计算部计算出的所述会聚运动量的累计时间为,比按照所述立体影像的深度信息而决定的所述会聚运动量的累计时间小的范围内,判定为所述用户的眼球的会聚运动的能力低。
4.如权利要求1所述的会聚能力判定装置,
所述判定部,按照所述评价区间中的、将会聚运动量可取的值的范围分割为多个范围时的每个范围,对示出该范围内是否包含所述会聚运动计算部计算出的所述会聚运动量的信息、与示出该范围内是否包含按照所述立体影像的深度信息而决定的所述会聚运动量的信息进行比较,从而判定所述用户的眼球的会聚运动的能力。
5.如权利要求1至4的任一项所述的会聚能力判定装置,
所述评价区间是,视听了所述立体影像的多个被试验者的会聚运动量的方差值成为规定值以下的状态持续了规定时间以上时的所述立体影像的再生时间区间。
6.一种会聚能力判定装置,根据视听立体影像时的用户的眼球的状态,判定所述用户的眼球的会聚运动的能力,所述会聚能力判定装置具备:
眼球信息获得部,获得眼球信息,该眼球信息是与视听立体影像时的所述用户的眼球的运动有关的信息;
会聚运动计算部,根据所述眼球信息获得部获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及
判定部,对示出第一评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据、与示出第二评价区间中的所述会聚运动计算部计算出的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述第一评价区间是所述用户视听的立体影像的规定的再生时间区间,所述第二评价区间是与所述第一评价区间不同的所述用户视听的立体影像的规定的再生时间区间,
示出所述第一评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据、与示出所述第二评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据相等。
7.如权利要求1至6的任一项所述的会聚能力判定装置,
所述会聚运动量是示出与所述用户的左右的眼球的瞳孔中心间的距离对应的值的会聚量。
8.如权利要求1至6的任一项所述的会聚能力判定装置,
所述会聚运动量是示出会聚量在时间上的变化量的会聚速度,该会聚量示出与所述用户的左右的眼球的瞳孔中心间的距离对应的值。
9.如权利要求1至8的任一项所述的会聚能力判定装置,
所述会聚能力判定装置还具备立体程度变更部,
该立体程度变更部,以不使在所述判定部判定为会聚运动能力低的会聚量的会聚运动发生的方式,来变更所述立体影像的立体程度。
10.一种会聚能力判定方法,包括:
眼球信息获得步骤,获得眼球信息,该眼球信息是与视听立体影像时的用户的眼球的运动有关的信息;
会聚运动计算步骤,根据在所述眼球信息获得步骤中获得的所述眼球信息,计算示出所述用户的眼球的会聚运动的程度的会聚运动量;以及
判定步骤,对示出评价区间中的在所述会聚运动计算步骤中计算出的所述会聚运动量的分布的分布数据、与示出所述评价区间中的按照所述立体影像的深度信息而决定的所述会聚运动量的分布的分布数据进行比较,从而判定所述用户的眼球的会聚运动的能力,所述评价区间是所述用户视听的立体影像的规定的再生时间区间。
11.一种程序,用于使计算机执行权利要求10所述的会聚能力判定方法中包含的所有的步骤。
CN2012800043576A 2011-05-19 2012-04-04 会聚能力判定装置以及其方法 Pending CN103283245A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011112680 2011-05-19
JP2011-112680 2011-05-19
PCT/JP2012/002345 WO2012157177A1 (ja) 2011-05-19 2012-04-04 輻輳能力判定装置及びその方法

Publications (1)

Publication Number Publication Date
CN103283245A true CN103283245A (zh) 2013-09-04

Family

ID=47176532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012800043576A Pending CN103283245A (zh) 2011-05-19 2012-04-04 会聚能力判定装置以及其方法

Country Status (4)

Country Link
US (1) US9186056B2 (zh)
JP (1) JP5096643B1 (zh)
CN (1) CN103283245A (zh)
WO (1) WO2012157177A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5475893B2 (ja) * 2011-05-20 2014-04-16 パナソニック株式会社 視覚疲労度測定装置およびその方法
WO2014053658A1 (en) * 2012-10-05 2014-04-10 Essilor International (Compagnie Générale d'Optique) Method for improving visual comfort to a wearer and associated active system of vision
US11064881B2 (en) * 2015-11-13 2021-07-20 Hennepin Healthcare System, Inc Method for predicting convergence disorders caused by concussion or other neuropathology
CN109271030B (zh) * 2018-09-25 2020-12-22 华南理工大学 一种三维空间下注视点轨迹多维度比较方法
US10924727B2 (en) * 2018-10-10 2021-02-16 Avalon Holographics Inc. High-performance light field display simulator
WO2021240544A1 (en) * 2020-05-27 2021-12-02 Kanohi Eye Private Limited Assessment system for higher grades of binocular vision

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059590B2 (ja) * 1992-09-30 2000-07-04 富士通株式会社 立体表示方法及び装置
JPH0918894A (ja) * 1995-06-26 1997-01-17 Sanyo Electric Co Ltd 立体映像表示装置
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6932476B2 (en) * 2002-09-20 2005-08-23 Canon Kabushiki Kaisha Stereoscopic image display apparatus and stereoscopic image display system
JP2004298461A (ja) * 2003-03-31 2004-10-28 Topcon Corp 屈折測定装置
JP2004333661A (ja) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> 立体画像表示装置、立体画像表示方法および立体画像表示プログラム
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
RU2322771C2 (ru) * 2005-04-25 2008-04-20 Святослав Иванович АРСЕНИЧ Стереопроекционная система
CN102027752B (zh) * 2008-05-12 2016-02-17 汤姆森特许公司 用于测量立体运动画面的潜在眼睛疲劳的***和方法
US9285599B2 (en) 2009-01-22 2016-03-15 Nec Corporation Three-dimensional video viewing system, display system, optical shutter, and three-dimensional video viewing method
JP2010259006A (ja) * 2009-04-28 2010-11-11 Nikon Corp 画像提示システム、プログラムおよび画像提示方法
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
US20110228051A1 (en) * 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
US20130147797A1 (en) * 2010-08-30 2013-06-13 Sharp Kabushiki Kaisha Three-dimensional image generating method, three-dimensional image generating apparatus, and display apparatus provided with same
KR20120051308A (ko) * 2010-11-12 2012-05-22 삼성전자주식회사 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치
CN103283244A (zh) * 2011-05-20 2013-09-04 松下电器产业株式会社 立体影像提供装置以及其方法

Also Published As

Publication number Publication date
WO2012157177A1 (ja) 2012-11-22
JPWO2012157177A1 (ja) 2014-07-31
US9186056B2 (en) 2015-11-17
US20130021456A1 (en) 2013-01-24
JP5096643B1 (ja) 2012-12-12

Similar Documents

Publication Publication Date Title
CN103283245A (zh) 会聚能力判定装置以及其方法
US8094927B2 (en) Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
CN103283244A (zh) 立体影像提供装置以及其方法
US9779511B2 (en) Method and apparatus for object tracking and 3D display based thereon
US8913790B2 (en) System and method for analyzing three-dimensional (3D) media content
US9259146B2 (en) Binocular visual performance measuring method, binocular visual performance measuring program, eyeglass lens design method and eyeglass lens manufacturing method
CN107155106B (zh) 一种立体视频舒适度评价方法及装置
EP2230988B1 (en) Method of simulating blur in digitally processed images
US8817073B2 (en) System and method of processing 3D stereoscopic image
KR101682205B1 (ko) 입체영상의 시청피로를 저감하는 장치 및 방법
WO2012160741A1 (ja) 視覚疲労度測定装置、その方法、視覚疲労度測定システムおよび3次元メガネ
CN103380625A (zh) 头戴式显示器及其位置偏差调整方法
CN103282859A (zh) 手势操作输入处理装置及手势操作输入处理方法
CN103415882B (zh) 视频显示装置
US11960146B2 (en) Fitting of glasses frames including live fitting
CN112053781B (zh) 动静态立体视测试方法及终端
CN103986925A (zh) 基于亮度补偿的立体视频视觉舒适度评价方法
US9628770B2 (en) System and method for stereoscopic 3-D rendering
KR101947372B1 (ko) Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd
CN107247513B (zh) 一种基于脑电波的自适应视力调节的方法及***
US20140347451A1 (en) Depth Adaptation for Multi-View System
Cho et al. An Analysis of Visual Discomfort Caused by Watching Stereoscopic 3D Content in Terms of Depth, Viewing Time and Display Size.
KR20240040727A (ko) 광학 제품 시뮬레이션 방법
CN108471939B (zh) 一种潘弄区测量方法、装置以及可穿戴显示设备
JP2015529029A (ja) 処方眼鏡を装着している観察者に3dコンテンツを適応させる方法及び装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130904