CN112179629B - 一种测量虚拟显示设备的虚拟场景视场角的方法 - Google Patents
一种测量虚拟显示设备的虚拟场景视场角的方法 Download PDFInfo
- Publication number
- CN112179629B CN112179629B CN202011052484.6A CN202011052484A CN112179629B CN 112179629 B CN112179629 B CN 112179629B CN 202011052484 A CN202011052484 A CN 202011052484A CN 112179629 B CN112179629 B CN 112179629B
- Authority
- CN
- China
- Prior art keywords
- optical system
- human eye
- virtual
- imitating
- virtual scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0207—Details of measuring devices
Landscapes
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种测量虚拟显示设备虚拟场景视场角的方法,能实现对虚拟场景的视场角做量化测量。本发明通过仿人眼光学***绕光阑中心水平和垂直旋转来测量虚拟场景的水平视场角和垂直视场角,采用仿人眼光学***代替实际的人眼去观察虚拟场景,能实现对虚拟场景的视场角做量化测量。本发明进一步地可以量化测量头戴显示器的虚拟场景深度,通过移动仿人眼光学***像平面的位置来测量虚拟场景的深度,可以定量分析虚拟显示设备的显示性能,解决了以往只能通过人的主观感受去大致评估头戴显示器的显示性能这一问题,使头戴显示器的显示性能有直观的呈现。
Description
技术领域
本发明属于光学测量技术领域,尤其涉及一种测量虚拟显示设备的虚拟场景视场角的方法。
背景技术
目前的虚拟显示设备主要以头戴显示器为主,头戴显示器是根据人眼特点来进行设计的,人眼可以通过头戴显示器看到虚拟场景,但却只能通过自己的主观感受去大致的评估虚拟显示设备(头戴显示器)的显示性能,而无法对虚拟场景的深度与视场角做精确的测量。
发明内容
有鉴于此,本发明提供了一种测量虚拟显示设备的虚拟场景视场角的方法,能实现对虚拟场景视场角的量化测量。
为实现上述目的,本发明提供了9种测量虚拟显示设备的虚拟场景视场角的方法的技术方案,具体如下:
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***入瞳光阑中心重合,仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上会现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***的垂直视场角。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***的垂直视场角。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***的垂直视场角。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***的垂直视场角。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器仿人眼光学***传感器上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△h3-αh/2,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***的垂直视场角。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器仿人眼光学***传感器上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△h3-αh/2,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
一种测量虚拟显示设备的虚拟场景视场角的方法,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏、虚拟显示设备光学***、虚拟显示设备出瞳光阑、仿人眼光学***入瞳光阑、仿人眼光学***以及仿人眼光学***传感器;
其中,虚拟显示设备显示屏位于虚拟显示设备光学***一倍焦距以内,虚拟显示设备显示屏上显示的场景经过虚拟显示设备光学***成像,形成正立放大的场景虚像;场景虚像经过仿人眼光学***成像到仿人眼光学***传感器上;
步骤2,将虚拟显示设备的出瞳光阑中心与仿人眼光学***的入瞳光阑中心重合,将仿人眼光学***位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置;
将仿人眼光学***围绕其光阑中心进行水平旋转,仿人眼光学***传感器上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△ h3-αh/2,其中αh为仿人眼光学***的水平视场角;
将仿人眼光学***位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置;
将仿人眼光学***围绕其光阑中心进行垂直旋转,仿人眼光学***传感器上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***的垂直视场角。
有益效果:
本发明通过仿人眼光学***绕光阑中心水平和垂直旋转来测量虚拟场景的水平视场角和垂直视场角,采用仿人眼光学***代替实际的人眼去观察虚拟场景,能实现对虚拟场景视场角的量化测量。
附图说明
图1为本发明虚拟场景深度测量原理示意图。
图2为本发明虚拟场景水平视场角测量旋转起始位置示意图。
图3为本发明虚拟场景水平视场角测量旋转终点位置1示意图。
图4为本发明虚拟场景水平视场角测量旋转终点位置2示意图。
图5为本发明虚拟场景水平视场角测量旋转终点位置3示意图。
图6为本发明虚拟场景垂直视场角测量旋转起始位置示意图。
图7为本发明虚拟场景垂直视场角测量旋转终点位置1示意图。
图8为本发明虚拟场景垂直视场角测量旋转终点位置2示意图。
图9为本发明虚拟场景垂直视场角测量旋转终点位置3示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明涉及的测量虚拟显示设备的虚拟场景视场角的方法,用仿人眼光学***(CN201911385482.6)代替实际的人眼,来对虚拟场景进行成像。仿人眼光学***的入瞳光阑中心靠近虚拟显示设备的出瞳光阑中心。通过移动仿人眼光学***传感器的位置,对虚拟场景的深度做测量;与此同时,仿人眼光学***的光轴还可围绕入瞳光阑的中心沿主轴进行水平和垂直旋转,从而对虚拟场景的水平视场角和垂直视场角做量化测量,实现对虚拟显示设备的显示效果做定量分析。
虚拟显示设备的显示效果定量分析分为两部分,第一部分为虚拟场景深度的测量,第二部分为虚拟场景视场角的测量。
第一部分:虚拟场景深度测量原理如图1所示,从左到右,本发明测量***所涉及的元件虚拟显示设备显示屏2、虚拟显示设备光学***3、虚拟显示设备出瞳光阑4、仿人眼光学***入瞳光阑5、仿人眼光学***6以及仿人眼光学***传感器7(即虚拟场景的成像平面)。其中l1表示场景虚像1(即虚拟场景)到仿人眼光学***的物方距离,l1'表示仿人眼光学***传感器平面7到仿人眼光学***的距离。在图1中,虚拟显示设备光学***3和仿人眼光学***6做了简化处理,均用一个薄透镜表示。虚拟显示设备显示屏2位于虚拟显示设备光学*** 3一倍焦距以内,虚拟显示设备显示屏2上的场景在远方形成放大的场景虚像1。虚拟显示设备出瞳光阑4的中心与仿人眼光学***入瞳光阑5的中心接近(这里表示为重合),且仿人眼光学***入瞳光阑5的直径可在人眼瞳孔大小范围 (2mm~10mm)内进行调节。
采用移动仿人眼光学***传感器的方法来对虚拟场景深度做测量,根据高斯物像关系式有其中l为物方距离,l'为像方距离,f'为仿人眼光学***的有效焦距。对于该虚拟场景深度测量***,f'和l'可认为是已知的,进而由可求得l。
轴向移动仿人眼光学***传感器的位置,检测位于l'处像面图像的清晰度,找出像平面图像最清晰的地方,记录此时的像方距离l1',代入求得场景虚像1的深度l1。如图1中所示,假设虚拟平面1与仿人眼光学***传感器7对应,那么虚拟平面1在仿人眼光学***传感器7处所成像的清晰度就要比像面位于其他轴向位置的清晰度要高,利用这一特点,本发明进可以量化测量虚拟显示设备虚拟场景深度,通过移动仿人眼光学***像平面的位置来测量虚拟场景的深度,可以定量分析虚拟显示设备的显示性能,解决了以往只能通过人的主观感受去大致评估虚拟显示设备显示性能这一问题,使虚拟显示设备显示性能有直观的呈现。
第二部分:虚拟场景视场角测量的核心思想是将仿人眼光学***围绕其光阑中心进行水平旋转和垂直旋转,通过记录水平旋转角和垂直旋转角,由几何关系求得虚拟场景平面的水平视场角和垂直视场角。具体如下:
依次放置虚拟显示设备显示屏2、虚拟显示设备光学***3、虚拟显示设备出瞳光阑4、仿人眼光学***入瞳光阑5、仿人眼光学***6以及仿人眼光学***传感器7;
其中,虚拟显示设备显示屏2位于虚拟显示设备光学***3一倍焦距以内,虚拟显示设备显示屏2上的场景经过虚拟显示设备光学***3成像,形成正立放大的场景虚像1(虚拟场景);场景虚像1经过仿人眼光学***6成像到仿人眼光学***传感器7上;
步骤2,将虚拟显示设备的出瞳光阑4中心与仿人眼光学***6的入瞳光阑 5中心重合,在测量虚拟场景水平视场角时,仿人眼光学***绕其光阑中心水平旋转,水平旋转的起始位置如图2所示,图2中粗线代表仿人眼光学***的光轴,各元件的排列方式和图1一致,相同标号代表相同元件。其中αh为仿人眼光学***的水平视场角(已知),θh为虚拟场景的水平视场角(待测量),其中αh<θh,当仿人眼光学***位于水平视场角测量旋转起始位置时,仿人眼光学***传感器 7上会出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***水平视场的中心位置。
在水平旋转的过程中,可以将3种临界情况作为水平旋转结束的标志,即水平旋转的终点。
第1种临界情况是仿人眼光学***传感器7上刚好全是虚拟场景,如图3所示,此时若进一步增大旋转角,仿人眼光学***传感器7上就会出现非虚拟场景 (在此之前,因为αh<θh的缘故,仿人眼光学***传感器7上只有虚拟场景),利用这一特点,可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△h1,由图3中的几何关系易知θh=αh/2+△h1。
第2种临界情况是仿人眼光学***传感器7上再次出现一半虚拟场景,一半非虚拟场景,如图4所示,此时虚拟场景和非虚拟场景的分界线再次位于仿人眼光学***的水平视场的中心位置,利用这一特点,可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△h2,由图4中的几何关系易知θh=△h2。
第3种临界情况是仿人眼光学***传感器7上全是非虚拟场景,如图5所示,此时仿人眼光学***传感器7上已观察不到虚拟场景,利用这一特点,人可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△h3,由图5中的几何关系易知θh=△h3-αh/2。
由此,以上3种旋转终点均可用来求得虚拟场景的水平视场角。
在测量虚拟场景垂直视场角时,仿人眼光学***绕其光阑中心垂直旋转,垂直旋转的起始位置如图6所示,图6中粗线代表仿人眼光学***的光轴,各元件的排列方式和图1一致,相同标号代表相同元件。其中αv为仿人眼光学***的垂直视场角(已知),θv为虚拟场景的垂直视场角(待测量),其中αv<θv,当仿人眼光学***位于垂直视场角测量旋转起始位置时,仿人眼光学***传感器7上会出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***垂直视场的中心位置。
在垂直旋转的过程中,同样可以将3种临界情况作为垂直旋转结束的标志,即垂直旋转的终点。
第1种临界情况是仿人眼光学***传感器7上刚好全是虚拟场景,如图7所示,此时若进一步增大旋转角,仿人眼光学***传感器7上就会出现非虚拟场景 (在此之前,因为αv<θv的缘故,仿人眼光学***传感器7上只有虚拟场景),利用这一特点,可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△v1,由图7中的几何关系易知θv=αv/2+△v1。
第2种临界情况是仿人眼光学***传感器7上再次出现一半虚拟场景,一半非虚拟场景,如图8所示,此时虚拟场景和非虚拟场景的分界线再次位于仿人眼光学***的垂直视场的中心位置,利用这一特点,可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△v2,由图8中的几何关系易知θv=△v2。
第3种临界情况是仿人眼光学***传感器7上刚好全是非虚拟场景,如图9 所示,此时仿人眼光学***传感器7上已观察不到虚拟场景,利用这一特点,可以通过观察仿人眼光学***传感器7的变化,记录此时的旋转角△v3,由图9中的几何关系易知θv=△v3-αv/2。
由此,以上3种旋转终点均可用来求得虚拟场景的垂直视场角。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***入瞳光阑(5)中心重合,仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上会现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***(6)的垂直视场角。
2.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
3.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△h1;虚拟场景的水平视场角为θh=αh/2+△h1,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***(6)的垂直视场角。
4.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***(6)的垂直视场角。
5.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
6.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△h2;虚拟场景的水平视场角为θh=△h2;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***(6)的垂直视场角。
7.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△h3-αh/2,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是虚拟场景时,记录此时的旋转角△v1;虚拟场景的垂直视场角为θv=αv/2+△v1,其中αv为仿人眼光学***(6)的垂直视场角。
8.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△h3-αh/2,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上再次出现一半虚拟场景,一半非虚拟场景时,记录此时的旋转角△v2;虚拟场景的垂直视场角为θv=△v2。
9.一种测量虚拟显示设备的虚拟场景视场角的方法,其特征在于,包括如下步骤:
步骤1,依次放置虚拟显示设备显示屏(2)、虚拟显示设备光学***(3)、虚拟显示设备出瞳光阑(4)、仿人眼光学***入瞳光阑(5)、仿人眼光学***(6)以及仿人眼光学***传感器(7);
其中,虚拟显示设备显示屏(2)位于虚拟显示设备光学***(3)一倍焦距以内,虚拟显示设备显示屏(2)上显示的场景经过虚拟显示设备光学***(3)成像,形成正立放大的场景虚像(1);场景虚像(1)经过仿人眼光学***(6)成像到仿人眼光学***传感器(7)上;
步骤2,将虚拟显示设备的出瞳光阑(4)中心与仿人眼光学***(6)的入瞳光阑(5)中心重合,将仿人眼光学***(6)位于水平视场角测量旋转起始位置;其中,在所述水平视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)水平视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行水平旋转,仿人眼光学***传感器(7)上全是非虚拟场景时,记录此时的旋转角△h3;虚拟场景的水平视场角为θh=△h3-αh/2,其中αh为仿人眼光学***(6)的水平视场角;
将仿人眼光学***(6)位于垂直视场角测量旋转起始位置;其中,在所述垂直视场角测量旋转起始位置处,仿人眼光学***传感器(7)上出现一半虚拟场景,一半非虚拟场景,且二者的分界线位于仿人眼光学***(6)垂直视场的中心位置;
将仿人眼光学***(6)围绕其光阑中心进行垂直旋转,仿人眼光学***传感器(7)上刚好全是非虚拟场景时,记录此时的旋转角△v3;虚拟场景的垂直视场角为θv=△v3-αv/2,其中αv为仿人眼光学***(6)的垂直视场角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011052484.6A CN112179629B (zh) | 2020-09-29 | 2020-09-29 | 一种测量虚拟显示设备的虚拟场景视场角的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011052484.6A CN112179629B (zh) | 2020-09-29 | 2020-09-29 | 一种测量虚拟显示设备的虚拟场景视场角的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112179629A CN112179629A (zh) | 2021-01-05 |
CN112179629B true CN112179629B (zh) | 2021-07-09 |
Family
ID=73946574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011052484.6A Active CN112179629B (zh) | 2020-09-29 | 2020-09-29 | 一种测量虚拟显示设备的虚拟场景视场角的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112179629B (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104375270A (zh) * | 2014-09-22 | 2015-02-25 | 北京理工大学 | 多孔径部分重叠仿生复眼成像光学***的设计方法 |
CN104931239A (zh) * | 2015-06-12 | 2015-09-23 | 北京理工大学 | 一种用于小型离轴光学***的mtf测试装置及方法 |
CN105716582A (zh) * | 2016-02-15 | 2016-06-29 | 中林信达(北京)科技信息有限责任公司 | 摄像机视场角的测量方法、装置以及摄像机视场角测量仪 |
CN105787980A (zh) * | 2016-03-17 | 2016-07-20 | 北京牡丹视源电子有限责任公司 | 一种检测虚拟现实显示设备视场角的方法及*** |
CN106017867A (zh) * | 2015-03-24 | 2016-10-12 | 北京威斯顿亚太光电仪器有限公司 | 一种用于硬管内窥镜视场角的检测方法 |
CN106441212A (zh) * | 2016-09-18 | 2017-02-22 | 京东方科技集团股份有限公司 | 一种光学仪器视场角的检测装置及检测方法 |
CN107368192A (zh) * | 2017-07-18 | 2017-11-21 | 歌尔科技有限公司 | Vr眼镜的实景观测方法及vr眼镜 |
CN107607295A (zh) * | 2017-09-30 | 2018-01-19 | 华勤通讯技术有限公司 | 一种视场角测量装置及方法 |
CN107941464A (zh) * | 2017-11-09 | 2018-04-20 | 中国航空工业集团公司洛阳电光设备研究所 | 一种平视显示器视场测试台 |
CN108827604A (zh) * | 2018-09-20 | 2018-11-16 | 京东方科技集团股份有限公司 | 一种视场角测量装置和测量方法 |
CN109253868A (zh) * | 2018-10-24 | 2019-01-22 | 京东方科技集团股份有限公司 | 一种视场角测量方法及装置 |
CN109767472A (zh) * | 2018-12-06 | 2019-05-17 | 东南大学 | 一种用于测量眼戴式显示器fov的方法 |
CN110006634A (zh) * | 2019-04-15 | 2019-07-12 | 北京京东方光电科技有限公司 | 视场角测量方法、视场角测量装置、显示方法和显示设备 |
WO2019190831A1 (en) * | 2018-03-27 | 2019-10-03 | Microsoft Technology Licensing, Llc | External ir illuminator enabling improved head tracking and surface reconstruction for virtual reality |
CN110987375A (zh) * | 2019-12-10 | 2020-04-10 | 杭州涂鸦信息技术有限公司 | 一种摄像头视场角测量方法 |
CN111076905A (zh) * | 2019-12-31 | 2020-04-28 | 重庆大学 | 一种车载抬头显示虚像像质综合测量方法 |
CN111367044A (zh) * | 2019-12-29 | 2020-07-03 | 北京理工大学 | 一种仿人眼镜头 |
CN111551346A (zh) * | 2020-04-13 | 2020-08-18 | 深圳惠牛科技有限公司 | 一种视场角的测量方法、设备、***及计算机存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014005030A1 (de) * | 2014-04-05 | 2015-10-08 | Airbus Defence and Space GmbH | Testvorrichtung für Sichtsysteme |
US11099631B2 (en) * | 2015-11-13 | 2021-08-24 | Andrew R. Basile, JR. | Virtual reality system with posture control |
-
2020
- 2020-09-29 CN CN202011052484.6A patent/CN112179629B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104375270A (zh) * | 2014-09-22 | 2015-02-25 | 北京理工大学 | 多孔径部分重叠仿生复眼成像光学***的设计方法 |
CN106017867A (zh) * | 2015-03-24 | 2016-10-12 | 北京威斯顿亚太光电仪器有限公司 | 一种用于硬管内窥镜视场角的检测方法 |
CN104931239A (zh) * | 2015-06-12 | 2015-09-23 | 北京理工大学 | 一种用于小型离轴光学***的mtf测试装置及方法 |
CN105716582A (zh) * | 2016-02-15 | 2016-06-29 | 中林信达(北京)科技信息有限责任公司 | 摄像机视场角的测量方法、装置以及摄像机视场角测量仪 |
CN105787980A (zh) * | 2016-03-17 | 2016-07-20 | 北京牡丹视源电子有限责任公司 | 一种检测虚拟现实显示设备视场角的方法及*** |
CN106441212A (zh) * | 2016-09-18 | 2017-02-22 | 京东方科技集团股份有限公司 | 一种光学仪器视场角的检测装置及检测方法 |
CN107368192A (zh) * | 2017-07-18 | 2017-11-21 | 歌尔科技有限公司 | Vr眼镜的实景观测方法及vr眼镜 |
CN107607295A (zh) * | 2017-09-30 | 2018-01-19 | 华勤通讯技术有限公司 | 一种视场角测量装置及方法 |
CN107941464A (zh) * | 2017-11-09 | 2018-04-20 | 中国航空工业集团公司洛阳电光设备研究所 | 一种平视显示器视场测试台 |
WO2019190831A1 (en) * | 2018-03-27 | 2019-10-03 | Microsoft Technology Licensing, Llc | External ir illuminator enabling improved head tracking and surface reconstruction for virtual reality |
CN108827604A (zh) * | 2018-09-20 | 2018-11-16 | 京东方科技集团股份有限公司 | 一种视场角测量装置和测量方法 |
CN109253868A (zh) * | 2018-10-24 | 2019-01-22 | 京东方科技集团股份有限公司 | 一种视场角测量方法及装置 |
CN109767472A (zh) * | 2018-12-06 | 2019-05-17 | 东南大学 | 一种用于测量眼戴式显示器fov的方法 |
CN110006634A (zh) * | 2019-04-15 | 2019-07-12 | 北京京东方光电科技有限公司 | 视场角测量方法、视场角测量装置、显示方法和显示设备 |
CN110987375A (zh) * | 2019-12-10 | 2020-04-10 | 杭州涂鸦信息技术有限公司 | 一种摄像头视场角测量方法 |
CN111367044A (zh) * | 2019-12-29 | 2020-07-03 | 北京理工大学 | 一种仿人眼镜头 |
CN111076905A (zh) * | 2019-12-31 | 2020-04-28 | 重庆大学 | 一种车载抬头显示虚像像质综合测量方法 |
CN111551346A (zh) * | 2020-04-13 | 2020-08-18 | 深圳惠牛科技有限公司 | 一种视场角的测量方法、设备、***及计算机存储介质 |
Non-Patent Citations (5)
Title |
---|
A vision modeling framework for DHM using geometrically estimated FoV;Vinayak 等;《Computer-Aided Design》;20120131;第44卷(第1期);第15-28页 * |
Fast Measurement of Eyebox and Field of View (FOV) of Virtual and Augmented Reality Devices Using the Ray Trajectories Extending from Positions on Virtual Image;Hong, H;《CURRENT OPTICS AND PHOTONICS》;20200831;第4卷(第4期);第336-344页 * |
一种眼动测量的图像分析方法;袁慧晶 等;《北京理工大学学报》;20050930;第25卷(第9期);第827-830页 * |
虚拟增强现实AR光学测量国际标准分析;牟希 等;《信息技术与标准化》;20181231(第12(2018)期);第23-26页 * |
虚拟环境中最佳观察视场角的实验研究;周前祥 等;《人类功效学》;20020630;第8卷(第2期);第11-15、70-71页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112179629A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108171673B (zh) | 图像处理方法、装置、车载抬头显示***及车辆 | |
KR102062658B1 (ko) | 안구 모델을 생성하기 위한 각막의 구체 추적 | |
CN105764405B (zh) | 基于主观距离计量测量眼睛屈光不正的***和方法 | |
CN108848374B (zh) | 显示参数测量方法及其装置、存储介质和测量*** | |
CN109557669B (zh) | 头戴显示设备的图像漂移量的确定方法及头戴显示设备 | |
CN107687936A (zh) | 基于刻度对应的虚拟现实头盔色散检测的方法及装置 | |
US20130155393A1 (en) | Method and device for estimating the optical power of corrective lenses in a pair of eyeglasses worn by a spectator | |
CN103429141B (zh) | 用于确定优势眼的方法 | |
CN109584263B (zh) | 可穿戴设备的测试方法及*** | |
CN108563023B (zh) | 增强现实处理方法、***、控制设备和增强现实设备 | |
US20150339511A1 (en) | Method for helping determine the vision parameters of a subject | |
CN107765842A (zh) | 一种增强现实方法及*** | |
CN108182377A (zh) | 基于摄影测量技术的人眼视线检测方法及装置 | |
JP5111845B2 (ja) | 眼底画像処理装置、眼底撮影装置及びプログラム | |
CN111638227B (zh) | Vr光学模组画面缺陷检测方法及装置 | |
CN112179629B (zh) | 一种测量虚拟显示设备的虚拟场景视场角的方法 | |
CN113125114A (zh) | 近眼显示光学***的检测方法及其***和平台以及电子设备 | |
JP2012513604A (ja) | 光学レンズの光学効果をシミュレーションするための方法及び装置 | |
KR102304369B1 (ko) | Vr을 이용한 안과검사방법 및 시스템 | |
US11849999B2 (en) | Computer-implemented method for determining a position of a center of rotation of an eye using a mobile device, mobile device and computer program | |
US10624536B2 (en) | Virtual reality-based ophthalmic inspection system and inspection method thereof | |
JPH0449943A (ja) | 眼球運動分析装置 | |
JP5900165B2 (ja) | 視線検出装置および視線検出方法 | |
CN111183389B (zh) | 用于通过人工识别来确定光学设备的配适参数的方法和*** | |
JP4795017B2 (ja) | 眼鏡レンズ評価装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |