KR20220088678A - 투영 면에 시각적 장면을 매핑하는 장치 및 방법 - Google Patents

투영 면에 시각적 장면을 매핑하는 장치 및 방법 Download PDF

Info

Publication number
KR20220088678A
KR20220088678A KR1020227007382A KR20227007382A KR20220088678A KR 20220088678 A KR20220088678 A KR 20220088678A KR 1020227007382 A KR1020227007382 A KR 1020227007382A KR 20227007382 A KR20227007382 A KR 20227007382A KR 20220088678 A KR20220088678 A KR 20220088678A
Authority
KR
South Korea
Prior art keywords
user
field
head
sensor
view
Prior art date
Application number
KR1020227007382A
Other languages
English (en)
Inventor
파벨 자카로브
마이클 므로쉔
Original Assignee
피피오르 아게
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 피피오르 아게 filed Critical 피피오르 아게
Publication of KR20220088678A publication Critical patent/KR20220088678A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/06Lenses; Lens systems ; Methods of designing lenses bifocal; multifocal ; progressive
    • G02C7/061Spectacle lenses with progressively varying focal power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eyeglasses (AREA)

Abstract

본 발명은 투영 면에서 광학 파라미터 분포를 결정하기 위한 시스템 및 방법을 제공한다. 상기 시스템은 시야 센서를 포함한다. 상기 시야 센서는 사용자의 시야에서 특정 비전 태스크와 관련된 사용자의 시야를 측정하도록 구성된다. 상기 시야 센서는 특정 비전 태스크 중에 사용자의 시선 방향을 결정하도록 추가로 구성된다. 상기 시스템은 머리 방향 및/또는 위치 센서를 포함한다. 머리 방향 및/또는 위치 센서는 특정 비전 태스크 중에 시야와 관련하여 사용자의 머리 방향 및/또는 위치를 측정하도록 구성된다. 상기 시스템은, 사용자의 시선 방향과 사용자의 머리 방향 및/또는 위치에 기초하여, 사용자의 머리에 대한 사용자의 눈 방향의 계산을 가능하게 하여 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정한다.

Description

투영 면에 시각적 장면을 매핑하는 장치 및 방법
본 발명은 광학 보조기 및 그 용도를 맞춤화하기 위한 개념, 특히 투영 면(projection surface)에서 광학 파라미터 분포를 결정하기 위한 시스템 및 방법에 관한 것이다.
노안(presbyopia)은 눈의 자연적인 노화에 의해 발생하는 상태로, 눈의 수정체를 수용하는 능력이 악화되는 것으로 나타난다. 전형적인 발증은 35세 이상이며, 이 상태는 조절 능력이 완전히 정지할 때까지 점진적으로 진행된다. 최근 수십 년 동안 상당한 진전을 이루면서 인류의 역사를 통해 여러 해결책이 개발되었다. 가장 일반적인 치료법은 근거리 태스크(task)에 사용되는 독서용 안경이다. 독서용 안경은 인공적으로 눈의 수용 범위를 확장한다. 원거리 시력 교정이 필요한 사용자(예를 들어, 근시)는 적어도 2쌍의 안경을 착용하고 필요한 태스크에 따라 안경을 교체해야 할 필요가 있다. 이는 불편할 수 있다.
따라서, 사용자는 다중 광학 배율(optical powers)을 갖는 안경을 사용할 수 있다. 이것은 이중 초점 및 삼중 초점 안경과 같이 서로 다른 광학 배율의 영역을 기하학적으로 분리함으로써 달성될 수 있다. 이러한 안경의 사용자는 필요한 영역을 통해 관심 물체를 보고 필요한 광학 배율을 선택할 수 있는 옵션이 있다. 각 영역의 위치는 태스크와 눈 각도의 자연스러운 상관 관계를 기반으로 선택된다. 근시 태스크는 일반적으로 물체를 낮은 시선 영역(독서, 스마트폰 등)에 정렬하여 수행되기 때문에, 더 높은 배율은 일반적으로 낮은 영역(근거리 영역)에 위치한다. 따라서 위쪽 영역은 원시 태스크(원거리 영역)를 위해 유보된다. 삼중 초점 안경의 경우, 근거리와 원거리 사이에 중간 영역이 존재하여 중거리 시력을 지원한다. 게다가, 각각의 광학 배율 영역을 분리하는 가시선을 갖지 않고 대신에 하나의 영역으로부터 다른 영역으로의 부드러운 전환을 하는 누진 추가 렌즈가 존재한다.
이와 같이 공간적으로 분리된 교정 해결책은 인간의 눈에 자연스럽거나 직감적이지 않기 때문에 사용자는 이에 적응해야 한다. 생애에 걸쳐 개발된 사용자의 보는 습관의 혼란을 최소한으로 억제하기 위해 특정 사용자의 요건에 영역을 맞추는 것을 특별히 고려할 필요가 있다. 따라서 바람직하게는 교정 해결책이 개개의 시각적 행동에 맞게 조정되어야 한다. 이러한 맞춤화에는 안경과 같은 광학 보조기의 표면에 대한 광학 배율 및/또는 기타 광학 파라미터의 최적 매핑이 포함될 수 있다. 맞춤화, 개별화 및 개인화라는 용어는 더 나아가 같은 의미로 상호적으로 사용된다. 광학 보조기는 또한 본 명세서에서 시각 보조기 또는 시력 보조기로 불릴 수 있다. 광학 보조기는 안경, 콘택트 렌즈, 증강 또는 가상 현실 헤드셋, 망막 또는 기타 시각 임플란트, 각막 인레이(inlays) 등과 같은 눈의 자연 시각 시스템에 대한 추가/향상 광학 요소일 수 있다. 광학 보조기는 자연 수정체를 대체하는 안내 수정체와 같은 시각 시스템의 자연 요소를 대체할 수 있다. 광학 보조기는 각막이나 수정체에서 수행되는 굴절 수술과 같은 시각 시스템 요소의 수정일 수 있다. 광학 보조기는 광학 보조기들의 형태의 조합일 수 있다.
사용자의 눈과 관련하여 완성된 광학 보조기의 렌즈 위치를 이해하는 것은 맞춤화에 필수적이지는 않더라도 중요하다. 그 외에도 사용자의 시각적 행동을 이해하는 것이 필수적이지는 않더라도 중요하다. 여기에는 사용자가 일반적으로 자신의 시야에서 물체(특정 비전 태스크(vision task)와 관련된)를 배치하는 방법과 사용자가 특정 비전 태스크에 대한 물체와 관련하여 자신의 몸, 머리 및 눈을 배치하는 방법이 포함된다.
예시적인 비전 태스크는 독서이다. 휴대형 미디어(예를 들어, 책 또는 전자 장치)는 일반적으로 머리가 물체에 대해 대략 절반 정도 기울어지는 방식으로 배치되는 반면, 나머지 필요한 경사 각도는 눈 자체에 의해 조정된다. 머리의 기울기 각도와 눈의 기울기 각도의 차이는 시야에서 미디어의 위치뿐만 아니라 개별적으로 달라진다.
따라서, 광학 보조기에서 시각 영역의 분포를 더 잘 맞춤화하기 위해 사용자의 시선/눈/머리 사이의 선호되는 각도를 이해하는 것이 매우 중요하다.
광학 보조기는 사용자 고유의 선호도와 관련하여 최적화되어야 한다.
그러한 요구는 청구범위의 발명 대상에 의해 충족될 수 있다.
제1 양태에 따르면, 투영 면에서 광학 파라미터 분포를 결정하기 위한 시스템이 제공된다. 시스템은 시야 센서(visual field sensor)를 포함한다. 시야 센서는 특정 비전 태스크와 관련된 사용자의 시야를 측정하도록 구성되며, 예를 들어 사용자의 시야에서 특정 비전 태스크와 관련된 물체를 식별한다. 시야 센서는 특정 비전 태스크 중에 사용자의 시선 방향(gaze direction)을 결정하도록 추가로 구성된다. 시스템은 머리 방향(head orientation) 및/또는 위치 센서를 포함한다. 머리 방향 및/또는 위치 센서는 특정 비전 태스크 중에 시야와 관련하여 사용자의 머리 방향 및/또는 위치를 측정하도록 구성된다. 시스템은 사용자의 시선 방향과 사용자의 머리 방향 및/또는 위치에 기초하여 사용자의 머리와 관련하여 사용자의 눈 방향(eye orientation)의 계산을 가능하게 하여 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하도록 구성된다.
광학 파라미터는 광학 보조기의 광학 배율과 수학적으로 연결될 수 있는 비전 태스크와 관련된 물체까지의 거리일 수 있다. 광학 파라미터는 특정 비전 태스크 중에 눈의 동공 크기에 연결될 수 있는 비전 태스크 물체의 휘도일 수 있다. 광학 파라미터는 비전 태스크와 관련된 물체로부터 발생하는 빛의 스펙트럼 콘텐츠일 수 있다. 광학 파라미터는 시야로부터 검출된 광 필드의 각도 분포를 포함할 수 있다. 광학 파라미터는 시야로부터 검출된 빛의 편광 상태 및 편광 정도를 포함할 수 있다.
따라서, 특정 비전 태스크에 대한 사용자의 눈 움직임 및 시선 방향을 직접 모니터링하는 대신에, 머리 움직임에 대한 사용자의 눈 움직임은 머리 및 시선 각도로부터 계산될 수 있다. 눈의 움직임을 직접 모니터링하는 것은 사용자의 일상생활의 익숙한 설정에서 수행되어야 하며, 신뢰할 수 있는 추정치를 얻기 위해 장기간 연속 측정에서 누적하는데 충분한 통계가 필요할 수 있다. 그러나 사용자의 눈 움직임을 장기간 모니터링하는 것은 기존의 시선 추적 해결책의 번거로움, 위치 정렬 요건 및 기기의 배터리 소모로 인해 불리할 수 있다. 이것은 제1 양태에 따른 시스템에 의해 회피될 수 있다.
시야 센서는 적어도 하나의 시야 파라미터를 측정하도록 구성될 수 있다. 시야의 파라미터는 적어도 1차원으로 측정될 수 있다. 예를 들어, 파라미터는 피치(기울기, 센서 수평축을 중심으로 한 회전), 요(수직 축을 중심으로 한 회전) 또는 롤(가로축을 중심으로 한 회전) 각도와 같은 적어도 하나의 회전 각도를 따라 극좌표 시스템에서 분해(resolved)될 수 있다. 추가로 또는 대안적으로, 시야의 파라미터, 즉 시야 파라미터는 위치 좌표를 따라 데카르트(cartesian) 좌표계에서 분해될 수 있다.
추가적으로 또는 대안적으로, 시야 센서는 시야 파라미터를 2차원 또는 3차원으로 측정하도록 구성될 수 있다. 시야의 파라미터는 다음 중 적어도 하나일 수 있다: 시야 물체까지의 거리; 강도, 스펙트럼 특성, 편광 파라미터(예를 들어, 편광도, 스톡스(Stokes) 파라미터); 및/또는 시야의 물체에 의해 방출 및/또는 반사된 광의 광 필드 파라미터.
시야 센서는 시선 방향의 결정을 가능하게 하도록 추가로 구성될 수 있다. 이것은 여러 가지 방법으로 달성될 수 있다. 하나의 간단한 예에서, 시야 센서는 안경 상에 장착되고, 전방을 향하고 안경의 광학/광축과 정렬되는 방향성 센서를 포함하거나 그 자체일 수 있다. 방향성 광 센서는 광학을 기반으로 하거나 빛을 기반으로 할 수 있다. 방향성 센서는 또한 임의의 종류의 방향 거리 센서, 예를 들어 RADAR 또는 LIDAR일 수 있다. 방향성 센서는 안경과 함께 움직일 수 있다. 시스템은 또한 안경 또는 다른 장치와 정렬된 머리 방향 센서를 포함할 수 있으며, 이 시스템은 그들 위에 장착될 수 있다. 사용자의 자연스러운 머리 움직임으로 인해, 방향성 센서는 다른 방향으로 환경을 샘플링할 수 있다. 머리 방향 센서와 결합하여 시스템은 조명 조건의 각도 분해 이미지를 얻을 수 있다.
사용자가 조명 스크린이 있는 휴대형 전자 장치(예를 들어, 스마트폰 또는 태블릿)에서 콘텐츠를 읽고 있을 때, 방향성 센서는 장치에서 방출되는 빛을 검출하도록 구성될 수 있다. 머리 동역학(head dynamics)으로 인해, 방향성 센서는 장치로부터 방출되는 빛을 가끔 검출하도록 구성될 수 있다. 해당 경사각 α는 시선 방향을 나타낸다. 동시에, 독서 활동 중에, 머리 방향, 예를 들어 머리 피치 각도는 평균적으로 β와 같을 수 있다. 각도 β는 일반적으로 시선 각도 α보다 절대값이 낮을 수 있다. 눈 각도는 α-β로 표현될 수 있다. 이와 같이 시각 활동의 유형, 시각 활동의 물체를 알면, 시선과 머리 방향으로부터 눈의 각도를 추정할 수 있다.
시야 센서는 또한 안경의 광/광학 축과 함께 정렬된 방향성 센서를 사용할 수 있다. 머리/장치 방향성 센서의 측정과 함께 자연스러운 머리 움직임으로 인해 주변 물체까지의 거리 맵을 구성할 수 있다. 이것은 아래에 소개된 바와 같이 처리 장치에 의해 수행될 수도 있다. 비전 태스크의 유형을 우선적으로 알면, 사용자는 휴대형 장치를 사용자 근처에 위치한 물체로 식별할 수 있다(예를 들어, 사용자 입력에 의해). 위의 예와 유사한 방식으로 추가 분석을 수행할 수 있다.
방향성 센서는 휴대형 매체로부터 더 많은 측정치를 수집하기 위해 안경의 광축에 대해 아래쪽으로 기울어질 수 있다. 예를 들어, 30°의 휴대형 미디어를 읽는 동안 일반적인 시선 기울기에 있어, 일반적인 경우, 시각 활동의 물체(휴대형 미디어 또는 장치)로부터 샘플링 밀도를 증가시키기 위해 동일한 각도만큼 방향성 시야 센서를 아래로 기울게 하는 것이 유리하다. 이것은 시야 센서를 아래로 영구적으로 향하게 함으로써 달성될 수 있다. 대안적으로 또는 추가적으로, 시스템은 적어도 2개의 방향성 센서를 포함할 수 있고, 그 중 적어도 하나는 요구되는 각도만큼 아래쪽으로 향할 수 있다. 시스템은 식별된 시각 활동에 기반하여 방향성 센서를 활성화 또는 비활성화하도록 구성될 수 있다.
대안적으로 또는 추가적으로, 시스템은 사용자에 의해 수행된 시각적 활동/태스크에 기초하여 데이터의 밀도를 최적화하기 위해 시야 센서의 방향을 변경하도록 구성될 수 있다. 일 실시예(구현)에서, 시야 센서는 스캐너를 사용하여 시야의 파라미터를 상이한 방향으로 샘플링하도록 구성될 수 있다. 식별된 활동을 기반으로, 샘플링 밀도는 시력 활동의 물체와 같은 관심 물체의 더 많은 샘플을 얻기 위해 조정될 수 있다.
특정 비전 태스크는, 예를 들어 읽기, 쓰기, 운전, 휴대형 장치 사용 또는 TV 시청과 같은 시야의 상대적 일관성을 특징으로 하는 시각과 관련된 활동으로 이해될 수 있다. 비전 태스크는 태스크를 수행하는 동안 또는 후에 미리 선택될 수도 있다.
시스템은 독서와 같은 단일 활동의 측정을 수행하도록 구성될 수 있다. 이 경우 시야 센서에 의해 획득된 물체는 독서 매체/자료(예를 들어, 책 또는 휴대형 장치)로 우선적으로 알려질 수 있으며, 따라서 대부분의 센서 측정은 독서 자료와 관련된다. 이 예에서, 데이터 처리는 제외값(outlier)을 폐기하기 위한 간단한 통계 방법, 특히 강력한 통계 처리로 수행할 수 있다. 유사한 방식으로, 머리 방향 센서의 측정은 독서 활동의 머리 방향에 해당할 수 있으므로 간단한 통계적 방법과 같이 복잡성을 줄이는 방법으로 처리를 수행할 수 있다.
시스템은 사용자가 비전 태스크 및/또는 비전 태스크와 관련된 물체를 표시할 수 있게 하는 사용자 입력을 포함할 수 있다. 사용자 입력은 장치 자체에서 또는 휴대 전화 또는 모바일 컴퓨터와 같은 부수적인 컴퓨팅 장치에서 구현될 수 있다. 또한, 사용자 입력은 클라우드 인터페이스에서 실시될 수 있다.
시야 센서는 특정 비전 태스크와 관련된 사용자 시야의 물체를 식별하도록 구성될 수 있다. 또한, 시야 센서는 식별된 시야 물체와 관련된 사용자의 시선 방향을 도출하도록 구성될 수 있다.
시스템은 컨텍스트 센서를 더 포함할 수 있다. 컨텍스트 센서는 사용자의 활동과 관련된 적어도 하나의 파라미터를 측정하도록 구성될 수 있다.
시스템은 통계적 분류기를 더 포함할 수 있다. 통계적 분류기는 아래에 설명된 바와 같이 처리 장치의 일부일 수 있다. 통계적 분류기는 시야 센서, 머리 방향 및/또는 위치 센서, 및 컨텍스트 센서 중 적어도 하나로부터 사용자 시야의 비전 태스크 및/또는 물체를 식별하도록 구성될 수 있다. 식별은 예를 들어 통계 분석/모델링 방법을 이용하여 적어도 부분적으로 자동 수행될 수 있다.
컨텍스트 센서는 사용자의 비전 태스크와 관련된 적어도 하나의 컨텍스트 파라미터를 측정하도록 구성될 수 있다. 컨텍스트 센서는, 시스템이 측정된 컨텍스트 파라미터의 통계적 특성을 유도하여 특정 비전 태스크와 관련된 시그너처(signature) 컨텍스트 파라미터의 통계적 특성과 비교할 수 있도록 구성될 수 있다. 측정된 컨텍스트 파라미터의 이러한 통계적 특성은 메모리 장치 상에 또는 메모리 장치 내에 저장될 수 있다. 메모리 장치는 또한 (미리 저장된) 컨텍스트 파라미터의 시그너처 통계적 특성을 포함할 수 있다.
시스템은 전술한 메모리 장치와 같은 메모리 장치를 더 포함할 수 있다. 메모리 장치는 특정 비전 태스크와 관련된 머리 방향 및/또는 위치, 특히 머리 각도, 및 시선 방향, 특히 시선 각도를 저장하도록 구성될 수 있다. 머리 각도 및 시선 각도는 특정 비전 태스크를 수행하는 동안 저장될 수 있다. 저장된 머리 방향 및/또는 위치, 특히 저장된 머리 각도, 및 저장된 시선 방향, 특히 시선 각도는 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하기 위한 기초를 형성할 수 있다.
결과적으로, 광학 파라미터 분포에 대한 정보는 사용자를 위한 광학 보조기의 차후 맞춤화를 위해 저장될 수 있다.
시스템은 처리 장치를 더 포함할 수 있다. 처리 장치는 머리 방향 및/또는 위치, 특히 머리 각도와 시선 방향, 특히 시선 각도 사이의 대응하는 차이를 결정하고, 사용자의 시야 및 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하도록 구성될 수 있다.
처리 장치는 저장된 머리 방향 및/또는 위치, 특히 머리 각도와 저장된 시선 방향, 특히 시선 각도 사이의 대응하는 차이를 결정하고, 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하도록 구성될 수 있다.
결과적으로, 사용자를 위한 광학 보조기는 시스템의 간단한 사용 직후에 맞춤화될 수 있다.
처리 장치는 메모리 장치에 연결될 수 있다. 또한, 메모리 장치는 처리 장치가 그 자신의 통합 메모리를 포함할 수 있도록 인터리빙될(interleaved) 수 있다. 그 다음 처리 장치에서 즉시 또는 측정 세션이 사용자에 의해 수행된 후에 계산이 수행될 수 있다. 따라서, 사용자는 사용자의 광학 보조기의 즉각적인 적응/맞춤화를 제공받을 수 있거나 광학 보조기의 최적의 맞춤화를 제공하기 위해 사용자를 더 오래 평가하기 위한 데이터를 수집하는 옵션을 위해 결과가 저장될 수 있다.
컨텍스트 파라미터와 관련된 이러한 시그너처 통계적 특성은 컨텍스트 파라미터를 측정하기 전, 도중 또는 후에 메모리 장치에 제공될 수 있다. 따라서 메모리 장치와 컨텍스트 센서는 서로 직접 통신할 수 있다. 이는 각각의 통계적 특성의 상관 관계/비교를 수행할 수 있는 처리 장치에도 적용된다.
컨텍스트 파라미터는 사용자의 모션 메트릭, 예를 들어 모션 강도, 가속도, 가속 방향, 회전량 및/또는 회전 방향일 수 있다. 컨텍스트 파라미터는 조명 강도, 방향 및 스펙트럼 콘텐츠, 깜박임의 존재 및 빈도와 같은 조명 조건일 수도 있다. 컨텍스트 파라미터는 글로벌 및 로컬 포지셔닝 시스템, 무선 신호 품질 등과 같은 위치 및 포지셔닝 방법으로 추정된 사용자의 위치 및 방향일 수 있다. 컨텍스트 센서는 사용자 및/또는 사용자 자신의 주변뿐만 아니라 시야의 이미지를 획득하도록 구성된 이미징 시스템을 포함할 수 있다.
컨텍스트 센서는 착용식 카메라일 수 있다. 대안으로 또는 추가적으로, 카메라는 사용자의 신체 외부에 장착된다. 예를 들어, 카메라는 휴대전화, 휴대형 컴퓨터, 태블릿, 랩톱 및 데스크탑 컴퓨터와 같은 장치의 카메라일 수 있거나 데스크탑에 배치된 별도의 카메라 모듈일 수 있다.
컨텍스트 센서는 사용자 주변의 음향 진동(소리)을 측정하도록 구성된 마이크일 수 있다. 강도, 스펙트럼 콘텐츠 및 패턴은 컨텍스트 파라미터로 사용될 수 있다. 컨텍스트 센서에는 무선 라디오 이미터(emitter)의 신호를 감지할 수 있도록 무선 주파수 범위의 전자기 복사 검출기가 장착될 수 있다. 예를 들어 GSM, GPS, WiFi, 블루투수의 전파를 이용할 수 있다.
추가적으로 또는 대안적으로, 시스템은 무선 이미터의 신호를 검출하도록 구성될 수 있다. 시스템에는 신호를 수신하도록 구성된 전자기 수신기가 장착될 수 있다. 이러한 신호는 전자기파(전파 및/또는 빛) 및/또는 기계적 파동을 통해 전달될 수 있다. 시스템에는 주변 장치로부터 추가 정보를 요청하기 위해 신호를 전송하도록 구성된 전자기 송신기가 장착될 수 있다. 예를 들어, 자동차의 블루투스 통신 모듈을 사용하여 운전 활동을 식별할 수 있다. 또한, 스마트폰 또는 태블릿의 블루투스 모듈의 방사는 휴대형 장치를 사용하는 활동을 식별하는 데 사용될 수 있다. 블루투스 모듈은 일반적으로 장치의 수치(MAC 어드레스) 및 텍스트 식별자를 브로드캐스팅하므로, 데이터베이스를 사용하여 장치를 특정 활동과 연결할 수 있다. 예를 들어, 자동차는 자동차 모델 및 제조업체의 텍스트 식별자를 브로드캐스팅할 수 있는 반면, 스마트폰은 기본적으로 활동과 연관될 수 있는 전화기의 제조업체 및 모델을 브로드캐스팅할 수 있다. 장치 식별자 또는 장치 위치 또는 장치 유형과 같은 추가 정보는 송신기 수단에 의해 요청 신호를 전송함으로써 시스템에서 요청할 수 있다. 신호 강도, 신호 지연, 신호 반사와 같은 신호의 속성은 시각 활동의 분류를 개선하는 데 사용될 수 있다.
컨텍스트 센서에는 사용자의 위치 및 움직임(속도, 가속도 및 궤적)에 대한 정보를 제공하도록 구성된 측위(positioning)/로컬 센서가 장착될 수 있다. 측위 센서는 GPS, GLONASS, GNSS와 같은 글로벌 측위 시스템 또는 로컬 측위 시스템 또는 실내 측위 시스템 중 하나일 수 있다. 실내 측위 시스템은 시스템 주변의 무선 장치, 예를 들어 WLAN 또는 블루투스 방출 장치를 스캔함으로써 실현될 수 있다. 분류기는 사용자의 위치와 움직임을 이용하여 해당 활동을 분류할 수 있다. 예를 들어 사용자가 보행하고 있는 경우, 이 정보를 특징적인 보행 패턴을 나타내는 모션 데이터와 조합하여 분류기는 사용자가 보행하고 있다고 결론지을 수 있다.
시야 센서뿐만 아니라 물론 머리 방향/위치 센서도 컨텍스트 센서로 사용할 수 있다.
컨텍스트 센서에 의해 측정된 컨텍스트 파라미터는 제1 컨텍스트와 다르고 동일하거나 상이한 컨텍스트 센서로 측정된 적어도 하나의 다른 컨텍스트 파라미터와 조합하여 비전 태스크의 자동 식별을 위해 사용될 수 있다. 동일하거나 상이한 컨텍스트 센서로부터의 적어도 2개의 컨텍스트 파라미터는 활동/태스크 또는 이와 관련된 물체의 식별을 위해 함께 사용될 수 있다.
비전 태스크는 시야 센서에 의해 측정된 시야 파라미터, 특성 포인트 클라우드, 머리 방향, 움직임 패턴, 조명 조건 및 컨텍스트 센서 판독값 중 적어도 하나에 기초하여 자동으로 식별될 수 있다. 활동/태스크의 식별 또는 분류는 데이터의 통계적 분석을 이용함으로써, 예를 들어 알려진/라벨 또는 태그가 지정된 활동 동안 측정된 데이터에 대해 트레이닝된 분류기를 사용하는 기계 학습 방법에 의해 수행될 수 있다. 이러한 방법에는 로지스틱 회귀(logistic regression), 나이브 베이즈(Naive Bayes) 분류기, 피셔의 선형 판별 분석(Fisher's linear discriminat), 지원 벡터 머신, k-최근접법(k-nearest neighbour), 결정 트리(decision trees), 랜덤 포레스트(random forests), 신경망 또는 기타 알려진 방법 또는 여러 방법의 조합이 포함될 수 있다.
시야 센서의 데이터는 원래 차원 및 해상도로 사용될 수 있거나 기본 분류 알고리즘의 안정성을 개선하기 위해 감소될 수 있다. 예를 들어, 방향성 센서를 활용하는 시야 센서는 시야 물체들의 맵을 구축할 수 있다. 예를 들어, 책, 태블릿 또는 스마트폰과 같은 휴대형 독서 자료는 2차원 또는 3차원 맵에서 알려진 크기의 평면을 형성하는 포인트 클라우드로 인식될 수 있다. 모양과 크기가 일치하는 물체가 검출되면, 특징적인 머리 기울기와 함께 휴대형 미디어 판독이 검출될 수 있다.
추가 센서는 분류의 정확도와 특이성을 향상시킬 수 있다. 예를 들어, 반사광의 편광 상태를 검출할 수 있는 센서를 사용하여 휴대형 전자 장치의 액정 기반 디스플레이를 책과 같은 종이 기반 매체와 구별할 수 있다. 추가적으로 또는 대안적으로, 방향성 센서는 이를 달성하기 위해 전자 장치에 의해 방출된 광을 검출하는 데 사용될 수 있다. 추가로 또는 대안적으로, 모션 센서는 휴대형 전자 장치의 영화와 같은 미디어 콘텐츠를 시청하는 것과 휴대형 자료의 판독을 구별하기 위해 판독과 관련된 머리 움직임을 검출하도록 구성될 수 있다. 추가적으로 또는 대안적으로, 영화와 같은 동적 미디어 콘텐츠에 의해 야기되는 빛의 시간적 변화를 검출할 수 있는 광 센서는 독서 활동 및 시청 활동의 구별을 가능하게 하는데 사용될 수 있다.
시스템은 알려진 활동/태스크 중에 수행된 원래 측정 또는 통계적으로 처리된 측정의 데이터베이스를 포함할 수 있다. 따라서 측정값을 데이터베이스의 측정값과 비교하여 알 수 없는 활동/태스크를 식별할 수 있다. 마찬가지로, 통계적 분석/모델링의 방법으로 시야에서 물체의 식별이 자동으로 수행될 수 있다. 알려진 물체의 시그너처 측정값의 데이터베이스가 구성될 수 있고, 데이터베이스에 저장된 알려진 물체의 측정값과 알려지지 않은 물체의 측정값을 비교함으로써 추가 물체 식별이 수행될 수 있다.
사용자의 시야(visual field)는 사용자 시야의 분야(field of view)로 규정될 수 있다. 사용자는 환자 또는 렌즈, 안경과 같은 광학 보조기의 착용자, 또는 눈의 광학 요소의 수정 또는 교체를 받는 사람일 수 있다. 광학 보조기는 시력의 부족을 보완하는 것이 아니라 정상적인 인간 시력의 기능을 넘어서는 요소로 시력을 향상시키는 것이 주요 목표인 장치일 수도 있다. 예를 들어, 이러한 향상은 가상/증강/혼합 현실 헤드셋 또는 스마트 안경으로 제공될 수 있으며, 이는 그래픽 사용자 인터페이스 요소의 디스플레이, 시야의 물체 강조, 시야에 인공 물체 추가 등과 같은 특수 기능을 제공하기 위해 일반 시야를 수정한다. 그러한 장치는 여전히 근시, 원시, 노안 및 기타와 같은 시력 부전의 보상을 제공할 수 있음을 이해해야 한다.
시선 방향은 공통 좌표축으로부터 눈이 바라보는 지점까지의 방향으로 규정된다. 시선 방향은 시선 각도로 이해될 수도 있다. 2차원적 관점에서, 시각적 태스크/활동의 양쪽 대칭성을 가정할 수 있는 경우, 공통 좌표축은 수평면일 수 있으며, 시선 각도는 단일 피치 각도로 규정된다. 시선 각도는 머리의 경사각(head pitch angle)과 머리 각도에 대한 눈의 경사각으로 구성될 수 있다.
시선 방향/각도는 공통 좌표계에서 시각적 태스크와 관련된 물체의 위치로부터 도출될 수 있다. 공통 좌표계는 구면 좌표계일 수 있다. 구면 좌표계는 콧구멍이나 사용자의 다른 지점에서 원점을 가질 수 있다.
투영 면은 광학 보조기의 기능과 관련된 표면으로 규정될 수 있다. 예를 들어, 투영 면은 사용자의 눈에 대해 후에 사용할 광학 보조기가 위치할 표면을 규정할 수 있다. 투영 면은 광학 보조기의 볼륨 내에서뿐만 아니라 외부에서 규정될 수 있다. 투영 면은 평면, 구면, 원환체(toric) 표면, 또는 사용자의 망막과 시야 사이의 기타 임의의 표면일 수 있다. 표면은 예를 들어 엔티티의 표면과 연관되지 않은 가상/가상적일 수 있다.
투영 면은, 예를 들어 투영 면이 안경 평면인 경우, 안경 렌즈가 배치되는 눈 외부에 위치할 수 있거나, 또는 표면이 가상/증강/혼합 현실 헤드셋 또는 안경의 스크린 평면 또는 광학 평면일 수 있다. 그 다음, 머리의 좌표계에 고정될 수 있다. 투영 면은 또한 콘택트 렌즈 또는 안과용 임플란트의 경우와 같이 눈의 표면 또는 눈의 내부에 위치될 수 있다. 눈 표면 상의 투영 면은 머리 좌표계에 링크될 수 있는 반면, 사용자의 눈(들)은 투영 면과 관련하여 움직일 수 있다. 이것은 사용자의 눈(들)이 움직여도 제자리에 유지되는 분할 이중초점 또는 다초점 콘택트 렌즈인 경우이다.
일 예에서, 콘택트 렌즈뿐만 아니라 안과용 임플란트는 눈과 함께 움직일 수 있고, 눈 투영 면은 눈(들)의 좌표계에 고정된다. 각 눈에 대해 개별 좌표계가 가정될 수 있으므로 투영 면은 각 눈에 대해 개별적일 수 있다.
또한, 투영 과정은 눈 중심 투영 면뿐만 아니라 머리 중심 투영 면에도 동일하게 적용될 수 있다.
일 예에서, 투영은 사용자의 개별적인 특성을 고려할 수 있다. 여기에는 동공 간 거리, 머리에 있는 안경 평면의 위치와 각도에 영향을 미칠 수 있는 얼굴/코의 모양, 각막 곡률, 동공 크기의 범위, 자연 수정체의 위치, 눈의 길이 또는 기타 치수 등과 같은 눈 구조의 파라미터 및 기하학적 구조가 포함될 수 있다.
추가적으로 또는 대안적으로, 투영은 시야에 의해 영향을 받을 수 있는 사용자 눈(들)의 추가 광학 파라미터를 통합할 수 있다. 여기에는 궤도에서의 눈 회전, 시야의 조명 수준에 대한 동공 크기 조정, 시야에 초점을 맞추기 위한 자연 수정체의 조정, 눈꺼풀의 닫힘 및/또는 열림이 포함될 수 있다.
시야의 물체로부터의 빛의 경로가 광 전파의 물리적 규칙에 기초하여 추적될 때, 투영은 광선 추적에 의해 수행될 수 있다. 바람직하게는, 빛은 사용자의 망막에 도달할 때까지 물체로부터 추적될 수 있다. 망막으로 가는 도중에 물체로부터 투영 면을 통한 빛의 전파는 투영 면 상의 물체의 궤적을 규정할 수 있다. 투영은 광선이 망막에 도달하여 망막에 상을 형성함으로써 형성될 수 있다.
투영은 수학적 및 기하학적 변환의 단순화된 방법으로 수행될 수 있다.
매핑은 시각적 장면의 좌표를 투영 면의 좌표와 관련시키는 기하학적 투영에 의해 수행될 수 있다. 예를 들어, 시야에서 스마트폰 디스플레이의 중심 위치는 안경 평면에서 포인트의 위치로 전환될 수 있다. 추가적으로 또는 대안적으로, 매핑을 위해 광학계를 제한하는 것이 고려될 수 있다. 예를 들어, 동공 크기는 콘택트 렌즈, 각막 임플란트 및/또는 눈 안 렌즈의 활성 영역에 영향을 미칠 수 있다. 동공이 수축되면 빛은 시각 보조기의 중심 영역을 통해서만 망막에 도달할 수 있는 반면, 확장된 눈동자는 시각 보조기의 조리개를 증가시키고 수정체의 주변 광학 영역을 포함할 수 있다. 이 관계는 중심으로부터 거리에 따라 광학 배율이 변하는 다초점 렌즈의 맞춤화에 대해 고려할 수 있다. 예를 들어, 사용자는 잘 덮여있는 실외에서는 원거리 시력을 주로 이용하는 반면, 비교적 조명이 제한된 실내에서는 근거리 시력을 이용한다. 동공 수축 매핑은, 근거리 및 원거리 활동 모두에서 빛이 중심 영역을 통과하기 때문에, 시각 보조기의 중심 영역에서 근거리 및 원거리(및 해당 광학 배율)의 혼합을 생성할 수 있다. 제한된 조명과 관련된 근거리 활동은 또한 동심 주변 영역에 매핑될 수 있다.
이 경우, 맞춤화는 중심에서 원거리 시력을 용이하게 하는 광학 장치에 의해, 실외 환경에서 수축된 동공의 조건을 일치함으로써, 그리고 낮은 조명 조건에서 동공이 확장될 때 근거리 영역이 열리는 방식으로 주변부에 근거리 시력을 촉진하는 광학 장치를 배치함으로써 달성할 수 있다.
맞춤화는 눈의 광학 시스템의 성능과 눈의 기하학적 구조에 기초한 디포커스 허용오차를 고려할 수 있다. 수축된 동공으로 초점 심도가 증가할 수 있으며, 이는 망막에서 초점이 형성된 거리의 범위를 향상시킬 수 있다. 따라서 시각 보조기의 중앙 영역에서 요구되는 광학 배율 정확도는 주변 영역보다 낮을 수 있다.
매핑은 여러 비전 태스크/활동 중에 수행된 측정치를 조합할 수 있다. 사용자가 지속적으로 측정을 수행하여 일반적으로 일상적인 비전 태스크를 효과적으로 조합하고 있다고 상상할 수 있다.
시스템은 사용자가 착용하도록 구성된 머리 장착 착용형일 수 있다. 특히, 착용형은 시스템의 모든 요소 또는 센서 장치/유닛을 포함하는 단일 모듈일 수 있다. 따라서, 시야 센서와 머리 방향 및/또는 위치 센서는 동일한 하우징에 있을 수 있다.
따라서, 시스템은 소형화될 수 있고 전력 소비도 감소될 수 있다.
각각의 머리 방향 및/또는 위치 센서와 각각의 시야 센서의 좌표계는 정렬될 수 있다. 결과적으로 좌표 변환을 피할 수 있다. 그 결과 계산 단계를 줄일 수 있다.
각각의 머리 방향 및/또는 위치 센서와 각각의 시야 센서의 좌표계는 동일하거나 동일한 기준점을 가질 수 있다. 따라서 하나를 다른 것으로 변환하는 데 회전 정보만 필요할 수 있다.
시야 센서와 머리 방향 및/또는 위치 센서는 서로 분리될 수 있다.
결과적으로, 시스템은 모듈식으로 제공될 수 있다. 예를 들어, 시야 센서는 책상, 선반, 보드 또는 다른 보관소에서 작동되거나 보관될 수 있다. 머리 방향 및/또는 위치 센서가 대신 머리에 장착될 수 있다. 따라서 머리에 부피가 큰 장치가 없도록 하기 위해, 이러한 방식으로 시스템을 모듈식으로 제공할 수 있다.
시스템의 모듈식 구현에서, 시야 센서는 머리와 다른 사용자의 신체 부분, 예를 들어 몸통에 장착될 수 있는 반면, 머리 방향 및/또는 위치 센서는 머리에 장착될 수 있다.
시야 센서 및 머리 방향 및/또는 위치 센서의 측정은 머리 방향 및/또는 위치를 시야의 물체에 정확하게 연결하기 위해 동기화될 수 있다. 동기화는 동시에 또는 (무시할 정도로) 작을 수 있는 미리 정의된 시간 내에 두 센서의 측정을 촉발하거나 판독함으로써 실시간으로 측정할 수 있다. 동기화는 두 센서의 측정값을 독립적으로 기록하여 수행할 수 있지만 기록된 측정값을 시간에 연결할 수 있는 정보를 사용한다. 예를 들어, 모듈식 구현에서, 시야 센서 및 머리 방향 및/또는 위치 센서는 공통 시점과 관련될 수 있는 온보드(onboard) 클록을 가질 수 있고 측정된 데이터는 대응하는 타임스탬프와 함께 기록된다. 처리 단계에서 두 센서의 측정은 공통 시간 시스템에 연결될 수 있다.
컨텍스트 센서에도 동일하게 적용된다. 실시간으로 다른 센서와 동기화될 수 있거나 공통 시점과 관련될 수 있는 독립적인 클록이 있을 수 있다.
머리 방향 및/또는 위치 센서는 시야 센서에 연결될 수 있다. 머리 방향 및/또는 위치 센서는 위치 정보를 머리 방향 및/또는 위치 센서의 좌표계로부터 머리 방향 및/또는 위치 센서의 좌표계로 변환하기 위해 시야 센서의 위치 정보를 제공하도록 구성될 수 있다. 변환은 처리 장치에 의해 수행될 수 있다. 따라서, 처리 장치와 머리 방향 및/또는 위치 센서는 서로 통신할 수 있다. 이 통신은 케이블을 통해 직접적이거나 또는 블루투스 또는 무선 근거리 통신망(WLAN)과 같은 안테나 시스템 구동 단거리 통신 시스템과 같은 통신 수단을 통해 간접적일 수 있다. 따라서 머리 방향 및/또는 위치 센서는 표준 WLAN 장치에 연결하기 위한 인터페이스를 가질 수 있다. 이 인터페이스는 머리 방향 및/또는 위치 센서 및/또는 처리 장치에 의해 공유될 수 있다. 처리 장치의 위치는 적어도 머리 방향 및/또는 위치 센서와 함께 단일 장치 내에 있을 수 있다. 단일 장치 내부에 시야 센서도 배치될 수 있다. 그러나 처리 장치는 별도의 장치로서 제공될 수 있다. 예를 들어, 처리 장치는 (외부)서버의 네트워크를 통해 또는 클라우드를 통해 제공될 수 있다. 따라서, 처리 장치에 의한 처리는 통신을 위한 시스템의 인터페이스 또는 시스템에 통신 수단을 연결하기 위한 인터페이스와 같은 시스템의 다른 요소들 중 적어도 하나와만 통신하는 장치에서 수행될 수 있다.
투영 면은 광학 보조기와 연관 및/또는 연결될 수 있다.
예를 들어, 투영 면은 광학 보조기가 배치되거나 후에 사용될 평면일 수 있다. 따라서, 투영 면은 광학 보조기의 평면일 수 있다. 광학 보조기는 예를 들어 안경, 렌즈 또는 눈의 표면일 수 있다.
결과적으로 사용자의 눈으로부터 특정 거리에 있는 광학 배율 및 동공 직경을 고려할 수 있다.
제2 양태에 따르면, 제1 양태에 따른 시스템의 용도가 제공된다. 투영 면의 광학 파라미터 분포는 광학 보조기의 맞춤화에 사용된다. 광학 파라미터는 광학 배율(optical power), 동공 직경, 초점 심도, 광의 스펙트럼 콘텐츠, 광의 각도 분포, 및 광의 편광 상태 중 적어도 하나일 수 있다. 광학 파라미터 분포는 투영 면 상의 광학 파라미터 분포를 포함할 수 있다.
광학 보조기를 위해 후에 사용될 투영 면 상의 광학 파라미터 분포는 동공 직경과 광학 배율 모두의 조합을 포함할 수 있다. 따라서 개인의 조명 요건과 배율 요건을 동시에 고려할 수 있다.
동공 직경/크기는 경험적 공식 및/또는 모델을 사용하여 빛의 강도 및 스펙트럼 콘텐츠와 같은 조명 조건으로부터 추정될 수 있다. 그러한 공식은 개별화된 계수뿐만 아니라 환경의 다른 파라미터를 포함할 수 있다. 모델은 일반 또는 개인일 수 있다. 동공의 직경/크기는 시야의 초점 심도를 계산하는 데 추가로 사용될 수 있다. 초점 심도는 광학 보조기의 맞춤화를 최적화하는 데 사용할 수 있다.
서로 다른 초점 심도를 가진 서로 다른 광학 배율을 필요로 하는 여러 활동이 기록된 경우, 광학 배율과 초점 심도를 조합함으로써 결합된 솔루션을 찾을 수 있다. 예를 들어, 밝은 조명에서 1m 거리에서 활동 A가 수행된다. 이것은 1D의 광학 배율 요건과 0.5D일 수 있는 수축된 동공에 해당하는 초점 심도로 이어지므로 광학 배율 범위는 0.75 내지 1.25D이다. 예를 들어, 활동 B는 저조도 및 1.25m 거리에서 수행되므로 필요한 광학 배율은 0.8D이고, 초점 심도는 약 0.1D의 수축된 눈에 해당하기 때문에, 범위는 0.75 내지 0.85D로 된다. 광학 보조기의 맞춤화는 대부분의 시각 활동에 대해 최상의 시력을 제공할 수 있어야 하므로 허용 가능한 배율 범위는 0.75 내지 0.85D가 될 수 있으며 이는 활동 A와 B의 요건을 모두 충족한다.
제3 양태에 따르면, 투영 면에서 광학 파라미터 분포를 결정하기 위한 방법이 제공된다. 이 방법은 시야 센서가 특정 비전 태스크와 관련된 사용자의 시야를 측정하는 단계를 포함한다. 이것은 시야 센서가 사용자의 시야에서 특정 비전 태스크와 관련된 물체를 식별하는 것을 포함할 수 있다. 이 방법은 시야 센서에 의해 특정 비전 태스크 중에 사용자의 시선 방향을 결정하는 단계를 더 포함한다. 이 방법은, 머리 방향 및/또는 위치 센서에 의해, 특정 비전 태스크 중에 시야와 관련하여 사용자의 머리 방향 및/또는 위치, 예를 들어 특정 비전 태스크 중에 시선 각도와 연관된 사용자의 머리 각도를 측정하는 단계를 추가로 포함한다. 이 방법은 사용자의 시선 방향과 사용자의 머리 방향 및/또는 위치에 기초하여 사용자의 머리에 대한 사용자의 눈 방향의 계산을 가능하게 하여 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하는 단계를 포함할 수 있다. 예를 들어, 이 방법은 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하기 위해 머리 각도와 시선 각도 사이의 대응하는 차이의 계산을 가능하게 하는 단계를 더 포함한다.
제4 양태에 따르면, 컴퓨터 프로그램 제품이 하나 이상의 처리 장치 상에서 실행될 때, 제2 양태에 따른 방법을 수행하기 위한 프로그램 코드 부분을 포함하는 컴퓨터 프로그램 제품이 제공된다.
제5 양태에 따르면, 하나 이상의 컴퓨터 판독 가능 저장 매체에 저장된 제3 양태에 따른 컴퓨터 프로그램 제품이 제공된다.
제6 양태에 따르면, 광학 보조기가 제공된다. 광학 보조기는 조정 가능한 광학 보조기일 수 있다. 광학 보조기는 제3 양태에 따른 방법에 기초하여 또는 제1 양태에 따른 시스템의 사용에 기초하여 조정될 수 있다.
위에서 설명된 양태 중 일부가 시스템을 참조하여 설명된 경우에도 이러한 양태는 이 방법에도 적용될 수 있다. 마찬가지로, 상기 방법과 관련하여 위에서 설명된 양태들은 시스템에 대응하는 방식으로 적용될 수 있다.
하드웨어 회로, 소프트웨어 수단 또는 이들의 조합을 이용하여 본 명세서에 기재된 내용이 실시될 수 있다는 것은 당업자에게 명백하다. 소프트웨어 수단은 프로그래밍된 마이크로프로세서 또는 일반 컴퓨터, 특정 용도용 집적 회로(ASIC, Application Specific Integrated Circuit) 및/또는 디지털 신호 프로세서(DSP)와 관련될 수 있다.
예를 들어, 머리 방향 및/또는 위치 센서, 시야 센서, 처리 장치 및 컨텍스트 센서와 같은 본 명세서의 센서 유닛은 부분적으로 컴퓨터, 논리 회로, FPGA(Field Programmable Gate Array), 프로세서(예를 들어, 마이크로프로세서, 마이크로컨트롤러(μC) 또는 어레이 프로세서)/코어/CPU(중앙 처리 장치), 부동 소수점 유닛(FPU, Floating Point Unit), 숫자 처리 장치(NPU, Numeric Processing Unit), 산술 논리 장치(ALU, Arithmetic Logical Unit), 보조 프로세서(메인 프로세서(CPU)를 지원하기 위한 추가 마이크로프로세서), GPGPU(그래픽 처리 장치의 범용 계산), 멀티 코어 프로세서(산술 동시 수행 다중 메인 프로세서(들) 및/또는 그래픽 프로세서(들)), 또는 DSP로 실시될 수 있다.
본 명세서에 설명된 세부사항이 방법의 관점에서 설명될지라도, 이러한 세부사항은 또한 적절한 장치, 시스템, 컴퓨터 프로세서 또는 프로세서에 연결된 메모리에서 구현되거나 실현될 수 있다는 것은 당업자에게 명백하며, 여기서, 메모리는 프로세서에 의해 실행될 때 방법을 수행하는 하나 이상의 프로그램과 함께 제공될 수 있다. 따라서 스와핑(swapping) 및 페이징(paging)과 같은 방법을 전개할 수 있다.
또한, 본 명세서에서 사용된 용어는 개별적인 실시형태를 설명하기 위해 사용된 것으로 한정하려는 의도가 아님을 이해해야 한다. 달리 정의되지 않는 한, 본 명세서에서 사용되는 모든 기술 및 과학 용어는 본 발명의 관련 기술 분야에서 통상의 지식을 가진 자의 일반적인 이해에 상응하는 의미를 가지며, 너무 멀지도 너무 좁지도 않게 이해되어야 한다. 본 발명에서 기술 용어가 잘못 사용되어 본 발명의 기술적 개념을 반영하지 않는 경우, 본 발명의 해당 기술 분야에서 통상의 지식을 가진 자에게 올바른 이해를 전달할 수 있는 기술 용어로 대체되어야 한다. 본 명세서에서 사용되는 일반적인 용어는 사전 또는 문맥상의 정의에 따라 해석되어야 한다. 너무 좁은 해석은 피해야 한다.
"포함하는" "구비하는" 또는 "가지는" 등과 같은 용어는 설명된 특징, 숫자, 동작, 행동, 구성요소, 부품 또는 이들의 조합의 존재를 의미하며, 하나 이상의 추가 특징, 숫자, 동작, 행동, 구성 요소, 부품 또는 이들 조합의 가능한 추가 또는 존재를 배제하지 않는 것으로 이해되어야 한다.
"및/또는"이라는 용어는 복수의 관련된 특징의 조합뿐만 아니라 설명된 복수의 특징의 복수의 임의의 특징을 모두 포함한다.
현재의 경우, 구성 요소는 다른 구성 요소에 "연결"되거나 "통신 중"이라면, 이는 해당 구성 요소가 다른 구성 요소에 직접 연결되거나 다른 구성 요소에 직접 액세스함을 의미할 수 있다. 그러나 그들 사이에 다른 구성 요소가 있을 수 있음에 유의해야 한다. 한편, 구성요소가 다른 구성요소에 "직접 연결"되거나 다른 구성요소에 "직접 액세스"하는 경우, 그 사이에 더 이상의 구성요소가 존재하지 않음을 이해해야 한다.
본 발명의 다른 목적, 특징, 장점 및 응용은 첨부 도면에 관한 비제한적인 실시형태의 다음 설명으로부터 명백해질 것이다. 동일하거나 유사한 구성요소에는 항상 동일하거나 유사한 참조 기호가 제공된다. 본 발명을 설명함에 있어서, 공지된 연결 기능 또는 구성에 대한 구체적인 설명은 본 발명을 불필요하게 불명확하게 할 수 있는 경우 생략한다. 도면에서, 모든 설명 및/또는 예시된 특징은 단독으로 또는 임의의 조합으로 청구범위 또는 그들의 관련 사항/참조에서의 그룹화와 관계없이 본 명세서에 개시된 발명 대상을 구성한다. 도면에 표시된 구성 요소 또는 부품의 치수 및 비율은 반드시 일정 비율과 일치하는 것은 아니다. 이들 치수 및 비율은 도면 및 구현된 실시형태의 예시와 상이할 수 있다. 특히, 도면에서, 라인, 층 및/또는 영역의 두께는 명확성을 위해 과장될 수 있다.
도 1은 투영 면에서 광학 파라미터 분포를 결정하기 위한 시스템이 사용되는 시나리오를 개략적으로 도시한다.
도 2는 투영 면에서 광학 파라미터 분포를 결정하기 위한 방법을 개략적으로 도시한다.
도 3은 사용자 머리의 좌표계에서 포인트 클라우드를 개략적으로 도시한 도면이다.
도 4는 머리의 좌표계와 정중면(sagittal plane)의 물체를 안경 평면으로 매핑하는 것을 개략적으로 도시한다.
도 5는 우측 눈에 해당하는 광학 보조기의 평면에서 배율 맵 형태의 배율 분배에 대한 요건을 개략적으로 도시한다.
도 6은 누진 추가 안경 렌즈의 예로서 광학 보조기의 배율/프로파일의 가능한 구현을 개략적으로 도시한다.
도 7은 배율 프로파일의 예를 개략적으로 도시한다.
도 8은 광학 보조기의 평면에서 동공 직경의 투영을 개략적으로 도시한다.
시스템 및 방법은 실시형태와 관련하여 설명될 것이다. 특히, 본 개시내용의 완전한 이해를 제공하기 위해 특정한 상세한 설명이 이에 제한되지 않고 제공된다. 그러나 본 개시내용은 아래에 설명된 세부사항과 다를 수 있는 다른 실시형태에서 사용될 수 있음은 당업자에게 명백하다.
도 1은 투영 면에서 광학 파라미터 분포를 결정하기 위한 시스템이 사용되는 시나리오(100)를 개략적으로 예시한다. 시스템의 적어도 일부는 장치(110)에 배열된다. 장치(110)는 머리 방향 및/또는 위치 센서를 포함할 수 있다. 특히, 도 1의 머리 방향 및/또는 위치 센서는 예시된 머리(150)의 시상도(sagittal view) 때문에 1차원일 수 있다. 머리 방향 및/또는 위치 센서는 도 1에 도시된 바와 같이 정중면에서 머리(150) 방향을 측정한다. 그러나 이것은 장치(110)의 머리 방향 및/또는 위치 센서 내부에 각각의 센서 장비가 있는 모든 평면으로 확장될 수 있다. 따라서 머리 방향 및/또는 위치 센서는 머리가 수평에 대해 기울어지지 않을 때 머리 각도 β=0을 측정하도록 보정될 수 있다. 이것은 특히 도 1에 나타나 있다.
물체를 보기 위해 눈(170)의 수평면 아래에서 시선 각도(α)가 필요한 경우, 머리 기울기(β)(본 명세서에서 머리 각도라고도 함)는 시선 각도(α)에 부분적으로만 기여한다. 나머지 각도(γ)는 머리의 기울기(β)를 기준으로 눈(170)(눈(170)의 기울기만)의 방향을 변경한 것이다. 이는 목(160)에 가해지는 부하를 줄이기 위해 몸 자체에서 수행된다. 머리(150)와 눈(170) 사이의 각도 기여도 분포는 개별적이며, 또한 활동 및 사용자에 특정할 수 있는 물체(130)의 개별 위치에 따라 달라진다. 도 1의 물체(130)는 휴대형 매체이고, 머리(150)로 예시된 바와 같이, 사용자가 바라보고 있다. 장치(110)는 사용자에 의해, 특히 사용자의 머리 또는 사용자의 관자놀이에 착용될 수 있다. 이에 더하여, 장치(110)는 머리 장착 착용형일 수 있다. 장치(110)는 안경 프레임에 통합되거나 그 위에 장착될 수 있다.
머리 방향 및/또는 위치 센서에 더하여, 장치(예를 들어, 웨어러블 장치)는 시야(120)에서 물체(130)까지의 거리를 측정할 수 있는 적어도 하나의 거리 센서를 통합할 수 있다. 시야(120)는 도 1에서 화살표와 별들로 표시된다. 거리 센서는 본 명세서에 설명된 시야 센서의 일부일 수 있거나, 또는 시야 센서는 도 1과 관련하여 설명된 거리 센서의 형태일 수 있다. 건강한 사람의 머리와 몸은 깨어 있는 상태에서 완전한 휴식을 취하는 경우가 거의 없기 때문에 관찰 기간 동안 머리 기울기 각도의 분포가 예상된다. 시간적으로 분리된 다중 측정을 수행하는 거리 센서를 사용하면, 관찰 지점(머리 시점)으로부터 다양한 방향으로 시야(120) 내의 물체(130)까지의 거리를 얻을 수 있다. 이것은 머리 좌표계의 참조가 될 수 있다.
환경(시야(120))의 샘플링은 적어도 하나의 방향성 거리 센서에 의해 수행될 수 있다. 거리 센서는 사용자의 머리와 동일하게 정렬되고 및/또는 장치(110)에 통합된 착용 가능 거리 센서일 수 있다. 거리 센서는 스캐닝 수단 또는 각도/공간 분해 센서를 가질 수 있지만, 거리 센서는 또한 다른 방향으로 환경을 샘플링하기 위해 사용자의 자연스러운 머리 움직임에 전적으로 의존하거나 또는 다른 방향에서 샘플링의 다른 수단의 조합일 수 있다. 거리 측정을 장치(110)의 방향 또는 위치와 연관시킴으로써, 머리 방향 및 사용자의 위치와 관련하여 환경을 나타내는 2차원 또는 3차원 포인트 클라우드를 구성하는 것이 가능하다. 장치(110)의 초기 방향 또는 위치는 장치(110)에 통합된 관성(예를 들어, 가속도계, 자이로스코프, 자력계) 센서 또는 위치 센서로부터 얻어질 수 있다.
활동을 자동으로 식별하기 위해 추가 컨텍스트 센서가 사용될 수 있다. 예를 들어, 모션 센서는 사용자의 모션 강도와 통계적 특성을 샘플링할 수 있다. 예를 들어, 특정 시그너처 움직임, 예를 들어 독서 중 머리(150)의 움직임이 인식될 수 있다. 컨텍스트 센서(들)는 또한 장치(110)에 포함될 수 있다.
활동은 외부 센서의 도움으로 또는 웨어러블 및/또는 시스템 및/또는 추가 장치, 예를 들어, 이동 전화 또는 인터넷 인터페이스의 일부로서 사용자 인터페이스를 통해 수행되는 직접적인 사용자 입력으로 자동 식별될 수 있다. 입력 식별 활동은 실시간 또는 후에 수행될 수 있다. 예를 들어, 사용자는 웹 페이지 또는 모바일 애플리케이션으로 구현된 대화형 인터페이스를 통해 측정 기록을 검토하고 시계열(time series)을 특정 활동에 연결할 수 있다.
그러한 입력의 예는 다음과 같을 수 있다: 10:00부터 10:30까지의 활동은 독서, 10:30부터 10:45까지의 활동은 걷기, 10:45부터 11:45까지의 활동은 운전 등일 수 있다.
활동의 식별은 또한 자동 및 수동 입력의 조합으로 수행될 수 있다. 예를 들어, 시스템은 자동 식별 성능의 신뢰도 또는 기타 메트릭이 특정 임계값 미만인 경우에만 사용자 입력을 요청할 수 있다. 위의 예에서 시스템은 독서와 운전을 (자신있게)자동으로 식별할 수 있지만, 걷기와 관련하여 일부 우려가 있을 수 있으므로 사용자 입력을 요청할 수 있다. 시스템은 활동의 단일 에피소드에 대한 사용자 입력을 사용하여 다른 에피소드의 자동 식별을 업데이트하도록 추가로 구성될 수 있다. 위의 예에서, 사용자는 10:30에서 10:45 사이에 걷기의 단일 에피소드를 수동으로 지정할 수 있으며, 시스템은 활동 분류기를 자동으로 업데이트하고 나머지 모든 에피소드를 재평가할 수 있다.
머리 방향 및/또는 위치 센서는 가속도계를 포함할 수 있다. 가장 간단한 경우, 단일 축에 대한 가속도 벡터의 투영을 측정할 수 있는 단일 축 가속도계가 사용될 수 있다. 가속도계의 단일 축은, 사용자가 정면을 바라볼 때(β=0), 축 x에 대한 벡터 g(중력 가속도)의 투영이 0이기 때문에(gx = g sinβ = 0, 여기서 g는 벡터 g의 절대값임), 사용자가 정면을 바라볼 때(β=0), 가속도계는 0 가속도를 측정하는 방식으로 장치(110)와 수평으로 정렬될 수 있다. 사용자의 머리(150)가 전방으로 기울어지면(β>0), 투영 gx는 양수가 된다. 머리 경사각 β는 β = arcsin gx/g를 산출하는 측정된 투영으로부터 계산될 수 있다. 가속도계 센서는 장치(110)에 작용하는 축 z를 따라 가속도를 측정할 수 있다(머리 방향 및/또는 위치 센서 좌표계). 모션으로 인한 장치(110)의 상당한 가속이 없는 경우(중요한 시각적 활동 중에 예상됨), 가속도계는 중력 및 그에 따른 가속도 g를 측정한다.
머리의 수직 각도(피치)(β)는 머리(150)(예를 들어, 안경 또는 사용자의 관자놀이)에 장착된 가속도계(적어도 하나의 축)에 의한 중력 측정으로부터 유도될 수 있다. 더 발전된 구성에서, 머리 방향 및/또는 위치 센서는 3축 자이로스코프, 3축 가속도계 및 3축 자력계(예를 들어, 나침반)를 포함할 수 있다. 그러면 머리 방향 및/또는 위치 센서가 사용자의 머리(150)에 고정될 때, 머리 방향 및/또는 위치 센서의 절대 각도 및 이에 따라 머리(150)의 절대 방향을 추정하는 것이 가능하다.
추가적으로 또는 대안적으로, 머리 위치 센서는 시야 또는 시야 센서와 관련하여 머리의 위치를 모니터링할 수 있다.
관심 물체(130)(특정 시각 활동과 관련된 물체)의 위치는 머리(150)의 축을 기준으로 시야 센서로 시야(120)를 관찰함으로써 알 수 있다. 예를 들어, 이것은 시점(POV, point-of-view) 카메라라고도 하는 머리 장착 카메라, POV 거리 센서 또는 공간 분해 거리 센서(3D 카메라)에 의해 수행될 수 있다. 시야에서 관심 물체를 검출함으로써, 시야에서 물체(들)의 정렬 각도(α,β,γ)와 위치(x,y,z)를 간접적으로 도출할 수 있다.
거리 센서에 의해 측정된 거리와 조합하여, 신체의 정중면에서 점들의 위치를 얻을 수 있고, 시야(120)에서 물체(130)의 포인트 클라우드(시야(120)의 도 1의 점들)을 형성할 수 있다. 또한, 물체(130)의 인식은, 비전 태스크의 종류가 이미 주어진 경우(예를 들어, 사용자가 사용자 인터페이스를 통해 정보를 제공한 경우), 예상 시야(120)를 기반으로 수행될 수 있거나, 또는 측정된 거리의 통계(시야 센서/거리 센서로 획득된 통계)를 시각적 활동의 통계적 시그너처 데이터 세트와 비교함으로써 활동 유형을 자동으로 인식할 수 있다.
예를 들어, 식별되거나 인식된 활동은, 도 1에 도시된 예에서와 같이, 휴대형 장치(130)로부터 판독한다. 이 경우, 시각적 활동의 주된 목적은 평평한 표면을 갖고 따라서 편안한 팔 도달 거리에서 정중면 투영에 선으로 나타날 휴대형 장치(130)를 판독하는 것이다. 이러한 규정에 해당하는 점은 점선으로 표시된다(도 1 참조). 주요 시각적 활동의 물체(130) 상의 포인트에 대응하는 각도는 대응하는 비전 태스크를 수행하기 위해 사용자에 의해 사용되는 시선 각도 α의 세트를 추가로 규정한다. 머리 기울기의 각도 β는 머리 방향 및/또는 머리(150)에 장착된 위치 센서로부터 알려져 있기 때문에, 눈(170) 이동/각도 γ=α-β를 추정하는 것이 가능하다.
포인트 클라우드의 밀도 및 스캐닝 범위는 시야 센서와 다른 방향 및/또는 위치를 갖는 거리 센서를 더 추가하거나 복수의 방향에서 샘플을 얻을 수 있는 센서를 사용함으로써 증가될 수 있다. 예를 들어, 이들 센서는 서로 다른 방향에서 거리에 대해 서로 다른 감도를 갖는 단일 이미터 및 복수의 감지 영역/검출기를 가질 수 있다. 이는 센서 설계 또는 추가 요소, 예를 들어, 센서가 광학 기반인 경우 광학 요소를 통해 달성될 수 있다.
예를 들어, 이것은 필요한 관심 영역을 선택하도록 구성될 수 있는 단일 광자 애벌랜치 다이오드(SPAD, single-photon avalanche diodes)의 16x16 어레이를 갖는 레이저 거리 측정 센서에 의해 구현된다. 이것은 단일 이미터-다중 검출기 전략을 구현한다.
또 다른 예는 상이한 기하학적 위치 또는/및 방향으로부터 오는 빛을 검출하는 방식으로 배열된 카메라 또는 감지기 어레이를 통합할 수 있다.
추가 예에서, 거리 센서는 적어도 하나의 검출기 및 상이한 방향 및/또는 위치로 광을 방출하도록 구성된 복수의 이미터를 가질 수 있다. 이 경우에, 검출기는 적어도 하나의 이미터에 의해 방출되고 시야(120)로부터 반사된 광을 검출하도록 구성된다. 활성 이미터의 구성/배열은 한 시점으로부터 다른 시점으로 변경될 수 있으므로 공간적으로 분해된 정보를 수집할 수 있다.
다른 예에서, 적어도 하나의 이미터는 상이한 방향/위치에서 시야(120)를 조사하기 위해 방출된 광의 방향을 변경하도록 구성될 수 있다. 이것은 예를 들어 스캐닝 미러, 스캐닝 프리즘 또는 다른 방향으로 프로빙 광을 방출하기 위해 방출된 광의 광학 경로를 수정하도록 구성된 다른 이동 광학 요소일 수 있는 스캐닝 요소에 의해 달성될 수 있다. 그 다음, 검출기는 이미터 방사선에 의해 프로빙되는 물체로부터 반사된 광을 검출하도록 구성될 수 있다. 검출기의 신호는 시야(120)를 재구성하기 위해 프로빙된 방향/위치에 대한 정보와 연결될 수 있다. 이러한 방향은 스캐너 설계로부터 사전에 알 수 있으며, 보정 단계에서 얻거나 추가 피드백 신호로 스캔하는 동안 얻을 수 있다.
대안적으로, 시야는 머리 방향 및/또는 위치 센서와 머리로부터 물리적/기계적으로 분리될 때 시야 센서에 의해 모니터링될 수 있다. 예를 들어, 시야 센서는 사용자의 신체(예를 들어, 몸통 및/또는 가슴)에 장착되거나, 또는 신체 외부(예를 들어, 책상 또는 자동차 대시보드)에 장착될 수 있다. 머리 방향 및/또는 위치 센서와 시야 센서는 서로의 좌표계, 특히 방향 및/또는 위치를 서로 관련시키는 수단을 가질 수 있다. 예를 들어, 이것은 시야 센서에 기계적으로 결합된 추가 방향 및/또는 위치 센서(들)로 달성될 수 있다.
또 다른 접근 방식은 시야 센서와 머리의 상대적인 움직임을 제한하는 것일 수 있다. 예를 들어, 머리와 다른 신체의 특정 부위, 예를 들어 가슴에 시야 센서를 장착함으로써, 이러한 방식으로 시야 센서와 머리의 상대적인 움직임은 머리의 기울기, 예를 들어 머리 방향 및/또는 위치 센서로 모니터링할 수 있는 피치, 요, 롤에 의해서만 유발될 수 있다.
더 많은 세부 사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 1에 도시된 실시형태는 제안된 개념 또는 아래에서 설명되는 하나 이상의 실시형태(예를 들어, 도 2 내지 8)와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 2는 투영 면에서 광학 파라미터 분포를 결정하기 위한 방법을 개략적으로 예시한다. 이 방법은 제1 단계로서 시각적 태스크를 분류하는 단계(S210)를 포함할 수 있다. 이후, 이 방법은 시야 센서에 의해 특정 비전 태스크와 관련된 사용자의 시야를 측정하는 단계(S220)를 포함한다. 이것은 사용자의 시야에서 특정 비전 태스크와 관련된 물체를 식별하는 것을 포함할 수 있다. 이 방법은 특정 비전 태스크 중에 사용자의 시선 방향을 결정하는 단계(S230)를 더 포함한다. 이 방법은 특정 비전 태스크 중에 머리 방향 및/또는 위치 센서, 머리 방향 및/또는 시야에 대한 사용자의 위치를 측정하는 단계(S240)를 더 포함한다. 이 방법은 사용자의 시선 방향과 사용자의 머리 방향 및/또는 위치에 기초하여 사용자의 머리에 대한 사용자의 눈 방향의 계산을 가능하게 하여 사용자의 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하는 단계(S250)를 더 포함한다.
특히, 상기 방법은 두 가지 상이한 방식으로 수행될 수 있다. 제1 방법은 도 1과 관련하여 설명된 거리 센서와 같이 기계적으로 결합된 시야 센서와 머리 방향 및/또는 위치 센서를 기반으로 한다. 따라서, 도 2에 도시된 방법은 상기 방법을 수행하는 제1 방법에 따라 다음(추가) 단계 중 적어도 하나를 포함할 수 있다:
- 사용자의 시야에서 하나 이상의 물체의 포인트 클라우드를 획득하는 단계(S205);
- 비전 태스크의 유형 분류 단계(S210);
- 시야 센서에 의해 시야에서 특정 비전 태스크와 관련된 적어도 하나의 관련 물체를 식별하는 단계(S220);
- 적어도 하나의 관련 비전 태스크 물체에 대응하는 시선 각도(공통 좌표계에서 피치, 요 및/또는 롤)의 구성요소 중 적어도 하나를 계산하는 단계(S230);
- 시각 활동 중에 머리 방향 및/또는 위치 센서에 의해 머리 방향을 측정하는 단계 S242 (S240);
- 머리 각도(공통 좌표계에서 피치, 요 및/또는 롤)의 적어도 하나의 구성 요소를 계산하는 단계 S244 (S240); 및
- 시선 방향과 머리 방향 및/또는 위치 간의 차이로서 머리와 물체 사이의 적어도 하나의 각도(눈의 각도)를 계산하는 단계(S250).
시각적 활동의 물체는 종종 중력장, 예를 들어 책상 위의 종이, 컴퓨터 디스플레이, 텔레비전 화면, 자동차 대시보드와 관련하여 실제 공간에 배열되기 때문에, 물체 인식은 지구 중심 좌표계에서 수행하기 더 쉽다.
제2 방식은 기계적으로 분리된 시야 센서와 머리 방향 및/또는 위치 센서를 기반으로 한다. 따라서, 도 2에 도시된 방법은 방법을 수행하는 제2 방법에 따라 다음(추가) 단계 중 적어도 하나를 포함할 수 있다:
- 시야 센서에 의해 사용자의 시야에서 하나 이상의 물체를 식별하고(S220), 시선 각도(공통 좌표계에서)를 계산하는 단계(S230),
- 시각 활동 중 머리 방향 및/또는 위치 센서로 머리 방향을 측정하고 머리 각도(공통 좌표계에서)를 계산하는 단계(S240),
- 시선 각도와 머리 각도의 차이로서 머리와 물체 사이의 적어도 하나의 각도(눈의 각도)를 계산하는 단계(S250).
더 많은 세부사항 및 양태는 상기 또는 하기에 설명된 실시형태와 관련하여 언급된다. 도 2에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1) 또는 아래에서(예를 들어, 도 3 내지 8) 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적인 추가 특징을 포함할 수 있다.
도 3은 사용자 머리의 좌표계에서 포인트 클라우드를 개략적으로 도시한다. 특히, 정중면이 포괄적으로 표시된다. 포인트 클라우드는 적어도 단일 방향 거리 센서의 측정값과 센서의 방향 및 위치 측정값을 조합함으로써 얻어질 수 있다. 다중 거리 센서의 측정(예를 들어, 다른 방향 탐색)을 하나의 맵으로 조합하거나 여러 맵을 형성할 수 있다. 적어도 머리 기울기의 피치 각도를 측정하면, 2차원 정중면에서 포인트 클라우드가 규정된다. 자이로스코프 및/또는 자력계와 같은 추가 방향성 센서를 사용하여, 머리의 요 및 롤 각도를 추가하고 3차원 공간에서 포인트 클라우드를 규정할 수 있다. 예를 들어, 시각적 태스크나 활동을 분류함으로써, 그에 따라 시선 각도를 추출할 수 있다. 정중면에서, 각각의 시선 각도에 해당하는 포인트는 시각적 태스크에 따라 특히 머리(U)로부터 동일한 거리에 모두 놓여 있다. 도 3은 책을 읽거나 스마트폰을 보는 것과 같은 근거리 시야(NV) 태스크에 해당하는 포인트 클라우드를 나타내며, 이 예에서는 3D 굴절에 해당하는 약 0.33m 거리에서 또 다른 클라우드가 약 1m(1D 굴절)의 중간 시야(IV) 영역에 있으며, 이는 데스크탑 컴퓨터 디스플레이를 볼 수 있고 TV를 볼 수 있는 약 2m(0.5D)의 원거리 시야(FV) 영역에 있다.
포인트 클라우드는 활동에 특징적인 패턴을 형성할 수 있다. 포인트 클라우드의 모양 및/또는 위치는 시각적 활동을 자동으로 분류하는 데 사용될 수 있다. 분류는 사용자가 어떤 유형의 시각적 태스크를 수행하는지에 대한 사용자 입력과 조합하고 및/또는 시각적 태스크 중에 촬영된 비디오의 패턴 인식과 조합하고 및/또는 다른 센서의 측정치와 조합할 수 있다. 예를 들어, 시야 센서는 카메라일 수 있고, 처리에는 예를 들어 책 또는 휴대형 장치(스마트폰 또는 태블릿), 컴퓨터 화면 식별과 같은 2D 이미지에서 물체를 찾는 것이 포함된다. 이것은 카메라 이미지로 사용자의 활동을 이해하는 것을 포함한다.
더 많은 세부사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 3에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1 및 2) 또는 아래에서(예를 들어, 도 4 내지 8) 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 4는 머리의 좌표계 및 정중면의 물체를 안경 평면으로 매핑하는 것을 개략적으로 도시한다. 활동이 좌우 대칭인 경우 정중면에 물체를 배치하는 것을 가정할 수 있다. 그러한 활동의 예로는 책과 같은 휴대형 미디어 읽기, 데스크탑 컴퓨터 작업, 작업대 작업 등이 있다. 이 경우 물체까지의 거리는 요(Yaw) 및 롤(Roll)에 관계없이 머리의 피치 각도와 함께 모니터링될 수 있다. 도 3에 제시된 활동을 예로 들 수 있다.
특정 시각적 태스크와 관련된 포인트 클라우드의 포인트(여기서는 포인트 A)의 각각의 좌표는 머리의 좌표계로 재계산된다. 특히, 광학 배율과 같은 광학 파라미터는 안경의 평면이 될 수 있는 투영 면에 매핑된다.
도 4에서 부호는 구체적으로 다음을 예시한다:
Pxz - 안경 평면;
Pyz - 정중면;
Pxy - Pxz 및 Pyz에 수직인 평면
P - 눈 동공 위치;
A - 물체의 점;
As- 안경 평면 상의 물체 점의 이미지;
O - 코의 뿌리;
Os - 안경 평면에 O의 투영;
OOs - 꼭지점 거리; 및
OP 거리 - 수직으로 조정된 단안 동공 거리.
또한, 특정 광학 보조기를 맞춤화하기 위해 파노라마 경사(렌즈 피치) 및 랩(wrap) 각도(렌즈 요)가 고려될 수 있다.
보다 일반적인 활동의 경우(예를 들어, 자동차 운전 중) 좌우 대칭을 가정할 수 없다. 이 경우 머리 방향 모니터링은 피치, 요 및 롤의 세 가지 각도 차원 모두에서 수행할 수 있다. 포인트 클라우드는 정중면에 국한되지 않고 3D 공간에서 형성된다. 예시된 기하학적 모델은 투영 면에 대한 렌더링(rendering)을 가능하게 하도록 추가로 확장될 수 있다.
더 많은 세부사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 4에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1 내지 3) 또는 아래에서(예를 들어, 도 5 내지 8) 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 5는 우측 눈에 대응하는 광학 보조기의 평면에서 광학 배율 맵 형태의 광학 배율 분배에 대한 요건을 개략적으로 도시한다. 예를 들어, 이러한 분포는 도 4에 표시된 기하학적 변환을 사용하여 도 3의 포인트 클라우드로부터 얻어질 수 있다. 이 경우 근거리 시야(NV) 영역은 사용자가 0.33m 거리에 있는 물체를 볼 수 있도록 3D의 광학 배율이 있는 영역을 갖는 광학 보조기에 대한 요건을 산출한다. 데스크탑 디스플레이를 볼 수 있는 중간 시야(IV) 영역은 1D(1m 거리)의 광학 배율의 제로 피치에 해당하는 영역을 생성한다. 마지막으로 광학 배율이 1D 미만(1m에서 무한대까지)인 원거리 시야 영역(FV)은 IV 영역 위에서 찾을 수 있다.
NV 영역은 중앙에서 약간 우측으로 도시되어 있다. 이것은 독서할 때 사용자의 코를 회전 방향으로 눈이 회전(수렴)하기 때문이다. 따라서 도 5는 노안의 사용자를 위한 우측 눈 안경 렌즈 맞춤 설정을 도시한다. 영역은 사용자의 요구에 맞게 맞춤화될 수 있다. 도 5에서 볼 수 있듯이, 광학 배율은 각각 불 균일하게 분포되어 영역의 전환도 원활할 수 있다.
결과적으로, 개인의 시각적 행동에 기반한 최적화된 렌즈 배율 매핑이 제공될 수 있다.
더 많은 세부사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 5에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1 내지 4) 또는 아래(예를 들어, 도 6 내지 8)에서 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 6은 누진 추가 안경 렌즈의 예로서 광학 보조기의 배율/프로파일의 가능한 구현을 개략적으로 도시한다. 도 5의 광학 보조기는 원형의 렌즈로, 안경에 장착하기 위한 렌즈를 점선을 따라 절단할 수 있다. 도 5에 표시된 필요한 배율 영역 프로파일은 렌즈로 구현할 수 없기 때문에, 안경 렌즈의 광학적 제한을 설명하고 원하는 프로파일과 최대한 가깝게 일치하는 실현 가능한 디자인을 찾기 위해 맞춤화 단계가 필요하다. 현대의 누진 추가 렌즈에는 높은 난시로 인해 좋은 시력에 사용할 수 없는 혼합 영역(BR)을 구비하고 있다. 그들은 원거리 및 근거리 시력을 위해 렌즈의 광학 배율을 혼합하는 데 필요하다. 광학 배율은 점진적 회랑을 따라 원거리 시력을 위한 DRP(Distance Reference Point)에서 근거리 시력을 위한 NRP(Near Reference Point)로 점진적으로 변경된다. 이러한 진행은 배율 프로필에 의해 규정된다. 다른 파라미터와 함께 배율 프로필을 필요한 분포에 맞게 최적화할 수 있다.
더 많은 세부사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 6에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1 내지 5) 또는 아래에서(예를 들어, 도 7 및 8) 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 7은 도 6의 누진 추가 렌즈 레이아웃과 함께 도 5의 설계 적합 요구 배율 맵을 구현하는 배율 프로파일의 예를 개략적으로 도시한다. 이러한 측정은 도 3에 따른 정중면의 거리 측정에 해당할 수 있다. 이 경우의 광학 배율은 시각적 태스크의 물체까지의 거리의 역수로 계산된다. 눈 피치 각도는 도 3의 시선 각도와 측정된 머리 각도로부터 계산된다. 이러한 측정은 다른 평면으로 확장될 수 있다. 특정 예에서, -5도보다 작은 각도의 피치는 DRP로부터 시작하여 원거리 시야를 구현한다. 0 부근의 피치에서, 배율은 1D와 같다(1m의 거리, 도 3의 데스크탑 디스플레이의 예에 해당). 피치 각도가 더 증가하면, 프로파일은 도 3의 휴대형 미디어에 해당하는 +3D(0.33m)의 배율로 NRP에 도달한다.
더 많은 세부사항 및 양태는 위에서 또는 아래에서 설명되는 실시형태와 관련하여 언급된다. 도 7에 도시된 실시형태는 제안된 개념 또는 위에서(예를 들어, 도 1 내지 6) 또는 아래에서(예를 들어, 도 8) 설명된 하나 이상의 실시형태와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 8은 광학 보조기의 평면에서 동공 직경의 투영을 개략적으로 도시한다. 특히, 광 강도/휘도 및/또는 광 스펙트럼 콘텐츠는 시야 센서에 의해 측정될 수 있고, 경험적 공식 및 모델을 사용하여 사용자의 동공 크기로 변환될 수 있다. 따라서, 광학 보조기는 사용자의 다양한 광도 노출을 위해 설계될 수도 있다. 눈은 상이한 조명 조건에서 다르게 수용하는 것으로 알려져 있다. 예를 들어, 특히 어두운 설정의 눈은 0.5 내지 2m(해당 2 내지 0.5D)만 수용한다. 초점 심도(망막에 충분한 품질로 이미징되는 광학 배율의 범위)는 동공 직경에 반비례하고, 이는 조명이 밝은 설정에서는 동공이 수축하고 범위가 증가한다. 초점 심도가 0.1D에서 0.5D로 변경된다. 이것은 광학 보조기의 설계에서 고려할 수 있다. 도 8의 예에서 동공은 아래쪽 영역에 대해 더 크며, 이는 초점 심도가 이러한 영역에서 감소됨을 의미한다. 이것은 도 5에 표시된 것과 같이 시각 보조기의 광학 배율 맵에 대한 정확도 요건을 규정하는 데 사용될 수 있다. 이 예에서, 광학 보조기의 설계는 낮은 영역(이 예에서는 근거리 시력에 사용됨)에 높은 정확도로 광학 배율을 전달해야 한다. 이 예에서, 상부 영역은 일반적으로 동공 크기가 감소하여 사용되므로 초점 심도가 증가하여 이 영역에서 초점을 흐리게 하는 허용 오차가 높아진다. 따라서 이 특정 경우에 상부 영역에 배치된 원거리의 광학 배율을 선택하는 데 더 높은 유연성이 있다.
더 많은 세부사항 및 양태는 위에서 또는 하기에서 설명되는 실시형태와 관련하여 언급된다. 도 8에 도시된 실시형태는 제안된 개념 또는 위에서 설명된 하나 이상의 실시형태(예를 들어, 도 1 내지 7)와 관련하여 언급된 하나 이상의 양태에 대응하는 하나 이상의 선택적 추가 특징을 포함할 수 있다.
도 6의 안경 평면의 예는 시각 보조기가 눈으로부터 분리되어 눈의 움직임이 시각 보조기의 광학 배율의 변화와 연관될 수 있는 경우를 예시한다.
시각 보조기의 또 다른 예는 눈과 함께 움직이는 콘택트 렌즈, 각막 임플란트 및/또는 안구 내(introcular)의 렌즈를 나타낼 수 있다. 이 경우 투영 면은 항상 시선과 정렬되고 머리 방향은 관련이 없다. 그럼에도 불구하고, 이 방법을 이용하면, 주변 시야의 물체를 투영 면에 매핑할 수 있게 한다. 도 2에 예시된 바와 같은 흐름도는 다양한 프로세스, 동작 또는 단계를 나타낼 수 있으며, 이는 예를 들어, 컴퓨터 판독 가능 매체에 실질적으로 표현될 수 있고, 따라서 그러한 컴퓨터 또는 프로세서가 명시적으로 도시되어 있는지 여부에 관계없이 컴퓨터 또는 프로세서에 의해 실행될 수 있다. 명세서 또는 청구범위에 개시된 방법은 이들 방법의 각각의 동작을 수행하기 위한 수단을 갖는 장치에 의해 구현될 수 있다.
명세서 또는 청구범위에 개시된 여러 동작, 프로세스, 행동, 단계 또는 기능의 개시는, 예를 들어 기술적인 이유로 명시적으로 또는 묵시적으로 달리 명시되지 않는 한, 특정 순서 내에 있는 것으로 해석되지 않을 수 있음을 이해해야 한다. 따라서, 여러 행동 또는 기능의 개시는 그러한 행동 또는 기능이 기술적인 이유로 상호 교환할 수 없는 경우가 아니면, 특정 순서로 제한되지 않는다. 또한, 일부 예에서, 단일 행동, 기능, 프로세스, 동작 또는 단계는 각각 다수의 하위 행동, 하위 기능, 하위 프로세스, 하위 동작 또는 하위 단계를 포함하거나 이들로 분할될 수 있다. 이러한 하위 행동은 명시적으로 제외되지 않는 한 이 단일 행동의 공개 및 일부로 포함될 수 있다.
하나 이상의 이전의 상세한 예 및 도면과 함께 언급되고 설명된 양태 및 특징은 또한 다른 예의 유사한 특징을 대체하기 위해 또는 다른 예에 기능을 추가로 도입하기 위해 하나 이상의 다른 예와 조합될 수 있다.
또한, 다음 청구범위는 이에 의해 상세한 설명에 통합되며, 여기서 각 청구범위는 그 자체로 별도의 예일 수 있다. 각 청구항은 그 자체로 별도의 예로서 존재할 수 있지만, 종속항은 청구항에서 하나 이상의 다른 청구항과의 특정 조합을 언급할 수 있을지라도, 다른 예는 종속항과 각각의 다른 종속항 또는 독립항의 발명 대상의 조합을 포함할 수도 있다는 것을 주목해야 한다. 이러한 조합은 특정 조합을 의도하지 않는 것으로 명시되지 않는 한 여기에서 명시적으로 제안된다. 또한, 이 청구항이 독립 청구항에 직접적으로 종속되지 않더라도, 다른 독립 청구항에 대한 청구항의 특징도 포함하도록 의도된다.
100: 시나리오 110 : 장치
120 : 시야 130 : 물체
150 : 머리 160 : 목
170 : 눈

Claims (15)

  1. 투영 면에서 광학 파라미터 분포를 결정하기 위한 시스템으로서,
    상기 시스템은:
    특정 비전 태스크와 관련된 사용자의 시야를 측정하고, 상기 특정 비전 태스크 중에 상기 사용자의 시선 방향을 결정하도록 구성된 시야 센서; 및
    상기 특정 비전 태스크 중에 상기 시야와 관련된 상기 사용자의 머리 방향 및/또는 위치를 측정하도록 구성된 머리 방향 및/또는 위치 센서를 포함하고,
    상기 시스템은,
    상기 사용자의 시선 방향과 상기 사용자의 머리 방향 및/또는 위치에 기초하여 상기 사용자의 머리에 대한 상기 사용자의 눈 방향의 계산을 가능하게 하여 상기 사용자의 시야와 망막 사이의 투영 면에서의 광학 파라미터 분포를 결정하도록 구성되는 광학 파라미터 분포의 결정 시스템.
  2. 제1항에 있어서,
    상기 시야 센서는 상기 특정 비전 태스크와 관련된 상기 사용자 시야의 물체를 식별하고, 상기 시야의 식별된 물체와 관련된 상기 사용자의 시선 방향을 도출하도록 구성되는 광학 파라미터 분포의 결정 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 시스템은 상기 사용자의 활동과 관련된 적어도 하나의 파라미터를 측정하도록 구성된 컨텍스트 센서를 더 포함하는 광학 파라미터 분포의 결정 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 시야 센서, 상기 머리 방향 및/또는 위치 센서, 및 상기 컨텍스트 센서 중 적어도 하나로부터 상기 사용자의 상기 비전 태스크 및/또는 상기 시야의 물체를 식별하도록 구성된 통계적 분류기를 더 포함하고,
    상기 식별은 자동으로 적어도 부분적으로 수행되는 광학 파라미터 분포의 결정 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 특정 비전 태스크와 관련된 상기 머리 방향 및/또는 위치 및 상기 시선 방향 모두를 저장하도록 구성된 메모리 장치를 더 포함하고,
    상기 저장된 머리 방향 및/또는 위치 및 상기 저장된 시선 방향은 상기 사용자의 시야와 망막 사이의 상기 투영 면에서 상기 광학 파라미터 분포를 결정하기 위한 기초를 형성하는 광학 파라미터 분포의 결정 시스템.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 머리 방향 및/또는 위치와 상기 시선 방향 사이의 대응하는 차이를 결정하고, 상기 사용자의 시야와 망막 사이의 상기 투영 면에서 상기 광학 파라미터 분포를 결정하도록 구성된 처리 장치를 더 포함하는 광학 파라미터 분포의 결정 시스템.
  7. 제5항 또는 제6항에 있어서,
    상기 처리 장치는 상기 저장된 머리 방향 및/또는 위치와 상기 저장된 시선 방향 사이의 대응하는 차이를 결정하고, 상기 사용자의 시야와 망막 사이의 상기 투영 면에서 상기 광학 파라미터 분포를 결정하도록 구성되는 광학 파라미터 분포의 결정 시스템.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 시스템은 상기 사용자가 착용하도록 구성된 머리 장착 착용형이거나, 또는 머리 장착 착용형으로 배열되는 광학 파라미터 분포의 결정 시스템.
  9. 제8항에 있어서,
    상기 착용형은 상기 시스템의 모든 요소들을 포함하는 단일 모듈인 광학 파라미터 분포의 결정 시스템.
  10. 제8항 또는 제9항에 있어서,
    각각의 머리 방향 및/또는 위치 센서와 각각의 시야 센서의 좌표계가 정렬되는 광학 파라미터 분포의 결정 시스템.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 시야 센서와 상기 머리 방향 및/또는 위치 센서는 서로 분리되고; 및/또는 상기 투영 면은 광학 보조기와 연관 및/또는 연결되는 광학 파라미터 분포의 결정 시스템.
  12. 상기 투영 면 상의 광학 파라미터 분포가 광학 보조기의 맞춤화에 사용되며, 광학 파라미터는,
    - 광학 배율;
    - 동공 직경;
    - 초점의 심도;
    - 빛의 스펙트럼 콘텐츠;
    - 빛의 각도 분포; 및
    - 빛의 편광 상태
    중 적어도 하나인, 제1항 내지 제11항 중 어느 한 항에 따른 시스템의 용도.
  13. 투영 면에서 광학 파라미터 분포를 결정하기 위한 방법으로서,
    시야 센서에 의해 특정 비전 태스크와 관련된 사용자의 시야를 측정하는 단계(S220);
    상기 시야 센서에 의해 상기 특정 비전 태스크 중에 상기 사용자의 시선 방향을 결정하는 단계(S230);
    머리 방향 및/또는 위치 센서에 의해 상기 특정 비전 태스크 중에 상기 시야에 대한 상기 사용자의 머리 방향 및/또는 위치를 측정하는 단계(S240); 및
    상기 사용자의 상기 시야와 망막 사이의 투영 면에서 광학 파라미터 분포를 결정하기 위해, 상기 사용자의 상기 시선 방향과 상기 사용자의 머리 방향 및/또는 위치를 기반으로 상기 사용자의 머리에 관한 상기 사용자 눈의 방향을 계산을 유효하게 하는 단계(S250)를 포함하는 광학 파라미터 분포를 결정하는 방법.
  14. 컴퓨터 프로그램 제품이 하나 이상의 처리 장치에서 실행될 때, 예를 들어, 상기 컴퓨터 프로그램 제품이 하나 이상의 컴퓨터 판독 가능 저장 매체에 저장되는, 제13항에 따른 방법을 수행하기 위한 프로그램 코드 부분을 포함하는 컴퓨터 프로그램 제품.
  15. 광학 보조기가 제13항에 따른 방법에 기초하여 또는 제1항 내지 제11항 중 어느 한 항에 따른 시스템을 사용하여 조정 가능한 광학 보조기.
KR1020227007382A 2019-09-05 2020-07-30 투영 면에 시각적 장면을 매핑하는 장치 및 방법 KR20220088678A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19195656.4A EP3789816A1 (en) 2019-09-05 2019-09-05 Device and method for mapping of visual scene onto projection surface
EP19195656.4 2019-09-05
PCT/EP2020/071539 WO2021043512A1 (en) 2019-09-05 2020-07-30 Device and method for mapping of visual scene onto projection surface

Publications (1)

Publication Number Publication Date
KR20220088678A true KR20220088678A (ko) 2022-06-28

Family

ID=67874361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227007382A KR20220088678A (ko) 2019-09-05 2020-07-30 투영 면에 시각적 장면을 매핑하는 장치 및 방법

Country Status (7)

Country Link
US (1) US20220280035A1 (ko)
EP (1) EP3789816A1 (ko)
JP (1) JP2022547893A (ko)
KR (1) KR20220088678A (ko)
CN (1) CN114616512A (ko)
IL (1) IL290662A (ko)
WO (1) WO2021043512A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192321A1 (en) * 2020-03-27 2021-09-30 Nec Corporation Image processing device, image processing method, and storage medium
CN117015335A (zh) 2021-03-30 2023-11-07 依视路国际公司 用于早期检测眼部疾病的方法和设备
WO2023233809A1 (ja) * 2022-05-30 2023-12-07 ソニーグループ株式会社 情報処理装置及び情報処理方法
US20240012472A1 (en) * 2022-07-08 2024-01-11 Tencent America LLC Vergence based gaze matching for mixed-mode immersive telepresence application
CN116184427B (zh) * 2022-12-21 2023-12-29 湖南迈克森伟电子科技有限公司 基于激光距离传感技术的距离探测***

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2264848B1 (es) * 2004-05-06 2008-01-01 Indo Internacional, S.A. Procedimiento y equipo para establecer el comportamiento visual de una persona, y procedimiento de personalizacion de una lente para montura.
FR3021204A1 (fr) * 2014-05-20 2015-11-27 Essilor Int Procede de determination d'au moins un parametre de comportement visuel d'un individu
EP3430468B1 (en) * 2016-03-15 2020-05-06 Essilor International Method for determining an ophthalmic lens adapted to a locomotion parameter
ES2774906T3 (es) * 2016-04-08 2020-07-23 Vivior Ag Dispositivo y método para medir distancias
CN109923499B (zh) * 2016-09-27 2022-07-29 托比股份公司 便携式眼睛追踪装置
CN107333121B (zh) * 2017-06-27 2019-02-26 山东大学 曲面屏幕上移动视点的沉浸式立体渲染投影***及其方法
EP3508882A1 (en) * 2018-01-09 2019-07-10 Vivior AG An apparatus and a method for passive scanning of an object or a scene

Also Published As

Publication number Publication date
EP3789816A1 (en) 2021-03-10
US20220280035A1 (en) 2022-09-08
IL290662A (en) 2022-04-01
JP2022547893A (ja) 2022-11-16
CN114616512A (zh) 2022-06-10
WO2021043512A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US11669161B2 (en) Enhancing the performance of near-to-eye vision systems
US12008723B2 (en) Depth plane selection for multi-depth plane display systems by user categorization
US20220057862A1 (en) Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
US11340702B2 (en) In-field illumination and imaging for eye tracking
JP6854647B2 (ja) 光学レンズ装置を着用者に対して最適化する方法
KR20220088678A (ko) 투영 면에 시각적 장면을 매핑하는 장치 및 방법
US8752963B2 (en) See-through display brightness control
US9110504B2 (en) Gaze detection in a see-through, near-eye, mixed reality display
US9213163B2 (en) Aligning inter-pupillary distance in a near-eye display system
JP2021511564A (ja) ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
JP2021532405A (ja) ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
US10353219B1 (en) Device, method and system to provide accommodation during a stereoscopic display
CN116033864A (zh) 使用非球形角膜模型的眼睛跟踪
KR101300670B1 (ko) 누진렌즈의 누진대 길이 설정을 위한 안구회선각 측정장치 및 그 방법
CN113840566A (zh) 确定被测眼睛的折射误差的一个或多个参数的装置、***和方法
JP2021532464A (ja) 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
US20230306781A1 (en) Predicting display fit and ophthalmic fit measurements using a simulator
US11662574B2 (en) Determining gaze depth using eye tracking functions
US20230057524A1 (en) Eyeglass devices and related methods
WO2024091263A1 (en) Fitting of head mounted wearable device from two-dimensional image
KR20240011791A (ko) 웨어러블 컴퓨팅 디바이스의 이미지 기반 피팅