KR20220002280A - 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법 - Google Patents

자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법 Download PDF

Info

Publication number
KR20220002280A
KR20220002280A KR1020217032119A KR20217032119A KR20220002280A KR 20220002280 A KR20220002280 A KR 20220002280A KR 1020217032119 A KR1020217032119 A KR 1020217032119A KR 20217032119 A KR20217032119 A KR 20217032119A KR 20220002280 A KR20220002280 A KR 20220002280A
Authority
KR
South Korea
Prior art keywords
subject
head
frame
data set
posture
Prior art date
Application number
KR1020217032119A
Other languages
English (en)
Inventor
길엠 에스깔리에
뽈 조렛
띠에리 봉냉
아망딘 드비외브르
Original Assignee
에씰로 앙터나시오날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에씰로 앙터나시오날 filed Critical 에씰로 앙터나시오날
Publication of KR20220002280A publication Critical patent/KR20220002280A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eyeglasses (AREA)

Abstract

본 발명은 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향(oriented) 3D 표현을 컴퓨터 수단을 이용하여 구현하는 방법에 관한 것으로, 상기 방법은 a) 제1 프레임에서의 대상자 머리의 제1 3D 표현과 상기 제1 프레임에서의, 대상자의 적어도 한쪽 눈의 회전 중심 위치에 상응하는 제1 데이터 세트를 수신하는 단계와, b) 제2 프레임에서의, 자연스럽게 바라보는 자세로 있는 대상자의 머리 방향에 상응하는 제2 데이터 세트를 구하는 단계와, c) b) 단계에서 결정된 대상자의 머리 방향에 기반하여, 공통 프레임에서의, 대상자 머리의 제1 3D 표현의 방향 결정에 의한 대상자 머리의 유향 3D 표현을 구현하는 단계를 포함한다.

Description

자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 구현하는 방법
본 발명은 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향(oriented) 3D 표현을 구현하는 방법에 관한 것이다. 또한 본 발명은 상기 방법에 의해 획득된 대상자 머리에 대한 유향 3D 표현을 이용하여 대상자에게 적합한 안경 렌즈의 피팅 변수를 결정하는 방법에 관한 것이다.
현재 안경점에서 대상자에게 적합한 안과 렌즈 및 선택된 안경 프레임에 적합한 안경 렌즈를 설계하고 제조하기 위해서는 한 가지 이상의 측정이 요구된다.
개인을 위한 광학 기기의 일종인 안과 렌즈를 개인과 관련된 변수 및 선택된 안경 프레임에 따라 개인 맞춤화시킬 수 있는 방법은 예를 들어 그 개인의 머리에 배치된 프레임을 기준으로 결정되는 양쪽 눈의 회전 중심 위치에 기반한다.
그러면 선택된 프레임에서의 각 안과 렌즈의 광학 중심 위치에 대한 정밀 측정이 가능해져, 안과 렌즈가 개인의 눈 앞에 정확하게 위치하게 된다.
여기서, 눈의 회전 중심 위치는, 안경 프레임을 착용하고 있는 자연스런 조건과는 매우 다른 조건 하에서, 개인의 자세를 고려하지 않고, 정적인 상태로 안과 렌즈와 관련하여 결정된다.
예를 들어, 공지된 방법들로는, 개인이 일상 생활에서 접하는 것과 유사한 조건일 때 그리고 개인이 움직이고 있는 동안에, 개인의 신체 자세와 관련하여 개인의 눈 회전 중심의 위치를 결정할 수 없다.
특히, 이미지 캡처 장치로 신체 자세를 측정할 수 있도록 하는 기존의 방법 및 장치들은 신체를 기준으로 눈의 회전 중심 위치를 결정할 수 있을 만큼 정밀하지 못하다.
결과적으로 안경점에서 이루어지는 여러 측정은 그 측정들이 수행되는 부자연스러운 조건 때문에 정확하지 않다.
전술한 종래 기술의 단점들을 보완하기 위해, 본 발명은 개인의 신체 자세를 고려하여 대상자 머리에 대한 유향 3D 표현을 구현하는 방법을 제시한다.
이를 위해, 본 발명은 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 컴퓨터 수단을 이용하여 구현하는 방법으로서,
a) 제1 프레임에서의 대상자 머리의 제1 3D 표현과 상기 제1 프레임에서의, 대상자의 적어도 한쪽 눈의 회전 중심 위치에 상응하는 제1 데이터 세트를 수신하는 단계와,
b) 제2 프레임에서의, 자연스럽게 바라보는 자세로 있는 대상자의 머리 방향에 상응하는 제2 데이터 세트를 구하는 단계와,
c) b) 단계에서 결정된 대상자의 머리 방향에 기반하여, 공통 프레임에서의, 대상자 머리의 제1 3D 표현의 방향 결정에 의한 대상자 머리의 유향 3D 표현을 구현하는 단계를 포함한다.
유리하게는, 이러한 방법을 통해, 대상자의 적어도 한쪽 눈의 회전 중심의 위치 결정과 함께, 소정의 자세에서의 유향 3D 헤드 스캔을 구현하기 위해 형태학적 측정 및 자세를 분리할 수 있다.
본 발명 덕분에, 3차원 머리 스캔에서의 대상자의 적어도 한쪽 눈의 회전 중심 위치를 결정할 수 있는 자세를 고려하지 않고도 정밀 계측화로 형태학적 측정을 수행할 수 있으며, 이를 후속 단계에서 계측 프레임으로 사용할 수 있다.
이어서, "제약이 없는" 상황에서 검안의/안경사(ECP)의 안내 하에 두 번째로 자세를 취한다.
공통 프레임은 자세 측정을 활용한 유향 형태학적 측정을 통해 a) 단계 및 b) 단계와 관련된다. 이러한 공통 프레임은 안경 프레임용 안과 렌즈를 설계하기 위해 현실 또는 가상 프레임을 피팅하는 데 사용되고 재사용될 수도 있는, 소정의 자세에서의 유향 3D 헤드 스캔이다.
단독으로 또는 조합하여 고려될 수 있는 추가 실시양태들에 따르면:
- b) 단계에서 대상자의 시선 방향이 결정되고;
- 공통 프레임의 원점은 대상자의 상기 적어도 한쪽 눈의 회전 중심에 기반하며;
- b) 단계에서, 대상자 머리의 자세에 제약이 없는 실생활 상황에 대상자가 있게 되고;
- b) 단계에서, 대상자는 한 가지 이상의 습관적 활동을 행하며;
- 대상자의 습관적 활동은:
ㆍ 다양한 매체(도서, 잡지, 스마트폰, 노트북 컴퓨터, 데스크탑 컴퓨터)로 읽기
ㆍ 스마트폰 또는 태블릿 사용하기(동영상 보기, 사진 보기, 사진 찍기)
ㆍ 책상에서 일하기,
ㆍ 운전하기,
ㆍ 운동하기,
ㆍ 요리하기,
ㆍ 게임 콘솔로 게임하기,
ㆍ 앉아서 쉬기,
ㆍ TV 시청하기,
ㆍ 악기 연주하기.
중 하나이고;
- b) 단계에서, 대상자 눈의 회전 중심의 위치는 대상자 머리의 이미지를 하나 이상 획득하는 것을 통해서 결정되며;
- 대상자의 시선 방향을 결정하기 위해, 대상자의 동공 이미지 또는 각막 반사를 b) 단계에서 캡처된 이미지에서 식별한 후, 시선이 가는 방향을 제2 기준 프레임에서의 회전 중심의 위치에 따라 유추하되, 상기 위치는 제1 기준 프레임의 제1 데이터 세트에서 결정되고;
- 대상자의 시선 방향을 결정하기 위해, 대상자가 있는 주변환경에서 대상자가 응시하고 있는 구성요소의 제2 기준 프레임에서의 위치를 결정하며;
- b) 단계에서, 제2 데이터 세트는 대상자가 어느 한 시각적 대상물에 시선을 고정시키고 있는 동안에 획득되는 대상자 머리에 대한 일련의 제2 이미지를 포함하며, 제2 이미지 캡처 장치를 기준으로 한 상기 시각적 대상물의 위치는 각각의 제2 이미지를 캡처하는 동안 결정되고;
- 상기 방법은 b) 단계 전에 보정 단계를 추가로 포함하며, 상기 보정 단계에서는 2차원 또는 3차원 이미지를 캡처하기 위한 제2 장치의 보정 작업이 수행하고, 이 보정 단계 동안에는 상기 제2 이미지 캡처 장치로 전용 표준 객체의 이미지를 캡처하며;
- b) 단계 동안, 상기 제2 이미지 캡처 장치의 공간 위치 및/또는 방향이 결정되고, 이로부터, 자연스럽게 바라보는 자세로 있는 대상자의 머리의 공간 위치 및/또는 방향과 관련된 정보를 구하며;
- 제1 데이터 세트는 제1 프레임에서의, 대상자의 양쪽 눈의 회전 중심의 위치를 포함하며, 공통 프레임의 원점은 대상자의 키클롭스의 눈(cyclopean eye)에 상응하고;
- 제1 데이터 세트는 3차원 이미지를 캡처하기 위한 제1 장치에 의해 획득되며, 상기 3차원 이미지는 대상자의 머리에 대한 제1 표현을 구성하고;
- 제1 데이터 세트를 획득할 때, 제1 기준 프레임에서의 회전 중심의 위치는:
ㆍ 이미지 캡처 장치를 사용하여 대상자 머리의 적어도 두 이미지를 캡처하는 단계로서, 대상자가 소정 위치의 관찰 지점에 시선을 고정하고 있는 이미지이며 상기 이미지 캡처 장치를 기준으로 본 대상자 머리의 자세에 관한 다양한 이미지인, 이미지 캡쳐 단계와,
ㆍ 상기 두 이미지 각각에 대한 대상자의 시선 방향을 결정하는 단계와,
ㆍ 대상자의 적어도 한쪽 눈의 회전 중심의 위치를 유추하는 단계
에 의해 결정되며;
- 제1 데이터 세트를 획득하는 단계 및 b) 단계는 서로 다른 이미지 캡처 장치를 사용하여 별개로 수행되고;
- c) 단계 이전의 단계에서, 제1 및 제2 데이터 세트 각각은 대상자의 식별자별로 저장된다.
본 발명의 또 다른 목적은 본 발명에 따른 방법에 의해 획득된 대상자 머리에 대한 유향 3D 표현을 이용하여 대상자에게 적합한 안경 렌즈의 피팅 변수를 결정하는 방법이다.
본 발명은 또한 전술한 바와 같은 그리고 본 발명에 따른, 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 컴퓨터 수단을 이용하여 구현하는 방법을 실행하기 위한 시스템에 관한 것이다. 더 구체적으로, 상기 시스템은:
메모리; 및
프로세서로서, 상기 메모리에 저장된 프로그램 명령어를 실행하여, 적어도:
a) 제1 프레임에서의 대상자 머리의 제1 3D 표현과 상기 제1 프레임에서의, 대상자의 적어도 한쪽 눈의 회전 중심 위치에 상응하는 제1 데이터 세트를 수신하고,
b) 제2 프레임에서의, 자연스럽게 바라보는 자세로 있는 대상자의 머리 방향에 상응하는 제2 데이터 세트를 구하고,
c) b) 단계에서 결정된 대상자 머리의 방향에 기반하여, 공통 프레임에서의, 대상자 머리의 제1 3D 표현의 방향 결정에 의한 대상자 머리의 유향 3D 표현을 구현하도록, 구성 배치된 프로세서
를 포함한다.
본 발명은 또한, 프로세서에 액세스할 수 있고 상기 프로세서에 의해 실행되었을 때 프로세서로 하여금,
- 본 발명에 따른, 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 컴퓨터 수단을 이용하여 구현하는 방법, 및/또는
- 본 발명에 따른 방법에 의해 획득된 대상자 머리에 대한 유향 3D 표현을 이용하여 대상자에게 적합한 안경 렌즈의 피팅 변수를 결정하는 방법
의 단계들을 수행하게 하는 하나 이상의 저장된 명령어 시퀀스를 포함한 컴퓨터 프로그램 제품에 관한 것이다.
본 발명은 또한 프로그램이 기록된 컴퓨터 판독가능 저장매체에 관한 것으로, 상기 프로그램에 의해 컴퓨터는 본 발명의 방법들 중 적어도 하나를 실행하게 된다.
본 발명은 또한 하나 이상의 명령어 시퀀스를 저장하고 본 발명에 따른 방법의 단계들 중 적어도 하나를 수행하도록 구성된 프로세서를 포함하는 장치에 관한 것이다.
이하 설명에서 명백하듯이, 달리 구체적으로 언급되지 않는 한, 명세서 전반에 걸쳐 "연산처리(computing)", "산출" 등과 같은 용어를 활용한 설명은 컴퓨터나 연산처리 시스템의, 또는 이와 유사한 전자 연산처리 장치의 동작 및/또는 프로세스로서, 연산처리 시스템의 레지스터 및/또는 메모리 내에서 물리적 수량으로 표현된 데이터를 연산처리 시스템의 메모리, 레지스터 또는 다른 정보 저장, 전송, 혹은 표시 장치들 내의 물리적(예컨대, 전자적) 수량으로 유사하게 표현되는 다른 데이터로 조작 및/또는 변환하는 것을 가리키는 것으로 이해하면 된다.
본 발명의 실시양태는 본원에서의 동작들을 수행하는 장치를 포함할 수 있다. 상기 장치는 원하는 용도를 위해 특별히 구성될 수 있거나, 또는 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터 혹은 디지털 신호 처리기("DSP")를 포함할 수 있다. 이러한 컴퓨터 프로그램은 컴퓨터 판독가능 저장매체에 저장될 수 있으며, 그 예로는 플로피 디스크, 광학 디스크, CD-ROM, 자기 광학 디스크, ROM(읽기 전용 메모리), RAM(Random Access Memory), 전기적으로 프로그래밍이 가능한 읽기 전용 메모리(EPROM), 전기적으로 지우고 프로그래밍이 가능한 읽기 전용 메모리(EEPROM), 자기 또는 광학 카드, 또는 전자 명령을 저장하기에 적합하고 컴퓨터 시스템 버스로 결합될 수 있는 기타 유형의 매체를 비롯한, 임의의 유형의 디스크가 있되 이에 제한되지는 않는다.
본원에 제시되는 프로세스 및 디스플레이는 본질적으로 어느 특정 컴퓨터나 기타 장치와 관련이 없다. 다양한 범용 시스템을 본 명세서의 교시내용에 따른 프로그램과 함께 사용할 수 있거나, 원하는 방법을 수행하기 위해 보다 전문화된 장치를 구성하는 게 편리한 것으로 판명될 수도 있다.
이러한 다양한 시스템에 바람직한 구조를 이하 설명에 제공하기로 한다. 또한, 본 발명의 실시양태들을 어떠한 특정 프로그래밍 언어와 관련하여 설명하지는 않았다. 본원에 설명된 바와 같이 본 발명의 교시내용을 구현하는 데 있어서 다양한 프로그래밍 언어를 사용할 수 있다는 점을 이해할 것이다.
이제 본 발명의 실시양태들을 첨부된 도면을 참조로 단지 예로서 설명하기로 한다.
도 1은 본 발명에 따른, 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 구현하기 위한 방법의 흐름도를 나타낸다.
도 2는 본 발명의 다른 실시양태에 따른, 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 구현하기 위한 방법의 흐름도를 나타낸다.
도 3은 대상자의 자세를 측정하는 방법을 예시한다.
도면에 표시된 구성요소들은 간결함과 명료성을 위해 예시된 것으로, 반드시 실제 크기에 비례하도록 그려진 것은 아니다. 예를 들어, 본 발명의 실시양태들에 대한 이해를 향상시키는 데 도움이 되도록 도면의 일부 구성요소의 크기가 다른 구성요소들에 비해 과장되었을 수 있다.
도 1을 참조하면, 본 발명은 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3D 표현을 구현하는 방법에 관한 것이다. 실제로는 컴퓨터 수단을 이용하여 상기 방법을 구현한다.
본 발명과 관련하여, 착용자가 자연스럽게 바라보는 자세란 착용자가 자연스러운, 즉 제약이 전혀 없는, 주변환경에서 취하게 되는 자세이다. 예를 들어, 착용자의 전방 시야가 트여 있어야 한다. 다시 말해, 기기나 거울을 향하지 않아야 한다.
본 발명과 관련하여, "프레임"은 "안경 프레임"이라고 구체적으로 언급하지 않는 한 기준 프레임을 의미한다.
본 방법은:
a) 제1 데이터 세트를 수신하는 단계(S2),
b) 제2 데이터 세트를 구하는 단계(S4), 및
c) 유향 3D 표현을 구현하는 단계(S6)
를 적어도 포함한다.
제1 데이터 세트를 수신하는 단계(S2)에서는, 제1 프레임에서의 대상자 머리의 제1 3D 표현과 상기 제1 프레임에서의, 대상자의 적어도 한쪽 눈의 회전 중심 위치에 상응하는 제1 데이터 세트를 수신한다.
예를 들어, 제1 데이터 세트는 포인트 클라우드 또는 메쉬 형태이다.
3차원 이미지 획득 시, 대상자는 특정되지 않은 편한 자세로 기기 앞에 있게 되며, 적어도 한쪽 눈의 회전 중심 위치를 결정하기 위해 그리고 b) 단계를 위해, 계측 프레임에 놓일 정확한 머리 측정항목을 획득할 수 있다.
제1 데이터 세트는 정의되지 않은 프레임으로 표현되며, 기기 프레임이나 머리 프레임일 수 있다.
그리고나서, 제2 데이터 세트를 구하는 단계(S4)에서는 제2 프레임에서의, 자연스럽게 바라보는 자세로 있는 대상자의 머리 방향에 상응하는 제2 데이터 세트를 구한다.
제2 데이터 세트는 대상자 머리의 3D 표현에서의 기준점들의 특성, 이를테면 (나지온점(Nasion point))으로도 지칭되는 콧등점 및/또는 코끝점 및/또는 외안각 및/또는 내안각을 추가로 포함할 수 있다.
이 단계에서 검안의/안경사는 예를 들어 제1 데이터 세트를 수집하는 데 이용된 주변환경과는 다른 주변환경에서의 착용자의 자세들을 측정한다. 이들 자세는 자연스럽게, 즉 제약이 전혀 없이, 바라보는 자세이다. 예를 들어, 보다 대표적인 자세를 취하기 위해서는 착용자의 전방 시야가 트여 있어야 한다(거울 앞에 있으면 안 된다). 다시 말해, 검안의/안경사는 착용자의 일상생활에 더 가까운 주변환경에서 이러한 자연스럽게 바라보는 자세들을 확인한다.
이를 위해, 동일한 제2 프레임에서 머리 위치(3D 머리 스캔, 이미지 랜드마크...)와 응시 대상물을 측정한다. 후술되는 다양한 방법을 구현하여 대상자의 자세를 측정할 수 있다.
예를 들어, S4에서는, 대상자 머리의 자세에 제약이 없는 실생활 상황에 대상자가 있는 것이 바람직하다.
유리하게는, 제2 데이터 세트를 구하는 것과 관련된 b) 단계 시, 대상자는 한 가지 이상의 습관적 활동, 예를 들어 하기 활동들 중 하나를 행한다:
- 다양한 매체(도서, 잡지, 스마트폰, 노트북 컴퓨터, 데스크탑 컴퓨터)로 읽기
- 스마트폰 또는 태블릿 사용하기(동영상 보기, 사진 보기, 사진 찍기)
- 책상에서 일하기,
- 운전하기,
- 운동하기,
- 요리하기,
- 게임 콘솔로 게임하기,
- 앉아서 쉬기,
- TV 시청하기,
- 악기 연주하기.
바람직하게는, b) 단계 시, 대상자의 시선 방향이 결정된다.
일 실시양태에 따르면, 제2 데이터 세트를 구하는 것과 관련된 b) 단계 시, 대상자는 안경 프레임(예를 들어, 착용 대상자가 선택한 안경 프레임)을 착용할 수 있다. 이러한 실시양태에 따르면, 제2 데이터 세트는 안경 프레임의 특성, 이를테면 중간 브릿지 지점, 및/또는 박싱(boxing) 데이터 및/또는 프레임의 바닥 지점을 추가로 포함할 수 있다.
유향 3D 표현을 구현하는 단계(S6)에서는 대상자 머리의 제1 3D 표현의 방향 결정에 의한 대상자 머리의 유향 3D 표현은 머리에 연계된(link) 공통 프레임에서 S4 동안 결정된 대상자 머리의 방향에 기반하여 구현된다.
바람직하게, 공통 프레임의 원점은 대상자의 상기 적어도 한쪽 눈의 회전 중심에 기반한다.
바람직하게, 제1 데이터 세트는 제1 프레임에서의, 대상자의 양쪽 눈의 회전 중심의 위치를 포함하며, 공통 프레임의 원점은 대상자의 키클롭스의 눈에 상응한다.
또한, 제1 및 제2 데이터 세트 각각은 유리하게는 S6 이전의 단계에서 대상자의 식별자별로 저장된다.
전술한 실시양태와 양립되는 다른 실시양태에 따르면, 대상자 눈의 회전 중심의 위치는 b) 단계에서 대상자 머리의 이미지를 하나 이상 획득하는 것을 통해서도 결정된다.
바람직하게는, 대상자의 시선 방향을 결정하기 위해, 대상자의 동공 이미지 또는 각막 반사를 b) 단계에서 캡처된 이미지에서 식별한다. 그런 다음, 시선이 가는 방향을 제2 기준 프레임에서의 회전 중심의 위치에 따라 유추하되, 상기 위치는 제1 기준 프레임의 제1 데이터 세트에서 결정된다.
유리하게는, 대상자의 시선 방향을 결정하기 위해, 대상자가 있는 주변환경에서 대상자가 응시하고 있는 구성요소의 제2 기준 프레임에서의 위치를 결정한다.
전술한 실시양태들과 양립되는 또 다른 실시양태에 따르면, S4에서 제2 데이터 세트는 바람직하게는 대상자가 어느 한 시각적 대상물에 시선을 고정시키고 있는 동안에 획득되는 대상자 머리에 대한 일련의 제2 이미지를 포함한다. 제2 이미지 캡처 장치를 기준으로 본 상기 시각적 대상물의 위치는 각각의 제2 이미지를 캡처하는 동안 결정된다.
전술한 실시양태들과 양립되는 또 다른 실시양태에 따르면, 제1 데이터 세트는 바람직하게는 3차원 이미지를 캡처하기 위한 제1 장치에 의해 획득된다. 이러한 3차원 이미지는 대상자의 머리에 대한 제1 표현을 구성한다.
바람직하게, 상기 3차원 이미지는 프레임에 맞도록 한쪽 귀에서 다른 쪽 귀까지 범위로 구성된다.
3차원 이미지 획득 시, 대상자는 특정되지 않은 편한 자세로 기기 앞에 있게 되며, 적어도 한쪽 눈의 회전 중심 위치를 결정하기 위해 그리고 b) 단계를 위해, 계측 프레임에 놓일 정확한 머리 측정항목을 획득할 수 있다.
이러한 3차원 이미지는 사진 측량, 패턴/프린지 투영법, 입체 검사법 등으로 얻을 수 있다.
예를 들어, 도 2에 예시된 실시양태에 따르면, 제1 데이터 세트를 획득할 때, 제1 기준 프레임에서의 회전 중심의 위치는 유리하게는:
- 이미지 캡처 장치를 사용하여 대상자 머리의 적어도 두 이미지를 캡처하는 단계로서, 대상자가 소정 위치의 관찰 지점에 시선을 고정하고 있는 이미지이며 상기 이미지 캡처 장치를 기준으로 본 대상자 머리의 자세에 관한 다양한 이미지인, 이미지 캡쳐 단계(S22),
- 상기 두 이미지 각각에 대한 대상자의 시선 방향을 결정하는 단계(S24),
- 대상자의 적어도 한쪽 눈의 회전 중심의 위치를 유추하는 단계(S26).
에 의해 결정된다.
따라서, 제1 프레임에서의 회전 중심의 위치는 대상자가 동일한 시선 방향을 유지하는 동안 대상자의 다양한 머리 자세, 즉, 동일한 대상물(예를 들어, 중앙 카메라 렌즈)을 계속 응시하되 다양하게 머리를 기울이거나, 돌리거나(회전), 캡핑하는 자세를 캡처한 다수의 대상자 머리 이미지로부터 결정된다.
물론, 대안으로, 제1 프레임에서의 회전 중심의 위치는 대상물이 이동하는 동안 고정 상태에 있는 머리에서 캡처한 다수의 대상자 머리 이미지로부터 결정될 수 있다.
바람직하게는, 제1 데이터 세트를 획득하는 단계 및 S4는 서로 다른 이미지 캡처 장치를 사용하여 별개로 수행된다.
전술한 실시양태들과 양립되는 또 다른 실시양태에 따르면, 상기 방법은 b) 단계 전에 보정 단계를 추가로 포함하며, 상기 보정 단계에서는 2차원 또는 3차원 이미지를 캡처하기 위한 제2 장치의 보정 작업이 수행된다. 이 보정 단계 동안에는 상기 제2 이미지 캡처 장치로 전용 표준 객체의 이미지를 캡처한다.
유리하게는, b) 단계 동안, 상기 제2 이미지 캡처 장치의 공간 위치 및/또는 방향이 결정된다. 또한, 이로부터, 자연스럽게 바라보는 자세로 있는 대상자의 머리의 공간 위치 및/또는 방향과 관련된 정보를 구한다.
전술한 실시양태들과 양립되는 또 다른 실시양태에 따르면, 제1 및 제2 데이터 세트를 구할 때 동일한, 또는 적어도 동일한 유형의, 이미지 캡처 장치를 사용할 수 있다.
예를 들어, 대상자가 자연스러운 자세로 앞을 바라볼 때 대상자의 전방 시야가 넓게 트이도록 검안의/안경사 쪽의 테이블 위에 이미지 캡처 장치를 배치한다. 이미지 캡처 장치는 대상자의 얼굴을 볼 수 있도록 기울어져 있다. 이미지 캡처 장치의 높이는 대상자의 머리 위치보다 낮다.
a) 단계에서 대상자는 머리를 낮추고 이미지 캡처 장치를 보면서 적어도 2회 샷 또는 타임 시퀀스 동안 머리를 움직인다.
유리하게는, 머리를 낮추면 머리의 각도와 카메라의 시야각이 가깝기 때문에 더 나은 정밀 측정이 가능하다.
이 단계를 통해, 얼굴의 3D 정밀 측정, 머리에서의 눈 회전 중심 위치 정밀 측정, 그리고 궁극적으로는 대상자가 착용하고 있을 수 있는 안경 프레임(이를테면, 머리 상에서의 안경 프레임 위치 및/또는 안경 프레임의 모양)의 정밀 측정이 가능하다.
두 번째 단계에서, 대상자는 자세에 제약이 없는 상황에 있게 된다. 검안의/안경사는 대상자가 렌즈 피팅 측정에 최적인 자세로 있을 때 자세 측정을 한다. 이러한 자세 측정은 머리가 자연스러운 자세에 있을 때 동일한 이미지 캡처 장치를 사용하여 수행될 수 있다. 이 측정은 a) 단계에서의 측정이 끝난 후 다른 장소에서 한동안 수행할 수 있다. 머리 자세 측정은 간단하면서 빠른 측정이다.
본 발명의 다른 목적은 전술한 바와 같이 본 발명에 따른 방법에 의해 획득된 대상자 머리에 대한 유향 3D 표현을 이용하여 대상자에게 적합한 안경 렌즈의 피팅 변수를 결정하는 방법에 관한 것이다.
피팅 변수는 수집된 모든 데이터를 이용하여 결정될 수 있다.
예를 들어, 피팅 변수는, 오른쪽 눈의 눈 회전 중심의 3D 위치와 왼쪽 눈의 눈 회전 중심의 3D 위치 간의 유클리드 거리에 해당되는, 눈의 회전 중심간 거리를 포함할 수 있다.
피팅 변수는, 추가로 또는 대안으로, 코끝점 또는 콧등점을 이용하여 결정될 수 있는 반(semi)-동공거리를 포함할 수 있다. 머리 방향에 따라 코끝점 또는 콧등점의 직교 투영선을 산출한다. 코끝점 또는 콧등점의 투영선과 두 눈 회전 중심을 연결하는 선이 만나는 교차점은 반-동공 거리를 결정하는 섹션을 제공한다. 반-동공 거리는 이 교차점과 각각의 눈 회전 중심 간의 유클리드 거리이다.
그런 후에는, 이러한 피팅 변수를 이용하여 대상자에게 적합한 안경 렌즈를 제조 및 공급할 수 있다.
이하, 대상자의 자세를 측정하는 다양한 방법을 설명한다.
실시예 1
첫 번째 방법에 따르면, 검안의/안경사(ECP)는 대상자의 적어도 한쪽 눈의 회전 중심의 방향을 결정하기 위해 "자연스러운" 자세 측정을 다룬다. 자신의 전문 지식을 바탕으로 검안의/안경사는 언제 착용자가 올바른 자세를 취하고 있는지를 판단한다.
예를 들어, 정적인 상황에서는, 대상자가 멀리 있는 물체들을 향해 똑바로 앞을 바라볼 수 있고, 검안의/안경사는 이러한 대상자 앞에 서서 오른쪽 눈과 왼쪽 눈을 차례로 고정시킨다. 동적인 상황에서는 대상자가 걸을 수 있거나 사회적 상호작용을 할 수 있다.
대상자의 시야에서 떨어져 있는 전용 장치는 이전에 행해진 머리의 3D 표현과 관련하여 머리 자세를 측정하고, 현실 세계 환경에서 적어도 한쪽 눈의 회전 중심(ERC)의 방향(ERC 방향)을 결정한다.
자세 기록 작업은 1회 샷 또는 타임 시퀀스 동안 수행될 수 있다. 측정 작업은 온라인 또는 오프라인으로 수행될 수 있다. 검안의/안경사는 자세 측정 중 가장 좋은 부분이나 순간을 선택하여 ERC 방향을 결정한다.
실시예 2
두 번째 방법에 따르면, 예를 들어 이전의 편안한 시력의 안경 또는 검안의/안경사가 직접 손으로 피팅해 준 새 안경이 좋은 자세를 나타내는 피팅이라면 검안의/안경사(ECP)는 이를 렌즈에 X자를 그리거나 선을 그어 표시한다.
그리고 나서, 렌즈 피팅을 한 상태에서 자연스러운 자세를 측정한다.
예를 들어, 대상자는 안경을 착용한 채로, 3차원 이미지 캡처 장치(예컨대, 3D 스캐너)를 구비한 거울 앞에 있을 수 있다. 대상자는 눈을 렌즈 상의 표시에 맞추고, 3D 스캐너는 안경이 착용된 상태의 머리를 다시 한번 측정하여 착용자 머리의 초기 3D 스캔에서 자연스러운 머리 자세를 산출한다.
이어서, 대상자에 올바른 자세를 제공하는 머리 각도들을 기록하고 이러한 머리 각도를 다른 안경 피팅 시 이용할 수 있다.
3D 스캐너, 또는 머리 자세를 제어하고 피팅 측정을 위해 대상자로 하여금 머리를 올바른 자세로 두게 요청하는 기타 장치 앞에서, 추가 피팅 측정을 수행할 수 있다.
착용자의 머리에 원격으로 피팅되는 디지털화된 새 안경은, 대상자 머리의 키클롭스 ERC가 포함된 3D 스캔을 활용함으로써, 이전에 기록된 좋은 피팅 자세를 토대로 산출된 렌즈 피팅 측정치를 가질 수 있다.
실시예 3
도 3에 예시된 세 번째 방법에 따르면, 대상자는 가상 현실 헤드셋을 착용한다. 대상자 머리의 3D 표현을 활용함으로써, 대상자 머리에 놓인 가상 현실 헤드셋의 위치 및/또는 방향을 안경점 룸(현실 세계)으로 결정할 수 있다.
대상자는 가상 현실 환경으로 들어가 대상자의 라이프스타일에 따라 개인 맞춤화가 가능한 한 가지 또는 여러 가지 활동을 수행한다.
헤드셋 추적 시스템을 활용하여 현실 세계에서의 헬멧의 위치를 결정하고 이러한 헤드셋/머리를 적용함으로써 머리 자세를 측정한다.
검안의/안과사는 이전 단계들의 결과를 토대로 피팅 자세를 선택할 수 있다.
앞에서 설명한 바와 같이, 대상자에 올바른 자세를 제공하는 머리 각도들을 기록하고 이러한 머리 각도를 다른 안경 피팅 시 이용할 수 있다.
실시예 4
네 번째 방법에 따르면, 대상자는 머리에 직접 고정되도록 구성된 센서 또는 IMU(관성 운동 장치) 센서를 구비한 헤드밴드와 같은 머리 자세 측정 장치를 착용한다. 사용자 머리로의 방향을 결정할 수 있다.
검안의/안과사는 한 가지 또는 다양한 작업/활동 시의 렌즈 피팅 자세(들)를 측정한다.
IMU 센서 데이터는 검안의/안과사가 원할 때 저장 가능하다.
읽기, 먼 곳을 똑바로 바라보기, 기본 자세, 스마트폰 사용하기, 컴퓨터 사용하기, 사무실 책상에서 일하기 등 여러가지 작업/활동을 측정할 수 있다.
검안의/안과사는 이전 단계들의 결과를 토대로 피팅 자세를 선택할 수 있다.
대상자에 올바른 자세를 제공하는 머리 각도들을 기록하고 이러한 머리 각도를 다른 안경 피팅 시 이용할 수 있다.
전술한 바와 같은 본 발명은 신체의 자세 및 자연스럽게 바라보는 자세로 있는 대상자의 머리 자세를 고려하여 대상자 머리에 대한 유향 3D 표현을 구현할 수 있다.
위에서 본 발명은 발명의 일반적 개념에 제한을 두지 않고 여러 실시양태를 참조로 설명되었다.
전술한 예시적 실시양태들을 참조함으로써 당해 기술분야의 숙련자는 많은 추가적 수정예 및 변형예를 유추할 수 있으며, 이러한 수정예 및 변형예는 단지 예로 주어졌을 뿐, 본 발명의 권리 범위를 제한하고자 함이 아니며, 본 발명의 권리 범위는 오로지 첨부된 청구범위에 의해서만 정의된다.
청구범위에서, "포함하는"이란 용어는 다른 구성요소들이나 단계들을 배제하지 않으며, 단수 표현인 "하나"는 복수를 배제하지 않는다. 상이한 특징들이 서로 다른 종속항에 인용되어 있다는 사실만으로 이러한 특징들의 조합을 유리하게 사용할 수 없다는 것을 나타내지는 않는다. 청구범위에 사용된 참조 부호를 본 발명의 권리 범위를 제한하는 것으로 해석하면 안된다.

Claims (15)

  1. 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향(oriented) 3D 표현을 컴퓨터 수단을 이용하여 구현하는 방법으로서,
    a) 제1 프레임에서의 대상자 머리의 제1 3D 표현과 상기 제1 프레임에서의, 대상자의 적어도 한쪽 눈의 회전 중심 위치에 상응하는 제1 데이터 세트를 수신하는 단계와,
    b) 제2 프레임에서의, 자연스럽게 바라보는 자세로 있는 대상자의 머리 방향에 상응하는 제2 데이터 세트를 구하는 단계와,
    c) b) 단계에서 결정된 대상자의 머리 방향에 기반하여, 공통 프레임에서의, 대상자 머리의 제1 3D 표현의 방향 결정에 의한 대상자 머리의 유향 3D 표현을 구현하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서,
    b) 단계에서 대상자의 시선 방향을 결정하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    공통 프레임의 원점은 대상자의 상기 적어도 한쪽 눈의 회전 중심에 기반하는, 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    b) 단계에서, 대상자 머리의 자세에 제약이 없는 실생활 상황에 대상자가 있는, 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    b) 단계에서, 대상자는 한 가지 이상의 습관적 활동을 행하는, 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    b) 단계에서, 대상자 눈의 회전 중심의 위치는 대상자 머리의 이미지를 하나 이상 획득하는 것을 통해서 결정되는, 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    대상자의 시선 방향을 결정하기 위해, 대상자의 동공 이미지 또는 각막 반사를 b) 단계에서 캡처된 이미지에서 식별한 후, 시선이 가는 방향을 제2 기준 프레임에서의 회전 중심의 위치에 따라 유추하되, 상기 위치는 제1 기준 프레임의 제1 데이터 세트에서 결정되는, 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    대상자의 시선 방향을 결정하기 위해, 대상자가 있는 주변환경에서 대상자가 응시하고 있는 구성요소의 제2 기준 프레임에서의 위치를 결정하는, 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    b) 단계에서, 제2 데이터 세트는 대상자가 어느 한 시각적 대상물에 시선을 고정시키고 있는 동안에 획득되는 대상자 머리에 대한 일련의 제2 이미지를 포함하며, 제2 이미지 캡처 장치를 기준으로 본 상기 시각적 대상물의 위치는 각각의 제2 이미지를 캡처하는 동안 결정되는, 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    제1 데이터 세트는 제1 프레임에서의, 대상자의 양쪽 눈의 회전 중심의 위치를 포함하며, 공통 프레임의 원점은 대상자의 키클롭스의 눈(cyclopean eye)에 상응하는, 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    제1 데이터 세트는 3차원 이미지를 캡처하기 위한 제1 장치에 의해 획득되며, 상기 3차원 이미지는 대상자의 머리에 대한 제1 표현을 구성하는, 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    제1 데이터 세트를 획득할 때, 제1 기준 프레임에서의 회전 중심의 위치는:
    - 이미지 캡처 장치를 사용하여 대상자 머리의 적어도 두 이미지를 캡처하는 단계로서, 대상자가 소정 위치의 관찰 지점에 시선을 고정하고 있는 이미지이며 상기 이미지 캡처 장치를 기준으로 본 대상자 머리의 자세에 관한 다양한 이미지인, 이미지 캡쳐 단계와,
    - 상기 두 이미지 각각에 대한 대상자의 시선 방향을 결정하는 단계와,
    - 대상자의 적어도 한쪽 눈의 회전 중심의 위치를 유추하는 단계
    에 의해 결정되는, 방법.
  13. 제11항 또는 제12항에 있어서,
    제1 데이터 세트를 획득하는 단계 및 b) 단계는 서로 다른 이미지 캡처 장치를 사용하여 별개로 수행되는, 방법.
  14. 제1항 내지 제13항 중 어느 한 항에 따른 방법에 의해 획득된 대상자 머리에 대한 유향 3D 표현을 이용하여 대상자에게 적합한 안경 렌즈의 피팅 변수를 결정하는 방법.
  15. 프로세서에 액세스할 수 있고 상기 프로세서에 의해 실행되었을 때 프로세서로 하여금 제1항 내지 제14항 중 어느 한 항에 따른 단계를 수행하게 하는 하나 이상의 저장된 명령어 시퀀스를 포함하는, 컴퓨터 프로그램 제품.
KR1020217032119A 2019-04-30 2020-04-27 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법 KR20220002280A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19305549.8 2019-04-30
EP19305549 2019-04-30
PCT/EP2020/061646 WO2020221701A1 (en) 2019-04-30 2020-04-27 Method for determining an oriented 3d representation of the head of a person in a natural visual posture

Publications (1)

Publication Number Publication Date
KR20220002280A true KR20220002280A (ko) 2022-01-06

Family

ID=66625871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032119A KR20220002280A (ko) 2019-04-30 2020-04-27 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법

Country Status (6)

Country Link
US (1) US20220229312A1 (ko)
EP (1) EP3963389A1 (ko)
JP (1) JP2022531258A (ko)
KR (1) KR20220002280A (ko)
CN (1) CN113692551B (ko)
WO (1) WO2020221701A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115729356B (zh) * 2023-01-10 2023-07-21 西安飞蝶虚拟现实科技有限公司 基于习惯分析的3d远程互动的动作优化***

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2264848B1 (es) * 2004-05-06 2008-01-01 Indo Internacional, S.A. Procedimiento y equipo para establecer el comportamiento visual de una persona, y procedimiento de personalizacion de una lente para montura.
EP2963483B1 (en) * 2013-02-28 2024-04-10 HOYA Corporation Spectacle lens design system, supply system, design method and manufacturing method
FR3021205B1 (fr) * 2014-05-20 2021-12-24 Essilor Int Procede de determination d'au moins un parametre comportemental
FR3021204A1 (fr) * 2014-05-20 2015-11-27 Essilor Int Procede de determination d'au moins un parametre de comportement visuel d'un individu
US10386657B2 (en) * 2017-05-06 2019-08-20 Optikam Tech, Inc. System and method for obtaining lens fabrication measurements that accurately account for natural head position

Also Published As

Publication number Publication date
CN113692551B (zh) 2024-03-12
WO2020221701A1 (en) 2020-11-05
JP2022531258A (ja) 2022-07-06
US20220229312A1 (en) 2022-07-21
EP3963389A1 (en) 2022-03-09
CN113692551A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
US20200410775A1 (en) Systems and methods for determining the scale of human anatomy from images
JP5497627B2 (ja) 対象者の眼の注目点の矢状面における水平方向の位置を計測する方法
US7740355B2 (en) Device and method for determining optical parameters
JP6625976B2 (ja) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
JP6332392B2 (ja) 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置および眼鏡レンズ選択方法
CN106922182A (zh) 确定眼睛的显著点的位置和跟踪眼镜配戴者的注视方向的设备和方法
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
US10620454B2 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images
JP2020079948A (ja) 光学パラメータを決定するための装置および方法
KR102195268B1 (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
JP2014042806A (ja) 注視線測定方法、注視線測定装置、眼球回旋点測定方法及びアイポイント測定装置
CN112183160A (zh) 视线估计方法及装置
US10036902B2 (en) Method of determining at least one behavioural parameter
KR20220002280A (ko) 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법
US20220146861A1 (en) Method for determining the optical center point of the lenses of spectacles to be manufactured for a spectacle wearer
CN111417893B (zh) 用于检验眼科镜片在镜架中的安装的方法和组件
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
CA3066526A1 (en) Method and system for determining a pupillary distance of an individual
US20240249477A1 (en) Fit prediction based on feature detection in image data
US12014462B2 (en) Generation of a 3D model of a reference object to perform scaling of a model of a user's head