KR20150102941A - 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법 - Google Patents

피검자의 비전 파라미터들을 결정하는 것을 돕는 방법 Download PDF

Info

Publication number
KR20150102941A
KR20150102941A KR1020157010814A KR20157010814A KR20150102941A KR 20150102941 A KR20150102941 A KR 20150102941A KR 1020157010814 A KR1020157010814 A KR 1020157010814A KR 20157010814 A KR20157010814 A KR 20157010814A KR 20150102941 A KR20150102941 A KR 20150102941A
Authority
KR
South Korea
Prior art keywords
subject
images
image capturing
face
capturing device
Prior art date
Application number
KR1020157010814A
Other languages
English (en)
Other versions
KR102093953B1 (ko
Inventor
파스칼 도멧
데이비드 엔카와
Original Assignee
엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스) filed Critical 엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스)
Publication of KR20150102941A publication Critical patent/KR20150102941A/ko
Application granted granted Critical
Publication of KR102093953B1 publication Critical patent/KR102093953B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Dentistry (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Eyeglasses (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 피검자(100)의 비전 파라미터를 결정하는 것을 돕는 방법에 관한 것이며, 상기 방법은 다음의 단계들, - 카메라(10)에 의해 두 개의 서로 다른 각도들로부터 상기 피검자의 얼굴의 두 개의 이미지들(I1, I2)을 촬영하는 단계(120)와, 상기 피검자(S)는 자연스러운 원거리 비전 포즈(natural distant vision posture)로 있고, - 이미지들이 촬영될 때 지면에 대한 상기 카메라(10)의 경사(inclination)를 결정하는 단계(130)와, - 이로부터 상기 피검자(S)의 얼굴의 경사 및 캡 각도 값(cap angle value)을 추론(deduce)하는 단계(140)를 포함하며, 상기 카메라는 상기 이미지들(I1, I2)이 촬영될 때(단계 120) 상기 피검자의 중심와 영역(foveal area) 외부에 배치된다.

Description

피검자의 비전 파라미터들을 결정하는 것을 돕는 방법{METHOD FOR HELPING DETERMINE THE VISION PARAMETERS OF A SUBJECT}
본 발명은 피검자(subject)의 얼굴의 일반적인 포즈(posture)의 분석 및 오퍼레이터, 일반적으로는 안경사(optician)에 의해 수행되는 측정들을 하는 것에 관한 것이며, 상기 오퍼레이터는 그가 착용해야 하며 또한 프레임들에 장착되는 교정 렌즈(corrective lens)들 또는 안과 렌즈(ophthalmic lens)들의 광학 특성의 개인화 및 최적화를 위해 피검자의 눈들에 대한 교정 렌즈들의 임플랜테이션(implantation)의 일반적인 구성을 결정하는 데 필요한 데이터의 획득을 진행한다.
피검자의 프레임 내의 렌즈들의 포지션을 눈들의 동공(pupil)들과 상기 프레임의 상대적인 포지션에 대하여 최적화하는 것을 목적으로 하는 수많은 시스템들이 이미 알려져 있다. 이를 위해, 상기 프레임을 착용한 얼굴의 고정된 또는 애니매이션된 이미지들이 카메라로 촬영되고, 상기 눈들의 포지션의 검출뿐만 아니라 상기 프레임의 포지션의 검출이 수행된다.
특히, 본 출원인의 이름으로 출원된 문서 FR 2 860 887는, 고정된 카메라 앞에서 움직(movement)이는 동안의 피검자의 얼굴의 일련의 애니매이션된 이미지들에 기초하여, 눈들 및 프레임의 상대적인 포지션의 최적 정의를 가지도록 상기 얼굴이 카메라 상에서 최적으로 포커싱되는 기준 이미지가 결정되는 시스템을 개시한다.
동시에, 안과 렌즈들의 제조자들은 오늘날, 피검자의 시선(glance)이 움직일 때 상기 피검자의 거동(behavior)을 검사함으로써, 특히 소위 누진 렌즈(progressive lens)들의 기술로 이러한 렌즈들의 디자인을 최적화하는 것을 시도한다. 예를 들어, 본 출원인의 이름으로 출원된 문서 FR 2 892 529는 시스템을 개시하는 바, 상기 시스템은
- 카메라,
- 상기 카메라에 의해 촬영된 이미지들이 디스플레이되게 하는 스크린,
- 상기 피검자의 얼굴에 고정적으로 착용될 수 있고 복수의 시각적 마커들을 수반하는 악세서리,
- 상기 카메라에 대해 적어도 두개의 결정된 포지션들 I1, I2를 커버할 수 있는 시각적 타겟(들)을 형성하는 수단,
- 상기 카메라에 의해 촬영된 이미지들에서의 시각적 마커들의 포지션을 분석할 수 있는 이미지 분석 수단을 포함한다. 그 다음, 상기 이미지 분석의 수단은 상기 포지션 및 상기 악세서리의 공간에서의 캡 각도 값(cap angle value)을 추론(deduce)하고 그러므로 피검자가 시각적 타겟(들)을 형성하는 수단의 서로 다른 영역들을 관찰할 때 상기 피검자의 얼굴의 캡 각도 값을 추론하여, 특히, 일 타겟으로부터 다른 타겟으로의 비전의 움직임 동안 상기 얼굴의 움직임의 상대적인 중요성뿐만 아니라 눈들의 이동(displacement)의 상대적인 중요성에 관한 정보를 추론한다.
전형적으로, 상기 악세서리는 도 2에 예시된 악세서리에 부합(conform)하고 프레임의 지향(orientation)을 강조하기 위해 특별히 선택된 기하학적 지시자(geometric indicator)를 형성하는 수단을 포함한다. 이는 상기 프레임들의 브랜치들을 따라 그리고/또는 상기 프레임의 상면에 상향으로 위치된 일련의 시각적 마커들을 구비하는 직선 지지체(rectilinear support)로 구성될 수 있다.
그 다음, 상기 시스템은 동공들의 포지션, 이들의 간격, 등과 같은 파라미터들의 정밀한 측정을 가능하게 하는 바, 그 이유는 피검자 및 시각적 마커들의 포지셔닝뿐만 아니라 (시각적 타겟들 덕분의) 피검자의 시선의 방향이 측정의 시스템 자체에 대해 공간적으로 알려지고 측정되기 때문이다.
측정들이 정확해지기 위해, 또한, 피검자의 얼굴은 기준 포즈로 있어야 하고, 시스템을 이용하여 측정을 하기에 적합한 포지션에서 주시(watch)해야 한다.
본 발명이 관심을 가지는 시스템의 기준 포즈는 원거리 비전(distant vision)의 포즈인 바, 여기서 피검자는 자연스러운 포지션으로 유지되고, 수평면으로 자신의 앞에 무한한 직선에서의 일 지점(point)을 바라본다(glance). 변형예로서, 상기 기준 포즈는 책읽는 포즈와 같은 근거리 비전 포즈(close vision posture)에 대응할 수 있고, 상기 근거리 비전 포즈는 피검자가 자신의 눈들로부터 약 40 센치미터 지점을 바라보고 수평면에 비해 약 30°만큼 자신의 시선을 낮추는 포지션이다.
피검자의 포즈는 (비 제한적인 방식으로) 예컨대, 알려진 시선 방향에 대한 두 개의 각도들에 의해 기술될 수 있다.
제1 각도는 얼굴의 캡 각도 값에 대응하며, 즉 피검자가 자신의 바로 앞에 위치된 객체를 볼 때 얼굴을 좌측 또는 우측으로 더 또는 덜 돌리는 경향을 가진다는 사실을 반영하는 지향된 각(oriented angle)에 대응한다.
제2 각도는 얼굴의 수직 경사에 대응하며, 즉 피검자가 자신의 바로 앞에 위치된 객체를 볼 때 얼굴을 더 또는 덜 올리거나 또는 낮추는 경향을 가진다는 사실을 반영하는 지향된 각도에 대응한다. 주어진 프레임에 대해, 이 제2 각도는 광시야 각(pantoscopic angle)의 측정일 수 있는 바, 즉 수직에 대해 교정 렌즈의 평균 평면(mean plane)의 경사의 측정일 수 있다 .
피검자의 동공들 사이의 거리(교정 디바이스들의 제조를 위한 파라미터들 중 하나)를 결정하기 위해, 안경사는 일반적으로, 동공측정계(pupillometer)를 이용한다. 이 경우, 캡 각도 값은 상기 동공측정계가 피검자의 안면(front)에 기대어 있기 때문에 0(zero)인 것으로 임의로 가정된다. 그럼에도 불구하고, 이 디바이스는 개별적으로 측정되어야 하는 광시야각이나, 해당되는 경우 피검자가 자신의 머리를 측으로 받치는(hold) 방식(피검자의 기준 포지션에서 약간 오른쪽 또는 왼쪽으로 보는 피검자의 경향)을 가진다는 사실을 고려하게 하지 않는다.
그러므로, 이 접근법은 피검자가 취하는 포지션이 자신의 자연스러운 포지션에 정확하게 대응하는 것을 보증하지 못한다. 그러나, 이 자연스러운 포지션은 매우 중요한 바, 그 이유는 이 자연스러운 포지션은 피검자가 자신이 최대로 편안한 포지션에서 안경의 렌즈들에 자신의 시선을 프로젝팅하게 되는 방식을 결정하기 때문이다. 그러므로, 양호하지 않은(bad) 포즈는 렌즈들의 센터링(centering)의 양호하지 않은 측정들로 이어진다. 따라서, 안경의 렌즈들을 통한 시선의 프로젝션의 계산을 위해 포즈가 정확한 이미지를 선택하고 따라서 측정 동안 피검자의 포지션의 질(quality)을 평가하는 것이 가장 중요하다.
더욱이, 상기에 기술된 모든 이러한 시스템들 및 절차들은 피검자로 하여금 어떤 시각적 방해(hindranc)를 가짐이 없이 수평으로 똑바른 거리에서 주시하게 할 수 없고, 뷰잉 디바이스들은 피검자가 원거리 비전에 있을 때 상기 피검자의 시계(visual field)에 위치된다. 사실상, 원근도의 에러들(errors of perspective)을 회피하기 위해, 이미지 캡쳐링 디바이스는 피검자의 시선의 시축(optical axis) X에 가능한 가까이 있어야 하며, 따라서 피검자로부터 매우 멀리 디바이스를 위치시키거나(스토어에서 차지하는 많은 양의 공간 및 파워풀한 줌을 갖는 카메라의 사용) 또는 카메라보다 피검자로부터 먼 거리의 목표 지점을 시뮬레이션하는 것이 필수적이다. 그러므로, 시각적 타겟들은 종종 사용자에게 방해가 된다. 예를 들어, 거울에서의 피검자의 반사는 피검자와 시각적 타겟 사이의 거리를 두배로 만드는 것을 가능하게 하지만, 피검자가 근시이거나 또는 거울이 (거울의 사이즈 또는 거울의 반사 품질에 대해) 충분히 몰입적(immersive)이지 않으면, 이는 피검자의 얼굴의 정확한 지점에 포커스하는 것이 어렵다는 것을 입증할 수 있다. 그러므로, 피검자는 어렵게 자신의 자연스러운 원거리 비전 포즈를 채택해야만 할 수 있다.
추가적으로, 이들 시스템들은 측정 시스템의 인스톨(installation)에 이용가능한 공간에 의해 공간적으로 제한되어서, 시각적 타겟들은 일반적으로, 피검자와 가까이 유지되어, 피검자가 자신의 시선을 상기 시각적 타겟들에 포커스하는 것에 훨씬 더 제약을 준다. 마지막으로, 이들 시스템들은 벌키(bulky)하며, 원거리 비전을 근사화하기 위해 최소 공간을 요한다.
문서 DE 10 2010 015795는 스크린, 상기 스크린의 각 측 상에 배치된 두 개의 카메라들 및 프로세싱 시스템을 포함하는, 피검자의 센터링을 결정하기 위한 디바이스를 기술한다. 상기 카메라들은 바람직하게는, 피검자에게 가시적이지 않고, 비전 파라미터들을 측정하기 위해 피검자가 특별한 포지션들을 취하도록 선택된 이미지들이 스크린 상에 디스플레이된다. 머리-눈 계수(head-eye coefficient), 근거리 비전 및 원거리 비전에서의 눈의 회전 중심을 포함하는 여러 파라미터들이 결정된다. 그럼에도 불구하고, 디바이스로 기술되는 방법은 이를 착용한 사람에게 너무 짧은 거리를 요구(impose)하는 바, 이는 이 사람의 시선을 제약하며, 이 사람으로 하여금 스스로를 자연스러운 기준 포즈로 있지 못하게 하고 무한히 먼 곳을 보지 못하게 한다. 더욱이, 이 문서에 기술된 시스템은 매우 벌키하다.
문서 EP 1 747 750는 부분적으로, 피검자의 시각적 거동을 확립하는 방법을 기술하며, 상기 방법은 다음의 단계들을 포함한다.
- 악세서리를 피검자에게 제공하는 단계.
- 스크린을 마주하여 피검자가 앉아있게 하는 단계, 피검자는 카메라들에 대해 중심화되어야 하며, 상기 카메라들은 피검자의 얼굴의 입체 카드(stereoscopic card)를 획득하도록 스크린의 각 측으로 확장된다.
- 피검자에게 스크린 상의 이미지를 따라가도록 요청하며, 얼굴의 움직임을 따라가는 단계.
- 이 이미지들에 기초하여 피검자의 거동을 결정하는 단계.
여기서 다시, 상기 방법은 상기 방법의 구현을 위해 상당한 공간을 요하며, 상대적으로 가까운 거리에 타겟 설정을 고정하도록 피검자를 제약하는 바, 이는 상기 피검자로 하여금 측정 동안 자연스러운 포즈를 취하지 못하도록 한다.
마지막으로, 문서 FR 2 971 861는 주변 광 조건들이 어떠하든지 간에, 착용자의 비전의 적어도 하나의 파라미터를 결정하기 위한 방법을 기술하며, 이러한 방법에서, 체커보드 타입의 보정 요소(calibration element)의 포지션이 피검자의 머리의 이미지 상에서 식별되고 이 이미지는 후속적인 캡쳐된 이미지들에서의 광도(luminosity)를 조정하기 위해 사용된다. 이를 위해, 이 문서는 여러 이미지들이 카메라를 이용하여 캡쳐되는 방법을 제안한다. 선행 이미지 상에서 검출된 보정 요소들 덕분에 각각의 캡쳐 간의 대조(contrast)가 개선된다. 그러므로, 이 방법은, 이미지 캡쳐링 디바이스에 의해 캡쳐되는 이미지들의 품질을 개선하는 것을 목적으로 한다. 그러나, 이는 또한, 벌키 시스템을 필요로 하며, 피검자의 이미지들이 마주하여 또는 옆모습으로(in profile) 촬영되어, 측정 동안 피검자의 시선을 선험적으로(a priori) 제약한다.
그러므로, 본 발명의 일 목적은 새로운 측정 방법 및 관련 시스템을 제안하는 것이며, 상기 새로운 측정 방법 및 관련 시스템은, 피검자의 응시(gaze)를 제약하지 않고 지금까지 알려진 디바이스들보다 더욱 다기능적인(polyvalent) 시력 교정 디바이스를 만들기 위해 필요한 비전의 파라미터의 정확한 결정을 할 수 있게 하고, 이를 저렴한 비용(moderate cost)으로 가능하게 한다.
여기서, 비전 파라미터들은 특히, 다음의 리스트들에 포함된 파라미터들을 의미한다: 광시야각, 동곡의 이격들/높이들의 측정 및 이 측정에서의 눈들의 수렴(convergence), 안경-눈 거리, 캡 각도 값, 눈-머리 계수, 등.
이를 위해, 본 발명은 피검자의 비전의 파라미터들의 결정을 돕는 방법을 제안하며, 상기 방법은 다음의 단계들을 포함한다.
- 포터블한 이미지 캡쳐링 디바이스에 의해 두 개의 서로 다른 각도들에서 피검자의 얼굴의 두 개의 이미지들을 캡쳐하는 단계, 상기 피검자는 원거리 비전에 대해 자연스러운 포즈로 있음.
- 이미지들이 캡쳐된 시간에 지면(ground)에 대한 이미지 캡쳐링 디바이스의 경사를 결정하는 단계.
- 이로부터 피검자의 얼굴의 경사 및 캡 각도 값을 추론하는 단계.
여기서 이미지 캡쳐링 디바이스는 이미지들이 캡쳐된 시간에 피검자의 중심와 구역(foveal zone) 외부에 설정된다.
이 방식으로, 이미지 캡쳐링 디바이스는 피검자의 시계에 시각적 방해물을 구성하지 않는다. 사실상, 이는 피검자의 시선의 축을 더이상 단절(cut)시키지 않아서, 현재는, 공간 또는 측정 디바이스에 의해 제약됨이 없이 수평으로 멀리 떨어진 타겟에 포커싱하는 것 및 머리의 캐리지(carriage) 및/또는 동공의 이격들/높이들을 측정할 시 눈들의 수렴에 연관된(connected) 에러들을 제한하는 것이 가능하다.
방법의 특징들을 제한하지는 않는 특정 옵션(option)은 다음과 같다.
* 이미지들의 캡쳐 동안 이미지 캡쳐링 디바이스가 피검자의 시축에 대하여 5°내지 30°의 꼭지각(apex angle), 바람직하게는 15°내지 25°사이의 꼭지각을 갖는 원뿔(cone)을 형성하는 피검자의 시계의 구역 외부에 배치된다.
* 하기에서 알 수 있는 바와 같이, 이미지들 중 하나는 피검자와 마주하여 촬영된다.
* 이미지들 중 하나는 측면으로부터 촬영된다.
따라서, 이미지 캡쳐링 디바이스의 이러한 배치는 피검자의 시계(field of vision)를 막지 않음으로써, 피검자의 시선 및 포지션을 제약하는 것을 회피하는 것을 가능하게 한다.
* 피검자의 동공들 중 적어도 하나 또는 각막 반사들 중 적어도 하나는 캡쳐된 이미지들 각각 상에서 가시적이다.
* 프로세스는 추가적으로, 시각적 마커들이 이미지들에서 식별되는 단계를 포함하며, 상기 시각적 마커들은 피검자의 얼굴에 고정되는 방식으로 착용될 수 있는 악세서리 상에 형성된다.
* 이미지 캡쳐링 디바이스는 비디오 카메라이며, 이미지 캡쳐 단계는 다음의 서브-단계들을 포함한다.
- 서로 다른 화각(angle of view)들에서 피검자의 복수의 이미지들을 획득하도록 피검자의 얼굴을 촬영하는 단계(film), 및
- 피검자의 이미지들 중 두 개의 서로 다른 각도들에서의 피검자의 얼굴의 적어도 두 개의 이미지들을 선택하는 단계.
* 방법은 또한, 이미지들에서 시각적 마커들이 식별되는 단계를 포함하며, 상기 시각적 마커들은 피검자의 얼굴의 단독 지점(singular point)들이다.
* 상기 이미지들은 두 개의 이미지 캡쳐링 디바이스들 - 상기 이미지 캡쳐링 디바이스들은 서로에 대해 위치 및 캡 각도 값이 알려짐 - 에 의해 동시에 촬영된다.
* 두 개의 이미지들의 캡쳐의 시간에, 피검자의 얼굴에는 광이 비추어진다(lighted).
* 이미지를 캡쳐하는 단계 동안, 광선(ray of light)이 피검자를 마주하는 배면(backing), 예컨대 수직 세그먼트 상으로 프로젝팅된다.
* 피검자의 얼굴의 경사 및 캡 각도 값은 이미지 캡쳐링 디바이스에 의해 국부적으로 또는 이미지 캡쳐링 디바이스로부터 멀리 있는 로컬 컴퓨터 상에서 또는 인터넷 서버 상에서 원격으로 결정된다.
* 이미지 캡쳐링 디바이스는 비디오 카메라를 포함하는 디지털 태블릿이다.
따라서, 본 발명에 부합하는 도움 방법을 구현하는 가능성은, 피검자의 이미지들을 촬영하고 피검자의 비전 파라미터들을 결정하기 위한 상업용 또는 전용일 수 있는 디지털 태블릿들을 채택하는 것을 가능한다.
본 발명의 다른 특징들, 목적들 및 장점들이 비 제한적인 예들로서 주어진 첨부된 도면들을 참조로 하여 다음의 상세한 설명을 읽을 시 더욱 분명해질 것이다.
도 1은 본 발명에 부합하는 피검자의 비전의 파라미터들을 결정하는 것을 돕기 위한 시스템의 실시예의 개략도이다.
도 2는 본 발명에 부합하는 시스템과 함께 사용될 수 있는 악세서리의 예이다.
도 3은 본 발명에 부합하는 시스템에서 사용될 수 있는 이미지 캡쳐링 디바이스의 실시예이다.
도 4a 및 4b는 본 발명에 부합하는 이미지 캡쳐들의 예를 도시한다.
도 5는 본 발명에 부합하는 피검자의 비전 파라미터들의 결정을 돕기 위한 방법의 실시예의 여러 가지 단계들을 도시하는 순서도이다.
본 발명에 부합하는 피검자 S의 비전 파라미터들의 결정을 도와주는 시스템(1)은 특히,
- 피검자 S의 얼굴 - 상기 피검자의 얼굴은 시각적 마커들을 포함함 - 의 이미지들을 촬영하도록 구성된 이미지 캡쳐링 디바이스(10)와,
- 상기 이미지 캡쳐링 디바이스의 움직임과 일체화된 경사계(inclinometer)와, 그리고
- 상기 이미지 캡쳐링 디바이스 및 상기 경사계에 연결된 프로세싱 수단을 포함한다.
일반적으로, 피검자의 비전 파라미터들을 결정하기 위해, 오퍼레이터(예컨대, 안경사)는 이미지 캡쳐링 디바이스에 의해 서로 다른 각도들에서 피검자의 적어도 두 개의 이미지들 I1, I2를 촬영하며, 이때 상기 피검자는 이미지 캡쳐들 I1, I2 중 어느 것에서도 상기 피검자를 방해하지 않도록 멀리 쳐다보고 있다.
이를 위해, 이미지 캡쳐링 디바이스는, 상기 피검자의 시선을 방해하지 않고 그리고 상기 피검자 S가 자연스러운 포즈로 위치하여 외부 제약 없이 멀리 쳐다보고 있게 하도록 상기 피검자의 시축 X로부터 멀리, 바람직하게는 상기 피검자의 중심와 영역 외부에 위치된다. 사실상, 피검자 S를 방해하지 않도록 중심와 구역을 막지 않는 것이 중요하다. 그러나, 방해의 위험(risk)들을 감소시키기 위해, 중심와 영역보다 넓은 영역을 마련하는 것이 바람직할 수 있다. 따라서, 일 실시예에 따르면, 이미지 캡쳐링 디바이스(10)는 캡쳐된 이미지들 I1 및 I2의 각각에 대해, 피검자 S의 각각의 눈의 시축 X에 대해 5°내지 30°의 꼭지각, 바람직하게는 15°내지 25°사이의 꼭지각을 가지는 원뿔을 형성하는 피검자 S의 시계의 영역 외부에 위치된다(상기 원뿔의 꼭지는 상기 피검자의 얼굴에서 시축 상에 배치된다).
사실상, 상기 이미지 캡쳐링 디바이스(10)가 피검자 S의 시축 X로부터 멀어질수록, 피검자는 상기 이미지 캡쳐링 디바이스의 존재에 의해 덜 방해받게 될 것이며, 이러한 제한은 피검자 S의 동공들 중 적어도 하나(또는 적어도 각막 반사)를 정확하게 포착(discern)하게 하는 능력임이 이해될 것이다.
그 다음, 어떤 시각적 타겟도 피검자 S에 요구(impose)되지 않아서, 피검자는 자신의 자연스러운 원거리 비전 포즈를 채택할 수 있다. 그러나, 오퍼레이터는 예컨대, 피검자 S가 자신의 바로 앞으로 보게 하도록 상기 피검자 S에게 이러한 타겟을 제시하는 것이 가능하다. 그러나, 이러한 타겟은 시스템(1)의 일부가 아니며, 이의 포지션은 이미지 캡쳐링 디바이스(10)에 대해 정의되지 않는다.
이미지들 및 이미지 캡쳐링 디바이스(10)의 경사각은, 이들로부터 피검자의 비전 파라미터들을 추론하는 프로세싱 수단에 의해 분석된다.
이미지 캡쳐링 디바이스 (10)
이미지 캡쳐링 디바이스(10)는 비디오 카메라, 사진용 디바이스(photographic device), 등일 수 있다. 이미지 캡쳐링 디바이스(10)에 의해 촬영된 이미지들은 특히, 프로세싱 수단에 의해 직접적으로 프로세싱되도록 디지털 이미지들일 수 있다.
이미지 캡쳐링 디바이스(10)는 바람직하게는, 10 센치미터 내지 일 미터 사이에 있는 짧은 거리에서 피검자의 얼굴의 완전한 이미지를 촬영할 수 있도록 광각 렌즈를 구비한다. 이미지 캡쳐링 디바이스(10)의 해상도는 이의 초점 길이(focal length), 사람에 대한 거리, 등에 좌우되며, 일반적으로 컬러 마커 또는 얼굴에서의 단독 지점들과 같은 시각적 마커들(45)을 식별할 수 있기에 충분해야 한다. 예를 들어, 이미지 캡쳐링 디바이스(10)의 해상도는 0.3mm 마다 적어도 일 픽셀을 포함하도록 눈들의 이미지에 대해 충분해야 한다.
시스템(1)은 또한, 수평면에 대한 이미지 캡쳐링 디바이스(10)의 경사를 결정하도록 설계된 이미지 캡쳐링 디바이스(10)의 움직임과 일체화된 경사계(20)를 포함한다. 바람직하게는, 경사계(20)는 이미지 캡쳐링 디바이스(10)와 일체화되어 있다. 이는 예컨대, 가속도 신호 프로세싱 회로에 결합된 가속도계일 수 있다. 상기 가속도계는 또한, 경사계의 신뢰성을 향상시키도록 전자 자이로스코프에 결합될 수 있다.
옵션에 따라서는, 특히 피검자의 각막 반사를 측정하도록 시스템(1)은 또한, 피검자의 얼굴에 대한 조명 수단(lighting means)(12)을 포함할 수 있고, 상기 조명 수단은 이미지 캡쳐링 디바이스(10)와 일체화될 수 있다.
더욱이, 이미지 캡쳐링 디바이스(10)는 이의 사용을 쉽게 하도록 오퍼레이터에 의해 움직일 수 있고 포터블할 수 있다. 이는 추가적으로, 스크린(14)을 포함할 수 있고, 상기 스크린은 오퍼레이터로 하여금 이미지 캡쳐링 디바이스(10)에 의해 촬영되는 이미지들을 시각화하도록 할 수 있다.
도면들에 도시된 실시예에서, 이미지 캡쳐링 디바이스(10)는 예를 들어, 자신의 후면(rear face)(16)에 이미지들을 촬영할 수 있는 비디오 카메라(11)뿐만 아니라 가속도계(20)를 포함하는 디지털 태블릿이다. 태블릿(10)은 추가적으로, 자신의 전면에, 스크린(14)을 포함할 수 있고, 상기 스크린은 카메라(11)에 의해 촬영되는 이미지들을 실시간으로 시각화할 수 있다. 이는 예컨대, iPad® 타입, 캘릭시 탭® 타입, iphone의 상용 태블릿, 특히 피검자의 비전 파라미터들의 결정에 응용하기 위해 만들어지고 이미지 캡쳐링 디바이스 및 적응된 경사계를 포함하는 태블릿 또는 심지어는 스마트폰으로 이루어질 수 있다.
장점적으로는, 카메라(11)는 그 다음, 피검자 S의 이미지들의 캡쳐를 지원하면서도, 피검자의 자연적인 원거리 비전 포즈를 동요(perturb)시키지 않도록 피검자의 중심와 영역 밖에 여전히 유지되고 바람직하게는, 피검자 S의 시축 X에 대해 5°내지 30°의 꼭지각, 더욱 바람직하게는 심지어 15°내지 25°사이의 꼭지각을 갖는 원뿔을 형성하는 시계의 영역 밖에 유지되도록 예컨대, 자신의 단부들 중 하나 가까이에 포지셔닝된 태블릿(10)의 기하학적 중심에 대해 오프셋될 수 있다.
옵션에 따라서는, 태블릿(10)의 플래쉬는 이미지 캡쳐 동안 조명 수단(12)로서 사용될 수 있다. 그러나, 태블릿(10)에는 이미지 캡쳐 동안 피검자 S의 얼굴을 비추도록, 플래쉬와 별개이며 특히, 상기 태블릿의 후면에 대해 상기 태블릿에 부착된 조명 수단(12)이 제공될 수 있다.
더욱이, 이미지 캡쳐링 디바이스(10)는 또한, 피검자 S와 마주하는 배면에 대해 시각적 타겟을 프로젝트하도록 설계된 프로젝터(18)를 포함한다. 예를 들어, 프로젝터(18)는 벽(wall)에 광선(luminous ray)을 프로젝트하도록 설계된 저전력 레이져일 수 있다.
다른 실시예에 따르면, 이미지 캡쳐링 디바이스(10)는 스크린(12)으로 형성될 수 있는 바, 여기에 적어도 카메라(11)가 장착된 암(arm)(16)이 착탈가능하거나 또는 영구적인 방식으로 고정된다. 상기 암(16)은 스크린(14)의 에지들 중 하나(예컨대 상부 에지) 상에서 스크린의 에지에 대해 전체적으로(globally) 수직인 축을 중심으로 관절운동(articulate) 할 수 있다. 이미지 캡쳐 동안 피검자 S를 방해하지 않도록, 암(16)은 90°보다 큰 각도만큼, 예컨대, 약 120°만큼 회전(pivot)할 수 있다. 상기 암은 또한, 카메라(11)와 함께 동작하면서 상기 암의 확장축을 중심으로 (국부적으로 또는 상기 암의 전체 길이에 걸쳐) 회전할 수 있어서 피검자 S의 얼굴을 더 쉽게 프레이밍할 수 있게 한다. 예를 들어, 암(16)은 약 200°의 각도로 자신의 축을 중심으로 돌아갈(turn) 수 있다.
예로서, 암(16)은 약 30 센티미터를 측정하며 상기 암을 따라 정렬되고 약 10 센티미터만큼 분리된 두 개의 카메라들(11)을 포함할 수 있다. 이 실시예는 그 다음, 두 개의 서로 다른 시야각들에서 피검자 S의 얼굴의 두 개의 사진들 I1, I2이 동시에 촬영되게 할 수 있다.
이 실시예에서, 그 다음, 카메라(들)(11)에 장착된 암(16)은 상용 테블릿(10)에 부착될 수 있다. 그 다음, 경사계(20)는 태블릿(10) 상에 고정되거나(또는 이와 일체화되거나) 또는 자체적으로 암(16) 상에 고정될 수 있다. 더욱이, 암(16)의 부착은 바로 스크린(10) 상에 수행되거나 또는 (특히 스크린이 상용 디지털 태블릿인 경우) 어댑터(14)에 의해 수행될 수 있다.
시각적 마커들
시각적 마커들은 피검자 S의 얼굴의 단독 지점들 또는 상기 피검자의 얼굴에 착용된 액세서리(40)에 의해 수반되는 시각적 마커들일 수 있다.
도 2에 예시된 악세서리(40)는 특히, 문서들 FR 2 860 887 또는 FR 2 892 529에 기술된 악세서리들에 부합할 수 있다. 예컨대 투명한 플라스틱으로 이루어진 이 악세서리(40)는, 수평적이기도 하는 두 개의 측면 브랜치들(43)을 갖는 수평으로 길쭉한 본체(principal body)(42)를 포함하며, 상기 측면 브랜치들은 상기 본체에 대해 후방으로 실질적으로 직각으로 연장된다. 본체(42)는 피검자 S에 의해 착용되는 안경의 (또는 프레임 상의) 두 개의 렌즈들의 상부 에지들을 따라 부착되도록 설계된 두 개의 작은 클램프(clamp)들을 상기 본체의 하부 에지를 따라 수반하며, 상기 브랜치들(43)은 또한, 예시되지 않은 방식으로 수단 - 상기 수단은 프레임의 브랜치들 상에 이 수단을 유지(hold)하기 위한 것이다 - 을 유지할 수 있다. 이 방식으로, 피검자가 안정된 포지션으로 안경(교정 또는 광학적으로 중립적인 또는 심지어는 베어(bare) 프레임)을 쓰자 마자 그리고 악세서리(40)을 제자리에 놓지 마자, 상기 악세서리는 피검자의 얼굴에 대해 잘 정의된 포지션을 자치한다.
본 발명의 일 양상에 따르면, 악세서리는 또한, 금속 또는 플라스틱의 두 개의 탄성 블래이드(elastic blade)들(44)에 대응할 수 있고, 상기 탄성 블래이드는 본체의 하부 에지로부터 연장될 수 있으며 이의 휘어진 형태(curved form)는 안경(또는 프레임)의 렌즈들의 하부 에지에 기대게 하기에 적합화된다. 블래이드들(44)의 형태는 또한, 이들의 자유로운 단부(free end)가 이들이 렌즈들(또는 프레임) 상으로 고정되도록 변형(deforme)될 때 본체에 직각인 직선 궤적을 따르도록 적합화된다. 이러한 방식으로, 블래이드들(44)은 측정들 동안 렌즈들(또는 프레임) 상에서 동일한 위치에 항상 고정되며, 피검자가 어떤 타입의 프레임을 가지든지에 상관없이 피검자의 시선을 동요시키지 않는다.
도 2에 예시된 바와 같이, 악세서리(40)는 특정 수의 시각적 마커들 또는 기준들(45) - 여기서는 잘 식별되는 컬러, 예컨대 잘 정의된 파장을 갖는 밝은 초록색을 가진 8개의 사각형 구역들 - 을 포함하며, 두 개의 시각적 마커들은 브랜치들(43) 중 하나에 이 잘 정의된 이격된 포지션들에 적합화되고, 다른 두 개는 나머지 브랜치(43) 상에 대칭적으로 배치되며, 마지막으로 다른 네 개는 본체 상에 위치된다. 더욱 정확하게는, 이 마지막 마커들에 관하여, 악세서리(40)의 본체(42)는 상향으로 돌출된 부분(46) 및 앞으로 돌출된 부분(47)을 포함하며, 상기 부분(46)의 상부 영역에서 마커(45)가 발견되고 상기 부분(47)의 자유로운 단부에 마커(45)가 존재한다. 적어도 두 개의 마커들(45)이 브랜치들(46)의 출발지(departure) 가까이에 좌측 및 우측으로 존재한다.
변형예로서, 시각적 마커들(45)은 체커보드들과 같은 기하학적 모양들 또는 심지어는 적외선 스펙트럼으로 방출되는 마커들일 수 있다.
시각적 마커들이 얼굴의 단독 지점들일 때, 이 단독 지점들은 특히, 동공들 및/또는 각막 반사들뿐만 아니라 피검자의 프레임의 에지들 상의 지점들일 수 있다.
프로세싱 수단(30)
프로세싱 수단(30)은, 피검자 S의 비전 파라미터들을 추론하도록, 이미지 캡쳐링 디바이스(10)에 의해 촬영된 이미지들 I1, I2에서의 시각적 마커들의 포지션뿐만 아니라 각각의 이미지 캡쳐의 시간에 경사계(20)에 의해 결정된 디바이스(10)의 경사를 분석하도록 설계된다.
이를 위해, 프로세싱 수단(30)은 이미지 캡쳐링 디바이스(10)로부터 유래되는 데이터(피검자 S의 얼굴의 이미지 I1, I2) 및 경사계(20)의 데이터(지면에 대한 이미지 캡쳐링 디바이스(10)의 경사)를 수집 및 프로세스하도록 설계된 프로세서를 포함한다. 그 다음, 프로세서의 스크린, 또는 해당하는 경우 이미지 캡쳐링 디바이스(10)의 스크린(14) 상에 결과들이 디스플레이될 수 있다.
프로세서(30)는 바로 이미지 캡쳐링 디바이스(10) 내로 통합될 수 있다. 이는 특히, 이미지 캡쳐링 디바이스(10)가 디지털 태블릿인 경우일 수 있다. 그 다음, 모든 계산들이 디지털 태블릿(10) 상에서 국부적으로 수행된다.
변형예로서, 프로세서(30)는 이미지 캡쳐링 디바이스(10)와 별개이되, 상기 이미지 캡쳐링 디바이스에 인접하여 위치된 로컬 컴퓨터일 수 있다. 그 다음, 이미지 캡쳐링 디바이스(10)는 피검자 S의 비전의 파라미터들을 획득하는 것을 가능하게 하는 (무선 또는 유선) 네트워크(32)를 통해, 계산을 수행하는 컴퓨터에 데이터(이미지들 및 각도들)를 전송한다. 장점적으로는, 그 다음, 시스템(1)은 본 출원의 도입부에 인용된 문서들에 기술된 것들과 같은 기존의 측정 시스템들에 대한 보충(supplement)으로서 통합될 수 있고, 따라서 기존 인터페이스들(소프트웨어, 관리 인터페이스, 등)으로부터 이득을 얻는 바, 이는 개발 비용, 안경사들이 이미 기존 시스템들을 갖추고 있을 때 시스템을 구매하는 비용을 감소시키며, 장비를 이미 이해하고 있는 안경사를 안심시킨다.
이 변형 실시예에서, 이미지 캡쳐링 디바이스(10)가 디지털 태블릿일 때, 프로세서의 스크린은, 예컨대 VNC(Virtual Network Computing) 프로토콜 또는 RDP(Remote Desktop Protocol)에 의해 원격 오피스에서 액세스 시스템에 의해 태블릿(10)의 스크린(14) 상에 디스플레이될 수 있고, 따라서 오퍼레이터로 하여금 자신의 테블릿(10)으로부터 직접적으로 모든 오퍼레이션들을 관리하게 할 수 있다.
또다른 변형예에 따르면, 프로세서(30)는 원거리 인터넷 서버일 수 있고, 상기 인터넷 서버는 추가적으로 전용화될 수 있다. 그 다음, 이미지들 I1, I2 및 측정 디바이스의 경사는 원거리 서버(30)에 (무선 또는 유선 네트워크에 의해) 전송되며, 상기 원거리 서버는, 특히 이미지 캡쳐링 디바이스(10)가 결과들을 디스플레이하기 위한 스크린(14)을 포함하는 경우, 이미지 캡쳐링 디바이스(10)에 직접적으로 결과들을 다시 전송하거나 또는 원거리 서버에 연결된 로컬 컴퓨터에 결과들을 전송한다.
시각적 마커가 피검자 S의 얼굴의 단독 지점으로 형성될 때, 프로세서(30)는 환자(patient)의 얼굴의 3차원 재구성을 실현하기 위한 그리고 그 재구성으로부터 피검자의 비전 파라미터를 결정하기 위해 필요한 측정들을 하기 위한 수단을 포함한다.
이를 위해, 3차원 재구성에 대한 삼각측량(triangulation)이 종래 기술에 부합하게 수행된다. 그 다음, 악세서리(40)는 두 개의 지점들 사이의 적어도 하나의 알려진 거리를 아는 것을 가능하게 한다.
변형예로서, 3차원 재구성은 어떤 다른 종래의 사진측량(photogrammetry) 또는 입체 방법(stereoscopy method)에 의해 수행될 수 있다.
얼굴의 단독 지점들을 구현하는 변형 실시예에서, 시스템(1)은 적어도 두 개의 이미지 캡쳐링 디바이스들(10)을 포함하며, 이들 서로에 대한 공간적인 포지션 및 방향은 알려져 있다. 그 다음, 상기에 기술된 사진측량 및 입체의 기법들에 따라 두 개의 이미지 캡쳐링 디바이스들(10)로 동시에 촬영된 기준 이미지들 덕분에 얼굴의 단독 지점들의 포지션 및 이들의 거리를 결정하는 것이 가능하다.
방법
이제, 본 발명에 부합하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법(100)을 기술할 것이다. 상기 방법(100)은 스크린, 비디오 카메라 및 가속도계(20)를 포함하는 디지털 태블릿(10)으로 구성된 시스템(1)을 이용하여 하기에 예시될 것이다. 그러나, 이는 비제한적인 것이며, 방법(100)은 상기에 기술된 것들에 부합하는 모든 이미지 캡쳐링 디바이스들(10) 및 경사계들(20)로 구현가능하다.
이 측정들을 달성하기 위해, 피검자 S는 먼저 자신의 자연스러운 기준 포즈로 위치하여 멀리 쳐다본다(단계 110). 이를 위해, 피검자는 심신을 편안하게 하고 수평면 상에서 자신 바로 앞으로 무한한 지점을 바라본다. 그러므로, 이 포지션은, 피검자가 요구되는 시각적 마커를 주시하거나 또는 거울을 볼 필요가 없을 정도로, 제약된 것이 아니라 자유로운 것이다.
그 다음, 오퍼레이터는 짧은 거리에서 피검자의 얼굴의 적어도 두 개의 이미지들 I1, I2을 캡쳐하며, 이러한 캡쳐는 피검자의 동공들 중 적어도 하나가 두 이미지들에서 발견되도록 얼굴을 프레이밍하여 이루어진다(단계 120). 이 방식으로, 그 다음, 적어도 대응하는 눈에 대한 측정들을 수행하는 것이 가능하다. 카메라(11)와 피검자 S의 얼굴 사이의 (10 센티미터 내지 1 미터 사이의) 짧은 거리를 고려해 볼 때, 양호한 해상도를 가지는 이미지들 I1, I2이 획득된다. 피검자 S의 얼굴에 대한 그리고 상기 피검자의 시축에 대한 이미지들 I1 및 I2의 캡쳐 동안의 이미지 캡쳐링 디바이스(10) 및 비디오 카메라(11)의 배치의 일례는 도 4a 및 4b에 예시된다.
이미지 캡쳐링 디바이스(10)가 비디오 카메라일 때, 두 개의 서로 다른 시야각들로부터 직접적으로 두 개의 이미지들 I1 및 I2를 촬영하거나 또는 피검자의 얼굴을 촬영하는 것이 가능하다. 촬영은 피검자 S의 이미지의 복수의 서로 다른 이미지들을 서로 다른 시야각들에서 촬영하도록 하는 방식으로 이루어진다. 그 다음, 서로 다른 시야각들에서 촬영되고 상기 방법에 적합한 두 개의 이미지들 I1 및 I2가 이 복수의 이미지들 중에서 선택된다. 예를 들어, 피검자의 시선을 방해하지 않는(즉, 피검자의 중심와 영역으로부터 떨어져 유지되는) 피검자의 측면 포지션과 피검자의 얼굴 아래의 포지션 사이에 비디오 카메라(10)를 옮겨 놓음(displacing)으로써 피검자의 얼굴을 촬영하는 것이 가능하다. 이미지들의 이러한 선택은 피검자 S의 서로 다른 비전 파라미터들을 결정하는 것을 가능하게 한다.
시각적 마커들(45)이 얼굴의 단독 지점들인 경우, 이미지들 I1 및 I2는 바람직하게는 두 개의 별개의 이미지 캡쳐링 디바이스들(10)에 의해 동시에 촬영되며, 이들 서로에 대한 포지션 및 지향이 알려져 있다.
옵션에 따라서는, 조명 수단(12)은 전체 이미지 캡쳐 단계(120) 동안 또는 단순히 각각의 이미지 캡쳐의 시간에 조명을 비출 수 있다. 시각적 마커들(15)이 악세러리에 위치된 마커들(45)인 경우, 조명 수단(12)은 피검자 S의 동공들을 비추도록 태블릿(10)보다는 악세서리(40) 자체에 포지셔닝될 수 있다.
필요한 경우, 오퍼레이터는 피검자 S의 이미지를 정확하게 프레이밍하는 것을 돕기 위해 태블릿의 스크린(14)을 이용할 수 있다.
예를 들어, 오퍼레이터는 피검자 S의 시계 내로 침투(penetrate)하지 않도록, 그리고 그러므로 피검자의 자연스러운 원거리 비전 포즈를 방해하지 않도록, 아래로부터 보여지는 전방에서 이미지 I1을 촬영하며, 두 개의 동공들이 가시적이도록 90° 미만의 각도에서 측면으로부터 이미지 I2를 촬영한다(예컨대, 3/4 뷰).
변형예로서, 오퍼레이터는 피검자의 시계를 방해하지 않도록 피검자 S의 뷰잉축으로부터 서로 다른 각도들, 예컨대 20°및 40°에서 얼굴의 측면으로부터 두 개의 이미지들 I1, I2를 촬영할 수 있다. 이 이미지들 I1, I2는 두 개의 이미지 캡쳐들 I1, I2 사이에 태블릿(10)을 옮겨 놓음으로써 연속적으로 획득될 수 있거나 또는 태블릿(10)이 이격된 두 개의 카메라들(11)을 장착한 암(16)을 장착한 경우 동시적으로 획득될 수 있다.
이들 측정들 동안, 그 다음, 이미지들 I1, I2은 디지털 태블릿(10)에 의해 등록되고, 가속도계(20)는 각각의 이미지 캡쳐의 시간에 태블릿(10)의 경사를 결정한다(단계 130).
그 다음, 이미지들 I1, I2 및 태블릿(10)의 경사는, 두 개의 이미지들 I1, I2에 다양한 시각적 마커들의 각각의 위치를 결정하고 그리고 이로부터 피검자 S의 수렴과 같은 비전 파라미터들뿐만 아니라 피검자의 얼굴의 자연스러운 경사 및 자연스러운 캡 각도 값을 추론(단계 140)하도록 프로세서(30)에 전송된다.
시각적 마커들의 결정은 프로세서(30) 자체에 의해 자동으로 이루어지거나 또는 오퍼레이터에 의해 수동으로 이루어질 수 있다.
디지털 태블릿(10)은 일반적으로, 택타일(tactile)이며, 오퍼레이터는 특히, 스크린(14) 상에 디스플레이되는 이미지들 I1, I2 바로 위에 시각적 마커들을 시각화하고 포인팅할 수 있다. 따라서, 이는 사진측량 및 입체법의 원리들을 적용함으로써 홍채들, 동공들의 위치를 결정할 수 있다. 그 다음, 이 정보는 이로부터 피검자 S의 수렴을 추론하기 위해 프로세서(30)에 의해 이용된다.
옵션에 따라서는, 피검자의 얼굴에 조명 수단(12) 덕분에 조명이 비추어질 때, 프로세서(30)는 또한, 종래의 계산 방법들을 이용하여 피검자의 각막 반사들 및 홍채들의 포지션으로부터 피검자 S의 수렴을 결정할 수 있다.
그 다음, 태블릿 또는 가까이에 포지션된 컴퓨터의 스크린(14) 상에 이 결과들이 디스플레이된다.
피검자의 자연스러운 캡 각도 값의 측정을 개선하기 위해, 태블릿(10)에 고정된 프로젝트(18)에 의해 시각적 타겟, 바람직하게는 수직 세그먼트를 벽과 같은 지지물 상으로 프로젝션하고, 이미지 캡쳐의 시간에 환자에게 이 타겟을 보도록 요청하는 것이 가능하다. 이 방식으로, 피검자는 제로 캡 각도 값에 대응하는 포지션에 자신의 머리를 위치시키게 된다.
시각적 타겟은 피검자의 얼굴의 경사의 측정을 방해하지 않도록 하는 수직 세그먼트일 수 있다.

Claims (13)

  1. 피검자(subject)의 비전 파라미터들을 결정하는 것을 돕는 방법(100)으로서, 이 방법은 다음의 단계들:
    - 이미지 캡쳐링 디바이스(10)에 의해 두 개의 서로 다른 각도들에서 상기 피검자의 얼굴의 두 개의 이미지들(I1, I2)을 캡쳐하는 단계(120) - 상기 피검자(S)는 자연스러운 원거리 비전 포즈(natural distant vision posture)로 있음 - 와;
    - 이미지 캡쳐의 시간에 지면에 대한 상기 이미지 캡쳐링 디바이스(10)의 경사(inclination)를 결정하는 단계(130)와;
    - 이로부터 상기 피검자(S)의 얼굴의 경사 및 캡 각도 값(cap angle value)을 추론(deduce)하는 단계(140)를 포함하며,
    상기 이미지 캡쳐링 디바이스는 상기 이미지들(I1, I2)의 캡쳐(단계 120)의 시간에 상기 피검자의 중심와 영역(foveal area) 외부에 포지셔닝되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  2. 제1항에 있어서,
    상기 이미지 캡쳐링 디바이스(10)는 이미지 캡쳐(단계 120) 동안 상기 피검자(S)의 시계(field of vision)의 영역 외부에 위치되며, 상기 영역은 상기 피검자(S)의 시축(optical axis)(X)에 대해 5°내지 30°의 꼭지각(apex angle), 바람직하게는 15°내지 25°사이의 꼭지각을 갖는 원뿔(cone)을 형성하는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 이미지들 중 하나(I2)는 아래로부터 상기 피검자의 전방에서 촬영된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  4. 제1항 내지 제3항 중 한 항에 있어서,
    상기 이미지들 중 하나(I2)는 측면으로부터 촬영된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  5. 제1항 내지 제4항 중 한 항에 있어서,
    상기 피검자(S)의 동공(pupil)들 중 적어도 하나 또는 각막 반사(corneal reflection)들 중 적어도 하나는 상기 캡쳐된 이미지들(I1, I2)의 각각 상에서 가시적인(visible) 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  6. 제1항 내지 제5항 중 한 항에 있어서,
    시각적 마커(visual marker)들(45)이 상기 이미지들에서 식별되는 단계를 더 포함하며, 상기 시각적 마커들(45)은 상기 피검자(S)의 얼굴에 고정적으로 착용되는 악세서리(40) 상에 형성된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  7. 제1항 내지 제6항 중 한 항에 있어서,
    상기 이미지 캡쳐링 디바이스(20)는 비디오 카메라이고, 상기 이미지들을 캡쳐하는 단계는 다음의 서브 단계들:
    - 서로 다른 시야각(viewing angle)들에서 복수의 이미지들을 획득하도록 상기 피검자의 얼굴을 촬영(film)하는 단계와, 그리고
    - 상기 피검자의 이미지들 중 두 개의 서로 다른 각도들에서의 상기 피검자(S)의 얼굴의 적어도 두 개의 이미지들(I1, I2)을 선택하는 단계를 포함하는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  8. 제1항 내지 제5항 중 한 항에 있어서,
    시각적 마커들(45)이 상기 이미지들에서 식별되는 단계를 더 포함하고, 상기 시각적 마커들(45)은 상기 피검자(S)의 얼굴의 단독 지점(singular point)들인 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  9. 제8항에 있어서,
    상기 이미지들(I1 및 I2)은 두 개의 이미지 캡쳐링 디바이스들(10)에 의해 동시에 촬영되며, 상기 이미지 캡쳐링 디바이스들의 위치 및 상대적인 지향은 알려져 있는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  10. 제1항 내지 제9항 중 한 항에 있어서,
    상기 두 개의 이미지들(I1, I2)의 캡쳐의 순간에, 상기 피검자(S)의 얼굴에는 조명이 비추어지는(lit) 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  11. 제1항 내지 제10항 중 한 항에 있어서,
    상기 이미지들(I1, I2)을 캡쳐하는 것으로 구성된 단계 동안, 광선(beam of light)이 상기 피검자(S)를 마주하는 지지물, 예컨대 수직 세그먼트 상으로 프로젝트되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  12. 제1항 내지 제11항 중 한 항에 있어서,
    상기 피검자(S)의 얼굴의 경사 및 캡 각도 값은 상기 이미지 캡쳐링 디바이스에 의해 국부적으로(locally) 또는 상기 이미지 캡쳐링 디바이스로부터 떨어진 로컬 컴퓨터 상에서 또는 인터넷 서버 상에서 원격으로 결정되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
  13. 제1항 내지 제12항 중 한 항에 있어서,
    상기 이미지 캡쳐링 디바이스(10)는 비디오 카메라(11)를 포함하는 디지털 태블릿인 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
KR1020157010814A 2012-09-26 2013-09-25 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법 KR102093953B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1259044 2012-09-26
FR1259044A FR2996014B1 (fr) 2012-09-26 2012-09-26 Procede d'aide a la determination de parametres de vision d'un sujet
PCT/EP2013/069923 WO2014048961A1 (fr) 2012-09-26 2013-09-25 Procédé d'aide à la détermination de paramètres de vision d'un sujet

Publications (2)

Publication Number Publication Date
KR20150102941A true KR20150102941A (ko) 2015-09-09
KR102093953B1 KR102093953B1 (ko) 2020-03-26

Family

ID=47137956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157010814A KR102093953B1 (ko) 2012-09-26 2013-09-25 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법

Country Status (8)

Country Link
US (1) US9928421B2 (ko)
EP (1) EP2901209B1 (ko)
JP (1) JP2015532129A (ko)
KR (1) KR102093953B1 (ko)
ES (1) ES2754310T3 (ko)
FR (1) FR2996014B1 (ko)
HU (1) HUE046048T2 (ko)
WO (1) WO2014048961A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI676050B (zh) * 2014-10-17 2019-11-01 美商壯生和壯生視覺關懷公司 用於遠端訓練及/或支援隱形眼鏡之使用者的虛擬鏡像系統和方法
JP2016167038A (ja) * 2015-03-10 2016-09-15 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
WO2016164859A1 (en) 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
WO2016194853A1 (ja) 2015-06-01 2016-12-08 アルプス電気株式会社 眼鏡型電子機器
KR101696602B1 (ko) * 2015-08-11 2017-01-23 주식회사 슈프리마 제스처를 이용한 생체 인증
JP6825338B2 (ja) * 2016-12-01 2021-02-03 株式会社ニデック 自覚式検眼装置および自覚式検眼プログラム
JP7168374B2 (ja) 2018-08-06 2022-11-09 株式会社トプコン 眼科装置
US11219367B2 (en) * 2020-01-30 2022-01-11 Reichert, Inc. Positioning system for ophthalmic instrument
EP3913424A1 (de) 2020-05-22 2021-11-24 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1747750A1 (en) * 2004-05-06 2007-01-31 INDO Internacional, S.A. Method and device for determining the visual behaviour of a person and method of customising a spectacle lens
WO2010119190A1 (fr) * 2009-04-17 2010-10-21 Essilor International (Compagnie Generale D'optique) Procédé de détermination d'au moins un paramètre géométrico-postural d'implantation d'une monture de lunettes de correction visuelle sur le visage d'un porteur dans sa posture anatomique
US20110141227A1 (en) * 2009-12-11 2011-06-16 Petronel Bigioi Stereoscopic (3d) panorama creation on handheld device
DE102010015795A1 (de) * 2010-04-20 2011-10-20 Hans-Joachim Ollendorf Videozentriersystem mit Gesichtsfeldbewertung
DE102011009646A1 (de) * 2011-01-27 2012-08-02 Hans-Joachim Ollendorf Videozentriersystem und Verfahren zur Bestimmung von Zentriedaten für Brillengläser

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3976925B2 (ja) * 1999-02-22 2007-09-19 株式会社ニデック 眼位置測定装置
US7217375B2 (en) * 2001-06-04 2007-05-15 Ophthonix, Inc. Apparatus and method of fabricating a compensating element for wavefront correction using spatially localized curing of resin mixtures
FR2836215B1 (fr) * 2002-02-21 2004-11-05 Yodea Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
JP4536329B2 (ja) * 2002-03-04 2010-09-01 東海光学株式会社 アイポイントの位置決定方法及びアイポイント測定システム
FR2860887B1 (fr) 2003-10-13 2006-02-03 Interactif Visuel Systeme Ivs Mesure de configuration du visage et de montures de lunettes placees sur ce visage a une efficacite amelioree
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
FR2892529B1 (fr) 2005-10-21 2008-02-01 Interactif Visuel Systeme Ivs Systeme d'aide pour la correction de la vue
FR2914173B1 (fr) * 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
GB0713461D0 (en) * 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
US20110216160A1 (en) * 2009-09-08 2011-09-08 Jean-Philippe Martin System and method for creating pseudo holographic displays on viewer position aware devices
JP5351691B2 (ja) * 2009-10-01 2013-11-27 ホーヤ レンズ マニュファクチャリング フィリピン インク 眼球下転量測定装置及び眼球下転量測定方法
FR2950984B1 (fr) * 2009-10-05 2012-02-03 Interactif Visuel Systeme Ivs Procede et equipement de mesures pour la personnalisation et le montage de lentilles ophtalmiques correctrices
FR2961591B1 (fr) * 2010-06-21 2013-05-31 Interactif Visuel Systeme I V S Procede d'estimation de la posture d'un sujet.
FR2971861B1 (fr) * 2011-02-21 2013-02-22 Essilor Int Procede de determination d'au moins un parametre geometrico-physionomique associe au montage d'une lentille ophtalmique dans une monture de lunettes portee par un porteur
CN102860836B (zh) * 2011-07-04 2015-01-07 株式会社东芝 图像处理装置、图像处理方法以及医用图像诊断装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1747750A1 (en) * 2004-05-06 2007-01-31 INDO Internacional, S.A. Method and device for determining the visual behaviour of a person and method of customising a spectacle lens
WO2010119190A1 (fr) * 2009-04-17 2010-10-21 Essilor International (Compagnie Generale D'optique) Procédé de détermination d'au moins un paramètre géométrico-postural d'implantation d'une monture de lunettes de correction visuelle sur le visage d'un porteur dans sa posture anatomique
US20110141227A1 (en) * 2009-12-11 2011-06-16 Petronel Bigioi Stereoscopic (3d) panorama creation on handheld device
DE102010015795A1 (de) * 2010-04-20 2011-10-20 Hans-Joachim Ollendorf Videozentriersystem mit Gesichtsfeldbewertung
DE102011009646A1 (de) * 2011-01-27 2012-08-02 Hans-Joachim Ollendorf Videozentriersystem und Verfahren zur Bestimmung von Zentriedaten für Brillengläser

Also Published As

Publication number Publication date
WO2014048961A1 (fr) 2014-04-03
ES2754310T3 (es) 2020-04-16
US20150339511A1 (en) 2015-11-26
US9928421B2 (en) 2018-03-27
FR2996014B1 (fr) 2015-12-25
HUE046048T2 (hu) 2020-01-28
FR2996014A1 (fr) 2014-03-28
EP2901209A1 (fr) 2015-08-05
KR102093953B1 (ko) 2020-03-26
EP2901209B1 (fr) 2019-08-14
JP2015532129A (ja) 2015-11-09

Similar Documents

Publication Publication Date Title
KR102093953B1 (ko) 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
KR101932568B1 (ko) 안경 착용자의 형태기하학적 매개변수의 측정 방법
KR101300671B1 (ko) 안경 렌즈 제작을 위해 필요한 파라미터 측정 방법 및 이를 구현하기 위한 측정 장치
JP5730995B2 (ja) 基本姿勢を推定するための方法
US10758124B2 (en) Device and method for distance determination and/or centering using corneal reflections
WO2015035822A1 (en) Pickup of objects in three-dimensional display
JP2017151468A (ja) 累進焦点眼鏡用レンズを選択する方法
JP6515542B2 (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
KR101208062B1 (ko) 시각 교정 보조 시스템
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
CN112835213A (zh) 用于确定居中参数以便调整眼镜的装置
JP4536329B2 (ja) アイポイントの位置決定方法及びアイポイント測定システム
JP6258318B2 (ja) 眼鏡を装着する人の形態幾何学的パラメータの測定方法
KR20170054511A (ko) 피검자에게 안경을 맞추기 위해 피검자의 광학적 파라미터들을 정밀하게 결정하는 방법, 및 고정형 비디오 센터링 시스템
JP2013142597A (ja) 眼鏡フィッティングパラメータ計測システム及び眼鏡フィティングパラメータ計測方法
KR101075972B1 (ko) 렌즈처방을 위한 매개변수 측정장치
KR20200096492A (ko) 대상자의 참조 머리 자세를 결정하기 위한 방법 및 장치
CN111183389B (zh) 用于通过人工识别来确定光学设备的配适参数的方法和***
KR20200141230A (ko) 스테레오 비전을 이용한 안경 제작용 인체 데이터 측정장치
KR20170073630A (ko) 근거리를 보는 상황의 피험자에게 안경 렌즈를 맞추기 위하여 피험자의 시각-관상학적 파라미터들을 정밀하게 측정하는 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right