KR20210098521A - 생리적 상태를 감지하기 위한 안면 인터페이스를 구비한 헤드 장착형 디스플레이 - Google Patents

생리적 상태를 감지하기 위한 안면 인터페이스를 구비한 헤드 장착형 디스플레이 Download PDF

Info

Publication number
KR20210098521A
KR20210098521A KR1020217021009A KR20217021009A KR20210098521A KR 20210098521 A KR20210098521 A KR 20210098521A KR 1020217021009 A KR1020217021009 A KR 1020217021009A KR 20217021009 A KR20217021009 A KR 20217021009A KR 20210098521 A KR20210098521 A KR 20210098521A
Authority
KR
South Korea
Prior art keywords
physiological
head mounted
facial
mounted display
user
Prior art date
Application number
KR1020217021009A
Other languages
English (en)
Inventor
다니엘 엠. 스트롱워터
크리스티 이. 바우얼리
더스틴 에이. 햇필드
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20210098521A publication Critical patent/KR20210098521A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • G06K9/00315
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

헤드 장착형 디스플레이는 디스플레이 유닛 및 안면 인터페이스를 포함한다. 디스플레이 유닛은 그래픽 콘텐츠를 사용자에게 디스플레이한다. 안면 인터페이스는 디스플레이 유닛에 제거가능하게 결합가능하고, 사용자의 얼굴의 안면 맞물림 영역과 맞물림으로써 디스플레이 유닛은 사용자의 얼굴 상에 지지된다. 안면 인터페이스는 안면 맞물림 영역에서 사용자의 생리적 상태를 감지하기 위한 생리적 센서를 포함한다.

Description

생리적 상태를 감지하기 위한 안면 인터페이스를 구비한 헤드 장착형 디스플레이
관련 출원에 대한 상호 참조
본 출원은 2019년 1월 17일자로 출원된 미국 가특허 출원 제62/793,466호에 대한 우선권 및 이익을 주장한다. 전술한 출원의 내용은 모든 목적을 위해 본 명세서에 참조로서 그 전체가 포함된다.
기술분야
본 개시내용은 헤드 장착형 디스플레이에 관한 것으로, 특히, 그를 이용한 생리적 상태(physiological condition)를 감지하는 것에 관한 것이다.
헤드 장착형 디스플레이는 사용자들의 머리에 착용되고, 그것에 그래픽 콘텐츠를 디스플레이한다. 통상적인 헤드 장착형 디스플레이는 디스플레이, 헤드 지지부, 및 안면 인터페이스를 포함한다. 디스플레이는 그래픽 콘텐츠를 디스플레이한다. 헤드 지지부는 디스플레이에 결합되고 사용자의 머리와 맞물려 디스플레이를 지지한다. 안면 인터페이스는 디스플레이에 결합되고 사용자의 얼굴과 맞물려 디스플레이를 지지한다. 예를 들어, 컴퓨터-생성 환경의 그래픽 콘텐츠를 디스플레이하는 데 사용되는 헤드 장착형 디스플레이의 경우, 안면 인터페이스는 사용자의 얼굴과 맞물려 사용자의 눈을 실질적으로 둘러싸서 실질적으로 모든 주변 광이 눈에 도달하는 것을 차단할 수 있다. 안면 인터페이스는 통상적으로 얼굴의 형상과 맞물리고 일치하는 유연성 재료(예컨대, 발포체 또는 고무)로 만들어지거나 또는 이를 포함한다.
사용자의 얼굴은, 예를 들어, 헤드 장착형 디스플레이로 그래픽 콘텐츠를 전달할 때 다양한 방식들로 사용될 수 있는 다양한 생리적 정보를 제공할 수 있다. 그러나, 안면 인터페이스는 다양한 생리적 센서들의 시야로부터 얼굴의 일부분들을 감출 수 있고/있거나 생리적 상태들에 영향을 줄 수 있는데, 이는 그렇지 않았다면 가치있는 정보를 제공할 수 있다. 예를 들어, 사용자는, 만약 안면 인터페이스와의 안면 접촉이 없었다면, 소정 형태를 취하고 관찰가능한, 놀란 얼굴 표정에 대하여 눈썹이 올라가는 것과 같은 얼굴 표정을 제공할 수 있다.
본 명세서에 헤드 장착형 디스플레이들의 구현예들이 개시된다.
일 구현예에서, 헤드 장착형 디스플레이는 디스플레이 유닛 및 안면 인터페이스를 포함한다. 디스플레이 유닛은 그래픽 콘텐츠를 사용자에게 디스플레이한다. 안면 인터페이스는 디스플레이 유닛에 제거가능하게 결합가능하고, 사용자의 얼굴의 안면 맞물림 영역(facial engagement region)과 맞물림으로써 디스플레이 유닛은 사용자의 얼굴 상에 지지된다. 안면 인터페이스는 안면 맞물림 영역에서 사용자의 생리적 상태를 감지하기 위한 생리적 센서를 포함한다.
일 구현예에서, 헤드 장착형 디스플레이를 위한 안면 인터페이스는 유연성 구조체(compliant structure), 생리적 센서, 기계적 커넥터, 및 데이터 커넥터를 포함한다. 유연성 구조체는 사용자의 얼굴의 안면 맞물림 영역과 맞물려 그 위에 헤드 장착형 디스플레이를 지지한다. 생리적 센서는 안면 맞물림 영역에서 사용자의 생리적 상태를 측정하기 위하여 유연성 구조체에 결합된다. 기계적 커넥터는 유연성 구조체에 결합되고, 헤드 장착형 디스플레이에 제거가능하게 결합가능하다. 데이터 커넥터는 생리적 센서에 결합되고, 생리적 센서로부터의 생리적 데이터를 헤드 장착형 디스플레이로 전송한다.
일 구현예에서, 디스플레이 시스템은 헤드 장착형 디스플레이 및 헤드 장착형 디스플레이로부터 물리적으로 분리된 전자 디바이스를 포함한다. 헤드 장착형 디스플레이는 그래픽 콘텐츠를 사용자에 디스플레이하기 위한 디스플레이 유닛 및 디스플레이 유닛에 결합된 안면 인터페이스를 포함한다. 안면 인터페이스는 얼굴 상에 디스플레이 유닛을 지지하기 위하여 사용자의 얼굴의 안면 맞물림 영역과 맞물리도록 구성된다. 안면 인터페이스는 안면 맞물림 영역에서 사용자의 생리적 상태를 감지하기 위한 생리적 센서를 포함한다. 전자 디바이스는 안면 인터페이스와 통신한다. 전자 디바이스는 다른 상태를 감지하기 위한 다른 센서를 포함한다. 헤드 장착형 디스플레이는 생리적 상태 및 다른 상태 둘 모두에 따른 결정을 형성하고, 결정에 따른 동작을 수행한다.
일 구현예에서, 디스플레이 시스템은 디스플레이 유닛을 갖는 헤드 장착형 디스플레이, 생리적 센서를 갖는 안면 인터페이스, 및 다른 생리적 센서를 포함한다. 디스플레이 유닛은 그래픽 콘텐츠를 사용자에게 디스플레이한다. 안면 인터페이스는 디스플레이 유닛에 결합되고 사용자의 얼굴의 안면 맞물림 영역과 맞물려 그 위에 디스플레이 유닛을 지지하도록 구성된다. 안면 인터페이스는 안면 맞물림 영역에서 사용자의 생리적 상태를 감지하기 위한 생리적 센서를 포함한다. 다른 생리적 센서는 안면 맞물림 영역 외측에서 사용자의 다른 생리적 상태를 감지한다. 디스플레이 시스템은 생리적 상태 및 다른 생리적 상태 둘 모두에 따른 결정을 형성하고, 결정에 따른 동작을 수행한다.
도면에서, 대시-대시 라인들은 일반적으로 시야로부터 숨겨지거나 또는 상태들 사이에서 이동가능한 컴포넌트들을 나타낸다. 대시-도트 라인들은 일반적으로 시야로부터 숨겨지는 사용자의 부분들을 나타낸다.
도 1은 사용자의 머리에 착용되는, 숨겨진 컴포넌트가 대시-대시 라인들로 도시되고 사용자의 숨겨진 부분들이 대시-도트 라인들로 도시되는 헤드 장착형 디스플레이의 측면도이다.
도 2는 머리에 착용된 도 1의 헤드 장착형 디스플레이의 정면도이다.
도 3은 헤드 장착형 디스플레이의 전자장치의 개략도이다.
도 4는 헤드 장착형 디스플레이의 제어기의 예시적인 하드웨어 구성의 개략도이다.
도 5는 사용자 상의 안면 맞물림 영역 및 헤드 장착형 디스플레이의 안면 인터페이스를 도시하는 헤드 장착형 디스플레이 및 사용자의 정면도이다.
도 5a는 도 5의 선 5A-5A를 따라 취해진 헤드 장착형 디스플레이의 단면도이다.
도 5b는 도 5의 선 5B-5B를 따라 취해진 헤드 장착형 디스플레이의 변형예의 단면도이다.
도 6은 옵션적인 센서들을 구비한 안면 인터페이스의 개략도이다.
도 7은 도 1의 헤드 장착형 디스플레이의 배면도이다.
도 8은 안면 맞물림 영역을 추가로 도시하는 사용자의 정면도이다.
도 9는 결합해제된 구성(실선) 및 결합된 구성(파선)의 안면 인터페이스를 구비한 헤드 장착형 디스플레이의 배면도이다.
도 10은 기계, 전력, 및 데이터 연결부들을 포함하는 헤드 장착형 디스플레이의 개략도이다.
도 11은 헤드 장착형 디스플레이를 이용한 사용자의 생리적 식별을 위한 방법의 흐름도이다.
도 12a는 사용자에 적합한 헤드 장착형 디스플레이의 안면 인터페이스를 식별하기 위한 방법의 흐름도이다.
도 12b는 적합한 안면 인터페이스를 식별하기 위하여 사용자의 얼굴을 평가하기 위한 안면 인터페이스의 배면도이다.
도 13은 헤드 장착형 디스플레이의 배치를 평가하기 위한 방법의 흐름도이다.
도 14는 헤드 장착형 디스플레이를 이용하여 그래픽 콘텐츠를 변경하기 위한 방법의 흐름도이다.
도 15는 디스플레이 시스템을 운영하기 위한 방법의 흐름도이다.
헤드 장착형 디스플레이들 및 그것의 안면 인터페이스들이 본 명세서에 개시되고, 이는 안면 인터페이스 자체에 의해 맞물린 사용자의 얼굴의 부분들의 생리적 상태들을 감지한다. 안면 인터페이스는 하나 이상의 센서들 및/또는 센서들의 부분들을 포함할 수 있다. 대신에 또는 추가적으로, 안면 인터페이스는 안면 인터페이스에 의해 맞물리는 얼굴의 부분들을 그것의 디스플레이에서와 같은, 헤드 장착형 디스플레이의 센서들로 관찰하는 것을 허용하는 감지 윈도우들을 포함할 수 있다.
헤드 장착형 디스플레이는 또한 안면 인터페이스에 의해 맞물리지 않는 영역들에서 사용자의 생리적 상태들을 감지하기 위한 센서들 및, 예컨대, 안면 인터페이스에 의해 둘러싸인 영역 또는 안면 인터페이스의 외부의 영역을 관찰하는 헤드 장착형 디스플레이의 센서들을 포함할 수 있다. 안면 인터페이스에 의해 맞물린 영역들로부터의 생리적 정보는 안면 인터페이스에 의해 맞물리지 않은 영역들로부터의 생리적 정보와 함께 사용되어, 예를 들어, 다양한 결정들을 내리고/내리거나 그에 응답하여 다양한 출력들을 제공할 수 있다.
안면 인터페이스는 또한 디스플레이에 제거가능하게 또는 상호교환가능하게 결합가능할 수 있다. 그럼으로써, 상이한 감지 기능 및/또는 맞춤(fit)의 안면 인터페이스들은, 예를 들어, 상이한 그래픽 콘텐츠 및/또는 상이한 사용자들에 따라 디스플레이에 부착될 수 있다. 또한, 안면 인터페이스들은 청소 또는 재배치를 위하여 제거가능할 수 있다.
도 1 및 도 2를 참조하여, 헤드 장착형 디스플레이(100)가 사용자의 머리(H)에 착용가능하고, 예컨대, 컴퓨터-생성 환경(아래 더 상세하게 논의됨)의 그래픽 콘텐츠를 그것에 디스플레이한다. 헤드 장착형 디스플레이(100)는 일반적으로 디스플레이 유닛(110), 헤드 지지부(120), 안면 인터페이스(130), 및 전자장치(140)를 포함한다. 헤드 장착형 디스플레이(100)는 또한 디스플레이 시스템으로 지칭될 수 있다.
디스플레이 유닛(110)은 그래픽 콘텐츠를 디스플레이하는 하나 이상의 디스플레이 스크린들(112) 및 디스플레이 스크린들(112)이 결합되고 시야로부터 다양한 컴포넌트들을 숨기는 하우징(114)을 포함한다. 하우징(114)은 추가로 주변 광이 사용자의 눈(E)에 도달하는 것을 차단하도록 기능할 수 있다. 디스플레이 유닛(110)은, 예를 들어, 핸드 헬드 디바이스로서 또한 사용가능한 스마트폰과 같은, 제거가능 디스플레이 스크린을 갖는 것과는 반대로, 사용자의 머리(H)에 착용되고 있는 동안 콘텐츠를 디스플레이하기 위한 전용 디바이스일 수 있다. 이와 같이, 디스플레이 스크린들(112)은, 상호교환가능하게 결합가능한 것과는 반대로, 하우징(114)에 고정적으로 결합될 수 있다.
헤드 지지부(120)는 디스플레이 유닛(110)에 결합되고 사용자의 머리(H)와 맞물려 디스플레이 유닛(110)을 그 위에서 지지한다. 헤드 지지부(120)는, 예를 들어, 사용자의 머리(H)의 측면들 및 후방 주위에서 연장되는 밴드일 수 있다. 헤드 지지부(120)는 디스플레이 유닛(110)의 하우징(114)에 결합될 수 있다.
안면 인터페이스(130)는 디스플레이 유닛(110)에 결합되고 사용자의 얼굴(F)과 맞물려 디스플레이 유닛(110)을 그 위에서 지지한다. 예를 들어, 안면 인터페이스(130)는 사용자에 근접한 디스플레이 유닛(110)의 후방 단부, 예컨대, 하우징(114)(예컨대, 후방 표면 또는 내향 단부 또는 표면)에 결합될 수 있는 반면, 헤드 지지부(120)는 사용자의 머리(H) 주위에서 인장 상태에 있을 수 있고, 그럼으로써 안면 인터페이스(130)를 일반적으로 후방으로 사용자의 얼굴(F)에 대하여 가압한다. 안면 인터페이스(130)는 일반적으로 사용자의 얼굴과 디스플레이 스크린들(112) 사이에 (예컨대, 안면 인터페이스(130)와 사용자의 얼굴 사이에 디스플레이 스크린들(112) 또는 그것들의 부분들 없이) 배열될 수 있다. 안면 인터페이스(130)는 생리적 상태들(예컨대, 사용자의 상태들)을 검출하는 하나 이상의 생리적 센서들(132)을 포함할 수 있고 하나 이상의 햅틱 출력 디바이스들(133)을 추가로 포함할 수 있고, 이는 아래 더 상세하게 논의된다.
전자장치(140)는 헤드 장착형 디스플레이(100)의 동작을 위한 전자 컴포넌트들이다. 전자장치(140)는, 예를 들어, 하우징(114) 내에 포함되어, 디스플레이 유닛(110)에 결합될 수 있다. 전자장치(140) 중 일부 및/또는 디스플레이 시스템의 다른 전자장치는, 디스플레이 유닛(110) 및/또는 안면 인터페이스(130)와 통신하는 다른 컴퓨팅 디바이스와 같이, 디스플레이 유닛(110)으로부터 원격에 위치될 수 있다. 도 3을 참조하면, 전자장치는 일반적으로 그들중에서 제어기(342), 센서들(344), 통신 인터페이스(346), 및 전력 전자장치(348)를 포함할 수 있다. 전자장치(140)는 또한 디스플레이 유닛(110)의 디스플레이 스크린들(112)을 포함하는 것으로 고려될 수 있다. 제어기(342)는 일반적으로 헤드 장착형 디스플레이(100)의 동작들, 예를 들어, 센서들(344) 및/또는 통신 인터페이스(346)로부터 입력 신호들을 수신하고, 그래픽 콘텐츠를 출력하기 위하여 디스플레이 유닛(110)(예컨대, 디스플레이 스크린들(112))에 제어 신호들을 전송하는 것을 제어한다. 제어기(342)에 대한 예시적인 하드웨어 구성이 아래 도 4를 참조하여 논의된다. 센서들(344)은 사용자의 상태들(예컨대, 생리적 상태들), 헤드 장착형 디스플레이(100)(예컨대, 위치, 배향, 이동), 및/또는 환경(예컨대, 소리, 광, 이미지)을 감지한다. 센서들(344)은 그것들(예컨대, 도 6의 센서 유형들 참조)을 참조하여 아래 논의된 임의의 적합한 유형의 센서일 수 있다. 통신 인터페이스(346)는 헤드 장착형 디스플레이(100)와는 물리적으로 분리된 전자 디바이스(350)로부터 신호들을 수신하도록 구성된다. 전력 전자장치(348)는 헤드 장착형 디스플레이를 동작시키기 위한 전기 전력을 저장 및/또는 공급하고, 예를 들어, 하나 이상의 배터리들을 포함할 수 있다. 전자 디바이스(350)는 사용자 입력 디바이스(예컨대, 사용자 제어기), 사용자와 연관된 다른 전자 디바이스(예컨대, 스마트폰 또는 웨어러블 전자 디바이스), 또는 사용자와 연관되지 않은 다른 전자 디바이스(예컨대, 서버, 다른 사람과 연관된 스마트폰)일 수 있다. 전자 디바이스(350)는 사용자의 다양한 다른 상태들, 예컨대, 사용자의 위치 또는 이동을 감지할 수 있는 센서들(350a)을 포함할 수 있다. 전자 디바이스(350)는 헤드 장착형 디스플레이(100)를 포함하는 디스플레이 시스템의 일부로 간주될 수 있다.
도 4를 참조하면, 제어기(342)는 본 명세서에 개시된 장치들, 시스템들, 및 방법들을 구현하는 데 사용될 수 있다. 예를 들어, 제어기(342)는 다양한 전자 컴포넌트들(예컨대, 센서들(344) 및 통신 인터페이스(346))로부터 다양한 신호들을 수신할 수 있고 그에 따라 디스플레이 스크린들(112)의 출력을 제어하여 그래픽 콘텐츠를 디스플레이할 수 있다. 예시적인 하드웨어 구성에서, 제어기(342)는 일반적으로 프로세서(442a), 메모리(442b), 저장장치(442c), 통신 인터페이스(442d), 및 제어기(342)의 기타 컴포넌트들이 통신하는 버스(442e)를 포함한다. 프로세서(442a)는 컴퓨터 명령어들을 실행하고 그에 의해 기술된 동작들을 수행하기 위한 중앙 프로세싱 유닛과 같은 임의의 적합한 프로세서일 수 있다. 메모리(442b)는 휘발성 메모리, 예컨대, 랜덤 액세스 메모리(RAM)일 수 있다. 저장장치(442c)는 비휘발성 저장 디바이스, 예컨대, 하드 디스크 드라이브(HDD) 또는 솔리드-스테이트 드라이브(SSD)일 수 있다. 저장장치(442c)는, 예를 들어, 위 아래에서 기술된 방식으로 헤드 장착형 디스플레이(100)를 동작시키기 위하여 프로세서(442a)에 의해 실행되는 명령어들(예컨대, 코드)을 저장하는 컴퓨터 판독가능 매체를 형성할 수 있다. 통신 인터페이스(442d)는 다양한 신호들(예컨대, 제어 신호들 및/또는 센서 신호들)을 다른 전자 컴포넌트들(예컨대, 센서들(344), 통신 인터페이스(346), 및/또는 디스플레이 스크린들(112))에 전송하고 그로부터 수신하기 위하여 그들과 통신한다.
도 5를 참조하면, 안면 인터페이스(130)는 안면 맞물림 영역(F맞물림)에서 사용자의 얼굴(F)과 맞물린다. 도시된 바와 같이, 안면 인터페이스(130)는 사용자의 눈(E) 주위에서 연장된다. 안면 인터페이스(130)는 얼굴(F)과 맞물려 사용자의 눈(E) 위에서, 사용자의 눈(E)의 옆면 주위에서, 그리고 사용자의 눈(E) 아래에서 연장됨으로써 주변 광이 눈(E)에 도달하는 것을 차단한다. 안면 맞물림 영역(F맞물림)은 추가적으로 일반적으로 안면 인터페이스(130)의 외측 에지(130a)와 내측 에지(130b) 사이에서 연장된다. 안면 맞물림 영역(F맞물림)은, 안면 인터페이스(130)에 의한 맞물림으로 인해, 실질적으로 안면 인터페이스(130)에 의해 덮이거나 또는 시야로부터 숨겨진다. 대안적으로, 안면 인터페이스(130)는 사용자의 눈(E) 주위에서 완전히 연장되지 않을 수 있는데, 예를 들어, 눈(E) 위에서 연장되지만 눈(E) 아래에서 연장되지 않거나, 또는 사용자의 코(N)의 영역에서 갭을 갖는다. 예를 들어, 안면 맞물림 안면 맞물림 영역(F맞물림)은 이마 맞물림 영역(FH맞물림)만을 포함할 수 있다(예컨대, 도 8 참조).
도 5a 및 도 5b를 참조하면, 안면 인터페이스(130)는 유연하도록 구성되어, 사용자의 얼굴(F)과 편안하게 맞물리고 이에 일치하도록 한다. 안면 인터페이스(130)는 안면 맞물림 영역(F맞물림)에서 사용자의 얼굴(F)과 맞물리고, 하나 이상의 생리적 센서들(132) 및/또는 햅틱 출력 디바이스들(133)(미도시)이 결합되는 유연성 구조체(530a)를 포함한다. 유연성 구조체(530a)는 안면 인터페이스(130)의 일반적 형상을 형성한다(예컨대, 사용자의 눈(E) 주위에서 연장됨, 도 5에 도시된 바와 같음).
도 5a에 도시된 바와 같이, 유연성 구조체(530a)는 연속-형성 구조체일 수 있고, 디스플레이 유닛(110)의 하우징(114)을 향해 (예컨대, 파선에 의해 도시된 그러한 편향) 압축될 수 있다. 예를 들어, 유연성 구조체(530a)는 고무 또는 실리콘과 같은 탄성중합체로 형성될 수 있고, 이 경우에 유연성 구조체(530a)는 사용자의 얼굴(F)과 직접 맞물릴 수 있다. 생리적 센서(132)는 유연성 구조체(530a)에 의해 둘러싸이고(예컨대, 함몰 또는 매립됨) 생리적 상태를 감지하도록, 예를 들어, 유연성 구조체(530a)의 외측 표면에 있거나 또는 다른 방식으로 사용자에게 적합하게 근접하도록 배열된다.
도 5b에 도시된 바와 같이, 유연성 구조체(530a')의 변형은 배킹 층(530b)(예컨대, 플라스틱과 같은 중합체로 형성된 강성 또는 가요성 플레이트)과 같은 다수의 컴포넌트들로 형성되고, 이는 유연성 층(530c)(예컨대, 발포체, 고무, 또는 기타 압축성 재료로 만들어짐)에 결합된다. 유연성 층(530c)은 직조 텍스타일 또는 기타 재료(예컨대, 가요성 시트 중합체)와 같은 가요성인 커버링(530d)에 의해 추가로 덮일 수 있다. 커버링(530d)은 도 5a에 도시된 바와 같이 또한 유연성 구조체(530a)와 함께 사용될 수 있다. 생리적 센서(132)는 유연성 층(530c)에 둘러싸이고(예컨대, 함몰 또는 매립됨) 사용자의 생리적 상태를 감지하도록 배열된다. 예를 들어, 아래 참조된 바와 같이, 생리적 센서(132)는 커버링(530d)에 매우 근접(예컨대, 접촉)하게 배열된 힘 센서(632a)일 수 있다. 다른 예에서, 아래 참조된 바와 같이, 생리적 센서(132)는 전극(632f) 또는 다른 생체전기 신호 센서(예컨대, 뇌 활동 센서(632g), 근육 활동 센서(632h), 또는 심박수 센서(632i))일 수 있고, 이 경우에 커버링(530d)은 생리적 센서(132)의 영역에서 전도성일 수 있다. 커버링(530d)은 또한 유연성 구조체(530a)와 함께 사용될 수 있다.
도 6을 참조하면, 안면 인터페이스(130)는 안면 맞물림 영역(F맞물림)에서 사용자의 하나 이상의 생리적 상태들을 감지하는 데 사용되는 하나 이상의 생리적 센서들(132)을 포함한다. 생리적 센서(132)는 그 자체가 감지된 생리적 상태에 따라 센서 신호를 출력하는 완전한 센서일 수 있다. 예를 들어, 생리적 센서(132)는 힘 센서에 의해 감지된 힘에 따라 아날로그 또는 디지털 신호를 출력하는 힘 센서일 수 있다. 대안적으로, 생리적 센서(132)는 센서 시스템의 컴포넌트일 수 있다. 예를 들어, 생리적 센서(132)는 결과적으로 사용자의 뇌의 전기 활동을 결정하는 원격 컴퓨팅 디바이스(예컨대, 제어기(342))에 연결되는 뇌파검사(EEG)를 위한 전극일 수 있다.
하나 이상의 생리적 센서들(132)은 안면 맞물림 영역(F맞물림)에서 생리적 상태들을 감지하도록 구성될 수 있고, 이는 힘, 온도, 습기, 변위, 커패시턴스, 뇌 활동(예컨대, 전술된 바와 같은 EEG), 근육 활동(예컨대, 힘 센서들 및/또는 근전도검사(EMG)를 통함), 및/또는 심박수를 포함할 수 있다. 다양한 유형들의 생리적 센서들(132)의 각각은 안면 인터페이스(130)의 일부(예컨대, 센서들(632a 내지 632i))로서 도시되지만, 안면 인터페이스(130)는 각각의 유형의 생리적 센서들(132) 중 하나, 또는 다수를 포함할 수 있거나, 또는 아무것도 포함하지 않을 수 있음이 이해되어야 한다.
힘을 측정하기 위하여, 생리적 센서(132)는 힘 센서(632a), 예컨대, 스프링 변위 센서(예컨대, 알려진 속성들의 스프링의 변위를 측정), 유압 또는 기압 로드셀(load cell)(예컨대, 수용된 유체의 압력을 측정), 변형 게이지, 또는 압전 힘 센서일 수 있다. 힘 센서(632a)는 사용자의 얼굴(F)과 직접 맞물릴 수 있거나 또는 시야로부터, 예를 들어, 안면 인터페이스(130)의 커버링(530d) 뒤에 (도 5b 참조) 숨겨질 수 있다. 힘 센서(632a)의 영역들에서, 커버링(530d)은 바람직하게는 얇고/얇거나 일반적으로 비압축성이어서, 안면 인터페이스(130)에 의해 사용자의 얼굴(F)에 가해지는 힘의 정확한 측정을 제공하도록 한다. 대안적으로, 커버링(530d)은 압축성이어서, 사용자의 얼굴(F)과 힘 센서(632a) 사이에 충전재를 제공하도록 할 수 있다(예컨대, 발포체, 실리콘, 또는 패브릭과 같은 압축성 재료로 형성되거나 또는 다른 방식으로 포함함).
습기를 측정하기 위하여, 생리적 센서(132)는 습기 센서(632b), 예컨대 습도계 또는 적외선 습기 센서일 수 있다. 습기 센서(632b)가 습도계인 경우에, 습기 센서(632b)는 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)과 유체 연통한다. 예를 들어, 습기 센서(632b)는 습기가 이동할 수 있는 직조 패브릭 또는 발포체 재료 뒤와 같은, 안면 인터페이스(130)의 커버링(530d) 뒤에 배열될 수 있다.
온도를 측정하기 위하여, 생리적 센서(132)는 온도 센서(632c), 예컨대 서모커플, 서미스터, 저항성 온도계, 또는 적외선 온도 센서일 수 있다. 서모커플의 경우, 서미스터, 또는 저항성 온도계, 온도 센서(632c)는 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)과 직접 접촉하도록 배열될 수 있거나, 또는 달리 그것과 열 전도성 관계일 수 있다(예컨대, 커버링(530d)의 높은 열 전도성 재료 뒤에 있고, 전도성으로 결합됨). 적외선 온도 센서의 경우에, 온도 센서(632c)는 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)의 적외선 방사를 직접 또는 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)에 의해 개재 재료(예컨대, 커버링(530d))에 열 전도됨에 따라 감지할 수 있다.
변위를 측정하기 위하여, 생리적 센서(132)는 변위 센서(632d), 예컨대 접촉형 변위 게이지일 수 있다. 얼굴(F)의 안면 맞물림 영역(F맞물림)이 이동함에 따라, 변위 센서(632d)가 이동되고 그것의 변위가 측정된다.
커패시턴스를 측정하기 위하여, 생리적 센서(132)는 적합한 유형의 용량성 센서(632e)일 수 있다.
뇌 활동(예컨대, 뇌파검사 또는 EEG), 근육 활동(예컨대, 근전도검사 또는 EMG), 및/또는 심박수(예컨대, 심전도법 또는 ECG)를 측정하기 위하여, 생리적 센서(132)는 적합한 생체전기 신호 센서일 수 있다. 일 예에서, 생체전기 신호 센서는 전극(632f)이다. 전극(632f)은 감지되는 생리적 상태에 따라 상이한 형태들을 취할 수 있음(예컨대, 뇌 활동, 근육 활동, 또는 심장 활동과 같은 상이한 생체전기 활동(bioelectric activity)(예컨대, 생체전기 신호들)을 감지하기 위하여 물리적으로 상이함)에 주의해야 한다. 전극(632f)은 커버링(530d) 내에 통합될 수 있는데, 예를 들어, 커버링(530d)의 직조 패브릭 내에 직조되는 전도성 섬유를 갖는다. 대안적으로, 전극(632f)은 다른 재료로 형성될 수 있고 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)과 직접 접촉하도록 배열될 수 있다.
전극(632f)이 되는 대신에, 생리적 센서(132)는 얼굴(F)과 접촉하여 뇌 활동을 측정하는 뇌 활동 센서(632g)(예컨대, EEG 센서), 얼굴(F)과 접촉하여 근육 활동을 측정하는 근육 활동 센서(632h)(예컨대, EMG 센서), 또는 얼굴(F)과 접촉 또는 관찰하여 심박수를 측정하는 심박수 센서(632i)일 수 있다.
도 7을 참조하면, 안면 인터페이스(130)는 안면 맞물림 영역(F맞물림)이 광학적으로 관찰가능한 윈도우(736)를 포함할 수 있다. 예를 들어, 윈도우(736)는 커버링(530d) 내에 형성될 수 있고, 디스플레이 유닛(110)에 결합된 센서들(344) 중 하나가 그 뒤에 있는 안면 맞물림 영역(F맞물림)을 관찰하여 사용자의 상태들을 감지한다(예컨대, 사용자의 얼굴 움직임을 측정하기 위한 카메라, 광학 방출기 및 검출기를 갖는 광학 심박수 센서, 또는 적외선 센서).
도 8을 참조하면, 하나 이상의 생리적 센서들(132)은 그것과 연관된 생리적 상태(예컨대, 힘, 습기, 온도, 변위, 뇌 활동, 근육 활동, 또는 심장 활동)을 측정하기 위하여 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림) 내의 하나 이상의 적합한 위치들에 제공될 수 있다. 예를 들어, 생리적 센서들(132) 중 하나 이상은 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림) 중에서 이마 맞물림 영역(FH맞물림), 관자놀이 맞물림 영역(T맞물림), 및/또는 뺨 맞물림 영역(C맞물림)으로 배열될 수 있다. 힘 센서들(632a)은 압력이 측정되기를 원하는 영역들, 예를 들어, 특정 얼굴 표정들을 검출하거나 또는 편안함을 평가하기를 원하는 영역들, 예컨대 이마 맞물림 영역(FH맞물림), 관자놀이 맞물림 영역(T맞물림), 또는 뺨 맞물림 영역(C맞물림)에 배열될 수 있다. 뇌 활동 센서들(632g)은 뇌 활동이 측정가능할 수 있는 곳, 예컨대 이마 맞물림 영역(FH맞물림)에 위치될 수 있다. 근육 활동 센서들(632h)은, 예를 들어, 얼굴 표정들을 평가하기 위하여 얼굴 움직임이 측정가능한 곳, 예컨대 이마 맞물림 영역(FH맞물림), 관자놀이 맞물림 영역(T맞물림), 및/또는 뺨 맞물림 영역(C맞물림)에 배열될 수 있다. 심박수 센서(632i)는 심박수가 광학적으로 감지될 수 있는 곳, 예컨대 관자놀이 맞물림 영역(T맞물림), 또는 심박수가 전기적으로 측정가능할 수 있는 곳, 예컨대 이마 맞물림 영역(FH맞물림)에 배열될 수 있다.
도 9 및 도 10을 참조하면, 안면 인터페이스(130)는 디스플레이 유닛(110)에 제거가능하게 결합가능할 수 있다. 헤드 장착형 디스플레이(100)는 하나 이상의 위치들에서 기계적 연결부들(902)을 형성하고, 안면 인터페이스(130)와 디스플레이 유닛(110) 사이에서 하나 이상의 전력 연결부들(904), 및 하나 이상의 데이터 연결부들(906)을 형성한다.
기계적 연결부들(902)은 기계적으로 안면 인터페이스(130)를 디스플레이 유닛(110)에 결합시켜, 안면 인터페이스(130) 및 디스플레이 유닛(110)이 서로 지지될 수 있도록, 예컨대 안면 인터페이스(130)가 사용자의 얼굴(F) 상에서 디스플레이 유닛(110)을 지지할 수 있도록 한다. 기계적 연결부들(902)은, 예를 들어, 자기적으로(예컨대, 영구 자석들 및 대응하는 영구 자석들 또는 견인 플레이트), 후크 및 루프 체결구들로, 억지 끼워맞춤(예컨대, 안면 인터페이스(130)의 전방 단부가 디스플레이 유닛(110) 내에 또는 그 주위에 단단히 끼임)으로, 대응하는 슬롯들 또는 함몰부들과 수동적으로 맞물리는 돌출부들로, 메커니즘들(예컨대, 래치들)로, 또는 이들의 조합으로 형성될 수 있다. 기계적 연결부들(902)은 하나 이상의 위치들에서 형성될 수 있는데, 예를 들어, 안면 인터페이스 기계적 커넥터들(930a)이 안면 인터페이스(130)(예컨대, 유연성 구조체(530a)에 결합되어 있음) 주위에 분포되고 디스플레이 유닛 기계적 커넥터들(910a)이 대응하는 위치들에서 디스플레이 유닛(110)(예컨대, 하우징(114)에 결합되어 있음) 주위에 분포된다.
전력 연결부(904)는 디스플레이 유닛(110)과 안면 인터페이스(130) 사이에서 전기 전력을 전달하는데, 예컨대 디스플레이 유닛(110)에 의해 전력 공급되도록 안면 인터페이스(130)에 전기 전력을 전달한다(예컨대, 안면 인터페이스(130)의 생리적 센서들(132)은 디스플레이 유닛(110)에 의해 전력공급됨). 전력 연결부(904)는 임의의 적합한 방식으로, 예컨대 전도성으로(예컨대, 스프링 접촉부들에 의해 맞물리는 고정 접촉부들, 또는 플러그 및 대응하는 리셉터클) 또는 무선으로(예컨대, 대응하는 유도 코일로) 형성될 수 있다. 전력 연결부(904)는 하나 이상의 위치들에서 형성될 수 있는데, 예를 들어, 안면 인터페이스 전력 커넥터(930b)가 안면 인터페이스(130) 상에 있고 디스플레이 유닛 전력 커넥터(910b)가 대응하는 위치에서 디스플레이 유닛(110) 상에 있다. 안면 인터페이스 전력 커넥터(930b)는 하나 이상의 생리적 센서들(132)에 결합되어 그곳으로 전력을 제공한다. 디스플레이 유닛 전력 커넥터(910b)는 전력 전자장치(348)에, 직접 또는 간접적으로 결합되어, 그곳으로부터 전력을 전달한다.
데이터 연결부(906)는 디스플레이 유닛(110)과 안면 인터페이스(130) 사이에서 데이터를 전달하는데, 예컨대, 제어 신호들을 디스플레이 유닛(110)(예컨대, 그것의 제어기(342))으로부터 안면 인터페이스(130)(예컨대, 그것의 생리적 센서들(132) 및/또는 햅틱 출력 디바이스들(133))로 전달하고/하거나 센서 신호들을 안면 인터페이스(130)(예컨대, 그것의 생리적 센서들(132))로부터 디스플레이 유닛(110)(예컨대, 그것의 제어기(342))으로 전달한다. 데이터 연결부(906)는 임의의 적합한 방식으로, 예컨대 전도성으로(예컨대, 스프링 접촉부들에 의해 맞물리는 고정 접촉부들, 또는 플러그 및 대응하는 리셉터클) 또는 무선으로(예컨대, 무선 송수신기들이 블루투스와 같은 적합한 프로토콜들을 이용함) 형성될 수 있다. 데이터 연결부(906)는 하나 이상의 위치들에서 형성될 수 있는데, 예를 들어, 안면 인터페이스 데이터 커넥터(930c)가 안면 인터페이스(130) 상에 있고 디스플레이 유닛 데이터 커넥터(910c)가 대응하는 위치에서 디스플레이 유닛(110) 상에 있다. 안면 인터페이스 데이터 커넥터(930c)는 하나 이상의 생리적 센서들(132)에, 직접 또는 간접적으로 결합되어, 예를 들어, 제어 신호들을 그것에 전달 및/또는 그로부터 센서 신호들을 전달한다(예컨대, 감지된 생리적 정보를 주고 받음). 디스플레이 유닛 데이터 커넥터(910c)는 제어기(342)에, 직접 또는 간접적으로 결합되어, 예를 들어, 그로부터 제어 신호들을 전달 및/또는 그것에 센서 신호들을 전달한다(예컨대, 감지된 생리적 정보를 수신).
전력 연결부(904) 및 데이터 연결부(906)는 둘 모두 공통 연결 시스템, 예컨대 전력 및 데이터 둘 모두를 전달할 수 있는 플러그 및 리셉터클 시스템에 의해 형성될 수 있다. 예를 들어, 전력 연결부(904) 및 데이터 연결부(906)는 적합한 유형의 범용 직렬 버스(USB) 커넥터들, 예컨대 USB 타입 C로 형성될 수 있다.
헤드 장착형 디스플레이(100) 및, 특히 그것의 디스플레이 유닛(110)은 상이한 안면 인터페이스들(130)에 상호교환가능하게 결합하도록 구성될 수 있다. 상이한 안면 인터페이스들(130)은, 예를 들어, 크기 및/또는 형상이 달라질 수 있다(예컨대, 디스플레이 유닛(110)이 상이한 크기의 얼굴들(F)을 갖는 사람들에 사용될 수 있도록 함). 상이한 안면 인터페이스들(130)은 대신에 또는 추가적으로 그것의 생리적 센서들(132)의 구성에 따라, 예를 들어, 상이한 유형들의 생리적 센서들(132)(예컨대, 센서들(632a 내지 632i)), 상이한 개수의 생리적 센서들(132), 및/또는 상이한 배치의 생리적 센서들(132)을 가짐으로써 상이할 수 있다. 상이한 안면 인터페이스들(130)에 상이하게 구성된 생리적 센서들(132)을 제공함으로써, 상이한 기능들이 그에 의해 제공될 수 있다. 예를 들어, 하나의 안면 인터페이스(130)는 하나 이상의 뇌 활동 센서들(632g) 및/또는 뇌 활동을 모니터링하기 위한 하나 이상의 전극들(632f)을 포함할 수 있지만, 다른 안면 인터페이스(130)는 힘 센서들(632a)을 포함할 수 있다. 예를 들어, 서로 동일한 방식으로 디스플레이 유닛(110)과의 기계적 연결부들(902), 전력 연결부들(904), 및/또는 데이터 연결부들(906)을 형성함으로써, 상이한 안면 인터페이스들(130)은 디스플레이 유닛(110)에 상호교환가능하게 결합가능할 수 있다. 예를 들어, 2개의 상이한 안면 인터페이스들(130)은 공통 유형의 전력 커넥터들(910b, 930b) 및/또는 데이터 커넥터들(910c, 930c)로, 예컨대 전력 연결부(904) 및 데이터 연결부(906) 둘 모두를 형성할 수 있는 표준화된 커넥터(예컨대, USB-C)로 전력 연결부(904) 및/또는 데이터 연결부들(906)을 형성한다.
도 11 내지 도 15를 참조하면, 안면 맞물림 영역(F맞물림)에서 하나 이상의 생리적 센서들(132)에 의해 감지된 생리적 정보는 다양한 상이한 방식들로, 예를 들어, 생리적 식별, 사용자 핏의 평가, 배치의 평가 및/또는 가이드, 그래픽 콘텐츠의 변경, 및 다른 목적을 위한 생리적 정보의 단순한 출력, 예컨대 개인 건강 모니터링, 대중 건강 연구, 또는 아직 미정된 용도를 위하여 사용될 수 있다. 또한, 생리적 센서들(132)의 하나 이상의 다양한 용도들에서, 헤드 장착형 디스플레이(100)는 전자장치(140)의 센서들(344)로부터의 정보를 추가로 활용하여, 예를 들어, 하나 이상의 생리적 센서들(132)로 안면 맞물림 영역(F맞물림)에서 감지된 생리적 정보를 이용한 평가들을 보완, 컨펌, 및/또는 무효화할 수 있다. 센서들(344)은, 예를 들어, 안면 맞물림 영역(F맞물림)에 의해 둘러싸인(예컨대, 안면 인터페이스(130)에 의해 둘러싸인) 영역들에서 사용자의 생리적 상태들, 예컨대 사용자의 눈(E)의 상태 또는 특성들을 감지할 수 있다.
도 11을 참조하면, 헤드 장착형 디스플레이를 이용한 생리적 인증을 위한 방법(1100)이 제공된다. 제1 동작(1110)에서 생리적 상태들이 감지되고, 제2 동작(1120)에서 생리적 상태들이 평가되어 사용자를 식별 또는 인증하고, 사용자를 식별 또는 인증하면, 제3 동작(1130)에서 사용자에게 허가가 인정된다.
제1 동작(1110)에서, 생리적 상태들은 안면 맞물림 영역(F맞물림)에서 하나 이상의 센서들을 이용하여, 예를 들어, 제어기(342)와 함께, 예컨대 생리적 센서들(132) 중 하나를 이용하여 감지된다. 생리적 상태들은, 예를 들어, (예컨대, 사용자의 얼굴(F)의 형상 또는 얼굴 특징부들을 결정하기 위한) 다양한 위치들에서의 힘 및/또는 변위 측정치들 또는 사용자를 식별하기에 적합한 생체전기 신호들을 포함할 수 있다.
제1 동작(1110)은 사용자의 생리적 상태들이 안면 맞물림 영역(F맞물림)의 외측의 안면 영역들에서(즉, 안면 인터페이스(130)에 의해 맞물리지 않는 영역들에서) 추가적으로 감지되는 하위동작(1115)을 추가로 포함할 수 있다. 예를 들어, 디스플레이 유닛(110)의 전자장치(140)의 센서들(344) 중 하나(예컨대, 카메라)는 사용자의 눈(E) 중 하나 이상의 상태들을 감지할 수 있다.
제2 동작(1120)에서, 제1 동작(1110)에서 감지되는 생리적 상태들은 컴퓨팅 디바이스, 예컨대 제어기(342)로 평가되어 사용자를 식별 또는 인증한다. 예를 들어, 생리적 상태들은 한 명 이상의 승인된 사용자들의 이전에 측정 또는 결정된 것들과 비교된다. 감지된 생리적 상태들이 사용자의 이전에 측정된 상태들과 매칭되거나 또는 다른 방식으로 호의적으로 비교되는 경우, 사용자는 식별 또는 인증된 것으로 간주된다.
제2 동작(1120)은 안면 맞물림 영역(F맞물림)의 외측의 안면 영역들에서 감지된 생리적 상태들이 평가되는 하위동작(1125)을 추가로 포함할 수 있다. 예를 들어, 안면 맞물림 영역(F맞물림)의 외측으로부터의 생리적 상태들은 한 명 이상의 승인된 사용자들의 이전에 측정 또는 결정된 것들에 대하여 비교된다. 안면 맞물림 영역(F맞물림) 내외의 생리적 상태들 모두가 이전에 측정된 상태들과 매칭되거나 또는 다른 방식으로 호의적으로 비교되는 경우, 사용자는 식별 또는 인증된 것으로 간주된다.
제3 동작(1130)에서, 제2 동작(1120)에서 결정된 식별 또는 인증에 따라, 헤드 장착형 디스플레이(100)는 사용자에게, 예를 들어, 헤드 장착형 디스플레이(100)의 상이한 기능(예컨대, 그래픽 콘텐츠)에 액세스하기 위한 하나 이상의 허가들을 제공한다.
도 12a 및 도 12b를 참조하면, 사용자에게 적합한 안면 인터페이스를 결정하는 방법(1200)이 제공된다. 제1 동작(1210)에서 사용자의 생리적 상태들이 감지되고, 이어서 제2 동작(1220)에서 감지된 생리적 상태들은 상이한 안면 인터페이스들의 생리적 기준과 비교되고, 제3 동작(1230)에서 상이한 안면 인터페이스들 중 하나가 식별된다.
제1 동작(1210)에서, 사용자의 생리적 상태들은 안면 인터페이스(130) 주위에 (예컨대, 사용자의 눈(E) 위, 아래, 및/또는 양측을 따라) 분포된 생리적 센서들(132)을 포함하는 도 12b에 도시된 예컨대, 안면 인터페이스(1230a)의 변동을 이용하여 감지된다. 생리적 센서들(132)은 사용자의 얼굴(F)의 형상 또는 그것의 특징부들을 측정하기에 적합한 유형의 것들, 예컨대 힘 센서(632a)(예컨대, 안면 맞물림 영역(F맞물림) 주위의 힘 분포) 또는 변위 센서들(632d)이다.
제2 동작(1220)에서, 제1 동작(1210)에서 감지되는 생리적 상태들은 컴퓨팅 디바이스, 예컨대 헤드 장착형 디스플레이(100)의 제어기(342)로 평가되어, 안면 형상 특성들을 결정한다. 예를 들어, 안면 형상은 생리적 상태들에 기초하여 (예컨대, 크기 및/또는 인종에 의해) 넓게 특징지어질 수 있거나, 또는 안면 형상 특성들은 더 별개로 특징지어질 수 있다(예컨대, 사용자의 눈썹 및 코와 같이 개인적인 특징부들의 크기 및 상대적 위치).
제3 동작(1230)에서, 안면 형상 특성들은, 사용자의 얼굴(F)에 적합한 안면 인터페이스들 중 하나 이상을 식별하기 위하여, 컴퓨팅 디바이스를 이용하여, 안면 인터페이스들(130) 또는 생리적 센서들(132)이 없는 다른 안면 인터페이스들과 같은 상이한 안면 인터페이스들의 대응하는 특성들과 비교된다. 예를 들어, 상이한 크기들 또는 형상들을 갖는 상이한 안면 인터페이스들(130)은 안면 형상 특성들에 대한 허용가능 범위의 값들을 가질 수 있고, 안면 형상 특성들이 허용가능 범위의 값들 내에 속하는 경우, 사용자에 적합한 안면 인터페이스(130)가 식별된다.
도 13을 참조하면, 헤드 장착형 디스플레이(100)의 배치를 평가하기 위한 방법(1300)이 제공된다. 제1 동작(1310)에서 생리적 상태가 감지되고, 제2 동작(1320)에서 위치가 평가되고, 제3 동작(1330)에서 배치 피드백이 제공된다.
제1 동작(1310)에서, 생리적 상태는 센서, 예컨대 사용자의 얼굴(F) 상의 안면 인터페이스(130)의 배치를 평가하기에 적합한 생리적 센서들(132) 중 하나를 이용하여 감지된다. 예를 들어, 생리적 센서들(132)은 힘 센서들(632a) 또는 변위 센서들(632d)(예컨대, 이에 의해 얼굴(F)의 형상 또는 안면 특성들이 결정될 수 있음), 용량성 센서들(632e), 또는 생체전기 신호 센서들 중 적합한 것들 중 하나 이상일 수 있다.
제1 동작(1310)은 사용자의 생리적 상태들이 안면 맞물림 영역(F맞물림)의 외측의 안면 영역들에서(즉, 안면 인터페이스(130)에 의해 맞물리지 않는 영역들에서) 추가적으로 감지되는 제1 하위동작(1315)을 추가로 포함할 수 있다. 예를 들어, 디스플레이 유닛(110)의 전자장치(140)의 센서들(344) 중 하나는 사용자의 눈(E) 중 하나 이상의 상태들(예컨대, 눈(E)의 위치들, 예를 들어, 카메라 및 이미지 인식을 이용)을 감지할 수 있다.
제2 동작(1320)에서, 위치는 제1 동작(1310)에서 감지된 생리적 상태에 따라 컴퓨팅 디바이스, 예컨대 제어기(342)를 이용하여 평가된다. 예를 들어, 사용자의 얼굴(F)과의 적절한 접촉은 힘 센서들(632a), 용량성 센서들(632e), 및 용량성 센서들(632e)에 의해 감지된 생리적 상태들을 안면 인터페이스(130)가 사용자의 얼굴 상에서 적절히 위치되었던 이전 시간에 감지된 이러한 생리적 상태들과 비교함으로써 평가될 수 있다.
제2 동작(1320)은 안면 맞물림 영역(F맞물림)의 외측의 안면 영역들에서 감지된 생리적 상태들이 평가되는 하위동작(1325)을 추가로 포함할 수 있다. 예를 들어, 사용자의 얼굴(F) 상의 헤드 장착형 디스플레이(100)의 위치는 사용자의 눈(E)의 감지된 위치들에 따라 추가로 평가될 수 있다.
제3 동작(1330)에서, 배치 피드백(예컨대, 위치 표시)이 제2 동작(1320)에서 결정되는 위치 평가에 따라, 예를 들어, 컴퓨팅 디바이스에 의해 제어될 수 있는 바와 같이, 디스플레이 유닛(110)에 의해 출력되는 그래픽 피드백, 오디오 출력 디바이스에 의해 출력되는 오디오 피드백, 또는 햅틱 출력 디바이스(133)에 의해 출력되는 햅틱 피드백으로서 제공된다. 배치 피드백은 양분법적일 수 있거나(예컨대, 안면 인터페이스(130)가 사용자의 얼굴(F) 상에서 적절한 위치에 있지 않은 경우 부정적 표시), 또는 교훈적일 수 있다(예컨대, 사용자에게 헤드 장착형 디스플레이(100)를 적절한 위치로 옮기는 방법에 관한 지침을 제공).
도 14를 참조하면, 헤드 장착형 디스플레이를 이용하여 그래픽 콘텐츠를 변경하기 위한 방법(1400)이 제공된다. 제1 동작(1410)에서 생리적 상태가 감지되고, 제2 동작(1420)에서 사용자 감정 상태가 평가되고, 제3 동작(1430)에서 그래픽 콘텐츠는 사용자 감정 상태에 따라 변경된다.
제1 동작(1410)에서, 생리적 상태는 센서, 예컨대 사용자의 감정 상태를 평가하기에 적합한 생리적 센서들(132) 중 하나를 이용하여 감지된다. 예를 들어, 생리적 센서들(132)은 생체전기 신호 센서들, 예컨대 전극들(632f), 뇌 활동 센서들(632g), 근육 활동 센서들(632h), 및/또는 심박수 센서들(632i) 중 하나 이상일 수 있다. 상승된 뇌 활동, 근육 활동, 또는 심박수는 고조된 감정 상태를 나타낼 수 있는 반면, 낮아진 뇌 활동, 근육 활동, 또는 심박수는 진정된 감정 상태를 나타낼 수 있다. 제1 동작(1410)은 상이한 유형의, 다른 생리적 상태가 감지되는 하위동작(1415)을 포함할 수 있다. 다른 생리적 상태는 안면 맞물림 영역(F맞물림) 내에서 또는 그 외측에서 감지될 수 있다. 예를 들어, 사용자가 안면 인터페이스(130)에 의해 억제될 수 있는 자연스러운 얼굴 표정(예컨대, 미소)을 시도할 때, 근육 활동 센서들(632h) 및 힘 센서들(632a)은 각각 얼굴 표정을 나타내는 생리적 상태들을 감지할 수 있다.
제2 동작(1420)에서, 사용자 감정 상태는 제1 동작(1410)에서 감지된 생리적 상태에 따라 컴퓨팅 디바이스, 예컨대 제어기(342)를 이용하여 평가된다. 예를 들어, 뇌 활동, 근육 활동, 또는 심박수는 상한 임계치(예컨대, 사용자가 고조된 감정 상태에 있는 것으로 결정된 것을 초과)와 비교될 수 있거나, 하한 임계치(예컨대, 사용자가 진정된 감정 상태에 있는 것으로 결정된 것 미만)와 비교될 수 있거나, 경향(예컨대, 증가 또는 감소하는 경우 사용자는 각각 고조된 감정 상태 또는 진정된 감정 상태로 이동하고 있다고 결정됨), 또는 다른 기준(예컨대, 생체전기 신호들의 패턴)에 대하여 평가될 수 있다. 제2 동작(1420)은 다른 생리적 상태가 평가되는 하위동작(1425)을 포함할 수 있다. 예를 들어, 감정 상태의 결정은 제1 생리적 상태 및 제2(예컨대, 다른) 생리적 상태 둘 모두에 기초할 수 있다.
다른 예들에서, 힘 센서들(632a) 및/또는 변위 센서들(632d)은 사용자의 감정 상태를 나타내는 얼굴 표정들(예컨대, 놀람 또는 진정을 나타내는 얼굴 표정들)을 식별하는 데 사용될 수 있다.
제3 동작(1430)에서, 그래픽 콘텐츠는 제2 동작(1420)에서 결정된 사용자 감정 상태에 따라 변경된다. 그래픽 콘텐츠는, 예를 들어, (예컨대, 더 신속하게 이동하는 그래픽 콘텐츠를 디스플레이함으로써) 격앙된 감정 상태 또는 (예컨대, 덜 신속하게 이동하는 그래픽 콘텐츠를 디스플레이함으로써) 진정된 감정 상태를 유도 또는 유지하도록 변경될 수 있다. 그래픽 콘텐츠는 또한 그래픽 콘텐츠가 전달되는 것에 따라 소프트웨어 프로그램의 속성에 따라 변경될 수 있다. 예를 들어, 고조된 감정 상태를 유도하도록 의도되는 소프트웨어 프로그램들의 경우, 그래픽 콘텐츠는 사용자의 감정 상태를 진정된 감정 상태로부터 멀어지게 변경하도록 의도된 방식으로 제공될 수 있다. 사용자를 이완시키도록 의도되는 소프트웨어 프로그램들의 경우, 그래픽 콘텐츠는 사용자의 감정 상태를 고조된 감정 상태로부터 멀어지게 변경하도록 의도된 방식으로 제공될 수 있다.
도 15를 참조하면, 사용자의 안면 맞물림 영역(F맞물림)에서 감지된 생리적 상태들 및 다른 상태에 따라 헤드 장착형 디스플레이를 동작시키기 위한 방법(1500)이 제공된다. 제1 동작(1510)에서 생리적 상태가 감지되고, 제2 동작(1520)에서 다른 상태가 감지되고, 제3 동작(1530)에서 생리적 상태 및 다른 상태 둘 모두에 따라 결정이 내려지고, 제4 동작(1540)에서 그 결정에 따라 동작이 수행된다.
제1 동작(1510)에서, 생리적 상태는 사용자의 얼굴(F)의 안면 맞물림 영역(F맞물림)에서 센서, 예컨대 생리적 센서(132)를 이용하여 감지된다. 생리적 센서(132)는 전술된 센서 유형들(예컨대,(632a 내지 632i)) 중 임의의 것일 수 있고, 생리적 상태는 전술된 생리적 상태들 중 임의의 것일 수 있다.
제2 동작(1520)에서, 다른 상태는 다른 센서를 이용하여 감지된다. 다른 센서는 헤드 장착형 디스플레이(100)의 다른 센서, 예컨대 센서(344)일 수 있고, 이 경우에 센서(344)는 안면 맞물림 영역(F맞물림)의 외측의 다른 안면 영역에서 사용자의 다른 생리적 상태(예컨대, 눈 위치)를 감지할 수 있거나 또는 다른 상태(예컨대, 헤드 장착형 디스플레이의 이동)를 감지할 수 있다. 대안적으로, 다른 센서는 전자 디바이스(350)의 센서일 수 있고, 여기서 다른 상태는 전자 디바이스(350)의 이동일 수 있다(예컨대, 사용자의 이동을 나타냄).
제3 동작(1530)에서, 제1 동작(1510)에서 감지된 생리적 상태 및 제2 동작(1520)에서 감지된 다른 상태 둘 모두에 따라 결정이 내려진다. 결정은 컴퓨팅 디바이스, 예컨대 제어기(342)에 의해 내려진다. 결정은 생리적 상태 및 다른 상태 둘 모두를 입력으로서 필요로 한다. 일 예에서, 결정은 헤드 장착형 디스플레이가 위치를 벗어났다는 것일 수 있는데, 이는 불균일하게 분포된 힘의 생리적 상태 및 디스플레이 유닛(110)에 대하여 오프셋되어 있는 사용자의 눈(E)의 다른 상태 둘 모두에 따라 결정될 수 있다. 다른 예에서, 결정은 사용자가 매우 활동적이라는 것일 수 있는데, 이는 높은 뇌 활동의 생리적 상태 및 전자 디바이스(350)의 많은 이동의 다른 상태 둘 모두에 따라 결정될 수 있다.
제4 동작(1540)에서, 추가적인 동작이 제3 동작(1530)에서 내려진 결정에 따라 수행된다. 추가적인 동작들의 다양한 예들은 양분법적 또는 교훈적 위치 피드백(전술됨)을 제공하거나 또는 그래픽 콘텐츠를 변경하는 것(예컨대, 사용자의 그래픽을 신속하게 변경하는 것을 디스플레이하는 것은 매우 활동적임)을 포함한다.
물리적 환경은 사람들이 전자 시스템들의 도움없이 감지하고/하거나 그와 상호작용할 수 있는 물리적 세계를 지칭한다. 물리적 공원과 같은 물리적 환경들은 물리적 물품들, 예컨대 물리적 나무들, 물리적 건물들, 및 물리적 사람들을 포함한다. 사람들은, 예컨대 시각, 촉각, 청각, 미각, 및 후각을 통해, 물리적 환경을 직접 감지하고/하거나 그와 상호작용할 수 있다.
대조적으로, 컴퓨터-생성 현실(computer-generated reality, CGR) 환경은 사람들이 전자 시스템을 통해 감지하고/하거나 그와 상호작용하는 완전히 또는 부분적으로 모사된 환경을 지칭한다. CGR에서, 사람의 물리적 움직임들, 또는 이들의 표현들의 서브세트가 추적되고, 이에 응답하여, CGR 환경에서 시뮬레이션된 하나 이상의 가상 객체들의 하나 이상의 특성들이 적어도 하나의 물리 법칙에 따르는 방식으로 조정된다. 예를 들어, CGR 시스템은 사람이 고개를 돌리는 것을 검출할 수 있고, 이에 응답하여, 그 사람에게 제시되는 그래픽 콘텐츠 및 음장(acoustic field)을 물리적 환경에서 그러한 뷰들 및 소리들이 변화하는 방식과 유사한 방식으로 조정할 수 있다. 일부 상황들에서(예를 들어, 접근성 이유들 때문에), CGR 환경에서의 가상 객체(들)의 특성(들)에 대한 조정들은 물리적 움직임들의 표현들(예를 들어, 음성 커맨드들)에 응답하여 이루어질 수 있다.
사람은, 시각, 청각, 촉각, 미각, 및 후각을 포함하는 그들의 감각들 중 임의의 하나를 사용하여 CGR 객체를 감지하고/하거나 그와 상호작용할 수 있다. 예를 들어, 사람은 3D 공간에서의 포인트 오디오 소스들의 지각을 제공하는 3D 또는 공간적 오디오 환경을 생성하는 오디오 객체들을 감지하고/하거나 그와 상호작용할 수 있다. 다른 예에서, 오디오 객체들은 오디오 투명성을 가능하게 할 수 있으며, 이는 선택적으로, 물리적 환경으로부터의 주변 소리들을 컴퓨터-생성 오디오와 함께 또는 그것 없이 통합한다. 일부 CGR 환경들에서, 사람은 오디오 객체들만을 감지하고/하거나 그와 상호작용할 수 있다.
CGR의 예들은 가상 현실 및 혼합 현실을 포함한다.
가상 현실(VR) 환경은 하나 이상의 감각들에 대한 컴퓨터-생성 감각 입력들에 전적으로 기초하도록 설계된 시뮬레이션된 환경을 지칭한다. VR 환경은 사람이 감지하고/하거나 그와 상호작용할 수 있는 복수의 가상 객체들을 포함한다. 예를 들어, 나무들, 빌딩들, 및 사람들을 표현하는 아바타들의 컴퓨터-생성 형상화가 가상 객체들의 예들이다. 사람은, 컴퓨터-생성 환경에서의 사람의 존재의 시뮬레이션을 통해 그리고/또는 컴퓨터-생성 환경에서의 사람의 신체적 움직임들의 서브세트의 시뮬레이션을 통해 VR 환경에서 가상 객체들을 감지하고/하거나 그와 상호작용할 수 있다.
컴퓨터-생성 감각 입력들에 전적으로 기초하도록 설계되는 VR 환경과는 대조적으로, 혼합 현실(MR) 환경은 컴퓨터-생성 감각 입력들(예를 들어, 가상 객체들)을 포함하는 것에 부가하여, 물리적 환경으로부터의 감각 입력들, 또는 그들의 표현을 통합하도록 설계된 시뮬레이션된 환경을 지칭한다. 가상 연속체(virtuality continuum)에서, 혼합 현실 환경은 한쪽의 완전히 물리적인 환경과 다른 쪽의 가상 현실 환경 사이의 임의의 곳에 있지만, 포함하지는 않는다.
일부 MR 환경들에서, 컴퓨터-생성 감각 입력들은 물리적 환경으로부터의 감각 입력들의 변화들에 응답할 수 있다. 또한, MR 환경을 제시하기 위한 일부 전자 시스템들은 물리적 환경에 대한 위치 및/또는 배향을 추적하여 가상 객체들이 실제 객체들(즉, 물리적 환경으로부터의 물리적 물품들 또는 물리적 물품들의 표현들)과 상호작용할 수 있게 할 수 있다. 예를 들어, 시스템은 움직임들을 고려하여 가상 나무가 물리적 땅에 대하여 고정되어 있는 것처럼 보이도록 할 수 있다.
혼합 현실들의 예들은 증강 현실 및 증강 가상을 포함한다.
증강 현실(AR) 환경은 하나 이상의 가상 객체가 물리적 환경, 또는 그의 표현 위에 중첩되어 있는 시뮬레이션된 환경을 지칭한다. 예를 들어, AR 환경을 제시하기 위한 전자 시스템은 사람이 직접 물리적 환경을 볼 수 있는 투명 또는 반투명 디스플레이를 가질 수 있다. 시스템은 투명 또는 반투명 디스플레이 상에 가상 객체들을 제시하도록 구성되어, 사람이, 시스템을 사용하여, 물리적 환경 위에 중첩된 가상 객체들을 지각하도록 할 수 있다. 대안적으로, 시스템은 불투명 디스플레이, 및 물리적 환경의 표현들인 물리적 환경의 이미지들 또는 비디오를 캡처하는 하나 이상의 이미징 센서들을 가질 수 있다. 시스템은 이미지들 또는 비디오를 가상 객체들과 합성하고, 합성물을 불투명 디스플레이 상에 제시한다. 사람은, 시스템을 사용하여, 물리적 환경의 이미지들 또는 비디오에 의해 물리적 환경을 간접적으로 보고, 물리적 환경 위에 중첩된 가상 객체들을 지각한다. 본 명세서에 사용되는 바와 같이, 불투명 디스플레이 상에 보여지는 물리적 환경의 비디오는 "패스-스루(pass-through) 비디오"로 불리는데, 이는 시스템이 하나 이상의 이미지 센서(들)를 사용하여 물리적 환경의 이미지들을 캡처하고, AR 환경을 불투명 디스플레이 상에 제시할 시에 이들 이미지들을 사용하는 것을 의미한다. 추가로 대안적으로, 시스템은 가상 객체들을 물리적 환경에, 예를 들어, 홀로그램으로서 또는 물리적 표면 상에 투영하는 투영 시스템을 가질 수 있어서, 사람이 시스템을 사용하여 물리적 환경 위에 중첩된 가상 객체들을 지각하게 한다.
증강 현실 환경은 또한 물리적 환경의 표현이 컴퓨터-생성 감각 정보에 의해 변환되는 시뮬레이션된 환경을 지칭한다. 예를 들어, 패스-스루 비디오를 제공할 시에, 시스템은 하나 이상의 센서 이미지들을 변환하여 이미징 센서들에 의해 캡처된 관점과 상이한 선택 관점(예를 들어, 시점)을 부과할 수 있다. 다른 예를 들어, 물리적 환경의 표현은 그것의 일부들을 그래픽적으로 수정(예컨대, 확대)함으로써 변환될 수 있고, 수정된 부분은 원래 캡처된 이미지들의 대표적인 버전일 수 있지만, 실사 버전은 아닐 수 있다. 추가적인 예로서, 물리적 환경의 표현은 그의 일부들을 그래픽적으로 제거하거나 또는 흐리게 함으로써 변환될 수 있다.
증강 가상(AV) 환경은 가상 또는 컴퓨터 생성 환경이 물리적 환경으로부터의 하나 이상의 감각 입력들을 통합하는 시뮬레이션된 환경을 지칭한다. 감각 입력들은 물리적 환경의 하나 이상의 특성들의 표현들일 수 있다. 예를 들어, AV 공원은 가상 나무들 및 가상 빌딩들을 가질 수 있지만, 사람들의 안면들은 물리적 사람들을 촬영한 이미지들로부터 실사처럼 재현될 수 있다. 다른 예로서, 가상 객체는 하나 이상의 이미징 센서들에 의해 이미징되는 물리적 물품의 형상 또는 색상을 채용할 수 있다. 추가적인 예로서, 가상 객체는 물리적 환경에서 태양의 위치에 부합하는 그림자들을 채용할 수 있다.
사람이 다양한 CGR 환경들을 감지하고/하거나 그와 상호작용할 수 있게 하는 많은 상이한 유형들의 전자 시스템들이 존재한다. 예들은 헤드 장착형 시스템들, 투영-기반 시스템들, 헤드-업(head-up) 디스플레이(HUD)들, 디스플레이 능력이 통합된 차량 앞유리들, 디스플레이 능력이 통합된 창문들, 사람의 눈들에 배치되도록 설계된 렌즈들로서 형성된 디스플레이들(예를 들어, 콘택트 렌즈들과 유사함), 헤드폰들/이어폰들, 스피커 어레이들, 입력 시스템들(예를 들어, 햅틱 피드백이 있거나 또는 없는 웨어러블 또는 핸드헬드 제어기들), 스마트폰들, 태블릿들, 및 데스크톱/랩톱 컴퓨터들을 포함한다. 헤드 장착형 시스템은 하나 이상의 스피커(들) 및 통합 불투명 디스플레이를 가질 수 있다. 대안적으로, 헤드 장착형 시스템은 외부 불투명 디스플레이(예를 들어, 스마트폰)를 수용하도록 구성될 수 있다. 헤드 마운트 시스템은 물리적 환경의 이미지들 또는 비디오를 캡처하기 위한 하나 이상의 이미징 센서들, 및/또는 물리적 환경의 오디오를 캡처하기 위한 하나 이상의 마이크로폰들을 통합할 수 있다. 헤드 장착형 시스템은 불투명 디스플레이보다는, 투명 또는 반투명 디스플레이를 가질 수 있다. 투명 또는 반투명 디스플레이는 이미지들을 표현하는 광이 사람의 눈들로 지향되는 매체를 가질 수 있다. 디스플레이는 디지털 광 프로젝션, OLED들, LED들, uLED들, 실리콘 액정 표시장치, 레이저 스캐닝 광원, 또는 이들 기술들의 임의의 조합을 이용할 수 있다. 매체는 광학 도파관, 홀로그램 매체, 광학 조합기, 광학 반사기, 또는 이들의 임의의 조합일 수 있다. 일 실시예에서, 투명 또는 반투명 디스플레이는 선택적으로 불투명하게 되도록 구성될 수 있다. 투영-기반 시스템들은 그래픽 이미지들을 사람의 망막 상에 투영하는 망막 투영 기술을 이용할 수 있다. 투영 시스템들은 또한 가상 객체들을 물리적 환경에, 예를 들어, 홀로그램으로서 또는 물리적 표면 상에 투영하도록 구성될 수 있다.
위에 기재된 바와 같이, 본 기술의 일 양태는 사용자의 생리적 상태들을 감지하는 것을 포함하는, 다양한 소스들로부터 이용가능한 데이터를 수집 및 이용하는 것이다. 본 개시내용은, 일부 경우들에 있어서, 이러한 수집된 데이터가 특정 개인을 고유하게 식별하거나 또는 그와 연락하거나 그의 위치를 확인하는 데 이용될 수 있는 개인 정보 데이터를 포함할 수 있음을 고려한다. 그러한 개인 정보 데이터는 인구통계 데이터, 위치-기반 데이터, 전화 번호들, 이메일 주소들, 트위터 ID들, 집 주소들, 사용자의 건강 또는 피트니스 레벨에 관한 데이터 또는 기록들(예컨대, 바이탈 사인(vital sign) 측정들, 약물 정보, 운동 정보), 생년월일, 또는 임의의 다른 식별 또는 개인 정보를 포함할 수 있다.
본 개시내용은 본 기술에서의 그러한 개인 정보 데이터의 이용이 사용자들에게 이득을 주기 위해 사용될 수 있음을 인식한다. 예를 들어, 개인 정보 데이터는 다른 용도들 중에서 사용자 식별 및 그래픽 콘텐츠 변경에 사용될 수 있다. 게다가, 사용자에게 이득을 주는 개인 정보 데이터에 대한 다른 이용들이 또한 본 개시내용에 의해 고려된다. 예를 들어, 건강 및 피트니스 데이터는 사용자의 일반적인 웰니스(wellness)에 대한 식견들을 제공하는 데 사용될 수 있거나, 또는 웰니스 목표들을 추구하는 기술을 이용하는 개인들에게 긍정적인 피드백으로서 사용될 수 있다.
본 개시내용은 그러한 개인 정보 데이터의 수집, 분석, 공개, 전송, 저장, 또는 다른 이용을 담당하는 엔티티들이 잘 확립된 프라이버시 정책들 및/또는 프라이버시 관례들을 준수할 것이라는 것을 고려한다. 특히, 그러한 엔티티들은, 대체로 개인 정보 데이터를 사적이고 안전하게 유지시키기 위한 산업적 또는 행정적 요건들을 충족시키거나 넘어서는 것으로 인식되는 프라이버시 정책들 및 관례들을 구현하고 지속적으로 이용해야 한다. 그러한 정책들은 사용자들에 의해 쉽게 액세스가능해야 하고, 데이터의 수집 및/또는 이용이 변화함에 따라 업데이트되어야 한다. 사용자들로부터의 개인 정보는 엔티티의 적법하며 적정한 사용들을 위해 수집되어야 하고, 이들 적법한 사용들을 벗어나서 공유되거나 판매되지 않아야 한다. 또한, 그러한 수집/공유는 사용자들의 통지된 동의를 수신한 후에 발생해야 한다. 추가적으로, 그러한 엔티티들은 그러한 개인 정보 데이터에 대한 액세스를 보호하고 안전하게 하며 개인 정보 데이터에 대한 액세스를 갖는 다른 사람들이 그들의 프라이버시 정책들 및 절차들을 고수한다는 것을 보장하기 위한 임의의 필요한 단계들을 취하는 것을 고려해야 한다. 게다가, 그러한 엔티티들은 널리 인정된 프라이버시 정책들 및 관례들에 대한 그들의 고수를 증명하기 위해 제3자들에 의해 그들 자신들이 평가를 받을 수 있다. 추가로, 정책들 및 관례들은 수집되고/되거나 액세스되는 특정 유형들의 개인 정보 데이터에 대해 조정되고, 관할구역 특정 고려사항들을 비롯한 적용가능한 법률들 및 표준들에 적응되어야 한다. 예를 들어, 미국에서, 소정 건강 데이터의 수집 또는 그에 대한 액세스는 연방법 및/또는 주의 법, 예컨대 미국 건강 보험 양도 및 책임 법령(Health Insurance Portability and Accountability Act, HIPAA)에 의해 통제될 수 있는 반면; 다른 국가들에서의 건강 데이터는 다른 규정들 및 정책들의 적용을 받을 수 있고 그에 따라 취급되어야 한다. 따라서, 상이한 프라이버시 관례들은 각각의 국가의 상이한 개인 데이터 유형들에 대해 유지되어야 한다.
전술한 것에도 불구하고, 본 개시내용은 또한 사용자들이 개인 정보 데이터의 사용, 또는 그에 대한 액세스를 선택적으로 차단하는 실시예들을 고려한다. 즉, 본 개시내용은 그러한 개인 정보 데이터에 대한 액세스를 방지하거나 차단하기 위해 하드웨어 및/또는 소프트웨어 요소들이 제공될 수 있다는 것을 고려한다. 예를 들어, 콘텐츠를 변경하거나 또는 사용자를 인증하기의 경우에, 본 기술은 사용자들이 서비스를 위한 등록 중 또는 이후 임의의 시간에 개인 정보 데이터의 수집 시의 참여의 "동의함" 또는 "동의하지 않음"을 선택하는 것을 허용하도록 구성될 수 있다. 다른 예에서, 사용자들은 그래픽 콘텐츠를 변경하기 위하여 또는 다른 용도들, 예컨대 건강 연구를 위하여 다양한 생리적인 것들을 제공하지 않도록 선택할 수 있다. 또 다른 예에서, 사용자들은 생리적 데이터가 감지되는 시간(예컨대, 오직 인증 중에만)을 제한하도록 선택할 수 있다. "동의" 및 "동의하지 않음" 옵션들을 제공하는 것에 더하여, 본 개시내용은 개인 정보의 액세스 또는 이용에 관한 통지들을 제공하는 것을 고려한다. 예를 들어, 사용자는 그들의 개인 정보 데이터가 액세스될 앱을 다운로드할 시에 통지받고, 이어서 개인 정보 데이터가 앱에 의해 액세스되기 직전에 다시 상기하게 될 수 있다.
더욱이, 의도하지 않은 또는 인가되지 않은 액세스 또는 사용의 위험요소들을 최소화하는 방식으로 개인 정보 데이터가 관리되고 다루어져야 한다는 것이 본 개시내용의 의도이다. 데이터의 수집을 제한하고 데이터가 더 이상 필요하지 않게 되면 데이터를 삭제함으로써 위험이 최소화될 수 있다. 추가로, 그리고 소정의 건강 관련 애플리케이션들을 비롯하여, 적용가능할 때, 사용자의 프라이버시를 보호하기 위해 데이터 비식별화가 사용될 수 있다. 적절한 경우, 특정 식별자들(예컨대, 생년월일 등)을 제거함으로써, 저장된 데이터의 양 또는 특이성을 제어함으로써(예컨대, 주소 수준이라기보다는 오히려 도시 수준에서 위치 데이터를 수집함으로써), 데이터가 저장되는 방식을 제어함으로써(예컨대, 사용자들에 걸쳐 데이터를 집계함으로써), 그리고/또는 다른 방법들에 의해, 비식별화가 용이하게 될 수 있다.
따라서, 본 개시내용이 하나 이상의 다양한 개시된 실시예들을 구현하기 위해 개인 정보 데이터의 사용을 광범위하게 커버하지만, 본 개시내용은 다양한 실시예들이 또한 그러한 개인 정보 데이터에 액세스할 필요 없이 구현될 수 있다는 것을 또한 고려한다. 즉, 본 기술의 다양한 실시예들은 그러한 개인 정보 데이터의 전부 또는 일부의 결여로 인해 동작불가능하게 되지는 않는다. 예를 들어, 그래픽 콘텐츠는 비-개인 정보 데이터 또는 드러난 최소량의 개인 정보, 예컨대 사용자와 연관된 디바이스에 의해 요청되는 콘텐츠, 기타 비-개인 정보, 또는 공개적으로 이용가능한 정보에 기초하여 변경될 수 있다.

Claims (21)

  1. 헤드 장착형 디스플레이로서,
    그래픽 콘텐츠를 사용자에게 디스플레이하기 위한 디스플레이 유닛; 및
    상기 디스플레이 유닛에 제거가능하게 결합가능하고 상기 사용자의 얼굴의 안면 맞물림 영역(facial engagement region)과 맞물리고, 그럼으로써 상기 디스플레이 유닛이 상기 사용자의 상기 얼굴 상에서 지지되는 안면 인터페이스 - 상기 안면 인터페이스는 상기 안면 맞물림 영역에서 상기 사용자의 생리적 상태(physiological condition)를 감지하기 위한 생리적 센서를 포함함 -를 포함하는, 헤드 장착형 디스플레이.
  2. 제1항에 있어서, 상기 안면 인터페이스는 상기 안면 맞물림 영역에서 다른 생리적 상태를 감지하기 위한 다른 생리적 센서를 포함하는, 헤드 장착형 디스플레이.
  3. 제1항에 있어서, 상기 헤드 장착형 디스플레이는 상기 디스플레이 유닛과 상기 안면 인터페이스 사이의 기계적 연결부, 상기 생리적 센서로 전력이 전달되는 상기 디스플레이 유닛과 상기 안면 인터페이스 사이의 전력 연결부, 및 상기 생리적 센서로부터 센서 신호들이 전송되는 상기 디스플레이 유닛과 상기 안면 인터페이스 사이의 데이터 연결부를 형성하는, 헤드 장착형 디스플레이.
  4. 제3항에 있어서, 상기 안면 인터페이스는 상기 안면 인터페이스의 상기 생리적 센서와는 상이한 유형의 다른 생리적 센서를 갖는 다른 안면 인터페이스와 상호교환가능하게 상기 디스플레이 유닛에 결합가능한, 헤드 장착형 디스플레이.
  5. 제4항에 있어서, 상기 다른 안면 인터페이스는 상기 안면 인터페이스가 상기 디스플레이 유닛과의 상기 전력 연결부 및 상기 데이터 연결부를 형성하는 것과 동일한 방식으로 상기 디스플레이 유닛과의 다른 전력 연결부 및 다른 데이터 연결부를 형성하는, 헤드 장착형 디스플레이.
  6. 제5항에 있어서, 상기 안면 인터페이스는 상기 전력 연결부 및 상기 데이터 연결부를 형성하기 위한 커넥터를 포함하고, 상기 다른 안면 인터페이스는 상기 커넥터와 공통 유형의 다른 커넥터를 포함하는, 헤드 장착형 디스플레이.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 생리적 센서는 전극이고, 상기 생리적 상태는 생체전기 활동(bioelectric activity)인, 헤드 장착형 디스플레이.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 생리적 상태는 힘, 압력, 커패시턴스, 습기, 또는 온도 중 하나인, 헤드 장착형 디스플레이.
  9. 제8항에 있어서, 상기 안면 인터페이스는 다른 생리적 센서를 포함하고, 상기 생리적 센서 및 상기 다른 생리적 센서는 상기 안면 인터페이스의 상이한 위치들에서 상기 힘, 상기 압력, 또는 상기 커패시턴스 중 하나를 감지하는, 헤드 장착형 디스플레이.
  10. 제1항 또는 제3항 내지 제6항 중 어느 한 항에 있어서, 상기 디스플레이 유닛은 다른 생리적 센서를 포함하고, 상기 안면 인터페이스는 상기 다른 생리적 센서가 상기 사용자의 상기 안면 맞물림 영역에서 상기 사용자의 다른 상태를 측정하도록 구성되는, 헤드 장착형 디스플레이.
  11. 제10항에 있어서, 상기 안면 인터페이스는 윈도우를 포함하고, 그럼으로써 상기 다른 생리적 센서가 상기 다른 생리적 상태를 광학적으로 감지하는, 헤드 장착형 디스플레이.
  12. 제10항에 있어서, 상기 안면 인터페이스는 상기 사용자의 상기 안면 맞물림 영역과 맞물리는 전도성 재료를 포함하고, 상기 다른 생리적 센서는 상기 전도성 재료를 통해 상기 사용자의 상기 다른 생리적 상태를 측정하는, 헤드 장착형 디스플레이.
  13. 제1항에 있어서, 상기 헤드 장착형 디스플레이는 상기 안면 맞물림 영역 외측에서 상기 사용자의 다른 생리적 상태를 감지하기 위한 다른 생리적 센서를 추가로 포함하고;
    상기 헤드 장착형 디스플레이는 상기 생리적 상태 및 상기 다른 생리적 상태 둘 모두에 따라 결정을 형성하고, 상기 결정에 따른 동작을 수행하는, 헤드 장착형 디스플레이.
  14. 제13항에 있어서, 상기 다른 생리적 센서는 상기 안면 맞물림 영역에 의해 둘러싸인 다른 영역에서 상기 다른 생리적 상태를 감지하는, 헤드 장착형 디스플레이.
  15. 제13항 또는 제14항에 있어서, 상기 다른 생리적 상태는 상기 사용자의 눈과 연관되는, 헤드 장착형 디스플레이.
  16. 제13항 내지 제15항 중 어느 한 항에 있어서, 상기 동작은 상기 사용자 상의 상기 헤드 장착형 디스플레이의 위치의 표시를 제공하는 것을 포함하는, 헤드 장착형 디스플레이.
  17. 제13항 내지 제16항 중 어느 한 항에 있어서, 상기 동작은 상기 그래픽 콘텐츠를 변경하는 것을 포함하는, 헤드 장착형 디스플레이.
  18. 헤드 장착형 디스플레이를 위한 안면 인터페이스로서,
    사용자의 얼굴의 안면 맞물림 영역과 맞물리기 위한 유연성 구조체(compliant structure);
    상기 안면 맞물림 영역에서 상기 사용자의 생리적 상태를 측정하기 위하여 상기 유연성 구조체에 결합되는 생리적 센서;
    상기 유연성 구조체에 결합되는 기계적 커넥터 - 상기 기계적 커넥터에 의해 상기 안면 인터페이스가 상기 헤드 장착형 디스플레이에 제거가능하게 결합가능함 -; 및
    상기 생리적 센서에 결합되는 데이터 커넥터 - 상기 데이터 커넥터에 의해 생리적 정보가 상기 생리적 센서로부터 상기 헤드 장착형 디스플레이로 전송됨 - 를 포함하는, 안면 인터페이스.
  19. 제18항에 있어서, 상기 기계적 커넥터는 상기 헤드 장착형 디스플레이의 다른 기계적 커넥터에 대응하고, 상기 데이터 커넥터는 상기 헤드 장착형 디스플레이의 다른 데이터 커넥터에 대응하는, 안면 인터페이스.
  20. 제18항 또는 제19항에 있어서, 상기 데이터 커넥터는 상기 헤드 장착형 디스플레이의 다른 데이터 커넥터와의 데이터 연결부를 형성하고, 상기 데이터 커넥터는 상기 헤드 장착형 디스플레이에 상호교환가능하게 결합가능한 다른 안면 인터페이스의 제3 데이터 커넥터와 공통 유형의 것인, 안면 인터페이스.
  21. 제18항 내지 제20항 중 어느 한 항에 있어서, 상기 생리적 센서는 상기 헤드 장착형 디스플레이에 상호교환가능하게 결합가능한 다른 안면 인터페이스의 다른 생리적 센서와는 상이한 유형의 것인, 안면 인터페이스.
KR1020217021009A 2019-01-17 2020-01-14 생리적 상태를 감지하기 위한 안면 인터페이스를 구비한 헤드 장착형 디스플레이 KR20210098521A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962793466P 2019-01-17 2019-01-17
US62/793,466 2019-01-17
PCT/US2020/013443 WO2020150193A1 (en) 2019-01-17 2020-01-14 Head-mounted display with facial interface for sensing physiological conditions

Publications (1)

Publication Number Publication Date
KR20210098521A true KR20210098521A (ko) 2021-08-10

Family

ID=69529029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217021009A KR20210098521A (ko) 2019-01-17 2020-01-14 생리적 상태를 감지하기 위한 안면 인터페이스를 구비한 헤드 장착형 디스플레이

Country Status (6)

Country Link
US (2) US11740475B2 (ko)
EP (1) EP3894999A1 (ko)
JP (2) JP2022516358A (ko)
KR (1) KR20210098521A (ko)
CN (2) CN113498503A (ko)
WO (1) WO2020150193A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11550392B2 (en) * 2019-05-20 2023-01-10 Hewlett-Packard Development Company, L.P. Signal combination of physiological sensor signals
US10997418B2 (en) 2019-09-09 2021-05-04 Ar, Llc Augmented, virtual and mixed-reality content selection and display
US10699124B1 (en) 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
US11961294B2 (en) 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
JP7028854B2 (ja) * 2019-12-26 2022-03-02 株式会社オートネットワーク技術研究所 ワイヤーハーネス及び蓄電モジュール
WO2022025895A1 (en) * 2020-07-30 2022-02-03 Hewlett-Packard Development Company, L.P. Head-mounted display sensor status
US20240035892A1 (en) * 2022-07-29 2024-02-01 Apple Inc. Contactless sensors for a head-mountable device
CN116068774B (zh) * 2023-03-06 2023-06-23 惠科股份有限公司 头戴式电子设备

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
WO1996036898A2 (en) 1995-05-15 1996-11-21 He Holdings, Inc., Doing Business As Hughes Electronics Low-cost light-weight head-mounted virtual-image projection display with low moments of inertia and low center of gravity
JP3363327B2 (ja) 1996-10-28 2003-01-08 松下電工株式会社 ディスプレイ装置
US5954642A (en) 1997-12-23 1999-09-21 Honeywell Inc. Adjustable head mounted display and system
AUPP949999A0 (en) 1999-03-29 1999-04-22 Resmed Limited Forehead support for facial mask II
US6436285B1 (en) 1999-12-22 2002-08-20 William B. Kerfoot Laminated microporous diffuser
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
ES2443417T3 (es) 2002-09-06 2014-02-19 Resmed Limited Almohadilla para la frente para una mascarilla respiratoria
US7762665B2 (en) * 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US20150295923A1 (en) * 2007-03-28 2015-10-15 Autodesk, Inc. Environment based switching between two dimensions and three dimensions
US8605008B1 (en) 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CN102436064B (zh) 2010-09-29 2016-02-24 奥林巴斯株式会社 头戴式显示器
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP5762892B2 (ja) * 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
US8661662B1 (en) 2012-08-10 2014-03-04 Eastman Kodak Company Making transparent touch-responsive device with micro-wire electrodes
US9069166B2 (en) * 2012-02-29 2015-06-30 Recon Instruments Inc. Gaze detecting heads-up display systems
JP5903018B2 (ja) 2012-09-26 2016-04-13 ソニー株式会社 ヘッドマウントディスプレイ
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9081210B2 (en) 2012-12-12 2015-07-14 Microsoft Technology Licensing, Llc Head worn device having temple arms to provide long axis compression
WO2014123117A1 (ja) 2013-02-05 2014-08-14 古河電気工業株式会社 電線構造体、電気接続構造及び電線構造体の製造方法
WO2015019625A1 (ja) 2013-08-09 2015-02-12 株式会社エナシステム 磁力回転装置、電動機、および電動発電機
WO2015044851A2 (en) 2013-09-25 2015-04-02 Mindmaze Sa Physiological parameter measurement and feedback system
US9452260B2 (en) * 2013-11-22 2016-09-27 Verily Life Sciences Llc Closed loop control system based on a non-invasive continuous sensor
CA3027407A1 (en) 2014-02-18 2015-08-27 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
KR102299774B1 (ko) * 2014-08-28 2021-09-09 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
KR102230076B1 (ko) 2014-09-01 2021-03-19 삼성전자 주식회사 헤드 마운트 디스플레이 장치
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US9804669B2 (en) * 2014-11-07 2017-10-31 Eye Labs, Inc. High resolution perception of content in a wide field of view of a head-mounted display
US9904054B2 (en) 2015-01-23 2018-02-27 Oculus Vr, Llc Headset with strain gauge expression recognition system
KR102274743B1 (ko) * 2015-01-30 2021-07-08 삼성전자주식회사 전자 장치 및 전자 장치의 화면 영역 처리 방법
KR101564964B1 (ko) * 2015-02-05 2015-11-02 계명대학교 산학협력단 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치
US9836663B2 (en) 2015-03-05 2017-12-05 Samsung Electronics Co., Ltd. User authenticating method and head mounted device supporting the same
US11252399B2 (en) * 2015-05-28 2022-02-15 Microsoft Technology Licensing, Llc Determining inter-pupillary distance
US20180092588A1 (en) * 2015-06-14 2018-04-05 Facense Ltd. Suggest activities according to the dominant nostril
US10545714B2 (en) * 2015-09-04 2020-01-28 Samsung Electronics Co., Ltd. Dual screen head mounted display
CN105455792B (zh) 2015-12-18 2018-09-25 济南中景电子科技有限公司 用于虚拟现实眼镜的头带
US10460744B2 (en) * 2016-02-04 2019-10-29 Xinxiao Zeng Methods, systems, and media for voice communication
US10054503B2 (en) 2016-03-11 2018-08-21 Microsoft Technology Licensing, Llc Force sensor
US10359806B2 (en) 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
US9851267B1 (en) 2016-06-01 2017-12-26 Microsoft Technology Licensing, Llc Force-sensing element
KR102491130B1 (ko) * 2016-06-20 2023-01-19 매직 립, 인코포레이티드 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템
US10488830B2 (en) 2016-08-10 2019-11-26 Intel Corporation Automatic adjustment of head mounted display straps
KR102629569B1 (ko) * 2016-08-17 2024-01-29 삼성전자주식회사 카메라를 포함하는 전자 장치
KR102265060B1 (ko) 2016-10-03 2021-06-16 버브 서지컬 인크. 로봇 수술을 위한 몰입형 3차원 디스플레이
WO2018093181A1 (ko) 2016-11-16 2018-05-24 삼성전자 주식회사 전자 장치 및 그 제어 방법
CN206321884U (zh) 2016-12-22 2017-07-11 深圳市掌网科技股份有限公司 一种用于头戴设备的贴面装置
KR102078583B1 (ko) * 2017-04-06 2020-02-19 주식회사 룩시드랩스 헤드 마운트 디스플레이 장치
US10452144B2 (en) * 2017-05-30 2019-10-22 Interaxon Inc. Wearable computing device with electrophysiological sensors
WO2019240564A1 (ko) * 2018-06-15 2019-12-19 주식회사 룩시드랩스 생체 데이터 획득용 탈착식 기능모듈 및 이를 포함하는 헤드 마운트 디스플레이 장치
US10564717B1 (en) * 2018-07-16 2020-02-18 Facebook Technologies, Llc Apparatus, systems, and methods for sensing biopotential signals
KR20200103397A (ko) * 2019-02-25 2020-09-02 주식회사 룩시드랩스 생체 신호 센서 탑재 hmd 기기를 활용한 사용자의 스트레스 분석 및 개인 정신건강 관리 시스템 및 방법

Also Published As

Publication number Publication date
WO2020150193A1 (en) 2020-07-23
JP2023123654A (ja) 2023-09-05
CN113498503A (zh) 2021-10-12
US20230350214A1 (en) 2023-11-02
JP2022516358A (ja) 2022-02-25
US20200233220A1 (en) 2020-07-23
EP3894999A1 (en) 2021-10-20
US11740475B2 (en) 2023-08-29
CN211834370U (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN211834370U (zh) 头戴式显示器、用于头戴式显示器的面部界面和显示***
CN113330353B (zh) 头戴式显示器及其面部界面
CN112444996B (zh) 具有张紧调节的头戴式设备
US11287886B1 (en) Systems for calibrating finger devices
US11982809B2 (en) Electronic device with inner display and externally accessible input-output device
US11740742B2 (en) Electronic devices with finger sensors
CN114175045B (zh) 利用亮度变化来确定用户特征
US11768379B2 (en) Electronic device with facial sensors
US20210096646A1 (en) Creation of optimal working, learning, and resting environments on electronic devices
CN110866230B (zh) 已认证设备辅助的用户认证
US20230229007A1 (en) Fit detection for head-mountable devices
CN113614678A (zh) 用于头戴式设备的共享数据和协作
TW200917095A (en) Inter-active systems
US11994907B1 (en) Head mounted device
US11709554B1 (en) Finger devices with adjustable housing structures
US11762457B1 (en) User comfort monitoring and notification

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal