KR20140111959A - 자동 햅틱 효과 조정 시스템 - Google Patents

자동 햅틱 효과 조정 시스템 Download PDF

Info

Publication number
KR20140111959A
KR20140111959A KR1020140026435A KR20140026435A KR20140111959A KR 20140111959 A KR20140111959 A KR 20140111959A KR 1020140026435 A KR1020140026435 A KR 1020140026435A KR 20140026435 A KR20140026435 A KR 20140026435A KR 20140111959 A KR20140111959 A KR 20140111959A
Authority
KR
South Korea
Prior art keywords
haptic
haptic effect
emotional state
user
parameter
Prior art date
Application number
KR1020140026435A
Other languages
English (en)
Inventor
빈센트 레베스크
Original Assignee
임머숀 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임머숀 코퍼레이션 filed Critical 임머숀 코퍼레이션
Publication of KR20140111959A publication Critical patent/KR20140111959A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

햅틱 효과를 자동으로 조정하는 시스템이 제공된다. 시스템은 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성한다. 시스템은 햅틱 효과를 경험하는 사용자의 정서 상태를 측정한다. 시스템은 측정된 정서 상태에 기초하여 하나 이상의 햅틱 파라미터들의 적어도 하나의 햅틱 파라미터를 조정한다. 시스템은 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하고, 적어도 하나의 햅틱 파라미터는 새로운 햅틱 효과가 햅틱 효과와 상이하게 야기한다.

Description

자동 햅틱 효과 조정 시스템{AUTOMATIC HAPTIC EFFECT ADJUSTMENT SYSTEM}
일 실시예는 일반적으로 햅틱 효과들에 관한 것으로, 특히, 햅틱 효과들을 생성하는 장치에 관한 것이다.
햅틱은, 힘, 진동, 및 움직임 등의 햅틱 피드백 효과들(즉, "햅틱 효과들")을 사용자에게 적용함으로써 사용자의 촉각을 이용하는 촉각 및 힘 피드백 기술이다. 이동 장치들, 터치스크린 장치들, 및 퍼스널 컴퓨터들 등의 장치들은 햅틱 효과들을 생성하도록 구성될 수 있다. 일반적으로, (액추에이터들과 같이) 햅틱 효과들을 생성할 수 있는 내장된 하드웨어에 대한 호출들은 장치의 운영 체제("OS") 내에 프로그래밍될 수 있다. 이러한 호출들은 어떤 햅틱 효과가 플레이될 지를 명시한다. 예를 들어, 사용자가, 예를 들어, 버튼, 터치스크린, 레버, 조이스틱, 휠, 또는 일부 다른 제어를 사용해서 장치와 상호 작용할 때, 장치의 OS는 내장된 하드웨어에 제어 회로를 통해 플레이 커맨드를 송신할 수 있다. 내장된 하드웨어는 그 후 적합한 햅틱 효과를 야기한다.
햅틱 효과들은 종종 사용자들의 특정 정서 상태를 야기하려는 의도로 설계되며, 정서 상태는 행복, 슬픔, 짜증, 또는 화남 등의 감정 상태의 표현이다. 예를 들어, 경보로서 작용하는 햅틱 효과는 짜증을 야기하지 않고 이벤트에 이목을 끌게 하도록 설계될 수 있다. 유사하게, 햅틱 효과는, 상황(context)에 따라, 즐거운 또는 불쾌한 기분을 야기하도록 설계될 수 있다. 이러한 햅틱 효과들의 설계는, 통상, 시간 소모가 큰 프로세스일 수 있는, 설문지들 또는 성능 데이터를 수반하는 사용자 평가들로서 이러한 도구들을 통해, 수동으로, 및 반복해서, 햅틱 효과들을 개선하고 최종 사용자들에 의해 햅틱 효과들을 평가하는 것을 요구한다.
일 실시예는 햅틱 효과를 자동으로 조정하는 시스템이다. 시스템은 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성한다. 시스템은 또한 햅틱 효과를 경험하는 사용자의 정서 상태를 측정한다. 시스템은 또한 사용자의 측정된 정서 상태에 기초하여 하나 이상의 햅틱 파라미터들의 적어도 하나의 햅틱 파라미터를 조정한다. 시스템은 또한 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하고, 적어도 하나의 조정된 햅틱 파라미터는 새로운 햅틱 효과가 햅틱 효과와 상이하게 야기한다.
다른 실시예들, 세부 사항들, 장점들, 및 변경들은 첨부 도면들과 관련해서 취해지는, 양호한 실시예들의 이하의 상세한 설명으로부터 명백해질 것이다.
도 1은 본 발명의 일 실시예에 따른 시스템의 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른, 햅틱 효과의 자동 조정의 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른, 대규모 전개 환경의 블록도를 도시한다.
도 4는 본 발명의 일 실시예에 따른, 개별 전개 환경의 블록도를 도시한다.
도 5는 본 발명의 일 실시예에 따른, 실험실 환경의 블록도를 도시한다.
도 6은 본 발명의 다른 실시예에 따른, 햅틱 효과의 실시간 연속 조정을 포함하는 개별 전개 환경의 블록도를 도시한다.
도 7은 본 발명의 일 실시예에 따른, 자동 햅틱 효과 조정 모듈의 기능의 흐름도를 도시한다.
일 실시예는 햅틱 효과들을 경험하는 사용자의 정서 상태를 측정함으로써 햅틱 효과들을 자동으로 조정할 수 있는 시스템이다. 측정은 사용자의 감정 상태를 나타낼 수 있는 사용자의 심박동수, 사용자의 생체 신호, 또는 사용자의 얼굴 특징 등의 정서 데이터를 측정하는 하나 이상의 정서 센서들에 의해 실행될 수 있다. 시스템은 측정된 정서 상태를 분석할 수 있으며, 햅틱 효과들을 생성하는데 사용되는 하나 이상의 햅틱 파라미터들을 자동으로 조정할 수 있다. 하나 이상의 햅틱 파라미터들을 자동으로 조정함으로써, 시스템은 사용자로부터 희망 정서 상태를 야기하기 위해 새로운 햅틱 효과들을 생성할 수 있다. 시스템은 햅틱 효과들의 생성, 사용자의 정서 상태의 측정, 측정된 정서 상태의 분석, 및 하나 이상의 햅틱 파라미터들의 자동 조정을, 햅틱 효과들이 희망 정서 상태, 또는 정서 상태의 희망 변경을 야기할 때까지, 폐쇄된 루프에서, 계속해서, 실행할 수 있다. 예를 들어, 이동 장치, 터치스크린 장치, 퍼스널 컴퓨터, 또는 스마트폰 등의 장치는 확인을 위해 사용하는 햅틱 효과들을 자동으로 조정할 수 있으며, 유쾌함 및 현저성 간의 균형을 위한 최적 햅틱 파라미터들을 결정하기 위해 바이오-센서들 등의 정서 센서들을 또한 사용할 수 있다. 다른 일례로서, 장치 제조자는 장치들 각각에 대해 햅틱 효과들을 자동으로 조정하는 중앙 서버를 구현함으로써 상당한 수의 장치들에 걸쳐 햅틱 효과들을 조정할 수 있다.
도 1은 본 발명의 일 실시예에 따른 시스템(10)의 블록도를 도시한다. 일 실시예에서, 시스템(10)은 장치의 일부이며, 시스템(10)은 장치를 위한 자동 햅틱 효과 조정 기능을 제공한다. 다른 실시예에서, 시스템(10)은 장치와 별개이며, 장치를 위한 자동 햅틱 효과 조정 기능을 원격으로 제공한다. 단일 시스템으로 도시되어 있지만, 시스템(10)의 기능은 분산 시스템으로서 구현될 수 있으며, 시스템(10)의 하나 이상의 컴포넌트들은 시스템(10)의 다른 컴포넌트들과 물리적으로는 별개이지만, 동작상으론 연결되어 있다. 시스템(10)은 정보를 통신하기 위한 버스(12) 또는 다른 통신 메커니즘, 및 정보를 처리하기 위한 버스(12)에 연결된 프로세서(22)를 포함한다. 프로세서(22)는 임의의 타입의 범용 또는 특별 목적 프로세서일 수 있다. 시스템(10)은 프로세서(22)에 의해 실행될 정보 및 명령들을 저장하기 위한 메모리(14)를 더 포함한다. 메모리(14)는 랜덤 액세스 메모리("RAM"), 판독 전용 메모리("ROM"), 자기 또는 광 디스크 등의 자기 기억 장치, 또는 임의의 다른 타입의 컴퓨터 판독 가능 매체의 임의의 조합으로 구성될 수 있다.
컴퓨터 판독 가능 매체는 프로세서(22)에 의해 액세스될 수 있는 임의의 유효 매체일 수 있으며, 휘발성 및 비휘발성 매체, 이동형 및 고정형 매체, 통신 매체, 및 기억 매체를 모두 포함할 수 있다. 통신 매체는 컴퓨터 판독 가능 명령들, 데이터 구조들, 프로그램 모듈들 또는 반송파 또는 다른 수송 메커니즘 등의 변조된 데이터 신호의 다른 데이터를 포함할 수 있으며, 본 기술 분야에 공지된 임의의 다른 형태의 정보 전달 매체를 포함할 수 있다. 기억 매체는 RAM, 플래시 메모리, ROM, 소거 가능 프로그래밍 가능 판독 전용 메모리("EPROM"), 전기적 소거 가능 프로그래밍 가능 판독 전용 메모리("EEPROM"), 레지스터, 하드 디스크, 이동형 디스크, 콤팩트 디스크 판독 전용 메모리("CD-ROM"), 또는 본 기술 분야에 공지된 임의의 다른 형태의 기억 매체를 포함할 수 있다.
일 실시예에서, 메모리(14)는 프로세서(22)에 의해 실행될 때 기능을 제공하는 소프트웨어 모듈들을 저장한다. 모듈들은, 일 실시예에서, 시스템(10)을 위한 운영 체제 기능뿐만 아니라, 장치의 나머지를 제공하는 운영 체제(15)를 포함한다. 모듈들은, 더 상세히 후술되는 바와 같이, 햅틱 효과를 자동으로 조정하는 자동 햅틱 효과 조정 모듈(16)을 더 포함한다. 특정 실시예들에서, 자동 햅틱 효과 조정 모듈(16)은 복수의 모듈들을 포함할 수 있으며, 각각의 개별 모듈은 햅틱 효과를 자동으로 조정하기 위한 특정 개별 기능을 제공한다. 시스템(10)은 Immersion Corporation의 IntegratorTM 애플리케이션 등의 추가 기능을 포함하기 위해 하나 이상의 추가 애플리케이션 모듈들(18)을 통상 포함할 것이다.
원격 소스들로부터 데이터를 송신 및/또는 수신하는 실시예들에서, 시스템(10)은 적외선, 라디오, Wi-Fi, 또는 셀룰러 네트워크 통신 등의 이동 무선 네트워크 통신을 제공하기 위해, 네트워크 인터페이스 카드 등의 통신 장치(20)를 더 포함한다. 다른 실시예들에서, 통신 장치(20)는 이더넷 커넥션 또는 모뎀 등의 유선 네트워크 커넥션을 제공한다.
프로세서(22)는 사용자에게 그래픽 표현 또는 사용자 인터페이스를 디스플레이하기 위한, 액정 디스플레이("LCD") 등의, 디스플레이(24)에 버스(12)를 통해 또한 연결된다. 디스플레이(24)는 프로세서(22)로부터 신호들을 송신 및 수신하도록 구성된, 터치스크린 등의 터치-센서티브 입력 장치일 수 있고, 멀티-터치 터치스크린일 수 있다. 프로세서(22)는 마우스 또는 스타일러스 등, 사용자가 시스템(10)과 상호 작용할 수 있게 해주는 키보드 또는 커서 제어(28)에 또한 연결될 수 있다.
일 실시예에서, 시스템(10)은 액추에이터(26)를 더 포함한다. 프로세서(22)는 생성된 햅틱 효과와 연관된 햅틱 신호를 액추에이터(26)에 송신할 수 있으며, 차례로, 진동 촉각 햅틱 효과들, 정전 마찰 햅틱 효과들, 또는 변형 햅틱 효과들 등의 햅틱 효과들을 출력한다. 액추에이터(26)는 액추에이터 구동 회로를 포함한다. 액추에이터(26)는, 예를 들어, 전기 모터, 전자기 액추에이터, 음성 코일, 형상 기억 합금, 전기 합성 고분자(an electro-active polymer), 솔레노이드, ERM(an eccentric rotating mass motor), LRA(a linear resonant actuator), 압전 액추에이터, 고 대역폭 액추에이터, EAP(an electroactive polymer) 액추에이터, 정전 마찰 디스플레이, 또는 초음파 진동 생성기일 수 있다. 대안의 실시예들에서, 시스템(10)은 액추에이터(26) 외에, 하나 이상의 추가 액추에이터들을 포함할 수 있다(도 1에 도시되지 않음). 액추에이터(26)는 햅틱 출력 장치의 일례이며, 햅틱 출력 장치는, 구동 신호에 응답해서, 진동 촉각 햅틱 효과들, 정전 마찰 햅틱 효과들, 또는 변형 햅틱 효과들 등의 햅틱 효과들을 출력하도록 구성된 장치이다. 대안의 실시예들에서, 액추에이터(26)는 일부 다른 타입의 햅틱 출력 장치로 대체될 수 있다. 또한, 다른 대안의 실시예들에서, 시스템(10)은 액추에이터(26)를 포함하지 않을 수 있고, 시스템(10)과 별개인 장치가 햅틱 효과들을 생성하는 액추에이터, 또는 다른 햅틱 출력 장치를 포함하며, 시스템(10)은 생성된 햅틱 효과 신호들을 통신 장치(20)를 통해 해당 장치에 송신한다.
시스템(10)은, 일 실시예에서, 센서(30)를 더 포함한다. 센서(30)는 한 형태의 에너지, 또는 가속도, 생체 신호들, 거리, 흐름, 힘/압력/변형/굽힘, 습도, 선형 위치, 방향/경사, 무선 주파수, 회전 위치, 회전 속도, 스위치의 조작, 온도, 진동, 또는 가시광 강도 등의, 그러나 이들로만 제한되지 않는, 다른 물리적 속성을 검출하도록 구성될 수 있다. 센서(30)는 검출된 에너지, 또는 다른 물리적 속성을 전기 신호, 또는 가상 센서 정보를 나타내는 임의의 신호로 변환하도록 더 구성될 수 있다. 센서(30)는 가속도계, 심전도, 뇌파도, 근전계, 전기 안구도, 전자 구개운동 기록기(an electropalatograph), 적외선 포토플레시스모그래프(an infrared photoplethysmograph), 호흡 운동 촬영기, 전기 피부 반응 센서, 피부 컨덕턴스계(a skin conductance meter), 용량형 센서, 홀 효과 센서, 적외선 센서, 초음파 센서, 압력 센서, 광섬유 센서, 구부리기 센서(또는 굽힘 센서), 힘-민감 저항기, 로드 셀, LuSense CPS2 155, 소형 압력 변환기, 압전 센서, 스트레인 게이지, 습도계, 선형 위치 터치 센서, 선형 전위차계(또는 슬라이더), 선형 가변 차동 변압기, 나침반, 경사계, 자기 태그(또는 무선 주파수 식별 태그), 회전 인코더, 회전 전위차계, 자이로스코프, 온-오프 스위치, 온도 센서(예를 들어, 온도계, 열전계, 저항 온도 검출기, 서미스터, 또는 온도-변환 집적 회로), 마이크로폰, 카메라, 아이 트래커(an eye tracker), 광도계, 고도계, 생물학적 모니터, 광 의존 저항기, 텍스트 분석기, 또는 패턴 분석기 등의, 그러나 이들로만 제한되지 않는, 임의의 장치일 수 있다.
대안의 실시예들에서, 시스템(10)은 센서(30) 외에, 하나 이상의 추가 센서들을 포함할 수 있다(도 1에 도시되지 않음). 이러한 대안의 실시예들 중 일부 실시예들에서, 추가 센서들 중 적어도 하나의 센서는 상황 데이터를 검출하도록 구성될 수 있는 상황 센서일 수 있다. 상황 데이터의 일례는 장치의 하나 이상의 물리적 속성들을 식별하는 데이터이다. 상황 데이터의 다른 일례는 장치의 기능을 식별하는 데이터이다. 상황 데이터의 또 다른 일례는 장치와의 상호 작용을 식별하는 데이터이다. 상황 데이터의 다른 일례는, 장치와의 상호 작용에 의해 생성된 압력, 가속, 사운드, 또는 데이터 등의, 장치와의 상호 작용과 연관된 하나 이상의 특성들을 식별하는 데이터이다. 상황 데이터의 또 다른 일례는 사용자의 상태 및/또는 사용자가 있는 환경을 식별하는 데이터이다. 특정 실시예들에서, 상황 센서는 이전 단락에 기술된 상술된 장치들 중 하나일 수 있다.
도 2는 본 발명의 일 실시예에 따른, 햅틱 효과의 자동 조정의 블록도를 도시한다. 도 2는 사용자(210)를 포함한다. 사용자(210)는 햅틱 효과를 생성할 수 있는 장치 또는 시스템의 사용자를 나타낸다. 더 상세히 후술되는 바와 같이, 사용자(210)는 햅틱 효과를 경험하고, 햅틱 효과의 경험 결과로서, 정서 상태, 또는 정서 상태의 변경을 산출할 수 있다.
도 2는 도 1의 시스템(10)에 의해 구현될 수 있는, 햅틱 효과 생성기(220)를 더 포함한다. 햅틱 효과 생성기(220)는 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성할 수 있는 하드웨어 컴포넌트 및/또는 소프트웨어 컴포넌트를 포함하며, 햅틱 효과는 사용자(210)에 의해 경험될 수 있다. 실시예에 따라, 햅틱 효과 생성기(220)는 사용자(210)에 의해 경험될 수 있는 햅틱 효과들의 범위를 생성할 수 있다. 사용자(210)에 의해 경험될 수 있는 햅틱 효과들의 일례들은 진동 촉각 햅틱 효과들, 정전 마찰 햅틱 효과들, 또는 변형 햅틱 효과들을 포함한다. 더 구체적으로 말해서, 특정 실시예들에서, 햅틱 효과 생성기(220)의 소프트웨어 컴포넌트는 햅틱 신호를 생성하고, 햅틱 신호를 햅틱 효과 생성기(220)의 하드웨어 컴포넌트에 송신할 수 있으며, 하드웨어 컴포넌트는 햅틱 신호에 기초하여 햅틱 효과를 생성할 수 있다. 이러한 실시예들의 일부 실시예들에서, 햅틱 효과 생성기(220)의 하드웨어 컴포넌트는 액추에이터이다. 다른 실시예들에서, 햅틱 효과 생성기(220)의 소프트웨어 컴포넌트는 햅틱 신호를 생성하여 햅틱 신호를 외부 장치(도 2에 도시되지 않음)에 송신할 수 있으며, 외부 장치는 햅틱 신호에 기초하여 햅틱 효과를 생성할 수 있다. 특정 실시예들에서, 햅틱 효과 생성기(220)는, 예를 들어, 서버, 및 서버에 동작상 연결된 하나 이상의 원격 장치들 간의 네트워크에 걸쳐 분산될 수 있다.
본 실시예에 따라, 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호를 정의할 수 있고, 따라서, 생성될 햅틱 효과를 또한 정의할 수 있는 파라미터이다. 더 구체적으로 말해서, 햅틱 파라미터는 크기, 주파수, 지속 기간, 진폭, 강도, 엔벨로프, 밀도, 또는 임의의 다른 종류의 정량화할 수 있는 햅틱 파라미터 등의, 햅틱 효과 품질의 양이다. 본 실시예에 따라, 햅틱 효과는, 적어도 부분적으로, 하나 이상의 햅틱 파라미터들에 의해, 정의될 수 있으며, 하나 이상의 햅틱 파라미터들은 햅틱 효과의 특성들을 정의할 수 있다. 햅틱 파라미터는 수치 값을 포함할 수 있으며, 수치 값은 햅틱 신호의 특성을 정의할 수 있고, 따라서, 햅틱 신호에 의해 생성된 햅틱 효과의 특성을 정의할 수 있다. 햅틱 파라미터들의 일례들은 진폭 햅틱 파라미터, 주파수 햅틱 파라미터, 지속 기간 햅틱 파라미터, 엔벨로프 햅틱 파라미터, 밀도 햅틱 파라미터, 크기 햅틱 파라미터, 및 강도 햅틱 파라미터를 포함할 수 있다.
본 실시예에 따라, 진폭 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 진폭을 정의할 수 있고, 따라서, 햅틱 효과의 진폭을 정의할 수 있다. 주파수 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 주파수를 정의할 수 있고, 따라서, 햅틱 효과의 주파수를 정의할 수 있다. 지속 기간 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 지속 기간을 정의할 수 있고, 따라서, 햅틱 효과의 지속 기간을 정의할 수 있다. 엔벨로프 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 엔벨로프를 정의할 수 있고, 따라서, 햅틱 효과의 엔벨로프를 정의할 수 있다. 밀도 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 밀도를 정의할 수 있고, 따라서, 햅틱 효과의 밀도를 정의할 수 있다. 크기 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 크기를 정의할 수 있고, 따라서, 햅틱 효과의 크기를 정의할 수 있다. 강도 햅틱 파라미터는 햅틱 효과를 생성하는데 사용되는 햅틱 신호의 강도를 정의할 수 있고, 따라서, 햅틱 효과의 강도를 정의할 수 있다.
대안의 실시예들에서, 햅틱 파라미터의 다른 일례는, 하나 이상의 지정된 액추에이터들에게 송신될 햅틱 신호를 구성하는데 사용될 수 있는, 액추에이터 햅틱 파라미터이다. 예를 들어, 액추에이터 햅틱 파라미터는 LRA 액추에이터, ERM 액추에이터, 또는 양 액추에이터들에게 송신될 햅틱 신호를 구성할 수 있다. 특정 실시예들에서, 액추에이터 햅틱 파라미터는 지정된 액추에이터와 연관될 수 있다. 다른 실시예에서, 액추에이터 햅틱 파라미터는 복수의 지정된 액추에이터들과 연관될 수 있다.
도 2는, 햅틱 효과를 자동으로 조정하도록 구성될 수 있는, 자동 햅틱 효과 조정 모듈(221)을 더 포함한다. 특정 실시예들에서, 자동 햅틱 효과 조정 모듈(221)은 도 1의 자동 햅틱 효과 조정 모듈(16)과 동일하다. 더 구체적으로 말해서, 자동 햅틱 효과 조정 모듈(221)은 햅틱 효과 생성기(220)에 의해 이전에 생성된 햅틱 효과의 하나 이상의 햅틱 파라미터들을 자동으로 조정할 수 있다. 하나 이상의 햅틱 파라미터들을 자동으로 조정함으로써, 자동 햅틱 효과 조정 모듈(221)은 하나 이상의 햅틱 파라미터들의 값을 자동으로 조정할 수 있다. 더 상세히 후술되는 바와 같이, 자동 햅틱 효과 조정 모듈(221)은 하나 이상의 센서들로부터 측정된 입력에 기초하여 하나 이상의 햅틱 파라미터들을 자동으로 조정할 수 있다. 이러한 입력은 사용자(210)의 측정된 정서 상태를 포함할 수 있다. 이러한 입력은 사용자(210)의 측정된 상황을 선택적으로 또한 포함할 수 있다.
자동 햅틱 효과 조정 모듈(221)이 하나 이상의 햅틱 파라미터들을 조정했으면, 햅틱 효과 생성기(220)의 소프트웨어 컴포넌트는 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 신호를 생성할 수 있다. 특정 실시예들에서, 햅틱 효과 생성기(220)의 소프트웨어 컴포넌트는 새로운 햅틱 신호를 햅틱 효과 생성기(220)의 하드웨어 컴포넌트에 송신할 수 있으며, 하드웨어 컴포넌트는 새로운 햅틱 신호에 기초하여 새로운 햅틱 효과를 생성할 수 있다. 다른 실시예들에서, 햅틱 효과 생성기(220)의 소프트웨어 컴포넌트는 새로운 햅틱 신호를 외부 장치(도 2에 도시되지 않음)에 송신할 수 있으며, 외부 장치는 새로운 햅틱 신호에 기초하여 새로운 햅틱 효과를 생성할 수 있다. 도시된 실시예에서, 자동 햅틱 효과 조정 모듈(221)은 햅틱 효과 생성기(220)의 컴포넌트이다. 그러나, 대안의 실시예들에서, 자동 햅틱 효과 조정 모듈(221)은 햅틱 효과 생성기(220)와 별개일 수 있다.
일례에서, 햅틱 효과 생성기(220)는 10개의 원래의 햅틱 효과들의 집합을 생성할 수 있다. 자동 햅틱 효과 조정 모듈(221)은 10개의 원래의 햅틱 효과들의 집합의 각각의 원래의 햅틱 효과의 햅틱 파라미터들을 조정할 수 있다. 자동 햅틱 효과 조정 모듈(221)은 그 후 햅틱 효과 생성기(220)가 10개의 새로운 햅틱 효과들의 집합을 생성하도록 야기할 수 있다. 각각의 새로운 햅틱 효과에 대해, 하나 이상의 조정된 햅틱 파라미터들은 새로운 햅틱 효과가 원래의 햅틱 효과와 상이하게 야기한다.
도 2는 정서 센서(230)를 더 포함한다. 특정 실시예들에서, 정서 센서(230)는 도 1의 센서(30)와 동일하다. 정서 센서(230)는 사용자(210)의 정서 상태를 측정할 수 있으며, 사용자(210)는 햅틱 효과 생성기(220)에 의해 생성된 햅틱 효과를 경험한다. 더 구체적으로 말해서, 정서 센서(230)는 정서 데이터를 검출할 수 있으며, 정서 데이터는 사용자(210)의 하나 이상의 특성들을 포함한다. 일례로서, 정서 센서(230)는 바이오-센서일 수 있으며, 심박동수, 혈압, 전기 피부 반응, 또는 근육 수축 등의, 사용자(210)의 특성들을 검출할 수 있다. 다른 일례로서, 정서 센서(230)는 카메라 또는 다른 타입의 센서일 수 있으며, 얼굴 표정들 또는 시선 방향 등의, 사용자(210)의 특성들을 검출할 수 있다. 추가 일례로서, 정서 센서(230)는 뇌 영상 장치일 수 있으며, 뇌의 전기적 활동 등의, 사용자(210)의 특성들을 검출할 수 있다.
본 실시예에 따라, 정서 센서(230)는 정서 데이터를 검출하고, 전기 신호, 또는 정서 데이터를 나타내는 임의의 신호 등의 입력을 산출할 수 있다. 정서 센서(230)는, 도 2의 도시된 실시예에서, 햅틱 효과 생성기(220)의 컴포넌트인, 자동 햅틱 효과 조정 모듈(221)에 입력을 또한 송신할 수 있다. 자동 햅틱 효과 조정 모듈(221)은 정서 센서(230)에 의해 송신된 입력을 분석할 수 있으며, 사용자(210)의 정서 상태를 결정할 수 있다. 사용자(210)의 정서 상태는 사용자(210)의 감정 상태를 나타낸다. 따라서, 사용자(210)가 햅틱 효과를 경험할 때 사용자(210)의 정서 상태를 결정함으로써, 햅틱 효과를 경험할 때의 사용자(210)의 감정 상태가 추정될 수 있다. 특정 실시예들에서, 사용자(210)의 정서 상태는 매력(valence)값 및 각성(arousal)값으로 표현될 수 있다. 특별히 감정 상태와 관련해서, 심리학에서 사용되는 매력은 이벤트, 반대, 또는 상황의 본질적인 매력(즉, 포지티브 매력) 또는 싫어함(즉, 네가티브 매력)이다. 따라서, 포지티브 매력값은 행복, 만족, 또는 기쁨 등의 감정 상태를 나타낼 수 있는, 포지티브 매력을 나타낼 수 있다. 또한, 네가티브 매력값은 슬픔, 화남, 또는 짜증 등의 감정 상태를 나타낼 수 있는, 네가티브 매력을 나타낼 수 있다. 각성은 자극을 알고 반응하는 상태이다. 더 높은 각성값은 자극에 참여하고 반응하는 것과 일관된 감정 상태를 나타낼 수 있다. 더 낮은 각성값은 자극에 자유롭고 반응하지 않는 것과 일관된 감정 상태를 나타낼 수 있다. 매력값 및 각성값은 함께 사용자(210)의 정서 상태를 나타낼 수 있다.
특정 실시예들에서, 상술된 바와 같이, 정서 센서(230)는 정서 데이터를 검출할 수 있고, 입력을 산출할 수 있으며, 자동 햅틱 효과 조정 모듈(221)은 정서 센서(230)에 의해 송신된 입력을 분석할 수 있고, 사용자(210)의 정서 상태를 직접 결정할 수 있으며, 사용자(210)의 정서 상태는 매력값 및 각성값으로 표현될 수 있다. 그러나, 대안의 실시예들에서, 정서 상태는 베이스라인과 관련하여 측정될 수 있다. 예를 들어, 생체 신호는 사용자마다 변할 수 있다. 따라서, 공지된 감정 상태에서 해당 사용자의 베이스라인 정서 상태와의 비교가 절대 정서 상태를 결정하기 위해 요구될 수 있다. 예를 들어, 절대 매력값 및 절대 각성값은 측정된 매력값 및 측정된 각성값을 베이스라인 매력값 및 베이스라인 각성값과 비교함으로써 결정될 수 있다. 따라서, 이러한 대안의 실시예들에서, 자동 햅틱 효과 조정 모듈(221)은 정서 상태를 결정하기 위해 베이스라인 정서 상태(예를 들어, 베이스라인 매력값 및 베이스라인 각성값)에 기초하여 측정된 정서 상태(예를 들어, 측정된 매력값 및 측정된 각성값)을 정규화할 수 있다.
본 실시예에 따라, 자동 햅틱 효과 조정 모듈(221)이 사용자(210)의 정서 상태를 결정했으면, 자동 햅틱 효과 조정 모듈(221)은 측정된 정서 상태를 선정된 정서 상태와 비교할 수 있다. 선정된 정서 상태는 사용자(210)의 희망 감정 상태, 또는 감정 상태의 희망 변경을 나타낼 수 있다. 다시 말해서, 햅틱 효과를 경험할 때, 사용자(210)가 희망 감정 상태 또는 감정 상태의 희망 변경을 산출하도록 야기하는 햅틱 효과를 생성하도록 요구될 수 있으며, 희망 감정 상태 또는 감정 상태의 희망 변경은 선정된 정서 상태로 표현된다. 특정 실시예들에서, 선정된 정서 상태는 선정된 매력값, 및 선정된 각성값을 포함할 수 있다. 측정된 정서 상태를 선정된 정서 상태와 비교함으로써, 자동 햅틱 효과 조정 모듈(221)은 측정된 정서 상태 및 선정된 정서 상태 간에 차이가 있는 지를 식별할 수 있다. 특정 실시예들에서, 측정된 정서 상태 및 선정된 정서 상태 간의 차이는: (1) 측정된 정서 상태의 매력 및 선정된 정서 상태의 매력 간의 차이; (2) 측정된 정서 상태의 각성값 및 선정된 정서 상태의 각성값 간의 차이; 또는 (3) 측정된 정서 상태의 매력값 및 각성값 및 선정된 정서 상태의 매력값 및 각성값 간의 차이를 포함할 수 있다. 이러한 차이는, 햅틱 효과 생성기(220)에 의해 생성된 햅틱 효과가 사용자(210)가 희망 감정 상태를 산출하도록 야기하지 않았음을 나타낼 수 있다.
자동 햅틱 효과 조정 모듈(221)이 측정된 정서 상태 및 선정된 정서 상태 간의 차이를 식별하는 경우에, 자동 햅틱 효과 조정 모듈(221)은 식별된 차이를 사용해서, 햅틱 효과 생성기(220)에 의해 이전에 생성된 햅틱 효과의 하나 이상의 햅틱 파라미터들을 자동으로 조정할 수 있다. 더 구체적으로 말해서, 자동 햅틱 효과 조정 모듈(221)은 새로운 햅틱 효과를 산출할 하나 이상의 햅틱 파라미터들에 대한 조정을 식별할 수 있으며, 새로운 햅틱 효과는 사용자(210)의 새로운 정서 상태를 산출할 것이다. 또한, 자동 햅틱 효과 조정 모듈(221)은 새로운 정서 상태가 선정된 정서 상태에 더 유사하다고 식별할 수 있다. 선정된 정서 상태에 "더 유사"함으로써, 새로운 정서 상태 및 선정된 정서 상태 간의 차이는 원래의 정서 상태 및 선정된 정서 상태 간의 차이보다 더 작을 수 있다. 특정 실시예들에서, 선정된 정서 상태에 "더 유사"함으로써: (1) 새로운 정서 상태의 매력값은 선정된 정서 상태의 매력값에 더 유사하거나; (2) 새로운 정서 상태의 각성값은 선정된 정서 상태의 각성값에 더 유사하거나; 또는 (3) 새로운 정서 상태의 매력값 및 각성값 둘 다가 선정된 정서 상태의 매력값 및 각성값에 더 유사하다. 다음으로, 상술된 바와 같이, 자동 햅틱 효과 조정 모듈(221)은 햅틱 효과 생성기(220)가 새로운 햅틱 효과를 생성하게 야기할 수 있으며, 새로운 햅틱 효과는 사용자(210)가 새로운 정서 상태를 산출하게 야기한다. 대안의 실시예들에서, 자동 햅틱 효과 조정 모듈(221)은 하나 이상의 햅틱 파라미터들에 대한 랜덤 조정을 식별할 수 있다. 자동 햅틱 효과 조정 모듈(221)은 햅틱 효과 생성기(220)가 하나 이상의 햅틱 파라미터들의 랜덤 조정에 기초하여 새로운 햅틱 효과를 생성하게 야기할 수 있다. 새로운 햅틱 효과는 사용자(210)가 새로운 햅틱 효과를 산출하도록 야기할 수 있다(그러나, 반드시 그런 것은 아님).
특정 실시예들에서, 상술된 기능은, 햅틱 효과 생성기(220)가 선정된 정서 상태에 유사한 사용자(210)의 새로운 정서 상태를 산출하는 새로운 햅틱 효과를 생성할 때까지, 계속해서 실행될 수 있다. 정서 상태는, 정서 상태 및 선정된 정서 상태 간의 차이가 선정된 임계값보다 작을 때 선정된 정서 상태에 "유사"할 수 있다. 특정 실시예들에서, 선정된 정서 상태에 "유사"함으로써: (1) 정서 상태의 매력값 및 선정된 정서 상태의 매력값 간의 차이가 선정된 임계값보다 작거나; (2) 정서 상태의 각성값 및 선정된 정서 상태의 각성값 간의 차이가 선정된 임계값보다 작거나; 또는 (3) 정서 상태의 매력값 및 각성값 및 선정된 정서 상태의 매력값 및 각성값 간의 차이 둘 다가 선정된 임계값보다 작다.
도 2는 상황 센서(240)를 더 포함한다. 특정 실시예들에서, 상황 센서(240)는 도 1의 센서(30)와 동일하다. 상황 센서(240)는 사용자(210)의 상황을 측정할 수 있는 선택적 센서이고, 사용자(210)는 햅틱 효과 생성기(220)에 의해 생성된 햅틱 효과를 경험한다. 더 구체적으로 말해서, 상황 센서(240)는 상황 데이터를 검출할 수 있는 센서이며, 상황 데이터는 장치의 하나 이상의 물리적 속성들을 식별하는 데이터, 장치의 기능을 식별하는 데이터, 장치와의 상호 작용을 식별하는 데이터, 또는 장치와의 상호 작용에 의해 생성된 압력, 가속, 사운드, 또는 데이터 등의 장치와의 상호 작용과 연관된 하나 이상의 특성들을 식별하는 데이터를 포함한다. 상황 데이터를 검출할 수 있는 센서의 일례는 정서 센서(230)와 유사한 정서 센서일 수 있다. 상황 데이터를 검출할 수 있는 센서의 다른 일례들은 카메라들, 마이크로폰들, 가속도계들, 및 소프트웨어 에이전트들을 포함할 수 있다.
본 실시예에 따라, 상황 센서(240)는 상황 데이터를 검출하고, 전기 신호, 또는 상황 데이터를 나타내는 임의의 신호 등의 입력을 산출할 수 있다. 상황 센서(240)는, 도 2의 도시된 실시예에서, 햅틱 효과 생성기(220)의 컴포넌트인, 자동 햅틱 효과 조정 모듈(221)에 입력을 또한 송신할 수 있다. 자동 햅틱 효과 조정 모듈(221)은 상황 센서(240)에 의해 송신된 입력을 분석할 수 있으며, 사용자(210)의 상황을 결정할 수 있다. 상황은, 사용자(210)가 햅틱 효과 생성기(220)에 의해 생성된 햅틱 효과를 경험하고 정서 센서(230)에 의해 측정된 정서 상태를 산출할 때 사용자(210)가 실행하는 동작(예를 들어, 장치와의 상호 작용)을 나타낼 수 있다.
그 후, 자동 햅틱 효과 조정 모듈(221)은, 사용자(210)의 측정된 정서 상태와 관련해서, 사용자(210)의 상황을 사용해서, 햅틱 효과 생성기(220)에 의해 이전에 생성된 햅틱 효과의 하나 이상의 햅틱 파라미터들을 자동으로 조정할 수 있다. 예를 들어, 햅틱 효과는 사용자(210)의 상황에 기초하여 사용자(210)에 의해 상이하게 인식될 수 있다고 추정될 수 있다. 본 일례에서, 햅틱 효과는, 사용자(210)가 자고 있는 때에 비해, 사람들로 붐비는 방에 있는 것과 같이, 사용자(210)가 시끄러운 환경에 있을 때 사용자(210)에 의해 상이하게 인식될 수 있다. 더 구체적으로 말해서, 사용자(210)는 시끄러운 환경에서 시끄러운 햅틱 효과를 경험할 때 더 높은 매력값을 가진 정서 상태를 산출할 수 있다(예를 들어, 사용자(210)가 감소된 볼륨으로 햅틱 효과를 인식하지 못할 수 있기에, 사용자(210)는 햅틱 효과의 증가된 볼륨을 인식함). 대조적으로, 사용자(210)는, 사용자(210)가 자고 있으면서 시끄러운 햅틱 효과를 경험할 때 더 낮은 매력값을 가진 정서 상태를 산출할 수 있다(예를 들어, 햅틱 효과가 잠을 방해했기 때문에, 사용자(210)는 짜증이 남). 따라서, 자동 햅틱 효과 조정 모듈(221)은, 햅틱 효과 생성기(220)에 의해 이전에 생성된 햅틱 효과의 하나 이상의 햅틱 파라미터들을 어떻게 조정할 지를 결정할 때, 사용자(210)의 정서 상태와 관련해서, 사용자(210)의 상황을 고려할 수 있다. 특정 실시예들에서, 상황 센서(240), 및 연관된 기능은 생략될 수 있다.
도 3은 본 발명의 일 실시예에 따른, 대규모 전개 환경의 블록도를 도시한다. 도 3은 서버(310)를 포함한다. 서버(310)는, 기능을 제공하는 하나 이상의 모듈들을 저장하는 메모리를 포함할 수 있고, 메모리 내에 저장된 하나 이상의 모듈들을 실행하는 프로세서를 또한 포함할 수 있는, 컴퓨터 등의, 물리적 장치이다. 도 3의 도시된 실시예에서, 서버(310)는, 햅틱 효과를 자동으로 조정하도록 구성될 수 있는, 자동 햅틱 효과 조정 모듈(311)을 더 포함한다. 특정 실시예들에서, 자동 햅틱 효과 조정 모듈(311)은 도 1의 자동 햅틱 효과 조정 모듈(16) 및 도 2의 자동 햅틱 효과 조정 모듈(221)과 동일하다.
도 3은 네트워크(320)를 더 포함한다. 네트워크(320)는, 장치들 간의 통신 및 데이터 전송을 용이하게 하는 통신 채널들에 의해 동작상 상호 연결된, 이동 장치들, 터치스크린 장치들, 퍼스널 컴퓨터들, 또는 스마트폰들 등의, 복수의 장치들의 집합이다. 특정 실시예들에서, 네트워크(320)는 인트라넷일 수 있다. 대안의 실시예들에서, 네트워크(320)는 인터넷일 수 있으며, 당업자가 아는 바와 같이, 인터넷은 표준 인터넷 프로토콜 세트(즉, TCP/IP)를 사용하는, 상호 연결된 네트워크들의 글로벗 시스템이다.
도 3은 장치들(330, 340, 350 및 360)을 더 포함한다. 장치들(330, 340, 350 및 360)은 햅틱 효과를 생성할 수 있고, 네트워크(320)에 동작상 연결될 수 있는 장치들의 일례들이다. 예를 들어, 장치들(330, 340, 350 및 360)은 이동 장치, 터치스크린 장치, 퍼스널 컴퓨터, 및 스마트폰 중 하나일 수 있다. 도시된 실시예에서, 네트워크(320)는 4개의 장치들을 포함하는데, 이는 단지 일례의 실시예이며, 다른 대안의 실시예들에서, 네트워크(320)는 임의의 수의 장치들을 포함할 수 있다.
본 실시예에 따라, 장치(330)는 햅틱 효과 생성기(331) 및 센서(332)를 포함하고, 장치(340)는 햅틱 효과 생성기(341) 및 센서(342)를 포함하며, 장치(350)는 햅틱 효과 생성기(351) 및 센서(352)를 포함하고, 장치(360)는 햅틱 효과 생성기(361) 및 센서(362)를 포함한다. 햅틱 효과 생성기들(331, 341, 351, 및 361)은 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성할 수 있는 하드웨어 컴포넌트 및/또는 소프트웨어 컴포넌트를 각각 포함한다. 특정 실시예들에서, 햅틱 효과 생성기들(331, 341, 351, 및 361)은 도 2의 햅틱 효과 생성기(220)와 각각 동일하다. 그러나, 이러한 실시예들의 일부 실시예들에서, 햅틱 효과 생성기들(331, 341, 351, 및 361)은 자동 햅틱 효과 조정 모듈을 포함하지 않는다. 대안의 실시예들에서, 장치들(330, 340, 350 및 360) 중 적어도 하나의 장치는 도 3에 도시되지 않은 추가의 햅틱 효과 생성기들을 포함할 수 있다.
또한, 센서들(332, 342, 352, 및 362)은 사용자의 정서 상태를 측정하도록 각각 구성될 수 있으며, 사용자는 햅틱 효과를 경험한다. 특정 실시예들에서, 센서들(332, 342, 352, 및 362)은 도 2의 정서 센서(230)와 각각 동일하다. 대안의 실시예들에서, 장치들(330, 340, 350 및 360) 중 적어도 하나의 장치는 도 3에 도시되지 않은 추가의 센서들을 포함할 수 있다. 이러한 실시예들의 일부 실시예들에서, 추가 센서들 중 적어도 하나의 센서는 사용자의 상황을 측정할 수 있는 센서일 수 있으며, 사용자는 햅틱 효과를 경험한다. 이러한 실시예들에서, 적어도 하나의 추가 센서는 도 2의 상황 센서(240)와 동일할 수 있다.
본 실시예에 따라, 장치(330)는 햅틱 효과 생성기(331)를 사용해서 햅틱 효과를 생성하고, 장치(330)는 센서(332)를 사용해서 햅틱 효과를 경험하는 사용자의 정서 상태를 측정한다. 유사하게, 장치(340)는 햅틱 효과 생성기(341)를 사용해서 햅틱 효과를 생성하고, 센서(342)를 사용해서 햅틱 효과를 경험하는 사용자의 정서 상태를 측정하며, 장치(350)는 햅틱 효과 생성기(351)를 사용해서 햅틱 효과를 생성하고, 센서(352)를 사용해서 햅틱 효과를 경험하는 사용자의 정서 상태를 측정하며, 장치(360)는 햅틱 효과 생성기(361)를 사용해서 햅틱 효과를 생성하고, 센서(362)를 사용해서 햅틱 효과를 경험하는 사용자의 정서 상태를 측정한다. 또한, 장치들(330, 340, 350 및 360)은 각각의 측정된 정서 상태를 서버(310)에 각각 송신한다. 특정 실시예들에서, 장치들(330, 340, 350 및 360) 중 적어도 하나의 장치는 햅틱 효과를 경험하는 사용자의 상황을 또한 측정할 수 있다. 이러한 실시예들에서, 장치들(330, 340, 350 및 360) 중 적어도 하나의 장치는 측정된 상황을 서버(310)에 또한 송신할 수 있다.
장치들(330, 340, 350 및 360)로부터 측정된 정서 상태들을 수신할 때, 본 실시예에 따라, 서버(310)는 자동 햅틱 효과 조정 모듈(311)을 사용해서 측정된 정서 상태들에 기초하여 하나 이상의 햅틱 파라미터들을 조정한다. 특정 실시예들에서, 서버(310)는 장치들(330, 340, 350 및 360)에 대해 총체적으로 하나 이상의 햅틱 파라미터들의 단일 집합을 조정한다. 다른 실시예들에서, 서버(310)는 장치들(330, 340, 350 및 360)의 각각의 장치에 대해 개별적으로 하나 이상의 햅틱 파라미터들의 개별 집합을 조정한다. 서버(310)는 그 다음으로 장치들(330, 340, 350 및 360)에 하나 이상의 햅틱 파라미터들을 송신한다. 특정 실시예들에서, 서버는 하나 이상의 햅틱 파라미터들의 단일 집합을 장치들(330, 340, 350 및 360)에 송신한다. 다른 실시예들에서, 서버(310)는 하나 이상의 햅틱 파라미터들의 제1 집합을 장치(330)에, 하나 이상의 햅틱 파라미터들의 제2 집합을 장치(340)에, 하나 이상의 햅틱 파라미터들의 제3 집합을 장치(350)에, 및 하나 이상의 햅틱 파라미터들의 제4 집합을 장치(360)에, 개별적으로 송신한다. 본 실시예에 따라, 장치(330)는 햅틱 효과 생성기(331)를 사용해서 수신된 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성한다. 유사하게, 장치(340)는 햅틱 효과 생성기(341)를 사용해서 수신된 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하고, 장치(350)는 햅틱 효과 생성기(351)를 사용해서 수신된 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하며, 장치(360)는 햅틱 효과 생성기(361)를 사용해서 수신된 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성한다.
따라서, 일례에서, 장치 제조자 또는 서비스 제공자는 전체 사용자 베이스에 걸쳐, 또는 사용자 베이스의 부집합에 걸쳐 변형들을 테스트함으로써 하나 이상의 햅틱 효과들의 집합을 최적화할 수 있다. 일례로서, 장치 제조자는 하나 이상의 햅틱 효과들을 생성하는데 사용되는 햅틱 주제를 무작위로 선택할 수 있으며, 장치가 고객들에게 팔림에 따라 햅틱 주제는 각각의 장치에 프리로드된다. 그 후, 장치들은 햅틱 효과에 의해 산출된 정서 상태(예를 들어, 매력, 또는 각성)를 측정할 수 있을 뿐만 아니라, 하나 이상의 햅틱 효과들이 생성되는 상황(예를 들어, 주변 소음, 또는 현재 태스크)을 선택적으로 측정할 수 있다. 장치 제조자는 그 후 네트워크를 통해, 각각의 측정된 정서 상태를 수집하고, 각각의 측정된 상황을 선택적으로 수집하며, 서버에서, (예를 들어, 서버에 저장된 데이터베이스에) 수집된 정서 상태(들)를 저장하고, 상황(들)을 선택적으로 저장할 수 있다. 그 후, 장치 제조자는 수집된 정서 상태(들)를 더 분석하고, 수집된 상태(들)를 선택적으로 분석하며, 상이한 상황들에서 선정된 정서 상태로 이끌 가능성이 가장 높은 새로운 햅틱 효과를 선택할 수 있다. 그 후, 새로운 햅틱 효과들은 장치들에 송신될 수 있다. 새로운 햅틱 효과들은 선정된 정서 상태로 이끌 가능성이 가장 높은 식별된 햅틱 효과들일 수 있으며, 또는 다른 정서 상태들(및, 선택적으로, 다른 상황들)을 측정하는데 사용되는 햅틱 효과들의 다른 집합일 수 있다.
도 4는 본 발명의 일 실시예에 따른, 개별 전개 환경의 블록도를 도시한다. 도 4는 사용자(410)를 포함한다. 사용자(410)는 햅틱 효과를 생성할 수 있는 장치 또는 시스템의 사용자를 나타낸다. 상술된 바와 같이, 사용자(410)는 햅틱 효과를 경험하고, 햅틱 효과의 경험 결과로서 정서 상태를 산출할 수 있다.
도 4는 장치(420)를 또한 포함한다. 장치(420)는 햅틱 효과를 생성할 수 있는 장치의 일례이다. 예를 들어, 장치(420)는 이동 장치, 터치스크린 장치, 퍼스널 컴퓨터, 및 스마트폰 중 하나일 수 있다. 본 실시예에 따라, 장치(420)는 햅틱 효과 생성기(421), 센서(422), 및 자동 햅틱 효과 조정 모듈(423)을 포함한다. 햅틱 효과 생성기(421)는 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성할 수 있는 하드웨어 컴포넌트 및/또는 소프트웨어 컴포넌트를 포함한다. 특정 실시예들에서, 햅틱 효과 생성기(421)는 도 2의 햅틱 효과 생성기(220), 및 도 3의 햅틱 효과 생성기들(331, 341, 351, 및 361)과 동일하다. 그러나, 이러한 실시예들의 일부 실시예들에서, 햅틱 효과 생성기(421)는 자동 햅틱 효과 조정 모듈을 포함하지 않는다. 대안의 실시예들에서, 장치(420)는 도 4에 도시되지 않은 추가의 햅틱 효과 생성기들을 포함할 수 있다.
센서(422)는 사용자의 정서 상태를 측정하도록 구성될 수 있으며, 사용자는 햅틱 효과를 경험한다. 특정 실시예들에서, 센서(422)는 도 2의 정서 센서(230), 및 도 3의 센서들(332, 342, 352, 및 362)과 동일하다. 대안의 실시예들에서, 장치(420)는 도 4에 도시되지 않은 추가의 센서들을 포함할 수 있다. 이러한 실시예들의 일부 실시예들에서, 추가 센서들 중 적어도 하나의 센서는 사용자의 상황을 측정할 수 있는 센서일 수 있으며, 사용자는 햅틱 효과를 경험한다. 이러한 실시예들에서, 적어도 하나의 추가 센서는 도 2의 상황 센서(240)와 동일할 수 있다.
자동 햅틱 효과 조정 모듈(423)은 햅틱 효과를 자동으로 조정하도록 구성될 수 있다. 특정 실시예들에서, 자동 햅틱 효과 조정 모듈(423)은 도 1의 자동 햅틱 효과 조정 모듈(16), 도 2의 자동 햅틱 효과 조정 모듈(221), 및 도 3의 자동 햅틱 효과 조정 모듈(311)과 동일하다.
본 실시예에 따라, 장치(420)는 햅틱 효과 생성기(421)를 사용해서 햅틱 효과를 생성하고, 장치(420)는, 센서(422)를 사용해서, 사용자(410)의 정서 상태를 측정하며, 사용자(410)는 햅틱 효과를 경험한다. 사용자(410)의 측정된 정서 상태에 기초하여, 장치(420)는 자동 햅틱 효과 조정 모듈(423)을 사용해서 하나 이상의 햅틱 파라미터들을 조정한다. 장치(420)는 햅틱 효과 생성기(421)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성한다.
일 실시예에서, 장치(420)는, 센서(422)를 사용해서, 사용자(410)의 새로운 정서 상태를 더 측정할 수 있으며, 사용자(410)는 새로운 햅틱 효과를 경험한다. 사용자(410)의 새로운 측정된 정서 상태에 기초하여, 장치(420)는 자동 햅틱 효과 조정 모듈(423)을 사용해서 하나 이상의 햅틱 파라미터들을 더 조정할 수 있고, 햅틱 효과 생성기(421)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성할 수 있다. 이러한 실시예에서, 장치(420)는, 새로운 햅틱 효과가 선정된 정서 상태에 유사한 사용자(410)의 새로운 정서 상태를 산출할 때까지, 계속해서 상술된 기능을 실행할 수 있다.
따라서, 일례에서, 장치는 사용자의 정서 상태에 기초하여 하나 이상의 햅틱 효과들의 집합을 자동으로 조정할 수 있다. 장치는, 주파수의 강도 등의, 하나 이상의 햅틱 효과들의 집합의 하나 이상의 햅틱 파라미터들의 변형들을 자동으로 야기할 수 있으며, 하나 이상의 정서 센서들을 사용해서 사용자의 정서 상태를 측정할 수 있다. 따라서, 장치는 특정 사용자에 대한 하나 이상의 햅틱 효과들의 최적 집합을 점차로 학습할 수 있고, 사용자의 개인 선호들에 맞출 수 있다. 조정은 계속될 수 있어서, 시간이 흐르면서 사용자의 변하는 선호들에 맞춰진다. 또한, 조정은, 장치 제조자가 장치 제조자의 모든 장치들에 대한 하나 이상의 햅틱 효과들을 생성하는데 사용되는 디폴트 햅틱 주제를 선택할 수 있게 하기 위해, 네트워크를 통해, 장치 제조자에게 선택적으로 전달될 수 있다.
도 5는 본 발명의 일 실시예에 따른, 실험실 환경의 블록도를 도시한다. 도 5는 도 4의 사용자(410)와 동일한 사용자(510)를 포함하며, 여기서는 더 기술되지 않는다. 도 5는 고충실도 햅틱 효과 생성기(521), 고충실도 센서(522), 및 자동 햅틱 효과 조정 모듈(523)을 포함하는, 장치(520)를 더 포함한다. 자동 햅틱 효과 조정 모듈(523)은 도 4의 자동 햅틱 효과 조정 모듈(423)과 동일하며, 여기서는 또한 더 기술되지 않는다.
고충실도 햅틱 효과 생성기(521)는 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성할 수 있는 하드웨어 컴포넌트 및/또는 소프트웨어 컴포넌트를 포함한다. 본 실시예에서, 고충실도 햅틱 효과 생성기(521)의 하드웨어 컴포넌트는 고충실도 액추에이터이다. 본 실시예에 따라, 고충실도 액추에이터는 선정된 해상도 또는 그보다 더 높은 해상도의 햅틱 효과만을 생성하도록 구성된 액추에이터이다. 대안의 실시예들에서, 장치(520)는 도 5에 도시되지 않은 추가의 고충실도 햅틱 효과 생성기들을 포함할 수 있다. 다른 대안의 실시예들에서, 고충실도 햅틱 효과 생성기(521)는 햅틱 효과 생성기(예를 들어, 도 4의 햅틱 효과 생성기(421))로 대체될 수 있다.
고충실도 센서(522)는 사용자의 정서 상태를 측정하도록 구성되며, 사용자는 햅틱 효과를 경험한다. 본 실시예에 따라, 고충실도 센서(522)는 오직 선정된 해상도 또는 그보다 더 높은 해상도를 사용하는 정서 상태만을 측정한다. 특정 실시예들에서, 고충실도 센서(522)는 고충실도 정서 센서(522)이다. 대안의 실시예들에서, 장치(520)는 도 5에 도시되지 않은 추가의 고충실도 센서들을 포함할 수 있다. 이러한 실시예들의 일부 실시예들에서, 추가 센서들 중 적어도 하나의 센서는 사용자의 상황을 측정할 수 있는 고충실도 센서일 수 있으며, 사용자는 햅틱 효과를 경험한다. 이러한 실시예들에서, 적어도 하나의 추가 고충실도 센서는 고충실도 상황 센서일 수 있다. 본 실시예에 따라, 고충실도 상황 센서는 오직 선정된 해상도 또는 그보다 더 높은 해상도를 사용하는 상황만을 측정한다.
본 실시예에 따라, 장치(520)는 고충실도 햅틱 효과 생성기(521)를 사용해서 햅틱 효과를 생성하고, 장치(520)는, 고충실도 센서(522)를 사용해서, 사용자(510)의 정서 상태를 측정하며, 사용자(510)는 햅틱 효과를 경험한다. 사용자(510)의 측정된 정서 상태에 기초하여, 장치(520)는 자동 햅틱 효과 조정 모듈(523)을 사용해서 하나 이상의 햅틱 파라미터들을 조정한다. 장치(520)는 고충실도 햅틱 효과 생성기(521)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성한다.
일 실시예에서, 장치(520)는, 고충실도 센서(522)를 사용해서, 사용자(510)의 새로운 정서 상태를 더 측정할 수 있으며, 사용자(510)는 새로운 햅틱 효과를 경험한다. 사용자(510)의 새로운 측정된 정서 상태에 기초하여, 장치(520)는 자동 햅틱 효과 조정 모듈(523)을 사용해서 하나 이상의 햅틱 파라미터들을 더 조정할 수 있고, 고충실도 햅틱 효과 생성기(521)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성할 수 있다. 이러한 실시예에서, 장치(520)는, 새로운 햅틱 효과가 선정된 정서 상태에 유사한 사용자(510)의 새로운 정서 상태를 산출할 때까지, 계속해서 상술된 기능을 실행할 수 있다.
따라서, 일례에서, 햅틱 효과들은 전개된 장치들을 포함하는 환경이 아닌 실험적인 환경에서 자동으로 조정될 수 있다. 본 일례에서, 사용자는 고충실도 햅틱 생성기들을 사용해서 하나 이상의 햅틱 효과들의 집합을 생성하고, 뇌 영상 장치들 등의, 하나 이상의 고충실도 센서들로 정서 상태를 측정하는 장치를 사용할 수 있다. 하나 이상의 햅틱 효과들의 집합은 반복해서 시도될 수 있으며, 각각의 반복은 측정된 정서 상태들에 의해 지시된다. 이는 마케팅 시나리오에서 특히 귀중할 수 있다. 예를 들어, 온라인 광고의 햅틱 효과들의 결과로서 산출된 정서 상태는 선정된 정서 상태를 산출하도록 조정될 수 있다.
도 6은 본 발명의 다른 실시예에 따른, 햅틱 효과의 실시간 연속 조정을 포함하는 개별 전개 환경의 블록도를 도시한다. 도 6은 도 4의 사용자(410)와 동일한 사용자(610)를 포함하며, 여기서는 더 기술되지 않는다. 도 6은 햅틱 효과 생성기(621), 센서(622), 및 자동 햅틱 효과 조정 모듈(623)을 포함하는, 장치(620)를 더 포함한다. 햅틱 효과 생성기(621)는 도 4의 햅틱 효과 생성기(421)와 동일하고, 센서(622)는 도 4의 센서(422)와 동일하며, 자동 햅틱 효과 조정 모듈(623)은 자동 햅틱 효과 조정 모듈(423)과 동일하다. 따라서, 햅틱 효과 생성기(621), 센서(622), 및 햅틱 효과 조정 모듈(623)은 여기서는 또한 더 기술되지 않는다.
본 실시예에 따라, 장치(620)는 햅틱 효과 생성기(621)를 사용해서 햅틱 효과를 생성하고, 장치(620)는, 센서(622)를 사용해서, 사용자(610)의 정서 상태를 측정하며, 사용자(610)는 햅틱 효과를 경험한다. 사용자(610)의 측정된 정서 상태에 기초하여, 장치(620)는 자동 햅틱 효과 조정 모듈(623)을 사용해서 하나 이상의 햅틱 파라미터들을 조정한다. 장치(620)는 햅틱 효과 생성기(621)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성한다. 본 실시예에서, 장치(620)는 실시간으로 상술된 기능을 실행한다. 당업자가 아는 바와 같이, "실시간(real-time)"은 즉시 또는 거의 즉시(예를 들어, 5 밀리초 내에) 발생함을 의미한다.
일 실시예에서, 장치(620)는, 센서(622)를 사용해서, 사용자(610)의 새로운 정서 상태를 더 측정할 수 있으며, 사용자(610)는 새로운 햅틱 효과를 경험한다. 사용자(610)의 새로운 측정된 정서 상태에 기초하여, 장치(620)는 자동 햅틱 효과 조정 모듈(623)을 사용해서 하나 이상의 햅틱 파라미터들을 더 조정할 수 있고, 햅틱 효과 생성기(621)를 사용해서 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 더 생성할 수 있다. 본 실시예에서, 장치(620)는, 새로운 햅틱 효과가 선정된 정서 상태에 유사한 사용자(610)의 새로운 정서 상태를 산출할 때까지, 계속해서, 또한, 실시간으로, 상술된 기능을 실행할 수 있다.
따라서, 일례에서, 햅틱 효과들은, 하나 이상의 센서들에 의해 측정된 대로, 희망 정서 상태 또는 정서 상태의 희망 변경이 산출될 때까지, 계속해서, 실시간으로, 조정될 수 있다. 예를 들어, 통지 햅틱 효과는, 사용자가 햅틱 효과를 의식했음을 하나 이상의 정서 센서들이 나타낼 때까지 점차로 강도를 증가할 수 있다. 유사하게, 연속 햅틱 효과의 강도는, 사용자의 측정된 정서 상태에 기초하여, 햅틱 효과가 더 이상 사용자에게 불쾌하지 않다고 결정될 때까지 감소될 수 있다.
도 7은 본 발명의 일 실시예에 따른, 자동 햅틱 효과 조정 모듈(예를 들어, 도 1의 자동 햅틱 효과 조정 모듈(16))의 기능의 흐름도를 도시한다. 일 실시예에서, 도 7의 기능은 메모리 또는 다른 컴퓨터 판독 가능 또는 유형 매체에 저장된 소프트웨어에 의해 구현되고, 프로세서에 의해 실행된다. 다른 실시예들에서, 기능은 하드웨어(예를 들어, 주문형 반도체("ASIC"), 프로그래밍 가능 게이트 어레이("PGA"), 필드 프로그래밍 가능 게이트 어레이("FPGA") 등을 사용해서), 또는 하드웨어 및 소프트웨어의 임의의 조합에 의해 실행될 수 있다. 게다가, 대안의 실시예들에서, 기능은 아날로그 컴포넌트들을 사용하는 하드웨어에 의해 실행될 수 있다.
흐름은 개시되어 710으로 진행한다. 710에서, 하나 이상의 햅틱 파라미터들에 기초한 햅틱 효과가 생성된다. 특정 실시예들에서, 하나 이상의 햅틱 파라미터들은 진폭 햅틱 파라미터, 주파수 햅틱 파라미터, 지속 기간 햅틱 파라미터, 엔벨로프 햅틱 파라미터, 밀도 햅틱 파라미터, 크기 햅틱 파라미터, 강도 햅틱 파라미터, 및 액추에이터 햅틱 파라미터 중 적어도 하나를 포함한다. 특정 실시예들에서, 햅틱 효과는 다음과 같이 생성된다. 햅틱 신호는 하나 이상의 햅틱 파라미터들에 기초하여 생성된다. 그 다음, 햅틱 신호는 햅틱 효과를 생성하기 위해 액추에이터에 송신된다. 흐름은 720으로 진행한다.
720에서, 햅틱 효과를 경험하는 사용자의 정서 상태가 측정된다. 특정 실시예들에서, 사용자의 정서 상태는 매력값 및 각성값을 포함할 수 있다. 매력값은 햅틱 효과와 연관된 포지티브 매력 또는 네가티브 매력을 나타낼 수 있다. 각성값은 햅틱 효과의 인식 상태를 나타낼 수 있다. 특정 실시예들에서, 정서 상태는 다음과 같이 측정된다. 정서 데이터를 검출하도록 구성된 정서 센서에 의해 산출된 입력이 측정된다. 정서 데이터는 사용자의 하나 이상의 특성들을 포함할 수 있다. 입력은 그 후 사용자의 정서 상태를 결정하기 위해 분석된다. 흐름은 730으로 진행한다.
730에서, 햅틱 효과를 경험하는 사용자의 상황이 측정된다. 특정 실시예들에서, 사용자의 상황은 사용자가 햅틱 효과를 경험하는 때에 사용자가 실행하는 동작(예를 들어, 장치와의 상호 작용)을 나타낼 수 있다. 특정 실시예들에서, 상황은 다음과 같이 측정된다. 상황 데이터를 검출하도록 구성된 상황 센서에 의해 산출된 입력이 측정될 수 있다. 상황 데이터는 장치의 하나 이상의 물리적 속성들, 장치의 기능을 식별하는 데이터, 장치와의 상호 작용을 식별하는 데이터, 또는 장치와의 상호 작용에 의해 생성된 압력, 가속, 사운드, 또는 데이터 등의 장치와의 상호 작용과 연관된 하나 이상의 특성들을 포함할 수 있다. 입력은 그 후 사용자의 상황을 결정하기 위해 분석된다. 특정 실시예들에서, 730은 생략될 수 있다. 흐름은 740으로 진행한다.
740에서, 하나 이상의 햅틱 파라미터들 중 적어도 하나의 햅틱 파라미터가 사용자의 측정된 정서 상태에 기초하여 조정된다. 특정 실시예들에서, 적어도 하나의 햅틱 파라미터는 다음과 같이 조정된다. 측정된 정서 상태 및 선정된 정서 상태 간의 차이가 식별된다. 적어도 하나의 햅틱 파라미터의 적어도 하나의 값은 그 후 식별된 차이를 감소시키기 위해 조정된다. 사용자의 상황이 또한 측정되는 특정 실시예들에서, 적어도 하나의 햅틱 파라미터는 사용자의 측정된 상황에 또한 기초하여 조정될 수 있다. 흐름은 750으로 진행한다.
750에서, 새로운 햅틱 효과가 하나 이상의 햅틱 파라미터들에 기초하여 생성되고, 적어도 하나의 조정된 햅틱 파라미터는 새로운 햅틱 효과가 햅틱 효과와 상이하게 야기한다. 새로운 햅틱 효과는 사용자의 새로운 정서 상태를 산출할 수 있으며, 새로운 정서 상태는 선정된 정서 상태에 더 유사하다. 특정 실시예들에서, 새로운 햅틱 효과는 다음과 같이 생성된다. 새로운 햅틱 신호는 적어도 하나의 조정된 햅틱 파라미터를 포함하는 하나 이상의 햅틱 파라미터들에 기초하여 생성된다. 새로운 햅틱 신호는 그 후 새로운 햅틱 효과를 생성하기 위해 액추에이터에 송신된다. 그 후, 흐름은 종료한다.
특정 실시예들에서, 710에서의 햅틱 효과의 생성, 720에서의 정서 상태의 측정, 730에서의 상황의 측정, 및 750에서의 새로운 햅틱 효과의 생성은 장치에서 각각 실행된다. 이러한 실시예들에서, 740에서의 적어도 하나의 햅틱 파라미터의 조정은 서버에서 실행된다. 또한, 이러한 실시예들에서, 장치는 측정된 정서 상태 및 측정된 상황을 서버에 송신하고, 서버는 하나 이상의 햅틱 파라미터들을 장치에 송신한다. 이러한 실시예들의 일부 실시예들에서, 서버는 복수의 장치들에 대한 햅틱 효과를 자동으로 조정한다.
대안의 실시예들에서, 710에서의 햅틱 효과의 생성, 720에서의 정서 상태의 측정, 730에서의 상황의 측정, 740에서의 적어도 하나의 햅틱 파라미터의 조정, 및 750에서의 새로운 햅틱 효과의 생성은 장치에서 각각 실행된다. 이러한 실시예들의 일부 실시예들에서, 710에서의 햅틱 효과의 생성, 720에서의 정서 상태의 측정, 730에서의 상황의 측정, 740에서의 적어도 하나의 햅틱 파라미터의 조정, 및 750에서의 새로운 햅틱 효과의 생성은, 새로운 햅틱 효과가 선정된 정서 상태에 유사한 사용자의 새로운 정서 상태를 산출할 때까지, 계속해서 실행된다. 또한, 이러한 실시예들의 일부 실시예들에서, 710에서의 햅틱 효과의 생성, 720에서의 정서 상태의 측정, 730에서의 상황의 측정, 740에서의 적어도 하나의 햅틱 파라미터의 조정, 및 750에서의 새로운 햅틱 효과의 생성은 실시간으로 실행된다. 또한, 이러한 실시예들의 일부 실시예들에서, 710에서의 햅틱 효과의 생성은 고충실도 액추에이터에 의해 실행된다. 마지막으로, 이러한 실시예들의 일부 실시예들에서, 720에서의 정서 상태의 측정은 고충실도 정서 센서에 의해 실행된다.
따라서, 일 실시예에 따라, 햅틱 효과를 생성하고, 햅틱 효과를 경험하는 사용자의 정서 상태를 측정하며, 정서 상태에 기초하여 햅틱 효과를 자동으로 조정할 수 있는 시스템이 제공된다. 시스템은 햅틱 효과를 경험하는 사용자의 상황을 선택적으로 측정하고, 상황에 기초하여 햅틱 효과를 자동으로 더 조정할 수 있다. 햅틱 효과의 생성 및 햅틱 효과를 경험하는 사용자의 정서 상태의 측정(및/또는 햅틱 효과를 경험하는 사용자의 상황의 선택적인 측정) 간의 루프를 폐쇄함으로써, 시스템은 햅틱 효과들을 조정하는데 필요한 시간을 감소시킬 수 있으며, 햅틱 효과들을 조정하는데 사용될 수 있는 데이터의 양을 증가시킬 수 있다. 그 후, 시스템은 사용자의 정서 상태를 측정하기 위한 조건들을 테스트하는 현실성(realism) 및 다양성(variety)을 더 증가시킬 수 있으며, 시간이 흐름에 따라, 햅틱 효과들의 개인화, 및 햅틱 효과들의 조정들을 허용할 수 있다.
본 명세서를 통해 기술된 본 발명의 특징들, 구조들, 또는 특성들은 하나 이상의 실시예들에서 임의의 적합한 방식으로 조합될 수 있다. 예를 들어, 본 명세서에 걸친 "one embodiment(일 실시예)", "some embodiments(일부 실시예들)", "a certain embodiment(특정 실시예)", "certain embodiments(특정 실시예들)", 또는다른 유사한 언어의 사용은, 실시예와 관련해서 기술된 특정 특징, 구조, 또는 특성이 본 발명의 적어도 하나의 실시예에 포함될 수 있다는 사실과 관련된다. 따라서, 구절들 "one embodiment(일 실시예)", "some embodiments(일부 실시예들)", "a certain embodiment(특정 실시예)", "certain embodiments(특정 실시예들)", 또는 다른 유사한 언어의 출현은, 본 명세서에 걸쳐, 반드시 모두 동일한 그룹의 실시예들과 관련된 것은 아니며, 기술된 특징들, 구조들, 또는 특성들은 하나 이상의 실시예들에서 임의의 적합한 방식으로 조합될 수 있다.
상술된 본 발명이 기술된 바와 상이한 순서의 단계들로, 및/또는 기술된 바와 상이한 구성들의 요소들로 실행될 수 있음을 당업자는 쉽게 이해할 것이다. 따라서, 본 발명이 양호한 실시예들에 기초하여 기술되었더라도, 특정 변경들, 변형들, 및 대안의 구성들이 본 발명의 원리 및 범위 내에서 유지되면서 명백함을 당업자는 알 것이다. 따라서, 본 발명의 경계 및 한계를 결정하기 위해, 첨부된 청구항들에 참조되어야만 한다.

Claims (15)

  1. 햅틱 효과를 자동으로 조정하기 위한 컴퓨터 구현 방법으로서,
    하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성하는 단계;
    상기 햅틱 효과를 경험하는 사용자의 정서 상태(affective state)를 측정하는 단계;
    상기 사용자의 측정된 정서 상태에 기초하여 상기 하나 이상의 햅틱 파라미터들의 적어도 하나의 햅틱 파라미터를 조정하는 단계; 및
    상기 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하는 단계를 포함하고,
    상기 적어도 하나의 조정된 햅틱 파라미터는 상기 새로운 햅틱 효과가 상기 햅틱 효과와 상이하게 하는, 컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 햅틱 효과를 경험하는 사용자의 상황(context)을 측정하는 단계를 더 포함하고;
    상기 적어도 하나의 햅틱 파라미터를 조정하는 단계는 또한 상기 사용자의 측정된 상황에 기초하는, 컴퓨터 구현 방법.
  3. 제1항에 있어서,
    상기 정서 상태를 측정하는 단계는
    정서 데이터를 검출하도록 구성된 정서 센서에 의해 산출된 입력을 측정하는 단계 - 상기 정서 데이터는 상기 사용자의 하나 이상의 특성들을 포함함 - ; 및
    상기 입력을 분석하여 상기 사용자의 정서 상태를 결정하는 단계를 더 포함하고;
    상기 정서 상태는 매력(valence)값 및 각성(arousal)값을 포함하는, 컴퓨터 구현 방법.
  4. 제1항에 있어서,
    상기 적어도 하나의 햅틱 파라미터를 조정하는 단계는
    상기 측정된 정서 상태와 선정된 정서 상태 간의 차이를 식별하는 단계; 및
    식별된 상기 차이를 감소시키기 위해 상기 적어도 하나의 햅틱 파라미터의 적어도 하나의 값을 조정하는 단계를 더 포함하고;
    상기 새로운 햅틱 효과는 상기 사용자의 새로운 정서 상태를 산출하며;
    상기 새로운 정서 상태는 상기 선정된 정서 상태에 더 유사한, 컴퓨터 구현 방법.
  5. 제1항에 있어서,
    상기 하나 이상의 햅틱 파라미터들은 진폭 햅틱 파라미터, 주파수 햅틱 파라미터, 지속 기간 햅틱 파라미터, 엔벨로프 햅틱 파라미터, 밀도 햅틱 파라미터, 크기 햅틱 파라미터, 강도 햅틱 파라미터, 및 액추에이터 햅틱 파라미터 중 적어도 하나를 포함하는, 컴퓨터 구현 방법.
  6. 제1항에 있어서,
    상기 적어도 하나의 햅틱 파라미터를 조정하는 단계는 서버에서 실행되고;
    상기 햅틱 효과를 생성하는 단계, 상기 정서 상태를 측정하는 단계, 및 상기 새로운 햅틱 효과를 생성하는 단계는 장치에서 실행되며;
    상기 장치는 상기 측정된 정서 상태를 상기 서버에 송신하고;
    상기 서버는 상기 하나 이상의 햅틱 파라미터들을 상기 장치에 송신하며;
    상기 서버는 복수의 장치들에 대한 햅틱 효과를 자동으로 조정하는, 컴퓨터 구현 방법.
  7. 제1항에 있어서,
    상기 햅틱 효과를 생성하는 단계, 상기 정서 상태를 측정하는 단계, 상기 적어도 하나의 햅틱 파라미터를 조정하는 단계, 및 상기 새로운 햅틱 효과를 생성하는 단계는 장치에서 실행되는, 컴퓨터 구현 방법.
  8. 제7항에 있어서,
    상기 정서 상태를 측정하는 단계, 상기 적어도 하나의 햅틱 파라미터를 조정하는 단계, 및 상기 새로운 햅틱 효과를 생성하는 단계는, 상기 새로운 햅틱 효과가 선정된 정서 상태에 유사한 상기 사용자의 새로운 정서 상태를 산출할 때까지, 계속해서 실행되고;
    상기 정서 상태를 측정하는 단계, 상기 적어도 하나의 햅틱 파라미터를 조정하는 단계, 및 상기 새로운 햅틱 효과를 생성하는 단계는 실시간으로 실행되는, 컴퓨터 구현 방법.
  9. 제7항에 있어서,
    상기 정서 상태를 측정하는 단계는 상기 사용자의 하나 이상의 특성들을 검출하는 고충실도 정서 센서에 의해 산출된 입력을 측정하는 단계를 더 포함하고;
    상기 햅틱 효과를 생성하는 단계는 고충실도 액추에이터에 생성된 햅틱 신호를 송신하여 상기 햅틱 효과를 생성하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  10. 제1항에 있어서,
    상기 햅틱 효과를 생성하는 단계는
    상기 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 신호를 생성하는 단계; 및
    액추에이터에 상기 햅틱 신호를 송신하여 상기 햅틱 효과를 생성하는 단계를 더 포함하고;
    상기 새로운 햅틱 효과를 생성하는 단계는
    상기 적어도 하나의 조정된 햅틱 파라미터들을 포함하는 상기 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 신호를 생성하는 단계; 및
    상기 액추에이터에 상기 새로운 햅틱 신호를 송신하여 상기 새로운 햅틱 효과를 생성하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  11. 햅틱 효과를 자동으로 조정하기 위한 시스템으로서,
    자동 햅틱 효과 조정 모듈을 저장하도록 구성된 메모리; 및
    상기 메모리에 저장된 상기 자동 햅틱 효과 조정 모듈을 실행하도록 구성된 프로세서를 포함하고;
    상기 자동 햅틱 효과 조정 모듈은 하나 이상의 햅틱 파라미터들에 기초하여 햅틱 효과를 생성하도록 구성되며;
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 햅틱 효과를 경험하는 사용자의 정서 상태를 측정하도록 구성되고;
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 사용자의 측정된 정서 상태에 기초하여 상기 하나 이상의 햅틱 파라미터들의 적어도 하나의 햅틱 파라미터를 조정하도록 구성되며;
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 하나 이상의 햅틱 파라미터들에 기초하여 새로운 햅틱 효과를 생성하도록 구성되고;
    상기 적어도 하나의 조정된 햅틱 파라미터는 또한 상기 새로운 햅틱 효과가 상기 햅틱 효과와 상이하게 하는, 시스템.
  12. 제11항에 있어서,
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 햅틱 효과를 경험하는 사용자의 상황을 측정하도록 구성되고;
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 사용자의 측정된 상황에 기초하여 상기 적어도 하나의 햅틱 파라미터를 조정하도록 구성된, 시스템.
  13. 제11항에 있어서,
    상기 자동 햅틱 효과 조정 모듈은 또한 정서 데이터를 검출하도록 구성된 정서 센서에 의해 산출된 입력을 측정하도록 구성되고 - 상기 정서 데이터는 상기 사용자의 하나 이상의 특성들을 포함함 - ;
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 입력을 분석하여 상기 사용자의 정서 상태를 결정하도록 구성된, 시스템.
  14. 제11항에 있어서,
    상기 자동 햅틱 효과 조정 모듈은 또한 상기 측정된 정서 상태와 선정된 정서 상태 간의 차이를 식별하도록 구성되고;
    상기 자동 햅틱 효과 조정 모듈은 또한 식별된 상기 차이에 기초하여 상기 적어도 하나의 햅틱 파라미터의 값을 조정하도록 구성된, 시스템.
  15. 프로세서에 의해 실행될 때, 상기 프로세서가 제1항 내지 제10항 중 한 항에 따른 방법을 구현하게 하는 명령어가 저장되어 있는, 컴퓨터 판독 가능 매체.
KR1020140026435A 2013-03-11 2014-03-06 자동 햅틱 효과 조정 시스템 KR20140111959A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/792,754 US9202352B2 (en) 2013-03-11 2013-03-11 Automatic haptic effect adjustment system
US13/792,754 2013-03-11

Publications (1)

Publication Number Publication Date
KR20140111959A true KR20140111959A (ko) 2014-09-22

Family

ID=50230903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140026435A KR20140111959A (ko) 2013-03-11 2014-03-06 자동 햅틱 효과 조정 시스템

Country Status (5)

Country Link
US (3) US9202352B2 (ko)
EP (2) EP2778843B1 (ko)
JP (3) JP6328954B2 (ko)
KR (1) KR20140111959A (ko)
CN (2) CN108388349A (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9274603B2 (en) 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
KR102254705B1 (ko) 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9691238B2 (en) * 2015-07-29 2017-06-27 Immersion Corporation Crowd-based haptics
US9990040B2 (en) 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
US10200332B2 (en) * 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
IL262065B2 (en) 2016-04-01 2023-12-01 Univ Pittsburgh Commonwealth Sys Higher Education Regulatory device and related method
US9886829B2 (en) 2016-06-20 2018-02-06 Immersion Corporation Systems and methods for closed-loop control for haptic feedback
US9756604B1 (en) * 2016-07-21 2017-09-05 Immersion Corporation Haptic functionality for network connected devices
US10234945B2 (en) 2016-09-09 2019-03-19 Immersion Corporation Compensated haptic rendering for flexible electronic devices
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
US10696249B2 (en) * 2017-02-10 2020-06-30 Koninklijke Philips N.V. Automatic car setting adjustments by identifying driver with health watch wearable or in-car sensors
WO2019023726A1 (de) * 2017-07-31 2019-02-07 Keba Ag Industriebedienpanel
WO2019072389A1 (en) * 2017-10-12 2019-04-18 Telefonaktiebolaget Lm Ericsson (Publ) EXTENDING A HAPTICAL SIGNAL
WO2019144542A1 (en) * 2018-01-26 2019-08-01 Institute Of Software Chinese Academy Of Sciences Affective interaction systems, devices, and methods based on affective computing user interface
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
WO2020008862A1 (ja) * 2018-07-02 2020-01-09 ソニー株式会社 情報処理装置、情報処理方法及び情報処理装置可読記録媒体
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
KR20210113266A (ko) 2019-01-04 2021-09-15 아폴로 뉴로사이언스 인코포레이티드 경피 진동을 위한 파 생성 시스템들 및 방법들
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
GB2584167B (en) * 2019-05-24 2023-06-28 Sensae Aps User interface, user interface system and method
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
CN114008569A (zh) 2019-06-21 2022-02-01 思睿逻辑国际半导体有限公司 用于在装置上配置多个虚拟按钮的方法和设备
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
JPWO2022196051A1 (ko) * 2021-03-18 2022-09-22
TW202248394A (zh) 2021-05-31 2022-12-16 日商陶氏東麗股份有限公司 顯示裝置、尤其是觸覺顯示裝置及其設計方法
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
CN114035686B (zh) * 2021-11-10 2024-04-16 浙江大学 融合触觉的多模态微动效广告情境构建方法

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
US20030176806A1 (en) * 2002-02-26 2003-09-18 Pineda Jaime A. Method and system for an intelligent supervisory control system
JP4111278B2 (ja) * 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US20070063849A1 (en) * 2005-09-02 2007-03-22 Francesca Rosella Wearable haptic telecommunication device and system
CA2622365A1 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology A/S System and method for determining human emotion by analyzing eye properties
CN101341458A (zh) * 2005-12-22 2009-01-07 皇家飞利浦电子股份有限公司 情侣枕头
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
CN101707944B (zh) * 2007-03-19 2013-09-04 马奎特紧急护理公司 用于呼吸设备中的患者关键的运行参数的手动输入和触觉输出的方法和装置
US8392253B2 (en) * 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US9754078B2 (en) * 2007-06-21 2017-09-05 Immersion Corporation Haptic health feedback monitoring
US8683378B2 (en) * 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US9418368B2 (en) * 2007-12-20 2016-08-16 Invention Science Fund I, Llc Methods and systems for determining interest in a cohort-linked avatar
US8123660B2 (en) * 2007-12-28 2012-02-28 Immersion Corporation Method and apparatus for providing communications with haptic cues
GB2468811B (en) 2008-01-17 2012-12-19 Articulate Technologies Inc Methods and devices for intraoral tactile feedback
EP2313820B1 (en) * 2008-07-15 2017-04-05 Immersion Corporation Systems and methods for physics-based tactile messaging
KR101604602B1 (ko) * 2008-10-20 2016-03-18 코닌클리케 필립스 엔.브이. 렌더링 환경에서 사용자에게 미치는 영향의 제어
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
JP5011266B2 (ja) 2008-11-19 2012-08-29 パナソニック株式会社 快適性評価モデル作成装置、快適性評価装置および快適環境提供装置
US9727139B2 (en) * 2008-12-12 2017-08-08 Immersion Corporation Method and apparatus for providing a haptic monitoring system using multiple sensors
US20100152620A1 (en) * 2008-12-12 2010-06-17 Immersion Corporation Method and Apparatus for Providing A Haptic Monitoring System Using Multiple Sensors
US20120123232A1 (en) * 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
US20100167820A1 (en) * 2008-12-29 2010-07-01 Houssam Barakat Human interface device
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US9511289B2 (en) * 2009-07-10 2016-12-06 Valve Corporation Player biofeedback for dynamically controlling a video game state
US8655437B2 (en) * 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
KR101800042B1 (ko) * 2010-03-16 2017-11-21 임머숀 코퍼레이션 햅틱 정보 미리보기를 위한 시스템들 및 방법들
US9251721B2 (en) 2010-04-09 2016-02-02 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
WO2011153318A2 (en) * 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US9335181B2 (en) * 2010-11-10 2016-05-10 Qualcomm Incorporated Haptic based personal navigation
AU2011329025A1 (en) * 2010-11-17 2013-05-23 Affectiva, Inc. Sharing affect across a social network
KR101154306B1 (ko) * 2010-11-22 2012-06-13 기아자동차주식회사 로터리 스위치의 선택 메뉴별 햅틱 필링 차별화 방법
US8573980B2 (en) * 2011-04-04 2013-11-05 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
US8382484B2 (en) * 2011-04-04 2013-02-26 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
JP5828111B2 (ja) * 2011-07-28 2015-12-02 パナソニックIpマネジメント株式会社 心理状態評価装置、心理状態評価システムおよびプログラム
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US9762719B2 (en) * 2011-09-09 2017-09-12 Qualcomm Incorporated Systems and methods to enhance electronic communications with emotional context
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
US9015084B2 (en) * 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
US8896524B2 (en) 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
KR101680502B1 (ko) * 2012-09-25 2016-11-28 노키아 테크놀로지스 오와이 촉각적 피드백을 갖는 방법 및 디스플레이 디바이스
US9007198B2 (en) * 2012-11-02 2015-04-14 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive Actuator interface for active driver warning
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US20130123570A1 (en) * 2012-12-18 2013-05-16 Design Poetry Llc Haptic Communicator and Sensor Device
US10504339B2 (en) * 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US9550105B2 (en) * 2013-03-07 2017-01-24 Immersion Corporation Pacing system with feedback based adjustments
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9811854B2 (en) 2013-07-02 2017-11-07 John A. Lucido 3-D immersion technology in a virtual store
WO2015002850A1 (en) 2013-07-05 2015-01-08 Rubin Jacob A Whole-body human-computer interface
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US10251552B2 (en) * 2014-03-21 2019-04-09 University Of Massachusetts Medical School Methods and systems for reducing irritability in infants
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
EP3648072A1 (en) 2014-07-28 2020-05-06 CK Materials Lab Co., Ltd. A method for providing haptic information
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9173806B1 (en) * 2014-09-11 2015-11-03 Vibease Pte. Ltd. Systems and methods for a stimulation device
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9990040B2 (en) * 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
US9851799B2 (en) 2015-09-25 2017-12-26 Oculus Vr, Llc Haptic surface with damping apparatus
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
US20170352185A1 (en) 2016-06-02 2017-12-07 Dennis Rommel BONILLA ACEVEDO System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Also Published As

Publication number Publication date
EP3614237A1 (en) 2020-02-26
JP2018116744A (ja) 2018-07-26
JP2019125400A (ja) 2019-07-25
EP2778843A2 (en) 2014-09-17
JP2014174988A (ja) 2014-09-22
CN104049733A (zh) 2014-09-17
US10228764B2 (en) 2019-03-12
EP2778843A3 (en) 2014-10-01
CN104049733B (zh) 2018-04-20
JP6526284B2 (ja) 2019-06-05
US20160139670A1 (en) 2016-05-19
EP2778843B1 (en) 2019-09-18
US20140253303A1 (en) 2014-09-11
CN108388349A (zh) 2018-08-10
US9202352B2 (en) 2015-12-01
US20190171292A1 (en) 2019-06-06
JP6328954B2 (ja) 2018-05-23

Similar Documents

Publication Publication Date Title
JP6526284B2 (ja) 自動ハプティック効果調整システム
US10416774B2 (en) Automatic remote sensing and haptic conversion system
CN106255942B (zh) 用于优化触觉反馈的***和方法
US10504339B2 (en) Mobile device with instinctive alerts
US10423232B2 (en) Automated haptic setting generation
CN108885485A (zh) 基于存在性检测的数字助理体验
EP2937863A2 (en) Automatic tuning of haptic effects
US20200211337A1 (en) Haptic signal conversion system
US20200237302A1 (en) Device, method and application for establishing a current load level
US20240012480A1 (en) Machine learning configurations modeled using contextual categorical labels for biosignals
KR20200075773A (ko) 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들
US20220230753A1 (en) Techniques for executing transient care plans via an input/output device
US20220108775A1 (en) Techniques for updating a health-related record of a user of an input/output device
US11929169B2 (en) Personalized sensory feedback
KR102676531B1 (ko) 웨어러블 디바이스 및 그 제어방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application