JP7504476B2 - モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム - Google Patents

モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム Download PDF

Info

Publication number
JP7504476B2
JP7504476B2 JP2021537524A JP2021537524A JP7504476B2 JP 7504476 B2 JP7504476 B2 JP 7504476B2 JP 2021537524 A JP2021537524 A JP 2021537524A JP 2021537524 A JP2021537524 A JP 2021537524A JP 7504476 B2 JP7504476 B2 JP 7504476B2
Authority
JP
Japan
Prior art keywords
user
mobile device
task
camera
cognitive state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537524A
Other languages
English (en)
Other versions
JP2022500801A (ja
Inventor
タルナナス、イオアニス
ビューグラー、マクシミリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Altoida,Inc.
Original Assignee
Altoida,Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Altoida,Inc. filed Critical Altoida,Inc.
Publication of JP2022500801A publication Critical patent/JP2022500801A/ja
Priority to JP2024039301A priority Critical patent/JP2024073551A/ja
Application granted granted Critical
Publication of JP7504476B2 publication Critical patent/JP7504476B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Neurology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Neurosurgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)

Description

本発明は、モバイル装置のユーザの認知状態を判定するための装置、方法、及びコンピュータプログラムに関する。
認知状態、特に脳疾患又は脳損傷に関する健康状態の検出は、検出するのが困難である。それぞれの脳の病気や脳の損傷の症状を知っている専門の医師が必要である。その場合でも、人間の医師によるそのような健康状態の検出は、あまり客観的ではなく、しばしば誤りが起こりやすい。
WO2018/081134は、認知プラットフォームのコンピュータ化されたタスクを用いて個人の応答から収集されたデータを使用して、認知能力の指標としてパフォーマンス測定基準を導き出し、予測モデルを適用して神経変性状態の指標を生成するための装置を開示している。装置は、スマートフォン、タブレット、スレート、電子リーダー(e-リーダー)、デジタルアシスタント、又は他の電子リーダーや、又は、ハンドヘルド、ポータブル、又はウェアラブルコンピュータ装置、又は、その他の同等のデバイスや、又は、ゲームコンソール、又はゲームのような要素をレンダリングするために使用できるその他のコンピューティングシステムや、ディスプレイが組み込まれたスマートグラス、ディスプレイが組み込まれたスマートゴーグル、又はディスプレイ内蔵のスマートヘルメットなどのヘッドマウントデバイスを含む、様々な異なるデバイスを採用することができる。いくつかの実装の例において、メインコンピュータとデスクトップディスプレイ(又はプロジェクターディスプレイ)を含むデスクトップコンピューティングシステムなどでは、システムは静止している場合があり、ユーザはキーボード、コンピュータのマウス、ジョイスティック、ハンドヘルドコンソール、リストバンド、又は有線又は無線通信を使用してメインコンピュータと通信するセンサーを備えたその他のウェアラブルデバイスを使用して、アプリプログラムに入力を提供する。
近年、位置センサを備えたモバイル装置で、ユーザが保持しているモバイル装置の経路に基づいて健康状態を検出できることが示めされた。これは、驚くほど良好に機能し、ユーザの認知状態を客観的に検出することができた。
本発明の目的は、認知状態を検出するためのモバイル装置をさらに改善することである。
この目的は、独立請求項による装置、方法、及びコンピュータプログラムによって解決される。
モバイル装置の経路と組み合わせて、モバイル装置の第2のカメラで記録されたユーザ特徴を用いることで、認知状態の検出の質を大幅に改善する。
本発明の一つの態様によれば、請求項1で特定されたように、モバイル装置のユーザの認知状態を判定するための装置が提供される。
本発明の他の態様によれば、請求項15で特定されたように、ユーザの認知状態を判定するための機械学習データを決定する方法が提供される。
一実施形態では、本発明の課題は、装置/システムのモバイル装置のユーザの認知状態を判定するための装置/システムによって解決される。この装置/システムは、モバイル装置内にあるユーザに情報を提供するための出力手段であって、ユーザに情報を視覚的に与えるための出力手段である視覚出力手段と、モバイル装置内にあるモバイル装置の周囲の第1の視野方向の画像を記録するためのカメラと、周囲のモバイル装置の位置経路を決定するように構成された経路手段と、出力手段を介してユーザと対話して、カメラによって取得されたモバイル装置の周囲に基づいて、視覚出力手段を介して表示された拡張現実環境を用いて、ユーザにタスクを解決させるタスク手段と、ユーザがタスクを解決する間に決定されたモバイル装置の位置経路に基づいてユーザの認知状態を判定するための認知状態手段と、を備える。
従属請求項は、本発明の更なる有利な実施形態を示す。
一実施形態では、少なくとも1つのユーザ特徴が少なくとも1つのユーザの顔特徴を含む。ユーザの顔の特徴は、第2のカメラによって取得された画像において検出されたユーザの特徴の中からが特に有効である。
一実施形態では更なるカメラが、ユーザがタスクを解決する間に連続した画像を撮るように構成され、ユーザ特徴手段は、連続した画像内のユーザの少なくとも1つの特徴を検出し、連続した画像内で検出された少なくとも1つの特徴の時系列を決定するように構成され、認知状態手段は、さらにユーザの少なくとも1つの特徴の時系列に基づいて、ユーザの認知状態を判定するように構成される。
一実施形態では、サンプリング・ウィンドウが時間の経過にそった複数のサンプリングステップを含み、経路手段はモバイル装置の各サンプリングステップにおける少なくとも1つの位置を記録するように構成され、更なるカメラは各サンプリングステップにおいて少なくとも1つの画像を記録するように構成され、ユーザ特徴手段は、各サンプリングステップごとに、サンプリングステップにおいて更なるカメラによって記録された少なくとも1つの画像におけるユーザの少なくとも1つの特徴を検出するように構成され、認知状態手段は、サンプリングステップ毎に、このサンプリングステップにおいて検出されたユーザの少なくとも1つの特徴に基づいて、各サンプリングステップごとにサンプリングポイントを含むサンプリング・ウィンドウ内の時系列と、このサンプリングステップにおいて決定されたモバイル装置の少なくとも1つの位置とに基づいて、ユーザの認知状態を判定するように構成される。
一実施形態では、サンプリング・ウィンドウが、モバイル装置が閾値よりも少なくとも1つの目標位置の近くにある時間ウィンドウに対応し、及び/又は少なくとも1つの目標位置が発見されたと見做される前のある期間又は経路長に対応する。好ましくは、サンプリング・ウィンドウが複数のサブウィンドウを含み、各サブウィンドウは(ただ1つの)定義された目標位置に対応し、各サブウィンドウは、モバイル装置が閾値よりも各サブウィンドウに対応する目標位置の近くに位置する時間ウィンドウに対応し、及び/又は、各サブウィンドウに対応する目標位置が発見されたと見做される前のある期間又は経路長に対応する。目標位置からの閾値距離は、好ましくは5メートル(m)未満、好ましくは4m未満、好ましくは3m未満である。目標位置からの距離の閾値は、好ましくは0.5メートル(m)より大きく、好ましくは1mより大きい。
一実施形態では、視覚出力手段は、モバイル装置の第1の側に配置されたディスプレイを備え、更なるカメラは、モバイル装置の第1の側に配置され、及び/又は、第2の視野方向がディスプレイの面の法線ベクトルと同じ方向に向いて配置される。
一実施形態では、カメラは、第1の側面に対向するモバイル装置の第2の側面上に配置され、及び/又は、第1の視野方向がディスプレイの面の法線ベクトルに対して反対の方向に向けて配置される。
一実施形態では、モバイル装置は、ポータブルハンドヘルド装置である。
一実施形態では、タスク手段が、拡張現実環境内の少なくとも1つの目標位置を定義し、少なくとも1つの目標位置の各々に対して以下のステップを実行するように構成される。拡張現実環境内の各目標位置を探すようにユーザを招待し、ユーザが、カメラによって取得された少なくとも1つの目標位置が所定の条件で視覚出力手段に表示された拡張現実環境内の位置にモバイル装置を移動させたときに、各目標位置が拡張現実環境で発見されたと見做される。
一実施形態では、タスク手段が、モバイル装置のユーザ入力に基づいて、拡張現実環境における少なくとも1つの目標位置を定義するように構成される。
一実施形態では、少なくとも1つの目標位置が少なくとも2つの目標位置を含み、タスク手段は、それぞれの目標位置が拡張現実環境において定義され及び/又は表示されるときに、出力手段によって少なくとも2つの目標位置の各々をユーザに出力される異なる特徴に関連付けるように構成され、出力手段で1つの目標位置に関連付けられた特徴を出力することによって、ユーザは拡張現実環境における少なくとも2つの目標位置のうちの1つを探すように招待されて、及び/又は、少なくとも2つの目標位置のうちの1つが発見されたと見做された後に、ユーザが少なくとも2つの目標位置のうちの次の1つを探すように続いて招待される。
一実施形態では、タスク手段は、タスクを解決している間、及び/又は少なくとも1つの目標位置のそれぞれを探している間に、ユーザの注意をそらすための複数の刺激を出力手段を介して与えるように構成される。
一実施形態では、タスク手段は、タスクを解決する前であって、及び/又は、探すために招待された各目標位置の探索を続行する前に、各刺激の後にサブタスクを解決するようにユーザに要求するように構成される。
一実施形態では、ユーザ入力手段を備え、タスク手段はユーザ入力手段を介して特定のユーザ入力を受け付けると、サブタスクが解決されたと見做されるように構成される。
一実施形態では、認知状態が少なくとも1つの脳疾患又は脳損傷に関する健康状態である。
本発明は、例示であって、図面によって示される実施形態の説明を用いることで、より良く理解されるであろう。
ユーザの認知状態を判定するための装置の一実施形態の概略図を示す。 ユーザの認知状態を判定するための方法の実施形態の概略図を示す 機械学習データを決定する装置の一実施形態の概略図を示す。
図1は、ユーザの認知状態を判定するための装置1の実施形態を示す。装置1は、モバイル装置2と、モバイル装置2内の第1のカメラ3と、モバイル装置2内の第2のカメラ4と、モバイル装置2内の出力手段5と、経路手段6と、タスク手段7と、ユーザ特徴手段8と、認知状態手段9とを備え、好ましくはユーザ入力手段10と、マイクロフォン13とを設ける。
モバイル装置2は、好ましくはスマートフォンのようなハンドヘルドポータブル装置である。しかしながら、モバイル装置2は、ユーザが携帯可能な他の任意の装置であってもよい。例えば、装置は着用可能な装置、例えば、スマートウォッチのような(スマート)ブレスレット、グーグルメガネ(登録商標)のような(スマート)メガネ、又はユーザによって着用可能な他の任意の装置であってもよい。モバイル装置2は、1つの単一の装置で実現されてもよく、又は少なくとも2つの別個の装置で実現されてもよい。少なくとも2つの個々の装置は、例えば、ポータブルハンドヘルド装置(例えば、スマートフォン)、ブレスレット(例えば、スマートウォッチのようなスマートブレスレット)、眼鏡(例えば、拡張現実(AR)眼鏡)、又はユーザによって装着可能な他の任意の装置のうちの少なくとも2つにしてもよい。モバイル装置2、特にハンドヘルドポータブル装置は、第1の側面と、第1の側面とは反対側の第2の側面とを備える。モバイル装置2が少なくとも2つの別個の装置を備える場合、同じ別個の装置上の第1の側面とその反対側の第2の側面とに配置される。しかしながら、第1の側面が第1の別個の装置上にあり、第2の側面が第2の別個の装置上にあるようにしてもよい。
装置1は、モバイル装置2から離れたところで計算処理を実現するために、別の装置11を設けることができる。別の装置11はデータ及び/又は結果をやりとりするために、モバイル装置2に接続するようにしてもよい。モバイル装置2と別の装置11との間の接続はインターネットを介することが好ましいが、無線LAN、携帯電話ネットワーク、他の無線通信プロトコル及び/又は他の通信技術を介してもよい。別の装置11は、例えば、サーバであり、インターネット接続サーバが好ましく、及び/又はモバイル装置2からリモート接続が好ましい。しかしながら、別の装置11は、モバイル装置2の環境に配置され、及び/又は、例えば、無線LAN及び/又はLAN及び/又は他の無線通信プロトコルを介して接続されることも可能である。しかしながら、全ての計算処理がモバイル装置2において行われる場合は、別の装置11はオプションであって必ずしも必要ではない。この場合、装置1が、モバイル装置2に対応する。
出力手段5は、モバイル装置2のユーザに対して出力するように構成されている。
出力手段5は、好ましくはモバイル装置2のユーザに視覚情報を示すための視覚出力手段5を備える。視覚出力手段5は、ディスプレイが好ましい。視覚出力手段5.1、特にディスプレイは、好ましくはモバイル装置2、特にモバイル装置の第2の側面に配置される。しかしながら、プロジェクタ(例えば、眼鏡のアイプロジェクタ)のような他の視覚出力手段5.1も可能である。視覚出力手段5.1は、ユーザが視覚出力手段5.1からの情報を出力視野方向から見ることができるようにモバイル装置2内に配置され、すなわち、ユーザが視覚出力手段5.1の方向に向くと、ユーザは、視覚出力手段5.1からの情報を見ることができる。
一実施形態では、出力手段5が、ユーザに知らせるためのラウドスピーカのような音声出力手段5.2をさらに備える。
入力手段10は、ユーザ指示をモバイル装置2に入力するように構成されている。入力手段10は、好ましくはモバイル装置2内に配置される。好ましくは、入力手段10が視覚出力手段5.1上の位置を選択するための指示手段を含む。指示手段は、好ましくはモバイル装置2のディスプレイ上に配置されるタッチセンサである。つまり、ディスプレイとタッチセンサが、タッチスクリーンを構成する。しかしながら、指示手段は、マウス、トラックボール、ノブ、又は他の指示装置であってもよい。指示手段は、また、AR内の位置を示す手又は目の向き認識するものであってもよい。しかしながら、入力手段10はマイクロフォン(例えば、ボイスコマンド用)又は他の任意の入力装置を含むこともできる。なお、入力手段10のマイクロフォンは、後述するマイクロフォン13に相当する。入力手段10を設けることが好ましいが、必ずしも必要ではない。
第1のカメラ3及び/又は第2のカメラ4は、周囲、好ましくはユーザが目で視認できる周囲にある特徴がある画像を記録するために、任意の適切なセンサであってもよい。好ましくは、第1のカメラ3及び/又は第2のカメラ4がユーザから見える環境を写した画像を記録するための光学カメラである。しかしながら、第1のカメラ3及び/又は第2のカメラ4は、他の任意のカメラ、例えば、3Dカメラ、time-of-flight(ToF)カメラ、又は可視スペクトル以外の波長をカバーする光学カメラ(例えば、赤外線カメラ又は紫外線カメラ)などであってもよい。好ましくは、第1のカメラ3及び/又は第2のカメラ4は、デジタル画像センサ及び/又は(光学)レンズ(画像をデジタル画像センサ上に焦点を合わせるため)を備えたものである。
第1のカメラ3は、モバイル装置2内に配置され、モバイル装置2の環境(周囲)の第1の視野方向3.1の画像が記録されるように配置され、及び/又は、第1のカメラ3の画像をARの目的のために視覚出力手段5.1上に表示することができるように配置され、及び/又は、ユーザが視覚出力手段5.1の視覚情報を確認するために視覚出力手段5.1を見たときに、第1のカメラ3が現在記録している画像が視覚出力手段5.1上に表示されると、ユーザが視覚出力手段5.1の背後の環境の画像が視覚出力手段5.1上で見えるように配置される。このモバイル装置2の環境が第1のカメラ3によって取得され、視覚出力手段5.1によって(リアルタイムで)再生されると、これがAR環境として定義される。このAR環境は、他の情報によって拡張されてもよいが、拡張されなくてもよい。したがって、拡張された情報でデジタル化された環境に限定されるものではない。
タスク手段7は、モバイル装置2のユーザと対話して(モバイル装置2を介して)、ユーザはモバイル装置2の周囲でモバイル装置2を移動させるように構成される。好ましくは、タスク手段7はモバイル装置2のユーザと対話して(モバイル装置2を介して)、ユーザにモバイル装置2を持ってモバイル装置2の周囲を歩かせるように構成される。タスク手段7は、ユーザに、モバイル装置2を持ってモバイル装置2の周囲を移動させる(特に、歩行する)タスクを与えることによって、モバイル装置2のユーザと対話(モバイル装置2を介して)するように構成される。一実施形態では、タスク手段7がユーザにタスクを解決させるために、及び/又はユーザにモバイル装置2をその環境内で移動させる(特に一緒に歩行する)ために、モバイル装置2のAR環境を用いるように構成される。
一実施形態では、このタスクは、(AR)環境内の少なくとも1つの定義された目標位置を探索又は発見することである。好ましくは、タスクは、ユーザがAR環境において少なくとも1つの定義された目標位置を探すために、モバイル装置2を移動させる(特に、モバイル装置2と一緒に歩行する)必要がある。言い換えれば、ユーザは環境内のモバイル装置2を環境内の少なくとも1つの定義された目標位置に移動させ(特に、一緒に歩行する)、第1のカメラ3を少なくとも1つの定義された目標位置の方に向ける(その結果、定義された目標位置が視覚出力手段5.1上に現れる)必要がある。少なくとも1つの定義された目標位置のうちの1つが視覚出力手段5.1上に(おそらく少なくとも1つの条件で)現れ、及び/又はAR環境上に(おそらく少なくとも1つの条件で)現れると、1つの定義された目標位置が発見されたと見做される。少なくとも1つの条件は、例えば、モバイル装置2及び/又は第1のカメラ3が閾値よりも定義された目標位置に近いこと、及び/又は、定義された目標位置が第1のカメラ3の所定の角度の視野範囲において記録されること、及び/又は、定義された目標位置の現在記録されている画像が目標位置を定義したときに記録された画像に対応することである。定義された目標位置が発見されたかどうかをチェックするために、多くの他の条件を設定することが可能である。少なくとも1つの定義された目標位置が、第1の定義された目標位置と第2の定義された目標位置を含む場合には、タスク手段7は、ユーザに第1の定義された目標位置を探させるために、モバイル装置2のユーザと対話するように構成される。ユーザが第1の定義された目標位置を発見すると、タスク手段7は、ユーザに第2の定義された目標位置を探させるようにモバイル装置2のユーザと対話するように構成される。したがって、タスク手段7は、ユーザが続いて少なくとも2つの定義された目標位置の各々を探させるように、モバイル装置2のユーザと対話するように構成される。少なくとも1つ以上定義された目標位置のうちの全てが発見されると、タスクは解決されたと見做される。
好ましくは、ユーザが少なくとも1つの目標位置を記憶できるように、少なくとも1つの定義された目標位置の各々は、AR環境内でユーザに表示され、及び/又は、AR環境内でユーザよって定義される。ユーザが少なくとも1つの目標位置(の全て)を記憶した後、ユーザは少なくとも1つの定義された目標位置(の全て)を、次々と探すように招待されるのが好ましい。したがって、第1のフェーズでは、少なくとも1つの定義された目標位置(の全て)がユーザに表示されるか、又はユーザによって定義され、第2のフェーズでは第1のフェーズの後に、少なくとも1つの定義された目標位置の全てが上述のように発見される。
好ましくは、少なくとも1つの定義された目標位置の各々は、ユーザが少なくとも1つの目標位置を記憶することができるように、AR環境においてユーザに表示される。これは、同時に行っても、続いて行ってもよい。ユーザが、少なくとも1つの定義された目標位置の全てを見て、及び/又はそれらを記憶した後、ユーザは、少なくとも1つの定義された目標位置の全てを、好ましくは次々と探すように招待される。したがって、第1のフェーズでは少なくとも1つの定義された目標位置(の全て)がユーザに表示され、第1のフェーズの後に続く第2のフェーズでは、少なくとも1つの定義された目標位置の全てが上述のように発見される。好ましくは、ユーザが対応する定義された目標位置と視覚化オブジェクトとが関連付けることができるように、少なくとも1つの定義された目標位置の各々が、(第1のフェーズにおいて)AR環境で定義された目標位置とユーザに表示された視覚化オブジェクトとが対応付けられる。好ましくは、第2のフェーズにおいて、少なくとも1つの定義された目標位置のうちのこの1つに対応付けられた視覚化オブジェクトを、視覚出力手段5.1上に表示するか、あるいは、出力手段5を介して指示することによって、ユーザは少なくとも1つの定義された目標位置のうちの1つを探すように招待される。好ましくは、第2のフェーズでは、ユーザは対応する定義された目標位置を記憶し、ユーザのモバイル装置2でそれを捜す必要があるように、指示がなくとも、視覚化オブジェクトに対応する定義された目標位置が表示される。好ましくは、タスク手段7は、環境に依存しないように構成され、すなわち、ユーザは現在いる任意の環境においてタスクを実行することができる。タスクを実行するために特別な環境は必要ではない。
少なくとも1つの目標位置が、好ましくは第1フェーズにおいて、入力手段10を介してユーザによって定義されるのが好ましい。少なくとも1つの目標位置が、ユーザからの指示手段を介して、AR環境における目標位置の指示を受信することによって、ユーザによって定義されるのが好ましい。しかしながら、モバイル装置2は、少なくとも1つの目標位置を定義する他の任意の入力を、入力手段10を介して受信するようにしてもよい。例えば、目標位置は、入力手段10を介してユーザの入力を受信すると、視覚出力手段5.1に現在表示されているAR環境内に、タスク手段7によって(例えば、ランダムに)定義することができる。少なくとも1つの目標位置の各々がユーザによって定義されたときは、例えば、AR環境内の関連する視覚化装置に表示されることで、ユーザに示されるのが好ましい。
タスク手段7は、ユーザがタスクを解決している間に、特に、ユーザが少なくとも1つの定義された目標位置の各々を探している間に、ユーザにサブタスクを解決させるために、携帯電話2を介してユーザと対話するように構成するのが好ましい。タスク手段7は、ユーザがタスクを解決している間、特に、ユーザが少なくとも1つの定義された目標位置の各々を探している間に、平均で、少なくとも10秒、好ましくは少なくとも8秒毎、好ましくは少なくとも5秒毎、好ましくは少なくとも3秒毎、好ましくは少なくとも2秒毎にサブタスクを解決するように、ユーザを招待するように構成されることが好ましい。サブタスクへの招待は、定期的に又はランダムに行うことができる。サブタスクは、ユーザがタスクを解決することから注意をそらす必要がある。好ましくは、サブタスクは、モバイル装置2のタッチスクリーンを触りながら対話を行う。サブタスクの一例として、タスク手段7がサブタスクを解決するようにユーザを招待したときに、モバイル装置2のボタンをアクティブにすることであってもよい。好ましくは、ボタンは、視覚出力手段5.1に表示されるソフトボタンである。好ましくは、ユーザが入力手段10の指示手段で、視覚出力手段5.2上に表示されるソフトボタンを指すと、サブタスクが解決される。これは、ユーザが(AR)環境からボタンに焦点を移して、指示手段によってボタンをアクティブにしなければならないので、タスクからユーザの注意をそらすことになる。ボタンをアクティブにするサブタスクは、単なる一例である。また、ユーザは、入力手段10のマイクロフォンによって録音されたボイスコマンドを言うようにしてもよい。サブタスクを解決するための招待は例えば、音声出力手段5.2を介して出力される音声信号によるものであってもよい。しかしながら、(例えば、モバイル装置2の振動による)触覚信号のような他の招待も可能である。タスクがユーザを環境内でモバイル装置2を移動(特に一緒に歩行する)させ、一方、サブタスクが、ユーザをタスクから、つまりユーザが行っている移動から注意をそらすので、タスクとサブタスクとの組み合わせは特に有効である。この動きと注意をそらすようにすることとの組み合わせは、ユーザの認知状態を分析するために後で分析される。
タスク手段7は、好ましくはモバイル装置2内に配置される。しかしながら、タスク手段7’を完全に又は部分的にモバイル装置2の外に、例えば別の装置11に配置することもできる。
経路手段6は、タスクの少なくとも一部が解決される間に、モバイル装置2の経路、特にモバイル装置2がたどる経路を決定するように構成される。経路は、(位置サンプリング・ウィンドウ内の)連続した位置ポイントである。位置ポイントは、モバイル装置2の1次元、2次元、又は好ましくは3次元の位置、及び/又は1次元、2次元、又は好ましくは3次元の向きを含む。したがって、位置ポイントは、1次元から6次元の間の次元とすることができる。好ましくは、位置ポイントは少なくとも3次元の位置を含む。位置、すなわち、位置及び/又は向きは、絶対値、つまり予め決まった位置から測定することも、又は、相対値、つまり決まっていない位置(例えば、各時点でそれぞれ測定された最初の位置ポイント又は1つ前の位置ポイント)から測定することも可能である。相対位置は、また、加速度計又はジャイロスコープにおいて通常行われるように、最後に測定されたサンプリング/位置又は慣性の加速ポイント(並進又は回転に関する)に対する位置の偏向から得る。
経路手段6は、位置センサ6.1を備えることが好ましい。位置センサ6.1は、モバイル装置2の位置ポイントを測定するように構成される。位置センサ6.1は、好ましくは位置サンプリング・ウィンドウ内の連続した位置ポイントを測定するように構成される。位置サンプリング・ウィンドウは、タスクの少なくとも一部を解決するときの時間ウィンドウに対応する。位置サンプリング・ウィンドウ内で位置ポイントが記録された時点を、位置サンプリングポイントと呼ぶ。位置サンプリングポイントは、位置サンプリング周期を用いて測定する、及び/又は一定の位置サンプリングステップを用いて周期的に測定することができる。したがって、位置ポイントは、位置サンプリングポイントにおけるモバイル装置2の位置を与える。好ましくは、位置センサ6.1は、モバイル装置2の位置の変化を検出するための慣性測定ユニット(IMU)である。位置センサ6.1及び/又はIMUは、好ましくは加速度計(モバイル装置2の位置変化を測定するため)及び/又はジャイロスコープ(モバイル装置2の方向変化を測定するため)を含む。IMU測定値は、位置サンプルポイントに変換することも、又はIMUによって測定された増分加速ポイントとして直接用いることができる。好ましくは、位置センサ6.1及び/又はIMUが(地球の磁場に基づいて)モバイル装置2のアブソリュート・オリエンテーションを検出するための磁力計を備える。しかしながら、位置センサ6.1は、位置を検出するために他の手段を追加しても、又は他の手段を代わりに用いることもできる。例えば、三角測量センサなどである。三角測量センサは、衛星(例えば、GPS)又は携帯電話基地局から送られてくる様々な信号に基づいて、位置を測定することができる。さらに、第1のカメラ3によって、位置センサ6.1を実現することも可能である。好ましくは、位置ポイントを、IMUと第1のカメラ3との組み合わせによって決定する。位置センサ6.1は、モバイル装置2内に配置されるのが好ましい。しかし、位置センサ6.1′の全て又は一部を、モバイル装置2の外部に配置することも可能であり、例えば、モバイル装置2から送信される信号に基づいて位置を検出するセンサであってもよい。
経路手段6は、好ましくは経路装置を含む。経路手段6.2は、位置センサ6.1の測定値に基づいて経路を決定するように構成される。好ましくは、経路手段6.2がモバイル装置2内に配置される。経路手段6.2は、専用チップ(例えば、位置センサ6.1)及び/又は中央処理装置(CPU)及び/又はモバイル装置2内の他の任意の処理ユニットで実現することができる。しかしながら、経路手段6.2を全て又は一部がモバイル装置2の外部に、例えばサーバ11又は位置センサ6.1’と同じ装置に配置することもできる。
モバイル装置2は、第2のカメラ4及び/又はマイクロフォン13を備える。
第2のカメラ4は、第2視野方向4.1の画像が記録されるように第2視野方向4.1に向いている。第2の視野方向4.1及び/又は第2のカメラ4の向きは、第2の視野方向4.1又は第1の視野方向3.1の反対(好ましくは、平行)の方向であり、及び/又は、視覚出力手段の出力視野方向12と同じ方向になるようにする、及び/又は、第2のカメラ4によって記録された画像が、ユーザが視覚出力手段5.1を覗き込むと、ユーザがいる方向、特にユーザの顔がある方向に向くようになっている。すなわち、第2のカメラ4は、ユーザを視覚出力手段5.1から出力された映像を見ている位置にいるユーザを撮影する。第2のカメラ4は、ユーザがモバイル装置2によってタスク(の少なくとも一部)を解決している間に、ユーザを画像に記録するように構成される。第2のカメラ4は、画像サンプリング・ウィンドウ内の連続した画像を測定するように構成されるのが好ましい。画像サンプリング・ウィンドウは、タスク(の少なくとも一部)が解決されるときの時間ウィンドウに対応する。画像が画像サンプリング・ウィンドウに記録された時点を、画像サンプリングポイントと呼ぶ。画像サンプリングポイントは、画像サンプリング周期で測定する、及び/又は、2つの連続した画像サンプリングポイントの間の一定の画像サンプリングステップで周期的に測定することができる。つまり、画像は、画像サンプリングポイントにおけるモバイル装置2の画像を与える。
マイクロフォン13は、モバイル装置2の環境の音声信号を記録するように構成されている。ユーザがモバイル装置2でタスク(の少なくとも一部)を解決する間に、マイクロフォン13はユーザの音声信号を記録するように構成される。マイクロフォン13は、好ましくはオーディオ・サンプリング・ウィンドウ内の連続したオーディオポイントを測定するように構成される。オーディオ・サンプリング・ウィンドウは、タスク(の少なくとも一部)が解決されるときの時間ウィンドウに対応する。オーディオ・サンプリング・ウィンドウ内でオーディオポイントが記録された時点を、オーディオ・サンプリング・ポイントと呼ぶ。オーディオ・サンプリング・ポイントは、オーディオサンプリング周期で測定する、及び/又は、2つの連続したオーディオ・サンプリング・ポイント間の一定のオーディオサンプリングステップを用いて周期的に測定することができる。つまり、オーディオポイントは、オーディオ・サンプリング・ポイントにおけるモバイル装置2の周囲の音を表す。
位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ及び/又は音声サンプリング・ウィンドウは、同一の時間ウィンドウが好ましいが、及び/又は部分的(だけ)に重なる時間ウィンドウであってもよい。しかし、あまり好ましくはない実施であるが、位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウが重ならない、すなわち、異なる時間ウィンドウで測定されたものでもよい。位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又は音声サンプリング・ウィンドウは、途切れることがない時間ウィンドウに対応するのが好ましい。しかしながら、サンプリングが中断された時間ウィンドウを用いることもできる。位置サンプリング周期、画像サンプリング周期、及び/又は音声サンプリング周期は、同じであっても、異なっていてもよい。位置サンプリングポイント、画像サンプリングポイント、及び/又は音声サンプリングポイントは、同時であってもよいし、異なる時点であってもよい。位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウは、定義された閾値よりも、ユーザ/モバイル装置2が少なくとも1つの定義された目標位置に近い時間ウィンドウに対応するか、及び/又は、ユーザが少なくとも1つの目標位置の各々を発見する前の所定の期間又は経路長に対応する時間ウィンドウに、対応することが好ましい。タスクが、複数の定義された目標位置を含む場合は、位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウは、定義された目標位置のうちの1つにそれぞれ対応する連続するサブ時間ウィンドウに対応するのが好ましく、すなわち、各サブ時間ウィンドウは、定義された閾値よりも、ユーザ/モバイル装置2がこのサブ時間ウィンドウに対応する定義された目標位置に近い時間ウィンドウに対応するか、及び/又はユーザがサブ時間ウィンドウに対応する目標位置を発見する前のある期間又は経路長に対応する時間ウィンドウに対応する。
ユーザ特徴手段8は、ユーザがタスクを解決する間に、マイクロフォン13によって録音された音声信号、及び/又は、ユーザがタスクを解決する間に、更なるカメラ4によって記録された画像に基づいて、少なくとも1つのユーザ特徴を決定するように構成される。
更なるカメラ4によって記録された画像に基づいて決定された少なくとも1つのユーザ特徴は、少なくとも1つのユーザの顔特徴であることが好ましい。したがって、ユーザ特徴手段8は、ユーザがタスクを解決する間に、記録された画像の少なくともいくつかの各々からユーザの顔を検出し、画像から検出された顔から少なくとも1つの顔特徴を検出するように構成される。顔の特徴の例として、瞳孔拡張、口形、目が開いている状態、眉の状態、視野方向などとすることができる。なお、記録された画像から他のユーザ特徴を検出することも可能である。第2のカメラ4によって記録された画像に基づいて決定された少なくとも1つのユーザ特徴は、ユーザの少なくとも1つの視認可能な特徴の動き、好ましくはユーザの少なくとも1つの顔特徴の動きであることが好ましい。したがって、ユーザ特徴手段8は、ユーザがタスクを解決する間に、記録された画像の少なくともいくつかについて、各々から身体、特にユーザの顔を検出し、検出された画像の顔から少なくとも1つの身体又は顔の特徴の動きを検出するように構成される。より好ましい実施形態では、瞳孔拡張が、第2のカメラ4によって記録された画像から抽出されたユーザ特徴として用いられる。タスクを解くときのユーザの瞳孔の大きさは、ユーザがタスクを解決するときに第2のカメラ4で撮影された画像から抽出される(ユーザがタスクを解決するときに、サンプルウィンドウの間に瞳孔の大きさが時系列で得られることになる)。瞳孔サイズは、片眼の瞳孔サイズ(1次元)、両眼の瞳孔サイズ(2次元)、両眼の瞳孔サイズの組み合わせ(1次元)、又は、ユーザの片眼又は両眼の瞳孔サイズから導出される他の計測値で構成することができる。瞳孔サイズは、ユーザの瞳孔サイズを基準として正規化することができる。瞳孔サイズの基準値は、例えば、ユーザの瞳孔サイズの平均、例えば、タスクがユーザに対して認知要求をしていない期間の瞳孔サイズの平均とすることができる。正規化された瞳孔サイズ及び/又は正規化された瞳孔サイズの変化が、例えば、瞳孔拡張のユーザ特徴として用いられ得る。
マイクロフォンによって記録された音声信号に基づいて決定される少なくとも1つのユーザ特徴は、好ましくはユーザの口又は鼻で生成される音である。これは、例えば、ユーザの会話(発話)から抽出された特徴であってもよい。例えば、タスクがユーザに話をさせることがある。他の例では、例えば、息であってもよい。しかしながら、記録された音声信号から他のユーザ特徴を検出することも可能である。より好ましい実施形態では、発話の規則性をユーザ特徴として用いる。発話の規則性は、以下の発話パラメータの1つ又は組み合わせを評価することによって評価することができる。発話パラメータは、発話の音の振幅又はパワー(特定の周期、又は、全ての周期について)、発話の速度、単語間の休止、イントネーションなどである。次に、発話パラメータを正規化して、ユーザの基準発話パラメータとする。基準発話パラメータは、例えば、タスクがユーザに対して認知を要求していない期間の平均発話パラメータなどを、ユーザの平均発話パラメータとすることができる。正規化された発話パラメータの1つ又は組み合わせ、又は正規化された発話パラメータの変動/変動の1つ又は組み合わせを、ユーザ特徴として用いることができる。
少なくとも1つのユーザ特徴は、画像又はマイクロフォンに基づいて、又はその両方に基づいて決定することができる。より好ましい実施形態では、少なくとも1つのユーザ特徴が、両方か、画像に基づいた少なく一つのユーザ特徴を少なくとも含んで決定される。より好ましい実施形態では、ユーザの特徴が、ユーザがタスクを解決している間に撮影された第2のカメラ4の画像から抽出された瞳孔拡張と、ユーザがタスクを解決している間にマイクロフォン5によって記録された音声信号から抽出された発話の規則性との組み合わせである。この組み合わされたユーザ特徴は、例えば、瞳孔拡張に関連する1次元以上と、発話の規則性に関連する1次元以上とを含む2次元以上の複数次元ベクトルとすることができる。
一実施形態では、ユーザ特徴手段8は、ユーザがタスクを解決する間に、モバイル装置2の位置経路に基づいて、さらに少なくとも1つのユーザ特徴を決定するように構成される。好ましくは、少なくとも1つのユーザ特徴には、少なくとも1つの第1のユーザ特徴と少なくとも1つの第2のユーザ特徴が含まれる。少なくとも1つの第1のユーザ特徴は、ユーザがタスクを解決している間に更なるカメラ4によって記録された画像に基づくか、及び/又は、ユーザがタスクを解決している間にマイクロフォン13によって記録された音声信号に基づいている。少なくとも1つの第2のユーザ特徴は、ユーザがタスクを解決する間のモバイル装置2の位置経路、及び/又はユーザがタスクを解決する間のマイクロフォン13によって記録された音声信号に基づいている。しかしながら、位置経路によるユーザ特徴と、画像及び音声信号の少なくとも一方とで決まるユーザ特徴の組み合わせを決定することも可能である。モバイル装置2の位置経路に基づく少なくとも1つの(第2の)ユーザ特徴は、モバイル装置の位置の瞬間的な変動であってもよい。これは、例えば、この変動の周期であっても、他の任意の尺度であってもよい。
好ましくは、ユーザ特徴手段8は、ユーザ特徴サンプリング・ウィンドウ内に連続したユーザ特徴ポイントを決定するように構成される。連続したユーザ特徴ポイントは、画像サンプリング・ウィンドウの画像ポイント及び/又はオーディオ・サンプリング・ウィンドウのオーディオポイントによって決められる。連続したユーザ特徴ポイントは、さらに位置サンプリング・ウィンドウの位置ポイントによって決めることができる。ユーザ特徴サンプリング・ウィンドウは、ユーザが上述のタスクを(少なくとも部分的に)解決する間の時間ウィンドウである。好ましくは、ユーザ特徴サンプリング・ウィンドウが、位置サンプリング・ウィンドウと、画像サンプリング・ウィンドウ及び音声サンプリング・ウィンドウの少なくとも一方とが、重なる時間ウィンドウに対応する。ユーザ特徴ポイントが関連付けられているタイムポイントを、ユーザ特徴サンプリングポイントと呼ぶ。
ユーザ特徴手段8は、好ましくはモバイル装置2内に配置される。しかしながら、ユーザ特徴手段8’を、全て又は部分的にモバイル装置2の外部、例えば別の装置11に配置することも可能である。
モバイル装置2の移動だけでなく、タスクを解決する間のユーザの身体の他の特徴も、ユーザの認知状態を検出するのに有効であり役立つことが分かった。
認知状態手段9は、ユーザがタスクを解決する間に決定されたモバイル装置2の位置経路と、ユーザがタスクを解決する間に決定された少なくとも1つのユーザ特性とに基づいて、ユーザの認知状態を判定するように構成される。認知状態手段9は、好ましくは、位置サンプリング・ウィンドウ内のモバイル装置2の位置経路(又は連続した位置ポイント)と、ユーザ特徴サンプリング・ウィンドウのユーザ連続した特徴ポイントとに基づいて、ユーザの認知状態を判定するように構成される。認知状態手段9は、好ましくは、測定サンプリング・ウィンドウ中の測定ポイントに基づいて、ユーザの認知状態を判定するように構成される。測定サンプリング・ウィンドウの測定ポイントは、測定/位置サンプリング・ウィンドウの間の位置経路と、測定/オーディオ/イメージ・サンプリング・ウィンドウの間に記録される画像及び/又は音声信号とによって決まる。測定サンプリング・ウィンドウの測定ポイントは、測定/位置サンプリング・ウィンドウの間の位置経路と、測定/ユーザ特徴サンプリング・ウィンドウの間に決定されたユーザ特徴とによって決まる。測定サンプリング・ウィンドウは、ユーザが上述のタスクを(少なくとも部分的に)解決する時間ウィンドウである。測定ポイントが関連付けられている時点を、測定サンプリングポイントと呼ぶ。測定サンプリングポイントは、測定サンプリング周期、及び/又は、2つの連続した測定サンプリングポイントの間に測定サンプリングステップを有している。ユーザ特徴ウィンドウのユーザ特徴ポイントが、位置サンプリング・ウィンドウの位置ポイントによって既に決まっている場合には、測定サンプリング・ウィンドウの測定ポイント及び/又は認知状態は、ユーザ特徴サンプリング・ウィンドウのユーザ特徴ポイントのみに基づいて決めることも可能である。したがって、認知状態手段9は、ユーザの認知状態を判定する入力を受け付ける。
認知状態手段9の入力は、
-ユーザがタスクを解決する間に決定されたモバイル装置2の位置経路と、ユーザがタスクを解決する間に決定された少なくとも1つのユーザ特徴
-位置サンプリング・ウィンドウ内のモバイル装置2の位置経路(又は、連続した位置ポイント)、及び/又はユーザ特徴サンプリング・ウィンドウの連続したユーザ特徴ポイント
-測定サンプリング・ウィンドウ内の測定ポイント
のいずれか1つ以上である。認知状態手段9は、入力データから1つ以上の特徴を抽出することができる。例えば、歩行速度、特に歩幅時間の変動は、ユーザ特徴と組み合わせて、認知状態を検出するモバイル装置2の位置経路から抽出することができる。歩行速度、又は歩行周期とも呼ばれるが、モバイル装置2の垂直方向の低周波の移動から抽出することができる。位置経路及び/又は位置経路データから直接抽出されたこれらの歩行速度及び/又は他の特徴は、tve状態を検出するために用いることができる。しかしながら、歩行速度は、よく知られているように特に有効である。もちろん、経路手段6における歩行速度を位置路情報として直接検出し、認知状態手段9が直接歩行速度に基づいて認知状態を検出することも可能である。さらに、ユーザ特徴手段8において歩行速度を検出することも可能である。
決定された認知状態の結果は、好ましくは多数の別個の認知状態のうちの1つである。別個の認知状態が1つの認知特徴を指し、好ましくは別個の認知状態が、認知特徴の値又は強度に対応する。認知特徴又は認知状態が、好ましくはユーザの脳の健康状態に対応する。ユーザの脳の健康状態は、好ましくは1つの脳疾患又は1つの脳損傷を指す。このような脳疾患又は脳損傷の例として、アルツハイマー病及び/又は前臨床期アルツハイマー病理学的変化、前頭側頭型認知症、外傷性脳損傷、例えば脳震盪、パーキンソン病、手術後認知障害、後皮質萎縮、運動障害、神経変性障害、認知障害、うつ病がある。次いで、認知状態手段9は、少なくとも2つの別個の認知状態のうちの1つを出力するように構成される。少なくとも2つの別個の認知状態には、認知特徴が満たされていることを示す第1の別個の認知状態と、認知特徴が満たされていないことを示す第2の別個の認知状態とが含まれる。認知状態が健康状態である場合、第1の別個の認知状態(第1の別個の健康状態)は、ユーザが脳疾患又は脳損傷を有することを示し、第2の別個の認知状態(第2の別個の健康状態)は、ユーザが脳疾患又は脳損傷に関して健康であることを示す。ユーザが認知状態を満たすか及び/又は脳疾患もしくは脳損傷である一定のリスクを有していることを示す、少なくとも3分の1の別個の認知/健康状態が存在する可能性がある。
認知状態は、好ましくは機械学習データにさらに基づいて決定される。機械学習データは、対応する第1の別個の認知状態に対して第1の条件セットが含まれる。認知状態手段9は、認知状態手段9の入力が第1の条件セットを満たすかどうかをチェックするように構成されるのが好ましい。この場合には、認知状態手段9は、ユーザが、第1の別個の認知状態の認知特徴を持っていると結論付ける。3つ以上の別個の認知状態がある場合、第3の別個の認知状態又は他の別個の認知状態であることを決定するために、他の条件セットをチェックするようにしてもよい。そうでない場合は、ユーザは第2の認知状態である。機械学習データは、複数のユーザのユーザ・データ・セットに基づく機械学習によって取得される。各ユーザのユーザ・データ・セットは、認知状態又は健康状態が分かっているユーザの状態とタスクを解決する間に認知状態手段9のために準備された入力とに対応する。好ましくは、機械学習データが決定木を含む。認知状態手段9は、決定木を通過するときにノード毎に決定木の次のどのノードに行くかを、ユーザ入力のデータに基づいて決定するように構成されている。ユーザのデータは、少なくともモバイル装置2の位置経路と、ユーザ特徴とを含む。ユーザのデータは、年齢、性別などのユーザデータをさらに含むようにしてもよい。決定木の条件、すなわち条件セットは、学習データに基づいて機械学習フェーズで学習される。一実施形態では、少なくとも1つのノードで、位置経路に基づいて少なくとも1つの特徴をチェックする。1つのノードは、例えば、(1つ以上のサブ期間中の)歩行速度の変化が(基準サブ期間中の)基準歩行速度の閾値を超えているかどうかをチェックするようにしてもよい。別のノードでは、サブ期間毎に同じ機能をチェックしてもよい。サブ期間は、ユーザがタスクを解決するときのサブ期間が好ましく、特に、ユーザの注意がタスクによってより多く要求されるサブ期間である。これらのサブ期間は、ユーザが探さなければならないオブジェクトに近づくときが好ましい。基準期間は、例えば、ユーザがタスクを解決している期間のサブ期間であり、特に、前述のサブ期間よりもタスクによって注意が必要になることが少ない期間である。別のノードは、位置経路の別の特徴、又は、歩行速度の平均、歩行速度の分散などの歩行速度の別の特徴をチェックするようにしてもよい。一実施形態では、少なくとも1つのノードが、ユーザ特徴に基づいて、好ましくは瞳孔拡張及び/又は発話の規則性に基づいて、少なくとも1つの特徴をチェックする。例えば、1つのノードは、ユーザ特徴(1つ以上のサブ期間)が基準ユーザ特徴(基準サブ期間)の閾値を超えるかをチェックするようにしてもよい。別のノードは、別のサブ期間で同じ機能をチェックしてもよい。別のノードは、ユーザ特徴の別の特徴の平均、別の特徴の分散などの、別の特徴をチェックしてもよい。
好ましくは、ユーザの認知状態は、装置1から与えられる。好ましくは、ユーザの認知状態は、モバイル装置2の出力手段5を介して与えられる。
認知状態手段9は、認知状態手段9の入力を受信するためにモバイル装置2と通信する別の装置11に配置されるのが好ましい。最終的に、認知状態手段9は、決定されたユーザの認知状態をモバイル装置2に送信して、決定された認知状態を配信する。しかしながら、認知状態手段9’は、全て又は一部をモバイル装置2内に配置するようにしてもよい。
タスク手段7によって提供されたタスクは、ユーザが注意を払うことが必要とされる。ユーザが注意を払っている間、すなわち、タスクを解決している間における、ユーザの動き、特に、経路手段6を用いて記録された歩行と、さらに、カメラ4、マイクロフォン5、及び/又はユーザ特徴手段8を用いて記録されたユーザ特徴は、ユーザの多くの様々な認知状態に対して信頼できるシンプルな指標となることが分かった。この経路手段6によって記録されたユーザの動きについては、既に分かっていたことである。しかしながら、ユーザ特徴手段8を用いて決定されたユーザ特徴も考慮することによって、結果が著しく改善された。
図2は、ユーザの認知状態を判定するための実施形態を示す。
ステップS1において、モバイル装置2は、タスクを解決させるためにユーザを招待する。この招待は、モバイル装置2によって開始されてもよい。これは、例えば、あるタスクを解決するためにモバイル装置の視覚出力装置5.1に表示されるメッセージによって実現することができる。あるいは、招待は、ユーザが、例えば、モバイル装置のアプリケーションを開くことによって、又はタスクを解決することを選択することによって開始され得る。上述の好ましいタスクでは、ユーザによって、少なくとも1つ(好ましくは少なくとも2つ)の定義された目標位置がモバイル装置2のAR環境内に定義され、及び/又は、ユーザに対して、(少なくとも1つの対応する視覚化オブジェクトを介して)モバイル装置2のAR環境内で表示される。次に、ユーザは少なくとも1つの定義された目標位置を(例えば、探すために定義された目標位置に対応する視覚化オブジェクトを表示することによって)探索/発見するために招待される。
ステップS2において、モバイル装置2の経路が記録され、タスク(の少なくとも一部)が解決される。
ステップS3において、タスク(の少なくとも一部)が解決される間に、第2のカメラ4の画像及び/又はマイクロフォン4の音声信号が記録される。ユーザの少なくとも1つのユーザ特徴が、タスク(の少なくとも一部)が解決される間に記録された画像及び/又は音声信号に基づいて決定される。
ステップS1と、ステップS2の位置経路、ステップS3の画像及び/又は音声信号の記録とは、好ましくは同時に実行される(すなわち、ステップS2及びS3の少なくとも測定は、ステップS1と少なくとも一部は時間的に重なる)。
ステップS4において、ステップS2で決定されたモバイル装置2の位置経路と、ステップS3で決定された少なくとも1つのユーザ特徴とに基づいた入力に基づいて、ユーザの認知状態が決定される。
図3は、ユーザの認知状態を判定するための機械学習データを決定するための装置100を示す。装置100は、装置1の認知状態手段9に対して、上記で定義された入力を決定するための少なくとも1つの装置101を備える。したがって、装置101は、モバイル装置200と、モバイル装置2内の第1のカメラ3として機能するモバイル装置200内の第1のカメラと、モバイル装置2内の第2のカメラ4及び/又はマイクロフォン13として機能するモバイル装置200内の第2のカメラ及び/又はマイクロフォン13と、モバイル装置2内の出力手段5として機能するモバイル装置200内の出力手段5と、経路手段6として機能する経路手段6と、図1のタスク手段7として機能するタスク手段7と、図1のユーザ特徴手段8として機能するユーザ特徴手段8とを備え、好ましくは図1のユーザ入力手段10として機能するユーザ入力手段10を備え、認知状態手段9の代わりに入力準備手段19又は19’とを備える。入力準備手段は、装置1の認知状態手段9に入力される入力を準備するように構成される。入力は、ユーザがタスクを解決する間に特定されたモバイル装置の位置経路と、ユーザがタスクを解決する間に特定された少なくとも1つのユーザ特徴に基づいている。
装置101は、好ましい2つの構成を持つ図1の装置1に対応する。図1に記載された、ユーザの認知状態を判定するための第1の構成。前の段落で説明したように、ユーザの入力を決定するための第2の構成。
装置100は、多数の(好ましくは異なる)ユーザの各々に対してユーザ・データ・セットを受信するように構成された機械学習データ手段109をさらに備える。ユーザのユーザ・データ・セットは、ユーザの認知状態と、ユーザがタスクを解決している間に少なくとも1つの装置101のうちの1つで生成された入力とを含む。機械学習データ手段109は、さらに、多数のユーザのためのユーザ・データ・セットに基づいて、各ユーザの入力に対する認知状態を判定するための機械学習データを決定するように構成される。一実施形態では、機械学習データ手段109が、全てのユーザについてユーザ・データ・セットを受信し、機械学習データを(1回だけ)決定する。一実施形態では、機械学習データ手段109が、1人又は他の所定の人数のユーザのユーザ・データ・セットを受信するたびに、機械学習データをアップデートするように構成される。この実施形態では、機械学習データが再帰的に決定される。好ましくは、機械学習データ手段109は、ユーザ・データ・セットに基づいて決定木の決定パラメータを決定するように構成される。機械学習データ手段109がブーストに基づいて機械学習データを決定するように構成されることが好ましい。
機械学習データ手段109は、好ましくは別の装置11に配置される。しかしながら、機械学習データ手段109は、(一部又は全てが)モバイル装置200又は別の装置内にあってもよい。

Claims (15)

  1. 装置(1)のモバイル装置(2)のユーザの認知状態を判定するための装置(1)であって、
    前記装置(1)は、モバイル装置(2)を備え、
    前記モバイル装置(2)は、
    前記モバイル装置(2)が置かれた環境の第1の視野方向(3.1)の画像を記録するために配置された第1のカメラ(3)と、
    ユーザの少なくとも1つの特徴の画像であって、第2の視野方向(4.1)の画像を記録するための第2のカメラ(4)、及び/又は、音声信号を記録するためのマイクロフォン(13)と、
    前記ユーザに視覚情報を示すための視覚出力手段(5.1)と、
    を有し、
    前記装置(1)は、
    前記環境内の前記モバイル装置(2)の位置経路を位置センサで特定する経路手段(6)と、
    前記視覚出力手段(5.1)を介して前記ユーザに表示される拡張現実環境であって、前記第1のカメラ(3)によって取得された前記モバイル装置(2)の前記環境に基づいた前記拡張現実環境を用いて、前記拡張現実環境内に定義された少なくとも1つの目標位置に対応する前記モバイル装置(2)の前記環境内の位置に前記モバイル装置(2)を移動させるタスクを前記ユーザに解決させるために、前記視覚出力手段(5.1)を介して前記ユーザと対話するタスク手段(7、7’)と、
    記ユーザが前記タスクを解決する間に前記第2のカメラ(4)によって記録された前記画像、及び/又は、前記ユーザが前記タスクを解決する間に前記マイクロフォン(13)において記録された前記音声信号における、前記ユーザの少なくとも1つの特徴を検出し、かつ、追跡するユーザ特徴手段(8、8’)と、
    前記ユーザが前記タスクを解決する間に特定された前記モバイル装置(2)の前記位置経路と、前記ユーザの前記少なくとも1つの特徴とのユーザデータセットに基づいて、前記ユーザの前記認知状態を判定するための認知状態手段(9、9’)と、
    さらに備え、
    前記認知状態手段(9、9’)は、認知状態が分かっている複数のユーザの各ユーザの状態と、前記認知状態手段(9、9’)に対して入力された前記複数のユーザの各ユーザの前記ユーザデータセットとに基づく機械学習によって取得された機械学習データに応じて、前記認知状態を判定する装置。
  2. 前記第2のカメラ(4)は、前記ユーザが前記タスクを解決する間に、連続した画像を撮影し、
    前記ユーザ特徴手段(8、8’)は、前記連続した画像内の前記ユーザの前記少なくとも1つの特徴を検出し、前記連続した画像内で検出された前記少なくとも1つの特徴の時系列を特定し、
    前記認知状態手段(9、9’)は、前記ユーザの前記少なくとも1つの特徴の時系列にさらに基づいて、前記ユーザの認知状態を判定する請求項1に記載の装置。
  3. 前記ユーザが前記タスクを解決する間に、前記第2のカメラ(4)によって記録された前記画像において検出され、かつ、追跡される前記ユーザの前記少なくとも1つの特徴が、前記ユーザの眼の瞳孔拡張を含む請求項1または2に記載の装置。
  4. サンプリング・ウィンドウは、時間の経過にそった複数のサンプリングステップを含み、前記経路手段(6)は、各サンプリングステップにおいて前記モバイル装置(2)の少なくとも1つの位置を記録し、
    前記第2のカメラ(4)は、各サンプリングステップにおいて少なくとも1つの画像を記録し、
    前記ユーザ特徴手段(8、8’)は、各サンプリングステップごとに、前記サンプリングステップにおいて前記第2のカメラ(4)によって記録された前記少なくとも1つの画像から前記ユーザの前記少なくとも1つの特徴を検出し、
    前記認知状態手段(9、9’)は、各サンプリングステップごとに、該サンプリングステップにおいて検出された前記ユーザの前記少なくとも1つの特徴に基づくサンプリングポイントが含まれるサンプリング・ウィンドウ内の時系列と、該サンプリングステップにおいて特定された前記モバイル装置(2)の前記少なくとも1つの位置とに基づいて、前記ユーザの認知状態を判定する請求項1~3のいずれか1項に記載の装置。
  5. 前記視覚出力手段(5.1)は、前記モバイル装置(2)の第1の側に配置されたディスプレイを備え、
    前記第2のカメラ(4)は、前記モバイル装置(2)の第1の側に配置され、及び/又は、前記第2の視野方向(4.1)が前記ディスプレイの面の法線ベクトルと同じ方向に向けて配置され、
    前記第1のカメラ(3)は、前記第1の側に対向する前記モバイル装置(2)の第2の側に配置され、かつ、前記第1の視野方向(3.1)が前記ディスプレイの面の法線ベクトルと反対の方向に向けて配置される請求項1~4のいずれか1項に記載の装置。
  6. 前記タスク手段(7)は、前記視覚出力手段(5.1)を介して前記ユーザと対話して、前記ユーザを前記環境内で前記モバイル装置(2)と一緒に歩行させるように構成される請求項1~5のいずれか1項に記載の装置。
  7. 前記タスク手段(7)は、前記拡張現実環境内の前記少なくとも1つの目標位置を定義し、
    前記少なくとも1つの目標位置の各々に対して、前記拡張現実環境において前記各目標位置を探すように前記ユーザを招待するステップと、
    前記ユーザが、前記少なくとも1つの目標位置が前記第1のカメラ(3)によって取得され、所定の条件で前記視覚出力手段(5.1)上に表示され得る前記環境内の位置に前記モバイル装置(2)を移動させたときに、前記各目標位置が拡張現実環境内で発見されたと見做されるステップとを実行するように構成された請求項1~6のいずれか1項に記載の装置。
  8. 前記タスク手段(7、7’)は、前記モバイル装置(2)のユーザ入力に基づいて、前記拡張現実環境における前記少なくとも1つの目標位置を定義するように構成される、請求項7に記載の装置。
  9. 前記少なくとも1つの目標位置は少なくとも2つの目標位置を含み、
    前記タスク手段(7、7’)は、
    前記各目標位置が前記拡張現実環境において定義及び/又は表示されると、前記少なくとも2つの目標位置の各々を、前記視覚出力手段(5.1)によって前記ユーザに出力される異なる特徴に関連付けられ、前記視覚出力手段(5.1)で1つの前記目標位置に関連付けられた前記特徴を出力することによって、前記ユーザは前記拡張現実環境における前記少なくとも2つの目標位置のうちの1つを探すように招待され、
    前記少なくとも2つの目標位置のうちの1つが発見されたと見做された後に、前記ユーザが前記少なくとも2つの目標位置のうちの次の1つを探すように続いて招待されるように、前記ユーザを前記少なくとも2つの目標位置を探すために連続して招待する請求項7又は8に記載の装置。
  10. 前記タスク手段(7、7’)は、前記タスクを解決している間、及び/又は前記少なくとも1つの目標位置の各々を探している間に、前記ユーザの注意をそらすための複数の刺激を、前記視覚出力手段(5.1)を介して与えるように構成される請求項1~9のいずれか1項に記載の装置。
  11. 前記タスク手段(7、7’)は、前記タスクの解決すること、及び/又は、探索のために招待された前記各目標位置を探索することを続行する前に、前記各刺激の後にサブタスクを解決するように、前記ユーザに要求するように構成される請求項10に記載の装置。
  12. ユーザ入力手段(10)を備え、
    前記タスク手段(7、7’)は、前記ユーザ入力手段(10)を介して所定のユーザ入力を受信したときに、前記サブタスクが解決されたと見做す請求項11に記載の装置。
  13. 前記認知状態は、少なくとも1つの脳疾患又は脳損傷に関する健康状態である請求項1~12のいずれか1項に記載の装置。
  14. 請求項1~13のいずれか1項に記載の装置のモバイル装置(2)のプロセッサ上で命令が実行されると、以下のステップを実行するように構成された前記命令を含む前記モバイル装置(2)のユーザの認知状態を判定するためのコンピュータプログラムであって、
    前記モバイル装置(2)の前記第1のカメラ(3)であって、前記モバイル装置(2)の環境の第1の視野方向(3.1)の画像を記録するために前記モバイル装置(2)内に配置された前記第1のカメラ(3)によって取得された前記モバイル装置(2)の環境に基づく拡張現実環境であって、前記視覚出力手段(5.1)を介して表示された前記拡張現実環境を用いて、前記ユーザにタスクを解決させるために、前記モバイル装置(2)の前記視覚出力手段(5.1)を介して前記ユーザと対話するステップと、
    前記ユーザが前記モバイル装置(2)で前記タスクを解決するときに実行された前記モバイル装置(2)の位置経路を受信するステップと、
    前記ユーザが前記モバイル装置(2)で前記タスクを解決するときに、前記モバイル装置(2)の前記第2のカメラ(4)で記録された画像の少なくとも1つから抽出された少なくとも1つのユーザ特徴を受信するステップと、
    前記モバイル装置(2)の前記受信された位置経路と、前記受信された少なくとも1つのユーザ特徴とに基づいて前記ユーザの前記認知状態を判定するステップとを実行するためのコンピュータプログラム。
  15. 請求項1~13のいずれか1項に記載の装置のモバイル装置(2)のユーザの認知状態を判定するための方法であって、
    前記モバイル装置(2)は、前記モバイル装置(2)の前記視覚出力手段(5.1)を介して前記ユーザと対話して、前記モバイル装置(2)の前記第1のカメラ(3)であって、前記モバイル装置(2)の環境の第1の視野方向(3.1)に画像を記録するために前記モバイル装置(2)内に配置された前記第1のカメラ(3)によって取得された前記モバイル装置(2)の環境に基づく拡張現実環境であって、前記視覚出力手段(5.1)を介して表示された該拡張現実環境を用いて前記ユーザにタスクを解決させるものであり、
    前記ユーザが前記モバイル装置(2)を用いて前記タスクを解決している間に、前記モバイル装置(2)によって実行される位置経路を特定するステップと、
    前記ユーザが前記モバイル装置(2)を用いて前記タスクを解決している間に、前記モバイル装置(2)の前記第2のカメラ(4)であって、前記第2の視野方向(4.1)に画像を記録するために前記モバイル装置(2)内に配置された該第2のカメラ(4)を用いて画像を記録するか、及び/又は、前記ユーザが前記モバイル装置(2)を用いて前記タスクを解決している間に、前記モバイル装置(2)のマイクロフォン(13)を用いて音声信号を記録するステップと、
    前記記録された画像及び/又は音声信号に基づいて、時間の経過にそった少なくとも1つのユーザ特徴を判定するステップと、
    前記モバイル装置(2)で特定された前記位置経路と、時間の経過にそった前記判定された少なくとも1つのユーザ特徴とに基づいて、前記ユーザの認知状態を判定するステップを備えた方法。
JP2021537524A 2018-09-05 2019-09-04 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム Active JP7504476B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024039301A JP2024073551A (ja) 2018-09-05 2024-03-13 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP18192686 2018-09-05
EP18192686.6 2018-09-05
EP19174607.2 2019-05-15
EP19174607.2A EP3621276A1 (en) 2018-09-05 2019-05-15 Apparatus, method and program for determining a cognitive state of a user of a mobile device
PCT/IB2019/057436 WO2020049470A1 (en) 2018-09-05 2019-09-04 Apparatus, method and program for determining a cognitive state of a user of a mobile device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024039301A Division JP2024073551A (ja) 2018-09-05 2024-03-13 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022500801A JP2022500801A (ja) 2022-01-04
JP7504476B2 true JP7504476B2 (ja) 2024-06-24

Family

ID=63528524

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021537524A Active JP7504476B2 (ja) 2018-09-05 2019-09-04 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム
JP2024039301A Pending JP2024073551A (ja) 2018-09-05 2024-03-13 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024039301A Pending JP2024073551A (ja) 2018-09-05 2024-03-13 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム

Country Status (11)

Country Link
US (1) US20210196174A1 (ja)
EP (2) EP3621276A1 (ja)
JP (2) JP7504476B2 (ja)
KR (1) KR20210055074A (ja)
CN (1) CN112673608A (ja)
AU (1) AU2019334195A1 (ja)
BR (1) BR112021003953A2 (ja)
CA (1) CA3111974A1 (ja)
IL (1) IL281249A (ja)
MX (1) MX2021002562A (ja)
WO (1) WO2020049470A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210159979A1 (en) * 2019-11-25 2021-05-27 Eugene M. ODonnell Method and apparatus for optical communication
EP4285384A1 (en) 2021-01-28 2023-12-06 Altoida Inc. Apparatus, method and computer program for providing information relating to a cognitive state of an individual
CA3222403A1 (en) 2021-06-17 2022-12-22 Altoida, Inc. Method and system for obtaining measurement of cognitive performance
CN113810133B (zh) * 2021-09-29 2023-08-18 上海兴容信息技术有限公司 一种用户活动状态的识别方法和***
KR102395234B1 (ko) * 2021-09-30 2022-05-09 주식회사 인피아이 음주상태 예측시스템 및 예측방법
US20240079031A1 (en) * 2022-09-01 2024-03-07 Lei Zhang Authoring tools for creating interactive ar experiences
US20240077983A1 (en) * 2022-09-01 2024-03-07 Lei Zhang Interaction recording tools for creating interactive ar stories
US12045383B2 (en) 2022-09-01 2024-07-23 Snap Inc. Virtual AR interfaces for controlling IoT devices using mobile device orientation sensors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080280276A1 (en) 2007-05-09 2008-11-13 Oregon Health & Science University And Oregon Research Institute Virtual reality tools and techniques for measuring cognitive ability and cognitive impairment
JP2014523041A (ja) 2011-07-05 2014-09-08 サウジ アラビアン オイル カンパニー 拡張現実感表示によって従業員に健康情報を提供するためのシステム、コンピュータ媒体およびコンピュータにより実行される方法
JP2017184996A (ja) 2016-04-05 2017-10-12 渡 倉島 瞳孔径拡大による脳活動量判定装置およびプログラム
WO2017222997A1 (en) 2016-06-20 2017-12-28 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
JP2018015139A (ja) 2016-07-26 2018-02-01 ヤンマー株式会社 認知症検査システム
JP2018032120A (ja) 2016-08-23 2018-03-01 株式会社Msd 処置評価システムおよびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017210289B2 (en) * 2016-01-19 2021-10-21 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
EP3531915A4 (en) * 2016-10-24 2020-04-22 Akili Interactive Labs, Inc. CONFIGURED, COGNITIVE PLATFORM AS A BIOMARKER OR ANOTHER MARKER TYPE

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080280276A1 (en) 2007-05-09 2008-11-13 Oregon Health & Science University And Oregon Research Institute Virtual reality tools and techniques for measuring cognitive ability and cognitive impairment
JP2014523041A (ja) 2011-07-05 2014-09-08 サウジ アラビアン オイル カンパニー 拡張現実感表示によって従業員に健康情報を提供するためのシステム、コンピュータ媒体およびコンピュータにより実行される方法
JP2017184996A (ja) 2016-04-05 2017-10-12 渡 倉島 瞳孔径拡大による脳活動量判定装置およびプログラム
WO2017222997A1 (en) 2016-06-20 2017-12-28 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
JP2018015139A (ja) 2016-07-26 2018-02-01 ヤンマー株式会社 認知症検査システム
JP2018032120A (ja) 2016-08-23 2018-03-01 株式会社Msd 処置評価システムおよびプログラム

Also Published As

Publication number Publication date
EP3621276A1 (en) 2020-03-11
CN112673608A (zh) 2021-04-16
EP3847795A1 (en) 2021-07-14
WO2020049470A1 (en) 2020-03-12
MX2021002562A (es) 2021-09-08
US20210196174A1 (en) 2021-07-01
JP2024073551A (ja) 2024-05-29
KR20210055074A (ko) 2021-05-14
AU2019334195A1 (en) 2021-03-25
IL281249A (en) 2021-04-29
BR112021003953A2 (pt) 2021-05-25
JP2022500801A (ja) 2022-01-04
CA3111974A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP7504476B2 (ja) モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム
US11563700B2 (en) Directional augmented reality system
US9619712B2 (en) Threat identification system
JP6664512B2 (ja) アイブレインインターフェースシステムのキャリブレーション方法、及びシステム内のスレーブデバイス、ホストデバイス
US9495008B2 (en) Detecting a primary user of a device
US20160343168A1 (en) Virtual personification for augmented reality system
CN110167421A (zh) 整体地测量视觉功能的临床参数的***
US10089791B2 (en) Predictive augmented reality assistance system
Poppe et al. AMAB: Automated measurement and analysis of body motion
JP2015135674A (ja) ユーザに方向付けられた個人情報アシスタント
WO2020050186A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20230054973A1 (en) Information processing apparatus, information processing method, and information processing program
US20200143774A1 (en) Information processing device, information processing method, and computer program
Makhataeva et al. Augmented Reality for Cognitive Impairments
KR101805749B1 (ko) 사용자 인증 장치
Chen Improving the safety of construction site
US20240203065A1 (en) Apparatus, method and computer program for providing information relating to a cognitive state of an individual
JP2007133531A (ja) 注目状態検出装置、及び注目状態検出方法
WO2023042343A1 (ja) 手指の動きを計測処理する計測処理端末、方法およびコンピュータプログラム
US20230027320A1 (en) Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking
KR20190076722A (ko) 모바일 기기를 이용한 vr/ar 기반 다중지능 검사방법 및 다중지능 검사시스템
US20240200962A1 (en) Providing directional awareness indicators based on context
WO2023244267A1 (en) Systems and methods for human gait analysis, real-time feedback and rehabilitation using an extended-reality device
WO2019043475A2 (en) DEVICES AND METHODS FOR USE IN THE DIAGNOSIS OF MEDICAL DISEASE

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605

R150 Certificate of patent or registration of utility model

Ref document number: 7504476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150