JP6462657B2 - 認知状況および発達状況の検出のためのシステムおよび方法 - Google Patents

認知状況および発達状況の検出のためのシステムおよび方法 Download PDF

Info

Publication number
JP6462657B2
JP6462657B2 JP2016501301A JP2016501301A JP6462657B2 JP 6462657 B2 JP6462657 B2 JP 6462657B2 JP 2016501301 A JP2016501301 A JP 2016501301A JP 2016501301 A JP2016501301 A JP 2016501301A JP 6462657 B2 JP6462657 B2 JP 6462657B2
Authority
JP
Japan
Prior art keywords
subject
data
fixation
visual image
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016501301A
Other languages
English (en)
Other versions
JP2016515017A5 (ja
JP2016515017A (ja
Inventor
クライン、アミ
ジョーンズ、ウォーレン
ルイス、ピーター
Original Assignee
チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド
チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド, チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド filed Critical チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド
Publication of JP2016515017A publication Critical patent/JP2016515017A/ja
Publication of JP2016515017A5 publication Critical patent/JP2016515017A5/ja
Application granted granted Critical
Publication of JP6462657B2 publication Critical patent/JP6462657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、認知状況および発達状況の検出のためのシステムおよび方法に関する。
自閉症スペクトラム障害(ASD)などのような発達障害は、米国の子供たちの14%近くに影響を与えている。ASDなどのような状況のための診断方法は、かなり変化しており、「ベスト・プラクティス」ツールを使用しても、状況に対して不十分な感度および特異度しか提供しない。発達の障害(disabilities)の診断の遅れは、治療の有効性を低減させ、不十分な成果を結果として生じさせることが多い。そのうえ、治療提供者(たとえば、小児科医または他の医療専門家)は、これらの状況の進行を測定するための十分なツールがない。
本システム、デバイス、および方法は、概して、被験者への特定の所定の視覚刺激(たとえば、1つまたは複数のビデオ)の表示に応答して生成されるアイ・トラッキング・データの分析を用いる、被験者の発達状況または認知状況(ASDを含む)の検出に関する。そのうえ、そのようなシステム、デバイス、および方法は、それぞれの1つまたは複数の状況の症状を定量的に測定およびモニタリング(監視)するために適用されることが可能であり、特定のケースでは、より正確でかつ関連性を有する処方情報を、患者、家族、およびサービス提供者に提供することが可能である。追加の態様によれば、開示のシステム、デバイス、および方法は、自閉症を有する被験者の成果を予測する(したがって、処方力を提供する)ために使用されることが可能であるとともに、広汎性の発達の障害についての同様の診断測定および処方測定も提供することが可能である。
一態様では、アイ・トラッキング機器からデータを収集するための方法であって、第1の視覚像の表示を生じさせる工程と、前記第1の視覚像が表示された後、前記第1の視覚像の代わりに固視ターゲットの表示を生じさせる工程と、表示された前記固視ターゲットに関する被験者の眼球運動を示すデータを前記アイ・トラッキング機器から受信する工程と、前記被験者の眼球運動を示す前記データを受信することに応じて、前記固視ターゲットの代わりに第2の視覚像の表示を生じさせる工程と、を備える方法が提供される。一定の実施形態では、前記固視ターゲットは前記被験者の反射性眼球運動のトリガとなる。一定の実施形態では、前記被験者の前記眼球運動は言語指示なしに誘導される。方法は、前記被験者の眼球運動を示す前記データから固視を識別する工程と、前記固視に関する固視場所座標を計算する工程と、前記固視場所座標が、表示された前記固視ターゲットに関する既知のターゲット場所座標の近接度閾値内にあるか否かを判定する工程と、をさらに備えてよい。一定の実施形態では、前記固視場所座標が前記近接度閾値内にない場合には、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶される。方法は、オペレータによる観察される固視から前記固視を識別する手動インジケーションを前記オペレータから受信する工程をさらに備えてよい。方法は、識別された前記固視をオペレータによる観察される固視によって裏付ける手動インジケーションを、前記オペレータから受信する工程をさらに備えてよい。
一定の実施形態では、受信された前記データが、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示すか否かを判定する工程をさらに備える。少なくとも部分的には、受信された
前記データは、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示す場合、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶されてよい。一定の実施形態では、前記被験者の眼球運動を示す前記データは、該データが固視を含まない場合、キャリブレーション目的について拒絶される。一定の実施形態では、前記第1の視覚像は前記第2の視覚像とは異なる。一定の実施形態では、前記第1の視覚像は前記第2の視覚像と同じである。
一定の実施形態では、前記第2の視覚像の代わりに1つまたは複数の後続の固視ターゲットの表示を生じさせる工程をさらに備える。一定の実施形態では、それぞれの視覚像は、各それぞれの後続の固視ターゲットが表示された後、表示される。各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像とは異なってもよく、各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像と同じであってもよい。一定の実施形態では、各それぞれの後続の固視ターゲットは、それぞれのターゲット場所座標を有する。一定の実施形態では、前記固視ターゲットは、前記被験者を観察するオペレータからの手動インジケーションに応じて表示される。一定の実施形態では、前記視覚像は、前記被験者の属性に基づいて選択される。一定の実施形態では、前記属性は前記被験者の年齢であってよい。一定の実施形態では、前記第1の視覚像および前記第2の視覚像は動的な視覚像である。一定の実施形態では、前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される。
一態様では、フレームを備えるシステムであって、前記フレームは、ディスプレイ・デバイスと、前記ディスプレイ・デバイスによって表示される刺激に応答する被験者の眼球運動を検出するためのセンサと、前記被験者を着席させるためのサポート・デバイスであって、前記ディスプレイ・デバイスおよび前記センサに関して眼球運動データの収集を可能とする配向に前記被験者の位置を決定するように調節可能であり、位置が決定されると、前記配向に前記被験者を拘束する、サポート・デバイスと、を支持する、システムが提供される。前記フレームは車輪と、前記車輪に連結されているブレーキをさらに備えてよい。一定の実施形態では、前記サポート・デバイスは、前記被験者の視野における視覚的な気逸らしを最小化するためのパーティションを備える。前記サポート・デバイスは、リクライニングするように構成されてよい。一定の実施形態では、前記サポート・デバイスは、調節可能なヘッド・レストを備える。前記ヘッド・レストは、前記被験者の頭部の運動の範囲を制限してよい。一定の実施形態では、前記サポート・デバイスは、1つの軸の周りに旋回するように構成されている。
一定の実施形態では、前記ディスプレイ・デバイスは、前記被験者に関して複数の位置に調節可能である。一定の実施形態では、前記センサは、前記被験者に関して複数の位置に調節可能である。システムは、前記被験者の像をオペレータに表示するように構成されている第2のディスプレイ・デバイスをさらに備えてよい。一定の実施形態では、検出された前記被験者の眼球運動をネットワークに伝えるためのネットワーク・インターフェースをさらに備える。システムは、前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される。一定の実施形態では、システムは、本開示の方法のいずれかを行うように構成されている。
一態様では、アイ・トラッキング・データにおける空間的な不正確さを訂正するための方法であって、被験者への刺激の表示中に記録されるアイ・トラッキング・データを受信する工程であって、前記刺激は、前記被験者による固視を誘導する固視ターゲットを含む、工程と、受信された前記アイ・トラッキング・データにおける前記固視を識別する工程と、前記固視ターゲットに関連付けられているターゲット場所座標と、前記固視に関連付けられている固視場所座標との間の差を計算する工程と、前記ターゲット場所座標と前記
固視場所座標との間の計算された前記差をベクトル・データとして記憶する工程と、前記固視場所座標が前記ターゲット場所座標に整合するように、前記ベクトル・データを変換する工程と、を備える方法が提供される。一定の実施形態では、前記変換する工程は、トリリニア補間と、重心座標の線形補間と、アフィン変換と、区分多項式変換とからなる群から選択される数学演算を行う工程を含む。一定の実施形態では、前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される。
一態様では、フレームを備えるシステムであって、前記フレームは、刺激を被験者に表示するための手段と、前記表示するための手段によって表示される刺激に応答する前記被験者の眼球運動を検出するための手段と、前記被験者を支持するための手段であって、前記表示するための手段および前記検出するための手段に関して眼球運動データの収集を可能とする配向に前記被験者の位置を決定するように調節可能であり、位置が決定されると、前記配向に前記被験者を拘束する、前記支持するための手段とを支持する、システムが提供される。前記フレームは前記システムを移動させるための手段と、前記移動させるための手段に連結されている、移動を妨げるための手段とをさらに備えてよい。一定の実施形態では、前記支持するための手段は、前記被験者の視野における視覚的な気逸らしを最小化するための手段を備える。前記支持するための手段は、リクライニングするように構成されている。一定の実施形態では、前記支持するための手段は、調節可能なヘッド・レストを備える。前記ヘッド・レストは、前記被験者の頭部の運動の範囲を制限してよい。一定の実施形態では、前記支持するための手段は、1つの軸の周りに旋回するように構成されている。
一定の実施形態では、前記表示するための手段は、前記被験者に関して複数の位置に調節可能である。一定の実施形態では、前記検出するための手段は、前記被験者に関して複数の位置に調節可能である。システムは、前記被験者の像をオペレータに表示するための手段をさらに備えてよい。一定の実施形態では、検出された前記被験者の眼球運動をネットワークに伝えるための手段をさらに備える。システムは、前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用されてよい。一定の実施形態では、システムは、本開示の方法のいずれかを行うように構成されている。
1つの態様によれば、スタンド・アロンのデバイスおよび関連付けされる方法が提供される。ASDなどのような発達障害または認知障害の診断、スクリーニング、およびモニタリングのためのプラットフォームは、(a)提示される視覚情報に関連してアイ・トラッキング・データを収集するためのデバイス、具体的にはカメラおよび光源と、(b)刺激(複数の刺激)を患者に提示するためのスクリーンと、(c)前記患者に音を提示するためのスピーカーと、(d)適正な患者の位置決定を維持するためのシステムであって、デバイスが、複数の位置の間で関節式になっており(articulated)、リクライニングされた位置を乳児に与えることが可能になっており、一方、前記刺激提示スクリーンに対して背筋を伸ばして座ることができるように調節がなされることも可能にし、前記刺激提示スクリーンは、前記患者の種々の高さを収容するように垂直方向に調節されることが可能であり、前記患者の眼は、前記スクリーンから所定の距離にあり、前記患者は、安全に支持されており、前記患者は、前記システムから出ないように安全に拘束される、システムと、(e)前記アイ・トラッキング・ハードウェアおよび刺激提示モニター、およびスピーカーとインターフェース接続するためのコンピュータと、(f)前記アイ・トラッキング・ハードウェアおよび刺激提示モニターならびにスピーカーを備えるカスタム・ソフトウェアであって、たとえば、患者情報の識別が記録されることが可能であり、アイ・トラッキング・ハードウェアは、前記患者に対してキャリブレートされることが可能であり、映画が、前記患者に提示されることが可能であり、アイ・トラッキング・デー
タは、収集されることが可能であり、データは、セーブされることが可能であり、データは、処理するために、自動的に転送されることが可能であるようになっている、カスタム・ソフトウェアと、(g)前記ハードウェア・コンポーネントを支持する剛体フレームであって、たとえば、アイ・トラッキング・ハードウェアは、光学的に適当な場所に設置されており、前記刺激提示スクリーンは、前記患者にアクセス可能な場所に設置されており、前記患者に対して気逸らしを最小化するようになっている、剛体フレームと、(h)患者頭部の運動を最小化する随意的な患者ヘッド・レストと、(i)キーボード、マウス、コンピュータ・モニターを備えるオペレータ制御装置と、(j)患者挙動をモニタリングするためのカメラと、(k)アンビエント照明を制御するためのシステムとを備える。
1つの態様によれば、アイ・トラッキング・データをデータ分析のためのプロセッサーに転送するためのアプローチは、(a)提示される視覚情報に関連してアイ・トラッキング・データを収集するためのデバイスと、(b)ネットワーク接続と、(c)データを中央データベースにアップロードするためのソフトウェアと、(d)中央データベースとを含む。別の態様によれば、データを分析するためのアプローチは、(a)生のアイ・トラッキング・データ、および、患者によって見られる映画のリストから、関連のある情報をはっきりさせる工程と、(b)関心領域に関してアイ・トラッキング・データを集計する工程と、(c)アイ・トラッキング・データを介して、個々の患者データを、規範的なおよび典型的な発達の既存のモデルと比較する工程とを含む。別の態様によれば、小児科医に結果を送達するためのアプローチは、(a)以下のフォーマット、(i)紙の形態または(ii)ウェブベースのインターフェースのいずれかで、グラフィカルにまたは非グラフィカルに提示される、規範的な発達またはASDのインジケーションを備える。
1つの態様によれば、自動化された「デシジョン・ツリー」キャリブレーション方法が、(年齢または認知能力に起因して)言語指示にしたがうことができない個々の人に対してアイ・トラッキング機器をキャリブレートする際のオペレータ・エラーを低減させるために提供され、それは、(a)キャリブレーションであって、(i)個々の(オペレータ)によって動作させられるキャリブレーションであり、(ii)キャリブレーション・ソフトウェアが、参加者へのビデオ刺激の提示を可能にし、(iii)固視ターゲットが、個々の人(参加者)に提示され、(iv)オペレータは、直接的な注視、直接的なビデオ・フィード、または他のアプローチによって、参加者を見る能力を有しており、(v)オペレータは、直接的な注視、直接的なビデオ・フィード、または他のアプローチによって、参加者の眼を見る能力を有しており、(vi)オペレータは、視覚的に刺激するターゲットを参加者に提示する能力を有しており、(vii)オペレータは、いつターゲットに向けての参加者の注視のシフトを彼らが観察したかを示す能力を有しており、(viii)アイ・トラッキング・システムは、参加者がターゲットを見ているということをオペレータが示すときに、参加者の眼についての視覚情報を記録し、最終的には、システムをキャリブレートするために十分な点にわたって、十分な情報を収集する、キャリブレーション;(b)検証であって、(i)キャリブレーションが成功したとき、キャリブレートされたデータがアイ・トラッキング機器によって出力されている状態で、オペレータは、ランダム・ターゲットを参加者に示す能力を有しており、(ii)ターゲットがスクリーンの上の現れている間に、リアルタイムのアイ・トラッキング・データが記録されることが可能であり、(iii)オペレータは、いつターゲットに向けての参加者の注視のシフトを彼らが観察したかを示す能力を有しており、(iv)記録されたデータを使用して、また、オペレータによって示されたタイミング情報を用いて、またはそれを用いずに、ソフトウェアが、それぞれの示された点に関して、平均の固視場所を自動的に計算し、(v)ソフトウェアは、計算された平均の固視場所を所定の精度閾値と比較し、その後に、点を承認するか(検証)または拒絶する(非検証)、検証;ならびに、(c)デシジョン・ツリーであって、(i)検証されたターゲットが3つ未満である状況Iでは、ソフトウェアは、スクラッチから再キャリブレートすることを試みること、または負荷包括的な(lo
ad generic)キャリブレーションをオペレータに命令し、(ii)検証されたターゲットが3〜4つである状況IIでは、ソフトウェアは、残りの点だけを再検証することを試みること、または、現在のキャリブレーションを継続することをオペレータに命令し、(iii)検証されたターゲットが5つである状況IIIでは、ソフトウェアは、現在のキャリブレーションを継続することをオペレータに命令する、デシジョン・ツリー、のソフトウェアベースの方法によって行われる。
1つの態様によれば、事後のキャリブレーション・エラー分解能が提供される。アイ・トラッキング・データ空間的精度における全体的なエラーを調節するためのコンピュータによる方法が提供され、(a)アイ・トラッキング・データが、参加者に提示されている視覚的に刺激するターゲットに関連して記録され、(b)平均の固視場所が、コンピュータによる分析を通して識別され、(c)承認/拒絶基準が、実際に提示されたターゲット場所に対する計算された近接度に基づいて、それぞれの平均の固視場所計算に適用され、(d)アイ・トラッキング・データに対して、計算された平均の固視場所から実際に提示されたターゲット場所への空間的変換が適用されるようになっている。
1つの態様によれば、社会的発達の成長チャートが提供される。視覚表現を通して社会的発達を表すためのアプローチが提供され、(a)典型的な(および/または異常な)発達が、アイ・トラッキング・データの多くの個々の事例の定量的分析によって規定され、(b)その定量的分析の結果が、(i)所与の刺激による特定の関心領域に対する固視の測定値が、長期的にチャート化されること、または(ii)アイ・トラッキング・データ収集のときの相対的な顕著性(saliency)−対−年齢に関して、典型的な(および/または異常な)発達の長期的なグラフとして表されるようになっており、(b)新しく入ってくるアイ・トラッキング・データの分析の結果が、典型的な(および/または異常な)データとグラフィカルに比較されるようになっており、(c)グラフィックな表現が、個人データについての医療的に関連のある情報を介護者に伝達することを支援することが可能であるようになっている。
本開示を再検討した後に、これらの実施形態の変形例および修正例が、当業者に思い付くこととなる。先述の特徴および態様は、任意の組合せおよびサブコンビネーションで(複数の従属的な組合せおよびサブコンビネーションを含む)、本明細書で説明されている1つまたは複数の他の特徴とともに実装されることが可能である。本明細書で説明または図示されている様々な特徴は(その任意のコンポーネントを含む)、他のシステムの中に組み合わせられ、またはそれと一体化されることが可能である。そのうえ、特定の特徴は、省略されるか、または、実装されないことが可能である。
先述のおよび他の目的および利点は、添付の図面と併せて、以下の詳細な説明を考慮すると、明らかになることとなる。図面において、同様の参照符号は、全体を通して同様のパーツを参照している。
本開示の特定の実施形態による、診断結果または処方結果の送達のためのデバイスおよびサポーティング・データ・インフラストラクチャーを含む例示目的のシステムのブロック図。 被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のための例示目的のデバイスのそれぞれ正面斜視図および後面斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、図2のデバイスの代替的な実施形態の斜視図。 本開示の特定の実施形態による、データ収集のための例示目的のフローチャートを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、データ収集の間のオペレータに提示される一連の例示目的のディスプレイ・スクリーンを示す図。 本開示の特定の実施形態による、アイ・トラッキング・データをキャリブレートするためのコンピュータ実装機能を備える例示目的のフローチャートを示す図。 本開示の特定の実施形態による、アイ・トラッキング・データを検証するためのコンピュータ実装機能を備える例示目的のフローチャートを示す図。 本開示の特定の実施形態による、可能性のあるキャリブレーション点が固視を含むか否かを検出するためのコンピュータ実装機能を備える例示目的のフローチャートを示す図。 本開示の特定の実施形態による、コンピュータ実装機能および基準に基づくキャリブレーション不正確さの評価および訂正の代表的な像を示す図。 本開示の特定の実施形態による、コンピュータ実装機能および基準に基づくキャリブレーション不正確さの評価および訂正の代表的な像を示す図。 本開示の特定の実施形態による、収集されたデータを転送するための例示目的のシステムのブロック図。 本開示の特定の実施形態による、集中型のデータベースを使用して、データ収集ステップならびにデータ処理および分析ステップを支持するための例示目的のフローチャートを示す図。 本開示の特定の実施形態による、収集されたデータを処理するための例示目的のフローチャートを示す図。 本開示の特定の実施形態による、データ分析の結果を送達するための例示目的のシステムのブロック図。 本開示の特定の実施形態による、他の発達プロファイルまたは認知プロファイルに対する被験者の発達または認知進行の例示目的のコンピュータ生成されたデータ表現を示す図。
本明細書で説明されているシステム、デバイス、および方法の全体的な理解を提供するために、特定の例示目的の実施形態が説明されることとなる。実施形態および特徴は、自閉症スペクトラム障害(ASD)の評価、スクリーニング、モニタリング、または診断のために、被験者からアイ・トラッキング・データを収集および分析することと関係する使用に関して、本明細書で具体的に説明されているが、システム、デバイス、および方法は、また、他の発達障害または認知障害、および、他の状況に適用することも可能であり、それは、それに限定されないが、言語障害、知的障害、公知の遺伝的障害の存在のある発達の障害または公知の遺伝的障害の存在のない発達の障害、ならびに、注意欠陥性多動性障害(ADHD)、注意欠陥障害(ADD)、心的外傷後ストレス障害(PTSD)、頭部外傷、脳震とう、スポーツ損傷、および認知症を含むということが理解されることとなる。そのようなデータは、障害に関する測定値を示していない場合には、規範的な発達の典型性の程度の測定値を提供し、典型的な発達の多様性のインジケーションを提供することが可能であるということが理解されることとなる。さらに、以下に概説されているコンポーネントおよび他の特徴のすべては、任意の適切な様式で、互いに組み合わせられることが可能であり、また、医療診断の外側のシステムに適合および適用されることが可能である。たとえば、本開示のインタラクティブな視覚刺激は、治療ツールとして使用されることが可能である。さらに、収集されたデータは、被験者が優先的に注意を払う特定のタイプの視覚刺激の測定値を生み出すことが可能である。そのような優先性(preference)の測定値は、医療診断および治療の分野における用途、および、医療診断および治療の分野でない用途の両方を有し、それは、たとえば、視覚刺激優先性に関連するデータが関心のものである広告業界または他の産業を含む。
本明細書で参照されるすべての刊行物、特許、および、公開された特許出願は、具体的に参照により本明細書に援用されている。矛盾が生じる場合には、その特定の定義を含む本明細書が支配することとなる。本明細書の全体を通して、「備える(comprise)」の用語、または、「備える(comprising)」もしくは「備える(comprises)」などのような変形例は、述べられている整数(もしくは、コンポーネント)または整数のグループ(もしくは、コンポーネント)を含むが、任意の他の整数(もしくは、コンポーネント)または整数のグループ(もしくは、コンポーネント)を除外しないということを暗示しているということが理解されることとなる。単数形の「1つの(a)」、「1つの(an)」、および「その(the)」は、文脈が明確にそうでないということを指定していなければ、複数形を含む。そのうえ、「患者」、「参加者」、および「被験者」の用語は、本開示の全体を通して、相互交換可能に使用されている。本明細書で使用されているように、「固視」は、視覚固視の短い形式である。視覚固視は、網膜の上に視覚情報を安定化させるために使用される眼球運動のタイプである。
ASDを含む発達状況または認知状況の検出に関して本明細書で説明されているシステム、デバイス、および方法は、収集されたアイ・トラッキング・データを処理および分析するための他の技法と一緒に使用されることが可能であり、他の技法は、たとえば、2006年2月23日に出願された「視覚的顕著を定量化およびマッピングするためのシステムおよび方法(SystemandMethod for Quantifying a
nd Mapping Visual Salience)」という表題の米国特許第7,922,670号、および、2013年12月11日に出願された「係合および知覚される刺激顕著のマーカーとしてまばたき抑制を検出するためのシステムおよび方法(Systems and Methods for Detecting Blink Inhibition as a Marker of Engagement and Perceived Stimulus Salience)」という表題の米国特許出願第14/103,640号に説明されているものを含み、それらの開示は、その全体が、参照により本明細書に援用されている。
図1は、特定の実施形態による、診断結果または処方結果の送達のためのデバイス100およびサポーティング・データ・インフラストラクチャーを含むシステム10のブロック図を示している。描写されているように、システム10は、全体的に、データ収集20、データ・ストレージ30、データ処理および分析40、ならびにデータ結果50に関連する4つのパーツ(本明細書でシステムと称される場合もある)に分割されている。特定の実施形態では、システム10は、ASDなどのような、被験者または患者の発達状況または認知状況を診断するために使用される。とりわけ、システム10は、6ヶ月以下程度の幼児および乳児を含む、比較的に若い年齢でのASDの診断を可能にする。とりわけ、システム、デバイス、および方法は、新生児から高齢者まで、任意の年齢の患者に関するデータを信頼性高く収集し、ASDまたは他の認知状況または発達状況の診断のためにその収集されたデータを使用することが可能である。一般的に、システム10は、アイ・トラッキング・データを収集し、その後にアイ・トラッキング・データを分析し、被験者の社会的機能のレベルを決定する。システム10は、非侵襲性である。アイ・トラッキング・データを収集することに関連付けされるプロシージャ(「セッション」とも称される)が、任意の適切な量の時間(たとえば、15分)にわたって走り、図1に示されているシステム10の4つのパーツ(すなわち、データ収集システム20、データ・ストレージ・システム30、データ処理および分析システム40、およびデータ結果システム50)に対応する4つの主要ステップを伴うことが可能である。
概観として、被験者が、共通の社会的相互作用(典型的に二者のまたは三者の相互作用)を描写する動的な視覚刺激(たとえば、映画)を見ている間に、第1のアイ・トラッキング・データが、被験者から収集される(データ収集20)。データ収集の目的のために被験者に表示される刺激は、(静的であろうと、動的であろうと)任意の適切な視覚像であることが可能であり、それは、映画またはビデオ、および、静止画または任意の他の視覚刺激を含む。映画またはビデオは、単に例として参照されているということ、および、任意のそのような議論は、他の形態の視覚刺激にも適用されるということが理解されることとなる。プロシージャに従って、アイ・トラッキング・データ、および、任意の他の適切な情報(たとえば、被験者が見た映画のリスト)が、セキュア・データベース(データ・ストレージ30)に転送される。データベースは、好ましくは、デバイスから遠隔にあり、多くのデバイスから収集されるデータを収容および集約するが、いくつかの実施形態では、データベースは、デバイスにローカル接続され得るということが認識されることとなる。その転送の後に、データは、中央処理コンピュータ(データベースおよび/またはデバイスにローカル接続されているかまたは遠隔にある)に再び転送され、任意の適切なプログラミング言語(たとえば、Matlab)で書かれたカスタム・ソフトウェアを使用して処理される(データ処理および分析40)。その処理ステップでは、個々の被験者のデータが、統計的モデルと比較される。その比較は、被験者が見た映画の間の被験者の自分自身のその固有の注視点に基づいて、社会的機能の測定値(たとえば、スコア)を出力する(データ結果50)。そのスコアは、統計的モデルからの所定のカットオフ(cutoff)または他の値と比較される。いくつかの実施形態では、その比較の出力は、ASDを含む発達状況または認知状況のその被験者の診断、および、状況の重症度のレベルの決定である。いくつかの実施形態では、その比較の出力は、被験者の言葉による認知技
能または言葉によらない認知技能の測定値である。いくつかの実施形態では、その比較の出力は、規範的な発達の典型性の程度の測定値であり、典型的な発達の多様性のインジケーションを提供する。追加的に、結果は、ASDまたは他の認知状況または発達状況によって影響を与えられた被験者の長期にわたる治療の有効性をモニタリングするために使用されることが可能である。分析の結果、および処理されたファイル自身は、その後に、データベースにアップロードされる。典型的に、結果は、医師(たとえば、小児科医または他の医療専門家)、または、他の被験者の介護者に利用可能にされる。
いくつかの実施形態では、データ収集システム20は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントの混合を含む。これらのコンポーネントは、一緒に、視覚刺激および聴覚刺激を被験者に提示し、一時的に整合させられたアイ・トラッキング・データを収集する。データ収集のために使用されるデバイス100は、被験者の視野における視覚的な気逸らしを最小化しながら、(たとえば、被験者モニターおよびアイ・トラッキング・ユニットに対する)適正な被験者の位置決定を推進するように設計されている。本開示の方法を行うための例示的なシステムおよびデバイスの特定の詳細は、後述の図を参照して説明されることとなる。
図2は、特定の実施形態による図1のデバイス100の正面斜視図および後面斜視図をそれぞれ示している。デバイス100は、ASDを含む被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される。いくつかの実施形態では、デバイス100は、様々な表面を横切る効率的な移動性のために、車輪またはキャスター108の上に着座している。任意の適切な車輪付きのコンポーネント、または、他の移動促進コンポーネントが、キャスター108の代わりに、または、キャスター108に加えて使用され、移動性を提供することが可能である。デバイス100は、標準的な廊下および出入り口をキャスター108に乗って移動するように設計されており、好ましくは、すべてのサイズおよび強さのオペレータのための操縦性を可能にする重量(たとえば、おおよそ113.4kg(250lb)以下)を有している。キャスター108は、移動させられていないときに、デバイスを適切な場所に固定するためのブレーキを含むことが可能である。
また、デバイス100は、被験者のための座り心地の良い座席101(または、サポート・デバイス)を含み、テストしている間の座席101からの意図せぬ退出を防止するために、位置決定または拘束システム(たとえば、シートベルト)を有している。任意の適切なサポート・デバイスは、プロシージャの間に被験者の位置を決定または被験者を着席させるために使用されることが可能であり、乳児および幼児のための車の座席もしくはハイ・チェア、または、年長児および成人のためにカスタマイズされたチェアなどのような他のタイプのサポート・デバイスを含む。デバイスは、検査刺激(視覚像およびキャリブレーション/固視ターゲットを含む)の被験者が見るためのモニターまたはディスプレイ・デバイス103と、検査刺激に関連付けされるオーディオを再生するためのスピーカーまたは聴覚刺激106他の供給源とを有している。いくつかの実施形態では、スピーカーは、モニターと一体化されているが、コンポーネントは、別々に設けられることも可能である。モニターの位置は、モニターの任意の軸に関して調節可能であり得る(たとえば、垂直方向の調節、水平方向の調節、および、被験者に向かう方向への調節、または、被験者から離れる方向への調節)。
示されているように、デバイス100は、ディスプレイ・デバイス103によって表示される刺激に応答する被験者の眼球運動を検出するためのアイ・トラッキング・ユニットまたはセンサ104と、オペレータ制御装置110と、被験者の視野における視覚的な気逸らしから被験者を視覚的に十分に分離させるためのバッフルまたはパーティション107とをさらに含む。オペレータ制御装置110には、オペレータ・モニターまたはディス
プレイ・デバイス109が一緒に設けられており、オペレータ・モニターまたはディスプレイ・デバイス109は、オペレータが、プロシージャの全体を通して、ビデオカメラ105からのフィードを介して被験者を観察することを可能にし、ビデオカメラ105からのフィードは、被験者を示し、また、オペレータ・モニター109の上に表示される。したがって、いくつかの実施形態では、オペレータは、被験者から遠隔に(たとえば、同じ部屋の異なる部分の中に、または、完全に異なる部屋の中に)位置付けされることが可能である。デバイス100には、アイ・トラッキング収集および刺激提示のための制御コンピュータ111と、デバイス100のコンポーネントに電力を与えるための電力供給ユニット112とが設けられている。デバイス100は、医師の事務所または診療所において、直接プラグ・インまたはワイヤレス接続によって、ネットワークに接続するように構成可能である。特定の実施形態では、デバイス100は、マルウェアの導入を防止するために、発信用のデータ通信だけを可能にする。いくつかの実施形態では、デバイス100は、上記に議論されているデバイスの様々なコンポーネントを支持するハウジングまたはフレーム構造体を使用して形成されることが可能である。
デバイス100のサポート・デバイスまたは座席101は、ディスプレイ・デバイス103およびアイ・トラッキング・センサ104に関して眼球運動データの収集を可能とする配向に被験者の位置を決定するように調節可能であり得る。そして、座席101は、位置が決定されると、その特定の配向に被験者を拘束することが可能である。これは、(被験者ごとに、または、同じ被験者での複数のセッションに関して)座席が繰り返し可能な位置で動作することを可能にする。たとえば、いくつかの実施形態では、デバイス100は、2つのモード(「乳児モード」および「幼児モード」)で動作し、モニター103および座席101の配向が、幼児(幼児は、成人のように、背筋を伸ばして座ることを好む)および乳児(乳児は、もたれさせられることを好む)を収容することができるようになっている。乳児または幼児/成人のためのデュアルの位置が、図1のデータ収集システム20に関するインサート15の中に示されている。使用されることが可能であり、被験者ごとに繰り返し可能である、多くの可能性のある位置が存在するので、座席は、任意の適切な数の「モード」を有することが可能であり、また、さらに位置決定可能/調節可能であり得るということが理解されることとなる。たとえば、デバイス100は、被験者進入/退出のための旋回メカニズム102を有しており、それは、ディスプレイ・デバイス103およびアイ・トラッキング・ユニットに対して被験者を配向させるために使用されることも可能である。
図2のデバイス100は、上記に概説されているデータ収集20のために使用されることが可能であり、(1)被験者が、ディスプレイ・スクリーン(たとえば、コンピュータ・モニター)の前に着席させられ、ディスプレイ・スクリーンの上に、種々の動的なビデオおよび他の刺激が被験者のために再生されるようになっており、(2)オペレータが、ソフトウェアを制御することが可能であり、ソフトウェアは、(a)被験者に対してアイ・トラッキング・ユニットをキャリブレートし、(b)キャリブレーションが正確であるということを検証し、(c)被験者が動的なビデオまたは他の視覚刺激を見るときに、被験者からアイ・トラッキング・データを収集することとなるようになっている。「データ収集」と称されるプロシージャのこの部分の後に、被験者のデータは、セキュア・データベースに転送されることが可能である。データベースは、好ましくは、デバイスから遠隔にあり、多くのデバイスから収集されるデータを収容および集約するが、しかし、いくつかの実施形態では、データベースは、デバイスにローカル接続され得るということが認識されることとなる。いくつかの実施形態では、収集されたデータのデータベースによる受信が、ソフトウェアにより実装される自動的な処理および分析プロセスを開始させ、そのプロセスにおいて、被験者の個人データが、ヒストリカル・アイ・トラッキング・データから以前に生成されたアイ・トラッキング・データのモデルと比較される。比較の結果は、被験者の発達機能の診断測定および/または処方測定である。それらの結果は、被験者
の医師による使用のための診断レポートへと凝縮されることが可能である。
デバイス・オペレータ(たとえば、医療助手または他の医療専門家)は、デバイスを動作させるために最小のトレーニングしか必要としない。デバイスは、ディスプレイ・デバイス(たとえば、図2のディスプレイ・デバイス103)の前での繰り返し可能な適正な被験者の位置決定を可能にするように設計されている。オペレータの情報および被験者の情報を、デバイスの上で走るカスタム・ソフトウェア・プラットフォームの中へ入力した後で、ソフトウェアは、年齢別の刺激(たとえば、映画)を選択し、また、被験者の前に適正な配向でディスプレイ・デバイスの位置を決定することをオペレータに命令する。次いで、キャリブレーション・プロシージャが、アイ・トラッキング・デバイス(たとえば、図2のアイ・トラッキング・デバイス104)に対して被験者をキャリブレートするために行われる。有効なキャリブレーション(ソフトウェアによって決定される)に続いて、ソフトウェアは、ディスプレイ・デバイスを介して被験者のために再生されるビデオを選択することによって、データ収集プロセスを開始し、(所定の映画または他の視覚刺激に応答して、自分の眼を運動させている被験者からの)生のアイ・トラッキング・データが収集される。次いで、アイ・トラッキング・データおよび刺激に関連する情報(たとえば、被験者によって見られる刺激のリスト)の両方が、処理のためにセキュア・データベースに転送される。
被験者に対して表示される映画は、被験者の年齢に依存することが可能である。いくつかの実施形態では、デバイスは、(座席に位置決定されている)被験者が俳優の眼、口、または身体を見ることに費やす固視時間の量、および、被験者がビデオの中の背景領域を見ることに費やす時間の量を測定する。ディスプレイ・デバイスを介して被験者に示されるビデオ・シーンは、社会的相互作用のシーンを描写することが可能である(たとえば、カメラを真っ直ぐに見て、見ている被験者に関わることを試みる俳優、たとえば、または、遊んでいる子供たちのシーン)。いくつかの実施形態では、ビデオ・シーンは、たとえば、アニメーションおよびプレファレンシャル・ビューイング・タスクを含む、他の適切な刺激を含むことが可能である。ビデオの中の特定の場所に対する固視時間の測定は、被験者の社会的発達および/または認知発達のレベルに関連する。たとえば、12〜15ヶ月の間の年齢の子供たちは、彼らの言語発達の発達段階の結果として、口の固視の増加を示し、また、眼の固視と口の固視との間を行ったり来たりする。
(表示される映画の間の)被験者の視聴パターンの分析が、ASDを含む発達状況または認知状況の診断およびモニタリングのために行われる。このデータ収集期間の間に、システムは、被験者に対してキャリブレーションまたは固視ターゲット(それは、アニメが使われることが可能である)を定期的に示す。これらのデータは、後で精度を立証するために使用される。検査手法は、目が覚めておりスクリーンを見ている被験者に依存する。キャリブレーション・プロシージャおよびデータ収集プロシージャの両方の間に、所定の映画および/または他の視覚刺激が、ディスプレイ・デバイスを介して被験者に提示される。これらの映画および/または他の視覚刺激は、手/顔/身体を動かす人間の俳優またはアニメが使われた俳優を含むことが可能である。
任意の適切なアイ・トラッキング・ユニットおよび関連付けされるソフトウェアは、本開示のシステム、デバイス、および方法とともに使用されることが可能である。たとえば、様々な市販のアイ・トラッキング・ユニットが使用されることが可能であり、それは、センサモーターリック・インスツルメンツ(SensoMotoric Instruments)(たとえば、モデルRED−m)、ISCA社(ISCA Inc.)(たとえば、モデルRK−464)、および、トビー・テクノロジー(Tobii Technology)(たとえば、モデルX60)から市販されているそれらのアイ・トラッキング・ユニット、または、他の製造業者からの任意の他の適切なアイ・トラッキング・ユニ
ットを含む。特定の実施形態では、本出願人によって開発されたものなどのような、本明細書で開示されているシステム、デバイス、および方法のマスター・ソフトウェア・コードが、アイ・トラッキング・ソフトウェアのステップを監督または制御するために使用され、追加的に、他の機能を果たすために使用される。そのような機能の例は、被験者の氏名、生年月日など、および、被験者に示される刺激(たとえば、映画)に関連する情報などをオペレータに示すインターフェースを提示することを含む。いくつかの実施形態では、マスター・ソフトウェア・コードは、ソフトウェア開発キット(SDK)を介してアイ・トラッキング・ソフトウェアとインターフェース接続している。
いくつかの実施形態によれば、診断検査セッションを促進させるコンピュータは、(たとえば、検査プロセスに関わる比較的に大容量のビデオに起因して)高い処理能力を備える専用コンピュータである。アイ・トラッキング・データは、コンピュータによって収集され、データ・ファイルの中に記憶され(たとえば、idfデータなど)、次いで、それは、分析のために、セキュア・ネットワーク接続を介して、医師の事務所から、中央データベースおよび処理コンピュータへ送信される。処理設備において、(たとえば、ASDまたは他の発達状況もしくは認知状況を有することが知られている被験者から、および、健常対照群からも以前に収集されたデータを使用して)ヒストリカルデータから生成されたモデルに関連して、(医師の事務所においてテストされている被験者から受信された)アイ・トラッキング・データを分析することによって、データのオフラインの分析が行われることが可能である。しかし、本開示の全体を通して議論されているように、いくつかの実施形態では、処理および分析ステップは、デバイスにローカル接続されているコンピュータによって、セッションの間にリアルタイムで行われ得るということが理解されることとなる。
アイ・トラッキング・データが収集され、記憶され、分析され、および処理される様式に影響を与えることなく、デバイス100に対してなされ得る、多くの可能性のある修正例または代替例が存在する。それぞれのケースにおいて、修正または変更されたデバイスは、被験者の視野における視覚的な気逸らし最小化しながら、データ収集、および、(たとえば、被験者モニターおよびアイ・トラッキング・ユニットに対する)適正な被験者の位置決定を提供する。図3A〜図3Fは、図2のデバイス100の代替的な実施形態(A)から(F)の斜視図を示している。たとえば、いくつかの実施形態では、デバイスは、定置式である(すなわち、デバイスは可動でない)。デバイスは、永久的にまたは半永久的に床に固定されていてもよく(たとえば、使用時の場所に固着されている)、または、デバイスは、キャスターもしくは車輪を含まなくてもよく、したがって、デバイスの重量が、デバイスを適切な場所に維持する。図3Aから図3Eに示されているように、それぞれのデバイスは、キャスターまたは車輪を含まず、いくつかの実施形態では、サポート・デバイス(たとえば、図2の座席101)は、(デバイス自身が可動であろうと定置式であろうと)そのそれぞれのデバイスから分離可能であってもよい。たとえば、被験者がその中に位置決定されている座席は、ローリング・メカニズムを介してスライド可能に調節可能であってもよい。図3Eに示されているように、デバイス240は定置式であるが、サポート・デバイス242は可動である。別の例として、図3Fでは、デバイス250が可動であり、また、サポート・デバイス252も可動である。
特定の実施形態によれば、図3A〜図3Fで上記に議論されているものを含む、本開示のデバイスのいずれかは、(1)被験者の年齢に応じて調節され得る、被験者のための座席、(2)デバイスに向けて、または、デバイスから離れるように、座席を回転させるためのメカニズム、(3)映画または他の視覚刺激を被験者に示すためのディスプレイ・デバイス(それは、手動で、または、電気的なモータを使用して、種々の被験者高さに対して調節されることが可能である)、(4)被験者の眼にカメラの焦点を合わせ、安全な量の赤外線エネルギーまたは他の電磁エネルギーによってそれを照らすアイ・トラッキング
・ユニット、(5)被験者の全体的な健康およびコンプライアンスをモニタリングするためにオペレータが使用するためのカメラ、(6)音を作り出す1つまたは複数のスピーカー、(7)ディスプレイ・デバイス、アイ・トラッキング・ユニット、および任意の他のコンポーネントを位置決定するための機械的なシステム(随意的に、電動である)、(8)ブレーキを備える旋回キャスター、(9)デバイスを動作させるオペレータのためのモニター(たとえば、タッチ・スクリーン)、(10)オペレータのためのキーボードおよびマウス、(11)カスタム・ソフトウェアを備える制御コンピュータ、(12)デバイスの様々なコンポーネントに電力を送達するための電力供給部、および、(13)コンポーネントのすべてを一緒に保持するための、溶接された被覆された(sheathed)機械的なフレームを含むことが可能である。
いくつかの実施形態では、上記コンポーネント(1)〜(13)は、共通の規準フレーム(たとえば、上記に述べられている溶接された被覆された機械的なフレーム、または、任意の他の適切なハウジングもしくはエンクロージャー)の中に整合させられており、それらが、一緒に位置決定または輸送され得るようになっている。この規準フレームは、静的な、カスタム設計された、金属製の支持構造体であってもよい。いくつかの実施形態では、金属製の支持構造体は、溶接されたチューブ状の部材を備え、溶接されたチューブ状の部材は、垂直方向に、水平方向に、および/または、角度付きの方向に配置されており、支持フレームおよび検査領域を生成させる。座席は、検査領域の内側に位置決定されており、被験者は、ディスプレイ・デバイスの近位に位置決定されるが、バッフルまたはパーティションによって、外部の最も気を逸らすものから遮蔽される。デバイスのオペレータは、オペレータ・コンピュータを介して被験者を監視するための位置において、フレームワークの外側に立つことが可能であり、モニタリング・カメラを通して被験者を観察することが可能である。(サポート・デバイスの上に位置決定されている)被験者は、被験者の視界がパーティションによって妨害されるので、好ましくは、オペレータを見ることができない。パーティションは、プラスチックのような材料から形成されることが可能であり、プラスチックのような材料は、きれいにするのが容易であり、金属フレームワークに熱成形される。図3A〜図3Fに示されているように、たとえば、デバイスは、それぞれのデバイスのコンポーネントのすべてまたはいくつかを支持するフレームを有している。
図4は、特定の実施形態によるデータ収集のためのフローチャート300を示している。データ収集は、カスタム開発されたソフトウェア・アプリケーションを使用して達成され、そのソフトウェア・アプリケーションは、図2のデバイス100などのような、本開示のデバイスのいずれかによって実装される。プロセスの特定のステップは、コンピュータ実装機能であり、それは、開示されているデバイスを動作させるコンピュータ(たとえば、図2のコンピュータ111)に関連付けされるソフトウェア・コードで実装される。図5Aから図5Lは、一連のディスプレイ・スクリーンを示しており、それは、特定の実施形態によるデータ収集の間に、(たとえば、図2のオペレータ・モニター109を介して)オペレータに提示され、プロセス300のステップの議論とともに参照されることとなる。本開示のフローチャートのステップは、単に例示目的のものであるということが理解されることとなる。本開示の範囲から逸脱することなく、フローチャートのステップのいずれかが、修正されるか、省略されるか、もしくは再配置されてもよく、ステップの2つ以上が組み合わせられてもよく、または、任意の追加的なステップが加えられてもよい。
特定の実施形態では、カスタム開発されたソフトウェア・アプリケーションは、デバイス・オペレータが、(a)検査プロシージャを特定の被験者に関連付けさせ、(b)アイ・トラッキング・データ収集機器を被験者に対してキャリブレートし、(c)被験者刺激モニターおよびスピーカーの上にビデオおよび聴覚刺激を提示し、ならびに、(d)視覚
刺激および聴覚刺激に関連している被験者から、アイ・トラッキング・データ(たとえば、注視のx、y座標)を収集することを可能にする。いくつかの実施形態では、セッションの終わりに、収集されたデータは、さらなる処理および分析(たとえば、図13のプロセス1050)のために、中央データベースに転送される(たとえば、図12のプロセス1000)。
プロセス300は、ステップ302において開始し、ステップ302では、オペレータ情報が入力される(たとえば、図2のオペレータ制御装置110を介して)。情報は、オペレータの識別を可能にする任意の適切な情報であることが可能である。たとえば、オペレータのファースト・ネームおよびラスト・ネームが記録されることが可能である。ファースト・ネームおよびラスト・ネームは、システムにログインする目的のために、および、オペレータを識別する目的のために、ユーザ名に関連付けされることが可能である。いくつかの実施形態では、オペレータ情報は、サイト利用およびオペレータ依存性のデータ品質変化(これは、低いことが予期されるが)をモニタリングするために、データベース(たとえば、図1のデータベース35)の中で質問される。図5Aに示されているように、ディスプレイ・スクリーン400aは、オーバーレイ460を含み、オーバーレイ460は、オペレータがユーザ名およびパスワードを使用してシステムにログインすることを可能にする。また、ディスプレイ400aは、様々なボタン(たとえば、アニメーション、元に戻す、次の映画、アクティブ映画、音量、セッション終了、ログアウト)を備えるバーナー・バー410を含み、様々なボタンは、セッションの全体を通して利用可能であり、セッションの一部分をナビゲートし、または、セッションの他の機能を制御する。また、ディスプレイ400aの下部において提示されているのは、コンテキスト・ボタン450(たとえば、次のターゲットを再生する、ターゲットを見る!、映画に戻る!)であり、コンテキスト・ボタン450は、現在のセッションにおけるアプリケーションの特定のモードに利用可能な機能に関連している(たとえば、ディスプレイ400aは、ディスプレイ400jにおけるものとは異なるコンテキスト・ボタン450を有している)。
ステップ304において、被験者情報が入力される。情報は、被験者の識別を可能にする任意の適切な情報、および、データ処理および分析の目的に関連のある任意の他の情報であることが可能である。たとえば、被験者のファースト・ネームおよびラスト・ネーム、生年月日、性別、ならびに一次言語が入力されることが可能である。被験者情報は、所与のセッションのデータをデータベースにおける個人記録にリンクさせるために使用される。図5Bに示されているように、ディスプレイ・スクリーン400bは、オーバーレイ462を含み、オーバーレイ462は、オペレータが、上記に議論されているものを含む、様々なフィールドの中へ被験者情報を入力することを可能にする。また、オーバーレイ462の中に示されているのは、「セッションID」であり、「セッションID」は、それぞれの被験者に関連付けされるセッションに従って、収集されたデータにデータベースの中でインデックスを付けることを可能にする。
ステップ306において、年齢に適したまたは年齢別の刺激(たとえば、映画)が、モニターの上で再生される。このディスプレイは、モニター(たとえば、図2のディスプレイ・デバイス103)への被験者の注意を引き、オペレータまたは被験者の介護者が、ステップ308において、被験者をチェアの中に留めることを可能にする。特定の実施形態では、アプリケーションは、(a)被験者の年齢に基づいてモニターおよびチェア角度を調節し、(b)被験者をチェアの中に置き、シートベルトをしっかりと締め、(c)アイ・トラッカーが被験者の眼を識別することが可能であることを確認するようにオペレータに命令する。図5Cに示されているように、ディスプレイ・スクリーン400cは、オーバーレイ464を含み、オーバーレイ464は、(ビデオ・ウィンドウ466を使用して)被験者の位置を観察し、また、被験者の眼が(ビデオ・ウィンドウ468を使用して)アイ・トラッカーによって識別されているということを確認するためのものである。ビデ
オ・ウィンドウ466は、被験者のビデオ・フィードを示しており、固視ターゲットが被験者の位置に対して表示されることとなる場所を描写する。ビデオ・ウィンドウ468は、被験者の眼がアイ・トラッカーによって識別されたか否かを示し、現在の位置レーティングに関するフィードバック(エレメント468aおよび468b)を提供する。いくつかの実施形態では、位置レーティングは、素晴らしい位置、適度な位置、または不十分な位置を表すために色分けされている。
ステップ310において、アイ・トラッキング・システムは、被験者に対してキャリブレートされる。オペレータは、カメラ・フィードを介して、被験者の一定の視覚モニタリングを維持する。特定の実施形態では、固視ターゲットとも呼ばれるキャリブレーション・ターゲットが被験者に提示されるとき、オペレータおよびアイ・トラッキング・ユニット(たとえば、図2のアイ・トラッキング・ユニット104)の両方が、被験者が注視していることを確認する。ターゲットは、反射的に被験者の注意を引き付け、既知のターゲット場所に向かう衝動性眼球運動(saccade)、および、既知のターゲット場所の上の固視を結果として生じさせる。ターゲットは、有限の場所、たとえば、0.5度未満の視角に広がる半径方向に対称のターゲットへの固視を信頼性高く誘導する。他の例は、同心円状のパターン、形状、または縮小する刺激を含み、それは、初期にはサイズがより大きい場合でも、固着されているターゲット場所への固視を信頼性高く誘導する。図5Dに示されているように、ディスプレイ・スクリーン400dは、ビデオ・ウィンドウ440を含み、ビデオ・ウィンドウ440は、オペレータが被験者の一定の視覚モニタリングを維持しているということを示しており、被験者は、ウィンドウ420中のカメラ・フィードを介してモニタリングされている。ウィンドウ420中のカメラ・フィードの上に重ね合わせられているのは、キャリブレーション・ターゲット、または固視ターゲットの場所であり、それは、被験者に順々に提示される。オペレータは、ビデオ・ウィンドウ420を見ることによって、被験者が表示されたターゲットを注視しているということを視覚的に確認することが可能であり、次いで、入力デバイスを使用して、観察された固視を手動で示すことが可能である。ビデオ・ウィンドウ430は、アイ・トラッキング機器からの情報を描写するフィードの上に重ね合わせられるターゲットを有している。任意の適切なアイコンが、キャリブレーション・ターゲットまたは固視ターゲットとして使用されることが可能であり、ターゲットは、静的であっても、動的であってもよい。たとえば、図5Eのディスプレイ400eに示されているように、バーナー・バー410からの「アニメーション」ボタンの選択は、固視ターゲットとして使用され得る可能性のあるアニメーションのリストの表示を結果として生じさせる。動的な、または、アニメが使われる固視ターゲットは、言葉による媒介、または、オペレータによる指示の必要性なしに、被験者による外因性の(exogenous)キューイング(cueing)を反射的に引き起こすことが可能である。たとえば、ターゲット自身が被験者の注意を引き付けるので、オペレータは、動的なターゲットを見るように指示を与える必要がない。
ステップ312において、連続的な(x、y)注視座標が、アイ・トラッキング機器(たとえば、図2のアイ・トラッキング・デバイス104)から出力される。キャリブレーション・ターゲットに向けられる十分な数の固視が登録された後で、(x、y)注視位置座標の連続的なストリームが、たとえば、120Hzで、または、任意の他の適切なレートで出力される。図5Fに示されているように、ディスプレイ400fは、アイ・トラッキング・ビデオ・ウィンドウ440の中に注視位置座標442を含む。被験者は、(刺激の表示の前、間、または後に)ディスプレイ・デバイスを見続けるので、アイ・トラッキング機器は、後のデータ処理および分析のために、連続的な注視位置座標を出力する。
収集されたアイ・トラッキング・データの精度は、視覚刺激の提示を介して評価されることが可能であり、視覚刺激は、反射的に注意を引き付け、既知のターゲット場所に向かう衝動性眼球運動、および、既知のターゲット場所の上の固視を結果として生じさせる。
ターゲットは、有限の場所、たとえば、0.5度未満の視角に広がる半径方向に対称のターゲットへの固視を信頼性高く誘導する。他の例は、同心円状のパターン、形状、または縮小する刺激を含み、それは、初期にはサイズがより大きい場合でも、固着されているターゲット場所への固視を信頼性高く誘導する。そのような刺激は、ヘッド・レストレイントを伴うデータ収集の下でテストされることが可能であり、それらが、理想的な検査環境の下で固視を信頼性高く誘導することを確実にし、次いで、それらの使用は、頭部を拘束されていないデータ収集を含むように拡大させられることが可能である。
収集されたデータが正確であるということを確実にするために、ステップ314において、アイ・トラッキング・キャリブレーションが検証される。このステップは、初期のキャリブレーションの直後に行われることが可能であり、または、このステップは、刺激が被験者に提示された後に(たとえば、いくつかの映画が示された後に)行われることが可能である。いくつかの実施形態では、追加的な固視ターゲットが被験者に示され、出力されたアイ・トラッキング・データが、データ精度を評価するために、既知のターゲット場所と比較される。データ品質が十分でない場合には、ソフトウェア・アプリケーションは、再キャリブレートするようにオペレータに命令することが可能である。たとえば、図5Gのディスプレイ400gに示されているように、(5つのうちの)3つ未満のターゲットが検証されており、オペレータは、2点キャリブレーションを試みるように命令されるか、または、セッションを終了させるように命令される。図5Hの例示目的のディスプレイ400hに示されているように、5つのうちの4つのターゲットが検証されており、オペレータは、残りの点を検証するように試みるように命令されるか、または、刺激の表示を進める(または、継続する)ように命令される。図5Iの例示目的のディスプレイ400iに示されているように、5つのうちの5つのターゲットが検証されており、オペレータは、データ収集を進めるように命令される。任意の適切な数のターゲットが、表示されることが可能であり、また、アイ・トラッキング・デバイスのキャリブレーションおよび/または検証のために使用されることが可能であるということが理解されることとなる。たとえば、いくつかの実施形態では、2点キャリブレーションおよび検証が、信頼性の高いアイ・トラッキング・データの収集のために使用されることが可能である。
ステップ316において、刺激が被験者に示され、注視座標ストリームが記録される。特定の実施形態では、注視座標ストリームは、所与の周波数(たとえば、60Hz、120Hz、512Hz、1000Hz、または、任意の他の適切な周波数)でサンプリングされたデータを含み、それは、所与の時間の期間(たとえば、視覚刺激の持続時間)にわたって、ディスプレイ(たとえば、図2のディスプレイ103)に対する被験者の瞬間的な注視位置座標を示す。(ステップ314において)成功した検証に続いて、刺激(たとえば、共通の二者のおよび三者の社会的相互作用を描写する映画)が、被験者に提示される。注視位置座標が、刺激提示に関連付けされて一時的に記録される。たとえば、図5Jのディスプレイ400jに示されているように、ウィンドウ470は、被験者に表示される現在の「アクティブ映画」および「次の映画」を示している。別のウィンドウ472は、現在のセッションについての情報を有しており、それは、進捗度472a、経過時間472b、示されている映画の数472c、および、検証される点の数472dを含む。以前に記載されているように、コンテキスト・ボタン450は、先のディスプレイに表示されたものとは異なり、また、次の映画にスキップするというオプション、および、次のキャリブレーション・チェックまでの映画の数を示すというオプションを、オペレータに与える。ステップ314に関して上記に議論されているように、アイ・トラッキング・キャリブレーションの検証は、初期のキャリブレーションの直後に行われることが可能であり、および/または、検証は、刺激が被験者に提示された後に行われることが可能である。図5Kのディスプレイ400kにおいて、キャリブレーション・チェックは、刺激が被験者に提示された後に(このケースでは、9つの映画が示された後に)行われる。図5Fに関して上記に議論されているものと同様のウィンドウを含むオーバーレイ480が表示さ
れている。コンテキスト・ボタン450は、現在のアクティブ・ターゲットが「右上」ターゲットであるということを示している。
ステップ318において、十分なデータが収集されたとき、または、(たとえば、被験者が小さい子供たち、幼児、および乳児であることが多いということを考えると、)被験者がぐずるようになった場合、もしくは、そうでなければ非協力的になった場合には、セッションが終了される。プロシージャの終了のための理由は、記録されることが可能であり、オペレータは、被験者を除去するように(または、被験者の介護者に被験者を除去させるように)命令される。図5Lのディスプレイ400lに示されているように、オーバーレイ490が生成され、それは、オペレータにいくつかの質問をし、それは、セッションの終了の理由、および、セッションの間の様々な事象に関するランキングを備える質問表を含む。また、示されているのは、現在のセッションに関する様々な統計の概要492であり、それは、データ要件が満たされるパーセンテージ、経過時間、示されている映画、示されるキャリブレーション・チェック、および、検証されるキャリブレーション・ターゲットの数を含む。セッションに関連する任意の他の適切なメトリクスが表示されることが可能である。
特定の実施形態によれば、本明細書で説明されているシステム、デバイス、および方法は、所与のセッションの間にするべきことについて被験者に指示するために、言葉による媒介を必要としない。すなわち、アイ・トラッキング・システムは、意味のあるデータを収集するためにディレクションにしたがうことができる従順な人を必要としない。言葉による媒介なしに、意味のあるデータを記録するために、システム、デバイス、および方法は、(キャリブレーションのために、キャリブレーションの検証のために、または、他の視覚刺激の表示のために)視覚注意の反射的なまたは外因性のキューイングに頼り、また、自然的な刺激(たとえば、現実世界の社会的相互作用のビデオ・シーン)または準自然的な刺激(たとえば、ビデオ・アニメーション)を使用し、データを収集し、最終的に診断を与えることが可能である。被験者がディレクションにしたがわない、またはしたがうことができない場合でも、刺激(たとえば、ビデオ)が、被験者の注意を自然に集め、意味のあるデータが記録され得るので、自然的なおよび準自然的な刺激は効果的である。したがって、被験者は、収集されることとなるそのアイ・トラッキング・データに関して、アイ・トラッキング・データが収集されているということを知っている必要はない。
本開示の実施形態に従ってキャリブレーションが行われることができるいくつかの方式が存在している。図6は、特定の実施形態に従ってアイ・トラッキング・データをキャリブレートするためのコンピュータ実装機能を備えるフローチャートを示している。適正なキャリブレーションが、(たとえば、年齢に起因して、または、機能の認知レベルに起因して)言語指示にしたがうことができない被験者から得られることが可能である。プロセス500は、被験者の注意を引くためにいつ刺激を示すかということを判定する権限をオペレータが持つことを可能にする。したがって、本開示のアイ・トラッキング・システム、デバイス、および方法は、これらの集団に効果的である。その理由は、所定の持続時間およびタイミングを備えるように見える1セットのターゲット刺激に被験者がしたがう場合に限り(いくつかの実施形態では、キャリブレーションはこのように得られることが可能であるが)、そのようなオペレータの権限に基づいて、キャリブレーションが得られる必要がないからである。いくつかの実施形態では、プロセス500のキャリブレーション・ステップは、図4のステップ310の一部として行われることが可能である。
キャリブレーション・プロセス500をスタートさせると、脱感作(desensitization)映画が、ステップ510において、被験者のために表示される。データは、一般的に、脱感作映画の表示の間に記録されず、その代わりに、映画は、被験者の注意を集めるために表示される。映画は、言葉による媒介、または、オペレータによる指示
の必要性なしに、被験者による外因性のキューイングを反射的に引き起こすことが可能である。たとえば、映画自身が被験者の注意を引き付けるので、オペレータは、ディスプレイ・デバイス(たとえば、図2のディスプレイ・デバイス103)を見るように指示を与える必要がない。被験者が注意を払っているときに、ステップ520において、キャリブレーション・ターゲットまたは固視ターゲットが表示される。キャリブレーション・ターゲットまたは固視ターゲットは、被験者の注意を反射的に引き付け、既知のターゲット場所に向かう衝動性眼球運動、および、既知のターゲット場所の上の固視を結果として生じさせる。ターゲットは、有限の場所、たとえば、0.5度未満の視角に広がる半径方向に対称のターゲットへの固視を信頼性高く誘導する。他の例は、同心円状のパターン、形状、または縮小する刺激を含み、それは、初期にはサイズがより大きい場合でも、固着されているターゲット場所への固視を信頼性高く誘導する。
被験者が、ターゲットを見ているものとして、オペレータによって観察されるときには(ステップ522)、オペレータは、入力デバイスを使用して(たとえば、「点の承認」ボタンを押すことによって)、観察されている固視を手動で示す(ステップ524)。被験者がターゲットを見ていない場合には、オペレータは、ターゲットを表示し続けることが可能であり、または、別の脱感作映画の表示を引き起こす。特定の実施形態では、被験者がキャリブレーション・ターゲットを見ているということをオペレータが手動で承認するというよりも、または、それに加えて、デバイス(たとえば、デバイス100)は、被験者がターゲットを見ているということを自動的に判定する(たとえば、ターゲットの周りの所定の空間的領域における注視を識別する)ことができるソフトウェアまたは他のロジックを含む。ステップ530において、アイ・トラッカー(たとえば、図2のアイ・トラッキング・デバイス104)は、固視が検出されているか否かを判定する。固視が検出されない場合には、オペレータは、ターゲットの継続的な表示を可能にし、ターゲットを再び承認するように試みることが可能であり、または、プロセス500は、ステップ510に戻るように方向付けされることが可能であり、脱感作映画が、被験者のために再び表示される。固視が検出される場合には、ステップ540において、すべての点がキャリブレートされたか否かが判定される。任意の適切な数の点が、本開示のキャリブレーション・ステップの中で使用されることが可能である。好ましくは、少なくとも2つの点がキャリブレートされるが、追加的な点(たとえば、5つ)、または、それよりも少ない点(たとえば、点がないことを含む)が使用されることも可能である。すべての点がキャリブレートされていない場合には、プロセスは、ステップ510において脱感作映画を最初に示すことによって、ステップ550において、次のキャリブレートされていないターゲットを示す準備をする。ステップ540においてすべての点がキャリブレートされた場合には、プロセスは、ステップ560に続き、ステップ560において、キャリブレートされた点が検証される。
図7は、特定の実施形態による、アイ・トラッキング・データを検証するためのコンピュータ実装機能を備えるフローチャートを示している。図6に概説されているプロセス500と同様に、オペレータは、被験者の注意を引くためにいつ刺激を示すかということを判定する権限を有することが可能である。被験者がターゲットを見ているということをオペレータがソフトウェアに知らせると、その時間から記録された注視座標情報が計算され、表示されているターゲットの実際の場所と比較される。種々のレベルの成功(たとえば、検証される点の数)を伴う初期の検証は、(1)アイ・トラッカーを再キャリブレートするということ、(2)検証されることができなかったそれらのターゲットを再検証するということ、または、(3)キャリブレーションを承認し、データ収集ソフトウェアの「刺激を示し、注視座標ストリームを記録する」という状態を継続する(たとえば、図4のステップ316)ということを、オペレータに自動的に命令することとなる。キャリブレーションと同様に、本システム、デバイス、および方法は、ターゲット点および脱感作刺激(たとえば、映画)を示すタイミングにオペレータが権限を有することを可能にすると
いうことが留意されるべきである。いくつかの実施形態では、プロセス570の検証ステップは、図4のステップ314の一部として行われることが可能である。
検証プロセス570は、キャリブレーション・プロセス500のステップ560の後に開始することが可能である。しかし、いくつかの実施形態では、検証プロセス570は、データ収集の過程の間にデータ精度を評価するために刺激(たとえば、映画)が被験者に表示された後に、(1回または複数回)行われることが可能である。ステップ580において、脱感作映画が、被験者に表示される。データは、一般的に、脱感作映画の表示の間に記録されず、その代わりに、映画は、被験者の注意を集めるために表示される。映画は、言葉による媒介、または、オペレータによる指示の必要性なしに、被験者による外因性のキューイングを反射的に引き起こすことが可能である。たとえば、映画自身が被験者の注意を引き付けるので、オペレータは、ディスプレイ・デバイス(たとえば、図2のディスプレイ・デバイス103)を見るように指示を与える必要がない。被験者が注意を払っているときに、ステップ590において、キャリブレーション・ターゲットまたは固視ターゲットが表示され、被験者の注視位置座標に関連するデータが記録される。キャリブレーション・ターゲットまたは固視ターゲットは、被験者の注意を反射的に引き付け、既知のターゲット場所に向かう衝動性眼球運動、および、既知のターゲット場所の上の固視を結果として生じさせる。ターゲットは、有限の場所、たとえば、0.5度未満の視角に広がる半径方向に対称のターゲットへの固視を信頼性高く誘導する。他の例は、同心円状のパターン、形状、または縮小する刺激を含み、それは、初期にはサイズがより大きい場合でも、固着されているターゲット場所への固視を信頼性高く誘導する。
被験者が、ターゲットを見ているものとして、オペレータによって観察されるときには(ステップ592)、オペレータは、入力デバイスを使用して(たとえば、「点の承認」ボタンを押すことによって)、観察されている固視を手動で示す(ステップ594)。被験者がターゲットを見ていない場合には、オペレータは、ターゲットを表示し続けることが可能であり、または、別の脱感作映画の表示を引き起こす。特定の実施形態では、被験者がキャリブレーション・ターゲットを見ているということをオペレータが手動で承認するというよりも、または、それに加えて、デバイス(たとえば、デバイス100)は、被験者がターゲットを見ているということを自動的に判定する(たとえば、ターゲットの周りの所定の空間的領域における注視を識別する)ことができるソフトウェアまたは他のロジックを含む。ステップ600において、アイ・トラッカー(たとえば、図2のアイ・トラッキング・デバイス104)は、固視が検出されているか否かを判定する。固視が検出されない場合には、オペレータは、ターゲットの継続的な表示を可能にし、ターゲットを再び承認するように試みることが可能であり、または、プロセス570は、ステップ580に戻るように方向付けされることが可能であり、脱感作映画が、被験者のために再び表示される。固視が検出される場合には、ステップ610において、固視に関して固視場所が計算され、ステップ620において、固視が、ターゲットに関して、既知の場所座標の特定の近接度閾値内に入るか否かが判定される。ステップ630において、固視が特定の近接度閾値内にない場合には、固視は検証点として拒絶される。そうでなければ、ステップ630において、固視が特定の近接度閾値内にある場合には、固視は検証点として承認される。
固視の承認または拒絶に続いて、ステップ640において、すべての利用可能な点(キャリブレートされた点の数に対応する)が示されたか否かが判定される。すべての点が示されていない場合には、プロセスは、ステップ510において脱感作映画を最初に示すことによって、ステップ650において、次のターゲットを示す準備をする。すべての点が示された場合には、プロセスは、ステップ660に続き、ステップ660において、3つまたは4つの検証点が承認されたか否かが判定される。肯定的であるとき、プロセスは、ステップ650において追加的な点を示すために繰り返す。3つ未満の検証点が承認され
た場合には(ステップ670)、システムは、ステップ680においてキャリブレーションをクリアし、キャリブレーション・プロセス(たとえば、図6のプロセス500)に戻る。残る唯一の選択肢は、ステップ690において、すべての5つの検証点が承認されたということを示すということである。このステップにおいて、検証プロセス570は終了する。先述の議論は、5つのキャリブレーション点が検証されているということを仮定している。いくつかの実施形態では、5つのうちの4つだけ、または、場合によっては5つのうちの3つのキャリブレーション点が承認される場合に、検証は承認可能であり得る。そのうえ、任意の適切な数のキャリブレーション点が使用されることが可能であり、それは、いくつかの実施形態では、ゼロキャリブレーション点を含むということ、および、検証プロセス570(とりわけ、ステップ660、670、690)が、それに従って更新されることが可能であるということが認識されることとなる。
上記に議論されているキャリブレーション・プロセスおよび検証プロセスの両方において、アイ・トラッカーが固視を検出するか否かを判定するためのステップ(ステップ530および600)が含まれている。図8は、特定の実施形態による、可能性のあるキャリブレーション点が固視を含むか否かを検出するためのコンピュータ実装機能を備えるフローチャートを示している。いくつかの実施形態では、プロセス700のステップが、図6のステップ530および/または図7のステップ600の一部として行われることが可能である。オペレータが観察されている固視を示した後に、システムは、プロセス700のステップを使用して、その示された固視を確認または否定することが可能である。アイ・トラッキング・データ収集ソフトウェアは、観察される固視がオペレータによって示された時間に、または、その時間の近くで記録されたデータにおける注視位置座標が、ターゲットの上に固視を実際に示すか否かを判定する。場合によっては、オペレータが固視を観察する時間、および、固視が実際に起こる時間の中に、遅れが存在する可能性がある。したがって、アイ・トラッキング・データ収集ソフトウェアおよび/またはアイ・トラッキング・デバイスは、オペレータが観察された固視を示した時間において、またはその時間の近くで、時間の範囲を考慮することが可能である。たとえば、2秒のウィンドウが、観察された固視に対して分析されることが可能である(観察された固視の時間の前に1秒、および、その時間の後に1秒)。そのウィンドウの間に固視が存在しない場合には、データ点は、固視を含まないということが判定され、キャリブレーションおよび/または検証目的に関して拒絶されることが可能である。そのウィンドウの中に固視が存在している場合には、データ点は、固視を含むということが判定され、キャリブレーションおよび/または検証目的に関して承認されることが可能である。
ステップ710において、アイ・トラッカーは、被験者の眼が識別されているか否かを判定する。眼が識別されていない場合には、データ点は、ステップ720において、固視を含まないということが判定され、キャリブレーションおよび/または検証目的に関して拒絶されることが可能である。眼が識別されていない場合には、次いで、ステップ730において、眼がアイ・トラッキング・デバイスから適正な距離にあるか否かが判定される。任意の適切な距離は、被験者からデータを収集するために使用されることが可能であり、いくつかの実施形態では、適正な距離は、特定の被験者(たとえば、年齢)またはアイ・トラッカー・デバイス自身の1つまたは複数の属性に依存し得る。眼がアイ・トラッカーから適正な距離にない場合には、データ点は、ステップ720において、固視を含まないということが判定され、キャリブレーションおよび/または検証目的に関して拒絶されることが可能である。眼が適正な距離にある場合には、次いで、ステップ740において、眼球運動が安定した固視を示すか否かが判定される。たとえば、データが固視を含む場合でも、衝動性眼球運動、滑動性眼球運動(smooth pursuit)、またはまばたきのいずれかが、分析されている時間ウィンドウの中に存在する可能性もある。そのような眼球運動(たとえば、衝動性眼球運動、滑動性眼球運動、まばたきなど)が存在する場合には、データは、キャリブレーションまたは検証の目的に関して、望ましくない可
能性がある。ステップ740において安定した固視を検出するために、様々な技法が用いられることが可能である。いくつかの実施形態では、眼球運動が、所与の持続時間にわたって、所与の速度または加速度よりも小さい場合に、固視のインジケーションが起こることが可能である。たとえば、眼球運動が約100ms以上にわたって約5度/秒よりも小さいときに、固視のインジケーションが起こることが可能である。任意の他の適切な事象が、安定した固視の発生を判定するために規定され得るということが理解されることとなる。その事象が起こらない場合には、データ点は、ステップ720において固視を含まないことが判定され、キャリブレーションおよび/または検証目的に関して拒絶されることが可能である。その事象が起こる場合には、次いで、ステップ750において、データ点は、固視を含むことが判定され、キャリブレーションおよび/または検証目的に関して承認されることが可能である。
データ収集セッションの間に行われるキャリブレーション・データの検証およびエラー・チェッキングに加えて、キャリブレーション・データの検証およびエラー・チェッキングは、所与のセッションが完了した後にも起こることが可能である。アイ・トラッキング・データの精度は、後続の分析の有効性を制限する可能性のある特徴である。精度は、なかでも、初期の被験者キャリブレーション(典型的に、データ収集セッションのスタートのときに行われる)の精度、データ収集の期間の全体を通して起こる可能性がある任意の頭部の運動、ならびに、自然のおよび予期される被験者間のデータ品質および精度の変化に依存する。頭部の運動が拘束されている場合には、初期のキャリブレーションの精度は、維持されることが可能である。好ましいことであるように、頭部の運動が拘束されていない場合には、精度は、データ収集セッションの間に変化する傾向がある(たとえば、ゆがんだデータ点、または、初期のキャリブレーションの精度におけるドリフトは、データ収集セッションの間の頭部の運動の結果として起こる可能性がある)。収集されたアイ・トラッキング・データにおける空間的な不正確さを評価および訂正するためのアルゴリズムが、図9および図10を参照して以下に議論されている。このアルゴリズムは、検査プロシージャにおける再キャリブレーション事例の間の代表的な固視点を利用する。そのような代表的な固視点は、次いで、ゆがんだデータ点を訂正するために、事後の(すなわち、検査プロシージャの後の)変換において使用されることが可能である。いくつかの実施形態では、変換は、データが収集されるときに、リアルタイムで起こることが可能である。図は、特定の実施形態による、コンピュータ実装機能および基準に基づく、キャリブレーション不正確さの評価および訂正の代表的な像を示している。
収集されたアイ・トラッキング・データの精度は、上記に議論されているように、視覚刺激の提示を介して評価されることが可能であり、視覚刺激は、反射的に注意を引き付け、既知のターゲット場所に向かう衝動性眼球運動、および、既知のターゲット場所の上の固視を結果として生じさせる。ターゲットは、有限の場所、たとえば、0.5度未満の視角に広がる半径方向に対称のターゲットへの固視を信頼性高く誘導する。他の例は、同心円状のパターン、形状、または縮小する刺激を含み、それは、初期にはサイズがより大きい場合でも、固着されているターゲット場所への固視を信頼性高く誘導する。そのような刺激は、ヘッド・レストレイントを伴うデータ収集の下でテストされることが可能であり、それらが、理想的な検査環境の下で固視を信頼性高く誘導することを確実にし、次いで、それらの使用は、頭部を拘束されていないデータ収集を含むように拡大させられることが可能である。
いくつかの実施形態では、収集されたアイ・トラッキング・データの精度の数値的評価は、以下のステップ:(1)視覚的ディスプレイ・ユニットの小さい領域への固視を信頼性高く誘導する固視ターゲットを提示すること、(2)ターゲット提示の全体を通してアイ・トラッキング・データを記録すること、(3)収集されたアイ・トラッキング・データにおける固視を識別すること、(4)固視場所座標とターゲット場所座標との間に差を
計算すること、(5)1つ程度の少ないターゲットに関して、または、可能性な限り多くのターゲット(典型的に5つまたは9つであるが、それよりも多いことが可能である)に関して、ベクトル・データ(方向および大きさ)として、固視場所座標とターゲット場所座標との間の計算された差を記憶すること、ならびに、(6)それに限定されないが、(a)トリリニア補間、(b)重心座標の線形補間、(c)アフィン変換、および(d)区分多項式変換を含むアプローチによって、固視場所座標を実際のターゲット場所座標に整合させるために、空間的な変形を適用することを含むことが可能である。
図9に示されているように、記録されたアイ・トラッキング・データ810は、ファイル820(または、複数のファイル)に出力され、ファイル820は、アイ・トラッキング・データ、および、刺激に関連する情報(たとえば、被験者によって見られている映画のリスト)を含有する。収集された生のデータは、像分解能に相当する軸830a、830bを備えるディスプレイ830として、図の中に視覚的に描写される(この分解能は、ディスプレイ・スクリーンの実際の分解能であることが可能であり、または、処理時間を低減させるために、低減された分解能であることが可能である)。ディスプレイ830の中に見られ得るように、生のデータは、特定の固視場所座標(たとえば、点832)が、互いに概して一致しているが、それらのそれぞれの既知のターゲット位置座標(たとえば、ターゲット834)からオフセットされていることを示す。ディスプレイ840は、固視場所座標832’をターゲット場所座標834に整合させるための空間的な変形の結果を示している。変形についてのさらなる詳細が、図10のディスプレイ850の進行の中に示されている。第1のディスプレイ860は、固視データが、収集された生のデータから抽出されていることを示している。第2のディスプレイ870は、固視データの中央値が決定されていることを示しており、次いで、第3のディスプレイ880では、固視データの中央値が、それぞれの固視場所閾値と比較される。いくつかの実施形態では、閾値(点884)の外側にある点は無視される。代替的に、または追加的に、そのような点は、それらの近接度に従って、確率論的な方式で重み付けがされることが可能であり、固着されている閾値に依存することなく(または、固着されている閾値に依存することに加えて)、重み付けがされた中心傾向(たとえば、中央値)の推定値を計算するようになっている。いくつかの実施形態では、閾値の中にある点(点882)は、承認可能な点として使用され、ディスプレイ890に示されている結果にデータを変換する。ASDおよび他の発達状況または認知状況の検出の精度は、開示されているデバイスにおいてアイ・トラッキング・ユニットから受信されるアイ・トラッキング・データの精度に依存するということが理解および認識されることとなる。
ここで図1に戻ると、データ収集システム20によってデータが収集された後に、そのデータは、データ・ストレージ・システム30に転送され、データ・ストレージ・システム30は、被験者マッチングを備えるセキュア・データベース35を含む。データベースは、好ましくは、デバイス100から遠隔にあり、多くのデバイスから収集されたデータを収容および集約するが、いくつかの実施形態では、データベースはデバイスにローカル接続され得るということが認識されることとなる。データ収集が完了すると、データは、(たとえば、1時間ごとにまたは夜ごとになど、定期的に、)セキュア・ネットワーク接続を介して、手動でまたは自動的に、オンライン・データベースに転送される。データがオンライン・データベースにおいて受信された後に、データは分析される。一般的に、分析は、1つの特定の被験者の挙動を、アイ・トラッキングされながら同様の映画を見ていた他の被験者の挙動と比較することを伴う。特定の実施形態によれば、データ処理および分析の結果は、被験者がASD症状を有している(または、発達させることとなる)という可能性を示す。いくつかの実施形態では、結果は、規範的な発達の典型性の程度の測定値を示しており、典型的な発達の多様性のインジケーションを提供する。
分析の結果は、一般的に、セキュアなウェブベースのポータルを介して、それぞれの被
験者の医師または他の介護者に送達される。いくつかの実施形態では、オペレータ・ポータルおよび医師ポータルが存在することが可能である。たとえば、オペレータ・ポータルのカスタム・インターフェースは、オペレータが1つまたは複数の電子デバイスを介してデータベースにアクセスするために提供される。いくつかの実施形態では、1つまたは複数の電子デバイスは、レシプロカル・ネットワーク・アクセスを有していない(すなわち、データは、デバイスへ押し出されることだけが可能であり、デバイスから受信されることはできない)。いくつかの実施形態では、このポータルを介して、ユーザは、(a)新しい被験者に関する取り込み情報を入力すること、(b)ユーザ・マニュアルおよびクイック・リファレンス・カードにアクセスすること、および、(c)そのデバイスでの過去の被験者の経験についての情報(たとえば、以前のセッションについての注目点など)にアクセスすることが可能である。生のデータが処理されると、医師ポータルは、医師が被験者のテストの結果にアクセスすることを可能にする。ポータルは、通常、インターネット接続可能なデバイスからアクセス可能である。
図11は、本開示の特定の実施形態による、(たとえば、図1のデータ収集システム20から)収集されたデータを転送するためのシステム900のブロック図を示している。システム900の配置は、図1のデータ・ストレージ・システム30ならびにデータ処理および分析システム40として具現化されることが可能である。特定の実施形態によれば、処理設備920におけるデータベース930は、集中型のデータ・ストレージを提供しており、データ収集システム20、ならびに、データ処理および分析システム40などのような、他のコンポーネントとインターフェース接続し、一般的に、デバイスを使用するデバイス・オペレータならびに医師および/または専門家の両方に、被験者特有の情報を提供する。データ・ストレージ・システム30は、データ処理および分析システム40から遠隔にあることが可能であり、または、2つのシステムが、同じコンピューティング・システムの一部であることが可能である。たとえば、図9に示されているように、処理設備920は、データ・ストレージ930、ならびに、データ処理および分析935システムの両方を含む。
いくつかの実施形態では、データベースは、SQLサーバであり、任意の適切なプログラミング言語(たとえば、Python、Matlab)によって書かれたツールとペアにされ、URLベースのインターフェース、および、データベースへの質問を可能にする。追加的に、データベースは、データ収集システムからデータベースへ、および、データベースから中央処理コンピュータへ、データを転送するために使用されるプログラミング言語(たとえば、Python、Matlab)と互換性があり得る。たとえば、デバイス(たとえば、図1のデバイス100)が医療用設備910に位置付けされている場合では、データ収集はその設備910で起こり、データは、処理設備920のデータベース930と医療用設備910との間で転送される。データベースは、セキュアなHIPAA準拠のものであり、冗長バックアップ・システムによって保護されている。
特定の実施形態では、データベースは、(a)新しい被験者情報の取り込み、(b)生のデータ・ファイル(たとえば、アイ・トラッキング・データを含む)の記憶、(c)データ収集デバイス、データ処理コンピュータ、およびデータベースの間での、自動化されたおよびセキュアなファイルの転送、(d)デバイス利用および他のデータ品質メトリクスを評価する目的のために、データの作表および問い合わせ、ならびに、e)医師による処理の結果へのアクセスを可能にするように設計されている。データベースの例示的な機能は、特定の実施形態による集中型のデータベースを使用するデータ処理および分析ステップのデータ収集を支持するためのフローチャート1000として、図12に描写されている。データ処理のためのデータベースのさらなる機能は、特定の実施形態による収集されたデータを処理するためのフローチャート1050として、図13に描写されている。フローチャートは、生の被験者データを記憶するデータベース、ならびに、データ処理お
よび分析を通して生成されたファイルに関連付けされるソフトウェア・コードの中で実装されるコンピュータ実装機能を描写している。
ステップ1002において、被験者取り込みが行われる。データを収集する前に、オペレータ、または別の訓練されたユーザは、オペレータ・ポータル、または、取り込み情報を入力および見るための任意の他の適切なセキュアなウェブベースのツールを使用して、データベース(たとえば、図1のデータベース35)に被験者を追加することが可能である。ステップ1004において、生のデータが、データベースにアップロードされる。デバイス(たとえば、図1のデバイス100)を使用して、データ収集セッションが完了された後に、2つのファイルが、データベースにアップロードされ、一方は、生のアイ・トラッキング注視位置座標を含有しており、もう一方は、刺激に関連する情報(たとえば、被験者によって見られるそれらの映画のリストまたはプレイ・リスト)を含有している。セッションの試みが成功しなかった場合には、被験者の識別子を備える空のプレイ・リストが、依然として、記録としてアップロードされることが可能である。
ステップ1006において、データが、被験者ファイルに記憶される。アップロードされたデータ(および、プレイ・リスト中の識別子)は、取り込み記録に対してチェックされ、(マッチしている場合には)被験者の記録にリンクさせられる。ミスマッチが存在している場合には、データは、手動の調整のために、エラー・テーブルの中に記憶される。ステップ1008において、データは、データ処理にダウンロードされる。定例の質問は、未だ処理されなければならない生のデータを示し、その生のデータを中央処理コンピュータへ送る。ステップ1010において、データ処理は、生のデータ・ファイルを処理し、次いで分析し、被験者についての診断情報を生み出すことを伴う。特定の実施形態では、3つのファイルが生成され、1つは、処理されたETデータを含有し、1つは、概要アイ・トラッキング統計を含有し、1つは、診断情報を含有している。データ処理のさらなる詳細は、図13のプロセス1050に関して以下に議論されている。ステップ1012において、処理されたファイルが記憶される。ステップ1010における処理を通して生成された3つのファイルは、その後にデータベースにアップロードされ、被験者に関連付けされる。ステップ1014において、データが、セッション・テーブルへと作表される。概要アイ・トラッキング情報(たとえば、固視サンプル/映画など)は、プロセス概要ETファイルから読み取られ、後続の質問のためにデータベースの中に作表される。次いで、概要値(たとえば、固視/映画のパーセンテージなど)が、データベースの中で計算される。
ステップ1016において、結果は、結果表へと作表される。概要診断データは、診断概要処理されたファイルから読み出され、その後に、医師の再検討のために、データベースの中に可視化される。ステップ1018において、データは、質問されることが可能である。データベースは、複数の変数を横切って質問するために、(たとえば、管理的な役割を備えるものに関して)URLベースの問い合わせを可能にする。たとえば、変数は、被験者/デバイス、有害事象などを含むことが可能である。ステップ1020において、医師ポータル(たとえば、ウェブベースのインターフェース)は、医師がテスト結果を見ることを可能にする。事前に書かれた行動方針が、テスト結果に基づいて提供されることが可能である(たとえば、さらなる評価を求める)。本開示のフローチャートのステップは、単に例示目的のものであるということが理解されることとなる。本開示の範囲から逸脱することなく、フローチャートのステップのいずれかが、修正されるか、省略されるか、もしくは再配置されてもよく、ステップの2つ以上が組み合わせられてもよく、または、任意の追加的なステップが加えられてもよい。
上記に述べられているように、図13は、特定の実施形態による、収集されたデータを処理するためのフローチャート1050を示している。ステップ1052において、生の
データが、データベース(たとえば、図1のデータベース35)の中へ読み込まれる。たとえば、任意の適切なプログラミング言語(たとえば、Python、Matlab)で書かれているソフトウェア・スクリプトが、生の処理されていないデータ・ファイルを、処理のために、データベースからコンピュータへ転送するために使用されることが可能である。このコンピュータは、一般的に、入ってくるデータを処理および分析する。2つのファイルが、分析のためのプログラムの中へ読み込まれることが可能であり、一方は、(x、y)注視位置座標を含むアイ・トラッキング・データを含有し、もう一方は、刺激に関連する情報(たとえば、被験者によって見られる映画のリスト)を含有している。関連のある情報は、分離されてビン(bin)に入れられる。ステップ1054において、データは、再サンプリングされ、サンプル同士の間の任意の時間の差異を説明する。データは、任意の適切な補間技法を使用して再サンプリングされる。ステップ1056において、データは、分析のための適当な分解能(たとえば、640x480ピクセル)に転換される。生のデータは、典型的に、処理する(たとえば、640x480ピクセルに縮尺変更される)ために使用されるものよりも高い分解能(たとえば、1024x768ピクセル)で収集される。任意の適切な分解能が、収集されたデータの任意の特定のオリジナルの分解能を含む、データ処理のために使用されることが可能であるということが理解されることとなる。
ステップ1058において、固視、衝動性眼球運動、まばたき、およびオフ・スクリーンのまたは失敗したデータ点が識別される。アルゴリズムは、被験者が注視していた時間、衝動性眼球運動していた時間、まばたきしていた時間、またはスクリーンを見ていなかった時間を自動的に識別する。例示的な実施形態では、データ処理アプリケーションは、Matlabなどのようなプログラミング言語によって書かれた自動実行ファイルであるが、任意の他の適切なプログラミング言語が使用されることも可能である。一般的に、ソフトウェアは、被験者の検査セッションの間に生成される生のファイルから、関連のある情報を抽出し、その情報を使用し、統計的分析を通して診断を引き出す。1つの態様では、プログラムは、基礎的な眼球運動事象(固視、衝動性眼球運動、まばたき、オフ・スクリーンのデータまたは消失データなど)自動的に識別し、また、アイ・トラッキング機器によって出力されるような注視位置推定の収差に関して調節する。たとえば、ステップ1060において、キャリブレーションが訂正される。追加的なキャリブレーション・ターゲットが示された時間からのデータを用いて、注視位置の任意の食い違いが訂正される。いくつかのより大きな食い違いは、後続の分析から特定のデータを除外することが可能である。ステップ1062において、エラー・チェッキングが行われる。(a)被験者が、映画持続時間の20%未満(もしくは、任意の他の適切なパーセンテージ)にわたってスクリーンを注視した場合には、または、(b)映画が、その全体の持続時間にわたって示されなかった場合には、映画からのデータは、後続の分析から除外されることが可能である。ステップ1060およびステップ1062のいずれかまたは両方において、図9および図10に関して上記に議論されているデータ評価および訂正が使用されることが可能である。
ステップ1064において、データ分析が行われる。個々の被験者データが、種々のレベルの社会的機能、認知機能、または発達機能にわたって、被験者(たとえば、乳児および幼児)に関する注視位置の重大な差の事例と比較される。データの分析は、比較によって、社会的機能のレベルを明らかにすることが可能である。この処理ステップの中で、被験者のアイ・トラッキング・データの統計的分析は、被験者がASDを含む発達状況または認知状況と診断されるか否かを判定するために、使用されることが可能である。上記に援用されている米国特許第7,922,670号に以前に開示されているように、処理されたアイ・トラッキング・データは、既存のデータ・モデルと比較され、発達状況または認知状況のレベルを決定する。次いで、生成されたスコアは、所定のカットオフまたは他の値と比較され、被験者のASDの診断、および、状況の重症度のレベルを決定する。
ステップ1066において、集計が行われる。注視位置座標は、示されている映画のそれぞれのフレームにわたって、所定の関心領域と比較される。ステップ1068において、関連のある統計が要約される。それぞれの映画に関する概要統計が記録され、それは、スクリーンおよびそれぞれの関心領域に対する固視の時間、ならびに、衝動性眼球運動すること、まばたきすること、またはそうでなければ、スクリーンに関わらないことに費やされた時間を含む。また、社会的機能分析の結果が要約される。最後に、ステップ1070において、処理されたデータが、データベースに転送されて戻される。2つのファイルが、データベースに転送されて戻され、1つは、概要統計を含有し、1つは、処理および分析のそれぞれのステップのトラッキングによって、ビン(bin)に入れられた情報を含有している。ステップ1052において上記に議論されている生のデータ・ダウンロード・スクリプトと同様に、任意の適切なスクリプトが、処理されたデータ・ファイルのすべてを転送してデータベースに戻すために使用されることが可能である。以前に議論されたように、処理の診断結果は、医師ポータルを介してアクセスされることが可能である。本開示のフローチャートのステップは、単に例示目的のものであるということが理解されることとなる。本開示の範囲から逸脱することなく、フローチャートのステップのいずれかが、修正されるか、省略されるか、もしくは再配置されてもよく、ステップの2つ以上が組み合わせられてもよく、または、任意の追加的なステップが加えられてもよい。
診断結果または処方結果は、データ処理および分析に基づいて、任意の適切な様式で、医師または他の介護者に提示されることが可能である。たとえば、図14は、特定の実施形態による、データ処理および分析を送達するために使用される、図11のシステム900のブロック図を示している。システム900のこの配置は、医療用設備910と、処理設備920のデータベース930とを含む。処理設備920は、データベース930の全体を通して、示されているような診断レポート結果シート940を送達することが可能である。レポート940は、データ収集に関連している書誌的なおよび他の関連のある情報950と、診断スコアとして描写されているテスト結果960と、コメントおよび提案970とを含む。診断結果または処方結果を医師または他の介護者に提供するために、任意の適切なフォーマットが使用されることが可能であるということが理解されることとなる。いくつかの実施形態では、デバイスは、プリンターを設けられ、テスト結果を直接的に送達することが可能である。
たとえば、ここで図15を参照すると、他の発達プロファイルまたは認知プロファイルに対する被験者の発達進行または認知進行の、コンピュータ生成されたデータ表現が示されている。診断成長チャート1100は、典型的に発達した被験者、および、ASDを有することが知られている被験者に関する歴史的な規範(historic norms)と比較されたときの、いくつかの例示目的の被験者の社会的発達を示している。たとえば、チャート1110(a)および1120(a)は、単一のデータ点1110に基づいて、または、長い時間をかけてとられた複数のデータ点1120に基づいて、ASDを有する者に対する典型的な発達を示す被験者に関する。チャート1110(b)および1120(b)は、単一のデータ点1110に基づいて、または、長い時間をかけてとられた複数のデータ点1120に基づいて、様々なレベルのASDを示す被験者に関する。
先述の議論に基づいて、本明細書で開示されているシステム、デバイス、および方法は、デジタル電子的な回路の中で、コンピュータ・ハードウェア、ファームウェア、ソフトウェアの中で、または、それらの組合せの中で、実装されることが可能であるということが理解されることとなる。本開示の装置は、プログラマブル・プロセッサーによって実行するために、非一時的な機械可読の、または非一時的なコンピュータ可読のストレージ・デバイスの中に有形に具現化されるコンピュータ・プログラム製品の中に実装されることが可能である。本開示の方法またはプロセス・ステップは、命令のプログラムを実行する
プログラマブル・プロセッサーによって行われ、入力データに基づいて動作させることによって、および、出力データを生成することによって、本開示の機能を行うことが可能である。システム、デバイス、および方法は、プログラマブルシステムの中で実行可能な1つまたはいくつかのコンピュータ・プログラムを使用して実装されることが可能であり、それは、ストレージ・システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスから、データをそれぞれ受信し、また、それらへデータをそれぞれ送信するように連結されている少なくとも1つのプログラマブル・プロセッサーを含む。コンピュータ・プログラムは、高水準のまたはオブジェクト指向のプログラミング言語で、および/または、アッセンブリ・コードもしくはマシン・コードで、または任意の他の適切な言語もしくはコードで、実装されることが可能である。言語またはコードは、コンパイラ型またはインタープリタ型の言語またはコードであることが可能である。プロセッサーは、汎用マイクロプロセッサーおよび専用マイクロプロセッサーを含むことが可能である。プロセッサーは、メモリから命令およびデータを受信する。コンピュータ・プログラム命令およびデータを有形に具体化するのに適切なストレージ・デバイスは、不揮発性のメモリの形態を含み、それは、例として、EPROM、EEPROM、およびフラッシュ・メモリ・デバイスなどのような半導体メモリ・デバイス;内部ハード・ディスクおよびリムーバブル・ディスクなどのような磁気ディスク;光磁気ディスク;ならびにコンパクト・ディスクを含む。先述のもののいずれかは、ASIC(特定用途向け集積回路)によって補充され、または、ASIC(特定用途向け集積回路)の中に組み込まれることが可能である。
先述のものは、単に、本開示の原理の例示目的のものであり、システム、デバイス、および方法は、説明されている実施形態以外のものによって実用化されることが可能であり、それは、例示の目的のために、および、限定でない目的のために提示されている。実施形態および特徴は、自閉症スペクトラム障害(ASD)の評価、スクリーニング、モニタリング、または診断のために、被験者からアイ・トラッキング・データを収集および分析することと関係して、本明細書で具体的に説明されているが、システム、デバイス、および方法は、他の発達障害または認知障害、および、他の状況に適用することも可能であり、それは、それに限定されないが、言語障害、知的障害、公知の遺伝的障害の存在のある発達の障害または公知の遺伝的障害の存在のない発達の障害、ならびに、注意欠陥性多動性障害(ADHD)、注意欠陥障害(ADD)、心的外傷後ストレス障害(PTSD)、頭部外傷、脳震とう、スポーツ損傷、および認知症を含むということが理解されることとなる。そのようなデータは、障害に関する測定値を示していない場合には、規範的な発達の典型性の程度の測定値を提供し、典型的な発達の多様性のインジケーションを提供することが可能であるということが理解されることとなる。さらに、以下に概説されているコンポーネントおよび他の特徴のすべては、任意の適切な様式で、互いに組み合わせられることが可能であり、また、医療診断の外側のシステムに適合および適用されることが可能である。たとえば、本開示のインタラクティブな視覚刺激は、治療ツールとして使用されることが可能である。さらに、収集されたデータは、被験者が優先的に注意を払う特定のタイプの視覚刺激の測定値を生み出すことが可能である。そのような優先性の測定値は、医療診断および治療の分野における用途、および、医療診断および治療の分野でない用途の両方を有し、それは、たとえば、視覚刺激優先性に関連するデータが関心のものである広告業界または他の産業を含む。
本開示を再検討した後に、変形例および修正例が、当業者に思い付くこととなる。開示されている特徴は、任意の組合せおよびサブコンビネーションで(複数の従属的な組合せおよびサブコンビネーションを含む)、本明細書で説明されている1つまたは複数の他の特徴とともに実装されることが可能である。上記に説明または図示されている様々な特徴は(その任意のコンポーネントを含む)、他のシステムの中に組み合わせられ、またはそれと一体化されることが可能である。そのうえ、特定の特徴は、省略されるか、または、
実装されないことが可能である。
変形、置換、および代替の例は、当業者によって解明可能であり、本明細書で開示されている情報の範囲から逸脱することなく作製されることが可能である。本明細書で引用されているすべての参照文献は、その全体が参照により援用されており、本出願の一部をなす。
[項目1]
フレームを備えるシステムであって、前記フレームは、
ディスプレイ・デバイスと、
前記ディスプレイ・デバイスによって表示される刺激に応答する被験者の眼球運動を検出するためのセンサと、
前記被験者を着席させるためのサポート・デバイスであって、前記ディスプレイ・デバイスおよび前記センサに関して眼球運動データの収集を可能とする配向に前記被験者の位置を決定するように調節可能であり、位置が決定されると、前記配向に前記被験者を拘束する、サポート・デバイスと、
を支持する、システム。
[項目2]
前記フレームは車輪を備える、項目1に記載のシステム。
[項目3]
前記フレームは前記車輪に連結されているブレーキをさらに備える、項目2に記載のシステム。
[項目4]
前記サポート・デバイスは、前記被験者の視野における視覚的な気逸らしを最小化するためのパーティションを備える、項目1〜3のいずれか一項に記載のシステム。
[項目5]
前記サポート・デバイスは、リクライニングするように構成されている、項目1〜4のいずれか一項に記載のシステム。
[項目6]
前記サポート・デバイスは、調節可能なヘッド・レストを備える、項目1〜5のいずれか一項に記載のシステム。
[項目7]
前記ヘッド・レストは、前記被験者の頭部の運動の範囲を制限する、項目6に記載のシステム。
[項目8]
前記サポート・デバイスは、1つの軸の周りに旋回するように構成されている、項目1〜7のいずれか一項に記載のシステム。
[項目9]
前記ディスプレイ・デバイスは、前記被験者に関して複数の位置に調節可能である、項目1〜8のいずれか一項に記載のシステム。
[項目10]
前記センサは、前記被験者に関して複数の位置に調節可能である、項目1〜9のいずれか一項に記載のシステム。
[項目11]
前記被験者の像をオペレータに表示するように構成されている第2のディスプレイ・デバイスをさらに備える、項目1〜10のいずれか一項に記載のシステム。
[項目12]
検出された前記被験者の眼球運動をネットワークに伝えるためのネットワーク・インターフェースをさらに備える、項目1〜11のいずれか一項に記載のシステム。
[項目13]
前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、項目1〜12のいずれか一項に記載のシステム。
[項目14]
項目15〜39のいずれか一項に記載の方法を行うように構成されている、項目1に記載のシステム。
[項目15]
アイ・トラッキング機器からデータを収集するための方法であって、
第1の視覚像の表示を生じさせる工程と、
前記第1の視覚像が表示された後、前記第1の視覚像の代わりに固視ターゲットの表示を生じさせる工程と、
表示された前記固視ターゲットに関する被験者の眼球運動を示すデータを前記アイ・トラッキング機器から受信する工程と、
前記被験者の眼球運動を示す前記データを受信することに応じて、前記固視ターゲットの代わりに第2の視覚像の表示を生じさせる工程と、
を備える方法。
[項目16]
前記固視ターゲットは前記被験者の反射性眼球運動のトリガとなる、項目15に記載の方法。
[項目17]
前記被験者の前記眼球運動は言語指示なしに誘導される、項目15または16に記載の方法。
[項目18]
前記被験者の眼球運動を示す前記データから固視を識別する工程と、
前記固視に関する固視場所座標を計算する工程と、
前記固視場所座標が、表示された前記固視ターゲットに関する既知のターゲット場所座標の近接度閾値内にあるか否かを判定する工程と、
をさらに備える項目15〜17のいずれか一項に記載の方法。
[項目19]
前記固視場所座標が前記近接度閾値内にない場合には、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶される、項目18に記載の方法。
[項目20]
オペレータによる観察される固視から前記固視を識別する手動インジケーションを前記オペレータから受信する工程をさらに備える、項目18または19に記載の方法。
[項目21]
識別された前記固視をオペレータによる観察される固視によって裏付ける手動インジケーションを、前記オペレータから受信する工程をさらに備える、項目18または19に記載の方法。
[項目22]
受信された前記データが、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示すか否かを判定する工程をさらに備える、項目15〜21のいずれか一項に記載の方法。
[項目23]
少なくとも部分的には、受信された前記データが、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示す場合、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶される、項目22に記載の方法。
[項目24]
前記被験者の眼球運動を示す前記データは、該データが固視を含まない場合、キャリブレーション目的について拒絶される、項目15〜17のいずれか一項に記載の方法。
[項目25]
前記第1の視覚像は前記第2の視覚像とは異なる、項目15〜24のいずれか一項に記載の方法。
[項目26]
前記第1の視覚像は前記第2の視覚像と同じである、項目15〜24のいずれか一項に記載の方法。
[項目27]
前記第2の視覚像の代わりに1つまたは複数の後続の固視ターゲットの表示を生じさせる工程をさらに備える、項目15〜26のいずれか一項に記載の方法。
[項目28]
それぞれの視覚像は、各それぞれの後続の固視ターゲットが表示された後、表示される、項目27に記載の方法。
[項目29]
各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像とは異なる、項目28に記載の方法。
[項目30]
各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像と同じである、項目28に記載の方法。
[項目31]
各それぞれの後続の固視ターゲットは、それぞれのターゲット場所座標を有する、項目27〜30のいずれか一項に記載の方法。
[項目32]
前記固視ターゲットは、前記被験者を観察するオペレータからの手動インジケーションに応じて表示される、項目15〜31のいずれか一項に記載の方法。
[項目33]
前記視覚像は、前記被験者の属性に基づいて選択される、項目15〜32のいずれか一項に記載の方法。
[項目34]
前記属性は前記被験者の年齢である、項目33に記載の方法。
[項目35]
前記第1の視覚像および前記第2の視覚像は動的な視覚像である、項目15〜34のいずれか一項に記載の方法。
[項目36]
前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、項目15〜35のいずれか一項に記載の方法。
[項目37]
アイ・トラッキング・データにおける空間的な不正確さを訂正するための方法であって、
被験者への刺激の表示中に記録されるアイ・トラッキング・データを受信する工程であって、前記刺激は、前記被験者による固視を誘導する固視ターゲットを含む、工程と、
受信された前記アイ・トラッキング・データにおける前記固視を識別する工程と、
前記固視ターゲットに関連付けられているターゲット場所座標と、前記固視に関連付けられている固視場所座標との間の差を計算する工程と、
前記ターゲット場所座標と前記固視場所座標との間の計算された前記差をベクトル・データとして記憶する工程と、
前記固視場所座標が前記ターゲット場所座標に整合するように、前記ベクトル・データを変換する工程と、
を備える方法。
[項目38]
前記変換する工程は、トリリニア補間と、重心座標の線形補間と、アフィン変換と、区分多項式変換とからなる群から選択される数学演算を行う工程を含む、項目37に記載の方法。
[項目39]
前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、項目37または38に記載の方法。
[項目40]
フレームを備えるシステムであって、前記フレームは、
刺激を被験者に表示するための手段と、
前記表示するための手段によって表示される刺激に応答する前記被験者の眼球運動を検
出するための手段と、
前記被験者を支持するための手段であって、前記表示するための手段および前記検出するための手段に関して眼球運動データの収集を可能とする配向に前記被験者の位置を決定するように調節可能であり、位置が決定されると、前記配向に前記被験者を拘束する、前記支持するための手段と
を支持する、システム。
[項目41]
前記フレームは前記システムを移動させるための手段を備える、項目40に記載のシステム。
[項目42]
前記フレームは前記移動させるための手段に連結されている、移動を妨げるための手段をさらに備える、項目41に記載のシステム。
[項目43]
前記支持するための手段は、前記被験者の視野における視覚的な気逸らしを最小化するための手段を備える、項目40〜42のいずれか一項に記載のシステム。
[項目44]
前記支持するための手段は、リクライニングするように構成されている、項目40〜43のいずれか一項に記載のシステム。
[項目45]
前記支持するための手段は、調節可能なヘッド・レストを備える、項目40〜44のいずれか一項に記載のシステム。
[項目46]
前記ヘッド・レストは、前記被験者の頭部の運動の範囲を制限する、項目45に記載のシステム。
[項目47]
前記支持するための手段は、1つの軸の周りに旋回するように構成されている、項目40〜46のいずれか一項に記載のシステム。
[項目48]
前記表示するための手段は、前記被験者に関して複数の位置に調節可能である、項目40〜47のいずれか一項に記載のシステム。
[項目49]
前記検出するための手段は、前記被験者に関して複数の位置に調節可能である、項目40〜48のいずれか一項に記載のシステム。
[項目50]
前記被験者の像をオペレータに表示するための手段をさらに備える、項目40〜49のいずれか一項に記載のシステム。
[項目51]
検出された前記被験者の眼球運動をネットワークに伝えるための手段をさらに備える、項目40〜50のいずれか一項に記載のシステム。
[項目52]
前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、項目40〜51のいずれか一項に記載のシステム。
[項目53]
項目1〜22および37〜39のいずれか一項に記載の方法を行うように構成されている、項目40に記載のシステム。

Claims (19)

  1. アイ・トラッキング機器からデータを収集するための方法であって、
    第1の視覚像の表示を生じさせる工程と、
    前記第1の視覚像が表示された後、前記第1の視覚像の代わりに固視ターゲットの表示を生じさせる工程と、
    表示された前記固視ターゲットに関する被験者の眼球運動を示すデータを前記アイ・トラッキング機器から受信する工程と、
    前記被験者の眼球運動を示す前記データを受信することに応じて、前記固視ターゲットの代わりに第2の視覚像の表示を生じさせる工程と、
    を備え
    前記第1の視覚像および前記第2の視覚像は動的な視覚像である、方法。
  2. 前記固視ターゲットは前記被験者の反射性眼球運動のトリガとなり、前記被験者の前記眼球運動は言語指示なしに誘導される、請求項1に記載の方法。
  3. 前記被験者の眼球運動を示す前記データから固視を識別する工程と、
    前記固視に関する固視場所座標を計算する工程と、
    前記固視場所座標が、表示された前記固視ターゲットに関する既知のターゲット場所座標の近接度閾値内にあるか否かを判定する工程と、
    をさらに備え、前記固視場所座標が前記近接度閾値内にない場合には、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶される、請求項1または2に記載の方法。
  4. オペレータによる観察される固視から前記固視を識別する手動インジケーションを前記オペレータから受信する工程、または
    識別された前記固視をオペレータによる観察される固視によって裏付ける手動インジケーションを、前記オペレータから受信する工程、をさらに備える、請求項3に記載の方法。
  5. 受信された前記データが、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示すか否かを判定する工程をさらに備え、少なくとも部分的には、受信された前記データが、表示される前記固視ターゲットに関する前記被験者の前記眼球運動中のまばたき、衝動性眼球運動、および滑動性眼球運動のいずれかを示す場合、前記被験者の眼球運動を示す前記データはキャリブレーション目的について拒絶される、請求項1〜4のいずれか一項に記載の方法。
  6. 前記被験者の眼球運動を示す前記データは、該データが固視を含まない場合、キャリブレーション目的について拒絶される、請求項1または2に記載の方法。
  7. 前記第1の視覚像は前記第2の視覚像とは異なる、または、前記第1の視覚像は前記第2の視覚像と同じである、請求項1〜6のいずれか一項に記載の方法。
  8. 前記第2の視覚像の代わりに1つまたは複数の後続の固視ターゲットの表示を生じさせる工程をさらに備え、それぞれの視覚像は、各それぞれの後続の固視ターゲットが表示された後、表示され、
    各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像とは異なるか、または各それぞれの視覚像は前記第1の視覚像および前記第2の視覚像と同じであり、
    それぞれの後続の固視ターゲットは、それぞれのターゲット場所座標を有する、請求項1〜7のいずれか一項に記載の方法。
  9. 前記固視ターゲットは、前記被験者を観察するオペレータからの手動インジケーションに応じて表示される、請求項1〜8のいずれか一項に記載の方法。
  10. 前記視覚像は、前記被験者の属性に基づいて選択され、前記属性は前記被験者の年齢である、請求項1〜9のいずれか一項に記載の方法。
  11. 請求項1〜10のいずれか一項に記載の方法を行うように構成されているシステムであって、
    刺激を被験者に表示するための手段と、
    前記表示するための手段によって表示される刺激に応答する前記被験者の眼球運動を検出するための手段と、
    前記被験者を支持するための手段であって、前記表示するための手段および前記検出するための手段に関して眼球運動データの収集を可能とする配向に前記被験者の位置を決定するように調節可能であり、位置が決定されると、前記配向に前記被験者を拘束する、前記支持するための手段と、
    刺激を被験者に表示するための前記手段と、前記被験者の眼球運動を検出するための前記手段と、前記被験者を支持するための前記手段とを支持するためのフレームと、を備えるシステム。
  12. 前記フレームは前記システムを移動させるための手段を備え、前記フレームは前記移動させるための手段に連結されている、移動を妨げるための手段をさらに備える、請求項11に記載のシステム。
  13. 前記支持するための手段は、前記被験者の視野における視覚的な気逸らしを最小化するための手段を備える、請求項11または12に記載のシステム。
  14. 前記支持するための手段は、リクライニングするように構成されており、前記支持するための手段は、調節可能なヘッド・レストを備え、前記ヘッド・レストは、前記被験者の頭部の運動の範囲を制限する、請求項1113のいずれか一項に記載のシステム。
  15. 前記支持するための手段は、1つの軸の周りに旋回するように構成されている、請求項1114のいずれか一項に記載のシステム。
  16. 前記表示するための手段は、前記被験者に関して複数の位置に調節可能であり、前記検出するための手段は、前記被験者に関して複数の位置に調節可能である、請求項1115のいずれか一項に記載のシステム。
  17. 前記被験者の像をオペレータに表示するための手段をさらに備え、検出された前記被験者の眼球運動をネットワークに伝えるための手段をさらに備える、請求項1116のいずれか一項に記載のシステム。
  18. 前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、請求項1〜10のいずれか一項に記載の方法
  19. 前記被験者の発達状況または認知状況の評価、スクリーニング、モニタリング、または診断のために使用される、請求項11〜17のいずれか一項に記載のシステム。
JP2016501301A 2013-03-11 2014-03-11 認知状況および発達状況の検出のためのシステムおよび方法 Active JP6462657B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361775880P 2013-03-11 2013-03-11
US61/775,880 2013-03-11
PCT/US2014/023644 WO2014164858A1 (en) 2013-03-11 2014-03-11 Systems and methods for detection of cognitive and developmental conditions

Publications (3)

Publication Number Publication Date
JP2016515017A JP2016515017A (ja) 2016-05-26
JP2016515017A5 JP2016515017A5 (ja) 2017-04-13
JP6462657B2 true JP6462657B2 (ja) 2019-01-30

Family

ID=50630989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016501301A Active JP6462657B2 (ja) 2013-03-11 2014-03-11 認知状況および発達状況の検出のためのシステムおよび方法

Country Status (15)

Country Link
US (3) US9265416B2 (ja)
EP (1) EP2967314B1 (ja)
JP (1) JP6462657B2 (ja)
KR (1) KR102179931B1 (ja)
CN (2) CN105163648B (ja)
AU (1) AU2014248925B2 (ja)
BR (1) BR112015022523A2 (ja)
CA (1) CA2904346C (ja)
ES (1) ES2877350T3 (ja)
HK (1) HK1220597A1 (ja)
IL (1) IL241256B (ja)
MX (1) MX363272B (ja)
NZ (1) NZ712214A (ja)
SG (1) SG11201507147VA (ja)
WO (1) WO2014164858A1 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105114A2 (en) * 2011-12-05 2013-07-18 Gautam Singh A computer implemented system and method for statistically assessing co-scholastic skills of a user
CA2867866C (en) 2012-03-26 2022-06-21 New York University Methods and kits for assessing central nervous system integrity
BR112015022523A2 (pt) * 2013-03-11 2017-07-18 Childrens Healthcare Atlanta Inc sistemas e métodos para detecção de condições de desenvolvimento e cognitivas
JP6676522B2 (ja) 2013-06-17 2020-04-08 ニューヨーク ユニバーシティ 対象における眼球運動を追跡するためのデバイスの作動方法、および当該デバイスによって追跡された眼球運動のデータの中枢神経系病変を位置特定するための使用方法
US10772554B2 (en) 2013-09-04 2020-09-15 Joseph Michael Lawless Kelly Methods and systems for the detection of disease
KR20160106552A (ko) * 2013-10-17 2016-09-12 칠드런스 헬스케어 오브 애틀란타, 인크. 눈 추적을 통해 유아와 아이의 성장을 평가하는 방법
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
US11013441B2 (en) 2014-08-04 2021-05-25 New York University Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption
KR20160049273A (ko) * 2014-10-27 2016-05-09 삼성전자주식회사 의료 영상 장치
US9782069B2 (en) * 2014-11-06 2017-10-10 International Business Machines Corporation Correcting systematic calibration errors in eye tracking data
RU2582180C1 (ru) * 2015-03-20 2016-04-20 Виктор Маркович Шкловский Аппаратно-программный комплекс для обеспечения физической, профессиональной или когнитивной терапии пациентов с нарушением высших психических функций
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
CN105069304B (zh) * 2015-08-18 2019-04-05 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于机器学习的评估预测asd的装置
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
US11972336B2 (en) * 2015-12-18 2024-04-30 Cognoa, Inc. Machine learning platform and system for data analysis
CN105534483B (zh) * 2016-02-03 2018-05-04 中国科学院昆明动物研究所 触屏多功能非人灵长类动物认知功能测试方法
EP3493728A4 (en) 2016-08-02 2020-05-20 New York University METHOD AND KITS FOR ASSESSING THE NEUROLOGICAL FUNCTION AND LOCALIZING NEUROLOGICAL LESIONS
US10863902B2 (en) 2016-10-03 2020-12-15 Oculogica Inc. Method for detecting glaucoma
JP6771162B2 (ja) * 2016-10-07 2020-10-21 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価方法及びプログラム
EP3539033A4 (en) * 2016-11-14 2020-06-03 Cognoa, Inc. METHOD AND DEVICE FOR EVALUATING DEVELOPMENT FAULTS AND CHECKING COVERAGE AND RELIABILITY
CA3045768A1 (en) * 2016-12-07 2018-06-14 Auckland Uniservices Limited Stimulus and eye tracking system
FR3062307B1 (fr) * 2017-01-30 2022-01-21 Herve Harounian Dispositif et procede de stimulation cognitive d'un patient
US11141095B2 (en) 2017-02-17 2021-10-12 Oculogica Inc. Method and system for detecting concussion
CN115040069A (zh) * 2017-03-05 2022-09-13 沃缇奥普特蔻有限公司 一种订购眼镜的***
US10950346B2 (en) 2017-04-28 2021-03-16 International Business Machines Corporation Utilizing artificial intelligence for data extraction
CN109276228B (zh) * 2017-07-21 2020-12-25 成都集思鸣智科技有限公司 一种检测大脑功能的***及其装置
CN107397527B (zh) * 2017-07-26 2019-04-30 武汉爱尔眼科医院有限公司 一种眼睛视力测量装置
US10599682B2 (en) * 2017-08-08 2020-03-24 International Business Machines Corporation User interaction during ground truth curation in a cognitive system
US20210233652A1 (en) * 2017-08-10 2021-07-29 Nuance Communications, Inc. Automated Clinical Documentation System and Method
US10546655B2 (en) 2017-08-10 2020-01-28 Nuance Communications, Inc. Automated clinical documentation system and method
EP3668403B1 (en) * 2017-09-13 2021-12-29 Oculogica Inc. Eye tracking system
CN111970958A (zh) * 2017-11-30 2020-11-20 思维股份公司 用于检测神经障碍和测量一般认知能力的***和方法
US11207011B2 (en) * 2018-02-07 2021-12-28 RightEye, LLC Systems and methods for assessing user physiology based on eye tracking data
EP3591665A1 (en) 2018-07-05 2020-01-08 Universite Libre De Bruxelles Method for evaluating a risk of neurodevelopmental disorder with a child
EP3591664A1 (en) 2018-07-05 2020-01-08 Université Libre de Bruxelles (ULB) Method for evaluating a risk of neurodevelopmental disorder with a child
AU2019208212A1 (en) * 2018-07-27 2020-02-13 Welch Allyn, Inc. Vision screening device and methods
CN109259775A (zh) * 2018-08-30 2019-01-25 清华大学 一种人脸刺激范式生成方法及自闭症分析***
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
CN109620258A (zh) * 2018-12-04 2019-04-16 北京大学 基于眼动技术测量孤独症重复刻板行为的测试装置
CN109589122B (zh) * 2018-12-18 2022-02-15 中国科学院深圳先进技术研究院 一种认知能力测评***及方法
CN109464151B (zh) * 2018-12-29 2021-09-07 中国科学院深圳先进技术研究院 注意抑制能力获取方法、装置、设备及存储介质
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
CN109770921B (zh) * 2019-02-03 2020-12-08 清华大学 自闭症儿童早期语言与认知能力筛查的方法及装置
CN109758166A (zh) * 2019-03-06 2019-05-17 西安市儿童医院 消毒式儿童智力测试专用桌
JP7215246B2 (ja) * 2019-03-08 2023-01-31 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
WO2020219446A1 (en) 2019-04-23 2020-10-29 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
KR102255399B1 (ko) * 2019-06-17 2021-05-24 김도훈 하이브리드 카시트 장치, 이를 이용한 영유아 안전 제공 시스템 및 방법
US11902498B2 (en) 2019-08-26 2024-02-13 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
CA3148710A1 (en) * 2019-08-26 2021-03-04 Raul Mihali Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
CN110547756A (zh) * 2019-09-17 2019-12-10 广州智伴人工智能科技有限公司 一种视力测试方法、装置和***
CN110652281B (zh) * 2019-10-25 2023-02-24 北京机械设备研究所 一种基于虚拟现实技术的视野计及视野检测方法
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
KR102281927B1 (ko) * 2019-11-27 2021-07-26 고큐바테크놀로지 주식회사 다양한 상태의 눈을 위한 동공 추적 방법 및 이를 이용한 건강 진단 시스템
CN111568367B (zh) * 2020-05-14 2023-07-21 中国民航大学 一种识别和量化眼跳入侵的方法
CN111939422A (zh) * 2020-08-13 2020-11-17 深圳市艾利特医疗科技有限公司 一种用于自闭症儿童的基于听觉训练的康复装置
KR102529240B1 (ko) * 2020-11-24 2023-05-04 (주)싱스웰 사용자 맞춤형 서비스를 제공하는 캡슐형 스마트 쉘터
CN113274021B (zh) * 2021-04-25 2023-11-28 阿呆科技(北京)有限公司 基于惊反射诱发的创伤后应激障碍诊断评估***
US20220358645A1 (en) * 2021-05-04 2022-11-10 Bsolutions, Inc. Systems and methods for developmental monitoring of children
JP2023006771A (ja) * 2021-06-30 2023-01-18 キヤノン株式会社 制御装置およびその制御方法
KR102377135B1 (ko) * 2021-08-19 2022-03-21 의료법인 명지의료재단 노인의 인지 기능 측정 방법 및 시스템
US11556174B1 (en) * 2022-03-30 2023-01-17 Motorola Mobility Llc Monitoring system having contextual gaze-detection-based selection/triggering of caregiver functions
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking
EP4331470A1 (en) * 2022-08-30 2024-03-06 DIVE Medical SL Validation of eye tracking data

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4474186A (en) * 1979-07-17 1984-10-02 Georgetown University Computerized electro-oculographic (CEOG) system with feedback control of stimuli
JPH0655203B2 (ja) * 1992-07-09 1994-07-27 株式会社エイ・ティ・アール視聴覚機構研究所 視線検出を用いた医療診断装置
JP3821259B2 (ja) * 1998-02-12 2006-09-13 独立行政法人科学技術振興機構 眼球運動観察用装着具、視標投影装置、及びこれらを用いた平衡機能検査装置
AU3775199A (en) 1998-04-29 1999-11-16 Carnegie Wave Energy Limited Apparatus and method of monitoring a subject's eyes using two different wavelengths of light
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6231187B1 (en) 1999-02-11 2001-05-15 Queen's University At Kingston Method and apparatus for detecting eye movement
JP2002253509A (ja) * 2000-12-28 2002-09-10 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置
WO2002064031A2 (en) 2001-02-09 2002-08-22 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
US6752498B2 (en) * 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
GB0210288D0 (en) * 2002-05-04 2002-06-12 Univ Nottingham Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor
US6896655B2 (en) * 2002-08-05 2005-05-24 Eastman Kodak Company System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display
US7892180B2 (en) 2002-11-18 2011-02-22 Epley Research Llc Head-stabilized medical apparatus, system and methodology
WO2005063114A1 (ja) 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
US7819818B2 (en) 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
JP2006087833A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 認知機能検査方法、認知機能検査プログラム、認知機能検査装置
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
JP4892742B2 (ja) * 2005-03-31 2012-03-07 国立大学法人 東京大学 視野計及び視野計測方法
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
AU2009236301A1 (en) * 2008-04-14 2009-10-22 The Johns Hopkins University Systems and methods for testing vestibular and oculomotor function
EP2441386A1 (en) * 2008-10-14 2012-04-18 Ohio University Cognitive and linguistic assessment using eye tracking
US8808195B2 (en) 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
US20120314045A1 (en) 2009-08-26 2012-12-13 Ecole Polytechnique Federale De Lausanne (Epfl) Wearable systems for audio, visual and gaze monitoring
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
BR112015022523A2 (pt) * 2013-03-11 2017-07-18 Childrens Healthcare Atlanta Inc sistemas e métodos para detecção de condições de desenvolvimento e cognitivas
US9247870B2 (en) * 2013-03-15 2016-02-02 Neuro Kinetics, Inc. Method and apparatus for system synchronization in video oculography based neuro-otologic testing and evaluation
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data

Also Published As

Publication number Publication date
EP2967314B1 (en) 2021-06-02
EP2967314A1 (en) 2016-01-20
CA2904346C (en) 2021-09-28
AU2014248925B2 (en) 2018-07-12
KR102179931B1 (ko) 2020-11-18
CN105163648B (zh) 2018-08-28
IL241256A0 (en) 2015-11-30
US10022049B2 (en) 2018-07-17
CN109124657B (zh) 2021-11-23
CN109124657A (zh) 2019-01-04
MX2015012061A (es) 2016-07-05
WO2014164858A1 (en) 2014-10-09
US10702150B2 (en) 2020-07-07
KR20150141957A (ko) 2015-12-21
HK1220597A1 (zh) 2017-05-12
US20180289259A1 (en) 2018-10-11
ES2877350T3 (es) 2021-11-16
SG11201507147VA (en) 2015-10-29
US20140253876A1 (en) 2014-09-11
AU2014248925A1 (en) 2015-10-01
CA2904346A1 (en) 2014-10-09
US9265416B2 (en) 2016-02-23
JP2016515017A (ja) 2016-05-26
IL241256B (en) 2019-09-26
US20160262612A1 (en) 2016-09-15
BR112015022523A2 (pt) 2017-07-18
CN105163648A (zh) 2015-12-16
NZ712214A (en) 2019-03-29
MX363272B (es) 2019-03-19

Similar Documents

Publication Publication Date Title
JP6462657B2 (ja) 認知状況および発達状況の検出のためのシステムおよび方法
US11864832B2 (en) Systems and methods for assessing infant and child development via eye tracking
US9295806B2 (en) System and method for determining emotional response to olfactory stimuli
US9314157B2 (en) Device to measure pupillary light reflex in infants and toddlers
EP3991705A2 (en) Virtual reality game- and biosignal sensor-based vestibulo-ocular reflex assessment and rehabilitation apparatus
US20230397863A1 (en) Assessing developmental disorders via eye tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181227

R150 Certificate of patent or registration of utility model

Ref document number: 6462657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250