JP2018529171A - 支援技術を制御するためのシステムおよびその方法 - Google Patents
支援技術を制御するためのシステムおよびその方法 Download PDFInfo
- Publication number
- JP2018529171A JP2018529171A JP2018514885A JP2018514885A JP2018529171A JP 2018529171 A JP2018529171 A JP 2018529171A JP 2018514885 A JP2018514885 A JP 2018514885A JP 2018514885 A JP2018514885 A JP 2018514885A JP 2018529171 A JP2018529171 A JP 2018529171A
- Authority
- JP
- Japan
- Prior art keywords
- user
- signal
- processing unit
- detected
- electronic communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 title claims description 22
- 238000004891 communication Methods 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims abstract description 60
- 230000001953 sensory effect Effects 0.000 claims abstract description 41
- 230000008925 spontaneous activity Effects 0.000 claims abstract description 24
- 230000004071 biological effect Effects 0.000 claims abstract description 11
- 208000016285 Movement disease Diseases 0.000 claims abstract description 8
- 208000030251 communication disease Diseases 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 8
- 210000004556 brain Anatomy 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 19
- 230000002269 spontaneous effect Effects 0.000 claims description 8
- 230000004424 eye movement Effects 0.000 claims description 5
- 210000005252 bulbus oculi Anatomy 0.000 claims description 2
- 230000037081 physical activity Effects 0.000 claims description 2
- 230000003183 myoelectrical effect Effects 0.000 claims 1
- 206010002026 amyotrophic lateral sclerosis Diseases 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 206010033799 Paralysis Diseases 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 201000006474 Brain Ischemia Diseases 0.000 description 1
- 206010008120 Cerebral ischaemia Diseases 0.000 description 1
- 206010010071 Coma Diseases 0.000 description 1
- 208000020339 Spinal injury Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 206010008118 cerebral infarction Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004118 muscle contraction Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G5/00—Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
- A61G5/10—Parts, details or accessories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G5/00—Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
- A61G5/10—Parts, details or accessories
- A61G5/1051—Arrangements for steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/10—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
- A61G2203/18—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/10—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
- A61G2203/20—Displays or monitors
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychology (AREA)
- Signal Processing (AREA)
- Dermatology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Ophthalmology & Optometry (AREA)
- Power Engineering (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【選択図】図2
Description
タに基づいて利用者の意思を代表する信号パターンの識別を実行するように構成されている。この1つ以上のパラメータは、スキャンインターフェイスが動作するスキャン速度(スキャンインターフェイスが関与されているとき)、1つ以上の閾値の各数値、選択時間間隔Ts(繰り返しの不随意活動(involuntary actions)に起因する誤検出(false positives)を回避するために、利用者に対して与えられた選択閾値を超えた動作を維持するように要求される時間として定義されている)、短時間かつ無意識的に複数の閾値の間における可能な変化をフィルタ処理して無視するためのパラメータとして定義されている誤選択解除時間間隔、または、システムが生体信号を分析し始める前の、利用者が動作を実行しないまたは想像しない緩和時間間隔(誤検出を回避するために、例えばスキャンが始まって選択が終わった時に利用される)である。
Claims (26)
- 運動障害および/またはコミュニケーション障害を患っている利用者のために、少なくとも1つの補助具(2)とともに提供される、支援技術を制御するためのシステム(1)であって、
前記利用者に複数の感覚刺激を供与するように構成されており、各前記感覚刺激は前記利用者が選択および/または提供をしようとする可能性がある命令および/または情報に関連する電子コミュニケーションインターフェイス(10)と、
前記利用者の少なくとも1つの生体活動を検出し、検出した前記生体活動を代表する、対応する生体電気信号(SB、SBc、SBr)を生成するように、前記利用者に適用される少なくとも1つの生体センサ(11)と、
初期システム校正ステップにおいて1つ以上の信号特徴(CS)を記録するように構成されており、前記初期システム校正ステップにおいて、前記利用者の生体活動は、命令および/または情報をそれぞれ選択するような前記利用者の意思の示唆として一般的に思われる自発生体活動であり、前記信号特徴(CS)は、前記少なくとも1つの自発生体活動の発生において検出した前記生体電気信号(SBc)に関連する校正モジュール(12)と、
感覚刺激が捉えられるとき、検出した前記生体電気信号(SBr)と記録された前記1以上の信号特徴(CS)との比較に基づいて、前記利用者の前記自発生体活動、および、前記利用者が選択しようとする関連の前記命令および/または情報を識別する処理ユニット(13)と、を備え、
前記処理ユニットは、前記利用者の選択意思の識別に基づいて、前記電子コミュニケーションインターフェイス(10)および前記補助具(2)に対して制御信号(SC1、SC2)を提供するようにさらに構成されており、
前記制御信号(SC1、SC2)は、
前記利用者の意思に基づいた前記発生を管理する、感覚刺激の発生を制御するための少なくとも1つの信号(SC1)と、
前記利用者に供与される、前記利用者に選択される、および前記処理ユニット(13)に識別される命令および/または情報に基づいて、補助具(2)に対する少なくとも1つの命令信号(SC2)と、を備え、
前記電子コミュニケーションインターフェイス(10)は、前記少なくとも1の制御信号(SC1)が発生する場合、前記少なくとも1の制御信号(SC1)の発生に基づいて、前記感覚刺激を供与し、前記制御信号(SC1)が発生していない場合、自動的に特定な一連の感覚刺激を供与するように構成されている、システム(1)。 - 前記少なくとも1つの生体センサ(11)は、少なくとも1つの脳電気信号(SB)を検出するように前記利用者に適用される複数の脳電気信号センサ(11)を備え、
前記少なくとも1つの自発生体活動は、前記利用者に想像される少なくとも1つの対応する運動を含み、
前記処理ユニット(13)は、感覚刺激が捉えられるとき、検出した前記脳電気信号(SBr)と校正時に記録された前記脳電気信号(SBc)の1つ以上の特徴(CS)との比較に基づいて、前記利用者に想像される前記運動、および、前記利用者が選択しようとする関連の命令および/または情報を識別するように構成されている、請求項1に記載のシステム(1)。 - 前記少なくとも1つの生体センサ(11)は、前記利用者の身体の1つ以上の部位の運動を検出するように前記部位に適用される少なくとも1つの利用者運動センサ(11)を備え、
前記少なくとも1つの自発生体活動は、前記利用者の身体の前記部位によって行われる少なくとも1つの対応する運動を含み、当該部位に対して少なくとも1つの生体センサ(11)が適用されている、請求項1に記載のシステム(1)。 - 前記少なくとも1つの生体センサ(11)は、少なくとも1つの赤外線センサ、少なくとも1つの筋電センサ、または、少なくとも1つの加速度計を備える、請求項3に記載のシステム(1)。
- 前記少なくとも1つの生体センサ(11)は、前記利用者の眼球の運動を検出するおよび/または追跡するように適用される少なくとも1つの眼球運動センサを備え、
前記少なくとも1つの自発生体活動は、前記利用者による少なくとも1つの対応する眼球運動を含む、請求項1に記載のシステム(1)。 - 前記感覚刺激は、視覚的に表示される画像および/または記号アイコン(21、22、23、24、25)、および/または、音声、および/または、触覚刺激を備える、請求項1〜5のいずれか1項に記載のシステム(1)。
- 前記電子コミュニケーションインターフェイス(10)は、連続的な感覚刺激のスキャンを前記利用者に供与するように構成されているスキャンコミュニケーションインターフェイス(10)を備える、請求項1〜6のいずれか1項に記載のシステム(1)。
- 前記電子コミュニケーションインターフェイス(10)は、電子表示画面(20)を備え、電子ウィンドウインターフェイス(21)の命令アイコンを前記電子表示画面(20)に供与するように構成されており、前記命令アイコンが選択される場合、前記電子ウィンドウインターフェイス(21)は更なるアイコン画面を提示可能であり、
前記利用者によって選択可能な前記命令および/または情報は、
前記電子表示画面(20)においてポインタ(22)の移動を起こすように適用されるポインタ移動命令と、
前記ポインタが位置しているアイコンおよび/または命令および/またはボックスおよび/または画面区域を選択/選択解除する選択/選択解除命令と、を含む、請求項1〜7のいずれか1項に記載のシステム(1)。 - 前記電子コミュニケーションインターフェイス(10)は、所望移動方向(23)を代表する一連の記号アイコンを電子表示画面(20)に示すように構成されており、
前記システム(1)は、電子車いすを備える補助具(2)と相互作用可能であり、
前記処理ユニット(13)は、前記利用者に選択される前記移動記号アイコン(23)に基づいて、前記電子車いすの移動を制御するように構成されている、請求項1〜8のいずれか1項に記載のシステム(1)。 - 前記電子コミュニケーションインターフェイス(10)は、前記利用者に所望目的地を選択させるように構成されており、
前記システム(1)は、電子車いすを備える補助具(2)と相互作用可能であり、
前記処理ユニット(13)は、前記利用者による前記目的地選択に基づいて、前記電子車いすの移動を前記所望目的地まで制御するように構成されている、請求項1〜9のいずれか1項に記載のシステム(1)。 - 前記電子コミュニケーションインターフェイス(10)は、仮想キーパットを電子表示画面(20)に示すように構成されており、前記処理ユニットは、テキストを有する電子メッセージを用意するように構成されており、前記テキストは、前記利用者に前記仮想キーパットのボタンまたはアイコンまたはセルを選択されることによって構成される、請求項1〜10のいずれか1項に記載のシステム(1)。
- 前記仮想キーパット(24)は、
一連のアイコン(240)であって、各前記アイコン(240)が英数字の1つまたは1グループを代表し、前記電子コミュニケーションインターフェイス(10)に順番に供与される前記一連のアイコン(240)と、または、
セルの行と列とを備える1つ以上の表であって、前記セルは行列スキャン(row-column scan)によって選択されることができ、前記各セルが、1つの英数字、1グループの英数字、ワード、文、または、同様な種類の更なる表への参照を含む前記1つ以上の表と、を備える、請求項11に記載のシステム(1)。 - 前記表の各セルは1グループの英数字を含み、前記処理ユニット(13)は、選択される最初の前記英数字に基づいて1つ以上のワードの完成を予測するように適用される予測アルゴリズムを実行し、可能な選択の確定のために、前記予測から得る前記1つ以上のワードを前記利用者に供与するように構成されている、請求項11に記載のシステム(1)。
- 前記システム(1)は、カメラを有するロボットを備える補助具(2)と相互作用可能であり、前記ロボットは前記利用者によって制御可能であり、
前記電子コミュニケーションインターフェイス(10)は、前記ロボットの前記カメラによって撮られる画像を電子表示画面に供与し、前記ロボットの一連の命令アイコンをさらに供与するように構成されており、
前記処理ユニット(13)は、前記利用者によって選択される前記命令アイコンに基づいて前記ロボットを制御するように構成されており、
前記ロボットは、前記処理ユニットに制御可能で遠隔通信機として動作する音声合成装置を備え、
前記ロボットは、前記利用者の顔の画像を供与するように構成されている人間型ロボットであり、
前記電子コミュニケーションインターフェイス(10)は、遠距離通信のためのテキストを用意するために、仮想キーパットを電子表示画面(20)に示すように構成されており、
前記処理ユニット(13)は、前記利用者によって用意される前記テキストに基づいて前記音声合成装置を制御するように構成されている、請求項1〜13のいずれか1項に記載のシステム(1)。 - 前記システム(1)は、1つ以上のドモティクス装置および/または1つ以上の電子コミュニケーションツールを備える補助具(2)と相互作用可能であり、
前記電子コミュニケーションインターフェイス(10)は、前記1つ以上のドモティクス装置および/または前記1つ以上の電子コミュニケーションツールの一連の選択肢および/または制御アイコン(25)を電子表示画面(20)に供与するように構成されており、
前記処理ユニット(13)は、前記利用者によって選択される前記選択肢および/または制御アイコン(25)に基づいて、前記1つ以上のドモティクス装置および/または前記1つ以上の電子コミュニケーションツールを選択するおよび/または制御するように構成されている、請求項1〜14のいずれか1項に記載のシステム(1)。 - 前記信号特徴は、校正時に検出される前記生体電気信号(SBc)の時間進展(V(t))を備え、前記利用者が、選択を可能とすると一般的に定義されている前記自発生体活動を実行する、請求項1〜15のいずれか1項に記載のシステム(1)。
- 前記信号特徴は1つ以上の閾値(S1、S2)を備え、前記1つ以上の閾値(S1、S2)は校正時に検出される前記生体電気信号(SBc)の1つ以上の閾値にそれぞれ対応しており、
前記システム(1)は、初期システム校正ステップにおいて識別される前記1つ以上の生体電気信号閾値(S1、S2)を定義し記憶するようにさらに構成されており、
前記処理ユニット(13)は、前記利用者の選択意思の発生を識別するまたは識別しないために、検出した前記生体電気信号(SBr)と前記1つ以上の閾値(S1、S2)とを比較するように構成されている、請求項1〜16のいずれか1項に記載のシステム(1)。 - 単一の閾値(S3)が記憶され、前記処理ユニット(13)は、検出した前記生体電気信号(SBr)が所定選択時間間隔(Ts)に渡って当該閾値(S3)を超えるとき、前記利用者の選択意思の発生を識別するように構成されている、請求項17に記載のシステム(1)。
- 前記電子コミュニケーションインターフェイス(10)は、
検出した前記電気生体信号(SBr)が前記閾値よりも低いものの増加傾向があるとき、スキャン速度を減速し、
検出した前記電気生体信号(SBr)が前記閾値を超えるとき、前記スキャンを停止し、
検出した前記生体電気信号(SBr)が前記選択時間間隔(Ts)と同様な時間または前記選択時間間隔(Ts)より長い時間に渡って依然として前記閾値を超える場合、前記スキャンが停止されるところにおいて、前記情報の選択を確定するように構成されている、請求項18に記載のシステム(1)。 - 複数の信号間隔を定義するに適した複数の閾値(S1、S2)が記憶され、
前記処理ユニット(3)は、対応する信号範囲において前記選択時間間隔(Ts)に渡って検出される前記生体電気信号(SBr)の持続に基づいて、前記利用者によって行われる複数選択命令(A、B、C)を識別するように構成されており、各命令は前記複数の信号間隔のうち対応する1つに関連する、請求項17〜19のいずれか1項に記載のシステム(1)。 - 前記処理ユニット(13)は、
閾値よりも低い、検出した前記電気生体信号が捉えられるとき、前記スキャンの進行の減速によって与えられる図形フィードバック、および/または、設定された音声による音声フィードバック、および/または、前記利用者の皮膚の表面にある機械式アクチュエータの運動によって提供される触覚フィードバックを前記利用者にさらに提供する、または、
閾値より高い電気生体信号が検出されるとき、前記選択される部分におけるスキャンインターフェイス進行の停止および同様な前記部分における「進捗バー」の動作によって与えられる図形フィードバック、および/または、特定の音調を有する音声によって提供される音声フィードバック、および/または、前記利用者の皮膚の表面にある前記アクチュエータの連続運動によって提供される触覚フィードバックを、前記利用者にさらに提供するように構成されている、請求項17〜20のいずれか1項に記載のシステム(1)。 - 前記1つ以上の閾値(S1、S2)および前記選択時間間隔(Ts)は個人向けに設定可能である、請求項17〜21のいずれか1項に記載のシステム(1)。
- 前記処理ユニット(13)は、1つ以上のパラメータに基づいて前記利用者の意思の識別を実行するように構成されており、
前記1つ以上のパラメータは、
前記スキャンインターフェイスが動作するスキャン速度、
前記1つ以上の閾値の各数値、
選択時間間隔(Ts)、
短時間かつ無意識的に複数の閾値の間における可能な変化をフィルタ処理して無視するためのパラメータとして定義されている誤選択解除時間間隔、または、
前記システムが前記生体信号を分析し始める前の、前記利用者が動作を実行しないまたは想像しない緩和時間間隔である、請求項17〜22のいずれか1項に記載のシステム(1)。 - 前記校正モジュール(12)は、複数の電気生体信号(SBc1、SBcn)のそれぞれに関連する1つ以上の信号特徴(CS1、CSn)を記録するように構成されており、前記複数の電気生体信号(SBc1、SBcn)は前記利用者に実行される複数の自発生体行動の各自発生体活動に対応し、当該複数の自発生体行動は、前記利用者が選択しようとする複数の対応する命令および/または情報の代表として一般的に思われるものであり、
前記処理ユニット(13)は、検出した前記電気生体信号(SBr)と記録された前記1以上の信号特徴(CS1、CSn)との比較に基づいて、前記利用者が実行可能な前記複数の自発生体活動の間に、前記自発生体活動を識別するように構成されており、
前記処理ユニット(13)は、前記複数の命令および/または情報の間に、前記利用者が前記対応する命令および/または情報に関連する選択意思を識別するようにさらに構成されている、請求項1〜23のいずれか1項に記載のシステム(1)。 - 運動障害および/またはコミュニケーション障害を患っている利用者のために、少なくとも1つの補助具とともに提供される、支援技術を制御するための方法であって、
校正モジュール(12)によって、初期システム校正ステップにおいて、前記利用者の少なくとも1つの自発生体活動の発生において検出した前記生体電気信号(SBc)に関連する1つ以上の信号特徴(CS)を記録し、前記1つ以上の信号特徴(CS)が、命令および/または情報を選択するような前記利用者の意思の示唆として一般的に思われるステップと、
電子コミュニケーションインターフェイス(10)によって、複数の感覚刺激を前記利用者に供与し、各前記感覚刺激は前記利用者が選択および/または提供をしようとする可能性がある命令および/または情報に関連するステップと、
少なくとも1つの生体センサ(11)によって、前記感覚刺激の発生に渡って、前記利用者の少なくとも1つの生体活動を検出し、検出した前記生体活動を代表する、対応する生体電気信号(SBc)を生成するステップと、
処理ユニット(13)によって、検出した前記生体電気信号(SBr)と前記校正モジュールに記録された前記1つ以上の信号特徴(CS)とを比較するステップと、
前記処理ユニット(13)によって、前記比較に基づいて、前記利用者に実行される前記生体活動、および、前記利用者の関連する選択意思を識別するステップ
と、
前記処理ユニット(13)によって、前記利用者の選択意思の識別に基づいて、前記電子コミュニケーションインターフェイス(10)および前記補助具(2)に対して制御信号(SC1、SC2)を提供するステップと、を備え、
前記制御信号(SC1、SC2)は、
前記利用者の意思に基づく前記代表を管理するように適用される、少なくとも1つの感覚刺激代表制御信号(SC1)と、
前記利用者に供与される、前記利用者に選択される、および前記処理ユニット(13)に識別される命令および/または情報に基づいて、補助具に対する少なくとも1つの命令信号(SC2)と、を備え、
前記供与ステップは、前記少なくとも1つの制御信号(SC1)が発生する場合、前記少なくとも1の制御信号(SC1)の発生に基づいて前記感覚刺激を供与して、前記制御信号(SC1)が発生していない場合、自動的に特定な一連の感覚刺激を供与するステップを備える、方法。 - 前記検出ステップは、脳電気信号に関連する1つ以上の信号特徴(CS)を記録するステップを備え、前記脳電気信号は、前記利用者に想像される各運動に対応し、命令および/または情報を選択するような前記利用者の意思の示唆として一般的に思われるものであり、
前記検出ステップは、複数の脳電気信号センサ(11)によって、前記感覚刺激の発に渡って、前記利用者の脳電気信号(SBr)を検出するステップを備え、
前記比較ステップは、前記処理ユニット(13)によって、検出した前記脳電気信号(SBr)と前記校正モジュール(12)に記録された前記1つ以上の信号特徴(CS)とを比較するステップを備え、
前記識別ステップは、前記処理ユニット(13)によって、前記比較に基づいて、前記利用者に想像される運動、および、前記利用者の関連する選択意思を識別するステップを備える、請求項25に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITUB2015A003680A ITUB20153680A1 (it) | 2015-09-16 | 2015-09-16 | Sistema di controllo di tecnologie assistive e relativo metodo |
IT102015000052009 | 2015-09-16 | ||
PCT/IB2016/055442 WO2017046698A1 (en) | 2015-09-16 | 2016-09-13 | System for controlling assistive technologies and related method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018529171A true JP2018529171A (ja) | 2018-10-04 |
JP6942120B2 JP6942120B2 (ja) | 2021-09-29 |
Family
ID=54884247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018514885A Active JP6942120B2 (ja) | 2015-09-16 | 2016-09-13 | 支援技術を制御するためのシステムおよびその方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11291385B2 (ja) |
EP (1) | EP3350672A1 (ja) |
JP (1) | JP6942120B2 (ja) |
CN (1) | CN108351701B (ja) |
CA (1) | CA3001961A1 (ja) |
IT (1) | ITUB20153680A1 (ja) |
WO (1) | WO2017046698A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021511567A (ja) * | 2018-01-18 | 2021-05-06 | ニューラブル インコーポレイテッド | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
US11972049B2 (en) | 2017-08-23 | 2024-04-30 | Neurable Inc. | Brain-computer interface with high-speed eye tracking features |
US12001602B2 (en) | 2017-11-13 | 2024-06-04 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10664904B2 (en) * | 2007-07-20 | 2020-05-26 | Daphne WRIGHT | System, device and method for detecting and monitoring a biological stress response for financial rules behavior |
RU2017129475A (ru) * | 2017-08-18 | 2019-02-18 | Общество С Ограниченной Ответственностью "Нейроленд" | Система и способ для бесконтактного управления пользовательским интерфейсом |
US10958641B2 (en) * | 2017-11-20 | 2021-03-23 | International Business Machines Corporation | Context-aware biometric access control policies |
WO2020209866A1 (en) * | 2019-04-12 | 2020-10-15 | Hewlett-Packard Development Company, L.P. | Biometrics for predictive execution |
US11093038B2 (en) | 2019-05-14 | 2021-08-17 | Synchron Australia Pty Limited | Systems and methods for generic control using a neural signal |
AU2021246506A1 (en) * | 2020-04-01 | 2022-10-20 | Synchron Australia Pty Limited | Systems and methods for controlling a device using detected changes in a neural-related signal |
WO2022020778A1 (en) | 2020-07-23 | 2022-01-27 | Control Bionics Limited | Multi-modal switching controller for communication and control |
CN112008725B (zh) * | 2020-08-27 | 2022-05-31 | 北京理工大学 | 一种人机融合脑控机器人*** |
US20230050526A1 (en) * | 2021-08-10 | 2023-02-16 | International Business Machines Corporation | Internet of things configuration using eye-based controls |
CN114327074A (zh) * | 2021-12-29 | 2022-04-12 | 中国工商银行股份有限公司 | 界面功能选择方法、装置、计算机设备、存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2899194B2 (ja) * | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
JP2003248541A (ja) * | 2002-02-22 | 2003-09-05 | Mitsubishi Electric Corp | 脳波信号を用いた制御装置及び制御方法 |
JP2005100366A (ja) * | 2003-08-18 | 2005-04-14 | Yamaguchi Univ | 眼球運動を用いた視線入力コミュニケーション方法 |
JP3116351U (ja) * | 2005-09-02 | 2005-12-02 | 独立行政法人労働者健康福祉機構 | 車椅子移動支援装置 |
JP2007097946A (ja) * | 2005-10-06 | 2007-04-19 | Hiroshima Pref Gov | 電動車椅子 |
WO2010082496A1 (ja) * | 2009-01-19 | 2010-07-22 | パナソニック株式会社 | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
JP2012053656A (ja) * | 2010-09-01 | 2012-03-15 | National Institute Of Advanced Industrial & Technology | 意思伝達支援装置及び方法 |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2332293A (en) * | 1997-12-11 | 1999-06-16 | British Telecomm | An Input Device |
LU90582B1 (en) * | 2000-05-16 | 2001-11-19 | Europ Economic Community | System for identifying brain activity |
US6952809B2 (en) * | 2001-03-30 | 2005-10-04 | International Business Machines Corporation | Method and apparatus for navigating a windowed operating environment |
CA2466339A1 (en) * | 2001-11-10 | 2003-05-22 | Dawn M. Taylor | Direct cortical control of 3d neuroprosthetic devices |
US6842692B2 (en) * | 2002-07-02 | 2005-01-11 | The United States Of America As Represented By The Department Of Veterans Affairs | Computer-controlled power wheelchair navigation system |
US7168198B2 (en) * | 2003-06-23 | 2007-01-30 | Reginald Hill Newkirk | Gun with user notification |
US20060161218A1 (en) * | 2003-11-26 | 2006-07-20 | Wicab, Inc. | Systems and methods for treating traumatic brain injury |
MXPA06008919A (es) * | 2004-02-05 | 2007-07-04 | Motorika Inc | Metodos y aparatos para ejercicio y entrenamiento de rehabilitacion. |
WO2006009129A1 (en) * | 2004-07-16 | 2006-01-26 | Semiconductor Energy Laboratory Co., Ltd. | Biological signal processing unit, wireless memory, biological signal processing system, and control system of device to be controlled |
JP2006072606A (ja) * | 2004-09-01 | 2006-03-16 | National Institute Of Information & Communication Technology | インターフェイス装置、インターフェイス方法及びその装置を用いた制御訓練装置 |
KR100651725B1 (ko) * | 2004-12-13 | 2006-12-01 | 한국전자통신연구원 | 생체 신호를 이용한 텍스트 입력 방법 및 장치 |
US20070032738A1 (en) * | 2005-01-06 | 2007-02-08 | Flaherty J C | Adaptive patient training routine for biological interface system |
US8095209B2 (en) * | 2005-01-06 | 2012-01-10 | Braingate Co., Llc | Biological interface system with gated control signal |
FR2898824B1 (fr) * | 2006-03-27 | 2009-02-13 | Commissariat Energie Atomique | Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en oeuvre de ce dispositif |
US8504146B2 (en) * | 2007-06-29 | 2013-08-06 | The Regents Of The University Of California | Multi-channel myoelectrical control using single muscle |
EP2045690A1 (en) * | 2007-10-04 | 2009-04-08 | Koninklijke Philips Electronics N.V. | Improvements relating to brain computer interfaces |
CN101201696B (zh) | 2007-11-29 | 2011-04-27 | 浙江大学 | 基于p300脑电电位的中文输入bci*** |
JP4531864B2 (ja) * | 2008-07-11 | 2010-08-25 | パナソニック株式会社 | 咀嚼筋電を用いたインタフェースシステム |
CN101391129B (zh) * | 2008-07-21 | 2012-01-18 | 天津大学 | 基于p300信号脑机接口智能化上肢康复训练器及信号处理方法 |
CN101339413B (zh) * | 2008-08-07 | 2010-11-10 | 北京师范大学 | 基于脑电中人脸识别特异性波的开关控制方法 |
JP5531237B2 (ja) * | 2009-02-24 | 2014-06-25 | 本田技研工業株式会社 | 脳情報出力装置、ロボット、および脳情報出力方法 |
NZ595980A (en) * | 2009-04-21 | 2014-07-25 | Univ Sydney Tech | A method and system for controlling a device |
US20120282578A1 (en) * | 2009-08-27 | 2012-11-08 | The Board Of Regents Of The University Of Texas System | System for strategic memory and reasoning (smart) |
US8217900B1 (en) * | 2009-11-12 | 2012-07-10 | James Harrison Bowen | Light beam operated peripheral data input device for use in and out of sunlight |
US9326725B2 (en) * | 2010-03-30 | 2016-05-03 | Children's National Medical Center | Apparatus and method for human algometry |
WO2011127609A1 (en) * | 2010-04-16 | 2011-10-20 | Applied Brain And Vision Sciences Inc. | Encephalography method and apparatus incorporating independent component analysis and a spectral shaping filter |
WO2011140303A1 (en) * | 2010-05-05 | 2011-11-10 | University Of Maryland, College Park | Time domain-based methods for noninvasive brain-machine interfaces |
US8935005B2 (en) * | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
WO2011150407A2 (en) * | 2010-05-28 | 2011-12-01 | The Regents Of The University Of California | Cell-phone based wireless and mobile brain-machine interface |
KR101154030B1 (ko) | 2010-06-14 | 2012-06-07 | 한국과학기술원 | 장애인들을 위한 컴퓨터 인터페이스 방법 및 이를 이용한 시스템 |
WO2012027336A1 (en) * | 2010-08-23 | 2012-03-01 | The Regents Of The University Of California | Orthesis system and methods for control of exoskeletons |
US8989857B2 (en) * | 2010-11-15 | 2015-03-24 | Sandy L. Heck | Control system and apparatus utilizing signals originating in the periauricular neuromuscular system |
US9238133B2 (en) * | 2011-05-09 | 2016-01-19 | The Invention Science Fund I, Llc | Method, device and system for modulating an activity of brown adipose tissue in a vertebrate subject |
US8690934B2 (en) * | 2011-05-09 | 2014-04-08 | The Invention Science Fund I, Llc | Method, device and system for modulating an activity of brown adipose tissue in a vertebrate subject |
US8725264B2 (en) * | 2011-08-04 | 2014-05-13 | Fundacio Privada Institut de Neurorehabilitacio Guttmann | Method for treating neuropathic pain |
KR101314570B1 (ko) * | 2011-10-12 | 2013-10-07 | 서울대학교산학협력단 | 정밀한 제어를 위한 뇌-기계 인터페이스 장치 및 방법 |
TWI449515B (zh) * | 2011-10-19 | 2014-08-21 | Univ Nat Central | 步進延遲閃爍序列之腦機介面控制方法及其系統 |
US9389685B1 (en) * | 2013-07-08 | 2016-07-12 | University Of South Florida | Vision based brain-computer interface systems for performing activities of daily living |
US20150095228A1 (en) * | 2013-10-01 | 2015-04-02 | Libo Su | Capturing images for financial transactions |
KR102224715B1 (ko) * | 2013-10-14 | 2021-03-09 | 삼성전자주식회사 | 3차원 인터랙션 장치, 이를 포함하는 디스플레이 장치, 및 상기 3차원 인터랙션 장치의 구동 방법 |
WO2015160715A1 (en) * | 2014-04-14 | 2015-10-22 | Brown University | Systems and methods for mobile medical monitoring |
US11266342B2 (en) * | 2014-05-30 | 2022-03-08 | The Regents Of The University Of Michigan | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes |
CN104536572B (zh) * | 2014-12-30 | 2017-12-05 | 天津大学 | 一种基于事件相关电位的跨个体通用型脑机接口方法 |
JP2016129661A (ja) * | 2015-01-09 | 2016-07-21 | パナソニックIpマネジメント株式会社 | 判定システム、制御信号出力システム、リハビリシステム、判定方法、制御信号出力方法、コンピュータプログラム、脳波信号取得システム |
PT108690B (pt) * | 2015-07-13 | 2023-04-04 | Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud | Sistema e método para interface cérebro-máquina de aprendizagem de operante |
US11508261B2 (en) * | 2015-09-25 | 2022-11-22 | Institut National De La Sante Et De La Recherche Medicale (Inserm) | Method for obtaining a numerical model associating an objective measurement to a subjective sensation using ultrasound imaging technique and associated device |
US10928472B2 (en) * | 2016-01-14 | 2021-02-23 | Technion Research & Development Foundation Limited | System and method for brain state classification |
CA3087780A1 (en) * | 2017-02-01 | 2018-08-09 | Cerebian Inc. | System and method for measuring perceptual experiences |
EP3672478A4 (en) * | 2017-08-23 | 2021-05-19 | Neurable Inc. | BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING |
-
2015
- 2015-09-16 IT ITUB2015A003680A patent/ITUB20153680A1/it unknown
-
2016
- 2016-09-13 CA CA3001961A patent/CA3001961A1/en active Pending
- 2016-09-13 US US15/760,972 patent/US11291385B2/en active Active
- 2016-09-13 EP EP16795407.2A patent/EP3350672A1/en active Pending
- 2016-09-13 WO PCT/IB2016/055442 patent/WO2017046698A1/en active Application Filing
- 2016-09-13 CN CN201680066716.9A patent/CN108351701B/zh active Active
- 2016-09-13 JP JP2018514885A patent/JP6942120B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2899194B2 (ja) * | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
JP2003248541A (ja) * | 2002-02-22 | 2003-09-05 | Mitsubishi Electric Corp | 脳波信号を用いた制御装置及び制御方法 |
JP2005100366A (ja) * | 2003-08-18 | 2005-04-14 | Yamaguchi Univ | 眼球運動を用いた視線入力コミュニケーション方法 |
JP3116351U (ja) * | 2005-09-02 | 2005-12-02 | 独立行政法人労働者健康福祉機構 | 車椅子移動支援装置 |
JP2007097946A (ja) * | 2005-10-06 | 2007-04-19 | Hiroshima Pref Gov | 電動車椅子 |
WO2010082496A1 (ja) * | 2009-01-19 | 2010-07-22 | パナソニック株式会社 | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
JP2012053656A (ja) * | 2010-09-01 | 2012-03-15 | National Institute Of Advanced Industrial & Technology | 意思伝達支援装置及び方法 |
Non-Patent Citations (4)
Title |
---|
"基本操作", URBANO V02 取扱説明書, JPN6020044162, 31 August 2015 (2015-08-31), pages 33, ISSN: 0004469662 * |
加納 慎一郎 SHIN'ICHIRO KANOH: "足動作のイメージの有無を脳波から検出するBCIシステムの基礎的検討 A Basic Study on Brain-Computer", 電子情報通信学会技術研究報告 VOL.106 NO.370 IEICE TECHNICAL REPORT, vol. 第106巻, JPN6020044166, 15 November 2006 (2006-11-15), JP, pages 9 - 12, ISSN: 0004469665 * |
増田: "ワン・ステップ通信", ASCII 第14巻 第8号, vol. 第14巻, JPN6020044165, 1 August 1990 (1990-08-01), JP, pages 422 - 423, ISSN: 0004469664 * |
本田 幸夫 YUKIO HONDA: "サービスロボットの現状と今後 The Future Trend of Public and Private Use of Robotics", 日本ロボット学会誌 第30巻 第10号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第30巻第10号, JPN6020044163, 15 December 2012 (2012-12-15), pages 65 - 67, ISSN: 0004469663 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11972049B2 (en) | 2017-08-23 | 2024-04-30 | Neurable Inc. | Brain-computer interface with high-speed eye tracking features |
US12001602B2 (en) | 2017-11-13 | 2024-06-04 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
JP2021511567A (ja) * | 2018-01-18 | 2021-05-06 | ニューラブル インコーポレイテッド | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
Also Published As
Publication number | Publication date |
---|---|
US20190104968A1 (en) | 2019-04-11 |
CN108351701B (zh) | 2022-03-11 |
CN108351701A (zh) | 2018-07-31 |
ITUB20153680A1 (it) | 2017-03-16 |
WO2017046698A1 (en) | 2017-03-23 |
US11291385B2 (en) | 2022-04-05 |
CA3001961A1 (en) | 2017-03-23 |
JP6942120B2 (ja) | 2021-09-29 |
EP3350672A1 (en) | 2018-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942120B2 (ja) | 支援技術を制御するためのシステムおよびその方法 | |
Nam et al. | GOM-Face: GKP, EOG, and EMG-based multimodal interface with application to humanoid robot control | |
Barea et al. | Wheelchair guidance strategies using EOG | |
Felzer et al. | HaWCoS: the" hands-free" wheelchair control system | |
Vansteensel et al. | Brain-computer interfaces for communication | |
Barea et al. | System for assisted mobility using eye movements based on electrooculography | |
KR20200101906A (ko) | 고속 눈 추적 피처들을 갖는 뇌-컴퓨터 인터페이스 | |
US20090088659A1 (en) | Biological Sensing With Haptic Feedback | |
CN111656304B (zh) | 通信方法及*** | |
Rupp et al. | Brain–computer interfaces and assistive technology | |
Cecotti et al. | A multimodal virtual keyboard using eye-tracking and hand gesture detection | |
CN113040791A (zh) | 振动触发设备、手指抬起装置及触感手指运动康复*** | |
Navarro et al. | EOG-based wheelchair control | |
Orejuela-Zapata et al. | Self-help devices for quadriplegic population: A systematic literature review | |
Barbosa et al. | Toward a reliable gaze-independent hybrid BCI combining visual and natural auditory stimuli | |
Zou et al. | eyeSay: Make eyes speak for ALS patients with deep transfer learning-empowered wearable | |
Kaneswaran et al. | Towards a brain controlled assistive technology for powered mobility | |
Müller-Putz et al. | Principles of hybrid brain–computer interfaces | |
Kumar et al. | Human-computer interface technologies for the motor impaired | |
CN111158471A (zh) | 一种基于眼动和脑机接口技术的人机交互方法 | |
Šumak et al. | Design and development of contactless interaction with computers based on the Emotiv EPOC+ device | |
Lakshmi et al. | A Novel Approach of Human Hunger Detection especially for physically challenged people | |
WO2017195903A1 (ja) | 生体情報処理装置、生体情報処理方法及びプログラム | |
Perrin et al. | A comparative psychophysical and EEG study of different feedback modalities for HRI | |
Park | Brain-computer interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210721 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210802 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6942120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |