JP2021089544A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2021089544A
JP2021089544A JP2019219153A JP2019219153A JP2021089544A JP 2021089544 A JP2021089544 A JP 2021089544A JP 2019219153 A JP2019219153 A JP 2019219153A JP 2019219153 A JP2019219153 A JP 2019219153A JP 2021089544 A JP2021089544 A JP 2021089544A
Authority
JP
Japan
Prior art keywords
information
user
content
brain wave
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219153A
Other languages
Japanese (ja)
Other versions
JP7320261B2 (en
Inventor
馬場 基文
Motofumi Baba
基文 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2019219153A priority Critical patent/JP7320261B2/en
Priority to US16/891,596 priority patent/US11402907B2/en
Publication of JP2021089544A publication Critical patent/JP2021089544A/en
Application granted granted Critical
Publication of JP7320261B2 publication Critical patent/JP7320261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0006ECG or EEG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6815Ear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/242Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents
    • A61B5/245Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents specially adapted for magnetoencephalographic [MEG] signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • A61B5/374Detecting the frequency distribution of signals, e.g. detecting delta, theta, alpha, beta or gamma waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Otolaryngology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To improve the accuracy of operation of equipment compared with a case where only an electroencephalogram is used.SOLUTION: An information processing system includes a processor for determining an instruction for operating equipment according to a combination of a characteristic of a brain wave of a user and a characteristic of the biological information different from an electroencephalogram detected when the electroencephalogram is detected.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理システム及びプログラムに関する。 The present invention relates to information processing systems and programs.

次世代のユーザインタフェースとして脳波の活用が期待されている。 The use of brain waves is expected as a next-generation user interface.

米国特許出願公開第2013/0096453号明細書U.S. Patent Application Publication No. 2013/0996453

脳波をユーザインタフェースとして使用するには、意図的に特定の脳波を作り分ける必要があるが、再現性を高めるには特別な訓練が必要とされる。また、医療分野で規定されている測定点以外の位置で脳波を測定することも研究されているが、ユーザの意図との対応付けの精度は低い。このため、初期のユーザインタフェースでは、測定される脳波を補完して操作の精度を向上させる仕組みが必要になると考えられる。 In order to use brain waves as a user interface, it is necessary to intentionally create specific brain waves, but special training is required to improve reproducibility. In addition, measurement of brain waves at positions other than the measurement points specified in the medical field has also been studied, but the accuracy of association with the user's intention is low. Therefore, in the initial user interface, it is considered that a mechanism for complementing the measured electroencephalogram to improve the operation accuracy is required.

本発明は、脳波だけを用いる場合に比して、機器の操作の精度を向上させることを目的とする。 An object of the present invention is to improve the accuracy of operation of a device as compared with the case where only brain waves are used.

請求項1に記載の発明は、ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴との組み合わせに応じて機器を操作する指示を決定するプロセッサを有する、情報処理システムである。
請求項2に記載の発明は、前記生体情報は、ユーザの頭部に接触する電極で測定される、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記生体情報は耳部に接触する電極で測定される、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記プロセッサは、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い間、前記生体情報の特徴に応じて特定される操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項5に記載の発明は、前記プロセッサは、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項4に記載の情報処理システムである。
請求項6に記載の発明は、前記プロセッサは、前記脳波の特徴と、前記生体情報の特徴と、ユーザが実際に行った操作の結果とを教師データとして学習された学習済みモデルを使用し、前記機器を操作する指示を決定する、請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記学習済みモデルは、ユーザ別に生成される、請求項6に記載の情報処理システムである。
請求項8に記載の発明は、ユーザが実際に行った前記操作の結果には、ユーザの音声による指示が使用される、請求項6に記載の情報処理システムである。
請求項9に記載の発明は、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い場合、又は、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項6に記載の情報処理システムである。
請求項10に記載の発明は、前記生体情報の特徴は、ユーザによる意図的な身体の動きに由来する、請求項1〜9のうちいずれか1項に記載の情報処理システムである。
請求項11に記載の発明は、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項12に記載の発明は、前記脳波の特徴と前記生体情報の特徴が共起する確率が予め定めた第3の閾値を超えた状態で、当該生体情報に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第4の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項13に記載の発明は、前記脳波の特徴は、非接触に測定される、請求項1に記載の情報処理システムである。
請求項14に記載の発明は、前記生体情報の特徴は、ユーザの表情に関する情報である、請求項13に記載の情報処理システムである。
請求項15に記載の発明は、前記生体情報の特徴は、ユーザの視線の方向に関する情報である、請求項13に記載の情報処理システムである。
請求項16に記載の発明は、請求項1に記載の情報処理システムは、ユーザが装着して使用するデバイスである。
請求項17に記載の発明は、請求項1に記載の情報処理システムは、ユーザが装着するデバイスと通信可能に接続されたコンピュータである。
請求項18に記載の発明は、コンピュータに、ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴を検出する機能と、前記脳波の特徴と前記生体情報の特徴の組み合わせに応じて操作を決定する機能とを実行させるプログラムである。
The invention according to claim 1 provides an instruction to operate a device according to a combination of a feature of a user's brain wave and a feature of biological information different from the brain wave detected when the brain wave is detected. An information processing system having a deciding processor.
The invention according to claim 2 is the information processing system according to claim 1, wherein the biometric information is measured by an electrode in contact with the user's head.
The invention according to claim 3 is the information processing system according to claim 2, wherein the biological information is measured by an electrode in contact with the ear portion.
According to the fourth aspect of the present invention, the processor uses the biometric information while the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation is lower than the first threshold value. The information processing system according to claim 1, wherein the content of the operation specified according to the feature is used for the operation of the device.
According to the fifth aspect of the present invention, when the processor has a concordance rate between the content of the operation determined according to the characteristics of the biometric information and the result of the actually executed operation lower than the second threshold value, the processor is used. The information processing system according to claim 4, wherein a user's voice instruction is used for operating the device.
In the invention according to claim 6, the processor uses a trained model in which the characteristics of the brain wave, the characteristics of the biometric information, and the result of the operation actually performed by the user are learned as teacher data. The information processing system according to claim 1, wherein an instruction for operating the device is determined.
The invention according to claim 7 is the information processing system according to claim 6, wherein the trained model is generated for each user.
The invention according to claim 8 is the information processing system according to claim 6, wherein a voice instruction of the user is used as a result of the operation actually performed by the user.
The invention according to claim 9 is based on the case where the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation is lower than the first threshold value, or the characteristics of the biometric information. According to claim 6, when the concordance rate between the content of the operation determined accordingly and the result of the actually executed operation is lower than the second threshold value, the processor uses the user's voice instruction to operate the device. The information processing system described.
The invention according to claim 10 is the information processing system according to any one of claims 1 to 9, wherein the feature of the biometric information is derived from an intentional movement of the body by a user.
According to the eleventh aspect of the present invention, when the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation exceeds the first threshold value, the processor causes the brain wave. The information processing system according to claim 1, wherein the content of the operation determined according to the characteristics is used for the operation of the device.
The invention according to claim 12 is the content and practice of an operation determined according to the biological information in a state where the probability that the characteristics of the brain wave and the characteristics of the biological information coexist exceeds a predetermined third threshold value. The first aspect of the present invention, wherein when the concordance rate with the result of the operation executed in 1 exceeds the fourth threshold value, the processor uses the content of the operation determined according to the characteristics of the brain wave for the operation of the device. Information processing system.
The invention according to claim 13 is the information processing system according to claim 1, wherein the feature of the brain wave is measured in a non-contact manner.
The information processing system according to claim 13, wherein the feature of the biometric information is information regarding a user's facial expression.
The information processing system according to claim 15, wherein the biometric information is characterized by information about the direction of the user's line of sight.
The invention according to claim 16 is a device that the user wears and uses the information processing system according to claim 1.
The invention according to claim 17 is a computer in which the information processing system according to claim 1 is communicatively connected to a device worn by a user.
The invention according to claim 18 comprises a function of detecting a feature of a user's brain wave, a function of detecting a feature of biological information different from the brain wave, which is detected when the brain wave is being detected, and a function of the brain wave. It is a program that executes a function of determining an operation according to a combination of a feature and a feature of the biological information.

請求項1記載の発明によれば、脳波だけを用いる場合に比して、機器の操作の精度を向上できる。
請求項2記載の発明によれば、電気信号として測定可能な生体情報を用いて操作の精度を高めることができる。
請求項3記載の発明によれば、測定に用いる機器の装着についてユーザの抵抗感を低減できる。
請求項4記載の発明によれば、脳波だけを用いる場合に比して、機器の操作の精度を向上できる。
請求項5記載の発明によれば、生体情報の特徴の精度が低い場合にも、機器の操作の精度を向上できる。
請求項6記載の発明によれば、学習を繰り返すことで、機器の操作の精度を向上できる。
請求項7記載の発明によれば、汎用的な学習済みモデルを用いる場合に比して、機器の操作の精度を向上できる。
請求項8記載の発明によれば、操作の対象である機器から操作の結果を収集できない場合にも、機器の操作の精度を向上できる。
請求項9記載の発明によれば、一致率が低い間は、ユーザの音声の指示を優先し、操作信号の精度の低下を回避できる。
請求項10記載の発明によれば、意図的に身体の動きを組み合わせることで機器の操作の精度を向上できる。
請求項11記載の発明によれば、一致率が高くなった後は脳波だけで操作できる。
請求項12記載の発明によれば、一致率が高くなった後は脳波だけで操作できる。
請求項13記載の発明によれば、非接触に脳波が測定される場合にも、機器の操作の精度を向上できる。
請求項14記載の発明によれば、音声を用いなくても、機器の操作の精度を向上できる。
請求項15記載の発明によれば、音声を用いなくても、機器の操作の精度を向上できる。
請求項16記載の発明によれば、通信状況が悪い場所でも使用できる。
請求項17記載の発明によれば、装置構成の制約を少なくできる。
請求項18記載の発明によれば、脳波だけを用いる場合に比して、機器の操作の精度を向上できる。
According to the invention of claim 1, the accuracy of operation of the device can be improved as compared with the case where only brain waves are used.
According to the invention of claim 2, the accuracy of operation can be improved by using biometric information that can be measured as an electric signal.
According to the invention of claim 3, it is possible to reduce the user's feeling of resistance when mounting the device used for measurement.
According to the invention of claim 4, the accuracy of operation of the device can be improved as compared with the case where only brain waves are used.
According to the invention of claim 5, even when the accuracy of the feature of the biological information is low, the accuracy of the operation of the device can be improved.
According to the invention of claim 6, the accuracy of operation of the device can be improved by repeating the learning.
According to the invention of claim 7, the accuracy of operation of the device can be improved as compared with the case of using a general-purpose trained model.
According to the invention of claim 8, the accuracy of the operation of the device can be improved even when the result of the operation cannot be collected from the device to be operated.
According to the invention of claim 9, while the matching rate is low, the user's voice instruction can be prioritized and the deterioration of the accuracy of the operation signal can be avoided.
According to the invention of claim 10, the accuracy of operation of the device can be improved by intentionally combining the movements of the body.
According to the invention of claim 11, after the concordance rate is high, the operation can be performed only by the brain wave.
According to the invention of claim 12, after the concordance rate becomes high, it can be operated only by brain waves.
According to the thirteenth aspect of the present invention, the accuracy of operation of the device can be improved even when the brain wave is measured in a non-contact manner.
According to the invention of claim 14, the accuracy of operation of the device can be improved without using voice.
According to the invention of claim 15, the accuracy of operation of the device can be improved without using voice.
According to the invention of claim 16, it can be used even in a place where the communication condition is bad.
According to the invention of claim 17, restrictions on the device configuration can be reduced.
According to the invention of claim 18, the accuracy of operation of the device can be improved as compared with the case where only brain waves are used.

実施の形態1で使用する脳波操作システムの概略構成を示す図である。It is a figure which shows the schematic structure of the electroencephalogram manipulation system used in Embodiment 1. FIG. 実施の形態1で使用するイヤホンの外観構成の一例を説明する図である。It is a figure explaining an example of the appearance structure of the earphone used in Embodiment 1. FIG. 実施の形態1で使用するイヤホンの内部構成の一例を説明する図である。It is a figure explaining an example of the internal structure of the earphone used in Embodiment 1. FIG. 実施の形態1で使用する情報端末の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information terminal used in Embodiment 1. FIG. ユーザが特定の操作を念じながら行う意図的な筋肉の動きの一例を説明する図である。It is a figure explaining an example of intentional muscle movement that a user performs while paying attention to a specific operation. 実施の形態1で使用する対応関係テーブルの例を説明する図である。(A)は脳波情報の特徴用の対応関係テーブルを示し、(B)は脳波以外の生体情報の特徴用の対応関係テーブルを示す。It is a figure explaining the example of the correspondence table used in Embodiment 1. FIG. (A) shows a correspondence table for features of EEG information, and (B) shows a correspondence table for features of biological information other than EEG. 脳波情報を含むデジタル信号を受信した情報端末が実行する処理動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the processing operation executed by the information terminal which received the digital signal including the electroencephalogram information. 脳波情報を含むデジタル信号を受信した情報端末が実行する処理動作の他の一例を説明するフローチャートである。It is a flowchart explaining another example of the processing operation executed by the information terminal which received the digital signal including the electroencephalogram information. イヤホンを装着した状態で、脳波の測定が可能な脳波センサ付きヘッドセットの測定点を説明する図である。It is a figure explaining the measurement point of the headset with the electroencephalogram sensor which can measure the electroencephalogram with the earphone attached. 論文に掲載されている脳波の計測点を示す図である。It is a figure which shows the measurement point of the electroencephalogram published in the paper. α波の出力評価を説明する図である。It is a figure explaining the output evaluation of an α wave. MindWaveによる測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。It is a figure explaining the measurement result by Mind Wave. (A) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed without blinking, and (B) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed with blinking. is there. 実施の形態で使用するイヤホンによる測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで更に顎の動きを加えて開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。It is a figure explaining the measurement result by the earphone used in embodiment. (A) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed without blinking, and (B) is two sets of switching between the open eye state and the closed eye state by further adding jaw movement with blinking. It is a measurement result when it is performed. MindWaveによる測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。It is a figure explaining the measurement result by Mind Wave. (A) shows the change in the ratio of the spectral intensity by frequency band when the eye is changed from the state with blinking to the state where the eye is closed, and (B) is the change by frequency band when the state is changed from no blinking to the state where the eye is closed. The change in the ratio of the spectral intensity of (C) is shown, and (C) is the case where the increase of α wave does not appear. 実施の形態で使用するイヤホンによる測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。It is a figure explaining the measurement result by the earphone used in embodiment. (A) shows the change in the ratio of the spectral intensity by frequency band when the eye is changed from the state with blinking to the state where the eye is closed, and (B) is the change by frequency band when the state is changed from no blinking to the state where the eye is closed. The change in the ratio of the spectral intensity of (C) is shown, and (C) is the case where the increase of α wave does not appear. スペクトル強度の増加部の提示例を示す図である。(A)はMindWaveの測定結果であり、(B)は実施の形態で使用するイヤホンの測定結果である。It is a figure which shows the presentation example of the part which increased the spectral intensity. (A) is the measurement result of Mind Wave, and (B) is the measurement result of the earphone used in the embodiment. 実施の形態2で使用する脳波操作システムの概略構成を示す図である。It is a figure which shows the schematic structure of the electroencephalogram manipulation system used in Embodiment 2. 実施の形態2で使用する情報端末の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information terminal used in Embodiment 2. 実施の形態3で使用する脳波操作システムの概略構成を示す図である。It is a figure which shows the schematic structure of the electroencephalogram manipulation system used in Embodiment 3. 実施の形態3で使用する情報端末の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information terminal used in Embodiment 3. 実施の形態4で使用する脳波操作システムの概略構成を示す図である。It is a figure which shows the schematic structure of the electroencephalogram manipulation system used in Embodiment 4. 実施の形態4で使用する情報端末の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information terminal used in Embodiment 4. 操作の履歴や正誤等を記録するテーブルの例を説明する図である。(A)は脳波情報の特徴により推定された操作の履歴や正誤を記録するテーブルを示し、(B)は脳波以外の生体情報の特徴により推定された操作の履歴や正誤を記録するテーブルを示す。It is a figure explaining the example of the table which records the operation history, correctness and error. (A) shows a table that records the operation history and errata estimated by the characteristics of EEG information, and (B) shows a table that records the operation history and errata estimated by the characteristics of biometric information other than EEG. .. 脳波情報を含むデジタル信号を受信した情報端末が実行する処理動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the processing operation executed by the information terminal which received the digital signal including the electroencephalogram information. 実施の形態5で使用する脳波操作システムの概略構成を示す図である。It is a figure which shows the schematic structure of the electroencephalogram manipulation system used in Embodiment 5. 実施の形態5で使用する情報端末の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information terminal used in Embodiment 5. 脳波による操作の履歴や正誤等を記録するテーブルの例を説明する図である。It is a figure explaining the example of the table which records the history of the operation by an electroencephalogram, correctness, etc. 脳波情報を含むデジタル信号を受信した情報端末が実行する処理動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the processing operation executed by the information terminal which received the digital signal including the electroencephalogram information. 片耳に装着するタイプのイヤホンの外観例を説明する図である。It is a figure explaining the appearance example of the type earphone which is attached to one ear. 脳波の測定に使用する電極を配置したイヤリングの一例を説明する図である。It is a figure explaining an example of the earring which arranged the electrode used for the measurement of an electroencephalogram. 脳波の測定に使用する電極を配置した眼鏡の一例を説明する図である。It is a figure explaining an example of the spectacles which arranged the electrode used for the measurement of an electroencephalogram. ユーザの周囲の環境に同化させた画像を表示させる機能を備えるヘッドセットに脳波の測定に使用する場合の電極の配置例を説明する図である。It is a figure explaining the arrangement example of the electrode when it is used for the measurement of the electroencephalogram in the headset which has the function of displaying the image assimilated to the environment around the user. 視線を追跡する機能を生体情報の特徴とする例を説明する図である。(A)は視線の方向が左方向の場合を示し、(B)は視線の方向が右方向の場合を示し、(C)は視線の方向が上方向の場合を示し、(D)は視線の方向が下方向の場合を示す。It is a figure explaining an example in which the function of tracking a line of sight is a feature of biological information. (A) shows the case where the direction of the line of sight is to the left, (B) shows the case where the direction of the line of sight is to the right, (C) shows the case where the direction of the line of sight is upward, and (D) shows the case where the direction of the line of sight is upward. Indicates a case where the direction of is downward. 近赤外光を用いて脳の活動に起因する血流量の変化を測定する装置の一例を示す図である。It is a figure which shows an example of the apparatus which measures the change of the blood flow rate caused by the activity of a brain using near infrared light. 脳磁計の一例を説明する図である。It is a figure explaining an example of a magnetoencephalogram. ユーザの表情を脳波以外の生体情報の特徴の取得に使用する脳波操作システムの例を示す図である。It is a figure which shows the example of the electroencephalogram manipulation system which uses the user's facial expression for the acquisition of the feature of the biological information other than the electroencephalogram.

以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システム構成>
図1は、実施の形態1で使用する脳波操作システム1の概略構成を示す図である。
図1に示す脳波操作システム1は、外耳孔を塞ぐように装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20と、ユーザが操作の対象とする機器(以下「操作対象機器」という)30とで構成されている。
本実施の形態におけるイヤホン10と情報端末20は、情報処理システムの一例である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Embodiment 1>
<System configuration>
FIG. 1 is a diagram showing a schematic configuration of an electroencephalogram manipulation system 1 used in the first embodiment.
The electroencephalogram operation system 1 shown in FIG. 1 includes an earphone 10 worn so as to close the external ear canal, an information terminal 20 wirelessly connected to the earphone 10, and a device to be operated by the user (hereinafter, “operation target device”). It is composed of 30 and.
The earphone 10 and the information terminal 20 in this embodiment are examples of an information processing system.

本実施の形態におけるイヤホン10は、情報端末20から受信される音を再生する回路に加え、脳の活動に起因する電気的な信号(以下「脳波」という)を測定する回路を内蔵する。
本実施の形態で使用するイヤホン10は、ワイヤレス型のデバイスである。このため、イヤホン10は、無線通信により、情報端末20と接続される。
本実施の形態では、イヤホン10と情報端末20との無線接続にブルートゥース(登録商標)を使用する。なお、無線接続には、WiFi(登録商標)その他の通信規格を用いることも可能である。もっとも、イヤホン10と情報端末20をケーブルで接続することも可能である。
The earphone 10 in the present embodiment has a built-in circuit for reproducing an electric signal (hereinafter referred to as "brain wave") caused by the activity of the brain, in addition to a circuit for reproducing the sound received from the information terminal 20.
The earphone 10 used in this embodiment is a wireless device. Therefore, the earphone 10 is connected to the information terminal 20 by wireless communication.
In this embodiment, Bluetooth (registered trademark) is used for wireless connection between the earphone 10 and the information terminal 20. It is also possible to use WiFi (registered trademark) or other communication standards for wireless connection. However, it is also possible to connect the earphone 10 and the information terminal 20 with a cable.

情報端末20は、イヤホン10から受信されるデジタル信号を処理してユーザが望む操作の内容を推定し、推定された操作を指示する信号(以下「操作信号」という)を操作対象機器30に送信する。図1の例では、情報端末20としてスマートフォンを想定している。もっとも、情報端末20は、タブレット端末やノート型のコンピュータでもよく、ウェアラブルコンピュータ等でもよい。
図1の場合、ユーザが念じた「電源オン」に対応する操作信号を操作対象機器30に送信している。操作対象機器30への操作信号の送信には、赤外線の使用の他、LPWA(=Low Power Wide Area)等の既存の通信方式の使用も可能である。LPWAは、IoT通信に使用される通信方式の一例である。
The information terminal 20 processes the digital signal received from the earphone 10 to estimate the content of the operation desired by the user, and transmits a signal (hereinafter referred to as “operation signal”) instructing the estimated operation to the operation target device 30. To do. In the example of FIG. 1, a smartphone is assumed as the information terminal 20. However, the information terminal 20 may be a tablet terminal, a notebook computer, a wearable computer, or the like.
In the case of FIG. 1, the operation signal corresponding to the "power on" that the user has in mind is transmitted to the operation target device 30. In addition to using infrared rays, existing communication methods such as LPWA (= Low Power Wide Area) can also be used to transmit the operation signal to the operation target device 30. LPWA is an example of a communication method used for IoT communication.

本実施の形態における操作対象機器30は、外部からの信号を受信して内部の動作を制御する機能を備える機器であればよい。操作対象機器30は、例えば赤外線の受光部を有する機器、IoT(=Internet of Things)通信に対応する機器をいう。
図1の場合、操作対象機器30は、ユーザの念じた「電源オン」に対応する操作信号を情報端末20から受信する。
The operation target device 30 in the present embodiment may be a device having a function of receiving a signal from the outside and controlling the internal operation. The operation target device 30 refers to, for example, a device having an infrared light receiving unit and a device corresponding to IoT (= Internet of Things) communication.
In the case of FIG. 1, the operation target device 30 receives the operation signal corresponding to the "power on" that the user has in mind from the information terminal 20.

まず、脳波の測定にイヤホン10を用いる理由について説明する。
脳波を用いるインタフェースの普及を考える場合、脳波を計測していることが明らかなデバイスの装着は、ユーザの支持を受けられない可能性がある。例えばヘルメット型のデバイスは、デザイン性の観点からも、身体への負担の観点からもユーザの支持を得られない可能性がある。
以上の理由に鑑み、本実施の形態では、脳波を測定するデバイスとしてイヤホン10を使用する。イヤホン10は、いわゆるオーディオ機器として普及しているため、その装着に対する心理的な抵抗は少ないと考えられる。
First, the reason why the earphone 10 is used for measuring the brain wave will be described.
When considering the widespread use of interfaces that use brain waves, wearing a device that is clearly measuring brain waves may not be supported by the user. For example, a helmet-type device may not be supported by the user from the viewpoint of design and the burden on the body.
In view of the above reasons, in the present embodiment, the earphone 10 is used as a device for measuring brain waves. Since the earphone 10 is widely used as a so-called audio device, it is considered that there is little psychological resistance to wearing the earphone 10.

また、イヤホン10が装着される外耳孔は、脳に近いため、脳波の測定にも好都合である。イヤホン10で脳波の測定が可能なことは、後述する実験結果の項で説明する。なお、外耳孔は、耳部の一例である。本実施の形態の場合、耳部は、耳介と外耳孔を含む。
この他、イヤホン10には、不図示のスピーカが内蔵されるため、ユーザに対する情報の伝達にも都合がよい。
加えて、イヤホン10が装着される耳部は、ユーザの口にも近く、ユーザの発する声の検出にも好都合である。
Further, since the external ear canal to which the earphone 10 is attached is close to the brain, it is convenient for measuring brain waves. The ability to measure brain waves with the earphone 10 will be described in the section of experimental results described later. The external ear canal is an example of the ear portion. In the case of the present embodiment, the ear portion includes the pinna and the external ear canal.
In addition, since the earphone 10 has a built-in speaker (not shown), it is convenient for transmitting information to the user.
In addition, the ear portion on which the earphone 10 is attached is close to the user's mouth, which is convenient for detecting the voice emitted by the user.

<イヤホン10の構成>
図2は、実施の形態1で使用するイヤホン10の外観構成の一例を説明する図である。
イヤホン10は、外耳孔に挿入されるイヤホンチップ11R及び11Lと、イヤホンチップ11R及び11Lが取り付けられるイヤホン本体12R及び12Lと、耳介と側頭との隙間に装着されるイヤーフック13R及び13Lと、イヤホン本体12R及び12Lを接続するケーブル14と、電源ボタンやボリュームボタンが配置されたコントローラ15とで構成されている。
図中のRはユーザの右耳側に位置することを示し、Lはユーザの左耳側に位置することを示す。
<Configuration of earphone 10>
FIG. 2 is a diagram illustrating an example of the appearance configuration of the earphone 10 used in the first embodiment.
The earphone 10 includes earphone chips 11R and 11L inserted into the external ear canal, earphone bodies 12R and 12L to which the earphone chips 11R and 11L are attached, and ear hooks 13R and 13L attached to the gap between the pinna and the temporal region. , The cable 14 for connecting the earphone bodies 12R and 12L, and the controller 15 on which the power button and the volume button are arranged.
In the figure, R indicates that it is located on the right ear side of the user, and L indicates that it is located on the left ear side of the user.

本実施の形態におけるイヤホンチップ11Rは、外耳孔に挿入され、外耳孔の内壁に接触されるドーム状の電極11R1と、耳甲介腔に接触されるリング状の電極11R2とで構成される。
本実施の形態における電極11R1と電極11R2は、いずれも導電性ゴムで構成される。皮膚に現れる電気信号を測定するためである。なお、電極11R1と電極11R2とは、絶縁体により電気的に分離されている。
The earphone chip 11R in the present embodiment is composed of a dome-shaped electrode 11R1 that is inserted into the external ear canal and is in contact with the inner wall of the external ear canal, and a ring-shaped electrode 11R2 that is in contact with the concha cavity.
Both the electrode 11R1 and the electrode 11R2 in the present embodiment are made of conductive rubber. This is to measure the electrical signal that appears on the skin. The electrode 11R1 and the electrode 11R2 are electrically separated by an insulator.

本実施の形態の場合、電極11R1は、脳波(EEG:ElectroEncephaloGram)と脳波以外の生体情報を含む電位変動の測定に用いられる端子(以下「EEG測定用端子」という)である。本実施の形態では、脳波以外の生体情報として、目、鼻、口、眉等の表情に関係する筋肉(以下「表情筋」という)、咀嚼運動に使用する筋肉(以下「咀嚼筋」という)、飲み込むときに使用する筋肉(以下「舌骨筋」という)等の動きに伴う電気信号の成分を活用する。
なお、電極11R2は、接地電極(以下「GND端子」ともいう)である。
In the case of the present embodiment, the electrode 11R1 is a terminal used for measuring an electroencephalogram (EEG: ElectroEncephaloGram) and a potential fluctuation including biological information other than the electroencephalogram (hereinafter referred to as “EEG measurement terminal”). In the present embodiment, as biological information other than brain waves, muscles related to facial expressions such as eyes, nose, mouth, and eyebrows (hereinafter referred to as "facial muscles") and muscles used for masticatory movement (hereinafter referred to as "masticatory muscles"). , Utilize the components of electrical signals that accompany the movement of muscles used when swallowing (hereinafter referred to as "tongue bone muscles").
The electrode 11R2 is a ground electrode (hereinafter, also referred to as a “GND terminal”).

一方、イヤホンチップ11Lは、外耳孔に挿入され、外耳孔の内壁に接触されるドーム状の電極11L1で構成される。本実施の形態の場合、電極11L1は、基準電位(REF:REFerence)の測定に用いられる端子(以下「REF端子」という)である。もっとも、本実施の形態の場合、電極11R2と電極11L1は電気的に短絡されている。
後述するように、本実施の形態の場合、脳波と脳波以外の生体情報を含む電位変動は、電極11R1と電極11L1で測定された電気信号の差分信号として測定される。
以下では、脳波と脳波以外の生体情報を含む電位変動を総称する場合、「脳波等の生体情報」という。
On the other hand, the earphone chip 11L is composed of a dome-shaped electrode 11L1 that is inserted into the outer ear canal and comes into contact with the inner wall of the outer ear canal. In the case of the present embodiment, the electrode 11L1 is a terminal (hereinafter referred to as “REF terminal”) used for measuring the reference potential (REF: REFERence). However, in the case of this embodiment, the electrode 11R2 and the electrode 11L1 are electrically short-circuited.
As will be described later, in the case of the present embodiment, the potential fluctuation including the electroencephalogram and biological information other than the electroencephalogram is measured as a difference signal between the electric signals measured by the electrodes 11R1 and 11L1.
Hereinafter, when the potential fluctuation including the electroencephalogram and the biological information other than the electroencephalogram is generically referred to, it is referred to as "electroencephalogram and other biological information".

なお、脳科学の分野において、脳波以外に由来する全ての電位変動は、アーチファクトと呼ばれる。脳科学の分野では、脳波を測定した電気信号には、アーチファクトが必ず含まれると考えられている。
アーチファクトに含まれる成分は、生体に由来する成分、電極等の測定系に由来する成分、外部の機会や環境に由来する成分に分類される。これら3つの成分のうち生体に由来する成分以外は、イヤホン10で測定される雑音として測定することが可能である。雑音は、電極11R1と電極11L1を電気的に短絡した状態における電気信号として測定することが可能である。
In the field of brain science, all potential fluctuations derived from other than brain waves are called artifacts. In the field of brain science, it is believed that electrical signals that measure brain waves always contain artifacts.
The components contained in the artifact are classified into components derived from a living body, components derived from a measurement system such as an electrode, and components derived from an external opportunity or environment. Of these three components, components other than those derived from the living body can be measured as noise measured by the earphone 10. The noise can be measured as an electric signal in a state where the electrode 11R1 and the electrode 11L1 are electrically short-circuited.

本実施の形態におけるイヤホン本体12Rには、脳波等の生体信号に対応するデジタル信号を生成する回路、不図示のマイクから出力される電気信号からオーディオデータを生成する回路、情報端末20(図1参照)から受信されたオーディオデータを復号して不図示のスピーカに出力する処理を実行する回路等が内蔵されている。
一方、イヤホン本体12Lには、バッテリが内蔵されている。
The earphone body 12R in the present embodiment includes a circuit that generates a digital signal corresponding to a biological signal such as a brain wave, a circuit that generates audio data from an electric signal output from a microphone (not shown), and an information terminal 20 (FIG. 1). It has a built-in circuit that executes a process of decoding the audio data received from (see) and outputting it to a speaker (not shown).
On the other hand, the earphone body 12L has a built-in battery.

図3は、実施の形態1で使用するイヤホン10の内部構成の一例を説明する図である。
図3には、イヤホン10のうちイヤホン本体12R及び12Lの内部構成が表されている。
本実施の形態の場合、イヤホン本体12Rは、デジタル脳波計121と、マイク122と、スピーカ123と、6軸センサ124と、ブルートゥースモジュール125と、半導体メモリ126と、MPU(=Micro Processing Unit)127を有している。
FIG. 3 is a diagram illustrating an example of the internal configuration of the earphone 10 used in the first embodiment.
FIG. 3 shows the internal configurations of the earphone bodies 12R and 12L of the earphone 10.
In the case of the present embodiment, the earphone body 12R includes a digital electrosurgical meter 121, a microphone 122, a speaker 123, a 6-axis sensor 124, a Bluetooth module 125, a semiconductor memory 126, and an MPU (= Micro Processing Unit) 127. have.

デジタル脳波計121は、電極11R1と電極11L1に現れる電位変動を差動増幅する差動アンプと、差動アンプの出力をサンプリング処理するサンプリング回路と、サンプリング後のアナログ電位をデジタル値に変換するアナログ/デジタル変換回路とを含んでいる。本実施の形態の場合、サンプリングレートは600Hzである。また、アナログ/デジタル変換回路の分解能は16ビットである。
マイク122は、ユーザが発する音声で振動する振動板と、振動板の振動を電気信号に変換するボイスコイルと、電気信号を増幅するアンプとを含んでいる。なお、アンプから出力される電気信号のアナログ電位をデジタル値に変換するアナログ/デジタル変換回路が別途用意される。
The digital electrosurgical meter 121 includes a differential amplifier that differentially amplifies the potential fluctuations appearing on the electrodes 11R1 and 11L1, a sampling circuit that samples the output of the differential amplifier, and an analog that converts the analog potential after sampling into a digital value. / Includes a digital conversion circuit. In the case of this embodiment, the sampling rate is 600 Hz. The resolution of the analog / digital conversion circuit is 16 bits.
The microphone 122 includes a diaphragm that vibrates with a voice emitted by a user, a voice coil that converts the vibration of the diaphragm into an electric signal, and an amplifier that amplifies the electric signal. An analog / digital conversion circuit that converts the analog potential of the electric signal output from the amplifier into a digital value is separately prepared.

スピーカ123は、振動板と、オーディオデータに応じた電流が流れることで振動板を振動させるボイスコイルとを含んでいる。なお、MPU127から入力されるオーディオデータは、デジタル/アナログ変換回路によりアナログ信号に変換される。
6軸センサ124は、3軸の加速度センサと3軸のジャイロセンサで構成される。6軸センサ124は、ユーザの姿勢の検知に用いられる。
ブルートゥースモジュール125は、情報端末20(図1参照)との間でデータを送受信するために用いられる。本実施の形態の場合、ブルートゥースモジュール125は、デジタル脳波計121が出力するデジタル信号やマイク122で取得されたオーディオデータの情報端末20への送信に用いられる他、情報端末20からのオーディオデータの受信にも用いられる。
The speaker 123 includes a diaphragm and a voice coil that vibrates the diaphragm by flowing a current corresponding to audio data. The audio data input from the MPU 127 is converted into an analog signal by the digital / analog conversion circuit.
The 6-axis sensor 124 is composed of a 3-axis acceleration sensor and a 3-axis gyro sensor. The 6-axis sensor 124 is used to detect the posture of the user.
The Bluetooth module 125 is used for transmitting and receiving data to and from the information terminal 20 (see FIG. 1). In the case of the present embodiment, the Bluetooth module 125 is used for transmitting the digital signal output by the digital electrosurgical meter 121 and the audio data acquired by the microphone 122 to the information terminal 20, and the audio data from the information terminal 20. It is also used for reception.

半導体メモリ126は、例えばBIOS(=Basic Input Output System)が記憶されたROM(=Read Only Memory)と、ワークエリアとして用いられるRAM(=Random Access Memory)と、書き換えが可能な不揮発性のメモリ(以下「フラッシュメモリ」という)で構成される。
本実施の形態の場合、フラッシュメモリは、デジタル脳波計121の出力であるデジタル信号の記憶、マイク122で取得されたオーディオデータの記憶、情報端末20から受信されたオーディオデータの記憶等に用いられる。
The semiconductor memory 126 includes, for example, a ROM (= Read Only Memory) in which a BIOS (= Basic Input Output System) is stored, a RAM (= Random Access Memory) used as a work area, and a rewritable non-volatile memory (= Random Access Memory). Hereinafter referred to as "flash memory").
In the case of the present embodiment, the flash memory is used for storing a digital signal which is an output of a digital electrosurgical meter 121, storing audio data acquired by a microphone 122, storing audio data received from an information terminal 20, and the like. ..

MPU127は、情報端末20との間におけるデジタル信号の送受信の制御、情報端末20に送信するデジタル信号の処理、情報端末20から受信したデジタル信号の処理等を実行する。本実施の形態の場合、MPU127は、デジタル脳波計121が出力するデジタル信号に対するフーリエ変換等の処理を実行する。なお、MPU127と半導体メモリ126はコンピュータとして動作する。
一方、イヤホン本体12Lには、リチウムバッテリ128が内蔵されている。
The MPU 127 controls transmission / reception of a digital signal to / from the information terminal 20, processes a digital signal transmitted to the information terminal 20, processes a digital signal received from the information terminal 20, and the like. In the case of the present embodiment, the MPU 127 executes a process such as a Fourier transform on the digital signal output by the digital electroencephalograph 121. The MPU 127 and the semiconductor memory 126 operate as a computer.
On the other hand, the earphone body 12L has a built-in lithium battery 128.

<情報端末20の構成>
図4は、実施の形態1で使用する情報端末20の内部構成の一例を示す図である。
なお、図4では、情報端末20を構成するデバイスのうち、脳波等の生体情報から操作対象機器30(図1参照)を操作する操作信号の生成に関連するデバイスを抜き出して表している。
図4に示す情報端末20は、ブルートゥースモジュール201と、MPU202と、半導体メモリ203と、ワイヤレスIoTモジュール204とを有している。
<Configuration of information terminal 20>
FIG. 4 is a diagram showing an example of the internal configuration of the information terminal 20 used in the first embodiment.
Note that, in FIG. 4, among the devices constituting the information terminal 20, the devices related to the generation of the operation signal for operating the operation target device 30 (see FIG. 1) are extracted from the biological information such as brain waves.
The information terminal 20 shown in FIG. 4 has a Bluetooth module 201, an MPU 202, a semiconductor memory 203, and a wireless IoT module 204.

ブルートゥースモジュール201は、イヤホン10に設けられているブルートゥースモジュール125との通信に用いられる。
MPU202は、イヤホン10(図1参照)より受信されたデジタル信号から脳波の情報(以下「脳波情報」という)と脳波以外の生体情報とを取得し、操作対象機器30(図1参照)に対する操作の内容を推定する機能を実行する。ここでの機能はアプリケーションプログラムの実行を通じて実現される。
図4に示すMPU202は、イヤホン10より受信されたデジタル信号から脳波情報の特徴を取得する脳波情報取得部221と、イヤホン10より受信されたデジタル信号から脳波以外の生体情報の特徴を取得する生体情報取得部222と、脳波情報の特徴と脳波以外の生体情報の特徴との組み合わせに応じて操作対象機器30に対する指示の内容を推定する操作内容推定部223として機能する。
The Bluetooth module 201 is used for communication with the Bluetooth module 125 provided in the earphone 10.
The MPU 202 acquires brain wave information (hereinafter referred to as "brain wave information") and biological information other than brain waves from a digital signal received from the earphone 10 (see FIG. 1), and operates the operation target device 30 (see FIG. 1). Performs the function of estimating the contents of. The function here is realized through the execution of the application program.
The MPU 202 shown in FIG. 4 has an electroencephalogram information acquisition unit 221 that acquires features of electroencephalogram information from a digital signal received from the earphone 10, and a living body that acquires features of biometric information other than brain waves from the digital signal received from the earphone 10. It functions as the information acquisition unit 222 and the operation content estimation unit 223 that estimates the content of the instruction to the operation target device 30 according to the combination of the characteristics of the electroencephalogram information and the characteristics of the biological information other than the electroencephalogram.

脳波情報取得部221は、イヤホン10より受信されたデジタル信号に出現する脳波に特有の波形成分を分離し、分離された波形成分に含まれる脳波情報の特徴を取得する。脳波情報の特徴の取得には、独立成分分析法(Independent Component Analysis:ICA)その他の既知の技術を活用する。脳波情報の特徴には、例えばデジタル信号に出現する脳波に特有の波形成分、波形成分を構成する周波数成分別のスペクトル強度やその分布、波形成分を構成する特定の周波数成分のスペクトル強度、α波の増加率等がある。 The electroencephalogram information acquisition unit 221 separates the waveform components peculiar to the electroencephalogram appearing in the digital signal received from the earphone 10, and acquires the characteristics of the electroencephalogram information included in the separated waveform components. Independent Component Analysis (ICA) and other known techniques are used to obtain the characteristics of EEG information. The characteristics of the electroencephalogram information include, for example, the waveform component peculiar to the electroencephalogram appearing in the digital signal, the spectral intensity and distribution of each frequency component constituting the waveform component, the spectral intensity of the specific frequency component constituting the waveform component, and the α wave. There is an increase rate of.

生体情報取得部222は、ユーザがある操作を念じながら、意図的に動かした頭部の筋肉の動きに起因する電位変動を、脳波以外の生体情報の特徴として取得する。脳波以外の生体情報の特徴には、例えばデジタル信号に出現する脳波以外の生体情報に特有の波形成分、波形成分を構成する周波数成分別のスペクトル強度やその分布、波形成分を構成する特定の周波数成分のスペクトル強度等がある。
本実施の形態において、ユーザがある操作を念じながら、意図的に動かした頭部の筋肉の動きに起因する電位変動を取得するのは、以下の理由による。
The biological information acquisition unit 222 acquires potential fluctuations caused by the movement of the head muscles that the user intentionally moves while keeping in mind a certain operation, as a feature of biological information other than brain waves. The characteristics of biological information other than brain waves include, for example, waveform components peculiar to biological information other than brain waves appearing in digital signals, spectral intensities and their distributions for each frequency component constituting the waveform component, and specific frequencies constituting the waveform component. There are spectral intensities of the components and the like.
In the present embodiment, the reason why the user acquires the potential fluctuation caused by the movement of the head muscle that is intentionally moved while paying attention to a certain operation is as follows.

前述したように、脳波以外の生体情報は、脳波に起因する電気信号に必ず混在する。このため、脳波以外の生体情報は、脳波情報の測定を妨げる情報と考えられてきた。
また、特定の操作を念じること自体は容易でも、操作の内容に応じた特定の脳波を意図的に発生させることは必ずしも容易ではない。しかも、その脳波を高い再現性で出力できるようになるには、訓練が必要とされる。さらに、任意のユーザが共通の脳波を再現することの困難性も指摘されている。
一方で、ユーザが特定の筋肉を意図的に動かすことは、特定の脳波を出力することに比して格段に容易である。すなわち、特定の生体情報の特徴を出現させることは、ユーザにとってハードルが低いと考えられる。
そこで、本実施の形態では、ユーザが意図的に動かすことが可能な頭部の筋肉の動きに起因して出現する電気信号を生体情報の特徴として取得し、取得された特徴により脳波情報の特徴を補完することを考える。
As described above, biological information other than brain waves is always mixed with electrical signals caused by brain waves. Therefore, biological information other than brain waves has been considered to be information that hinders the measurement of brain wave information.
Further, although it is easy to think about a specific operation, it is not always easy to intentionally generate a specific brain wave according to the content of the operation. Moreover, training is required to be able to output the brain waves with high reproducibility. Furthermore, it has been pointed out that it is difficult for any user to reproduce a common brain wave.
On the other hand, it is much easier for the user to intentionally move a specific muscle than to output a specific brain wave. That is, it is considered that the appearance of a specific feature of biometric information is a low hurdle for the user.
Therefore, in the present embodiment, an electric signal appearing due to the movement of the muscles of the head that can be intentionally moved by the user is acquired as a feature of biological information, and the feature of the brain wave information is based on the acquired feature. Consider complementing.

図5は、ユーザが特定の操作を念じながら行う意図的な筋肉の動きの一例を説明する図である。図5においては、唾液の飲み込みを伴う顎の動作を例示している。前述したように、特定の脳波の出力には訓練や慣れが必要とされるが、多くのユーザは、意図的に唾液を飲み込むことが可能である。また、筋肉の動きに伴う電気信号は、後述するように、脳波の波形に比して振幅が大きく脳波情報との区別が容易である。さらに、筋肉の動きに伴う電気信号は断続的であり、筋肉が動いていない間は脳波情報の測定を妨げない。
このため、ユーザが特定の操作を念じている間に出現する脳波情報の特徴と並行に、脳波以外の生体情報の特徴を取得することも可能である。
FIG. 5 is a diagram illustrating an example of intentional muscle movement performed by the user while paying attention to a specific operation. FIG. 5 illustrates the movement of the jaw accompanied by swallowing saliva. As mentioned above, the output of specific brain waves requires training and familiarity, but many users can intentionally swallow saliva. Further, as will be described later, the electric signal accompanying the movement of the muscle has a larger amplitude than the waveform of the electroencephalogram and can be easily distinguished from the electroencephalogram information. Furthermore, the electrical signals associated with muscle movement are intermittent and do not interfere with the measurement of EEG information while the muscles are not moving.
Therefore, it is possible to acquire the characteristics of biometric information other than the electroencephalogram in parallel with the characteristics of the electroencephalogram information that appears while the user is thinking about a specific operation.

図4の説明に戻る。
本実施の形態における操作内容推定部223は、脳波情報の特徴と脳波以外の生体情報の特徴のそれぞれについて用意されている対応関係テーブルの参照により各特徴に対応する操作の内容を推定し、予め定めた規則に基づいて特定した操作の内容を操作信号としてワイヤレスIoTモジュール204に出力する。
予め定めた規則に基づいて操作の内容を特定する方法には、幾つかの方法がある。
例えば脳波情報の特徴から操作の内容を推定できた場合、推定された操作の内容を脳波以外の生体情報の特徴から推定される操作の内容に優先する方法がある。
また、操作信号を操作対象機器30(図1参照)に出力する前に、脳波情報の特徴から推定された操作の内容の正誤をユーザに確認する方法もある。
Returning to the description of FIG.
The operation content estimation unit 223 in the present embodiment estimates the operation content corresponding to each feature in advance by referring to the correspondence table prepared for each of the feature of the electroencephalogram information and the feature of the biological information other than the electroencephalogram. The content of the operation specified based on the defined rule is output to the wireless IoT module 204 as an operation signal.
There are several methods for specifying the content of an operation based on a predetermined rule.
For example, when the content of the operation can be estimated from the characteristics of the electroencephalogram information, there is a method in which the content of the estimated operation is prioritized over the content of the operation estimated from the characteristics of the biological information other than the electroencephalogram.
There is also a method of confirming with the user the correctness of the operation content estimated from the characteristics of the electroencephalogram information before outputting the operation signal to the operation target device 30 (see FIG. 1).

本実施の形態における半導体メモリ203には、操作内容推定部223が操作の内容の決定に使用する対応関係テーブル231及び232が記憶されている。
図6は、実施の形態1で使用する対応関係テーブル231及び232の例を説明する図である。(A)は脳波情報の特徴用の対応関係テーブル231を示し、(B)は脳波以外の生体情報の特徴用の対応関係テーブル232を示す。
対応関係テーブル231には、管理番号と、脳波情報の特徴と、対応する操作の内容とが記憶されている。
図6の場合、特徴AAには電源オンが対応付けられ、特徴ABには電源オフが対応付けられている。なお、操作の内容には、操作の対象である操作対象機器30を特定する情報も含まれる。
In the semiconductor memory 203 of the present embodiment, the correspondence tables 231 and 232 used by the operation content estimation unit 223 to determine the operation content are stored.
FIG. 6 is a diagram illustrating an example of the correspondence tables 231 and 232 used in the first embodiment. (A) shows the correspondence table 231 for the features of the electroencephalogram information, and (B) shows the correspondence table 232 for the features of the biological information other than the electroencephalogram.
The correspondence table 231 stores the management number, the characteristics of the electroencephalogram information, and the contents of the corresponding operation.
In the case of FIG. 6, the feature AA is associated with the power on, and the feature AB is associated with the power off. The content of the operation also includes information that identifies the operation target device 30 that is the target of the operation.

対応関係テーブル232には、管理番号と、脳波以外の生体情報の特徴と、対応する操作の内容とが記憶されている。
図6の場合、特徴#102には電源オンが対応付けられ、特徴#103には電源オフが対応付けられている。例えば唾液を1回飲み込む場合に出現する特徴を電源オンに対応付け、唾液を2回飲み込む場合に出現する特徴を電源オフに対応付ける。ここでの操作の内容にも、操作の対象である操作対象機器30を特定する情報が含まれる。
本実施の形態の場合、対応関係テーブル232に記憶される対応関係は予め与えられているが、ユーザが新たな対応関係を登録することも可能である。
なお、半導体メモリ203は、対応関係テーブル231及び232以外にも、BIOSが記憶されたROMと、ワークエリアとして用いられるRAMと、フラッシュメモリも含む。
図4の説明に戻る。
本実施の形態の場合、ワイヤレスIoTモジュール204は、LPWA等の通信規格に基づいて操作信号を送信する。
The correspondence table 232 stores the control number, the characteristics of biological information other than the electroencephalogram, and the content of the corresponding operation.
In the case of FIG. 6, feature # 102 is associated with power-on, and feature # 103 is associated with power-off. For example, a feature that appears when saliva is swallowed once is associated with power-on, and a feature that appears when saliva is swallowed twice is associated with power-off. The content of the operation here also includes information that identifies the operation target device 30 that is the target of the operation.
In the case of the present embodiment, the correspondence relationship stored in the correspondence relationship table 232 is given in advance, but the user can also register a new correspondence relationship.
In addition to the correspondence tables 231 and 232, the semiconductor memory 203 also includes a ROM in which the BIOS is stored, a RAM used as a work area, and a flash memory.
Returning to the description of FIG.
In the case of this embodiment, the wireless IoT module 204 transmits an operation signal based on a communication standard such as LPWA.

<情報端末20の処理動作>
以下では、情報端末20(図1参照)が、MPU202(図4参照)によるプログラムの実行を通じて実現する処理動作の一例を説明する。
<Processing operation of information terminal 20>
Hereinafter, an example of the processing operation realized by the information terminal 20 (see FIG. 1) through the execution of the program by the MPU 202 (see FIG. 4) will be described.

<処理動作1>
処理動作1では、脳波情報の特徴に基づく操作の実行前にユーザに操作の内容を確認しない場合について説明する。
図7は、脳波情報を含むデジタル信号を受信した情報端末20が実行する処理動作の一例を説明するフローチャートである。なお、図中のSはステップを意味する。
本実施の形態では、脳波情報を含むデジタル情報はイヤホン10(図1参照)から情報端末20に送信されている。また、操作対象機器30(図1参照)の操作を念じるユーザは、特定の操作を念じるのと並行して、同操作に対応する特定の顎の動きを実行する。
<Processing operation 1>
The processing operation 1 describes a case where the content of the operation is not confirmed to the user before the operation based on the characteristics of the electroencephalogram information is executed.
FIG. 7 is a flowchart illustrating an example of a processing operation executed by the information terminal 20 that has received a digital signal including brain wave information. In addition, S in the figure means a step.
In the present embodiment, digital information including brain wave information is transmitted from the earphone 10 (see FIG. 1) to the information terminal 20. Further, the user who cares about the operation of the operation target device 30 (see FIG. 1) executes a specific jaw movement corresponding to the specific operation in parallel with the specific operation.

イヤホン10(図1参照)から脳波情報を含むデジタル信号を受信したMPU202は、受信したデジタル信号から脳波情報の特徴と脳波以外の生体情報の特徴を取得する(ステップ1)。
続いて、MPU202は、脳波情報の特徴が対応関係テーブル231(図6参照)にあるか否かを判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、MPU202は、脳波情報の特徴に対応する操作の内容を送信する(ステップ3)。
The MPU 202, which has received a digital signal including brain wave information from the earphone 10 (see FIG. 1), acquires the characteristics of brain wave information and the characteristics of biological information other than brain waves from the received digital signal (step 1).
Subsequently, the MPU 202 determines whether or not the feature of the electroencephalogram information is in the correspondence table 231 (see FIG. 6) (step 2).
If an affirmative result is obtained in step 2, the MPU 202 transmits the content of the operation corresponding to the feature of the electroencephalogram information (step 3).

これに対し、ステップ2で否定結果が得られた場合、MPU202は、脳波以外の生体情報の特徴が対応関係テーブル232(図6参照)にあるか否かを判定する(ステップ4)。
ステップ4で肯定結果が得られた場合、MPU202は、生体情報の特徴に対応する操作の内容を送信する(ステップ5)。
一方、ステップ4で否定結果が得られた場合、MPU202は、そのまま処理を終了する。この場合、ユーザは、操作対象機器30の動作に変化がないことを通じ、操作に失敗したことに気づく。
なお、ステップ4で否定結果が得られた場合には、操作の内容を特定できなかったことをユーザに通知してもよい。ユーザへの通知には、例えば情報端末20(図1参照)の表示画面へのメッセージの表示やイヤホン10に設けられたスピーカ123(図3参照)からのメッセージの出力を用いる。
On the other hand, when a negative result is obtained in step 2, the MPU 202 determines whether or not the features of biological information other than brain waves are in the correspondence table 232 (see FIG. 6) (step 4).
If an affirmative result is obtained in step 4, the MPU 202 transmits the content of the operation corresponding to the feature of the biometric information (step 5).
On the other hand, if a negative result is obtained in step 4, the MPU 202 ends the process as it is. In this case, the user notices that the operation has failed because there is no change in the operation of the operation target device 30.
If a negative result is obtained in step 4, the user may be notified that the content of the operation could not be specified. For the notification to the user, for example, the display of a message on the display screen of the information terminal 20 (see FIG. 1) and the output of the message from the speaker 123 (see FIG. 3) provided in the earphone 10 are used.

この処理動作の場合、脳波による操作に不慣れな間は、主に、ユーザが意図的に動かすことが可能な顎等の筋肉の動きに起因する特徴に基づいて操作対象機器30を操作することが可能である。
一方で、脳波による操作への慣れにより、意図的に特定の脳波で再現できるようになると、ユーザは、意図的に顎等の筋肉を動かさなくても、操作対象機器30を操作することが可能になる。
In the case of this processing operation, while unfamiliar with the operation by the brain wave, the operation target device 30 can be operated mainly based on the characteristics caused by the movement of muscles such as the jaw that the user can intentionally move. It is possible.
On the other hand, if it becomes possible to intentionally reproduce a specific brain wave by becoming accustomed to the operation by the brain wave, the user can operate the operation target device 30 without intentionally moving muscles such as the jaw. become.

このように、本実施の形態における脳波操作システム1を用いれば、脳波で操作対象機器30を操作するために装着するデバイスへの抵抗感を低減させながら、脳波による操作を始められる。また、脳波による操作に慣れるまでは、顎等の筋肉の意図的な動きによって脳波による操作を補完することが可能になる。そして、脳波による操作に慣れた後は、操作を念じながら顎等の筋肉を意図的に動かさなくても、念じた通りの操作が可能になる。 As described above, by using the electroencephalogram operation system 1 in the present embodiment, the operation by the electroencephalogram can be started while reducing the feeling of resistance to the device worn to operate the operation target device 30 by the electroencephalogram. In addition, until the user becomes accustomed to the operation by the brain wave, the operation by the brain wave can be complemented by the intentional movement of the muscles such as the jaw. Then, after getting used to the operation by the brain wave, the operation can be performed as intended without intentionally moving the muscles such as the jaw while paying attention to the operation.

<処理動作2>
処理動作1は、脳波情報取得部221(図4参照)で取得された脳波情報の特徴が対応関係テーブル231(図6参照)で見つかった場合には、見つかった特徴と念じた操作の内容との一致を仮定している。
しかし、脳波による操作に不慣れなユーザの場合、念じた操作の内容と出現する脳波情報の特徴とが一致するとは限らない。このため、操作対象機器30が意図せぬ動作を実行する可能性がある。
<Processing operation 2>
When the feature of the electroencephalogram information acquired by the electroencephalogram information acquisition unit 221 (see FIG. 4) is found in the correspondence table 231 (see FIG. 6), the processing operation 1 includes the found feature and the content of the operation. Is assumed to match.
However, in the case of a user who is unfamiliar with the operation by the brain wave, the content of the operation carefully and the feature of the appearing brain wave information do not always match. Therefore, the operation target device 30 may perform an unintended operation.

そこで、処理動作2においては、脳波情報の特徴から推定された操作の内容が操作対象機器30に送信される前に、推定された操作の内容をユーザに確認する手順を追加する。
図8は、脳波情報を含むデジタル信号を受信した情報端末20(図1参照)が実行する処理動作の他の一例を説明するフローチャートである。図8には、図7との対応部分に対応する符号を付して示す。
Therefore, in the processing operation 2, a procedure is added for confirming the estimated operation content to the user before the operation content estimated from the characteristics of the electroencephalogram information is transmitted to the operation target device 30.
FIG. 8 is a flowchart illustrating another example of the processing operation executed by the information terminal 20 (see FIG. 1) that has received the digital signal including the electroencephalogram information. FIG. 8 is shown with reference numerals corresponding to the portions corresponding to those in FIG. 7.

この処理動作の場合も、イヤホン10から脳波情報を含むデジタル信号を受信したMPU202は、受信したデジタル信号から脳波情報の特徴と脳波以外の生体情報の特徴を取得する(ステップ1)。
続いて、MPU202は、脳波情報の特徴が対応関係テーブル231にあるか否かを判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、MPU202は、脳波情報の特徴に対応する操作の内容の正誤をユーザに問い合わせる(ステップ11)。ここでの問い合わせには、情報端末20の不図示の表示画面へのメッセージの表示やイヤホン10に設けられたスピーカ123(図3参照)からのメッセージの出力を用いる。例えば「電源オンでいいですか?」等をユーザに問い合わせる。
Also in this processing operation, the MPU 202 that has received the digital signal including the brain wave information from the earphone 10 acquires the characteristics of the brain wave information and the characteristics of the biological information other than the brain wave from the received digital signal (step 1).
Subsequently, the MPU 202 determines whether or not the feature of the electroencephalogram information is in the correspondence table 231 (step 2).
If an affirmative result is obtained in step 2, the MPU 202 asks the user whether the operation content corresponding to the feature of the electroencephalogram information is correct or incorrect (step 11). For the inquiry here, the display of the message on the display screen (not shown) of the information terminal 20 and the output of the message from the speaker 123 (see FIG. 3) provided in the earphone 10 are used. For example, ask the user "Is it okay to turn on the power?"

ステップ11の実行後、MPU202は、正しいとの応答があったか否かを判定する(ステップ12)。本実施の形態の場合、正誤の応答に、顎等の筋肉の動きを使用する。問い合わせに対する応答の場合、唾液を1回飲み込む動きは「正しい」を意味し、唾液を2回飲み込む動きは「誤り」を意味する。回数の違いは、予め定めた期間内における動きの回数で区別する。
もっとも、いわゆるスマートスピーカのように音声による回答も可能である。ユーザによる「はい」又は「いいえ」の回答は、イヤホン10に設けられたマイク122(図3参照)で取得された後、オーディオデータとして情報端末20に送信される。MPU202は、受信された音声による回答を解析し、脳波情報の特徴に対応付けられている操作の内容を使用するか否かを判定する。
After executing step 11, the MPU 202 determines whether or not there is a response that it is correct (step 12). In the case of this embodiment, the movement of muscles such as the jaw is used for the correct / incorrect response. In the case of a response to an inquiry, the movement of swallowing saliva once means "correct", and the movement of swallowing saliva twice means "wrong". The difference in the number of times is distinguished by the number of movements within a predetermined period.
However, it is also possible to answer by voice like a so-called smart speaker. The answer of "yes" or "no" by the user is acquired by the microphone 122 (see FIG. 3) provided in the earphone 10, and then transmitted to the information terminal 20 as audio data. The MPU 202 analyzes the received voice response and determines whether or not to use the content of the operation associated with the feature of the electroencephalogram information.

ステップ12で肯定結果が得られた場合、MPU202は、脳波情報の特徴に対応する操作の内容を送信する(ステップ3)。
ステップ12で否定結果が得られた場合、又は、前述したステップ2で否定結果が得られた場合、MPU202は、脳波以外の生体情報の特徴が対応関係テーブル232にあるか否かを判定する(ステップ4)。ここでの生体情報の特徴は、ステップ1で取得された特徴である。
ステップ4で肯定結果が得られた場合、MPU202は、生体情報の特徴に対応する操作の内容を送信する(ステップ5)。
一方、ステップ4で否定結果が得られた場合、MPU202は、そのまま処理を終了する。
If an affirmative result is obtained in step 12, the MPU 202 transmits the content of the operation corresponding to the feature of the electroencephalogram information (step 3).
If a negative result is obtained in step 12, or if a negative result is obtained in step 2 described above, the MPU 202 determines whether or not the features of biological information other than brain waves are in the correspondence table 232 ( Step 4). The feature of the biological information here is the feature acquired in step 1.
If an affirmative result is obtained in step 4, the MPU 202 transmits the content of the operation corresponding to the feature of the biometric information (step 5).
On the other hand, if a negative result is obtained in step 4, the MPU 202 ends the process as it is.

この処理動作2のように、対応関係テーブル231に対応する特徴が見つかった場合でも、操作対象機器30に操作信号を送信する前に、操作の内容をユーザに確認することにより誤操作が未然に回避される。
この処理動作2は、ユーザによる脳波情報の特徴の再現性が低い期間でも操作の精度の向上が期待される。
なお、本実施の形態では、対応関係テーブル231を用いているが、後述する実施の形態で説明するように、入力された特徴に対応する操作の内容を出力する関係を記憶した学習済みモデルを使用することも可能である。
Even if a feature corresponding to the correspondence table 231 is found as in this processing operation 2, erroneous operation can be avoided by confirming the operation content with the user before transmitting the operation signal to the operation target device 30. Will be done.
This processing operation 2 is expected to improve the accuracy of operation even during a period in which the reproducibility of the characteristics of the electroencephalogram information by the user is low.
In this embodiment, the correspondence table 231 is used, but as described in the embodiment described later, a trained model that stores the relation that outputs the contents of the operation corresponding to the input feature is stored. It is also possible to use it.

<実験結果等>
以下では、イヤホン10(図2参照)により、ユーザの脳波情報の取得が可能であることを、第三者による実験の結果や出願人による実験の結果を通じて説明する。
<Experimental results, etc.>
Hereinafter, the fact that the user's electroencephalogram information can be acquired by the earphone 10 (see FIG. 2) will be described through the results of an experiment by a third party and the results of an experiment by the applicant.

<イヤホン10との対比に使用するMindWave(NeuroSky社)の信頼性>
図9は、イヤホン10を装着した状態で、脳波の測定が可能な脳波センサ付きヘッドセット40の測定点を説明する図である。
今回の実験では、脳波センサ付きヘッドセット40として、市場で入手が可能なNeuroSky社のMindWaveを使用した。
前述したように、イヤホン10は外耳孔を脳波の測定点として使用するのに対し、NeuroSky社のMindWaveは、額40Aを脳波の測定点とする。
図9に示す額40Aは、脳波の測定に使用する電極配置の国際標準として推奨されている10−20法で定める21個の配置のうちのFp1に相当する。
<Reliability of MindWave (NeuroSky) used for comparison with earphone 10>
FIG. 9 is a diagram illustrating measurement points of a headset 40 with an electroencephalogram sensor capable of measuring electroencephalograms while wearing the earphone 10.
In this experiment, NeuroSky's MindWave, which is available on the market, was used as the headset 40 with an electroencephalogram sensor.
As described above, the earphone 10 uses the external ear canal as a measurement point for brain waves, whereas the MindWave of NeuroSky uses the forehead 40A as a measurement point for brain waves.
The forehead 40A shown in FIG. 9 corresponds to Fp1 out of 21 arrangements defined by the 10-20 method recommended as an international standard for electrode arrangements used for measuring brain waves.

MindWaveによって測定される脳波は、医療認定されているEEGシステムと同等であることが、Elena Ratti等の論文「Comparison of Medical and Consumer Wireless EEG Systems for Use in Clinical Trials」(https://www.frontiersin.org/articles/10.3389/fnhum.2017.00398/full)で検証されている。
なお、この論文は、USデューク大学のPh.DシニアサイエンティストDimiter Dimitrovと、イタリアミラノ工科大学Ph.Dイタリア国立研究評議会(CNR)のMarta Parazziniにより査読掲載されている。
図10は、論文に掲載されている脳波の計測点を示す図である。
図10に示すB-AlertとEnobioは、ヨーロッパと米国で医療認定を得ているEEGシステムの名称である。また、MuseとMindWaveは、消費者向けのEEGシステムの名称である。
The brain waves measured by MindWave are equivalent to medically certified EEG systems, according to a paper by Elena Ratti et al., "Comparison of Medical and Consumer Wireless EEG Systems for Use in Clinical Trials" (https://www.frontiersin). .Org / articles / 10.3389 / fnhum. 2017.00398 / full).
This paper is based on Ph.D. of Duke University, USA. D Senior Scientist Dimiter Dimitrov and Polytechnic University of Milan Ph. D Peer-reviewed by Marta Parazzini of the Italian National Research Council (CNR).
FIG. 10 is a diagram showing measurement points of EEG published in a paper.
B-Alert and Enobio shown in FIG. 10 are the names of EEG systems that have been medically certified in Europe and the United States. Muse and MindWave are the names of EEG systems for consumers.

図10の場合、白丸で示す位置は、医療認定されているEEGシステムでのみ使用する測定点である。これに対し、AF7、Ap1、AF8、A1、A2で示す位置は、消費者向けのEEGシステムであるMuseでのみ使用する測定点である。そして、Fp1は、4つのEEGシステムに共通する測定点である。すなわち、Fp1は、MindWaveの測定点である。なお、測定点のA1とA2は、耳介と側頭部とで挟まれた部分に当たり、外耳孔ではない。 In the case of FIG. 10, the positions indicated by white circles are measurement points used only in the medically certified EEG system. On the other hand, the positions indicated by AF7, Ap1, AF8, A1 and A2 are measurement points used only in Muse, which is an EEG system for consumers. And Fp1 is a measurement point common to the four EEG systems. That is, Fp1 is a measurement point of Mind Wave. The measurement points A1 and A2 correspond to the portion sandwiched between the auricle and the temporal region, and are not the external ear canal.

論文の詳細については省略するが、安静時の脳波の測定を、5人の健康な被験者を対象として、日を改めて2回行っている。また、同実験では、額部のFp1を共通の測定点とし、目を閉じた状態と目を開いた状態における脳波パターンとパワースペクトル密度が比較されている。この論文における評価は、閉眼時の脳波におけるα波の出力評価に当たる。
また、論文の結論の項には、MindWaveのFp1で測定されるパワースペクトルは、医療認定されているEEGシステムであるB-Alert及びEnobioと再現テストの結果も含めてほぼ同じであり、α波のピークも捉えられたことが記載されている。なお、MindWaveで測定される脳波には、瞬きと開眼中の動きがノイズとして乗ることも記載されている。ちなみに、Museの信頼性が低い理由として、アーチファクトの影響の可能性が指摘されている。
Although the details of the paper will be omitted, the EEG measurement at rest is performed twice a day for five healthy subjects. In the same experiment, the Fp1 of the forehead was used as a common measurement point, and the electroencephalogram pattern and the power spectral density in the state where the eyes were closed and the state where the eyes were opened were compared. The evaluation in this paper corresponds to the evaluation of the output of α waves in the electroencephalogram when the eyes are closed.
Also, in the conclusion section of the treatise, the power spectrum measured by Mind Wave's Fp1 is almost the same as the medically certified EEG systems B-Alert and Enobio, including the results of the reproduction test, and the α wave. It is stated that the peak of was also captured. It is also stated that the brain waves measured by Mind Wave include blinking and movement during eye opening as noise. By the way, it has been pointed out that the influence of artifacts may be the reason why Muse is unreliable.

<イヤホン10による測定結果とMindWaveによる測定結果の比較>
以下では、被験者に、イヤホン10(図9参照)とMindWaveの両方を装着し、脳波を測定する実験を行った結果について説明する。
図9に示したように、イヤホン10は外耳孔を測定点とし、MindWaveは額40Aを測定点とする。
<Comparison of measurement result by earphone 10 and measurement result by Mind Wave>
In the following, the results of an experiment in which both the earphone 10 (see FIG. 9) and the Mind Wave are attached to the subject and the brain wave is measured will be described.
As shown in FIG. 9, the earphone 10 has the external ear canal as the measurement point, and the Mind Wave has the forehead 40A as the measurement point.

出願人の実験では、58名を被験者とした。一人につき、同日中に、3回のアテンションの上昇テストとメディテーションの上昇テストを設計し、閉眼時におけるα波の出現を捉える実験を行った。
なお、実際の被験者は83名であったが、25名の測定の結果には開眼時のアーチファクトの影響が過大であったため除外した。
In the applicant's experiment, 58 subjects were used. For each person, we designed three attention elevation tests and meditation elevation tests during the same day, and conducted an experiment to capture the appearance of alpha waves when the eyes were closed.
The actual number of subjects was 83, but the measurement results of 25 subjects were excluded because the effect of the artifact at the time of opening the eyes was excessive.

アテンションの上昇テストでは、被験者に対し、開眼状態で150mm先のペン先を30秒間見つめ続けてもらった。このテストは、集中状態を作ってα波の出現を抑止し、β波を増加させることを目的とする。
メディテーション上昇テストでは、被験者に対し、閉眼状態で30秒間の瞑想をお願いした。このテストは、閉眼時のα波の出力評価に相当する。換言すると、リラックス状態におけるα波の増加比率を捉えることを目的とする。
In the attention elevation test, the subjects were asked to keep staring at the pen tip 150 mm ahead for 30 seconds with their eyes open. The purpose of this test is to create a concentrated state to suppress the appearance of alpha waves and increase β waves.
In the meditation elevation test, subjects were asked to meditate for 30 seconds with their eyes closed. This test corresponds to the evaluation of the alpha wave output when the eyes are closed. In other words, the purpose is to capture the rate of increase of alpha waves in a relaxed state.

実験時には、アテンションの上昇テストの後にメディテーションの上昇テストに移行し、α波の出力を評価した。
α波の出力の評価は、30秒間の開眼状態の後に30秒間の閉眼状態を2セット繰り返し、閉眼状態におけるα波の上昇を確認するのが一般的である。
ただし、今回の実験では、一度に多くのデータを収集するためにセットの回数を増やして行った。
At the time of the experiment, the attention rise test was followed by the meditation rise test, and the α wave output was evaluated.
In the evaluation of the output of the α wave, it is common to repeat two sets of the eye closed state for 30 seconds after the eye open state for 30 seconds and confirm the rise of the α wave in the eye closed state.
However, in this experiment, the number of sets was increased in order to collect a large amount of data at one time.

まず、メディテーションの上昇テストを行った理由と、閉眼時におけるα波の出力の評価に用いた方法について説明する。
図11は、α波の出力評価を説明する図である。図11に示すように、脳波の生データは、主にδ波、θ波、α波、β波、γ波に分類が可能である。
脳波は、人の動作による再現性が小さく、臨床データによる取得性能の再現性の評価が難しいとされるが、その中でも、α波は、開眼と閉眼の差で出現され易いとされている。
いずれの波も、開眼状態においては一様に出現し易い一方、α波以外の波は閉眼状態において一様に減衰するといわれる。すなわち、α波は、閉眼状態においても比較的影響を受けることなく出現するといわれる。
First, the reason for the meditation elevation test and the method used to evaluate the alpha wave output when the eyes are closed will be described.
FIG. 11 is a diagram for explaining the output evaluation of the α wave. As shown in FIG. 11, the raw data of EEG can be mainly classified into δ wave, θ wave, α wave, β wave, and γ wave.
It is said that brain waves have low reproducibility due to human movements, and it is difficult to evaluate the reproducibility of acquisition performance based on clinical data. Among them, α waves are said to be more likely to appear due to the difference between eyes open and eyes closed.
It is said that all waves tend to appear uniformly in the open eye state, while waves other than the α wave are uniformly attenuated in the closed eye state. That is, it is said that the α wave appears relatively unaffected even in the closed eye state.

この特徴を活かし、実験では、脳波の生データをフーリエ変換し、各波に対応する周波数帯のスペクトル強度Snを特性値とした。
実験では、α波強度比Tαを、全周波数帯のスペクトル強度の和(すなわちΣSn)に対するα波帯のスペクトル強度Sαの比(=Sα/ΣSn)として定義し、開眼状態から閉眼状態への変化でα波強度比Tαが増加したか否かを確認した。
α波強度比Tαの増加が確認されれば、脳波の測定の証拠になる。
Taking advantage of this feature, in the experiment, the raw data of the brain wave was Fourier transformed, and the spectral intensity Sn of the frequency band corresponding to each wave was used as the characteristic value.
In the experiment, the α wave intensity ratio Tα is defined as the ratio of the spectral intensity Sα of the α wave band to the sum of the spectral intensities of all frequency bands (that is, ΣSn) (= Sα / ΣSn), and the change from the open eye state to the closed eye state. It was confirmed whether or not the α wave intensity ratio Tα increased.
If an increase in the α wave intensity ratio Tα is confirmed, it is evidence of EEG measurement.

図12及び図13を用いて、イヤホン10による測定結果とMindWaveによる測定結果の異同を説明する。
図12は、MindWaveによる測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。
図13は、実施の形態で使用するイヤホン10(図2参照)による測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで更に顎の動きを加えて開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。
The difference between the measurement result by the earphone 10 and the measurement result by Mind Wave will be described with reference to FIGS. 12 and 13.
FIG. 12 is a diagram illustrating a measurement result by Mind Wave. (A) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed without blinking, and (B) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed with blinking. is there.
FIG. 13 is a diagram illustrating a measurement result by the earphone 10 (see FIG. 2) used in the embodiment. (A) is a measurement result when two sets of switching between the open eye state and the closed eye state are performed without blinking, and (B) is two sets of switching between the open eye state and the closed eye state by further adding jaw movement with blinking. It is a measurement result when it is performed.

瞬きが無い場合、イヤホン10による測定結果とMindWaveによる測定結果との間には、高い類似性が認められた。
一方、瞬きがある場合、MindWaveによる測定結果には、瞬きの影響を受けたアーチファクトが顕著に出現した。その理由は、MindWaveが測定に用いる額が目に近く、開眼時における瞬きが大きなアーチファクトとして検出され易いためと考えられる。このことは、前述したElena Ratti等の論文でも指摘されている。
In the absence of blinking, a high degree of similarity was observed between the measurement result by the earphone 10 and the measurement result by Mind Wave.
On the other hand, when there was blinking, the artifacts affected by blinking appeared prominently in the measurement results by Mind Wave. The reason is thought to be that the forehead used by Mind Wave for measurement is close to the eyes, and blinking when the eyes are opened is easily detected as a large artifact. This is also pointed out in the above-mentioned papers such as Elena Ratti.

ところで、瞬きの影響によるアーチファクトは、主にδ波帯に出現した。ただし、図12に示すように大きなアーチファクトがあると、α波の増加が誤検出される可能性が高くなる。その理由は、開眼状態における全周波数帯のスペクトル強度の和が大きくなる結果、開眼状態におけるα波強度比Tαが小さくなり、閉眼状態におけるα波強度比Tαが相対的に大きく見えてしまうためである。前述した被験者の削減もこの理由による。
なお、瞬きに伴い検出されるアーチファクトには、瞼の動きに伴い発生する生体由来の電位の変動だけでなく、瞼を動かそうとする脳波由来の電位の変動が含まれている。
By the way, artifacts due to the influence of blinking appeared mainly in the delta wave band. However, if there are large artifacts as shown in FIG. 12, there is a high possibility that an increase in α waves will be erroneously detected. The reason is that as a result of increasing the sum of the spectral intensities of all frequency bands in the open eye state, the α wave intensity ratio Tα in the open eye state becomes small, and the α wave intensity ratio Tα in the closed eye state appears to be relatively large. is there. The reduction of subjects mentioned above is also due to this reason.
The artifacts detected by blinking include not only the fluctuation of the electric potential derived from the living body generated by the movement of the eyelid but also the fluctuation of the electric potential derived from the brain wave that tries to move the eyelid.

一方、本実施の形態で使用するイヤホン10(図2参照)による測定結果には、0秒から30秒の期間に、瞬きに起因するアーチファクトは検知されなかった。
ただし、唾液を飲み込む顎の動きに起因するアーチファクトは、開眼状態か閉眼状態かを問わず、検出されることが確認された。唾液を飲み込む顎の動きに起因するアーチファクトは、主に、θ波帯に出現した。
一方で、唾液の飲み込みに伴い出現するアーチファクトのスペクトル強度は、MindWaveで検知された瞬きに対応するアーチファクトのスペクトル強度に比して格段に小さい。このため、MindWaveの場合のように、α波の増加への影響は認められなかった。
On the other hand, in the measurement result by the earphone 10 (see FIG. 2) used in the present embodiment, no artifact caused by blinking was detected in the period of 0 to 30 seconds.
However, it was confirmed that artifacts caused by the movement of the jaw that swallows saliva are detected regardless of whether the eyes are open or closed. The artifacts caused by the movement of the jaw that swallows saliva appeared mainly in theta wave band.
On the other hand, the spectral intensity of the artifact that appears when saliva is swallowed is much smaller than the spectral intensity of the artifact corresponding to the blink detected by Mind Wave. For this reason, as in the case of Mind Wave, no effect on the increase in alpha waves was observed.

因みに、唾液の飲み込みに伴い出現するアーチファクトにも、顎の筋肉の動きに伴い発生する生体由来の電位の変動だけでなく、顎の筋肉を動かそうとする脳波由来の電位の変動が含まれている。
前述の説明において、ユーザが特定の操作を念じながら行う意図的な筋肉の動きとして、唾液を飲み込む顎の動作を例示したのは、図13に示すアーチファクトの出現が理由となっている。
By the way, the artifacts that appear when saliva is swallowed include not only the fluctuation of the electric potential derived from the living body that occurs with the movement of the jaw muscle, but also the fluctuation of the electric potential derived from the brain wave that tries to move the jaw muscle. There is.
In the above description, the appearance of the artifact shown in FIG. 13 is the reason why the movement of the jaw that swallows saliva is illustrated as the intentional movement of the muscle that the user performs while paying attention to a specific operation.

続いて、図14及び図15を用いて、イヤホン10による測定結果に現れるα波の増加とMindWaveによる測定結果に現れるα波の増加を説明する。
図14は、MindWaveによる測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。
図15は、実施の形態で使用するイヤホン10(図2参照)による測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。
Subsequently, with reference to FIGS. 14 and 15, the increase in the α wave appearing in the measurement result by the earphone 10 and the increase in the α wave appearing in the measurement result by Mind Wave will be described.
FIG. 14 is a diagram illustrating a measurement result by Mind Wave. (A) shows the change in the ratio of the spectral intensity by frequency band when the eye is changed from the state with blinking to the state where the eye is closed, and (B) is the change by frequency band when the state is changed from no blinking to the state where the eye is closed. The change in the ratio of the spectral intensity of (C) is shown, and (C) is the case where the increase of the α wave does not appear.
FIG. 15 is a diagram illustrating a measurement result by the earphone 10 (see FIG. 2) used in the embodiment. (A) shows the change in the ratio of the spectral intensity by frequency band when the eye is changed from the state with blinking to the state where the eye is closed, and (B) is the change by frequency band when the state is changed from no blinking to the state where the eye is closed. The change in the ratio of the spectral intensity of (C) is shown, and (C) is the case where the increase of the α wave does not appear.

図14及び図15の縦軸はスペクトル強度の割合であり、横軸は周波数帯域である。また、図14の(A)に対応する被験者と図15の(A)に対応する被験者は同じである。同様に、図14の(B)に対応する被験者と図15の(B)に対応する被験者は同じである。図14の(C)に対応する被験者と図15の(C)に対応する被験者も同じである。
MindWaveのスペクトル強度の分布(図14参照)とイヤホン10のスペクトル強度の分布(図15参照)は、δ波〜θ波の低周波帯で異なっているが、α波以上ではほぼ同じであった。
The vertical axis of FIGS. 14 and 15 is the ratio of spectral intensity, and the horizontal axis is the frequency band. Further, the subject corresponding to (A) in FIG. 14 and the subject corresponding to (A) in FIG. 15 are the same. Similarly, the subject corresponding to FIG. 14 (B) and the subject corresponding to FIG. 15 (B) are the same. The same applies to the subject corresponding to FIG. 14 (C) and the subject corresponding to FIG. 15 (C).
The distribution of the spectral intensity of MindWave (see FIG. 14) and the distribution of the spectral intensity of the earphone 10 (see FIG. 15) differed in the low frequency band of the delta wave to theta wave, but were almost the same in the α wave and above. ..

実験の結果、MindWaveとイヤホン10の両方でα波の増加が確認された被験者は46名であった。この割合は、58名のうちの約8割弱に相当する。
因みに、イヤホン10だけでα波の増加が確認された被験者は7名であった。換言すると、イヤホン10では、α波の増加が計53名で確認された。すなわち、イヤホン10では、約9割強の被験者でα波の増加が確認された。
なお、MindWaveとイヤホン10の両方でα波の増加が確認されなかった被験者は5名であった。図14及び図15の(C)に示す波形は、この5名の被験者の測定結果を表している。
As a result of the experiment, 46 subjects were confirmed to have an increase in α wave with both MindWave and earphone 10. This ratio is equivalent to less than 80% of the 58 people.
Incidentally, there were 7 subjects in which an increase in α wave was confirmed only with the earphone 10. In other words, with the earphone 10, an increase in α waves was confirmed by a total of 53 people. That is, with the earphone 10, an increase in α wave was confirmed in about 90% of the subjects.
In addition, 5 subjects did not confirm the increase of α wave in both MindWave and earphone 10. The waveforms shown in FIGS. 14 and 15 (C) represent the measurement results of these five subjects.

図16は、スペクトル強度の増加部の提示例を示す図である。(A)はMindWaveの測定結果であり、(B)は実施の形態で使用するイヤホン10(図2参照)の測定結果である。縦軸はスペクトル強度の割合であり、横軸は周波数である。
図16では、図14及び図15の場合とは異なり、横軸に実周波数を用いている。前述したElena Ratti等の論文では、横軸に実周波数を用いてα波の増加を説明している。図中の○印で示す部分が増加部分である。
図16に示すように、いずれの測定方法でも、周波数が高くなるのに従ってスペクトル強度の割合が低下する傾向が表れている。この傾向は、Elena Ratti等の論文と同様である。
このように、本実施の形態で使用する外耳孔で脳波を測定するイヤホン10は、MindWaveと同等の測定能力を有していることが確かめられた。
FIG. 16 is a diagram showing a presentation example of an increased portion of spectral intensity. (A) is the measurement result of Mind Wave, and (B) is the measurement result of the earphone 10 (see FIG. 2) used in the embodiment. The vertical axis is the ratio of spectral intensity, and the horizontal axis is the frequency.
In FIG. 16, unlike the cases of FIGS. 14 and 15, the actual frequency is used on the horizontal axis. In the above-mentioned papers such as Elena Ratti, the increase of α wave is explained by using the real frequency on the horizontal axis. The part indicated by a circle in the figure is the increasing part.
As shown in FIG. 16, in any of the measuring methods, the ratio of the spectral intensity tends to decrease as the frequency increases. This tendency is similar to that of the papers by Elena Ratti et al.
As described above, it was confirmed that the earphone 10 for measuring the brain wave in the external ear canal used in the present embodiment has the same measuring ability as MindWave.

<実施の形態2>
前述の実施の形態1の場合、対応関係テーブル231及び232(図6参照)に記憶されている特徴と操作の内容との対応関係が事前に定められている。
このため、イヤホン10を装着したユーザが、脳波情報の特徴を正しく発生できない限り、操作対象機器30(図1参照)を意図した通りに操作することは無理である。また、標準化された対応関係が全てのユーザに該当するとは限らない。
そこで、本実施の形態では、機械学習によって対応関係を更新する仕組みの一例を説明する。
<Embodiment 2>
In the case of the above-described first embodiment, the correspondence relationship between the features stored in the correspondence relationship tables 231 and 232 (see FIG. 6) and the content of the operation is determined in advance.
Therefore, it is impossible for the user wearing the earphone 10 to operate the operation target device 30 (see FIG. 1) as intended unless the feature of the brain wave information can be correctly generated. Also, the standardized correspondence does not apply to all users.
Therefore, in the present embodiment, an example of a mechanism for updating the correspondence by machine learning will be described.

図17は、実施の形態2で使用する脳波操作システム1Aの概略構成を示す図である。図17には、図1との対応部分に対応する符号を付して示している。
図17に示す脳波操作システム1Aは、耳部に装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20Aと、ユーザが操作の対象とする操作対象機器30Aと、機械学習装置50とで構成されている。
なお、操作対象機器30Aと機械学習装置50とは、IoTネットワーク経由で接続されている。機械学習装置50は、情報端末20Aや操作対象機器30Aと同じ空間内に存在する必要はない。機械学習装置50は、例えばインターネット上に存在してもよい。
FIG. 17 is a diagram showing a schematic configuration of the electroencephalogram manipulation system 1A used in the second embodiment. In FIG. 17, a reference numeral corresponding to a portion corresponding to that in FIG. 1 is added.
The electroencephalogram operation system 1A shown in FIG. 17 includes an earphone 10 worn on the ear, an information terminal 20A wirelessly connected to the earphone 10, an operation target device 30A to be operated by the user, and a machine learning device 50. It is composed of and.
The operation target device 30A and the machine learning device 50 are connected via the IoT network. The machine learning device 50 does not have to exist in the same space as the information terminal 20A and the operation target device 30A. The machine learning device 50 may exist on the Internet, for example.

本実施の形態における情報端末20Aには、操作信号の決定に使用した脳波情報の特徴を機械学習装置50に送信する機能が設けられている。なお、情報端末20Aには、脳波以外の生体情報の特徴も機械学習装置50に送信する機能が設けられていてもよい。
また、本実施の形態における操作対象機器30Aには、受け付けた操作信号のログ(以下「受付ログ」という)を機械学習装置50に送信する機能が設けられている。操作対象機器30Aは、操作信号を受け付ける度に受付ログを送信してもよいし、機械学習装置50が要求した場合に限り受付ログを送信してもよい。
本実施の形態における機械学習装置50は、脳波情報の特徴と受付ログとを照合し、脳波情報と操作の内容との関係を機械的に学習する。機械学習装置50は、情報端末20から操作信号が送信された時刻に関連する受付ログを抽出し、脳波情報の特徴とユーザが意図した操作の結果との関係を学習する。
The information terminal 20A in the present embodiment is provided with a function of transmitting the features of the electroencephalogram information used for determining the operation signal to the machine learning device 50. The information terminal 20A may be provided with a function of transmitting features of biological information other than brain waves to the machine learning device 50.
Further, the operation target device 30A in the present embodiment is provided with a function of transmitting a received operation signal log (hereinafter referred to as “reception log”) to the machine learning device 50. The operation target device 30A may transmit a reception log each time it receives an operation signal, or may transmit a reception log only when the machine learning device 50 requests it.
The machine learning device 50 in the present embodiment collates the features of the electroencephalogram information with the reception log, and mechanically learns the relationship between the electroencephalogram information and the content of the operation. The machine learning device 50 extracts a reception log related to the time when the operation signal is transmitted from the information terminal 20, and learns the relationship between the characteristics of the electroencephalogram information and the result of the operation intended by the user.

ここでの学習には、例えば正解となる操作の内容を用いる方法がある。
まず、正解となる操作の内容を特定する必要がある。例えば操作信号が送信された時刻の直後に操作対象機器30Aが受け付けた操作の動作が予め定めた時間以上継続する場合、操作対象機器30Aで実行された動作はユーザが意図した動作であるとみなす。もっとも、電源オフの状態の操作対象機器30Aに対し、情報端末20Aから電源オフの操作信号が送信された場合には、誤った操作の可能性が高い。その場合には、電源オフの操作信号の受け付けに続いて電源オンの操作信号を操作対象機器30Aが受け付けるはずである。従って、例えば操作信号が送信された時刻の直後に操作対象機器30Aが正反対の操作信号を受け付けた場合には、直後に受け付けた操作信号の動作をユーザの意図した動作の真値とみなす。
In the learning here, for example, there is a method of using the content of the operation that is the correct answer.
First, it is necessary to specify the content of the operation that is the correct answer. For example, if the operation received by the operation target device 30A continues for a predetermined time or longer immediately after the time when the operation signal is transmitted, the operation executed by the operation target device 30A is regarded as the operation intended by the user. .. However, when the power-off operation signal is transmitted from the information terminal 20A to the operation target device 30A in the power-off state, there is a high possibility of erroneous operation. In that case, the operation target device 30A should receive the power-on operation signal following the reception of the power-off operation signal. Therefore, for example, when the operation target device 30A receives the opposite operation signal immediately after the time when the operation signal is transmitted, the operation of the operation signal received immediately after is regarded as the true value of the operation intended by the user.

このように予め定めた規則に従って、ユーザが意図した操作の内容を特定する手法を用いることも可能であるが、受付ログを機械学習したモデルを用いて、ユーザが脳波を用いて操作対象機器30Aを操作した場合におけるユーザが意図した操作の内容を決定してもよい。なお、情報端末20Aを通じて、ユーザが正解の操作の内容を機械学習装置50に送信してもよい。
いずれにしても、機械学習装置50は、特定された操作の内容と対応する脳波情報の特徴との組を教師データに用い、いわゆる教師データ有り学習を実行する。ここでの学習には、ディープラーニングの手法を使用する。なお、中間層にはLSTN(=Long Short-Term Memory)ブロックを導入してもよい。また、中間層に畳込み層やプーリング層を追加してもよい。
機械学習装置50は、脳波情報の特徴と操作の内容との対応関係を機械学習し、機械学習の成果を対応関係テーブル又は学習済みモデルとして情報端末20Aに送信する。
Although it is possible to use a method of specifying the content of the operation intended by the user according to the predetermined rule in this way, the user can use the brain wave to operate the device 30A by using a model in which the reception log is machine-learned. The content of the operation intended by the user when the operation is performed may be determined. The user may transmit the content of the correct operation to the machine learning device 50 through the information terminal 20A.
In any case, the machine learning device 50 uses a set of the specified operation content and the corresponding feature of the electroencephalogram information as the teacher data, and executes so-called learning with teacher data. For learning here, a deep learning method is used. An LSTN (= Long Short-Term Memory) block may be introduced in the intermediate layer. Further, a folding layer or a pooling layer may be added to the intermediate layer.
The machine learning device 50 machine-learns the correspondence between the features of the brain wave information and the contents of the operation, and transmits the result of the machine learning to the information terminal 20A as a correspondence table or a learned model.

図18は、実施の形態2で使用する情報端末20Aの内部構成の一例を示す図である。図18には、図4との対応部分に対応する符号を付して示している。
図18の場合も、情報端末20Aを構成するデバイスのうち、脳波等の生体情報から操作対象機器30A(図17参照)を操作する操作信号を生成する機能に関連するデバイスを抜き出して表している。
図18に示す情報端末20Aの場合、操作内容推定部223Aには、操作信号の推定に使用した脳波情報の特徴を機械学習装置50(図17参照)に送信する機能が追加されている。
FIG. 18 is a diagram showing an example of the internal configuration of the information terminal 20A used in the second embodiment. In FIG. 18, a reference numeral corresponding to a portion corresponding to that in FIG. 4 is added.
Also in the case of FIG. 18, among the devices constituting the information terminal 20A, the devices related to the function of generating the operation signal for operating the operation target device 30A (see FIG. 17) are extracted from the biological information such as brain waves. ..
In the case of the information terminal 20A shown in FIG. 18, the operation content estimation unit 223A has an additional function of transmitting the features of the electroencephalogram information used for estimating the operation signal to the machine learning device 50 (see FIG. 17).

この他、情報端末20Aには、機械学習装置50との通信用にWiFi(登録商標)モジュール205が設けられている。WiFiモジュール205は、機械学習装置50に対する脳波情報の特徴の送信と、機械学習装置50からの対応関係テーブル又は学習済みモデルの受信に使用される。ここでの学習済みモデルは、脳波情報の特徴が入力されると操作の内容を出力する関係が記憶されている。
図18では、機械学習装置50から受信された脳波情報の特徴用の対応関係テーブル231Aが半導体メモリ203に記憶されている。勿論、対応関係テーブル231Aに代えて学習済みモデルが半導体メモリ203に記憶されてもよい。
In addition, the information terminal 20A is provided with a WiFi (registered trademark) module 205 for communication with the machine learning device 50. The WiFi module 205 is used to transmit the features of the electroencephalogram information to the machine learning device 50 and to receive the correspondence table or the trained model from the machine learning device 50. In the trained model here, the relationship of outputting the operation content when the feature of the brain wave information is input is stored.
In FIG. 18, the correspondence table 231A for the features of the electroencephalogram information received from the machine learning device 50 is stored in the semiconductor memory 203. Of course, the trained model may be stored in the semiconductor memory 203 instead of the correspondence table 231A.

本実施の形態における脳波操作システム1Aの場合、イヤホン10(図17参照)を装着するユーザの脳波による操作に関連して発生した脳波情報の特徴と操作の内容との関係を機械学習することで、対応関係テーブル231Aに記憶される脳波情報の特徴と操作の内容との対応関係の精度が向上される。
その結果、例えばユーザを特定せずに機械学習を行う場合には、脳波の測定が可能なイヤホン10を装着した不特定多数のユーザによる脳波での操作の精度が向上される。
また特定のユーザに特定して機械学習を行う場合には、特定のユーザに特化した対応関係テーブル231Aや学習済みモデルにより、脳波での操作の精度の向上が実現される。
In the case of the electroencephalogram operation system 1A in the present embodiment, the relationship between the characteristics of the electroencephalogram information generated in connection with the operation by the electroencephalogram of the user wearing the earphone 10 (see FIG. 17) and the content of the operation is machine-learned. , The accuracy of the correspondence between the features of the electroencephalogram information stored in the correspondence table 231A and the contents of the operation is improved.
As a result, for example, when machine learning is performed without specifying the user, the accuracy of the operation with the brain wave by an unspecified number of users wearing the earphone 10 capable of measuring the brain wave is improved.
Further, when machine learning is performed by specifying a specific user, the accuracy of the operation by the brain wave is improved by the correspondence table 231A specialized for the specific user and the learned model.

<実施の形態3>
前述の実施の形態2においては、操作対象機器30A(図17参照)がIoTネットワーク経由で機械学習装置50(図17参照)と接続されていたが、本実施の形態では、操作対象機器30AがIoTネットワーク等を経由して機械学習装置50(図17参照)に接続されていない場合について説明する。
図19は、実施の形態3で使用する脳波操作システム1Bの概略構成を示す図である。図19には、図17との対応部分に対応する符号を付して示している。
図19に示す脳波操作システム1Bは、耳部に装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20Bと、ユーザが操作の対象とする操作対象機器30と、機械学習装置50Aとで構成されている。
<Embodiment 3>
In the above-described second embodiment, the operation target device 30A (see FIG. 17) is connected to the machine learning device 50 (see FIG. 17) via the IoT network, but in the present embodiment, the operation target device 30A is connected. A case where the machine learning device 50 (see FIG. 17) is not connected to the machine learning device 50 (see FIG. 17) via an IoT network or the like will be described.
FIG. 19 is a diagram showing a schematic configuration of the electroencephalogram manipulation system 1B used in the third embodiment. In FIG. 19, a reference numeral corresponding to a portion corresponding to that in FIG. 17 is added.
The electroencephalogram operation system 1B shown in FIG. 19 includes an earphone 10 worn on the ear, an information terminal 20B wirelessly connected to the earphone 10, an operation target device 30 to be operated by the user, and a machine learning device 50A. It is composed of and.

本実施の形態の場合、機械学習装置50Aは、正解となる操作の内容の情報をユーザ本人の音声の内容を通じて取得する。このため、情報端末20Bには、マイク122(図3参照)で取得された音声の内容を解析して機械学習装置50Aに送信する機能が設けられている。
もっとも、音声の内容の解析は、機械学習装置50Aに設けてもよい。また、音声の内容の解析には、インターネット上のサーバ等を通じて提供される音声認識サービスを活用してもよい。
図19では、ユーザが頭の中で念じている「電源オン」を、ユーザが声にも出している。ユーザが声に出した操作の内容で操作対象機器30が操作される点は、一見すると、スマートスピーカによる操作と同じに見えるが、本実施の形態の場合、ユーザの音声は、脳波情報の特徴に応じて推定される操作の内容に対する正解として与えられる。
In the case of the present embodiment, the machine learning device 50A acquires information on the content of the operation that is the correct answer through the content of the voice of the user himself / herself. Therefore, the information terminal 20B is provided with a function of analyzing the content of the voice acquired by the microphone 122 (see FIG. 3) and transmitting it to the machine learning device 50A.
However, the analysis of the content of the voice may be provided in the machine learning device 50A. Further, a voice recognition service provided through a server or the like on the Internet may be utilized for analyzing the content of the voice.
In FIG. 19, the user also speaks out the "power on" that the user has in mind. At first glance, the point that the operation target device 30 is operated by the content of the operation spoken by the user seems to be the same as the operation by the smart speaker, but in the case of the present embodiment, the user's voice is a feature of the brain wave information. It is given as the correct answer to the content of the operation estimated according to.

図20は、実施の形態3で使用する情報端末20Bの内部構成の一例を示す図である。図20には、図18との対応部分に対応する符号を付して示している。
図20の場合も、情報端末20Bを構成するデバイスのうち、脳波等の生体情報から操作対象機器30を操作する操作信号を生成する機能に関連するデバイスを抜き出して表している。
図20に示す情報端末20Bには、ブルートゥースモジュール201を通じて受信されるオーディオデータから操作の内容を取得する音声情報取得部224が追加されている。
FIG. 20 is a diagram showing an example of the internal configuration of the information terminal 20B used in the third embodiment. In FIG. 20, a reference numeral corresponding to a portion corresponding to that in FIG. 18 is added.
Also in the case of FIG. 20, among the devices constituting the information terminal 20B, the devices related to the function of generating the operation signal for operating the operation target device 30 from the biological information such as brain waves are extracted and shown.
The information terminal 20B shown in FIG. 20 has an additional voice information acquisition unit 224 that acquires the content of the operation from the audio data received through the Bluetooth module 201.

本実施の形態で使用する音声情報取得部224は、音声を解析して操作の内容を出力する処理を実行する。
もっとも、機械学習装置50Aや外部の音声認識サービスを活用する場合、音声情報取得部224は、取得されたオーディオデータを機械学習装置50Aや外部の音声認識サービスに送信する。
本実施の形態における脳波操作システム1Bの場合、ユーザの音声による指示の内容を脳波による操作の正解として活用できるので、受付ログを用いて操作の内容の正解を推定する場合に比して計算負荷が少なく済む。
また、本実施の形態の場合、操作の内容の正解が音声を通じて与えられるので、教師データの精度が向上し、その分、機械学習の精度の向上が期待される。
The voice information acquisition unit 224 used in the present embodiment executes a process of analyzing the voice and outputting the content of the operation.
However, when utilizing the machine learning device 50A or an external voice recognition service, the voice information acquisition unit 224 transmits the acquired audio data to the machine learning device 50A or the external voice recognition service.
In the case of the electroencephalogram operation system 1B in the present embodiment, since the content of the instruction by the user's voice can be utilized as the correct answer of the operation by the brain wave, the calculation load is compared with the case of estimating the correct answer of the operation content using the reception log. Is less.
Further, in the case of the present embodiment, since the correct answer of the operation content is given through voice, the accuracy of the teacher data is improved, and the accuracy of machine learning is expected to be improved accordingly.

<実施の形態4>
図21は、実施の形態4で使用する脳波操作システム1Cの概略構成を示す図である。図21には、図19との対応部分に対応する符号を付して示している。
本実施の形態の場合、情報端末20Cの内部で機械学習の処理を実行する。
図22は、実施の形態4で使用する情報端末20Cの内部構成の一例を示す図である。図22には、図20との対応部分に対応する符号を付して示している。
<Embodiment 4>
FIG. 21 is a diagram showing a schematic configuration of the electroencephalogram manipulation system 1C used in the fourth embodiment. In FIG. 21, a reference numeral corresponding to a portion corresponding to that in FIG. 19 is added.
In the case of this embodiment, the machine learning process is executed inside the information terminal 20C.
FIG. 22 is a diagram showing an example of the internal configuration of the information terminal 20C used in the fourth embodiment. In FIG. 22, a reference numeral corresponding to a portion corresponding to that in FIG. 20 is added.

図22に示す情報端末20Cの場合、MPU202Cの機能として、機械学習部225が追加される。機械学習部225も、MPU202Cによるプログラムの実行を通じて提供される。
また、本実施の形態の場合、脳波に基づく操作の履歴や正誤等を記録するテーブル233及び234が半導体メモリ203に追加される。テーブル233は、脳波情報の特徴用であり、テーブル234は、脳波以外の生体情報用である。
本実施の形態における機械学習部225は、テーブル233に記録されている情報を教師データに用いて機械学習を実行し、脳波情報の特徴用の対応関係テーブル231Aを更新する。同じく、機械学習部225は、テーブル234に記録されている情報を教師データに用いて機械学習を実行し、脳波以外の生体情報の特徴用の対応関係テーブル232Aを更新する。
In the case of the information terminal 20C shown in FIG. 22, the machine learning unit 225 is added as a function of the MPU 202C. The machine learning unit 225 is also provided through the execution of the program by the MPU202C.
Further, in the case of the present embodiment, tables 233 and 234 for recording the history of operations based on brain waves, correctness, and the like are added to the semiconductor memory 203. Table 233 is for features of electroencephalogram information, and table 234 is for biometric information other than electroencephalogram.
The machine learning unit 225 in the present embodiment executes machine learning using the information recorded in the table 233 as the teacher data, and updates the correspondence table 231A for the features of the electroencephalogram information. Similarly, the machine learning unit 225 executes machine learning using the information recorded in the table 234 as the teacher data, and updates the correspondence table 232A for features of biological information other than brain waves.

本実施の形態における音声情報取得部224も、音声を解析して操作の内容を出力する処理を実行する。もっとも、外部の音声認識サービスを利用する場合、音声情報取得部224は、取得されたオーディオデータを外部の音声認識サービスに与え、解析の結果として操作の内容を取得する。いずれの場合も、操作の内容は、半導体メモリのテーブル233に格納される。
なお、本実施の形態における操作内容推定部223Cは、脳波情報の特徴や脳波以外の生体情報の特徴によって推定された操作の内容の精度が低い場合、音声により指示された操作の内容を操作対象機器30に送信する。
The voice information acquisition unit 224 in the present embodiment also executes a process of analyzing the voice and outputting the content of the operation. However, when using an external voice recognition service, the voice information acquisition unit 224 gives the acquired audio data to the external voice recognition service, and acquires the content of the operation as a result of the analysis. In either case, the content of the operation is stored in the table 233 of the semiconductor memory.
In addition, when the accuracy of the operation content estimated by the feature of the electroencephalogram information or the feature of the biological information other than the electroencephalogram is low, the operation content estimation unit 223C in the present embodiment sets the operation content instructed by voice as the operation target. It is transmitted to the device 30.

図23は、操作の履歴や正誤等を記録するテーブル233と234の例を説明する図である。(A)は脳波情報の特徴により推定された操作の履歴や正誤を記録するテーブル233を示し、(B)は脳波以外の生体情報の特徴により推定された操作の履歴や正誤を記録するテーブル234を示す。
テーブル233には、脳波による操作が行われた日時と、脳波情報の特徴と、推定された操作の内容と、ユーザの意図として与えられた音声の内容と、特徴に対応付けられている操作の内容の正誤とが記憶されている。
図23の場合、「20XX/10/15 12:45:52」に脳波情報の特徴から推定された操作の内容は、音声の内容と同じであることが記録されている。このため、正誤の欄には「正」が記録されている。
一方、「20XX/10/15 12:46:10」に脳波情報の特徴から推定された操作の内容は、音声の内容と異なることが記録されている。このため、正誤の欄には「誤」が記録されている。
FIG. 23 is a diagram illustrating an example of tables 233 and 234 that record an operation history, correctness, and the like. (A) shows a table 233 that records the operation history and errata estimated by the characteristics of the electroencephalogram information, and (B) shows a table 234 that records the operation history and the errata estimated by the characteristics of the biological information other than the electroencephalogram. Is shown.
Table 233 shows the date and time when the operation by the brain wave was performed, the feature of the brain wave information, the content of the estimated operation, the content of the voice given as the user's intention, and the operation associated with the feature. The correctness of the content is remembered.
In the case of FIG. 23, it is recorded in "20XX / 10/15 12:45:52" that the content of the operation estimated from the characteristics of the electroencephalogram information is the same as the content of the voice. Therefore, "correct" is recorded in the correct / incorrect column.
On the other hand, it is recorded in "20XX / 10/15 12:46:10" that the content of the operation estimated from the characteristics of the EEG information is different from the content of the voice. Therefore, "wrong" is recorded in the correct / incorrect column.

テーブル234には、脳波による操作が行われた日時と、脳波以外の生体情報の特徴と、推定された操作の内容と、ユーザの意図として与えられた音声の内容と、特徴に対応付けられている操作の内容の正誤とが記憶されている。
脳波以外の生体情報の特徴により推定された操作の内容は、「20XX/10/15 12:45:52」と「20XX/10/15 12:46:10」のいずれの場合も、音声の内容と同じである。このため、正誤の欄には「正」が記録されている。
本実施の形態における機械学習部225(図22参照)は、テーブル233の履歴を教師データに使用して機械学習を継続し、脳波情報の特徴用の対応関係テーブル231Aを更新する。また、機械学習部225は、テーブル234の履歴を教師データに使用して機械学習を継続し、脳波以外の生体情報の特徴用の対応関係テーブル232Aを更新する。
なお、対応関係テーブル231Aの代わりに学習済みモデルが記憶される場合には、機械学習による更新後の学習済みモデルで半導体メモリ203内の学習済みモデルが更新される。
Table 234 is associated with the date and time when the operation by the brain wave was performed, the feature of the biological information other than the brain wave, the content of the estimated operation, the content of the voice given as the user's intention, and the feature. The correctness of the content of the operation being performed is memorized.
The content of the operation estimated from the characteristics of biological information other than brain waves is the content of voice in both cases of "20XX / 10/15 12:45:52" and "20XX / 10/15 12:46:10". Is the same as. Therefore, "correct" is recorded in the correct / incorrect column.
The machine learning unit 225 (see FIG. 22) in the present embodiment continues machine learning by using the history of the table 233 as the teacher data, and updates the correspondence table 231A for the features of the electroencephalogram information. Further, the machine learning unit 225 uses the history of the table 234 as the teacher data to continue the machine learning, and updates the correspondence table 232A for the features of biological information other than the electroencephalogram.
When the trained model is stored instead of the correspondence table 231A, the trained model in the semiconductor memory 203 is updated with the trained model updated by machine learning.

続いて、情報端末20C(図21参照)が、MPU202C(図22参照)によるプログラムの実行を通じて実現する処理動作の一例を説明する。
図24は、脳波情報を含むデジタル信号を受信した情報端末20Cが実行する処理動作の一例を説明するフローチャートである。図中のSはステップを意味する。
イヤホン10(図21参照)から脳波情報を含むデジタル信号を受信したMPU202Cは、受信したデジタル信号から脳波情報の特徴と、脳波以外の生体情報の特徴と、音声による操作の内容を取得する(ステップ21)。
Subsequently, an example of the processing operation realized by the information terminal 20C (see FIG. 21) through the execution of the program by the MPU 202C (see FIG. 22) will be described.
FIG. 24 is a flowchart illustrating an example of a processing operation executed by the information terminal 20C that has received a digital signal including brain wave information. S in the figure means a step.
The MPU202C, which has received a digital signal including brain wave information from the earphone 10 (see FIG. 21), acquires the characteristics of brain wave information, the characteristics of biological information other than brain waves, and the content of voice operation from the received digital signal (step). 21).

次に、MPU202Cは、テーブル233(図23参照)を参照し、脳波情報の特徴から推定される操作の内容と実際の操作の内容との一致率を計算する(ステップ22)。ここでの一致率は、ステップ21で取得された脳波情報の特徴に類似する特徴に限って計算してもよいし、過去の全てのサンプルを対象に計算してもよい。
なお、一致率の計算は、期間を定めて計算してもよい。例えば一致率が低かった過去のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、一致率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
Next, the MPU 202C refers to the table 233 (see FIG. 23) and calculates the matching rate between the operation content estimated from the characteristics of the electroencephalogram information and the actual operation content (step 22). The match rate here may be calculated only for features similar to the features of the electroencephalogram information acquired in step 21, or may be calculated for all past samples.
The matching rate may be calculated for a fixed period. For example, when many past samples with a low concordance rate are included, even if the latest concordance rate is high, it may not be possible to switch to the operation using brain waves. Therefore, regarding the calculation of the match rate, a limit may be applied to the period during which the sample used in the calculation appears.

続いて、MPU202Cは、計算された一致率と閾値1を比較する(ステップ23)。ここでの閾値1は、例えば90%に設定する。もっとも、この数値は一例である。また、閾値1は、ユーザが変更することも可能である。なお、閾値1は、第1の閾値の一例である。
なお、サンプル数が少ない場合には、過去の一致率の高さが、今回の脳波情報の特徴から推定される操作の内容の精度を保証する根拠にはならない。そこで、サンプル数が予め定めた値に満たない場合には、強制的に否定結果を出力する設定にしてもよい。
ステップ23で肯定結果が得られた場合、MPU202Cは、脳波情報の特徴に対応する操作の内容を送信する(ステップ24)。この状態は、脳波による操作対象機器30(図21参照)が高い精度で行える状態を意味する。
Subsequently, the MPU202C compares the calculated match rate with the threshold value 1 (step 23). The threshold value 1 here is set to, for example, 90%. However, this number is just an example. The threshold value 1 can also be changed by the user. The threshold value 1 is an example of the first threshold value.
When the number of samples is small, the high concordance rate in the past does not serve as a basis for guaranteeing the accuracy of the operation content estimated from the characteristics of the electroencephalogram information this time. Therefore, if the number of samples is less than a predetermined value, a negative result may be forcibly output.
If an affirmative result is obtained in step 23, the MPU 202C transmits the content of the operation corresponding to the feature of the electroencephalogram information (step 24). This state means a state in which the device 30 to be operated by the brain wave (see FIG. 21) can be performed with high accuracy.

これに対し、ステップ23で否定結果が得られた場合、本実施の形態におけるMPU202Cは、脳波以外の生体情報の特徴から推定される操作の内容と実際の操作の内容との一致率を計算する(ステップ25)。
前述の実施の形態1の場合、脳波以外の生体情報の特徴から推定される操作の内容に誤りはないものとして扱ったが、本実施の形態では、取得された生体情報の特徴から推定される操作の内容に誤りが含まれる場合も想定している。例えば唾液を飲み込む顎の動きが弱い場合や特徴の取得が難しい筋肉の動きが操作に用いられる場合も想定している。
On the other hand, when a negative result is obtained in step 23, the MPU202C in the present embodiment calculates the concordance rate between the content of the operation estimated from the characteristics of biological information other than the brain wave and the content of the actual operation. (Step 25).
In the case of the above-described first embodiment, it is treated as if there is no error in the content of the operation estimated from the characteristics of the biological information other than the brain wave, but in the present embodiment, it is estimated from the characteristics of the acquired biological information. It is also assumed that the content of the operation contains an error. For example, it is assumed that the movement of the jaw that swallows saliva is weak, or the movement of muscles whose characteristics are difficult to acquire is used for operation.

ここでの一致率の計算も、ステップ21で取得された脳波以外の生体情報の特徴に類似する特徴に限って計算してもよいし、過去の全てのサンプルを対象に計算してもよい。
一致率の計算に用いる期間についても、脳波情報の特徴の場合と同様、サンプルが属する期間を定めてもよい。
続いて、MPU202Cは、計算された一致率と閾値2を比較する(ステップ26)。ここでの閾値2には、例えば95%を使用する。もっとも、脳波以外の生体情報の特徴は、ユーザが意図的に動かすことが可能な筋肉の動きに起因しているので、閾値2をステップ23で用いる閾値1より高く設定することが可能である。勿論、ここでの数値は一例であり、ユーザが変更することも可能である。なお、閾値2は、第2の閾値の一例である。
The calculation of the match rate here may be limited to features similar to the features of biological information other than the electroencephalogram acquired in step 21, or may be calculated for all past samples.
As for the period used for calculating the concordance rate, the period to which the sample belongs may be determined as in the case of the feature of the electroencephalogram information.
Subsequently, the MPU202C compares the calculated match rate with the threshold value 2 (step 26). For the threshold value 2 here, for example, 95% is used. However, since the characteristics of biological information other than brain waves are caused by the movement of muscles that the user can intentionally move, the threshold value 2 can be set higher than the threshold value 1 used in step 23. Of course, the numerical value here is an example and can be changed by the user. The threshold value 2 is an example of the second threshold value.

ステップ26で肯定結果が得られた場合、MPU202Cは、脳波以外の生体情報の特徴に対応する操作の内容を送信する(ステップ27)。
一方、ステップ26で否定結果が得られた場合、MPU202Cは、音声による操作の内容を送信する(ステップ28)。
本実施の形態における脳波操作システム1Cの場合も、ユーザの音声による指示の内容を脳波による操作の正解として活用できるので、教師データの精度が向上し、機械学習の精度の向上が期待される。
また、本実施の形態の場合には、イヤホン10(図21参照)を装着しているユーザのアカウントに紐づけて脳波情報の特徴と操作の内容との対応関係を学習できるので、対応関係テーブル231A及び232Aの内容がユーザに合わせた内容に変更される。結果的に、ユーザの脳波による操作の精度が向上する。
If an affirmative result is obtained in step 26, the MPU202C transmits the content of the operation corresponding to the characteristics of the biological information other than the electroencephalogram (step 27).
On the other hand, if a negative result is obtained in step 26, the MPU 202C transmits the content of the operation by voice (step 28).
Also in the case of the electroencephalogram operation system 1C in the present embodiment, since the content of the instruction by the user's voice can be utilized as the correct answer of the operation by the electroencephalogram, the accuracy of the teacher data is improved, and the accuracy of machine learning is expected to be improved.
Further, in the case of the present embodiment, the correspondence relationship between the characteristics of the electroencephalogram information and the operation contents can be learned by associating with the account of the user wearing the earphone 10 (see FIG. 21). The contents of 231A and 232A are changed to the contents suitable for the user. As a result, the accuracy of the operation by the user's brain wave is improved.

<実施の形態5>
図25は、実施の形態5で使用する脳波操作システム1Dの概略構成を示す図である。図25には、図21との対応部分に対応する符号を付して示している。
本実施の形態の場合も、情報端末20Dの内部で機械学習の処理を実行する点で実施の形態4と同じである。
ただし、本実施の形態が操作の内容の推定に用いる処理の内容が、実施の形態4と異なる。
<Embodiment 5>
FIG. 25 is a diagram showing a schematic configuration of the electroencephalogram manipulation system 1D used in the fifth embodiment. In FIG. 25, a reference numeral corresponding to a portion corresponding to FIG. 21 is attached.
The present embodiment is also the same as the fourth embodiment in that the machine learning process is executed inside the information terminal 20D.
However, the content of the process used by this embodiment for estimating the content of the operation is different from that of the fourth embodiment.

図26は、実施の形態5で使用する情報端末20Dの内部構成の一例を示す図である。図26には、図22との対応部分に対応する符号を付して示している。
図26に示す情報端末20Dの場合、半導体メモリ203にテーブル235を記憶する点と、操作内容推定部223Dで実行される処理の内容が異なる。
図27は、脳波による操作の履歴や正誤等を記録するテーブル235の例を説明する図である。
テーブル235では、脳波情報の特徴と脳波以外の生体情報の特徴とが1つの時刻に対応付けて管理される点で実施の形態4と相違する。
FIG. 26 is a diagram showing an example of the internal configuration of the information terminal 20D used in the fifth embodiment. In FIG. 26, a reference numeral corresponding to a portion corresponding to FIG. 22 is added.
In the case of the information terminal 20D shown in FIG. 26, the point that the table 235 is stored in the semiconductor memory 203 and the content of the processing executed by the operation content estimation unit 223D are different.
FIG. 27 is a diagram illustrating an example of a table 235 that records a history of operations by brain waves, correctness, and the like.
Table 235 differs from the fourth embodiment in that the features of the electroencephalogram information and the features of the biometric information other than the electroencephalogram are managed in association with one time.

テーブル235には、脳波による操作が行われた日時と、ユーザの意図として与えられた音声の内容と、脳波情報の特徴と、脳波以外の生体情報の特徴と、脳波情報の特徴から推定された操作の内容と正誤、脳波以外の生体情報の特徴から推定された操作の内容と正誤、操作対象機器30に送信された操作信号の内容が記憶されている。
図27には、「20XX/10/15 12:45:52」と「20XX/10/15 12:46:10」の履歴が表されている。
本実施の形態における操作内容推定部223Dは、このテーブル235を活用し、操作対象機器30に送信する操作の内容を決定する。
Table 235 was estimated from the date and time when the operation by the electroencephalogram was performed, the content of the voice given as the user's intention, the characteristics of the electroencephalogram information, the characteristics of the biological information other than the electroencephalogram, and the characteristics of the electroencephalogram information. The content and correctness of the operation, the content and correctness of the operation estimated from the characteristics of the biological information other than the brain wave, and the content of the operation signal transmitted to the operation target device 30 are stored.
FIG. 27 shows the history of “20XX / 10/15 12:45:52” and “20XX / 10/15 12:46:10”.
The operation content estimation unit 223D in the present embodiment utilizes the table 235 to determine the content of the operation to be transmitted to the operation target device 30.

続いて、情報端末20D(図25参照)が、MPU202D(図26参照)によるプログラムの実行を通じて実現する処理動作の一例を説明する。
図28は、脳波情報を含むデジタル信号を受信した情報端末20Dが実行する処理動作の一例を説明するフローチャートである。図中のSはステップを意味する。
本実施の形態の場合、MPU202Dは、脳波情報の特徴と脳波以外の生体情報の特徴が共起する確率を計算する(ステップ31)。本実施の形態の場合、脳波情報のある特徴が出現した場合に、脳波以外の生体情報の特定の特徴が同時に出現する確率を計算する。
Subsequently, an example of the processing operation realized by the information terminal 20D (see FIG. 25) through the execution of the program by the MPU 202D (see FIG. 26) will be described.
FIG. 28 is a flowchart illustrating an example of a processing operation executed by the information terminal 20D that has received a digital signal including brain wave information. S in the figure means a step.
In the case of the present embodiment, the MPU 202D calculates the probability that the features of the electroencephalogram information and the features of the biological information other than the electroencephalogram co-occur (step 31). In the case of the present embodiment, when a feature with electroencephalogram information appears, the probability that a specific feature of biometric information other than electroencephalogram appears at the same time is calculated.

ここでの一致率は、新たに取得された脳波情報の特定の特徴に限って計算してもよいし、過去の全てのサンプルを対象に計算してもよい。
なお、確率の計算は、期間を定めて計算してもよい。脳波による操作に不慣れな期間のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、確率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
次に、MPU202Dは、計算された確率が閾値3より大きいか否かを判定する(ステップ32)。ここでの閾値3は、例えば95%に設定する。もっとも、この数値は一例である。また、閾値3は、ユーザが変更することも可能である。なお、閾値3は、第3の閾値の一例である。
The concordance rate here may be calculated only for a specific feature of newly acquired electroencephalogram information, or may be calculated for all past samples.
The probability may be calculated for a fixed period. This is because when many samples are included during a period unfamiliar with the operation by EEG, even if the latest agreement rate is high, it may not be possible to switch to the operation by EEG. Therefore, regarding the calculation of the probability, a limit may be applied to the period during which the sample used for the calculation appears.
Next, the MPU202D determines whether the calculated probability is greater than the threshold 3 (step 32). The threshold value 3 here is set to, for example, 95%. However, this number is just an example. The threshold value 3 can also be changed by the user. The threshold value 3 is an example of a third threshold value.

ステップ32で否定結果が得られた場合、MPU202Dは、操作対象機器30に対して音声の内容を送信する(ステップ33)。ステップ32で否定結果が得られる場合とは、有意な共起関係が未だ検知されていない場合である。
一方、ステップ32で肯定結果が得られた場合、MPU202Dは、脳波以外の生体情報の特徴から特定される操作と実際に実行された操作との一致率を計算する(ステップ34)。
ステップ32で肯定結果が得られる場合とは、脳波情報の特徴と脳波以外の生体情報の特徴との間にほぼ一対一の関係が成立している状態をいう。換言すると、ある特定の操作を念じながら、特定の筋肉を動かす度に、同じ特徴を有する脳波情報が出現する状態をいう。
If a negative result is obtained in step 32, the MPU 202D transmits the audio content to the operation target device 30 (step 33). The case where a negative result is obtained in step 32 is a case where a significant co-occurrence relationship has not yet been detected.
On the other hand, when an affirmative result is obtained in step 32, the MPU202D calculates the concordance rate between the operation specified from the characteristics of biological information other than brain waves and the actually executed operation (step 34).
The case where an affirmative result is obtained in step 32 means a state in which a substantially one-to-one relationship is established between the characteristics of the electroencephalogram information and the characteristics of the biometric information other than the electroencephalogram. In other words, it refers to a state in which brain wave information having the same characteristics appears each time a specific muscle is moved while keeping in mind a specific operation.

例えば唾液を飲み込む動作は、図13で説明したように、検出の精度も高い。このため、操作を念じる行為と一緒に唾液を飲み込む顎の動きを組み合わせていた場合には、ステップ32で肯定結果が得られた段階で、かなりの精度で脳波だけによる操作が可能と考えてよい。
ただし、本実施の形態では、意図的な筋肉の動きとして、他の筋肉の動きを用いる操作も想定して以下の処理を実行する。
For example, the action of swallowing saliva has high detection accuracy as described with reference to FIG. For this reason, when the movement of the jaw that swallows saliva is combined with the act of thinking about the operation, it may be considered that the operation using only the brain wave is possible with considerable accuracy when a positive result is obtained in step 32. ..
However, in the present embodiment, the following processing is executed assuming an operation using the movement of another muscle as the intentional movement of the muscle.

まず、MPU202Dは、脳波以外の生体情報の特徴から特定される操作と実際に実行された操作との一致率を計算する(ステップ34)。脳波情報の特徴との間で共起関係が認められても、脳波以外の生体情報の特徴がユーザの意図に反していたのでは、共起関係にある脳波情報の特徴を用いた操作も間違いになるためである。
ここでの一致率も、新たに取得された脳波情報の特定の特徴に限って計算してもよいし、過去の全てのサンプルを対象に計算してもよい。
なお、確率の計算は、期間を定めて計算してもよい。脳波による操作に不慣れな期間のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、確率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
First, the MPU202D calculates the concordance rate between the operation specified from the characteristics of biological information other than brain waves and the actually executed operation (step 34). Even if a co-occurrence relationship is recognized with the features of the brain wave information, if the features of the biological information other than the brain waves are contrary to the user's intention, the operation using the features of the brain wave information in the co-occurrence relationship is also incorrect. Because it becomes.
The concordance rate here may also be calculated only for a specific feature of newly acquired electroencephalogram information, or may be calculated for all past samples.
The probability may be calculated for a fixed period. This is because when many samples are included during a period unfamiliar with the operation by EEG, even if the latest agreement rate is high, it may not be possible to switch to the operation by EEG. Therefore, regarding the calculation of the probability, a limit may be applied to the period during which the sample used for the calculation appears.

続いて、MPU202Dは、計算された一致率が閾値4より大きいか否かを判定する(ステップ35)。ここでの閾値4は、例えば95%に設定する。もっとも、この数値は一例である。また、閾値4は、ユーザが変更することも可能である。なお、閾値4は、第4の閾値の一例である。
ステップ35で否定結果が得られた場合、MPU202Dは、操作対象機器30に対して音声の内容を送信する(ステップ33)。
一方、ステップ35で肯定結果が得られた場合、MPU202Dは、操作対象機器30(図25参照)に対し、脳波情報の特徴に対応付けられている内容を送信する(ステップ36)。ステップ35で肯定結果が得られる場合は、脳波情報の特徴がユーザの意図を正確に反映している信憑性が高いためである。
本実施の形態の場合、ステップ36の後、MPU202Dは、脳波情報の特徴のみを用いる操作モードに設定を変更する(ステップ37)。これにより、次回以降は、脳波だけによる操作が実行される状態になる。
Subsequently, the MPU202D determines whether or not the calculated match rate is greater than the threshold value 4 (step 35). The threshold value 4 here is set to, for example, 95%. However, this number is just an example. The threshold value 4 can also be changed by the user. The threshold value 4 is an example of the fourth threshold value.
If a negative result is obtained in step 35, the MPU 202D transmits the audio content to the operation target device 30 (step 33).
On the other hand, when an affirmative result is obtained in step 35, the MPU 202D transmits the content associated with the feature of the electroencephalogram information to the operation target device 30 (see FIG. 25) (step 36). If an affirmative result is obtained in step 35, it is because the characteristics of the electroencephalogram information are highly credible to accurately reflect the user's intention.
In the case of the present embodiment, after step 36, the MPU 202D changes the setting to the operation mode using only the features of the electroencephalogram information (step 37). As a result, from the next time onward, the operation using only the brain waves will be executed.

このように、本実施の形態では、ユーザの意図を反映した特徴が安定的に出現されるようになった状態を、脳波に比して再現性が高い生体情報の特徴との共起関係を活用して確認することにより、音声による操作から脳波による操作への切り替えが実現される。
さらに、本実施の形態では、機械学習部225(図26参照)を使用して脳波情報に出現する特徴と操作の内容との対応関係の精度も向上させている。
このため、本実施の形態の脳波操作システム1Dの場合にも、ユーザによる脳波による操作の精度の向上が実現される。
As described above, in the present embodiment, the state in which the feature reflecting the user's intention appears stably is co-occurred with the feature of biological information having higher reproducibility than the brain wave. By utilizing and confirming, switching from voice operation to brain wave operation is realized.
Further, in the present embodiment, the machine learning unit 225 (see FIG. 26) is used to improve the accuracy of the correspondence between the features appearing in the electroencephalogram information and the contents of the operation.
Therefore, even in the case of the electroencephalogram operation system 1D of the present embodiment, the accuracy of the operation by the user by the electroencephalogram can be improved.

<他の実施の形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
<Other embodiments>
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above-described embodiments. It is clear from the description of the claims that the above-described embodiments with various modifications or improvements are also included in the technical scope of the present invention.

例えば前述の実施の形態では、脳波以外の生体情報の特徴を発生させるユーザの意図的な動きとして唾液を飲み込む動きを例示したが、前述したように、表情筋や咀嚼筋等を用いてもよい。因みに、唾液を飲み込む動きや咀嚼筋を動かす動きは、顎の動きの一例である。また、表情筋の動きには、眼球を動かす筋肉の動きも含まれる。
また、前述の実施の形態では、イヤホン10(図1参照)で測定が可能な電位変動の一例として脳波について説明したが、筋電、心拍、心電、脈拍、脈波等も含まれる。
For example, in the above-described embodiment, the movement of swallowing saliva is exemplified as the intentional movement of the user to generate features of biological information other than brain waves, but as described above, facial muscles, masticatory muscles, and the like may be used. .. By the way, the movement of swallowing saliva and the movement of moving the muscles of mastication are examples of the movement of the jaw. The movement of the facial muscles also includes the movement of the muscles that move the eyeball.
Further, in the above-described embodiment, the brain wave has been described as an example of the potential fluctuation that can be measured by the earphone 10 (see FIG. 1), but myoelectricity, heartbeat, electrocardiogram, pulse, pulse wave and the like are also included.

前述の実施の形態では、両耳の外耳孔にイヤホン10を装着して脳波を想定しているが、イヤホン10は、片耳の外耳孔に装着するタイプでもよい。
図29は、片耳に装着するタイプのイヤホン10Aの外観例を説明する図である。図29には、図2との対応部分に対応する符号を付して示している。図29に示すイヤホン10Aの場合、イヤホンチップ11Rが絶縁リングにより先端側と本体側とに電気的に分離され、先端側に電極11R1が配置され、本体側に電極11L1が配置されている。なお、GND端子としての電極11R2は不図示の絶縁体により電極11L1と電気的に分離されている。
この構成の場合、イヤホン本体12R内にリチウムバッテリ128(図3参照)も格納される。
In the above-described embodiment, the earphones 10 are attached to the external ear canals of both ears to assume brain waves, but the earphones 10 may be attached to the external ear canals of one ear.
FIG. 29 is a diagram illustrating an external example of the earphone 10A of the type worn on one ear. In FIG. 29, reference numerals corresponding to the portions corresponding to those in FIG. 2 are added. In the case of the earphone 10A shown in FIG. 29, the earphone chip 11R is electrically separated into the tip side and the main body side by an insulating ring, the electrode 11R1 is arranged on the tip side, and the electrode 11L1 is arranged on the main body side. The electrode 11R2 as a GND terminal is electrically separated from the electrode 11L1 by an insulator (not shown).
In this configuration, the lithium battery 128 (see FIG. 3) is also stored in the earphone body 12R.

前述の実施の形態では、イヤホン10(図1参照)内に電位変動をセンシングする機能のみを設け、情報端末20(図1参照)等に脳波情報等の特徴に応じて操作の内容を推定する機能を設けているが、脳波情報等の特徴に応じて操作の内容を推定する機能についてもイヤホン10に含めてもよい。この場合、イヤホン10は、単独で情報処理システムの一例となる。
また、前述の実施の形態では、情報端末20(図1参照)等に脳波情報等の特徴に応じて操作の内容を推定する機能を設けているが、脳波情報等の特徴に応じて操作の内容を推定する機能の一部又は全てをインターネット上のサーバで実行してもよい。この場合、サーバが、情報処理システムの一例となる。
In the above-described embodiment, only the function of sensing the potential fluctuation is provided in the earphone 10 (see FIG. 1), and the content of the operation is estimated in the information terminal 20 (see FIG. 1) or the like according to the characteristics such as brain wave information. Although the function is provided, the earphone 10 may also include a function of estimating the content of the operation according to features such as brain wave information. In this case, the earphone 10 is an example of an information processing system by itself.
Further, in the above-described embodiment, the information terminal 20 (see FIG. 1) or the like is provided with a function of estimating the content of the operation according to the characteristics of the electroencephalogram information or the like, but the operation is performed according to the characteristics of the electroencephalogram information or the like. Some or all of the function of estimating the content may be executed by a server on the Internet. In this case, the server is an example of an information processing system.

前述の実施の形態では、脳波等に起因する電位変動を測定する電極をイヤホン10に配置する例を説明したが、他の物品に装着してもよい。以下、具体例を幾つか例示する。
例えば脳波等に起因する電位変動を測定する電極は耳介を覆うヘッドホンに配置してもよい。ヘッドホンの場合、電極は、イヤパッドのうち頭部と接触する部分に設けられる。この際、電極は、頭髪が少なく、皮膚と直に接触が可能な位置に配置される。
また、耳介に接触する物品には、イヤリング等のアクセサリや眼鏡型のデバイスでもよい。これらは、ウェアラブルデバイスの一例である。
図30は、脳波の測定に使用する電極を配置したイヤリング60の一例を説明する図である。図30に示すイヤリング60は、装飾が取り付けられる耳の表面側で耳朶に接触する電極11R1と、耳の裏面側で耳朶に接触する電極11L1と、U字部分のいずれかの位置で耳朶に接触する電極11R2を有している。これらの電極は不図示の絶縁体により電気的に分離されている。また、動作に必要な電力を供給するバッテリやブルートゥースその他の通信モジュールは、装飾の内部、U字部分、電極11L1が配置される皿形状の部材を軸方向に移動させるネジの軸内等に内蔵される。
In the above-described embodiment, the example in which the electrode for measuring the potential fluctuation caused by the brain wave or the like is arranged on the earphone 10 has been described, but it may be attached to another article. Hereinafter, some specific examples will be illustrated.
For example, an electrode for measuring a potential fluctuation caused by an electroencephalogram or the like may be arranged in headphones covering the auricle. In the case of headphones, the electrodes are provided on the ear pads that come into contact with the head. At this time, the electrodes are arranged at positions where there is little hair and direct contact with the skin is possible.
Further, the article that comes into contact with the auricle may be an accessory such as an earring or a spectacle-shaped device. These are examples of wearable devices.
FIG. 30 is a diagram illustrating an example of an earring 60 in which electrodes used for measuring brain waves are arranged. The earring 60 shown in FIG. 30 has an electrode 11R1 that contacts the earlobe on the front surface side of the ear to which the decoration is attached, an electrode 11L1 that contacts the earlobe on the back surface side of the ear, and contacts the earlobe at any position of the U-shaped portion. It has an electrode 11R2 to be used. These electrodes are electrically separated by an insulator (not shown). In addition, the battery, Bluetooth, and other communication modules that supply the power required for operation are built into the interior of the decoration, the U-shaped part, and the inside of the screw shaft that moves the dish-shaped member on which the electrode 11L1 is arranged in the axial direction. Will be done.

図31は、脳波の測定に使用する電極を配置した眼鏡70の一例を説明する図である。図31に示す眼鏡70は、右側のツルの先端部(以下「モダン」という)に電極11R1と電極11L1が配置され、左側のツルのモダンに電極11R2が配置されている。これらの電極は不図示の絶縁体により電気的に分離されている。また、動作に必要な電力を供給するバッテリやブルートゥースその他の通信モジュールは、ツルやモダンに内蔵される。
この他、脳波の測定に使用する電極は、スマートグラスやヘッドマウントディスプレイと呼ばれる情報を表示するヘッドセットへの組み合わせも可能である。また、ユーザの周囲の環境を理解し、環境に同化させた画像を表示する機能を備えるヘッドセットへの搭載も可能である。
FIG. 31 is a diagram illustrating an example of eyeglasses 70 in which electrodes used for measuring brain waves are arranged. In the spectacles 70 shown in FIG. 31, the electrode 11R1 and the electrode 11L1 are arranged at the tip of the right vine (hereinafter referred to as “modern”), and the electrode 11R2 is arranged at the modern vine on the left side. These electrodes are electrically separated by an insulator (not shown). In addition, batteries, Bluetooth and other communication modules that supply the power required for operation are built into the vine and modern.
In addition, the electrodes used for measuring brain waves can also be combined with headsets that display information called smart glasses and head-mounted displays. It can also be mounted on a headset that has the function of understanding the user's surrounding environment and displaying an image assimilated into the environment.

図32は、ユーザの周囲の環境に同化させた画像を表示させる機能を備えるヘッドセット80に脳波の測定に使用する場合の電極の配置例を説明する図である。図32に示すヘッドセット80は、マイクロソフト(登録商標)社のhololens(登録商標)に、脳波を測定する電極を配置した構成をイメージしている。ヘッドセット80を装着したユーザが体験する仮想の環境は、拡張現実や複合現実と呼ばれる。
図32に示すヘッドセット80では、頭部に装着されるリング状の部材のうち耳部に接触する部位に、電極11R1、電極11R2、電極11L1が配置されている。図32に示すヘッドセット80の場合、電極11R1と電極11R2は右耳側に配置され、電極11L1は左耳側に配置される。
FIG. 32 is a diagram illustrating an example of electrode arrangement when used for measuring brain waves on a headset 80 having a function of displaying an image assimilated to the user's surrounding environment. The headset 80 shown in FIG. 32 has an image of a configuration in which electrodes for measuring brain waves are arranged in hololens (registered trademark) of Microsoft Corporation (registered trademark). The virtual environment experienced by the user wearing the headset 80 is called augmented reality or mixed reality.
In the headset 80 shown in FIG. 32, the electrodes 11R1, the electrodes 11R2, and the electrodes 11L1 are arranged at the portions of the ring-shaped members mounted on the head that come into contact with the ears. In the case of the headset 80 shown in FIG. 32, the electrodes 11R1 and 11R2 are arranged on the right ear side, and the electrodes 11L1 are arranged on the left ear side.

なお、ヘッドセット80に設けられている視線を追跡する機能を使用し、脳波以外の生体情報の特徴としてユーザの視線の向きを用いることも可能である。
図33は、視線を追跡する機能を生体情報の特徴とする例を説明する図である。(A)は視線の方向が左方向の場合を示し、(B)は視線の方向が右方向の場合を示し、(C)は視線の方向が上方向の場合を示し、(D)は視線の方向が下方向の場合を示す。これらの視線の方向に、異なる操作の内容を割り当てる。
It is also possible to use the function of tracking the line of sight provided in the headset 80 and use the direction of the user's line of sight as a feature of biological information other than brain waves.
FIG. 33 is a diagram illustrating an example in which the function of tracking the line of sight is a feature of biological information. (A) shows the case where the direction of the line of sight is to the left, (B) shows the case where the direction of the line of sight is to the right, (C) shows the case where the direction of the line of sight is upward, and (D) shows the case where the direction of the line of sight is upward. Indicates a case where the direction of is downward. The contents of different operations are assigned to the directions of these lines of sight.

前述の実施の形態においては、ユーザの耳部に接触する電極を用いて脳波を含む生体情報を取得する場合について説明したが、脳波を含む生体情報を取得する位置は耳部に限らない。電極は、例えば額その他の頭部の位置に設けてもよい。
例えばヘッドセット80(図32参照)の場合、頭部に装着されるリング型の部材のいずれかの位置に電極を設けてもよい。
In the above-described embodiment, the case where the biological information including the brain wave is acquired by using the electrode in contact with the user's ear is described, but the position where the biological information including the brain wave is acquired is not limited to the ear. The electrodes may be provided, for example, at the position of the forehead or other head.
For example, in the case of the headset 80 (see FIG. 32), the electrodes may be provided at any position of the ring-shaped member mounted on the head.

前述の実施の形態においては、ユーザの耳部を含む頭部に接触する電極を用いて脳波を含む生体情報を取得する場合について説明したが、脳の活動を血流量の変化によって計測してもよい。
図34は、近赤外光を用いて脳の活動に起因する血流量の変化を測定するヘッドセット90の一例を示す図である。ヘッドセット90は、頭部に装着されるリング状の本体を有している。この本体の内側には、頭皮に近赤外光を照射するプローブ91と、反射光を受光する検出プローブ92で構成される測定部が1又は複数配置されている。なお、MPU93は、プローブ91による近赤外光の照射を制御し、検出プローブ92から出力される信号を処理して、ユーザの脳波の特徴を検出する。
In the above-described embodiment, the case of acquiring biological information including brain waves using electrodes that contact the head including the user's ear has been described, but even if the activity of the brain is measured by the change in blood flow rate, it may be measured. Good.
FIG. 34 is a diagram showing an example of a headset 90 that measures changes in blood flow due to brain activity using near-infrared light. The headset 90 has a ring-shaped body that is attached to the head. Inside the main body, one or a plurality of measuring units composed of a probe 91 for irradiating the scalp with near-infrared light and a detection probe 92 for receiving reflected light are arranged. The MPU 93 controls the irradiation of near-infrared light by the probe 91 and processes the signal output from the detection probe 92 to detect the characteristics of the user's brain wave.

この他、脳波を含む生体情報の取得には脳磁計を用いても良い。脳の神経細胞が生じる電気的活動によって生じる磁場の測定には、例えばTMR(=Tunnel Magneto Resistance)センサを用いる。
図35は、脳磁計100の一例を説明する図である。図35に示す脳磁計100は、頭部に装着されるキャップ101に複数のTMRセンサ102を配列した構造を有している。なお、TMRセンサ102の出力は、不図示のMPUに入力され、脳磁図が生成される。この場合、脳磁図における磁場の分布がユーザの脳波の特徴として用いられる。
In addition, a magnetoencephalograph may be used to acquire biological information including electroencephalograms. For example, a TMR (= Tunnel Magneto Resistance) sensor is used to measure the magnetic field generated by the electrical activity generated by nerve cells in the brain.
FIG. 35 is a diagram illustrating an example of the magnetoencephalograph 100. The magnetoencephalograph 100 shown in FIG. 35 has a structure in which a plurality of TMR sensors 102 are arranged on a cap 101 attached to the head. The output of the TMR sensor 102 is input to an MPU (not shown) to generate a magnetoencephalogram. In this case, the distribution of the magnetic field in the magnetoencephalogram is used as a feature of the user's electroencephalogram.

また、前述の実施の形態では、脳波以外の生体情報として、脳波と一緒に測定されるアーチファクトや視線の向きを用いる場合について説明したが、ユーザの表情から取得される特徴を用いても良い。例えば笑顔、瞼を閉じた顔、舌を出した顔等を特徴として取得してもよい。
図36は、ユーザの表情を脳波以外の生体情報の特徴の取得に使用する脳波操作システム1Eの例を示す図である。図36には、図1との対応部分に対応する符号を付して示している。
図36に示す脳波操作システム1Eには、ユーザの顔を撮像するカメラ111が設けられており、カメラ111で撮像された画像が情報端末20Eに送信される。このシステム構成における情報端末20Eは、生体情報取得部222(図4参照)において、ユーザの画像から表情の特徴を取得する。
Further, in the above-described embodiment, the case where the artifact or the direction of the line of sight measured together with the brain wave is used as the biological information other than the brain wave has been described, but the feature acquired from the facial expression of the user may be used. For example, a smile, a face with closed eyelids, a face with a tongue sticking out, etc. may be acquired as features.
FIG. 36 is a diagram showing an example of an electroencephalogram manipulation system 1E that uses a user's facial expression to acquire features of biological information other than electroencephalograms. In FIG. 36, a reference numeral corresponding to a portion corresponding to that in FIG. 1 is added.
The electroencephalogram operation system 1E shown in FIG. 36 is provided with a camera 111 that captures the user's face, and the image captured by the camera 111 is transmitted to the information terminal 20E. The information terminal 20E in this system configuration acquires facial expression features from the user's image in the biological information acquisition unit 222 (see FIG. 4).

なお、前述した各実施の形態におけるMPUは、広義的な意味でのプロセッサを指し、汎用的なプロセッサ(例えばCPU(=Central Processing Unit)等)の他、専用的なプロセッサ(例えばGPU(=Graphical Processing Unit)、ASIC(=Application Specific Integrated Circuit)、FPGA(=Field Programmable Gate Array)、プログラム論理デバイス等)を含む。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
The MPU in each of the above-described embodiments refers to a processor in a broad sense, and is a general-purpose processor (for example, CPU (= Central Processing Unit)) or a dedicated processor (for example, GPU (= Graphical)). Processing Unit), ASIC (= Application Specific Integrated Circuit), FPGA (= Field Programmable Gate Array), program logic device, etc.) are included.
Further, the operation of the processor in each of the above-described embodiments may be executed by one processor alone, or may be executed by a plurality of processors existing at physically separated positions in cooperation with each other. Further, the order of execution of each operation in the processor is not limited to the order described in each of the above-described embodiments, and may be changed individually.

1、1A、1B、1C、1D、1E…脳波操作システム、10、10A…イヤホン、20、20A、20B、20C、20D、20E…情報端末、30、30A…操作対象機器、40、80、90…ヘッドセット、50、50A…機械学習装置、60…イヤリング、70…眼鏡、100…脳磁計、221…脳波情報取得部、222…生体情報取得部、223、223A、223C、223D…操作内容推定部、224…音声情報取得部、225…機械学習部 1, 1A, 1B, 1C, 1D, 1E ... Brain wave operation system, 10, 10A ... Earphones, 20, 20A, 20B, 20C, 20D, 20E ... Information terminals, 30, 30A ... Operation target devices, 40, 80, 90 ... Headset, 50, 50A ... Machine learning device, 60 ... Earrings, 70 ... Glasses, 100 ... Electroencephalogram, 221 ... EEG information acquisition unit, 222 ... Biological information acquisition unit, 223, 223A, 223C, 223D ... Operation content estimation Department, 224 ... Voice information acquisition department, 225 ... Machine learning department

Claims (18)

ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴との組み合わせに応じて機器を操作する指示を決定するプロセッサを有する、情報処理システム。 An information processing system having a processor that determines an instruction to operate a device according to a combination of a feature of a user's brain wave and a feature of biological information different from the feature of the brain wave detected when the brain wave is detected. .. 前記生体情報は、ユーザの頭部に接触する電極で測定される、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the biological information is measured by an electrode that contacts the user's head. 前記生体情報は耳部に接触する電極で測定される、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the biological information is measured by an electrode in contact with the ear portion. 前記プロセッサは、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い間、前記生体情報の特徴に応じて特定される操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。 The processor is an operation specified according to the characteristics of the biometric information while the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation is lower than the first threshold value. The information processing system according to claim 1, wherein the content is used for operating the device. 前記プロセッサは、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項4に記載の情報処理システム。 When the concordance rate between the content of the operation determined according to the characteristics of the biometric information and the result of the actually executed operation is lower than the second threshold value, the processor gives a user's voice instruction to the device. The information processing system according to claim 4, which is used for the operation of. 前記プロセッサは、前記脳波の特徴と、前記生体情報の特徴と、ユーザが実際に行った操作の結果とを教師データとして学習された学習済みモデルを使用し、前記機器を操作する指示を決定する、請求項1に記載の情報処理システム。 The processor uses a trained model learned as teacher data of the characteristics of the brain wave, the characteristics of the biological information, and the result of the operation actually performed by the user, and determines an instruction to operate the device. , The information processing system according to claim 1. 前記学習済みモデルは、ユーザ別に生成される、請求項6に記載の情報処理システム。 The information processing system according to claim 6, wherein the trained model is generated for each user. ユーザが実際に行った前記操作の結果には、ユーザの音声による指示が使用される、請求項6に記載の情報処理システム。 The information processing system according to claim 6, wherein a voice instruction of the user is used as a result of the operation actually performed by the user. 前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い場合、又は、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項6に記載の情報処理システム。 When the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation is lower than the first threshold value, or the content of the operation determined according to the characteristics of the biological information and the actual operation The information processing system according to claim 6, wherein when the concordance rate with the result of the executed operation is lower than the second threshold value, the processor uses the user's voice instruction to operate the device. 前記生体情報の特徴は、ユーザによる意図的な身体の動きに由来する、請求項1〜9のうちいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 9, wherein the biometric information is characterized by intentional movement of the body by a user. 前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。 When the concordance rate between the content of the operation determined according to the characteristics of the brain wave and the result of the actually executed operation exceeds the first threshold value, the processor determines the content of the operation determined according to the characteristics of the brain wave. The information processing system according to claim 1, which is used for operating the device. 前記脳波の特徴と前記生体情報の特徴が共起する確率が予め定めた第3の閾値を超えた状態で、当該生体情報に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第4の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。 In a state where the probability that the characteristics of the brain wave and the characteristics of the biometric information coexist exceeds a predetermined third threshold value, the content of the operation determined according to the biometric information and the result of the actually executed operation The information processing system according to claim 1, wherein when the match rate exceeds the fourth threshold value, the processor uses the content of the operation determined according to the characteristics of the brain wave for the operation of the device. 前記脳波の特徴は、非接触に測定される、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the feature of the brain wave is measured in a non-contact manner. 前記生体情報の特徴は、ユーザの表情に関する情報である、請求項13に記載の情報処理システム。 The information processing system according to claim 13, wherein the biometric information is information about a user's facial expression. 前記生体情報の特徴は、ユーザの視線の方向に関する情報である、請求項13に記載の情報処理システム。 The information processing system according to claim 13, wherein the biometric information is information about the direction of the user's line of sight. 請求項1に記載の情報処理システムは、ユーザが装着して使用するデバイスである。 The information processing system according to claim 1 is a device worn and used by a user. 請求項1に記載の情報処理システムは、ユーザが装着するデバイスと通信可能に接続されたコンピュータである。 The information processing system according to claim 1 is a computer communicatively connected to a device worn by a user. コンピュータに、
ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴を検出する機能と、
前記脳波の特徴と前記生体情報の特徴の組み合わせに応じて操作を決定する機能と
を実行させるプログラム。
On the computer
The characteristics of the user's brain wave, the function to detect the characteristics of biological information different from the brain wave, which is detected when the brain wave is detected, and
A program that executes a function of determining an operation according to a combination of the characteristics of an electroencephalogram and the characteristics of biological information.
JP2019219153A 2019-12-03 2019-12-03 Information processing system, method, and program Active JP7320261B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019219153A JP7320261B2 (en) 2019-12-03 2019-12-03 Information processing system, method, and program
US16/891,596 US11402907B2 (en) 2019-12-03 2020-06-03 Information processing system and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219153A JP7320261B2 (en) 2019-12-03 2019-12-03 Information processing system, method, and program

Publications (2)

Publication Number Publication Date
JP2021089544A true JP2021089544A (en) 2021-06-10
JP7320261B2 JP7320261B2 (en) 2023-08-03

Family

ID=76091006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219153A Active JP7320261B2 (en) 2019-12-03 2019-12-03 Information processing system, method, and program

Country Status (2)

Country Link
US (1) US11402907B2 (en)
JP (1) JP7320261B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018167A (en) * 2003-06-23 2005-01-20 Softopia Japan Foundation Vital reaction use appliance controller and control method for appliance
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2011136158A (en) * 2009-12-01 2011-07-14 Panasonic Corp Field detection type electroencephalograph
JP2017021737A (en) * 2015-07-15 2017-01-26 Kddi株式会社 Program, terminal and system for giving emotional identifier to application by using myoelectrical signal
US20180107274A1 (en) * 2016-01-21 2018-04-19 Boe Technology Group Co., Ltd. Display control device, control method thereof, and display control system
WO2018179346A1 (en) * 2017-03-31 2018-10-04 本田技研工業株式会社 Manipulation system, server, control method in manipulation system, and program
JP2019082776A (en) * 2017-10-30 2019-05-30 富士通株式会社 Operation support method, operation support program, and head-mounted display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101314570B1 (en) 2011-10-12 2013-10-07 서울대학교산학협력단 Brain-Machine Interface(BMI) Devices and Methods For Precise Control
US9477993B2 (en) * 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
WO2015122846A1 (en) * 2014-02-14 2015-08-20 National University Of Singapore System, device and methods for brainwave-based technologies
WO2016196784A1 (en) * 2015-06-02 2016-12-08 Battelle Memorial Institute Non-invasive motor impairment rehabilitation system
US11717686B2 (en) * 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018167A (en) * 2003-06-23 2005-01-20 Softopia Japan Foundation Vital reaction use appliance controller and control method for appliance
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2011136158A (en) * 2009-12-01 2011-07-14 Panasonic Corp Field detection type electroencephalograph
JP2017021737A (en) * 2015-07-15 2017-01-26 Kddi株式会社 Program, terminal and system for giving emotional identifier to application by using myoelectrical signal
US20180107274A1 (en) * 2016-01-21 2018-04-19 Boe Technology Group Co., Ltd. Display control device, control method thereof, and display control system
WO2018179346A1 (en) * 2017-03-31 2018-10-04 本田技研工業株式会社 Manipulation system, server, control method in manipulation system, and program
JP2019082776A (en) * 2017-10-30 2019-05-30 富士通株式会社 Operation support method, operation support program, and head-mounted display device

Also Published As

Publication number Publication date
JP7320261B2 (en) 2023-08-03
US20210165489A1 (en) 2021-06-03
US11402907B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
RU2743026C2 (en) Cardiacity monitoring system using electric potential sensors
US11856355B2 (en) Information processing system and non-transitory computer readable medium storing program
KR20180055743A (en) Electronic apparatus and control method thereof
US11297448B2 (en) Portable system for gathering and processing data from EEG, EOG, and/or imaging sensors
US20210240433A1 (en) Information processing apparatus and non-transitory computer readable medium
US20220361787A1 (en) Ear-worn device based measurement of reaction or reflex speed
KR20210065536A (en) Depression self-diagnosis system using brainwave signal
KR20160108967A (en) Device and method for bio-signal measurement
US20220394396A1 (en) Control of parameters of hearing instrument based on ear canal deformation and concha emg signals
Yu et al. An inflatable and wearable wireless system for making 32-channel electroencephalogram measurements
JP2022059140A (en) Information processing device and program
KR101791038B1 (en) Apparatus and method for measuring electroencephalograms using ear-wearable electroencephalography equipment
CN115334969A (en) Heart monitoring system with wireless earplugs
JP2022059147A (en) Biological information measurement system
JP7320261B2 (en) Information processing system, method, and program
WO2019225244A1 (en) Biological signal acquisition electrode, biological signal acquisition electrode pair, and biological signal measurement system
US20230390608A1 (en) Systems and methods including ear-worn devices for vestibular rehabilitation exercises
Chiu et al. Mobile switch control using auditory and haptic steady state response in Ear-EEG
Ramesh et al. Brain computer interface based assistive device
TWM530129U (en) Wearable electrocardiograph
Ramesh et al. Brain Computer Interface device for speech impediments
JP2021124922A (en) Information processing device and program
US20240000315A1 (en) Passive safety monitoring with ear-wearable devices
US20220157434A1 (en) Ear-wearable device systems and methods for monitoring emotional state
Fu et al. Eye-gaze Estimation with HEOG and Neck EMG using Deep Neural Networks

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210318

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210416

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230714

R150 Certificate of patent or registration of utility model

Ref document number: 7320261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150