JP4936479B2 - 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP4936479B2
JP4936479B2 JP2009076919A JP2009076919A JP4936479B2 JP 4936479 B2 JP4936479 B2 JP 4936479B2 JP 2009076919 A JP2009076919 A JP 2009076919A JP 2009076919 A JP2009076919 A JP 2009076919A JP 4936479 B2 JP4936479 B2 JP 4936479B2
Authority
JP
Japan
Prior art keywords
user
biological signal
movement
information
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009076919A
Other languages
English (en)
Other versions
JP2010231399A (ja
Inventor
律克 古田
誠 吉澤
智之 山家
典大 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Nintendo Co Ltd
Original Assignee
Tohoku University NUC
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nintendo Co Ltd filed Critical Tohoku University NUC
Priority to JP2009076919A priority Critical patent/JP4936479B2/ja
Priority to US12/559,667 priority patent/US9623330B2/en
Publication of JP2010231399A publication Critical patent/JP2010231399A/ja
Application granted granted Critical
Publication of JP4936479B2 publication Critical patent/JP4936479B2/ja
Priority to US13/861,599 priority patent/US9327190B2/en
Priority to US14/844,781 priority patent/US10709978B2/en
Priority to US16/890,874 priority patent/US20200289927A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • A61B5/4035Evaluating the autonomic nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/683Means for maintaining contact with the body
    • A61B5/6838Clamps or clips
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6897Computer input devices, e.g. mice or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/22Arrangements of medical sensors with cables or leads; Connectors or couplings specifically adapted for medical sensors
    • A61B2562/221Arrangements of sensors with cables or leads, e.g. cable harnesses
    • A61B2562/222Electrical cables or leads therefor, e.g. coaxial cables or ribbon cables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3546Range
    • A61M2205/3561Range local, e.g. within room or hospital
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3576Communication with non implanted data transmission devices, e.g. using external transmitter or receiver
    • A61M2205/3592Communication with non implanted data transmission devices, e.g. using external transmitter or receiver using telemetric means, e.g. radio or optical transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/52General characteristics of the apparatus with microprocessors or computers with memories providing a history of measured variating parameters of apparatus or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2209/00Ancillary equipment
    • A61M2209/01Remote controllers for specific apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • A61M2230/06Heartbeat rate only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/40Respiratory characteristics
    • A61M2230/42Rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/63Motion, e.g. physical activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Neurology (AREA)
  • Human Computer Interaction (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Pain & Pain Management (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Pulmonology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理プログラム情報処理装置、情報処理システム、および情報処理方法に関し、より特定的には、利用者の生体信号に応じて所定の提示を行う情報処理プログラム情報処理装置、情報処理システム、および情報処理方法に関する。
非特許文献1では、ストレスマネジメントやリラクゼーションを目的としたバイオフィードバックシステムが提案されている。上記システムは、計測したユーザの心拍情報に基づいて、リアルタイムにリラクゼーションレベルを推定して提示している。そして、上記システムは、ユーザのリラクゼーション効果を高めるようなはたらきかけを行うことによって、ユーザ個人に適応したバイオフィードバックを行う機能を有している。
長谷川貴之、横山清子、「コンピュータと心拍情報との対話機能によるリラクゼーションバイオフィードバックシステム」、電子情報通信学会技術研究報告.MBE、MEとバイオサイバネティックス、社団法人電子情報通信学会、2003年11月20日、Vol.103、No.470、p.35−38
上記非特許文献1に記載されたバイオフィードバックシステムでは、利用者の心拍情報等に基づいて算出されるリラクゼーションレベルという値を、キャラクタの動作や箱庭の環境に反映させて表現している。これによって、上記バイオフィードバックシステムは、ユーザに対してリラクゼーション効果を高める語りかけを行っている。しかしながら、これらの表現は、ユーザに対して単にリラクゼーションレベルという値を視覚的に提示しているだけであり、結果的にユーザが現状のリラクゼーションレベルを認識できるだけとなる。
それ故に、本発明の目的は、ユーザの現状の生体信号およびユーザの現状の動きや姿勢を用いて所定の提示を行うことによって、ユーザの状態変化を促すことができる情報処理プログラムおよび情報処理装置を提供することである。
上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。
第1の発明は、ユーザから取得した生体信号(Dc)に応じた情報を提示する情報処理装置(5)のコンピュータ(10)で実行される情報処理プログラムである。情報処理プログラムは、生体信号取得手段(ステップ42、49、82、および84を実行するCPU10;以下、単にステップ番号のみ記載する)、動き・姿勢情報取得手段(S84)、および提示手段(S44、S46、S51、S52、S86、S90、S92、S104、S107、S111)として、コンピュータを機能させる。生体信号取得手段は、ユーザから生体信号を取得する。動き・姿勢情報取得手段は、ユーザの動きまたは姿勢の情報を検出する検出手段(701)から、生体信号取得手段が取得した生体信号と関連させて当該情報を取得する。提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて、所定の提示を行う。
第2の発明は、上記第1の発明において、動き判定手段(S85)として、さらにコンピュータを機能させる。動き判定手段は、動き・姿勢情報取得手段が取得した情報に基づいて、ユーザが操作する入力装置(70)の動きを判定する。提示手段は、生体信号取得手段が取得した生体信号および動き判定手段が判定した入力装置の動きの両方に基づいて、提示を行う。
第3の発明は、上記第1の発明において、指示手段として、さらにコンピュータを機能させる。指示手段は、ユーザに所定の動きまたは姿勢をさせるための指示を行う。
第4の発明は、上記第3の発明において、提示手段は、指示手段による指示がされているときに取得された生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて、提示を行う。
第5の発明は、上記第3の発明において、判定手段として、さらにコンピュータを機能させる。判定手段は、動き・姿勢情報取得手段により取得された情報に基づいて、ユーザが指示手段によって指示された動きまたは姿勢となっているか否かを判定する。提示手段は、ユーザが指示に応じた動きまたは姿勢となっていると判定手段が判定している間または判定した後に、生体信号取得手段が取得した生体信号に基づいた提示を行う。
第6の発明は、上記第3の発明において、指示手段は、所定の生体信号が出力される動きまたは姿勢をユーザに指示する。
第7の発明は、上記第2の発明において、提示手段は、動き判定手段が判定可能な入力装置の動きに沿った、当該入力装置を動かす動作を指示する提示(天井T、地面B)を行う。
第8の発明は、上記第1の発明において、提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて、ユーザの所定の動きまたは姿勢を指示する提示を行う。
第9の発明は、上記第8の発明において、提示手段は、生体信号取得手段が取得した生体信号に基づいて、当該生体信号に変化を与える動作または姿勢を指示する提示を行う。
第10の発明は、上記第1の発明において、生体信号取得手段は、ユーザの脈拍または心拍に関する信号を生体信号として取得する。
第11の発明は、上記第1の発明において、生体信号取得手段は、ユーザの脈波、心拍数、交感神経活動度、副交感神経活動度、心拍変動係数、心拍間隔、呼吸周期、脈波振幅から成る群から選ばれる少なくとも1つを生体信号として取得する。
第12の発明は、上記第11の発明において、生体信号取得手段は、ユーザの脈波振幅を少なくとも取得する。提示手段は、ユーザの脈波振幅の変化を用いて当該ユーザの苦しさを判断し、当該判断結果に基づいて動作を指示する提示を行う。
第13の発明は、上記第2の発明において、入力装置は、加速度センサ(701)を備える。動き判定手段は、加速度センサから出力される加速度データ(Da)が示す加速度を用いて、入力装置の動きを判定する。
第14の発明は、上記第13の発明において、動き判定手段は、加速度センサから出力される加速度データが示す加速度を、入力装置に生じる重力の方向とし、当該重力の方向を基準とした入力装置の傾きに基づいて入力装置の動きを判定する。
第15の発明は、上記第2の発明において、入力装置は、ジャイロセンサを備える。動き判定手段は、ジャイロセンサから出力される角速度データが示す角速度を用いて、入力装置の動きを判定する。
第16の発明は、上記第1の発明において、提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて生成した画像および文字の少なくとも一方を表示装置(2)に表示することによって、提示を行う。
第17の発明は、上記第16の発明において、提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて生成したオブジェクト(PC)を表示装置に表示することによって、提示を行う。
第18の発明は、上記第1の発明において、提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて、表示装置に表示された所定のオブジェクトの動作を制御することによって、提示を行う。
第19の発明は、上記第18の発明において、生体信号取得手段が取得した生体信号に基づいてオブジェクトが仮想世界において第1の動作をする提示を行い、動き・姿勢情報取得手段が取得した情報に基づいてオブジェクトが当該仮想世界において当該第1の動作とは異なる第2の動作をする提示を行う。
第20の発明は、上記第19の発明において、提示手段は、第1の動作および第2の動作の一方として、仮想世界においてオブジェクトの少なくとも一部(PC2)を移動(昇降)させ、第1の動作および第2の動作の他方として、仮想世界においてオブジェクトの姿勢を変化させる。
第21の発明は、上記第12の発明において、提示手段は、第1の動作および第2の動作の一方として、仮想世界においてオブジェクトの少なくとも一部を所定の第1方向へ移動させ、第1の動作および第2の動作の他方として、仮想世界においてオブジェクトの少なくとも一部を所定の第2方向へ移動させる。
第22の発明は、上記第17〜第21の発明の何れか1つにおいて、オブジェクト動き判定手段として、さらにコンピュータを機能させる。オブジェクト動き判定手段は、仮想世界におけるオブジェクトの動きを判定する。
第23の発明は、上記第22の発明において、指示手段として、さらにコンピュータを機能させる。指示手段は、オブジェクトの動きを指定するための地形オブジェクトを仮想世界に登場させることによって、ユーザに所定の動きまたは姿勢をさせるための指示を行う。オブジェクト動き判定手段は、オブジェクトと地形オブジェクトとの接触判定を行う。
第24の発明は、上記第23の発明において、指示手段は、生体信号取得手段により取得された生体信号に応じて地形オブジェクトを変化させる。
第25の発明は、上記第19の発明において、提示手段は、第1の動作として、生体信号取得手段が取得したユーザの呼吸に関する生体信号に応じて、オブジェクトの少なくとも一部を所定の方向へ移動させる。
第26の発明は、上記第25の発明において、提示手段は、生体信号取得手段が取得した生体信号から得られるユーザの呼吸周期に基づいて起伏して、所定の方向へのオブジェクトの移動を限定する仮想世界の障害物(天井T)をさらに表示装置に表示することによって、提示を行う。評価手段(S101、S102)として、さらにコンピュータを機能させる。評価手段は、仮想世界において、オブジェクトと起伏する障害物とが接触または重なる場合、マイナスの評価を行う。
第27の発明は、上記第19の発明において、生体信号取得手段は、ユーザの脈波振幅を少なくとも取得する。提示手段は、生体信号取得手段が取得したユーザの脈波振幅の変化を用いて当該ユーザの苦しさを判定し、ユーザが苦しいと判断される場合、オブジェクトの表示態様を変化させることによって、提示を行う。
第28の発明は、上記第27の発明において、提示手段は、第2の動作として、動き・姿勢情報取得手段が取得した情報に基づいて、仮想世界においてオブジェクトの姿勢を傾けて変化させる。情報処理プログラムは、評価手段として、さらにコンピュータを機能させる。評価手段は、仮想世界において、オブジェクトが傾く動作をその傾斜角度によって限定する当該仮想世界の障害物(地面B)とオブジェクトとが接触または重なる場合、マイナスの評価を行う。評価手段は、時間経過と共に障害物の傾斜角度を漸増的に変化させ、ユーザが苦しいと提示手段が判断した場合、障害物の傾斜角度を一定にする。
第29の発明は、上記第1の発明において、提示手段は、生体信号取得手段が取得した生体信号およびおよび動き・姿勢情報取得手段が取得した情報の両方に基づいた音声を出力することによって、提示を行う。
第30の発明は、ユーザから取得した生体信号に応じた情報を提示する情報処理装置である。情報処理装置は、生体信号取得手段、動き・姿勢情報取得手段、および提示手段を備える。生体信号取得手段は、ユーザから生体信号を取得する。動き・姿勢情報取得手段は、ユーザの動きまたは姿勢の情報を検出する検出手段から、生体信号取得手段が取得した生体信号と関連させて当該情報を取得する。提示手段は、生体信号取得手段が取得した生体信号および動き・姿勢情報取得手段が取得した情報の両方に基づいて、所定の提示を行う。
上記第1の発明によれば、ユーザの現状の生体信号だけでなく、ユーザの現状の動きや姿勢も用いて所定の提示が行われるため、ユーザは自分自身の身体の状態がより理解できると共に、ユーザの動きや姿勢を組み合わせることによってユーザの身体状態の変化を促すことができる。
上記第2の発明によれば、ユーザが入力装置を動かすことによって、ユーザの現状の動きや姿勢を検出することができる。
上記第3の発明によれば、ユーザに適切な動きをさせたり適切な姿勢をとらせたりすることができる。
上記第4の発明によれば、ユーザが指示された動きをしたり指示された姿勢をとったりしているときに得られる情報に基づいた提示が可能となる。
上記第5の発明によれば、ユーザが指示された動きをしたり指示された姿勢をとったりしたことによる、生体信号の変化を提示することができる。
上記第6の発明によれば、適切な生体信号が得られるような動作や姿勢をユーザに指示することができる。
上記第7の発明によれば、入力装置を動かすようにユーザが促されるため、当該入力装置を動かすユーザの動作によってユーザの身体状態の変化を促すことができる。
上記第8の発明によれば、ユーザ自身の生体信号に基づいた動きや姿勢をユーザに促すことができるので、ユーザの動きや姿勢によって当該生体信号に関わるユーザの身体状態の変化を促すことができる。
上記第9の発明によれば、ユーザ自身の生体信号が変化する動きや姿勢をユーザに促すことができる。
上記第10の発明によれば、ユーザの脈拍や心拍に関する提示を行うことができる。
上記第11の発明によれば、脈波、心拍数、交感神経活動度、副交感神経活動度、心拍変動係数、心拍間隔、呼吸周期、または脈波振幅を用いた提示をユーザに対して行うことができる。
上記第12の発明によれば、ユーザの苦しさが判断されるため、当該判断結果を用いてユーザにとって適度な動作や姿勢を指示することができる。
上記第13の発明によれば、入力装置に生じる加速度を用いて、当該入力装置の動きを判定することができる。
上記第14の発明によれば、入力装置に生じる重力方向を基準とした当該入力装置の傾きを判定することができる。
上記第15の発明によれば、入力装置の回転を用いて、当該入力装置の動きを判定することができる。
上記第16の発明によれば、ユーザの生体信号および動きや姿勢に基づいた画像または文字を提示することによって、ユーザは自分自身の身体の状態がより理解できると共に、ユーザの動きや姿勢を組み合わせることによってユーザの身体状態の変化を促すことができる。
上記第17および第18の発明によれば、仮想世界において、ユーザの生体信号および動きや姿勢に基づいたオブジェクトを提示することによって、ユーザは自分自身の身体の状態がより理解できると共に、ユーザの動きや姿勢を組み合わせることによってユーザの身体状態の変化を促すことができる。
上記第19の発明によれば、仮想世界のオブジェクトが、ユーザの生体信号および動きや姿勢に基づいてそれぞれ異なる動作を行うため、ユーザは、自分自身の生体信号に基づいた提示と動きや姿勢に基づいた提示とを区別して理解することができ、自分自身の動きや姿勢によってオブジェクトを動作させながら自分自身の生体信号によってもオブジェクトを動作させることができる。
上記第20の発明によれば、自分自身の動きや姿勢と自分自身の生体信号とによって仮想空間のオブジェクトを傾けたり、オブジェクトの少なくとも一部を移動させたりすることができる。
上記第21の発明によれば、仮想世界のオブジェクトが、ユーザの生体信号および動きや姿勢に基づいてそれぞれ異なる方向へ移動するため、ユーザは、自分自身の生体信号に基づいた提示と動きや姿勢に基づいた提示とを区別して理解することができ、自分自身の動きや姿勢によってオブジェクトを動作させながら自分自身の生体信号によってもオブジェクトを動作させることができる。
上記第22の発明によれば、オブジェクトの動きを用いて、ユーザの生体信号やユーザの動きや姿勢を評価することができる。
上記第23の発明によれば、地形オブジェクトに応じた操作が要求されるため、当該操作に合った生体信号を生じさせたり、当該操作に合った動きをしたり、当該操作に合った姿勢をとったりすることによって、ユーザの身体状態の変化を促すことができる。
上記第24の発明によれば、ユーザの生体信号に基づいて、適度な操作を指示することができる。
上記第25の発明によれば、ユーザ自身の呼吸によって、オブジェクトの少なくとも一部を所定の方向に移動させることができる。
上記第26の発明によれば、ユーザは、障害物を避けるようにオブジェクトを操作しなければならないため、障害物を避けるような呼吸が要求される。一方、障害物の形状が自分自身の呼吸周期に基づいて決定される。したがって、自分自身の呼吸周期より遅くなるように障害物の形状を決定することによって、結果的にユーザの呼吸周期を徐々に遅くするように促すことができる。一方、自分自身の呼吸周期より速くなるように障害物の形状を決定することによって、結果的にユーザの呼吸周期を徐々に速くするように促すことができる。
上記第27の発明によれば、ユーザの苦しさをオブジェクトの表示態様で提示することができる。
上記第28の発明によれば、ユーザは、障害物を避けるようにオブジェクトを操作しなければならないため、障害物を避けるような動きや姿勢が要求される。そして、ユーザが障害物の傾きに応じた動作を行い、ユーザにとってその動作が苦しくなると障害物の傾きが一定となるため、ユーザの苦しさに応じた制御が可能となる。
上記第29の発明によれば、ユーザの生体信号および動きや姿勢に基づいた音声を提示することによって、ユーザは自分自身の身体の状態がより理解できると共に、ユーザの動きや姿勢を組み合わせることによってユーザの身体状態の変化を促すことができる。
本発明の情報処理装置によれば、上述した情報処理プログラムと同様の効果を得ることができる。
本発明の一実施形態に係るゲームシステム1の一例を示す外観図 図1のゲーム装置本体5の一例を示すブロック図 図1のコアユニット70の上面後方から見た一例を示す斜視図 図3のコアユニット70を下面前方から見た一例を示す斜視図 図3のコアユニット70の上筐体を外した状態の一例を示すを示す斜視図 図4のコアユニット70の下筐体を外した状態の一例を示すを示す斜視図 図3のコアユニット70の構成の一例を示すを示すブロック図 バイタルセンサ76の構成の一例を示すブロック図 バイタルセンサ76から出力される生体情報の一例である脈波情報の例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 モニタ2に表示される一連の画像の一例を示す図 ゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図 ゲーム装置本体5において実行される情報処理の一例を示すフローチャート 図20のステップ48のストレッチゲーム処理における前半の動作の一例を示すフローチャート 図20のステップ48のストレッチゲーム処理における後半の動作の一例を示すフローチャート
図1を参照して、本発明の一実施形態に係る情報処理プログラムを実行する装置について説明する。以下、説明を具体的にするために、当該装置の一例である据置型のゲーム装置本体5を含むゲームシステムを用いて説明する。なお、図1は据置型のゲーム装置3を含むゲームシステム1の一例を示す外観図であり、図2はゲーム装置本体5の一例を示すブロック図である。以下、当該ゲームシステム1について説明する。
図1において、ゲームシステム1は、表示手段の一例の家庭用テレビジョン受像機(以下、モニタと記載する)2と、当該モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、ゲーム装置3から出力された音声信号を音声出力するためのスピーカ2aを備える。また、ゲーム装置3は、本発明の情報処理プログラムの一例であるゲームプログラムを記録した光ディスク4と、当該光ディスク4のゲームプログラムを実行してゲーム画面をモニタ2に表示出力させるためのコンピュータを搭載したゲーム装置本体5と、ゲーム画面に表示されたキャラクタ等を操作するゲームに必要な操作情報をゲーム装置本体5に与えるためのコントローラ7とを備えている。
また、ゲーム装置本体5は、無線コントローラモジュール19(図2参照)を内蔵する。無線コントローラモジュール19は、コントローラ7から無線送信されるデータを受信し、ゲーム装置本体5からコントローラ7へデータを送信して、コントローラ7とゲーム装置本体5とを無線通信によって接続する。さらに、ゲーム装置本体5には、当該ゲーム装置本体5に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。
また、ゲーム装置本体5には、セーブデータ等のデータを固定的に記憶するバックアップメモリとして機能するフラッシュメモリ17(図2参照)が搭載される。ゲーム装置本体5は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2に表示する。また、ゲームプログラム等は、光ディスク4に限らず、フラッシュメモリ17に予め記録されたものを実行するようにしてもよい。さらに、ゲーム装置本体5は、フラッシュメモリ17に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のユーザは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。
コントローラ7は、無線コントローラモジュール19を内蔵するゲーム装置本体5へ、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて操作情報および生体情報等の送信データを無線送信する。コントローラ7は、コアユニット70およびバイタルセンサ76を備えており、コアユニット70およびバイタルセンサ76が屈曲自在な接続ケーブル79を介して互いに接続されて構成されている。コアユニット70は、主にモニタ2の表示画面に表示されるオブジェクト等を操作するための操作手段である。バイタルセンサ76は、ユーザの身体(例えば、指)に装着されてユーザの生体信号を取得し、接続ケーブル79を介してコアユニット70へ生体情報を送る。コアユニット70は、片手で把持可能な程度の大きさのハウジングと、当該ハウジングの表面に露出して設けられた複数個の操作ボタン(十字キーやスティック等を含む)とが設けられている。また、後述により明らかとなるが、コアユニット70は、当該コアユニット70から見た画像を撮像する撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって例えば赤外光を出力する。また、コントローラ7(例えば、コアユニット70)は、ゲーム装置本体5の無線コントローラモジュール19から無線送信された送信データを通信部75で受信して、当該送信データに応じた音や振動を発生させることもできる。
なお、本実施例では、コアユニット70とバイタルセンサ76とを屈曲自在な接続ケーブル79で接続したが、バイタルセンサ76に無線ユニットを搭載することで、接続ケーブル79をなくすこともできる。例えば、無線ユニットとしてBluetooth(登録商標)ユニットをバイタルセンサ76に搭載することで、バイタルセンサ76からコアユニット70やゲーム装置本体5へ生体情報を送信することが可能になる。また、コアユニット70にバイタルセンサ76を固定して設けることによって、コアユニット70とバイタルセンサ76とを一体構成してもかまわない。この場合、ユーザは、コアユニット70と一体でバイタルセンサ76を扱うことができる。
次に、図2を参照して、ゲーム装置本体5の内部構成について説明する。図2は、ゲーム装置本体5の構成を示すブロック図である。ゲーム装置本体5は、CPU(Central Processing Unit)10、システムLSI(Large Scale Integration)11、外部メインメモリ12、ROM/RTC(Read Only Memory/Real Time Clock)13、ディスクドライブ14、およびAV−IC(Audio Video−Integrated Circuit)15等を有する。
CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムLSI11の内部構成については、後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置本体5の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ35または外部メインメモリ12に読み出したデータを書き込む。
また、システムLSI11には、入出力プロセッサ31、GPU(Graphics Processor Unit)32、DSP(Digital Signal Processor)33、VRAM(Video RAM)34、および内部メインメモリ35が設けられる。図示は省略するが、これらの構成要素31〜35は、内部バスによって互いに接続される。
GPU32は、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM34は、GPU32がグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU32は、VRAM34に記憶されたデータを用いて画像データを作成する。
DSP33は、オーディオプロセッサとして機能し、内部メインメモリ35や外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。
上述のように生成された画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、AVコネクタ16を介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、画像がモニタ2に表示されるとともに音がスピーカ2aから出力される。
入出力プロセッサ(I/Oプロセッサ)31は、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ31は、フラッシュメモリ17、無線通信モジュール18、無線コントローラモジュール19、拡張コネクタ20、および外部メモリカード用コネクタ21に接続される。無線通信モジュール18にはアンテナ22が接続され、無線コントローラモジュール19にはアンテナ23が接続される。
入出力プロセッサ31は、無線通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される他のゲーム装置や各種サーバと通信することができる。入出力プロセッサ31は、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、無線通信モジュール18およびアンテナ22を介して当該データをネットワークに送信する。また、入出力プロセッサ31は、他のゲーム装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22、および無線通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10は、ゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置本体5と他のゲーム装置や各種サーバとの間で送受信されるデータの他、ゲーム装置本体5を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。
また、入出力プロセッサ31は、アンテナ23および無線コントローラモジュール19を介して、コントローラ7から送信される操作データ等を受信し、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。なお、内部メインメモリ35には、外部メインメモリ12と同様に、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりしてもよく、CPU10のワーク領域やバッファ領域として用いられてもかまわない。
さらに、入出力プロセッサ31には、拡張コネクタ20および外部メモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによって無線通信モジュール18に替えてネットワークとの通信を行ったりすることができる。外部メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ31は、拡張コネクタ20や外部メモリカード用コネクタ21を介して、外部記憶媒体にアクセスし、データを保存したり、データを読み出したりすることができる。
また、ゲーム装置本体5(例えば、前部主面)には、当該ゲーム装置本体5の電源ボタン24、ゲーム処理のリセットボタン25、光ディスク4を脱着する投入口、およびゲーム装置本体5の投入口から光ディスク4を取り出すイジェクトボタン26等が設けられている。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、ゲーム装置本体5の各構成要素に対して、図示しないACアダプタを介して電力が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置本体5の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。
図3および図4を参照して、コアユニット70について説明する。なお、図3は、コアユニット70の上面後方から見た一例を示す斜視図である。図4は、コアユニット70を下面前方から見た一例を示す斜視図である。
図3および図4において、コアユニット70は、例えばプラスチック成型によって形成されたハウジング71を有しており、当該ハウジング71に複数の操作部72が設けられている。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。
ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。ユーザが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばユーザが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、複数の選択肢から選択指示したりすることができる。
なお、十字キー72aは、上述したユーザの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、十字方向に4つのプッシュスイッチを配設し、ユーザによって押下されたプッシュスイッチに応じて操作信号を出力する操作部を設けてもかまわない。さらに、上記4つのプッシュスイッチとは別に、上記十字方向が交わる位置にセンタスイッチを配設し、4つのプッシュスイッチとセンタスイッチとを複合した操作部を設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティック(いわゆる、ジョイスティック)を倒すことによって、傾倒方向に応じて操作信号を出力する操作部を十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、十字キー72aの代わりに設けてもかまわない。
ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、ユーザがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72a〜72gは、ゲーム装置本体5が実行するゲームプログラムに応じてそれぞれの操作機能が割り当てられる。なお、図3に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、ユーザが不意に誤って押下することのないタイプのボタンである。
また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置本体5の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、ユーザが不意に誤って押下することのないタイプのボタンである。
また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コアユニット70は、他のコントローラと区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コアユニット70に現在設定されている上記コントローラ種別をユーザに通知するために用いられる。具体的には、無線コントローラモジュール19からコアユニット70へ、複数のLED702のうち、上記コントローラ種別に対応するLEDを点灯させるための信号が送信される。
また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図5に示すスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。
一方、ハウジング71下面には、凹部が形成されている。ハウジング71下面の凹部は、ユーザがコアユニット70の前面をマーカ8Lおよび8Rに向けて片手で把持したときに、当該ユーザの人差し指や中指が位置するような位置に形成される。そして、上記凹部の傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部である。
また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コアユニット70が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコアユニット70の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング71の後面には、コネクタ73が設けられている。コネクタ73は、例えばエッジコネクタであり、例えば接続ケーブルと嵌合して接続するために利用される。
ここで、以下の説明を具体的にするために、コアユニット70に対して設定する座標系について定義する。図3および図4に示すように、互いに直交するXYZ軸をコアユニット70に対して定義する。具体的には、コアユニット70の前後方向となるハウジング71の長手方向をZ軸とし、コアユニット70の前面(撮像情報演算部74が設けられている面)方向をZ軸正方向とする。また、コアユニット70の上下方向をY軸とし、ハウジング71の上面(操作ボタン72aが設けられた面)方向をY軸正方向とする。さらに、コアユニット70の左右方向をX軸とし、ハウジング71の右側面(図3では表されている側面)方向をX軸正方向とする。
次に、図5および図6を参照して、コアユニット70の内部構造について説明する。なお、図5は、コアユニット70の上筐体(ハウジング71の一部)を外した状態を後面側から見た一例を示す斜視図である。図6は、コアユニット70の下筐体(ハウジング71の一部)を外した状態を前面側から見た一例を示す斜視図である。ここで、図6に示す基板700は、図5に示す基板700の裏面から見た斜視図となっている。
図5において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図6、図7参照)に接続される。また、無線モジュール753(図7参照)およびアンテナ754によって、コアユニット70がワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。また、加速度センサ701は、操作ボタン72dの左側の基板700上(つまり、基板700の中央部ではなく周辺部)に設けられる。したがって、加速度センサ701は、コアユニット70の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分が含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコアユニット70の動きを良好な感度でゲーム装置本体5等が判定することができる。
一方、図6において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コアユニット70の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置本体5から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。
そして、基板700の下主面上には、バイブレータ704が取り付けられる。バイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704は、基板700等に形成された配線によってマイコン751と接続され、ゲーム装置本体5から送信された振動データに応じてその作動をオン/オフする。バイブレータ704が作動することによってコアユニット70に振動が発生するので、それを把持しているユーザの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。ここで、バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、ユーザが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。
次に、図7を参照して、コントローラ7の内部構成について説明する。なお、図7は、コントローラ7の構成の一例を示すを示すブロック図である。
図7において、コアユニット70は、上述した操作部72、撮像情報演算部74、加速度センサ701、バイブレータ704、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。また、バイタルセンサ76は、接続ケーブル79とコネクタ791および73とを介して、マイコン751と接続される。
撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コアユニット70の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コアユニット70のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。
コアユニット70は、3軸(X、Y、Z軸)の加速度センサ701を備えていることが好ましい。この3軸の加速度センサ701は、3方向、すなわち、上下方向(図3に示すY軸)、左右方向(図3に示すX軸)、および前後方向(図3に示すZ軸)で直線加速度を検知する。また、少なくとも1軸方向(例えば、Z軸方向)に沿った直線加速度を検知する加速度検出手段を使用してもよい。例えば、これらの加速度センサ701は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であることが好ましい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて、加速度センサ701が提供されてもよい。
加速度センサ701に用いられるような加速度検出手段は、加速度センサ701の持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701からの直接の出力は、それら3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。
しかしながら、加速度センサ701から出力される加速度の信号に基づいて、ゲーム装置のプロセッサ(例えばCPU10)またはコントローラのプロセッサ(例えばマイコン751)等のコンピュータが処理を行うことによって、コアユニット70に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。
例えば、加速度センサ701を搭載するコアユニット70が静的な状態であることを前提としてコンピュータ側で処理する場合(すなわち、加速度センサ701によって検出される加速度が重力加速度のみであるとして処理する場合)、コアユニット70が現実に静的な状態であれば、検出された加速度に基づいてコアユニット70の姿勢が重力方向に対して傾いているか否か、またはどの程度傾いているかを知ることができる。具体的には、加速度センサ701の検出軸が鉛直下方向を向いている状態を基準としたとき、当該検出軸方向に1G(重力加速度)が作用しているか否かだけでコアユニット70が鉛直下方向に対して傾いているか否かを知ることができる。また、上記検出軸方向に作用している加速度の大きさによって、コアユニット70が鉛直下方向に対してどの程度傾いているかも知ることができる。また、多軸方向の加速度を検出可能な加速度センサ701の場合には、さらに各軸に対して検出された加速度の信号に対して処理を施すことによって、重力方向に対してコアユニット70がどの程度傾いているかをより詳細に知ることができる。この場合において、加速度センサ701からの出力に基づいて、プロセッサがコアユニット70の傾き角度のデータを算出する処理を行ってもよいが、当該傾き角度のデータを算出する処理を行うことなく、加速度センサ701からの出力に基づいて、おおよそのコアユニット70の傾き具合を推定するような処理としてもよい。このように、加速度センサ701をプロセッサと組み合わせて用いることによって、コアユニット70の傾き、姿勢、または位置を判定することができる。
一方、加速度センサ701が動的な状態であることを前提とする場合には、当該加速度センサ701が重力加速度成分に加えて加速度センサ701の動きに応じた加速度を検出するので、重力加速度成分を所定の処理により除去すれば、コアユニット70の動き方向等を知ることができる。具体的には、加速度センサ701を備えるコアユニット70がユーザの手で動的に加速されて動かされる場合に、加速度センサ701によって生成される加速度信号を処理することによって、コアユニット70の様々な動きおよび/または位置を算出することができる。なお、加速度センサ701が動的な状態であることを前提とする場合であっても、加速度センサ701の動きに応じた加速度を所定の処理により除去すれば、重力方向に対するコアユニット70の傾きを知ることが可能である。
他の実施例では、加速度センサ701は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置を備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサ701が静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。加速度センサ701でそれぞれ検知された加速度を示すデータは、通信部75に出力される。
また、他の実施例では、加速度センサ701の代わりに、少なくとも一方を回転素子または振動素子などを内蔵したジャイロセンサを用いてもよい。この実施形態で使用されるMEMSジャイロセンサの一例として、アナログ・デバイセズ株式会社から入手可能なものがある。加速度センサ701と異なり、ジャイロセンサは、それが内蔵する少なくとも1つのジャイロ素子の軸を中心とした回転(または角速度)を直接検知することができる。このように、ジャイロセンサと加速度センサとは基本的に異なるので、個々の用途のためにいずれの装置が選択されるかによって、これらの装置からの出力信号に対して行う処理を適宜変更する必要がある。
具体的には、加速度センサの代わりにジャイロセンサを用いて傾きや姿勢を算出する場合には、大幅な変更を行う。すなわち、ジャイロセンサを用いる場合、検出開始の状態において傾きの値を初期化する。そして、当該ジャイロセンサから出力される角速度データを積分する。次に、初期化された傾きの値からの傾きの変化量を算出する。この場合、算出される傾きは、角度に対応する値が算出されることになる。一方、加速度センサによって傾きを算出する場合には、重力加速度のそれぞれの軸に関する成分の値を、所定の基準と比較することによって傾きを算出するので、算出される傾きはベクトルで表すことが可能であり、初期化を行わずとも、加速度検出手段を用いて検出される絶対的な方向を検出することが可能である。また、傾きとして算出される値の性質は、ジャイロセンサが用いられる場合には角度であるのに対して、加速度センサが用いられる場合にはベクトルであるという違いがある。したがって、加速度センサに代えてジャイロセンサが用いられる場合、当該傾きのデータに対して、2つのデバイスの違いを考慮した所定の変換を行う必要がある。加速度検出手段とジャイロスコープとの基本的な差異と同様にジャイロスコープの特性は当業者に公知であるので、本明細書ではさらなる詳細を省略する。ジャイロセンサは、回転を直接検知できることによる利点を有する一方、一般的には、加速度センサは、本実施形態で用いるようなコントローラに適用される場合、ジャイロセンサに比べて費用効率が良いという利点を有する。
通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置本体5からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置本体5から送信されたサウンドデータ等を処理する。また、マイコン751は、通信部75を介してゲーム装置本体5から送信された振動データ(例えば、バイブレータ704をONまたはOFFする信号)等に応じて、バイブレータ704を作動させる。
コアユニット70に設けられた操作部72からの操作信号(キーデータ)、加速度センサ701からの3軸方向の加速度信号(X、Y、およびZ軸方向加速度データ)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。また、接続ケーブル79を介して、バイタルセンサ76からの生体信号(生体情報データ)は、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、X、Y、およびZ軸方向加速度データ、処理結果データ、生体情報データ)を無線コントローラモジュール19へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から無線コントローラモジュール19への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(登録商標)で構成される通信部75の送信間隔は5msである。マイコン751は、無線コントローラモジュール19への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術を用いて、操作情報を示す電波信号を所定周波数の搬送波を用いてアンテナ754から放射する。つまり、コアユニット70に設けられた操作部72からのキーデータと、加速度センサ701からのX、Y、およびZ軸方向加速度データと、撮像情報演算部74からの処理結果データと、バイタルセンサ76からの生体情報データとがコアユニット70から送信される。そして、ゲーム装置本体5の無線コントローラモジュール19でその電波信号を受信し、ゲーム装置本体5で当該電波信号を復調や復号することによって、一連の操作情報(キーデータ、X、Y、およびZ軸方向加速度データ、処理結果データ、生体情報データ)を取得する。そして、ゲーム装置本体5のCPU10は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、ブルートゥース(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。
次に、図8および図9を参照して、バイタルセンサ76について説明する。なお、図8は、バイタルセンサ76の構成の一例を示すブロック図である。図9は、バイタルセンサ76から出力される生体情報の一例である脈波情報の例を示す図である。
図8において、バイタルセンサ76は、制御部761、発光部762、および受光部763を備えている。
発光部762および受光部763は、ユーザの生体信号を得るセンサの一例であり、透過型指尖容積脈波センサを構成する。発光部762は、例えば赤外線LEDで構成され、所定波長(例えば、940nm)の赤外線を受光部763に向けて照射する。一方、受光部763は、発光部762が照射する波長に応じて照射される光を受光し、例えば赤外線フォトレジスタで構成される。そして、発光部762と受光部763とは、所定の間隙(空洞)を介して配置されている。
ここで、人体の血液中に存在するヘモグロビンは、赤外線を吸光する性質をもっている。例えば、上述した発光部762および受光部763間の間隙にユーザの身体の一部(例えば、指先)を挿入する。これによって、発光部762から照射された赤外線は、挿入した指先内に存在するヘモグロビンで吸光された後、受光部763で受光される。一方、人体の動脈は、脈拍動しているため、当該脈拍動に応じて動脈の太さ(血流量)が変化する。したがって、挿入した指先内の動脈も同様の脈拍動が生じており、当該脈拍動に応じて血流量が変化するため、当該血流量に応じて吸光される赤外線の量も変化する。具体的には、挿入した指先内の血流量が多い場合、ヘモグロビンで吸光される量も増加するために受光部763で受光する赤外線の光量が相対的に少なくなる。一方、挿入した指先内の血流量が少ない場合、ヘモグロビンで吸光される量も減少するために受光部763で受光する赤外線の光量が相対的に多くなる。発光部762および受光部763は、このような動作原理を利用し、受光部763で受光する赤外線の光量を光電信号に変換することによって、人体の脈拍動(以下、脈波と記載する)を検出している。例えば、図9に示すように、挿入した指先内の血流量が増加した場合に受光部763の検出値が上昇し、挿入した指先内の血流量が減少した場合に受光部763の検出値が下降する。このように、受光部763の検出値が脈動する脈波部分が、脈波信号として生成される。なお、受光部763の回路構成によって、挿入した指先内の血流量が増加した場合に受光部763の検出値が下降し、挿入した指先内の血流量が減少した場合に受光部763の検出値が上昇するような脈波信号を生成してもかまわない。
制御部761は、例えばMCU(Micro Controller Unit)で構成される。制御部761は、発光部762から照射される赤外線の光量を制御する。また、制御部761は、受光部763から出力された光電信号(脈波信号)をA/D変換して脈波データ(生体情報データ)を生成する。そして、制御部761は、接続ケーブル79を介して、脈波データ(生体情報データ)をコアユニット70へ出力する。
次に、ゲーム装置本体5が行う具体的な処理を説明する前に、図10〜図18を用いて本ゲーム装置本体5で行う処理の概要について説明する。なお、図10〜図18は、それぞれモニタ2に表示される一連の画像の一例を示す図である。
図10において、モニタ2には、バイタルセンサ76を使用しているユーザの現状の生体状態が表示される。例えば、図10では、ユーザの自律神経量の代表として副交感神経の活動度がリラックス汁の量として示されている。リラックス汁の量は、ユーザの心拍変動係数(CVRR:coefficient of variance of R−R interval)に基づいて算出される。例えば、心拍変動係数は、バイタルセンサ76から得られる脈波が示す過去100拍における心拍間隔(R−R間隔;図9参照)を用いて算出される。具体的には、
心拍変動係数=(100拍分のR−R間隔の標準偏差/100拍分のR−R間隔の平均値)×100
で算出される。そして、算出された心拍変動係数に基づいて、リラックス汁の液面高さを変動させることによってリラックス汁の量を変化させて、ユーザに現状の生体情報を提示する。
次に、図11において、モニタ2には、ユーザの現状リラックス汁量と比較するために、ユーザと同年齢におけるリラックス汁の量の標準値が表示される。ここで、リラックス汁の量は、ユーザの副交感神経が活性化すると低下する性質をもっている。つまり、ユーザに運動的な負荷が加わっていない状態でリラックス汁の量が低下していれば、ユーザは、自律神経系のバランスを崩していることが考えられる。しかしながら、リラックス汁の量は、年齢と共に低下する傾向にあるため、ユーザ自身の副交感神経の活動度がどのようなレベルにあるのか比較対照を容易にするために、同年齢の標準値が現状リラックス汁量と並べて表示される。
次に、図12において、モニタ2には、表示しているユーザの生体状態を向上させるためのゲームが提示される。例えば、ユーザの柔軟度を高めるストレッチゲームは、リラックス汁を増量させる即効性のある手段であるため、ユーザに対してストレッチゲームが選択肢としてモニタ2に表示される。そして、ユーザが提示されたストレッチゲームの実行を選択した場合、モニタ2の画面がストレッチゲームに移行する。
ストレッチゲームに移行すると、モニタ2には、ゲームを行う際のユーザの操作姿勢や操作方法の説明が表示される。例えば、図13の例では、バイタルセンサ76を装着し、両肘を左右に張った状態でコアユニット70の長手方向が両肘を張る方向となるようにコアユニット70を両手で挟んだ姿勢が、ストレッチゲームの操作姿勢として表示されている。そして、モニタ2には、「画面を鏡とし、地面の傾きに合わせて傾けましょう」とする操作方法が表示される。また、モニタ2には、「天井の起伏に応じて、呼吸しましょう」とする操作方法が表示される。つまり、ユーザは、図13に示したような操作姿勢および操作方法を説明する画面を見ることによって、ストレッチゲームを行う際の操作姿勢と操作方法とを知ることができる。
図14に示すように、ストレッチゲームでは、ユーザの生体信号(脈波信号)およびユーザの動きや姿勢(コアユニット70の傾き)に基づいて、例えばプレイヤキャラクタPCが動作するゲームが行われる。プレイヤキャラクタPCは、仮想ゲーム世界内において、例えば左から右へスクロールして移動する天井Tと地面Bとが障害物となった天井Tと地面Bとの間の空間(例えば、洞窟内)を飛行することが求められる。プレイヤキャラクタPCは、第1プレイヤキャラクタPC1と、第1プレイヤキャラクタPC1の上部に配置されている第2プレイヤキャラクタPC2とに分離可能に構成されている。
図15において、第2プレイヤキャラクタPC2は、第1プレイヤキャラクタPC1に対して天井Tの高さを限度として上昇することができる。ここで、第2プレイヤキャラクタPC2は、ユーザの呼吸状態に応じて昇降する。例えば、第2プレイヤキャラクタPC2は、ユーザが吐く呼吸をした場合に第1プレイヤキャラクタPC1に対して上昇し、ユーザが吸う呼吸をした場合に第1プレイヤキャラクタPC1に向かって下降する。本実施形態においては、上記脈波信号を用いてユーザの心拍数HRを算出し、心拍数HRが上昇中であればユーザが吸う呼吸をしていると判断し、心拍数HRが下降中であればユーザが吐く呼吸をしていると判断する。心拍数HRは、60秒間の鼓動回数で示されるが、本実施形態においては心拍間隔(R−R間隔;例えば、脈波の極小値から次の極小値までの時間;図9参照)で、60秒を除算することによって算出している。
また、天井Tの起伏は、ユーザの呼吸周期に基づいて算出される。例えば、本実施形態では、ユーザの心拍数HRが上昇/下降する周期を用いてユーザの現時点の呼吸周期を算出し、当該呼吸周期を所定割合遅くした(例えば80%)の周期となるように天井Tの起伏周期を調整する。そして、天井Tと第2プレイヤキャラクタPC2とが接触した場合、ストレッチゲームの得点が減じられる。つまり、天井Tの起伏に合わせて第2プレイヤキャラクタPC2を昇降させることによって、自身の呼吸周期の80%とした周期で呼吸するような呼吸動作、すなわち自身の呼吸周期を徐々に遅くするような呼吸が要求されることになる。
図16において、プレイヤキャラクタPCは、地面Bに沿って傾斜して飛行することができる。ここで、プレイヤキャラクタPCは、コアユニット70の傾きに応じてその飛行姿勢が傾く。例えば、図13に示したような操作姿勢でユーザがコアユニット70をモニタ2に向かって右に角度α1傾けた場合、当該傾き動作と同期してプレイヤキャラクタPCも右に角度α1傾いて表示される。また、図17に示すように、図13に示したような操作姿勢でユーザがコアユニット70をモニタ2に向かって右に角度α2傾けた場合、当該傾き動作と同期してプレイヤキャラクタPCも右に角度α2傾いて表示される。つまり、ユーザは、コアユニット70を傾けることによって、あたかもプレイヤキャラクタPCを傾けているような操作感覚となる。
図17において、地面Bの傾斜は、時間経過と共にその傾斜角度が大きくなり、地面BとプレイヤキャラクタPCとが接触した場合、ストレッチゲームの得点が減じられる。そして、ユーザは、地面Bの傾きに合わせてプレイヤキャラクタPCを傾けるためには、コアユニット70を地面Bの傾きと同様の傾きまで傾けることが必要となる。つまり、ユーザは、コアユニット70を把持したり、装着したりしているユーザ自身の身体の部位を曲げたり捻ったりするようなストレッチ動作が要求されることになる。そして、地面Bの傾斜は、ユーザが苦しいと感じた時点でその傾斜角度に固定される。例えば、本実施形態では、上記脈波信号から得られる脈波振幅PA(例えば、脈波の極大値から次の極小値まで高さの差;図9参照)を用いて、ユーザの苦楽度を判断し、当該苦楽度に応じてプレイヤキャラクタPCの顔色や表情を変化させる。
図16の例では、右へ傾斜角度5°傾いた地面Bが表示されており、ユーザが地面Bの傾きに応じてコアユニット70をモニタ2に向かって右に角度α1(例えば、5°)傾けることによって、当該傾き動作と同期してプレイヤキャラクタPCも右に角度α1(例えば、5°)傾いて表示される。この場合、ユーザがまだ楽な状態であるため、プレイヤキャラクタPCが穏やかな表情で表示されている。一方、図17の例では、右へ傾斜角度42°傾いた地面Bが表示されており、ユーザが地面Bの傾きに応じてコアユニット70をモニタ2に向かって右に角度α2(例えば、42°)傾けることによって当該傾き動作と同期してプレイヤキャラクタPCも右に角度α2(例えば、42°)傾いて表示される。この場合、ユーザがかなり苦しい状態となっており、プレイヤキャラクタPCが苦しい表情で表示されている。
例えば、上記ストレッチゲーム開始時点と比較して、ユーザの脈波振幅PAが90%以上を確保している状態は、「ユーザは苦しくない」と判断する。また、上記ストレッチゲーム開始時点と比較して、ユーザの脈波振幅PAが50%〜90%に縮小した状態は、「ユーザが苦しくなっている」と判断する。さらに、上記ストレッチゲーム開始時点と比較して、ユーザの脈波振幅PAが50%以下に縮小した状態は、「ユーザがかなり苦しい」と判断する。そして、脈波振幅PAが50%以下となった時点が、ユーザの限界であると判断して、当該時点の傾斜角度(限界傾斜角度)をユーザの身体のしなやか度を算出する尺度とする。
上記ストレッチゲームが終了した後、再度、ユーザの現状リラックス汁量が算出される。そして、図18に示すように、モニタ2には、ユーザのストレッチゲーム後のリラックス汁量と比較するために、現状リラックス汁量と共に、当該ストレッチゲーム前のリラックス汁の量(図18においては、「5分前」として表示)も表示される。そして、上記ストレッチゲーム後に増減したリラックス汁の量が数値で示される。例えば、本実施形態では、ユーザのストレッチゲーム前の心拍変動係数とストレッチゲーム後の心拍変動係数とを比較し、その差を10倍した値を増減容積値(ml)として示している。
また、ストレッチゲーム終了後においては、ユーザの身体のしなやか度を示す値が表示されてもよい。例えば、上記限界傾斜角度を用いて、ユーザのしなやか度(しなやか点)が表示される。具体的には、上記ストレッチゲームにおける傾斜角度の理想値と比較して、ユーザの限界傾斜角度との差に応じてユーザのしなやか度(しなやか点)を算出して表示される。
次に、ゲームシステム1において行われるゲーム処理の詳細を説明する。まず、図19を参照して、ゲーム処理において用いられる主なデータについて説明する。なお、図19は、ゲーム装置本体5の外部メインメモリ12および/または内部メインメモリ35(以下、2つのメインメモリを総称して、単にメインメモリと記載する)に記憶される主なデータおよびプログラムの一例を示す図である。
図19に示すように、メインメモリのデータ記憶領域には、加速度データDa、キーデータDb、脈波データDc、加速度ベクトルデータDd、リラックス汁量データDe、標準値データDf、初期リラックス汁量データDg、コントローラ傾きデータDh、心拍数データDi、脈波振幅データDj、初期脈波振幅データDk、点数データDl、ゆらぎ周期データDm、起伏周期データDn、地面角度データDo、限界地面角度データDp、プレイヤキャラクタデータDq、および画像データDr等が記憶される。なお、メインメモリには、図19に示す情報に含まれるデータの他、ゲームに登場するプレイヤキャラクタPC以外の他のオブジェクト等に関するデータ(位置データ等)や仮想ゲーム世界に関するデータ(背景のデータ等)等、ゲーム処理に必要なデータが記憶される。また、メインメモリのプログラム記憶領域には、ゲームプログラムを構成する各種プログラム群Paが記憶される。
加速度データDaは、コアユニット70に生じた加速度を示すデータであり、コアユニット70から送信データとして送信されてくる一連の操作情報に含まれる加速度データが格納される。この加速度データDaには、加速度センサ701がX軸成分に対して検出した加速度を示すX軸方向加速度データDa1、Y軸成分に対して検出した加速度を示すY軸方向加速度データDa2、およびZ軸成分に対して検出した加速度を示すZ軸方向加速度データDa3が含まれる。なお、ゲーム装置本体5に備える無線コントローラモジュール19は、コアユニット70から所定周期(例えば、1/200秒毎)に送信される操作情報に含まれる加速度データを受信し、無線コントローラモジュール19に備える図示しないバッファに蓄えられる。その後、上記バッファに蓄えられた加速度データがゲーム処理周期である1フレーム毎(例えば、1/60秒毎)に読み出されて、メインメモリの加速度データDaが更新される。
このとき、操作情報を受信する周期と処理周期とが異なるために、上記バッファには複数の時点に受信した操作情報が記述されていることになる。後述する処理の説明においては、後述する各ステップにおいて、複数の時点に受信した操作情報のうち最新の操作情報のみを常に用いて処理して、次のステップに進める態様を用いる。
また、後述する処理フローでは、加速度データDaがゲーム処理周期である1フレーム毎に更新される例を用いて説明するが、他の処理周期で更新されてもかまわない。例えば、コアユニット70からの送信周期毎に加速度データDaを更新し、当該更新された加速度データDaをゲーム処理周期毎に利用する態様でもかまわない。この場合、加速度データDaに記憶する加速度データDa1〜Da3を更新する周期と、ゲーム処理周期とが異なることになる。
キーデータDbは、コアユニット70の複数の操作部72がそれぞれ操作されたことを示すデータであり、コアユニット70から送信データとして送信されてくる一連の操作情報に含まれるキーデータが格納される。なお、キーデータDbが更新される方法は、加速度データDaと同様であるため詳細な説明を省略する。
脈波データDcは、バイタルセンサ76から得られる必要な時間長さ分の脈波信号を示すデータであり、コアユニット70から送信データとして送信されてくる一連の操作情報に含まれる脈波データが格納される。なお、脈波データDcに格納される脈波データは、後述する処理において必要な時間長さ分だけ脈波信号の履歴が格納され、操作情報の受信に応じて適宜更新される。
加速度ベクトルデータDdは、X軸方向加速度データDa1、Y軸方向加速度データDa2、およびZ軸方向加速度データDa3が示す加速度を用いて算出される加速度ベクトルを示すデータであり、コアユニット70に作用している加速度の方向および大きさを示すデータが格納される。
リラックス汁量データDeは、現状のユーザの心拍変動係数を用いて算出されたリラックス汁の量を示すデータが格納される。標準値データDfは、予め統計的に算出された年齢別のリラックス汁の量の標準値を示すデータが格納される。初期リラックス汁量データDgは、ストレッチゲーム開始前に算出されたユーザのリラックス汁の量を示すデータが格納される。
コントローラ傾きデータDhは、重力方向を基準としてコアユニット70の傾きを示すデータが格納される。心拍数データDiは、ユーザの心拍数HR(例えば、60秒を心拍間隔(R−R間隔)の周期で除算した値)の所定時間分の履歴を示すデータが格納される。脈波振幅データDjは、ユーザの脈波振幅PAの所定時間分の履歴を示すデータが格納される。初期脈波振幅データDkは、ストレッチゲーム開始前に算出されたユーザの脈波振幅PAを示すデータが格納される。
点数データDlは、ストレッチゲームにおける得点を示すデータが格納される。ゆらぎ周期データDmは、ユーザの呼吸周期を示すデータが格納される。起伏周期データDnは、ユーザの呼吸周期に応じて算出されたストレッチゲームにおける天井Tの起伏周期を示すデータが格納される。地面角度データDoは、ストレッチゲームにおける地面Bの傾斜角度を示すデータが格納される。限界地面角度データDpは、ストレッチゲームの地面Bの傾斜角度において、ユーザの限界傾斜角度を示すデータが格納される。
プレイヤキャラクタデータDqは、プレイヤキャラクタPCに関するデータが格納され、傾きデータDq1、上昇高さデータDq2、状況データDq3、および位置データDq4を含んでいる。傾きデータDq1は、コアユニット70の傾きに応じて傾けるプレイヤキャラクタPCの傾斜角度を示すデータが格納される。上昇高さデータDq2は、第1プレイヤキャラクタPC1に対して第2プレイヤキャラクタPC2が上昇する高さを示すデータが格納される。状況データDq3は、ユーザの苦楽度に応じたプレイヤキャラクタPCの顔色や表情を示すデータが格納される。位置データDq4は、仮想ゲーム世界におけるプレイヤキャラクタPCの位置を示すデータが格納される。
画像データDrは、生体画像データDr1、プレイヤキャラクタ画像データDr2、および障害物画像データDr3等を含んでいる。生体画像データDr1は、ユーザの生体情報をモニタ2に表示するためのデータが格納される。プレイヤキャラクタ画像データDr2は、仮想ゲーム世界にプレイヤキャラクタPCを配置してゲーム画像を生成するためのデータが格納される。障害物画像データDr3は、仮想ゲーム世界に障害物(天井Tや地面B)を配置してゲーム画像を生成するためのデータが格納される。
次に、図20〜図22を参照して、ゲーム装置本体5において行われる情報処理の詳細を説明する。なお、図20は、ゲーム装置本体5において実行される情報処理の一例を示すフローチャートである。図21は、図20のステップ48のストレッチゲーム処理における前半の動作の一例を示すフローチャートである。図22は、図20のステップ48のストレッチゲーム処理における後半の動作の一例を示すフローチャートである。なお、図20〜図22に示すフローチャートにおいては、ゲーム処理のうち、バイタルセンサ76からの生体情報およびコアユニット70の傾きを用いる処理について主に説明し、本願発明と直接関連しない他のゲーム処理については詳細な説明を省略する。また、図20〜図22では、CPU10が実行する各ステップを「S」と略称する。
ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリに読み込まれ、CPU10によって当該ゲームプログラムの実行が開始される。図20〜図22に示すフローチャートは、以上の処理が完了した後に行われるゲーム処理を示すフローチャートである。
図20において、CPU10は、情報処理の初期設定を行い(ステップ41)、次のステップに処理を進める。例えば、上記ステップ41における初期設定では、ユーザの年齢の設定や現在までの処理結果の設定等の初期設定を行う。また、上記ステップ41における処理の初期設定では、以降の情報処理で用いる各パラメータを初期化する。
次に、CPU10は、コアユニット70から操作情報を示すデータを取得して(ステップ42)、次のステップに処理を進める。例えば、CPU10は、コアユニット70から受信した操作情報を取得し、当該操作情報に含まれる最新の加速度データが示す加速度を用いて加速度データDaを更新する。具体的には、CPU10は、コアユニット70から受信した最新の操作情報に含まれるX軸方向の加速度データが示す加速度を用いて、X軸方向加速度データDa1を更新する。また、CPU10は、最新の操作情報に含まれるY軸方向の加速度データが示す加速度を用いて、Y軸方向加速度データDa2を更新する。そして、CPU10は、最新の操作情報に含まれるZ軸方向の加速度データが示す加速度を用いて、Z軸方向加速度データDa3を更新する。また、CPU10は、コアユニット70から受信した操作情報に含まれる最新のキーデータが示す操作部72に対する操作内容を用いてキーデータDbを更新する。さらに、CPU10は、コアユニット70から受信した操作情報に含まれる最新の生体情報データが示す脈波信号を用いて脈波データDcを更新する。
次に、CPU10は、ユーザのリラックス汁の量を算出して(ステップ43)、次のステップに処理を進める。例えば、CPU10は、ユーザの心拍変動係数に基づいて、リラックス汁の量を算出する。ここで、心拍変動係数は、脈波データDcに格納された脈波信号が示す過去100拍における心拍間隔(R−R間隔;図9参照)を用いて算出され、具体的には、
心拍変動係数=(100拍分のR−R間隔の標準偏差/100拍分のR−R間隔の平均値)×100
で算出される。そして、CPU10は、算出されたユーザの心拍変動係数に基づいて、リラックス汁の量を算出(例えば、心拍変動係数の10倍の値をリラックス汁の量とする)し、算出されたリラックス汁の量を用いてリラックス汁量データDeを更新する。
次に、CPU10は、現時点のユーザのリラックス汁量を液面で示す生体情報を画像で生成し、当該画像をモニタ2に表示する(ステップ44;図10参照)。そして、CPU10は、現時点のユーザのリラックス汁量と標準量とを比較するか否かを判断する(ステップ45)。例えば、CPU10は、標準量と比較することを示す操作があった場合や現時点のユーザのリラックス汁量をモニタ2に表示した後に所定の時間が経過した場合、現時点のユーザのリラックス汁量と標準量とを比較すると判断する。そして、CPU10は、現時点のユーザのリラックス汁量と標準量とを比較する場合、次のステップ46に処理を進める。一方、CPU10は、現時点のユーザのリラックス汁量と標準量とを比較しない場合、次のステップ47に処理を進める。
ステップ46において、CPU10は、現時点のユーザのリラックス汁量と標準量とを比較表示する画像を生成し、当該画像をモニタ2に表示して(図11参照)、次のステップ47へ処理を進める。例えば、CPU10は、標準値データDfを参照してユーザの年齢に応じたリラックス汁の量の標準値を取得し、当該標準値を液面で示す生体情報を画像で生成して、当該画像をモニタ2に表示する。ここで、上記標準値は、上記ステップ41にて設定されたユーザの年齢に基づいて標準値データDfから取得してもいいし、当該ステップ46においてユーザが年齢を入力することによって標準値データDfから取得してもかまわない。なお、上記ステップ46では、ユーザと同じ年齢におけるリラックス汁の量の標準値が取得されるが、異なる標準値を取得してもかまわない。例えば、現時点のユーザのリラックス汁量と同レベルとなっている標準値を取得してもかまわない。この場合、ユーザの年齢とは異なる年齢のリラックス汁量の標準値を取得することになるが、ユーザにとって自分自身のリラックス汁量がどのような年齢時における標準値と同じレベルなのか比較することができる。
ステップ47において、CPU10は、ストレッチゲームに移行するか否かを判断する。例えば、CPU10は、モニタ2に表示しているユーザのリラックス汁を増量させるためのゲームの選択肢を提示し(図12参照)、当該選択肢からストレッチゲームを選択する操作が行われたか否かによって、ストレッチゲームに移行するか否かを判断する。そして、CPU10は、ストレッチゲームに移行する場合、次のステップ48に処理を進める。一方、CPU10は、ストレッチゲームに移行しない場合、次のステップ53に処理を進める。
ステップ48において、CPU10は、ストレッチゲーム処理を行って、次のステップに処理を進める。以下、図21および図22を参照して、上記ステップ48で行うストレッチゲーム処理について説明する。
図21において、CPU10は、ストレッチゲーム処理の初期設定を行い(ステップ81)、次のステップに処理を進める。例えば、上記ステップ81におけるストレッチゲーム処理の初期設定では、仮想ゲーム世界の設定やプレイヤキャラクタPCや天井Tおよび地面B等の初期設定を行う。また、上記ステップ81におけるストレッチゲーム処理の初期設定では、以降のストレッチゲーム処理で用いる各パラメータを初期化する。例えば、CPU10は、点数データDlについて満点を示す点数(例えば、100点)に初期設定する。
次に、CPU10は、コアユニット70から操作情報を示すデータを取得して(ステップ82)、次のステップに処理を進める。なお、上記ステップ82における処理は、上述したステップ42の処理と同様であるため、詳細な説明を省略する。
次に、CPU10は、ストレッチゲーム開始前のユーザの脈波振幅PAおよびリラックス汁量を算出し、それぞれの値を用いて初期脈波振幅データDkおよび初期リラックス汁量データDgを更新し(ステップ83)、次のステップに処理を進める。例えば、CPU10は、脈波データDcの脈波信号を参照して、脈波信号から得られる現時点の脈波振幅PA(図9参照)を初期脈波振幅PAiとして算出する。そして、CPU10は、算出された初期脈波振幅PAiを用いて初期脈波振幅データDkを更新する。また、CPU10は、脈波データDcの脈波信号を参照して、脈波信号から得られる心拍変動係数に基づいて現時点のリラックス汁の量を算出する。そして、CPU10は、算出されたリラックス汁の量を用いて初期リラックス汁量データDgを更新する。
次に、CPU10は、コアユニット70から操作情報を示すデータを取得して(ステップ84)、次のステップに処理を進める。なお、上記ステップ84における処理は、上述したステップ42の処理と同様であるため、詳細な説明を省略する。
次に、CPU10は、重力方向に対するコアユニット70の傾きを算出し(ステップ85)、次のステップに処理を進める。例えば、CPU10は、X軸方向加速度データDa1に格納されたX軸方向加速度、Y軸方向加速度データDa2に格納されたY軸方向加速度、およびZ軸方向加速度データDa3に格納されたZ軸加速度を用いて、それぞれの方向の加速度成分を有する加速度ベクトルを算出し、当該加速度ベクトルを用いて加速度ベクトルデータDdを更新する。また、CPU10は、加速度ベクトルデータDdの加速度ベクトルが示す方向が、コアユニット70に作用する重力加速度の方向であると仮定する。そして、CPU10は、加速度ベクトルが示す方向を基準としたコアユニット70の傾き(コントローラの傾き)を算出し、算出されたコアユニット70の傾きを用いてコントローラ傾きデータDhを更新する。具体的には、図13に示したような操作姿勢でユーザがコアユニット70を操作する場合、すなわち、コアユニット70のX軸方向を中心にコアユニット70のZ軸を傾けるように操作されることを前提とする場合、上記重力加速度の方向に対してコアユニット70のZ軸が傾いている方向がコアユニット70の傾き(コントローラの傾き)として算出される。
次に、CPU10は、コアユニット70の傾きに応じてプレイヤキャラクタPCを仮想ゲーム世界に対して傾けてモニタ2に表示して(ステップ86)、次のステップに処理を進める。例えば、コアユニット70のX軸方向を中心にコアユニット70のZ軸を傾けるように操作されることを前提とする場合、ユーザがコアユニット70をモニタ2に向かってZ軸を右に角度α傾けた場合、当該傾き動作と同期して仮想ゲーム世界においてプレイヤキャラクタPCも向かって右に角度α傾くように傾き角度を算出し、算出された傾き角度を用いて傾きデータDq1を更新する。そして、CPU10は、傾きデータDq1が示す傾き角度に応じて、プレイヤキャラクタPCを仮想ゲーム世界において傾けてモニタ2に表示する(図16および図17参照)。
次に、CPU10は、ユーザの心拍数HRを算出して心拍数データDiの履歴を更新し(ステップ87)、次のステップに処理を進める。例えば、CPU10は、脈波データDcの脈波信号を参照して、現時点の心拍間隔(R−R間隔;図9参照)を算出する。そして、CPU10は、60秒を心拍間隔で除算することによって心拍数HRを算出し、新たに算出された心拍数HRを示すデータを心拍数データDiに追加して、心拍数HRの履歴を更新する。なお、後述により明らかとなるが、心拍数HRの履歴は、所定時間分が確保されていれば処理が可能となるため、新しい心拍数HRを追加する際、当該時間を超える過去の履歴を削除してもかまわない。
次に、CPU10は、ユーザの脈波振幅PAを算出して脈波振幅データDjの履歴を更新し(ステップ88)、次のステップに処理を進める。例えば、CPU10は、脈波データDcの脈波信号を参照して、上記脈波信号から得られる現時点の脈波振幅PA(図9参照)を算出する。そして、CPU10は、新たに算出された脈波振幅PAを示すデータを脈波振幅データDjに追加して、脈波振幅PAの履歴を更新する。なお、後述により明らかとなるが、脈波振幅PAの履歴は、所定時間分が確保されていれば処理が可能となるため、新しい脈波振幅PAを追加する際、当該時間を超える過去の履歴を削除してもかまわない。
次に、CPU10は、上記ステップ87で算出された心拍数HRが前回算出された心拍数HRbより小さいか否か(ステップ89)、および上記ステップ87で算出された心拍数HRが前回算出された心拍数HRbより大きいか否か(ステップ91)を判断する。そして、CPU10は、上記ステップ87で算出された心拍数HRが前回算出された心拍数HRbより小さい場合(ステップ89でYes)、次のステップ90に処理を進める。また、CPU10は、上記ステップ87で算出された心拍数HRが前回算出された心拍数HRbより大きい場合(ステップ91でYes)、次のステップ92に処理を進める。一方、CPU10は、上記ステップ87で算出された心拍数HRが前回算出された心拍数HRbと同じである場合(ステップ89およびステップ91が何れもNo)、次のステップ101(図22参照)に処理を進める。
ステップ90において、CPU10は、第1プレイヤキャラクタPC1に対して第2プレイヤキャラクタPC2を仮想ゲーム世界において所定量上昇させてモニタ2に表示し、次のステップ101(図22参照)に処理を進める。例えば、CPU10は、仮想ゲーム世界における第1プレイヤキャラクタPC1と第2プレイヤキャラクタPC2との距離を所定長さ離間させて第2プレイヤキャラクタPC2の上昇長さを算出し、当該上昇長さを用いて上昇高さデータDq2を更新する。そして、CPU10は、第1プレイヤキャラクタPC1に対して、上昇高さデータDq2が示す上昇高さだけ離間するように第2プレイヤキャラクタPC2を仮想ゲーム世界において上昇させて、モニタ2に表示する(図15参照)。なお、上記ステップ90において離間させる第1プレイヤキャラクタPC1と第2プレイヤキャラクタPC2との距離は、一定量離間距離を増加させてもいいし、心拍数HRbと心拍数HRとの差分値に応じて増加させる離間距離を変化させてもかまわない。
一方、ステップ91において、CPU10は、第1プレイヤキャラクタPC1に対して第2プレイヤキャラクタPC2を仮想ゲーム世界において所定量下降させてモニタ2に表示し、次のステップ101(図22参照)に処理を進める。例えば、CPU10は、仮想ゲーム世界における第1プレイヤキャラクタPC1と第2プレイヤキャラクタPC2との距離を所定長さ短縮させて第2プレイヤキャラクタPC2の上昇長さを算出し、当該上昇長さを用いて上昇高さデータDq2を更新する。そして、CPU10は、第1プレイヤキャラクタPC1に対して、上昇高さデータDq2が示す上昇高さだけ離間するように第2プレイヤキャラクタPC2を仮想ゲーム世界において上昇させて、モニタ2に表示する。なお、第1プレイヤキャラクタPC1に対して第2プレイヤキャラクタPC2を仮想ゲーム世界において下降させる量は、第2プレイヤキャラクタPC2が第1プレイヤキャラクタPC1と重ならないことを限度として決定する。つまり、仮想ゲーム世界において、第2プレイヤキャラクタPC2は、第1プレイヤキャラクタPC1と重なる位置まで下降することはない。また、上記ステップ91において短縮させる第1プレイヤキャラクタPC1と第2プレイヤキャラクタPC2との距離は、一定量離間距離を減少させてもいいし、心拍数HRと心拍数HRbとの差分値に応じて減少させる離間距離を変化させてもかまわない。
図22に進み、ステップ101において、CPU10は、仮想ゲーム世界においてプレイヤキャラクタPCが天井Tまたは地面Bと接触したか否かを判断する。例えば、プレイヤキャラクタPCが飛行中に第1プレイヤキャラクタPC1が地面Bと接触する、または第2プレイヤキャラクタPC2が天井Tと接触した場合、CPU10は、プレイヤキャラクタPCが天井Tまたは地面Bと接触したと判断する。そして、CPU10は、プレイヤキャラクタPCが天井Tまたは地面Bと接触した場合、次のステップ102に処理を進める。一方、CPU10は、プレイヤキャラクタPCが天井Tおよび地面Bの何れにも接触していない場合、次のステップ103に処理を進める。
ステップ102において、CPU10は、ストレッチゲームの得点から所定の点数を減点して、次のステップ103に処理を進める。例えば、CPU10は、点数データDlが示す点数から天井Tまたは地面Bとの接触に応じた点数を減点し、減点後の点数を用いて点数データDlを更新する。ここで、減点する点数は、プレイヤキャラクタPCが天井Tまたは地面Bとの接触状況に応じて変化させてもかまわない。第1の例として、プレイヤキャラクタPCが天井Tまたは地面Bと接触している時間に応じて減点数を増加させる。第2の例として、プレイヤキャラクタPCが天井Tまたは地面Bと接触して重複している量に応じて減点数を増加させる。第3の例として、プレイヤキャラクタPCが天井Tまたは地面Bと接触した回数に応じて減点数を増加させる。第4の例として、プレイヤキャラクタPCが天井Tと接触している場合と地面Bと接触している場合とによって、減点数を変化させる。第5の例として、上記第1〜第4の例の少なくとも2つを組み合わせて、減点数を変化させる。
なお、上述した処理では、プレイヤキャラクタPCが天井Tまたは地面Bと接触または重複した場合、ストレッチゲームの得点を減点することによってマイナスの評価が与えられ、ストレッチゲームの得点が低い程、当該ストレッチゲームの評価が悪くなることになるが、他の方式によって得点を変化させてもかまわない。第1の例として、ストレッチゲームの開始時の得点を0点とし、プレイヤキャラクタPCが天井Tまたは地面Bと接触または重複した場合、ストレッチゲームの得点を加点することによってマイナスの評価が与えられる。この場合、ストレッチゲームの得点が高い程、当該ストレッチゲームの評価が悪くなることになる。第2の例として、ストレッチゲームの開始時の得点を0点とし、ストレッチゲームの時間経過と共に加点されていく。そして、ストレッチゲーム中にプレイヤキャラクタPCが天井Tまたは地面Bと接触または重複した場合、上記加点を行わないことによってマイナスの評価が与えられる。この場合、ストレッチゲームの得点が低い程、当該ストレッチゲームの評価が悪くなることになる。
ステップ103において、CPU10は、心拍数HRの履歴を用いて、心拍数HRが上昇/下降する周期(ゆらぎ周期)を算出し、次のステップに処理を進める。例えば、CPU10は、心拍数データDiを参照して、現時点までのユーザの心拍数HRの履歴を取得する。そして、CPU10は、心拍数HRの履歴から当該心拍数HRのゆらぎ周期を算出して、算出されたゆらぎ周期を用いてゆらぎ周期データDmを更新する。ここで、本実施形態が算出している心拍数HRは、上昇中であればユーザが吸う呼吸をしており、下降中であればユーザが吐く呼吸をしていると判断することができる。すなわち、上記ゆらぎ周期を算出することは、ユーザが呼吸している周期(呼吸周期)を算出することになる。
次に、CPU10は、上記ステップ103で算出されたゆらぎ周期を用いて、天井Tを起伏させる周期(起伏周期)を算出し(ステップ104)、次のステップに処理を進める。例えば、CPU10は、ゆらぎ周期データDmが示すゆらぎ周期を所定割合遅くした周期(例えば、ゆらぎ周期の80%)を起伏周期として算出し、算出された起伏周期を用いて起伏周期データDnを更新する。
次に、CPU10は、所定拍分の脈波振幅PAの平均値PAaを算出する(ステップ105)。そして、CPU10は、算出された平均値PAaが初期脈波振幅PAiの90%以下であるか否か(ステップ106)を判断する。そして、CPU10は、PAa≦0.9PAiである場合、次のステップ107へ処理を進める。一方、CPU10は、0.9PAi<PAaである場合、次のステップ110へ処理を進める。
ステップ107において、CPU10は、仮想ゲーム世界で表示されるプレイヤキャラクタPCの色および表情を苦況状態として状況データDq3を設定し、当該苦況状態に応じた状態でプレイヤキャラクタPCをモニタ2に表示して、次のステップに処理を進める。ここで、上記ステップ107を実行する状態は、ストレッチゲーム開始時点と比較して、ユーザの脈波振幅PAが90%以下に縮小した状態であり、「ユーザが苦しくなっている」と判断することができる。ストレッチゲームにおいて、ユーザが苦しくなっていると判断できる場合、CPU10は、当該ユーザの苦楽度に応じてプレイヤキャラクタPCの色や表情を変化させる(図17参照)。
ステップ108において、CPU10は、算出された平均値PAaが初期脈波振幅PAiの50%以下であるか否かを判断する。そして、CPU10は、PAa>0.5PAiである場合、次のステップ110へ処理を進める。また、CPU10は、PAa≦0.5PAiである場合、次のステップ109へ処理を進める。
ステップ109において、CPU10は、現時点の地面Bの傾斜角度を限界傾斜角度として記録し、次のステップ111に処理を進める。ここで、上記ステップ109を実行する状態は、ストレッチゲーム開始時点と比較して、ユーザの脈波振幅PAが50%以下まで縮小した状態であり、「ユーザがかなり苦しい」と判断することができる。ストレッチゲームにおいて、ユーザがかなり苦しい状態であると判断できる場合、CPU10は、現時点の地面Bの傾斜角度がユーザの限界であると判断して、当該傾斜角度を用いて限界地面角度データDpを更新する。
一方、ステップ110において、CPU10は、地面Bの傾斜角度を所定角度増加させて、次のステップ111に処理を進める。例えば、CPU10は、地面角度データDoが示す傾斜角度に対して、さらに所定の角度を加算して新たな傾斜角度を算出し、算出された傾斜角度を用いて地面角度データDoを更新する。
ステップ111において、CPU10は、起伏周期データDnが示す起伏周期および地面角度データDoが示す傾斜角度に基づいて、天井Tおよび地面B(障害物画像)を生成してモニタ2に表示し、次のステップに処理を進める。例えば、CPU10は、仮想ゲーム世界においてプレイヤキャラクタPCが飛行する際の天井Tが、起伏周期データDnが示す起伏周期で起伏するように天井Tの形状を調整してスクロールさせてモニタ2に表示する。また、CPU10は、仮想ゲーム世界において、地面角度データDoが示す傾斜角度だけ地面Bを傾けてモニタ2に表示する。
次に、CPU10は、ストレッチゲームを終了するか否かを判断する(ステップ112)。ストレッチゲームを終了する条件としては、例えば、ゲームオーバーとなる条件が満たされたことや、ユーザがストレッチゲームを終了する操作を行ったこと等がある。CPU10は、ストレッチゲームを終了しない場合に上記ステップ84(図21参照)に戻って処理を繰り返し、ストレッチゲームを終了する場合に当該サブルーチンによる処理を終了する。
図20に戻り、上記ステップ48のストレッチゲーム処理の後、CPU10は、コアユニット70から操作情報を示すデータを取得して(ステップ49)、次のステップに処理を進める。なお、上記ステップ49における処理は、上述したステップ42の処理と同様であるため、詳細な説明を省略する。
次に、CPU10は、上記ストレッチゲーム後におけるユーザのリラックス汁の量を算出して(ステップ50)、次のステップに処理を進める。なお、ユーザのリラックス汁量の算出処理は、上記ステップ43と同様であるため、詳細な説明を省略する。
次に、CPU10は、現時点(ストレッチゲーム後)のユーザのリラックス汁量と、ストレッチゲーム開始前のリラックス汁量とを、それぞれ液面で示す生体情報を画像で生成し、当該画像をモニタ2に表示し(ステップ51;図18参照)、次のステップに処理を進める。例えば、CPU10は、リラックス汁量データDeが示すリラックス汁量を現時点のユーザのリラックス汁量とし、初期リラックス汁量データDgが示すリラックス汁量をストレッチゲーム開始前のユーザのリラックス汁量として、それぞれの汁量を液面高さで示す生体情報画像を生成する。また、現時点のユーザのリラックス汁量と、ストレッチゲーム開始前のリラックス汁量とを比較して、その増減量を算出する。そして、CPU10は、上記生体情報画像および増減量を示す画像をモニタ2に表示する。これによって、ユーザは、上記ストレッチゲームを行うことによって、自身のリラックス汁の量がどのように変化したのか知ることができる。
次に、CPU10は、上記ストレッチゲームにおけるユーザの体的結果を算出して、当該体的結果をモニタ2に表示し(ステップ52)、次のステップに処理を進める。例えば、CPU10は、上記ストレッチゲームの結果を用いて、ユーザの身体のしなやか度を体的結果として算出する。具体的には、CPU10は、限界地面角度データDpが示す限界傾斜角度を用いて、ユーザのしなやか度(しなやか点)を表示する。一例として、CPU10は、上記ストレッチゲームにおける傾斜角度の理想値と比較して、ユーザの限界傾斜角度との差に応じてユーザのしなやか度(しなやか点)を算出して表示する。
次に、CPU10は、処理を終了するか否かを判断する(ステップ53)。処理を終了する条件としては、例えば、処理終了となる条件が満たされたことや、ユーザが処理を終了する操作を行ったこと等がある。CPU10は、処理を終了しない場合に上記ステップ42に戻って処理を繰り返し、処理を終了する場合に当該フローチャートによる処理を終了する。
このように、上述した情報処理によれば、ユーザの現状の生体信号だけでなく、ユーザの現状の動きや姿勢も用いて所定の提示が行われるため、ユーザは自分自身の身体の状態がより理解できると共に、ユーザの動きや姿勢を組み合わせることによってユーザの身体状態の変化を促すことができる。例えば、上記ストレッチゲームにおいては、ユーザの生体信号(脈波信号から得られる呼吸周期)に基づいて、障害物画像(天井T)が生成される。また、上記ストレッチゲームにおいては、ユーザの生体信号(脈波信号から得られる吸う/吐く動作)に基づいて、第2プレイヤキャラクタPC2が昇降動作する。さらに、上記ストレッチゲームにおいては、ユーザの生体信号(脈波信号からユーザの苦楽度)に基づいて、プレイヤキャラクタPCの色や表情が変化し、障害物画像(地面B)の傾斜角度が制御される。一方、上記ストレッチゲームにおいては、ユーザの現状の動きや姿勢(コアユニット70の傾き)に基づいて、プレイヤキャラクタPCが傾斜する。
なお、上述したストレッチゲームにおいては、障害物画像(天井Tおよび地面B)によって、ユーザに所定の動きまたは姿勢をさせるための指示が行われている。ここで、天井Tの起伏や地面Bの傾斜角度は、ユーザの生体信号に基づいて制御されているが、天井Tの起伏や地面Bの傾斜角度は、ユーザの生体信号とは無関係に制御されてもかまわない。例えば、天井Tの起伏周期を予め定められた周期によって制御し、地面Bの傾斜角度も予め定められた角度まで漸増するように制御することによって、ユーザの生体信号とは無関係に制御することも可能である。この場合、ユーザに所定の動きまたは姿勢をさせるための指示がユーザの生体信号やコアユニット70から得られる情報とは無関係に行われることになるが、プレイヤキャラクタPCの制御(昇降動作、傾き動作、色や表情等)は、ユーザの生体信号およびユーザの現状の動きや姿勢(コアユニット70の傾き)の両方に基づいて行われることになる。なお、本発明を他のゲームに適用させた場合は、様々な指示態様や制御態様が考えられることは言うまでもない。
なお、上述した説明では、ユーザの生体信号(脈波信号)から得られる心拍変動係数、リラックス汁量、心拍間隔(R−R間隔)、心拍数HR、呼吸周期、脈波振幅PA、および苦楽度等のパラメータを用いて所定の提示を行っているが、ユーザの生体信号(脈波信号)から得られる他のパラメータを用いてもかまわない。第1の例として、ユーザの生体信号(脈波信号)から得られる血流量を用いて所定の提示を行ってもかまわない。例えば、脈波信号から得られる脈波面積PWA(図9参照)を心拍数HRで除算することによって、血流量を得ることができる。第2の例として、生体信号(脈波信号)から得られるユーザの緊張度や活発度(交感神経の活動度)を用いて所定の提示を行ってもかまわない。例えば、ユーザが安静状態における心拍数HRと、現時点の心拍数HRとを比較して、ユーザの緊張度や活発度(例えば、(現時点の心拍数HR/安静状態の心拍数HR)×100)を算出する。
また、上述した説明では、ユーザの身体の一部(例えば、指先)に赤外線を照射し、当該身体の一部を透過して受光された赤外線の光量に基づいてユーザの生体信号(脈波信号)を得る、いわゆる光学方式によって血管の容積変化を検出して容積脈波を得ている。しかしながら、本発明では、ユーザが身体活動する際に起こる生理的な情報が得られる他の形式のセンサを用いて、ユーザの生体信号を取得してもかまわない。例えば、動脈の脈動による血管内の圧力変位を検出(例えば、圧電方式)して圧脈波を得ることによって、ユーザの生体信号を取得してもかまわない。また、ユーザの筋電位や心電位を、ユーザの生体情報として取得してもかまわない。筋電位や心電位は、電極を用いた一般的な検出方法により検出することができ、例えば、ユーザの身体における微細な電流の変化等に基づいて、ユーザの生体信号を取得することができる。また、ユーザの血流を、ユーザの生体情報として取得してもかまわない。血流は、電磁法や超音波法等を用いて1心拍ごとの脈動血流として測定され、当該脈動血流をユーザの生体信号として取得することができる。当然ながら、上述した各種生体信号を得るために、ユーザの指部以外の箇所(例えば、胸部、腕、耳たぶ等)にバイタルセンサを装着してもかまわない。取得する生体信号によっては、厳密には脈拍と心拍との差が生じることになるが、心拍数と脈拍数という見方をした場合ほぼ同じ値と考えられるので、取得される生体信号を上述した処理と同様に取り扱うことができる。
また、上述した説明では、バイタルセンサ76から脈波信号を示すデータをゲーム装置本体5に送信し、ゲーム装置本体5において当該脈波信号から様々なパラメータを算出したが、他の処理段階のデータをゲーム装置本体5に送信してもかまわない。例えば、バイタルセンサ76において、心拍変動係数、リラックス汁量(副交感神経活動度)、心拍間隔(R−R間隔)、心拍数HR、呼吸周期、脈波振幅PA、交感神経活動度、および苦楽度等のパラメータを算出して、当該パラメータを示すデータをゲーム装置本体5に送信してもかまわない。また、上記脈波信号から上記パラメータを算出する途中段階のデータをバイタルセンサ76からゲーム装置本体5に送信してもかまわない。
また、上述した説明では、加速度センサ701から得られる3軸方向の加速度データが示す加速度を用いて、ユーザの現状の動きや姿勢(コアユニット70の動き)を検出している。しかしながら、コアユニット70に固設される他の形式のセンサから出力されるデータを用いて、ユーザの現状の動きや姿勢を検出してもかまわない。例えば、重力方向に対してコアユニット70の傾き(以下、単に「傾き」と言う)に応じたデータを出力するセンサ(加速度センサ、傾きセンサ)、コアユニット70の方位に応じたデータを出力するセンサ(磁気センサ)、コアユニット70の回転運動に応じたデータを出力するセンサ(ジャイロセンサ)等から出力されるデータを用いることができる。また、加速度センサおよびジャイロセンサは、多軸検出可能なものだけなく1軸検出のものでもよい。また、これらのセンサを組み合わせて、より正確な検出を行うものであってもかまわない。なお、コアユニット70に固定されたカメラ(例えば、撮像情報演算部74)を、上記センサとして利用することも可能である。この場合、コアユニット70の動きに応じてカメラが撮像する撮像画像が変化するので、この画像を解析することにより、コアユニット70の動きを判断することができる。
また、上記センサは、その種類によっては、コアユニット70の外部に別設されてもよい。一例として、センサとしてのカメラでコアユニット70の外部からコアユニット70全体を撮影し、撮像画像内に撮像されたコアユニット70の画像を解析することにより、コアユニット70の動きを判断することが可能である。さらに、コアユニット70に固設されたユニットとコアユニット70外部に別設されたユニットとの協働によるシステムを用いてもよい。この例としては、コアユニット70外部に発光ユニットを別設し、コアユニット70に固設されたカメラで発光ユニットからの光を撮影する。このカメラで撮像された撮像画像を解析することにより、コアユニット70の動きを判断することができる。また、他の例としては、コアユニット70外部に磁場発生装置を別設し、コアユニット70に磁気センサを固設するようなシステムなどが挙げられる。
また、上記センサがコアユニット70の外部に別設可能である場合、コアユニット70を用いなくてもかまわない。一例として、センサとしてのカメラで単にユーザを撮影し、撮像画像内に撮像されたユーザの画像を解析することにより、ユーザの動きや姿勢を判断することが可能である。また、ユーザが乗って操作する入力装置(例えば、ボード型コントローラ)に設けられ、当該入力装置上に作用している重量や物体の有無等を検知するセンサを用いて、当該入力装置を操作するユーザの動きや姿勢を判断することも可能である。これらの態様のセンサを用いて、ユーザの動きや姿勢を判断する場合、コアユニット70を用いなくてもかまわない。
また、上述した説明では、ユーザの現状の生体信号およびユーザの現状の動きや姿勢に応じて、プレイヤキャラクタPCの動作を変化させたり、プレイヤキャラクタPCの表示態様を変化させたり、障害物画像を変化させたりして、現状のユーザの状態を示す画像やユーザの状態変化を促すための指示画像等を提示しているが、他の態様でユーザに提示してもかまわない。例えば、ユーザの現状の生体信号およびユーザの現状の動きや姿勢に応じて、現状のユーザの動きや姿勢を示す情報やユーザの状態変化を促すための指示等を音声や光等で提示してもかまわない。例えば、ゲームシステム1においては、スピーカ2aやスピーカ706を介して、音声を発することができる。具体的には、天井Tの起伏によって指示していたユーザの呼吸周期について、「吸って」「吐いて」を交互に音声で繰り返してユーザの呼吸周期を指示してもかまわない。また、地面Bの傾斜によって指示していたユーザへの動作指示について、限界傾斜角度まで「もう少し傾けて」と繰り返し音声で指示し、限界傾斜角度に到達した時点で「そこで止めてください」と音声でユーザに動作指示してもかまわない。
また、上述した説明では、ユーザの脈波信号およびコアユニット70の傾きに応じて、2次元の仮想ゲーム世界においてプレイヤキャラクタPCが移動するゲームを用いたが、本発明は、3次元の仮想ゲーム空間においてプレイヤキャラクタPCが移動したり、プレイヤキャラクタPCの表示態様が変化したりするゲームにも適用できることは言うまでもない。
また、上記実施例では、据置型のゲーム装置3に本願発明を適用した例を説明したが、バイタルセンサと、ユーザの動作や姿勢を検出する加速度センサや傾斜センサ等のセンサと、これらのセンサから得られる情報に応じた処理を実行する情報処理装置とがあればよく、例えば一般的なパーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)、携帯ゲーム装置等のデバイスにも適用することができる。
また、上述した説明では、コアユニット70とゲーム装置本体5とが無線通信によって接続された態様を用いたが、コアユニット70とゲーム装置本体5とがケーブルを介して電気的に接続されてもかまわない。この場合、コアユニット70に接続されたケーブルをゲーム装置本体5の接続端子に接続する。
また、コントローラ7を構成するコアユニット70およびバイタルセンサ76のうち、コアユニット70のみに通信部75を設けたが、バイタルセンサ76にゲーム装置本体5へ生体情報データを無線送信する通信部を設けてもかまわない。また、コアユニット70およびバイタルセンサ76それぞれに上記通信部を設けてもかまわない。例えば、コアユニット70およびバイタルセンサ76に設けられた通信部がそれぞれゲーム装置本体5へ生体情報データや操作データを無線送信してもいいし、バイタルセンサ76の通信部からコアユニット70へ生体情報データを無線送信してコアユニット70の通信部75で受信した後、コアユニット70の通信部75がバイタルセンサ76の生体情報データと共にコアユニット70の操作データをゲーム装置本体5へ無線送信してもいい。これらの場合、コアユニット70とバイタルセンサ76とを電気的に接続する接続ケーブル79が不要となる。
また、上述したコアユニット70の形状や、それに設けられている操作部72の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述したバイタルセンサ76の形状や、それに設けられている構成要素の種類、数、および設置位置等は、単なる一例に過ぎず他の種類、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した処理で用いられる係数、判定値、数式、処理順序等は、単なる一例に過ぎず他の値や数式や処理順序であっても、本発明を実現できることは言うまでもない。
また、本発明のゲームプログラムは、光ディスク4等の外部記憶媒体を通じてゲーム装置本体5に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置本体5に供給されてもよい。また、ゲームプログラムは、ゲーム装置本体5内部の不揮発性記憶装置に予め記録されていてもよい。なお、ゲームプログラムを記憶する情報記憶媒体としては、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体の他に、不揮発性半導体メモリでもよい。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
本発明に係る情報処理プログラムおよび情報処理装置は、ユーザの現状の生体信号およびユーザの現状の動きや姿勢を用いて所定の提示を行うことによって、ユーザの状態変化を促すことができ、ユーザの生体情報等を管理する情報処理プログラムおよび情報処理装置やユーザの生体情報や動作情報を用いてゲームを進行するゲームプログラムやゲーム装置等として有用である。
1…ゲームシステム
2…モニタ
2a、706…スピーカ
3…ゲーム装置
4…光ディスク
5…ゲーム装置本体
10…CPU
11…システムLSI
12…外部メインメモリ
13…ROM/RTC
14…ディスクドライブ
15…AV−IC
16…AVコネクタ
17…フラッシュメモリ
18…無線通信モジュール
19…無線コントローラモジュール
20…拡張コネクタ
21…外部メモリカード用コネクタ
22、23…アンテナ
24…電源ボタン
25…リセットボタン
26…イジェクトボタン
31…入出力プロセッサ
32…GPU
33…DSP
34…VRAM
35…内部メインメモリ
7…コントローラ
70…コアユニット
71…ハウジング
72…操作部
73…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
704…バイブレータ
707…サウンドIC
708…アンプ
76…バイタルセンサ
761…制御部
762…発光部
763…受光部
8…マーカ

Claims (28)

  1. ユーザから取得した生体信号に応じた情報を提示する情報処理装置のコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    ユーザから生体信号を取得する生体信号取得手段と、
    ユーザの動きまたは姿勢の情報を検出する検出手段から、前記生体信号取得手段が取得した生体信号と関連させて当該情報を取得する動き・姿勢情報取得手段と、
    前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、所定の提示を行う提示手段として機能させ
    前記提示手段は、前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、表示装置に表示された単一のオブジェクトを制御することによって、前記提示を行う、情報処理プログラム。
  2. 前記動き・姿勢情報取得手段が取得した情報に基づいて、ユーザが操作する入力装置の動きを判定する動き判定手段として、さらに前記コンピュータを機能させ、
    前記提示手段は、前記生体信号取得手段が取得した生体信号および前記動き判定手段が判定した前記入力装置の動きの両方に基づいて、前記提示を行う、請求項1に記載の情報処理プログラム。
  3. ユーザに所定の動きまたは姿勢をさせるための指示を行う指示手段として、さらに前記コンピュータを機能させる、請求項1に記載の情報処理プログラム。
  4. 前記提示手段は、前記指示手段による指示がされているときに取得された前記生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、前記提示を行う、請求項3に記載の情報処理プログラム。
  5. 前記動き・姿勢情報取得手段により取得された情報に基づいて、ユーザが前記指示手段によって指示された動きまたは姿勢となっているか否かを判定する判定手段として、さらに前記コンピュータを機能させ、
    前記提示手段は、ユーザが前記指示に応じた動きまたは姿勢となっていると前記判定手段が判定している間または判定した後に、前記生体信号取得手段が取得した前記生体信号に基づいた前記提示を行う、請求項3に記載の情報処理プログラム。
  6. 前記指示手段は、所定の生体信号が出力される動きまたは姿勢をユーザに指示する、請求項3に記載の情報処理プログラム。
  7. 前記提示手段は、前記動き判定手段が判定可能な前記入力装置の動きに沿った、当該入力装置を動かす動作を指示する提示を行う、請求項2に記載の情報処理プログラム。
  8. 前記提示手段は、前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、ユーザの所定の動きまたは姿勢を指示する提示を行う、請求項1に記載の情報処理プログラム。
  9. 前記提示手段は、前記生体信号取得手段が取得した生体信号に基づいて、当該生体信号に変化を与える動作または姿勢を指示する提示を行う、請求項8に記載の情報処理プログラム。
  10. 前記生体信号取得手段は、ユーザの脈拍または心拍に関する信号を前記生体信号として取得する、請求項1に記載の情報処理プログラム。
  11. 前記生体信号取得手段は、ユーザの脈波、心拍数、交感神経活動度、副交感神経活動度、心拍変動係数、心拍間隔、呼吸周期、脈波振幅から成る群から選ばれる少なくとも1つを前記生体信号として取得する、請求項1に記載の情報処理プログラム。
  12. 前記生体信号取得手段は、ユーザの脈波振幅を少なくとも取得して、
    前記提示手段は、前記ユーザの脈波振幅の変化を用いて当該ユーザの苦しさを判断し、当該判断結果に基づいて動作を指示する提示を行う、請求項11に記載の情報処理プログラム。
  13. 前記入力装置は、加速度センサを備え、
    前記動き判定手段は、前記加速度センサから出力される加速度データが示す加速度を用いて、前記入力装置の動きを判定する、請求項2に記載の情報処理プログラム。
  14. 前記動き判定手段は、前記加速度センサから出力される加速度データが示す加速度を、前記入力装置に生じる重力の方向とし、当該重力の方向を基準とした前記入力装置の傾きに基づいて前記入力装置の動きを判定する、請求項13に記載の情報処理プログラム。
  15. 前記入力装置は、ジャイロセンサを備え、
    前記動き判定手段は、前記ジャイロセンサから出力される角速度データが示す角速度を用いて、前記入力装置の動きを判定する、請求項2に記載の情報処理プログラム。
  16. 前記提示手段は、前記生体信号取得手段が取得した生体信号に基づいて前記オブジェクトが仮想世界において第1の動作をする提示を行い、前記動き・姿勢情報取得手段が取得した情報に基づいて前記オブジェクトが当該仮想世界において当該第1の動作とは異なる第2の動作をする提示を行う、請求項1に記載の情報処理プログラム。
  17. 前記提示手段は、前記第1の動作および前記第2の動作の一方として、前記仮想世界において前記オブジェクトの少なくとも一部を移動させ、前記第1の動作および前記第2の動作の他方として、前記仮想世界において前記オブジェクトの姿勢を変化させる、請求項1に記載の情報処理プログラム。
  18. 前記提示手段は、前記第1の動作および前記第2の動作の一方として、前記仮想世界において前記オブジェクトの少なくとも一部を所定の第1方向へ移動させ、前記第1の動作および前記第2の動作の他方として、前記仮想世界において前記オブジェクトの少なくとも一部を所定の第2方向へ移動させる、請求項1に記載の情報処理プログラム。
  19. 前記仮想世界における前記オブジェクトの動きを判定するオブジェクト動き判定手段として、さらに前記コンピュータを機能させる、請求項1乃18の何れか1つに記載の情報処理プログラム。
  20. 前記オブジェクトの動きを指定するための地形オブジェクトを前記仮想世界に登場させることによって、ユーザに所定の動きまたは姿勢をさせるための指示を行う指示手段として、さらに前記コンピュータを機能させ、
    前記オブジェクト動き判定手段は、前記オブジェクトと前記地形オブジェクトとの接触判定を行う、請求項19に記載の情報処理プログラム。
  21. 前記指示手段は、前記生体信号取得手段により取得された生体信号に応じて前記地形オブジェクトを変化させる、請求項2に記載の情報処理プログラム。
  22. 前記提示手段は、前記第1の動作として、前記生体信号取得手段が取得したユーザの呼吸に関する生体信号に応じて、前記オブジェクトの少なくとも一部を所定の方向へ移動させる、請求項1に記載の情報処理プログラム。
  23. 前記提示手段は、前記生体信号取得手段が取得した生体信号から得られるユーザの呼吸周期に基づいて起伏して、前記所定の方向への前記オブジェクトの移動を限定する前記仮想世界の障害物をさらに前記表示装置に表示することによって、前記提示を行い、
    前記仮想世界において、前記オブジェクトと前記起伏する障害物とが接触または重なる場合、マイナスの評価を行う評価手段として、さらに前記コンピュータを機能させる、請求項2に記載の情報処理プログラム。
  24. 前記生体信号取得手段は、ユーザの脈波振幅を少なくとも取得して、
    前記提示手段は、前記生体信号取得手段が取得した前記ユーザの脈波振幅の変化を用いて当該ユーザの苦しさを判定し、ユーザが苦しいと判断される場合、前記オブジェクトの表示態様を変化させることによって、前記提示を行う、請求項1に記載の情報処理プログラム。
  25. 前記提示手段は、前記第2の動作として、前記動き・姿勢情報取得手段が取得した情報に基づいて、前記仮想世界において前記オブジェクトの姿勢を傾けて変化させ、
    前記情報処理プログラムは、前記仮想世界において、前記オブジェクトが傾く動作をその傾斜角度によって限定する当該仮想世界の障害物と前記オブジェクトとが接触または重なる場合、マイナスの評価を行う評価手段として、さらに前記コンピュータを機能させ、
    前記評価手段は、時間経過と共に前記障害物の傾斜角度を漸増的に変化させ、前記ユーザが苦しいと前記提示手段が判断した場合、前記障害物の傾斜角度を一定にする、請求項2に記載の情報処理プログラム。
  26. ユーザから取得した生体信号に応じた情報を提示する情報処理装置であって、
    ユーザから生体信号を取得する生体信号取得手段と、
    ユーザの動きまたは姿勢の情報を検出する検出手段から、前記生体信号取得手段が取得した生体信号と関連させて当該情報を取得する動き・姿勢情報取得手段と、
    前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、所定の提示を行う提示手段とを備え
    前記提示手段は、前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、表示装置に表示された単一のオブジェクトを制御することによって、前記提示を行う、情報処理装置。
  27. ユーザから取得した生体信号に応じた情報を提示する情報処理システムであって、
    ユーザから生体信号を取得する生体信号取得手段と、
    ユーザの動きまたは姿勢の情報を検出する検出手段から、前記生体信号取得手段が取得した生体信号と関連させて当該情報を取得する動き・姿勢情報取得手段と、
    前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、所定の提示を行う提示手段とを備え、
    前記提示手段は、前記生体信号取得手段が取得した生体信号および前記動き・姿勢情報取得手段が取得した情報の両方に基づいて、表示装置に表示された単一のオブジェクトを制御することによって、前記提示を行う、情報処理システム。
  28. ユーザから取得した生体信号に応じた情報を提示する情報処理方法であって、
    ユーザから生体信号を取得する生体信号取得ステップと、
    ユーザの動きまたは姿勢の情報を検出する検出手段から、前記生体信号取得ステップにおいて取得した生体信号と関連させて当該情報を取得する動き・姿勢情報取得ステップと、
    前記生体信号取得ステップにおいて取得した生体信号および前記動き・姿勢情報取得ステップにおいて取得した情報の両方に基づいて、所定の提示を行う提示ステップとを含み、
    前記提示ステップでは、前記生体信号取得ステップにおいて取得した生体信号および前記動き・姿勢情報取得ステップにおいて取得した情報の両方に基づいて、表示装置に表示された単一のオブジェクトを制御することによって、前記提示が行われる、情報処理方法。
JP2009076919A 2009-03-26 2009-03-26 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Active JP4936479B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009076919A JP4936479B2 (ja) 2009-03-26 2009-03-26 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US12/559,667 US9623330B2 (en) 2009-03-26 2009-09-15 Storage medium having stored thereon information processing program, and information processing device
US13/861,599 US9327190B2 (en) 2009-03-26 2013-04-12 Storage medium having stored thereon information processing program, and information procesing device
US14/844,781 US10709978B2 (en) 2009-03-26 2015-09-03 Storage medium having stored thereon information processing program, and information processing device
US16/890,874 US20200289927A1 (en) 2009-03-26 2020-06-02 Storage medium having stored thereon information processing program, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076919A JP4936479B2 (ja) 2009-03-26 2009-03-26 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2010231399A JP2010231399A (ja) 2010-10-14
JP4936479B2 true JP4936479B2 (ja) 2012-05-23

Family

ID=42785067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076919A Active JP4936479B2 (ja) 2009-03-26 2009-03-26 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
US (4) US9623330B2 (ja)
JP (1) JP4936479B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4936479B2 (ja) 2009-03-26 2012-05-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11253781B2 (en) 2009-07-10 2022-02-22 Valve Corporation Player biofeedback for dynamically controlling a video game state
US9511289B2 (en) * 2009-07-10 2016-12-06 Valve Corporation Player biofeedback for dynamically controlling a video game state
JP5693942B2 (ja) * 2010-12-21 2015-04-01 任天堂株式会社 情報処理システム及び情報処理方法
JP5745265B2 (ja) * 2010-12-22 2015-07-08 株式会社ソニー・コンピュータエンタテインメント 信号処理装置、タッチパネルユニット、情報処理装置および信号処理方法
EP2699161A1 (en) * 2011-04-18 2014-02-26 Cercacor Laboratories, Inc. Pediatric monitor sensor steady game
JP6035837B2 (ja) * 2012-04-18 2016-11-30 セイコーエプソン株式会社 画像生成装置、画像表示装置、画像生成方法、表示制御方法、画像生成プログラム及び表示制御プログラム
EP3113682A4 (en) * 2014-03-06 2017-03-29 Virtual Reality Medical Applications, Inc. Virtual reality medical application system
US10444849B2 (en) 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
JP6807696B2 (ja) * 2016-10-06 2021-01-06 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、及びビデオゲーム処理システム
JP6660321B2 (ja) * 2017-02-08 2020-03-11 株式会社バンダイナムコアミューズメント シミュレーションシステム及びプログラム
USD828337S1 (en) 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller
JP6663458B2 (ja) * 2018-08-03 2020-03-11 株式会社コーエーテクモゲームス 情報処理装置、配置方法及び配置プログラム
JP6743102B2 (ja) * 2018-09-06 2020-08-19 株式会社アグニ・フレア ゲームプログラム、記録媒体及びゲーム制御方法
CN109907741B (zh) * 2019-03-06 2022-04-01 智美康民(珠海)健康科技有限公司 三维脉波的显示方法、装置、计算机设备及存储介质
JP7164815B2 (ja) * 2019-08-07 2022-11-02 株式会社カプコン ゲームプログラムおよびゲームシステム
US11931127B1 (en) 2021-04-08 2024-03-19 T-Mobile Usa, Inc. Monitoring users biological indicators using a 5G telecommunication network
US20240001231A1 (en) * 2022-06-29 2024-01-04 Superplay Ltd Altering computer game tiles having multiple matchable ends
US11857882B1 (en) * 2022-06-29 2024-01-02 Superplay Ltd Altering computer game tiles having multiple matchable ends

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209A (ja) * 1992-06-19 1994-01-11 Matsushita Electric Works Ltd リラックス・リフレッシュシステム
JP3381074B2 (ja) 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
US5672107A (en) * 1996-01-31 1997-09-30 Federal Patent Corporation Integral video game and cardio-waveform display
JPH09308770A (ja) * 1996-03-18 1997-12-02 Ikyo Kk 心身状態を反映させたゲーム機及び心身状態の判断のためのデータを表示する方法及び心身状態を判定して表明する方法及び心身状態に基づいて制御対象を制御する方法
JPH1043430A (ja) * 1996-08-07 1998-02-17 Ikyo Kk ゲーム機
JPH1057629A (ja) * 1996-08-23 1998-03-03 Ikyo Kk ゲーム機
JPH1139564A (ja) * 1997-07-15 1999-02-12 Omron Corp アミューズメント施設のアトラクションの利用料金算定方法,利用料金算定システム,利用料金徴収システム及び管理支援システム
US6740075B2 (en) * 2000-01-21 2004-05-25 Medtronic Minimed, Inc. Ambulatory medical apparatus with hand held communication device
US20020109600A1 (en) * 2000-10-26 2002-08-15 Mault James R. Body supported activity and condition monitor
JP4144269B2 (ja) 2002-06-28 2008-09-03 ヤマハ株式会社 演奏処理装置
WO2004052203A1 (en) * 2002-12-10 2004-06-24 Koninklijke Philips Electronics N.V. Activity monitoring
US7331870B2 (en) * 2003-05-16 2008-02-19 Healing Rhythms, Llc Multiplayer biofeedback interactive gaming environment
EP1779344A4 (en) 2004-07-29 2009-08-19 Motiva Llc SYSTEM FOR MEASURING HUMAN MOVEMENT
US20060047202A1 (en) 2004-09-02 2006-03-02 Elliott Stephen B Method and system of breathing therapy for reducing sympathetic predominance with consequent positive modification of hypertension
US20060172801A1 (en) * 2005-01-31 2006-08-03 Saied Hussaini Video game controller with rechargeable battery system
US8308563B2 (en) * 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
JP5196515B2 (ja) * 2006-04-25 2013-05-15 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP4863761B2 (ja) * 2006-05-09 2012-01-25 任天堂株式会社 ゲーム装置およびゲームプログラム
DE102006057709B4 (de) 2006-12-07 2015-04-02 Dräger Medical GmbH Vorrichtung und Verfahren zum Bestimmen einer Atemfrequenz
JP4936479B2 (ja) 2009-03-26 2012-05-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
US20100249494A1 (en) 2010-09-30
US9623330B2 (en) 2017-04-18
US20150374282A1 (en) 2015-12-31
JP2010231399A (ja) 2010-10-14
US20200289927A1 (en) 2020-09-17
US9327190B2 (en) 2016-05-03
US20130231186A1 (en) 2013-09-05
US10709978B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
JP4936479B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5804405B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP5361349B2 (ja) 情報処理装置、コンピュータプログラム、情報処理システム、および情報処理方法
JP4986279B2 (ja) ゲームプログラムおよびゲーム装置
US9501158B2 (en) Storage medium having stored thereon information processing program and information processing apparatus
US8313376B2 (en) Computer-readable storage medium having game program stored therein and game apparatus
WO2012093950A2 (en) Interactive wearable videogame through the use of wireless electronic sensors and physical objects
JP2012183256A (ja) 情報処理システム、情報処理プログラム、および情報処理方法
JP5578515B2 (ja) 生体情報処理プログラム、生体情報処理装置、生体情報処理方法および生体情報処理システム
US20210060423A1 (en) Information processing system, non-transitory storage medium having stored therein information processing program, information processing apparatus, and information processing method
JP5578518B2 (ja) 呼吸指示プログラム、呼吸指示装置、呼吸指示システム、および呼吸指示処理方法
US8449392B2 (en) Storage medium having game program stored therein, game apparatus, control method, and game system using a heartbeat for performing a game process in a virtual game world
JP2001346901A (ja) 縄跳び運動装置
US8821298B2 (en) Game system, game method, game device, and storage medium storing game program
US9604141B2 (en) Storage medium having game program stored thereon, game apparatus, game system, and game processing method
JP2008142509A (ja) ゲームシステムおよびゲームプログラム
JP5737667B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
Rekimoto et al. Sensing gamepad: electrostatic potential sensing for enhancing entertainment oriented interactions
JP2008200115A (ja) 入力制御装置およびその信号処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111226

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4936479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250