JP7132159B2 - 動作支援装置の制御装置 - Google Patents

動作支援装置の制御装置 Download PDF

Info

Publication number
JP7132159B2
JP7132159B2 JP2019043699A JP2019043699A JP7132159B2 JP 7132159 B2 JP7132159 B2 JP 7132159B2 JP 2019043699 A JP2019043699 A JP 2019043699A JP 2019043699 A JP2019043699 A JP 2019043699A JP 7132159 B2 JP7132159 B2 JP 7132159B2
Authority
JP
Japan
Prior art keywords
user
motion
waist
movement
walking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043699A
Other languages
English (en)
Other versions
JP2020146101A (ja
Inventor
泰三 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019043699A priority Critical patent/JP7132159B2/ja
Priority to CN202010106732.4A priority patent/CN111671620B/zh
Priority to US16/807,186 priority patent/US20200289034A1/en
Publication of JP2020146101A publication Critical patent/JP2020146101A/ja
Application granted granted Critical
Publication of JP7132159B2 publication Critical patent/JP7132159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6812Orthopaedic devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6828Leg
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6829Foot or ankle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/005Appliances for aiding patients or disabled persons to walk about with knee, leg or stump rests
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/007Appliances for aiding patients or disabled persons to walk about secured to the patient, e.g. with belts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/164Feet or leg, e.g. pedal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5084Acceleration sensors

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)

Description

本発明は、ユーザの所定動作を支援する動作支援装置の制御装置に関する。
従来、特許文献1に記載された動作推定手法が知られている。この動作推定手法では、1個の携帯端末がユーザの太腿部に装着され、この携帯端末内の加速度センサの検出信号に基づき、ユーザの動作が推定される。具体的には、加速度センサの検出信号に基づいて、3軸方向(xyz軸方向)の加速度が算出され、これらの加速度の絶対値の大小関係の変化などに基づいて、ユーザの姿勢が「立ち姿勢」と「座り姿勢」及び「しゃがみ姿勢」の一方との間で移行したか否かが推定される。
特開2018-15023号公報
上記従来の動作推定手法によれば、1個の加速度センサを用いて、ユーザの動作の移行を推定しているので、以下に述べるような問題がある。すなわち、ユーザの姿勢が大きく変化し、3軸方向の加速度の絶対値の大小関係が大きく変化しない限り、動作の開始を推定できない。すなわち、ユーザの動作開始の推定までに時間を要するという問題がある。
そのため、この動作推定手法をユーザの歩行動作などを支援する動作支援装置の制御装置に適用した場合、ユーザの動作開始の推定までに時間を要することで、動作支援を迅速に実行できず、むしろ、動作支援装置自体がユーザの動作を阻害してしまう可能性がある。
本発明は、上記課題を解決するためになされたもので、動作支援装置を装着したユーザが所定動作を実行する際に、その所定動作を迅速かつ適切に支援することができる動作支援装置の制御装置を提供することを目的とする。
上記目的を達成するために、本発明は、ユーザMの少なくとも下半身の動作を支援するためにユーザMに装着される動作支援装置(歩行アシスト装置1)の制御装置10であって、ユーザMの左足平部の動作を検出可能な第1動作センサ(左足動作センサ26)と、ユーザMの右足平部の動作を検出可能な第2動作センサ(右足動作センサ27)と、ユーザMの腰部の動作を検出可能な第3動作センサ(腰動作センサ28)と、第1~第3動作センサの検出信号に応じて、ユーザMが立位状態にあるか否かを推定する立位状態推定部(アシストコントローラ11、STEP7~8)と、第3動作センサの検出信号に応じて、ユーザMの腰部の移動状態を表す腰移動状態パラメータ(腰部のx軸方向速度V_Wx、腰部のx軸方向速度の絶対値VA_Wx、腰部のy軸方向速度の絶対値VA_Wy)を算出する腰移動状態パラメータ算出部(アシストコントローラ11)と、ユーザMが立位状態にあると推定されている場合において、腰移動状態パラメータがユーザMの腰部の後方への移動を示す所定範囲内の値になったときに、ユーザMのしゃがみ動作が立位状態から開始されたと推定する動作推定部(アシストコントローラ11、STEP40~43)と、ユーザMのしゃがみ動作が開始されたと推定された場合には、しゃがみ動作を支援するように、動作支援装置を制御する制御部(アシストコントローラ11、STEP90~96)と、を備えることを特徴とする。
この動作支援装置の制御装置によれば、第1~第3動作センサの検出信号に応じて、ユーザが立位状態にあるか否かが推定される。この場合、第1~第3動作センサが左足平部、右足平部及び腰部の動作(モーション)をそれぞれ検出可能であるので、左足平部及び右足平部と腰部との位置関係から、ユーザが立位状態にあるか否かを精度よく推定することができる。また、第3動作センサの検出信号に応じて、ユーザの腰部の移動状態を表す腰移動状態パラメータが算出され、ユーザが立位状態にあると推定されている場合において、腰移動状態パラメータがユーザの腰部の後方への移動を示す所定範囲内の値になったときに、ユーザのしゃがみ動作が立位状態から開始されたと推定される。
この場合、本出願人の実験により、人間が立位状態からしゃがみ動作を開始するときには、腰部の後方又は横方向への移動動作が最初に実行されるという知見が得られた(後述する図4,6,7参照)。したがって、腰移動状態パラメータがユーザの腰部の後方への移動を示す所定範囲内の値になったことを条件として、ユーザのしゃがみ動作が立位状態から開始されたか否かを精度よく推定することができる。さらに、以上のように、ユーザのしゃがみ動作が立位状態から開始されたことを精度よく推定した場合において、しゃがみ動作を支援するように、動作支援装置が制御されるので、動作支援装置によってユーザのしゃがみ動作を迅速かつ適切に支援することができる(なお、本明細書における「しゃがみ動作」は、立位状態から完全にしゃがんだ状態になるまでの一連の動作を意味する)。
本発明において、ユーザMの頭部の動作を検出可能な第4動作センサ(頭動作センサ29)と、第4動作センサの検出信号に応じて、ユーザMの頭部の前傾角度θheadを算出する前傾角度算出部(アシストコントローラ11)と、をさらに備え、動作推定部は、ユーザMが立位状態にあると推定されている場合において、腰移動状態パラメータが所定範囲内の値になるとともにユーザMの頭部の前傾角度θheadが第2所定範囲内の値になったとき(STEP51,55~56がYESのとき)に、ユーザMのしゃがみ動作が立位状態から開始されたと推定する(STEP58)ことが好ましい。
この動作支援装置の制御装置によれば、ユーザが立位状態にあると推定されている場合において、腰移動状態パラメータが所定範囲内の値になるとともにユーザの頭部の前傾角度が第2所定範囲内の値になったときに、ユーザのしゃがみ動作が立位状態から開始されたと推定される。この場合、本出願人の実験により、人間が立位状態からしゃがみ動作を開始するときには、上述したユーザの腰部の後方への移動動作に加えて、ユーザの頭部の前傾動作が伴うという知見が得られた(後述する図4参照)。したがって、上記のように、ユーザの腰部の後方への移動動作に加えて、頭部の前傾動作を条件として、立位状態からのしゃがみ動作の開始が推定されるので、その推定精度をさらに向上させることができる。それにより、動作支援装置の制御精度をさらに向上させることができる。
前述した目的を達成するために、別の本発明は、ユーザMの少なくとも下半身の動作を支援するためにユーザMに装着される動作支援装置(歩行アシスト装置1)の制御装置10であって、ユーザMの左足平部の動作を検出可能な第1動作センサ(左足動作センサ26)と、ユーザMの右足平部の動作を検出可能な第2動作センサ(右足動作センサ27)と、ユーザMの腰部の動作を検出可能な第3動作センサ(腰動作センサ28)と、第1~第3動作センサの検出信号に応じて、ユーザMが立位状態にあるか否かを推定する立位状態推定部(アシストコントローラ11、STEP7~8)と、第3動作センサの検出信号に応じて、ユーザMの腰部の移動状態を表す腰移動状態パラメータ(腰部のx軸方向速度V_Wx、腰部のx軸方向速度の絶対値VA_Wx、腰部のy軸方向速度の絶対値VA_Wy)を算出する腰移動状態パラメータ算出部(アシストコントローラ11)と、ユーザMが立位状態にあると推定されている場合において、腰移動状態パラメータがユーザMの腰部の横方向への移動を示す所定範囲内の値になったときに、ユーザMの歩行動作が立位状態から開始されたと推定する動作推定部(アシストコントローラ11、STEP40~43)と、ユーザMの歩行動作が開始されたと推定された場合には、歩行動作を支援するように、動作支援装置を制御する制御部(アシストコントローラ11、STEP90~96)と、を備えることを特徴とする。
前述したように、本出願人の実験により、人間が立位状態から歩行動作を開始するときには、腰の横方向の移動動作が最初に実行されるという知見が得られた(後述する図6,7参照)。したがって、この動作支援装置の制御装置によれば、腰移動状態パラメータが腰部の横方向への移動を示す所定範囲内の値になったときに、ユーザの歩行動作が立位状態から開始されたと推定されるので、この推定を精度よく実行することができる。さらに、以上のように、ユーザの歩行動作の開始が精度よく推定されている場合において、その歩行動作を支援するように、動作支援装置が制御されるので、ユーザが歩行動作を開始する際に、その歩行動作を動作支援装置によって迅速かつ適切に支援することができる(なお、本明細書における「歩行動作」は、立位状態から完全に歩行状態になるまでの一連の動作を意味する)。
別の本発明において、動作推定部は、ユーザMが立位状態にあると推定されている場合において、腰移動状態パラメータが腰部の横方向への移動を示す所定範囲内の値になりかつ腰部の前方への移動を示す第3所定範囲内の値になったとき(STEP70~71がYESのとき)に、ユーザMの歩行動作が立位状態から開始されたと推定することが好ましい。
本出願人の実験により、人間が立位状態から歩行動作を開始するときには、腰部の横方向への移動に加えて、腰部の前方への移動が最初に実行されるという知見が得られた(後述する図7参照)。したがって、この動作支援装置の制御装置によれば、腰移動状態パラメータが腰部の横方向への移動を示す所定範囲内の値になりかつ腰部の前方への移動を示す第3所定範囲内の値になったときに、ユーザの歩行動作が立位状態から開始されたと推定されるので、その推定精度をさらに向上させることができる。それにより、動作支援装置の制御精度をさらに向上させることができる。
前述した目的を達成するために、他の本発明は、ユーザMの少なくとも下半身の動作を支援するためにユーザMに装着される動作支援装置(歩行アシスト装置1)の制御装置10であって、ユーザMの左足平部の動作を検出可能な第1動作センサ(左足動作センサ26)と、ユーザMの右足平部の動作を検出可能な第2動作センサ(右足動作センサ27)と、ユーザMの腰部の動作を検出可能な第3動作センサ(腰動作センサ28)と、ユーザMの頭部の動作を検出可能な第4動作センサ(頭動作センサ29)と、第1~第3動作センサの検出信号に応じて、ユーザMが座位状態にあるか否かを推定する座位状態推定部(アシストコントローラ11、STEP5~6)と、第3動作センサ及び第4動作センサの検出信号に応じて、ユーザMの上半身の前傾状態を表す前傾状態パラメータ(上半身の前傾角度θupper)を算出する前傾状態パラメータ算出部(アシストコントローラ11)と、ユーザMが座位状態にあると推定されている場合において、前傾状態パラメータがユーザMの上半身が前傾したこと示す第4所定範囲内の値になったときに、ユーザMの立ち上がり動作が座位状態から開始されたと推定する動作推定部(アシストコントローラ11、STEP85,87)と、ユーザMの立ち上がり動作が開始されたと推定された場合には、立ち上がり動作を支援するように、動作支援装置を制御する制御部(アシストコントローラ11、STEP95~96)と、を備えることを特徴とする。
この動作支援装置の制御装置によれば、第1~第3動作センサの検出信号に応じて、ユーザが座位状態にあるか否かが推定される。この場合、第1~第3動作センサは、左足平部、右足平部及び腰部の動作を検出可能であるので、左足平部及び右足平部と腰部との位置関係から、ユーザが座位状態にあることを精度よく推定することができる。また、第3動作センサ及び第4動作センサの検出信号に応じて、ユーザの上半身の前傾状態を表す前傾状態パラメータが算出され、ユーザが座位状態にあると推定されている場合において、前傾状態パラメータがユーザの上半身が前傾したこと示す第4所定範囲内の値になったときに、ユーザの所定動作としての立ち上がり動作が座位状態から開始されたと推定される。
この場合、本出願人の実験により、人間が座位状態から立ち上がり動作を開始するときには、上体を前方に傾ける動作、すなわち頭部と腰部が前後方向に互いに遠ざかるように移動する動作が最初に実行されるという知見が得られた(後述する図5参照)。したがって、前傾状態パラメータがユーザの上半身が前傾したこと示す第4所定範囲内の値になったことを条件として、ユーザの立ち上がり動作が座位状態から開始されたか否かを精度よく推定することができる。さらに、ユーザの立ち上がり動作の開始が精度よく推定されている場合において、その立ち上がり動作を支援するように、動作支援装置が制御されるので、ユーザが立ち上がり動作を開始する際に、その立ち上がり動作を動作支援装置によって迅速かつ適切に支援することができる(なお、本明細書における「立ち上がり動作」は、座位状態から完全に立ち上がった状態になるまでの一連の動作を意味する)。
他の本発明において、第4動作センサ(頭動作センサ29)の検出信号に応じて、ユーザMの頭部の前傾角度θheadを算出する頭部前傾角度算出部(アシストコントローラ11)をさらに備え、動作推定部は、ユーザMが座位状態にあると推定されている場合において、前傾状態パラメータが第4所定範囲内の値になりかつ頭部の前傾角度が第5所定範囲内の値になったとき(STEP81,85がYESのとき)に、ユーザMの立ち上がり動作が座位状態から開始されたと推定する(STEP87)ことが好ましい。
この動作支援装置の制御装置によれば、ユーザが座位状態にあると推定されている場合において、前傾状態パラメータが第4所定範囲内の値になりかつ頭部の前傾角度が第5所定範囲内の値になったときに、ユーザの立ち上がり動作が座位状態から開始されたと推定される。この場合、本出願人の実験により、人間が座位状態から立ち上がり動作を開始するときには、ユーザの上半身の前傾動作に加えて、ユーザの頭部の前傾動作が伴うという知見が得られた(後述する図5参照)。したがって、上記のように、ユーザの上半身の前傾動作に加えて、頭部の前傾動作を条件として、座位状態からの立ち上がり動作の開始が推定されるので、その推定精度をさらに向上させることができる。それにより、動作支援装置の制御精度をさらに向上させることができる。
本発明の一実施形態に係る制御装置及びこれを適用した歩行アシスト装置の構成を模式的に示す斜視図である。 歩行アシスト装置の側面図である。 制御装置の電気的な構成を示すブロック図である。 被験者がしゃがみ動作を実行したときの姿勢の変化を示す図である。 被験者が立ち上がり動作を実行したときの姿勢の変化を示す図である。 被験者が歩行動作を実行したときの姿勢の変化を示す図である。 図6の横傾き姿勢C2の俯瞰図である。 動作状態推定処理を示すフローチャートである。 歩行推定処理を示すフローチャートである。 動作開始推定処理を示すフローチャートである。 しゃがみ開始推定処理を示すフローチャートである。 歩行開始推定処理を示すフローチャートである。 立ち上がり開始推定処理を示すフローチャートである。 アシスト制御処理を示すフローチャートである。 しゃがみ動作を開始する際の各種パラメータの推移を示すタイミングフローチャートである。
以下、図面を参照しながら、本発明の一実施形態に係る動作支援装置の制御装置について説明する。図1及び図2に示すように、本実施形態の制御装置10は、動作支援装置としての歩行アシスト装置1の動作状態を制御するものであり、まず、この歩行アシスト装置1について説明する。
この歩行アシスト装置1は、ユーザMの歩行動作などをアシストするものであり、動力源としての駆動装置9(図3参照)を備えたアクティブ型のものである。なお、以下の説明では、歩行アシスト装置1及びこれを装着したユーザMの前後方向を「前後」といい、左右方向を「左右」といい、上下方向を「上下」という。
この歩行アシスト装置1は、具体的には、例えば特許第4872821号に記載されたものと同様に構成されているので、その詳細な説明はここでは省略するが、着座部材2及び左右一対の脚リンク機構3,3を備えている。ユーザMは、歩行アシスト装置1を装着した場合には、この着座部材2に着座した状態となる。
また、脚リンク機構3,3の各々は、第1関節部4、第1リンク部材5、第2関節部6及び第2リンク部材7を備えている。第1リンク部材5は、第1関節部4を介して、着座部材2に対して揺動自在に連結されている。さらに、第1リンク部材5は、第2関節部6を介して、第2リンク部材7に回動自在に連結されている。
また、各脚リンク機構3の第2リンク部材7の下端には、靴形の接地部材8が連結されている。歩行アシスト装置1がユーザMに装着される際には、ユーザMの左右の足平部が接地部材8に挿入される。
さらに、脚リンク機構3には、駆動装置9が取り付けられている。この駆動装置9は、電動機と減速ギヤ機構(いずれも図示せず)を組み合わせたものであり、アシストコントローラ11に電気的に接続されている。駆動装置9は、後述するように、アシストコントローラ11によって制御されることにより、第2リンク部材7を、第1リンク部材5との間の角度が変化するように駆動する。それにより、ユーザMの体重を支持するようなアシスト力を発生させ、ユーザMの歩行をアシストすることが可能になる。
次に、図3を参照しながら、制御装置10について説明する。同図に示すように、制御装置10は、アシストコントローラ11及びバッテリ12を備えており、これらのアシストコントローラ11及びバッテリ12はいずれも、着座部材2に内蔵されている。
アシストコントローラ11は、CPU、RAM、ROM、I/Oインターフェース、無線通信回路及び各種の電気回路(いずれも図示せず)などからなるマイクロコンピュータで構成されており、バッテリ12からの電力供給によって作動する。このROM内には、後述する動作状態推定処理などを実行するための各種のプログラムが記憶されている。
なお、本実施形態では、アシストコントローラ11が、立位状態推定部、腰移動状態パラメータ算出部、動作推定部、制御部、前傾角度算出部、座位状態推定部及び前傾状態パラメータ算出部に相当する。
アシストコントローラ11には、左足圧センサ20、右足圧センサ21、左関節力センサ22、右関節力センサ23、着座部力センサ24、把持力センサ25、左足動作センサ26、右足動作センサ27、腰動作センサ28及び頭動作センサ29が電気的に接続されている。
左足圧センサ20及び右足圧センサ21はそれぞれ、左右の接地部材8,8の底部に内蔵されており、左右の接地部材8,8の底部に作用する圧力を検出して、それらを表す検出信号をアシストコントローラ11に出力する。アシストコントローラ11は、左右の足圧センサ20,21の検出信号に基づいて、ユーザMの左右の足平部が接地部材8に装着されたことを判定する。
また、左関節力センサ22及び右関節力センサ23はそれぞれ、左右の第2関節部6,6に設けられており、これらに作用する力を検出して、それらを表す検出信号をアシストコントローラ11に出力する。
さらに、着座部力センサ24は、着座部材2とユーザMの股部との間に作用する力を検出して、それを表す検出信号をアシストコントローラ11に出力し、把持力センサ25は、着座部材2の把持部2aに作用する力を検出して、それを表す検出信号をアシストコントローラ11に出力する。
一方、左足動作センサ26及び右足動作センサ27は、慣性計測ユニット(inertial measurement unit)タイプのものであり、左右の接地部材8,8の足平部にそれぞれ設けられているとともに、アシストコントローラ11との間で無線通信可能に構成されている。左右の足動作センサ26,27は、左右の接地部材8,8における、3軸(xyz軸)方向の加速度、3軸方向の回転角及び3軸方向の位置を検出して、それらを表す検出信号を無線信号としてアシストコントローラ11に出力する。
アシストコントローラ11は、左右の足動作センサ26,27の検出信号に基づき、ユーザMの左右の足平部における3軸方向の速度及び位置などを算出する。なお、本実施形態では、左足動作センサ26が第1動作センサに相当し、右足動作センサ27が第2動作センサに相当する。
また、腰動作センサ28も、慣性計測ユニットタイプのものであり、ユーザMの腰部にベルトなどを介して装着されるとともに、アシストコントローラ11との間で無線通信可能に構成されている。この腰動作センサ28は、ユーザMの腰部における、3軸(xyz軸)方向の加速度、3軸方向の回転角及び3軸方向の位置を検出して、それらを表す検出信号を無線信号としてアシストコントローラ11に出力する。
アシストコントローラ11は、腰動作センサ28の検出信号に基づき、ユーザMの腰部における3軸方向の速度及び位置などを算出する。なお、本実施形態では、腰動作センサ28が第3動作センサに相当する。
さらに、頭動作センサ29も、慣性計測ユニットタイプのものであり、ユーザMの頭頂部に帽子などを介して装着されるとともに、アシストコントローラ11との間で無線通信可能に構成されている。この頭動作センサ29は、ユーザMの頭頂部における、3軸(xyz軸)方向の加速度、3軸方向の回転角及び3軸方向の位置を検出して、それらを表す検出信号を無線信号としてアシストコントローラ11に出力する。
アシストコントローラ11は、頭動作センサ29の検出信号に基づき、ユーザMの頭部における傾斜角度及び位置などを算出する。この場合、ユーザMの頭部における傾斜角度は、前傾方向すなわちお辞儀方向のときに正値を示すように算出される。なお、本実施形態では、頭動作センサ29が第4動作センサに相当する。
また、以上の4個の動作センサ26~29の場合、歩行アシスト装置1を装着したユーザMが立位状態にある場合において、各センサの取付位置を原点としたときに、部屋座標系における前後方向がx軸方向として、左右方向がy軸方向として、上下方向がz軸方向としてそれぞれ設定される。また、各センサにおいて、x軸方向の検出値は、原点よりも前方が正値として、原点よりも後方が負値としてそれぞれ設定され、y軸方向の検出値は、原点よりも左方が正値として、原点よりも右方が負値としてそれぞれ設定される。さらに、z軸方向の検出値は、原点よりも上方が正値として、原点よりも下方が負値としてそれぞれ設定される。
アシストコントローラ11は、以上の4個の動作センサ26~29の検出信号に応じて、後述するように、動作推定処理を実行するとともに、10個のセンサ20~29の検出信号に応じて、アシスト制御処理を実行する。
次に、アシストコントローラ11における動作推定の原理について説明する。まず、図4を参照しながら、ユーザMが立位状態からしゃがみ動作を開始したか否かを推定する手法の原理について説明する。同図は、歩行アシスト装置1を必要としない健常な被験者M2が立位状態からしゃがんだ状態になるまでのしゃがみ動作を多数回、繰り返して実行したときの姿勢の変化を、モーションキャプチャ手法によって取得し、それらを平均化して表したものである。
同図において、COPは床反力作用点を、Lcは腰動作センサ28のxyz軸の原点を通る鉛直線(すなわちz軸線)をそれぞれ表している。また、矢印Ar1は腰部のx軸方向の移動速度を、矢印Ar2は腰部のz軸方向の移動速度を、床反力作用点COPから上方に延びる矢印Ar3は床からの反力をそれぞれ表している。以上の点は後述する図5~7においても同様である。
図4に示すように、被験者M2が立位状態からしゃがみ動作を実行する場合、まず、被験者M2が立位姿勢A1から頭部のみを前方に傾けることにより、その姿勢が俯き姿勢A2に変化する。次いで、被験者M2が俯き姿勢A2から腰を後方に移動させながら上体を前傾させることにより、その姿勢が前傾姿勢A3に移行する。その後、被験者M2が前傾姿勢A3から腰を落とすことにより、その姿勢が中腰姿勢A4に移行し、さらに腰を落とすことにより、その姿勢が中腰姿勢A5に移行する。
そして、この中腰姿勢A5からさらに腰を落とすことにより、被験者M2の姿勢が最終的にしゃがみ姿勢A6に達する。以上のように、しゃがみ動作が実行されるので、ユーザMが立位状態からしゃがみ動作を開始したか否かを推定する場合、ユーザMの姿勢が立位姿勢A1から前傾姿勢A3まで移行したか否かを判定すればよいことが判る。以上の原理に基づき、本実施形態では、後述する推定手法によって、しゃがみ動作の開始が推定される。
次に、図5を参照しながら、ユーザMが座位状態から立ち上がり動作を開始したか否かを推定する手法の原理について説明する。同図は、上述した被験者M2が座位状態から立位状態になるまでの立ち上がり動作を多数回、繰り返して実行したときの姿勢の変化を、モーションキャプチャ手法によって取得し、それらを平均化して表したものである。
同図に示すように、被験者M2が座位状態から立ち上がり動作を実行する場合、まず、被験者M2が座位姿勢B1から頭部のみを前方に傾けることにより、その姿勢が俯き姿勢B2に変化する。次いで、被験者M2が俯き姿勢B2から上体を前傾させることにより、その姿勢が前傾姿勢B3に移行する。その後、被験者M2が前傾姿勢B3から腰を斜め上方に移動させることにより被験者M2の姿勢が中腰姿勢B4に移行し、この中腰姿勢B4から腰を上方に移動させることにより、姿勢が中腰姿勢B5に移行する。
そして、被験者M2が中腰姿勢B5から腰をさらに上方に移動させることにより、被験者M2の姿勢が最終的に立位姿勢B6に達する。以上のように、立ち上がり動作が実行されるので、ユーザMが座位状態から立ち上がり動作を開始したか否かを推定する場合、ユーザMの姿勢が座位姿勢B1から前傾姿勢B3まで移行したか否かを判定すればよいことが判る。以上の原理に基づき、本実施形態では、後述する推定手法によって、立ち上がり動作の開始が推定される。
次に、図6及び図7を参照しながら、ユーザMが立位状態から歩行動作を開始したか否かを推定する手法の原理について説明する。図6は、前述した被験者M2が立位状態から歩行状態になるまでの歩行開始動作を多数回、繰り返して実行したときの姿勢の変化を、モーションキャプチャ手法によって取得し、それらを平均化して表したものであり、図7は、図6の横傾き姿勢C2を上方から見たものである。
図6に示すように、被験者M2が立位状態からしゃがみ動作を実行する場合、まず、被験者M2が立位姿勢C1から腰部を斜め前方(図6及び図7は右斜め前方)に移動させることにより、その姿勢が横傾き姿勢C2に変化する。次いで、被験者M2が腰を移動させた方向と逆側の足を上げることにより、その姿勢が足上げ姿勢C3に移行する。この後、図示しないが、被験者M2が上げた足を床に着けながら、足を着けた方向に腰を移動させることにより、被験者M2が歩行動作状態に移行する。
以上のように、歩行動作が被験者M2によって実行されるので、ユーザMの姿勢が立位姿勢C1から横傾き姿勢C2まで移行したか否かを判定すればよいことが判る。以上の原理に基づき、本実施形態では、後述する推定手法によって、歩行動作の開始が推定される。
次に、図8を参照しながら、動作状態推定処理について説明する。この動作状態推定処理は、歩行アシスト装置1を装着したユーザM(以下単に「ユーザM」という)の動作状態を推定するものであり、アシストコントローラ11によって所定の制御周期で実行される。なお、以下の説明において算出及び設定される各種の値は、アシストコントローラ11のRAM内に記憶されるものとする。
同図に示すように、まず、歩行推定処理を実行する(図8/STEP1)。この歩行推定処理は、ユーザMが歩行状態にあるか否かを推定するものであり、具体的には、図9に示すように実行される。
同図に示すように、まず、VA_LFx<Vlow、VA_LFy<Vlow及びVA_LFz<Vlowがいずれも成立しているか否かを判定する(図9/STEP20)。この場合、VA_LFxはユーザMの左足平部のx軸方向速度の絶対値を、VA_LFyはユーザMの左足平部のy軸方向速度の絶対値を、VA_LFzはユーザMの左足平部のz軸方向速度の絶対値をそれぞれ表すものであり、これらの値は左足動作センサ26の検出信号に基づいて算出される。また、Vlowは、Vlow≒0が成立する正の所定値である。
この判定が否定であるとき(図9/STEP20…NO)、すなわちユーザMの左足平部が移動状態にあるときには、ユーザMが歩行中であると推定して、それを表すために、歩行中フラグF_WALKを「1」に設定すると同時に、歩行終了フラグF_WALK_END及び停止中フラグF_STOPをいずれも「0」に設定する(図9/STEP21)。その後、本処理を終了する。
一方、上記の判定が肯定であるとき(図9/STEP20…YES)、すなわちユーザMの左足平部が停止状態にあるときには、VA_RFx<Vlow、VA_RFy<Vlow及びVA_RFz<Vlowがいずれも成立しているか否かを判定する(図9/STEP22)。この場合、VA_RFxはユーザMの右足平部のx軸方向速度の絶対値を、VA_RFyはユーザMの右足平部のy軸方向速度の絶対値を、VA_RFzはユーザMの右足平部のz軸方向速度の絶対値をそれぞれ表すものであり、これらの値は右足動作センサ27の検出信号に基づいて算出される。
この判定が否定であるとき(図9/STEP22…NO)、すなわちユーザMの右足平部が移動状態にあるときには、ユーザMが歩行中であると推定して、それを表すために、前述したように、歩行中フラグF_WALKを「1」に設定すると同時に、歩行終了フラグF_WALK_END及び停止中フラグF_STOPをいずれも「0」に設定する(図9/STEP21)。その後、本処理を終了する。
一方、上述した判定が肯定であるとき(図9/STEP22…YES)、すなわちユーザMの左足平及び右足平部がいずれも停止状態にあるときには、歩行終了フラグF_WALK_ENDが「1」であるか否かを判定する(図9/STEP23)。
この判定が否定であるとき(図9/STEP23…NO)には、RAMに記憶されている停止中フラグF_STOPが「0」であるか否かを判定する(図9/STEP24)。
この判定が肯定であるとき(図9/STEP24…YES)、すなわち今回の制御タイミングで、ユーザMの左足平及び右足平部がいずれも停止状態になったときには、それを表すために、停止中フラグF_STOPを「1」に設定する(図9/STEP25)。次いで、停止カウンタの計数値の前回値CTzを値0に設定する(図9/STEP26)。
一方、上述した判定が否定であるとき(図9/STEP24…NO)、すなわち前回以前の制御タイミングで、ユーザMの左足平及び右足平部がいずれも停止状態になっていたときには、停止カウンタの計数値の前回値CTzをRAMに記憶されている停止カウンタの計数値の今回値CTに設定する(図9/STEP27)。
以上のように、停止カウンタの計数値の前回値CTzを値0又は今回値CTに設定した後、停止カウンタの計数値の今回値CTをその前回値CTzと値1の和CTz+1に設定する(図9/STEP28)。すなわち、停止カウンタの計数値の今回値CTを値1インクリメントする。
次いで、停止カウンタの計数値の今回値CTが所定停止値Cstopよりも大きいか否かを判定する(図9/STEP29)。この判定が否定であるとき(図9/STEP29…NO)には、そのまま本処理を終了する。
一方、この判定が肯定であるとき(図9/STEP29…YES)には、ユーザMが歩行を終了したと判定して、それを表すために、歩行終了フラグF_WALK_ENDを「1」に設定する(図9/STEP30)。
このように歩行終了フラグF_WALK_ENDを「1」に設定したとき、又は前述した判定が肯定であるとき(図9/STEP23…YES)には、それらに続けて、ユーザMが歩行中でないことを表すために、歩行中フラグF_WALKを「0」に設定すると同時に、停止中フラグF_STOPを「0」にリセットする(図9/STEP31)。その後、本処理を終了する。
図8に戻り、以上のように、歩行推定処理(図8/STEP1)を実行した後、上述した歩行中フラグF_WALKが「1」であるか否かを判定する(図8/STEP2)。この判定が肯定であるとき(図8/STEP2…YES)、すなわちユーザMが歩行中であると推定されているときには、そのまま本処理を終了する。
一方、この判定が否定(図8/STEP2…NO)で、ユーザMが歩行中でないと推定されているときには、P_W>P_LF及びP_W>P_RFがいずれも成立しているか否かを判定する(図8/STEP3)。この場合、P_WはユーザMの腰部の位置であり、腰動作センサ28の検出信号に基づいて算出される。また、P_LFは、ユーザMの左足平部の位置であり、左足動作センサ26の検出信号に基づいて算出される。さらに、P_RFは、ユーザMの右足平部の位置であり、右足動作センサ27の検出信号に基づいて算出される。
この判定が肯定であるとき(図8/STEP3…YES)には、腰部高さ偏差DHを、最大腰部高さH_W_maxと腰部高さH_Wとの偏差H_W_max-H_Wに設定する(図8/STEP4)。この最大腰部高さH_W_maxは、ユーザMが立位状態にあるときの腰部の高さであり、歩行アシスト装置1の装着時の初期化処理時に設定される。また、腰部高さH_Wは、ユーザMの現在の腰部の高さであり、腰動作センサ28の検出信号に基づいて算出される。
次いで、腰部高さ偏差DHが所定の座位判定値Dsitよりも大きいか否かを判定する(図8/STEP5)。この判定が肯定であるとき(図8/STEP5…YES)には、ユーザMが座位状態にあると推定して、それを表すために、座位状態フラグF_SITを「1」に、立位状態フラグF_STANDを「0」にそれぞれ設定する(図8/STEP6)。その後、本処理を終了する。
一方、上記の判定が否定で(図8/STEP5…NO)、DH≦Dsitが成立しているときには、腰部高さ偏差DHが所定の立位判定値Dstandよりも大きいか否かを判定する(図8/STEP7)。この立位判定値Dstandは、Dstand<Dsitが成立するように設定される。
この判定が肯定であるとき(図8/STEP7…YES)には、ユーザMが立位状態にあると推定して、それを表すために、立位状態フラグF_STANDを「1」に、座位状態フラグF_SITを「0」にそれぞれ設定する(図8/STEP8)。その後、本処理を終了する。
一方、前述した判定が否定で、P_W≦P_LF及びP_W≦P_RFの少なくとも一方が成立しているとき(図8/STEP3…NO)、又はDsit≦DH≦Dstandが成立しているとき(図8/STEP7…NO)には、ユーザMが座位状態及び立位状態のいずれにもないと推定して、それを表すために、座位状態フラグF_SIT及び立位状態フラグF_STANDをいずれも「0」に設定する(図8/STEP9)。その後、本処理を終了する。
以上のように、この動作状態推定処理では、ユーザMが歩行状態にあると推定されたときには、歩行中フラグF_WALKが「1」に設定され、ユーザMが座位状態にあると推定されたときには座位状態フラグF_SITが「1」に設定されるとともに、ユーザMが立位状態にあると推定されたときには、立位状態フラグF_STANDが「1」に設定される。
次に、図10を参照しながら、動作開始推定処理について説明する。この動作開始推定処理は、前述した推定原理に基づく手法により、歩行アシスト装置1を装着したユーザM(以下単に「ユーザM」という)の動作開始を推定するものであり、アシストコントローラ11によって所定の制御周期で実行される。
同図に示すように、まず、前述した立位状態フラグF_STANDが「1」であるか否かを判定する(図10/STEP40)。この判定が肯定で(図8/STEP40…YES)、ユーザMが立位状態にあると推定されているときには、しゃがみ開始推定処理を実行する(図10/STEP41)。
このしゃがみ開始推定処理は、立位状態にあるユーザMがしゃがみ動作を開始したか否かを推定するものであり、具体的には、図11に示すように実行される。同図に示すように、まず、頭部前傾フラグF_HEAD_DWNが「1」であるか否かを判定する(図11/STEP50)。
この判定が否定であるとき(図11/STEP50…NO)には、θhead>θjudが成立しているか否かを判定する(図11/STEP51)。このθheadは、ユーザMの頭部の前傾角度であり、頭動作センサ29の検出信号に基づいて算出される。また、θjudはユーザMが前側に俯いているか否かを判定するための判定値である。
この判定が否定で(図11/STEP51…NO)、ユーザMが前側に俯いていないときには、それを表すために、頭部前傾フラグF_HEAD_DWNを「0」に設定する(図11/STEP52)。次いで、ユーザMがしゃがみ動作を開始していないと推定して、それを表すために、しゃがみ開始フラグF_SIT_STを「0」に設定する(図11/STEP53)。その後、本処理を終了する。
一方、上記の判定が肯定で(図11/STEP51…YES)、θhead>θjudが成立しているときには、ユーザMが前側に俯いたと推定して、それを表すために、頭部前傾フラグF_HEAD_DWNを「1」に設定する(図11/STEP54)。
以上のように、頭部前傾フラグF_HEAD_DWNを「1」に設定したとき、又は前述した判定が肯定で(図11/STEP50…YES)、前回以前のタイミングで頭部前傾フラグF_HEAD_DWNが「1」に設定されていたときには、それらに続けて、V_Wx<0が成立しているか否かを判定する(図11/STEP55)。このV_Wxは、ユーザMの腰部のx軸方向速度であり、腰動作センサ28の検出信号に基づいて算出される。
この判定が否定であるとき(図11/STEP55…NO)には、前述したように、しゃがみ開始フラグF_SIT_STを「0」に設定(図11/STEP53)した後、本処理を終了する。
一方、この判定が肯定であるとき(図11/STEP55…YES)、すなわちユーザMが腰部を後方に動かしていると推定されるときには、VA_Wx>Vjud1が成立しているか否かを判定する(図11/STEP56)。このVA_Wxは、ユーザMの腰部のx軸方向速度の絶対値であり、Vjud1は、ユーザMが腰部を確実に後方に動かしているか否かを判定するための所定の判定値である。なお、本実施形態では、腰部のx軸方向速度V_Wx及びその絶対値VA_Wxが腰移動状態パラメータに相当する。
この判定が否定であるとき(図11/STEP56…NO)には、前述したように、しゃがみ開始フラグF_SIT_STを「0」に設定(図11/STEP53)した後、本処理を終了する。
一方、この判定が肯定であるとき(図11/STEP56…YES)、すなわちユーザMが腰部を確実に後方に動かしていると推定されるときには、TMsit>Tjud1が成立しているか否かを判定する(図11/STEP57)。このTMsitは、V_Wx<0&VA_Wx>Vjud1が成立している状態の経過時間であり、Tjud1は、ユーザMが腰部を確実に後方に動かしているか否かを判定するための所定の判定値である。
この判定が否定であるとき(図11/STEP57…NO)には、前述したように、しゃがみ開始フラグF_SIT_STを「0」に設定(図11/STEP53)した後、本処理を終了する。
一方、この判定が肯定であるとき(図11/STEP57…YES)には、ユーザMがしゃがみ動作を開始したと推定して、それを表すために、しゃがみ開始フラグF_SIT_STを「1」に設定すると同時に、頭部前傾フラグF_HEAD_DWNを「0」にリセットする(図11/STEP58)。その後、本処理を終了する。
図10に戻り、しゃがみ開始推定処理(図10/STEP41)を以上のように実行した後、上述したしゃがみ開始フラグF_SIT_STが「1」であるか否かを判定する(図10/STEP42)。この判定が肯定で(図10/STEP42…YES)、ユーザMがしゃがみ動作を開始したと推定されているときには、そのまま本処理を終了する。
一方、この判定が否定であるとき(図10/STEP42…NO)には、歩行開始推定処理を実行する(図10/STEP43)。この歩行開始推定処理は、立位状態にあるユーザMが歩行動作を開始したか否かを推定するものであり、具体的には、図12に示すように実行される。
同図に示すように、まず、V_Wx>Vjud2が成立しているか否かを判定する(図12/STEP70)。このVjud2は、ユーザMの腰部が確実に前方に動いているか否かを推定するための判定値である。
この判定が否定であるとき(図12/STEP70…NO)、すなわちユーザMの腰部が前方に動いていないと推定されるときには、ユーザMが歩行動作を開始していないと推定して、それを表すために、歩行開始フラグF_WALK_STを「0」に設定する(図12/STEP74)。その後、本処理を終了する。
一方、この判定が肯定であるとき(図12/STEP70…YES)には、VA_Wy>Vjud3が成立しているか否かを判定する(図12/STEP71)。このVA_Wyは、ユーザMの腰部のy軸方向速度の絶対値であり、Vjud3は、ユーザMが腰部を確実に左右方向に動かしているか否かを判定するための所定の判定値である。なお、本実施形態では、腰部のy軸方向速度の絶対値VA_Wyが腰移動状態パラメータに相当する。
この判定が否定であるとき(図12/STEP71…NO)には、上述したように、歩行開始フラグF_WALK_STを「0」に設定(図12/STEP74)した後、本処理を終了する。
一方、この判定が肯定で(図12/STEP71…YES)、ユーザMが腰部を確実に左右方向に動かしていると推定されるときには、TMwlk>Tjud2が成立しているか否かを判定する(図12/STEP72)。このTMwlkは、V_Wx>Vjud2&VA_Wy>Vjud3が成立している状態の経過時間であり、Tjud2は、ユーザMが腰部を確実に斜め前方に動かしているか否かを判定するための所定の判定値である。
この判定が否定であるとき(図11/STEP72…NO)には、上述したように、歩行開始フラグF_WALK_STを「0」に設定(図12/STEP74)した後、本処理を終了する。
一方、この判定が肯定であるとき(図11/STEP72…YES)には、ユーザMが歩行動作を開始したと推定して、それを表すために、歩行開始フラグF_WALK_STを「1」に設定する(図12/STEP73)。その後、本処理を終了する。
図10に戻り、歩行開始推定処理(図10/STEP43)を以上のように実行した後、動作開始推定処理を終了する。
一方、前述した判定が否定で(図10/STEP40…NO)、立位状態フラグF_STANDが「0」であるときには、前述した座位状態フラグF_SITが「1」であるか否かを判定する(図10/STEP44)。この判定が否定で(図10/STEP44…NO)、ユーザMが立位状態及び座位状態にないときには、そのまま本処理を終了する。
一方、この判定が肯定で(図10/STEP44…YES)、ユーザMが座位状態にあるときには、立ち上がり開始推定処理を実行する(図10/STEP45)。この立ち上がり開始推定処理は、座位状態にあるユーザMが立ち上がり動作を開始したか否かを推定するものであり、具体的には、図13に示すように実行される。
同図に示すように、まず、頭部前傾フラグF_HEAD_DWNが「1」であるか否かを判定する(図13/STEP80)。
この判定が否定であるとき(図13/STEP80…NO)には、θhead>θjudが成立しているか否かを判定する(図13/STEP81)。この判定が否定で(図13/STEP81…NO)、ユーザMが前側に俯いていないときには、頭部前傾フラグF_HEAD_DWNを「0」に設定する(図13/STEP82)。
次いで、ユーザMが立ち上がり動作を開始していないと推定して、それを表すために、立ち上がり開始フラグF_STA_STを「0」に設定する(図13/STEP83)。その後、本処理を終了する。
一方、上記の判定が肯定で(図13/STEP81…YES)、θhead>θjudが成立しているときには、ユーザMが前側に俯いたと推定して、それを表すために、頭部前傾フラグF_HEAD_DWNを「1」に設定する(図13/STEP84)。
以上のように、頭部前傾フラグF_HEAD_DWNを「1」に設定したとき、又は前述した判定が肯定で(図13/STEP80…YES)、前回以前のタイミングで頭部前傾フラグF_HEAD_DWNが「1」に設定されていたときには、それらに続けて、θupper>θjud2が成立しているか否かを判定する(図13/STEP85)。
このθupperは、ユーザMの上半身の前傾角度であり、腰動作センサ28及び頭動作センサ29の検出信号に基づいて算出される。また、θjud2は、ユーザMが立ち上がり動作を開始しているか否かを判定するための所定の判定値である。なお、本実施形態では、上半身の前傾角度θupperが前傾状態パラメータに相当する。
この判定が否定であるとき(図13/STEP85…NO)には、前述したように、立ち上がり開始フラグF_STA_STを「0」に設定(図13/STEP83)した後、本処理を終了する。
一方、この判定が肯定であるとき(図13/STEP85…YES)、すなわちユーザMが上半身を前方に傾けていると推定されるときには、TMsta>Tjud2が成立しているか否かを判定する(図13/STEP86)。このTMstaは、θupper>θjud2が成立している状態の経過時間であり、Tjud2は、ユーザMが上半身を確実に前方に傾けているか否かを判定するための所定の判定値である。
この判定が否定であるとき(図13/STEP86…NO)には、前述したように、立ち上がり開始フラグF_STA_STを「0」に設定(図13/STEP83)した後、本処理を終了する。
一方、この判定が肯定であるとき(図11/STEP86…YES)には、ユーザMが立ち上がり動作を開始したと推定して、それを表すために、立ち上がり開始フラグF_STA_STを「1」に設定すると同時に、頭部前傾フラグF_HEAD_DWNを「0」にリセットする(図13/STEP87)。その後、本処理を終了する。
図10に戻り、立ち上がり開始推定処理(図10/STEP45)を以上のように実行した後、動作開始推定処理を終了する。以上のように、図10の動作開始推定処理では、歩行動作の開始、立ち上がり動作の開始及びしゃがみ動作の開始などが推定される。
次に、図14を参照しながら、アシスト制御処理について説明する。このアシスト制御処理は、ユーザMの動作状態に応じて、歩行アシスト装置1を制御するものであり、アシストコントローラ11によって所定の制御周期で実行される。
同図に示すように、まず、前述した歩行中フラグF_WALKが「1」であるか否かを判定する(図14/STEP90)。この判定が肯定で(図14/STEP90…YES)、ユーザMが歩行中であるときには、歩行時制御処理を実行する(図14/STEP91)。
この歩行時制御処理では、前述した各種センサ20~29の検出信号に応じて、ユーザMの歩行動作を補助/支援するためのアシスト力が発生するように、駆動装置9が制御される。以上のように、歩行時制御処理を実行した後、本処理を終了する。
一方、上述した判定が否定で(図14/STEP90…NO)、ユーザMが歩行中でないときには、前述した歩行開始フラグF_WALK_STが「1」であるか否かを判定する(図14/STEP92)。
この判定が肯定で(図14/STEP92…YES)、ユーザMが歩行動作を開始したときには、上述したように、歩行時制御処理を実行(図14/STEP91)した後、本処理を終了する。
一方、上述した判定が否定であるとき(図14/STEP92…NO)には、前述したしゃがみ開始フラグF_SIT_STが「1」であるか否かを判定する(図14/STEP93)。この判定が肯定で(図14/STEP93…YES)、ユーザMがしゃがみ動作を開始したときには、しゃがみ時制御処理を実行する(図14/STEP94)。
このしゃがみ時制御処理では、前述した各種センサ20~29の検出信号に応じて、ユーザMのしゃがみ動作を補助/支援するためのアシスト力が発生するように、駆動装置9が制御される。以上のように、しゃがみ時制御処理を実行した後、本処理を終了する。
一方、上述した判定が否定であるとき(図14/STEP93…NO)には、前述した立ち上がり開始フラグF_STA_STが「1」であるか否かを判定する(図14/STEP95)。この判定が肯定で(図14/STEP95…YES)、ユーザMが立ち上がり動作を開始したときには、立ち上がり時制御処理を実行する(図14/STEP96)。
この立ち上がり時制御処理では、前述した各種センサ20~29の検出信号に応じて、ユーザMの立ち上がり動作を補助/支援するためのアシスト力が発生するように、駆動装置9が制御される。以上のように、立ち上がり時制御処理を実行した後、本処理を終了する。
一方、上述した判定が否定であるとき(図14/STEP95…NO)には、通常制御処理を実行する(図14/STEP97)。この通常制御処理では、ユーザMの動作を補助/支援する必要がある場合には、前述した各種センサ20~29の検出信号に応じて、アシスト力が発生するように、駆動装置9が制御される。以上のように、通常制御処理を実行した後、本処理を終了する。
次に、図15を参照しながら、ユーザMが立位状態からしゃがみ動作を実行したときの各パラメータの推移などについて説明する。なお、同図のVA_Wzは、ユーザMの腰部のz軸方向速度の絶対値を表しており、Vjudzは、ユーザMが実際に腰を下げ始めたか否かを判定するための所定の判定値である。
同図に示すように、時刻t1で、ユーザMがしゃがみ動作を開始するのに伴って、ユーザMの頭部の前傾角度θheadが増大し始める。そして、θhead>θjudが成立したタイミング(時刻t1)で、頭部前傾フラグF_HEAD_DWNが「1」に設定される。
その後、ユーザMが腰部を後方に移動させることにより、VA_Wx>Vjud1が成立する(時刻t2)。そして、VA_Wx>Vjud1が成立したタイミングから、判定値Tjud1に相当する時間が経過したタイミング(時刻t3)で、ユーザMがしゃがみ動作を開始したと推定されることにより、しゃがみ開始フラグF_SIT_STが「1」に設定されると同時に、頭部前傾フラグF_HEAD_DWNが「0」に設定される。
それにより、この時刻t3以降、しゃがみ時制御処理が実行されることで、ユーザMのしゃがみ動作が補助/支援される。この場合、例えば、VA_Wz>Vjudzが成立し、ユーザMの腰部が実際に下がり始めたタイミング(時刻t4)で、歩行アシスト装置1の制御を開始した場合、歩行アシスト装置1がアシスト力を実際に発生するまでの間、歩行アシスト装置1自体がユーザMのしゃがみ動作を阻害してしまう可能性がある。
これに対して、本実施形態の制御装置10によれば、ユーザMの腰部が実際に下がり始めたタイミング(時刻t4)よりも早いタイミング(時刻t3)で、しゃがみ時制御処理が実行されるので、上記のような問題を生じることなく、ユーザMのしゃがみ動作を適切に支援/補助できることが判る。
以上のように、本実施形態の制御装置10によれば、左右の足動作センサ26,27及び腰動作センサ28の検出信号に応じて、ユーザMが立位状態にあるか否かが推定されるとともに、ユーザMが座位状態にあるか否かが推定される。この場合、左足平部及び右足平部と腰部との位置関係、並びに腰部の高さから、ユーザMが立位状態にあるか否かを精度よく推定することができるとともに、ユーザMが座位状態にあるか否を精度よく推定することができる。
また、第3動作センサ28の検出信号に応じて、腰部のx軸方向速度V_Wx及びその絶対値VA_Wxが算出され、第4動作センサ29の検出信号に応じて、頭部の前傾角度θheadが算出される。そして、ユーザMが立位状態にあると推定されている場合において、θhead>θjud、V_Wx<0及びVA_Wx>Vjud1がいずれも成立したときに、ユーザMのしゃがみ動作が立位状態から開始されたと推定される。
この場合、前述したように、人間が立位状態からしゃがみ動作を開始するときには、頭部の俯き動作及び腰部の後方への移動動作が最初に実行されるので、上記の条件(θhead>θjud、V_Wx<0、VA_Wx>Vjud1)が成立したことを条件とすることによって、ユーザMのしゃがみ動作が立位状態から開始されたか否かを精度よく推定することができる。
そして、ユーザMのしゃがみ動作が開始されたと推定された場合には、しゃがみ動作を支援するように、歩行アシスト装置1が制御されるので、歩行アシスト装置1によってユーザMのしゃがみ動作を迅速かつ適切に支援することができる。
また、ユーザMが立位状態にあると推定されている場合において、V_Wx>Vjud2及びVA_Wy>Vjud3がいずれも成立したときに、ユーザMの歩行動作が立位状態から開始されたと推定される。前述したように、人間が立位状態から歩行動作を開始するときには、腰部の前方への移動に加えて、腰部の横方向への移動が最初に実行されるので、上記の条件(V_Wx>Vjud2及びVA_Wy>Vjud3)が成立したことを条件とすることによって、ユーザMの歩行動作が立位状態から開始されたか否かを精度よく推定することができる。
そして、ユーザMの歩行動作が開始されたと推定された場合には、歩行動作を支援するように、歩行アシスト装置1が制御されるので、歩行アシスト装置1によってユーザMの歩行動作を迅速かつ適切に支援することができる。
さらに、第3動作センサ28及び第4動作センサ29の検出信号に応じて、上半身の前傾角度θupperが算出され、ユーザMが座位状態にあると推定されている場合において、θhead>θjud及びθupper>θjud2がいずれも成立したときに、ユーザMの立ち上がり動作が座位状態から開始されたと推定される。
この場合、前述したように、人間が座位状態から立ち上がり動作を開始するときには、頭部の俯き動作及び上体の前傾動作が最初に実行されるので、上記の条件(θhead>θjud、θupper>θjud2)が成立したことを条件とすることによって、ユーザMの立ち上がり動作が座位状態から開始されたか否かを精度よく推定することができる。
そして、ユーザMの立ち上がり動作が開始されたと推定された場合には、立ち上がり動作を支援するように、歩行アシスト装置1が制御されるので、歩行アシスト装置1によってユーザMの立ち上がり動作を迅速かつ適切に支援することができる。
なお、実施形態の図11のしゃがみ開始推定処理において、STEP50~52,54の処理を省略するとともに、STEP56の判定値Vjud1を図11よりも大きな値に設定するように構成してもよい。これは、ユーザMによっては、俯き姿勢A2のときの頭部の傾きが小さい状態で、立位姿勢A1から前傾姿勢A3まで移行する場合があるので、立位姿勢A1から俯き姿勢A2に変化したか否かの判定を省略したときでも、しゃがみ動作の開始を精度よく推定できることによる。
さらに、実施形態の図11のしゃがみ開始推定処理において、STEP55,56の判定処理に代えて、ユーザMの上体の傾斜角度が所定値を超えたか否かを判定したり、ユーザMの上体の傾斜角速度が所定値を超えたか否かを判定したりするとともに、これらの判定が肯定のときに、STEP57を実行するように構成してもよい。このように構成した場合でも、しゃがみ動作の開始を精度よく推定することができる。
一方、実施形態の図12の歩行開始推定処理において、STEP70の処理を省略するとともに、STEP71の判定値Vjud3を図12よりも大きな値に設定するように構成してもよい。これは、ユーザMによっては、立位姿勢C1から横傾き姿勢C2に移行する際に前方への移動量が小さい場合があるので、ユーザMが前方に移動したか否かの判定を省略したときでも、歩行動作の開始を精度よく推定できることによる。
また、実施形態の図13の立ち上がり開始推定処理において、STEP80~82,84の処理を省略するとともに、STEP85の判定値θjud2を図13よりも大きな値に設定するように構成してもよい。これは、ユーザMによっては、俯き姿勢B2のときの頭部の傾きが小さい状態で、座位姿勢B1から前傾姿勢B3まで移行する場合があるので、座位姿勢B1から俯き姿勢B2に変化したか否かの判定を省略したときでも、立ち上がり動作の開始を精度よく推定できることによる。
一方、実施形態は、腰移動状態パラメータとして、腰部のx軸方向速度V_Wx、腰部のx軸方向速度の絶対値VA_Wx、及び腰部のy軸方向速度の絶対値VA_Wyを用いた例であるが、本発明の腰移動状態パラメータは、これらに限らず、ユーザの腰部の移動状態を表すものであればよい。例えば、腰移動状態パラメータとして、腰部のx軸方向加速度及びy軸方向速度や、これらの絶対値を用いてもよい。
また、実施形態は、前傾状態パラメータとして、上半身の前傾角度θupperを用いた例であるが、本発明の前傾状態パラメータは、これに限らず、ユーザMの上半身の前傾状態を表すものであればよい。例えば、前傾状態パラメータとして、上半身の前傾角速度(又は前傾角加速度)を用いてもよく、その場合には、実施形態の図13の立ち上がり開始推定処理において、STEP85の判定処理に代えて、ユーザMの上体の前傾角速度(又は前傾角加速度)が所定値を超えたか否かを判定してもよい。
さらに、前傾状態パラメータとして、ユーザMの上体の頭部の中心位置とユーザMの腰部の中心位置との位置関係を用いてもよく、その場合には、実施形態の図13の立ち上がり開始推定処理において、STEP85の判定処理に代えて、上体の頭部の中心位置が腰部の中心位置よりも所定値分、前側に位置しているか否かを判定すればよい。
また、実施形態は、動作支援装置として、アクティブ型の歩行アシスト装置1を用いた例であるが、本発明の動作支援装置はこれに限らず、人間の少なくとも下半身の動作を支援するものであればよい。例えば、動作支援装置として、人間の下半身に加えて、上半身の動作を支援するアクティブ型のアシスト装置を用いてもよい。さらに、動作支援装置として、動力源を持たないパッシブ型の歩行アシスト装置を用いてもよい。
一方、実施形態は、第1動作センサとして、左足動作センサ26を用いた例であるが、本発明の第1動作センサは、これに限らず、左足平部の動作を検出するためのものであればよい。例えば、第1動作センサとして、加速度センサやジャイロセンサなどを用いてもよい。また、左足動作センサ26をユーザの左足平部に直接装着してもよい。
また、実施形態は、第2動作センサとして、右足動作センサ27を用いた例であるが、本発明の第2動作センサは、これに限らず、右足平部の動作を検出するためのものであればよい。例えば、第2動作センサとして、加速度センサやジャイロセンサなどを用いてもよい。また、右足動作センサ27をユーザの右足平部に直接装着してもよい。
さらに、実施形態は、第3動作センサとして、腰動作センサ28を用いた例であるが、本発明の第3動作センサは、これに限らず、腰部の動作を検出するためのものであればよい。例えば、第3動作センサとして、加速度センサやジャイロセンサなどを用いてもよい。また、腰動作センサ28を、歩行アシスト装置1の着座部材2に設けてもよい。
一方、実施形態は、第4動作センサとして、頭動作センサ29を用いた例であるが、本発明の第4動作センサは、これに限らず、頭部の動作を検出するためのものであればよい。例えば、第4動作センサとして、加速度センサやジャイロセンサなどを用いてもよい。
M ユーザ
1 歩行アシスト装置(動作支援装置)
10 制御装置
11 アシストコントローラ(立位状態推定部、腰移動状態パラメータ算出部、動作推 定部、制御部、前傾角度算出部、座位状態推定部、前傾状態パラメータ算出部)
26 左足動作センサ(第1動作センサ)
27 右足動作センサ(第2動作センサ)
28 腰動作センサ(第3動作センサ)
29 頭動作センサ(第4動作センサ)
V_Wx 腰部のx軸方向速度(腰移動状態パラメータ)
VA_Wx 腰部のx軸方向速度の絶対値(腰移動状態パラメータ)
VA_Wy 腰部のy軸方向速度の絶対値(腰移動状態パラメータ)
θhead 頭部の前傾角度
θupper 上半身の前傾角度(前傾状態パラメータ)

Claims (4)

  1. ユーザの少なくとも下半身の動作を支援するために当該ユーザに装着される動作支援装置の制御装置であって、
    前記ユーザの左足平部の動作を検出可能な第1動作センサと、
    前記ユーザの右足平部の動作を検出可能な第2動作センサと、
    前記ユーザの腰部の動作を検出可能な第3動作センサと、
    前記第1~第3動作センサの検出信号に応じて、前記ユーザが立位状態にあるか否かを推定する立位状態推定部と、
    前記第3動作センサの前記検出信号に応じて、前記ユーザの前記腰部の移動状態を表す腰移動状態パラメータを算出する腰移動状態パラメータ算出部と、
    前記ユーザが前記立位状態にあると推定されている場合において、前記腰移動状態パラメータが前記ユーザの前記腰部の後方への移動を示す所定範囲内の値になったときに、前記ユーザのしゃがみ動作が前記立位状態から開始されたと推定する動作推定部と、
    前記ユーザの前記しゃがみ動作が開始されたと推定された場合には、当該しゃがみ動作を支援するように、前記動作支援装置を制御する制御部と、
    を備えることを特徴とする動作支援装置の制御装置。
  2. 請求項1に記載の動作支援装置の制御装置において、
    前記ユーザの頭部の動作を検出可能な第4動作センサと、
    前記第4動作センサの検出信号に応じて、前記ユーザの前記頭部の前傾角度を算出する頭部前傾角度算出部と、をさらに備え、
    前記動作推定部は、前記ユーザが前記立位状態にあると推定されている場合において、前記腰移動状態パラメータが前記所定範囲内の値になるとともに前記ユーザの前記頭部の前記前傾角度が第2所定範囲内の値になったときに、前記ユーザの前記しゃがみ動作が前記立位状態から開始されたと推定することを特徴とする動作支援装置の制御装置。
  3. ユーザの少なくとも下半身の動作を支援するために当該ユーザに装着される動作支援装置の制御装置であって、
    前記ユーザの左足平部の動作を検出可能な第1動作センサと、
    前記ユーザの右足平部の動作を検出可能な第2動作センサと、
    前記ユーザの腰部の動作を検出可能な第3動作センサと、
    前記第1~第3動作センサの検出信号に応じて、前記ユーザが立位状態にあるか否かを推定する立位状態推定部と、
    前記第3動作センサの前記検出信号に応じて、前記ユーザの前記腰部の移動状態を表す腰移動状態パラメータを算出する腰移動状態パラメータ算出部と、
    前記ユーザが前記立位状態にあると推定されている場合において、前記腰移動状態パラメータが前記ユーザの前記腰部の横方向への移動を示す所定範囲内の値になったときに、前記ユーザの歩行動作が前記立位状態から開始されたと推定する動作推定部と、
    前記ユーザの前記歩行動作が開始されたと推定された場合には、当該歩行動作を支援するように、前記動作支援装置を制御する制御部と、
    を備えることを特徴とする動作支援装置の制御装置。
  4. 請求項に記載の動作支援装置の制御装置において、
    前記動作推定部は、前記ユーザが前記立位状態にあると推定されている場合において、前記腰移動状態パラメータが前記腰部の横方向への移動を示す前記所定範囲内の値になりかつ前記腰部の前方への移動を示す第3所定範囲内の値になったときに、前記ユーザの前記歩行動作が前記立位状態から開始されたと推定することを特徴とする動作支援装置の制御装置。
JP2019043699A 2019-03-11 2019-03-11 動作支援装置の制御装置 Active JP7132159B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019043699A JP7132159B2 (ja) 2019-03-11 2019-03-11 動作支援装置の制御装置
CN202010106732.4A CN111671620B (zh) 2019-03-11 2020-02-21 动作支援装置的控制装置
US16/807,186 US20200289034A1 (en) 2019-03-11 2020-03-03 Control device of motion support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043699A JP7132159B2 (ja) 2019-03-11 2019-03-11 動作支援装置の制御装置

Publications (2)

Publication Number Publication Date
JP2020146101A JP2020146101A (ja) 2020-09-17
JP7132159B2 true JP7132159B2 (ja) 2022-09-06

Family

ID=72423605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043699A Active JP7132159B2 (ja) 2019-03-11 2019-03-11 動作支援装置の制御装置

Country Status (3)

Country Link
US (1) US20200289034A1 (ja)
JP (1) JP7132159B2 (ja)
CN (1) CN111671620B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102663218B1 (ko) * 2019-04-04 2024-05-03 현대자동차주식회사 착용식 의자

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070785A (ja) 2011-09-27 2013-04-22 Equos Research Co Ltd 歩行支援装置
JP2014128724A (ja) 2014-03-19 2014-07-10 Nakamura Sangyo Gakuen 歩行介助ロボット
JP2014183977A (ja) 2013-03-22 2014-10-02 Univ Of Tsukuba 姿勢可変立位式移動装置及びその制御方法
US20140343465A1 (en) 2013-05-14 2014-11-20 Korea Institute Of Science And Technology Gait rehabilitation robot having passive mechanism for shifting center of gravity
JP2017140522A (ja) 2017-05-29 2017-08-17 国立大学法人東京工業大学 歩行支援装置
JP2018083275A (ja) 2016-11-25 2018-05-31 パナソニックIpマネジメント株式会社 動作アシスト装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2184455A1 (en) * 1996-03-21 1997-09-22 Larry Koenig Exercise apparatus
JP4055667B2 (ja) * 2003-08-05 2008-03-05 トヨタ自動車株式会社 搭乗型ロボット
JP4503311B2 (ja) * 2004-02-25 2010-07-14 本田技研工業株式会社 脚体運動補助装具の発生トルク制御方法
US8849457B2 (en) * 2006-07-17 2014-09-30 Raytheon Company Contact displacement actuator system
US8096965B2 (en) * 2008-10-13 2012-01-17 Argo Medical Technologies Ltd. Locomotion assisting device and method
CN101786478B (zh) * 2010-02-23 2011-09-07 华东理工大学 具有反力矩结构的虚拟力控制下肢外骨骼机器人
JP5027902B2 (ja) * 2010-05-12 2012-09-19 株式会社バンダイ 人形体の腰部関節構造
EP2616115B1 (en) * 2010-09-17 2016-08-24 Ekso Bionics Human machine interface for human exoskeleton
US20120101415A1 (en) * 2010-10-21 2012-04-26 Amit Goffer Locomotion assisting apparatus with integrated tilt sensor
JP2012139480A (ja) * 2010-12-15 2012-07-26 Shinsedai Kk 身体状態評価装置、身体状態評価方法、及び、コンピュータプログラム
US9500464B2 (en) * 2013-03-12 2016-11-22 Adidas Ag Methods of determining performance information for individuals and sports objects
JP6288706B2 (ja) * 2014-03-26 2018-03-07 本田技研工業株式会社 上体運動計測システム及び上体運動計測方法
CN103976739B (zh) * 2014-05-04 2019-06-04 宁波麦思电子科技有限公司 穿戴式摔倒动态实时检测方法和装置
WO2017100898A1 (pt) * 2015-12-18 2017-06-22 Alves De Carvalho Gilmar Jose Exoesqueleto camber de rodas para locomoção humana
JP6928939B2 (ja) * 2016-07-25 2021-09-01 国立大学法人 宮崎大学 姿勢特定システム、姿勢特定方法、及び、姿勢特定プログラム
EP3308912B1 (en) * 2016-08-17 2020-09-09 Power Assist International Corporation Wearable assistance robot device
KR102566102B1 (ko) * 2016-09-20 2023-08-11 삼성전자주식회사 보행 보조 장치 및 보행 보조 장치의 제어 방법
CN106821383B (zh) * 2017-01-13 2019-11-22 董云鹏 生活状态监测***
JP7225215B2 (ja) * 2017-08-29 2023-02-20 ローム ロボティクス インコーポレイテッド 半教師あり意図認識システム及び方法
FR3071401A1 (fr) * 2017-09-25 2019-03-29 Commissariat A L`Energie Atomique Et Aux Energies Alternatives Membre inferieur d'exosquelette a faible consommation energetique
CN108042249A (zh) * 2017-12-21 2018-05-18 无锡智开医疗机器人有限公司 一种腰部支撑保护装置
CA3105499A1 (en) * 2018-07-10 2020-01-16 Dephy, Inc. Wearable joint augmentation system
JP2020146103A (ja) * 2019-03-11 2020-09-17 本田技研工業株式会社 慣性センサの取付け姿勢推定方法
TWI704911B (zh) * 2019-07-22 2020-09-21 緯創資通股份有限公司 外骨骼穿戴管理系統與外骨骼穿戴管理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070785A (ja) 2011-09-27 2013-04-22 Equos Research Co Ltd 歩行支援装置
JP2014183977A (ja) 2013-03-22 2014-10-02 Univ Of Tsukuba 姿勢可変立位式移動装置及びその制御方法
US20140343465A1 (en) 2013-05-14 2014-11-20 Korea Institute Of Science And Technology Gait rehabilitation robot having passive mechanism for shifting center of gravity
JP2014128724A (ja) 2014-03-19 2014-07-10 Nakamura Sangyo Gakuen 歩行介助ロボット
JP2018083275A (ja) 2016-11-25 2018-05-31 パナソニックIpマネジメント株式会社 動作アシスト装置
JP2017140522A (ja) 2017-05-29 2017-08-17 国立大学法人東京工業大学 歩行支援装置

Also Published As

Publication number Publication date
CN111671620A (zh) 2020-09-18
CN111671620B (zh) 2022-05-31
JP2020146101A (ja) 2020-09-17
US20200289034A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102503910B1 (ko) 기립 보조 방법 및 장치
JP6554996B2 (ja) 歩行訓練装置、及びその歩行訓練方法
JP4246534B2 (ja) 二足歩行移動体の床反力作用点推定方法及び二足歩行移動体の関節モーメント推定方法
JP5147595B2 (ja) 歩行補助装置の制御装置および制御方法
WO2003002309A1 (fr) Procede d'estimation des reactions au sol du corps d'un bipede pendant une marche, et procede d'estimation des moments sur les articulations du corps d'un bipede pendant une marche
CN108618940B (zh) 行走辅助机器人以及行走辅助方法
US7643903B2 (en) Method of assuming acting point of floor reaction force to biped walking mobile body and method of assuming joint moment of biped walking mobile body
JP7132159B2 (ja) 動作支援装置の制御装置
US20200290209A1 (en) Control device for robot
JP2016193138A (ja) 4足歩行型歩行支援機、4足歩行型歩行支援機の制御方法及び制御プログラム
JP5741375B2 (ja) 歩行補助装置及びその制御方法
JP6508167B2 (ja) 歩行訓練システム
JP5747784B2 (ja) 歩行補助装置及びその制御方法
JP2014195506A (ja) 歩行補助装置
JP2014195509A (ja) 歩行補助装置
JP6393041B2 (ja) 下肢アシストスーツ
JP7352516B2 (ja) 脚運動認識装置及び脚運動補助装置
JP2013048701A (ja) 歩行支援装置、及び歩行支援プログラム
JP2012200319A (ja) 歩行支援装置、及び歩行支援プログラム
KR101795852B1 (ko) 착용로봇의 경사지 자세유지 장치 및 방법
JP6333059B2 (ja) 歩行支援装置及びこれを利用した転倒防止方法
JP2008126382A (ja) 脚式移動ロボット、及びその制御方法
JP6787425B2 (ja) 歩行訓練装置及びその制御方法
JP2014195508A (ja) 歩行補助装置
US20220361769A1 (en) Load measurement system, walking training system, load measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7132159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150