JP2004174692A - Man-machine robot and control method of man machine robot - Google Patents

Man-machine robot and control method of man machine robot Download PDF

Info

Publication number
JP2004174692A
JP2004174692A JP2002346612A JP2002346612A JP2004174692A JP 2004174692 A JP2004174692 A JP 2004174692A JP 2002346612 A JP2002346612 A JP 2002346612A JP 2002346612 A JP2002346612 A JP 2002346612A JP 2004174692 A JP2004174692 A JP 2004174692A
Authority
JP
Japan
Prior art keywords
man
human body
controller
machine
actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002346612A
Other languages
Japanese (ja)
Inventor
Ikuo Yamamoto
郁夫 山本
Susumu Harada
享 原田
Hitoshi Kimura
仁 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Mitsubishi Heavy Industries Environmental Engineering Co Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Mitsubishi Heavy Industries Environmental Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd, Mitsubishi Heavy Industries Environmental Engineering Co Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002346612A priority Critical patent/JP2004174692A/en
Publication of JP2004174692A publication Critical patent/JP2004174692A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Rehabilitation Tools (AREA)
  • Prostheses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of integrally cooperative control of a man and a machine. <P>SOLUTION: This control method is furnished with: an actuator 1 installed on a first installing part of a man body M and to give kinetic power to the first installing part; and a controller 2 installed on a second installing part of the man body M to control the kinetic power. The controller 2 and the actuator 1 are installed on the human body on which the controller 2 and the actuator 1 are physically integrated with the same person, and the man totally or partially acquires auxiliary kinetic power while moving together with the controller 2 and the actuator 1, and the integrally cooperative control of the man and the machine is realized. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、マンマシン・ロボット、及び、マンマシン・ロボットの制御方法に関し、特に、人の意思を尊重しその人の運動を補助するマンマシン・ロボット、及び、マンマシン・ロボットの制御方法に関する。
【0002】
【従来の技術】
ロボットの急速な技術革新は、身障者の手伝い又は手助けを可能にする。身障者の手足を代用するロボットは、高齢者社会で重要な開発の課題である。
【0003】
身体の運動を検出してその検出信号に基づいてその身体対応部分が駆動されるロボットは、下記特許文献1で知られている。人体の手足の運動を補助する技術として、義足が知られている。人体の全体を移動させる技術としては、身障者用電気駆動車が知られている。身体の部分に運動力を与える技術は、下記特許文献2で知られている。人体の一部分をその人の思いのままに駆動する機械は知られていない。人体の一部分をその人の思いに従って駆動する機械を実現する技術の確立が求められる。
【0004】
【特許文献1】
特開平07−24766号
【特許文献2】
特開平10−258100号
【特許文献3】
特開2002−574号
【0005】
【発明が解決しようとする課題】
本発明の課題は、人体の一部分をその人の思いに従って駆動する機械を実現する技術を確立することができるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法を提供することにある。
本発明の他の課題は、人と機械の同体的協調制御を実現する技術を確立することができるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法を提供することにある。
【0006】
【課題を解決するための手段】
その課題を解決するための手段が、下記のように表現される。その表現中に現れる技術的事項には、括弧()つきで、番号、記号等が添記されている。その番号、記号等は、本発明の実施の複数の形態又は複数の実施例のうちの少なくとも1つの実施の形態又は複数の実施例を構成する技術的事項、特に、その実施の形態又は実施例に対応する図面に表現されている技術的事項に付せられている参照番号、参照記号等に一致している。このような参照番号、参照記号は、請求項記載の技術的事項と実施の形態又は実施例の技術的事項との対応・橋渡しを明確にしている。このような対応・橋渡しは、請求項記載の技術的事項が実施の形態又は実施例の技術的事項に限定されて解釈されることを意味しない。
【0007】
本発明によるマンマシン・ロボットは、人体(M)の第1装着部分に装着されその第1装着部分に運動力を与えるアクチュエータ(1)と、人体(M)の第2装着部分に装着され運動力を制御する制御器(2)とから構成されている。制御器(2)とアクチュエータ(1)とが同一人の物理的に一体である人体に装着されていて、人は制御器(2)とアクチュエータ(1)と同体に運動しながら補助運動力を全部的に又は一部的に獲得することができる。ここで、人体は、機械ではなく生命を持つ肉体である。人は、物理的健常者であるか物理的障害者であるかは問われない。アクチュエータ(1)は、人体の内部にビルトインされ得る。
【0008】
アクチュエータ(1)は、人体(M)の回転的接続部位に対して回転力を与えることが特に好ましい。回転的接続部位は、腕、指、脚、腰である。腕、指、脚、腰のそれぞれにアクチュエータが配置されることは好ましい。
【0009】
制御器(2)は、アクチュエータ(1)の運動を制御する制御信号を入力する入力器(7)を形成する。入力器(7)は人体に装着され、その人(M)の意思により制御のための入力を可能にする。制御器(2)は、人体(M)である本人の意思に基づく第1装着部分の運動を優先させるジョイスティック操作器(6)を形成している。制御器(2)は、人体(M)である本人(M)の肉体に基づいて第1装着部分に与えられる運動力とアクチュエータ(1)に基づいて第1装着部分に与えられる運動力とを合成するジョイスティック操作器を形成する。人の意思による自律的制御と、制御の解除と、制御的物理力と人体の物理力とのハイブリッド化の選択がその人の自由意志により行われ、人には完全な自律性が保証されている。
【0010】
人体(M)の手指に把持される補助腕(14)と、補助腕(14)の自由端部に装着される補助アクチュエータ(15)とが追加的に構成されることは、人体の運動作業性を拡張することができる点で好ましい。補助アクチュエータ(15)の運動は制御器(2)により制御されることが好ましい。
【0011】
人体(M)の第3装着部位に装着され人体(M)の周囲を画像化するマンマシン・インタフェース(8)が更に追加される。マンマシン・インタフェース(8)を介して人体の周囲は画像化されて制御器(2)に有線又は無線で送信される。人体(M)の第3装着部位に装着され人体の口の運動を電気信号化するマンマシン・インタフェース(9)が更に追加される。そのマンマシン・インタフェース(9)を介して口の運動は制御器(2)に送信される。人の口の代行品又は生きた人の口、又は、人の目の代行品又は生きた人の目は、制御器(2)に制御系に有効に繰り込まれる。代行目と代行口は、現実の人の目と口に位置的に一致していることが好ましい。
【0012】
人体(M)の第3装着部位に装着され第1装着部位の運動を電気信号化するマンマシン・インタフェースが追加され、そのマンマシン・インタフェースを介して第1装着部位の運動は制御器(2)に送信される。この場合には、第3装着部位は第1装着部位に実質的に一致する。そのマンマシン・インタフェースは、アクチュエータ(1)の中に組み込まれることが好ましく、そのマンマシン・インタフェースは、アクチュエータ(1)に対してジョイスティックに構成され得る。アクチュエータは、人の腕の変位と変位力を増幅することができ、第1装着部位の運動は制御器(2)により増幅されて第1装着部位に伝達されることになる。
【0013】
人体に追従する自律移動型補助ロボット(19)が更に追加される。自律移動型補助ロボット(19)は、人体(M)である本人(M)が利用する機器(例示:電池、道具)を搭載することができる。人体(M)の頭部に装着され人体である本人(M)の意思に基づく脳の物理的変化を検出する脳内物理的変化検出器(16)が更に追加される。その物理的変化は、制御器(2)に伝達される。
【0014】
本発明によるマンマシン・ロボットの制御方法は、人体(M)の第1装着部分に装着され第1装着部分に運動力を与えるアクチュエータ(1)と、人体(M)の第2装着部分に装着されその運動力を制御する制御器(2)とを構成するマンマシン・ロボットを制御するマンマシン・ロボットの制御方法であり、制御器(2)から制御信号(3’)を出力するステップと、制御信号(3’)に基づいてアクチュエータ(1)を介して第1装着部分を運動させるステップとから構成されている。
【0015】
第1装着部分の運動は検出され得る。制御信号(3’)は、第1装着部分の運動を検出するステップにより検出される検出信号(3)に基づいて生成される。人体(M)の脳内物理的変化信号を検出するステップと、脳内物理的変化信号を制御器(2)に入力するステップと、脳内物理的変化信号に基づいて第1装着部分を運動させるステップとが有効に追加される。脳内物理的変化信号の生成は、人の意思により訓練的に可能である。脳内物理的変化信号と人の意思との対応は、ニューラルネットワークにより学習的に可能である。
【0016】
【発明の実施の形態】
図に対応して、本発明によるマンマシン・ロボットは、アクチェータが制御器とともに人体に配置されて設けられている。そのアクチュエータ1は、図1に示されるように、人体の特定部分に装着されている。ウエアラブルである制御器2は、その人体の他の特定部分に装着されている。制御器2は、特には、腰に巻かれる腰帯の一部を形成している。アクチュエータ1としては、腕の筋肉が例示される。
【0017】
アクチュエータ1は、制御信号3に基づいて制御的に駆動される。制御器2は、制御線4を介してアクチュエータ1に電気的に接続している。制御信号3は、制御器2から出力されてアクチュエータ1に入力される。アクチュエータ1は、アクチュエータ1の駆動量(変位量)に対応する駆動信号3’を制御器2に対して制御線4を介して出力する。アクチュエータ1と制御器2との間は、無線により接続されることが可能である。
【0018】
制御器2には、ジョイスティック制御システム(図示されず)が付随することが重要である。ジョイスティック制御と非ジョイスティック制御とは、制御モード切換ハンドル6により切換えられ得る。制御モード切換ハンドル6は、マンマシン・ロボットの積極主体の人である本人Mにより操作される。
【0019】
制御器2には、第1マンマシン・インタフェース7と、第2マンマシン・インタフェース8と第3マンマシン・インタフェース9とが付随していて、それぞれに、人体の更に他の複数部分に装着されている。第1マンマシン・インタフェース7としては、キーボードが例示され、自己行動を規定する自己行動規定を制御器2に入力することができる。
【0020】
視覚端末の一部である第2マンマシン・インタフェース8としては、視神経のネットワークを形成する映像表示画面が例示される。そのような映像表示画面としては、透明複眼式映像形成電極膜が好適に例示され、多数のレンズと多数の透明光電変換膜とから形成される。多数の透明光電変換膜が出力する電気的映像信号11は、制御器2に送信される。本人(この場合には、視覚障害者)Mがその肉眼でみることができるであろう映像は、電気的映像信号11に基づいて制御器2で再生される。第2マンマシン・インタフェース8と制御器2とは、視覚器官を形成する。
【0021】
聴覚端末の一部である第3マンマシン・インタフェース9としては、音声検出器、又は、唇運動検出器が例示される。唇運動検出器が検出する振動は電気的音声信号12に変換される。電気的音声信号12は、制御器2に入力される。本人(この場合には声帯障害者)Mが発したであろう音声は、電気的音声信号12に基づいて制御器2で再生される。第3マンマシン・インタフェース9と制御器2は、聴覚器官を形成する。
【0022】
アクチュエータ1としては、更に、足又は脚の筋肉が例示される。筋肉であるアクチュエータ1は、伸縮繊維群が好適に用いられる。伸縮繊維群の要素としては、螺旋巻き通電線(導線コイル)が好適に例示される。螺旋巻き通電線は、電流量に対応する伸縮量で伸縮方向に変位する。多数の螺旋巻き通電線の軸心線の集合は、1つの円筒面を形成する多数の軸心線方向線に対応する。多数の螺旋巻き通電線の集合は、弾力的な1つの円筒体を形成し、腕関節、脚関節を被覆して、腕、脚に巻き付けられている。アクチュエータ1としては、更に、腰の筋肉が例示される。アクチュエータ1は、水圧、空気圧、油圧で駆動される多様な流体圧機械要素が既述の電気駆動の伸縮繊維群に代替され得る。
【0023】
アクチュエータ1は、それの運動の微小変位を検出する変位検出器を形成することが好ましい。その変位検出器は、微小な変位を検出して、変位検出信号3を出力する。変位検出信号3は、制御器2に入力される。変位検出信号3は、フィードバック信号として利用される。変位検出信号3は、更に、運動開始信号とされて利用される。本人Mの意思に基づく腕又は脚の僅かな変位は、変位検出信号3により制御器2に伝達される。制御器2は、変位検出信号3に基づいて本人の僅かな運動変位を増幅した運動変位に変換する駆動信号3’をアクチュエータ1に送信する。変位検出信号3と駆動信号3’とは、同一の電線により双方向的に送信される。
【0024】
又は、本人Mの意思に基づく腕又は脚のある程度の変位は、変位検出信号3により制御器2に伝達される。制御器2は、変位検出信号3に基づいて本人のある程度の運動変位を増幅した運動変位に変換する駆動信号3’をアクチュエータ1に送信する。この場合には、アクチュエータ1はアシスト力を本人Mの腕又は脚に付加的に与え、本人はより重い荷物を運搬し、又は、急坂を軽快に登坂することができる。
【0025】
腕の補助になる人工補助腕14が追加される。人工補助腕14は、本人Mの指で把持される。人工補助腕14の自由端側に、補助アクチュエータ15が装着される。補助アクチュエータ15として、6本指手袋が好適に例示される。その6本指手袋のそれぞれの指対応部分には、指の第1関節、第2関節、指の基軸関節に相当する屈折部位が配置され、それぞれに全体に伸縮繊維で形成されている。電流制御により、複数種の関節は独立的に屈曲することができる。その電流制御は、それらの関節に周期的運動を付与することができる。その電流制御は、本人Mが片方の指で第1マンマシン・インタフェース7のキーボードを操作することにより可能である。このような6本指手袋は、プラントの天井、壁、床の凹凸部位の奥側面に付着する物質(例示:人体に対して有害である放射線物質、化学薬品)を除去して清掃することができる。
【0026】
脳の補助になる脳信号検出器16が左右一対的に追加される。脳信号検出器16は、本人Mが頭部に装着するヘルメット17に取り付けられている。脳信号検出器16としては、本人Mの脳神経に対して電気的に又は電磁気的に相互作用する脳信号検出電極が好適に例示される。その電極は、脳内神経に大域的に直接に接合する多数本の針状電極であることが好ましい。
【0027】
脳信号検出器16は、リハビリ的に用いられる。本人Mは、腕又は脚を動かす意思を持ち、その腕又は脚を物理的に動かそうとする。そのような意思を持った時に脳信号検出器16から出力される意思対応電気的信号18は、制御器2に入力される。本人Mがその意思を持ったことは、本人Mの音声相当の電気的音声信号12により制御器2に伝達され、又は、本人Mの腕と指の運動により第1マンマシン・インタフェース7のキー操作により制御器2に伝達される。意思対応電気的信号18は、制御器2が持つニューラルネットワークに入力される。そのニューラルネットワークは、意思対応電気的信号18と本人Mの意思との対応関係を高精度に実現する。その実現に基づいて、本人Mの意思に基づいてアクチュエータ1が制御的に駆動される。本人Mの意思は、脳神経電気信号に代えられて、脳内血流量信号、その血流量変化信号、血中酵素濃度のような脳内生理活性物質の変化率により確認され得る。
【0028】
補助ロボット19が追加されることは重要である。補助ロボット19は、自走用脚又は自走用車輪21により地面に対して支持されている。補助ロボット19は、カメラ22を搭載している。カメラ22は、本人Mが装着している目印を撮影する。カメラ22が撮影した撮影画像は、補助ロボット19に内蔵されている画像解析コンピュータ(図示されず)に送信される。その画像解析コンピュータは、その撮影画像である目印の3次元データに基づいて、自己と本人Mの目印の位置との間の相対的距離と相対的3次元方向を計算する。補助ロボット19は、本人Mに対する適正な間隔を保持して本人に追従し運動して移動することができる。
【0029】
補助ロボット19は、重い物体を運搬することができる。重い物体として、本人Mが用いる多様な道具又は機器の他に、電池を搭載している。アクチュエータ1を駆動する動力源であり本人Mが背負い式に持つ比較的に軽い自己搭載電池は、補助ロボット19が搭載する大型の電池から電力の供給を受けることができる。
【0030】
図2は、人体部分特に脳と制御器1との間のマンマシン制御を示している。第1マンマシン・インタフェース7と第2マンマシン・インタフェース8と第3マンマシン・インタフェース9とは、コンピュータ化され得て、第1マンマシン・コンピュータ化インタフェース7’と第2マンマシン・コンピュータ化インタフェース8’と第3マンマシン・コンピュータ化インタフェース9’とに改変され得る。頭部(脳内コンピュータ)21は、脳信号検出器16が検出する意思対応電気的信号18を出力する。意思対応電気的信号18は、制御器2を構成する指令演算器31に入力される。ウエアラブルである制御モード切換ハンドル6と第3マンマシン・コンピュータ化インタフェース9’と第1マンマシン・コンピュータ化インタフェース7’とからそれぞれに出力されるジョイスティック信号23とボイス信号12とキーボードコマンド24は、指令演算器31に入力される。第4マンマシン・コンピュータ化インタフェース25が更に追加されている。第1マンマシン・コンピュータ化インタフェース7’と第2マンマシン・コンピュータ化インタフェース8’と第3マンマシン・コンピュータ化インタフェース9’と第4マンマシン・コンピュータ化インタフェース25は、ウエアラブルコンピュータ群26として構成されている。
【0031】
指令演算器31は、固有のプロトコルに従ってアクチュエータ1と補助ロボット19と補助アクチュエータ15とに同時的に駆動指令群27を送信する。アクチュエータ1と補助アクチュエータ15と補助ロボット19は、その駆動量信号群28又は現在位置信号群を出力する。駆動量信号群28は、フィードバック信号としてウエアラブルコンピュータ群26に入力される。電気的音声信号12で指示した通りにアクチュエータ1、補助アクチュエータ15、又は、補助ロボット19が駆動されていない場合には、第4マンマシン・コンピュータ化インタフェース25は駆動量不適正を音声又は図形ずれで本人Mに知らせることができる。駆動量信号群28は、直接に指令演算器31にフィードバックされうる。
【0032】
本発明によるマンマシン・ロボットの制御方法は、身障者にその肉体的運動力を提供し、健常者にその肉体的運動力を補完して、能力増強と疲労抑制の点で有益であり、更には、人の意思に忠実に、又は、危険区域の侵入に対して警報を発して人の意思の変更を促し、多様な分野で利用され得る。
【0033】
【発明の効果】
本発明によるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法は、人と機械の同体的協調制御が可能である。
【図面の簡単な説明】
【図1】図1は、本発明によるマンマシン・ロボットの実施の形態を示す正面図である。
【図2】図2は、制御系を示す回路ブロック図である。
【符号の説明】
M…人(人体)
1…アクチュエータ
2…制御器
3…検出信号
3’…制御信号
6…ジョイスティック操作器
7,7’…入力器
8,8’…マンマシン・インタフェース
9,9’…マンマシン・インタフェース
14…補助腕
15…補助アクチュエータ
16…脳内物理的変化検出器
19…自律移動型補助ロボット
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a man-machine robot and a control method of the man-machine robot, and more particularly to a man-machine robot that respects the intention of a person and assists the movement of the person, and a control method of the man-machine robot. .
[0002]
[Prior art]
The rapid innovation of robots can help or help disabled people. Robots that substitute for the limbs of the handicapped are important development issues in an aging society.
[0003]
A robot in which movement of a body is detected and a body corresponding portion is driven based on the detection signal is known from Patent Document 1 below. 2. Description of the Related Art Prostheses are known as a technique for assisting limb movements of the human body. As a technique for moving the entire human body, an electric drive vehicle for the handicapped is known. A technique for imparting exercise power to a body part is known from Patent Document 2 below. There is no known machine that drives a part of the human body as desired. It is necessary to establish a technology for realizing a machine that drives a part of the human body according to the person's desire.
[0004]
[Patent Document 1]
JP 07-24766 A [Patent Document 2]
JP-A-10-258100 [Patent Document 3]
JP-A-2002-574 [0005]
[Problems to be solved by the invention]
An object of the present invention is to provide a man-machine robot capable of establishing a technology for realizing a machine that drives a part of a human body according to the intention of the person, and a control method of the man-machine robot.
Another object of the present invention is to provide a man-machine robot and a control method of the man-machine robot, which can establish a technology for realizing cooperative control of man and machine.
[0006]
[Means for Solving the Problems]
Means for solving the problem are expressed as follows. The technical items appearing in the expression are appended with numbers, symbols, etc. in parentheses (). The numbers, symbols, and the like are technical items that constitute at least one embodiment or a plurality of embodiments of the embodiments or the embodiments of the present invention, in particular, the embodiments or the embodiments. Corresponds to the reference numbers, reference symbols, and the like assigned to the technical matters expressed in the drawings corresponding to. Such reference numbers and reference symbols clarify the correspondence and bridging between the technical matters described in the claims and the technical matters of the embodiments or examples. Such correspondence / bridge does not mean that the technical matters described in the claims are interpreted as being limited to the technical matters of the embodiments or the examples.
[0007]
A man-machine robot according to the present invention is mounted on a first mounting part of a human body (M) and provides an actuator (1) for applying a kinetic force to the first mounting part, and is mounted on a second mounting part of the human body (M) to exercise. And a controller (2) for controlling the force. The controller (2) and the actuator (1) are mounted on the same person's physically integrated human body, and the person exerts an assistive motion while moving in the same body as the controller (2) and the actuator (1). Can be obtained in whole or in part. Here, the human body is not a machine but a living body. It does not matter whether a person is a physically healthy person or a physically disabled person. The actuator (1) can be built-in inside the human body.
[0008]
It is particularly preferred that the actuator (1) applies a rotational force to a rotationally connected part of the human body (M). The rotational connection sites are an arm, a finger, a leg, and a waist. It is preferable that the actuator is arranged on each of the arm, the finger, the leg, and the waist.
[0009]
The controller (2) forms an input (7) for inputting a control signal for controlling the movement of the actuator (1). The input device (7) is mounted on a human body, and enables input for control according to the intention of the person (M). The controller (2) forms a joystick operating device (6) that gives priority to the movement of the first wearing part based on the intention of the person (M). The controller (2) calculates a kinetic force applied to the first mounting portion based on the body of the person (M), which is a human body (M), and a kinetic force applied to the first mounting portion based on the actuator (1). Form a joystick controller to be synthesized. The autonomous control by the person's will, the release of control, and the selection of the hybrid of the control physical force and the physical force of the human body are made by the free will of the person, and the person is guaranteed complete autonomy I have.
[0010]
The additional configuration of the auxiliary arm (14) gripped by the fingers of the human body (M) and the auxiliary actuator (15) mounted on the free end of the auxiliary arm (14) is equivalent to the motion of the human body. This is preferable in that the properties can be extended. The movement of the auxiliary actuator (15) is preferably controlled by the controller (2).
[0011]
A man-machine interface (8) attached to the third attachment site of the human body (M) and imaging the periphery of the human body (M) is further added. The surroundings of the human body are imaged via the man-machine interface (8) and transmitted to the controller (2) by wire or wirelessly. A man-machine interface (9) attached to the third attachment site of the human body (M) and converting the movement of the mouth of the human body into an electric signal is further added. The mouth movement is transmitted to the controller (2) via the man-machine interface (9). The substitute for the mouth of a person or the mouth of a living person, or the substitute for the eyes of a person or the eyes of a living person, are effectively incorporated into the control system by the controller (2). It is preferable that the substitute eyes and the substitute mouths coincide with the eyes and the mouth of a real person.
[0012]
A man-machine interface that is attached to the third attachment site of the human body (M) and converts the movement of the first attachment site into an electric signal is added, and the movement of the first attachment site is controlled by the controller (2) via the man-machine interface. ). In this case, the third mounting part substantially coincides with the first mounting part. Preferably, the man-machine interface is incorporated into the actuator (1), and the man-machine interface may be configured as a joystick for the actuator (1). The actuator can amplify the displacement and displacement force of the human arm, and the motion of the first mounting part is amplified by the controller (2) and transmitted to the first mounting part.
[0013]
An autonomous mobile auxiliary robot (19) that follows the human body is further added. The autonomous mobile auxiliary robot (19) can be equipped with equipment (eg, batteries, tools) used by the person (M), which is a human body (M). A brain physical change detector (16) attached to the head of the human body (M) and detecting a physical change of the brain based on the intention of the human body (M) is further added. The physical change is transmitted to the controller (2).
[0014]
The method for controlling a man-machine robot according to the present invention comprises: an actuator (1) mounted on a first mounting portion of a human body (M) to apply a kinetic force to the first mounting portion; and an actuator (1) mounted on a second mounting portion of the human body (M). A method for controlling a man-machine robot which forms a controller (2) for controlling the kinetic force of the man-machine robot, comprising the steps of: outputting a control signal (3 ′) from the controller (2); Moving the first mounting portion via the actuator (1) based on the control signal (3 ′).
[0015]
Movement of the first mounting portion can be detected. The control signal (3 ') is generated based on the detection signal (3) detected in the step of detecting the movement of the first mounting portion. Detecting a physical change signal in the brain of the human body (M), inputting the physical change signal in the brain to the controller (2), and exercising the first wearing part based on the physical change signal in the brain Steps to be added are effectively added. The generation of the physical change signal in the brain can be trained by human intention. The correspondence between the physical change signal in the brain and human intention can be learned by a neural network.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Corresponding to the figure, the man-machine robot according to the present invention is provided with an actuator arranged on a human body together with a controller. The actuator 1 is mounted on a specific part of a human body as shown in FIG. The wearable controller 2 is mounted on another specific part of the human body. The controller 2 forms, in particular, a part of a lap belt wound around the waist. The actuator 1 is exemplified by arm muscles.
[0017]
The actuator 1 is controllably driven based on the control signal 3. The controller 2 is electrically connected to the actuator 1 via a control line 4. The control signal 3 is output from the controller 2 and input to the actuator 1. The actuator 1 outputs a drive signal 3 ′ corresponding to the drive amount (displacement amount) of the actuator 1 to the controller 2 via the control line 4. The actuator 1 and the controller 2 can be connected wirelessly.
[0018]
It is important that the controller 2 is accompanied by a joystick control system (not shown). The joystick control and the non-joystick control can be switched by the control mode switching handle 6. The control mode switching handle 6 is operated by a person M who is an active subject of the man-machine robot.
[0019]
The controller 2 has a first man-machine interface 7, a second man-machine interface 8, and a third man-machine interface 9, each of which is attached to still other parts of the human body. ing. As the first man-machine interface 7, a keyboard is exemplified, and a self-action definition that defines self-action can be input to the controller 2.
[0020]
As the second man-machine interface 8 which is a part of the visual terminal, a video display screen forming a network of the optic nerve is exemplified. As such an image display screen, a transparent compound eye type image forming electrode film is preferably exemplified, and is formed of a number of lenses and a number of transparent photoelectric conversion films. The electric video signals 11 output from the many transparent photoelectric conversion films are transmitted to the controller 2. An image that the person (in this case, visually impaired person) M will be able to see with his own eyes is reproduced by the controller 2 based on the electric image signal 11. The second man-machine interface 8 and the controller 2 form a visual organ.
[0021]
As the third man-machine interface 9 which is a part of the hearing terminal, a voice detector or a lip movement detector is exemplified. The vibration detected by the lip movement detector is converted into an electric sound signal 12. The electric audio signal 12 is input to the controller 2. The sound that would have been emitted by the person (in this case, the vocal chord disabled person) M is reproduced by the controller 2 based on the electric sound signal 12. The third man-machine interface 9 and the controller 2 form a hearing organ.
[0022]
Further, as the actuator 1, a muscle of a foot or a leg is exemplified. For the actuator 1 that is a muscle, a stretchable fiber group is preferably used. As an element of the elastic fiber group, a spirally wound energizing wire (conductive coil) is preferably exemplified. The spiral winding conducting wire is displaced in the direction of expansion and contraction by the amount of expansion and contraction corresponding to the amount of current. A set of axial lines of a number of spirally wound energizing lines corresponds to a number of axial lines forming one cylindrical surface. A group of a large number of spirally wound current-carrying wires forms one elastic cylinder, covers the arm joint and the leg joint, and is wound around the arm and the leg. Further, as the actuator 1, a lower back muscle is exemplified. In the actuator 1, various hydraulic mechanical elements driven by water pressure, pneumatic pressure, and hydraulic pressure can be replaced with the above-described electrically driven stretchable fiber group.
[0023]
Preferably, the actuator 1 forms a displacement detector that detects a small displacement of its movement. The displacement detector detects a minute displacement and outputs a displacement detection signal 3. The displacement detection signal 3 is input to the controller 2. The displacement detection signal 3 is used as a feedback signal. The displacement detection signal 3 is used as a motion start signal. The slight displacement of the arm or the leg based on the intention of the person M is transmitted to the controller 2 by the displacement detection signal 3. The controller 2 transmits to the actuator 1 a drive signal 3 ′ for converting a slight motion displacement of the person into an amplified motion displacement based on the displacement detection signal 3. The displacement detection signal 3 and the drive signal 3 'are transmitted bidirectionally on the same wire.
[0024]
Alternatively, a certain amount of displacement of the arm or the leg based on the intention of the person M is transmitted to the controller 2 by the displacement detection signal 3. The controller 2 transmits to the actuator 1 a drive signal 3 ′ for converting a certain amount of movement displacement of the person into an amplified movement displacement based on the displacement detection signal 3. In this case, the actuator 1 additionally applies an assisting force to the arm or leg of the person M, and the person can carry heavier luggage or climb a steep hill lightly.
[0025]
An artificial assist arm 14 to assist the arm is added. The artificial assist arm 14 is gripped by the person M's finger. An auxiliary actuator 15 is mounted on the free end side of the artificial auxiliary arm 14. As the auxiliary actuator 15, a six-finger glove is preferably exemplified. Refraction sites corresponding to the first joint, the second joint, and the base joint of the finger are arranged on the corresponding portions of the six-finger glove, respectively, and each is formed entirely of elastic fibers. By the current control, a plurality of types of joints can bend independently. The current control can impart periodic motion to those joints. The current control is possible by the person M operating the keyboard of the first man-machine interface 7 with one finger. Such six-finger gloves can be cleaned by removing substances (eg, radioactive substances and chemicals that are harmful to the human body) attached to the ceiling, walls, and the back side of the uneven portion of the floor of the plant. it can.
[0026]
A brain signal detector 16 that assists the brain is added as a pair on the left and right. The brain signal detector 16 is attached to a helmet 17 worn by the person M on the head. As the brain signal detector 16, a brain signal detection electrode that electrically or electromagnetically interacts with the brain nerve of the subject M is preferably exemplified. Preferably, the electrodes are a number of needle-like electrodes that are globally directly connected to the nerves in the brain.
[0027]
The brain signal detector 16 is used for rehabilitation. The person M has an intention to move the arm or the leg, and tries to physically move the arm or the leg. The intention-response electrical signal 18 output from the brain signal detector 16 when having such an intention is input to the controller 2. The fact that the person M has the intention is transmitted to the controller 2 by an electric sound signal 12 corresponding to the sound of the person M, or the key of the first man-machine interface 7 by the movement of the arm and the finger of the person M. The operation is transmitted to the controller 2. The willing electrical signal 18 is input to the neural network of the controller 2. The neural network realizes the correspondence relationship between the intention correspondence electrical signal 18 and the intention of the person M with high accuracy. Based on the realization, the actuator 1 is controllably driven based on the intention of the person M. The intention of the person M can be confirmed by a brain blood flow signal, a blood flow change signal thereof, and a change rate of a brain bioactive substance such as a blood enzyme concentration, instead of the brain nerve electrical signal.
[0028]
It is important that the auxiliary robot 19 is added. The auxiliary robot 19 is supported on the ground by self-propelled legs or self-propelled wheels 21. The auxiliary robot 19 has a camera 22 mounted thereon. The camera 22 captures an image of a landmark worn by the person M. The image captured by the camera 22 is transmitted to an image analysis computer (not shown) built in the auxiliary robot 19. The image analysis computer calculates a relative distance and a relative three-dimensional direction between itself and the position of the landmark of the subject M based on the three-dimensional data of the landmark which is the photographed image. The auxiliary robot 19 can move while following the person while keeping an appropriate distance from the person M.
[0029]
The auxiliary robot 19 can carry a heavy object. As a heavy object, a battery is mounted in addition to various tools or devices used by the person M. A relatively light self-mounted battery, which is a power source for driving the actuator 1 and carried by the person M in a backpack type, can receive power supply from a large battery mounted on the auxiliary robot 19.
[0030]
FIG. 2 shows man-machine control between the human body part, in particular the brain, and the controller 1. The first man-machine interface 7, the second man-machine interface 8, and the third man-machine interface 9 can be computerized, and the first man-machine computerized interface 7 'and the second man-machine computerized It can be modified to an interface 8 'and a third man-machine computerized interface 9'. The head (computer in the brain) 21 outputs the intention-response electrical signal 18 detected by the brain signal detector 16. The intention-response electrical signal 18 is input to a command calculator 31 constituting the controller 2. The joystick signal 23, the voice signal 12, and the keyboard command 24 output from the wearable control mode switching handle 6, the third man-machine / computerized interface 9 ', and the first man-machine / computerized interface 7' are respectively: It is input to the command calculator 31. A fourth man-machine computerized interface 25 is further added. The first man-machine computerized interface 7 ', the second man-machine-computerized interface 8', the third man-machine-computerized interface 9 ', and the fourth man-machine-computerized interface 25 are configured as a wearable computer group 26. Have been.
[0031]
The command calculator 31 simultaneously transmits the drive command group 27 to the actuator 1, the auxiliary robot 19, and the auxiliary actuator 15 according to a unique protocol. The actuator 1, the auxiliary actuator 15, and the auxiliary robot 19 output the drive amount signal group 28 or the current position signal group. The driving amount signal group 28 is input to the wearable computer group 26 as a feedback signal. When the actuator 1, the auxiliary actuator 15, or the auxiliary robot 19 is not driven as instructed by the electric voice signal 12, the fourth man-machine / computerized interface 25 reports the improper drive amount as a voice or figure shift. To inform the person M. The driving amount signal group 28 can be directly fed back to the command calculator 31.
[0032]
The control method of the man-machine robot according to the present invention provides the physical motor power to a disabled person, complements the physical motor power to a healthy person, and is useful in terms of enhancing ability and suppressing fatigue. It can be used in a variety of fields in order to change the intention of a person by issuing a warning to the intrusion of a danger zone, faithfully to the intention of the person, or the intrusion of the danger zone.
[0033]
【The invention's effect】
ADVANTAGE OF THE INVENTION The man-machine robot and the control method of a man-machine robot by this invention can perform the cooperative cooperative control of a man and a machine.
[Brief description of the drawings]
FIG. 1 is a front view showing an embodiment of a man-machine robot according to the present invention.
FIG. 2 is a circuit block diagram showing a control system.
[Explanation of symbols]
M… people (human body)
DESCRIPTION OF SYMBOLS 1 ... Actuator 2 ... Controller 3 ... Detection signal 3 '... Control signal 6 ... Joystick operation device 7, 7' ... Input device 8, 8 '... Man-machine interface 9, 9' ... Man-machine interface 14 ... Auxiliary arm 15 ... Auxiliary actuator 16 ... Physical change detector in brain 19 ... Autonomous mobile auxiliary robot

Claims (17)

人体の第1装着部分に装着され前記第1装着部分に運動力を与えるアクチュエータと、
前記人体の第2装着部分に装着され前記運動力を制御する制御器
とを構成するマンマシン・ロボット。
An actuator mounted on a first mounting part of a human body to apply a kinetic force to the first mounting part;
A man-machine robot which is mounted on a second mounting part of the human body and forms a controller for controlling the kinetic force.
前記アクチュエータは、前記人体の回転的接続部位に対して回転力を与える
請求項1のマンマシン・ロボット。
2. The man-machine robot according to claim 1, wherein the actuator applies a rotational force to a rotationally connected portion of the human body.
前記回転的接続部位は、腕、指、脚、腰から選択される1部位又は複数部位の関節である
請求項2のマンマシン・ロボット。
3. The man-machine robot according to claim 2, wherein the rotational connection part is one or more joints selected from an arm, a finger, a leg, and a waist.
前記制御器は、前記アクチュエータの運動を制御する制御信号を入力する入力器を形成する
請求項1〜3から選択される1請求項のマンマシン・ロボット。
4. The man-machine robot according to claim 1, wherein the controller forms an input device for inputting a control signal for controlling a movement of the actuator.
前記制御器は、前記人体である本人の意思に基づく前記第1装着部分の運動を優先させるジョイスティック操作器を形成している
請求項1〜3から選択される1請求項のマンマシン・ロボット。
4. The man-machine robot according to claim 1, wherein the controller forms a joystick operation device that prioritizes the movement of the first mounting portion based on the intention of the human body. 5.
前記制御器は、前記人体である本人の肉体に基づいて前記第1装着部分に与えられる運動力と前記アクチュエータに基づいて前記第1装着部分に与えられる運動力とを合成するジョイスティック操作器を形成している
請求項1〜3から選択される1請求項のマンマシン・ロボット。
The controller forms a joystick operating device that combines a kinetic force applied to the first mounting portion based on the body of the human being, and a kinetic force applied to the first mounting portion based on the actuator. The man-machine robot according to claim 1, which is selected from claims 1 to 3.
前記人体の手指に把持される補助腕と、
前記補助腕の自由端部に装着される補助アクチュエータとを更に構成し、
前記補助アクチュエータの運動は前記制御器により制御される
請求項1〜6から選択される1請求項のマンマシン・ロボット。
An auxiliary arm held by fingers of the human body;
An auxiliary actuator attached to a free end of the auxiliary arm,
7. The man-machine robot according to claim 1, wherein the movement of the auxiliary actuator is controlled by the controller.
前記人体の第3装着部位に装着され前記人体の周囲を画像化するマンマシン・インタフェースを更に構成し、
前記マンマシン・インタフェースを介して前記人体の周囲は画像化されて前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。
Further comprising a man-machine interface mounted on a third mounting site of the human body and imaging the periphery of the human body;
The man-machine robot according to claim 1, wherein the periphery of the human body is imaged and transmitted to the controller via the man-machine interface.
前記人体の第3装着部位に装着され前記人体の口の運動を電気信号化するマンマシン・インタフェースを更に構成し、
前記マンマシン・インタフェースを介して前記口の運動は前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。
Further comprising a man-machine interface mounted on a third mounting part of the human body and converting the movement of the mouth of the human body into an electric signal;
8. The man-machine robot of claim 1, wherein the movement of the mouth is transmitted to the controller via the man-machine interface.
前記人体の第3装着部位に装着され前記第1装着部位の運動を電気信号化するマンマシン・インタフェースを更に構成し、
前記マンマシン・インタフェースを介して前記第1装着部位の運動は前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。
Further comprising a man-machine interface mounted on a third mounting part of the human body and converting the movement of the first mounting part into an electric signal;
8. The man-machine robot according to claim 1, wherein the movement of the first mounting part is transmitted to the controller via the man-machine interface.
前記第1装着部位の運動は前記制御器により増幅されて前記第1装着部位に伝達される
請求項10のマンマシン・ロボット。
The man-machine robot according to claim 10, wherein the movement of the first mounting part is amplified by the controller and transmitted to the first mounting part.
前記人体に追従する自律移動型補助ロボットを更に構成し、
前記自律移動型補助ロボットは、前記人体である本人が利用する機器を搭載する
請求項1〜11から選択される1請求項のマンマシン・ロボット。
Further comprising an autonomous mobile auxiliary robot that follows the human body,
The man-machine robot according to any one of claims 1 to 11, wherein the autonomous mobile auxiliary robot includes a device used by the human being.
前記人体の頭部に装着され前記人体である本人の意思に基づく脳の物理的変化を検出する脳内物理的変化検出器を更に構成し、
前記物理的変化は前記制御器に伝達される
請求項1〜12から選択される1請求項のマンマシン・ロボット。
Further comprising a physical change detector in the brain that is attached to the head of the human body and detects a physical change in the brain based on the intention of the human being,
13. The man-machine robot according to claim 1, wherein the physical change is transmitted to the controller.
人体の第1装着部分に装着され前記第1装着部分に運動力を与えるアクチュエータと、前記人体の第2装着部分に装着され前記運動力を制御する制御器とを構成するマンマシン・ロボットを制御するマンマシン・ロボットの制御方法であり、
前記制御器から制御信号を出力するステップと、
前記制御信号に基づいて前記アクチュエータを介して前記第1装着部分を運動させるステップ
とを構成するマンマシン・ロボットの制御方法。
The man-machine robot is mounted on a first mounting part of a human body and gives an kinetic force to the first mounting part, and a man-machine robot is mounted on a second mounting part of the human body and constitutes a controller for controlling the kinetic power. Control method of a man-machine robot
Outputting a control signal from the controller;
Moving the first mounting portion via the actuator based on the control signal.
前記第1装着部分の運動を検出するステップを更に構成し、
前記制御信号は、前記第1装着部分の運動を検出する前記ステップにより検出される検出信号に基づいて生成される
請求項14のマンマシン・ロボットの制御方法。
Detecting a motion of the first mounting portion,
The control method for a man-machine robot according to claim 14, wherein the control signal is generated based on a detection signal detected by the step of detecting a motion of the first mounting portion.
前記人体の脳内物理的変化信号を検出するステップと、
前記脳内物理的変化信号を前記制御器に入力するステップと、
前記脳内物理的変化信号に基づいて前記第1装着部分を運動させるステップ
とを更に構成する請求項14のマンマシン・ロボットの制御方法。
Detecting a physical change signal in the brain of the human body,
Inputting the brain physical change signal to the controller;
Moving the first mounting portion based on the physical change signal in the brain.
前記アクチュエータの駆動量をフィードバック信号として前記制御器に送信するステップを更に構成する
請求項14〜16から選択される1請求項のマンマシン・ロボットの制御方法。
17. The man-machine robot control method according to claim 14, further comprising a step of transmitting a drive amount of the actuator as a feedback signal to the controller.
JP2002346612A 2002-11-29 2002-11-29 Man-machine robot and control method of man machine robot Pending JP2004174692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002346612A JP2004174692A (en) 2002-11-29 2002-11-29 Man-machine robot and control method of man machine robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002346612A JP2004174692A (en) 2002-11-29 2002-11-29 Man-machine robot and control method of man machine robot

Publications (1)

Publication Number Publication Date
JP2004174692A true JP2004174692A (en) 2004-06-24

Family

ID=32707435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002346612A Pending JP2004174692A (en) 2002-11-29 2002-11-29 Man-machine robot and control method of man machine robot

Country Status (1)

Country Link
JP (1) JP2004174692A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006263460A (en) * 2005-02-25 2006-10-05 Advanced Telecommunication Research Institute International Rehabilitation support apparatus
JP2008068046A (en) * 2006-09-12 2008-03-27 Makoto Kondo Leg support system to be mounted on human body
JP2009265876A (en) * 2008-04-24 2009-11-12 Sony Corp Control unit, control method, program for control method, and recording medium having recorded program for control method
CN101618280B (en) * 2009-06-30 2011-03-23 哈尔滨工业大学 Humanoid-head robot device with human-computer interaction function and behavior control method thereof
US8177732B2 (en) 2004-02-05 2012-05-15 Motorika Limited Methods and apparatuses for rehabilitation and training
US8545420B2 (en) 2004-02-05 2013-10-01 Motorika Limited Methods and apparatus for rehabilitation and training
US8888723B2 (en) 2004-02-05 2014-11-18 Motorika Limited Gait rehabilitation methods and apparatuses
US8915871B2 (en) 2004-02-05 2014-12-23 Motorika Limited Methods and apparatuses for rehabilitation exercise and training
US8938289B2 (en) 2004-08-25 2015-01-20 Motorika Limited Motor training with brain plasticity
US9238137B2 (en) 2004-02-05 2016-01-19 Motorika Limited Neuromuscular stimulation
US20160120664A1 (en) * 2014-10-31 2016-05-05 Marin Renner SCHULTZ Breath and head tilt controlled prosthetic limb
WO2017141578A1 (en) * 2016-02-15 2017-08-24 オムロン株式会社 Associating device, associating system, associating method, and associating program
JP6416353B1 (en) * 2017-09-28 2018-10-31 Johnan株式会社 Upper limb holding device
KR20190115483A (en) * 2018-03-12 2019-10-14 한국기계연구원 Wearable robot control system using augmented reality and method for controlling wearable robot using the same

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039682B2 (en) 2004-02-05 2018-08-07 Motorika Limited Methods and apparatus for rehabilitation and training
US8177732B2 (en) 2004-02-05 2012-05-15 Motorika Limited Methods and apparatuses for rehabilitation and training
US8545420B2 (en) 2004-02-05 2013-10-01 Motorika Limited Methods and apparatus for rehabilitation and training
US8888723B2 (en) 2004-02-05 2014-11-18 Motorika Limited Gait rehabilitation methods and apparatuses
US8915871B2 (en) 2004-02-05 2014-12-23 Motorika Limited Methods and apparatuses for rehabilitation exercise and training
US9238137B2 (en) 2004-02-05 2016-01-19 Motorika Limited Neuromuscular stimulation
US8938289B2 (en) 2004-08-25 2015-01-20 Motorika Limited Motor training with brain plasticity
JP4505617B2 (en) * 2005-02-25 2010-07-21 株式会社国際電気通信基礎技術研究所 Rehabilitation support device
JP2006263460A (en) * 2005-02-25 2006-10-05 Advanced Telecommunication Research Institute International Rehabilitation support apparatus
JP2008068046A (en) * 2006-09-12 2008-03-27 Makoto Kondo Leg support system to be mounted on human body
JP2009265876A (en) * 2008-04-24 2009-11-12 Sony Corp Control unit, control method, program for control method, and recording medium having recorded program for control method
CN101618280B (en) * 2009-06-30 2011-03-23 哈尔滨工业大学 Humanoid-head robot device with human-computer interaction function and behavior control method thereof
US20160120664A1 (en) * 2014-10-31 2016-05-05 Marin Renner SCHULTZ Breath and head tilt controlled prosthetic limb
WO2017141578A1 (en) * 2016-02-15 2017-08-24 オムロン株式会社 Associating device, associating system, associating method, and associating program
JP6416353B1 (en) * 2017-09-28 2018-10-31 Johnan株式会社 Upper limb holding device
JP2019063888A (en) * 2017-09-28 2019-04-25 Johnan株式会社 Upper limb keeping device
KR20190115483A (en) * 2018-03-12 2019-10-14 한국기계연구원 Wearable robot control system using augmented reality and method for controlling wearable robot using the same
KR102046351B1 (en) * 2018-03-12 2019-12-02 한국기계연구원 Wearable robot control system using augmented reality and method for controlling wearable robot using the same

Similar Documents

Publication Publication Date Title
JP2004174692A (en) Man-machine robot and control method of man machine robot
US10391016B2 (en) Machine to human interfaces for communication from a lower extremity orthotic
KR101667179B1 (en) User-coupled human-machine interface system and a control method of an exoskeleton thereof
CN110693673B (en) Multi-activity axis non-exoskeleton rehabilitation device
KR100841177B1 (en) A walking training robot system having upper limbs linking device
CN110974497A (en) Electric artificial limb control system and control method
JPWO2015199086A1 (en) Motion reproduction system and motion reproduction device
CN106003053A (en) Teleoperation passive robot control system and control method thereof
JP6998569B2 (en) Power assist device and control method of power assist device
KR101458002B1 (en) Intelligent wheelchair robot based on biometrics for rehabilitation of upper limb and lower limb
CN111249112A (en) Hand dysfunction rehabilitation system
Ercolini et al. A novel generation of ergonomic upper-limb wearable robots: Design challenges and solutions
CN108143550A (en) A kind of multifunctional intellectual wheelchair
Ma et al. The development and preliminary test of a powered alternately walking exoskeleton with the wheeled foot for paraplegic patients
Kiguchi et al. Neuro-fuzzy based motion control of a robotic exoskeleton: considering end-effector force vectors
KR20110007999U (en) Apparatus for assisting muscular strength
Sharma et al. Multifaceted bio-medical applications of exoskeleton: A review
US20180217586A1 (en) Biologically Controlled Proxy Robot
Sidik et al. A review on electric wheelchair innovation to ease mobility and as a rehabilitation tool for spinal cord impairment patient
Vorobyov et al. Concept of cost-effective power-assisted wheelchair: Human-in-the-loop subsystem
GB2400686A (en) Motion logging and robotic control and display system
Cortes et al. Towards an Intelligent Service to Elders Mobility Using the i-Walker.
Cao et al. Development and evaluation of a rehabilitation wheelchair with multiposture transformation and smart control
TWI601526B (en) Lower limb rehabilitation device control method and the implementation of the method of lower limb rehabilitation device
CN111374677A (en) Apparatus and method for recognizing head motion

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050330

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060619