JP2004174692A - Man-machine robot and control method of man machine robot - Google Patents
Man-machine robot and control method of man machine robot Download PDFInfo
- Publication number
- JP2004174692A JP2004174692A JP2002346612A JP2002346612A JP2004174692A JP 2004174692 A JP2004174692 A JP 2004174692A JP 2002346612 A JP2002346612 A JP 2002346612A JP 2002346612 A JP2002346612 A JP 2002346612A JP 2004174692 A JP2004174692 A JP 2004174692A
- Authority
- JP
- Japan
- Prior art keywords
- man
- human body
- controller
- machine
- actuator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Rehabilitation Tools (AREA)
- Prostheses (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、マンマシン・ロボット、及び、マンマシン・ロボットの制御方法に関し、特に、人の意思を尊重しその人の運動を補助するマンマシン・ロボット、及び、マンマシン・ロボットの制御方法に関する。
【0002】
【従来の技術】
ロボットの急速な技術革新は、身障者の手伝い又は手助けを可能にする。身障者の手足を代用するロボットは、高齢者社会で重要な開発の課題である。
【0003】
身体の運動を検出してその検出信号に基づいてその身体対応部分が駆動されるロボットは、下記特許文献1で知られている。人体の手足の運動を補助する技術として、義足が知られている。人体の全体を移動させる技術としては、身障者用電気駆動車が知られている。身体の部分に運動力を与える技術は、下記特許文献2で知られている。人体の一部分をその人の思いのままに駆動する機械は知られていない。人体の一部分をその人の思いに従って駆動する機械を実現する技術の確立が求められる。
【0004】
【特許文献1】
特開平07−24766号
【特許文献2】
特開平10−258100号
【特許文献3】
特開2002−574号
【0005】
【発明が解決しようとする課題】
本発明の課題は、人体の一部分をその人の思いに従って駆動する機械を実現する技術を確立することができるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法を提供することにある。
本発明の他の課題は、人と機械の同体的協調制御を実現する技術を確立することができるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法を提供することにある。
【0006】
【課題を解決するための手段】
その課題を解決するための手段が、下記のように表現される。その表現中に現れる技術的事項には、括弧()つきで、番号、記号等が添記されている。その番号、記号等は、本発明の実施の複数の形態又は複数の実施例のうちの少なくとも1つの実施の形態又は複数の実施例を構成する技術的事項、特に、その実施の形態又は実施例に対応する図面に表現されている技術的事項に付せられている参照番号、参照記号等に一致している。このような参照番号、参照記号は、請求項記載の技術的事項と実施の形態又は実施例の技術的事項との対応・橋渡しを明確にしている。このような対応・橋渡しは、請求項記載の技術的事項が実施の形態又は実施例の技術的事項に限定されて解釈されることを意味しない。
【0007】
本発明によるマンマシン・ロボットは、人体(M)の第1装着部分に装着されその第1装着部分に運動力を与えるアクチュエータ(1)と、人体(M)の第2装着部分に装着され運動力を制御する制御器(2)とから構成されている。制御器(2)とアクチュエータ(1)とが同一人の物理的に一体である人体に装着されていて、人は制御器(2)とアクチュエータ(1)と同体に運動しながら補助運動力を全部的に又は一部的に獲得することができる。ここで、人体は、機械ではなく生命を持つ肉体である。人は、物理的健常者であるか物理的障害者であるかは問われない。アクチュエータ(1)は、人体の内部にビルトインされ得る。
【0008】
アクチュエータ(1)は、人体(M)の回転的接続部位に対して回転力を与えることが特に好ましい。回転的接続部位は、腕、指、脚、腰である。腕、指、脚、腰のそれぞれにアクチュエータが配置されることは好ましい。
【0009】
制御器(2)は、アクチュエータ(1)の運動を制御する制御信号を入力する入力器(7)を形成する。入力器(7)は人体に装着され、その人(M)の意思により制御のための入力を可能にする。制御器(2)は、人体(M)である本人の意思に基づく第1装着部分の運動を優先させるジョイスティック操作器(6)を形成している。制御器(2)は、人体(M)である本人(M)の肉体に基づいて第1装着部分に与えられる運動力とアクチュエータ(1)に基づいて第1装着部分に与えられる運動力とを合成するジョイスティック操作器を形成する。人の意思による自律的制御と、制御の解除と、制御的物理力と人体の物理力とのハイブリッド化の選択がその人の自由意志により行われ、人には完全な自律性が保証されている。
【0010】
人体(M)の手指に把持される補助腕(14)と、補助腕(14)の自由端部に装着される補助アクチュエータ(15)とが追加的に構成されることは、人体の運動作業性を拡張することができる点で好ましい。補助アクチュエータ(15)の運動は制御器(2)により制御されることが好ましい。
【0011】
人体(M)の第3装着部位に装着され人体(M)の周囲を画像化するマンマシン・インタフェース(8)が更に追加される。マンマシン・インタフェース(8)を介して人体の周囲は画像化されて制御器(2)に有線又は無線で送信される。人体(M)の第3装着部位に装着され人体の口の運動を電気信号化するマンマシン・インタフェース(9)が更に追加される。そのマンマシン・インタフェース(9)を介して口の運動は制御器(2)に送信される。人の口の代行品又は生きた人の口、又は、人の目の代行品又は生きた人の目は、制御器(2)に制御系に有効に繰り込まれる。代行目と代行口は、現実の人の目と口に位置的に一致していることが好ましい。
【0012】
人体(M)の第3装着部位に装着され第1装着部位の運動を電気信号化するマンマシン・インタフェースが追加され、そのマンマシン・インタフェースを介して第1装着部位の運動は制御器(2)に送信される。この場合には、第3装着部位は第1装着部位に実質的に一致する。そのマンマシン・インタフェースは、アクチュエータ(1)の中に組み込まれることが好ましく、そのマンマシン・インタフェースは、アクチュエータ(1)に対してジョイスティックに構成され得る。アクチュエータは、人の腕の変位と変位力を増幅することができ、第1装着部位の運動は制御器(2)により増幅されて第1装着部位に伝達されることになる。
【0013】
人体に追従する自律移動型補助ロボット(19)が更に追加される。自律移動型補助ロボット(19)は、人体(M)である本人(M)が利用する機器(例示:電池、道具)を搭載することができる。人体(M)の頭部に装着され人体である本人(M)の意思に基づく脳の物理的変化を検出する脳内物理的変化検出器(16)が更に追加される。その物理的変化は、制御器(2)に伝達される。
【0014】
本発明によるマンマシン・ロボットの制御方法は、人体(M)の第1装着部分に装着され第1装着部分に運動力を与えるアクチュエータ(1)と、人体(M)の第2装着部分に装着されその運動力を制御する制御器(2)とを構成するマンマシン・ロボットを制御するマンマシン・ロボットの制御方法であり、制御器(2)から制御信号(3’)を出力するステップと、制御信号(3’)に基づいてアクチュエータ(1)を介して第1装着部分を運動させるステップとから構成されている。
【0015】
第1装着部分の運動は検出され得る。制御信号(3’)は、第1装着部分の運動を検出するステップにより検出される検出信号(3)に基づいて生成される。人体(M)の脳内物理的変化信号を検出するステップと、脳内物理的変化信号を制御器(2)に入力するステップと、脳内物理的変化信号に基づいて第1装着部分を運動させるステップとが有効に追加される。脳内物理的変化信号の生成は、人の意思により訓練的に可能である。脳内物理的変化信号と人の意思との対応は、ニューラルネットワークにより学習的に可能である。
【0016】
【発明の実施の形態】
図に対応して、本発明によるマンマシン・ロボットは、アクチェータが制御器とともに人体に配置されて設けられている。そのアクチュエータ1は、図1に示されるように、人体の特定部分に装着されている。ウエアラブルである制御器2は、その人体の他の特定部分に装着されている。制御器2は、特には、腰に巻かれる腰帯の一部を形成している。アクチュエータ1としては、腕の筋肉が例示される。
【0017】
アクチュエータ1は、制御信号3に基づいて制御的に駆動される。制御器2は、制御線4を介してアクチュエータ1に電気的に接続している。制御信号3は、制御器2から出力されてアクチュエータ1に入力される。アクチュエータ1は、アクチュエータ1の駆動量(変位量)に対応する駆動信号3’を制御器2に対して制御線4を介して出力する。アクチュエータ1と制御器2との間は、無線により接続されることが可能である。
【0018】
制御器2には、ジョイスティック制御システム(図示されず)が付随することが重要である。ジョイスティック制御と非ジョイスティック制御とは、制御モード切換ハンドル6により切換えられ得る。制御モード切換ハンドル6は、マンマシン・ロボットの積極主体の人である本人Mにより操作される。
【0019】
制御器2には、第1マンマシン・インタフェース7と、第2マンマシン・インタフェース8と第3マンマシン・インタフェース9とが付随していて、それぞれに、人体の更に他の複数部分に装着されている。第1マンマシン・インタフェース7としては、キーボードが例示され、自己行動を規定する自己行動規定を制御器2に入力することができる。
【0020】
視覚端末の一部である第2マンマシン・インタフェース8としては、視神経のネットワークを形成する映像表示画面が例示される。そのような映像表示画面としては、透明複眼式映像形成電極膜が好適に例示され、多数のレンズと多数の透明光電変換膜とから形成される。多数の透明光電変換膜が出力する電気的映像信号11は、制御器2に送信される。本人(この場合には、視覚障害者)Mがその肉眼でみることができるであろう映像は、電気的映像信号11に基づいて制御器2で再生される。第2マンマシン・インタフェース8と制御器2とは、視覚器官を形成する。
【0021】
聴覚端末の一部である第3マンマシン・インタフェース9としては、音声検出器、又は、唇運動検出器が例示される。唇運動検出器が検出する振動は電気的音声信号12に変換される。電気的音声信号12は、制御器2に入力される。本人(この場合には声帯障害者)Mが発したであろう音声は、電気的音声信号12に基づいて制御器2で再生される。第3マンマシン・インタフェース9と制御器2は、聴覚器官を形成する。
【0022】
アクチュエータ1としては、更に、足又は脚の筋肉が例示される。筋肉であるアクチュエータ1は、伸縮繊維群が好適に用いられる。伸縮繊維群の要素としては、螺旋巻き通電線(導線コイル)が好適に例示される。螺旋巻き通電線は、電流量に対応する伸縮量で伸縮方向に変位する。多数の螺旋巻き通電線の軸心線の集合は、1つの円筒面を形成する多数の軸心線方向線に対応する。多数の螺旋巻き通電線の集合は、弾力的な1つの円筒体を形成し、腕関節、脚関節を被覆して、腕、脚に巻き付けられている。アクチュエータ1としては、更に、腰の筋肉が例示される。アクチュエータ1は、水圧、空気圧、油圧で駆動される多様な流体圧機械要素が既述の電気駆動の伸縮繊維群に代替され得る。
【0023】
アクチュエータ1は、それの運動の微小変位を検出する変位検出器を形成することが好ましい。その変位検出器は、微小な変位を検出して、変位検出信号3を出力する。変位検出信号3は、制御器2に入力される。変位検出信号3は、フィードバック信号として利用される。変位検出信号3は、更に、運動開始信号とされて利用される。本人Mの意思に基づく腕又は脚の僅かな変位は、変位検出信号3により制御器2に伝達される。制御器2は、変位検出信号3に基づいて本人の僅かな運動変位を増幅した運動変位に変換する駆動信号3’をアクチュエータ1に送信する。変位検出信号3と駆動信号3’とは、同一の電線により双方向的に送信される。
【0024】
又は、本人Mの意思に基づく腕又は脚のある程度の変位は、変位検出信号3により制御器2に伝達される。制御器2は、変位検出信号3に基づいて本人のある程度の運動変位を増幅した運動変位に変換する駆動信号3’をアクチュエータ1に送信する。この場合には、アクチュエータ1はアシスト力を本人Mの腕又は脚に付加的に与え、本人はより重い荷物を運搬し、又は、急坂を軽快に登坂することができる。
【0025】
腕の補助になる人工補助腕14が追加される。人工補助腕14は、本人Mの指で把持される。人工補助腕14の自由端側に、補助アクチュエータ15が装着される。補助アクチュエータ15として、6本指手袋が好適に例示される。その6本指手袋のそれぞれの指対応部分には、指の第1関節、第2関節、指の基軸関節に相当する屈折部位が配置され、それぞれに全体に伸縮繊維で形成されている。電流制御により、複数種の関節は独立的に屈曲することができる。その電流制御は、それらの関節に周期的運動を付与することができる。その電流制御は、本人Mが片方の指で第1マンマシン・インタフェース7のキーボードを操作することにより可能である。このような6本指手袋は、プラントの天井、壁、床の凹凸部位の奥側面に付着する物質(例示:人体に対して有害である放射線物質、化学薬品)を除去して清掃することができる。
【0026】
脳の補助になる脳信号検出器16が左右一対的に追加される。脳信号検出器16は、本人Mが頭部に装着するヘルメット17に取り付けられている。脳信号検出器16としては、本人Mの脳神経に対して電気的に又は電磁気的に相互作用する脳信号検出電極が好適に例示される。その電極は、脳内神経に大域的に直接に接合する多数本の針状電極であることが好ましい。
【0027】
脳信号検出器16は、リハビリ的に用いられる。本人Mは、腕又は脚を動かす意思を持ち、その腕又は脚を物理的に動かそうとする。そのような意思を持った時に脳信号検出器16から出力される意思対応電気的信号18は、制御器2に入力される。本人Mがその意思を持ったことは、本人Mの音声相当の電気的音声信号12により制御器2に伝達され、又は、本人Mの腕と指の運動により第1マンマシン・インタフェース7のキー操作により制御器2に伝達される。意思対応電気的信号18は、制御器2が持つニューラルネットワークに入力される。そのニューラルネットワークは、意思対応電気的信号18と本人Mの意思との対応関係を高精度に実現する。その実現に基づいて、本人Mの意思に基づいてアクチュエータ1が制御的に駆動される。本人Mの意思は、脳神経電気信号に代えられて、脳内血流量信号、その血流量変化信号、血中酵素濃度のような脳内生理活性物質の変化率により確認され得る。
【0028】
補助ロボット19が追加されることは重要である。補助ロボット19は、自走用脚又は自走用車輪21により地面に対して支持されている。補助ロボット19は、カメラ22を搭載している。カメラ22は、本人Mが装着している目印を撮影する。カメラ22が撮影した撮影画像は、補助ロボット19に内蔵されている画像解析コンピュータ(図示されず)に送信される。その画像解析コンピュータは、その撮影画像である目印の3次元データに基づいて、自己と本人Mの目印の位置との間の相対的距離と相対的3次元方向を計算する。補助ロボット19は、本人Mに対する適正な間隔を保持して本人に追従し運動して移動することができる。
【0029】
補助ロボット19は、重い物体を運搬することができる。重い物体として、本人Mが用いる多様な道具又は機器の他に、電池を搭載している。アクチュエータ1を駆動する動力源であり本人Mが背負い式に持つ比較的に軽い自己搭載電池は、補助ロボット19が搭載する大型の電池から電力の供給を受けることができる。
【0030】
図2は、人体部分特に脳と制御器1との間のマンマシン制御を示している。第1マンマシン・インタフェース7と第2マンマシン・インタフェース8と第3マンマシン・インタフェース9とは、コンピュータ化され得て、第1マンマシン・コンピュータ化インタフェース7’と第2マンマシン・コンピュータ化インタフェース8’と第3マンマシン・コンピュータ化インタフェース9’とに改変され得る。頭部(脳内コンピュータ)21は、脳信号検出器16が検出する意思対応電気的信号18を出力する。意思対応電気的信号18は、制御器2を構成する指令演算器31に入力される。ウエアラブルである制御モード切換ハンドル6と第3マンマシン・コンピュータ化インタフェース9’と第1マンマシン・コンピュータ化インタフェース7’とからそれぞれに出力されるジョイスティック信号23とボイス信号12とキーボードコマンド24は、指令演算器31に入力される。第4マンマシン・コンピュータ化インタフェース25が更に追加されている。第1マンマシン・コンピュータ化インタフェース7’と第2マンマシン・コンピュータ化インタフェース8’と第3マンマシン・コンピュータ化インタフェース9’と第4マンマシン・コンピュータ化インタフェース25は、ウエアラブルコンピュータ群26として構成されている。
【0031】
指令演算器31は、固有のプロトコルに従ってアクチュエータ1と補助ロボット19と補助アクチュエータ15とに同時的に駆動指令群27を送信する。アクチュエータ1と補助アクチュエータ15と補助ロボット19は、その駆動量信号群28又は現在位置信号群を出力する。駆動量信号群28は、フィードバック信号としてウエアラブルコンピュータ群26に入力される。電気的音声信号12で指示した通りにアクチュエータ1、補助アクチュエータ15、又は、補助ロボット19が駆動されていない場合には、第4マンマシン・コンピュータ化インタフェース25は駆動量不適正を音声又は図形ずれで本人Mに知らせることができる。駆動量信号群28は、直接に指令演算器31にフィードバックされうる。
【0032】
本発明によるマンマシン・ロボットの制御方法は、身障者にその肉体的運動力を提供し、健常者にその肉体的運動力を補完して、能力増強と疲労抑制の点で有益であり、更には、人の意思に忠実に、又は、危険区域の侵入に対して警報を発して人の意思の変更を促し、多様な分野で利用され得る。
【0033】
【発明の効果】
本発明によるマンマシン・ロボット、及び、マンマシン・ロボットの制御方法は、人と機械の同体的協調制御が可能である。
【図面の簡単な説明】
【図1】図1は、本発明によるマンマシン・ロボットの実施の形態を示す正面図である。
【図2】図2は、制御系を示す回路ブロック図である。
【符号の説明】
M…人(人体)
1…アクチュエータ
2…制御器
3…検出信号
3’…制御信号
6…ジョイスティック操作器
7,7’…入力器
8,8’…マンマシン・インタフェース
9,9’…マンマシン・インタフェース
14…補助腕
15…補助アクチュエータ
16…脳内物理的変化検出器
19…自律移動型補助ロボット[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a man-machine robot and a control method of the man-machine robot, and more particularly to a man-machine robot that respects the intention of a person and assists the movement of the person, and a control method of the man-machine robot. .
[0002]
[Prior art]
The rapid innovation of robots can help or help disabled people. Robots that substitute for the limbs of the handicapped are important development issues in an aging society.
[0003]
A robot in which movement of a body is detected and a body corresponding portion is driven based on the detection signal is known from
[0004]
[Patent Document 1]
JP 07-24766 A [Patent Document 2]
JP-A-10-258100 [Patent Document 3]
JP-A-2002-574 [0005]
[Problems to be solved by the invention]
An object of the present invention is to provide a man-machine robot capable of establishing a technology for realizing a machine that drives a part of a human body according to the intention of the person, and a control method of the man-machine robot.
Another object of the present invention is to provide a man-machine robot and a control method of the man-machine robot, which can establish a technology for realizing cooperative control of man and machine.
[0006]
[Means for Solving the Problems]
Means for solving the problem are expressed as follows. The technical items appearing in the expression are appended with numbers, symbols, etc. in parentheses (). The numbers, symbols, and the like are technical items that constitute at least one embodiment or a plurality of embodiments of the embodiments or the embodiments of the present invention, in particular, the embodiments or the embodiments. Corresponds to the reference numbers, reference symbols, and the like assigned to the technical matters expressed in the drawings corresponding to. Such reference numbers and reference symbols clarify the correspondence and bridging between the technical matters described in the claims and the technical matters of the embodiments or examples. Such correspondence / bridge does not mean that the technical matters described in the claims are interpreted as being limited to the technical matters of the embodiments or the examples.
[0007]
A man-machine robot according to the present invention is mounted on a first mounting part of a human body (M) and provides an actuator (1) for applying a kinetic force to the first mounting part, and is mounted on a second mounting part of the human body (M) to exercise. And a controller (2) for controlling the force. The controller (2) and the actuator (1) are mounted on the same person's physically integrated human body, and the person exerts an assistive motion while moving in the same body as the controller (2) and the actuator (1). Can be obtained in whole or in part. Here, the human body is not a machine but a living body. It does not matter whether a person is a physically healthy person or a physically disabled person. The actuator (1) can be built-in inside the human body.
[0008]
It is particularly preferred that the actuator (1) applies a rotational force to a rotationally connected part of the human body (M). The rotational connection sites are an arm, a finger, a leg, and a waist. It is preferable that the actuator is arranged on each of the arm, the finger, the leg, and the waist.
[0009]
The controller (2) forms an input (7) for inputting a control signal for controlling the movement of the actuator (1). The input device (7) is mounted on a human body, and enables input for control according to the intention of the person (M). The controller (2) forms a joystick operating device (6) that gives priority to the movement of the first wearing part based on the intention of the person (M). The controller (2) calculates a kinetic force applied to the first mounting portion based on the body of the person (M), which is a human body (M), and a kinetic force applied to the first mounting portion based on the actuator (1). Form a joystick controller to be synthesized. The autonomous control by the person's will, the release of control, and the selection of the hybrid of the control physical force and the physical force of the human body are made by the free will of the person, and the person is guaranteed complete autonomy I have.
[0010]
The additional configuration of the auxiliary arm (14) gripped by the fingers of the human body (M) and the auxiliary actuator (15) mounted on the free end of the auxiliary arm (14) is equivalent to the motion of the human body. This is preferable in that the properties can be extended. The movement of the auxiliary actuator (15) is preferably controlled by the controller (2).
[0011]
A man-machine interface (8) attached to the third attachment site of the human body (M) and imaging the periphery of the human body (M) is further added. The surroundings of the human body are imaged via the man-machine interface (8) and transmitted to the controller (2) by wire or wirelessly. A man-machine interface (9) attached to the third attachment site of the human body (M) and converting the movement of the mouth of the human body into an electric signal is further added. The mouth movement is transmitted to the controller (2) via the man-machine interface (9). The substitute for the mouth of a person or the mouth of a living person, or the substitute for the eyes of a person or the eyes of a living person, are effectively incorporated into the control system by the controller (2). It is preferable that the substitute eyes and the substitute mouths coincide with the eyes and the mouth of a real person.
[0012]
A man-machine interface that is attached to the third attachment site of the human body (M) and converts the movement of the first attachment site into an electric signal is added, and the movement of the first attachment site is controlled by the controller (2) via the man-machine interface. ). In this case, the third mounting part substantially coincides with the first mounting part. Preferably, the man-machine interface is incorporated into the actuator (1), and the man-machine interface may be configured as a joystick for the actuator (1). The actuator can amplify the displacement and displacement force of the human arm, and the motion of the first mounting part is amplified by the controller (2) and transmitted to the first mounting part.
[0013]
An autonomous mobile auxiliary robot (19) that follows the human body is further added. The autonomous mobile auxiliary robot (19) can be equipped with equipment (eg, batteries, tools) used by the person (M), which is a human body (M). A brain physical change detector (16) attached to the head of the human body (M) and detecting a physical change of the brain based on the intention of the human body (M) is further added. The physical change is transmitted to the controller (2).
[0014]
The method for controlling a man-machine robot according to the present invention comprises: an actuator (1) mounted on a first mounting portion of a human body (M) to apply a kinetic force to the first mounting portion; and an actuator (1) mounted on a second mounting portion of the human body (M). A method for controlling a man-machine robot which forms a controller (2) for controlling the kinetic force of the man-machine robot, comprising the steps of: outputting a control signal (3 ′) from the controller (2); Moving the first mounting portion via the actuator (1) based on the control signal (3 ′).
[0015]
Movement of the first mounting portion can be detected. The control signal (3 ') is generated based on the detection signal (3) detected in the step of detecting the movement of the first mounting portion. Detecting a physical change signal in the brain of the human body (M), inputting the physical change signal in the brain to the controller (2), and exercising the first wearing part based on the physical change signal in the brain Steps to be added are effectively added. The generation of the physical change signal in the brain can be trained by human intention. The correspondence between the physical change signal in the brain and human intention can be learned by a neural network.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Corresponding to the figure, the man-machine robot according to the present invention is provided with an actuator arranged on a human body together with a controller. The
[0017]
The
[0018]
It is important that the
[0019]
The
[0020]
As the second man-machine interface 8 which is a part of the visual terminal, a video display screen forming a network of the optic nerve is exemplified. As such an image display screen, a transparent compound eye type image forming electrode film is preferably exemplified, and is formed of a number of lenses and a number of transparent photoelectric conversion films. The electric video signals 11 output from the many transparent photoelectric conversion films are transmitted to the
[0021]
As the third man-machine interface 9 which is a part of the hearing terminal, a voice detector or a lip movement detector is exemplified. The vibration detected by the lip movement detector is converted into an
[0022]
Further, as the
[0023]
Preferably, the
[0024]
Alternatively, a certain amount of displacement of the arm or the leg based on the intention of the person M is transmitted to the
[0025]
An
[0026]
A
[0027]
The
[0028]
It is important that the
[0029]
The
[0030]
FIG. 2 shows man-machine control between the human body part, in particular the brain, and the
[0031]
The
[0032]
The control method of the man-machine robot according to the present invention provides the physical motor power to a disabled person, complements the physical motor power to a healthy person, and is useful in terms of enhancing ability and suppressing fatigue. It can be used in a variety of fields in order to change the intention of a person by issuing a warning to the intrusion of a danger zone, faithfully to the intention of the person, or the intrusion of the danger zone.
[0033]
【The invention's effect】
ADVANTAGE OF THE INVENTION The man-machine robot and the control method of a man-machine robot by this invention can perform the cooperative cooperative control of a man and a machine.
[Brief description of the drawings]
FIG. 1 is a front view showing an embodiment of a man-machine robot according to the present invention.
FIG. 2 is a circuit block diagram showing a control system.
[Explanation of symbols]
M… people (human body)
DESCRIPTION OF
Claims (17)
前記人体の第2装着部分に装着され前記運動力を制御する制御器
とを構成するマンマシン・ロボット。An actuator mounted on a first mounting part of a human body to apply a kinetic force to the first mounting part;
A man-machine robot which is mounted on a second mounting part of the human body and forms a controller for controlling the kinetic force.
請求項1のマンマシン・ロボット。2. The man-machine robot according to claim 1, wherein the actuator applies a rotational force to a rotationally connected portion of the human body.
請求項2のマンマシン・ロボット。3. The man-machine robot according to claim 2, wherein the rotational connection part is one or more joints selected from an arm, a finger, a leg, and a waist.
請求項1〜3から選択される1請求項のマンマシン・ロボット。4. The man-machine robot according to claim 1, wherein the controller forms an input device for inputting a control signal for controlling a movement of the actuator.
請求項1〜3から選択される1請求項のマンマシン・ロボット。4. The man-machine robot according to claim 1, wherein the controller forms a joystick operation device that prioritizes the movement of the first mounting portion based on the intention of the human body. 5.
請求項1〜3から選択される1請求項のマンマシン・ロボット。The controller forms a joystick operating device that combines a kinetic force applied to the first mounting portion based on the body of the human being, and a kinetic force applied to the first mounting portion based on the actuator. The man-machine robot according to claim 1, which is selected from claims 1 to 3.
前記補助腕の自由端部に装着される補助アクチュエータとを更に構成し、
前記補助アクチュエータの運動は前記制御器により制御される
請求項1〜6から選択される1請求項のマンマシン・ロボット。An auxiliary arm held by fingers of the human body;
An auxiliary actuator attached to a free end of the auxiliary arm,
7. The man-machine robot according to claim 1, wherein the movement of the auxiliary actuator is controlled by the controller.
前記マンマシン・インタフェースを介して前記人体の周囲は画像化されて前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。Further comprising a man-machine interface mounted on a third mounting site of the human body and imaging the periphery of the human body;
The man-machine robot according to claim 1, wherein the periphery of the human body is imaged and transmitted to the controller via the man-machine interface.
前記マンマシン・インタフェースを介して前記口の運動は前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。Further comprising a man-machine interface mounted on a third mounting part of the human body and converting the movement of the mouth of the human body into an electric signal;
8. The man-machine robot of claim 1, wherein the movement of the mouth is transmitted to the controller via the man-machine interface.
前記マンマシン・インタフェースを介して前記第1装着部位の運動は前記制御器に送信される
請求項1〜7から選択される1請求項のマンマシン・ロボット。Further comprising a man-machine interface mounted on a third mounting part of the human body and converting the movement of the first mounting part into an electric signal;
8. The man-machine robot according to claim 1, wherein the movement of the first mounting part is transmitted to the controller via the man-machine interface.
請求項10のマンマシン・ロボット。The man-machine robot according to claim 10, wherein the movement of the first mounting part is amplified by the controller and transmitted to the first mounting part.
前記自律移動型補助ロボットは、前記人体である本人が利用する機器を搭載する
請求項1〜11から選択される1請求項のマンマシン・ロボット。Further comprising an autonomous mobile auxiliary robot that follows the human body,
The man-machine robot according to any one of claims 1 to 11, wherein the autonomous mobile auxiliary robot includes a device used by the human being.
前記物理的変化は前記制御器に伝達される
請求項1〜12から選択される1請求項のマンマシン・ロボット。Further comprising a physical change detector in the brain that is attached to the head of the human body and detects a physical change in the brain based on the intention of the human being,
13. The man-machine robot according to claim 1, wherein the physical change is transmitted to the controller.
前記制御器から制御信号を出力するステップと、
前記制御信号に基づいて前記アクチュエータを介して前記第1装着部分を運動させるステップ
とを構成するマンマシン・ロボットの制御方法。The man-machine robot is mounted on a first mounting part of a human body and gives an kinetic force to the first mounting part, and a man-machine robot is mounted on a second mounting part of the human body and constitutes a controller for controlling the kinetic power. Control method of a man-machine robot
Outputting a control signal from the controller;
Moving the first mounting portion via the actuator based on the control signal.
前記制御信号は、前記第1装着部分の運動を検出する前記ステップにより検出される検出信号に基づいて生成される
請求項14のマンマシン・ロボットの制御方法。Detecting a motion of the first mounting portion,
The control method for a man-machine robot according to claim 14, wherein the control signal is generated based on a detection signal detected by the step of detecting a motion of the first mounting portion.
前記脳内物理的変化信号を前記制御器に入力するステップと、
前記脳内物理的変化信号に基づいて前記第1装着部分を運動させるステップ
とを更に構成する請求項14のマンマシン・ロボットの制御方法。Detecting a physical change signal in the brain of the human body,
Inputting the brain physical change signal to the controller;
Moving the first mounting portion based on the physical change signal in the brain.
請求項14〜16から選択される1請求項のマンマシン・ロボットの制御方法。17. The man-machine robot control method according to claim 14, further comprising a step of transmitting a drive amount of the actuator as a feedback signal to the controller.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002346612A JP2004174692A (en) | 2002-11-29 | 2002-11-29 | Man-machine robot and control method of man machine robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002346612A JP2004174692A (en) | 2002-11-29 | 2002-11-29 | Man-machine robot and control method of man machine robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004174692A true JP2004174692A (en) | 2004-06-24 |
Family
ID=32707435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002346612A Pending JP2004174692A (en) | 2002-11-29 | 2002-11-29 | Man-machine robot and control method of man machine robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004174692A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006263460A (en) * | 2005-02-25 | 2006-10-05 | Advanced Telecommunication Research Institute International | Rehabilitation support apparatus |
JP2008068046A (en) * | 2006-09-12 | 2008-03-27 | Makoto Kondo | Leg support system to be mounted on human body |
JP2009265876A (en) * | 2008-04-24 | 2009-11-12 | Sony Corp | Control unit, control method, program for control method, and recording medium having recorded program for control method |
CN101618280B (en) * | 2009-06-30 | 2011-03-23 | 哈尔滨工业大学 | Humanoid-head robot device with human-computer interaction function and behavior control method thereof |
US8177732B2 (en) | 2004-02-05 | 2012-05-15 | Motorika Limited | Methods and apparatuses for rehabilitation and training |
US8545420B2 (en) | 2004-02-05 | 2013-10-01 | Motorika Limited | Methods and apparatus for rehabilitation and training |
US8888723B2 (en) | 2004-02-05 | 2014-11-18 | Motorika Limited | Gait rehabilitation methods and apparatuses |
US8915871B2 (en) | 2004-02-05 | 2014-12-23 | Motorika Limited | Methods and apparatuses for rehabilitation exercise and training |
US8938289B2 (en) | 2004-08-25 | 2015-01-20 | Motorika Limited | Motor training with brain plasticity |
US9238137B2 (en) | 2004-02-05 | 2016-01-19 | Motorika Limited | Neuromuscular stimulation |
US20160120664A1 (en) * | 2014-10-31 | 2016-05-05 | Marin Renner SCHULTZ | Breath and head tilt controlled prosthetic limb |
WO2017141578A1 (en) * | 2016-02-15 | 2017-08-24 | オムロン株式会社 | Associating device, associating system, associating method, and associating program |
JP6416353B1 (en) * | 2017-09-28 | 2018-10-31 | Johnan株式会社 | Upper limb holding device |
KR20190115483A (en) * | 2018-03-12 | 2019-10-14 | 한국기계연구원 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
-
2002
- 2002-11-29 JP JP2002346612A patent/JP2004174692A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10039682B2 (en) | 2004-02-05 | 2018-08-07 | Motorika Limited | Methods and apparatus for rehabilitation and training |
US8177732B2 (en) | 2004-02-05 | 2012-05-15 | Motorika Limited | Methods and apparatuses for rehabilitation and training |
US8545420B2 (en) | 2004-02-05 | 2013-10-01 | Motorika Limited | Methods and apparatus for rehabilitation and training |
US8888723B2 (en) | 2004-02-05 | 2014-11-18 | Motorika Limited | Gait rehabilitation methods and apparatuses |
US8915871B2 (en) | 2004-02-05 | 2014-12-23 | Motorika Limited | Methods and apparatuses for rehabilitation exercise and training |
US9238137B2 (en) | 2004-02-05 | 2016-01-19 | Motorika Limited | Neuromuscular stimulation |
US8938289B2 (en) | 2004-08-25 | 2015-01-20 | Motorika Limited | Motor training with brain plasticity |
JP4505617B2 (en) * | 2005-02-25 | 2010-07-21 | 株式会社国際電気通信基礎技術研究所 | Rehabilitation support device |
JP2006263460A (en) * | 2005-02-25 | 2006-10-05 | Advanced Telecommunication Research Institute International | Rehabilitation support apparatus |
JP2008068046A (en) * | 2006-09-12 | 2008-03-27 | Makoto Kondo | Leg support system to be mounted on human body |
JP2009265876A (en) * | 2008-04-24 | 2009-11-12 | Sony Corp | Control unit, control method, program for control method, and recording medium having recorded program for control method |
CN101618280B (en) * | 2009-06-30 | 2011-03-23 | 哈尔滨工业大学 | Humanoid-head robot device with human-computer interaction function and behavior control method thereof |
US20160120664A1 (en) * | 2014-10-31 | 2016-05-05 | Marin Renner SCHULTZ | Breath and head tilt controlled prosthetic limb |
WO2017141578A1 (en) * | 2016-02-15 | 2017-08-24 | オムロン株式会社 | Associating device, associating system, associating method, and associating program |
JP6416353B1 (en) * | 2017-09-28 | 2018-10-31 | Johnan株式会社 | Upper limb holding device |
JP2019063888A (en) * | 2017-09-28 | 2019-04-25 | Johnan株式会社 | Upper limb keeping device |
KR20190115483A (en) * | 2018-03-12 | 2019-10-14 | 한국기계연구원 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
KR102046351B1 (en) * | 2018-03-12 | 2019-12-02 | 한국기계연구원 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004174692A (en) | Man-machine robot and control method of man machine robot | |
US10391016B2 (en) | Machine to human interfaces for communication from a lower extremity orthotic | |
KR101667179B1 (en) | User-coupled human-machine interface system and a control method of an exoskeleton thereof | |
CN110693673B (en) | Multi-activity axis non-exoskeleton rehabilitation device | |
KR100841177B1 (en) | A walking training robot system having upper limbs linking device | |
CN110974497A (en) | Electric artificial limb control system and control method | |
JPWO2015199086A1 (en) | Motion reproduction system and motion reproduction device | |
CN106003053A (en) | Teleoperation passive robot control system and control method thereof | |
JP6998569B2 (en) | Power assist device and control method of power assist device | |
KR101458002B1 (en) | Intelligent wheelchair robot based on biometrics for rehabilitation of upper limb and lower limb | |
CN111249112A (en) | Hand dysfunction rehabilitation system | |
Ercolini et al. | A novel generation of ergonomic upper-limb wearable robots: Design challenges and solutions | |
CN108143550A (en) | A kind of multifunctional intellectual wheelchair | |
Ma et al. | The development and preliminary test of a powered alternately walking exoskeleton with the wheeled foot for paraplegic patients | |
Kiguchi et al. | Neuro-fuzzy based motion control of a robotic exoskeleton: considering end-effector force vectors | |
KR20110007999U (en) | Apparatus for assisting muscular strength | |
Sharma et al. | Multifaceted bio-medical applications of exoskeleton: A review | |
US20180217586A1 (en) | Biologically Controlled Proxy Robot | |
Sidik et al. | A review on electric wheelchair innovation to ease mobility and as a rehabilitation tool for spinal cord impairment patient | |
Vorobyov et al. | Concept of cost-effective power-assisted wheelchair: Human-in-the-loop subsystem | |
GB2400686A (en) | Motion logging and robotic control and display system | |
Cortes et al. | Towards an Intelligent Service to Elders Mobility Using the i-Walker. | |
Cao et al. | Development and evaluation of a rehabilitation wheelchair with multiposture transformation and smart control | |
TWI601526B (en) | Lower limb rehabilitation device control method and the implementation of the method of lower limb rehabilitation device | |
CN111374677A (en) | Apparatus and method for recognizing head motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050330 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050524 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050530 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060619 |