JP3989698B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP3989698B2
JP3989698B2 JP2001166018A JP2001166018A JP3989698B2 JP 3989698 B2 JP3989698 B2 JP 3989698B2 JP 2001166018 A JP2001166018 A JP 2001166018A JP 2001166018 A JP2001166018 A JP 2001166018A JP 3989698 B2 JP3989698 B2 JP 3989698B2
Authority
JP
Japan
Prior art keywords
robot
axis
touch sensor
communication robot
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001166018A
Other languages
Japanese (ja)
Other versions
JP2002355783A (en
Inventor
倫太 今井
武志 前田
崇行 神田
哲雄 小野
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2001166018A priority Critical patent/JP3989698B2/en
Publication of JP2002355783A publication Critical patent/JP2002355783A/en
Application granted granted Critical
Publication of JP3989698B2 publication Critical patent/JP3989698B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、コミュニケーションロボットに関し、特にたとえば、触覚を備えたコミュニケーションロボットに関する。
【0002】
【従来の技術】
従来のロボットには、触覚を備えたものが存在した。
【0003】
【発明が解決しようとする課題】
しかし、従来のロボットでは触覚を使って触られたことを知覚してもそれを人に伝える手段を備えておらず、せっかく触れても人はロボットが触られたことを知覚しているかどうか知ることができなかった。
【0004】
それゆえに、この発明の主たる目的は、触られたことをロボットが知覚できたことを人に知らせることができる、コミュニケーションロボットを提供することである。
【0005】
【課題を解決するための手段】
この発明は、胴体、および胴体上に首関節を介して取り付けられた頭部を備え、アクションを用いてコミュニケーションを図るコミュニケーションロボットであってコミュニケーションロボットの任意の箇所に設けられた複数のタッチセンサ、およびオン状態のタッチセンサが検出されたとき、当該タッチセンサの存在する方向に頭部を向ける制御データによって首関節を制御する頭部変位手段を備える、コミュニケーションロボットである。
【0006】
【作用】
この発明においては、人がコミュニケーションロボットに触れると、タッチセンサがオン状態になって人が触れたことを検知する。すると、座標算出手段は肩関節や可動腕の位置およびロボットの各部位の大きさからオン状態のタッチセンサがある箇所、つまり人が触れた箇所の3次元座標を求める。そして、頭部変位手段は首関節を制御して座標算出手段が求めた3次元座標が示す箇所、つまり人が触れた箇所に頭部が向くようにする。
【0007】
好ましい実施例では、タッチセンサがオン状態になると、腕変位手段が肩関節および肘関節を制御して、たとえば手を上げて上げた手を左右に振り、さらに音声発生手段が「なぁ〜に」という音声を発生させる。
【0008】
【発明の効果】
この発明によれば、人がコミュニケーションロボットに触れると、タッチセンサがそれを検知し、触れられた箇所の方向に頭部が向く。したがって、コミュニケーションロボットが触れられたことを認識していることを人に伝えることができ、ロボットと人とのコミュニケーションが図れる。
【0009】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0010】
【実施例】
図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図3において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
【0011】
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
【0012】
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
【0013】
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
【0014】
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
【0015】
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
【0016】
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
【0017】
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
【0018】
また、図示しないが、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図3において参照番号72で包括的に示す。
【0019】
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0020】
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられ、目に相当する位置に眼カメラ46が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。眼カメラ46は、ロボット10に接近した人の顔や他の部分を撮影してその映像信号を取り込む。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
【0021】
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。
【0022】
図2は図1のロボット10とは異なる構成のロボット10の主要部の上面を示しており、上部胴体22は、前面22a,背面22b,右側面22c,左側面22d,上面22eおよび底面22fを含み、右側面22cおよび左側面22dは表面が斜め前方に向くように形成してもよい。つまり、前面22aの横幅が背面22bの横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成される。このような場合、ロボット10の腕は肩関節30Rおよび30Lが支持部80Rおよび80Lを介して右側面22cおよび左側面22dに取り付けられる。なお、支持部80Rおよび80Lの表面はそれぞれ右側面22cおよび左側面22dと平行である。上述したように上腕32RはY軸廻りに回動可能であり、上腕32LはB軸廻りに回動が可能であるが、上腕32Rおよび上腕32Lの回動範囲は、支持部80Rおよび80Lの表面(取り付け面)によって規制される。このため、上腕32Rおよび32Lが取り付け面を超えて回動することはない。
【0023】
図2から分かるように、上腕32Rの基端である肩関節30Rと上腕32Lの基端である肩関節30Lとを結ぶ線L1と右側面22c(取り付け面)とがなす角度θ1は、0°<θ1<90°の条件を満たす。上述の結線L1と左側面22dとがなす角度θ2もまた、0°<θ2<90°の条件を満たす。結線L1はロボット10の前方向と直交しているため、右側面22cに垂直なX軸と前方向とがなす角度θ3は“180°−θ1”に等しく、左側面22dに垂直なA軸と前方向とがなす角度θ4も“180°−θ2”に等しい。なお、角度θ1およびθ2の各々は、好ましくは30°≦θ1≦70°および30°≦θ2≦70°の条件を満たすのがよい。さらに、上腕32Rおよび32Lの各々の長さを230mmとし、前腕36Rおよび36Lの長さを235mmとし、そしてY軸とB軸との間の距離を518mmとした場合、角度θ1およびθ2は60°とすることが好ましい。このとき、角度θ3およびθ4は120°となる。
【0024】
このようにすれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。
【0025】
図1に示すロボット10の制御系の構成が図3のブロック図に示される。図3に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
【0026】
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
【0027】
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)70を制御する。
【0028】
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
【0029】
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図3では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
【0030】
なお、スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
【0031】
この実施例のロボット10は、触覚機能を備えておりボディーを触られると、その触られた箇所の方向に頭部を向けることによって、ロボット10が触られたことを認識していることを人に伝える。この動作を図4に示すフローを用いて説明する。
【0032】
まず、ステップS1において、CPU50は、タッチセンサからの信号をセンサ入力/出力ボード58から読み込み、ステップS3においてタッチセンサからの値が「タッチセンサのオン」を示しているタッチセンサが存在するかどうか判断する。ステップS3でオン状態のタッチセンサが存在しないと判断すると処理を終了する。一方、ステップS3でオン状態のタッチセンサが存在すると判断するとステップS5に進む。
【0033】
ステップS5では、ロボット10の各部位の関節の角度データをモータ制御ボード56から読み出し、続くステップS7ではロボット10の各部位の大きさデータをメモリ54から読み出す。
【0034】
そして、ステップS9では、大きさデータおよび関節の角度データからオン状態のタッチセンサがある3次元座標(α,β,γ)を算出する。続くステップS11ではロボット10の頭部42が首関節40を用いてオン状態のタッチセンサがある3次元座標(α,β,γ)の方向を向くような図1のS軸廻りの回転角度s、T軸廻りの回転角度t、U軸廻りの回転角度uを算出する。
【0035】
ステップS13では、ロボット10の頭部を人の触った箇所を見るように傾ける。具体的には、S軸の回転角度を調整するモータに角度「s」を与え、T軸の回転角度を調整するモータに角度「t」を与え、U軸の回転角度を調整するモータに角度「u」を与え、残りのモータにはすべて角度「0」を与える。したがって、このステップS13では、ロボット10の頭部42がS軸を中心として角度sだけ、T軸を中心として角度tだけ、U軸を中心として角度uだけそれぞれ回転され、オン状態のタッチセンサがある方向を向く。
【0036】
つぎに、ステップS15からステップS19では、ロボットが右手を上げて手を左右に振る。つまり、まず、ステップS15では、X軸の回転角度を調整するモータに角度「180」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS15では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、右手を上に上げる。つぎに、ステップS17では、X軸の回転角度を調整するモータに角度「180」を与え、Z軸の回転角度を調整するモータに角度「30」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS17では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、かつZ軸を中心として角度「30」だけ回転され、右手を上に上げた状態で右手を右に振る。そして、ステップS19では、X軸の回転角度を調整するモータに角度「180」を与え、Z軸の回転角度を調整するモータに角度「−30」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS17では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、かつZ軸を中心として角度「−30」だけ回転され、右手を上に上げた状態で右手を左に振る。
【0037】
最後にステップS21において、CPU50は、メモリ54から、音声入出力ボード60へ音声データを送る。したがって、スピーカ44から合成音声「なぁ〜に」が出力される。
【0038】
このように、人がロボット10に触れると、ロボット10の頭部42が人の触れた箇所を見て、右手を振るとともに「なぁ〜に」と応えるという行動をする。このようにして、人がロボット10に触れると、ロボット10が触れられたことを認識していることを伝えることができるので、人とのコミュニケーションをより深めることができる。
【0039】
また、ロボット10が、触れたものを壊さないようにする機構を備えていれば、ロボット10が触れた方向を見ることによって、人はロボット10が触れた物を回避することが予測できるので、ロボット10の非常停止ボタンなどを不用意に押さなくても済むようになる。
【0040】
なお、この発明の実施の形態は種々に変更して適用してもよい。たとえば、上述の実施例では、タッチセンサは上部胴体22の肩関節30Rおよび30Lを含む肩の部分,上腕32Rおよび32L,前腕36Rおよび36L,ならびに台車12の前面に設けることとしたが、上部胴体22の肩の部分,肩関節30Rおよび30L,上腕32Rおよび32L,前腕36Rおよび36L,台車12のいずれかひとつにタッチセンサを設けるようにしてもよい。また、上部胴体22の全体にタッチセンサを設けるようにしてもよく、台車12の全面にタッチセンサを設けるようにしてもよい。さらに言えば、肘関節34Rおよび34Lなど、ロボット10のどの部位にタッチセンサを設けるようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例の全体構成を示す正面図である。
【図2】この発明の一実施例の全体構成を示す上面図である。
【図3】図1の実施例のブロック図である。
【図4】図1の実施例における動作の一部を説明するフロー図である。
【符号の説明】
10 …コミュニケーションロボット
20 …下部胴体
22 …上部胴体
30R、30L …肩関節
32R、32L …上腕
34R、34L …肘関節
36R、36L …前腕
40 …首関節
42 …頭部
44 …スピーカ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
62 …右腕モータ
64 …左腕モータ
66 …頭部モータ
[0001]
[Industrial application fields]
The present invention relates to a communication robot, and more particularly to a communication robot having a tactile sense.
[0002]
[Prior art]
Some conventional robots have tactile sensations.
[0003]
[Problems to be solved by the invention]
However, conventional robots do not have a means of telling people that they have been touched using tactile sensations, and even if they touch it, they know if the person perceives that the robot has been touched. I couldn't.
[0004]
Therefore, a main object of the present invention is to provide a communication robot capable of notifying a person that the robot can perceive touching.
[0005]
[Means for Solving the Problems]
The present invention includes a body, and includes a head portion attached via a neck joint on the fuselage, a communication robot that promote communication with an action, a plurality of touch sensors provided anywhere in communication robot When the touch sensor in the ON state is detected, the communication robot includes head displacement means for controlling the neck joint by control data for directing the head in the direction in which the touch sensor exists.
[0006]
[Action]
In this invention, when a person touches the communication robot, the touch sensor is turned on to detect that the person has touched. Then, the coordinate calculation means obtains the three-dimensional coordinates of the location where the touch sensor is in an on state, that is, the location touched by a person, from the position of the shoulder joint or the movable arm and the size of each part of the robot. Then, the head displacing means controls the neck joint so that the head is directed to the place indicated by the three-dimensional coordinates obtained by the coordinate calculating means, that is, the place touched by a person.
[0007]
In a preferred embodiment, when the touch sensor is turned on, the arm displacing means controls the shoulder joint and elbow joint, for example, the hand raised up and swung to the left and right, and the sound generating means is The sound is generated.
[0008]
【The invention's effect】
According to this invention, when a person touches the communication robot, the touch sensor detects it and the head faces in the direction of the touched part. Therefore, it is possible to tell the person that the communication robot has been touched, and communication between the robot and the person can be achieved.
[0009]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0010]
【Example】
FIG. 1 shows the overall configuration of the present invention. Referring to FIG. 1, a communication robot (hereinafter sometimes simply referred to as “robot”) 10 of this embodiment includes a carriage 12, and this carriage 12 is shown in FIG. A wheel 14 for autonomously moving the robot 10 is provided on the lower surface of the robot. The wheel 14 is driven by a wheel motor (indicated by reference numeral “70” in FIG. 3), and the carriage 12, that is, the robot 10 can be moved in any direction, front, back, left, and right. Although not shown, a collision sensor (indicated by reference numeral “74” in FIG. 3 ) is attached to the front surface of the carriage 12, and this collision sensor is used to detect a person or other obstacle to the carriage 12. Detect contact. When contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 14 is immediately stopped to suddenly stop the movement of the robot 10 to prevent a collision.
[0011]
In this embodiment, the height of the robot 10 is set to about 100 cm so as not to intimidate people, particularly children. However, this height can be arbitrarily changed.
[0012]
A polygonal column sensor mounting panel 16 is provided on the carriage 12, and an ultrasonic distance sensor 18 is mounted on each surface of the sensor mounting panel 16. The ultrasonic distance sensor 18 measures a distance between the mounting panel 16, that is, a person mainly around the robot 10.
[0013]
On the carriage 12, the lower part is surrounded by the above-described mounting panel 16, and the body of the robot 10 is attached so as to stand upright. This body is composed of a lower body 20 and an upper body 22, and the lower body 20 and the upper body 22 are connected by a connecting portion 24. Although not shown, the connecting portion 24 has a built-in lifting mechanism, and the height of the upper body 22, that is, the height of the robot 10 can be changed by using the lifting mechanism. As will be described later, the elevating mechanism is driven by a waist motor (indicated by reference numeral “68” in FIG. 3). The height 100 cm of the robot 10 described above is a value when the upper body 22 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.
[0014]
One omnidirectional camera 26 and one microphone 28 are provided in the approximate center of the upper body 22. The omnidirectional camera 26 photographs the surroundings of the robot 10 and is distinguished from an eye camera 46 described later. The microphone 28 captures ambient sounds, particularly human voice.
[0015]
Upper arms 32R and 32L are attached to both shoulders of the upper body 22 by shoulder joints 30R and 30L, respectively. The shoulder joints 30R and 30L each have three degrees of freedom. That is, the shoulder joint 30R can control the angle of the upper arm 32R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The shoulder joint 30L can control the angle of the upper arm 32L around each of the A, B, and C axes. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 32L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.
[0016]
Forearms 36R and 36L are attached to the respective distal ends of upper arms 32R and 32L via elbow joints 34R and 34L. The elbow joints 34R and 34L can control the angles of the forearms 36R and 36L around the axes of the W axis and the D axis, respectively.
[0017]
In the X, Y, Z , W axis and A, B, C, and D axes that control the displacement of the upper arms 32R and 32L and the forearms 36R and 36L (FIG. 1), “0 degree” is the home position. In this home position, the upper arms 32R and 32L and the forearms 36R and 36L are directed downward.
[0018]
Although not shown, touch sensors are provided on the shoulder portion of the upper body 22 including the shoulder joints 30R and 30L, the upper arms 32R and 32L, and the forearms 36R and 36L, respectively. , It detects whether a person has touched these parts of the robot 10. These touch sensors are also generally indicated by reference numeral 72 in FIG.
[0019]
Spheres 38R and 38L corresponding to hands are fixedly attached to the tips of the forearms 36R and 36L, respectively. Instead of the spheres 38R and 38L, a “hand” in the shape of a human hand can be used when a finger function is required unlike the robot 10 of this embodiment.
[0020]
A head portion 42 is attached to the upper center of the upper body 22 via a neck joint 40. The neck joint 40 has three degrees of freedom and can be angle-controlled around each of the S, T, and U axes. The S-axis is an axis that goes directly from the neck, and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 42 is provided with a speaker 44 at a position corresponding to a human mouth, and an eye camera 46 at a position corresponding to the eyes. The speaker 44 is used by the robot 10 to communicate with a person around it by voice or voice. The eye camera 46 captures the video signal by photographing the face and other parts of the person approaching the robot 10. However, the speaker 44 may be provided in another part of the robot 10, for example, the trunk.
[0021]
Note that each of the omnidirectional camera 26 and the eye camera 46 described above may be a camera using a solid-state imaging device such as a CCD or a CMOS.
[0022]
2 shows the top surface of the main part of the robot 10 having a configuration different from that of the robot 10 of FIG. 1, and the upper body 22 has a front surface 22a, a back surface 22b, a right side surface 22c, a left side surface 22d, an upper surface 22e and a bottom surface 22f. In addition, the right side surface 22c and the left side surface 22d may be formed so that the surfaces face obliquely forward. That is, the width of the front surface 22a is shorter than the width of the back surface 22b, and the upper body 22 is formed in a trapezoidal shape when viewed from above. In such a case, the shoulder joints 30R and 30L of the arm of the robot 10 are attached to the right side surface 22c and the left side surface 22d via the support portions 80R and 80L. The surfaces of the support portions 80R and 80L are parallel to the right side surface 22c and the left side surface 22d, respectively. As described above, the upper arm 32R can be rotated about the Y axis, and the upper arm 32L can be rotated about the B axis. However, the upper arm 32R and the upper arm 32L can be rotated within the surfaces of the support portions 80R and 80L. It is regulated by (mounting surface). For this reason, the upper arms 32R and 32L do not rotate beyond the attachment surface.
[0023]
As can be seen from FIG. 2, the angle θ1 formed by the line L1 connecting the shoulder joint 30R, which is the base end of the upper arm 32R, and the shoulder joint 30L, which is the base end of the upper arm 32L, and the right side surface 22c (attachment surface) is 0 °. The condition of <θ1 <90 ° is satisfied. The angle θ2 formed by the connection line L1 and the left side surface 22d also satisfies the condition of 0 ° <θ2 <90 °. Since the connection line L1 is orthogonal to the front direction of the robot 10, the angle θ3 formed by the X axis perpendicular to the right side surface 22c and the front direction is equal to “180 ° −θ1”, and the A axis perpendicular to the left side surface 22d The angle θ4 formed by the forward direction is also equal to “180 ° −θ2”. Each of the angles θ1 and θ2 preferably satisfies the conditions of 30 ° ≦ θ1 ≦ 70 ° and 30 ° ≦ θ2 ≦ 70 °. Further, when the length of each of the upper arms 32R and 32L is 230 mm, the length of the forearms 36R and 36L is 235 mm, and the distance between the Y axis and the B axis is 518 mm, the angles θ1 and θ2 are 60 °. It is preferable that At this time, the angles θ3 and θ4 are 120 °.
[0024]
In this way, the upper arms 32R and 32L can turn to the inner side beyond the front, so that the arms of the robot 10 can cross forward even if there is no degree of freedom of the arms by the W axis and the D axis. Therefore, even when the degree of freedom of arms is small, close communication such as embracing with a person located in front can be achieved.
[0025]
The configuration of the control system of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 3, the robot 10 includes a microcomputer or a CPU 50 for overall control. The CPU 50 is connected to a memory 54, a motor control board 56, a sensor input / output board 58, and a voice through a bus 52. An input / output board 60 is connected.
[0026]
Although not shown, the memory 54 includes a ROM and a RAM, in which a control program for the robot 10 is written in advance and voice or voice data to be generated from the speaker 44 is stored. The RAM is used as a temporary storage memory and can be used as a working memory.
[0027]
The motor control board 56 is constituted by, for example, a DSP (Digital Signal Processor), and controls each axis motor of each arm and head. That is, the motor control board 56 receives the control data from the CPU 50, and controls the angles of the three motors for controlling the X, Y, and Z axes of the right shoulder joint 30R and the axis W of the right elbow joint 34R. The rotation angle of a total of four motors (one in FIG. 3 and collectively shown as “right arm motor”) 62 with one motor is adjusted. The motor control board 56 includes a total of four motors including three motors that control the angles of the A, B, and C axes of the left shoulder joint 30L and one motor that controls the angle of the D axis of the left elbow joint 34L. (They are collectively shown as “left arm motor” in FIG. 3). The motor control board 56 also adjusts the rotation angle of three motors 66 (collectively shown as “head motors” in FIG. 3 ) that control the angles of the S, T, and U axes of the head 42. To do. The motor control board 56 also controls a waist motor 68 and two motors 70 (referred to collectively as “wheel motors” in FIG. 3) that drive the wheels 14.
[0028]
In addition, the above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control, except for the wheel motors 70, but may be DC motors similarly to the wheel motors 70.
[0029]
Similarly, the sensor input / output board 58 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 50. That is, data relating to the reflection time from each of the ultrasonic distance sensors 18 is input to the CPU 50 through the sensor input / output board 58. The video signal from the omnidirectional camera 26 is input to the CPU 50 after being subjected to predetermined processing by the sensor input / output board 58 as required. The video signal from the eye camera 46 is also given to the CPU 50 in the same manner. In FIG. 3, the touch sensors described in FIG. 1 are collectively expressed as “touch sensors 72”, and signals from these touch sensors 72 are given to the CPU 50 via the sensor input / output board 58. .
[0030]
The speaker 44 is provided with synthesized voice data from the CPU 50 via the voice input / output board 60, and in response to this, the speaker 44 outputs voice or voice according to the data. Then, the voice input from the microphone 28 is taken into the CPU 50 via the voice input / output board 60.
[0031]
The robot 10 of this embodiment has a tactile function. When the body is touched, the robot 10 recognizes that the robot 10 has been touched by pointing the head in the direction of the touched portion. To tell. This operation will be described with reference to the flow shown in FIG.
[0032]
First, in step S1, the CPU 50 reads a signal from the touch sensor from the sensor input / output board 58, and whether or not there is a touch sensor whose value from the touch sensor indicates “touch sensor on” in step S3. to decide. If it is determined in step S3 that there is no touch sensor in the on state, the process ends. On the other hand, if it is determined in step S3 that there is an on-state touch sensor, the process proceeds to step S5.
[0033]
In step S5, joint angle data of each part of the robot 10 is read from the motor control board 56, and in step S7, size data of each part of the robot 10 is read from the memory 54.
[0034]
In step S9, the three-dimensional coordinates (α, β, γ) where the touch sensor is in the ON state are calculated from the size data and the joint angle data. In the subsequent step S11, the rotation angle s around the S axis in FIG. 1 is such that the head 42 of the robot 10 faces the direction of the three-dimensional coordinates (α, β, γ) where the touch sensor is turned on using the neck joint 40. , The rotation angle t around the T axis and the rotation angle u around the U axis are calculated.
[0035]
In step S13, the head of the robot 10 is tilted so as to see a part touched by a person. Specifically, the angle “s” is given to the motor that adjusts the rotation angle of the S axis, the angle “t” is given to the motor that adjusts the rotation angle of the T axis, and the angle is adjusted to the motor that adjusts the rotation angle of the U axis. “U” is given and all the remaining motors are given an angle “0”. Therefore, in this step S13, the head 42 of the robot 10 is rotated by the angle s around the S axis, the angle t around the T axis, and the angle u around the U axis, and the on-state touch sensor is turned on. Turn in a certain direction.
[0036]
Next, in step S15 to step S19, the robot raises the right hand and shakes the hand left and right. That is, first, in step S15, the angle “180” is given to the motor that adjusts the rotation angle of the X axis, and the angle “0” is given to all the remaining motors. Accordingly, in step S15, the right hand of the robot 10 is rotated by an angle “180” about the X axis, and the right hand is raised upward. Next, in step S17, an angle “180” is given to the motor that adjusts the rotation angle of the X axis, an angle “30” is given to the motor that adjusts the rotation angle of the Z axis, and the angle “0” is given to all the remaining motors. "give. Accordingly, in step S17, the right hand of the robot 10 is rotated by the angle “180” about the X axis and rotated by the angle “30” about the Z axis, and the right hand is moved to the right with the right hand raised upward. shake. In step S19, an angle “180” is given to the motor that adjusts the rotation angle of the X axis, an angle “−30” is given to the motor that adjusts the rotation angle of the Z axis, and the angle “0” is given to all the remaining motors. "give. Accordingly, in step S17, the right hand of the robot 10 is rotated by an angle “180” about the X axis and rotated by an angle “−30” about the Z axis, and the right hand is moved to the left with the right hand raised upward. Shake to.
[0037]
Finally, in step S <b> 21, the CPU 50 sends audio data from the memory 54 to the audio input / output board 60. Therefore, the synthesized voice “NAA-NI” is output from the speaker 44.
[0038]
In this way, when a person touches the robot 10, the head 42 of the robot 10 sees the part touched by the person, shakes his right hand, and responds to "What?" In this way, when a person touches the robot 10, it can be notified that the robot 10 has been touched, so that communication with the person can be further deepened.
[0039]
In addition, if the robot 10 has a mechanism that prevents the touched object from being broken, by looking at the direction in which the robot 10 touched, a person can predict that the robot 10 will avoid the touched object. There is no need to carelessly press the emergency stop button or the like of the robot 10.
[0040]
The embodiment of the present invention may be applied with various modifications. For example, in the above-described embodiment, the touch sensor is provided on the shoulder portion of the upper body 22 including the shoulder joints 30R and 30L, the upper arms 32R and 32L, the forearms 36R and 36L, and the front surface of the carriage 12. Touch sensors may be provided in any one of the shoulder portions 22, shoulder joints 30 </ b> R and 30 </ b> L, upper arms 32 </ b> R and 32 </ b> L, forearms 36 </ b> R and 36 </ b> L, and the carriage 12. Further, a touch sensor may be provided on the entire upper body 22, or a touch sensor may be provided on the entire surface of the carriage 12. Furthermore, a touch sensor may be provided at any part of the robot 10 such as the elbow joints 34R and 34L.
[Brief description of the drawings]
FIG. 1 is a front view showing an overall configuration of an embodiment of the present invention.
FIG. 2 is a top view showing an overall configuration of an embodiment of the present invention.
FIG. 3 is a block diagram of the embodiment of FIG.
FIG. 4 is a flowchart for explaining a part of the operation in the embodiment of FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Communication robot 20 ... Lower body 22 ... Upper body 30R, 30L ... Shoulder joint 32R, 32L ... Upper arm 34R, 34L ... Elbow joint 36R, 36L ... Forearm 40 ... Neck joint 42 ... Head 44 ... Speaker 50 ... CPU
54 ... Memory 56 ... Motor control board 58 ... Sensor I / O board 60 ... Voice I / O board 62 ... Right arm motor 64 ... Left arm motor 66 ... Head motor

Claims (4)

胴体、および前記胴体上に首関節を介して取り付けられた頭部を備え、アクションを用いてコミュニケーションを図るコミュニケーションロボットであって
前記コミュニケーションロボットの任意の箇所に設けられた複数のタッチセンサ、および
オン状態の前記タッチセンサが検出されたとき、当該タッチセンサの存在する方向に前記頭部を向ける制御データによって前記首関節を制御する頭部変位手段を備える、コミュニケーションロボット。
A communication robot comprising a torso and a head attached to the torso via a neck joint, and communicating with an action ,
When a plurality of touch sensors provided at arbitrary locations of the communication robot and the touch sensor in an on state are detected, the neck joint is controlled by control data for directing the head in a direction in which the touch sensor exists. A communication robot provided with a head displacement means.
オン状態の前記タッチセンサが存在する3次元座標を算出する座標算出手段をさらに備え、
前記頭部変位手段は前記座標算出手段によって算出された前記3次元座標に基づいて前記制御データを算出し、当該制御データによって前記首関節を制御する、請求項1記載のコミュニケーションロボット。
Coordinate calculating means for calculating three-dimensional coordinates where the touch sensor in the on state exists,
The communication robot according to claim 1, wherein the head displacement unit calculates the control data based on the three-dimensional coordinates calculated by the coordinate calculation unit, and controls the neck joint by the control data.
前記胴体上に肩関節を介して取り付けられた上腕、前記上腕に肘関節を介して取り付けられた前腕、および前記タッチセンサのいずれかがオン状態になったときに、前記肩関節および前記肘関節の少なくとも一方を制御して前記上腕および前記前腕の少なくとも一方を変位させる腕変位手段をさらに備える、請求項1または2記載のコミュニケーションロボット。  The shoulder joint and the elbow joint when any of an upper arm attached to the trunk via a shoulder joint, a forearm attached to the upper arm via an elbow joint, and the touch sensor is turned on The communication robot according to claim 1, further comprising arm displacement means for controlling at least one of the upper arm and the forearm to displace at least one of the upper arm and the forearm. 前記タッチセンサのいずれかがオン状態になったときに、音声を発生する音声発生手段をさらに備える、請求項1ないし3のいずれかに記載のコミュニケーションロボット。  The communication robot according to any one of claims 1 to 3, further comprising sound generation means for generating a sound when any of the touch sensors is turned on.
JP2001166018A 2001-06-01 2001-06-01 Communication robot Expired - Lifetime JP3989698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001166018A JP3989698B2 (en) 2001-06-01 2001-06-01 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001166018A JP3989698B2 (en) 2001-06-01 2001-06-01 Communication robot

Publications (2)

Publication Number Publication Date
JP2002355783A JP2002355783A (en) 2002-12-10
JP3989698B2 true JP3989698B2 (en) 2007-10-10

Family

ID=19008614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001166018A Expired - Lifetime JP3989698B2 (en) 2001-06-01 2001-06-01 Communication robot

Country Status (1)

Country Link
JP (1) JP3989698B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105598937A (en) * 2016-02-01 2016-05-25 湖北工业大学 Automatic tallying robot for supermarket

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3942586B2 (en) * 2003-12-02 2007-07-11 株式会社国際電気通信基礎技術研究所 Communication robot
JP4431757B2 (en) * 2004-03-30 2010-03-17 株式会社国際電気通信基礎技術研究所 Robot system
JP2008272883A (en) * 2007-04-27 2008-11-13 Yaskawa Electric Corp Double-arm type robot manipulator
JP5177835B2 (en) * 2007-04-27 2013-04-10 株式会社安川電機 Double-arm robot manipulator
US8511964B2 (en) * 2009-09-22 2013-08-20 GM Global Technology Operations LLC Humanoid robot
JP2015526309A (en) * 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド System and method for safe robot operation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105598937A (en) * 2016-02-01 2016-05-25 湖北工业大学 Automatic tallying robot for supermarket

Also Published As

Publication number Publication date
JP2002355783A (en) 2002-12-10

Similar Documents

Publication Publication Date Title
US6604021B2 (en) Communication robot
JP4564447B2 (en) Autonomous mobile robot
JP5186723B2 (en) Communication robot system and communication robot gaze control method
TW544380B (en) Two feet walking robot resembling a man
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP4418905B2 (en) Communication robot
JPWO2007132571A1 (en) robot
JP2007118129A (en) Communication robot and caution control system using the same
JP4565196B2 (en) Communication robot
JP4063560B2 (en) Communication robot
JP2006272471A (en) Communication robot
JP2007276063A (en) Fixing device for robot
JP2004283975A (en) Communication robot
EP3587048A1 (en) Motion restriction system and method
JP3989698B2 (en) Communication robot
JP2003200366A (en) Robot
JP3942599B2 (en) Communication robot
JP2002361585A (en) Communication robot
JP2004042151A (en) Communication robot
JP2006205343A (en) Communication robot system, and robot control device
JP2007130691A (en) Communication robot
JP3745649B2 (en) Communication robot
JP4878462B2 (en) Communication robot
JP4645897B2 (en) Robot equipment
JP4517085B2 (en) Robot remote control system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060123

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3989698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140727

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term