JP3989698B2 - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP3989698B2 JP3989698B2 JP2001166018A JP2001166018A JP3989698B2 JP 3989698 B2 JP3989698 B2 JP 3989698B2 JP 2001166018 A JP2001166018 A JP 2001166018A JP 2001166018 A JP2001166018 A JP 2001166018A JP 3989698 B2 JP3989698 B2 JP 3989698B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- axis
- touch sensor
- communication robot
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
【0001】
【産業上の利用分野】
この発明は、コミュニケーションロボットに関し、特にたとえば、触覚を備えたコミュニケーションロボットに関する。
【0002】
【従来の技術】
従来のロボットには、触覚を備えたものが存在した。
【0003】
【発明が解決しようとする課題】
しかし、従来のロボットでは触覚を使って触られたことを知覚してもそれを人に伝える手段を備えておらず、せっかく触れても人はロボットが触られたことを知覚しているかどうか知ることができなかった。
【0004】
それゆえに、この発明の主たる目的は、触られたことをロボットが知覚できたことを人に知らせることができる、コミュニケーションロボットを提供することである。
【0005】
【課題を解決するための手段】
この発明は、胴体、および胴体上に首関節を介して取り付けられた頭部を備え、アクションを用いてコミュニケーションを図るコミュニケーションロボットであって、コミュニケーションロボットの任意の箇所に設けられた複数のタッチセンサ、およびオン状態のタッチセンサが検出されたとき、当該タッチセンサの存在する方向に頭部を向ける制御データによって首関節を制御する頭部変位手段を備える、コミュニケーションロボットである。
【0006】
【作用】
この発明においては、人がコミュニケーションロボットに触れると、タッチセンサがオン状態になって人が触れたことを検知する。すると、座標算出手段は肩関節や可動腕の位置およびロボットの各部位の大きさからオン状態のタッチセンサがある箇所、つまり人が触れた箇所の3次元座標を求める。そして、頭部変位手段は首関節を制御して座標算出手段が求めた3次元座標が示す箇所、つまり人が触れた箇所に頭部が向くようにする。
【0007】
好ましい実施例では、タッチセンサがオン状態になると、腕変位手段が肩関節および肘関節を制御して、たとえば手を上げて上げた手を左右に振り、さらに音声発生手段が「なぁ〜に」という音声を発生させる。
【0008】
【発明の効果】
この発明によれば、人がコミュニケーションロボットに触れると、タッチセンサがそれを検知し、触れられた箇所の方向に頭部が向く。したがって、コミュニケーションロボットが触れられたことを認識していることを人に伝えることができ、ロボットと人とのコミュニケーションが図れる。
【0009】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0010】
【実施例】
図1は本発明の全体構成を示しており、同図を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の下面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図3において参照番号「70」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサ(図3において、参照番号「74」で示す。)が取り付けられ、この衝突センサは、台車12への人や他の障害物の接触を検知する。そして、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪14の駆動を停止してロボット10の移動を急停止させて衝突を未然に防ぐ。
【0011】
なお、ロボット10の背の高さは、この実施例では、人、特に子供に威圧感をあたえることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
【0012】
台車12の上には、多角形柱のセンサ取付パネル16が設けられ、このセンサ取付パネル16の各面には、超音波距離センサ18が取り付けられる。この超音波距離センサ18は、取付パネル16すなわちロボット10の周囲の主として人との間の距離を計測するものである。
【0013】
台車12の上には、さらに、下部が上述の取付パネル16に囲まれて、ロボット10の胴体が直立するように取り付けられる。この胴体は下部胴体20と上部胴体22とから構成され、これら下部胴体20および上部胴体22は、連結部24によって、連結される。連結部24には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体22の高さすなわちロボット10の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「68」で示す。)によって駆動される。上で述べたロボット10の身長100cmは、上部胴体22をそれの最下位置にしたときの値である。したがって、ロボット10の身長は100cm以上にすることができる。
【0014】
上部胴体22のほぼ中央には、1つの全方位カメラ26と、1つのマイク28とが設けられる。全方位カメラ26は、ロボット10の周囲を撮影するもので、後述の眼カメラ46と区別される。マイク28は、周囲の音、とりわけ人の声を取り込む。
【0015】
上部胴体22の両肩には、それぞれ、肩関節30Rおよび30Lによって、上腕32Rおよび32Lが取り付けられる。肩関節30Rおよび30Lは、それぞれ3軸の自由度を有する。すなわち、肩関節30Rは、X軸,Y軸およびZ軸のそれぞれの軸廻りにおいて上腕32Rの角度を制御できる。Y軸は、上腕32Rの長手方向(または軸)に並行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。肩関節30Lは、A軸,B軸およびC軸のそれぞれの軸廻りにおいて上腕32Lの角度を制御できる。B軸は、上腕32Lの長手方向(または軸)に並行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
【0016】
上腕32Rおよび32Lのそれぞれの先端には、肘関節34Rおよび34Lを介して、前腕36Rおよび36Lが取り付けられる。肘関節34Rおよび34Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕36Rおよび36Lの角度を制御できる。
【0017】
なお、上腕32Rおよび32Lならびに前腕36Rおよび36L(いずれも図1)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕32Rおよび32Lならびに前腕36Rおよび36Lは下方向に向けられる。
【0018】
また、図示しないが、上部胴体22の肩関節30Rおよび30Lを含む肩の部分や上述の上腕32Rおよび32Lならびに前腕36Rおよび36Lには、それぞれ、タッチセンサが設けられていて、これらのタッチセンサは、人がロボット10のこれらの部位に接触したかどうかを検知する。これらのタッチセンサも図3において参照番号72で包括的に示す。
【0019】
前腕36Rおよび36Lのそれぞれの先端には、手に相当する球体38Rおよび38Lがそれぞれ固定的に取り付けられる。なお、この球体38Rおよび38Lに代えて、この実施例のロボット10と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0020】
上部胴体22の中央上方には、首関節40を介して、頭部42が取り付けられる。この首関節40は、3つの自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部42には、人の口に相当する位置に、スピーカ44が設けられ、目に相当する位置に眼カメラ46が設けられる。スピーカ44は、ロボット10が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。眼カメラ46は、ロボット10に接近した人の顔や他の部分を撮影してその映像信号を取り込む。ただし、スピーカ44は、ロボット10の他の部位たとえば胴体に設けられてもよい。
【0021】
なお、上述の全方位カメラ26および眼カメラ46のいずれも、たとえばCCDやCMOSのように個体撮像素子を用いるカメラであってよい。
【0022】
図2は図1のロボット10とは異なる構成のロボット10の主要部の上面を示しており、上部胴体22は、前面22a,背面22b,右側面22c,左側面22d,上面22eおよび底面22fを含み、右側面22cおよび左側面22dは表面が斜め前方に向くように形成してもよい。つまり、前面22aの横幅が背面22bの横幅よりも短く、上部胴体22を上から見た形状が台形になるように形成される。このような場合、ロボット10の腕は肩関節30Rおよび30Lが支持部80Rおよび80Lを介して右側面22cおよび左側面22dに取り付けられる。なお、支持部80Rおよび80Lの表面はそれぞれ右側面22cおよび左側面22dと平行である。上述したように上腕32RはY軸廻りに回動可能であり、上腕32LはB軸廻りに回動が可能であるが、上腕32Rおよび上腕32Lの回動範囲は、支持部80Rおよび80Lの表面(取り付け面)によって規制される。このため、上腕32Rおよび32Lが取り付け面を超えて回動することはない。
【0023】
図2から分かるように、上腕32Rの基端である肩関節30Rと上腕32Lの基端である肩関節30Lとを結ぶ線L1と右側面22c(取り付け面)とがなす角度θ1は、0°<θ1<90°の条件を満たす。上述の結線L1と左側面22dとがなす角度θ2もまた、0°<θ2<90°の条件を満たす。結線L1はロボット10の前方向と直交しているため、右側面22cに垂直なX軸と前方向とがなす角度θ3は“180°−θ1”に等しく、左側面22dに垂直なA軸と前方向とがなす角度θ4も“180°−θ2”に等しい。なお、角度θ1およびθ2の各々は、好ましくは30°≦θ1≦70°および30°≦θ2≦70°の条件を満たすのがよい。さらに、上腕32Rおよび32Lの各々の長さを230mmとし、前腕36Rおよび36Lの長さを235mmとし、そしてY軸とB軸との間の距離を518mmとした場合、角度θ1およびθ2は60°とすることが好ましい。このとき、角度θ3およびθ4は120°となる。
【0024】
このようにすれば、上腕32Rおよび32Lは前方を越えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット10の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接なコミュニケーションを図ることができる。
【0025】
図1に示すロボット10の制御系の構成が図3のブロック図に示される。図3に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バス52を通して、メモリ54,モータ制御ボード56,センサ入力/出力ボード58および音声入力/出力ボード60が接続される。
【0026】
メモリ54は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ44から発生すべき音声または声の音声データが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
【0027】
モータ制御ボード56は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード56は、CPU50からの制御データを受け、右肩関節30RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの軸Wの角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)62の回転角度を調節する。また、モータ制御ボード56は、左肩関節30LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節34LのD軸の角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)64の回転角度を調節する。モータ制御ボード56は、また、頭部42のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて、「頭部モータ」として示す。)66の回転角度を調節する。モータ制御ボード56は、また、腰モータ68、および車輪14を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)70を制御する。
【0028】
なお、この実施例の上述のモータは、車輪モータ70を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ70と同様に、直流モータであってよい。
【0029】
センサ入力/出力ボード58も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU50に与える。すなわち、超音波距離センサ18の各々からの反射時間に関するデータがこのセンサ入力/出力ボード58を通して、CPU50に入力される。また、全方位カメラ26からの映像信号が、必要に応じてこのセンサ入力/出力ボード58で所定の処理が施された後、CPU50に入力される。眼カメラ46からの映像信号も、同様にして、CPU50に与えられる。なお、この図3では、図1で説明したタッチセンサは、まとめて「タッチセンサ72」として表され、それらのタッチセンサ72からの信号がセンサ入力/出力ボード58を介して、CPU50に与えられる。
【0030】
なお、スピーカ44には音声入力/出力ボード60を介して、CPU50から、合成音声データが与えられ、それに応じて、スピーカ44からはそのデータに従った音声または声が出力される。そして、マイク28からの音声入力が、音声入力/出力ボード60を介して、CPU50に取り込まれる。
【0031】
この実施例のロボット10は、触覚機能を備えておりボディーを触られると、その触られた箇所の方向に頭部を向けることによって、ロボット10が触られたことを認識していることを人に伝える。この動作を図4に示すフローを用いて説明する。
【0032】
まず、ステップS1において、CPU50は、タッチセンサからの信号をセンサ入力/出力ボード58から読み込み、ステップS3においてタッチセンサからの値が「タッチセンサのオン」を示しているタッチセンサが存在するかどうか判断する。ステップS3でオン状態のタッチセンサが存在しないと判断すると処理を終了する。一方、ステップS3でオン状態のタッチセンサが存在すると判断するとステップS5に進む。
【0033】
ステップS5では、ロボット10の各部位の関節の角度データをモータ制御ボード56から読み出し、続くステップS7ではロボット10の各部位の大きさデータをメモリ54から読み出す。
【0034】
そして、ステップS9では、大きさデータおよび関節の角度データからオン状態のタッチセンサがある3次元座標(α,β,γ)を算出する。続くステップS11ではロボット10の頭部42が首関節40を用いてオン状態のタッチセンサがある3次元座標(α,β,γ)の方向を向くような図1のS軸廻りの回転角度s、T軸廻りの回転角度t、U軸廻りの回転角度uを算出する。
【0035】
ステップS13では、ロボット10の頭部を人の触った箇所を見るように傾ける。具体的には、S軸の回転角度を調整するモータに角度「s」を与え、T軸の回転角度を調整するモータに角度「t」を与え、U軸の回転角度を調整するモータに角度「u」を与え、残りのモータにはすべて角度「0」を与える。したがって、このステップS13では、ロボット10の頭部42がS軸を中心として角度sだけ、T軸を中心として角度tだけ、U軸を中心として角度uだけそれぞれ回転され、オン状態のタッチセンサがある方向を向く。
【0036】
つぎに、ステップS15からステップS19では、ロボットが右手を上げて手を左右に振る。つまり、まず、ステップS15では、X軸の回転角度を調整するモータに角度「180」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS15では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、右手を上に上げる。つぎに、ステップS17では、X軸の回転角度を調整するモータに角度「180」を与え、Z軸の回転角度を調整するモータに角度「30」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS17では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、かつZ軸を中心として角度「30」だけ回転され、右手を上に上げた状態で右手を右に振る。そして、ステップS19では、X軸の回転角度を調整するモータに角度「180」を与え、Z軸の回転角度を調整するモータに角度「−30」を与え、残りのモータにはすべて角度「0」を与える。したがって、ステップS17では、ロボット10の右手がX軸を中心として角度「180」だけ回転され、かつZ軸を中心として角度「−30」だけ回転され、右手を上に上げた状態で右手を左に振る。
【0037】
最後にステップS21において、CPU50は、メモリ54から、音声入出力ボード60へ音声データを送る。したがって、スピーカ44から合成音声「なぁ〜に」が出力される。
【0038】
このように、人がロボット10に触れると、ロボット10の頭部42が人の触れた箇所を見て、右手を振るとともに「なぁ〜に」と応えるという行動をする。このようにして、人がロボット10に触れると、ロボット10が触れられたことを認識していることを伝えることができるので、人とのコミュニケーションをより深めることができる。
【0039】
また、ロボット10が、触れたものを壊さないようにする機構を備えていれば、ロボット10が触れた方向を見ることによって、人はロボット10が触れた物を回避することが予測できるので、ロボット10の非常停止ボタンなどを不用意に押さなくても済むようになる。
【0040】
なお、この発明の実施の形態は種々に変更して適用してもよい。たとえば、上述の実施例では、タッチセンサは上部胴体22の肩関節30Rおよび30Lを含む肩の部分,上腕32Rおよび32L,前腕36Rおよび36L,ならびに台車12の前面に設けることとしたが、上部胴体22の肩の部分,肩関節30Rおよび30L,上腕32Rおよび32L,前腕36Rおよび36L,台車12のいずれかひとつにタッチセンサを設けるようにしてもよい。また、上部胴体22の全体にタッチセンサを設けるようにしてもよく、台車12の全面にタッチセンサを設けるようにしてもよい。さらに言えば、肘関節34Rおよび34Lなど、ロボット10のどの部位にタッチセンサを設けるようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例の全体構成を示す正面図である。
【図2】この発明の一実施例の全体構成を示す上面図である。
【図3】図1の実施例のブロック図である。
【図4】図1の実施例における動作の一部を説明するフロー図である。
【符号の説明】
10 …コミュニケーションロボット
20 …下部胴体
22 …上部胴体
30R、30L …肩関節
32R、32L …上腕
34R、34L …肘関節
36R、36L …前腕
40 …首関節
42 …頭部
44 …スピーカ
50 …CPU
54 …メモリ
56 …モータ制御ボード
58 …センサ入出力ボード
60 …音声入出力ボード
62 …右腕モータ
64 …左腕モータ
66 …頭部モータ[0001]
[Industrial application fields]
The present invention relates to a communication robot, and more particularly to a communication robot having a tactile sense.
[0002]
[Prior art]
Some conventional robots have tactile sensations.
[0003]
[Problems to be solved by the invention]
However, conventional robots do not have a means of telling people that they have been touched using tactile sensations, and even if they touch it, they know if the person perceives that the robot has been touched. I couldn't.
[0004]
Therefore, a main object of the present invention is to provide a communication robot capable of notifying a person that the robot can perceive touching.
[0005]
[Means for Solving the Problems]
The present invention includes a body, and includes a head portion attached via a neck joint on the fuselage, a communication robot that promote communication with an action, a plurality of touch sensors provided anywhere in communication robot When the touch sensor in the ON state is detected, the communication robot includes head displacement means for controlling the neck joint by control data for directing the head in the direction in which the touch sensor exists.
[0006]
[Action]
In this invention, when a person touches the communication robot, the touch sensor is turned on to detect that the person has touched. Then, the coordinate calculation means obtains the three-dimensional coordinates of the location where the touch sensor is in an on state, that is, the location touched by a person, from the position of the shoulder joint or the movable arm and the size of each part of the robot. Then, the head displacing means controls the neck joint so that the head is directed to the place indicated by the three-dimensional coordinates obtained by the coordinate calculating means, that is, the place touched by a person.
[0007]
In a preferred embodiment, when the touch sensor is turned on, the arm displacing means controls the shoulder joint and elbow joint, for example, the hand raised up and swung to the left and right, and the sound generating means is The sound is generated.
[0008]
【The invention's effect】
According to this invention, when a person touches the communication robot, the touch sensor detects it and the head faces in the direction of the touched part. Therefore, it is possible to tell the person that the communication robot has been touched, and communication between the robot and the person can be achieved.
[0009]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0010]
【Example】
FIG. 1 shows the overall configuration of the present invention. Referring to FIG. 1, a communication robot (hereinafter sometimes simply referred to as “robot”) 10 of this embodiment includes a
[0011]
In this embodiment, the height of the
[0012]
A polygonal column sensor mounting panel 16 is provided on the
[0013]
On the
[0014]
One
[0015]
[0016]
[0017]
In the X, Y, Z , W axis and A, B, C, and D axes that control the displacement of the
[0018]
Although not shown, touch sensors are provided on the shoulder portion of the
[0019]
[0020]
A
[0021]
Note that each of the
[0022]
2 shows the top surface of the main part of the
[0023]
As can be seen from FIG. 2, the angle θ1 formed by the line L1 connecting the
[0024]
In this way, the
[0025]
The configuration of the control system of the
[0026]
Although not shown, the
[0027]
The
[0028]
In addition, the above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control, except for the
[0029]
Similarly, the sensor input /
[0030]
The
[0031]
The
[0032]
First, in step S1, the
[0033]
In step S5, joint angle data of each part of the
[0034]
In step S9, the three-dimensional coordinates (α, β, γ) where the touch sensor is in the ON state are calculated from the size data and the joint angle data. In the subsequent step S11, the rotation angle s around the S axis in FIG. 1 is such that the
[0035]
In step S13, the head of the
[0036]
Next, in step S15 to step S19, the robot raises the right hand and shakes the hand left and right. That is, first, in step S15, the angle “180” is given to the motor that adjusts the rotation angle of the X axis, and the angle “0” is given to all the remaining motors. Accordingly, in step S15, the right hand of the
[0037]
Finally, in step S <b> 21, the
[0038]
In this way, when a person touches the
[0039]
In addition, if the
[0040]
The embodiment of the present invention may be applied with various modifications. For example, in the above-described embodiment, the touch sensor is provided on the shoulder portion of the
[Brief description of the drawings]
FIG. 1 is a front view showing an overall configuration of an embodiment of the present invention.
FIG. 2 is a top view showing an overall configuration of an embodiment of the present invention.
FIG. 3 is a block diagram of the embodiment of FIG.
FIG. 4 is a flowchart for explaining a part of the operation in the embodiment of FIG. 1;
[Explanation of symbols]
DESCRIPTION OF
54 ...
Claims (4)
前記コミュニケーションロボットの任意の箇所に設けられた複数のタッチセンサ、および
オン状態の前記タッチセンサが検出されたとき、当該タッチセンサの存在する方向に前記頭部を向ける制御データによって前記首関節を制御する頭部変位手段を備える、コミュニケーションロボット。 A communication robot comprising a torso and a head attached to the torso via a neck joint, and communicating with an action ,
When a plurality of touch sensors provided at arbitrary locations of the communication robot and the touch sensor in an on state are detected, the neck joint is controlled by control data for directing the head in a direction in which the touch sensor exists. A communication robot provided with a head displacement means.
前記頭部変位手段は前記座標算出手段によって算出された前記3次元座標に基づいて前記制御データを算出し、当該制御データによって前記首関節を制御する、請求項1記載のコミュニケーションロボット。Coordinate calculating means for calculating three-dimensional coordinates where the touch sensor in the on state exists,
The communication robot according to claim 1, wherein the head displacement unit calculates the control data based on the three-dimensional coordinates calculated by the coordinate calculation unit, and controls the neck joint by the control data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001166018A JP3989698B2 (en) | 2001-06-01 | 2001-06-01 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001166018A JP3989698B2 (en) | 2001-06-01 | 2001-06-01 | Communication robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002355783A JP2002355783A (en) | 2002-12-10 |
JP3989698B2 true JP3989698B2 (en) | 2007-10-10 |
Family
ID=19008614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001166018A Expired - Lifetime JP3989698B2 (en) | 2001-06-01 | 2001-06-01 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3989698B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105598937A (en) * | 2016-02-01 | 2016-05-25 | 湖北工业大学 | Automatic tallying robot for supermarket |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3942586B2 (en) * | 2003-12-02 | 2007-07-11 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP4431757B2 (en) * | 2004-03-30 | 2010-03-17 | 株式会社国際電気通信基礎技術研究所 | Robot system |
JP2008272883A (en) * | 2007-04-27 | 2008-11-13 | Yaskawa Electric Corp | Double-arm type robot manipulator |
JP5177835B2 (en) * | 2007-04-27 | 2013-04-10 | 株式会社安川電機 | Double-arm robot manipulator |
US8511964B2 (en) * | 2009-09-22 | 2013-08-20 | GM Global Technology Operations LLC | Humanoid robot |
JP2015526309A (en) * | 2012-08-31 | 2015-09-10 | リシンク ロボティクス インコーポレイテッド | System and method for safe robot operation |
-
2001
- 2001-06-01 JP JP2001166018A patent/JP3989698B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105598937A (en) * | 2016-02-01 | 2016-05-25 | 湖北工业大学 | Automatic tallying robot for supermarket |
Also Published As
Publication number | Publication date |
---|---|
JP2002355783A (en) | 2002-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6604021B2 (en) | Communication robot | |
JP4564447B2 (en) | Autonomous mobile robot | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
TW544380B (en) | Two feet walking robot resembling a man | |
JP4849244B2 (en) | Mobile robot and moving speed estimation method | |
JP4418905B2 (en) | Communication robot | |
JPWO2007132571A1 (en) | robot | |
JP2007118129A (en) | Communication robot and caution control system using the same | |
JP4565196B2 (en) | Communication robot | |
JP4063560B2 (en) | Communication robot | |
JP2006272471A (en) | Communication robot | |
JP2007276063A (en) | Fixing device for robot | |
JP2004283975A (en) | Communication robot | |
EP3587048A1 (en) | Motion restriction system and method | |
JP3989698B2 (en) | Communication robot | |
JP2003200366A (en) | Robot | |
JP3942599B2 (en) | Communication robot | |
JP2002361585A (en) | Communication robot | |
JP2004042151A (en) | Communication robot | |
JP2006205343A (en) | Communication robot system, and robot control device | |
JP2007130691A (en) | Communication robot | |
JP3745649B2 (en) | Communication robot | |
JP4878462B2 (en) | Communication robot | |
JP4645897B2 (en) | Robot equipment | |
JP4517085B2 (en) | Robot remote control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050520 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060113 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060123 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20060303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070718 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3989698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140727 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |