JP4317518B2 - 物品運搬システム - Google Patents
物品運搬システム Download PDFInfo
- Publication number
- JP4317518B2 JP4317518B2 JP2004361467A JP2004361467A JP4317518B2 JP 4317518 B2 JP4317518 B2 JP 4317518B2 JP 2004361467 A JP2004361467 A JP 2004361467A JP 2004361467 A JP2004361467 A JP 2004361467A JP 4317518 B2 JP4317518 B2 JP 4317518B2
- Authority
- JP
- Japan
- Prior art keywords
- article
- robot
- gripping
- unit
- receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 109
- 230000009471 action Effects 0.000 claims description 16
- 238000013459 approach Methods 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 61
- 238000012545 processing Methods 0.000 description 36
- 238000007726 management method Methods 0.000 description 27
- 238000007689 inspection Methods 0.000 description 24
- 230000006399 behavior Effects 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 20
- 210000002414 leg Anatomy 0.000 description 17
- 238000000034 method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000005684 electric field Effects 0.000 description 14
- 238000000605 extraction Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 11
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 10
- 210000004247 hand Anatomy 0.000 description 6
- 210000004394 hip joint Anatomy 0.000 description 6
- 210000000323 shoulder joint Anatomy 0.000 description 6
- 210000003857 wrist joint Anatomy 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 210000001503 joint Anatomy 0.000 description 4
- 210000000629 knee joint Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000001699 lower leg Anatomy 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S414/00—Material or article handling
- Y10S414/135—Associated with semiconductor wafer handling
- Y10S414/136—Associated with semiconductor wafer handling including wafer orienting means
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
特許文献1に記載のロボット把持制御装置は、物品を把持したロボットが、人に物品を受け渡す際の制御を行うためのものである。
そして、人は「ロボットが物品を受け取った」と判断すると、物品を手放すので、外力検出手段で検出される外力が低下する。物品運搬システムは、この外力の低下を利用して、ロボットによる物品の受取動作が完了したか否かを判定する。
また、物品運搬システムは、把持部の開度が小さくなった、すなわち、把持部が所定量以上閉じた場合にも、ロボットによる物品の受取動作が完了したと判定する。
このように、物品運搬システムは、受取動作の開始の可否判定と、受取動作の完了の把握と、を行うことができるので、人に違和感を与えることなく受取動作を行うことができる。
また、受取動作完了後に物品を把持することで、人にロボットが無理矢理物品を奪ったといった感覚を感じさせにくくなる。
さらには、物品の把持の成否を判定することが可能となる。
さらには、両把持部が物品を把持しているか否かを判定することが可能となる。
はじめに、本発明の実施形態に係るロボット制御システムAについて説明する。図1は、本発明の実施形態に係るロボット制御システムを示すシステム構成図である。
図1に示すように、ロボット制御システムAは、タスク実行エリアEAに配置された1台以上(本実施形態では1台)のロボットRと、これらロボットRと無線通信によって接続された基地局(例えば、無線LAN)1と、基地局1にルーター2を介して接続されたロボット管理装置(例えば、サーバー)3と、ロボット管理装置3にネットワーク4を介して接続された端末5と、検知対象(人)Hが装着した検知用タグTと、を備えている。
続いて、本発明の実施形態に係るロボットRについて説明する。以下の説明において、ロボットRの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる(図2参照)。
本発明の実施形態に係るロボットRは、自律移動型の2足移動ロボットである。このロボットRは、ロボット管理装置3から送信された実行命令信号に基づき、タスクを実行するものである。
続いて、ロボットRの駆動構造について説明する。図3は、図1のロボットの駆動構造を模式的に示す斜視図である。なお、図3における関節部は、当該関節部を駆動する電動モータにより示されている。
図3に示すように、左右それぞれの脚部R1は、6個の関節部11R(L)〜16R(L)を備えている。左右12個の関節は、股部(脚部R1と上体部R2との連結部分)の脚部回旋用(Z軸まわり)の股関節部11R,11L(右側をR、左側をLとする。また、R,Lを付さない場合もある。以下同じ。)、股部のピッチ軸(Y軸)まわりの股関節部12R,12L、股部のロール軸(X軸)まわりの股関節部13R,13L、膝部のピッチ軸(Y軸)まわりの膝関節部14R,14L、足首のピッチ軸(Y軸)まわりの足首関節部15R,15L、および、足首のロール軸(X軸)まわりの足首関節部16R,16Lから構成されている。そして、脚部R1の下には足部17R,17Lが取り付けられている。
図3に示すように、上体部R2は、ロボットRの基体部分であり、脚部R1、腕部R2および頭部R4と連結されている。すなわち、上体部R2(上体リンク53)は、股関節部11R(L)〜13R(L)を介して脚部R1と連結されている。また、上体部R2は、後記する肩関節部31R(L)〜33R(L)を介して腕部R3と連結されている。また、上体部R2は、後記する首関節部41,42を介して頭部R4と連結されている。
また、上体部R2は、上体回旋用(Z軸まわり)の関節部21を備えている。
図3に示すように、左右それぞれの腕部R3は、7個の関節部31R(L)〜37R(L)を備えている。左右14個の関節部は、肩部(腕部R3と上体部R2との連結部分)のピッチ軸(Y軸)まわりの肩関節部31R,31L、肩部のロール軸(X軸)まわりの肩関節部32R,32L、腕部回旋用(Z軸まわり)の肩関節部33R,33L、肘部のピッチ軸(Y軸)まわりの肘関節部34R,34L、手首回旋用(Z軸まわり)の腕関節部35R,35L、手首のピッチ軸(Y軸)まわりの手首関節部36R,36L、および手首のロール軸(X軸)まわりの手首関節部37R,37Lから構成されている。そして、腕部R3の先端には把持部(ハンド)71R,71Lが取り付けられている。
図3に示すように、頭部R4は、首部(頭部R4と上体部R2との連結部分)のY軸まわりの首関節部41と、首部のZ軸まわりの首関節部42と、を備えている。首関節部41は頭部R4のチルト角を設定するためのものであり、首関節部42は頭部R4のパンを設定するためのものである。
また、各関節部の電動モータは、その出力を減速・増力する減速機(図示せず)を介して前記した大腿リンク51R(L)、下腿リンク52R(L)などを相対変位させる。これら各関節部の角度は、関節角度検出手段(例えば、ロータリエンコーダ)によって検出される。
ジャイロセンサSR1は、ロボットRの向きに関するデータ(向きデータ)を検出する。また、GPS受信器SR2は、ロボットRの位置に関するデータ(位置データ)を検出する。ジャイロセンサSR1およびGPS受信器SR2が検出したデータは、主制御部200に出力され、ロボットRの行動を決定するために利用されると共に、主制御部200から無線通信部170を介してロボット管理装置3に送信される。
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部100に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R4の内部に配設される。
画像処理部100は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部100は、ステレオ処理部101、移動体抽出部102および顔認識部103を備えている。
移動体の抽出をするために、移動体抽出部102は、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、その位置に人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部103へ移動体の画像を出力する。
また、移動体抽出部102は、抽出した移動体の高さ、すなわち身長を算出し、顔認識部103へ出力する。
すなわち、移動体抽出部102は、ロボットRに対する人の位置を特定することができ、特許請求の範囲における「人位置特定手段」の一例である。
また、移動体抽出部102は、人の身長を算出することができ、特許請求の範囲における「身長特定手段」の一例である。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部200に出力されると共に、無線通信部170に出力されて、基地局1を介して、ロボット管理装置3に送信される。
スピーカSは、後記する音声合成部111により生成された音声データに基づき、音声を出力する。
マイクMC,MCは、ロボットRの周囲の音を集音するものである。集音された音は、後記する音声認識部112および音源定位部113に出力される。
音声処理部110は、音声合成部111、音声認識部112および音源定位部113を備えている。
続いて、図4の対象検知部120と、検知用タグTと、について、図5ないし図8を参照して説明する。図5は、図4の対象検知部を示すブロック図である。図6は、図1の検知用タグを示すブロック図である。図7は、対象検知部による探索域を説明するための図であり、(a)は平面図、(b)は側面図である。図8は、対象検知部による周辺領域のエリア分けを説明するための図である。
対象検知部120は、ロボットRの周囲に検知用タグTを備える検知対象Hが存在するか否かを検知すると共に、検知対象Hの存在が検知された場合、当該検知対象Hの位置を特定するものである。
ここで、検索信号とは、ロボットRの周囲に検知対象Hが存在するか否かを検知するための信号であり、方向検査信号とは、検知対象HがロボットRを基準としてどの方向に位置するのかを検知するための信号である。
また、受信報告信号とは、検知用タグTが、少なくとも検索信号を受信したことを示す信号である。
そして、信号生成部121a1は、当該ロボットIDと、受信報告要求信号とを含んで構成される検索信号を生成する。
ここで、受信報告要求信号とは、検索信号を受信した検知対象H(検知用タグT)に対して、当該検索信号を受信した旨を示す信号(受信報告信号)を生成するように要求する信号である。
方向検査信号は、発光手段123に設けられた発光部(LED1〜LED8)の総てについて、個別に生成されるものであり、前記したロボットIDと、発光部を特定する識別子(発光部ID)を含んで構成される。
なお、この方向検査信号は、後記する復号化部121dから入力される受信報告信号に発光要求信号が含まれている場合にも生成される。
例えば、ロボットIDが「02」であり、発光部(LED1〜LED8)の発光部IDが「L1〜L8」である場合、発光部LED1について生成される方向検索信号は、ロボットID=「02」と、発光部ID=「L1」とを含み、発光部LED2について生成される方向検査信号は、ロボットID=「02」と、発光部ID=「L2」とを含むことになる。
なお、位置特定部121a2は、検索信号を受信した検知用タグTから送信された受信報告信号をもとに、検知対象Dの位置を特定するものであるが、その際にこの位置特定部121a2で行われる処理は、復号化部121dおよび電界強度検出部121eにおける処理と共に、後に詳細に説明する。
これにより、暗号化検索信号は、変調されたのち、電波送受信手段122から無線送信されることになる。
よって、図5に示すように、発光手段123には合計8つの発光部が設けられているので、暗号化部121bには、合計8つの方向検査信号がデータ処理部121aから入力される。
その結果、合計8つの暗号化方向検査信号がこの暗号化部121bにおいて生成され、時分割部121cに出力されることになる。
具体的には、暗号化部121bから暗号化方向検査信号が入力されると、時分割部121cは、各発光部(LED1〜LED8)の発光順序及び発光タイミングを決定し、決定した発光順序及び発光タイミングで、暗号化方向検査信号を発光手段123に出力する。
したがって、時分割部121cは、暗号化方向検査信号が入力されると、暗号化方向検査信号に含まれる発光部IDを確認し、発光部IDにより特定される発光部に隣接する変調部に向けて、決められた順序及びタイミングで、暗号化方向検査信号を出力する。
例えば、発光部(LED1〜LED8)の発光部IDが「L1〜L8」で規定される場合、時分割部121cは、発光部IDが「L1」である暗号化方向検査信号を、発光部LED1に隣接する変調部に出力し、発光部IDが「L2」である暗号化方向検査信号を、発光部LED2に隣接する変調部に出力することになる。
発光手段123は、複数の発光部(LED1〜LED8)と、各発光部に対応させて設けられた変調部と、を備えている。
発光部は、変調信号を赤外線信号(赤外光)として、予め決められた探索域に向けて照射するものである。
言い換えると、ロボットRを中心として、ほぼ扇形の探索域D1〜D8がロボットRを取り囲むように複数設定されており、ロボットRは、これら扇形の探索域で囲まれた領域のほぼ中心に位置している。
ここで、この問題を解決する方法の一つとして、探索域の数を多くするという方法が考えられる。しかし、必ずしも全周の探索域の数を増やす必要はなく、前方のみの探索域を増やして、前方側の位置特定を細かくできるようにすることで、検知対象Hの位置する方向にロボットRの視線の方向を向けることができる。また、こうすることにより、発光部の数を少なく構築できる。
これにより、検知対象Hが人であり、かつロボットRのカメラC,Cで人の顔の撮像を行う場合に、ロボットRの正面側における検知対象Hの位置特定をより正確に行って、ロボットRの移動制御やカメラC,Cの画角の調整に反映させることができるので、ロボットRのカメラC,Cを、検知対象Hである人の顔の正面にきちんと位置させることが可能となる。
この電波送受信手段122は、変調部122aと、復調部122bと、送受信アンテナ122cと、を備えている。
そして、この復調部122bは、取得した受信報告信号を、制御手段121の復号化部121dと電界強度検出部121eとに出力するものである。
なお、受信報告信号に発光要求信号が含まれていた場合、この発光要求信号もまたデータ処理部121aに出力されることになる。
具体的には、電界強度検出部121eは、電波送受信手段122の復調部122bから入力された、暗号化受信報告信号の電力を検波し、この検波された電力の平均値を電界強度として求め、この求めた電界強度をデータ処理部121aに出力する。
具体的には、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122において受信した際の、当該変調信号の電界強度から、ロボットRから検知対象Hまでの距離を求める。さらに、位置特定部121a2は、受信報告信号に含まれる発光部IDを参照して、検知対象Hが受信した光が、どの発光部から発光されたのかを特定し、特定された発光部の発光方向を、すなわち当該発光部に対応する探索域の方向を検知対象Hの存在する方向とみなし、検知対象Hの位置を特定するものである。
この各エリアと電界強度とは、電界強度の大きさを基準として予め関連づけられており、この関連づけを示すテーブル(距離テーブル)が、記憶手段124に記憶されている。
例えば、電界強度検出部121eから入力された電界強度が、エリアD13を規定する閾値間の値である場合、位置特定部121a2は、エリアD13を示す情報(エリア情報)を取得する。
そして、記憶手段124には、各発光部がどの探索域に向けて設置されているのかを示すテーブル(方向テーブル)が記憶されている。
これにより、ロボットRが受信した受信報告信号の強度と、この受信報告信号に含まれる発光部IDとから、ロボットRと検知対象Hとの位置関係が特定される。言い換えれば、検知対象Hが、ロボットRを基準としてどの方向に、どれだけ離れた位置に存在するのか、すなわち、検知対象Hの位置が特定される。
これにより、ロボットRの主制御部200は、自律移動制御部150を制御して、ロボットRを検知対象Hの正面に移動させることや、検知対象Hが人である場合、カメラC,Cの仰角や向きを修正して、当該検知対象Hの顔の撮像を行うことが可能となる。
検知用タグTは、ロボットRから送信された電波と、照射された光とを受信し、これらを受信したことを示す受信報告信号を、ロボットRに送信するものである。
本実施の形態では、検知用タグTが取り付けられた人が検知対象Hであるので、ロボットRから送信された電波と照射された光は、この検知用タグTにおいて受信される。よって、この検知用タグTについて以下に説明する。
この電波送受信手段125は、送受信アンテナ125aと、復調部125bと、変調部125cと、を備えている。
この光受信手段126は、受光部126aと、光復調部126bと、を備えている。
受光部126aは、ロボットRから照射された赤外光(赤外線信号)を直接受光するものである。
光復調部126bは、受光部126aにおいて受光した赤外線信号を復調して、方向検査信号(実際には、暗号化方向検査信号)を取得するものである。
この受信報告信号生成手段127は、復号化部127aと、データ処理部127bと、暗号化部127cと、を備えている。
この復号化部127aは、電波送受信手段125から入力された暗号化検索信号と、光受信手段126から入力された暗号化方向検査信号とを復号化して、検索信号と方向検査信号とを取得する。そして、復号化部127aは、取得した検索信号と方向検査信号とを後段のデータ処理部127bに出力する。
ここで、本実施形態の場合、検索信号には、検索信号を発信したロボットRを特定する識別子であるロボットIDと、当該電波を受信した検知対象Hに対し、所定の処理を命ずる受信報告要求信号とが含まれている。
また、方向検査信号には、方向検査信号を発信したロボットRを特定する識別子であるロボットIDと、方向検査信号を発信した発光部を特定する発光部IDとが含まれている。
そして、光受信手段126を起動状態にした後、所定時間経過するまでの間に方向検査信号が入力された場合、データ処理部127bは、方向検査信号に含まれるロボットIDと、検索信号に含まれるロボットIDとを比較する。
続いて、データ処理部127bは、タグ識別番号と、検索信号に含まれていたロボットIDと、そして方向検査信号に含まれていた発光部IDとを含んで構成される受信報告信号を生成し、生成した受信報告信号を暗号化部127cに出力する。
ここで、発光要求信号とは、検知装置であるロボットRに対して、赤外光を発光するように命令する信号である。
これにより、暗号化受信報告信号は、前記した電波送受信手段125の変調部125cにおいて変調された後、送受信アンテナ125aを介して、無線送信されることになる。
図4に示すように、自律移動制御部150は、頭部制御部151、腕部制御部152および脚部制御部153を備えている。
頭部制御部151は、主制御部200の指示に従い頭部R4を駆動し、腕部制御部152は、主制御部200の指示に従い腕部R2を駆動し、脚部制御部153は、主制御部200の指示に従い脚部R1を駆動する。これら自律移動制御部150、頭部R1、腕部R2および脚部R1の組み合わせが、特許請求の範囲における「自律移動手段(自律移動装置)」の一例である。
把持部制御部160は、主制御部200の指示に従い把持部71を駆動する。
無線通信部170は、ロボット管理装置3とデータの送受信を行う通信装置である。無線通信部170は、公衆回線通信装置171および無線通信装置172を備えている。
公衆回線通信装置171は、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置172は、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部170は、ロボット管理装置3からの接続要求に従い、公衆回線通信装置171または無線通信装置172を選択してロボット管理装置3とデータ通信を行う。
続いて、ロボットRの把持部71R(L)について、図9ないし図11を参照してさらに詳しく説明する。図9は、ロボットの把持部を示す斜視図であり、指開状態を示す図である。図10は、ロボットの把持部を示す斜視図であり、指閉状態を示す図である。図11は、ロボットの把持部、開度検出手段および6軸力センサを示すブロック図である。なお、一対の把持部71R,71Lは鏡面対称であり、図9および図10には、左側の把持部71Lが示されている。以下、場合により、R,Lを除いた符号を用いて説明する。
掌部72は、手首関節部36,37を介して前腕リンク55に連結されている(図3参照)。
第一指部73は、人間の親指に相当する部分であり、第一指関節部73aを介して掌部72の基端側に連結されている。
第二指部74は、人間の示指、中指、環指、小指に相当する部分であり、第二指関節部74aを介して掌部72の先端側に連結されている。
また、掌部72内には、第一指部73を駆動するための第一指部用モータ73bと、第二指部74を駆動するための第二指部用モータ74bとが内蔵されている。また、掌部72には、第一指部角度α(第一指部73と掌部72との角度)を検出する第一指部角度検出手段83と、第二指部角度β(第二指部74と掌部72との角度)を検出する第二指部角度検出手段84と、が内蔵されている(図11参照)。
第二指部角度βは、第二指部74と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第二指部角度βは、図9に示す指開状態(把持時全開)でβ1(=0)、図10に示す指閉状態(把持時全閉)でβ2である(0≦β≦β2)。
θ = (α2−α)+(β2−β)
すなわち、把持角度偏差θは、把持部71の全閉状態に対する開き具合(開度)を示す数値であり、指閉状態(把持時全閉)で最小値θmin=0となり、指開状態(把持時全開)で最大値θmax=α2+β2となる。
把持部71が物品を把持した状態では、指閉状態となる手前の状態で各指部73,74が止まるので、把持角度偏差θは正の値をとる。把持角度偏差θは、把持される物品の厚みが大きいほど、その値が大きくなるといった特徴を有している。
続いて、図4の主制御部200および記憶部300について、図12を参照して説明する。図12は、図4の主制御部および記憶部を示すブロック図である。
図12に示すように、記憶部300は、人データ記憶部310、地図データ記憶部320、物品データ記憶部330および発話データ記憶部340を備えている。
人データとしては、人識別番号(ID)、名前、所属、タグ識別番号、通常居場所、机位置、顔画像などに関するデータが含まれる。
物品データとしては、物品識別番号、物品の名称、大きさ、重さなどに関するデータが含まれる。
図12に示すように、主制御部200は、行動管理手段210、人特定手段220、移動行動決定手段230、受取行動決定手段240および計時手段250を備えている。
行動管理手段210は、ロボット管理装置3から送信された実行命令信号を取得し、この実行命令信号に基づき、人特定手段220、移動行動決定手段230および受取行動決定手段240を制御する。
また、行動管理手段210は、ジャイロセンサSR1によって検出されたロボットRの向きデータ、GPS受信器SR2によって検出されたロボットRの位置データなどをロボット管理装置3に出力する。
また、行動管理手段210は、ロボットRのタスク実行状況を報告するための行動報告信号をロボット管理装置3へ向けて出力する。
人特定手段220は、人データ記憶部310に記憶された人情報と、対象検知部120によって取得されたタグTのタグ識別番号と、に基づいて、対象検知部によって検知された人(検知対象)が誰であるかを特定する。人データ記憶部310には、その人の名前と、その人固有のタグTのタグ識別番号とが関連付けて記憶されているので、これらのデータと、実行命令信号とを参照することによって、ロボットR近傍にいる人が、タスク実行に関係ある人であるか否かを判定することができる。
さらに、人特定手段220は、移動体抽出部102で抽出された移動体の位置データと、対象検知部120で検知された検知対象の位置データと、に基づいて、カメラC,Cで撮像された移動体が誰であるかを特定する。
移動行動決定手段230は、ロボットRの自律移動の内容を決定するためのものであり、移動経路決定手段231および受取位置決定手段232を備えている。
移動経路決定手段231は、タスク実行命令信号と、ロボットRの位置データと、ロボットRの向きデータと、人データと、地図データと、に基づいて、ロボットRの移動経路を決定する。
受取位置決定手段232は、移動体抽出部102によって検出された移動体(人)の位置データに基づいて、ロボットRの受取位置を決定する。また、受取位置決定手段232は、移動体抽出部102によって検出された移動体(人)の位置データに基づいて、ロボットRの受渡位置を決定する。
受取位置決定手段232が受取位置または受渡位置を決定すると、移動経路決定手段231は、この受取位置または受渡位置に移動するように、ロボットRの移動経路を決定する。この受取位置または受渡位置は、ロボットRと人との間で物品の受取または受渡が好適に行われる位置であり、予め設定された距離a1(図14参照)を用いて決定される。
受取行動決定手段240は、物品運搬作業に伴う把持部71の行動(動作)内容を決定するためのものであり、受取方法決定手段241、受取高さ決定手段242、受取開始判定手段243、受取動作完了判定手段244、把持成否判定手段245、受渡開始判定手段246、受渡完了判定手段247、運搬状態設定手段248および習熟度判定手段249を備えている。
本実施形態のロボットRが選択可能な受取方法としては、片手受取および両手受取の2種類がある。
片手受取は、ロボットRの一方の把持部71R(または71L)が物品を受け取る受取方法である。両手受取は、ロボットRの両方の把持部71R,71Lが物品を受け取る受取方法である。受取方法決定手段241は、物品データの大きさや重さに基づいて、これら2種類の一方を選択する。例えば、A4サイズの書類など、両手受取可能な大きさの物品を受け取る場合には両手受取とし、両手受取不可能な大きさである小さいサイズの物品を受け取る場合には片手受取とすることが考えられる。
受取高さ決定手段242は、移動体抽出部102によって算出された人の身長に基づいて、把持部71の差し出し高さa3(図17参照)を決定する。この差し出し高さは、ロボットRと人との間で物品の受取または受渡が好適に行われる高さであり、算出された身長に基づいて、予め設定された3段階の高さのいずれかを選択する。
そして、受取高さ決定手段242は、自律移動制御部150を介して、把持部71を高さa3に差し出させると共に、人から把持部71までの距離が距離a2となり、さらには、移動体抽出部102で算出した人の中心(中心鉛直線)に合わせるように把持部71を差し出させる(図16、図17参照)。
受取開始判定手段243は、人が物品をロボットRの受取可能な位置に差し出し、ロボットRが受取動作を開始可能であるか否かを判定し、受取動作を開始可能であると判定した場合に、把持部71に受取動作を開始させる。
受取開始判定手段243は、把持部71が物品を把持していない状態、詳しくは、後記する受取待機状態において、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx1(第一の所定値)以上である場合に、受取動作を開始可能であると判定し、把持部制御部160を介して把持部71を駆動し、指閉動作を行わせる。
これは、ロボットRに物品を渡そうとする人が、物品を掌部72に押し付けることを利用した制御である。
受取動作完了判定手段244は、把持部71が物品の受取中である状態において、受取動作が完了したか否かを判定する。
この受取動作完了判定手段244は、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx2(第二の所定値;Fx2≦Fx1)以下となった場合に、受取動作が完了したと判定する。
これは、ロボットRに物品を渡そうとする人が、ロボットRが物品を受け取ったと判断して手を離したときに、物品が掌部72に押し付けられる力が減少することを利用した制御である。
また、受取動作完了判定手段244は、受取待機状態において、把持部71の開度が所定値以下になった場合、すなわち、把持角度偏差θが所定値θ1(第三の所定値)以下になった場合(例えば、θ=0)に、受取動作が完了したと判定する。
受取動作完了判定手段244は、受取動作が完了したと判定した場合に、把持部制御部160を介して把持部71を駆動し、指閉方向にトルクを発生させ、物品を把持させる。
把持成否判定手段245は、物品の把持が成功したか否かを判定する。
本実施形態において、把持成否判定手段245は、両手受取を行った場合において、腕部制御部152を介して把持部71R,71Lを近接または離隔させる。そして、6軸力センサ62が検出する物品からの反力Fyに基づいて、把持部71R,71Lの両方が物品を把持しているか否かを判定する。
この把持成否判定手段245は、物品からの反力Fyが所定値Fy1(第五の所定値)以上である場合に、把持成功であると判定する。
受渡開始判定手段246は、ロボットRが物品を人の受取可能な位置に差し出した状態で、人が物品を受け取ろうしているか否かを判定し、人が物品を受け取ろうとしていると判定した場合に、把持部71に受渡動作を開始させる。
受渡開始判定手段246は、後記する受渡待機状態において、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx3以上である場合に、受渡動作を開始可能であると判定し、把持部制御部160を介して把持部71を駆動し、指開動作を行わせる。
これは、ロボットRから物品を受け取ろうとする人が、物品を引っ張ることを利用した制御である。
これは、ロボットRから物品を受け取ろうとする人が物品を引っ張ることによって、物品が把持部71から取り除かれ、把持部71が把持トルクによって閉じてしまうことを利用した制御である。
受渡完了判定手段247は、後記する受渡中状態において、6軸力センサ62によって検出されるX軸方向の力Fxが所定値Fx4(Fx4≦Fx3)以下となった場合に、受渡動作が完了したと判定する。
これは、人が物品を完全に受け取ることによって、物品により把持部71に生じる外力Fxが小さくなることを利用した制御である。
運搬状態設定手段248は、把持部71の状態を検出し、設定・更新する。
把持部71の状態としては、以下のものがある。
1:フリー…物品運搬タスクが依頼されていない状態
2:受取待機…把持部を差し出し、人が物品を受け渡すのを待っている状態
3:受取中…人が物品を受け渡し、物品の受取を行っている状態
4:受取動作完了…人が物品から手を離し、物品がロボット側に渡った(と思われる)状態
5:把持成否判定…ロボットが物品把持の成否を判定する状態
6:受取失敗…ロボットが物品の受取に失敗した状態
7:把持完了…ロボットが物品の受取に成功し、物品を把持した状態
8:受渡待機…把持部を差し出し、人が物品を受け取るのを待っている状態
9:受渡中…人が物品を受け取り、物品の受渡を行っている状態
10:受渡完了…人が完全に物品を受け取り、物品が人側に渡った状態
11:エラー…搬送中に物品を落とした状態など
習熟度判定手段249は、受取動作および受渡動作に関する人の習熟度を判定する。
習熟度判定手段249は、主制御部200内に設けられた時計である計時手段250を用いて、受取待機状態から受取中状態に移行するのに要する時間や、受渡待機状態から受渡中状態に移行するのに要する時間を測定する。そして、測定された時間の長さに基づいて、人の習熟度を判定する。ここでは、測定時間の短い方から順に、習熟度高・習熟度中・習熟度低と判定する。
把持部制御部160は、この習熟度に基づいて、指閉・指開動作のスピードを設定する。すなわち、ロボットRが習熟度低と判定された人に対して受取動作または受渡動作を行う場合には、把持部71に指閉・指開動作を遅く行わせ、人に不安感を与えないようにする。
また、ロボットRが習熟度高と判定された人に対して受取動作または受渡動作を行う場合には、受取行動決定手段240は、把持部71に指閉・指開動作を速く行わせ、人に煩わしさを感じさせないようにする。
また、受取行動決定手段240は、この習熟度に基づいて、発話行動を決定し、発話データに基づいてスピーカSに発話を行わせる。
続いて、本発明の実施形態に係るロボット制御システムAによるロボットRの物品運搬動作について説明する。ここでは、ロボットRが、「人H1から物品Mを受け取り、人H2に物品Mを受け渡す」といったタスクに関する実行命令信号を受けた場合を例にとって説明する。この物品Mは、A4サイズの書類であり、ロボットRが両手把持可能な大きさであるものとする。
まず、ロボットRの受取位置への移動について説明する。図13は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取位置への移動を示すフローチャートである。
まず、ロボットRは、タスク実行エリアEAに設定されたホームポジションで待機している(ステップS1)。
ロボットRが、ロボット管理装置3から送信された実行命令信号を受信すると(ステップS2でYes)、ロボットRは、ホームポジションから人H1の通常居場所(以下、「通常居場所P1」と記載する。)までの移動を開始する(ステップS3)。そして、人H1の通常居場所P1に到着すると(ステップS4でYes)、ロボットRは移動を中止し、人H1の探索を開始する(ステップS5)。
続いて、ロボットRの受取動作について説明する。図15は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取動作を示すフローチャートである。
受取位置に移動したロボットRは、図16および図17に示すように、受取高さ決定手段242で決定した受取高さに、指開状態の把持部71(71R,71L)を差し出す(ステップS21)。
図16および図17に示すように、ロボットRは、受取高さ決定手段242で決定した高さa3に把持部71R,71Lを差し出すと共に、人H1から把持部71R,71Lまでの距離が、距離a2となるように把持部71R,71Lを差し出す。さらに、ロボットRは、把持部71R,71Lの差し出し方向を、移動体抽出部102で算出した人H1の中心(中心鉛直線)に合わせる。
受取待機状態において、ロボットRが6軸力センサ62R,62LでFx1以上の外力Fxを検出すると(ステップ23でYes)、運搬状態設定手段248が運搬状態を「受取中」と設定すると共に、ロボットRが把持部71R,71Lを閉じ始める(ステップS24)。図18には、ロボットRが物品Mの受取を開始した状態が示されている。
把持部71R,71Lの両方の開度、すなわち把持角度偏差θが所定値θ3(第四の所定値)以上(条件D1)である場合には、物品Mが厚く、把持部71R,71Lの両方が物品Mを把持したものと判定し、運搬状態設定手段248が運搬状態を「把持完了」と設定する(ステップS28)。
把持部71R,71Lの少なくとも一方の把持角度偏差θが所定値θ3未満(条件D2)である場合には、運搬状態設定手段248が運搬状態を「把持正否判定」と設定すると共に(ステップS29)、把持成否判定手段245が、把持の成否を判定する(ステップS30)。
詳しくは、ロボットRは、把持部71R,71Lを近接または離隔させ、6軸力センサ62R,62Lで物品Mから作用する反力Fyを検出する。把持成否判定手段245は、反力Fyが所定値Fy1以上である場合(条件D3)に、把持成功であると判定し、運搬状態設定手段248が運搬状態を「受取動作完了」と設定すると共に、把持部71R,71Lが物品Mを把持する。
また、把持成否判定手段245は、反力Fyが所定地Fy1未満である場合(条件D4)に、把持失敗であると判定し、運搬状態設定手段248が運搬状態を「受取失敗」と設定する。
図20(a)に示すように、把持部71R,71Lの両方が物品Mを把持している場合には、把持部71R,71Lを近接させると物品Mによる反力Fy(所定値Fy1以上)が生じる。
図20(b)に示すように、把持部71R,71Lの一方(ここでは把持部71R)のみが物品Mを把持している場合には、把持部71R,71Lを近接させても物品Mによる反力Fyはごく小さい値(所定値Fy2以上、かつ、所定値Fy1よりも小さい。Fy2≦Fy<Fy1)となる。
図20(c)に示すように、把持部71R,71Lの両方が物品Mを把持していない場合には、把持部71R,71Lを近接させても物品Mによる反力Fyは生じない(Fy=0)。
したがって、反力Fyが所定値Fy1以上である場合に、把持成否判定手段245が、把持成功であると判定することで、ロボットRが両手(把持部71R,71L)で物品を把持している否かを判定することができる。
続いて、ロボットRの受け直し準備について説明する。図21は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品の受け直し準備を示すフローチャートである。
把持成否判定手段245が把持失敗であると判定すると(ステップS29で条件D4)、運搬状態設定手段248が把持部状態を「受取失敗」と設定し(ステップS41)、把持成否判定手段245が、把持部71R,71Lの状態を判定する(ステップS42)。把持成否判定動作において、6軸力センサ62R,62Lの少なくとも一方が所定値Fy2以上の外力Fyを検出している場合には(ステップS42で条件D5)、運搬状態設定手段248が運搬状態を「受渡待機」と設定し、ロボットRが、「物品Mを受け取って、再度お渡しください」と発話する(ステップS43)。
そして、ロボットRが、6軸力センサ62R,62Lのうち、物品Mを把持している方で所定値Fx5以上の外力Fxを検出すると(ステップS44でYes)、運搬状態設定手段248が運搬状態を「受渡中」と設定すると共に、把持部71R,71Lが開放される(ステップS45)。その後、ステップS22に移行し、受取動作を再実行する。
続いて、ロボットRの物品運搬移動について説明する。図22は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品の運搬移動を示すフローチャートである。
ステップS28において、物品把持完了となると、ロボットRは、把持部71R,71Lを、カメラC,Cによる撮像領域D21から外れた位置(死角)に移動させる(図23参照)(ステップS61)。これは、把持された物品MがカメラC,Cの視野を塞ぐことを防ぐためである。
続いて、ロボットRの受渡動作について説明する。図24は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受渡動作を示すフローチャートである。
把持部71R,71Lの差し出しが完了すると、運搬状態設定手段248が運搬状態を「受渡待機」と設定すると共に、ロボットRが、「物品Mをお受け取りください」と発話する(ステップS82)。
そして、ロボットRは、受渡位置からホームポジションまでの移動を行う(ステップS88)。
本実施形態では、把持角度偏差θが所定値θ5以下となった場合に(例えば、θ=0)、受取行動決定手段240が、ロボットRが物品Mを落としたと判定する。
同様に、運搬移動中において、カメラC,Cで前方に障害物を検出した場合(例、人がロボットの前を横切る)にも、ロボットRは、自律移動を一時停止し、障害物が前方からなくなるのを待つ。
続いて、ロボットRの物品置き場B1への移動について説明する。図28は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品置き場への移動を示すフローチャートである。
ロボットRが、所定時間に人H2の探索ができなかった場合には(ステップS68でYes)、ロボットRは、人H2の通常居場所P2から物品置き場B1への移動を行う(ステップS101)。
そして、ロボットRは、物品置き場B1に物品Mを置くと共に(ステップS102)、物品Mを物品置き場B1に置いた旨を伝える行動報告信号を生成し、ロボット管理装置3および人H2専用の端末5へ出力する(ステップS103)。そして、ロボットRは物品置き場B1からホームポジションまでの移動を行う(ステップS104)。
(1)受取中状態において、人が物品から手を離し、物品を把持部に押し付ける力が弱まることを検出し、物品の受取が完了したことを判定することができる。そして、ロボットが物品の受取完了後に把持トルクを生成して物品を把持するので、人は物品を無理矢理奪い取られた感じを受けにくくなる。
(2)ロボットが、受取(受渡)待機から受取(受渡)開始までの時間によって、人の物品受取(受渡)動作の習熟度を判定し、この習熟度に基づいた受取(受渡)動作を行う。したがって、習熟度の低い人にはゆっくり、習熟度の高い人には迅速に、といった受取(受渡)動作の使い分けが可能である。
(3)両手受取において、ロボットが、両把持部で物品を把持しているか否かを判定することによって、物品が軽量、薄い場合であっても、把持成否の確認が可能となる。また、把持失敗の場合であっても、物品の受け直し(受取動作の再実行)が可能である。
(4)ロボットが、人の位置、身長に応じた動作を行うので、人の負担を減らし、より自然な感じの受取動作および受渡動作が可能となる。すなわち、ロボットが人に合わせた動作を行うことによって、人がロボットの動作に合わせることによる負担が減少している。
(5)ロボットが、物品による外力のうち、水平方向の力を利用して受取動作および受渡動作を制御するので、人の動作による外力と、物品の自重による外力と、を分けて検出することができ、物品の自重による誤作動防止することができる。
例えば、物品運搬中において、ロボットが物品を落としたか否かを判定するのに、6軸力センサによって検出されるZ軸方向の外力Fzを利用してもよい。これは、ロボットが物品を落とした場合には、6軸力センサは物品の荷重を検知しなくなり、Fzが低下するからである。
また、ロボットの各関節部の数・配置なども適宜設計変更可能である。
62,62L,62R 6軸力センサ(外力検出手段)
71,71L,71R 把持部
81,81L,81R 開度検出手段
83 第一指部角度検出手段
84 第二指部角度検出手段
102 移動体抽出部(人位置特定手段、身長特定手段)
220 人特定手段
232 受取位置決定手段
240 受取行動決定手段
242 受取高さ決定手段
243 受取開始判定手段
244 受取動作完了判定手段
245 把持成否判定手段
246 受渡開始判定手段
247 受渡完了判定手段
A ロボット制御システム
R ロボット(物品運搬システム)
Claims (12)
- 物品を把持する開閉可能な把持部と、前記把持部に作用する外力を検出する外力検出手段と、前記把持部の開度を検出する開度検出手段と、自律移動手段と、を備えたロボットと、
物品受取作業における前記ロボットの行動を決定する受取行動決定手段と、
を備え、前記把持部により物品の受取を行う物品運搬システムであって、
前記受取行動決定手段は、
前記把持部が物品を把持していない状態で前記外力検出手段が第一の所定値以上の外力を検出した場合に、前記把持部に受取動作を開始させる受取開始判定手段と、
受取動作中において、前記外力検出手段が検出した外力と、前記開度検出手段が検出した開度と、の少なくとも一方に基づいて、物品の受取動作完了を判定する受取動作完了判定手段と、
を備え、
前記受取動作完了判定手段が受取動作完了と判定した場合に、前記受取行動決定手段が前記把持部に把持力を発生させ、
さらに、前記受取行動決定手段が前記把持部に把持力を発生させた後において、物品把持の成否を判定する把持成否判定手段を備え、
前記ロボットは、一対の前記把持部を備えており、
前記一対の把持部が物品を把持し、
前記把持成否判定手段は、前記一対の把持部を近接または離隔させたときに生じる物品からの外力に基づいて把持成否を判定する
ことを特徴とする物品運搬システム。 - 前記受取動作完了判定手段は、前記外力が第二の所定値以下になった場合に、受取動作完了と判定する
ことを特徴とする請求項1に記載の物品運搬システム。 - 前記受取動作完了判定手段は、前記開度が第三の所定値以下になった場合に、受取動作完了と判定する
ことを特徴とする請求項1または請求項2に記載の物品運搬システム。 - 前記把持成否判定手段は、前記開度が第四の所定値以下である場合に、把持の成否を判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の物品運搬システム。 - 前記把持成否判定手段が把持失敗と判定した場合に、前記受取行動決定手段が、受取動作を再実行させる
ことを特徴とする請求項1から請求項4のいずれか一項に記載の物品運搬システム。 - 前記把持成否判定手段は、
前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値以上の場合に、把持成功と判定し、
前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値未満の場合に、把持失敗と判定する
ことを特徴とする請求項1から請求項5のいずれか一項に記載の物品運搬システム。 - 前記把持部は、掌部と、前記掌部に第一関節を介して連結された第一指部と、前記掌部に第二関節を介して連結された第二指部と、を備え、前記第一指部と前記第二指部とによって物品を把持する構成であり、
前記開度検出手段は、前記掌部と前記第一指部とがなす第一指部角度を検出する第一指部角度検出手段と、前記掌部と前記第二指部とがなす第二指部角度を検出する第二指部角度検出手段と、を備えている
ことを特徴とする請求項1から請求項6のいずれか一項に記載の物品運搬システム。 - 前記外力検出手段は、水平方向の外力を検出可能であり、
前記受取行動決定手段は、物品からの外力として、前記把持部に作用する水平方向の力を利用する
ことを特徴とする請求項1から請求項7のいずれか一項に記載の物品運搬システム。 - 前記外力検出手段は、6軸力センサである
ことを特徴とする請求項8に記載の物品運搬システム。 - さらに、人の位置を特定する人位置特定手段と、
特定した人の位置に基づいて、前記ロボットの受取位置を決め、この受取位置に前記ロボットを移動させる受取位置決定手段と、
を備えていることを特徴とする請求項1から請求項9のいずれか一項に記載の物品運搬システム。 - さらに、人の身長を特定する身長特定手段と、
特定した人の身長に基づいて、ロボットの受取高さを決め、この受取高さに前記把持部を移動させる受取高さ決定手段と、
を備えていることを特徴とする請求項1から請求項10のいずれか一項に記載の物品運搬システム。 - タスクの実行命令信号に含まれる、前記ロボットに物品を渡そうとする人に関する情報に基づいて、前記ロボットに物品を渡そうとする人を特定する人特定手段を備えている
ことを特徴とする請求項1から請求項11のいずれか一項に記載の物品運搬システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361467A JP4317518B2 (ja) | 2004-12-14 | 2004-12-14 | 物品運搬システム |
US11/301,099 US7551978B2 (en) | 2004-12-14 | 2005-12-13 | System for carrying an item |
EP05027371.3A EP1671758B1 (en) | 2004-12-14 | 2005-12-14 | Robot system for carrying an item with receiving / passing motion deciding means based on external force detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361467A JP4317518B2 (ja) | 2004-12-14 | 2004-12-14 | 物品運搬システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006167837A JP2006167837A (ja) | 2006-06-29 |
JP4317518B2 true JP4317518B2 (ja) | 2009-08-19 |
Family
ID=36071957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004361467A Expired - Fee Related JP4317518B2 (ja) | 2004-12-14 | 2004-12-14 | 物品運搬システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7551978B2 (ja) |
EP (1) | EP1671758B1 (ja) |
JP (1) | JP4317518B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4456561B2 (ja) | 2005-12-12 | 2010-04-28 | 本田技研工業株式会社 | 自律移動ロボット |
US8260463B2 (en) * | 2006-02-02 | 2012-09-04 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP4316630B2 (ja) * | 2007-03-29 | 2009-08-19 | 本田技研工業株式会社 | ロボット、ロボットの制御方法およびロボットの制御プログラム |
DE102008029693A1 (de) * | 2008-06-24 | 2009-12-31 | Karl-Heinz Bosch | Vorrichtung zur Verteilung von Schriftstücken und/oder Kleinteilen und/oder zur Wegweisung |
US9527207B2 (en) * | 2011-03-23 | 2016-12-27 | Sri International | Dexterous telemanipulator system |
US8676425B2 (en) * | 2011-11-02 | 2014-03-18 | Harvest Automation, Inc. | Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots |
KR101882490B1 (ko) | 2011-11-29 | 2018-07-30 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP2013184273A (ja) * | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
JP5915381B2 (ja) * | 2012-05-28 | 2016-05-11 | 富士通株式会社 | ロボット及びロボットの制御方法 |
CN104656676B (zh) * | 2014-12-25 | 2017-11-07 | 北京理工大学 | 一种仿人机器人手腿眼伺服控制的装置与方法 |
JP6577326B2 (ja) * | 2015-10-16 | 2019-09-18 | ファナック株式会社 | 人と協働して物体を運搬するロボットを制御するロボット制御装置、ロボットシステム、およびその方法 |
US9844885B2 (en) * | 2015-11-27 | 2017-12-19 | Tamkang University | Gripping device having opened and closed gripping modes |
JP6844135B2 (ja) * | 2016-07-05 | 2021-03-17 | 富士ゼロックス株式会社 | 移動ロボットおよび移動制御システム |
JP6869172B2 (ja) * | 2016-12-28 | 2021-05-12 | 本田技研工業株式会社 | 自律移動体の運用方法 |
JP6958091B2 (ja) * | 2017-08-08 | 2021-11-02 | セイコーエプソン株式会社 | ロボットシステム、及びロボット制御方法 |
JP6902208B2 (ja) * | 2017-11-14 | 2021-07-14 | オムロン株式会社 | 把持方法、把持システム及びプログラム |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
JP7133836B2 (ja) * | 2018-05-02 | 2022-09-09 | 国立大学法人豊橋技術科学大学 | ロボット |
CN109828576B (zh) * | 2019-02-22 | 2022-09-06 | 北京京东乾石科技有限公司 | 用于无人配送机器人的手势控制方法、装置、设备及介质 |
JP7415775B2 (ja) | 2020-04-30 | 2024-01-17 | トヨタ自動車株式会社 | ロボット |
JP2023169034A (ja) * | 2022-05-16 | 2023-11-29 | 株式会社デンソー | 搬送処理システム、搬送処理装置、自律搬送車両、搬送処理方法、搬送処理プログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0097191B1 (de) * | 1981-12-24 | 1986-08-27 | Hans Richter | Montageroboter |
US4617502A (en) * | 1983-06-30 | 1986-10-14 | Hitachi, Ltd. | Method and apparatus for controlling a robot hand along a predetermined path |
US4955918A (en) * | 1989-05-30 | 1990-09-11 | University Of Southern California | Artificial dexterous hand |
US5373747A (en) * | 1991-03-30 | 1994-12-20 | Kabushiki Kaisha Toshiba | Robot hand and robot |
US7206753B2 (en) * | 2001-05-04 | 2007-04-17 | Axxon Robotics, Llc | Methods for facilitating a retail environment |
US20020165643A1 (en) * | 2001-05-04 | 2002-11-07 | Bancroft Allen John | Retail robot time share system |
US6584375B2 (en) * | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
JP2002346957A (ja) | 2001-05-21 | 2002-12-04 | Univ Waseda | 2足歩行型ロボットの動作軌道制御方法 |
US6580246B2 (en) * | 2001-08-13 | 2003-06-17 | Steven Jacobs | Robot touch shield |
US6667592B2 (en) * | 2001-08-13 | 2003-12-23 | Intellibot, L.L.C. | Mapped robot system |
JP3914045B2 (ja) * | 2001-12-17 | 2007-05-16 | 本田技研工業株式会社 | 多指ハンド装置 |
US7443115B2 (en) | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
JP4228871B2 (ja) | 2002-10-29 | 2009-02-25 | パナソニック株式会社 | ロボット把持制御装置及びロボット把持制御方法 |
CN100567098C (zh) * | 2003-05-21 | 2009-12-09 | 松下电器产业株式会社 | 物品管理***和物品管理服务器 |
JP4313125B2 (ja) * | 2003-09-12 | 2009-08-12 | 本田技研工業株式会社 | ロボットハンド |
JP2005167517A (ja) * | 2003-12-01 | 2005-06-23 | Olympus Corp | 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム |
JP2006159320A (ja) * | 2004-12-03 | 2006-06-22 | Sharp Corp | ロボットハンド |
-
2004
- 2004-12-14 JP JP2004361467A patent/JP4317518B2/ja not_active Expired - Fee Related
-
2005
- 2005-12-13 US US11/301,099 patent/US7551978B2/en not_active Expired - Fee Related
- 2005-12-14 EP EP05027371.3A patent/EP1671758B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20060142896A1 (en) | 2006-06-29 |
EP1671758A1 (en) | 2006-06-21 |
JP2006167837A (ja) | 2006-06-29 |
EP1671758B1 (en) | 2019-01-23 |
US7551978B2 (en) | 2009-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4317518B2 (ja) | 物品運搬システム | |
JP4456561B2 (ja) | 自律移動ロボット | |
JP4456560B2 (ja) | 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法 | |
JP4658892B2 (ja) | 移動ロボット、並びに、移動ロボットの制御装置、移動ロボットの制御方法及び移動ロボットの制御プログラム | |
KR100807449B1 (ko) | 레그식 로봇의 제어 장치 | |
JP4276624B2 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
KR100840427B1 (ko) | 각식 이동 로봇의 제어장치 | |
JP4856510B2 (ja) | 移動ロボット | |
JP2006192563A (ja) | 識別対象識別装置およびそれを備えたロボット | |
JP4608472B2 (ja) | 移動ロボット及び移動ロボットの制御装置 | |
JP5145569B2 (ja) | 対象物特定方法および装置 | |
JP2006272471A (ja) | コミュニケーションロボット | |
JP5613114B2 (ja) | 分散制御システム | |
JP4580226B2 (ja) | ロボット制御システム | |
JP2005238382A (ja) | コミュニケーションロボット | |
TW201540281A (zh) | 機器人的行動輔助系統 | |
JP2022178334A (ja) | 生体情報取得装置 | |
CN115225682A (zh) | 管理服务器、远程操作***、远程操作方法以及存储介质 | |
JP2022157101A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
CN107783677A (zh) | 一种增强现实交互方法和增强现实握柄 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090519 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4317518 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140529 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |