JP4317518B2 - 物品運搬システム - Google Patents

物品運搬システム Download PDF

Info

Publication number
JP4317518B2
JP4317518B2 JP2004361467A JP2004361467A JP4317518B2 JP 4317518 B2 JP4317518 B2 JP 4317518B2 JP 2004361467 A JP2004361467 A JP 2004361467A JP 2004361467 A JP2004361467 A JP 2004361467A JP 4317518 B2 JP4317518 B2 JP 4317518B2
Authority
JP
Japan
Prior art keywords
article
robot
gripping
unit
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004361467A
Other languages
English (en)
Other versions
JP2006167837A (ja
Inventor
太郎 横山
謙一郎 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004361467A priority Critical patent/JP4317518B2/ja
Priority to US11/301,099 priority patent/US7551978B2/en
Priority to EP05027371.3A priority patent/EP1671758B1/en
Publication of JP2006167837A publication Critical patent/JP2006167837A/ja
Application granted granted Critical
Publication of JP4317518B2 publication Critical patent/JP4317518B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S414/00Material or article handling
    • Y10S414/135Associated with semiconductor wafer handling
    • Y10S414/136Associated with semiconductor wafer handling including wafer orienting means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律移動可能なロボットを用いた物品運搬システムに関する。
近年、自律移動可能なロボットに物品を運搬させる試みが行われている。このようなロボットは、物品を運搬する際に、人から物品を受け取る動作や、人に物品を受け渡す動作を行う。そのため、人に違和感を与えることなく物品の受取動作や受渡動作を行う制御が望まれている。
特許文献1に記載のロボット把持制御装置は、物品を把持したロボットが、人に物品を受け渡す際の制御を行うためのものである。
しかしながら、特許文献1に記載のロボット把持制御装置は、主にロボットが把持した物品を人に受け渡す場合を想定した技術であり、ロボットが人から物品を受け取る場合には、ロボットが物品を無理矢理奪っているなどの違和感を人に与えてしまうおそれがあった。
本発明は、前記した問題を解決すべく創案されたものであり、ロボットが人から物品を受け取る際に、人に違和感を与えることなく受取動作を行うことが可能な物品運搬システムを提供することを課題とする。
前記課題を解決するため、本発明の請求項1に記載の発明は、物品を把持する開閉可能な把持部と、前記把持部に作用する外力を検出する外力検出手段と、前記把持部の開度を検出する開度検出手段と、自律移動手段と、を備えたロボットと、物品受取作業における前記ロボットの行動を決定する受取行動決定手段と、を備え、前記把持部により物品の受取を行う物品運搬システムであって、前記受取行動決定手段は、前記把持部が物品を把持していない状態で前記外力検出手段が第一の所定値以上の外力を検出した場合に、前記把持部に受取動作を開始させる受取開始判定手段と、受取動作中において、前記外力検出手段が検出した外力と、前記開度検出手段が検出した開度と、の少なくとも一方に基づいて、物品の受取動作完了を判定する受取動作完了判定手段と、を備え、前記受取動作完了判定手段が受取動作完了と判定した場合に、前記受取行動決定手段が前記把持部に把持力を発生させ、さらに、前記受取行動決定手段が前記把持部に把持力を発生させた後において、物品把持の成否を判定する把持成否判定手段を備え、前記ロボットは、一対の前記把持部を備えており、前記一対の把持部が物品を把持し、前記把持成否判定手段は、前記一対の把持部を近接または離隔させたときに生じる物品からの外力に基づいて把持成否を判定することを特徴とする。
本発明における「開度」とは、把持部の開き具合を示す指標(値)であり、例えば、把持部の指部間の距離、把持部の指部と掌部との角度などである。
人が物品をロボットに渡す際には、人が物品をロボットの把持部に把持可能な状態で押し付ける。外力検出手段は、この物品による外力を検出し、受取開始判定手段は、外力の大きさに基づいて、受取動作開始を判定し、受取動作を開始させる。
そして、人は「ロボットが物品を受け取った」と判断すると、物品を手放すので、外力検出手段で検出される外力が低下する。物品運搬システムは、この外力の低下を利用して、ロボットによる物品の受取動作が完了したか否かを判定する。
また、物品運搬システムは、把持部の開度が小さくなった、すなわち、把持部が所定量以上閉じた場合にも、ロボットによる物品の受取動作が完了したと判定する。
このように、物品運搬システムは、受取動作の開始の可否判定と、受取動作の完了の把握と、を行うことができるので、人に違和感を与えることなく受取動作を行うことができる。
また、受取動作完了後に物品を把持することで、人にロボットが無理矢理物品を奪ったといった感覚を感じさせにくくなる。
さらには、物品の把持の成否を判定することが可能となる。
さらには、両把持部が物品を把持しているか否かを判定することが可能となる。
また、請求項2に記載の発明は、請求項1に記載の物品運搬システムであって、前記受取動作完了判定手段は、前記外力が第二の所定値以下になった場合に、受取動作完了と判定することを特徴とする。
このように、外力に関する第二の所定値を設定し、この値を用いて受取動作完了を判定することで、受取動作完了の判定が容易となる。
また、請求項3に記載の発明は、請求項1または請求項2に記載の物品運搬システムであって、前記受取動作完了判定手段は、前記開度が第三の所定値以下になった場合に、受取動作完了と判定することを特徴とする。
このように、開度に関する第三の所定値を設定し、この値を用いて受取動作完了を判定することで、受取動作完了の判定が容易となる。
また、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の物品運搬システムであって、前記把持成否判定手段は、前記開度が第四の所定値以下である場合に、把持の成否を判定することを特徴とする。
ロボットは、受け取る物品が薄い場合に、物品の把持に失敗してしまうおそれがある。そのため、開度が第四の所定値以下である場合にのみ物品把持の成否を判定することで、物品が厚い場合の把持成否判定を省略することが可能となる。
また、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の物品運搬システムであって、前記把持成否判定手段が把持失敗と判定した場合に、前記受取行動決定手段が、受取動作を再実行させることを特徴とする。
このようにすることで、物品の把持に失敗した場合に、物品の受取を再実行することが可能となる。
また、請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の物品運搬システムであって、前記把持成否判定手段は、前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値以上の場合に、把持成功と判定し、前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値未満の場合に、把持失敗と判定することを特徴とする。
また、請求項7に記載の発明は、請求項1から請求項6のいずれか一項に記載の物品運搬システムであって、前記把持部は、掌部と、前記掌部に第一関節を介して連結された第一指部と、前記掌部に第二関節を介して連結された第二指部と、を備え、前記第一指部と前記第二指部とによって物品を把持する構成であり、前記開度検出手段は、前記掌部と前記第一指部とがなす第一指部角度を検出する第一指部角度検出手段と、前記掌部と前記第二指部とがなす第二指部角度を検出する第二指部角度検出手段と、を備えていることを特徴とする。
このようにすることで、簡易な構成で開度の検出が可能となる。
また、請求項8に記載の発明は、請求項1から請求項7のいずれか一項に記載の物品運搬システムであって、前記外力検出手段は、水平方向の外力を検出可能であり、前記受取行動決定手段は、物品からの外力として、前記把持部に作用する水平方向の力を利用することを特徴とする。
このようにすることで、物品の自重による外力の影響を抑え、人との間での物品受取動作による外力を好適に検出し、利用することが可能となる。
また、請求項9に記載の発明は、請求項8に記載の物品運搬システムであって、前記外力検出手段は、6軸力センサであることを特徴とする。
このようにすることで、簡易な構成で水平方向の外力を検出することができる。
また、請求項10に記載の発明は、請求項1から請求項9のいずれか一項に記載の物品運搬システムであって、さらに、人の位置を特定する人位置特定手段と、特定した人の位置に基づいて、前記ロボットの受取位置を決め、この受取位置に前記ロボットを移動させる受取位置決定手段と、を備えていることを特徴とする。
このように、ロボットが受取動作に好適な位置に移動することで、受取動作に伴う人の負担を軽減することができる。
また、請求項11に記載の発明は、請求項1から請求項10のいずれか一項に記載の物品運搬システムであって、さらに、人の身長を特定する身長特定手段と、特定した人の身長に基づいて、ロボットの受取高さを決め、この受取高さに前記把持部を移動させる受取高さ決定手段と、を備えていることを特徴とする。
このように、ロボットが受取動作に好適な高さに把持部を差し出すので、受取動作に伴う人の負担を軽減することができる。
また、請求項12に記載の発明は、請求項1から請求項11のいずれか一項に記載の物品運搬システムであって、さらに、タスクの実行命令信号に含まれる、前記ロボットに物品を渡そうとする人に関する情報に基づいて、前記ロボットに物品を渡そうとする人を特定する人特定手段を備えていることを特徴とする。
このようにすることで、ロボットが物品を受け渡す人を間違えることを防ぐことができる。
本発明によれば、人から物品を受け取る際に、人に違和感を与えることなく受取動作を行うことが可能な物品運搬システムを提供することができる。
以下、本発明の実施形態について、本発明の物品運搬システムを、オフィスをタスク実行エリアとし、オフィス内における物品運搬作業に適用したロボット制御システムを例にとり、適宜図面を参照しながら説明する。同様の部分には同一符号を付し、重複する説明を省略する。
(ロボット制御システムAの構成)
はじめに、本発明の実施形態に係るロボット制御システムAについて説明する。図1は、本発明の実施形態に係るロボット制御システムを示すシステム構成図である。
図1に示すように、ロボット制御システムAは、タスク実行エリアEAに配置された1台以上(本実施形態では1台)のロボットRと、これらロボットRと無線通信によって接続された基地局(例えば、無線LAN)1と、基地局1にルーター2を介して接続されたロボット管理装置(例えば、サーバー)3と、ロボット管理装置3にネットワーク4を介して接続された端末5と、検知対象(人)Hが装着した検知用タグTと、を備えている。
ロボットRは、タスク実行エリアEAに配置されており、タスク実行エリアEA内において自律移動を行い、実行命令信号に基づいてタスク(物品運搬)を実行するものである。なお、このタスク実行エリアEA内には、物品置き場B1が設けられている。ロボットRは、物品を受け渡す人を発見できなかった場合などには、物品置き場B1に物品を置くことができる。
ロボット管理装置3は、後記する端末5から入力されるタスクデータに基づき、ロボットRにタスクを実行させるため、このタスクの内容を含む実行命令信号を生成し、ロボットRに出力する。このタスクデータは、ロボットRに実行させるタスクに関するデータであり、例えば、ロボットRに物品を渡す人、ロボットRが物品を渡す人、運搬する物品の種類などを含んでいる。
端末5は、ロボット管理装置3にタスクデータを入力するための入力装置であり、デスクトップ型コンピュータ、PHSなどである。また、端末5は、ロボットRから送られた行動報告信号(タスク完了報告信号)を人が確認可能に出力するための出力(表示)装置でもある。
(ロボットRの構成)
続いて、本発明の実施形態に係るロボットRについて説明する。以下の説明において、ロボットRの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる(図2参照)。
本発明の実施形態に係るロボットRは、自律移動型の2足移動ロボットである。このロボットRは、ロボット管理装置3から送信された実行命令信号に基づき、タスクを実行するものである。
図2は、図1のロボットの外観を示す模式図である。図2に示すように、ロボットRは、人間と同じように2本の脚部R1(1本のみ図示)により起立、移動(歩行、走行など)し、上体部R2、2本の腕部R3(1本のみ図示)および頭部R4を備え、自律して移動する。また、ロボットRは、これら脚部R1、上体部R2、腕部R3および頭部R4の動作を制御する制御装置搭載部R5を背負う形で背中(上体部R2の後部)に備えている。
(ロボットRの駆動構造)
続いて、ロボットRの駆動構造について説明する。図3は、図1のロボットの駆動構造を模式的に示す斜視図である。なお、図3における関節部は、当該関節部を駆動する電動モータにより示されている。
(脚部R1)
図3に示すように、左右それぞれの脚部R1は、6個の関節部11R(L)〜16R(L)を備えている。左右12個の関節は、股部(脚部R1と上体部R2との連結部分)の脚部回旋用(Z軸まわり)の股関節部11R,11L(右側をR、左側をLとする。また、R,Lを付さない場合もある。以下同じ。)、股部のピッチ軸(Y軸)まわりの股関節部12R,12L、股部のロール軸(X軸)まわりの股関節部13R,13L、膝部のピッチ軸(Y軸)まわりの膝関節部14R,14L、足首のピッチ軸(Y軸)まわりの足首関節部15R,15L、および、足首のロール軸(X軸)まわりの足首関節部16R,16Lから構成されている。そして、脚部R1の下には足部17R,17Lが取り付けられている。
すなわち、脚部R1は、股関節部11R(L),12R(L),13R(L)、膝関節部14R(L)および足首関節部15R(L),16R(L)を備えている。股関節部11R(L)〜13R(L)と膝関節部14R(L)とは大腿リンク21R,21Lで、膝関節部14R(L)と足首関節部15R(L),16R(L)とは下腿リンク22R,22Lで連結されている。
(上体部R2)
図3に示すように、上体部R2は、ロボットRの基体部分であり、脚部R1、腕部R2および頭部R4と連結されている。すなわち、上体部R2(上体リンク53)は、股関節部11R(L)〜13R(L)を介して脚部R1と連結されている。また、上体部R2は、後記する肩関節部31R(L)〜33R(L)を介して腕部R3と連結されている。また、上体部R2は、後記する首関節部41,42を介して頭部R4と連結されている。
また、上体部R2は、上体回旋用(Z軸まわり)の関節部21を備えている。
(腕部R3)
図3に示すように、左右それぞれの腕部R3は、7個の関節部31R(L)〜37R(L)を備えている。左右14個の関節部は、肩部(腕部R3と上体部R2との連結部分)のピッチ軸(Y軸)まわりの肩関節部31R,31L、肩部のロール軸(X軸)まわりの肩関節部32R,32L、腕部回旋用(Z軸まわり)の肩関節部33R,33L、肘部のピッチ軸(Y軸)まわりの肘関節部34R,34L、手首回旋用(Z軸まわり)の腕関節部35R,35L、手首のピッチ軸(Y軸)まわりの手首関節部36R,36L、および手首のロール軸(X軸)まわりの手首関節部37R,37Lから構成されている。そして、腕部R3の先端には把持部(ハンド)71R,71Lが取り付けられている。
すなわち、腕部R3は、肩関節部31R(L),32R(L),33R(L)、肘関節部34R(L)、腕関節部35R(L)および手首関節部36R(L),37R(L)を備えている。肩関節部31R(L)〜33R(L)とは肘関節部34R(L)とは上腕リンク54R(L)で、肘関節部34R(L)と手首関節部36R(L),37R(L)とは前腕リンク55R(L)で連結されている。
(頭部R4)
図3に示すように、頭部R4は、首部(頭部R4と上体部R2との連結部分)のY軸まわりの首関節部41と、首部のZ軸まわりの首関節部42と、を備えている。首関節部41は頭部R4のチルト角を設定するためのものであり、首関節部42は頭部R4のパンを設定するためのものである。
このような構成により、左右の脚部R1は合計12の自由度を与えられ、移動中に12個の関節部11R(L)〜16R(L)を適宜な角度で駆動することで、脚部R1に所望の動きを与えることができ、ロボットRが任意に3次元空間を移動することができる。また、左右の腕部R3は合計14の自由度を与えられ、14個の関節部31R(L)〜37R(L)を適宜な角度で駆動することで、ロボットRが所望の作業を行うことができる。
また、足首関節部15R(L),16R(L)と足部17R(L)との間には、公知の6軸力センサ61R(L)が設けられている。6軸力センサ61R(L)は、床面からロボットRに作用する床反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。
また、手首関節部36R(L),37R(L)と把持部71R(L)との間には、公知の6軸力センサ62R(L)が設けられている。6軸力センサ62R(L)は、ロボットRの把持部38R(L)に作用する反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。
また、上体部R2には、傾斜センサ63が設けられている。傾斜センサ63は、上体部R2の重力軸(Z軸)に対する傾きと、その角速度と、を検出する。
また、各関節部の電動モータは、その出力を減速・増力する減速機(図示せず)を介して前記した大腿リンク51R(L)、下腿リンク52R(L)などを相対変位させる。これら各関節部の角度は、関節角度検出手段(例えば、ロータリエンコーダ)によって検出される。
制御装置搭載部R5は、後記する自律移動制御部150、把持部制御部160、無線通信部170、主制御部200、バッテリ(図示せず)などを収納している。各センサ61〜63などの検出データは、制御装置搭載部R5内の各制御部に送られる。また、各電動モータは、各制御部からの駆動指示信号により駆動される。
図4は、図1のロボットを示すブロック図である。図4に示すように、ロボットRは、脚部R1、腕部R2および頭部R4に加えて、カメラC,C、スピーカS、マイクMC,MC、画像処理部100、音声処理部110、対象検知部120、自律移動制御部150、把持部制御部160、無線通信部170、主制御部200および記憶部300を備えている。
また、ロボットRは、ジャイロセンサSR1およびGPS受信器SR2を備えている。
ジャイロセンサSR1は、ロボットRの向きに関するデータ(向きデータ)を検出する。また、GPS受信器SR2は、ロボットRの位置に関するデータ(位置データ)を検出する。ジャイロセンサSR1およびGPS受信器SR2が検出したデータは、主制御部200に出力され、ロボットRの行動を決定するために利用されると共に、主制御部200から無線通信部170を介してロボット管理装置3に送信される。
[カメラ]
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部100に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R4の内部に配設される。
[画像処理部]
画像処理部100は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部100は、ステレオ処理部101、移動体抽出部102および顔認識部103を備えている。
ステレオ処理部101は、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像及び元の画像を移動体抽出部102に出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体抽出部102は、ステレオ処理部101から出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体は人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部102は、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、その位置に人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部103へ移動体の画像を出力する。
また、移動体抽出部102は、抽出した移動体の高さ、すなわち身長を算出し、顔認識部103へ出力する。
すなわち、移動体抽出部102は、ロボットRに対する人の位置を特定することができ、特許請求の範囲における「人位置特定手段」の一例である。
また、移動体抽出部102は、人の身長を算出することができ、特許請求の範囲における「身長特定手段」の一例である。
顔認識部103は、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部200に出力されると共に、無線通信部170に出力されて、基地局1を介して、ロボット管理装置3に送信される。
[スピーカ]
スピーカSは、後記する音声合成部111により生成された音声データに基づき、音声を出力する。
[マイク]
マイクMC,MCは、ロボットRの周囲の音を集音するものである。集音された音は、後記する音声認識部112および音源定位部113に出力される。
[音声処理部]
音声処理部110は、音声合成部111、音声認識部112および音源定位部113を備えている。
音声合成部111は、主制御部200が決定し、出力してきた発話行動の指令に基づき、文字情報から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶している文字情報と音声データとの対応関係を利用する。
音声認識部112は、マイクMC,MCから音声データが入力され、予め記憶している音声データと文字情報との対応関係に基づき、音声データから文字情報を生成し、主制御部200に出力するものである。
音源定位部113は、マイクMC,MC間の音圧差および音の到達時間差に基づいて、音源の位置(ロボットRからの距離および方向)を特定する。
[対象検知部]
続いて、図4の対象検知部120と、検知用タグTと、について、図5ないし図8を参照して説明する。図5は、図4の対象検知部を示すブロック図である。図6は、図1の検知用タグを示すブロック図である。図7は、対象検知部による探索域を説明するための図であり、(a)は平面図、(b)は側面図である。図8は、対象検知部による周辺領域のエリア分けを説明するための図である。
対象検知部120は、ロボットRの周囲に検知用タグTを備える検知対象Hが存在するか否かを検知すると共に、検知対象Hの存在が検知された場合、当該検知対象Hの位置を特定するものである。
図5に示すように、この対象検知部120は、制御手段121、電波送受信手段122、発光手段123および記憶手段124を備えている。
制御手段121は、後記する電波送受信手段122から無線送信される検索信号と、後記する発光手段123から赤外光として出力される方向検査信号とを生成すると共に、検索信号を受信した検知用タグTから送信された受信報告信号を基に、検知対象Hの位置を特定するものである。
ここで、検索信号とは、ロボットRの周囲に検知対象Hが存在するか否かを検知するための信号であり、方向検査信号とは、検知対象HがロボットRを基準としてどの方向に位置するのかを検知するための信号である。
また、受信報告信号とは、検知用タグTが、少なくとも検索信号を受信したことを示す信号である。
この制御手段121は、データ処理部121a、暗号化部121b、時分割部121c、復号化部121dおよび電界強度検出部121eを備えている。
データ処理部121aは、検索信号および方向検査信号を生成すると共に、検知対象Hの位置を特定するものであり、信号生成部121a1および位置特定部121a2を備えている。
信号生成部121a1は、所定時間毎に、若しくはロボットRの主制御部200から電波の発信を命令する信号(発信命令信号)が入力されるたびに、記憶手段124を参照して、対象検知部120が設けられたロボットRに固有の識別番号(以下、ロボットIDという)を取得する。
そして、信号生成部121a1は、当該ロボットIDと、受信報告要求信号とを含んで構成される検索信号を生成する。
ここで、受信報告要求信号とは、検索信号を受信した検知対象H(検知用タグT)に対して、当該検索信号を受信した旨を示す信号(受信報告信号)を生成するように要求する信号である。
さらに、信号生成部121a1は、この検索信号を生成する際に、後記する発光手段123から赤外線信号として照射される方向検査信号もまた生成する。
方向検査信号は、発光手段123に設けられた発光部(LED1〜LED8)の総てについて、個別に生成されるものであり、前記したロボットIDと、発光部を特定する識別子(発光部ID)を含んで構成される。
なお、この方向検査信号は、後記する復号化部121dから入力される受信報告信号に発光要求信号が含まれている場合にも生成される。
本実施形態の場合、発光部が合計8つ設けられているので、データ処理部121aは、ロボットIDと発光部IDとから構成される方向検査信号を、合計8つ生成する。
例えば、ロボットIDが「02」であり、発光部(LED1〜LED8)の発光部IDが「L1〜L8」である場合、発光部LED1について生成される方向検索信号は、ロボットID=「02」と、発光部ID=「L1」とを含み、発光部LED2について生成される方向検査信号は、ロボットID=「02」と、発光部ID=「L2」とを含むことになる。
そして、信号生成部121a1は、方向検査信号と前記した検索信号とを、暗号化部121bに出力する。
なお、位置特定部121a2は、検索信号を受信した検知用タグTから送信された受信報告信号をもとに、検知対象Dの位置を特定するものであるが、その際にこの位置特定部121a2で行われる処理は、復号化部121dおよび電界強度検出部121eにおける処理と共に、後に詳細に説明する。
暗号化部121bは、入力された信号を暗号化した後、出力するものである。そして、暗号化部121bは、検索信号の暗号化により得られた検索信号(暗号化検索信号)を、後記する電波送受信手段122に出力する。
これにより、暗号化検索信号は、変調されたのち、電波送受信手段122から無線送信されることになる。
一方、暗号化部121bは、データ処理部121aから入力された方向検査信号を、同様にして暗号化する。そして、暗号化部121bは、方向検査信号の暗号化により得られた方向検査信号(暗号化方向検査信号)を、後記する時分割部121cに出力する。
本実施の形態の場合、方向検査信号は、前記したデータ処理部121aにおいて発光手段123の発光部ごとに一つずつ生成される。
よって、図5に示すように、発光手段123には合計8つの発光部が設けられているので、暗号化部121bには、合計8つの方向検査信号がデータ処理部121aから入力される。
その結果、合計8つの暗号化方向検査信号がこの暗号化部121bにおいて生成され、時分割部121cに出力されることになる。
時分割部121cは、発光手段123の各発光部(LED1〜LED8)の発光順序と、発光タイミングを設定するものである。
具体的には、暗号化部121bから暗号化方向検査信号が入力されると、時分割部121cは、各発光部(LED1〜LED8)の発光順序及び発光タイミングを決定し、決定した発光順序及び発光タイミングで、暗号化方向検査信号を発光手段123に出力する。
例えば、発光部LED1、発光部LED4、発光部LED7、発光部LED2、発光部LED5、発光部LED8、発光部LED3、そして発光部LED6の順番で、各発光部を0.5秒間隔で発光させる場合、時分割部83は、暗号化方向検査信号を0.5秒間隔で、発光部LED1の変調部、発光部LED4の変調部、発光部LED7の変調部、発光部LED2の変調部、発光部LED5の変調部、発光部LED8の変調部、発光部LED3の変調部、そして発光部LED6の変調部という順番で出力する。
本実施の形態の場合、合計8つの暗号化方向検査信号が時分割部121cに入力される。そして、これら暗号化方向検査信号は、前記したデータ処理部121aにおいて、出力される発光部があらかじめ決められている。
したがって、時分割部121cは、暗号化方向検査信号が入力されると、暗号化方向検査信号に含まれる発光部IDを確認し、発光部IDにより特定される発光部に隣接する変調部に向けて、決められた順序及びタイミングで、暗号化方向検査信号を出力する。
例えば、発光部(LED1〜LED8)の発光部IDが「L1〜L8」で規定される場合、時分割部121cは、発光部IDが「L1」である暗号化方向検査信号を、発光部LED1に隣接する変調部に出力し、発光部IDが「L2」である暗号化方向検査信号を、発光部LED2に隣接する変調部に出力することになる。
発光手段123は、ロボットRを基準として当該ロボットRの周囲において予め設定された探索域に向けて光を照射するものである。
発光手段123は、複数の発光部(LED1〜LED8)と、各発光部に対応させて設けられた変調部と、を備えている。
変調部は、時分割部121cから入力された暗号化方向検査信号を、所定の変調方式で変調し、変調信号とするものである。
発光部は、変調信号を赤外線信号(赤外光)として、予め決められた探索域に向けて照射するものである。
本実施形態では、検知対象Hの位置を特定するために、ロボットRの周囲の領域が複数の探索域に区分されている(図7(a)参照)。そして、この探索域に向けて赤外光を発光する発光部として、発光ダイオードが探索域毎に一つずつ用意されている。
具体的には、図7(a)に示す例の場合、ロボットRを中心として、全周方向、すなわち360度方向に、合計8つの探索域D1〜D8が設定されている。
言い換えると、ロボットRを中心として、ほぼ扇形の探索域D1〜D8がロボットRを取り囲むように複数設定されており、ロボットRは、これら扇形の探索域で囲まれた領域のほぼ中心に位置している。
したがって、図7に示す例の場合、各探索域に向けて赤外光の照射が可能となるように、ロボットRの頭部R3には、その外周に沿って合計8つの発光部が、それぞれ対応する探索域に向けて設けられている。
また、図7(a)から明らかなように、ロボットRの正面側の探索域D1〜D3は、他の探索域D4〜D8に比べて狭くなるように設定されている。
このように探索域D1〜D8を設定するのは、ロボットRが検知対象Hを検知し、検知対象Hの方向に顔を向ける動作を行う時に、ロボットRの顔の正面(これを視線の方向という)と、検知対象Hの位置とのズレが生じると、ロボットRの視線が自分の方を向いていないと検知対象Hが感じる場合があるという問題を解決するためである。
ここで、この問題を解決する方法の一つとして、探索域の数を多くするという方法が考えられる。しかし、必ずしも全周の探索域の数を増やす必要はなく、前方のみの探索域を増やして、前方側の位置特定を細かくできるようにすることで、検知対象Hの位置する方向にロボットRの視線の方向を向けることができる。また、こうすることにより、発光部の数を少なく構築できる。
そのため、本実施の形態の場合、ロボットRの正面側の探索域D1〜D3の赤外光の照射範囲を狭くすることで、ロボットRの正面側にある探索域D1〜D3内における検知対象Hの位置をより正確に特定できるようにしているのである。
これにより、検知対象Hが人であり、かつロボットRのカメラC,Cで人の顔の撮像を行う場合に、ロボットRの正面側における検知対象Hの位置特定をより正確に行って、ロボットRの移動制御やカメラC,Cの画角の調整に反映させることができるので、ロボットRのカメラC,Cを、検知対象Hである人の顔の正面にきちんと位置させることが可能となる。
図5に示すように、電波送受信手段122は、ロボットRの周辺領域に向けて電波を発信すると共に、当該電波を受信した検知対象Hから送信された受信報告信号を受信するものである。
この電波送受信手段122は、変調部122aと、復調部122bと、送受信アンテナ122cと、を備えている。
変調部122aは、データ処理部121aから入力された検索信号(実際には、暗号化検索信号)を所定の変調方式で変調して変調信号とした後、これを、送受信アンテナ122cを介して無線送信するものである。
復調部122bは、検知対象Hの検知用タグTから無線送信された変調信号を、送受信アンテナ122cを介して受信し、受信した変調信号の復調により、受信報告信号(実際には、暗号化受信報告信号)を取得するものである。
そして、この復調部122bは、取得した受信報告信号を、制御手段121の復号化部121dと電界強度検出部121eとに出力するものである。
復号化部121dは、暗号化された受信報告信号である暗号化受信報告信号を復号化して、受信報告信号を取得し、取得した受信報告信号を、データ処理部121aに出力するものである。
本実施形態の場合、受信報告信号には、後に詳細に説明するが、発光部IDとロボットIDとタグ識別番号とが少なくとも含まれているので、復号化部121dは、これらをデータ処理部121aに出力することになる。
なお、受信報告信号に発光要求信号が含まれていた場合、この発光要求信号もまたデータ処理部121aに出力されることになる。
電界強度検出部121eは、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122が受信した際に、当該変調信号の強度を求めるものである。
具体的には、電界強度検出部121eは、電波送受信手段122の復調部122bから入力された、暗号化受信報告信号の電力を検波し、この検波された電力の平均値を電界強度として求め、この求めた電界強度をデータ処理部121aに出力する。
データ処理部121aの位置特定部121a2は、検知対象Hの位置を特定するものである。
具体的には、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122において受信した際の、当該変調信号の電界強度から、ロボットRから検知対象Hまでの距離を求める。さらに、位置特定部121a2は、受信報告信号に含まれる発光部IDを参照して、検知対象Hが受信した光が、どの発光部から発光されたのかを特定し、特定された発光部の発光方向を、すなわち当該発光部に対応する探索域の方向を検知対象Hの存在する方向とみなし、検知対象Hの位置を特定するものである。
本実施形態の場合、はじめに、位置特定部121a2は、復号化部121dから入力された受信報告信号の中からロボットIDを取得する。そして取得したロボットIDと記憶手段124に記憶されたロボットIDとを比較し、両ロボットIDが一致した場合、位置特定部121a2は、検知対象Hの位置の特定を開始する。
また、本実施形態の場合、図8に示すように、ロボットRの周辺領域は、ロボットRからの距離に応じて4つのエリアに区分されている。すなわち、ロボットRからの距離が短い順に、エリアD11、エリアD12、エリアD13、そしてエリアD14と定義されている。
この各エリアと電界強度とは、電界強度の大きさを基準として予め関連づけられており、この関連づけを示すテーブル(距離テーブル)が、記憶手段124に記憶されている。
したがって、位置特定部121a2は、電界強度検出部121eから入力された電界強度をもとに、記憶手段124に記憶された距離テーブルを参照し、受信報告信号を発信した検知対象Hがどのエリアにいるのかを示す情報(エリア情報)を取得する。
例えば、電界強度検出部121eから入力された電界強度が、エリアD13を規定する閾値間の値である場合、位置特定部121a2は、エリアD13を示す情報(エリア情報)を取得する。
さらに、位置特定部121a2は、復号化部121dから入力された受信報告信号に含まれる発光部IDを参照して、受信報告信号を送信した検知対象Hが、ロボットRの発光手段123のどの発光部から発光された光を受信したのかを特定し、特定された発光部の発光方向を示す情報(方向情報)を取得する。
本実施の形態の場合、図7(a)に示すように、ロボットRの周辺領域には、ロボットRを基準として合計8つの探索域D1〜D8が設定されている。
そして、記憶手段124には、各発光部がどの探索域に向けて設置されているのかを示すテーブル(方向テーブル)が記憶されている。
したがって、データ処理部121aは、発光部IDをもとに記憶手段124に記憶された方向テーブルを参照し、当該発光部IDを持つ発光部から発せられる赤外光が、予め設定された探索域D1〜D8のうち、どの領域に照射されるのかを確認する。そして、データ処理部121aは、確認された探索域を示す情報を、検知対象Hが存在する方向を示す情報(方向情報)として取得する。
そして、位置特定部121a2は、取得したエリア情報と方向情報とから検知対象Hの位置を示す情報(位置情報)を生成する。
これにより、ロボットRが受信した受信報告信号の強度と、この受信報告信号に含まれる発光部IDとから、ロボットRと検知対象Hとの位置関係が特定される。言い換えれば、検知対象Hが、ロボットRを基準としてどの方向に、どれだけ離れた位置に存在するのか、すなわち、検知対象Hの位置が特定される。
そして、位置特定部121a2は、位置情報を、復号化部121dから入力された受信報告信号に含まれるタグ識別番号と共に、ロボットRの主制御部200に出力する。
これにより、ロボットRの主制御部200は、自律移動制御部150を制御して、ロボットRを検知対象Hの正面に移動させることや、検知対象Hが人である場合、カメラC,Cの仰角や向きを修正して、当該検知対象Hの顔の撮像を行うことが可能となる。
なお、受信報告信号に発光要求信号が含まれている場合、信号生成部121a1は方向検査信号を生成し、暗号化部121bに出力する。これにより、発光手段123の各発光部から赤外線信号が発光されることになる。
[検知用タグ]
検知用タグTは、ロボットRから送信された電波と、照射された光とを受信し、これらを受信したことを示す受信報告信号を、ロボットRに送信するものである。
本実施の形態では、検知用タグTが取り付けられた人が検知対象Hであるので、ロボットRから送信された電波と照射された光は、この検知用タグTにおいて受信される。よって、この検知用タグTについて以下に説明する。
図6に示すように、この検知用タグTは、電波送受信手段125と、光受信手段126と、受信報告信号生成手段127と、記憶手段128と、を備えている。
電波送受信手段125は、ロボットRから無線送信された変調信号を受信すると共に、後記する受信報告信号生成手段127において生成された受信報告信号を、変調した後、ロボットRに向けて無線送信するものである。
この電波送受信手段125は、送受信アンテナ125aと、復調部125bと、変調部125cと、を備えている。
復調部125bは、ロボットRから発信されると共に、送受信アンテナ125aを介して受信した変調信号を復調し、検索信号(実際には、暗号化検索信号)を取得し、取得した検索信号を後記する受信報告信号生成手段127に出力するものである。
変調部125cは、後記する受信報告信号生成手段127の暗号化部127cから入力された暗号化後の受信報告信号(暗号化受信報告信号)を変調して変調信号を生成すると共に、当該変調信号を、送受信アンテナ125aを介して、無線送信するものである。
光受信手段126は、ロボットRから照射された赤外光を受光するものである。
この光受信手段126は、受光部126aと、光復調部126bと、を備えている。
受光部126aは、ロボットRから照射された赤外光(赤外線信号)を直接受光するものである。
光復調部126bは、受光部126aにおいて受光した赤外線信号を復調して、方向検査信号(実際には、暗号化方向検査信号)を取得するものである。
具体的には、光受信手段126は、ロボットRから照射された赤外光を受光部126aで受光すると、受光した赤外線信号を光復調部126bにおいて復調して、暗号化方向検査信号を取得する。そして、取得した暗号化方向検査信号を受信報告信号生成手段127に出力する。
受信報告信号生成手段127は、ロボットRから発信された検索信号を電波送受信手段125で受信した場合、この検索信号に含まれる受信報告要求信号に従って、ロボットRから発信された検索信号を受信したことを示す信号(受信報告信号)を生成するものである。
この受信報告信号生成手段127は、復号化部127aと、データ処理部127bと、暗号化部127cと、を備えている。
復号化部127aは、入力された暗号化信号を復号化して、信号を取得するものである。
この復号化部127aは、電波送受信手段125から入力された暗号化検索信号と、光受信手段126から入力された暗号化方向検査信号とを復号化して、検索信号と方向検査信号とを取得する。そして、復号化部127aは、取得した検索信号と方向検査信号とを後段のデータ処理部127bに出力する。
データ処理部127bは、受信報告信号を生成するものである。
ここで、本実施形態の場合、検索信号には、検索信号を発信したロボットRを特定する識別子であるロボットIDと、当該電波を受信した検知対象Hに対し、所定の処理を命ずる受信報告要求信号とが含まれている。
また、方向検査信号には、方向検査信号を発信したロボットRを特定する識別子であるロボットIDと、方向検査信号を発信した発光部を特定する発光部IDとが含まれている。
したがって、データ処理部127bは、検索信号が入力されると、この検索信号に含まれる受信報告要求信号に従って、この検知用タグTの光受信手段126を待機状態から起動状態にする。
そして、光受信手段126を起動状態にした後、所定時間経過するまでの間に方向検査信号が入力された場合、データ処理部127bは、方向検査信号に含まれるロボットIDと、検索信号に含まれるロボットIDとを比較する。
データ処理部127bは、両ロボットIDが一致した場合、記憶手段128を参照し、検知用タグTに割り当てられた固有の識別番号(タグ識別番号)を取得する。
続いて、データ処理部127bは、タグ識別番号と、検索信号に含まれていたロボットIDと、そして方向検査信号に含まれていた発光部IDとを含んで構成される受信報告信号を生成し、生成した受信報告信号を暗号化部127cに出力する。
一方、検知用タグTの光受信手段126を起動状態にした後、所定時間経過しても方向検査信号が入力されない場合、または検索信号に含まれていたロボットIDと方向検査信号に含まれていたロボットIDとが異なる場合、データ処理部127bは、発光要求信号をさらに含む受信報告信号を生成し、生成した受信報告信号を、暗号化部127cに出力する。
ここで、発光要求信号とは、検知装置であるロボットRに対して、赤外光を発光するように命令する信号である。
暗号化部127cは、入力された受信報告信号を暗号化して、暗号化受信報告信号とした後、これを電波送受信手段125に出力する。
これにより、暗号化受信報告信号は、前記した電波送受信手段125の変調部125cにおいて変調された後、送受信アンテナ125aを介して、無線送信されることになる。
[自律移動制御部]
図4に示すように、自律移動制御部150は、頭部制御部151、腕部制御部152および脚部制御部153を備えている。
頭部制御部151は、主制御部200の指示に従い頭部R4を駆動し、腕部制御部152は、主制御部200の指示に従い腕部R2を駆動し、脚部制御部153は、主制御部200の指示に従い脚部R1を駆動する。これら自律移動制御部150、頭部R1、腕部R2および脚部R1の組み合わせが、特許請求の範囲における「自律移動手段(自律移動装置)」の一例である。
[把持部制御部]
把持部制御部160は、主制御部200の指示に従い把持部71を駆動する。
[無線通信部]
無線通信部170は、ロボット管理装置3とデータの送受信を行う通信装置である。無線通信部170は、公衆回線通信装置171および無線通信装置172を備えている。
公衆回線通信装置171は、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置172は、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部170は、ロボット管理装置3からの接続要求に従い、公衆回線通信装置171または無線通信装置172を選択してロボット管理装置3とデータ通信を行う。
[把持部]
続いて、ロボットRの把持部71R(L)について、図9ないし図11を参照してさらに詳しく説明する。図9は、ロボットの把持部を示す斜視図であり、指開状態を示す図である。図10は、ロボットの把持部を示す斜視図であり、指閉状態を示す図である。図11は、ロボットの把持部、開度検出手段および6軸力センサを示すブロック図である。なお、一対の把持部71R,71Lは鏡面対称であり、図9および図10には、左側の把持部71Lが示されている。以下、場合により、R,Lを除いた符号を用いて説明する。
図9および図10に示すように、把持部71は、掌部72と、第一指部73と、第二指部74と、を備えている。
掌部72は、手首関節部36,37を介して前腕リンク55に連結されている(図3参照)。
第一指部73は、人間の親指に相当する部分であり、第一指関節部73aを介して掌部72の基端側に連結されている。
第二指部74は、人間の示指、中指、環指、小指に相当する部分であり、第二指関節部74aを介して掌部72の先端側に連結されている。
また、掌部72内には、第一指部73を駆動するための第一指部用モータ73bと、第二指部74を駆動するための第二指部用モータ74bとが内蔵されている。また、掌部72には、第一指部角度α(第一指部73と掌部72との角度)を検出する第一指部角度検出手段83と、第二指部角度β(第二指部74と掌部72との角度)を検出する第二指部角度検出手段84と、が内蔵されている(図11参照)。
第一指部角度αは、第一指部73と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第一指部角度αは、図9に示す指開状態(把持時全開)でα1、図10に示す指閉状態(把持時全閉)でα2である(α1≦α≦α2)。
第二指部角度βは、第二指部74と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第二指部角度βは、図9に示す指開状態(把持時全開)でβ1(=0)、図10に示す指閉状態(把持時全閉)でβ2である(0≦β≦β2)。
ここで、把持部71の開度に関する数値として、第一指部角度αおよび第二指部角度βに対する把持角度偏差θを以下のように定義する。
θ = (α2−α)+(β2−β)
すなわち、把持角度偏差θは、把持部71の全閉状態に対する開き具合(開度)を示す数値であり、指閉状態(把持時全閉)で最小値θmin=0となり、指開状態(把持時全開)で最大値θmax=α2+β2となる。
把持部71が物品を把持した状態では、指閉状態となる手前の状態で各指部73,74が止まるので、把持角度偏差θは正の値をとる。把持角度偏差θは、把持される物品の厚みが大きいほど、その値が大きくなるといった特徴を有している。
また、本実施形態のロボット制御システムAは、物品により把持部71に作用する外力を検出する外力検出手段として、6軸力センサ62を採用している。この6軸力センサ62は、外力の方向も検出可能である。そのため、物品から把持部71に作用する外力のうち、X軸方向の力Fx、Y軸方向の力Fy、Z軸方向の力Fzをそれぞれ検出可能である。したがって、物品が重い場合であっても、物品の重力によるZ軸方向の力を除去し、人が物品を渡そうとしたり、受けとろうとしたことによる外力(本実施形態ではFx)を検出することが可能である。
(主制御部200および記憶部300)
続いて、図4の主制御部200および記憶部300について、図12を参照して説明する。図12は、図4の主制御部および記憶部を示すブロック図である。
(記憶部)
図12に示すように、記憶部300は、人データ記憶部310、地図データ記憶部320、物品データ記憶部330および発話データ記憶部340を備えている。
人データ記憶部310は、タスク実行エリアEAであるオフィス内にいる人に関するデータ(人データ)を、それぞれ関連付けて記憶している。
人データとしては、人識別番号(ID)、名前、所属、タグ識別番号、通常居場所、机位置、顔画像などに関するデータが含まれる。
地図データ記憶部320は、タスク実行エリアEAの地形(壁位置、机位置など)に関するデータ(地図データ)を記憶している。
物品データ記憶部330は、ロボットRに運搬させる物品に関するデータ(物品データ)を、それぞれ関連付けて記憶している。
物品データとしては、物品識別番号、物品の名称、大きさ、重さなどに関するデータが含まれる。
発話データ記憶部340は、ロボットRが発話するためのデータ(発話データ)を記憶している。
(主制御部)
図12に示すように、主制御部200は、行動管理手段210、人特定手段220、移動行動決定手段230、受取行動決定手段240および計時手段250を備えている。
(行動管理手段)
行動管理手段210は、ロボット管理装置3から送信された実行命令信号を取得し、この実行命令信号に基づき、人特定手段220、移動行動決定手段230および受取行動決定手段240を制御する。
また、行動管理手段210は、ジャイロセンサSR1によって検出されたロボットRの向きデータ、GPS受信器SR2によって検出されたロボットRの位置データなどをロボット管理装置3に出力する。
また、行動管理手段210は、ロボットRのタスク実行状況を報告するための行動報告信号をロボット管理装置3へ向けて出力する。
(人特定手段)
人特定手段220は、人データ記憶部310に記憶された人情報と、対象検知部120によって取得されたタグTのタグ識別番号と、に基づいて、対象検知部によって検知された人(検知対象)が誰であるかを特定する。人データ記憶部310には、その人の名前と、その人固有のタグTのタグ識別番号とが関連付けて記憶されているので、これらのデータと、実行命令信号とを参照することによって、ロボットR近傍にいる人が、タスク実行に関係ある人であるか否かを判定することができる。
さらに、人特定手段220は、移動体抽出部102で抽出された移動体の位置データと、対象検知部120で検知された検知対象の位置データと、に基づいて、カメラC,Cで撮像された移動体が誰であるかを特定する。
(移動行動決定手段)
移動行動決定手段230は、ロボットRの自律移動の内容を決定するためのものであり、移動経路決定手段231および受取位置決定手段232を備えている。
移動経路決定手段231は、タスク実行命令信号と、ロボットRの位置データと、ロボットRの向きデータと、人データと、地図データと、に基づいて、ロボットRの移動経路を決定する。
受取位置決定手段232は、移動体抽出部102によって検出された移動体(人)の位置データに基づいて、ロボットRの受取位置を決定する。また、受取位置決定手段232は、移動体抽出部102によって検出された移動体(人)の位置データに基づいて、ロボットRの受渡位置を決定する。
受取位置決定手段232が受取位置または受渡位置を決定すると、移動経路決定手段231は、この受取位置または受渡位置に移動するように、ロボットRの移動経路を決定する。この受取位置または受渡位置は、ロボットRと人との間で物品の受取または受渡が好適に行われる位置であり、予め設定された距離a1(図14参照)を用いて決定される。
受取行動決定手段
受取行動決定手段240は、物品運搬作業に伴う把持部71の行動(動作)内容を決定するためのものであり、受取方法決定手段241、受取高さ決定手段242、受取開始判定手段243、受取動作完了判定手段244、把持成否判定手段245、受渡開始判定手段246、受渡完了判定手段247、運搬状態設定手段248および習熟度判定手段249を備えている。
受取方法決定手段241は、実行命令信号と、物品データ記憶部330に記憶された物品データに基づいて、受取方法を決定する。
本実施形態のロボットRが選択可能な受取方法としては、片手受取および両手受取の2種類がある。
片手受取は、ロボットRの一方の把持部71R(または71L)が物品を受け取る受取方法である。両手受取は、ロボットRの両方の把持部71R,71Lが物品を受け取る受取方法である。受取方法決定手段241は、物品データの大きさや重さに基づいて、これら2種類の一方を選択する。例えば、A4サイズの書類など、両手受取可能な大きさの物品を受け取る場合には両手受取とし、両手受取不可能な大きさである小さいサイズの物品を受け取る場合には片手受取とすることが考えられる。
受取高さ決定手段
受取高さ決定手段242は、移動体抽出部102によって算出された人の身長に基づいて、把持部71の差し出し高さa3(図17参照)を決定する。この差し出し高さは、ロボットRと人との間で物品の受取または受渡が好適に行われる高さであり、算出された身長に基づいて、予め設定された3段階の高さのいずれかを選択する。
そして、受取高さ決定手段242は、自律移動制御部150を介して、把持部71を高さa3に差し出させると共に、人から把持部71までの距離が距離a2となり、さらには、移動体抽出部102で算出した人の中心(中心鉛直線)に合わせるように把持部71を差し出させる(図16、図17参照)。
(受取開始判定手段)
受取開始判定手段243は、人が物品をロボットRの受取可能な位置に差し出し、ロボットRが受取動作を開始可能であるか否かを判定し、受取動作を開始可能であると判定した場合に、把持部71に受取動作を開始させる。
受取開始判定手段243は、把持部71が物品を把持していない状態、詳しくは、後記する受取待機状態において、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx1(第一の所定値)以上である場合に、受取動作を開始可能であると判定し、把持部制御部160を介して把持部71を駆動し、指閉動作を行わせる。
これは、ロボットRに物品を渡そうとする人が、物品を掌部72に押し付けることを利用した制御である。
(受取動作完了判定手段)
受取動作完了判定手段244は、把持部71が物品の受取中である状態において、受取動作が完了したか否かを判定する。
この受取動作完了判定手段244は、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx2(第二の所定値;Fx2≦Fx1)以下となった場合に、受取動作が完了したと判定する。
これは、ロボットRに物品を渡そうとする人が、ロボットRが物品を受け取ったと判断して手を離したときに、物品が掌部72に押し付けられる力が減少することを利用した制御である。
また、受取動作完了判定手段244は、受取待機状態において、把持部71の開度が所定値以下になった場合、すなわち、把持角度偏差θが所定値θ1(第三の所定値)以下になった場合(例えば、θ=0)に、受取動作が完了したと判定する。
受取動作完了判定手段244は、受取動作が完了したと判定した場合に、把持部制御部160を介して把持部71を駆動し、指閉方向にトルクを発生させ、物品を把持させる。
(把持成否判定手段)
把持成否判定手段245は、物品の把持が成功したか否かを判定する。
本実施形態において、把持成否判定手段245は、両手受取を行った場合において、腕部制御部152を介して把持部71R,71Lを近接または離隔させる。そして、6軸力センサ62が検出する物品からの反力Fyに基づいて、把持部71R,71Lの両方が物品を把持しているか否かを判定する。
この把持成否判定手段245は、物品からの反力Fyが所定値Fy1(第五の所定値)以上である場合に、把持成功であると判定する。
(受渡開始判定手段)
受渡開始判定手段246は、ロボットRが物品を人の受取可能な位置に差し出した状態で、人が物品を受け取ろうしているか否かを判定し、人が物品を受け取ろうとしていると判定した場合に、把持部71に受渡動作を開始させる。
受渡開始判定手段246は、後記する受渡待機状態において、6軸力センサ62が検出するX軸方向の力Fxが所定値Fx3以上である場合に、受渡動作を開始可能であると判定し、把持部制御部160を介して把持部71を駆動し、指開動作を行わせる。
これは、ロボットRから物品を受け取ろうとする人が、物品を引っ張ることを利用した制御である。
また、受渡開始判定手段246は、受渡待機状態において、把持部71の開度が所定値以下になった場合、すなわち、把持角度偏差θが所定値θ2以下になった場合(例えば、θ=0)に、受渡動作を開始可能であると判定する。
これは、ロボットRから物品を受け取ろうとする人が物品を引っ張ることによって、物品が把持部71から取り除かれ、把持部71が把持トルクによって閉じてしまうことを利用した制御である。
(受渡完了判定手段)
受渡完了判定手段247は、後記する受渡中状態において、6軸力センサ62によって検出されるX軸方向の力Fxが所定値Fx4(Fx4≦Fx3)以下となった場合に、受渡動作が完了したと判定する。
これは、人が物品を完全に受け取ることによって、物品により把持部71に生じる外力Fxが小さくなることを利用した制御である。
(運搬状態設定手段)
運搬状態設定手段248は、把持部71の状態を検出し、設定・更新する。
把持部71の状態としては、以下のものがある。
1:フリー…物品運搬タスクが依頼されていない状態
2:受取待機…把持部を差し出し、人が物品を受け渡すのを待っている状態
3:受取中…人が物品を受け渡し、物品の受取を行っている状態
4:受取動作完了…人が物品から手を離し、物品がロボット側に渡った(と思われる)状態
5:把持成否判定…ロボットが物品把持の成否を判定する状態
6:受取失敗…ロボットが物品の受取に失敗した状態
7:把持完了…ロボットが物品の受取に成功し、物品を把持した状態
8:受渡待機…把持部を差し出し、人が物品を受け取るのを待っている状態
9:受渡中…人が物品を受け取り、物品の受渡を行っている状態
10:受渡完了…人が完全に物品を受け取り、物品が人側に渡った状態
11:エラー…搬送中に物品を落とした状態など
(習熟度判定手段)
習熟度判定手段249は、受取動作および受渡動作に関する人の習熟度を判定する。
習熟度判定手段249は、主制御部200内に設けられた時計である計時手段250を用いて、受取待機状態から受取中状態に移行するのに要する時間や、受渡待機状態から受渡中状態に移行するのに要する時間を測定する。そして、測定された時間の長さに基づいて、人の習熟度を判定する。ここでは、測定時間の短い方から順に、習熟度高・習熟度中・習熟度低と判定する。
把持部制御部160は、この習熟度に基づいて、指閉・指開動作のスピードを設定する。すなわち、ロボットRが習熟度低と判定された人に対して受取動作または受渡動作を行う場合には、把持部71に指閉・指開動作を遅く行わせ、人に不安感を与えないようにする。
また、ロボットRが習熟度高と判定された人に対して受取動作または受渡動作を行う場合には、受取行動決定手段240は、把持部71に指閉・指開動作を速く行わせ、人に煩わしさを感じさせないようにする。
また、受取行動決定手段240は、この習熟度に基づいて、発話行動を決定し、発話データに基づいてスピーカSに発話を行わせる。
(ロボットの動作例)
続いて、本発明の実施形態に係るロボット制御システムAによるロボットRの物品運搬動作について説明する。ここでは、ロボットRが、「人H1から物品Mを受け取り、人H2に物品Mを受け渡す」といったタスクに関する実行命令信号を受けた場合を例にとって説明する。この物品Mは、A4サイズの書類であり、ロボットRが両手把持可能な大きさであるものとする。
(受取位置移動)
まず、ロボットRの受取位置への移動について説明する。図13は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取位置への移動を示すフローチャートである。
まず、ロボットRは、タスク実行エリアEAに設定されたホームポジションで待機している(ステップS1)。
ロボットRが、ロボット管理装置3から送信された実行命令信号を受信すると(ステップS2でYes)、ロボットRは、ホームポジションから人H1の通常居場所(以下、「通常居場所P1」と記載する。)までの移動を開始する(ステップS3)。そして、人H1の通常居場所P1に到着すると(ステップS4でYes)、ロボットRは移動を中止し、人H1の探索を開始する(ステップS5)。
対象検知部120で人H1のタグ識別番号を検知すると(ステップS6でYes)、ロボットRは、カメラC,Cで人H1の画像を取得し、(ステップS7でYes)、図14に示すように、人H1の正面に移動する(ステップS8)。図14には、ロボットRが受取位置決定手段232で決定した受取位置に移動した状態が示されている。
なお、対象検知部120が、所定時間内に人H1のタグ識別番号を検知することができなかった場合には(ステップS9でYes)、ロボットRは、行動管理手段210でタスク実行が不可能である旨を伝える行動報告信号を生成し、ロボット管理装置3へ出力すると共に、ホームポジションに移動する(ステップS10)。
(受取動作)
続いて、ロボットRの受取動作について説明する。図15は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取動作を示すフローチャートである。
受取位置に移動したロボットRは、図16および図17に示すように、受取高さ決定手段242で決定した受取高さに、指開状態の把持部71(71R,71L)を差し出す(ステップS21)。
図16および図17に示すように、ロボットRは、受取高さ決定手段242で決定した高さa3に把持部71R,71Lを差し出すと共に、人H1から把持部71R,71Lまでの距離が、距離a2となるように把持部71R,71Lを差し出す。さらに、ロボットRは、把持部71R,71Lの差し出し方向を、移動体抽出部102で算出した人H1の中心(中心鉛直線)に合わせる。
把持部71R,71Lの差し出しが完了すると、運搬状態設定手段248が運搬状態を「受取待機」と設定すると共に、ロボットRが、「物品Mをお渡しください」と発話する(ステップS22)。
受取待機状態において、ロボットRが6軸力センサ62R,62LでFx1以上の外力Fxを検出すると(ステップ23でYes)、運搬状態設定手段248が運搬状態を「受取中」と設定すると共に、ロボットRが把持部71R,71Lを閉じ始める(ステップS24)。図18には、ロボットRが物品Mの受取を開始した状態が示されている。
そして、受取中状態において、ロボットRが6軸力センサ62R,62Lで検出する力FxがFx2以下となるか、または、把持角度偏差θがθ1以下となると(ステップS25でYes)、運搬状態設定手段248が運搬状態を「受取動作完了」と設定すると共に、図19に示すように、把持部71R,71Lが物品Mを把持する。
続いて、把持成否判定手段245が、把持部71R,71Lの開度を判定する(ステップS27)。
把持部71R,71Lの両方の開度、すなわち把持角度偏差θが所定値θ3(第四の所定値)以上(条件D1)である場合には、物品Mが厚く、把持部71R,71Lの両方が物品Mを把持したものと判定し、運搬状態設定手段248が運搬状態を「把持完了」と設定する(ステップS28)。
把持部71R,71Lの少なくとも一方の把持角度偏差θが所定値θ3未満(条件D2)である場合には、運搬状態設定手段248が運搬状態を「把持正否判定」と設定すると共に(ステップS29)、把持成否判定手段245が、把持の成否を判定する(ステップS30)。
詳しくは、ロボットRは、把持部71R,71Lを近接または離隔させ、6軸力センサ62R,62Lで物品Mから作用する反力Fyを検出する。把持成否判定手段245は、反力Fyが所定値Fy1以上である場合(条件D3)に、把持成功であると判定し、運搬状態設定手段248が運搬状態を「受取動作完了」と設定すると共に、把持部71R,71Lが物品Mを把持する。
また、把持成否判定手段245は、反力Fyが所定地Fy1未満である場合(条件D4)に、把持失敗であると判定し、運搬状態設定手段248が運搬状態を「受取失敗」と設定する。
ここで、図20を参照して、把持成否判定について説明する。
図20(a)に示すように、把持部71R,71Lの両方が物品Mを把持している場合には、把持部71R,71Lを近接させると物品Mによる反力Fy(所定値Fy1以上)が生じる。
図20(b)に示すように、把持部71R,71Lの一方(ここでは把持部71R)のみが物品Mを把持している場合には、把持部71R,71Lを近接させても物品Mによる反力Fyはごく小さい値(所定値Fy2以上、かつ、所定値Fy1よりも小さい。Fy2≦Fy<Fy1)となる。
図20(c)に示すように、把持部71R,71Lの両方が物品Mを把持していない場合には、把持部71R,71Lを近接させても物品Mによる反力Fyは生じない(Fy=0)。
したがって、反力Fyが所定値Fy1以上である場合に、把持成否判定手段245が、把持成功であると判定することで、ロボットRが両手(把持部71R,71L)で物品を把持している否かを判定することができる。
(受け直し準備)
続いて、ロボットRの受け直し準備について説明する。図21は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品の受け直し準備を示すフローチャートである。
把持成否判定手段245が把持失敗であると判定すると(ステップS29で条件D4)、運搬状態設定手段248が把持部状態を「受取失敗」と設定し(ステップS41)、把持成否判定手段245が、把持部71R,71Lの状態を判定する(ステップS42)。把持成否判定動作において、6軸力センサ62R,62Lの少なくとも一方が所定値Fy2以上の外力Fyを検出している場合には(ステップS42で条件D5)、運搬状態設定手段248が運搬状態を「受渡待機」と設定し、ロボットRが、「物品Mを受け取って、再度お渡しください」と発話する(ステップS43)。
そして、ロボットRが、6軸力センサ62R,62Lのうち、物品Mを把持している方で所定値Fx5以上の外力Fxを検出すると(ステップS44でYes)、運搬状態設定手段248が運搬状態を「受渡中」と設定すると共に、把持部71R,71Lが開放される(ステップS45)。その後、ステップS22に移行し、受取動作を再実行する。
なお、ステップS42で、把持成否判定動作において、把持部71R,71Lの把持部角度偏差θが所定値θ4以下である場合(例えば、θ=0)には(条件D6)、ロボットRが、「物品Mを再度お渡しください」と発話し、把持部71R,71Lが開放される(ステップS45)。その後、ステップS22に移行し、受取動作を再実行する。
(運搬移動)
続いて、ロボットRの物品運搬移動について説明する。図22は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品の運搬移動を示すフローチャートである。
ステップS28において、物品把持完了となると、ロボットRは、把持部71R,71Lを、カメラC,Cによる撮像領域D21から外れた位置(死角)に移動させる(図23参照)(ステップS61)。これは、把持された物品MがカメラC,Cの視野を塞ぐことを防ぐためである。
そして、ロボットRは、受取位置から、人H2の通常居場所(以下、「通常居場所P2」と記載する。)までの移動を開始する(ステップS62)。そして、人H2の通常居場所P2に到着すると(ステップS63でYes)、ロボットRは移動を中止し、人H2の探索を開始する(ステップS64)。
対象検知部120で人H2のタグ識別番号を検知すると(ステップS65でYes)、ロボットRは、カメラC,Cで人H2の画像を取得し(ステップS66でYes)、人H2の正面に移動する(ステップS67)。
なお、対象検知部120が、所定時間に人H2のタグ識別番号を検知することができなかった場合には(ステップS68でYes)、ロボットRは、物品Mをタスク実行エリアEA内に設けられた物品置き場B1(図1参照)へと運搬することになる。
(受渡動作)
続いて、ロボットRの受渡動作について説明する。図24は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受渡動作を示すフローチャートである。
受渡位置に移動したロボットRは、図25および図26に示すように、受取高さ決定手段242で決定した受渡高さに、物品Mを把持した把持部71(71R,71L)を差し出す(ステップS81)。
把持部71R,71Lの差し出しが完了すると、運搬状態設定手段248が運搬状態を「受渡待機」と設定すると共に、ロボットRが、「物品Mをお受け取りください」と発話する(ステップS82)。
受渡待機状態において、ロボットRが6軸力センサ62R,62Lで所定値Fx3以上の外力Fxを検出するか、または、把持角度偏差θが所定値θ2以下(例えば、θ=0)となった場合には(ステップS83でYes)、運搬状態設定手段248が運搬状態を「受渡中」と設定すると共に、ロボットRが把持部71R,71Lを開きはじめる(ステップS84)。図27には、人H2がロボットRから物品Mを受け取ろうとする状態が示されている。
そして、受渡中状態において、ロボットRが6軸力センサ62R,62Lで検出する力Fxが所定値Fx4(Fx4≦Fx3)以下となると(ステップS85でYes)、運搬状態設定手段248が運搬状態を「受渡完了」と設定する(ステップS86)。
物品Mの受渡が完了すると、ロボットRは、行動管理手段210でタスク実行終了を伝える行動報告信号を生成し、ロボット管理装置3へ出力する(ステップS87)。
そして、ロボットRは、受渡位置からホームポジションまでの移動を行う(ステップS88)。
なお、運搬移動中において、ロボットRが物品Mを落とした場合には、運搬状態設定手段248が運搬状態を「エラー」と設定すると共に、行動管理手段210が運搬失敗を伝える行動報告信号を生成し、ロボット管理装置3へ出力する。
本実施形態では、把持角度偏差θが所定値θ5以下となった場合に(例えば、θ=0)、受取行動決定手段240が、ロボットRが物品Mを落としたと判定する。
また、運搬移動中において、6軸力センサ62で検出する力Fxが大きく変化した場合(例、物品Mが障害物にぶつかっている)には、ロボットRは、自律移動を一時停止し、Fxが通常値に戻るのを待つ。
同様に、運搬移動中において、カメラC,Cで前方に障害物を検出した場合(例、人がロボットの前を横切る)にも、ロボットRは、自律移動を一時停止し、障害物が前方からなくなるのを待つ。
(物品置き場移動)
続いて、ロボットRの物品置き場B1への移動について説明する。図28は、本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品置き場への移動を示すフローチャートである。
ロボットRが、所定時間に人H2の探索ができなかった場合には(ステップS68でYes)、ロボットRは、人H2の通常居場所P2から物品置き場B1への移動を行う(ステップS101)。
そして、ロボットRは、物品置き場B1に物品Mを置くと共に(ステップS102)、物品Mを物品置き場B1に置いた旨を伝える行動報告信号を生成し、ロボット管理装置3および人H2専用の端末5へ出力する(ステップS103)。そして、ロボットRは物品置き場B1からホームポジションまでの移動を行う(ステップS104)。
本発明の実施形態に係るロボット制御システムによると、以下のような効果がある。
(1)受取中状態において、人が物品から手を離し、物品を把持部に押し付ける力が弱まることを検出し、物品の受取が完了したことを判定することができる。そして、ロボットが物品の受取完了後に把持トルクを生成して物品を把持するので、人は物品を無理矢理奪い取られた感じを受けにくくなる。
(2)ロボットが、受取(受渡)待機から受取(受渡)開始までの時間によって、人の物品受取(受渡)動作の習熟度を判定し、この習熟度に基づいた受取(受渡)動作を行う。したがって、習熟度の低い人にはゆっくり、習熟度の高い人には迅速に、といった受取(受渡)動作の使い分けが可能である。
(3)両手受取において、ロボットが、両把持部で物品を把持しているか否かを判定することによって、物品が軽量、薄い場合であっても、把持成否の確認が可能となる。また、把持失敗の場合であっても、物品の受け直し(受取動作の再実行)が可能である。
(4)ロボットが、人の位置、身長に応じた動作を行うので、人の負担を減らし、より自然な感じの受取動作および受渡動作が可能となる。すなわち、ロボットが人に合わせた動作を行うことによって、人がロボットの動作に合わせることによる負担が減少している。
(5)ロボットが、物品による外力のうち、水平方向の力を利用して受取動作および受渡動作を制御するので、人の動作による外力と、物品の自重による外力と、を分けて検出することができ、物品の自重による誤作動防止することができる。
以上、本発明の実施形態について説明したが、本発明は前記した実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜設計変更可能である。
例えば、物品運搬中において、ロボットが物品を落としたか否かを判定するのに、6軸力センサによって検出されるZ軸方向の外力Fzを利用してもよい。これは、ロボットが物品を落とした場合には、6軸力センサは物品の荷重を検知しなくなり、Fzが低下するからである。
また、ロボットの各関節部の数・配置なども適宜設計変更可能である。
また、本実施形態では、受取行動決定手段、人位置特定手段、受取位置決定手段、身長特定手段、受取高さ決定手段および人特定手段を、ロボットに組み込まれた各制御部内に設ける構成としたが、これら各手段のうちの少なくとも一つを、ロボット管理装置側に設ける構成であってもよい。
本発明の実施形態に係るロボット制御システムを示すシステム構成図である。 図1のロボットの外観を示す側面図である。 図1のロボットの内部構造を模式的に示す斜視図である。 図1のロボットを示すブロック図である。 図4の対象検知部を示すブロック図である。 図1の検知用タグを示すブロック図である。 対象検知部による探索領域を説明するための図であり、(a)は平面図、(b)は側面図である。 対象検知部による周辺領域のエリア分けを説明するための図である。 ロボットの把持部を示す斜視図であり、指開状態を示す図である。 ロボットの把持部を示す斜視図であり、指閉状態を示す図である。 ロボットの把持部、開度検出手段および外力検出手段を示すブロック図である。 図2の主制御部および記憶部を示すブロック図である。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取位置への移動を示すフローチャートである。 ロボットが受取位置に移動した状態を示す図である。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受取動作を示すフローチャートである。 ロボットが受取高さに把持部を差し出した状態を示す図である。 ロボットが受取高さに把持部を差し出した状態を示す図である。 ロボットが物品の受取を開始した状態を示す図である。 ロボットが物品の受取を完了した状態を示す図である。 把持成否判定を説明するための図であり、(a)は把持成功状態を示す図、(b)および(c)は把持失敗状態を示す図である。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品の受け直し準備を示すフローチャートである。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、運搬移動を示すフローチャートである。 ロボットが物品を運搬している状態を示す図である。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、受渡動作を示すフローチャートである。 ロボットが受渡位置に移動し、受渡高さに把持部を差し出した状態を示す図である。 ロボットが受渡位置に移動し、受渡高さに把持部を差し出した状態を示す図である。 ロボットが物品の受渡を開始した状態を示す図である。 本発明の実施形態に係るロボット制御システムによる物品運搬作業を示すフローチャートであり、物品置き場への移動を示すフローチャートである。
符号の説明
3 ロボット管理装置
62,62L,62R 6軸力センサ(外力検出手段)
71,71L,71R 把持部
81,81L,81R 開度検出手段
83 第一指部角度検出手段
84 第二指部角度検出手段
102 移動体抽出部(人位置特定手段、身長特定手段)
220 人特定手段
232 受取位置決定手段
240 受取行動決定手段
242 受取高さ決定手段
243 受取開始判定手段
244 受取動作完了判定手段
245 把持成否判定手段
246 受渡開始判定手段
247 受渡完了判定手段
A ロボット制御システム
R ロボット(物品運搬システム)

Claims (12)

  1. 物品を把持する開閉可能な把持部と、前記把持部に作用する外力を検出する外力検出手段と、前記把持部の開度を検出する開度検出手段と、自律移動手段と、を備えたロボットと、
    物品受取作業における前記ロボットの行動を決定する受取行動決定手段と、
    を備え、前記把持部により物品の受取を行う物品運搬システムであって、
    前記受取行動決定手段は、
    前記把持部が物品を把持していない状態で前記外力検出手段が第一の所定値以上の外力を検出した場合に、前記把持部に受取動作を開始させる受取開始判定手段と、
    受取動作中において、前記外力検出手段が検出した外力と、前記開度検出手段が検出した開度と、の少なくとも一方に基づいて、物品の受取動作完了を判定する受取動作完了判定手段と、
    備え、
    前記受取動作完了判定手段が受取動作完了と判定した場合に、前記受取行動決定手段が前記把持部に把持力を発生させ、
    さらに、前記受取行動決定手段が前記把持部に把持力を発生させた後において、物品把持の成否を判定する把持成否判定手段を備え、
    前記ロボットは、一対の前記把持部を備えており、
    前記一対の把持部が物品を把持し、
    前記把持成否判定手段は、前記一対の把持部を近接または離隔させたときに生じる物品からの外力に基づいて把持成否を判定する
    ことを特徴とする物品運搬システム。
  2. 前記受取動作完了判定手段は、前記外力が第二の所定値以下になった場合に、受取動作完了と判定する
    ことを特徴とする請求項1に記載の物品運搬システム。
  3. 前記受取動作完了判定手段は、前記開度が第三の所定値以下になった場合に、受取動作完了と判定する
    ことを特徴とする請求項1または請求項2に記載の物品運搬システム。
  4. 前記把持成否判定手段は、前記開度が第四の所定値以下である場合に、把持の成否を判定する
    ことを特徴とする請求項1から請求項3のいずれか一項に記載の物品運搬システム。
  5. 前記把持成否判定手段が把持失敗と判定した場合に、前記受取行動決定手段が、受取動作を再実行させる
    ことを特徴とする請求項1から請求項4のいずれか一項に記載の物品運搬システム。
  6. 前記把持成否判定手段は、
    前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値以上の場合に、把持成功と判定し、
    前記外力検出手段によって検出された、前記一対の把持部を近接または離隔させたときに生じる物品からの外力が第五の所定値未満の場合に、把持失敗と判定する
    ことを特徴とする請求項1から請求項5のいずれか一項に記載の物品運搬システム。
  7. 前記把持部は、掌部と、前記掌部に第一関節を介して連結された第一指部と、前記掌部に第二関節を介して連結された第二指部と、を備え、前記第一指部と前記第二指部とによって物品を把持する構成であり、
    前記開度検出手段は、前記掌部と前記第一指部とがなす第一指部角度を検出する第一指部角度検出手段と、前記掌部と前記第二指部とがなす第二指部角度を検出する第二指部角度検出手段と、を備えている
    ことを特徴とする請求項1から請求項6のいずれか一項に記載の物品運搬システム。
  8. 前記外力検出手段は、水平方向の外力を検出可能であり、
    前記受取行動決定手段は、物品からの外力として、前記把持部に作用する水平方向の力を利用する
    ことを特徴とする請求項1から請求項7のいずれか一項に記載の物品運搬システム。
  9. 前記外力検出手段は、6軸力センサである
    ことを特徴とする請求項8に記載の物品運搬システム。
  10. さらに、人の位置を特定する人位置特定手段と、
    特定した人の位置に基づいて、前記ロボットの受取位置を決め、この受取位置に前記ロボットを移動させる受取位置決定手段と、
    を備えていることを特徴とする請求項1から請求項9のいずれか一項に記載の物品運搬システム。
  11. さらに、人の身長を特定する身長特定手段と、
    特定した人の身長に基づいて、ロボットの受取高さを決め、この受取高さに前記把持部を移動させる受取高さ決定手段と、
    を備えていることを特徴とする請求項1から請求項10のいずれか一項に記載の物品運搬システム。
  12. タスクの実行命令信号に含まれる、前記ロボットに物品を渡そうとする人に関する情報に基づいて、前記ロボットに物品を渡そうとする人を特定する人特定手段を備えている
    ことを特徴とする請求項1から請求項11のいずれか一項に記載の物品運搬システム。
JP2004361467A 2004-12-14 2004-12-14 物品運搬システム Expired - Fee Related JP4317518B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004361467A JP4317518B2 (ja) 2004-12-14 2004-12-14 物品運搬システム
US11/301,099 US7551978B2 (en) 2004-12-14 2005-12-13 System for carrying an item
EP05027371.3A EP1671758B1 (en) 2004-12-14 2005-12-14 Robot system for carrying an item with receiving / passing motion deciding means based on external force detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361467A JP4317518B2 (ja) 2004-12-14 2004-12-14 物品運搬システム

Publications (2)

Publication Number Publication Date
JP2006167837A JP2006167837A (ja) 2006-06-29
JP4317518B2 true JP4317518B2 (ja) 2009-08-19

Family

ID=36071957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361467A Expired - Fee Related JP4317518B2 (ja) 2004-12-14 2004-12-14 物品運搬システム

Country Status (3)

Country Link
US (1) US7551978B2 (ja)
EP (1) EP1671758B1 (ja)
JP (1) JP4317518B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4456561B2 (ja) 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
US8260463B2 (en) * 2006-02-02 2012-09-04 Kabushiki Kaisha Yaskawa Denki Robot system
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
DE102008029693A1 (de) * 2008-06-24 2009-12-31 Karl-Heinz Bosch Vorrichtung zur Verteilung von Schriftstücken und/oder Kleinteilen und/oder zur Wegweisung
US9527207B2 (en) * 2011-03-23 2016-12-27 Sri International Dexterous telemanipulator system
US8676425B2 (en) * 2011-11-02 2014-03-18 Harvest Automation, Inc. Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots
KR101882490B1 (ko) 2011-11-29 2018-07-30 삼성전자주식회사 로봇 및 그 제어방법
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP5915381B2 (ja) * 2012-05-28 2016-05-11 富士通株式会社 ロボット及びロボットの制御方法
CN104656676B (zh) * 2014-12-25 2017-11-07 北京理工大学 一种仿人机器人手腿眼伺服控制的装置与方法
JP6577326B2 (ja) * 2015-10-16 2019-09-18 ファナック株式会社 人と協働して物体を運搬するロボットを制御するロボット制御装置、ロボットシステム、およびその方法
US9844885B2 (en) * 2015-11-27 2017-12-19 Tamkang University Gripping device having opened and closed gripping modes
JP6844135B2 (ja) * 2016-07-05 2021-03-17 富士ゼロックス株式会社 移動ロボットおよび移動制御システム
JP6869172B2 (ja) * 2016-12-28 2021-05-12 本田技研工業株式会社 自律移動体の運用方法
JP6958091B2 (ja) * 2017-08-08 2021-11-02 セイコーエプソン株式会社 ロボットシステム、及びロボット制御方法
JP6902208B2 (ja) * 2017-11-14 2021-07-14 オムロン株式会社 把持方法、把持システム及びプログラム
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
JP7133836B2 (ja) * 2018-05-02 2022-09-09 国立大学法人豊橋技術科学大学 ロボット
CN109828576B (zh) * 2019-02-22 2022-09-06 北京京东乾石科技有限公司 用于无人配送机器人的手势控制方法、装置、设备及介质
JP7415775B2 (ja) 2020-04-30 2024-01-17 トヨタ自動車株式会社 ロボット
JP2023169034A (ja) * 2022-05-16 2023-11-29 株式会社デンソー 搬送処理システム、搬送処理装置、自律搬送車両、搬送処理方法、搬送処理プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0097191B1 (de) * 1981-12-24 1986-08-27 Hans Richter Montageroboter
US4617502A (en) * 1983-06-30 1986-10-14 Hitachi, Ltd. Method and apparatus for controlling a robot hand along a predetermined path
US4955918A (en) * 1989-05-30 1990-09-11 University Of Southern California Artificial dexterous hand
US5373747A (en) * 1991-03-30 1994-12-20 Kabushiki Kaisha Toshiba Robot hand and robot
US7206753B2 (en) * 2001-05-04 2007-04-17 Axxon Robotics, Llc Methods for facilitating a retail environment
US20020165643A1 (en) * 2001-05-04 2002-11-07 Bancroft Allen John Retail robot time share system
US6584375B2 (en) * 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
JP2002346957A (ja) 2001-05-21 2002-12-04 Univ Waseda 2足歩行型ロボットの動作軌道制御方法
US6580246B2 (en) * 2001-08-13 2003-06-17 Steven Jacobs Robot touch shield
US6667592B2 (en) * 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
JP3914045B2 (ja) * 2001-12-17 2007-05-16 本田技研工業株式会社 多指ハンド装置
US7443115B2 (en) 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
JP4228871B2 (ja) 2002-10-29 2009-02-25 パナソニック株式会社 ロボット把持制御装置及びロボット把持制御方法
CN100567098C (zh) * 2003-05-21 2009-12-09 松下电器产业株式会社 物品管理***和物品管理服务器
JP4313125B2 (ja) * 2003-09-12 2009-08-12 本田技研工業株式会社 ロボットハンド
JP2005167517A (ja) * 2003-12-01 2005-06-23 Olympus Corp 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
JP2006159320A (ja) * 2004-12-03 2006-06-22 Sharp Corp ロボットハンド

Also Published As

Publication number Publication date
US20060142896A1 (en) 2006-06-29
EP1671758A1 (en) 2006-06-21
JP2006167837A (ja) 2006-06-29
EP1671758B1 (en) 2019-01-23
US7551978B2 (en) 2009-06-23

Similar Documents

Publication Publication Date Title
JP4317518B2 (ja) 物品運搬システム
JP4456561B2 (ja) 自律移動ロボット
JP4456560B2 (ja) 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
JP4658892B2 (ja) 移動ロボット、並びに、移動ロボットの制御装置、移動ロボットの制御方法及び移動ロボットの制御プログラム
KR100807449B1 (ko) 레그식 로봇의 제어 장치
JP4276624B2 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
KR100840427B1 (ko) 각식 이동 로봇의 제어장치
JP4856510B2 (ja) 移動ロボット
JP2006192563A (ja) 識別対象識別装置およびそれを備えたロボット
JP4608472B2 (ja) 移動ロボット及び移動ロボットの制御装置
JP5145569B2 (ja) 対象物特定方法および装置
JP2006272471A (ja) コミュニケーションロボット
JP5613114B2 (ja) 分散制御システム
JP4580226B2 (ja) ロボット制御システム
JP2005238382A (ja) コミュニケーションロボット
TW201540281A (zh) 機器人的行動輔助系統
JP2022178334A (ja) 生体情報取得装置
CN115225682A (zh) 管理服务器、远程操作***、远程操作方法以及存储介质
JP2022157101A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
CN107783677A (zh) 一种增强现实交互方法和增强现实握柄

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090522

R150 Certificate of patent or registration of utility model

Ref document number: 4317518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140529

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees