JP2005262378A - 自律ロボットおよびその制御方法 - Google Patents

自律ロボットおよびその制御方法 Download PDF

Info

Publication number
JP2005262378A
JP2005262378A JP2004077973A JP2004077973A JP2005262378A JP 2005262378 A JP2005262378 A JP 2005262378A JP 2004077973 A JP2004077973 A JP 2004077973A JP 2004077973 A JP2004077973 A JP 2004077973A JP 2005262378 A JP2005262378 A JP 2005262378A
Authority
JP
Japan
Prior art keywords
robot
robots
work
autonomous
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004077973A
Other languages
English (en)
Other versions
JP4254588B2 (ja
Inventor
Kazutoshi Nagao
和俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2004077973A priority Critical patent/JP4254588B2/ja
Publication of JP2005262378A publication Critical patent/JP2005262378A/ja
Application granted granted Critical
Publication of JP4254588B2 publication Critical patent/JP4254588B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】指示作業に基づいた行動計画の策定による複数ロボットの協調作業動作にあって、装置規模および信号処理規模を縮小してコスト低下を図り、さらに、容易かつ確実に実行できるようにする。
【解決手段】複数のロボット10〜14が協調して行動する自律ロボットにおいて、周囲を撮影する撮影部10a〜14aと、各ロボット10〜14に応じて視覚的に相違する特徴部10b〜14bと、外部と通信する通信部10c〜14cと、通信部10c〜14cを介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の撮影部によって撮影した画像データとから各ロボット10〜14の特徴部10b〜14bを検出し、検出した各ロボット10〜14の特徴部10b〜14bに基づいて、各ロボット10〜14の存在位置を特定する制御部30とを有することを特徴とする。
【選択図】図1

Description

この発明は、複数のロボットが協調して行動する自律ロボットおよびその制御方法に関する。
例えば特許文献1に開示されているように、複数のロボットが協調して行動する自律ロボットが知られている。
自律ロボットは(以下、単にロボットという)、他のロボットと協調して所定の目的の作業(以下、協調作業という)を実行する場合に、以下のように動作する。なお、協調作業では、他のロボットに協調作業に係る行動を指令するロボットと、協調作業に係る行動を実行するロボットとが存在し、以下、それぞれを指令役ロボットと実行役ロボットという。また、指令役ロボットは、実行役ロボットを兼ねる場合もある。また、協調作業の実行に際して、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、作業エリアの位置関係を示す地図データ(以下、単に作業エリアの地図データという)を予め記憶しているものとして説明する。
指令役ロボットは、協調作業を実行するために、無線通信によって他のロボットに協調作業に係る行動依頼を送信する。
他のロボットは、行動依頼を受信すると、自身の存在位置を検出する。なお、このとき、指令役ロボットも、自身の存在位置を検出する。存在位置の検出は、GPS(Global Positioning System)や磁気センサなどを用いるのが一般的である。GPSは、受信者(ここでは各ロボット)が測地衛星から発信される電波を受信することにより、受信者の地球上での位置(経度および緯度)や、移動方向、移動速度などを検出するシステムである。GPSは、受信者が、米国国防省によって打ち上げられ、かつ、昼夜にかかわらず、受信者の上空に複数(約4〜12個)存在する測地衛星から発信される電波を受信し、複数の測地衛星間の電波の位相を計算し、受信者と複数の測地衛星との間で三角測量を行なうことにより、受信者の地球上での位置(経度および緯度)や、移動方向、移動速度などを検出するものである。GPSは、車や船舶、航空機などの位置を検出する装置(例えばカーナビゲーションシステムなど)に広く用いられており、すでに一般的な技術であるので、ここでは詳細な説明を省略する。他方、磁気センサは、磁気の強弱により自身と他のロボットとの相対的な距離を検出する技術であり、これもすでに一般的な技術であるので、ここでは詳細な説明を省略する。
他のロボットは、自身の存在位置を検出すると、自身の存在位置を指令役ロボットに通知するデータ(以下、回答データという)を作成し、指令役ロボットに送信する。
指令役ロボットは、他のロボットから回答データを受信すると、回答データを解析し、作業エリアの地図データに基づいて、各ロボットの存在位置を特定する。また、作業エリアの地図データに基づいて、自身の存在位置を特定する。そして、自身を含めた、協調作業を好適に(すなわち、短時間に確実に)実行できる1乃至複数の実行役ロボットを特定し、実行役ロボットの行動計画を策定し、実行役ロボットに送信する。
実行役ロボットは、指令役ロボットから行動計画を受信すると、行動計画および作業エリアの地図データに基づいて協調作業を実行する。なお、実行役ロボットは、作業エリアの地図データを、予め記憶しておらず、指令役ロボットから受信する構成としてもよい。
特開2002−178283号公報
協調作業の実行に際して、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、作業エリアの地図データを用いて各ロボットの存在位置を特定する。しかしながら、作業エリアは、一箇所に限らず複数箇所存在するのが一般的である。したがって、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、各作業エリアに対応した地図データが必要となる。そのため、従来は、各作業エリアに対応した地図データを作成する手間や、各作業エリアに対応した地図データを各ロボットに記憶させる手間がかかるという問題があった。また各ロボットに記憶された地図データが大量に存在すると、各ロボットの存在位置を特定する速度を低下させ、協調作業を実行する時間を遅滞させるという問題があった。
また、ロボットは、GPSや磁気センサなどを用いて自身の存在位置を検出している。しかしながら、GPSや磁気センサなどの存在位置を検出する手段は、構成が比較的複雑であるため、ロボットの構成を複雑化させるという問題、特に、ロボットの装置規模を増大させ、コストを増大させるという問題があった。また、GPSや磁気センサなどの手段は、ロボットの制御部における信号処理を複雑化させるという問題もあった。
この発明は、このような課題を解決するために、各作業エリアに対応した地図データを用いる必要がなく、かつ、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を特定する自律ロボットおよびその制御方法を提供することを目的とする。
前述の課題を解決するために、この発明に係る自律ロボットは、複数のロボットが協調して行動する自律ロボットにおいて、周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部と、通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の撮影部によって撮影した画像データとから各ロボットの特徴部を検出し、検出した各ロボットの特徴部に基づいて、各ロボットの存在位置を特定する制御部とを有することを特徴とする。
また、この発明に係る自律ロボットの制御方法は、複数のロボットが協調して行動する自律ロボットの制御方法において、周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部とを有する自律ロボットの制御部は、通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の撮影部によって撮影した画像データとから各ロボットの特徴部を検出し、検出した各ロボットの特徴部に基づいて、各ロボットの存在位置を特定することを特徴とする。
これにより、この発明に係る自律ロボットおよびその制御方法は、各作業エリアに対応した地図データを用いる必要がなく、かつ、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を特定することができる。
この発明に係る自律ロボットおよびその制御方法は、各作業エリアに対応した地図データを用いることなく、他のロボットの存在位置を正確に特定することができる。特に、自身が撮影した画像データの中から、他のロボットを検出することが困難な場合(例えば、他のロボットが障害物や背景と重なるような場合)であっても、他のロボットの存在位置を正確に特定することができる。そのため、自身を含めた、協調作業を好適に(すなわち、短時間に確実に)実行できる1乃至複数の実行役ロボットを特定し、実行役ロボットの行動計画を策定することができる。したがって、各作業エリアに対応した地図データを作成する手間や、各作業エリアに対応した地図データを各ロボットに記憶させる手間をなくすことができる。また大量の地図データを各ロボットに記憶させる必要がないので、各ロボットの存在位置を特定する速度を向上させ、協調作業を実行する時間を短縮させることができる。
また、この発明に係る自律ロボットおよびその制御方法は、GPSや磁気センサなどの複雑な構成を用いずに、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を検出する。そのため、ロボットの構成を簡素化させることができ、特に、ロボットの装置規模を縮小させ、コストを低下させることができる。また、ロボットの制御部における信号処理を簡素化させることができる。
以下に、図を参照してこの発明の実施の形態を説明する。なお、各図は、この発明を理解できる程度に概略的に示してあるに過ぎない。よって、この発明は図示例のみに限定されるものではない。また、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
<実施形態の全体構成>
図1は、実施形態の全体構成を概略的に示す図である。図1に示す実施形態は、第1〜第5の5台の自律ロボット(以下、単にロボットという)10,11,12,13,14と、各ロボット10〜14間における通信を制御する通信制御装置20とを有している。なお、この実施形態では、各ロボット10〜14は、胴体を中心に頭部と腕部と脚部とを有し、二本足で走行するヒューマノイド型(人間型)であるものとする。また、ロボット10が指令役ロボットであるものとする。また、各ロボット10〜14間や各ロボット10〜14と通信制御装置20間の通信は、各ロボット10〜14間や各ロボット10〜14と通信制御装置20間に何らかの障害物が存在しても行えるように、無線によるものとする。
各ロボット10〜14は、それぞれ、周囲を撮影するカメラ10a,11a,12a,13a,14aと、各ロボット10〜14に応じて視覚的に相違する特徴部10b,11b,12b,13b,14bと、外部と通信する無線通信部10c,11c,12c,13c,14cと、作業アーム10d,11d,12d,13d,14dと、二本足走行機構部10e,11e,12e,13e,14eとを有する。
カメラ10a〜14aは、他のロボットが何らかの障害物の背後に位置する場合に、他のロボットをできるだけ撮影できるように、高い位置に設置されることが好ましい。また、周囲を広範囲に撮影できるように、水平方向に回動可能に設置されることが好ましい。そこで、この実施形態では、カメラ10a〜14aは、各ロボット10〜14の頭部に設置されるものとする。また、カメラ10a〜14aは、動画像を撮影するものが好ましい。
特徴部10b〜14bは、個々のロボット10〜14に特有な外観上の特徴箇所、すなわち各ロボット10〜14に応じて違えられた外観上の特徴箇所(例えばボディ形状や塗装など)を有している。各ロボット10〜14は、特徴部10b〜14bにおける外観上の違いから、各個体を識別することができる。特徴部10b〜14bは、他のロボット10〜14によって撮影され易い位置に設置されることが好ましい。そこで、この実施形態では、特徴部10b〜14bは、各ロボット10〜14の頭部に設置されるものとする。例えば、図1に示す例では、各ロボット10〜14の頭部に、頭部を周回する帯状の塗装が施こされている。この塗装は各ロボット10〜14に応じて模様や配色が違えられており、この塗装が特徴部10b〜14bとなる。なお、図1に示すロボット10〜14には、頭部に棒状の突起が設けられているが、この突起の形状を各ロボット10〜14に応じて違えることにより、突起を特徴部10b〜14bとして機能させることもできる。
なお、特徴部10b〜14bは、前述の通り、個々のロボット10〜14に特有な外観上の特徴箇所を有している。その特徴部10b〜14bに関するデータは、協調作業を実行するに際して、各ロボット10〜14と対応付けられて、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットである第1のロボット10)に予め記憶されている。この特徴部10b〜14bに関するデータは、各ロボット10〜14が撮影した画像のデータ(以下、単に画像データまたは画像という)の中から各ロボット10〜14を検出するのに用いられる。
無線通信部10c〜14cは、外部(この実施形態では通信制御装置20や他のロボット)と通信する通信部として機能する。この実施形態では、無線通信部10c〜14cは、胴体の背面に設置されるものとする。
作業アーム10d〜14dは、人間の腕部に相当する部位である。なお、図1には手が描かれていないが、実際には人間の手と同様の構成が存在する。
二本足走行機構部10e〜14eは、人間の脚部に相当する部位である。
なお、図1は5台のロボット10〜14による構成例を示しているが、ロボットの台数はこれに限らず増減することができる。ロボットの台数を増減する場合の全体構成は、図1と同様である。
<ロボットの制御部の構成>
以下に、ロボット10〜14の制御部の構成について説明する。なお、ここでは、便宜的に指令役ロボットである第1のロボット10の制御部を例にして説明するが、他のロボット11〜14の制御部も同様の構成となっている。
図2は、ロボットの制御部の構成を示すブロック図である。
制御部30は、無線通信部10cを介して他のロボット11〜14が撮影した画像データを取得し、他のロボット11〜14が撮影した画像データと自身が制御するロボット10が撮影した画像データとから各ロボット11〜14の特徴部11b〜14bを検出し、検出した各ロボット11〜14の特徴部11b〜14bに基づいて、各ロボット11〜14の存在位置を特定する部位である。また、自身が制御するロボット10や他のロボット11〜14の行動計画を策定する部位でもある。さらに、行動計画を解析し、協調作業に係る行動(ただし、自身が制御するロボット10に関連する部分の行動)を実行する部位でもある。
ロボット10の制御部30は、MPUによって構成され、無線通信部10cを制御する無線通信制御部31と、制御部30内の各部を制御する主制御部32と、協調作業を実行するための行動計画を策定する行動計画策定部33と、各種データを記憶する記憶部34と、各ロボット10〜14が撮影した画像データを加工処理する画像データ処理部36と、作業アーム10dの駆動を制御する作業アーム駆動処理部38と、二本足走行機構部10eの駆動を制御する走行駆動処理部39とを有する。
無線通信制御部31は、アンテナAntと接続され、外部(すなわち、通信制御装置20や他のロボット)と無線通信を行う部位である。
主制御部32は、制御部30内の各部を制御して、各ロボット11〜14の存在位置を特定する部位である。また、行動計画を解析し、制御部30内の各部を制御して、協調作業に係る行動(ただし、自身が制御するロボット10に関連する部分の行動)を実行する部位でもある。
行動計画策定部33は、協調作業を実行するための行動計画を策定する部位である。
記憶部34は、各種データを記憶する部位である。記憶部34は、ロボットデータ34aと、特定領域データ34bと、対象物データ34cと、各種位置データ34dとを記憶する。なお、図12は、記憶部34に記憶される各種データの構成を示す図である。図12(A)〜(D)は、それぞれ、図2に示すロボットデータ34aと、特定領域データ34bと、対象物データ34cと、各種位置データ34dとを示している。
ロボットデータ34aは、各ロボット10〜14の特徴部10b〜14bに関するデータであり、個々のロボット10〜14と個々のロボット10〜14に特有な外観上の特徴箇所との対応関係を示している。例えば、図12(A)では、「名称」や、「IP(Internet Protocol)アドレス」、「特徴箇所(表示色)」などを含むデータとして示されており、名称を「第1のロボット(10)」とするロボットは、IPアドレスとして「192.168.0.10」を有し、特徴箇所として「赤」色を有することを示している。なお、ここでは、各ロボット10〜14が無線LANを使用するシステムに組み込まれており、ロボット10が無線通信によって相手のロボットを識別して指示を送信することを想定しているので、IPアドレスを用いている。しかしながら、必ずしもIPアドレスに限るものではなく、各ロボット10〜14間の通信形態に応じて適宜別の形態に変更することができる。また、図12(A)では、各ロボット10〜14の特徴部10b〜14bの特徴箇所として表示色を用いているが、これに限らず、例えばロボット10〜14ごとに違えられた形状やマークなどのように、外観上の違いから各ロボット10〜14を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各ロボット10〜14の特徴部10b〜14bの特徴箇所を検出することによって各ロボット10〜14を検出することができる。
特定領域データ34bは、協調作業に係る特定な行動を実行する領域(以下、特定領域という)に関するデータであり、特定領域と特定領域に特有な特徴箇所との対応関係を示している。例えば、図12(B)では、「特定領域」と「特徴箇所(表示色)」などを含むデータとして示されており、特定領域「エリア101」は、特徴箇所として「茶」色を有することを示している。なお、図12(B)では、各特定領域の特徴箇所として表示色を用いているが、これに限らず、例えば特定領域ごとに違えられた形状やマークなどのように、外観上の違いから各特定領域を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各特定領域の特徴箇所を検出することによって各特定領域を検出することができる。
対象物データ34cは、協調作業に係る対象物(この実施形態では荷物M)に関するデータであり、対象物と対象物に特有な特徴箇所との対応関係を示している。例えば、図12(C)では、「対象物」と「特徴箇所(表示色)」などを含むデータとして示されており、対象物「荷物M」は、特徴箇所として「オレンジ」色を有することを示している。なお、図12(C)では、各対象物の特徴箇所として表示色を用いているが、これに限らず、例えば対象物ごとに違えられた形状やマークなどのように、外観上の違いから各対象物を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各対象物の特徴箇所を検出することによって各対象物を検出することができる。
各種位置データ34dは、主制御部32が各ロボット10〜14が撮影した画像の中から検出した様々な物品の存在位置に関する位置データであり、物品と物品の位置との対応を示している。例えば、図12(D)では、「物品」と「位置」などを含むデータとして示されており、物品「第1のロボット10」は、位置「(x○○,y△△)」に存在することを示している。なお、図12(D)では、各物品の位置として座標値を用いているが、これに限らず、例えばある地点からの距離値や角度値などのように、何らかの手法によって位置を特定できる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各物品の位置を検出することによって協調作業に係る行動を実行することができる。
ロボットデータ34aと特定領域データ34bと対象物データ34cは、この実施形態では、協調作業を実行する際に、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットであるロボット10)の記憶部34に予め記憶されている。また、各種位置データ34dは、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットであるロボット10)が各ロボット10〜14の位置や対象物(荷物M)の位置を検出する都度、そのロボットの記憶部34に記憶される。
画像データ処理部36は、各ロボット10〜14が撮影した画像データを、主制御部32が取り込み可能な形式に加工処理する部位である。
作業アーム駆動処理部38は、作業アーム10dを駆動する部位である。
走行駆動処理部39は、二本足走行機構部10eを駆動する部位である。
<通信制御装置の構成>
以下に、通信制御装置の構成について説明する。
図3は、通信制御装置の構成を示すブロック図である。通信制御装置20は、無線通信部20aと、主制御部20bと、入出力(I/O)部20cと、入力部20dと、表示部20eとを有する。
無線通信部20aは、アンテナAntと接続され、外部(すなわち、各ロボット10〜14)と無線通信を行う部位である。
主制御部20bは、各ロボット10〜14間の無線による通信を制御する部位である。
I/O部20cは、主制御部20bと入力部20dと表示部20eとの間に介在し、図示せぬオペレータによって指示される作業内容(以下、指示作業という)を、入力部20dから入力し、主制御部20bや表示部20eに出力する部位である。
入力部20dは、例えばキーボードなどの、図示せぬオペレータが指示作業を入力する部位である。なお、指示作業は、図示せぬ記憶部に記憶される。図示せぬ記憶部に記憶された指示作業は、後から入力部20dによって変更されることもできる。
表示部20eは、入力部20dによって入力された指示作業や各ロボット10〜14から送信される各種データを表示する部位である。
<実施形態の動作の概要>
以下に、ロボット10〜14が協調作業によって荷物Mを運搬する場合を例にして、実施形態の動作の概要について説明する。
図4は、実施形態の動作を示すフローチャートである。
図4に示すように、通信制御装置20は、適宜、図示せぬオペレータによって任意の指示作業を受け付ける(ステップS1)。この実施形態では、図5に示すように、「荷物Mを現在位置からエリア101内に運搬せよ」との指示作業を受け付けたものとする。なお、図5は、各ロボットの動作を示す図である。図5は、作業エリア100内に5台のロボット10〜14と荷物Mが配置されていること、ロボット13が荷物Mを取りに行くこと、ロボット13が荷物Mをロボット14まで運搬してロボット14に渡すこと、および、ロボット14が荷物Mをエリア101内まで運搬することを示している。
通信制御装置20は、指示作業を受け付けると、指令役ロボットであるロボット10に指示作業を送信する(ステップS2)。なお、このとき、ロボット10に限らず、全てのロボット10〜14に指示作業を送信するようにしてもよい。
指令役ロボットであるロボット10は、通信制御装置20から指示作業を受信すると、各ロボット10〜14の位置を検出する(ステップS3)。なお、ロボット10の動作の詳細と、各ロボット10〜14の位置を検出する手法については、後述する。
ロボット10は、各ロボット10〜14の位置を検出すると、指示作業を実行するための行動計画を策定する(ステップS4)。
ロボット10は、行動計画を他のロボット11〜14(少なくとも、実行役ロボットとなるロボット)に送信し、行動計画に基づいて指示作業を実行させる(ステップS5)。なお、このとき、指令役ロボットであるロボット10自身が実行役ロボットになって、他のロボット11〜14と協調して指示作業を実行する場合もある。
各ロボット11〜14は、各自が担当する作業が終了すると、作業の終了通知を指令役ロボットであるロボット10に送信する。このようにして、行動計画に係る全てのロボット10〜14の作業が終了すると、指示作業が完了したことになる。
指令役ロボットであるロボット10は、行動計画に係る全てのロボット10〜14の作業が終了したら(すなわち、指示作業が完了したら)、指示作業の完了通知を通信制御装置20に送信する(ステップS6)。なお、ロボット10は、所定の時間内に、行動計画に係る全てのロボット10〜14の作業が終了しない場合(すなわち、指示作業が完了しない場合)は、再度、行動計画を策定し、行動計画を他のロボット11〜14(少なくとも、実行役ロボットとなるロボット)に送信し、行動計画に基づいて指示作業を実行させる。
通信制御装置20は、ロボット10から指示作業の完了通知を受信すると、指示作業の完了を表示部20eに表示する(ステップS7)。これによって、オペレータは、指示作業の完了を知ることになる。
<指令役ロボットの動作の詳細>
以下に、指令役ロボットであるロボット10の動作について説明する。
図6と図7は、指令役ロボットの動作を示すフローチャートである。図6は、図4のステップS3以降における指令役ロボットであるロボット10の動作を示している。また、図7は、図6におけるサブルーチンにおける動作を示すフローチャートである。
図6に示すように、指令役ロボットであるロボット10は、まず、通信制御装置20から指示作業を受信する(ステップS10)。なお、以下のステップS10〜S17は、図4におけるステップS3に相当する。
ステップS10の後、指令役ロボットであるロボット10は、カメラ10aによって自身の周囲を撮影した画像を取得する(ステップS11)。なお、ステップS11は、後述のステップS17,S20の後にも存在するが、ステップS17,S20の後の場合は、他のロボット11〜14が撮影した画像を取得することになる。
ロボット10は、取得した画像を、順次、記憶部34(図2参照)に記憶するとともに、画像データ処理部36によって各画像に含まれる他のロボット11〜14や、協調作業の対象物(この実施形態では荷物M)、協調作業の目的となる特定領域(この実施形態では協調作業の終点であるエリア101であり、以下、目的領域という)を認識し、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭を抽出する(ステップS12)。そして、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭データを生成する(ステップS13)。
ロボット10は、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭データを用いて、他のロボット11〜14や、協調作業の対象物、目的領域などの位置を検出する(ステップS14)。
なお、これらの位置検出の詳細については、後述の「各物品の位置を検出する手法」の章で詳述する。また、ステップS12〜S14は、後述のステップS17,S20の後にも存在するが、ステップS17,S20の後の場合は、ロボット10は、ステップS12で他のロボット11〜14が撮影した画像の中から自身(ロボット10)を含む各ロボット10〜14や、協調作業の対象物、目的領域を認識して、これら各物品の輪郭を抽出し、ステップS13でこれら各物品の輪郭データを生成し、ステップS14でこれら各物品の位置を検出することになる。
ロボット10は、障害物に隠れているロボットがあるかを判断し、Yesの場合(すなわち、障害物に隠れているロボットがある場合)に工程をステップS16に進め、Noの場合(すなわち、障害物に隠れているロボットがない場合)に工程をステップS18に進める(ステップS15)。
ロボット10は、ステップS15において、Yesの場合(すなわち、障害物に隠れているロボットがある場合)に、他のロボット11〜14が撮影した画像を自身(ロボット10)に送信することを要求する信号(以下、撮影画像要求信号という)を、他のロボット11〜14に送信し(ステップS16)、図7に示す後述のサブルーチンの動作を他のロボット11〜14に行わせる(ステップS17)。すなわち、図7に示すように、ロボット10から撮影画像要求信号を受信し(ステップS30)、各自のカメラ11a〜14aによって各自の周囲を撮影した画像を取得し(ステップS31)、各自が撮影した画像をロボット10に送信する動作を、他のロボット11〜14に行なわせる。この後、ロボット10は、工程をステップS11に戻して再度指示作業を実行する。この場合は、ロボット10は、前述の通り、ステップS12で他のロボット11〜14が撮影した画像の中から自身(ロボット10)を含む各ロボット10〜14や、協調作業の対象物、目的領域を認識して、これら各物品の輪郭を抽出し、ステップS13でこれら各物品の輪郭データを生成し、ステップS14でこれら各物品の位置を検出することになる。
ロボット10は、ステップS15において、Noの場合(すなわち、障害物に隠れているロボットがない場合)に、行動計画を策定し(ステップS18)、作業を実行する(ステップS19)。なお、ステップS18は図4におけるステップS4に相当し、ステップS19は図4におけるステップS5に相当する。
ステップS19の後、ロボット10は、指示作業が達成されたか否かを判断し、Yesの場合(すなわち、指示作業が達成されている場合)に動作を終了し、Noの場合(すなわち、指示作業が達成されいない場合)に工程をステップS11に戻して再度指示作業を実行する(ステップS20)。
<各物品の位置を検出する手法>
以下に、図8〜図11を用いて、各物品(すなわち、他のロボット11〜14や、協調作業の対象物、目的領域など)の位置を検出する手法について説明する。ここでは、2つの手法によって各物品の位置を検出する。図8は、各物品の位置を検出する第1の手法を示す図である。また図9〜図11は、それぞれ、各物品の位置を検出する第2の手法(1)〜(3)を示す図である。
第1の手法は、各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))が、自身が撮影した画像の中から、他のロボット11〜14の特徴部11b〜14bや、協調作業の対象物の特徴箇所、目的領域の特徴箇所などを検出し、これらに基づいて他のロボット11〜14や、協調作業の対象物、目的領域などの位置を特定する手法である。第1の手法は、処理過程が簡素であるので、短時間に各ロボット10〜14の位置を検出することができる。
第2の手法は、各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))が、自身(ロボット10)を含む各ロボット10〜14が撮影した複数の画像を用いて、作業エリア100の地図を取得し、各ロボット10〜14が撮影した画像の中から、各ロボット10〜14の特徴部10b〜14bや、協調作業の対象物の特徴箇所、目的領域の特徴箇所などを検出し、これらに基づいて各ロボット10〜14や、協調作業の対象物、目的領域などの位置を特定する手法である。第2の手法は、第1の手法よりも各ロボット10〜14の位置を検出するのに時間がかかるが、例えば、協調作業の対象物(この実施形態では荷物M)や他のロボット10〜14が何らかの障害物に隠れている場合などのように、第1の手法では検出できない物品(すなわち、他のロボット11〜14や、協調作業の対象物、目的領域など)を正確に検出することができる。
以下に、第1と第2の手法について詳述する。なお、この実施形態では、以下の事項を前提として説明する。すなわち、指示作業は「荷物Mを現在位置からエリア101内まで運搬せよ」というものであり、指令役ロボットである第1のロボット10は、この指示作業に基づいて、対象物(荷物M)や、目的領域(エリア101)、各ロボット10〜14などを検出し、最も短時間で指示作業を完了させる行動計画を策定するものとする。また、各ロボット10〜14は、図12(A)に示すように、それぞれが、IPアドレス「192.168.0.10」、「192.168.0.11」、「192.168.0.12」、「192.168.0.13」、「192.168.0.14」を有し、特徴部10b〜14bの特徴箇所として「赤」色、「青」色、「黄」色、「緑」色、「黒」色を有するものとする。また、目的領域(エリア101)は、図12(B)に示すように、特徴箇所として「茶」色を有するものとする。また、対象物(荷物M)は、図12(C)に示すように、特徴箇所として「オレンジ」色を有するものとする。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、画像の中から、これら各物品に固有な特徴箇所を検出することによって個々の物品を検出することができる。
第1の手法では、指令役ロボットである第1のロボット10は、通信制御装置20から指示作業を受信すると、自身のカメラ10aによって周囲を撮影し、これによって取得した画像データを記憶部34に記憶するとともに、取得した画像の中から、個々の物品に固有な特徴箇所を検出する。これによって、各ロボット11〜14や、対象物(荷物M)、目的領域(エリア101)を特定する。例えば、第1のロボット10は、自身のカメラ10aによって周囲を撮影した画像を検証し、画像の中から、2体のロボットの輪郭の一部を検出したものとする。すると、第1のロボット10は、それら2体のロボットの特徴箇所(すなわち、特徴部)を検索する。このとき、第1のロボット10は、2体のロボットの特徴箇所として、一方から「青」色を、他方から「黄」色を検出したものとする。これによって、ロボット10は、2体のロボットを第2のロボット11と第3のロボット12として特定する。
図8は、このような第1の手法による各ロボットの位置を検出する例を示しており、上方から見た作業エリア100における各物品の配置を示している。図8に示す例では、指令役ロボットである第1のロボット10は、矢印の方向を向いており、矢印の方向を撮影している。なお、点線Rは第1のロボット10のカメラ10aの視界角度を示しており、したがって、第1のロボット10は点線Rから矢印の方向に広がるロボット10の周囲を撮影している。第1のロボット10は、自身が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図8に示す例では、右から順に、エリア101と、第3のロボット12と、荷物Mと、第4のロボット13の一部と、第2のロボット11を検出し、第5のロボット14を検出できなかったことを示している。第1のロボット10は、各物品に固有な特徴箇所を検索し、これによって検出した特徴箇所に基づいて各物品を特定する。例えば、領域の色が「茶」色であれば、その領域をエリア101と特定する。また、ロボット11〜14の特徴部11b〜14bの色が「黄」色であれば、そのロボットを第3のロボット12と特定し、同様に、その他の物品(荷物Mや、第4のロボット13、第2のロボット11)を特定する。
このようにして、第1のロボット10は、各物品を特定すると、自身(第1のロボット10)と各物品との位置関係を特定する。図8に示す例では、第1のロボット10と各物品との位置関係が、第1のロボット10を中心とする相対的な関係によって表されている。すなわち、エリア101が、第1のロボット10の視界角度(点線R)の一端からθ(10−101)の角度をなし、L(10−101)の距離に位置するものとして特定されている。同様に、第3のロボット12は、点線Rの一端からθ(10−12)の角度をなし、L(10−12)の距離に位置するものとして特定されている。また荷物Mは、点線Rの一端からθ(10−M)の角度をなし、L(10−M)の距離に位置するものとして特定されている。また第4のロボット13は、点線Rの一端からθ(10−13)の角度をなし、L(10−13)の距離に位置するものとして特定されている。また第2のロボット11は、点線Rの一端からθ(10−11)の角度をなし、L(10−11)の距離に位置するものとして特定されている。なお、距離は、この実施形態では、各物品の画像中における寸法を実際の寸法と比較することによって算出するものとするが、後述の三角測量法によって算出してもよい。この場合は、各物品の位置をある位置を中心とした座標値で表すことができる。座標値による表示は、行動計画における各物品の位置関係を普遍的な関係で表すことになり、実行役ロボットは短時間で確実に行動を実行することができるので、好ましい。
第2の手法では、指令役ロボットである第1のロボット10は、自身(第1のロボット10)を含む各ロボット10〜14が撮影した画像データを記憶部34に記憶し、これらの画像データを合成して作業エリア100の地図データを作成する。例えば、第1のロボット10は、自身が撮影した画像データの中から、何らかの目印となる物品(以下、単に目印という)をいくつか抽出し、それら目印間を歩行する。これによって目印間の距離が測定される。目印は、様々な物品がなりえる。例えば、作業エリア100内に設置された置物や、作業エリア100内の床や壁に描かれたマークや汚れなどを目印にすることができる。なお、目印間の距離が予め定められている場合はこのような測定は省略してもよい。第1のロボット10は、第1のロボット10が撮影した画像や他のロボット11〜14が撮影した画像の中から目印を検索し、検出した各目印が重なるように、各画像を合成する。これによって、第1のロボット10は、作業エリアの地図データを取得する。この後、第1のロボット10は、各ロボット10〜14が撮影した画像の中から、個々の物品に固有な特徴箇所を検出し、これによって、各ロボット10〜14や、協調作業の対象物(荷物M)や、目的領域(エリア101)などを特定する。例えば、ロボット10は、自身のカメラ10aによって周囲を撮影した画像を検証し、画像の中から、2体のロボットの輪郭の一部を検出したものとする。そして、さらに画像を検証し、画像の中から、2体のロボットの一方から「青」色の特徴箇所と、他方から「黄」色の特徴箇所を検出したものとする。これによって、ロボット10は、2体のロボットの一方を第2のロボット11とし、他方を第3のロボット12として特定する。ロボット10は、このようにして各物品を特定すると、三角測量法により各物品の位置を検出し、検出した各物品の位置を作業エリア100の地図データに投射して、各物品の位置関係を特定する。
なお、三角測量法は、三角法を応用した測量であり、距離・高度が既知の二点を基準とし、見通しのきく任意の他の地点を結ぶ三角形を作り、その角度を測ることによってその地点の位置や標高を求める測量法である。この実施形態では、以下のようにして行われる。
図9〜図11は、このような第2の手法による各物品の位置を検出する例を示しており、上方から見た作業エリア100における各物品の配置を示している。図9〜図11は、図8と同様の状態を示している。ただし、2つの目印P,Qが配置されている点で、図8と相違する。図9〜図11に示す例では、目印Pが、第1のロボット10の視界角度(点線R)の一端からθ(10−P)の角度をなし、目印Qが、第1のロボット10の視界角度(点線R)の一端からθ(10−Q)の角度をなし、目印Pと目印Q間がL(P−Q)の距離であることを示している。なお、目印Pと目印Q間の距離L(P−Q)は、予め測定されているものとする。
まず、第1のロボット10は、図9に示すように、自身が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図9に示す例では、右から順に、エリア101と、第3のロボット12と、目印Qと、荷物Mと、目印Pと、第4のロボット13の一部と、第2のロボット11を検出し、第5のロボット14を検出できなかったことを示している。第1のロボット10は、各物品(エリア101や、第3のロボット12、目印Q、荷物M、目印P、第4のロボット13、第2のロボット11など)に固有な特徴箇所を検索し、これによって検出した特徴箇所に基づいて各物品を特定する。
このようにして、第1のロボット10は、各物品を特定すると、自身(第1のロボット10)と各物品との位置関係を特定する。図9に示す例では、第1のロボット10と各物品との位置関係が、第1のロボット10を中心とする相対的な関係によって表されている。すなわち、エリア101が、第1のロボット10の視界角度(点線R)の一端からθ(10−101)の角度をなし、L(10−101)の距離に位置するものとして特定されている。同様に、第3のロボット12は、点線Rの一端からθ(10−12)の角度をなし、L(10−12)の距離に位置するものとして特定されている。また荷物Mは、点線Rの一端からθ(10−M)の角度をなし、L(10−M)の距離に位置するものとして特定されている。また第4のロボット13は、点線Rの一端からθ(10−13)の角度をなし、L(10−13)の距離に位置するものとして特定されている。また第2のロボット11は、点線Rの一端からθ(10−11)の角度をなし、L(10−11)の距離に位置するものとして特定されている。なお、第1のロボット10と各物品との距離は、この実施形態では、第1のロボット10を中心とする目印Pと目印Q間の距離L(P−Q)のX成分の寸法(すなわち、L(P−Q)×cos(θ(10−P)−θ(10−Q)))とY成分の寸法(すなわち、L(P−Q)×sin(θ(10−P)−θ(10−Q)))を基準にして、各距離のX成分の寸法(すなわち、L(10−○○)×cos(θ(10−○○))とY成分の寸法(すなわち、L(10−○○)×sin(θ(10−○○))を比較することによって算出するものとする。
次に、第1のロボット10は、図10に示すように、他のロボット11〜14が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図10に示す例は、第2のロボット11が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出した状態を示している。図10に示す例では、第2のロボット11は、矢印の方向を向いており、矢印の方向を撮影している。なお、点線Uは第2のロボット11のカメラ11aの視界角度を示しており、したがって、第2のロボット11は点線Uから矢印の方向に広がるロボット11の周囲を撮影している。第1のロボット10は、第2のロボット11が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。図10に示す例では、第1のロボット10と、目印Qと、第5のロボット14と、目印Pを検出したことを示している。図10に示す例では、第1のロボット10が、第2のロボット11の視界角度(点線U)の一端からθ(11−10)の角度をなし、L(11−10)の距離に位置するものとして特定されている。また目印Pが、第2のロボット10の視界角度(点線U)の一端からθ(11−P)の角度をなし、L(11−P)の距離に位置するものとして特定されている。また目印Qが、第2のロボット11の視界角度(点線U)の一端からθ(11−Q)の角度をなし、L(11−Q)の距離に位置するものとして特定されている。また、第5のロボット14が、第2のロボット11の視界角度(点線U)の一端からθ(11−14)の角度をなし、L(11−14)の距離に位置するものとして特定されている。なお、第2のロボット11と各物品との距離は、この実施形態では、第2のロボット11を中心とする目印Pと目印Q間の距離L(P−Q)のX成分の寸法(すなわち、L(P−Q)×cos(θ(11−P)−θ(11−Q)))とY成分の寸法(すなわち、L(P−Q)×sin(θ(11−P)−θ(11−Q)))を基準にして、各距離のX成分の寸法(すなわち、L(11−○○)×cos(θ(11−○○))とY成分の寸法(すなわち、L(11−○○)×sin(θ(11−○○))を比較することによって算出するものとする。また、図10には示されていないが、第2のロボット11は、実際には、第3のロボット12や、荷物M、第4のロボット13なども検出している。
次に、第1のロボット10は、図11に示すように、2つの目印P,Qを基準にして、各ロボット10〜14が撮影した画像を合成して、作業エリア100の地図データを作成し、作成した作業エリア100の地図データ上に各物品の位置を重ね合わせる。これによって第1のロボット10は、各物品、特に、第3のロボット12の背後に隠れている第5のロボット14の位置を特定することができる。その結果、第1のロボット10は、図11に示すように、第5のロボット14を、点線Rの一端からθ(10−14)の角度をなし、L(10−14)の距離に位置するものとして特定することができる。なお、角度θ(10−14)は、角度θ(11−14)と角度θ(11−10)の相関から算出する。距離L(10−14)は、距離L(11−14)に対する角度(θ(11−14)−θ(11−10))の三角関数を用いて算出することができる。
なお、図11では、各物品の位置関係は、第1のロボット10を中心とした座標値で示している。例えば、エリア101の位置関係は、(X(10−101),Y(10−101))として示されている。同様に、他の各物品の位置関係も、(X(10−○○),Y(10−○○))の形式で示されている。これら各物品の位置関係を示す座標値は、第1のロボット10と各物品とのなす角度、および、第1のロボット10と各物品との距離に基づいて、三角関数によって算出することができる。例えば、エリア101の座標値(X(10−101),Y(10−101))は、(L(10−101)×cos(θ(10−101)),L(10−101)×sin(θ(10−101)))となる。同様に、第1のロボット10が検出することができた物品(すなわち、エリア101や、第3のロボット12、目印Q、荷物M、目印P、第4のロボット13、第2のロボット11など)の位置関係も、算出することができる。
ただし、第1のロボット10が撮影した画像の中から検出することができなかった物品(すなわち、第5のロボット14)の位置関係は、以下のようにして算出する。
すなわち、第1のロボット10は、図10に示すように、他のロボット(この実施形態では第2のロボット11)が撮影した画像の中から、自身(第1のロボット10)を検出し、第2のロボット11を中心にして、第2のロボット11の視界角度(点線U)の一端と第1のロボット10のなす角度θ(11−10)を算出する。そして、第2のロボット11を中心にして、第1のロボット10の座標値を算出する。例えば、第1のロボット10の座標値(X(11−10),Y(11−10))は、(L(11−10)×cos(θ(11−10)),L(11−10)×sin(θ(11−10)))となる。この後、第1のロボット10を中心にして、第2のロボット11の座標値を算出する。すなわち、(−L(11−10)×cos(θ(11−10)),−L(11−10)×sin(θ(11−10)))を算出する。また、同様に、第5のロボット14を検出し、第2のロボット11を中心にして、第2のロボット11の視界角度(点線U)の一端と第5のロボット14のなす角度θ(11−14)とを算出する。そして、第2のロボット11を中心にして、第5のロボット14の座標値を算出する。例えば、第5のロボット14の座標値(X(11−14),Y(11−14))は、(L(11−14)×cos(θ(11−14)),L(11−14)×sin(θ(11−14)))となる。この後、第1のロボット10を中心にして、第5のロボット14の座標値を算出する。すなわち、(L(11−14)×cos(θ(11−14))−L(11−10)×cos(θ(11−10)),L(11−14)×sin(θ(11−14))−L(11−10)×sin(θ(11−10)))を算出する。そして、各座標値に含まれる角度を第1のロボット10を中心にした角度に置き換えるとともに、各座標値に含まれる距離を既知の目印Pと目印Q間の距離L(P−Q)に置き換える。このようにして、第1のロボット10が撮影した画像の中から検出することができなかった物品の位置関係も、算出することができる。
<行動計画の策定>
以下に、行動計画の策定について説明する。
指令役ロボットである第1のロボット10の制御部30は、各ロボット10〜14の存在位置に基づいて、協調作業を実行する実行役ロボットの行動計画を策定する。このとき、第1のロボット10の制御部30は、最短時間で作業を完了できるように、各ロボット10〜14の機能(積載量や運搬速度)や作業の空き状況などに基づいて行動計画を策定する。
例えば、各ロボット10〜14の積載量をチェックし、積載量が協調作業の対象物(荷物M)の重量よりも小さいロボットを除外する。またロボットの作業の空き状況をチェックし、空きがないロボットも除外する(ただし、協調作業の一部の作業を実行可能なロボットは残すものとする)。
そして指令役ロボットである第1のロボット10の制御部30は、残ったロボットの中で、荷物Mに最も近いロボットを選択し、そのロボットの作業の空き状況に基づいて行動計画を策定する。例えば、この実施形態では、第1のロボット10の制御部30は、図5に示すように、第4のロボット13が荷物Mの現在の存在位置まで取りに行くように行動計画を策定する。そして、第4のロボット13の作業の空き状況をチェックし、協調作業を単独で実行可能か否かを判断する。
単独で実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13の単独による行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、単独では実行不能であると判断した場合、第4のロボット13以外の単独で実行可能なロボットの有無を検索する。
実行可能なロボットがある場合、第1のロボット10の制御部30は、そのロボットが単独で行動する行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、実行可能なロボットがない場合、第4のロボット13と第4のロボット13以外のロボットとが協調して実行可能か否かを判断する。
実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13と第4のロボット13以外のロボットとが協調して実行する行動計画を策定し、作業を完了させるのに要する時間を算出する。例えば、図5に示す例では、第4のロボット13と第5のロボット14とが協調して実行する例を示している。指令役ロボットである第1のロボット10の制御部30は、第4のロボット13と第5のロボット14とが協調して実行可能か否かを判断し、実行可能であると判断すると、第4のロボット13が荷物Mの現在の存在位置まで取りに行き、第4のロボット13が荷物Mを第5のロボット14まで運搬して、荷物Mを第5のロボット14に渡し、第5のロボット14が荷物Mをエリア101まで運搬する行動計画を策定する。そして、作業を完了させるのに要する時間を算出する。他方、不能であると判断した場合、残ったロボットの中で、第4のロボット13の次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行可能か否かを判断する。
実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13の次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行する行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、不能であると判断した場合、残ったロボットの中で、次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行可能か否かを判断する。
第1のロボット10の制御部30は、このような動作を順次行って、行動計画を策定し、作業を完了させるのに要する時間を算出する。そして、作業が最も短時間で完了できる行動計画を選択し、選択した行動計画を他のロボット11〜14(少なくとも実行役ロボットとなるロボット)に送信し、作業を実行させる。このとき、第1のロボット10自身が、実行役ロボットになる場合もある。
なお、行動計画を策定する手法は、これに限らない。例えば、作業の効率を考慮することなく、荷物Mを運搬可能なロボットで、かつ、現在作業を行っていないロボットを選択して、そのロボットが可能な作業を実行させて、そのロボットが可能な作業が終了したら別のロボットを選択することを繰り返すような行動計画も策定することができる。
以上の通り、この発明に係る各ロボット10〜14を検出する必要のあるロボット(少なくとも、この実施形態では指令役ロボットであるロボット10)は、周囲を撮影するカメラ10a〜14aと、各ロボット10〜14に応じて視覚的に相違する特徴部10b〜14bと、外部と通信する通信部10c〜14cとを有し、通信部10c〜14cを介して他のロボット11〜14が撮影した画像データを取得し、他のロボット11〜14が撮影した画像データと自身(ロボット10)のカメラ10aによって撮影した画像データとから各ロボット10〜14の特徴部10b〜14bを検出し、検出した各ロボット10〜14の特徴部10b〜14bに基づいて、各ロボット10〜14の存在位置を特定する。
この発明に係るロボット10は、自身が撮影した画像データだけでなく、他のロボット11〜14が別角度で撮影した画像データをも用いて、各ロボット10〜14の存在位置を検出するので、特に、自身(ロボット10)が撮影した画像データの中から、他のロボット11〜14を検出することが困難な場合(例えば、他のロボット11〜14が障害物や背景と重なるような場合)であっても、他のロボット11〜14の存在位置を正確に特定することができる。
<各物品の位置を検出する他の手法>
この手法は、第1及び第2の手法とは異なる手法によって各物品の位置を検出する。
すなわち、第1及び第2の手法は、三角測量法によって定まる地図座標によって、各物品の存在位置を特定している。これに対して、この手法では、画像内の任意の目印と各物品との相対的な位置関係に基づいて、各物品の存在位置を特定する。
以下に、図13〜15を用いて、各物品の位置を検出する手法を説明する。なお、図13〜15は、各物品の位置検出の他の手法を示す図である。
ここでは、第1及び第2の手法と同じ事項を前提として説明する。
指令役ロボットであるロボット10は、画像データ処理部36によって、自身が撮影した画像や他のロボット11〜14が撮影した画像に含まれる他のロボット11〜14や、協調作業の対象物(荷物M)、協調作業の目的領域(エリア101)を認識し、これら各物品の位置を特定する。これらの各物品の位置の特定は、例えば、画像内の任意の目印(例えば任意のロボットや、荷物M、エリア101、何らかの物品の輪郭など)と各物品との相対的な位置関係に基づいて行う。
例えば、図13は、ロボット11が撮影した画像例を示している。ロボット10は、図13に示す画像から、画像に写る物品Tの輪郭と第1〜第5のいずれかのロボットの輪郭とを認識し、ロボットの特徴部からロボットを第5のロボット14と認識する。そして、ロボット14の位置を、ロボット11が撮影した画像内において物品Tから左側に距離αの位置であると認識する。なお、双方向の矢印は、エリア101の範囲を示している。エリア101の位置は、図13に示す画像を撮影したロボット11が向いている方向と、エリア101と物品Tとの相対的な位置関係に基づいて定まる。
また、図14は、ロボット11とは別のロボット(例えばロボット12)が撮影した画像例を示している。ロボット10は、図14に示す画像から、2つのロボットと荷物Mを認識し、ロボットの特徴部から2つのロボットを第2のロボット11と第5のロボット14と認識する。そして、ロボット11の位置を、ロボット12が撮影した画像内において物品Tから左側に距離βの位置であると認識する。また、ロボット14の位置を、ロボット12が撮影した画像内において物品Tから右側に距離γの位置であると認識する。また、荷物Mの位置を、ロボット12が撮影した画像内において物品Tから右側に距離δの位置であると認識する。双方向の矢印は、図13と同様に、エリア101の範囲を示している。エリア101の位置は、図14に示す画像を撮影したロボット12が向いている方向と、エリア101と物品Tとの相対的な位置関係に基づいて定まる。
なお、荷物Mは、図13では、第2のロボット11からは第5のロボット14の背後に隠れて見えなくなっている。
ロボット10は、このようにして、各画像に含まれる各物品の位置を特定する。なお、このとき、ロボット10が自身の位置を特定していない場合は、ロボット10が各画像に含まれる自身を認識することによって自身の位置を特定するようにしてもよい。
この後、ロボット10は、自身を含めた、協調作業を好適に実行できる1乃至複数の実行役ロボットを特定する。ここでは、実行役ロボットとして第2のロボット11を選択するものとする。
次に、ロボット10は、実行役ロボットの行動計画を策定する。図15に、ロボット10が策定した行動計画の例を示す。図15は、図13に示すロボット11が撮影した画像と、ロボット10が策定した行動計画をイメージ化した画像(右上の実線で区切られた領域の画像)とを重ねた状態を示している。図15中、D1は「矢印方向(ロボット14を迂回する右斜め方向)に移動」という行動を意味し、D2は「矢印方向(ロボット14を迂回する左斜め方向)に移動」という行動を意味し、D3は「荷物Mを持ち上げる」という行動を意味し、D4は「矢印方向(エリア101方向)に移動」という行動を意味する。ロボット10は、このような行動を指示する行動計画を、各種の命令文や、方向や距離を示すパラメータなどを組み合わせて作成する。なお、この実施形態では、各ロボット10〜14は、協調作業の対象物(荷物M)や協調作業の目的領域(エリア101)を認識する処理回路が搭載されており、自己の判断によって行動することができるようになっている。そのため、ロボット10が作成する行動計画は、大まかな方向や距離を示すものでよい。
この後、ロボット10は、作成した行動計画をロボット11に送信する。
すると、ロボット11は、行動計画と自身が撮影した図13に示す画像に基づいて、自己の判断によって、対象物を見つけ、行動計画に沿うように行動して、協調作業を実行する。
なお、このとき、ロボット10は、以下の観点でロボット11の行動を監視する。すなわち、実行役ロボットが協調作業の目的領域の方向に進んでいるかという観点と、実行役ロボットが協調作業の目的領域に到着したかという観点と、実行役ロボットが協調作業の対象物に対して所定の行動を行っているかという観点である。
ロボット11の行動がこれらの観点から外れた場合に、ロボット10は、正しい状態に戻すための指示をロボット11に送信する。これにより、ロボット11は、自身の行動を修正して協調作業を実行する。
ロボット11が所定の行動を行ったら、ロボット10は、ロボット11の行動の監視を終了する。
このようにして、各ロボット10〜14は、協調作業を行うことができる。
以上の通り、この他の手法に係る各ロボット10〜14は、第1及び第2の手法のような地図座標を算出する必要がないので、処理時間を短縮することができる。
また、各ロボットには、協調作業の対象物や協調作業の目的領域を認識する処理回路が搭載されている。そのため、実行役ロボットは、自己の判断によって、協調作業の対象物を見つけ、行動計画に沿うように行動することができる。その結果、行動計画の方向や距離は大まかなものでよく、行動計画を簡素化することができる。また、指令役ロボットは、実行役ロボットの行動を、実行役ロボットが協調作業の目的領域の方向に進んでいるか、実行役ロボットが協調作業の目的領域に到着したか、実行役ロボットが協調作業の対象物に対して所定の行動を行っているかという大まかな観点で監視するだけでよくなる。これらの要因により、処理時間を大幅に短縮することができる。
この発明は、前述の実施形態に限定されることなく、この発明の要旨を逸脱しない範囲で種々の応用や変形が考えられる。
例えば、実施形態では、通信制御は通信制御装置20によってなされているが、ロボット10〜14の中の1台が代行するようにしても良い。
また、実施形態では、2足歩行のヒューマノイド型(人間型)のロボット10〜14を用いて説明したが、ヒューマノイド型に限らず、どのような型のロボットにも適用可能である。
また実施形態では、特徴部10b〜14bは、ロボット10〜14毎にボディーの一部分のパターンや色が異なっていることを特徴箇所としているが、これに限らず、個々のロボット10〜14を外観上の違いによって識別できればよい。例えば、各ロボット10〜14にそれぞれ異なったマークを付けたことを特徴箇所としてもよい。
また実施形態では、第1のロボット10が指令役ロボットとなっているが、これに限らず、第1のロボット10以外のロボット11〜14が指令役ロボットとなることもある。
また、通信制御装置20をロボットの一種とみなし、通信制御装置20に指令役ロボットの役割を負わせるようにしてもよい。すなわち、通信制御装置20に、各ロボット10〜14への作業依頼の送信や、各物品の存在位置の特定、行動計画の策定などを行なわせるようにしてもよい。
また実施形態では、各ロボット10〜14が無線によって通信しているが、無線に限らず別の通信形態に変更することができる。そして、IPアドレスは、各ロボット10〜14間の通信形態に応じて適宜別の形態に変更されることになる。
実施形態の全体構成を示す図である。 ロボットの制御部の構成を示す図である。 通信制御装置の構成示す図である。 実施形態の動作を示すフローチャートである。 各ロボットの動作を示す図である。 指令役ロボットの動作を示すフローチャートである。 サブルーチンにおける動作を示すフローチャートである。 各物品の位置検出の第1の手法を示す図である。 各物品の位置検出の第2の手法(1)を示す図である。 各物品の位置検出の第2の手法(2)を示す図である。 各物品の位置検出の第2の手法(3)を示す図である。 各種データの構成を示す図である。 各物品の位置検出の他の手法(1)を示す図である。 各物品の位置検出の他の手法(2)を示す図である。 各物品の位置検出の他の手法(3)を示す図である。
符号の説明
10〜14 …第1〜第5のロボット
10a〜14a …カメラ
10b〜14b …特徴部
10c〜14c …無線通信部
10d〜14d …作業アーム
10e〜14e …二本足走行機構部
20 …通信制御装置
30 …制御部
Ant …アンテナ

Claims (6)

  1. 複数のロボットが協調して行動する自律ロボットにおいて、
    周囲を撮影する撮影部と、
    各ロボットに応じて視覚的に相違する特徴部と、
    外部と通信する通信部と、
    前記通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の前記撮影部によって撮影した画像データとから各ロボットの前記特徴部を検出し、検出した各ロボットの前記特徴部に基づいて、各ロボットの存在位置を特定する制御部とを有することを特徴とする自律ロボット。
  2. 請求項1に記載の自律ロボットにおいて、
    前記制御部は、各ロボットの存在位置に基づいて、所定の目的の作業を実行する実行役ロボットの行動計画を策定することを特徴とする自律ロボット。
  3. 複数のロボットが協調して行動する自律ロボットの制御方法において、
    周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部とを有する自律ロボットの制御部は、
    前記通信部を介して他のロボットが撮影した画像データを取得し、
    他のロボットが撮影した画像データと自身の前記撮影部によって撮影した画像データとから各ロボットの前記特徴部を検出し、
    検出した各ロボットの前記特徴部に基づいて、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
  4. 請求項3に記載の自律ロボットの制御方法において、
    前記制御部は、
    検出した各ロボットの前記特徴部に基づいて、三角測量法によって定まる地図座標によって、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
  5. 請求項3に記載の自律ロボットの制御方法において、
    前記制御部は、
    画像内の任意の目印と各ロボットとの相対的な位置関係に基づいて、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
  6. 請求項3〜5のいずれか1項に記載の自律ロボットの制御方法において、
    前記制御部は、各ロボットの存在位置に基づいて、所定の目的の作業を実行する実行役ロボットを特定し、前記実行役ロボットの行動計画を策定し、前記実行役ロボットに送信することを特徴とする自律ロボットの制御方法。




JP2004077973A 2004-03-18 2004-03-18 自律ロボットおよびその制御方法 Expired - Fee Related JP4254588B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004077973A JP4254588B2 (ja) 2004-03-18 2004-03-18 自律ロボットおよびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004077973A JP4254588B2 (ja) 2004-03-18 2004-03-18 自律ロボットおよびその制御方法

Publications (2)

Publication Number Publication Date
JP2005262378A true JP2005262378A (ja) 2005-09-29
JP4254588B2 JP4254588B2 (ja) 2009-04-15

Family

ID=35087445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004077973A Expired - Fee Related JP4254588B2 (ja) 2004-03-18 2004-03-18 自律ロボットおよびその制御方法

Country Status (1)

Country Link
JP (1) JP4254588B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006038576A1 (ja) * 2004-10-01 2006-04-13 Honda Motor Co., Ltd. ロボット制御装置
JP2007303870A (ja) * 2006-05-09 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> 位置算出システム
JP2011245577A (ja) * 2010-05-25 2011-12-08 Honda Motor Co Ltd 給仕サービスのためのロボットシステム
JP2017124448A (ja) * 2016-01-12 2017-07-20 株式会社Ihi 相対データ較正装置と方法
WO2019058694A1 (ja) * 2017-09-20 2019-03-28 ソニー株式会社 制御装置、制御方法及び制御システム
WO2019087490A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019082846A (ja) * 2017-10-30 2019-05-30 国立大学法人北海道大学 協調作業システム
KR20200046148A (ko) * 2018-10-15 2020-05-07 엘지전자 주식회사 리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇
JP2020520508A (ja) * 2017-05-11 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. 物品探索方法、装置及びロボット
WO2020203968A1 (ja) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 制御ユニット
WO2020202427A1 (ja) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 制御ユニット
WO2022113272A1 (ja) * 2020-11-27 2022-06-02 株式会社ニコン 電磁波無線通信システム、電磁波無線通信方法、トラッキングシステム、およびトラッキング方法
WO2022185787A1 (ja) * 2021-03-04 2022-09-09 村田機械株式会社 走行車及び走行車システム
JP2023022098A (ja) * 2019-11-18 2023-02-14 日本電気株式会社 制御装置、制御方法、及び、制御プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6738555B2 (ja) 2016-05-23 2020-08-12 富士ゼロックス株式会社 ロボット制御システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JPH10151591A (ja) * 1996-09-30 1998-06-09 Sony Corp 識別装置及び方法、位置検出装置及び方法、ロボツト装置並びに色抽出装置
JP2003345435A (ja) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JPH10151591A (ja) * 1996-09-30 1998-06-09 Sony Corp 識別装置及び方法、位置検出装置及び方法、ロボツト装置並びに色抽出装置
JP2003345435A (ja) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8027750B2 (en) 2004-10-01 2011-09-27 Honda Motor Co., Ltd. Robot control apparatus
WO2006038576A1 (ja) * 2004-10-01 2006-04-13 Honda Motor Co., Ltd. ロボット制御装置
JP2007303870A (ja) * 2006-05-09 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> 位置算出システム
JP4676374B2 (ja) * 2006-05-09 2011-04-27 日本電信電話株式会社 位置算出システム
JP2011245577A (ja) * 2010-05-25 2011-12-08 Honda Motor Co Ltd 給仕サービスのためのロボットシステム
JP2017124448A (ja) * 2016-01-12 2017-07-20 株式会社Ihi 相対データ較正装置と方法
JP2020520508A (ja) * 2017-05-11 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. 物品探索方法、装置及びロボット
US11389961B2 (en) 2017-05-11 2022-07-19 Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Article searching method and robot thereof
US11389949B2 (en) 2017-09-20 2022-07-19 Sony Corporation Control device, control method, and control system
WO2019058694A1 (ja) * 2017-09-20 2019-03-28 ソニー株式会社 制御装置、制御方法及び制御システム
US11446813B2 (en) 2017-10-30 2022-09-20 Sony Group Corporation Information processing apparatus, information processing method, and program
CN111278611A (zh) * 2017-10-30 2020-06-12 索尼公司 信息处理设备、信息处理方法和程序
JP2019082846A (ja) * 2017-10-30 2019-05-30 国立大学法人北海道大学 協調作業システム
US11938625B2 (en) 2017-10-30 2024-03-26 Sony Group Corporation Information processing apparatus, information processing method, and program
JPWO2019087490A1 (ja) * 2017-10-30 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7020643B2 (ja) 2017-10-30 2022-02-16 国立大学法人北海道大学 協調作業システム
JP7156300B2 (ja) 2017-10-30 2022-10-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019087490A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102137033B1 (ko) * 2018-10-15 2020-07-23 엘지전자 주식회사 리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇
KR20200046148A (ko) * 2018-10-15 2020-05-07 엘지전자 주식회사 리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇
WO2020203968A1 (ja) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 制御ユニット
WO2020202427A1 (ja) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 制御ユニット
JP2023022098A (ja) * 2019-11-18 2023-02-14 日本電気株式会社 制御装置、制御方法、及び、制御プログラム
JP7424452B2 (ja) 2019-11-18 2024-01-30 日本電気株式会社 制御装置、制御方法、及び、制御プログラム
WO2022113272A1 (ja) * 2020-11-27 2022-06-02 株式会社ニコン 電磁波無線通信システム、電磁波無線通信方法、トラッキングシステム、およびトラッキング方法
WO2022185787A1 (ja) * 2021-03-04 2022-09-09 村田機械株式会社 走行車及び走行車システム
JP7396532B2 (ja) 2021-03-04 2023-12-12 村田機械株式会社 走行車及び走行車システム

Also Published As

Publication number Publication date
JP4254588B2 (ja) 2009-04-15

Similar Documents

Publication Publication Date Title
JP4254588B2 (ja) 自律ロボットおよびその制御方法
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US8965578B2 (en) Real time explosive hazard information sensing, processing, and communication for autonomous operation
JP6083520B2 (ja) ロボット誘導方法と装置
JP7336753B2 (ja) 測位装置及び移動体
JP6001914B2 (ja) 目標位置特定装置、目標位置特定システム、および目標位置特定方法
WO2021250914A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
US20230064401A1 (en) System for 3d surveying by a ugv and a uav with automatic provision of referencing of ugv lidar data and uav lidar data
Nguyen et al. Post-mission autonomous return and precision landing of uav
KR101132713B1 (ko) 이동로봇의 이동 제어장치, 이를 구비하는 이동로봇 시스템 및 이동로봇의 이동 제어방법
Azhari et al. A comparison of sensors for underground void mapping by unmanned aerial vehicles
Cantelli et al. UAV/UGV cooperation to improve navigation capabilities of a mobile robot in unstructured environments
Nemsick et al. Cooperative inchworm localization with a low cost team
Gupta et al. Swarmhawk: Self-sustaining multi-agent system for landing on a moving platform through an agent supervision
US11926038B2 (en) Information processing apparatus and information processing method
Andert et al. Autonomous vision-based helicopter flights through obstacle gates
Yasuda et al. Calibration-free localization for mobile robots using an external stereo camera
JP2020087307A (ja) 自己位置推定装置、自己位置推定方法及び荷役システム
JP6949417B1 (ja) 車両操縦システムと車両操縦方法
JP6934116B1 (ja) 航空機の飛行制御を行う制御装置、及び制御方法
Surmann et al. Teleoperated visual inspection and surveillance with unmanned ground and aerial vehicles
JP2021169958A (ja) 照明通信システムおよび照明通信システムの制御方法
JP2020170293A (ja) 画像表示方法及び遠隔操縦システム
JP6227950B2 (ja) センサの指向制御方法と装置
Harikumar et al. Cooperative obstacle avoidance for heterogeneous unmanned systems during search mission

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140206

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees