JP4506685B2 - 移動型ロボット - Google Patents
移動型ロボット Download PDFInfo
- Publication number
- JP4506685B2 JP4506685B2 JP2006041323A JP2006041323A JP4506685B2 JP 4506685 B2 JP4506685 B2 JP 4506685B2 JP 2006041323 A JP2006041323 A JP 2006041323A JP 2006041323 A JP2006041323 A JP 2006041323A JP 4506685 B2 JP4506685 B2 JP 4506685B2
- Authority
- JP
- Japan
- Prior art keywords
- trunk
- image
- camera
- connection site
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims description 73
- 239000002131 composite material Substances 0.000 claims description 40
- 230000007246 mechanism Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 description 26
- 210000003128 head Anatomy 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000007613 environmental effect Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 9
- 210000000323 shoulder joint Anatomy 0.000 description 9
- 210000002310 elbow joint Anatomy 0.000 description 7
- 210000003857 wrist joint Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
接続部位の背後に未知環境が存在すると、体幹の移動経路を計画することができなくなってしまう。あるいは、アームや脚などの接続部位の移動経路を計画することができなくなってしまう。特に、接続部位を目的位置に移動させる経路を計画する場合には、目的位置が未知環境にあるために、目的位置が認識できない事態が発生しやすい。
しかしながら、上記の処理には本来的には必要とされない動作を要するばかりでなく、体幹を連続的に移動させるロボットや、周囲物体が移動する環境にある場合には、対応することが難しい。
本発明のロボットは、体幹と、能動機構を有する関節部を介して体幹に接続されている接続部位と、体幹に設けられている体幹側カメラと、接続部位に設けられている接続部位側カメラと、体幹側カメラで撮像して得られた体幹側画像の一部を、接続部位側カメラで撮像して得られた接続部位側画像の一部に置き換えることで、体幹側画像中から接続部位を除去した合成画像を作成する合成画像作成手段を備えている。
上記のロボットでは、体幹側画像に、接続部位側カメラで撮像した接続部位側画像を合成することによって合成画像を作成する手段を備えている。このために、体幹側画像では接続部位を撮像しており、その影になって未知環境となっている環境画像に、接続部位側画像を合成することができ、そうして得られる合成画像には未知環境が残らない。
上記のロボットは、未知環境が残らない合成画像を得ながら、その後の体幹または接続部位の移動経路を計算することができる。未知環境を残さないようにするために無駄な動作が必要とされることがない。また周囲物体が移動する環境にあっても、移動経路を時々刻々に決定することができる。
一つの方式は、体幹に対する接続部位の位置関係(これはロボットに既知である)と接続部位に対する接続部位側カメラの位置関係から、接続部位側画像において仮に接続部位がなければ体幹側カメラによって撮像されるはずの範囲を計算して求める方式である。この方式は、奥行き情報が既知である場合に特に有効である。例えば、壁面に配置されているスイッチ類を自立移動型ロボットで操作する動作を例にすると、壁面に対するロボットの位置が既知であれば、体幹カメラによる壁面の撮像範囲は計算可能であり、体幹に対する接続部位の位置が既知であれば、接続部位の影になって体幹カメラでは撮像できない壁面の範囲を計算することができる。体幹に対する接続部位の位置と、接続部位に対する接続部位側カメラの位置が既知であれば、接続部位の影になって体幹カメラでは撮像できない壁面の範囲に対応する接続部位側画像内の範囲を計算することができる。体幹側画像では接続部位を撮像している範囲を、接続部位の影になって体幹カメラでは撮像できない範囲の接続部位側画像に置き換えれば、接続部位が存在しない場合に体幹側カメラで撮像したのと同等な合成画像を得ることができる。体幹側カメラと接続部位側カメラの存在位置が相違するために、単純に置き換えるだけでは、接続部位が存在しない場合に体幹側カメラで撮像したのと同じ合成画像を得ることはできない。しかしながら、接続部位側カメラは体幹側カメラで撮像できない方向の範囲内にあり、体幹側カメラでは撮像できない範囲に対する体幹側カメラと接続部位側カメラの視点は大きくは相違しない。ほぼ同じ方向から撮像している。従って、接続部位側カメラ画像の縮尺を調整して置き換えるだけで、接続部位が存在しない場合に体幹側カメラで撮像したのと同等な合成画像を得ることができる。必要であれば、接続部位側カメラ画像を、体幹側カメラの位置で撮像した画像に変換してから合成してもよい。このようにすると、合成画像の質が向上する。この合成画像が得られれば、接続部位の陰になって体幹側カメラでは撮像できない範囲に存在するスイッチ類の位置を認識することが可能となり、意図したスイッチに向けて接続部位を移動させることが可能となる。あるいは、意図したスイッチに向けて体幹を移動させることが可能となる。
ロボットが動作している環境によって、計算することで置換範囲を特定できる場合もあれば、画像処理することで置換範囲を特定できる場合もある。
(特徴1) ロボットは、体幹に走行機構(この実施例の場合は車輪であるが、脚リンクでもよい)を備えている。
(特徴2) ロボットは、環境地図から体幹の走行軌跡を計算する。
(特徴3) ロボットは、環境地図から接続部位の移動軌跡を計算する。
(特徴3) ロボットは、環境地図から体幹の走行軌跡と接続部位の移動軌跡を計算する。
(特徴4) ロボットは、関節角度制御装置や車輪回転数制御装置および位置情報検出装置により、ロボットの姿勢と各カメラの撮像方向を制御している。体幹側カメラの撮像方向は、体幹側カメラ撮像方向計算装置で計算され、接続部位側カメラの撮像方向は、接続部位側カメラ撮像方向計算装置で計算される。
(特徴5) ロボットは合成画像から得られた情報に基づき、移動経路を作成する。その経路に基づいて、前記関節角度制御装置や車輪回転数制御装置および位置情報検出装置がアクチュエータを制御し、体幹および/または接続部位を作成された移動経路に沿って移動させる。
(特徴6) ロボットは周囲環境の変化に対応して過去に作成した軌道に修正を加え、移動経路を変更する経路修正装置を備えている。
(実施例1)
図1に、本実施例のロボットの外観を示す。本実施例のロボット100は、体幹103と、肩関節203を介して体幹103に接続された1本の接続部位(アーム)104を有している。接続部位104は、2本以上が存在していてもよい。体幹103は、胴体200と、首関節202と、頭部201を備えており、頭部201に体幹側カメラ105が固定されている。体幹側カメラ105は、首関節202によって、胴体200に対する撮像方向を変えることができる。胴体200の下方には1対の車輪が配置されており、車輪206を利用して体幹103を移動させる。
接続部位104は、肩関節203と、肘関節204と、手首関節205を備えており、掌に側カメラ106が固定されている。肩関節203と、肘関節204と、手首関節205は能動機構を有しており、接続部位側カメラ106は、肩関節203と、肘関節204と、手首関節205によって、胴体200に対する撮像方向を変えることができる。また胴体200に対する接続部位側カメラ106のカメラ位置を変えることもできる。
このロボットは、作業環境内における頭部201の位置を計測する手段を備えており、体幹側カメラ105のカメラ位置と撮像方向を認識している。また、体幹103に対する接続部位側カメラ106のカメラ位置と撮像方向を認識している。
本実施例のロボット100は、車輪206を利用してスイッチパネル10に接近し、接続部位104を利用してスイッチパネル10の壁面に配置されているスイッチ群12a,12b・・を操作する。スイッチパネル10の壁面の位置は既知である。
ロボットは、位置と撮像方位が既知のカメラで撮影した画像情報から周囲の環境を認識して移動経路を作成する移動経路作成手段113を有しており、作成した移動経路に従って移動した後にカメラ位置と撮像方向を再計算し、その後に再度撮像する処理を繰り返しながら、自律的に移動する。
それぞれのカメラの倍率や画像サイズなどの差異に関する情報は、体幹側カメラ位置撮像方向計算装置111および接続部位側カメラ位置撮像方向計算装置109によって把握されており、合成時にはその情報に基づいた画像処理を行うため、それぞれの画像の撮像範囲が完全に一致しなくてもよい。例えば、体幹側カメラ105に対し接続部位側カメラ106はスイッチパネル10までの距離が異なっており、かつ接続部位104が頭部201に対して傾斜していることから、図5の接続部位側画像は図4の体幹側画像に比べて撮像されるスイッチパネル10の倍率が大きく、また傾いている。
ステップS601では、合成画像作成装置110に体幹側画像情報が入力される。ステップS603では、体幹側画像において未知環境となっている部分の特徴点Xnの抽出をする。図7に、ステップS603において抽出される体幹側画像の特徴点の一例を示す。ロボット100の接続部位104の形状は既知であることから、体幹側画像から接続部位を撮像している範囲(接続部位の撮像範囲)を特定することができる(第1特定手段)。図中の点X1からX6は、接続部位の撮像範囲を包含するように抽出された特徴点である。本実施例では、直線で結ぶことが可能な6個の特徴点を抽出しているが、接続部位の輪郭に沿って特徴点Xnをとればよい。ステップS605では、ステップS603において抽出された特徴点から、接続部位の撮像範囲R(背後の周囲物体情報が未知の範囲)を特定する。図7の特徴点X1からX6に囲まれた範囲が、近似的な接続部位の撮像範囲Rである。抽出する特徴点Xnの数を増やすことで、特徴点によって取り囲まれる範囲Rを接続部位の撮像範囲に正確に一致させることができる。
ステップS609では、ステップS607で入力された接続部位側画像情報から、体幹側画像の接続部位の撮像範囲Rの特徴点に対応する点Znを抽出する。図8に、ステップS609において抽出される接続部位側画像の特徴点Znの一例を示す。図8中の点Z1からZ6は、体幹側画像から抽出された特徴点X1からX6に対応する点である。
ステップS611では、ステップS609で抽出された特徴点Znから、接続部位側画像の対応範囲S(体幹側画像では未知情報である範囲)を特定する(第2特定手段)。
ステップS615では、体幹側画像の接続部位の撮像範囲Rを、合成のための準備処理を終えた対応範囲Sに置き換える。その結果、ステップS617において、未知範囲のない合成画像が出力される。図9に、合成画像の一例を示す。破線で示されている接続部位の撮像範囲Rは対応範囲Sに置き換えられ、接続部位が撮像されていない合成画像を得ることができる。
図11に、上記の3台の体幹側カメラと連動して作動する接続部位側カメラが撮像した接続部位側画像ACを例示する。体幹側画像TC1、TC2およびTC3の接続部位の撮像範囲R1、R2およびR3を補うため、接続部位側画像ACはステップS607からステップS611の処理によって対応範囲S1、S2およびS3を特定する。
ステップS613からステップS617の処理により、体幹側画像TC1、TC2およびTC3の接続部位の撮像範囲R1、R2およびR3は、接続部位側画像ACの対応範囲S1、S2およびS3により置き換えられ、未知範囲のない体幹側カメラ画像が作成される。
実施例1と実施例2には、共通する部位があるため、共通する部位または装置については同一番号を付して重複説明を省略する。
図12は、ステレオカメラを用いたロボットの外観を示す図である。本実施例のロボット100は、体幹103と、肩関節203を介して体幹103に接続された一本の接続部位(アーム)104を有している。接続部位104は、2本以上が存在していてもよい。体幹103は、
胴体200と、首関節202と、頭部201を備えており、頭部201に体幹側カメラ105(a)および105(b)が固定されている。体幹側カメラ105(a)および105(b)は、首関節202によって、胴体200に対する撮像方向を変えることができる。胴体200の下方には1対の車輪206が配置されており、車輪206を利用して移動する。
接続部位104は、肩関節203と、肘関節204と、手首関節205を備えており、掌に接続部位側カメラ106が固定されている。肩関節203と、肘関節204と、手首関節205は能動機構を有しており、接続部位側カメラ106は、肩関節203と、肘関節204と、手首関節205によって、胴体200に対する撮像方向を変えることができる。また胴体200に対する接続部位側カメラ106のカメラ位置を変えることもできる。
このロボットは、作業環境内におえる頭部201の位置を計測する手段を備えており、体幹側カメラ105(a)および105(b)のカメラ位置と撮像方向を認識している。また、胴体200に対する接続部位側カメラ106のカメラ位置と撮像方向を認識している。
本実施例のロボット100は、周囲物体30,40,50,60を視覚により認識し、それらに衝突しない接続部位軌道を作成し、把持物20を空いたスペースに設置する。ロボット100の体幹側カメラ105(a)および105(b)は通常、ステレオカメラとして機能していて、図中の点A、B、C、Dは、ロボット100の視点である。
ロボット100は、位置と撮像方位が既知のカメラで撮像した画像情報から周囲の環境を認識して移動経路を計算し、計算した移動経路に従って移動した後にカメラ位置と撮像方向を再計算し、その後に再度撮像するという処理を繰返しながら、自律的に移動する。
具体的には、図14の例において、点Aおよび点Bは、実線矢印で示すように体幹側カメラ105(a)および105(b)の両方より撮像可能であるため、体幹側画像からステレオ画像が生成可能となっており、ロボットの移動に合わせてその情報を時系列上連続して取得することができる。
それに対し、点Cおよび点Dに関しては、体幹側カメラだけでは下肢の移動位置もしくは接続部位の動作によって、それぞれの点の体幹側カメラ105(a)および105(b)を利用したステレオ視が不可能となり、その周囲についての環境情報を取得することができない。破線矢印は、接続部位あるいは把持物体が視線を遮るため、同じ特徴点を有する画像を撮像することができないことを示している。
ステレオカメラの場合、特に周囲物体の奥行きや高さなどの情報を必要とする場合は、複数の位置情報が既知のカメラを利用するか、あるいは1台のカメラが移動しながら撮像した場合のように、複数の画像から視差情報が得られることが必須となる。このため、点Cおよび点Dは両眼視ができないことから、点Cおよび点D付近の物体の位置関係を認識することができない。
具体的には、点Aおよび点Bの周辺など、接続部位104などの視野を遮る物体がない場合には体幹側カメラ105(a)および105(b)によりステレオ画像を取得し、周囲物体のロボット100に対する相対的な位置関係を計算することができる(第1計算手段)。その一方で、点Cのような場合には体幹側カメラ105(b)と接続部位側カメラ106により両眼視し、点Dの場合には体幹側カメラ105(a)と接続部位側カメラ106により両眼視をすることにより、周辺環境全域を認識するのに必要な情報を得、周囲物体のロボット100に対する相対的な位置関係を計算することができる(第2計算手段)。
ステップS500では、体幹側カメラ105(a)と105(b)および接続部位側カメラ106により撮像された複数の画像が画像情報処理装置116へ入力され、ステレオ画像が取得される。画像情報処理装置116は、体幹側画像の未知範囲の大きさにより、接続部位側画像を利用するかどうかを判断してもよく、接続部位104によって遮られ、未知範囲となる範囲がより少ない画像の組み合わせからステレオ画像を得る手段を有している。
このとき、体幹側画像どうしからステレオ画像情報を得る場合と、体幹側画像と接続部位側画像を利用してステレオ画像を得る場合とで、それぞれに第1計算手段および第2計算手段という、異なる計算手段を用意することが望ましい。体幹側カメラどうしは並行であるが、体幹側画像と接続部位側画像を利用した計算手段は、それぞれのカメラの相対位置が異なるため、例えばステレオ画像の平行化やハンド・アイ校正のような座標系の変換などが適用できる。
図17に、動的な周囲物体に対応することができる形態を示す。このロボット機構101は、実施例2のロボット機構に、さらに接続部位の起動に修正を加える移動経路修正装置125を設けることで、一度発令された経路を適宜修正することができる。
また、適宜周辺環境のデータを更新することで、接続部位の動作と周囲の環境の変化を同時に、連続して認識し、それに応じて軌道を修正することができる。
例えば、アームだけでなく、脚などの複数の接続部位にそれぞれ、あるいは1本の接続部位の異なる部位に接続部位側カメラを回転可能に複数個装備すれば、撮像可能な範囲がより拡大される。
また、実施例2では体幹側カメラを主眼としたステレオ視について例示したが、複数の接続部位側カメラを用いてステレオ視を可能にし、体幹側カメラと接続部位側カメラそれぞれのステレオ画像処理装置を装備することで、さらに多様な用途に利用することができる。
本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時の請求項に記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
101:ロボット機構
103:体幹
104:接続部位(アーム)
105:体幹側カメラ
105(a):体幹側カメラ
105(b):体幹側カメラ
106:接続部位側カメラ
109:接続部位側カメラ位置撮像方向計算装置
110:合成画像作成装置
111:体幹側カメラ位置撮像方向計算装置
112:環境地図記憶装置
113:移動経路作成装置
114:制御装置
115:アクチュエータ群
116:画像処理装置
117:関節角検出装置
119:車輪回転数検出装置
121:位置情報検出装置
125:移動経路修正装置
200:胴体
201:頭部
202:首関節
203:肩関節
204:肘関節
205:手首関節
206:車輪
Claims (5)
- 体幹と、
駆動機構を有する関節部を介して体幹に接続されている接続部位と、
体幹に設けられている複数の体幹側カメラと、
接続部位に設けられている接続部位側カメラと、
体幹側カメラで撮像して得られた体幹側画像の一部を、接続部位側カメラで撮像して得られた接続部位側画像の一部に置き換えることで、体幹側画像中から接続部位を除去した合成画像を作成する合成画像作成手段と、を備えており、
合成画像作成手段は、それぞれの体幹側カメラで撮像した体幹側画像に対して、合成画像を作成することを特徴とする移動型ロボット。 - 体幹と、
駆動機構を有する関節部を介して体幹に接続されている接続部位と、
体幹に設けられている体幹側カメラと、
接続部位に設けられている接続部位側カメラと、
体幹側カメラで撮像して得られた体幹側画像の一部を、接続部位側カメラで撮像して得られた接続部位側画像の一部に置き換えることで、体幹側画像中から接続部位を除去した合成画像を作成する合成画像作成手段と、
体幹側カメラの撮像範囲内に接続部位が入る場合に、接続部位側カメラが体幹側カメラの撮像範囲内を撮像する方向を向くように、接続部位側カメラの向きを調整する手段と、
を備えている移動型ロボット。 - 体幹側カメラが複数設けられており、
合成画像作成手段は、それぞれの体幹側カメラで撮像した体幹側画像に対して、合成画像を作成することを特徴とする請求項2の移動型ロボット。 - 合成画像作成手段は、
体幹側画像内において接続部位を撮像している範囲を特定する第1特定手段と、
接続部位側画像内において、第1特定手段で特定した範囲と同じ範囲を撮像している範囲を特定する第2特定手段と、
第1特定手段で特定した範囲内の体幹側画像を、第2特定手段で特定した範囲内の接続部位側画像に置き換える手段と、
を備えている請求項1から3のいずれかの移動型ロボット。 - 合成画像作成手段で作成した合成画像を用いて、撮像範囲内に存在する物体の移動型ロボットに対する相対的な位置関係を計算する手段、
が付加されている請求項1から4のいずれかの移動型ロボット。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006041323A JP4506685B2 (ja) | 2006-02-17 | 2006-02-17 | 移動型ロボット |
PCT/JP2007/052753 WO2007094420A1 (ja) | 2006-02-17 | 2007-02-15 | 移動型ロボット |
EP07714283A EP1985416B1 (en) | 2006-02-17 | 2007-02-15 | Mobile robot |
EP10015276A EP2314429B1 (en) | 2006-02-17 | 2007-02-15 | Movable robot |
KR1020087022581A KR101049266B1 (ko) | 2006-02-17 | 2007-02-15 | 이동형 로봇 |
US12/279,561 US8010232B2 (en) | 2006-02-17 | 2007-02-15 | Movable robot |
EP10015275A EP2314428B1 (en) | 2006-02-17 | 2007-02-15 | Movable robot |
CN2007800057192A CN101384402B (zh) | 2006-02-17 | 2007-02-15 | 可移动机器人 |
US13/137,119 US8234011B2 (en) | 2006-02-17 | 2011-07-21 | Movable robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006041323A JP4506685B2 (ja) | 2006-02-17 | 2006-02-17 | 移動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010057267A Division JP4849178B2 (ja) | 2010-03-15 | 2010-03-15 | 移動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007216350A JP2007216350A (ja) | 2007-08-30 |
JP4506685B2 true JP4506685B2 (ja) | 2010-07-21 |
Family
ID=38371597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006041323A Expired - Fee Related JP4506685B2 (ja) | 2006-02-17 | 2006-02-17 | 移動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (2) | US8010232B2 (ja) |
EP (3) | EP2314428B1 (ja) |
JP (1) | JP4506685B2 (ja) |
KR (1) | KR101049266B1 (ja) |
CN (1) | CN101384402B (ja) |
WO (1) | WO2007094420A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442661B1 (en) | 2008-11-25 | 2013-05-14 | Anybots 2.0, Inc. | Remotely controlled self-balancing robot including a stabilized laser pointer |
KR101581197B1 (ko) * | 2009-01-06 | 2015-12-30 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
WO2011017668A2 (en) * | 2009-08-06 | 2011-02-10 | The Regents Of The University Of California | Multimodal dynamic robotic systems |
JP5500926B2 (ja) * | 2009-09-29 | 2014-05-21 | キヤノン株式会社 | 物体把持制御方法及び装置 |
TWM382891U (en) * | 2010-01-07 | 2010-06-21 | Everprec Tech Co Ltd | Angle adjustment structure of right-angle robot arm |
US8306664B1 (en) * | 2010-05-17 | 2012-11-06 | Anybots 2.0, Inc. | Self-balancing robot having a shaft-mounted head |
JP2014509417A (ja) * | 2010-12-30 | 2014-04-17 | アイロボット コーポレイション | 可動式ヒューマンインターフェースロボット |
US11372391B2 (en) * | 2011-04-06 | 2022-06-28 | Koninklijke Philips N.V. | Safety in dynamic 3D healthcare environment |
JP5609760B2 (ja) * | 2011-04-27 | 2014-10-22 | トヨタ自動車株式会社 | ロボット、ロボットの動作方法、及びプログラム |
CN102645932A (zh) * | 2012-04-27 | 2012-08-22 | 北京智能佳科技有限公司 | 一种远程控制的导购机器人 |
KR101555823B1 (ko) | 2012-07-18 | 2015-10-05 | (주)브이아이피 | 로봇 제어 방법 및 장치 |
JP6036647B2 (ja) * | 2013-11-01 | 2016-11-30 | トヨタ自動車株式会社 | ロボット |
JP6278741B2 (ja) * | 2014-02-27 | 2018-02-14 | 株式会社キーエンス | 画像測定器 |
JP6290651B2 (ja) * | 2014-02-27 | 2018-03-07 | 株式会社キーエンス | 画像測定器 |
JP2015226963A (ja) * | 2014-06-02 | 2015-12-17 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP6459227B2 (ja) | 2014-06-02 | 2019-01-30 | セイコーエプソン株式会社 | ロボットシステム |
JP6075343B2 (ja) * | 2014-09-02 | 2017-02-08 | トヨタ自動車株式会社 | 走行ロボット、その動作計画方法及びプログラム |
JP6260509B2 (ja) * | 2014-10-06 | 2018-01-17 | トヨタ自動車株式会社 | ロボット |
WO2016130565A1 (en) | 2015-02-09 | 2016-08-18 | The Regents Of The University Of California | Ball-balancing robot and drive assembly therefor |
JP6594024B2 (ja) * | 2015-05-07 | 2019-10-23 | ヤマト科学株式会社 | 検体処理システム |
JP2017041125A (ja) * | 2015-08-20 | 2017-02-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11449061B2 (en) | 2016-02-29 | 2022-09-20 | AI Incorporated | Obstacle recognition method for autonomous robots |
US11927965B2 (en) | 2016-02-29 | 2024-03-12 | AI Incorporated | Obstacle recognition method for autonomous robots |
US10452071B1 (en) | 2016-02-29 | 2019-10-22 | AI Incorporated | Obstacle recognition method for autonomous robots |
US10788836B2 (en) * | 2016-02-29 | 2020-09-29 | AI Incorporated | Obstacle recognition method for autonomous robots |
CN107229274B (zh) * | 2016-03-24 | 2022-06-28 | 松下电器(美国)知识产权公司 | 位置指示方法、终端装置、自行式装置以及程序 |
JP2018112775A (ja) * | 2017-01-06 | 2018-07-19 | 富士ゼロックス株式会社 | 自律移動ロボット |
CN106949891A (zh) * | 2017-03-01 | 2017-07-14 | 深圳鹏锐信息技术股份有限公司 | 一种新型的室内定位***以及基于陀螺仪和视频分析的室内双向二次校正定位方法 |
US11694254B2 (en) * | 2017-06-15 | 2023-07-04 | Microsoft Technology Licensing, Llc | Interactive physical product browsing experience |
JP6969278B2 (ja) * | 2017-10-24 | 2021-11-24 | トヨタ自動車株式会社 | 自律移動体 |
CN110605711B (zh) * | 2018-06-14 | 2022-06-28 | 中瑞福宁机器人(沈阳)有限公司 | 一种控制协作机器人抓取物体的方法、装置及*** |
JP6816070B2 (ja) * | 2018-08-24 | 2021-01-20 | ファナック株式会社 | 干渉回避装置およびロボットシステム |
CN109283850B (zh) * | 2018-09-13 | 2021-08-13 | 广东美的制冷设备有限公司 | 家电设备、家电设备的控制方法及存储介质 |
JP6511681B1 (ja) | 2018-10-15 | 2019-05-15 | 株式会社Mujin | 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法 |
JP6920514B2 (ja) * | 2018-11-08 | 2021-08-18 | 將洋 鈴木 | 自走式電気掃除装置、自走式電気掃除装置用プログラム及び掃除システム |
JP6577687B1 (ja) * | 2019-03-18 | 2019-09-18 | 株式会社Mujin | 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法 |
CN110753207A (zh) * | 2019-09-23 | 2020-02-04 | 国网辽宁省电力有限公司丹东供电公司 | 智能专责监护机器人 |
JP2022156506A (ja) * | 2021-03-31 | 2022-10-14 | Johnan株式会社 | ロボット制御システム、および制御装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57194895A (en) * | 1981-05-21 | 1982-11-30 | Tokyo Shibaura Electric Co | Monitoring device for manipulator |
JPH0360989A (ja) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | 画像表示方法及び画像表示装置並びに遠隔操作装置 |
JPH05126521A (ja) * | 1991-11-08 | 1993-05-21 | Toshiba Corp | 遠隔操作マニピユレータ用位置測定装置 |
JP2003080488A (ja) * | 2001-09-05 | 2003-03-18 | National Institute Of Advanced Industrial & Technology | 遠隔操作の監視装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6074983U (ja) | 1983-10-26 | 1985-05-25 | フアナツク株式会社 | ロボツト制御装置 |
US5374830A (en) * | 1984-10-12 | 1994-12-20 | Sensor Adaptive Machines, Inc. | Target based determination of robot and sensor alignment |
US4789940A (en) * | 1985-08-30 | 1988-12-06 | Texas Instruments Incorporated | Method and apparatus for filtering reflections from direct images for mobile robot navigation |
US5400244A (en) * | 1991-06-25 | 1995-03-21 | Kabushiki Kaisha Toshiba | Running control system for mobile robot provided with multiple sensor information integration system |
US5531337A (en) * | 1995-05-30 | 1996-07-02 | Inco Limited | Automated decoupler for rail cars |
JP3060989B2 (ja) * | 1997-04-18 | 2000-07-10 | 株式会社日立製作所 | 画像符号化方法及び装置 |
US6496754B2 (en) * | 2000-11-17 | 2002-12-17 | Samsung Kwangju Electronics Co., Ltd. | Mobile robot and course adjusting method thereof |
JP3781370B2 (ja) * | 2002-11-19 | 2006-05-31 | 本田技研工業株式会社 | 移動装置 |
JP3994950B2 (ja) | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
JP2005103722A (ja) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | 協調ロボット装置、システム、およびナビゲーションロボット装置 |
WO2005060629A2 (en) * | 2003-12-11 | 2005-07-07 | Strider Labs, Inc. | Probable reconstruction of surfaces in occluded regions by computed symmetry |
US7765780B2 (en) * | 2003-12-12 | 2010-08-03 | Vision Robotics Corporation | Agricultural robot system and method |
US7854108B2 (en) * | 2003-12-12 | 2010-12-21 | Vision Robotics Corporation | Agricultural robot system and method |
US7332890B2 (en) * | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
JP4086020B2 (ja) | 2004-07-29 | 2008-05-14 | 松下電器産業株式会社 | Led照明光源 |
JP2009509779A (ja) * | 2005-09-23 | 2009-03-12 | ブレインテック カナダ インコーポレイテッド | 視覚追跡のシステム及び方法 |
-
2006
- 2006-02-17 JP JP2006041323A patent/JP4506685B2/ja not_active Expired - Fee Related
-
2007
- 2007-02-15 KR KR1020087022581A patent/KR101049266B1/ko not_active IP Right Cessation
- 2007-02-15 WO PCT/JP2007/052753 patent/WO2007094420A1/ja active Search and Examination
- 2007-02-15 CN CN2007800057192A patent/CN101384402B/zh not_active Expired - Fee Related
- 2007-02-15 US US12/279,561 patent/US8010232B2/en not_active Expired - Fee Related
- 2007-02-15 EP EP10015275A patent/EP2314428B1/en not_active Expired - Fee Related
- 2007-02-15 EP EP07714283A patent/EP1985416B1/en not_active Expired - Fee Related
- 2007-02-15 EP EP10015276A patent/EP2314429B1/en active Active
-
2011
- 2011-07-21 US US13/137,119 patent/US8234011B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57194895A (en) * | 1981-05-21 | 1982-11-30 | Tokyo Shibaura Electric Co | Monitoring device for manipulator |
JPH0360989A (ja) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | 画像表示方法及び画像表示装置並びに遠隔操作装置 |
JPH05126521A (ja) * | 1991-11-08 | 1993-05-21 | Toshiba Corp | 遠隔操作マニピユレータ用位置測定装置 |
JP2003080488A (ja) * | 2001-09-05 | 2003-03-18 | National Institute Of Advanced Industrial & Technology | 遠隔操作の監視装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2314429A1 (en) | 2011-04-27 |
EP1985416A1 (en) | 2008-10-29 |
US20100185327A1 (en) | 2010-07-22 |
EP2314429B1 (en) | 2012-07-11 |
KR20080093460A (ko) | 2008-10-21 |
EP1985416A4 (en) | 2010-06-23 |
EP2314428B1 (en) | 2012-07-04 |
KR101049266B1 (ko) | 2011-07-13 |
US8010232B2 (en) | 2011-08-30 |
US20120053727A1 (en) | 2012-03-01 |
WO2007094420A1 (ja) | 2007-08-23 |
CN101384402A (zh) | 2009-03-11 |
EP2314428A1 (en) | 2011-04-27 |
US8234011B2 (en) | 2012-07-31 |
JP2007216350A (ja) | 2007-08-30 |
EP1985416B1 (en) | 2011-08-03 |
CN101384402B (zh) | 2010-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4506685B2 (ja) | 移動型ロボット | |
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP4961860B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
EP2682711B1 (en) | Apparatus and method for three-dimensional measurement and robot system comprising said apparatus | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
JP4849178B2 (ja) | 移動型ロボット | |
JP4665857B2 (ja) | アームを誘導可能な移動体およびアームを誘導する方法 | |
JP2010112859A (ja) | ロボットシステム、ロボット制御装置およびロボット制御方法 | |
JP6816070B2 (ja) | 干渉回避装置およびロボットシステム | |
CN111615443A (zh) | 信息处理装置、信息处理方法和信息处理*** | |
JP2006224291A (ja) | ロボットシステム | |
Yang et al. | Visual servoing control of baxter robot arms with obstacle avoidance using kinematic redundancy | |
JP7093881B1 (ja) | システム、及び自動搬送車 | |
JP2686685B2 (ja) | ロボットによる物体操作のための能動的カメラ探索装置 | |
WO2024048491A1 (ja) | ロボットシステム、および、ロボットシステムの制御方法 | |
US20220388174A1 (en) | Autonomous and teleoperated sensor pointing on a mobile robot | |
Shin et al. | Visual guidance system for remote-operation | |
Hornung et al. | A model-based approach for visual guided grasping with uncalibrated system components | |
JP2021181134A (ja) | 作業ロボットの操作支援装置、方法及びプログラム | |
Mezouar | Optimal Camera Trajectory under visibility constraint in visual servoing: a variational approach | |
Mendiburu et al. | Obstacle avoidance for a robot manipulator based on visual feedback | |
JPH0665472B2 (ja) | 視覚装置 | |
Park et al. | Structured light system for teleautonomous and telecollaborative manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100419 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |