JP2015139872A - 情報処理装置、ロボット及びプログラム - Google Patents
情報処理装置、ロボット及びプログラム Download PDFInfo
- Publication number
- JP2015139872A JP2015139872A JP2014016067A JP2014016067A JP2015139872A JP 2015139872 A JP2015139872 A JP 2015139872A JP 2014016067 A JP2014016067 A JP 2014016067A JP 2014016067 A JP2014016067 A JP 2014016067A JP 2015139872 A JP2015139872 A JP 2015139872A
- Authority
- JP
- Japan
- Prior art keywords
- handle
- door
- shape
- closing
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ドアの取っ手の形状に応じたロボット制御を行う。【解決手段】本発明の一態様にかかる情報処理装置(10)は、ドアの取っ手を把持可能なロボットを制御する情報処理装置(10)であって、撮像手段で撮像したドアの取っ手の画像から取っ手の形状を認識する認識手段(103)と、認識手段(103)で認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットを制御する制御手段(106)と、を有することを特徴とする。【選択図】図2
Description
本発明は、ドアを自動的に開閉する技術に関する。
近年、屋内や屋外を移動して、予め定められた作業や自律動作を行う移動型のロボットが開発されている。通常、屋内と屋外との出入り口にはドアが設置されているため、ロボットが出入り口を通過するためにはドアを開閉する必要がある。
このため、例えば、特許文献1(特開2010−221320号公報)には、ドアを自動的に開閉できるようにするための技術について開示されている。
特許文献1では、ロボットは、ロボットアーム1と、取っ手を把持するハンド形状あるいは引っ掛けられる形状の手先効果器2を備えており、ロボットがドア取っ手を把持している手先を様々な方向に動かし、力検出部3により力情報を検出するとともに手先位置計算部4により算出された手先の位置変位を検出する。力検出部3で検出された力が閾値以上ならば真のドア開閉方向ではなく、力検出部3で検出された力が閾値以下かつ手先位置計算部4により算出された動作の試行前後の手先の位置変位があれば、真のドア開閉方向であるものとする。これにより、開閉方向が未知であるドアを自動的に開閉できるようにしている。
しかし、特許文献1の技術は、ロボットがドアの取っ手を把持した状態を前提としており、ロボットがドアの取っ手を持つためにどのようにロボットを制御するかについては考慮されていない。ロボットがドアの取っ手の形状に応じた操作でドアの取っ手を把持しなかった場合は、ドアが開かなかったり、無理な方向に力を加えることでドアに損傷を与えてしまったりする場合がある。
また、特許文献1の技術は、ロボットがドアの取っ手を把持している手先を様々な方向に動かしてドアを開閉しており、ドアの取っ手の形状に応じてドアの開閉方向を推定して動かすことについては考慮されていない。特許文献1では、手先を様々な方向に動かしてドアの開閉を試行するため、ドアを開けるまでに時間がかかってしまう場合がある。災害現場では迅速に救助活動や作業を行う必要があり、現場に到着するまでの時間短縮は大きな命題である。
本発明の目的は、ドアの取っ手の形状に応じたロボット制御を行うことにある。
本発明の一態様にかかる情報処理装置は、
ドアの取っ手を把持可能なロボットを制御する情報処理装置であって、
撮像手段で撮像した前記ドアの取っ手の画像から前記取っ手の形状を認識する認識手段と、
前記認識手段で認識した取っ手の形状に応じた操作で前記ドアの取っ手を把持するように前記ロボットを制御する制御手段と、を有することを特徴とする。
ドアの取っ手を把持可能なロボットを制御する情報処理装置であって、
撮像手段で撮像した前記ドアの取っ手の画像から前記取っ手の形状を認識する認識手段と、
前記認識手段で認識した取っ手の形状に応じた操作で前記ドアの取っ手を把持するように前記ロボットを制御する制御手段と、を有することを特徴とする。
本発明によれば、ドアの取っ手の形状に応じたロボット制御を行うことができる。
(本発明の一態様にかかる情報処理装置の実施形態の概要)
まず、図1、図2を参照しながら、本発明の一態様にかかる情報処理装置の実施形態の概要について説明する。図1は、本発明の一態様にかかる情報処理装置が制御するロボット1の全体構成例を示す図である。図2は、本発明の一態様にかかる情報処理装置の構成例を示す図である。情報処理装置は、制御部10が機能する。
まず、図1、図2を参照しながら、本発明の一態様にかかる情報処理装置の実施形態の概要について説明する。図1は、本発明の一態様にかかる情報処理装置が制御するロボット1の全体構成例を示す図である。図2は、本発明の一態様にかかる情報処理装置の構成例を示す図である。情報処理装置は、制御部10が機能する。
本発明の一態様にかかる情報処理装置は、ドアの取っ手を把持可能なロボット1を制御する情報処理装置である。
本発明の一態様にかかる情報処理装置は、認識手段、制御手段を有して構成する。
認識手段は、撮像手段で撮像したドアの取っ手の画像から取っ手の形状を認識する。撮像手段は、図1に示す画像入力部2が機能する。認識手段は、取っ手形状認識部103が機能する。
制御手段は、認識手段で認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボット1を制御する。制御手段は、ドア開閉作業部106が機能する。
本発明の一態様にかかる情報処理装置は、撮像手段で撮像したドアの取っ手の画像から取っ手の形状を認識する。そして、その認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボット1を制御する。このため、本発明の一態様にかかる情報処理装置は、ドアの取っ手の形状に応じたロボット制御を行うことができる。以下、添付図面を参照しながら、本発明の一態様にかかる情報処理装置について詳細に説明する。なお、以下の実施形態では、情報処理装置を搭載したロボット1を例に説明する。
<ロボット1の全体構成例>
まず、図1を参照しながら、本実施形態のロボット1の全体構成例について説明する。図1は、本実施形態のロボット1の全体構成例を示す図である。図1には、ドアの開閉探索方向の軸(x、y、z軸)が示されている。ドアの開閉探索方向は、手先効果部4を原点に設定し、z軸方向は、手先効果部4の前後方向に対応している。x軸方向は、手先効果部4の左右方向に対応している。y軸方向は、手先効果部4の上下方向に対応している。
まず、図1を参照しながら、本実施形態のロボット1の全体構成例について説明する。図1は、本実施形態のロボット1の全体構成例を示す図である。図1には、ドアの開閉探索方向の軸(x、y、z軸)が示されている。ドアの開閉探索方向は、手先効果部4を原点に設定し、z軸方向は、手先効果部4の前後方向に対応している。x軸方向は、手先効果部4の左右方向に対応している。y軸方向は、手先効果部4の上下方向に対応している。
本実施形態のロボット1は、画像入力部2、ロボットアーム3、手先効果部4、力検出部5を備えている。
画像入力部2は、ステレオカメラ等の撮像手段で構成し、撮像手段の前方に位置する被写体の三次元画像情報や、被写体の奥行き情報を取得する。ステレオカメラは、複数台のカメラで構成されており、複数台のカメラで被写体を同時に撮影し、各カメラで得られた被写体の画像上での映る位置の違いから、その被写体の位置や立体的な形状を把握するための三次元画像情報や奥行き情報を取得する。なお、各カメラで得られた被写体の画像上での映る位置のズレ量が視差情報である。この視差情報を基に、被写体の距離画像を得ることができる。距離画像は、カメラから被写体までの距離の値を持った画像である。距離画像を取得する方法としては、複数のカメラを用いるステレオ法や、スリット光を対象物に投影するスリット光投影法などの方法がある。本実施形態の画像入力部2は、ステレオカメラ等の撮像手段でドアの取っ手の画像を取得する。
ロボットアーム3は、アクチュエータを有し、ドアの取っ手を把持可能な把持手段として機能する。ロボットアーム3は、人間の腕のように駆動させ、ロボットアーム3を開閉探索方向に移動することになる。
手先効果部4は、人間の手を模した形状あるいは様々なものをつかむことができる形状を有している。手先効果部4は、アクチュエータを有し、ドアの取っ手を把持可能な把持手段として機能する。手先効果部4は、人間の手のように駆動させ、手先効果部4を開閉探索方向に移動することになる。
力検出部5は、手先効果部4にかかる力を検出する。力検出部5は、手先効果部4の手先、指、手首に設置され、それらの部分に加わる力を検出するセンサにより構成される。
<ロボット1の内部構成例>
次に、図2を参照しながら、本実施形態のロボット1の内部構成例について説明する。図2は、本実施形態のロボット1の内部構成例を示す図である。
次に、図2を参照しながら、本実施形態のロボット1の内部構成例について説明する。図2は、本実施形態のロボット1の内部構成例を示す図である。
本実施形態のロボット1は、制御部10、記憶部20を有している。制御部10は、画像入力部2で得られた情報や、力検出部5で得られた情報を基に、把持手段として機能するロボットアーム3及び手先効果部4を制御する。制御部10は、距離画像作成部102、取っ手形状認識部103、持ち場所判定部104、ドア開閉方向推定部105、ドア開閉作業部106を有して構成する。
距離画像作成部102は、画像入力部2で取得した画像の視差情報を基に距離画像を作成する。距離画像の作成方法は、特に限定せず、カメラなどの撮像手段で撮像した画像を基に、任意の方法で作成することが可能である。例えば、複数のカメラを用いるステレオ法や、スリット光を対象物に投影するスリット光投影法などの方法を用いて距離画像を作成することが可能である。
取っ手形状認識部103は、距離画像作成部102で作成した距離画像を基にドアの取っ手の形状を認識する。ドアの取っ手の形状としては、図3に示す(a)くぼみ型、(b)突出型、(c)レバー型、(d)持ち手型の4つがあげられる。くぼみ型は、図3(a)に示すように、取っ手がくぼんでいる形状を意味する。突出型は、図3(b)に示すように、取っ手のドア接地点とその接地点から最も距離が離れている点とを結ぶベクトルのx、y、z軸の各軸成分の中でz軸成分が一番大きくなる形状を意味する。レバー型は、図3(c)に示すように、取っ手とドアとの接地点が1箇所である形状を意味する。持ち手型は、図3(d)に示すように、取っ手とドアとの接地点が複数箇所である形状を意味する。図3(d)では、取っ手とドアとの接地点が2箇所である形状になっている。
持ち場所判定部104は、取っ手形状認識部103で認識したドアの取っ手の形状を基にドアの取っ手の持ち場所を判定する。記憶部20には、取っ手の形状に応じた制御内容が記憶されており、持ち場所判定部104は、取っ手形状認識部103で認識したドアの取っ手の形状に対応する制御内容を基にドアの取っ手の持ち場所を判定する。例えば、ドアの取っ手の形状がくぼみ型の場合は、くぼみの部分を持ち場所と判定する。また、ドアの取っ手の形状が持ち手型の場合は、持ち手の部分を持ち場所と判定する。また、ドアの取っ手の形状が突出型の場合は、突出部の部分を持ち場所と判定する。また、ドアの取っ手の形状がレバー型の場合は、レバー端部の部分を持ち場所と判定する。
ドア開閉方向推定部105は、取っ手形状認識部103で認識したドアの取っ手の形状を基にラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を推定する。記憶部20には、取っ手の形状に応じた優先探索方向候補が記憶されている。ドア開閉方向推定部105は、記憶部20に記憶された優先探索方向候補を基に、取っ手形状認識部103で認識したドアの取っ手の形状に対応するラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を推定する。
ドア開閉作業部106は、ドア開閉方向推定部105で推定したラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を基にドアを開閉する。
記憶部20は、図4に示すように、取っ手の形状に応じた制御内容、優先探索方向候補を記憶している。図4では、くぼみ型、突出型、レバー型、持ち手型の4つの取っ手の形状に応じた制御内容、優先探索方向候補を記憶している。制御内容は、ロボットアーム3及び手先効果部4を制御し、ドアの取っ手を把持する際に操作する制御内容である。優先探索方向候補は、ドアを開閉する際に開閉探索方向の中で優先的に探索する方向を決定する際に使用する。これにより、持ち場所判定部104は、取っ手形状認識部103で認識したドアの取っ手の形状に対応する制御内容を基にドアの取っ手の持ち場所を判定することができる。また、ドア開閉方向推定部105は、取っ手形状認識部103で認識したドアの取っ手の形状に対応する優先探索方向候補を基にラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を決定することができる。
<取っ手形状認識部103の処理動作例>
次に、図5を参照しながら、取っ手形状認識部103の処理動作例について説明する。図5は、取っ手形状認識部103の処理動作例を示すフローチャートである。
次に、図5を参照しながら、取っ手形状認識部103の処理動作例について説明する。図5は、取っ手形状認識部103の処理動作例を示すフローチャートである。
取っ手形状認識部103は、距離画像作成部102で作成した距離画像が入力されると(ステップS1)、その入力された距離画像を基に、ドアの取っ手の位置を認識する(ステップS2)。取っ手とは、ロボット1がドアを開くときに把持する部分を意味する。
取っ手形状認識部103は、取っ手の位置にくぼみがあるか否かを判定し(ステップS3)、くぼみがある場合は(ステップS3/Yes)、ドアの取っ手がくぼみ型の取っ手と判断する(ステップS4)。これにより、取っ手形状認識部103は、ドアの取っ手の形状が図3(a)に示すくぼみ型の取っ手と認識することになる。
また、くぼみがない場合は(ステップS3/No)、取っ手のドア接地点とその接地点から最も距離が離れている点とを結ぶベクトルのx、y、z軸の各軸成分の中でz軸成分の大きさが一番大きいか否かを判定する(ステップS5)。
z軸成分の大きさが一番大きい場合は(ステップS5/Yes)、ドアの取っ手が突出型の取っ手と判断する(ステップS6)。これにより、取っ手形状認識部103は、ドアの取っ手の形状が図3(b)に示す突出型の取っ手と認識することになる。
また、z軸成分の大きさが一番大きくない場合は(ステップS5/No)、取っ手とドアとの接地点は1箇所か否かを判定する(ステップS7)。
取っ手とドアとの接地点が1箇所である場合は(ステップS7/Yes)、ドアの取っ手がレバー型の取っ手と判断する(ステップS8)。これにより、取っ手形状認識部103は、ドアの取っ手の形状が図3(c)に示すレバー型の取っ手と認識することになる。
また、取っ手とドアとの接地点が1箇所でない場合は(ステップS7/No)、ドアの取っ手が持ち手型の取っ手と判断する(ステップS9)。これにより、取っ手形状認識部103は、ドアの取っ手の形状が図3(d)に示す持ち手型の取っ手と認識することになる。
取っ手形状認識部103は、上述した図5に示す処理を行うことで、距離画像作成部102で作成した距離画像を基に、ドアの取っ手の形状がくぼみ型、突出型、レバー型、持ち手型の何れの形状かを認識することができる。
<持ち場所判定部104の処理動作例>
次に、図6を参照しながら、持ち場所判定部104の処理動作例について説明する。図6は、持ち場所判定部104の処理動作例を示すフローチャートである。
次に、図6を参照しながら、持ち場所判定部104の処理動作例について説明する。図6は、持ち場所判定部104の処理動作例を示すフローチャートである。
持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状がくぼみ型である場合は(ステップS11/Yes)、記憶部20を参照する。そして、記憶部20のくぼみ型に対応する制御内容を基に、ロボットアーム3をくぼみに接近させ、手先効果部4を開き、くぼみの底に手先効果部4の先端が接地するように制御すると特定する(ステップS12)。
また、持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状が持ち手型である場合は(ステップS13/Yes)、記憶部20を参照する。そして、記憶部20の持ち手型に対応する制御内容を基に、ロボットアーム3を持ち手に接近させ手先効果部4を開き、持ち手の中心部分を手先効果部4が覆うよう接地するように制御すると特定する(ステップS14)。
また、持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状が突出型である場合は(ステップS15/Yes)、記憶部20を参照する。そして、記憶部20の突出型に対応する制御内容を基に、ロボットアーム3を突出部に近接させ、手先効果部4を開き、突出部全体を手先効果部4が覆うよう接地するように制御すると特定する(ステップS16)。
また、持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状がレバー型である場合は(ステップS17/Yes)、記憶部20を参照する。そして、記憶部20のレバー型に対応する制御内容を基に、ロボットアーム3をレバー端部に近接させ、手先効果部4を開き、レバー端部を手先効果部4が覆うよう接地するように制御すると特定する(ステップS18)。
持ち場所判定部104は、上述した図6に示す処理を行うことで、取っ手形状認識部103で認識した取っ手の形状に応じたロボットアーム3及び手先効果部4の制御内容を特定し、ドアの取っ手の形状に応じた取っ手の持ち場所を判定することができる。なお、ドア開閉作業部106は、画像入力部2で取得した三次元画像情報や奥行き情報を基に、ロボットアーム3及び手先効果部4と、ドアの取っ手と、の間の距離間を把握する。そして、持ち場所判定部104で特定した制御内容で、ロボットアーム3及び手先効果部4の動作を制御することになる。これにより、ドア開閉作業部106は、取っ手形状認識部103で認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットアーム3及び手先効果部4を制御することができる。
<ドア開閉方向推定部105の処理動作例>
次に、図7、図8を参照しながら、ドア開閉方向推定部105の処理動作例について説明する。図7は、ドア開閉方向推定部105の処理動作例を示すフローチャートである。図8は、開閉探索方向候補を示す図である。図8(a)は、ドアの開閉探索方向の軸(x、y、z軸)を示し、図1と対応している。図8(b)は、x、y軸方向の開閉探索方向候補を示す。番号は、開閉探索方向候補の番号を意味する。図8(c)は、z、y軸方向の開閉探索方向候補を示す。図8(d)は、z、x軸方向の開閉探索方向候補を示す。なお、図8に示す開閉探索方向候補も記憶部20に予め記憶されている。
次に、図7、図8を参照しながら、ドア開閉方向推定部105の処理動作例について説明する。図7は、ドア開閉方向推定部105の処理動作例を示すフローチャートである。図8は、開閉探索方向候補を示す図である。図8(a)は、ドアの開閉探索方向の軸(x、y、z軸)を示し、図1と対応している。図8(b)は、x、y軸方向の開閉探索方向候補を示す。番号は、開閉探索方向候補の番号を意味する。図8(c)は、z、y軸方向の開閉探索方向候補を示す。図8(d)は、z、x軸方向の開閉探索方向候補を示す。なお、図8に示す開閉探索方向候補も記憶部20に予め記憶されている。
ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状がくぼみ型である場合は(ステップS21/Yes)、ラッチ無しと判断する。そして、記憶部20を参照し、図8に示す開閉探索方向候補の中から、くぼみが伸びている軸方向と垂直なz軸以外の軸方向に平行な2方向をドア開閉優先探索方向候補に決定する(ステップS22)。図3(a)に示すくぼみ型の取っ手の形状は、くぼみが伸びている軸方向はy軸方向になる。このため、くぼみが伸びている軸方向と垂直なz軸以外の軸方向に平行な2方向は、図8(b)に示す開閉探索方向候補12,16をドア開閉優先探索方向候補に決定することになる。
また、ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状が持ち手型である場合は(ステップS23/Yes)、記憶部20を参照し、図8に示す開閉探索方向候補の中から、取っ手が伸びている軸方向以外の各軸方向に平行な4方向をラッチ解錠優先探索方向候補及びドア開閉優先探索方向候補に決定する(ステップS24)。図3(d)に示す持ち手型の取っ手の形状は、取っ手が伸びている軸方向はy軸方向になるため、取っ手が伸びている軸方向以外の各軸方向に平行な4方向は、z軸に平行な21,24、x軸に平行な12,16の方向になる。このため、開閉探索方向候補21,24,12,16をラッチ解錠優先探索方向候補及びドア開閉優先探索方向候補に決定することになる。
また、ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状が突出型である場合は(ステップS25/Yes)、記憶部20を参照し、図8に示す開閉探索方向候補の中から、図8(b)に示す開閉探索方向候補00,01をラッチ解錠優先探索方向候補に決定する。開閉探索方向候補00,01は、ドアノブを回すような作業を意味する。また、ドア開閉方向推定部105は、記憶部20を参照し、図8に示す開閉探索方向候補の中から、開閉探索方向候補21,24をドア開閉優先探索方向候補に決定する(ステップS26)。
また、ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状がレバー型である場合は(ステップS27/Yes)、記憶部20を参照し、図8に示す開閉探索方向候補の中から、取っ手が伸びている軸方向以外の各軸方向に平行な4方向をラッチ解錠優先探索方向候補に決定する。取っ手が伸びている軸方向は、z軸方向であるため、そのz軸方向以外のx、y軸方向に平行な4方向は、y軸に平行な10,14、x軸に平行な12,16の方向になる。このため、開閉探索方向候補10,14,12,16をラッチ解錠優先探索方向候補に決定することになる。また、ドア開閉方向推定部105は、記憶部20を参照し、図8に示す開閉探索方向候補の中から、開閉探索方向候補21,24をドア開閉優先探索方向候補に決定する(ステップS28)。
ドア開閉方向推定部105は、上述した図7に示す処理を行うことで、図8に示す開閉探索方向候補の中から取っ手形状認識部103で認識した取っ手の形状に応じたラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を決定する。これにより、取っ手の形状に応じたドア開閉方向を推定することができる。
<ドア開閉作業部106の処理動作例>
次に、図9を参照しながら、ドア開閉作業部106の処理動作例について説明する。図9は、ドア開閉作業部106の処理動作例を示すフローチャートである。なお、図9の処理動作は、取っ手形状認識部103で認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットアーム3及び手先効果部4を制御した後に行うことになる。
次に、図9を参照しながら、ドア開閉作業部106の処理動作例について説明する。図9は、ドア開閉作業部106の処理動作例を示すフローチャートである。なお、図9の処理動作は、取っ手形状認識部103で認識した取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットアーム3及び手先効果部4を制御した後に行うことになる。
まず、ドアの取っ手の形状に応じたドア開閉操作回数nを設定する(ステップS31)。くぼみ型の取っ手は、ラッチがなく、ドア開閉方向の操作のみなので、n=1を設定する。また、突出型、レバー型、持ち手型は、ラッチ解錠操作、ドア開閉操作を行うため、n=2を設定する。
また、N=0にして初期設定する(ステップS32)。Nは、力検出部5で検出される力が閾値Tを下回ったままロボットアーム3及び手先効果部4が距離Lを動いた方向の回数を意味する。このため、ドア開閉作業を開始する前に初期値0に設定する。
次に、開閉探索方向候補の中でドア開閉方向推定部105で決定したドア開閉優先探索方向候補を先頭にするように開閉探索方向候補を並び替える(ステップS33)。
次に、開閉探索方向候補の中でドア開閉方向推定部105で決定したラッチ解錠優先探索方向候補を先頭にするように開閉探索方向候補を並び替える(ステップS34)。
本実施形態では、まず、開閉探索方向候補の中でドア開閉優先探索方向候補を先頭にするように並び替え、その後に、更に、ラッチ解錠優先探索方向候補を先頭にするように並び替えている。このため、最終的な開閉探索方向候補の順番は、1ラッチ解錠優先探索方向候補、2ドア開閉優先探索方向候補、3それ以外の開閉探索方向候補の順番に並べ替えられる。これにより、開閉探索方向候補の中から、ドア開閉方向推定部105で決定したラッチ解錠優先探索方向候補及びドア開閉優先探索方向候補を優先的に選択してドアの開閉操作を行うことができる。その結果、ドアを開けるまでの時間を短縮することができる。
次に、開閉探索方向候補の先頭の開閉探索方向候補を選択し、ロボットアーム3及び手先効果部4をその選択した開閉探索方向候補に力がかかるように制御する(ステップS35)。
次に、力検出部5で検出される力が閾値Tを下回ったままロボットアーム3及び手先効果部4が距離Lを動いたか否かを判定する(ステップS36)。所定の条件である閾値Tや距離Lは、予め設定されている。
力検出部5で検出される力が閾値Tを下回ったまま距離Lを動いていない場合は(ステップS36/No)、所定の条件を満足していないため、その進んだ方向を開閉探索方向候補から削除する(ステップS37)。そして、開閉探索方向候補が存在するか否かを判定する(ステップS38)。そして、開閉探索方向候補が存在する場合は(ステップS38/Yes)、再び、ステップS35に戻り、開閉探索方向候補の先頭の開閉探索方向候補を選択し、ロボットアーム3及び手先効果部4をその選択した開閉探索方向候補に力がかかるように制御する。また、開閉探索方向候補が存在しない場合は(ステップS38/No)、ドア開けを終了する(End)。
また、力検出部5で検出される力が閾値Tを下回ったまま距離Lを動いた場合は(ステップS36/Yes)、所定の条件を満足したと判定し、1を加算し、N=N+1とする(ステップS39)。そして、N=nになったか否かを判定し(ステップS40)、N=nになっていない場合は(ステップS40/No)、その進んだ方向と反対の象限にある開閉探索方向候補を削除して、その進んだ方向の開閉探索方向候補はそのままにする(ステップS41)。そして、再び、ステップS35に戻り、開閉探索方向候補の先頭の開閉探索方向候補を選択し、ロボットアーム3及び手先効果部4をその選択した開閉探索方向候補に力がかかるように制御する。また、N=nになった場合は(ステップS40/Yes)、ドア開けを終了する(End)。
なお、上記処理動作において、ドアの取っ手の形状が突出型、レバー型、持ち手型の場合は、以下の処理動作を行うようにすることも可能である。まず、開閉探索方向候補の中でラッチ解錠優先探索方向候補を優先的に選択する。そして、力検出部5で検出される力が閾値Tを下回ったままロボットアーム3及び手先効果部4が距離Lを動いたと判定した場合は(ステップS36/Yes)、開閉探索方向候補の中でドア開閉優先探索方向候補を優先的に選択するようにする。
<本実施形態のロボット1の作用・効果>
このように、本実施形態のロボット1は、距離画像作成部102は、画像入力部2で取得した画像の視差情報を基に距離画像を作成する。そして、取っ手形状認識部103は、距離画像作成部102が作成した距離画像を基に取っ手の形状を認識する。そして、持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状に応じた制御内容を基に、ドアの取っ手の持ち場所を判定する。また、ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状に応じた優先探索方向候補を基に、ラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を決定する。そして、ドア開閉作業部106は、取っ手形状認識部103で認識した取っ手の形状に応じた制御内容を基に、取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットアーム3及び手先効果部4を制御する。また、ドア開閉作業部106は、開閉探索方向候補の中から、ドア開閉方向推定部105で決定したラッチ解錠優先探索方向候補及びドア開閉優先探索方向候補を優先的に選択してドアの開閉操作を行う。
このように、本実施形態のロボット1は、距離画像作成部102は、画像入力部2で取得した画像の視差情報を基に距離画像を作成する。そして、取っ手形状認識部103は、距離画像作成部102が作成した距離画像を基に取っ手の形状を認識する。そして、持ち場所判定部104は、取っ手形状認識部103で認識した取っ手の形状に応じた制御内容を基に、ドアの取っ手の持ち場所を判定する。また、ドア開閉方向推定部105は、取っ手形状認識部103で認識した取っ手の形状に応じた優先探索方向候補を基に、ラッチ解錠優先探索方向候補やドア開閉優先探索方向候補を決定する。そして、ドア開閉作業部106は、取っ手形状認識部103で認識した取っ手の形状に応じた制御内容を基に、取っ手の形状に応じた操作でドアの取っ手を把持するようにロボットアーム3及び手先効果部4を制御する。また、ドア開閉作業部106は、開閉探索方向候補の中から、ドア開閉方向推定部105で決定したラッチ解錠優先探索方向候補及びドア開閉優先探索方向候補を優先的に選択してドアの開閉操作を行う。
これにより、本実施形態のロボット1は、ドアの取っ手の形状に応じた操作でドアの取っ手を把持することができる。また、ドアを開けるまでの時間を短縮することができる。
なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
例えば、上述した本実施形態のロボット1を構成する各部の制御動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータ内のメモリにインストールして実行させることが可能である。
例えば、プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことが可能である。あるいは、プログラムは、リムーバブル記録媒体に一時的、あるいは、永続的に格納(記録)しておくことが可能である。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することが可能である。リムーバブル記録媒体は、磁気ディスク、半導体メモリなどの各種記録媒体があげられる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールすることになる。また、ダウンロードサイトからコンピュータに無線転送することになる。また、ネットワークを介してコンピュータに有線で転送することになる。
また、上記実施形態のロボット1を構成する各部は、上記実施形態で説明した処理動作に従って時系列的に処理を実行するだけに限定するものでない。例えば、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に処理を実行するように構築することも可能である。
また、上記実施形態のロボット1は、ロボット1に制御部10、記憶部20を有し、ロボットアーム3及び手先効果部4を制御することにしている。しかし、ネットワークを介してロボット1を遠隔制御することが可能なサーバ等の情報処理装置に上述した制御部10、記憶部20の機能を実装し、上述した処理を遠隔操作で行うようにすることも可能である。
1 ロボット
2 画像入力部
3 ロボットアーム
4 手先効果部
5 力検出部
10 制御部
20 記憶部
102 距離画像作成部
103 取っ手形状認識部
104 持ち場所判定部
105 ドア開閉方向推定部
106 ドア開閉作業部
2 画像入力部
3 ロボットアーム
4 手先効果部
5 力検出部
10 制御部
20 記憶部
102 距離画像作成部
103 取っ手形状認識部
104 持ち場所判定部
105 ドア開閉方向推定部
106 ドア開閉作業部
Claims (7)
- ドアの取っ手を把持可能なロボットを制御する情報処理装置であって、
撮像手段で撮像した前記ドアの取っ手の画像から前記取っ手の形状を認識する認識手段と、
前記認識手段で認識した取っ手の形状に応じた操作で前記ドアの取っ手を把持するように前記ロボットを制御する制御手段と、を有することを特徴とする情報処理装置。 - 前記認識手段で認識した取っ手の形状に応じたドア開閉方向を推定する推定手段を有し、
前記制御手段は、前記推定手段で推定したドア開閉方向を基に前記ドアの取っ手を移動するように前記ロボットを制御する、ことを特徴とする請求項1記載の情報処理装置。 - 前記推定手段は、前記認識手段で認識した取っ手の形状に応じたラッチ解錠優先探索方向候補、ドア開閉優先探索方向候補を決定し、
前記制御手段は、前記推定手段で決定した前記ラッチ解錠優先探索方向候補を基に、前記ドアの取っ手を移動するように前記ロボットを制御し、前記ドアの取っ手の移動が所定の条件を満足した場合に、前記推定手段で決定した前記ドア開閉優先探索方向候補を基に、前記ドアの取っ手を移動するように前記ロボットを制御し、前記ドアの取っ手の移動が所定の条件を満足した場合に、ドアの開閉を終了する、ことを特徴とする請求項2記載の情報処理装置。 - ドアの取っ手を把持可能な把持手段を有するロボットであって、
前記ドアの取っ手を撮像する撮像手段と、
前記撮像手段で撮像した前記ドアの取っ手の画像から前記取っ手の形状を認識する認識手段と、
前記認識手段で認識した取っ手の形状に応じた操作で前記ドアの取っ手を把持するように前記把持手段を制御する制御手段と、を有することを特徴とするロボット。 - 前記認識手段で認識した取っ手の形状に応じたドア開閉方向を推定する推定手段を有し、
前記制御手段は、前記推定手段で推定したドア開閉方向を基に前記ドアの取っ手を移動するように前記把持手段を制御する、ことを特徴とする請求項4記載のロボット。 - 前記推定手段は、前記認識手段で認識した取っ手の形状に応じたラッチ解錠優先探索方向候補、ドア開閉優先探索方向候補を決定し、
前記制御手段は、前記推定手段で決定した前記ラッチ解錠優先探索方向候補を基に、前記ドアの取っ手を移動するように前記把持手段を制御し、前記ドアの取っ手の移動が所定の条件を満足した場合に、前記推定手段で決定した前記ドア開閉優先探索方向候補を基に、前記ドアの取っ手を移動するように前記把持手段を制御し、前記ドアの取っ手の移動が所定の条件を満足した場合に、ドアの開閉を終了する、ことを特徴とする請求項5記載のロボット。 - ドアの取っ手を把持可能なロボットを制御するコンピュータに実行させるプログラムであって、
撮像手段で撮像した前記ドアの取っ手の画像から前記取っ手の形状を認識する認識処理と、
前記認識処理で認識した取っ手の形状に応じた操作で前記ドアの取っ手を把持するように前記ロボットを制御する制御処理と、を前記コンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014016067A JP2015139872A (ja) | 2014-01-30 | 2014-01-30 | 情報処理装置、ロボット及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014016067A JP2015139872A (ja) | 2014-01-30 | 2014-01-30 | 情報処理装置、ロボット及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015139872A true JP2015139872A (ja) | 2015-08-03 |
Family
ID=53770588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014016067A Pending JP2015139872A (ja) | 2014-01-30 | 2014-01-30 | 情報処理装置、ロボット及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015139872A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111216122A (zh) * | 2018-11-27 | 2020-06-02 | 丰田自动车株式会社 | 把持机器人及把持机器人的控制程序 |
-
2014
- 2014-01-30 JP JP2014016067A patent/JP2015139872A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111216122A (zh) * | 2018-11-27 | 2020-06-02 | 丰田自动车株式会社 | 把持机器人及把持机器人的控制程序 |
JP2020082282A (ja) * | 2018-11-27 | 2020-06-04 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
JP7047726B2 (ja) | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
CN111216122B (zh) * | 2018-11-27 | 2022-10-25 | 丰田自动车株式会社 | 把持机器人及把持机器人的控制程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102487493B1 (ko) | 로봇 파지용 심층 기계 학습 방법 및 장치 | |
JP6039434B2 (ja) | ロボットが用いる把持パターンを生成する方法及び計算機プログラム製品 | |
Kruse et al. | A sensor-based dual-arm tele-robotic system | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
US20130245824A1 (en) | Method and system for training a robot using human-assisted task demonstration | |
JP2013144355A5 (ja) | ||
CN112424703A (zh) | 以未知的倾斜执行销孔任务 | |
KR20120027253A (ko) | 물체-학습 로봇 및 방법 | |
US10864633B2 (en) | Automated personalized feedback for interactive learning applications | |
CN106182042B (zh) | 借助相机选择设备或对象 | |
JP2014205209A (ja) | ロボットシステム、及びロボットシステムの制御方法 | |
US20130054030A1 (en) | Object gripping apparatus, object gripping method, and object gripping program | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
JP2015112654A (ja) | 制御装置、ロボット、教示データ生成方法及びロボットシステム | |
JP2014138964A (ja) | ロボットハンドの制御装置及び制御方法 | |
CN113492405B (zh) | 机器人开门方法、装置、存储介质及电子设备 | |
JP6075888B2 (ja) | 画像処理方法、ロボットの制御方法 | |
CN111216122B (zh) | 把持机器人及把持机器人的控制程序 | |
JP2015071207A (ja) | ロボットハンドおよびその制御方法 | |
CN112975952A (zh) | 远程操作***及远程操作方法 | |
Pajarinen et al. | Robotic manipulation in object composition space | |
WO2021117479A1 (ja) | 情報処理装置、方法およびプログラム | |
JP6325507B2 (ja) | 嵌合部品と被嵌合部品とをロボットによって嵌合する方法 | |
JP2015139872A (ja) | 情報処理装置、ロボット及びプログラム | |
JP2015114933A (ja) | 物体認識装置、ロボット及び物体認識方法 |