JP2005121641A - 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム - Google Patents

人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム Download PDF

Info

Publication number
JP2005121641A
JP2005121641A JP2004270092A JP2004270092A JP2005121641A JP 2005121641 A JP2005121641 A JP 2005121641A JP 2004270092 A JP2004270092 A JP 2004270092A JP 2004270092 A JP2004270092 A JP 2004270092A JP 2005121641 A JP2005121641 A JP 2005121641A
Authority
JP
Japan
Prior art keywords
sign
mobile robot
artificial
ceiling
ceiling image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004270092A
Other languages
English (en)
Other versions
JP4533065B2 (ja
Inventor
Sungi Hong
先 基 洪
Seok-Won Bang
錫 元 方
Dong Ryeol Park
東 烈 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2005121641A publication Critical patent/JP2005121641A/ja
Application granted granted Critical
Publication of JP4533065B2 publication Critical patent/JP4533065B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法と、移動ロボットの自己位置及び方位角の推定方法、推定装置及び推定プログラムを提供する。
【解決手段】移動ロボットの自己位置及び方位角の推定装置は、天井映像獲得部と標識検出部と位置及び方位角推定部とを備え、天井映像獲得部は、移動ロボットが走行する場所の天井映像を獲得し、標識検出部は、人工標識の位置を天井映像から検出する。位置及び方位角推定部は、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。人工標識は、第1標識と第2標識とを有し、第2標識は、第1標識と所定距離離隔されている。第1標識及び第2標識は、無反射部分と赤外線反射部分とをそれぞれ有し、赤外線反射部分は赤外線を再帰的に反射する。
【選択図】図2

Description

本発明は、人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムに関する。
移動ロボットと関連して人工標識を利用した自己位置及び方位角の推定方法は、次の4種に分類されうる。第1に、反射体及びビジョンが利用される方法であって、その例が、特許文献1に開示されている。特許文献1の技術では、天井に再帰反射型標識が付着され、AGV(Automatic Guided Vehicle)が廊下などに沿って走行できるように構成されており、廊下の中心を探してロボットの方向及び位置が決定される。第2に、反射体のみ利用されるがビジョンが利用されない方法であって、その例が、特許文献2と特許文献3とに開示されている。第3に、ビジョンが利用され反射体の代わりに特定パターンが利用される方法であって、その例が、特許文献4と特許文献5と特許文献6とに開示されている。ここで、特許文献5の技術では、円が標識と設定され、標識の認識を通じてロボットがローカリゼーション(特に、他の背景と区別される円形のパターン)で円の半径比が利用されてロボットの姿勢及び距離情報が得られる。一方、特許文献6では、2つの標識よりなった基準標識が利用されてロボットの位置が検出され、ラインレーザーが利用されて障害物の形態が認識される。第4に、ビジョンが利用され、反射体の代わりに発光源が利用される方法であって、その例が、特許文献7に開示されている。
米国特許第5,051,906号公報 米国特許第5,812,267号公報 米国特許第5,467,273号公報 米国特許第5,525,883号公報 米国特許第5,911,767号公報 米国特許第6,496,754号公報 米国特許第4,797,557号公報
しかし、従来の方法では、ロボットの位置した全体環境内で全域的な自己位置及び方位角の推定が困難である傾向がある。さらに、照明変化によって自己位置及び方位角の推定性能差が大きくなる傾向があるために、家庭を含む一般的な室内環境に適用され難いおそれがある。
本発明が解決しようとする技術的課題は、暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムを提供することにある。
第1発明に係る人工標識生成方法は、第1ステップと第2ステップとを備える。第1ステップでは、第1標識が形成される。第2ステップでは、第1標識と所定距離離隔されて第2標識が形成される。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線を再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。
この人工標識生成方法では、第1ステップにおいて、第1標識が形成される。第2ステップにおいて、第1標識と所定距離離隔されて第2標識が形成される。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。
したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
第3発明に係る移動ロボットの自己位置及び方位角の推定方法は、第3ステップと第4ステップと第5ステップとを備える。第3ステップでは、移動ロボットが走行する場所の天井映像が獲得される。第4ステップでは、人工標識の位置が天井映像から検出される。第5ステップでは、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角が推定される。人工標識は、第1標識と第2標識とを有する。第2標識は、第1標識と所定距離離隔されて形成されている。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線を再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。
この移動ロボットの自己位置及び方位角の推定方法では、第3ステップにおいて、移動ロボットが走行する場所の天井映像が獲得される。第4ステップにおいて、人工標識の位置が天井映像から検出される。人工標識が、第1標識と第2標識とを有する。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。第5ステップにおいて、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角が推定される。
したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
第10発明に係る移動ロボットの自己位置及び方位角の推定装置は、天井映像獲得部と標識検出部と位置及び方位角推定部とを備える。天井映像獲得部は、移動ロボットが走行する場所の天井映像を獲得する。標識検出部は、人工標識の位置を天井映像から検出する。位置及び方位角推定部は、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。人工標識は、第1標識と第2標識とを有する。第2標識は、第1標識と所定距離離隔されて形成されている。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線を再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。
この移動ロボットの自己位置及び方位角の推定装置では、天井映像獲得部が、移動ロボットが走行する場所の天井映像を獲得する。標識検出部が、天井映像の情報を受け取ることができる。標識検出部が、人工標識の位置を天井映像から検出する。人工標識が、第1標識と第2標識とを有する。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。位置及び方位角推定部が、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。
したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
第1発明に係る人工標識生成方法では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
第3発明に係る移動ロボットの自己位置及び方位角の推定方法では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
第10発明に係る移動ロボットの自己位置及び方位角の推定装置では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。
以下、図面を参照して本発明による望ましい実施形態に対してより詳細に説明する。
図1Aは、本発明で使われる人工標識100の一例を示す図面であって、再帰反射型の第1標識110及び第2標識120よりなる。第1標識110の外側部分111と第2標識120の内側部分123とは、任意の色、例えば黒色で塗布された部分であり無反射部分である。第1標識110の内側部分113と第2標識120の外側部分121とは、赤外線を再帰的に反射する赤外線反射部分である。一実施形態では、人工標識100が、移動ロボットが所定の作業を実行させるために走行する場所における天井の中央部分に位置することが望ましい。また、第1標識110及び第2標識120は、それぞれ、外径が11cm、内径が5cmである。第1標識110と第2標識120との間の距離dは、70cmで構成できるが、必ずしもこれに限定されるものではない。第1標識110及び第2標識120は、所定距離だけ離隔された円形よりなるが、必ずしもこれに限定されるものではない。
図1Aのようなパターンの人工標識100が使用されると、照明の明るい昼の場合、図1Bに示すように、第1標識110の外側部分111と第2標識120の内側部分123と(無反射部分)が、標識として機能する。照明の暗い夜の場合、図1Cに示すように、第1標識110の内側部分113と第2標識120の外側部分121と(赤外線反射部分)が、標識として機能する。
図2は、本発明の一実施形態による移動ロボットのローカリゼーション装置の構成を示したブロック図である。ここで、ローカリゼーション装置は、移動ロボットの自己位置及び方位角を推定するための装置である。図2に示すローカリゼーション装置は、天井映像獲得部210、映像輝度比較部220、映像処理部230、標識検出部240、エンコーダ情報獲得部250、位置及び方位角推定部260、照明制御部270及び走行制御部280を備える。
図2に示す天井映像獲得部210は、例えば広角または超広角カメラ、具体的には、魚眼レンズカメラよりなり、移動ロボットが所定の作業を行うために走行する場所の天井映像を獲得する。ここで、天井映像は、移動ロボットの上部の天井の映像である。
映像輝度比較部220は、天井映像獲得部210が獲得した天井映像の情報を天井映像獲得部210から受け取る。映像輝度比較部220は、天井映像獲得部210が獲得した天井映像の情報に基づいて、天井映像の各ピクセルの輝度を合算した値を全体ピクセル数で割って天井映像の平均輝度(average intensity)を算出し、算出された平均輝度を所定の基準値と比較して、現在の環境が照明の暗い状態であるか否かを判断する。ここで、基準値は、例えば256グレースケールである場合、50と設定される。そして、映像輝度比較部220は、平均輝度が50以上である場合に現在の環境が照明の明るい状態であると判断し、平均輝度が50以下である場合に現在の環境が照明の暗い状態であると判断する。
映像処理部230は、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報と、天井映像の情報とを、映像輝度比較部220から受け取る。映像処理部230は、映像輝度比較部220が判断した結果の情報に基づいて、天井映像の情報を処理する。すなわち、映像処理部230は、現在の環境が照明の明るい状態であると映像輝度比較部220が判断した場合に、天井映像をそのままとする。映像処理部230は、現在の環境が照明の暗い状態であると映像輝度比較部220が判断した場合に、天井映像のコントラストを反転させる。図6Aは、昼(平均輝度が所定値以上である場合)に撮影された人工標識611を含む天井映像を示し、図6Bの左側の図は、夜(平均輝度が所定値以下である場合)に撮影された人工標識613を含む天井映像を示す。これらの天井映像は、天井映像獲得部210(図2参照)が取得した映像である。図6Bの右側の図は、人工標識613を含む天井映像(図6Bの左側の図)を映像処理部230(図2参照)がコントラストを反転させた天井映像を示す。図6Bの左側の図の人工標識613に相当する部分は、図6Bの右側の図において、人工標識615となっている。
次に、映像処理部230では、処理された天井映像に対して、歪曲補償処理及び前処理のうち少なくとも1つが行われる。まず、歪曲補償処理と関連した技術について、”Camera Calibration:Three Dimensional Computer Vision”(Oliver Faugeras,MIT Press,1993)に詳細に記載されている。これについて図7A〜図9Cを参照して説明すれば、次のようである。
図7Aは、歪曲補償処理が行われる前の天井映像を示し、図7Bは、歪曲補償処理が行われた後の天井映像を示す。図7Aの人工標識711に相当する部分は、図7Bにおいて、人工標識715となっている。図7Aの人工標識711において、左側の黒い部分が第1標識110であり、右側の黒い部分が第2標識120である。天井映像獲得部210(図2参照)で使われるカメラのレンズが広角であるほど、図7Aに示すように天井映像の歪曲がひどくなり、天井映像が実際の模様(図7B参照)と異なって獲得されるので、歪曲補償処理が必要である。
図7Aにおいて人工標識711付近を拡大した図を、図8Aに示す。図8Aにおいて、左真ん中辺りの黒い部分が第1標識110であり、上部真ん中辺りの黒い部分が第2標識120である。図8Aにおいて、左下から右上へ向かう方向が、図7Aで左から右へ向かう方向に相当する。
歪曲補償処理の具体的な方法として、図8Aで示したように、映像処理部230により、光学中心点811が抽出され、抽出された光学中心点811を基準として、第1標識110及び第2標識120の上を通るように2つの楕円813が描かれることにより、モデリングが行われる。このような方法によって歪曲補償処理が行われた場合、光学中心点811の抽出に失敗すると、図8Bに示すように、歪曲補償処理が行われた後の天井映像が傾いた映像となる。一方、光学中心点811の抽出が正確に行われると、図8Cに示すように、歪曲補償処理が行われた後の天井映像が傾きのない正常に補償された映像となる。ここで、光学中心点811は、天井のノーマルビューを得るためのものであって、カメラ(図2に示す天井映像獲得部210)に入ってくるあらゆる光が過ぎる点(カメラのレンズの焦点)がカメラの撮像素子に投影された点(光が屈折されずに通過する点)を意味し、カメラを回転させてもその位置が不変である。
次に、モデリングが行われた結果、図9Aに示すように、ピクセルが消えた領域911が発生するが、映像処理部230により、補間法によって消えたピクセルが復元され得る。その補間法では、図9Bに示すように、N.N.(Nearest Neighbor)技法により消えたピクセルと最も近い位置のピクセル値がそのまま使用されてもよいし、図9Cに示すように、補間を必要とするピクセル近くの値が平均して使用されてもよい。
そして、映像処理部230では、歪曲補償処理が行われた天井映像に対して、前処理が行われる。図10で、映像1010は前処理が行われる前の天井映像を示し、映像1030は前処理が行われた後の天井映像を示す。前処理の方法として、映像処理部230(図2参照)により、所定の定数α及びコントラスト特性グラフG1が利用されてコントラスト及び露出の少なくとも一方が調整される。すなわち、天井映像の各画素のデータに定数αが乗算されて露出が調整される。そして、露出が調整された天井映像にコントラスト特性グラフG1が適用されて、暗い部分はそのままにされるかさらに暗くされ、明るい部分は極めて明るくコントラストが調整される。これにより、特定画素領域、すなわち人工標識100の第1標識110及び第2標識120を構成する画素領域の分解能は高まる一方、他の画素領域の分解能は相対的に低くなる。このような前処理の結果、人工標識100の輝度の大きさが周囲の背景と大きく差をつけられて、以後の標識検出などのような映像処理が容易になる。
図2に示す標識検出部240は、映像処理部230で歪曲補償処理及び前処理が行われた天井映像の情報を、映像処理部230から受け取る。標識検出部240は、映像処理部230で歪曲補償処理及び前処理が行われた天井映像から標識候補点を検出する。標識検出部240は、標識候補点に対してフィルタリングを行って、人工標識100の位置を検出する。
エンコーダ情報獲得部250は、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)などから、移動ロボットの位置及び方位角に関する情報を獲得する。
位置及び方位角推定部260は、人工標識100の位置の情報を標識検出部240から受け取る。位置及び方位角推定部260は、移動ロボットの位置及び方位角に関する情報をエンコーダ情報獲得部250から受け取る。位置及び方位角推定部260は、人工標識100の位置の情報と移動ロボットの位置及び方位角に関する情報とのいずれかに基づいて、移動ロボットの位置及び方位角を推定する。すなわち、標識検出部240が人工標識100の位置検出に成功した場合には、位置及び方位角推定部260が人工標識100の位置の情報に基づいて移動ロボットの位置及び方位角を推定する。標識検出部240が人工標識100の位置の検出に失敗した場合には、位置及び方位角推定部260が移動ロボットの位置及び方位角に関する情報に基づいて移動ロボットの位置及び方位角を推定する。
照明制御部270は、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報を、映像輝度比較部220から受け取る。照明制御部270は、現在の環境が照明の暗い状態であると映像輝度比較部220が判断した場合に、移動ロボット上に付着されている照明(図示せず)をターンオンにするか、さらに明るくする。照明制御部270は、現在の環境が照明の明るい状態であると映像輝度比較部220が判断した場合に、移動ロボット上に付着された照明をさらに暗くするか、ターンオフにする。
走行制御部280は、移動ロボットの位置及び方位角の情報を位置及び方位角推定部260から受け取る。走行制御部280は、移動ロボットの位置及び方位角の情報に基づいて、あらかじめ設定あるいは計画された経路に沿って走行するように移動ロボットを制御する。
図3は、本発明の一実施形態による移動ロボットの位置及び方位角の推定方法を説明するフローチャートである。
図3に示すように、ステップ310では、広角または超広角カメラ(天井映像獲得部210)により、移動ロボットが走行する場所の天井映像が獲得される。
ステップ320では、現在の環境の照明の状態が判断される。すなわち、ステップ321では、映像輝度比較部220により、天井映像獲得部210により獲得された天井映像の情報が天井映像獲得部210から受け取られる。映像輝度比較部220により、ステップ310で獲得された天井映像の平均輝度が算出される。ステップ322では、映像輝度比較部220により、算出された平均輝度が所定の基準値と比較されて、比較された結果に基づいて、現在の環境が照明の暗い状態であるか否かが判断される。すなわち、平均輝度が基準値(例えば、50)以上である場合には現在の環境が照明の明るい状態であると判断され、平均輝度が基準値(例えば、50)以下である場合には現在の環境が照明の暗い状態であると判断される。現在の環境が照明の暗い状態であると判断された場合、ステップ323へ進められ、現在の環境が照明の暗い状態であると判断された場合、ステップ331へ進められる。ステップ323では、映像処理部230により、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報と、天井映像の情報とが、映像輝度比較部220から受け取られる。映像処理部230により、天井映像のコントラストが反転される。
ステップ330では、天井映像から人工標識が検出される。すなわち、ステップ331では、映像処理部230により、あらかじめ保存されている関心領域(図7Aに示す人工標識711参照)が存在するか否かが判断される。関心領域が存在しないと判断された場合、ステップ332へ進められ、関心領域が存在すると判断された場合、ステップ333へ進められる。ステップ332では、関心領域が天井映像の全体の領域に設定される。ステップ333では、天井映像の全体の領域(関心領域)に対して人工標識が検出される。
ステップ340では、ステップ330で検出された人工標識100の情報に基づいて、移動ロボットの位置及び方位角が推定される。すなわち、ステップ341では、標識検出部240による人工標識100の検出が成功であるか否かが判断される。標識検出部240による人工標識の検出が失敗であると判断された場合、ステップS342へ進められ、標識検出部240による人工標識の検出が成功であると判断された場合、ステップS343へ進められる。ステップ342では、エンコーダ情報獲得部250により、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)などから、移動ロボットの位置及び方位角に関する情報が獲得される。位置及び方位角推定部260により、移動ロボットの位置及び方位角に関する情報がエンコーダ情報獲得部250から受け取られる。位置及び方位角推定部260により、移動ロボットの位置及び方位角に関する情報に基づいて移動ロボットの位置及び方位角が推定される。ステップ343では、位置及び方位角推定部260により、人工標識100の位置の情報に基づいて、移動ロボットの位置及び方位角が推定される。
ステップ343で人工標識100の位置の情報に基づいて移動ロボットの位置及び方位角が推定される方法について、図11A及び図11Bを参照して説明する。
図11Aにおけるdは、第1標識110と第2標識120との間の天井映像上の距離を示す。θは、人工標識100の中心点Lc(第1標識110と第2標識120とを結ぶ線分の中点)をx軸(図面上において左から右へ向かう軸)上に延長した線と第1標識110と第2標識120とを結ぶ線との間の角度であり、人工標識100のx軸に対する傾斜角を示す。Rpは、移動ロボットの現在の位置を天井に投影した位置である投影位置を示す。
図11Bに示すように、人工標識100の位置と移動ロボットの投影位置(Rp)とに対してシフト過程、ローテーション過程、及びフリップ過程が行われることにより、移動ロボットの位置及び方位角が推定される。ここで、シフト過程は、座標空間における原点がシフトされる過程である。ローテーション過程は、座標空間が原点を中心として回転される過程である。フリップ過程は、座標空間における点(移動ロボットの位置)がy軸(図面上で上から下へ向かう軸)に対して対象に移動される過程である。すなわち、移動ロボットの位置及び方位角は、次の数式1のように推定されうる。
Figure 2005121641


ここで、
Figure 2005121641

は、図11Bの左下の図で左から右へ向かう軸をx軸とし上から下へ向かう軸をy軸とした座標空間における移動ロボットの投影位置Ppの座標を表わし、
Figure 2005121641

は、図11Bの左上の図(カメライメージすなわち天井映像)で左から右へ向かう軸をx軸とし上から下へ向かう軸をy軸とした座標空間における移動ロボットの投影位置Ppの座標を表わす。
式(1)における各変換関数Hshift、Hrotation、Hflip、Hscaleは、次の式(2)のように表せる。
Figure 2005121641


ここで、(t,t)は人工標識100の中心点Lcの座標を表す。θは、人工標識100のx軸に対する傾斜角を表す。sは、第1標識110と第2標識120との実際の物理的な距離を、第1標識110と第2標識120との天井映像上の距離dで割った値を表す。
図3に示すステップ344では、走行制御部280により、移動ロボットの位置及び方位角の情報が位置及び方位角推定部260から受け取られる。走行制御部280により、ステップ342またはステップ343で計算された移動ロボットの位置及び方位角の情報に基づいて、あらかじめ設定あるいは計画された経路に沿って走行するように移動ロボットが制御される。
図4は、図3におけるステップ333の細部的な動作を説明するフローチャートである。
図4に示すステップ411では、映像処理部230により、処理された天井映像に対して、図7A〜図9Cを通じて説明したような歪曲補償処理が行われる。ステップ412では、映像処理部230により、ステップ411で歪曲補償処理が行われた天井映像に対して、図10を通じて説明したような前処理過程が行われる。
ステップ413では、標識検出部240により、映像処理部230で歪曲補償処理及び前処理が行われた天井映像の情報が、映像処理部230から受け取られる。標識検出部240により、ステップ412で前処理過程が行われた天井映像の各ピクセルの輝度が所定の基準値と比較される。各ピクセルは、輝度が基準値より大きい場合に1とされ、輝度が基準値より小さな場合に0とされることにより、二進化される。ステップ414では、標識検出部240により、二進化が行われた天井映像に対して輪郭線の整合が行われる。このような輪郭線整合、すなわち人工標識で分離された領域の輪郭線が検出されて既に保存された人工標識と比較される輪郭線整合に関しては、”Visual Pattern Recognition by Moment Invariants”(M.Hu. IRE Transactions on Information Theory,8:2,pp.179〜187,1962)に詳細に記載されている。
ステップ415では、標識検出部240により、人工標識100の幾何学的情報(例えば、第1標識110と第2標識120と間の距離)に基づいて、天井映像から候補領域が抽出される。ステップ416では、標識検出部240により、各候補領域に対してテンプレートマッチングが行われて各候補領域に対する信頼値が算出される。正規化された相関関係を利用したテンプレートマッチングに関しては”Digital Image Processing”(Rafael C.Gonzalez,Richard E.Woods,pp.583〜586,1992)に詳細に記載されている。テンプレートマッチングで算出される信頼値r(s,t)は次の式(3)のように定義されうる。
Figure 2005121641


ここで、fは、入力される候補領域を表す。
Figure 2005121641

は、人工標識100の現在位置と一致する領域で候補領域f(x,y)に含まれたピクセルの平均値を表す。wは、人工標識100のイメージ、すなわちテンプレート映像を表す。
Figure 2005121641

は、人工標識w(x,y)のイメージに含まれたピクセルの平均値を表す。
ステップ417では、標識検出部240により、ステップ416でテンプレートマッチングが行われて算出される各候補領域の信頼値のうち最も大きい信頼値を有する候補領域が選択される。ステップ418では、標識検出部240により、ステップ417で選択された候補領域の信頼値が所定の基準値と比較され、選択された候補領域の信頼値が所定の基準値よりも大きいか否かが判断される。選択された候補領域の信頼値が所定の基準値より大きいと判断された場合、ステップ419へ進められ、選択された候補領域の信頼値が所定の基準値より大きくないと判断された場合、ステップ420へ進められる。ステップ419では、標識検出部240による人工標識100の検出が成功であるとされる。ステップ420では、標識検出部240による人工標識100の検出が失敗であるとされる。
図5は、図3に示すステップ342の細部的な動作を説明するフローチャートである。
図5に示すように、ステップ511では、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)により移動ロボットの現在の位置(x,y)及び方位角θが取得され、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報がエンコーダ情報獲得部250に入力される。ステップ513では、移動ロボットの左右輪に付着されたエンコーダセンサー(図示せず)から出力されるパルスの数(N,N)がエンコーダ情報獲得部250に入力される。すなわち、エンコーダ情報獲得部250により、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報とエンコーダセンサー(図示せず)から出力されるパルスの数(N,N)の情報とが、移動ロボットの位置及び方位角に関する情報として獲得される。
ステップ515では、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報とエンコーダセンサー(図示せず)から出力されるパルスの数(N,N)の情報とに基づいて、移動ロボットの位置及び方位角の値が更新される。具体的には、まず次の式(4)を利用して、エンコーダセンサー(図示せず)から出力されるパルスの数(N,N)が実際の輪の動きの距離に変換されるための定数値cが算出される。
Figure 2005121641

式(4)においてDは、輪の直径を表す。Cは、エンコーダセンサー(図示せず)の解像度、すなわちエンコーダセンサー(図示せず)から1回転当たり出力されるパルスの数を表す。nは、エンコーダセンサー(図示せず)が装着されたモーターと輪との間のギア比を表す。
次に、式(5)を利用して、エンコーダセンサー(図示せず)から出力されるパルスの数だけ実際に動いた各左右の輪の走行距離
Figure 2005121641

を算出する。
Figure 2005121641

式(5)において、
Figure 2005121641

は、i時点において、エンコーダセンサー(図示せず)から出力されるパルスの数を表す。
一方、輪の中心の平均移動距離変位
Figure 2005121641

と変換された方位角変位
Figure 2005121641

とを、それぞれ次の式(6)及び式(7)を利用して推定できる。
Figure 2005121641
Figure 2005121641

式(7)において、bは左右の輪の間の距離を表す。
最終的に、移動ロボットのi時点における位置及び方位角の更新は、式(8)を利用して行われる。
Figure 2005121641

また、本発明はコンピュータ可読記録媒体にコンピュータ可読なコードとして具現可能である。コンピュータ可読な記録媒体は、コンピュータシステムによって可読なデータが保存される全種の記録装置を含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ保存装置などがあり、また、キャリアウェーブ(例えば、インターネットを通じた伝送)の形態で具現されるものも含む。また、コンピュータ可読記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータ可読なコードが保存されて実行されうる。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは本発明の属する技術分野のプログラマーにより容易に推論されうる。
以上より、天井映像獲得部210が、移動ロボットが走行する場所の天井映像を獲得する。標識検出部240が、天井映像の情報を受け取る。標識検出部240が、人工標識100の位置を天井映像から検出する。人工標識100が、第1標識110と第2標識120とを有する。第1標識110が、無反射部分113と赤外線反射部分111とを有する。第2標識120が、無反射部分121と赤外線反射部分123とを有する。赤外線反射部分111と赤外線反射部分123とが区別可能なように形成されているので(図1A〜図1C参照)、現在の環境が照明の暗い状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。また、無反射部分113と無反射部分121とが区別可能なように形成されているので(図1A〜図1C参照)、現在の環境が照明の明るい状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。位置及び方位角推定部260が、人工標識100の位置の情報及びエンコーダセンサー(図示せず)により取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。
したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することが可能である。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することが可能である。
また、本発明によれば、暗い照明や照明変化の激しい環境でも雑音の少ない映像処理過程を通じてリアルタイムでロボットの自己位置及び方位角を推定することが可能であるので、ロボットのキッドナッピング問題を解決することが可能である。また、移動ロボットが走行する場所の天井部分に少数の人工標識を設置し、パターン認識技法を利用して人工標識を検出することによって標識検出のための映像処理過程を簡素化することが可能である。
以上、図面と明細書で最適な実施形態が開示された。ここで、特定の用語が使われたが、これは単に本発明を説明するための目的で使われたものであり、意味限定や特許請求の範囲に記載された本発明の範囲を制限するために使われたものではない。したがって、本技術分野の当業者であれば、これより多様な変形及び均等な他の実施形態が可能である点が理解できる。したがって、本発明の真の技術的保護範囲は特許請求の範囲の技術的思想により定められねばならない。
本発明は、無人航空機、無人車両、モバイルロボット、知能型交通システム及び知能的車両システムなどのような知能型システム、あるいは自動化システムに広く適用されて、照明変化に関係なく人工マークが検出できるので、正確に自己位置及び方位角が推定できる。
本発明に係る人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムは、暗い照明や照明変化の激しい環境でも自己位置及び方位角を推定することができるという効果を有し、工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム等として有用である。
本発明で使われる人工標識の一例を示す図面である。 本発明で使われる人工標識の一例を示す図面である。 本発明で使われる人工標識の一例を示す図面である。 本発明の一実施形態による移動ロボットの自己位置及び方位角の推定装置の構成を示したブロック図である。 本発明の一実施形態による移動ロボットの自己位置及び方位角の推定方法を説明するフローチャートである。 図3におけるステップ333の細部的な動作を説明するフローチャートである。 図3におけるステップ342の細部的な動作を説明するフローチャートである。 昼に撮影された天井映像を示す図面である。 夜に撮影された天井映像と、夜に撮影された天井映像のコントラストが反転された映像とを示す図面である。 歪曲補償処理の実行前の天井映像を示す図面である。 歪曲補償処理の実行後の天井映像を示す図面である。 歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行前の天井映像を示す図面である。 歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行後の天井映像を示す図面である。 歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行後の天井映像を示す図面である。 歪曲補償処理方法のうち補間過程の実行前の天井映像を示す図面である。 歪曲補償処理方法のうち補間過程の実行後の天井映像を示す図面である。 歪曲補償処理方法のうち補間過程の実行後の天井映像を示す図面である。 前処理の実行前後の天井映像を示す図面である。 検出された人工標識の位置から移動ロボットの位置を計算する方法を説明する図面である。 検出された人工標識の位置から移動ロボットの位置を計算する方法を説明する図面である。
符号の説明
210 天井映像獲得部
220 映像輝度比較部
230 映像処理部
240 標識検出部
250 エンコーダ情報獲得部
260 位置及び方位角推定部
270 照明制御部
280 走行制御部





Claims (20)

  1. 第1標識が形成される第1ステップと、
    前記第1標識と所定距離離隔されて第2標識が形成される第2ステップと、
    を備え、
    前記第1標識は、
    第1無反射部分と、
    赤外線を再帰的に反射する第1赤外線反射部分と、
    を有し、
    前記第2標識は、
    第2無反射部分と、
    赤外線を再帰的に反射する第2赤外線反射部分と、
    を有する、
    人工標識生成方法。
  2. 前記第1無反射部分は、前記第1標識の外側部分であり、
    前記第2無反射部分は、前記第2標識の内側部分であり、
    前記第1赤外線反射部分は、前記第1標識の内側部分であり、
    前記第2赤外線反射部分は、前記第2標識の外側部分である、
    請求項1に記載の人工標識生成方法。
  3. 移動ロボットが走行する場所の天井映像が獲得される第3ステップと、
    人工標識の位置が前記天井映像から検出される第4ステップと、
    前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角が推定される第5ステップと、
    を備え、
    前記人工標識は、
    第1標識と、
    前記第1標識と所定距離離隔されて形成されている第2標識と、
    を有し、
    前記第1標識は、
    第1無反射部分と、
    赤外線を再帰的に反射する第1赤外線反射部分と、
    を含み、
    前記第2標識は、
    第2無反射部分と、
    赤外線を再帰的に反射する第2赤外線反射部分と、
    を含む、
    移動ロボットの自己位置及び方位角の推定方法。
  4. 前記第1無反射部分は、前記第1標識の外側部分であり、
    前記第2無反射部分は、前記第2標識の内側部分であり、
    前記第1赤外線反射部分は、前記第1標識の内側部分であり、
    前記第2赤外線反射部分は、前記第2標識の外側部分である、
    請求項3に記載の移動ロボットの自己位置及び方位角の推定方法。
  5. 前記第3ステップで獲得された前記天井映像から現在の環境が判別され、判別された環境に基づいて、所定の映像処理が行われる第6ステップをさらに備えた、
    請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。
  6. 前記第6ステップは、
    前記第3ステップで獲得された前記天井映像の平均輝度が算出される第61ステップと、
    前記第61ステップで算出された平均輝度が所定の基準値と比較されて、現在の環境が照明の明るい状態であるか否かが判断される第62ステップと、
    現在の環境が照明の明るい状態であると判断された場合、前記天井映像に対して歪曲補償処理及び前処理のうち少なくとも一方が行われる第63ステップと、
    現在の環境が照明の暗い状態であると判断された場合、前記天井映像のコントラストが反転された後、前記所定の映像処理が行われる第64ステップと、
    を有する、
    請求項5に記載の移動ロボットの自己位置及び方位角の推定方法。
  7. 前記第4ステップは、
    前記天井映像に対して前記人工標識との輪郭線の整合が実行された結果と前記人工標識の幾何学的情報とに基づいて、前記天井映像に対して少なくとも1つ以上の候補領域が抽出される第41ステップと、
    前記第41ステップで検出された各候補領域に対してテンプレートマッチングが行われ、テンプレートマッチングにより最も大きい信頼値を有するとされた候補領域が選択されて、選択された前記候補領域の信頼値が所定の基準値と比較される第42ステップと、
    前記第42ステップで比較された結果、選択された前記候補領域の前記信頼値が前記所定の基準値より大きいと判断された場合に人工標識の検出に成功したとされ、選択された前記候補領域の前記信頼値が前記所定の基準値より小さいと判断された場合に人工標識の検出に失敗したと判断される第43ステップと、
    を有する、
    請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。
  8. 前記第41ステップでは、歪曲補償処理、前処理及び二進化処理のうち少なくとも1つが前記天井映像に対して順次に行われた後に、前記天井映像に対して前記人工標識との輪郭線の整合が実行された結果と前記人工標識の幾何学的情報とに基づいて、前記天井映像に対して少なくとも1つ以上の候補領域が抽出される、
    請求項7に記載の移動ロボットの自己位置及び方位角の推定方法。
  9. 前記第5ステップでは、前記人工標識の位置の情報に基づいて、シフト過程、ローテーション過程及びフリップ過程が順次に行われることにより、前記移動ロボットの位置及び方位角が推定される、
    請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。
  10. 移動ロボットが走行する場所の天井映像を獲得する天井映像獲得部と、
    人工標識の位置を前記天井映像から検出する標識検出部と、
    前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角を推定する位置及び方位角推定部と、
    を備え、
    前記人工標識は、
    第1標識と、
    前記第1標識と所定距離離隔されて形成されている第2標識と、
    を有し、
    前記第1標識は、
    第1無反射部分と、
    赤外線を再帰的に反射する第1赤外線反射部分と、
    を含み、
    前記第2標識は、
    第2無反射部分と、
    赤外線を再帰的に反射する第2赤外線反射部分と、
    を含む、
    移動ロボットの自己位置及び方位角の推定装置。
  11. 前記第1無反射部分は、前記第1標識の外側部分であり、
    前記第2無反射部分は、前記第2標識の内側部分であり、
    前記第1赤外線反射部分は、前記第1標識の内側部分であり、
    前記第2赤外線反射部分は、前記第2標識の外側部分である、
    請求項10に記載の移動ロボットの自己位置及び方位角の推定装置。
  12. 前記天井映像獲得部が獲得した前記天井映像から現在の環境を判別し、判別された環境に基づいて、所定の映像処理を行う映像処理部をさらに備えた、
    請求項10または11に記載の移動ロボットの自己位置及び方位角の推定装置。
  13. 前記映像処理部は、前記天井映像獲得部が獲得した前記天井映像の平均輝度を所定の基準値と比較し、現在の環境が照明の暗い状態であると判断した場合、前記天井映像のコントラストを反転させた後、前記所定の映像処理を行う、
    請求項12に記載の移動ロボットの自己位置及び方位角の推定装置。
  14. 前記標識検出部は、前記天井映像に対して少なくとも1つ以上の候補領域を抽出し、抽出された各前記候補領域に対してテンプレートマッチングが実行された結果、最も大きい信頼値を有するとされた前記候補領域を選択して、選択された前記候補領域の前記信頼値を所定の基準値と比較し、比較した結果に基づいて、人工標識の検出が成功であるか否かを判断する、
    請求項10または請求項11に記載の移動ロボットの自己位置及び方位角の推定装置。
  15. 走行する場所の天井映像を獲得する天井映像獲得部と、
    前記天井映像の平均輝度を算出し、算出された前記平均輝度を所定の基準値と比較して、現在の環境が照明の明るい状態であるか否かを判断する映像輝度比較部と、
    前記映像輝度比較部が判断した結果に基づいて、付着された照明装置を制御する照明制御部と、
    人工標識の位置を前記天井映像から検出する標識検出部と、
    前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角を推定する位置及び方位角推定部と、
    前記位置及び方位角推定部で推定された位置及び方位角に基づいて、前記移動ロボットの走行を制御する走行制御部と、
    を備え、
    前記人工標識は、
    第1標識と、
    前記第1標識と所定距離離隔されて形成されている第2標識と、
    を有し、
    前記第1標識は、
    第1無反射部分と、
    赤外線を再帰的に反射する第1赤外線反射部分と、
    を含み、
    前記第2標識は、
    第2無反射部分と、
    赤外線を再帰的に反射する第2赤外線反射部分と、
    を含む、
    移動ロボット。
  16. 前記第1無反射部分は、前記第1標識の外側部分であり、
    前記第2無反射部分は、前記第2標識の内側部分であり、
    前記第1赤外線反射部分は、前記第1標識の内側部分であり、
    前記第2赤外線反射部分は、前記第2標識の外側部分である、
    請求項15に記載の移動ロボット。
  17. 前記天井映像獲得部が獲得した前記天井映像から現在の環境を判別し、判別された環境に基づいて、所定の映像処理を行う映像処理部をさらに備えた、
    請求項15または16に記載の移動ロボット。
  18. 前記映像処理部は、前記天井映像獲得部が獲得した前記天井映像の平均輝度を所定の基準値と比較し、現在の環境が照明の暗い状態であると判断された場合、前記天井映像のコントラストを反転させた後、前記所定の映像処理を行う、
    請求項17に記載の移動ロボット。
  19. 前記標識検出部は、前記天井映像に対して少なくとも1つ以上の候補領域を抽出し、抽出された各前記候補領域に対してテンプレートマッチングが実行された結果、最も大きい信頼値を有するとされた前記候補領域を選択して、選択された前記候補領域の前記信頼値を所定の基準値と比較し、比較した結果に基づいて、人工標識の検出が成功であるか否かを判断する、
    請求項15または16に記載の移動ロボット。
  20. 移動ロボットの自己位置及び方位角をコンピュータに推定させるための推定プログラムであって、
    前記移動ロボットが走行する場所の天井映像が獲得される第3ステップと、
    人工標識の位置が前記天井映像から検出される第4ステップと、
    前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角が推定される第5ステップと、
    を備え、
    前記人工標識は、
    第1標識と、
    前記第1標識と所定距離離隔されて形成されている第2標識と、
    を有し、
    前記第1標識は、
    第1無反射部分と、
    赤外線を再帰的に反射する第1赤外線反射部分と、
    を含み、
    前記第2標識は、
    第2無反射部分と、
    赤外線を再帰的に反射する第2赤外線反射部分と、
    を含む、
    推定プログラム。
JP2004270092A 2003-09-16 2004-09-16 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム Expired - Fee Related JP4533065B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030064242A KR100552691B1 (ko) 2003-09-16 2003-09-16 이동로봇의 자기위치 및 방위각 추정방법 및 장치

Publications (2)

Publication Number Publication Date
JP2005121641A true JP2005121641A (ja) 2005-05-12
JP4533065B2 JP4533065B2 (ja) 2010-08-25

Family

ID=34192235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004270092A Expired - Fee Related JP4533065B2 (ja) 2003-09-16 2004-09-16 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム

Country Status (5)

Country Link
US (1) US7765027B2 (ja)
EP (1) EP1517210B1 (ja)
JP (1) JP4533065B2 (ja)
KR (1) KR100552691B1 (ja)
CN (1) CN1598610B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007192832A (ja) * 2007-03-06 2007-08-02 Iwate Univ 魚眼カメラの校正方法。
JP2007257226A (ja) * 2006-03-23 2007-10-04 Honda Motor Co Ltd 移動体の自己位置検出装置および位置検出システム
JP2009512088A (ja) * 2005-10-31 2009-03-19 韓國電子通信研究院 リアルタイムに位置を算出するためのシステムおよび方法
JP2009522563A (ja) * 2006-01-05 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション モバイル機器追跡
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
JP2009544966A (ja) * 2006-07-27 2009-12-17 韓國電子通信研究院 人工標識とオデメトリとの連動を利用する位置算出システム及び方法
JP2017531259A (ja) * 2014-10-31 2017-10-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 位置に基づく制御方法、装置、移動可能な機器及びロボット
JP2020030639A (ja) * 2018-08-23 2020-02-27 三菱ロジスネクスト株式会社 無人搬送システム

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100569181B1 (ko) * 2004-01-06 2006-04-07 김진오 실내 항법을 위한 좌표확인 시스템
TW200736870A (en) * 2005-11-04 2007-10-01 Murata Machinery Ltd Control device for movable body
JP4438736B2 (ja) * 2005-11-04 2010-03-24 村田機械株式会社 搬送装置
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
KR100773271B1 (ko) * 2006-10-25 2007-11-05 전자부품연구원 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
JP5043133B2 (ja) * 2007-03-13 2012-10-10 リサーチ インスティチュート オブ インダストリアル サイエンス アンド テクノロジー 移動ロボットの位置認識用ランドマーク、並びにこれを利用した位置認識装置及び方法
KR100960650B1 (ko) 2007-04-03 2010-06-07 엘지전자 주식회사 이동로봇 및 그 동작방법
KR100922494B1 (ko) * 2007-07-19 2009-10-20 삼성전자주식회사 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치
KR101337534B1 (ko) * 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR20090066776A (ko) * 2007-12-20 2009-06-24 한국전자통신연구원 로봇 위치 추정을 위한 위치결정서비스 프레임 워크 장치및 그 방법
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
EP3239919A1 (en) 2008-03-05 2017-11-01 eBay Inc. Method and apparatus for image recognition services
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
KR101503904B1 (ko) * 2008-07-07 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
KR101037971B1 (ko) 2009-06-22 2011-05-30 (주)로봇에버 영상기반 위치인식 방법 및 시스템
EP2460629B1 (en) * 2009-07-28 2022-06-29 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using same
US9164577B2 (en) * 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US10127606B2 (en) 2010-10-13 2018-11-13 Ebay Inc. Augmented reality system and method for visualizing an item
KR101906329B1 (ko) * 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법
US8737685B2 (en) 2011-04-25 2014-05-27 Honeywell International Inc. Systems and methods for detecting the movement of an object
US8908923B2 (en) * 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification
US20150153181A1 (en) * 2011-07-27 2015-06-04 Google Inc. System and method for providing indoor navigation services
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
JP5601332B2 (ja) * 2012-02-08 2014-10-08 村田機械株式会社 搬送車
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
CN103970133A (zh) * 2013-01-31 2014-08-06 鸿富锦精密工业(武汉)有限公司 利用图像分析技术实现物体移动的方法及***
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
CN103728589B (zh) * 2014-01-09 2016-05-11 上海京颐科技股份有限公司 一种室内定位方法
US10708550B2 (en) 2014-04-08 2020-07-07 Udisense Inc. Monitoring camera and mount
JP6539958B2 (ja) 2014-08-28 2019-07-10 村田機械株式会社 搬送車
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
CN104950892B (zh) * 2015-06-29 2017-10-31 厦门狄耐克物联智慧科技有限公司 一种机器人的行走控制***及方法
USD854074S1 (en) 2016-05-10 2019-07-16 Udisense Inc. Wall-assisted floor-mount for a monitoring camera
CN106370188A (zh) * 2016-09-21 2017-02-01 旗瀚科技有限公司 一种基于3d摄像机的机器人室内定位与导航方法
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
EP3519937A4 (en) 2016-09-30 2020-04-29 Staples, Inc. HYBRID MODULAR MEMORY ACCESS SYSTEM
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CN106527434A (zh) * 2016-11-07 2017-03-22 北京京东尚科信息技术有限公司 自动传送***及方法
EP3421936A1 (en) 2017-06-30 2019-01-02 Panasonic Automotive & Industrial Systems Europe GmbH Optical marker element for geo location information
USD855684S1 (en) 2017-08-06 2019-08-06 Udisense Inc. Wall mount for a monitoring camera
CN107843251B (zh) * 2017-10-18 2020-01-31 广东宝乐机器人股份有限公司 移动机器人的位姿估计方法
WO2019104108A1 (en) 2017-11-22 2019-05-31 Udisense Inc. Respiration monitor
KR102024094B1 (ko) 2017-12-21 2019-09-23 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 그 제어방법
CN108181610B (zh) * 2017-12-22 2021-11-19 鲁东大学 室内机器人定位方法和***
CN110733033B (zh) 2018-07-19 2023-03-24 科沃斯机器人股份有限公司 机器人控制方法、机器人及存储介质
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
EP3876806B1 (en) 2018-12-03 2023-03-08 SharkNinja Operating LLC Optical indicium for communicating information to autonomous devices
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
USD900428S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band
USD900430S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket
USD900431S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket with decorative pattern
USD900429S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band with decorative pattern
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
WO2020257948A1 (en) * 2019-06-28 2020-12-30 Advanced Intelligent Systems Inc. System and method for optical localization
CN110530399B (zh) * 2019-09-06 2023-03-24 苏州寻迹智行机器人技术有限公司 双轮差速移动机器人里程计标定的轮间距修正方法
CN110597266A (zh) * 2019-09-26 2019-12-20 青岛蚂蚁机器人有限责任公司 基于二维码的机器人路径动态规划方法
CN113110408B (zh) * 2019-12-25 2023-09-29 北京极智嘉科技股份有限公司 机器人定位***及方法、机器人、计算机可读存储介质
CN112880689A (zh) * 2021-01-29 2021-06-01 北京百度网讯科技有限公司 一种领位方法、装置、电子设备及存储介质
CN113075647A (zh) * 2021-02-20 2021-07-06 上海擎朗智能科技有限公司 机器人定位方法、装置、设备和介质
CN114355933A (zh) * 2021-12-31 2022-04-15 山东新一代信息产业技术研究院有限公司 机器人对接充电桩的运动控制方法
KR20240051654A (ko) 2022-10-13 2024-04-22 장영익 고압가스를 이용한 감압 밸브

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01274214A (ja) * 1988-04-26 1989-11-02 Mazda Motor Corp 移動車の画像処理装置
JPH0441613U (ja) * 1990-08-08 1992-04-08
JP2000111344A (ja) * 1998-10-08 2000-04-18 Asahi Optical Co Ltd 写真測量用ターゲット
US20020091466A1 (en) * 2000-11-17 2002-07-11 Jeong-Gon Song Mobile robot and course adjusting method thereof

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2018422B (en) * 1978-03-29 1983-01-19 Hitachi Ltd Mark detecting system
GB8313339D0 (en) * 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle guidance
US4817000A (en) * 1986-03-10 1989-03-28 Si Handling Systems, Inc. Automatic guided vehicle system
US5208750A (en) * 1987-06-17 1993-05-04 Nissan Motor Co., Ltd. Control system for unmanned automotive vehicle
US4947094A (en) * 1987-07-23 1990-08-07 Battelle Memorial Institute Optical guidance system for industrial vehicles
US4790402A (en) * 1987-09-28 1988-12-13 Tennant Company Automated guided vehicle
US4996468A (en) * 1987-09-28 1991-02-26 Tennant Company Automated guided vehicle
US4846297A (en) * 1987-09-28 1989-07-11 Tennant Company Automated guided vehicle
ATE148659T1 (de) 1988-05-09 1997-02-15 Int Paper Co Sauerstoffundurchlässiger leckagefreier behälter
US5040116A (en) * 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5187662A (en) * 1990-01-24 1993-02-16 Honda Giken Kogyo Kabushiki Kaisha Steering control system for moving vehicle
JPH0684522B2 (ja) 1990-06-05 1994-10-26 ハリマセラミック株式会社 真空脱ガス装置スノーケル部の補修方法
DE4023952A1 (de) * 1990-07-27 1992-02-06 Bayerische Motoren Werke Ag Bildverarbeitungsverfahren und bildverarbeitungssystem fuer fahrzeuge, insbesondere fuer kraftfahrzeuge
US5390118A (en) * 1990-10-03 1995-02-14 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
EP0479271B1 (en) * 1990-10-03 1998-09-09 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
JPH064127A (ja) 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
US5567919A (en) 1993-12-22 1996-10-22 Combustion Engineering, Inc. Gravimetric feeding system for boiler fuel and sorbent
US5530330A (en) * 1994-03-30 1996-06-25 Inco Limited Automated guidance system for a vehicle
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH08313215A (ja) * 1995-05-23 1996-11-29 Olympus Optical Co Ltd 2次元距離センサ
US5675489A (en) * 1995-07-06 1997-10-07 Carnegie Mellon University System and method for estimating lateral position
US5875408A (en) * 1995-07-17 1999-02-23 Imra America, Inc. Automated vehicle guidance system and method for automatically guiding a vehicle
KR19980042190A (ko) * 1996-11-07 1998-08-17 요시다쇼이치로 위치검출용 마크, 마크 검출방법 및 그 장치, 및 노광장치
US6163745A (en) * 1997-04-15 2000-12-19 Ainsworth Inc. Guidance system for automated vehicles, and guidance strip for use therewith
US6194486B1 (en) * 1997-05-28 2001-02-27 Trw Inc. Enhanced paint for microwave/millimeter wave radiometric detection applications and method of road marker detection
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
RU2220643C2 (ru) * 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
US6577764B2 (en) * 2001-08-01 2003-06-10 Teranex, Inc. Method for measuring and analyzing digital video quality
US6807478B2 (en) * 2001-12-27 2004-10-19 Koninklijke Philips Electronics N.V. In-building navigation system
EP1502896A4 (en) * 2002-01-23 2009-11-18 Toyota Jidoshokki Kk POSITION CONTROL DEVICE AND POSITION CONTROL PROCESS FOR LOADING DEVICE IN INDUSTRIAL VEHICLE
KR100483548B1 (ko) * 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7089099B2 (en) * 2004-07-30 2006-08-08 Automotive Technologies International, Inc. Sensor assemblies

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01274214A (ja) * 1988-04-26 1989-11-02 Mazda Motor Corp 移動車の画像処理装置
JPH0441613U (ja) * 1990-08-08 1992-04-08
JP2000111344A (ja) * 1998-10-08 2000-04-18 Asahi Optical Co Ltd 写真測量用ターゲット
US20020091466A1 (en) * 2000-11-17 2002-07-11 Jeong-Gon Song Mobile robot and course adjusting method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512088A (ja) * 2005-10-31 2009-03-19 韓國電子通信研究院 リアルタイムに位置を算出するためのシステムおよび方法
JP2009522563A (ja) * 2006-01-05 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション モバイル機器追跡
JP2007257226A (ja) * 2006-03-23 2007-10-04 Honda Motor Co Ltd 移動体の自己位置検出装置および位置検出システム
JP2009544966A (ja) * 2006-07-27 2009-12-17 韓國電子通信研究院 人工標識とオデメトリとの連動を利用する位置算出システム及び方法
JP2007192832A (ja) * 2007-03-06 2007-08-02 Iwate Univ 魚眼カメラの校正方法。
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
JP2017531259A (ja) * 2014-10-31 2017-10-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 位置に基づく制御方法、装置、移動可能な機器及びロボット
US10627829B2 (en) 2014-10-31 2020-04-21 SZ DJI Technology Co., Ltd. Location-based control method and apparatus, movable machine and robot
JP2020030639A (ja) * 2018-08-23 2020-02-27 三菱ロジスネクスト株式会社 無人搬送システム

Also Published As

Publication number Publication date
EP1517210A3 (en) 2006-10-04
EP1517210A2 (en) 2005-03-23
KR20050027858A (ko) 2005-03-21
JP4533065B2 (ja) 2010-08-25
KR100552691B1 (ko) 2006-02-20
CN1598610B (zh) 2010-10-27
US20050065655A1 (en) 2005-03-24
EP1517210B1 (en) 2015-04-08
US7765027B2 (en) 2010-07-27
CN1598610A (zh) 2005-03-23

Similar Documents

Publication Publication Date Title
JP4533065B2 (ja) 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム
JP4450532B2 (ja) 相対位置計測装置
US11458912B2 (en) Sensor validation using semantic segmentation information
US8699754B2 (en) Clear path detection through road modeling
US8452053B2 (en) Pixel-based texture-rich clear path detection
US8634593B2 (en) Pixel-based texture-less clear path detection
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
Held et al. Precision tracking with sparse 3d and dense color 2d data
WO2008013355A1 (en) System and method for calculating location using a combination of odometry and landmarks
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
JP2002197444A (ja) 車両の走行路認識装置
KR20110011424A (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
JPH03201110A (ja) 自律走行車の位置方位検出装置
JP2005038407A (ja) 車両用外界認識装置
KR20200000953A (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
CN115014338A (zh) 一种基于二维码视觉和激光slam的移动机器人定位***及方法
JP2020077293A (ja) 区画線検出装置及び区画線検出方法
CN212044739U (zh) 一种基于惯性数据和视觉特征的定位装置及机器人
Ekinci et al. Knowledge-based navigation for autonomous road vehicles
Hartmann et al. Night time road curvature estimation based on Convolutional Neural Networks
JP2007272461A (ja) 運動推定装置、方法及びプログラム
JP2020077297A (ja) 位置姿勢推定装置
JP7425223B2 (ja) 物体追跡装置及び物体追跡方法
CN109650291B (zh) 基于视觉的叉车agv高精度定位的***及方法
TWI747016B (zh) 可提供環境資訊的動態圖資建立方法及系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Ref document number: 4533065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees