JP5296746B2 - マップ作成方法および装置とそのマップを利用した定位方法 - Google Patents

マップ作成方法および装置とそのマップを利用した定位方法 Download PDF

Info

Publication number
JP5296746B2
JP5296746B2 JP2010144989A JP2010144989A JP5296746B2 JP 5296746 B2 JP5296746 B2 JP 5296746B2 JP 2010144989 A JP2010144989 A JP 2010144989A JP 2010144989 A JP2010144989 A JP 2010144989A JP 5296746 B2 JP5296746 B2 JP 5296746B2
Authority
JP
Japan
Prior art keywords
image
feature vector
map
environmental
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010144989A
Other languages
English (en)
Other versions
JP2011112644A (ja
Inventor
祥文 謝
鴻修 游
雨坤 蔡
維漢 王
▲ご▼晉嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2011112644A publication Critical patent/JP2011112644A/ja
Application granted granted Critical
Publication of JP5296746B2 publication Critical patent/JP5296746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

この発明は、マップ作成(mapping)および定位(localization)方法に関する。とりわけ、この発明は、レンジデータと画像特徴点とを連合させるマップ作成および定位方法に関する。
定位ならびにナビゲーション(navigation)技術は、実際の環境中で移動する移動プラットフォーム(mobile platfrom)の位置(poses)を推定するために使用されて、移動プラットフォームの精確かつ安定したナビゲーションを達成する。そのような技術には、2つの主要なタイプが含まれ、1つは、環境デジタルマップを確立し、そのようなマップが移動プラットフォームを定位するための参考情報として採用されるものであり、もう1つは、デジタルマップを事前に作成することなく、移動プラットフォームの移動プロセス期間に同時に定位を実施しデジタルマップを作成するもの(即ち、Simultaneous Localization and Mapping = SLAM技術)である。
デジタルマップを作成するための技術は、先ず移動プラットフォーム上の通常レンジ(general range)装置を介して環境障害物情報(environmental obstacle information)を収集し、移動プラットフォームに関連する空間中における障害物の位置、例えば、図1Aに示した座標情報を獲得する。そして、障害物の空間的位置情報を収集することにより、図1Bに示すように、環境デジタルマップが次第に作成され、そのうち、座標情報が深さ(depth)(輪郭 = profile)情報に転換される。環境デジタルマップが作成された後、移動プラットフォームが移動プロセス期間に通常レンジ装置を介して環境情報を収集するとともに、さらに、その位置を推定するために環境情報をマップと比較する。図2において、Aが移動プラットフォームの現在位置推定を表し、ドットライン部分が円部分と重なり合っている時、移動プラットフォームの位置推定が現在環境状態に従っていることを表し、ドットライン部分と円部分とが大きく離れている時、移動プラットフォームがその現在の精確な位置を確認できないことを表す。
SLAM技術に従い、環境のマップ作成が事前に実施されないとともに、移動プラットフォームの移動プロセス期間に環境的な特徴または陸標(landmarks)が通常レンジ装置または視覚装置を介して検出されてマップの参考情報として供され、定位を達成する。移動プラットフォームの移動プロセス期間に、環境中の認識可能な特徴が検出され、検出された特徴または陸標位置の信頼性の程度が不明確な分布により表される。そのような技術は、環境特徴および空間中の対応する位置を継続的に検出することによって定位機能を達成する。
欧州特許第1176393号明細書
"Improving Path Planning and Mapping Based on Stereo Vision and Lidar", 10th International Conference on Control, Automation, Robotics and Vision, 2008 (ICARCV 2008). 17-20 Dec. 2008 Page(s):384 - 389. "Building Local Safety Maps for a Wheelchair Robot using Vision and Lasers", Proceedings of the 3rd Canadian Conference on Computer and Robot Vision (CRV’06). 07-09 June 2006 Page(s):25 - 25. Digital Object Identifier 10.1109/CRV.2006.20.
移動プラットフォームの上記した従来の定位技術に従い、第1タイプ技術について言えば、精確な定位は、デジタルマップ作成のために使用された同一タイプのレンジ検知装置を通してのみ達成できる。デジタルマップが高精度かつ高価な通常レンジ装置(例えば、一般的に使用されるレーザーレンジファインダー)を介して作成される時、精確な定位および環境中で要求されるナビゲーションを備える移動プラットフォームは、全てそのようなタイプの通常レンジ装置を装備することが求められ、従って、移動プラットフォームのハードウェアコストが大幅に増大するとともに、応用できる移動プラットフォームのタイプが限られてしまう。従って、作成された環境デジタルマップが異なる検知装置を装備した異なる種類の移動プラットフォーム(例えば、スマートホン・パーソナルナビゲーション装置など)に提供されて定位およびナビゲーション機能を履行できるか否かが、そのような技術が広く応用できるか否かのキーポイントである。また、通常レンジ装置および視覚装置を介して履行されるSLAM技術は、環境特徴検知を通してのみ定位機能を達成できる。しかし、実際的な応用において、主要な問題点は、複雑な視覚装置運動モデルを構築しなければならないことであるとともに、環境特徴位置の過大な不確実性が回転により発生しがちであることであり、それは、定位の安定性および精確性に影響を及ぼすことができる。同時に、環境特徴間の対応が確立できないので、移動プラットフォームは、運動プロセス中にどの領域が各2環境特徴間で通過できる領域か判定できず、そのような技術は、実際の環境中を移動する移動プラットフォームのためにナビゲーション機能を達成できない。
欧州特許第1176393号明細書(特許文献1)は、無人自動地下採鉱のための装置を開示しており、そのうち、レーザーレンジファインダーからのレンジデータが先ず収集されて、3次元(three-dimantion = 3D)マップデータが確立される。そして、慣性ナビゲーションシステム(Inertial Navigation System = INS)および視覚センサーが装置を定位することに使われる。その原理は、INSが先ず装置の位置を推定するために使用されるとともに、位置周辺の3Dマップデータが、視覚センサーにより走査された特徴点と比較されて、位置推定のエラーが修正される。そのようなパテントに従って、マップが作成された時、レーザーレンジファインダーからのレンジデータだけが使用されるとともにレンジデータおよび画像データの関連性が確立されない。また、定位期間中、INSが装置の位置を推定するために求められる。
P.Moghadamその他(非特許文献1)およびMurarkaその他(非特許文献2)は、レーザーレンジファインダーおよびステレオビジョン(stereo vision)を連合することにより環境マップを作成する技術を提供する。そのような技術に従って、3D画像データに基づいて計算された3D空間深さ情報が2D平面に投影されるとともに、3D画像を投影することにより生成された2Dマップがレーザーレンジファインダーによって作成された2Dマップと連合されて環境マップ作成を完了する。そのような技術に従って、2種類のマップが連合されるものの、それらの対応関係は確立されず、個別のセンサーを介して定位が実施される時、捕捉されたデータおよび作成されたマップ間の比較エラーが大きく、定位精度に影響を及ぼす。
この発明は、マップ作成方法を提供する。このマップ作成方法に従って、環境が走査され環境障害物の深さ情報を獲得する。環境の画像が捕捉されて画像平面が生成される。環境障害物の深さ情報が画像平面に投影されて、多数の投影位置を獲得する。少なくとも1つの特徴ベクトルが画像平面中の各投影位置のために計算される。環境障害物の深さ情報および特徴ベクトルが連合され一時点のためのサブマップが生成される。全時点における前記サブマップを連合して完全なデジタルマップを生成する。
この発明は、定位方法を提供する。先ず、マップが獲得され、そのうち、マップが環境障害物の深さ情報と環境障害物に対応する画像の少なくとも1つの特徴ベクトルとを含む。次に、環境画像が視覚検知装置を介して獲得される。次に、少なくとも1つの画像特徴点が、環境画像から抽出される。次に、定位が画像特徴点およびマップに従って実施される。
この発明は、少なくとも1つのレンジ検知装置と少なくとも1つの視覚検知装置と画像処理装置とを備えるマップ作成装置を提供する。レンジ検知装置が環境障害物の深さ情報を収集するために使用される。視覚検知装置が環境画像を捕捉して画像マップを生成する。画像処理装置がレンジ検知装置および視覚検知装置に連結されるとともに、環境障害物の深さ情報を画像平面に投影して多数の投影点を獲得し、画像平面中の各投影点から少なくとも1つの特徴ベクトルを計算し、かつ環境障害物の深さ情報および特徴ベクトルを連合してマップを生成する。
上記に従い、ブロック特徴マップを作成する方法および定位方法が提供される。レンジ検知装置により獲得された環境障害物の深さ情報によりマップを作成するプロセス期間に、視覚検知装置が更に実際の環境に対応する画像のブロック特徴データを獲得する。ブロック特徴マップは、レンジ検知装置により提供されたレンジデータおよび画像のブロック特徴データ間の対応関係に従って作成される。ブロック特徴マップが作成された後、移動プラットフォームの定位およびナビゲーションが視覚検知装置により捕捉された環境特徴を作成されたマップと比較するだけで達成できる。
従来のマップ作成方法を説明する概略図である。 従来のマップ作成方法を説明する概略図である。 従来の定位方法を説明する概略図である。 この発明の実施形態にかかるマップ作成のために使用されるハードウェア構造を説明する概略図である。 この発明の実施形態にかかるマップ作成方法を説明するフローチャートである。 環境障害物の深さ情報を画像平面に投影する概略図である。 環境障害物の深さ情報を画像平面に投影する概略図である。 画像特徴位置の決定を説明する概略図である。 定位のために使用される画像フレームおよび対応するマップ情報を説明する説明図である。 この発明の実施形態にかかる定位方法を説明するフローチャートである。 この発明の実施形態にかかる埋め込み式手持ちシステムを説明する概略図である。
以下、この発明を実施するための形態を図面に基づいて説明する。
この発明は、検知融合マップ作成技術を画像定位技術に連合させて革新的な検知融合マップ作成技術を提供し、視覚検知装置の検知情報とレンジ検知装置の検知情報とを融合しマップ作成を確立する。作成されたマップがレンジ検知装置を有する移動プラットフォームに提供されて定位を履行できるだけでなく、低いコストの視覚検知装置を有する移動プラットフォームに提供されて定位およびナビゲーションを履行できる。従って、視覚検知装置だけを介して実施するSLAM技術によるナビゲーションの低い安定性および実行不可能性の問題を解決することができる。
先ず、ブロック特徴マップ作成技術が記述される。
図3は、マップ作成のために使用されるハードウェア構造を説明する概略図である。図3において、マップ作成のために使用されるハードウェア構造は、レンジ検知装置12と視覚検知装置14とを備え、移動プラットフォーム10上に携えることができる。レンジ検知装置12は、例えば、レーザーレンジファインダーであり、レーザービームで走査を実施することができ、環境障害物20からのレンジデータを獲得するとともに、環境障害物深さ(輪郭)情報を確立する。視覚検知装置14は、例えば、デジタルカメラであり、環境の画像データを獲得するために使用される。ハードウェア構造は、更にデータ処理装置を備えることができ、移動プラットフォーム10上に配備されてマップ作成手続を処理することができる、またはリモートコントロール方式でマップ作成手続を処理することができる。
要するに、マップ作成手続は、例えば、先ずレンジ検知装置12を介して精確な環境障害物深さ(輪郭)を獲得することである。そして、環境障害物の深さ情報が視覚検知装置14により捕捉された画像の画像平面に投影される。画像平面上の対応する位置の特徴点が計算されて、環境障害物の深さ及び画像情報間の計量対応(measurement correspondence)を獲得する。
移動プラットフォーム10が移動する時、レンジ検知装置12(例えば、レーザーレンジファインダー)により検出された距離計量値および視覚検知装置14(例えば、通常デジタルカメラ)により捕捉された画像データは、マップ作成に使用される。マップ作成プロセスが完了した後、移動プラットフォーム10の定位が環境画像特徴と作成されたブロック特徴マップとを比較するだけで達成することができ、そのうち、環境画像特徴は、移動プラットフォーム10上の視覚検知装置14により捕捉された環境画像を分析することによって獲得される。
図4は、この発明の実施形態にかかるマップ作成方法を説明するフローチャートである。ステップS100中、システムが初期化され、初期設定(initialization)ステージ期間、視覚検知装置14(例えば、デジタルカメラ)の校正(calibration)が事前に実施されなければならず、視覚検知装置14の内部パラメーターを獲得する。ここで、Kが内部パラメーターの3×3マトリックスを表す。
例えば、空間中の一点は、内部パラメーターKの情報に従って視覚検知装置14により獲得された画像平面上のある位置に投影されることができる。視覚検知装置14およびレンジ検知装置12の空間相対関係は、3×3回転マトリックスRCおよび3×1置換マトリックスTCによって表すことができる。これらのパラメーターは、下記する数式1に示すように、レンジ検知装置12により検出された環境障害物深さ情報を画像平面上に投影するために使用される。
XIMG=K[RC[XSCAN_L]+TC] (1)
式中、XIMGが画像座標情報を表すとともに、XIMG=(u,v)が画像平面上の位置を表すために使用できる。RCおよびTCは、それぞれ視覚検知装置およびレンジ検知装置の回転ならびに置換関係を表す。Kは、視覚検知装置の内部パラメーターを表し、下記マトリックスにより表されことができ、そのうち、(f,f)が視覚検知装置の焦点距離を表し、(c,c)が画像中心位置を表し、sが画像分布パラメーターを表す等である。
Figure 0005296746
次に、ステップS102中、環境障害物情報の走査マッチング(scan matching)が実施される。レンジ検知装置がある時点においてレーザービームを介して、ある角度範囲の走査を実施して、その時点での環境の障害物深さ情報を獲得する、すなわち、走査を介して障害物の距離情報を獲得した後、空間中の環境障害物の輪郭情報が獲得される。
そして、2つの時点でレンジ検知装置12により検出された環境の障害物深さ情報が比較されて移動プラットフォーム10の現在移動量が計算される。移動量を計算するための方法は、下記の数式2により導かれる。
XSCAN_L=RXSCAN_Lt-1+T (2)
式中、XSCAN_Lがレンジ検知装置12座標軸に関する環境障害物の空間位置を表す。RおよびTがそれぞれ前時点の検知結果に関する現在検知結果の回転量および線形移行量を表す。
次に、ステップS104中、空間情報および画像情報が対応するように統合される、即ち、レンジ検知装置12により検出された環境障害物の深さ情報(数式3)が視覚検知装置14により獲得された画像平面に投影される(数式4)。図5Aは、ある時点でレンジ検知装置12により検出された環境障害物の深さ情報(即ち、環境障害物の輪郭)を示す図面である。図5Bは、同一時点で視覚検知装置14により獲得された画像を示す図面である。画像に従って確立された画像平面は、画像座標XIMG=(u,v)によって表される。図5B中の点線は、環境障害物の深さ情報を画像平面に投影された結果を表す。即ち、点線は、画像平面上に図5Aの環境障害物の対応する位置を表す。例えば、図5B中の位置A&Bは、それぞれ図5A中の位置A&Bに対応する。
XSCAN_L=(Xscan_Lx,Yscan_Ly,Zscan_Lz) (3)
XIMG=(u,v) (4)
次に、ステップS106中、画像平面上の特徴ベクトル(feature vectors)が計算される。ステップS104の結果に従って、画像平面上の多数の投影位置が確認された後、投影位置周辺のM×M画素範囲中の画像情報が計算されて、画像特徴位置が抽出される。
図6は、画像特徴位置の決定を説明する概略図である。図6において、画像特徴位置は、コーナーポイント、エッジ、区域極値などにより決定することができるとともに、特徴ベクトルfが画像上で検出された環境特徴を表すために使用できる。適切なfが見つからない時、図6に示すように、上方特徴ベクトルfuあるいは下方特徴ベクトルfdが更にサーチされる。
上記特徴ベクトル中、特徴ベクトルfが投影位置に相対して抽出した画像中における距離計量値の特徴ベクトルを表し、(fi1,fi2,fi3,…,fiN)により表すことができる。Nが特徴ベクトルの次元(dimension)を表す。
上方特徴ベクトルfuが投射位置の垂直軸上方の位置から抽出した画像中における距離計量値の特徴ベクトルを表し、(fui1,fui2,fui3,…,fuiN)により表すことができる。下方特徴ベクトルfdが投射位置の垂直軸下方の位置から画像中における距離計量値の特徴ベクトルを表し、、(fdi1,fdi2,fdi3,…,fdiN)により表すことができる。
特徴ベクトルを選択する原則は、主要に示差性(distinctiveness)および角度変化などに対する許容性である。もし計算された環境特徴ベクトルが隣接する特徴ベクトルと高い近似性があるならば、そのようなベクトルは破棄されて、識別困難度が増大することを回避する。
次に、ステップS108中、移動プラットフォーム10の位置(pose)が推定される。このステップ中、現時点tでの移動プラットフォーム10の位置および角度情報は、前時点t−1での移動プラットフォーム10の位置推定およびステップS102中の比較結果に従って推定できる。時点tでの移動プラットフォーム10の位置の推定結果は、座標POS(t)=(x,y,θ)で表すことができ、そのうち、(x,y)が位置を表し、θが角度を表す。
ステップS110中、環境障害物の深さ情報が世界座標システム(world coordinate system)に変換される。即ち、現時点tの環境障害物の深さ情報は、下記する数式5に示すように、世界座標システムに変換される。そのうち、XSCAN_Gが世界座標システム中の環境障害物の空間位置を表し、(x,y,z)座標システムにより表すことができ、i=1〜Nであり、かつNが環境障害物の数量(または、1サイクルの走査点の数量)を表す。
XSCAN_G=(scan_G,scan_G,scan_G) (5)
次に、ステップS112中、世界座標および画像平面の特徴ベクトルが連合される。ステップS112中、ステップS106に従って計算された画像中の環境特徴ベクトルf,fu,fdが環境障害物の深さ情報の世界座標システムと連合されて、時点tでのサブマップ情報MAPが生成される。サブマップ情報MAPは、下記する数式6で表すことができる。
MAP=([XSCAN_G,f,fu,fd],[XSCAN_G,f,fu,fd],……,[XSCAN_G,f,fu,fd]) (6)
数式6に従って、明白に分かるように、この実施形態の作成されたマップが各時点について環境障害物の深さ情報(世界座標で表される)および画像平面の環境特徴ベクトル情報(深さ情報中の特徴点に対応する特徴ベクトル)を含む。言い換えれば、通常マップに使用される環境障害物の深さ情報に加えて、この実施形態の作成されるマップは、更に画像により呈示される環境特徴ベクトル情報を含む。
次に、ステップS114中、環境障害物の深さ情報の全てが走査されたか否か決定される。もし「はい」であれば、ステップ120が実行されて全てのサブマップが連合されてマップMAPを生成し、それを下記する数式7で表すことができる。
ΣMAP (7)
数式7は、全時点の環境障害物の深さ情報が画像特徴ベクトルに連合された後のマップ結果を表す。
逆に、もしステップS114に従って走査が完了していないと決定されれば、ステップS116が実行されて現在マップを更新するとともに、ステップS102が、環境障害物の走査が完了するまで、繰り返しステップS102〜S114を実行する。
つまり、この実施形態の作成されたマップは、環境障害物の深さ情報および画像特徴ベクトルを内包して、定位プロセス期間に、定位に使用できるセンサーが多様化される。従って、もしビデオカメラだけが使用されて画像が捕捉されたとしても、定位(localization)は、環境障害物の実際の深さ情報なしに、マップ中の特徴ベクトル情報を介して尚かつ実施でき、マップ作成のために同一タイプの検知装置を使用しなければならない従来の定位技術の不便さを回避することができる。
そして、上記マップ作成方法に従って作成されたマップを使用する定位方法が以下に記述される。
図7は、定位のために使用される画像フレームおよび対応するマップ情報を説明する説明図である。図8は、この発明の実施形態にかかる定位方法を説明するフローチャートである。ここでは、上記したマップ作成方法に従ってマップが既に作成されていると仮定する。
図7と上記した数式6に従って、この実施形態のデジタルマップフォーマットは、空間中の障害物の空間位置p(輪郭深さ情報(点線)および図7のマップ中に“○”でマークされた位置)と画像平面上の投影位置の特徴ベクトルf,fu,fd(図7のフレーム中に“×”でマークされた位置)とを備える。移動プラットフォームが視覚検知装置だけを装備し、かつ視覚検知装置の校正が連合されて内部パラメーターKが獲得された時、画像特徴点が、捕捉された環境画像特徴点位置p(u,v,l)に従って作成されたデジタルマップ中で世界座標位置p(x,y,z,l)と比較される。
このようにして、視覚検知装置の外部パラメーターマトリックスTが更に導かれて移動プラットフォームの位置情報c(世界座標)を獲得することができる。
そして、定位方法は、さらに、図8に示すフローチャートを参考にして記述される。図8において、ステップS200中、図7を一例として挙げると、画像フレームi中に4つ以上の特徴点があり、かつ画像座標と世界座標とがそれぞれpとpとで表される。画像座標および世界座標間の対応関係は、下記する数式8によって表すことができ、式中、RとTとがそれぞれ回転マトリックスと移行マトリックスとを表す。
Figure 0005296746
次に、ステップS202中、視覚検知装置の内部パラメーターKにより画像座標中の点pがカメラ座標中の点pに変換される。
このステップ中、画像中の座標Pが視覚検知装置の座標システムの位置Pへ投影される。投影方程式は、数式9である。数式10は、数式9を数式8へ代入することにより獲得できる。
=K−1 (9)
=PTp=[R t]p=MP (10)
次に、ステップS204中、最小二乗法(least square method)が視覚検知装置の外部パラメーターマトリックスTを推定することに使用される。ここで、投影マトリックスPおよび外部パラメーターマトリックスTがマトリックスM(数10)へ合併されるとともに、かくして外部パラメーターマトリックスTの解を求めることが線形システムの解を求めることに等しいものとなる。最小二乗法が視覚検知装置の外部パラメーターの解答M=[R t]を獲得するために使用されて、下記する数式11の最小化を満足させる。また、外部パラメーターマトリックスTが回転マトリックスRと置換マトリックスtとを含み、下記する数式12により表すことができる。
Figure 0005296746
Figure 0005296746
ステップS206中、世界座標システム中の視覚検知装置の位置cが外部パラメーターマトリックスTの逆マトリックスを使用することによって獲得できる。視覚検知装置の座標システム中、視覚検知装置の位置は、その座標システムの原点(0,0,0)である。世界座標システム中、視覚検知装置の世界座標位置cは、外部パラメーターマトリックスTの逆マトリックス(数式13)により表すことができる。
Figure 0005296746
また、視覚検知装置の角度変化は、隣接する時点で捕捉された2つの連続画像から導き出すことができる。視覚検知装置が原位置(in-situ)回転だけしたと仮定すれば、2つの連続画像が同一特徴点を有する。もし第1時点の特徴点画像座標がpであり、第2時点の特徴点画像座標がpであれば、視覚検知装置の角度変化θは、pおよびp間の距離差と視覚検知装置の焦点距離fに従って計算することができる。
上記したステップS200〜S206に従って、定位は、図4のフローチャートに従い作成されたマップに基づいて導き出せる。上記したように、マップ作成期間に、環境障害物(輪郭)の深さ情報および画像特徴点情報がマップ中に統合される。従って、定位期間に、たとえ、もし対応するレンジ検知装置が移動プラットフォームに装備されておらず、視覚検知装置だけが画像特徴点の獲得に使用されても、特徴点が作成されたマップと比較されて精確な定位を達成できる。従って、定位およびナビゲーション機能が低コストの視覚検知装置だけを装備した移動プラットフォームに提供されるため、視覚検知装置だけを介してSLAM技術を履行することにより引き起こされるナビゲーションの低い安定性および実行不可能性という問題を解決する。
実施形態の変化例を以下に記述する。上記実施形態中、様々なセンサーが移動プラットフォーム上に採用される。しかし、図9に示すように、マップ作成方法は、埋め込み式手持ち装置にも応用できる。図9は、レンジ検知装置および視覚検知装置を統合した埋め込み式手持ちシステム200を説明する概略図である。このような構造により、上記した2Dマップ作成ならびに移動プラットフォーム定位に加えて、手持ち装置の移動特性が更に統合されて3Dブロック特徴マップを構築することができ、埋め込み式手持ち装置を3Dパーソナルナビゲーション装置(Personal Navigation Device = PND)として供することができる。
つまり、上記に従って、ブロック特徴マップを作成する方法および定位方法が提供される。レンジ検知装置により獲得された環境障害物の深さ情報によりマップを作成するプロセス期間に、視覚検知装置が更に実際の環境に対応する画像のブロック特徴データを獲得する。ブロック特徴マップは、レンジ検知装置により提供されたレンジデータおよび画像のブロック特徴データ間の対応関係に従って作成される。ブロック特徴マップが作成された後、移動プラットフォームの定位およびナビゲーションが視覚検知装置により補足された環境特徴を作成されたマップと比較するだけで達成できる。
以上のごとく、この発明を実施形態により開示したが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
10 移動プラットフォーム
12 レンジ検知装置
14 視覚検知装置
20 環境障害物
200 埋め込み式手持ちシステム(装置)

Claims (17)

  1. 環境を走査して環境障害物の深さ情報を獲得することと、
    前記環境の画像を捕捉して画像平面を生成することと、
    前記環境障害物深さ情報を前記画像平面上に投影して、多数の投影位置を獲得することと、
    前記画像平面中の各投影位置周辺の予め決定されたレンジから少なくとも1つの特徴ベクトルを計算することと、
    前記環境障害物の深さ情報および各特徴ベクトルを連合して、ある時点に対するサブマップを生成することと、
    全時点における前記サブマップを連合してマップを生成することと、を備え
    各投影位置周辺の予め決定されたレンジから前記特徴ベクトルが計算できない時、少なくとも1つの上方特徴ベクトルまたは少なくとも1つの下方特徴ベクトルが、各投影位置の上方または下方の画像データから計算されるものであるマップ作成方法。
  2. 前記上方特徴ベクトルまたは下方特徴ベクトルが、各投影位置の垂直軸における画像平面中の上方または下方画像データに従って計算されるものである請求項記載のマップ作成方法。
  3. 前記特徴ベクトルが、画像平面上の各投影位置の予め決定されたレンジ中でコーナー点、エッジおよび区域極値に従って決定されるものである請求項1記載のマップ作成方法。
  4. 前記環境障害物の深さ情報および各特徴ベクトルを連合するステップが、
    前記環境障害物の深さ情報を世界座標システムへ変換することと、
    世界座標システムで表された環境障害物の深さ情報および前記各特徴ベクトルを連合することと、を含む請求項1記載のマップ作成方法。
  5. 前記画像平面中の投影位置に従って特徴ベクトルを計算するステップが、更に、計算された前記特徴ベクトルが、隣接する特徴ベクトルと比較して高い相似性を有すれば、前記計算された特徴ベクトルを破棄するものである請求項1記載のマップ作成方法。
  6. 前記環境を走査するステップが、レーザーレンジファインダーにより実施されるものである請求項1記載のマップ作成方法。
  7. 前記環境の画像を捕捉するステップが、デジタルカメラにより実施されるものである請求項1記載のマップ作成方法。
  8. 環境に移動する移動プラットフォームに適用する定位方法であって、
    画像の環境障害物の深さ情報および前記環境障害物の深さ情報に対応する画像の少なくとも1つの特徴ベクトルを含むマップを獲得することと、
    視覚検知装置を使用して環境画像を獲得することと、
    前記環境画像から少なくとも1つの画像特徴点を抽出することと、
    前記画像特徴点およびマップに従って、前記移動プラットフォームに対する定位を実施することと、を含み、
    前記マップを獲得するステップが、
    環境を走査して環境障害物の深さ情報を獲得することと、
    環境の画像を捕捉して画像平面を生成することと、
    前記環境障害物深さ情報を前記画像平面上に投影して、多数の投影位置を獲得することと、
    前記画像平面中の各投影位置周辺の予め決定されたレンジから少なくとも1つの特徴ベクトルを計算することと、
    前記環境障害物の深さ情報および各特徴ベクトルを連合して、ある時点に対するサブマップを生成することと、
    全時点におけるサブマップを連合してマップを生成することと、を備え、
    各投影位置周辺の予め決定されたレンジから特徴ベクトルが計算できない時、少なくとも1つの上方特徴ベクトルまたは少なくとも1つ下方特徴ベクトルが、各投影位置の上方または下方の画像データから計算されるものである定位方法。
  9. 前記画像特徴点およびマップに従って定位を実施するステップが、環境画像の画像特徴点の画像座標および世界座標を使用することにより視覚検知装置の世界座標を計算して、定位を履行するものである請求項記載の定位方法。
  10. 前記上方特徴ベクトルまたは下方特徴ベクトルが、各投影位置の垂直軸における画像平面中の上方または下方画像データに従って計算されるものである請求項記載の定位方法。
  11. 前記特徴ベクトルが、画像平面上の各投影位置の予め決定されたレンジ中でコーナー点、エッジおよび区域極値に従って決定されるものである請求項記載の定位方法。
  12. 前記環境障害物の深さ情報および各特徴ベクトルを連合するステップが、
    前記環境障害物の深さ情報を世界座標システムへ変換することと、
    世界座標システムで表された環境障害物の深さ情報および前記各特徴ベクトルを連合することと、を含む請求項記載の定位方法。
  13. 環境を走査して環境障害物の深さ情報を生成する、少なくとも1つのレンジ検知装置と、
    環境の画像を捕捉して画像平面を生成する、少なくとも1つの視覚検知装置と、
    前記レンジ検知装置および視覚検知装置に連結され、前記環境障害物の深さ情報を前記画像平面へ投影して多数の投影位置を獲得し、画像平面中の各投影位置周辺の予め決定されたレンジから少なくとも1つの特徴ベクトルを計算するとともに、前記環境障害物の深さ情報および特徴ベクトルを連合してマップを作成する画像処理装置と、を備え、
    各投影位置周辺の予め決定されたレンジから前記特徴ベクトルが計算できない時、少なくとも1つの上方特徴ベクトルまたは少なくとも1つの下方特徴ベクトルが、各投影位置の上方または下方の画像データから計算されるものであるマップ作成装置。
  14. レンジ検知装置が、レーザーレンジファインダーである請求項13記載のマップ作成装置。
  15. 視覚検知装置が、デジタルカメラである請求項13記載のマップ作成装置。
  16. 前記レンジ検知装置と視覚検知装置と画像処理装置とが、移動プラットフォーム上に配備されるものである請求項13記載のマップ作成装置。
  17. 前記レンジ検知装置と視覚検知装置とが、埋め込み式手持ち装置として統合されるものである請求項13記載のマップ作成装置。
JP2010144989A 2009-11-24 2010-06-25 マップ作成方法および装置とそのマップを利用した定位方法 Active JP5296746B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098140007 2009-11-24
TW098140007A TWI391874B (zh) 2009-11-24 2009-11-24 地圖建置方法與裝置以及利用該地圖的定位方法

Publications (2)

Publication Number Publication Date
JP2011112644A JP2011112644A (ja) 2011-06-09
JP5296746B2 true JP5296746B2 (ja) 2013-09-25

Family

ID=44062133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144989A Active JP5296746B2 (ja) 2009-11-24 2010-06-25 マップ作成方法および装置とそのマップを利用した定位方法

Country Status (3)

Country Link
US (1) US8588471B2 (ja)
JP (1) JP5296746B2 (ja)
TW (1) TWI391874B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839549B2 (en) 2017-06-12 2020-11-17 Canon Kabushiki Kaisha Apparatus and method for estimating position of image capturing unit

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140379254A1 (en) * 2009-08-25 2014-12-25 Tomtom Global Content B.V. Positioning system and method for use in a vehicle navigation system
DE102011111342B3 (de) * 2011-05-31 2012-12-06 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Positionsbestimmung von sich bewegenden Objekten
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
WO2013049597A1 (en) * 2011-09-29 2013-04-04 Allpoint Systems, Llc Method and system for three dimensional mapping of an environment
GB201116960D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
GB201116958D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Use of synthetic overhead images for vehicle localisation
GB201116959D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Vehicle localisation with 2d laser scanner and 3d prior scans
DE102012214880A1 (de) * 2011-12-13 2013-06-13 Robert Bosch Gmbh Handentfernungsmessgerät
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
US9037403B2 (en) * 2013-03-26 2015-05-19 Toyota Motor Engineering & Manufacturing North America, Inc. Intensity map-based localization with adaptive thresholding
WO2014191013A1 (en) * 2013-05-27 2014-12-04 Sandvik Mining And Construction Oy Method and control system for a mining vehicle and a mining vehicle
US9483829B2 (en) 2013-09-04 2016-11-01 International Business Machines Corporation Efficient visual surface finding
EP3754381A1 (en) 2013-12-10 2020-12-23 SZ DJI Technology Co., Ltd. Sensor fusion
EP3114647A2 (en) * 2014-03-05 2017-01-11 Smart Picture Technology, Inc. Method and system for 3d capture based on structure from motion with simplified pose detection
WO2015151770A1 (ja) * 2014-03-31 2015-10-08 株式会社日立産機システム 三次元地図生成システム
GB201407643D0 (en) 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
WO2016033796A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Context-based flight mode selection
DK3428766T3 (da) 2014-09-05 2021-06-07 Sz Dji Technology Co Ltd Multi-sensor til afbildning af omgivelser
CN105980950B (zh) 2014-09-05 2019-05-28 深圳市大疆创新科技有限公司 无人飞行器的速度控制
US10933534B1 (en) * 2015-11-13 2021-03-02 AI Incorporated Edge detection system
US11685053B1 (en) 2014-11-24 2023-06-27 AI Incorporated Edge detection system
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
GB2535768B (en) * 2015-02-27 2018-08-29 3D Laser Mapping Ltd Monitoring an environment
DE102015105211A1 (de) * 2015-04-07 2016-10-13 Vorwerk & Co. Interholding Gmbh Verfahren zur Bearbeitung eines Bodens
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
JP6899370B2 (ja) 2015-08-03 2021-07-07 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
CN105371847B (zh) * 2015-10-27 2018-06-29 深圳大学 一种室内实景导航方法及***
CN106705951A (zh) * 2015-11-13 2017-05-24 恩斯迈电子(深圳)有限公司 移动装置
TWI572848B (zh) * 2015-12-14 2017-03-01 台灣國際航電股份有限公司 三維地圖產生裝置
CN105974938B (zh) * 2016-06-16 2023-10-03 零度智控(北京)智能科技有限公司 避障方法、装置、载体及无人机
US10210603B2 (en) * 2016-10-17 2019-02-19 Conduent Business Services Llc Store shelf imaging system and method
KR101765235B1 (ko) * 2016-11-28 2017-08-04 한국건설기술연구원 사물인터넷 기반 센서와 무인비행체를 이용한 시설물 유지관리 시스템 및 그 방법
CN106482739B (zh) * 2016-11-30 2020-07-17 英华达(上海)科技有限公司 自动导引运输车导航方法
US20180016006A1 (en) * 2017-01-22 2018-01-18 Haoxiang Electric Energy (Kunshan) Co., Ltd. Smart unmanned aerial vehicle for home
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
US11348269B1 (en) 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10915114B2 (en) 2017-07-27 2021-02-09 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
JP6816830B2 (ja) * 2017-09-04 2021-01-20 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
CN107678440A (zh) * 2017-11-16 2018-02-09 苏州艾吉威机器人有限公司 一种辅助定位构件,包含其的自律移动装置及定位方法
CN109074408B (zh) * 2018-07-16 2022-04-08 达闼机器人有限公司 一种地图加载的方法、装置、电子设备和可读存储介质
CN109214348A (zh) * 2018-09-19 2019-01-15 北京极智嘉科技有限公司 一种障碍物检测方法、装置、设备及存储介质
TWI678682B (zh) * 2018-10-11 2019-12-01 宏碁股份有限公司 判斷位置的方法以及定位系統
CN111837136A (zh) * 2019-02-19 2020-10-27 深圳市大疆创新科技有限公司 基于本地感测的自主导航以及相关联的***和方法
TWI720447B (zh) * 2019-03-28 2021-03-01 財團法人工業技術研究院 影像定位方法及其系統
JP7081720B2 (ja) * 2019-03-28 2022-06-07 日本電気株式会社 異物検出装置、異物検出方法、およびプログラム
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
EP3966789A4 (en) 2019-05-10 2022-06-29 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
CN110727009B (zh) * 2019-10-10 2023-04-11 武汉理工大学 一种基于车载环视图像的高精视觉地图构建和定位方法
TWI706335B (zh) 2019-10-17 2020-10-01 國立交通大學 物件特徵定位裝置及雷射與攝像整合系統
CN113433566B (zh) * 2020-03-04 2023-07-25 宏碁股份有限公司 地图建构***以及地图建构方法
US20220365217A1 (en) * 2021-05-12 2022-11-17 Faro Technologies, Inc. Generating environmental map by aligning captured scans
CN113820697B (zh) * 2021-09-09 2024-03-26 中国电子科技集团公司第五十四研究所 一种基于城市建筑特征与三维地图的视觉定位方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
AU2003264048A1 (en) * 2002-08-09 2004-02-25 Intersense, Inc. Motion tracking system and method
EP1554639B1 (de) * 2002-10-23 2007-12-12 Siemens Aktiengesellschaft Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur bildung einer graphenstruktur zur beschreibung einer fläche mit einer freifläche und einer belegtfläche
WO2004059900A2 (en) * 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
JP4284644B2 (ja) 2003-05-23 2009-06-24 財団法人生産技術研究奨励会 3次元モデル構築システム及び3次元モデル構築プログラム
CN1569558A (zh) 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
JP4038726B2 (ja) 2003-09-03 2008-01-30 株式会社日立プラントテクノロジー 画像対応付け方法
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US7541974B2 (en) * 2005-12-15 2009-06-02 Trimble Navigation Limited Managed traverse system and method to acquire accurate survey data in absence of precise GPS data
TWI269051B (en) * 2005-08-12 2006-12-21 Mitac Int Corp Navigation system and method for planning route based on time characteristics
ATE531007T1 (de) * 2005-09-12 2011-11-15 Carlos Tapang Einzelbildweises und pixelweises vergleichen von modellgenerierten grafikbildern mit kameraeinzelbildern
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
JP4984650B2 (ja) 2006-05-30 2012-07-25 トヨタ自動車株式会社 移動装置及び移動装置の自己位置推定方法
EP2078286A1 (en) 2006-10-30 2009-07-15 Tele Atlas B.V. Method and apparatus for detecting objects from terrestrial based mobile mapping data
CN101617197B (zh) 2007-02-16 2011-06-22 三菱电机株式会社 测量装置、测量方法及地物识别装置
DE102007013023B4 (de) 2007-03-19 2017-10-05 Sick Ag Probabilistische Rasterkarte
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839549B2 (en) 2017-06-12 2020-11-17 Canon Kabushiki Kaisha Apparatus and method for estimating position of image capturing unit

Also Published As

Publication number Publication date
JP2011112644A (ja) 2011-06-09
US20110123135A1 (en) 2011-05-26
US8588471B2 (en) 2013-11-19
TWI391874B (zh) 2013-04-01
TW201118794A (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP5296746B2 (ja) マップ作成方法および装置とそのマップを利用した定位方法
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
US9898821B2 (en) Determination of object data by template-based UAV control
Tardif et al. Monocular visual odometry in urban environments using an omnidirectional camera
US9250073B2 (en) Method and system for position rail trolley using RFID devices
US20090210092A1 (en) Method for self-localization of robot based on object recognition and environment information around recognized object
JP6524529B2 (ja) 建築限界判定装置
Wen et al. Toward efficient 3-d colored mapping in gps-/gnss-denied environments
Mi et al. A vision-based displacement measurement system for foundation pit
Yang et al. Infrared LEDs-based pose estimation with underground camera model for boom-type roadheader in coal mining
JP2017026487A (ja) 形状測定装置、形状測定システムおよび形状測定方法
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN115808170B (zh) 一种融合蓝牙与视频分析的室内实时定位方法
Lee et al. A study on scan data matching for reverse engineering of pipes in plant construction
Lim et al. AdaLIO: Robust adaptive LiDAR-inertial odometry in degenerate indoor environments
KR20170058612A (ko) 영상 기반 실내측위 방법 및 그의 시스템
Glas et al. SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking
Mautz et al. Optical indoor positioning systems
EP4332631A1 (en) Global optimization methods for mobile coordinate scanners
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
Baldoni et al. On the Design of High Accuracy Rail Digital Maps based on Sensor Fusion
Liao et al. Automatic camera calibration and rectification methods
KR20140032113A (ko) 자연랜드마크 및 인공랜드마크와 엔코더를 이용한 지능형 이동로봇의 위치인식 방법
Ai et al. Surround Mask Aiding GNSS/LiDAR SLAM for 3D Mapping in the Dense Urban Environment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130613

R150 Certificate of patent or registration of utility model

Ref document number: 5296746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250