JP2009074995A - 移動体情報処理装置、移動体情報処理方法、およびプログラム - Google Patents

移動体情報処理装置、移動体情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2009074995A
JP2009074995A JP2007245534A JP2007245534A JP2009074995A JP 2009074995 A JP2009074995 A JP 2009074995A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2009074995 A JP2009074995 A JP 2009074995A
Authority
JP
Japan
Prior art keywords
cluster
color
captured image
node
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007245534A
Other languages
English (en)
Inventor
Ken Inamasu
謙 稲益
Chikun Hashiyama
智訓 橋山
Yasuo Masaki
康生 政木
Guokun Zuo
国坤 左
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
University of Electro Communications NUC
Original Assignee
Funai Electric Co Ltd
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd, University of Electro Communications NUC filed Critical Funai Electric Co Ltd
Priority to JP2007245534A priority Critical patent/JP2009074995A/ja
Publication of JP2009074995A publication Critical patent/JP2009074995A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成すること、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うこと、
【解決手段】移動体情報処理装置1は、移動環境内の被写体を撮像してカラー画像を取得する撮像部2と、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部4と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部8とを有する。
【選択図】 図1

Description

本発明は、移動体情報処理装置、移動体情報処理方法、およびプログラムに関する。
例えば、移動型ロボットが自己の位置を特定する方法として、移動体の走行環境内の規定位置に予めランドマークを設置しておき、そのランドマークを撮像して得られた撮像画像により自己位置を推定する方法が知られている。
詳細には、例えば、移動体の走行環境内に複数のランドマークを予め配置しておき、移動体を初期の位置から任意の距離だけ移動させたときの移動状態量と、移動体から撮像された複数のランドマーク画像のずれ量から、ランドマークの三次元位置座標を算出するランドマークの登録方法が知られている(例えば、特許文献1参照)。
特開2006−234453号公報
しかし、特許文献1に記載された技術では、配置されたランドマークの3次元位置座標を自動的に登録して、その登録されたランドマークの位置に基づいて自己位置を推定するが、予めランドマークを規定位置に配置することを要する。
また、ランドマークを移動体の走行環境内に配置するので、走行環境内の美観が損なわれる。
本発明は、このような問題に対処することを課題の一例とするものである。すなわち、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成すること、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うこと、等が本発明の目的である。
このような目的を達成するために、本発明は、以下の各独立請求項に係る構成を少なくとも具備するものである。
本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部とを有することを特徴とする。
好適には、前記制御部は、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行うことを特徴とする。
また、本発明に係る移動体情報処理装置の情報処理方法は、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置の情報処理方法であって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを有することを特徴とする。
好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有する。
また、本発明に係るプログラムは、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置に実行させるためのプログラムであって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを前記移動体情報処理装置に実行させることを特徴とする。
好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする。
本発明によれば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。また、本発明によれば、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。
本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部とを有することを特徴とする。
上記構成の移動体情報処理装置によれば、制御部が、記憶部に記憶された複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成するので、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数の画像から移動体の位置を特定するためのランドマークデータを生成することができる。
また、好適には、制御部は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うことを特徴とする。
上記構成の移動体情報処理装置によれば、制御部が、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。
以下、本発明に係る移動体情報処理装置、その情報処理方法、およびプログラムを図面を参照しながら説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る移動体情報処理装置の全体機能ブロック図である。図2は、図1に示した移動体情報処理装置の移動環境を説明するための図である。
本実施形態では、本発明に係る移動体情報処理装置1を採用した移動型ロボット(ロボットとも言う)100を説明する。
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2を備えており、例えば図2に示すように移動環境200内を移動して所定のタイミングで移動環境200内の被写体をカラー撮像して、複数のカラー画像Pを取得する。移動体情報処理装置1は、この撮像画像Pを、撮像位置に関する位置情報と関連付けて記憶部4に記憶する。
また、移動体情報処理装置1は、移動環境200内で撮像されたカラー画像Pにより、移動環境200内のロボット100の位置推定を行うためのランドマークデータを生成する。
詳細には、本実施形態に係る移動体情報処理装置1は、移動環境200内の被写体を撮像して複数のカラー画像を取得し、その複数のカラー画像の各画素の色情報を基に、色の分布を複数のクラスタに分類して、各クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、該クラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
また、移動体情報処理装置1は、そのクラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
例えば、一般的な装置では、予めランドマークを規定の位置に配置することを要する。一方、本発明に係る移動体情報処理装置1は、予めランドマークを配置することなく、各撮像位置と色の分布の特徴が関連付けられたランドマークデータを生成することができる。
また、一般的な装置では、撮像画像の色情報を分類する場合、予め分類するための色の範囲を設定することを要する。
一方、本発明に係る移動体情報処理装置1は、ニューラルネットワークの自己組織化マップを用いて、教師なし学習によるクラスタリングを行うことで、移動環境内の被写体をカラー撮像して得られた撮像画像の各画素の色情報に応じて、その色情報を分類するためのクラスタおよび該クラスタの色の範囲を自動的に規定することができる。このため簡単に撮像画像の各画素の色情報を分類することができる。
また、複数の撮像画像の色情報を基にランドマークデータを生成し、そのランドマークデータと位置推定用の撮像画像により移動体の位置推定を行うので、例えば撮像画像の被写体の輪郭パターンにより、ランドマークデータを生成する場合と比べて、比較的高精度にかつ比較的高速に位置推定を行うことができる。
以下、移動体情報処理装置1の各構成要素について詳細に説明する。
[移動体情報処理装置1の構成]
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2、量子化部3、記憶部4、駆動部5、車輪(移動手段)6、センサ7、および制御部8を有する。
撮像部2は本発明に係る撮像部の一実施形態に相当し、記憶部4は本発明に係る記憶部の一実施形態に相当し、駆動部5および車輪6は本発明に係る駆動部の一実施形態に相当する。制御部8は、本発明に係る制御部の一実施形態に相当する。
本実施形態に係る移動体(移動型ロボット100)は、例えば図1,2に示すように、略円筒形状、略直方体形状、等の規定形状の筐体10を備えている。
撮像部2は、例えば制御部8の制御により、ロボット100(移動体)の周囲の移動環境内の被写体をカラー撮像して、カラー画像を出力する。また、撮像部2は、例えば各画素が、R(Red),G(Green),B(Blue)のRGB値にて規定された色情報により構成されるカラー画像を出力する。撮像部2としては、例えば、CCD(Charge coupled device)、CMOS(Complementary metal oxide semiconductor)イメージセンサ、等の撮像素子を備えた撮像装置を採用することができる。撮像部2は、例えば図2に示すように、筐体10の所定位置、例えば筐体10の上部や前面部等に設けられている。この撮像部2は、ロボット100の進行方向を基準として規定の視野角を有する。例えば視野角は30度〜180度程度である。撮像部2は、筐体10に固定されて備えられてもよいし、撮像方向が可変となるように筐体10に設けられてもよい。
量子化部3は、カラー画像の各画素の色情報を規定の階調に量子化し、その量子化された色情報を含むカラー画像を出力する。量子化部3から出力された画像は、例えば記憶部4に記憶されてもよいし、制御部8に入力されてもよい。
本実施形態に係る量子化部3は、例えば撮像画像の画素の各RGB値が256階調に設定されている場合、RGB値を比較的小さい階調、例えば8階調のRGB値に変換する。このように色情報を比較的小さい階調に変換することで、被写体の色の小さな差異を低減して、被写体の色を反映しつつ、比較的小さな情報量の色情報を出力することができる。また、量子化部3は、撮像部2により出力されたカラー画像に量子化処理を施してもよいし、制御部8に記憶されている画像に対して上記量子化処理を施してもよい。
記憶部4は、例えば、学習対象の複数の撮像画像P、および撮像画像Pの撮像位置に関する位置情報を関連付けて記憶する。また、記憶部4は、撮像部2の撮像部から出力された画像のバッファとして機能する。また、記憶部4は、本発明に係る機能を有するプログラム(PRG)41を記憶する。
記憶部4としては、例えば、RAM(Random access memory)やROM(Read only memory)などの半導体メモリ、ハードディスクドライブなどの磁気ディスク記憶装置、等の記憶装置を採用してもよい。また、記憶部4は、制御部8のワークエリアとしても機能する。
駆動部5は、制御部8の制御により、例えば移動体(ロボット100)に設けられた移動手段を駆動して、ロボット100を移動環境内で移動させる。移動手段としては、例えばロボット100の下部や側部等に設けられた車輪6や可動脚等の規定の移動装置を採用するこができる。
センサ7は、例えば駆動部5の駆動状態、移動手段の移動距離や移動速度等を検出して、撮像位置に関する位置情報を取得し、その取得した情報を示す信号を制御部8に出力する。
制御部8は、本装置の各構成要素を統括的に制御して、本発明に係る機能を実現する。また、制御部8は、例えば、記憶部4に記憶されているプログラム(PRG)41を実行することにより、本発明に係る機能を実現する。制御部8としては、例えばCPU(Central Processing Unit)などの電子回路を採用することができる。
図3は、図1に示した移動体情報処理装置の制御部の機能を説明するための機能ブロック図である。
図3に示すように、制御部8は、例えば、第1の処理部81、および第2の処理部82を有する。
[第1の処理部81]
第1の処理部81は、複数の撮像画像Pの各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
詳細には、第1の処理部81は、例えば図3に示すように、駆動制御部811、第1クラスタリング処理部(第1SOM)812、最大値最小値抽出部813、第2クラスタリング処理部(第2SOM)814、クラスタリスト生成部815、およびランドマークデータ生成部816を有する。
駆動制御部811は、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。
第1クラスタリング処理部(第1SOM)812は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
最大値最小値抽出部813は、各クラスタの色の範囲(最大値および最小値)を抽出して、クラスタとその色の範囲に関する情報を出力する。
第2クラスタリング処理部(第2SOM)814は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
クラスタリスト生成部815は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。このように、クラスタリスト生成部815が、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。
ランドマークデータ生成部816は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。
[第2の処理部]
第2の処理部82は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、該クラスタおよびランドマークデータに応じて、当該位置推定の撮像画像に対して類似度の高い学習対象の撮像画像を特定し、特定された撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
詳細には、第2の処理部82は、例えば図3に示すように、クラスタ取得部821、マッチング部822、位置推定部823、および駆動制御部824を有する。
クラスタ取得部821は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定して取得する。詳細には、クラスタ取得部821は、例えば、上記学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定する。
マッチング部822は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。
位置推定部823は、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
駆動制御部824は、位置推定部823による位置推定の処理の結果に応じて、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。
[移動体情報処理装置1の学習時の動作]
次に、上記構成の移動体情報処理装置1の動作を説明する。
図4は、図1に示した移動体情報処理装置の動作を説明するためのフローチャートである。図4を参照しながら、移動体情報処理装置1の学習時の動作を説明する。詳細には、移動体情報処理装置1のランドマークデータを生成する処理を説明する。
ステップST1において、移動体情報処理装置1は、図2に示すように移動環境200内の被写体を撮像して複数のカラー画像Pを取得する。本実施形態では、図2に示すように、例えば移動環境200の部屋内に、四隅の内2つの角部に茶色の木箱、および灰色の棚が配置されている。木箱と棚の壁際には赤茶色の鉢、緑色の葉を備えた観葉植物が配置されている。観葉植物が配置されている壁と対向する壁際には、グレーの机が配置されている。また、青色のクッションとグレーの脚部を備えた3つ椅子が、木箱の近傍、棚の近傍、および棚が配置された角部と対抗する角部に配置されている。また、壁の色は略白色であり、床の色はインディゴ(藍色)である。
移動体情報処理装置1は、例えば図2に示すように、移動環境200内を一周しながら撮像する。詳細には、移動体情報処理装置1は、机の近傍から角部に配置されている椅子に向かって直進したのち右に90度回転し、木箱近傍に向かって直進したのち右に90度回転し、棚に向かって直進したのち右に回転し、角部近傍に向かって直進したのち右に90度回転し、その状態で直進して机の近傍に戻る。移動体情報処理装置1は、図2に示すように、所定のタイミングで、撮像位置1〜22で撮像する。
詳細には、制御部8は、駆動部5に駆動制御信号を出力して車輪6を回転駆動させて、例えば図2に示すように、移動環境200内を移動する。また、制御部8は、所定のタイミングで、移動環境200内の進行方向を基準とする視野角内の被写体を、撮像部2により撮像して、複数のカラー画像Pを取得する。制御部8は、撮像画像Pと、その撮像位置に関する位置情報とを関連付けて記憶部4に記憶する。
詳細には、制御部8は、例えば図2に示すように、ロボット100の移動距離や移動の軌跡、基準方向に対する相対的な進行方向などにより、移動環境内での撮像位置を定めて、その撮像位置に関する位置情報を、撮像画像と関連付けて記憶部4に記憶する。
この際、制御部8は、例えば、駆動部5の左右の駆動モータの回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、制御部8は、例えば、左右の車輪6の回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、ロボット100に備えられた撮像部2は、進行方向に沿って一定の視野角の撮像画像Pを取得する。
ステップST2において、移動体情報処理装置1は、一画像のクラスタリング処理(SOM)を行う。詳細には、制御部8が、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
ステップST3において、移動体情報処理装置1は、各クラスタの色の範囲、詳細にはクラスタの色の最大値および最小値を抽出する処理を行う。詳細には、制御部8は、上記学習結果の自己組織化マップにより、競合層に、各画像の色情報を分類するクラスタが、各色情報に応じて自動的に生成され、そのクラスタ毎に色の範囲、詳細には各クラスタのRGB空間での最大値および最小値を抽出する。
ステップST4において、制御部8は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
ステップST5において、移動体情報処理装置1は、クラスタリストを生成する処理を行う。詳細には、制御部8は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、各画像に含まれる固有の色の分布(色のパターン)を示すクラスタリスト(CL)を生成することができる。
ステップST6において、移動体情報処理装置1は、ランドマークデータを生成する処理を行う。詳細には、制御部8は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。
以下、移動体情報処理装置1の動作について図面を参照しながら詳細に説明する。本実施形態では、自己組織化マップの学習に関する処理は制御部8が行う。
図5は、撮像画像と自己組織化マップによるクラスタリングを説明するための図である。詳細には、図5(A)は学習対象のカラー撮像画像Pを説明するための図であり、図5(B)は図5(A)に示した撮像画像Pの各画素の色情報をRGB空間に示した図である。図5(C)は図5(B)に示した撮像画像Pを入力データとして生成された複数のクラスタと各クラスタの色の範囲を説明するための図である。
制御部8は、ステップST1において、図5(A)に示すように、カラー画像Pを取得する。このカラー画像の画素の色情報は、量子化部3により所定の階調のRGB値に変換されている。撮像画像Pの各画素のRGB値は、図5(B)に示すように、RGB空間に表すことができる。
また、図5(C)に示すように、このRGB空間の色のパターンは、後述する自己組織化マップによる学習により、規定される複数のクラスタCL1 jに分類される。このクラスタCLi jは、第i番目の撮像画像Pにおける、第j番目のクラスタCLを示す。
図6は、図5(C)に示したクラスタCL1 1に含まれる色情報を説明するための図である。
クラスタCL1 1に含まれる画素の色情報は、例えば図6に示すように、8個の色情報{(R11,G11,B11),(R12,G12,B12),(R13,G13,B13),(R14,G14,B14),(R15,G15,B15),(R16,G16,B17),(R18,G18,B18)}を有する。
図7は、図5(C)に示した各クラスタおよびクラスタに含まれる色情報を説明するための図である。
また、図5(C)に示したクラスタCL1 1,CL1 2,・・・,CL1 nそれぞれには、図7に示すように、各画素の色情報が含まれる。
詳細には、クラスタCL1 1には、{(R11,G11,B11),(R12,G12,B12),・・・,(R18,G18,B18)}が含まれ、クラスタCL1 2には、{(R21,G21,B21),(R22,G22,B22),・・・,(R2b,G2b,B2b)}が含まれ、・・・、クラスタCL1 nには、{(Rn1,Gn1,Bn1),(Rn2,Gn2,Bn2),・・・,(Rnc,Gnc,Bnc)}が含まれる。
このクラスタCLおよび色の範囲は、後述する自己組織化マップの学習により規定される。
以下、自己組織化マップの学習(クラスタリング処理)について説明する。
[自己組織化マップ]
図8は、本発明に係る自己組織化マップを説明するための図である。詳細には、図8(A)は競合層に複数のノードが予め規定されている自己組織化マップを説明するための図であり、図8(B)は初期時に競合層に一つのノードが規定されている自己組織化マップを説明するための図であり、図8(C)は図8(B)に示した自己組織化マップの競合層のノードが増殖する動作を説明するための図である。
まず、図8(A)を参照しながら、一般的な自己組織化マップのアルゴリズムを説明する。
例えば、図8(A)に示すように、一般的な自己組織化マップのアルゴリズムでは、その構成は、入力層40と競合層50の2層構造を備えている。一般的な自己組織化マップは、教師なし学習ニューラルネットワークである。
入力層40は、例えばn次元の入力ベクトルx(x1,x2,x3,・・・,xn)に対応する。入力ベクトルxは入力データともいう。本実施形態に係る入力ベクトルxとしては、例えば、撮像画像の各画素の色情報、撮像画像の各画素の色情報を分類して規定されたクラスタの色の範囲、等のデータである。
競合層50は、規定の次元、例えば1次元や2次元、本実施形態では2次元に複数のノード(素子)が配列されている。各ノードiは、入力ベクトルxと同じ次元(n次元)の荷重ベクトルmi(重みベクトル,荷重結合ともいう)を有する。入力データxは、競合層50の各ノードiと結合している。本実施形態に係る競合層50は、例えば予め規定されたノード数、例えばh×h個のノードiが格子状に配列されている。
図8(A)に示す、一般的な自己組織化マップの学習方法を説明する。
まず、競合層50の各ノードiの荷重ベクトルmiの初期値を乱数にて規定する。
そして、入力ベクトルxに対してある測度、例えばユークリッド距離を最小とする荷重ベクトルmiを有するノードi(勝利ノード)を特定し、次に、勝利ノードiの荷重ベクトルmiと、その荷重ベクトルmiの近傍のノードの荷重ベクトルを、入力ベクトルxに近づけるように更新する(競合学習)。
荷重ベクトルmiは、例えば学習率係数α(t)を用いて、数式(1)のように表すことができる。学習率係数α(t)は、学習回数および勝利ノードからの距離をパラメータとする関数であり、例えば学習回数および距離の増加に応じて値が小さくなるように規定されている。
Figure 2009074995
図8(A)に示した自己組織化マップのアルゴリズムでは、競合層50に、勝利ノードiの荷重ベクトルmiが更新されるとともに、勝利ノードiの近傍のノードの荷重ベクトルも更新される。これにより、学習後の自己組織化マップ(競合層50)には、入力データxに応じた荷重ベクトルを備えたノードにより複数のクラスタが形成される。
本発明に係る移動体情報処理装置1では、上述した自己組織化マップのアルゴリズムにより学習を行ってもよいが、後述する自己組織化マップ(自己増殖型)によりクラスタリング処理を行うことで、比較的高速にかつ高精度にランドマークデータを生成することができる。
[本実施形態に係る自己組織化マップ]
本実施形態に係る自己組織化マップのアルゴリズムを、図8(B),(C)を参照しながら説明する。
本実施形態に係る自己組織化マップは、入力層40と競合層50とを備えた2層構造である。入力層40のノード数は一定である。競合層50のノード数は、初期時のノード数が1個に設定されている。
[ノードの増殖]
また、ノードiaの発火頻度(選択回数)が閾値を超えたときに、該ノードiaを学習の対象から規定期間(不応期)だけ除外し、該ノードiaと同じ荷重ベクトルmiを備えた新たなノードibを増殖して、自己組織化マップの学習を行う。つまり不応期の間ではノードibが学習対象となる。
このように出現頻度の高い色のノードを増殖することにより、その出現頻度の高い色の近傍の解像度(分解能)を増加させることができる。このため、より高精度なクラスタリング処理を行うことができる。
[競合学習]
また、制御部8は、本実施形態に係る自己組織化マップの学習として、上述した競合学習も行う。この際、制御部8は、近傍のノードについては学習を行わず、その代りに階層学習を行う。
[階層学習]
また、制御部8は、増殖したノードibを子ノード、増殖元のノードiaを親ノードに設定し、親ノードiaおよび子ノードibの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う(階層学習)。
また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行う。
[ノードの除去]
また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
次に、移動体情報処理装置1の自己組織化マップの学習をRGB空間で表現して、詳細に説明する。
図9は、本発明の第1実施形態に係る自己組織化マップの学習によるクラスタリング処理を説明するためのフローチャートである。図10は、RGB空間における初期ノードiを示す図である。
ステップST101において、制御部8は、図10に示すように、一個の初期ノードiを生成する。荷重ベクトル(荷重結合)は規定された範囲内でランダムな値を設定する。
図11(A)は、一具体例に係る撮像画像Pであり、図11(B)は撮像画像の各画素の色情報をRGB空間に示した図である。
ステップST102において、制御部8は、図11(B)に示すように、ひし形の点は各色情報の入力ベクトルであり、その複数の入力ベクトルを入力データセットとして入力する。
図12は、入力データxと、全ノードiのユークリッド距離を説明するための図である。
ステップST103において、制御部8は、入力データxと、全ノードiのユークリッド距離dを例えば数式(2)に示すように測定し、そのうち距離dが最小の距離のノードi1(勝利ノード)を選択する(決定する)。入力層のi番目の入力ベクトルxi、入力層のi番目と競合層のj番目の荷重ベクトル荷重ベクトルwi,jを用いて表している。
Figure 2009074995
図13は、入力ベクトルxとノードi間の距離dと閾値の関係を示す図である。図14は、新規のノードの追加を説明するための図である。
制御部8は、入力ベクトルxとノードi間の距離が閾値thより小さいか否かを判別し、その結果、距離が閾値より大きいと判別した場合は、ステップST105の処理に進み、距離が閾値より小さいと判別した場合はステップST106の処理に進む。
図14は、新規のノードの追加を説明するための図である。
ステップST105において、制御部8は、入力ベクトルxに対して最小の距離の荷重ベクトルi1が対応付けられたノードを選択して当該距離が閾値ihを超えている場合、当該ノードi1を学習の対象から除外し、該入力ベクトルxと同じ荷重ベクトルを有する新たなノードi5を生成して自己組織化マップの学習を行い、ステップST110の処理に進む。
図15(A)はノードの更新を説明するための図であり、図15(B)は図15(A)に示した勝利ノード付近を拡大した図である。
ステップST106において、制御部8は、勝利ノードの荷重結合を更新する処理を行う。詳細には、制御部8は、勝利ノードの荷重ベクトルwi,win、学習率係数α(t)を用いて例えば数式(3)に示すように算出して、勝利ノードの更新を行う。
[数3]
i,win(t+1)=wi,win(t)+α(xi(t)−wi,win(t)) ・・(3)
図15(а),(B)に示すように、学習により勝利ノードiの荷重ベクトルが入力データxに近づいてノードi’となる。
図16(A)は勝利ノードと同じクラスタの階層学習を説明するための図であり、図16(B)は図16(A)に示した勝利ノード付近を拡大した図である。
ステップST107において、制御部8は、勝利者ノードi1と同じ階層構造のノードi2についても、例えば、親ノードの荷重ベクトルwi,moと、子ノードの荷重ベクトルwi,daを用いて、数式(4)に示すように更新を行う(階層学習)。この学習率係数αの係数0.1は、各種条件によって適宜設定する。
[数4]
i,mo(t+1)=wi,mo(t)+0.1α(wi,da(t)−wi,mo(t)) ・・(4)
次に、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行う。
詳細には、ステップST108において、制御部8は、勝利ノードの反応回数が予め規定された閾値より大きいか否かを判別し、反応回数が閾値より大きいと判断した場合にステップST109の処理に進み、反動回数が閾値以下の場合にステップST110の処理に進む。
図17(A)は勝利ノードの増殖を説明するための図であり、図17(B)は図17(A)に示した勝利ノード付近の拡大図である。
ステップST109において、制御部8は、勝利ノード(親ノード)i2aを増殖させて、親ノードi2aと同じ荷重ベクトルを有する子ノードi2bを生成し、親ノードi2aである勝利ノードを一定期間だけ不応期とする。例えば図17(B)において、ノードを結ぶ線の端部に黒丸が形成された側を子ノード、ノードを結ぶ線の端部に黒丸が形成されていない側を親ノードと設定して、ステップST110の処理に進む。
つまり、制御部8は、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う。
ステップST110において、制御部8は、複数の画素を入力データとした場合に、データセットについて処理が終了したか否かを判別し、判別の結果、データセットのうちの全ての入力データに対して上記処理が終了したか否かを判別し、判別の結果、終了したと判別した場合にステップST111の処理に進み、それ以外の場合にステップST103の処理に戻る。
ステップST111において、制御部8は、ノードの統廃合処理を行う。詳細には、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
図18(A)はノードの統廃合処理を説明するための図であり、図18(B)はノードi3a付近の拡大図であり、図18(C)はノードi3a付近の拡大図である。
図18(A),(B)に示すように、親ノードi3aに子ノードi3bおよび子ノードi3cが同じクラスタに属し、ノードi3aを停止(除去)する場合、ノードi3b,ノードi3cそれぞれが新しいクラスタとなる。
また、図18(A),(C)に示すように、ノードi1aに子ノードi1b,i1c,i1dが同じクラスタに属し、ノードi1bを停止(除去)する場合、ノードi1aとノードi1cとが再接続される。また、親ノードが存在しない場合には子ノードが新しいクラスタとなる。
ステップST112において、制御部8は、学習回数が規定回数より大きいか否かを判別し、判別の結果、大きいと判断した場合にステップ113の処理に進み、それ以外の場合にステップ102の処理に戻る。詳細には、本実施形態では1000〜3000回程度、上記ステップを繰り返して自己組織化マップの学習を行う。
ステップST113において、制御部8は、学習後の自己組織化マップにより色情報の分布に応じた複数のクラスタとそのクラスタの色の範囲(最大値,最小値)を規定する。
図19(A)は複数の撮像画像Pを示す図であり、図19(B)は複数の撮像画像Pのクラスタを重ね合わせて表現した図であり、図19(C)は全撮像画像P毎のクラスタリストを説明するための図である。
次に、制御部8は、図19(C)に示すように、撮像画像Pに撮像画像Pの色情報が分類されるクラスタを特定し、その各画像毎にそのクラスタを関連付けたクラスタリストを生成する。
各画像P毎に、各画素の色情報が分類されるクラスタのリストを生成する。
詳細には、図19(C)に示すように、画像P1はクラスタCL1 1、クラスタCL1 2、・・・、クラスタCL1 aを含む。画像P2はクラスタCL2 1、クラスタCL2 2、・・・、クラスタCL2 bを含む。また、画像Pnはクラスタは、クラスタCLn 1、クラスタCLn 2、・・・、クラスタCLn cを含む。
また、このクラスタCLそれぞれには、色の範囲、詳細には色の最小値および最大値が規定されている。
図20(A)は複数の撮像画像Pの複数のクラスタを重ねて示した図であり、図20(B)は図20(A)に示したクラスタを自己組織化マップによりクラスタリング処理を施した後の状態を示す図である。
制御部8は、クラスタとクラスタの色の範囲(最大値および最小値)を基に、例えば上述したように自己組織化マップの学習を行う。その結果、図20(B)に示すように、クラスタのRGB値の近いクラスタにより、全体のクラスタを形成する。
詳細には、図20(C)に示すように、自己組織化マップの学習の結果、複数撮像画像Pの各画素の色情報のクラスタおよび該クラスタの色の範囲を規定することができる。
図20(C)に示すように、クラスタIDとクラスタの色の範囲(RGB値の最小値,RGB値の最大値)の関係は、例えば、CLALL 1=(R11,G11,B11,R12,G12,B12),CLALL 2=(R21,G21,B21,R22,G22,B22),・・・,CLALL m=(Rm1,Gm1,Bm1,Rm2,Gm2,Bm2)となる。ここでは、第2のクラスタリング処理後のj番目のクラスタをCLALL jと表す。
[出現頻度によるクラスタの分類処理(頻出クラスタの除去処理)]
図21は、クラスタの頻出クラスタの除去処理を説明するための図である。
クラスタCLALL mには、壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタが含まれている。このような位置推定に直接には役に立たないクラスタを除去することで、高精度なランドマークデータを生成することができる。詳細には、移動環境200内で撮像した複数の画像Pにおいて、共通するクラスタを除去する。
詳細には、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。つまり、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。
具体的には、例えば図21に示すように、移動環境200内で撮像された画像P1,P2,・・・,PNそれぞれについて、クラスタCLALL 1,CLALL 2,・・・,CLALL j,・・・,CLALL mが含まれているか否かを示すリスト(クラスタリスト)を生成する。図21に示すように、例えば撮像画像P1には、クラスタCLALL 1とCLALL jが含まれており、その他のクラスタは含まれていない。
図21に示すように、クラスタリストに基づいて、各画像に共通に含まれているクラスタCLALL jが全画像Pに含まれているので、このクラスタCLALL jを除去して、新たに色クラスタIDをCCL1,CCL2,・・・,CCLxを割り当てる。このクラスタCLALL jについては、色クラスタIDを割り振らない。
図22(A)は色クラスタリストを説明するための図であり、図22(B)は学習対象の撮像画像を示す図であり、図22(C)は学習対象の画像に含まれる色クラスタのリスト(ランドマークデータ)を説明するための図である。
図21に示した色クラスタリストは、色クラスタCCLそれぞれの色の範囲(RGB値の最小値,およびRGB値の最大値)が、例えば、図22(A)に示すように規定される。このクラスタCCLと色の範囲は、第2のクラスタリング処理の結果により得られる。
詳細には、色クラスタCCL1には色の範囲(R11,G11,B11,R12,G12,B12)が対応し、色クラスタCCL2には色の範囲(R21,G21,B21,R22,G22,B22)が対応し、・・・、色クラスタCCLjには色の範囲(RX1,GX1,BX1,RX2,GX2,BX2)が対応している。
次に、図22(B)に示すように、移動環境200内で撮像された複数のカラー画像Pそれぞれと、図22(A)に示した色クラスタリストとの反応を調べる。その結果、反応した色クラスタCLLを図22(C)に示すように、各画像Pそれぞれについて関連付けたリストを生成する。
詳細には、例えば図22(C)に示すように、画像P1には色クラスタCCL1、CCL2が含まれており、画像P2には色クラスタCCL2、CCL5が含まれており、画像P3には色クラスタが含まれず(NULL)、画像PNには色クラスタCCLxが含まれている。
また、上記色クラスタを特定する方法としては、制御部8は、学習後の自己組織化マップを用いて、各画像の画素の色情報を入力ベクトルとして入力し、その結果、反応するクラスタにより判断してもよい。
図22(C)に示すように、画像P毎に色クラスタが関連付けられたリストをランドマークデータ(RMD)という。また、図22(C)に示すように、ランドマークデータの各画像それぞれは、撮像位置に関する位置情報と関連付けられている。
つまり、制御部8は、撮像画像、その撮像画像の色情報が分類された色クラスタ、およびその撮像画像の撮像位置に関する位置情報とが関連付けられたランドマークデータ(RMD)を生成する。制御部8は、このランドマークデータ(RMD)を記憶部4に記憶する。
上記実施形態では、ランドマークデータとして、各撮像画像P、色クラスタ、位置情報とが関連付けられていたが、この形態に限られるものではない。例えば、撮像画像と上記色クラスタとを関連付けたデータ(リスト)を生成して記憶部4に記憶してもよい。その結果、記憶部4は、位置情報と撮像画像を関連付けて記憶し、さらに撮像画像と色クラスタとを関連付けて記憶する。つまり、ランドマークデータの各要素それぞれは、互いに関連付けられて記憶されていれば、上記形態に限られるものではない。
また、本実施形態に係るランドマークデータでは、上述したように撮像画像と、その撮像画像の色情報が分類される色クラスタ(色クラスタの組み合わせ)が明確に規定されている。
[ランドマークデータ利用時の動作(位置推定処理)]
図23は、移動体情報処理装置1がランドマークデータを生成した後、位置推定を行う動作を説明するための図である。図24は、図1に示した移動体情報処理装置のランドマークデータ利用時の動作を説明するフローチャートである。図25(A)は位置推定用の撮像画像Pを示す図であり、図25(B)は位置推定用の撮像画像Pの色情報をRGB空間で示した図である。
図26(A)は撮像画像の色情報が分類されるクラスタCLLを示す図であり、図26(B)は入力データ(位置推定用の撮像画像)とクラスタを示すRGB空間の図である。
移動体情報処理装置1は、上記自己組織化マップの学習によりランドマークデータを生成した後、そのランドマークデータと位置推定用の撮像画像により移動体(ロボット)の位置推定を行う。詳細には、移動体(ロボット)100を環境200内に配置した際に、移動体100の位置を推定する場合、移動体情報処理装置1は、その位置で撮像された位置推定用の撮像画像と、学習対象の撮像画像の間の類似度を算出して、その類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。詳細には、制御部8は、位置推定用の撮像画像に対して比較的高い類似度の学習用の撮像画像を特定し、その特定された撮像画像に関連付けられた位置情報を基に位置推定を行う。
以下、移動体情報処理装置1の位置推定に関する動作を詳細に説明する。
本実施形態では、移動体情報処理装置1が、移動環境200内の任意の位置、例えば図23に示すように、木箱とその木箱の近傍に備えられた観葉植物の間付近の位置に、配置される。移動体情報処理装置1の進行方向は、棚が位置する方向と略一致しており、撮像部の撮像方向も同様である。
ステップST201において、移動体情報処理装置1は、例えば図24に示すように、初期位置で撮像部2により移動環境200内の被写体を撮像して、図25(A)に示すように、位置推定用のカラー画像Pを取得する。詳細には、制御部8は、撮像部2を駆動して位置推定用のカラー画像Pを取得し、図25(B)に示すように色情報を取得する。例えば、この位置推定用の撮像画像Pには、赤茶色の鉢、緑色の葉を備えた観葉植物、略白色の壁、および藍色の床が被写体として撮像されている。
図27は、位置推定用の撮像画像の各画素の色情報が反応する色クラスタCLLと、ランドマークデータとのマッチングを説明するための図である。
ステップST202において、制御部8は、図26(A),(B)に示すように、クラスタCLLおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタCLLを特定する。本実施形態では、例えば図26,図27に示すように、色クラスタCLL1,CLL2が特定される。
ステップST204において、制御部8は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。類似度は、例えば、位置推定用の撮像画像の色情報から特定されたクラスタCLLの組み合わせと、ランドマークデータ(RMD)の各クラスタCLLの組み合わせとの一致の度合を数値化したものを採用する。この際、ランドマークデータの各クラスタCLLそれぞれに重み付けを設定して、その重み付けを考慮して類似度を算出してもよい。例えば各クラスタの重み付けは、そのクラスタを含む画像の個数が少ないほど、大きく設定することが好ましい。こうすることで高精度に類似度を決定することができる。
類似度は、この形態に限られるものではなく、例えば既存の類似判断方法により類似度を算出してもよい。
次に、制御部8は、算出された類似度が閾値より大きいか否かを判別し、類似度が閾値より大きいと判別した場合に、ステップST105の処理に進み、それ以外の場合にステップST206の処理に進む。
ステップST205において、制御部8は、類似度が閾値より大きい学習用の撮像画像Pを特定し、その撮像画像Pに関連付けられている位置情報に基づいて、位置推定に関する処理を行う。例えば、制御部8は、特定された撮像画像Pに関連付けられている位置情報と、移動体(ロボット100)の自己位置との差が比較的小さいと判断する。つまり、制御部8は、移動体の自己位置が、特定された撮像画像の撮像位置の近傍であると推定する。
制御部8は、類似度が閾値以下であると判断した場合、駆動部5を駆動して移動体(ロボット)100を移動して、ステップST201の処理に戻る。
この際、制御部8は、例えば類似度が閾値以下であるが、類似度が最も高い撮像画像に関連付けられている位置情報を特定して、その位置に移動してステップST201の処理に戻り、再度上述した位置推定の処理を行ってもよい。このように、類似度が閾値以上となるまで移動しながら位置推定を行うことで、高精度に自己位置を特定することができる。
移動制御の他の具体例としては、例えば、ステップST206において、制御部8は、ロボット100の縦軸を基準とする回転角が、閾値より大きいか否かを判別し、大きいと判断した場合には、所定角度、例えば90度右回転するように駆動部5を制御してロボット100を回転した後(ST207)、ステップST201の処理に戻る。一方、制御部8は、回転角が閾値以下であると判断した場合、所定距離だけ移動してステップST201の処理に戻る。
このように類似度が閾値以上となるまで上述した処理を繰り返すことで、高精度に自己位置を特定することができる。
また、例えば、制御部8は、位置推定用の撮像画像に対して、類似度が閾値以下で、かつ所定の色クラスタCLLに分類することができない場合には、この位置推定用の撮像画像に対して、上述したランドマークデータを生成する処理を施して、ランドマークデータに新たなクラスタを生成してもよい。
[第2実施形態]
図28は、本発明の第2実施形態に係る移動体情報処理装置を説明するための図である。
本実施形態に係る移動体情報処理装置1Aは、図28に示すように、移動体(ロボット)100Aと、外部コンピュータ100Bとを有する。第1実施形態と第2実施形態と同じ構成要素、機能、動作等については、説明を省略する。
本実施形態に係るロボット100Aは、外部コンピュータ100Bと通信可能な通信部9を有する。通信部9は、制御部8の制御により外部コンピュータ100Bとデータ通信を行う。
外部コンピュータ100Bは、記憶部、通信部、制御部などを有しており、ロボット100Aとデータ通信を行うことにより、ロボット100Aを制御することができる。外部コンピュータ100Bは、例えば本発明に係るクラスタリング処理によるランドマーク生成処理、位置推定処理、等の比較的高い演算処理能力を要する処理を行う。
ロボット100Aは、外部コンピュータ100Bから、撮影命令を示す制御信号を受信した場合、撮像部2により撮像を行って、撮像画像Pを通信部9を介して外部コンピュータ100Bに送信する。また、ロボット100Aは、外部コンピュータ100Bから、車輪駆動命令を示す制御信号を受信した場合、その制御信号に応じて車輪を駆動して移動する。
本実施形態に係る移動体情報処理装置1Aでは、ロボット100Aと外部コンピュータ100Bが、上述したように分散処理を行うので、ロボット100Aを比較的軽量に構成することができる。
また、複数のロボット100Aを設け、外部コンピュータ100Bがその複数のロボット100Aを統括的に制御することで、より高精度にランドマークデータを生成することができる。また、取得する情報量が増加するので、より高精度に位置推定を行うことができる。
本発明は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができれば、各種形態をとることができる。
例えば、上述した実施形態では、カラー画像の各画素それぞれが色情報としてRGB値を備えていたが、この形態に限られるものではない。例えばカラー画像の各画素の色情報が、YIQ(輝度信号Y、色差信号R−Y、B−Y)、YCbCr、等の規定の色空間により表現したデータであってもよい。
また、本発明に係る機能をコンピュータがプログラムを実行することにより実現してもよいし、専用の電子回路が情報処理を行うことにより実現してもよい。
また、移動体情報処理装置1の位置推定時の動作は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができるように任意の動作を行ってもよい。
また、上記した実施形態では、撮像部により所定のタイミングで複数のカラー画像を撮像したが、例えば、1秒間に数十フレーム程度の枚程度のカラーの動画像を撮像してもよい。移動体情報処理装置1は、動画像にて本発明に係るクラスタリング処理を行うことで、より高精度なランドマークデータを生成することができ、かつそのランドマークデータを用いて高精度に位置推測を行うことができる。
また、本発明に係る移動体情報処理装置1は、例えば、掃除ロボット、工場内の運搬ロボット、道案内ロボット、等の移動環境内で移動可能であるロボットに適用することができる。
以上、説明したように、本発明に係る移動体情報処理装置1は、移動環境内の被写体を撮像してカラー画像を取得する撮像部2と、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部4と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部8とを有するので、例えば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。
また、制御部8は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、比較的高精度に、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。
また、制御部8は、学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定するので、簡単に撮像画像の色情報が分類されるクラスタを特定することができる。
また、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、ランドマークデータを生成する処理を行うので、例えば壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタを除去することで、高精度なランドマークデータを生成することができる。
また、本発明に係る移動体情報処理装置1は、撮像画像の色情報に関するデータが入力ベクトルとして入力される入力層40と、入力ベクトルと同じ次元の荷重ベクトルが対応付けられたノードを備える競合層50とを有するニューラルネットワークを有し、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、自己組織化マップの教師なし学習を行うので、簡単な処理によりクラスタリングを行うことができる。
また、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行うので、ノードの増殖により、出現頻度の高い色の近傍の解像度(分解能)を増加させることで、より高精度なクラスタリング処理を行うことができる。
また、制御部8は、増殖したノードを子ノード、増殖元のノードを親ノードに設定し、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該最小の距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
また、制御部8は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のクラスタリング処理部812と、複数の撮像画像それぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部814とを有するので、簡単な処理により複数の撮像画像の各画素の色情報を比較的高精度にクラスタリングすることができる。
また、移動体情報処理装置1は、移動体100の周囲の被写体を撮像してカラー画像を生成する撮像部2と、移動体100を移動環境内で移動させる駆動部5とを有し、制御部8は、駆動部5を駆動制御して移動体100を移動させるとともに移動体100の撮像部2により撮像された画像に応じた処理を行うことにより、例えば高精度に、ランドマークデータを生成する処理や位置推定処理を行うことができる。
また、移動体情報処理装置1は、撮像部2を撮像方向が進行方向と略同一となるように固定した場合であっても、その撮像方向に応じた画像により、ランドマークデータの生成処理、および位置推定に関する処理を行うことができる。
本発明の第1実施形態に係る移動体情報処理装置の全体機能ブロック図である。 図1に示した移動体情報処理装置の移動環境を説明するための図である。 図1に示した移動体情報処理装置の制御部の機能を説明するための機能ブロック図である。 図1に示した移動体情報処理装置の動作を説明するためのフローチャートである。 撮像画像と自己組織化マップによるクラスタリングを説明するための図であり、(A)は学習対象のカラー撮像画像Pを説明するための図であり、(B)は(A)に示した撮像画像Pの各画素の色情報をRGB空間に示した図であり、(C)は(B)に示した撮像画像Pを入力データとして生成された複数のクラスタと各クラスタの色の範囲を説明するための図である。 図5(C)に示したクラスタCL1 1に含まれる色情報を説明するための図である。 図5(C)に示した各クラスタおよびクラスタに含まれる色情報を説明するための図である。 本発明に係る自己組織化マップを説明するための図であり、(A)は競合層に複数のノードが予め規定されている自己組織化マップを説明するための図であり、(B)は初期時に競合層に一つのノードが規定されている自己組織化マップを説明するための図であり、(C)は(B)に示した自己組織化マップの競合層のノードが増殖する動作を説明するための図である。 本発明の第1実施形態に係る自己組織化マップの学習によるクラスタリング処理を説明するためのフローチャートである。 RGB空間における初期ノードiを示す図である。 (A)は一具体例に係る撮像画像Pであり、(B)は撮像画像の各画素の色情報をRGB空間に示した図である。 入力データxと、全ノードiのユークリッド距離を説明するための図である。 入力ベクトルxとノードi間の距離dと閾値の関係を示す図である。 新規のノードの追加を説明するための図である。 (A)はノードの更新を説明するための図であり、(B)は(A)に示した勝利ノード付近を拡大した図である。 (A)は勝利ノードと同じクラスタの階層学習を説明するための図であり、(B)は(A)に示した勝利ノード付近を拡大した図である。 (A)は勝利ノードの増殖を説明するための図であり、(B)は(A)に示した勝利ノード付近の拡大図である。 (A)はノードの統廃合処理を説明するための図であり、(B)はノードi3a付近の拡大図であり、(C)はノードi3a付近の拡大図である。 (A)は複数の撮像画像Pを示す図であり、(B)は複数の撮像画像Pのクラスタを重ね合わせて表現した図であり、(C)は全撮像画像P毎のクラスタリストを説明するための図である。 (A)は複数の撮像画像Pの複数のクラスタを重ねて示した図であり、(B)は(A)に示したクラスタを自己組織化マップによりクラスタリング処理を施した後の状態を示す図である。 クラスタの頻出クラスタの除去処理を説明するための図である。 (A)は色クラスタリストを説明するための図であり、(B)は学習対象の撮像画像を示す図であり、(C)は学習対象の画像に含まれる色クラスタのリスト(ランドマークデータ)を説明するための図である。 移動体情報処理装置1がランドマークデータを生成した後、位置推定を行う動作を説明するための図である。 図1に示した移動体情報処理装置のランドマークデータ利用時の動作を説明するフローチャートである。 (A)は位置推定用の撮像画像Pを示す図であり、(B)は位置推定用の撮像画像Pの色情報をRGB空間で示した図である。 (A)は撮像画像の色情報が分類されるクラスタCLLを示す図であり、(B)は入力データ(位置推定用の撮像画像)とクラスタを示すRGB空間の図である。 位置推定用の撮像画像の各画素の色情報が反応する色クラスタCLLと、ランドマークデータとのマッチングを説明するための図である。 本発明の第2実施形態に係る移動体情報処理装置を説明するための図である。
符号の説明
1 移動体情報処理装置
2 撮像部
3 量子化部
4 記憶部
5 駆動部
6 車輪
7 センサ
8 制御部
10 筐体
81 第1の処理部
82 第2の処理部
100 ロボット
811 駆動制御部
812 第1クラスタリング処理部(第1SOM)
813 最大値最小値抽出部
814 第2クラスタリング処理部(第2SOM)
815 クラスタリスト生成部
816 ランドマークデータ生成部
821 クラスタ取得部
822 マッチング部
823 位置推定部
824 駆動制御部

Claims (15)

  1. 移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、
    学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、
    前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部と
    を有することを特徴とする移動体情報処理装置。
  2. 前記制御部は、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行うことを特徴とする請求項1に記載の移動体情報処理装置。
  3. 前記制御部は、前記学習後の自己組織化マップによるクラスタおよび前記色の範囲に基づいて、前記撮像画像の各画素の色情報が分類される前記クラスタを特定することを特徴とする請求項1に記載の移動体情報処理装置。
  4. 前記制御部は、前記複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、前記ランドマークデータを生成する処理を行うことを特徴とする請求項1に記載の移動体情報処理装置。
  5. 前記撮像画像の色情報に関するデータが入力ベクトルとして入力される入力層と、前記入力ベクトルと同じ次元の荷重ベクトルが対応付けられたノードを備える競合層とを備えるニューラルネットワークを有し、
    前記制御部は、前記入力ベクトルに対して最小の距離の前記荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、前記自己組織化マップの学習を行うことを特徴とする請求項1に記載の移動体情報処理装置。
  6. 前記制御部は、前記入力ベクトルに応じて選択された前記ノードの選択回数が閾値を超えた場合、該ノードを前記学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。
  7. 前記制御部は、前記増殖したノードを子ノード、増殖元のノードを親ノードに設定し、前記親ノードおよび前記子ノードの一方のノードを更新する場合、他方のノードとともに更新して、前記自己組織化マップの学習を行うことを特徴とする請求項6に記載の移動体情報処理装置。
  8. 前記制御部は、前記入力ベクトルに対して最小の距離の前記荷重ベクトルが対応付けられたノードを選択して当該最小の距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。
  9. 前記制御部は、規定期間更新されていないノードを除去して、前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。
  10. 前記制御部は、前記撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のクラスタリング処理部と、
    前記複数の撮像画像それぞれに規定された前記クラスタおよび前記色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部と
    を有することを特徴とする請求項1に記載の移動体情報処理装置。
  11. 移動体の周囲の被写体を撮像してカラー画像を生成する撮像部と、
    前記移動体を移動環境内で移動させる駆動部とを有し、
    前記制御部は、前記駆動部を駆動制御して前記移動体を移動させるとともに前記移動体の前記撮像部により撮像された画像に応じた処理を行うことを特徴とする請求項1に記載の情報処理装置。
  12. 移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置の情報処理方法であって、
    前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
    前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
    を有することを特徴とする移動体情報処理の情報処理方法。
  13. 前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする請求項12に記載の移動体情報処理の情報処理方法。
  14. 移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置に実行させるためのプログラムであって、
    前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
    前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
    を前記移動体情報処理装置に実行させるためのプログラム。
  15. 前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする請求項14に記載のプログラム。
JP2007245534A 2007-09-21 2007-09-21 移動体情報処理装置、移動体情報処理方法、およびプログラム Pending JP2009074995A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007245534A JP2009074995A (ja) 2007-09-21 2007-09-21 移動体情報処理装置、移動体情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007245534A JP2009074995A (ja) 2007-09-21 2007-09-21 移動体情報処理装置、移動体情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2009074995A true JP2009074995A (ja) 2009-04-09

Family

ID=40610095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007245534A Pending JP2009074995A (ja) 2007-09-21 2007-09-21 移動体情報処理装置、移動体情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2009074995A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227037A (ja) * 2010-03-31 2011-11-10 Aisin Aw Co Ltd 画像処理システム及び位置測位システム
WO2012086821A1 (ja) * 2010-12-20 2012-06-28 日本電気株式会社 測位装置、測位方法
WO2014129116A1 (ja) * 2013-02-22 2014-08-28 国立大学法人東京工業大学 情報処理装置、情報処理方法及び非一時的なコンピュータ可読媒体
JP2016143354A (ja) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム
WO2019035155A1 (ja) * 2017-08-14 2019-02-21 楽天株式会社 画像処理システム、画像処理方法、及びプログラム
CN110781334A (zh) * 2018-07-24 2020-02-11 丰田自动车株式会社 信息处理设备和信息处理方法
KR20200134807A (ko) * 2019-05-23 2020-12-02 주식회사 다비오 이미지 기반 실내 측위 서비스 시스템 및 방법
KR20210106639A (ko) * 2020-02-21 2021-08-31 동명대학교산학협력단 영상데이터 학습을 통한 보행자의 실내 경로 안내 장치 및 그 방법
WO2022264370A1 (ja) * 2021-06-17 2022-12-22 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227037A (ja) * 2010-03-31 2011-11-10 Aisin Aw Co Ltd 画像処理システム及び位置測位システム
WO2012086821A1 (ja) * 2010-12-20 2012-06-28 日本電気株式会社 測位装置、測位方法
US9794519B2 (en) 2010-12-20 2017-10-17 Nec Corporation Positioning apparatus and positioning method regarding a position of mobile object
WO2014129116A1 (ja) * 2013-02-22 2014-08-28 国立大学法人東京工業大学 情報処理装置、情報処理方法及び非一時的なコンピュータ可読媒体
JP2014164396A (ja) * 2013-02-22 2014-09-08 Tokyo Institute Of Technology 情報処理装置、情報処理方法及びプログラム
JP2016143354A (ja) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム
WO2019035155A1 (ja) * 2017-08-14 2019-02-21 楽天株式会社 画像処理システム、画像処理方法、及びプログラム
JPWO2019035155A1 (ja) * 2017-08-14 2019-11-07 楽天株式会社 画像処理システム、画像処理方法、及びプログラム
CN110781334A (zh) * 2018-07-24 2020-02-11 丰田自动车株式会社 信息处理设备和信息处理方法
CN110781334B (zh) * 2018-07-24 2023-09-29 丰田自动车株式会社 信息处理设备和信息处理方法
KR20200134807A (ko) * 2019-05-23 2020-12-02 주식회사 다비오 이미지 기반 실내 측위 서비스 시스템 및 방법
KR102277974B1 (ko) * 2019-05-23 2021-07-15 주식회사 다비오 이미지 기반 실내 측위 서비스 시스템 및 방법
KR20210106639A (ko) * 2020-02-21 2021-08-31 동명대학교산학협력단 영상데이터 학습을 통한 보행자의 실내 경로 안내 장치 및 그 방법
KR102317499B1 (ko) * 2020-02-21 2021-10-25 동명대학교 산학협력단 영상데이터 학습을 통한 보행자의 실내 경로 안내 장치 및 그 방법
WO2022264370A1 (ja) * 2021-06-17 2022-12-22 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2009074995A (ja) 移動体情報処理装置、移動体情報処理方法、およびプログラム
KR101901586B1 (ko) 로봇 위치 추정 장치 및 그 방법
JP4696856B2 (ja) 画像処理装置、画像処理方法、そのプログラム、およびそのプログラムを記録したコンピュータ読取り可能な記録媒体
CN106096582A (zh) 区分真人面部与平坦表面
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
CN112505065A (zh) 一种实现室内无人机对大部件表面缺陷进行检测的方法
JP2008506953A5 (ja)
WO2017163928A1 (ja) 画像処理装置および方法
JP2011179909A (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
JP2007064836A (ja) カメラキャリブレーションの自動化アルゴリズム
JP5872395B2 (ja) 領域分割装置
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
CN112802186B (zh) 基于二值化特征编码匹配的动态场景实时三维重建方法
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP5872401B2 (ja) 領域分割装置
JP2002032760A (ja) 動物体抽出方法および装置
WO2021210492A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021049281A1 (ja) 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
JP4830585B2 (ja) 画像処理装置および画像処理方法
CN113902847A (zh) 基于三维特征约束的单目深度图像位姿优化方法
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム
Tozan et al. Fuzzy Prediction Based Trajectory Estimation
CN114155281B (zh) 一种无人机目标跟踪自动初始化方法
JP4515698B2 (ja) 動画像合成方法および装置並びにプログラム