JP6919882B2 - 人推定システムおよび推定プログラム - Google Patents

人推定システムおよび推定プログラム Download PDF

Info

Publication number
JP6919882B2
JP6919882B2 JP2017069865A JP2017069865A JP6919882B2 JP 6919882 B2 JP6919882 B2 JP 6919882B2 JP 2017069865 A JP2017069865 A JP 2017069865A JP 2017069865 A JP2017069865 A JP 2017069865A JP 6919882 B2 JP6919882 B2 JP 6919882B2
Authority
JP
Japan
Prior art keywords
dimensional
image data
distance image
moving object
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017069865A
Other languages
English (en)
Other versions
JP2018173707A (ja
Inventor
ドラジェン ブルシュチッチ
ドラジェン ブルシュチッチ
神田 崇行
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2017069865A priority Critical patent/JP6919882B2/ja
Publication of JP2018173707A publication Critical patent/JP2018173707A/ja
Application granted granted Critical
Publication of JP6919882B2 publication Critical patent/JP6919882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

この発明は、人推定システムおよび推定プログラムに関し、特に、たとえば移動ロボットに搭載した3次元レーザ距離計で獲得した3次元スキャンデータを用いて人の位置などを推定する、人推定システムおよび推定プログラム
ロボットやその他の移動機械が人との共存環境で活動するためには、自分の位置、そして周りの人の位置とその特徴を知ることが重要である。ロボットのセンサとして一般のカメラを使用する場合、プライバシーが問われることがあるが、距離だけを計っている3次元測域センサ(3次元レーザ距離計)は、そういった心配がないので、人との共存にふさわしいセンサである。
特許文献1には、3次元レーザ距離計を用いて人を検出したり、その位置を推定したりする手法が開示されている。
特許第5953484号 [G01S 17/88]
特許文献1の背景技術では、移動している物体はすべて人であるという前提に立つものであり、それに伴う誤検出を避けられない。
それゆえに、この発明の主たる目的は、新規な、人推定システムおよび推定プログラムを提供することである。
この発明の他の目的は、誤検出を可及的抑制できる、人推定システムおよび推定プログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、移動するロボット、ロボットに搭載された3次元レーザ距離計、3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出部、移動物体の3次元距離画像データをクラスタリングして移動物体の3次元点群を生成するクラスタリング部、3次元点群を投影することによって移動物体の2次元距離画像データを生成する投影部、および2次元距離画像データを入力とするディープニューラルネットワークを備え、投影部は、3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そしてディープニューラルネットワークが人と物とを識別する、人推定システムである。
第1の発明では、人推定システムは、移動するロボット(10:実施例において相当する部分を例示する参照符号。以下同じ。)を含み、このロボットには3次元レーザ距離計(26)が搭載される。抽出部(60,94、S1)は、3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する。クラスタリング部(60,94、S3)では、この抽出された移動物体の3次元距離画像データをクラスタリングして、移動物体の3次元点群を生成する。投影部(60,94、S5)は、3次元点群を投影することによって移動物体の2次元距離画像データを生成し、その2次元距離画像データがディープニューラルネットワークに投入される(S7)。具体的には、投影部は、3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の投影面からの平均距離に基づいて各ピクセルのピクセル値を決める。そして、ディープニューラルネットワークでは、2次元距離画像データに基づいて、人と物とを識別する。さらに、ディープニューラルネットワークでは、人の特徴(たとえば、性別、向きなど)を識別することもできる。
第1の発明によれば、3次元環境地図にのっていない物体の3次元距離画像を抽出することにより、環境(固定物)の一部を移動物体として誤認識することが可及的抑制される。しかも、ディープラーニング等の手法により、3次元の移動物体の形から人か物か検出する認識プログラムが実現可能となり、物を無視して、人だけの検出を行うことができる。
第2の発明は、第1の発明に従属し、ディープニューラルネットワークは畳み込みニューラルネットワークである、人推定システムである。
第2の発明によれば、ディープニューラルネットワーク(DNN)として畳み込みニューラルネットワークを用いたので、人推定が容易に行える。
第3の発明は、3次元レーザ距離計を搭載した移動可能ロボットを含む人推定システムのコンピュータによって実行される推定プログラムであって、推定プログラムは、コンピュータを、3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出部、移動物体の3次元距離画像データをクラスタリングして移動物体の3次元点群を生成するクラスタリング部、3次元点群を投影することによって移動物体の2次元距離画像データを生成する投影部、および2次元距離画像データを入力とするディープニューラルネットワークとして機能させ、投影部は、3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そしてディープニューラルネットワークが人と物とを識別する、推定プログラムである。
第4の発明は、3次元レーザ距離計を搭載した移動可能ロボットを含む人推定システムのコンピュータによって実行される推定方法であって、3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出ステップ、移動物体の3次元距離画像データをクラスタリングして移動物体の3次元点群を生成するクラスタリングステップ、3次元点群を投影することによって移動物体の2次元距離画像データを生成する投影ステップ、および2次元距離画像データをディープニューラルネットワークに投入するステップを含み、投影ステップでは、3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そしてディープニューラルネットワークが人と物とを識別する、推定方法である。
この発明によれば、環境の一部を移動物体であるという誤認を防止できるので、誤検出を可及的抑制することができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例である人推定システムに用いられるロボットの一例を示す図解図である。 図2は図1実施例のロボットの電気的構成の一例を示すブロック図である。 図3は図1実施例のロボットの移動空間の一例を示す図解図である。 図4は図1実施例のロボットの遠隔操作装置の一例を示すブロック図である。 図5は図2実施例におけるロボットのメモリのメモリマップの一例を示す図解図である。 図6は図1実施例のロボットの移動空間の一部を示す図解図である。 図7はロボットに搭載した全方位レーザ距離計の実際のスキャンデータの一例を示す図解図である。 図8は図1実施例のロボットを用いる推定システムの動作の一例を示すフロー図である。 図9は図8実施例において地図にない部分の3次元距離画像データをクラスタリングした結果の移動物体の3次元点群の一例を示す図解図である。 図10は図8実施例において図9に示す移動物体の3次元点群を投影した2次元距離画像の一例を示す図解図である。 図11は図9に示す移動物体の3次元点群を投影する手法の一例を示す図解図である。
図1はこの発明の一実施例の推定システムに用いるロボット10の一例を示す。推定システムは、この実施例では、ロボット10に搭載した3次元測域センサ(3次元全方位レーザ距離計)を用いて、ロボット10の自己位置や人の位置、向き、または属性の同時推定を可能とするものである。
ロボット10は台車12を含み、台車12の下面にはロボット10を移動させる2つの車輪14および1つの従輪16が設けられる。2つの車輪14は車輪モータ82(図2参照)によってそれぞれ独立に駆動され、台車12すなわちロボット10を前後左右の任意方向に動かすことができる。
台車12の上には、円柱形のセンサ取り付けパネル18が設けられ、このセンサ取り付けパネル18には、多数の距離センサ20が取り付けられる。これらの距離センサ20は、たとえば赤外線や超音波などを用いてロボット10の周囲の物体(人や障害物など)との距離を測定するものである。
センサ取り付けパネル18の上には、胴体22が直立して設けられる。また、胴体22の前方中央上部(人の胸に相当する位置)には、上述した距離センサ20がさらに設けられ、ロボット10の前方の、主として人との距離を計測する。また、胴体22には、その側面側上端部のほぼ中央から伸びる支柱24が設けられ、支柱24の上には、全方位レーザ距離計26が設けられる。全方位レーザ距離計26は、たとえば、水平を基準として上下40°(+30°‐−10°)の検知角度(垂直視野角)を有する3次元レーザ距離計である。この3次元全方位レーザ距離計(以下、単に「レーザ距離計」ということがある。)26は、たとえば0.1秒に1回転して、およそ100mまでの距離を計測する。実験では、レーザ距離計26として、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名)を用いた。
なお、図示していないが、支柱24にはさらに全方位カメラが設けられてもよい。全方位カメラは、ロボット10の周囲を撮影するものであり、後述する眼カメラ50とは区別される。この3全方位カメラとしては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。
胴体22の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節28Rおよび肩関節28Lによって、上腕30Rおよび上腕30Lが設けられる。図示は省略するが、肩関節28Rおよび肩関節28Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節28Rは、直交する3軸のそれぞれの軸廻りにおいて上腕30Rの角度を制御できる。肩関節28Rの或る軸(ヨー軸)は、上腕30Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節28Lは、直交する3軸のそれぞれの軸廻りにおいて上腕30Lの角度を制御できる。肩関節28Lの或る軸(ヨー軸)は、上腕30Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕30Rおよび上腕30Lのそれぞれの先端には、肘関節32Rおよび肘関節32Lが設けられる。図示は省略するが、肘関節32Rおよび肘関節32Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕34Rおよび前腕34Lの角度を制御できる。
前腕34Rおよび前腕34Lのそれぞれの先端には、人の手に相当するハンド36Rおよびハンド36Lがそれぞれ設けられる。これらのハンド36Rおよび36Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット10は、ハンド36Rおよび36Lを用いて物体を把持または挟持することができる。ただし、ハンド36R、36Lの形状は実施例の形状に限らず、人の手に酷似した形状や機能を持たせるようにしてもよい。
また、図示は省略するが、台車12の前面、肩関節28Rと肩関節28Lとを含む肩に相当する部位、上腕30R、上腕30L、前腕34R、前腕34L、ハンド36Rおよびハンド36Lには、それぞれ、接触センサ38(図2で包括的に示す)が設けられる。台車12の前面の接触センサ38は、台車12への人間や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪14の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ38は、当該各部位に触れたかどうかを検知する。
胴体22の中央上部(人の首に相当する位置)には首関節40が設けられ、さらにその上には頭部42が設けられる。図示は省略するが、首関節40は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部42には、人の口に相当する位置に、スピーカ44が設けられる。スピーカ44は、ロボット10が、それの周辺の人に対して音声によってコミュニケーションをとるために用いられる。また、人の耳に相当する位置には、マイク46Rおよびマイク46Lが設けられる。以下、右のマイク46Rと左のマイク46Lとをまとめてマイク46ということがある。マイク46は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。
さらに、人の目に相当する位置には、右の眼球部48Rおよび左の眼球部48Lが設けられる。右の眼球部48Rおよび左の眼球部48Lは、それぞれ右の眼カメラ50Rおよび左の眼カメラ50Lを含む。以下、右の眼球部48Rと左の眼球部48Lとをまとめて眼球部48ということがある。また、右の眼カメラ50Rと左の眼カメラ50Lとをまとめて眼カメラ50ということがある。
眼カメラ50は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット10は、この眼カメラ50からの映像信号によって、人の左右両目のそれぞれの視線方向(ベクトル)を検出する。
また、眼カメラ50は、上述した3次元距離画像計26と同様のカメラを用いることができる。たとえば、眼カメラ50は、眼球部48内に固定され、眼球部48は、眼球支持部(図示せず)を介して頭部42内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部42の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部42の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部48ないし眼カメラ50の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ44、マイク46および眼カメラ50の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット10は、車輪14の独立2軸駆動、肩関節28の3自由度(左右で6自由度)、肘関節32の1自由度(左右で2自由度)、首関節40の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
図2はロボット10の電気的な構成を示すブロック図である。この図2を参照して、ロボット10は、1つまたは2以上のコンピュータ60を含む。コンピュータ60は、バス62を介して、メモリ64、モータ制御ボード66、センサ入力/出力ボード68および音声入力/出力ボード70に接続される。
メモリ64は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、後述のように、各種プログラムやデータが予め記憶されるとともに、コンピュータ60のためのバッファ領域あるいはワーキング領域としても利用される。
モータ制御ボード66は、たとえばDSPで構成され、各腕や首関節40および眼球部48などの各軸モータの駆動を制御する。すなわち、モータ制御ボード66は、コンピュータ60からの制御データを受け、右眼球部48Rの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ72」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、コンピュータ60からの制御データを受け、左眼球部48Lの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ74」と示す)の回転角度を制御する。
また、モータ制御ボード66は、コンピュータ60からの制御データを受け、肩関節28Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節32Rの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ76」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、コンピュータ60からの制御データを受け、肩関節28Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節32Lの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ78」と示す)の回転角度を制御する。
さらに、モータ制御ボード66は、コンピュータ60からの制御データを受け、首関節40の直交する3軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ80」と示す)の回転角度を制御する。そして、モータ制御ボード66は、コンピュータ60からの制御データを受け、車輪14を駆動する2つのモータ(図2では、まとめて「車輪モータ82」と示す)の回転角度を制御する。
センサ入力/出力ボード68は、モータ制御ボード66と同様に、DSPで構成され、各センサからの信号を取り込んでコンピュータ60に与える。すなわち、距離センサ20のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード68を通じてコンピュータ60に入力される。
3次元距離画像計26からの距離画像信号が、必要に応じてセンサ入力/出力ボード68で所定の処理を施してから、距離画像データとしてコンピュータ60に入力される。
眼カメラ50からの映像信号も、同様にして、コンピュータ60に入力される。また、上述した複数の接触センサ38(図2では、まとめて「接触センサ38」と示す)からの信号がセンサ入力/出力ボード68を介してコンピュータ60に与えられる。
音声入力/出力ボード70もまた、同様に、DSPで構成され、コンピュータ60から与えられる音声合成データに従った音声または声がスピーカ44から出力される。また、マイク46からの音声入力が、音声入力/出力ボード70を介してコンピュータ60に与えられる。
また、コンピュータ60は、バス62を介して通信LANボード84に接続される。通信LANボード84は、たとえばDSPで構成され、コンピュータ60から与えられた送信データを無線通信モジュール86に与え、無線通信モジュール86は送信データを、ネットワークを介して遠隔操作装置(図示せず)等に送信する。また、通信LANボード84は、無線通信モジュール86を介してデータを受信し、受信したデータをコンピュータ60に与える。
このようなロボット10は、たとえば図3に示す移動空間88の出入り口88aの間の移動経路88bに沿って移動し、たとえば商業施設のようなその移動空間88に存在する人に対して、案内サービスなどのサービスを提供する。
なお、移動空間88には、図示しないが、環境側のセンサとして、ロボット10のものと同様の、3次元全方位レーザ距離計が複数配置されている。
このような移動空間88中を移動するロボット10は、基本的には自律移動可能であるが、ロボット10が自律移動できなくなるなどの事態に備えて、たとえば図4に示すような遠隔操作装置90によっても制御可能とされている。
図4を参照して、この実施例の遠隔制御装置90は、移動体としてのロボット10の動作や移動を制御するためにネットワーク92を介して、ロボット10と相互に通信できる。
遠隔操作装置90は、コンピュータ94を含み、このコンピュータ94に接続された操作卓96に設けられる操作キーやジョイスティック(図示せず)をオペレータが操作することによって、その操作入力に応じて、コンピュータ94がロボット10の車輪14すなわちロボット10の移動を制御することができる。
コンピュータ94にはメモリ98が連結されるとともに、表示器10が接続される。メモリ98は、ロボット制御のためのプログラム、移動空間88(図3)の2次元地図データや3次元地図データ等の必要なデータを記憶する。表示器100は、ロボット10の移動を安全に行うために、ロボット10の移動状態や全方位カメラ(図示せず)で撮影した画像を表示して、オペレータに見せる。
コンピュータ94には、無線通信モジュール102が付属され、コンピュータ94はネットワーク92を経由して、ロボット10の無線通信モジュール86(図2)を通して、コンピュータ60と無線通信を行うことができる。
ここで、図1のロボット10のコンピュータ60のメモリ64は、たとえば図5に示すように、プログラム記憶領域104およびデータ記憶領域106を含む。
プログラム記憶領域104には、OSなどの必要なプログラムの他、ロボット10の移動を制御するための移動制御プログラム108および後に詳細に説明する推定プログラム110などが予め設定されている。この推定プログラム110は、移動空間88内を移動する人の特徴を推定するもので、そのためにディープニューラルネットワーク(たとえば、畳み込みニューラルネットワーク)を含む。
データ記憶領域106は、レーザ距離計26(図1、図2)から得られる3次元距離画像データ(データセット)を一時的に記憶するための3次元距離画像データ記憶領域112、および遠隔操作装置90のメモリ98から取得した、移動空間88の3次元地図(3次元環境地図)のデータを記憶する3次元地図データ記憶領域114を含む。
データ記憶領域106にはさらに、推定プログラム110に従った処理過程で得られる後述の移動物体の3次元点群のデータを記憶する3次元点群データ記憶領域116および移動物体の2次元距離画像データを記憶する2次元距離画像データ記憶領域118が形成される。
このようなロボット10は、たとえば図3に示すような場所において移動されながら、レーザ距離計28によってスキャンデータを取得する。図6に例示する場所は発明者等が推定システムの実験のために利用した商業施設の2階の一部である。実験では、ロボット10は、1回の走行において、商業施設のこの場所を約25分かけて約530m移動し、およそ1億8200万の点群の位置データ(データセット)を出力する。
図7がレーザ距離計28で取得した代表的な3次元スキャンデータ120を示し、この図7の中の円弧状の線が、レーザ距離計28がスキャンしている様子を模式的に示す。図7に示すように、スキャンデータは、壁や床などのような静的オブジェクトだけでなく、人間のような動的オブジェクトからのデータを含む。他方、図7ではわからないが、実際のスキャンデータでは、高さ方向に色付けされていて、低い位置が赤色で、高い位置が青色でそれぞれ表現され、3次元距離画像としてロボット10のメモリ84の3次元距離画像データ記憶領域112(図5)に記憶される。
図8に示すステップS1では、このような3次元距離画像データとメモリ64の3次元地図データ記憶領域114に予め記憶されている3次元環境地図データとを用いて、まず、自己位置を同定する。具体的には、3次元環境地図において固定物(静止物体)として記録されている壁(図7のスキャンデータ122において「124」で示す)などの位置とロボット10の位置との距離を(3角測量の原理で)計算することによって、ロボット10の現在位置(座標位置)が特定できる。
ただし、このステップS1でのロボット10の現在位置の特定のための計算は、移動空間88(図3)に分散配置されている複数の3次元全方位レーザ距離計(図示せず)を利用して計算することもできる。
そして、ロボット10の現在位置を特定した後、ロボット10の3次元全方位レーザ距離計26から得られた3次元距離画像データと3次元環境地図データと比較することによって、地図に記録されていない次元距離画像データを抽出することができる。これによって抽出される物体は、移動空間内における移動可能な物体(人や移動できるもの)である。なぜなら、3次元環境地図に載っているものは壁などの固定物であるので、その3次元環境地図に入っていないものは一時的な移動物体である。
このような移動物体を示す3次元距離画像データを、背景技術で挙げた特許第5953484号に示すような方法でクラスタリングする(ステップS3)ことによって、図9に示すような移動物体の3次元点群に分けることができる。
1つの考え方として、このような3次元点群をニューラルネットワーク等の推定アルゴリズムの入力に使い、出力はそれぞれの点群に相当する物体の特徴(人かどうか、性別、その瞬間の体の向き、等)を使うことが考えられる。点群と特徴のデータが十分あればニューラルネットワークの学習ができる。たとえば、性のわかる人のスキャンを多く集めれば、性別の学習データに使える。ただし、学習データはシミュレータでも作ることができる。
しかしながら、この実施例においては、3次元点群を直接ニューラルネットワークに投入しない。
まず、ステップS5において、投影を使って図10に示すような2次元の距離画像を作る。
具体的には、図11に示すように、3次元距離計26から延びる線に対して垂直な四角い面を投影面として使う。ただし、投影面の幅と高さは任意である(たとえば、1m×2m)。そして、投影面のX軸の中心を点群の中心に合わせる(物体の画像が真中になるようにする。)。投影面の3次元距離計26からの距離も点群の平均距離と同じにする。3次元距離計26から見ればおよそ半分の点が面の前、半分が面の後ろになる。ただし、投影面のY軸の位置はあまり厳密に考えなくてもよいが、好ましくは、比較できるようにすべての点群に同じY軸の位置を使う。たとえば、人の頭が入るように投影面の一番高いところが2mにあるようにする。次いで、投影面のピクセルのグリッドに分ける(ピクセルの幅も高さも一定である)。
このようにして、3次元点群のすべての点を投影面に投影する。そして、あるピクセルに入ったすべての点の面からの平均距離を計算することによって、そのピクセルの値を決める。たとえば、平均距離0mは0.5、レーザ距離計26の方向に0.5mは「0」、逆方向に0.5mは「1」とする。ただし、1つの点も入らなかったピクセルの値は0(ゼロ)になる。
このような手法で3次元点群を投影した2次元距離画像の一例が図10に示される。
その後、ステップS7で、畳み込みニューラルネットワークを使う。このときの畳み込みニューラルネットワークへの入力は、ステップS5で作成した2次元距離画像であり、通常のカメラの入力に使う畳み込みニューラルネットワークでよく、畳み込みニューラルネットワークの構成が複雑になるのを回避できる。
そして、2次元距離画像を投入した畳み込みニューラルネットワークは、人と物とを識別するとともに、人の特徴、たとえば体の向き、性別などを抽出することができる。
上述のようにこの実施例においてはディープニューラルネットワーク(DNN)など最新の機械学習手法を使用することで、このプロセスの正確性やロバスト性を上げることが可能となる。人と物を区別すると同時に、誤検出を減らし、人の位置だけでなく、その他の様々な特徴が推定できる。さらに、この特徴推定結果をフィードバックとして使えば、人の検出精度を向上させることができる。また、人の追跡結果を使えばロボットの自己位置推定のロバスト性を上げることが可能になる。
また、従来の3次元測域センサ(3次元全方位レーザ距離計)の人検出システムでは一般的に移動している物体はすべて人だという概念を使っていたが、これは必ずしも正しくない。特に移動しているロボットの場合自己位置推定の誤差によって環境の一部が移動物体だと判断を間違える可能性が高い。これに対して実施例のように、ロボット10の現在位置を特定した後に、3次元環境地図にのっていない物体の3次元距離画像を抽出することにより、環境(固定物)の一部を移動物体として誤認識することが可及的抑制される。しかも、ディープラーニング等の手法により、3次元の移動物体の形から人か物か検出する認識プログラムが実現可能となり、物を無視し、人だけの検出および追跡を行うことができる。
さらに、従来の方法では、3次元測域センサの3次元距離画像データから人の特徴検出は困難であったが、上記と同じように、ディープラーニング等の機械学習手法を用いて、3次元測域センサに写っている人の3次元距離画像データから体の向きを推定できる。また、人とセンサの距離が十分近い場合、顔の向きの推定も可能である。さらに、向きだけでなく、人のその他の特徴を推定することも可能である。たとえば、性別の識別、または身長、荷物の有無、ヘアスタイル、服のタイプ(たとえばスカートかズボン)の同定ができる。ただし、これらの推定精度は3次元測域センサの解像度や人からの距離などに依存する。
人追跡システムにおいては、ある人を追跡している間に周りの人や物が妨げになり、見えなくなることがあるので、再び検出したときに同じ人かどうかを判断する必要がある。従来の3次元のデータを用いた人検出アルゴリズムでは人の特徴は使えなかったのでこの再認識の段階が困難であったが、上記の特徴同定の結果を使うことにより、同一人物なのかの判断がより正確になる。その結果、人の検出や追跡のロバスト性が上がり、その精度が向上する。
従来の方法ではロボットが環境の中の特徴を検出して自己位置推定を行うのが一般的なアプローチである。これは人がいないまたは少ない場所では安定して使えるが、ロボットの周りに人が多い場合、センサの妨げになり、検出できる環境の特徴の数が減るので、自己位置推定も困難で不安定になることがある。これは特にサービスロボットの場合よく見られる現象である。一方、環境の特徴だけでなく、上述の実施例でのような人の検出と再認識結果を自己位置推定に使うようにすれば、ロボット10の自己位置推定の安定性は上がる。
なお、上述の実施例では、実施例が解決すべき問題に好適するという考えでディープニューラルネットワーク(DNN)として畳み込みニューラルネットワークを用いたが、それ以外のディープニューラルネットワークを採用してもよい。
さらに、上述の実施例では図8の全てのステップをロボット10のコンピュータ60(図2)が実行するものとして説明した。しかしながら、図4に示す遠隔操作装置90のコンピュータ94が全てまたは一部のステップを実行するようにしてもよい。いずれの場合も、人推定システムを構成したものである。
10 …ロボット
26 …3次元全方位レーザ距離計
60、94 …コンピュータ
64、98 …メモリ

Claims (4)

  1. 移動するロボット、
    前記ロボットに搭載された3次元レーザ距離計、
    前記3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出部、
    前記移動物体の3次元距離画像データをクラスタリングして前記移動物体の3次元点群を生成するクラスタリング部、
    前記3次元点群を投影することによって前記移動物体の2次元距離画像データを生成する投影部、および
    前記2次元距離画像データを入力とするディープニューラルネットワークを備え、
    前記投影部は、前記3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の前記投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そして
    前記ディープニューラルネットワークが人と物とを識別する、人推定システム。
  2. 前記ディープニューラルネットワークは畳み込みニューラルネットワークである、請求項1記載の人推定システム。
  3. 3次元レーザ距離計を搭載した移動可能ロボットを含む人推定システムのコンピュータによって実行される推定プログラムであって、前記推定プログラムは、前記コンピュータを
    前記3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出部、
    前記移動物体の3次元距離画像データをクラスタリングして前記移動物体の3次元点群を生成するクラスタリング部、
    前記3次元点群を投影することによって前記移動物体の2次元距離画像データを生成する投影部、および
    前記2次元距離画像データを入力とするディープニューラルネットワーク
    として機能させ、
    前記投影部は、前記3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の前記投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そして
    前記ディープニューラルネットワークが人と物とを識別するとともに、人の特徴を識別する、推定プログラム。
  4. 3次元レーザ距離計を搭載した移動可能ロボットを含む人推定システムのコンピュータによって実行される推定方法であって、
    前記3次元レーザ距離計からの3次元距離画像データと3次元環境地図データとを比較して移動物体の3次元距離画像データを抽出する抽出ステップ、
    前記移動物体の3次元距離画像データをクラスタリングして前記移動物体の3次元点群を生成するクラスタリングステップ、
    前記3次元点群を投影することによって前記移動物体の2次元距離画像データを生成する投影ステップ、および
    前記2次元距離画像データをディープニューラルネットワークに投入するステップを含み、
    前記投影ステップでは、前記3次元レーザ距離計からの線に垂直な投影面を設定し、各ピクセルに入ったすべての点の前記投影面からの平均距離に基づいて各ピクセルのピクセル値を決め、そして
    前記ディープニューラルネットワークが人と物とを識別するとともに、人の特徴を識別する、推定方法。
JP2017069865A 2017-03-31 2017-03-31 人推定システムおよび推定プログラム Active JP6919882B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017069865A JP6919882B2 (ja) 2017-03-31 2017-03-31 人推定システムおよび推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017069865A JP6919882B2 (ja) 2017-03-31 2017-03-31 人推定システムおよび推定プログラム

Publications (2)

Publication Number Publication Date
JP2018173707A JP2018173707A (ja) 2018-11-08
JP6919882B2 true JP6919882B2 (ja) 2021-08-18

Family

ID=64108525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017069865A Active JP6919882B2 (ja) 2017-03-31 2017-03-31 人推定システムおよび推定プログラム

Country Status (1)

Country Link
JP (1) JP6919882B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409157B2 (ja) * 2020-03-03 2024-01-09 株式会社豊田自動織機 物体認識装置
JP7279848B2 (ja) * 2020-03-13 2023-05-23 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム
JP7444136B2 (ja) * 2021-06-08 2024-03-06 株式会社デンソー 物体認識システム、物体認識方法、物体認識プログラム
JPWO2023053723A1 (ja) * 2021-10-01 2023-04-06
JP7480371B1 (ja) 2023-01-24 2024-05-09 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5472142B2 (ja) * 2011-01-28 2014-04-16 株式会社デンソー 地図データ生成装置および走行支援装置
JP5953484B2 (ja) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
JP6094279B2 (ja) * 2013-03-14 2017-03-15 株式会社国際電気通信基礎技術研究所 追跡装置、追跡プログラムおよび追跡方法

Also Published As

Publication number Publication date
JP2018173707A (ja) 2018-11-08

Similar Documents

Publication Publication Date Title
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
JP6919882B2 (ja) 人推定システムおよび推定プログラム
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10197399B2 (en) Method for localizing a robot in a localization plane
JP4871160B2 (ja) ロボットおよびその制御方法
US7684894B2 (en) Autonomously moving robot
US8824775B2 (en) Robot and control method thereof
EP2610783B1 (en) Object recognition method using an object descriptor
JP7372708B2 (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
JP2017170568A (ja) サービス提供ロボットシステム
Glas et al. SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking
Hu et al. Bayesian fusion of ceiling mounted camera and laser range finder on a mobile robot for people detection and localization
Bozorgi et al. 2D laser and 3D camera data integration and filtering for human trajectory tracking
JP6713637B2 (ja) サービス提供ロボットシステム
Poomarin et al. Automatic docking with obstacle avoidance of a differential wheel mobile robot
WO2021177471A1 (ja) 検出装置、追跡装置、検出プログラム、及び追跡プログラム
Jin et al. A wearable robotic device for assistive navigation and object manipulation
KR20230016390A (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
Lee et al. Visual sensor integration on servoing the autonomous mobile robot
WO2022129457A1 (en) Method and system for determining a three dimensional position
Du et al. Active view planing for human observation through a RGB-D camera
Karungaru et al. A Simple Interface for Mobile Robot Equipped with Single Camera using Motion Stereo Vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210715

R150 Certificate of patent or registration of utility model

Ref document number: 6919882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250