JP2019078617A - モビリティ装置及びモビリティ装置における環境センシング方法 - Google Patents

モビリティ装置及びモビリティ装置における環境センシング方法 Download PDF

Info

Publication number
JP2019078617A
JP2019078617A JP2017205321A JP2017205321A JP2019078617A JP 2019078617 A JP2019078617 A JP 2019078617A JP 2017205321 A JP2017205321 A JP 2017205321A JP 2017205321 A JP2017205321 A JP 2017205321A JP 2019078617 A JP2019078617 A JP 2019078617A
Authority
JP
Japan
Prior art keywords
sensing
mobility
assistance
mobility device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017205321A
Other languages
English (en)
Other versions
JP6623202B2 (ja
Inventor
将尚 中野
Masanao Nakano
将尚 中野
石原 達也
Tatsuya Ishihara
達也 石原
弘順 越地
Kojun Koshiji
弘順 越地
直樹 肥後
Naoki Higo
直樹 肥後
椿 俊光
Toshimitsu Tsubaki
俊光 椿
純史 布引
Ayafumi Nunobiki
純史 布引
山田 智広
Tomohiro Yamada
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017205321A priority Critical patent/JP6623202B2/ja
Publication of JP2019078617A publication Critical patent/JP2019078617A/ja
Application granted granted Critical
Publication of JP6623202B2 publication Critical patent/JP6623202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】 特定の場所に限らずに、モビリティの周囲におけるセンシングをすることが可能なモビリティ装置を提供する。【解決手段】 実施形態のモビリティ装置は、障害物までの距離から、センシング不能エリアを検出するセンシング不能エリア検出部と、他のモビリティ装置の位置及びセンシングレンジを受信するセンシングレンジ受信部と、センシング不能エリア及び他のモビリティ装置の位置及びセンシングレンジに基づいて、他のモビリティ装置のうち、センシング不能エリアに最も距離が近く、かつセンシング不能エリアの方向をセンシングしている他のモビリティ装置をセンシング補助モビリティ装置として決定するセンシング補助モビリティ装置決定部と、決定したセンシング補助モビリティ装置からセンシング情報を受信するセンシング情報受信部と、受信したセンシング情報を、自己のセンシングレンジのセンシング情報に統合するセンシング情報統合部とを具備する。【選択図】図2

Description

本発明は、モビリティ装置及びモビリティ装置における環境センシング方法に関する。
歩行空間で走行可能なパーソナルモビリティ(例えば電動車いす等の一人乗りの移動支援機器。以下、「モビリティ」と称する)が安全走行を行なうには、周囲の歩行者や段差などの障害となる物をリアルタイムにセンシングし、障害物回避などの走行アシストを行なうことが重要となる。しかしながら、多数の歩行者で混雑した環境においては、モビリティの周囲に歩行者どうしが重なり合うため、モビリティに搭載した環境センサで周囲をセンシングできる範囲が限定されてしまう。
従来、人物のセンシングに関する技術については、防犯やマーケティング等に役立つことから、監視カメラの映像から人物を検出して、検出された人物を追跡する人物追跡に関する技術がある。
このような人物追跡を行なう際、監視カメラの映像では、人物どうしが重なって映ったり、物陰に隠れてしまうことが頻繁に起こる。これは、オクルージョンと呼ばれ、人物追跡を困難にしている主な原因の一つである。従来より、複数のカメラ情報を統合することで、人物追跡におけるオクルージョンによる検出エラーを回避する技術がある。
福司謙一郎、熊澤逸夫 "複数カメラを用いた人物追跡手法の研究例" 映像情報メディア学会誌 vol.62、No7, pp.993〜996(2008) <https://www.jstage.jst.go.jp/article/itej/62/7/62_7_993/_pdf>
しかしながら、従来の人物追跡におけるオクルージョンによる検出エラーを回避する技術では、事前にカメラの台数や位置が固定されていることを前提としており、特定の場所でしか利用することができないという問題があった。
本発明は、上記実情に鑑みてなされたものであり、特定の場所に限らずに、モビリティ装置の周囲の空間を、複数の歩行者によるオクルージョンが生じてもセンシング可能なモビリティ装置及びモビリティ装置における環境センシング方法を提供することを目的とする。
本発明の第1態様によれば、モビリティ装置の周囲の障害物までの距離を算出する環境センシング部と、前記環境センシング部により算出された障害物までの距離を基に、センシング不能エリアを検出するセンシング不能エリア検出部と、他のモビリティ装置の位置及びセンシングレンジを受信するセンシングレンジ受信部と、前記センシング不能エリア検出部によって検出された前記センシング不能エリア及び前記センシングレンジ受信部によって受信された他のモビリティ装置の位置及びセンシングレンジに基づいて、前記他のモビリティ装置のうち、前記センシング不能エリア検出部により検出されたセンシング不能エリアに最も距離が近く、かつ前記センシング不能エリアの方向をセンシングしている前記他のモビリティ装置をセンシング補助モビリティ装置として決定するセンシング補助モビリティ装置決定部と、前記センシング補助モビリティ装置決定部により決定した前記センシング補助モビリティ装置から前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を受信するセンシング情報受信部と、前記センシング情報受信部により受信した前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を、自己のセンシングレンジのセンシング情報に統合するセンシング情報統合部とを具備するモビリティ装置を提供することができる。
本発明の第2態様によれば、第1態様のモビリティ装置において、前記センシングレンジ受信部から受信した位置及びセンシングレンジを格納する格納部をさらに具備し、前記センシング補助モビリティ装置決定部は、前記格納部を検索することにより、前記他のモビリティ装置のうち、前記センシング補助モビリティ装置を決定する。
本発明の第3態様によれば、第1態様又は第2態様のモビリティ装置において、前記決定されたセンシング補助モビリティ装置に対して、センシング補助依頼を通知するセンシング補助依頼通知送信部をさらに具備し、前記センシング情報受信部は、前記センシング補助依頼の通知に対して、前記センシング補助モビリティ装置から送信されたセンシング情報を受信する。
本発明の第4態様によれば、第3態様のモビリティ装置において、前記センシング補助モビリティ装置から送信されたセンシング情報は、前記センシング不能エリアのうち、前記センシング補助モビリティ装置によってセンシングできないエリア情報を含み、前記センシング補助モビリティ装置決定部は、前記センシング補助モビリティ装置によってセンシングできないエリア情報に基づいて、前記他のモビリティ装置のうち、次のセンシング補助モビリティ装置を決定する。
本発明の第5態様によれば、第3態様又は第4態様のモビリティ装置において、前記センシング補助依頼の通知は、前記センシング補助モビリティ装置に対して、前記センシング補助モビリティ装置の位置、センシングの向き、センシングレンジを変更するコマンドを含む。
本発明の第1乃至第3態様のモビリティ装置によれば、近くを走行する他のモビリティ装置と協同することにより、センシング補助モビリティ装置からセンシング情報を得て、自己のセンシングレンジのセンシング情報に統合することにより、センシング不能エリアを補完する。これにより、自己のセンサにセンシング不能エリアがあっても、周囲の環境を把握することができ、安全走行を実現することができる。
また、近くを走行するセンシング補助モビリティ装置と状況に応じて動的に協同することにより、特定の場所に限定されずに周囲の環境を把握することができるため、安全走行を実現することができる。
本発明の第4態様のモビリティ装置によれば、最初に補助依頼を決定したセンシング補助モビリティ装置だけでは、センシング不能エリアのセンシング情報を補完することができない場合、最初のセンシング補助モビリティ装置とは別のセンシング補助モビリティ装置からセンシング情報を得ることができるので、センシング不能エリアを十分に補完することができる。
本発明の第5態様のモビリティ装置によれば、センシング補助依頼の通知は、センシング補助モビリティ装置に対して、センシング補助モビリティ装置の位置、センシングの向き、センシングレンジを変更するコマンドを含むので、センシング補助モビリティ装置が自律走行型の場合、このような制御を行なうことで、よりセンシングエリアを柔軟にカバーすることができる。
以上詳記したように、本発明によれば、特定の場所に限らずに、モビリティ装置の周囲におけるセンシングをすることが可能なモビリティ装置及びモビリティ装置における環境センシング方法を提供することができる。
歩行空間において3台のモビリティM−1〜M−3が走行している状態を示す図である。 本発明の実施形態に係るモビリティMの機能を示す機能ブロック図である。 本発明の実施形態に係るモビリティ装置の動作について説明するためのフローチャートである。 モビリティMのセンシングレンジをR及びセンシング不能エリアAの一例を示す図である。 モビリティMの上方向から見た図4におけるモビリティMのセンシングレンジR及びセンシング不能エリアAの関係を示す図である。 モビリティMと、周囲のモビリティM、Mのうち、センシング補助モビリティMになったモビリティMを説明するための図である。 モビリティMの上方向から見た図6におけるモビリティMのセンシングレンジR及びセンシング不能エリアAと、周囲のモビリティM、Mの位置的関係を示す図である。 センシング補助モビリティMからモビリティMにセンシング情報を送信している状態を示す図である。
以下、図面を参照して、本発明の実施形態に係るモビリティ装置について説明する。
図1は、歩行空間において3台のモビリティM−1〜M−3が走行している状態を示す図である。上述のように、歩行空間においては、モビリティM−1〜M−3が周囲の歩行者や段差などの障害となる物をリアルタイムにセンシングし、障害物回避などのアシストを行なうことが安全走行に重要となる。
実施形態では、モビリティM−1〜M−3が互いに協同しながら、モビリティM−1〜M−3の周囲環境をセンシングすることにより、安全走行を可能にするものである。
図2は、本発明の実施形態に係るモビリティMの機能を示す機能ブロック図である。
なお、実施形態において、構成要素を区別して説明する必要がない場合には、ハイフンを省略して説明する。例えば、M−1、M−2、M−3を区別して説明する必要がない場合には、ハイフンを省略して「M」として説明する。他の構成要素についても同様に説明する。
各機能ブロックは、ハードウェア、コンピュータソフトウェア、のいずれか又は両者の組み合わせとして実現することが出来る。このため、各ブロックは、これらのいずれでもあることが明確となるように、概してそれらの機能の観点から以下に説明される。このような機能が、ハードウェアとして実行されるか、又はソフトウェアとして実行されるかは、具体的な実施態様又はシステム全体に課される設計制約に依存する。当業者は、具体的な実施態様ごとに、種々の方法でこれらの機能を実現しうるが、そのような実現を決定することは、本発明の範疇に含まれるものである。
同図に示すように、本発明の実施形態に係るモビリティMは、環境センシング部1、センシング不能エリア検出部2、送受信部3、センシング補助モビリティ決定部4、センシング情報統合部5及びデータ記憶部6を具備する。また、送受信部3は、センシングレンジ受信部3a、センシング情報受信部3b及び補助依頼通知送信部3cを具備する。
環境センシング部1は、センシングをするモビリティMに搭載した深度センサ、LRF(レーザーレンジファインダー)、LIDAR(Light Detection and Ranging)、ステレオカメラ等の環境センサにより、センシングレンジRに含まれる周囲の全ての物体までの距離dを算出して、センシング不能エリア検出部2に出力する。また、環境センシング部1は、モビリティMのセンシングレンジR内のセンシング情報をデータ記憶部6に格納する。ここで、センシングレンジRとは、環境センシング部1の環境センサがセンシング可能な空間的な幅を示すものであり、環境センサの取り付け位置や設置数などの制約により、一般的にモビリティ周囲の限定された範囲となる。また、センシングレンジは奥行き方向の情報は含まないものとするが、簡略化のため図内では扇形で示すことがある。センシングレンジはLRF等の平面的な距離を計測する環境センサの場合は2次元の広がりを持ち、LIDAR、ステレオカメラ等の3次元的な距離を計測する環境センサの場合は3次元の広がりを持つ値となる。
センシング不能エリア検出部2は、環境センシング部1により得られた周囲の物体までの距離dに基づいて、モビリティMのセンシング不能エリアAを検出し、センシング補助モビリティ決定部4に出力する。例えば、LRF等の平面的な距離を計測可能な環境センサのセンシング可能な奥行きがdとすると、dと比較してdが十分小さい値であれば、該当する方向の奥行き部分をセンシング不能エリアAに含めるものとする。
送受信部3のセンシングレンジ受信部3aは、モビリティMの周囲を走行するモビリティM(i=1、2、..)の位置P及びセンシングレンジRを、無線通信により、各モビリティMから受信し、受信したモビリティM(i=1、2、..)の位置P及びセンシングレンジRをセンシング補助モビリティ決定部4に出力する。
センシング情報受信部3bは、モビリティMから補助依頼通知を出したセンシング補助モビリティMから送られてくるセンシング情報を受信し、受信したセンシング補助モビリティMのセンシング情報をセンシング情報統合部5に出力する。センシング情報には、センシング補助モビリティMがモビリティMのセンシング不能エリアAにおいてセンシング出来なかったエリア情報、センシング情報の時間情報が含まれる。
補助依頼通知送信部3cは、センシング補助モビリティ決定部4において決定されたセンシング補助モビリティMへの補助依頼を受けて、センシング補助依頼通知をセンシング補助モビリティMへ送信する。このセンシング補助依頼通知には、センシングが必要なモビリティMのセンシング不能エリアAを含む。
センシング補助モビリティ決定部4は、センシング不能エリア検出部2から出力されたセンシング不能エリアA、センシングレンジ受信部3aからのモビリティMの周囲を走行するモビリティMの(i=1、2、..)位置P及びセンシングレンジRを受信する。そして、センシング補助モビリティ決定部4は、受信したセンシング不能エリアA及びモビリティMの(i=1、2、..)位置P及びセンシングレンジRをデータ記憶部6に記憶する。
センシング補助モビリティ決定部4は、データ記憶部6にセンシング不能エリアA及びモビリティMの位置P及びセンシングレンジRを記憶する際には、これら情報を受信する際に含まれるモビリティMの識別情報、送信先情報及び時間情報など(以下、「関連情報」という)を関連付けて記憶する。
センシング補助モビリティ決定部4は、センシング不能エリア検出部2から出力されたセンシング不能エリアAに最も距離が近く、かつセンシング不能エリアAの方向を向いているセンシング補助モビリティMを決定する。センシング補助モビリティMが、センシング不能エリアAの方向を向いているか否かは、センシング補助モビリティMのセンシングレンジRがセンシング不能エリアAを含む方向を向いているかで判断される。
センシング補助モビリティ決定部4は、決定したセンシング補助モビリティMへの補助依頼を補助依頼通知送信部3cに行なう。この補助依頼には、センシング不能エリアA、送信先情報など、補助依頼通知を送信する際に必要な情報が含まれる。
センシング情報統合部5は、センシング情報受信部3bから出力されたセンシング情報をデータ記憶部6に記憶するとともに、データ記憶部6に記憶されたモビリティMのセンシングレンジR内のセンシング情報をセンシング情報受信部3bから出力されたセンシング情報に統合する。また、センシング情報を統合した結果、モビリティMのセンシングレンジR内のセンシング不能エリアAがある場合、再度、統合されたセンシング情報に基づくモビリティMのセンシング不能エリアAについて、センシング補助モビリティ決定部4に対して、センシング補助モビリティMの決定を指示する。
次に、本発明の実施形態に係るモビリティ装置の動作について、図3のフローチャートを参照して説明する。
まず、最初に、センシング不能エリア検出部2によりセンシング不能エリアAの計算が行なわれる(S10)。このモビリティMのセンシング不能エリアAの計算は、環境センシング部1により得られた周囲の物体までの距離dに基づいて求められる。
図4は、モビリティMのセンシングレンジR及びセンシング不能エリアAの一例を示す図である。図5は、モビリティMの上方向から見た図4におけるモビリティMのセンシングレンジR及びセンシング不能エリアAの関係を示す図である。
図4及び図5においては、モビリティMのセンシングレンジRに歩行者hが存在するため、センシング不能エリアAがあり、歩行者hがモビリティMからは見えない状態を示している。環境センシング部の環境センサ11が計測可能な距離dに対して、歩行者hの方向の距離情報dが十分小さいため、該当する方向の奥行き部分をセンシング不能エリアAに含める。
次に、センシング補助モビリティ決定部4によりセンシング補助モビリティMを決定する(S11)。このセンシング補助モビリティMの決定は、センシング不能エリア検出部2から出力されたセンシング不能エリアAに最も距離が近く、かつセンシング不能エリアAの方向を向いているセンシング補助モビリティMを決定する。センシング補助モビリティMが、センシング不能エリアAの方向を向いているか否かは、センシング補助モビリティMのセンシングレンジRがセンシング不能エリアAの方向を向いているかで判断される。
具体的には、センシング補助モビリティ決定部4は、センシング不能エリア検出部2から出力されたセンシング不能エリアAに最も距離が近く、かつセンシング不能エリアAの方向を向いているセンシング補助モビリティMをデータ記憶部6に記憶されたセンシング不能エリアA及びモビリティMの(i=1、2、..)位置P及びセンシングレンジR及び関連情報を検索して、センシング補助モビリティMを決定する。
次に、センシング補助モビリティ決定部4によりセンシング補助モビリティMに対して、センシング補助依頼通知をセンシング補助モビリティMへ送信する(S12)。このセンシング補助依頼通知には、センシングが必要なモビリティMのセンシング不能エリアAを含む。
図6は、モビリティMと、周囲のモビリティM、Mのうち、センシング補助モビリティMに決定されたモビリティMを説明するための図である。図7は、モビリティMの上方向から見た図6におけるモビリティMのセンシングレンジR及びセンシング不能エリアAと、周囲のモビリティM、Mの位置的関係を示す図である。
図6及び図7においては、モビリティMの周囲にモビリティM、Mが存在し、センシング不能エリアAに最も距離が近く、かつセンシング不能エリアAの方向をセンシングしているモビリティM(=センシング補助モビリティM)に補助依頼通知を送信している例を示している。
センシング補助モビリティMに対して、センシング補助依頼通知を送信後、モビリティMは、センシング補助依頼通知に応答してセンシング補助モビリティMから送信されてくるセンシング情報を受信する(S13)。このセンシング情報には、センシング補助モビリティMがモビリティMのセンシング不能エリアAにおいてセンシング出来なかったエリア情報、センシング情報の時間情報が含まれる。図8は、センシング補助モビリティMからモビリティMにセンシング情報を送信している状態を示す図である。
次に、センシング情報統合部5により、S13において受信したセンシング情報を、自己のセンシングレンジRで受信したセンシング情報に統合する(S14)。
その後、センシング補助モビリティMから受信したセンシング出来なかったエリア情報に基づいて、自己のセンシングレンジRで受信できなかったモビリティMのセンシング不能エリアAを再計算し、再計算された結果、センシング不能エリアAがあるか否かを判断する(S15)。
S15において、センシング不能エリアAがあると判断された場合、所定の基準に基づいて、さらに、センシング補助依頼が必要か否かが判断される(S16)。所定の基準は、例えば、再計算されたセンシング不能エリアAの大きさや再計算の回数である。S16において、センシング補助依頼が必要であると判断された場合、再計算されたセンシング不能エリアAについて、S11の処理に戻る。
一方、S15においてセンシング不能エリアAがないと判断された場合、S16においてセンシング補助依頼が必要でないと判断された場合には、処理を終了する。
従って、本発明の実施形態に係るモビリティによれば、センシング不能エリアA及び他のモビリティMの位置P及びセンシングレンジRに基づいて、センシング不能エリアAに最も距離が近く、かつセンシング不能エリアエリアAの方向をセンシングしている他のモビリティMをセンシング補助モビリティMとして決定する。
そして、決定したセンシング補助モビリティMに補助依頼通知を送信して、補助モビリティMからのセンシング情報を得て、自己のセンシング情報と統合することにより、センシング不能エリアエリアAを補完する。
これにより、モビリティMは、自己のセンサにセンシング不能エリアAがあっても周囲のモビリティMと協同することで、周囲の環境を把握することができ、歩行空間において安全走行を実現することができる。
また、センシング補助モビリティMと協同することにより、特定の場所に限定されずに安全走行を実現することができる。
さらに、最初のセンシング補助モビリティMからのセンシング情報だけではセンシング不能エリアAを補完することができない場合、さらに他のセンシング補助モビリティMからセンシング情報を取得し、センシング不能エリアAを補完することができる。これにより、センシング不能エリアAを十分に補完することができる。
・変形例
上述の実施形態は、以下のように変形例も含まれる。
1 センシング補助を行なうのは、モビリティを想定して説明したが、モビリティではなく、ロボット、周囲の監視カメラなどを利用しても良い。
2 センシングエリアを制御可能な自律走行ロボットが周囲に存在する場合は、当該ロボットに対してセンシングエリアを変更するよう位置やセンシングの向きを変更する制御してもよい。
例えば、自律走行ロボットへの補助依頼通知の際に、自律走行ロボットの位置、センシングの向きを変更するコマンドを含めても良い。このような制御を行なうことで、よりセンシングエリアを柔軟にカバーすることができる。
3 周囲のモビリティのセンシングレンジを制御可能な場合は、センシングレンジを変更しても良い。これにより、センシングエリアをよりカバーすることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…環境センシング部、センシング不能エリア検出部2、送受信部3、3a…センシングレンジ受信部、3…センシング情報受信部、3c…補助依頼通知送信部、4…センシング補助モビリティ決定部、5…センシング情報統合部、6…データ記憶部。

Claims (6)

  1. モビリティ装置の周囲の障害物までの距離を算出する環境センシング部と、
    前記環境センシング部により算出された障害物までの距離を基に、センシング不能エリアを検出するセンシング不能エリア検出部と、
    他のモビリティ装置の位置及びセンシングレンジを受信するセンシングレンジ受信部と、
    前記センシング不能エリア検出部によって検出された前記センシング不能エリア及び前記センシングレンジ受信部によって受信された他のモビリティ装置の位置及びセンシングレンジに基づいて、前記他のモビリティ装置のうち、前記センシング不能エリア検出部により検出されたセンシング不能エリアに最も距離が近く、かつ前記センシング不能エリアの方向をセンシングしている前記他のモビリティ装置をセンシング補助モビリティ装置として決定するセンシング補助モビリティ装置決定部と、
    前記センシング補助モビリティ装置決定部により決定した前記センシング補助モビリティ装置から前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を受信するセンシング情報受信部と、
    前記センシング情報受信部により受信した前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を、自己のセンシングレンジのセンシング情報に統合するセンシング情報統合部と
    を具備するモビリティ装置。
  2. 前記センシングレンジ受信部から受信した位置及びセンシングレンジを格納する格納部をさらに具備し、
    前記センシング補助モビリティ装置決定部は、
    前記格納部を検索することにより、前記他のモビリティ装置のうち、前記センシング補助モビリティ装置を決定する、
    請求項1記載のモビリティ装置。
  3. 前記決定されたセンシング補助モビリティ装置に対して、センシング補助依頼を通知するセンシング補助依頼通知送信部をさらに具備し、
    前記センシング情報受信部は、
    前記センシング補助依頼の通知に対して、前記センシング補助モビリティ装置から送信されたセンシング情報を受信する、
    請求項1又は請求項2記載のモビリティ装置。
  4. 前記センシング補助モビリティ装置から送信されたセンシング情報は、前記センシング不能エリアのうち、前記センシング補助モビリティ装置によってセンシングできないエリア情報を含み、
    前記センシング補助モビリティ装置決定部は、
    前記センシング補助モビリティ装置によってセンシングできないエリア情報に基づいて、前記他のモビリティ装置のうち、次のセンシング補助モビリティ装置を決定する、
    請求項3記載のモビリティ装置。
  5. 前記センシング補助依頼の通知は、前記センシング補助モビリティ装置に対して、前記センシング補助モビリティ装置の位置、センシングの向き、センシングレンジを変更するコマンドを含む、請求項3又は請求項4記載のモビリティ装置。
  6. モビリティ装置の周囲の障害物までの距離を算出し、
    前記算出された障害物までの距離を基に、センシング不能エリアを検出し、
    他のモビリティ装置の位置及びセンシングレンジを受信し、
    前記検出された前記センシング不能エリア及び前記受信された他のモビリティ装置の位置及びセンシングレンジに基づいて、前記他のモビリティ装置のうち、前記検出されたセンシング不能エリアに最も距離が近く、かつ前記センシング不能エリアの方向をセンシングしている前記他のモビリティ装置をセンシング補助モビリティ装置として決定し、
    前記決定した前記センシング補助モビリティ装置から前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を受信し、
    前記受信した前記センシング補助モビリティ装置のセンシングレンジのセンシング情報を、自己のセンシングレンジのセンシング情報に統合する、
    モビリティ装置における環境センシング方法。
JP2017205321A 2017-10-24 2017-10-24 モビリティ装置及びモビリティ装置における環境センシング方法 Active JP6623202B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017205321A JP6623202B2 (ja) 2017-10-24 2017-10-24 モビリティ装置及びモビリティ装置における環境センシング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017205321A JP6623202B2 (ja) 2017-10-24 2017-10-24 モビリティ装置及びモビリティ装置における環境センシング方法

Publications (2)

Publication Number Publication Date
JP2019078617A true JP2019078617A (ja) 2019-05-23
JP6623202B2 JP6623202B2 (ja) 2019-12-18

Family

ID=66626417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017205321A Active JP6623202B2 (ja) 2017-10-24 2017-10-24 モビリティ装置及びモビリティ装置における環境センシング方法

Country Status (1)

Country Link
JP (1) JP6623202B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102138785B1 (ko) * 2019-09-11 2020-07-28 주식회사 굴리 주행 품질 지수를 산출하기 위한 방법 및 이를 위한 서버
KR20220067151A (ko) * 2020-11-17 2022-05-24 (주)뉴빌리티 모빌리티 장치에 최적 경로 제공 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091899A (ja) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 道路監視システム
JP2006024103A (ja) * 2004-07-09 2006-01-26 Honda Motor Co Ltd 車両の走行支援装置
JP2008299676A (ja) * 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
US20150081188A1 (en) * 2013-09-19 2015-03-19 Robert Bosch Gmbh Driver assistance system for a motor vehicle
JP2016128943A (ja) * 2015-01-09 2016-07-14 三菱電機株式会社 車両周辺状況取得装置
WO2017029847A1 (ja) * 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091899A (ja) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 道路監視システム
JP2006024103A (ja) * 2004-07-09 2006-01-26 Honda Motor Co Ltd 車両の走行支援装置
JP2008299676A (ja) * 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
US20150081188A1 (en) * 2013-09-19 2015-03-19 Robert Bosch Gmbh Driver assistance system for a motor vehicle
JP2016128943A (ja) * 2015-01-09 2016-07-14 三菱電機株式会社 車両周辺状況取得装置
WO2017029847A1 (ja) * 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102138785B1 (ko) * 2019-09-11 2020-07-28 주식회사 굴리 주행 품질 지수를 산출하기 위한 방법 및 이를 위한 서버
KR20220067151A (ko) * 2020-11-17 2022-05-24 (주)뉴빌리티 모빌리티 장치에 최적 경로 제공 시스템
KR102503608B1 (ko) * 2020-11-17 2023-02-24 (주)뉴빌리티 모빌리티 장치에 최적 경로 제공 시스템

Also Published As

Publication number Publication date
JP6623202B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
KR101622028B1 (ko) 차량 통신을 이용한 차량 제어 장치 및 제어 방법
US9563205B2 (en) Sensor configurations and methods for mobile robot
US10310506B1 (en) Smart self-driving systems with side follow and obstacle avoidance
US8090193B2 (en) Mobile robot
US10188580B2 (en) Systems and methods for providing environment information using an unmanned vehicle
JP4787813B2 (ja) 検知対象検知システム
US11269327B2 (en) Picking up and dropping off passengers at an airport using an autonomous vehicle
Wang et al. Acoustic robot navigation using distributed microphone arrays
KR102000395B1 (ko) 자율주행 차량의 운행 모드 전환을 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR20190078454A (ko) 분산 클라우드 기반의 자율주행 시스템 및 방법
US9031772B2 (en) Assistance system and generation method of dynamic driving information
US20210208589A1 (en) Self-driving systems and methods
Kuribayashi et al. Linechaser: a smartphone-based navigation system for blind people to stand in lines
JP2020527266A (ja) 自律ロボットシステム
KR20200084382A (ko) 화재 대피 유도로봇 및 이의 제어 방법
KR20150033443A (ko) 청소 로봇을 제어하는 감시 시스템
KR20120090387A (ko) 감시 경계 로봇 시스템 및 경계 로봇 시스템에서 이동 로봇의 주행 방법
JP6623202B2 (ja) モビリティ装置及びモビリティ装置における環境センシング方法
KR20180031153A (ko) 공항 로봇 및 그와 연결되는 서버의 동작 방법
WO2018101962A1 (en) Autonomous storage container
KR20180074403A (ko) 공항용 로봇 및 그의 동작 방법
JP7160257B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220155092A1 (en) Method of navigating a visually impaired user, a navigation system for the same, and a guiding robot
JP2012168990A (ja) 自律移動装置
Muñoz et al. An assistive indoor navigation system for the visually impaired in multi-floor environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190129

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6623202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150