JP2021077088A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2021077088A
JP2021077088A JP2019203226A JP2019203226A JP2021077088A JP 2021077088 A JP2021077088 A JP 2021077088A JP 2019203226 A JP2019203226 A JP 2019203226A JP 2019203226 A JP2019203226 A JP 2019203226A JP 2021077088 A JP2021077088 A JP 2021077088A
Authority
JP
Japan
Prior art keywords
tracking target
passage
unit
follow
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019203226A
Other languages
English (en)
Inventor
祐輝 遠藤
Yuki Endo
祐輝 遠藤
啓輔 前田
Hirosuke Maeda
啓輔 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019203226A priority Critical patent/JP2021077088A/ja
Priority to PCT/JP2020/033589 priority patent/WO2021090566A1/ja
Priority to US17/773,735 priority patent/US20220413503A1/en
Publication of JP2021077088A publication Critical patent/JP2021077088A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】より自然な挙動で自律移動ロボットを追従させる。【解決手段】実施形態に係る情報処理装置は、追従対象の指定を受け付ける受付部と、追従対象とは異なる仮想追従目標を設定する設定部と、仮想追従目標に基づいて移動体の駆動を制御する駆動制御部と、を備える。【選択図】図4

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
近年、家庭におけるロボット掃除機やペットロボット、工場や物流倉庫における運搬ロボットなど、人工知能を備えた自律移動ロボットの開発が盛んに行なわれている。
一例として、移動する人や動物等の追従対象に追従して移動する自律移動ロボットが開発されている。例えば、ロボットが追従対象の移動経路を記憶しておき、追従対象がロボットの機体正面から左右にずれた位置に移動した場合には、追従対象が過去に移動した移動経路をトレースするように追従させる技術が知られている。
特開2018−106312号公報
しかしながら、上記の従来技術では、追従対象に追従することを重視するあまり、人が見て自然な挙動で自律移動ロボットを追従させることができない場合が発生するという課題が存在した。例えば、上記の従来技術では、追従対象がロボットの機体正面から左右にずれた位置に移動した場合には、すぐに追従対象の方向にロボットが向かないため、追従対象が追従されていることを自覚しにくく、追従対象に不安感を与える恐れがある。
本願は、上記に鑑みてなされたものであって、より自然な挙動で自律移動ロボットを追従させることを可能にする情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、追従対象の指定を受け付ける受付部と、前記追従対象とは異なる仮想追従目標を設定する設定部と、前記仮想追従目標に基づいて移動体の駆動を制御する駆動制御部と、を備える。
本開示の実施形態に係る情報処理の一例を示す図である。 従来技術に係る追従走行時の自律移動ロボットの挙動の一例を示す図である。 従来技術に係る追従走行時の自律移動ロボットの挙動の一例を示す図である。 本開示の実施形態に係る情報処理システムの構成例を示す図である。 本開示の実施形態に係る情報処理の手順を示すフローチャートである。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
以下に示す項目順序に従って本開示を説明する。
1.実施形態
1−1.実施形態に係る情報処理の概要
1−2.従来技術に係る追従走行時の自律移動ロボットの挙動
1−3.実施形態に係る情報処理システムの構成
1−4.実施形態に係る情報処理の手順
2.その他の実施形態
2−1.その他の条件下での適用例
3.移動体への応用例
4.本開示に係る効果
5.ハードウェア構成
[1.実施形態]
[1−1.実施形態に係る情報処理の概要]
まず、図1を用いて、本開示の実施形態に係る情報処理の概要について説明する。図1は、本開示の実施形態に係る情報処理の一例を示す図である。図1には、自律移動ロボットである移動体装置100(以下、移動体ともいう)が、2次元の占有格子地図(以下、占有格子地図ともいう)上で追従対象O1を追従する場合が例示されている。
一般的に、自律移動ロボットが追従対象による過去の移動経路を記憶して追従する従来技術では、追従対象が大きく左右に移動すると、自律移動ロボットが追従対象に遅れて大きく左右に移動する。このように、従来技術では、自律移動ロボットが追従対象に遅れて大きく左右に移動するため、追従対象が検出センサの検出範囲外に位置する時間が多く生じる。その結果、自律移動ロボットが追従対象を捉えられず、追従対象の経路の記憶も続けられないため、追従対象を見失う(LOSTするともいう)ということがしばしば発生する。また、自律移動ロボットがリアルタイムに追従対象の方向を向かないため、追従対象が追従されていることを自覚しにくく、追従対象に不安感を与える恐れがある。
また、一般的に、自律移動ロボットが狭い通路(狭路)や狭い場所(狭所)で追従対象を追従する状況は、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であると言える。そのため、自律移動ロボットが狭い通路(狭路)や狭い場所(狭所)で追従対象を追従する状況では、自律移動ロボットの移動経路が蛇行しやすく、自律移動ロボットが人から見て不自然な挙動で追従するということがしばしば発生する。
そこで、本開示の実施形態に係る移動体装置100は、追従対象の指定を受け付ける。また、移動体装置100は、追従対象とは異なる仮想追従目標を設定する。また、移動体装置100は、仮想追従目標に基づいて移動体の駆動を制御する。このように、移動体装置100は、追従対象とは異なる仮想追従目標を設定し、仮想追従目標を追従するように移動体装置100の駆動を制御する。これにより、移動体装置100は、追従対象が大きく左右に移動した場合であっても、追従対象の動きに左右されることなく、仮想追従目標に向かって真っ直ぐ進むため、より自然な挙動で自律移動ロボットに追従目標を追従させることができる。その際、追従対象を検出センサの検出範囲に捉え続けることが可能な位置に仮想追従目標を設定することで、追従対象が検出センサの検出範囲外に位置するリスクを低減することが可能となる。
また、移動体装置100は、自律移動ロボットが狭路で追従対象を追従する状況のように、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であっても、自律移動ロボットを仮想追従目標に対する追従動作に集中させることができるため、自律移動ロボットが回避動作と追従動作との競合により蛇行するのを防ぐことができる。したがって、移動体装置100は、より自然な挙動で自律移動ロボットを追従させることができる。
図1の説明に戻る。図1の左に示す例では、移動体装置100(移動体ともいう)は、識別情報「O1」で識別される追従対象(追従対象O1)の指定を移動体装置100の利用者から受け付ける。移動体装置100は、追従対象の指定を受け付けると、追従対象O1を設定する。続いて、移動体装置100は、追従対象O1を設定すると、指定された追従対象O1を追従しながら移動する追従モードである通常追従モードを設定する。ここで、通常追従モード等の行動ポリシーは、記憶部130(図4参照)に記憶される。移動体装置100は、記憶部130を参照して、通常追従モードを設定(選択)する。
続いて、移動体装置100は、通常追従モードを設定すると、追従対象O1を追従しながら移動する。具体的には、移動体装置100は、通常追従モードの行動ポリシーに従って、追従対象O1を追従しながら移動する移動経路を計画する。続いて、移動体装置100は、経路計画に従って移動するよう移動体装置100の駆動を制御することにより、追従対象O1の追従を開始する。
追従対象O1の追従制御中、移動体装置100は、移動体周囲の通路を推定する。図1の左に示す例では、移動体装置100は、占有格子地図における占有格子行列OG1と占有格子行列OG2の配置に基づいて、移動体周囲に占有格子行列OG1と占有格子行列OG2とで挟まれた直線通路が存在すると推定する。
続いて、移動体装置100は、通路が存在すると推定すると、移動体周囲の通路の幅を推定する。図1の左に示す例では、移動体装置100は、占有格子地図に基づいて、占有格子行列OG1に含まれる所定の占有格子から所定の占有格子に対して通路の延在方向と垂直な方向に存在する占有格子までの距離W1を算出する。続いて、移動体装置100は、算出した距離W1を移動体の周辺の通路の幅W1であると推定する。
続いて、移動体装置100は通路の幅W1を推定すると、通路の幅が所定の閾値TH1以下であるか否かを判定する。具体的には、移動体装置100は、推定した通路の幅W1と所定の閾値TH1とを比較して、推定した通路の幅W1が所定の閾値TH1以下であるか否かを判定する。図1の左に示す例では、移動体装置100は、推定した通路の幅W1が所定の閾値TH1以下であると判定する。ここで、所定の閾値TH1とは、例えば、移動体装置100の横幅に所定のマージンを加えた長さに相当する。
続いて、移動体装置100は、通路の幅W1が所定の閾値TH1以下であると判定した場合、通常追従モードから追従対象とは異なる仮想追従目標を追従する狭路直線経路用の追従モードである狭路直線用追従モードに行動ポリシーを切り替える。狭路直線用追従モードでは、移動体装置100は、追従対象とは異なる仮想追従目標を設定し、仮想追従目標を追従するように移動体装置100の駆動を制御する。具体的には、移動体装置100は、狭路直線用追従モードに行動ポリシーを切り替えると、通路の中心線上に仮想追従目標TP1を設定する。
このように、移動体装置100は、自律移動ロボットが狭路で追従対象を追従する状況のように、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であっても、自律移動ロボットを仮想追従目標TP1に対する追従動作に集中させることができる。このように、移動体装置100は、自律移動ロボットを仮想追従目標TP1に対する追従動作に集中させることができるため、自律移動ロボットが回避動作を行うのを防ぐことできる。また、移動体装置100は、自律移動ロボットが回避動作を行うのを防ぐことできるため、自律移動ロボットが回避動作と追従動作との競合により蛇行するのを防ぐことができる。
図1の中央に示す例では、移動体装置100は、仮想追従目標TP1を設定すると、追従対象O1との距離(追従距離ともいう)を再設定する。具体的には、移動体装置100は、追従対象O1を検出するためのセンサを備える。そして、移動体装置100は、追従対象O1がセンサの検出範囲内に収まるように、追従対象O1と移動体との距離を制御する。より具体的には、移動体装置100は、センサの検出範囲DR1の広がり角D1と移動体の周囲の通路の幅W1とに基づき、追従対象O1がセンサの検出範囲DR1内に収まるように、追従対象O1と移動体装置100との距離を制御する。例えば、移動体装置100は、センサの検出範囲DR1の広がり角D1と移動体の周囲の通路の幅W1とが一致するように追従対象O1と移動体装置100との距離を制御する。
ここで、移動体装置100が追従対象O1に近づきすぎると、追従対象O1が移動体装置100の両脇のセンサの死角に入ってしまい、追従対象O1がセンサの検出範囲から外れる可能性がある。そこで、移動体装置100は、センサの検出範囲DR1の広がり角D1と移動体の周囲の通路の幅W1とが一致するように追従対象O1と移動体装置100との距離を制御する。これにより、移動体装置100は、追従対象O1をセンサの検出範囲DR1(例えば、カメラの視野角)に捉え続けることができる。すなわち、移動体装置100は、追従対象O1がセンサの検出範囲から外れるのを防ぐことができる。
続いて、移動体装置100は、追従距離を再設定すると、曲がり角を検出した否かを判定する。移動体装置100は、曲がり角を検出していない場合、狭路直線用追従モードを保つか、又は、狭路直線用追従モードから通常追従モードに行動ポリシーを切り替える。続いて、移動体装置100は、狭路直線用追従モード又は通常追従モードに従って移動経路を計画して、経路への追従を制御する。
図1の右に示す例では、移動体装置100は、通路の曲がり角の手前の直線通路(占有格子行列OG1と占有格子行列OG2とで挟まれた直線通路)の延在方向に対して曲がり角の占有格子行列OG3が反時計回りに傾いて配置しているので、左折の曲がり角を検出する。移動体装置100は、曲がり角を検出したので、狭路直線用追従モード(又は通常追従モード)から曲がり角経路用の追従モードである曲がり角用追従モードに行動ポリシーを切り替える。
続いて、移動体装置100は、曲がり角用追従モードに行動ポリシーを切り替えると、曲がり角用の追従距離を再設定する。具体的には、移動体装置100は、通路の曲がり角が検出される前と比べて追従対象O1と移動体装置100との距離を縮めるよう移動体装置100の駆動を制御する。
ここで、一般的に、自律移動ロボットが曲がり角で追従対象を追従する状況では、追従対象の移動方向が急激に変わるため、追従する自律移動ロボットが追従対象を見失いやすい。そこで、本開示の実施形態に係る移動体装置100は、通路の曲がり角が検出された場合には、追従対象O1を見失わないようにできるだけ追従対象との距離を縮める。一方で、自律移動ロボットが急激に距離を縮めることにより、追従対象に対して不安感や恐怖感を与える恐れがある。
そこで、本開示の実施形態に係る移動体装置100は、追従対象O1に恐怖感を与えない距離を保ちつつ、追従対象との距離を縮める。これにより、移動体装置100は、追従対象O1をLOSTしやすい曲がり角での追従状況下でも、追従対象O1を見失うことなく、かつ、追従対象O1に不安感や恐怖感を与えることなく追従対象O1を追従することができる。
続いて、移動体装置100は、曲がり角用の追従距離を再設定すると、曲がり角用の仮想追従目標TP2を設定する。具体的には、移動体装置100は、検出された通路の曲がり角が左折であるので、通路の曲がり角の手前の直線通路の中心を通る直線よりも右側に仮想追従目標TP2を設定する。なお、移動体装置100は、検出された通路の曲がり角が右折である場合、通路の曲がり角の手前の直線通路の中心を通る直線よりも左側に仮想追従目標を設定する。より具体的には、移動体装置100は、通路の曲がり角の外側の通路端から所定距離内側の位置に仮想追従目標TP2を設定する。例えば、移動体装置100は、検出された通路の曲がり角が左折(右折)である場合には、通路の中心線より右側(左側)の領域であって、かつ、外側の占有格子の壁の位置から所定の距離(例えば、移動体の横幅にマージンを加えた距離)を逆算して引いた位置に仮想追従目標を設定する。
続いて、移動体装置100は、曲がり角用の仮想追従目標TP2を設定すると、曲がり角用追従モードに従って移動経路を計画して、経路への追従を制御する。
また、一般的に、自律移動ロボットが曲がり角で追従対象を追従する状況では、追従する自律移動ロボットが曲がり角の内側に位置するよりも、曲がり角の外側に位置する方が、追従対象をセンサの検出範囲内に捉え続けやすい。この点について、図1の右に示すように、通路の曲がり角が左折である場合を例にとって詳しく説明する。図1の右に示す例では、通路の曲がり角の手前の直線通路の中心を通る直線よりも左側(占有格子行列OG1側)を曲がり角の内側、通路の曲がり角の手前の直線通路の中心を通る直線よりも右側(占有格子行列OG2側)を曲がり角の外側とする。図1の右に示すように、曲がり角の内側の位置(占有格子行列OG1に近い位置)から追従対象O1を見ると、曲がり角の内側の占有格子行列OG1が邪魔となり、追従対象O1をLOSTするリスクが高くなる。一方、曲がり角の外側(占有格子行列OG2に近い位置。例えば、仮想追従目標TP2の位置)から追従対象O1を見ると、曲がり角の内側の占有格子行列OG1によって、追従対象O1をLOSTするリスクが低いため、追従対象O1をセンサの検出範囲に捉え続けやすい。
そこで、本開示の実施形態に係る移動体装置100は、通路の曲がり角が左折である場合は、通路の曲がり角の手前の直線通路の中心を通る直線よりも右側(曲がり角の外側)に仮想追従目標TP2を設定する。これにより、移動体装置100は、曲がり角の内側の占有格子によって、追従対象O1をLOSTするリスクを低減することができる。
続いて、移動体装置100は、移動体が仮想追従目標TP2に到着した場合、仮想追従目標TP2から所定の距離(例えば、3m)だけ前方に新たな仮想追従目標TP3を設定する。例えば、移動体装置100は、移動体が仮想追従目標TP2に到着した場合、通路の曲がり角の外側の通路端を基準に新たな仮想追従目標TP3を設定する。続いて、移動体装置100は、新たな仮想追従目標TP3を設定すると、曲がり角用追従モードに従って移動経路を計画して、経路への追従を制御する。なお、移動体装置100は、新たな仮想追従目標TP3に到着した場合、曲がり角用追従モードから狭路直線用追従モード又は通常追従モードに行動ポリシーを切り替えてもよい。
上述したとおり、移動体装置100は、追従対象の指定を受け付ける。また、移動体装置100は、追従対象とは異なる仮想追従目標を設定する。また、移動体装置100は、仮想追従目標に基づいて移動体の駆動を制御する。このように、移動体装置100は、追従対象とは異なる仮想追従目標を設定し、仮想追従目標を追従するように移動体装置100の駆動を制御する。これにより、移動体装置100は、追従対象が大きく左右に移動した場合であっても、追従対象の動きに左右されることなく、仮想追従目標に向かって真っ直ぐ進むため、追従対象が検出センサの検出範囲外に位置するリスクを低減することができる。したがって、移動体装置100は、追従対象を検出センサの検出範囲に捉え続けながら、より自然な挙動で自律移動ロボットを追従させることができる。
また、移動体装置100は、自律移動ロボットが狭路で追従対象を追従する状況のように、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であっても、自律移動ロボットを仮想追従目標に対する追従動作に集中させることができるため、自律移動ロボットが回避動作と追従動作との競合により蛇行するのを防ぐことができる。したがって、移動体装置100は、より自然な挙動で自律移動ロボットを追従させることができる。
また、移動体装置100は、既存の対象追従ポリシー(またはアルゴリズム)、経路計画アルゴリズム、および占有格子地図の構造を変更せず活用しながら、自律移動ロボットによる追従動作時の価値、性能、および安全性を向上させることができる。具体的には、移動体装置100は、近年盛んに開発されている経路探索アルゴリズムという既存資産を最大限利用することができる。また、移動体装置100は、演算器の負荷に影響を与える経路探索アルゴリズムが変更不要なので、演算リソースに与える影響が少ない。また、移動体装置100は、既存の自律移動ロボットに対してセンサの追加、演算リソースの追加、ハードウェアの追加等が不要で自走できる。また、移動体装置100は、曲がり角用の追従ポリシーのみ適用するなど、本発明の仕組みの中で利用者の使い勝手やユースケースに合わせた追従時の行動計画ポリシーを容易に選択することを可能にする。
[1−2.従来技術に係る追従走行時の自律移動ロボットの挙動]
従来技術に係る追従走行時の自律移動ロボットは、追従対象がロボット正面から左右にずれた場合には、追従対象が過去に通った経路を記憶して追従するといったアプローチで狭路(狭所)や曲がり角での安全なロボットの挙動を実現している。そのため、従来技術に係る追従走行時の自律移動ロボットは、人から見て自然な挙動で追従対象を追従しない(すなわち、人から見て不自然な挙動で追従対象を追従する)ということがしばしば発生する。この点について、図2および図3を用いて具体的に説明する。
まず、図2を用いて従来技術に係る追従走行時の自律移動ロボットの挙動について説明する。図2は、従来技術に係る追従走行時の自律移動ロボットの挙動の一例を示す図である。図2に示す例では、追従対象O1が、通路の中央から通路の右端に寄るように前進しながら移動していたところ、正面から来た人との衝突を避けるため、通路の右端から通路の左端へと前進しながら大きく移動したとする。この場合、追従対象O1を追従している自律移動ロボットは、追従対象O1が過去に通った通路の中央から通路の右端に寄るように前進した経路を追従するが、追従した先には追従対象O1がおらず、追従対象O1を見失うといったことが起こり得る。
続いて、自律移動ロボットは、追従対象O1が通路の右端から通路の左端へと前進しながら大きく移動した経路を追従するが、再び追従した先には追従対象O1がおらず、追従対象O1を見失うといったことが起こり得る。また、追従対象O1から自律移動ロボットを見ると、自律移動ロボットが追従対象O1の方向を向いていないため、自身が追従されていることを自覚しにくく、自律移動ロボットが自身を追従できていないのではないかという不安を抱く可能性がある。
このように、自律移動ロボットが追従対象の過去の移動経路を記憶して追従する従来技術を用いた場合、追従対象が検出センサの検出範囲外に位置する時間が多く生じる。その結果、自律移動ロボットが追従対象を捉えられず、追従対象の経路の記憶も続けられないため、追従対象を見失う(LOSTする)ということがしばしば発生する。また、自律移動ロボットがリアルタイムに追従対象の方向を向かないため、追従対象が追従されていることを自覚しにくく、追従対象に不安感を与える恐れがある。
次に、図3を用いて従来技術に係る追従走行時の自律移動ロボットの挙動について説明する。図3は、従来技術に係る追従走行時の自律移動ロボットの挙動の一例を示す図である。図3に示す例では、従来技術に係る移動体装置100が狭い通路で追従対象O1を追従する状況を示す。一般的に、自律移動ロボットにとって通路が狭いことは、通路の壁との遭遇確率が高いことを意味する。すなわち、自律移動ロボットにとって通路が狭い環境とは、回避すべき障害物が多い環境であることを意味する。
図3に示す例では、従来技術に係る移動体装置100が追従対象O1を追従しようとしたところ、狭路のため、すぐ前方に通路の壁を検出する。移動体装置100は、通路の壁を検出すると、障害物である通路の壁との衝突を避けるため、追従対象O1を追従する追従動作よりも、通路の壁を回避する回避動作を優先する。移動体装置100は、回避動作によって通路の壁との衝突を回避すると、追従対象O1を追従する追従動作に戻る。ところが、移動体装置100は、狭路のため、またすぐ前方に通路の壁を検出して、再び通路の壁を回避する回避動作を優先せざるを得ないといったことが起こり得る。また、追従対象O1から自律移動ロボットを見ると、自律移動ロボットが蛇行しているため、自律移動ロボットの挙動が不自然であると感じて、不安感を抱く可能性がある。
このように、自律移動ロボットが狭い通路で追従対象を追従する状況は、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であるため、自律移動ロボットの移動経路が蛇行しやすく、自律移動ロボットが人から見て不自然な挙動で追従するということがしばしば発生する。
[1−3.実施形態に係る情報処理システムの構成]
次に、図4を用いて、本開示の実施形態に係る情報処理システムの構成について説明する。図4は、本開示の実施形態に係る情報処理システムの構成例を示す図である。図4に示すように、本開示の実施形態に係る情報処理システム1には、移動体装置100とユーザインタフェース200とが含まれる。なお、情報処理システム1には、外部の情報処理装置が含まれてもよい。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図4に示した情報処理システム1には、任意の数の移動体装置100と任意の数のユーザインタフェース200とが含まれていてもよい。
移動体装置100は、図1に示す情報処理を行う情報処理装置である。移動体装置100は、ユーザインタフェース200を介して、移動体装置100の利用者から追従対象の指定を受け付ける。
ユーザインタフェース200は、移動体装置100の利用者から、追従対象の指定の入力を受け付ける。ユーザインタフェース200は、追従対象の指定の入力を受け付けると、受け付けた追従対象に関する対象情報を移動体装置100に対して出力する。
次に、図4を用いて、本開示の実施形態に係る移動体装置100の構成について説明する。図4に示すように、本開示の実施形態に係る移動体装置100は、センサ部110、制御部120、記憶部130、通信部140、駆動部150を備える。
(センサ部110)
センサ部110は、多様なセンサ装置を備え得る。例えば、センサ部110は、外界センサ111、内界センサ112を備え得る。センサ部110は、センサを用いてセンシングを行う。そして、センサ部110は、各種センサがセンシングにより取得したセンシング情報を制御部120へ出力する。
センサ部110は、外界センサ111及び内界センサ112を用いて、制御部120が移動体装置100の自己位置を推定するために用いる情報を取得する。外界センサ111は、移動体装置100の外部の情報をセンシングする装置である。例えば、外界センサ111は、LiDAR(Laser Imaging Detection and Ranging)11、Sonar12、カメラ13を含む。内界センサは、移動体装置100の内部の情報をセンシングする装置である。例えば、内界センサ112は、IMU21、エンコーダ22を含む。
また、センサ部110は、外界センサ111がセンシングにより取得したセンシング情報を生成部123に出力する。また、センサ部110は、内界センサ112がセンシングにより取得したセンシング情報を生成部123に出力する。
(制御部120)
制御部120は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、移動体装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部120は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図4に示すように、制御部120は、受付部121と、取得部122と、生成部123と、計画部124と、推定部125と、判定部126と、設定部127と、検出部128と、駆動制御部129とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部120の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
(受付部121)
受付部121は、追従対象の指定を受け付ける。具体的には、受付部121は、ユーザインタフェース200を介して、移動体装置100の利用者から追従対象の指定を受け付ける。より具体的には、受付部121は、識別情報で識別される追従対象の指定を移動体装置100の利用者から受け付ける。図1の左に示す例では、受付部121は、識別情報「O1」で識別される追従対象(追従対象O1)の指定を受付部121の利用者から受け付ける。
(取得部122)
取得部122は、各種の情報を取得する。具体的には、取得部122は、センサ部110からセンシング情報を取得する。例えば、取得部122は、センサ部110から外界センサ111によるセンシング情報を取得する。また、取得部122は、センサ部110から内界センサ112によるセンシング情報を取得する。
また、取得部122は、生成部123によって生成された占有格子地図に関する地図情報を取得する。取得部122は、地図情報を取得すると、取得した地図情報を占有格子地図情報記憶部131に格納する。
また、取得部122は、生成部123によって算出された自己位置、移動速度、移動方向、自機の姿勢に関する情報を取得する。
(生成部123)
生成部123は、占有格子地図を生成する。具体的には、生成部123は、センサ部110から外界センサ111によるセンシング情報を取得する。続いて、生成部123は、外界センサ111によるセンシング情報に基づいて、占有格子地図を生成する。生成部123は、占有格子地図を生成すると、生成した占有格子地図に関する地図情報を占有格子地図情報記憶部131に格納する。
また、生成部123は、外界センサ111によるセンシング情報に基づいて、占有格子地図を更新する。生成部123は、更新した占有格子地図に関する地図情報を占有格子地図情報記憶部131に格納する。
また、生成部123は、自己位置を算出する。また、生成部123は、移動速度、移動方向、自機の姿勢を算出する。具体的には、生成部123は、センサ部110から内界センサ112によるセンシング情報を取得する。続いて、生成部123は、内界センサ112によるセンシング情報に基づいて、自己位置、移動速度、移動方向、自機の姿勢を算出する。
(計画部124)
計画部124は、移動体が移動する移動経路を計画する。具体的には、計画部124は、設定部127が設定した行動ポリシーに従って、移動体が移動する移動経路を計画する。例えば、計画部124は、設定部127が設定した通常追従モードの行動ポリシーに従って、移動体が追従対象を追従しながら移動する移動経路を計画する。
図1の左に示す例では、計画部124は、設定部127が通常追従モードを設定すると、通常追従モードの行動ポリシーに従って、移動体装置100が追従対象O1を追従しながら移動する移動経路を計画する。
(推定部125)
推定部125は、移動体の周辺の通路の幅を推定する。具体的には、推定部125は、計画部124が移動経路を計画すると、センサ部110から外界センサ111によるセンシング情報を取得する。続いて、推定部125は、取得したセンシング情報に基づいて、占有格子の配置に関する配置情報を取得する。続いて、推定部125は、占有格子の配置に関する配置情報に基づいて、移動体の周辺の通路を推定する。例えば、推定部125は、移動体の周囲の両側に位置する占有格子の配置の周期性に基づいて、通路を推定する。
図1の左に示す例では、推定部125は、移動体の周囲の左側に位置する占有格子行列OG1に含まれる占有格子の配置の周期性と移動体の周囲の右側に位置する占有格子行列OG2に含まれる占有格子の配置の周期性とに基づいて、移動体周囲に占有格子行列OG1と占有格子行列OG2とで挟まれた直線通路が存在すると推定する。
続いて、推定部125は、移動体の周辺に通路が存在すると推定すると、移動体の周辺の通路の幅を推定する。例えば、推定部125は、占有格子地図に基づいて、通路の一方の端の占有格子行列に含まれる所定の占有格子から所定の占有格子に対して通路の延在方向と垂直な方向に存在する占有格子までの距離を算出する。続いて、推定部125は、算出した距離を移動体の周辺の通路の幅であると推定する。
図1の左に示す例では、推定部125は、占有格子地図に基づいて、占有格子行列OG1に含まれる所定の占有格子から所定の占有格子に対して通路の延在方向と垂直な方向に存在する占有格子までの距離W1を算出する。続いて、推定部125は、算出した距離W1を移動体の周辺の通路の幅W1であると推定する。
(判定部126)
判定部126は、推定部125によって推定された通路の幅が所定の閾値以下であるか否かを判定する。具体的には、判定部126は、推定部125によって推定された通路の幅と所定の閾値とを比較して、推定部125によって推定された通路の幅が所定の閾値以下であるか否かを判定する。
図1の左に示す例では、判定部126は、推定部125によって推定された通路の幅W1と所定の閾値TH1とを比較して、推定部125によって推定された通路の幅W1が所定の閾値TH1以下であるか否かを判定する。
また、判定部126は、検出部128が曲がり角を検出したか否かを判定する。判定部126は、検出部128が曲がり角を検出した場合、検出部128が曲がり角を検出したと判定する。一方、判定部126は、検出部128が曲がり角を検出していない場合、検出部128が曲がり角を検出していないと判定する。
(設定部127)
設定部127は、移動体が移動する際の行動ポリシーを設定する。例えば、設定部127は、受付部121が追従対象の指定を受け付けると、追従対象を設定する。続いて、設定部127は、追従対象を設定すると、指定された追従対象を追従しながら移動する際の行動ポリシーである通常追従モードを設定する。
図1の左に示す例では、設定部127は、受付部121が追従対象の指定を受け付けると、追従対象O1を設定する。続いて、設定部127は、追従対象O1を設定すると、指定された追従対象O1を追従しながら移動する際の行動ポリシーである通常追従モードを設定する。
また、設定部127は、判定部126によって通路の幅が所定の閾値以下であると判定されると、通常追従モードから追従対象とは異なる仮想追従目標を追従する狭路直線経路用の追従モードである狭路直線用追従モードに行動ポリシーを切り替える。設定部127は、狭路直線用追従モードに行動ポリシーを再設定する。
図1の左に示す例では、設定部127は、判定部126によって通路の幅W1が所定の閾値TH1以下であると判定された場合、通常追従モードから狭路直線用追従モードに行動ポリシーを切り替える。
また、設定部127は、追従対象とは異なる仮想追従目標を設定する。具体的には、設定部127は、移動体の周辺の通路の幅が所定の閾値以下である場合、仮想追従目標を設定する。具体的には、設定部127は、判定部126によって通路の幅が所定の閾値以下であると判定された場合、仮想追従目標を設定する。より具体的には、設定部127は、通路の中心線上に仮想追従目標を設定する。
図1の左に示す例では、設定部127は、狭路直線用追従モードに行動ポリシーを切り替えると、通路の中心線上に仮想追従目標TP1を設定する。具体的には、推定部125は、設定部127が狭路直線用追従モードに行動ポリシーを設定すると、推定した通路の位置および通路の幅W1に基づいて、通路の中心線を推定する。続いて、推定部125は、生成部123によって算出された自己位置から所定の距離だけ前方に離れた通路の中心線上に仮想追従目標TP1を設定する。
また、設定部127は、検出部128が曲がり角を検出していない場合は、狭路直線用追従モードを保つか、又は、狭路直線用追従モードから通常追従モードに行動ポリシーを切り替える。一方、設定部127は、検出部128が曲がり角を検出した場合は、狭路直線用追従モード(又は通常追従モード)から曲がり角経路用の追従モードである曲がり角用追従モードに行動ポリシーを切り替える。設定部127は、曲がり角用追従モードに行動ポリシーを再設定する。
図1の右に示す例では、設定部127は、検出部128が曲がり角を検出したので、狭路直線用追従モード(又は通常追従モード)から曲がり角用追従モードに行動ポリシーを切り替える。続いて、設定部127は、曲がり角用追従モードに行動ポリシーを切り替えると、曲がり角用の追従距離を再設定する。
また、設定部127は、検出部128によって通路の曲がり角が検出された場合、仮想追従目標を設定する。より具体的には、設定部127は、曲がり角用の追従距離を再設定すると、仮想追従目標を設定する。例えば、設定部127は、検出部128によって検出された通路の曲がり角が右折である場合、通路の曲がり角の手前の直線通路の中心を通る直線よりも左側に仮想追従目標を設定し、検出部128によって検出された通路の曲がり角が左折である場合、直線通路の中心を通る直線よりも右側に仮想追従目標を設定する。また、設定部127は、通路の曲がり角の外側の通路端から所定距離内側の位置に仮想追従目標を設定する。例えば、設定部127は、検出部128によって検出された通路の曲がり角が左折(右折)である場合には、通路の中心線より右側(左側)の領域であって、かつ、外側の占有格子の壁の位置から所定の距離(例えば、移動体の横幅にマージンを加えた距離)を逆算して引いた位置に仮想追従目標を設定する。
図1の右に示す例では、設定部127は、曲がり角用の追従距離を再設定すると、曲がり角用の仮想追従目標TP2を設定する。具体的には、設定部127は、検出部128によって検出された通路の曲がり角が左折であるので、通路の曲がり角の手前の直線通路の中心を通る直線よりも右側に仮想追従目標TP2を設定する。また、設定部127は、通路の曲がり角の外側の通路端から所定距離内側の位置に仮想追従目標TP2を設定する。
続いて、設定部127は、移動体が仮想追従目標に到着した場合、仮想追従目標から所定の距離だけ前方に新たな仮想追従目標を設定する。例えば、設定部127は、移動体が仮想追従目標に到着した場合、通路の曲がり角の外側の通路端を基準に新たな仮想追従目標を設定する。
図1の右に示す例では、設定部127は、移動体が仮想追従目標TP2に到着した場合、仮想追従目標TP2から所定の距離だけ前方に新たな仮想追従目標TP3を設定する。例えば、設定部127は、移動体が仮想追従目標TP2に到着した場合、通路の曲がり角の外側の通路端を基準に新たな仮想追従目標TP3を設定する。なお、設定部127は、新たな仮想追従目標TP3に到着した場合、曲がり角用追従モードから狭路直線用追従モード又は通常追従モードに行動ポリシーを切り替えてもよい。
(検出部128)
検出部128は、移動体の周辺の通路の曲がり角を検出する。具体的には、検出部128は、占有格子地図における占有格子の配置に基づいて、移動体の周辺の通路の曲がり角を検出する。より具体的には、具体的には、検出部128は、センサ部110から外界センサ111によるセンシング情報を取得する。続いて、検出部128は、取得したセンシング情報に基づいて、占有格子の配置に関する配置情報を取得する。続いて、推定部125は、占有格子の配置に関する配置情報に基づいて、移動体の周辺の通路の曲がり角を検出する。
また、検出部128は、右折の曲がり角または左折の曲がり角を検出する。具体的には、設定部127は、通路の曲がり角の手前の直線通路の延在方向に対する曲がり角の占有格子行列の配置に基づいて、右折の曲がり角または左折の曲がり角を検出する。例えば、設定部127は、通路の曲がり角の手前の直線通路の延在方向に対して曲がり角の占有格子行列が反時計回りに傾いて配置されている場合には、左折の曲がり角を検出する。一方、設定部127は、通路の曲がり角の手前の直線通路の延在方向に対して曲がり角の占有格子行列が時計回りに傾いて配置されている場合には、右折の曲がり角を検出する。
図1の右に示す例では、検出部128は、通路の曲がり角の手前の直線通路(占有格子行列OG1と占有格子行列OG2とで挟まれた直線通路)の延在方向に対して曲がり角の占有格子行列OG3が反時計回りに傾いて配置しているので、左折の曲がり角を検出する。
(駆動制御部129)
駆動制御部129は、移動体の駆動を制御する。具体的には、駆動制御部129は、計画部124が計画した経路計画に従って移動体が移動するよう駆動部150を制御する。より具体的には、設定部127が設定した行動ポリシーに従って計画部124が計画した経路計画に従って移動体が移動するよう駆動部150を制御する。
図1の左に示す例では、駆動制御部129は、設定部127が設定した通常追従モードの行動ポリシーに従って計画部124が計画した経路計画に従って移動体装置100が移動するよう駆動部150を制御する。
また、駆動制御部129は、設定部127が仮想追従目標を設定すると、設定部127が設定した仮想追従目標に基づいて移動体の駆動を制御する。具体的には、駆動制御部129は、設定部127が設定した狭路直線用追従モードの行動ポリシーに従って移動体装置100が移動するよう駆動部150を制御する。より具体的には、移動体は、追従対象を検出するためのセンサを備え、駆動制御部129は、追従対象がセンサの検出範囲内に収まるように、追従対象と移動体との距離を制御する。例えば、駆動制御部129は、センサの検出範囲の広がり角と移動体の周囲の通路の幅とに基づき、追従対象がセンサの検出範囲内に収まるように、追従対象と移動体との距離を制御する。
図1の中央に示す例では、駆動制御部129は、設定部127が仮想追従目標TP1を設定すると、追従対象O1がセンサの検出範囲内に収まるように、追従対象O1と移動体装置100との距離を制御する。より具体的には、駆動制御部129は、センサの検出範囲DR1の広がり角D1と移動体の周囲の通路の幅W1とに基づき、追従対象O1がセンサの検出範囲DR1内に収まるように、追従対象O1と移動体装置100との距離を制御する。例えば、駆動制御部129は、センサの検出範囲DR1の広がり角D1と移動体の周囲の通路の幅W1とが一致するように追従対象O1と移動体装置100との距離を制御する。
また、駆動制御部129は、検出部128によって通路の曲がり角が検出された場合、通路の曲がり角が検出される前と比べて追従対象と移動体との距離を縮めるよう移動体の駆動を制御する。具体的には、駆動制御部129は、設定部127が曲がり角用追従モードに行動ポリシーを切り替えると、通路の曲がり角が検出される前と比べて追従対象と移動体との距離を縮めるよう移動体の駆動を制御する。
図1の右に示す例では、駆動制御部129は、設定部127が曲がり角用追従モードに行動ポリシーを切り替えると、通路の曲がり角が検出される前と比べて追従対象O1と移動体装置100との距離を縮めるよう駆動部150の駆動を制御する。また、駆動制御部129は、設定部127が曲がり角用の仮想追従目標TP2を設定すると、曲がり角用追従モードに従って移動経路を計画して、経路への追従を制御する。続いて、駆動制御部129は、設定部127が新たな仮想追従目標TP3を設定すると、曲がり角用追従モードに従って移動経路を計画して、経路への追従を制御する。なお、駆動制御部129は、新たな仮想追従目標TP3に到着した場合、設定部127が曲がり角用追従モードから狭路直線用追従モード又は通常追従モードに行動ポリシーを切り替えた場合には、狭路直線用追従モード又は通常追従モードに従って移動経路を計画して、経路への追従を制御する。
(記憶部130)
記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。例えば、記憶部130は、実施形態に係る情報処理プログラムを記憶する。
また、記憶部130は、各モードに対応する行動ポリシーを記憶する。例えば、記憶部130は、通常追従モードにおける行動ポリシーと、追従対象とは異なる仮想追従目標を追従する狭路直線経路用の追従モードである狭路直線用追従モードにおける行動ポリシーと、曲がり角経路用の追従モードである曲がり角用追従モードにおける行動ポリシーと、を記憶する。
また、記憶部130は、図4に示すように、占有格子地図情報記憶部131を有する。
(占有格子地図情報記憶部131)
占有格子地図情報記憶部131は、占有格子地図に関する各種の情報を記憶する。具体的には、占有格子地図情報記憶部131は、あらかじめ取得した占有格子地図に関する情報を記憶する。また、占有格子地図情報記憶部131は、生成部123によって更新された占有格子地図に関する情報を記憶する。
(通信部140)
通信部140は、例えば、NIC等によって実現される。そして、通信部140は、ネットワークNと有線または無線で接続され、例えば、外部の情報処理装置との間で情報の送受信を行う。
(駆動部150)
駆動部150は、移動体装置100における物理的構成を駆動する機能を有する。駆動部150は、移動体装置100の位置の移動を行うための機能を有する。駆動部150は、例えばアクチュエータである。なお、駆動部150は、移動体装置100が所望の動作を実現可能であれば、どのような構成であってもよい。駆動部150は、移動体装置100の位置の移動等を実現可能であれば、どのような構成であってもよい。例えば、駆動部150は、駆動制御部129による指示に応じて、移動体装置100の移動機構を駆動することにより、移動体装置100を移動させ、移動体装置100の位置を変更する。
[1−4.実施形態に係る情報処理の手順]
次に、図5を用いて、本開示の実施形態に係る情報処理の手順について説明する。図5は、本開示の実施形態に係る情報処理の手順を示すフローチャートである。
図5に示す例では、移動体装置100は、追従対象を設定する(ステップS101)。移動体装置100は、追従対象を設定すると、追従対象を追従しながら移動する移動経路を計画する(ステップS102)。
移動体装置100は、移動経路を計画すると、移動体(移動体装置100)周囲の通路の幅を推定する(ステップS103)。移動体装置100は通路の幅を推定すると、通路の幅が所定の閾値以下であるか否かを判定する(ステップS104)。移動体装置100は、通路の幅が所定の閾値以下でないと判定した場合(ステップS104のNO)、追従対象を追従しながら移動する際の通常追従モードに行動ポリシーを保つ。続いて、移動体装置100は、曲がり角を検出した否かを判定する(ステップS107)。
移動体装置100は、通路の幅が所定の閾値以下であると判定した場合(ステップS104のYES)、通常追従モードから狭路直線経路用の追従モードである狭路直線用追従モードに行動ポリシーを切り替える。移動体装置100は、狭路直線用追従モードに行動ポリシーを切り替えると、仮想追従目標を設定する(ステップS105)。続いて、移動体装置100は、仮想追従目標を設定すると、追従対象との距離(追従距離)を再設定する(ステップS106)。続いて、移動体装置100は、追従距離を再設定すると、曲がり角を検出した否かを判定する(ステップS107)。
移動体装置100は、曲がり角を検出していないと判定した場合(ステップS107のNO)、狭路直線用追従モードを保つか、あるいは、狭路直線用追従モードから通常追従モードに行動ポリシーを切り替える。移動体装置100は、狭路直線用追従モード又は通常追従モードに従って移動経路を計画して、経路への追従を制御する(ステップS110)。
一方、移動体装置100は、曲がり角を検出したと判定した場合(ステップS107のYES)、狭路直線用追従モード又は通常追従モードから曲がり角経路用の追従モードである曲がり角用追従モードに行動ポリシーを切り替える。移動体装置100は、曲がり角用追従モードに行動ポリシーを切り替えると、曲がり角用の追従距離を再設定する(ステップS108)。続いて、移動体装置100は、曲がり角用の追従距離を再設定すると、曲がり角用の仮想追従目標を設定する(ステップS109)。続いて、移動体装置100は、曲がり角用の仮想追従目標を設定すると、曲がり角用追従モードに従って移動経路を計画して、経路への追従を制御する(ステップS110)。
[2.その他の実施形態]
[2−1.その他の条件下での適用例]
上述した実施形態では、移動体装置100が、狭路や曲がり角において仮想追従目標を設定する例について説明したが、適用例はこれに限られない。例えば、設定部127は、エレベータを待っている人を追従する場合には、仮想追従目標をエレベータのドアの中心に設定してもよい。
このように、設定部127は、エレベータに限らず、自律移動ロボットが入口(ENTRYポイント)又は出口(EXTポイント)に出入りする追従対象を追従する状況では、入口又は出口の中心に仮想追従目標を設定してもよい。これにより、移動体装置100は、自律移動ロボットが入口や出口に並んでいる追従対象が移動する度に追従対象を追従しようとして不自然な挙動をするのを防ぐことができる。
[3.移動体への応用例]
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図6は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図6に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図6の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図7は、撮像部12031の設置位置の例を示す図である。
図7では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図7には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周囲の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、マイクロコンピュータ12051に適用され得る。具体的には、マイクロコンピュータ12051に本開示に係る技術を適用することにより、より自然な挙動で自律移動ロボットを追従させることを可能にする。
[4.本開示に係る効果]
上述のように、本開示に係る情報処理装置(実施形態では移動体装置100)は、受付部(実施形態では受付部121)と、設定部(実施形態では設定部127)と、駆動制御部(実施形態では駆動制御部129)を備える。受付部は、追従対象の指定を受け付ける。設定部は、追従対象とは異なる仮想追従目標を設定する。駆動制御部は、仮想追従目標に基づいて移動体の駆動を制御する。
これにより、情報処理装置は、追従対象が大きく左右に移動した場合であっても、自律移動ロボットが追従対象の動きに左右されることなく、仮想追従目標に向かって真っ直ぐ進むように駆動を制御できるため、追従対象が検出センサの検出範囲外に位置するリスクを低減することができる。したがって、情報処理装置は、追従対象を検出センサの検出範囲に捉え続けながら、より自然な挙動で自律移動ロボットを追従させることができる。
また、情報処理装置は、自律移動ロボットが狭路で追従対象を追従する状況のように、自律移動ロボットによる障害物の回避動作と追従対象への追従動作とが競合しやすい状況であっても、自律移動ロボットを仮想追従目標に対する追従動作に集中させることができるため、自律移動ロボットが回避動作と追従動作との競合により蛇行するのを防ぐことができる。したがって、情報処理装置は、より自然な挙動で自律移動ロボットを追従させることができる。
また、情報処理装置は、既存の対象追従ポリシー(またはアルゴリズム)、経路計画アルゴリズム、および占有格子地図の構造を変更せず活用しながら、自律移動ロボットによる追従動作時の価値、性能、および安全性を向上させることができる。具体的には、情報処理装置は、近年盛んに開発されている経路探索アルゴリズムという既存資産を最大限利用することができる。また、情報処理装置は、演算器の負荷に影響を与える経路探索アルゴリズムが変更不要なので、演算リソースに与える影響が少ない。また、情報処理装置は、既存の自律移動ロボットに対してセンサの追加、演算リソースの追加、ハードウェアの追加等が不要で自走できる。また、情報処理装置は、曲がり角用の追従ポリシーのみ適用するなど、本発明の仕組みの中で利用者の使い勝手やユースケースに合わせた追従時の行動計画ポリシーを容易に選択することを可能にする。
また、設定部は、移動体の周辺の通路の幅が所定の閾値以下である場合、仮想追従目標を設定する。
これにより、情報処理装置は、障害物が多く、自律移動ロボットが障害物を回避する挙動と追従目標を追従する挙動との競合が起こり易い狭路においても、自律移動ロボットが障害物を回避する挙動と追従目標を追従する挙動とが競合することを防ぐことができる。したがって、情報処理装置は、狭い通路においても、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、本開示に係る情報処理装置は、推定部(実施形態では推定部125)と、判定部(実施形態では判定部126)と、をさらに備える。推定部は、移動体の周辺の通路の幅を推定する。判定部は、推定部によって推定された通路の幅が所定の閾値以下であるか否かを判定する。設定部は、判定部によって通路の幅が所定の閾値以下であると判定された場合、仮想追従目標を設定する。また、推定部は、占有格子地図における占有格子の配置に基づいて、移動体の周辺の通路の幅を推定する。
これにより、情報処理装置は、事前地図で通路幅が狭いとわかっている場合にも、事前情報がなく自律移動ロボットが逐次的に占有格子の形状を観測する場合にも、ともにより自然な挙動で自律移動ロボットを追従させることを可能にする。
また、設定部は、通路の中心線上に仮想追従目標を設定する。
これにより、情報処理装置は、狭い通路であっても、通路の壁にぶつかることなく、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、移動体は、追従対象を検出するためのセンサを備え、駆動制御部は、追従対象がセンサの検出範囲内に収まるように、追従対象と移動体との距離を制御する。
これにより、情報処理装置は、追従対象をセンサの検出範囲に捉え続けながら、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、駆動制御部は、センサの検出範囲の広がり角と移動体の周囲の通路の幅とに基づき、追従対象がセンサの検出範囲内に収まるように、追従対象と移動体との距離を制御する。
これにより、情報処理装置は、追従対象がセンサの死角に入り、検出範囲から外れるのを防ぐことができるため、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、本開示に係る情報処理装置は、検出部(実施形態では検出部128)をさらに備える。検出部は、移動体の周辺の通路の曲がり角を検出する。設定部は、検出部によって通路の曲がり角が検出された場合、仮想追従目標を設定する。また、検出部は、占有格子地図における占有格子の配置に基づいて、移動体の周辺の通路の曲がり角を検出する。
これにより、情報処理装置は、自律移動ロボットが追従対象をLOSTしやすい曲がり角での追従状況下でも、追従対象を見失うことなく、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、設定部は、検出部によって検出された通路の曲がり角が右折である場合、通路の曲がり角の手前の直線通路の中心を通る直線よりも左側に仮想追従目標を設定し、検出部によって検出された通路の曲がり角が左折である場合、直線通路の中心を通る直線よりも右側に仮想追従目標を設定する。
これにより、情報処理装置は、曲がり角の内側の占有格子によって、自律移動ロボットが追従対象をLOSTするリスクを低減することができるため、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、設定部は、通路の曲がり角の外側の通路端から所定距離内側の位置に仮想追従目標を設定する。
これにより、情報処理装置は、自律移動ロボットが通路の曲がり角の外側の壁にぶつかるのを防ぐことができるため、より自然な挙動で自律移動ロボットを追従させることを可能にする。
また、駆動制御部は、検出部によって通路の曲がり角が検出された場合、通路の曲がり角が検出される前と比べて追従対象と移動体との距離を縮めるよう移動体の駆動を制御する。
これにより、情報処理装置は、自律移動ロボットが追従対象をLOSTしやすい曲がり角での追従状況下でも、追従対象を見失うことなく、かつ、追従対象に不安感や恐怖感を与えることなく追従対象を追従することができる。
また、設定部は、移動体が仮想追従目標に到着した場合、仮想追従目標から所定の距離だけ前方に新たな仮想追従目標を設定する。また、設定部は、移動体が仮想追従目標に到着した場合、通路の曲がり角の外側の通路端を基準に新たな仮想追従目標を設定する。
これにより、情報処理装置は、追従対象が曲がり角を曲がった後も、より自然な挙動で自律移動ロボットを追従させることを可能にする。
[5.ハードウェア構成]
上述してきた実施形態や変形例に係る移動体装置100等の情報機器は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、移動体装置100等の情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。以下、実施形態に係る移動体装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る移動体装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部120等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部130内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
追従対象の指定を受け付ける受付部と、
前記追従対象とは異なる仮想追従目標を設定する設定部と、
前記仮想追従目標に基づいて移動体の駆動を制御する駆動制御部と、
を備える情報処理装置。
(2)
前記設定部は、
前記移動体の周辺の通路の幅が所定の閾値以下である場合、前記仮想追従目標を設定する
前記(1)に記載の情報処理装置。
(3)
前記移動体の周辺の通路の幅を推定する推定部と、
前記推定部によって推定された通路の幅が所定の閾値以下であるか否かを判定する判定部と、
をさらに備え、
前記設定部は、
前記判定部によって前記通路の幅が前記所定の閾値以下であると判定された場合、前記仮想追従目標を設定する
前記(2)に記載の情報処理装置。
(4)
前記推定部は、占有格子地図における占有格子の配置に基づいて、前記移動体の周辺の通路の幅を推定する
前記(3)に記載の情報処理装置。
(5)
前記設定部は、
前記通路の中心線上に前記仮想追従目標を設定する
前記(2)〜(4)のいずれか一つに記載の情報処理装置。
(6)
前記移動体は、前記追従対象を検出するためのセンサを備え、
前記駆動制御部は、
前記追従対象が前記センサの検出範囲内に収まるように、前記追従対象と前記移動体との距離を制御する
前記(1)〜(5)のいずれか一つに記載の情報処理装置。
(7)
前記駆動制御部は、
前記センサの検出範囲の広がり角と前記移動体の周囲の通路の幅とに基づき、前記追従対象が前記センサの検出範囲内に収まるように、前記追従対象と前記移動体との距離を制御する
前記(6)に記載の情報処理装置。
(8)
前記移動体の周辺の通路の曲がり角を検出する検出部をさらに備え、
前記設定部は、
前記検出部によって前記通路の曲がり角が検出された場合、前記仮想追従目標を設定する
前記(1)〜(7)のいずれか一つに記載の情報処理装置。
(9)
前記検出部は、占有格子地図における占有格子の配置に基づいて、前記移動体の周辺の前記通路の曲がり角を検出する
前記(8)に記載の情報処理装置。
(10)
前記設定部は、
前記検出部によって検出された前記通路の曲がり角が右折である場合、前記通路の曲がり角の手前の直線通路の中心を通る直線よりも左側に前記仮想追従目標を設定し、前記検出部によって検出された前記通路の曲がり角が左折である場合、前記直線通路の中心を通る前記直線よりも右側に前記仮想追従目標を設定する
前記(8)または(9)に記載の情報処理装置。
(11)
前記設定部は、
前記通路の曲がり角の外側の通路端から所定距離内側の位置に前記仮想追従目標を設定する
前記(10)に記載の情報処理装置。
(12)
前記駆動制御部は、
前記検出部によって前記通路の曲がり角が検出された場合、前記通路の曲がり角が検出される前と比べて前記追従対象と前記移動体との距離を縮めるよう前記移動体の駆動を制御する
前記(8)〜(11)のいずれか一つに記載の情報処理装置。
(13)
前記設定部は、
前記移動体が前記仮想追従目標に到着した場合、前記仮想追従目標から所定の距離だけ前方に新たな仮想追従目標を設定する
前記(8)〜(12)のいずれか一つに記載の情報処理装置。
(14)
前記設定部は、
前記移動体が前記仮想追従目標に到着した場合、前記通路の曲がり角の外側の通路端を基準に新たな仮想追従目標を設定する
前記(8)〜(13)のいずれか一つに記載の情報処理装置。
(15)
追従対象の指定を受け付け、
前記追従対象とは異なる仮想追従目標を設定し、
前記仮想追従目標に基づいて移動体の駆動を制御する、
処理を実行する情報処理方法。
(16)
コンピュータに、
追従対象の指定を受け付ける受付手順と、
前記追従対象とは異なる仮想追従目標を設定する設定手順と、
前記仮想追従目標に基づいて移動体の駆動を制御する駆動制御手順と、
を実行させるための情報処理プログラム。
1 情報処理システム
11 LiDAR
12 Sonar
13 カメラ
21 IMU
22 エンコーダ
100 移動体装置
110 センサ部
111 外界センサ
112 内界センサ
120 制御部
121 受付部
122 取得部
123 生成部
124 計画部
125 推定部
126 判定部
127 設定部
128 検出部
129 駆動制御部
130 記憶部
131 占有格子地図情報記憶部
140 通信部
150 駆動部
200 ユーザインタフェース

Claims (16)

  1. 追従対象の指定を受け付ける受付部と、
    前記追従対象とは異なる仮想追従目標を設定する設定部と、
    前記仮想追従目標に基づいて移動体の駆動を制御する駆動制御部と、
    を備える情報処理装置。
  2. 前記設定部は、
    前記移動体の周辺の通路の幅が所定の閾値以下である場合、前記仮想追従目標を設定する
    請求項1に記載の情報処理装置。
  3. 前記移動体の周辺の通路の幅を推定する推定部と、
    前記推定部によって推定された通路の幅が所定の閾値以下であるか否かを判定する判定部と、
    をさらに備え、
    前記設定部は、
    前記判定部によって前記通路の幅が前記所定の閾値以下であると判定された場合、前記仮想追従目標を設定する
    請求項2に記載の情報処理装置。
  4. 前記推定部は、占有格子地図における占有格子の配置に基づいて、前記移動体の周辺の通路の幅を推定する
    請求項3に記載の情報処理装置。
  5. 前記設定部は、
    前記通路の中心線上に前記仮想追従目標を設定する
    請求項2に記載の情報処理装置。
  6. 前記移動体は、前記追従対象を検出するためのセンサを備え、
    前記駆動制御部は、
    前記追従対象が前記センサの検出範囲内に収まるように、前記追従対象と前記移動体との距離を制御する
    請求項1に記載の情報処理装置。
  7. 前記駆動制御部は、
    前記センサの検出範囲の広がり角と前記移動体の周囲の通路の幅とに基づき、前記追従対象が前記センサの検出範囲内に収まるように、前記追従対象と前記移動体との距離を制御する
    請求項6に記載の情報処理装置。
  8. 前記移動体の周辺の通路の曲がり角を検出する検出部をさらに備え、
    前記設定部は、
    前記検出部によって前記通路の曲がり角が検出された場合、前記仮想追従目標を設定する
    請求項1に記載の情報処理装置。
  9. 前記検出部は、占有格子地図における占有格子の配置に基づいて、前記移動体の周辺の前記通路の曲がり角を検出する
    請求項8に記載の情報処理装置。
  10. 前記設定部は、
    前記検出部によって検出された前記通路の曲がり角が右折である場合、前記通路の曲がり角の手前の直線通路の中心を通る直線よりも左側に前記仮想追従目標を設定し、前記検出部によって検出された前記通路の曲がり角が左折である場合、前記直線通路の中心を通る前記直線よりも右側に前記仮想追従目標を設定する
    請求項8に記載の情報処理装置。
  11. 前記設定部は、
    前記通路の曲がり角の外側の通路端から所定距離内側の位置に前記仮想追従目標を設定する
    請求項10に記載の情報処理装置。
  12. 前記駆動制御部は、
    前記検出部によって前記通路の曲がり角が検出された場合、前記通路の曲がり角が検出される前と比べて前記追従対象と前記移動体との距離を縮めるよう前記移動体の駆動を制御する
    請求項8に記載の情報処理装置。
  13. 前記設定部は、
    前記移動体が前記仮想追従目標に到着した場合、前記仮想追従目標から所定の距離だけ前方に新たな仮想追従目標を設定する
    請求項8に記載の情報処理装置。
  14. 前記設定部は、
    前記移動体が前記仮想追従目標に到着した場合、前記通路の曲がり角の外側の通路端を基準に新たな仮想追従目標を設定する
    請求項8に記載の情報処理装置。
  15. 追従対象の指定を受け付け、
    前記追従対象とは異なる仮想追従目標を設定し、
    前記仮想追従目標に基づいて移動体の駆動を制御する、
    処理を実行する情報処理方法。
  16. コンピュータに、
    追従対象の指定を受け付ける受付手順と、
    前記追従対象とは異なる仮想追従目標を設定する設定手順と、
    前記仮想追従目標に基づいて移動体の駆動を制御する駆動制御手順と、
    を実行させるための情報処理プログラム。
JP2019203226A 2019-11-08 2019-11-08 情報処理装置、情報処理方法及び情報処理プログラム Pending JP2021077088A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019203226A JP2021077088A (ja) 2019-11-08 2019-11-08 情報処理装置、情報処理方法及び情報処理プログラム
PCT/JP2020/033589 WO2021090566A1 (ja) 2019-11-08 2020-09-04 情報処理装置、情報処理方法及び情報処理プログラム
US17/773,735 US20220413503A1 (en) 2019-11-08 2020-09-04 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203226A JP2021077088A (ja) 2019-11-08 2019-11-08 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2021077088A true JP2021077088A (ja) 2021-05-20

Family

ID=75849848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203226A Pending JP2021077088A (ja) 2019-11-08 2019-11-08 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20220413503A1 (ja)
JP (1) JP2021077088A (ja)
WO (1) WO2021090566A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023079852A1 (ja) * 2021-11-02 2023-05-11 ソニーグループ株式会社 情報処理装置、移動体および制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117021089A (zh) * 2023-08-14 2023-11-10 北京小米机器人技术有限公司 机器人控制方法、装置、机器人及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3777970B2 (ja) * 2000-11-02 2006-05-24 日産自動車株式会社 先行車追従制御装置
JP4411794B2 (ja) * 2001-04-24 2010-02-10 三菱自動車工業株式会社 車両の走行制御装置
JP4880011B2 (ja) * 2009-05-12 2012-02-22 本田技研工業株式会社 車両用追従走行制御装置
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US9934688B2 (en) * 2015-07-31 2018-04-03 Ford Global Technologies, Llc Vehicle trajectory determination
JP6551867B2 (ja) * 2017-03-17 2019-07-31 マツダ株式会社 運転支援制御装置
WO2020055759A1 (en) * 2018-09-11 2020-03-19 Nvidia Corporation Future object trajectory predictions for autonomous machine applications
CN113785302A (zh) * 2019-04-26 2021-12-10 辉达公司 自主机器应用中的路口姿态检测
CN110550029B (zh) * 2019-08-12 2021-02-09 华为技术有限公司 障碍物避让方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023079852A1 (ja) * 2021-11-02 2023-05-11 ソニーグループ株式会社 情報処理装置、移動体および制御方法

Also Published As

Publication number Publication date
WO2021090566A1 (ja) 2021-05-14
US20220413503A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US20220066457A1 (en) Trajectory setting device and trajectory setting method
JP6800899B2 (ja) 視界に制限のある交差点への接近のためのリスクベースの運転者支援
CN108139756B (zh) 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和***
EP3367367B1 (en) Parking support method and parking support device
US9797734B2 (en) Object recognition apparatus
JP6404634B2 (ja) 予測的な先進運転支援システムの一貫性のある挙動生成
JP6190758B2 (ja) 物体認識装置及び車両
RU2720501C1 (ru) Способ определения помех, способ помощи при парковке, способ помощи при отъезде и устройство определения помех
JP7456442B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2003063430A (ja) 車両用運転操作補助装置
JP2007253745A (ja) 回避操作算出装置、回避制御装置、各装置を備える車両、回避操作算出方法および回避制御方法
US11648965B2 (en) Method and system for using a reaction of other road users to ego-vehicle actions in autonomous driving
JP2018063476A (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム
US9607230B2 (en) Mobile object control apparatus and target object detecting apparatus
WO2021090566A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230045416A1 (en) Information processing device, information processing method, and information processing program
US11753002B2 (en) Vehicular control system
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
JP2024518934A (ja) 車両ナビゲーション中の光干渉検出
JP6193177B2 (ja) 動作支援システム及び物体認識装置
JP6720954B2 (ja) 車両の物標検出装置
CN109278741A (zh) 车辆标志识别
WO2021172532A1 (ja) 駐車支援装置および駐車支援方法
US11325529B2 (en) Early brake light warning system for autonomous driving vehicle
WO2021085124A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム