JP7479799B2 - Information processing device, information processing method, program, and system - Google Patents

Information processing device, information processing method, program, and system Download PDF

Info

Publication number
JP7479799B2
JP7479799B2 JP2019134500A JP2019134500A JP7479799B2 JP 7479799 B2 JP7479799 B2 JP 7479799B2 JP 2019134500 A JP2019134500 A JP 2019134500A JP 2019134500 A JP2019134500 A JP 2019134500A JP 7479799 B2 JP7479799 B2 JP 7479799B2
Authority
JP
Japan
Prior art keywords
information
transported object
transported
information processing
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019134500A
Other languages
Japanese (ja)
Other versions
JP2020038631A (en
JP2020038631A5 (en
Inventor
誠 冨岡
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/550,074 priority Critical patent/US11573574B2/en
Priority to CN201910801597.2A priority patent/CN110928291B/en
Priority to DE102019123072.1A priority patent/DE102019123072A1/en
Publication of JP2020038631A publication Critical patent/JP2020038631A/en
Publication of JP2020038631A5 publication Critical patent/JP2020038631A5/ja
Priority to US18/153,787 priority patent/US11989029B2/en
Application granted granted Critical
Publication of JP7479799B2 publication Critical patent/JP7479799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、移動体の移動制御を行う技術に関する。 The present invention relates to a technology for controlling the movement of a moving object.

例えば、無人搬送車(AGV;Automated Guided Vehicle)と呼ばれる移動体がある。従来、この移動体を工場や物流倉庫等といった環境内で走行させる場合、移動体の移動制御を安定して行うため、特許文献1のように床にテープを貼り、テープを移動体に搭載したセンサで検知しながら走行させることが知られている。 For example, there is a mobile object called an automated guided vehicle (AGV). Conventionally, when this mobile object is driven in an environment such as a factory or a logistics warehouse, in order to stably control the movement of the mobile object, it is known that tape is attached to the floor as shown in Patent Document 1, and the tape is detected by a sensor mounted on the mobile object while the mobile object is driven.

特開2010-33434号公報JP 2010-33434 A

しかし、不特定の荷物を載せた移動体を安定的に移動させるには、移動体に載せる荷物の量や形状に合わせて移動経路を変更する必要がある。つまり、環境中の障害物と移動体または荷物との距離を適切に空けて走行するように走行経路を人手で設定する必要があった。 However, to ensure stable movement of a mobile object carrying unspecified cargo, it is necessary to change the travel route according to the amount and shape of the cargo carried by the mobile object. In other words, it was necessary to manually set the travel route so that an appropriate distance was maintained between obstacles in the environment and the mobile object or cargo.

本発明は、上記の課題に鑑みてなされたものであり、複数種類の運搬物を搭載可能な移動体の移動制御を安定的に行うことを目的とする。 The present invention was made in consideration of the above problems, and aims to stably control the movement of a moving body capable of carrying multiple types of transported goods.

上記の目的を達成する本発明に係る情報処理装置は、運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報と、前記移動体が移動する環境における物体の位置を示す3次元マップから前記運搬物の高さに基づいて生成した2次元マップと、を取得する取得手段と、前記第1の情報と前記第2の情報に基づいて、前記2次元マップにおける前記運搬物と前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定手段と、を有する、ことを特徴とする。 An information processing device according to the present invention that achieves the above-mentioned object is an information processing device that determines a control value to control the position of a moving body transporting a transported item, and is characterized in that it has an acquisition means that acquires first information that can identify the three-dimensional shape of the transported item, second information that can identify the distance between an object in the environment in which the moving body moves and the moving body based on a second image capturing the environment in which the moving body moves, and a two-dimensional map generated based on the height of the transported item from a three-dimensional map showing the position of the object in the environment in which the moving body moves , and a determination means that determines the control value that prevents the transported item and the object in the two-dimensional map from coming closer than a predetermined distance based on the first information and the second information .

本発明によれば、複数種類の運搬物を搭載可能な移動体の移動制御を安定的に行うことが出来る。 The present invention makes it possible to stably control the movement of a moving body capable of carrying multiple types of transported goods.

移動体システムが走行する環境の一例を説明する図。FIG. 1 is a diagram illustrating an example of an environment in which a mobile system travels. 情報処理システムのシステム構成例を説明する図。FIG. 1 is a diagram illustrating an example of a system configuration of an information processing system. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating an example of the functional configuration of a mobile system. 情報処理装置のハードウェア構成例を示す図。FIG. 2 is a diagram showing an example of the hardware configuration of an information processing apparatus. 情報処理装置が実行する処理を説明するフローチャート。4 is a flowchart illustrating a process executed by an information processing device. 移動体システムが走行する経路の一例を説明する図。FIG. 2 is a diagram illustrating an example of a route along which a mobile system travels. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating an example of the functional configuration of a mobile system. 情報処理装置が実行する処理を説明するフローチャート。4 is a flowchart illustrating a process executed by an information processing device. 表示情報を提示するGUIの一例を示す図。FIG. 13 is a diagram showing an example of a GUI that presents display information. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating an example of the functional configuration of a mobile system. 情報処理装置が実行する処理を説明するフローチャート。4 is a flowchart illustrating a process executed by an information processing device. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating an example of the functional configuration of a mobile system. 表示情報を提示するGUIの一例を示す図。FIG. 13 is a diagram showing an example of a GUI that presents display information. 情報処理装置が実行する処理を説明するフローチャート。4 is a flowchart illustrating a process executed by an information processing device.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 The following describes the embodiments with reference to the drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the configurations shown in the drawings.

(実施形態1)
本実施形態では、運搬物を載せた無人搬送車(AGV)の移動制御について説明する。無人搬送車を以下では移動体と呼ぶ。この移動体は、複数種類の運搬物を搭載可能であり、この移動体に搭載された運搬物の形状によって、移動体が通行可能な経路が変化する。また、移動体システム12は、車体に搭載されたカメラの画像から空間の3次元構造を認識できる。図1では、天井に梁がある、壁や棚にでっぱりがあるような環境を移動体が移動する場合、運搬物の有無や高さによって、移動体が通ることができる場所が異なる。具体的には、運搬物の高さが破線Aより低い場合は、移動体システム12はこのまま直進可能である。しかし、運搬物15の高さは破線Bに到達するため、この場合は直進せずに迂回して進むよう移動制御する必要がある。また、運搬物が移動体システムの横幅方向にはみ出すような大きさである場合も、移動体システムは運搬物の形状を考慮した経路を走行する必要がある。また、無人搬送車のように工場や倉庫で使用される移動体は、タスクに応じて様々な運搬物を運び、指示された場所で積み下ろしを行う。あるタスクを実施する工程において移動体が搭載する運搬物の量や大きさは一定であるとは限らない。はじめに運搬物の形状についての情報を与えても、荷物の積み下ろしを行う前後で運搬物の形状についての情報を更新しなければならなかった。そこで、画像から得た運搬物の高さや縦横の3次元形状の情報に基づいて、運搬物が障害物に接触しない経路を移動体システムが走行するように、移動体の位置を制御する制御値(方向またはスピード)を決定する方法について述べる。図2に、情報処理システムの構成例を示す。運搬物センサ110が撮像した画像から推定した運搬物の3次元形状と、移動体システム12に搭載された環境センサ120が撮像した画像により推定した移動体システム12の位置姿勢情報とに基づいて、移動体システム12の制御を行う。
(Embodiment 1)
In this embodiment, the movement control of an automated guided vehicle (AGV) carrying an object to be transported will be described. The automated guided vehicle will be referred to as a mobile body hereinafter. This mobile body can carry a plurality of types of objects to be transported, and the route through which the mobile body can travel changes depending on the shape of the object carried by the mobile body. In addition, the mobile body system 12 can recognize the three-dimensional structure of the space from an image of a camera mounted on the vehicle body. In FIG. 1, when the mobile body moves in an environment where there are beams on the ceiling and protrusions on the walls and shelves, the places through which the mobile body can pass differ depending on the presence and height of the object to be transported. Specifically, when the height of the object to be transported is lower than the dashed line A, the mobile body system 12 can continue to move straight. However, since the height of the object to be transported 15 reaches the dashed line B, in this case, it is necessary to control the movement so that the system does not move straight but instead takes a detour. In addition, even if the object to be transported is large enough to protrude from the mobile body system in the width direction, the mobile body system needs to travel a route that takes into account the shape of the object to be transported. In addition, mobile bodies used in factories and warehouses, such as automated guided vehicles, carry various objects to be transported according to tasks, and load and unload them at designated locations. The amount and size of the transported goods carried by the mobile body in the process of performing a certain task are not necessarily constant. Even if information on the shape of the transported goods is given at first, the information on the shape of the transported goods must be updated before and after loading and unloading the goods. Therefore, a method for determining a control value (direction or speed) for controlling the position of the mobile body so that the mobile body system travels along a route where the transported goods do not come into contact with obstacles based on information on the height and three-dimensional shape of the transported goods obtained from an image is described. FIG. 2 shows an example of the configuration of an information processing system. The mobile body system 12 is controlled based on the three-dimensional shape of the transported goods estimated from an image captured by the transported goods sensor 110 and the position and orientation information of the mobile body system 12 estimated from an image captured by the environment sensor 120 mounted on the mobile body system 12.

(構成説明)
図2に、本実施形態において無人搬送車(AGV)と称する移動体の位置を制御する情報処理システムの構成例を示す。本実施形態における情報処理システム1は、少なくとも1つ以上の移動体システム12、移動体管理システム13、工程管理システム14から構成される。情報処理システム1は、例えば物流システムや生産システムなどである。
(Configuration description)
2 shows an example of the configuration of an information processing system that controls the position of a moving object, called an automated guided vehicle (AGV), in this embodiment. The information processing system 1 in this embodiment is composed of at least one moving object system 12, a moving object management system 13, and a process management system 14. The information processing system 1 is, for example, a logistics system or a production system.

移動体システム12は、工場や物流倉庫といった使用環境でタスク遂行のため必要とされる工程のスケジュールに合わせて運搬物15を搬送する無人搬送車(AGV:Automated Guided Vehicle)である。移動体システム12は環境内で複数台が移動(走行)している。また、移動体システム12は、移動体管理システム13、他の移動体システム12と、Wi-Fi通信などの無線通信で各種情報を双方向に送受信している。移動体システム12は、移動体の位置を制御する制御値を決定する情報処理装置10、制御値に従って移動体の移動制御をするアクチュエータ部130、運搬物15を撮像する運搬物センサ110と、移動体の周辺環境を観測する環境センサ120を搭載している。 The mobile body system 12 is an automated guided vehicle (AGV) that transports a transported object 15 in accordance with a schedule of processes required to accomplish a task in an environment such as a factory or a logistics warehouse. A plurality of mobile body systems 12 move (travel) within the environment. The mobile body system 12 also transmits and receives various information bidirectionally with a mobile body management system 13 and other mobile body systems 12 via wireless communication such as Wi-Fi communication. The mobile body system 12 is equipped with an information processing device 10 that determines a control value for controlling the position of the mobile body, an actuator unit 130 that controls the movement of the mobile body according to the control value, a transported object sensor 110 that captures an image of the transported object 15, and an environmental sensor 120 that observes the surrounding environment of the mobile body.

移動体管理システム13は、移動体システム12を管理するシステムである。例えば、コンピュータサーバや、PCや、組み込みシステムや、PLC(Programmable Logic Controller)である。移動体管理システム13は、移動体システム12とWi-Fi通信などの無線通信で、移動体システム12の移動制御を行うための各種情報を双方向に送受信している。また、移動体管理システム13は、工程管理システム14と通信を行っている。 The mobile object management system 13 is a system that manages the mobile object system 12. For example, it is a computer server, a PC, an embedded system, or a PLC (Programmable Logic Controller). The mobile object management system 13 transmits and receives various information for controlling the movement of the mobile object system 12 in both directions via wireless communication such as Wi-Fi communication with the mobile object system 12. The mobile object management system 13 also communicates with the process management system 14.

工程管理システム14は、情報処理システム1で実行する工場や物流倉庫における工程のスケジュールなどを管理する。例えば、生産管理システムや、物流管理システムや、MES(Manufacturing Execution System)である。また、工程管理システム14は、移動体管理システム13と通信を行っている。 The process control system 14 manages schedules of processes in factories and logistics warehouses that are executed by the information processing system 1. For example, the process control system 14 is a production control system, a logistics control system, or a manufacturing execution system (MES). The process control system 14 also communicates with the mobile object control system 13.

運搬物15は、移動体システム12により運搬される貨物である。例えば、複数の工業用パーツを格納したコンテナや、複数のコンテナや段ボールがスタックされて構成される貨物などの、運搬対象となる物体である。運搬物15は、移動体システム12に積載または牽引により運搬される。 The transported goods 15 are cargo transported by the mobile system 12. For example, the cargo is an object to be transported, such as a container storing multiple industrial parts, or cargo consisting of multiple containers or cardboard boxes stacked together. The transported goods 15 are transported by being loaded onto or towed by the mobile system 12.

図3は、本実施形態における情報処理装置10を備える移動体システム12の機能構成例を示す図である。情報処理装置10は、運搬物画像入力部1110、運搬物情報取得部1120、環境画像入力部1130、位置姿勢情報取得部1140、保持部1150、決定部1160から構成されている。運搬物画像入力部1110は、移動体システム12に搭載された運搬物センサ110と接続されている。環境画像入力部1130は、移動体システム12に搭載された環境センサ120と接続されている。決定部1160は、アクチュエータ部130と接続されている。また、これらに加え、不図示の通信装置が移動体管理システム13と情報を双方向に通信を行っており、情報処理装置10の各種機能構成に入出力している。但し、図3は、機器構成の一例であり、本発明の適用範囲を限定するものではない。 Figure 3 is a diagram showing an example of the functional configuration of a mobile system 12 including an information processing device 10 in this embodiment. The information processing device 10 is composed of a transported object image input unit 1110, a transported object information acquisition unit 1120, an environmental image input unit 1130, a position and orientation information acquisition unit 1140, a holding unit 1150, and a determination unit 1160. The transported object image input unit 1110 is connected to a transported object sensor 110 mounted on the mobile system 12. The environmental image input unit 1130 is connected to an environmental sensor 120 mounted on the mobile system 12. The determination unit 1160 is connected to an actuator unit 130. In addition to these, a communication device (not shown) communicates information bidirectionally with the mobile object management system 13, and inputs and outputs information to and from various functional configurations of the information processing device 10. However, Figure 3 is an example of a device configuration and does not limit the scope of application of the present invention.

運搬物センサ(第1センサ)110は、移動体システム12が運搬する運搬物15を計測する計測装置である。本実施形態では、運搬物センサ110は、各画素が奥行きの情報を格納するデプスマップを撮像するToF方式によるデプスカメラであり、デプスマップを出力するものとする。なお、運搬物センサ110と移動体システム12との位置姿勢関係、運搬物センサ110と環境センサ120との位置関係はあらかじめキャリブレーション済みであるとする。 The transported object sensor (first sensor) 110 is a measuring device that measures the transported object 15 transported by the mobile body system 12. In this embodiment, the transported object sensor 110 is a ToF depth camera that captures a depth map in which each pixel stores depth information, and outputs the depth map. Note that the position and orientation relationship between the transported object sensor 110 and the mobile body system 12, and the positional relationship between the transported object sensor 110 and the environmental sensor 120 are assumed to have been calibrated in advance.

なお、運搬物センサ110は、例えば、濃淡画像やカラー画像を取得するグレースケールカメラやカラーカメラなどを用いてもよい。この場合、運搬物の形状の推定は、例えば、カラー画像から、CNN(Convolutional Neural Network)による学習ベースの方式で、運搬物の形状を表す3次元バウンディングボックスを直接推定する。具体的には、カラー画像と距離値を入力として、運搬物の大きさの絶対値を出力する学習済みモデル(CNN)を用いて運搬物の3次元形状を推定する。学習済みモデルは、様々な物体の画像に対して距離値と物体の大きさの情報を付与した教師データによって予め学習させておく。または、CNNを用いて単眼カラー画像からデプスマップを推定するネットワークを学習し、カラー画像から推定したデプスマップを利用して、本実施形態記載の処理を行ってもよい。あらかじめ不図示の記憶装置に保持したCADデータと、運搬物センサ110の取得する画像とをマッチングし、最もマッチング度合の高いCADデータの寸法から運搬物15の概略形状を推定することもできる。また、運搬物センサ110は、例えば、センサから対象物への距離をライン状にセンシングするラインセンサを用いて、運搬物15の形状を計測してもよい。この場合、運搬物15の形状計測は、例えば運搬物が移動体に積載されるタイミングで運搬物の動きに合わせてラインを走査し、運搬物の3次元点群を求めることで概略形状を推定する。以上のように、運搬物15の形状に関する情報が得られる限り、運搬物センサとして用いるセンサに制限はなく、いかなるセンサを用いてもよい。 The transported object sensor 110 may be, for example, a grayscale camera or a color camera that captures a grayscale image or a color image. In this case, the shape of the transported object is estimated by directly estimating a three-dimensional bounding box representing the shape of the transported object from a color image, for example, using a learning-based method using a CNN (Convolutional Neural Network). Specifically, the three-dimensional shape of the transported object is estimated using a trained model (CNN) that inputs a color image and a distance value and outputs the absolute value of the size of the transported object. The trained model is trained in advance using teacher data that has information on distance values and object sizes attached to images of various objects. Alternatively, a network that estimates a depth map from a monocular color image using a CNN may be trained, and the processing described in this embodiment may be performed using the depth map estimated from the color image. The CAD data stored in a storage device (not shown) in advance may be matched with the image acquired by the transported object sensor 110, and the outline shape of the transported object 15 may be estimated from the dimensions of the CAD data with the highest degree of matching. The transported object sensor 110 may also measure the shape of the transported object 15 using, for example, a line sensor that senses the distance from the sensor to the object in a line. In this case, the shape of the transported object 15 is measured by, for example, scanning a line in accordance with the movement of the transported object when the transported object is loaded onto the moving body, and estimating the rough shape by obtaining a three-dimensional point cloud of the transported object. As described above, there are no limitations on the sensor used as the transported object sensor, and any sensor may be used, as long as information regarding the shape of the transported object 15 can be obtained.

環境センサ120は、移動体が走行している周辺環境を計測する計測装置である。本実施形態では環境センサ120はデプスカメラである。環境センサ120は、移動体の周囲を観測したデプスマップを出力するものとする。なお、ここで言うデプスマップとは、環境センサ120が取得した画像の各画素に対して、計測対象までの距離(奥行き)と相関のある値を保持する画像を指す。通常、計測対象までの距離と相関のある値は、通常の画像として構成可能な整数値であり、焦点距離から決定される所定の係数を乗ずることで、対象までの物理的な距離(例えばミリメートル)に変換することができる。デプスマップを生成するための距離の計測方式は、特に制限はない。例えば、対象物に照射したマルチスリットラインをカメラで撮像し、三角測量によって距離計測を行うアクティブステレオ方式がある。Lidarをはじめとした、光の飛行時間を利用するTime-of-flight(ToF)方式でもよい。また,ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。本実施形態では環境センサ120はToF方式によるデプスカメラであるものとする。環境センサ120は、計測したデプスマップを環境画像入力部1130へ送る。 The environmental sensor 120 is a measuring device that measures the surrounding environment in which the moving body is traveling. In this embodiment, the environmental sensor 120 is a depth camera. The environmental sensor 120 outputs a depth map that observes the surroundings of the moving body. The depth map here refers to an image that holds a value that is correlated with the distance (depth) to the measurement target for each pixel of the image acquired by the environmental sensor 120. Usually, the value that is correlated with the distance to the measurement target is an integer value that can be configured as a normal image, and can be converted to the physical distance to the target (for example, millimeters) by multiplying it by a predetermined coefficient determined from the focal length. There are no particular limitations on the method of measuring the distance to generate the depth map. For example, there is an active stereo method in which a multi-slit line irradiated on the target is captured by a camera and distance is measured by triangulation. A time-of-flight (ToF) method that uses the time of flight of light, such as Lidar, may also be used. A passive method in which the depth of each pixel is calculated by triangulation from the image captured by the stereo camera may also be used. In this embodiment, the environmental sensor 120 is a depth camera using the ToF method. The environmental sensor 120 sends the measured depth map to the environmental image input unit 1130.

アクチュエータ部130は、決定部1160で決定された制御値(例えば、車輪の回転トルク、進行方向に関する移動制御情報)に基づき車輪を駆動する。本実施形態における移動制御とは、移動体が備えるアクチュエータであるモータ、および車輪の向きを変更するステアリングを制御することである。これらを制御することで、移動体を所定の目的地まで移動させる。また、制御値とは移動体を制御するための指令値のことである。具体的には、移動体の進行方向、加速度、車輪の回転スピード等である。ここでは、運搬物を搭載した移動体がある目的地に向かうのに最適な経路(例えば最短経路)を走行するような制御値を指す。 The actuator unit 130 drives the wheels based on the control values (e.g., the rotational torque of the wheels, and movement control information related to the traveling direction) determined by the determination unit 1160. In this embodiment, movement control refers to controlling the motor, which is an actuator equipped on the moving body, and the steering, which changes the direction of the wheels. By controlling these, the moving body is moved to a specified destination. In addition, the control values are command values for controlling the moving body. Specifically, they are the traveling direction, acceleration, and rotational speed of the wheels of the moving body. Here, the control values refer to control values that cause the moving body loaded with transported goods to travel along the optimal route (e.g., the shortest route) to a destination.

本実施形態における環境センサの位置姿勢とは、現実空間中に規定された世界座標系における環境センサ120の位置を表す3パラメータ、及び環境センサ120の姿勢を表す3パラメータを合わせた6パラメータのことである。ここで、世界座標系とは、床面を規定する2軸とそれらに直交し高さ方向を表す1軸により構成される座標系と定義する。なお、AGVなどの移動体の設計段階で移動体の重心位置に対する環境センサ120の取り付け位置を計測しておき、前述の取り付け位置姿勢を表す行列を外部メモリH14に記憶しておく。環境センサの位置姿勢に対して前述の取り付け位置姿勢を表す行列を掛け合わせることで移動体の重心位置を取得することができる。すなわち、世界座標系における環境センサの位置姿勢を取得することにより、世界座標系における移動体システム12の位置姿勢を容易に取得することができる。また、運搬物センサ110の光軸をZ軸、画像の水平方向をX軸、垂直方向をY軸とする撮像装置上に規定される三次元の座標系を第1座標系と呼ぶ。また、同様に、環境センサ120の光軸をZ軸、画像の水平方向をX軸、垂直方向をY軸とする撮像装置上に規定される三次元の座標系を第2座標系と呼ぶ。また、移動体システム12の進行方向をX軸、高さ方向をZ軸、それらに直交する軸をY軸とする移動体システム12上に規定される3次元の座標系を第3座標系と呼ぶ。 In this embodiment, the position and orientation of the environmental sensor refers to six parameters, including three parameters representing the position of the environmental sensor 120 in a world coordinate system defined in real space and three parameters representing the orientation of the environmental sensor 120. Here, the world coordinate system is defined as a coordinate system consisting of two axes defining the floor surface and one axis perpendicular to the two axes and representing the height direction. Note that, in the design stage of a moving body such as an AGV, the mounting position of the environmental sensor 120 relative to the center of gravity of the moving body is measured, and the matrix representing the mounting position and orientation described above is stored in the external memory H14. The center of gravity of the moving body can be obtained by multiplying the position and orientation of the environmental sensor by the matrix representing the mounting position and orientation described above. In other words, by obtaining the position and orientation of the environmental sensor in the world coordinate system, the position and orientation of the moving body system 12 in the world coordinate system can be easily obtained. In addition, a three-dimensional coordinate system defined on an imaging device in which the optical axis of the transported object sensor 110 is the Z axis, the horizontal direction of the image is the X axis, and the vertical direction is the Y axis is called a first coordinate system. Similarly, a three-dimensional coordinate system defined on the imaging device with the optical axis of the environmental sensor 120 as the Z axis, the horizontal direction of the image as the X axis, and the vertical direction as the Y axis is called the second coordinate system. Also, a three-dimensional coordinate system defined on the mobile system 12 with the travel direction of the mobile system 12 as the X axis, the height direction as the Z axis, and the axis perpendicular to these as the Y axis is called the third coordinate system.

運搬物画像入力部(第1入力部)1110は、運搬物センサ110が取得する視覚情報として、運搬物を観測したシーンの画像の各画素に対して奥行き値を格納したデプスマップを時系列(例えば毎秒60フレーム)に入力する。そして運搬物情報取得部1120に出力する。ここで、奥行き値とは、運搬物センサ110とAGVにより運搬される運搬物との距離である。 The transported object image input unit (first input unit) 1110 inputs a depth map in time series (e.g., 60 frames per second) that stores depth values for each pixel of the image of the scene in which the transported object is observed as visual information acquired by the transported object sensor 110. It then outputs this to the transported object information acquisition unit 1120. Here, the depth value is the distance between the transported object sensor 110 and the transported object being transported by the AGV.

運搬物情報取得部(第1取得部)1120は、運搬物画像入力部1110が入力したデプスマップから、運搬物の3次元形状に関する情報(第1情報)を取得する。本実施形態では、運搬物の形状に関する情報として、運搬物の3次元バウンディングボックス(重心位置を表す3パラメータ、バウンディングボックスのサイズを表す3パラメータ)により表現される概略形状を推定する。具体的には、運搬物を載せた移動体の高さや、運搬物が幅方向に移動体からはみ出した部分の大きさを示す。運搬物情報取得部1120は、さらに、取得した運搬物形状を決定部1160に出力する。 The transported object information acquisition unit (first acquisition unit) 1120 acquires information (first information) on the three-dimensional shape of the transported object from the depth map input by the transported object image input unit 1110. In this embodiment, the information on the shape of the transported object is estimated as a rough shape represented by the three-dimensional bounding box of the transported object (three parameters representing the center of gravity position, and three parameters representing the size of the bounding box). Specifically, it indicates the height of the moving object carrying the transported object and the size of the portion of the transported object that protrudes from the moving object in the width direction. The transported object information acquisition unit 1120 further outputs the acquired transported object shape to the determination unit 1160.

環境画像入力部(第2入力部)1130は、環境センサ120から、移動体が移動する環境を撮像したシーンの画像の各画素に対して奥行き値を格納したデプスマップを時系列(例えば毎秒60フレーム)に入力する。そしてデプスマップを位置姿勢情報取得部1140に出力する。奥行き値とは、環境センサ120と周辺環境における物体(例えば、壁や障害物)との距離である。 The environmental image input unit (second input unit) 1130 inputs a depth map, which stores depth values for each pixel of an image of a scene captured from the environmental sensor 120, in a time series (e.g., 60 frames per second). The depth map is then output to the position and orientation information acquisition unit 1140. The depth value is the distance between the environmental sensor 120 and an object (e.g., a wall or an obstacle) in the surrounding environment.

位置姿勢情報取得部(第2取得部)1140は、環境における物体と移動体との距離を特定可能な情報を取得する。すなわち、位置姿勢取得の指標となる位置姿勢推定用マップを保持し、環境画像入力部1130が入力したデプスマップと位置姿勢推定用マップとを用いて環境センサの位置姿勢についての情報(第2情報)を取得する。ここで、位置姿勢推定用マップとは、環境の形状を示す三次元点群データである。本実施形態では、ポイントクラウドは任意の世界座標系における三次元座標(X,Y,Z)の三値を格納したデータリストとして位置姿勢情報取得部1140が保持しているものとする。位置姿勢推定用マップは、あらかじめ環境のCADモデルから物体表面の奥行を示す3次元点群に変換されることにより生成されるものとする。なお、位置姿勢推定用マップとして、後述する制御用マップ情報を利用してもよい。位置姿勢情報取得部1140はさらに、取得した位置姿勢を決定部1160に出力する。なお、環境センサと移動体の位置関係は予めキャリブレーション済みのため、環境センサの位置姿勢がわかれば、移動体の位置と進行方向がわかる。 The position and orientation information acquisition unit (second acquisition unit) 1140 acquires information that can identify the distance between an object and a moving object in the environment. That is, it holds a position and orientation estimation map that serves as an index for acquiring the position and orientation, and acquires information (second information) about the position and orientation of the environmental sensor using the depth map and the position and orientation estimation map input by the environmental image input unit 1130. Here, the position and orientation estimation map is three-dimensional point cloud data that indicates the shape of the environment. In this embodiment, the position and orientation information acquisition unit 1140 holds the point cloud as a data list that stores three values of three-dimensional coordinates (X, Y, Z) in an arbitrary world coordinate system. The position and orientation estimation map is generated by converting a CAD model of the environment into a three-dimensional point cloud that indicates the depth of the object surface in advance. Note that the control map information described later may be used as the position and orientation estimation map. The position and orientation information acquisition unit 1140 further outputs the acquired position and orientation to the determination unit 1160. The positional relationship between the environmental sensor and the moving object has been calibrated in advance, so if the position and orientation of the environmental sensor are known, the position and direction of the moving object can be determined.

保持部1150は、制御用マップ情報として占有格子マップ(occupancy map)を保持する。占有格子マップとは、シーンを格子状に区切り、各格子に障害物が存在する確率を保持したマップのことである。占有格子マップは、世界座標系における3次元のボクセル空間(X,Y,Z)として保持する。または、高さ方向の情報を除いた2次元のグリッド空間(X,Y)として保持する。本実施形態では、占有格子マップは3次元ボクセル空間の情報として保持するものとする。占有格子マップは、位置姿勢推定用マップと同様に、あらかじめ環境のCADモデルから占有格子マップに変換されることにより生成されるものとする。また、これらに加え、AGVの目的地である三次元座標と姿勢を表す目的位置姿勢を保持する。目標位置姿勢は1つでも複数あってもよいが、ここでは簡単のため目標位置姿勢が1地点である例を説明する。さらに、保持部1150は、移動体の高さ・横幅・奥行を含む移動体の概略形状の情報を保持する。運搬物の概略形状は、荷物の積みおろしによって変化する場合があるため、ここでは初期値として運搬物が載っていない状態の情報を保持する。運搬物の情報は、移動体が運搬物を運ぶタスクを開始するタイミングで、後述する方法によって取得する。保持部1150は位置姿勢推定用マップまたは占有格子マップから得るマップ情報を必要に応じて決定部1160に出力する。さらに、目標位置姿勢を決定部1160に出力する。 The storage unit 1150 stores an occupancy grid map as map information for control. The occupancy grid map is a map in which a scene is divided into a grid and the probability that an obstacle exists in each grid is stored. The occupancy grid map is stored as a three-dimensional voxel space (X, Y, Z) in the world coordinate system. Alternatively, it is stored as a two-dimensional grid space (X, Y) excluding information in the height direction. In this embodiment, the occupancy grid map is stored as information on a three-dimensional voxel space. The occupancy grid map is generated by converting a CAD model of the environment into an occupancy grid map in advance, similar to the position and orientation estimation map. In addition to these, the storage unit 1150 stores a target position and orientation that represents the three-dimensional coordinates and orientation of the destination of the AGV. There may be one or more target positions and orientations, but here, for simplicity, an example in which the target position and orientation is one point will be described. Furthermore, the storage unit 1150 stores information on the approximate shape of the moving body, including the height, width, and depth of the moving body. Since the general shape of the transported object may change due to loading and unloading of luggage, information on the state when no transported object is loaded is stored as the initial value. The transported object information is acquired by a method described below when the mobile object starts a task of transporting the transported object. The storage unit 1150 outputs map information obtained from the position and orientation estimation map or the occupancy grid map to the determination unit 1160 as necessary. Furthermore, the storage unit 1150 outputs the target position and orientation to the determination unit 1160.

決定部1160は、運搬物情報取得部1110が取得した運搬物の3次元形状に基づいて、移動体と運搬物が環境(障害物)と一定以上の距離を空けて走行するように制御値を決定する。必要に応じて、位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢、保持部1150が保持する制御用マップ情報、目標の位置および姿勢の情報を利用する。決定部1160は、決定された制御値をアクチュエータ部130へ出力する。 The determination unit 1160 determines a control value based on the three-dimensional shape of the transported object acquired by the transported object information acquisition unit 1110 so that the moving body and the transported object travel with a certain distance or more from the environment (obstacles). If necessary, it utilizes the position and orientation of the environmental sensor 120 acquired by the position and orientation information acquisition unit 1140, the control map information held by the holding unit 1150, and the position and orientation information of the target. The determination unit 1160 outputs the determined control value to the actuator unit 130.

図4は、情報処理装置10のハードウェア構成を示す図である。H11はCPUであり、システムバスH21に接続された各種デバイスの制御を行う。H12はROMであり、BIOSのプログラムやブートプログラムを記憶する。H13はRAMであり、CPUであるH11の主記憶装置として使用される。H14は外部メモリであり、情報処理装置10が処理するプログラムを格納する。入力部H15はキーボードやマウス、ロボットコントローラーであり、情報等の入力に係る処理を行う。表示部H16はH11からの指示に従って情報処理装置10の演算結果を表示装置に出力する。なお、表示装置は液晶表示装置やプロジェクタ、LEDインジケーターなど、種類は問わない。また、情報処理装置が備える表示部H16が表示装置としての役割であってもよい。H17は通信インターフェイスであり、ネットワークを介して情報通信を行うものであり、通信インターフェイスはイーサネット(登録商標)でもよく、USBやシリアル通信、無線通信等種類は問わない。なお、前述した移動体管理システム13とは通信インターフェイスH17を介して情報のやり取りを行う。H18はI/Oであり、撮像装置H19から視覚情報を入力する。なお、撮像装置H19とは前述した運搬物センサ110または環境センサ120のことである。H20は前述したアクチュエータ部130のことである。 Figure 4 is a diagram showing the hardware configuration of the information processing device 10. H11 is a CPU, which controls various devices connected to the system bus H21. H12 is a ROM, which stores the BIOS program and the boot program. H13 is a RAM, which is used as the main storage device of the CPU H11. H14 is an external memory, which stores the programs processed by the information processing device 10. The input unit H15 is a keyboard, mouse, or robot controller, which performs processing related to the input of information, etc. The display unit H16 outputs the calculation results of the information processing device 10 to the display device according to the instructions from H11. The display device may be any type, such as a liquid crystal display device, a projector, or an LED indicator. The display unit H16 provided in the information processing device may also serve as the display device. H17 is a communication interface, which communicates information via a network, and the communication interface may be Ethernet (registered trademark), or any type, such as USB, serial communication, or wireless communication. Information is exchanged with the mobile management system 13 described above via the communication interface H17. H18 is an I/O that inputs visual information from an imaging device H19. Note that the imaging device H19 is the transported object sensor 110 or the environmental sensor 120 described above. H20 is the actuator unit 130 described above.

次に、本実施形態における処理手順について説明する。図5は、本実施形態における情報処理装置10が実行する処理の手順を示すフローチャートである。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。処理ステップは、S110、S120、S130、S140、S150、S160、S170から構成されている。 Next, the processing procedure in this embodiment will be described. FIG. 5 is a flowchart showing the processing procedure executed by the information processing device 10 in this embodiment. Hereinafter, it is assumed that the flowchart is realized by the CPU executing a control program. In the following description, each process (step) is represented by adding an S to the beginning, and the notation of the process (step) will be omitted. The processing steps consist of S110, S120, S130, S140, S150, S160, and S170.

S110では、システムの初期化を行う。すなわち、外部メモリH14からプログラムを読み込み、情報処理装置10を動作可能な状態にする。また、情報処理装置10に接続された各機器のパラメータ(運搬物センサ110および環境センサ120のカメラ内部パラメータと外部パラメータ)や、運搬物センサ110の初期の位置姿勢をRAMであるH13に読み込む。また、AGVの各デバイスを起動し、制御可能な状態とする。これらに加え、通信I/F(H17)を通して移動体管理システムから、AGVが向かうべき目的地の三次元座標を受信し、保持部1150に保持する。 In S110, the system is initialized. That is, a program is read from the external memory H14, and the information processing device 10 is put into an operable state. In addition, the parameters of each device connected to the information processing device 10 (internal and external camera parameters of the transported object sensor 110 and the environmental sensor 120) and the initial position and orientation of the transported object sensor 110 are read into the RAM H13. In addition, each device of the AGV is started and put into a controllable state. In addition to this, the three-dimensional coordinates of the destination to which the AGV should head are received from the mobile management system via the communication I/F (H17), and are held in the holding unit 1150.

S120では、運搬物画像入力部1110が、運搬物センサ120によって運搬物を撮像した画像であるデプスマップを入力する。具体的には、デプスカメラで運搬物15を撮像したシーンのデプスマップを入力する。なお、本実施形態においては、デプスマップとは各画素の奥行き値を格納した二次元配列リストのことである。 In S120, the transported object image input unit 1110 inputs a depth map, which is an image of the transported object captured by the transported object sensor 120. Specifically, a depth map of a scene in which the transported object 15 is captured by the depth camera is input. Note that in this embodiment, a depth map is a two-dimensional array list that stores the depth value of each pixel.

S130では、運搬物情報取得部1120が、運搬物画像入力部1110が入力したデプスマップ(第1の画像)を用いて、運搬物15の3次元形状を特定可能な情報(第1の情報)を取得する。なお、本実施形態においては、運搬物15の3次元形状を特定可能な情報とは概略形状であり、3次元バウンディングボックスを表す6パラメータ(位置3パラメータ、サイズ3パラメータ)のことである。具体的には、移動体座標系における運搬物の高さ・横幅・奥行・および重心位置により構成されるAxis-aligned boundingbox (AABB)を取得する。 In S130, the transported object information acquisition unit 1120 acquires information (first information) capable of identifying the three-dimensional shape of the transported object 15 using the depth map (first image) input by the transported object image input unit 1110. Note that in this embodiment, the information capable of identifying the three-dimensional shape of the transported object 15 is a rough shape, and refers to six parameters (three position parameters and three size parameters) that represent a three-dimensional bounding box. Specifically, an axis-aligned bounding box (AABB) consisting of the height, width, depth, and center of gravity position of the transported object in the moving body coordinate system is acquired.

運搬物15の概略形状の取得は、具体的には、まず、デプスマップから第1座標系に規定された3次元点群を取得する。3次元点群は、正規化画像座標系における画像座標とデプスマップの各画素の奥行値とを掛け合わせることで取得する。次に、取得した3次元点群の座標系を、運搬物撮像座標系から移動体座標系に変換する。さらに、3次元点群の中から、RANSAC(RANdom SAmple Consensus)アルゴリズムを用いて平面を除去することにより、床面等の背景となる3次元点群から、運搬物候補となる3次元点を分離する。最後に、運搬物候補の3次元点群から、3次元点群の各軸における最小値・最大値を取得することで、移動体座標系における運搬物の高さ・横幅・奥行および重心位置(AABB)を運搬物の概略形状として求める。最後に、取得した概略形状の値を、決定部1160に出力する。 Specifically, the outline shape of the transported object 15 is obtained by first obtaining a three-dimensional point cloud defined in the first coordinate system from the depth map. The three-dimensional point cloud is obtained by multiplying the image coordinates in the normalized image coordinate system by the depth value of each pixel in the depth map. Next, the coordinate system of the obtained three-dimensional point cloud is converted from the transported object image coordinate system to the moving body coordinate system. Furthermore, the three-dimensional points that are transported object candidates are separated from the three-dimensional point cloud that is the background such as the floor surface by removing planes from the three-dimensional point cloud using the RANSAC (RANdom SAMPLE Consensus) algorithm. Finally, the height, width, depth and center of gravity position (AABB) of the transported object in the moving body coordinate system are obtained as the outline shape of the transported object by obtaining the minimum and maximum values on each axis of the three-dimensional point cloud from the three-dimensional point cloud of the transported object candidates. Finally, the value of the obtained outline shape is output to the determination unit 1160.

S140では、環境画像入力部1130が、移動体の周辺環境を観測したデプスマップを取得する。このデプスマップは環境センサ120によって取得される。なお、本実施形態においては、デプスマップは各画素の奥行き値を格納した二次元配列リストのことである。 In S140, the environmental image input unit 1130 acquires a depth map that observes the surrounding environment of the moving object. This depth map is acquired by the environmental sensor 120. Note that in this embodiment, the depth map is a two-dimensional array list that stores the depth value of each pixel.

S150では、位置姿勢情報取得部1140が、環境画像入力部1130が入力したデプスマップと、位置姿勢推定用マップとを用いて、環境センサ120の位置姿勢(第2の情報)を取得する。具体的には、まずデプスマップから第2座標系に規定された三次元点群を取得する。3次元点群は、正規化画像座標系における画像座標とデプスマップの各画素の奥行値とを掛け合わせることで取得する。次に、環境センサ120の前の時刻における位置姿勢を用いて、三次元点群を前の時刻における位置姿勢座標系に座標変換する。つまり三次元点群に前の時刻における位置姿勢の行列を掛け合わせる。取得した三次元点群と保持部1130が保持するマップ情報のポイントクラウドの各三次元点の最近傍の点同士の距離の和が小さくなるように位置姿勢を取得する。具体的には、ICP(Iterative Closest Point)アルゴリズムを用いて前の時刻における位置姿勢に対する、環境センサ120の位置姿勢を取得する。最後に、世界座標系に変換して、世界座標系における位置姿勢を決定部1160に出力する。移動体の位置姿勢を求めることによって、周辺環境と移動体との距離が得られる。 In S150, the position and orientation information acquisition unit 1140 acquires the position and orientation (second information) of the environment sensor 120 using the depth map input by the environment image input unit 1130 and the position and orientation estimation map. Specifically, first, a three-dimensional point cloud defined in the second coordinate system is acquired from the depth map. The three-dimensional point cloud is acquired by multiplying the image coordinates in the normalized image coordinate system and the depth value of each pixel of the depth map. Next, the three-dimensional point cloud is coordinate-transformed to the position and orientation coordinate system at the previous time using the position and orientation of the environment sensor 120 at the previous time. In other words, the three-dimensional point cloud is multiplied by the matrix of the position and orientation at the previous time. The position and orientation are acquired so that the sum of the distances between the nearest points of each three-dimensional point of the acquired three-dimensional point cloud and the point cloud of the map information held by the holding unit 1130 is small. Specifically, the position and orientation of the environment sensor 120 is acquired relative to the position and orientation at the previous time using the ICP (Iterative Closest Point) algorithm. Finally, the coordinate system is transformed into the world coordinate system, and the position and orientation in the world coordinate system are output to the determination unit 1160. By determining the position and orientation of the moving body, the distance between the surrounding environment and the moving body can be obtained.

S160では、決定部1160が、移動体が移動する環境の3次元情報(第2の情報)と、運搬物の高さを特定可能な情報(第1の情報)とに基づいて、運搬物と障害物とが所定の距離より近づくことを抑制する制御値を決定する。具体的には、運搬物を載せた移動体が通過できる高さがある経路を移動するような制御値を決定する。例を図6に示す。図6(a)では、移動体E12aは運搬物を目的地E16aまで運ぶタスクを行っている。まず3次元の占有格子マップE11から、運搬物を含む移動体E12aの高さで占有格子マップE11を抽出した3次元マップである占有格子マップE13aを求める。そして、それを床面平面に射影することで、2次元の占有格子マップE14aを求める。E14aに示す2次元の占有格子マップ上で、移動体の位置姿勢E15aから目的地の位置姿勢E16aに向かうための最適な経路E17aを算出する。例えば、移動体E12aがそのまま直進した場合、E12aの運搬物が環境(例えば図のX)と接触してしまい、運搬物が崩れる可能性がある。その経路を選択しないよう、障害物の存在する領域を通らない軌跡E17aを通る制御値を決定する。また、運搬物の高さが異なる場合を図6(b)で説明する。E12bの高さに合わせて抽出される3次元の占有格子マップはE13bである。E13bの高さで2次元マップに射影した占有格子マップR14bにはXが表示されない。このように地図が異なる為、算出される経路及び制御値も異なる。具体的には移動体E12bはE12aより少ない運搬物を運ぶ場合、E12bの目の前の通路(障害物Xがあった道)が通行可能になるため、E17bのような経路を通って、E16bに向かう。 In S160, the determination unit 1160 determines a control value that prevents the transported object and the obstacle from coming closer than a predetermined distance based on three-dimensional information (second information) of the environment in which the moving object moves and information (first information) that can identify the height of the transported object. Specifically, the control value is determined so that the moving object carrying the transported object moves along a route that is high enough to pass through. An example is shown in FIG. 6. In FIG. 6(a), the moving object E12a is performing a task of transporting the transported object to the destination E16a. First, an occupancy grid map E13a, which is a three-dimensional map obtained by extracting the occupancy grid map E11 at the height of the moving object E12a including the transported object, is obtained from the three-dimensional occupancy grid map E11. Then, a two-dimensional occupancy grid map E14a is obtained by projecting it onto the floor plane. On the two-dimensional occupancy grid map shown in E14a, an optimal route E17a for moving from the position and orientation E15a of the moving object to the position and orientation E16a of the destination is calculated. For example, if the moving object E12a continues moving straight, the object carried by E12a may come into contact with the environment (e.g., X in the figure), causing the object to collapse. In order to avoid selecting such a route, a control value is determined that passes through a trajectory E17a that does not pass through an area where an obstacle exists. Also, a case where the height of the object is different is explained with reference to FIG. 6(b). The three-dimensional occupancy grid map extracted according to the height of E12b is E13b. X is not displayed in the occupancy grid map R14b projected onto a two-dimensional map at the height of E13b. Since the maps are different in this way, the calculated route and control value are also different. Specifically, when the moving object E12b is carrying less objects than E12a, the passage in front of E12b (the path where the obstacle X was) becomes passable, so it travels along a route such as E17b and heads towards E16b.

S160における処理内容を説明する。まず、位置姿勢情報取得部1140が推定した移動体座標系における運搬物の概略形状(AABB)と移動体座標系におけるAGVの概略形状(AABB)とに基づいて、それらを包括する移動体全体の高さ・横幅・奥行の概略形状を取得する。移動体全体の概略形状は、高さ・横幅・奥行のそれぞれの最小値最大値を取ることにより得る。次に、保持部1150が保持する3次元グリッドの占有格子マップから、移動体に接触しうる範囲の部分マップを占有格子マップから抜き出す。具体的には、占有格子マップにおいて、移動体全体の重心位置が(Xw, Yw, Zw)、3Dバウンディングボックスのサイズが(Sx, Sy, Sz)である場合、床面に対する高さ方向Zw±Sz/2の範囲にある占有格子マップをスライスする。このように抽出されたマップを部分占有格子マップとして取得する。さらに、部分占有格子マップを、床面に対する高さ方向(z方向)に射影することで、2次元グリッドの占有格子マップを求める。ここで、高さ方向への射影とは、占有格子(x,y,z)をz方向に走査し、各(x,y)における障害物が存在する確率の最大値を求める操作をいう。同様に、世界座標系における3次元位置姿勢として表現される移動体システム12の目標の位置及び姿勢および現在の位置及び姿勢を、位置2自由度と姿勢1自由度との合計3自由度のパラメータになるように2次元平面へ射影する。ここで位置2自由度とは環境の床に対して水平な面上の位置X、Yを指す。また、姿勢1自由度とは、環境の床に対して水平な面上での回転方向を指す。最後に、2次元グリッドの占有格子マップと目標の位置及び姿勢・現在の位置及び姿勢の情報から、両者の位置及び姿勢を最小にしつつも、障害物が存在する確率が高い格子を避けるような制御値を決定する。具体的には、まず、現在の移動体の位置及び姿勢と入力された目標の位置及び姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値の候補として算出する。そして、それぞれの制御値の候補に関して、制御した後の位置及び姿勢を、予測位置姿勢として算出する。そして、2次元グリッドの占有格子マップを参照し、各予測位置姿勢に対応した障害物が存在する確率を求める。障害物が存在する確率が0である制御値の候補を算出することで、衝突が発生しないような制御値の候補を抽出する。抽出された制御値の候補の中で、目標の位置及び姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として決定する。そして、決定した制御値をアクチュエータ部130に出力する。そして、アクチュエータ部130が、決定部1160が決定した制御値を用いてAGVを制御する。 The processing contents in S160 will be described. First, based on the approximate shape of the transported object in the moving body coordinate system (AABB) estimated by the position and orientation information acquisition unit 1140 and the approximate shape of the AGV in the moving body coordinate system (AABB), the approximate shape of the height, width, and depth of the entire moving body that includes them is acquired. The approximate shape of the entire moving body is obtained by taking the minimum and maximum values of the height, width, and depth. Next, from the occupancy grid map of the three-dimensional grid held by the holding unit 1150, a partial map of the range that may contact the moving body is extracted from the occupancy grid map. Specifically, when the center of gravity of the entire moving body is (Xw, Yw, Zw) and the size of the 3D bounding box is (Sx, Sy, Sz) in the occupancy grid map, the occupancy grid map in the range of Zw±Sz/2 in the height direction relative to the floor surface is sliced. The map extracted in this way is acquired as a partial occupancy grid map. Furthermore, the partial occupancy grid map is projected in the height direction (z direction) relative to the floor surface to obtain an occupancy grid map of a two-dimensional grid. Here, projection in the height direction refers to an operation of scanning the occupancy grid (x, y, z) in the z direction and obtaining the maximum probability of the existence of an obstacle at each (x, y). Similarly, the target position and orientation and the current position and orientation of the mobile body system 12, which are expressed as a three-dimensional position and orientation in the world coordinate system, are projected onto a two-dimensional plane so as to become parameters of a total of three degrees of freedom, namely two degrees of freedom for position and one degree of freedom for orientation. Here, the two degrees of freedom for position refer to positions X and Y on a plane horizontal to the floor of the environment. Also, the one degree of freedom for orientation refers to the direction of rotation on a plane horizontal to the floor of the environment. Finally, a control value is determined from the two-dimensional grid occupancy grid map and the information on the target position and orientation/current position and orientation, so as to avoid the grids with a high probability of existence of an obstacle while minimizing the positions and orientations of both. Specifically, first, based on the current position and attitude of the moving body and the input position and attitude of the target, all possible variations of control values (forward speed and turning direction/speed) that reduce the Euclidean distance between them are calculated as candidate control values. Then, for each candidate control value, the position and attitude after control are calculated as a predicted position and attitude. Then, a two-dimensional grid occupancy lattice map is referenced to find the probability that an obstacle corresponding to each predicted position and attitude exists. By calculating candidates for control values for which the probability of an obstacle existence is 0, candidates for control values that will not cause a collision are extracted. Among the extracted candidates for control values, the control value that minimizes the Euclidean distance between the position and attitude of the target and the predicted position and attitude is determined as the final control value. Then, the determined control value is output to the actuator unit 130. Then, the actuator unit 130 controls the AGV using the control value determined by the determination unit 1160.

具体的には、決定部1160が決定した制御値(前進速度と旋回方向・速度)となるようにアクチュエータであるモータの回転量、および車輪の向きを変更するステアリングの角度値を調整する。 Specifically, the amount of rotation of the motor, which is an actuator, and the angle value of the steering wheel, which changes the direction of the wheels, are adjusted so that the control values (forward speed and turning direction/speed) determined by the determination unit 1160 are achieved.

S170では、システムを終了するか否か判定する。具体的には、保持部1150が保持する目的地座標と位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢とのユークリッド距離が所定の閾値(例えば1m)以下であれば、目的地に到着したとして終了する。そうでなければS140に戻り処理を続ける。 In S170, it is determined whether or not to terminate the system. Specifically, if the Euclidean distance between the destination coordinates held by the holding unit 1150 and the position and orientation of the environmental sensor 120 acquired by the position and orientation information acquisition unit 1140 is less than a predetermined threshold (e.g., 1 m), it is determined that the destination has been reached and the system is terminated. If not, the system returns to S140 and continues processing.

実施形態1では、運搬物センサが運搬物の3次元概略形状を取得、運搬物を含む移動体全体の概略形状を求めて、運搬物を含む移動体と環境中の障害物とが接触しない移動経路を取得して移動体の移動制御を行う。これにより、運搬する貨物の大きさ(運搬物の高さ、運搬物が移動体からはみ出した部分等)に応じて、貨物と環境中の障害物が衝突しない安定的かつ安全な制御を行うことが可能になる。また、運搬のたびに貨物の大きさが変わるような場合においても、貨物の大きさをあらかじめ設定することなく、手間を減らして、移動体システム12の移動制御を行うことができる。 In the first embodiment, the transported object sensor acquires the three-dimensional outline shape of the transported object, determines the outline shape of the entire moving object including the transported object, and acquires a movement path that prevents the moving object including the transported object from coming into contact with obstacles in the environment, thereby controlling the movement of the moving object. This makes it possible to perform stable and safe control that prevents the cargo from colliding with obstacles in the environment according to the size of the cargo being transported (height of the cargo, the portion of the cargo protruding from the moving object, etc.). Furthermore, even in cases where the size of the cargo changes each time it is transported, the movement of the moving object system 12 can be controlled with reduced effort without having to preset the size of the cargo.

(変形例1-1)
本実施形態において、運搬物15は、運搬物センサ110により撮像されていたが、これに限るものではない。例えば、運搬物センサ110の代わりに、環境センサ120を用いて運搬物15を撮像してもよい。この場合、環境センサ120と運搬物センサ110は同じ装置であってもよい。この場合、例えば、運搬物センサ100と環境センサ120を兼ねる移動体に広域カメラを搭載する。また、移動体を撮像できるように環境に設置する監視カメラを広角レンズカメラやパノラマカメラにして、環境と運搬物を搭載した移動体とを同時に撮像してもよい。運搬物センサ110が環境を撮像するとともに、運搬物も撮像することにより、より少ない撮像装置により、運搬物の形状・位置・種類に応じた移動体の移動制御を行うことが可能になる。また、複数のセンサを連動させて運搬物画像を取得してもよい。例えば、移動体に搭載したデプスカメラと、環境内に1つ以上設置された広域カメラから画像を取得する。複数のセンサを使うことによって死角が減り、運搬物の情報をより正確に推定できるようになる。
(Variation 1-1)
In this embodiment, the transported object 15 is imaged by the transported object sensor 110, but this is not limited thereto. For example, the transported object 15 may be imaged by the environment sensor 120 instead of the transported object sensor 110. In this case, the environment sensor 120 and the transported object sensor 110 may be the same device. In this case, for example, a wide-area camera is mounted on a moving object that serves as both the transported object sensor 100 and the environment sensor 120. In addition, a surveillance camera installed in the environment so as to be able to image the moving object may be a wide-angle lens camera or a panoramic camera, and the environment and the moving object carrying the transported object may be imaged simultaneously. By having the transported object sensor 110 image the environment and also image the transported object, it becomes possible to control the movement of the moving object according to the shape, position, and type of the transported object with fewer imaging devices. In addition, a plurality of sensors may be linked to acquire a transported object image. For example, images are acquired from a depth camera mounted on the moving object and one or more wide-area cameras installed in the environment. By using a plurality of sensors, blind spots are reduced, and information on the transported object can be more accurately estimated.

(変形例1-2)
本実施形態において、運搬物センサ110は、移動体システム12に装着されていることを前提にしていたが、これに限るものではない。例えば、移動体と運搬物を観測可能な場所に設置され、工程管理システム14または、移動体システム12と通信可能である監視カメラを運搬物センサ110として利用してもよい。ここで、監視カメラは、工場や物流倉庫内といった使用環境の状況を監視するRGBカラーカメラである。工程管理システム14、または、移動体システム12中の保持部150が、環境の世界座標系上における監視カメラの位置姿勢を保持している。運搬物センサ110として監視カメラが、運搬物15の形状および位置姿勢の情報を観測する。観測された情報は、世界座標系における監視カメラ位置姿勢と、環境センサ120の位置姿勢とを用いて、移動体座標系における運搬物15の形状および位置の情報に変換されて、決定部1160に入力される。また、運搬物センサ110として用いられる外部カメラとしては、監視カメラに限るものではない。例えば、運搬物を移動体に積み込む自動機側に設置されたカメラを用いる。なお、カメラではなく、例えばラインセンサなどの2次元の距離センサを用いてもよい。また、環境に設置されたカメラ以外にも、他のAGVに搭載されたカメラや、ユーザが保持するカメラを利用してもよい。運搬物15を計測して、移動体システム12上の運搬物15の情報を取得できる限り、運搬物センサ110として用いるセンサに特に制限はない。
(Variation 1-2)
In this embodiment, the transported object sensor 110 is assumed to be attached to the mobile object system 12, but is not limited thereto. For example, a monitoring camera that is installed in a place where the mobile object and the transported object can be observed and that can communicate with the process control system 14 or the mobile object system 12 may be used as the transported object sensor 110. Here, the monitoring camera is an RGB color camera that monitors the status of the usage environment such as a factory or a logistics warehouse. The process control system 14 or the holding unit 150 in the mobile object system 12 holds the position and orientation of the monitoring camera on the world coordinate system of the environment. As the transported object sensor 110, the monitoring camera observes information on the shape and position and orientation of the transported object 15. The observed information is converted into information on the shape and position of the transported object 15 in the mobile object coordinate system using the position and orientation of the monitoring camera in the world coordinate system and the position and orientation of the environmental sensor 120, and is input to the determination unit 1160. In addition, the external camera used as the transported object sensor 110 is not limited to a monitoring camera. For example, a camera installed on the side of an automatic machine that loads the transported object onto the mobile object is used. Instead of a camera, a two-dimensional distance sensor such as a line sensor may be used. In addition to a camera installed in the environment, a camera mounted on another AGV or a camera held by a user may be used. There is no particular limitation on the sensor used as the transported object sensor 110 as long as it can measure the transported object 15 and obtain information on the transported object 15 on the mobile system 12.

(変形例1-3)
本実施形態において、運搬物情報取得部1120は、運搬物の3次元概略形状として3次元バウンディングボックスの値を取得していたが、これに限るものではない。例えば、デプスマップ中の運搬物候補の3次元点群そのものを形状として保持しても、3次元点群からメッシュを生成し、3次元ポリゴンモデルとして扱ってもよい。または、TSDF volume(Truncated Signed Distance Function volume)のような、ボクセルごとに最近傍の3次元表面までの符号付距離を格納した方式により運搬物の形状を保持する。または、物体の存在確率をボクセルに格納した占有格子マップの形で形状を表現する。運搬物の形状の推定手段および表現方法に特に制限はない。また、決定部1160が保持する移動体の形状の保持方法・表現も、同様に、バウンディングボックスのような概略形状に限るものではなく、上記記載の方法を用いて、詳細形状を保持してもよい。位置姿勢情報取得部1140が取得する運搬物の形状情報は、運搬物15の形状や大きさを表現できる限り、いかなるものを用いてもよく、そこに制限はない。
(Modification 1-3)
In this embodiment, the transported object information acquisition unit 1120 acquires the value of a three-dimensional bounding box as the three-dimensional outline shape of the transported object, but this is not limited thereto. For example, the three-dimensional point cloud of the transported object candidate in the depth map itself may be retained as the shape, or a mesh may be generated from the three-dimensional point cloud and treated as a three-dimensional polygon model. Alternatively, the shape of the transported object may be retained by a method such as TSDF volume (Truncated Signed Distance Function volume) in which a signed distance to the nearest three-dimensional surface is stored for each voxel. Alternatively, the shape may be expressed in the form of an occupied grid map in which the existence probability of an object is stored in a voxel. There is no particular limit to the estimation means and expression method of the shape of the transported object. Similarly, the retention method and expression of the shape of the moving object retained by the determination unit 1160 are not limited to an outline shape such as a bounding box, and a detailed shape may be retained using the above-mentioned method. The shape information of the transported object acquired by the position and orientation information acquisition unit 1140 may be of any type as long as it can express the shape and size of the transported object 15, and there is no restriction on the type.

(変形例1-4)
本実施形態においては、運搬物情報取得部1120では、平面部分と運搬物候補部分とのセグメンテーションにより、運搬物候補の3次元点群を判別していたが、特にこれに限るものではない。例えば、移動体システム12に積載または牽引される運搬物15と運搬物センサ110との間の概略の位置関係は既知である場合を考える。このとき、運搬物が存在する範囲を、デプスマップ中の3D ROI(Region of Interest)として、与えられるものとして処理を行ってもよい。この場合、運搬物情報取得部1120では、平面部分のセグメンテーションを行う代わりに、前述の運搬物が存在する範囲を表す3D ROIを利用して、3D ROI以内の3次元点群を、運搬物候補の3次元点群として抽出する。または、例えばスタックされた箱により構成されている運搬物のように、一部の運搬物の形状が既知である場合には、テンプレートマッチングや特徴点マッチングに基づく3次元物体検出を用いて、運搬物全体の形状の位置を求めてもよい。
(Modification 1-4)
In this embodiment, the transported object information acquisition unit 1120 discriminates the three-dimensional point cloud of the transported object candidate by segmenting the planar portion and the transported object candidate portion, but the present invention is not limited to this. For example, consider a case where the approximate positional relationship between the transported object 15 loaded or towed by the mobile system 12 and the transported object sensor 110 is known. In this case, the processing may be performed assuming that the range in which the transported object exists is given as a 3D ROI (Region of Interest) in the depth map. In this case, instead of performing segmentation of the planar portion, the transported object information acquisition unit 1120 uses the 3D ROI representing the range in which the transported object exists to extract a three-dimensional point cloud within the 3D ROI as a three-dimensional point cloud of the transported object candidate. Alternatively, when the shape of a part of the transported object is known, such as a transported object composed of stacked boxes, the position of the shape of the entire transported object may be obtained using three-dimensional object detection based on template matching or feature point matching.

(変形例1-5)
本実施形態において、制御用マップは、あらかじめ事前に設定した占有格子マップを用いる方法に限定されない。例えば、環境センサ120から取得されたデプスマップおよび位置姿勢情報取得部1140で推定された位置姿勢の情報から、障害物がある領域とない領域を算出することで、占有格子マップを動的に更新してもよい。占有格子マップの生成は、事前情報なしに0から生成する。或いは、あらかじめ保存された占有格子マップを更新する形で取得する。周囲環境中の障害物の情報を表現できる限り、占有格子マップを生成・更新する方法に特に制限はない。占有格子マップを動的に更新することで、環境に新たに置かれた荷物などの、あらかじめ生成しておいた占有格子マップに含まれない障害物も考慮して、移動体を制御できる。
(Variation 1-5)
In this embodiment, the control map is not limited to a method using a pre-set occupancy grid map. For example, the occupancy grid map may be dynamically updated by calculating an area where an obstacle exists and an area where an obstacle does not exist from the depth map acquired from the environmental sensor 120 and the information on the position and orientation estimated by the position and orientation information acquisition unit 1140. The occupancy grid map is generated from scratch without prior information. Alternatively, the occupancy grid map is acquired by updating a pre-stored occupancy grid map. As long as the information on obstacles in the surrounding environment can be expressed, there is no particular limit to the method of generating and updating the occupancy grid map. By dynamically updating the occupancy grid map, it is possible to control the moving body while taking into account obstacles that are not included in the pre-generated occupancy grid map, such as luggage newly placed in the environment.

(変形例1-6)
本実施形態においては、制御用マップとして三次元の占有格子マップを用いる方法、そして、環境センサ120の位置姿勢情報として6自由度の位置姿勢パラメータを推定する方法について述べたが、これに限定されるものではない。例えば、高さ方向の情報がない、2次元の占有格子マップを利用する。或いは、環境の床と水平な面上の二次元点群データ(と色情報との組み合わせ)や、環境の床と水平な面上の二次元モデルを、制御用マップとして利用する。また、位置姿勢情報は、環境の世界座標系上における移動体システム12の位置2自由度(環境の床に対して水平な面上の位置X、Y)と姿勢1自由度(環境の床に対して水平な面上での回転方向)との合計3自由度の位置姿勢パラメータであっても良い。制御用マップは、決定部1160が利用できる形で、周囲環境中の障害物の情報を保持できる限り、保持・表現方式に制限はなく、いかなる方式を用いてもよい。
(Modification 1-6)
In the present embodiment, a method of using a three-dimensional occupancy grid map as a control map and a method of estimating six-degree-of-freedom position and orientation parameters as the position and orientation information of the environmental sensor 120 have been described, but the present invention is not limited to this. For example, a two-dimensional occupancy grid map without height information is used. Alternatively, two-dimensional point cloud data (and a combination of color information) on a surface horizontal to the floor of the environment, or a two-dimensional model on a surface horizontal to the floor of the environment is used as the control map. In addition, the position and orientation information may be position and orientation parameters of three degrees of freedom in total, consisting of two degrees of freedom of position (position X, Y on a surface horizontal to the floor of the environment) and one degree of freedom of orientation (rotation direction on a surface horizontal to the floor of the environment) of the mobile system 12 on the world coordinate system of the environment. As long as the control map can hold information on obstacles in the surrounding environment in a form that can be used by the determination unit 1160, any method may be used for holding and expressing the control map.

(変形例1-7)
本実施形態において、位置姿勢情報取得部1140が、環境中のシーンを表す3次元点群とデプスマップとのICPアルゴリズムに基づいて環境センサ120の位置姿勢を取得する方法について述べたが、位置姿勢を取得する方法は以上のものに限らない。例えば、位置姿勢推定用マップを事前に生成せずに、移動体システム12を環境内で移動させることで生成する。具体的には、移動体システム12をリモコンや手押しで操作しながら、移動体システム12に搭載している環境センサから取得したデプスマップを複数の視点で統合することで、3次元点群データを生成する。また、位置姿勢推定用マップとして、環境のCAD図面や地図画像をそのまま、あるいはデータフォーマット変換したものを利用して、位置姿勢取得に利用してもよい。また、環境センサ120としてデプスセンサではなく、環境中のシーンをカラー画像や濃淡画像として撮像する撮像装置を利用してもよい。この場合、撮像する画像はカラー画像でも濃淡画像でもよい。この場合、入力されたカラー画像や濃淡画像から3次元の特徴点により構成される特徴点マップを生成し、環境画像入力部に入力された画像中の特徴点と、特徴点マップ中の特徴点を対応付けることで、位置姿勢を取得する。これらの処理は、マップ情報を作成しつつ位置姿勢推定を行うSLAM(Simultaneous Localization and Mapping)技術として、数多く提案されておりそれらを利用すればよい。また、位置姿勢情報取得部1140での位置姿勢情報の推定は、Wi-Fi通信の通信状況や、環境内に設置されているビーコンを併用して求めてもよい。位置姿勢情報取得部1140において、世界座標系における移動体12の位置姿勢を取得できる限り、取得方法に特に制限はなく、いかなる方法を用いてもよい。
(Modification 1-7)
In this embodiment, the position and orientation information acquisition unit 1140 has described a method of acquiring the position and orientation of the environmental sensor 120 based on an ICP algorithm of a three-dimensional point cloud and a depth map representing a scene in the environment, but the method of acquiring the position and orientation is not limited to the above. For example, the position and orientation estimation map is generated by moving the mobile system 12 in the environment without generating it in advance. Specifically, the depth map acquired from the environmental sensor mounted on the mobile system 12 is integrated from multiple viewpoints while operating the mobile system 12 with a remote control or by hand, thereby generating three-dimensional point cloud data. In addition, as the position and orientation estimation map, a CAD drawing or map image of the environment may be used as it is, or may be used after converting the data format, for acquiring the position and orientation. In addition, instead of a depth sensor, an imaging device that captures a scene in the environment as a color image or a grayscale image may be used as the environmental sensor 120. In this case, the image to be captured may be a color image or a grayscale image. In this case, a feature point map consisting of three-dimensional feature points is generated from the input color image or grayscale image, and the feature points in the image input to the environmental image input unit are associated with the feature points in the feature point map to acquire the position and orientation. Many of these processes have been proposed as SLAM (Simultaneous Localization and Mapping) techniques that estimate the position and orientation while creating map information, and any of these may be used. The estimation of the position and orientation information in the position and orientation information acquisition unit 1140 may be performed using the communication status of Wi-Fi communication and beacons installed in the environment. As long as the position and orientation information acquisition unit 1140 can acquire the position and orientation of the moving body 12 in the world coordinate system, there is no particular limitation on the acquisition method, and any method may be used.

(変形例1-8)
本実施形態において、物体の形状を取得する方法について述べたが、運搬物情報取得部1120が推定する運搬物の情報は形状に限るものではなく、例えば物体の種類や状態などの意味的情報を取得し、それに基づいて決定部1160が制御値を決定してもよい。具体的には、例えば、あらかじめガラスや液体などの壊れやすい性質の素材や揺らしては不都合な運搬物の種類を定義する。運搬物センサ110が撮像した運搬物15を含むカラー画像から、各画素が何の物体種であるかを判別するセマンティックセグメンテーションにより、運搬物候補領域の意味的クラスを推定することにより、運搬物の種類を推定する。そして、推定した種類があらかじめ定めた壊れやすい運搬物の種類に含まれるのであれば、決定部1160の制御値の最高速度を制限する。例えば、運搬物がガラス製であると推定された場合は、なるべく振動が少ない移動制御を行う。これにより、運搬物の種類に応じた速度の制御を行うことで、運搬物の運搬において、運搬物が揺れにくくなるように、または、運搬物が崩れにくくなるように移動体の移動制御を行うことが可能になる。
(Modification 1-8)
In this embodiment, a method for acquiring the shape of an object has been described, but the information of the transported object estimated by the transported object information acquisition unit 1120 is not limited to the shape. For example, semantic information such as the type and state of the object may be acquired, and the determination unit 1160 may determine the control value based on the semantic information. Specifically, for example, a material with a fragile nature such as glass or liquid or a type of transported object that is inconvenient to shake is defined in advance. The type of the transported object is estimated by estimating the semantic class of the transported object candidate area by semantic segmentation that determines what object type each pixel is from a color image including the transported object 15 captured by the transported object sensor 110. Then, if the estimated type is included in the predetermined type of fragile transported object, the maximum speed of the control value of the determination unit 1160 is limited. For example, if the transported object is estimated to be made of glass, movement control with as little vibration as possible is performed. As a result, by controlling the speed according to the type of the transported object, it is possible to control the movement of the moving body so that the transported object is less likely to shake or to collapse during the transport of the transported object.

(変形例1-9)
本実施形態において、運搬物情報は、運搬物画像入力部1110に入力された運搬物が撮像されたデプスマップから、形状を計測していたが、これに限るものではない。例えば、運搬物に付与されたIDタグを利用して、運搬物の情報を得てもよい。具体的には、例えば、運搬物の形状・種類の情報またはそれらに紐づく情報が格納されたIDタグを運搬物に付与しておく。或いは、運搬物センサ110または環境センサ120が撮像した画像から、運搬物情報取得部1120がIDタグを認識することで、運搬物の形状・種類の情報を取得する。また、運搬物の情報を得る手段としては、画像を用いる方法に限るものではなく、例えば、工程管理システム14または移動体管理システム13が各運搬物の形状や種類や位置を管理しておく。S110において、目標の位置及び姿勢を受信するタイミングで、運搬物画像入力部1110が積載される運搬物の情報を受信する。このように、運搬物の形状・種類の情報を得てもよい。この場合は、運搬物センサ110は運搬物画像入力部1120に接続されている必要性はなく、運搬物センサ110がなくても特に問題はない。
(Modification 1-9)
In this embodiment, the transported object information is obtained by measuring the shape from a depth map in which the transported object input to the transported object image input unit 1110 is captured, but the present invention is not limited to this. For example, the transported object information may be obtained by using an ID tag attached to the transported object. Specifically, for example, an ID tag in which information on the shape and type of the transported object or information associated therewith is stored is attached to the transported object. Alternatively, the transported object information acquisition unit 1120 recognizes the ID tag from an image captured by the transported object sensor 110 or the environment sensor 120, thereby acquiring information on the shape and type of the transported object. In addition, the means for acquiring the transported object information is not limited to a method using an image, and for example, the process management system 14 or the mobile object management system 13 manages the shape, type, and position of each transported object. In S110, the transported object image input unit 1110 receives information on the transported object to be loaded at the timing of receiving the target position and orientation. In this manner, information on the shape and type of the transported object may be acquired. In this case, the transported item sensor 110 does not need to be connected to the transported item image input unit 1120, and there is no particular problem if the transported item sensor 110 is not present.

(変形例1-10)
本実施形態において、移動体システム12は無人搬送車(AGV)の様々な形態に適用可能である。例えば、運搬物の下に潜り込んで押すことで運搬する移動体でもよい。また、車輪が縦横無尽に動くAGVでもよい。この場合、前後方向の制御値だけではなく、横方向の移動に対しても制御値を計算し、最適な制御値を決定する。また、けん引式のAGVでもよい。この場合、けん引する運搬物や台車との接合部の動きを考慮した制御値を取得する。けん引式の方が横揺れするため、通路の幅が十分広い経路を通るようにする等、移動体の形態によって制御値の決定の仕方を変えてもよい。なお、移動体システム12は、自動運転車、自律移動ロボットであってもよい。本実施形態で説明した情報処理装置をそれらに適用してもよい。また、フォーク可動部を備える自動搬送フォークリフトに対して、本実施形態を適用してもよい。ドローンといった飛行体に本実施形態を適用してもよい。
(Variation 1-10)
In this embodiment, the mobile body system 12 can be applied to various forms of automated guided vehicles (AGVs). For example, the mobile body system 12 may be a mobile body that transports objects by getting under the objects and pushing them. The mobile body system 12 may also be an AGV whose wheels can move freely in all directions. In this case, the control value is calculated not only for the forward and backward control values but also for the lateral movement to determine the optimal control value. The mobile body system 12 may also be a towed AGV. In this case, the control value is obtained taking into consideration the movement of the objects to be towed and the joint with the dolly. Since the towed type AGV sways laterally, the method of determining the control value may be changed depending on the form of the mobile body, such as passing through a route with a sufficiently wide passageway. The mobile body system 12 may be an automatic driving vehicle or an autonomous mobile robot. The information processing device described in this embodiment may be applied to them. The present embodiment may also be applied to an automatic transport forklift equipped with a movable fork part. The present embodiment may also be applied to an air vehicle such as a drone.

(変形例1-11)
本実施形態において、運搬物情報取得部1110が推定した運搬物15の概略形状に基づいて、決定部1160が、運搬物を含む移動体と、障害物との接触を考慮した制御値を決定していたが、これに限るものではない。例えば、決定部1160が移動体管理システム13および工程管理システム14と通信して、運搬物と周囲環境との障害物との接触が発生しないような形状の移動体を代わりに用いるようにシステムを運用してもよい。具体的には、移動体管理システム13が複数の移動体システムに関して、それぞれの概略形状の情報を保持する。そして、決定部1160では、それらの複数の移動体システムの概略形状に対応した、複数の2次元占有格子を取得する。これによってもっとも最短経路で運搬可能となる形状を備える移動体システムを判別する。そして、判別した移動体が運搬物を運搬するように、決定部1160が移動体管理システム13に通信を行う。運搬物の形状に応じて、一つの移動体の制御のみを行うのではなく、複数の異なる形状の移動体を選択的に運用することで、全体のシステムが最適になるように運行を制御することが可能となる。
(Variation 1-11)
In this embodiment, the determining unit 1160 determines a control value that takes into consideration contact between a moving body including the transported object and an obstacle based on the outline shape of the transported object 15 estimated by the transported object information acquiring unit 1110, but the present invention is not limited to this. For example, the determining unit 1160 may communicate with the mobile object management system 13 and the process management system 14 to operate the system so as to use a moving object having a shape that does not cause contact between the transported object and an obstacle in the surrounding environment instead. Specifically, the mobile object management system 13 holds information on the outline shapes of each of a plurality of mobile object systems. Then, the determining unit 1160 acquires a plurality of two-dimensional occupancy lattices corresponding to the outline shapes of the plurality of mobile object systems. This determines a mobile object system having a shape that allows transport via the shortest route. Then, the determining unit 1160 communicates with the mobile object management system 13 so that the determined moving object transports the transported object. Instead of controlling only one moving object according to the shape of the transported object, selectively operating a plurality of moving objects having different shapes makes it possible to control operation so as to optimize the entire system.

(変形例1-12)
決定部1160が、3次元の制御用マップを2次元に射影せずに、移動体と接触する範囲を抜き出した部分的な3次元制御用マップを用いて、移動体の制御値を決定する方法について述べる。図5のS160では、決定部1160が、AGVを制御するための制御値を決定する。具体的には、占有格子マップ上で定義された目的地座標と、占有格子マップ上の移動体の位置姿勢とに基づいて、占有格子マップ上で障害物の存在する確率が高い格子を避け、両者のユークリッド距離が小さくなるような制御値を決定する。
(Variation 1-12)
A method will be described in which the determination unit 1160 determines the control value of the moving object using a partial three-dimensional control map that extracts the range of contact with the moving object, without projecting the three-dimensional control map into two dimensions. In S160 of Fig. 5, the determination unit 1160 determines the control value for controlling the AGV. Specifically, based on the destination coordinates defined on the occupancy lattice map and the position and orientation of the moving object on the occupancy lattice map, the control value is determined so as to avoid lattices on the occupancy lattice map where an obstacle is likely to exist, and to reduce the Euclidean distance between the two.

まず、運搬物情報取得部1120が推定した移動体座標系における運搬物の概略形状(AABB)に基づいて、移動体全体の概略形状を取得する。次に、実施形態1と同様に、保持部1150が保持する3次元の占有格子マップから、移動体に接触しうる範囲の部分の占有格子マップを部分占有格子マップとして抽出する。次に、現在の移動体の位置姿勢と入力された目標位置姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値候補として取得する。それぞれの制御値候補に関して制御後の予測位置姿勢を取得する。そして、予測位置姿勢における移動体と部分占有格子マップとの衝突判定を行う。衝突判定は、具体的には、予測位置姿勢における移動体の概略形状の範囲内の部分占有格子マップを走査する。障害物となる確率が所定以上に高い占有格子がある場合には、衝突の危険性を判定し、その予測位置姿勢を取得した制御値候補を棄却する。棄却されなかった制御値候補の中で、目標位置姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として決定する。そして、決定した制御値をアクチュエータ部130に出力する。そして、アクチュエータ部130が、決定部1160が決定した制御値を用いてAGVを制御する。これにより、運搬する貨物の大きさに応じて、貨物と環境中の障害物が衝突しない安定的かつ安全な制御を行うことが可能になる。また、運搬のたびに貨物の大きさが変わるような場合においても、貨物の大きさをあらかじめ設定することなく、手間を減らして、移動体システム12の移動制御を行うことができる。 First, the transported object information acquisition unit 1120 acquires the overall outline shape of the moving object based on the outline shape (AABB) of the transported object in the moving object coordinate system estimated by the transported object information acquisition unit 1120. Next, as in the first embodiment, the occupancy lattice map of the part of the range that may come into contact with the moving object is extracted as a partial occupancy lattice map from the three-dimensional occupancy lattice map held by the holding unit 1150. Next, based on the current position and attitude of the moving object and the input target position and attitude, all possible variations of the control values (forward speed and turning direction/speed) that reduce the Euclidean distance between the two are acquired as control value candidates. A predicted position and attitude after control is acquired for each control value candidate. Then, a collision judgment is performed between the moving object in the predicted position and attitude and the partial occupancy lattice map. Specifically, the collision judgment is performed by scanning the partial occupancy lattice map within the range of the outline shape of the moving object in the predicted position and attitude. If there is an occupancy lattice with a probability of becoming an obstacle higher than a predetermined value, the risk of collision is judged, and the control value candidate that acquired the predicted position and attitude is rejected. Of the control value candidates that were not rejected, the control value that minimizes the Euclidean distance between the target position and posture and the predicted position and posture is determined as the final control value. The determined control value is then output to the actuator unit 130. The actuator unit 130 then controls the AGV using the control value determined by the determination unit 1160. This makes it possible to perform stable and safe control that prevents collisions between the cargo and obstacles in the environment according to the size of the cargo being transported. Furthermore, even if the size of the cargo changes each time it is transported, it is possible to reduce the effort required to control the movement of the mobile system 12 without having to set the size of the cargo in advance.

(変形例1-13)
実保持部1150が保持する制御用マップとして占有格子マップを保持し、占有格子マップに基づいて最適な経路を決定して、決定部1160が移動体の制御値を決定していたが、これに限るものではない。その他、決定部1160が、移動体形状と環境中の障害物とが接触しないように、目的地に到達するための制御値を決定するものであればどのような制御値を決定しても用いてもよい。例えば、複数のデプスマップをキーフレームとして保持し、キーフレームの集合として、制御用マップを保持してもよい。この場合、目標位置姿勢と現在の位置姿勢とのユークリッド距離を最小化する移動制御をしながら、例えば、現在の位置姿勢の最近傍となるキーフレーム中のデプスマップと、移動体全体の概略形状との最近接距離の計算を行う。距離が所定以下の場合は、移動を止める、旋回するなどの制御を行う。障害物として判定する閾値としては、例えば、0よりも上であれば障害物があると判定する。また、キーフレームとしてデプスマップを保持することに限定されるわけでもなく、環境画像入力部1120に入力されたデプスマップと、移動体全体の概略形状との最近接距離の計算を行い、移動体の制御を行ってもよい。
(Variation 1-13)
The actual holding unit 1150 holds an occupancy grid map as a control map, determines an optimal route based on the occupancy grid map, and the determination unit 1160 determines the control value of the moving body, but this is not limited to the above. Any control value may be determined and used as long as the determination unit 1160 determines a control value for reaching a destination so that the moving body shape does not come into contact with obstacles in the environment. For example, a plurality of depth maps may be held as key frames, and a control map may be held as a set of key frames. In this case, while performing movement control to minimize the Euclidean distance between the target position and posture and the current position and posture, for example, the closest distance between the depth map in the key frame that is closest to the current position and posture and the outline shape of the entire moving body is calculated. If the distance is equal to or less than a predetermined distance, control such as stopping movement or turning is performed. For example, if the threshold value for determining that an obstacle is present is greater than 0, it is determined that an obstacle is present. Furthermore, it is not limited to storing a depth map as a key frame, but the closest distance between the depth map input to the environmental image input unit 1120 and the overall outline shape of the moving body may be calculated to control the moving body.

また、制御用マップとして、最近傍の障害物への符号付距離を格納したESDF(Euclidean Signed Distance Fields)に基づいて、障害物を回避するような制御値を計算して、移動制御を行ってもよい。また、制御用マップとして、目的地に近くなるほど小さくなるような値を格納したコストマップを保持する。決定部1160がこれと入力されたデプスマップとを入力として制御値を決定するように学習したニューラルネットワークである深層強化学習器を用いて制御値を決定してもよい。このように、運搬物を含む移動体全体の形状と壁などの障害物との接触を計算し、それらを回避しつつ移動する制御値を決定することで、安定して、安全にAGVを運用することができる。 Movement control may be performed by calculating a control value to avoid obstacles based on ESDF (Euclidean Signed Distance Fields) that store the signed distance to the nearest obstacle as a control map. A cost map that stores values that become smaller as the destination is approached is also held as a control map. The control value may be determined using a deep reinforcement learning device, which is a neural network that has been trained to determine the control value using this and the input depth map as input to the determination unit 1160. In this way, the AGV can be operated stably and safely by calculating the shape of the entire moving body including the transported goods and contact with obstacles such as walls, and determining a control value for moving while avoiding them.

(変形例1-14)
決定部1160は、Dynamic Window Approachを用いた。これは、現在の移動体の位置及び姿勢と入力された目標の位置及び姿勢とに基づいて、ある一時刻における両者のユークリッド距離を小さくするような制御値の取りうる全てのバリエーションを制御値の候補として算出する。しかしながら、障害物との衝突可能性の高い領域を回避してAGVの経路を設定できる方法であれば、制御値の算出方法は上記に限るものではない。例えば、ある一時刻ではなく、将来の複数の時刻における制御値のバリエーションを算出し、複数時刻の位置姿勢(予測軌跡)を算出し、予測軌跡を辿るような制御値を選択する手法であるGraph Search Approachを使用してもよい。この時、決定部1160は、2次元グリッドの占有格子マップの障害物が存在する確率が0の領域のみを通る予測軌跡を選択し、この予測軌跡を辿るような複数時刻の制御値を算出する。予測軌跡の選択方法は、移動経路が最小となるような予測軌跡を選択してもよいし、占有格子マップの障害物が存在する確率が0でない領域との距離が最大となるような予測軌跡や、ステアリングの変化が最小となるような予測軌跡を選択してもよい。また、現在位置から二次元空間の中から障害物のない一定領域をランダムにサンプリングする。そして、その地点をノードとして更に周囲の空間をランダムにサンプリングすることを繰り返して生成した予測軌跡を選択するRandomized Approachなど、任意の手法を用いることができる。
(Variation 1-14)
The determination unit 1160 used the Dynamic Window Approach. This calculates all possible variations of the control value that reduces the Euclidean distance between the current position and attitude of the moving body and the input position and attitude of the target at a certain time as candidates for the control value. However, the calculation method of the control value is not limited to the above as long as the method can set the route of the AGV while avoiding areas where there is a high possibility of collision with an obstacle. For example, a Graph Search Approach may be used, which is a method of calculating variations of the control value at multiple future times instead of a certain time, calculating the position and attitude (predicted trajectory) at the multiple times, and selecting a control value that follows the predicted trajectory. At this time, the determination unit 1160 selects a predicted trajectory that passes only through areas where the probability of an obstacle existing in the occupancy grid map of the two-dimensional grid is 0, and calculates control values at multiple times that follow this predicted trajectory. The method of selecting a predicted trajectory may be a predicted trajectory that minimizes the travel path, a predicted trajectory that maximizes the distance from an area of the occupancy grid map where the probability of an obstacle existing is not 0, or a predicted trajectory that minimizes the change in steering. Alternatively, any method may be used, such as a randomized approach in which a certain area free of obstacles is randomly sampled from a two-dimensional space from the current position, and the surrounding space is randomly sampled using the point as a node, and the generated predicted trajectory is selected by repeating this process.

本実施形態では、Zw±Sz/2の範囲にある占有格子マップをスライスし、部分占有格子マップとして取得していたが、Zw-Sz/2<Z<Zw+Sz/2+Δm(Δmはマージン)の範囲にある占有格子マップをスライスしてもよい。このようにすることで、AGVは障害物から所定のマージン以上離れて移動することができ、安全にAGVを運用することができる。 In this embodiment, the occupancy grid map in the range of Zw±Sz/2 is sliced and obtained as a partial occupancy grid map, but it is also possible to slice the occupancy grid map in the range of Zw-Sz/2<Z<Zw+Sz/2+Δm (Δm is a margin). In this way, the AGV can move away from the obstacle by a specified margin or more, allowing the AGV to be operated safely.

なお、Δmといった所定の値は、ユーザによって予め設定してもよいし、移動体の走行速度に応じて変更してもよい。例えば、ユーザによって設定する場合は、工場の規定等を考慮し、占有格子マップによって物体が存在する確率が0より大きい位置からΔm=1mだけ離れて走行するように設定する。このように障害物や周辺環境と運搬物との距離に余裕を持たせることによって、運搬物が多少ずれても安定して運搬できる。また、移動体の走行速度に応じてΔmを設定する場合は、例えば、走行速度と所定の値が比例するように決定する。具体的には、移動体が1m/sで走行するときはΔm=1mとする。移動体が2m/sで走行するときはΔm=2mとする。このように障害物と運搬物との距離を取ることで、障害物と衝突する可能性を抑制することができる。 The predetermined value such as Δm may be preset by the user or may be changed according to the traveling speed of the moving object. For example, when set by the user, the value is set to travel Δm = 1 m away from a position where the probability of the object being present is greater than 0 according to the occupancy grid map, taking into consideration factory regulations, etc. In this way, by allowing a margin of distance between obstacles and the surrounding environment and the transported object, the transported object can be transported stably even if it is slightly shifted. In addition, when Δm is set according to the traveling speed of the moving object, for example, it is determined so that the traveling speed and the predetermined value are proportional. Specifically, when the moving object travels at 1 m/s, Δm = 1 m. When the moving object travels at 2 m/s, Δm = 2 m. By taking a distance between the obstacle and the transported object in this way, the possibility of collision with the obstacle can be reduced.

さらには位置姿勢情報取得部1140が位置姿勢算出時に位置姿勢のばらつき度合の値として分散値を取得算出し、決定部1160は、取得された分散値を元にΔmを設定することもできる。例えば分散値と所定の値Δmが比例するように決定する。また、事前に移動体の制御のばらつきを計測しておいて、ばらつきに比例するように所定の値Δmを決定してもよい。制御のばらつきとは、移動体が同一ルートを走行するように設定し移動させたときに実測した移動軌跡のばらつき度合のことである。同様に、決定部1160は、位置姿勢情報取得部1140によって計測された移動体の走行環境における段差の高さに基づいて所定の距離を決定してもよい。移動体を移動させたときに実測した移動体の上下方向のブレや荷物の傾き値に比例するように所定の値Δmを設定してもよい。例えば、走行経路上に段差や傾きがある箇所がある場合、移動体が上下方向に揺れて運搬物が天井や監視カメラ等に衝突するリスクがある。そのため、走行経路全体あるいは所定の高さの段差や凹凸がある領域については、段差の高さに応じてΔmを設定してもよい。走行面の凹凸のデータは、例えば、予め移動体の走行経路を走行し、3次元位置の高さ方向の変化を計測しておくとよい。このように障害物と運搬物との間に一定以上の距離を取ることで、運搬物が障害物と衝突する可能性をさらに抑制することができる。 Furthermore, the position and orientation information acquisition unit 1140 may acquire and calculate a variance value as a value of the degree of variation of the position and orientation when calculating the position and orientation, and the determination unit 1160 may set Δm based on the acquired variance value. For example, the variance value and the predetermined value Δm may be determined to be proportional to each other. In addition, the variance of the control of the moving body may be measured in advance, and the predetermined value Δm may be determined to be proportional to the variance. The variance of the control refers to the degree of variation of the moving trajectory actually measured when the moving body is set to run along the same route and moved. Similarly, the determination unit 1160 may determine the predetermined distance based on the height of the step in the running environment of the moving body measured by the position and orientation information acquisition unit 1140. The predetermined value Δm may be set to be proportional to the vertical shake of the moving body or the inclination value of the luggage actually measured when the moving body is moved. For example, if there is a step or an inclination on the running route, there is a risk that the moving body will shake in the vertical direction and the transported item will collide with the ceiling, a surveillance camera, etc. Therefore, for the entire travel route or for areas with steps or unevenness of a certain height, Δm may be set according to the height of the steps. Data on the unevenness of the travel surface can be obtained, for example, by traveling the travel route of the moving object in advance and measuring the change in the height direction of the three-dimensional position. By maintaining a certain distance or more between the obstacle and the transported item in this way, the possibility of the transported item colliding with the obstacle can be further reduced.

(実施形態2)
実施形態1では、保持部1150が保持する制御用マップとして占有格子マップを保持し、占有格子マップに基づいて最適な経路を取得して、決定部1160が移動体の制御値を取得していた。実施形態2では、制御用マップを保持せずに、環境センサが撮像する画像に基づいて、運搬物を含む移動体の位置を計算して、移動体の制御を行う方法について述べる。
(Embodiment 2)
In the first embodiment, the storage unit 1150 stores an occupancy grid map as a control map, and an optimal route is obtained based on the occupancy grid map, and the determination unit 1160 obtains a control value for the moving object. In the second embodiment, a method is described in which the position of a moving object including a transported object is calculated based on an image captured by an environmental sensor, without storing a control map, to control the moving object.

図7に、本実施形態における情報処理装置10の機能構成例を示す。本実施形態における情報処理装置10は、実施形態1で説明した情報処理装置10から、保持部1150が除かれている点が異なる。本実施形態では実施形態1から追加または機能が異なる構成のみ説明し、それ以外の構成については図1、2と同じ機能であるものとして説明を省略する。 Figure 7 shows an example of the functional configuration of the information processing device 10 in this embodiment. The information processing device 10 in this embodiment differs from the information processing device 10 described in embodiment 1 in that the storage unit 1150 is removed. In this embodiment, only configurations that have been added or have different functions from embodiment 1 will be described, and other configurations will not be described as having the same functions as those in Figures 1 and 2.

決定部1160は、環境画像、位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢情報、運搬物情報取得部1120が取得した運搬物の概略形状、および目標の位置及び姿勢をもとにAGVの移動制御する制御値を決定する。実施形態1と異なり、移動体の目標位置姿勢は、不図示の通信装置により移動体管理システム13から決定部1160へ直接入力される。決定部1160は、決定した制御値をアクチュエータ部130へ出力する。 The determination unit 1160 determines a control value for controlling the movement of the AGV based on the environmental image, the position and orientation information of the environmental sensor 120 acquired by the position and orientation information acquisition unit 1140, the rough shape of the transported object acquired by the transported object information acquisition unit 1120, and the target position and orientation. Unlike the first embodiment, the target position and orientation of the moving object is input directly to the determination unit 1160 from the moving object management system 13 via a communication device (not shown). The determination unit 1160 outputs the determined control value to the actuator unit 130.

本実施形態における処理全体の手順は、図5と同様である。本実施形態では実施形態1と処理が異なる手順のみ説明し、それ以外の手順については図5と同じ処理であるものとして説明を省略する。 The overall processing procedure in this embodiment is the same as that in FIG. 5. In this embodiment, only the steps that are different from the first embodiment will be explained, and the other steps will not be explained as they are the same as those in FIG. 5.

図5のS160では、決定部1160が、運搬物情報取得部1120が推定した運搬物15の概略形状と、環境画像入力部1130に入力されたデプスマップ、移動体の目標位置とに基づき、障害物を避けつつ目標位置へ向かうような移動体の制御値を決定する。具体的には、現在の移動体の位置姿勢と入力された目標位置姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値候補として取得する。それぞれの制御値候補に関して制御後の予測位置姿勢を取得する。そして、予測位置姿勢における運搬物を含む移動体の概略形状・位置と、環境画像入力部1130から入力されたデプスマップから求めた3次元点群との、最近接距離の計算を行う。距離が所定以下の場合は、衝突の危険性と判定し、その予測位置姿勢を取得した制御値候補を棄却する。棄却されなかった制御値候補の中で、目標位置姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として選択する。決定された制御値は、アクチュエータ部130へ出力する。 In S160 of FIG. 5, the determination unit 1160 determines a control value for the moving body to move toward the target position while avoiding obstacles, based on the rough shape of the moving object 15 estimated by the moving object information acquisition unit 1120, the depth map input to the environmental image input unit 1130, and the target position of the moving object. Specifically, based on the current position and orientation of the moving object and the input target position and orientation, all possible variations of control values (forward speed and turning direction/speed) that reduce the Euclidean distance between the two are acquired as control value candidates. A predicted position and orientation after control is acquired for each control value candidate. Then, the closest distance is calculated between the rough shape and position of the moving object including the moving object in the predicted position and orientation and the three-dimensional point cloud obtained from the depth map input from the environmental image input unit 1130. If the distance is less than a predetermined value, it is determined that there is a risk of collision, and the control value candidate that acquired the predicted position and orientation is rejected. Among the control value candidates that were not rejected, the control value that minimizes the Euclidean distance between the target position and posture and the predicted position and posture is selected as the final control value. The determined control value is output to the actuator unit 130.

以上、実施形態2では、制御用マップを保持せずに、環境センサ120から入力された画像に基づいて、運搬物を含む移動体の概略形状の位置を取得し、移動体の制御を行う方法について述べた。制御用マップを保持しない場合においても、環境センサ120から時系列的に入力される画像から、その都度、観測される範囲で、移動体と環境中の障害物との距離を取得することで、制御用マップを保持しない場合においても、安全な移動体制御が可能となる。 In the above, in the second embodiment, a method for controlling a moving object by acquiring the position of the general shape of the moving object including the transported object based on the images input from the environmental sensor 120 without holding a control map has been described. Even when a control map is not held, safe control of the moving object is possible by acquiring the distance between the moving object and obstacles in the environment within the observed range each time from the images input from the environmental sensor 120 in a time series manner.

(実施形態3)
実施形態1では、運搬物センサ110が取得したデプスマップから、運搬物15の概略形状を一度だけ計測し、計測した運搬物の形状を含む移動体とシーン中の障害物との接触を考慮した軌道を取得して移動体の制御を行っていた。実施形態3においては、運搬物15の形状と位置を常にトラッキングすることで、運搬物の位置や形状の変化に基づいて、移動体の制御を行う方法について述べる。
(Embodiment 3)
In the first embodiment, the rough shape of the transported object 15 is measured only once from the depth map acquired by the transported object sensor 110, and a trajectory is acquired that takes into consideration contact between the transported object including the measured shape of the transported object and obstacles in the scene, and the transported object is controlled. In the third embodiment, a method is described in which the shape and position of the transported object 15 are constantly tracked, and the transported object is controlled based on changes in the position and shape of the transported object.

本実施形態における装置の構成は、実施形態1で説明した情報処理装置10の構成を示す図3と同一であるため省略する。なお、運搬物情報取得部1120は、実施形態1で説明した運搬物15の概略形状情報に加えて、さらに、その時系列的変化が計算できるように、前時刻における運搬物15の形状・位置の情報も保持する。そして、運搬物15の時系列変化情報も、決定部1160に出力する。決定部1160は、実施形態1で説明した情報に加え、運搬物情報取得部1120が取得した運搬物15の時間変化情報にも基づいて、AGVを制御する制御値を決定する。以上の点が実施形態1と異なる。 The configuration of the device in this embodiment is omitted because it is the same as that of the information processing device 10 in FIG. 3 described in embodiment 1. In addition to the general shape information of the transported object 15 described in embodiment 1, the transported object information acquisition unit 1120 also holds information on the shape and position of the transported object 15 at the previous time so that time-series changes can be calculated. The time-series change information of the transported object 15 is also output to the determination unit 1160. The determination unit 1160 determines a control value for controlling the AGV based on the time-series change information of the transported object 15 acquired by the transported object information acquisition unit 1120 in addition to the information described in embodiment 1. The above points are different from embodiment 1.

図8に、本実施形態において無人搬送車(AGV)と称する移動体に適用した情報処理装置が実行する処理手順を示す。本実施形態では実施形態1と処理が異なる手順のみ説明し、それ以外の手順については図5と同じ処理であるものとして説明を省略する。 Figure 8 shows the processing procedure executed by an information processing device applied to a moving body called an automated guided vehicle (AGV) in this embodiment. In this embodiment, only the procedures that differ from the first embodiment will be explained, and the other procedures will not be explained as they are the same as those in Figure 5.

S230では、実施形態1のS130と同様に、運搬物情報取得部1120が、デプスマップから運搬物15の概略形状として、3次元バウンディングボックスの情報を取得する。次に、保持していた前の時刻における3次元バウンディングボックスと、現時刻における値との差分を取ることで、前時刻から現時刻への運搬物15の概略形状と位置の変化量を取得する。変化量は、バウンディングボックスのサイズ(高さ・横幅・奥行)の変化量3パラメータ、位置の変化量3パラメータの計6パラメータを保持するものとする。最後に、取得した、現時刻における運搬物15の概略形状およびその変化量の値を、決定部1160に出力する。 In S230, similar to S130 in the first embodiment, the transported object information acquisition unit 1120 acquires information on a three-dimensional bounding box as the rough shape of the transported object 15 from the depth map. Next, the amount of change in the rough shape and position of the transported object 15 from the previous time to the current time is acquired by taking the difference between the three-dimensional bounding box at the previous time that was held and the value at the current time. The amount of change is held as a total of six parameters, including three parameters for the amount of change in the bounding box size (height, width, depth) and three parameters for the amount of change in position. Finally, the acquired rough shape of the transported object 15 at the current time and the value of the amount of change are output to the determination unit 1160.

S260では、決定部1160が、運搬物情報取得部1120が推定した運搬物15の概略形状と、保持部1150が保持する占有格子マップとに基づき、障害物を避けつつ目標位置姿勢へ向かうような移動体の制御値を決定する。本実施形態では、これに加えて、運搬物情報取得部1120が取得した運搬物15の形状と位置の変化量に基づいて、制御値を決定する。実施形態1に記載した処理により移動体の制御値を決定した後、さらに、運搬物情報取得部1120が取得した運搬物15の形状と位置の変化量に基づいて、移動体の最終的な制御値を決定する。 In S260, the determination unit 1160 determines a control value for the moving object so as to move toward the target position and attitude while avoiding obstacles, based on the rough shape of the transported object 15 estimated by the transported object information acquisition unit 1120 and the occupancy grid map held by the holding unit 1150. In this embodiment, in addition to this, the control value is determined based on the amount of change in the shape and position of the transported object 15 acquired by the transported object information acquisition unit 1120. After the control value for the moving object is determined by the process described in embodiment 1, the final control value for the moving object is further determined based on the amount of change in the shape and position of the transported object 15 acquired by the transported object information acquisition unit 1120.

具体的には、運搬物の概略形状および位置の変化量をチェックし、両者およびどちらか一方が所定以上の量で変化が発生している場合、運搬物の崩れやズレが発生しているものとして、移動体の速度を減速させる或いは停止させるように制御値を取得する。一方で、運搬物の変化量が0または小さい場合には、安定的に運搬物を運搬できているものとして、実施形態1におけるS160記載の方法で取得した制御値をそのまま用いる。また、運搬物の変化量が、運搬物の崩れやズレが発生するほど大きくないが、変化量が0とみなせるほど小さくない場合には、運搬物に揺れが発生しているものとして、揺れの範囲を判別して、制御値を取得する。具体的には、運搬物15の概略形状を表す3次元バウンディングボックスと、運搬物の形状と位置の変化量とを足し合わせ、最大揺れ幅を包括するような運搬物の概略形状を求める。それに基づいて、S160で述べた移動体全体の概略形状を取得し、制御値を決定する。決定した制御値は、アクチュエータ部130へ出力する。 Specifically, the amount of change in the general shape and position of the transported object is checked, and if either or both of them have changed by a predetermined amount or more, it is determined that the transported object has collapsed or shifted, and a control value is acquired to slow down or stop the moving object. On the other hand, if the amount of change in the transported object is 0 or small, it is determined that the transported object is being transported stably, and the control value acquired by the method described in S160 in the first embodiment is used as is. Also, if the amount of change in the transported object is not large enough to cause the transported object to collapse or shift, but is not small enough to be considered as 0, it is determined that the transported object is shaking, the range of shaking is determined, and a control value is acquired. Specifically, the three-dimensional bounding box representing the general shape of the transported object 15 is added to the amount of change in the shape and position of the transported object to obtain the general shape of the transported object that includes the maximum shaking width. Based on this, the general shape of the entire moving object described in S160 is obtained, and the control value is determined. The determined control value is output to the actuator unit 130.

S470では、システムを終了するか否か判定する。具体的には、実施形態1のS170と同様に、保持部1150が保持する目的地座標と位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢とのユークリッド距離が所定の閾値(例えば1m)以下であれば、目的地に到着したとして終了する。そうでなければS120に戻り処理を続ける。 In S470, it is determined whether or not to terminate the system. Specifically, similar to S170 in the first embodiment, if the Euclidean distance between the destination coordinates held by the holding unit 1150 and the position and orientation of the environmental sensor 120 acquired by the position and orientation information acquisition unit 1140 is equal to or less than a predetermined threshold (e.g., 1 m), it is determined that the destination has been reached and the system is terminated. If not, the system returns to S120 and continues processing.

以上、実施形態3では、運搬物の形状と位置を毎フレーム計測・トラッキングを行い、その変化量を取得し、変化量に応じて運搬物のズレや崩れなどの状態変化を判別して移動体の制御を変更する方法について述べた。運搬物に状態変化があるような場合には、移動体を停止する、最大速度を制限する、といった制御や、運搬物の揺れ幅をも考慮に入れた移動体と環境との接触計算に基づいて制御を行う。これにより、運搬物の崩れやズレ、揺れといった時間的変化を考慮した安全な移動体制御が可能になる。 In the above, in the third embodiment, a method has been described in which the shape and position of the transported object are measured and tracked every frame, the amount of change is acquired, and depending on the amount of change, a change in the state of the transported object, such as a shift or collapse, is determined and the control of the moving object is changed. When there is a change in the state of the transported object, control is performed such as stopping the moving object or limiting the maximum speed, or control is performed based on contact calculations between the moving object and the environment that also take into account the amplitude of the sway of the transported object. This enables safe control of the moving object that takes into account changes over time, such as collapse, shift, and sway of the transported object.

(変形例3-1)
本実施形態では、決定部1160において、運搬物15の形状と位置の変化量に応じて、移動体の制御値を決定していたが、これに限るものではない。例えば、変化量に応じて、運搬物の崩れやズレの発生を判別したときに、制御値を取得する代わりに、不図示のアラームを鳴らして、異常を外部に示す。または、不図示のランプを点灯させて、異常を示す。または、移動体管理システム13に通信し、異常が発生したことをシステムに知らせる。
(Variation 3-1)
In this embodiment, the determining unit 1160 determines the control value of the moving object according to the amount of change in the shape and position of the transported object 15, but the present invention is not limited to this. For example, when it is determined that the transported object has collapsed or shifted according to the amount of change, instead of acquiring the control value, an alarm (not shown) is sounded to indicate the abnormality to the outside. Alternatively, a lamp (not shown) is turned on to indicate the abnormality. Alternatively, communication is made with the moving object management system 13 to notify the system that an abnormality has occurred.

(実施形態4)
実施形態1から3に共通して適用できるUIについて説明する。撮像装置が取得した視覚情報や、取得部が取得した位置姿勢、物体の検出結果、マップ情報などをユーザが確認することを説明する。また、AGVは自動制御で動くためユーザの入力により制御することを説明する。ユーザがAGVの状況を確認できるよう、AGVを制御することもできるように、表示装置として例えばディスプレイにGUIを表示し、マウスやタッチパネルといった入力装置によりユーザからの操作を入力する。なお、本実施形態において、ディスプレイはAGVに搭載されているものとしているが、このような構成に限るものではない。つまり、通信I/F(H17)を介して、ユーザの持つモバイル端末のディスプレイを表示装置として用いる、移動体管理システムに接続された液晶ディスプレイを表示装置として用いる。AGVに搭載されている表示装置を用いる場合でも、AGVに搭載されていない表示装置を用いる場合でも、表示情報は、情報処理装置で生成することができる。また、AGVに搭載されていない表示装置を用いる場合には、表示装置に付随する計算機が、情報処理装置から表示情報の生成に必要な情報を取得し表示情報を生成してもよい。
(Embodiment 4)
A UI that can be commonly applied to the first to third embodiments will be described. It will be described that the user confirms visual information acquired by the imaging device, the position and orientation acquired by the acquisition unit, the object detection result, map information, and the like. It will also be described that the AGV moves under automatic control and is controlled by user input. In order for the user to be able to confirm the status of the AGV and to be able to control the AGV, a GUI is displayed on a display device, for example, and the user inputs operations using an input device such as a mouse or a touch panel. In this embodiment, the display device is mounted on the AGV, but is not limited to this configuration. That is, the display of the mobile terminal held by the user is used as the display device via the communication I/F (H17), and a liquid crystal display connected to the mobile management system is used as the display device. Whether a display device mounted on the AGV is used or a display device not mounted on the AGV is used, the display information can be generated by an information processing device. In addition, when a display device not mounted on the AGV is used, a computer attached to the display device may acquire information necessary for generating the display information from the information processing device and generate the display information.

実施形態4における装置の構成は、図3の機能構成に加え、図10に示すような生成部1170を有する。生成部1140は、運搬物センサ110が取得した運搬物画像、位置姿勢情報取得部1140が取得した移動体の位置姿勢、環境センサ120が取得した画像、第1取得部が計測した運搬物の情報、決定部1160が取得した制御値に基づいて表示情報を生成する。さらに、表示部140は、生成された表示情報を、AGVに搭載したタッチパネルディスプレイ等に表示する。なお、表示情報の詳細については後述する。 The configuration of the device in embodiment 4 includes a generation unit 1170 as shown in FIG. 10 in addition to the functional configuration in FIG. 3. The generation unit 1140 generates display information based on the transported object image acquired by the transported object sensor 110, the position and orientation of the moving object acquired by the position and orientation information acquisition unit 1140, the image acquired by the environmental sensor 120, the transported object information measured by the first acquisition unit, and the control value acquired by the determination unit 1160. Furthermore, the display unit 140 displays the generated display information on a touch panel display or the like mounted on the AGV. Details of the display information will be described later.

図9に、本実施形態における表示装置が提示する表示情報の一例であるGUI100を示す。G110は2次元の占有格子マップを提示するためのウィンドウである。G120は保持部1150が保持する3次元占有格子マップを提示するためのウィンドウである。G130は環境センサ120が取得した画像を提示するためのウィンドウである。G140は運搬物センサ110が取得した画像を提示するためのウィンドウである。また、G150は、位置姿勢情報取得部1140が取得した位置及び姿勢や、運搬物情報取得部1120が計測した運搬物15の情報、決定部1160が決定した制御値に関する表示情報を提示するためのウィンドウである。 Figure 9 shows GUI 100, which is an example of display information presented by the display device in this embodiment. G110 is a window for presenting a two-dimensional occupancy lattice map. G120 is a window for presenting a three-dimensional occupancy lattice map held by the holding unit 1150. G130 is a window for presenting an image acquired by the environmental sensor 120. G140 is a window for presenting an image acquired by the transported object sensor 110. G150 is a window for presenting display information related to the position and orientation acquired by the position and orientation information acquisition unit 1140, information on the transported object 15 measured by the transported object information acquisition unit 1120, and the control value determined by the determination unit 1160.

G110は、保持部1150が保持する3次元占有格子マップを床面平面に射影した、2次元の占有格子マップの提示例を示している。G111は、環境センサ120と運搬物センサ110を搭載したAGVである。G111は、運搬物センサ110が計測した運搬物15の概略形状に基づいて計算したAGVの概略形状が表示されている。位置姿勢情報取得部1140が、環境センサの位置姿勢(AGVの位置姿勢)に基づき2Dマップ上に合成する。G112は、警告アラートとして吹き出しを提示した例である。例えば、実施形態2に記載の方法により、運搬物情報取得部1120が取得した運搬物15の変化量に基づいて決定部1160が、運搬物の崩れやズレを検出した場合に、アラートを表示する。G113は、決定部1160が決定した制御値に基づき、AGVの進行予定ルートを矢印として提示した例である。図9においては、AGVはG114に提示した目的地に向かっている。このように、2DマップとAGVの位置、異常のアラート、ルートを提示することでユーザが容易にAGVの運行状況を把握することができる。なお、G111~G114は色や線の太さ、形状を変えることでユーザがより容易に運行状況を把握できるようにしてよい。 G110 shows an example of a two-dimensional occupancy grid map in which the three-dimensional occupancy grid map held by the holding unit 1150 is projected onto the floor surface plane. G111 is an AGV equipped with the environment sensor 120 and the transported object sensor 110. G111 shows the outline shape of the AGV calculated based on the outline shape of the transported object 15 measured by the transported object sensor 110. The position and orientation information acquisition unit 1140 synthesizes it on the 2D map based on the position and orientation of the environment sensor (the position and orientation of the AGV). G112 is an example of a speech bubble presented as a warning alert. For example, when the determination unit 1160 detects a collapse or displacement of the transported object based on the amount of change in the transported object 15 acquired by the transported object information acquisition unit 1120 by the method described in embodiment 2, an alert is displayed. G113 is an example of a planned route of the AGV presented as an arrow based on the control value determined by the determination unit 1160. In FIG. 9, the AGV is heading toward the destination presented in G114. In this way, by presenting a 2D map, the AGV's location, abnormality alerts, and route, the user can easily understand the operation status of the AGV. Note that the color, line thickness, and shape of G111 to G114 may be changed to allow the user to more easily understand the operation status.

G120は、保持部1150が保持する3次元の占有格子マップの提示例を示している。G121は、運搬物情報取得部1120が取得した運搬物15の概略形状を、AGVのモデル上に表示した様子である。G122は、運搬物15を含むAGVの概略形状に接触しうる範囲を抜き出す部分マップを表す表示例である。この範囲の3次元占有格子マップを床面平面に射影したものがG110である。このように、3次元占有格子マップを提示することで、環境中に存在する高さが異なる障害物と、AGVおよび運搬物との3次元的な接触具合を見ながら、ユーザは運行状況を把握することができる。 G120 shows an example of a three-dimensional occupancy grid map held by the holding unit 1150. G121 shows the outline of the transported object 15 acquired by the transported object information acquisition unit 1120, displayed on a model of the AGV. G122 is an example of a display showing a partial map that extracts the range that may come into contact with the outline of the AGV, including the transported object 15. G110 shows the three-dimensional occupancy grid map of this range projected onto the floor plane. In this way, by presenting a three-dimensional occupancy grid map, the user can grasp the operating situation while viewing the three-dimensional contact state between the AGV and the transported object and obstacles of different heights that exist in the environment.

G130は、環境センサ120が取得した画像の提示例を示している。G130のように、他のAGVの進行方向を矢印で表示してもよい。矢印の表示は、移動体管理システム13等から取得する情報に基づいて生成する。 G130 shows an example of the presentation of an image acquired by the environmental sensor 120. As in G130, the traveling direction of other AGVs may be displayed with an arrow. The arrow display is generated based on information acquired from the mobile management system 13, etc.

G140は、運搬物センサ110が取得した運搬物15を撮像する画像の提示例を示している。G141は、実施形態1で説明した、運搬物情報取得部1120が取得した運搬物15の概略形状と位置、および、運搬物の種類を表す情報の提示例である。また、G142は、実施形態2で説明した、運搬物15の形状・位置の変化量から求めた、運搬物の揺れ幅を含む、運搬物の概略形状を示す提示例である。ここでは、3軸に関する矢印を表示しているが、運搬物が存在する範囲をワイヤーフレームとして表示してもよい。これにより、運搬物のサイズと位置を含む、運搬物の状況をユーザが直感的に把握することができる。 G140 shows an example of a presentation of an image of the transported object 15 acquired by the transported object sensor 110. G141 is an example of a presentation of the general shape and position of the transported object 15 acquired by the transported object information acquisition unit 1120, and information indicating the type of the transported object, as described in embodiment 1. G142 is an example of a presentation of the general shape of the transported object, including the amplitude of the transported object's sway, calculated from the amount of change in the shape and position of the transported object 15, as described in embodiment 2. Here, arrows are displayed on three axes, but the range in which the transported object exists may also be displayed as a wire frame. This allows the user to intuitively grasp the status of the transported object, including the size and position of the transported object.

G150は、AGVを人手で操作するためのGUIや、位置姿勢情報取得部1140が取得するAGVの位置姿勢や決定部1160が決定した制御値、AGVの目標の位置及び姿勢の提示例を示している。G151は緊急停止ボタンであり、ユーザはこのボタンに指で触れることでAGVの移動を停止させることができる。G152はマウスカーソルであり、不図示のマウスやコントローラ、タッチパネルを通したユーザのタッチ動作に従ってカーソルを移動させることができ、ボタンを押下することでGUI内のボタンやラジオボタンを操作することができる。G153はAGVのコントローラを提示した例である。ユーザはコントローラの内部の円を上下左右に移動させることで、それらの入力に応じたAGVの前後左右の動作を行うことができる。G154はAGVの内部状態を提示した例である。AGVが自動走行しており、秒速0.5m/sで動作している状態を例として図示した。また、AGVが走行を開始してからの時間、目的地までにかかる残りの時間、予定に対する到着予想時刻の差といった目標の位置及び姿勢も合わせて提示した。G156はAGVの動作や表示情報の設定を行うためのGUIである。マップ情報を生成するか否か、検出した物体を提示するか否かといった操作をユーザが行うことができる。G157はAGVの目標の位置及び姿勢を提示した例である。第2取得部1140が取得した位置姿勢や、移動体管理システム13から受信した目的地座標、AGVが運搬している物品名を提示した例である。このように、目標の位置及び姿勢を提示する、ユーザからの入力に係るGUIを提示することで、より直感的にAGVを運用できるようになる。 G150 shows an example of a GUI for manually operating the AGV, the position and orientation of the AGV acquired by the position and orientation information acquisition unit 1140, the control value determined by the determination unit 1160, and the target position and orientation of the AGV. G151 is an emergency stop button, and the user can stop the movement of the AGV by touching this button with a finger. G152 is a mouse cursor, and the cursor can be moved according to the user's touch operation through a mouse, controller, or touch panel (not shown), and buttons and radio buttons in the GUI can be operated by pressing a button. G153 is an example of a presentation of the AGV controller. The user can move the circle inside the controller up, down, left, and right to move the AGV forward, backward, left, and right according to the input. G154 is an example of a presentation of the internal state of the AGV. The AGV is automatically traveling and is illustrated as an example of a state in which it is operating at a speed of 0.5 m/s per second. The target position and orientation are also presented, including the time since the AGV started traveling, the remaining time to reach the destination, and the difference between the estimated arrival time and the schedule. G156 is a GUI for setting the operation of the AGV and display information. The user can perform operations such as whether to generate map information and whether to display detected objects. G157 is an example of presenting the target position and orientation of the AGV. This is an example of presenting the position and orientation acquired by the second acquisition unit 1140, the destination coordinates received from the mobile object management system 13, and the name of the item being transported by the AGV. In this way, by presenting a GUI related to input from the user that presents the target position and orientation, the AGV can be operated more intuitively.

図11を用いて情報処理装置が実行する処理を説明する。S565では、生成部1170が、撮像された画像、運搬物情報取得部1120が取得した運搬物の形状、位置姿勢情報取得部1140が取得した移動体の位置姿勢、決定部1160が決定した制御値または占有格子マップの何れかに基づいて、表示情報を生成する。そして、表示情報を表示部140に出力する。 The process executed by the information processing device will be described with reference to FIG. 11. In S565, the generation unit 1170 generates display information based on the captured image, the shape of the transported object acquired by the transported object information acquisition unit 1120, the position and orientation of the moving object acquired by the position and orientation information acquisition unit 1140, and either the control value or the occupancy grid map determined by the determination unit 1160. Then, the display information is output to the display unit 140.

実施形態4では、撮像された画像、運搬物情報取得部1120が取得した運搬物の形状、位置姿勢情報取得部1140が取得した移動体の位置姿勢、決定部1160が決定した制御値または占有格子マップの何れかに基づいて、表示情報を生成する。これによりユーザが容易に本情報処理装置の状態を確認することができる。また、AGVの制御値や各種パラメータ、表示モード等をユーザが入力する。これにより手軽にAGVの各種設定を変更したり移動させたりすることができる。このように、GUIを提示することで手軽にAGVを運用することができるようになる。 In the fourth embodiment, display information is generated based on the captured image, the shape of the transported object acquired by the transported object information acquisition unit 1120, the position and orientation of the moving object acquired by the position and orientation information acquisition unit 1140, and either the control value or the occupancy grid map determined by the determination unit 1160. This allows the user to easily check the status of this information processing device. In addition, the user inputs the control values, various parameters, display mode, etc. of the AGV. This allows the various settings of the AGV to be easily changed or moved. In this way, by presenting a GUI, it becomes possible to easily operate the AGV.

(実施形態5)
本実施形態では、移動体の目的地と運搬物の種類に基づいて、タスクを効率的に実行できる運搬量または移動経路をユーザに対してリコメンドする情報処理装置について説明する。通常、例えば、同じ荷物を数回(又は数台)に分けて搬送する場合、1回あたりのタスクでなるべく多くの荷物を積めば、タスクの総所要時間は短縮できる。しかし、環境によっては、運搬物が多くなった場合に走行できる経路が限定され、結果遠回りになって所要時間が増加してしまうことがある。つまり、所要時間を最小にするのに最適な運搬物の量や積み方は環境によって変化しうる。そこで、本実施形態では、荷物の大きさと環境の構造を考慮して、最適な運搬量と搬送経路の組合せをユーザに提示する。これによって、効率的に移動体を制御できる。
(Embodiment 5)
In this embodiment, an information processing device is described that recommends to a user the amount of transportation or the moving route that can efficiently execute a task based on the destination of a moving body and the type of transported goods. Usually, for example, when the same luggage is transported in several (or several) divisions, the total time required for the task can be shortened by loading as many luggage as possible in each task. However, depending on the environment, the route that can be traveled when the amount of transported goods increases may be limited, resulting in a detour and an increase in the required time. In other words, the amount of transported goods and the way of loading that are optimal for minimizing the required time may change depending on the environment. Therefore, in this embodiment, the combination of the optimal amount of transportation and the transport route is presented to the user, taking into account the size of the luggage and the structure of the environment. This allows the moving body to be controlled efficiently.

図12を用いて、情報処理装置10の機能構成例を説明する。なお、実施形態1と同様の機能構成については説明を省略する。 An example of the functional configuration of the information processing device 10 will be described with reference to FIG. 12. Note that a description of the functional configuration that is the same as that of the first embodiment will be omitted.

タスク入力部(第3入力部)1200は、目的地の座標またはタスクで運ぶ運搬物の総量と大きさについて示すタスク情報を入力する。タスク情報に含まれる目的地の座標は、保持部1150が保持する制御マップと紐づけられるものとする。タスクで運ぶ運搬物の総量についてもタスク情報に含む。また、運搬物の1単位あたりの大きさを示す3次元形状データを示す運搬物情報は既知であるものとする。例えば、運搬物が立方体、横長の直方体であって、それを10単位だけ運搬することを示す。なお、1度の工程で移動体に運搬させる運搬量(例えば4単位分等)をユーザがUI等を使って入力してもよい。また、運搬物の積み方をユーザが指定してもよい。例えば、立方体の運搬物を4個移動体に搭載するとき、すべて平積みにするか、2×2で重ねるか、すべて上に重ねるか、といった積み方をユーザが入力する。 The task input unit (third input unit) 1200 inputs task information indicating the coordinates of the destination or the total amount and size of the transported goods to be transported in the task. The coordinates of the destination included in the task information are linked to the control map stored in the storage unit 1150. The total amount of the transported goods to be transported in the task is also included in the task information. In addition, the transported goods information indicating the three-dimensional shape data indicating the size of one unit of the transported goods is assumed to be known. For example, it indicates that the transported goods are cubes or horizontally elongated rectangular parallelepipeds, and that 10 units of them are to be transported. Note that the user may input the amount of transported goods (e.g., 4 units) to be transported by the moving body in one process using a UI or the like. The user may also specify how the transported goods are stacked. For example, when loading four cubic transported goods onto the moving body, the user inputs the stacking method, such as whether to stack them all flat, stack them 2x2, or stack them all on top of each other.

候補取得部(第3取得部)1220は、タスク情報と制御用マップに基づいて、少なくとも1つ以上の運搬量と移動経路との組合せの候補を取得する。運搬量と移動経路との組み合わせの候補は例えば、次のような情報である。運搬量が4個で経路はルート1の組合せは、所要時間が50秒、運搬量が5個で経路はルート1の組合せは、所要時間が1分等。これらの情報は、運搬物の大きさや移動体の走行環境の構造を考慮し、運搬量と移動経路の組合せを取得する。なお、複数の運搬物を運ぶ場合は積み方によって形状が変化するため、積み方のバリエーションについても複数取得する。 The candidate acquisition unit (third acquisition unit) 1220 acquires at least one candidate combination of transport volume and travel route based on the task information and the control map. Examples of candidate combinations of transport volume and travel route include the following information: A combination of four transport volume and route 1 requires 50 seconds, a combination of five transport volume and route 1 requires 1 minute, etc. This information is acquired by taking into consideration the size of the transported items and the structure of the traveling environment of the mobile body. Note that when multiple transported items are transported, the shape changes depending on how they are stacked, so multiple variations in how they are stacked are also acquired.

生成部1270は、候補取得部1220で取得した候補をディスプレイ等に表示するための表示情報を生成する。ユーザに対して運搬量をリコメンドする場合は、例えば所要時間が最短である運搬量をリコメンドする。また、運搬量は固定で、積み方や経路の候補をリコメンドしてもよい。積み方をリコメンドする場合は、それぞれの積み方の候補(例えば平積み、重ねる等)に対して経路と所要時間を紐づける。経路をリコメンドする場合は、各経路の候補に対して、最適な運搬量または積み方を紐づける。例えば、背の低い運搬物や運搬物を平積みに対しては、天井が部分的に低い経路をリコメンドできる。天井は部分的に低い経路は、走行可能な移動体が限定されるため、複数の移動体同士の混雑が避けられる可能性がある。例えば、図13に示すようなGUIでこれらの情報をユーザに提示する。G160は、運搬物の搭載量(運搬量)に応じた運搬物の形状の推定値を示す画像である。例えば、運搬量が4個の場合は、図の斜線部のような形状で搭載されるものと仮定する。経路の候補は、この運搬物の形状を使って取得する。G171は、制御用マップに目的地(G172)と、運搬量の候補に対応したルートを示すマップである。マップは例えば前述の制御用マップ(占有格子マップ)である。ルートの一例として、R1は、通路の幅も高さも十分にあるルートである。R2は、高さは十分にあるものの、幅がR1より狭いルートである。R3は、通路の幅と高さが最も小さいルートである。G181は、運搬量の候補と、ルートの組合せを示すリストである。さらに運搬量とルートに対応した所要時間の予測値を表示する。 The generating unit 1270 generates display information for displaying the candidates acquired by the candidate acquiring unit 1220 on a display or the like. When recommending a transportation amount to a user, for example, the transportation amount with the shortest required time is recommended. In addition, the transportation amount may be fixed, and candidates for loading method and route may be recommended. When recommending a loading method, the route and required time are linked to each loading method candidate (for example, flat stacking, stacking, etc.). When recommending a route, the optimal transportation amount or loading method is linked to each route candidate. For example, for low-height transported goods or flat-stacked transported goods, a route with a partially low ceiling can be recommended. A route with a partially low ceiling may be possible to avoid congestion between multiple mobile objects because the number of mobile objects that can travel on the route with a partially low ceiling is limited. For example, this information is presented to the user in a GUI as shown in FIG. 13. G160 is an image showing an estimated value of the shape of the transported goods according to the load (transportation amount) of the transported goods. For example, if there are four items to be transported, it is assumed that they will be loaded in the shape shown by the shaded area in the figure. Route candidates are obtained using the shape of the items to be transported. G171 is a map showing the destination (G172) and routes corresponding to candidate transport amounts on a control map. The map is, for example, the control map (occupancy grid map) mentioned above. As an example of a route, R1 is a route with sufficient width and height of aisles. R2 is a route with sufficient height but narrower width than R1. R3 is the route with the smallest width and height of aisles. G181 is a list showing combinations of candidate transport amounts and routes. In addition, a predicted value of the required time corresponding to the transport amount and route is displayed.

決定部1260は、運搬量と移動経路との組み合わせの候補から所定の基準に基づいて制御値を決定する。所定の基準とは、例えば、所要時間が最短な組合せ決定するといった基準である。ユーザによる指示に従って、制御値を決定してもよい。もしくは、ユーザが、図13のG181のようなリストから、好ましい運搬量とルートの組合せを選択することによって、制御値を決定してもよい。必要に応じて、運搬物情報取得部1120から、実際に積み込まれた運搬物についての情報(第1情報)との整合性から、制御値を決定する。 The determination unit 1260 determines a control value from candidate combinations of transport volume and travel route based on a predetermined criterion. The predetermined criterion is, for example, determining a combination that requires the shortest time. The control value may be determined according to a user's instruction. Alternatively, the user may determine the control value by selecting a preferred combination of transport volume and route from a list such as G181 in FIG. 13. If necessary, the control value is determined based on consistency with information (first information) about the transported goods actually loaded from the transported goods information acquisition unit 1120.

図14を用いて、情報処理システム1が実行する処理について説明する。S1410では、情報処理システム1が、移動体の現在位置、運搬物情報、制御用マップ、タスク情報を初期化する。S1420では、タスク入力部1200が、目的地の座標またはタスクで運ぶ運搬物の総量と大きさについて示すタスク情報を入力する。ここでは、ユーザによって目的地の座標がタスク入力部1200に入力されるものとする。工程管理システム14から、図示しない通信部によって目的地の情報を取得してもよい。また、ここで運搬物の総量を示すタスク情報を入力する。S1430では、候補取得部1220が、タスク情報と制御用マップに基づいて、少なくとも1つ以上の運搬量と移動経路の組合せを取得する。まず、S1410で取得した運搬物情報に基づいて、移動体に搭載可能な運搬物の量を推定する。運搬物情報とは、運搬物1単位あたりの3次元形状データである。なお、移動体の荷台の3次元形状は既知であるものとする。候補取得部1220は、移動体の荷台の3次元形状と運搬物1単位あたりの3次元形状に基づいて、最大運搬量を推定する。さらに、運搬物の量(運搬物1単位から最大運搬量毎)に応じて、運搬物の積み方とその形状を推定する。推定された3次元形状から、タスク情報と制御用マップとに基づいて、運搬物をXだけ搬送する移動体が走行可能な経路を推定する。そして、その経路を走行する所要時間を取得する。S1440では、生成部1270が、候補取得部1220で取得した組合せ、具体的には移動経路をディスプレイ等に表示する表示情報を生成する。例えば、運搬物を積んだ場合の見え方を推定した画像や、移動体の現在地から目的地までの移動経路を表示する。S1450では、決定部1260が、運搬量と移動経路との組み合わせの候補から所定の基準に基づいて制御値を決定する。ある運搬量に対して複数の候補があった場合、その中から所定の条件を満たす運搬量を決定する。例えば、最短時間で走行できる経路を移動体に走行させたい場合は、条件を時間にして、タスクの総所要時間が最小になる運搬量と経路の組合せを決定する。決定された運搬量と移動経路に基づいて制御値を求める。なお、ユーザによる入力に従って、G181で示された組合せ候補の中から運搬量または経路を決定してもよい。S1460では、運搬物センサ110が、移動体に搭載された運搬物を撮像する。S1470では、運搬物情報取得部が、S1460で運搬物を撮像した画像に基づいて運搬物情報(第1情報)を取得する。S1480では、運搬物情報取得部が、第1情報と、決定された運搬物と制御値との組合せとを比較して、S1450で決定された運搬物が載せられているか確認する。指定された運搬物が正しく載せられていることを確認できた場合は、S1490に進む。決定した運搬物の量と、第1情報から得られた運搬物の量とに所定の値(例えば運搬物1単位より多い又は少ない)より大きい差があった場合は、S1450に戻る。S1490では、アクチュエータ部130が、決定された経路に対応する制御値に従って、移動体を走行させる。以上に述べた処理によって、移動体に載せる運搬物の量と経路を適切に組み合わせることができるため、効率的に移動体を制御できる。 The process executed by the information processing system 1 will be described with reference to FIG. 14. In S1410, the information processing system 1 initializes the current position of the moving body, the transported object information, the control map, and the task information. In S1420, the task input unit 1200 inputs the coordinates of the destination or the task information indicating the total amount and size of the transported object to be transported in the task. Here, it is assumed that the coordinates of the destination are input to the task input unit 1200 by the user. The destination information may be acquired from the process management system 14 by a communication unit (not shown). In addition, the task information indicating the total amount of the transported object is input here. In S1430, the candidate acquisition unit 1220 acquires at least one combination of the transported amount and the moving route based on the task information and the control map. First, the amount of the transported object that can be loaded on the moving body is estimated based on the transported object information acquired in S1410. The transported object information is three-dimensional shape data per unit of the transported object. It is assumed that the three-dimensional shape of the loading platform of the moving body is known. The candidate acquisition unit 1220 estimates the maximum transport amount based on the three-dimensional shape of the platform of the mobile body and the three-dimensional shape of one unit of transported goods. Furthermore, the method of loading the transported goods and its shape are estimated according to the amount of transported goods (one unit of transported goods to the maximum transport amount). From the estimated three-dimensional shape, a route that can be traveled by a mobile body that transports X amount of transported goods is estimated based on the task information and the control map. Then, the required time for traveling the route is acquired. In S1440, the generation unit 1270 generates display information that displays the combination acquired by the candidate acquisition unit 1220, specifically the travel route, on a display or the like. For example, an image that estimates the appearance when the transported goods are loaded and a travel route from the current location of the mobile body to the destination are displayed. In S1450, the determination unit 1260 determines a control value based on a predetermined criterion from candidates for the combination of the transport amount and the travel route. When there are multiple candidates for a certain transport amount, a transport amount that satisfies a predetermined condition is determined from among them. For example, if it is desired to make the moving object travel a route that can be traveled in the shortest time, the combination of the transport amount and the route that minimizes the total time required for the task is determined by setting the condition to time. The control value is obtained based on the determined transport amount and the moving route. The transport amount or the route may be determined from the combination candidates shown in G181 according to the input by the user. In S1460, the transported object sensor 110 captures an image of the transported object mounted on the moving object. In S1470, the transported object information acquisition unit acquires transported object information (first information) based on the image of the transported object captured in S1460. In S1480, the transported object information acquisition unit compares the first information with the determined combination of the transported object and the control value to confirm whether the transported object determined in S1450 is loaded. If it is confirmed that the specified transported object is loaded correctly, the process proceeds to S1490. If there is a difference between the determined amount of transported object and the amount of transported object obtained from the first information that is greater than a predetermined value (e.g., more or less than one unit of transported object), the process returns to S1450. In S1490, the actuator unit 130 moves the moving body according to the control value corresponding to the determined route. The above-described process allows the amount of transported goods to be loaded onto the moving body to be appropriately combined with the route, allowing the moving body to be controlled efficiently.

(その他の変形例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Modifications)
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

本発明における環境画像入力部は、移動体に搭載されたセンサが取得する周囲環境の情報を入力するものであればいかなるものでもよい。入力する周囲環境の情報とは、通常の画像や視差画像、画像の各画素に奥行き値が格納されたデプスマップ、撮像装置に対するシーンの点の三次元座標を保持するポイントクラウドの少なくともどれか一つ、または複数のことである。これに加え、LiDARやTOFカメラなどの三次元計測装置の計測した三次元情報や、通信I/Fを介して移動体管理システムから受信する移動体の目標の位置及び姿勢や移動体の位置姿勢を入力してもよい。合わせて、焦点距離、レンズ中心、レンズ歪みなどの撮像装置のパラメータを情報処理装置に入力することもできる。 The environmental image input unit in the present invention may be any device that inputs information about the surrounding environment acquired by a sensor mounted on a moving object. The information about the surrounding environment to be input is at least one or more of a normal image, a parallax image, a depth map in which a depth value is stored for each pixel of an image, and a point cloud that holds the three-dimensional coordinates of points in the scene relative to the imaging device. In addition, three-dimensional information measured by a three-dimensional measuring device such as a LiDAR or a TOF camera, or the position and orientation of a target of a moving object or the position and orientation of the moving object received from a mobile object management system via a communication I/F may be input. Additionally, parameters of the imaging device such as focal length, lens center, and lens distortion may be input to the information processing device.

本発明における位置姿勢情報取得部は、環境画像入力部により入力された周囲環境の情報を用いて移動体の位置姿勢を取得するものであれば、いかなるものでもよい。環境中のシーンを表す3次元点群と環境画像入力手段により入力されたデプスマップとを用いてICPアルゴリズムに基づいて取得してもよいし、濃淡画像からSLAM技術を利用して求めてもよい。また、Wi-Fi通信の通信状況や、環境内に設置されているビーコンを併用して位置姿勢を求めても良い。 The position and orientation information acquisition unit in the present invention may be any unit that acquires the position and orientation of a moving object using information about the surrounding environment input by the environmental image input unit. The position and orientation may be acquired based on an ICP algorithm using a three-dimensional point cloud representing a scene in the environment and a depth map input by the environmental image input means, or may be obtained from a grayscale image using SLAM technology. The position and orientation may also be acquired by using the Wi-Fi communication status and beacons installed in the environment in combination.

本発明における保持部は、移動体を制御するために参照するための制御用マップを保持する限り、いかなるものでもよい。制御用マップとしては、環境の構造や空間を表現するものであればどのようなものであってもよい。例えば、シーンを格子状に区切り、各格子に障害物が存在する確率を保持した占有格子マップなどである。占有格子マップは、世界座標系における3次元のボクセル空間(X,Y,Z)として保持してもよいし、高さ方向の情報を除いた2次元のグリッド空間(X,Y)として保持してもよい。あるいは、位置姿勢推定用マップと同様に、例えば、三次元点群データ(と色情報との組み合わせ)、キーフレームデータ(環境内の位置姿勢に紐づいたデプスマップと色情報の組み合わせ)の集合、環境の三次元モデルなどを用いてもよい。 The storage unit in the present invention may be any type of storage as long as it stores a control map to be referenced for controlling a moving object. The control map may be any type that represents the structure or space of an environment. For example, it may be an occupancy grid map in which a scene is divided into a grid and the probability that an obstacle exists in each grid is stored. The occupancy grid map may be stored as a three-dimensional voxel space (X, Y, Z) in the world coordinate system, or as a two-dimensional grid space (X, Y) excluding information in the height direction. Alternatively, as with the position and orientation estimation map, for example, a combination of three-dimensional point cloud data (and color information), a collection of key frame data (a combination of a depth map linked to the position and orientation in the environment and color information), a three-dimensional model of the environment, or the like may be used.

本発明における運搬物画像入力部は、移動体により運搬される運搬物の形状及び/もしくは位置及び/もしくは物体種類情報を入力する限り、いかなるものでもよい。運搬物の形状としては、例えば、運搬物の3次元バウンディングボックス(重心位置を表す3パラメータ、バウンディングボックスのサイズを表す3パラメータ)により表現される概略形状情報である。また、三次元点群データ(と色情報との組み合わせ)や3次元メッシュデータなどで表現してもよい。また、制御用マップと同様に占有格子マップとして表現してもよい。 The transported object image input unit in the present invention may be of any type, so long as it inputs shape and/or position and/or object type information of the transported object transported by the moving body. The shape of the transported object is, for example, rough shape information expressed by the three-dimensional bounding box of the transported object (three parameters representing the center of gravity position, and three parameters representing the size of the bounding box). It may also be expressed as three-dimensional point cloud data (combined with color information) or three-dimensional mesh data. It may also be expressed as an occupancy grid map, similar to the control map.

本発明における決定部は、移動体の移動を制御する制御値を決定する限り、いかなるものでもよい。例えば、保持部に保持された占有格子マップと、第1入力部により入力された運搬物形状に基づいて、運搬物と周囲環境とが接触しないような制御値を決定する。制御値の決定にあたっては、運搬物と周囲環境とが接触する可能性がある範囲の制御用マップを判別して抜き出すことで制御値を決定する。或いは、3次元の制御用マップを床面平面に射影した2次元の制御用マップを用いて制御値を決定する。 The determination unit in the present invention may be any type as long as it determines a control value for controlling the movement of the moving object. For example, a control value that prevents contact between the transported object and the surrounding environment is determined based on the occupancy lattice map stored in the storage unit and the transported object shape input by the first input unit. When determining the control value, the control value is determined by identifying and extracting the control map in the range where there is a possibility of contact between the transported object and the surrounding environment. Alternatively, the control value is determined using a two-dimensional control map obtained by projecting a three-dimensional control map onto the floor plane.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。 The present invention can also be realized by executing the following process. That is, software (programs) that realize the functions of the above-described embodiments are supplied to a system or device via a data communication network or various storage media. The computer (or CPU, MPU, etc.) of the system or device then reads and executes the program. The program may also be provided by recording it on a computer-readable recording medium.

12 移動体システム
15 運搬物
12 Mobile system 15 Transported object

Claims (17)

運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、
前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報と、前記移動体が移動する環境における物体の位置を示す3次元マップから前記運搬物の高さに基づいて生成した2次元マップと、を取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記2次元マップにおける前記運搬物と前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定手段と、を有する、
とを特徴とする情報処理装置。
An information processing device for determining a control value for controlling a position of a moving body that transports an object, comprising:
an acquisition means for acquiring first information capable of identifying a three-dimensional shape of the transported object, second information capable of identifying a distance between the transported object and an object in the environment based on a second image capturing the environment in which the transported object moves, and a two-dimensional map generated based on the height of the transported object from a three-dimensional map showing the positions of objects in the environment in which the transported object moves;
a determination means for determining the control value that prevents the transported object and the object in the two-dimensional map from coming closer than a predetermined distance based on the first information and the second information .
23. An information processing apparatus comprising :
前記取得手段は、前記運搬物を撮像した第1の画像を入力として、前記運搬物の大きさを出力する学習済みモデルに基づいて、前記第1の情報を取得することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the acquisition means acquires the first information based on a trained model that receives a first image of the transported object as an input and outputs a size of the transported object. 前記取得手段は、前記第2の画像に基づいて前記移動体の位置を取得し、
前記決定手段は、前記移動体の位置から予め定められた目的地の位置に到達するための前記制御値を決定することを特徴とする請求項1または2に記載の情報処理装置。
The acquisition means acquires a position of the moving object based on the second image,
3. The information processing apparatus according to claim 1, wherein the determining means determines the control value for reaching a predetermined destination position from a position of the mobile object.
前記第1の情報は、前記運搬物の高さ方向の大きさを示す情報であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, characterized in that the first information is information indicating the size of the transported object in the height direction. 前記決定手段は、前記環境における走行経路上に存在する段差の高さに基づいて、前記3次元マップから2次元マップを生成する際の高さを決定する請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing device according to claim 1 , wherein the determining means determines a height at which to generate the two-dimensional map from the three-dimensional map, based on a height of a step that exists on a travel route in the environment. 前記第1の情報は、前記運搬物が前記移動体から幅方向にはみ出した大きさを示す情報であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, characterized in that the first information is information indicating the extent to which the transported object protrudes from the moving body in the width direction. 前記運搬物を撮像した第1の画像は、前記移動体に搭載された撮像装置によって撮像された画像であること特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 7. The information processing apparatus according to claim 1, wherein the first image of the transported object is an image captured by an imaging device mounted on the moving object. 前記運搬物を撮像した第1の画像は、前記移動体と前記運搬物とを観測可能な位置に設置された撮像装置によって撮像された画像であることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 7. The information processing device according to claim 1, wherein the first image of the transported object is an image captured by an imaging device installed in a position where the moving body and the transported object can be observed. 前記第2の画像は、前記移動体に搭載された撮像装置によって撮像された画像であること特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 8, characterized in that the second image is an image captured by an imaging device mounted on the moving object. 前記環境において前記物体の位置を示す3次元マップを保持する保持手段を更に有し、
前記決定手段は、前記3次元マップに基づいて前記物体が存在しない経路を走行するように前記制御値を決定することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
means for maintaining a three-dimensional map indicating the position of said object in said environment;
10. The information processing apparatus according to claim 1, wherein the determining means determines the control value based on the three-dimensional map so that the vehicle travels along a route on which the object does not exist.
前記取得手段は、前記運搬物を撮像した第1の画像に基づいて前記運搬物の種類を示す情報を取得し、
前記決定手段は、前記運搬物の種類を示す情報に基づいて、前記移動体の位置を制御する制御値を決定することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
The acquisition means acquires information indicating a type of the transported object based on a first image obtained by capturing the transported object ;
11. The information processing apparatus according to claim 1, wherein the determining means determines a control value for controlling a position of the moving object based on information indicating a type of the transported object.
前記取得手段は、前記運搬物を撮像した第1の画像の変化に従って前記第1の情報を更新し、
前記決定手段は、更新された第1の情報に基づいて、前記運搬物の形状が変化した場合には前記運搬物の形状に応じた前記制御値を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
The acquisition means updates the first information according to a change in a first image obtained by capturing the transported object ;
The information processing device according to any one of claims 1 to 11, characterized in that the determination means determines the control value according to the shape of the transported object when the shape of the transported object changes based on the updated first information.
前記決定手段によって決定された前記制御値に基づいて、前記移動体の移動経路を示す表示情報を表示する表示手段を更に有することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 12, further comprising a display means for displaying display information showing the movement path of the moving object based on the control value determined by the determination means. 運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、
前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報と、前記移動体が移動する環境における物体の位置を示す3次元マップから前記運搬物の高さに基づいて生成した2次元マップと、を取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記2次元マップにおける前記運搬物と前記物体とが衝突しない経路を走行する前記制御値を決定する決定手段と、を有する
とを特徴とする情報処理装置。
An information processing device for determining a control value for controlling a position of a moving body that transports an object, comprising:
an acquisition means for acquiring first information capable of identifying a three-dimensional shape of the transported object, second information capable of identifying a distance between the transported object and an object in the environment based on a second image capturing the environment in which the transported object moves , and a two-dimensional map generated based on the height of the transported object from a three-dimensional map showing the positions of objects in the environment in which the transported object moves;
and a determination means for determining the control value for traveling a route in which the transported object and the object in the two-dimensional map do not collide with each other, based on the first information and the second information.
23. An information processing apparatus comprising :
コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means possessed by an information processing device according to any one of claims 1 to 14. 撮像装置と、運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置を有する情報処理システムであって、
前記撮像装置は、前記移動体と前記運搬物とを観測可能な位置に設置されており、
前記情報処理装置は、
前記撮像装置によって前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報を取得し、前記移動体が移動する環境を撮像した第2の画像に基づいて、前記環境における物体と前記移動体との距離を特定可能な第2の情報と、前記移動体が移動する環境における物体の位置を示す3次元マップから前記運搬物の高さに基づいて生成した2次元マップと、を取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記2次元マップにおける前記運搬物と、前記物体とが所定の距離より近づくことを抑制する制御値を決定する決定手段とを有することを特徴とする情報処理システム。
An information processing system having an imaging device and an information processing device that determines a control value for controlling a position of a moving body that transports an object,
the imaging device is installed at a position where the imaging device can observe the moving body and the transported object,
The information processing device includes:
an acquisition means for acquiring first information capable of identifying a three-dimensional shape of the transported object based on a first image captured by the imaging device, and acquiring second information capable of identifying a distance between an object in the environment and the moving object based on a second image captured of the environment in which the moving object moves, and a two-dimensional map generated based on the height of the transported object from a three-dimensional map showing the positions of objects in the environment in which the moving object moves;
An information processing system characterized by having a determination means for determining a control value that prevents the transported item in the two-dimensional map and the object from coming closer than a predetermined distance based on the first information and the second information.
運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理方法であって、
前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報と、前記移動体が移動する環境における物体の位置を示す3次元マップから前記運搬物の高さに基づいて生成した2次元マップとを取得する取得工程と、
前記第1の情報と前記第2の情報に基づいて、前記2次元マップにおける前記運搬物と、前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定工程と、を有する
とを特徴とする情報処理方法。
1. An information processing method for determining a control value for controlling a position of a moving object that transports an object, comprising:
an acquisition process for acquiring first information capable of identifying a three-dimensional shape of the transported object, second information capable of identifying a distance between the moving object and an object in the environment based on a second image capturing the environment in which the moving object moves, and a two-dimensional map generated based on the height of the transported object from a three-dimensional map showing the positions of objects in the environment in which the moving object moves;
and determining the control value for preventing the transported object and the object in the two-dimensional map from coming closer than a predetermined distance based on the first information and the second information.
23. An information processing method comprising:
JP2019134500A 2018-08-30 2019-07-22 Information processing device, information processing method, program, and system Active JP7479799B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/550,074 US11573574B2 (en) 2018-08-30 2019-08-23 Information processing apparatus, information processing method, information processing system, and storage medium
CN201910801597.2A CN110928291B (en) 2018-08-30 2019-08-28 Information processing apparatus, information processing method, information processing system, and storage medium
DE102019123072.1A DE102019123072A1 (en) 2018-08-30 2019-08-28 Information processing device, information processing method, information processing system and storage medium
US18/153,787 US11989029B2 (en) 2018-08-30 2023-01-12 Information processing apparatus, information processing method, information processing system, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018161414 2018-08-30
JP2018161414 2018-08-30

Publications (3)

Publication Number Publication Date
JP2020038631A JP2020038631A (en) 2020-03-12
JP2020038631A5 JP2020038631A5 (en) 2022-07-28
JP7479799B2 true JP7479799B2 (en) 2024-05-09

Family

ID=69738113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134500A Active JP7479799B2 (en) 2018-08-30 2019-07-22 Information processing device, information processing method, program, and system

Country Status (2)

Country Link
JP (1) JP7479799B2 (en)
CN (1) CN110928291B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7503927B2 (en) 2020-03-30 2024-06-21 株式会社フジタ Construction work management system and automatic patrol vehicle
CN111507973B (en) * 2020-04-20 2024-04-12 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium
CN113673276A (en) * 2020-05-13 2021-11-19 广东博智林机器人有限公司 Target object identification docking method and device, electronic equipment and storage medium
JP7347349B2 (en) * 2020-07-07 2023-09-20 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method
JPWO2022145081A1 (en) * 2020-12-28 2022-07-07
CN113496046B (en) * 2021-01-18 2024-05-10 华翼(广东)电商科技有限公司 E-commerce logistics system and method based on block chain
WO2022190461A1 (en) * 2021-03-09 2022-09-15 パナソニックIpマネジメント株式会社 Luggage transport system and transport body
WO2022202056A1 (en) * 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
WO2024009673A1 (en) * 2022-07-06 2024-01-11 株式会社デンソー Vehicle travel device and vehicle travel program
CN117313984A (en) * 2023-08-31 2023-12-29 中国标准化研究院 Grain condition monitoring method, device and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225704A (en) 2007-03-09 2008-09-25 Omron Corp Work evaluation device, work evaluation method and control program
JP2010044530A (en) 2008-08-11 2010-02-25 Hitachi Industrial Equipment Systems Co Ltd Transfer robot system
JP2012022467A (en) 2010-07-13 2012-02-02 Murata Mach Ltd Autonomous mobile body
JP2015068141A (en) 2013-09-30 2015-04-13 株式会社小松製作所 Transport machine
WO2016103452A1 (en) 2014-12-26 2016-06-30 株式会社日立製作所 Transport vehicle and transport system
JP2016218933A (en) 2015-05-26 2016-12-22 株式会社日立産機システム Drive route setting system
JP2017097847A (en) 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519848A (en) * 1991-07-17 1993-01-29 Toshiba Corp Unmanned carriage
JP3252992B2 (en) * 1994-05-20 2002-02-04 株式会社安川電機 Automatic container operation control method
WO2001059638A1 (en) * 2000-02-14 2001-08-16 Canon Kabushiki Kaisha Collecting method by information processor, and ordering method or sale method
CN102332138A (en) * 2011-11-01 2012-01-25 安徽省一一通信息科技有限公司 Electronic commerce logistics system comprising irregular goods sorting system
CN102582599A (en) * 2012-03-07 2012-07-18 浙江吉利汽车研究院有限公司 Vehicle brake control system and vehicle emergency brake avoiding method
US9358975B1 (en) * 2015-04-10 2016-06-07 Google Inc. Virtual moving safety limits for vehicles transporting objects
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
CN106156752B (en) * 2016-07-25 2019-05-14 长安大学 A kind of model recognizing method based on inverse projection three-view diagram
CN107169468A (en) * 2017-05-31 2017-09-15 北京京东尚科信息技术有限公司 Method for controlling a vehicle and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225704A (en) 2007-03-09 2008-09-25 Omron Corp Work evaluation device, work evaluation method and control program
JP2010044530A (en) 2008-08-11 2010-02-25 Hitachi Industrial Equipment Systems Co Ltd Transfer robot system
JP2012022467A (en) 2010-07-13 2012-02-02 Murata Mach Ltd Autonomous mobile body
JP2015068141A (en) 2013-09-30 2015-04-13 株式会社小松製作所 Transport machine
WO2016103452A1 (en) 2014-12-26 2016-06-30 株式会社日立製作所 Transport vehicle and transport system
JP2016218933A (en) 2015-05-26 2016-12-22 株式会社日立産機システム Drive route setting system
JP2017097847A (en) 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method

Also Published As

Publication number Publication date
JP2020038631A (en) 2020-03-12
CN110928291A (en) 2020-03-27
CN110928291B (en) 2023-10-13

Similar Documents

Publication Publication Date Title
JP7479799B2 (en) Information processing device, information processing method, program, and system
US11989029B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
JP7341652B2 (en) Information processing device, information processing method, program, and system
US20240087738A1 (en) Interfacing with a mobile telepresence robot
CN108290294B (en) Mobile robot and control method thereof
Florence et al. Nanomap: Fast, uncertainty-aware proximity queries with lazy search over local 3d data
KR20240063820A (en) Cleaning robot and Method of performing task thereof
US11951629B2 (en) Systems, apparatuses, and methods for cost evaluation and motion planning for robotic devices
US20210072770A1 (en) Multi-sensor-based unmanned aerial vehicle and method for controlling same
CN112631269B (en) Autonomous mobile robot and control program for autonomous mobile robot
US11529736B2 (en) Systems, apparatuses, and methods for detecting escalators
US11931900B2 (en) Method of predicting occupancy of unseen areas for path planning, associated device, and network training method
KR20220161333A (en) Robot obstacle collision prediction and avoidance
WO2022115215A1 (en) Systems and methods for monocular based object detection
Kenk et al. Human-aware Robot Navigation in Logistics Warehouses.
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
KR102249485B1 (en) System and method for autonomously traveling mobile robot
JP2021099383A (en) Information processing apparatus, information processing method, and program
JP2021099384A (en) Information processing apparatus, information processing method, and program
WO2023219058A1 (en) Information processing method, information processing device, and information processing system
TWI827056B (en) Automated moving vehicle and control method thereof
US20230350420A1 (en) Systems and methods for precisely estimating a robotic footprint for execution of near-collision motions
EP4024155B1 (en) Method, system and computer program product of control of unmanned aerial vehicles
EP4369134A1 (en) Method and system for autonomous driving of a swap body transporter, and swap body transporter
WO2023127337A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240424

R150 Certificate of patent or registration of utility model

Ref document number: 7479799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150