JP2024018536A - Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle - Google Patents
Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle Download PDFInfo
- Publication number
- JP2024018536A JP2024018536A JP2022121928A JP2022121928A JP2024018536A JP 2024018536 A JP2024018536 A JP 2024018536A JP 2022121928 A JP2022121928 A JP 2022121928A JP 2022121928 A JP2022121928 A JP 2022121928A JP 2024018536 A JP2024018536 A JP 2024018536A
- Authority
- JP
- Japan
- Prior art keywords
- cargo handling
- handling vehicle
- forklift
- target
- search range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 74
- 238000010586 diagram Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 16
- 238000003780 insertion Methods 0.000 description 12
- 230000037431 insertion Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 3
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 3
- 239000010720 hydraulic oil Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Forklifts And Lifting Vehicles (AREA)
Abstract
Description
本開示は、荷役車両、荷役車両の制御方法、及び荷役車両の制御システムに関する。 The present disclosure relates to a cargo handling vehicle, a cargo handling vehicle control method, and a cargo handling vehicle control system.
荷役車両に係る技術分野において、特許文献1に開示されているような無人フォークリフトが知られている。
In the technical field related to cargo handling vehicles, an unmanned forklift as disclosed in
荷役車両が行う荷役作業には、車両に配置されたフォークで運搬物を取り上げる荷取り作業と、取り上げた運搬物を所定の位置に置く荷置き作業とがある。荷取り作業を行う際に目標とする対象は、運搬物である。一方、荷置き作業を行う際に目標とする対象は、運搬物を荷置きする荷置きスペースである。しかしながら、荷役作業の種別に関わらず検出範囲内に存在する全ての対象を識別した場合、処理の負荷が増加する。このため、荷役作業を行う際に目標とする対象を適切に識別することが望まれる。 Cargo handling operations carried out by a cargo handling vehicle include a loading operation in which the transported object is picked up by a fork disposed on the vehicle, and a loading operation in which the picked up transported object is placed in a predetermined position. The target object when carrying out cargo picking work is the cargo to be transported. On the other hand, when carrying out cargo storage work, the target is a storage space where the transported items are stored. However, if all objects within the detection range are identified regardless of the type of cargo handling work, the processing load will increase. Therefore, it is desirable to appropriately identify the target when carrying out cargo handling work.
本開示の態様は、荷役作業の対象を適切に識別可能な荷役車両、荷役車両の制御方法、及び荷役車両の制御システムを提供することを目的とする。 An object of the present disclosure is to provide a cargo handling vehicle, a cargo handling vehicle control method, and a cargo handling vehicle control system that can appropriately identify the target of cargo handling work.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、コントローラとを備える荷役車両が提供される。コントローラは、物体検出センサからの物体検出データに基づいて、対象を識別する識別部と、対象を識別する方向を特定する方向信号を受信する受信部と、受信部が受信した方向信号に基づいて、対象を識別する方向を決定する決定部と、を備える。識別部は、決定部によって決定された方向に存在する物体から対象を識別する。 According to an aspect of the present disclosure, a cargo handling vehicle is provided that includes an object detection sensor that is attached to the cargo handling vehicle and detects objects existing around the cargo handling vehicle, and a controller. The controller includes an identification section that identifies an object based on object detection data from the object detection sensor, a reception section that receives a direction signal that specifies a direction for identifying the object, and an identification section that receives a direction signal that identifies the direction of the object based on the direction signal received by the reception section. , a determining unit that determines a direction for identifying a target. The identification unit identifies a target from objects existing in the direction determined by the determination unit.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、コントローラとを備えた荷役車両の制御方法が提供される。第1のステップは、受信した方向信号に基づいて、対象を識別する方向を決定する。第2のステップは、物体検出センサからの物体検出データに基づいて、決定された方向に存在する物体から対象を識別する方法が提供される。 According to an aspect of the present disclosure, there is provided a method for controlling a cargo handling vehicle, which includes an object detection sensor that is attached to the cargo handling vehicle and detects objects existing around the cargo handling vehicle, and a controller. The first step is to determine a direction to identify the object based on the received direction signal. In the second step, a method is provided for identifying a target from objects present in a determined direction based on object detection data from an object detection sensor.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、コントローラとを備える荷役車両の制御システムが提供される。コントローラは、物体検出センサからの物体検出データに基づいて、対象を識別する識別部と、対象を識別する方向を特定する方向信号を受信する受信部と、受信部が受信した方向信号に基づいて、対象を識別する方向を決定する決定部と、を備える。識別部は、決定部によって決定された方向に存在する物体から対象を識別する。 According to an aspect of the present disclosure, there is provided a control system for a cargo handling vehicle that includes an object detection sensor that is attached to the cargo handling vehicle and detects objects existing around the cargo handling vehicle, and a controller. The controller includes an identification section that identifies an object based on object detection data from the object detection sensor, a reception section that receives a direction signal that specifies a direction for identifying the object, and an identification section that receives a direction signal that identifies the direction of the object based on the direction signal received by the reception section. , a determining unit that determines a direction for identifying a target. The identification unit identifies a target from objects existing in the direction determined by the determination unit.
本開示の態様によれば、荷役作業の対象を適切に識別可能な荷役車両、荷役車両の制御方法、及び荷役車両の制御システムが提供される。 According to aspects of the present disclosure, there are provided a cargo handling vehicle, a cargo handling vehicle control method, and a cargo handling vehicle control system that can appropriately identify a target of cargo handling work.
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する各実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings, but the present disclosure is not limited thereto. The components of each embodiment described below can be combined as appropriate. Furthermore, some components may not be used.
実施形態においては、左、右、前、後、上、及び下の用語を用いて各部の位置関係について説明する。これらの用語は、荷役車両に規定された車体座標系の原点を基準とする相対位置又は方向を示す。 In the embodiment, the positional relationship of each part will be described using terms such as left, right, front, rear, upper, and lower. These terms indicate a relative position or direction with respect to the origin of the vehicle body coordinate system defined for the cargo handling vehicle.
<荷役車両>
荷役車両1は、荷役車両1の作業現場において、荷役車両1の周辺に存在する物体から対象を識別する。本実施形態においては、荷役車両1を適宜、フォークリフト1、と称する。なお、荷役車両は特に限定されるものではなく、例えば、フォークアタッチメントを取り付け可能なホイールローダであってもよい。
<Cargo handling vehicle>
The
フォークリフト1は、運搬物の荷取り作業及び荷置き作業等の荷役作業を行う。フォークリフト1は、例えば、地面上に置かれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、他の運搬物の上段に積まれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を荷置きスペースに取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を貨物車両の荷台上に取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を地面上に置かれた他の運搬物の上段に取りおろす荷置き作業を行う。
The
対象とは、フォークリフト1の荷役対象である。本実施形態では、対象は、例えば、運搬物、運搬物を載置可能な荷置きスペース、又は、貨物車両の荷台である。
The object is the object to be handled by the
本実施形態では、運搬物は、荷物を積載する荷役台や容器である。運搬物は、例えば、パレットやスキッド、コンテナである。運搬物は、フォーク挿し込み穴を備える。 In this embodiment, the transported object is a loading platform or a container on which cargo is loaded. The conveyed object is, for example, a pallet, a skid, or a container. The conveyed object is equipped with a fork insertion hole.
フォークリフト1は、荷取り作業及び荷置き作業の際に、対象(運搬物、荷置きスペース、又は、貨物車両の荷台)を識別して、フォークリフト1を当該対象に対して自動で正対するように操舵制御が行われる(自動制御機能)。
The
自動制御機能では、フォークリフト1のステアリング操作又は作業機操作の少なくともいずれか一方が自動制御される。本実施形態では、オペレータは、フォークリフト1のアクセル操作を行う。本実施形態では、自動制御開始エリアまで、言い換えると、対象が識別されるまでは、フォークリフト1は、オペレータの操作によりマニュアルで移動する。
In the automatic control function, at least either the steering operation of the
<フォークリフトの全体構成>
図1は、実施形態に係るフォークリフト1を左前方斜め上側から見た斜視図である。フォークリフト1は、車体10と、動力源21と、車体10の前方に配置される作業機2と、車体10を支持する走行装置と、運転室20とを備える。動力源21は、図示しない油圧ポンプを駆動する。動力源21は、例えば、エンジンである。
<Overall configuration of forklift>
FIG. 1 is a perspective view of a
車体10の前方には、運搬物を取り上げるための作業機2が設置されている。作業機2は、マスト14と、支持部131と、フォーク13と、リフトシリンダ15と、チルトシリンダ16と、サイドシフトシリンダ17とを有する。マスト14は、左右軸回りに回転可能に車体10の前方に取り付けられている。マスト14は、車体10に対して前傾姿勢又は後傾姿勢をとることが可能である。支持部131は、マスト14に支持される。支持部131は、マスト14に沿って上下方向に移動可能である。フォーク13は、支持部131を介してマスト14に支持される。フォーク13は、マスト14に沿って昇降する。
A working
リフトシリンダ15は、車体10に対してフォーク13を上下方向に移動させる。チルトシリンダ16は、車体10に対してマスト14を前後方向に傾斜させる。サイドシフトシリンダ17は、車体10に対してフォーク13を左右方向に移動させる。
The
リフトシリンダ15は、マスト14と支持部131との間に配置される。リフトシリンダ15は、支持部131を上下方向に移動することにより、フォーク13を上下方向に移動させる。支持部131とフォーク13とは、上下方向に一緒に移動する。支持部131とフォーク13とは、マスト14に沿って上下方向に移動する。チルトシリンダ16は、車体10とマスト14との間に配置される。チルトシリンダ16は、マスト14を前後方向に傾斜させることにより、フォーク13を前後方向に傾斜させる。
走行装置は、フォークリフト1を走行させる。走行装置は、フォークリフト1の進行、制動、及び操舵を行う。進行とは、フォークリフト1が前進又は後進することをいう。制動とは、フォークリフト1が減速又は停止することをいう。操舵とは、フォークリフト1の走行方向が変更されることをいう。走行装置は、前輪11と、後輪12と、走行モータ22と、図示しないブレーキ装置と、ステアリングシリンダ18とを有する。
The traveling device causes the
前輪11及び後輪12のそれぞれは、車体10を支持する。前輪11の少なくとも一部は、車体10よりも下方に配置される。後輪12の少なくとも一部は、車体10よりも下方に配置される。前輪11は、後輪12よりも前方に配置される。前輪11は、車体10の左側及び右側のそれぞれに配置される。後輪12は、車体10の左側及び右側のそれぞれに配置される。前輪11及び後輪12のそれぞれは、回転軸を中心に回転可能である。
Each of the
走行モータ22は、フォークリフト1を進行させるための駆動力を発生する。走行モータ22は、前輪11を回転させることによって、フォークリフト1を前進又は後進させる。走行モータ22は、図示しない油圧ポンプから吐出される作動油によって駆動する。前輪11は、走行モータ22が発生する回転力により回転する駆動輪である。ブレーキ装置は、フォークリフト1を制動させる。
The travel motor 22 generates driving force for moving the
ステアリングシリンダ18は、フォークリフト1を操舵する。ステアリングシリンダ18は、後輪12を操舵することによって、フォークリフト1の走行方向を変更させる。後輪12は、ステアリングシリンダ18により操舵される操舵輪である。ステアリングシリンダ18は、ステアリング制御弁24を介して供給される作動油によって動作する。
The steering cylinder 18 steers the
表示装置26は、運転室20に配置されている。表示装置26は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。表示装置26は、コントローラ60から送信された画像を表示する。
The display device 26 is arranged in the driver's
操作部27は、フォークリフト1のオペレータによって操作される。操作部27は、運転室20の運転席の周辺に配置される。操作部27は、例えば、自動制御機能の開始(有効)及び終了(無効)を切り替える操作を受け付ける。操作部27は、後述する識別部66によって対象が識別された場合、対象を自動制御機能の対象として決定する操作を受け付ける。操作部27に対して行われた操作は、操作信号(オペレータ指令)としてコントローラ60によって取得される。操作部27は、例えば、複数のボタン、レバー、スイッチ等である。
The operating unit 27 is operated by the operator of the
操作部27は、対象を識別する方向を特定する操作を受け付ける。操作部27は、例えば、フォークリフト1の進行方向の前方に対して右方又は左方のどちらの方向の対象物を識別するかを選択する操作を受け付ける。本実施形態では、操作部27は、記憶部63に記憶された、複数の探索範囲からいずれか1つの探索範囲を選択する操作を受け付ける。操作部27は、例えば、右方又は左方を選択可能なボタン、レバー、スイッチ等である。
The operation unit 27 accepts an operation for specifying a direction in which to identify an object. The operation unit 27 accepts, for example, an operation for selecting whether an object is to be identified, to the right or to the left with respect to the front in the traveling direction of the
運転室20の前方には、ステアリングホイール31が配置される。オペレータは、手でステアリングホイール31を操作して、フォークリフト1を操舵する。
A steering wheel 31 is arranged in front of the driver's
フォークリフト1は、作業機レバー32、前後進切替レバー33、アクセルペダル34、車速センサ35、ステアリング角センサ36、及び、作業機負荷センサ37を備える。作業機レバー32は、フォークリフト1のフォーク13を操作するための操作用の部材である。前後進切替レバー33は、フォークリフト1の進行方向を前方又は後方のいずれか一方に切り替えるための操作用の部材である。アクセルペダル34は、フォークリフト1の走行速度を変更するための操作用の部材である。
The
車速センサ35は、フォークリフト1の車速を検出する。車速センサ35は、検出した車速データをコントローラ60へ送信する。
ステアリング角センサ36は、フォークリフト1のステアリング角を検出する。ステアリング角センサ36は、検出したステアリング角度データをコントローラ60へ送信する。
The
作業機負荷センサ37は、作業機2にかかる負荷を検出する。作業機負荷センサ37は、例えば、作業機2の少なくとも一部に配置された歪ゲージやロードセル等の荷重測定デバイスである。作業機負荷センサ37により検出された負荷データは、コントローラ60へ出力される。なお、作業機2にかかる負荷は、例えば、リフトシリンダ15を駆動させる圧油の圧力を検出する油圧センサを用いて検出してもよい。この場合、運搬物がフォーク13によって支持されている状態と支持されていない状態とで、作業機2に掛かる負荷が変化する。作業機負荷センサ37は、作業機2に掛かる負荷の変化を検出する。
The work
<3次元センサ及びカメラ>
フォークリフト1は、3次元センサ51、カメラ52及びコントローラ60を備える。3次元センサ51、カメラ52及びコントローラ60は、無線又は有線によりデータを通信可能に接続されている。
<3D sensor and camera>
The
3次元センサ51及びカメラ52は、1組としてフォークリフト1に取り付けられている。本実施形態では、フォークリフト1には、4組の3次元センサ51及びカメラ52が配置されている。なお、3次元センサ51及びカメラ52の数は特に限定されるものではなく、例えば、フォークリフト1に2つの3次元センサ51が配置されていてもよいし、4つ以上のカメラ52が配置されていてもよい。
The three-dimensional sensor 51 and camera 52 are attached to the
3次元センサ51は、物体の3次元データを取得する。物体の3次元データは、物体の表面に規定される複数の検出点からなる点群を含む。点群は、3次元センサ51と物体の表面に規定される複数の検出点のそれぞれとの相対距離及び相対位置を示す。3次元センサ51として、レーザ光を射出することにより物体を検出するレーザセンサ(LiDAR:Light Detection and Ranging)が例示される。なお、3次元センサ51は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)でもよい。 The three-dimensional sensor 51 acquires three-dimensional data of an object. The three-dimensional data of an object includes a point group consisting of a plurality of detection points defined on the surface of the object. The point group indicates the relative distance and position between the three-dimensional sensor 51 and each of the plurality of detection points defined on the surface of the object. As the three-dimensional sensor 51, a laser sensor (LiDAR: Light Detection and Ranging) that detects an object by emitting laser light is exemplified. Note that the three-dimensional sensor 51 may be an infrared sensor that detects objects by emitting infrared light or a radar sensor (RADAR: Radio Detection and Ranging) that detects objects by emitting radio waves.
3次元センサ51は、フォークリフト1の周辺に存在する物体を検出する物体検出センサである。3次元センサ51は、フォークリフト1の周辺の対象を検出可能である。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。3次元センサ51は、例えば、数10[m]程度の範囲を検出可能である。3次元センサ51は、フォークリフト1に複数が配置されている。3次元センサ51の少なくとも1つは、運搬物を識別するために運搬物のフォーク挿し込み穴と近い高さに配置されている。3次元センサ51の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、3次元センサ51は、3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514を備える。3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514の区別を特に要しない場合、単に3次元センサ51という。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。
The three-dimensional sensor 51 is an object detection sensor that detects objects existing around the
3次元センサ511は、フォークリフト1の前方の右側方を検出する。3次元センサ511は、前輪11の上方に位置するフェンダ19Rより上方に配置されている。3次元センサ511は、運転室20の前下方の右側方に配置されている。本実施形態では、3次元センサ511は、カメラ521の下方に配置されている。
The three-dimensional sensor 511 detects the front right side of the
3次元センサ512は、フォークリフト1の前方の左側方を検出する。3次元センサ512は、前輪11の上方に位置するフェンダ19Lより上方に配置されている。3次元センサ512は、運転室20の前下方の左側方に配置されている。本実施形態では、3次元センサ512は、カメラ522の下方に配置されている。
The three-dimensional sensor 512 detects the front left side of the
3次元センサ513は、フォークリフト1の積荷時に、フォークリフト1の前方を検出する。3次元センサ513は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の検出範囲が遮られない位置に配置されている。3次元センサ513は、前輪11の上方に位置するフェンダ19L上に配置されている。本実施形態では、3次元センサ513は、カメラ523の下方に配置されている。
The three-dimensional sensor 513 detects the front of the
3次元センサ514は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を検出する。3次元センサ514は、フォークリフト1の空荷時に、フォーク13によって前方の検出範囲が遮られない位置に配置されている。3次元センサ514は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を検出可能な位置に配置されている。3次元センサ514は、車体10の前方中央部の下方に配置されている。3次元センサ514は、フォーク13の後部に配置され車体10に対してフォーク13を支持する支持部131の中央部の下方に配置されている。3次元センサ514は、フォーク13とともに昇降する。本実施形態では、3次元センサ514は、カメラ524の下方に配置されている。
The three-dimensional sensor 514 detects the lower part of the front center of the
図2は、実施形態に係る3次元センサの取付位置及び指向方向を示す概略図である。図2に示す例では、フォークリフト1の右側に、フォークリフト1から近い順に運搬物201R、運搬物202R及び運搬物203Rが配置されている。フォークリフト1の左側に、フォークリフト1から近い順に運搬物201L、運搬物202L及び運搬物203Lが配置されている。符号101は、3次元センサ511の指向方向及び検出範囲を模式的に示す。符号102は、3次元センサ512の指向方向及び検出範囲を模式的に示す。符号103は、3次元センサ513の指向方向及び検出範囲を模式的に示す。符号104は、3次元センサ514の指向方向及び検出範囲を模式的に示す。フォークリフト1は、3次元センサ51は、3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514によりフォークリフト1の前方の全方位を検出可能である。
FIG. 2 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor according to the embodiment. In the example shown in FIG. 2, a transported
カメラ52は、フォークリフト1の周辺に存在する物体を撮像する。本実施形態では、カメラ52は、単眼のカメラである。カメラ52は、光学系と、イメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。カメラ52によって撮像された画像は、フレームレートに応じて、単位時間あたりに複数の画像を含む。
The camera 52 images objects around the
カメラ52は、フォークリフト1の周辺の画像を撮像可能である。カメラ52は、例えば、数10[m]程度の範囲を撮像可能である。カメラ52は、フォークリフト1に複数が配置されている。カメラ52の少なくとも1つは、運搬物を識別するために運搬物のフォーク挿し込み穴と近い高さに配置されている。カメラ52の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、カメラ52は、カメラ521、カメラ522、カメラ523、及びカメラ524を備える。カメラ521、カメラ522、カメラ523、及びカメラ524の区別を特に要しない場合、単にカメラ52という。カメラ52は、撮像した画像データを物体検出データとしてコントローラ60へ送信する。
The camera 52 is capable of capturing images around the
カメラ521は、フォークリフト1の前方の右側方を撮像する。カメラ521は、フェンダ19Rより上方に配置されている。カメラ521は、運転室20の前下方の右側方に配置されている。本実施形態では、カメラ521は、3次元センサ511の上方に配置されている。
The camera 521 images the front right side of the
カメラ522は、フォークリフト1の前方の左側方を撮像する。カメラ522は、フェンダ19Lより上方に配置されている。カメラ522は、運転室20の前下方の左側方に配置されている。本実施形態では、カメラ522は、3次元センサ512の上方に配置されている。
The camera 522 images the front left side of the
カメラ523は、フォークリフト1の積荷時に、フォークリフト1の前方を撮像する。カメラ523は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の撮像範囲が遮られない位置に配置されている。カメラ523は、フェンダ19L上に配置されている。本実施形態では、カメラ523は、3次元センサ513の上方に配置されている。
The camera 523 images the front of the
カメラ524は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を撮像する。カメラ524は、フォークリフト1の空荷時に、フォーク13によって前方の撮像範囲が遮られない位置に配置されている。カメラ524は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を撮像可能な位置に配置されている。カメラ524は、車体10の前方中央部の下方に配置されている。カメラ524は、フォーク13の後部に配置され車体10に対してフォーク13を固定し支持する支持部131の中央部の下方に配置されている。カメラ524は、フォーク13とともに昇降する。本実施形態では、カメラ524は、3次元センサ514の上方に配置されている。
The camera 524 images the lower part of the front center of the
<フォークリフトの制御系>
図3は、実施形態に係るフォークリフトの構成の一例を示す機能ブロック図である。フォークリフト1の制御システム70は、3次元センサ51と、コントローラ60とを備える。コントローラ60は、フォークリフト1の周辺の探索範囲内に存在する物体から対象を識別する。コントローラ60は、物体検出センサとしての3次元センサ51から物体検出データを取得可能である。コントローラ60は、CPU(Central Processing Unit)のような数値演算装置(プロセッサ)を含む。
<Forklift control system>
FIG. 3 is a functional block diagram showing an example of the configuration of the forklift according to the embodiment. The
図4は、実施形態に係るコンピュータシステムの一例を示すブロック図である。コントローラ60は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPUのようなプロセッサ1001と、ROMのような不揮発性メモリ及びRAMのような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のコントローラ60の機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
FIG. 4 is a block diagram illustrating an example of a computer system according to an embodiment.
本実施形態では、コントローラ60は、センサデータ取得部61と、画像取得部62と、記憶部63と、受信部64と、決定部65と、識別部66と、探索部67と、表示制御部69とを備える。
In the present embodiment, the
センサデータ取得部61は、3次元センサ51から物体検出データを取得する。センサデータ取得部61が取得した物体検出データは、例えば、複数の検出点からなる点群である。 The sensor data acquisition unit 61 acquires object detection data from the three-dimensional sensor 51. The object detection data acquired by the sensor data acquisition unit 61 is, for example, a point group consisting of a plurality of detection points.
画像取得部62は、カメラ52が撮像した画像の画像データを取得する。画像取得部62が取得した画像データは、フレームごとの画像データである。 The image acquisition unit 62 acquires image data of an image captured by the camera 52. The image data acquired by the image acquisition unit 62 is image data for each frame.
記憶部63は、RAM、ROM、フラッシュメモリ、及びハードディスクドライブの少なくとも一つを含む。記憶部63は、コントローラ60の処理で使用するデータ等を記憶する。
The storage unit 63 includes at least one of RAM, ROM, flash memory, and hard disk drive. The storage unit 63 stores data and the like used in processing by the
記憶部63は、対象を識別するための対象辞書データ、及びフォークリフト1の車体座標系を基準とした探索範囲を記憶する。本実施形態では、記憶部63は、第1探索範囲と、第1探索範囲と異なる第2探索範囲とを記憶する。第1探索範囲と第2探索範囲との区別を特に要しない場合、単に探索範囲という。
The storage unit 63 stores object dictionary data for identifying objects and a search range based on the vehicle body coordinate system of the
第1探索範囲は、フォークリフト1の進行方向前方に対する右方に存在する物体を検出する範囲である。第2探索範囲は、フォークリフト1の進行方向前方に対する左方に存在する物体を検出する範囲である。
The first search range is a range in which objects present on the right side of the front of the
探索範囲について説明する。フォークリフト1は、対象に正対するための自動操舵制御を行う場合、フォークリフト1の最大曲率等に応じて、切り返しなしで正対できる範囲が限定される。このため、3次元センサ51で検出できる範囲内の全ての対象を識別した場合、切り返しなしで正対ができない対象が含まれることがあり、自動操舵制御を開始しても正対が困難なおそれがある。また、自動制御機能の実行時、複数の対象が識別された場合、オペレータは、複数の対象から正対したい対象を選択する手間が増える。このように、3次元センサ51で検出できる範囲内の対象を全て識別することは、処理負荷の増大だけでなく、利便性の低下を招く。そこで、フォークリフト1が対象に対して切り返しなしで正対可能な範囲に応じて探索範囲を限定する。これにより、自動制御機能の実行時の処理負荷の増加を防ぎ、正対できない対象や複数の対象をオペレータに提示しないようにできる。
The search range will be explained. When the
図5は、実施形態に係る対象を探索する第1探索範囲110を示す模式図である。第1探索範囲110は、フォークリフト1の空荷時に、運搬物200を探索する探索範囲である。第1探索範囲110は、矩形形状である。第1探索範囲110は、前後方向と平行な第1辺110aと、左右方向と平行な第2辺110bを有する。第1探索範囲110の第1辺110aの長さは、Lyである。第1探索範囲110の第2辺110bの長さは、Lxである。
FIG. 5 is a schematic diagram showing a
第1探索範囲110は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、左右方向(図5では左方)に距離Rx離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、第1辺110aの中点が前方に距離Ry離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図5では右側)の第1辺110aと第1辺110aの垂直二等分線との交点の位置とが一致するように設定される。フォークリフト1の車体座標系の原点とは、例えば、前輪11の回転軸と車体10の幅方向中心を通る軸の交点である。フォークリフト1は、車体座標系の原点から左右方向に距離Rx以上、かつ、車体座標の原点から前方に距離Ry以上離間して位置する対象に対して、切り返しなしで正対可能である。
The
本実施形態においては、第1探索範囲110の第1辺110aの長さは、対象である運搬物の正面の幅寸法と等しい。運搬物の正面とは、フォークリフト1が運搬物を取り上げる際に正対する面である。第1探索範囲110の第1辺の長さLyを運搬物の幅と同じとすることで、前後方向に並んだ複数の運搬物のうち1つの運搬物のみが第1探索範囲に入る。このため、複数の運搬物から1つの運搬物のみを識別することができる。本実施形態においては、第1探索範囲110の第2辺110bの長さは、第1辺よりも長く、第1探索範囲110は、長方形状である。
In this embodiment, the length of the
図6は、実施形態に係る対象を探索する第2探索範囲111を示す模式図である。第2探索範囲111は、フォークリフト1の積荷時に、荷置きスペースを探索する探索範囲である。第2探索範囲111は、矩形形状である。第2探索範囲111は、前後方向と平行な第1辺111aと、左右方向と平行な第2辺111bを有する。第2探索範囲111の第1辺111aの長さは、3Ly+2Cyである。第2探索範囲111の第2辺111bの長さは、Lxである。
FIG. 6 is a schematic diagram showing a
第2探索範囲111は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、左右方向(図6では左方)に距離Rx離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、第1辺111aの中点が前方に距離Ry離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図6では右側)の第1辺111aと第1辺111aの垂直二等分線との交点の位置とが一致するように設定される。
The
本実施形態においては、第2探索範囲111の第1辺111aの長さは、第1探索範囲110の第1辺110aの長さよりも長い。図6に示す例では、第2探索範囲111は、領域C、領域F、及び領域Bを含む。領域C、領域F、及び領域Bの前後方向の長さは、Lyである。領域C、領域F、及び領域Bのそれぞれの前後方向の長さは、第1探索範囲110の第1辺110aの長さと等しい。領域Cと領域Fとの間隔、及び領域Fと領域Bとの間隔は、Cyである。Cyは、例えば、運搬物を隣接して載置する場合に必要な間隔である。領域Cは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲である。領域Bは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも前方に位置する。領域Bは、領域Cよりも前方に位置する。領域Fは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも後方に位置する。領域Fは、領域Cよりも後方に位置する。本実施形態においては、第2探索範囲111の第1辺111aの長さは、第2辺111bよりも長く、第2探索範囲111は、長方形状である。
In this embodiment, the length of the
フォークリフト1に搭載されている全ての3次元センサ51からの物体検出データを用いて対象を識別した場合、処理負荷が増大する。自動制御機能の実行時に、例えば、進行方向の左右両方に存在する物体が識別された場合、オペレータは、複数の対象から正対したい対象を選択する手間が増える。このように、フォークリフト1に搭載されている全ての3次元センサ51からの物体検出データを用いて対象を識別することは、処理負荷の増大だけでなく、利便性の低下を招く。そこで、コントローラ60は、対象を識別する方向を決定し、決定された方向に存在する物体から対象を識別する。これにより、自動制御機能の実行時の処理負荷の増加を防ぎ、オペレータが対象を選択する手間を削減することができる。
If a target is identified using object detection data from all three-dimensional sensors 51 mounted on the
図7は、対象の識別する方向を示す概略図である。図7は、第1探索範囲110における右側探索範囲110R及び第1探索範囲110における左側探索範囲110Lを示す。図7に示すように、対象を識別する方向は、フォークリフト1の進行方向の前方に対する右方又は左方である。
FIG. 7 is a schematic diagram showing the direction of object identification. FIG. 7 shows a right
受信部64は、対象を識別する方向を特定する方向信号を受信する。本実施形態では、受信部64は、操作部27から対象を識別する方向を特定する操作信号を受信する。 The receiving unit 64 receives a direction signal specifying a direction for identifying a target. In this embodiment, the receiving unit 64 receives an operation signal from the operation unit 27 that specifies a direction for identifying a target.
決定部65は、受信部64からの方向信号に基づいて、対象を識別する方向を決定する。決定部65は、受信部64が右方を選択する方向信号を受信した場合、フォークリフト1の進行方向の前方に対して右方を、対象を識別する方向として決定する。決定部65は、受信部64が左方を選択する方向信号を受信した場合、フォークリフト1の進行方向の前方に対して左方を、対象を識別する方向として決定する。
The determining unit 65 determines the direction in which the target is to be identified, based on the direction signal from the receiving unit 64. When the receiving unit 64 receives a direction signal that selects the right direction, the determining unit 65 determines the right side with respect to the front in the traveling direction of the
本実施形態では、決定部65は、受信部64が受信した操作部27からの操作信号に基づいて、フォークリフト1の進行方向の前方に対して右方又は左方を、対象を識別する方向として決定する。決定部65は、操作部27からの操作信号に基づいて、複数の探索範囲からいずれか1つの探索範囲を決定してもよい。決定部65は、操作部27からの操作信号に基づいて、右方を選択する操作がされた場合、図7に示す第1探索範囲110における右側探索範囲110Rを探索範囲として決定してもよい。決定部65は、操作部27からの操作信号に基づいて、左方を選択する操作がされた場合、図7に示す第1探索範囲110における左側探索範囲110Lを探索範囲として決定してもよい。
In the present embodiment, the determining unit 65 selects the right or left side with respect to the front in the traveling direction of the
識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。識別部66は、決定部65によって決定された方向に存在する物体から荷役対象となる物体を識別する。識別部66は、探索範囲内の対象のみを識別してもよい。
The
識別部66は、例えば、決定された方向を検出範囲とする3次元センサ51からの物体検出データに基づいて、決定された方向の探索範囲内に存在する物体から対象を識別する。識別部66は、決定された方向と反対方向を検出範囲とする3次元センサ51からの物体検出データはマスクしてもよい。識別部66は、例えば、決定された方向が右方である場合、3次元センサ511からの物体検出データに基づいて、決定された方向の探索範囲内に存在する物体から対象を識別する。この場合、3次元センサ511以外からの物体検出データはマスクする。識別部66は、例えば、決定された方向が左方である場合、3次元センサ512からの物体検出データに基づいて、決定された方向の探索範囲内に存在する物体から対象を識別する。この場合、3次元センサ512以外からの物体検出データはマスクする。
The
本実施形態では、識別部66は、例えば、決定された方向を検出範囲とする、3次元センサ51からの物体検出データのみに基づいて、決定された方向の探索範囲内に存在する物体から対象を識別してもよい。識別部66は、例えば、決定された方向が右方である場合、3次元センサ511からの物体検出データのみに基づいて、探索範囲内に存在する物体から対象を識別する。言い換えると、識別部66は、例えば、決定された方向が右方である場合、3次元センサ511以外からの物体検出データをキャンセルして、探索範囲内に存在する物体から対象を識別する。
In the present embodiment, the
本実施形態では、識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、決定部65が決定した探索範囲内に存在する物体から対象を識別してもよい。識別部66は、例えば、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、決定部65が決定した第1探索範囲内又は第2探索範囲内に存在する物体から対象を識別してもよい。
In this embodiment, the
図8は、実施形態に係る運搬物を識別する方法の一例を示す概略図である。図8に示す運搬物は、例えば、箱形状のパレットである。(a1)は、運搬物に3次元センサ51からレーザ光を照射して得られた物体検出データである点群を示す。(a2)は、(a1)の点群から推定した平面を網掛けして示す。平面は、点群が示す、3次元センサ72と物体の表面に規定される複数の検出点のそれぞれとの相対位置に基づいて推定される。推定された平面は、フォークリフト1が運搬物を取り上げる際にフォークリフト1と正対する面である。(a3)は、(a2)を上下方向視(平面視)に視点を変換した図である。(a3)において、(a2)で推定した平面を破線で示す。(a3)では、(a2)で推定した平面より左方に点群が表れている。楕円で囲んだ点群は、(a2)で推定した平面を通過した点群を示す。言い換えると、楕円で囲んだ点群は、運搬物のフォーク挿し込み穴を通過した点群である。(a4)は、推定した平面と、平面を通過した点群と3次元センサ51の座標系基準とを結ぶ直線との交点を求めた図である。(a5)は、(a4)で求めた交点の位置に点群を補完した図である。(a6)は、推定した平面を正面から見た二値画像に変換した図である。四角で囲んだ部分は、(a5)で補完した点群を示す。識別部66は、記憶部63に記憶された対象辞書データを参照して、補完した点群がフォーク挿し込み穴を示す特徴部であるか否かを判定し、運搬物を識別する。
FIG. 8 is a schematic diagram illustrating an example of a method for identifying a transported object according to an embodiment. The conveyed object shown in FIG. 8 is, for example, a box-shaped pallet. (a1) shows a point group that is object detection data obtained by irradiating a transported object with a laser beam from the three-dimensional sensor 51. (a2) shows the plane estimated from the point group of (a1) by hatching. The plane is estimated based on the relative positions of the three-dimensional sensor 72 and each of the plurality of detection points defined on the surface of the object, which are indicated by the point group. The estimated plane is a plane that directly faces the
例えば、運搬物を一時保管しておく施設では、運搬物が隣接して載置されている。このため、3次元センサ51の物体検出データである点群から、各運搬物を独立した物体として識別することが難しい。しかしながら、各運搬物に設けられたフォーク挿し込み穴を識別することにより、隣接した運搬物群から1つの運搬物を識別することが可能である。 For example, in a facility where transported items are temporarily stored, the transported items are placed adjacent to each other. For this reason, it is difficult to identify each conveyance object as an independent object from the point cloud that is the object detection data of the three-dimensional sensor 51. However, by identifying the fork insertion holes provided in each conveyance, it is possible to identify one conveyance from a group of adjacent conveyances.
次に、識別部66による荷置きスペースの識別について説明する。識別部66は、物体検出センサとしての3次元センサ51からの物体検出データから、識別された対象を基準として、基準から所定範囲内に存在する所定の大きさの空間を探索し、荷置きスペースを識別する。本実施形態では、識別部66は、物体検出データから、探索範囲内に存在する運搬物に基づいて、フォークリフト1が取り上げた運搬物を載置可能な荷置きスペースを識別する。より詳しくは、まず、識別部66は、探索範囲内に存在する運搬物を識別する。そして、識別部66は、識別した運搬物を基準として、基準の運搬物の周囲に存在する、所定の大きさの空間を探索する。言い換えると、探索部67は、識別した運搬物の周囲から、他の運搬物を載置可能な大きさの空間を探索する。
Next, identification of cargo storage spaces by the
図9は、実施形態に係る運搬物200の周囲に存在する荷置きスペースの位置を示す模式図である。運搬物の周囲とは、その運搬物に隣接する位置のことである。図9に示すように、運搬物200の周囲は、運搬物200の前方、運搬物200の後方、運搬物200の右方、及び運搬物200の上方である。所定の大きさの空間とは、例えば、運搬物の寸法以上の大きさを有する空間である。識別部66は、探索範囲内の運搬物を識別し、識別した運搬物の周囲に存在する所定の大きさの空間に基づいて、荷置きスペース140を識別する。識別部66は、第2探索範囲111に位置する運搬物200を基準の運搬物として、第2探索範囲111から基準の運搬物200の周囲に存在する、他の運搬物を載置可能な大きさの空間を探索する。
FIG. 9 is a schematic diagram showing the positions of cargo storage spaces that exist around the transported
本実施形態では、識別部66は、3次元センサ51からの物体検出データを用いて対象の識別を行うが、これに限られない。例えば、他の実施形態においては、識別部66は、カメラ52が撮像した撮像画像から特徴量を抽出し、抽出した特徴量と対象辞書データとに基づいて、撮像画像から対象を識別してもよい。対象の識別方法は、例えば、パターンマッチング、機械学習に基づく識別処理を行ってもよい。
In the present embodiment, the
表示制御部69は、表示装置26に画像を表示させる画像信号を出力する。本実施形態では、表示制御部69は、識別部66によって識別された対象を、カメラ52によって撮像された撮像画像に重畳して表示させる画像信号を出力する。より詳しくは、表示制御部69は、識別部66の識別結果に基づいて、カメラ52によって撮像された撮像画像に、識別した対象の位置に対象の形状を示す想像線を重畳して表示装置26に表示させる画像信号を出力する。
The
表示制御部69は、例えは、カメラ52によって撮像された撮像画像に、識別した運搬物を示す枠線を重畳して表示装置26に表示させる画像信号を出力する。表示制御部69は、例えは、カメラ52によって撮像された撮像画像に、識別した荷置きスペースに載置される運搬物を示す枠線を重畳して表示装置26に表示させる画像信号を出力する。
For example, the
図10-1は、実施形態に係る、対象を識別した場合における、表示装置26の表示の一例を示す模式図である。図10-2は、実施形態に係る、対象を識別した場合における、表示装置26の表示の他の例を示す模式図である。図10-1及び図10-2に示すように、表示装置26の表示部160には、カメラ52によって撮像された画像が表示される。
FIG. 10-1 is a schematic diagram showing an example of a display on the display device 26 when a target is identified, according to the embodiment. FIG. 10-2 is a schematic diagram showing another example of the display on the display device 26 when a target is identified, according to the embodiment. As shown in FIGS. 10-1 and 10-2, an image captured by the camera 52 is displayed on the
図10-1は、フォークリフト1の進行方向の前方に対して右方を、対象を識別する方向として決定し、且つ、対象として運搬物を識別した場合における、表示装置26の表示を示す。図10-2は、フォークリフト1の進行方向の前方に対して左方を、対象を識別する方向として決定し、且つ、対象として運搬物を識別した場合における、表示装置26の表示を示す。表示装置26の表示部160には、カメラ52によって撮像された画像に、識別部66によって識別された運搬物を示す枠線151、152を重畳させた画像が表示される。図10-1及び図10-2に示すように、撮像画像の識別された運搬物の位置に枠線151、152を重畳表示させることにより、オペレータは識別された運搬物を認識できる。
FIG. 10-1 shows the display on the display device 26 when the right side with respect to the front in the traveling direction of the
本実施形態では、表示制御部69は、表示装置26への出力を制御する。表示制御部69は、表示制御部69は、図示しないネットワークを介して、表示装置26へ画像を配信するように制御してもよい。
In this embodiment, the
<基本処理>
図11は、実施形態に係るフォークリフトの制御方法の処理の一例を示すフローチャートである。
<Basic processing>
FIG. 11 is a flowchart illustrating an example of processing of the forklift control method according to the embodiment.
コントローラ60は、対象を識別する方向を特定する方向信号を受信する(ステップST11)。より詳しくは、コントローラ60は、受信部64によって、操作部27から対象を識別する方向を特定する操作信号を受信する。コントローラ60は、ステップST12へ進む。
The
コントローラ60は、対象を識別する方向を決定する(ステップST12)。より詳しくは、コントローラ60は、決定部65によって、受信部64が受信した方向信号に基づいて、対象を識別する方向を決定する。コントローラ60は、ステップST13へ進む。
The
コントローラ60は、選択された方向の対象を探索する(ステップST13)。より詳しくは、コントローラ60は、識別部66によって、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、選択された方向の探索範囲内に存在する物体から対象を識別する。本実施形態では、探索範囲内から探索する対象は、運搬物、荷置きスペース又は貨物車両の荷台である。コントローラ60は、ステップST14へ進む。
The
コントローラ60は、選択された方向の探索範囲内に対象が識別されたか否かを判定する(ステップST14)。より詳しくは、コントローラ60は、識別部66によって、物体検出データから、選択された方向の探索範囲内に存在する運搬物、荷置きスペース又は貨物車両の荷台が識別されたか否かを判定する。コントローラ60は、識別部66によって、選択された方向の探索範囲内に存在する物体から対象が識別された場合(ステップST14でYes)、ステップST15へ進む。コントローラ60は、識別部66によって、選択された方向の探索範囲内に存在する物体から対象が識別されていない場合(ステップST14でNo)、ステップST13の処理を再度実行する。
The
コントローラ60は、識別した対象をオペレータが選択したか否かを判定する(ステップST15)。より詳しくは、コントローラ60は、操作部27からの選択操作を受信したか否かを判定する。コントローラ60は、操作部27からの選択操作を受信した場合(ステップST15でYes)、ステップST16へ進む。コントローラ60は、操作部27からの選択操作を受信しなかった場合(ステップST15でNo)、ステップST13の処理を再度実行する。
The
コントローラ60は、選択した対象を、荷役作業を行う目標として特定する(ステップST16)。より詳しくは、コントローラ60は、操作部27からの選択操作に基づいて、オペレータが選択した対象を、荷役作業を行う目標として特定する。コントローラ60は、ステップST17へ進む。
The
コントローラ60は、車体座標系の原点から目標までの距離を検出する(ステップST17)。コントローラ60は、ステップST18へ進む。
The
コントローラ60は、目標までの経路を生成する(ステップST18)。コントローラ60は、ステップST19へ進む。
The
コントローラ60は、経路を追従するように制御する(ステップST19)。より詳しくは、コントローラ60は、経路を追従して走行するようにフォークリフト1を制御する。コントローラ60は、走行装置を制御する。本実施形態では、コントローラ60は、ステアリング制御弁24を介して、ステアリングシリンダ18を制御する。コントローラ60は、ステップST18へ進む。
The
コントローラ60は、車両と目標とが正対したか否かを判定する(ステップST20)。コントローラ60は、車両と目標とが正対したと判定する場合(ステップST20でYes)、処理を終了する。コントローラ60は、車両と目標とが正対したと判定しない場合(ステップST20でNo)、ステップST19の処理を再度実行する。
The
<効果>
以上説明したように、本実施形態では、受信部64が受信した対象を識別する方向を特定する方向信号に基づいて、対象を識別する方向を決定する。本実施形態では、決定された方向を検出範囲に含む、3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。本実施形態によれば、決定された方向の探索範囲内に限定して識別処理を行うことにより、処理負荷を軽減することができる。
<Effect>
As described above, in this embodiment, the direction for identifying the target is determined based on the direction signal for identifying the direction for identifying the target, which is received by the receiving unit 64. In this embodiment, a target is identified from objects existing within the search range based on object detection data from the three-dimensional sensor 51 whose detection range includes the determined direction. According to this embodiment, the processing load can be reduced by performing the identification process only within the search range in the determined direction.
本実施形態では、受信部64が受信した方向信号に基づいて、進行方向に対する右方又は左方のどちらの方向から対象を識別するかを決定することができる。本実施形態によれば、オペレータが荷役作業を所望する方向と異なる方向に存在する物体から対象が識別されることを避け、オペレータが荷役作業を所望する方向のみに存在する物体から対象を識別することができる。本実施形態によれば、オペレータが対象を選択する手間を削減することができる。 In this embodiment, based on the direction signal received by the receiving unit 64, it is possible to determine from which direction the object should be identified, the right or the left with respect to the direction of travel. According to the present embodiment, an object is prevented from being identified from objects existing in a direction different from the direction in which the operator desires cargo handling work, and a target is identified from objects existing only in the direction in which the operator desires cargo handling work. be able to. According to this embodiment, it is possible to reduce the effort required by the operator to select a target.
本実施形態では、決定された方向に存在する物体から対象を識別する。本実施形態によれば、決定された方向に存在する物体から対象を識別することにより、処理負荷を軽減することができる。 In this embodiment, a target is identified from objects existing in a determined direction. According to this embodiment, the processing load can be reduced by identifying a target from objects existing in a determined direction.
本実施形態では、操作部27からの操作信号に基づいて、右側探索範囲110Rと左側探索範囲110Lから1つの探索範囲を決定する。本実施形態では、決定した右側探索範囲110R又は左側探索範囲110L内に存在する物体から対象を識別する。本実施形態によれば、決定された方向の探索範囲内に限定して識別処理を行うことにより、処理負荷を軽減することができる。
In this embodiment, one search range is determined from the
本実施形態では、受信部64は、操作部27から出力される方向信号を受信する。本実施形態によれば、オペレータによって操作された操作信号(オペレータ指令)を適切に受信することができる。 In this embodiment, the receiving section 64 receives the direction signal output from the operating section 27. According to this embodiment, an operation signal (operator command) operated by an operator can be appropriately received.
<変形例>
図12は、変形例に係る遠隔で操作されるフォークリフトの構成の一例を示す機能ブロック図である。上述の実施形態においては、表示装置26及び操作部27は、運転室20に配置されているものとして説明したが、これに限定されない。図12に示すように、表示装置26及び操作部27は、例えば、フォークリフト1から離れた、遠隔に位置する監視室等に配置された遠隔操作装置71及び遠隔表示装置72であってもよい。
<Modified example>
FIG. 12 is a functional block diagram showing an example of the configuration of a remotely operated forklift according to a modification. In the above-described embodiment, the display device 26 and the operation unit 27 have been described as being disposed in the driver's
上述の実施形態においては、自動制御機能では、オペレータは、フォークリフト1のアクセル操作を行うこととしたが、これに限定されない。自動制御機能では、コントローラ60は、フォークリフト1の進行及び制動を制御してもよい。
In the above-described embodiment, the automatic control function requires the operator to operate the accelerator of the
上述の実施形態においては、自動制御開始エリアまで、言い換えると、対象が識別されるまでは、フォークリフト1は、オペレータの操作によりマニュアルで移動するとしたが、これに限定されない。例えば、フォークリフト1は、自車位置を検出するために衛星測位システム(GNSS:Global Navigation Satellite System)等を備え、対象の位置情報を含む地図データと自車位置とを参照しながら目的の対象まで自動で走行してもよい。
In the above-described embodiment, the
上述の実施形態においては、受信部64は、操作部27から対象を識別する方向を特定する操作信号を受信するとしたが、これに限定されない。コントローラ60は、例えば、対象の位置情報を含む地図データと、自車位置及び方位とに基づいて、対象を識別する方向を特定する方向信号を生成し、受信部64が当該方向信号を受信してもよい。
In the above-described embodiment, the reception unit 64 receives the operation signal specifying the direction in which the object is to be identified from the operation unit 27, but the present invention is not limited thereto. For example, the
1…フォークリフト(荷役車両)、10…車体、11…前輪、12…後輪、13…フォーク、14…マスト、15…リフトシリンダ、16…チルトシリンダ、17…サイドシフトシリンダ、18…ステアリングシリンダ、20…運転室、21…動力源、22…走行モータ、23…作業機制御弁、24…ステアリング制御弁、26…表示装置、27…操作部、31…ステアリングホイール、32…作業機レバー、33…前後進切替レバー、34…アクセルペダル、35…車速センサ、36…ステアリング角センサ、37…作業機負荷センサ(積荷検出センサ)、51…3次元センサ(物体検出センサ)、52…カメラ、60…コントローラ、61…センサデータ取得部、62…画像取得部、63…記憶部、64…受信部、65…決定部、66…識別部、67…探索部、69…表示制御部。 1... Forklift (cargo handling vehicle), 10... Vehicle body, 11... Front wheel, 12... Rear wheel, 13... Fork, 14... Mast, 15... Lift cylinder, 16... Tilt cylinder, 17... Side shift cylinder, 18... Steering cylinder, 20... Driver's cab, 21... Power source, 22... Travel motor, 23... Work equipment control valve, 24... Steering control valve, 26... Display device, 27... Operating unit, 31... Steering wheel, 32... Work equipment lever, 33 ... Forward/forward switching lever, 34... Accelerator pedal, 35... Vehicle speed sensor, 36... Steering angle sensor, 37... Work equipment load sensor (load detection sensor), 51... Three-dimensional sensor (object detection sensor), 52... Camera, 60 ...Controller, 61...Sensor data acquisition section, 62...Image acquisition section, 63...Storage section, 64...Receiving section, 65...Determination section, 66...Identification section, 67...Searching section, 69...Display control section.
Claims (6)
コントローラと、
を備え、
前記コントローラは、
前記物体検出センサからの物体検出データに基づいて、対象を識別する識別部と、
前記対象を識別する方向を特定する方向信号を受信する受信部と、
前記受信部が受信した方向信号に基づいて、対象を識別する方向を決定する決定部と、
を備え、
前記識別部は、前記決定部によって決定された前記方向に存在する物体から前記対象を識別する、荷役車両。 an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
controller and
Equipped with
The controller includes:
an identification unit that identifies a target based on object detection data from the object detection sensor;
a receiving unit that receives a direction signal that specifies a direction for identifying the target;
a determining unit that determines a direction for identifying a target based on a direction signal received by the receiving unit;
Equipped with
In the cargo handling vehicle, the identification unit identifies the object from objects existing in the direction determined by the determination unit.
請求項1に記載の荷役車両。 The direction in which the object is identified is to the right or to the left with respect to the traveling direction of the cargo handling vehicle,
The cargo handling vehicle according to claim 1.
前記荷役車両の車体座標系を基準とした複数の探索範囲を記憶する記憶部を備え、
前記複数の探索範囲は、前記荷役車両の進行方向に対する右方に存在する物体を検出する右側探索範囲と、前記荷役車両の進行方向に対する左方に存在する物体を検出する左側探索範囲とを含み、
前記決定部は、前記方向信号に基づいて、前記複数の探索範囲からいずれか1つの探索範囲を決定し、
前記識別部は、前記物体検出データに基づいて、前記決定部が決定した探索範囲内に存在する物体から対象を識別する、
請求項1に記載の荷役車両。 The controller includes:
comprising a storage unit that stores a plurality of search ranges based on the vehicle body coordinate system of the cargo handling vehicle,
The plurality of search ranges include a right side search range for detecting an object existing on the right side with respect to the traveling direction of the cargo handling vehicle, and a left side search range for detecting an object existing on the left side with respect to the traveling direction of the cargo handling vehicle. ,
The determining unit determines any one search range from the plurality of search ranges based on the direction signal,
The identification unit identifies a target from objects existing within the search range determined by the determination unit based on the object detection data.
The cargo handling vehicle according to claim 1.
前記受信部は、前記操作部から出力される前記方向信号を受信する
請求項1に記載の荷役車両。 Equipped with an operation section operated by an operator,
The cargo handling vehicle according to claim 1, wherein the receiving section receives the direction signal output from the operating section.
コントローラと、
を備えた荷役車両の制御方法であって、
受信した方向信号に基づいて、対象を識別する方向を決定し、
前記物体検出センサからの物体検出データに基づいて、決定された前記方向に存在する物体から前記対象を識別する
荷役車両の制御方法。 an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
controller and
A method for controlling a cargo handling vehicle, comprising:
determining a direction for identifying a target based on the received direction signal;
A method for controlling a cargo handling vehicle, wherein the target is identified from objects existing in the determined direction based on object detection data from the object detection sensor.
コントローラと、
を備え、
前記コントローラは、
前記物体検出センサからの物体検出データに基づいて、対象を識別する識別部と、
前記対象を識別する方向を特定する方向信号を受信する受信部と、
前記受信部が受信した方向信号に基づいて、対象を識別する方向を決定する決定部と、
を備え、
前記識別部は、前記決定部によって決定された前記方向に存在する物体から前記対象を識別する、荷役車両の制御システム。 an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
controller and
Equipped with
The controller includes:
an identification unit that identifies a target based on object detection data from the object detection sensor;
a receiving unit that receives a direction signal that specifies a direction for identifying the target;
a determining unit that determines a direction for identifying a target based on a direction signal received by the receiving unit;
Equipped with
The identification unit is a control system for a cargo handling vehicle that identifies the object from objects existing in the direction determined by the determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022121928A JP2024018536A (en) | 2022-07-29 | 2022-07-29 | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022121928A JP2024018536A (en) | 2022-07-29 | 2022-07-29 | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024018536A true JP2024018536A (en) | 2024-02-08 |
Family
ID=89807864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022121928A Pending JP2024018536A (en) | 2022-07-29 | 2022-07-29 | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024018536A (en) |
-
2022
- 2022-07-29 JP JP2022121928A patent/JP2024018536A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9828223B2 (en) | Fork-lift truck and method for operating a fork-lift truck | |
US8108090B2 (en) | Straddle carrier with automatic steering | |
WO2016051526A1 (en) | Traveling controlling method and system for unmanned transportation vehicle | |
JP6529595B2 (en) | Control system for transport vehicle, transport vehicle, and control method for transport vehicle | |
JP2018116609A (en) | Work vehicle | |
US20210333791A1 (en) | Terminal, control system, control method, and program | |
JP7215394B2 (en) | Operation support device for cargo handling vehicle | |
JP7426881B2 (en) | Cargo handling support system | |
US11299376B2 (en) | Method for the positionally accurate receiving and depositing of a container using a gantry stacker and gantry stacker for this purpose | |
JP2024018536A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
JP7216582B2 (en) | Vehicle cruise control system | |
CN112978632A (en) | Operator vehicle with auxiliary centering device | |
JP2024018510A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
JP2024033761A (en) | System and method for controlling cargo handling vehicle and cargo handling vehicle | |
JP2024018535A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
JP7453954B2 (en) | automatic driving system | |
JP7135883B2 (en) | Mobile body running system | |
JP2023154902A (en) | Obstacle detection device and traveling control device | |
JP2024034407A (en) | System and method to control cargo handling vehicle | |
JP2024033370A (en) | System and method for controlling cargo handling vehicle | |
JP2024034406A (en) | System and method to control cargo handling vehicle | |
JP2024033377A (en) | System and method for controlling cargo handling vehicle | |
CN114859768A (en) | System and method for remote operation of a work machine including an implement | |
EP4317049A1 (en) | Industrial truck autonomous or assisted driving using marker detection | |
JP2023176620A (en) | cargo handling vehicle |