JP7497951B2 - Guidance System - Google Patents

Guidance System Download PDF

Info

Publication number
JP7497951B2
JP7497951B2 JP2022111311A JP2022111311A JP7497951B2 JP 7497951 B2 JP7497951 B2 JP 7497951B2 JP 2022111311 A JP2022111311 A JP 2022111311A JP 2022111311 A JP2022111311 A JP 2022111311A JP 7497951 B2 JP7497951 B2 JP 7497951B2
Authority
JP
Japan
Prior art keywords
unmanned aerial
aerial vehicle
vehicle
distance
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022111311A
Other languages
Japanese (ja)
Other versions
JP2024009634A (en
Inventor
彰 卯路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2022111311A priority Critical patent/JP7497951B2/en
Publication of JP2024009634A publication Critical patent/JP2024009634A/en
Application granted granted Critical
Publication of JP7497951B2 publication Critical patent/JP7497951B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、無人飛行体と有人搬送車とを備えた誘導システムに関する。 The present invention relates to a guidance system that includes an unmanned aerial vehicle and a manned guided vehicle.

工場や倉庫内で使用される有人搬送車は、オペレータが操作することで動作するように構成されている。有人搬送車は、例えば、フォークリフトからなる。フォークリフトは、フォークを使って荷役するように構成されている。 Manned guided vehicles used in factories and warehouses are configured to operate when operated by an operator. An example of a manned guided vehicle is a forklift. The forklift is configured to use forks to handle cargo.

ところで、ホバリング可能な1つの無人飛行体と、有人搬送車と、無人飛行体を制御する管理装置と、を備えた誘導システムが知られている(特許文献1等参照)。 Incidentally, a guidance system is known that includes an unmanned aerial vehicle capable of hovering, a manned guided vehicle, and a management device that controls the unmanned aerial vehicle (see Patent Document 1, etc.).

無人飛行体は、路面に対して誘導画像を投影するプロジェクタを備えている。誘導画像は、例えば、特定した方向を指し示す矢印であって、有人搬送車の前方の路面に投影される。これにより、有人搬送車を操作中のオペレータは、誘導画像を確認することで、荷役位置に誘導されるように構成されている。 The unmanned aerial vehicle is equipped with a projector that projects a guidance image onto the road surface. The guidance image is, for example, an arrow pointing in a specific direction, and is projected onto the road surface in front of the manned guided vehicle. This allows an operator operating the manned guided vehicle to be guided to the loading position by checking the guidance image.

ところで、従来の誘導システムでは、1つの無人飛行体が有人搬送車を誘導するので、有人搬送車を操作するオペレータが荷役位置までの距離および方向等を直感的に認識することが難しいという問題がある。 However, in conventional guidance systems, a single unmanned aerial vehicle guides a manned guided vehicle, which creates the problem that it is difficult for the operator of the manned guided vehicle to intuitively recognize the distance and direction to the loading position.

特開2020-52629号公報JP 2020-52629 A

そこで、本発明が解決しようとする課題は、無人飛行体を使用して有人搬送車を誘導するとともに、オペレータに荷役位置までの距離および方向等を直感的に認識させることができる誘導システムを提供することにある。 The problem that this invention aims to solve is to provide a guidance system that uses an unmanned aerial vehicle to guide a manned transport vehicle and allows the operator to intuitively recognize the distance and direction to the loading position.

上記課題を解決するために、本発明に係る誘導システムは、
ホバリング可能な複数の無人飛行体と、
有人搬送車と、
管理装置と、を備える誘導システムであって、
無人飛行体は、光もしくは画像またはその両方を投影する投影部を有し、
管理装置は、施設マップおよび荷役位置を記憶する記憶部と、
有人搬送車の位置と、荷役位置と、施設マップとに基づいて、有人搬送車を荷役位置に誘導するためのルートを決定するルート決定部と、
決定されたルートから所定の範囲以内に各無人飛行体の配置位置を決定する配置決定部と、を有し、
複数の無人飛行体は、配置位置でホバリングしながら光もしくは画像またはその両方をルート上に投影して有人搬送車を誘導する、ことを特徴とする。
In order to solve the above problems, the guidance system according to the present invention comprises:
A plurality of unmanned aerial vehicles capable of hovering;
A manned transport vehicle,
A guidance system comprising:
The unmanned aerial vehicle has a projection unit that projects light or an image or both;
The management device includes a storage unit that stores a facility map and a loading/unloading position;
a route determination unit that determines a route for guiding the manned guided vehicle to the loading position based on a position of the manned guided vehicle, the loading position, and a facility map;
A placement determination unit that determines a placement position of each unmanned aerial vehicle within a predetermined range from the determined route,
The multiple unmanned aerial vehicles are characterized by hovering at their deployed locations and projecting light, images, or both, along the route to guide the manned transport vehicle.

上記誘導システムは、好ましくは、
配置決定部が、無人飛行体の配置位置を、ルートからルートに直交する第1水平距離以内の位置、かつ、隣接する別の無人飛行体からルートに直交する第2水平距離以上離した位置に決定する。
The guidance system preferably comprises:
A placement determination unit determines the placement position of the unmanned aerial vehicle to be within a first horizontal distance from the route perpendicular to the route and at least a second horizontal distance away from another adjacent unmanned aerial vehicle perpendicular to the route.

上記誘導システムは、好ましくは、
配置決定部が、さらに、無人飛行体の配置位置を隣接する別の無人飛行体からルート方向に第3水平距離以上離した位置に決定する。
The guidance system preferably comprises:
The placement determination unit further determines the placement position of the unmanned aerial vehicle to be a position that is a third horizontal distance or more away from another adjacent unmanned aerial vehicle in the route direction.

上記誘導システムは、好ましくは、
配置決定部が、無人飛行体の配置位置を複数の無人飛行体間のルート方向における水平距離が一定になる位置に決定する。
The guidance system preferably comprises:
A placement determination unit determines the placement positions of the unmanned aerial vehicles so that the horizontal distance between the multiple unmanned aerial vehicles in the route direction is constant.

上記誘導システムは、好ましくは、
配置決定部が、無人飛行体の配置位置を、有人搬送車のオペレータの頭部位置より高く地面から第1垂直距離以内の位置、かつ、隣接する別の無人飛行体から第2垂直距離以上離した位置に決定する。
The guidance system preferably comprises:
The placement determination unit determines the placement position of the unmanned aerial vehicle to be a position higher than the head position of the operator of the manned transport vehicle and within a first vertical distance from the ground, and at least a second vertical distance away from another adjacent unmanned aerial vehicle.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
投影制御部は、有人搬送車とルート方向における水平距離が所定距離以内になった無人飛行体の投影を停止させる。
The guidance system preferably comprises:
The management device further includes a projection control unit,
The projection control unit stops the projection of the unmanned aerial vehicle when the horizontal distance in the route direction from the manned guided vehicle becomes within a predetermined distance.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
有人搬送車が、複数であって、配置決定部は、複数の有人搬送車のルートが重なるとき、一方の有人搬送車を停止させることを決定し、
投影制御部は、停止させる方の有人搬送車を誘導していた複数の無人飛行体のうち、少なくとも1つの無人飛行体が投影する光または画像の色を特定の色に変更する。
The guidance system preferably comprises:
The management device further includes a projection control unit,
When there are a plurality of manned guided vehicles, the placement determination unit determines to stop one of the manned guided vehicles when the routes of the plurality of manned guided vehicles overlap;
The projection control unit changes the color of the light or image projected by at least one of the multiple unmanned aerial vehicles that were guiding the manned guided vehicle that was to be stopped to a specific color.

上記誘導システムは、好ましくは、
スピーカと、スピーカを無人飛行体の方角に向ける角度変更部とを有するノイズキャンセル部をさらに備え、
スピーカは、無人飛行体が発する騒音と逆位相の音声信号を無人飛行体に向けて発する。
The guidance system preferably comprises:
Further comprising a noise canceling unit having a speaker and an angle changing unit that faces the speaker toward the unmanned aerial vehicle;
The speaker emits an audio signal toward the unmanned aerial vehicle that is in phase opposite to the noise emitted by the unmanned aerial vehicle.

上記誘導システムは、好ましくは、
ノイズキャンセル部が、マイクをさらに有し、
管理装置が、マイクが集音した無人飛行体の騒音と、無人飛行体の数と、無人飛行体の位置と、マイクと無人飛行体との距離と、スピーカと無人飛行体との距離と、を入力データとし、無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイクが集音した無人飛行体の騒音と、無人飛行体の数と、無人飛行体の位置と、マイクと無人飛行体との距離と、スピーカと無人飛行体との距離と、を入力されると、無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
スピーカが、ニューラルネットによって生成された音声信号を無人飛行体に向けて発する。
The guidance system preferably comprises:
The noise cancellation unit further includes a microphone,
the management device has as input data the noise of the unmanned aerial vehicle picked up by the microphone, the number of the unmanned aerial vehicles, the position of the unmanned aerial vehicle, the distance between the microphone and the unmanned aerial vehicle, and the distance between the speaker and the unmanned aerial vehicle, and is trained using teacher data that has as output data an audio signal in the opposite phase to the noise of the unmanned aerial vehicle, and further has a neural network configured to generate an audio signal in the opposite phase to cancel out the noise of the unmanned aerial vehicle when the noise of the unmanned aerial vehicle picked up by the microphone, the number of the unmanned aerial vehicle, the position of the unmanned aerial vehicle, the distance between the microphone and the unmanned aerial vehicle, and the distance between the speaker and the unmanned aerial vehicle are input;
A speaker emits audio signals generated by the neural net toward the unmanned air vehicle.

上記誘導システムは、好ましくは、
ノイズキャンセル部が、指向性を有するマイクをさらに有し、
角度変更部が、さらに、マイクを無人飛行体の方角に向けるよう構成されており、
管理装置が、マイクが集音した無人飛行体の騒音と、無人飛行体とマイクとの距離と、無人飛行体とスピーカとの距離と、を入力データとし、無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイクが集音した無人飛行体の騒音と、無人飛行体とマイクとの距離と、無人飛行体とスピーカとの距離と、を入力されると、マイクが向けられた無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
スピーカは、ニューラルネットによって生成された音声信号を無人飛行体に向けて発する。
The guidance system preferably comprises:
the noise cancellation unit further includes a directional microphone;
The angle changing unit is further configured to orient the microphone toward the unmanned aerial vehicle;
the management device is trained using teacher data in which the noise of the unmanned aerial vehicle collected by the microphone, the distance between the unmanned aerial vehicle and the microphone, and the distance between the unmanned aerial vehicle and the speaker are input data, and an audio signal in the opposite phase to the noise of the unmanned aerial vehicle is output data, and the management device further includes a neural network configured to generate an audio signal in the opposite phase to cancel out the noise of the unmanned aerial vehicle at which the microphone is pointed, when the noise of the unmanned aerial vehicle collected by the microphone, the distance between the unmanned aerial vehicle and the microphone, and the distance between the unmanned aerial vehicle and the speaker are input;
The speaker emits an audio signal generated by the neural net toward the unmanned air vehicle.

上記誘導システムは、オペレータに荷役位置までの距離および方向等を直感的に認識させることができる。 The above guidance system allows the operator to intuitively recognize the distance and direction to the loading position.

本発明の一実施形態に係る誘導システムの斜視図である。FIG. 1 is a perspective view of a guidance system according to an embodiment of the present invention. 誘導システムを示し、Aは側面図であり、Bは平面図である。1A and 1B show a guidance system, in which A is a side view and B is a plan view. 誘導システムの機能ブロック図である。FIG. 2 is a functional block diagram of the guidance system. 無人飛行体の斜視図である。FIG. 2 is a perspective view of an unmanned aerial vehicle. 誘導画像を示す平面図である。FIG. 配置位置決定部による無人飛行体の配置方法を示し、Aは側面図であり、Bは平面図である。1 shows a method for placing an unmanned aerial vehicle by the placement position determination unit, where A is a side view and B is a plan view. Aは無人飛行体に投影された光の像の例を示し、Bは無人飛行体に投影された別の光の像の例を示す。A shows an example of a light image projected onto an unmanned aerial vehicle, and B shows an example of another light image projected onto an unmanned aerial vehicle. AおよびBは、無人飛行体の高さの別の例を示す側面図である。1A and 1B are side views showing another example of the height of an unmanned aerial vehicle. AおよびBは、無人飛行体の高さのさらに別の例を示す側面図である。13A and 13B are side views showing yet another example of the height of an unmanned aerial vehicle.

以下、図面を参照しつつ、本発明に係る誘導システムの一実施形態について説明する。X方向、Y方向およびZ方向は互いに直交する方向である。 Below, an embodiment of a guidance system according to the present invention will be described with reference to the drawings. The X direction, Y direction, and Z direction are mutually orthogonal.

図1は、本発明の一実施形態に係る誘導システムSを示す斜視図である。また、図2は、図1に示された誘導システムSを示し、図2Aは側面図であり、図2Bは平面図である。図3は、誘導システムSの機能ブロック図である。図1および図2に示すように、誘導システムSは、有人搬送車1と、無人飛行体2(2a、2b、2c、2d)と、管理装置3と、ノイズキャンセル部4とを備えている。無人飛行体2は、9つ示されているが、本発明における無人飛行体2の数はこれに限定されない。棚R1には有人搬送車1の搬送対象である荷Wが載置されている。以下では、荷Wが載置されている位置、または、これから荷Wが載置される位置を「載置位置」という。 Figure 1 is a perspective view showing a guidance system S according to one embodiment of the present invention. Also, Figure 2 shows the guidance system S shown in Figure 1, with Figure 2A being a side view and Figure 2B being a plan view. Figure 3 is a functional block diagram of the guidance system S. As shown in Figures 1 and 2, the guidance system S includes a manned guided vehicle 1, an unmanned aerial vehicle 2 (2a, 2b, 2c, 2d), a management device 3, and a noise cancellation unit 4. Although nine unmanned aerial vehicles 2 are shown, the number of unmanned aerial vehicles 2 in the present invention is not limited to this. A load W to be transported by the manned guided vehicle 1 is placed on the shelf R1. Hereinafter, the position where the load W is placed, or the position where the load W will be placed, is referred to as the "loading position".

<有人搬送車>
図1に示すように、有人搬送車1は、車体10と、車体10の前方に配置されたフォーク11と、を備えている。オペレータOは、荷Wをフォーク11によってすくい上げて搬送する。有人搬送車1は、管理装置3と通信可能に構成されている。
<Manned transport vehicle>
1, the manned guided vehicle 1 includes a vehicle body 10 and a fork 11 disposed at the front of the vehicle body 10. An operator O scoops up a load W with the fork 11 and transports it. The manned guided vehicle 1 is configured to be able to communicate with a management device 3.

図3に示すように、有人搬送車1は、さらに、位置検出部12を備えている。位置検出部12は、有人搬送車1の位置を検出するとともに、検出した有人搬送車1の位置を管理装置3に送信する。 As shown in FIG. 3, the manned guided vehicle 1 further includes a position detection unit 12. The position detection unit 12 detects the position of the manned guided vehicle 1 and transmits the detected position of the manned guided vehicle 1 to the management device 3.

有人搬送車1は、オペレータOによって操作されるフォークリフトであるが、単なる一例であって、本発明に係る有人搬送車1はこのフォークリフトに限定されない。有人搬送車1は、例えば、有人無人兼用のフォークリフトであってもよく、この場合、自律して動作する無人モードと、オペレータOの操作によって動作する有人モードとを有する。 The manned guided vehicle 1 is a forklift operated by an operator O, but this is merely one example, and the manned guided vehicle 1 according to the present invention is not limited to this forklift. The manned guided vehicle 1 may be, for example, a manned/unmanned forklift, in which case it has an unmanned mode in which it operates autonomously, and a manned mode in which it operates by the operation of the operator O.

<無人飛行体>
図4は、無人飛行体2の斜視図である。図4に示すように、無人飛行体2は、いわゆるドローンと称される飛行体であって、本体20と、本体20の四方に配置された4つのプロペラ21、プロペラ21を回転させる動力部(図示略)と、を備えている。
<Unmanned Aerial Vehicles>
Fig. 4 is a perspective view of the unmanned aerial vehicle 2. As shown in Fig. 4, the unmanned aerial vehicle 2 is an aerial vehicle known as a drone, and includes a main body 20, four propellers 21 arranged on all four sides of the main body 20, and a power unit (not shown) that rotates the propellers 21.

図3に示すように、無人飛行体2は、さらに、飛行制御部22と、記憶部23と、投影部24と、スピーカ25と、を備えている。無人飛行体2は、管理装置3と通信可能に構成されている。 As shown in FIG. 3, the unmanned aerial vehicle 2 further includes a flight control unit 22, a memory unit 23, a projection unit 24, and a speaker 25. The unmanned aerial vehicle 2 is configured to be able to communicate with the management device 3.

飛行制御部22は、無人飛行体2の位置を公知技術によって検出するとともに、プロペラ21の回転を制御し、無人飛行体2を管理装置3から受信した配置位置まで飛行させたり、配置位置でホバリングさせたりする。 The flight control unit 22 detects the position of the unmanned aerial vehicle 2 using publicly known technology and controls the rotation of the propeller 21 to fly the unmanned aerial vehicle 2 to the placement position received from the management device 3 or to hover at the placement position.

記憶部23は、有人搬送車1を誘導するための誘導画像を記憶している。図5に示すように、誘導画像は、有人搬送車1が走行する方向を示す第1画像D1と、有人搬送車1が方向転換する位置(本発明の「屈曲位置」に相当)および走行方向を示す第2画像D2と、荷役位置を示す第3画像D3とを含む。以下では、第1、第2および第3画像D1、D2、D3をまとめて誘導画像Dということがある。本発明における「荷役位置」は、有人搬送車1が停止して荷役をする位置を意味する。第1および第2画像D1、D2の矢印は走行方向を示し、第3画像D3の矢印は載置位置の方向を示している。第1、第2および第3画像D1、D2、D3の形状、大きさおよび色は、それぞれ異なっていることが好ましいが、例えば、形状、大きさおよび色のいずれかが異なっていてもよい。本実施形態に係る第1、第2および第3画像D1、D2、D3は、色違いの円と、円の中に配置された色違いの矢印とによって構成されている。 The memory unit 23 stores guidance images for guiding the manned guided vehicle 1. As shown in FIG. 5, the guidance images include a first image D1 indicating the direction in which the manned guided vehicle 1 travels, a second image D2 indicating the position where the manned guided vehicle 1 turns (corresponding to the "bending position" of the present invention) and the traveling direction, and a third image D3 indicating the loading position. Hereinafter, the first, second and third images D1, D2 and D3 may be collectively referred to as guidance images D. The "loading position" in the present invention means the position where the manned guided vehicle 1 stops and loads. The arrows of the first and second images D1 and D2 indicate the traveling direction, and the arrow of the third image D3 indicates the direction of the loading position. It is preferable that the shapes, sizes and colors of the first, second and third images D1, D2 and D3 are different from each other, but for example, any of the shapes, sizes and colors may be different. The first, second and third images D1, D2 and D3 in this embodiment are composed of circles of different colors and arrows of different colors arranged within the circles.

記憶部23は、また、有人搬送車1を停止させるための特定の誘導画像Dの色(以下、「停止色」という)を記憶している。停止色は、例えば、赤色でもよい。 The memory unit 23 also stores the color of a specific guidance image D for stopping the manned guided vehicle 1 (hereinafter referred to as the "stop color"). The stop color may be, for example, red.

記憶部23は、さらに、オペレータOを誘導するための音声Vを記憶している。音声Vは、「○m」、「先を左折です」、「先、目的地です」、「この先、障害物があります」、「ご注意ください」、「停止してください」等を含む。 The memory unit 23 further stores voices V for guiding the operator O. The voices V include "○ meters away," "Turn left ahead," "Destination ahead," "There is an obstacle ahead," "Please be careful," "Please stop," etc.

投影部24は、本実施形態では、プロジェクタによって構成されている。投影部24は、本体20の下面に配置されており、管理装置3によって制御され、図1および図2Aに示すように、誘導画像Dを有人搬送車1が荷役位置へと向かうルート上に投影する。投影された誘導画像Dは、図5に示すように、当該ルート上の路面に所定の間隔をおいて整列して表示される。 In this embodiment, the projection unit 24 is configured by a projector. The projection unit 24 is disposed on the underside of the main body 20 and is controlled by the management device 3 to project a guidance image D onto the route along which the manned guided vehicle 1 travels toward the loading position, as shown in Figs. 1 and 2A. The projected guidance images D are displayed aligned at a predetermined interval on the road surface along the route, as shown in Fig. 5.

スピーカ25は、本体20に配置されており、オペレータOに向かって音声Vを出力する。 The speaker 25 is located on the main body 20 and outputs a voice V to the operator O.

<管理装置>
管理装置3は、例えば、サーバコンピュータであって、不図示の記憶手段および演算手段を有する。記憶手段には、サーバコンピュータを本実施形態に係る管理装置3として機能させるためのプログラムが記憶されている。
<Management Device>
The management device 3 is, for example, a server computer, and includes a storage unit and a computing unit (not shown). The storage unit stores a program for causing the server computer to function as the management device 3 according to the present embodiment.

図3に示すように、管理装置3は、記憶部30と、ルート決定部31と、配置決定部32と、投影制御部33と、音声制御部34と、ニューラルネット35とを備えている。 As shown in FIG. 3, the management device 3 includes a memory unit 30, a route determination unit 31, a placement determination unit 32, a projection control unit 33, a voice control unit 34, and a neural network 35.

記憶部30は、施設マップ、荷役位置および載置位置を記憶する。施設マップには、棚Rの位置、棚Rの高さ、通行路の位置、障害物の位置が含まれている。また、施設マップには、通行路の幅も記憶されている。本実施形態では、管理装置3は、複数の有人搬送車1を管理しており、記憶部30は、複数の有人搬送車1に係る荷役位置および載置位置を記憶している。 The memory unit 30 stores a facility map, loading positions, and placement positions. The facility map includes the position of the shelf R, the height of the shelf R, the position of the passage, and the position of obstacles. The facility map also stores the width of the passage. In this embodiment, the management device 3 manages multiple manned guided vehicles 1, and the memory unit 30 stores the loading positions and placement positions for the multiple manned guided vehicles 1.

ルート決定部31は、有人搬送車1の位置と、荷役位置と、施設マップとに基づいて、有人搬送車1が荷役位置へと向かうルート(以下、単に「ルート」という)を決定する。ルート決定部31は、例えば、有人搬送車1と荷役位置とを結ぶ最短のルートを決定したり、または、オペレータOの過去の走行ルート、通行路の車幅、通行路の状態(段差など)を考慮してルートを決定したりしてもよい。また、ルート決定部31は、複数の有人搬送車1のルートが重ならないようにルートを決定してもよい。ルート決定部31は、例えば、複数の有人搬送車1が走行する時刻を考慮してルートを決定したり、複数の有人搬送車1の現在位置に基づいて、リアルタイムでルートを更新したりしてもよい。 The route determination unit 31 determines the route (hereinafter simply referred to as "route") that the manned guided vehicle 1 will take to the loading position based on the position of the manned guided vehicle 1, the loading position, and a facility map. The route determination unit 31 may, for example, determine the shortest route connecting the manned guided vehicle 1 and the loading position, or may determine the route taking into consideration the operator O's past travel route, the width of the road, and the condition of the road (such as steps). The route determination unit 31 may also determine the route so that the routes of multiple manned guided vehicles 1 do not overlap. The route determination unit 31 may, for example, determine the route taking into consideration the time at which multiple manned guided vehicles 1 are traveling, or may update the route in real time based on the current positions of multiple manned guided vehicles 1.

配置決定部32は、決定されたルート上方における各無人飛行体2の配置位置を決定する。具体的には、配置決定部32は、ルート上における直進位置、屈曲位置、荷役位置の上方における無人飛行体2の配置位置を決定する。無人飛行体2のホバリング高さH(以下、単に「高さH」という)は、オペレータOの前方の視界を遮らないよう、有人搬送車1に乗車したオペレータOの頭部位置よりも高い方が好ましい。また、無人飛行体2の高さHは、適切に誘導画像Dを表示させるために、地面から所定の距離以内にある方が好ましい。さらに、各無人飛行体2の配置位置は、各無人飛行体2の接触を防止するために、別の無人飛行体2から所定の間隔をおいた位置に決定される方が好ましい。 The placement determination unit 32 determines the placement position of each unmanned aerial vehicle 2 above the determined route. Specifically, the placement determination unit 32 determines the placement position of the unmanned aerial vehicle 2 above a straight position, a bend position, and a loading position on the route. The hovering height H of the unmanned aerial vehicle 2 (hereinafter simply referred to as "height H") is preferably higher than the head position of the operator O riding on the manned transport vehicle 1 so as not to obstruct the forward view of the operator O. Furthermore, the height H of the unmanned aerial vehicle 2 is preferably within a predetermined distance from the ground in order to properly display the guidance image D. Furthermore, the placement position of each unmanned aerial vehicle 2 is preferably determined to be a position spaced a predetermined distance from another unmanned aerial vehicle 2 in order to prevent contact between the unmanned aerial vehicles 2.

そこで、配置決定部32は、図6Aに示すように、無人飛行体2の配置位置を、有人搬送車1に乗車したオペレータOの頭部位置より高く地面から第1垂直距離VD1以内の位置、かつ、隣接する別の無人飛行体2から第2垂直距離VD2以上離した位置に決定する。加えて、配置決定部32は、図6Bに示すように、ルートLからルートLに直交する第1水平距離HD1以内の位置、かつ、隣接する別の無人飛行体2からルートLに直交する第2水平距離HD2以上離した位置に決定する。さらに、配置決定部32は、図6Aおよび図6Bに示すように、各無人飛行体2の配置位置を、隣接する別の無人飛行体2からルートL方向に第3水平距離HD3以上離した位置、かつ、各無人飛行体2間のルートL方向における水平距離が一定になる位置に決定する。例えば、第1垂直距離VD1は5m、第2垂直距離VD2は0.2m、第1水平距離HD1は1m、第2水平距離HD2は1m、第3水平距離HD3は3mでもよい。 Therefore, as shown in FIG. 6A, the placement determination unit 32 determines the placement position of the unmanned aerial vehicle 2 to be a position higher than the head position of the operator O riding on the manned transport vehicle 1, within a first vertical distance VD1 from the ground, and at a position separated by a second vertical distance VD2 or more from another adjacent unmanned aerial vehicle 2. In addition, as shown in FIG. 6B, the placement determination unit 32 determines the placement position of each unmanned aerial vehicle 2 to be a position within a first horizontal distance HD1 perpendicular to the route L from the route L, and at a position separated by a second horizontal distance HD2 perpendicular to the route L from another adjacent unmanned aerial vehicle 2. Furthermore, as shown in FIG. 6A and FIG. 6B, the placement determination unit 32 determines the placement position of each unmanned aerial vehicle 2 to be a position separated by a third horizontal distance HD3 or more in the route L direction from another adjacent unmanned aerial vehicle 2, and at a position where the horizontal distance in the route L direction between each unmanned aerial vehicle 2 is constant. For example, the first vertical distance VD1 may be 5 m, the second vertical distance VD2 may be 0.2 m, the first horizontal distance HD1 may be 1 m, the second horizontal distance HD2 may be 1 m, and the third horizontal distance HD3 may be 3 m.

これにより、無人飛行体2は、誘導画像Dを表示させる位置から第1垂直距離VD1以内および第1水平距離HD1以内の位置に配置されるので、誘導画像Dを適切に表示させることができる。また、各無人飛行体2は、隣接する別の無人飛行体2から第2垂直距離VD2および第2水平距離HD2をおいて配置されるので、無人飛行体2間の接触を回避することができる。無人飛行体2間のルート方向における水平距離は、例えば、1m~10mの間で固定されていてもよい。本実施形態では、当該水平距離は、5mに構成されている。それによって、無人飛行体2は、後で説明するように、ルートLに向かって最短距離で誘導画像Dを投影することにより、等間隔で誘導画像DをルートL上に投影することができる。 As a result, the unmanned aerial vehicle 2 is positioned within the first vertical distance VD1 and the first horizontal distance HD1 from the position where the guidance image D is displayed, so that the guidance image D can be displayed appropriately. Also, each unmanned aerial vehicle 2 is positioned at a second vertical distance VD2 and a second horizontal distance HD2 from another adjacent unmanned aerial vehicle 2, so that contact between the unmanned aerial vehicles 2 can be avoided. The horizontal distance between the unmanned aerial vehicles 2 in the route direction may be fixed, for example, between 1 m and 10 m. In this embodiment, the horizontal distance is configured to be 5 m. As a result, the unmanned aerial vehicle 2 can project the guidance image D on the route L at equal intervals by projecting the guidance image D toward the route L at the shortest distance, as will be described later.

配置決定部32は、複数の有人搬送車1のルートが重なるとき、一方の有人搬送車1が重なっているルート部分を通過するまで他の有人搬送車1を停止させることを決定する。配置決定部32は、好ましくは、載置位置から遠い方の有人搬送車1を停止させるよう決定する。これにより、荷役作業が円滑に進行する。配置決定部32は、停止を決定した有人搬送車1を誘導する無人飛行体2のグループを他の有人搬送車1のルートに配置させないよう配置位置を決定する。配置決定部32は、一方の有人搬送車1が重なっているルート部分を通過すると、他方の有人搬送車1の停止を解除することを決定する。 When the routes of multiple manned guided vehicles 1 overlap, the placement determination unit 32 determines to stop one of the manned guided vehicles 1 until the other manned guided vehicles 1 pass the overlapping route portion. The placement determination unit 32 preferably determines to stop the manned guided vehicle 1 that is farthest from the loading position. This allows the loading and unloading work to proceed smoothly. The placement determination unit 32 determines the placement position so that the group of unmanned aerial vehicles 2 guiding the manned guided vehicle 1 that has been determined to stop is not placed on the route of the other manned guided vehicle 1. When one manned guided vehicle 1 passes the overlapping route portion, the placement determination unit 32 determines to release the stop of the other manned guided vehicle 1.

図6に示すように、投影制御部33は、ルートL方向に等間隔に配置された無人飛行体2に、ルートLに向かって最短距離で誘導画像Dを投影させる。これにより、誘導システムSは、図5に示すように、誘導画像Dを所定の距離Q1をおいて等間隔で路面に表示させることができる。また、誘導システムSは、当該距離Q1を所定の距離で固定しているので、誘導画像Dの数によって、屈曲位置、荷役位置までの距離をオペレータOに直感的に認識させることができる。 As shown in FIG. 6, the projection control unit 33 causes the unmanned aerial vehicles 2 arranged at equal intervals in the direction of the route L to project guidance images D at the shortest distance toward the route L. This allows the guidance system S to display the guidance images D on the road surface at equal intervals at a predetermined distance Q1, as shown in FIG. 5. Furthermore, since the guidance system S fixes the distance Q1 at a predetermined distance, the number of guidance images D allows the operator O to intuitively recognize the distance to the bend position and loading position.

図5に示すように、投影制御部33は、ルート上における直進位置、屈曲位置および荷役位置に応じて、第1、第2および第3画像D1、D2、D3を投影部24に投影させる。第1、第2および第3画像D1、D2、D3の色は互いに異なっているので、誘導システムSは、各位置で表示された誘導画像Dの色によって、オペレータOに屈曲位置、荷役位置を認識させることができ、単に形状を異ならせた誘導画像Dよりも直感的に各位置を認識させることができる。本実施形態では、各位置に対応する第1、第2および第3画像D1、D2、D3があらかじめ無人飛行体2の記憶部23に記憶されているので、投影制御部33は、屈曲位置、荷役位置および他の位置の上方に配置された無人飛行体2の投影部24を制御して、各位置に対応する誘導画像Dを投影させる。 As shown in FIG. 5, the projection control unit 33 causes the projection unit 24 to project the first, second, and third images D1, D2, and D3 according to the straight-line position, the bend position, and the loading position on the route. Since the first, second, and third images D1, D2, and D3 are different in color from one another, the guidance system S allows the operator O to recognize the bend position and the loading position by the color of the guidance image D displayed at each position, and allows the operator O to recognize each position more intuitively than guidance images D that simply have different shapes. In this embodiment, the first, second, and third images D1, D2, and D3 corresponding to each position are stored in advance in the memory unit 23 of the unmanned aerial vehicle 2, so the projection control unit 33 controls the projection unit 24 of the unmanned aerial vehicle 2 arranged above the bend position, the loading position, and other positions to project the guidance image D corresponding to each position.

また、投影制御部33は、第1、第2および第3画像D1、D2、D3を走行方向に流れるように周期的に点滅させて、その流れ点滅効果によって有人搬送車1を誘導させてもよい。または、投影制御部33は、第1画像D1のみを流れ点滅させ第2および第3画像D2、D3は、点灯させておいてもよい。さらに、投影制御部33は、第2および第3画像D2、D3のみを点滅させてもよい。投影制御部33は、このように、第1、第2および第3画像D1、D2、D3全体を特定のパターンで点滅させたり、第1、第2および第3画像D1、D2、D3をそれぞれ異なるパターンで点灯、点滅させたりすることにより、オペレータOに直感的にルートの方向、各位置関係等を認識させることができる。 The projection control unit 33 may also periodically flash the first, second, and third images D1, D2, and D3 in a flowing manner in the traveling direction, and guide the manned guided vehicle 1 by the flowing flashing effect. Alternatively, the projection control unit 33 may flash only the first image D1 in a flowing manner and keep the second and third images D2 and D3 lit. Furthermore, the projection control unit 33 may flash only the second and third images D2 and D3. In this way, the projection control unit 33 can make the first, second, and third images D1, D2, and D3 as a whole flash in a specific pattern, or light or flash the first, second, and third images D1, D2, and D3 in different patterns, thereby allowing the operator O to intuitively recognize the direction of the route, the relative positions of each image, and the like.

また、投影制御部33は、有人搬送車1の前方数メートルの位置において画像なしスペースQ2を設け、その画像なしスペースQ2上方の無人飛行体2aに投影させない。これは、オペレータOの視線が下方に集中し、オペレータOが前方を認識できなくなることを防止するためである。すなわち、投影制御部33は、画像なしスペースQ2を設けることにより、オペレータOの視線を前方に向かせ、運転中の安全性を向上させる。なお、有人搬送車1が移動することにより画像なしスペースQ2もそれに伴って移動するので、投影制御部33は、画像なしスペースQ2上方内に位置することになった無人飛行体2の投影をさらに停止させる。 The projection control unit 33 also sets up a no-image space Q2 several meters ahead of the manned guided vehicle 1, and does not project onto the unmanned aerial vehicle 2a above the no-image space Q2. This is to prevent the operator O from concentrating his gaze downward and becoming unable to see what is ahead. In other words, by setting up the no-image space Q2, the projection control unit 33 directs the operator O's gaze forward, improving safety during operation. Note that as the manned guided vehicle 1 moves, the no-image space Q2 also moves with it, so the projection control unit 33 further stops the projection of the unmanned aerial vehicle 2 that is now positioned above the no-image space Q2.

また、投影制御部33は、配置決定部32によって、停止させられることを決定された有人搬送車1を誘導していた複数の無人飛行体2のうち、少なくとも1つの無人飛行体2の誘導画像Dを停止色で投影させる。これにより、投影制御部33は、誘導されている有人搬送車1の走行の停止を促すことができる。好ましくは、投影制御部33は、すべての誘導画像Dの色を停止色で投影させ、走行の停止を促す。 The projection control unit 33 also projects the guidance image D of at least one of the unmanned aerial vehicles 2, among the multiple unmanned aerial vehicles 2 that were guiding the manned guided vehicle 1 that was determined by the placement determination unit 32 to be stopped, in a stop color. This allows the projection control unit 33 to urge the manned guided vehicle 1 being guided to stop moving. Preferably, the projection control unit 33 projects the color of all guidance images D in a stop color to urge the manned guided vehicle 1 to stop moving.

音声制御部34は、画像なしスペースQ2の上方に配置された無人飛行体2のスピーカ25を制御して、屈曲位置および荷役位置のいずれかまたは両方ならびにその他の情報を、オペレータOに報知させる。報知させる音声Vは、例えば、「15m先を左折です」、「30m先、目的地です」、「この先、障害物があります。ご注意ください」などでもよい。当該音声Vは、記憶部23に記憶されている「○m」、「先を左折です」、「先、目的地です」、「この先、障害物があります。」、「ご注意ください」を適宜組み合わされ生成されてもよい。誘導システムSは、これら音声Vによる報知によって、オペレータOにさらに直感的に屈曲位置、荷役位置などを認識させることができる。また、音声制御部34は、配置決定部32によって停止させられることを決定された有人搬送車1に対して、音声V「停止してください」を発することにより、停止の決定をオペレータOに報知してもよい。 The voice control unit 34 controls the speaker 25 of the unmanned aerial vehicle 2 arranged above the imageless space Q2 to notify the operator O of either or both of the bending position and the loading position, as well as other information. The voice V to be notified may be, for example, "Turn left 15 m ahead", "Destination 30 m ahead", "There is an obstacle ahead. Please be careful", etc. The voice V may be generated by appropriately combining "○ m", "Turn left ahead", "Destination ahead", "There is an obstacle ahead", and "Please be careful" stored in the memory unit 23. The guidance system S can make the operator O more intuitively recognize the bending position, loading position, etc. by notifying them with these voices V. In addition, the voice control unit 34 may notify the operator O of the decision to stop by issuing the voice V "Please stop" to the manned guided vehicle 1 that has been decided to be stopped by the placement decision unit 32.

ニューラルネット35は、後で説明するマイク40が集音した無人飛行体2の騒音と、無人飛行体2の数と、無人飛行体2の位置と、マイク40と無人飛行体2との距離と、後で説明するスピーカ42と無人飛行体2との距離と、を入力データとし、騒音の逆位相の音声信号を出力データとする教師データによってあらかじめ学習させられている。そして、ニューラルネット35は、マイク40が集音した無人飛行体2の騒音と、無人飛行体2の数と、無人飛行体2の位置と、マイク40と無人飛行体2との距離と、スピーカ42と無人飛行体2との距離と、を入力されると、騒音を消すための逆位相の音声信号を生成する。 The neural network 35 has been trained in advance using teacher data in which the input data is the noise of the unmanned aerial vehicle 2 picked up by the microphone 40 (described later), the number of unmanned aerial vehicles 2, the position of the unmanned aerial vehicle 2, the distance between the microphone 40 and the unmanned aerial vehicle 2, and the distance between the speaker 42 (described later) and the unmanned aerial vehicle 2, and the output data is an audio signal in the opposite phase to the noise. Then, when the neural network 35 receives the noise of the unmanned aerial vehicle 2 picked up by the microphone 40, the number of unmanned aerial vehicles 2, the position of the unmanned aerial vehicle 2, the distance between the microphone 40 and the unmanned aerial vehicle 2, and the distance between the speaker 42 and the unmanned aerial vehicle 2, it generates an audio signal in the opposite phase to cancel out the noise.

<ノイズキャンセル部>
図1および図2Bに示すように、ノイズキャンセル部4は、棚Rの上面に複数配置されている。図3に示すように、複数のノイズキャンセル部4は、マイク40と、角度変更部41と、スピーカ42と、をそれぞれ有する。ノイズキャンセル部4は、管理装置3と通信可能に構成されている。
<Noise Cancellation Section>
1 and 2B, a plurality of noise canceling units 4 are arranged on the top surface of the shelf R. As shown in Fig. 3, each of the plurality of noise canceling units 4 has a microphone 40, an angle changing unit 41, and a speaker 42. The noise canceling units 4 are configured to be able to communicate with the management device 3.

マイク40は、無人飛行体2からの騒音を集音するよう構成されている。集音された無人飛行体2の騒音信号は、ニューラルネット35に送信される。 The microphone 40 is configured to collect noise from the unmanned aerial vehicle 2. The collected noise signal from the unmanned aerial vehicle 2 is transmitted to the neural network 35.

ニューラルネット35は、受信した無人飛行体2の騒音信号と、無人飛行体2の数と、無人飛行体2の位置と、マイク40と無人飛行体2との距離と、スピーカ42と無人飛行体2との距離とに基づいて、騒音を消すための逆位相の音声信号を生成し、生成した音声信号をスピーカ42に送信する。 The neural network 35 generates an out-of-phase audio signal to cancel out the noise based on the received noise signal from the unmanned aerial vehicle 2, the number of unmanned aerial vehicles 2, the position of the unmanned aerial vehicles 2, the distance between the microphone 40 and the unmanned aerial vehicle 2, and the distance between the speaker 42 and the unmanned aerial vehicle 2, and transmits the generated audio signal to the speaker 42.

角度変更部41は、ジンバル等といった方向を変更させる部材で構成されており、スピーカ42に連結されている。角度変更部41は、スピーカ42を無人飛行体2の方角に向けるよう構成されている。より詳細には、角度変更部41は、スピーカ42との距離が最も短い無人飛行体2の方角にスピーカ42を向ける。角度変更部41は、1つの無人飛行体2に対して、1つのスピーカ42を向けるよう構成されてもよい。 The angle change unit 41 is composed of a member that changes direction, such as a gimbal, and is connected to the speaker 42. The angle change unit 41 is configured to point the speaker 42 in the direction of the unmanned aerial vehicle 2. More specifically, the angle change unit 41 points the speaker 42 in the direction of the unmanned aerial vehicle 2 that is closest to the speaker 42. The angle change unit 41 may be configured to point one speaker 42 toward one unmanned aerial vehicle 2.

スピーカ42は、指向性を有し、この指向性の角度は、例えば、5度~30度、または、5度~20度でもよい。スピーカ42は、ニューラルネット35から入力された音声信号を無人飛行体2に発する。スピーカ42は、角度変更部41によって無人飛行体2の方角に向けられており、しかも、いわゆる超指向性を有することにより、無人飛行体2の騒音を適切に減少させることができる。 The speaker 42 has directionality, and the angle of this directionality may be, for example, 5 degrees to 30 degrees, or 5 degrees to 20 degrees. The speaker 42 emits the audio signal input from the neural network 35 to the unmanned aerial vehicle 2. The speaker 42 is directed in the direction of the unmanned aerial vehicle 2 by the angle change unit 41, and furthermore, by having so-called super-directivity, the noise of the unmanned aerial vehicle 2 can be appropriately reduced.

図1を参照して、配置決定部32によって配置された各無人飛行体2の役割について改めて説明する。有人搬送車1の前方2つの無人飛行体2aは、誘導画像Dを投影せず、音声Vによって有人搬送車1を誘導する。無人飛行体2と屈曲位置との間、および屈曲位置と荷役位置との間に配置された無人飛行体2bは、第1画像D1を投影し、有人搬送車1を誘導する。そして、屈曲位置、荷役位置にそれぞれ配置された無人飛行体2c、2dは、第2および第3画像D2、D3を投影し屈曲位置および荷役位置をそれぞれ示して、有人搬送車1を誘導する。なお、有人搬送車1が無人飛行体2の下方を通過すると、無人飛行体2は、役割を終え、管理装置3によって新たな誘導位置に配置されたり、充電するために所定場所に向かったりしてもよい。さらに、無人飛行体2は、複数の有人搬送車1のルートが重なり、有人搬送車1を停止させる必要があるときには、誘導画像Dを停止色に変更するとともに、音声Vによって有人搬送車1の走行の停止を促す。 With reference to FIG. 1, the role of each unmanned aerial vehicle 2 arranged by the arrangement determination unit 32 will be described again. The two unmanned aerial vehicles 2a in front of the manned transport vehicle 1 do not project a guidance image D, but guide the manned transport vehicle 1 by sound V. The unmanned aerial vehicle 2b arranged between the unmanned aerial vehicle 2 and the bending position, and between the bending position and the loading position, project the first image D1 and guide the manned transport vehicle 1. The unmanned aerial vehicles 2c and 2d arranged at the bending position and the loading position, respectively, project the second and third images D2 and D3 to indicate the bending position and the loading position, respectively, and guide the manned transport vehicle 1. When the manned transport vehicle 1 passes under the unmanned aerial vehicle 2, the unmanned aerial vehicle 2 completes its role and may be arranged at a new guidance position by the management device 3, or may head to a specified location for charging. Furthermore, when the routes of multiple manned guided vehicles 1 overlap and it is necessary to stop the manned guided vehicles 1, the unmanned aerial vehicle 2 changes the guidance image D to a stop color and uses a sound V to prompt the manned guided vehicles 1 to stop traveling.

上記構成を備えていることにより、誘導システムSは、荷役位置までの距離および方向等をオペレータOに直感的に認識させることができる。しかも、誘導システムSは、無人飛行体2をルート方向に等間隔で配置し、それによって誘導画像Dを固定距離Q1ごとに路面に表示させるので、オペレータOの視認性を向上させることができる。さらに、誘導システムSは、従来の有人搬送車1の構成を特に変更することなく運用することができる。また、誘導システムSは、無人飛行体2の騒音に対応してノイズキャンセル部4によって無人飛行体2の騒音を減少させることもできる。 By being equipped with the above configuration, the guidance system S allows the operator O to intuitively recognize the distance and direction to the loading position. Moreover, the guidance system S arranges the unmanned aerial vehicles 2 at equal intervals along the route, thereby displaying the guidance image D on the road surface at fixed distances Q1, thereby improving the visibility of the operator O. Furthermore, the guidance system S can be operated without making any particular changes to the configuration of the conventional manned guided vehicle 1. The guidance system S can also reduce the noise of the unmanned aerial vehicle 2 by using the noise cancellation unit 4 in response to the noise of the unmanned aerial vehicle 2.

以上、本発明の一実施形態に係る誘導システムSについて説明してきたが、本発明に係る誘導システムSは、上記実施形態に限定されない。例えば、上記実施形態は、以下のように変形してもよく、また、以下変形例と組み合わせて実施してもよい。 Although the guidance system S according to one embodiment of the present invention has been described above, the guidance system S according to the present invention is not limited to the above embodiment. For example, the above embodiment may be modified as follows, and may be implemented in combination with the following modified examples.

(1)誘導システムSは、図7Aおよび図7Bに示すように、第1、第2および第3画像D1、D2、D3の代わりに単純な丸い光の像D4、D5、D6や矢印の光の像D7、D8、D9を誘導画像Dとして、無人飛行体2に投影させてもよい。この場合、誘導システムSは、図7Aおよび図7Bに示すように、ルート上における屈曲位置、荷役位置および他の位置に応じて、当該光の像の大きさ、色および形状をそれぞれ異ならせてもよい。図7Aおよび図7Bにおいて、光の像D4、D7は走行方向を示し、光の像D5、D8は屈曲位置と走行方向を示し、光の像D6、D9は荷役位置と載置位置とをそれぞれ示している。 (1) As shown in Figures 7A and 7B, the guidance system S may project simple round light images D4, D5, D6 or arrow light images D7, D8, D9 as guidance images D onto the unmanned aerial vehicle 2 instead of the first, second, and third images D1, D2, D3. In this case, the guidance system S may vary the size, color, and shape of the light images according to the bend position, loading position, and other positions on the route, as shown in Figures 7A and 7B. In Figures 7A and 7B, the light images D4 and D7 indicate the travel direction, the light images D5 and D8 indicate the bend position and travel direction, and the light images D6 and D9 indicate the loading position and placement position, respectively.

(2)誘導システムSは、例えば、図8Aに示すように、水平方向における無人飛行体2の互いの距離を十分に離すことができれば、すべての無人飛行体2を載置位置の高さに配置してもよい。この場合、配置決定部32は、無人飛行体2が載置位置の高さに配置されるよう配置位置を決定する。または、誘導システムSは、例えば、図8Bに示すように、水平方向における無人飛行体2の互いの距離を十分に離すことができれば、無人飛行体2を有人搬送車1に乗車したオペレータOの顔の高さと載置位置の高さとを結ぶ直線に沿って配置してもよい。この場合、配置決定部32は、無人飛行体2を当該直線に沿う高さに配置されるよう配置位置を決定する。これらのように無人飛行体2を配置することにより、誘導システムSは、載置位置の高さもオペレータOに直感的に認識させることができる。 (2) The guidance system S may place all of the unmanned aerial vehicles 2 at the height of the placement position, for example, as shown in FIG. 8A, if the unmanned aerial vehicles 2 can be spaced sufficiently apart from each other in the horizontal direction. In this case, the placement determination unit 32 determines the placement positions so that the unmanned aerial vehicles 2 are placed at the height of the placement position. Alternatively, the guidance system S may place the unmanned aerial vehicles 2 along a straight line connecting the height of the face of the operator O riding on the manned transport vehicle 1 and the height of the placement position, for example, as shown in FIG. 8B, if the unmanned aerial vehicles 2 can be spaced sufficiently apart from each other in the horizontal direction. In this case, the placement determination unit 32 determines the placement positions so that the unmanned aerial vehicles 2 are placed at a height along that straight line. By placing the unmanned aerial vehicles 2 in this manner, the guidance system S can allow the operator O to intuitively recognize the height of the placement position.

なお、誘導システムSは、このように無人飛行体2の位置を配置した場合、載置位置が低い位置のとき、無人飛行体2によって誘導画像Dが遮られ、誘導画像DをオペレータOに認識させることができない。そこで、誘導システムSは、無人飛行体2の投影部24を下方および上方に誘導画像Dを投影可能に構成され、載置位置の高さが所定高さ以下のとき、投影制御部33によって投影部24を制御して、図9Aに示すように、天井に向かって誘導画像Dを投影させるよう構成されてもよい。所定高さは、例えば、0.5m~1mとしてもよい。この場合、オペレータOは、天井に投影された誘導画像Dによってルートの方向、屈曲位置、荷役位置を認識するとともに、無人飛行体2の高さHによって載置位置の高さを認識することができる。 When the unmanned aerial vehicle 2 is positioned in this manner, the guidance system S is unable to allow the operator O to recognize the guidance image D when the placement position is low, as the guidance image D is blocked by the unmanned aerial vehicle 2. Therefore, the guidance system S may be configured so that the projection unit 24 of the unmanned aerial vehicle 2 can project the guidance image D downward and upward, and when the height of the placement position is equal to or lower than a predetermined height, the projection control unit 33 controls the projection unit 24 to project the guidance image D toward the ceiling, as shown in FIG. 9A. The predetermined height may be, for example, 0.5 m to 1 m. In this case, the operator O can recognize the route direction, bend position, and loading position from the guidance image D projected onto the ceiling, and can recognize the height of the placement position from the height H of the unmanned aerial vehicle 2.

さらに、誘導システムSは、オペレータOの視線が上方に向かい前方を認識できなくなることを防止するために、天井に向かって投影させるとき、図9Bに示すように、画像なしスペースQ2の距離をさらに長く設定してもよい。この場合、例えば、オペレータOの視線の角度を認識する視線認識部をさらに備え、投影制御部33は、オペレータOの視線の角度に基づいて画像なしスペースQ2の距離を調整するよう構成してもよい。視線認識部は、カメラを有し、当該カメラは、例えば、無人飛行体2、有人搬送車1または棚R等に配置されてもよい。また、投影制御部33は、投影対象に応じて、光もしくは画像またはその両方の大きさ、または光もしくは画像またはその両方の形状を決定する。すなわち、投影制御部33は、天井に投影させる誘導画像Dの大きさ、形状を路面に投影させるときと異ならせてもよい。 Furthermore, in order to prevent the operator O's line of sight from turning upward and becoming unable to see what is ahead, the guidance system S may set the distance of the no-image space Q2 even longer when projecting toward the ceiling, as shown in FIG. 9B. In this case, for example, a line-of-sight recognition unit that recognizes the angle of the operator O's line of sight may be further provided, and the projection control unit 33 may be configured to adjust the distance of the no-image space Q2 based on the angle of the operator O's line of sight. The line-of-sight recognition unit may have a camera, and the camera may be disposed, for example, on the unmanned aerial vehicle 2, the manned transport vehicle 1, or the shelf R. In addition, the projection control unit 33 determines the size of the light or image, or both, or the shape of the light or image, or both, depending on the projection target. In other words, the projection control unit 33 may make the size and shape of the guidance image D projected onto the ceiling different from when projecting it onto the road surface.

(3)誘導システムSは、有人搬送車1の位置を施設内に設けられたカメラや無人飛行体2に設けられたカメラによって認識してもよい。この場合、有人搬送車1は、位置検出部12を備えなくてもよい。 (3) The guidance system S may recognize the position of the manned guided vehicle 1 using a camera installed within the facility or a camera installed on the unmanned aerial vehicle 2. In this case, the manned guided vehicle 1 does not need to be equipped with a position detection unit 12.

(4)誘導システムSは、誘導画像Dを、例えば、第1画像D1のみで構成し、屈曲位置および荷役位置に投影された第1画像D1を点滅させることによりオペレータOに屈曲位置および荷役位置を認識させてもよい。さらに誘導システムSは、スピーカ25が発する音声Vをブザー、チャイム等によって構成し、その音声Vによって屈曲位置および荷役位置をオペレータOに報知してもよい。 (4) The guidance system S may configure the guidance image D, for example, only with the first image D1, and allow the operator O to recognize the bending position and the loading position by flashing the first image D1 projected at the bending position and the loading position. Furthermore, the guidance system S may configure the sound V emitted by the speaker 25 with a buzzer, chime, etc., and notify the operator O of the bending position and the loading position by the sound V.

(5)マイク40は、指向性を有し、角度変更部41は、さらに、マイク40を無人飛行体2の方角に向けるよう構成されていてもよい。そして、ニューラルネット35は、マイク40が集音した無人飛行体2の騒音と、無人飛行体2とマイク40との距離と、無人飛行体2とスピーカ42との距離と、を入力データとし、騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイク40が集音した無人飛行体2の騒音と、無人飛行体2とマイク40との距離と、無人飛行体2とスピーカ42との距離と、を入力されると、マイク40が向けられた無人飛行体2の騒音を消すための逆位相の音声信号を生成するよう構成されていてもよい。これにより、スピーカ42は、ニューラルネット35によって生成された音声信号をマイク40が向けられた無人飛行体2に向けて発することにより、無人飛行体2の騒音を減少させる。マイク40の指向性の角度は、例えば、5度~30度、または、5度~20度でもよい。上記実施形態では、ニューラルネット35が複数の無人飛行体2の騒音に対する逆位相の音声信号を生成する構成に対し、この変形例では、ニューラルネット35が各無人飛行体2の騒音に対する逆位相の音声信号を生成する構成であるので、より適切な消音効果が期待できる。 (5) The microphone 40 may be directional, and the angle change unit 41 may be further configured to direct the microphone 40 in the direction of the unmanned aerial vehicle 2. The neural network 35 may be configured to learn from teacher data in which the noise of the unmanned aerial vehicle 2 collected by the microphone 40, the distance between the unmanned aerial vehicle 2 and the microphone 40, and the distance between the unmanned aerial vehicle 2 and the speaker 42 are input data, and an audio signal in the opposite phase to the noise is output data, and when the noise of the unmanned aerial vehicle 2 collected by the microphone 40, the distance between the unmanned aerial vehicle 2 and the microphone 40, and the distance between the unmanned aerial vehicle 2 and the speaker 42 are input, the neural network 35 may be configured to generate an audio signal in the opposite phase to eliminate the noise of the unmanned aerial vehicle 2 to which the microphone 40 is directed. As a result, the speaker 42 reduces the noise of the unmanned aerial vehicle 2 by emitting the audio signal generated by the neural network 35 toward the unmanned aerial vehicle 2 to which the microphone 40 is directed. The directional angle of the microphone 40 may be, for example, 5 degrees to 30 degrees, or 5 degrees to 20 degrees. In the above embodiment, the neural network 35 is configured to generate audio signals in antiphase to the noise of multiple unmanned aerial vehicles 2, whereas in this modified example, the neural network 35 is configured to generate audio signals in antiphase to the noise of each unmanned aerial vehicle 2, so a more appropriate noise reduction effect can be expected.

(6)記憶部24は、「停止待機」、「停止」といった有人搬送車を停止させるための文字を含む画像をさらに記憶しており、投影制御部33は、配置決定部32によって、停止させられることを決定された有人搬送車1を誘導していた複数の無人飛行体2のうち、少なくとも1つの無人飛行体2の誘導画像Dを当該画像に変更することにより、誘導されている有人搬送車1の走行の停止を促してもよい。 (6) The memory unit 24 may further store an image including text such as "wait to stop" or "stop" for stopping the manned guided vehicle, and the projection control unit 33 may prompt the manned guided vehicle 1 being guided to stop traveling by changing the guidance image D of at least one of the multiple unmanned aerial vehicles 2 that were guiding the manned guided vehicle 1 that was determined to be stopped by the placement determination unit 32 to the image.

1 有人搬送車
10 車体
11 フォーク
12 位置検出部
2 無人飛行体
20 本体
21 プロペラ
22 飛行制御部
23 記憶部
24 投影部
25 スピーカ
3 管理装置
30 記憶部
31 ルート決定部
32 配置決定部
33 投影制御部
34 音声制御部
35 ニューラルネット
4 ノイズキャンセル部
40 マイク
41 角度変更部
42 スピーカ
D1 第1画像
D2 第2画像
D3 第3画像
H ホバリング高さ
L ルート
O オペレータ
R 棚
S 誘導システム
V 音声
W 荷
Q1 誘導画像間の距離
Q2 画像なしスペース
HD1 第1水平距離
HD2 第2水平距離
HD3 第3水平距離
VD1 第1垂直距離
VD2 第2垂直距離
1 Manned guided vehicle 10 Vehicle body 11 Fork 12 Position detection unit 2 Unmanned aerial vehicle 20 Main body 21 Propeller 22 Flight control unit 23 Memory unit 24 Projection unit 25 Speaker 3 Management device 30 Memory unit 31 Route determination unit 32 Placement determination unit 33 Projection control unit 34 Voice control unit 35 Neural network 4 Noise cancellation unit 40 Microphone 41 Angle change unit 42 Speaker D1 First image D2 Second image D3 Third image H Hovering height L Route O Operator R Shelf S Guidance system V Voice W Load Q1 Distance between guidance images Q2 No-image space HD1 First horizontal distance HD2 Second horizontal distance HD3 Third horizontal distance VD1 First vertical distance VD2 Second vertical distance

Claims (10)

ホバリング可能な複数の無人飛行体と、
有人搬送車と、
管理装置と、を備える誘導システムであって、
前記無人飛行体は、光もしくは画像またはその両方を投影する投影部を有し、
前記管理装置は、
施設マップおよび荷役位置を記憶する記憶部と、
前記有人搬送車の位置と、前記荷役位置と、前記施設マップとに基づいて、前記有人搬送車を前記荷役位置に誘導するためのルートを決定するルート決定部と、
前記決定されたルートから所定の範囲以内に各前記無人飛行体の配置位置を決定する配置決定部と、を有し、
前記複数の無人飛行体は、前記配置位置でホバリングしながら光もしくは画像またはその両方を前記ルート上に投影して前記有人搬送車を誘導する、誘導システム。
A plurality of unmanned aerial vehicles capable of hovering;
A manned transport vehicle,
A guidance system comprising:
The unmanned aerial vehicle has a projection unit that projects light or an image or both,
The management device includes:
A storage unit that stores a facility map and a loading/unloading position;
a route determination unit that determines a route for guiding the manned guided vehicle to the loading position based on a position of the manned guided vehicle, the loading position, and the facility map;
A placement determination unit that determines a placement position of each of the unmanned aerial vehicles within a predetermined range from the determined route,
A guidance system in which the multiple unmanned aerial vehicles hover at the deployment positions and project light, images, or both onto the route to guide the manned guided vehicle.
前記配置決定部は、前記無人飛行体の前記配置位置を、前記ルートから前記ルートに直交する第1水平距離以内の位置、かつ、隣接する別の前記無人飛行体から前記ルートに直交する第2水平距離以上離した位置に決定する、請求項1に記載の誘導システム。 The guidance system of claim 1, wherein the placement determination unit determines the placement position of the unmanned aerial vehicle to be within a first horizontal distance from the route perpendicular to the route, and at least a second horizontal distance away from another adjacent unmanned aerial vehicle perpendicular to the route. 前記配置決定部は、さらに、前記無人飛行体の前記配置位置を隣接する別の前記無人飛行体から前記ルート方向に第3水平距離以上離した位置に決定する、請求項2に記載の誘導システム。 The guidance system of claim 2, wherein the placement determination unit further determines the placement position of the unmanned aerial vehicle to be a position that is a third horizontal distance or more away from another adjacent unmanned aerial vehicle in the route direction. 前記配置決定部は、前記無人飛行体の前記配置位置を前記複数の無人飛行体間の前記ルート方向における水平距離が一定になる位置に決定する、請求項3に記載の誘導システム。 The guidance system of claim 3, wherein the placement determination unit determines the placement positions of the unmanned aerial vehicles to be positions where the horizontal distances between the multiple unmanned aerial vehicles in the route direction are constant. 前記配置決定部は、前記無人飛行体の前記配置位置を、前記有人搬送車のオペレータの頭部位置より高く地面から第1垂直距離以内の位置、かつ、隣接する別の前記無人飛行体から第2垂直距離以上離した位置に決定する、請求項1に記載の誘導システム。 The guidance system of claim 1, wherein the placement determination unit determines the placement position of the unmanned aerial vehicle to be a position that is higher than the head position of the operator of the manned guided vehicle and within a first vertical distance from the ground, and is separated from another adjacent unmanned aerial vehicle by a second vertical distance or more. 前記管理装置は、投影制御部をさらに有し、
前記投影制御部は、前記有人搬送車と前記ルート方向における水平距離が所定距離以内になった前記無人飛行体の投影を停止させる、請求項1に記載の誘導システム。
The management device further includes a projection control unit,
The guidance system according to claim 1 , wherein the projection control unit stops projection of the unmanned aerial vehicle when the horizontal distance in the route direction from the manned guided vehicle becomes within a predetermined distance.
前記管理装置は、投影制御部をさらに有し、
前記有人搬送車は、複数であって、
前記配置決定部は、前記複数の有人搬送車の前記ルートが重なるとき、一方の前記有人搬送車を停止させることを決定し、
前記投影制御部は、停止させる方の前記有人搬送車を誘導していた前記複数の無人飛行体のうち、少なくとも1つの前記無人飛行体が投影する光または画像の色を特定の色に変更する、請求項1に記載の誘導システム。
The management device further includes a projection control unit,
The manned guided vehicle includes a plurality of vehicles,
the placement determination unit determines, when the routes of the plurality of manned guided vehicles overlap, to stop one of the manned guided vehicles;
The guidance system described in claim 1, wherein the projection control unit changes the color of the light or image projected by at least one of the multiple unmanned aerial vehicles that was guiding the manned guided vehicle to be stopped to a specific color.
スピーカと、前記スピーカを前記無人飛行体の方角に向ける角度変更部とを有するノイズキャンセル部をさらに備え、
前記スピーカは、前記無人飛行体が発する騒音と逆位相の音声信号を前記無人飛行体に向けて発する、請求項1に記載の誘導システム。
Further comprising a noise canceling unit having a speaker and an angle changing unit that faces the speaker toward the unmanned aerial vehicle;
The guidance system of claim 1 , wherein the speaker emits an audio signal toward the unmanned aerial vehicle that is in phase opposite to a noise emitted by the unmanned aerial vehicle.
前記ノイズキャンセル部は、マイクをさらに有し、
前記管理装置は、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体の数と、前記無人飛行体の位置と、前記マイクと前記無人飛行体との距離と、前記スピーカと前記無人飛行体との距離と、を入力データとし、前記無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体の数と、前記無人飛行体の位置と、前記マイクと前記無人飛行体との距離と、前記スピーカと前記無人飛行体との距離と、を入力されると、前記無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに備え、
前記スピーカは、前記ニューラルネットによって生成された音声信号を前記無人飛行体に向けて発する、請求項8に記載の誘導システム。
The noise canceling unit further includes a microphone,
The management device is trained using teacher data that takes as input data the noise of the unmanned aerial vehicle collected by the microphone, the number of the unmanned aerial vehicle, the position of the unmanned aerial vehicle, the distance between the microphone and the unmanned aerial vehicle, and the distance between the speaker and the unmanned aerial vehicle, and outputs an audio signal in the opposite phase to the noise of the unmanned aerial vehicle, and further includes a neural network configured to generate an audio signal in the opposite phase to cancel out the noise of the unmanned aerial vehicle when the noise of the unmanned aerial vehicle collected by the microphone, the number of the unmanned aerial vehicle, the position of the unmanned aerial vehicle, the distance between the microphone and the unmanned aerial vehicle, and the distance between the speaker and the unmanned aerial vehicle are input,
The guidance system of claim 8 , wherein the speaker emits an audio signal generated by the neural net toward the unmanned air vehicle.
前記ノイズキャンセル部は、指向性を有するマイクをさらに有し、
前記角度変更部は、さらに、前記マイクを前記無人飛行体の方角に向けるよう構成されており、
前記管理装置は、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体と前記マイクとの距離と、前記無人飛行体と前記スピーカとの距離と、を入力データとし、前記無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体と前記マイクとの距離と、前記無人飛行体と前記スピーカとの距離と、を入力されると、前記マイクが向けられた前記無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
前記スピーカは、前記ニューラルネットによって生成された音声信号を前記無人飛行体に向けて発する、請求項8に記載の誘導システム。
The noise canceling unit further includes a directional microphone,
The angle changing unit is further configured to orient the microphone in a direction toward the unmanned aerial vehicle,
The management device further has a neural network configured to learn from teacher data that has as input data the noise of the unmanned aerial vehicle collected by the microphone, the distance between the unmanned aerial vehicle and the microphone, and the distance between the unmanned aerial vehicle and the speaker, and that generates an opposite-phase audio signal to cancel out the noise of the unmanned aerial vehicle to which the microphone is pointed, when the noise of the unmanned aerial vehicle collected by the microphone, the distance between the unmanned aerial vehicle and the microphone, and the distance between the unmanned aerial vehicle and the speaker are input,
The guidance system of claim 8 , wherein the speaker emits an audio signal generated by the neural net toward the unmanned air vehicle.
JP2022111311A 2022-07-11 2022-07-11 Guidance System Active JP7497951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022111311A JP7497951B2 (en) 2022-07-11 2022-07-11 Guidance System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022111311A JP7497951B2 (en) 2022-07-11 2022-07-11 Guidance System

Publications (2)

Publication Number Publication Date
JP2024009634A JP2024009634A (en) 2024-01-23
JP7497951B2 true JP7497951B2 (en) 2024-06-11

Family

ID=89620509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022111311A Active JP7497951B2 (en) 2022-07-11 2022-07-11 Guidance System

Country Status (1)

Country Link
JP (1) JP7497951B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006525590A (en) 2003-05-07 2006-11-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Traffic information system that conveys information to the driver
JP2019104554A (en) 2017-12-08 2019-06-27 株式会社三井E&Sマシナリー Container yard and control method of container yard
JP2023152406A (en) 2022-04-04 2023-10-17 三菱ロジスネクスト株式会社 Guiding system
JP2023163886A (en) 2022-04-28 2023-11-10 三菱ロジスネクスト株式会社 guidance system
JP2023163885A (en) 2022-04-28 2023-11-10 三菱ロジスネクスト株式会社 guidance system
JP2023167901A (en) 2022-05-13 2023-11-24 三菱ロジスネクスト株式会社 guidance system
JP2023167902A (en) 2022-05-13 2023-11-24 三菱ロジスネクスト株式会社 guidance system
JP2023177532A (en) 2022-06-02 2023-12-14 三菱ロジスネクスト株式会社 guidance system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006525590A (en) 2003-05-07 2006-11-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Traffic information system that conveys information to the driver
JP2019104554A (en) 2017-12-08 2019-06-27 株式会社三井E&Sマシナリー Container yard and control method of container yard
JP2023152406A (en) 2022-04-04 2023-10-17 三菱ロジスネクスト株式会社 Guiding system
JP2023163886A (en) 2022-04-28 2023-11-10 三菱ロジスネクスト株式会社 guidance system
JP2023163885A (en) 2022-04-28 2023-11-10 三菱ロジスネクスト株式会社 guidance system
JP2023167901A (en) 2022-05-13 2023-11-24 三菱ロジスネクスト株式会社 guidance system
JP2023167902A (en) 2022-05-13 2023-11-24 三菱ロジスネクスト株式会社 guidance system
JP2023177532A (en) 2022-06-02 2023-12-14 三菱ロジスネクスト株式会社 guidance system

Also Published As

Publication number Publication date
JP2024009634A (en) 2024-01-23

Similar Documents

Publication Publication Date Title
JP7478182B2 (en) Guidance System
US10452079B2 (en) Autonomous vehicle convoy communications
JP7436132B2 (en) guidance system
EP3991000B1 (en) Vehicle control and guidance
KR101695557B1 (en) Automated guided vehicle system based on autonomous mobile technique and a method for controlling the same
EP4242776A2 (en) Remote vehicle guidance
JP7436133B2 (en) guidance system
JP7452938B2 (en) guidance system
JP2023163886A (en) guidance system
JP7497951B2 (en) Guidance System
JP7462457B2 (en) Autonomous driving method for transport vehicles
JP7430975B2 (en) guidance system
JP7478200B2 (en) Guidance System
JP7509511B2 (en) Guidance System
JP2024003602A (en) guidance system
JP7517785B2 (en) Guidance System
JP7499440B2 (en) Platooning System
JP7444531B2 (en) guidance system
JP2024036175A (en) guidance system
JP7452940B2 (en) guidance system
JP2024039975A (en) guidance system
JP2024024417A (en) guidance system
JP7478192B2 (en) Guidance System
JP7488016B2 (en) Guidance System
JP2024053777A (en) Guidance System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240529

R150 Certificate of patent or registration of utility model

Ref document number: 7497951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150