JP2017207815A - Control system of work vehicle - Google Patents

Control system of work vehicle Download PDF

Info

Publication number
JP2017207815A
JP2017207815A JP2016097996A JP2016097996A JP2017207815A JP 2017207815 A JP2017207815 A JP 2017207815A JP 2016097996 A JP2016097996 A JP 2016097996A JP 2016097996 A JP2016097996 A JP 2016097996A JP 2017207815 A JP2017207815 A JP 2017207815A
Authority
JP
Japan
Prior art keywords
vehicle
work
drone
work vehicle
tractor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016097996A
Other languages
Japanese (ja)
Other versions
JP6707984B2 (en
Inventor
小野 弘喜
Hiroyoshi Ono
弘喜 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iseki and Co Ltd
Iseki Agricultural Machinery Mfg Co Ltd
Original Assignee
Iseki and Co Ltd
Iseki Agricultural Machinery Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iseki and Co Ltd, Iseki Agricultural Machinery Mfg Co Ltd filed Critical Iseki and Co Ltd
Priority to JP2016097996A priority Critical patent/JP6707984B2/en
Publication of JP2017207815A publication Critical patent/JP2017207815A/en
Application granted granted Critical
Publication of JP6707984B2 publication Critical patent/JP6707984B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform positioning without re-attaching a positioning device or providing a positioning device individually when performing positioning of an updated work vehicle or a plurality of work vehicles.SOLUTION: A control system of a work vehicle includes: a work vehicle (1) for working at a field (H); an unmanned aircraft (31) for flying in the air in association with the work vehicle (1); a positioning device (33) supported by the unmanned aircraft (31) for performing positioning by receiving a signal from a positioning satellite; and vehicle positioning means (CC4) for performing positioning of the work vehicle (1) on the basis of a measurement result by the positioning device (33).SELECTED DRAWING: Figure 3

Description

本発明は、作業車両の制御システムに関する。   The present invention relates to a control system for a work vehicle.

圃場などで作業する作業車両を自律制御させる際に、測位衛星からの信号に基づいて作業車両の位置を測位する技術が知られている。このような技術に関して、例えば、特開平11−248816号公報に記載の技術が公知である。   2. Description of the Related Art A technique for positioning a work vehicle based on a signal from a positioning satellite when autonomously controlling a work vehicle working on a farm field or the like is known. With regard to such a technique, for example, a technique described in Japanese Patent Laid-Open No. 11-248816 is known.

特許文献1には、移動体を監視する移動体監視システムが記載されている。特許文献1では、走行車両などの移動体にGPS装置を取り付け、GPS装置から送られてくる移動軌跡のデータを受信する監視センター局を移動体の移動範囲近傍の空中を飛行するヘリコプターに設けている。これにより、例えば、自律走行により無人で農作業等を行う作業車両が、予定していた経路に沿って走行し、作業を行っているかを監視することができる。   Patent Document 1 describes a moving body monitoring system that monitors a moving body. In Patent Document 1, a GPS device is attached to a moving body such as a traveling vehicle, and a monitoring center station that receives data of a moving locus sent from the GPS device is provided in a helicopter that flies in the air near the moving range of the moving body. Yes. Thereby, for example, it is possible to monitor whether a work vehicle that performs unmanned agricultural work or the like by autonomous traveling is traveling along a planned route and performing work.

特開平11−248816号公報(「0057」〜「0064」、図7、図3〜図5)Japanese Patent Laid-Open No. 11-248816 (“0057” to “0064”, FIGS. 7 and 3 to 5)

しかし、従来の技術では、GPS装置自体は作業車両に備えられている。したがって、買い換えなどにより作業車両を更新したり、複数の作業車両を所有したりする場合、それらの作業車両で測位をするには、測位装置を付け替えるか、それぞれ個別に測位装置を備え付ける必要があった。特に、高精度の測位を行なう場合には、高精度の高価なGPSアンテナなどを備えた測位装置が必要である。よって、個別に測位装置を備え付ける場合には、高費用化し易い問題があった。また、測位装置を付け替える場合には、付け替え作業が生じ手間がかかるという問題があった。   However, in the conventional technology, the GPS device itself is provided in the work vehicle. Therefore, when a work vehicle is updated due to replacement, etc., or a plurality of work vehicles are owned, in order to perform positioning with these work vehicles, it is necessary to replace the positioning device or to provide a positioning device individually. It was. In particular, when performing highly accurate positioning, a positioning device including a highly accurate and expensive GPS antenna is required. Therefore, when the positioning device is individually provided, there is a problem that the cost is easily increased. In addition, when the positioning device is replaced, there is a problem that it takes time and labor.

本発明は、更新した作業車両や複数の作業車両を測位する場合に、測位装置を付け替えたり、個別に測位装置を備え付けたりせずに測位することを技術的課題とする。   It is a technical object of the present invention to perform positioning without replacing a positioning device or separately installing a positioning device when positioning an updated work vehicle or a plurality of work vehicles.

本発明の上記課題は、次の解決手段により解決される。
すなわち、請求項1に記載の作業車両の制御システムは、
圃場(H)で作業をする作業車両(1)と、
前記作業車両(1)に対応して空中を飛行する無人航空機(31)と、
前記無人航空機(31)に支持されて、測位衛星から信号を受信して測位を行う測位装置(33)と、
前記測位装置(33)の測位結果に基づいて前記作業車両(1)の測位をする車両測位手段(CC4)と、
を備えたことを特徴とする。
The above-described problems of the present invention are solved by the following solution means.
That is, the work vehicle control system according to claim 1 is:
A work vehicle (1) working in the field (H);
An unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1);
A positioning device (33) supported by the unmanned aerial vehicle (31) to receive a signal from a positioning satellite and perform positioning;
Vehicle positioning means (CC4) for positioning the work vehicle (1) based on the positioning result of the positioning device (33);
It is provided with.

請求項2に記載の発明は、
前記作業車両(1)に付された車両位置特定マーク(23)と、
前記無人航空機(31)に支持され、前記車両位置特定マーク(23)を撮像する撮像部材(37)と、
前記撮像部材(37)が撮像する撮像画像において、前記車両位置特定マーク(23)の位置を予め設定された領域内に保持するように自律制御されて飛行する前記無人航空機(31)と、
を備えたことを特徴とする請求項1に記載の作業車両の制御システムである。
The invention described in claim 2
A vehicle position specifying mark (23) attached to the work vehicle (1);
An imaging member (37) supported by the unmanned aerial vehicle (31) and imaging the vehicle position specifying mark (23);
In the captured image captured by the imaging member (37), the unmanned aircraft (31) flying autonomously so as to hold the position of the vehicle position specifying mark (23) within a preset region;
The work vehicle control system according to claim 1, further comprising:

請求項3に記載の発明は、
複数の前記作業車両(1)と、
各作業車両(1)に付され、各作業車両(1)毎に異なる車両識別マーク(22)と、
各作業車両(1)毎に、予め設定された作業工程の情報を記憶する工程記憶手段(CB16)と、
前記車両識別マーク(22)を撮像する前記撮像部材(37)と、
前記撮像部材(37)が撮像した前記車両識別マーク(22)の撮像画像に基づいて、前記作業車両(1)を特定する車両特定手段(CB15)と、
特定された作業車両(1)に対応する作業工程に基づく画像を表示する表示部(43)と、
を備えたことを特徴とする請求項2に記載の作業車両の制御システムである。
The invention according to claim 3
A plurality of said work vehicles (1);
A vehicle identification mark (22) attached to each work vehicle (1) and different for each work vehicle (1);
For each work vehicle (1), a process storage means (CB16) for storing information on a preset work process;
The imaging member (37) for imaging the vehicle identification mark (22);
Vehicle identification means (CB15) for identifying the work vehicle (1) based on the captured image of the vehicle identification mark (22) captured by the imaging member (37);
A display unit (43) for displaying an image based on a work process corresponding to the identified work vehicle (1);
The work vehicle control system according to claim 2, further comprising:

請求項4に記載の発明は、
前記無人航空機(31)を遠隔操作する操作部(44,46)と、
前記操作部(44,46)の操作に基づいて飛行するマニュアル操作モードと、前記自律制御により飛行する自律制御モードと、を切り替え可能な前記無人航空機(31)と、
を備えたことを特徴とする請求項2または3に記載の作業車両の制御システムである。
The invention according to claim 4
An operation unit (44, 46) for remotely operating the unmanned aerial vehicle (31);
The unmanned aerial vehicle (31) capable of switching between a manual operation mode of flying based on an operation of the operation unit (44, 46) and an autonomous control mode of flying by the autonomous control;
The work vehicle control system according to claim 2 or 3, further comprising:

請求項5に記載の発明は、
自律制御により走行作業をする前記作業車両(1)であって、前記車両測位手段(CC4)の測位結果に基づいて、走行方向を制御する前記作業車両(1)、
を備えたことを特徴とする請求項1ないし4のいずれか1項に記載の作業車両の制御システムである。
The invention described in claim 5
The work vehicle (1) that travels by autonomous control, the work vehicle (1) that controls the travel direction based on the positioning result of the vehicle positioning means (CC4),
5. The work vehicle control system according to claim 1, further comprising:

請求項1に記載の発明によれば、作業車両(1)に対応して空中を飛行する無人航空機(31)の測位装置(33)の測位結果に基づいて、作業車両(1)の測位をすることができる。したがって、更新した作業車両(1)や複数の作業車両(1)を測位する場合に、測位装置を付け替えたり、個別に測位装置を備え付けたりせずに、測位することができる。   According to the first aspect of the present invention, the positioning of the work vehicle (1) is performed based on the positioning result of the positioning device (33) of the unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1). can do. Therefore, when positioning the updated work vehicle (1) or the plurality of work vehicles (1), positioning can be performed without replacing the positioning device or separately installing the positioning device.

請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、作業車両(1)に付された車両位置特定マーク(23)を撮像して自律制御されない場合に比べて、無人航空機(31)と作業車両(1)との位置関係を保持し易くすることができる。   According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, compared with the case where the vehicle position specifying mark (23) attached to the work vehicle (1) is imaged and is not autonomously controlled. Thus, the positional relationship between the unmanned aerial vehicle (31) and the work vehicle (1) can be easily maintained.

請求項3に記載の発明によれば、請求項2に記載の発明の効果に加えて、車両識別マーク(22)に基づいて、作業車両(1)の作業工程を自動で表示部(43)に表示することが可能となる。よって、作業者が作業工程を確認し易くなる。また、作業者が、誤って作業車両に対応していない作業工程を使用することを抑制できる。   According to the invention described in claim 3, in addition to the effect of the invention described in claim 2, the work process of the work vehicle (1) is automatically displayed on the display unit (43) based on the vehicle identification mark (22). Can be displayed. Therefore, it becomes easy for the worker to confirm the work process. Moreover, it can suppress that an operator uses the work process which does not respond | correspond to a work vehicle accidentally.

請求項4に記載の発明によれば、請求項2または3に記載の発明の効果に加えて、無人航空機(31)を、操作部(44,46)の操作に基づいて遠隔操作することができる。
請求項5に記載の発明によれば、請求項1ないし4のいずれか1項に記載の発明の効果に加えて、無人航空機(31)の測位装置(33)の測位結果に基づいて、前記作業車両(1)の測位をして作業車両(1)の自律制御をすることができる。
According to the invention described in claim 4, in addition to the effect of the invention described in claim 2 or 3, the unmanned aircraft (31) can be remotely operated based on the operation of the operation unit (44, 46). it can.
According to the invention of claim 5, in addition to the effect of the invention of any one of claims 1 to 4, based on the positioning result of the positioning device (33) of the unmanned aerial vehicle (31), the It is possible to perform autonomous control of the work vehicle (1) by positioning the work vehicle (1).

本発明の実施例1の作業車両システムの全体説明図である。1 is an overall explanatory diagram of a work vehicle system according to a first embodiment of the present invention. 図1のトラクタを上方から見た場合の説明図である。It is explanatory drawing at the time of seeing the tractor of FIG. 1 from upper direction. 本発明の実施例1の作業車両の制御システムが有する機能ブロック図の説明図である。It is explanatory drawing of the functional block diagram which the control system of the working vehicle of Example 1 of this invention has. 図3の要部説明図であり各制御部の説明図である。It is principal part explanatory drawing of FIG. 3, and is explanatory drawing of each control part. コントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。It is explanatory drawing of the image displayed on the touch panel of a controller, and is explanatory drawing of the image which the drone imaged. 図6は撮像される物体と撮像画像との大きさの関係を示す説明図であり、(a)は斜視図、(b)は(a)を断面方向から見た図である。6A and 6B are explanatory views showing the relationship between the size of an object to be picked up and a picked-up image. FIG. 6A is a perspective view, and FIG. 6B is a view of FIG. 本発明の実施例1の圃場情報の説明図である。It is explanatory drawing of the agricultural field information of Example 1 of this invention. 圃場の外形情報を入力する場合の説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。It is explanatory drawing in the case of inputting the external shape information of a farm field, (a) is explanatory drawing in case a drone is flying over the farm field, (b) is an image displayed on the controller corresponding to (a). It is explanatory drawing. 図8の続きの説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。It is explanatory drawing of a continuation of FIG. 8, (a) is explanatory drawing in case the drone is flying over the agricultural field, (b) is explanatory drawing of the image displayed on the controller corresponding to (a). . 圃場の外形情報と入出路と障害位置の説明図であり、(a)は圃場の角位置が4つの場合の説明図、(b)は(a)の圃場に障害位置が設定された場合の説明図である。It is explanatory drawing of the external shape information of an agricultural field, an entrance / exit, and an obstacle position, (a) is explanatory drawing in case of four angular positions of an agricultural field, (b) is the case where an obstacle position is set to the agricultural field of (a) It is explanatory drawing. 圃場の外形情報の入力処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of the input process of the external shape information of a farm field. ドローンの追従制御処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of a drone follow-up control process. トラクタの自律制御処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of the autonomous control process of a tractor. 実施例1の作業車両の制御システムの作用説明図である。It is operation | movement explanatory drawing of the control system of the working vehicle of Example 1. FIG. 図15は図3の要部説明図であり他の形態の各制御部の説明図である。FIG. 15 is an explanatory diagram of a main part of FIG. 3 and an explanatory diagram of each control unit in another form. 図16はドローンの姿勢が傾斜した場合に撮像される物体と撮像画像との大きさの関係を示す説明図である。FIG. 16 is an explanatory diagram showing the relationship between the size of an object to be imaged and the captured image when the attitude of the drone is inclined. 図17はドローンがズレ量の方向に傾斜した場合のズレ量と移動量の関係の説明図であり、(a)は下方カメラの向きが真下の場合の説明図、(b)はドローンが傾斜して下方カメラの撮像方向が傾斜した場合の説明図、(c)は(b)とは異なる場合の説明図、(d)は(b),(c)とは異なる場合の説明図である。FIG. 17 is an explanatory diagram of the relationship between the shift amount and the movement amount when the drone is tilted in the direction of the shift amount, (a) is an explanatory diagram when the direction of the lower camera is directly below, and (b) is the tilt of the drone Then, an explanatory diagram when the imaging direction of the lower camera is inclined, (c) is an explanatory diagram when it is different from (b), and (d) is an explanatory diagram when it is different from (b) and (c). . 他の形態の作業車両の制御システムの説明図である。It is explanatory drawing of the control system of the working vehicle of another form. 図18とは別の形態の作業車両の制御システムの説明図である。It is explanatory drawing of the control system of the working vehicle of a form different from FIG.

(作業車両の制御システム)
図1は本発明の実施例1の作業車両システムの全体説明図である。
以下、図面に基づき、本発明の好ましい実施の形態について説明する。
なお、各図において、発明の説明に不要な部材は適宜図示や説明を省略している。また、本明細書では作業車両の前進方向を向いて左右方向をそれぞれ左、右と言い、前進方向を前、後退方向を後と言うことにする。
(Work vehicle control system)
FIG. 1 is an overall explanatory view of a work vehicle system according to a first embodiment of the present invention.
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
In each of the drawings, illustrations and descriptions of members unnecessary for the description of the invention are omitted as appropriate. In the present specification, the left and right directions are referred to as left and right, respectively, facing the forward direction of the work vehicle, the forward direction is referred to as front, and the reverse direction is referred to as rear.

(トラクタ)
図1において、作業車両の制御システムSは、作業車両の一例として、農業機械のトラクタ1を有する。トラクタ1は、機体の前後部に前輪2,2と後輪3,3とを備え、機体前部のエンジンルーム4内に搭載したエンジンEの回転動力をトランスミッションケース5内の変速装置によって適宜減速して、これら前輪2,2と後輪3,3に伝えるように構成している。前記エンジンルーム4はボンネット6で覆う構成である。また、機体後部にロータリなどの作業機(図示せず)を装着し、PTO軸で作業機を駆動する構成としている。
(Tractor)
In FIG. 1, a work vehicle control system S includes an agricultural machine tractor 1 as an example of a work vehicle. The tractor 1 includes front wheels 2, 2 and rear wheels 3, 3 at the front and rear portions of the fuselage, and appropriately reduces the rotational power of the engine E mounted in the engine room 4 at the front of the fuselage by a transmission in the transmission case 5. Thus, the front wheels 2 and 2 and the rear wheels 3 and 3 are transmitted. The engine room 4 is configured to be covered with a bonnet 6. Further, a work machine (not shown) such as a rotary is mounted on the rear part of the machine body, and the work machine is driven by the PTO shaft.

機体の上部には、キャビン7が支持されている。キャビン7の内部では、トランスミッションケース5の上部位置に運転座席8が配置され、この運転座席8の前方には、ステアリングハンドル11や、駐車ブレーキ(図示せず)や作業機の回転速度を変更するPTO変速レバー(図示せず)等を配置して構成されている。また、運転座席8の前方には、速度メータ(図示せず)や、操作用の各種スイッチ(図示せず)、外部との通信用の通信ユニット(図示せず)などが配置されている。運転座席8の前方下部には、クラッチペダル12や、アクセルペダル13、左右ブレーキペダル(図示せず)等の走行操作具が配置されている。   A cabin 7 is supported on the upper part of the machine body. Inside the cabin 7, a driver's seat 8 is disposed at an upper position of the transmission case 5, and a steering handle 11, a parking brake (not shown), and a rotation speed of the work machine are changed in front of the driver's seat 8. A PTO speed change lever (not shown) is arranged. Further, a speed meter (not shown), various switches for operation (not shown), a communication unit (not shown) for communication with the outside, and the like are disposed in front of the driver seat 8. A traveling operation tool such as a clutch pedal 12, an accelerator pedal 13, and a left and right brake pedal (not shown) is disposed in the lower front portion of the driver seat 8.

図2は図1のトラクタを上方から見た場合の説明図である。
図2において、キャビン7のルーフ7a上面には、車両の測位装置の一例として、測位衛星から信号を受信して測位を行うGPSユニット21が配置されている。GPSユニット21は、車幅方向中央部に対応して配置されている。GPSユニット21の右側には、車両識別マークの一例としての数字マーク22が付されている。なお、車両識別マークとして数字マーク22を例示したが、図形マークとする構成も可能である。
FIG. 2 is an explanatory diagram when the tractor of FIG. 1 is viewed from above.
In FIG. 2, a GPS unit 21 that receives a signal from a positioning satellite and performs positioning is disposed on the roof 7 a of the cabin 7 as an example of a vehicle positioning device. The GPS unit 21 is disposed corresponding to the center in the vehicle width direction. On the right side of the GPS unit 21, a numerical mark 22 as an example of a vehicle identification mark is attached. In addition, although the number mark 22 was illustrated as a vehicle identification mark, the structure made into a graphic mark is also possible.

また、前記GPSユニット21に対して、後部には車両位置特定マーク23が付されている。実施例1の車両位置特定マーク23は、長方形部23aと、三角形部23bとを有する。実施例1では、長方形部23aは、黒の右前部23a1と、白の左前部23a2と、黒の左後部23a3と、白の右後部23a4とで構成されており、白黒の市松模様状に構成されている。また、三角形部23bは、右前部23a1と左前部23a2の中央前方に付されており、前方が鋭角状に形成されている。   Further, a vehicle position specifying mark 23 is attached to the rear portion of the GPS unit 21. The vehicle position specifying mark 23 according to the first embodiment includes a rectangular portion 23a and a triangular portion 23b. In the first embodiment, the rectangular portion 23a includes a black right front portion 23a1, a white left front portion 23a2, a black left rear portion 23a3, and a white right rear portion 23a4, and is configured in a black and white checkered pattern. Has been. Moreover, the triangular part 23b is attached | subjected to the center front of the right front part 23a1 and the left front part 23a2, and the front is formed in acute angle shape.

(ドローン)
図1において、作業車両の制御システムSは、無人航空機の一例としてのドローン31を有する。実施例1のドローン31は、制御部(図示せず)や、バッテリー(図示せず)、通信ユニット(図示せず)等が備えられた本体部32を有する。本体部32には、測位装置の一例として、測位衛星から信号を受信して測位を行う高精度GPSユニット33が支持されている。前記高精度GPSユニット33は、作業車両のGPSユニット21に比べて高精度に測位可能に構成されている。前記本体部32には、本体部から水平方向外側に向かって延びるアーム部34が支持されている。
(Drone)
In FIG. 1, the work vehicle control system S includes a drone 31 as an example of an unmanned aerial vehicle. The drone 31 according to the first embodiment includes a main body 32 provided with a control unit (not shown), a battery (not shown), a communication unit (not shown), and the like. As an example of a positioning device, the main body 32 supports a high-precision GPS unit 33 that receives a signal from a positioning satellite and performs positioning. The high-accuracy GPS unit 33 is configured to be capable of positioning with higher accuracy than the GPS unit 21 of the work vehicle. The main body 32 supports an arm 34 that extends from the main body toward the outside in the horizontal direction.

アーム部34の先端には、駆動源(図示せず)が配置されており、上下方向に延びる駆動軸には、回転翼36が支持されている。実施例1では、アーム部34が十字方向に延びて、各アーム部34の先端には各回転翼36が支持されている。すなわち、実施例1のドローン1は、いわゆる、クアドコプターとして構成されている。本体部32の下部には、撮像部材の一例としてのドローン31の下方を撮像する下方カメラ37が支持されている。また、本体部32の下部には、下方との距離を測定するレーダ38が支持されている。   A driving source (not shown) is disposed at the tip of the arm portion 34, and a rotary blade 36 is supported on a driving shaft extending in the vertical direction. In the first embodiment, the arm portions 34 extend in the cross direction, and the rotating blades 36 are supported at the tips of the arm portions 34. That is, the drone 1 of Example 1 is configured as a so-called quadcopter. A lower camera 37 that captures an image of a lower portion of a drone 31 as an example of an imaging member is supported at the lower portion of the main body portion 32. In addition, a radar 38 that measures a distance from below is supported at the lower part of the main body 32.

(コントローラ)
作業車両の制御システムSは、操作部材の一例としてのコントローラ41を有する。コントローラ41は、本体部の一例としてのタブレット端末部42を有する。タブレット端末部42は、制御部(図示せず)や、通信ユニット(図示せず)を有する。また、タブレット端末部42は、表示部の一例であり、入力部の一例としてのタッチパネル43を有する。タッチパネル43には、前記ドローン31の下方カメラ37の撮像画像等が表示される。タブレット端末部42に対して左右には、操作部の一例としてのジョイスティック44,46が支持されている。左右のジョイスティック44,46が操作されることで、前記ドローン31を作業者が遠隔操作可能に構成されている。
(controller)
The work vehicle control system S includes a controller 41 as an example of an operation member. The controller 41 has a tablet terminal unit 42 as an example of a main body unit. The tablet terminal unit 42 includes a control unit (not shown) and a communication unit (not shown). The tablet terminal unit 42 is an example of a display unit, and includes a touch panel 43 as an example of an input unit. On the touch panel 43, an image captured by the lower camera 37 of the drone 31 is displayed. Joysticks 44 and 46 as an example of an operation unit are supported on the left and right of the tablet terminal unit 42. By operating the left and right joysticks 44, 46, the drone 31 can be remotely operated by an operator.

(機能ブロック図の説明)
図3は本発明の実施例1の作業車両の制御システムが有する機能ブロック図の説明図である。
(Explanation of functional block diagram)
FIG. 3 is an explanatory diagram of a functional block diagram included in the work vehicle control system according to the first embodiment of the present invention.

図3において、実施例1の作業車両の制御システムSは、ドローンの制御部CA、コントローラの制御部CB、トラクタの位置情報処理制御部CC、トラクタの車両制御部CDを有する。各制御部CA〜CDは、外部との信号の入出力等を行う入出力インターフェース(I/O)、必要な処理を行うためのプログラムおよび情報等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に記憶するためのRAM(ランダムアクセスメモリ)、ROM等に記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、ならびに発振器等を有する小型情報処理装置、いわゆる、マイクロコンピュータにより構成されており、前記ROMやRAM、不揮発性メモリ等の記憶部材に記憶されたプログラムを実行することにより種々の機能を実現することができる。   In FIG. 3, the work vehicle control system S of the first embodiment includes a drone control unit CA, a controller control unit CB, a tractor position information processing control unit CC, and a tractor vehicle control unit CD. Each control unit CA to CD includes an input / output interface (I / O) for inputting / outputting signals from / to the outside, a ROM (read only memory) storing programs and information for performing necessary processing, and the like. RAM (random access memory) for temporarily storing various data, a CPU (central processing unit) that performs processing according to a program stored in a ROM, etc., and a small information processing device having an oscillator or the like, so-called It is constituted by a microcomputer, and various functions can be realized by executing a program stored in a storage member such as the ROM, RAM, or nonvolatile memory.

ここで、実施例1のトラクタ1において、位置情報処理制御部CCと、車両制御部CDとは、いわゆる、ECU:Electronic Control Unitで構成されており、通信回線としてのCAN:Controller Area Networkで接続されている。CANには、外部メモリMeが接続されており、トラクタ1の制御部CC,CDが、外部メモリMeに対して互いにアクセス可能に構成されている。   Here, in the tractor 1 according to the first embodiment, the position information processing control unit CC and the vehicle control unit CD are configured by a so-called ECU: Electronic Control Unit, and are connected by a CAN: Controller Area Network as a communication line. Has been. An external memory Me is connected to the CAN, and the control units CC and CD of the tractor 1 are configured to be able to access the external memory Me.

図3において、ドローンの制御部CAには、高精度GPSユニット33や、下方カメラ37、下方距離測定用のレーダ38、飛行状態センサSN1、通信ユニット(図示せず)などの出力信号が入力されている。   In FIG. 3, output signals from the high-precision GPS unit 33, the lower camera 37, the lower distance measuring radar 38, the flight state sensor SN1, the communication unit (not shown), and the like are input to the drone control unit CA. ing.

ここで、実施例1の飛行状態センサSN1は、いわゆる、6軸ジャイロセンサにより構成されている。飛行状態センサSN1は、ドローン31に固定された3軸直交方向について、各軸方向の加速度と、各軸周りの角速度とを検出して、ドローン31の加速度や姿勢状態などの飛行状態を検出する。実施例1では、ドローンの姿勢状態は、角速度の時間積分により重力方向に対する各軸の回転角度として検出可能である。すなわち、重力方向(重力加速度方向)を基準とする各軸周りの回転角度により、ドローン31の姿勢状態を検出することが可能である。なお、実施例1では、6軸ジャイロセンサの構成を例示するが、加速度を検出するセンサと角速度を検出するセンサとを、別々に設ける構成も可能である。   Here, the flight state sensor SN1 of the first embodiment is configured by a so-called 6-axis gyro sensor. The flight state sensor SN1 detects the flight state such as the acceleration and posture state of the drone 31 by detecting the acceleration in each axis direction and the angular velocity around each axis in the three-axis orthogonal directions fixed to the drone 31. . In the first embodiment, the posture state of the drone can be detected as the rotation angle of each axis with respect to the direction of gravity by time angular velocity integration. That is, it is possible to detect the attitude state of the drone 31 based on the rotation angle around each axis with the gravity direction (gravitational acceleration direction) as a reference. In the first embodiment, the configuration of the 6-axis gyro sensor is illustrated, but a configuration in which a sensor for detecting acceleration and a sensor for detecting angular velocity are separately provided is also possible.

また、制御部CAは、回転翼36のモータM1〜M4の制御信号や、通信ユニットの制御信号などを出力している。   Further, the control unit CA outputs control signals for the motors M1 to M4 of the rotor blades 36, a control signal for the communication unit, and the like.

図4は図3の要部説明図であり各制御部の説明図である。
図4において、ドローンの制御部CAは、前記信号出力要素からの出力信号に応じた処理を実行して、前記制御要素に制御信号を出力する機能を有している。すなわち、制御部CAは下記の機能手段を有している。
FIG. 4 is an explanatory diagram of a main part of FIG. 3 and is an explanatory diagram of each control unit.
In FIG. 4, the control unit CA of the drone has a function of executing processing according to an output signal from the signal output element and outputting a control signal to the control element. That is, the control unit CA has the following functional means.

ドローンの測位手段CA1は、高精度GPSユニット33の測位結果に基づいて、ドローン1の位置Dαを測位する。
飛行制御手段CA2は、コントローラ41からの制御信号と、飛行状態センサSN1とに基づいて、各モータM1〜M4の回転数を制御して、ドローン1の飛行高度、飛行方向、飛行速度、飛行姿勢を制御する。なお、実施例1の飛行制御手段CA2では、ドローン31の上下方向が重力方向に対して成す傾斜角度が予め設定された範囲となるように制御される。すなわち、下方カメラ37が重力方向に沿った下方を撮像するように飛行姿勢が制御される。
The drone positioning means CA1 measures the position Dα of the drone 1 based on the positioning result of the high-accuracy GPS unit 33.
The flight control means CA2 controls the number of rotations of the motors M1 to M4 based on the control signal from the controller 41 and the flight state sensor SN1, and the flight altitude, flight direction, flight speed, flight attitude of the drone 1 To control. In the flight control means CA2 of the first embodiment, control is performed so that the inclination angle formed by the vertical direction of the drone 31 with respect to the direction of gravity is within a preset range. That is, the flight posture is controlled so that the lower camera 37 images the lower part along the direction of gravity.

情報送信手段CA3は、下方カメラ37で撮像した画像情報や、ドローン1の位置情報、ドローン31の姿勢情報など、対応する時期に取得された情報を他の制御部に送信する。   The information transmission unit CA3 transmits information acquired at a corresponding time, such as image information captured by the lower camera 37, position information of the drone 1, and posture information of the drone 31, to other control units.

(コントローラの制御部CB)
図3において、コントローラの制御部CBには、タッチパネル43や、ジョイスティック44,46、通信ユニット(図示せず)などの出力信号が入力されている。
また、制御部CBは、通信ユニットの制御信号などを出力している。
(Controller control unit CB)
In FIG. 3, output signals from the touch panel 43, the joysticks 44 and 46, a communication unit (not shown), and the like are input to the controller CB of the controller.
The control unit CB outputs a control signal for the communication unit and the like.

図4において、モード設定手段CB1は、ドローン31を、ジョイスティック44,46の操作に基づいて飛行させるマニュアル操作モードか、自律制御により飛行させる自律制御モードかを設定する。実施例1では、タッチパネル43に表示されたメニューボタン(図示せず)が押されることで、マニュアル操作モードか、自律制御モードかを切り替え可能に構成されている。
マニュアル制御の送信手段CB2は、マニュアル操作モードが設定されている場合に、ジョイスティック44,46の操作に応じたドローン31の制御信号を、ドローン31に送信する。
In FIG. 4, the mode setting means CB1 sets the manual operation mode in which the drone 31 flies based on the operation of the joysticks 44 and 46 or the autonomous control mode in which the drone 31 flies by autonomous control. In the first embodiment, a menu button (not shown) displayed on the touch panel 43 is pressed to switch between the manual operation mode and the autonomous control mode.
The manual control transmission means CB2 transmits a control signal of the drone 31 corresponding to the operation of the joysticks 44 and 46 to the drone 31 when the manual operation mode is set.

図5はコントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。
空撮表示手段CB3は、ドローン31の下方カメラ37の撮像画像43aをタッチパネル43に表示する。図5において、実施例1では、前記撮像画像43aには、ドローン31の下方に対応する領域に枠画像43b,43cを重ねて表示する。ここで、枠画像43b,43cは、ドローン31が、トラクタ1の上方の予め設定された基準位置に移動した場合に、マーク23,22が内側となる位置に設定されている。
FIG. 5 is an explanatory diagram of an image displayed on the touch panel of the controller, and is an explanatory diagram of an image captured by the drone.
The aerial image display means CB3 displays the captured image 43a of the lower camera 37 of the drone 31 on the touch panel 43. In FIG. 5, in the first embodiment, frame images 43 b and 43 c are displayed on the captured image 43 a in a region corresponding to the lower side of the drone 31. Here, the frame images 43 b and 43 c are set at positions where the marks 23 and 22 are located inside when the drone 31 moves to a preset reference position above the tractor 1.

画像処理手段CB4は、マーク検出手段CB4aと、トラクタ姿勢検出手段CB4bとを有し、下方カメラ37の撮像画像43aを画像処理する。
マーク検出手段CB4aは、下方カメラ37の撮像画像43aを画像処理して、数字マーク22と、車両位置特定マーク23と、を検出する。
The image processing unit CB4 includes a mark detection unit CB4a and a tractor posture detection unit CB4b, and performs image processing on the captured image 43a of the lower camera 37.
The mark detection unit CB4a performs image processing on the captured image 43a of the lower camera 37 to detect the number mark 22 and the vehicle position specifying mark 23.

トラクタ姿勢検出手段CB4bは、撮像画像43aを画像処理して、撮像されたマーク23の形状に基づきトラクタ1の姿勢変化を検出する。すなわち、図2において、前方部23a1,23a2が、後方部23a3,23a4よりも大きく撮像された場合には、トラクタ1が傾斜面を上っている姿勢と判別可能である。また、後方部23a3,23a4が、前方部23a1,23a2よりも大きく撮像された場合には、トラクタ1が傾斜面を下っている姿勢と判別可能である。さらに、右側部23a1,23a4が左側部23a2,23a3よりも大きく撮像された場合には、トラクタ1が左下に傾斜している姿勢と判別可能である。また、左側部23a2,23a3が右側部23a1,23a4よりも大きく撮像された場合には、トラクタ1が右下に傾斜している姿勢と判別可能である。すなわち、撮像画像43a上の長方形部23a1〜23a4間の面積の大小に応じてトラクタ1の傾斜姿勢を判別可能である。よって、実施例1のトラクタ姿勢検出手段CB4bは、撮像画像43aにおける長方形部23aの各部23a1〜23a4の面積の割合を算出する。そして、算出された面積の割合に応じて、水平面に対するトラクタ1の姿勢を検出する。   The tractor posture detection means CB4b performs image processing on the captured image 43a, and detects the posture change of the tractor 1 based on the shape of the captured mark 23. That is, in FIG. 2, when the front portions 23a1 and 23a2 are imaged larger than the rear portions 23a3 and 23a4, it can be determined that the posture of the tractor 1 is rising on the inclined surface. Further, when the rear portions 23a3 and 23a4 are photographed larger than the front portions 23a1 and 23a2, it can be determined that the posture of the tractor 1 is down the inclined surface. Further, when the right side portions 23a1 and 23a4 are imaged larger than the left side portions 23a2 and 23a3, it can be determined that the tractor 1 is inclined to the lower left. Further, when the left side portions 23a2 and 23a3 are imaged larger than the right side portions 23a1 and 23a4, it can be determined that the tractor 1 is inclined to the lower right. That is, the inclination posture of the tractor 1 can be determined according to the size of the area between the rectangular portions 23a1 to 23a4 on the captured image 43a. Therefore, the tractor posture detection unit CB4b according to the first embodiment calculates the ratio of the areas of the respective portions 23a1 to 23a4 of the rectangular portion 23a in the captured image 43a. And the attitude | position of the tractor 1 with respect to a horizontal surface is detected according to the ratio of the calculated area.

自律制御手段CB5は、高さ測定手段CB5aと、前方特定手段CB5bと、ズレ量演算手段CB5cと、移動量演算手段CB5dと、初期制御手段CB5eと、制御量演算手段CB5fと、制御量送信手段CB5gとを有する。自律制御手段CB5は、自律制御モードが設定されている場合に、ドローン31の制御信号を、ドローン31に送信する。すなわち、ジョイスティック44,46の操作に基づかずに、ドローン31を飛行させる自律制御の制御信号を送信する。   Autonomous control means CB5 includes height measuring means CB5a, forward specifying means CB5b, displacement amount calculating means CB5c, movement amount calculating means CB5d, initial control means CB5e, control amount calculating means CB5f, and control amount transmitting means. CB5g. The autonomous control means CB5 transmits a control signal of the drone 31 to the drone 31 when the autonomous control mode is set. That is, an autonomous control signal for flying the drone 31 is transmitted without being based on the operation of the joysticks 44 and 46.

高さ測定手段CB5aは、レーダ38の測定結果に基づいて、トラクタ1や地面に対するドローン31の高さLを測定する。
前方特定手段CB5bは、検出された車両位置特定マーク23において、長方径部23aに対する三角形部23bの先端の向きを、トラクタ1の前方と特定する。
The height measuring means CB5a measures the height L of the drone 31 with respect to the tractor 1 and the ground based on the measurement result of the radar 38.
In the detected vehicle position specifying mark 23, the front specifying means CB5b specifies the direction of the tip of the triangular portion 23b with respect to the longer diameter portion 23a as the front of the tractor 1.

ズレ量演算手段CB5cは、撮像画像43a上において、ドローン31と、トラクタ1との位置のズレ量uを演算する。図5において、実施例1のズレ量演算手段CB5cは、下方カメラ37の真下に対応する十字位置Dから、車両位置特定マーク23の三角部23aに対応して予め設定された目標位置Tまでのベクトル量をズレ量uとして演算する。すなわち、十字位置Dが目標位置Tに到達した場合には、撮像画像43a上では、枠画像43b,43cの内側にマーク23,22が移動する。   The displacement amount calculation means CB5c calculates the displacement amount u between the positions of the drone 31 and the tractor 1 on the captured image 43a. In FIG. 5, the deviation amount calculation means CB5 c according to the first embodiment is from the cross position D corresponding directly below the lower camera 37 to the target position T set in advance corresponding to the triangular portion 23 a of the vehicle position specifying mark 23. The vector amount is calculated as the deviation amount u. That is, when the cross position D reaches the target position T, the marks 23 and 22 move to the inside of the frame images 43b and 43c on the captured image 43a.

図6は撮像される物体と撮像画像との大きさの関係を示す説明図であり、(a)は斜視図、(b)は(a)を断面方向から見た図である。
移動量演算手段CB5dは、ズレ量uに基づいて、ドローン31が基準位置に移動する場合に水平方向に移動すべき移動量mを演算する。図6において、撮像画像43aは、実際のトラクタ1が投影面α上に透視投影されて得られた画像と考えられる。よって、ズレ量uを、撮像された元のトラクタ1の大きさに変換する。実施例1では、下方カメラ37の焦点距離と、ドローン31が移動すべき基準の高さとに基づいて予め設定された係数aに対して、ベクトル量である移動量mを、m=a・uと演算する。
6A and 6B are explanatory views showing the relationship between the size of an object to be picked up and a picked-up image. FIG. 6A is a perspective view, and FIG. 6B is a view of FIG.
The movement amount calculation means CB5d calculates a movement amount m to be moved in the horizontal direction when the drone 31 moves to the reference position based on the deviation amount u. In FIG. 6, the captured image 43a is considered to be an image obtained by perspective projection of the actual tractor 1 on the projection plane α. Therefore, the amount of deviation u is converted into the size of the original imaged tractor 1. In the first embodiment, the moving amount m, which is a vector amount, is set to m = a · u with respect to a coefficient a set in advance based on the focal length of the lower camera 37 and the reference height that the drone 31 should move. And calculate.

初期制御手段CB5eは、自律制御モードが設定された場合に、撮像画像43a上にマーク23が検出されるまで、ドローン41を上昇させる制御信号を送信する。
制御量演算手段CB5fは、レーダ38の測定結果に基づいて、ドローン31がトラクタ1に対して予め設定された高さとなるようにモータM1〜M4の制御量を演算する。また、制御量演算手段CB5fは、ドローン31の向きを、トラクタ1の前方に合わせるためのモータM1〜M4の制御量を演算する。さらに、制御量演算手段CB5fは、移動量mに基づいてモータM1〜M4の制御量を演算する。すなわち、制御量演算手段CB5fは、ドローン31が、前記基準位置に飛行移動する制御量を演算する。これにより、自律制御モードの場合には、数字マーク22や車両位置特定マーク23が下方カメラ37の撮像範囲内に保持されるようにドローン31が制御される。
When the autonomous control mode is set, the initial control unit CB5e transmits a control signal for raising the drone 41 until the mark 23 is detected on the captured image 43a.
Based on the measurement result of the radar 38, the control amount calculating means CB5f calculates the control amounts of the motors M1 to M4 so that the drone 31 has a preset height with respect to the tractor 1. Further, the control amount calculation means CB5f calculates the control amounts of the motors M1 to M4 for adjusting the direction of the drone 31 to the front of the tractor 1. Further, the control amount calculation means CB5f calculates the control amounts of the motors M1 to M4 based on the movement amount m. That is, the control amount calculation means CB5f calculates a control amount for the drone 31 to fly to the reference position. Thereby, in the autonomous control mode, the drone 31 is controlled so that the number mark 22 and the vehicle position specifying mark 23 are held within the imaging range of the lower camera 37.

制御量送信手段CB5gは、演算された制御量に応じた制御信号を、ドローン31に送信する。
到達判別手段CB6は、ドローン31が前記基準位置に到達したか否かを判別する。実施例1では、自律制御モードが設定された後に、ドローン31がトラクタ1に対して予め設定された高さに移動し、且つ、トラクタ1のマーク23,22が、枠画像43b,43cの内側に移動したことが検出された場合にドローン1が基準位置に到達したと判別する。なお、実施例1では、枠画像43b,43cの内側に移動したか否かは、移動量mの大きさが所定の閾値以下であるか否かに基づいて判断される。
The control amount transmitting means CB5g transmits a control signal corresponding to the calculated control amount to the drone 31.
The arrival determination means CB6 determines whether or not the drone 31 has reached the reference position. In the first embodiment, after the autonomous control mode is set, the drone 31 moves to a height set in advance with respect to the tractor 1, and the marks 23 and 22 of the tractor 1 are inside the frame images 43b and 43c. It is determined that the drone 1 has reached the reference position when it is detected that it has moved to. In the first embodiment, whether or not the frame images 43b and 43c have been moved is determined based on whether or not the amount of movement m is equal to or less than a predetermined threshold.

図7は本発明の実施例1の圃場情報の説明図である。
圃場情報の記憶手段CB11は、複数の圃場Hを識別する圃場の識別情報や、各圃場の位置情報や外形情報、進入路(退出路)としての入出路P1情報等の圃場に関する圃場情報を記憶する。
FIG. 7 is an explanatory diagram of the field information according to the first embodiment of the present invention.
The field information storage means CB11 stores field information relating to the field such as field identification information for identifying a plurality of fields H, position information and external shape information of each field, and entry / exit path P1 information as an entry path (exit path). To do.

図8は圃場の外形情報を入力する場合の説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。
図9は図8の続きの説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。
圃場外形設定手段CB12は、開始の判別手段CB12aと、画像表示手段CB12bと、位置入力手段CB12cと、を有する。圃場外形設定手段CB12は、圃場の外形を設定する。
FIG. 8 is an explanatory diagram when inputting the field outline information, (a) is an explanatory diagram when the drone is flying over the field, and (b) is displayed on the controller corresponding to (a). FIG.
FIG. 9 is an explanatory diagram continued from FIG. 8, in which (a) is an explanatory diagram when the drone is flying over the field, and (b) is an explanation of an image displayed on the controller corresponding to (a). FIG.
The field outline setting unit CB12 includes a start determination unit CB12a, an image display unit CB12b, and a position input unit CB12c. The field outline setting means CB12 sets the outline of the field.

開始の判別手段CB12aは、圃場の外形情報の設定を開始するか否かを判別する。実施例1では、タッチパネル43に表示された外形を設定するためのボタン(図示せず)が入力された場合に、圃場Hを選択するボタン(図示せず)が入力された場合、選択された圃場Hについて圃場の外形情報の入力を開始する。   The start discriminating means CB12a discriminates whether or not to start setting of the field outline information. In the first embodiment, when a button (not shown) for setting the outer shape displayed on the touch panel 43 is input, a button (not shown) for selecting the field H is selected. The input of the field outline information for the field H is started.

画像表示手段CB12bは、タッチパネル43に、撮像画像43aと、ドローン31の位置Dαの情報画像43dと、ボタン43e,43fと、を表示する。なお、実施例1では、設定終了ボタン43fは、位置設定ボタン43eが4回入力された場合に表示する。   The image display means CB12b displays a captured image 43a, an information image 43d at the position Dα of the drone 31, and buttons 43e and 43f on the touch panel 43. In the first embodiment, the setting end button 43f is displayed when the position setting button 43e is input four times.

図10は圃場の外形情報と入出路と障害位置の説明図であり、(a)は圃場の角位置が4つの場合の説明図、(b)は(a)の圃場に障害位置が設定された場合の説明図である。
位置入力手段CB12cは、位置設定ボタン43eが入力される度に、ドローン31の測位された位置Dαを圃場の外形情報の一例としての角位置Hαとして取得する。そして、設定終了ボタン43fが入力された場合に、角位置Hαの入力の受付を終了する。これにより、例えば、図8〜図10において、角位置Hα1,Hα2,Hα3,Hα4を順に直線で結んで圃場の外形が設定される。
10A and 10B are explanatory diagrams of field outline information, entry / exit paths, and obstacle positions. FIG. 10A is an explanatory diagram when the angular positions of the field are four, and FIG. 10B is a diagram where obstacle positions are set in the field of FIG. FIG.
Each time the position setting button 43e is input, the position input unit CB12c acquires the position Dα measured by the drone 31 as the angular position Hα as an example of the field outline information. When the setting end button 43f is input, the reception of the input of the angular position Hα is ended. Accordingly, for example, in FIGS. 8 to 10, the outer shape of the field is set by connecting the corner positions Hα1, Hα2, Hα3, and Hα4 in a straight line in order.

追加情報の設定手段CB13は、角位置追加手段CB13aと、入出路設定手段CB13bと、障害位置設定手段CB13cと、を有する。追加情報の設定手段CB13では、タッチパネル43上に圃場Hの画像を表示し、タッチされた圃場Hの位置に追加情報を設定する。   The additional information setting unit CB13 includes a corner position adding unit CB13a, an entry / exit route setting unit CB13b, and an obstacle position setting unit CB13c. In the additional information setting means CB13, an image of the farm field H is displayed on the touch panel 43, and additional information is set at the position of the touched farm field H.

角位置追加手段CB13aは、追加情報として、追加の角位置Hαを設定する。
入出路設定手段CB13bは、追加情報として、入出路P1を設定する。
障害位置入力手段CB13cは、図10(b)において、追加情報として、電柱などの位置を示す障害位置P2を設定する。
The corner position adding means CB13a sets an additional corner position Hα as additional information.
The entry / exit setting means CB13b sets the entry / exit P1 as additional information.
The fault position input means CB13c sets a fault position P2 indicating the position of a utility pole or the like as additional information in FIG. 10B.

登録手段CB14は、タッチパネル43のボタン(図示せず)が入力されると、設定された圃場Hに関する情報Hα、P1,P2を登録する。実施例1では、圃場情報の記憶手段CB11に記憶された情報を更新する。   When a button (not shown) on the touch panel 43 is input, the registration unit CB14 registers information Hα, P1, P2 regarding the set farm field H. In the first embodiment, the information stored in the field information storage unit CB11 is updated.

車両特定手段CB15は、下方カメラ37が撮像した数字マーク22の撮像画像と、予め設定された複数の作業車両と数字マークとを対応させた参照情報と、に基づいて、数字マーク22に対応する作業車両を特定する。例えば、実施例1の車両特定手段CB15では、「01」の数字マーク22が検出されると、撮像された作業車両がトラクタ1であると特定する。   The vehicle specifying means CB15 corresponds to the numerical mark 22 based on the captured image of the numerical mark 22 captured by the lower camera 37 and reference information in which a plurality of preset work vehicles and numerical marks are associated with each other. Identify the work vehicle. For example, the vehicle specifying unit CB15 of the first embodiment specifies that the imaged work vehicle is the tractor 1 when the numeral mark 22 of “01” is detected.

工程記憶手段CB16は、作業車両毎に予め設定された作業工程の情報を記憶する。図7、図10において、実施例1では、工程記憶手段CB16は、作業工程の情報として、圃場Hの作業順が設定された作業順番H1〜H6情報や、圃場毎の作業を開始する作業起点P3情報、作業車両毎の車幅W情報などを記憶している。   The process storage means CB16 stores work process information set in advance for each work vehicle. 7 and 10, in the first embodiment, the process storage unit CB <b> 16 includes the work order H <b> 1 to H <b> 6 information in which the work order of the farm field H is set as the work process information, and the work starting point for starting the work for each farm field. P3 information, vehicle width W information for each work vehicle, and the like are stored.

作業情報の表示手段CB17は、特定された作業車両に対応する作業工程に基づく画像を、表示部の一例としてのタッチパネル43に表示する。図7、図10において、実施例1では、作業工程に基づく画像として、圃場Hの案内経路R1、R2や、トラクタ1の作業中の位置Tα,Tβ、後述する作業マップ情報などの画像を、位置情報処理制御部CCの処理に基づいて表示する。これにより、作業者に、作業工程を認識させ易くなる。また、作業者が、誤って作業車両に対応していない作業工程を参照してしまうことも抑制できる。さらに、図7において、作業順番H1〜H6に沿って圃場H間を移動する場合などに作業者にトラクタ1の位置を認識させ易くなっている。   The work information display means CB17 displays an image based on the work process corresponding to the specified work vehicle on the touch panel 43 as an example of a display unit. 7 and 10, in the first embodiment, as images based on the work process, images such as guidance routes R1 and R2 of the farm field H, positions Tα and Tβ during work of the tractor 1, work map information to be described later, It displays based on the process of the position information processing control part CC. This makes it easier for the worker to recognize the work process. In addition, it is possible to prevent the worker from referring to a work process that does not correspond to the work vehicle by mistake. Further, in FIG. 7, it is easy for the operator to recognize the position of the tractor 1 when moving between the farm fields H along the work order H1 to H6.

(トラクタの位置情報処理制御部CC)
図3において、位置情報処理制御部CCは、GPSユニット21や、通信ユニット(図示せず)などの出力信号が入力されている。
また、位置情報処理制御部CCは、通信ユニットの制御信号などを出力している。
図4において、位置情報処理制御部CCは、前記信号出力要素からの出力信号に応じた処理を実行して、前記制御要素に制御信号を出力する機能を有している。
圃場情報の取得手段CC1は、コントローラ41に記憶されている圃場情報や、作業工程の情報を取得して、外部メモリMeに記憶させる。
(Tractor position information processing control unit CC)
In FIG. 3, the position information processing control unit CC receives output signals from the GPS unit 21 and a communication unit (not shown).
Further, the position information processing control unit CC outputs a control signal of the communication unit and the like.
In FIG. 4, the position information processing control unit CC has a function of executing a process according to an output signal from the signal output element and outputting a control signal to the control element.
The field information acquisition means CC1 acquires the field information stored in the controller 41 and information on the work process, and stores it in the external memory Me.

図10において、作業予定情報の作成手段CC2は、車幅Wと、圃場の外形情報Hαと、入出路P1と、障害位置P2と、作業起点P3と、に基づいて、入出路P1から作業起点P3までの進入案内経路R1と、作業起点P3から入出路P1までの作業案内経路R2と、を作成する。ここで、作業予定情報の作成手段CC2では、障害位置P2が設定されている場合には、図10(b)に示すように、障害位置P2を回避した経路R1,R2を作成する。なお、経路R1,R2の作成については従来公知であり、例えば、特開平10−66405号公報などに記載されている。よって、経路R1,R2の作成についての詳細な説明は省略する。   In FIG. 10, the work schedule information creating means CC2 is based on the vehicle width W, the field outline information Hα, the entry / exit path P1, the obstacle position P2, and the work start point P3. An approach guidance route R1 up to P3 and a work guidance route R2 from the work starting point P3 to the entry / exit route P1 are created. Here, when the failure position P2 is set, the work schedule information creation means CC2 creates routes R1 and R2 that avoid the failure position P2, as shown in FIG. 10B. The creation of the routes R1 and R2 is conventionally known, and is described in, for example, Japanese Patent Laid-Open No. 10-66405. Therefore, the detailed description about creation of the routes R1 and R2 is omitted.

自律作業情報の作成手段CC3は、特定された作業車両に対応する自律作業情報を作成する。実施例1の自律作業情報の作成手段CC3は、作業案内経路R2に沿った各位置に応じてトラクタ1の予定走行速度を設定する。また、自律作業情報の作成手段CC3は、作業案内経路R2に沿った各位置に応じてトラクタ1に装着された作業機(図示せず)の予定作業位置を設定する。   The autonomous work information creation means CC3 creates autonomous work information corresponding to the specified work vehicle. The autonomous work information creation means CC3 of the first embodiment sets the planned traveling speed of the tractor 1 according to each position along the work guidance route R2. In addition, the autonomous work information creation means CC3 sets a scheduled work position of a work machine (not shown) attached to the tractor 1 according to each position along the work guide route R2.

車両測位手段CC4は、測位可能フラグFLと、高精度測位手段CC4aと、簡易測位手段CC4bとを有する。車両測位手段CC4はトラクタ1の位置Tα,Tβを測位する。   The vehicle positioning means CC4 includes a positioning enable flag FL, high-precision positioning means CC4a, and simple positioning means CC4b. The vehicle positioning means CC4 measures the positions Tα and Tβ of the tractor 1.

測位可能フラグFLは、初期値は「0」であり、自律制御モードが設定されてドローン31が基準位置に到達したと判別された場合に「1」になる。そして、自律制御モードが終了した場合、すなわち、マニュアル操作モードに設定された場合に「0」となる。   The initial value of the positioning enable flag FL is “0”, and becomes “1” when it is determined that the autonomous control mode is set and the drone 31 has reached the reference position. When the autonomous control mode ends, that is, when the manual operation mode is set, “0” is set.

高精度測位手段CC4aは、測位可能フラグFLが「1」の場合に、高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαを測位する。図2において、実施例1では、実際のトラクタ1上の位置T′からGPS受信機21の配置位置までのズレを示すベクトル量u0に基づいて、トラクタ1の位置Tαを測位する。すなわち、水平方向について、Tα=Dα+u0と演算する。   The high-precision positioning means CC4a measures the position Tα of the tractor 1 based on the positioning result of the high-precision GPS unit 33 when the positioning enable flag FL is “1”. In FIG. 2, in the first embodiment, the position Tα of the tractor 1 is measured based on the vector amount u0 indicating the deviation from the actual position T ′ on the tractor 1 to the position where the GPS receiver 21 is disposed. That is, Tα = Dα + u0 is calculated in the horizontal direction.

簡易測位手段CC4bは、測位可能フラグFLが「0」の場合に、車載のGPSユニット21の測位結果に基づいて、トラクタ1の位置Tβを測位する。
作業マップ情報の作成手段CC5は、トラクタ1の位置Tα,Tβと、前記測位位置Tα,Tβで作業したか否かと、を記録した作業マップ情報を作成する。なお、実施例1の作業マップ情報には、測位位置Tα,Tβに対応させて、トラクタ1の姿勢変化に基づいて圃場表面の傾斜状態を記録する構成も可能である。
The simple positioning means CC4b measures the position Tβ of the tractor 1 based on the positioning result of the in-vehicle GPS unit 21 when the positioning enable flag FL is “0”.
The work map information creating means CC5 creates work map information that records the positions Tα and Tβ of the tractor 1 and whether or not the work is performed at the positioning positions Tα and Tβ. In addition, the work map information of the first embodiment can be configured to record the inclination state of the field surface based on the posture change of the tractor 1 in correspondence with the positioning positions Tα and Tβ.

(トラクタの車両制御部CD)
車両制御部CDは、車速センサSN11、ハンドル切れ角センサSN12、変速センサSN13等の信号出力要素からの出力信号が入力されている。
車両制御部CDは、エンジンEや、ステアリングモータM11、変速装置HS、ブレーキシリンダBS、その他の図示しない制御要素に接続されている。
(Tractor vehicle control unit CD)
The vehicle control unit CD is supplied with output signals from signal output elements such as the vehicle speed sensor SN11, the steering angle sensor SN12, and the shift sensor SN13.
The vehicle control unit CD is connected to the engine E, the steering motor M11, the transmission HS, the brake cylinder BS, and other control elements (not shown).

自律制御手段CD1は、スリップの回避手段CD1aと、オーバーランの回避手段CD1bと、を有する。自律制御手段CD1は、トラクタ1の位置Tαや、外部メモリMeに記憶された作業案内経路R2、予定走行速度、そして、トラクタの姿勢変化などに基づいて、エンジンEや、ステアリングモータM11、変速装置HS、ブレーキシリンダBSなどを制御する。これにより、作業案内経路R2に沿ってトラクタ1を自動で走行させる。また、実施例1の自律制御手段CD1は、測位位置Tαと、予定作業位置と、に基づいて、作業予定経路R2に沿って作業機1a(後述の図14参照)に作業させる。ここで、自律制御手段CD1では、トラクタ1が傾斜面を上っている場合にはエンジンEの回転数を上げ、トラクタ1が傾斜面を下っている場合にはエンジンEの回転数を下げ、予定走行速度に合わせ易くする。   The autonomous control means CD1 includes slip avoidance means CD1a and overrun avoidance means CD1b. The autonomous control means CD1 is based on the position Tα of the tractor 1, the work guide route R2 stored in the external memory Me, the planned travel speed, the attitude change of the tractor, etc., the engine E, the steering motor M11, the transmission device. Control HS, brake cylinder BS, etc. Thereby, the tractor 1 is automatically traveled along the work guide route R2. Further, the autonomous control means CD1 of the first embodiment causes the work implement 1a (see FIG. 14 described later) to work along the planned work route R2 based on the positioning position Tα and the planned work position. Here, the autonomous control means CD1 increases the rotational speed of the engine E when the tractor 1 is above the inclined surface, and decreases the rotational speed of the engine E when the tractor 1 is below the inclined surface. Make it easy to match the planned traveling speed.

なお、実施例1では、作業案内経路R2に沿ってトラクタ1を自律制御させる構成を例示するが、これに限定されない。例えば、進入案内経路R1に沿って自律制御させる構成が可能である。また、図7において、圃場の情報や作業順番H1〜H6に基づいて、圃場の入出路P1から次の圃場の入出路P1までが設定された経路に基づいて自律制御によりトラクタ1を移動させる構成も可能である。   In addition, in Example 1, although the structure which autonomously controls the tractor 1 along work guidance route R2 is illustrated, it is not limited to this. For example, a configuration in which autonomous control is performed along the approach guidance route R1 is possible. Moreover, in FIG. 7, the structure which moves the tractor 1 by autonomous control based on the path | route from the entrance / exit path P1 of the agricultural field to the entrance / exit path P1 of the next agricultural field based on the information of the agricultural field and work order H1-H6. Is also possible.

スリップの回避手段CD1aは、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上遅い場合に、エンジンEの回転を低下させる。なお、実施例1ではエンジンEの回転を低下させる構成を例示したが、これに限定されず、エンジンEの回転は低下させずに、伝達速度を切り替えて車輪2,2,3,3の回転を低下させる構成も可能である。   The slip avoidance means CD1a reduces the rotation of the engine E when the traveling speed of the tractor 1 is slower than a predetermined scheduled traveling speed by a predetermined speed or more. In addition, although the structure which reduces the rotation of the engine E was illustrated in Example 1, it is not limited to this, The transmission speed is switched and rotation of the wheels 2, 2, 3, and 3 is not limited to this. It is also possible to adopt a configuration that lowers.

オーバーランの回避手段CD1bは、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上速い場合に、エンジンEの回転を低下させる。なお、実施例1ではエンジンEの回転を低下させる構成を例示したが、これに限定されず、エンジンEの回転は低下させずに、伝達速度を切り替えて車輪2〜3の回転を低下させる構成も可能である。   The overrun avoiding means CD1b reduces the rotation of the engine E when the traveling speed of the tractor 1 is higher than the set scheduled traveling speed by a predetermined speed or more. In addition, although the structure which reduces the rotation of the engine E was illustrated in Example 1, it is not limited to this, The structure which switches the transmission speed and reduces the rotation of the wheels 2-3 without reducing the rotation of the engine E Is also possible.

なお、トラクタ1などの作業車両を作業案内経路R2などに基づいて、自律制御により無人走行作業させる構成は、従来公知の構成を適用可能である。よって、回避手段CD1a,CD1b以外についての自律制御手段CD1の詳細な説明は省略する。なお、作業車両を自律制御させる構成は、例えば、特開平10−66405号公報等に記載されている。   In addition, conventionally well-known structure is applicable to the structure which makes work vehicles, such as the tractor 1, run unmanned by autonomous control based on work guidance path | route R2 etc. FIG. Therefore, detailed description of the autonomous control means CD1 other than the avoidance means CD1a and CD1b is omitted. A configuration for autonomously controlling the work vehicle is described in, for example, JP-A-10-66405.

(実施例1の流れ図の説明)
次に、実施例1の作業車両の制御システムにおける制御の流れを流れ図、いわゆるフローチャートを使用して説明する。なお、以下では、圃場の外形情報の入力処理と、ドローンの追従制御処理と、トラクタの自律制御処理とについて説明する。圃場の外形情報の入力処理と、ドローンの追従制御処理と、トラクタの自律制御処理以外の他の処理は簡単であるため、フローチャートを用いた説明は省略する。
(Explanation of flowchart of Example 1)
Next, a control flow in the work vehicle control system according to the first embodiment will be described with reference to a flow chart, a so-called flowchart. In the following, a description will be given of the input process of the field outline information, the drone follow-up control process, and the tractor autonomous control process. Since other processes other than the input process of the field outline information, the drone follow-up control process, and the tractor autonomous control process are simple, the description using the flowchart is omitted.

(圃場の外形情報の入力処理のフローチャートの説明)
図11は圃場の外形情報の入力処理のフローチャートの説明図である。
図11のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
図11に示すフローチャートはドローン31およびコントローラ41の電源投入により開始される。
(Explanation of flowchart for input process of field outline information)
FIG. 11 is an explanatory diagram of a flowchart of input processing of the field outline information.
The process of each step ST of the flowchart of FIG. 11 is performed according to a program stored in the control units CA to CD of the work vehicle control system S. Further, this process is executed in parallel with other various processes of the work vehicle control system S.
The flowchart shown in FIG. 11 is started when the drone 31 and the controller 41 are turned on.

図11のST1において、圃場の外形情報の設定の開始の入力があるか否かを判別する。イエス(Y)の場合はST2に進み、ノー(N)の場合はST1を繰り返す。
ST2において、外形情報の設定をする圃場が選択されたか否かを判別する。イエス(Y)の場合はST3に進み、ノー(N)の場合はST2を繰り返す。
ST3において、入力数nを1とする(n=1とする。)。そして、ST4に進む。
In ST1 of FIG. 11, it is determined whether or not there is an input for starting the setting of the field outline information. If yes (Y), the process proceeds to ST2. If no (N), ST1 is repeated.
In ST2, it is determined whether or not a field for which outline information is set has been selected. If yes (Y), the process proceeds to ST3, and if no (N), ST2 is repeated.
In ST3, the number n of inputs is set to 1 (n = 1). Then, the process proceeds to ST4.

ST4において、入力数nが4以下(n≦4)か否かを判別する。イエス(Y)の場合はST5に進み、ノー(N)の場合はST9に進む。
ST5において、次の(1)〜(3)の処理を実行する。そして、ST6に進む。
(1)撮像画像43aを表示する。
(2)ドローン31の位置Dαの情報画像43dを表示する。
(3)位置設定ボタン43eを表示する。
In ST4, it is determined whether or not the input number n is 4 or less (n ≦ 4). If yes (Y), the process proceeds to ST5. If no (N), the process proceeds to ST9.
In ST5, the following processes (1) to (3) are executed. Then, the process proceeds to ST6.
(1) Display the captured image 43a.
(2) The information image 43d of the position Dα of the drone 31 is displayed.
(3) The position setting button 43e is displayed.

ST6において、位置設定ボタン43eの入力があるか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST6を繰り返す。
ST7において、次の(1),(2)の処理を実行する。そして、ST8に進む。
(1)入力数nを記憶する。
(2)ドローン31の位置Dαを角位置Hαnとして記憶する。
In ST6, it is determined whether or not there is an input of the position setting button 43e. If yes (Y), the process proceeds to ST7, and if no (N), ST6 is repeated.
In ST7, the following processes (1) and (2) are executed. Then, the process proceeds to ST8.
(1) Store the number of inputs n.
(2) The position Dα of the drone 31 is stored as the angular position Hαn.

ST8において、入力数nに1加算する(n=n+1)。そして、ST4に戻る。
ST9において、次の(1)〜(4)の処理を実行する。そして、ST10に進む。
(1)撮像画像43aを表示する。
(2)ドローン31の位置Dαの情報画像43dを表示する。
(3)位置設定ボタン43eを表示する。
(4)設定終了ボタン43fを表示する。
In ST8, 1 is added to the input number n (n = n + 1). Then, the process returns to ST4.
In ST9, the following processes (1) to (4) are executed. Then, the process proceeds to ST10.
(1) Display the captured image 43a.
(2) The information image 43d of the position Dα of the drone 31 is displayed.
(3) The position setting button 43e is displayed.
(4) A setting end button 43f is displayed.

ST10において、位置設定ボタン43eの入力があるか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST11に進む。
ST11において、設定終了ボタン43fの入力があるか否かを判別する。イエス(Y)の場合はST1に戻り、ノー(N)の場合はST10に戻る。
In ST10, it is determined whether or not the position setting button 43e is input. If yes (Y), the process proceeds to ST7. If no (N), the process proceeds to ST11.
In ST11, it is determined whether or not there is an input from the setting end button 43f. If yes (Y), the process returns to ST1, and if no (N), the process returns to ST10.

(ドローンの追従制御処理のフローチャートの説明)
図12はドローンの追従制御処理のフローチャートの説明図である。
図12のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
(Description of flowchart of drone follow-up control processing)
FIG. 12 is an explanatory diagram of a flowchart of the drone follow-up control process.
The process of each step ST of the flowchart of FIG. 12 is performed according to a program stored in the control units CA to CD of the work vehicle control system S. Further, this process is executed in parallel with other various processes of the work vehicle control system S.

図12に示すフローチャートはドローン31およびコントローラ41の電源投入により開始される。
図12のST51において、自律制御モードの設定が入力されたか否かを判別する。イエス(Y)の場合はST52に進み、ノー(N)の場合はST51を繰り返す。
The flowchart shown in FIG. 12 is started when the drone 31 and the controller 41 are turned on.
In ST51 of FIG. 12, it is determined whether or not an autonomous control mode setting has been input. If yes (Y), the process proceeds to ST52, and if no (N), ST51 is repeated.

ST52において、ドローン31を上昇させる。そして、ST53に進む。
ST53において、撮像画像43a上においてマーク23が検出されたか否かを判別する。イエス(Y)の場合はST54に進み、ノー(N)の場合はST52に戻る。
In ST52, the drone 31 is raised. Then, the process proceeds to ST53.
In ST53, it is determined whether or not the mark 23 is detected on the captured image 43a. If yes (Y), the process proceeds to ST54, and, if no (N), the process returns to ST52.

ST54において、次の(1),(2)の処理を実行する。そして、ST55に進む。
(1)車両位置特定マーク23の三角形部23bに基づいて、トラクタ1の向きを検出する。
(2)十字位置Dと目標位置Tとのズレ量uを演算する。
In ST54, the following processes (1) and (2) are executed. Then, the process proceeds to ST55.
(1) Based on the triangular portion 23 b of the vehicle position specifying mark 23, the direction of the tractor 1 is detected.
(2) A deviation amount u between the cross position D and the target position T is calculated.

ST55において、ズレ量uを移動量mに変換する。そして、ST56に進む。
ST56において、高さと、向きと、ズレ量と、に基づいてドローン31が基準位置に移動する制御量を演算する。そして、ST57に進む。
In ST55, the shift amount u is converted into a movement amount m. Then, the process proceeds to ST56.
In ST56, a control amount by which the drone 31 moves to the reference position is calculated based on the height, the direction, and the deviation amount. Then, the process proceeds to ST57.

ST57において、演算された制御量に基づいた制御信号をドローン31に送信する。すなわち、ドローン31を基準位置に飛行させる。そして、ST58に進む。
ST58において、自律制御モードが終了したか否かを判別する。イエス(Y)の場合はST51に戻り、ノー(N)の場合はST54に戻る。
In ST57, a control signal based on the calculated control amount is transmitted to the drone 31. That is, the drone 31 is caused to fly to the reference position. Then, the process proceeds to ST58.
In ST58, it is determined whether or not the autonomous control mode has ended. If yes (Y), the process returns to ST51. If no (N), the process returns to ST54.

(トラクタの自律制御処理)
図13はトラクタの自律制御処理のフローチャートの説明図である。
図13のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
(Tractor autonomous control process)
FIG. 13 is an explanatory diagram of a flowchart of the tractor autonomous control process.
The process of each step ST of the flowchart of FIG. 13 is performed according to a program stored in the control units CA to CD of the work vehicle control system S. Further, this process is executed in parallel with other various processes of the work vehicle control system S.

図13に示すフローチャートはトラクタ1のキーがオンになった場合に開始される。
図13のST101において、自律制御のスイッチ(図示せず)が入力されたか否かを判別する。イエス(Y)の場合はST102に進み、ノー(N)の場合はST101を繰り返す。
ST102において、測位可能フラグFLが「1」であるか否かを判別する。イエス(Y)の場合はST103に進み、ノー(N)の場合はST102を繰り返す。
The flowchart shown in FIG. 13 is started when the key of the tractor 1 is turned on.
In ST101 of FIG. 13, it is determined whether or not an autonomous control switch (not shown) is input. If yes (Y), the process proceeds to ST102, and if no (N), ST101 is repeated.
In ST102, it is determined whether or not the positioning enable flag FL is “1”. If yes (Y), the process proceeds to ST103, and if no (N), ST102 is repeated.

ST103において、ドローン31の高精度GPSユニット33の測位結果に基づいてトラクタ1の位置Tαを測位する。そして、ST104に進む。
ST104において、次の(1),(2)の処理を実行する。そして、ST105に進む。
(1)トラクタ1の位置Tαに基づいて、トラクタ1を作業案内経路R2に沿って自律走行させる。
(2)トラクタ1の位置Tαに基づいて、トラクタ1を作業案内経路R2に沿って作業させる。
In ST103, the position Tα of the tractor 1 is measured based on the positioning result of the high precision GPS unit 33 of the drone 31. Then, the process proceeds to ST104.
In ST104, the following processes (1) and (2) are executed. Then, the process proceeds to ST105.
(1) Based on the position Tα of the tractor 1, the tractor 1 autonomously travels along the work guide route R2.
(2) The tractor 1 is caused to work along the work guide route R2 based on the position Tα of the tractor 1.

ST105において、作業案内経路R2に沿った自律制御が終了したか否かを判別する。イエス(Y)の場合はST101に戻り、ノー(N)の場合はST103に戻る。   In ST105, it is determined whether or not the autonomous control along the work guidance route R2 has ended. If yes (Y), the process returns to ST101, and, if no (N), the process returns to ST103.

図14は実施例1の作業車両の制御システムの作用説明図である。
図14において、前記構成を備えた実施例1の作業車両の制御システムSでは、ドローン31の自律制御モードに設定されると、ドローン31が上昇して下方カメラ37で下方を撮像する。下方カメラ37で撮像された撮像画像43aは画像処理されて、トラクタ1のマーク22,23が検出されると、検出された数字マーク22に基づいて作業車両が特定される。また、検出された車両位置特定マーク23に基づいてトラクタ1の向きや移動量などが演算される。
FIG. 14 is an operation explanatory diagram of the work vehicle control system according to the first embodiment.
In FIG. 14, in the work vehicle control system S according to the first embodiment having the above-described configuration, when the drone 31 is set to the autonomous control mode, the drone 31 rises and the lower camera 37 images the lower part. The captured image 43 a captured by the lower camera 37 is subjected to image processing, and when the marks 22 and 23 of the tractor 1 are detected, the work vehicle is specified based on the detected number mark 22. Further, based on the detected vehicle position specifying mark 23, the direction and the amount of movement of the tractor 1 are calculated.

そして、向きや移動量に基づいてドローン31は、トラクタ1の走行に追従するように飛行制御される。よって、実施例1の作業車両の制御システムSでは、自律制御により、ドローン31が、トラクタ1の位置に対応して飛行する。   The drone 31 is flight-controlled so as to follow the traveling of the tractor 1 based on the direction and the amount of movement. Therefore, in the work vehicle control system S of the first embodiment, the drone 31 flies corresponding to the position of the tractor 1 by autonomous control.

ここで、実施例1の作業車両の制御システムSでは、トラクタ1が自律制御により予定案内経路R2に沿って移動する場合に、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。すなわち、トラクタ1は、トラクタ1自体ではなくドローン31に搭載されたGPSユニット33で位置Tαが測位され、ステアリングやエンジンが制御される。   Here, in the work vehicle control system S of the first embodiment, when the tractor 1 moves along the scheduled guide route R2 by autonomous control, based on the positioning result of the high-precision GPS unit 33 provided in the drone 31. The position Tα of the tractor 1 is measured. That is, the position of the tractor 1 is measured by the GPS unit 33 mounted on the drone 31 instead of the tractor 1 itself, and the steering and the engine are controlled.

ここで、従来の技術では、GPS装置自体は作業車両に備えられていた。したがって、買い換えなどにより作業車両を更新したり、複数の作業車両を所有したりする場合に、それらの作業車両で測位しようとすると、測位装置を付け替えるか、それぞれ個別に測位装置を備える必要があった。特に、高精度の測位を行なう場合には、高価な測位装置が必要となり易い。よって、個別に測位装置を備え付ける場合には、高費用化し易いという問題があった。また、測位装置を付け替える場合には、付け替え作業が生じて手間がかかるという問題があった。   Here, in the conventional technique, the GPS device itself is provided in the work vehicle. Therefore, when a work vehicle is renewed by replacement, etc., or a plurality of work vehicles are owned, if positioning is to be performed with these work vehicles, it is necessary to replace the positioning device or to provide a positioning device individually. It was. In particular, when performing highly accurate positioning, an expensive positioning device is likely to be required. Therefore, when positioning devices are individually provided, there is a problem that the cost is easily increased. In addition, when replacing the positioning device, there is a problem that it takes time and effort to replace it.

これに対して、実施例1の作業車両の制御システムSでは、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。したがって、更新後の作業車両や、複数の作業車両で測位をする場合にも、共通のドローン31を使用して測位が可能である。よって、測位装置を付け替える作業や、個別に測位装置を備え付ける必要性が抑制されている。特に、実施例1では、ドローン31に高精度GPSユニット33が備えられており、高価な高精度GPSユニット33の数が少なくて済む。よって、作業車両毎に高精度GPSユニットを設ける場合に比べて、費用を抑制し易くなっている。   On the other hand, in the work vehicle control system S of the first embodiment, the position Tα of the tractor 1 is measured based on the positioning result of the high-precision GPS unit 33 provided in the drone 31. Therefore, even when positioning is performed using the updated work vehicle or a plurality of work vehicles, positioning can be performed using the common drone 31. Therefore, the operation | work which replaces a positioning apparatus and the necessity to provide a positioning apparatus separately are suppressed. In particular, in the first embodiment, the drone 31 is provided with the high-precision GPS unit 33, and the number of expensive high-precision GPS units 33 can be reduced. Therefore, compared with the case where a high-accuracy GPS unit is provided for each work vehicle, it is easier to reduce costs.

なお、トラクタ1には、GPSユニット21が備えられている。よって、作業者が運転する場合など、高精度の位置Tαが必要でない場合には、ドローン31を飛行させずに、車載のGPSユニット21に基づいて位置Tβを測位可能である。したがって、例えば、作業者がトラクタ1を作業起点P3まで運転して移動させる場合でも、進入案内経路R1と、トラクタ1の位置Tβとを作業者が参照して、精度良くトラクタ1を作業起点P3まで運転し易くなっている。   The tractor 1 is provided with a GPS unit 21. Therefore, when a highly accurate position Tα is not necessary, such as when the operator is driving, the position Tβ can be measured based on the vehicle-mounted GPS unit 21 without flying the drone 31. Therefore, for example, even when the operator drives and moves the tractor 1 to the work starting point P3, the worker refers to the approach guide route R1 and the position Tβ of the tractor 1 and the tractor 1 is accurately operated. It is easy to drive up to.

また、実施例1では、ドローン31が基準位置に到達したと判別され測位可能フラグFLが「1」になった場合に、ドローン31でトラクタ1の位置Tαが測位される。すなわち、移動量mが小さい値の範囲に収まり、トラクタ1とドローン31との位置関係が安定した場合に、ドローン31の高精度GPSユニット33に基づいて測位される。よって、ドローン31がトラクタ1から離間しているにも関わらず、ドローン31の位置Dαに基づいてトラクタ1が測位される場合に比べて、トラクタ1の位置Tαの信頼性が向上している。   In the first embodiment, when it is determined that the drone 31 has reached the reference position and the positioning enable flag FL is “1”, the position Tα of the tractor 1 is measured by the drone 31. That is, when the movement amount m is within a small value range and the positional relationship between the tractor 1 and the drone 31 is stabilized, positioning is performed based on the high-precision GPS unit 33 of the drone 31. Therefore, although the drone 31 is separated from the tractor 1, the reliability of the position Tα of the tractor 1 is improved as compared with the case where the tractor 1 is positioned based on the position Dα of the drone 31.

なお、本実施例では、測位可能フラグFLが「1」になった場合、トラクタ1とドローン31の位置関係が安定し易くなるため、ドローン31が基準位置に一致したか否かに関わらず、ドローン31の位置Dαに基づいてトラクタ1の位置Tαを測位する構成を例示したが、これに限定されない。例えば、ドローン31が基準位置に移動したか否かを判別し続ける構成とし、基準位置に移動したと判別された場合にのみ、ドローン31の位置Dαに基づいてトラクタ1の位置Tαを測位する構成も可能である。   In the present embodiment, when the positioning enable flag FL is “1”, the positional relationship between the tractor 1 and the drone 31 is easily stabilized. Therefore, regardless of whether the drone 31 matches the reference position or not. Although the configuration in which the position Tα of the tractor 1 is measured based on the position Dα of the drone 31 is illustrated, the present invention is not limited to this. For example, it is configured to continue to determine whether or not the drone 31 has moved to the reference position, and only when it is determined that the drone 31 has moved to the reference position, the position Tα of the tractor 1 is measured based on the position Dα of the drone 31. Is also possible.

さらに、実施例1では、ドローン31の自律制御に使用される画像処理は、ドローン31の制御部CAではなく、コントローラ41の制御部CBで行われる。よって、ドローン31の制御部CAで画像処理する場合に比べて、ドローン31の制御部CAの処理能力を低くすることが可能であり、構成を簡素にし易い。したがって、実施例1では、ドローン31を軽量化し易くなっている。   Furthermore, in the first embodiment, the image processing used for the autonomous control of the drone 31 is performed by the control unit CB of the controller 41 instead of the control unit CA of the drone 31. Therefore, compared with the case where image processing is performed by the control unit CA of the drone 31, the processing capability of the control unit CA of the drone 31 can be reduced, and the configuration can be easily simplified. Therefore, in the first embodiment, the drone 31 can be easily reduced in weight.

また、ドローン31は上下方向が重力方向に対して傾斜し過ぎないように姿勢制御される。よって、下方カメラ37は重力方向下方を向いた状態で保持され易い。したがって、撮像された車両識別マーク23の形状、すなわち、長方形部23aの各部23a1〜23a4の面積比に応じて、トラクタ1の姿勢を検出することが可能である。よって、トラクタ1の姿勢に基づいて精度良くトラクタ1を自律制御走行可能となっている。   Further, the attitude of the drone 31 is controlled so that the vertical direction is not excessively inclined with respect to the direction of gravity. Therefore, the lower camera 37 is easily held in a state of facing downward in the direction of gravity. Therefore, it is possible to detect the attitude of the tractor 1 according to the shape of the imaged vehicle identification mark 23, that is, the area ratio of the respective portions 23a1 to 23a4 of the rectangular portion 23a. Accordingly, the tractor 1 can be autonomously driven with high accuracy based on the posture of the tractor 1.

また、実施例1では、ドローン31に備えられたレーダ38で、トラクタ1に対する高さを測定して、ドローン31とトラクタ1との間の高さが一定となるようにドローン31が制御される。よって、ドローン31とトラクタ1の位置関係が安定し易く、ドローン31の高精度GPSユニット33に基づくトラクタ1の位置Tαの信頼性が向上し易くなっている。   In the first embodiment, the radar 38 provided in the drone 31 measures the height with respect to the tractor 1 and controls the drone 31 so that the height between the drone 31 and the tractor 1 is constant. . Therefore, the positional relationship between the drone 31 and the tractor 1 is easily stabilized, and the reliability of the position Tα of the tractor 1 based on the high-precision GPS unit 33 of the drone 31 is easily improved.

なお、実施例1ではレーダ38により、トラクタ1のキャビン7に対する高さを測定する構成を例示したが、これに限定されない。例えば、レーダ38に替えて、ステレオ撮像可能なカメラを設け、トラクタ1やマーク23のステレオ視に基づいて、トラクタ1とドローン31の距離を測定する構成が可能である。また、カメラのオートフォーカス機構により、車両位置マークにピントがあった焦点距離に基づいて、ドローン31とトラクタ1の距離を測定することも可能である。なお、下方カメラ37やレーダ38に替えて、高度センサに基づいて、ドローン31の高度を検出する構成も可能である。   In the first embodiment, the configuration in which the radar 38 measures the height of the tractor 1 with respect to the cabin 7 is exemplified, but the present invention is not limited to this. For example, instead of the radar 38, a camera capable of stereo imaging can be provided, and the distance between the tractor 1 and the drone 31 can be measured based on the stereo view of the tractor 1 and the mark 23. Further, the distance between the drone 31 and the tractor 1 can be measured based on the focal length at which the vehicle position mark is in focus by the camera autofocus mechanism. In addition, it can replace with the downward camera 37 and the radar 38, and the structure which detects the height of the drone 31 based on an altitude sensor is also possible.

さらに、実施例1のトラクタ1のCANには、各制御部CC,CDでアクセス可能な外部メモリMeが接続されており、外部メモリMeに圃場情報や、作業工程の情報、作成された経路R1,R2の情報などが記憶される。ここで、圃場情報などはデータ量が大きくなり易い。よって、各制御部CC,CDの内部メモリに圃場情報などを保持する構成では、各制御部CC,CDが必要な情報にアクセスする場合に、CANを流れるデータ通信量が増加し易い。これに対して、外部メモリに保持される実施例1では、制御部CC,CD間の相互通信が不要となり易く、CANの負荷を減らし易くなっている。したがって、実施例1のCANでは通信遅延などが生じ難くなっている。   Furthermore, an external memory Me that can be accessed by the control units CC and CD is connected to the CAN of the tractor 1 of the first embodiment. The field information, work process information, and the created route R1 are connected to the external memory Me. , R2 information and the like are stored. Here, the amount of data of the field information and the like tends to increase. Therefore, in the configuration in which the field information is held in the internal memory of each control unit CC, CD, when each control unit CC, CD accesses the necessary information, the amount of data communication flowing through the CAN tends to increase. On the other hand, in the first embodiment held in the external memory, the mutual communication between the control units CC and CD is easily unnecessary, and the load on the CAN is easily reduced. Therefore, in the CAN according to the first embodiment, it is difficult to cause a communication delay or the like.

また、実施例1では、実際にドローン31を圃場上空を飛行させ、圃場の外形形状に関する情報Hαを設定可能である。ここで、航空写真に基づいて圃場の形状などの位置情報を設定することも考えられるが、航空写真は、圃場表面から遠い上空から撮像されていることが多い。よって、航空写真に基づく構成では、設定した位置情報のズレが生じ易い。これに対して、実施例1では、ドローン31を低空で飛行させることが可能であり、作業者が撮像映像43aを見ながらジョイスティック44,46を操作することでドローン31を圃場外周に合わせて飛行させ易い。特に、ドローン31には高精度GPSユニット33が備えられている。よって、高精度の角情報Hαを取得し易くなっている。なお、実施例1では、追加の角情報Hαや、入出路P1、障害位置P2などを入力可能であり、圃場Hの情報を修正することが可能である。よって、圃場の情報の精度を改善し易くなっている。   Moreover, in Example 1, the drone 31 can actually fly over the farm field, and the information Hα regarding the outer shape of the farm field can be set. Here, although it is conceivable to set position information such as the shape of the field based on the aerial photograph, the aerial photograph is often taken from the sky far from the field surface. Therefore, in the configuration based on the aerial photograph, the set position information is likely to be shifted. In contrast, in the first embodiment, it is possible to fly the drone 31 in a low sky, and the operator operates the joysticks 44 and 46 while watching the captured image 43a to fly the drone 31 along the outer periphery of the field. Easy to do. In particular, the drone 31 is provided with a high-precision GPS unit 33. Therefore, it is easy to acquire highly accurate angle information Hα. In the first embodiment, additional corner information Hα, entry / exit path P1, obstacle position P2, and the like can be input, and information on the field H can be corrected. Therefore, it is easy to improve the accuracy of field information.

また、実施例1では、トラクタ1の走行速度が、予定走行速度に比べて所定の速度以上遅い場合には、スリップが多いと判断して、エンジンEの回転を低下させる。よって、車輪2,3の回転が遅くなり、トラクタ1が大きくスリップすることが回避され易くなっている。また、実施例1では、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上速い場合には、圃場の斜面でオーバーランしていると判断して、エンジンEの回転を低下させる。よって、トラクタ1が減速されており、急な斜面などでオーバーランすることが回避され易くなっている。   Further, in the first embodiment, when the traveling speed of the tractor 1 is slower than the scheduled traveling speed by a predetermined speed or more, it is determined that there is a lot of slip and the rotation of the engine E is decreased. Therefore, the rotation of the wheels 2 and 3 is delayed, and it is easy to avoid the tractor 1 from slipping greatly. Further, in the first embodiment, when the traveling speed of the tractor 1 is higher than the set scheduled traveling speed by a predetermined speed or more, it is determined that the tractor 1 is overrun on the slope of the field, and the engine E rotates. Reduce. Therefore, the tractor 1 is decelerated and it is easy to avoid overrun on a steep slope.

(他の形態)
図15は図3の要部説明図であり他の形態の各制御部の説明図である。
図16はドローンの姿勢が傾斜した場合に撮像される物体と撮像画像との関係を示す説明図である。
(Other forms)
FIG. 15 is an explanatory diagram of a main part of FIG. 3 and an explanatory diagram of each control unit in another form.
FIG. 16 is an explanatory diagram showing a relationship between an object imaged when the drone's posture is inclined and a captured image.

(コントローラの制御部CB)
図15に示すコントローラの制御部CBは、図4に示す画像処理手段CB4と、自律制御手段CB5と、に替えて、画像処理手段CB4′と、自律制御手段CB5′と、を有する。
本形態の画像処理手段CB4′は、図4のトラクタ姿勢検出手段CB4bに替えて、トラクタ姿勢検出手段CB4b′を有する。また、本形態の画像処理手段CB4′には、再現手段CB4c′が追加されている。
(Controller control unit CB)
The controller CB of the controller shown in FIG. 15 includes image processing means CB4 ′ and autonomous control means CB5 ′ instead of the image processing means CB4 and autonomous control means CB5 shown in FIG.
The image processing unit CB4 ′ according to the present embodiment includes a tractor posture detecting unit CB4b ′ instead of the tractor posture detecting unit CB4b shown in FIG. Further, reproduction means CB4c 'is added to the image processing means CB4' of this embodiment.

再現手段CB4c′は、ドローン31の姿勢情報と、撮像画像43aとに基づいて、元の撮像された物体を仮想三次元空間上に再現する。図16において、本形態の再現手段CB4c′は、ドローン31の姿勢状態に関する姿勢情報に基づいて下方カメラ37の撮像方向、すなわち、ドローン31の下方(図16のnで示す方向)を取得する。また、再現手段CB4c′は、方向nに沿って測定レーダ38が測定した距離Lだけ、下方カメラ37から離れた位置D′を特定する。さらに、前記位置D′において重力方向(図16のgで示す方向)に垂直な平面状の仮想面βを設定する。すなわち、距離Lの部分にトラクタ1のキャビン7に対応する仮想面βを設定する。そして、投影面α上の撮像画像43aを仮想面β上に逆投影する。本形態では、撮像画像43a上のズレ量uと、車両位置特定マーク23とを、仮想面βに逆投影する。また、ドローン31の位置Dαから重力方向に沿って仮想面βに垂れた垂線の足の位置HDも演算する。   The reproduction unit CB4c ′ reproduces the original imaged object in the virtual three-dimensional space based on the attitude information of the drone 31 and the captured image 43a. In FIG. 16, the reproduction means CB4c ′ according to the present embodiment acquires the imaging direction of the lower camera 37, that is, the lower side of the drone 31 (the direction indicated by n in FIG. 16) based on the attitude information regarding the attitude state of the drone 31. Further, the reproduction means CB4c ′ specifies a position D ′ that is separated from the lower camera 37 by the distance L measured by the measurement radar 38 along the direction n. Furthermore, a planar virtual plane β perpendicular to the direction of gravity (direction indicated by g in FIG. 16) is set at the position D ′. That is, the virtual plane β corresponding to the cabin 7 of the tractor 1 is set at the distance L. Then, the captured image 43a on the projection plane α is back-projected on the virtual plane β. In this embodiment, the shift amount u on the captured image 43a and the vehicle position specifying mark 23 are back-projected on the virtual plane β. Further, the position HD of the perpendicular foot that hangs down from the position Dα of the drone 31 to the virtual plane β along the direction of gravity is also calculated.

本形態のトラクタ姿勢検出手段CB4b′は、撮像画像43aに替えて、仮想面β上に変換された車両位置特定マーク23に基づいてトラクタ1の姿勢を検出する。すなわち、前述した図4に示すトラクタ姿勢検出手段CB4bでは、撮像画像43aにおける各部23a1〜23a4の面積比に基づいて姿勢情報を検出した。しかし、下方カメラ37の撮像方向が重力方向に対して傾斜している場合、水平のキャビン7上面から撮像される画像の形状は歪む。そこで、本形態では、仮想面βに投影変換された画像に基づいて、トラクタ1の姿勢を検出する。よって、図4のトラクタ姿勢検出手段CB4bに比べて、本形態のトラクタ姿勢検出手段CB4b′は、より正確にトラクタ1の姿勢を検出し易くなっている。   The tractor posture detection means CB4b ′ according to the present embodiment detects the posture of the tractor 1 based on the vehicle position specifying mark 23 converted on the virtual plane β instead of the captured image 43a. That is, in the tractor posture detection means CB4b shown in FIG. 4 described above, posture information is detected based on the area ratio of the portions 23a1 to 23a4 in the captured image 43a. However, when the imaging direction of the lower camera 37 is inclined with respect to the direction of gravity, the shape of the image captured from the upper surface of the horizontal cabin 7 is distorted. Therefore, in this embodiment, the attitude of the tractor 1 is detected based on the image projected and converted to the virtual plane β. Therefore, compared with the tractor posture detecting means CB4b of FIG. 4, the tractor posture detecting means CB4b ′ of this embodiment can more easily detect the posture of the tractor 1.

図17はドローンがズレ量の方向に傾斜した場合のズレ量と移動量の関係の説明図であり、(a)は下方カメラの向きが真下の場合の説明図、(b)はドローンが傾斜して下方カメラの撮像方向が傾斜した場合の説明図、(c)は(b)とは異なる場合の説明図、(d)は(b),(c)とは異なる場合の説明図である。   FIG. 17 is an explanatory diagram of the relationship between the shift amount and the movement amount when the drone is tilted in the direction of the shift amount, (a) is an explanatory diagram when the direction of the lower camera is directly below, and (b) is the tilt of the drone. Then, an explanatory diagram when the imaging direction of the lower camera is inclined, (c) is an explanatory diagram when it is different from (b), and (d) is an explanatory diagram when it is different from (b) and (c). .

移動量演算手段CB5d′は、ドローンの姿勢情報と、ズレ量uとに基づいて、ドローン31が基準位置に移動する場合に水平方向に移動すべき移動量mを演算する。図16、図17において、ドローン31が傾斜している場合、ドローン31の水平方向の位置HDは、下方カメラ37の撮像方向nが示す位置D′とは異なる。そこで、本形態の移動量演算手段CB5d′では、実際の位置関係に対応する仮想面βにおいて、投影されたズレ量u′の終点を目標位置T′とする。そして、位置HDから目標位置T′までのベクトル量をドローン31が水平方向に移動すべき移動量mとして演算する。   The movement amount calculation means CB5d ′ calculates the movement amount m to be moved in the horizontal direction when the drone 31 moves to the reference position based on the attitude information of the drone and the deviation amount u. 16 and 17, when the drone 31 is inclined, the horizontal position HD of the drone 31 is different from the position D ′ indicated by the imaging direction n of the lower camera 37. Therefore, in the movement amount calculation means CB5d ′ of this embodiment, the end point of the projected deviation amount u ′ is set as the target position T ′ on the virtual plane β corresponding to the actual positional relationship. Then, the vector amount from the position HD to the target position T ′ is calculated as the movement amount m that the drone 31 should move in the horizontal direction.

(トラクタの位置情報処理制御部CC)
図15に示すトラクタの位置情報処理制御部CCは、図4に示す高精度測位手段CC4aに替えて、高精度測位手段CC4a′を有する。
高精度測位手段CC4a′は、測位可能フラグFLが「1」の場合に、高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαを測位する。本形態では、ドローン31の位置Dαと、ベクトル量u0と、移動量mとに基づいて、トラクタ1の位置Tαを測位する。すなわち、水平方向について、Tα=Dα+u0+mと演算する。よって、本形態では、基準位置から離れた位置でドローン31の位置Dαが測位されても、離れてずれた分がmで補正されており、誤差が少なくなっている。
(Tractor position information processing control unit CC)
The tractor position information processing control unit CC shown in FIG. 15 has high-precision positioning means CC4a ′ instead of the high-precision positioning means CC4a shown in FIG.
The high-precision positioning means CC4a ′ measures the position Tα of the tractor 1 based on the positioning result of the high-precision GPS unit 33 when the positioning enable flag FL is “1”. In this embodiment, the position Tα of the tractor 1 is measured based on the position Dα of the drone 31, the vector amount u0, and the movement amount m. That is, Tα = Dα + u0 + m is calculated in the horizontal direction. Therefore, in this embodiment, even if the position Dα of the drone 31 is measured at a position away from the reference position, the amount of deviation is corrected by m, and the error is reduced.

本形態の作業車両の制御システムSでも、図1〜図14で説明した作業車両の制御システムSと同様に、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。よって、測位装置の付け替え作業や、個別に測位装置を備え付ける必要性を抑制しつつ、トラクタ1の位置Tαを高精度に測位可能になっている。   Also in the work vehicle control system S of the present embodiment, based on the positioning result of the high-precision GPS unit 33 provided in the drone 31, as in the work vehicle control system S described with reference to FIGS. The position Tα is measured. Therefore, it is possible to measure the position Tα of the tractor 1 with high accuracy while suppressing the work of replacing the positioning device and the necessity of individually installing the positioning device.

特に、本形態では、ドローン31の姿勢情報に基づいて撮像画像43aが処理される。ドローン31の姿勢が傾斜した場合、ドローン31に固定された下方カメラ37の撮像方向も変化する。このとき、物体が透視投影される撮像画像43a上では、図16、図17に示すように、位置関係が実際の三次元空間とは異なる情報として認識され易い。   In particular, in this embodiment, the captured image 43a is processed based on the attitude information of the drone 31. When the attitude of the drone 31 is inclined, the imaging direction of the lower camera 37 fixed to the drone 31 also changes. At this time, as shown in FIGS. 16 and 17, the positional relationship is easily recognized as information different from the actual three-dimensional space on the captured image 43 a on which the object is perspectively projected.

これに対して、本形態では、ドローン31の姿勢情報に基づいて撮像画像43aを、トラクタ1にキャビン7上面に対応する仮想面βに逆投影させており、実際の元の位置関係を正確に取得し易くなっている。したがって、本形態では下方カメラ37が真下を向いている前提で撮像画像43aを処理する構成に比べて、より正確にトラクタ1の位置Tαが測定され易くなっている。よって、ドローン31が高速に移動する場合や、気象条件が悪い場合など、ドローン31の姿勢が傾斜し易い場合にも有効である。   On the other hand, in this embodiment, the captured image 43a is back-projected on the virtual surface β corresponding to the upper surface of the cabin 7 on the tractor 1 based on the attitude information of the drone 31, and the actual original positional relationship is accurately determined. It is easy to get. Therefore, in the present embodiment, the position Tα of the tractor 1 can be more accurately measured compared to the configuration in which the captured image 43a is processed on the assumption that the lower camera 37 is facing directly below. Therefore, it is also effective when the drone 31 tends to tilt, such as when the drone 31 moves at high speed or when the weather conditions are bad.

なお、本形態では、高さLに基づいて移動量mが演算される。また、移動量mと、ドローン31の位置Dαとに基づいて、トラクタ1の位置Tαが測位される。よって、移動量mやトラクタ1の位置Tαが、Lやmに基づかない場合に比べて精度が高くなり易い。   In the present embodiment, the movement amount m is calculated based on the height L. Further, the position Tα of the tractor 1 is measured based on the movement amount m and the position Dα of the drone 31. Therefore, the accuracy is likely to be higher than when the movement amount m and the position Tα of the tractor 1 are not based on L or m.

(他の形態2)
図18は他の形態の作業車両の制御システムの説明図である。
図18に示す作業車両の制御システムSでは、図1〜図17で説明した作業車両の制御システムSの構成に加えて、下記の構成を有する。すなわち、図18において、トラクタ1のキャビン7には、送電側の共振コイル61が支持されている。送電側の共振コイル61は、LC共振コイルとして構成されている。送電側の共振コイル61は、キャビン7のルーフ7a内部の中央部に配置されている。図18に示す構成では、ドローン31が自律制御モードの場合に、送電側の共振コイル61に高周波電力が供給される。
(Other form 2)
FIG. 18 is an explanatory diagram of another embodiment of the work vehicle control system.
The work vehicle control system S shown in FIG. 18 has the following configuration in addition to the configuration of the work vehicle control system S described with reference to FIGS. That is, in FIG. 18, the resonance coil 61 on the power transmission side is supported in the cabin 7 of the tractor 1. The power transmission side resonance coil 61 is configured as an LC resonance coil. The resonance coil 61 on the power transmission side is disposed in the central part inside the roof 7 a of the cabin 7. In the configuration shown in FIG. 18, when the drone 31 is in the autonomous control mode, high-frequency power is supplied to the resonance coil 61 on the power transmission side.

ドローン31の下部には、前記送電側の共振コイル61に対して磁界共振可能な受電側の共振コイル62が支持されている。受電側の共振コイル62はバッテリー(図示せず)に電気的に接続されている。また、ドローン31の上部には、太陽電池パネル63が支持されている。受電側の共振コイル62や太陽電池パネル63はバッテリー(図示せず)に電気的に接続されている。   A power receiving side resonance coil 62 capable of magnetic field resonance with respect to the power transmission side resonance coil 61 is supported below the drone 31. The power receiving side resonance coil 62 is electrically connected to a battery (not shown). A solar cell panel 63 is supported on the top of the drone 31. The power receiving side resonance coil 62 and the solar cell panel 63 are electrically connected to a battery (not shown).

よって、図18に示す作業車両の制御システムSでは、図1〜図17に示す構成の作用に加えて、ドローン31が基準位置に移動して、トラクタ1の送電側の共振コイル61とドローン31の受電側の共振コイル62とが対向すると、磁界共鳴の作用により、受電側の共振コイル62には電流が流れバッテリーが充電される。また、太陽光などを太陽電池パネル63が受けると、バッテリーが充電される。よって、本形態では、ドローン31のバッテリー切れが生じ難くなっており、充電可能でない場合に比べて長時間飛行し易くなっている。   Therefore, in the work vehicle control system S shown in FIG. 18, in addition to the operation of the configuration shown in FIGS. 1 to 17, the drone 31 moves to the reference position, and the resonance coil 61 and the drone 31 on the power transmission side of the tractor 1. When the power-receiving-side resonance coil 62 is opposed to the power-receiving-side resonance coil 62, a current flows through the power-receiving-side resonance coil 62 and the battery is charged by the action of magnetic field resonance. Further, when the solar battery panel 63 receives sunlight or the like, the battery is charged. Therefore, in this embodiment, the drone 31 is unlikely to run out of battery, and it is easier to fly for a longer time than when charging is not possible.

特に、図18では、送電側の共振コイル61はルーフ7a内部に配置されており、ルーフ7a上部に配置する場合に比べて、防水性を確保するのが容易である。また、送電側の共振コイル61はルーフ7a中央部に配置されている。ここで、キャビン7にはエアコンが配置されることが多い。このとき、エアコンはキャビン7の前方または後方に設置され、送風ダクトが両側に配置される。よって、ルーフ7aの中央部に空間が生じ易い。したがって、図18に示す構成では、ルーフ7aの空間内部を有効に活用し易くなっている。   In particular, in FIG. 18, the resonance coil 61 on the power transmission side is disposed inside the roof 7a, and it is easier to ensure waterproofness than in the case where it is disposed on the roof 7a. Further, the resonance coil 61 on the power transmission side is disposed at the center of the roof 7a. Here, an air conditioner is often arranged in the cabin 7. At this time, the air conditioner is installed in front of or behind the cabin 7, and the air ducts are arranged on both sides. Therefore, a space is easily generated in the central portion of the roof 7a. Therefore, in the configuration shown in FIG. 18, it is easy to effectively use the interior of the space of the roof 7 a.

(他の形態3)
図19は図18とは別の形態の作業車両の制御システムの説明図である。
図18に示す形態では、キャビン7のルーフ7a中央部に送電側の共振コイル61を配置する構成を例示したが、これに限定されない。図19に示すように、キャビン7のルーフ7a外周に送電側の共振コイル61を配置することも可能である。ここで、ルーフ7a外周はデザイン要素として作成されることが多く、外周内部にはデッドスペースが存在し易い。そこで、図19に示すように、ルーフ7a外周に送電側の共振コイル61を配置して、ルーフ7a内の空間を有効利用することも可能である。
(Other form 3)
FIG. 19 is an explanatory diagram of a work vehicle control system in a form different from FIG.
In the form shown in FIG. 18, the configuration in which the power transmission side resonance coil 61 is arranged at the center of the roof 7 a of the cabin 7 is illustrated, but the configuration is not limited thereto. As shown in FIG. 19, a resonance coil 61 on the power transmission side can be disposed on the outer periphery of the roof 7 a of the cabin 7. Here, the outer periphery of the roof 7a is often created as a design element, and a dead space tends to exist inside the outer periphery. Therefore, as shown in FIG. 19, it is also possible to effectively use the space in the roof 7a by arranging a resonance coil 61 on the power transmission side on the outer periphery of the roof 7a.

なお、ルーフ7a内側にコイル61を配置する構成に替えて、ルーフ7a表面上部に送電側の共振コイル61を配置する構成も可能である。また、図18、図19では、磁界共鳴方式のコイル61,62で電力を供給する構成を例示したが、これに替えて、電磁誘導方式に対応した送電側のコイルと、受電側のコイルとにより、電力を供給する構成が可能である。   In addition, it can replace with the structure which arrange | positions the coil 61 inside the roof 7a, and the structure which arrange | positions the resonance coil 61 by the side of power transmission on the roof 7a surface upper part is also possible. 18 and 19 exemplify the configuration in which electric power is supplied by the magnetic field resonance type coils 61 and 62, but instead of this, a power transmission side coil corresponding to an electromagnetic induction type, a power reception side coil, Therefore, a configuration for supplying electric power is possible.

また、コイル61,62を用いた構成に限定されず、マイクロ波を送信するアンテナをキャビン7に設け、ドローン31に前記マイクロ波を受信するアンテナを設けることも可能である。これにより、電波方式で、ドローン31のバッテリーを充電する構成も可能である。   Moreover, it is not limited to the structure using the coils 61 and 62, It is also possible to provide the antenna which transmits a microwave in the cabin 7, and to provide the antenna which receives the said microwave in the drone 31. Thereby, the structure which charges the battery of drone 31 by a radio wave system is also possible.

また、この場合、ドローン31に、前記マイクロ波とは周波数が異なる電波など発信する構成を設ける。そして、ドローン31が送信アンテナからマイクロ波を受信可能な位置に移動した場合に、ドローン31から前記周波数が異なる電波を発信する。そして、トラクタ1が前記電波を受信した場合に、マイクロ波を送信する構成が可能である。   In this case, the drone 31 is provided with a configuration for transmitting radio waves having a frequency different from that of the microwave. When the drone 31 moves to a position where the microwave can be received from the transmission antenna, the drone 31 transmits radio waves having different frequencies. And when the tractor 1 receives the said electromagnetic wave, the structure which transmits a microwave is possible.

さらに、例えば、ドローン31のバッテリーの残量を判別する制御手段を設け、バッテリーの残量が少ない場合にのみ給電する構成とすることが可能である。これにより、常時給電する構成に比べて、トラクタの燃料消費が抑制され易くなる。   Further, for example, it is possible to provide a control unit for determining the remaining battery level of the drone 31 and to supply power only when the remaining battery level is low. Thereby, the fuel consumption of the tractor can be easily suppressed as compared with the configuration in which power is constantly supplied.

(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲で、種々の変更を行うことが可能である。本発明の変更例を下記に例示する。
(Example of change)
As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to the said Example, A various change is made in the range of the summary of this invention described in the claim. Is possible. Examples of modifications of the present invention are illustrated below.

実施例1の作業車両の制御システムSにおいて、各制御部CA〜CDが備える手段は、他の制御部CA〜CDが備える構成も可能であり、分散処理などが可能である。また、外部のサーバなどと情報を送受信可能として、外部のサーバで処理した情報を各制御部CA〜CDに送信する構成も可能である。よって、例えば、サーバで、マーク22,23の検出処理などの画像処理を行う構成が可能である。また、圃場情報などはサーバに登録してサーバから各制御部CA〜CDに送信する構成が可能である。さらに、実施例1では、ドローン31の自律制御の制御量を演算する場合には、コントローラ41の制御部CBで処理したが、これに替えて、ドローン31の制御部CAで処理する構成も可能である。   In the work vehicle control system S according to the first embodiment, the units included in the control units CA to CD may be configured to be included in the other control units CA to CD, and may be distributed. In addition, it is possible to transmit / receive information to / from an external server or the like, and to transmit information processed by the external server to each control unit CA to CD. Therefore, for example, the server can be configured to perform image processing such as detection processing of the marks 22 and 23. Moreover, the structure which registers field information etc. in a server and transmits to each control part CA-CD from a server is possible. Furthermore, in Example 1, when calculating the control amount of the autonomous control of the drone 31, it was processed by the control unit CB of the controller 41. However, instead, this may be processed by the control unit CA of the drone 31. It is.

前記実施例では、ドローン31が一台のトラクタ1を撮像する構成を例示したが、これに限定されない。例えば、一機のドローン31で複数台の作業車両を同時に撮像し、作業車両毎のマーク22,23に基づいて、作業車両を特定すると共に、各作業車両のズレ量と、ドローン31の位置Dαとに基づいて作業車両の位置を測位する構成が可能である。   In the said Example, although the drone 31 illustrated the structure which images one tractor 1, it is not limited to this. For example, a plurality of work vehicles are simultaneously imaged by a single drone 31, and the work vehicles are identified based on the marks 22 and 23 for each work vehicle, and the displacement amount of each work vehicle and the position Dα of the drone 31 are identified. Based on the above, a configuration for positioning the position of the work vehicle is possible.

また、コントローラ41ではジョイスティック44,46を省略し、タッチパネル43で操作する構成も可能である。さらに、ドローン31のマニュアル操作を不能とし、電源投入時から自律制御でのみドローン31を飛行させる構成も可能である。また、作業者がトラクタ1を運転する場合に、ドローン31を飛行させて、高精度GPSユニット33でトラクタ1の位置Tαを測位する構成も可能である。さらに、通常時は車載のGPSユニット21に基づく位置Tβで作業し、高精度の作業が必要な場合にのみ、ドローン31を飛行させてトラクタ1の位置Tαを測位する構成も可能である。この場合、ドローン31の消費電力を抑制し易くなる。   In addition, the controller 41 may be configured to operate with the touch panel 43 without the joysticks 44 and 46. Further, it is possible to make the manual operation of the drone 31 impossible and allow the drone 31 to fly only by autonomous control from the time of power-on. Further, when the operator operates the tractor 1, it is possible to fly the drone 31 and measure the position Tα of the tractor 1 with the high-precision GPS unit 33. Furthermore, it is possible to perform a configuration in which the position Tβ of the tractor 1 is measured by flying the drone 31 only when the work is normally performed at the position Tβ based on the in-vehicle GPS unit 21 and high-precision work is required. In this case, the power consumption of the drone 31 can be easily suppressed.

1 トラクタ(作業車両) 1a 作業機
2,2 前輪 3,3 後輪
4 エンジンルーム
5 トランスミッションケース 6 ボンネット
7 キャビン 8 運転座席
11 ステアリングハンドル 12 クラッチペダル
13 アクセルペダル 21 GPSユニット
22 数字マーク 23 車両位置特定マーク
23a 長方形部 23a1 右前部
23a2 左前部 23a3 左後部
23a4 右後部 23b 三角形部
31 ドローン(無人航空機) 32 本体部
33 高精度GPSユニット(測位装置)
34 アーム部
36 回転翼 37 カメラ
38 レーダ 41 コントローラ
42 タブレット端末部 43 タッチパネル
43a 撮像画像 43b,43c 枠画像
43d ドローンの位置の情報画像
43e 位置設定ボタン 43f 設定終了ボタン
44 ジョイスティック 46 ジョイスティック
61 送電共振コイル 62 受信共振コイル
63 太陽電池パネル BS ブレーキシリンダ
CA ドローンの制御部 CA1 ドローンの測位手段
CA2 飛行制御手段 CB コントローラの制御部
CB1 モード設定手段 CB2 マニュアル制御の送信手段
CB3 空撮表示手段 CB4 画像処理手段
CB4a マーク検出手段
CB4b,CB4b′ トラクタ姿勢検出手段
CB4c′ 再現手段
CB5 自律制御手段 CB5a 高さ測定手段
CB5b 前方特定手段 CB5c ズレ量演算手段
CB5d 初期制御手段 CB5e 制御量演算手段
CB5f 制御量送信手段 CB6 到達判別手段
CB11 圃場情報の記憶手段 CB12 圃場外形設定手段
CB12a 開始の判別手段 CB12b 画像表示手段
CB12c 位置入力手段 CB13 追加情報の設定手段
CB13a 角位置追加手段 CB13b 入出路設定手段
CB13c 障害位置設定手段 CB14 登録手段
CB15 車両特定手段 CB16 工程記憶手段
CB17 作業情報の表示手段 CC トラクタの位置情報処理制御部
CC1 圃場情報の取得手段 CC2 作業予定情報の作成手段
CC3 自律作業情報の作成手段 CC4 車両測位手段
CC4a 高精度測位手段 CC4b 簡易測位手段
CC5 作業マップ情報の作成手段
CD トラクタの車両制御部 CD1 自律制御手段
CD1a スリップの回避手段 CD1b オーバーランの回避手段
D 十字位置
Dα ドローンの位置 FL 測位可能フラグ
E エンジン H 圃場
H1,H2,H3,H4,H5,H6 作業順番
HD ドローンの真下の位置
HS 変速装置
Hα(Hα1,Hα2,Hα3,Hα4,…,Hαn) 角位置
P1 入出路 P2 障害位置
P3 作業起点 R1 進入案内経路
R2 作業案内経路
S 作業車両の制御システム SN1 加速度センサ
SN11 車速センサ SN12 ハンドル切れ角センサ
SN13 変速センサ M11 ステアリングモータ
T 目標位置
Tα 高精度GPSユニットに基づくトラクタの位置
Tβ GPSユニットに基づくトラクタの位置
u ズレ量 W 車幅
m 移動量
M1,M2,M3,M4 モータ
Me 外部メモリ
DESCRIPTION OF SYMBOLS 1 Tractor (work vehicle) 1a Work machine 2, 2 Front wheel 3, 3 Rear wheel 4 Engine room 5 Transmission case 6 Bonnet 7 Cabin 8 Driver's seat 11 Steering handle 12 Clutch pedal 13 Accelerator pedal 21 GPS unit 22 Number mark 23 Vehicle position specification Mark 23a Rectangular portion 23a1 Right front portion 23a2 Left front portion 23a3 Left rear portion 23a4 Right rear portion 23b Triangle portion 31 Drone (unmanned aerial vehicle) 32 Main body portion 33 High-precision GPS unit (positioning device)
34 Arm 36 Rotor 37 Camera 38 Radar 41 Controller 42 Tablet terminal 43 Touch panel 43a Captured image 43b, 43c Frame image 43d Drone position information image 43e Position setting button 43f Setting end button 44 Joystick 46 Joystick 61 Power transmission resonance coil 62 Receiving resonance coil 63 Solar panel BS Brake cylinder CA Drone control unit CA1 Drone positioning unit CA2 Flight control unit CB Controller control unit CB1 Mode setting unit CB2 Manual control transmission unit CB3 Aerial display unit CB4 Image processing unit CB4a Mark Detection means CB4b, CB4b 'Tractor attitude detection means CB4c' Reproduction means CB5 Autonomous control means CB5a Height measurement means CB5b Forward identification means CB5c Deviation Calculation means CB5d Initial control means CB5e Control amount calculation means CB5f Control amount transmission means CB6 Arrival determination means CB11 Field information storage means CB12 Field outline setting means CB12a Start determination means CB12b Image display means CB12c Position input means CB13 Additional information setting means CB13a Corner position adding means CB13b Entrance / exit setting means CB13c Obstacle position setting means CB14 Registration means CB15 Vehicle identification means CB16 Process storage means CB17 Work information display means CC Tractor position information processing control part CC1 Field information acquisition means CC2 Work schedule information Creation means CC3 autonomous work information creation means CC4 vehicle positioning means CC4a high-precision positioning means CC4b simplified positioning means CC5 work map information creation means CD tractor vehicle control unit CD1 autonomous control means CD a Slip avoiding means CD1b Overrun avoiding means D Cross position Dα Drone position FL Positionable flag E Engine H Field H1, H2, H3, H4, H5, H6 Work order HD Position just below the drone HS Transmission Hα ( Hα1, Hα2, Hα3, Hα4,..., Hαn) Angular position P1 Entry / exit path P2 Failure position P3 Work start point R1 Entry guide path R2 Work guide path S Work vehicle control system SN1 Acceleration sensor SN11 Vehicle speed sensor SN12 Steering angle sensor SN13 Shift Sensor M11 Steering motor T Target position Tα Tractor position Tβ based on high-accuracy GPS unit Tractor position u based on GPS unit u Displacement W Vehicle width m Movement amount M1, M2, M3, M4 Motor Me External memory

Claims (5)

圃場(H)で作業をする作業車両(1)と、
前記作業車両(1)に対応して空中を飛行する無人航空機(31)と、
前記無人航空機(31)に支持されて、測位衛星から信号を受信して測位を行う測位装置(33)と、
前記測位装置(33)の測位結果に基づいて前記作業車両(1)の測位をする車両測位手段(CC4)と、
を備えたことを特徴とする作業車両の制御システム。
A work vehicle (1) working in the field (H);
An unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1);
A positioning device (33) supported by the unmanned aerial vehicle (31) to receive a signal from a positioning satellite and perform positioning;
Vehicle positioning means (CC4) for positioning the work vehicle (1) based on the positioning result of the positioning device (33);
A control system for a work vehicle, comprising:
前記作業車両(1)に付された車両位置特定マーク(23)と、
前記無人航空機(31)に支持され、前記車両位置特定マーク(23)を撮像する撮像部材(37)と、
前記撮像部材(37)が撮像する撮像画像において、前記車両位置特定マーク(23)の位置を予め設定された領域内に保持するように自律制御されて飛行する前記無人航空機(31)と、
を備えたことを特徴とする請求項1に記載の作業車両の制御システム。
A vehicle position specifying mark (23) attached to the work vehicle (1);
An imaging member (37) supported by the unmanned aerial vehicle (31) and imaging the vehicle position specifying mark (23);
In the captured image captured by the imaging member (37), the unmanned aircraft (31) flying autonomously so as to hold the position of the vehicle position specifying mark (23) within a preset region;
The work vehicle control system according to claim 1, further comprising:
複数の前記作業車両(1)と、
各作業車両(1)に付され、各作業車両(1)毎に異なる車両識別マーク(22)と、
各作業車両(1)毎に、予め設定された作業工程の情報を記憶する工程記憶手段(CB16)と、
前記車両識別マーク(22)を撮像する前記撮像部材(37)と、
前記撮像部材(37)が撮像した前記車両識別マーク(22)の撮像画像に基づいて、前記作業車両(1)を特定する車両特定手段(CB15)と、
特定された作業車両(1)に対応する作業工程に基づく画像を表示する表示部(43)と、
を備えたことを特徴とする請求項2に記載の作業車両の制御システム。
A plurality of said work vehicles (1);
A vehicle identification mark (22) attached to each work vehicle (1) and different for each work vehicle (1);
For each work vehicle (1), a process storage means (CB16) for storing information on a preset work process;
The imaging member (37) for imaging the vehicle identification mark (22);
Vehicle identification means (CB15) for identifying the work vehicle (1) based on the captured image of the vehicle identification mark (22) captured by the imaging member (37);
A display unit (43) for displaying an image based on a work process corresponding to the identified work vehicle (1);
The work vehicle control system according to claim 2, further comprising:
前記無人航空機(31)を遠隔操作する操作部(44,46)と、
前記操作部(44,46)の操作に基づいて飛行するマニュアル操作モードと、前記自律制御により飛行する自律制御モードと、を切り替え可能な前記無人航空機(31)と、
を備えたことを特徴とする請求項2または3に記載の作業車両の制御システム。
An operation unit (44, 46) for remotely operating the unmanned aerial vehicle (31);
The unmanned aerial vehicle (31) capable of switching between a manual operation mode of flying based on an operation of the operation unit (44, 46) and an autonomous control mode of flying by the autonomous control;
The work vehicle control system according to claim 2 or 3, further comprising:
自律制御により走行作業をする前記作業車両(1)であって、前記車両測位手段(CC4)の測位結果に基づいて、走行方向を制御する前記作業車両(1)、
を備えたことを特徴とする請求項1ないし4のいずれか1項に記載の作業車両の制御システム。
The work vehicle (1) that travels by autonomous control, the work vehicle (1) that controls the travel direction based on the positioning result of the vehicle positioning means (CC4),
5. The work vehicle control system according to claim 1, further comprising:
JP2016097996A 2016-05-16 2016-05-16 Work vehicle control system Active JP6707984B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097996A JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097996A JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Publications (2)

Publication Number Publication Date
JP2017207815A true JP2017207815A (en) 2017-11-24
JP6707984B2 JP6707984B2 (en) 2020-06-10

Family

ID=60417069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097996A Active JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Country Status (1)

Country Link
JP (1) JP6707984B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427433A (en) * 2018-02-05 2018-08-21 中山大学 A kind of form into columns towards multi rack plant protection drone cooperates with the unmanned plane quantity optimization method for spraying drug
KR101957958B1 (en) * 2018-08-28 2019-03-14 주식회사 에이엠 특장 Safety apparatus of a trash truck using a drone
JP2019101765A (en) * 2017-12-02 2019-06-24 学校法人早稲田大学 Tracking image presentation system for moving object
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium
JP2019133441A (en) * 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP2019176418A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system of work vehicle
JP2019175312A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system for working vehicle
WO2019198440A1 (en) * 2018-04-10 2019-10-17 株式会社クボタ Monitoring system for work machine
JP2020000181A (en) * 2018-06-29 2020-01-09 井関農機株式会社 Farm field work machine
CN110735374A (en) * 2018-07-18 2020-01-31 卡特彼勒路面机械公司 Autonomous compaction test system and method
CN110825102A (en) * 2018-08-10 2020-02-21 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle based on vehicle seat, storage medium and vehicle
WO2020049850A1 (en) * 2018-09-04 2020-03-12 ソニー株式会社 Information processing device, information processing method, program, and mobile device
CN111142552A (en) * 2018-11-06 2020-05-12 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle, storage medium and vehicle
WO2020093497A1 (en) * 2018-11-06 2020-05-14 深圳市翔农创新科技有限公司 Precision operation system and method for plant protection unmanned aerial vehicle, and computer-readable storage medium
JPWO2020116396A1 (en) * 2018-12-05 2020-06-11
WO2020116341A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system
WO2020162584A1 (en) * 2019-02-08 2020-08-13 株式会社ナイルワークス Drone system, drone, control device, and drone system control method
WO2020162583A1 (en) * 2019-02-08 2020-08-13 株式会社ナイルワークス Drone system, drone, mobile unit, control device, drone system control method, and drone system control program
JPWO2020162585A1 (en) * 2019-02-08 2020-08-13
JPWO2020166521A1 (en) * 2019-02-12 2020-08-20
JP2020137331A (en) * 2019-02-22 2020-08-31 三菱ロジスネクスト株式会社 Power supply system for unmanned flying body, and unmanned power supply vehicle
JP2021055374A (en) * 2019-09-30 2021-04-08 日立建機株式会社 Work machine
CN113359700A (en) * 2021-05-08 2021-09-07 安徽泗州拖拉机制造有限公司 Intelligent operation system of unmanned tractor based on 5G
WO2022145331A1 (en) * 2020-12-29 2022-07-07 株式会社クボタ Agricultural machine
JP2022104734A (en) * 2020-12-29 2022-07-11 株式会社クボタ Agricultural machine
JP2022186401A (en) * 2021-06-04 2022-12-15 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement amount of object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066405A (en) * 1996-08-28 1998-03-10 Seibutsukei Tokutei Sangyo Gijutsu Kenkyu Suishin Kiko Unmanned working by unmanned operation of working vehicle
JP2005207862A (en) * 2004-01-22 2005-08-04 Fuji Heavy Ind Ltd Target position information acquiring system and target position information acquiring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066405A (en) * 1996-08-28 1998-03-10 Seibutsukei Tokutei Sangyo Gijutsu Kenkyu Suishin Kiko Unmanned working by unmanned operation of working vehicle
JP2005207862A (en) * 2004-01-22 2005-08-04 Fuji Heavy Ind Ltd Target position information acquiring system and target position information acquiring method

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101765A (en) * 2017-12-02 2019-06-24 学校法人早稲田大学 Tracking image presentation system for moving object
JP7023492B2 (en) 2017-12-02 2022-02-22 学校法人早稲田大学 Follow-up image presentation system for moving objects
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium
JP2019133441A (en) * 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP7003699B2 (en) 2018-01-31 2022-01-21 井関農機株式会社 Field work vehicle management system
CN108427433A (en) * 2018-02-05 2018-08-21 中山大学 A kind of form into columns towards multi rack plant protection drone cooperates with the unmanned plane quantity optimization method for spraying drug
CN108427433B (en) * 2018-02-05 2021-04-16 中山大学 Unmanned aerial vehicle quantity optimization method for cooperative spraying of medicine by formation of multiple plant protection unmanned aerial vehicles
JP2019175312A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system for working vehicle
JP2019176418A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system of work vehicle
JP7003798B2 (en) 2018-03-29 2022-01-21 井関農機株式会社 Field work vehicle management system
JP7006449B2 (en) 2018-03-29 2022-01-24 井関農機株式会社 Work vehicle management system
JP2019182211A (en) * 2018-04-10 2019-10-24 株式会社クボタ Monitoring system for work machine
WO2019198440A1 (en) * 2018-04-10 2019-10-17 株式会社クボタ Monitoring system for work machine
US11872956B2 (en) 2018-04-10 2024-01-16 Kubota Corporation Monitoring system for working machine
JP2020000181A (en) * 2018-06-29 2020-01-09 井関農機株式会社 Farm field work machine
JP7059831B2 (en) 2018-06-29 2022-04-26 井関農機株式会社 Field work machine
CN110735374B (en) * 2018-07-18 2023-02-17 卡特彼勒路面机械公司 Autonomous compaction test system and method
CN110735374A (en) * 2018-07-18 2020-01-31 卡特彼勒路面机械公司 Autonomous compaction test system and method
US11131614B2 (en) * 2018-07-18 2021-09-28 Caterpillar Paving Products Inc. Autonomous compaction testing systems and methods
CN110825102A (en) * 2018-08-10 2020-02-21 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle based on vehicle seat, storage medium and vehicle
KR101957958B1 (en) * 2018-08-28 2019-03-14 주식회사 에이엠 특장 Safety apparatus of a trash truck using a drone
US11995995B2 (en) 2018-09-04 2024-05-28 Sony Corporation Information processing device, information processing method, program, and mobile device
CN112602030A (en) * 2018-09-04 2021-04-02 索尼公司 Information processing device, information processing method, program, and mobile device
WO2020049850A1 (en) * 2018-09-04 2020-03-12 ソニー株式会社 Information processing device, information processing method, program, and mobile device
JPWO2020049850A1 (en) * 2018-09-04 2021-09-24 ソニーグループ株式会社 Information processing equipment, information processing methods, programs, and mobile devices
CN111142552A (en) * 2018-11-06 2020-05-12 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle, storage medium and vehicle
WO2020093497A1 (en) * 2018-11-06 2020-05-14 深圳市翔农创新科技有限公司 Precision operation system and method for plant protection unmanned aerial vehicle, and computer-readable storage medium
WO2020116396A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system and drone
JPWO2020116396A1 (en) * 2018-12-05 2020-06-11
JP7149626B2 (en) 2018-12-05 2022-10-07 株式会社ナイルワークス Drone systems and drones
JP7140417B2 (en) 2018-12-05 2022-09-21 株式会社ナイルワークス drone system
WO2020116341A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system
JPWO2020116341A1 (en) * 2018-12-05 2021-10-07 株式会社ナイルワークス Drone system
WO2020162584A1 (en) * 2019-02-08 2020-08-13 株式会社ナイルワークス Drone system, drone, control device, and drone system control method
WO2020162585A1 (en) * 2019-02-08 2020-08-13 株式会社ナイルワークス Drone system, drone, control device, and drone system control method
WO2020162583A1 (en) * 2019-02-08 2020-08-13 株式会社ナイルワークス Drone system, drone, mobile unit, control device, drone system control method, and drone system control program
JPWO2020162585A1 (en) * 2019-02-08 2020-08-13
JP7184385B2 (en) 2019-02-08 2022-12-06 株式会社ナイルワークス Drone system, drone, control device, and control method for drone system
CN113412053A (en) * 2019-02-12 2021-09-17 株式会社尼罗沃克 Unmanned aerial vehicle system, unmanned aerial vehicle, control method for unmanned aerial vehicle system, and unmanned aerial vehicle system control program
JPWO2020166521A1 (en) * 2019-02-12 2020-08-20
WO2020166521A1 (en) * 2019-02-12 2020-08-20 株式会社ナイルワークス Drone system, drone, method for controlling drone system, and drone system control program
JP7085772B2 (en) 2019-02-12 2022-06-17 株式会社ナイルワークス Drone system, drone system control method, and drone system control program
JP2020137331A (en) * 2019-02-22 2020-08-31 三菱ロジスネクスト株式会社 Power supply system for unmanned flying body, and unmanned power supply vehicle
JP7043471B2 (en) 2019-09-30 2022-03-29 日立建機株式会社 Work machine
JP2021055374A (en) * 2019-09-30 2021-04-08 日立建機株式会社 Work machine
JP2022104734A (en) * 2020-12-29 2022-07-11 株式会社クボタ Agricultural machine
JP7472013B2 (en) 2020-12-29 2024-04-22 株式会社クボタ Agricultural machines
WO2022145331A1 (en) * 2020-12-29 2022-07-07 株式会社クボタ Agricultural machine
CN113359700B (en) * 2021-05-08 2022-12-20 安徽泗州拖拉机制造有限公司 Intelligent operation system of unmanned tractor based on 5G
CN113359700A (en) * 2021-05-08 2021-09-07 安徽泗州拖拉机制造有限公司 Intelligent operation system of unmanned tractor based on 5G
JP2022186401A (en) * 2021-06-04 2022-12-15 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement amount of object
JP7414772B2 (en) 2021-06-04 2024-01-16 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement of object

Also Published As

Publication number Publication date
JP6707984B2 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
JP6707984B2 (en) Work vehicle control system
CN105302152B (en) Motor vehicle drone deployment system
EP3650285B1 (en) Parking assistance method and parking assistance device
JP6594805B2 (en) Work vehicle
US10139821B2 (en) Control apparatus for autonomously navigating utility vehicle
JP7203120B2 (en) CONTROL SYSTEM, CONTROL DEVICE, AUTONOMOUS WORK MACHINE, OPERATION METHOD OF CONTROL DEVICE, CONTROL METHOD AND PROGRAM FOR AUTONOMOUS WORK MACHINE
US20090132100A1 (en) Flight Control System
JP2017161987A (en) Travel area form registration system of work vehicle
JP5366711B2 (en) Semi-autonomous vehicle remote control system
JP2006180326A (en) Status monitoring system for vehicle
JP7003699B2 (en) Field work vehicle management system
JP2013033379A (en) Remote control method and remote control system
JP2017056903A (en) Control system, control method and control program for unmanned flight body
CN101986101A (en) Global positioning system (GPS) real-time navigation system
JP2017011614A (en) Driving support control device
JP7358959B2 (en) automatic parking system
JP2017117256A (en) Working vehicles fuel management system
CN110901315A (en) Trailer position, heading angle and level measurement using intelligent device
JP2019133701A (en) Travel area shape registration system
JP2017007603A (en) Operation support controlling apparatus
CN204925807U (en) Do not fix a position or navigate with camera, aircraft and navigation ground with yun taizeng is steady
JP7006449B2 (en) Work vehicle management system
JP7003798B2 (en) Field work vehicle management system
JP2017010450A (en) Driving support control device
CN111279399A (en) Control method, control system, computer-readable storage medium, and flyable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6707984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150