JPH0759407A - Traveling controller of automatic traveling working car - Google Patents

Traveling controller of automatic traveling working car

Info

Publication number
JPH0759407A
JPH0759407A JP5210122A JP21012293A JPH0759407A JP H0759407 A JPH0759407 A JP H0759407A JP 5210122 A JP5210122 A JP 5210122A JP 21012293 A JP21012293 A JP 21012293A JP H0759407 A JPH0759407 A JP H0759407A
Authority
JP
Japan
Prior art keywords
boundary
work
angle
vehicle body
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5210122A
Other languages
Japanese (ja)
Inventor
Osamu Yukimoto
修 行本
Yosuke Matsuo
陽介 松尾
Masaaki Nishinaka
正昭 西中
Katsumi Ito
勝美 伊藤
Jitsuo Yoshida
実夫 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NOUSAKUMOTSU SEIIKU KANRI SYST
NOUSAKUMOTSU SEIIKU KANRI SYST KENKYUSHO KK
SEIBUTSUKEI TOKUTEI SANGYO
SEIBUTSUKEI TOKUTEI SANGYO GIJUTSU KENKYU SUISHIN KIKO
Original Assignee
NOUSAKUMOTSU SEIIKU KANRI SYST
NOUSAKUMOTSU SEIIKU KANRI SYST KENKYUSHO KK
SEIBUTSUKEI TOKUTEI SANGYO
SEIBUTSUKEI TOKUTEI SANGYO GIJUTSU KENKYU SUISHIN KIKO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NOUSAKUMOTSU SEIIKU KANRI SYST, NOUSAKUMOTSU SEIIKU KANRI SYST KENKYUSHO KK, SEIBUTSUKEI TOKUTEI SANGYO, SEIBUTSUKEI TOKUTEI SANGYO GIJUTSU KENKYU SUISHIN KIKO filed Critical NOUSAKUMOTSU SEIIKU KANRI SYST
Priority to JP5210122A priority Critical patent/JPH0759407A/en
Publication of JPH0759407A publication Critical patent/JPH0759407A/en
Pending legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To carry out proper steering control of a working car even when proper boundary detection data is not obtained and simultaneously effectively prevent error detection of the boundary. CONSTITUTION:This traveling controller is provided with a boundary detection means 11 for detecting the boundary between an untreated working ground and an already treated working ground in lateral width direction of a car body based on picturing data of a picturing means S1 for picturing the front side of the car body, a steering controller 100 for carrying out steering control so that a working car may automatically be traveled along the boundary based on boundary detection data of a boundary detection means 11 and an azimuthal angle-detecting means S3 for detecting the azimuth of the car body. The steering controller 100 carries out steering control based on only azimuthal angle detecting data when the boundary detection data is not proper and the controller 100 judges that the boundary detecting data is not proper when the angle difference between the direction of detected boundary and the direction of car is not smaller than a set angle.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車体前方側箇所を撮像
する撮像手段と、その撮像手段の撮像情報に基づいて車
体横幅方向での未処理作業地と処理済作業地との境界を
検出する境界検出手段と、その境界検出手段の境界検出
情報に基づいて作業車が前記境界に沿って自動走行する
ように操向制御する操向制御手段とが設けられた自動走
行作業車の走行制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects a boundary between an unprocessed work site and a processed work site in the lateral direction of a vehicle body based on image capturing means for capturing an image of a front side portion of the vehicle body. Control of a self-driving work vehicle provided with boundary detection means for controlling the vehicle and steering control means for controlling the vehicle to automatically travel along the boundary based on the boundary detection information of the boundary detection means. Regarding the device.

【0002】[0002]

【従来の技術】この種の自動走行作業車の走行制御装置
は、例えば、自動走行作業車としての農作業用のトラク
ターによって、作業地としての圃場に設定された例えば
互いに平行に並ぶ複数の作業行程夫々に沿って走行させ
ながら、未耕地状態の圃場面を耕して既耕地に形成する
ものであるが、そのために、従来では、車体前方側の圃
場をテレビカメラ等の撮像手段によって撮像した撮像情
報に基づいて、車体横幅方向での未処理作業地(未耕
地)と処理済作業地(既耕地)との境界を検出し、この
検出した境界に沿って自動走行するように操向制御して
いた。尚、一つの作業行程の終端部に達すると次の作業
行程の始端部に旋回移動させて上記複数の作業行程を往
復走行させ、全圃場面に対して作業できるようにしてい
る。
2. Description of the Related Art A traveling control device for an automatic traveling work vehicle of this type is provided, for example, by a tractor for agricultural work as an automatic traveling work vehicle, for example, a plurality of work strokes set in parallel to each other set in a field as a work site. While traveling along each of them, the uncultivated field scene is cultivated and formed on the cultivated field. Therefore, conventionally, the imaging information obtained by imaging the field on the front side of the vehicle body by the imaging means such as a TV camera is used. Based on this, the boundary between the unprocessed work site (uncultivated land) and the processed work site (cultivated land) in the lateral direction of the vehicle body is detected, and the steering control is performed so that the vehicle automatically travels along the detected boundary. It was When the end of one work stroke is reached, the work piece is swung to the start end of the next work stroke to reciprocate through the plurality of work strokes so that work can be performed in all fields.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術によれば、境界検出は、作業地の表面状態(例え
ば、未耕地と既耕地の凹凸度合いの差)や作業地に対す
る太陽光等の光源の照射状態(晴天か曇天か、照射角度
等)によって常に正確に行えるとは限らず、例えば境界
以外の位置に存在する圃場面の凹凸等を境界として誤検
出するおそれがある。この場合に、その検出境界に沿っ
て走行させると作業車は正規の行程の方向とは異なる方
向に走行し適正な作業ができないという不具合があっ
た。
However, according to the above-mentioned conventional technique, the boundary detection is performed by the surface condition of the work site (for example, the difference in the degree of unevenness between the uncultivated land and the already cultivated land) and the light source such as sunlight for the work site. Depending on the irradiation state (whether it is sunny or cloudy, the irradiation angle, etc.), it is not always possible to perform it accurately, and for example, irregularities in the field scene existing at positions other than the boundary may be erroneously detected as the boundary. In this case, if the work vehicle travels along the detection boundary, the work vehicle travels in a direction different from the normal travel direction, and proper work cannot be performed.

【0004】本発明は、上記実情に鑑みてなされたもの
であって、その目的は、上記従来技術の欠点を解消すべ
く、適正な境界検出情報が得られない場合であっても作
業車を適正に操向制御するとともに、境界の誤検出を有
効に防止することにある。
The present invention has been made in view of the above circumstances, and an object thereof is to eliminate the drawbacks of the above-mentioned prior art by using a work vehicle even when proper boundary detection information cannot be obtained. This is to properly control steering and effectively prevent erroneous detection of boundaries.

【0005】[0005]

【課題を解決するための手段】本発明による自動走行作
業車の走行制御装置の第1の特徴構成は、前記作業車の
車体方位を検出する方位角検出手段が設けられ、前記操
向制御手段は、前記境界検出手段からの前記境界検出情
報が適正でない場合には、前記方位角検出手段の検出情
報にのみ基づいて前記操向制御を実行するように構成さ
れている点にある。
A first characteristic configuration of a traveling control device for an automatic traveling work vehicle according to the present invention is provided with an azimuth angle detecting means for detecting a body direction of the working vehicle, and the steering control means. The point is that when the boundary detection information from the boundary detection means is not proper, the steering control is executed only based on the detection information from the azimuth angle detection means.

【0006】又、第2の特徴構成は、前記操向制御手段
は、前記境界検出手段によって検出された前記境界の方
向と前記方位角検出手段によって検出された車体方位の
方向との角度差が設定角度以上である場合に、前記境界
検出情報が適正でないと判断するように構成されている
点にある。
In the second characteristic configuration, the steering control means determines that the angular difference between the direction of the boundary detected by the boundary detection means and the direction of the vehicle body direction detected by the azimuth angle detection means. When the angle is equal to or larger than the set angle, the boundary detection information is determined to be incorrect.

【0007】[0007]

【作用】本発明の第1の特徴構成によれば、境界検出手
段からの境界検出情報が適正である場合には、その境界
検出情報に基づいて作業車が検出境界に沿って自動走行
するように操向制御され、境界検出手段からの境界検出
情報が適正でない場合には、方位角検出情報に基づいて
操向制御される。
According to the first characteristic configuration of the present invention, when the boundary detection information from the boundary detection means is proper, the work vehicle automatically travels along the detected boundary based on the boundary detection information. When the boundary detection information from the boundary detection means is not appropriate, the steering control is performed based on the azimuth angle detection information.

【0008】又、第2の特徴構成によれば、境界検出手
段によって検出された境界の方向と方位角検出手段によ
って検出された車体方位の方向との角度差が設定角度以
上でなければ、境界検出情報は適正であると判断され、
上記検出境界の方向と上記車体方位の方向との角度差が
設定角度以上である場合に、境界検出情報は適正でない
と判断される。
According to the second characteristic configuration, if the angular difference between the direction of the boundary detected by the boundary detection means and the direction of the vehicle body direction detected by the azimuth angle detection means is not greater than the set angle, the boundary is detected. The detection information is judged to be appropriate,
When the angle difference between the direction of the detection boundary and the direction of the vehicle body direction is equal to or greater than the set angle, the boundary detection information is determined to be incorrect.

【0009】[0009]

【発明の効果】従って、本発明の第1の特徴構成によれ
ば、適正な境界検出情報が得られない場合には、車体の
方位角検出情報に基づいて作業車が操向制御されるの
で、例えば、予め上記境界の方向に車体方位角の基準方
位を一致させておけば、その基準方位に車体が向くよう
に操向制御することにより作業車を境界に沿って自動走
行させることができるものとなる。
As described above, according to the first characteristic configuration of the present invention, when proper boundary detection information cannot be obtained, the working vehicle is steered based on the azimuth detection information of the vehicle body. For example, if the reference azimuth of the vehicle body azimuth angle is matched in advance with the direction of the boundary, the work vehicle can be automatically driven along the boundary by controlling the steering so that the vehicle body faces the reference direction. Will be things.

【0010】又、第2の特徴構成によれば、正常な操向
状態では車体方位の方向は前記境界の方向に対してある
角度以下の外れに収まっていることから、検出された境
界の方向と車体方位の方向との角度差が設定角度以上で
あるか否かを調べることによって境界検出情報の適正度
を的確に判断することができ、もって、境界検出の誤検
出を有効に防止することができる。
Further, according to the second characteristic configuration, in the normal steering state, the direction of the vehicle body direction is within a deviation of a certain angle or less with respect to the direction of the boundary, so that the detected direction of the boundary is detected. It is possible to accurately determine the appropriateness of the boundary detection information by checking whether the angle difference between the direction of the vehicle body direction and the direction of the vehicle body direction is greater than or equal to the set angle, and thus effectively prevent erroneous detection of the boundary detection. You can

【0011】[0011]

【実施例】以下、本発明の実施例を、農作業用のトラク
ターに構成した自動走行作業車の場合について図面に基
づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings in the case of an automatic traveling work vehicle configured as a tractor for agricultural work.

【0012】図2〜図4に示すように、操向輪としての
左右一対の前輪1F及び左右一対の後輪1Rを備えた作
業車Vの後方に、作業機である耕うん装置2が昇降自在
に設けられ、その耕うん装置2にて、圃場のうちの未処
理作業地である未耕地Mが耕されて処理済作業地である
既耕地Kが形成される。又、上記未耕地Mと既耕地Kと
の境界Lを含む車体前方側箇所を撮像する撮像手段とし
ての白黒式のテレビカメラS1が、作業車Vの前方側に
設けられている。
As shown in FIGS. 2 to 4, a tiller 2 which is a working machine is vertically movable behind a work vehicle V having a pair of left and right front wheels 1F and a pair of left and right rear wheels 1R as steering wheels. The uncultivated land M, which is an unprocessed work site in the field, is cultivated by the tilling device 2 to form an already cultivated field K that is a processed work site. Further, a black and white television camera S1 is provided on the front side of the work vehicle V as image pickup means for picking up an image of the front side portion of the vehicle body including the boundary L between the uncultivated land M and the already cultivated land K.

【0013】前記テレビカメラS1の取り付け構造につ
いて説明すれば、前記作業車Vの横外側方に向かって突
出された支持部材4の先端部に、作業車Vに対して車体
横側方に隣接する未耕地Mと既耕地Kとの境界Lを車体
進行方向に向かって斜め上方から撮像するように設けら
れている。そして、作業車Vが境界Lに対して適正に沿
っている状態において、上記境界に対応する線分Lが、
前記テレビカメラS1の撮像視野の中央を前後方向に通
る走行基準線Laと一致する状態(図2参照)となるよ
うにしてある。
Explaining the mounting structure of the television camera S1, the tip of the support member 4 projecting laterally outward of the work vehicle V is adjacent to the work vehicle V laterally of the vehicle body. The boundary L between the uncultivated land M and the already cultivated land K is provided so as to be imaged obliquely from above in the vehicle traveling direction. Then, in a state where the work vehicle V is properly along the boundary L, the line segment L corresponding to the boundary is
It is arranged to be in a state (see FIG. 2) that coincides with a traveling reference line La that passes through the center of the image pickup field of the television camera S1 in the front-rear direction.

【0014】そして、図5に示すように、作業地内に複
数個の作業行程J1,J2,J3,J4等が、車体横幅
方向に平行に並ぶ状態で設定され、各作業行程J1,J
2,J3,J4等では、前記テレビカメラS1の画像情
報に基づいて、前記境界Lに沿って作業車Vが自動走行
するように操向制御される。但し、1つの作業行程の終
端部に達するに伴って、その作業行程に隣接する次の作
業行程の始端部に向けて180度方向転換するように自
動的にターン制御される。尚、図示しないが、第1作業
行程J1の進行方向右側に隣接する作業地は、予め既耕
地Kに形成されている。従って、前記作業車Vは、1行
程走行する毎に作業地に対する走行方向が反転して、作
業車Vに対する前記境界Lの位置が、左右反転する状態
となることから、前記テレビカメラS1は、作業車Vの
左右夫々に各1個が設けられ、使用する側のカメラを1
行程毎に左右切り換えている。因みに、図2では、境界
Lの位置が作業車Vの右側になるので右側のテレビカメ
ラS1を使っている。
Then, as shown in FIG. 5, a plurality of work strokes J1, J2, J3, J4, etc. are set in the work ground in a state of being arranged in parallel in the lateral direction of the vehicle body.
2, J3, J4, etc., the steering control is performed so that the work vehicle V automatically travels along the boundary L based on the image information of the television camera S1. However, when the end of one work stroke is reached, the turn is automatically controlled so as to turn 180 degrees toward the start end of the next work stroke adjacent to the work stroke. Although not shown, the work land adjacent to the right side in the traveling direction of the first work stroke J1 is previously formed on the cultivated land K. Therefore, the traveling direction of the work vehicle V with respect to the work site is reversed every time the work vehicle travels one stroke, and the position of the boundary L with respect to the work vehicle V is laterally reversed. Therefore, the television camera S1 is One is provided on each of the left and right sides of the work vehicle V, and one camera is used on one side.
The right and left are switched for each stroke. Incidentally, in FIG. 2, since the position of the boundary L is on the right side of the work vehicle V, the television camera S1 on the right side is used.

【0015】前記作業車Vの制御構成について説明すれ
ば、図1に示すように、エンジンEの出力が変速装置5
によって変速されてから車体前後の各車軸に設けられた
ディファレンシャル装置12F,12Rを介して前記左
右一対の前輪1F及び左右一対の後輪1Rの夫々に伝達
され、いわゆる4輪駆動型に構成されている。そして、
前記変速装置5による変速操作状態が予め設定された設
定走行速度に対応する操作状態となるように、変速状態
検出用ポテンショメータR3 が設けられ、その変速状態
検出用ポテンショメータR3 の検出情報に基づいて、変
速用電動モータ6を駆動するように構成されている。
又、前記左右一対の前輪1FはDCギアモータからなる
ステアリングモータM1によってステアリング操作され
るように構成されると共に、その前輪1Fのステアリン
グ角を検出するステアリング角検出用ポテンショメータ
1 が設けられている。
The control configuration of the work vehicle V will be described. As shown in FIG. 1, the output of the engine E is the transmission 5
Is transmitted to each of the pair of left and right front wheels 1F and the pair of left and right rear wheels 1R via differential devices 12F and 12R provided on front and rear axles of the vehicle body. There is. And
A shift state detecting potentiometer R 3 is provided so that the shift operating state by the transmission 5 becomes an operating state corresponding to a preset traveling speed, and based on the detection information of the shift state detecting potentiometer R 3. The electric motor 6 for shifting is driven.
The pair of left and right front wheels 1F is configured to be steered by a steering motor M1 composed of a DC gear motor, and a steering angle detecting potentiometer R 1 for detecting the steering angle of the front wheels 1F is provided.

【0016】前記作業車Vには、左右一対の後輪1Rを
各別に制動作動させるための左右一対のブレーキ装置3
が設けられ、その一対のブレーキ装置3を駆動する一対
のブレーキ用油圧シリンダ8及びこの油圧シリンダ8を
作動させるための一対の制御弁7が設けられている。
又、作業車Vの車体方位を検出する方位角検出手段とし
ての地磁気方位センサS3が設けられている。尚、図1
中、S2は前記変速装置5の出力回転数に基づいて走行
速度を検出するための速度センサ、9は前記耕うん装置
2を昇降駆動する昇降用の電動モータ(図示しない)を
作動させるための昇降スイッチ、10は前記エンジンE
への燃料供給をカットしてエンジンEを停止させるため
のエンジン停止リレーである。
The work vehicle V has a pair of left and right brake devices 3 for individually braking the left and right rear wheels 1R.
Are provided, and a pair of brake hydraulic cylinders 8 for driving the pair of brake devices 3 and a pair of control valves 7 for operating the hydraulic cylinders 8 are provided.
Further, a geomagnetic direction sensor S3 is provided as an azimuth angle detecting means for detecting the vehicle body direction of the work vehicle V. Incidentally, FIG.
In the figure, S2 is a speed sensor for detecting a traveling speed based on the output speed of the transmission 5, and 9 is a lift for operating an electric motor (not shown) for lifting the tiller 2 for lifting. Switch 10 is the engine E
Is an engine stop relay for stopping the engine E by cutting off the fuel supply to the engine.

【0017】図1に示すように、マイクロコンピュータ
利用の制御装置Hが設けられ、この制御装置Hに、前記
変速状態検出用ポテンショメータR3 、ステアリング角
検出用ポテンショメータR1 、速度センサS2、及び地
磁気方位センサS3の各検出情報が入力されると共に、
制御装置Hから、前記変速用電動モータ6、ステアリン
グモータM1、一対の制御弁7、昇降スイッチ9、及び
エンジン停止リレー10に対する各駆動信号が出力され
ている。
As shown in FIG. 1, a control device H utilizing a microcomputer is provided, and the control device H includes the speed change state detecting potentiometer R 3 , the steering angle detecting potentiometer R 1 , the speed sensor S2, and the geomagnetism. While each detection information of the direction sensor S3 is input,
Each drive signal is output from the control device H to the electric motor 6 for shifting, the steering motor M1, the pair of control valves 7, the elevating switch 9, and the engine stop relay 10.

【0018】次に、前記テレビカメラS1の撮像情報に
基づいて、車体横幅方向での前記未耕地Mと既耕地Kと
の境界に対応する線分Lを近似処理するための制御構成
について説明する。図1に示すように、前記テレビカメ
ラS1は、作業地の明度情報を出力するように構成さ
れ、このテレビカメラS1からの明度情報が入力される
画像処理装置(VSX)11が、上記明度情報を1画面
を32×32の画素で構成した分解能の画素情報に変換
して記憶した後、この画素情報に基づいて、車体横幅方
向での画素間の明度変化に対応する微分値を演算する処
理、その微分処理情報に基づいてその微分値が所定値以
上であるか否かにより各画素を2値化する処理、及び、
その2値化処理情報に基づいて前記境界に対応する線分
Lを求める境界検出処理を行うように構成されている。
即ち、画像処理装置(VSX)11が、テレビカメラS
1の撮像情報に基づいて車体横幅方向での前記未耕地M
と既耕地Kとの境界を検出する境界検出手段を構成す
る。
Next, a control configuration for approximating the line segment L corresponding to the boundary between the uncultivated land M and the already cultivated land K in the lateral direction of the vehicle body based on the image pickup information of the television camera S1 will be described. . As shown in FIG. 1, the television camera S1 is configured to output the lightness information of the work place, and the image processing device (VSX) 11 to which the lightness information from the television camera S1 is input is the lightness information. After converting one screen into pixel information of resolution composed of 32 × 32 pixels and storing the converted information, and then calculating a differential value corresponding to the change in brightness between pixels in the vehicle body lateral direction based on this pixel information. A process of binarizing each pixel based on whether the differential value is a predetermined value or more based on the differential processing information, and
Boundary detection processing for obtaining the line segment L corresponding to the boundary is performed based on the binarization processing information.
That is, the image processing device (VSX) 11 is the television camera S.
The uncultivated land M in the lateral direction of the vehicle body based on the imaging information of No. 1
Boundary detecting means for detecting the boundary between the cultivated land K and the cultivated land K is configured.

【0019】上記処理について説明すれば、図7(イ)
に示すように、既耕地Kは耕されて表面が凹凸状態にな
っているので既耕地Kの光反射率は低く、既耕地Kに対
応する画素の明度は未耕地Mに対応する画素の明度より
も暗い。つまり、車体横方向即ち画面横方向で左から右
方向に向かって、明度は未耕地Mと既耕地Kとの境界に
対応する画素で明から暗に変化する。そして、図7
(ハ)に示すように、×印で示す注目画素(i,j) の微分
値(実際は差分値)は、その左側に位置する画素(i-1,j
-1),(i,j-1),(i+1,j-1) の明度の和から右側に位置する
画素(i-1,j+1),(i,j+1),(i+1,j+1) の明度の和を減算し
て求めるので、上記画面左側から右側に向かって明から
暗に変化した画素の微分値の符号は正になる。尚、この
例では、縦方向の3ラインを同時に処理してノイズに強
くしている。そこで、微分値の値が正の所定値に設定さ
れた閾値より大きい画素P即ち明度変化が大きい画素を
抽出するように2値化処理すると、図7(ロ)に示すよ
うに、未耕地Mと既耕地Kとの境界に位置する画素Pが
抽出される。尚、図5に示すように、隣接した各行程で
車体の進行方向と作業地との位置関係が左右反転するの
で、上記微分値の値を2値化する閾値の符号は1行程走
行毎に正負が切り換えられ、負の閾値のときは、微分値
が負の閾値より小さい画素が明度変化が大きい画素に対
応し、上記境界に位置する画素Pになる。そして、上記
の抽出画素Pを結ぶ直線を後述のように例えばハフ変換
によって求めると、その直線が前記境界に対応する線分
Lになる。
The above process will be described with reference to FIG.
As shown in, the light reflectance of the cultivated land K is low because the surface of the cultivated land K is cultivated and the surface is uneven, and the brightness of the pixel corresponding to the cultivated land K is the brightness of the pixel corresponding to the uncultivated land M. Darker than. That is, in the lateral direction of the vehicle body, that is, in the lateral direction of the screen, from the left to the right, the brightness changes from light to dark at the pixel corresponding to the boundary between the uncultivated land M and the cultivated land K. And FIG.
As shown in (c), the differential value (actually the difference value) of the pixel of interest (i, j) indicated by the cross is the pixel (i-1, j
-1), (i, j-1), (i + 1, j-1) Pixels (i-1, j + 1), (i, j + 1), (located on the right side of the sum of the lightness of Since the sum of the lightness of (i + 1, j + 1) is subtracted, the sign of the differential value of the pixel changed from light to dark from the left side to the right side of the screen becomes positive. In this example, vertical three lines are processed at the same time to enhance noise resistance. Therefore, when the binarization processing is performed so as to extract the pixels P whose differential value is larger than the threshold value set to the positive predetermined value, that is, the pixels whose brightness change is large, as shown in FIG. Pixels P located at the boundary between the cultivated land K and the cultivated land K are extracted. As shown in FIG. 5, since the positional relationship between the traveling direction of the vehicle body and the work site is horizontally reversed in each adjacent stroke, the sign of the threshold value for binarizing the differential value is set for each travel. When positive / negative is switched and a negative threshold value is set, a pixel having a differential value smaller than the negative threshold value corresponds to a pixel having a large change in brightness, and becomes a pixel P located at the boundary. Then, when a straight line connecting the extracted pixels P is obtained by, for example, Hough transform as described later, the straight line becomes a line segment L corresponding to the boundary.

【0020】前記画像処理装置(VSX)11の処理結
果は前記制御装置Hに入力され、作業車Vを走行制御す
るための制御情報として使用される。即ち、前記制御装
置Hを利用して、前記画像処理装置(VSX)11の境
界検出情報に基づいて作業車Vが車体横幅方向での未耕
地Mと既耕地Kとの境界Lに沿って自動走行するように
操向制御する操向制御手段100が構成されている。そ
して、この操向制御手段100は、画像処理装置(VS
X)11によって検出された前記境界Lの方向と前記地
磁気方位センサS3によって検出された車体方位の方向
との角度差が設定角度以上である場合に、画像処理装置
(VSX)11の境界検出情報が適正でない、つまり偽
の境界を検出していると判断すると共に、この場合に
は、地磁気方位センサS3の検出情報にのみ基づいて操
向制御するように構成されている。
The processing result of the image processing device (VSX) 11 is input to the control device H and used as control information for controlling the traveling of the work vehicle V. That is, using the control device H, the work vehicle V automatically moves along the boundary L between the uncultivated land M and the cultivated land K in the vehicle body lateral direction based on the boundary detection information of the image processing device (VSX) 11. A steering control means 100 for controlling the steering so that the vehicle travels is configured. Then, the steering control means 100 includes an image processing device (VS
X) 11 the boundary detection information of the image processing device (VSX) 11 when the angle difference between the direction of the boundary L and the direction of the vehicle body direction detected by the geomagnetic direction sensor S3 is a set angle or more. Is not appropriate, that is, it is determined that a false boundary is detected, and in this case, the steering control is performed only based on the detection information of the geomagnetic direction sensor S3.

【0021】又、前記制御装置Hを利用して、前記作業
車Vを1つの作業行程の終端部から次の作業行程の始端
部に向けて旋回移動させる旋回制御手段101とが構成
され、この旋回制御手段101は、図6に第1作業行程
J1から次の第2作業行程J2への旋回移動の場合につ
いて示すように、作業車Vを1つの作業行程の終端部か
ら次の作業行程の始端部へ旋回移動させるのに必要な旋
回角度(180度)よりも小さい角度に設定された所定
角度φk(160度)までの第1旋回角度範囲φ1にお
いては前記地磁気方位センサS3の検出情報にのみ基づ
いて前記旋回制御を実行し、且つ、前記所定角度φkを
越える第2旋回角度範囲φ2においては前記テレビカメ
ラS1の撮像情報及び前記地磁気方位センサS3の検出
情報に基づいて前記旋回制御を実行するように構成され
ている。又、前記第1旋回角度範囲φ1における旋回半
径r1を前記第2旋回角度範囲φ2における旋回半径r
2よりも小さく設定し、又、前記第1旋回角度範囲φ1
における走行速度v1を前記第2旋回角度範囲φ2にお
ける走行速度v2よりも大きく(v1>v2)設定して
いる。但し、上記第1旋回角度範囲φ1における走行速
度v1は作業行程に沿って走行するときの速度v3より
は小さく(v1<v3)設定される。
Further, the control device H is used to constitute a turning control means 101 for turning the work vehicle V from the end portion of one work stroke toward the start end of the next work stroke. The turning control means 101 moves the work vehicle V from the end portion of one work stroke to the next work stroke as shown in FIG. 6 for the case of turning movement from the first work stroke J1 to the next second work stroke J2. In the first turning angle range φ1 up to a predetermined angle φk (160 degrees) set to an angle smaller than the turning angle (180 degrees) required for turning to the starting end, the detection information of the geomagnetic direction sensor S3 is included. In the second turning angle range φ2 that exceeds the predetermined angle φk, the turning control is performed based on only the above, and based on the imaging information of the television camera S1 and the detection information of the geomagnetic direction sensor S3, the turning control is performed. It is configured to perform a round control. Further, the turning radius r1 in the first turning angle range φ1 is set to the turning radius r1 in the second turning angle range φ2.
It is set smaller than 2, and the first turning angle range φ1
Is set to be higher than the traveling speed v2 in the second turning angle range φ2 (v1> v2). However, the traveling speed v1 in the first turning angle range φ1 is set smaller than the speed v3 when traveling along the work stroke (v1 <v3).

【0022】次に、図10〜図12に示すフローチャー
トに基づいて、前記画像処理装置(VSX)11及び制
御装置Hの動作を説明しながら、各部の構成について詳
述する。制御がスタートすると、先ずシステムの初期化
を行ってから、対象圃場での基準となる往復行程の方
位、未耕地・既耕地間の明るさ変化の微分に対する閾
値、1行程当たりの走行時間を教示し、第1行程J1で
使用するカメラS1を選択し(図5より右側を選択す
る)、又、車体の向きを第1行程J1の方向に向けた状
態の方位角を第1行程の目標方位として選択した後、走
行を開始する。そして、走行開始してから設定時間経過
後に、耕うん装置2を下降させて作業を開始する。因み
に、走行開始と作業開始とに時間差を設けるのは、行程
端において既耕地と未耕地の境界を直線状に揃えるため
である。
Next, with reference to the flow charts shown in FIGS. 10 to 12, the operation of the image processing apparatus (VSX) 11 and the control apparatus H will be described, and the configuration of each section will be described in detail. When the control starts, first the system is initialized, and then the direction of the reference round trip in the target field, the threshold for the differentiation of the brightness change between the uncultivated land and the cultivated land, and the travel time per stroke are taught. Then, the camera S1 to be used in the first stroke J1 is selected (the right side is selected from FIG. 5), and the azimuth angle in the state where the vehicle body is oriented in the direction of the first stroke J1 is the target azimuth of the first stroke. After selecting as, start traveling. Then, after a lapse of a set time from the start of traveling, the tilling device 2 is lowered to start the work. By the way, the reason why there is a time difference between the start of traveling and the start of work is that the boundary between the cultivated land and the uncultivated land is aligned linearly at the end of the stroke.

【0023】走行を開始すると、前記画像処理装置(V
SX)11によって求められる境界Lの検出情報(VS
Xデータ)と、前記地磁気方位センサS3で検出される
車体方位角の検出情報(TMSデータ)とを収集して両
データを比較する。そして、車体方位角の方向と境界L
の方向との角度差が設定角度(例えば、10度程度)以
内である場合には、その境界Lの検出情報は適正である
と判断してその境界Lの情報に基づいて機体の操向制御
を行う。一方、車体方位角の方向と境界Lの方向との角
度差が上記設定角度以上である、即ち、境界Lの方向が
車体方位角の方向から大きくずれている場合には、その
境界Lの検出情報は誤った情報であると判断し、この場
合には、車体方位角の検出情報に基づいて、作業車Vが
前記選択した基準方位に向くように機体の操向制御を行
う。尚、上記車体方位角の方向は、テレビカメラS1の
撮像画面内の前記走行基準線Laにほぼ一致するので、
上記角度差は、近似的に後述の図9の傾きψで与えられ
る。
When the vehicle starts traveling, the image processing device (V
SX) 11 detection information of boundary L (VS
X data) and the detection information (TMS data) of the vehicle body azimuth detected by the geomagnetic azimuth sensor S3 are collected and the two data are compared. Then, the direction of the vehicle body azimuth and the boundary L
When the angle difference from the direction is within a set angle (for example, about 10 degrees), it is determined that the detection information of the boundary L is appropriate and the steering control of the airframe is performed based on the information of the boundary L. I do. On the other hand, when the angle difference between the direction of the vehicle body azimuth and the direction of the boundary L is equal to or more than the set angle, that is, the direction of the boundary L is largely deviated from the direction of the vehicle body azimuth, the boundary L is detected. It is determined that the information is erroneous information, and in this case, based on the detection information of the vehicle body azimuth, the steering control of the machine body is performed so that the work vehicle V faces the selected reference azimuth. Since the direction of the vehicle body azimuth angle substantially coincides with the travel reference line La in the image pickup screen of the television camera S1,
The angle difference is approximately given by the inclination ψ in FIG. 9 described later.

【0024】そして、1つの作業行程を走行するに要す
る行程時間が経過したか否かを判断し、この行程時間が
経過していなければ、VSXデータとTMSデータの収
集のフローに戻る。上記行程時間が経過していれば、走
行を停止するとともに耕うん装置2を上昇させて作業を
停止する。そして、所定の行程数を走行した場合には制
御を終了する一方、残りの行程があれば次の行程に向け
て作業車Vを旋回移動させ、その後、次の行程での走行
を開始するとともに、走行開始してから設定時間経過後
に耕うん装置2を下降させて作業を開始する。尚、1つ
の作業行程を走行するに要する行程時間は、前記速度セ
ンサ2によって検出される走行速度で上記1つの作業行
程の走行距離を割ることによって算出される。
Then, it is judged whether or not the stroke time required to travel one work stroke has elapsed, and if this stroke time has not elapsed, the flow returns to the flow of collecting VSX data and TMS data. When the stroke time has elapsed, the traveling is stopped and the tilling device 2 is raised to stop the work. Then, while traveling the predetermined number of strokes, the control is ended, while if there are remaining strokes, the work vehicle V is turned and moved toward the next stroke, and thereafter, traveling in the next stroke is started. After the start of traveling, the tiller 2 is lowered after a set time has elapsed, and the work is started. The travel time required to travel one work stroke is calculated by dividing the travel distance of the one work travel by the travel speed detected by the speed sensor 2.

【0025】次に、境界Lの検出処理について説明する
と、所定時間毎に前記テレビカメラS1による撮像処理
が実行され、この撮像処理で得られた明度情報が1画面
を32画素×32画素とする画素密度で記憶される。そ
して、車体横幅方向(画面横方向)についての画素毎の
微分処理、及び、各画素の微分値に対する2値化処理を
行って境界Lに対応する画素Pを抽出し、これら抽出画
素Pを結ぶ線分をハフ変換処理によって求める(図7参
照)。
Next, the boundary L detection processing will be described. The image pickup processing by the television camera S1 is executed at predetermined time intervals, and the brightness information obtained by this image pickup processing is 32 pixels × 32 pixels in one screen. It is stored at the pixel density. Then, pixel-by-pixel differential processing in the vehicle body width direction (screen horizontal direction) and binarization processing for the differential value of each pixel are performed to extract the pixel P corresponding to the boundary L, and these extracted pixels P are connected. The line segment is obtained by Hough transform processing (see FIG. 7).

【0026】ハフ変換について説明すれば図8に示すよ
うに、前記テレビカメラS1の撮像視野の中心(x=1
6,y=16)を通るx軸を極座標系における基準線と
して、前記各画素Pを通る複数本の直線を、下記(i) 式
に基づいて前記x軸に対して0乃至180度の範囲にお
いて予め複数段階に設定された傾きθと、原点つまり上
記撮像視野中心に対応する画面中央からの距離ρとの組
み合わせとして求める。 ρ=y・sinθ+x・cosθ ……(i)
Explaining the Hough transform, as shown in FIG. 8, the center of the image pickup field of the television camera S1 (x = 1)
6, y = 16) as a reference line in a polar coordinate system, and a plurality of straight lines passing through each of the pixels P are ranged from 0 to 180 degrees with respect to the x-axis based on the following equation (i). In step S3, a combination of the inclination θ set in advance in a plurality of stages and the distance ρ from the center of the screen corresponding to the origin, that is, the center of the imaging field of view is obtained. ρ = y ・ sin θ + x ・ cos θ …… (i)

【0027】そして、前記画素Pの全てについて、前記
複数段階に設定された傾きθの値が180度に達するま
で、前記パラメータ(ρ,θ)の組み合わせに対応する
各直線の頻度を計数するための二次元ヒストグラムを加
算する処理を繰り返す。全画素Pに対する直線の頻度の
計数が完了すると、前記二次元ヒストグラムに加算され
た値から、最大頻度となる前記傾きθと前記距離ρの組
み合わせを求めることにより、最大頻度となる一つの直
線Lxを決定し、その直線Lxを、前記テレビカメラS
1の撮像面において前記未耕地Mと既耕地Kとの境界に
対応する線分Lkを直線近似した情報として求めるので
ある。
Then, for all the pixels P, the frequency of each straight line corresponding to the combination of the parameters (ρ, θ) is counted until the value of the inclination θ set in the plurality of steps reaches 180 degrees. The process of adding the two-dimensional histogram of is repeated. When the counting of the frequency of the straight line with respect to all the pixels P is completed, one straight line Lx having the maximum frequency is obtained by obtaining the combination of the inclination θ and the distance ρ that has the maximum frequency from the value added to the two-dimensional histogram. Then, the straight line Lx is determined by the TV camera S
The line segment Lk corresponding to the boundary between the uncultivated land M and the already cultivated land K on the image pickup surface of No. 1 is obtained as linearly approximated information.

【0028】次に、前記撮像面における直線Lxを、予
め実測した地表面での前記テレビカメラS1の撮像視野
Aの形状と大きさの記憶情報と、前記最大頻度の直線L
xが通る撮像面での画素の位置a,b,c(図9参照)
とに基づいて、地表面における直線Lkの情報に変換す
る。即ち、図9に示すように、前記撮像視野Aの横幅方
向中央を前後方向に通る走行基準線Laに対する傾きψ
と、横幅方向での位置δとの値として設定される地表面
上における直線Lkの情報に変換することになる。
Next, the straight line Lx on the image pickup surface is stored in advance as the stored information on the shape and size of the image pickup field A of the television camera S1 on the ground surface, and the straight line L having the maximum frequency.
Pixel positions a, b, c on the imaging plane through which x passes (see FIG. 9)
Based on and, it is converted into information of the straight line Lk on the ground surface. That is, as shown in FIG. 9, the inclination ψ with respect to the travel reference line La passing through the center of the imaging visual field A in the lateral direction in the front-rear direction.
And the information of the straight line Lk on the ground surface set as the value of the position δ in the lateral width direction.

【0029】説明を加えれば、前記境界Lに対応する直
線Lkに交差する方向となる前記撮像視野Aの前後位置
(y=0及びy=32)での2辺の長さl0,l32、画面
中央(x=16,y=16となる画素位置)における前
記撮像視野Aの横幅方向での長さl16、及び、前記前後
2辺間の距離hの夫々を予め実測して、前記制御装置H
に記憶させておくことになる。そして、前記撮像面にお
ける直線Lxが、前記撮像視野Aの前後位置での2辺に
対応するx軸に交差する画素の位置a,b(y=0,y
=32となる位置)のx座標の値X0,X32と、前記直線
Lxが画面中央を通るx軸に交差する画素の置cのx座
標の値X16とを、上記(i) 式を変形した下記(ii)式から
求めることになる。 Xi=(ρ−Yi・sinθ)/cosθ ……(ii) 但し、Yiは、夫々0,16,32を代入する。
In addition, the lengths l 0 and l 32 of the two sides at the front and rear positions (y = 0 and y = 32) of the imaging visual field A in the direction intersecting the straight line Lk corresponding to the boundary L are added. , The length l 16 in the lateral width direction of the imaging visual field A at the center of the screen (the pixel position where x = 16, y = 16) and the distance h between the front and rear sides are measured in advance, and Controller H
Will be remembered. Then, positions of pixels a and b (y = 0, y) where a straight line Lx on the imaging surface intersects the x axis corresponding to two sides at the front and rear positions of the imaging visual field A.
= 32) and the x-coordinate values X 0 and X 32 and the x-coordinate value X 16 of the position c of the pixel where the straight line Lx intersects the x-axis passing through the center of the screen. It is obtained from the following equation (ii) which is a modification of Xi = ([rho] -Yi.sin [theta]) / cos [theta] (ii) where Yi is 0, 16 and 32, respectively.

【0030】そして、上記(ii)式にて求められたx軸で
の座標値に基づいて、下記(iii) 式及び(iv)式から、前
記走行基準線Laに対する横幅方向での位置δと、傾き
ψとを求め、求めた位置δと傾きψとの値を、地表面に
おいて前記境界Lに対応する直線Lkの位置情報として
算出することになる。
Then, based on the coordinate value on the x-axis obtained by the above equation (ii), from the following equations (iii) and (iv), the position δ in the lateral direction with respect to the traveling reference line La is calculated. , The slope ψ is calculated, and the values of the calculated position δ and the slope ψ are calculated as position information of the straight line Lk corresponding to the boundary L on the ground surface.

【0031】[0031]

【数1】 [Equation 1]

【0032】従って、作業車Vを境界Lに沿って自動走
行させるための操向制御においては、前記直線Lkの前
記走行基準線Laに対する傾きψと横幅方向での位置δ
とを共に零に近づけるように、2輪ステアリング形式で
操向制御する。つまり、前記走行基準線Laに対する傾
きψと横幅方向での位置δ夫々の値、及び、前輪1Fの
現在のステアリング角γの値とから、下記(v) 式に基づ
いて、前輪1Fの目標ステアリング角θfを設定し、前
輪1Fのステアリング角γが、目標ステアリング角θf
に対して設定不感帯内に維持されるように、前記ステア
リングモータM1を駆動することになる。尚、式中のK
1 ,K2 ,K3 は、操向特性に応じて予め設定された定
数である。 θf=K1 ・δ+K2 ・ψ+K3 ・γ ………(v)
Therefore, in the steering control for automatically traveling the work vehicle V along the boundary L, the inclination ψ of the straight line Lk with respect to the traveling reference line La and the position δ in the lateral width direction.
Steering control is performed in a two-wheel steering manner so that both and are close to zero. That is, based on the values of the inclination ψ with respect to the travel reference line La, the position δ in the lateral width direction, and the current steering angle γ of the front wheel 1F, the target steering of the front wheel 1F is calculated based on the following equation (v). The angle θf is set, and the steering angle γ of the front wheel 1F is changed to the target steering angle θf.
On the other hand, the steering motor M1 is driven so as to be maintained within the set dead zone. Note that K in the formula
1 , K 2 and K 3 are constants preset according to the steering characteristics. θf = K 1 δ + K 2 ψ + K 3 γ ………… (v)

【0033】次に、旋回制御処理(図12)について説
明すれば、先ず今まで走行してきた行程でのカメラと反
対側のカメラS1を次行程のカメラとして選択するとと
もに、今まで走行してきた行程の目標方位と反対の向き
(180度回転した方位角)を次行程の目標方位として
選択する。そして、小さい旋回半径r1で旋回するよう
に内輪側の後輪1Rのブレーキ装置3を作動させ且つ操
舵角を50度以上に設定し、比較的速い速度v1で第1
旋回角度範囲φ1での旋回動作を開始する。この後、方
位角検出情報を収集しながら旋回角度が160度を越え
るまで上記旋回動作を続ける(図6参照)。
Next, the turning control process (FIG. 12) will be described. First, the camera S1 on the side opposite to the camera in the previous travel is selected as the camera for the next travel and the travel in the previous travel is performed. The direction (azimuth angle rotated by 180 degrees) opposite to the target azimuth of is selected as the target azimuth of the next stroke. Then, the brake device 3 of the rear wheel 1R on the inner wheel side is operated so as to turn with a small turning radius r1, the steering angle is set to 50 degrees or more, and the first speed is set at a relatively high speed v1.
The turning operation in the turning angle range φ1 is started. After that, the turning operation is continued until the turning angle exceeds 160 degrees while collecting the azimuth angle detection information (see FIG. 6).

【0034】旋回角度が160度を越えると、大きい旋
回半径r2で旋回するように内輪側の後輪1Rのブレー
キ装置3の作動を解除させ且つ操舵角を30度に設定
し、比較的遅い速度v2で第2旋回角度範囲φ2での旋
回動作を開始する。この後、境界検出情報及び方位角検
出情報を収集しながら、次行程の境界Lが検出されるま
で又は次行程の境界Lが検出されないときは旋回角度が
190度を越えるまで、上記旋回動作を続ける(図6参
照)。そして、次行程の境界Lが検出された場合又は次
行程の境界Lが検出されないときは旋回角度が190度
を越えた場合には、旋回動作を停止してメインルーチン
(図10)に戻り、次行程での走行を開始する。
When the turning angle exceeds 160 degrees, the brake device 3 of the rear wheel 1R on the inner wheel side is deactivated and the steering angle is set to 30 degrees so as to turn with a large turning radius r2, and a relatively slow speed is set. At v2, the turning operation in the second turning angle range φ2 is started. After that, while collecting the boundary detection information and the azimuth angle detection information, the above-described turning operation is performed until the boundary L of the next stroke is detected or when the boundary L of the next stroke is not detected, until the turning angle exceeds 190 degrees. Continue (see Figure 6). Then, when the boundary L of the next stroke is detected or when the boundary L of the next stroke is not detected and the turning angle exceeds 190 degrees, the turning operation is stopped and the process returns to the main routine (FIG. 10). Start running on the next journey.

【0035】〔別実施例〕上記実施例では、撮像手段と
して白黒式のテレビカメラS1を用い、作業地である圃
場面の撮像情報として得た明度情報から車体横幅方向で
の未処理作業地(未耕地M)と処理済作業地(既耕地
K)との境界を検出する場合を示したが、撮像手段とし
てカラー式のテレビカメラを用い、得られたカラー画像
情報に基づいて、上記境界を検出するように構成するこ
ともできる。
[Other Embodiments] In the above embodiment, the monochrome television camera S1 is used as the image pickup means, and the unprocessed work area in the lateral direction of the vehicle body is calculated from the brightness information obtained as the image information of the field scene, which is the work area. Although the case of detecting the boundary between the uncultivated land M) and the treated work site (already cultivated land K) is shown, a color television camera is used as the imaging means, and the boundary is determined based on the obtained color image information. It can also be configured to detect.

【0036】又、上記実施例では、ハフ変換を利用して
車体横幅方向での未処理作業地と処理済作業地との境界
を検出する場合を例示したが、ハフ変換以外に、例えば
最小二乗法等を用いて上記境界を直線近似するように構
成してもよい。
Further, in the above embodiment, the case where the boundary between the unprocessed work site and the processed work site in the lateral direction of the vehicle body is detected by using the Hough transform has been exemplified. The boundary may be linearly approximated by using a multiplication method or the like.

【0037】又、上記実施例では、方位角検出手段S3
として地磁気方位センサを用いたものを示したが、これ
以外に、例えばレーザジャイロ式の方位センサを用いる
ものでもよい。
Further, in the above embodiment, the azimuth angle detecting means S3
Although the one using the geomagnetic direction sensor is shown as the above, other than this, for example, a laser gyro type direction sensor may be used.

【0038】又、上記実施例では、操向制御手段100
が、境界Lの方向と車体方位角の方向2との角度差が設
定角度以上である場合に境界検出情報が適正でないと判
断するものを示したが、この判断の構成は上記のものに
限らない。例えば、現地点での車体方位角だけでなく現
地点に走行するまでの現行程での車体方位角の履歴や、
あるいは、隣接する前の作業行程の全行程での車体方位
角の履歴等との比較で判断するように構成することもで
きる。
Further, in the above embodiment, the steering control means 100
However, when the angle difference between the direction of the boundary L and the direction 2 of the vehicle body azimuth is greater than or equal to the set angle, it is determined that the boundary detection information is not appropriate, but the configuration of this determination is not limited to the above. Absent. For example, not only the vehicle body azimuth at the local point, but also the history of the current vehicle body azimuth until traveling to the local point,
Alternatively, the judgment may be made by comparison with the history of the vehicle body azimuth angle in the entire stroke of the work stroke before adjoining.

【0039】尚、適正な境界検出情報が得られない状態
が継続する場合、例えば所定距離(例えば3m位)走行
しても適正な境界検出情報が得られない場合には、危険
防止等のために作業車を非常停止させるようにすること
もできる。
If the proper boundary detection information is not obtained continuously, for example, if the proper boundary detection information is not obtained even after traveling for a predetermined distance (for example, about 3 m), in order to prevent danger, etc. It is also possible to make the work vehicle emergency stop.

【0040】又、上記実施例では、操向制御手段100
並びに旋回制御手段101を、前輪1Fのみを操舵する
2輪ステアリング形式で行う場合を例示したが、この2
輪ステアリング形式以外に、例えば、前後輪1F,1R
を逆位相で操舵する4輪ステアリング形式で行うように
することもできる。
Further, in the above embodiment, the steering control means 100
In addition, the case where the turning control means 101 is operated in a two-wheel steering system in which only the front wheels 1F are steered has been described.
In addition to the wheel steering type, for example, front and rear wheels 1F, 1R
Can be performed in a four-wheel steering system in which the steering is performed in the opposite phase.

【0041】又、上記実施例では、本発明を自動走行作
業車としての農作業用のトラクターに適用したものを例
示したが、自動走行作業車としては田植え機等の他の農
作業機やブルトーザー等の土木建設機械等にも適用でき
るものであって、その際の未処理作業地と処理済作業地
との境界検出の構成、機体走行系の構成等の各部の具体
構成は適宜変更できる。
In the above embodiment, the present invention is applied to the agricultural work tractor as an automatic traveling work vehicle. However, the automatic traveling work vehicle may be another agricultural work machine such as a rice transplanter or a bulltozer. It can also be applied to civil engineering construction machines and the like, and the specific configuration of each part such as the configuration for detecting the boundary between the unprocessed work site and the processed work site at that time, the configuration of the machine traveling system, and the like can be appropriately changed.

【0042】尚、特許請求の範囲の項に図面との対照を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。
It should be noted that although reference numerals are given in the claims for convenience of comparison with the drawings, the present invention is not limited to the configurations of the accompanying drawings by the entry.

【図面の簡単な説明】[Brief description of drawings]

【図1】制御構成のブロック図FIG. 1 is a block diagram of a control configuration.

【図2】境界に沿って走行しているトラクターの概略平
面図
FIG. 2 is a schematic plan view of a tractor traveling along a boundary.

【図3】トラクターの概略側面図FIG. 3 is a schematic side view of the tractor.

【図4】トラクターの概略正面図FIG. 4 is a schematic front view of a tractor.

【図5】作業行程を示す平面図FIG. 5 is a plan view showing a work process.

【図6】旋回移動の軌跡を示す平面図FIG. 6 is a plan view showing a locus of turning movement.

【図7】境界検出処理の説明図FIG. 7 is an explanatory diagram of boundary detection processing.

【図8】ハフ変換処理の説明図FIG. 8 is an explanatory diagram of Hough conversion processing.

【図9】撮像視野における車体進行方向と近似直線の関
係を示す説明図
FIG. 9 is an explanatory diagram showing a relationship between a vehicle body traveling direction and an approximate straight line in an imaging visual field.

【図10】制御作動のフローチャートFIG. 10 is a flowchart of control operation.

【図11】制御作動のフローチャートFIG. 11 is a flowchart of control operation.

【図12】制御作動のフローチャートFIG. 12 is a flowchart of control operation.

【符号の説明】[Explanation of symbols]

S1 撮像手段 11 境界検出手段 V 作業車 100 操向制御手段 S3 方位角検出手段 S1 Image pickup means 11 Boundary detection means V Work vehicle 100 Steering control means S3 Azimuth angle detection means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 西中 正昭 大阪府堺市石津北町64番地 株式会社農作 物生育管理システム研究所内 (72)発明者 伊藤 勝美 大阪府堺市石津北町64番地 株式会社農作 物生育管理システム研究所内 (72)発明者 吉田 実夫 大阪府堺市石津北町64番地 株式会社農作 物生育管理システム研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masaaki Nishinaka 64 Ishizukita-machi, Sakai City, Osaka Prefecture Agricultural growth management system research institute (72) Inventor Katsumi Ito 64, Ishizukita-machi, Sakai City, Osaka Prefecture Agricultural Co., Ltd. (72) Minoru Yoshida, 64 Ishizukita-machi, Sakai City, Osaka Prefecture

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車体前方側箇所を撮像する撮像手段(S
1)と、その撮像手段(S1)の撮像情報に基づいて車
体横幅方向での未処理作業地と処理済作業地との境界を
検出する境界検出手段(11)と、その境界検出手段
(11)の境界検出情報に基づいて作業車(V)が前記
境界に沿って自動走行するように操向制御する操向制御
手段(100)とが設けられた自動走行作業車の走行制
御装置であって、 前記作業車(V)の車体方位を検出する方位角検出手段
(S3)が設けられ、 前記操向制御手段(100)は、前記境界検出手段(1
1)からの前記境界検出情報が適正でない場合には、前
記方位角検出手段(S3)の検出情報にのみ基づいて前
記操向制御を実行するように構成されている自動走行作
業車の走行制御装置。
1. An image pickup means (S) for picking up an image of a front side portion of a vehicle body.
1), a boundary detection unit (11) for detecting a boundary between an unprocessed work site and a processed work site in the lateral direction of the vehicle body based on the imaging information of the imaging unit (S1), and the boundary detection unit (11). ), A steering control means (100) for controlling the steering so that the work vehicle (V) automatically travels along the boundary based on the boundary detection information. Then, an azimuth angle detecting means (S3) for detecting the vehicle body azimuth of the work vehicle (V) is provided, and the steering control means (100) is provided with the boundary detecting means (1).
When the boundary detection information from 1) is not proper, the traveling control of the automatic work vehicle configured to execute the steering control based only on the detection information of the azimuth angle detecting means (S3). apparatus.
【請求項2】 前記操向制御手段(100)は、前記境
界検出手段(11)によって検出された前記境界の方向
と前記方位角検出手段(S3)によって検出された車体
方位の方向との角度差が設定角度以上である場合に、前
記境界検出情報が適正でないと判断するように構成され
ている請求項1記載の自動走行作業車の走行制御装置。
2. The steering control means (100) forms an angle between the direction of the boundary detected by the boundary detection means (11) and the direction of the vehicle body direction detected by the azimuth angle detection means (S3). The travel control device for an automated guided vehicle according to claim 1, wherein the boundary detection information is determined to be incorrect when the difference is equal to or greater than a set angle.
JP5210122A 1993-08-25 1993-08-25 Traveling controller of automatic traveling working car Pending JPH0759407A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5210122A JPH0759407A (en) 1993-08-25 1993-08-25 Traveling controller of automatic traveling working car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5210122A JPH0759407A (en) 1993-08-25 1993-08-25 Traveling controller of automatic traveling working car

Publications (1)

Publication Number Publication Date
JPH0759407A true JPH0759407A (en) 1995-03-07

Family

ID=16584166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5210122A Pending JPH0759407A (en) 1993-08-25 1993-08-25 Traveling controller of automatic traveling working car

Country Status (1)

Country Link
JP (1) JPH0759407A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199770A (en) * 2004-01-13 2005-07-28 Iseki & Co Ltd Turning control device for agricultural working vehicle
JP2008278839A (en) * 2007-05-14 2008-11-20 Kubota Corp Working vehicle
WO2016093311A1 (en) * 2014-12-11 2016-06-16 福田 敏男 Work vehicle
JP2018180922A (en) * 2017-04-12 2018-11-15 井関農機株式会社 Work vehicle
JP2021036467A (en) * 2020-11-19 2021-03-04 井関農機株式会社 Working vehicle
WO2021145046A1 (en) * 2020-01-14 2021-07-22 株式会社クボタ Agricultural work vehicle
JP2021108597A (en) * 2020-01-14 2021-08-02 株式会社クボタ Automatically travelling farm working vehicle
SE2250085A1 (en) * 2022-01-31 2023-08-01 Husqvarna Ab Improved operation for a robotic work tool system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199770A (en) * 2004-01-13 2005-07-28 Iseki & Co Ltd Turning control device for agricultural working vehicle
JP2008278839A (en) * 2007-05-14 2008-11-20 Kubota Corp Working vehicle
US10274963B2 (en) 2014-12-11 2019-04-30 Yanmar Co., Ltd. Work vehicle
KR20170091110A (en) * 2014-12-11 2017-08-08 얀마 가부시키가이샤 Work vehicle
EP3232290A4 (en) * 2014-12-11 2018-08-08 Yanmar Co., Ltd. Work vehicle
WO2016093311A1 (en) * 2014-12-11 2016-06-16 福田 敏男 Work vehicle
JP2018180922A (en) * 2017-04-12 2018-11-15 井関農機株式会社 Work vehicle
KR20200067232A (en) * 2017-04-12 2020-06-12 이세키노우키가부시키가이샤 Working vehicle
TWI762563B (en) * 2017-04-12 2022-05-01 日商井關農機股份有限公司 Work vehicle
WO2021145046A1 (en) * 2020-01-14 2021-07-22 株式会社クボタ Agricultural work vehicle
JP2021108597A (en) * 2020-01-14 2021-08-02 株式会社クボタ Automatically travelling farm working vehicle
JP2021036467A (en) * 2020-11-19 2021-03-04 井関農機株式会社 Working vehicle
SE2250085A1 (en) * 2022-01-31 2023-08-01 Husqvarna Ab Improved operation for a robotic work tool system
WO2023146451A1 (en) * 2022-01-31 2023-08-03 Husqvarna Ab Improved operation for a robotic work tool system

Similar Documents

Publication Publication Date Title
JPH0759407A (en) Traveling controller of automatic traveling working car
JP2815760B2 (en) Crop row detector
JPH0759406A (en) Rotation controller of automatic traveling working car
JPH0628032A (en) Traveling control device for automatic traveling working vehicle
JPH069011B2 (en) Travel control system for automated guided vehicles
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JP2624390B2 (en) Crop row detector
JPH01161403A (en) Image pickup type steering control device for automatic traveling working vehicle
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JPH0619542A (en) Traveling controller for automatic travel working vehicle
JP2907641B2 (en) Work area detection device
JPS63279109A (en) Image pickup type boundary detector
JP2907613B2 (en) Crop row detector
JPH01231809A (en) Photographing type travel control device for automatic travel working car
JPH01161402A (en) Image pickup type steering control device for automatic traveling working vehicle
JPS61139304A (en) Steering controller of self-propelling working machine
JP2721071B2 (en) Crop row detector
JPH0575332B2 (en)
JPH07104720B2 (en) Image-capturing boundary detection device for self-driving work vehicles
JPS63277908A (en) Image pickup type border detection device
JP2721072B2 (en) Crop row detector
JPH0575336B2 (en)
JPH0572601B2 (en)
JPS63293402A (en) Image pickup type border detecting device
JPH0619541A (en) End detecting device for automatic travel working vehicle