JPS63271509A - Traveling course generating device - Google Patents

Traveling course generating device

Info

Publication number
JPS63271509A
JPS63271509A JP62105395A JP10539587A JPS63271509A JP S63271509 A JPS63271509 A JP S63271509A JP 62105395 A JP62105395 A JP 62105395A JP 10539587 A JP10539587 A JP 10539587A JP S63271509 A JPS63271509 A JP S63271509A
Authority
JP
Japan
Prior art keywords
unmanned vehicle
traveling
area
boundary
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62105395A
Other languages
Japanese (ja)
Other versions
JP2540855B2 (en
Inventor
Kazuo Ishikawa
和男 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Automatic Loom Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Automatic Loom Works Ltd filed Critical Toyoda Automatic Loom Works Ltd
Priority to JP62105395A priority Critical patent/JP2540855B2/en
Publication of JPS63271509A publication Critical patent/JPS63271509A/en
Application granted granted Critical
Publication of JP2540855B2 publication Critical patent/JP2540855B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To accurately generate the shortest traveling course to a destination by generating the traveling path according to the maximum radius at the time of the turning of an unmanned vehicle and the maximum linear distance from a straight line parallel to a traveling direction running in the center of rotation at the time of linear traveling to a border-side flank. CONSTITUTION:A recognizing means 1 recognizes the border of a traveling area by extracting features from image pick-up data from a television camera, etc. Thus, the border of the traveling area is recognized and then position information on the border is obtained and applied to a generating means 2. The generating means 2 generates the path where the vehicle can run nearby the traveling area according to the maximum radius at the time of the turning of the unmanned vehicle and the maximum linear distance from the straight line parallel to the traveling direction running in the center of the turning at the time of linear traveling to the area border-side flank of the unmanned vehicle. Thus, the traveling path nearby the traveling area border is accurately set, so the shortest traveling course of the unmanned vehicle is accurately obtained.

Description

【発明の詳細な説明】 〔概  要〕 従来の無人車の走行コース作成装置は、障害物に妨害さ
れずに走行できる経路を作成する際、壁面等のような走
行領域境界を回避する方法が明確になっておらず、冗長
な走行コースを作成したりする場合があった。
[Detailed Description of the Invention] [Summary] A conventional driving course creation device for an unmanned vehicle has a method of avoiding driving area boundaries such as walls when creating a driving route without being obstructed by obstacles. In some cases, it was not clear and redundant driving courses were created.

本発明は、無人車の走行コース作成に際し、壁面等の走
行領域境界付近を無人車が走行可能であるかを精度良く
判別して走行コースを作成するものであり、従来の走行
コース作成装置よりも信頼性が向上し、より最適な最短
走行コースを作成することができる。
When creating a driving course for an unmanned vehicle, the present invention creates a driving course by accurately determining whether the unmanned vehicle can travel near a driving area boundary such as a wall surface, and is more efficient than conventional driving course creation devices. Reliability has also improved, making it possible to create a more optimal shortest driving course.

〔産業上の利用分野〕[Industrial application field]

本発明は、無人車に係り、特に無人車の走行経路を決定
する装置に関する。
TECHNICAL FIELD The present invention relates to an unmanned vehicle, and more particularly to an apparatus for determining a driving route of an unmanned vehicle.

〔従 来 技 術〕[Traditional technique]

原子カプラントでの遠隔作業や工場、病院内での無人搬
送などの用途に搬送ロボットが用いられている。このよ
うな搬送ロボットすなわち無人車は、走行コース作成装
置を内蔵し、その走行コー曵作成装置により自i地点ま
での走行コースを作成し、その走行コースに従って目標
地点まで移動する。
Transport robots are used for applications such as remote work in nuclear couplants and unmanned transport in factories and hospitals. Such a transport robot, that is, an unmanned vehicle, has a built-in travel course creation device, uses the travel course creation device to create a travel course to its own point i, and moves to the target point according to the travel course.

走行コース作成装置は、例えば線路探索法により走行゛
コースを決定してい鼠。
The driving course creation device determines the driving course by, for example, a track search method.

線路探索法においては、出発地点と目標地点を端点とす
る、障害物と交わらない複数の経路を探索し、その見い
出した複数の経路の中での最短距泄の経路を実際、の走
!〒コースとしている。
In the track search method, multiple routes that do not intersect with obstacles are searched for with the starting point and the destination point as the end points, and the route with the shortest distance among the multiple routes found is actually run! 〒 Course.

通常、その経路は、複数のノードから成っており、ノー
ドを起点として走行方向が変化する。線路探索法を概略
′的に説明”すると、先ずノードを展開し目標点まで直
線で走行できるか否かを判別する。直線走行できる場合
には求めた直線を走行する。しかし目標点までの直線経
路が作成できない場合には、先ず目標点の方向にある障
害物を捜し、それらの障害物の中で最もそのノードの近
くにある障害物の両側を回避する路を求め、これが更に
他の障害物に妨げられれば、これらを回避する路を求め
るという手順を繰り返し、最後に回避すべき障害物が無
くなった時点で残った回避路を子ノードとするものであ
る。
Usually, the route consists of a plurality of nodes, and the running direction changes from the node as the starting point. To give a rough explanation of the track search method, first, nodes are expanded and it is determined whether or not it is possible to travel in a straight line to the target point.If it is possible to travel in a straight line, it travels along the found straight line.However, if it is possible to travel in a straight line to the target point, it is determined. If a route cannot be created, first search for obstacles in the direction of the target point, find a path that avoids both sides of the obstacle closest to the node, and then If an object obstructs the object, the procedure of finding a path to avoid these obstacles is repeated, and when there are no more obstacles to avoid, the remaining avoidance path is set as a child node.

ここで、従来の走行コース作成装置のノードの求め方を
第12図(a)、 (b)を参照しながら説明する。
Here, the method of finding nodes in the conventional driving course creating device will be explained with reference to FIGS. 12(a) and 12(b).

同図(a)において、斜線領域DI、D2は障害物を示
しておりIは、出発点を示すノードである。
In FIG. 5A, hatched areas DI and D2 indicate obstacles, and I is a node indicating a starting point.

ノード!の子ノードP、を決定する場合、障害物り、の
頂点を中心として半径rの円CIを描き、その円C8に
対する接線を引く。そして、円C1の接点からrの距離
だけ行き過ぎた点を次の子ノードの候補P、とする。
node! To determine the child node P of the obstacle P, draw a circle CI with radius r centered on the vertex of the obstacle P, and draw a tangent to the circle C8. Then, a point that is a distance r from the contact point of the circle C1 is set as a candidate P for the next child node.

これは、無人車(子図系)の地上投影面の形状を半径r
の円で近似し、無人車−と障害物D1の接触箇所を円C
1の円周と仮定している。すなわち、障害物り、と円C
1の和集合領域を障害物領域とみなす。そしてノードP
、は無人車が一旦停止した後、回転により走行方向を変
えたりしながら直線走行により次のノードまたは目標点
まで移動する起点位置であり、無人車の回転中心位置に
等しい。このノードP1の近傍には障害物D2があり、
無人車が出発点IからノードP1までの経路R1を走行
した場合障害物Dtにより走行不可能となるかどうかは
、障害物D2の頂点を中心とした半径rの円C2内を経
路R1が通過するかどうかにより判別する。同図(a)
においては、経路R3は円C2内を通過しないので、経
路Rtは無人車の走行可能な経路であると判別され、ノ
ードP1が子′ノードとなる。尚、経路R1は無人′車
の回転中心の軌跡に等しい。
This defines the shape of the ground projection plane of the unmanned vehicle (child diagram) with radius r
The point of contact between the unmanned vehicle and the obstacle D1 is approximated by a circle C.
It is assumed that the circumference is 1. In other words, the obstacle ri and the circle C
The union region of 1 is regarded as an obstacle region. and node P
, is the starting point position where the unmanned vehicle once stops and then moves in a straight line to the next node or target point while changing the traveling direction by rotating, and is equal to the rotation center position of the unmanned vehicle. There is an obstacle D2 near this node P1,
When an unmanned vehicle travels along route R1 from starting point I to node P1, whether or not it becomes unable to travel due to an obstacle Dt is determined by determining whether route R1 passes through a circle C2 with radius r centered at the apex of obstacle D2. Determine whether or not. Figure (a)
In , since route R3 does not pass through circle C2, route Rt is determined to be a route on which an unmanned vehicle can travel, and node P1 becomes a child' node. Note that the route R1 is equal to the locus of the rotation center of the unmanned vehicle.

一方、ノードP1の近傍に同図(blに示すような障害
物D2′があった場合ノードP1′は障害物り、′の頂
点を中心とする半径rの円C、l内に位置するのでノー
ドP1′は子ノードではないと判別され、経路R、Iは
走行経路とはならない。
On the other hand, if there is an obstacle D2' near node P1 as shown in the same figure (bl), node P1' is an obstacle and is located within a circle C, l of radius r centered on the vertex of '. It is determined that node P1' is not a child node, and routes R and I are not travel routes.

〔発明が解決しようとする問題点〕      ・とこ
ろで、上述したように従来の走行コース作成装置は無人
車の地上投影面の形状を半径rの円に近似させて走行可
能か否かの判別を行っている。
[Problems to be solved by the invention] - By the way, as mentioned above, the conventional driving course creation device approximates the shape of the ground projection plane of the unmanned vehicle to a circle with radius r and determines whether or not it is possible to travel. ing.

例えば無人車の地上投影面形状が第13図(alに示す
ような長方形であった場合、近似する円c3の半径rは
、第13図(blに示すように無人車の回転中心0から
長方形の頂点に引いた2つの線分MRF、MRRの内で
長い方の線分の長さMA; (MRF、MRR)としテ
ィる。尚、第13図(a)において、F側が無人車の前
方側、B側が無人車の後方側であり、YR,XRF、X
RRはそれぞれ回転中心0から無人車の側面、前面、後
面までの距離である。
For example, if the shape of the ground projection plane of the unmanned vehicle is a rectangle as shown in Figure 13 (al), the radius r of the approximate circle c3 is The length of the longer line segment of the two line segments MRF and MRR drawn at the top of side, B side is the rear side of the unmanned vehicle, YR, XRF,
RR is the distance from the rotation center 0 to the side, front, and rear surfaces of the unmanned vehicle, respectively.

このように、無人車の投影面形状をMAX(MRF、M
RR)を半径rとする円C3で近似すると、上述した第
12図(blのような場合ノードP1′の位置に無人車
の回転中心0が位置するまで移動することは不可能であ
ると判別されてしまう。すなわち、実際はノードP1′
の位置まで移動しても、無人車が障害物D2′に衝突し
ないにもかかわらず走行不可能と判別されてしまう場合
があった。特に、ノードP1′が目標地点に最も近いノ
ードであった場合に、実際は走行可能な経路R、1が走
行不可能と判別されると他の冗長なコースを走行するこ
とになるので目標地点までの走行時間が遅くなってしま
う等の問題が生じていた。
In this way, the projection surface shape of the unmanned vehicle is set to MAX (MRF, M
RR) is approximated by a circle C3 with radius r, it is determined that it is impossible to move until the rotation center 0 of the unmanned vehicle is located at the position of node P1' in the case shown in Figure 12 (bl) described above. In other words, it is actually node P1'
Even if the unmanned vehicle moves to the position shown in FIG. In particular, if node P1' is the node closest to the target point, if it is determined that route R,1, which is actually traversable, is not traversable, other redundant courses will have to be traveled. Problems such as slow running times occurred.

本発明は、上記従来の問題点に鑑み直線走行と回転によ
り移動する無人車の走行領域境界付近の経路を正確に作
成できる実用性の高い走行コース作成装置を提供するこ
とを目的とする。
SUMMARY OF THE INVENTION In view of the above-mentioned conventional problems, it is an object of the present invention to provide a highly practical driving course creation device that can accurately create a route near the boundary of a driving area for an unmanned vehicle that moves in a straight line and rotates.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、本発明の機能ブロック図である。 FIG. 1 is a functional block diagram of the present invention.

1は例えばテレビカメラ等で撮像して得た画像データか
ら走行領域の境界の位置情報を得る認識手段、2は該認
識手段1から加わる走行領域の境界の位置情報、無人車
の回転時の最大半径及び直線走行時の無人車の回転中心
を通る進行方向に平行な直線から無人車の領域境界側面
までの最大直線距離から、前記無人車が前記境界付近を
走行可能かを判別して、境界付近の経路を作成する作成
手段である。
1 is a recognition means that obtains the positional information of the boundary of the driving area from image data obtained by imaging with a television camera, etc., and 2 is the positional information of the boundary of the driving area that is added from the recognition means 1, and the maximum when the unmanned vehicle rotates. Based on the radius and the maximum straight line distance from a straight line parallel to the traveling direction passing through the center of rotation of the unmanned vehicle when traveling in a straight line to the side of the area boundary of the unmanned vehicle, it is determined whether the unmanned vehicle can travel near the boundary, and the boundary is determined. This is a creation means for creating nearby routes.

〔作   用〕[For production]

認識手段1は、テレビカメラ等によって撮像した画像デ
ータから特徴抽出等により走行領域の境界を認識する。
The recognition means 1 recognizes the boundaries of the driving area by extracting features from image data captured by a television camera or the like.

そして、走行領域の境界を認識した後、前記境界の位置
情報を求め作成手段2に加える。作成手段2は、無人車
が前記走行領域付近を走行する経路を作成する際、前記
無人車の回転時の最大半径と、前記無人車の直線走行時
の回転中心を通る進行方向に平行な直線から無人車の領
域境界側側面までの最大直線距離を基に走行領域付近の
走行可能な経路を作成する。尚、作成手段2は無人車の
走行面への投影図形が、長方形である場合、前記回転の
最大半径を前記無人車の回転中心から進行方向側かつ領
域境界側の頂点までの長さ、前記最大直線距離を前記回
転中心から前記進行方向に平行な領域境界側の前記長方
形の辺までの距離として、前記無人車の回転中心の位置
が前記領域境界から前記最大直線距離以下に位置する時
には走行不可能と判別し、前記無人車の回転中心の位置
が前記領域境界から前記最大半径より離れた位置になる
時には走行可能であると判別する。また、前記無人車の
回転中心が前記最大直線距離より大き(前記最大半径以
下の距離に位置する場合には、前記最大半径を基に前記
無人車の回転中心から前記領域境界方向への最大長を算
出し、その最大長が前記無人車の回転中心から前記領域
境界までの距離より短い時に前記無人車は走行可能であ
ると判別する。そして、上記のような判別により無人車
が領域境界付近を走行する場合の走行経路を作成する。
After recognizing the boundary of the driving area, the positional information of the boundary is obtained and added to the creation means 2. When creating a route for the unmanned vehicle to travel near the travel area, the creation means 2 creates a straight line parallel to the traveling direction passing through the maximum radius of rotation of the unmanned vehicle and the center of rotation of the unmanned vehicle when traveling in a straight line. A route that can be traveled near the driving area is created based on the maximum straight line distance from the area boundary side of the unmanned vehicle. In addition, when the projected figure on the running surface of the unmanned vehicle is a rectangle, the creation means 2 sets the maximum radius of rotation to the length from the rotation center of the unmanned vehicle to the vertex on the traveling direction side and the area boundary side, and If the maximum straight line distance is the distance from the rotation center to the side of the rectangle on the area boundary side parallel to the traveling direction, when the rotation center of the unmanned vehicle is located below the maximum straight line distance from the area boundary, the unmanned vehicle will not be able to travel. It is determined that this is not possible, and when the position of the center of rotation of the unmanned vehicle is further away from the area boundary than the maximum radius, it is determined that the unmanned vehicle is able to travel. In addition, if the rotation center of the unmanned vehicle is located at a distance greater than the maximum linear distance (or less than the maximum radius, the maximum length from the rotation center of the unmanned vehicle in the area boundary direction based on the maximum radius) is calculated, and when the maximum length is shorter than the distance from the rotation center of the unmanned vehicle to the area boundary, it is determined that the unmanned vehicle is able to travel.Then, based on the above determination, the unmanned vehicle is located near the area boundary. Create a driving route when driving.

このように、走行領域境界付近の走行経路を精度よく設
定するので無人車の最短走行コースが正確に得られる。
In this way, since the driving route near the driving area boundary is set with high precision, the shortest driving course for the unmanned vehicle can be accurately obtained.

〔実  施  例〕〔Example〕

以下、図面を用いて本発明の詳細な説明する。 Hereinafter, the present invention will be explained in detail using the drawings.

第2図は本発明を適用した無軌道無人車のシステム構成
図、第3図は第2図をさらに詳細に表したシステム構成
図である。
FIG. 2 is a system configuration diagram of a trackless unmanned vehicle to which the present invention is applied, and FIG. 3 is a system configuration diagram showing FIG. 2 in more detail.

統括コントローラ10は本発明の実施例の無軌道無人車
の全体の動作制御や走行コース設定を行うものであり、
第3図(blに示すようにプロセッサ10−1、シリア
ル入出力(310)10−2〜10−6、パラレル入出
力CPIO)10−7より成る。図示しないが、プロセ
ッサ10−1は内部にマイクロプロセッサユニットMP
U、上述の制御や他の処理を行うためのプログラムを記
憶するリード・オンリメそり(ROM)、各種の処理時
にデータを記憶するランダムアクセスメモリ(RAM)
等を有し、これらのMPU、ROM、RAMはパスライ
ンによって接続されている。また上述のパスラインは5
1010−2〜10−6、PIOIO−7をも共通に接
続している。本発明の実施例が動作を開・始した時には
統括コントローラ10は入力装置からのコマンド等の制
御情報が加わるのを待つ。統括コントローラ10のPI
Olo−7はスイッチユニットllの各種スイッチ11
−1〜11−11に接続しており、このスイッチ11−
1〜11−11の接点状態すなわちオン、オフ状態を管
理する。スイッチユニット11はGOスイッチ11−1
、RESETスイッチ11−2、音声E/Dスイッチ1
1−3、赤ボールスイッチ11−4、青ボールスイッチ
ll−5、黄ボールスイッチ11−6、緑ボールスイッ
チ11−7、遠ボールスイッチ11−8、近ボールスイ
ッチ10−9、形状lスイッチ11−10、形状2スイ
ツチ11−11より成り、各スイッチ11−1〜11−
11が統括コントローラlOのPIOIO−7に接続し
ている。例えばGoスイッチ11−4は本実施例の無軌
道無人車を動作を開始させるスイッチであり、このスイ
ッチ11−1をオンとすることによって後述する目標物
の認識や走行コースの設定さらにはハンドリング等の動
作を開始する。スイッチ11−4〜11−7は目標物(
本発明の実施例においては各色のボール)の色の指定を
入力するスイッチであり、赤ボールスイッチ11−4を
オンとした時には目標物を赤ボールとする。゛遠ボール
スイッチ11−8、近ボールスイッチ11−9は目標物
の色を指定した場合その色のボールが複数存在した時に
、遠い方の同一色のボールを目標物とすべきかあるいは
近い方の同一色のボールを目標物とすべきかを指示する
スイッチである。また形状lスイッチ11−10、形状
2スイツチ11−11は例えばボールの大きさや形状等
を指示するスイッチであり、このスイッチ11−10.
11−11や前述の各種スイッチ11−4〜11−9に
よって多数のボールが存在する時にもその内の1個を指
定することができる。さらにRESETスイッチ11−
2は本装置のリセット信号であり、このスイッチをオン
とすることによって、動作中であるならば動作を停止す
るとともに各スイッチ入力の再設定(入力)も可能とす
る。また音声E/Dスイッチ11−3は後述する音声入
力を有効とするかの選択スイッチである。統括コントロ
ーラlOが動作を開始(Goスイッチ11−1がオンと
なった)した後に上述の各種スイッチ11−4〜11−
11をオンとすると、統括コントローラ10は画像処理
ユニット12に対し、目標物の認識動作を開始させる。
The general controller 10 controls the entire operation of the trackless unmanned vehicle according to the embodiment of the present invention and sets the travel course.
FIG. 3 (as shown in bl) consists of a processor 10-1, serial input/output (310) 10-2 to 10-6, and parallel input/output (CPIO) 10-7. Although not shown, the processor 10-1 has a microprocessor unit MP inside.
U. Read-only memory (ROM) that stores programs for the above-mentioned control and other processing, and random access memory (RAM) that stores data during various processing.
These MPU, ROM, and RAM are connected by a pass line. Also, the pass line mentioned above is 5
1010-2 to 10-6 and PIOIO-7 are also commonly connected. When the embodiment of the present invention starts operating, the overall controller 10 waits for control information such as commands to be added from an input device. PI of the overall controller 10
Olo-7 is various switches 11 of switch unit ll.
-1 to 11-11, and this switch 11-
1 to 11-11, the contact states, ie, on and off states, are managed. The switch unit 11 is a GO switch 11-1
, RESET switch 11-2, audio E/D switch 1
1-3, red ball switch 11-4, blue ball switch ll-5, yellow ball switch 11-6, green ball switch 11-7, far ball switch 11-8, near ball switch 10-9, shape l switch 11 -10, shape 2 switches 11-11, each switch 11-1 to 11-
11 is connected to PIOIO-7 of the overall controller IO. For example, the Go switch 11-4 is a switch that starts the operation of the trackless unmanned vehicle of this embodiment, and by turning on this switch 11-1, it is possible to recognize targets, set a driving course, and handle the vehicle as described later. Start operation. Switches 11-4 to 11-7 are used for target objects (
In the embodiment of the present invention, this is a switch for inputting the color designation of each colored ball, and when the red ball switch 11-4 is turned on, the target object is a red ball.゛The far ball switch 11-8 and the near ball switch 11-9 are used to select whether the far ball of the same color should be the target or the nearer one when the color of the target is specified and there are multiple balls of that color. This is a switch that indicates whether a ball of the same color should be the target object. Further, the shape I switch 11-10 and the shape 2 switch 11-11 are switches for instructing, for example, the size and shape of the ball, and these switches 11-10.
11-11 and the various switches 11-4 to 11-9 described above can be used to specify one of the balls even when there are many balls. Furthermore, RESET switch 11-
Reference numeral 2 is a reset signal for this device, and by turning on this switch, if it is in operation, it stops the operation and also allows reset (input) of each switch input. The audio E/D switch 11-3 is a selection switch for enabling audio input, which will be described later. After the overall controller IO starts operating (the Go switch 11-1 is turned on), the various switches 11-4 to 11- described above are activated.
11, the overall controller 10 causes the image processing unit 12 to start recognizing the target object.

画像処理ユニット12はカメラ12−1.カメラコント
ローラ12−2、カラーデコーダ12−3、画像処理装
置12−4さらにカメラティルタ12−5、カメラティ
ルタードライバ12−6より成る。カメラ12−1はカ
メラティルタ12−5に設置されており、目標物を撮像
するように統括コントローラlOは目標物の認識動作の
開始前にカメラティルタードライバ12−6を介して、
カメラティルタ12−5を制御し、目標物がカメラの撮
像範囲内に入るようにする。
The image processing unit 12 includes a camera 12-1. It consists of a camera controller 12-2, a color decoder 12-3, an image processing device 12-4, a camera tilter 12-5, and a camera tilter driver 12-6. The camera 12-1 is installed in the camera tilter 12-5, and the general controller 1O via the camera tilter driver 12-6, before starting the target object recognition operation, so as to image the target object.
The camera tilter 12-5 is controlled so that the target object is within the imaging range of the camera.

一方、カメラ12−1の画像データはカメラコントロー
ラ12−2に加わっており、例えばカメラ12−1で得
られた画像データはカメラコントローラ12−2によっ
て多値のデジタル画像データに変換される。そして、デ
ジタル画像データはカラーデコーダ12−3でデコード
され画像処理装置12−4に加わる。画像処理装置12
−4には前述したようにデコードされたデジタル画像デ
ータが加わるが、統括コントローラ10からの目標物認
識要求が加わった時のみデコードされたデジタル画像デ
ータを内部の画像メモリに取込む。
On the other hand, the image data of the camera 12-1 is applied to the camera controller 12-2, and, for example, the image data obtained by the camera 12-1 is converted into multivalued digital image data by the camera controller 12-2. The digital image data is then decoded by a color decoder 12-3 and applied to an image processing device 12-4. Image processing device 12
The decoded digital image data is added to -4 as described above, but the decoded digital image data is taken into the internal image memory only when a target object recognition request from the general controller 10 is added.

本発明の実施例においては4色のボールの内の1色のボ
ールが指示されるので、画像処理装置12−4は指示さ
れボールの色に対応して各色の画像データの内から1色
の画像データを選択する。一般的に無軌道無人車が移動
する移動範囲内には例えば工場内には様々な光を発生す
る処理があり、この光を受けることによって、画像デー
タのレベルが異なる。本発明の実施例においては、図示
しないがカメラ12−1が撮像する範囲をライトが照射
するようになっており、この外部の光による誤動作を防
止するため、カメラ12−1によって撮像したデータを
2回にわたって取り込む。そして、この2回の画像デー
タのレベルが一致していた時に、その画像データが正常
であるとして、目標物認識処理を行う。
In the embodiment of the present invention, one of the four colors of balls is designated, so the image processing device 12-4 selects one color from among the image data of each color corresponding to the designated ball color. Select image data. Generally, within the movement range of a trackless unmanned vehicle, for example in a factory, there are processes that generate various types of light, and the level of image data differs depending on the reception of this light. In the embodiment of the present invention, although not shown, a light illuminates the range imaged by the camera 12-1, and in order to prevent malfunctions caused by this external light, the data imaged by the camera 12-1 is Import twice. Then, when the levels of the image data of these two times match, it is assumed that the image data is normal and target object recognition processing is performed.

さらに本発明の実施例においてはカラーデータを用いて
目標物の認識処理を行う。白黒データを用いて認識処理
を行う場合には遠方の画像と近傍の画像はその明るさが
異なるため、例えばカメラの近傍しか認識することがで
きないが、本発明では、カラーの特定色を用いているた
め、ライトによって得られる近傍と遠方の画像データの
レベルが異なっていても、目標物がどれであるかを明確
に認識することができる。
Furthermore, in the embodiment of the present invention, target object recognition processing is performed using color data. When recognition processing is performed using black and white data, images in the distance and nearby images have different brightness, so for example, only the vicinity of the camera can be recognized.However, in the present invention, by using specific colors Therefore, even if the levels of near and far image data obtained by the light are different, it is possible to clearly recognize which object is the target.

画像処理装置12−4が目標物を認識すると、画像処理
装置12−4は画像データとその目標物の位置情報をシ
リアルデータに変換して統括コントローラ10のs 1
010−4を介してプロセッサ10−1に加える。
When the image processing device 12-4 recognizes the target object, the image processing device 12-4 converts the image data and the position information of the target object into serial data, and sends the serial data to s1 of the general controller 10.
010-4 to processor 10-1.

前述した動作によって目標物の位置が認識できたので、
次には統括コントローラ10は画像処理ユニット12よ
り得られた画像データから、目標物までの走行コースの
作成を行う。
Since the position of the target was recognized by the above-mentioned operation,
Next, the general controller 10 creates a travel course to the target object from the image data obtained from the image processing unit 12.

プロセッサ10−1は画像処理ユニット12から5IO
IO−4を介して入力した画像データをRAM (不図
示)内に記憶する。そして、画像データが全て入力され
るとRAM内に記憶された画像データから特徴抽出処理
等を行い、予め設定された障害物の特徴データとの比較
照合処理により全ての障害物を抽出しそれらの障害物の
位置情報及び形状データを求め、RAM内に記憶する。
The processor 10-1 includes 5IO from the image processing unit 12.
Image data input via IO-4 is stored in RAM (not shown). Then, when all the image data is input, feature extraction processing is performed from the image data stored in the RAM, and all obstacles are extracted by comparison processing with preset obstacle feature data. The position information and shape data of the obstacle are obtained and stored in the RAM.

また、RAM内には、予め無人車9の作業領域を指定す
る位置データが記憶されている。本実施例では、無人車
9は室内で作業するものとし、前記位置データとして室
内の周囲の壁面の位置データが記憶されている。そして
、前述のようにして求められた目標物の位置情報及び各
障害物の位置情報及び形状データを基に以下に示す処理
を行い、目標物までの走行コースを作成する。
Further, position data specifying the work area of the unmanned vehicle 9 is stored in advance in the RAM. In this embodiment, it is assumed that the unmanned vehicle 9 works indoors, and the position data of the surrounding walls in the room is stored as the position data. Then, based on the position information of the target and the position information and shape data of each obstacle obtained as described above, the following processing is performed to create a driving course to the target.

まず、本発明の走行経路の作成方法について説明する。First, a method of creating a travel route according to the present invention will be explained.

第5図は、本実施例で用いた無人車9の地上投影面形状
図である。同図において、F側が無人車9の前面、B側
が無人車9の後面である。また、0、は無人車9が回転
する場合の中心点であり、左右対称の位置にある。また
、XRF、XRRはそれぞれ中心点0.から無人車9の
前面、後面までの距離、MRF、MRRはそれぞれ中心
点OIから前面の左右端までの距離、後面の左右端まで
の距離である。また、θ9は上記MRFが無人車9の左
右端の側辺となす角度である。
FIG. 5 is a diagram showing the shape of the unmanned vehicle 9 used in this example when projected onto the ground. In the figure, the F side is the front surface of the unmanned vehicle 9, and the B side is the rear surface of the unmanned vehicle 9. Further, 0 is the center point when the unmanned vehicle 9 rotates, and is located at a symmetrical position. In addition, XRF and XRR each have a center point of 0. The distances from the center point OI to the front and rear surfaces of the unmanned vehicle 9, MRF, and MRR are the distances from the center point OI to the left and right ends of the front surface, and the distances from the left and right ends of the rear surface, respectively. Further, θ9 is the angle that the MRF makes with the left and right sides of the unmanned vehicle 9.

本発明においては、無人車9が作業領域の範囲を規定す
る壁面等のそばを走行する場合、その壁面(以下、領域
境界BDと記す)の近傍に第6図に示すように3つの領
域を設定する。
In the present invention, when the unmanned vehicle 9 travels near a wall or the like that defines the range of the work area, three areas are defined near the wall (hereinafter referred to as area boundary BD) as shown in FIG. Set.

同図において、領域Aは領域境界BDからYR以下の距
離にある領域、領域Bは領域境界BDからYR以上MR
F以下までの距離にある領域、領域Cは領域境界BDか
らMRFより大の距離にある領域である。
In the figure, region A is a region located at a distance of YR or less from the region boundary BD, and region B is located at a distance of YR or more MR from the region boundary BD.
Region C, which is a region located at a distance of less than F, is a region located at a distance greater than MRF from the region boundary BD.

次に第7図は無人車9が領域境界BDに接近した場合の
、無人車9と領域境界BDとの位置関係を示す図である
Next, FIG. 7 is a diagram showing the positional relationship between the unmanned vehicle 9 and the area boundary BD when the unmanned vehicle 9 approaches the area boundary BD.

同図において、θ8は無人車9の走行方位が領域境界B
Dとなす角度であり、DSは回転中心OIから領域境界
BDまでの距離である。
In the same figure, θ8 indicates that the driving direction of the unmanned vehicle 9 is the area boundary B.
DS is the angle formed with D, and DS is the distance from the rotation center OI to the area boundary BD.

従って無人車9の回転中心点01から領域境界BD方向
の距離の最大値DSMAXは、DSMAX=MRFXs
in(θ8+θ、)・−(1,1)と表される。式(1
,1)から知れるように、DSMAXはθ、+09=4
5’まタハ135 °の時最大値MRFとなる。さらに
、第8図は本発明の要部である無人車9が領域境界BD
付近を走行する場合の走行経路作成において経路の有効
性を判別する方法を説明する構図式である。
Therefore, the maximum value DSMAX of the distance from the rotation center point 01 of the unmanned vehicle 9 in the direction of the area boundary BD is DSMAX=MRFXs
It is expressed as in(θ8+θ,)·−(1,1). Formula (1
, 1), DSMAX is θ, +09=4
The maximum value MRF is reached when the angle is 5' or 135 degrees. Furthermore, FIG. 8 shows that the unmanned vehicle 9, which is the main part of the present invention, is connected to the area boundary BD.
This is a composition formula explaining a method for determining the effectiveness of a route when creating a driving route when driving nearby.

同図は、ノードP、までが既に決定されている時に、次
のノードP、。1を設定する場合を示している。ノード
P、から目標地点(不図示)への方向には障害物OS 
 (図中斜線領域)があり、障害物D4の頂点を中心と
して半径YRの円C4を設定する。そして、ノードPi
11から円C4に接線を引き、さらにその接線と円C4
の接点から接線をXRRの距離だけ延長した点をノード
P、、、と仮定する。この時、円C4の半径をYRと設
定したのは経路R2を無人車9が障害物D4に妨害され
ずにノードP telまで走行するための最短経路とす
るためである。また、ノードPi+1の位置を、円C4
の接点からXRRの距離に設定したのは、ノードP、。
In the figure, when the nodes up to P have already been determined, the next node P, is determined. The case where 1 is set is shown. There is an obstacle OS in the direction from node P to the target point (not shown).
(shaded area in the figure), and a circle C4 with a radius YR is set around the apex of the obstacle D4. And node Pi
Draw a tangent from 11 to circle C4, and then draw a tangent to circle C4
Assume that the point obtained by extending the tangent from the contact point by a distance of XRR is a node P, . At this time, the radius of the circle C4 is set to YR in order to make the route R2 the shortest route for the unmanned vehicle 9 to travel to the node P tel without being obstructed by the obstacle D4. Also, set the position of node Pi+1 to circle C4
The node P is set to the distance of XRR from the contact point of the node P.

1の位置で無人車9が方向転換のために、回転できるよ
うにするためである。第8図の例では、障害物D4の近
傍に壁E4があり領域境界BD4がある。
This is to enable the unmanned vehicle 9 to rotate at position 1 in order to change direction. In the example of FIG. 8, there is a wall E4 near the obstacle D4 and a region boundary BD4.

したがって、前述した第6図の方法により、領域境界B
D、に対し領域A1領域B1領域Cを設定する・領域A
、領域B、領領域を設定した結果、第8図の例ではノー
ドpt。1は領域B内にあると判別される。この時、も
しノードP1+1が領域C内にあると判別された場合に
は、ノードP8.1は子ノードP19.の候補とする。
Therefore, by the method shown in FIG. 6 described above, the area boundary B
Set area A1 area B1 area C for D.・Area A
, region B, and the region, in the example of FIG. 8, the node pt. 1 is determined to be within area B. At this time, if node P1+1 is determined to be within area C, node P8.1 will be transferred to child node P19. candidate.

何故ならば、無人車9の中心位置が領域C4内のノード
P8..の位置にあれば、DSMAXがMRFに等しい
場合でも領域境界B D a上に接触しないからである
。また、もしノードP、9.が領域A内にあると判別さ
れれば、無人車9は領域境界B D aに必ず接触して
しまうので子ノードの候補からは除外される。
This is because the center position of the unmanned vehicle 9 is at the node P8. in the area C4. .. This is because if it is at the position, it will not touch the area boundary B Da even if DSMAX is equal to MRF. Also, if node P, 9. If it is determined that the unmanned vehicle 9 is within the region A, the unmanned vehicle 9 will definitely come into contact with the region boundary B Da and will therefore be excluded from child node candidates.

第8図の例のようにノードP1..が領域B内にあると
判別された端金、式(1,1)によって算出したDSM
AXと、無人車9の回転中心から領域境界B D 4ま
での距離DSとの大小比較により、ノードp 、+、を
子ノードの候補とするかどうか決定する。すなわち、D
 S >DSMAXであれば無人車9は領域境界B D
 4に接触せず、ノードP1゜、の位置で回転り可能な
ので子ノードの候補とし、DS≦DSMAXであればノ
ードPi+1の位置に無人車が移動することは不可能な
ので子ノードの候補から除外する。
As in the example of FIG. 8, node P1. .. is determined to be within region B, DSM calculated by formula (1, 1)
By comparing AX with the distance DS from the center of rotation of the unmanned vehicle 9 to the area boundary BD 4, it is determined whether the node p, + is to be a candidate for a child node. That is, D
If S > DSMAX, the unmanned vehicle 9 is the area boundary B D
Since it is possible to rotate at the position of node P1° without contacting P4, it is selected as a child node candidate.If DS≦DSMAX, it is impossible for the unmanned vehicle to move to the position of node Pi+1, so it is excluded from child node candidates. do.

以上のような判別方法を用いて走行コースを作成する本
実施例の動作を第10図及び第11図のフローチャート
を参照しながら説明する。また説明をわかり易くするた
めに、第9図の具体例を取り上げて説明する。
The operation of this embodiment for creating a driving course using the above-described discrimination method will be explained with reference to the flowcharts of FIGS. 10 and 11. Further, in order to make the explanation easier to understand, the specific example shown in FIG. 9 will be explained.

第9図は、作業室R内で作業する無人車9が出発点!1
から目標点G、まで走行する場合の経路を決定する例を
示す図であり、作業室Rは、四方を壁面E(以後、領域
境界Eと記す)により囲まれており、作業室R内には障
害物d6、d、、a、a  (不図示)があり、各障害
物d6、d、、dllにより障害物領域Db、、D1、
Dllが存在する。
In Figure 9, the unmanned vehicle 9 working in the work room R is the starting point! 1
This is a diagram showing an example of determining a route when traveling from to a target point G. The work room R is surrounded on all sides by walls E (hereinafter referred to as area boundaries E). has obstacles d6, d, , a, a (not shown), and each obstacle d6, d, , dll creates an obstacle area Db, , D1,
Dll exists.

まず第10図のフローチャートにより全体的な動作を説
明すると、最初に出発点11から目標点G、までに直線
を引く処理STIを行い、その直線上に障害物があるか
どうかすなわち、その直線上を無人車9が通行可能であ
るかどうか判別する処理ST2を行う。この判別処理S
T2で障害物領域D7により前記直線上を無人車9は通
行不可能であると判別され、次に、各障害物に接して通
行可能な直線経路の全てのノードを設定する処理ST3
を行う。第9図の具体例では、各障害物領域D6、Dl
、Dllに対して、ノードj、に、A’。
First, to explain the overall operation using the flowchart in FIG. 10, first, a process STI is performed to draw a straight line from the starting point 11 to the target point G. A process ST2 is performed to determine whether or not the unmanned vehicle 9 can pass through. This discrimination process S
At T2, it is determined that the unmanned vehicle 9 cannot pass on the straight line due to the obstacle area D7, and then a process ST3 of setting all nodes of a straight line route that can be passed in contact with each obstacle.
I do. In the specific example of FIG. 9, each obstacle area D6, Dl
, Dll, to node j, A'.

mが設定される。m is set.

次に、出発点からそのノードまでの距離とそのノードか
ら目標点までの直線距離の合計が最小となるノードを選
択する処理ST4を行う。この処理ST4により、ノー
ドlが選択される。
Next, a process ST4 is performed to select a node for which the sum of the distance from the starting point to that node and the straight-line distance from that node to the target point is the minimum. Through this process ST4, node l is selected.

ノードを選択した後、選択したノードから目標点までに
直線を引く処理ST5を行い、次にその直線経路上に障
害物が無いかすなわち無人車9が前記直線経路上を通行
可能であるかどうかの判別処理ST6を行う。
After selecting a node, a process ST5 is performed to draw a straight line from the selected node to the target point, and then it is checked whether there are any obstacles on the straight line route, that is, whether the unmanned vehicle 9 can pass on the straight line route. A determination process ST6 is performed.

この処理ST5、Sr6により、無人車9は障害物領域
り、により前記直線経路上に通行不可能であると判別さ
れ、再び処理ST3〜ST6を繰返す。前述したような
処理ST3、Sr1によりノードz+1が選択される。
Through these processes ST5 and Sr6, it is determined that the unmanned vehicle 9 is in an obstacle area and cannot pass on the straight route, and the processes ST3 to ST6 are repeated again. Node z+1 is selected by the processes ST3 and Sr1 as described above.

そして処理ST5でノードx+1から目標点G1まで直
線を引き、判別処理ST6でノードz+1から目標点G
1まで引いた卓線経路内に障害物が無いか、すなわちそ
の直線経路を無人車9が通行可能であるかどうか判別し
、この場合通行可能なので処理ST7に進み出発点から
目標点までの最短経路すなわち、!1−!−l+1−G
Iの走行経路が決定される。
Then, in process ST5, a straight line is drawn from node x+1 to target point G1, and in determination process ST6, a straight line is drawn from node z+1 to target point G.
It is determined whether there are any obstacles in the table line route drawn up to 1, that is, whether the unmanned vehicle 9 can pass through the straight route. In this case, since it is passable, proceed to process ST7 and find the shortest path from the starting point to the target point. Route ie! 1-! -l+1-G
The travel route of I is determined.

一方、前記処理ST2で出発点から目標点までの直線経
路を無人車9が通行可能であると判別されば、処理ST
7により出発点■1から目標点G。
On the other hand, if it is determined in the process ST2 that the unmanned vehicle 9 can travel on the straight path from the starting point to the target point, the process ST2
7 from the starting point ■1 to the target point G.

までの直線経路が最短経路すなわち無人車9の目標点ま
での走行経路であると決定される。
It is determined that the straight line route up to the point is the shortest route, that is, the travel route of the unmanned vehicle 9 to the target point.

以上のような処理STI〜ST7により第9図に示す例
よりも複雑な経路についても、走行経路を求めることが
できる。
Through the processes STI to ST7 as described above, it is possible to obtain a travel route even for a route more complicated than the example shown in FIG. 9.

次に、前記処理ST3のさらに詳細な処理動作を第11
図のフローチャートにより説明する。また、併せて第8
図、第9図も参照し、ノードP。
Next, the more detailed processing operation of the processing ST3 will be explained in the eleventh step.
This will be explained using the flowchart shown in the figure. In addition, the 8th
See also FIG. 9, node P.

の子ノードを求める場合を例にとって説明する。The following is an example of finding the child nodes of .

同図において、まず障害物の中から1つの障害物を選択
しその障害物の外端を中心とする半径YRの円を設定す
る処理5TIOを行う(第8図参照)。第9図の例では
、障害物d、 、d、 、d。
In the figure, first, one obstacle is selected from among the obstacles, and a process 5TIO is performed in which a circle with a radius YR centered at the outer end of the obstacle is set (see FIG. 8). In the example of FIG. 9, the obstacles d, , d, , d.

の中から一つの障害物が選択され、半径YRの円である
障害物領域り4、D7、Dllが設定される。
One obstacle is selected from among them, and obstacle areas 4, D7, and Dll, which are circles with radius YR, are set.

この場合、まず障害物d6が選択され、障害物領域D6
が設定される。次に親ノードから円に接線を引き、その
接線を円の接点からXRRだけ延長した位置を子ノード
の候補と設定する処理5T11を行う(第8図参照)。
In this case, the obstacle d6 is selected first, and the obstacle area D6
is set. Next, a process 5T11 is performed in which a tangent line is drawn from the parent node to the circle, and the position where the tangent line is extended by XRR from the tangent point of the circle is set as a child node candidate (see FIG. 8).

この処理5T11により子ノードの候補jが設定される
。次に、前記接線が他の障害物と交わるかどうかの判別
処理5712を行い、交われば前記子ノードの候補は子
ノードでないものとみなす(ST18)。一方、交わら
なければ子ノードの候補の近くに領域境界があるかどう
か判別しく5T13)、iffff異境界ければその子
ノードの候補を真の子ノードとする(STI8)。
Through this process 5T11, child node candidate j is set. Next, a determination process 5712 is performed to determine whether or not the tangent line intersects with another obstacle, and if the tangent line intersects with another obstacle, the child node candidate is considered not to be a child node (ST18). On the other hand, if they do not intersect, it is determined whether there is an area boundary near the child node candidate (5T13), and if iffff is a different boundary, the child node candidate is determined to be the true child node (STI8).

一方、判別処理5T13で領域境界があると判別すると
、子ノードの候補が領域C内にあるかすなわち、領域境
界から距離MRFより離れているかどうか判別しく5T
14)、領域C内にあればその子ノードの候補を真の子
ノードとする(ST18)。また、判別処理5T15で
領域C内と判別すると、次に領域A内にあるかすなわち
領域境界から距離YRの範囲内にあるかどうか判別しく
5T15)、領域A内になければ、すなわち領域B内に
あればさらに、その子ノードの候補から領域境界までの
距離DSとMRF・sin  (θ9+θ8)の値を算
出した後、それらの大小比較を行い、DS>MRF−s
in(θ9+θ、、)であると判別すれば(ST16)
、処理5TIIで設定した子ノードの候補を真の子ノー
ドする。一方、判別処理5T16でDS≦MRF−si
n(θ9+θ、)と判別すれば、その子ノードの候補は
子ノードでないものとみなす。以上のような、判別処理
5T12〜5T16により子ノードの候補jが真の子ノ
ードであるかどうかの判別が行われ、例えば、子ノード
の候補jは真の子ノードではないと判別される。
On the other hand, if it is determined in the determination process 5T13 that there is an area boundary, it is difficult to determine whether the child node candidate is within the area C, that is, whether it is farther from the area boundary than the distance MRF.
14) If it is within area C, the child node candidate is set as the true child node (ST18). In addition, if it is determined that the area is within area C in the determination process 5T15, then it is determined whether the area is within area A, that is, within the range of distance YR from the area boundary (5T15), and if it is not within area A, that is, within area B. , then calculate the distance DS from the child node candidate to the area boundary and the values of MRF・sin (θ9+θ8), compare their sizes, and find that DS>MRF−s
If it is determined that in(θ9+θ,,), (ST16)
, the child node candidate set in process 5TII is made a true child node. On the other hand, in the discrimination process 5T16, DS≦MRF-si
If it is determined that n(θ9+θ,), the child node candidate is considered not to be a child node. Through the above-described determination processes 5T12 to 5T16, it is determined whether the child node candidate j is a true child node. For example, it is determined that the child node candidate j is not a true child node.

次に、全ての障害物に対して子ノードの設定が終了した
かどうか判別しく5T19)、終了していなけれは前記
処理5TIO−3TL9を繰り返し行う。この場合、障
害物d、 、d、についてまだ子ノードの設定が終了し
ていないので、処理5TIOで障害物d、を選択し、前
述した処理5T10−3TI8を障害物d7に対して行
う。その結果処理5TIIで、子ノードの候補に、  
I!が設定され判別処理5T12〜5T16により子ノ
ードの候補に、Nが真の子ノードであるかどうかの判別
が行われる。次に、障害物d、に対しても処理5TIO
〜5T18が行われ子ノードの候補mが真の子ノードで
あるかの判別が行われる。そして、判別処理5T19に
より、全ての障害物について子ノードの設定が終了した
と判別される。
Next, it is determined whether the setting of child nodes has been completed for all obstacles (5T19), and if it has not been completed, the above-mentioned processes 5TIO-3TL9 are repeated. In this case, since child node settings for obstacles d, , d have not yet been completed, obstacle d is selected in process 5TIO, and the aforementioned processes 5T10-3TI8 are performed for obstacle d7. As a result, in processing 5TII, the child node candidates are
I! is set, and determination processes 5T12 to 5T16 determine whether N is a true child node candidate for the child node. Next, process 5TIO for obstacle d.
-5T18 is performed to determine whether child node candidate m is a true child node. Then, in the determination process 5T19, it is determined that child node settings for all obstacles have been completed.

尚、処理5T16において、DS及びθ8はRAM内に
記4なされている領域境界の位置データを基に算出する
In addition, in process 5T16, DS and θ8 are calculated based on the position data of the area boundary written in the RAM.

以上のような処理によって、スタート点から目標物まで
のコース(すなわち軌道)が決定される。
Through the above-described processing, a course (that is, a trajectory) from the starting point to the target object is determined.

前述の方式は、回転と直線走行を考慮したコース決定方
法であるが、この他にも最短走行距離や最短走行時間の
コースを求めることも可能である。
The above-mentioned method is a course determining method that takes rotation and straight-line travel into consideration, but it is also possible to determine a course with the shortest travel distance or shortest travel time.

例えば、障害物を回避するコースの全てを求め(複数ノ
ードがある場合にはそのコースの全てを求める)、そし
てそのコース中から走行距離が最小となるコースを決定
する。また、回転等に多くの時間を有する場合には、直
線走行の時間と回転に要する時間との和を求め、その最
小値を得るコースを最短走行時間のコースと決定する。
For example, all the courses that avoid obstacles are found (if there are multiple nodes, all the courses are found), and then the course with the minimum travel distance is determined from among the courses. If the vehicle takes a long time to rotate, etc., the sum of the time required for straight-line travel and the time required for rotation is determined, and the course that provides the minimum value is determined as the course with the shortest travel time.

統括コン]・ローラlOによって前述のような走行コー
ス決定がなされた後は統括コントローラIOはその決定
した走行コースのデータを無軌道走行ユニット13に送
出する。無軌道走行ユニット13はGLVコントローラ
13−1を有し、無IJL 道走行ユニット13はこの
GL’Vコントローラ13−1の制御によって動作する
After the above-mentioned travel course is determined by the controller IO, the controller IO sends the data of the determined travel course to the trackless travel unit 13. The trackless traveling unit 13 has a GLV controller 13-1, and the IJL road traveling unit 13 operates under the control of this GL'V controller 13-1.

GLVコントローラ13−1は統括コントローラlOと
同様の構成であり、プロセッサ13−3−5、シリアル
入出力(SIO)13−3−Lパラレル入出力(PIO
)13−3−2〜13−3−4より成り、これらは同様
に図示しないバスによって接続されている。プロセッサ
13−3−5は内部にマイクロプロセッサユニットMP
U、無軌道走行ユニット13を構成する各装置の制御プ
ログラムを記憶するリードオンリメモリ (ROM)、
各種の処理時にデータを記憶するランダムアクセスメモ
リ(RAM)等を有し、これらのMPU、ROM、RA
M、31013−3−1、P 1013−3−2〜13
−3−4はハスラインによって直通して接続されている
。前述の統括コントローラIOがGLVコントローラ1
3−1に加わると、5IO13−3−1を介してプロセ
ッサ13−3−5に取込まれ、その走行コースデータに
対応した走行の制御をプロセッサ13−3−5が行う。
The GLV controller 13-1 has the same configuration as the general controller IO, and includes a processor 13-3-5, a serial input/output (SIO) 13-3-L parallel input/output (PIO)
) 13-3-2 to 13-3-4, which are similarly connected by a bus (not shown). The processor 13-3-5 has a microprocessor unit MP inside.
U, a read-only memory (ROM) that stores control programs for each device constituting the trackless traveling unit 13;
It has random access memory (RAM) etc. that stores data during various processing, and these MPU, ROM, RA
M, 31013-3-1, P 1013-3-2 to 13
-3-4 are directly connected by a lotus line. The aforementioned general controller IO is GLV controller 1
3-1, the data is taken into the processor 13-3-5 via the 5IO 13-3-1, and the processor 13-3-5 controls the travel corresponding to the travel course data.

まず、無軌道走行ユニット13を第1番目のノードに対
して必要な走行の方向と距離分駆動する制御を行う。無
軌道走行ユニット13はPIO13−3−2を介してD
/Aコンバータ13−2にモータのドライブデータを出
力する。
First, control is performed to drive the trackless traveling unit 13 toward the first node in the necessary travel direction and distance. The trackless traveling unit 13 connects to D via PIO13-3-2.
Outputs motor drive data to the /A converter 13-2.

このドライブデータはデジタル信号であり、D/Aコン
バータ13−2によってアナログ信号に変換され、さら
にアナログスイッチ13−3を介してドライブコントロ
ーラ13−4に加わる。ドライブコントローラ13−4
はモータ(L)13−13、モータ(R)13−14を
駆動する回路である。このモータ13−13.13−1
4にはそれぞれ(図示しない)車輪が機械的に接続され
ておリモータの回転により車輪が回転する。本発明の実
施例においては左右に設けた車輪を同方向に回転させた
場合、無軌道走行ユニット13は前進や後退を行い、左
右の車輪をそれぞれ逆方向に回転させた場合無軌道走行
ユニット13は回転を行う。尚、この回転における中心
軸は前述の走行コース作成時に求められた走行ユニット
の重心位置である。
This drive data is a digital signal, which is converted into an analog signal by the D/A converter 13-2, and further applied to the drive controller 13-4 via the analog switch 13-3. Drive controller 13-4
is a circuit that drives the motor (L) 13-13 and the motor (R) 13-14. This motor 13-13.13-1
4 are mechanically connected to wheels (not shown), and the wheels are rotated by rotation of the remoter. In the embodiment of the present invention, when the left and right wheels are rotated in the same direction, the trackless traveling unit 13 moves forward or backward, and when the left and right wheels are rotated in opposite directions, the trackless traveling unit 13 rotates. I do. Incidentally, the central axis of this rotation is the center of gravity position of the traveling unit determined at the time of creating the aforementioned traveling course.

D/Aコンバータ13−2は左右の車輪を回転させるた
めの2個のアナログ信号を発生するように2チャンネル
分設けられている。すなわちD/Aコンバータ13−2
には古川と入用の車輪を回転すべき制御データが独立し
て加わって、それぞれ独立したアナログ信号を出力する
The D/A converter 13-2 is provided with two channels so as to generate two analog signals for rotating the left and right wheels. That is, the D/A converter 13-2
Control data for rotating the wheels of Furukawa and Yoko are independently added to each, and each outputs an independent analog signal.

本発明の実施例においてはジョイスティック13−5の
操作によっても本体装置を移動させることができる様に
ジョイスティック13−5の操作の情報を演算回路13
−6に加え、その情報からモータを制御するアナログ信
号をドライブコントローラ13−4に入力する。D/A
コンバーク13−2の出力を選択するか演算回路13−
6の出力を選択するかを制御する信号はPIO13−3
−2から出力されており、アナログスイッチ13−3に
正の制御信号が加わった時にはD/Aコンバータの出力
を選択してドライブコントローラ13−4に出力し、イ
ンバータ13−7を介して負出力がインバートされてア
ナログスイッチ13−8に正信号として加わった時には
演算回路13−6から出力されたアナログ制御信号はア
ナログスイッチ13−8を介してドライブコントローラ
13−4に加わる。尚自動による移動があるいはジョイ
スティックによる操作による移動かの選択信号はプロセ
ッサPIO13−3−2がら出力されこれは無軌道走行
ユニット13が有する自動/手動切換スイッチ13−9
のオン・オフ状態で切換えられる。自動/手動切換スイ
ッチ13−9のオン・オフ信号がPIO13−3−4を
介してプロセッサl 3−3−5に加わることにより、
この制御信号が目的のアナログスイッチ13−3.13
−8をオン、オフする・。また本発明の実施例において
は走行スタート、ストップ、さらにはブレーキ等も手動
で行えるようになっており、これはスタートスイッチ1
3−10、ストップスイッチ13−11.ブレーキスイ
ッチ13−12のオン・オフ状態がPIO13−3−4
を介してプロセッサ13−3−5に加わることによって
なされる。またドライブコントローラ13−4は駆動開
始を制御する制御端子を有しており、GLVコントロー
ラ13−1からの出力(P 1013−3−2を介して
)と、演算回路13−6と、ブレーキ13−20の駆動
信号がインバータ13−21を介して反転した信号とが
オアゲート13−22を介して制御端子に加えられてお
り、ブレーキをかけた時に駆動の停止をして目的位置に
到達した時のドライブを停止している。
In the embodiment of the present invention, information on the operation of the joystick 13-5 is sent to the arithmetic circuit 13 so that the main unit can also be moved by operating the joystick 13-5.
-6, and from that information, an analog signal for controlling the motor is input to the drive controller 13-4. D/A
Select the output of converter 13-2 or arithmetic circuit 13-
The signal that controls whether to select the output of PIO13-3
-2, and when a positive control signal is applied to the analog switch 13-3, the output of the D/A converter is selected and output to the drive controller 13-4, and a negative output is output via the inverter 13-7. When the signal is inverted and applied as a positive signal to the analog switch 13-8, the analog control signal output from the arithmetic circuit 13-6 is applied to the drive controller 13-4 via the analog switch 13-8. The selection signal for automatic movement or movement by joystick operation is output from the processor PIO 13-3-2, and this is the automatic/manual changeover switch 13-9 of the trackless traveling unit 13.
It can be switched in the on/off state. By applying the on/off signal of the automatic/manual changeover switch 13-9 to the processor 13-3-5 via the PIO 13-3-4,
Analog switch 13-3.13 whose purpose is this control signal
Turn -8 on and off. Furthermore, in the embodiment of the present invention, starting, stopping, and even braking can be performed manually, and this is done by pressing the start switch 1.
3-10, stop switch 13-11. The on/off state of the brake switch 13-12 is PIO13-3-4
This is done by joining the processor 13-3-5 through the processor 13-3-5. The drive controller 13-4 also has a control terminal for controlling the start of driving, and receives the output from the GLV controller 13-1 (via P 1013-3-2), the arithmetic circuit 13-6, and the brake 13. A signal obtained by inverting the drive signal of -20 via an inverter 13-21 is applied to the control terminal via an OR gate 13-22, and when the brake is applied, the drive is stopped and the target position is reached. drive is stopped.

前述した動作によってモータ13−13.13−14が
回転するかドライブコントローラ13−14には車輪と
同様にモータ13−13.13−14と機械的に接続し
たタコジェネ(L)13−15、タコジェネ(R)13
−16の出力が加わる。このタコジェネ13−15.1
3−16の出力は回転に比例したアナログ信号であり、
ドライブコントローラ13−4は車輪を定速回転させる
ようにすなわちタコジェネ13−15.13−16の出
力が一定となるようにモータ13−13.13−14を
制御する。この制御によって車輪は目的とする回転数で
回転し、その結果として走行ユニット13を一定速度で
移動させる。
The drive controller 13-14 has a tachogenerator (L) 13-15 and a tachogenerator mechanically connected to the motor 13-13, 13-14 in the same way as the wheels. (R)13
-16 output is added. This tachogen 13-15.1
The output of 3-16 is an analog signal proportional to the rotation,
The drive controller 13-4 controls the motors 13-13, 13-14 to rotate the wheels at a constant speed, that is, to keep the output of the tachogenerators 13-15, 13-16 constant. Through this control, the wheels are rotated at a target rotational speed, and as a result, the traveling unit 13 is moved at a constant speed.

−a的に車輪はたとえば床との間でスリップすることが
あり、このスリップによって移動誤差が増大する。この
移動誤差を少なくするため、本発明の実施例においては
移動量を計測するための2個のエンコーダ(計測輪(L
)エンコーダ13−17、計測輪(R)エンコーダ13
−18)を有している。このエンコーダ13−17.1
3−18は例えば左右の車輪の近傍に設けられた計測輪
に機械的に接続しており、計測輪の回転を求める。エン
コーダI 3−17.13−18は特定の回転角度で1
個のパルスを出力するとともにその回転方向をも表す信
号を出力する。このパルスとO転方向の信号はカウンタ
13−19に加わり、各エンコーダから出力されるパル
スの数をカウントする。尚、カウンタ13−19はアッ
プダウンカウンタであり、回転方向の信号はこのアップ
ダウンカウンタのアップダウン制御端子に加わっており
、例えば逆回転時にはダウンカウントし、正回転の時に
アップカウントするので、このカウント値で精度よく各
車輪の回転による走行距離が求められる。このカウンタ
13−19の出力はPIOf 3−3−3を介してプロ
セッサ13−3−5に加わり、プロセッサ13−3−5
はこの値がら本体の走行距離や、回転における現在の方
向を求める。
-a For example, the wheels may slip between themselves and the floor, and this slip increases movement errors. In order to reduce this movement error, in the embodiment of the present invention, two encoders (measurement wheel (L)) are used to measure the amount of movement.
) encoder 13-17, measuring wheel (R) encoder 13
-18). This encoder 13-17.1
3-18 is mechanically connected to a measuring wheel provided near the left and right wheels, for example, and determines the rotation of the measuring wheel. Encoder I 3-17.13-18 is 1 at a certain rotation angle
In addition to outputting pulses, it also outputs a signal representing the direction of rotation. This pulse and the O-turn direction signal are applied to a counter 13-19, which counts the number of pulses output from each encoder. Note that the counters 13-19 are up/down counters, and the rotational direction signal is applied to the up/down control terminal of this up/down counter. The distance traveled by each wheel rotation can be determined with high accuracy using the count value. The output of this counter 13-19 is applied to the processor 13-3-5 via PIOf 3-3-3.
calculates the distance traveled by the main body and the current direction of rotation from this value.

前述した動作によって、統括コントローラ10から加わ
った走行コースに従った移動を行う無軌道走行ユニット
13は移動量等を計測するため計測輪を有し、この計測
輪で高精度の移動データを得ているが、遠距離移動した
場合には誤差が大となる。このため、特定の移動を行っ
た後、例えば目的の位置に達した時に再度前述の画像処
理ユニット12からの目標物の認識を行い、その走行誤
差における補正を行う。
The trackless traveling unit 13, which moves according to the traveling course added from the general controller 10 by the above-mentioned operation, has a measuring wheel to measure the amount of travel, etc., and obtains highly accurate movement data with this measuring wheel. However, the error becomes large when moving over a long distance. For this reason, after performing a specific movement, for example, when the target position is reached, the target object from the image processing unit 12 is recognized again, and the traveling error is corrected.

前述の走行においてはあくまでも本体装置の重心位置(
回転中心)の移動量で計算を行っているが、マニピュレ
ータ14−2で目標物を持ち上げる時には、マニピュレ
ータ14−2の位置を中心軸として計算を行う。すなわ
ちマニピュレータ14−2が移動できる範囲は限定され
ているので、走行誤差による位置ずれ等で目標物がマニ
ピュレータの可動範囲外にある時は無軌道走行による位
置修正によりマニピュレータ14−2の中心軸を移動さ
せるように本体を制御する。この制御によって、例えば
走行の誤差が発生していても、マニピュレータ14−2
の移動で目標物を持ち上げることができる。
In the above-mentioned driving, the position of the center of gravity of the main unit (
However, when lifting a target object with the manipulator 14-2, the calculation is performed using the position of the manipulator 14-2 as the central axis. In other words, since the range in which the manipulator 14-2 can move is limited, if the target object is outside the movable range of the manipulator due to positional deviation due to a traveling error, etc., the center axis of the manipulator 14-2 can be moved by correcting the position by running without track. control the main body to With this control, even if a running error occurs, the manipulator 14-2
The target can be lifted by moving.

マニピュレータユニット14は統括コントローラ10と
5IOIO−2を介して接続している。
The manipulator unit 14 is connected to the general controller 10 via 5IOIO-2.

前述において、本体が目標物の所まで移動した時には、
実際には目標物でも障害物の場合と同様に目標物に当た
らないように直前で停止する。この停止した時に統括コ
ントローラ10から5IOIO−2を介して持ち上げ制
御信号が加わるともに、マニピュレータ14−2の移動
を制御する信号が加わり、マニピュレータ14−2を駆
動する。
In the above, when the main body moves to the target,
In reality, the vehicle will stop just before a target to avoid hitting it, just like in the case of an obstacle. When this stops, a lifting control signal is applied from the general controller 10 via 5IOIO-2, and a signal for controlling the movement of the manipulator 14-2 is also applied to drive the manipulator 14-2.

マニピュレータユニット14はマニピュコントローラ1
4−1とマニピュレータ14−2、把持センサ14−3
より成っている。マニピュコントローラ14−1には前
述の5IOIO−2を介してプロセッサ10−1より出
力された信号が加わっており、この制御信号によってマ
ニビュレータ14−2を駆動する。そして、この制御に
よってマニピュレータ14−2が動作し、目標物を持ち
上げる。マニピュレータユニット14の把持センサ14
−3は目標物を持ち上げたか否かを検出するセンサであ
り、持ち上げた時には目標物を検出したとしてPI’0
10−7を介してプロセッサ10−1に出力する。位置
の誤差によって目標物を持ち上げられなかった時にはマ
ニピュレータ14−2を持ち上げる制御信号を加えた時
にもかかわらず把持センサ14−3から検出信号が加わ
らないので、プロセッサ10−1は再度目標物の位置を
求め、すなわち、位置の補正を行って再度持ち上げの制
御を行う。
The manipulator unit 14 is the manipulator controller 1
4-1, manipulator 14-2, and grip sensor 14-3
It consists of A signal output from the processor 10-1 is applied to the manipulator controller 14-1 via the aforementioned 5IOIO-2, and the manipulator 14-2 is driven by this control signal. This control causes the manipulator 14-2 to operate and lift the target object. Grip sensor 14 of manipulator unit 14
-3 is a sensor that detects whether or not the target object has been lifted; when the target object has been lifted, it is assumed that the target object has been detected;
It outputs to processor 10-1 via 10-7. When the target object cannot be lifted due to a positional error, no detection signal is applied from the gripping sensor 14-3 even though a control signal for lifting the manipulator 14-2 is applied, so the processor 10-1 determines the position of the target object again. In other words, the position is corrected and the lifting is controlled again.

以上の動作で、スタート位置から、走行した本体が目標
物まで到達し、目標物を持ち上げることができる。この
後は、例えば目標物を移動すべき位置を求め、前述した
走行コース作成と移動の制御によって目的の位置に目標
物を移動させることができる。
With the above operations, the main body that has traveled from the starting position can reach the target object and lift the target object. After this, for example, the position to which the target object should be moved is determined, and the target object can be moved to the desired position by creating the travel course and controlling the movement described above.

本発明の実施例においては、前述した装置の他に第3図
(blに示すように、音声入カニニット15を有してい
る。このユニット15のR5−232C受信機15−1
は本体に設けられ、マイク15−2、音声認識装置15
−3、R3−232C送信機15−6は例えば操作者等
の近傍に設けられている。そして、操作者の声を記録し
、各色のボールの指示や目標物の前後関係等、前述した
スイッチユニット11の操作指示と回線の入力さらには
目標物を移動させる目的の位置等のデータを加えること
ができる。尚、この音声人カニニット15からのデータ
が有効となるのは、音声E/Dスイッチ11−3をオン
とした時である。
In the embodiment of the present invention, in addition to the above-mentioned devices, as shown in FIG.
are provided on the main body, including a microphone 15-2 and a voice recognition device 15.
-3, R3-232C transmitter 15-6 is provided, for example, near an operator or the like. Then, the operator's voice is recorded, and data such as instructions for each color of balls, the front and back of the target, input of the aforementioned switch unit 11 operation instructions and line, and the desired position to move the target are added. be able to. It should be noted that the data from the audio person crab unit 15 becomes valid when the audio E/D switch 11-3 is turned on.

以上の動作によって本発明の実施例においては無軌道無
人車の走行を目標物や目的の位置まで行うことができる
Through the above-described operations, in the embodiment of the present invention, the trackless unmanned vehicle can travel to the target object or target position.

次に、本発明の動作をより具体的に説明する。Next, the operation of the present invention will be explained in more detail.

第4図は本発明の実施例における統括コントローラ10
とGLVコントローラ13−1の動作フローチャートで
ある。例えば電源を投入した時に、統括コントローラ1
0とGLVコントローラ13−1が処理動作を開始する
FIG. 4 shows a general controller 10 in an embodiment of the present invention.
and is an operation flowchart of the GLV controller 13-1. For example, when the power is turned on, the main controller 1
0 and the GLV controller 13-1 start processing operations.

先ず、各コントローラ1O113−1は初期設定処理S
CI、SNIを行う。そして、スタート信号入力(目標
物の色等の指示やGOスイッチのオン)SC2が加わる
と、目標位置認識処理SC3を行う。目標位置認識処理
SC3は統括コントローラ10の制御によって画像処理
ユニット12が行う。この画像処理ユニット12の目標
位置認識が終了すると、目標物の位置情報が統括コント
ローラlOに加わるので、次には走行コース作成処理S
C4を行い、走行コースを作成する。そしてその結果を
GLVコントローラ13−1に送出する処理SC5を行
い、走行終了受信処理SC6で終了データが受信される
ことを検出する。
First, each controller 1O113-1 performs initial setting processing S.
Perform CI and SNI. Then, when a start signal SC2 is input (indicating the color of the target object, turning on the GO switch, etc.), target position recognition processing SC3 is performed. The target position recognition process SC3 is performed by the image processing unit 12 under the control of the general controller 10. When the target position recognition by the image processing unit 12 is completed, the position information of the target object is added to the general controller 10, so next the driving course creation process S
Perform C4 and create a driving course. Then, a process SC5 is performed to send the result to the GLV controller 13-1, and reception of end data is detected in a travel end reception process SC6.

GLVコントローラは13−1は初期設定SN1の後、
走行コース受信処理SN2を行っており、前述の処理S
C5によって走行コースが送信された時にこのデータを
受信して無軌道走行処理SN、3を行う。無軌道走行ユ
ニット13はこの情報で目的の位置まで前述の走行動作
を行う。そして走行−動作が終了した時には走行終了信
号送出処理SN4を行い、統括コントローラ10に終了
信号を送出する。統括コントローラ10はこの時走行終
了受信処理SC6を行っており、GLVコントローラ1
3−1の終了信号の送出よって終了信号が受信でき、次
のボール(目標物)位置再認識処理SC7を行う。この
再認識処理SC7は統括コントローラ10の制御によっ
て画像ユニット12が行う。そして再認識処理SC7に
よって得られた結果から、現在位置においてマニピュレ
ータ14−2の可動範囲であるかの判別処理SC8を行
う。
GLV controller 13-1 is after initial setting SN1,
The driving course reception process SN2 is being performed, and the above-mentioned process S
When the driving course is transmitted by C5, this data is received and the trackless driving process SN,3 is performed. The trackless traveling unit 13 uses this information to perform the aforementioned traveling operation to the target position. When the running operation is completed, a running end signal sending process SN4 is performed, and an end signal is sent to the general controller 10. At this time, the general controller 10 is performing the travel end reception process SC6, and the GLV controller 1
The end signal can be received by sending the end signal in step 3-1, and the next ball (target object) position re-recognition process SC7 is performed. This re-recognition process SC7 is performed by the image unit 12 under the control of the general controller 10. Then, based on the result obtained by the re-recognition process SC7, a process SC8 is performed to determine whether the current position is within the movable range of the manipulator 14-2.

この判別においてマニピュレータ14−2の可動範囲で
ない時には、微動走行制御処理SC9を行う。この制御
信号はGLVコントローラ13−1に加わり、GLVコ
ントローラ13−1は微動走行処理SN5を行って、本
体装置を微動走行させる。統括コントローラ10が微動
走行処理SC9を終了すると再度ボール位置再認識処理
SC7から処理を繰返す。例えば複数回の前述の繰返し
によってマニピュレータ14−2の可動範囲内に入った
時(判別SC8がY)には、統括コントローラ10はマ
ニピュレータユニット14に対しハンドリング制御処理
5CIOを行い、マニピュレータ14−2は目標物、例
えばボールを把む動作を行う。そして、統括コントロー
ラ10はマニピュレータ14−2がボールを把んだか否
かの判別5C1lを行う。この判別は把持センサ14−
3からの検出信号が加わったか否かを統括コントローラ
10が判別することによってなされる。この判別におい
て、把んでいない時(N)には、位置が正確でないため
に生じたものであるとして、再度ボール位置認識処理S
C7から繰返す。この繰返しの時微動走行制御処理SC
9を実行した時には、GLVコントローラ13−1はそ
の処理に対応した微動走行処理SN5を行う。
In this determination, if it is not within the movable range of the manipulator 14-2, a fine movement travel control process SC9 is performed. This control signal is applied to the GLV controller 13-1, and the GLV controller 13-1 performs fine movement processing SN5 to cause the main unit to move slightly. When the general controller 10 finishes the fine movement process SC9, it repeats the process again from the ball position re-recognition process SC7. For example, when the manipulator 14-2 enters the movable range due to the above-mentioned repetition (determination SC8 is Y), the general controller 10 performs handling control processing 5CIO on the manipulator unit 14, and the manipulator 14-2 Perform an action to grasp a target object, such as a ball. Then, the general controller 10 performs a determination 5C1l as to whether or not the manipulator 14-2 has grasped the ball. This determination is made by the grip sensor 14-
This is done by the overall controller 10 determining whether or not the detection signal from 3 is added. In this determination, if the ball is not gripped (N), it is assumed that the ball position is not accurate, and the ball position recognition process S is performed again.
Repeat from C7. When this is repeated, fine movement control processing SC
When step 9 is executed, the GLV controller 13-1 performs a slight movement process SN5 corresponding to that process.

ボールを把んだ場合すなわち、判別5011において、
把んだと判断(Y)した時には、スタート点に帰るため
の処理を行う。
When the ball is grasped, that is, in determination 5011,
When it is determined that the object has been grasped (Y), processing for returning to the starting point is performed.

先ず、統括コントローラlOは画像処理ユニット12か
ら画像データ(帰り方向の画像)を入力し、帰りコース
の作成処理5c12を行う。なお、帰りにおいては目標
物まで到達した経路すなわち行きの軌道の逆を求めるこ
とによって帰りコースとすることも可能である。そして
、求めた帰りコースデータをGLVコントローラ13−
1に送出し、GLVコントローラ13−1は帰すコース
を受信SNGする。この受信が完了した後、GLVコン
トローラ13−1は無軌道走行処理SN7を行って、例
えば目標物に行くときと逆の軌道でスタート点に戻る。
First, the overall controller IO inputs image data (image of the return direction) from the image processing unit 12, and performs return course creation processing 5c12. In addition, on the way back, it is also possible to determine the return course by finding the route taken to reach the target, that is, the reverse of the going trajectory. Then, the obtained return course data is sent to the GLV controller 13-
1, and the GLV controller 13-1 receives and sends the return course to SNG. After this reception is completed, the GLV controller 13-1 performs trackless traveling processing SN7, and returns to the starting point, for example, on the opposite trajectory to the one used to reach the target.

そして戻った時には走行終了信号を送出SN8する。統
括コントローラ10はこの走行終了信号の受信5C13
で1回目のスタート信号入力SN2における目標物の指
示に対する処理を終了するため、GLVコントローラ1
3−1に動作終了信号を送信5C14して再度処理SC
2より実行する。尚、処理SC2は人力処理であり、オ
ペレータ等がスイッチユニット11 J?J音声人カニ
ニット15等からの入力がなされるまで、待機となる。
When the vehicle returns, it sends out a travel end signal SN8. The general controller 10 receives this travel end signal 5C13.
In order to complete the processing for the target object instruction at the first start signal input SN2, the GLV controller 1
Send the operation end signal to 3-1 5C14 and process again SC
Execute from step 2. Note that the process SC2 is a manual process, and an operator or the like operates the switch unit 11J? The system waits until an input is received from the J voice person crab unit 15 or the like.

一方c、 L Vコントローラ13−1も、統括コント
ローラ10からの動作終了信号を受信SN9すると、全
処理を終了し、再度走行コース受信処理SN2を行い、
統括コントローラ10からの走行コース受信待ちとなる
。そして、再度加わった時には前述した動作を繰返す。
On the other hand, when the c, LV controller 13-1 also receives the operation end signal from the general controller 10 (SN9), it completes all processing, performs the travel course reception processing SN2 again, and
The system waits for the driving course to be received from the general controller 10. Then, when it joins again, the above-described operation is repeated.

尚、本実施例では、無人車9の地上投影面の形状が長方
形なので、長方形近似により領域境界付近を通行可能で
あるどうか判別しているが、横断面近似の形状は長方形
に限定されることはない。
In this embodiment, since the shape of the ground projection plane of the unmanned vehicle 9 is rectangular, it is determined whether it is possible to pass near the area boundary by rectangular approximation, but the shape of the cross-sectional approximation is limited to a rectangle. There isn't.

また、本発明の無人車を走行装置とし、上部に他の形状
の装置を載せた場合には、装置内に地上投影面の各種図
形の形状データを記憶しておき、外部スイッチ等の操作
により本無人車の上部に載せた装置の形状にあった地上
投影面の形状を自由に指定できるようにすればより汎用
性が高まる。
In addition, when the unmanned vehicle of the present invention is used as a traveling device and a device of other shape is mounted on the top, the shape data of various shapes on the ground projection plane can be stored in the device, and the If it is possible to freely specify the shape of the ground projection surface that matches the shape of the device mounted on the top of this unmanned vehicle, versatility will be increased.

〔発明の効果〕〔Effect of the invention〕

以上詳細に説明したように本発明によれば、直線走行と
回転動作により移動する無人車が壁面等の領域境界の付
近を走行可能かどうかを精度よく判別できるので目的地
までの最短走行コースを従来の走行コース作成装置より
も正確に作成することが可能となる。
As explained in detail above, according to the present invention, it is possible to accurately determine whether an unmanned vehicle that moves in a straight line and through rotational motion can travel near area boundaries such as walls, so it can determine the shortest travel course to the destination. It is possible to create a driving course more accurately than conventional driving course creation devices.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の機能ブロック図、 第2図は、本発明を適用した無軌道無人車のシステム構
成図、 第3図(a)、(b)は、上記無軌道無人車の詳細なシ
ステム図、 第4図は、本発明の実施例の動作フローチャート、 第5図は、本実施例の無人車9の地上投影面の形状図、 第6図は、領域境界BD近傍に設定する、領域A、B、
Cを説明する図、 第7図は、無人車9が領域境界BD付近を走行する場合
の位置関係を示す図、 第8図は、本発明の領域境界BD付近の走行経路の判定
方法を説明する図、 第9図は、本発明の詳細な説明するための具体例を示す
図、 第10図は、本発明の全体的な動作を示すフローチャー
ト、 第11図は、本発明の要部の動作を示すフローチャート
、 第12図(a)、(b)及び第13図(al、(b)は
従来の走行コース作成装置の走行経路作成方法を説明す
る図である。 1・・・認識手段、 2・・・作成手段。 特許出願人  株式会社豊田自動織機製作所木定例へ筬
能フ゛ロック図 第1図 第2図 ! 44に哨の実勘例Jの!y乍フロチャート第 4 図 第 5 図 11PArcn 4i1LISr14t !* T m
第 7 図 仰戚s%界迫傍に事え定41領域 1tえ明す壱図 j6 IN n $−裕明の頒緘境界付近の定イテ経Jbのφ1定方i大
を言え明する図 第81×1 本発明の詳細な説明するための X414列を示す図 第9図 本発明の全体的な動作を示lフローチャート11+o図 経路作成方法を説明する図 応12図 牽蚤2各作成方タムを説明する図 (b) 第 121A
Figure 1 is a functional block diagram of the present invention. Figure 2 is a system configuration diagram of a trackless unmanned vehicle to which the present invention is applied. Figures 3 (a) and (b) are detailed systems of the trackless unmanned vehicle. 4 is an operation flowchart of the embodiment of the present invention, FIG. 5 is a shape diagram of the ground projection plane of the unmanned vehicle 9 of the present embodiment, and FIG. 6 is a region set near the region boundary BD. A, B,
FIG. 7 is a diagram illustrating the positional relationship when the unmanned vehicle 9 travels near the area boundary BD; FIG. 9 is a diagram showing a specific example for explaining the present invention in detail. FIG. 10 is a flowchart showing the overall operation of the present invention. FIG. 11 is a diagram showing the main parts of the present invention. A flowchart showing the operation, FIGS. 12(a), (b), and 13(al, (b)) are diagrams explaining the driving route creation method of the conventional driving course creation device. 1... Recognition means , 2... Creation means. Patent applicant Toyota Industries Corporation. Figure 11PArcn 4i1LISr14t !* T m
Figure 7 Figure 1 shows the 41 area 1t near the s% boundary. 81×1 Diagram showing X414 column for detailed explanation of the present invention FIG. 9 Diagram showing the overall operation of the present invention l Flowchart 11+o diagram Illustrated diagram explaining the route creation method 12 Diagram 2 Each creation method Tom Diagram explaining (b) No. 121A

Claims (1)

【特許請求の範囲】 1)無人車の走行コースを作成する走行コース作成装置
において、走行領域の境界の位置情報を得る認識手段と
、前記位置情報、無人車の回転時の最大半径及び直線走
行時の無人車の回転の中心を通る進行方向に平行な直線
から無人車の走行領域境界側の側面までの最大直線距離
を基に前記境界付近の走行経路を作成する作成手段とを
具備することを特徴とする走行コース作成装置。 2)前記無人車の走行面への投影図形は長方形で、前記
直線走行の進行方向は長方形の一辺に平行であり、前記
最大半径は前記無人車の回転中心から進行方向側かつ領
域境界側の前記長方形の頂点までの長さ、前記走行領域
境界側側面までの最大直線距離は前記無人車の回転中心
から前記進行方向に平行な前期走行領域境界側の前記長
方形の辺までの距離であることを特徴とする特許請求の
範囲第1項記載の走行コース作成装置。
[Scope of Claims] 1) A driving course creation device that creates a driving course for an unmanned vehicle, including recognition means for obtaining positional information of a boundary of a driving area, and recognition means for obtaining positional information of a boundary of a driving area, the positional information, a maximum radius of rotation of the unmanned vehicle, and straight-line driving. and creating means for creating a travel route near the boundary based on a maximum straight line distance from a straight line parallel to the traveling direction passing through the center of rotation of the unmanned vehicle to a side surface on the boundary side of the travel area of the unmanned vehicle. A driving course creation device featuring: 2) The projected figure of the unmanned vehicle on the running surface is a rectangle, the traveling direction of the straight-line traveling is parallel to one side of the rectangle, and the maximum radius is on the traveling direction side and the area boundary side from the rotation center of the unmanned vehicle. The length to the vertex of the rectangle and the maximum straight line distance to the side surface on the boundary side of the driving area are the distances from the center of rotation of the unmanned vehicle to the side of the rectangle on the boundary side of the former driving area parallel to the traveling direction. A driving course creation device according to claim 1, characterized in that:
JP62105395A 1987-04-28 1987-04-28 Running course creation device Expired - Lifetime JP2540855B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62105395A JP2540855B2 (en) 1987-04-28 1987-04-28 Running course creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62105395A JP2540855B2 (en) 1987-04-28 1987-04-28 Running course creation device

Publications (2)

Publication Number Publication Date
JPS63271509A true JPS63271509A (en) 1988-11-09
JP2540855B2 JP2540855B2 (en) 1996-10-09

Family

ID=14406447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62105395A Expired - Lifetime JP2540855B2 (en) 1987-04-28 1987-04-28 Running course creation device

Country Status (1)

Country Link
JP (1) JP2540855B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539294B1 (en) 1998-02-13 2003-03-25 Komatsu Ltd. Vehicle guidance system for avoiding obstacles stored in memory
CN113848872A (en) * 2020-06-28 2021-12-28 苏州科瓴精密机械科技有限公司 Automatic walking device, control method thereof and readable storage medium
WO2022009579A1 (en) * 2020-07-08 2022-01-13 ソニーグループ株式会社 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3869108B2 (en) * 1998-02-23 2007-01-17 株式会社小松製作所 Unmanned vehicle interference prediction apparatus and unmanned vehicle guided traveling method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539294B1 (en) 1998-02-13 2003-03-25 Komatsu Ltd. Vehicle guidance system for avoiding obstacles stored in memory
CN113848872A (en) * 2020-06-28 2021-12-28 苏州科瓴精密机械科技有限公司 Automatic walking device, control method thereof and readable storage medium
CN113848872B (en) * 2020-06-28 2024-03-15 苏州科瓴精密机械科技有限公司 Automatic walking device, control method thereof and readable storage medium
WO2022009579A1 (en) * 2020-07-08 2022-01-13 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2540855B2 (en) 1996-10-09

Similar Documents

Publication Publication Date Title
JPS63150711A (en) Control method for unmanned vehicle
JP3432784B2 (en) How to record track data and sensor data of a moving vehicle
JP4097667B2 (en) Robot cleaner and control method thereof
US20100076599A1 (en) Manually driven determination of a region of interest (roi) or a path of interest (poi) for a robotic device
JPH0529924B2 (en)
US11254003B1 (en) Enhanced robot path planning
JP2000056006A (en) Position recognizing device for mobile
JPS63271509A (en) Traveling course generating device
JPS63273915A (en) Driving course forming device
JPS63276610A (en) Running course generating device
JPS63251814A (en) Running course forming device
WO2016072186A1 (en) Location detecting device, control method, and autonomous vehicle
Poomarin et al. Automatic docking with obstacle avoidance of a differential wheel mobile robot
JP2712174B2 (en) Visual input device
JPS63273916A (en) Driving course forming device
JP2009093514A (en) Self-propelled apparatus and program
JP7460328B2 (en) Mobile robot, mobile robot control system, and mobile robot control method
JPS63251815A (en) Trackless unmanned vehicle
JPS63251868A (en) Target recognizing device
JP4168440B2 (en) Moving trolley
JPS59121406A (en) Controller of mobile robot
JPS63257076A (en) Image processing device
WO2018179659A1 (en) Map creation system
JP2712523B2 (en) Autonomous vehicles
TWI806429B (en) Modular control system and method for controlling automated guided vehicle