JP2819551B2 - Autonomous traveling vehicle control device - Google Patents

Autonomous traveling vehicle control device

Info

Publication number
JP2819551B2
JP2819551B2 JP62199957A JP19995787A JP2819551B2 JP 2819551 B2 JP2819551 B2 JP 2819551B2 JP 62199957 A JP62199957 A JP 62199957A JP 19995787 A JP19995787 A JP 19995787A JP 2819551 B2 JP2819551 B2 JP 2819551B2
Authority
JP
Japan
Prior art keywords
vehicle
traveling
information
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62199957A
Other languages
Japanese (ja)
Other versions
JPS6444512A (en
Inventor
彰 服部
千典 農宗
則政 岸
邦彦 倉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP62199957A priority Critical patent/JP2819551B2/en
Publication of JPS6444512A publication Critical patent/JPS6444512A/en
Application granted granted Critical
Publication of JP2819551B2 publication Critical patent/JP2819551B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、進行方向の画像情報から車両の操舵角およ
び走行量を演算し、この操舵角等に基づいて例えば道路
に沿って車両の走行動作を自律適に制御する自律走行車
両制御装置に関する。 (従来の技術) 従来、車両を無人操縦により道路等の走行路を障害物
を自動的に回避しながら目的地まで自律的に走行制御す
る自律走行車両制御装置が種々提案されている。 上記従来の自律走行車両制御装置は、当該車両の進行
方向を撮像するための撮像手段、例えばCCDカメラを1
乃至2台の車両の前方の中央若しくは左右に固定的に設
けてこのCCDカメラによって得られた撮像画像から走行
環境に関する情報、例えば道幅や曲率等の走行路の形状
および障害物の有無等の情報を得、さらにこれらの情報
から当該車両とセンターラン、路側帯、及び上記障害物
との位置関係や走行路の湾曲状態等を判断して、当該車
両の操舵量や走行量および走行速度等を自動的に制御す
るようにしていた。 (発明が解決しようとする問題点) 上述したように従来の自律走行車両制御装置にあって
は、撮像手段であるCCDカメラを進行方向に向けて固定
的に配設していた。そのため、前記撮像画像から得られ
る情報の精度を上げかつこれらの情報の演算処理量を削
減するために上記CCDカメラの視野角度を狭く設定した
場合には、湾曲路を走行する際に前記撮像画像内に上記
湾曲路全体を納めることができないため、当該車両の走
行速度を十分に減速して走行しなければならなかった。 また湾曲路全体を撮像するために前記CCDカメラと視
野角度を広く設定した場合には視野角度当りの情報量
(例えばCCDの画素数)が減少するため、走行路上に障
害物が存在する場合に、この障害物を検出して障害物で
あることを識別するまでには、視野角度の拡大によって
走行路全体に存在する障害物等の演算対象物の増加によ
る演算時間の増加と相まって、この障害物にかなり接近
してからでないと困難であるため、直線路であっても十
分な速度で走行することができない等の問題を招来する
ところとなった。 本発明は、上記に鑑みてなされたもので、その目的と
しては、湾曲路等における自律的な走行制御をより確実
にすることのできる自律走行車両制御装置を提供するこ
とにある。 [発明の構成] (問題点を解決するための手段) 上記問題点を達成するため、本発明は第1図に示すよ
うに、車両に搭載された撮像手段11を用いて、当該車両
の走行路に係る撮像画像を得て、この撮像画像に基づい
て上記車両の走行動作を自律的に制御する自律走行車両
制御装置1において、前記撮像手段11からの撮像画像に
基づいて走行路の形状を算出する走行路形状算出手段15
と、前記撮像手段11からの撮像画像に基づいて走行路と
自車両との相対位置を算出する相対位置算出手段17と、
この算出された走行路の形状と相対位置に基づいて車両
の姿勢角度を算出する姿勢角度算出手段19と、の算出さ
れた車両の姿勢角度に基づいて前記撮像手段11の撮像方
向を車両の進行方向から左右に所定の角度変更する撮像
方向制御手段13とを有して構成した。 (作用) 本発明における自律走行車両制御装置においては、撮
像手段からの撮像画像に基づいて走行路の形状を算出
し、次に、撮像手段からの撮像画像に基づいて走行路と
自車両との相対位置を算出し、さらに、算出された走行
路の形状と相対位置に基づいて車両の姿勢角度を算出
し、この車両の姿勢角度に基づいて撮像手段の撮像方向
を車両の進行方向から左右に所定の角度変更するので、
湾曲路においても、この湾曲した走行路を撮像画像とし
て湾曲に追随して自律的な走行制御を確実に行うことが
できる。 (実施例) 以下、図面を用いて本発明の実施例を説明する。 第2図は本発明の一実施例に係る自律走行車両制御装
置の全体構成を示すブロック図である。同図に示す自律
走行車両制御装置は、カメラやセンサ等で検知した進行
方向の道路状況を適宜判断しながら例えば設定された目
的地に向かって車両を無人で自律的に走行させるための
制御を行なう装置であって、車両の進行方向の画像を撮
像して画像処理する画像情報処理部100と、超音波セン
サ、レーザレーダ等により車両の進行方向や側方等の物
体、例えば先行車、ガードレール、障害物等を検知する
とともに、車輪速等も検知し処理する検知処理部200
と、車両を無人で走行させるために車両のステアリン
グ、アクセル、ブレーキ、ウインカ、カメラ等を作動さ
せるアクチュエータを有し、これらを制御するアクチュ
エータ制御部300と、目的地までの地図情報を記憶して
いる地図情報記憶部400と、各部からの情報により車両
を目的地に向けて障害物等に衝突しないように走行させ
るべく前記アクチュエータ制御部300等を制御する走行
制御部500と、該走行制御部500に対して目的地に関する
情報を入力するとともに、前記画像情報処理部100から
の画像やその他の情報を表示するマンマシンインタフェ
ース部600と、非常ブレーキをかけたり、最高速度を制
限する等の機能を有する付帯制御部700と、例えば飛行
機のフライトレコーダ等のように衝突時や非常ブレーキ
等の場合の車両の各部の状況を記録するデータ収録部80
0とから構成されている。 前記画像情報処理部100は、2台からなる1組のカメ
ラ101,103を有する。このカメラ101,103は車両の前部の
例えば左右に設けられ、これにより車両の進行方向のス
テレオ画像、すなわちステレオ斜視画像を撮像する。こ
のカメラ101,103で撮像された斜視画像は画像処理用コ
ンピュータ105に供給されて画像処理を施され、これに
より視差を求めて障害物の有無を判断したり、障害物ま
での距離および方向を計測するために使用されたり、ま
た斜視画像はこの画像処理用コンピュータ105により平
面画像に変換され、すなわち逆斜視変換される。画像処
理用コンピュータ105はこの平面画像から走行路の位置
的関係を計測することができる。 更に詳しくは、道路上の白線等を検出することによ
り、道路と車両との相対関係、すなわち車両から左側の
白線までの距離XL、右側の白線までの距離XR、車両の
進行方向と道路のなす角度θ等を算出し、これらの値に
より道路のカーブの方向や曲率等を求める。また、交差
点の手前においては白線の切れ方等を計測することによ
り交差点までの距離Yを求める。 このように画像処理用コンピュータ105で求められた
距離XL,XR、角度θ、距離Y等は、ローカル自動位置推
定部107に供給され、これにより道路と車両との位置関
係、すなわちローカル自動位置を推定できるのである。
なお、ローカル自動位置とは、このように画像処理用コ
ンピュータ105における画像処理によって局部的に細く
求めた自車位置を称するものとする。また、このローカ
ル自動位置に対して後述するようにおおまかに求めた自
動位置をグローバル自動位置と称する。 なお、カメラは、画角を広取るために、3組程度設置
し、切り替えて使用することにより右前方、左前方、前
方の画像から上記パラメータを得ることができる。 検知処理部200は、超音波センサ、レーザレーダ等を
使用し、車両の進行方向や側方等の物体、例えば先行
車、ガードレール、障害物等を検知するとともに、車輪
速等も検知するものであるが、これは例えば前記画像処
理部100による画像情報がない場合にもある程度の走行
を可能にし、これによりフェールセーフ的役割も果そう
とするものである。 検知処理部200は、車両の側方、前後左右の4ケ所に
それぞれ設けている4つの当音波センサ201,203,205,20
7を有し、これらの超音波センサの出力はフェールセー
フローカル自車位置検出部215に供給され、これらのセ
ンサによって車両と道路のガードレールとの間隔距離を
測定し、これにより前記画像情報処理部100で求めたと
同様なパラメータ、すなわち距離XL,XR、角θ等を計測
することができる。また、ガードレールの切れ目の判断
を行なうことにより例えば交差点の手前Yメートルの位
置にガードレールの切れ目を作っておくと、交差点まで
の距離も知ることができる。すなわち、これらの情報に
より前記画像情報処理部100で求めたと同じローカル自
動位置情報を得ることができる。 また、検知処理部200は車両全部に設けられ、車両の
前方等に存在する障害物等を検出するレーザレーダ209
および前方超音波センサ210を有し、これらの出力はフ
ェールセーフ障害物判断部217に供給されている。これ
らのレーザレーダ209および前方超音波センサ210は障害
物までの距離を算出し、前記画像情報処理部100のカメ
ラ101,103で認識できない場合にも、このレーザレーダ2
09が障害物を検出した場合には車両の走行を一時的に停
止または減速するようになっている。 更に、検知処理部200は後輪の左右に設けられている
一対の車輪速センサ211,213を有し、これらのセンサの
出力は車輪速データ処理部218に供給され、更にこの車
輪速データ処理部218からグローバル車両位置推定部219
に供給されている。この車輪速度センサ211,213は車輪
の回転を検出し、この回転に同期して車輪の1回転毎に
数千個(具体的には、1000〜4000)のパルスを左右の車
輪毎に発生する。従って、この左右の車輪毎に発生する
両パルスの数の差を取れば、走行距離の差となり、この
差から車両がカーブして走行しているか否かを判断する
ことができる。また、左右の車輪の走行距離はそのまま
車両の走行距離となる。従って、これらの情報を時々刻
々計算することにより車両の変位(△X,△Y,△θ)を求
めることができる。具体的には、ある時点の車両の姿
勢、すなわち位置を基準とした相対的な車両の位置情
報、すなわち相対的なX,Y座標における位置およびθ等
の情報を求めることができ、これにより走行前の車両の
位置が既知であるならば、車輪速処理を逐次行なうこと
により走行中の車両の現在位置を常に検出することがで
きる。但し、誤差は累積されるので、走行距離が長くな
ると、計測誤差が大きくなる。このように求められるお
およその車両の位置がグローバル車両位置(X,Y)であ
る。 アクチュエータ制御部300は、車両を無人で走行させ
るために必要な種々のアクチュエータ、すなわちステア
リングを操舵する操舵アクチュエータ301、アクセルに
対応するスロットルアクチュエータ303、ブレーキアク
チュエータ305、ウインカ駆動部307およびカメラ回転駆
動部311を有し、これらの各アクチュエータをアクチュ
エータ制御部309が走行制御部500からの制御情報に基づ
いて制御するようになっている。なお、車両がAT車で前
進走行のみである場合には、クラッチやシフトレバー等
の操作用アクチュエータ等も必要となる。アクチュエー
タ制御部309は走行操舵制御部505からの加減速指令また
は目標車速指令を受け、アクセルやブレーキ等を制御す
る。操舵制御は同様に右または左への回転指令または目
標操舵角指令を受けて作動する。また、アクチュエータ
制御部309とカメラ回転駆動部311とは、撮像方向制御手
段13を構成するものである。 地図情報記憶部400は、目的地に関する地図情報、目
的地までの地図情報、例えば目的地までの道路に存在す
る交差点位置、交差点距離等の地図情報を記憶している
地図データ記憶部401および該地図データ記憶部401に対
して走行制御部500からのアクセスを制御する地図情報
アクセス制御部403から構成されている。 走行制御部500は、前記画像処理部100および検知処理
部200で検出した進行方向の道路情報を適宜判断すると
ともに地図情報記憶部400からの地図情報を参照しなが
ら、マンマシンインタフェース部600から入力される目
的地に向けて車両を走行させるべく前記アクチュエータ
制御部300を駆動制御するものである、前記画像情報処
理部100の画像処理用コンピュータ105から障害物データ
を供給され、この障害物データに基づいて障害物の回避
方向を決定する障害物回避方向決定部501と、地図情報
記憶部400からの地図情報、検知処理部200のグローバル
自車位置推定部219からのグローバル自車位置情報(X,
Y)、画像情報処理部100のローカル自車位置推定部107
からの補正データ、マンマシンインタフェース部600か
らの目的地情報等の情報を供給され、これらの情報によ
り目的地までの経路等を含む大局的な走行戦略情報を立
案し、この情報に従って直進、右左折、減速、加速、停
止等の走行動作に関する情報、交差点までの距離情報等
の制御情報を出力するプランナである走行指令部503
と、該走行指令部503からの制御情報、画像情報処理部1
0のローカル自車位置推定部107からの道路端からの距
離、角度等を含むローカル自車位置情報、障害物回避方
向決定部501からの障害物回避方向情報、検知処理部200
の車輪速データ処理部218からの車両の変位(△X,△Y,
△θ)を含む車両姿勢(位置)情報、検知処理部200の
フェールセーフローカル自車位置検出部215からの道路
端からの距離、角度等を含むローカル自車位置情報、フ
ェールセーフ障害物判断部217からの障害物までの距離
情報、付帯制御部700からの情報等を供給され、これら
の情報に基づいてアクチュエータ制御部300の制御に必
要な各種制御信号、例えば目標車速、目標操舵角情報等
の情報をアクチュエータ制御部300に供給し、これによ
り操舵制御等を行なう走行操舵制御部505とを有する。 更に具体的には、走行指令部503はマンマシンインタ
フェース部600から目的地情報が入力されると、地図情
報記憶部400をアクセスしながら、目的地までの経路を
探索し、最短経路を決定する。そして、この決定した最
短経路の情報と車輪速センサ211,213で検出された情報
に基づいて算出されたグローバル自車位置情報とを比較
しながら走行制御情報を作成する。例えば、交差点に近
付いたときには、およその減速指令を出力したり、「あ
と何メートルで左折する」というような情報を走行操舵
制御部505に出力する。また、走行操舵制御部505におけ
るアクチュエータに対する制御はFuzzy制御等の知能制
御により行なわれる。すなわち、「if……then……」の
形式で記述されたプロダクションルールに従って制御さ
れる。また、障害物の回避は画像情報処理部100による
障害物までの距離と方向とに基づいてどの方向に進めば
よいかを決定する。 マンマシンインタフェース部600は、目的地情報等を
入力するキーボード601と、目的地までの地図を表示し
たり、その他種々の情報、例えば交差点までの情報等を
表示するCRTディスプレイ603とを有する。たお、キーボ
ード601は変りとしてディジタイザ等でもよい。また、
マンマシンインタフェース部600はマンマシンインタフ
ェースとして音声認識や合成装置等を有してもよい。 付帯制御部700は、非常ブレーキアクチュエータ701を
有し、この非常ブレーキアクチュエータ701は通常走行
用のブレーキアクチュエータ305とパラレルに作動し、
安全性を向上している。この非常ブレーキアクチュエー
タ701はアンテナ705で受信した外部非常ブレーキ信号を
受信機707および制御部703を介して供給されたり、また
は車両内部に設けられている非常ブレーキスイッチ709
からの作動信号を制御部703を介して供給されると走行
制御部500の制御に関係なく作動し、車両を停止させ
る。また、付帯制御部700は最高車速リミッタ711、この
最高車速71に車速の実際の車速情報を供給する車速セン
サ714を有し、速度設定部713で設定された最高車速で走
行し得るようになっている。この最高車速リミッタ11は
車速の乗員がゆっくりと走りたい場合に、その最高車速
を設定するためのものであり、この設定された最高車速
情報は走行操舵制御部505に供給され、走行操舵制御部5
05でこの速度を越えないように制御される。なお、最高
車速は走行指令部503によって道路毎に設定することも
可能である。また、万一、設定された最高車速を越える
車速が出た場合には、車速センサ714が感知し、これに
より走行制御部500の異常を判断し、非常ブレーキアク
チュエータ701を制御して非常ブレーキを作動させるよ
うになっている。 データ収録部800は、フライトレコーダ等のように衝
突時、非常ブレーキ作動時等に車両の各部の状況を記憶
するためのメモリ等からなるデータ収録部801およびG
センサ803を有する。このデータ収録部801に記録された
データに基づいて、後に原因等を解明するために使用す
るものである。 次に、第3図を参照して作用を説明する。 この作用は、自律走行車両制御装置における自律走行
制御の中において特に画像情報処理部100で撮像した画
像情報を基にして車両900のローカル自車位置の算出、
具体的には車両900が走行路に沿って走行する場合の操
舵角および車速の算出を行ない、この算出した総度角お
よび速度に従って走行制御するものである。 前記画像情報処理部100のカメラ101,103で撮像した車
両の前方の画像は、第3図(A)に示すように、斜視画
像である。この斜視画像はカメラ101,103から画像処理
用コンピュータ105に供給されて逆斜視変換され、第3
図(B)に示すようなワールド座標系の平面画像とな
る。この平面画像では、図示したように一対の走行路が
ラインLおよびRで示され(以下、単に走行路L,Rと略
す)、この走行路L,Rが画像処理用コンピュータ105によ
って抽出される。 このように抽出された走行路L,Rに対して自車両900か
ら所定距離Yr前方の位置に車両900の進行方向に直行す
る基準線Lrを画像上に形成し、この基準線Lrが走行路
L、Rにそれぞれ交差する点をA,Bとする。また、ここ
で自車両900の現在位置をXY座標の原点に取り、車両の
進行方向に直行する方向をX軸、進行方向をY軸に設定
する。この座標体系で、基準線Lrの位置はY軸座標がYr
である。 第5図は、前記第3図(B)に示す平面画像上で自車
両900が車両の姿勢角度θでt秒間車速Vで走行した
(V・t)ときに基準線Lrと交差する点を交差位置Dと
して示し、自車両900が現在位置から理想的操舵角で理
想的に走行して基準線Lrと交差する点を理想的走行位置
Cとして示している。なお、tは画像入力サンプリング
周期である。この理想的走行位置Cは基準線Lrが設定さ
れている走行路の道幅を例えば1対3の割合で分割した
点に相当する。 そして、第5図では、交差位置Dと理想的走行位置C
との間の偏差をdとして示している。この偏差dに基づ
いて操舵角θを、操舵角θを用いて理想的走行位置Cに
おける車両の姿勢角度θLrも算出することができる。 従来この操舵角制御においては、自車両900の現在位
置から所定距離前方の位置の基準線Lrにおける操舵角を
算出する場合に、走行路の途中の湾曲程度を考慮にいれ
ていないため、車両が走行路L,Rからはみ出してしまう
ことがあった。従って、このような場合には、所定距離
に設定した基準線Lrを更に手前に短く設定した別の基準
線Lroを設けることが必要である。そのため、最初に設
定した基準線Lrの操舵角で車両の走行経路が走行路L,R
からはみ出るか否かをチェックすることを行なう必要が
生じた。 すなわち、第6図(A)に示すように、最初に設定し
た基準線Lrにおいて各点A,C,B,における各回転半径RA,
RB(図示せず),RC(図示せず)を後述するようにそれ
ぞれ算出し、この回転半径RA,RB,RCが後述する式
(1)の関係を満足するか否かをチェックする。この関
係が満足された場合には基準線Lrをそのまま使用して操
舵角を算出してもよいが、満足されない場合には基準線
Lrを手前の基準線Lroに設定し直し、この手前の基準線L
roで操舵角の算出を行なう。 RA−φ<RC<RB+φ ……(1) なお、φは補正数である。すなわち、走行路の曲率が
小さい場合には、この関係式は満足されるが、曲率が大
きく、車両の走行経路が走行路からはみ出る場合にはこ
の関係式は満足されない。 第6図(A)において、αは、α=V・tで表される
値であり、Vは次式の値△Rによって決定される車速で
ある。 △R=|RC−[(RA−φ)−(RB+φ)]/2| すなわち上記値△Rと車速Vとの関係は値△Rが小さ
い場合には車速Vmaxとなり、大きい場合にはVminとな
り、前方に基準線Lrを設定する距離は短くなるのであ
る。 次に、上記関係を算出するために必要な回転半径RA,
RB,RCの算出について第6図(A)および第7図を参照
して説明する。 点Aの回転半径RAを算出するには、点Aの座標から
点AのX軸までの距離AAoを算出し、(尚、第7図にお
いて、Aoは点AからX軸へ垂直に下した線のX軸との交
点であり、QAは点Aの回転中心である)、この距離AAo
と点Aにおける接線のX軸に対する角度θAとから次式
により点Aの回転半径RAが算出される。 RA=AAosin(θA−π/2) また、他の回転半径RB,RCも次知により同様に算出
される。尚このときBo,CoもAoと同様に設定されるもの
とする。 RB=BBo/sin(θB−π/2) RC=CCo/sin(θC−π/2) 次に、第8図(A)を参照して動作の流れを全体的に
説明する。 まず、初期設定として車速V=Vmaxが設定され、それ
から画像情報処理部100のカメラ101,103で撮像した画像
を処理し、この画像上に第5図に示すように基準線Lrを
設定する(ステップ110)。次に、画像上で自車両900の
走行動作をシミュレートして、設定された基準線Lr上に
交差位置Dを設定し、更に理想的走行位置Cも設定する
(ステップ120,130)。この交差位置Dおよび理想走行
位置Cから偏差dを算出し、この偏差dに対する操舵角
θを求める(ステップ140)。それから、理想的走行位
置Cにおける接線の角度θcを算出し、更に理想的走行
位置Cおよびこの理想的走行位置Cに対応する点A,Bに
対する回転半径RA,RB,RCを算出する(ステップ150,16
0)。次に、前述した回転半径RA,RB,RCにおける前記関
係をチェックするために、まず、最初にRA<RBをチェ
ックして自車両900の曲がる側をチェックし、RA<RB
でない場合にはRAとRBとを入れ替え(ステップ170,18
0)、それから前記関係RA−φ<RC<RB+φをチェッ
クする(ステップ190)。この関係が満足されている場
合には、車速V=Vmaxとし(ステップ230)、上述した
ように算出した操舵角θおよび車速Vを出力する。 また、上記ステップ190における関係が満足されない
場合、すなわち自車両900の走行経路が走行路の外には
み出る場合には、前述した△Rを算出する(ステップ20
0)。そして、この△Rに対する速度Vを算出し、この
速度Vに対応する距離α手前に別の基準線Lroを設定し
(ステップ210,220)、ステップ120に戻り、この基準線
Lroで同様に操舵角および車速を算出する。 次に車両900が曲率が大である走行路(第4図(A)
参照)に差し掛かった場合について説明する。このとき
正面(第4図(A)においてカメラ方向(イ))を向い
ているカメラによって得られる斜視画像が第4図(B)
に示される様に、走行路の片側例えば線R側のみが撮像
された状態であるときには、前述した画像処理が行なえ
ないため当該車両走行制御を行なうこともできない。そ
こで、カメラの向きを左側に角度Θだけ回転して(第4
図(A)においてカメラ方向(ロ))、第4図(C)に
示すような斜視画像を得て、走行制御を行なうようにす
る。 以下、カメラの向きの変更の手順について第8図
(B)を参照して説明する。 第6図において車両900が原点0の位置にあるとき前
述したように基準Lrの地点における車両900の車速Vと
姿勢角度θLrを求め、さらに基準線Lrから距離αだけ前
方の位置にカメララインCMを設定して(ステップ25
0)、このカメララインCM上に前記基準線Lrと同様にA1,
B1を設定して半径RA1,RBを求めて、このRA1,RB
ら、平均半径R(=(RA+RB)/2)を算出する
(ステップ260)。 次にこの平均半径RとカメララインCMと現車両位置0
とY軸方向距離A1A2とからカメララインCM上における車
両の姿勢角度θcを式sinθc=A1A2/Rから求める(ス
テップ270)。次に姿勢角度θcから、車両が基準線Lr
に到達したときの当該車両の姿勢角度θLrを差し引い
た角度Θがカメラ回転角度となる(ステップ280)。 このようにして求めたカメラ回転角度Θに従って、例
えば図示しない電動モータ等のカメラ回転駆動部311に
よってカメラ方向を変更することによって(ステップ29
0)、斜視画像内に常に走行路のラインLおよびRを捕
捉することができるので、車両が曲率の大きい曲線路を
走行するような場合であっても、車両を走行路内の適切
な位置を保持して走行させることができる。 [発明の効果] 以上説明したきたように、本発明によれば、車両に搭
載された撮像手段に、走行環境に応じて前記撮像手段の
撮像方向を所定の向きに変更する撮像方向制御手段を具
えたので、例えば湾曲路においても、この湾曲した走行
路を撮像画像として湾曲に追従して自律的な走行制御を
確実に行なうことができる等の効果を奏するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention calculates a steering angle and a traveling amount of a vehicle from image information in a traveling direction, and based on the steering angle and the like, calculates a steering angle on a road, for example. The present invention relates to an autonomous traveling vehicle control device that appropriately controls the traveling operation of a vehicle along the autonomous traveling vehicle. 2. Description of the Related Art Conventionally, there have been proposed various autonomous traveling vehicle control devices that autonomously drive a vehicle to a destination while automatically avoiding obstacles on a traveling road such as a road by unmanned steering. The above-mentioned conventional autonomous traveling vehicle control device is provided with an imaging unit for imaging the traveling direction of the vehicle, for example, a CCD camera.
And information about the driving environment, for example, information on the shape of the driving road such as road width and curvature, and information on the presence or absence of obstacles, provided fixedly at the front center or left and right of the two vehicles and fixedly provided at the CCD camera. And further determine the positional relationship between the vehicle and the center run, the roadside zone, and the obstacle, the curved state of the traveling road, and the like from the information, and determine the steering amount, the traveling amount, the traveling speed, and the like of the vehicle. It was controlled automatically. (Problems to be Solved by the Invention) As described above, in the conventional autonomous traveling vehicle control device, the CCD camera as the imaging means is fixedly arranged in the traveling direction. Therefore, if the viewing angle of the CCD camera is set to be narrow to increase the accuracy of the information obtained from the captured image and reduce the amount of calculation processing of the information, the captured image is required when traveling on a curved road. Since the entire curved road cannot be accommodated in the vehicle, the vehicle must travel at a sufficiently reduced traveling speed. Also, if the CCD camera and the viewing angle are set wide to capture the entire curved road, the amount of information per viewing angle (for example, the number of pixels of the CCD) decreases, so if an obstacle is present on the running path, Until this obstacle is detected and identified as an obstacle, this obstruction, combined with an increase in the computation time due to an increase in the number of computation objects such as obstacles existing on the entire traveling path due to an increase in the viewing angle, Since it is difficult to do so only after approaching the object considerably, problems such as running at a sufficient speed even on a straight road are caused. The present invention has been made in view of the above, and an object of the present invention is to provide an autonomous traveling vehicle control device capable of more reliably performing autonomous traveling control on a curved road or the like. [Structure of the Invention] (Means for Solving the Problems) In order to achieve the above-described problems, the present invention employs an image pickup means 11 mounted on a vehicle as shown in FIG. In an autonomous traveling vehicle control device 1 that obtains a captured image of a road and autonomously controls the traveling operation of the vehicle based on the captured image, the shape of the traveling road is determined based on the captured image from the imaging unit 11. Travel path shape calculation means 15 to be calculated
And a relative position calculation unit 17 that calculates a relative position between the traveling road and the own vehicle based on the captured image from the imaging unit 11,
An attitude angle calculation means 19 for calculating an attitude angle of the vehicle based on the calculated shape and relative position of the traveling road; and an imaging direction of the imaging means 11 based on the calculated attitude angle of the vehicle. And imaging direction control means 13 for changing a predetermined angle from the direction to the left and right. (Operation) In the autonomous traveling vehicle control device according to the present invention, the shape of the traveling path is calculated based on the captured image from the imaging unit, and then the travel path and the own vehicle are connected based on the captured image from the imaging unit. The relative position is calculated, and further, the posture angle of the vehicle is calculated based on the calculated shape and relative position of the traveling road, and the imaging direction of the imaging unit is shifted left and right from the traveling direction of the vehicle based on the posture angle of the vehicle. Since the predetermined angle is changed,
Even on a curved road, autonomous traveling control can be reliably performed by following the curved traveling road as a captured image. (Example) Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 2 is a block diagram showing the overall configuration of the autonomous traveling vehicle control device according to one embodiment of the present invention. The autonomous traveling vehicle control device shown in the figure performs control for making the vehicle travel unmannedly and autonomously to a set destination while appropriately judging the road condition in the traveling direction detected by a camera, a sensor, or the like. An image information processing unit 100 that captures an image in the traveling direction of the vehicle and performs image processing, and an ultrasonic sensor, an object such as a side direction or the like of the vehicle by a laser radar, for example, a preceding vehicle, a guardrail. , A detection processing unit 200 that detects and processes wheel speeds and the like while detecting obstacles and the like.
And, to drive the vehicle unmanned, the vehicle has an actuator that operates a steering wheel, an accelerator, a brake, a turn signal, a camera, and the like, and an actuator control unit 300 that controls these, and stores map information to a destination. A map information storage unit 400, a travel control unit 500 that controls the actuator control unit 300 and the like so that the vehicle travels toward a destination based on information from each unit so as not to collide with an obstacle or the like, and the travel control unit While inputting information about the destination to 500, a man-machine interface unit 600 that displays images and other information from the image information processing unit 100, and functions such as applying an emergency brake and limiting the maximum speed And the incidental control unit 700, which records the situation of each part of the vehicle at the time of collision or emergency braking, such as an airplane flight recorder That data-recording unit 80
0. The image information processing unit 100 has a set of two cameras 101 and 103. The cameras 101 and 103 are provided, for example, on the left and right of the front part of the vehicle, and capture a stereo image in the traveling direction of the vehicle, that is, a stereo perspective image. The oblique images captured by the cameras 101 and 103 are supplied to an image processing computer 105 and subjected to image processing, whereby parallax is determined to determine the presence or absence of an obstacle, and the distance and direction to the obstacle are measured. The image processing computer 105 converts the perspective image into a planar image, that is, reverse perspective conversion. The image processing computer 105 can measure the positional relationship of the traveling path from the plane image. More specifically, by detecting a white line or the like on the road, the relative relationship between the road and the vehicle, that is, the distance XL from the vehicle to the left white line, the distance XR to the right white line, and the connection between the traveling direction of the vehicle and the road. The angle θ and the like are calculated, and the direction and curvature of the curve of the road are obtained from these values. Before the intersection, the distance Y to the intersection is determined by measuring how the white line is cut. The distances XL and XR, the angle θ, the distance Y, and the like obtained by the image processing computer 105 are supplied to the local automatic position estimating unit 107, and thereby the positional relationship between the road and the vehicle, that is, the local automatic position is determined. It can be estimated.
Note that the local automatic position refers to the position of the own vehicle locally narrowly obtained by the image processing in the image processing computer 105 as described above. Further, the automatic position roughly obtained from the local automatic position as described later is referred to as a global automatic position. The above parameters can be obtained from the right front, left front, and front images by installing and switching about three sets of cameras in order to widen the angle of view. The detection processing unit 200 uses an ultrasonic sensor, a laser radar, and the like, and detects an object such as a traveling direction or a side, such as a preceding vehicle, a guardrail, and an obstacle, and also detects a wheel speed and the like. However, this makes it possible to run to some extent even when there is no image information from the image processing section 100, thereby trying to fulfill a fail-safe role. The detection processing unit 200 includes four sound wave sensors 201, 203, 205, and 20 provided at four locations on the side, front, rear, left, and right sides of the vehicle.
The outputs of these ultrasonic sensors are supplied to a fail-safe local vehicle position detection unit 215, which measures the distance between the vehicle and the guardrail of the road by means of these sensors, thereby obtaining the image information processing unit. The same parameters as those obtained at 100, that is, the distances XL, XR, the angle θ, etc. can be measured. Also, by making a determination of a guardrail break, for example, if a guardrail break is made at a position Y meters before the intersection, the distance to the intersection can be known. That is, the same local automatic position information as obtained by the image information processing unit 100 can be obtained from these pieces of information. The detection processing unit 200 is provided in the entire vehicle, and detects a laser radar 209 that detects an obstacle or the like existing in front of the vehicle.
And a forward ultrasonic sensor 210, and the outputs thereof are supplied to a fail-safe obstacle determination unit 217. The laser radar 209 and the front ultrasonic sensor 210 calculate the distance to the obstacle, and even when the distance cannot be recognized by the cameras 101 and 103 of the image information processing unit 100, the laser radar 2
When 09 detects an obstacle, the running of the vehicle is temporarily stopped or decelerated. Further, the detection processing unit 200 has a pair of wheel speed sensors 211 and 213 provided on the left and right sides of the rear wheel, and outputs of these sensors are supplied to a wheel speed data processing unit 218. From global vehicle position estimator 219
Is supplied to The wheel speed sensors 211 and 213 detect the rotation of the wheel, and generate thousands (specifically, 1000 to 4000) of pulses for each of the left and right wheels for each rotation of the wheel in synchronization with the rotation. Therefore, if the difference between the numbers of the two pulses generated for each of the left and right wheels is calculated, the difference in the traveling distance is obtained. From this difference, it can be determined whether or not the vehicle is traveling in a curve. The traveling distance of the left and right wheels is the traveling distance of the vehicle as it is. Therefore, the displacement (△ X, △ Y, △ θ) of the vehicle can be obtained by calculating these pieces of information every moment. Specifically, the attitude of the vehicle at a certain point in time, that is, relative position information of the vehicle based on the position, that is, information such as the relative position in the X and Y coordinates and θ, etc. can be obtained. If the position of the preceding vehicle is known, the current position of the running vehicle can be always detected by sequentially performing the wheel speed processing. However, since errors are accumulated, the measurement error increases as the traveling distance increases. The approximate vehicle position obtained in this way is the global vehicle position (X, Y). The actuator control unit 300 includes various actuators necessary for driving the vehicle unmanned, that is, a steering actuator 301 for steering, a throttle actuator 303 corresponding to an accelerator, a brake actuator 305, a turn signal drive unit 307, and a camera rotation drive unit. The actuator control unit 309 controls these actuators based on control information from the travel control unit 500. When the vehicle is an AT vehicle and only runs forward, an operation actuator such as a clutch or a shift lever is also required. The actuator control unit 309 receives an acceleration / deceleration command or a target vehicle speed command from the traveling steering control unit 505, and controls an accelerator, a brake, and the like. The steering control is similarly operated upon receiving a rotation command to the right or left or a target steering angle command. Further, the actuator control unit 309 and the camera rotation drive unit 311 constitute the imaging direction control unit 13. The map information storage unit 400 includes a map data storage unit 401 storing map information relating to a destination, map information to a destination, for example, map information such as an intersection position and an intersection distance existing on a road to the destination. A map information access control unit 403 controls access to the map data storage unit 401 from the travel control unit 500. The traveling control unit 500 determines the road information in the traveling direction detected by the image processing unit 100 and the detection processing unit 200 as appropriate and refers to the map information from the map information storage unit 400 while inputting the information from the man-machine interface unit 600. Obstacle data is supplied from the image processing computer 105 of the image information processing unit 100, which is to drive and control the actuator control unit 300 to drive the vehicle toward the destination to be performed. An obstacle avoiding direction determining unit 501 that determines an avoiding direction of an obstacle based on the map information from the map information storing unit 400, and global own vehicle position information (X from the global own vehicle position estimating unit 219 of the detection processing unit 200). ,
Y), the local vehicle position estimating unit 107 of the image information processing unit 100
And the information such as the destination information from the man-machine interface unit 600 is supplied, and based on the information, the general driving strategy information including the route to the destination and the like is drafted. A travel command unit 503 that is a planner that outputs control information such as information on travel operations such as left turn, deceleration, acceleration, and stop, and distance information to an intersection.
And the control information from the traveling command unit 503, the image information processing unit 1
0 local vehicle position information including the distance, angle, etc. from the road edge from the local vehicle position estimating unit 107, obstacle avoiding direction information from the obstacle avoiding direction determining unit 501, the detection processing unit 200
Of the vehicle (デ ー タ X, △ Y,
(Θ)), the local vehicle position information including the distance and angle from the road edge from the fail-safe local vehicle position detection unit 215 of the detection processing unit 200, and the fail-safe obstacle determination unit Information on the distance from the obstacle 217 to the obstacle, information from the auxiliary control unit 700, and the like are supplied, and various control signals necessary for controlling the actuator control unit 300 based on the information, such as target vehicle speed and target steering angle information, etc. And a traveling steering control unit 505 for supplying steering control information to the actuator control unit 300 and thereby performing steering control and the like. More specifically, when destination information is input from the man-machine interface unit 600, the travel command unit 503 searches for a route to the destination while accessing the map information storage unit 400, and determines the shortest route. . Then, travel control information is created while comparing the determined information on the shortest route with the global host vehicle position information calculated based on the information detected by the wheel speed sensors 211 and 213. For example, when approaching an intersection, the vehicle outputs an approximate deceleration command or outputs information such as "how many meters to turn left" to the traveling steering control unit 505. Control of the actuator in the traveling steering control unit 505 is performed by intelligent control such as fuzzy control. That is, it is controlled in accordance with the production rules described in the format of "if ... then ...". In addition, the direction of the obstacle avoidance is determined based on the distance and the direction to the obstacle by the image information processing unit 100. The man-machine interface unit 600 has a keyboard 601 for inputting destination information and the like, and a CRT display 603 for displaying a map to the destination and displaying various other information such as information to an intersection. Alternatively, the keyboard 601 may be a digitizer or the like. Also,
The man-machine interface unit 600 may include a voice recognition or synthesis device as a man-machine interface. The auxiliary control unit 700 has an emergency brake actuator 701, and the emergency brake actuator 701 operates in parallel with the brake actuator 305 for normal traveling,
Improves safety. The emergency brake actuator 701 is supplied with an external emergency brake signal received by the antenna 705 via the receiver 707 and the control unit 703, or an emergency brake switch 709 provided inside the vehicle.
When the operation signal is supplied from the control unit 703 via the control unit 703, it operates regardless of the control of the travel control unit 500, and stops the vehicle. Further, the auxiliary control unit 700 has a maximum vehicle speed limiter 711, a vehicle speed sensor 714 for supplying actual vehicle speed information to the maximum vehicle speed 71, and can run at the maximum vehicle speed set by the speed setting unit 713. ing. This maximum vehicle speed limiter 11 is used to set the maximum vehicle speed when an occupant of the vehicle speed wants to run slowly. The set maximum vehicle speed information is supplied to the traveling steering control unit 505, and the traveling steering control unit Five
In 05, it is controlled not to exceed this speed. Note that the maximum vehicle speed can also be set for each road by the travel command unit 503. In the event that the vehicle speed exceeds the set maximum vehicle speed, the vehicle speed sensor 714 detects the vehicle speed, thereby determining the abnormality of the traveling control unit 500, and controlling the emergency brake actuator 701 to release the emergency brake. It is designed to work. The data recording unit 800 includes a data recording unit 801 and a G that include a memory or the like for storing the status of each part of the vehicle at the time of a collision, emergency braking, etc., such as a flight recorder.
It has a sensor 803. Based on the data recorded in the data recording unit 801, it is used to clarify the cause or the like later. Next, the operation will be described with reference to FIG. This action is, in the autonomous traveling control in the autonomous traveling vehicle control device, particularly the calculation of the local own vehicle position of the vehicle 900 based on the image information captured by the image information processing unit 100,
Specifically, the steering angle and the vehicle speed when the vehicle 900 travels along the travel path are calculated, and the travel is controlled according to the calculated total angle and speed. The image in front of the vehicle captured by the cameras 101 and 103 of the image information processing unit 100 is a perspective image as shown in FIG. This oblique image is supplied from the cameras 101 and 103 to the image processing computer 105 and subjected to reverse oblique conversion, and the third
A planar image in the world coordinate system as shown in FIG. In this plane image, a pair of traveling paths are indicated by lines L and R as shown (hereinafter simply abbreviated as traveling paths L and R), and the traveling paths L and R are extracted by the image processing computer 105. . A reference line Lr that is orthogonal to the traveling direction of the vehicle 900 is formed on the image at a position ahead of the vehicle 900 by a predetermined distance Yr with respect to the traveling paths L and R thus extracted, and the reference line Lr is Points that intersect L and R, respectively, are A and B. Here, the current position of the vehicle 900 is set as the origin of the XY coordinates, the direction orthogonal to the traveling direction of the vehicle is set as the X axis, and the traveling direction is set as the Y axis. In this coordinate system, the position of the reference line Lr is Yr coordinate Yr
It is. FIG. 5 shows a point where the vehicle 900 crosses the reference line Lr on the plane image shown in FIG. 3 (B) when the vehicle 900 travels at the vehicle speed V for t seconds at the vehicle attitude angle θ o (V · t). Is shown as an intersection position D, and a point where the vehicle 900 travels ideally from the current position at an ideal steering angle and intersects with the reference line Lr is shown as an ideal traveling position C. Here, t is an image input sampling period. The ideal traveling position C corresponds to a point obtained by dividing the width of the traveling path on which the reference line Lr is set, for example, at a ratio of 1: 3. In FIG. 5, the intersection position D and the ideal traveling position C
Is shown as d. The steering angle θ can be calculated based on the deviation d, and the posture angle θLr of the vehicle at the ideal traveling position C can be calculated using the steering angle θ. Conventionally, in this steering angle control, when calculating the steering angle on the reference line Lr at a position ahead of the current position of the host vehicle 900 by a predetermined distance, the degree of curvature in the middle of the traveling road is not taken into account, so the vehicle There was a case where the vehicle protruded from the running paths L and R. Therefore, in such a case, it is necessary to provide a separate reference line Lr o set shorter further forward reference line Lr set to a predetermined distance. Therefore, at the steering angle of the reference line Lr set first, the traveling route of the vehicle is changed to traveling routes L and R.
A check has to be performed to see if it runs off. That is, as shown in FIG. 6 (A), each turning radius RA, at each point A, C, B, on the initially set reference line Lr.
RB (not shown) and RC (not shown) are calculated as described later, respectively, and it is checked whether or not the turning radii RA, RB and RC satisfy the relationship of equation (1) described later. If this relationship is satisfied, the steering angle may be calculated using the reference line Lr as it is.
Lr the re-set in front of the reference line Lr o, the reference line L of this front
performing the calculation of the steering angle at r o. RA-φ <RC <RB + φ (1) where φ is a correction number. That is, when the curvature of the traveling path is small, this relational expression is satisfied. However, when the curvature is large and the traveling path of the vehicle protrudes from the traveling path, this relational expression is not satisfied. In FIG. 6A, α is a value represented by α = V · t, and V is a vehicle speed determined by a value ΔR of the following equation. ΔR = | RC − [(RA−φ) − (RB + φ)] / 2 | In other words, the relationship between the value ΔR and the vehicle speed V is Vmax when the value ΔR is small and Vmin when the value ΔR is large. The distance for setting the reference line Lr ahead becomes shorter. Next, the radius of gyration RA, required to calculate the above relationship,
The calculation of RB and RC will be described with reference to FIGS. 6 (A) and 7. To calculate the rotational radius RA of the point A, and calculates the distance AA o from the coordinates of the point A to the X-axis of the point A, (Note that in Figure 7, A o vertically to the X-axis from the point A is the intersection of the X axis of the beat lines, QA is the rotation center of the point a), the distance AA o
The rotational radius RA of the point A is calculated from the following equation and the angle θA of the tangent to the X axis at the point A with respect to the X axis. RA = AA o sin (θA- π / 2) In addition, other rotating radius RB, RC 1 is also calculated in the same manner the following knowledge. At this time, B o and C o are set in the same manner as A o . RB = BB o / sin (θB 1 -π / 2) RC = CC o / sin (θC-π / 2) Next, the whole will be described a flow of the operation with reference to FIG. 8 (A). First, the vehicle speed V = Vmax is set as an initial setting, and then the images captured by the cameras 101 and 103 of the image information processing unit 100 are processed, and a reference line Lr is set on this image as shown in FIG. 5 (step 110). ). Next, the running operation of the vehicle 900 is simulated on the image, the intersection position D is set on the set reference line Lr, and the ideal running position C is set (steps 120 and 130). A deviation d is calculated from the intersection position D and the ideal traveling position C, and a steering angle θ for the deviation d is obtained (step 140). Then, the tangent angle θc at the ideal traveling position C is calculated, and further, the turning radii RA, RB, and RC with respect to the ideal traveling position C and the points A and B corresponding to the ideal traveling position C are calculated (step 150). , 16
0). Next, in order to check the above relationship in the turning radii RA, RB, RC, first, RA <RB is checked, and the turning side of the vehicle 900 is checked, and RA <RB is checked.
If not, replace RA and RB (steps 170 and 18).
0) and then check the relationship RA-φ <RC <RB + φ (step 190). When this relationship is satisfied, the vehicle speed V is set to Vmax (step 230), and the steering angle θ and the vehicle speed V calculated as described above are output. If the relationship in step 190 is not satisfied, that is, if the travel route of the vehicle 900 is out of the travel route, the above-described ΔR is calculated (step 20).
0). Then, the △ calculates the velocity V with respect to R, to set a different reference line Lr o the distance α front corresponding to the velocity V (step 210, 220), the process returns to step 120, this reference line
Calculated similarly steering angle and vehicle speed lr o. Next, a traveling path where the vehicle 900 has a large curvature (FIG. 4A)
Will be described. At this time, a perspective image obtained by the camera facing the front (the camera direction (a) in FIG. 4 (A)) is shown in FIG. 4 (B).
As shown in (1), when only one side of the traveling road, for example, the line R side is imaged, the above-described image processing cannot be performed, and thus the vehicle traveling control cannot be performed. Then, rotate the camera to the left by an angle Θ (4th
In FIG. 4 (A), the traveling direction is controlled by obtaining a perspective image as shown in FIG. 4 (C) in the camera direction (b). Hereinafter, the procedure for changing the direction of the camera will be described with reference to FIG. 8 (B). In FIG. 6, when the vehicle 900 is at the position of the origin 0, the vehicle speed V and the attitude angle θLr of the vehicle 900 at the point of the reference Lr are obtained as described above, and further, the camera line CM is located at a position ahead of the reference line Lr by a distance α. (Step 25
0), A 1 ,
The radiuses RA 1 and RB 1 are determined by setting B 1, and an average radius R (= (RA 1 + RB 1 ) / 2) is calculated from the RA 1 and RB 1 (step 260). Next, the average radius R, the camera line CM, and the current vehicle position 0
Then, the attitude angle θc of the vehicle on the camera line CM is determined from the formula sin θc = A 1 A 2 / R from the distance A 1 A 2 in the Y-axis direction (step 270). Next, based on the posture angle θc, the vehicle moves from the reference line Lr.
Is the camera rotation angle (step 280). According to the camera rotation angle Θ obtained in this manner, the camera direction is changed by a camera rotation drive unit 311 such as an electric motor (not shown) (step 29).
0) Since the lines L and R of the traveling road can always be captured in the perspective image, even when the vehicle travels on a curved road having a large curvature, the vehicle is positioned at an appropriate position on the traveling road. While traveling. [Effects of the Invention] As described above, according to the present invention, an imaging direction control unit that changes an imaging direction of the imaging unit to a predetermined direction according to a traveling environment is provided to an imaging unit mounted on a vehicle. Therefore, for example, even on a curved road, there is an effect that the autonomous traveling control can be reliably performed by following the curve using the curved traveling road as a captured image.

【図面の簡単な説明】 第1図は本発明のクレーム対応図、第2図は本発明の一
実施例に係る自律走行車両制御装置の全体構成を示すブ
ロック図、第3図乃至第7図は第2図の自律走行車両制
御装置の作用の説明図、第8図は第2図の自律走行車両
制御装置の作用の全体的流れを示すフローチャートであ
る。 1……自律走行車両制御装置 11……撮像手段 13……撮像方向制御手段 15……走行路形状算出手段 17……相対位置算出手段 19……姿勢角度算出手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram corresponding to claims of the present invention, FIG. 2 is a block diagram showing an entire configuration of an autonomous vehicle control device according to an embodiment of the present invention, and FIGS. 8 is an explanatory diagram of the operation of the autonomous traveling vehicle control device of FIG. 2, and FIG. 8 is a flowchart showing the overall flow of the operation of the autonomous traveling vehicle control device of FIG. 1 ... Autonomous traveling vehicle control device 11 ... Imaging means 13 ... Imaging direction control means 15 ... Traveling road shape calculating means 17 ... Relative position calculating means 19 ... Attitude angle calculating means

フロントページの続き (72)発明者 倉見 邦彦 神奈川県横浜市神奈川区宝町2番地 日 産自動車株式会社内 (56)参考文献 特開 昭61−255413(JP,A) 特開 昭63−271508(JP,A) (58)調査した分野(Int.Cl.6,DB名) G05D 1/02 JOISContinuation of front page (72) Inventor Kunihiko Kurami 2 Nissan Motor Co., Ltd. 2 Takaracho, Kanagawa-ku, Yokohama-shi, Kanagawa Prefecture (56) References JP-A-61-255413 (JP, A) JP-A-63-271508 (JP) , A) (58) Fields surveyed (Int. Cl. 6 , DB name) G05D 1/02 JOIS

Claims (1)

(57)【特許請求の範囲】 1.車両に搭載された撮像手段を用いて、当該車両の走
行路に係る撮像画像を得て、この撮像画像に基づいて上
記車両の走行動作を自律的に制御する制御装置におい
て、 前記撮像手段からの撮像画像に基づいて走行路の形状を
算出する走行路形状算出手段と、 前記撮像手段からの撮像画像に基づいて走行路と自車両
との相対位置を算出する相対位置算出手段と、 この算出された走行路の形状と相対位置に基づいて車両
の姿勢角度を算出する姿勢角度算出手段と、 この算出られた車両の姿勢角度に基づいて前記撮像手段
の撮像方向を車両の進行方向から左右に所定の角度変更
する撮像方向制御手段とを有することを特徴とする自律
走行車両制御装置。
(57) [Claims] A control device that obtains a captured image related to a traveling path of the vehicle using an imaging unit mounted on the vehicle, and that autonomously controls a traveling operation of the vehicle based on the captured image. Traveling road shape calculating means for calculating the shape of the traveling road based on the captured image; relative position calculating means for calculating the relative position between the traveling road and the own vehicle based on the captured image from the imaging means; Attitude angle calculation means for calculating the attitude angle of the vehicle based on the shape and relative position of the traveling road; and determining the imaging direction of the imaging means on the left and right from the traveling direction of the vehicle based on the calculated attitude angle of the vehicle. An autonomous traveling vehicle control device, comprising: an imaging direction control means for changing an angle of the vehicle.
JP62199957A 1987-08-12 1987-08-12 Autonomous traveling vehicle control device Expired - Fee Related JP2819551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62199957A JP2819551B2 (en) 1987-08-12 1987-08-12 Autonomous traveling vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62199957A JP2819551B2 (en) 1987-08-12 1987-08-12 Autonomous traveling vehicle control device

Publications (2)

Publication Number Publication Date
JPS6444512A JPS6444512A (en) 1989-02-16
JP2819551B2 true JP2819551B2 (en) 1998-10-30

Family

ID=16416412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62199957A Expired - Fee Related JP2819551B2 (en) 1987-08-12 1987-08-12 Autonomous traveling vehicle control device

Country Status (1)

Country Link
JP (1) JP2819551B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07309464A (en) * 1994-05-19 1995-11-28 Nec Data Terminal Ltd Automatic paper feeding mechanism
JP3381141B2 (en) * 1998-01-14 2003-02-24 株式会社スギノマシン Omnidirectional mobile robot
DE19950033B4 (en) 1999-10-16 2005-03-03 Bayerische Motoren Werke Ag Camera device for vehicles
CN100559073C (en) * 2005-04-08 2009-11-11 东芝照明技术株式会社 Lamp
CN109669448A (en) * 2017-10-17 2019-04-23 阿尔派株式会社 Automatic Pilot control device and automatic Pilot control method
JP6916138B2 (en) * 2018-03-28 2021-08-11 ヤンマーパワーテクノロジー株式会社 Automatic traveling device for work vehicles

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255413A (en) * 1985-05-09 1986-11-13 Mitsubishi Electric Corp Remote control system running device

Also Published As

Publication number Publication date
JPS6444512A (en) 1989-02-16

Similar Documents

Publication Publication Date Title
US11809194B2 (en) Target abnormality determination device
CN105984464B (en) Controller of vehicle
US8170739B2 (en) Path generation algorithm for automated lane centering and lane changing control system
JP3183501B2 (en) Travel control device for vehicles
JP6638695B2 (en) Autonomous driving system
JPS63314618A (en) Controller for self-traveling vehicle
US8428843B2 (en) Method to adaptively control vehicle operation using an autonomic vehicle control system
US5229941A (en) Autonomous vehicle automatically running on route and its method
JP5205997B2 (en) Driving operation support device for vehicle
JP7509250B2 (en) Image display device, image display method, and image display program
JP2718033B2 (en) Autonomous traveling vehicle control device
JP2020056733A (en) Vehicle control device
JP2819551B2 (en) Autonomous traveling vehicle control device
JP2658056B2 (en) Autonomous traveling vehicle control device
JP2019139696A (en) Vehicle control device
JP2019105568A (en) Object recognition device, object recognition method, and vehicle
JP6558261B2 (en) Automatic driving device
JP2668882B2 (en) Autonomous traveling vehicle control device
JP2578120B2 (en) Road shape recognition device
JP7502044B2 (en) Parking assistance device and parking assistance system
JP2549661B2 (en) Autonomous vehicle control device
JP2578119B2 (en) Road shape recognition device
JP7429111B2 (en) Traffic control equipment and vehicle control equipment
JPS63314622A (en) Controller for self-traveling vehicle
JP2511851Y2 (en) Autonomous vehicle

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees