JP2020190414A - Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program - Google Patents

Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program Download PDF

Info

Publication number
JP2020190414A
JP2020190414A JP2019094110A JP2019094110A JP2020190414A JP 2020190414 A JP2020190414 A JP 2020190414A JP 2019094110 A JP2019094110 A JP 2019094110A JP 2019094110 A JP2019094110 A JP 2019094110A JP 2020190414 A JP2020190414 A JP 2020190414A
Authority
JP
Japan
Prior art keywords
vehicle
feature
information
estimation
traveling direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019094110A
Other languages
Japanese (ja)
Inventor
豊治 日与川
Toyoji Hiyokawa
豊治 日与川
優 田中
Masaru Tanaka
優 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin AW Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2019094110A priority Critical patent/JP2020190414A/en
Publication of JP2020190414A publication Critical patent/JP2020190414A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To provide a vehicle progress status estimating system, a vehicle progress status estimating method and a vehicle progress status estimating program which, when a vehicle is automatically driven in a parking lot, facilitate the automatic drive of the vehicle in the parking lot.SOLUTION: When a trave route is a route that accompanies a change of progress direction of a vehicle, an image recognition unit recognizes a ground feature included in surrounding information that is detected in front of a point where the vehicle should start changing the progress direction, as a target ground feature, and an estimation unit finds the relative position of the target ground feature to the vehicle as a real relative position and executes a pre-course-change estimation process #80 of estimating the progress bearing of the vehicle on the basis of the real relative position and ground feature information with respect to the target ground feature.SELECTED DRAWING: Figure 7

Description

本発明は、駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定システム、車両進行状態推定方法、及び車両進行状態推定プログラムに関する。 The present invention relates to a vehicle traveling state estimation system that estimates the traveling direction of a vehicle that automatically travels along a set traveling route in a parking lot, a vehicle traveling state estimation method, and a vehicle traveling state estimation program.

例えば特開2017−117188号公報(特許文献1)には、駐車場内において車両を自動的に誘導するためのシステムが開示されている。以下、背景技術の説明において括弧内に付される符号は、特許文献1のものである。 For example, Japanese Patent Application Laid-Open No. 2017-117188 (Patent Document 1) discloses a system for automatically guiding a vehicle in a parking lot. Hereinafter, the reference numerals given in parentheses in the description of the background technology are those of Patent Document 1.

特許文献1に記載されたシステムでは、目的地(例えば、入庫を行う場合には駐車スペース(11))までのルートとして決定された仮想走行ライン(14)に沿って車両(1)を自動的に誘導している。このシステムでは、現在位置算出部(43)が、駐車場(10)の地図情報と速度センサ(71)や舵角センサ(72)によって検出された検出信号とに基づいて車両(1)の現在位置を算出すると共に、実現在位置算出部(7)が、カメラ(3)が撮影した周辺画像の画像データの中から認識されたマーカ(20)に基づいて車両(1)の実際の現在位置を算出する。そして、現在位置算出部(43)が算出した車両(1)の現在位置と、実現在位置算出部(7)が算出した車両(1)の実際の現在位置との差に基づいて、仮想走行ライン(14)に対する車両(1)の位置ずれを補正している。 In the system described in Patent Document 1, the vehicle (1) is automatically moved along the virtual traveling line (14) determined as the route to the destination (for example, the parking space (11) in the case of warehousing). I'm leading you to. In this system, the current position calculation unit (43) determines the current position of the vehicle (1) based on the map information of the parking lot (10) and the detection signals detected by the speed sensor (71) and the steering angle sensor (72). In addition to calculating the position, the actual current position calculation unit (7) calculates the actual current position of the vehicle (1) based on the marker (20) recognized from the image data of the peripheral image taken by the camera (3). Is calculated. Then, based on the difference between the current position of the vehicle (1) calculated by the current position calculation unit (43) and the actual current position of the vehicle (1) calculated by the actual current position calculation unit (7), virtual travel is performed. The misalignment of the vehicle (1) with respect to the line (14) is corrected.

特開2017−117188号公報JP-A-2017-117188

上記のような車両を自動的に誘導するシステムでは、設定された走行経路に沿って車両を適切に走行させるために、車両の位置ずれを補正する必要があるが、車両の進行方位のずれも補正する必要性が高い。特に、車両が右左折等の進行方位の変更を行う場合に車両の進行方位の誤差が大きいと、車両が設定された走行経路から外れた経路を走行することになる可能性が高くなる。そうすると、車両が他の地物や他の車両等に接近して停止したり、車両が切り返しのために後進したりする必要が生じるなど、円滑な自動走行が妨げられる可能性が生じる。 In the above system that automatically guides the vehicle, it is necessary to correct the misalignment of the vehicle in order to properly drive the vehicle along the set travel route, but the deviation of the traveling direction of the vehicle is also present. There is a high need for correction. In particular, if the error in the traveling direction of the vehicle is large when the vehicle changes the traveling direction such as turning left or right, there is a high possibility that the vehicle will travel on a route deviating from the set traveling route. Then, there is a possibility that smooth automatic driving may be hindered, for example, the vehicle may stop approaching another feature or another vehicle, or the vehicle may need to move backward for turning back.

上記実状に鑑みて、駐車場内で車両の自動走行を行う場合において、駐車場内における車両の自動走行を円滑に行わせることが求められている。 In view of the above situation, when the vehicle is automatically driven in the parking lot, it is required that the vehicle is smoothly driven in the parking lot.

上記に鑑みた車両進行状態推定システムの特徴構成は、
駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定システムであって、
前記車両の進行方位を推定する推定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、を備え、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識部が、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定部は、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する点にある。
The characteristic configuration of the vehicle progress estimation system in view of the above is
It is a vehicle progress estimation system that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation unit that estimates the traveling direction of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information is provided.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition unit is included in the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
The estimation unit obtains the relative position of the target feature with respect to the vehicle as an actual relative position, and estimates the traveling direction of the vehicle based on the actual relative position and the feature information about the target feature. The point is to execute the pre-change of course estimation process.

また、上記に鑑みた、車両進行状態推定システムの技術的特徴は、車両進行状態推定方法や車両進行状態推定プログラムにも適用可能であり、そのため、本発明は、そのような方法やプログラムも権利の対象とすることができる。 Further, the technical features of the vehicle traveling state estimation system in view of the above can be applied to a vehicle traveling state estimation method and a vehicle traveling state estimation program. Therefore, the present invention is also entitled to such a method and program. Can be the target of.

その場合における、車両進行状態推定方法の特徴構成は、
駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定方法であって、
前記車両の進行方位を推定する推定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、を備え、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識ステップでは、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定ステップでは、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する点にある。
In that case, the characteristic configuration of the vehicle progress estimation method is
It is a vehicle progress estimation method that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation step for estimating the traveling direction of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing the recognition process of the feature included in the surrounding information is provided.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition step is included in the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
In the estimation step, the relative position of the target feature with respect to the vehicle is obtained as the actual relative position, and the traveling direction of the vehicle is estimated based on the actual relative position and the feature information about the target feature. The point is to execute the pre-change of course estimation process.

また、その場合における、車両進行状態推定プログラムの特徴構成は、
駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定プログラムであって、
前記車両の進行方位を推定する推定機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、をコンピュータに実現させ、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識機能では、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定機能では、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する点にある。
In that case, the characteristic configuration of the vehicle progress estimation program is
It is a vehicle progress estimation program that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation function that estimates the traveling direction of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A computer is realized with a recognition function that performs recognition processing of the feature included in the surrounding information.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition function includes the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
In the estimation function, the relative position of the target feature with respect to the vehicle is obtained as an actual relative position, and the traveling direction of the vehicle is estimated based on the actual relative position and the feature information about the target feature. The point is to execute the pre-change of course estimation process.

本構成によれば、進行方向の変更を開始すべき地点の手前の地点において車両の周辺情報を用いて認識処理を行い、当該車両の方位を推定する。そのため、車両が進行方向を変更する前に、車両の進行方位を適切に補正することができる。これにより、車両が進行方向の変更中に、設定された走行経路から外れる可能性を低減することができる。従って本構成によれば、設定された走行経路が車両の進行方向の変更を伴う経路である場合であっても、駐車場内における車両の自動走行を円滑に行わせることができる。 According to this configuration, recognition processing is performed using the peripheral information of the vehicle at a point before the point where the change of the traveling direction should be started, and the direction of the vehicle is estimated. Therefore, the traveling direction of the vehicle can be appropriately corrected before the vehicle changes the traveling direction. As a result, it is possible to reduce the possibility that the vehicle deviates from the set travel path while changing the traveling direction. Therefore, according to this configuration, even when the set traveling route is a route accompanied by a change in the traveling direction of the vehicle, the automatic traveling of the vehicle in the parking lot can be smoothly performed.

本開示に係る技術のさらなる特徴と利点は、図面を参照して記述する以下の例示的かつ非限定的な実施形態の説明によってより明確になるであろう。 Further features and advantages of the techniques according to the present disclosure will be further clarified by the following illustration of exemplary and non-limiting embodiments described with reference to the drawings.

車両進行状態推定システムが適用される駐車場の一例を示す図The figure which shows an example of the parking lot to which the vehicle progress estimation system is applied 車両進行状態推定システムのシステム構成を示すブロック図Block diagram showing the system configuration of the vehicle progress estimation system 車両が自動走行を行っている状態を示す平面図Plan view showing the state in which the vehicle is automatically traveling 絶対座標系における対象地物の絶対位置を示す説明図Explanatory diagram showing the absolute position of the target feature in the absolute coordinate system ローカル座標系における対象地物の実相対位置を示す説明図Explanatory diagram showing the actual relative position of the target feature in the local coordinate system 推定位置および推定進行方位の算出についての説明図Explanatory diagram for calculation of estimated position and estimated traveling direction 入庫処理又は出庫処理を実行する際の手順を示すフローチャートFlowchart showing the procedure when executing the warehousing process or the warehousing process 進路変更前推定処理を実行する際の手順を示すフローチャートFlowchart showing the procedure when executing the pre-course estimation process 第2実施形態において、対象地物が帯状標示である場合の説明図Explanatory drawing when the target feature is a band-shaped sign in the second embodiment 車両がT字路を自動走行する場合の説明図Explanatory drawing when the vehicle automatically travels on a T-junction 車両がカーブを自動走行する場合の説明図Explanatory drawing when the vehicle automatically travels on a curve 車両が対向車両とすれ違う場合の説明図Explanatory drawing when the vehicle passes the oncoming vehicle 車両が湾曲状の道路を自動走行する場合の説明図Explanatory drawing when the vehicle automatically travels on a curved road

〔第1実施形態〕
第1実施形態に係る車両進行状態推定システム(車両進行状態推定方法、車両進行状態推定プログラム)について、図面を参照して説明する。図1に示すように、この車両進行状態推定システム100は、駐車場1内において車両2の入庫及び出庫を自動で行う自動バレー駐車システムに適用される。
[First Embodiment]
The vehicle progress state estimation system (vehicle progress state estimation method, vehicle progress state estimation program) according to the first embodiment will be described with reference to the drawings. As shown in FIG. 1, the vehicle progress estimation system 100 is applied to an automatic valley parking system that automatically enters and exits the vehicle 2 in the parking lot 1.

〔自動バレー駐車システムの概要〕
まず、自動バレー駐車システムの概要について簡単に説明する。
[Overview of automatic valley parking system]
First, the outline of the automatic valley parking system will be briefly explained.

図1には、自動バレー駐車システムが適用される駐車場1の一例が示されている。駐車場1には、駐車枠線Lによって区画されて車両2の駐車場所となる駐車スペースP3と、駐車スペースP3へ入庫される入庫対象の車両2から乗員9が降車する降車スペースP1と、駐車スペースP3から出庫された出庫対象の車両2に乗員9が乗車する乗車スペースP2と、が設けられている。 FIG. 1 shows an example of a parking lot 1 to which an automatic valley parking system is applied. In the parking lot 1, a parking space P3, which is partitioned by a parking frame line L and serves as a parking place for the vehicle 2, a disembarkation space P1 in which the occupant 9 disembarks from the vehicle 2 to be stored in the parking space P3, and parking. There is provided a boarding space P2 on which the occupant 9 rides on the vehicle 2 to be delivered from the space P3.

入庫の際には、降車スペースP1において車両2から乗員9が降車した後、車両2は、入庫指示に応じて、降車スペースP1から空きの駐車スペースP3へ自動走行して当該駐車スペースP3において自動的に停車(駐車)する。出庫の際には、車両2は、出庫指示に応じて、駐車スペースP3から乗車スペースP2へ自動走行して当該乗車スペースP2において自動的に停車する。入庫指示および出庫指示は、例えば、乗員9による端末装置3の操作によって実現される。端末装置3は、乗員9が携帯している携帯端末であっても良いし、駐車場1に設置された固定端末であっても良い。 At the time of warehousing, after the occupant 9 disembarks from the vehicle 2 in the disembarkation space P1, the vehicle 2 automatically travels from the disembarkation space P1 to the empty parking space P3 in response to the warehousing instruction and automatically travels in the parking space P3. Stop (park). At the time of leaving the garage, the vehicle 2 automatically travels from the parking space P3 to the boarding space P2 and automatically stops at the boarding space P2 in response to the warehousing instruction. The warehousing instruction and the warehousing instruction are realized, for example, by the operation of the terminal device 3 by the occupant 9. The terminal device 3 may be a mobile terminal carried by the occupant 9, or may be a fixed terminal installed in the parking lot 1.

〔車両進行状態推定システムの構成〕
このような自動バレー駐車システムにおいて、車両2は、設定された走行経路Rに沿って自動走行する。そして、車両進行状態推定システム100は、駐車場1内において、当該走行経路Rに沿って設定された目的地Pに向かって自動走行する車両2の位置や進行方位を含む進行状態を推定する。本実施形態において「目的地P」とは、駐車場1を管理する管制装置10によって指定される場所である。入庫の際には、空きの駐車スペースP3(空きの駐車スペースP3が複数存在する場合には、それらのうち何れか)が目的地Pとして指定される。出庫の際には、乗車スペースP2が目的地Pとして指定される。例えば乗車スペースP2が使用中であって降車スペースP1が空いている場合には、当該降車スペースP1が出庫時の目的地Pとして指定されてもよい。なお、空きの駐車スペースP3が複数存在する場合には、これらのうち何れかを、乗員9が端末装置3の操作により指定するようにしてもよい。また、図1では、降車スペースP1及び乗車スペースP2が、それぞれ1つずつ設けられている例を示しているが、降車スペースP1及び乗車スペースP2のそれぞれが複数設けられていてもよい。この場合には、複数の降車スペースP1及び複数の乗車スペースP2の何れかが、出庫時における目的地Pとして指定されるようにしてもよい。或いは、同じ1つのスペースが、降車スペースP1と乗車スペースP2とで兼用されるようになっていても良い。
[Configuration of vehicle progress estimation system]
In such an automatic valley parking system, the vehicle 2 automatically travels along the set travel path R. Then, the vehicle progress state estimation system 100 estimates the progress state including the position and the direction of travel of the vehicle 2 that automatically travels toward the destination P set along the travel path R in the parking lot 1. In the present embodiment, the "destination P" is a place designated by the control device 10 that manages the parking lot 1. At the time of warehousing, an empty parking space P3 (if there are a plurality of empty parking spaces P3, any one of them) is designated as the destination P. At the time of delivery, the boarding space P2 is designated as the destination P. For example, when the boarding space P2 is in use and the disembarking space P1 is vacant, the disembarking space P1 may be designated as the destination P at the time of delivery. When there are a plurality of empty parking spaces P3, the occupant 9 may specify one of them by operating the terminal device 3. Further, although FIG. 1 shows an example in which one getting-off space P1 and one getting-on space P2 are provided, a plurality of each of the getting-off space P1 and the boarding space P2 may be provided. In this case, any one of the plurality of disembarkation spaces P1 and the plurality of boarding spaces P2 may be designated as the destination P at the time of delivery. Alternatively, the same one space may be shared by the getting-off space P1 and the boarding space P2.

尚、車両進行状態推定方法は、車両進行状態推定システム100を構成するハードウェアやソフトウェアを利用して、位置や方位を含む車両進行状態の推定を実行する方法である。また、車両進行状態推定プログラムは、例えば車両進行状態推定システム100に含まれるコンピュータにおいて実行され、車両進行状態推定機能を実現させるプログラムである。 The vehicle progress estimation method is a method of estimating the vehicle progress state including the position and the direction by using the hardware and software constituting the vehicle progress estimation system 100. Further, the vehicle progress state estimation program is, for example, a program executed by a computer included in the vehicle progress state estimation system 100 to realize a vehicle progress state estimation function.

図1〜図3に示すように、車両進行状態推定システム100(車両進行状態推定方法/車両進行状態推定プログラム)は、車両2の走行を制御する走行制御部21(走行制御ステップ/走行制御機能)と、車両2の位置及び進行方位を推定する推定部23(推定ステップ/推定機能)と、目的地Pまでの車両2の走行経路Rを設定する経路設定部13(経路設定ステップ/経路設定機能)と、駐車場1内に設けられた地物Oの絶対位置情報(位置情報)を含む地物情報を取得する地物情報取得部24(地物情報取得ステップ/地物情報取得機能)と、車両2に搭載されたカメラC(撮影装置)により撮影(検知)された車両2の周辺画像を取得する周辺画像取得部26(周辺画像取得ステップ/周辺画像取得機能)と、周辺画像中に含まれる地物Oの画像認識処理を行う画像認識部25(画像認識ステップ/画像認識機能)と、を備えている。ここで、カメラCは、周辺検知センサSAの一例である。同様に、周辺画像は周辺情報の一例であり、画像認識処理(画像認識ステップ/画像認識機能)は認識処理(認識ステップ/認識機能)の一例である。 As shown in FIGS. 1 to 3, the vehicle progress state estimation system 100 (vehicle progress state estimation method / vehicle progress state estimation program) has a travel control unit 21 (travel control step / travel control function) that controls the travel of the vehicle 2. ), An estimation unit 23 (estimation step / estimation function) that estimates the position and traveling direction of the vehicle 2, and a route setting unit 13 (route setting step / route setting) that sets the traveling route R of the vehicle 2 to the destination P. Function) and the feature information acquisition unit 24 (feature information acquisition step / feature information acquisition function) that acquires the feature information including the absolute position information (position information) of the feature O provided in the parking lot 1. And the peripheral image acquisition unit 26 (peripheral image acquisition step / peripheral image acquisition function) that acquires the peripheral image of the vehicle 2 photographed (detected) by the camera C (imaging device) mounted on the vehicle 2 and the peripheral image. It is provided with an image recognition unit 25 (image recognition step / image recognition function) that performs image recognition processing of the feature O included in the above. Here, the camera C is an example of the peripheral detection sensor SA. Similarly, the peripheral image is an example of peripheral information, and the image recognition process (image recognition step / image recognition function) is an example of recognition processing (recognition step / recognition function).

ここで、「地物Oの絶対位置情報」とは、駐車場1内における地物Oの絶対位置を示す情報をいう。「地物Oの絶対位置」とは、駐車場1内の地面に固定された固定座標上の位置である。この固定座標は、駐車場1内だけ或いは特定の地域だけに設定された座標でも良いし、緯度及び経度で表される地理座標であっても良い。本実施形態では、駐車場1内における任意の基準位置を原点として設定された座標系を絶対座標系(図4参照)として、地物Oの絶対位置を特定している。なお、地物Oには、駐車場1の周辺であって周辺検知センサSAによって検知可能な範囲に存在するものが含まれてもよい。 Here, the "absolute position information of the feature O" means information indicating the absolute position of the feature O in the parking lot 1. The "absolute position of the feature O" is a position on the fixed coordinates fixed to the ground in the parking lot 1. The fixed coordinates may be coordinates set only in the parking lot 1 or only in a specific area, or may be geographic coordinates represented by latitude and longitude. In the present embodiment, the absolute position of the feature O is specified by using the coordinate system set with an arbitrary reference position in the parking lot 1 as the origin as the absolute coordinate system (see FIG. 4). The feature O may include a feature around the parking lot 1 that exists in a range that can be detected by the peripheral detection sensor SA.

また、地物情報には、地物Oの絶対位置情報の他にも、地物Oの種類等の情報も含まれている。地物Oの種類には、立体地物や平面地物などが含まれる。立体地物としては、道路標識、案内板、縁石ブロック、ガードレール、フェンス、街灯、柱、壁などが含まれる。平面地物としては、道路標示、その他、地面に標示された標示物など、地面に設けられたペイント地物が含まれる。図3には、地物Oとして、駐車スペースP3を区画する駐車枠線Lと、複数の駐車スペースP3ごとに設けられて、1つの駐車スペースP3を区画する一対の駐車枠線Lの間に配置されるマーカMと、が例示されている。また、地物情報には、この他にも、地物Oの向きを示す方位情報、地物Oの形状を示す形状情報、地物Oの色彩を示す色彩情報、の少なくとも1つが含まれていても良い。 In addition to the absolute position information of the feature O, the feature information also includes information such as the type of the feature O. Types of feature O include three-dimensional features and flat features. Three-dimensional features include road signs, information boards, curb blocks, guardrails, fences, street lights, pillars, walls, and the like. Flat features include road markings and other painted features provided on the ground, such as markings on the ground. In FIG. 3, as a feature O, between a parking frame line L for partitioning a parking space P3 and a pair of parking frame lines L provided for each of a plurality of parking spaces P3 and partitioning one parking space P3. The marker M to be arranged is illustrated. In addition, the feature information includes at least one of directional information indicating the direction of the feature O, shape information indicating the shape of the feature O, and color information indicating the color of the feature O. You may.

本実施形態では、車両進行状態推定システム100は、駐車場1の全体を制御する管制装置10と、車両2を制御する車両制御装置20と、を備えている。管制装置10及び車両制御装置20のそれぞれは、プロセッサ(システムLSI、DSP(Digital Signal Processor)等)や、ECU(Electronic Control Unit)として構成された演算処理ユニットを含んで構成されている。 In the present embodiment, the vehicle progress estimation system 100 includes a control device 10 that controls the entire parking lot 1 and a vehicle control device 20 that controls the vehicle 2. Each of the control device 10 and the vehicle control device 20 includes a processor (system LSI, DSP (Digital Signal Processor), etc.) and an arithmetic processing unit configured as an ECU (Electronic Control Unit).

管制装置10は、駐車場1に設置されると共に、車両制御装置20と通信自在に構成されている。管制装置10は、駐車場1における駐車スペースP3の空き状況等を管理する駐車場管理部11と、駐車場1の地図情報や駐車場1内に設けられた地物Oの種類及びその絶対位置情報(絶対位置データ)等の地物情報を記憶するデータ記憶部12と、を備えている。本例では、上述の経路設定部13は、管制装置10に備えられている。但し、このような構成に限定されることなく、経路設定部13は、車両制御装置20に備えられていてもよい。 The control device 10 is installed in the parking lot 1 and is configured to be communicative with the vehicle control device 20. The control device 10 includes a parking lot management unit 11 that manages the availability of the parking space P3 in the parking lot 1, the map information of the parking lot 1, the type of the feature O provided in the parking lot 1, and its absolute position. It includes a data storage unit 12 for storing feature information such as information (absolute position data). In this example, the above-mentioned route setting unit 13 is provided in the control device 10. However, the route setting unit 13 may be provided in the vehicle control device 20 without being limited to such a configuration.

駐車場管理部11は、駐車スペースP3を撮影する撮影装置(不図示)や駐車スペースP3における車両2の有無を検出するセンサ(不図示)などによって、駐車スペースP3の空き状況を管理する。また、駐車場管理部11は、入庫指示の対象となっている車両2および出庫指示の対象となっている車両2を特定する情報、例えば各車両2の識別情報や位置情報等を管理する。 The parking lot management unit 11 manages the availability of the parking space P3 by a photographing device (not shown) for photographing the parking space P3 and a sensor (not shown) for detecting the presence or absence of the vehicle 2 in the parking space P3. In addition, the parking lot management unit 11 manages information that identifies the vehicle 2 that is the target of the warehousing instruction and the vehicle 2 that is the target of the warehousing instruction, for example, identification information and position information of each vehicle 2.

データ記憶部12は、地物Oの絶対位置および地物Oの種類等の情報を含む地物情報を記憶している。データ記憶部12は、例えば、揮発性の主記憶装置や不揮発性の補助記憶装置等を含んで構成されている。 The data storage unit 12 stores feature information including information such as the absolute position of the feature O and the type of the feature O. The data storage unit 12 includes, for example, a volatile main storage device, a non-volatile auxiliary storage device, and the like.

経路設定部13は、目的地Pまでの車両2の走行経路Rを設定する。経路設定部13は、入庫指示があった場合には、入庫指示の対象となっている車両2が停まっている降車スペースP1から入庫先として指定された駐車スペースP3までの走行経路Rを設定する。経路設定部13は、出庫指示があった場合には、出庫指示の対象となっている車両2(駐車車両)が駐車している駐車スペースP3から乗車スペースP2までの走行経路Rを設定する。経路設定部13によって設定される走行経路Rは、例えば図1に示すように、車両2の進行方向の変更を伴う経路となる場合がある。換言すれば、走行経路Rは、直進走行のみでは目的地Pにたどり着けない経路となる場合がある。ここでは、経路設定部13により設定された走行経路Rが、車両2の進行方向の変更を伴う経路である場合に、車両2が進行方向の変更を開始すべき地点の手前の地点を対象地点Tとする。車両2が直進走行する場合を除き、十字路及びT字路の手前の地点が対象地点Tとなり、或いは、カーブの手前の地点が対象地点Tとなる。なお、「車両が進行方向の変更を開始すべき地点の手前の地点」とは、当該開始すべき地点から規定距離内の地点、例えば、数メートル以内の地点であり、或いは、車両が当該開始すべき地点に進入する規定時間前の地点、例えば、数秒前の地点である。また、「車両の進行方向の変更」は、車両の走行中にステアリング舵角が規定値以上の状態に移行することにより実行される。ステアリング舵角は、車輪の角度に比例しており、車輪の角度が車両の直進状態を基準として例えば10°以上傾いた状態が、ステアリング舵角が規定値以上の状態となる。 The route setting unit 13 sets the travel route R of the vehicle 2 to the destination P. When the warehousing instruction is given, the route setting unit 13 sets the traveling route R from the disembarkation space P1 where the vehicle 2 subject to the warehousing instruction is parked to the parking space P3 designated as the warehousing destination. To do. When the exit instruction is given, the route setting unit 13 sets the travel route R from the parking space P3 to the boarding space P2 in which the vehicle 2 (parked vehicle) subject to the exit instruction is parked. The traveling route R set by the route setting unit 13 may be a route accompanied by a change in the traveling direction of the vehicle 2, for example, as shown in FIG. In other words, the travel route R may be a route that cannot reach the destination P only by traveling straight ahead. Here, when the traveling route R set by the route setting unit 13 is a route that involves changing the traveling direction of the vehicle 2, the target point is a point before the point where the vehicle 2 should start changing the traveling direction. Let T be. Except when the vehicle 2 travels straight, the point before the crossroads and the T-junction is the target point T, or the point before the curve is the target point T. The "point before the point where the vehicle should start changing the direction of travel" is a point within a specified distance from the point where the vehicle should start, for example, a point within a few meters, or the vehicle starts the change. A point before the specified time to enter the point to be reached, for example, a point several seconds before. Further, the "change of the traveling direction of the vehicle" is executed by shifting the steering steering angle to a state of the specified value or more while the vehicle is traveling. The steering angle is proportional to the angle of the wheels, and when the angle of the wheels is tilted by, for example, 10 ° or more with respect to the straight traveling state of the vehicle, the steering angle is equal to or more than the specified value.

車両制御装置20は、車両2に設置されると共に、管制装置10と通信自在に構成されている。車両制御装置20は、自車の位置に関する自車位置情報を取得する自車位置情報取得部22を備えている。本例では、上述の走行制御部21、推定部23、地物情報取得部24、周辺画像取得部26、及び画像認識部25は、車両制御装置20に備えられている。 The vehicle control device 20 is installed in the vehicle 2 and is configured to be communicative with the control device 10. The vehicle control device 20 includes a vehicle position information acquisition unit 22 that acquires vehicle position information regarding the position of the vehicle. In this example, the above-mentioned travel control unit 21, estimation unit 23, feature information acquisition unit 24, peripheral image acquisition unit 26, and image recognition unit 25 are provided in the vehicle control device 20.

走行制御部21は、各種センサ(不図示)による検出結果に基づいて車両2の走行、操舵、変速、及び停止などを制御する。走行制御部21は、経路設定部13から取得した目的地Pまでの走行経路Rの情報と、自車位置情報取得部22により取得した自車位置情報と、カメラCにより撮影された周辺画像情報とに基づいて、目的地Pに到着するまでの間、車両2の動作を制御する。 The travel control unit 21 controls traveling, steering, shifting, stopping, and the like of the vehicle 2 based on the detection results of various sensors (not shown). The travel control unit 21 includes information on the travel route R to the destination P acquired from the route setting unit 13, the vehicle position information acquired by the vehicle position information acquisition unit 22, and peripheral image information captured by the camera C. Based on the above, the operation of the vehicle 2 is controlled until the destination P is reached.

自車位置情報取得部22は、車両2に搭載されたGPS受信機G、方位センサS1(例えば車両2の旋回角度を検出するジャイロセンサ)、及び回転センサS2(例えば車輪の回転速度を検出する車輪速センサ)等を用いて、自車位置情報を取得する。 The own vehicle position information acquisition unit 22 detects the GPS receiver G mounted on the vehicle 2, the orientation sensor S1 (for example, a gyro sensor that detects the turning angle of the vehicle 2), and the rotation sensor S2 (for example, the rotation speed of the wheels). Use a wheel speed sensor) or the like to acquire vehicle position information.

地物情報取得部24は、管制装置10のデータ記憶部12から地物情報を取得する。上述のように、地物情報には、地物Oの絶対位置情報及び地物Oの種類情報等が含まれている。 The feature information acquisition unit 24 acquires feature information from the data storage unit 12 of the control device 10. As described above, the feature information includes the absolute position information of the feature O, the type information of the feature O, and the like.

周辺画像取得部26は、車両2に搭載されたカメラCにより撮影された車両2の周辺画像を取得する。図3に示すように、本実施形態では、車両2の進行方向を基準として、当該車両2の左側周辺および右側周辺が、カメラCによって撮影される。図3において仮想線(二点鎖線)で示されるエリアは、カメラCの撮影エリアCAである。本実施形態では、カメラCは、車両2の側方を撮影するサイドカメラである。車両2には、前方を撮影するフロントカメラや後方を撮影するバックカメラ等も搭載されている場合があり、これらをカメラCとして利用してもよい。 The peripheral image acquisition unit 26 acquires a peripheral image of the vehicle 2 taken by the camera C mounted on the vehicle 2. As shown in FIG. 3, in the present embodiment, the left side periphery and the right side periphery of the vehicle 2 are photographed by the camera C with reference to the traveling direction of the vehicle 2. The area indicated by the virtual line (dashed-dotted line) in FIG. 3 is the shooting area CA of the camera C. In the present embodiment, the camera C is a side camera that photographs the side of the vehicle 2. The vehicle 2 may also be equipped with a front camera for photographing the front, a back camera for photographing the rear, and the like, and these may be used as the camera C.

画像認識部25は、周辺画像取得部26が取得した周辺画像から、当該周辺画像中に含まれる地物Oの画像認識処理を行う。そして、画像認識部25は、認識した地物Oの周辺画像中における位置の認識も行う。後述するように、周辺画像中における地物Oの位置に基づいて、車両2と地物Oとの相対位置を求めることができる。また、画像認識部25は、画像認識処理によって、周辺画像中に含まれる地物Oの種類を判別する。 The image recognition unit 25 performs image recognition processing of the feature O included in the peripheral image from the peripheral image acquired by the peripheral image acquisition unit 26. Then, the image recognition unit 25 also recognizes the position of the recognized feature O in the peripheral image. As will be described later, the relative position between the vehicle 2 and the feature O can be obtained based on the position of the feature O in the peripheral image. In addition, the image recognition unit 25 determines the type of the feature O included in the peripheral image by the image recognition process.

推定部23は、車両2が目的地Pまで自動走行する間、当該車両2の位置及び進行方位のうち少なくとも進行方位を推定する推定処理を行う。本例では、推定部23は、車両2の位置及び進行方位の双方を推定する。図5及び図6に示すように、本実施形態では、平面視における車両2の中心位置等、規定の位置を自車基準点2fとし、当該自車基準点2fを「車両2の位置」とする。また、車両2から前方に向かう方位(方向)を「車両2の進行方位」とする。より具体的には、車両2の車体の前後方向に沿って前方に向かう方向を「車両2の進行方位」とする。 While the vehicle 2 automatically travels to the destination P, the estimation unit 23 performs an estimation process for estimating at least the traveling direction among the position and the traveling direction of the vehicle 2. In this example, the estimation unit 23 estimates both the position and the traveling direction of the vehicle 2. As shown in FIGS. 5 and 6, in the present embodiment, the specified position such as the center position of the vehicle 2 in the plan view is set as the own vehicle reference point 2f, and the own vehicle reference point 2f is referred to as the “vehicle 2 position”. To do. Further, the direction (direction) toward the front from the vehicle 2 is defined as the "traveling direction of the vehicle 2". More specifically, the direction toward the front along the front-rear direction of the vehicle body of the vehicle 2 is defined as the "traveling direction of the vehicle 2."

「車両2の位置」は、車両2を基準とし自車基準点2fを原点として定められたローカル座標系においては、(0,0)となる(図5参照)。また、駐車場1における任意の基準点を原点として定められた絶対座標系における「車両2の位置」を(Xf,Yf)とする(図6参照)。図6中の(Xf,Yf)は、推定部23によって推定処理が実行された後の車両2の位置を示し、以下では、これを推定位置(Xf,Yf)と称することがある。 The "position of the vehicle 2" is (0,0) in the local coordinate system determined with the vehicle 2 as the reference and the own vehicle reference point 2f as the origin (see FIG. 5). Further, the "position of the vehicle 2" in the absolute coordinate system determined with an arbitrary reference point in the parking lot 1 as the origin is set to (Xf, Yf) (see FIG. 6). (Xf, Yf) in FIG. 6 indicates the position of the vehicle 2 after the estimation process is executed by the estimation unit 23, and hereinafter, this may be referred to as an estimated position (Xf, Yf).

本実施形態では、「車両2の進行方位」は、ローカル座標系においては、Y´軸に沿う方向であり、X´軸を基準とすると、「90°」となる(図5参照)。また、「車両2の進行方位」は、絶対座標系においては、後述する実相対方位θfに90°を加算して算出された値であり(θf+90°)、図6中において「θa」で示されている。図6中の「θa」は、推定部23によって推定処理が実行された後の車両2の進行方位を示し、以下では、これを推定進行方位θaと称することがある。なお、本明細書においては、方位は、平面視(X−Y座標)での角度と同義であるものとし、方位を角度によって表現するものとする。 In the present embodiment, the "traveling direction of the vehicle 2" is the direction along the Y'axis in the local coordinate system, and is "90 °" with respect to the X'axis (see FIG. 5). Further, the "traveling direction of the vehicle 2" is a value calculated by adding 90 ° to the actual relative direction θf described later in the absolute coordinate system (θf + 90 °), and is indicated by “θa” in FIG. Has been done. “Θa” in FIG. 6 indicates the traveling direction of the vehicle 2 after the estimation process is executed by the estimation unit 23, and hereinafter, this may be referred to as the estimated traveling direction θa. In addition, in this specification, a direction is assumed to be synonymous with an angle in a plan view (XY coordinates), and the direction is expressed by an angle.

ここで、このような自動バレー駐車システムにおいて、経路設定部13によって設定される走行経路Rは、上述のように、車両2の進行方向の変更を伴う経路となる場合がある。車両2が右左折等の進行方位の変更を行う場合に、車両2の位置や進行方位の誤差、特に進行方位の誤差が大きいと、車両2が走行経路Rから外れた経路を走行することになる可能性が高くなる。そうすると、車両が他の地物や他の車両等に接近して停止したり、車両が切り返しのために後進したりする必要が生じるなど、円滑な自動走行が妨げられる可能性が生じる。 Here, in such an automatic valley parking system, the traveling route R set by the route setting unit 13 may be a route accompanied by a change in the traveling direction of the vehicle 2 as described above. When the vehicle 2 changes the traveling direction such as turning left or right, if the error in the position and the traveling direction of the vehicle 2, especially the error in the traveling direction is large, the vehicle 2 travels on a route deviating from the traveling route R. Is more likely to be. Then, there is a possibility that smooth automatic driving may be hindered, for example, the vehicle may stop approaching another feature or another vehicle, or the vehicle may need to move backward for turning back.

そこで、この車両進行状態推定システム100においては、画像認識部25が、車両2が進行方向の変更を開始すべき地点の手前の地点である対象地点Tにおいて撮影された周辺画像中に含まれる地物Oを対象地物OTとして認識する。そして、図4〜図6に示すように、推定部23は、車両2に対する対象地物OTの相対位置を実相対位置(X´,Y´)として求めると共に、当該実相対位置(X´,Y´)と対象地物OTについての地物情報とに基づいて、車両2の位置(Xf,Yf)及び進行方位θaを推定する進路変更前推定処理を実行する。すなわち本実施形態では、推定部23は、進路変更前推定処理において、実相対位置(X´,Y´)と対象地物OTについての地物情報とに基づいて、車両2の進行方位θaに加えて、車両2の位置(Xf,Yf)を推定する。なお、対象地点Tにおける周辺画像の撮影は、車両2が走行中に行っても良いし、車両2が一時停止中に行っても良い。前者の場合、走行制御部21は、対象地点Tにおいて車両2を停止させることなく走行経路Rに沿って走行させる。後者の場合、走行制御部21は、対象地点Tにおいて車両2を一時停止させる。 Therefore, in the vehicle progress estimation system 100, the image recognition unit 25 includes the ground included in the peripheral image taken at the target point T, which is a point before the point where the vehicle 2 should start changing the traveling direction. The object O is recognized as the target feature OT. Then, as shown in FIGS. 4 to 6, the estimation unit 23 obtains the relative position of the target feature OT with respect to the vehicle 2 as the actual relative position (X', Y'), and the actual relative position (X', Y', Based on Y') and the feature information about the target feature OT, the pre-course estimation process for estimating the position (Xf, Yf) and the traveling direction θa of the vehicle 2 is executed. That is, in the present embodiment, the estimation unit 23 sets the traveling direction θa of the vehicle 2 based on the actual relative position (X', Y') and the feature information about the target feature OT in the pre-course change estimation process. In addition, the positions (Xf, Yf) of the vehicle 2 are estimated. The peripheral image taken at the target point T may be taken while the vehicle 2 is running, or may be taken while the vehicle 2 is temporarily stopped. In the former case, the travel control unit 21 travels along the travel path R without stopping the vehicle 2 at the target point T. In the latter case, the travel control unit 21 suspends the vehicle 2 at the target point T.

このような車両進行状態推定システム100によれば、進行方向の変更を開始すべき地点の手前の地点において車両2の周辺画像を用いて画像認識処理を行い、当該車両2の方位を推定するため、車両2が進行方向を変更する前に、車両2の進行方位θaを適切に補正することができる。これにより、車両2の進行方向の変更を、設定された走行経路Rから外れる可能性を低減することができる。また、本実施形態では、車両2の進行方位θaに加えて位置(Xf,Yf)を推定するため、車両2が進行方向を変更する直前において、車両2の位置(Xf,Yf)についても適切に補正することができる。従って、設定された走行経路Rが車両2の進行方向の変更を伴う経路である場合であっても、駐車場1内における車両2の自動走行を円滑に行わせることができる。 According to such a vehicle traveling state estimation system 100, in order to perform image recognition processing using the peripheral image of the vehicle 2 at a point before the point where the change of the traveling direction should be started, and to estimate the direction of the vehicle 2. , The traveling direction θa of the vehicle 2 can be appropriately corrected before the vehicle 2 changes the traveling direction. As a result, it is possible to reduce the possibility that the change in the traveling direction of the vehicle 2 deviates from the set travel path R. Further, in the present embodiment, since the position (Xf, Yf) is estimated in addition to the traveling direction θa of the vehicle 2, the position (Xf, Yf) of the vehicle 2 is also appropriate immediately before the vehicle 2 changes the traveling direction. Can be corrected to. Therefore, even when the set traveling route R is a route that involves changing the traveling direction of the vehicle 2, the automatic traveling of the vehicle 2 in the parking lot 1 can be smoothly performed.

本実施形態では、経路設定部13により設定された走行経路Rが、車両2の進行方向の変更を伴わない経路である場合には、走行制御部21は、目的地Pに到着するまで車両2を一時停止させることなく走行させる場合も有り得る。但し、通常は、少なくとも目的地Pとしての駐車スペースP3や乗車スペースP2等への車両2の進入前には、一時停止が行われる。また、他の走行中車両等との接触を避けるための一時停止等、進行方向の変更とは関係なく一時停止が行われる場合もある。これらの一時停止中にも、周辺画像中に含まれる地物Oを対象地物OTとして認識し、それに基づく車両2の位置(Xf,Yf)および進行方位θaの推定処理を実行してもよい。 In the present embodiment, when the travel route R set by the route setting unit 13 is a route that does not involve a change in the traveling direction of the vehicle 2, the travel control unit 21 determines the vehicle 2 until it arrives at the destination P. It is possible that the vehicle will run without pausing. However, normally, a temporary stop is performed at least before the vehicle 2 enters the parking space P3 or the boarding space P2 as the destination P. In addition, the suspension may be performed regardless of the change in the traveling direction, such as a suspension to avoid contact with other traveling vehicles. Even during these pauses, the feature O included in the peripheral image may be recognized as the target feature OT, and the position (Xf, Yf) of the vehicle 2 and the traveling direction θa may be estimated based on the feature O. ..

本実施形態では、推定部23は、対象地物OTについての位置情報(地物情報)に示される対象地物OTの絶対位置(X,Y)に対して、実相対位置(X´,Y´)に示される位置関係となる位置及び方位を、車両2の位置(Xf,Yf)及び進行方位θaとして推定するように、進路変更前推定処理を実行する。換言すれば、推定部23は、対象地物OTの絶対位置(X,Y)と実相対位置(X´,Y´)とに基づいて、車両2の位置(Xf,Yf)及び進行方位θaを推定する。 In the present embodiment, the estimation unit 23 has an actual relative position (X', Y) with respect to the absolute position (X, Y) of the target feature OT shown in the position information (feature information) about the target feature OT. The pre-course change estimation process is executed so that the positions and directions having the positional relationship shown in') are estimated as the positions (Xf, Yf) and the traveling direction θa of the vehicle 2. In other words, the estimation unit 23 determines the position (Xf, Yf) and the traveling direction θa of the vehicle 2 based on the absolute position (X, Y) and the actual relative position (X', Y') of the target feature OT. To estimate.

本実施形態では、画像認識部25は、複数の地物Oを対象地物OTとして認識し、推定部23は、複数の対象地物OTのそれぞれについての実相対位置(X´,Y´)と絶対位置(X,Y)とに基づいて、進路変更前推定処理を実行する。図3に示す例では、車両2が対象地点Tにある状態おいて、一対の対象地物OTが、車両2の走行経路Rを挟んで両側に分かれて配置されている。以下では、当該一対の対象地物OTのうち走行経路Rを挟んで一方側(図中左側)に配置されるものを第1対象地物OT1、他方側(図中右側)に配置されるものを第2対象地物OT2として、これら一対の対象地物OTを対象として実行する進路変更前推定処理について説明する。 In the present embodiment, the image recognition unit 25 recognizes the plurality of feature O as the target feature OT, and the estimation unit 23 recognizes the actual relative positions (X', Y') for each of the plurality of target feature OTs. And the absolute position (X, Y), the pre-course estimation process is executed. In the example shown in FIG. 3, a pair of target feature OTs are arranged on both sides of the travel path R of the vehicle 2 while the vehicle 2 is at the target point T. In the following, among the pair of target feature OTs, those arranged on one side (left side in the figure) across the travel path R are arranged on the first target feature OT1 and on the other side (right side in the figure). Is the second target feature OT2, and the pre-change course estimation process executed for these pair of target feature OTs will be described.

〔進路変更前推定処理〕
図4〜図6を参照して、進路変更前推定処理について説明する。図4は、絶対座標系における対象地物OTの絶対位置(X,Y)を示している。図5は、車両2を基準としたローカル座標系における車両2に対する対象地物OTの実相対位置(X´,Y´)を示している。図6は、ローカル座標系において求められた対象地物OTの実相対位置(X´,Y´)を絶対座標系に当てはめて、車両2の推定位置(Xf,Yf)および推定進行方位θaを演算する場合の説明図である。
[Estimation processing before changing course]
The pre-change course estimation process will be described with reference to FIGS. 4 to 6. FIG. 4 shows the absolute positions (X, Y) of the target feature OT in the absolute coordinate system. FIG. 5 shows the actual relative positions (X', Y') of the target feature OT with respect to the vehicle 2 in the local coordinate system with respect to the vehicle 2. In FIG. 6, the actual relative position (X', Y') of the target feature OT obtained in the local coordinate system is applied to the absolute coordinate system, and the estimated position (Xf, Yf) and the estimated traveling direction θa of the vehicle 2 are obtained. It is explanatory drawing in the case of calculation.

進路変更前推定処理では、図3に示すように、車両2が対象地点Tにある場合に、画像認識部25により認識された対象地物OT(第1対象地物OT1及び第2対象地物OT2)についての、図4に示されるような絶対位置(X,Y)の情報を取得する。この絶対位置(X,Y)の情報は、データ記憶部12から取得することができる。図示の例では、第1対象地物OT1の絶対位置が、(X1,Y1)となっており、第2対象地物OT2の絶対位置が、(X2,Y2)となっている。なおここでは、図示するように、対象地物OTの中心位置等、規定の位置を基準位置として、当該対象地物OTの位置を特定するものとする。 In the pre-course change estimation process, as shown in FIG. 3, when the vehicle 2 is at the target point T, the target feature OT recognized by the image recognition unit 25 (first target feature OT1 and second target feature). The absolute position (X, Y) information as shown in FIG. 4 for OT2) is acquired. The information of the absolute position (X, Y) can be acquired from the data storage unit 12. In the illustrated example, the absolute position of the first target feature OT1 is (X1, Y1), and the absolute position of the second target feature OT2 is (X2, Y2). Here, as shown in the figure, the position of the target feature OT is specified by using a specified position such as the center position of the target feature OT as a reference position.

図5に示すように、進路変更前推定処理では、車両2が対象地点Tにある場合に、画像認識部25により認識された対象地物OT(第1対象地物OT1及び第2対象地物OT2)の実相対位置(X´,Y´)を求める。この実相対位置(X´,Y´)は、カメラCにより撮影された車両2の周辺画像に基づいて求めることができる。具体的には、カメラCの撮影方向及び画角に基づいて、周辺画像中の位置(周辺画像中の各画素の位置)とカメラCとの位置関係とは一義的に定まる。従って、対象地物OTの画像中での位置に基づいて、車両2と対象地物OTとの実相対位置(X´,Y´)を求めることができる。本実施形態では、進路変更前推定処理では、車両2を基準として定められたローカル座標系において(図5参照)、自車基準点2fに対する対象地物OTの、X´軸方向における位置とY´軸方向における位置とを求める。ローカル座標系におけるX´軸は、車両2の横幅方向に沿って配置されており、Y´軸は、車両2の前後方向に沿って配置されている。 As shown in FIG. 5, in the pre-course change estimation process, when the vehicle 2 is at the target point T, the target feature OT recognized by the image recognition unit 25 (first target feature OT1 and second target feature). The actual relative position (X', Y') of OT2) is obtained. This actual relative position (X', Y') can be obtained based on the peripheral image of the vehicle 2 taken by the camera C. Specifically, the positional relationship between the position in the peripheral image (the position of each pixel in the peripheral image) and the camera C is uniquely determined based on the shooting direction and the angle of view of the camera C. Therefore, the actual relative position (X', Y') between the vehicle 2 and the target feature OT can be obtained based on the position of the target feature OT in the image. In the present embodiment, in the pre-change course estimation process, the position and Y of the target feature OT with respect to the own vehicle reference point 2f in the X'axis direction in the local coordinate system determined with respect to the vehicle 2 (see FIG. 5). ´ Find the position in the axial direction. The X'axis in the local coordinate system is arranged along the width direction of the vehicle 2, and the Y'axis is arranged along the front-rear direction of the vehicle 2.

図示の例では、第1対象地物OT1は、自車基準点2fからX´軸方向にX´1離れた位置に配置され、Y´軸方向にY´1離れた位置に配置されている。すなわち、第1対象地物OT1のローカル座標系における位置が、(X´1,Y´1)となっている。また、第2対象地物OT2は、自車基準点2fからX´軸方向にX´2離れた位置に配置され、Y´軸方向にY´2離れた位置に配置されている。すなわち、第2対象地物OT2のローカル座標系における位置が、(X´2,Y´2)となっている。 In the illustrated example, the first target feature OT1 is arranged at a position X'1 away from the vehicle reference point 2f in the X'axis direction and Y'1 away in the Y'axis direction. .. That is, the position of the first target feature OT1 in the local coordinate system is (X'1, Y'1). Further, the second target feature OT2 is arranged at a position X'2 away from the own vehicle reference point 2f in the X'axis direction, and is arranged at a position Y'2 away in the Y'axis direction. That is, the position of the second target feature OT2 in the local coordinate system is (X'2, Y'2).

〔推定進行方位の算出〕
図6に示すように、進路変更前推定処理では、一対の対象地物OT(第1対象地物OT1及び第2対象地物OT2)に基づいて、絶対座標系における基準方位となる絶対方位θ0を算出する。本例では、走行経路Rを挟んで互いに両側に分かれて配置された第1対象地物OT1と第2対象地物OT2とを結ぶ線の延在方位が、絶対方位θ0となる。但し、絶対方位θ0の算出は、走行経路Rの一方側のみに配置された複数の対象地物OTに基づいて算出してもよい。また、1つの対象地物OTが絶対方位θ0を示す絶対方位情報を有していてもよい。この場合には、絶対方位θ0を示す絶対方位情報はデータ記憶部12に記憶され、進路変更前推定処理では、当該絶対方位情報をデータ記憶部12から取得するようにしてもよい。
[Calculation of estimated traveling direction]
As shown in FIG. 6, in the pre-change course estimation process, the absolute bearing θ0, which is the reference orientation in the absolute coordinate system, is based on the pair of target feature OTs (first target feature OT1 and second target feature OT2). Is calculated. In this example, the extending direction of the line connecting the first target feature OT1 and the second target feature OT2, which are arranged on both sides of the traveling path R, is the absolute direction θ0. However, the absolute bearing θ0 may be calculated based on a plurality of target feature OTs arranged only on one side of the traveling path R. Further, one target feature OT may have absolute bearing information indicating an absolute bearing θ0. In this case, the absolute azimuth information indicating the absolute azimuth θ0 may be stored in the data storage unit 12, and the absolute azimuth information may be acquired from the data storage unit 12 in the pre-course change estimation process.

次に、進路変更前推定処理では、絶対方位θ0に対する車両2の実相対方位θfを求める。換言すれば、絶対方位θ0に対する車両2の傾き角を求める。図5に示すように、第1対象地物OT1の実相対位置(X´1,Y´1)および第2対象地物OT2の実相対位置(X´2,Y´2)は既知である。そのため、図6に示すように、第1対象地物OT1と車両2(自車基準点2f)との、車両幅方向の距離(X´1)および車両前後方向の距離(Y´1)も既知である。また、第2対象地物OT2と車両2(自車基準点2f)との、車両幅方向の距離(X´2)および車両前後方向の距離(Y´2)も既知である。すなわち、図6に示すように、実相対方位θfは、“(Y´1−Y´2の絶対値)/(X´1+X´2)”のアークタンジェントとして算出することができる。そして、進路変更前推定処理では、実相対方位θfに90°を加算することにより、車両2の実際の進行方位の推定値である推定進行方位θaを算出することができる(θa=θf+90°)。 Next, in the pre-course change estimation process, the actual relative bearing θf of the vehicle 2 with respect to the absolute bearing θ0 is obtained. In other words, the tilt angle of the vehicle 2 with respect to the absolute bearing θ0 is obtained. As shown in FIG. 5, the actual relative positions (X'1, Y'1) of the first target feature OT1 and the actual relative positions (X'2, Y'2) of the second target feature OT2 are known. .. Therefore, as shown in FIG. 6, the distance (X'1) in the vehicle width direction and the distance (Y'1) in the vehicle front-rear direction between the first target feature OT1 and the vehicle 2 (own vehicle reference point 2f) are also It is known. Further, the distance (X'2) in the vehicle width direction and the distance (Y'2) in the vehicle front-rear direction between the second target feature OT2 and the vehicle 2 (own vehicle reference point 2f) are also known. That is, as shown in FIG. 6, the real relative bearing θf can be calculated as an arc tangent of “(absolute value of Y′1-Y′2) / (X′1 + X′2)”. Then, in the pre-course estimation process, the estimated traveling direction θa, which is an estimated value of the actual traveling direction of the vehicle 2, can be calculated by adding 90 ° to the actual relative direction θf (θa = θf + 90 °). ..

〔推定位置の算出〕
図6に示すように、進路変更前推定処理では、車両2に対する対象地物OT(第1対象地物OT1又は第2対象地物OT2)の実相対位置(X´,Y´)と、実相対方位θfと、対象地物OT(第1対象地物OT1又は第2対象地物OT2)の絶対位置(X,Y)と、に基づいて、車両2の推定位置(Xf,Yf)を算出する。進路変更前推定処理では、例えば、第1対象地物OT1の実相対位置(X´1,Y´1)と、実相対方位θfと、第1対象地物OT1の絶対位置(X1,Y1)とに基づいて、推定位置(Xf,Yf)を算出する。この推定位置(Xf,Yf)の算出は、第2対象地物OT2の実相対位置(X´2,Y´2)と実相対方位θfと第2対象地物OT2)の絶対位置(X2,Y2)とに基づいても行うことができる。
[Calculation of estimated position]
As shown in FIG. 6, in the pre-course change estimation process, the actual relative positions (X', Y') of the target feature OT (first target feature OT1 or second target feature OT2) with respect to the vehicle 2 and the actual position (X', Y'). The estimated position (Xf, Yf) of the vehicle 2 is calculated based on the relative orientation θf and the absolute position (X, Y) of the target feature OT (first target feature OT1 or second target feature OT2). To do. In the pre-change course estimation process, for example, the actual relative position (X'1, Y'1) of the first target feature OT1, the actual relative orientation θf, and the absolute position of the first target feature OT1 (X1, Y1). Based on the above, the estimated position (Xf, Yf) is calculated. The calculation of this estimated position (Xf, Yf) is performed by the absolute position (X2, Yf) of the actual relative position (X'2, Y'2) of the second target feature OT2, the actual relative orientation θf, and the second target feature OT2. It can also be performed based on Y2).

以上のようにして、車両進行状態推定システム100は、進路変更前推定処理を実行する。このような進路変更前推定処理を実行することにより、設定された走行経路Rが車両2の進行方向の変更を伴う経路である場合であっても、駐車場1内における車両2の自動走行を円滑に行わせることができる。 As described above, the vehicle progress estimation system 100 executes the pre-course estimation process. By executing such a pre-change course estimation process, even if the set travel route R is a route that involves a change in the traveling direction of the vehicle 2, the vehicle 2 can automatically travel in the parking lot 1. It can be done smoothly.

〔通常推定処理〕
本実施形態では、車両進行状態推定システム100は、対象地点Tにおいて実行する進路変更前推定処理に加えて、対象地点T以外の地点において通常推定処理を実行する。
[Normal estimation processing]
In the present embodiment, the vehicle progress estimation system 100 executes a normal estimation process at a point other than the target point T in addition to the pre-course estimation process executed at the target point T.

この場合、車両進行状態推定システム100においては、画像認識部25は、対象地点T以外の地点において撮影された周辺画像中に含まれる地物Oを副対象地物Osとして認識する。そして、推定部23は、車両2に対する副対象地物Osの相対位置を副相対位置として求めると共に、当該副相対位置と地物Oについての地物情報とに基づいて、車両2の進行方位を推定することなく車両2の位置を推定する通常推定処理を実行する。これにより、対象地点T以外の地点では、周辺画像の画像認識結果に基づく進行方位の推定を行わず、位置の推定のみを行うことで、車両2の自動走行を円滑に行わせつつ、車両進行状態推定システム100の処理負担を軽減することができる。なお、対象地点T以外の地点においても、自車位置情報取得部22が方位センサS1から取得した情報等に基づく車両2の進行方位の推定は行われる。 In this case, in the vehicle progress estimation system 100, the image recognition unit 25 recognizes the feature O included in the peripheral image taken at a point other than the target point T as the sub-target feature Os. Then, the estimation unit 23 obtains the relative position of the sub-target feature Os with respect to the vehicle 2 as the sub-relative position, and determines the traveling direction of the vehicle 2 based on the sub-relative position and the feature information about the feature O. A normal estimation process for estimating the position of the vehicle 2 without estimating is executed. As a result, at points other than the target point T, the traveling direction is not estimated based on the image recognition result of the peripheral image, but only the position is estimated, so that the vehicle 2 can travel smoothly while the vehicle advances. The processing load of the state estimation system 100 can be reduced. Even at points other than the target point T, the traveling direction of the vehicle 2 is estimated based on the information acquired from the direction sensor S1 by the own vehicle position information acquisition unit 22.

〔入庫処理/出庫処理〕
次に、図7及び図8に基づいて、入庫処理又は出庫処理を実行する際の手順について説明する。なお、入庫処理は入庫指示があった場合に開始され、出庫処理は出庫指示があった場合に開始される。入庫指示及び出庫指示は、例えば、乗員9による端末装置3の操作によって行われる(図1参照)。
[Receiving / issuing processing]
Next, a procedure for executing the warehousing process or the warehousing process will be described with reference to FIGS. 7 and 8. The warehousing process is started when a warehousing instruction is given, and the warehousing process is started when a warehousing instruction is given. The warehousing instruction and the warehousing instruction are given, for example, by the operation of the terminal device 3 by the occupant 9 (see FIG. 1).

図7に示すように、入庫処理又は出庫処理の開始後は、目的地Pまでの走行経路Rを設定すると共に当該目的地Pに向かって車両2の走行を開始させる(#10)。目的地Pまでの間、対象地点T以外の地点では、通常推定処理の実行により、車両2の位置を継続的に推定する(#20)。目的地Pに到着した場合には(#30:Yes)、目的地Pにおいて車両2を停車させる(#110)。目的地Pに到着するまでは(#30:No)、車両2が対象地点Tに到達したか否かを継続的に判定する(#40)。 As shown in FIG. 7, after the start of the warehousing process or the warehousing process, the traveling route R to the destination P is set and the vehicle 2 starts traveling toward the destination P (# 10). Until the destination P, at points other than the target point T, the position of the vehicle 2 is continuously estimated by executing the normal estimation process (# 20). When arriving at the destination P (# 30: Yes), the vehicle 2 is stopped at the destination P (# 110). Until the destination P is reached (# 30: No), it is continuously determined whether or not the vehicle 2 has reached the target point T (# 40).

車両2が対象地点Tに到達した場合には(#40:Yes)、当該車両2の周辺画像を取得する(#60)。図示の例では、車両2の周辺画像を取得する前に、車両2を一時停止させている(#50)。但し、上述のように、車両2が対象地点Tで走行中の状態において周辺画像を取得するようにしても良い。周辺画像の取得後は(#60)、周辺画像中に含まれる地物Oを対象地物OTとして認識する(#70)。そして、進路変更前推定処理を実行する(#80)。 When the vehicle 2 reaches the target point T (# 40: Yes), a peripheral image of the vehicle 2 is acquired (# 60). In the illustrated example, the vehicle 2 is temporarily stopped before the peripheral image of the vehicle 2 is acquired (# 50). However, as described above, the peripheral image may be acquired while the vehicle 2 is traveling at the target point T. After acquiring the peripheral image (# 60), the feature O included in the peripheral image is recognized as the target feature OT (# 70). Then, the pre-change course estimation process is executed (# 80).

図8に示すように、進路変更前推定処理では、対象地物OTの絶対位置(X,Y)を示す絶対位置情報を取得し(#81)、この絶対位置(X,Y)に基づいて、絶対座標系における基準方位となる絶対方位θ0を算出する(#82)。そして、車両2を基準とするローカル座標系において、対象地物OTの車両2に対する位置である実相対位置(X´,Y´)を演算し(#83)、この実相対位置(X´,Y´)に基づき、絶対方位θ0に対する車両2の実相対方位θfを演算する(#84)。また、実相対方位θfに基づいて、車両2から前方に向かう方位である推定進行方位θaを算出することで、車両2の現在の進行方位を推定する(#85)。そして、対象地物OTの絶対位置(X,Y)及び実相対位置(X´,Y´)と実相対方位θfとに基づき車両2の推定位置(Xf,Yf)を算出することで、車両2の現在の位置を推定する(#86)。 As shown in FIG. 8, in the pre-change course estimation process, absolute position information indicating the absolute position (X, Y) of the target feature OT is acquired (# 81), and based on this absolute position (X, Y). , The absolute azimuth θ0, which is the reference azimuth in the absolute coordinate system, is calculated (# 82). Then, in the local coordinate system with respect to the vehicle 2, the actual relative position (X', Y'), which is the position of the target feature OT with respect to the vehicle 2, is calculated (# 83), and the actual relative position (X', Y', Based on Y'), the actual relative bearing θf of the vehicle 2 with respect to the absolute bearing θ0 is calculated (# 84). Further, the current traveling direction of the vehicle 2 is estimated by calculating the estimated traveling direction θa, which is the direction toward the front from the vehicle 2, based on the actual relative direction θf (# 85). Then, by calculating the estimated position (Xf, Yf) of the vehicle 2 based on the absolute position (X, Y) and the actual relative position (X', Y') of the target feature OT and the actual relative direction θf, the vehicle Estimate the current position of 2 (# 86).

図7に示すように、進路変更前推定処理の実行後は、当該進路変更前推定処理の実行により推定した車両2の推定位置(Xf,Yf)および推定進行方位θaに基づいて、右左折等の車両2の進行方向の変更を行う(#90)。その後、目的地Pに到着した場合には(#100:Yes)、目的地Pにおいて車両2を停車させる(#110)。目的地Pに到着するまでは(#100:No)、上記のステップ40〜ステップ100を繰り返し行う。 As shown in FIG. 7, after the execution of the pre-course change estimation process, a right / left turn or the like is performed based on the estimated position (Xf, Yf) and the estimated traveling direction θa of the vehicle 2 estimated by executing the pre-course change estimation process. The traveling direction of the vehicle 2 is changed (# 90). After that, when the vehicle arrives at the destination P (# 100: Yes), the vehicle 2 is stopped at the destination P (# 110). The above steps 40 to 100 are repeated until the destination P is reached (# 100: No).

〔第2実施形態〕
次に、第2実施形態に係る車両進行状態推定システム(車両進行状態推定方法、車両進行状態推定プログラム)について説明する。本実施形態では、上記第1実施形態に比べて、対象地物OTが絶対方位θ0を示す絶対方位情報を有している点で異なる。以下、本実施形態について、第1実施形態と異なる点を主に説明する。特に説明しない点については、上記第1実施形態と同様であり、上記第1実施形態の場合と同様の参照符号を用いる。
[Second Embodiment]
Next, the vehicle progress state estimation system (vehicle progress state estimation method, vehicle progress state estimation program) according to the second embodiment will be described. The present embodiment is different from the first embodiment in that the target feature OT has absolute bearing information indicating the absolute bearing θ0. Hereinafter, the differences between the present embodiment and the first embodiment will be mainly described. The points not particularly described are the same as those of the first embodiment, and the same reference numerals as those of the first embodiment are used.

本実施形態では、地物情報には、駐車場1内の地表面に設けられた帯状標示についての駐車場1内での位置(絶対位置(X、Y))を示す位置情報(絶対位置情報)及び方位(絶対方位θ0)を示す方位情報(絶対方位情報)が含まれている。本例では、帯状標示の延在方位が、絶対座標系における絶対方位θ0となる。図9には、このような絶対位置情報及び絶対方位情報を有する地物Oとして、一時停止線Nと駐車枠線Lとが例示されている。なお、帯状標示は、帯状地物の一例である。 In the present embodiment, the feature information includes the position information (absolute position information) indicating the position (absolute position (X, Y)) in the parking lot 1 of the band-shaped marking provided on the ground surface in the parking lot 1. ) And directional information (absolute directional information) indicating the directional (absolute directional θ0). In this example, the extending direction of the band-shaped marking is the absolute direction θ0 in the absolute coordinate system. In FIG. 9, a pause line N and a parking frame line L are exemplified as a feature O having such absolute position information and absolute orientation information. The band-shaped marking is an example of a band-shaped feature.

本実施形態では、車両2の周辺を撮影するカメラCには、当該車両2の前方を撮影するフロントカメラと当該車両2の側方を撮影するサイドカメラとが含まれている。図9に示すように、車両2の前方および両側方が、カメラCによる撮影エリアCAとなっている。 In the present embodiment, the camera C for photographing the periphery of the vehicle 2 includes a front camera for photographing the front of the vehicle 2 and a side camera for photographing the side of the vehicle 2. As shown in FIG. 9, the front and both sides of the vehicle 2 are the photographing areas CA by the camera C.

本実施形態では、画像認識部25が、対象地点Tにおいて撮影された周辺画像中に含まれる帯状標示(一時停止線N、駐車枠線L)を第3対象地物OT3として認識する。 In the present embodiment, the image recognition unit 25 recognizes the band-shaped markings (pause line N, parking frame line L) included in the peripheral image taken at the target point T as the third target feature OT3.

そして本実施形態では、対象地物OTが第3対象地物OT3(帯状標示N、L)である場合、推定部23は、進路変更前推定処理において、車両2に対する第3対象地物OT3(帯状標示N、L)の相対位置を実相対位置(例えば、(X´3,Y´3))として求めると共に、車両2の第3対象地物OT3(帯状標示N、L)の延在方位(絶対方位θ0)に対する方位を実相対方位θfとして求め、当該実相対位置(X´3,Y´3)と、当該実相対方位θfと、第3対象地物OT3(帯状標示N、L)についての地物情報に含まれる絶対位置情報(位置情報)及び絶対方位情報(方位情報)とに基づいて、車両2の位置(Xf,Yf)及び進行方位θaを推定する。 Then, in the present embodiment, when the target feature OT is the third target feature OT3 (belt-shaped markings N, L), the estimation unit 23 performs the third target feature OT3 (for the vehicle 2) in the pre-course estimation process. The relative position of the band-shaped markings N and L) is obtained as the actual relative position (for example, (X'3, Y'3)), and the extending direction of the third target feature OT3 (belt-shaped markings N and L) of the vehicle 2 is obtained. The orientation with respect to (absolute orientation θ0) is obtained as the actual relative orientation θf, and the actual relative position (X'3, Y'3), the actual relative orientation θf, and the third target feature OT3 (belt-shaped markings N, L) The position (Xf, Yf) and the traveling direction θa of the vehicle 2 are estimated based on the absolute position information (position information) and the absolute direction information (direction information) included in the feature information of the above.

本実施形態によれば、上記第1実施形態とは異なり、第3対象地物OT3自体が単独で絶対方位θ0を示す絶対方位情報を有しているため、複数の対象地物OTそれぞれの実相対位置(X´,Y´)に基づいて絶対方位θ0を算出する処理を省略することができる。 According to the present embodiment, unlike the first embodiment, the third target feature OT3 itself has absolute azimuth information indicating the absolute azimuth θ0 by itself, so that each of the plurality of target feature OTs is actually The process of calculating the absolute bearing θ0 based on the relative positions (X', Y') can be omitted.

〔その他の実施形態〕
次に、車両進行状態推定システム、車両進行状態推定方法、及び車両進行状態推定プログラムのその他の実施形態について説明する。
[Other Embodiments]
Next, a vehicle progress estimation system, a vehicle progress estimation method, and other embodiments of the vehicle progress estimation program will be described.

(1)上記の実施形態では、図3において、対象地点Tが十字路の手前の地点である例について説明した。しかし、このような例に限定されることなく、対象地点Tは、図10に示すようにT字路の手前の地点であってもよく、図11に示すようにカーブの手前の地点であってもよい。また、走行経路Rと他の道路とが交差する上記のような十字路およびT字路の手前の地点以外も、対象地点Tとなり得る。例えば図12に示すように、分岐や合流の無い道路においても、車両2が対向車両90とすれ違う場合には、走行制御部21は、車両2を、道路中央を走行させている状態から対向車両90との接触を避けるように進路変更する場合がある。すなわち、直進状態から進行方向を左側又は右側に傾けるように、車両2の進行方向を変更する。この場合、進行方向を変更する手前の地点が、対象地点Tとされる。また、例えば図13に示すように、湾曲状の道路(例えば駐車場1内の各階への往来を可能とする回転スロープ等)を走行する場合においても、当該湾曲状の道路の手前の地点が、対象地点Tとされる。車両進行状態推定システム100では、これらのような対象地点Tにおいて進路変更前推定処理を実行する。なお、これらのような対象地点Tにおいても、車両2を走行させた状態のまま進路変更前推定処理を実行してもよいし、車両2を一時停止させた状態で進路変更前推定処理を実行してもよい。 (1) In the above embodiment, an example in which the target point T is a point before the crossroads has been described in FIG. However, without being limited to such an example, the target point T may be a point before the T-junction as shown in FIG. 10, and is a point before the curve as shown in FIG. You may. In addition, the target point T can be a point other than the above-mentioned crossroads and T-junctions where the traveling route R and other roads intersect. For example, as shown in FIG. 12, when the vehicle 2 passes the oncoming vehicle 90 even on a road without branching or merging, the travel control unit 21 causes the vehicle 2 to travel from the state of traveling in the center of the road to the oncoming vehicle. The course may be changed to avoid contact with 90. That is, the traveling direction of the vehicle 2 is changed so that the traveling direction is tilted to the left or right from the straight traveling state. In this case, the point before changing the traveling direction is set as the target point T. Further, for example, as shown in FIG. 13, even when traveling on a curved road (for example, a rotating slope that enables traffic to and from each floor in the parking lot 1), the point in front of the curved road is , Target point T. In the vehicle progress state estimation system 100, the pre-course estimation process is executed at the target point T as described above. Even at the target point T as described above, the pre-course estimation process may be executed while the vehicle 2 is running, or the pre-course estimation process may be executed while the vehicle 2 is temporarily stopped. You may.

(2)上記の実施形態では、通常推定処理では、周辺画像の画像認識結果に基づく進行方位の推定を行わない例について説明した。しかし、このような例に限定されることなく、通常推定処理においても、周辺画像の画像認識結果に基づく車両2の進行方位の推定を行う構成としてもよい。 (2) In the above embodiment, an example in which the traveling direction is not estimated based on the image recognition result of the peripheral image in the normal estimation process has been described. However, the present invention is not limited to such an example, and the traveling direction of the vehicle 2 may be estimated based on the image recognition result of the peripheral image even in the normal estimation process.

(3)上記の実施形態では、画像認識部25が複数の地物Oを対象地物OTとして認識し、推定部23が複数の対象地物OTに基づいて進路変更前推定処理を実行する例について説明した。しかし、このような例に限定されることなく、画像認識部25は、1つの地物Oのみを対象地物OTとして認識し、推定部23は当該1つの対象地物OTに基づいて進路変更前推定処理を実行するようにしてもよい。 (3) In the above embodiment, an example in which the image recognition unit 25 recognizes a plurality of feature O as target feature OTs, and the estimation unit 23 executes pre-course estimation processing based on the plurality of target feature OTs. Was explained. However, without being limited to such an example, the image recognition unit 25 recognizes only one feature O as the target feature OT, and the estimation unit 23 changes the course based on the one target feature OT. The pre-estimation process may be executed.

(4)上記の実施形態では、周辺検知センサとして、可視光を利用したカメラC(撮影装置)を用いる例について説明した。しかし、このような例に限定されることなく、周辺検知センサとしては、赤外線や紫外線等の不可視光、各種波長の電磁波、音波などを利用したセンサであってよい。例えば周辺検知センサとして、車両2の周辺の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等の各種のセンサを用いることができる。周辺検知センサとしてカメラC以外のセンサを用いる場合にも、周辺検知センサは、当該センサの検知対象についての車両2の周辺情報を検知する。この場合、周辺情報中に含まれる前記地物は、当該周辺検知センサにより検知可能な地物とされる。そして、車両進行状態推定システム100(車両進行状態推定方法/車両進行状態推定プログラム)は、周辺検知センサにより検知された車両2の周辺情報を取得する周辺情報取得部(周辺情報取得ステップ/周辺情報取得機能)と、周辺情報中に含まれる地物Oの認識処理を行う認識部(認識ステップ/認識機能)と、を備える。 (4) In the above embodiment, an example in which a camera C (photographing device) using visible light is used as a peripheral detection sensor has been described. However, the peripheral detection sensor is not limited to such an example, and may be a sensor using invisible light such as infrared rays or ultraviolet rays, electromagnetic waves of various wavelengths, sound waves, or the like. For example, as a peripheral detection sensor, various sensors such as a millimeter wave radar, sonar, and LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging) that transmit exploration waves to a predetermined range around the vehicle 2 can be used. Even when a sensor other than the camera C is used as the peripheral detection sensor, the peripheral detection sensor detects the peripheral information of the vehicle 2 regarding the detection target of the sensor. In this case, the feature included in the surrounding information is a feature that can be detected by the peripheral detection sensor. Then, the vehicle progress state estimation system 100 (vehicle progress state estimation method / vehicle progress state estimation program) is a peripheral information acquisition unit (peripheral information acquisition step / peripheral information) that acquires peripheral information of the vehicle 2 detected by the peripheral detection sensor. It is provided with an acquisition function) and a recognition unit (recognition step / recognition function) that performs recognition processing of the feature O included in the surrounding information.

(5)上記の第1実施形態に係る図3には、対象地物OTが地表面に設けられた識別標示である場合を例として示した。しかし、上記のとおり、地物Oには、地表面に設けられた平面地物の他に、立体的な立体地物も含まれる。従って、駐車場内に設けられた各種の立体地物を対象地物OTとして認識する構成としてもよい。また、上記の第2実施形態では、帯状地物の一例として帯状標示を挙げ、当該帯状標示として一時停止線Nや駐車枠線Lなどのペイント地物を例示した。しかし、このような例に限定されることなく、帯状地物には、地表面に設けられた平面地物の他に、立体的な立体地物も含まれる。そして、立体的な帯状地物には、例えば柱状や筒状等の三次元形状が帯状でない形状であっても、周辺検知センサにより検知される形状が帯状(直線状)であるもの、或いは、周辺検知センサにより検知される形状の一部が帯状(直線状)であるものも含まれる。すなわち、一部に直線状部分を有するものであれば、他の部分が非直線状であっても、帯状地物となり得る。例えば、案内標識、ガードレール、フェンスなどの立体地物も帯状地物となり得る。 (5) FIG. 3 according to the first embodiment shows the case where the target feature OT is an identification mark provided on the ground surface as an example. However, as described above, the feature O includes not only a flat feature provided on the ground surface but also a three-dimensional three-dimensional feature. Therefore, various three-dimensional features provided in the parking lot may be recognized as the target feature OT. Further, in the second embodiment described above, a band-shaped sign is given as an example of the band-shaped feature, and a painted feature such as a pause line N or a parking frame line L is exemplified as the band-shaped sign. However, the strip-shaped feature is not limited to such an example, and includes a three-dimensional three-dimensional feature in addition to the flat feature provided on the ground surface. The three-dimensional strip-shaped feature has a strip-shaped (straight line) shape detected by the peripheral detection sensor even if the three-dimensional shape such as a columnar shape or a tubular shape is not a strip-shaped shape. A part of the shape detected by the peripheral detection sensor is strip-shaped (straight). That is, as long as it has a linear portion in a part, it can be a strip-shaped feature even if the other portion is non-linear. For example, three-dimensional features such as guide signs, guardrails, and fences can also be strip-shaped features.

(6)なお、上述した各実施形態で開示された構成は、矛盾が生じない限り、他の実施形態で開示された構成と組み合わせて適用することも可能である。その他の構成に関しても、本明細書において開示された実施形態は全ての点で単なる例示に過ぎない。従って、本開示の趣旨を逸脱しない範囲内で、適宜、種々の改変を行うことが可能である。 (6) The configurations disclosed in each of the above-described embodiments can be applied in combination with the configurations disclosed in other embodiments as long as there is no contradiction. With respect to other configurations, the embodiments disclosed herein are merely exemplary in all respects. Therefore, various modifications can be made as appropriate without departing from the gist of the present disclosure.

〔上記実施形態の概要〕
以下、上記において説明した車両進行状態推定システム、車両進行状態推定方法、及び車両進行状態推定プログラムについて説明する。
[Outline of the above embodiment]
Hereinafter, the vehicle progress estimation system, the vehicle progress estimation method, and the vehicle progress estimation program described above will be described.

駐車場(1)内において、設定された走行経路(R)に沿って自動走行する車両(2)の進行方位(θa)を推定する車両進行状態推定システム(100)であって、
前記車両(2)の進行方位(θa)を推定する推定部(23)と、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得部(24)と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得部(26)と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識部(25)と、を備え、
前記走行経路(R)が、前記車両(2)の進行方向の変更を伴う経路である場合に、前記認識部(25)が、前記車両(2)が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物(O)を対象地物(OT)として認識し、
前記推定部(23)は、前記車両(2)に対する前記対象地物(OT)の相対位置を実相対位置(X´,Y´)として求めると共に、当該実相対位置(X´,Y´)と前記対象地物(OT)についての前記地物情報とに基づいて、前記車両(2)の進行方位(θa)を推定する進路変更前推定処理を実行する。
A vehicle progress estimation system (100) that estimates the traveling direction (θa) of a vehicle (2) that automatically travels along a set traveling route (R) in the parking lot (1).
An estimation unit (23) that estimates the traveling direction (θa) of the vehicle (2), and
The feature information acquisition unit (24) for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition unit (26) that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition unit (25) that performs recognition processing of the feature (O) included in the peripheral information is provided.
When the traveling route (R) is a route accompanied by a change in the traveling direction of the vehicle (2), the recognition unit (25) determines a point at which the vehicle (2) should start changing the traveling direction. The feature (O) included in the surrounding information detected in the foreground is recognized as a target feature (OT), and the feature (OT) is recognized.
The estimation unit (23) obtains the relative position of the target feature (OT) with respect to the vehicle (2) as the actual relative position (X', Y'), and the actual relative position (X', Y'). And the feature information about the target feature (OT), the pre-course estimation process for estimating the traveling direction (θa) of the vehicle (2) is executed.

本構成によれば、進行方向の変更を開始すべき地点の手前の地点において車両(2)の周辺情報を用いて認識処理を行い、当該車両(2)の方位(θa)を推定する。そのため、車両(2)が進行方向を変更する前に、車両(2)の進行方位(θa)を適切に補正することができる。これにより、車両(2)の進行方向の変更を、設定された走行経路(R)から外れる可能性を低減することができる。従って本構成によれば、設定された走行経路(R)が車両(2)の進行方向の変更を伴う経路である場合であっても、駐車場(1)内における車両(2)の自動走行を円滑に行わせることができる。 According to this configuration, recognition processing is performed using the peripheral information of the vehicle (2) at a point before the point where the change of the traveling direction should be started, and the direction (θa) of the vehicle (2) is estimated. Therefore, the traveling direction (θa) of the vehicle (2) can be appropriately corrected before the vehicle (2) changes the traveling direction. As a result, it is possible to reduce the possibility that the change in the traveling direction of the vehicle (2) deviates from the set traveling route (R). Therefore, according to this configuration, even if the set travel route (R) is a route that involves changing the traveling direction of the vehicle (2), the vehicle (2) automatically travels in the parking lot (1). Can be done smoothly.

ここで、
前記推定部(23)は、前記進路変更前推定処理において、前記実相対位置(X´,Y´)と前記対象地物(OT)についての前記地物情報とに基づいて、前記車両(2)の進行方位(θa)に加えて、前記車両(2)の位置(Xf,Yf)を推定すると好適である。
here,
The estimation unit (23) uses the vehicle (2) based on the actual relative position (X', Y') and the feature information about the target feature (OT) in the pre-course estimation process. ), In addition to the traveling direction (θa), it is preferable to estimate the position (Xf, Yf) of the vehicle (2).

本構成によれば、進行方向の変更を開始すべき手前の地点において車両(2)の周辺情報を用いて認識処理を行い、当該車両(2)の進行方位(θa)に加えて位置(Xf,Yf)を推定する。そのため、車両(2)が進行方向を変更する前に、車両(2)の位置(Xf,Yf)についても適切に補正することができる。従って本構成によれば、設定された走行経路(R)が車両(2)の進行方向の変更を伴う経路である場合であっても、駐車場(1)内における車両(2)の自動走行を更に円滑に行わせることができる。 According to this configuration, recognition processing is performed using the peripheral information of the vehicle (2) at a point before the start of changing the traveling direction, and the position (Xf) is added to the traveling direction (θa) of the vehicle (2). , Yf) is estimated. Therefore, the positions (Xf, Yf) of the vehicle (2) can be appropriately corrected before the vehicle (2) changes the traveling direction. Therefore, according to this configuration, even if the set travel route (R) is a route that involves changing the traveling direction of the vehicle (2), the vehicle (2) automatically travels in the parking lot (1). Can be performed more smoothly.

また、
前記推定部(23)は、前記対象地物(OT)についての前記位置情報に示される前記対象地物(OT)の位置(X,Y)に対して、前記実相対位置(X´,Y´)に示される位置関係となる位置及び方位を、前記車両(2)の位置(Xf,Yf)及び進行方位(θa)として推定するように、前記進路変更前推定処理を実行すると好適である。
Also,
The estimation unit (23) has the actual relative position (X', Y) with respect to the position (X, Y) of the target feature (OT) shown in the position information about the target feature (OT). It is preferable to execute the pre-course estimation process so that the positions and directions having the positional relationship shown in') are estimated as the positions (Xf, Yf) and the traveling direction (θa) of the vehicle (2). ..

本構成によれば、対象地物(OT)についての地物情報に含まれる位置(X,Y)の情報と、当該対象地物(OT)についての車両(2)に対する実相対位置(X´,Y´)と、に基づいて、進路変更前推定処理を適切に実行することができる。従って、車両(2)の位置(Xf,Yf)及び進行方位(θa)を高精度に推定することができる。 According to this configuration, the position (X, Y) information included in the feature information about the target feature (OT) and the actual relative position (X') with respect to the vehicle (2) about the target feature (OT). , Y'), and the pre-course change estimation process can be appropriately executed. Therefore, the position (Xf, Yf) and the traveling direction (θa) of the vehicle (2) can be estimated with high accuracy.

また、
前記認識部(25)は、前記対象地点(T)以外の地点において検知された前記周辺情報中に含まれる前記地物(O)を副対象地物(Os)として認識し、
前記推定部(23)は、前記車両(2)に対する前記副対象地物(Os)の相対位置を副相対位置として求めると共に、当該副相対位置と前記副対象地物(Os)についての前記地物情報とに基づいて、前記車両(2)の進行方位(θa)を推定することなく前記車両(2)の位置(Xf,Yf)を推定する通常推定処理を実行すると好適である。
Also,
The recognition unit (25) recognizes the feature (O) included in the peripheral information detected at a point other than the target point (T) as a sub-target feature (Os).
The estimation unit (23) obtains the relative position of the sub-target feature (Os) with respect to the vehicle (2) as the sub-relative position, and the sub-relative position and the ground regarding the sub-target feature (Os). It is preferable to execute a normal estimation process for estimating the position (Xf, Yf) of the vehicle (2) without estimating the traveling direction (θa) of the vehicle (2) based on the object information.

車両(2)が進行方向の変更を伴わない直進走行中には、車両(2)は物理的に走行可能な経路を走行しているはずであるため、進行方位の精度は問題となり難い。従って、本構成によれば、車両(2)の走行中には、周辺情報の認識結果に基づく進行方位(θa)の推定を行わず、位置(Xf,Yf)の推定のみを行うことで、車両(2)の自動走行を円滑に行わせつつ、システムの処理負担を軽減できる。 While the vehicle (2) is traveling straight ahead without changing the traveling direction, the accuracy of the traveling direction is unlikely to be a problem because the vehicle (2) should be traveling on a physically traversable route. Therefore, according to this configuration, while the vehicle (2) is traveling, the traveling direction (θa) is not estimated based on the recognition result of the peripheral information, but only the position (Xf, Yf) is estimated. The processing load of the system can be reduced while the automatic running of the vehicle (2) is smoothly performed.

また、
前記認識部(25)は、複数の前記地物(O)を前記対象地物(OT)として認識し、
前記推定部(23)は、複数の前記対象地物(OT)のそれぞれについての前記実相対位置(X´,Y´)と前記地物情報とに基づいて、前記進路変更前推定処理を実行すると好適である。
Also,
The recognition unit (25) recognizes the plurality of the features (O) as the target features (OT), and recognizes the plurality of the features (O) as the target features (OT).
The estimation unit (23) executes the pre-change estimation process based on the actual relative positions (X', Y') and the feature information for each of the plurality of target features (OT). Then it is suitable.

本構成によれば、複数の対象地物(OT)のそれぞれに関して算出された実相対位置(X´,Y´)に基づいて推定処理を実行できるため、より高精度な推定を行うことができる。また本構成によれば、複数の対象地物(OT)のそれぞれの位置情報に基づいて当該複数の対象地物(OT)を結ぶ方向を求めることができる。従って、対象地物(OT)のそれぞれの方位情報が地物情報に含まれていない場合であっても、車両(2)の進行方位(θa)を高精度に推定することが可能となる。 According to this configuration, since the estimation process can be executed based on the actual relative positions (X', Y') calculated for each of the plurality of target features (OT), more accurate estimation can be performed. .. Further, according to this configuration, it is possible to obtain the direction connecting the plurality of target features (OT) based on the respective position information of the plurality of target features (OT). Therefore, even when the direction information of each target feature (OT) is not included in the feature information, the traveling direction (θa) of the vehicle (2) can be estimated with high accuracy.

また、
一対の前記対象地物(OT)が、前記走行経路(R)を挟んで両側に分かれて配置されていると好適である。
Also,
It is preferable that the pair of the target features (OT) are arranged on both sides of the traveling path (R).

本構成によれば、対象地点(T)の車両(2)に対して、進行方向を基準とする左右両側のそれぞれに、対象地物(OT)が配置される。従って、これら複数の対象地物(OT)を用いて、より高精度な進路変更前推定処理を実行することが可能となる。 According to this configuration, the target features (OT) are arranged on the left and right sides of the vehicle (2) at the target point (T) with respect to the traveling direction. Therefore, it is possible to execute a more accurate pre-change course estimation process using these plurality of target features (OT).

また、
前記地物情報には、前記駐車場(1)に設けられた帯状地物(N、L)についての前記駐車場(1)内での延在方位(θ0)を示す方位情報が含まれ、
前記対象地物(OT)が前記帯状地物(N、L)である場合、
前記推定部(23)は、前記進路変更前推定処理において、前記車両(2)の前記帯状地物(N、L)の前記延在方位(θ0)に対する相対方位を実相対方位(θf)として求め、当該実相対方位(θf)と、前記帯状地物(N、L)についての前記地物情報に含まれる前記方位情報とに基づいて、前記車両(2)の進行方位(θa)を推定すると好適である。
Also,
The feature information includes directional information indicating the extending direction (θ0) in the parking lot (1) for the strip-shaped feature (N, L) provided in the parking lot (1).
When the target feature (OT) is the strip-shaped feature (N, L)
In the pre-change course estimation process, the estimation unit (23) sets the relative orientation of the belt-shaped feature (N, L) of the vehicle (2) with respect to the extension orientation (θ0) as the actual relative orientation (θf). The traveling direction (θa) of the vehicle (2) is estimated based on the actual relative direction (θf) and the direction information included in the feature information about the strip-shaped feature (N, L). Then it is suitable.

本構成によれば、帯状地物(N、L)自体が単独で、当該帯状地物(N、L)についての方位情報を有しているため、対象地物(OT)としての帯状地物(N、L)を少なくとも1つ画像認識できれば、車両(2)の進行方位(θa)を高精度に推定することが可能となる。 According to this configuration, since the strip-shaped feature (N, L) itself has the orientation information about the strip-shaped feature (N, L), the strip-shaped feature as the target feature (OT). If at least one image of (N, L) can be recognized, the traveling direction (θa) of the vehicle (2) can be estimated with high accuracy.

また、上記構成において、
前記推定部(23)は、前記進路変更前推定処理において、前記車両(2)に対する前記帯状地物(N、L)の相対位置を実相対位置(X´,Y´)として求め、当該実相対位置(X´,Y´)と、前記帯状地物(N、L)についての前記地物情報に含まれる前記位置情報とに基づいて、前記車両(2)の位置(Xf,Yf)を推定すると好適である。
In addition, in the above configuration
In the pre-change course estimation process, the estimation unit (23) obtains the relative position of the strip-shaped feature (N, L) with respect to the vehicle (2) as an actual relative position (X', Y'), and obtains the actual relative position (X', Y'). The position (Xf, Yf) of the vehicle (2) is determined based on the relative position (X', Y') and the position information included in the feature information about the strip-shaped feature (N, L). It is suitable to estimate.

本構成によれば、帯状地物(N、L)自体が単独で、当該帯状地物(N、L)についての位置情報及び方位情報を有しているため、対象地物(OT)としての帯状地物(N、L)を少なくとも1つ画像認識できれば、車両(2)の位置(Xf,Yf)及び進行方位(θa)を高精度に推定することが可能となる。 According to this configuration, since the strip-shaped feature (N, L) itself has the position information and the orientation information about the strip-shaped feature (N, L), it can be used as a target feature (OT). If at least one strip-shaped feature (N, L) can be recognized as an image, the position (Xf, Yf) and the traveling direction (θa) of the vehicle (2) can be estimated with high accuracy.

また、
前記車両(2)の進行方向の変更は、前記車両(2)の走行中にステアリング舵角が規定値以上の状態に移行することにより実行される。すなわち、車両(2)の進行方向の変更が行われる地点は道路形状等に関わらず、ステアリング舵角の状態に応じて実際に車両(2)の進行方向が規定以上に変更される地点である。
Also,
The change of the traveling direction of the vehicle (2) is executed by shifting the steering steering angle to a state of a specified value or more while the vehicle (2) is traveling. That is, the point where the traveling direction of the vehicle (2) is changed is a point where the traveling direction of the vehicle (2) is actually changed more than specified according to the state of the steering steering angle regardless of the road shape or the like. ..

上述した車両進行状態推定システムの種々の技術的特徴は、車両進行状態推定方法や車両進行状態推定プログラムにも適用可能である。例えば、車両進行状態推定方法は、上述した車両進行状態推定システムの特徴を備えた方法とすることができる。また、車両進行状態推定プログラムは、上述した車両進行状態推定システムの特徴に対応する機能をコンピュータに実現させることが可能である。当然ながらこれらの車両進行状態推定方法及び車両進行状態推定プログラムも、上述した車両進行状態推定システムの作用効果を奏することができる。さらに、車両進行状態推定システムの好適な態様として例示した種々の付加的特徴を、これら車両進行状態推定方法や車両進行状態推定プログラムに組み込むことも可能であり、当該方法及び当該プログラムはそれぞれの付加的特徴に対応する作用効果も奏することができる。 The various technical features of the vehicle progress estimation system described above can also be applied to a vehicle progress estimation method and a vehicle progress estimation program. For example, the vehicle progress state estimation method can be a method having the features of the vehicle progress state estimation system described above. Further, the vehicle progress state estimation program can realize a function corresponding to the above-mentioned features of the vehicle progress state estimation system in the computer. As a matter of course, these vehicle progress state estimation methods and vehicle progress state estimation programs can also exert the effects of the vehicle progress state estimation system described above. Further, various additional features exemplified as a preferred embodiment of the vehicle progress estimation system can be incorporated into these vehicle progress estimation methods and vehicle progress estimation programs, and the methods and the programs are each added. It is also possible to play an action effect corresponding to a specific feature.

このような車両進行状態推定方法は、
駐車場(1)内において、設定された走行経路(R)に沿って自動走行する車両(2)の進行方位(θa)を推定する車両進行状態推定方法であって、
前記車両(2)の進行方位(θa)を推定する推定ステップと、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識ステップと、を備え、
前記走行経路(R)が、前記車両(2)の進行方向の変更を伴う経路である場合に、前記認識ステップにおいて、前記車両(2)が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物(O)を対象地物(OT)として認識し、
前記推定ステップでは、前記車両(2)に対する前記対象地物(OT)の相対位置を実相対位置(X´,Y´)として求めると共に、当該実相対位置(X´,Y´)と前記対象地物(OT)についての前記地物情報とに基づいて、前記車両(2)の進行方位(θa)を推定する進路変更前推定処理を実行する。
Such a vehicle progress estimation method is
It is a vehicle traveling state estimation method that estimates the traveling direction (θa) of a vehicle (2) that automatically travels along a set traveling route (R) in the parking lot (1).
An estimation step for estimating the traveling direction (θa) of the vehicle (2), and
A feature information acquisition step for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and a feature information acquisition step.
A peripheral information acquisition step for acquiring peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition step for performing recognition processing of the feature (O) included in the surrounding information is provided.
When the traveling route (R) is a route accompanied by a change in the traveling direction of the vehicle (2), it is detected in the recognition step before the point where the vehicle (2) should start the change in the traveling direction. The feature (O) included in the surrounding information is recognized as a target feature (OT), and is recognized.
In the estimation step, the relative position of the target feature (OT) with respect to the vehicle (2) is obtained as the actual relative position (X', Y'), and the actual relative position (X', Y') and the target are obtained. Based on the feature information about the feature (OT), the pre-course estimation process for estimating the traveling direction (θa) of the vehicle (2) is executed.

また、このような車両進行状態推定プログラムは、
駐車場(1)内において、設定された走行経路(R)に沿って自動走行する車両(2)の進行方位(θa)を推定する車両進行状態推定プログラムであって、
前記車両(2)の進行方位(θa)を推定する推定機能と、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識機能と、をコンピュータに実現させ、
前記走行経路(R)が、前記車両(2)の進行方向の変更を伴う経路である場合に、前記認識機能において、前記車両(2)が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物(O)を対象地物(OT)として認識し、
前記推定機能では、前記車両(2)に対する前記対象地物(OT)の相対位置を実相対位置(X´,Y´)として求めると共に、当該実相対位置(X´,Y´)と前記対象地物(OT)についての前記地物情報とに基づいて、前記車両(2)の進行方位(θa)を推定する進路変更前推定処理を実行する。
In addition, such a vehicle progress estimation program is
It is a vehicle progress estimation program that estimates the traveling direction (θa) of a vehicle (2) that automatically travels along a set traveling route (R) in the parking lot (1).
An estimation function that estimates the traveling direction (θa) of the vehicle (2), and
A feature information acquisition function for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition function that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A computer is realized with a recognition function for recognizing the feature (O) included in the surrounding information.
When the traveling route (R) is a route accompanied by a change in the traveling direction of the vehicle (2), the recognition function detects the vehicle (2) before the point where the change in the traveling direction should be started. The feature (O) included in the surrounding information is recognized as a target feature (OT), and is recognized.
In the estimation function, the relative position of the target feature (OT) with respect to the vehicle (2) is obtained as the actual relative position (X', Y'), and the actual relative position (X', Y') and the target are obtained. Based on the feature information about the feature (OT), the pre-course estimation process for estimating the traveling direction (θa) of the vehicle (2) is executed.

本開示に係る技術は、駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定システム、車両進行状態推定方法、及び車両進行状態推定プログラムに利用することができる。 The technology according to the present disclosure is used for a vehicle progress estimation system that estimates the traveling direction of a vehicle that automatically travels along a set travel route, a vehicle progress estimation method, and a vehicle progress estimation program in a parking lot. be able to.

100 :車両進行状態推定システム
1 :駐車場
2 :車両
13 :経路設定部
21 :走行制御部
23 :推定部
24 :地物情報取得部
25 :画像認識部(認識部)
26 :周辺画像取得部(周辺情報取得部)
C :カメラ(周辺検知センサ)
N、L :帯状標示(帯状地物)
O :地物
OT :対象地物
Os :副対象地物
P :目的地
R :走行経路
T :対象地点
Xf,Yf :車両の位置
X,Y :絶対位置
X´,Y´ :実相対位置
θa :車両の進行方位
θ0 :絶対方位
θf :実相対方位
100: Vehicle progress estimation system 1: Parking lot 2: Vehicle 13: Route setting unit 21: Travel control unit 23: Estimate unit 24: Feature information acquisition unit 25: Image recognition unit (recognition unit)
26: Peripheral image acquisition unit (peripheral information acquisition unit)
C: Camera (peripheral detection sensor)
N, L: Belt-shaped sign (belt-shaped feature)
O: Feature OT: Target feature Os: Sub-target feature P: Destination R: Travel route T: Target point Xf, Yf: Vehicle position X, Y: Absolute position X', Y': Actual relative position θa : Vehicle traveling direction θ0: Absolute direction θf: Real relative direction

Claims (11)

駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定システムであって、
前記車両の進行方位を推定する推定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、を備え、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識部が、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定部は、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する、車両進行状態推定システム。
It is a vehicle progress estimation system that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation unit that estimates the traveling direction of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information is provided.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition unit is included in the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
The estimation unit obtains the relative position of the target feature with respect to the vehicle as an actual relative position, and estimates the traveling direction of the vehicle based on the actual relative position and the feature information about the target feature. A vehicle progress estimation system that executes pre-track estimation processing.
前記推定部は、前記進路変更前推定処理において、前記実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位に加えて、前記車両の位置を推定する、請求項1に記載の車両進行状態推定システム。 In the pre-course estimation process, the estimation unit estimates the position of the vehicle in addition to the traveling direction of the vehicle based on the actual relative position and the feature information about the target feature. The vehicle progress estimation system according to claim 1. 前記推定部は、前記対象地物についての前記位置情報に示される前記対象地物の位置に対して、前記実相対位置に示される位置関係となる位置及び方位を、前記車両の位置及び進行方位として推定するように、前記進路変更前推定処理を実行する、請求項2に記載の車両進行状態推定システム。 The estimation unit sets the position and direction having a positional relationship shown in the actual relative position with respect to the position of the target feature shown in the position information about the target feature, and sets the position and direction of the vehicle. The vehicle traveling state estimation system according to claim 2, wherein the pre-change course estimation process is executed so as to estimate as. 前記認識部は、前記車両が進行方向の変更を開始すべき地点の手前以外の地点において検知された前記周辺情報中に含まれる前記地物を副対象地物として認識し、
前記推定部は、前記車両に対する前記副対象地物の相対位置を副相対位置として求めると共に、当該副相対位置と前記副対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定することなく前記車両の位置を推定する通常推定処理を実行する、請求項2又は3に記載の車両進行状態推定システム。
The recognition unit recognizes the feature included in the peripheral information detected at a point other than the point before the point where the vehicle should start changing the traveling direction as a sub-target feature.
The estimation unit obtains the relative position of the sub-target feature with respect to the vehicle as the sub-relative position, and based on the sub-relative position and the feature information about the sub-target feature, the traveling direction of the vehicle. The vehicle progress estimation system according to claim 2 or 3, wherein a normal estimation process for estimating the position of the vehicle is executed without estimating.
前記認識部は、複数の前記地物を前記対象地物として認識し、
前記推定部は、複数の前記対象地物のそれぞれについての前記実相対位置と前記地物情報とに基づいて、前記進路変更前推定処理を実行する、請求項1から4のいずれか一項に記載の車両進行状態推定システム。
The recognition unit recognizes the plurality of the features as the target features, and recognizes the plurality of the features as the target features.
According to any one of claims 1 to 4, the estimation unit executes the pre-change course estimation process based on the actual relative position and the feature information for each of the plurality of target features. The vehicle progress estimation system described.
一対の前記対象地物が、前記走行経路を挟んで両側に分かれて配置されている、請求項5に記載の車両進行状態推定システム。 The vehicle progress estimation system according to claim 5, wherein the pair of the target features are arranged separately on both sides of the traveling path. 前記地物情報には、前記駐車場に設けられた帯状地物についての前記駐車場での延在方位を示す方位情報が含まれ、
前記対象地物が前記帯状地物である場合、
前記推定部は、前記進路変更前推定処理において、前記車両の前記帯状地物の前記延在方位に対する相対方位を実相対方位として求め、当該実相対方位と、前記帯状地物についての前記地物情報に含まれる前記方位情報とに基づいて、前記車両の進行方位を推定する、請求項1から6のいずれか一項に記載の車両進行状態推定システム。
The feature information includes azimuth information indicating the extension direction in the parking lot of the strip-shaped feature provided in the parking lot.
When the target feature is the strip-shaped feature,
In the pre-course estimation process, the estimation unit obtains the relative orientation of the vehicle with respect to the extending direction of the strip-shaped feature as a real relative orientation, and the actual relative orientation and the feature of the strip-shaped feature. The vehicle traveling state estimation system according to any one of claims 1 to 6, which estimates the traveling direction of the vehicle based on the direction information included in the information.
前記推定部は、前記進路変更前推定処理において、前記車両に対する前記帯状地物の相対位置を実相対位置として求め、当該実相対位置と、前記帯状地物についての前記地物情報に含まれる前記位置情報とに基づいて、前記車両の位置を推定する、請求項7に記載の車両進行状態推定システム。 In the pre-course estimation process, the estimation unit obtains the relative position of the strip-shaped feature with respect to the vehicle as an actual relative position, and is included in the actual relative position and the feature information about the strip-shaped feature. The vehicle progress estimation system according to claim 7, wherein the position of the vehicle is estimated based on the position information. 前記車両の進行方向の変更は、前記車両の走行中にステアリング舵角が規定値以上の状態に移行することにより実行される、請求項1から8のいずれか一項に記載の車両進行状態推定システム。 The vehicle traveling state estimation according to any one of claims 1 to 8, wherein the change in the traveling direction of the vehicle is executed by shifting the steering steering angle to a state of a specified value or more while the vehicle is traveling. system. 駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定方法であって、
前記車両の進行方位を推定する推定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、を備え、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識ステップでは、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定ステップでは、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する、車両進行状態推定方法。
It is a vehicle progress estimation method that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation step for estimating the traveling direction of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing the recognition process of the feature included in the surrounding information is provided.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition step is included in the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
In the estimation step, the relative position of the target feature with respect to the vehicle is obtained as the actual relative position, and the traveling direction of the vehicle is estimated based on the actual relative position and the feature information about the target feature. A vehicle progress estimation method that executes pre-change course estimation processing.
駐車場内において、設定された走行経路に沿って自動走行する車両の進行方位を推定する車両進行状態推定プログラムであって、
前記車両の進行方位を推定する推定機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、をコンピュータに実現させ、
前記走行経路が、前記車両の進行方向の変更を伴う経路である場合に、前記認識機能では、前記車両が進行方向の変更を開始すべき地点の手前において検知された前記周辺情報中に含まれる前記地物を対象地物として認識し、
前記推定機能では、前記車両に対する前記対象地物の相対位置を実相対位置として求めると共に、当該実相対位置と前記対象地物についての前記地物情報とに基づいて、前記車両の進行方位を推定する進路変更前推定処理を実行する、車両進行状態推定プログラム。
It is a vehicle progress estimation program that estimates the direction of travel of a vehicle that automatically travels along a set travel route in a parking lot.
An estimation function that estimates the traveling direction of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A computer is realized with a recognition function that performs recognition processing of the feature included in the surrounding information.
When the traveling route is a route accompanied by a change in the traveling direction of the vehicle, the recognition function includes the peripheral information detected before the point where the vehicle should start the change in the traveling direction. Recognize the feature as a target feature and
In the estimation function, the relative position of the target feature with respect to the vehicle is obtained as an actual relative position, and the traveling direction of the vehicle is estimated based on the actual relative position and the feature information about the target feature. A vehicle progress estimation program that executes pre-course estimation processing.
JP2019094110A 2019-05-17 2019-05-17 Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program Pending JP2020190414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019094110A JP2020190414A (en) 2019-05-17 2019-05-17 Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019094110A JP2020190414A (en) 2019-05-17 2019-05-17 Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program

Publications (1)

Publication Number Publication Date
JP2020190414A true JP2020190414A (en) 2020-11-26

Family

ID=73454452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019094110A Pending JP2020190414A (en) 2019-05-17 2019-05-17 Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program

Country Status (1)

Country Link
JP (1) JP2020190414A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822079A (en) * 2021-01-27 2022-07-29 丰田自动车株式会社 Parking assist apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822079A (en) * 2021-01-27 2022-07-29 丰田自动车株式会社 Parking assist apparatus
CN114822079B (en) * 2021-01-27 2024-02-02 丰田自动车株式会社 Parking assist device

Similar Documents

Publication Publication Date Title
US10310508B2 (en) Vehicle control apparatus
US10831205B2 (en) Route determination device, vehicle control device, route determination method, and storage medium
RU2645388C2 (en) Device for identifying wrong recognition
JP6601696B2 (en) Prediction device, prediction method, and program
WO2019176083A1 (en) Mobile object control device
WO2017037752A1 (en) Vehicle position estimation device, vehicle position estimation method
US11015940B2 (en) Systems and methods for longitudinal position correction of a vehicle using mapped landmarks
US11631257B2 (en) Surroundings recognition device, and surroundings recognition method
US11042759B2 (en) Roadside object recognition apparatus
JP2020027459A (en) Automatic driving support device
JP2020185855A (en) Vehicle control device, vehicle management device, vehicle control method, and program
JP2020166460A (en) Vehicle controller, vehicle management device, vehicle control method, vehicle management method, and program
US12036978B2 (en) Driving assistance method and driving assistance device
KR20180012128A (en) Apparatus for estimating 3d position of vehicle and method thereof
RU2763452C1 (en) Method for driving assistance and apparatus for driving assistance
US12036984B2 (en) Vehicle travel control apparatus
JP7020353B2 (en) Object detector
CN113075924B (en) Automatic driving vehicle parking scene design
JP2020190416A (en) Recognition system, recognition method and recognition program
JP2020190412A (en) Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program
JP2020190414A (en) Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program
US20220306150A1 (en) Control device, control method, and storage medium
US20220258737A1 (en) Map generation apparatus and vehicle control apparatus
JP5983238B2 (en) Lane boundary detection device and lane boundary detection method
JP2020190413A (en) Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423