JP2024037038A - Parking position detection system - Google Patents
Parking position detection system Download PDFInfo
- Publication number
- JP2024037038A JP2024037038A JP2022141670A JP2022141670A JP2024037038A JP 2024037038 A JP2024037038 A JP 2024037038A JP 2022141670 A JP2022141670 A JP 2022141670A JP 2022141670 A JP2022141670 A JP 2022141670A JP 2024037038 A JP2024037038 A JP 2024037038A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- line
- parking
- learning
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 238000003384 imaging method Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims description 29
- 238000005192 partition Methods 0.000 description 56
- 238000012545 processing Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 16
- 240000004050 Pentaglottis sempervirens Species 0.000 description 11
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、駐車位置検出システムに関する。 The present disclosure relates to a parking position detection system.
従来、固定カメラ等で撮像した学習用の画像に写り込んでいる車体(車両)位置の座標等の情報を用いて機械学習等の技術により学習済モデルを作成しておき、実際に撮影した画像から、駐車可能な駐車領域を推定する技術が知られている。この技術では、まず、学習用の画像上で、車体の特徴(例えば,形状等)を規定する特徴点(参照点)の座標をアノテートして学習済モデルを作成している。 Conventionally, a trained model is created using technology such as machine learning using information such as the coordinates of the vehicle body (vehicle) position reflected in a learning image taken with a fixed camera, etc., and then a trained model is created using technology such as machine learning. A technique for estimating a parking area where parking is possible is known. In this technique, a learned model is first created by annotating the coordinates of feature points (reference points) that define vehicle body features (eg, shape, etc.) on a learning image.
しかしながら、従来技術の場合、学習用の画像に映り込んでいる実際の車両の形状を基準にアノテートしたスペースを駐車区画(駐車位置)として学習している。その一方で、実際に駐車領域を推定する場合には、推定時に撮影した車両が存在しない画像に基づいて、駐車区画を推定することになる。その結果、正確な駐車区画が推定し難かったり、推定した駐車区画に対して車両を駐車する場合に適切な駐車姿勢(駐車角度)を実現するための基準(車両方向)を定め難かったりするという問題があった。 However, in the case of the conventional technology, learning is performed using a space annotated based on the shape of the actual vehicle reflected in the learning image as a parking lot (parking position). On the other hand, when actually estimating a parking area, the parking area is estimated based on an image in which no vehicle is present, which was taken at the time of estimation. As a result, it is difficult to estimate the exact parking lot, and it is difficult to determine the standard (vehicle direction) to achieve an appropriate parking posture (parking angle) when parking the vehicle in the estimated parking lot. There was a problem.
そこで、本開示の課題の一つは、より正確な駐車区画及び駐車時の車両方向(駐車姿勢、駐車角度等)を推定ができる、駐車位置検出システムを提供することである。 Therefore, one of the problems of the present disclosure is to provide a parking position detection system that can more accurately estimate a parking lot and the direction of the vehicle at the time of parking (parking posture, parking angle, etc.).
本開示の一例としての駐車位置検出システムは、例えば、車両の周囲を撮像する撮像部からの画像データを取得する取得部と、予め準備された学習用画像データに含まれる学習用駐車区画を規定する区画線に設定された複数の参照点と、隣接する二つの前記参照点を結ぶ接続線とを備え、前記接続線が前記車両を駐車する際に、前記車両の車両前後方向と車両幅方向との少なくとも一方に定められる車両基準線と略平行または略直交する方向に延びる車両方向基準線になり得るか否かを定めた車両方向情報と前記接続線との関係を複数学習した結果としての学習済モデルを有し、前記学習済モデルに前記画像データを入力して得られる結果に基づき、前記車両の実駐車区画及び当該実駐車区画に駐車する際の車両方向を推定する推定部と、を含む。この構成によれば、例えば、学習時に実在する区画線に基づいて参照点をアノテートするので、アノテート精度が向上するとともに、推定時にも区画線を含む画像を学習済モデルに入力可能となり、実駐車区画の推定精度を向上することができる。さらに、アノテートのときに車両を駐車する際の車両基準線と略平行または略直交する方向に延びる、車両方向基準線になり得るかを定めた車両方向情報を学習しておくので、推定した実駐車区画に駐車する際の車両方向の推定精度を向上することができる。 A parking position detection system as an example of the present disclosure includes, for example, an acquisition unit that acquires image data from an imaging unit that images the surroundings of a vehicle, and a learning parking section that is included in learning image data prepared in advance. a plurality of reference points set on the lot line, and a connecting line connecting the two adjacent reference points, and the connecting line connects the vehicle in the vehicle longitudinal direction and the vehicle width direction when parking the vehicle. As a result of learning a plurality of relationships between the connection line and vehicle direction information that determines whether or not the vehicle direction reference line can be a vehicle direction reference line that extends in a direction substantially parallel to or substantially perpendicular to the vehicle reference line defined on at least one of the an estimation unit having a trained model and estimating an actual parking lot of the vehicle and a vehicle direction when parking in the actual parking lot based on a result obtained by inputting the image data to the learned model; including. According to this configuration, for example, the reference points are annotated based on the actual parking lot lines during learning, so the annotation accuracy is improved, and images including the lot lines can be input to the learned model during estimation, so that the actual parking The accuracy of partition estimation can be improved. Furthermore, during annotation, we learn vehicle direction information that determines whether the vehicle direction reference line can be a vehicle direction reference line that extends in a direction approximately parallel or orthogonal to the vehicle reference line when parking the vehicle, so the estimated actual The accuracy of estimating the vehicle direction when parking in a parking lot can be improved.
また、上述の駐車位置検出システムの車両基準線は、例えば、前記車両前後方向と前記車両幅方向に一本ずつ設定されてもよい。この構成によれば、例えば、車両方向基準線になり得るか否かの判定を容易かつ効率的に行うことができる。 Moreover, the vehicle reference line of the above-mentioned parking position detection system may be set, for example, one each in the vehicle longitudinal direction and the vehicle width direction. According to this configuration, for example, it is possible to easily and efficiently determine whether or not the vehicle direction reference line can be used.
また、上述の駐車位置検出システムの前記推定部は、例えば、前記実駐車区画が推定された場合、前記実駐車区画上で前記接続線に対応する対応線が前記車両方向基準線になり得るか否かを示す車両方向推定値を算出し、前記車両方向推定値が所定の閾値以下の場合、前記対応線が前記車両方向基準線であることを示す方向フラグを付与し、前記車両方向推定値が前記閾値を超える場合、前記対応線が前記車両方向基準線ではないことを示す非方向フラグを付与してもよい。この構成によれば、例えば、車両方向の推定信頼度をより向上することができる。 Further, the estimation unit of the above-mentioned parking position detection system may, for example, determine whether, when the actual parking lot is estimated, a corresponding line corresponding to the connection line on the actual parking lot can become the vehicle direction reference line. If the estimated vehicle direction is less than or equal to a predetermined threshold, a direction flag indicating that the corresponding line is the vehicle direction reference line is added, and the estimated vehicle direction is calculated. exceeds the threshold, a non-direction flag may be added indicating that the corresponding line is not the vehicle direction reference line. According to this configuration, for example, the reliability of estimating the vehicle direction can be further improved.
また、上述の駐車位置検出システムの前記推定部は、例えば、前記車両方向基準線が複数存在する場合、当該車両方向基準線に対して重みつ付け処理を実行して、前記車両方向の推定に用いる前記車両方向基準線を補正してもよい。この構成によれば、例えば、複数の車両方向基準線に対して優先度を付けやすくなり、信頼性のより高い車両方向を推定することができる。 Further, the estimation unit of the above-mentioned parking position detection system may perform a weighting process on the vehicle direction reference line when there is a plurality of the vehicle direction reference lines to estimate the vehicle direction. The vehicle direction reference line used may be corrected. According to this configuration, for example, it becomes easier to prioritize a plurality of vehicle direction reference lines, and a more reliable vehicle direction can be estimated.
また、上述の駐車位置検出システムの前記推定部は、例えば、補正された複数の前記車両方向基準線の前記車両基準線に対する角度の平均値を算出し、前記車両基準線に対する統合車両方向基準線を決定してもよい。この構成によれば、例えば、信頼性のより高い車両方向を容易に推定して駐車支援時の誘導制御に反映させることができる。 Further, the estimation unit of the above-mentioned parking position detection system calculates, for example, an average value of angles of a plurality of corrected vehicle direction reference lines with respect to the vehicle reference line, and calculates an average value of angles of the plurality of corrected vehicle direction reference lines with respect to the vehicle reference line, and calculates an integrated vehicle direction reference line with respect to the vehicle reference line. may be determined. According to this configuration, for example, a more reliable vehicle direction can be easily estimated and reflected in guidance control during parking assistance.
以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に限られるものではない。 Embodiments and modified examples of the present disclosure will be described below based on the drawings. The configurations of the embodiments and modified examples described below, as well as the effects and effects brought about by the configurations, are merely examples, and are not limited to the contents described below.
図1は、本実施形態の駐車位置検出システムが搭載される車両10の例示的かる模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。
FIG. 1 is an exemplary schematic plan view of a
図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a~14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、撮像部14の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14は、車両10が移動可能な路面や路面に付された指標(駐車区画(領域)を示す区画線、車線分離線や矢印等を含む)や物体(障害物として、例えば、歩行者、車両等)を含む車両10の外部の周辺環境を逐次撮影し、撮像画像データとして出力する。
As illustrated in FIG. 1, the
撮像部14は、車両10の外周部に設けられている。撮像部14aは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10aの上方位置に設けられて、車両10の後端部(例えばリヤバンパ10a)を含む後方領域を撮像可能である。また、撮像部14bは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10bやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10b)を含む前方画像を撮像可能である。また、撮像部14cは、例えば、車両10の右側の端部、例えば右側のドアミラー10cに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14dは、例えば、車両10の左側の端部、例えば左側のドアミラー10dに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。
The
本実施形態の駐車支援装置は、複数の撮像部14で得られた画像データ(画像)に基づいて、演算処理や画像処理を実行することで、区画線等の認識(検出)を行うことができる。駐車位置検出システムは、区画線等の認識により、車両10を駐車させるための実駐車区画(領域)の推定や、その実駐車区画に車両10を誘導する際に利用する実駐車位置(移動目標位置)の推定の他、例えば、車両10の現在位置の推定、車両10を移動目標位置に誘導するための移動経路の算出等を実行することができる。なお、複数の撮像部14で得られた画像データに基づいて、演算処理や画像処理を実行することで、より広い視野角の画像を生成したり、車両10を上方や前方、側方等から見た仮想的な画像(俯瞰画像(平面画像)や側方視画像、正面視画像等)を生成したりすることができる。
The parking assistance device of this embodiment can recognize (detect) lane markings, etc. by performing arithmetic processing and image processing based on image data (images) obtained by the plurality of
本実施形態の駐車位置検出システムは、上述したような車両10の撮像部で撮像された実際の駐車区画が映り込んでいる画像データや別途撮影された類似の撮像データを用いて、学習済モデルを作成し、駐車区画を推定する機械学習等の学習手法を用いる。なお、学習手法は、機械学習に限定されることなく周知の種々の学習手法が利用可能である。以下の説明では、学習手法として機械学習(深層学習)を用いて説明する。駐車位置検出システムは、機械学習における学習モードおよび学習モードで構築した学習済モデルを用いて車両10が駐車可能な駐車区画(実駐車区画)やその駐車区画に車両を駐車する際に適切な車両方向(駐車姿勢、駐車角度等)を実現するために基準となる車両方向基準線を用いて推定する推定モードを実行する。学習モードおよび推定モードの詳細は後述する。
The parking position detection system of the present embodiment uses image data in which an actual parking lot is captured by the imaging unit of the
本実施形態において、駐車位置検出システムは、学習モードが事前に実行されて作成された学習済モデルを記憶部等に記憶した状態で車両10に搭載している。したがって、車両10に搭載された駐車位置検出システムは、撮像部14が撮像した画像データを用いて、車両10のみで完結する処理により駐車可能な駐車区画(実駐車区画)及び車両方向の推定が実行可能で、推定した実駐車区画及び車両方向を用いて駐車支援処理等をスムーズに実行することができる。以下に示す実施形態では、車両10で学習モード及び推定モードを実行可能な構成を説明する。なお、他の実施形態においては、車両10以外の外部のサービスセンタ等に駐車位置検出システムを配置し、駐車区画等を推定したい場合に車両10側で撮像した画像データをサービスセンタに送信する。そして、サービスセンタから出力される推定結果を受信して、駐車支援処理に利用するようにしてもよい。また、他の実施形態では、学習モードをサービスセンタで実行し、推定モードを車両10で実施してもよい。つまり、推定モードの結果が車両10で取得できればよい。したがって、学習済モデル記憶部28の配置位置も限定されない。
In this embodiment, the parking position detection system is mounted on the
図2は、駐車位置検出システム16の構成を示す例示的かつ模式的なブロック図である。駐車位置検出システム16は、プロセッサやメモリなどといったハードウェアで構成される、一般的なパーソナルコンピュータで実現可能である。そして、プロセッサが記憶部等のメモリに記憶されたプログラムを読み出して実行することによって、駐車位置検出システム16における各機能モジュールを実現する。駐車位置検出システム16は、機能モジュールとして、例えば、モード切替部18、取得部20、学習モード実行部22、推定モード実行部24等を含む。学習モード実行部22は、参照点設定部22a、方向フラグ設定部22b、モデル作成部22c等の詳細モジュールを含む。推定モード実行部24は、推定部24a、処理部24b等の詳細モジュールを含む。そして、推定部24aは、参照点推定部24a1、車両方向推定値算出部24a2、方向フラグ付与部24a3等で構成される。また、処理部24bは、変換部24b1、駐車位置特定部24b2、基準線設定部24b3等で構成される。なお、これらのモジュールは、例えば、機能ごとに分離、または統合されてもよいし、ハードウェアで構成されてもよい。
FIG. 2 is an exemplary and schematic block diagram showing the configuration of the parking
また、駐車位置検出システム16には、表示装置26や学習済モデル記憶部28及び撮像部14等が接続されている。学習モード実行時には、学習モード実行部22が機械学習によって構築した学習済モデルが、更新可能な学習済モデル記憶部28に順次記憶され、推定モード実行時には、学習済モデル記憶部28から学習済モデルが適宜読み出され、推定処理に利用される。学習済モデル記憶部28は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性の書き換え可能な記憶装置である。
Further, the parking
表示装置26は、推定モード実行部24で推定された結果が表示される。表示装置26は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等で構成される表示部26aを備える。表示装置26は表示部26aのみで構成されてもよいし、学習済モデル用の教師データを作成する際やモード切替部18を介したモード切替操作等を行う際に入力操作を行う操作部26bが一体化されてもよい。表示部26aと操作部26bとが一体化される場合、表示装置26の表示部26aは、例えば、タッチパネル等の透明な操作部26bで覆われている。駐車位置検出システム16の操作者は、操作部26bを介して表示部26aに表示される画像を視認することができる。また、操作者は、表示部26aの表示画面に表示される画像に対応した位置で手指やタッチペン等により操作部26bを触れたり押したり動かしたりして操作することで、操作入力を実行することができる。例えば、学習モード実行時には表示部26aに学習用の画像データが表示され、操作者(アノテート者)が操作部26bを操作することにより、アノテーション等の操作を行うことができる。また、推定モード実行時には表示部26aに撮像部14で撮像されたが実画像が表示されるとともに、推定結果や推定結果に基づく駐車支援制御を実行するための操作案内等が表示される。操作者(推定結果利用者、運転者等)は、操作部26bを操作して、推定結果の採用の可否や駐車支援制御の実行要求等を行うことができる。
The display device 26 displays the results estimated by the estimation mode execution unit 24. The display device 26 includes a display section 26a configured of, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The display device 26 may be composed of only a display section 26a, or may include an operation section 26b that performs input operations when creating training data for a trained model or performing a mode switching operation via the mode switching section 18. may be integrated. When the display section 26a and the operation section 26b are integrated, the display section 26a of the display device 26 is covered with a transparent operation section 26b such as a touch panel, for example. The operator of the parking
モード切替部18は、駐車位置検出システム16の学習モード実行部22と推定モード実行部24の切り替えを実行する。例えば、操作部26bを介して、操作者が操作することにより、機械学習における学習モードと推定モードの選択が可能になる。
The mode switching unit 18 switches between the learning mode execution unit 22 and the estimation mode execution unit 24 of the parking
取得部20は、撮像部14が撮像した画像データ(動画情報または静止画情報)、または外部のデータベース等の保持する画像データ(動画情報または静止画情報)を取得可能である。取得部20は、学習モード実行時の場合、撮像部14を介して車両10の周辺画像、例えば、駐車区画が映り込んでいる画像の画像データを取得可能である。または外部のデータベース等の保持する駐車区画が映り込んでいる画像の画像データを取得である。そして、取得部20は、取得した画像データを学習モード実行部22に提供し、アノテーションに利用する。また、取得部20は、推定モード実行時の場合、撮像部14を介して車両10の現在の周辺画像(実画像)、例えば、駐車区画が映り込んでいると見なされる画像の画像データを取得して、推定モード実行部24に提供して推定処理に利用する。
The acquisition unit 20 can acquire image data (moving image information or still image information) captured by the
図3は、取得部20が取得する画像データに基づく画像30を示す例示的かつ模式的な図である。図3に示す画像30の場合、駐車領域Eである駐車区画32を規定する区画線32a,32bとして、略U字形状の例えば白線が示されている。なお、画像30の場合、車両10等に搭載された撮像部14を用いて撮像して画像であるため、下方領域に車両10の一部であるフロントバンパ10bが映り込んでいる。
FIG. 3 is an exemplary and schematic diagram showing an
学習モード実行部22は、車両10が駐車区画32の正確な位置情報を推定するための機械学習における学習モード処理を実行する。学習モード実行部22は、モード切替部18によって学習モードが選択されている場合に実行される。
The learning mode execution unit 22 executes learning mode processing in machine learning for the
前述したように、学習モード実行部22は、参照点設定部22a、方向フラグ設定部22b、モデル作成部22cを含む。参照点設定部22aは、世界座標系上での駐車区画32の位置を推定するための機械学習で用いる学習済モデルを構築するための教師データに対する正解値の設定を行う。つまり、取得部20によって取得された画像30に写り込んでいる駐車区画32に対して、作業者によるアノテーション(正解値付け作業)を実行する。なお、このとき利用する画像を「学習用画像」と称し、画像データに写り込んでいる駐車区画を「学習用駐車区画」と称する場合がある。参照点設定部22aは、取得部20が取得した画像データから駐車区画32の推定に有効な参照点となり得る区画線32a,32bが鮮明に撮影されているフレーム(すなわち静止画像)を学習用画像として選択する。これらの選択は、学習モード実行部22が自動で行ってもよいし、アノテート作業者(アノテーションを行う作業者)が操作部26bを用いて行ってもよい。参照点設定部22aは、アノテート作業者が操作部26bを操作して指定した学習用画像上の位置を順次参照点として設定する。この場合、参照点設定部22aは、(予め準備された)学習用の画像データに含まれる学習用の駐車区画32を規定する区画線32a,32bに設定された複数の参照点と学習用の画像データ上の座標(世界座標)とを関連付けるアノテーションを順次実行する。また、方向フラグ設定部22bは、複数の参照点(例えば、4点)で規定される学習用駐車区画に車両を駐車させることを想定した場合、隣接する二つの参照点を結ぶ接続線が、車両の車両前後方向と車両幅方向との少なくとも一方に定められる車両基準線と略平行または略直交する方向に延びる車両方向基準線になり得るか否かを定めた車両方向情報としての方向フラグを設定する(アノテーションする)。なお、本実施形態では、車両方向基準線は、例えば略矩形の仮想車両を理想的な位置、かつ理想的な車両方向(駐車姿勢)で駐車区画32に位置させた時に、二つの参照点を結ぶ複数の接続線のうち、どの接続線が仮想車両の車両基準線(仮想車両の車両前後方向と車両幅方向との少なくとも一方に定められる線)と略平行または略直交する線として説明する。
As described above, the learning mode execution section 22 includes a reference point setting section 22a, a direction flag setting section 22b, and a model creation section 22c. The reference point setting unit 22a sets correct values for teacher data for constructing a learned model used in machine learning for estimating the position of the
図4は、図3で示す画像30を用いたアノテーションを説明する例示的かつ模式的な図である。図4は、説明のために、図3の駐車区画32を俯瞰視した俯瞰画像30Aで示している。また、図5~図14は、図4とは異なる形状パターンの駐車区画32が示されている例である。
FIG. 4 is an exemplary and schematic diagram illustrating annotation using the
図4において、駐車区画32を規定する区画線32a,32bは、所定間隔(例えば、一般的な普通車の車幅より乗降スペースを考量した距離)で路面に例えばペイントされている。図4に示される区画線32a,32bは、走行路側(駐車準備のための車両が走行する通路側)に、略U字の形状の湾曲した接続部が形成され、当該接続部が形成されていない側に輪留め38が配置され、さらに、その後方に壁40が配置されている例である。駐車区画32のアノテーションは、各区画線32a(32b)上でアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図4の形状パターンの駐車区画32の場合、参照点P1は、区画線32aの略U字の接続部先端位置(中央位置)に設定されている。U字湾曲の先端部は、アノテート作業者の位置認識のずれが生じにくい位置である。同様に、参照点P2は、区画線32bの略U字の接続部先端位置(中央位置)に設定されている。また、参照点P3は、区画線32bの内側の白線(駐車領域E側の線)でアノテート作業者の位置認識のずれが生じ難い位置である後端位置に設定されている。同様に、参照点P4は、区画線32aの内側の白線(駐車領域E側の線)の後端位置に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34(学習用駐車区画)としてアノテーションされて学習される。この場合、学習区画34は、略台形形状で、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
In FIG. 4,
このように、各参照点P1~P4を区画線32a,32bのうち、比較的認識し易く、認識位置に個人差が生じ難い位置(U字湾曲の先端(頂部)や白線の端部等のエッジ上等)に設定することによって、アノテーション時のばらつきを抑制することが可能になり、より信頼性の高い学習を実行することができる。
In this way, each of the reference points P1 to P4 is placed at a position among the
ところで、実際に駐車区画32に車両10を駐車する場合、駐車区画32の中における車両10の車両方向、すなわち駐車姿勢(駐車区画32に対する車両10の傾きの抑制)が重要になる。例えば、車両10に対して適切な広さの駐車区画32が存在する場合でも、駐車区画32内で車両10が傾いて駐車された場合、好ましい駐車とは言えない。また、駐車支援制御等では、車両10の傾き駐車は、駐車支援完了と認められない場合がある。したがって、駐車区画32を有効に利用するためには、学習用の駐車区画32の学習を行う場合、車両10を実際に駐車する場合に基準にできる車両方向(車両方向基準線)を定めておくことが望ましい。そこで、学習モード実行部22は、参照点P1~P4を学習する際に、付加情報として車両方向情報を学習させる方向フラグ設定部22bを備える。方向フラグ設定部22bは、まず、学習用の駐車区画32に理想的な位置、理想的な姿勢で駐車する略矩形(例えば、車両前後方向に長い長方形)の仮想車両36の設定を行う。そして、方向フラグ設定部22bは、隣接する二つの参照点を結ぶ複数の接続線のうちいずれが、仮想車両36の車両前後方向と車両幅方向との少なくとの一方に定められる車両基準線と略平行または略直交する方向に延びる、仮想車両36の外形と平行な車両方向基準線になり得るか否かを定めた車両方向情報を設定する。ここで、車両基準線とは、略矩形の仮想車両36の車両前後方向の車両側面に沿って延びる左右側面ラインや左右側面ラインに平行な前後ライン(車幅方向中心線)や、仮想車両36の車幅方向の前端面や後端面に沿って延びる前面ライン、後面ライン、前面ラインや後面ラインに平行な車幅ライン(前後方向中心線)等である。なお、車両基準線の設定本数は適宜設定可能である。例えば、車両基準線は、仮想車両36の車両前後方向と車両幅方向との少なくとの一方に定められてもよいし、両方定められてもよい。例えば、左側面ラインのみ、右側面ラインのみ、前面ラインのみ、後面ラインのみでもよい。また、その全てでもよいし、車両前後方向のうち1本と車両幅方向のうち1本の計2本でもよい。さらに、車両基準線としては車両前後方向と車両幅方向とのうち1本のみを定め、他方は、そのラインと直交するか否かで認識するようにしてもよい。このように、車両基準線を複数設定することにより、車両方向基準線になり得るか否か判定が容易になる。なお、現実的には、車両前後方向のうち1本と車両幅方向のうち1本の2本で設定することにより、判定精度や判定効率、処理負荷等のバランスを得やすい。
By the way, when actually parking the
例えば、図4の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、略台形形状である。そして、学習区画34に設定される略矩形(例えば、長方形)の仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図4の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L1と接続線L3となる。つまり、学習モード実行時に接続線L1と接続線L3を車両方向基準線として方向フラグを付す学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図4に示すような学習区画34の実駐車区画が推定された場合、接続線L1または接続線L3に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり略U字形状の区画線32a,32bについて複数の画像データを学習する。なお、上述したように、車両基準線を前面ライン36a、左側面ライン36b、後面ライン36c、右側面ライン36dのうち1本を設定しておき、そのラインと略平行または略直交する接続線を車両方向基準線として、方向フラグを付すようにしてもよい。同様に、車両基準線を車両前後方向のうち1本と車両幅方向のうち1本の計2本で設定しておき、そのラインと略平行または略直交する接続線を車両方向基準線として、方向フラグを付すようにしてもよい。以下の例でも同様である。
For example, in the case of FIG. 4, the learning section 34 (parking area E) defined by the four reference points P1 to P4 has a substantially trapezoidal shape. The vehicle reference lines of the substantially rectangular (for example, rectangular)
図5の俯瞰画像30Aで示される形状パターンの区画線32a1,32b1は、図4に示される略U字形状の区画線32a,32bより、奥行き方向(区画線32a,32bの延在方向)に短く、走行通路側に、略U字の形状を形成する直線の接続部が位置するように構成されている。なお、区画線32a,32bの奥行き方向には、壁40が配置されている。この場合も駐車区画32のアノテーションは、各区画線32a1(32b1)上でアノテート作業者によって認識位置の違いが発生し難い位置に例えば4点の参照点P1~P4で設定される。図5の場合、参照点P1は、区画線32a1の内側の白線(駐車領域E側の線)の先端位置(角部)に設定されている。接続部の先端部の角部は、アノテート作業者の位置認識のずれが生じにくい位置である。同様に、参照点P2は、区画線32b1の内側の白線(駐車領域E側の線)の先端位置(角部)に設定されている。また、参照点P3は、区画線32b1の内側の白線(駐車領域E側の線)の後端位置に設定されている。同様に、参照点P4は、区画線32a1の内側の白線(駐車領域E側の線)の後端位置に設定されている。つまり、参照点P1~P4で囲まれる領域(略長方形領域)が実際に車両の駐車に利用可能な学習区画34として学習される。この場合、学習区画34は、略長方形であり、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The partition lines 32a1 and 32b1 of the shape pattern shown in the bird's-
図5の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、略長方形である。そして、学習区画34に設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図5の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L1~接続線L4の全てとなる。つまり、学習モード実行時に接続線L1~接続線L4いずれも車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図5に示すような学習区画34の実駐車区画が推定された場合、接続線L1~接続線L4のいずれかに対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり、奥行き方向の長さが短く略U字形状の接続部が直線である区画線32a1,32b1について複数の画像データを学習する。
In the case of FIG. 5, the learning section 34 (parking area E) defined by the four reference points P1 to P4 is approximately rectangular. The vehicle reference lines of the
図6の俯瞰画像30Aで示される形状パターンの駐車区画32は、直線形状の区画線32b2と、柱42、走行通路側に当該走行通路に沿って延びる路側線32cと、駐車区画32の後方の壁40で規定される変則形状である。柱42は、路側線32cに接近して設けられ、柱42の後方(壁40側)は空き空間となっている。また壁40の近傍には、輪留め38が配置されている。この場合、柱42の区画線32b2側の側面が駐車区画32を規定する一部分として利用される。駐車区画32のアノテーションにおいて、柱42の側面上と区画線32b2上の点がアノテート作業者によって認識位置の違いが発生し難い位置であり、その点を用いて例えば4点の参照点P1~P4が設定される。すなわち、図6の場合、参照点P1は、柱42の路側線32c側かつ区画線32b3側のコーナー部(端部)に設定されている。参照点P1は、柱42のコーナー部を利用するため、アノテート作業者の認識のずれが生じにくい位置である。参照点P2は、区画線32b3の路側線32c側の先端かつ内側の位置(駐車領域E側の位置)に設定されている、アノテート作業者の認識のずれが生じ難い位置である。また、参照点P3は、区画線32b3の内側(駐車領域E側)の後端位置に設定されている。参照点P4は、柱42の壁40側かつ区画線32b3側のコーナー部(端部)に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34の一部として学習される。この場合、学習区画34は、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図6の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、略台形形状である。そして、学習区画34に設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図6の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L2と接続線L4となる。つまり、学習モード実行時に接続線L2と接続線L4を車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図6に示すような学習区画34の実駐車区画が推定された場合、接続線L2または接続線L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり、直線形状の区画線32b2と、柱42、路側線32cと、壁40等で規定される駐車区画32について複数の画像データを学習する。
In the case of FIG. 6, the learning section 34 (parking area E) defined by the four reference points P1 to P4 has a substantially trapezoidal shape. The vehicle reference lines of the
図7の俯瞰画像30Aで示される形状パターンの駐車区画32は、図4に示される例と同様に、略U字の形状の湾曲した接続部を有する区画線32a3,32b3及び区画線32a3,32b3の離間方向に延在する区画線32dで構成されるが、区画線32a3の延在方向に延びる側溝44と接触する区画線32a3の一部が省略されている例である。駐車区画32のアノテーションは、各区画線32a(32b)上でアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図7の形状パターンの駐車区画32の場合、参照点P1は、区画線32a3の略U字の接続部先端位置(中央位置)に設定されている。U字湾曲の先端部は、アノテート作業者の位置認識のずれが生じにくい位置である。同様に、参照点P2は、区画線32b3の略U字の接続部先端位置(中央位置)に設定されている。また、参照点P3は、区画線32b3の内側の白線(駐車領域E側の線)と区画線32dとの接続部で、アノテート作業者の位置認識のずれが生じ難い位置である後端位置に設定されている。一方、参照点P4は、区画線32a3の内側の白線(駐車領域E側の線)の後端位置に設定されている。ただし、区画線32a3の内側の白線が、区画線32b3の内側の白線より短く、参照点P4が参照点P1側に偏っているため、参照点P1~P4で囲まれる学習区画34は歪な形状となり、この領域が実際に車両の駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
Similar to the example shown in FIG. 4, the
図7の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、歪んだ略矩形形状である。そして、学習区画34に設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図7の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L1のみとなる。つまり、学習モード実行時に接続線L1を車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図7に示すような学習区画34の実駐車区画が推定された場合、接続線L1に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり、一方の奥行き方向の長さが短く略U字形状の湾曲した接続部を有する区画線32a3,32b3について複数の画像データを学習する。
In the case of FIG. 7, the learning section 34 (parking area E) defined by the four reference points P1 to P4 has a distorted approximately rectangular shape. The vehicle reference lines of the
図8の俯瞰画像30Aで示される形状パターンの駐車区画32は、壁40a,40b,40cで一部が囲まれ、他の一部が直線の路側線32c及び区画線32dで囲まれた縦列駐車用の区画である。駐車区画32のアノテーションの際、壁40a,42b,40c及び路側線32c、区画線32dにおいて、個々の接続部が、アノテート作業者によって認識位置の違いが発生し難い位置であり、その点を用いて例えば4点の参照点P1~P4が設定される。すなわち、図8の場合、参照点P1は、壁40cと路側線32cとの接続部の内側(駐車領域E側)のコーナー部に設定されている。参照点P2は、路側線32cと区画線32dの接続部の内側(駐車領域E側)のコーナー部に設定される。また、参照点P3は、区画線32dと壁40aの接続部に設定される。なお、壁40aと壁40bとの接続部には、窪み40pが存在し駐車領域として利用しにくいため、P3は、区画線32dと壁40aの接続部に設定されている。参照点P4は、壁40bと壁40cの接続部の内側(駐車領域E側)に設定される。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34として学習される。この場合、学習区画34は、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図8の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、略台形形状である。そして、学習区画34に設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図8の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L1、接続線L2、接続線L4となる。つまり、学習モード実行時に接続線L1,L2,L4を車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図8に示すような学習区画34の実駐車区画が推定された場合、接続線L1または接続線L2または接続線L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり、壁40a,40b,40cで一部が囲まれ、他の一部が直線の路側線32c及び区画線32dで囲まれた縦列駐車用の駐車区画32について複数の画像データを学習する。
In the case of FIG. 8, the learning section 34 (parking area E) defined by the four reference points P1 to P4 has a substantially trapezoidal shape. The vehicle reference lines of the
図9の俯瞰画像30Aで示される形状パターンの駐車区画32は、図4に示される例と同様に、略U字の形状の湾曲した接続部を有する区画線32a,32bで構成されるが、区画線32aの略U字の形状の湾曲した接続部が、自車両(車両10)により隠蔽されてしまっている例である。したがって、駐車区画32のアノテーションは、実際に視認できる各区画線32a(32b)上で実施される。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図9の形状パターンの駐車区画32の場合、参照点P1は、区画線32aにおいて自車両による隠蔽が行われている境界部分に設定されている。この境界部分は、アノテート作業者の位置認識のずれが生じにくい位置である。参照点P2は、区画線32bの略U字の接続部先端位置(中央位置)に設定されている。また、参照点P3は、区画線32bの内側の白線(駐車領域E側の線)でアノテート作業者の位置認識のずれが生じ難い位置である後端位置に設定されている。参照点P4は、区画線32aの内側の白線(駐車領域E側の線)の後端位置に設定されている。参照点P1~P4で囲まれる領域が駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図9の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)は、略矩形形状である。そして、学習区画34に設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図9の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L3と接続線L4となる。つまり、学習モード実行時に接続線L3と接続線L4を車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図9に示すような自車両で一部隠蔽された学習区画34の実駐車区画が推定された場合、接続線L3または接続線L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、自車両で一部隠蔽された略U字形状の区画線32a,32bについて複数の画像データを学習する。
In the case of FIG. 9, the learning section 34 (parking area E) defined by the four reference points P1 to P4 has a substantially rectangular shape. The vehicle reference lines of the
図10の俯瞰画像30Aで示される形状パターンの駐車区画32は、図4に示される例に類似する略U字の形状の湾曲した接続部を両端に有する区画線32a4,32b4で構成される。図10の場合、区画線32a4と区画線32b4は延在方向に段差を有しており、走行路側(駐車準備のための車両が走行する通路側)と逆側に位置で、区画線32gによって接続されている。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図10の形状パターンの駐車区画32の場合、参照点P1は、区画線32a4の略U字の接続部先端位置(中央位置)に設定されている。U字湾曲の先端部は、アノテート作業者の位置認識のずれが生じにくい位置である。同様に、参照点P2は、区画線32b4の略U字の接続部先端位置(中央位置)に設定されている。また、参照点P3は、区画線32bの内側の白線(駐車領域E側の線)と区画線32gの接合部でアノテート作業者の位置認識のずれが生じ難い位置である後端位置に設定されている。同様に、参照点P4は、区画線32aの内側の白線(駐車領域E側の線)と区画線32gの接合部に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、略矩形形状で、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図10の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)において設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図10の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する接続線は、接続線L3のみとなる。つまり、学習モード実行時に接続線L3を車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図10に示すような学習区画34の実駐車区画が推定された場合、接続線L3に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターン、つまり、略U字の形状の湾曲した接続部を両端に有する区画線32a4,32b4が、区画線32a4と区画線32b4の延在方向に段差を有して区画線32gによって接続されている形状パターンの複数の画像データを学習する。
In the case of FIG. 10, the vehicle reference lines of the
図11の俯瞰画像30Aで示される形状パターンの駐車区画32は、図10に示される例に類似する略U字の形状の湾曲した接続部を両端に有する区画線32a5,32b5で構成される。図11の場合も区画線32a5と区画線32b5は延在方向に段差を有しているが、走行路側(駐車準備のための車両が走行する通路側)と逆側に位置で、区画線32eによって接続されている。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図11の形状パターンの駐車区画32の場合、参照点P1は、区画線32a4の略U字の接続部先端位置(中央位置)に設定されている。U字湾曲の先端部は、アノテート作業者の位置認識のずれが生じにくい位置である。同様に、参照点P2は、区画線32b4の略U字の接続部先端位置(中央位置)に設定されている。また、参照点P3は、区画線32bの内側の白線(駐車領域E側の線)と区画線32eの接合部でアノテート作業者の位置認識のずれが生じ難い位置である後端位置に設定されている。同様に、参照点P4は、区画線32aの内側の白線(駐車領域E側の線)と区画線32eの接合部に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、略矩形形状で、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図11の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)において設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。ただし、図11の学習区画34を構成する接続線L1~L4はいずれの車両基準線と略平行または略直交とはならない。この場合、推定モード実行時に、形状パターンが図11に示すような実駐車区画が推定されても車両10の駐車角度の基準となる車両方向基準線と認識できず、その結果を用いた駐車支援制御等が良好に実行できない。したがって、学習モード実行部22は、図11のような形状パターンの駐車区画32は実駐車区画の推定対象外として学習する。
In the case of FIG. 11, the vehicle reference lines of the
なお、このように推定対象外となってしまう駐車区画32の扱いについて、例えば、車両誘導時の処理によって図11のような駐車区画32を推定対象とできる場合もある。例えば、図11の例の場合、接続線L2及び接続線L4は、車両基準線との角度誤差は僅かであり、車両基準線とほぼ平行である場合が多い。そこで、まず、接続線L2と接続線L4の角度の平均値を求め、その平均値を目標角度として、車両基準線に対する仮の車両方向基準線とする。そして、仮の車両方向基準線を参照して車両の誘導を開始する。駐車区画32に対する車両の誘導が進み、駐車区画32に車両の後端部が進入すると、図9で説明したように、区画線32a5及び区画線32b5の略U字の接続部先端位置(中央位置)に設定されている参照点P1及び参照点P2が隠蔽される。その結果、参照点P1及び参照点P2は区画線32a5及び区画線32b5の内側の白線上で規定される点に変更可能となる。つまり、参照点P4と変更された参照点P1とによって規定される修正接続線L4及び、参照点P3と変更された参照点P2とによって規定される修正接続線L2は、誘導中の車両の車両基準線と略平行または略直交すると見なすことが可能になる。したがって、図11に示されるような駐車区画32を推定対象とする場合、接続線L2と接続線L4の角度の平均値を求め、その平均値を目標角度として、車両基準線に対する仮の車両方向基準線として、車両の誘導を開始することにより、推定対象外とされた駐車区画32にも車両を適切な姿勢で誘導することが可能になる。
Regarding the handling of the
次に、図12~図14は、アノテーションの際に学習区画34を構成する接続線と車両基準線とが略平行または略直交になっているか否かの判定がしにくい例である。
Next, FIGS. 12 to 14 are examples in which it is difficult to determine whether the connection line forming the
図12の俯瞰画像30Aで示される形状パターンの駐車区画32は、直線の区画線32a6とそれに対向する壁40d及び壁40eと、壁40eと区画線32a6とを接続する壁40fで構成されている。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図12の形状パターンの駐車区画32の場合、参照点P1は、区画線32a6の内側(駐車領域E)の先端部に設定されている。また、参照点P2は、壁40dの内側(駐車領域E)の先端部に設定されている。参照点P3は、壁40eと壁40fの接続部内側(コーナー部)に設定されている。参照点P4は、壁40fと区画線32a6の接続部の内側(駐車領域E側)に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、略矩形形状で、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図12の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)において設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図12の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する可能性が高いと容易に判定できる接続線は、壁40fに沿った接続線L3と、区画線32a6に沿った接続線L4である。しかしながら、区画線32a6の先端部(参照点P1の位置)と壁40dの先端部(参照点P2の位置)の形状は異なり、互いに離間しているため、アノテーションのときに参照点P1と参照点P2を結んだ接続線L1が、前面ライン36aと略平行または略直交するか否かの判断がつきにくい場合がある。このような場合は、誤学習の可能性を低減するため、否定判定して学習を行う。つまり、学習モード実行時に接続線L3と接続線L4のみを車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図12に示すような学習区画34の実駐車区画が推定された場合、接続線L3,L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターンの複数の画像データを学習する。
In the case of FIG. 12, the vehicle reference lines of the
図13の俯瞰画像30Aで示される形状パターンの駐車区画32は、直線の区画線32a7とそれに対向する柱42で構成されている。なお、柱42の周囲、具体的には側方(駐車領域E側)と後方側に、例えば、黄色のペイントが付された注意喚起領域46が2箇所形成されている。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図13の形状パターンの駐車区画32の場合、参照点P1は、柱42の後端位置(駐車準備のための車両が走行する通路側から遠い側)の内側(駐車領域E側)に設定されている。また、参照点P2は、区画線32a7の内側(駐車領域E側)の先端部に設定されている。参照点P3は、区画線32a7の内側(駐車領域E側)の後端部に設定されている。参照点P4は、後方側の注意喚起領域46の内側(駐車領域E側)の後端部に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34としてアノテーションされて学習される。この場合、学習区画34は、略台形形状で、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図13の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)において設定される仮想車両36の車両基準線は、前面ライン36aと左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図13の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する可能性が高いと容易に判定できる接続線は、区画線32b7に沿った接続線L2と、注意喚起領域46に沿った接続線L4である。しかしながら、注意喚起領域46の後端部の参照点P4の位置は、注意喚起領域46が黄色でありエッジの識別性が高くないため、アノテーションのときに参照点P3と参照点P4を結ぶ接続線L3と後面ライン36cと略平行または略直交するか否かの判断がつきにくい場合がある。このような場合は、誤学習の可能性を低減するため、否定判定して学習を行う。つまり、学習モード実行時に接続線L2と接続線L4のみを車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図13に示すような学習区画34の実駐車区画が推定された場合、接続線L2,L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターンの複数の画像データを学習する。
In the case of FIG. 13, the vehicle reference lines of the
図14の俯瞰画像30Aで示される形状パターンの駐車区画32は、直線の区画線32a8とそれに対向する区画線32b8、及び駐車領域Eの奥側で区画線32a8と区画線32b8とを接続する区画線32f、区画線32a8と区画線32fとにそれぞれ直交する位置に存在する柱42とで構成されている。なお、駐車領域Eの入口側(区画線32a8と区画線32b8の入口側)は、自車両(車両10)によって遮蔽されている。この場合もアノテート作業者によって認識位置の違いが発生し難い位置に操作部26bを介して参照点設定部22aにより例えば4点の参照点P1~P4で設定される。図14の形状パターンの駐車区画32の場合、参照点P1は、区画線32a8の内側と自車両による遮蔽領域の境界位置に設定されている。同様に、参照点P2は、区画線32b8の内側と自車両による遮蔽領域の境界位置に設定されている。参照点P3は、区画線32b8の後端部と区画線32dとの説億部の内側に設定されている。また、参照点P4は、区画線32a8の後端部の内側(駐車領域E側)に設定されている。つまり、参照点P1~P4で囲まれる領域(略台形領域)が実際に車両の駐車に利用可能な学習区画34の一部としてアノテーションされて学習される。この場合、参照点P1と参照点P2を結ぶ接続線L1と、参照点P2と参照点P3を結ぶ接続線L2と、参照点P3と参照点P4を結ぶ接続線L3と、参照点P4と参照点P1を結ぶ接続線L4と、で構成される。
The
図14の場合、4つの参照点P1~P4で規定される学習区画34(駐車領域E)において設定される仮想車両36の車両基準線は、前面ライン36a(自車両によって遮蔽)と左側面ライン36bと後面ライン36cと右側面ライン36dとなる。そして、図14の学習区画34を構成する接続線のうち、車両基準線と略平行または略直交する可能性が高いと容易に判定できる接続線は、区画線32a8に沿った接続線L4と、区画線32b8に沿った接続線L2である。しかしながら、参照点P1と参照点P2の位置は、自車両の遮蔽状態(遮蔽角度)によって変化するため、アノテーションのときに参照点P1と参照点P2を結ぶ接続線L1と後面ライン36cと平行になるか否かの判断がつきにくい場合がある。このような場合は、誤学習の可能性を低減するため、否定判定して学習を行う。つまり、学習モード実行時に接続線L2と接続線L4のみを車両方向基準線として学習(アノテーション)しておく。そして、推定モード実行時に、形状パターンが図14に示すような学習区画34の実駐車区画が推定された場合、接続線L2,L4に対応する線を車両方向基準線として、当該車両方向基準線を基準として車両方向を推定して駐車(誘導)すれば、推定された実駐車区画に車両を理想的な位置、理想的な姿勢で駐車することができる。学習モード実行部22は、同様な形状パターンの複数の画像データを学習する。
In the case of FIG. 14, the vehicle reference line of the
図2にもどり、モデル作成部22cは、各形状パターンの駐車区画32に関して学習済モデルを構築して、逐次学習済モデル記憶部28の内容を更新する。学習済モデルの構築については、周知の技術が利用可能であり、ここでの詳細な説明は省略するが、例えば、機械学習の一手法である深層学習(ディープラーニング)により学習済モデルを作成することができる。モデル作成部22cでは、参照点設定部22a及び方向フラグ設定部22bで作成された教師データを用いて学習を行う。
Returning to FIG. 2, the model creation unit 22c constructs a learned model for the
続いて、推定モード実行部24は、撮像部14で撮像した車両10の現在の周囲状況において、実駐車区画及び実駐車位置の正確な位置情報を推定するため、学習済モデルを用いた推定モード処理を実行する。推定モード実行部24は、モード切替部18によって推定モードが選択されている場合に実行される。
Next, the estimation mode execution unit 24 executes an estimation mode using the learned model in order to estimate accurate positional information of the actual parking lot and the actual parking position in the current surrounding situation of the
推定モード実行部24が実行されると、取得部20は、撮像部14が撮像している車両10の現在の周囲状況を示す画像データを順次取得し、推定部24aに提供する。なお、以下の説明では、図3及び図4~図14を適宜流用し説明する。
When the estimation mode execution unit 24 is executed, the acquisition unit 20 sequentially acquires image data showing the current surrounding situation of the
参照点推定部24a1は、学習済モデル記憶部28に記憶された学習済モデルを読み出し、取得部20が取得した推定用画像を、読み出した学習済モデルに入力し、駐車区画と見なせる参照点の位置を推定する。つまり、参照点推定部24a1は、推定用の画像データで抽出される白線等に対して、参照点P1~P4に相当する駐車区画点を抽出し、4点の駐車区画点が抽出できた場合、推定用の画像データ(推定画像)上の4点の座標値を決定し、推定部24aは、その4点の座標値で規定される領域を実駐車区画として推定する。 The reference point estimation unit 24a1 reads out the trained model stored in the trained model storage unit 28, inputs the estimation image acquired by the acquisition unit 20 into the read out trained model, and calculates the reference point that can be regarded as a parking lot. Estimate location. In other words, the reference point estimation unit 24a1 extracts parking lot points corresponding to the reference points P1 to P4 with respect to the white line etc. extracted from the image data for estimation, and if four parking lot points can be extracted. , the coordinate values of four points on the image data for estimation (estimated image) are determined, and the estimation unit 24a estimates the area defined by the coordinate values of the four points as an actual parking lot.
続いて、車両方向推定値算出部24a2は、参照点推定部24a1によって推定された各駐車区画点(4点の座標値)を結ぶ接続線において、例えば、0~1までの実数値(車両方向推定値)を算出する。学習済モデルには、例えば、接続線L1~L4において、駐車する場合の車両方向基準線と見なせる接続線には、「0」の実数値が割り当てられ、見なせない接続線には、「1」が割り当てられる。したがって、車両方向基準線である確率が低くなるほど大きくなる(「1」に近づく)実数値が割り当てられる。このときの実数値の割り当ては、例えば、接続線の位置ごとに0~1までの実数値が付与されたマップを利用して実行することができる。つまり、このマップにおいて、実数値が「0」に近いほど車両方向基準線として利用できる接続線であり、実数値が「1」に近いほど車両方向基準線として利用できない接続線であると定義している。車両方向推定値算出部24a2は、参照点推定部24a1が推定した各駐車区画点に基づく接続線に対して上述のマップを参照し、各接続線の車両方向推定値を算出する。 Next, the vehicle direction estimated value calculation unit 24a2 calculates, for example, a real value from 0 to 1 (vehicle direction estimated value). In the learned model, for example, among connection lines L1 to L4, connection lines that can be considered as vehicle direction reference lines when parking are assigned a real value of "0", and connection lines that cannot be considered are assigned a real value of "1". ' will be assigned. Therefore, a real value that becomes larger (closer to "1") is assigned as the probability that the line is the vehicle direction reference line becomes lower. The assignment of real values at this time can be performed, for example, using a map in which real values from 0 to 1 are assigned to each position of the connection line. In other words, in this map, the closer the real value is to 0, the connection line can be used as a vehicle direction reference line, and the closer the real value is to 1, the connection line cannot be used as a vehicle direction reference line. ing. The estimated vehicle direction value calculation unit 24a2 refers to the above-mentioned map for the connection line based on each parking lot point estimated by the reference point estimation unit 24a1, and calculates the estimated vehicle direction value of each connection line.
方向フラグ付与部24a3は、車両方向推定値算出部24a2が算出した車両方向推定値が所定の閾値以下の場合(例えば、0.3以下の場合)、参照点推定部24a1が推定した駐車区画点に基づく接続線が車両方向基準線であることを示す方向フラグを付与する。一方、方向フラグ付与部24a3は、車両方向推定値算出部24a2が算出した車両方向推定値が所定の閾値を超える場合(例えば、0.3を超える場合)、参照点推定部24a1が推定した駐車区画点に基づく接続線が車両方向基準線にはならないことを示す非方向フラグを付与する。 When the estimated vehicle direction value calculated by the estimated vehicle direction value calculation unit 24a2 is less than or equal to a predetermined threshold (for example, 0.3 or less), the direction flag assignment unit 24a3 sets the parking lot point estimated by the reference point estimation unit 24a1. A direction flag is attached to indicate that the connection line based on the vehicle direction reference line is the vehicle direction reference line. On the other hand, if the estimated vehicle direction value calculated by the estimated vehicle direction value calculation unit 24a2 exceeds a predetermined threshold (for example, exceeds 0.3), the direction flag assignment unit 24a3 determines whether the estimated vehicle direction value calculated by the estimated vehicle direction value calculation unit 24a2 A non-direction flag is attached to indicate that the connection line based on the demarcation point does not become a vehicle direction reference line.
このように、推定部24aは、例えば、図4~図14等に示されるような形状パターンの4点の駐車区画点で規定される実駐車区画と、方向フラグが付与された車両方向基準線に基づく車両方向を推定することができる。 In this way, the estimation unit 24a calculates, for example, an actual parking lot defined by four parking lot points in a shape pattern as shown in FIGS. 4 to 14, and a vehicle direction reference line to which a direction flag is attached. The vehicle direction can be estimated based on
なお、車両方向推定値算出部24a2(推定部24a)における実数値に基づき、車両基準線と略平行または略直交する車両方向基準線が複数存在する場合、車両方向基準線に対して重みつ付け処理を実行して、車両方向の推定に用いる車両方向基準線を補正してもよい。例えば、推定モード実行時に撮像部14で実画像を撮像する場合、撮像部14から撮像対象領域(駐車可能領域が存在すると見なされる領域)までの距離が近いほど、画像座標上の点を世界座標(地図)に投影する際の誤差が小さく、平行線としての精度が高くなる。この特性に基づく推定スコアを作成し重み付け処理を行い、車両方向の推定に用いる車両方向基準線の補正を行ってもよい。
In addition, based on the real value in the vehicle direction estimated value calculation unit 24a2 (estimation unit 24a), if there are a plurality of vehicle direction reference lines that are substantially parallel or orthogonal to the vehicle reference line, weighting is applied to the vehicle direction reference line. A process may be executed to correct the vehicle direction reference line used for estimating the vehicle direction. For example, when an actual image is captured by the
例えば、図12の形状パターンを流用して説明する。上述した説明では、接続線L1,L2に対応する線は車両方向基準線としない旨を説明したが、重み付け処理の説明では、接続線L1,L3,L4に対応する線が車両方向基準線となり得るとする。この場合、駐車区画32に対して、図9に示しように、右側から旋回しながら進入する場合、リヤバンパに設置された撮像部14aから最も近い車両方向基準線は接続線L1に対応する線となり、接続線L1に対応する線に対する重みを例えば「4」とする。また、次に撮像部14aから近い車両方向基準線は接続線L4に対応する線となり、接続線L4に対応する線に対する重みを例えば「3」とする。次に撮像部14aから近い車両方向基準線は接続線L3に対応する線となり、接続線L3に対応する線に対する重みを例えば「2」とする。このように撮像部14aからの距離に応じて(精度に応じて)重み付けを行うことにより、複数の車両方向基準線が存在する場合でも、より駐車支援に適した車両方向基準線の選択を行うことが可能になる。なお、車両方向基準線と推定される線が4本の場合(接続線L1~L4に対応する線)が推定された場合で、車両の進入方向が上述と同様に右側から進入する場合、接続線L1に対応する重みが「4」、接続線L4に対応する重みが「3」、接続線L2に対応する重みが「2」、接続線L3に対応する重みが「1」となる。また、重みの付け方は、車両の進入方向に応じて変更される。なお、重み付け処理は上述の内容に限定されず、周知の重み付け処理が適用可能であり、同様の効果を得ることができる。
For example, the shape pattern shown in FIG. 12 will be used for explanation. In the above explanation, it was explained that the line corresponding to the connection lines L1 and L2 is not the vehicle direction reference line, but in the explanation of the weighting process, the line corresponding to the connection lines L1, L3, and L4 is not the vehicle direction reference line. Suppose you get it. In this case, when approaching the
また、別の実施形態においては、上述したように、複数の車両方向基準線の候補が存在する場合、推定部24aは、補正された複数の車両方向基準線の車両基準線に対する角度の平均値を算出し、車両基準線に対する統合車両方向基準線を決定してもよい。例えば、図15において、走行通路における右方向を角度「0°」として、反時計回り方向に「+角度:0°~+180°」、時計回り方向に「-角度:0°~-180°=+180」を定義する。そして、車両方向基準線の候補となる線の座標上の角度(接続線L1,L3,L4に対応する対応線L1a,L3a,L4aの角度)が、それぞれ、対応線L1a=+5°、対応線L3a=+10°、対応線L4a=+100°であったとする。そして、対応線L1aの重みが「4」、対応線L3aの重みが「2」、対応線L4aの重みが「3」であるとする。なお、車両基準線と対応するように、対応線L1aと対応線L3aの角度に90°を加算して回転させて、以下のように重み付け状態での平均値を算出し、車両基準線に対する統合車両方向基準線Cを決定する。
C=(5°+90°)×(4+100°)×3+(10°+90°)×2/(4+3+2)=97.77
この統合車両方向基準線Cを用いることで、複数の候補が存在する場合でも、推定する車両方向基準線の信頼性を容易に向上することができるととともに、駐車支援時の誘導制御に反映させて、より適切な誘導を実現することができる。
In another embodiment, as described above, when there are a plurality of vehicle direction reference line candidates, the estimation unit 24a calculates the average value of the angles of the corrected plurality of vehicle direction reference lines with respect to the vehicle reference line. may be calculated to determine an integrated vehicle direction reference line for the vehicle reference line. For example, in FIG. 15, the right direction in the travel path is assumed to be an angle of "0°", the counterclockwise direction is "+ angle: 0° to +180°", and the clockwise direction is "-angle: 0° to -180°". +180" is defined. Then, the angle on the coordinates of the line that is a candidate for the vehicle direction reference line (the angle of the corresponding lines L1a, L3a, and L4a corresponding to the connecting lines L1, L3, and L4) is, respectively, the corresponding line L1a=+5° and the corresponding line Assume that L3a=+10° and corresponding line L4a=+100°. Assume that the weight of the corresponding line L1a is "4," the weight of the corresponding line L3a is "2," and the weight of the corresponding line L4a is "3." In addition, in order to correspond to the vehicle reference line, the corresponding line L1a and the corresponding line L3a are rotated by adding 90 degrees to the angle, and the average value in the weighted state is calculated as shown below, and the integration with respect to the vehicle reference line is performed. Determine the vehicle direction reference line C.
C=(5°+90°)×(4+100°)×3+(10°+90°)×2/(4+3+2)=97.77
By using this integrated vehicle direction reference line C, even when multiple candidates exist, the reliability of the estimated vehicle direction reference line can be easily improved, and it can also be reflected in guidance control during parking assistance. Therefore, more appropriate guidance can be achieved.
続いて、処理部24bの変換部24b1は、推定部24aで推定した、実駐車区画点に対応する対応位置を世界座標系に変換する。世界座標系への変換は、周知の技術が利用可能であり、詳細は省略するが、例えば、変換部24b1は、アフィン投影技術等を用いて、推定した実駐車区画点の座標を世界座標系に投影する。駐車位置特定部24b2は、世界座標系上における実駐車区画点の位置(座標)を特定し、撮像部14が撮像した現在の車両10の周囲状況を示す実画像に推定結果を重畳表示する。例えば、処理部24bは、図4~図14等に示されるような学習区画34と同様な実駐車区画や、仮想車両36と同様な車両アイコンを用いた実駐車位置を、実画像上に重畳し、運転者に推定結果を通知する。なお、実画像に重畳表示する車両アイコンを車両10の諸元情報等に基づいた形状とすることにより、実画像における車両10の駐車位置イメージをより正確に運転者等に認識させ易くすることができる。また、基準線設定部24b3は、推定された車両方向基準線を実画像上に重畳したり、図示を省略した駐車支援制御部等に提供したりして、駐車支援の制御向上に寄与する。
Subsequently, the conversion unit 24b1 of the processing unit 24b converts the corresponding position corresponding to the actual parking lot point estimated by the estimation unit 24a into the world coordinate system. For conversion to the world coordinate system, a well-known technique can be used, and the details will be omitted. to project. The parking position specifying unit 24b2 specifies the position (coordinates) of the actual parking lot point on the world coordinate system, and superimposes and displays the estimation result on the actual image captured by the
このように構成される駐車位置検出システム16の処理の流れを図16および図17のフローチャートを用いて説明する。
The processing flow of the parking
図16は、駐車位置検出システム16で利用する機械学習における学習モードを実行する際の処理を示した例示的なフローチャートである。
FIG. 16 is an exemplary flowchart showing processing when executing a learning mode in machine learning used in the parking
駐車位置検出システム16は、まず、アノテート作業者による操作部26bの操作に従いモード切替部18を介して学習モードと推定モードの切り替えを行う(S100)。学習モードが選択されていない場合(S100のNo)、このフローを一旦終了する。一方、学習モードが選択された場合(S100のYes)、取得部20を介して撮像部14で撮像した学習用画像(画像データ)または、外部のデータベース等が保持する学習用画像(画像データ)の取得を行う(S102)。そして。学習モード実行部22の参照点設定部22a及び方向フラグ設定部22bは、アノテート作業者の操作部26bの操作に従い、教師データの作成を実行する(S104)。すなわち、複数の学習用画像(学習用の画像データ)に対して、図4~図14等で説明したように参照点P1~P4と学習用の画像データ上の座標(世界座標)とを関連付けながら順次アノテーションを実行する。また、このとき、学習する参照点P1~P4のうち隣接する二つの参照点を結ぶ接続線が車両を駐車する際の車両基準線と略平行または略直交する車両方向基準線になり得るか否かを定めた車両方向情報(方向フラグ)と参照点P1~P4とを関連付けながら順次アノテーションを実行する。そして、モデル作成部22cは、周知の機械学習(例えば、深層学習)の技術を用いて、学習済モデルを作成する学習処理を実行する(S106)。そして、モデル作成部22cは、作成した学習済モデルを学習済モデル記憶部28に提供し、記憶済の学習済モデルの構築(更新)を行う(S108)。
The parking
駐車位置検出システム16は、モード切替部18の状態や操作部26bの操作状態に基づき学習終了条件が成立されているか否か確認し(S110)、学習終了条件が成立していない場合(S110のNo)、S100に移行し、現在のモード状態を確認する。学習モードが継続されている場合、次の学習用画像(画像データ)を取得し、以降の処理を繰り返し実行し、学習済モデルの構築を継続する。S110において、学習終了条件が成立している場合(S110のYes)、例えば、操作部26bから学習終了操作のコマンドが入力された場合や、学習対象となる画像データに対する処理が全て終了した場合等、このフローを一旦終了する。
The parking
図17は、駐車位置検出システム16で利用する機械学習における推定モードを実行する際の処理を示した例示的なフローチャートである。
FIG. 17 is an exemplary flowchart showing processing when executing the estimation mode in machine learning used in the parking
駐車位置検出システム16は、まず、アノテート作業者による操作部26bの操作に従いモード切替部18を介して学習モードと推定モードの切り替えを行う(S200)。推定モードが選択されていない場合(S200のNo)、このフローを一旦終了する。一方、推定モードが選択された場合(S200のYes)、推定モード実行部24は、車両10の現在の車速が、駐車区画推定が可能な推定モード車速以下(例えば、10km/h以下)であるかの判定を行う(S202)。車両10の現在車速が推定モード車速を超えている場合(S202のNo)、例えば、推定モードに切り替えられているものの、現在の位置では、駐車区画を探索していない場合である。この場合、例えば、駐車場内にいるが、現在の位置とは異なる位置で駐車区画を探索しようとしていると判定し、推定モード実行部24(駐車位置検出システム16)は、この位置での駐車区画の探索を中断する(このフローを一旦終了する)。
The parking
S202の処理において、現在の車速が推定モード車速以下の場合(S202のYes)、推定部24aは、取得部20を介して撮像部14の撮像した推定用の画像(画像データ)の取得を行う(S204)。また、推定部24aは、学習済モデル記憶部28から学習済モデルを取得する(S206)。そして、推定部24aは、学習済モデルに推定用画像を入力し、参照点推定部24a1による駐車区画点(座標)の推定処理、車両方向推定値算出部24a2による車両方向推定値の算出処理、および方向フラグ付与部24a3による方向フラグ付与処理を実行する(S208)。そして、処理部24bは、推定結果として駐車区画点および方向フラグが存在すると判定した場合(S210のYes)、変換部24b1は、駐車区画点の座標を世界座標系に変換して、世界座標系の画像上に投影する(S212)。続いて、駐車位置特定部24b2は、世界座標系の画像上で実駐車区画および車両方向基準線を決定し(S214)、処理部24bは、表示装置26の表示部26aに実駐車区画および車両方向基準線に基づく車両方向を出力し、利用者(運転者等)に対する結果通知処理を実行する(S216)。
In the process of S202, if the current vehicle speed is equal to or less than the estimation mode vehicle speed (Yes in S202), the estimation unit 24a acquires the estimation image (image data) captured by the
そして、駐車位置検出システム16は、モード切替部18の状態や操作部26bの操作状態に基づき推定処理終了条件が成立されているか否か確認し(S218)、推定処理終了条件が成立していない場合(S218のNo)、S204に移行し、次の推定用画像を取得し、以降の処理を繰り返し実行し、推定処理を継続する。S218において、推定処理終了条件が成立している場合(S218のYes)、例えば、推定した実駐車区画や実駐車位置が運転者等によって採用されたり(駐車位置が決定された場合)や操作部26bから推定終了操作が入力されたりした場合、このフローを一旦終了する。
Then, the parking
また、S210において、駐車区画点や方向フラグが検出できない場合(S210No)、S218に移行して推定処理終了条件が成立しているか否かの判定処理を行い、推定処理終了条件が成立していない場合は、新たな推定用画像に対する推定処理を継続して実行する。 In addition, in S210, if the parking lot point or direction flag cannot be detected (S210 No), the process moves to S218 and a determination process is performed as to whether or not the estimation process end condition is satisfied, and if the estimation process end condition is not satisfied. If so, the estimation process for the new estimation image is continued.
このように、実施形態の駐車位置検出システム16によれば、学習時に実在する区画線に基づいて参照点をアノテートするので、アノテート精度が向上するとともに、推定時にも区画線を含む画像を学習済モデルに入力可能となり、実駐車区画の推定精度を向上することができる。さらに、アノテートのときに駐車する際の車両基準線と略平行または略直交することを示す車両方向情報を学習しておくので、推定した実駐車区画に駐車する際の車両方向の推定精度を向上することができる。
In this way, according to the parking
また、上述した学習モードにおいて、俯瞰画像を参照して参照点P1~P4をアノテーションする例を示したが、図3に示す二次元画像を参照して参照点P1~P4をアノテーションしてもよく、同様な学習を行うことができる。 Furthermore, in the learning mode described above, an example was shown in which the reference points P1 to P4 are annotated with reference to the bird's-eye view image, but the reference points P1 to P4 may also be annotated with reference to the two-dimensional image shown in FIG. , similar learning can be performed.
なお、本実施形態の駐車位置検出システム16を実現するプロセッサで実行される学習モード処理や推定モード処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
Note that the programs for learning mode processing and estimation mode processing executed by the processor that realizes the parking
さらに、本実施形態の処理を実行するプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the program for executing the process of this embodiment may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Further, the program executed in this embodiment may be provided or distributed via a network such as the Internet.
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments and modifications of the present invention have been described, these embodiments and modifications are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
10…車両、16…駐車位置検出システム、18…モード切替部、20…取得部、22…学習モード実行部、22a…参照点設定部、22b…方向フラグ設定部、22c…モデル作成部、24…推定モード実行部、24a…推定部、24a1…参照点推定部、24a2…車両方向推定値算出部、24a3…方向フラグ付与部、24b…処理部、24b1…変換部、24b2…駐車位置特定部、24b3…基準線設定部、26…表示装置、26a…表示部、26b…操作部、28…学習済モデル記憶部、32…駐車区画、34…学習区画、36…仮想車両、36a…前面ライン、36b…左側面ライン、36c…後面ライン、36d…右側面ライン、P1~P4…参照点、L1~L3…接続線。
DESCRIPTION OF
Claims (5)
予め準備された学習用画像データに含まれる学習用駐車区画を規定する区画線に設定された複数の参照点と、隣接する二つの前記参照点を結ぶ接続線とを備え、前記接続線が前記車両を駐車する際に、前記車両の車両前後方向と車両幅方向との少なくとも一方に定められる車両基準線と略平行または略直交する方向に延びる車両方向基準線になり得るか否かを定めた車両方向情報と前記接続線との関係を複数学習した結果としての学習済モデルを有し、前記学習済モデルに前記画像データを入力して得られる結果に基づき、前記車両の実駐車区画及び当該実駐車区画に駐車する際の車両方向を推定する推定部と、
を含む、駐車位置検出システム。 an acquisition unit that acquires image data from an imaging unit that images the surroundings of the vehicle;
It includes a plurality of reference points set on the lot line defining the learning parking lot included in the learning image data prepared in advance, and a connecting line connecting the two adjacent reference points, and the connecting line is connected to the When parking a vehicle, it is determined whether or not the vehicle direction reference line can be a vehicle direction reference line that extends in a direction substantially parallel to or substantially orthogonal to a vehicle reference line defined in at least one of the vehicle longitudinal direction and the vehicle width direction of the vehicle. It has a learned model as a result of learning a plurality of relationships between vehicle direction information and the connection line, and based on the result obtained by inputting the image data to the learned model, the actual parking lot of the vehicle and the corresponding an estimation unit that estimates the direction of the vehicle when parking in the actual parking lot;
including parking position detection system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022141670A JP2024037038A (en) | 2022-09-06 | 2022-09-06 | Parking position detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022141670A JP2024037038A (en) | 2022-09-06 | 2022-09-06 | Parking position detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024037038A true JP2024037038A (en) | 2024-03-18 |
Family
ID=90273174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022141670A Pending JP2024037038A (en) | 2022-09-06 | 2022-09-06 | Parking position detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024037038A (en) |
-
2022
- 2022-09-06 JP JP2022141670A patent/JP2024037038A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7461720B2 (en) | Vehicle position determination method and vehicle position determination device | |
CN107203738B (en) | Vehicle lane boundary positioning | |
CN107646114B (en) | Method for estimating lane | |
JP5782708B2 (en) | Driving support device | |
Xue et al. | A vision-centered multi-sensor fusing approach to self-localization and obstacle perception for robotic cars | |
US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
US20190323852A1 (en) | Enhanced vehicle tracking | |
US11288526B2 (en) | Method of collecting road sign information using mobile mapping system | |
US20200353914A1 (en) | In-vehicle processing device and movement support system | |
CN112967283B (en) | Target identification method, system, equipment and storage medium based on binocular camera | |
US11680801B2 (en) | Navigation based on partially occluded pedestrians | |
EP2574958A1 (en) | Road-terrain detection method and system for driver assistance systems | |
CN113561963B (en) | Parking method and device and vehicle | |
JP2024023319A (en) | Detection of emergency vehicle | |
CN112232275B (en) | Obstacle detection method, system, equipment and storage medium based on binocular recognition | |
CN109271857A (en) | A kind of puppet lane line elimination method and device | |
CN110992424B (en) | Positioning method and system based on binocular vision | |
CN112734811B (en) | Obstacle tracking method, obstacle tracking device and chip | |
US20230341239A1 (en) | Systems and methods for road segment mapping | |
JP2021120255A (en) | Distance estimation device and computer program for distance estimation | |
Lee et al. | Bird’s eye view localization of surrounding vehicles: Longitudinal and lateral distance estimation with partial appearance | |
CN109883439A (en) | A kind of automobile navigation method, device, electronic equipment and storage medium | |
US20210382560A1 (en) | Methods and System for Determining a Command of an Occupant of a Vehicle | |
JP2024037038A (en) | Parking position detection system | |
CN113298044B (en) | Obstacle detection method, system, device and storage medium based on positioning compensation |