JP7380073B2 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
JP7380073B2
JP7380073B2 JP2019192271A JP2019192271A JP7380073B2 JP 7380073 B2 JP7380073 B2 JP 7380073B2 JP 2019192271 A JP2019192271 A JP 2019192271A JP 2019192271 A JP2019192271 A JP 2019192271A JP 7380073 B2 JP7380073 B2 JP 7380073B2
Authority
JP
Japan
Prior art keywords
line
parking
area
longitudinal direction
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192271A
Other languages
English (en)
Other versions
JP2021068124A (ja
Inventor
陽司 乾
将太 祖父江
賢樹 古川
直樹 山村
祐也 下平
政孝 山本
幸夫 川端
仁人 小瀬川
隆太郎 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019192271A priority Critical patent/JP7380073B2/ja
Priority to DE102020127533.1A priority patent/DE102020127533A1/de
Priority to CN202011130820.4A priority patent/CN112758083A/zh
Publication of JP2021068124A publication Critical patent/JP2021068124A/ja
Application granted granted Critical
Publication of JP7380073B2 publication Critical patent/JP7380073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、駐車支援装置に関する。
従来、センサの検出結果や撮像された画像に基づいて、駐車位置を決定する駐車支援装置が知られている。このような、駐車支援装置は、駐車領域の長手方向と略平行な縦方向の区画線を検出することで、駐車位置を決定する。
特開2018-185589号公報
一般的に、区画線の前端部の形状により、縦方向における駐車位置は異なっている。しかしながら、駐車支援装置は、縦方向の区画線により駐車位置を決定していたため、縦方向において、駐車位置が適切な位置からずれてしまう場合があった。そこで、駐車領域の区画線の形状に応じた適切な位置に駐車させる駐車支援が求められている。
本発明の実施形態にかかる駐車支援装置は、例えば、駐車領域の長手方向と略平行な区画線を検出する第1検出部と、前記第1検出部が検出した前記区画線により定められる位置に、前記区画線の境界を示すエッジ点を検出する領域である注目領域を設定する設定部と、前記長手方向と直交する直交方向の分割線により前記注目領域を複数の分割領域に分割する分割部と、前記注目領域内の前記エッジ点に基づいて、前記駐車領域に車両が進入する進入側であって前記長手方向と略平行な前記区画線の端を示す前端位置を検出する第2検出部と、前記前端位置に基づいて駐車位置を決定する決定部と、を備える。よって、例えば、駐車支援装置は、区画線の形状に応じた適切な位置に駐車させる駐車支援を実行することができる。
本発明の実施形態にかかる駐車支援装置は、一例として、前記長手方向と直交する直交方向の分割線により前記注目領域を複数の分割領域に分割する分割部を更に備え、前記第2検出部は、前記分割領域内の前記エッジ点に基づいて、前記駐車領域に車両が進入する進入側であって前記長手方向と略平行な前記区画線の端を示す前端位置を検出する。よって、例えば、駐車支援装置は、注目領域から区画線の端を示す前端位置を検出することができる。
上記駐車支援装置では、一例として、前記第2検出部は、前記エッジ点に基づいて定められる前記分割領域と、区画線の検出結果に基づいて前記前端位置と特定する。よって、例えば、駐車支援装置は、ノイズ等により駐車位置がずれてしまうことを低減することができる。
上記駐車支援装置では、一例として、前記長手方向と略平行な区画線が二重線であるか否かを判定する判定部を更に備え、前記設定部は、前記判定部が前記長手方向と略平行な区画線が二重線であると判定した場合に、二重線により形成された前記長手方向と略平行な区画線に基づいて、当該区画線の端部から所定距離の範囲内にある第1領域に前記注目領域を設定し、前記決定部は、前記第1領域から検出された前記前端位置に基づいて、前記駐車位置を決定する。よって、例えば、駐車支援装置は、二重線により形成された区画線の形状に応じた適切な位置に駐車させる駐車支援を実行することができる。
上記駐車支援装置では、一例として、前記設定部は、前記判定部が前記長手方向と略平行な区画線が二重線ではないと判定した場合に、単線により形成された区画線の端部を含む第2領域と、当該第2領域の側方であって前記駐車領域の短手方向に第3領域とに前記注目領域を設定し、前記決定部は、前記長手方向と直交する直交方向の区画線を前記第3領域から検出しなかった場合に、前記第2領域から検出した前記前端位置に基づいて、前記駐車位置を決定する。よって、例えば、駐車支援装置は、I字形状の区画線の形状に応じた適切な位置に駐車させる駐車支援を実行することができる。
上記駐車支援装置では、一例として、前記決定部は、前記直交方向の区画線を前記第3領域から検出した場合に、前記前端位置と当該区画線の線幅とに基づいて、前記駐車位置を決定する。よって、例えば、駐車支援装置は、T字形状の区画線の形状に応じた適切な位置に駐車させる駐車支援を実行することができる。
上記駐車支援装置では、一例として、前記判定部は、前記長手方向と略平行な区画線と、当該区画線と隣接する前記長手方向と略平行な区画線との前記長手方向と直交する直交方向の距離が閾値以下の場合に、二重線であると判定する。よって、例えば、駐車支援装置は、二重線により形成された区画線ではないと判定されてしまうことを低減することができる。
図1は、実施形態にかかる画像処理装置を搭載する車両の車室の一部が透視された状態の例示的かつ模式的な斜視図である。 図2は、本実施形態にかかる駐車支援装置を搭載する車両の例示的かつ模式的な平面図である。 図3は、実施形態にかかる駐車支援装置を搭載する車両のダッシュボードを車両後方から臨む場合の例示的かつ模式的な図である。 図4は、本実施形態にかかる駐車支援装置を含む車両の制御システムの機能構成を示す例示的かつ模式的なブロック図である。 図5は、実施形態にかかる駐車支援装置(駐車支援部)をCPUで実現する場合の構成を例示的かつ模式的に示すブロック図である。 図6は、U字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。 図7は、I字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。 図8は、T字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。 図9は、区画線が二重線の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。 図10は、区画線の前端部がI字形状の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。 図11は、区画線の前端部がL字形状の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。 図12は、区画線が二重線である場合の前端点の検出方法を例示的かつ模式的に示す説明図である。 図13は、駐車時の撮像領域を例示的かつ模式的に示す説明図である。 図14は、長手方向と略平行な区画線が二重線であるかの判定方法を例示的かつ模式的に示す説明図である。 図15は、駐車支援部が実行する駐車支援処理の手順の一例を示すフローチャートである。 図16は、駐車支援部による検出処理の手順の一例を示すフローチャートである。 図17は、駐車支援部による判定処理の手順の一例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
図1は、実施形態にかかる画像処理装置を搭載する車両1の車室2aの一部が透視された状態の例示的かつ模式的な斜視図である。本実施形態にかかる駐車支援装置を搭載する車両1は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両1における車輪3の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。
図1に例示されるように、車両1の車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。
また、車室2a内には、表示装置8(表示部)や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員(利用者)は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員(運転者等)は、表示装置8の表示画面に表示される画像に対応した位置で手指等により操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
図3は、実施形態にかかる駐車支援装置を搭載する車両1のダッシュボード24を車両後方から臨む場合の例示的かつ模式的な図である。また、車室2a内には、表示装置8とは別の表示装置12が設けられている。図3に例示されるように、表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8a(図3参照)の大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報(文字情報やインジケータによる表示情報等)を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。
図2は、本実施形態にかかる駐車支援装置を搭載する車両1の例示的かつ模式的な平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。
車体2には、複数の撮像部15として、例えば四つの撮像部15a~15dが設けられている。撮像部15は、例えば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。
撮像部15aは、例えば、車体2の後側の端部2eに位置され、トランクのドア2hの下方の壁部に設けられて、車両1の後方領域の状況を撮像する。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられて、車両1の右前方、右側方、右後方を含む領域の状況を撮像する。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパ等に設けられて、車両1の前方領域の状況を撮像する。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられて、車両1の左前方、左側方、左後方を含む領域の状況を撮像する。画像処理装置を構成するECU14(図4参照)は、複数の撮像部15で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方(真上や斜め上方)から見た仮想的な俯瞰画像を生成したりすることができる。
また、車両1は、当該車両1の外部に存在する物体との距離を計測可能な複数の測距部16,17を有する。測距部16は、例えば、ミリ波レーダー等であり、車両1の進行方位(車両1の向く方向)に存在する物体との距離を計測可能である。本実施形態では、車両1は、複数の測距部16a~16dを有する。測距部16aは、例えば、車両1のリアバンパの左側の端部に設けられ、車両1の左後方に存在する物体との距離を計測可能である。また、測距部16bは、車両1のリアバンパの右側の端部に設けられ、車両1の右後方に存在する物体との距離を計測可能である。測距部16cは、車両1のフロントバンパの右側の端部に設けられ、車両1の右前方に存在する物体との距離を計測可能である。また、測距部16dは、車両1のフロントバンパの左側の端部に設けられ、車両1の左前方に存在する物体との距離を計測可能である。測距部16は、比較的長距離の物体の検出に用いられうる。
また、車両1は、車両1から比較的近距離に存在する外部の物体との距離を計測可能な測距部17を有する。測距部17は、例えば、超音波を発射して、その反射波を捉えるソナーである。本実施形態では、車両1は、複数の測距部17a~17hを有する。測距部17a~17dは、車両1のリアバンパに設けられ、車両1の後方に存在する物体との距離を計測可能である。測距部17e~17hは、車両1のフロントバンパに設けられ、車両1の前方に存在する物体との距離を計測可能である。
測距部16は、本実施形態において、例えば車両1を駐車する際に、車両1と並ぶ障害物(例えば隣接車両や壁等)や駐車するためのスペースの奥側に存在する障害物(例えば、縁石や段差、壁、フェンス等)を検出し、その障害物までの距離を測定することができる。また、測距部17は、例えば車両1に対して障害物(物体)が所定の距離(例えば、0.3m)を超えて接近した場合、その接近する障害物(物体)を検出し、その障害物までの距離を測定することができる。特に、車両1の後方両側に配置された測距部17a,17dは、車両1が後退しながら駐車スペースに進入する場合の車両1の後方コーナ部と障害物(例えば隣接車両)との距離や、進入後さらに後方コーナ部と壁等の障害物との距離を測定するセンサ(クリアランスソナー)として機能する。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、車両1の周囲に存在する物体(静止物体や移動物体)を検出する。静止物体としては、駐車車両、壁、縁石、街路樹等であり、移動物体としては、走行車両、自転車、歩行者、動物等である。
図4は、本実施形態にかかる駐車支援装置を含む車両1の制御システムの機能構成を示す例示的かつ模式的なブロック図である。図4に例示されるように、制御システムは、ECU14、モニタ装置11、測距部16,17等の他、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、駆動システム23等が、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク26を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18、駆動システム23等を制御することができる。
また、ECU14は、車内ネットワーク26を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16,17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10の操作信号等を、受け取ることができる。
操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部(ステアリングホイール等)に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。
駆動システム23は、駆動源としての内燃機関(エンジン)システムやモータシステムである。駆動システム23は、アクセルセンサ20により検出された運転者(利用者)の要求操作量(例えばアクセルペダルの踏み込み量)にしたがいエンジンの燃料噴射量や吸気量の制御やモータの出力値を制御する。また、利用者の操作に拘わらず、車両1の走行状態に応じて、操舵システム13やブレーキシステム18の制御と協働してエンジンやモータの出力値を制御しうる。例えば、駐車支援を含む通常の走行支援を実行することができる。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、およびSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、およびRAM14cは、同一の回路基板内に設けられていてもよい。
CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。CPU14aは、例えば、撮像部15や測距部16,17等で取得した周辺情報に基づき、車両1および駐車スペース(駐車位置)の周辺の状況を認識する処理を実行することができる。また、CPU14aは、異なるタイミングで取得された車両1の周囲の周辺情報に基づき、周辺状況の変化を抽出する処理、周辺情報に基づき車両1の現在の位置を推定する処理、周辺情報の変化を反映した情報の記憶処理、記憶した情報を活用した処理、車両1を駐車位置に誘導する処理等を実行することができる。また、CPU14aは、撮像部15で撮像した画像を表示装置8に表示させる場合、撮像部15で得られた広角画像の撮像画像(湾曲した画像)に演算処理や画像処理を施して歪みを補正する歪み補正処理を実行したり、撮像部15が撮像した撮像画像に基づき、車両1を示す車両画像(自車アイコン)を例えば中心位置に表示する俯瞰画像(周辺画像)を生成したりすることができる。また、CPU14aは、俯瞰画像を生成する際に、仮想視点の位置を変更し、真上から車両画像を臨むような俯瞰画像や斜め方向から車両画像を臨むような俯瞰画像を生成することができる。
ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する撮像画像データに対する画像処理、CPU14aから取得した画像データを表示装置8,12に表示させる表示用の画像データへの変換等を実行する。音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
図5は、実施形態にかかる駐車支援装置(駐車支援部140)をCPU14aで実現する場合の構成を例示的かつ模式的に示すブロック図である。CPU14aは、ROM14bから読み出した駐車支援プログラムを実行することにより、図5に示すように、データ取得部141、縦線検出部142、注目領域設定部143、エッジ検出部144、注目領域分割部145、前端点検出部146、二重線判定部147、及び駐車位置決定部148を実現する。なお、データ取得部141、縦線検出部142、注目領域設定部143、エッジ検出部144、注目領域分割部145、前端点検出部146、二重線判定部147、及び駐車位置決定部148等は、その一部または全部を回路等のハードウェアによって構成してもよい。また、図5では、図示を省略しているが、CPU14aは、車両1の走行に必要な各種モジュールを実現することもできる。また、図5では、主として駐車支援処理を実行するCPU14aを示しているが、車両1の走行に必要な各種モジュールを実現するためのCPUを備えてもよいし、ECU14とは別のECUを備えてもよい。
データ取得部141は、撮像部15が撮像した撮像画像データを取得する。
縦線検出部142は、データ取得部141が取得した撮像画像データから、駐車位置を示す区画線のうち、駐車領域の長手方向と略平行な区画線を検出する。すなわち、縦線検出部142は、駐車領域の長手方向と略平行な縦方向の区画線を検出する。更に詳しくは、縦線検出部142は、縦方向と直行する横方向に走査して、画素間の輝度の差を検出するフィルタを撮像画像データに適用する。これにより、縦線検出部142は、黒色から白色に変わる黒白エッジ点P11を検出する。同様に、縦線検出部142は、撮像画像データから白色から黒色に変わる白黒エッジ点P12を検出する。なお、黒白エッジ点P11と白黒エッジ点P12と区別しない場合には、エッジ点P1と記載する。
エッジ点P1を検出した場合に、縦線検出部142は、RANSAC(Random Sample Consensus)や、CONSAC(Connected Sample Consensus)等の処理に基づいて、ノイズを除去する。ここで、RANSACや、CONSACでは、2つのエッジ点P1をランダムに選択する。そして、2つのエッジ点P1を結ぶ線から一定の範囲内である帯状の領域にあるエッジ点P1を数える。この処理を繰り返し実行することで、エッジ点P1の数が最大になる帯状の領域を特定する。ここで、撮像画像データからエッジ点P1を検出した場合、区画線とは関係ないエッジ点P1も検出してしまう。そこで、RANSACや、CONSAC等の処理を実行することで、ノイズを除去し、縦方向の区画線がある大まかな位置を特定する。また、縦線検出部142は、最小二乗法により、エッジ点P1の数が最大になる帯状の領域内にある各エッジ点P1と距離が最も短くなる直線を引く。縦線検出部142は、この処理を黒白エッジ点P11と白黒エッジ点P12との両方について実行することで縦方向の区画線を検出する。
また、縦線検出部142は、駐車領域の長手方向と略平行な区画線を検出することで、仮前端点を検出する。ここで、仮前端点とは、縦線検出部142が検出した駐車領域の長手方向と略平行な区画線において、駐車領域に車両1が進入する進入側の長手方向と略平行な区画線の端である。そして、仮前端点は、後述する処理を実行する前に暫定的に設定される。
ところで、一般的に、区画線の前端部の形状により車両1の駐車位置は異なっている。前端部とは、駐車領域の長手方向と略平行な区画線において、駐車領域に車両1が進入する進入側の長手方向と略平行な区画線の端の部分である。縦線検出部142は、駐車位置を示す区画線のうち、縦方向の区画線を検出する。すなわち、縦線検出部142は、縦方向の区画線以外は、検出することができない。そのため、区画線の前端部の形状によっては適切な駐車位置を特定することができない場合がある。
ここで、図6は、U字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。図7は、I字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。図8は、T字形状の区画線の場合の駐車位置を例示的かつ模式的に示す説明図である。
図6に示すように、前端部がU字形状の区画線であるU字区画線L1は、二重の直線である直線部L11と、U字形状のU字形状部L12とを有している。また、U字区画線L1の場合、直線部L11の先端ではなく、U字形状部L12の先端の位置に、車両1の先端が来るように駐車することが求められる。ところが、縦線検出部142は、区画線のうち縦方向の区画線を検出するものであるため、U字形状部L12を検出することができない。そのため、従来は、直線部L11の先端の位置に、車両1の先端が来るように駐車していた。
また、図7に示すように、前端部がI字形状の区画線であるI字区画線L2の場合、I字区画線L2の先端の位置に、車両1の先端が来るように駐車することが求められる。また、図7に示すように、前端部がT字形状の区画線であるT字区画線L3は、駐車領域の長手方向と略平行な縦線部L31と、駐車領域の長手方向と直交方向に平行な横線部L32とを有している。そして、T字区画線L3の場合、横線部L32の内側の位置に、車両1の先端が来るように駐車することが求められる。すなわち、I字区画線L2の場合よりも後方側に、車両1の先端が来るように駐車することが求められる。
そこで、駐車支援部140は、縦線検出部142の検出結果により定められる位置に、区画線の前端部の形状を特定するために注目領域R1(図9、図10、図11参照)を設定する。また、駐車支援部140は、注目領域R1を走査することで前端部の形状を特定する。そして、駐車支援部140は、特定された区画線の前端部の形状に応じて駐車位置を決定する。
図9から図10を用いて、注目領域設定部143、エッジ検出部144、及び注目領域分割部145による前端部の形状を特定する処理について説明する。図9は、区画線が二重線の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。図10は、区画線の前端部がI字形状の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。図11は、区画線の前端部がL字形状の場合の前端部の形状の特定方法を例示的かつ模式的に示す説明図である。
注目領域設定部143は、縦線検出部142が検出した駐車領域の長手方向と略平行な区画線により定められる位置に、区画線の境界を示すエッジ点P1を検出する領域である注目領域R1を設定する。まず、後述する二重線判定部147により長手方向と略平行な区画線が二重線であると判定された場合について説明する。図9に示すように、注目領域設定部143は、二重線判定部147が長手方向と略平行な区画線が二重線であると判定した場合に、二重線により形成された長手方向と略平行な区画線に基づいて、当該区画線の端部から所定距離の範囲内にある第1領域に注目領域R1を設定する。すなわち、注目領域設定部143は、二重線用の注目領域R1を設定する。また、第1領域は、縦線検出部142が検出した長手方向と略平行な区画線の端部と隣接する領域であってもよいし、端部から任意の距離離れた領域であってもよいし、端部を含む領域であってもよい。
また、注目領域設定部143は、二重線判定部147が長手方向と略平行な区画線が二重線ではないと判定した場合に、単線により形成された区画線の端部を含む第2領域と、第2領域の側方の第3領域とに注目領域R1を設定する。更に詳しくは、図10に示すように、注目領域設定部143は、二重線判定部147が長手方向と略平行な区画線が二重線ではないと判定した場合に、単線により形成された区画線の端部を含む第2領域に注目領域R1に設定する。すなわち、注目領域設定部143は、I字形状用の注目領域R1を設定する。第2領域は、第1領域と同様に、縦線検出部142が検出した長手方向と略平行な区画線の端部と隣接する領域であってもよいし、端部から任意の距離離れた領域であってもよいし、端部を含む領域であってもよい。
また、第2領域から前端点P2(図12参照)を検出した後に、図11に示すように、注目領域設定部143は、第2領域の側方であって駐車領域の短手方向に第3領域に注目領域R1に設定する。すなわち、注目領域設定部143は、T字形状用の注目領域R1を設定する。これにより、駐車支援部140は、駐車領域の短手方向の区画線を検出する。なお、第3領域は、第2領域と隣接する領域であってもよいし、第2領域から任意の距離離れた領域であってもよいし、第2領域を含む領域であってもよい。また、第3領域は、第2領域の側方の両方の領域であってもよいし、何れか一方の領域であってもよい。
エッジ検出部144は、注目領域R1から区画線の境界を示すエッジ点P1を検出する。更に詳しくは、エッジ検出部144は、駐車領域の長手方向に走査する縦フィルタと、長手方向と直交する直交方向に走査する横フィルタとによりエッジ点P1を検出する。これにより、エッジ検出部144は、長手方向、及び長手方向と直交する直交方向の2方向について色が変化するエッジ点P1を検出する。図9から図11において、白抜き丸は、白色から黒色に変更する白黒エッジ点P12を示している。また、黒丸は、黒色から白色に変更する黒白エッジ点P11を示している。
注目領域分割部145は、駐車領域の長手方向と直交する直交方向の分割線により注目領域R1を複数の分割領域に分割する。すなわち、図9から図11に示すように、注目領域R1を分割領域に分割する。
前端点検出部146は、注目領域R1のエッジ点P1に基づいて、駐車領域に車両1が進入する進入側であって長手方向と略平行な区画線の端を示す前端位置を検出する。すなわち、前端点検出部146は、注目領域分割部145が分割した分割領域内のエッジ点P1に基づいて、駐車領域に車両1が進入する進入側であって長手方向と略平行な区画線の端を示す前端位置を検出する。例えば、前端点検出部146は、前端位置を示す点として前端点P2を検出する。前端点P2とは、注目領域R1における区画線の長手方向の端を示す点である。前端点P2が示す注目領域R1上の座標は、駐車領域上の座標に適用される。そして、後述する駐車位置決定部148は、前端点P2に基づいて駐車位置を決定する。なお、前端位置は、前端点P2に限らず、前端位置を示す線であってもよし、前端位置を示す面であってもよいし、その他の形状により前端位置を示していてもよい。
更に詳しくは、前端点検出部146は、分割領域内のエッジ点P1の数に基づいて、長手方向と略平行な区画線の長手方向の端を示す線であるエッジピークを検出する。具体的には、図9に示すように、前端点検出部146は、黒白エッジ点P11が最も多い分割領域を検出する。これにより、前端点検出部146は、U字形状における内側の端を検出する。また、前端点検出部146は、白黒エッジ点P12が最も多い分割領域を検出する。これにより、前端点検出部146は、U字形状における外側の端を検出する。そして、前端点検出部146は、U字形状の内側の端から外側の端までの距離が区画線の線幅と略同じである場合に、U字形状の区画線を検出したと判定する。すなわち、前端点検出部146は、白黒エッジ点P12が最も多い分割領域からエッジピークを検出する。このように、前端点検出部146は、U字形状の区画線であることの判定を実行することで、ノイズによりエッジピークを誤検出してしまう可能性を低減することができる。なお、前端点検出部146は、エッジ点P1の数に限らず、割合によりエッジピークを検出してもよいし、密度によりエッジピークを検出してもよいし、他の事項によりエッジピークを検出してもよい。
前端点検出部146は、エッジ点P1に基づいて定められる分割領域と、区画線の検出結果に基づいて前端位置を特定する。具体的には、エッジ点P1に基づいて定められる分割領域と、長手方向と略平行な区画線の外側の辺の中心に位置する中心線とが交差する位置を前端点P2と特定する。すなわち、前端点検出部146は、エッジピークと、中心線とが直交する点を前端点P2として検出する。ここで、図12は、区画線が二重線である場合の前端点P2の検出方法を例示的かつ模式的に示す説明図である。図12に示すように、二重線の区画線の場合、前端点検出部146は、対向する一対の区画線の外側の辺の中心線と、エッジピークとが直交する点を前端点P2として検出する。
また、単線の区画線の場合、前端点検出部146は、分割領域内のエッジ点P1の数に基づいて、長手方向と略平行な区画線の端を示す線であるエッジピークを検出する。具体的には、図10に示すように、前端点検出部146は、白黒エッジ点P12が最も多い分割領域を検出する。これにより、前端点検出部146は、I字形状のエッジピークを検出する。そして、前端点検出部146は、対向する区画線の外側の辺の中心線と、エッジピークとが直交する点を前端点P2として検出する。
また、前端点検出部146は、T字形状の区画線を検出する。すなわち、前端点検出部146は、駐車領域の短手方向と略平行な横方向の区画線を検出する。具体的には、図11に示すように、前端点検出部146は、黒白エッジ点P11が最も多い分割領域を検出する。これにより、前端点検出部146は、短手方向の区画線おける内側の端を検出する。また、前端点検出部146は、白黒エッジ点P12が最も多い分割領域を検出する。これにより、前端点検出部146は、短手方向の区画線における外側の端を検出する。そして、前端点検出部146は、短手方向の区画線の内側の端から外側の端までの距離が区画線の線幅と略同じである場合に、短手方向の区画線を検出したと判定する。このように、前端点検出部146は、短手方向の区画線であることの判定を実行することで、ノイズによりエッジピークを誤検出してしまう可能性を低減することができる。なお、前端点検出部146は、エッジ点P1の数に限らず、割合によりエッジピークを検出してもよいし、密度によりエッジピークを検出してもよいし、他の事項によりエッジピークを検出してもよい。そして、前端点検出部146は、短手方向の区画線の線幅の分、前端点P2の位置を駐車領域の内側に変更する。
二重線判定部147は、駐車領域の長手方向と略平行な区画線が二重線であるか否かを判定する。ここで、図13は、駐車時の撮像領域A1を例示的かつ模式的に示す説明図である。図13に示すように、車両1が駐車領域に進入する場合においても、二重線判定部147は、区画線が二重線であるか否かの判定を実行する。そして、車両1が区画線を踏むように駐車領域に進入した場合、区画線の端部は、撮像部15の画角の外部にある。すなわち、区画線の端部は、撮像部15が撮像する領域である撮像領域A1の範囲外にある。そのため、縦線検出部142は、本来の区画線の端部ではなく、撮像領域A1の範囲内から区画線の仮前端部を検出する。よって、図13に示すように、2つの仮前端点を結ぶ線は、駐車領域の短手方向ではなく、斜め方向に向けられる。そのため、二重線判定部147は、一方の仮前端点から他方の仮前端点までの距離に基づいて、長手方向と略平行な区画線が二重線であるか否かを判定すると誤判定を行ってしまう可能性がある。
ここで、図14は、長手方向と略平行な区画線が二重線であるかの判定方法を例示的かつ模式的に示す説明図である。図14に示すように、二重線判定部147は、縦距離と、横距離とに分解する。そして、二重線判定部147は、横距離が閾値以下であるか否かに基づいて、二重線であるか否かを判定する。すなわち、二重線判定部147は、長手方向と略平行な区画線と、当該区画線と隣接する長手方向と略平行な区画線との直交方向の距離が閾値以下の場合に、二重線であると判定する。
駐車位置決定部148は、前端点P2に基づいて駐車位置を決定する。更に詳しくは、駐車位置決定部148は、前端点検出部146が検出した前端点P2が示す位置と、車両1の先端とが合う位置を駐車位置として決定する。また、区画線がU字形状の場合、駐車位置決定部148は、注目領域R1が設定された第1領域から検出された前端点P2に基づいて、駐車位置を決定する。また、区画線がI字形状の場合、駐車位置決定部148は、注目領域R1が設定された第3領域からピークエッジを検出しなかった場合に、第2領域から検出した前端点P2に基づいて、駐車位置を決定する。すなわち、駐車位置決定部148は、長手方向と直交する直交方向の区画線を第3領域から検出しなかった場合に、第2領域から検出した前端点P2に基づいて、駐車位置を決定する。また、区画線がT字形状の場合、駐車位置決定部148は、長手方向と直交する直交方向の区画線を第3領域から検出した場合に、前端点P2と当該区画線の線幅とに基づいて、駐車位置を決定する。すなわち、駐車位置決定部148は、短手方向の区画線の線幅の分、第2領域から検出した前端点P2の位置を駐車領域の内側に変更した位置を、駐車位置として決定する。
次に、駐車支援部140が実行する駐車支援処理の一例について説明する。図15は、駐車支援部140が実行する駐車支援処理の手順の一例を示すフローチャートである。
データ取得部141は、車両1の情報や撮像画像データ等の入力データを取得する(ステップS1)。
駐車支援部140は、区画線を認識する(ステップS2)。すなわち、駐車支援部140は、図16及び図17に示す処理により区画線を認識する。
駐車支援部140は、認識した区画線を管理する(ステップS3)。例えば、駐車支援部140は、検出した区画線の位置の更新等を実行する。
駐車支援部140は、区画線認識等により検出された前端点P2等を用いて、駐車位置を算出する(ステップS4)。
駐車支援部140は、表示系や制御系等のECU14に駐車位置を示す情報等を出力する(ステップS5)。
以上により、駐車支援部140は、駐車支援処理を終了する。
次に、駐車支援部140が前端点P2を検出する検出処理の一例について説明する。図16は、駐車支援部140による検出処理の手順の一例を示すフローチャートである。
縦線検出部142は、データ取得部141が取得した撮像画像データから直線を検出する(ステップS11)。すなわち、縦線検出部142は、駐車領域の長手方向と略平行な縦方向の区画線を検出する。
縦線検出部142は、検出した直線のペアとなる直線と検出する(ステップS12)。すなわち、縦線検出部142は、検出した区画線と対向する区画線を検出する。
二重線判定部147は、検出した2つの区画線により二重線が形成されているか否かを判定する(ステップS13)。
区画線が二重線の場合に(ステップS14;Yes)、注目領域設定部143は、二重線により形成された区画線の端部に二重線用の注目領域R1を設定する(ステップS15)。前端点検出部146は、注目領域R1が設定された領域からU字形状の区画線の前端点P2を検出する(ステップS16)。そして、駐車支援部140は、検出処理を終了する。
区画線が単線の場合に(ステップS14;No)、注目領域設定部143は、単線により形成された区画線の端部にI字用の注目領域R1を設定する(ステップS17)。前端点検出部146は、注目領域R1が設定された領域からI字形状の区画線の前端点P2を検出する(ステップS18)。
注目領域設定部143は、ステップS17で注目領域R1が設定された領域の側方の領域にT字用の注目領域R1を設定する(ステップS19)。
前端点検出部146は、T字用の注目領域R1を設定した領域から、駐車領域の短手方向と略平行なエッジピークを検出したか否かを判定する(ステップS20)。すなわち、前端点検出部146は、黒白エッジ点P11の列によるエッジピークと、白黒エッジ点P12の列によるエッジピークとを検出したか否かを判定する。エッジピークを検出しない場合に(ステップS20;No)、駐車支援部140による検出処理を終了する。
エッジピークを検出した場合に(ステップS20;Yes)、前端点検出部146は、エッジピーク間の幅と、区画線の線幅と略同じであるか否かを判定する(ステップS21)。
前端点検出部146は、エッジピーク間の幅と、区画線の線幅と略同じである場合に、
短手方向の区画線の線幅の分、前端点P2の位置を駐車領域の内側に変更する(ステップS22)。
以上により、駐車支援部140は、検出処理を終了する。駐車支援部140は、検出処理により検出された前端点P2が示す位置を駐車位置にすることで、区画線の形状に応じた適切な位置に車両1を駐車することができる。
次に、駐車支援部140が実行する区画線が二重線であるか否かを判定する判定処理の一例について説明する。図17は、駐車支援部140による判定処理の手順の一例を示すフローチャートである。
二重線判定部147は、撮像画像データから検出した仮前端点から仮前端点までの横距離を算出する(ステップS31)。すなわち、図14に示すように、長手方向と略平行な区画線の仮前端点から、他方の仮前端点を検出した長手方向と略平行な区画線までの短手方向の距離を算出する。
二重線判定部147は、撮像画像データから検出した仮前端点から仮前端点までの縦距離を算出する(ステップS32)。すなわち、図14に示すように、仮前端点から、他方の仮前端点までの長手方向の距離を算出する。
二重線判定部147は、判定対象の区画線について二重線であることが登録済みであるか否かを判定する(ステップS33)。ここで、二重線判定部147は、区画線の前方を通過した際にも区画線が二重線であるか否かを判定する。また、二重線判定部147は、駐車時においても区画線が二重線であるか否かを判定する。車両1と区画線との距離に応じて位置関係を把握する精度は異なっている。そこで、二重線判定部147は、断続的に判定を行うことで精度を向上させている。
判定対象の区画線について二重線であることが登録済みの場合に(ステップS33;Yes)、二重線判定部147は、仮前端点から仮前端点までの横距離が閾値未満であるか否かを判定する(ステップS34)。
仮前端点から仮前端点までの横距離が閾値未満である場合に(ステップS34;Yes)、二重線判定部147は、区画線は二重線であると判定する(ステップS35)。そして、駐車支援部140は、判定処理を終了する。
仮前端点から仮前端点までの横距離が閾値未満ではない場合に(ステップS34;No)、二重線判定部147は、区画線は単線であると判定する(ステップS36)。そして、駐車支援部140は、判定処理を終了する。
判定対象の区画線について二重線であることが未登録の場合に(ステップS33;No)、二重線判定部147は、仮前端点から仮前端点までの横距離が閾値未満、且つ仮前端点から仮前端点までの縦距離が閾値未満であるか否かを判定する(ステップS37)。なお、縦距離の閾値は、横距離の閾値と比較して微小な値となる。ここで、二重線判定部147は、区画線の前方を通過した際にも、区画線が二重線であるか否か判定する。すなわち、二重線が未登録の場合とは、区画線の前方を通過した際に区画線を検出した場合が想定される。よって、図13に示すように、車両1が区画線を踏んでない。そのため、縦距離は、殆ど差がないことが求められる。
横距離が閾値未満、且つ縦距離が閾値未満との条件が満たされる場合に(ステップS37;Yes)、二重線判定部147は、区画線は二重線であると判定する(ステップS38)。そして、駐車支援部140は、判定処理を終了する。
横距離が閾値未満、且つ縦距離が閾値未満との条件が満たされない場合に(ステップS37;No)、二重線判定部147は、区画線は単線であると判定する(ステップS39)。そして、駐車支援部140は、判定処理を終了する。
以上のように、本実施形態の駐車支援部140は、駐車領域の長手方向、つまり縦方向の区画線を検出した場合に、区画線の境界を示すエッジ点P1を検出する注目領域R1を区画線の前端部に設定する。そして、駐車支援部140は、注目領域R1を設定した領域から検出された前端点P2に基づいて駐車位置を決定する。よって、駐車支援部140は、区画線に応じた適切な位置への駐車支援を実現することができる。また、駐車支援部140は、注目領域R1を設定することで、区画線の形状を探索する探索範囲を限定することができる。すなわち、駐車支援部140は、探索範囲を絞ることができるため、処理負担の増加を抑えることができる。さらに、駐車支援部140は、エッジピークがない場合には、前端がないことを示しているため区画線ではないと判定することができる。これにより、駐車支援部140は、区画線ではないものを区画線と誤認識してしまうことを低減することができる。
以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。
1…車両、2c…端部、8…表示装置、9…音声出力装置、10…操作入力部、11…モニタ装置、12…表示装置、14…ECU、14a…CPU、15,15a,15b,15c,15d…撮像部、16,17…測距部、140…駐車支援部、141…データ取得部、142…縦線検出部、143…注目領域設定部、144…エッジ検出部、145…注目領域分割部、146…前端点検出部、147…二重線判定部、148…駐車位置決定部、P1…エッジ点、P11…黒白エッジ点、P12…白黒エッジ点、P2…前端点、R1…注目領域、A1…撮像領域。

Claims (6)

  1. 駐車領域の長手方向と略平行な区画線を検出する第1検出部と、
    前記第1検出部が検出した前記区画線により定められる位置に、前記区画線の境界を示すエッジ点を検出する領域である注目領域を設定する設定部と、
    前記注目領域内の前記エッジ点に基づいて、前記駐車領域に車両が進入する進入側であって前記長手方向と略平行な前記区画線の端を示す前端位置を検出する第2検出部と、
    前記前端位置に基づいて駐車位置を決定する決定部と、
    前記長手方向と略平行な区画線が二重線であるか否かを判定する判定部と、
    を備え
    前記設定部は、前記判定部が前記長手方向と略平行な区画線が二重線であると判定した場合に、二重線により形成された前記長手方向と略平行な区画線に基づいて、当該区画線の端部から所定距離の範囲内にある第1領域に前記注目領域を設定し、
    前記決定部は、前記第1領域から検出された前記前端位置に基づいて、前記駐車位置を決定する、
    駐車支援装置。
  2. 前記長手方向と直交する直交方向の分割線により前記注目領域を複数の分割領域に分割する分割部を更に備え、
    前記第2検出部は、前記分割領域内の前記エッジ点に基づいて、前記駐車領域に車両が進入する進入側であって前記長手方向と略平行な前記区画線の端を示す前端位置を検出する、
    請求項1に記載の駐車支援装置。
  3. 前記第2検出部は、前記エッジ点に基づいて定められる前記分割領域と、区画線の検出結果に基づいて前記前端位置を特定する、
    請求項2に記載の駐車支援装置。
  4. 前記設定部は、前記判定部が前記長手方向と略平行な区画線が二重線ではないと判定した場合に、単線により形成された区画線の端部を含む第2領域と、当該第2領域の側方であって前記駐車領域の短手方向に位置する第3領域とに前記注目領域を設定し、
    前記決定部は、前記長手方向と直交する直交方向の区画線を前記第3領域から検出しなかった場合に、前記第2領域から検出した前記前端位置に基づいて、前記駐車位置を決定する、
    請求項に記載の駐車支援装置。
  5. 前記決定部は、前記直交方向の区画線を前記第3領域から検出した場合に、前記前端位置と当該区画線の線幅とに基づいて、前記駐車位置を決定する、
    請求項に記載の駐車支援装置。
  6. 前記判定部は、前記長手方向と略平行な区画線と、当該区画線と隣接する前記長手方向と略平行な区画線との前記長手方向と直交する直交方向の距離が閾値以下の場合に、二重線であると判定する、
    請求項から請求項の何れか一項に記載の駐車支援装置。
JP2019192271A 2019-10-21 2019-10-21 駐車支援装置 Active JP7380073B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019192271A JP7380073B2 (ja) 2019-10-21 2019-10-21 駐車支援装置
DE102020127533.1A DE102020127533A1 (de) 2019-10-21 2020-10-20 Parkassistenzvorrichtung
CN202011130820.4A CN112758083A (zh) 2019-10-21 2020-10-21 停车辅助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192271A JP7380073B2 (ja) 2019-10-21 2019-10-21 駐車支援装置

Publications (2)

Publication Number Publication Date
JP2021068124A JP2021068124A (ja) 2021-04-30
JP7380073B2 true JP7380073B2 (ja) 2023-11-15

Family

ID=75268777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192271A Active JP7380073B2 (ja) 2019-10-21 2019-10-21 駐車支援装置

Country Status (3)

Country Link
JP (1) JP7380073B2 (ja)
CN (1) CN112758083A (ja)
DE (1) DE102020127533A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284969A (ja) 2007-05-16 2008-11-27 Aisin Seiki Co Ltd 駐車支援装置
JP2013018406A (ja) 2011-07-12 2013-01-31 Fujitsu Ten Ltd 駐車枠の認識装置、駐車枠の認識方法、及び、プログラム
JP2014107696A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP2014106706A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP2014126921A (ja) 2012-12-25 2014-07-07 Nippon Soken Inc 車載画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284969A (ja) 2007-05-16 2008-11-27 Aisin Seiki Co Ltd 駐車支援装置
JP2013018406A (ja) 2011-07-12 2013-01-31 Fujitsu Ten Ltd 駐車枠の認識装置、駐車枠の認識方法、及び、プログラム
JP2014107696A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP2014106706A (ja) 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP2014126921A (ja) 2012-12-25 2014-07-07 Nippon Soken Inc 車載画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Changmu Seo,Vision-based Approach in Finding Multitype Parking Stall Entrance,2018 International Conference on Network Infrastructure and Digital Content,2018年,P.352-357,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8525525
植中 裕史,駐車支援システム インテリジェントパーキングアシストの紹介,計測と制御,日本,公益社団法人計測自動制御学会,2015年11月10日,第54巻 第11号,P.836-840

Also Published As

Publication number Publication date
CN112758083A (zh) 2021-05-07
DE102020127533A1 (de) 2021-04-22
JP2021068124A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
US10173670B2 (en) Parking assistance device
US10018473B2 (en) Vehicle position detecting device
US9886859B2 (en) Parking assistance device
CN107792061B (zh) 停车辅助装置
JP7351172B2 (ja) 駐車支援装置
EP2902271A1 (en) Parking assistance device, and parking assistance method and program
US10055994B2 (en) Parking assistance device
JP2016084094A (ja) 駐車支援装置
JP7283514B2 (ja) 表示制御装置
US11301701B2 (en) Specific area detection device
JP7427907B2 (ja) 駐車支援装置
JP7363343B2 (ja) 駐車支援装置、駐車支援方法、および、駐車支援プログラム
CN110546047A (zh) 停车辅助装置
JP7380073B2 (ja) 駐車支援装置
JP7130923B2 (ja) 表示制御装置
JP7383973B2 (ja) 駐車支援装置
JP7501500B2 (ja) 駐車支援装置
JP7423970B2 (ja) 画像処理装置
JP7380058B2 (ja) 駐車支援装置
US20230093819A1 (en) Parking assistance device
WO2023090186A1 (ja) 駐車支援装置
JP2019138655A (ja) 走行支援装置
JP2024009685A (ja) 駐車支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7380073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150