JP2024078845A - 車線推定装置および地図生成装置 - Google Patents

車線推定装置および地図生成装置 Download PDF

Info

Publication number
JP2024078845A
JP2024078845A JP2022191424A JP2022191424A JP2024078845A JP 2024078845 A JP2024078845 A JP 2024078845A JP 2022191424 A JP2022191424 A JP 2022191424A JP 2022191424 A JP2022191424 A JP 2022191424A JP 2024078845 A JP2024078845 A JP 2024078845A
Authority
JP
Japan
Prior art keywords
lane
vehicle
information
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022191424A
Other languages
English (en)
Inventor
友貴 大熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022191424A priority Critical patent/JP2024078845A/ja
Priority to CN202311600512.7A priority patent/CN118116186A/zh
Priority to US18/519,296 priority patent/US20240175707A1/en
Publication of JP2024078845A publication Critical patent/JP2024078845A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】走行中の自車線を精度よく推定する車線推定装置を提供する。【解決手段】車線推定装置は、自車両の周囲の外界状況を認識するカメラ1aと、カメラ1aにより認識された外界状況の情報に基づいて、自車両が走行する自車線を推定する車線推定部と、を備える。車線推定部(第1車線推定部171、パラメータ算出部172、第2車線推定部173)は、自車両が所定区間を走行するとき、所定時間毎に自車線を推定し、所定区間の走行完了後に、推定された自車線の頻度を表すパラメータを算出し、算出されたパラメータに基づいて所定区間内で自車両が走行した自車線を推定する。【選択図】図5

Description

本発明は、自車両が走行する走行車線を推定する車線推定装置および地図生成装置に関する。
この種の装置として、従来、車載カメラにより自車の現在の走行車線を区分する白線を抽出してその種別を認識し、自車両の走行車線を推定するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、自車両が白線を跨いだか否か、跨いだ白線の種別、及び地図データに含ませる分岐種別を用いて、分岐部において自車両の現在の走行車線を推定する。
特開2010-221859号公報
しかしながら、自車両が白線を跨いだか否かをカメラで認識できない場合があり、種々の走行環境のもとで走行車線を精度よく推定可能とすることが望ましい。
本発明の一態様である車線推定装置は、自車両の周囲の外界状況を認識する外界認識部と、外界認識部により認識された外界状況の情報に基づいて、自車両が走行する自車線を推定する車線推定部と、を備える。車線推定部は、自車両が所定区間を走行するとき、所定時間毎に自車線を推定し、所定区間の走行完了後に、推定された自車線の頻度を表すパラメータを算出し、算出されたパラメータに基づいて所定区間内で自車両が走行した自車線を推定する。
本発明の他の態様である地図生成装置は、上述した記載の車線推定装置と、車線推定装置に含まれる外界認識部により認識された外界状況に基づいて自車両の周辺の地図を生成する地図生成部と、を備える。
本発明によれば、自車両が走行中における車線を精度よく推定することができる。
本発明の実施形態に係る地図生成装置を有する車両制御システムの全体構成を概略的に示すブロック図。 図1の地図生成部による地図生成の具体的な手順を示す図。 本発明の実施形態に係る車線推定装置が適用される走行シーンの一例を示す図。 推定された車線の頻度の一例を示す図。 本発明の実施形態に係る地図生成装置の要部構成を示すブロック図。 第1の手法による車線推定を説明する図。 第2の手法による車線推定を説明する図。 第3の手法による車線推定を説明する図。 第3の手法による車線推定を説明する他の図。 走行環境が満たす複数の要件に対し、自車線を推定できる場合とできない場合とがあることを表形式で示す図。 車線パラメータの一例を示す図。 図5のコントローラで実行される処理の一例を示すフローチャート。 本実施形態に係る車線推定装置による動作の一例を示す図。 本実施形態に係る車線推定装置による動作の他の例を示す図。
以下、図1~図10Bを参照して本発明の実施形態について説明する。本発明の実施形態に係る地図生成装置は、例えば自動運転機能を有する車両(自動運転車両)が走行するときに用いられる地図を生成するように構成される。なお、本実施形態に係る地図生成装置が設けられる車両を、他車両と区別して自車両と呼ぶことがある。
地図生成装置による地図の生成は、ドライバが自車両を手動で運転するときに実行される。したがって、地図生成装置は、自動運転機能を有しない車両(手動運転車両)に設けることができる。地図生成装置は、手動運転車両だけでなく、ドライバによる運転操作が不要な自動運転モードからドライバの運転操作が必要な手動運転モードへの切換が可能な自動運転車両に設けることもできる。以下では、自動運転車両に地図生成装置が設けられるものとして地図生成装置に関する説明を行う。
まず、自動運転車両の構成について説明する。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。図1は、本発明の実施形態に係る地図生成装置を有する車両制御システム100の全体構成を概略的に示すブロック図である。
図1に示すように、車両制御システム100は、コントローラ10と、CAN通信線等を介してコントローラ10にそれぞれ通信可能に接続された外部センサ群1と、内部センサ群2と、入出力装置3と、測位ユニット4と、地図データベース5と、ナビゲーション装置6と、通信ユニット7と、走行用のアクチュエータACとを主に有する。
外部センサ群1は、自車両の周辺情報である外部状況を検出する複数のセンサ(外部センサ)の総称である。例えば外部センサ群1には、レーザ光を照射して反射光を検出することで自車両の周辺の物体の位置(自車両からの距離や方向)を検出するライダ、電磁波を照射し反射波を検出することで自車両の周辺の物体の位置を検出するレーダ、CCDやCMOS等の撮像素子を有し、自車両の周辺(前方、後方および側方)を撮像するカメラなどが含まれる。
内部センサ群2は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群2には、自車両の車速を検出する車速センサ、自車両の前後方向および左右方向の加速度を検出する加速度センサ、走行駆動源の回転数を検出する回転数センサなどが含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群2に含まれる。
入出力装置3は、ドライバから指令が入力されたり、ドライバに対し情報が出力されたりする装置の総称である。例えば入出力装置3には、操作部材の操作によりドライバが各種指令を入力する各種スイッチ、ドライバが音声で指令を入力するマイク、ドライバに表示画像を介して情報を提供するディスプレイ、ドライバに音声で情報を提供するスピーカなどが含まれる。
測位ユニット(GNSSユニット)4は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位センサを内部センサ群2に含めることもできる。測位衛星は、GPS衛星や準天頂衛星などの人工衛星である。測位ユニット4は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。
地図データベース5は、ナビゲーション装置6に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、車線数の情報、交差点や合流点、分岐点の位置情報が含まれる。なお、地図データベース5に記憶される地図情報は、汎用性のあるSDマップ(Standard Map)の情報、すなわち簡易的な地図情報であり、コントローラ10の記憶部12に記憶される高精度な地図情報とは異なる。
ナビゲーション装置6は、ドライバにより入力された目的地までの道路上の目標経路を探索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置3を介して行われる。目標経路は、測位ユニット4により測定された自車両の現在位置と、地図データベース5に記憶された地図情報とに基づいて演算される。外部センサ群1の検出値を用いて自車両の現在位置を測定することもでき、この現在位置と記憶部12に記憶された高精度な地図情報とに基づいて目標経路を演算するようにしてもよい。
通信ユニット7は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、地図データベース5や記憶部12に出力され、地図情報が更新される。通信ユニット7は、外部のサーバ装置と通信し、渋滞情報や事故情報、工事情報などの交通情報を取得することもできる。
アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図1では、便宜上、これらECUの集合としてコントローラ10が示される。
記憶部12には、高精度の道路地図情報が記憶される。この道路地図情報には、道路の位置情報、道路形状(曲率など)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸などの路面プロファイルの情報が含まれる。記憶部12に記憶される地図情報には、通信ユニット7を介して取得した自車両の外部から取得した地図情報、例えばクラウドサーバを介して取得した地図(クラウド地図と呼ぶ)の情報と、外部センサ群1の検出値あるいは外部センサ群1と内部センサ群2との検出値を用いて自車両自体で作成される地図情報、例えばSLAM(Simultaneous Localization and Mapping)等の技術を用いてマッピングにより生成される点群データからなる地図(環境地図と呼ぶ)の情報とが含まれる。
演算部11は、機能的構成として、自車位置認識部13と、外界認識部14と、行動計画生成部15と、走行制御部16と、地図生成部17とを有する。
自車位置認識部13は、測位ユニット4で得られた自車両の位置情報および地図データベース5の地図情報に基づいて、地図上の自車両の位置(自車位置)を認識する。記憶部12に記憶された地図情報と、外部センサ群1が検出した自車両の周辺情報とを用いて自車位置を認識してもよく、これにより自車位置を高精度に認識することができる。なお、道路上や道路脇の外部に設置されたセンサで自車位置を測定可能であるとき、そのセンサと通信ユニット7を介して通信することにより、自車位置を認識することもできる。
外界認識部14は、ライダ、レーダ、カメラ等の外部センサ群1からの信号に基づいて自車両の周囲の外部状況を認識する。例えば自車両の周辺を走行する周辺車両(前方車両や後方車両)の位置や速度や加速度、自車両の周囲に停車または駐車している周辺車両の位置、および他の物体の位置や状態などを認識する。他の物体には、標識、信号機、道路の区画線や停止線等の標示、建物、ガードレール、電柱、看板、歩行者、自転車等が含まれる。他の物体の状態には、信号機の色(赤、青、黄)、歩行者や自転車の移動速度や向きなどが含まれる。
行動計画生成部15は、例えばナビゲーション装置6で演算された目標経路と、記憶部12に記憶された地図情報と、自車位置認識部13で認識された自車位置と、外界認識部14で認識された外部状況とに基づいて、現時点から所定時間先までの自車両の走行軌道(目標軌道)を生成する。目標経路上に目標軌道の候補となる複数の軌道が存在するときには、行動計画生成部15は、その中から法令を順守し、かつ効率よく安全に走行する等の基準を満たす最適な軌道を選択し、選択した軌道を目標軌道とする。そして、行動計画生成部15は、生成した目標軌道に応じた行動計画を生成する。行動計画生成部15は、先行車両を追い越すための追い越し走行、走行車線を変更する車線変更走行、先行車両に追従する追従走行、走行車線を逸脱しないように車線を維持するレーンキープ走行、減速走行または加速走行等に対応した種々の行動計画を生成する。行動計画生成部15は、目標軌道を生成する際に、まず走行態様を決定し、走行態様に基づいて目標軌道を生成する。
走行制御部16は、自動運転モードにおいて、行動計画生成部15で生成された目標軌道に沿って自車両が走行するように各アクチュエータACを制御する。より具体的には、走行制御部16は、自動運転モードにおいて道路勾配などにより定まる走行抵抗を考慮して、行動計画生成部15で算出された単位時間毎の目標加速度を得るための要求駆動力を算出する。そして、例えば内部センサ群2により検出された実加速度が目標加速度となるようにアクチュエータACをフィードバック制御する。すなわち、自車両が目標車速および目標加速度で走行するようにアクチュエータACを制御する。なお、運転モードが手動運転モードであるとき、走行制御部16は、内部センサ群2により取得されたドライバからの走行指令(ステアリング操作等)に応じて各アクチュエータACを制御する。
地図生成部17は、手動運転モードで走行しながら、外部センサ群1により検出された検出値を用いて、3次元の点群データからなる地図を生成する。具体的には、カメラにより取得されたカメラ画像から、画素ごとの輝度や色の情報に基づいて物体の輪郭を示すエッジを抽出するとともに、そのエッジ情報を用いて特徴点を抽出する。特徴点は例えばエッジ上の点やエッジの交点であり、路面上の区画線、建物の角、道路標識の角などに対応する。地図生成部17は、抽出された特徴点までの距離を求めて、特徴点を順次、地図上にプロットし、これにより自車両が走行した道路周辺の地図が生成される。カメラに代えて、レーダやライダにより取得されたデータを用いて、自車両の周囲の物体の特徴点を抽出し、地図を生成するようにしてもよい。
自車位置認識部13は、地図生成部17による地図生成処理と並行して、自車両の位置推定処理を行う。すなわち、特徴点の時間経過に伴う位置の変化に基づいて、自車両の位置を推定する。地図作成処理と位置推定処理とは、例えばカメラやライダからの信号を用いてSLAM(Simultaneous Localization and Mapping)のアルゴリズムにしたがって同時に行われる。地図生成部17は、手動運転モードで走行するときだけでなく、自動運転モードで走行するときにも同様に地図を生成することができる。既に地図が生成されて記憶部12に記憶されている場合、地図生成部17は、新たに得られた特徴点により地図を更新してもよい。
ところで、外部センサ群1による検出範囲には限界があるため、現在地点よりも先で走行車線が分岐したり合流したりするなどの情報を、外部センサ群1の検出情報のみから把握することは難しい。このため、地図生成部17により生成された点群データからなる地図情報に、例えばSDマップなどに含まれる分岐や合流などの道路構造の情報を付加して、これを環境地図として記憶部12に記憶することが好ましい。特に、近年、自動運転技術を通して、交通参加者の中でも脆弱な立場にある人々にも配慮した持続可能な輸送システムが求められており、交通の安全性や利便性をより一層改善して持続可能な輸送システムの発展に寄与するものとすべく、良好な環境地図の作成が望まれる。
図2は、その場合の地図生成部17による地図生成の具体的な手順を説明する図である。図2では、まず、(1)地図生成として、外部センサ群1の検出情報に基づいて自車両101の周囲の環境地図を生成する。図示の例では、片側3車線(第1車線LN1、第2車線LN2、第3車線LN3)の道路のうち、第3車線LN3を自車両101が走行しており、ハッチングで示す領域の、自車線(第3車線LN3)とその隣の車線(第2車線LN2)を含む環境地図が生成される。
次に、(2)情報抽出として、地図データベース5に記憶されたSDマップの情報を読み込み、当該情報から、自車両101の位置に対応する道路の情報、すなわち道路構造を示す情報を抽出する。具体的には、自車両101が走行する車線(第3車線LN3)を特定した上で、当該車線に対応する道路構造の情報、すなわち、生成中の環境地図に対応する第3車線LN3と第2車線LN2の情報を抽出する。この情報には、点線で示すように現在地点よりも先で、第3車線LN3が第2車線LN2に合流するという情報が含まれる。
最後に、(3)情報付加として、(1)の環境地図に(2)の道路構造を示す情報を付加し、これを新たな環境地図(第2車線LN2と第3車線LN3の環境地図)として記憶部12に記憶する。これにより、自車両101が例えば自動運転で第3車線LN3を走行しているとき、車両制御システム100(コントローラ20)は、記憶部12に記憶された地図情報を用いて第3車線LN3から第2車線LN2への車線変更が必要であることを早期に認識することができる。その結果、自動運転レベルを低下させる必要があるか等を早期に判断し、自動運転レベルを低下させる必要がある場合にはその旨を早期に乗員に通知することができる。
このように(1)の環境地図に(2)の車線情報を付加するためには、環境地図と車線情報との対応付けが必要であり、そのためには、環境地図を生成中に自車両101がどの車線を走行していたかを特定する必要がある。しかし、環境地図は点群データからなるため、環境地図から走行中の車線を特定することは困難である。そこで、本実施形態では、環境地図を生成しながら自車両101の走行車線を推定できるよう以下のように車線推定装置を構成する。
図3は、本発明の実施形態に係る車線推定装置が適用される走行シーンの一例を示す図である。図3は、区画線によって区画された複数の車線(第1車線LN1、第2車線LN2、第3車線LN3)を含む右側通行の道路を示しており、米国の道路の例である。区画線は、道路の中央の区画線L1(中央線)と、道路の端の区画線L2(実線)と、区画線L1,L2の間の2本の区画線L3,L4(点線)とを含み、これら区画線L1~L4は互いに平行に延在する。なお、中央線L1は例えば黄色の実線であり、中央線L1の反対側(左側)に対向車線が存在する。区画線L2~L4は白色であり、区画線L2の外側(区画線L4の反対側)に、道路境界線L5が存在する。各車線LN1~LN3の左右方向長さ(車線幅ΔW1)は互いに等しい。区画線L2と道路境界線L5との間の左右方向長さΔW2は、車線幅ΔW1よりも短い。
図3には、異なる時点における自車両101の複数の位置が示されており、自車両101は、交差点301から交差点302までの道なりの所定区間SEにおいて、図示矢印に示すように第2車線LN2を走行する。すなわち、以下では、説明を簡単にするために自車両101が車線変更せずに道なりに走行する場合を想定する。交差点301,302をそれぞれ所定区間SEの始点および終点と呼ぶことがある。なお、第1車線LN1と第3車線LN3には、それぞれ走行中の他車両102が存在する。
本実施形態に係る車線推定装置の概要を説明する。車線推定装置は、自車両101が環境地図を生成しながら所定区間SEを走行する際、まず、3つの手法を用いて所定時間毎に自車両101の走行車線を推定する。すなわち、複数の地点で走行車線を推定する。そして、所定区間SEの終点(交差点302)において、複数の地点で推定された走行車線の頻度を求める。図4は、図3で求められた車線の頻度の一例を示す図である。図4に示すように、第2車線LN2の頻度が最も高い。これにより、車線推定装置は、第2車線LN2を、所定区間SEにおいて自車両101が走行した車線であると推定する。
図5は、本発明の実施形態に係る地図生成装置50の要部構成を示すブロック図であり、この地図生成装置50に車線推定装置が含まれる。地図生成装置50は、図1の車両制御システム100の一部を構成する。図5に示すように、地図生成装置50は、コントローラ10と、カメラ1aと、地図データベース5とを有し、カメラ1aと地図データベース5とからの信号がコントローラ10に入力される。
カメラ1aは、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラであり、図1の外部センサ群1に含まれる。カメラ1aはステレオカメラであってもよい。カメラ1aは、例えば自車両101の前部の所定位置に取り付けられ、自車両101の前方空間を連続的に撮像して対象物の画像(カメラ画像)を取得する。対象物には、道路上の区画線が含まれる。カメラ1aは、複数の方向を撮影するように複数設けられてもよい。なお、カメラ1aに代えて、あるいはカメラ1aとともに、ライダなどにより対象物を検出するようにしてもよい。
図5のコントローラ10は、図1の地図生成部17と記憶部12とを有する。地図生成部17は、演算部11(図1)が担う機能的構成として、走行しながら環境地図を生成する機能とは別に、第1車線推定部171と、パラメータ算出部172と、第2車線推定部173と、情報取得部174と、情報付加部175とを有する。第1車線推定部171とパラメータ算出部172と第2車線推定部173は、車線推定部として機能する。なお、車線推定部は自車位置を認識するために用いることができるため、車線推定部(第1車線推定部171、パラメータ算出部172、第2車線推定部173)を、地図生成部17ではなく自車位置認識部13に含めることもできる。
第1車線推定部171は、カメラ1aからの信号に基づいて、自車両101が所定区間SEを走行中に、所定時間毎に自車両101が走行中の車線、すなわち自車線を推定する。この推定は、以下の3つの手法を用いて行う。第1の手法は、区画線の有無および種別を表す区画線情報に基づいて、自車線を推定するものである。より詳細には、カメラ画像に区画線が含まれるとき、区画線の形状(点線、実線など)から複数の車線の左右方向の端部の外側線を判別し、区画線の色(黄色、白色など)から中央線を判別する。これにより第1車線推定部171は、自車両101の位置する車線、すなわち自車線を推定する。
例えば、自車両101の右側の区画線のうち、カメラ画像により検出された実線の区画線が1本のみである場合、当該区画線を右端の外側線と判別し、自車線が第1車線LN1であると推定する。また、図6Aに示すように、カメラ画像により実線の区画線L11(黄色)と実線の区画線L12(白色)との間に点線の区画線L13,L14(白色)が検出されるとき、区画線の形状から区画線L11,L12を外側線と判別するとともに、区画線の色から区画線L11を中央線と判別し、これにより自車線を推定する。
第2の手法は、自車両101の周辺を走行する周辺車両の有無および走行方向を表す周辺車両情報に基づいて、自車線を推定するものである。より詳細には、カメラ画像に基づいて左側の隣接車線を走行する周辺車両の向きを認識することで、周辺車両の進行方向を判定する。さらに、カメラ画像に基づいて右側の隣接車線を走行する周辺車両の有無、および区画線の有無を判別する。これにより自車線を推定する。
例えば、図6Bに示すように、カメラ画像により自車両101の左側の隣接車線LN21に周辺車両102aが検出され、当該周辺車両102aの向きが自車両101の向きと反対であると判定されると、自車線が左端の車線(第2車線LN2)であると推定する。一方、仮に周辺車両102aの向きが自車両101と同一であると判定されると、自車線は左端の車線ではないと推定する。さらに、カメラ画像により自車両101の右側に周辺車両が検出され、または図6Bに示すように区画線L15が検出されると、自車線は右端の第1車線LN1ではないと推定する。一方、自車両101の右側に周辺車両が検出されず、区画線も検出されないとき、自車線が第1車線LN1であると推定する。
第3の手法は、自車両101の周辺の道路境界線(図3の外側線L5など)から区画線までの距離を表す距離情報に基づいて、自車線を推定するものである。より詳細には、カメラ画像に基づいて道路境界線から区画線までの距離ΔWを算出し、その距離ΔWが所定値ΔW1未満であるか否かにより、区画線と道路境界線車線との間に車線が存在するか否かを判定し、これにより自車線を推定する。所定値ΔW1は、法規で定められる車線幅(図3)に相当する。
例えば図6Cに示すように、カメラ画像により自車線の右側に区画線L16が検出され、さらにその右側に、歩道の縁石などの道路境界線L17(外側線)が検出されるとき、カメラ画像に基づいて区画線L16と道路境界線L17との間の距離ΔWを算出する。そして、距離ΔWが所定値ΔW1以下であるとき、自車線が右端の第1車線LN1であると推定する。また、図6Dに示すように、カメラ画像により自車線の左側に区画線L18が検出され、さらにその左側に、中央分離帯の縁石などの道路境界線L19(外側線)が検出されるとき、カメラ画像に基づいて区画線L18と道路境界線L19との間の距離ΔWを算出する。そして、距離ΔWが所定値ΔW1以下であるとき、自車線が左端の車線であると推定する。
仮にカメラ画像により右側の区画線L16(図6C)が検出されないとき、第1車線推定部171は、自車両101から道路境界線L17までの距離ΔW3を算出する。そして、距離ΔW3が所定値ΔW1に所定係数(例えば1.5)を乗じた値以下であるとき、自車線の右側に車線はなく、自車線が第1車線LN1であると推定する。また、仮にカメラ画像により左側の区画線L18(図6D)が検出されないとき、第1車線推定部171は、自車両101から道路境界線L19までの距離ΔW4を算出する。そして、距離ΔW4が所定値ΔW1に所定係数(例えば1.5)を乗じた値以下であるとき、自車線の左側に車線はなく、自車線が左端の車線であると推定する。
上述した第1~第3の手法により常に自車線を推定できるわけではなく、走行環境に応じて自車線を精度よく推定できる場合とできない場合とがある。図7は、第1~第3の手法と走行環境が満たす複数の要件との関係を示す図である。図中の〇印は、自車線を精度よく推定できる場合を、×印はできない場合を示す。△印は、自車線を精度よく推定できる場合とできない場合とがあることを示す。図7には、走行環境が満たす要件として、車線と路肩を判別できる、駐車車両の影響を受けない、対向車線を判断できる、区画線および他車両のない環境でも推定できる、車線数および走行車線の位置に依存しない、誤推定が少ない、不定値が少ない、および一時的な誤認識に対してロバスト性がある、などが挙げられる。
第1車線推定部171は、所定時間毎に第1~第3の手法を用いて自車線を推定する。例えば第1~第3の手法を組み合わせて自車線を推定する。但し、第1~第3の手法により自車線を推定できるのは、図7の〇印の走行環境であり、×印の走行環境では自車線を推定できない。なお、△印の走行環境では、自車線を推定できる場合とできない場合とがある。
図7には、第1~第3の手法を組み合わせた組み合わせ処理後の自車線の推定の精度を併せて示す。組み合わせ処理とは、第1~第3の手法による推定結果を統合して自車線(統合自車線と呼ぶ)を算出する処理である。例えば第1~第3の手法のいずれかで自車線が第1車線LN1であると推定され、かつ、第1~第3の手法のいずれによっても自車線が第2車線LN2、第3車線LN3であると推定されないとき、統合自車線は第1車線LN1となる。第1~第3の手法のいずれか1つで第1車線LN1であると推定されるとともに、第1~第3の手法の別の1つで第2車線LN2であると推定されると、統合自車線は算出されない。但し、第1~第3の手法のいずれか2つで第1車線LN1であると推定されるとともに、第1~第3の手法の別の1つで第2車線LN2であると推定されるときには、自車線が第1車線LN1である蓋然性が高いため、統合自車線は第1車線LN1となる。
図7に示すように、第1~第3の手法のいずれかで自車線が推定できる場合(〇印)には、一部の例外を除いて組み合わせ処理後にも自車線(統合自車線)を推定できる。このように複数の手法を組み合わせることにより、種々の走行環境において自車線を良好に推定可能となる。第1車線推定部171により所定時間毎に求められる自車線(統合自車線)の推定結果は、記憶部12に記憶される。例えば、統合自車線が算出される度に、当該車線(第1車線LN1、第2車線LN2または第3車線LN3)に対応するカウント値がカウントアップされる。
パラメータ算出部172は、自車両101が所定区間SEの終点(図2の交差点302)に到達すると、記憶部12に記憶された所定時間毎の自車線(統合自車線)の推定結果を統計的に処理して、走行車線の頻度を表すパラメータ(車線パラメータと呼ぶ)を算出する。上述したように統合自車線が算出される度に当該車線がカウントアップされる場合、各車線のカウント値をそのまま車線パラメータとして用いることができる。
図8は、パラメータ算出部172により算出された車線パラメータの結果の一例を示す図である。図8は、図4の頻度をカウント値に置き換えたものである。図8に示すように、第2車線LN2のカウント値N2は、第1車線LN1のカウント値N1および第3車線LN3のカウント値N3よりも大きい。なお、統合自車線を算出することなく、第1車線推定部171で第1~第3の手法で自車線が推定される度に、当該車線をカウントアップするようにしてもよい。例えば、ある時刻において第1~第3の手法のいずれか1つで自車線が第1車線であると推定されると、第1車線LN1のカウント値を+1だけ増加し、第1~第3の手法のそれぞれで自車線が第1車線LN1であると推定されると、第1車線LN1のカウント値を+3だけ増加するようにしてもよい。
第2車線推定部173は、パラメータ算出部172により算出された車線パラメータに基づき、所定区間SEにおける自車線を推定(特定)する。例えば図8に示すように最もカウント値が大きい第2車線LN2を、自車線と推定する。図8では、第2車線LN2と他の車線との頻度の差(カウント値の差)が大きいが、頻度の差が小さい(例えば頻度の差が所定値以下である)場合には、自車線を特定することなく、つまり図2に示すSDマップの車線の情報を付加せずに、環境地図だけを生成するようにしてもよい。この場合には、所定区間SEを再度走行したときに、前回の走行で生成された環境地図と今回の走行で生成された環境地図の座標を対応付けるとともに、今回の走行で得られたカメラ画像の情報から自車線を特定し、SDマップの情報を付加するようにしてもよい。
図7には、このような統計的な処理によって推定された統計処理後の自車線の推定の精度を併せて示す。図7に示すように、統計処理後には、組み合わせ処理後よりも、自車線を精度よく推定できる頻度が高まる。また、所定区間SEにおける自車線の推定値(第1~第3の手法による推定値)を統計的に処理することによって最終的に自車線を推定するため、自車線の推定精度が高い。
地図生成部17は、このような自車線の推定処理と並行して、カメラ画像に基づいて環境地図を随時生成する。すなわち、上述したようにSLAM等の技術を用いて点群データからなる環境地図を生成する。生成された環境地図は、記憶部12に記憶される。
図5の情報取得部174は、自車位置認識部13により認識された自車位置に対応するSDマップの情報を地図データベース5から取得する。このSDマップの情報には、車線の分岐や合流といった道路構造を示す情報(車線情報)が含まれる。
情報付加部175は、情報取得部174により取得された車線情報の中から、第2車線推定部173により推定された自車線に対応する情報を抽出する。そして、抽出した情報を、記憶部12に記憶された環境地図に付加し、これを新たな環境地図として記憶部12に記憶する。以降、自動運転での走行時には、この環境地図を用いて自車両101の目標軌道が生成される。このため、車両制御システム100は、自車線の分岐や合流を予測して自車両101の走行動作を良好に制御することができる。
図9は、図5のコントローラ10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、手動運転によって自車両101が道なりに沿って走行されながら地図生成部17が環境地図を生成しているときに、自車両101が所定区間SEの始点(図2の交差点301)に到達すると開始される。
まず、ステップS1で、カメラ1aと地図データベース5とからの信号を読み込む。地図データベース5から読み込まれる信号には、自車両101の現在位置に対応する車線の情報、すなわち自車両101の現在位置から延びる分岐や合流などを含む道路構造の情報が含まれる。なお、自車両101の現在位置は、例えば測位ユニット4(図1)からの信号により検出できる。
次いで、ステップS2で、カメラ画像に基づき、走行中の自車線を推定する。この場合、まず上述した第1~第3の手法によりそれぞれ自車線を推定する。次いで、第1~第3の手法を組み合わせ、組み合わせ処理後の自車線を推定する。換言すると、第1~第3の手法による推定結果を統合して統合自車線を算出する。この算出結果は記憶部12に記憶される。
次いで、ステップS3で、自車両101の現在位置が所定区間SEの終点(図2の交差点302)に到達したか否かを判定する。ステップS3で肯定されるとステップS4に進み、否定されるとステップS1に戻る。これにより、自車両101が所定区間SEの終点に到達するまで、統合自車線の算出が所定時間毎に繰り返され、算出結果が記憶部12に蓄積される。なお、以上の処理と並行して、カメラ画像に基づく環境地図の生成も行われており、生成された環境地図は随時、記憶部12に記憶される。
ステップS4では、記憶部12に記憶された統合自車線の算出結果の情報を用いて、車線パラメータを算出する。具体的には、統合自車線としてカウントされた各車線のカウント値(図8のN1~N3)を、そのまま車線パラメータとして算出する。
次いで、ステップS5で、ステップS4で算出された車線パラメータを用いて統計的に自車線を推定する。すなわち、各車線LN1~LN3のカウント値N1~N3のうち、最もカウント値が大きい車線を、自車線として推定する。なお、車線同士のカウント値の差が小さい場合には、統計的な自車線の推定を行わない。
次いで、ステップS6で、ステップS1で読み込まれた地図データベース5の車線情報の中から、ステップS5で推定された自車線に対応する道路構造の情報を抽出する。
次いで、ステップS7で、記憶部12に記憶された所定区間SEにおける環境地図に、ステップS6で抽出された道路構造の情報を付加し、これを新たな環境地図として記憶部12に記憶する。以上で、所定区間SEにおける地図生成の処理を終了する。
上述したように道路構造の情報を付加して環境地図を生成すると、環境地図を用いて自動運転で走行する場合に、分岐や合流によって車線変更する予定であることを、入出力装置3(例えばモニタ表示やスピーカからの音声出力)を介して事前に乗員に報知することができる。この場合、道路構造が変化する地点の直前に報知することが好ましい。これにより乗員にとっての違和感を低減できる。なお、手動運転で自車両101が走行される場合には、分岐や合流によって車線変更が必要であることを、入出力装置3を介して事前に運転者に報知すればよい。これにより、運転者は余裕をもって車線変更を行うことができる。
本実施形態に係る車線推定装置による動作をより具体的に説明する。図10A,図10Bは、それぞれ車線推定装置が適用される走行シーンの一例を示す図であり、自車両101の走行中にカメラ1aにより得られる画像に相当する。
図10Aでは、カメラ画像により自車両101の左側に点線の区画線L21が検出されるが、白色や黄色の実線の区画線は検出されない。このため、外側線や中央線が不明であり、第1の手法により自車線を推定することはできない。
また、カメラ画像により自車両101の左側に他車両102bが検出されるが、他車両102bの向きは自車両101の向きと同一であり、対向車線の位置は不明である。一方、カメラ画像により自車両101の右側には区画線も車両も検出されない。このため、第2の手法により、自車線が右端の第1車線LN1と推定される。
さらに、カメラ画像により自車両101の右側に道路境界線L22が検出され、自車両101と道路境界線L22との間の距離Wは、所定値ΔW1に所定係数(例えば1.5)を乗じた値以下である。このため、第3の手法により、自車線が右端の第1車線LN1と推定される。以上より、統合自車線は第1車線LN1となり、第1車線LN1のカウント値N1がアップされる。その結果、所定区間SEの走行完了後に、統計的処理によって自車線が第1車線LN1であると推定される。
図10Bでは、カメラ画像により自車両101の左側に点線の区画線L23が検出され、右側に実線(白色)の区画線L24が検出される。このため、第1の手法により、自車線が右端の第1車線LN1と推定される。
また、カメラ画像により自車両101の右側に区画線L24と複数の他車両102cとが検出されるが、他車両102cが路肩に駐車されていると判別することはできない。さらに、自車両101の左側に自車両101と向きが反対な対向車両は検出されない。このため、第2の手法により自車線を推定することはできない。
さらにまた、カメラ画像により検出された自車両101の右側の区画線L24と、その右側の道路境界線との間の距離ΔWは所定値ΔW1より大きいが、距離ΔWの示す領域が路肩であると判別することはできない。このため、第3の手法により自車線を推定することはできない。以上より、統合自車線は第1車線LN1となり、第1車線LN1のカウント値N1がアップされる。その結果、所定区間SEの走行完了後に、統計的処理によって自車線が第1車線LN1であると推定される。
なお、図10Aでは、2つの手法(第2,第3の手法)により自車線が第1車線LN1であると推定されるのに対し、図10Bでは、1つの手法(第1の手法)により自車線が第1車線LN1であると推定される。このため、図10Aの推定結果の方が図10Bの推定結果よりも信頼性が高いとも考えられる。この点を考慮し、図10Aで算出される車線パラメータ(カウント値N1)が、図10Bで算出される車線パラメータ(カウント値N1)より大きくなるようにしてもよい。例えば、統合自車線を推定することに代えて、第1~第3の手法で自車線が推定される度に、当該車線のカウント値を増加するようにしてもよい。
上記実施形態によれば以下のような作用効果を奏することができる。
(1)車線推定装置は、自車両101の周囲の外界状況を認識するカメラ1aと、カメラ1aにより認識された外界状況の情報に基づいて、自車両101が走行する自車線を推定する車線推定部としての第1車線推定部171、パラメータ算出部172および第2車線推定部173と、を備える(図5)。車線推定部は、自車両が101所定区間SEを走行するとき、所定時間毎に自車線を推定し、所定区間SEの走行完了後に、推定された自車線の頻度を表す車線パラメータを算出し、車線パラメータに基づいて所定区間SE内で自車両101が走行した自車線を推定する(図9)。このように所定区間SEにおける自車線の頻度を表す車線パラメータに基づいて自車線を推定することで、自車線を一時的に誤って推定した場合であっても、その推定結果が大きく影響されずに自車線を精度よく推定することができる。したがって、種々の走行環境のもとで良好な自車線の推定が可能である。
(2)カメラ1aにより認識される外界状況の情報は、区画線の有無および種別を表す区画線情報と、自車両101の周辺を走行する周辺車両の有無および走行方向を表す周辺車両情報と、道路境界線から区画線までの距離を表す距離情報と、を含む。車線推定部(第1車線推定部171)は、区画線情報と周辺車両情報と距離情報とに基づいて、所定時間毎に自車線を推定する。これにより、複数の手法(第1~第3の手法)により自車線を推定するようになるため、あらゆる走行環境に対応した自車線の推定が可能である。
(3)車線推定装置は、情報を記憶部する記憶部12をさらに備える(図5)。車線推定部は、自車両101が、道なりに沿って設定された所定区間SEの始点から終点に至るまで、所定時間毎に自車線を推定するとともに、推定結果を記憶部12に記憶し、自車両101が終点に至ると、記憶部12に記憶された推定結果の情報に基づいて、自車線の頻度を表す車線パラメータを算出する(図9)。これにより、統計的な処理を用いて自車線を良好に推定することができる。
(4)地図生成装置50は、上述した車線推定装置と、カメラ1aにより認識された外界状況に基づいて自車両101の周辺の地図を生成する地図生成部17と、を備える(図5)。これにより、地図を生成しながら、当該地図に対応した車線を把握することができる。
(5)地図生成装置50は、地図生成部17により生成された地図の情報を記憶する記憶部(地図情報記憶部)12と、記憶部12に記憶された地図の情報に対応する、車線数の情報と車線の分岐および合流の情報とを含む道路地図情報を取得する情報取得部174と、をさらに備える(図5)。地図生成部17(情報付加部175)は、記憶部12に記憶された地図の情報に、情報取得部174により取得された道路地図情報により特定される道路構造の情報を、付加する(図9)。これによりSLAMなどの技法で得られた環境地図に、SDマップなどに含まれる車線情報を付加することができ、車線情報を含んだ精度よい環境地図を生成することができる。その結果、車線の分岐や合流などがある道路における、自動運転走行を良好に行うことができる。
上記実施形態は種々の形態に変形することができる。以下、いくつかの変形例について説明する。上記実施形態では、カメラ1a等の外部センサ群1により自車両の周囲の外部状況を認識するようにしたが、区画線や他車両の有無等を検出可能に構成されるのであれば、ライダ等、カメラ1a以外の外界認識部を用いることもできる。
上記実施形態では、第1車線推定部171による所定時間毎の自車線の推定処理において自車線と推定された車線の回数(カウント値N1~N3)を、パラメータ算出部172が車線パラメータとして算出したが、推定された車線の頻度を表す他のパラメータを算出してもよい。上記実施形態では、第2車線推定部173が、車線パラメータ(N1~N3)が最も大きくなる車線、すなわち最頻値となる車線を自車線と推定したが、パラメータに基づいて自車線の頻度を上述した以外の各種統計的処理によって求めることで、所定区間SEの自車線を推定するようにしてもよい。したがって、車線推定部の構成は上述したものに限らない。
上記実施形態では、第1車線推定部171が、区画線情報と周辺車両情報と距離情報とに基づいて所定時間毎に自車線を推定するようにしたが、これら3つの情報のうちの1つまたは2つの情報に基づいて、あるいは3つの情報の少なくとも1つと他の情報とに基づいて、自車線を推定するようにしてもよい。上記実施形態では、所定区間SE内で自車両101が車線変更しないことを想定して自車線を推定する例を説明したが、車線変更された場合には、車線変更前と車線変更後とに分けて、同様に自車線を推定すればよい。
上記実施形態では、情報取得部174により車線の分岐や合流などの車線情報を含む道路地図情報を取得するようにしたが、情報取得部が他の道路地図情報を取得するようにしてもよい。例えば、車線の進行方向を示す情報、すなわち、直進専用車線、左折専用車線、右折専用車線などの情報を取得し、これを環境地図に付加して記憶するようにしてもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1a カメラ、5 地図データベース、10 コントローラ、12 記憶部、17 地図生成部、50 地図生成装置、171 第1車線推定部、172 パラメータ算出部、173 第2車線推定部、174 情報取得部、175 情報付加部

Claims (5)

  1. 自車両の周囲の外界状況を認識する外界認識部と、
    前記外界認識部により認識された外界状況の情報に基づいて、自車両が走行する自車線を推定する車線推定部と、を備え、
    前記車線推定部は、
    自車両が所定区間を走行するとき、所定時間毎に自車線を推定し、前記所定区間の走行完了後に、推定された自車線の頻度を表すパラメータを算出し、算出された前記パラメータに基づいて前記所定区間内で自車両が走行した自車線を推定することを特徴とする車線推定装置。
  2. 請求項1に記載の車線推定装置において、
    前記外界認識部により認識される外界状況の情報は、区画線の有無および種別を表す区画線情報と、自車両の周辺を走行する周辺車両の有無および走行方向を表す周辺車両情報と、道路境界線から区画線までの距離を表す距離情報と、を含み、
    前記車線推定部は、前記区画線情報と前記周辺車両情報と前記距離情報とに基づいて、前記所定時間毎に自車線を推定することを特徴とする車線推定装置。
  3. 請求項1または2に記載の車線推定装置において、
    情報を記憶する記憶部をさらに備え、
    前記車線推定部は、自車両が、道なりに沿って設定された前記所定区間の始点から終点に至るまで、前記所定時間毎に自車線を推定するとともに、推定結果を前記記憶部に記憶し、自車両が前記終点に至ると、前記記憶部に記憶された情報に基づいて、自車線の頻度を表す前記パラメータを算出することを特徴とする車線推定装置。
  4. 請求項1または2に記載の車線推定装置と、
    前記車線推定装置に含まれる前記外界認識部により認識された外界状況に基づいて自車両の周辺の地図を生成する地図生成部と、を備えることを特徴とする地図生成装置。
  5. 請求項4に記載の地図生成装置において、
    前記地図生成部により生成された地図の情報を記憶する地図情報記憶部と、
    前記地図情報記憶部に記憶された地図の情報に対応する、車線数の情報と車線の分岐および合流の情報とを含む道路地図情報を取得する情報取得部と、をさらに備え、
    前記地図生成部は、前記地図情報記憶部に記憶された地図の情報に、前記情報取得部により取得された前記道路地図情報により特定される道路構造の情報を、付加することを特徴とする地図生成装置。
JP2022191424A 2022-11-30 2022-11-30 車線推定装置および地図生成装置 Pending JP2024078845A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022191424A JP2024078845A (ja) 2022-11-30 2022-11-30 車線推定装置および地図生成装置
CN202311600512.7A CN118116186A (zh) 2022-11-30 2023-11-24 车道推定装置和地图生成装置
US18/519,296 US20240175707A1 (en) 2022-11-30 2023-11-27 Lane estimation apparatus and map generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022191424A JP2024078845A (ja) 2022-11-30 2022-11-30 車線推定装置および地図生成装置

Publications (1)

Publication Number Publication Date
JP2024078845A true JP2024078845A (ja) 2024-06-11

Family

ID=91192576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022191424A Pending JP2024078845A (ja) 2022-11-30 2022-11-30 車線推定装置および地図生成装置

Country Status (3)

Country Link
US (1) US20240175707A1 (ja)
JP (1) JP2024078845A (ja)
CN (1) CN118116186A (ja)

Also Published As

Publication number Publication date
US20240175707A1 (en) 2024-05-30
CN118116186A (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
US11874135B2 (en) Map generation apparatus
US20220266824A1 (en) Road information generation apparatus
US20220258737A1 (en) Map generation apparatus and vehicle control apparatus
JP2024078845A (ja) 車線推定装置および地図生成装置
JP7141477B2 (ja) 地図生成装置
US20220291016A1 (en) Vehicle position recognition apparatus
JP7141479B2 (ja) 地図生成装置
US11828618B2 (en) Map generation apparatus
US20220291015A1 (en) Map generation apparatus and vehicle position recognition apparatus
US20220291014A1 (en) Map generation apparatus
US11920949B2 (en) Map generation apparatus
US11867526B2 (en) Map generation apparatus
WO2023188262A1 (ja) 地図生成装置
US20220268587A1 (en) Vehicle position recognition apparatus
US20220307861A1 (en) Map generation apparatus
US20230314164A1 (en) Map generation apparatus
US20230314165A1 (en) Map generation apparatus
JP2023149511A (ja) 地図生成装置
JP2022150534A (ja) 走行制御装置
JP2023148239A (ja) 地図生成装置
CN114954510A (zh) 划分线识别装置
CN114926805A (zh) 划分线识别装置