JP2022098397A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2022098397A
JP2022098397A JP2021035452A JP2021035452A JP2022098397A JP 2022098397 A JP2022098397 A JP 2022098397A JP 2021035452 A JP2021035452 A JP 2021035452A JP 2021035452 A JP2021035452 A JP 2021035452A JP 2022098397 A JP2022098397 A JP 2022098397A
Authority
JP
Japan
Prior art keywords
parking space
unit
semantic segmentation
image
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021035452A
Other languages
English (en)
Inventor
秀明 今井
Hideaki Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to US18/267,436 priority Critical patent/US20240054793A1/en
Priority to CN202180064103.2A priority patent/CN116438583A/zh
Priority to PCT/JP2021/044817 priority patent/WO2022138123A1/en
Priority to EP21831378.1A priority patent/EP4264567A1/en
Publication of JP2022098397A publication Critical patent/JP2022098397A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】駐車スペースの環境に左右されることなく、人間の感覚に近い迅速でスムーズな駐車支援を実現できるようにする。【解決手段】画像データの画素単位で、デプスデータと、画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とを有する3Dセマンティックセグメンテーション画像を生成し、3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索し、探索された駐車スペースへの経路を計画して車両を制御する。本開示は、駐車支援システムに適用することができる。【選択図】図6

Description

本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、駐車スペースの環境に左右されることなく、人間の感覚に近い迅速でスムーズな駐車支援を実現できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
近年、駐車支援システムに関する関心が高まっている。日常の様々なドライブシーンにおいて車両を駐車する場面があり、より安全・快適で利便性の高い駐車支援システムが求められている。
例えば、カメラ画像に基づいて駐車スペースを検出し、検出した駐車スペースに対して駐車するための駐車支援をする技術が提案されている(特許文献1参照)。
特開2017-111803号公報
しかしながら、特許文献1に記載の技術においては、奥行き情報を考慮した駐車スペースの検出がなされていない。
このため、奥行きが認識できないと駐車スペースの検出が難しい環境下においては、人間が駐車スペースを検出する感覚と近い感覚で駐車スペースを判別することができないので、スムーズな駐車支援を実現できない恐れがある。
本開示は、このような状況に鑑みてなされたものであり、特に、駐車スペースの環境に左右されることなく、人間の感覚に近い迅速でスムーズな駐車支援を実現するものである。
本開示の一側面の情報処理装置、およびプログラムは、車両の周囲の画像データを取得する画像取得部と、前記車両の周囲のデプスデータを取得するデプスデータ取得部と、前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション処理部と、前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する駐車スペース探索部とを備える情報処理装置、およびプログラムである。
本開示の一側面の情報処理方法は、車両の周囲の画像データを取得し、前記車両の周囲のデプスデータを取得し、前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成し、前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索するステップを含む情報処理方法である。
本開示の一側面においては、車両の周囲の画像データが取得され、前記車両の周囲のデプスデータが取得され、前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像が生成され、前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースが探索される。
駐車支援機能の制限を説明する図である。 駐車支援機能による運転支援の例を説明する図である。 本開示の技術を適用した駐車支援機能の概要を説明する図である。 車両制御システムの構成例を示すブロック図である。 センシング領域の例を示す図である。 本開示の駐車支援制御部の構成例を説明する図である。 図6の3Dセマンティックセグメンテーション処理部の構成例を説明する図である。 3Dセマンティックセグメンテーション情報を説明する図である。 駐車スペースの検出例を説明する図である。 駐車スペースの検出例を説明する図である。 3Dセマンティックセグメンテーション情報生成処理を説明するフローチャートである。 駐車支援処理を説明するフローチャートである。 駐車スペース探索モード処理を説明するフローチャートである。 駐車モード処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.車両制御システムの構成例
3.本開示の駐車支援機能を実現する駐車支援制御部の構成例
4.ソフトウエアにより実行させる例
<<1.本開示の概要>>
本開示の技術を適用した、駐車スペースの環境に左右されることなく、人間の感覚に近い迅速でスムーズな駐車支援を実現する技術の概要について説明する。
駐車スペースを認識して自動的に駐車する、または最適な駐車経路へと誘導するといった、駐車支援機能については、既に様々な形態での製品化がなされているが、いずれにおいても様々な制約が設けられている。
例えば、第1の駐車支援機能では、図1における点線で示されるように、行った事のあるなしに関わらず、すなわち、車両に予め登録されていない駐車スペースでも駐車可能であるが、白線がない、または白線がかすれた駐車スペースに対しては駐車できない。
また、例えば、第2の駐車支援機能では、図1における一点鎖線で示されるように、白線の有無に関わらず、白線がある駐車スペースでも、白線がない駐車スペースでも駐車可能ではあるが、行った事がある駐車スペース、すなわち、車両に予め登録されている駐車スペースに対してのみ機能するものである。
すなわち、上述した駐車支援機能を実現させるためには、対象となる駐車スペースの白線の有無や、駐車スペースが予め登録されているか否かに応じた条件が設定されている。尚、図1においては、横軸が白線の有無(白線があるか否か)の程度を示しており、縦軸が行った事の有無(事前登録されているか否か)の程度を示している。
そこで、本開示における駐車支援機能においては、図1における実線で示されるように、対象となる駐車スペースについて、車両に予め登録されているか否か(行った事があるか否か)や、白線の有無に関わらず、駐車スペースや駐車している車両の方向(並列、縦列)といった周辺の状況を適切に認識することにより、人間が操作することでなされる駐車操作のように、迅速でスムーズな駐車支援を実現する。
例えば、図2の左部で示されるように、本体の左右にカメラなどのセンサSc1-1,Sc1-2が設けられた車両C1が、駐車スペースSP1に駐車する場合の駐車支援について考える。
尚、図2においては、図中の二等辺三角形の印の二等辺で示される凸部の方向が車両C1の前方であるものとする。
図2の左部で示されるように、車両C1は、左側方に取り付けられたセンサSc1-1により、駐車できる空スペースとなる駐車スペースSP1の位置を検出するために、少なくとも一度は、駐車スペースSP1の前を横切る必要がある。
また、例えば、図2の右部で示されるように、本体の左右に超音波センサなどのセンサSc11-1,Sc11-2が設けられた車両C2が、駐車スペースSP2に駐車する場合の駐車支援について考える。
図2の右部の場合にも、車両C2の左側方に取り付けられたセンサSc11-1により、駐車できる空スペースとなる駐車スペースSP1を検出するために、少なくとも一度は、駐車スペースSP2の付近を通行する必要がある。
すなわち、図2を参照して説明したように、本体の左右にカメラや超音波センサなどを設けて、駐車支援を考える場合、事前に対象となる駐車スペースの前を通過する、または、付近を通過する必要がある。
このため、図2を参照して説明した駐車支援の例においては、人間が駐車操作を行う場合のように、対象となる空きスペースを目視で探索し、探索した空きスペースを対象の駐車スペースに定めて駐車操作を開始することができない。
このため、上述した駐車支援を用いた駐車が行われる場合、車両は、空きスペースとなる駐車スペースの前や傍を通過するまで、駐車場内を巡回し続けることになる。
この際、場合によっては、車両に搭乗している人間は、空きスペースとなる駐車スペースを目視で確認できているのにも関わらず、空きスペースが全くないと分かっている範囲までも駐車スペースを探索するために走り回るといったことも起こり得る。
結果として、駐車が完了するまでに、不要な時間が掛かる可能性があり、車両に搭乗する人間にとっては迅速でスムーズな駐車とは感じられず、違和感のある駐車操作と感じられる可能性があった。
そこで、本開示の技術を適用した駐車支援機能においては、車両の周囲の状況を、3D(3次元)セマンティックセグメンテーションを用いた物体認識処理により把握して、駐車スペースを特定した後に、駐車操作が行われるようにする。
例えば、図3で示されるように、車両C11の前方について、画像とデプスデータとを検出するセンサSc31が設けられるようにする。
まず、車両C11においては、センサSc31により検出される前方のデプスデータと、画像とに基づいた3Dセマンティックセグメンテーションを用いた物体認識処理がなされることにより、周囲の状況が認識される。次に、車両C11においては、物体認識結果に基づいて、車両C11から所定の距離だけ前方の位置(例えば15m乃至30m手前の位置)までの範囲について駐車目標となる空きスペースが探索される。
そして、車両C11より所定の距離だけ前方の範囲の探索結果から、空きスペースが探索されると、探索された空スペースが駐車目標となる駐車スペースSP11として認識されて、駐車するための、例えば、図中の太い実線で示されるような駐車経路が算出されて、算出された駐車経路に沿って車両C11が動作するように制御される。
このような駐車操作を実現することにより、空きスペースを目視により探索し、探索された空きスペースが、駐車スペースとして認識されたときに、駐車操作がなされるといった、人間の駐車操作を行う場合と同様の駐車支援がなされる。
結果として、搭乗者である人間が見ても違和感のない、迅速でスムーズな駐車支援を実現することが可能となる。
また、3Dセマンティックセグメンテーションによる物体認識処理により周囲の状況が認識されて、駐車スペースが特定されることにより、駐車スペースの環境によらず、様々な場所にある駐車スペースでも、快適な駐車支援を実現することが可能となる。
<<2.車両制御システムの構成例>>
図4は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、GNSS(Global Navigation Satellite System)受信部24、外部認識センサ25、車内センサ26、車両センサ27、記録部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
プロセッサ21、通信部22、地図情報蓄積部23、GNSS受信部24、外部認識センサ25、車内センサ26、車両センサ27、記録部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシーンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、通信されるデータの種類によって使い分けられても良く、例えば、車両制御に関するデータであればCANが適用され、大容量データであればイーサネットが適用される。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、プロセッサ21と通信部22が通信ネットワーク41を介して通信を行う場合、単にプロセッサ21と通信部22とが通信を行うと記載する。
プロセッサ21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種プロセッサにより構成される。プロセッサ21は、車両制御システム11全体の制御を行う。
通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22による外部ネットワークに対して通信を行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
また、例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車など比較的低速で移動する移動体が装着する端末、店舗などに位置が固定されて設置される端末、あるいは、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また、例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth(登録商標)、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。
地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方または両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップなどである。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ここで、ベクターマップは、車線や信号の位置といった交通情報などをポイントクラウドマップに対応付けた、ADAS(Advanced Driver Assistance System)に適合させた地図を指すものとする。
ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
GNSS受信部24は、GNSS衛星からGNSS信号を受信し、車両1の位置情報を取得する。受信したGNSS信号は、走行支援・自動運転制御部29に供給される。尚、GNSS受信部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得しても良い。
外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
なお、カメラ51の撮影方式は、測距が可能な撮影方式であれば特に限定されない。例えば、カメラ51は、ToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じて適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像(撮像画像)を取得するためのものであってもよい。
また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な数であれば特に限定されない。
例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な数であれば特に限定されない。
例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、及び、外部からの衝撃を検出する衝撃センサを備える。
記録部28は、不揮発性の記憶媒体および揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記録部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)およびRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記録部28は、車両制御システム11の各部が用いる各種プログラムやデータを記録する。例えば、記録部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報を記録する。
走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。また、走行支援・自動運転制御部29は、後述する本開示の駐車支援機能を実現する駐車支援制御部201(図6)の機能を実現する。
分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(OGM:Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
なお、自己位置推定部71は、GNSS信号、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
認識部73は、車両1の外部の状況の検出を行う検出処理と、車両1の外部の状況の認識を行う認識処理と、を実行する。
例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
例えば、認識部73は、LiDAR53又はレーダ52等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
例えば、認識部73は、カメラ51から供給される画像データに対してセマンティックセグメンテーション等の物体認識処理を行うことにより、車両1の周囲の物体の種類を認識する。
なお、認識部73による検出又は認識対象となる物体としては、例えば、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示が想定される。
例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線などを認識することができる。
例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、経路計画で計画された経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)の処理も含まれる。
経路追従とは、経路計画により計画した経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避あるいは衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。この場合にDMS30の認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
HMI31は、各種のデータや指示等の入力と、各種のデータの運転者などへの提示を行う。
HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線あるいは電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成されたこれら各情報の出力、出力内容、出力タイミングおよび出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成および出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成および出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成および出力する。
HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプなどが有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。
車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うECU等の制御ユニット、ステアリングシステムの駆動を行うアクチュエータ等を備える。
ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うECU等の制御ユニット等を備える。
駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行うECU等の制御ユニット等を備える。
ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うECU等の制御ユニット等を備える。
ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うECU等の制御ユニット等を備える。
ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うECU等の制御ユニット等を備える。
図5は、図4の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図5において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。
センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図5以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでも良いし、複数であっても良い。
<<3.本開示の駐車支援機能を実現する駐車支援制御部の構成例>>
次に、図6を参照して、本開示の駐車支援機能を実現する駐車支援制御部201の構成例について説明する。
駐車支援制御部201は、上述した車両制御システム11における走行支援・自動運転制御部29により実現される。
駐車支援制御部201は、カメラ202-1乃至202-q、ToFカメラ203-1乃至203-r、およびレーダ204-1乃至204-sより供給される画像データ、デプスデータ(測距結果)、およびレーダ検出結果に基づいて、駐車支援機能を実現する。
尚、カメラ202-1乃至202-q、ToFカメラ203-1乃至203-r、およびレーダ204-1乃至204-sのそれぞれについて、特に区別する必要がない場合、単に、カメラ202、ToFカメラ203、およびレーダ204と称するものとし、その他の構成も同様に称する。
カメラ202、およびToFカメラ203は、図4のカメラ51に対応する構成であり、レーダ204は、図4のレーダ52に対応する構成である。
尚、駐車支援制御部201は、図6におけるカメラ202-1乃至202-q、ToFカメラ203-1乃至203-r、およびレーダ204-1乃至204-sのみならず、図4の外部認識センサ25、および車両センサ27の各種の構成の検出結果を用いて駐車支援機能を実現させるようにしてもよい。
駐車支援制御部201は、カメラ202、ToFカメラ203、およびレーダ204より供給される画像データ、およびデプスデータに基づいて、画像データの画素単位でデプスデータと対応付ける。
駐車支援制御部201は、画素単位で対応付けられたデプスデータに加えて、画像データ、デプスデータ、およびレーダ検出結果を含めた情報を用いて、3Dセマンティックセグメンテーション処理を実行し、画素単位でデプスデータと物体認識結果とを対応付けた3Dセマンティックセグメンテーション画像を生成する。
駐車支援制御部201は、3Dセマンティックセグメンテーション画像に基づいて、駐車スペースを探索し、探索された駐車スペースに車両1への駐車動作を支援する。
この際、駐車支援制御部201は、駐車スペース探索モードと、駐車モードの2つの動作モードで動作して、駐車支援機能を実現する。
すなわち、まず、駐車支援制御部201は、駐車スペース探索モードで動作し、3Dセマンティックセグメンテーション画像に基づいて、駐車スペースを探索し、探索結果を記憶する。
そして、駐車支援制御部201は、駐車スペースが探索されると動作モードを駐車モードに切り替えて、探索された駐車スペースへの経路を計画し、計画された経路で駐車が完了するように車両1の動作を制御する。
このような動作により、駐車支援機能が実現されることで、人間が駐車操作をするときのように、駐車スペースの探索がなされた後に、駐車動作がなされるので、迅速でスムーズな駐車支援を実現することが可能となる。
より具体的には、駐車支援制御部201は、分析部261、行動計画部262、および動作制御部263より構成される。
分析部261は、図4の分析部61に対応する構成であり、行動計画部262は、図4の行動計画部62に対応する構成であり、動作制御部263は、図4の動作制御部63に対応する構成である。
分析部261は、自己位置推定部271、センサフュージョン部272、および認識部273を備えている。
自己位置推定部271、センサフュージョン部272、および認識部273は、それぞれ、図4の自己位置推定部71、センサフュージョン部72、および認識部73に対応する構成である。
自己位置推定部271は、自動駐車支援処理を実現するための機能として、SLAM処理部301、およびOMG記憶部302を備えている。
SLAM(Simultaneous Localization and Mapping)処理部301は、自動駐車支援機能を実現するための自己位置推定および周辺地図作成を同時に行う。具体的には、SLAM処理部301は、センサフュージョン部272より供給される複数のセンサからの情報が統合(、融合、または連合)された情報(以下、単に統合情報とも称する)に基づいて、自己位置推定および周辺の三次元地図を、例えば、占有格子地図(OGM:Occupancy Grid Map)として作成し、OMG記憶部302に記憶させる。
OMG記憶部302は、SLAM処理部301により作成されたOMGを記憶し、必要に応じて、行動計画部262に供給する。
認識部273は、物体検出部321、物体追跡部322、3Dセマンティックセグメンテーション処理部323、およびコンテキストアウェアネス部324を備えている。
物体検出部321は、センサフュージョン部272より供給される統合情報に基づいて、例えば、物体の有無、大きさ、形、位置、動き等を検出することで、物体を検出する。物体追跡部322は、物体検出部321により検出する物体を追跡する。
3Dセマンティックセグメンテーション処理部323は、カメラ202により撮像された画像データ、ToFカメラ203により検出されたデプスデータ(測距結果)、およびレーダ204の検出結果に基づいて、3次元のセマンティックセグメンテーション(3Dセマンティックセグメンテーション)を実行し、3Dセマンティックセグメンテーション結果を生成する。尚、3Dセマンティックセグメンテーション処理部323の詳細な構成については、図7を参照して後述する。
コンテキストアウェアネス部324は、例えば、DNN(ディープニューラルネットワーク)等を用いた機械学習がなされた認識器からなり、3Dセマンティックセグメンテーション結果に基づいて、物体と物体との関係性から状況(例えば、駐車スペース)を認識する。
より詳細には、コンテキストアウェアネス部324は、駐車スペース検出部324aを備えており、3Dセマンティックセグメンテーション結果に基づいて、物体と物体との関係性から駐車スペースを検出させる。
駐車スペース検出部324aは、例えば、3Dセマンティックセグメンテーション結果に基づいて、車両が駐車可能な大きさの白線などの枠で囲まれた空間、白線がなくても車輪止めが存在する車両が駐車可能な大きさの空間、車両と支柱との間に存在する車両が駐車可能な大きさの空間など、複数の物体認識結果の相互の関係性から駐車スペースを認識して検出する。
行動計画部262は、経路計画部351を備えており、認識部273により駐車スペースが検出されるとき、自車の現状の位置から、検出された駐車スペースに駐車するまでの経路を計画する。動作制御部263は、行動計画部262により作成された、認識部273により認識された駐車スペースに駐車するまでの行動計画を実現するために、車両1の動作を制御する。
<3Dセマンティックセグメンテーション処理部の構成例>
次に、図7を参照して、3Dセマンティックセグメンテーション処理部323の構成例について説明する。
3Dセマンティックセグメンテーション処理部323は、前処理部371、画像特徴量抽出部372、単眼デプス推定部373、3Dアンカグリッド生成部374、デンスフュージョン処理部375、前処理部376、ポイントクラウド特徴量抽出部377、レーダ検出結果特徴量抽出部378、および種別判定部379を備えている。
前処理部371は、カメラ202より時系列で供給される画像データに対して、所定の前処理(コントラスト補正やエッジ強調等)を施して、画像特徴量抽出部372、および種別判定部379に出力する。
画像特徴量抽出部372は、前処理が施された画像データより画像の特徴量を画像特徴量として抽出して単眼デプス推定部373、ポイントクラウド特徴量抽出部377、種別判定部379に出力する。
単眼デプス推定部373は、画像特徴量に基づいて、単眼デプス(測距画像)を推定し、デンスデプスデータ(画像に基づいたデプスデータ)としてデンスフュージョン処理部375に出力する。単眼デプス推定部373は、例えば、1枚の2次元画像データ内の消失点から画像特徴量が抽出される特徴点までの距離の情報を用いて単眼デプス(測距画像)を推定し、デンスデプスデータとしてデンスフュージョン処理部375に出力する。
3Dアンカグリッド生成部374は、ToFカメラ203により検出された測距結果に基づいた、3次元のアンカポジションを格子状にした3Dアンカグリッドを生成し、デンスフュージョン処理部375に出力する。
デンスフュージョン処理部375は、3Dアンカグリッド生成部374より供給される3Dアンカグリッドと、単眼デプス推定部373より供給されるデンスデプスとを融合してデンスフュージョンを生成し、ポイントクラウド特徴量抽出部377に出力する。
前処理部376は、ToFカメラ203より供給される測距結果からなるポイントクラウドデータにノイズ除去等の前処理を施して、ポイントクラウド特徴量抽出部377、および種別判定部379に出力する。
ポイントクラウド特徴量抽出部377は、画像特徴量抽出部372より供給される画像特徴量、デンスフュージョン処理部375より供給されるデンスフュージョンに基づいて、前処理部376より供給される前処理が施されたポイントクラウドデータよりポイントクラウド特徴量を抽出して種別判定部379に出力する。
レーダ検出結果特徴量抽出部378は、レーダ204より供給されるレーダ204の検出結果よりレーダ検出結果特徴量を抽出して、種別判定部379に出力する。
種別判定部379は、前処理部376より供給されるポイントクラウドデータ(デプスデータ)に基づいて、前処理部371より供給される画像データの各画素におけるデプスデータを対応させることで、画像データにおける画素単位でデプスデータを対応付ける。この際、種別判定部379は、必要に応じて、ポイントクラウドデータと、レーダ204のレーダ検出結果(レーダ検出結果に基づいたデプスデータ(ポイントクラウド))とを合成したデプスデータを生成し、画像データにおける画素単位で対応付けるようにしてもよい。これにより、ToFカメラ203を補完することが可能となる。すなわち、例えば、霧等により、ToFカメラ203の信頼性が所定の閾値よりも低下するようなシーンにおいても、電波を用いるレーダ204のレーダ検出結果を用いることで、所定の閾値よりも信頼性を低下させることなく測距することが可能となる。この場合、レーダ204は、カメラ202並みの高解像度を有する、いわゆるイメージングレーダとすることが望ましい。また、レーダ204によるレーダ検出結果を用いることにより、物体との相対速度を算出することができるため、対象物が動いているか否かを判定することが可能となり、例えば、画素単位での速度情報を加えることで、物体認識性能を向上させることが可能となる。より具体的には、画素ごとに(x,y,z,vx,vy,vz)の6つのパラメータを用いた物体認識処理を実現することで、物体認識精度を向上させることが可能となる。尚、vx,vy,vzは、それぞれx,y,z方向の速度情報である。
また、種別判定部379は、例えば、DNN(ディープニューラルネットワーク)などの機械学習を用いた3Dセマンティックセグメンテーション処理を実行する認識器より構成され、画像特徴量抽出部372より供給される画像特徴量、ポイントクラウド特徴量抽出部377より供給されるポイントクラウド特徴量、およびレーダ検出結果特徴量抽出部378より供給されるレーダ検出結果特徴量に基づいて、画像データの画素単位で、物体認識処理を施して、種別(クラス)を特定する。
すなわち、種別判定部379は、例えば、図8で示されるように、画像P11のグリッドで示される画素単位で、デプスデータ(x,y,z)を対応付ける。さらに、種別判定部379は、デプスデータ、画像特徴量、ポイントクラウド特徴量、およびレーダ検出結果特徴量に基づいて、画素単位で3Dセマンティックセグメンテーション処理を実行することにより種別(クラス)(seg)を判定する。そして、種別判定部379は、画素単位で種別判定結果とデプスデータとを両者を対応付けることにより、3Dセマンティックセグメンテーション情報(x,y,z,seg)を設定する。
種別判定部379は、画素単位で設定された3Dセマンティックセグメンテーション情報(x,y,z,seg)からなる画像を、3Dセマンティックセグメンテーション画像として生成する。この結果、3Dセマンティックセグメンテーション画像は、画像内に種別(クラス)毎の領域が形成された画像となる。
物体認識処理により物体として認識される種別(クラス)は、例えば、車道、歩道、歩行者、自転車やモーターバイクのライダー、車両、トラック、バス、モーターバイク、自転車、建物、壁、ガードレール、橋、トンネル、ポール、交通標識、交通信号、白線等である。例えば、種別(クラス)として、例えば、車両に分類された画素は、その周辺に同様に車両の種別(クラス)として分類された画素が存在し、それらが形成する領域が全体として車両として視認可能な画像を形成する。したがって、画像内には、画素単位で分類された種別(クラス)毎の領域が形成されることになる。
尚、種別判定部379は、デプスデータ、画像特徴量、ポイントクラウド特徴量、およびレーダ検出結果特徴量に基づいて、画素単位で3Dセマンティックセグメンテーション処理を実行して種別を判定する例について説明してきた。
しかしながら、デプスデータに代えて、2D(2次元)の画像データ、および画像特徴量のみを用いて2Dセマンティックセグメンテーション処理を実行して画素単位で種別を判定した後、画素単位で、デプスデータと対応付けることで、3Dセマンティックセグメンテーション処理を実現するようにしてもよい。また、レーダ検出結果特徴量を用いずに、3Dセマンティックセグメンテーション処理が行われるようにしてもよい。
<コンテキストアウェアネス部による駐車スペースの検出(その1)>
次に、コンテキストアウェアネス部324による駐車スペースの検出について説明する。
上述したように3Dセマンティックセグメンテーション情報は、撮像された画像データにおける画素単位のデプスデータと種別から構成される。
そこで、コンテキストアウェアネス部324は、コンテキストアウェアネス処理と呼ばれる処理により3Dセマンティックセグメンテーション情報に基づいて、周囲を撮像した画像内の画素単位の種別判定結果を用いた物体間の関係性を特定し、特定した物体間の関係性から周囲の状況を認識する。
この例においては、コンテキストアウェアネス部324が駐車スペース検出部324aを備えており、駐車スペース検出部324aを制御することで、3Dセマンティックセグメンテーション情報に基づいたコンテキストアウェアネス処理を実行させることで、物体間の関係性から、画像内における駐車スペースを検出させる。
例えば、図9の画像P31の場合、駐車スペース検出部324aは、画素単位のデプスデータと種別に基づいて、画像P31内における支柱Ch11と停車中の車両Ch12との位置関係や、スペースのサイズや形状などに基づいて、実線で示される範囲を駐車スペースと認識する。
また、例えば、図9の画像P32の場合、駐車スペース検出部324aは、画素単位のデプスデータと種別に基づいて、画像P32内における複数の車輪止めCh21の配置間隔と、スペースのサイズや形状などに基づいて、実線で示される範囲を駐車スペースと認識する。
さらに、例えば、図9の画像P33の場合、駐車スペース検出部324aは、画素単位のデプスデータと種別に基づいて、画像P33内におけるコインパーキングの可倒式の車輪止めCh31と白線Ch32との配置間隔と、スペースのサイズに基づいて、実線で示される範囲を駐車スペースと認識する。
また、例えば、図9の画像P34の場合、駐車スペース検出部324aは、画素単位のデプスデータと種別に基づいて、画像P34内における車両Ch41と立体駐車用の支柱Ch42との位置関係と、スペースのサイズや形状などから、実線で示される範囲を駐車スペースと認識する。
このように、コンテキストアウェアネス部324(の駐車スペース検出部324a)は、DNN(ディープニューラルネットワーク)などの機械学習がなされた認識器として機能することにより、3Dセマンティックセグメンテーション情報に含まれるデプスデータと種別(クラス)の情報に基づいた、複数の認識結果の関係性に基づいて、駐車スペースを検出する。
尚、コンテキストアウェアネス部324(の駐車スペース検出部324a)を実現するDNNによる機械学習がなされた認識器と、種別判定部379を実現するDNNによる機械学習がなされた認識器とは、異なるものでもよいし、同一のものでもよい。
そして、コンテキストアウェアネス部324の駐車スペース検出部324aは、図9を参照して説明した駐車スペースとして検出された領域のうち、車両が駐車していない空きスペースとなっている駐車スペースを駐車支援機能としての駐車目標となる、目標駐車スペースとして検出する。
<コンテキストアウェアネス部による駐車スペースの検出(その2)>
以上においては、駐車場における駐車スペースの検出方法について説明してきたが、駐車場ではなく、路上の駐車スペースを検出する例について説明する。
例えば、図10で示されるような画像P31がカメラ202により撮像される場合について考える。
画像P31は、図10の右部で示される俯瞰図における車両C51から図中上方を前方として撮像したときの画像である。画像P51においては、道路の左側に車両C61乃至C64が縦列駐車している。
画像P31における各画素には、デプスデータと種別(クラス)からなる3Dセマンティックセグメンテーション情報が設定されている。このため、コンテキストアウェアネス部324の駐車スペース検出部324aは、図中右部で示されるように、画像P31内における車両C61,C62のそれぞれの右後部の車両C51からの距離を認識することが可能であり、その距離の差から、駐車スペースSP51の存在を認識することが可能である。
より詳細には、例えば、車両C62の右先端部と白線までの距離DL、車両C62の右先端部までの距離、視認可能な車両C61の右後端部の幅DS、車両C61の右後端部までの距離に基づいて、コンテキストアウェアネス部324の駐車スペース検出部324aは、図中の点線で示される矩形状の空きスペースの大きさを特定することができる。具体的には、3Dセマンティックセグメンテーション情報に基づく、オフラインにて学習された特徴量抽出器を用いた駐車スペース認識処理と、上記距離DLや上記幅DS等の距離情報を用いた駐車スペース認識処理との両方を用いて空きスペースの大きさを特定する。
そこで、コンテキストアウェアネス部324の駐車スペース検出部324aは、特定した空きスペースの大きさから、車両C51を駐車可能な大きさであることが認識できるとき、図中の点線で示される矩形状の空きスペースを駐車スペースSP51として認識する。
このように、図10の画像P31で示されるような画像と、対応する3Dセマンティックセグメンテーション情報とに基づいて、コンテキストアウェアネス部324の駐車スペース検出部324aは、車両C61,C62の間の空きスペースを駐車スペースとして認識することが可能である。
これにより、2次元の画像P31のみでは、前方15乃至30m先程度に、駐車スペースSP51のような空きスペースを認識することは難しいが、3Dセマンティックセグメンテーション情報が設定されることにより、車体の右後部のエッジ部しか見えない状況でも、適切に駐車スペースSP51を検出することが可能となる。
<3Dセマンティックセグメンテーション画像生成処理>
次に、図11のフローチャートを参照して、3Dセマンティックセグメンテーション処理部323による3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション画像生成処理について説明する。
ステップS11において、前処理部371は、カメラ202より供給される撮像された画像データを取得する。
ステップS12において、3Dアンカグリッド生成部374、および前処理部376は、ToFカメラ203によりセンシングされたデプスデータ(測距結果)を取得する。
ステップS13において、レーダ検出結果特徴量抽出部378は、レーダ204の検出結果をレーダ検出結果として取得する。
ステップS14において、前処理部371は、カメラ202より供給された画像データに対して、所定の前処理(コントラスト補正やエッジ強調等)を施して、画像特徴量抽出部372、および種別判定部379に出力する。
ステップS15において、画像特徴量抽出部372は、前処理が施された画像データより画像の特徴量を画像特徴量として抽出して単眼デプス推定部373、ポイントクラウド特徴量抽出部377、および種別判定部379に出力する。
ステップS16において、単眼デプス推定部373は、画像特徴量に基づいて、単眼デプス(測距画像)を推定し、デンスデプス(画像に基づいたデプスデータ)としてデンスフュージョン処理部375に出力する。
ステップS17において、3Dアンカグリッド生成部374は、ToFカメラ203により検出されたデプスデータ(測距結果)に基づいた、3次元のアンカポジションをグリッド化した3Dアンカグリッドを生成し、デンスフュージョン処理部375に出力する。
ステップS18において、デンスフュージョン処理部375は、3Dアンカグリッド生成部374より供給される3Dアンカグリッドと、単眼デプス推定部373より供給されるデンスデプスとを融合してデンスフュージョンデータを生成し、ポイントクラウド特徴量抽出部377に出力する。
ステップS19において、前処理部376は、ToFカメラ203より供給されるデプスデータ(測距結果)からなるポイントクラウドデータにノイズ除去等の前処理を施して、ポイントクラウド特徴量抽出部377、および種別判定部379に出力する。
ステップS20において、ポイントクラウド特徴量抽出部377は、画像特徴量抽出部372より供給される画像特徴量、デンスフュージョン処理部375より供給されるデンスフュージョンデータに基づいて、前処理部376より供給される前処理が施されたポイントクラウドデータよりポイントクラウド特徴量を抽出して種別判定部379に出力する。
ステップS21において、レーダ検出結果特徴量抽出部378は、レーダ204より供給されるレーダ204の検出結果よりレーダ検出結果特徴量を抽出して、種別判定部379に出力する。
ステップS22において、種別判定部379は、前処理部376より供給されるポイントクラウドデータに基づいて、前処理部371より供給される画像データの各画素におけるデプスデータを対応させることで、画像データにおける画素単位でデプスデータを対応付ける。
ステップS23において、種別判定部379は、画素単位のデプスデータ、画像特徴量抽出部372より供給される画像特徴量、ポイントクラウド特徴量抽出部377より供給されるポイントクラウド特徴量、およびレーダ検出結果特徴量抽出部378より供給されるレーダ検出結果特徴量に基づいて、3Dセマンティックセグメンテーション処理による物体認識処理を施して、画像データの種別(クラス)を画素単位で判定し、3Dセマンティックセグメンテーション情報(x,y,z,seg)を生成する。
ステップS24において、種別判定部379は、撮像された画像データについて、画素単位毎で、3Dセマンティックセグメンテーション情報(x,y,z,seg)を対応付けた画像を、3Dセマンティックセグメンテーション画像として生成し、時系列に記憶する。
ステップS25において、停止動作がなされたか否かが判定されて、停止動作がなされない場合、処理は、ステップS11に戻る。すなわち、停止動作がなされるまで、ステップS11乃至S25の処理が繰り返される。
そして、ステップS25において、停止動作が指示された場合、処理は、終了する。
以上の処理により、時系列に撮像される画像データのそれぞれについて、画素単位で3Dセマンティックセグメンテーション情報が設定されて、さらに、3Dセマンティックセグメンテーション情報からなる画像が、3Dセマンティックセグメンテーション画像として生成される処理が繰り返されて、順次記憶される。
そして、時系列に順次生成される3Dセマンティックセグメンテーション画像が用いられて、以降において説明する駐車支援処理が実現される。
また、以上の処理により、他の処理と独立して、3Dセマンティックセグメンテーション画像が時系列に順次記憶されるため、他の処理において、時系列に生成された3Dセマンティックセグメンテーション画像を用いた処理が可能となる。
例えば、物体検出部321は、3Dセマンティックセグメンテーション画像に基づいて物体を検出するようにしてもよい。また、物体追跡部322は、物体検出部321の物体検出結果に対して、3Dセマンティックセグメンテーション画像を用いて、物体を追跡するようにしてもよい。さらに、後述する駐車モードの処理において、車両の駐車スペースへの駐車が完了するまでの間に、駐車スペース周辺の3Dセマンティックセグメンテーション画像に基づいて、駐車スペースに障害物が発見されるなどして駐車不可の状態に変化したか否かなどを確認する処理に用いることも可能となる。
<駐車支援処理>
次に、図12のフローチャートを参照して、駐車支援処理について説明する。
ステップS41において、駐車支援制御部201は、駐車支援処理を開始させるか否かを判定する。駐車支援制御部201は、例えば、駐車支援処理の開始を指示するHMI31等の入力デバイスが操作されたか否かに基づいて、駐車支援処理を開始させるか否かを判定するようにしてもよい。
また、駐車支援制御部201は、3Dセマンティックセグメンテーション画像から駐車場の入口を示す情報が検出されたか否かに基づいて、駐車支援処理を開始させるか否かを判定するようにしてもよい。
ステップS41において、駐車支援処理の開始が指示されたとみなされた場合、処理は、ステップS42に進む。
ステップS42において、駐車支援制御部201は、HMI31を制御して、駐車支援処理を開始したことを示す情報を提示する。
ステップS43において、駐車支援制御部201は、動作モードを駐車スペース探索モードに設定し、HMI31を制御して、現在の動作モードが駐車スペース探索モードであることを提示する。
ステップS44において、駐車支援制御部201は、分析部261の認識部273におけるコンテキストアウェアネス部324を制御して、駐車スペース探索モード処理を実行させて、駐車スペースを探索させて、探索結果となる駐車スペースを登録させる。尚、駐車スペース探索モード処理については、図13のフローチャートを参照して、詳細を後述する。
ステップS45において、駐車支援制御部201は、コンテキストアウェアネス部324において、駐車可能な駐車スペースが登録されているか否かを判定する。尚、「登録されている」の意味は、自宅の駐車スペース等が予め登録されていることを意味するものではなく、コンテキストアウェアネス部324において一時的に登録されていることを意味する。
ステップS45において、駐車可能な駐車スペースが登録されていると判定された場合、処理は、ステップS46に進む。
ステップS46において、駐車支援制御部201は、動作モードを駐車モードに切り替えて設定し、HMI31を制御して、動作モードが駐車モードであることを提示する。
ステップS47において、駐車支援制御部201は、行動計画部262を制御して、駐車モード処理を実行させて車両を駐車させる。尚、駐車モード処理については、図14のフローチャートを参照して、詳細を後述する。
ステップS48において、駐車支援制御部201は、駐車支援処理の終了か否かを判定する。より詳細には、駐車支援制御部201は、駐車モード処理により駐車が完了したか、または、駐車スペースがなく、駐車ができないことが提示されることにより、駐車支援処理が終了したか否かを判定する。
ステップS48において、駐車支援処理が終了したと判定された場合、処理は、ステップS49に進む。
ステップS49において、駐車支援制御部201は、HMI31を制御して、駐車支援処理が終了したことを提示する。
ステップS50において、駐車支援制御部201は、車両1の操作を停止させる停止動作がなされたか否かを判定し、車両1の停止動作がなされていないと判定された場合、処理は、ステップS41に戻る。
一方、ステップS45において、駐車可能な駐車スペースが登録されていないと判定された場合、処理は、ステップS51に進む。
ステップS51において、駐車支援制御部201は、HMI31を制御して、駐車スペースがないことを提示し、処理は、ステップS48に進む。
また、ステップS41において、駐車支援処理の開始が指示されていない場合、処理は、ステップS50に進む。
すなわち、駐車支援処理の開始が指示されず、車両1の停止動作もなされない場合、ステップS41,S50の処理が、繰り返される。
そして、ステップS50において、車両1の停止動作がなされた場合、処理は終了する。
以上の処理により、駐車スペース探索モードにより、3Dセマンティックセグメンテーション情報に基づいた駐車スペースの探索がなされ、駐車スペースが探索されて登録されている場合、探索結果として登録されている駐車スペースへの車両1の駐車動作がなされる。
また、駐車スペースが探索されず、駐車可能な駐車スペースが登録されていない場合、駐車スペースがなく駐車することができないことが提示される。
以上の処理により、駐車スペース探索モードの処理がなされた後に、駐車モードの処理がなされることにより、人間が駐車操作をするときのように、周囲にある駐車スペースを見つけてから駐車操作がなされることになるので、迅速でスムーズな駐車支援を実現することが可能となる。
<駐車スペース探索モード処理>
次に、図13のフローチャートを参照して、駐車スペース探索モード処理について説明する。
ステップS71において、コンテキストアウェアネス部324は、3Dセマンティックセグメンテーション処理部323に登録されている3Dセマンティックセグメンテーション画像を取得する。
ステップS72において、コンテキストアウェアネス部324は、駐車スペース検出部324aを制御して、3Dセマンティックセグメンテーション画像に基づいて、駐車スペースを探索させる。ここで、コンテキストアウェアネス部324の駐車スペース検出部324aによる駐車スペースの探索処理は、例えば、図9や図10を参照して説明したコンテキストアウェアネス処理である。
ステップS73において、コンテキストアウェアネス部324は、駐車スペース検出部324aによる、3Dセマンティックセグメンテーション画像に基づいた、駐車スペースの探索結果として、探索された駐車スペースと、その位置の情報を登録(更新)する。
以上の処理により、3Dセマンティックセグメンテーション画像に基づいたコンテキストアウェアネス処理により、駐車スペースが探索されて、順次駐車スペース検出部324aにおいて登録される。
尚、駐車スペース探索モードが継続されている限り、同様の処理が繰り返されることになるので、一度は、探索されていた駐車可能な駐車スペースに、例えば、障害物が発生したり、別の車両が駐車するなどして、駐車可能な駐車スペースではなくなった場合、登録されていた駐車スペースの情報は削除されて更新される。
また、同様に、駐車可能な駐車スペースとして探索されていないスペースであっても、駐車スペース探索モード中に駐車スペースから車両が走り去るなどして、新たな駐車スペースとして探索されると、新たに登録されることになる。
さらに、複数の駐車スペースが探索される場合については、複数の駐車スペースの位置情報が登録される。
<駐車モード処理>
次に、図14のフローチャートを参照して、駐車モード処理について説明する。
ステップS91において、行動計画部262は、駐車スペース検出部324aに登録されている駐車スペースの位置情報を読み出す。複数の駐車スペースの位置情報が登録されている場合については、複数の駐車スペースの位置情報が読み出される。
ステップS92において、行動計画部262は、読み出した駐車スペースの位置情報のうち、自車の位置から最短距離となる駐車スペースを目的駐車スペースに設定する。その際、最短距離となる駐車スペースを目的駐車スペースに設定して良いか、ユーザに確認を取るステップがあっても良い。または、車室内に配置されたディスプレイに複数の駐車スペースを表示し、ユーザが当該複数の駐車スペースの中から目的駐車スペースを選択しても良い。
ステップS93において、行動計画部262は、経路計画部351を制御して、目的駐車スペースまでの経路を駐車経路として計画させる。
ステップS94において、行動計画部262は、HMI31を制御して、経路計画部351により計画された、目的駐車スペースまでの駐車経路を提示させる。
ステップS95において、行動計画部262は、動作制御部263を制御して、駐車経路に沿って、車両1を動作させる。
ステップS96において、行動計画部262は、駐車完了か否かを判定する。ステップS96において、駐車完了ではないと判定された場合、処理は、ステップS97に進む。
ステップS97において、行動計画部262は、目的駐車スペースが、例えば、最新の3Dセマンティックセグメンテーション画像に基づいて、駐車不可の状態になっているか否かを判定する。すなわち、駐車経路に沿って移動する中で、目的駐車スペース内に障害物が発見されたり、駐車経路に移動している間に、目的駐車スペースに他の車両が入るなどして駐車不可となっていないか否かが判定される。
ステップS96において、目的駐車スペースが駐車不可になっていない場合、処理は、ステップS94に戻る。すなわち、駐車経路に沿って動作がなされ、目的駐車スペースが駐車不可にならない限り、駐車が完了するまで、ステップS94乃至S97の処理が繰り返される。
また、ステップS97において、目的駐車スペースが駐車不可になったと判定された場合、処理は、ステップS98に進む。
ステップS98において、行動計画部262は、読み出した駐車スペースの位置情報にその他の駐車スペースの位置情報が存在するか否かを判定する。
ステップS98において、読み出した駐車スペースの位置情報にその他の駐車スペースの位置情報が存在すると判定された場合、処理は、ステップS92に戻る。
すなわち、新たな駐車スペースが、目的駐車スペースと、その駐車経路が再設定されて、ステップS94乃至S97の処理が繰り返される。
そして、ステップS96において、駐車が完了したと判定された場合、処理は、ステップS100に進む。
ステップS100において、行動計画部262は、HMI31を制御して、駐車完了を通知する画像を提示させる。
また、ステップS98において、駐車スペースが他にない場合、処理は、ステップS99に進む。
ステップS99において、行動計画部262は、HMI31を制御して、駐車スペースが見つからず、駐車ができないことを通知する画像を提示する。
以上の処理により、駐車スペースとして登録されている位置情報のうち、自車から最も近い位置情報の駐車スペースが目的駐車スペースに設定されて、駐車経路が計画されて駐車経路に沿った動作がなされて、自動駐車が実現される。
この際、目的駐車スペースに向かって駐車がなされる間に、目的駐車スペースに障害物があることが検出されたり、他の車両が駐車するなどして駐車不可になった場合については、他の駐車スペースの位置情報が登録されているときには、他の駐車スペースのうち、自車から最も近い位置の駐車スペースが目的駐車スペースに再設定されて駐車がなされる。
以上の一連の処理により、カメラ202により撮像された画像、ToFカメラ203により検出されたデプスデータ(測距結果)、およびレーダ204の検出結果に基づいて、画像内の画素単位でデプスデータ(3次元位置)と物体の種別(クラス)が設定されて、3Dセマンティックセグメンテーション画像が生成される。
また、3Dセマンティックセグメンテーション画像に基づいたコンテキストアウェアネス処理により駐車スペースが検出されて、位置情報が登録される。
そして、登録された駐車スペースの位置情報に基づいて、駐車経路が設定されて、駐車するための動作が制御される。
これにより、画像特徴量に加えて、3次元の情報であるポイントクラウド特徴量やレーダ検出結果特徴量が組み合わされて、画素単位で種別(クラス)が判定されることになるので、より高精度な種別判定を実現することが可能となる。
また、高精度な種別判定がなされた3Dセマンティックセグメンテーション画像を用いたコンテキストアウェアネス処理により、駐車スペースを特定することが可能となるので、駐車スペースの環境に左右されることなく、様々な駐車スペースを適切に探索することが可能となる。また、車両のカメラで撮像された画像で駐車スペースが設定されてから駐車経路を設定させることができるので、駐車スペースの付近を通過しなくても駐車経路を設定することが可能となる。
結果として、カメラで撮像された画像内の情報に基づいて駐車スペースを特定してから駐車経路を設定して駐車することが可能となるため、人間が駐車操作をするときのような迅速でスムーズな駐車支援を実現することが可能となる。
<<4.ソフトウエアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図15は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記憶媒体1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記憶媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記憶媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、ディジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記憶媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図15におけるCPU1001が、図6の駐車支援制御部201の機能を実現させる。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 車両の周囲の画像データを取得する画像取得部と、
前記車両の周囲のデプスデータを取得するデプスデータ取得部と、
前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション処理部と、
前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する駐車スペース探索部と
を備える情報処理装置。
<2> 前記3Dセマンティックセグメンテーション処理部は、前記画像データと前記デプスデータとに基づいて、前記画素単位のデプスデータを生成し、前記画素単位のデプスデータに対応付けて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、前記画素単位でクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
<1>に記載の情報処理装置。
<3> 前記デプスデータに基づいたポイントクラウドにおける特徴量をポイントクラウド特徴量として抽出するポイントクラウド特徴量抽出部とをさらに備え、
前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
<2>に記載の情報処理装置。
<4> 前記画像データにおける特徴量を画像特徴量として抽出する画像特徴量抽出部をさらに備え、
前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量に基づいて、前記ポイントクラウド特徴量として抽出し、
前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量および前記画像特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
<3>に記載の情報処理装置。
<5> 前記画像特徴量に基づいて、単眼デプスを推定する単眼デプス推定部をさらに備え、
前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量と前記単眼デプスとに基づいて、前記ポイントクラウド特徴量として抽出する
<4>に記載の情報処理装置。
<6> 前記デプスデータに基づいて、3Dアンカグリッドを生成する3Dアンカグリッド生成部と、
前記単眼デプスに基づいたデンスデプスデータと、前記3Dアンカグリッドとを融合してデンスフュージョンデータを生成する融合部とをさらに備え、
前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量と前記デンスフュージョンデータとに基づいて、前記ポイントクラウド特徴量として抽出する
<5>に記載の情報処理装置。
<7> レーダを用いた前記車両の周囲の検出結果をレーダ検出結果として取得するレーダ検出結果取得部と、
前記レーダ検出結果の特徴量をレーダ検出結果特徴量として抽出するレーダ検出結果特徴量抽出部とをさらに含み、
前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量、前記画像特徴量、および前記レーダ検出結果特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
<3>に記載の情報処理装置。
<8> 前記デプスデータは、光測距センサを用いて生成され、
前記3Dセマンティックセグメンテーション処理部は、前記光測距センサを用いて生成される前記デプスデータの信頼度が所定の閾値以下である場合に、前記レーダ検出結果特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行する
<7>に記載の情報処理装置。
<9> 前記レーダ検出結果は、前記車両の周囲の物体が動く速度情報である
<7>に記載の情報処理装置。
<10> 前記3Dセマンティックセグメンテーション処理部は、前記画素単位で、前記画像データに対して2Dセマンティックセグメンテーション処理を実行し、その後、前記画像データと前記デプスデータとに基づいて、前記画素単位のデプスデータを生成して、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
<1>に記載の情報処理装置。
<11> 前記3Dセマンティックセグメンテーション処理部は、DNN(ディープニューラルネットワーク)を用いた機械学習により実現される認識器であり、前記画素単位のデプスデータに対応付けて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行してクラス情報を設定する
<1>乃至<10>のいずれかに記載の情報処理装置。
<12> 前記駐車スペース探索部は、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいて、前記駐車可能な駐車スペースを探索する
<1>乃至<11>のいずれかに記載の情報処理装置。
<13> 前記駐車スペース探索部は、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいた、コンテキストアウェアネス処理により前記駐車可能な駐車スペースを探索する
<12>に記載の情報処理装置。
<14> 前記駐車スペース探索部は、DNN(ディープニューラルネットワーク)を用いた機械学習により実現される認識器であり、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいた、前記コンテキストアウェアネス処理により前記駐車可能な駐車スペースを探索する
<13>に記載の情報処理装置。
<15> 前記駐車スペース探索部は、探索された前記駐車可能な駐車スペースを登録し、
前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する駐車制御部をさらに備える
<1>乃至<14>のいずれかに記載の情報処理装置。
<16> 前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースが複数である場合、前記駐車制御部は、複数の前記駐車可能な駐車スペースのうち、最寄りの駐車可能な駐車スペースを、目的駐車スペースとして設定し、前記目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
<15>に記載の情報処理装置。
<17> 計画した前記目的駐車スペースへの経路に沿って駐車に係る前記車両の動作が制御される場合、前記駐車制御部は、前記車両の駐車が完了するまでの間、前記3Dセマンティックセグメンテーション画像に基づいて、前記目的駐車スペースが駐車可能な状態であることを継続して確認し、駐車不能な状態になったとき、前記駐車スペース探索部に登録された、複数の前記駐車可能な駐車スペースのうち、現在の前記目的駐車スペースの次に最寄りの駐車可能な駐車スペースを、新たな目的駐車スペースとして設定し、前記新たな目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
<16>に記載の情報処理装置。
<18> 前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースが複数である場合、前記駐車制御部は、複数の前記駐車可能な駐車スペースのうち、ユーザによって選択された駐車可能な駐車スペースを、目的駐車スペースとして設定し、前記目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
<15>に記載の情報処理装置。
<19> 車両の周囲の画像データを取得し、
前記車両の周囲のデプスデータを取得し、
前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成し、
前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する
ステップを含む情報処理方法。
<20> 車両の周囲の画像データを取得する画像取得部と、
前記車両の周囲のデプスデータを取得するデプスデータ取得部と、
前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション処理部と、
前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する駐車スペース探索部と
してコンピュータを機能させるプログラム。
201 駐車支援制御部, 202,202-1乃至202-q, 203,203-1,203-r ToFカメラ, 204,204-1乃至204-s, 261 分析部, 262 行動計画部, 271 自己位置推定部, 272 センサフュージョン部, 273 認識部, 301 SLAM処理部, 302 OGM記憶部, 321 物体検出部, 322 物体追跡部, 323 3Dセマンティックセグメンテーション処理部, 324 コンテキストアウェアネス部, 324a 駐車スペース検出部, 351 経路計画部, 371 前処理部, 372 画像特徴量抽出部, 373 単眼デプス推定部, 374 3Dアンカグリッド生成部, 375 デンスフュージョン処理部, 376 前処理部, 377 ポイントクラウド特徴量抽出部, 378 レーダ検出結果特徴量抽出部, 379 種別判定部

Claims (20)

  1. 車両の周囲の画像データを取得する画像取得部と、
    前記車両の周囲のデプスデータを取得するデプスデータ取得部と、
    前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション処理部と、
    前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する駐車スペース探索部と
    を備える情報処理装置。
  2. 前記3Dセマンティックセグメンテーション処理部は、前記画像データと前記デプスデータとに基づいて、前記画素単位のデプスデータを生成し、前記画素単位のデプスデータに対応付けて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、前記画素単位でクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
    請求項1に記載の情報処理装置。
  3. 前記デプスデータに基づいたポイントクラウドにおける特徴量をポイントクラウド特徴量として抽出するポイントクラウド特徴量抽出部とをさらに備え、
    前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
    請求項2に記載の情報処理装置。
  4. 前記画像データにおける特徴量を画像特徴量として抽出する画像特徴量抽出部をさらに備え、
    前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量に基づいて、前記ポイントクラウド特徴量として抽出し、
    前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量および前記画像特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
    請求項3に記載の情報処理装置。
  5. 前記画像特徴量に基づいて、単眼デプスを推定する単眼デプス推定部をさらに備え、
    前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量と前記単眼デプスとに基づいて、前記ポイントクラウド特徴量として抽出する
    請求項4に記載の情報処理装置。
  6. 前記デプスデータに基づいて、3Dアンカグリッドを生成する3Dアンカグリッド生成部と、
    前記単眼デプスに基づいたデンスデプスデータと、前記3Dアンカグリッドとを融合してデンスフュージョンデータを生成する融合部とをさらに備え、
    前記ポイントクラウド特徴量抽出部は、前記デプスデータに基づいたポイントクラウドにおける特徴量を、前記画像特徴量と前記デンスフュージョンデータとに基づいて、前記ポイントクラウド特徴量として抽出する
    請求項5に記載の情報処理装置。
  7. レーダを用いた前記車両の周囲の検出結果をレーダ検出結果として取得するレーダ検出結果取得部と、
    前記レーダ検出結果の特徴量をレーダ検出結果特徴量として抽出するレーダ検出結果特徴量抽出部とをさらに含み、
    前記3Dセマンティックセグメンテーション処理部は、前記画素単位のデプスデータに対応付けて、前記ポイントクラウド特徴量、前記画像特徴量、および前記レーダ検出結果特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行し、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
    請求項3に記載の情報処理装置。
  8. 前記デプスデータは、光測距センサを用いて生成され、
    前記3Dセマンティックセグメンテーション処理部は、前記光測距センサを用いて生成される前記デプスデータの信頼度が所定の閾値以下である場合に、前記レーダ検出結果特徴量に基づいて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行する
    請求項7に記載の情報処理装置。
  9. 前記レーダ検出結果は、前記車両の周囲の物体が動く速度情報である
    請求項7に記載の情報処理装置。
  10. 前記3Dセマンティックセグメンテーション処理部は、前記画素単位で、前記画像データに対して2Dセマンティックセグメンテーション処理を実行し、その後、前記画像データと前記デプスデータとに基づいて、前記画素単位のデプスデータを生成して、それぞれクラス情報を設定することで複数の領域からなる前記3Dセマンティックセグメンテーション画像を生成する
    請求項1に記載の情報処理装置。
  11. 前記3Dセマンティックセグメンテーション処理部は、DNN(ディープニューラルネットワーク)を用いた機械学習により実現される認識器であり、前記画素単位のデプスデータに対応付けて、前記画像データに対して前記3Dセマンティックセグメンテーション処理を実行してクラス情報を設定する
    請求項1に記載の情報処理装置。
  12. 前記駐車スペース探索部は、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいて、前記駐車可能な駐車スペースを探索する
    請求項1に記載の情報処理装置。
  13. 前記駐車スペース探索部は、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいた、コンテキストアウェアネス処理により前記駐車可能な駐車スペースを探索する
    請求項12に記載の情報処理装置。
  14. 前記駐車スペース探索部は、DNN(ディープニューラルネットワーク)を用いた機械学習により実現される認識器であり、前記3Dセマンティックセグメンテーション画像におけるクラス情報が設定されることで形成される複数の領域間の関係性に基づいた、前記コンテキストアウェアネス処理により前記駐車可能な駐車スペースを探索する
    請求項13に記載の情報処理装置。
  15. 前記駐車スペース探索部は、探索された前記駐車可能な駐車スペースを登録し、
    前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する駐車制御部をさらに備える
    請求項1に記載の情報処理装置。
  16. 前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースが複数である場合、前記駐車制御部は、複数の前記駐車可能な駐車スペースのうち、最寄りの駐車可能な駐車スペースを、目的駐車スペースとして設定し、前記目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
    請求項15に記載の情報処理装置。
  17. 計画した前記目的駐車スペースへの経路に沿って駐車に係る前記車両の動作が制御される場合、前記駐車制御部は、前記車両の駐車が完了するまでの間、前記3Dセマンティックセグメンテーション画像に基づいて、前記目的駐車スペースが駐車可能な状態であることを継続して確認し、駐車不能な状態になったとき、前記駐車スペース探索部に登録された、複数の前記駐車可能な駐車スペースのうち、現在の前記目的駐車スペースの次に最寄りの駐車可能な駐車スペースを、新たな目的駐車スペースとして設定し、前記新たな目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
    請求項16に記載の情報処理装置。
  18. 前記駐車スペース探索部に登録された、前記駐車可能な駐車スペースが複数である場合、前記駐車制御部は、複数の前記駐車可能な駐車スペースのうち、ユーザによって選択された駐車可能な駐車スペースを、目的駐車スペースとして設定し、前記目的駐車スペースへの経路を計画し、計画した経路に沿った駐車に係る前記車両の動作を制御する
    請求項15に記載の情報処理装置。
  19. 車両の周囲の画像データを取得し、
    前記車両の周囲のデプスデータを取得し、
    前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成し、
    前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する
    ステップを含む情報処理方法。
  20. 車両の周囲の画像データを取得する画像取得部と、
    前記車両の周囲のデプスデータを取得するデプスデータ取得部と、
    前記画像データの画素単位で、前記デプスデータと、前記画像データに対する3Dセマンティックセグメンテーション処理により分類されたクラス情報とが設定された3Dセマンティックセグメンテーション画像を生成する3Dセマンティックセグメンテーション処理部と、
    前記3Dセマンティックセグメンテーション画像に基づいて、駐車可能な駐車スペースを探索する駐車スペース探索部と
    してコンピュータを機能させるプログラム。
JP2021035452A 2020-12-21 2021-03-05 情報処理装置、および情報処理方法、並びにプログラム Pending JP2022098397A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/267,436 US20240054793A1 (en) 2020-12-21 2021-12-07 Information processing device, information processing method, and program
CN202180064103.2A CN116438583A (zh) 2020-12-21 2021-12-07 可用泊车位识别装置、可用泊车位识别方法和程序
PCT/JP2021/044817 WO2022138123A1 (en) 2020-12-21 2021-12-07 Available parking space identification device, available parking space identification method, and program
EP21831378.1A EP4264567A1 (en) 2020-12-21 2021-12-07 Available parking space identification device, available parking space identification method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063128297P 2020-12-21 2020-12-21
US63/128,297 2020-12-21

Publications (1)

Publication Number Publication Date
JP2022098397A true JP2022098397A (ja) 2022-07-01

Family

ID=82165588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035452A Pending JP2022098397A (ja) 2020-12-21 2021-03-05 情報処理装置、および情報処理方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2022098397A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117752A1 (ko) * 2022-11-29 2024-06-06 주식회사 유엑스팩토리 포인트 클라우드 데이터 처리 장치 및 그 동작 방법
JP7520267B1 (ja) 2023-07-05 2024-07-22 三菱電機株式会社 物体検出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117752A1 (ko) * 2022-11-29 2024-06-06 주식회사 유엑스팩토리 포인트 클라우드 데이터 처리 장치 및 그 동작 방법
JP7520267B1 (ja) 2023-07-05 2024-07-22 三菱電機株式会社 物体検出装置

Similar Documents

Publication Publication Date Title
WO2019111702A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
CN113841100A (zh) 自主行驶控制设备、自主行驶控制***和自主行驶控制方法
JP2022098397A (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2022145286A1 (ja) 情報処理装置、情報処理方法、プログラム、移動装置、及び、情報処理システム
JP2020101960A (ja) 情報処理装置、情報処理方法及びプログラム
WO2022004423A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2020090250A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2022201892A1 (en) Information processing apparatus, information processing method, and program
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2022259621A1 (ja) 情報処理装置、情報処理方法、コンピュータプログラム
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023007785A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2023166982A1 (ja) 情報処理装置、情報処理方法、及び、移動体
WO2023090001A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2023068116A1 (ja) 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム
WO2022024569A1 (ja) 情報処理装置と情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240110