JPWO2017085857A1 - 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム - Google Patents

運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム Download PDF

Info

Publication number
JPWO2017085857A1
JPWO2017085857A1 JP2016546854A JP2016546854A JPWO2017085857A1 JP WO2017085857 A1 JPWO2017085857 A1 JP WO2017085857A1 JP 2016546854 A JP2016546854 A JP 2016546854A JP 2016546854 A JP2016546854 A JP 2016546854A JP WO2017085857 A1 JPWO2017085857 A1 JP WO2017085857A1
Authority
JP
Japan
Prior art keywords
map
point
unit
driving support
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016546854A
Other languages
English (en)
Other versions
JP6150950B1 (ja
Inventor
道学 吉田
道学 吉田
尚之 対馬
尚之 対馬
長谷川 雄史
雄史 長谷川
雅浩 虻川
雅浩 虻川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6150950B1 publication Critical patent/JP6150950B1/ja
Publication of JPWO2017085857A1 publication Critical patent/JPWO2017085857A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)

Abstract

運転支援装置(10)は、車両(100)の周囲の物体の3次元位置を示す3次元マップである第1マップ(43)と、路側機(201)と車両(100)とは異なる車両(201)とのいずれかである外部装置(200)の周囲の物体の3次元位置を示す3次元マップである第2マップ(53)とが同一の座標系の3次元マップになるように、第1マップ(43)と第2マップ(53)との少なくともいずれかを変換する。そして、運転支援装置(10)は、変換された後の第1マップ(43)と第2マップ(53)とを合成して合成マップ(44)を生成する。

Description

この発明は、車両の周囲に存在する物体の3次元位置情報を取得する技術に関する。
レーザーレーダーやミリ波レーダーのようなセンサを用いて車両の周囲の障害物をセンシングし、そのセンシング結果に基づいて車両の制御を行う自動操舵技術が知られている。
特許文献1には、道路に設置された路上カメラで撮像した画像を、車上カメラで撮像した画像に合成することが記載されている。これにより、車両のドライバーが遠方に存在する他車両を直感的に把握し易くしている。
特開2008−191988号公報
特許文献1では、車両に搭載されたレーダーの検出情報に基づき、車両から他車両までの距離と、車両に対する他車両の方向とを特定する。そして、特許文献1では、特定された距離及び方向に基づき、路上カメラで撮像した画像に含まれる他車両を、車上カメラで撮像した画像に合成する。そのため、特許文献1では、車両に搭載されたレーダーで検出できない他車両を正しい位置に表示した合成画像を生成することができない。
この発明は、範囲が拡張され、かつ、車両から検出できない車両周囲の物体の位置も正しく表された3次元マップを生成可能とすることを目的とする。
この発明に係る運転支援装置は、
車両の周囲の物体の3次元位置を示す3次元マップである第1マップを生成するマップ生成部と、
前記マップ生成部によって生成された第1マップと、路側機と前記車両とは異なる車両とのいずれかである外部装置の周囲の物体の3次元位置を示す3次元マップである第2マップとが同一の座標系の3次元マップになるように、前記第1マップと前記第2マップとの少なくともいずれかを変換する座標同期部と、
前記座標同期部によって変換された後の前記第1マップと前記第2マップとを合成して合成マップを生成する合成部と
を備える。
この発明では、第1マップと第2マップとが同一の座標系の3次元マップになるように第1マップと第2マップとの少なくともいずれかを変換した上で、第1マップと第2マップとを合成する。これにより、範囲が拡張され、かつ、車両から検出できない車両周囲の物体の位置が正しく表された3次元マップを生成することができる。
実施の形態1に係る運転支援システム1の構成図。 実施の形態1に係る運転支援システム1の動作を示すフローチャート。 実施の形態1に係る第1マップ43の説明図。 実施の形態1に係る第2マップ53の説明図。 実施の形態1に係る変換後マップ54の説明図。 実施の形態1に係る合成マップ44の説明図。 実施の形態1に係る座標同期部15の構成図。 実施の形態1に係る座標同期部15の動作を示すフローチャート。 尤度計算処理Aを実行する場合における尤度計算部62の構成図。 尤度計算処理Aを実行する場合における尤度計算部62の動作を示すフローチャート。 尤度計算処理Aの説明図。 尤度計算処理Aの説明図。 尤度計算処理Bを実行する場合における尤度計算部62の構成図。 尤度計算処理Bを実行する場合における尤度計算部62の動作を示すフローチャート。 尤度計算処理Bの説明図。 尤度計算処理Bの説明図。 尤度計算処理Bの説明図。 尤度計算処理Cを実行する場合における尤度計算部62の構成図。 尤度計算処理Cを実行する場合における尤度計算部62の動作を示すフローチャート。 尤度計算処理Cの説明図。 実施の形態2に係る運転支援システム1の構成図。 実施の形態2に係る運転支援システム1の動作を示すフローチャート。 第2マップ53を推定する処理の説明図。 実施の形態3に係る運転支援システム1の構成図。 実施の形態3に係る運転支援システム1の動作を示すフローチャート。 実施の形態4に係る運転支援システム1の構成図。 実施の形態4に係る運転支援システム1の動作を示すフローチャート。 実施の形態4に係る運転支援システム1の構成図。 実施の形態1〜4に係る運転支援装置10のハードウェア構成図。 実施の形態1〜4に係る外部搭載機20のハードウェア構成図。
実施の形態1.
***運転支援システム1の構成***
図1は、実施の形態1に係る運転支援システム1の構成図である。
運転支援システム1は、運転支援装置10と、外部搭載機20と、センサ31と、センサ32とを備える。
運転支援装置10は、車両100に搭載され、車両100の運転を支援する。外部搭載機20は、道路に設置された路側機201と、車両100とは異なる車両202とのいずれかである外部装置200に搭載される。運転支援装置10と外部搭載機20とは、通信可能になっている。
センサ31は、車両100に搭載され、センサ32は、外部装置200に搭載されている。
センサ31及びセンサ32は、LIDAR(Light Detection and Ranging)と、ミリ波レーダーと、ソナーと、カメラ等である。センサ31及びセンサ32は、レーザ光、又は、電波、又は、音波を照射してその反射を検知することにより、車両100又は外部装置200からその周囲に存在する障害物となる物体までの距離及び角度と、物体の形状とを示すセンサ情報41,51を検出する。
運転支援装置10は、センサ情報取得部11と、認識部12と、マップ生成部13と、受信部14と、座標同期部15と、合成部16とを備える。
センサ情報取得部11は、センサ31によって検出された車両100の周囲に存在する物体についてのセンサ情報41を取得する。
認識部12は、センサ情報取得部11によって取得されたセンサ情報41に基づき、車両100の周囲の物体の属性42を認識する。物体の属性42は、物体の種類のことであり、具体例としては歩行者、2輪車、4輪車である。認識部12は、物体の形状により物体の属性42を認識することができる。
マップ生成部13は、センサ情報取得部11によって取得されたセンサ情報41と、認識部12によって認識された物体の属性42とに基づき、ある時刻における車両100の周囲の物体の3次元位置及び属性42を示す3次元マップである第1マップ43を生成する。
受信部14は、外部装置200の周囲の物体の3次元位置及び属性を含む3次元マップである第2マップ53を外部搭載機20から受信する。
座標同期部15は、マップ生成部13によって生成された第1マップ43と受信部14によって受信された第2マップ53とが同一の座標系の3次元マップになるように、第1マップ43と第2マップ53との少なくともいずれかを変換する。
ここでは、座標同期部15は、第2マップ53の座標系である第2座標系が、第1マップ43の座標系である第1座標系に一致するように、第2マップ53を変換して、変換後マップ54を生成する。
合成部16は、座標同期部15によって変換された後の第1マップ43と第2マップ53とを合成して合成マップ44を生成する。
ここでは、合成部16は、マップ生成部13によって生成された第1マップ43と、座標同期部15によって生成された変換後マップ54とを合成する。
外部搭載機20は、センサ情報取得部21と、認識部22と、マップ生成部23と、送信部24とを備える。
センサ情報取得部21は、センサ32によって検出された外部装置200の周囲に存在する物体についてのセンサ情報51を取得する。
認識部22は、センサ情報取得部21によって取得されたセンサ情報51に基づき、外部装置200の周囲の物体の属性52を認識する。物体の属性52は、物体の属性42と同じ意味である。認識部22は、認識部12と同様に、物体の形状により物体の属性52を認識することができる。
マップ生成部23は、センサ情報取得部21によって取得されたセンサ情報51と、認識部22によって認識された物体の属性52とに基づき、ある時刻における外部装置200の周囲の物体の3次元位置及び属性52を示す3次元マップである第2マップ53を生成する。
送信部24は、マップ生成部23によって生成された第2マップ53を運転支援装置10に送信する。
***運転支援システム1の動作***
図2は、実施の形態1に係る運転支援システム1の動作を示すフローチャートである。
実施の形態1に係る運転支援システム1の動作は、実施の形態1に係る運転支援方法に相当する。また、実施の形態1に係る運転支援システム1の動作は、実施の形態1に係る運転支援プログラムの処理に相当する。
S101の車両センサ情報取得処理では、センサ情報取得部11は、センサ情報41を取得する。
S102の車両認識処理では、認識部12は、S101で取得されたセンサ情報41に基づき、車両100の周囲の物体の属性42を認識する。
S103の車両マップ生成処理では、マップ生成部13は、S101で取得されたセンサ情報41と、S102で認識された物体の属性42とに基づき、S101でセンサ情報41が取得された時刻における第1マップ43を生成する。
図3は、実施の形態1に係る第1マップ43の説明図である。
第1マップ43は、車両100の位置を中心Oとするxyzの直交座標系における座標で、車両100の周囲の物体の3次元位置を表す。車両100の位置を中心Oとするxyzの直交座標系が第1座標系である。
図3では、5つの物体の3次元位置を示す点P1〜P5と、5つの物体の属性42とが示されている。
S104の外部センサ情報取得処理では、センサ情報取得部21は、センサ情報51を取得する。
S105の外部認識処理では、認識部22は、S104で取得されたセンサ情報51に基づき、外部装置200の周囲の物体の属性52を認識する。
S106の外部マップ生成処理では、マップ生成部23は、S104で取得されたセンサ情報51と、S105で認識された物体の属性52とに基づき、S104でセンサ情報51が取得された時刻における第2マップ53を生成する。
図4は、実施の形態1に係る第2マップ53の説明図である。
第2マップ53は、外部装置200の位置を中心O’とするx’y’z’の直交座標系における座標で、外部装置200の周囲の物体の3次元位置を表す。外部装置200の位置を中心O’とするx’y’z’の直交座標系が第2座標系である。
図4では、5つの物体の3次元位置を示すP1’〜P5’と、5つの物体の属性52とが示されている。
ここでは、図4に示す点P1’〜P3’が示す物体それぞれ図3に示す点P1〜P3が示す物体と対応しているものとする。また、図3に示す点P4,P5が示す物体に対応する物体は図4にはなく、図4に示す点P4’,P5’が示す物体に対応する物体は図3にはないものとする。つまり、点P4,P5が示す物体は、センサ32のセンシング範囲外であり、外部搭載機20が検知できず、点P4’,P5’が示す物体は、センサ31のセンシング範囲外であり、運転支援装置10が検知できないものとする。
S107のマップ送信処理では、送信部24は、S106で生成された第2マップ53を運転支援装置10に送信する。
S108のマップ受信処理では、受信部14は、S107で送信された第2マップ53を受信する。
S109の座標同期処理では、座標同期部15は、S108で受信された第2マップ53の座標系である第2座標系が、S103で生成された第1マップ43の座標系である第1座標系に一致するように、第2マップ53を変換して、変換後マップ54を生成する。
座標同期処理の詳細は後述する。
図5は、実施の形態1に係る変換後マップ54の説明図である。
変換後マップ54は、第1座標系における座標で、外部装置200の周囲の物体の3次元位置を表す。
図5は、図4に示す第2マップ53を変換して生成された変換後マップ54を示す。そのため、図5では、第1座標系における座標で、図4に示す点P1’〜P5’の3次元位置が表されている。上述した通り、図4に示す点P1’〜P3’が示す物体がそれぞれ図3に示す点P1〜P3が示す物体と対応している。そのため、点P1’〜P3’の座標値がそれぞれ点P1〜P3の座標値に変換されている。
S110の合成処理では、合成部16は、S103で生成された第1マップ43と、S109で生成された変換後マップ54とを合成して合成マップ44を生成する。
図6は、実施の形態1に係る合成マップ44の説明図である。
合成マップ44は、第1座標系における座標で、車両100及び外部装置200の周囲の物体の3次元位置を表す。
図6は、図3に示す第1マップ43と図5に示す変換後マップ54とが合成された合成マップ44を示す。そのため、図6では、点P1〜P5と点P1’〜P5’とが示されている。また、点P1〜P3と点P1’〜P3’とが同じ位置に示されている。
S109の座標同期処理について詳しく説明する。
***座標同期部15の構成***
図7は、実施の形態1に係る座標同期部15の構成図である。
座標同期部15は、対象点抽出部61と、尤度計算部62と、変換量計算部63と、座標変換部64とを備える。
対象点抽出部61は、第1マップ43において物体の3次元位置を示す複数の点から3つの対象点65を点a1、点a2、点a3として繰り返し抽出する。対象点抽出部61は、第2マップ53において物体の3次元位置を示す複数の点から点a1、点a2、点a3にそれぞれ対応させた3つの対象点65を点b1、点b2、点b3として繰り返し抽出する。
対象点抽出部61は、繰り返し抽出する度に点a1と点b1、点a2と点b2、点a3と点b3の1つ以上が異なる組合せになるように、異なる点を対象点65とする、又は、抽出する順序を変更して、対象点65を抽出する。
尤度計算部62は、点a1と点b1とが同じ位置を示し、点a2と点b2とが同じ位置を示し、点a3と点b3とが同じ位置を示す場合の尤度66を計算する。
変換量計算部63は、対象点抽出部61によって繰り返し抽出された対象点65のうち尤度計算部62によって計算された尤度66が高い対象点65を選択する。変換量計算部63は、選択した対象点65において、点a1と点b1とが同じ位置を示し、点a2と点b2とが同じ位置を示し、点a3と点b3とが同じ位置を示すとして、第2座標系を第1座標系に一致させるための変換量67を計算する。
変換量67は、回転量Rと平行移動量Tとから構成され、数1のように表される。ここでは、第1座標系及び第2座標系は3次元であるため、回転量Rは3行3列の行列として表され、平行移動量Tは3行1列の行列として表されている。つまり、数1におけるR11〜R33の成分が回転量Rを表しており、T〜Tの成分が平行移動量Tを表している。
Figure 2017085857
座標変換部64は、変換量計算部63によって計算された変換量67を用いて、第2マップ53を変換して、変換後マップ54を生成する。つまり、座標変換部64は、変換量67を構成する回転量Rだけ第2マップ53を回転させ、変換量67を構成する平行移動量Tだけ第2マップ53を平行移動させて、変換後マップ54を生成する。
***座標同期部15の動作***
図8は、実施の形態1に係る座標同期部15の動作を示すフローチャートである。
S201の属性選択処理では、対象点抽出部61は、物体の属性から1つの属性を選択する。そして、対象点抽出部61は、第1マップ43において物体の3次元位置を示す複数の点のうち、S102で認識された属性42が選択した属性である点を第1特定点として特定する。また、対象点抽出部61は、第2マップ53において物体の3次元位置を示す複数の点のうち、S105で認識された属性52が選択した属性である点を第2特定点として特定する。
ここでは、対象点抽出部61は、属性として歩行者を選択したとする。そのため、図3に示す第1マップ43において、属性42が歩行者となっている点P1〜P4が第1特定点として特定される。また、図4に示す第2マップ53において、属性52が歩行者となっている点P1’〜P4’が第2特定点として特定される。
なお、対象点抽出部61は、第1マップ43と第2マップ53とのどちらにも基準数以上の点が含まれている属性のみを対象とする。これは、点の数が少ないと、第1マップ43と第2マップ53との間で対応した点が3点以上ない可能性があるためである。
S202の対象点抽出処理では、対象点抽出部61は、S201で特定された第1特定点から3つの対象点65を点a1、点a2、点a3として抽出する。また、対象点抽出部61は、特定された第2特定点から点a1、点a2、点a3にそれぞれ対応させた3つの対象点65を点b1、点b2、点b3として抽出する。
ここでは、図3に示す点P1〜P4のうち3つの点が対象点65として抽出される。また、図4に示す点P1’〜P4’のうち3つの点が対象点65として抽出される。
S203の尤度計算処理では、尤度計算部62は、S202で抽出された対象点65について、点a1と点b1とが同じ位置を示し、点a2と点b2とが同じ位置を示し、点a3と点b3とが同じ位置を示す場合の尤度66を計算する。
尤度計算処理の詳細は後述する。
S204の対象点判定処理では、対象点抽出部61は、S201で特定された第1特定点と第2特定点との全ての点の組合せを、点a1、点a2、点a3、点b1、点b2、点b3として抽出したか判定する。
ここでは、(1)点P1を点a1、点P2を点a2、点P3点a3とし、点P1’を点b1、点P2’を点b2、点P3’を点b3とする組合せ、(2)点P1を点a1、点P2を点a2、点P3点a3とし、点P1’を点b1、点P2’を点b2、点P4’を点b3とする組合せ、(3)点P1を点a1、点P2を点a2、点P3点a3とし、点P1’を点b1、点P4’を点b2、点P3’を点b3とする組合せ・・・のように、全ての点の組合せが抽出されたか判定される。
全ての点の組合せが抽出された場合(S204でYES)、処理をS205に進める。一方、抽出されていない組合せがある場合(S204でNO)、処理をS202に戻して、抽出されていない組合せを抽出する。
S205の対象点選択処理では、変換量計算部63は、S203で計算された尤度66が最も高い場合の対象点65である点a1、点a2、点a3、点b1、点b2、点b3を選択する。
S206の変動量候補計算処理では、変換量計算部63は、選択した対象点65において、点a1と点b1とが同じ位置を示し、点a2と点b2とが同じ位置を示し、点a3と点b3とが同じ位置を示すと仮定する。そして、変換量計算部63は、この仮定の下で、第2座標系を第1座標系に一致させるための変換量67である回転量R及び平行移動量Tを計算する。変換量計算部63は、計算された変換量67を、S201で選択された属性についての変換量67の候補とする。
第1座標系と第2座標系との間で、3つの対応する点が分かれば、回転量R及び平行移動量Tを計算することが可能である。
ここでは、変換量計算部63は、点b1と点b2とを通る直線Yを、点a1と点a2とを通る直線Xと平行な直線に変換する場合の回転量R1を計算する。変換量計算部63は、直線Xを表すベクトルと直線Yを表すベクトルとの内積を計算することにより、直線Xと直線Yとの間の角度を計算する。これにより、変換量計算部63は回転量R1を計算することができる。
変換量計算部63は、回転量R1と同様に、点b2と点b3とを通る直線Y’を、点a2と点a3とを通る直線X’と平行な直線に変換する場合の回転量R2を計算する。
ここで、回転量R1及び回転量R2は、回転方向の異なる2つの値が計算される。そこで、変換量計算部63は、回転量R1として計算された2つの値と、回転量R2として計算された2つの値との組のうち、値が近い組を選択して、回転量R1及び回転量R2とする。つまり、回転量R1として2つの値R1a,R1bが計算され、回転量R2として2つの値R2a,R2bが計算されたとする。この場合、回転量R1と回転量R2との組としては、R1aとR2aの組と、R1aとR2bの組と、R1bとR2aの組と、R1bとR2bの組との4つの組がある。変換量計算部63は、この4つの組のうち、値の近い組を選択して、回転量R1及び回転量R2とする。そして、変換量計算部63は、選択された回転量R1及び回転量R2の平均値を回転量Rとする。
次に、変換量計算部63は、数1に回転量Rを代入した式を生成する。変換量計算部63は、式におけるx’,y’,z’に点a1の座標値x,y,zを代入し、x’’,y’’,z’’に点b1の座標値x,y,zを代入した方程式1を生成する。同様に、変換量計算部63は、式におけるx’,y’,z’に点a2の座標値x,y,zを代入し、x’’,y’’,z’’に点b2の座標値x,y,zを代入した方程式2と、式におけるx’,y’,z’に点a3の座標値x,y,zを代入し、x’’,y’’,z’’に点b3の座標値x,y,zを代入した方程式3とを生成する。変換量計算部63は、方程式1,2,3を連立方程式として、平行移動量Tを計算する。
S207の属性判定処理では、対象点抽出部61は、S201で全ての属性が選択されたか判定する。
全ての属性が選択された場合(S207でYES)、対象点抽出部61は処理をS208に進める。一方、選択されていない属性がある場合(S207でNO)、対象点抽出部61は処理をS201に戻して、選択されていない属性を選択する。
S208の誤差判定処理では、変換量計算部63は、S206で計算された各属性についての変換量67の候補間の差が、閾値以下であるかを判定する。閾値は、予め運転支援装置10の記憶装置に記憶されているものとする。
閾値以下である場合(S208でYES)、変換量計算部63は処理をS209に進める。一方、閾値以下でない場合(S208でNO)、変換量計算部63は処理をS201に戻す。S201に処理が戻された場合、対象点抽出部61は、これまでは1つの属性のみ選択していたところを、複数の属性を選択するようにする。
S209の変動量決定処理では、変換量計算部63は、S206で計算された各属性についての変換量67の候補から、変換量67である回転量R及び平行移動量Tを決定する。
ここでは、変換量計算部63は、S206で計算された各属性についての変換量67の候補の平均値を計算することにより、変換量67を決定する。なお、変換量計算部63は、いずれかの属性についての変換量67の候補を選択することにより変換量67を決定するなど、他の方法によって変換量67を決定してもよい。
S210の変換後マップ生成処理では、座標変換部64は、S209で決定された変換量67である回転量R及び平行移動量Tで、第2マップ53に含まれる各点の位置を変換して、変換後マップ54を生成する。
S203の尤度計算処理について詳しく説明する。
S203の尤度計算処理としてA〜Cの3つの例を説明する。尤度計算部62は、A〜Cのうち、いずれか1つ以上を実行する。
***尤度計算処理Aを実行する場合における尤度計算部62の構成***
図9は、尤度計算処理Aを実行する場合における尤度計算部62の構成図である。
尤度計算部62は、第2点位置計算部71と、第3点位置計算部72と、第3点間距離計算部73とを備える。
第2点位置計算部71は、第1座標系において、点b1を点a1と同じ位置に置く。そして、第2点位置計算部71は、この場合に、点a1と点a2とを通る直線X上に点b2を置いた場合の点b2の位置74を、点b1と点b2との間の距離b12から計算する。
第3点位置計算部72は、第1座標系において、点a2と点a3とを通る直線Yを、第2点位置計算部71によって計算された点b2の位置74を通るように平行移動させた直線Zを計算する。第3点位置計算部72は、計算された直線Z上に点b3を置いた場合の点b3の位置75を、点b2と点b3との間の距離b23から計算する。
第3点間距離計算部73は、第3点位置計算部72によって計算された点b3の位置75と、点a3との距離ab3を尤度66として計算する。
***尤度計算処理Aを実行する場合における尤度計算部62の動作***
図10は、尤度計算処理Aを実行する場合における尤度計算部62の動作を示すフローチャートである。
図11を参照して、尤度計算処理Aについて説明する。
S301の点b1設定処理では、第2点位置計算部71は、点b1が点a1と同じ位置にあると仮定して、第1座標系において点b1を点a1と同じ位置に設定する。
S302の直線X計算処理では、第2点位置計算部71は、点a1の位置及び点a2の位置から、点a1と点a2とを通る直線Xを計算する。
S303の点b2計算処理では、第2点位置計算部71は、S302で計算された直線X上に点b2を置いた場合の点b2の位置74を、点b1と点b2との間の距離b12から計算する。つまり、第2点位置計算部71は、S301で設定された点b1の位置から距離b12だけ離れた直線X上の位置を、点b2の位置74として計算する。
なお、点b1と点b2との間の距離b12は、第2座標系における点b1の位置及び点b2の位置から計算可能である。
S304の直線Y計算処理では、第3点位置計算部72は、点a2の位置及び点a3の位置から、点a2と点a3とを通る直線Yを計算する。
S305の直線Z計算処理では、第3点位置計算部72は、S304で計算された直線Yを、S303で計算された点b2の位置74を通るように平行移動させて、直線Zに変換する。
S306の点b3計算処理では、第3点位置計算部72は、S305で変換された直線Z上に点b3を置いた場合の点b3の位置75を、点b2と点b3との間の距離b23から計算する。つまり、第3点位置計算部72は、S303で計算された点b2の位置から距離b23だけ離れた直線Z上の位置を、点b3の位置75として計算する。
なお、点b2と点b3との間の距離b23は、第2座標系における点b2の位置及び点b3の位置から計算可能である。
S307の距離計算処理では、第3点間距離計算部73は、S306で計算された点b3の位置75と、点a3との距離ab3を尤度66として計算する。
なお、図12に示すように、S303で計算される点b2の位置74は、2か所存在する。そして、S306で計算される点b3の位置75は、点b2の位置74毎に2か所存在する。そのため、S306では、点b3の位置75が合計4か所計算されることになる。
S307では、第3点間距離計算部73は、S306で計算された4か所の位置75それぞれと、点a3との距離ab3を計算する。そして、第3点間距離計算部73は、計算された4つの距離ab3のうち、最も短い距離ab3を尤度66とする。
***尤度計算処理Bを実行する場合における尤度計算部62の構成***
図13は、尤度計算処理Bを実行する場合における尤度計算部62の構成図である。
尤度計算部62は、回転計算部81と、平行移動量計算部82と、変換後位置計算部83と、距離計算部84とを備える。
回転計算部81は、第2座標系において点b1と点b2とを通る直線Yを、第1座標系において点a1と点a2とを通る直線Xと平行な直線に変換する場合の回転量Rを計算する。
平行移動量計算部82は、第2座標系を第1座標系に一致させるための変換量67のうちの回転量Rが、回転計算部81によって計算された回転量Rであると仮定した場合における変換量67のうちの平行移動量Tを計算する。
変換後位置計算部83は、回転計算部81によって計算された回転量Rと、平行移動量計算部82によって計算された平行移動量Tとに基づき、点b1と点b2と点b3との第1座標系における位置を変換後位置85として計算する。つまり、変換後位置計算部83は、回転量R及び平行移動量Tで、点b1と点b2と点b3とを移動させた位置を変換後位置85として計算する。
距離計算部84は、変換後位置計算部83によって計算された点b1の変換後位置85と点a1との間の距離ab1を計算する。また、距離計算部84は、変換後位置計算部83によって計算された点b2の変換後位置85と点a2との間の距離ab2を計算する。また、距離計算部84は、変換後位置計算部によって計算された点b3の変換後位置85と点a3との間の距離ab3を計算する。そして、距離計算部84は、距離ab1と距離ab2と距離ab3との和を尤度66として計算する。
***尤度計算処理Bを実行する場合における尤度計算部62の動作***
図14は、尤度計算処理Bを実行する場合における尤度計算部62の動作を示すフローチャートである。
図15及び図16を参照して、尤度計算処理Bについて説明する。
S401の直線計算処理では、回転計算部81は、図15に示すように、第1座標系における点a1と点a2とを通る直線Xと、第2座標系における点b1と点b2とを通る直線Yとを計算する。
S402の回転計算処理では、回転計算部81は、図15に示すように、S401で計算された直線Yを、S401で計算された直線Xと平行な直線Zに変換する場合の回転量Rを計算する。
回転量Rの具体的な計算方法は、S206で変換量計算部63が回転量Rを計算した方法と同じである。
S403の移動量計算処理では、平行移動量計算部82は、第2座標系を第1座標系に一致させるための変換量67のうちの回転量Rが、回転計算部81によって計算された回転量Rであると仮定する。そして、平行移動量計算部82は、この場合における変換量67のうちの平行移動量Tを計算する。
平行移動量Tの具体的な計算方法は、S206で変換量計算部63が平行移動量Tを計算した方法と同じである。
S404の位置計算処理では、変換後位置計算部83は、図16に示すように、S402で計算された回転量Rと、S403で計算された平行移動量Tとに基づき、点b1と点b2と点b3との第1座標系における位置を変換後位置85として計算する。
S405の距離計算処理では、変換後位置計算部83は、図16に示すように、S404で計算された点b1の変換後位置85と点a1との間の距離ab1を計算する。また、変換後位置計算部83は、S404で計算された点b2の変換後位置85と点a2との間の距離ab2を計算する。また、変換後位置計算部83は、S404で計算された点b3の変換後位置85と点a3との間の距離ab3を計算する。そして、距離計算部84は、距離ab1と距離ab2と距離ab3との和を尤度66として計算する。
なお、図17に示すように、S402で計算される回転量Rは2つ存在する。そのため、S403では、2つの回転量Rそれぞれについて、平行移動量Tが計算され、S404では、点b1と点b2と点b3とについて2つの変換後位置85が計算されることになる。
S405では、変換後位置計算部83は、S304で計算された2つの変換後位置85それぞれについて、距離の和を計算する。そして、変換後位置計算部83は、計算された2つの距離の和のうち、小さい方の値を尤度66とする。
***尤度計算処理Cを実行する場合における尤度計算部62の構成***
図18は、尤度計算処理Cを実行する場合における尤度計算部62の構成図である。
尤度計算部62は、点間距離計算部91と、差分計算部92とを備える。
点間距離計算部91は、点a1と点a2との間の距離a12と、点a2と点a3との間の距離a23と、点a1と点a3との間の距離a13と、点b1と点b2との間の距離b12と、点b2と点b3との間の距離b23と、点b1と点b3との間の距離b13とを計算する。
差分計算部92は、距離a12と距離b12との差と、距離a23と距離b23との差と、距離a13と距離b13との差との和を尤度66として計算する。
***尤度計算処理Cを実行する場合における尤度計算部62の動作***
図19は、尤度計算処理Cを実行する場合における尤度計算部62の動作を示すフローチャートである。
図20を参照して、尤度計算処理Cについて説明する。
S501の第1点間距離計算処理では、点間距離計算部91は、点a1と点a2との間の距離a12と、点a2と点a3との間の距離a23と、点a1と点a3との間の距離a13と計算する。
S502の第2点間距離計算処理では、点間距離計算部91は、点b1と点b2との間の距離b12と、点b2と点b3との間の距離b23と、点b1と点b3との間の距離b13とを計算する。
S503の差分計算処理では、差分計算部92は、距離a12と距離b12との差と、距離a23と距離b23との差と、距離a13と距離b13との差との和を尤度66として計算する。
***実施の形態1の効果***
以上のように、運転支援システム1は、外部装置200の周囲の物体についての第2マップ53を、車両100の周囲の物体についての第1マップ43の第1座標系の変換後マップ54に変換する。そして、運転支援システム1は、変換後マップ54を第1マップ43に合成して合成マップ44を生成する。
これにより、合成マップ44は、車両100の周囲の物体を示した第1マップ43の範囲が拡張され、かつ、車両100のセンサ31では検出できない、第2マップ53に示された物体についても位置が正しく表された3次元マップとなる。物体の位置が正しく表されているため、車両100の走行を制御するようなことにも利用可能である。
なお、2次元マップでは高さの情報がないが、3次元マップでは高さの情報がある。そのため、3次元マップであれば、段差及び高架橋のような高さのある物体の有無を判断できる。また、3次元マップであれば、木のように高さによって幅が変化する物体を適切に扱うことができる。
***他の構成***
上記説明では、運転支援システム1が外部装置200を1台備える構成を説明した。
しかし、運転支援システム1は、外部装置200を複数台備えてもよい。この場合、運転支援装置10は、各外部装置200に搭載された外部搭載機20から第2マップ53を受信する。そして、運転支援装置10は、受信された複数の第2マップ53を第1マップ43に合成して、1つの合成マップ44を生成する。
上記説明では、第2マップ53が第1マップ43の第1座標系の変換後マップ54に変換され、変換後マップ54が第1マップ43に合成された。
しかし、第1マップ43及び第2マップ53の両方がある第3座標系に変換され、変換された後の第1マップ43及び第2マップ53が合成されてもよい。この場合、座標同期部15は、第1座標系から第3座標系への変換量67を変換量67aとして計算し、第2座標系から第3座標系への変換量67を変換量67bとして計算し、変換量67aで第1マップ43を変換し、変換量67bで第2マップ53を変換する。そして、合成部16は、変換した第1マップ43と変換した第2マップ53とを合成する。
ある座標系の具体例としては、絶対座標系が上げられる。絶対座標系は、位置を緯度、経度、標高で表したグローバル座標系のことである。
上記説明では、運転支援装置10で生成された第1マップ43と、外部搭載機20で生成された第2マップ53との2つが合成されて合成マップ44が生成された。しかし、運転支援システム1が車両100とは別の車両100’を備えており、第1マップ43及び第2マップ53に加え、車両100’が備える運転支援装置10’で生成された第3マップを合成して合成マップ44が生成される場合もある。そして、合成マップ44は、運転支援装置10だけでなく、運転支援装置10’でも使用される場合もある。
この場合、運転支援装置10及び運転支援装置10’が絶対座標系で生成された合成マップ44を使用するようになっていれば、運転支援装置10と運転支援装置10’との一方が絶対座標系で合成マップ44を生成すれば、他方は生成された合成マップ44を取得するだけで済む。つまり、絶対座標系という装置間で共通の座標系を用いることにより、運転支援システム1全体としての処理量を減らすことができる。運転支援システム1が備える運転支援装置10の数が増えるほど、処理量を減らす効果は大きくなる。
上記説明では、運転支援装置10が第1マップ43と第2マップ53とを合成して合成マップ44を生成した。しかし、外部搭載機20が第1マップ43と第2マップ53とを合成して合成マップ44を生成し、生成した合成マップ44を運転支援装置10に送信してもよい。つまり、座標同期部15及び合成部16の処理を外部搭載機20が実行してもよい。
運転支援装置10の処理速度が、外部搭載機20の処理速度に比べて遅い場合、座標同期部15及び合成部16の処理を外部搭載機20が実行することにより、処理を高速に実行できる。また、運転支援装置10の負荷を下げることができるため、運転支援装置10のハードウェアを安価なものとすることができる。
また、上述したように、運転支援装置10及び運転支援装置10’が共通の合成マップ44を使用する場合、外部搭載機20が合成マップ44を生成して、運転支援装置10及び運転支援装置10’に送信してもよい。
また、第2マップ43が第1座標系に変換されるのではなく、第1マップ43が第2座標系に変換されてもよい。そして、変換された第1マップ43と第2マップ53とが合成されて合成マップ44が生成されてもよい。
上述したように、運転支援装置10及び運転支援装置10’が共通の合成マップ44を使用する場合、第2座標系を共通の相対座標系として利用することが考えられる。つまり、運転支援装置10が第1マップ43と第2マップ53とから第2座標系の合成マップ44を生成し、運転支援装置10’が第3マップと第2マップ53とから第2座標系の合成マップ44’を生成する。そして、運転支援装置10が合成マップ44’を取得して、合成マップ44’と合成マップ44と合成する。同様に、運転支援装置10’が合成マップ44を取得して、合成マップ44’と合成マップ44と合成する。これにより、運転支援装置10及び運転支援装置10’が、第1マップ43と第2マップ53と第3マップとが合成された合成マップを得られる。
ここで、合成マップ44’及び合成マップ44は、いずれも第2座標系で表されている。そのため、合成マップ44’と合成マップ44と合成する際、座標変換は不要である。したがって、運転支援装置10及び運転支援装置10’は1度だけ座標変換を行えば、第1マップ43と第2マップ53と第3マップとが合成された合成マップを得ることができる。つまり、第1マップ43と第2マップ53と第3マップとが合成された合成マップを得るための、運転支援装置10及び運転支援装置10’の処理量を減らすことができる。運転支援システム1が備える運転支援装置10の数が増えるほど、処理量を減らす効果は大きくなる。
上記説明では、図8のS201で属性を選択して、選択された属性を持つ物体を表す点を、第1特定点及び第2特定点とした。これは、同じ属性を持つ物体を表した点でなければ、第1マップ43と第2マップ53との間で対応する点となる可能性が低いためである。
しかし、図8のS202で抽出される対象点65が全て同じ属性を持つ物体を表した点である必要はない。対応する点同士が同じ属性を持つ物体を表した点であればよい。具体的には、点a1と点b1、点a2と点b2、点a3と点b3がそれぞれ同じ属性を持つ物体を表した点であればよい。したがって、S201の処理を省略し、S202で対応する点同士が同じ属性を持つ物体を表した点になるように、対象点65を抽出するようにしてもよい。
上記説明では、第1座標系及び第2座標系は、直交座標系であるとして説明した。
しかし、第1座標系及び第2座標系は、極座標系であってもよい。
上記説明では、図8のS202からS204で同じ属性を持つ物体を表す点の全ての組合せについての尤度66が計算された。
しかし、対応する可能性の高い点の組合せについてのみ尤度66が計算されるようにしてもよい。これにより、尤度66を計算するための計算時間を短縮できる。
対応する可能性が高い点は、第1マップ43及び第2マップ53における点の配置から特定することができる。
具体的には、S203の処理として図10に示す尤度計算処理Aが実行される場合であれば、S202で対象点抽出部61は、まず点a1及び点a2と、点b1とを抽出する。そして、対象点抽出部61は、点a1と点a2との間の距離と、点b1と点Q2との間の距離との差が第1基準値より小さくなる点Q2を点b2として抽出する。点a1と点a2との間の距離と、点b1と点b2との間の距離が近ければ、点a1と点b1とが対応しており、点a2と点b2とが対応している可能性が高い。そのため、点b2を抽出する条件を上述したように設けることで、対応する可能性の高い点の組合せについてのみ尤度66が計算されるようになる。
さらに、対象点抽出部61は、点a3を抽出し、点a2と点a3との間の距離と、点b2と点Q3との間の距離との差が第2基準値より小さくなる点Q3を点b3として抽出する。点b2を抽出した場合と同様に、点b3を抽出する条件を上述したように設けることで、対応する可能性の高い点の組合せについてのみ尤度66が計算されるようになる。
上記説明では、対象点65を3つとした。しかし、対象点65は、3つ以上であればいくつであってもよい。
実施の形態2.
実施の形態2は、第1マップ43と第2マップ53との時刻を同期させた上で、第1マップ43と第2マップ53とを合成する点が実施の形態1と異なる。実施の形態2では、この異なる点について説明する。
***運転支援システム1の構成***
図21は、実施の形態2に係る運転支援システム1の構成図である。
運転支援装置10は、図1に示す構成に加え、時刻同期部17を備える。
センサ情報取得部11は、順次センサ情報41を取得する。そして、認識部12は、センサ情報41毎に、車両100の周囲の物体の属性42を認識し、マップ生成部13aは、センサ情報41毎に、第1マップ43を生成する。この際、マップ生成部13aは、第1マップ43を生成する際に使用したセンサ情報41の取得時刻を示すタイムスタンプ45を含めた第1マップ43を生成する。
同様に、センサ情報取得部21は、順次センサ情報51を取得する。そして、認識部22は、センサ情報51毎に、外部装置200の周囲の物体の属性52を認識し、マップ生成部23aは、センサ情報51毎に、第2マップ53を生成する。この際、マップ生成部23aは、第2マップ53を生成する際に使用したセンサ情報51の取得時刻を示すタイムスタンプ55を含めた第2マップ53を生成する。
送信部24aは、マップ生成部23aによって生成された第2マップ53を運転支援装置10に順次送信する。受信部14aは、順次送信された第2マップ53を受信する。
時刻同期部17は、マップ生成部13aによって生成された各第1マップ43について、同じ時刻の第2マップ53を特定する。第1マップ43と第2マップ53とが同じ時刻であるとは、第1マップ43の生成に使用されたセンサ情報41と、第2マップ53の生成に使用されたセンサ情報51との取得時刻が同じという意味である。
つまり、時刻同期部17は、受信部14aによって受信された複数の第2マップ53のうち、第1マップ43の生成に使用されたセンサ情報41の取得時刻と同じ時刻に取得されたセンサ情報51から生成された第2マップ53を特定する。
***運転支援システム1の動作***
図22は、実施の形態2に係る運転支援システム1の動作を示すフローチャートである。
実施の形態2に係る運転支援システム1の動作は、実施の形態2に係る運転支援方法に相当する。また、実施の形態2に係る運転支援システム1の動作は、実施の形態2に係る運転支援プログラムの処理に相当する。
S601からS608の処理は、図2のS101からS108の処理と同じである。但し、S603ではタイムスタンプ45を含む第1マップ43が生成され、S606ではタイムスタンプ55を含む第2マップ53が生成される。また、S604からS608の処理は、繰り返し実行され、S608で複数の第2マップ53が受信されている。
S609の時刻同期処理では、時刻同期部17は、S608で受信された複数の第2マップ53のうち、S603で生成された第1マップ43の生成に使用されたセンサ情報41の取得時刻と同じ時刻に取得されたセンサ情報51から生成された第2マップ53を特定する。
ここでは、時刻同期部17は、第1マップ43に含まれるタイムスタンプ45が示す取得時刻と同じ取得時刻を示すタイムスタンプ55を含む第2マップ53を特定する。
S610の座標同期処理では、座標同期部15aは、S609で特定された第2マップ53の座標系である第2座標系が、S603で生成された第1マップ43の座標系である第1座標系に一致するように、第2マップ53を変換して、変換後マップ54を生成する。
S611の処理は、図2のS110の処理と同じである。
***実施の形態2の効果***
以上のように、運転支援システム1は、複数の第2マップ53のうち、第1マップ43と同じ時刻の第2マップ53を特定する。そして、運転支援システム1は、特定された第2マップ53を第1マップ43に合成して合成マップ44を生成する。
これにより、合成マップ44は、ある時点における物体の位置が正しく表示された3次元マップとなる。物体の位置が正しく表されているため、車両100の走行を制御するようなことにも利用可能である。
***他の構成***
上記説明では、S603で生成された第1マップ43と同じ時刻の第2マップ53がS608で受信されていることを前提としていた。しかし、通信状況によっては、一時的に第2マップ53を受信できない場合も考えられる。そのため、S603で生成された第1マップ43と同じ時刻の第2マップ53がS608で受信されていない場合も起こり得る。
そこで、時刻同期部17は、S603で生成された第1マップ43と同じ時刻の第2マップ53がない場合には、受信されている複数の第2マップ53から第1マップ43と同じ時刻の第2マップ53を生成する。具体的には、時刻同期部17は、受信されている複数の第2マップ53から、S603で生成された第1マップ43の生成に使用されたセンサ情報41の取得時刻と同じ時刻に取得されたセンサ情報51から生成される第2マップ53を推定し、生成する。
ここでは、図23に示すように、時刻同期部17は、カルマンフィルタを用いて、過去に受信されている複数の第2マップ53から、センサ情報41の取得時刻と同じ時刻に取得されたセンサ情報51から生成される第2マップ53を推定する。図23では、時刻t3に取得されたセンサ情報51から生成される第2マップ53が、時刻t3よりも前に取得されたセンサ情報51から生成された第2マップ53から推定されている。
実施の形態3.
実施の形態3では、運転支援装置10が第2マップ53を生成する点が実施の形態1,2と異なる。実施の形態3では、この異なる点について説明する。
ここでは、実施の形態1との違いを説明するが、実施の形態2に対しても同様に適用可能である。
***運転支援システム1の構成***
図24は、実施の形態3に係る運転支援システム1の構成図である。
運転支援装置10は、図1に示す構成に加え、認識部22bと、マップ生成部23bとを備える。一方、外部搭載機20は、図1に示す構成のうち、認識部22bと、マップ生成部23bとを備えない。
送信部24bは、センサ情報取得部21によって取得されたセンサ情報51を運転支援装置10に送信する。受信部14bは、送信部24bによって送信されたセンサ情報51を受信する。
認識部22bは、受信部14bによって受信されたセンサ情報51に基づき、外部装置200の周囲の物体の属性52を認識する。マップ生成部23bは、受信部14bによって受信されたセンサ情報51と、認識部22bによって認識された物体の属性52とに基づき、第2マップ53を生成する。
***運転支援システム1の動作***
図25は、実施の形態3に係る運転支援システム1の動作を示すフローチャートである。
実施の形態3に係る運転支援システム1の動作は、実施の形態3に係る運転支援方法に相当する。また、実施の形態3に係る運転支援システム1の動作は、実施の形態3に係る運転支援プログラムの処理に相当する。
S701からS704の処理は、図2のS101からS104の処理と同じである。
S705のマップ送信処理では、送信部24bは、S704で取得されたセンサ情報51を運転支援装置10に送信する。
S706のマップ受信処理では、受信部14bは、S705で送信されたセンサ情報51を受信する。
S707の外部認識処理では、認識部22bは、S706で受信されたセンサ情報51に基づき、外部装置200の周囲の物体の属性52を認識する。
S708の外部マップ生成処理では、マップ生成部23bは、S706で受信されたセンサ情報51と、S707で認識された物体の属性52とに基づき、S704でセンサ情報51が取得された時刻における第2マップ53を生成する。
なお、生成される第2マップ53は、図2のS106で生成される第2マップ53と同じである。
S709の座標同期処理では、座標同期部15bは、S708で生成された第2マップ53の座標系である第2座標系が、S703で生成された第1マップ43の座標系である第1座標系に一致するように、第2マップ53を変換して、変換後マップ54を生成する。
S710の処理は、図2のS110の処理と同じである。
***実施の形態3の効果***
以上のように、運転支援システム1は、運転支援装置10が第2マップ53を生成する。
これにより、外部搭載機20は、単にセンサ情報51を取得して運転支援装置10に送信するだけでよい。したがって、外部搭載機20の処理負荷を軽減できる。
***他の構成***
上記説明では、図24に示す通り、運転支援装置10は、認識部12と認識部22b、及び、マップ生成部13とマップ生成部23bを備えていた。そして、図25に示す通り、S702〜S703の処理と、S707からS708の処理とが並列に実行された。
しかし、認識部12と認識部22bとを共通化して1つの構成要素とし、マップ生成部13とマップ生成部23bとを共通化して1つの構成要素としてもよい。そして、S702〜S703の処理と、S707からS708の処理とが直列に実行されてもよい。
上記説明では、外部搭載機20がセンサ情報51を運転支援装置10に送信して、運転支援装置10がセンサ情報51から属性52を認識し、第2マップ53を生成した。
しかし、外部搭載機20が属性52を認識し、センサ情報51及び属性52を運転支援装置10に送信してもよい。そして、運転支援装置10が第2マップ53を生成してもよい。
また、外部搭載機20から運転支援装置10が受信するのは、センサ情報51と、センサ情報51及び属性52と、第2マップ53とのいずれかに限らず、外部装置200の周囲の物体の位置に関するデータであれば他の形式のデータであってもよい。位置に関するデータとは、具体的には、車及び人のような属性情報を含んだ障害物の3次元座標値を示すデータである。他の形式のデータとは、具体的には、センサ32で取得されたセンサ情報51そのものと、属性が特定されていない物体の3次元座標値及び画像データとである。
また、ここでは、データと呼んだが、データは、情報、信号のようなコンピュータで送受信されるものであれば他の形式であってもよい。また、位置に関する情報は、明示的に表現された情報であっても、データに内在する情報であってもよい。
実施の形態4.
実施の形態4では、実施の形態1〜3で生成された合成マップ44を用いた運転支援について説明する。
***構成の説明***
図26は、実施の形態4に係る運転支援システム1の構成図である。
図26では、合成部16以外の実施の形態1〜3で説明した構成については省略されている。
運転支援装置10は、実施の形態1〜3で説明した構成に加え、運転支援部18を備える。
運転支援部18は、車両100の運転を支援する。運転支援部18は、ルート決定部181と、車両制御部182とを備える。
ルート決定部181は、合成部16によって生成された合成マップ44に基づき走行ルート46を決定する。具体的には、ルート決定部181は、合成マップ44に示された歩行者のような障害物に接触しない走行ルート46を決定する。
車両制御部182は、ルート決定部181によって決定された走行ルート46を車両100が走行するように、車両100を制御する。具体的には、車両制御部182は、走行ルート46を車両100が走行するように、車両100が備えるステアリングと、エンジン及びモータのような駆動装置と、ブレーキとを制御する。
なお、車両制御部182は、走行ルート46だけでなく、センサ31で取得された他のセンサ情報41も考慮して、車両100を制御してもよい。
***動作の説明***
図27は、実施の形態4に係る運転支援システム1の動作を示すフローチャートである。
実施の形態4に係る運転支援システム1の動作は、実施の形態4に係る運転支援方法に相当する。また、実施の形態4に係る運転支援システム1の動作は、実施の形態4に係る運転支援プログラムの処理に相当する。
S801の合成マップ生成処理では、運転支援システム1は、実施の形態1〜3で説明した方法により、合成マップ44を生成する。
S802のルート決定処理では、ルート決定部181は、S801で生成された合成マップ44に基づき走行ルート46を決定する。
S803の車両制御処理では、車両制御部182は、S802で生成された走行ルート46を車両100が走行するように、車両100を制御する。
S801からS803の処理が繰り返し実行され、車両100が自動運転される。
***実施の形態4の効果***
以上のように、運転支援システム1は、運転支援装置10が合成マップ44に基づき車両100を自動運転する。
これにより、車両100の運転者は、運転をする必要がなくなり、運転者の負荷を軽減できる。
***他の構成***
上記説明では、車両100を自動運転する構成を説明した。
しかし、合成マップ44を表示する構成としてもよい。図28は、この場合の運転支援システム1の構成図である。図28に示す運転支援システム1は、運転支援部18が、ルート決定部181及び車両制御部182に代えて、表示部183を備える点が図26に示す運転支援システム1と異なる。
表示部183は、合成部16によって生成された合成マップ44を表示する。これにより、車両100の運転者は、運転時に合成マップ44を確認することが可能となり、運転の安全性が向上する。具体的には、運転者は、車両100からは見えない位置にいる歩行者等を合成マップ44から把握することが可能となり、歩行者との接触を避ける運転をすることが可能になる。
運転支援部18は、ルート決定部181及び車両制御部182とともに、表示部183を備えていてもよい。この場合、運転支援装置10は、車両100を自動運転しつつ、合成マップ44を表示する。
図29は、実施の形態1〜4に係る運転支援装置10のハードウェア構成図である。
運転支援装置10は、運転支援EUC110(Electronic Control Unit)と、車両制御EUC120と、メモリ130と、通信装置140と、出力装置150とを備える。
運転支援EUC110及び車両制御EUC120は、処理回路(processing circuitry)と、入出力回路と、電源回路と等で実現される。処理回路は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサー、又はDSP(Digital Signal Processor)ともいう。
メモリ130は、RAM(Random Access Memory)と、ROM(Read Only Memory)と、フラッシュメモリと、EPROM(Erasable Programmable Read Only Memory)と、EEPROM(Electrically Erasable and Programmable Read Only Memory)とのような不揮発性又は揮発性の半導体メモリと、磁気ディスクと、フレキシブルディスクと、光ディスクと、コンパクトディスクと、ミニディスクと、DVDと、これらの少なくとも一部を組み合わせたものとのいずれかで実現される。ここでは、メモリ130は、少なくとも一部に書き込み可能な構成を有している。
通信装置140は、通信チップ又はNIC(Network Interface Card)である。通信装置140は、データを受信するレシーバ及びデータを送信するトランスミッタを含む。
出力装置150は、ディスプレイと、スピーカとの少なくともいずれかである。
運転支援装置10におけるセンサ情報取得部11と、認識部12と、マップ生成部13と、受信部14と、座標同期部15と、合成部16と、時刻同期部17と、運転支援部18との各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアとファームウェアはプログラムとして記述され、メモリ130に格納される。つまり、運転支援EUC110及び車両制御EUC120は、メモリ130に記憶されたプログラムを読み出して実行することにより、各機能を実現する。
ここでは、運転支援EUC110は、センサ情報取得部11と、認識部12と、マップ生成部13と、受信部14と、座標同期部15と、合成部16と、時刻同期部17と、表示部183との機能を実現する。また、車両制御EUC120は、ルート決定部181と、車両制御部182との機能を実現する。
運転支援EUC110及び車両制御EUC120は、各機能の処理の結果を示す情報又はデータ又は信号値又は変数値を、メモリ130にファイルとして記憶する。
上記説明では、運転支援装置10における各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現されるとした。しかし、運転支援装置10における各機能は、少なくとも一部を専用のハードウェアで実現し、残りをソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせで実現するようにしてもよい。具体的には、受信部14をレシーバとして実現し、その他の機能をソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせで実現してもよい。また、表示部183をディスプレイとして実現してもよい。
図30は、実施の形態1〜4に係る外部搭載機20のハードウェア構成図である。
外部搭載機20は、運転支援EUC210と、メモリ230と、通信装置240とを備える。
運転支援EUC210は、処理回路(processing circuitry)と、入出力回路と、電源回路と等で実現される。処理回路は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサー、又はDSP(Digital Signal Processor)ともいう。
メモリ230は、RAM(Random Access Memory)と、ROM(Read Only Memory)と、フラッシュメモリと、EPROM(Erasable Programmable Read Only Memory)と、EEPROM(Electrically Erasable and Programmable Read Only Memory)とのような不揮発性又は揮発性の半導体メモリと、磁気ディスクと、フレキシブルディスクと、光ディスクと、コンパクトディスクと、ミニディスクと、DVDと、これらの少なくとも一部を組み合わせたものとのいずれかで実現される。ここでは、メモリ230は、少なくとも一部に書き込み可能な構成を有している。
通信装置240は、通信チップ又はNIC(Network Interface Card)である。通信装置240は、データを受信するレシーバ及びデータを送信するトランスミッタを含む。
外部搭載機20におけるセンサ情報取得部21と、認識部22と、マップ生成部23と、送信部24との各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアとファームウェアはプログラムとして記述され、メモリ230に格納される。つまり、運転支援EUC210は、メモリ230に記憶されたプログラムを読み出して実行することにより、各機能を実現する。
運転支援EUC210は、各機能の処理の結果を示す情報又はデータ又は信号値又は変数値を、メモリ230にファイルとして記憶する。
上記説明では、外部搭載機20における各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現されるとした。しかし、外部搭載機20における各機能は、少なくとも一部を専用のハードウェアで実現し、残りをソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせで実現するようにしてもよい。具体的には、送信部24をトランスミッタとして実現し、その他の機能を、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせで実現してもよい。
1 運転支援システム、10 運転支援装置、11 センサ情報取得部、12 認識部、13 マップ生成部、14 受信部、15 座標同期部、16 合成部、17 時刻同期部、18 運転支援部、181 ルート決定部、182 車両制御部、183 表示部、20 外部搭載機、21 センサ情報取得部、22 認識部、23 マップ生成部、24 送信部、31 センサ、32 センサ、41,53 センサ情報、42,52 属性、43 第1マップ、44 合成マップ、45 タイムスタンプ、46 走行ルート、53 第2マップ、54 変換後マップ、55 タイムスタンプ、61 対象点抽出部、62 尤度計算部、63 変換量計算部、64 座標変換部、65 対象点、66 尤度、67 変換量、71 第2点位置計算部、72 第3点位置計算部、73 第3点間距離計算部、74,75 位置、81 回転計算部、82 平行移動量計算部、83 変換後位置計算部、84 距離計算部、85 変換後位置、91 点間距離計算部、92 差分計算部、100 車両、110,210 運転支援EUC、120 車両制御EUC、130,230 メモリ、140,240 通信装置、150 出力装置、200 外部装置、201 路側機、202 車両。

Claims (15)

  1. 車両の周囲の物体の3次元位置を示す3次元マップである第1マップを生成するマップ生成部と、
    前記マップ生成部によって生成された第1マップと、路側機と前記車両とは異なる車両とのいずれかである外部装置の周囲の物体の3次元位置を示す3次元マップである第2マップとが同一の座標系の3次元マップになるように、前記第1マップと前記第2マップとの少なくともいずれかを変換する座標同期部と、
    前記座標同期部によって変換された後の前記第1マップと前記第2マップとを合成して合成マップを生成する合成部と
    を備える運転支援装置。
  2. 前記座標同期部は、前記第2マップの座標系である第2座標系が、前記第1マップの座標系である第1座標系に一致するように、前記第2マップを変換する
    請求項1に記載の運転支援装置。
  3. 前記座標同期部は、
    前記第1マップにおいて物体の3次元位置を示す複数の点から3つの対象点を点a1、点a2、点a3として繰り返し抽出するとともに、前記第2マップにおいて物体の3次元位置を示す複数の点から前記点a1、前記点a2、前記点a3にそれぞれ対応させた3つの対象点を点b1、点b2、点b3として繰り返し抽出する対象点抽出部と、
    前記点a1と前記点b1とが同じ位置を示し、前記点a2と前記点b2とが同じ位置を示し、前記点a3と前記点b3とが同じ位置を示す場合の尤度を計算する尤度計算部と、
    前記対象点抽出部によって繰り返し抽出された対象点のうち前記尤度計算部によって計算された尤度が高い対象点について、前記点a1と前記点b1とが同じ位置を示し、前記点a2と前記点b2とが同じ位置を示し、前記点a3と前記点b3とが同じ位置を示すとして、前記第2座標系を前記第1座標系に一致させるための変換量を計算する変換量計算部と、
    前記変換量計算部によって計算された変換量を用いて、前記第2マップを変換する座標変換部と
    を備える請求項2に記載の運転支援装置。
  4. 前記尤度計算部は、
    前記第1座標系において、前記点b1を前記点a1と同じ位置に置いた場合に、前記点a1と前記点a2とを通る直線X上に前記点b2を置いた場合の前記点b2の位置を、前記点b1と前記点b2との間の距離から計算する第2点位置計算部と、
    前記第1座標系において、前記点a2と前記点a3とを通る直線Yを、前記第2点位置計算部によって計算された前記点b2の位置を通るように平行移動させた直線Z上に前記点b3を置いた場合の前記点b3の位置を、前記点b2と前記点b3との間の距離から計算する第3点位置計算部と、
    前記第3点位置計算部によって計算された前記点b3の位置と、前記点a3との距離を前記尤度として計算する第3点間距離計算部と
    を備える請求項3に記載の運転支援装置。
  5. 前記尤度計算部は、
    前記第2座標系において前記点b1と前記点b2とを通る直線Yを、前記第1座標系において前記点a1と前記点a2とを通る直線Xと平行な直線に変換する場合の回転量を計算する回転計算部と、
    前記第2座標系を前記第1座標系に一致させるための前記変換量のうちの回転量が、前記回転計算部によって計算された回転量であると仮定した場合における前記変換量のうちの平行移動量を計算する平行移動量計算部と、
    前記回転計算部によって計算された回転量と、前記平行移動量計算部によって計算された平行移動量とに基づき、前記点b1と前記点b2と前記点b3との前記第1座標系における位置を計算する変換後位置計算部と、
    前記変換後位置計算部によって計算された前記点b1の位置と前記点a1との間の距離と、前記変換後位置計算部によって計算された前記点b2の位置と前記点a2との間の距離と、前記変換後位置計算部によって計算された前記点b3の位置と前記点a3との間の距離との和を前記尤度として計算する距離計算部と
    を備える請求項3に記載の運転支援装置。
  6. 前記尤度計算部は、
    前記点a1と前記点a2との間の距離a12と、前記点a2と前記点a3との間の距離a23と、前記点a1と前記点a3との間の距離a13と、前記点b1と前記点b2との間の距離b12と、前記点b2と前記点b3との間の距離b23と、前記点b1と前記点b3との間の距離b13とを計算する点間距離計算部と、
    前記距離a12と前記距離b12との差と、前記距離a23と前記距離b23との差と、前記距離a13と前記距離b13との差との和を前記尤度として計算する差分計算部と
    を備える請求項3に記載の運転支援装置。
  7. 前記対象点抽出部は、前記点a1が位置を示す物体の属性と属性が同じ物体の位置を示す点を前記点b1として抽出し、前記点a2が位置を示す物体の属性と属性が同じ物体の位置を示す点を前記点b2として抽出し、前記点a3が位置を示す物体の属性と属性が同じ物体の位置を示す点を前記点b3として抽出する
    請求項3に記載の運転支援装置。
  8. 前記座標同期部は、前記第1マップの座標系である第1座標系が、前記第1座標系と前記第2マップの座標系である第2座標系と異なる第3座標系に一致するように、前記第1マップを変換し、前記第2座標系が前記第3座標系に一致するように、前記第2マップを変換する
    請求項1に記載の運転支援装置。
  9. 前記運転支援装置は、さらに、
    前記外部装置に搭載された外部搭載機から複数の第2マップを受信する受信部と、
    前記受信部によって受信された複数の第2マップのうち、前記第1マップの生成に使用されたデータの取得時刻と同じ時刻に取得されたデータから生成された前記第2マップを特定する時刻同期部
    を備え、
    前記合成部は、前記第1マップと、前記時刻同期部が特定した前記第2マップとを合成する
    請求項1に記載の運転支援装置。
  10. 前記時刻同期部は、前記取得時刻と同じ時刻に取得されたデータから生成された前記第2マップがない場合には、前記複数の第2マップから前記取得時刻と同じ時刻に取得されたデータから生成される前記第2マップを推定し、
    前記合成部は、前記第1マップと、前記時刻同期部によって推定された前記第2マップとを合成する
    請求項9に記載の運転支援装置。
  11. 前記運転支援装置は、さらに、
    前記合成部によって生成された合成マップに基づき走行ルートを決定するルート決定部と、
    前記ルート決定部によって決定された走行ルートを前記車両が走行するように、前記車両を制御する車両制御部と
    を備える請求項1に記載の運転支援装置。
  12. 前記運転支援装置は、さらに、
    前記合成部によって生成された合成マップを表示する表示部
    を備える請求項1に記載の運転支援装置。
  13. 車両に設置された運転支援装置と、路側機と前記車両とは異なる車両とのいずれかである外部装置に搭載された外部搭載機とを備える運転支援システムであり、
    前記外部搭載機は、
    前記外部装置の周囲の物体の位置に関するデータを前記運転支援装置に送信する送信部
    を備え、
    前記運転支援装置は、
    車両の周囲の物体の3次元位置を示す3次元マップである第1マップを生成するマップ生成部と、
    前記送信部によって送信された位置に関するデータを受信する受信部と、
    前記マップ生成部によって生成された第1マップと前記受信部によって受信された位置に関するデータから得られる第2マップとが同一の座標系の3次元マップになるように、前記第1マップと前記第2マップとの少なくともいずれかを変換する座標同期部と、
    前記座標同期部によって座標系が変換された後の前記第1マップと前記第2マップとを合成して合成マップを生成する合成部と
    を備える運転支援システム。
  14. 車両の周囲の物体の3次元位置を示す3次元マップである第1マップを生成し、
    前記第1マップと、路側機と前記車両とは異なる車両とのいずれかである外部装置の周囲の物体の3次元位置を示す3次元マップである第2マップとが同一の座標系の3次元マップになるように、前記第1マップと前記第2マップとの少なくともいずれかを変換し、
    変換された後の前記第1マップと前記第2マップとを合成して合成マップを生成する運転支援方法。
  15. 車両の周囲の物体の3次元位置を示す3次元マップである第1マップを生成するマップ生成処理と、
    前記マップ生成処理によって生成された第1マップと、路側機と前記車両とは異なる車両とのいずれかである外部装置の周囲の物体の3次元位置を示す3次元マップである第2マップとが同一の座標系の3次元マップになるように、前記第1マップと前記第2マップとの少なくともいずれかを変換する座標同期処理と、
    前記座標同期処理によって変換された後の前記第1マップと前記第2マップとを合成して合成マップを生成する合成処理と
    をコンピュータに実行させる運転支援プログラム。
JP2016546854A 2015-11-20 2015-11-20 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム Active JP6150950B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/082658 WO2017085857A1 (ja) 2015-11-20 2015-11-20 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム

Publications (2)

Publication Number Publication Date
JP6150950B1 JP6150950B1 (ja) 2017-06-21
JPWO2017085857A1 true JPWO2017085857A1 (ja) 2017-11-16

Family

ID=58719146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546854A Active JP6150950B1 (ja) 2015-11-20 2015-11-20 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム

Country Status (5)

Country Link
US (1) US10410072B2 (ja)
JP (1) JP6150950B1 (ja)
CN (1) CN108140309B (ja)
DE (1) DE112015007054B4 (ja)
WO (1) WO2017085857A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190212153A1 (en) * 2018-01-11 2019-07-11 Continental Automotive Systems, Inc. Vehicle position estimate using information from infrastructure
CN109540162B (zh) * 2018-11-12 2021-12-21 北京四维图新科技股份有限公司 Adas地图数据的处理方法、获取方法、装置及车载设备
DE102018220775A1 (de) * 2018-12-03 2020-06-04 Robert Bosch Gmbh Leitvorrichtung für wenigstens ein Fahrzeug
DE102020101445A1 (de) * 2020-01-22 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Bestimmen einer Route auf einer Karte
DE102021117945A1 (de) * 2021-07-12 2023-01-12 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen kombinierter Karteninformationen
CN113706871A (zh) * 2021-09-13 2021-11-26 中交第一公路勘察设计研究院有限公司 一种城市交通大数据处理中多源数据融合***
CN113945219B (zh) * 2021-09-28 2024-06-11 武汉万集光电技术有限公司 动态地图生成方法、***、可读存储介质及终端设备

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3138933B2 (ja) 1991-10-29 2001-02-26 株式会社日立製作所 モデリングシステム
JPH05296767A (ja) 1992-04-20 1993-11-09 Mitsubishi Electric Corp 車間距離検出装置
JP2726366B2 (ja) 1992-09-07 1998-03-11 日本電信電話株式会社 視点・物点位置決定方法
JP3263699B2 (ja) 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
JPH06347278A (ja) * 1993-06-10 1994-12-20 Alpine Electron Inc 車両の存在リンク検出方法
JP3125550B2 (ja) 1993-12-24 2001-01-22 日産自動車株式会社 移動車の前方認識装置ならびに車輌用走行制御装置
JP3240835B2 (ja) 1994-06-09 2001-12-25 株式会社日立製作所 車両用距離計測装置
JPH10129375A (ja) 1996-10-30 1998-05-19 Yazaki Corp 車載用前方車両認識装置
JP2000121300A (ja) 1998-10-12 2000-04-28 Mitsubishi Electric Corp 誘導装置
US6396535B1 (en) 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
JP2001134782A (ja) 1999-11-01 2001-05-18 Fuji Photo Film Co Ltd 画像処理装置及び画像撮像装置
US6658136B1 (en) 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
JP2001195692A (ja) 2000-01-13 2001-07-19 Toshiba Corp 車側及びインフラ側の情報を整理統合する共通プラットフォーム
JP2001195700A (ja) 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd 車両情報検出装置
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
JP4568967B2 (ja) 2000-07-13 2010-10-27 ソニー株式会社 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム記録媒体
JP2002107161A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Ind Co Ltd 移動体用進路誘導装置
JP2002362302A (ja) 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2003044996A (ja) 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd 障害物検出装置
JP3925285B2 (ja) 2002-04-17 2007-06-06 日産自動車株式会社 走行路環境検出装置
JP3875941B2 (ja) 2002-09-30 2007-01-31 三菱電機株式会社 車両走行支援装置および車両走行支援サービスの提供方法
JP3779280B2 (ja) 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
JP2005025692A (ja) 2003-07-04 2005-01-27 Suzuki Motor Corp 車両用情報提供装置
JP4311107B2 (ja) 2003-08-08 2009-08-12 オムロン株式会社 三次元物体認識装置およびその設定方法
JP2005090974A (ja) 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP4612635B2 (ja) 2003-10-09 2011-01-12 本田技研工業株式会社 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
JP4033106B2 (ja) 2003-10-22 2008-01-16 日産自動車株式会社 車両用測距性能低下検出装置
JP2005175603A (ja) 2003-12-08 2005-06-30 Suzuki Motor Corp レーダを用いた障害物の表示方法及び表示システム
US7050909B2 (en) * 2004-01-29 2006-05-23 Northrop Grumman Corporation Automatic taxi manager
JP2005233712A (ja) * 2004-02-18 2005-09-02 Hitachi Software Eng Co Ltd 位置表示システム
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP2005268847A (ja) * 2004-03-16 2005-09-29 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
JP4052291B2 (ja) 2004-08-05 2008-02-27 日産自動車株式会社 車両用画像処理装置
JP4432730B2 (ja) 2004-11-01 2010-03-17 日産自動車株式会社 車両用道路標示検出装置
JP4494983B2 (ja) 2005-01-07 2010-06-30 三菱重工業株式会社 ポータブル型車両番号認識装置およびポータブル型車両番号認識装置による車両番号認識方法
JP2006322797A (ja) 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
EP1881450A1 (en) 2005-05-10 2008-01-23 Olympus Corporation Image processing apparatus, image processing method, and image processing program
JP2006339960A (ja) 2005-06-01 2006-12-14 Nissan Motor Co Ltd 物体検出装置、および物体検出方法
JP4102885B2 (ja) 2005-07-15 2008-06-18 国土交通省国土技術政策総合研究所長 駐車車両検知方法及び駐車車両検知システム
JP4656408B2 (ja) 2005-08-05 2011-03-23 株式会社デンソー 車両用周囲監視装置
JP4823781B2 (ja) 2005-08-31 2011-11-24 本田技研工業株式会社 車両の走行安全装置
JP4850471B2 (ja) 2005-10-04 2012-01-11 富士重工業株式会社 車両情報提示装置
JP4813141B2 (ja) 2005-10-05 2011-11-09 川崎重工業株式会社 情報提供装置
JP2007172541A (ja) * 2005-12-26 2007-07-05 Toyota Motor Corp 運転支援装置
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4923647B2 (ja) 2006-03-17 2012-04-25 株式会社デンソー 運転支援画像表示装置及びプログラム
JP4680131B2 (ja) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 自車位置測定装置
JP4311426B2 (ja) 2006-09-12 2009-08-12 住友電気工業株式会社 移動体を表示するための表示システム、車載装置及び表示方法
JP4420002B2 (ja) 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4893945B2 (ja) 2007-02-06 2012-03-07 株式会社デンソー 車両周辺監視装置
JP4434224B2 (ja) 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
JP4558758B2 (ja) 2007-05-07 2010-10-06 三菱電機株式会社 車両用障害物認識装置
FR2921027B1 (fr) 2007-09-17 2010-02-26 Valeo Vision Dispositif d'aide a la conduite pour vehicule automobile comportant un systeme de capture d'images stereoscopique
US20100250116A1 (en) * 2007-12-28 2010-09-30 Yoshihisa Yamaguchi Navigation device
DE112008003424B4 (de) * 2007-12-28 2013-09-05 Mitsubishi Electric Corp. Navigationsgerät, das Videobilder einer Kamera verwendet
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
JP4946897B2 (ja) 2008-01-31 2012-06-06 コニカミノルタホールディングス株式会社 距離計測装置
JP4992755B2 (ja) 2008-02-25 2012-08-08 株式会社デンソー 交差点運転支援システム、車載器、及び、路側機
EP2343685B1 (en) 2008-10-01 2020-07-29 Sony Interactive Entertainment Inc. Information processing device, information processing method, program, and information storage medium
JP5066047B2 (ja) 2008-10-01 2012-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
WO2010067486A1 (ja) * 2008-12-12 2010-06-17 パナソニック株式会社 画像処理装置及び画像処理方法
JP2010250452A (ja) * 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置
DE102009002626A1 (de) 2009-04-24 2010-10-28 Robert Bosch Gmbh Sensoranordnung für Fahrerassistenzsysteme in Kraftfahrzeugen
JP2011060179A (ja) 2009-09-14 2011-03-24 National Institute Of Advanced Industrial Science & Technology 操舵制御方法
JP5520004B2 (ja) 2009-10-28 2014-06-11 富士重工業株式会社 車両用運転支援装置
JP2011196942A (ja) 2010-03-23 2011-10-06 Pioneer Electronic Corp ナビゲーション装置及び右折支援方法
JP5531733B2 (ja) 2010-04-01 2014-06-25 トヨタ自動車株式会社 道路情報取得装置
AU2010201740B2 (en) 2010-04-30 2013-03-07 Canon Kabushiki Kaisha Method, apparatus and system for performing a zoom operation
JP5626578B2 (ja) 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援プログラム、及び走行支援方法
CN201928386U (zh) * 2010-12-21 2011-08-10 交通运输部公路科学研究所 驾驶环境信息及驾驶状态信息集成采集装置
WO2012117528A1 (ja) 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置
JP2012180055A (ja) 2011-03-02 2012-09-20 Toyota Motor Corp 車両制御装置
JP5276140B2 (ja) * 2011-05-19 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
JP2013019684A (ja) 2011-07-07 2013-01-31 Honda Motor Co Ltd 車両周辺監視装置
WO2013035353A1 (ja) 2011-09-05 2013-03-14 三菱電機株式会社 画像処理装置及び画像処理方法
WO2013168246A1 (ja) 2012-05-09 2013-11-14 トヨタ自動車株式会社 運転支援装置
DE112012006364B4 (de) 2012-05-14 2018-08-30 Mitsubishi Electric Corporation Fahrer-Unterstützungsvorrichtung
EP2669845A3 (en) 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
US9117371B2 (en) * 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance
JP2014062842A (ja) * 2012-09-21 2014-04-10 Aisin Aw Co Ltd 経路案内装置、経路案内方法、及び経路案内プログラム
JP2014106200A (ja) 2012-11-29 2014-06-09 Toyota Motor Corp 周辺監視装置及び駐車支援装置
KR101856255B1 (ko) * 2012-12-10 2018-05-09 현대자동차일본기술연구소 내비게이션 디스플레이 장치
JP6212880B2 (ja) 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
US8897548B2 (en) 2013-04-02 2014-11-25 National Chung Cheng University Low-complexity method of converting image/video into 3D from 2D
JP2014228941A (ja) * 2013-05-20 2014-12-08 株式会社日立製作所 地表面3次元サーフェス形状計測装置、走行可能領域検出装置およびそれを搭載した建設機械並びに走行可能領域検出方法
JP6310652B2 (ja) * 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法
JP2015052548A (ja) 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
US20160275359A1 (en) 2013-12-26 2016-09-22 Mitsubishi Electric Corporation Information processing apparatus, information processing method, and computer readable medium storing a program
JP6547292B2 (ja) 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
JP6471528B2 (ja) 2014-02-24 2019-02-20 株式会社リコー 物体認識装置、物体認識方法
JP6163453B2 (ja) 2014-05-19 2017-07-12 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP6648411B2 (ja) 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP6350082B2 (ja) 2014-08-01 2018-07-04 株式会社デンソー 画像処理装置
JP6361366B2 (ja) 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
DE112014006876T5 (de) 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
US9791282B2 (en) * 2014-09-27 2017-10-17 Intel Corporation Technologies for route navigation sharing in a community cloud
JP6447863B2 (ja) 2014-10-17 2019-01-09 シャープ株式会社 移動体
JP6532229B2 (ja) 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
KR101778558B1 (ko) 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
JP6310899B2 (ja) 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
CN107179767B (zh) 2016-03-10 2021-10-08 松下电器(美国)知识产权公司 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
CN107176161B (zh) 2016-03-10 2021-11-23 松下电器(美国)知识产权公司 识别结果提示装置、识别结果提示方法以及自主移动体

Also Published As

Publication number Publication date
WO2017085857A1 (ja) 2017-05-26
US10410072B2 (en) 2019-09-10
CN108140309A (zh) 2018-06-08
DE112015007054B4 (de) 2019-11-28
JP6150950B1 (ja) 2017-06-21
CN108140309B (zh) 2020-12-08
DE112015007054T5 (de) 2018-08-02
US20180315240A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6150950B1 (ja) 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
CN108362295B (zh) 车辆路径引导设备和方法
US11370422B2 (en) Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
US11100808B2 (en) System and method for vehicle convoys
CN109323708B (zh) 电子装置及其控制方法
JP6656886B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP5494845B1 (ja) 情報提供システム
US20180154901A1 (en) Method and system for localizing a vehicle
WO2017199333A1 (ja) 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体
JP2014096135A5 (ja)
JPWO2012086821A1 (ja) 測位装置、測位方法
KR20180066618A (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
JP2018116014A (ja) 自車位置推定装置、制御方法、プログラム及び記憶媒体
JP2017138660A (ja) 物体検出方法、物体検出装置、およびプログラム
US11150096B2 (en) Method and device for the localization of a vehicle based on a degree of robustness of the localization
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
JP5168134B2 (ja) 環境地図生成プログラム、環境地図生成方法及び移動ロボット
CN111279150A (zh) 地图信息管理装置、地图信息管理***、及地图信息管理方法
KR102325121B1 (ko) 맵 정보과 영상 매칭을 통한 실시간 로봇 위치 예측 방법 및 로봇
JP2021170029A (ja) 測定装置、測定方法およびプログラム
JP7001985B2 (ja) 自車位置推定装置、プログラム、記録媒体、および自車位置推定方法
JP2020073931A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2022093703A (ja) 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体
KR20230076059A (ko) 객체 추적을 위한 방법 및 장치
JP2020144651A (ja) 計算機装置、状態変数推定方法及び状態変数推定プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170523

R150 Certificate of patent or registration of utility model

Ref document number: 6150950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250