JP5980283B2 - 課金処理システム - Google Patents

課金処理システム Download PDF

Info

Publication number
JP5980283B2
JP5980283B2 JP2014183070A JP2014183070A JP5980283B2 JP 5980283 B2 JP5980283 B2 JP 5980283B2 JP 2014183070 A JP2014183070 A JP 2014183070A JP 2014183070 A JP2014183070 A JP 2014183070A JP 5980283 B2 JP5980283 B2 JP 5980283B2
Authority
JP
Japan
Prior art keywords
charging
reference image
processing unit
image
billing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014183070A
Other languages
English (en)
Other versions
JP2016057801A (ja
Inventor
宅原 雅人
雅人 宅原
杉本 喜一
喜一 杉本
成寿 亀尾
成寿 亀尾
知浩 松本
知浩 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2014183070A priority Critical patent/JP5980283B2/ja
Priority to PCT/JP2015/000472 priority patent/WO2016038755A1/ja
Priority to MYPI2015703674A priority patent/MY175964A/en
Priority to SG11201508484QA priority patent/SG11201508484QA/en
Publication of JP2016057801A publication Critical patent/JP2016057801A/ja
Application granted granted Critical
Publication of JP5980283B2 publication Critical patent/JP5980283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B13/00Taximeters

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Charge And Discharge Circuits For Batteries Or The Like (AREA)

Description

本発明は、道路を走行する車両に課金処理するシステムに関し、特に任意の位置で課金することのできるシステムに関する。
DSRC(Dedicated Short Range Communication)方式のERP(Electronic Road Pricing)システムに続くシステムとしては、車両の走行位置に対応、つまり走行距離に対応して課金するシステムが有望視されている。そのためには、±10m程度の精度で課金を行い、ドライバに対して課金の事実をリアルタイムに通知することが望まれている。車両の走行位置を特定するには、GPS(Global Positioning System)を用いることができる。
ところが、このGPSによる測位手段を、ERPの対象地域となる高層ビルが立ち並ぶ市街地に適用しようとすると、ビルや高架によりGPS信号が遮断されたり、また、GPS信号が乱反射したりするマルチパスの問題に直面する。そのため、一般に、高層な構造物が多い市街地においては、GPSの本来の測位精度を得ることが困難であり、課金位置にズレが生じたり誤った金額で課金がなされたりする恐れがある。また、GPSの測位精度の低下は、衛星配置や大気の状態等によっても、不特定な状況で発生し、誤差の大きさも時間的に変動する。そのため、GPSだけでは、課金位置の精度や、課金の信頼性を担保するのが難しい。
高層ビル街でのGPSの精度低下に対応するために、例えばジャイロ、加速度センサによって補償すること、あるいは、地図情報を用いて道路上に位置を補正することが想定される。例えば、特許文献1は、環境に起因して発生する測位誤差に関する情報を用いて補正して、車両の位置を特定する提案を行っている。GPS精度が低下した場合でも、ある程度の期間はジャイロや加速度センサによって精度が維持されるが、この補正はジャイロや加速度センサの値を積分することを伴うために、時間の経過とともに誤差が拡大してしまう。
また、高性能な車速パルス、高性能なジャイロなどの測位用の機器を用いて、GPSが途絶した場合でも慣性航法によって自己位置を推定することも可能である。ところが、これらの機器は、民間のユーザ車両に取付けるには高額すぎる。
したがって、GPSに頼ることなく、しかも高額な機器を取り付けることなく、走行している車両の位置を特定できることが、車両の走行位置に対応して課金するシステムにとって望ましい。例えば、特許文献2には、移動体の現在位置における周囲の画像(観測画像)と、所定の地点に関連して予め用意された画像(参照画像)を、画像マッチングにより照合し、この結果に基づき、移動体の現在位置を算出することを提案している。
特開2014−92986号公報 特開2013−61270号公報
ところが、特許文献2は、車両の現在位置を特定できるものの、車両に課金するシステムについて示唆していない。
そこで本発明は、走行中の車両から取得できる観測画像と予め記憶された参照画像を照合する手法を用いて、任意の位置で車両に課金できるシステムを提供することを目的とする。
かかる目的のもと、本発明の課金処理システムは、ユーザ車両が道路を走行する際に課金処理を行う課金処理システムであって、道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、ユーザ車両に設けられ、ユーザ車両が走行する特定道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、記憶されている参照画像と新たに取得された観測画像を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴としている。
本発明の課金処理システムにおいて、データ処理部は、選択された参照画像について新たに取得された観測画像と画像マッチングする、ことができる。
本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像の類似度を画像マッチングにより求め、課金処理部は、類似度に基づいて参照画像に対応する課金位置において課金処理を行う、ことができる。
本発明の課金処理システムにおいて、データ処理部は、画像マッチングされる参照画像と観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、課金処理部は、推定の結果に基づいて参照画像に対応する課金位置において課金処理を行うことができる。
本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像に基づいて、当該参照画像に対応する課金位置をユーザ車両が通過する通過予測時刻を求め、課金処理部は、通過予測時刻にユーザ車両に課金処理を行う、ことができる。
本発明において、通過予測時刻を求める手法は少なくとも二つある。
一つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係に基づいて算出される課金位置までの距離に基づいて、通過予測時刻を求める。
二つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係と、ユーザ車両の走行速度に基づいて、通過予測時刻を求める。
以上説明した本発明の課金処理システムにおけるいくつかの構成要素は、ユーザ車両に搭載される車載器として実現される。つまり本発明は、ユーザ車両が道路を走行する際に課金処理を行う、ユーザ車両に搭載される車載器であって、道路上に設定される複数の課金位置に関連して予め取得された参照画像と、ユーザ車両が走行する道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴とする。
本発明の車載器は、以上説明した本発明の課金処理システムにおけるより具体的な形態を適用することができる。
本発明の課金処理システムによれば、参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、本発明の課金処理システムは、ユーザ車両が走行中に通過する位置を基準にして課金を可能にする。しかも、この課金処理システムは、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
また、本発明における課金処理システムにおいて特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、本発明によると、GPSを利用するのに比べて、課金の信頼性を担保できる。
本発明の第1実施形態に係る課金処理システムの概念を示す図である。 第1実施形態において、参照画像を取得する撮影車両が走行する様子を示す図である。 第1実施形態において、観測画像を取得するユーザ車両が走行する様子を示す図である。 第1実施形態における課金処理システムの構成の概要を示す図である。 第1実施形態におけるサーバが保持するデータベースの内容を示す図である。 第1実施形態におけるユーザ車両におけるマッチング処理の様子を示す図である。 第1実施形態におけるユーザ車両の処理の手順を示す図である。 第2実施形態におけるユーザ車両の処理の手順を示す図である。 第2実施形態において、観測画像を取得した位置と参照画像を取得した位置の関係を示す図である。 第2実施形態におけるサーバが保持するデータベースの内容を示す図である。 第2実施形態において適用するエゴモーション(Ego-motion)推定を説明する図である。 第2実施形態において、位置の推定の精度を向上する手法を説明する図である。 第3実施形態(第1の手法)において、課金位置を通過する時刻を推定する処理の内容を示す図である。 第3実施形態(第1の手法)におけるユーザ車両における課金処理の手順を示す図である。 第3実施形態(第2の手法)において、課金位置を通過する時刻を推定する処理の内容を示す図である。 第3実施形態(第2の手法)におけるユーザ車両における課金処理の手順を示す図である。
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。
[第1実施形態]
図1〜図3に示す車両の課金処理システム1は、GPSを用いることなく、課金対象領域Zにおけるユーザ車両30の走行位置に応じて、当該車両に対して課金処理を行うシステムである。また、システム1は、従来のガントリのように大規模な構造物を設けることなく、ユーザ車両30の走行位置に応じて課金処理ができるシステムである。
課金処理システム1は、予め撮影車両10が課金対象領域Zを走行して撮影して生成した参照画像情報に、ユーザ車両30が課金対象領域Zを走行しながら連続的に撮影して生成した観測画像情報を、マッチング処理することで、ユーザ車両30の走行位置を特定する。課金処理システム1は、特定された走行位置が課金をすべき位置に該当する場合には、ユーザ車両30に対して課金処理を行う。課金処理システム1は、図1に示すように、撮影車両10とユーザ車両30の他にホスト20を備えており、ホスト20が参照画像情報を保持している。
課金処理システム1を構築するに当たり、撮影車両10は、図2に示すように、課金対象領域Z内の道路Rを走行しながら、周囲の風景を撮影して参照画像を取得する。そのために、撮影車両10は、図4に示すように、参照画像取得部11と、測位部13と、参照画像記憶部15と、送受信部17とを備えている。
参照画像取得部11は、撮影車両10の周囲の全方位を、例えば10m、あるいは5mといった等間隔で撮影することで参照画像を取得するカメラを備えている。撮影車両10は、参照画像を取得しながら、測位部13により撮影車両10の緯度及び経度を測定する。撮影された参照画像は、当該画像が撮影された緯度及び経度(位置情報)と関連付けられた上で、参照画像記憶部15に記憶される。記憶された情報(以下、参照画像情報)は、送受信部17を介して、ホスト20に送られる。単数又は複数の撮影車両10を用い、課金対象領域Zとなる全ての道路Rについて取得された参照画像情報は、ホスト20に送られる。
撮影車両10は、測位部13が高性能な測位機器を備えることで、緯度及び経度を正確に測定する。
ホスト20は、図4に示すように、記憶部21と、データ処理部25と、送受信部27とを備えている。
ホスト20は、撮影車両10から送られる参照画像情報を、送受信部27を介して取得する。この参照画像情報は、観測画像とのマッチングに供するために、データ処理部25によって特徴量に変換した上で、記憶部21に記憶される。記憶部21は、例えば図5に示すように、参照画像情報データベース22と、課金情報データベース23と、顧客情報データベース24とを備えている。
参照画像情報データベース22は、図5に示すように、特徴量としての画像データ(画像#1,#2,#3…)と、その画像が取得された位置データ((Lat1,Lon1),(Lat1,Lon2),(Lat1,Lon3)…)とが対応付けられたテーブル形式の情報を保持している。
また、課金情報データベース23は、図5に示すように、課金される位置を緯度及び経度で示した課金位置データと、課金位置データにおいて課金される金額である課金額とが対応付けられたテーブル形式の情報を記憶している。課金情報データベース23に記憶される課金位置(データ)と課金額(データ)は、課金処理システム1を運用するのに当たって設定され、適宜の入力手段から送受信部27を介して記憶部21の課金情報データベース23に入力される。
また、顧客情報データベース24は、ユーザ車両に搭載されるユーザ車両30ごとに割り当てられた識別情報(ID)と課金の状況を対応付けて記憶している。新たに課金がなされる度に、顧客情報データベース24の記憶内容は更新される。
データ処理部25は、撮影車両10から送られる参照画像情報を特徴量に変換した上で、記憶部21の参照画像情報データベース22に記憶する。また、データ処理部25は、記憶部21の参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されている情報を読み出し、送受信部27を介してユーザ車両30に向けて送信する。
次に、ユーザ車両30は、図3に示すように、課金対象領域Zを走行中に撮影した周囲の風景に関する情報(観測画像情報)とホスト20に記憶された参照画像情報とをマッチング処理することにより、ユーザ車両30が課金位置を通過することを認識したならば、課金処理を行う。そのために、ユーザ車両30は、図4に示すように、観測画像取得部31と、データ処理部33と、課金処理部35と、送受信部37とを備える。なお、観測画像取得部31、データ処理部33、課金処理部35及び送受信部37からなる構成部分は、いわゆる車載器ユニットとしてユーザ車両30に搭載することができるが、ここでは単にユーザ車両30と表記する。
観測画像取得部31は、ユーザ車両30が課金対象領域Zを走行中に周囲の風景を撮影するとともに、撮影した画像情報をデータ処理部33に送る。なお、特徴量に変換された観測画像を観測画像情報という。
データ処理部33は、観測画像取得部31で撮影された観測画像情報とホスト20の記憶部21に記憶された参照画像情報とのマッチング処理を行い、マッチング処理の結果として課金位置の通過を特定する。より具体的には、以下の通りである。
データ処理部33は、観測画像取得部31で撮影された観測画像を取り込んで、これを特徴量に変換する。一方で、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の類似度を算出し、最も類似する参照画像情報を特定する。例えば、参照画像情報データベース22の参照画像情報♯3が最も類似度が大きいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に近似することを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
なお、参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24の区分はあくまで一例であり、例えば、参照画像情報データベース22と課金情報データベース23を統合したデータベースにすることもできる。要は、課金位置と、当該課金位置における課金額とが特定できればよい。
課金処理部35は、データ処理部33が課金位置を特定すると課金処理を実行する。
課金処理としては、特定された課金位置とこの課金位置に対応する課金額を自己のIDに対応付けて、ホスト20に送信する。ホスト20は、取得したこれらの課金処理に関する情報を、顧客情報データベース24の対応するIDの記録領域に記憶する。
また、課金処理として、ユーザ車両30の図示を省略するディスプレイに課金の事実を表示させる。表示の仕方としては、課金額だけを表示させることもできるし、課金位置と課金額を併記することもできる。ディスプレイに文字情報として課金の事実を表示するだけでなく、音声により課金の事実を通知することもできる。
[課金処理システム1の動作]
さて、以上の構成を備える課金処理システム1の動作を、図7を参照しながら説明する。なお、ホスト20の記憶部21には所定の参照画像情報、課金情報及び顧客情報がそれぞれ参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されているものとする。
いま、車載器ユニットを備えるユーザ車両30が、課金対象領域Zを走行しているものとする。
ユーザ車両30は、走行中にユーザ車両30の観測画像取得部31により周囲の風景の画像を撮影するとともに、特徴量に変換して観測画像情報を取得する(図7 S101)。
ユーザ車両30は、観測画像情報を取得したならば、次いで、データ処理部33にてマッチング処理を行う(図7 S103)。マッチング処理の具体的な内容は前述した通りであるが、このマッチング処理により、最も類似度の大きな参照画像情報が特定される。例えば、図6において、取得された観測画像情報に対する類似度が最も大きいのが参照画像情報♯3だとすると、データ処理部33は参照画像情報♯3を現在のユーザ車両30の位置と特定する。
ユーザ車両30は、次に、特定したユーザ車両30の位置が課金位置に該当するか否かの判断を行う(図7 S105)。
この判断は、データ処理部33がホスト20の課金情報データベース23から読み出した課金情報に特定したユーザ車両30の位置を照合することにより行われる。対応する課金位置が照合されたならば(図7 S105 Y)、データ処理部33は次に課金処理を行う(図7 S107)。課金処理の具体的な内容は前述したとおりである。課金処理を終えたならば新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
一方、対応する課金位置が照合されなければ(図7 S105 N)、新たに観測画像情報を取得し、やはり新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
[課金処理システム1の効果]
以上説明したように、課金処理システム1は参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、課金処理システム1は、ユーザ車両30が走行中に通過する位置を基準にした課金を可能にする。しかも、課金処理システム1は、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
また、課金処理システム1において特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、課金処理システム1によると、GPSを利用するのに比べて、課金の信頼性を担保できる。
[変更例]
以上、本発明による好適な実施形態を、課金処理システム1を例にして説明したが、本発明の主旨を逸脱しない範囲で課金処理システム1の構成を変更することができる。
例えば、課金処理システム1は、ユーザ車両30とは別体として遠隔地に存在するホスト20の記憶部21に参照画像所情報及び課金情報を記憶させているが、記憶媒体の容量が許すのであれば、ユーザ車両30に参照画像所情報及び課金情報を記憶させることもできる。
また、課金処理システム1は、ユーザ車両30において、マッチング処理及び課金処理を行っている。しかし、本発明は、ユーザ車両30にて撮影したユーザ車両30の周辺の画像である観測画像をホスト20に送信し、ホスト20にて観測画像の特徴化、マッチング処理及び課金処理を行うこともできる。つまり本発明は、ユーザ車両30をも含めた課金処理システム1の全体として、マッチング処理及び課金処理が行うことができればよい。
また、課金処理システム1は、現状では課金位置に該当しない位置についても参照画像情報データベース22に記憶しているが、これにより後に課金位置を変更するのに迅速に対応することができる。例えば、現在は♯3が課金位置とされているが、後に、♯3から♯4に課金位置が変更される場合に、改めて♯4に対応する参照画像を撮影する必要がない。ただし、本発明は、課金位置に該当する観測画像情報だけを参照画像情報データベース22に記憶する対象にすることができる。この場合には、課金情報を観測画像情報に含めることもでき、課金情報データベース23を個別に設ける必要がなくなる。
また、課金処理システム1は、全ての参照画像情報を観測画像情報にマッチング処理する対象にしているが、参照画像情報データベース22に記憶されている一部の参照画像に絞ってマッチング処理を行うことができる。例えば、先行して特定された課金位置に基づいてユーザ車両30が次に通過しうるいくつかの課金位置を抽出し、抽出された課金位置に絞ってマッチング処理を行うことができる。例えば、課金位置として♯3が先行して特定されたものとし、道路の繋がり具合により、次に通過しうる課金位置が♯5、♯11及び♯14に限られるのであれば、♯5、♯11及び♯14に該当する参照画像情報だけに観測画像情報をマッチング処理することができる。また、ユーザ車両30がGPSに基づくカーナビゲーションシステムを備えている場合には、GPS信号により求められるユーザ車両30の自己位置に所定の距離関係を有する参照画像情報だけを参照画像情報データベース22から抽出して、マッチング処理の対象にすることができる。
[第2実施形態]
次に、本発明の第2実施形態について、図8〜図10を参照して説明する。
第1実施形態は、マッチング処理により特定される位置の精度が、参照画像が撮影される間隔に依存する。つまり、第1実施形態のように10m間隔で参照画像を撮影した場合には、得られる精度は最高でも±5mの範囲内に限られる。そこで、第2実施形態においては、参照画像の間隔よりも高い精度で位置を特定する手法を提案する。
第2実施形態に係る課金処理システム2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点を中心に課金処理システム2を説明する。
始めに、課金処理システム2の概要を、図8〜図9を参照して説明する。
課金処理システム2は、図8に示すように、マッチング処理(図7のS103に相当)において、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出する(図8 S203)。この算出は、データ処理部33(図4)が以下のようにして行う。つまり、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の相対的な位置関係である距離△L1〜Nを算出する。そして、データ処理部33は、算出された距離△L1〜Nが最も小さい参照画像情報♯1〜♯Nを特定する。例えば、参照画像情報データベース22の参照画像情報♯3までの距離△L3が最も小さいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に最も近く、距離△L3だけ離れていることを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
以上の相対位置関係の算出には、画像を用いて環境内におけるカメラの三次元移動を推定する処理であるエゴモーション(Ego-motion)推定を適用すればよい。ただし、以上の処理を行うためには、図10に示すように、参照画像情報としてスケール情報を備える必要がある。なお、図10は、課金情報データベース23及び顧客情報データベース24の記載を省略している。
スケール情報は、図11に示すように、参照画像情報に任意の二点A,Bを結ぶ線分の距離(実寸法:SA−Bとする)である。エゴモーション推定による相対位置関係の算出手法は、例えば非特許文献1に開示されるように公知であるので、詳細は省略するが、マッチング処理される観測画像情報であって、任意の二点A,Bに対応する二点a,bを結ぶ線分の実寸法Sa−bをSA−Bとみなすことにより、相対的な位置関係を算出できる。なお、図11において、Pは参照画像の撮影位置を示し、また、Dは観測画像の撮影位置を示している。
[第2実施形態の効果]
以上の通りであるから、第2実施形態によると、以下の効果を奏することができる。
はじめに、第2実施形態は、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出するので、参照画像を撮影した間隔よりも高い精度で推定された位置に基づいて、課金位置を特定することができる。
また、例えば、ユーザ車両30が走行する車線が複数存在する場合に、参照画像を撮影した車線とユーザ車両30が走行する車線とが相違する場合であっても、相対的な位置関係を算出することで、高い精度で課金位置を特定することができる。
また、第2実施形態によると、参照画像情報の数を減らしたとしても、課金位置までの距離を推定できるので、撮影車両10で撮影し、かつ、ホスト20の参照画像情報データベース22に記憶する参照画像情報の数を減らすことができる。
[第2実施形態の変更例]
以上で説明した第2実施形態による位置の推定の精度を、さらに向上することができる。以下、この手法を説明する。
この精度向上の手法は、画像マッチング処理において、複数の全方位画像を撮影した位置と、車載カメラとの相対位置関係を算出し、各時刻での相対位置として複数の情報を得る。得られた複数の情報を統合、典型的には平均化することで、各々の画像マッチング処理で発生した誤差の影響を低減するというものである。以下、図12を参照してより具体的に説明する。
図12は、参照画像を撮影した位置が道路R上にP1,P2,P3,P4として示しており、この道路R上をユーザ車両30が走行しながら観測画像を撮影し、マッチング処理を行うものとする。ここでは、位置D1において撮影された観測画像$について処理する例を示す。
位置D1において撮影された観測画像と位置P1,P2,P3,P4の各々で撮影された参照画像との相対的位置関係を算出する。なお、位置P1,P2,P3,P4の各々の間隔は、正確にはα(例えば10m)とする。
算出結果が、例えば図12に示すように、位置D1と位置P1の距離△L1、位置D1と位置P2の距離△L2、位置D1と位置P3の距離△L3、位置D1と位置P4の距離△L4として求められるものとする。上述したように、△L1だけで位置D1と位置P1の距離を推定することができるが、ここでは△L2、△L3及び△L4の算出結果も考慮して、位置D1と位置P1の距離△Lを算出する。そのために、下記式(1)に示すように、△L1に位置P1から位置P2,P3,P4の各々までの正確な距離(α,2α,3α)を差し引いた値を加えて平均化する。
△L=(△L1+(△L2−α)+(△L3−2α)+(△L4−3α))/4 …式(1)
以上のように平均化することにより、マッチング処理で発生する誤差の影響を低減できるので、第2実施形態における位置の推定精度をより向上できる。
なお、本発明において、単純に算術的に平均化するだけでなく、重み付けを適用することができる。重み付けは、例えば、距離が遠くなれば係数を小さくする、という具合であり、△L1、△L2、△L3及び△L4の項に乗ずる係数を順に小さくする。
[第3実施形態]
次に、本発明の第3実施形態について、図13〜図16を参照して説明する。
第1実施形態及び第2実施形態は、「課金位置の風景」と最も類似する画像であることが、課金位置を通過した後にしか判明できない。その結果、ユーザ車両30が課金位置を通過した瞬間に、ユーザ車両30がこの通過を判断し、かつ課金処理することができない。
第3実施形態は、課金位置を通過した瞬間に課金処理を行うことができる手法を提供する。第3実施形態は、第1の手法と第2の手法の二つの手法を提案する。
第1の手法は、第2実施形態で用いた参照画像情報と観測画像情報に基づいて、ユーザ車両30の課金位置までの距離を時系列的に算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。第2の手法は、ユーザ車両30で撮影された観測画像から、ユーザ車両30の走行速度を算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。以下、第1の手法、第2の手法の順で説明する。
[第1の手法]
第1の手法は、課金位置が特定されている参照画像情報と観測画像情報をマッチング処理することにより、ユーザ車両30の相対的な位置関係を算出する。相対的な位置関係の算出は、第2実施形態と同様にして行う。この相対位置関係を算出すると、課金位置Pの手前の地点においては、課金位置Pまでの距離が算出できる。この処理を時系列的に行うと、課金位置Pまでの距離の時系列変化が算出できるが、この時系列変化を外挿すると、課金位置Pに達する前に、当該ユーザ車両30が課金位置Pを通過する時刻を予測できる。したがって、この予測通過時刻を用いることにより、ユーザ車両30は課金位置Pを通過した瞬間に課金処理を行うことが可能となる。以下、図13及び図14を参照して、第1の手法をより具体的に説明する。
第1の手法に係る課金処理システム3−1は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点、つまり図14に示される手順のS205,S206に関する処理を中心に課金処理システム3−1を説明する。
図13(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路R上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pに基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、観測位置D1と課金位置Pの相対的位置関係を算出し、次いで、観測位置D1と課金位置Pの間の距離△L1を求める。これを、横軸が時間、縦軸が距離のグラフ上に示すと、図13(b)の通りである。
同様にして、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。そうすると、課金位置Pまでの距離の時系列変化が求められ、それらを順に外挿すると、図13(c),(d),(e)の白抜き矢印にて示ように、課金位置Pを通過する時刻を事前に予測することができる。
図13(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。
[第2の手法]
第2の手法は、ユーザ車両30の課金位置Pまでの距離を算出し、かつ、ユーザ車両30が課金位置Pの通過時刻を予測する点で第1の手法と共通する。しかし、第2の手法は、この予測にユーザ車両の走行速度を用いる。
第2の手法に係る課金処理システム3−2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で課金処理システム3−1と共通する。そこで、以下では、課金処理システム3−1との相違点、つまり図16に示される手順のS202,S204,S205に関する処理を中心に課金処理システム3−2を説明する。
図15(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pにおける基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、第1の手法と同様にして、観測位置D1と課金位置Pの間の距離△L1、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。
以上の距離の算出と並行して、データ処理部33は、連続的に撮影される観測画像から、ユーザ車両30の走行速度vを算出する。この走行速度vは、例えばビジュアルオドメトリ(Visual Odometry)により算出することができる。ビジュアルオドメトリにより算出される走行速度vの精度を向上するために、参照画像取得部11を設けてステレオ画像を撮影することもできる。また、走行速度vは、観測画像から求める他に、ユーザ車両30が備える機器、例えば、加速度センサ、エンコーダにより得られる速度を用いることもできる。
データ処理部33は、観測位置D1における走行速度v1、観測位置D2における走行速度v2、観測位置D3における走行速度v3及び観測位置D4における走行速度v4を時系列的に求める。
データ処理部33は、算出される距離△L1と走行速度v1を、カルマンフィルタ(Kalman filter)等の確率的なモデルを用いて融合して、課金位置Pを通過する時刻を事前に予測することができる。
同様にして、観測位置D2、観測位置D3及び観測位置D4において、図15(c),(d),(e)に示すように、課金位置Pを通過する時刻を事前に予測することができる。
図15(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。
課金処理システム3−2は、通過時刻の予測に当たり、ユーザ車両30の走行速度vを用いる。走行速度vは、走行距離が長ければ大きく変動しうるが、課金位置Pを含む比較的短距離であれば、変動が小さいとみなすことができるので、通過時刻を予測することができる。走行速度vは、所定期間の平均走行速度を用いることができる。例えば、観測位置D1において適用する走行速度v1は、観測位置D1に達するまでの所定期間における走行速度vの平均値、観測位置D2において適用する走行速度v2は、観測位置D1と観測位置D2の間の走行速度の平均値、というように設定することができる。なお、ユーザ車両30の走行速度vは、通常、カーナビゲーションシステムが測定しかつ記録しているので、そのデータを使用してもよい。
以上、本発明の好ましい実施形態を説明したが、本発明の主旨を逸脱しない限り、上記実施の形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
例えば、ユーザ車両30が備えるデータ処理部33、課金処理部35の機能をホスト20に持たせることもできる。逆に、ホスト20のデータ処理部25の機能をユーザ車両30に持たせることができる。
1 課金処理システム
10 撮影車両
11 参照画像取得部
13 測位部
15 参照画像記憶部
17 送受信部
20 サーバ
21 記憶部
22 参照画像情報データベース
23 課金情報データベース
24 顧客情報データベース
25 データ処理部
27 送受信部
30 ユーザ車両
31 観測画像取得部
33 データ処理部
35 課金処理部
37 送受信部
R 道路
Z 課金対象領域

Claims (14)

  1. ユーザ車両が道路を走行する際に課金処理を行う課金処理システムであって、
    前記道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、
    前記ユーザ車両に設けられ、前記ユーザ車両が走行する前記道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、
    記憶されている前記参照画像と新たに取得された前記観測画像を画像マッチングするデータ処理部と、
    前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
    を備えることを特徴とする、課金処理システム。
  2. 前記データ処理部は、
    選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
    請求項1に記載の課金処理システム。
  3. 前記データ処理部は、
    前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
    前記課金処理部は、
    前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
    請求項1又は請求項2に記載の課金処理システム。
  4. 前記データ処理部は、
    前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
    前記課金処理部は、
    前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
    請求項1又は請求項2に記載の課金処理システム。
  5. 前記データ処理部は、
    前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
    前記課金処理部は、
    前記通過予測時刻に前記ユーザ車両に課金処理を行う、
    請求項1〜請求項4のいずれか一項に記載の課金処理システム。
  6. 前記データ処理部は、
    前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
    請求項5に記載の課金処理システム。
  7. 前記データ処理部は、
    前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
    請求項5又は6に記載の課金処理システム。
  8. ユーザ車両が道路を走行する際に課金処理を行う、前記ユーザ車両に搭載される車載器であって、
    前記道路上に設定される複数の課金位置に関連して予め取得された参照画像と、前記ユーザ車両が走行する前記道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、
    前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
    を備えることを特徴とする、車載器。
  9. 前記データ処理部は、
    選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
    請求項8に記載の車載器。
  10. 前記データ処理部は、
    前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
    前記課金処理部は、
    前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
    請求項8又は請求項9に記載の車載器。
  11. 前記データ処理部は、
    前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
    前記課金処理部は、
    前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
    請求項8又は請求項9に記載の車載器。
  12. 前記データ処理部は、
    前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
    前記課金処理部は、
    前記通過予測時刻に前記ユーザ車両に課金処理を行う、
    請求項8〜請求項11のいずれか一項に記載の車載器。
  13. 前記データ処理部は、
    前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
    請求項12に記載の車載器。
  14. 前記データ処理部は、
    前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
    請求項12又は13に記載の車載器。
JP2014183070A 2014-09-09 2014-09-09 課金処理システム Active JP5980283B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014183070A JP5980283B2 (ja) 2014-09-09 2014-09-09 課金処理システム
PCT/JP2015/000472 WO2016038755A1 (ja) 2014-09-09 2015-02-03 課金処理システム
MYPI2015703674A MY175964A (en) 2014-09-09 2015-02-03 Charging processing system
SG11201508484QA SG11201508484QA (en) 2014-09-09 2015-02-03 Charging processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183070A JP5980283B2 (ja) 2014-09-09 2014-09-09 課金処理システム

Publications (2)

Publication Number Publication Date
JP2016057801A JP2016057801A (ja) 2016-04-21
JP5980283B2 true JP5980283B2 (ja) 2016-08-31

Family

ID=55458538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183070A Active JP5980283B2 (ja) 2014-09-09 2014-09-09 課金処理システム

Country Status (4)

Country Link
JP (1) JP5980283B2 (ja)
MY (1) MY175964A (ja)
SG (1) SG11201508484QA (ja)
WO (1) WO2016038755A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112602122B (zh) * 2018-08-24 2023-08-11 日本电信电话株式会社 车道定价装置、方法以及记录介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5495583B2 (ja) * 2009-02-27 2014-05-21 三菱重工業株式会社 課金システム、課金方法、制御装置及びプログラム
JP2013061270A (ja) * 2011-09-14 2013-04-04 Mitsubishi Electric Corp 現在位置算出装置および現在位置算出方法
JP6110632B2 (ja) * 2012-11-05 2017-04-05 三菱重工メカトロシステムズ株式会社 課金処理システム、課金処理方法、課金処理装置、プログラム、及び記録媒体
JP6103980B2 (ja) * 2013-02-22 2017-03-29 三菱重工メカトロシステムズ株式会社 通過検知システム、通過検知方法、通過検知装置、プログラム、及び記録媒体

Also Published As

Publication number Publication date
WO2016038755A1 (ja) 2016-03-17
SG11201508484QA (en) 2016-04-28
JP2016057801A (ja) 2016-04-21
MY175964A (en) 2020-07-16

Similar Documents

Publication Publication Date Title
US10267924B2 (en) Systems and methods for using a sliding window of global positioning epochs in visual-inertial odometry
US10788830B2 (en) Systems and methods for determining a vehicle position
EP3137850B1 (en) Method and system for determining a position relative to a digital map
US20180154901A1 (en) Method and system for localizing a vehicle
US11915440B2 (en) Generation of structured map data from vehicle sensors and camera arrays
CN112116654B (zh) 一种车辆位姿确定方法、装置及电子设备
JP6656886B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US9275458B2 (en) Apparatus and method for providing vehicle camera calibration
JP6950832B2 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
US11002553B2 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
JP6759175B2 (ja) 情報処理装置および情報処理システム
JP2008249666A (ja) 車両位置特定装置および車両位置特定方法
JP6395010B2 (ja) 課金位置評価用情報提供システム
CN113316706A (zh) 路标位置估计设备和方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
KR102037129B1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
JP2019016188A (ja) 移動体遠隔操作システムおよび移動体遠隔操作方法
CN110851545A (zh) 地图绘制方法、装置及设备
JP2009074861A (ja) 移動量計測装置及び位置計測装置
JP2018189457A (ja) 情報処理装置
TW202229818A (zh) 使用週期性地更新的錨座標系進行車道映射和定位
JP5980283B2 (ja) 課金処理システム
JP2021043486A (ja) 位置推定装置
WO2023037570A1 (ja) 車載処理装置、車両制御装置、及び自己位置推定方法
RU2772620C1 (ru) Создание структурированных картографических данных с помощью датчиков транспортного средства и массивов камер
CN118089754A (zh) 用于为车辆导航创建道路交通网地图表示的方法和计算单元

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R151 Written notification of patent or utility model registration

Ref document number: 5980283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151