JP2021056841A - 教師データ作成装置及び画像分類装置 - Google Patents

教師データ作成装置及び画像分類装置 Download PDF

Info

Publication number
JP2021056841A
JP2021056841A JP2019180165A JP2019180165A JP2021056841A JP 2021056841 A JP2021056841 A JP 2021056841A JP 2019180165 A JP2019180165 A JP 2019180165A JP 2019180165 A JP2019180165 A JP 2019180165A JP 2021056841 A JP2021056841 A JP 2021056841A
Authority
JP
Japan
Prior art keywords
vehicle
image
teacher data
lane
correct answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019180165A
Other languages
English (en)
Inventor
祐一 梅実
Yuichi Umemi
祐一 梅実
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2019180165A priority Critical patent/JP2021056841A/ja
Priority to FR2008363A priority patent/FR3101462B1/fr
Priority to US17/035,653 priority patent/US20210097340A1/en
Publication of JP2021056841A publication Critical patent/JP2021056841A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】機械学習の技術を用いて、ある車両の周囲に存在する別の車両を効率的に検出する。【解決手段】教師データ作成装置100は、車載カメラにより撮影された、周囲の車両の画像を取得する取得部110と、前記取得部により取得された前記画像に写っている車両に関し、教師あり学習のための正解データを受け付ける受付部120と、前記取得部により取得された前記画像と、前記受付部により受け付けられた前記正解データとを組み合わせてなる教師あり学習のための教師データを作成する作成部130とを備える。前記受付部は、前記正解データとして、前記画像に写っている車両の種類と、前記画像において車両が写っている領域の位置及びサイズとを受け付ける。【選択図】図4

Description

本発明は、教師データ作成装置及び画像分類装置に関する。
特許文献1に、車両などの移動体に搭載され、該移動体の周囲の対象物体を監視する周辺監視装置が記載されている。この周辺監視装置は、移動体の周囲の画像を時系列に取得する画像取得部と、その画像取得部で得られた時系列画像から移動成分を算出する時系列情報算出部とを備えている。移動成分として2次元オプティカルフローが挙げられている。
特開2010−286926号公報
周辺監視装置などの装置において、オプティカルフローを用いて何らかの物体が検出されたとしても、同装置にとってその物体が何であるかはわからないのが通常である。そのため、物体の検出結果に基づいてなされる警報あるいは注意喚起が誤ったものとなる可能性がある。また、オプティカルフローの算出に必要な計算量は、検出精度の向上を図るべく、膨大になりやすい。
本発明は、機械学習の技術を用いて、ある車両の周囲に存在する別の車両を効率的に検出することを目的とする。
上記目的を達成するために、教師データ作成装置は、車載カメラにより撮影された、周囲の車両の画像を取得する取得部と、前記取得部により取得された前記画像に写っている車両に関し、教師あり学習のための正解データを受け付ける受付部と、前記取得部により取得された前記画像と、前記受付部により受け付けられた前記正解データとを組み合わせてなる教師あり学習のための教師データを作成する作成部とを備え、前記受付部は、前記正解データとして、前記画像に写っている車両の種類と、前記画像において車両が写っている領域の位置及びサイズとを受け付ける。
本発明によれば、機械学習の技術を用いて、ある車両の周囲に存在する別の車両を効率的に検出することができる。
車両の通行状況を示す説明図である。 車載カメラにより撮影された画像を示す説明図である。 教師あり学習のための例題画像を示す説明図である。 教師データ作成装置の機能構成例を示す説明図である。 教師データ作成装置のコンピュータハードウェア構成例を示す説明図である。 車載システムの説明図である。
以下、本発明を図示の実施の形態に基づいて説明する。ただし、本発明は、以下に説明する実施の形態によって限定されるものではない。
以下に述べる実施形態は、安全な車両運転を支援する技術に関する。具体的には、本実施形態は、四輪自動車などの車両(自車)が高速道路などの道路を走行している場合に、当該車両周囲における別の車両(後続車など)の存在を把握しやすくするための技術に関する。
後続車の状況の例を以下に挙げる。
(1)自車の走行車線に隣接する車線を走行し、自車を追い越そうとしている。
(2)自車に接近しながら、自車と同じ車線を走行している。
(3)自車との車間距離を保ったまま、自車と同じ車線を走行している。
前述のとおり、従来技術の問題は、検出されたものが検出を行った装置にとって何であるかがわからないということである。これを踏まえて、以下に述べる実施形態は、生データ収集後の処理に、検出するものを直接認識するプロセスが組み込めれば、処理の全体的な流れがシンプルになり、誤検出に伴う誤警報を減らすこともできるという見地に基づくものである。本実施形態では、生データ収集後の処理に、機械学習による物体認識を適用する。
機械学習の適用に際しては、「学習のさせ方」と「判定時の結果の利用方法」とが重要である。
[1.学習のさせ方]
図1に、3つの車線A1〜A3を有する平坦な道路における通行状況の一例を示す。第1車線A1と第2車線A2と第3車線A3とはいずれも直線状かつ通行方向が同じであり、第1車線A1の通行方向右側に第2車線A2が位置し、さらに第2車線A2の通行方向右側に第3車線A3が位置している。
同図において、符号B1は第1車線A1の通行方向左側の境界であり、符号B2は第1車線A1と第2車線A2との境界である。また、符号B3は第2車線A2と第3車線A3との境界であり、符号B4は第3車線A1の通行方向右側の境界である。
第1車両1は、一例として軽自動車であり、第2車線A2を走行している。第2車両2は、一例としてトラックであり、第1車両1の後方において第1車線A1を走行している。
第1車両1の後部には、当該車両の車両後方を撮影するカメラが取り付けられている。このカメラで撮影した際に画像に写る範囲を符号Dにより示す。
図1において、直線L1及びL2並びに直線M1〜M4は仮想的なものである。まず、直線L1は、第1車両1の後端部の直下にある道路上の点を通り、かつ車幅方向に延びている。直線L2は、第2車両2の前端部の直下にある道路上の点を通り、かつ車幅方向に延びている。直線L1と直線L2との距離を符号Nにより示す。
直線M1は、直線L2と境界B4との交点を通り、かつ重力方向に延びており、直線M2は、直線L2と境界B3との交点を通り、かつ重力方向に延びている。また、直線M3は、直線L2と境界B2との交点を通り、かつ重力方向に延びており、直線M4は、直線L2と境界B1との交点を通り、かつ重力方向に延びている。
図2に、上記カメラにより得られた矩形の画像IM1を示す。この画像には、車線A1〜A3と境界B1〜B4と第2車両2とが写っている。この画像において、符号D2は、第2車両2が写っている領域を含み、かつ大きさが最も小さい矩形の領域である。この矩形領域の4つの辺のうち、2つの辺は画像IM1の水平方向に延び、残りの2つの辺は画像IM1の垂直方向に延びている。
仮想的な直線L2aは、領域D2の左下の頂点と右下の頂点とを通り、画像IM1の水平方向に延びている。直線L2aは、画像IM1の最も左上にあるピクセルを原点とする画像座標系において、第n番目の行ピクセルにあたる。ただし、序数nは自然数である。直線L2aは図1の直線L2と対応し、序数nは図1の距離Nと対応する。距離Nが小さいほど序数nは大きくなり、距離Nが大きいほど序数nは小さくなる。
仮想的な直線M1aは、画像上の境界B4と直線L2aとの交点Pを通り、画像の垂直方向に延びている。この直線M1aは、上記画像座標系において第m番目の列ピクセルにあたり、図1の直線M1と対応する。ただし、序数mは自然数である。
仮想的な直線M2aは、画像上の境界B3と直線L2aとの交点Pを通り、画像の垂直方向に延びている。この直線M2aは、上記画像座標系において第m番目の列ピクセルにあたり、図1の直線M2と対応する。ただし、序数mは自然数である。
仮想的な直線M3aは、画像上の境界B2と直線L2aとの交点Pを通り、画像の垂直方向に延びている。この直線M3aは、上記画像座標系において第m番目の列ピクセルにあたり、図1の直線M3と対応する。ただし、序数mは自然数である。
仮想的な直線M4aは、画像上の境界B1と直線L2aとの交点Pを通り、画像の垂直方向に延びている。この直線M4aは、上記画像座標系において第m番目の列ピクセルにあたり、図1の直線M4と対応する。ただし、序数mは自然数である。
序数m〜mについて、m<m<m<mが成り立つ。
画像IM1を例題画像として教師データを作成する際は、第2車両2が写っている領域D2に関する情報(画像内の位置、サイズなど)を正解データとする。このようにして作成された教師データにより学習がなされた学習済みモデルに、分類の対象となる対象画像を入力すると、対象画像からトラックを抽出する際、矩形の領域のピクセル値を結果として出力する。このいわゆる判定領域(下図中の水色で示したトラック前面の矩形領域)の下端は道路上のトラックの前端を示すことになる。
[2.判定時の結果の利用方法]
自車のカメラ位置及び角度と、自車と道路上の車線の方向との間の関係とが既知であることから、図2に示した画像IM1における行ピクセル及び列ピクセルと、図1に示した実際の空間上の距離との間には、一対一対応の関係が成り立つ。
分類の対象となる対象画像において、トラックと判定された判定領域の下端線L2aの画像中の位置によって、自車からトラックまでの実際の距離(図1の距離N)が判別できる。さらに、判定された車両の走行車線(自車と同一の車線又は隣接する車線)が判別できる。
後続車が現れる画像内位置が学習されるため、対象画像の分類時には、その位置に車両が出現するのを待ち構える、という考え方である。
上記「1.学習のさせ方」及び「2.判定時の結果の利用方法」によって、従来手法で用いていた分別処理が不要となり、処理の早い段階で移動物と判定し、自車との関係において安全か否かの判定に移行することができる。従来技術に比べ、処理時間短縮と検出精度向上とのバランスを高い水準で実現できる。
以下に述べる実施形態は、3つの段階に分けられる。第1段階では教師データが作成される。第2段階では、第1段階で作成された教師データによる学習が行われて学習済みモデルが生成される。第3段階では、第2段階で生成された学習済みモデルを用いて、分類の対象となる対象画像の分類が行われる。
[第1段階 教師データの作成]
図3に、教師あり学習の例題となる例題画像DT1を示す。この例題画像に対して正解データが付与され、例題画像と正解データとの組み合わせである教師データが作成される。以下、この例題画像を用いた教師データの作成について具体的に説明する。
なお、例題画像DT1は静止画像である。例題画像D1は、動画から抽出された静止画像でもよい。
なお、正解データは、ラベル又はタグとも呼ばれる。例題画像に教師データを付与する処理は、ラベル付け、タグ付け又はアノテーションとも呼ばれる。
例題画像DT1は、図2に示した画像IM1と同様、車線A2を走行中の第1車両1の車載カメラにより撮影された周囲の車両の画像である。例題画像DT1には、第1物体C1と第2物体C2とが写っている。符号F1は、第1物体C1が写っている領域を含み、かつ大きさが最も小さい矩形の領域である。この矩形領域の4つの辺のうち、2つの辺は画像の水平方向に延び、残りの2つの辺は画像の垂直方向に延びている。符号F2は、第2物体C2が写っている領域を含み、かつ大きさが最も小さい矩形の領域である。この矩形領域の4つの辺のうち、2つの辺は画像の水平方向に延び、残りの2つの辺は画像の垂直方向に延びている。
第1物体に関して付与される正解データは以下の通りである。
種類: 乗用車
画像内サイズ: 15,10
画像内位置: 300,90
距離 100メートル
車線 自車と同じ車線(中央車線)
第2物体に関して付与される正解データは以下の通りである。
種類: トラック
画像内サイズ: 45,40
画像内位置: 325,100
距離 80メートル
車線 自車の車線の通行方向左側にある車線
上記正解データのうち、「種類」は車両の種類であり、例えば「乗用車」と「トラック」と「バス」とを種類の候補として定めることができる。候補の定め方によって、後述する第3段階における画像分類の分類先が変わることから、所望の分類先に応じて候補を定めればよい。本例では、第1物体の種類は「乗用車」であり、第2物体の種類は「トラック」である。
「画像内サイズ」は、画像において第1物体及び第2物体の各々が写っている矩形領域F1及びF2の水平方向及び垂直方向のサイズである。第1物体の場合は、水平方向のサイズが15ピクセル、垂直方向のサイズが10ピクセルである。第2物体の場合は、水平方向のサイズが45ピクセル、垂直方向のサイズが40ピクセルである。
「画像内位置」は、各矩形領域F1及びF2の最も左下にあるピクセルの座標である。第1物体の場合は、x座標が300であり、y座標が90である。第2物体の場合は、x座標が325であり、y座標が100である。
「距離」は、自車から各物体までの距離(図1の距離N)である。第1物体が写っている矩形領域F1の下端を通る直線が第90番目の行ピクセルに相当する。このことから、自車から第1物体までの「距離」は100メートルである。また、第2物体が写っている矩形領域F2の下端を通る直線が第100番目の行ピクセルに相当する。このことから、自車から第2物体までの「距離」は80メートルである。
一例であるが、自車から100メートルの位置にある車両を撮影し、その撮影画像において車両が写っている領域の下端の行ピクセル番号を事前に得ておく。その行ピクセル番号を基準として、上記第1物体及び第2物体の「距離」を求めることができる。
「車線」は、各車両が走行する車線である。第1物体の場合は、距離が100メートルで画像内位置が300,90であることから、「車線」は「自車と同じ車線」である。第2物体の場合は、距離が80メートルで画像内位置が325,100であることから、「車線」は「自車の車線の通行方向左側にある車線」である。
正解データとして、「種類」と「画像内サイズ」と「画像内位置」と「距離」と「車線」という5つの項目を挙げたが、これはあくまでも一例である。正解データとして、「種類」と「距離」と「車線」という3つの項目に絞ってもよい。あるいは、正解データとして、「種類」と「画像内サイズ」と「画像内位置」という3つの項目に絞ってもよい。「画像内サイズ」及び「画像内位置」と、「距離」及び「車線」とが対応関係にあることは、図1を参照しながら述べたとおりである。
正解データを、「種類」と「距離」と「車線」という3つの項目とした場合についてさらに説明する。以下の表1に、各項目が取りうる具体的なデータを示す。まず、「種類」の具体的なデータは、一例として、「乗用車」と「トラック」と「二輪車」の3通りとする。「車線」の具体的なデータは、一例として、「自車と同じ車線」、「隣接する右側車線」、「隣接する左側車線」の3通りとする。「距離」の具体的なデータは、一例として、「10m」、「50m」、「80m」、「100m」の4通りとする。つまり、3×3×4=36通りの正解データを用意することができる。
Figure 2021056841
教師データの作成は、図4に示す教師データ作成装置100により行われる。教師データ作成装置100は、取得部110と受付部120と作成部130とを備えている。
取得部110は、車載カメラにより撮影され、自車とは別の車両が写っている画像DT1を取得する。受付部120は、取得部110により取得された画像DT1に写っている車両に関し、手作業により入力された正解データを受け付ける。画像DT1に関する正解データは先に述べたとおりである。作成部130は、取得部110により取得された画像DT1と、受付部120により受け付けられた正解データとを組み合わせてなる教師データを作成する。
図5に、教師データ作成装置100のコンピュータハードウェア構成例を示す。教師データ作成装置100は、CPU151と、インタフェース装置152と、表示装置153と、入力装置154と、ドライブ装置155と、補助記憶装置156と、メモリ装置157とを備えており、これらがバス158により相互に接続されている。
教師データ作成装置100の機能を実現するプログラムは、CD−ROM等の記録媒体159によって提供される。プログラムを記録した記録媒体159がドライブ装置155にセットされると、プログラムが記録媒体159からドライブ装置155を介して補助記憶装置156にインストールされる。あるいは、プログラムのインストールは必ずしも記録媒体159により行う必要はなく、ネットワーク経由で行うこともできる。補助記憶装置156は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置157は、プログラムの起動指示があった場合に、補助記憶装置156からプログラムを読み出して格納する。CPU151は、メモリ装置157に格納されたプログラムにしたがって教師データ作成装置100の機能を実現する。インタフェース装置152は、ネットワークを通して他のコンピュータに接続するためのインタフェースとして用いられる。表示装置153はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置154はキーボード及びマウス等である。
[第2段階 学習済みモデルの生成]
第2段階では、第1段階にて作成された教師データによる学習が行われる。これにより、学習済みモデルが生成される。教師データから学習済みモデルを生成する方法は既に知られており、本実施形態においても既知の方法を用いる。
[第3段階 対象画像の分類]
第3段階では、第2段階にて生成された学習済みモデルを用いて、分類の対象となる対象画像の分類が行われる。第3段階は、図6に示す車載システム200により行われる。車載システム200においてはさらに、対象画像の分類結果に応じて、当該システムが搭載された車両の運転者に対し警報が出される。
車載システム200は、車載カメラ210と、コントローラ220と、HMI(ヒューマン・マシン・インターフェース)装置230とを備えている。コントローラ220は、取得部222a及び分類部222bを有する画像分類装置222と、警報生成装置224とを備えている。
車載カメラ210は、車載システム200が搭載された当該車両の車両後方を撮影する。車載カメラ210により取得された対象画像は、コントローラ220内の画像分類装置222へ送られる。
画像分類装置222内の取得部222aは、車載カメラ210から送られてきた対象画像を取得し、当該画像を分類部222bに送る。分類部222bには、第2段階にて生成された学習済みモデルが組み込まれている。分類部222bは、この学習済みモデルを用いて、取得部222aから送られてきた対象画像を、その対象画像に写っている車両の種類とその車両が位置する車線と自車からその車両までの距離とに応じて分類する。分類先は、第1段階において設定された正解データのパターンのいずれかである。一つの対象画像に複数の車両が写っている場合は、車両ごとに分類が行われる。
分類部222bは、対象画像が既に学習済みの正解データのモデルと一致するかどうかを判定する。上記第1段階において36通りの正解データを用意した場合、この第3段階では、対象画像に写っている各車両が、36通りのパターンのうちのどのパターンに当てはまるかが判定される。どのパターンにも当てはまらない場合は、対象画像に車両が写っていないものと判定される。上記第1段階及び上記第2段階により、後続車が現れる画像内位置が学習されており、第3段階では、学習された画像内位置に車両が出現するのを待ち構える、という考え方である。
警報生成装置224には、画像分類装置222による分類結果が入力される。警報生成装置224は、入力された分類結果に基づいて、当該車両の運転者に向けた警報を生成する。この警報は、HMI装置230を介して当該車両の運転者へ伝えられる。HMI装置の例として、表示装置、音声出力装置が挙げられる。
分類部222bにより、対象画像が正解データのいずれかのパターンと一致すると判定された場合は、当該パターンに対応する車両の種類、車線位置及び自車からの距離がHMI装置230に表示される。
なお、車載システム200のコンピュータハードウェア構成も、図5に示した構成とすることができる。
これまでに述べたように、第1段階において、車両の種類とその車両が写っている領域の位置及びサイズを正解データとして有する教師データが作成され、その教師データをもとにした学習済みモデルが第2段階にて生成される。この学習済みモデルを用いて、第3段階で対象画像の分類が行われる。第3段階では、対象画像中の移動物を車両と認識することができる。そのため、従来技術とは異なり、検出対象外のもの(電柱、建物などの固定物、建物などが路面に映す影など)を検出対象から除外するためのフィルタリングが不要である。検出精度が従来技術と同等でよいならば、従来技術に比べて処理時間を短縮することができる。あるいは、処理時間が従来技術と同等でよいならば、従来技術に比べて検出精度が向上する。
検出された車両の種類も検出されるため、どのような種類の車両が接近しているかを運転者に知らせることができる。つまり、危険回避のためにより正確な情報を提供することができる。
また、走行中の車載カメラの映像を出力するモニターにおいて、検出された移動物にマークを重畳表示することもできる。つまり、より分かりやすい情報提供が実現される。
上記の実施形態において、車載カメラは、車両の後部に取り付けられ、当該車両の車両後方を撮影するバックカメラとした。しかし、これに限られない。車載カメラとして、車両の側部に取り付けられて当該車両の側方を撮影するサイドカメラを用いてもよく、あるいは、車両の前部に取り付けられて当該車両の前方を撮影するフロントカメラを用いてもよい。ただし、学習の効果を最大限に引き出すために、例題画像を撮影するカメラと分類対象となる対象画像を撮影するカメラとを同種のものとすることが望ましい。例えば、前者がフロントカメラであれば、後者もフロントカメラとすることが望ましい。
フロントカメラを用いる場合には、低速走行時に人を検知する機能を実現することができる。サイドカメラを用いる場合は、自車と並走する車両を検知する機能を実現することができる。さらには、車両の前後左右のカメラを連携させて、自車の周囲に存在する車両を検知する機能を実現することも可能である。
正解データに、以下の情報のうち1つ以上を追加してもよい。これにより、追加された情報に応じて画像の分類を行うことができる。
・例題画像の撮影が昼間、夜間のいずれにおいて行われたのかという情報
・例題画像の撮影時の天候に関する情報
・例題画像に写っている車両のヘッドライトが点灯しているかどうかの情報
・例題画像に写っている道路の傾斜に関する情報
図4を参照しながら述べた教師データ作成は、装置としての側面だけではなく、方法としての側面及びコンピュータプログラムとしての側面をも有している。図6を参照しながら述べた画像分類についても同様である。
以上、本発明の実施の形態につき述べたが、本発明は既述の実施の形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。
100 教師データ作成装置、110 取得部、120 受付部、130 作成部
200 車載システム、210 カメラ、220 コントローラ、230 HMI装置
222 画像分類装置、224 警報生成装置
222a 取得部、222b 分類部

Claims (3)

  1. 車載カメラにより撮影された、周囲の車両の画像を取得する取得部と、
    前記取得部により取得された前記画像に写っている車両に関し、教師あり学習のための正解データを受け付ける受付部と、
    前記取得部により取得された前記画像と、前記受付部により受け付けられた前記正解データとを組み合わせてなる教師あり学習のための教師データを作成する作成部と
    を備え、
    前記受付部は、前記正解データとして、前記画像に写っている車両の種類と、前記画像において車両が写っている領域の位置及びサイズとを受け付ける、
    教師データ作成装置。
  2. 車載カメラにより撮影され、分類の対象となる対象画像を取得する取得部と、
    請求項1に記載の教師データ作成装置により作成された教師データによる学習がなされた学習済みモデルを用いて、前記対象画像を、前記対象画像に写っている車両の種類と前記車両が位置する車線と自車から前記車両までの距離とに応じて分類する分類部と
    を備える画像分類装置。
  3. 車載カメラにより撮影され、分類の対象となる対象画像を取得する取得ステップと、
    請求項1に記載の教師データ作成装置により作成された教師データによる学習がなされた学習済みモデルを用いて、前記対象画像を、前記対象画像に写っている車両の種類と前記車両が位置する車線と自車から前記車両までの距離とに応じて分類する分類ステップと
    を含む画像分類方法。
JP2019180165A 2019-09-30 2019-09-30 教師データ作成装置及び画像分類装置 Pending JP2021056841A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019180165A JP2021056841A (ja) 2019-09-30 2019-09-30 教師データ作成装置及び画像分類装置
FR2008363A FR3101462B1 (fr) 2019-09-30 2020-08-07 Dispositif de creation de donnees d'enseignement et dispositif de classification d'images
US17/035,653 US20210097340A1 (en) 2019-09-30 2020-09-28 Teaching Data Creation Device and Image Classification Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180165A JP2021056841A (ja) 2019-09-30 2019-09-30 教師データ作成装置及び画像分類装置

Publications (1)

Publication Number Publication Date
JP2021056841A true JP2021056841A (ja) 2021-04-08

Family

ID=75161979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180165A Pending JP2021056841A (ja) 2019-09-30 2019-09-30 教師データ作成装置及び画像分類装置

Country Status (3)

Country Link
US (1) US20210097340A1 (ja)
JP (1) JP2021056841A (ja)
FR (1) FR3101462B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174209A (ja) * 2011-02-24 2012-09-10 Aisin Aw Co Ltd 車線案内装置、方法およびプログラム
JP2019049793A (ja) * 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理プログラム
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7479980B2 (en) * 1999-12-23 2009-01-20 Wespot Technologies Ab Monitoring system
JP2009166691A (ja) * 2008-01-16 2009-07-30 Mazda Motor Corp 車両の走行制御装置
JP6594375B2 (ja) * 2017-05-31 2019-10-23 本田技研工業株式会社 処理装置、車両、処理方法およびプログラム
US10783381B2 (en) * 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
KR101994699B1 (ko) * 2017-09-15 2019-07-01 엘지전자 주식회사 차량 운전 보조 장치 및 차량
AU2018423158A1 (en) * 2017-11-03 2020-05-21 Aimlock Inc. Semi-autonomous motorized weapon systems
KR102132774B1 (ko) * 2018-01-10 2020-07-21 주식회사 만도 레이더 제어 장치 및 그 방법
US11113969B2 (en) * 2019-03-07 2021-09-07 Toyota Jidosha Kabushiki Kaisha Data-to-camera (D2C) based filters for improved object detection in images based on vehicle-to-everything communication
US11386671B2 (en) * 2019-06-25 2022-07-12 Zoox, Inc. Refining depth from an image
US20200409362A1 (en) * 2019-06-26 2020-12-31 Byton North America Corporation Autonomous driving handoff systems and methods
US10915766B2 (en) * 2019-06-28 2021-02-09 Baidu Usa Llc Method for detecting closest in-path object (CIPO) for autonomous driving

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174209A (ja) * 2011-02-24 2012-09-10 Aisin Aw Co Ltd 車線案内装置、方法およびプログラム
JP2019049793A (ja) * 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理プログラム
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Also Published As

Publication number Publication date
FR3101462B1 (fr) 2023-10-06
US20210097340A1 (en) 2021-04-01
FR3101462A1 (fr) 2021-04-02

Similar Documents

Publication Publication Date Title
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN110619279B (zh) 一种基于跟踪的路面交通标志实例分割方法
JP4793324B2 (ja) 車両監視装置および車両監視方法
CN104376297A (zh) 道路上的线型指示标志的检测方法和装置
JP2016029557A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN107845104A (zh) 一种检测超车车辆的方法、相关处理***、超车车辆检测***以及车辆
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
US7974445B2 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP2000048209A (ja) 画像処理方法及び装置
JP2017068700A (ja) 物体検出装置、物体検出方法、及びプログラム
JP2007293627A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
JP2007241898A (ja) 停止車両分別検出装置および車両の周辺監視装置
KR102197930B1 (ko) 번호판 인식 방법 및 시스템
JP2015064752A (ja) 車両監視装置、および車両監視方法
JP2009245042A (ja) 交通流計測装置及びプログラム
Doval et al. Traffic sign detection and 3D localization via deep convolutional neural networks and stereo vision
Tanaka et al. Vehicle Detection Based on Perspective Transformation Using Rear‐View Camera
Arora et al. Automatic vehicle detection system in Day and Night Mode: challenges, applications and panoramic review
JP6431299B2 (ja) 車両周辺監視装置
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP2015179301A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム
Sirbu et al. Real-time line matching based speed bump detection algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240501