JP7102800B2 - 評価プログラム、評価方法および評価装置 - Google Patents

評価プログラム、評価方法および評価装置 Download PDF

Info

Publication number
JP7102800B2
JP7102800B2 JP2018046001A JP2018046001A JP7102800B2 JP 7102800 B2 JP7102800 B2 JP 7102800B2 JP 2018046001 A JP2018046001 A JP 2018046001A JP 2018046001 A JP2018046001 A JP 2018046001A JP 7102800 B2 JP7102800 B2 JP 7102800B2
Authority
JP
Japan
Prior art keywords
captured image
evaluation
dynamic object
shape information
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018046001A
Other languages
English (en)
Other versions
JP2019159845A (ja
Inventor
正弘 片岡
純也 加藤
拓哉 狐崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018046001A priority Critical patent/JP7102800B2/ja
Priority to US16/273,788 priority patent/US10825191B2/en
Publication of JP2019159845A publication Critical patent/JP2019159845A/ja
Application granted granted Critical
Publication of JP7102800B2 publication Critical patent/JP7102800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、評価プログラム等に関する。
ビデオカメラにより撮像された動画をMPEG(Moving Picture Experts Group)等の圧縮率の高い圧縮方式で圧縮することが動画圧縮の主流となっている。また、近年では、車載カメラで撮像され、MPEGで圧縮された動画を分析して、動画に含まれる道路や標識等の静的物体と、他の車やバイク、人などの動的物体とを認識する技術を、車両の自動運転に適用しようとする試みもなされている。
特開2012-198857号公報 特表2011-511281号公報
しかしながら、上述した従来技術では、静的物体や動的物体を区別し、それぞれの評価精度を向上することができないという問題がある。
たとえば、車載カメラに撮像された動画では、車両が移動するため、動的物体だけでなく、静的物体も移動することになる。従って、MPEGによる圧縮では、物体単位に符号化しているわけではなく、静的物体と動的物体を区別して検出することが難しいため、その評価精度を向上することができない。
1つの側面では、本発明は、移動体において、静的物体や動的物体を区別し、それぞれの評価精度を向上することができる評価プログラム、評価方法および評価装置を提供することを目的とする。
第1の案では、コンピュータに次の処理を実行させる。コンピュータは、移動体に搭載された撮像装置により撮像された撮像画像と、該撮像画像の撮像位置と、を受け付ける。コンピュータは、受け付けた撮像画像に基づき、撮像画像に含まれる被写体の形状情報を生成する。コンピュータは、撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた撮像位置に対応付けられた静的物体の形状情報を取得する。コンピュータは、生成した形状情報と、取得した形状情報とに基づき、受け付けた撮像画像に含まれる被写体のうち、動的物体を特定する。コンピュータは、特定した動的物体の、受け付けた撮像画像における位置に基づき、動的物体に評価を行う。
移動体において、静的物体や動的物体を区別し、それぞれの評価精度を向上することができる。
図1は、本実施例に係るシステムの一例を示す図である。 図2は、本実施例に係る評価装置の処理の一例を説明するための図である。 図3は、本実施例に係る評価装置の構成を示す機能ブロック図である。 図4は、本実施例に係るバッファのデータ構造の一例を示す図である。 図5は、本実施例に係る移動速度テーブルのデータ構造の一例を示す図である。 図6は、本実施例に係る静的物体データのデータ構造の一例を示す図である。 図7は、評価部に設定される各領域の一例を示す図である。 図8は、本実施例に係る評価装置の処理手順を示すフローチャートである。 図9は、評価装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願の開示する評価プログラム、評価方法および評価装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係るシステムの一例を示す図である。図1に示すように、このシステムは、ステレオカメラ100aおよび評価装置100が移動体5に搭載されている。本実施例では一例として、移動体5を、道路を走行している車両として説明するが、移動する物体であれば、車両に限定されるものではない。
評価装置100は、ステレオカメラ100aに接続されている。また、たとえば、評価装置100は、無線通信により、ネットワーク50に接続し、ネットワーク50を介して、サーバ60に接続される。
サーバ60は、図示しないカメラにより事前に撮像された撮像画像に含まれる静的物体(静止物)の形状と、形状の位置と、撮像画像の撮像位置とを対応付けた「静的物体データ」を保持するサーバである。たとえば、サーバ60は、評価装置100からダウンロード要求を受け付けた場合に、かかる静的物体データを、評価装置100に送信する。
ステレオカメラ100aは、対象物を2つレンズで異なる位置から同時に画像を撮像するカメラ(双眼カメラ)である。ステレオカメラ100aは、双眼レンズによる視差を活用して、被写体との距離やその形状を抽出することができる。
評価装置100は、サーバ60から、静的物体データをダウンロードしておく。評価装置100は、ステレオカメラ100aの撮像画像データから、ステレオマッチングの原理に基づいて、各被写体の形状を抽出し、抽出した各被写体の形状と、撮像画像データの撮像位置に対応する静的物体の形状とを比較する。評価装置100は、静的物体の形状に一致する被写体を静的物体と判定し、静的物体の形状に一致しない被写体を動的物体(移動体)として特定する。評価装置100は、動的物体として特定した被写体に対する評価を行う。
たとえば、評価装置100は、移動体5の移動速度を基にして、移動体5が衝突する可能性に応じた複数の領域を設定する。評価装置100は、衝突する可能性のない「安全領域」、衝突する可能性が低い「注意領域」、衝突する可能性が高い「危険領域」を設定する。評価装置100は、動的物体として特定した被写体が、安全領域、注意領域、危険領域のうち、いずれの領域に含まれるかを評価し、評価結果を移動体5の運転手等に通知する処理を行う。
図2は、本実施例に係る評価装置の処理の一例を説明するための図である。図2に示す例では、評価装置100は、ステレオカメラ100aが撮像した撮像画像データ11から、被写体11a,11bを抽出した場合について説明する。評価装置100は、サーバ60からダウンロードした静的物体データから、撮像画像データ11の撮像位置に対応する静的物体形状データ10を取得する。静的物体形状データ10には、静的物体10aの形状の情報が含まれているものとする。
評価装置100は、静的物体形状データ10の静的物体10aの形状の位置と、撮像画像データ11の被写体11a,11bの形状の位置とを比較して、動的物体を特定する。図2に示す例では、評価装置100は、静的物体10aの形状の位置と、被写体11aの形状の位置とが対応するため、被写体11aを、静的物体と判定する。評価装置100は、被写体11bの形状の位置に対応する静的物体が、静的物体形状データ10に存在しないため、被写体11bを動的物体と判定する。評価装置100は、被写体11bの形状の位置と、安全領域、注意領域、危険領域とを比較することで、動的物体となる被写体11bの評価を行う。
本実施例に係る評価装置100によれば、ステレオカメラ100aの撮像画像データから抽出した各被写体の形状と、この撮像画像データが撮像された位置に対応した既知の静的物体の形状との比較により、各被写体のうち、移動体を特定し、評価を行う。これにより、評価装置100は、ステレオカメラ100aに撮像された撮像画像データから、移動体を適切に特定することができるため、移動体に関する評価精度を向上させることができる。
次に、本実施例に係る評価装置の構成の一例について説明する。図3は、本実施例に係る評価装置の構成を示す機能ブロック図である。図3に示すように、この評価装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、ステレオカメラ100aおよびサーバ60との間でデータ通信を実行する処理部である。通信部110は、ステレオカメラ100aが撮像した撮像画像データを取得する。たとえば、ステレオカメラ100aが撮像した撮像画像データには、第1の方向から撮像した撮像画像データと、第1の方向とは異なる第2の方向から撮像した撮像画像データとの組が含まれているものとする。
通信部110は、無線通信によりネットワーク50を介してサーバ60に接続し、サーバ60から、静的物体データを受信する。
また、通信部110は、移動体5に搭載された速度計測装置(図示略)に接続される。速度計測装置は、移動体5の速さおよび移動体5のハンドルの舵角等を基にして、移動体5の移動速度(移動ベクトル)を計測する装置である。通信部110は、移動速度の情報を、速度計測装置から取得する。
後述する制御部150は、通信部110を介して、ステレオカメラ100a、サーバ60、速度計測装置とデータをやり取りする。
入力部120は、各種の情報を評価装置100に入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。たとえば、表示部130は、液晶ディスプレイ、タッチパネル等に対応する。
記憶部140は、バッファ140aと、移動速度テーブル140bと、静的物体データ140cとを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
バッファ140aは、ステレオカメラ100aに撮像された撮像画像データを保持するバッファである。図4は、本実施例に係るバッファのデータ構造の一例を示す図である。図4に示すように、このバッファ140aは、時刻と、撮像位置と、撮像画像データとを対応付ける。時刻は、ステレオカメラ100aが、撮像画像データを撮像した時刻を示すものである。撮像位置は、ステレオカメラ100aにより、撮像画像データが撮像された位置(座標)を示すものである。撮像画像データは、ステレオカメラ100aが撮像した撮像画像データである。
移動速度テーブル140bは、各時刻における、移動体5の移動速度(移動ベクトル)の情報を保持するテーブルである。図5は、本実施例に係る移動速度テーブルのデータ構造の一例を示す図である。図5に示すように、移動速度テーブル140bは、時刻と、移動体5の移動速度とを対応付ける。
静的物体データ140cは、カメラ(図示略)により事前に撮像された撮像画像データに含まれる静的物体の形状の情報と、撮像画像データの撮像位置とを対応付けた情報である。図6は、本実施例に係る静的物体データのデータ構造の一例を示す図である。図6に示すように、この静的物体データ140cは、撮像位置と、静的物体の形状と、静的物体の位置とを対応付ける。撮像位置は、撮像画像データが撮像された位置(座標)を示すものである。静的物体の形状は、撮像画像データに含まれる各静的物体の形状を示す。静的物体の位置は、撮像画像データ上の各静的物体の位置を示す。
制御部150は、受付部150a、生成部150b、取得部150c、評価部150dを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
受付部150aは、ステレオカメラ100aから、撮像画像データを受け付け、受け付けた撮像画像データと、時刻と、撮像位置とを対応付けて、バッファ140aに登録する。たとえば、時刻は、撮像画像データに付与されているものとする。撮像位置の情報は、ステレオカメラ100aが、撮像画像データを撮像した際に撮像画像データに付与しても良い。または、受付部150aが、撮像画像データを受け付けた際に、GPS(Global Positioning System)機能を利用して、撮像画像データが撮像された位置を算出してもよい。
受付部150aは、定期的に、サーバ60に対して静的物体データのダウンロード要求を行う。受付部150aは、サーバ60から、静的物体データを受け付けた場合に、静的物体データ140cとして記憶部140に登録する。静的物体データをダウンロードするタイミングは、ユーザが入力部120を操作して、受付部150aに指示しても良い。
受付部150aは、速度計測装置から移動速度のデータを取得し、時刻と移動速度とを対応づけて、移動速度テーブル140bに登録する。
生成部150bは、バッファ140aに格納された撮像画像データに基づいて、撮像画像データに含まれる複数の被写体の形状情報を生成する処理部である。ここでは一例として、撮像位置(xa,ya)の撮像画像データを基にして、形状情報を生成する処理について説明する。
生成部150bは、バッファ140aに格納された撮像位置(xa,ya)の撮像画像データを取得し、撮像画像データから、被写体の形状を抽出する。たとえば、ステレオカメラ100aに撮像された撮像画像データには、第1の方向から撮像された撮像画像データと、第2の方向から撮像された撮像画像データとの組が対応づけられている。なお、撮像画像データは、ステレオカメラ100aの第1の方向から撮像された撮像画像データまたは、第2の方向から撮像された撮像画像データのうち、一方の撮像画像データであってもよい。
生成部150bは、ステレオマッチングの原理に基づいて、撮像画像データに含まれる被写体上の点と、ステレオカメラ100aとの距離を特定する。たとえば、生成部150bは、ステレオカメラ100aとの距離が所定距離未満となる点群の領域を、被写体の形状として抽出する。たとえば、図2で説明した例では、生成部150bは、撮像画像データ(撮像画像データ11)から、被写体11aの形状および被写体11bの形状を抽出する。上記の所定距離を、ステレオカメラ100aの焦点距離とする。
生成部150bは、時刻tと、撮像位置(xa,ya)と、抽出した被写体の形状と、被写体の形状の位置とを対応付けることで、被写体の形状情報を生成する。生成部150bは、形状情報を、取得部150cに出力する。以下の説明では、適宜、生成部150bが生成した形状情報を、「第1形状情報」と表記する。
取得部150cは、第1形状情報を取得した場合に、第1形状情報に含まれる撮像位置に対応する静的物体の形状および静的物体の位置を取得する処理部である。たとえば、取得部150cは、第1形状情報に含まれる撮像位置(xa,ya)に最も近い撮像位置のレコードを、静的物体データ140cの各レコードから特定し、特定したレコードに含まれる静的物体の形状および静的物体の位置を取得する。以下の説明では、適宜、取得部150cが、静的物体データ140cから取得した静的物体の形状および静的物体の位置を、「第2形状情報」と表記する。
取得部150cは、第1形状情報と、第2形状情報とを評価部150dに出力する。
評価部150dは、第1形状情報と、第2形状情報とを基にして、撮像画像データに含まれる被写体のうち、移動中の被写体(動的物体)を特定し、特定した移動体の評価を行う処理部である。評価部150dが、移動中の被写体を特定する処理と、移動体の評価を行う処理とを順に説明する。
評価部150dが、移動中の被写体を特定する処理の一例について説明する。評価部150dは、第1形状情報を基にして、撮像画像データに含まれる被写体の形状および被写体の位置を特定する。たとえば、第1形状情報を基にして特定される被写体の形状および位置を、図2に示す被写体11a,11bとする。また、第2形状情報を基にして特定される静的物体の形状および位置を、図2に示す静的物体10aとする。
評価部150dは、第1形状情報に含まれる被写体のうち、第2形状情報に含まれる静的物体の形状および位置に対応する被写体を、静的物体として特定する。評価部150dは、第1形状情報に含まれる被写体のうち、第2形状情報に含まれる静的物体の形状および位置に対応しない被写体を、動的物体として特定する。
評価部150dは、図2で説明したように、静的物体10aの形状の位置と、被写体11aの形状の位置とが対応するため、被写体11aを、静的物体と判定する。評価部150dは、被写体11bの形状の位置に対応する静的物体が、第2形状情報(静的物体形状データ10)に存在しないため、被写体11bを動的物体と判定する。
続いて、評価部150dが、移動体5の評価を行う処理の一例について説明する。評価部150dは、第1形状情報に含まれる時刻tと、移動速度テーブル140bとを比較して、時刻tに対応する移動体5の移動速度の情報を取得する。評価部150dは、移動速度を基にして、衝突する可能性のない「安全領域」、衝突する可能性が低い「注意領域」、衝突する可能性が高い「危険領域」を設定する。
たとえば、評価部150dは、移動速度×時間T1により距離D1を算出し、移動体5から距離D1だけ前方の所定領域を、「安全領域」として設定する。評価部150dは、移動速度×時間T2により距離D2を算出し、移動体5から距離D2だけ前方の所定領域を、「注意領域」として設定する。移動速度×時間T3により距離D3を算出し、移動体5から距離D3だけ前方の所定領域を、「危険領域」として設定する。
図7は、評価部に設定される各領域の一例を示す図である。図7に示す例では、安全領域A1、注意領域A2、危険領域A3を示す。時間T1,T2,T3の大小関係は、時間T1>時間T2>時間T3となり、各時間T1~T3は、運転手の反応速度等に応じて予め設定されているものとする。
評価部150dは、移動体として特定した被写体(動的物体)と、安全領域、注意領域、危険領域との比較により、移動体を評価する。評価部150dは、評価結果に基づき、移動体の制御に関する情報を生成する。
たとえば、評価部150dは、動的物体が、安全領域A1に含まれる場合には、動的物体の形状や位置を、表示部130に表示させる。評価部150dは、動的物体が、注意領域A2に含まれる場合には、動的物体の形状や位置を強調表示した情報を、表示部130に表示させる。評価部150dは、動的物体が、危険領域A3に含まれる場合には、表示部130に警告を表示させると共に、移動体5に制御信号を出力して、移動体5の移動速度を減速させてもよい。評価部150dによる移動速度の制御を可能にするか否かは、予め、ユーザにより設定可能にしてもよい。
次に、本実施例に係る評価装置100の処理手順の一例について説明する。図8は、本実施例に係る評価装置の処理手順を示すフローチャートである。図8に示すように、評価装置100の受付部150aは、サーバ60から静的物体データ140cをダウンロードする(ステップS101)。
受付部150aは、ステレオカメラ100aから、撮像画像データを受け付ける(ステップS102)。評価装置100の生成部150bは、撮像画像データに含まれる被写体の形状を抽出し、第1形状情報を生成する(ステップS103)。
評価装置100の取得部150cは、第1形状情報の撮像位置に対応する、第2形状情報を静的物体データ140cから取得する(ステップS104)。評価装置100の評価部150dは、第1形状情報の被写体の形状および位置と、第2形状情報の静的物体の形状および位置とを比較して、動的物体を特定する(ステップS105)。
評価部150dは、移動体5の移動速度を基にして、安全領域、注意領域、危険領域を設定する(ステップS106)。評価部150dは、各領域と、動的物体の位置(移動体5からの距離)とを比較して、移動体を評価する(ステップS107)。評価部150dは、評価結果を表示部130に表示する(ステップS108)。
次に、本実施例に係る評価装置100の効果について説明する。評価装置100は、ステレオカメラ100aの撮像画像データから抽出した各被写体の形状と、この撮像画像データが撮像された位置に対応した既知の静的物体の形状との比較により、各被写体のうち、移動体を特定し、評価を行う。これにより、評価装置100は、ステレオカメラ100aに撮像された撮像画像データから、静的物体と動的物体を区別し、適切に特定することができるため、それぞれの評価精度を向上させることができる。
評価装置100は、評価結果を基にして、移動体の制御に関する情報を生成する。たとえば、評価装置100は、被写体(動的物体)と、安全領域、注意領域、危険領域とを比較し、移動体がどの領域に含まれるかに応じて、警告の表示、移動体5の移動速度の制御を行う。これにより、前方車両との衝突を抑止でき、安全運転を実現することができる。
なお、これまで評価装置100について、便宜上、ステレオカメラ100aを用いた構成にて説明してきたが、単眼カメラ100aを用いた構成でも代替が可能である。単眼カメラとは、単一のレンズで画像を撮像するカメラである。車両などの移動体が静止した時、単眼カメラ100aのみでは、静的物体や静止した動的物体のアウトラインなどの形状が評価できないが、移動体が動き出すと、単眼カメラ100aで物体のアウトラインの評価が可能となる。
次に、上記実施例に示した評価装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図9は、評価装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、有線または無線ネットワークを介してステレオカメラ100a、サーバ60との間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201~207は、バス208に接続される。
ハードディスク装置207は、受付プログラム207a、生成プログラム207b、取得プログラム207c、評価プログラム207dを有する。CPU201は、各プログラム207a~207dを読み出してRAM206に展開する。
受付プログラム207aは、受付プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。取得プログラム207cは、取得プロセス206cとして機能する。評価プログラム207dは、評価プロセス206dとして機能する。
受付プロセス206aの処理は、受付部150aの処理に対応する。生成プロセス206bは、生成部150bの処理に対応する。取得プロセス206cの処理は、取得部150cの処理に対応する。評価プロセス206dの処理は、評価部150dの処理に対応する。
なお、各プログラム207a~207dについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD-ROM、DVD、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a~207dを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)移動体に搭載された撮像装置により撮像された撮像画像と、該撮像画像の撮像位置と、を受け付け、
受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成し、
撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得し、
生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、移動中の動的物体を特定し、
特定した前記動的物体の、受け付けた前記撮像画像における位置に基づき、前記動的物体に関する評価を行う、
処理をコンピュータに実行させることを特徴とする評価プログラム。
(付記2)前記評価の結果に基づき、前記移動体の制御に関する情報を生成する処理を更にコンピュータに実行させる
ことを特徴とする付記1に記載の評価プログラム。
(付記3)前記移動体に搭載された前記撮像装置はステレオカメラであり、前記撮像装置に撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記撮像装置との距離を算出する処理を更に前記コンピュータに実行させ、前記評価する処理は、前記距離と、前記移動体の移動速度とを基にして、前記被写体を評価することを特徴とする付記1または2に記載の評価プログラム。
(付記4)コンピュータが実行する評価方法であって、
移動体に搭載された撮像装置により撮像された撮像画像と、該撮像画像の撮像位置と、を受け付け、
受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成し、
撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得し、
生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、移動中の動的物体を特定し、
特定した前記動的物体の、受け付けた前記撮像画像における位置に基づき、前記動的物体に関する評価を行う、
処理をコンピュータに実行させることを特徴とする評価方法。
(付記5)前記評価の結果に基づき、前記移動体の制御に関する情報を生成する処理を更に実行する
ことを特徴とする付記4に記載の評価方法。
(付記6)前記移動体に搭載された前記撮像装置はステレオカメラであり、前記撮像装置に撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記撮像装置との距離を算出する処理を更に実行し、前記評価する処理は、前記距離と、前記移動体の移動速度とを基にして、前記被写体を評価することを特徴とする付記4または5に記載の評価方法。
(付記7)移動体に搭載された撮像装置により撮像された撮像画像と、該撮像画像の撮像位置と、を受け付ける受付部と、
受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成する生成部と、
撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得する取得部と、
生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、移動中の動的物体を特定し、特定した前記動的物体の、受け付けた前記撮像画像における位置に基づき、前記動的物体に関する評価を行う評価部と、
を有することを特徴とする評価装置。
(付記8)前記評価部は、前記評価の結果に基づき、前記移動体の制御に関する情報を生成する、
ことを特徴とする付記7に記載の評価装置。
(付記9)前記移動体に搭載された前記撮像装置はステレオカメラであり、前記評価部は、前記撮像装置に撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記撮像装置との距離を算出する処理を更に実行し、前記距離と、前記移動体の移動速度とを基にして、前記被写体を評価することを特徴とする付記7または8に記載の評価装置。
5 移動体
50 ネットワーク
60 サーバ
100a ステレオカメラ
100 評価装置
140 記憶部
140a バッファ
140b 移動速度テーブル
140c 静的物体データ
150 制御部
150a 受付部
150b 生成部
150c 取得部
150d 評価部

Claims (5)

  1. 移動体に搭載されたステレオカメラにより撮像された撮像画像と、該撮像画像の撮像位置と、を受け付け、
    受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成し、
    前記ステレオカメラで撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記ステレオカメラとの距離を算出し、
    撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得し、
    生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、動的物体を特定し、
    特定した前記動的物体の、受け付けた前記撮像画像における位置と、前記距離と、前記移動体の移動速度とに基づき、前記動的物体が前記移動体と衝突する可能性を表す安全領域、注意領域および危険領域のうち、前記動的物体が前記安全領域に含まれる場合、前記動的物体の形状と位置とを表示させる評価を行い、前記動的物体が前記注意領域に含まれる場合、前記動的物体の形状と位置とを強調表示して表示させる評価を行い、前記動的物体が前記危険領域に含まれる場合、警告を表示させる評価を行う、
    処理をコンピュータに実行させることを特徴とする評価プログラム。
  2. 前記評価の結果に基づき、前記移動体の制御に関する情報を生成する処理を更にコンピュータに実行させる
    ことを特徴とする請求項1に記載の評価プログラム。
  3. 前記移動体の制御に関する情報を生成する処理は、前記動的物体が前記危険領域に含まれる場合、前記移動体の移動速度を減速させる情報を生成する、
    請求項2に記載の評価プログラム。
  4. コンピュータが実行する評価方法であって、
    移動体に搭載されたステレオカメラにより撮像された撮像画像と、該撮像画像の撮像位置と、を受け付け、
    受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成し、
    前記ステレオカメラで撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記ステレオカメラとの距離を算出し、
    撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得し、
    生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、動的物体を特定し、
    特定した前記動的物体の、受け付けた前記撮像画像における位置と、前記距離と、前記移動体の移動速度とに基づき、前記動的物体が前記移動体と衝突する可能性を表す安全領域、注意領域および危険領域のうち、前記動的物体が前記安全領域に含まれる場合、前記動的物体の形状と位置とを表示させる評価を行い、前記動的物体が前記注意領域に含まれる場合、前記動的物体の形状と位置とを強調表示して表示させる評価を行い、前記動的物体が前記危険領域に含まれる場合、警告を表示させる評価を行う、
    処理をコンピュータに実行させることを特徴とする評価方法。
  5. 移動体に搭載されたステレオカメラにより撮像された撮像画像と、該撮像画像の撮像位置と、を受け付ける受付部と、
    受け付けた前記撮像画像に基づき、前記撮像画像に含まれる被写体の形状情報を生成する生成部と、
    前記ステレオカメラで撮像された撮像画像を基にして、前記撮像画像に含まれる被写体と前記ステレオカメラとの距離を算出する算出部と、
    撮像画像に含まれる静的物体の形状情報を該撮像画像の撮像位置に対応付けて記憶する記憶部を参照して、受け付けた前記撮像位置に対応付けられた前記静的物体の形状情報を取得する取得部と、
    生成した前記形状情報と、取得した前記形状情報とに基づき、受け付けた前記撮像画像に含まれる被写体のうち、動的物体を特定し、特定した前記動的物体の、受け付けた前記撮像画像における位置と、前記距離と、前記移動体の移動速度とに基づき、前記動的物体が前記移動体と衝突する可能性を表す安全領域、注意領域および危険領域のうち、前記動的物体が前記安全領域に含まれる場合、前記動的物体の形状と位置とを表示させる評価を行い、前記動的物体が前記注意領域に含まれる場合、前記動的物体の形状と位置とを強調表示して表示させる評価を行い、前記動的物体が前記危険領域に含まれる場合、警告を表示させる評価を行う評価部と、
    を有することを特徴とする評価装置。
JP2018046001A 2018-03-13 2018-03-13 評価プログラム、評価方法および評価装置 Active JP7102800B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018046001A JP7102800B2 (ja) 2018-03-13 2018-03-13 評価プログラム、評価方法および評価装置
US16/273,788 US10825191B2 (en) 2018-03-13 2019-02-12 Non-transitory computer readable recording medium, assessment method, and assessment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046001A JP7102800B2 (ja) 2018-03-13 2018-03-13 評価プログラム、評価方法および評価装置

Publications (2)

Publication Number Publication Date
JP2019159845A JP2019159845A (ja) 2019-09-19
JP7102800B2 true JP7102800B2 (ja) 2022-07-20

Family

ID=67905869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046001A Active JP7102800B2 (ja) 2018-03-13 2018-03-13 評価プログラム、評価方法および評価装置

Country Status (2)

Country Link
US (1) US10825191B2 (ja)
JP (1) JP7102800B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185504A (ja) 2002-12-05 2004-07-02 Denso Corp 運転支援装置
JP2011134207A (ja) 2009-12-25 2011-07-07 Konica Minolta Holdings Inc 運転記録装置および地図作成システム
JP2017220030A (ja) 2016-06-07 2017-12-14 アイシン・エィ・ダブリュ株式会社 走行情報提供システムおよび走行情報提供プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3866349B2 (ja) * 1996-12-27 2007-01-10 富士重工業株式会社 車両の衝突防止装置
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
WO2005036371A2 (en) * 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
US7899211B2 (en) * 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US8027029B2 (en) * 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
JPWO2009099022A1 (ja) * 2008-02-04 2011-05-26 コニカミノルタホールディングス株式会社 周辺監視装置及び周辺監視方法
WO2009098154A1 (en) 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
US8350724B2 (en) * 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
JP5539250B2 (ja) 2011-03-23 2014-07-02 株式会社デンソーアイティーラボラトリ 接近物体検知装置及び接近物体検知方法
US9195914B2 (en) * 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
JP6082638B2 (ja) * 2013-03-29 2017-02-15 日立オートモティブシステムズ株式会社 走行制御装置及び走行制御システム
CN107004362B (zh) * 2014-11-26 2018-11-23 三菱电机株式会社 驾驶辅助装置及驾驶辅助方法
CN111351495B (zh) * 2015-02-10 2024-05-28 御眼视觉技术有限公司 服务器***、方法及机器可读介质
US10719083B2 (en) * 2016-07-01 2020-07-21 Uatc, Llc Perception system for autonomous vehicle
US10794711B2 (en) * 2016-12-30 2020-10-06 DeepMap Inc. High definition map updates based on sensor data collected by autonomous vehicles
US10332292B1 (en) * 2017-01-17 2019-06-25 Zoox, Inc. Vision augmentation for supplementing a person's view
US10223598B2 (en) * 2017-02-20 2019-03-05 Volkswagen Aktiengesellschaft Method of generating segmented vehicle image data, corresponding system, and vehicle
KR102313026B1 (ko) * 2017-04-11 2021-10-15 현대자동차주식회사 차량 및 차량 후진 시 충돌방지 보조 방법
US10803323B2 (en) * 2017-05-16 2020-10-13 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185504A (ja) 2002-12-05 2004-07-02 Denso Corp 運転支援装置
JP2011134207A (ja) 2009-12-25 2011-07-07 Konica Minolta Holdings Inc 運転記録装置および地図作成システム
JP2017220030A (ja) 2016-06-07 2017-12-14 アイシン・エィ・ダブリュ株式会社 走行情報提供システムおよび走行情報提供プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
橋川 史崇,外1名,分散配置した測域センサを利用した移動ロボットのSLAM,ロボティクス・メカトロニクス講演会講演概要集2010,日本,2010年,https://doi.org/10.1299/jsmermd.2010._1A2-F20_1

Also Published As

Publication number Publication date
US20190287260A1 (en) 2019-09-19
JP2019159845A (ja) 2019-09-19
US10825191B2 (en) 2020-11-03

Similar Documents

Publication Publication Date Title
JP6652065B2 (ja) 画像処理装置と画像処理方法
US9298994B2 (en) Detecting visual inattention based on eye convergence
KR101758576B1 (ko) 물체 탐지를 위한 레이더 카메라 복합 검지 장치 및 방법
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US20130129224A1 (en) Combined depth filtering and super resolution
JP2022517254A (ja) 注視エリア検出方法、装置、及び電子デバイス
US20160054795A1 (en) Information display device
JP2019509534A (ja) 将来経路を推定するシステム及び方法
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JPWO2018051459A1 (ja) 物体検出装置および物体検出方法
KR102203810B1 (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2020032866A (ja) 車両用仮想現実提供装置、方法、及びコンピュータ・プログラム
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP2017219827A (ja) 画像安定化方法及び電子デバイス
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP4553071B1 (ja) 3次元情報表示装置および3次元情報表示方法
JP7102800B2 (ja) 評価プログラム、評価方法および評価装置
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
JP2014044730A (ja) 画像処理装置
Muzammel et al. Rear-end vision-based collision detection system for motorcyclists
RU2681346C2 (ru) Способ и система точной локализации слабовидящего или слепого человека
JP5256508B2 (ja) 3次元情報算出装置および3次元情報算出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150