JP2019211831A - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP2019211831A JP2019211831A JP2018104686A JP2018104686A JP2019211831A JP 2019211831 A JP2019211831 A JP 2019211831A JP 2018104686 A JP2018104686 A JP 2018104686A JP 2018104686 A JP2018104686 A JP 2018104686A JP 2019211831 A JP2019211831 A JP 2019211831A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- image data
- neural network
- priority
- tracking priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
Description
まず、本実施形態に係る物体認識装置が搭載される車両の全体構成について、図1を参照して説明する。図1は、本実施形態に係る車両の構成を示すブロック図である。
次に、ニューラルネットワーク300の学習に用いる教師データの作成方法について、図3を参照して説明する。図3は、本実施形態に係るニューラルネットワークの学習に用いる教師データの作成方法を示すフローチャートである。
次に、学習済みのニューラルネットワーク300を用いた物体認識動作(即ち、物体認識部210の動作)について、図4を参照して説明する。図4は、本実施形態に係る物体認識部の動作の流れを示すフローチャートである。
次に、本実施形態に係る物体認識部210(即ち、物体認識装置)の動作によって得られる技術的効果について説明する。
以上説明した実施形態から導き出される発明の各種態様を以下に説明する。
付記1に記載の物体認識装置は、時系列で入力される第1の画像データに基づいて、前記第1の画像データに含まれる第1の物体を認識する物体認識装置であって、前記第1の画像データを入力とするニューラルネットワークを用いて、前記第1の物体の暫定位置及び時系列トラッキング処理を実行すべき度合いを示すトラッキング優先度を出力する第1出力手段と、前記第1の画像データ、前記暫定位置及び前記トラッキング優先度を入力とし、(i)前記トラッキング優先度が所定の条件を満たす前記第1の物体については、前記時系列トラッキング処理を実行して位置及び速度を出力し、(ii)前記トラッキング優先度が前記所定の条件を満たさない前記第1の物体については、前記時系列トラッキング処理を実行せずに位置を出力する第2出力手段とを備え、前記ニューラルネットワークは、前記第1の画像データとは異なる第2の画像データと、前記第2の画像データに含まれる第2の物体の位置及び前記トラッキング優先度の正解データとを含む教師データを用いて学習された学習済みニューラルネットワークである。
付記2に記載の物体認識装置では、前記第2の物体の前記トラッキング優先度の正解データは、前記第2の物体が、前記第2の物体よりも手前側に位置する他の物体と重なることで隠れる割合に基づいて決定される。
付記3に記載の物体認識装置では、前記第2の物体の前記トラッキング優先度の正解データは、前記第2の物体が、前記第2の画像データの枠外にはみ出ることで隠れる割合に基づいて決定される。
付記4に記載の物体認識装置では、前記第2物体の前記トラッキング優先度の正解データは、前記第2の物体が、当該物体認識装置が搭載される車両の走行に与える影響度に基づいて決定される。
100 カメラ
200 ECU
210 物体認識部
211 第1認識部
212 第2認識部
220 プランナ処理部
230 車両制御部
300 ニューラルネットワーク
310 ニューラルネットワーク主幹部
320 位置推定用ニューラルネットワーク部
330 種類検出用ニューラルネットワーク部
340 トラッキング優先度検出用ニューラルネットワーク部
Claims (4)
- 時系列で入力される第1の画像データに基づいて、前記第1の画像データに含まれる第1の物体を認識する物体認識装置であって、
前記第1の画像データを入力とするニューラルネットワークを用いて、前記第1の物体の暫定位置及び時系列トラッキング処理を実行すべき度合いを示すトラッキング優先度を出力する第1出力手段と、
前記第1の画像データ、前記暫定位置及び前記トラッキング優先度を入力とし、(i)前記トラッキング優先度が所定の条件を満たす前記第1の物体については、前記時系列トラッキング処理を実行して位置及び速度を出力し、(ii)前記トラッキング優先度が前記所定の条件を満たさない前記第1の物体については、前記時系列トラッキング処理を実行せずに位置を出力する第2出力手段と
を備え、
前記ニューラルネットワークは、前記第1の画像データとは異なる第2の画像データと、前記第2の画像データに含まれる第2の物体の位置及び前記トラッキング優先度の正解データとを含む教師データを用いて学習された学習済みニューラルネットワークである
ことを特徴とする物体認識装置。 - 前記第2の物体の前記トラッキング優先度の正解データは、前記第2の物体が、前記第2の物体よりも手前側に位置する他の物体と重なることで隠れる割合に基づいて決定されることを特徴とする請求項1に記載の物体認識装置。
- 前記第2の物体の前記トラッキング優先度の正解データは、前記第2の物体が、前記第2の画像データの枠外にはみ出ることで隠れる割合に基づいて決定されることを特徴とする請求項1又は2に記載の物体認識装置。
- 前記第2物体の前記トラッキング優先度の正解データは、前記第2の物体が、当該物体認識装置が搭載される車両の走行に与える影響度に基づいて決定されることを特徴とする請求項1から3のいずれか一項に記載の物体認識装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104686A JP6988698B2 (ja) | 2018-05-31 | 2018-05-31 | 物体認識装置 |
US16/419,494 US10937176B2 (en) | 2018-05-31 | 2019-05-22 | Object recognition apparatus |
CN201910451289.1A CN110555362B (zh) | 2018-05-31 | 2019-05-28 | 物体识别装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104686A JP6988698B2 (ja) | 2018-05-31 | 2018-05-31 | 物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211831A true JP2019211831A (ja) | 2019-12-12 |
JP6988698B2 JP6988698B2 (ja) | 2022-01-05 |
Family
ID=68693170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104686A Active JP6988698B2 (ja) | 2018-05-31 | 2018-05-31 | 物体認識装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10937176B2 (ja) |
JP (1) | JP6988698B2 (ja) |
CN (1) | CN110555362B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111831768A (zh) * | 2020-05-21 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 纠正行驶轨迹的方法、装置、存储介质及电子设备 |
WO2021199286A1 (ja) | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | オブジェクト追跡装置、オブジェクト追跡方法、および記録媒体 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11126890B2 (en) * | 2019-04-18 | 2021-09-21 | Adobe Inc. | Robust training of large-scale object detectors with a noisy dataset |
JP2020188323A (ja) * | 2019-05-10 | 2020-11-19 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置および撮像方法 |
US11643115B2 (en) * | 2019-05-31 | 2023-05-09 | Waymo Llc | Tracking vanished objects for autonomous vehicles |
JP7078021B2 (ja) | 2019-08-08 | 2022-05-31 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム |
US11682272B2 (en) * | 2020-07-07 | 2023-06-20 | Nvidia Corporation | Systems and methods for pedestrian crossing risk assessment and directional warning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016001463A (ja) * | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム及び処理方法 |
JP2017027602A (ja) * | 2015-07-24 | 2017-02-02 | 株式会社リコー | 対象追跡方法及び装置 |
JP2018026108A (ja) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0675935A (ja) | 1992-08-26 | 1994-03-18 | Sony Corp | 多変数システム構成方法およびその装置 |
JP5229593B2 (ja) * | 2010-09-30 | 2013-07-03 | 株式会社Jvcケンウッド | 目標追跡装置、目標追跡方法 |
JP5759170B2 (ja) * | 2010-12-27 | 2015-08-05 | キヤノン株式会社 | 追尾装置およびその制御方法 |
JP6035095B2 (ja) | 2012-09-26 | 2016-11-30 | 富士重工業株式会社 | 車両の衝突判定装置 |
US9804599B2 (en) * | 2015-11-04 | 2017-10-31 | Zoox, Inc. | Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment |
CN107092883A (zh) * | 2017-04-20 | 2017-08-25 | 上海极链网络科技有限公司 | 物体识别追踪方法 |
US10275691B2 (en) * | 2017-08-22 | 2019-04-30 | Northrop Grumman Systems Corporation | Adaptive real-time detection and examination network (ARDEN) |
US10216189B1 (en) * | 2017-08-23 | 2019-02-26 | Uber Technologies, Inc. | Systems and methods for prioritizing object prediction for autonomous vehicles |
-
2018
- 2018-05-31 JP JP2018104686A patent/JP6988698B2/ja active Active
-
2019
- 2019-05-22 US US16/419,494 patent/US10937176B2/en active Active
- 2019-05-28 CN CN201910451289.1A patent/CN110555362B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016001463A (ja) * | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム及び処理方法 |
JP2017027602A (ja) * | 2015-07-24 | 2017-02-02 | 株式会社リコー | 対象追跡方法及び装置 |
JP2018026108A (ja) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021199286A1 (ja) | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | オブジェクト追跡装置、オブジェクト追跡方法、および記録媒体 |
CN111831768A (zh) * | 2020-05-21 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 纠正行驶轨迹的方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110555362B (zh) | 2023-05-05 |
US10937176B2 (en) | 2021-03-02 |
JP6988698B2 (ja) | 2022-01-05 |
US20190370978A1 (en) | 2019-12-05 |
CN110555362A (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6988698B2 (ja) | 物体認識装置 | |
US11314973B2 (en) | Lane line-based intelligent driving control method and apparatus, and electronic device | |
KR102629651B1 (ko) | 신경망 이미지 프로세싱을 사용하는 3d 경계 박스들로서의 직접 차량 검출 | |
JP2020125102A (ja) | ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 | |
US11010622B2 (en) | Infrastructure-free NLoS obstacle detection for autonomous cars | |
CN109147368A (zh) | 基于车道线的智能驾驶控制方法装置与电子设备 | |
JP2020052694A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
KR102016549B1 (ko) | 차량 및 차선 위치 검출 시스템 및 방법 | |
KR20190026116A (ko) | 객체 인식 방법 및 장치 | |
US20150279021A1 (en) | Video object tracking in traffic monitoring | |
KR20200060194A (ko) | 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치 | |
JP2014137815A (ja) | 歪みのあるカメラ画像を補正するシステム及び方法 | |
US11960294B2 (en) | Self-supervised attention learning for depth and motion estimation | |
WO2020098506A1 (zh) | 路口状态检测方法、装置、电子设备及车辆 | |
CN110262487B (zh) | 一种障碍物检测方法、终端及计算机可读存储介质 | |
JP6439757B2 (ja) | 画像処理装置および画像処理方法 | |
US9384576B2 (en) | Method and device for computing a change in an image scale of an object | |
JPWO2020085028A1 (ja) | 画像認識装置および画像認識方法 | |
JP2009223504A (ja) | 車両検出装置および方法、並びに、プログラム | |
CN116434156A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶*** | |
JP5776686B2 (ja) | 線状マーク検出システム、線状マーク検出方法および線状マーク検出用プログラム | |
US20200285247A1 (en) | Systems and methods for autonomous robot navigation | |
JP2020149086A (ja) | 学習用データ生成装置、学習用データ生成方法、および学習用データ生成プログラム | |
CN114510031A (zh) | 机器人视觉导航方法、装置、机器人及存储介质 | |
JP2019020171A (ja) | 車幅検出装置、車幅検出方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200923 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211115 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6988698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |