JP6946255B2 - 学習装置、推定装置、学習方法およびプログラム - Google Patents
学習装置、推定装置、学習方法およびプログラム Download PDFInfo
- Publication number
- JP6946255B2 JP6946255B2 JP2018213008A JP2018213008A JP6946255B2 JP 6946255 B2 JP6946255 B2 JP 6946255B2 JP 2018213008 A JP2018213008 A JP 2018213008A JP 2018213008 A JP2018213008 A JP 2018213008A JP 6946255 B2 JP6946255 B2 JP 6946255B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- estimation
- learning
- parallax
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
・クロスエントロピー(Cross Entropy)損失:最も真の奥行きに近い奥行きのラベルに対して、一定の重みを設定する。
・ソフトクロスエントロピー(Soft Cross Entropy)損失:最も真の奥行きに近い奥行きラベルと、その周辺に一定の重みを設定する。
第1の実施形態にかかる学習装置は、サブクラス単位(例えばサブピクセル単位)でクラスを推定できるように、推定モデルを学習する。この結果、推定モデルが尤度を出力する対象として予め定められた推定クラスの中間のクラスに相当するサブクラスを推定可能となる。すなわち、クラスをより高精度に推定可能となる。以下では、ステレオ画像を用いた視差の推定(奥行きの推定)を例に説明するが、視差の推定以外のクラス推定にも同様の手順を適用可能である。
あてはめる関数として、2次曲線を用いる場合について説明する。図6は、あてはめた2次曲線の例を示す図である。図6に示すように、真値601に最も近い視差dgtとそれに隣接する視差dgt+1と視差dgt−1の相違度に対して2次曲線611をあてはめると、真値601に最も近い視差dgtから真値601までの偏差d^は以下の(3)式によって求めることができる。
あてはめる関数として、等角直線を用いる場合について説明する。図7は、あてはめた等角直線の例を示す図である。図7に示すように、真値701に最も近い視差dgtとそれに隣接する視差dgt+1と視差dgt−1の相違度に対して等角直線711、712をあてはめると、等角直線の極小値で真の視差となる。また、真値701に最も近い視差dgtから真値701までの偏差d^は以下の(10)式によって求めることができる。
第2の実施形態では、第1の実施形態の学習装置100で学習した推定モデルを用いてクラスを推定する推定装置を備える推定システムについて説明する。
101 受付部
102 尤度算出部
103 重み算出部
104 学習部
105 出力制御部
121 記憶部
200 推定装置
201 通信制御部
202 受付部
203 尤度算出部
204 推定部
221 記憶部
300 ネットワーク
Claims (13)
- 入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出部と、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出部と、
前記損失関数を用いて前記推定モデルを学習する学習部と、
を備える学習装置。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項1に記載の学習装置。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項1に記載の学習装置。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項1に記載の学習装置。 - 請求項1に記載の学習装置により学習された前記推定モデルを用いて、入力データが複数の前記推定クラスに属する尤度を算出する第2尤度算出部と、
複数の前記推定クラスのうち前記尤度が最大となる第4クラスの前記尤度と、前記第4クラスに隣接する第5クラスおよび第6クラスの尤度と、を前記関数にあてはめたときに、前記関数の極値となる位置に相当するクラスを推定する推定部と、
を備える推定装置。 - 入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出ステップと、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出ステップと、
前記損失関数を用いて前記推定モデルを学習する学習ステップと、
を含む学習方法。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項6に記載の学習方法。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項6に記載の学習方法。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項6に記載の学習方法。 - コンピュータを、
入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出部と、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出部と、
前記損失関数を用いて前記推定モデルを学習する学習部と、
として機能させるためのプログラム。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項10に記載のプログラム。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項10に記載のプログラム。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項10に記載のプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213008A JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
US16/548,550 US11531862B2 (en) | 2018-11-13 | 2019-08-22 | Learning device, estimating device, learning method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213008A JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020080047A JP2020080047A (ja) | 2020-05-28 |
JP6946255B2 true JP6946255B2 (ja) | 2021-10-06 |
Family
ID=70550668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018213008A Active JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11531862B2 (ja) |
JP (1) | JP6946255B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020230214A1 (ja) * | 2019-05-10 | 2020-11-19 | 日本電信電話株式会社 | 深度推定装置、深度推定モデル学習装置、深度推定方法、深度推定モデル学習方法、及び深度推定プログラム |
CN112418498B (zh) * | 2020-11-12 | 2024-06-04 | 中国农业大学 | 用于智能温室的温度预测方法及*** |
US20220176998A1 (en) * | 2020-12-08 | 2022-06-09 | Guangzhou Automobile Group Co., Ltd. | Method and Device for Loss Evaluation to Automated Driving |
CN114912568A (zh) * | 2021-02-09 | 2022-08-16 | 日本电气株式会社 | 数据处理的方法、设备和计算机可读存储介质 |
CN118284904A (zh) * | 2021-11-10 | 2024-07-02 | 富士胶片株式会社 | 学习方法、学习装置、学习程序及图像处理装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5974325B2 (ja) * | 2012-09-11 | 2016-08-23 | 東海光学株式会社 | 光学レンズのクラス判別方法 |
US10572800B2 (en) * | 2016-02-05 | 2020-02-25 | Nec Corporation | Accelerating deep neural network training with inconsistent stochastic gradient descent |
US10176198B1 (en) * | 2016-05-09 | 2019-01-08 | A9.Com, Inc. | Techniques for identifying visually similar content |
JP6733302B2 (ja) | 2016-05-17 | 2020-07-29 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
GB2553782B (en) * | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
CN108537871B (zh) * | 2017-03-03 | 2024-02-20 | 索尼公司 | 信息处理设备和信息处理方法 |
US11003989B2 (en) * | 2017-04-27 | 2021-05-11 | Futurewei Technologies, Inc. | Non-convex optimization by gradient-accelerated simulated annealing |
-
2018
- 2018-11-13 JP JP2018213008A patent/JP6946255B2/ja active Active
-
2019
- 2019-08-22 US US16/548,550 patent/US11531862B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11531862B2 (en) | 2022-12-20 |
US20200151540A1 (en) | 2020-05-14 |
JP2020080047A (ja) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946255B2 (ja) | 学習装置、推定装置、学習方法およびプログラム | |
CN108961327B (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
AU2017324923B2 (en) | Predicting depth from image data using a statistical model | |
KR102147361B1 (ko) | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 | |
CN111209770B (zh) | 一种车道线识别方法及装置 | |
US8755630B2 (en) | Object pose recognition apparatus and object pose recognition method using the same | |
US11274922B2 (en) | Method and apparatus for binocular ranging | |
JP6489551B2 (ja) | 画像のシーケンスにおいて前景を背景から分離する方法およびシステム | |
KR20180087994A (ko) | 스테레오 매칭 방법 및 영상 처리 장치 | |
CN103310421B (zh) | 针对高清图像对的快速立体匹配方法及视差图获取方法 | |
EP3182369B1 (en) | Stereo matching method, controller and system | |
CN105335955A (zh) | 对象检测方法和对象检测装置 | |
EP3769265A1 (en) | Localisation, mapping and network training | |
US11030478B1 (en) | System and method for correspondence map determination | |
JP7055769B2 (ja) | データ生成装置、データ生成方法およびプログラム | |
CN114372523A (zh) | 一种基于证据深度学习的双目匹配不确定性估计方法 | |
CN110428461B (zh) | 结合深度学习的单目slam方法及装置 | |
CN114072842A (zh) | 从图像中确定深度的方法和相关*** | |
WO2021051382A1 (zh) | 白平衡处理方法和设备、可移动平台、相机 | |
US11734845B2 (en) | System and method for self-supervised monocular ground-plane extraction | |
US10853657B2 (en) | Object region identifying apparatus, object region identifying method, and computer program product | |
CN113344988B (zh) | 立体匹配方法、终端及存储介质 | |
CN114761998A (zh) | 通过神经网络的自适应学习从图像确定深度的方法及其*** | |
EP4174775A1 (en) | Prediction method; computer program, readable medium, system and mobile machine for implementing the method | |
KR102653972B1 (ko) | 그래디언트 부스팅 네트워크를 이용한 단안 영상 기반 깊이 추정 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210915 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6946255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |