JP2020135092A - 学習データ生成装置、方法及びプログラム - Google Patents

学習データ生成装置、方法及びプログラム Download PDF

Info

Publication number
JP2020135092A
JP2020135092A JP2019024288A JP2019024288A JP2020135092A JP 2020135092 A JP2020135092 A JP 2020135092A JP 2019024288 A JP2019024288 A JP 2019024288A JP 2019024288 A JP2019024288 A JP 2019024288A JP 2020135092 A JP2020135092 A JP 2020135092A
Authority
JP
Japan
Prior art keywords
image
marker
learning data
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019024288A
Other languages
English (en)
Other versions
JP7095616B2 (ja
Inventor
麻理子 五十川
Mariko Isogawa
麻理子 五十川
弾 三上
Dan Mikami
弾 三上
康輔 高橋
Kosuke Takahashi
康輔 高橋
草地 良規
Yoshinori Kusachi
良規 草地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019024288A priority Critical patent/JP7095616B2/ja
Priority to US17/429,547 priority patent/US20220130138A1/en
Priority to PCT/JP2020/003846 priority patent/WO2020166401A1/ja
Publication of JP2020135092A publication Critical patent/JP2020135092A/ja
Application granted granted Critical
Publication of JP7095616B2 publication Critical patent/JP7095616B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】従来よりも推定精度を向上させることができる学習データを生成する技術を提供する。【解決手段】学習データ生成装置は、3個以上のマーカが張り付けられたオブジェクトの画像を取得する画像取得部11と、画像中の各マーカの位置を計測し、各マーカの位置に基づいてオブジェクトの位置姿勢に関する情報である位置姿勢情報を生成するマーカ計測部12と、各マーカの位置に基づいて、画像中のインペインティングのための修復領域を決定する修復領域決定部13と、修復領域に基づいて、画像から各マーカを除去する画像インペインティング部14と、各マーカが除去された画像及び位置姿勢情報に基づいて、学習データを生成する学習データ生成部15と、を備えている。【選択図】図1

Description

本発明は、画像中のオブジェクトについての情報を推定するためのモデルの学習で用いられる学習データを生成する技術に関する。
画像を入力して、画像中のオブジェクトの3次元位置や姿勢を学習ベースで推定する手法として、非特許文献1の手法が知られている(例えば、非特許文献1参照。)。
この手法は、学習時に画像中のオブジェクトの3次元位置や姿勢の真値データがアノテーションされた学習データを大量に必要とすることが知られている。そして、この学習データを準備する作業には非常に多くの手間やコストを要する。
一方で、再帰性反射材などの何らかのマーカを追跡する、マーカベースのモーションキャプチャシステムを用いることで、人手でアノテーションすることなく簡易に画像中のオブジェクトの位置や姿勢を計測することが可能である。
Yu Xiang , Tanner Schmidt, Venkatraman Narayanan and Dieter Fox,"PoseCNN: A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes", Robotics: Science and Systems (RSS), 2018.
しかし、この方法では画像中に再帰性反射材などで作られたマーカが写り込んでしまう。実際の推定対象には含まれないマーカが学習時に画像に映り込むことで、推定精度が低下する原因となる可能性がある。
そこで、本発明は、従来よりも推定精度を向上させることができる学習データを生成する学習データ生成装置、方法及びプログラムを提供することを目的とする。
この発明の一態様による学習データ生成装置は、3個以上のマーカが張り付けられたオブジェクトの画像を取得する画像取得部と、画像中の各マーカの位置を計測し、各マーカの位置に基づいてオブジェクトの位置姿勢に関する情報である位置姿勢情報を生成するマーカ計測部と、各マーカの位置に基づいて、画像中のインペインティングのための修復領域を決定する修復領域決定部と、修復領域に基づいて、画像から各マーカを除去する画像インペインティング部と、各マーカが除去された画像及び位置姿勢情報に基づいて、学習データを生成する学習データ生成部と、を備えている。
マーカを除去することで、従来よりも推定精度を向上させることができる。
図1は、学習データ生成装置の機能構成の例を示す図である。 図2は、学習データ生成方法の処理手続きの例を示す図である。 図3は、マーカが張り付けられたオブジェクトの画像の例を示す図である。 (1)特定色で決定する方法で修復領域を決定した場合の画像I_maskの例を示す図である。 図5は、(2)特定色で決定する方法で修復領域を決定した場合の画像I_maskの例を示す図である。 図6は、インペインティングにより各マーカが除去された画像の例を示す図である。 図7は、実験により得られた、インペインティング有りの場合の誤差と、インペインティング無しの場合の誤差とを示す図である。
以下、本発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<学習データ生成装置及び方法>
学習データ生成装置1は、画像取得部11、マーカ計測部12、修復領域決定部13、画像インペインティング部14、学習データ生成部15を例えば備えている。
学習データ生成方法は、学習データ生成装置の構成部が、以下に説明する及び図2に示すステップS11からステップS15の処理を行うことにより例えば実現される。
[画像取得部11]
画像取得部11は、マーカが貼り付けられたオブジェクトの画像をC個のカメラc(c=1,…,C)を用いて取得する。Cは、1以上の所定の整数である。
取得された画像は、マーカ計測部12及び修復領域決定部13に出力される。
その際、画像取得部11は、オブジェクトの複数姿勢を含むようにするために、姿勢にバリエーションを持った画像を取得してもよい。すなわち、Cは2以上の所定の整数であってもよい。例えば、画像取得部11は、C=3として、C個のカメラc(c=1,…,C)でオブジェクトのC個以上の異なる姿勢の画像を取得してもよい。
なお、1つのオブジェクトに対し3個以上のマーカが張り付けられているとする。これは、オブジェクトに貼り付けるマーカは一意に姿勢を特定できるものである必要があるためである。
また、マーカは、辺長の異なる四角形上に設置するなど、可能な限りランダムに貼りつける必要がある。これは、異なる姿勢でマーカ配置が同一となってしまわないようにするためである。
また、マーカの個数は多いほうが好ましいが、マーカの面積がオブジェクトの面積の2/3を超えないように、マーカが貼りつけられているとする。これは、マーカがオブジェクトのテクスチャを覆わないようにするためである。
図3は、マーカが張り付けられたオブジェクトの画像の例を示す図である。図3では、オブジェクトであるスニーカー41の周囲に、5個の球体のマーカ42が取り付けられている。
このようにして、画像取得部11は、3個以上のマーカが張り付けられたオブジェクトの画像を取得する(ステップS11)。
[マーカ計測部12]
マーカ計測部12には、画像取得部11で取得された画像が入力される。
マーカ計測部12は、画像中の各マーカの位置を計測し、各マーカの位置に基づいてオブジェクトの位置姿勢に関する情報である位置姿勢情報を生成する(ステップS12)。
計測された各マーカの位置は、修復領域決定部13に出力される。生成された位置姿勢情報は、学習データ生成部15に出力される。
マーカ計測部12が計測する、画像中の各マーカの位置の例は、c=1,…,Cとして、カメラcで撮られた画像における各マーカの2次元座標p2(c)=(x2c, y2c)である。
マーカ計測部12が生成する位置姿勢情報は、各マーカの2次元位置情報、各マーカの3次元位置情報、オブジェクトの2次元位置情報、オブジェクトの3次元位置情報及びオブジェクトの姿勢情報の少なくとも1つである。
位置姿勢情報として、どの情報が含まれていればよいかについては、後述する推定装置3で推定しようとする情報に依存する。すなわち、位置姿勢情報には、推定装置3で推定しようとする情報が少なくとも含まれているようにする。
各マーカの2次元位置情報は、例えば、各マーカの2次元座標p2(c)=(x2c, y2c)である。
各マーカの3次元位置情報は、例えば、各マーカの3次元座標p3=(x3, y3, z3)である。
オブジェクトの2次元位置情報は、各マーカの2位次元座標p2(c)=(x2c, y2c)に基づいて定まるオブジェクトの2次元位置である。例えば、各マーカの2位次元座標p2(c)=(x2c, y2c)の幾何中心が、オブジェクトの2次元位置である。
オブジェクトの3元位置情報は、各マーカの3位次元座標p3=(x3, y3, z3)に基づいて定まるオブジェクトの3次元位置である。例えば、各マーカの3位次元座標p2(c)=(x2c, y2c)の幾何中心が、オブジェクトの3次元位置である。
オブジェクトの姿勢情報は、各マーカの3位次元座標p3=(x3, y3, z3)から算出できるオブジェクトの姿勢vである。
姿勢vの座標系として、例えば、クォータニオン座標系(回転軸と回転量を持った4次元ベクトルで表現される座標系)、球面極座標系(2つの1550108964325_0座標で表される2次元ベクトルで表現される座標系)などを利用することができる。もちろん、姿勢vの座標系及びデータ形式は、これらに限定されず、他のものを用いてもよい。
各マーカの位置の計測方法には、再帰性反射材を用いたモーションキャプチャシステムや、カラーマーカを検出、追跡する方法などを用いることができる。もちろん、各マーカの位置の計測方法は、これらに限定されず、他の計測方法を用いてもよい。
[修復領域決定部13]
修復領域決定部13には、画像取得部11で取得された画像と、マーカ計測部12で計測された各マーカの位置とが入力される。
修復領域決定部13は、各マーカの位置に基づいて、画像中のインペインティングのための修復領域を決定する。
決定された修復領域についての情報は、画像インペインティング部14に出力される。決定された修復領域についての情報の例は、後述する画像I_maskである。
例えば、修復領域決定部13は、画像取得部11で取得した画像を画像Iとして、画像Iに映り込んだ各マーカの、画像Iでの2次元座標に基づいて、画像Iにマスクをかけることでインペインティングを施すための修復領域を決定する。
修復領域は、各マーカの位置、すなわち、各マーカの2次元座標p2(c)を中心に半径rの画素内にある画素とする。ここで、半径rは、十分に画像上のマーカが隠れ、かつ最小限の大きさとなるように予め設定された定数とする。
例えば以下の方法(1)又は(2)で修復領域を決定することができる。もちろん、修復領域の決定方法は、これらに限定されず、以下の方法(1)及び(2)以外の方法を用いてもよい。
(1)特定色で決定する方法
画像Iを複製した画像に対し、各マーカの2次元座標p2(c)を中心に半径rの画素内にある画素を特定色(例えば、(R,G,B)=(255, 0, 255)など)で塗りつぶす。特定色で塗りつぶされた領域が修復領域となる。この場合、特定色で修復領域が塗りつぶされた画像がI_maskとなる。
図4は、(1)特定色で決定する方法で修復領域を決定した場合の画像I_maskの例を示す図である。図4では、修復領域43は、(R,G,B)=(255, 255, 255)の特定色で塗りつぶされている。
(2)二値画像で決定する方法
(1)の方法により特定色で塗りつぶした領域を例えば(R,G,B)=(0, 0, 0)とし、その他の領域を(R,G,B)=(255, 255, 255)とすることにより画像を二値で表す。この二値で表された画像がI_maskとなる。
図5は、(2)特定色で決定する方法で修復領域を決定した場合の画像I_maskの例を示す図である。図5では、修復領域43は(R,G,B)=(0, 0, 0)の特定色で塗りつぶされており、その他の領域は(R,G,B)=(255, 255, 255)とされている。
[画像インペインティング部14]
画像インペインティング部14には、修復領域決定部13で決定された修復領域についての情報が入力される。
なお、修復領域決定部13において(1)の方法で修復領域が決定された場合には、画像インペインティング部14の入力は、特定色で修復領域が塗りつぶされたRGB画像I_maskである。
これに対して、修復領域決定部13において(2)の方法で修復領域が決定された場合には、画像インペインティング部14には、二値で表された画像I_maskに加えて、画像取得部11で取得された画像Iが入力されるとする。
画像インペインティング部14は、修復領域に基づいて、画像から各マーカを除去する(ステップS14)。
各マーカが除去された画像I_inpaintedは、学習データ生成部15に出力される。
画像インペインティング部14は、各マーカをインペインティングにより除去する。インペインティングとは、画像内の不要な領域を、同一画像内や所定のデータベース中から取得した他の領域を利用することで、違和感なく補完する画像処理技術である。
インペインティングの方法として、例えば参考文献1又は参考文献2に記載されている方法を用いることができる。
〔参考文献1〕Kaiming He and Jian Sun, ‘Statistics of Patch Offsets for Image Completion’, ECCV, 2014
〔参考文献2〕Mariko Isogawa, Dan Mikami, Kosuke Takahashi, Akira Kojima, ‘Image and video completion via feature reduction and compensation’, Volume 76, Issue 7, pp 9443-9462, 2017.
もちろん、インペインティングの方法は、これらの方法に限定されず、他のインペインティングの方法を用いてもよい。
図6は、インペインティングにより各マーカが除去された画像の例を示す図である。図6では、インペインティングされた部分44が破線で表されている。
[学習データ生成部15]
学習データ生成部15には、各マーカが除去された画像I_inpaintedが入力される。また、学習データ生成部15には、マーカ計測部12で生成された位置姿勢情報が入力される。
学習データ生成部15は、各マーカが除去された画像I_inpainted及び位置姿勢情報に基づいて、学習データD_trainを生成する(ステップS15)。
生成された学習データは、モデル学習装置2に出力される。
例えば、学習データ生成部15は、画像I_inpaintedと、位置姿勢情報とを対応付けることで、学習データD_trainを生成する。学習データD_trainは、画像I_inpaintedと、この画像I_inpaintedに対応付けられた位置姿勢情報とを含むとする。
このようにして、実際の推定対象には含まれないマーカを除去することで、従来よりも推定精度を向上させることができる学習データを生成することができる。
なお、マーカが除去された画像I_inpaintedを含む学習データD_trainに基づくモデルの生成は、以下に説明するモデル学習装置2により行われる。また、モデル学習装置2により生成されたモデルに基づく推定は、後述する推定装置3により行われる。
<モデル学習装置2>
モデル学習装置2には、学習データ生成部15で生成された学習データD_trainが入力される。
モデル学習装置2は、学習データD_trainに基づくモデル学習を行うことで、モデルを生成する(ステップS2)。
生成されたモデルは、推定装置3に出力される。
モデル学習の方法として、参考文献3に記載されているDeep Neural Networkの方法を例えば用いることができる。もちろん、モデル学習の方法は、これに限定されず、他のモデル学習の方法を用いてもよい。
具体的には、モデル学習装置2には、同一のオブジェクトを様々な姿勢で撮影して(オブジェクトを撮影した画像には少なくとも3個のマーカが撮影されていることがのぞましい)、上述のインペインティングを行ってマーカを除去した複数の画像I_inpaintedと、複数の画像I_inpaintedのそれぞれに対応する位置姿勢情報との組を含む複数の学習データD_trainが入力される。
例えば、学習データD_trainは、あるオブジェクトのある姿勢の画像I_inpaintedと、当該画像I_inpainted中では除去されている各マーカの2次元位置情報とを組にし、同一オブジェクトの姿勢の異なる複数の組を含むデータである。
この場合、モデル学習装置2は、複数の学習データD_trainを学習することで、学習データD_trainに含まれる画像I_inpaintedと同じオブジェクトが撮影された画像が入力されたときに、学習データD_trainに含まれる位置姿勢情報であり、入力された画像中のオブジェクトの姿勢に対応する位置姿勢情報を出力するモデルを生成する。
モデル学習装置2は、例えば、学習データD_trainに含まれる位置姿勢情報が各マーカの2次元位置情報である場合には、所定の位置(入力画像中には存在しないが、学習データのオブジェクトに添付していたマーカの位置)の2次元位置情報が、入力画像のオブジェクトの位置姿勢情報として出力されるモデルを生成する。
<推定装置3>
推定装置3には、モデル学習装置2で生成されたモデルが入力される。また、推定装置3には、推定の対象となる、オブジェクトの画像が入力される。
推定装置3は、モデルを用いて、入力された画像に対応する位置姿勢情報を推定して出力する(ステップS3)。
推定される位置姿勢情報は、モデル学習装置2で、複数の画像I_inpaintedと組にして学習した位置姿勢情報に含まれる情報と同じ種類の情報である。言い換えれば、例えば、学習データ及びモデルの生成時の位置姿勢情報がオブジェクトの姿勢情報であった場合には、推定装置3により推定される位置姿勢情報もオブジェクトの姿勢情報である。
[実験結果]
以下、インペインティングによりマーカを除去した画像を用いたモデル学習の効果を表す実験結果について説明する。
約15000枚の学習データ用画像に対して上記の実施形態によりマーカを除去した画像(インペインティング有り)及びマーカを除去していない画像(インペインティング無し)を用いてモデル学習することで、インペインティング有りモデル及びインペインティング無しモデルをそれぞれ生成した。これらのモデルは、クォータニオン座標系で表される姿勢データを出力するモデルである。そして、これらのモデルのそれぞれを用いて推定した姿勢データと、正しい姿勢データとの誤差を計算した。
図7は、実験により得られた、インペインティング有りの場合の誤差と、インペインティング無しの場合の誤差とを示す図である。
図7の実線は、インペインティング有りの場合の誤差を示す。図7の破線は、インペインティング無しの場合の誤差を示す。図7の横軸は、深層学習により学習を行った際の反復数を示す。図7の縦軸は誤差の大きさを示す。
インペインティングによりマーカを除去した画像を用いてモデル学習することで、誤差を少なくできることがわかる。また、インペインティングによりマーカを除去することで、効果的にネットワークの学習が進むことがわかる。
[変形例]
以上、本発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、本発明に含まれることはいうまでもない。
実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
例えば、学習データ生成装置の構成部間のデータのやり取りは直接行われてもよいし、図示していない記憶部を介して行われてもよい。
[プログラム、記録媒体]
上記説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 学習データ生成装置
11 画像取得部
12 マーカ計測部
13 修復領域決定部
14 画像インペインティング部
15 学習データ生成部
2 モデル学習装置
3 推定装置
41 スニーカー
42 マーカ
43 修復領域
44 インペインティングされた部分

Claims (4)

  1. 3個以上のマーカが張り付けられたオブジェクトの画像を取得する画像取得部と、
    前記画像中の各マーカの位置を計測し、前記各マーカの位置に基づいて前記オブジェクトの位置姿勢に関する情報である位置姿勢情報を生成するマーカ計測部と、
    前記各マーカの位置に基づいて、前記画像中のインペインティングのための修復領域を決定する修復領域決定部と、
    前記修復領域に基づいて、前記画像から前記各マーカを除去する画像インペインティング部と、
    前記各マーカが除去された画像及び前記位置姿勢情報に基づいて、学習データを生成する学習データ生成部と、
    を含む学習データ生成装置。
  2. 請求項1の学習データ生成装置であって、
    前記位置姿勢情報は、前記各マーカの2次元位置情報、前記各マーカの3次元位置情報、前記オブジェクトの2次元位置情報、前記オブジェクトの3次元位置情報及び前記オブジェクトの姿勢情報の少なくとも1つである、
    学習データ生成装置。
  3. 画像取得部が、3個以上のマーカが張り付けられたオブジェクトの画像を取得する画像取得ステップと、
    マーカ計測部が、前記画像中の各マーカの位置を計測し、前記各マーカの位置に基づいて前記オブジェクトの位置姿勢に関する情報である位置姿勢情報を生成するマーカ計測ステップと、
    修復領域決定部が、前記各マーカの位置に基づいて、前記画像中のインペインティングのための修復領域を決定する修復領域決定ステップと、
    画像インペインティング部が、前記修復領域に基づいて、前記画像から前記各マーカを除去する画像インペインティングステップと、
    学習データ生成部が、前記各マーカが除去された画像及び前記位置姿勢情報に基づいて、学習データを生成する学習データ生成ステップと、
    を含む学習データ生成方法。
  4. 請求項1又は2の学習データ生成装置の各部としてコンピュータを機能させるためのプログラム。
JP2019024288A 2019-02-14 2019-02-14 学習データ生成装置、方法及びプログラム Active JP7095616B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019024288A JP7095616B2 (ja) 2019-02-14 2019-02-14 学習データ生成装置、方法及びプログラム
US17/429,547 US20220130138A1 (en) 2019-02-14 2020-02-03 Training data generation apparatus, method and program
PCT/JP2020/003846 WO2020166401A1 (ja) 2019-02-14 2020-02-03 学習データ生成装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024288A JP7095616B2 (ja) 2019-02-14 2019-02-14 学習データ生成装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020135092A true JP2020135092A (ja) 2020-08-31
JP7095616B2 JP7095616B2 (ja) 2022-07-05

Family

ID=72044894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024288A Active JP7095616B2 (ja) 2019-02-14 2019-02-14 学習データ生成装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US20220130138A1 (ja)
JP (1) JP7095616B2 (ja)
WO (1) WO2020166401A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022115867A1 (de) 2022-06-24 2024-01-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Trainieren eines Posenerkennungsmodells zur Erkennung einer Brillenpose einer Datenbrille in einer mobilen Einrichtung

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221614A1 (ja) * 2017-05-31 2018-12-06 株式会社Preferred Networks 学習装置、学習方法、学習モデル、推定装置及び把持システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221614A1 (ja) * 2017-05-31 2018-12-06 株式会社Preferred Networks 学習装置、学習方法、学習モデル、推定装置及び把持システム

Also Published As

Publication number Publication date
JP7095616B2 (ja) 2022-07-05
WO2020166401A1 (ja) 2020-08-20
US20220130138A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
Urban et al. Multicol-slam-a modular real-time multi-camera slam system
CN105654464B (zh) 图像处理装置及图像处理方法
RU2713611C2 (ru) Способ моделирования трехмерного пространства
CN107533763B (zh) 图像处理装置、图像处理方法及程序
US20180066934A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP3735344B2 (ja) キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
US10234844B2 (en) Information processing apparatus, control method thereof, information processing system, and non-transitory computer-readable storage medium
US20190141247A1 (en) Threshold determination in a ransac algorithm
KR100793838B1 (ko) 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
AU2017225023A1 (en) System and method for determining a camera pose
JP2016070674A (ja) 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム
KR101592798B1 (ko) 배향 센서들에 기초한 호모그래피 분해 모호성의 해결
JP2011179908A (ja) 3次元計測装置、その処理方法及びプログラム
US20210407189A1 (en) Information processing apparatus, information processing method, and program
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
Zhu et al. Robust plane-based calibration of multiple non-overlapping cameras
CN113284192A (zh) 运动捕捉方法、装置、电子设备以及机械臂控制***
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP7095616B2 (ja) 学習データ生成装置、方法及びプログラム
JP2001101419A (ja) 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP5530391B2 (ja) カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム
KR101766823B1 (ko) 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법
JP2002008014A (ja) 3次元形状抽出方法及び装置並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7095616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150