JP7042690B2 - 学習用データ生成装置 - Google Patents

学習用データ生成装置 Download PDF

Info

Publication number
JP7042690B2
JP7042690B2 JP2018098590A JP2018098590A JP7042690B2 JP 7042690 B2 JP7042690 B2 JP 7042690B2 JP 2018098590 A JP2018098590 A JP 2018098590A JP 2018098590 A JP2018098590 A JP 2018098590A JP 7042690 B2 JP7042690 B2 JP 7042690B2
Authority
JP
Japan
Prior art keywords
learning data
window
building
image
area ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018098590A
Other languages
English (en)
Other versions
JP2019204258A (ja
Inventor
竜平 濱口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2018098590A priority Critical patent/JP7042690B2/ja
Publication of JP2019204258A publication Critical patent/JP2019204258A/ja
Application granted granted Critical
Publication of JP7042690B2 publication Critical patent/JP7042690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、上空から撮影した空中撮影画像において建物を認識する機械学習に用いる学習用データを生成する装置に関する。
航空画像や衛星画像等の空中撮影画像から建物を認識する機械学習モデルを生成する際には、学習用の空中撮影画像内に所定サイズの抽出窓を配置し、当該抽出窓内の画像(窓画像)を切り出して学習用データとして用いる。学習用データには例えば、数万枚の窓画像が必要となる。
従来の学習用データの作成方法では、例えば、学習用の空中撮影画像内のランダムな位置から窓画像を切り出す。また、下記特許文献1に示される技術では、窓画像から抽出される特徴を示す特徴情報に予め定められたルールを適用して、当該窓画像内に対象物が存在しているか否かを判定する一方、ユーザに窓画像を判読させて教師データを取得し、窓画像と教師データとを組み合わせて学習用データを生成する。
特開2016-192007号公報
空中撮影画像に対してランダムに位置を選択して窓画像を切り出した場合、建物が存在していない窓画像が大半となり、切り出された窓画像に対して建物が存在する画像と存在しない画像とで割合が偏り、その結果、偏った学習用データが作成され得る。偏った学習用データを用いて生成された機械学習モデルは、当該偏り自体を学習する結果、精度よく建物を抽出することができなかった。また、窓画像から学習用データを生成し蓄積する際に、窓画像内に対象物が存在しているか否かを判定するだけでは、学習用データにおける上述の偏りは無くならない。
本発明は上記問題点を解決するためになされたものであり、空中撮影画像において建物を認識する機械学習に関し、偏りが抑制された学習用データを作成することができる学習用データ生成装置を提供することを目的とする。
(1)本発明に係る学習用データ生成装置は、上空から撮影した空中撮影画像において建物を認識する機械学習に用いる学習用データを生成する装置であって、前記学習用データの生成に用いる前記空中撮影画像内に所定サイズの抽出窓を配置し、当該抽出窓内の画像を窓画像として切り出す窓画像抽出手段と、建物の存在領域が表示された地図を用いて、前記抽出窓内の所定部分における建物領域の割合を算出し、前記窓画像に対応する建物領域割合を求める建物領域割合判定手段と、複数切り出された前記窓画像を、前記建物領域割合に応じて予め定められた複数のクラスに分類し前記学習用データとして格納する学習用データ格納手段と、を有する。
(2)上記(1)の学習用データ生成装置において、前記窓画像抽出手段は、複数の前記窓画像を切り出す際に、前記空中撮影画像内にてランダムな位置に前記抽出窓を設定する構成とすることができる。
(3)上記(1),(2)の学習用データ生成装置において、前記建物領域割合判定手段は、建物に関する予め定められた複数の種類ごとに前記建物領域割合を求め、前記学習用データ格納手段における前記複数のクラスは、前記種類ごとの前記建物領域割合に基づいて予め定められている構成とすることができる。
(4)上記(3)の学習用データ生成装置において、前記建物に関する前記種類は、建物の大きさに基づいて定められている構成とすることができる。
(5)上記(1)~(4)の学習用データ生成装置において、前記学習用データ格納手段は、前記クラスごとに前記学習用データの目標格納数を予め設定され、格納した前記窓画像の数が当該目標格納数に達した前記クラスについては前記窓画像の格納を停止する構成とすることができる。
(6)本発明に係るプログラムは、上空から撮影した空中撮影画像において建物を認識する機械学習に用いる学習用データを生成する処理をコンピュータに行わせるためのプログラムであって、当該コンピュータを、前記学習用データの生成に用いる前記空中撮影画像内に所定サイズの抽出窓を配置し、当該抽出窓内の画像を窓画像として切り出す窓画像抽出手段、建物の存在領域が表示された地図を用いて、前記抽出窓内の所定部分における建物領域の割合を算出し、前記窓画像に対応する建物領域割合を求める建物領域割合判定手段、及び、複数切り出された前記窓画像を、前記建物領域割合に応じて予め定められた複数のクラスに分類し前記学習用データとして格納する学習用データ格納手段、として機能させる。
本発明によれば、空中撮影画像において建物を認識する機械学習に関し、偏りが抑制された学習用データを作成することができる。
本発明の実施形態に係る学習用データ生成システムの概略の構成を示すブロック図である。 本発明の実施形態に係る学習用データ生成システムによる学習用データの生成に関する概略の処理フロー図である。
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
図1は、実施形態である学習用データ生成システム2の概略の構成を示すブロック図である。学習用データ生成システム2は、上空から撮影した空中撮影画像に写った建物を認識する機械学習に用いる学習用データ(訓練データ)を生成する。学習用データ生成システム2は、演算処理装置4、記憶装置6、入力装置8及び出力装置10を含んで構成される。演算処理装置4として、本システムの処理を行う専用のハードウェアを作ることも可能であるが、本実施形態では演算処理装置4は、コンピュータ及び、当該コンピュータ上で実行されるプログラムを用いて構築される。
当該コンピュータのCPU(Central Processing Unit)が演算処理装置4を構成し、後述する窓画像抽出手段20、地図対応付け手段22、建物領域割合判定手段24及び学習用データ格納手段26として機能する。
記憶装置6はコンピュータシステムに内蔵されるハードディスクなどで構成される。記憶装置6は演算処理装置4を窓画像抽出手段20、地図対応付け手段22、建物領域割合判定手段24及び学習用データ格納手段26として機能させるためのプログラム及びその他のプログラムや、本システムの処理に必要な各種データを記憶する。例えば、記憶装置6は、学習用データの生成処理における入力データとして空中撮影画像30及び建物地図32を予め記憶する。また、記憶装置6は、本システムにより生成される学習用データ34を記憶する。
入力装置8はキーボード、マウスなどであり、ユーザが本システムへの操作を行うために用いる。
出力装置10は例えば、生成された学習用データをユーザに示すディスプレイ、プリンタや、学習用データを他のシステムへ出力するインターフェース装置である。
空中撮影画像30は、航空画像や衛星画像など、地表を上空から撮影した画像のデータであり、例えばオルソ画像である。空中撮影画像30は建物を認識する学習に用いる学習用データを生成するために用意され、建物が存在する領域の画像と建物が存在しない領域の画像とを含む。後述するように、学習用データは空中撮影画像30内の一部領域を切り出して生成される画像である。よって、基本的に空中撮影画像30は学習用データとする画像より広範囲を撮影した画像である。また、機械学習により生成されるモデルの精度を確保するためには多数の学習用データが必要となる。よって、空中撮影画像30として、生成する学習用データの数に応じて広い撮影面積の画像が用意される。なお、当該撮影面積は複数枚の空中撮影画像に分割することができ、本実施形態では空中撮影画像30は複数枚の空中撮影画像からなるものとする。
また、後述するように本実施形態では、建物に関する複数の種類ごとに学習用データを生成するので、空中撮影画像30を用意する際には、当該各種類の建物の画像が得られるようにすることが好適である。
建物地図32は地表における建物の存在領域が表示された地図データであり、具体的には、建物の位置及び平面形状の情報を与える。建物地図32は、教師あり学習に用いる学習用データを生成する際の正解データとして用いられる。そのため、建物地図32は基本的に、空中撮影画像30に撮影されている領域について用意される。建物地図32として既存の住宅地図等を用いることができる。また、建物に関する複数の種類ごとに学習用データを生成する場合には、建物地図32は各建物が当該複数の種類のいずれであるかを示す情報を含む。具体的には、本実施形態では、建物の複数の種類として、建物の大きさに関し「大(L)」、「中(M)」、「小(S)」の3サイズを設定することに対応し、建物地図32は各建物に当該サイズを対応付けて記憶する。なお、建物の大きさはここでは建築面積で定義するが、建物の高さや容積で定義してもよい。また、建物の種類は、木造と非木造といった建物の構造に関するものとすることもできる。
学習用データ34は、空中撮影画像30から切り出された画像である。ここで、空中撮影画像30内にて画像を切り出す領域を抽出窓と称し、当該領域から切り出される画像を窓画像と称する。つまり、学習用データ34は空中撮影画像30内に設定された抽出窓から切り出された窓画像である。また、記憶装置6は、学習用データ34として、当該窓画像に対応する位置の建物地図32を記憶する。
また、本実施形態では、学習用データ34は、Lサイズの建物用の学習用データD、Mサイズの建物用の学習用データD、Sサイズの建物用の学習用データD、及び非建物領域用の学習用データDに分類される。
窓画像抽出手段20は、記憶装置6から空中撮影画像30を読み出し、当該空中撮影画像30内に抽出窓を配置し、当該抽出窓内の画像を窓画像として切り出す。
抽出窓のサイズ、形状は予め定められる。例えば、抽出窓のサイズ、形状は、生成される学習用データ34を用いて行う機械学習に対応して設定することができる。
空中撮影画像30内にて互いに異なる複数の位置に抽出窓を設定して窓画像を切り出せば、1枚の空中撮影画像30から複数の学習用データを生成することができる。つまり、空中撮影画像30の枚数が少なくても多数の学習用データを生成できる。本実施形態では、窓画像抽出手段20は抽出窓の位置を空中撮影画像30内にてランダムに設定し、1枚の空中撮影画像30から複数の学習用データを得ることを可能にする。
地図対応付け手段22は、窓画像に建物地図32から切り出した地図データを対応付ける。ここで、切り出した当該地図データをパッチ地図と呼ぶことにする。例えば、窓画像抽出手段20にて窓画像の切り出しに用いたものと共通の抽出窓を建物地図32に設定して、窓画像と同じ位置の地図データを建物地図32から切り出しパッチ地図とする。
建物領域割合判定手段24は、地図対応付け手段22により切り出したパッチ地図を用いて、抽出窓内の所定部分における建物領域の割合を算出し、窓画像に対応する建物領域割合を求める。当該所定部分を算出対象領域と呼ぶことにすると、建物領域割合Rは算出対象領域における建物領域の面積Sを算出対象領域の面積Sで除した値(S/S)で定義することができる。なお、建物領域割合判定手段24はさらに、算出対象領域における建物が存在しない領域の割合(非建物領域割合)Rを算出してもよい。RはR=1-Rで求められる。
また、建物に関し複数の種類を設定し、建物領域割合Rは当該種類ごとに算出することができる。具体的には、本実施形態では、建物の複数の種類として、建物の大きさに関し上述のように3サイズを設定するので、建物領域割合判定手段24は、建物領域割合の算出対象領域内にてLサイズの建物が占める割合をLサイズ建物領域割合Rとして算出し、同様に、Mサイズ、Sサイズの建物についてMサイズ建物領域割合R、Sサイズ建物領域割合Rを算出する。ここでは、建物地図32において任意の建物はL、M、Sサイズのいずれかに対応付けられているとし、従って、R+R+R=Rである。
建物領域割合の算出対象領域とする抽出窓の所定部分は抽出窓の一部、全部のどちらであってもよい。例えば、CNN(Convolutional Neural Network)による機械学習の学習用データを生成する場合に、当該部分は抽出窓の中心に位置し、CNNの出力データのサイズに応じた大きさの矩形領域とすることができる。
学習用データ格納手段26は、複数切り出された窓画像を、建物領域割合に応じて予め定められた複数のクラスに分類し、記憶装置6に学習用データ34として格納する。例えば、建物領域割合判定手段24が建物の種類を区別せずに、建物領域割合として単一のRのみを求める場合には、Rと、予め設定された閾値THとの大小関係に基づいて、窓画像を2クラスに分類することができる。例えば、R≧THである窓画像は、「建物占有率が高い窓画像」というクラスに分類し、一方、R<TH(又はR>1-TH)である窓画像は、「建物占有率が低い窓画像」というクラスに分類することができる。
また、学習用データ格納手段26における複数のクラスは、建物領域割合判定手段24により算出される建物の種類ごとの建物領域割合に基づいて予め設定することができる。例えば、本実施形態では、建物領域割合R,R,Rに基づいて窓画像を4つのクラスに分類する。なお、本実施形態における具体的な分類については後述する。
学習用データ格納手段26は、クラスごとに学習用データの目標格納数を予め設定され、格納した窓画像の数が当該目標格納数に達したクラスについては窓画像の格納を停止する構成とすることができる。例えば、各クラスの目標格納数は同数とすることができる。この構成により、生成される学習用データの数についてクラス間での偏りを抑制することが可能となる。
図2は学習用データ生成システム2による学習用データの生成に関する概略の処理フロー図である。
窓画像抽出手段20は記憶装置6に記憶されている複数枚の空中撮影画像30からランダムに1枚選択する(ステップS5)。そして、窓画像抽出手段20は選択した空中撮影画像30内にてランダムな位置に抽出窓を設定し(ステップS10)、抽出窓内の画像を窓画像として切り出す(ステップS15)。一方、地図対応付け手段22は建物地図32から抽出窓に対応する位置の地図データをパッチ地図として切り出す(ステップS20)。
建物領域割合判定手段24はパッチ地図に示された建物の領域及びサイズに基づいて建物領域割合R,R,Rを算出する(ステップS25)。具体的には、算出対象領域の画像を構成するピクセルの数をSとし、算出対象領域内のLMS各サイズの建物の領域のピクセル数をSで除した値をR,R,Rとする。さらに、建物領域割合判定手段24は、R=1-(R+R+R)で与えられる非建物領域割合Rを算出してもよい。
ここで、算出対象領域は窓画像の一部分とすることができる。一例として、CNNへ入力される窓画像のサイズを64×64ピクセルとすると、CNNの出力のサイズはそれより小さい例えば16×16ピクセルとすることができ、建物領域割合の算出対象領域は当該出力に合わせて、パッチ地図の中心の16×16ピクセルとすることができる。
学習用データ格納手段26は、ステップS25にて算出されたR,R,R,Rと、これら割合に関して予め設定された閾値TH,TH,TH,THとを用いて、ステップS15にて抽出された窓画像を学習用データ34の4つのクラスに分類する。
まず、学習用データ格納手段26は、ステップS15にて抽出された窓画像の非建物領域割合Rが閾値THより大きければ(ステップS30にて「YES」の場合)、当該窓画像は「建物占有率が低い窓画像」であるとし、学習用データDとして収集するか否かを判断する(ステップS31)。学習用データ格納手段26は、学習用データDの収集が未完了、つまり学習用データDに既に格納されているデータ数が予め定めた目標格納数N未満であれば(ステップS31にて「NO」の場合)、当該窓画像を学習用データDとして記憶装置6に格納する(ステップS32)。
一方、学習用データ格納手段26は、ステップS30にて「NO」、又はステップS31にて「YES」と判定された窓画像、つまり学習用データDに格納されなかった窓画像については、建物領域割合Rが閾値THより大きければ(ステップS40にて「YES」の場合)、当該窓画像は「Sサイズの建物占有率が高い窓画像」であるとし、学習用データDとして収集するか否かを判断する(ステップS41)。学習用データ格納手段26は、学習用データDの収集が未完了、つまり学習用データDに既に格納されているデータ数が予め定めた目標格納数N未満であれば(ステップS41にて「NO」の場合)、当該窓画像を学習用データDとして記憶装置6に格納する(ステップS42)。
同様に、学習用データ格納手段26は、ステップS40にて「NO」、又はステップS41にて「YES」と判定され学習用データDに格納されなかった窓画像については、建物領域割合Rが閾値THより大きければ(ステップS50にて「YES」の場合)、当該窓画像を学習用データDとして収集するか否かを判断する(ステップS51)。学習用データ格納手段26は、学習用データDの収集が未完了、つまり学習用データDに既に格納されているデータ数が予め定めた目標格納数N未満であれば(ステップS51にて「NO」の場合)、当該窓画像を学習用データDとして記憶装置6に格納する(ステップS52)。
また、ステップS50にて「NO」、又はステップS51にて「YES」と判定され、学習用データDに格納されなかった窓画像については、建物領域割合Rが閾値THより大きければ(ステップS60にて「YES」の場合)、当該窓画像を学習用データDとして収集するか否かを判断する(ステップS61)。学習用データDの収集が未完了、つまり学習用データDに既に格納されているデータ数が予め定めた目標格納数N未満であれば(ステップS61にて「NO」の場合)、学習用データ格納手段26は当該窓画像を学習用データDとして記憶装置6に格納する(ステップS62)。
なお、窓画像と、当該窓画像と共通の抽出窓で切り出されたパッチ地図とを対応付けて学習用データとし、記憶装置6に格納することができる。
このようにして、或る窓画像に対する学習用データ34のクラス分類が終わると、窓画像抽出手段20は、4クラスの学習用データD,D,D,Dのデータ数が全てそれぞれの目標格納数N,N,N,Nに達しているかを調べ、いずれかのクラスが目標格納数に達していなければ(ステップS70にて「NO」の場合)、ステップS5から処理を繰り返し、一方、全てのクラスが目標格納数に達していれば(ステップS70にて「YES」の場合)、学習用データの生成処理を終了する。
閾値TH,TH,TH,THは、必要とされる学習用データ34の内容を考慮して設定することができる。例えば、閾値TH,TH,TH,THは共通の値(例えば、0.2)とすることもできるし、異なる値とすることもできる。
また、建物領域割合を用いた学習用データ34の分類の仕方は上述の例には限られず、必要とされる学習用データ34の内容に応じて分類の条件、手順を設計することができる。例えば、上述の構成では窓画像が学習用データD,D,D,Dの順に格納可能かを判断したが、この順序は変えることができる。また、例えば、窓画像のR,R,R,Rのうち最大のものをRλ(λはL,M,S,Aのいずれか)と表すと、当該窓画像を学習用データDλに分類する構成とすることができ、また、当該窓画像を学習用データDλに格納するに際し、Rλが閾値THλより大きいことを条件として課す構成とすることもできる。
実施形態を用いて上に説明した本発明によれば、窓画像内の建物領域割合に応じて当該窓画像を複数のクラスに分類し、学習用データ34はクラスごとに振り分けて格納される。つまり、本発明によれば、学習用データの数をクラスごとに制御することができ、クラスごとに所望の数の学習用データを生成することができる。また、クラス間での学習用データの数の偏りをなくすこともできる。
2 学習用データ生成システム、4 演算処理装置、6 記憶装置、8 入力装置、10 出力装置、20 窓画像抽出手段、22 地図対応付け手段、24 建物領域割合判定手段、26 学習用データ格納手段、30 空中撮影画像、32 建物地図、34 学習用データ。

Claims (6)

  1. 上空から撮影した空中撮影画像において建物を認識する機械学習に用いる学習用データを生成する装置であって、
    前記学習用データの生成に用いる前記空中撮影画像内に所定サイズの抽出窓を配置し、当該抽出窓内の画像を窓画像として切り出す窓画像抽出手段と、
    建物の存在領域が表示された地図を用いて、前記抽出窓内の所定部分における建物領域の割合を算出し、前記窓画像に対応する建物領域割合を求める建物領域割合判定手段と、
    複数切り出された前記窓画像を、前記建物領域割合に応じて予め定められた複数のクラスに分類し前記学習用データとして格納する学習用データ格納手段と、
    を有することを特徴とする学習用データ生成装置。
  2. 請求項1に記載の学習用データ生成装置において、
    前記窓画像抽出手段は、複数の前記窓画像を切り出す際に、前記空中撮影画像内にてランダムな位置に前記抽出窓を設定すること、を特徴とする学習用データ生成装置。
  3. 請求項1又は請求項2に記載の学習用データ生成装置において、
    前記建物領域割合判定手段は、建物に関する予め定められた複数の種類ごとに前記建物領域割合を求め、
    前記学習用データ格納手段における前記複数のクラスは、前記種類ごとの前記建物領域割合に基づいて予め定められていること、
    を特徴とする学習用データ生成装置。
  4. 請求項3に記載の学習用データ生成装置において、
    前記建物に関する前記種類は、建物の大きさに基づいて定められていること、を特徴とする学習用データ生成装置。
  5. 請求項1から請求項4のいずれか1つに記載の学習用データ生成装置において、
    前記学習用データ格納手段は、前記クラスごとに前記学習用データの目標格納数を予め設定され、格納した前記窓画像の数が当該目標格納数に達した前記クラスについては前記窓画像の格納を停止すること、を特徴とする学習用データ生成装置。
  6. 上空から撮影した空中撮影画像において建物を認識する機械学習に用いる学習用データを生成する処理をコンピュータに行わせるためのプログラムであって、当該コンピュータを、
    前記学習用データの生成に用いる前記空中撮影画像内に所定サイズの抽出窓を配置し、当該抽出窓内の画像を窓画像として切り出す窓画像抽出手段、
    建物の存在領域が表示された地図を用いて、前記抽出窓内の所定部分における建物領域の割合を算出し、前記窓画像に対応する建物領域割合を求める建物領域割合判定手段、及び、
    複数切り出された前記窓画像を、前記建物領域割合に応じて予め定められた複数のクラスに分類し前記学習用データとして格納する学習用データ格納手段、
    として機能させることを特徴とするプログラム。
JP2018098590A 2018-05-23 2018-05-23 学習用データ生成装置 Active JP7042690B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018098590A JP7042690B2 (ja) 2018-05-23 2018-05-23 学習用データ生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098590A JP7042690B2 (ja) 2018-05-23 2018-05-23 学習用データ生成装置

Publications (2)

Publication Number Publication Date
JP2019204258A JP2019204258A (ja) 2019-11-28
JP7042690B2 true JP7042690B2 (ja) 2022-03-28

Family

ID=68726995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018098590A Active JP7042690B2 (ja) 2018-05-23 2018-05-23 学習用データ生成装置

Country Status (1)

Country Link
JP (1) JP7042690B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192119A1 (ja) * 2020-03-25 2021-09-30 ソニーグループ株式会社 情報処理装置、プログラム、および方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258953A (ja) 2008-04-16 2009-11-05 Univ Of Electro-Communications 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム
JP2013206431A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2017033197A (ja) 2015-07-30 2017-02-09 日本電信電話株式会社 変化領域検出装置、方法、及びプログラム
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258953A (ja) 2008-04-16 2009-11-05 Univ Of Electro-Communications 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム
JP2013206431A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2017033197A (ja) 2015-07-30 2017-02-09 日本電信電話株式会社 変化領域検出装置、方法、及びプログラム
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム

Also Published As

Publication number Publication date
JP2019204258A (ja) 2019-11-28

Similar Documents

Publication Publication Date Title
CN109948497B (zh) 一种物体检测方法、装置及电子设备
US20190347767A1 (en) Image processing method and device
US9424479B2 (en) Systems and methods for resizing an image
WO2021095693A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20210027536A1 (en) Network, System and Method for Multi-View 3D Mesh Generation via Deformation
CN110726418A (zh) 兴趣点区域确定方法、装置、设备及存储介质
US9460160B1 (en) System and method for selecting user generated content related to a point of interest
CN112734641A (zh) 目标检测模型的训练方法、装置、计算机设备及介质
US20180247183A1 (en) Method and system for generative model learning, and recording medium
US9551579B1 (en) Automatic connection of images using visual features
CN107610140A (zh) 基于深度融合修正网络的精细边缘检测方法、装置
CN108463821A (zh) 用于直接从图像识别实体的***和方法
CN103136781B (zh) 用于生成三维虚拟场景的方法和***
JP2019075122A (ja) プーリングタイプに対する情報を含むテーブルを作成するための方法、装置及びこれを利用したテスティング方法、テスティング装置
CN108876706A (zh) 根据全景图像的缩略图生成
CN111461161A (zh) 基于cnn且抗波动性强的客体检测方法及装置
US20150199383A1 (en) Systems and Methods for Indexing and Retrieving Images
TW201513609A (zh) 網路可視化系統及方法
US20170103568A1 (en) Smoothing 3d models of objects to mitigate artifacts
US20150199455A1 (en) Structure Model Segmentation from a Three Dimensional Surface
JP7042690B2 (ja) 学習用データ生成装置
CN116051980B (zh) 基于倾斜摄影的建筑识别方法、***、电子设备及介质
CN112906648A (zh) 一种地块中对象的分类方法、装置及电子设备
CN111062385A (zh) 一种用于图像文本信息检测的网络模型构建方法与***
CN111260608A (zh) 一种基于深度学习的舌部区域检测方法及***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R150 Certificate of patent or registration of utility model

Ref document number: 7042690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150