JP6435740B2 - データ処理システム、データ処理方法およびデータ処理プログラム - Google Patents

データ処理システム、データ処理方法およびデータ処理プログラム Download PDF

Info

Publication number
JP6435740B2
JP6435740B2 JP2014192138A JP2014192138A JP6435740B2 JP 6435740 B2 JP6435740 B2 JP 6435740B2 JP 2014192138 A JP2014192138 A JP 2014192138A JP 2014192138 A JP2014192138 A JP 2014192138A JP 6435740 B2 JP6435740 B2 JP 6435740B2
Authority
JP
Japan
Prior art keywords
image
learning
detection
processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014192138A
Other languages
English (en)
Other versions
JP2016062524A (ja
Inventor
京子 加藤
京子 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014192138A priority Critical patent/JP6435740B2/ja
Publication of JP2016062524A publication Critical patent/JP2016062524A/ja
Application granted granted Critical
Publication of JP6435740B2 publication Critical patent/JP6435740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習を行うデータ処理システム、データ処理方法およびデータ処理プログラムに関する。特に、ビックデータを分析対象として機械学習を行うデータ処理システム、データ処理方法およびデータ処理プログラムに関する。
ビッグデータ分析の需要増加により、様々な情報の分析を目的とした機械学習が行われつつある。ビッグデータ分析の機械学習において未知のデータを学習する際には、分析対象のデータがどのような分類に属するか、どのくらいの値なのかを教示する情報となる教師ラベルを分析対象のデータに付与することが求められる。
蓄積データ内に教師ラベルとなるデータが存在しない場合、ユーザがデータの内容を理解し、分析対象のデータに関する教師ラベルを判定・付与する必要が生じる。例えば、入力画像内において検出対象が含まれる範囲を特定する物体検出システムでは、ユーザが画像を目視し、対象データに教師ラベルを直接付与する作業が必要となる。このように、分析対象のデータに教師ラベルを付与する作業には多くの時間を要する。
また、画像内の対象物検出を高精度に行うには、物体の形状・大きさ・位置・向き、さらに対象物の周囲に入り込む背景情報など、様々な条件を組み合わせて学習データを用意する必要がある。そのため、画像内の対象物検出を高精度に行う場面においては、教師ラベルの付与に時間がかかることが課題となっている。
特許文献1には、対象物の検出性能を落とさずに、特徴量が削減された学習モデルを生成することができる学習モデル生成装置について開示されている。特許文献1の学習モデル生成装置は、対象物の検出難易度に応じた複数のランク毎に分類された複数の学習用画像を記憶する。例えば、特許文献1の学習モデル生成装置は、学習用画像の質によって、最も検出し易いランクをランク1、最も検出し難いランクをランク4として4つのランクに分類する。このとき、特許文献1の学習モデル生成装置は、ランク2およびランク3に分類された学習用画像の数に対するランク1およびランク4に分類された学習用画像の数の割合が所定値以下となるように複数の学習用画像を選択する。そして、特許文献1の学習モデル生成装置は、選択した複数の学習用画像に基づいて、複数の学習用画像のそれぞれに応じた数の特徴の集合を含む学習モデルを生成する。
特許文献2には、学習用画像の解像度の減少度合いに関する指標を設定し、学習用画像として採用するために適正な解像度を判定するオブジェクト認識装置について開示されている。特許文献2のオブジェクト認識装置は、取得した学習用標準パターンを変形した後に低解像度化した学習用パターンを生成し、生成した学習用パターンから特徴量を抽出し、抽出された特徴量に基づいて各カテゴリの部分空間を生成する。そして、特許文献2のオブジェクト認識装置は、各カテゴリの部分空間の相関関係から学習用パターンの有する解像度の適否を判定し、適正な解像度を有する学習用パターンから作成された部分空間に基づいて、学習用パターンが属するカテゴリを認識する。
特許文献3には、学習データベースに格納されるデータ数が少ない場合に、より高画質な出力画像を生成する画像処理装置について開示されている。特許文献3の画像処理装置は、学習用画像の高周波成分から得られる第1学習データと、学習用画像の低周波成分から得られる第2学習データとを学習データ対として格納するデータベースを用い、入力画像からより解像度の高い出力画像を生成する画像処理を行う。
特許文献3の画像処理装置は、複数の第2学習データのそれぞれに異なる処理を行うことによって処理ごとに複数の第3学習データを生成し、生成した第3学習データの中から、入力画像の特徴を示す特徴データと最も類似度の高い選択データを選択する。そして、特許文献3の画像処理装置は、選択された第3学習データの生成に用いられた第2学習データと対になる第1学習データに対して、選択された第3学習データを生成する際に行われた処理を施し、高周波データを生成する。特許文献3の画像処理装置は、選択された第3学習データを生成する際に行われた処理が施された第1学習データから生成された高周波データが示す画像を入力画像に加えて出力画像を生成する。
特許第5063632号公報 特開2007−304900号公報 特開2013−109758号公報
特許文献1の学習モデル生成装置においては、検出フェーズにおいて、例えば、対象物を含みうる縮小画像と拡大画像とを用意し、拡大した場合はぼやけた画像(ランク4)とマッチさせ、縮小した場合はシャープ化した画像(ランク1)とマッチさせる。その結果、画像内の対象物の大きさにかかわらず、対象物を高精度に検出することが可能となる。しかしながら、特許文献1の学習モデル生成装置では、教師ラベルを少なくすることは考慮していないため、データに付与された教師ラベルを削減することにつながる知見は得られないという課題があった。
特許文献2のオブジェクト認識装置においては、省メモリ消費を実現することによって処理速度を向上できるが、教師ラベルを少なくすることは考慮していない。そのため、やはり、データに付与された教師ラベルを削減することにつながる知見は得られないという課題があった。
特許文献3の画像処理装置においては、入力画像と類似度の高い高周波データが生成されて入力画像に加算されることから、生成される出力画像の画質を高めることができる。しかしながら、学習データを増やすことによって出力画像の画質を高めるため、データに付与された教師ラベルを削減することができないという課題があった。
本発明の目的は、学習フェーズにおいて作成したモデルに入力するデータを検出フェーズにおいて増やすことによって、学習用画像へのラベル付与の手間を削減しながら対象物を高精度に検出することを可能とするデータ処理システムを提供することである。
本発明のデータ処理システムは、学習用画像上の少なくとも一つの領域に付与された教師ラベルと領域の画像との関係を学習してモデル化する学習手段と、学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および画像処理が施されていない検出用画像の中からそれぞれモデルに基づいて対象物を含む領域を検出する検出手段とを備える。
本発明のデータ処理方法においては、学習用画像上の少なくとも一つの領域に付与された教師ラベルと領域の画像との関係を学習してモデル化し、学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および画像処理が施されていない検出用画像の中からそれぞれモデルに基づいて対象物を含む領域を検出する。
本発明のデータ処理プログラムは、学習用画像上の少なくとも一つの領域に付与された教師ラベルと領域の画像との関係を学習してモデル化する処理と、学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および画像処理が施されていない検出用画像の中からそれぞれモデルに基づいて対象物を含む領域を検出する処理とをコンピュータに実行させる。
本発明によれば、学習フェーズにおいて作成したモデルに入力するデータを検出フェーズにおいて増やすことによって、学習用画像へのラベル付与の手間を削減しながら対象物を高精度に検出することが可能になる。
本発明の第1の実施形態に係るデータ処理システムの構成を示すブロック図である。 本発明の第2の実施形態に係るデータ処理システムの機能構成を示すブロック図である。 本発明の第2の実施形態に係るデータ処理システムにおいて、対象物を含む領域へのラベル付与の一例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムにおいて、対象物を含まない領域へのラベル付与の一例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムの特徴量計算手段による特徴ベクトルの計算例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムの特徴量計算手段による特徴ベクトルの計算例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムの特徴量ベクトルへのラベル付与の一例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムにおける学習フェーズを説明するためのフローチャートである。 本発明の第2の実施形態に係るデータ処理システムにおける学習フェーズを説明するためのフローチャートである。 本発明の第2の実施形態に係るデータ処理システムにおける検出フェーズを説明するためのフローチャートである。 本発明の第2の実施形態に係るデータ処理システムにおける検出結果表示の一例を示す概念図である。 本発明の第2の実施形態に係るデータ処理システムにおける超解像技術の使用可否による検出精度の比較した例である。 本発明の第3の実施形態に係るデータ処理システムの機能構成を示すブロック図である。 本発明の第3の実施形態に係るデータ処理システムにおけるラベル付与方法の一例を示す概念図である。 本発明の第3の実施形態に係るデータ処理システムにおける学習フェーズを説明するためのフローチャートである。 本発明の第4の実施形態に係るデータ処理システムの機能構成を示すブロック図である。 本発明の第4の実施形態に係るデータ処理システムにおける学習フェーズを説明するためのフローチャートである。 本発明の第4の実施形態に係るデータ処理システムにおける検出フェーズを説明するためのフローチャートである。 本発明の第4の実施形態に係るデータ処理システムのラベル付与手段によるラベル付与の一例を示す概念図である。
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。
(第1の実施形態)
(構成)
まず、本発明の第1の実施形態に係るデータ処理システム1の構成について図1を用いて説明する。
本実施形態に係るデータ処理システム1は、学習手段20、モデル格納手段30、検出手段50を備える。学習手段20はモデル格納手段30と接続され、モデル格納手段30は検出手段50と接続される。各構成要素は、例えばローカルエリアネットワークやインターネットなどのネットワークを介して接続される。また、各構成要素は、例えばケーブルなどによって直接接続されてもよいし、単一の機器内部で接続される構成としてもよい。
学習手段20は、学習対象を含む入力画像(学習用画像とも呼ぶ)を含む学習データを入力し、学習用画像に含まれる対象物に応じた教師ラベルと領域の画像との関係を学習し、モデル化する。
領域とは、学習用画像上に設定される範囲である。例えば、学習用画像を格子状に分割した際に、各格子によって形成される基本領域の集合が領域となる。各領域は、少なくとも一つの基本領域をまとめた範囲である。各領域には、対象物の含有状態に応じた教師ラベルが付与されている。なお、学習用画像は、等間隔で格子状に分割されていなくてもよく、任意のサイズ・形状の基本格子によって分割されていてもよい。また、単一の分割方法ではなく、複数の分割方法を組み合わせて単一の学習用画像を分割してもよい。さらに、単一の学習用画像に関して、同一の画像範囲を異なる領域が重複するように分割してもよい。
例えば、画像を10行×10列の格子状の基本領域に分割したとき、2行×2列や3行×3列などの範囲のことを領域とよぶ。基本領域の大きさ、領域を構成する基本領域の数などは任意に設定できる。
なお、学習手段20は、切り出された領域から抽出された特徴量と教師ラベルとの関係に加えて、切り出された領域に回転処理を施した結果から抽出される特徴量と教師ラベルとの関係を学習してモデルを生成してもよい。学習手段20によって生成されるモデルは、学習データからパターン化(ルール化)されたモデルである。学習手段20は、生成したモデルをモデル格納手段30に出力する。
学習データは、学習用画像と、領域に関する情報(領域を形成するboxの座標)と、学習用画像上の各領域に対して付与された教師ラベルと、学習条件とを含む。学習条件は、学習対象の画像を学習する際の複数の条件を含む。例えば、回転数、特徴抽出に関するパラメータ(ガボール特徴量の場合、フィルタの方向数、分割形状、分割数など)、どれくらいの誤差になったら学習を終了するか等の条件が学習条件に含まれる。なお、対象物の範囲を任意サイズで選択する場合は、領域のずらし幅を学習条件に含める。また、学習アルゴリズム依存のチューニングパラメータを学習条件に含めてもよい。ただし、学習条件は、上述の条件を全て含まなくてもよい。
モデル格納手段30は、学習手段20が生成したモデルを格納する。なお、モデル格納手段30は、学習手段20および検出手段50のうち少なくともいずれかに含まれてもよい。通常、モデル格納手段30は、一般的なファイルサーバによって実現される。
検出手段50は、対象物を含む領域を検出する対象である検出用画像と、対象物の検出条件とを含む検出データを入力とする。なお、検出条件とは、検出に使用するモデルや検出確信度の閾値、領域のずらし幅や回転数、超解像処理の回数や倍率等の条件を含む。ただし、検出条件は、上述の条件を全て含まなくてもよい。
検出手段50は、学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および画像処理が施されていない検出用画像から抽出された領域をモデルに入力し、対象物を含む領域を検出する。本実施形態においては、所定の画像処理として、検出用画像の解像度を上げる処理を行う。例えば、所定の画像処理としては、超解像処理を具体例として挙げることができる。
検出手段50は、入力された検出用画像に所定の画像処理を施す。そして、検出手段50は、所定の画像処理が施された検出用画像と、画像処理が施されていない検出用画像とをそれぞれ分割することによって得られる複数の領域のそれぞれから抽出された特徴量をモデル格納手段30に格納されたモデルに入力する。そして、検出手段50は、検出用画像に対象物が含まれるか否かを推定し、推定結果を含む検出結果を出力する。なお、検出結果には、検出用画像の特徴ベクトルをモデルに入力した際の対象物の検出確信度を示すスコアを含んでいてもよい。すなわち、検出手段50は、所定の画像処理が施された検出用画像および画像処理が施されていない検出用画像の中からそれぞれモデルに基づいて対象物を含む領域を検出する。
ここで、本実施形態に係るデータ処理システム1のハードウェア構成について簡単に説明する。
学習手段20および検出手段50は、中央演算処理装置、不揮発性記憶装置、揮発性記憶装置および補助記憶装置などの装置を備えたコンピュータを含んで構成される。学習手段20および検出手段50を実現するためのコンピュータを構成する各装置は、それぞれバスによって互いに接続される。
中央演算処理装置(以下、CPU)は、プログラムを不揮発性記憶装置および補助記憶装置から読み出して実行する(CPU:Central Processing Unit)。不揮発性記憶装置(以下、ROM)には、OS等の基本プログラムが記憶されている(ROM:Read Only Memory、OS:Operating System)。ワークエリアとしての揮発性記憶装置(以下、RAM)には、データが一時的に格納される(RAM:Random Access Memory)。補助記憶装置(以下、HDD)には、後述するデータ処理における処理ルーチンを実行するためのプログラムが記憶されている(HDD:Hard Disk Drive)。
モデル格納手段30は、例えば一般的なファールサーバに備えられたHDDなどの補助記憶装置として実現される。なお、モデル格納手段30は、インターネットやイントラネットなどのネットワークを通じて学習手段20および検出手段50と接続されるネットワークストレージ上に設けられてもよい。また、モデル格納手段30は、学習手段20および検出手段50のうち少なくともいずれかに含まれるように構成してもよい。
以上が、第1の実施形態に係るデータ処理システム1の構成についての説明である。なお、第1の実施形態に係るデータ処理システム1は、本発明の実施形態を抽象化したものであるため、具体的な動作や機能、効果については、以下の第2〜第4の実施形態に係るデータ処理システムに関して説明する。
(第2の実施形態)
次に、図2を用いて、本発明の第2の実施形態に係るデータ処理システム2の機能構成について説明する。第2の実施形態に係るデータ処理システム2は、第1の実施形態に係るデータ処理システム1に、指示手段10、検出指示手段40および結果表示手段60を追加した構成を有する。
(指示手段)
指示手段10は、学習用画像を複数の領域に分割して学習対象の領域に教師ラベルを付与し、教師ラベルが付与された入力画像に関する情報を含む学習データを出力する第1の出力手段である。すなわち、指示手段10は、学習用画像上の少なくとも一つの領域のいずれかに対応する教師ラベルを付与する。
指示手段10は、ラベル付与手段11と、学習指示手段12とを有する。指示手段10は、学習手段20および検出手段50と同様の構成をもつハードウェアによって実現される。
ラベル付与手段11は、学習用画像内に既定サイズの領域を指定して、指定された各領域に教師ラベルを付与する機能を有する。
学習指示手段12は、学習手段20に対して学習対象となる入力画像(学習用画像)に関して学習する指示を出す機能を有する。
指示手段10は、例えば、本実施形態に係るデータ処理を実行するための専用端末やサーバ、デスクトップPC、ノートPC、タブレット、スマートフォンなどの端末装置によって実現される。指示手段10を実現する端末装置は、例えばCPUやROM、RAM、HDDなどがバスによって互いに接続された構成をもつ。また、指示手段10は、GUIアプリケーションやWEBアプリケーションなどによって実現してもよい(GUI:Graphical User Interface)。また、指示手段10は、本実施形態に係るデータ処理システム2の外部に構成させてもよい。その場合、指示手段10は、インターネットやイントラネットなどのネットワークによって学習手段20と接続される。
指示手段10は、学習用画像を表示するグラフィックユーザーインターフェース(以下、GUI)を有していることが望ましい。その場合、ユーザは、指示手段10のGUIを介して、複数の領域のサイズや教師ラベルを付与する領域等を指定することができる。
(学習手段)
学習手段20は、学習用画像処理手段21と、特徴抽出手段22と、モデル学習手段24とを備える。また、学習手段20は、必要に応じて特徴量計算手段23を備えていてもよい。なお、学習手段20が特徴量計算手段23を備えていない場合、特徴抽出手段22とモデル学習手段24とは直接接続される。
学習用画像処理手段21は、フィルタ処理手段211と、トリミング処理手段212とを有する。また、学習用画像処理手段21は、必要に応じて回転処理手段213を有していてもよい。
フィルタ処理手段211(第1のフィルタ手段とも呼ぶ)は、学習用画像に対してフィルタ処理を行う。
フィルタ処理手段211は、例えば、ノイズ除去やエッジ抽出、鮮鋭化などの処理を用いる。ノイズ除去では、移動平均フィルタや加重平均フィルタ、ガウシアンフィルタを適用する平滑化フィルタ、メディアンフィルタなどを用いることができる。エッジ抽出では、微分フィルタやプリューウィットフィルタ、ソーベルフィルタなどを適用することができる。鮮鋭化では、元画像を平滑化し、元画像から平滑化した画像を差し引き(ラプラシアンフィルタ)、差し引いた画像を元画像に上乗せするアンシャープマスキングを適用することができる。また、S字トーンカーブによる変換やガンマ変換、ネガ・ポジ変換、ポスタリゼーション、二値化、ソラリゼーション、モザイク処理などをフィルタ処理に適用してもよい。なお、フィルタ処理手段211は、上述のフィルタ処理を単独で用いてもよいし、複数のフィルタ処理を組み合わせて実行してもよい。
トリミング処理手段212(第1のトリミング処理手段とも呼ぶ)は、処理対象の画像の一部領域を切り出すトリミング処理を行う。回転処理手段213によって画像を回転しない場合、トリミング処理手段212は、フィルタ処理手段211によってフィルタ処理された画像に対してトリミング処理を行う。また、回転処理手段213によって画像を回転する場合、トリミング処理手段212は、回転処理手段213によって回転された画像の一部領域を切り出すトリミング処理を行う。
回転処理手段213(第1の回転処理手段とも呼ぶ)は、フィルタ処理手段211によってフィルタ処理された画像を所定の角度で回転させる。なお、回転処理手段213が行う回転においては、表示された回転対象の画像が時計回りに回転する方向を正(+)として定義する。ただし、特徴量計算手段23によって回転領域の特徴ベクトルを算出する場合は、回転処理手段213による回転処理は行わなくてもよい。
ただし、フィルタ処理、トリミング処理および回転処理は、必要に応じて順番を入れ替えてもよい。
特徴抽出手段22(第1の特徴抽出手段)は、学習用画像処理手段21によって処理された画像から必要な特徴抽出を行い、特徴ベクトルを作成する。
特徴量計算手段23は、特徴抽出手段22が抽出した特徴量を含む特徴ベクトルを基に、複数の領域のそれぞれを回転することによって得られる回転領域の特徴ベクトルを算出する。特徴量計算手段23は、学習フェーズで回転領域の特徴ベクトルを使用する場合、回転処理手段213の代わりに用いることができる。なお、特徴量計算手段23は、特徴抽出手段22の機能を有していてもよい。特徴量計算手段23は、データ量が大きい画像データに関して回転処理や特徴抽出処理をするのではなく、データ量の小さい特徴量ベクトルを用いて処理を行うため、回転処理手段213や特徴抽出手段22を用いた場合よりも高速処理を可能とする。
例えば、特徴量計算手段23は、学習用画像から切り出された領域に含まれる領域のそれぞれの特徴量を少なくとも一つのグループにまとめて構成される特徴量ベクトルを生成し、学習用画像が回転される際に、グループごとに特徴量をローテーションさせる。
なお、特徴量計算手段23による処理には、回転画像に関する特徴量を行列変換で求めることが可能な特徴抽出アルゴリズムを用いる。例えば、特徴量計算手段23は、ガボール特徴量などの空間ピラミッドマッチング(Spatial Pyramid Matching)アルゴリズムなどの特徴抽出アルゴリズムによって、特徴量を求める。
モデル学習手段24は、入力領域の特徴量と教師ラベルとの関係を学習し、モデルを生成する。モデル学習手段24は、サポートベクターマシン(SVM)などの学習アルゴリズムによってモデルを生成する(SVM:Support Vector Machine)。モデル学習手段24は、生成したモデルをモデル格納手段30に格納するとともに、学習結果を指示手段10に返却する。モデル学習手段24は、正常に学習が完了したか否かを指示手段10に通知するために学習結果を返却する。
モデル格納手段30は、学習手段20が生成した学習モデルを格納する。なお、モデル格納手段30は、学習手段20に含めてもよい。
検出指示手段40は、ユーザの入力に従って、検出手段50に対して対象物の検出を指示するための検出データを出力する第2の出力手段である。
検出指示手段40は、指示手段10と同様の端末装置によって実現される。なお、指示手段10と検出指示手段40とを同一の端末装置で実現してもよい。また、検出指示手段40は、GUIアプリケーションやWEBアプリケーションなどによって実現してもよい。
検出指示手段40は、本実施形態に係るデータ処理システム2の外部に構成させてもよい。その場合、検出指示手段40は、インターネットやイントラネットなどのネットワーク経由で検出手段50と接続される。
(検出手段)
検出手段50は、検出用画像処理手段51と、特徴抽出手段52と、対象物推定手段55と、結果出力手段56とを備える。
検出用画像処理手段51は、超解像処理手段511と、フィルタ処理手段512と、トリミング処理手段515とを備える。検出用画像処理手段51は、検出用の未知画像(検出用画像)に対して特徴抽出を行う前に必要な画像処理を行う。
超解像処理手段511は、検出用画像を超解像処理することによって高解像度化する。
フィルタ処理手段512(第2のフィルタ処理手段)は、超解像処理手段511によって高解像度化された検出用画像および高解像度化されていない検出用画像にフィルタ処理を行う。
本実施形態に係る超解像処理としては、例えば、関連文献1に記載された1枚超解像技術などを用いることができる(関連文献1:NEC技報Vol.62、No.1、2009、p.20−23)。
1枚超解像技術では、1フレーム(1枚)の画像データに関して、画像データを拡大処理する際に生じるボヤケにおいて、人物や物体の輪郭部分となる画素の表現調整を行い、画質の補正や色再現性を高め、画像の鮮明化を実現する。なお、メモリ量に余裕がある場合は、超解像技術として、複数フレーム間のデータを演算して高周波成分を抽出して解像度を向上させていく手法を選択することもできる。また、被写体となる人物や物体が限られている場合、特定の被写体に関して学習した成果を収めた辞書を作成し、作成した辞書を用いて超解像処理を行う学習型超解像技術を選択してもよい。
また、検出用画像の解像度を上げる方法として、超解像技術のみならず、最近傍補間や双一次補間、双三次補間などの画素と画素の間の輝度値を参照する補間(内挿)を用いてもよい。
トリミング処理手段515(第2のトリミング処理手段)は、フィルタ処理手段512によってフィルタ処理された画像の一部領域を切り出す。
特徴抽出手段52(第2の特徴抽出手段)は、学習手段20の特徴抽出手段22と同じアルゴリズムを用いて、トリミング処理手段515によって切り出された画像から必要な特徴抽出を行う。
対象物推定手段55は、モデル格納手段30に格納された学習モデルを用いて、入力領域内の対象物有無を推定する。
結果出力手段56は、対象物推定手段55によって推定された結果を結果表示手段60に出力する。
結果出力手段56は、領域情報と推定結果とを出力する。結果出力手段56は、領域情報および推定結果を結果表示手段60にファイル出力してもよいし、電文渡ししてもよい。
結果出力手段56は、例えば各領域に関する「左上x座標、左上y座標、右下x座標、右下y座標、推定結果、スコア(確信度)」のような結果を対象領域の分だけ出力する。なお、推定結果を1とするスコアの閾値は通常0.5に設定されるが、検出条件に含めて変更できるようにしてもよい。
また、結果出力手段56は、下記の例1〜3のように、対象物があると検出した領域に関する情報のみを出力してもよい。
(例1)矩形表示「左上x座標、左上y座標、右下x座標、右下y座標」
(例2)回転表示あり「中央点のx座標、中央点のy座標、領域幅、回転角度」
(例3)円表示「中央点のx座標、中央点のy座標、半径」
結果表示手段60は、検出領域表示手段61を備え、結果出力手段56が出力した結果を表示する機能を有する。
検出領域表示手段61は、検出手段50から出力された結果に基づいた検出領域を表示する。例えば、検出領域表示手段61は、元画像の上に検出した領域の枠をオーバーレイして表示する。なお、以下の説明では検出領域として矩形を想定としているが、円などの任意の図形を検出領域として設定してもよい。
結果表示手段60は、指示手段10と同様の端末装置にモニターなどの表示手段を設けることによって実現される。なお、指示手段10と検出指示手段40と同一の端末装置に結果表示手段60を設けてもよい。また、結果表示手段60は、GUIアプリケーションやWEBアプリケーションなどによって実現してもよい。
すなわち、結果出力手段60は、検出結果を表示する画面を有し、元画像(検出用画像)の上に所定の画像処理が施された検出用画像を入力とした検出領域および画像処理が施されていない画像を入力とした検出領域を重畳(オーバーレイ)して表示する。
以上が、本実施形態に係るデータ処理システム2の構成についての説明である。
(動作)
次に、本実施形態に係るデータ処理システム2の動作について、図3〜図11を用いて説明する。本実施形態に係るデータ処理システム2の動作は、学習用画像へのラベル付与、ラベル付与された画像から学習モデルを生成する学習フェーズ、学習モデルを用いて対象物を検出する検出フェーズに大別される。
(ラベル付与)
まず、学習対象とする入力画像(学習用画像)内の領域にラベルを付与する動作について説明する。
指示手段10は、学習用画像を表示する画面を有し、画面に表示されたGUIを介して、学習対象とする領域に関する指定を受け付けるとともに、学習対象に設定された領域に教師ラベルを付与する操作を受け付ける。
ラベル付与手段11は、ユーザの入力に従って、入力画像内の領域についてそれぞれラベルを付与する。なお、ラベルは、全ての領域に付与する必要はなく、学習データとして用いたい領域にのみラベルを付与すればよい。
ここで、入力画像内の領域について説明する。
図3には、ラベル付与手段11に表示される画面110(上段)と、画面110から切り出した学習対象が含まれる所定の領域(下段の破線枠内)の一例を示す。また、図4には、ラベル付与手段11に表示される画面110(左側)と、画面110から切り出した学習対象が含まれる所定の領域(右側の破線枠内)の一例を示す。画面110には、学習対象を含む画像が表示される。図3および図4には、画面110を9行×13列の格子状の領域に分割する例を示す。画面110の左方の数字は各行の行番号であり、上方の数字は各列の列番号である。なお、画面110の分割の仕方に応じて、行番号と列番号とは任意の値に設定できる。
図3および図4においては、3行×3列の領域内に対象物(星マーク)が大きく含まれる場合にラベル1を付し、3行×3列の領域内に対象物(星マーク)が全く含まれない場合にラベル0を付している。なお、3行×3列の領域内に対象物(星マーク)の一部が含まれる場合は、いずれのラベルも付していない。ただし、対象物の検出基準は、任意に設定することができる。
図3の破線枠内には、ラベル1(第1のラベルとも呼ぶ)が付された領域をまとめている。図3においては、ラベル1が付された未処理の領域(破線内上段)と、+90°回転した領域(破線内下段)とを図示している。また、図4の破線枠内には、ラベル0(第2のラベルとも呼ぶ)が付された領域をまとめている。ここで、画面110上の領域に関して、行番号をm、列番号をnとする(m、nは自然数)。図3および図4においては、3行×3列の各領域に関して、ラベル0が付された領域には0(m、n)、ラベル1が付された領域には1(m、n)と記載している。なお、図3および図4においては、各領域の左上角の領域の行番号mおよび列番号nを括弧内に示すことによって各領域を区別している。また、画面110の表示に関しては、図3と図4とに分けて図示しているが、同一の画面110にラベル0および1を付したグリッドを同時に表示することもできる。
次に、学習指示手段12は、学習手段20に対して、対象物の学習に必要なデータセットを渡す。対象物の学習に必要なデータセットとは、対象物の画像、画像内の領域に関する情報、各領域に付されたラベル情報である。なお、対象物の学習に用いる画像や領域は複数であってもよい。
(学習フェーズ)
学習手段20は、データセットを受け取ると、受け取った画像を読み込み、学習用画像処理手段21内のフィルタ処理手段211を用いて必要なフィルタ処理を行う。フィルタ処理手段211は、フィルタ処理を施した画像をトリミング処理手段212に渡す。
例えば、フィルタ処理手段211は、ガボールフィルタなどを用いてフィルタ処理を行う。フィルタ処理手段211は、ガボールフィルタを用いる場合、受け取った画像に対して方向分フィルタ処理を繰り返す。
次に、トリミング処理手段212は、学習指示手段12から受け取った領域の件数分、フィルタ処理を施した画像から領域単位の画像(以下、領域画像)を切り出す。トリミング処理手段212は、切り出された領域画像を特徴抽出手段22に渡す。
回転した画像を学習データとして用いる場合、トリミング処理手段212は、切り出された領域画像を回転処理手段213に渡す。回転処理手段213は、受け取った領域画像を回転させ、回転させた領域画像を特徴抽出手段22に渡す。
特徴抽出手段22は、受け取った領域画像に関して特徴量を抽出する。特徴抽出手段22は、抽出した特徴量をモデル学習手段24に渡す。
ところで、特徴抽出手段22が抽出した無回転領域の特徴ベクトルから特徴量計算手段23を用いて特徴量ベクトルを計算することもできる。
図5および図6は、特徴量計算手段23による特徴量ベクトルの計算の一例を示す概念図である。特徴量計算手段23によって特徴量ベクトルを計算すれば、領域画像を画像情報として回転させなくて済む。
図5は、領域画像を矩形領域に分割した例である。
図5の上段破線枠内の領域A10は、4行×4列の16個の単位領域を含む。領域A10に含まれる各単位領域は、a、b、c、d、e、f、g、h、i、j、k、l、m、n、oおよびpという特徴量をもつ。領域A10から抽出される特徴ベクトルB10(a、b、c、d、e、f、g、h、i、j、k、l、m、n、o、p)は、領域A10の内側領域(a、b、c、d)と外側領域(e、f、g、h、i、j、k、l、m、n、o、p)とによって構成される。すなわち、特徴ベクトルB10は、内側領域と外側領域という二つのグループにまとめて構成される。
図5の中段破線枠内の領域A11は、領域A10を時計方向に90°(+90°)回転させたものである。領域A11から計算される特徴ベクトルB11(d、a、b、c、n、o、p、e、f、g、h、i、j、k、l、m)は、内側領域(d、a、b、c)と外側領域(n、o、p、e、f、g、h、i、j、k、l、m)とによって構成される。特徴ベクトルB11の内側領域は、特徴ベクトルB10の内側領域を右へ1ローテートしたものである。特徴ベクトルB11の外側領域は、特徴ベクトルB10の外側領域を右へ3ローテートしたものである。すなわち、特徴量計算手段23は、各領域が回転される際に、特徴ベクトルB10に含まれる各特徴量をグループごとにローテーションさせる。
同様に、図5の下段破線枠内の領域A12は、領域A11を時計方向に90°(+90°)回転させたものである。領域A12から計算される特徴ベクトルB12(c、d、a、b、k、l、m、n、o、p、e、f、g、h、i、j)は、内側領域(c、d、a、b)と外側領域(k、l、m、n、o、p、e、f、g、h、i、j)とによって構成される。特徴ベクトルB12の内側領域は、特徴ベクトルB11の内側領域を右へ1ローテートしたものである。特徴ベクトルB12の外側領域は、特徴ベクトルB11の外側領域を右へ3ローテートしたものである。
すなわち、図5のように4行×4列の16個の単位領域を含む領域を時計回りにn度回転させると、特徴ベクトルの内側領域はn/90だけローテートされ、外側領域はn/90+2だけローテートされる(nは自然数)。
また、図6は、領域画像を円領域に分割した例である。
図6の上段破線枠内の領域A20において、選択された円領域は、円の中心を通る線分で8等分され、さらに円領域に含まれる同心円によって2分割された16個の単位領域を含む。領域A0に含まれる各単位領域は、a、b、c、d、e、f、g、h、i、j、k、l、m、n、oおよびpという特徴量をもつ。領域A20から抽出される特徴ベクトルB20(a、b、c、d、e、f、g、h、i、j、k、l、m、n、o、p)は、領域A0の内側領域(a、b、c、d、e、f、g、h)と外側領域(i、j、k、l、m、n、o、p)とによって構成される。
図6の中段破線枠内の領域A21は、領域A20を時計方向に45°(+45°)回転させたものである。領域A21から計算される特徴ベクトルB1(h、a、b、c、d、e、f、g、p、i、j、k、l、m、n、o)は、内側領域(h、a、b、c、d、e、f、g)と外側領域(p、i、j、k、l、m、n、o)とによって構成される。特徴ベクトルB21の内側領域は、特徴ベクトルB20の内側領域を右へ1ローテートしたものである。特徴ベクトルB21の外側領域は、特徴ベクトルB20の外側領域を右へ1ローテートしたものである。
同様に、図6の下段破線枠内の領域A22は、領域A21を時計方向に45°(+45°)回転させたものである。領域A22から計算される特徴ベクトルB22(g、h、a、b、c、d、e、f、o、p、i、j、k、l、m、n)は、内側領域(g、h、a、b、c、d、e、f)と外側領域(o、p、i、j、k、l、m、n)とによって構成される。特徴ベクトルB22の内側領域は、特徴ベクトルB21の内側領域を右へ1ローテートしたものである。特徴ベクトルB22の外側領域は、特徴ベクトルB21の外側領域を右へ3ローテートしたものである。
すなわち、図6のように16個の単位領域を含む領域を時計回りにn度回転させると、特徴ベクトルの内側領域はn/45だけローテートされ、外側領域はn/45だけローテートされる。
モデル学習手段24は、生成された特徴ベクトルを受け取ると、教師あり機械学習技術によって特徴ベクトルとラベルの関係を学習し、モデルを生成する。なお、モデル生成の学習アルゴリズムとしては、領域の特徴ベクトルを全て受け取ってから学習するアルゴリズムを用いてもよいし、受け取った分だけ逐次学習するアルゴリズムを用いてもよい。モデル生成の学習アルゴリズムに関しては、特に限定することはない。
図7に、モデル学習手段24に入力するデータの例を示す。図7において、データD1の各欄には、数値化された各領域の特徴量が記入されている。データD1の各行が特徴ベクトルを構成しており、各特徴ベクトルにはラベルL1にまとめたラベルが付与されている。
学習が完了すると、モデル学習手段24は、モデル格納手段30にモデルを格納し、学習結果を指示手段102に返却して、終了する。
次に、学習手段20による学習フェーズの動作の詳細について図8および図9を用いて説明する。
図8は回転処理手段213を用いて特徴量を抽出する際の動作に関するフローチャートである。
図8において、まず、学習手段20は、学習指示手段12から受け取ったデータセットに含まれる画像を読み込む(ステップS11)。
フィルタ処理手段211は、読み込まれた画像にフィルタ処理を行う(ステップS12)。
トリミング手段213は、フィルタ処理された画像から領域ごとの画像(以下、領域画像)を切り出す(ステップS13)。
特徴抽出手段22は、領域画像から特徴量を抽出する(ステップS14)。
回転処理手段213は、領域画像を指定角度回転させる(ステップS15)。
特徴抽出手段22は、回転された領域画像から特徴量を抽出する(ステップS16)。
モデル学習手段24は、各領域の特徴量とラベルとを基にモデルを生成する(ステップS17)。
モデル学習手段24は、生成したモデルをモデル格納手段30に格納し、学習結果を指示手段10に返却する(ステップS18)。
以上のフローにおいて、ループ1(ステップS12〜ステップS16)は、フィルタ処理回数分繰り返される。また、ループ2(ステップS13〜ステップS16)は、領域の件数分繰り返される。また、ループ3(ステップS15およびステップS16)は、領域画像の回転数分繰り返される。
以上が、回転処理手段213を用いて特徴量を抽出する際の動作に関する説明である。なお、図8に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
図9は特徴量計算手段23を用いて特徴量ベクトルを計算する動作に関するフローチャートである。
図9において、まず、学習手段20は、学習指示手段12から受け取ったデータセットに含まれる画像を読み込む(ステップS21)。
フィルタ処理手段211は、読み込まれた画像にフィルタ処理を行う(ステップS22)。
トリミング手段213は、フィルタ処理された画像から領域ごとの画像(以下、領域画像)を切り出す(ステップS23)。
特徴抽出手段22は、領域画像から特徴量を抽出する(ステップS24)。
特徴量計算手段22は、回転領域の特徴量(特徴量ベクトル)を計算する(ステップS25)。
モデル学習手段24は、各領域の特徴量とラベルとを基に学習モデルを生成する(ステップS26)。
モデル学習手段24は、生成したモデル格納手段30に格納し、学習結果を指示手段10に返却する(ステップS27)。
以上のフローにおいて、ループ4(ステップS22〜ステップS25)は、フィルタ処理回数分繰り返される。また、ループ5(ステップS23〜ステップS25)は、領域の件数分繰り返される。また、ループ6(ステップS25)は、領域画像の回転数分繰り返される。
以上が、特徴量計算手段23を用いて特徴量ベクトルを計算する動作に関する説明である。なお、図9に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
(検出フェーズ)
続いて、検出指示に応じて、検出手段50が学習モデルを参照して対象物を検出する検出フェーズの動作例について説明する。
まず、検出指示手段40は、ユーザの入力に従って、検出手段50に必要なデータセットを渡す。なお、検出フェーズにおけるデータセットとは、学習済みのモデル、検出用の未知画像(検出用画像)である。また、データセットは、何分の1のサイズまで対象物を検出したいかなどといった検出条件を含んでいてもよい。
データセットを受け取った検出手段50は、モデル格納手段30からモデルを読み込む。
次に、検出手段50は、データセットに含まれる検出用画像を読み込み、読み込んだ検出用画像を検出用画像処理手段51に渡す。
ここで、小さいサイズの対象物を検出したい場合、検出用画像処理手段51は、領域画像を超解像処理手段511に渡す。そして、超解像処理手段511は、受け取った検出用画像を超解像技術によって拡大する。
検出用画像処理手段51内のフィルタ処理手段512は、渡された検出用画像に対して必要なフィルタ処理を行う。フィルタ処理手段512は、フィルタ処理を施した画像をトリミング処理手段512に渡す。
例えば、フィルタ処理手段512は、ガボールフィルタなどを用いてフィルタ処理を行う。
次に、トリミング処理手段515は、フィルタ処理手段512によってフィルタ処理された画像を学習時と同じサイズの領域で切り出す。トリミング処理手段515は、切り出された領域(以下、領域画像)を特徴抽出手段52に渡す。
特徴抽出手段52は、トリミング処理取得手段515から受け取った領域画像から特徴量を抽出して特徴ベクトルを生成する。特徴抽出手段52は、生成した特徴ベクトルを対象物推定手段55に渡す。
対象物推定手段55は、特徴抽出手段から受け取った特徴ベクトルをモデルに入力し、対象物の有無を推定し、検出結果を得ることを繰り返す。全ての領域の検出結果が得られると、結果出力手段56は、検出結果を結果表示手段60に渡す。
結果表示手段60は、検出領域表示手段61を用いて検出結果を表示する。ユーザは、検出領域表示手段61に表示された結果を確認することによって、対象物の有無を知ることができる。
次に、検出手段50による検出フェーズの動作の詳細について図10を用いて説明する。なお、図10においては、超解像処理を行うことを前提として説明する。
まず、検出手段50は、モデル格納手段30からモデルを読み込む(ステップS31)。
次に、検出手段50は、データセットに含まれる検出用画像を読み込む(ステップS32)。
超解像処理手段511は、読み込まれた画像に超解像処理を行う(ステップS33)。
フィルタ処理手段512は、処理対象の画像に対してフィルタ処理を行う(ステップS34)。
トリミング処理手段515は、フィルタ処理された画像から領域ごとの画像である領域画像を切り出す(ステップS35)。
特徴抽出手段52は、領域画像から特徴量を抽出する(ステップS36)。
対象物推定手段55は、特徴抽出手段52によって抽出された特徴量をモデルに入力し、検出結果を得る(ステップS36)。
結果出力手段56は、得られた検出結果を結果表示手段60に出力する(ステップS37)。
以上のフローにおいて、ループ7(ステップS33〜ステップS37)は、超解像処理による拡大の回数分繰り返される。また、ループ8(ステップS34〜ステップS37)は、フィルタ処理回数分繰り返される。また、ループ9(ステップS35〜ステップS37は、領域画像の件数数分繰り返される。
以上が、検出手段50による検出フェーズの動作についての説明である。なお、図10に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
ここで、結果表示手段60において、超解像処理した画像と元画像とのそれぞれの検出結果を組み合わせて表示する一例を図11に示す。図11は、元画像の上に検出した領域をオーバーレイして表示する例を示す。
表示111は、元のサイズの画像である。表示112は、表示111を超解像処理した画像である。図11は、元サイズの画像を用いた検出結果(表示111)と、超解像処理された画像を用いた検出結果(表示112)とを組み合わせた結果(表示113)を表示する例である。表示113において、実線の枠は表示111を基にして得られた検出結果を示し、破線の枠は表示112を基にして得られた検出結果を示す。
図11の例にように、超解像処理した画像と元画像とを組み合わせることによって、様々な大きさの対象物を検出することができる。
図12には、超解像処理の有無における検出精度を比較したテーブル115を示す。テーブル115には、いくつかの検出用画像に対して、実際の画像内の対象物数、超解像処理の有無による対象物の検出数をまとめている。
例えば、検出用画像1に関して、対象物の検出数は、超解像処理をしていない場合は51.4%であったのに対し、超解像処理を行った場合は100%に増加している。検出用画像2〜4に関しても、超解像処理を行うことによって検出率が増加していることがわかる。
(効果)
本実施形態に係るデータ処理システムによれば、領域内に大きな対象物を含むか否かを学習したモデルに対して、超解像技術を用いて拡大した画像と元サイズの画像とを使用して対象物有無を推定する。本実施形態に係るデータ処理システムは、超解像処理された画像からの検出結果と、元サイズの画像からの検出結果とを組み合わせることによって、小さい対象物の有無を学習させることなく高精度に物体を検出すること可能にする。
本実施形態に係るデータ処理システムによれば、超解像処理された画像からの検出結果と、元サイズの画像からの検出結果とを組み合わせるため、小さい対象物の有無に関するラベルを付与する手間を削減できる。
本実施形態に係るデータ処理システムによれば、超解像技術を使うことによって、サイズの小さい対象物を大きい対象物と同等の解像度を持たせて検出処理をかけることによって、サイズの小さい対象物を含めた対象物を高精度に検出できる。
本実施形態に係るデータ処理システムによれば、ユーザの入力に従ってラベル付与したデータから複数の学習データを生成することによって、ラベル付与に要する時間を削減できる。
本実施形態に係るデータ処理システムによれば、回転させた領域の特徴ベクトルを画像から特徴抽出することなく、ベクトル演算で求めることによって、学習データの作成時間を高速化することができる。
すなわち、本実施形態に係るデータ処理システムによれば、学習フェーズにおいて作成したモデルに入力するデータを検出フェーズにおいて増やすことによって、学習用画像へのラベル付与を削減しながら対象物を高精度に検出することが可能となる。
以上のように、本実施形態に係るデータ処理システムにおいては、学習フェーズにおいてユーザがラベル付与した教師データから学習データを自動生成により増加させたり、検知フェーズにおいて入力データ量を増加させたりする。その結果、教師ラベルを付与する手間を削減しながら高精度な検出を実現することが可能となる。
(第3の実施形態)
次に、本発明の第3の実施形態に係るデータ処理システム3について図13〜図14を参照しながら説明する。第3の実施形態に係るデータ処理システム3は、第2の実施形態に係るデータ処理システム2の学習フェーズにおける領域へのラベル付与の方法を変更している。
図13のように、本実施形態に係るデータ処理システム3は、指示手段102、学習手段202、モデル格納手段30、検出指示手段40、検出手段50、結果表示手段60を備える。なお、データ処理システム3のモデル格納手段30、検出指示手段40、検出手段50および結果表示手段60の構成は、データ処理システム2の対応する構成と同様であるため、詳細な説明は省略する。
データ処理システム3は、データ処理システム2の指示手段10のラベル付与手段11を対象物指定手段13および除外範囲指定手段14に置き換えた指示手段102(第1の出力手段)を備え、学習手段20に学習領域算出手段25を加えた構成をもつ。また、データ処理システム3の指示手段102は、学習条件として領域サイズに関する条件を含むことが好ましい。
対象物指定手段13は、対象物を含む領域の範囲を任意サイズで指定する機能を有する。また、対象物指定手段13は、対象物を含む領域を少しずつずらし、対象物を含む別の領域を設定していく。
図14に、対象物指定手段13によって対象物を含む領域を指定し、対象物を含む領域を切り出す例を示す。なお、学習用画像117には、複数の図形が図示されているが、ここでは星印を対象物とする。
対象物指定手段13は、対象物を含む範囲(以下、対象物範囲)を任意のサイズで指定する。この際、図14の表示117において実線の枠で囲んだ領域が対象物範囲に指定される。対象物指定手段13によって指定された領域には、ラベル1が付与される。
そして、対象物指定手段13は、設定された対象物範囲を任意の方向に、対象物(星印)を含むようにずらしながら、対象物(星印)を含む別の領域を順次切り出していく。
対象物指定手段13は、学習条件として、回転可と指定された場合は、対象物を含む領域の回転画像を作り出す。図14のラベル1の破線枠内の2〜4行目に並べた領域は、対象物指定手段13によって切り出された複数の領域を回転することによって生成されたものである。なお、一定サイズ以上の対象物だけを学習対象とするように、一定サイズに満たない対象物を学習対象から外すための閾値を設けてもよい。
対象物指定手段13によって、図14のラベル1に示すような複数の領域が切り出される。ただし、図14のラベル1のように切り出された複数の領域の範囲はサイズが一定となるように規格化されているが、異なるサイズの領域を切りだしていくようにしてもよい。また、各領域を切り出すトリミング処理はトリミング処理手段212で実行し、各領域の回転処理に関しては回転処理手段213によって実行するようにしてもよい。
除外範囲指定手段14は、学習に用いない領域の範囲を任意サイズで指定する機能を有する。除外範囲指定手段14は、対象物範囲や除外範囲を全く含まないように少しずつずらしながら対象物を含まない領域を切り出す。なお、除外範囲とは、領域の外枠が対象物を切断するような範囲や、検出対象から外す小さいサイズの対象物を含む範囲を意味する。除外範囲指定手段14によって指定された 本実施形態に係るデータ処理システムによれば、学習用画像へのラベル付与を削減し、検出フェーズにおいて検出用画像のデータを増やすことによって、対象物を高精度に検出することが可能となる
領域には、ラベル0が付与される。
除外範囲指定手段14は、対象物を含まない範囲を任意のサイズで指定する。この際、図14の表示117において破線の枠で囲んだ領域が切り出される。そして、除外範囲指定手段14は、設定された対象物を含まない範囲を任意の方向に、対象物を含まないようにずらしながら、対象物を含まない別の領域を順次切り出していく。
除外範囲指定手段14によって、図14のラベル0の破線枠内に示すような複数の領域が切り出される。ただし、図14のラベル0の破線枠内のように切り出された複数の領域の範囲はサイズが一定となるように規格化されているが、異なるサイズの領域を切りだしていくようにしてもよい。
学習領域算出手段25は、学習指示手段12から渡された学習データに含まれる対象物を含む範囲情報から、学習に用いる領域サイズで対象物を含む領域群と含まれない領域群の領域情報を算出する機能を有する。
次に、学習手段202による学習フェーズの動作の詳細について図15のフローチャートを用いて説明する。なお、検出フェーズについては、第2の実施形態と同様であるために説明は省略する。
図15において、まず、学習手段202は、学習指示手段12から受け取ったデータセットに含まれる画像を読み込む(ステップS41)。
フィルタ処理手段211は、読み込まれた画像にフィルタ処理を行う(ステップS42)。
学習領域算出手段25は、既定サイズで対象物を含む領域を算出する(ステップS43)。
また、学習領域算出手段25は、既定サイズで対象物を含まない領域を算出する(ステップS44)。
次に、トリミング手段213は、既定サイズで対象物を含む領域から領域ごとの画像(以下、領域画像)を切り出す(ステップS45)。
特徴抽出手段22は、領域画像から特徴量を抽出する(ステップS46)。
特徴抽出手段22は、回転された領域画像から特徴量を抽出する(ステップS47)。
モデル学習手段24は、各領域の特徴量とラベルとを基に学習モデルを生成する(ステップS48)。
モデル学習手段24は、生成させたモデルをモデル格納手段30に格納し、学習結果を指示手段102に返却する(ステップS49)。
以上のフローにおいて、ループ11(ステップS45〜ステップS47)は、領域の件数分繰り返される。また、ループ12(ステップS47)は、領域画像の回転数分繰り返される。
以上が、学習手段202による学習フェーズの動作に関する説明である。なお、図15に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
以上のように、第3の実施形態に係るデータ処理システムによれば、対象物の範囲を任意サイズで指定することによって、対象物を含む学習データと含まない学習データを自動生成することが可能となる。
また、第3の実施形態に係るデータ処理システムは、学習に使用しない方がよい領域を明確に除外できないため、データによっては学習精度が下がる可能性がある。しかしながら、対象物を含まない領域が対象物を含む領域よりも圧倒的に多い場合には、ラベル付与の手間を大幅に削減できる。
(第4の実施形態)
次に、本発明の第4の実施形態に係るデータ処理システム4について説明する。第4の実施形態に係るデータ処理システム4は、第2の実施形態にかかるデータ処理システム2の検出フェーズを工夫した例である。
図16のように、本実施形態に係るデータ処理システム4は、指示手段10、学習手段203、モデル格納手段30、検出指示手段40、検出手段503、結果表示手段603を備える。なお、データ処理システム4の指示手段10、モデル格納手段30および検出指示手段40は、データ処理システム2の対応する構成と同様であるため、詳細な説明は省略する。また、データ処理システム4は、第2の実施形態に係るデータ処理システム2の学習手段20、第3の実施形態に係るデータ処理システム3の指示手段102および学習手段202の構成を含んでいてもよい。
データ処理システム4は、データ処理システム2の学習手段20内の回転処理手段213や特徴量計算手段23を機能させず、回転処理手段514(第2の回転処理手段)と特徴量計算手段53(第2の特徴量計算手段)を検出手段503内に追加した構成をもつ。
結果表示手段603は、検出領域表示手段61と、回転領域表示手段62とを有する。結果表示手段603は、結果出力手段56が出力した結果を表示する機能を有する。
検出領域表示手段61は、検出手段50から出力された結果に基づいた検出領域を表示する。なお、以下の説明では検出領域として矩形を想定としているが、円などの任意の図形を検出領域として設定してもよい。
回転領域表示手段62は、検出手段50から出力された結果に基づいて、どのような領域を回転させることよって対象物が検出されたのかを示す回転領域を表示する。回転領域表示手段62は、例えば45度ずつ回転した領域を検出対象とする場合、回転された領域をその都度表示する。
まず、学習手段203による学習フェーズの動作の詳細について図17のフローチャートを用いて説明する。
図17において、まず、学習手段203は、学習指示手段12から受け取ったデータセットに含まれる画像を読み込む(ステップS51)。
フィルタ処理手段211は、読み込まれた画像にフィルタ処理を行う(ステップS52)。
トリミング手段213は、フィルタ処理された画像から領域ごとの画像(以下、領域画像)を切り出す(ステップS53)。
特徴抽出手段22は、領域画像から特徴量を抽出する(ステップS54)。
モデル学習手段24は、各領域の特徴量とラベルとを基に学習モデルを生成する(ステップS55)。
モデル学習手段24は、生成したモデルをモデル格納手段30に格納し、学習結果を指示手段10に返却する(ステップS56)。
以上のフローにおいて、ループ13(ステップS53〜ステップS54)は、フィルタ処理回数分繰り返される。
以上が、学習手段203による学習フェーズの動作の詳細に関する説明である。なお、図17に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
次に、検出手段503による検出フェーズの動作の詳細について図18を用いて説明する。なお、図18においては、検出フェーズにおいて超解像処理を行うことを前提として説明する。
図18において、まず、検出手段503は、モデル格納手段30からモデルを読み込む(ステップS61)。
次に、検出手段503は、データセットに含まれる検出用画像を読み込む(ステップS62)。
ここで、読み込まれた検出用画像を拡大する場合、超解像処理手段511は、読み込まれた画像に超解像処理を行う(ステップS63)。
フィルタ処理手段512は、処理対象の画像に対してフィルタ処理を行う(ステップS64)。
トリミング処理手段515は、フィルタ処理された画像から領域ごとの画像となる領域画像を切り出す(ステップS65)。
特徴抽出手段52は、領域画像から特徴量を抽出する(ステップS66)。
次に、回転処理手段514は、領域画像を指定角度で回転させる(ステップS67)。
特徴抽出手段52は、回転された領域画像(回転画像とも呼ぶ)から特徴量を抽出する(ステップS68)。
対象物推定手段55は、特徴抽出手段52によって抽出された特徴量をモデルに入力し、検出結果を得る(ステップS69)。
結果出力手段56は、得られた検出結果を結果表示手段600に出力する(ステップS70)。
以上のフローにおいて、ループ14(ステップS63〜ステップS69)は、超解像処理による拡大の回数分繰り返される。また、ループ15(ステップS65〜ステップS69)は、領域画像の件数分繰り返される。また、ループ16(ステップS67〜ステップS68は、領域画像の回転数分繰り返される。
以上が、検出手段503による検出フェーズの動作についての説明である。なお、図18に示すフローは一例であって、各ステップを入れ替えたり、いずれかのステップを削除したり、異なるステップを追加したりすることによって構成したフローも本発明の範囲に含まれる。
以上の図18のフローチャートの説明においては、回転処理手段514が回転処理を行う例について示したが、特徴量計算手段52によって回転領域の特徴ベクトルの計算を行ってもよい。その場合、特徴量計算手段53は、特徴抽出手段52によって抽出された特徴量を含む特徴ベクトルを基に、切り出された領域を回転することによって得られる回転領域の特徴ベクトルを算出する。特徴量計算手段53は、第1の実施形態に係るデータ処理システム1に含まれる特徴量計算手段23と同様の処理を実行することによって、回転領域の特徴ベクトルを算出する。
図19は、第4の実施形態に係るデータ処理システム4によるラベル付与手段11によるラベル付与を説明するための概念図である。データ処理システム4では、検出フェーズにおいてデータ数を増加させることができるため、学習フェーズにおいて処理するデータ数を減らすことができる。すなわち、データ処理システム4では、図19のように、ラベル付与手段によってラベル付与する領域のサイズを大きく設定し、ラベル付与する領域の数を減らすことができる。
以上のように、第4の実施形態に係るデータ処理システムによれば、検出フェーズにおいて、回転処理をしたり、領域のずらし幅を小さくしたりして検出対象とするデータ数(領域数)を増やすことができる。すなわち、第4の実施形態に係るデータ処理システムによれば、学習フェーズにおいて学習に用いるデータ数を減らすことが可能になる。その結果、第4の実施形態に係るデータ処理システムによれば、ラベル付与の手間を削減することができる。
これまで説明してきた本発明の実施形態に係るデータ処理システムによるデータ処理方法は、同様の処理を実行できるシステムであれば、第1〜第4の実施形態とは異なる構成をもつシステムに関しても適用することができる。また、本発明の実施形態に係るデータ処理方法をコンピュータに実行させるデータ処理プログラムも本発明の範囲に含まれる。また、本発明のデータ処理プログラムを格納したプログラム記録媒体も本発明の範囲に含まれる。プログラム記録媒体としては、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体記憶装置、光ディスク、磁気ディスク、光磁気ディスクなどを挙げることができる。
以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
学習用画像上の少なくとも一つの領域に付与された教師ラベルと前記領域の画像との関係を学習してモデル化する学習手段と、
前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出する検出手段とを備えるデータ処理システム。
(付記2)
前記所定の画像処理は超解像処理である付記1に記載のデータ処理システム。
(付記3)
前記学習手段は、
前記学習用画像上の少なくとも一つの領域に付与された教師ラベルと、前記領域の画像および前記画像を回転させた画像との関係を学習してモデル化する付記1または2に記載のデータ処理システム。
(付記4)
前記学習手段は、
前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
前記学習用画像から前記少なくとも一つの領域を切り出す第1のトリミング処理手段と、
前記少なくとも一つの領域に回転処理を施す第1の回転処理手段と、
前記少なくとも一つの領域の特徴量を抽出する第1の特徴抽出手段と、
前記少なくとも一つの領域に関して前記特徴量と前記教師ラベルとの関係を学習して前記モデルを生成するモデル学習手段とを含む付記1乃至3のいずれか一項に記載のデータ処理システム。
(付記5)
前記学習手段は、
前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
前記学習用画像から少なくとも一つの領域を切り出す第1のトリミング処理手段と、
前記少なくとも一つの領域の特徴量を抽出する第1の特徴抽出手段と、
前記第1の特徴抽出手段によって抽出された特徴量を含む特徴ベクトルを基に、前記少なくとも一つの領域を回転することによって得られる回転領域の特徴ベクトルを算出する第1の特徴量計算手段と、
前記第1の特徴抽出手段によって抽出された特徴量と前記教師ラベルとの関係に加えて、前記第1の特徴量計算手段によって算出された前記回転領域の特徴ベクトルと前記教師ラベルとの関係を学習して前記モデルを生成して学習するモデル学習手段とを含む付記1乃至4のいずれか一項に記載のデータ処理システム。
(付記6)
前記特徴量計算手段は、
前記少なくとも一つの領域から抽出された特徴量を少なくとも一つのグループごとにまとめた特徴ベクトルを生成し、生成した前記特徴ベクトルに含まれる特徴量を前記グループごとにローテーションさせることによって前記回転領域の特徴ベクトルを算出する付記5に記載のデータ処理システム。
(付記7)
前記学習手段は、
前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
前記学習用画像から前記少なくとも一つの領域を切り出す第1のトリミング処理手段と、
前記少なくとも一つの領域の特徴量を抽出する第1の特徴抽出手段と、
前記第1の特徴抽出手段によって抽出された特徴量を含む特徴ベクトルを基に、前記少なくとも一つの領域を回転することによって得られる回転領域の特徴ベクトルを算出する第1の特徴量計算手段と、
前記第1の特徴抽出手段によって抽出された特徴量と前記教師ラベルとの関係に加えて、前記第1の特徴量計算手段によって算出された前記回転領域の特徴ベクトルと前記教師ラベルとの関係を学習して前記モデルを生成して学習するモデル学習手段とを含み、
前記特徴量計算手段は、
前記少なくとも一つの領域から抽出された特徴量を少なくとも一つのグループごとにまとめた特徴ベクトルを生成し、生成した前記特徴ベクトルに含まれる特徴量を前記グループごとにローテーションさせることによって前記回転領域の特徴ベクトルを算出する付記1乃至4のいずれか一項に記載のデータ処理システム。
(付記8)
前記学習用画像上の少なくとも一つの領域に前記教師ラベルを付与し、前記教師ラベルが付与された前記学習用画像に関する情報を含む学習データを前記学習手段に出力する第1の出力手段と、
前記検出用画像と、前記対象物の検索条件とを含む検出データを前記検出手段に出力する第2の出力手段とを備え、
前記検出手段は、
前記第2の出力手段から取得した前記検出データに含まれる前記検出用画像に超解像処理を施す超解像処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像に関してフィルタ処理を行う第2のフィルタ処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から少なくとも一つの領域を切り出す第2のトリミング処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から切り出された領域の特徴量を抽出する第2の特徴抽出手段と、
前記第2の特徴抽出手段によって抽出された特徴量を前記モデル格納手段に格納された前記モデルに入力することによって、前記検出用画像に対象物が含まれるか否かを推定する対象物推定手段と、
前記対象物推定手段による推定結果を含む検出結果を出力する結果出力手段とを含む付記4乃至7のいずれか一項に記載のデータ処理システム。
(付記9)
前記対象物を含む領域の範囲を任意サイズで指定し、前記対象物を含む範囲をずらすことによって前記対象物を含む領域を順次切り出していくとともに、前記対象物を含まない領域の範囲を任意サイズで指定し、前記対象物を含まない範囲をずらすことによって前記対象物を含まない領域を順次切り出していき、前記学習用画像に関する情報を含む前記学習データを前記学習手段に出力する第1の出力手段と、
前記検出用画像と、前記対象物の検出条件とを含む検出データを前記検出手段に出力する第2の出力手段とを備え、
前記学習手段は、
前記指示手段から取得した前記学習データを参照し、学習に用いるサイズの範囲の領域に前記対象物が含まれるか否かを算出する学習領域算出手段を含み、
前記検出手段は、
前記第2の出力手段から取得した前記検出データに含まれる前記検出用画像に超解像処理を施す超解像処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像に関してフィルタ処理を行う第2のフィルタ処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から少なくとも一つの領域を切り出す第2のトリミング処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない領域の特徴量を抽出する第2の特徴抽出手段と、
前記第2の特徴抽出手段によって抽出された特徴量を前記モデル格納手段に格納された前記モデルに入力することによって、前記検出用画像に対象物が含まれるか否かを推定する対象物推定手段と、
前記対象物推定手段による推定結果を含む検出結果を出力する結果出力手段とを含む付記4乃至7のいずれか一項に記載のデータ処理システム。
(付記10)
前記学習用画像を複数の領域に分割し、前記分割された複数の領域のうち学習対象の領域に前記教師ラベルを付与し、前記教師ラベルが付与された前記学習用画像に関する情報を含む前記学習データを前記学習手段に出力する第1の出力手段と、
前記検出用画像と、前記対象物の検索条件とを含む検出データを前記検出手段に出力する第2の出力手段とを備え、
前記学習手段は、
前記指示手段から取得した前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
前記第1のフィルタ処理によってフィルタ処理が施された学習用画像から少なくとも一部の領域を切り出す第1のトリミング処理手段と、
前記第1のトリミング処理手段によって切り出された領域から特徴量を抽出する第1の特徴抽出手段と、
前記第1の特徴抽出手段によって抽出された特徴量と前記教師ラベルとの関係を学習して前記モデルを生成するモデル学習手段とを含み、
前記検出手段は、
前記第2の出力手段から取得した前記検出データに含まれる前記検出用画像に超解像処理を施す超解像処理手段と、
前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像に関してフィルタ処理を行う第2のフィルタ処理手段と、
前記第2のフィルタ処理手段によってフィルタ処理が行われた前記検出用画像から少なくとも一部の領域を切り出す第2のトリミング処理手段と、
第2のトリミング処理手段によって切り出された領域を回転処理する第2の回転処理手段と、
前記第2のトリミング処理手段によって切り出された領域と、前記第2の回転処理手段によって回転処理された複数の領域とから特徴量を抽出する第2の特徴抽出手段と、
前記第2の特徴抽出手段によって抽出された特徴量を前記モデル格納手段に格納された前記モデルに入力することによって、前記検出用画像に対象物が含まれるか否かを推定する対象物推定手段と、
前記対象物推定手段による推定結果を含む検出結果を出力する結果出力手段とを有する付記1乃至3のいずれか一項に記載のデータ処理システム。
(付記11)
前記第1の出力手段は、前記学習用画像を表示する画面を有し、前記画面に表示されたグラフィックユーザーインターフェースを介して、前記学習対象とする領域に関する指定を受け付けるとともに、前記学習対象に設定された領域に前記教師ラベルを付与する操作を受け付ける付記8乃至10のいずれか一項に記載のデータ処理システム。
(付記12)
前記結果出力手段は、前記検出結果を表示する画面を有し、前記所定の画像処理が施された検出用画像および前記画像処理が施されていない画像を組み合わせた画像を前記画面に重畳して表示する付記8乃至11のいずれか一項に記載のデータ処理システム。
(付記13)
学習用画像上の少なくとも一つの領域に付与された教師ラベルと前記領域の画像との関係を学習してモデル化し、
前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出するデータ処理方法。
(付記14)
学習用画像上の少なくとも一つの領域に付与された教師ラベルと前記領域の画像との関係を学習してモデル化する処理と、
前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出する処理とをコンピュータに実行させるデータ処理プログラム。
本発明は、映像監視システムにおける人物検出などに適用できる。また、本発明は、人工衛星によって取得された画像を用いる対象物検出にも適用できる。
1、2、3、4 データ処理システム
10 指示手段
11 ラベル付与手段
12 学習指示手段
13 対象物指定手段
14 除外範囲指定手段
20 学習手段
21 学習用画像処理手段
22 特徴抽出手段
23 特徴量計算手段
24 モデル学習手段
25 学習領域算出手段
30 モデル格納手段
40 検出指示手段
50 検出手段
51 検出用画像処理手段
52 特徴抽出手段
55 対象物推定手段
56 結果出力手段
60 結果表示手段
61 検出領域表示手段
62 回転領域表示手段
211 フィルタ処理手段
212 トリミング処理手段
213 回転処理手段
511 超解像処理手段
512 フィルタ処理手段
515 トリミング処理手段
514 回転処理手段

Claims (9)

  1. 学習用画像上の少なくとも一つの領域に付与された教師ラベルと前記領域の画像および前記画像を回転させた画像との関係を学習してモデル化する学習手段と、
    前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出する検出手段とを備えるデータ処理システム。
  2. 前記所定の画像処理は超解像処理である請求項1に記載のデータ処理システム。
  3. 前記学習手段は、
    前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
    前記学習用画像から前記少なくとも一つの領域を切り出す第1のトリミング処理手段と、
    前記少なくとも一つの領域に回転処理を施す第1の回転処理手段と、
    前記少なくとも一つの領域の特徴量を抽出する第1の特徴抽出手段と、
    前記少なくとも一つの領域に関して前記特徴量と前記教師ラベルとの関係を学習して前記モデルを生成するモデル学習手段とを含む請求項1または2に記載のデータ処理システム。
  4. 前記学習手段は、
    前記学習用画像にフィルタ処理を施す第1のフィルタ処理手段と、
    前記学習用画像から前記少なくとも一つの領域を切り出す第1のトリミング処理手段と、
    前記少なくとも一つの領域の特徴量を抽出する第1の特徴抽出手段と、
    前記第1の特徴抽出手段によって抽出された特徴量を含む特徴ベクトルを基に、前記少なくとも一つの領域を回転することによって得られる回転領域の特徴ベクトルを算出する第1の特徴量計算手段と、
    前記第1の特徴抽出手段によって抽出された特徴量と前記教師ラベルとの関係に加えて、前記第1の特徴量計算手段によって算出された前記回転領域の特徴ベクトルと前記教師ラベルとの関係を学習して前記モデルを生成して学習するモデル学習手段とを含み、
    前記第1の特徴量計算手段は、
    前記少なくとも一つの領域から抽出された特徴量を少なくとも一つのグループごとにまとめた特徴ベクトルを生成し、生成した前記特徴ベクトルに含まれる特徴量を前記グループごとにローテーションさせることによって前記回転領域の特徴ベクトルを算出する請求項1乃至のいずれか一項に記載のデータ処理システム。
  5. 前記学習用画像上の少なくとも一つの領域に前記教師ラベルを付与し、前記教師ラベルが付与された前記学習用画像に関する情報を含む学習データを前記学習手段に出力する第1の出力手段と、
    前記検出用画像と、前記対象物の検索条件とを含む検出データを前記検出手段に出力する第2の出力手段とを備え、
    前記検出手段は、
    前記第2の出力手段から取得した前記検出データに含まれる前記検出用画像に超解像処理を施す超解像処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像に関してフィルタ処理を行う第2のフィルタ処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から少なくとも一つの領域を切り出す第2のトリミング処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から切り出された領域の特徴量を抽出する第2の特徴抽出手段と、
    前記第2の特徴抽出手段によって抽出された特徴量を前記モデルに入力することによって、前記検出用画像に対象物が含まれるか否かを推定する対象物推定手段と、
    前記対象物推定手段による推定結果を含む検出結果を出力する結果出力手段とを含む請求項3または4に記載のデータ処理システム。
  6. 前記対象物を含む領域の範囲を任意サイズで指定し、前記対象物を含む範囲をずらすことによって前記対象物を含む領域を順次切り出していくとともに、前記対象物を含まない領域の範囲を任意サイズで指定し、前記対象物を含まない範囲をずらすことによって前記対象物を含まない領域を順次切り出していき、前記学習用画像に関する情報を含む前記学習データを前記学習手段に出力する第1の出力手段と、
    前記検出用画像と、前記対象物の検出条件とを含む検出データを前記検出手段に出力する第2の出力手段とを備え、
    前記学習手段は、
    前記第1の出力手段から取得した前記学習データを参照し、学習に用いるサイズの範囲の領域に前記対象物が含まれるか否かを算出する学習領域算出手段を含み、
    前記検出手段は、
    前記第2の出力手段から取得した前記検出データに含まれる前記検出用画像に超解像処理を施す超解像処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像に関してフィルタ処理を行う第2のフィルタ処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない前記検出用画像から少なくとも一つの領域を切り出す第2のトリミング処理手段と、
    前記超解像処理手段によって超解像処理が施された前記検出用画像および超解像処理が施されていない領域の特徴量を抽出する第2の特徴抽出手段と、
    前記第2の特徴抽出手段によって抽出された特徴量を前記モデルに入力することによって、前記検出用画像に対象物が含まれるか否かを推定する対象物推定手段と、
    前記対象物推定手段による推定結果を含む検出結果を出力する結果出力手段とを含む請求項5に記載のデータ処理システム。
  7. 前記結果出力手段は、前記検出結果を表示する画面を有し、前記所定の画像処理が施された検出用画像および前記画像処理が施されていない画像を組み合わせた画像を前記画面に重畳して表示する請求項5または6に記載のデータ処理システム。
  8. 学習用画像上の少なくとも一つの領域に付与された教師ラベルと、前記領域の画像および前記画像を回転させた画像との関係を学習してモデル化し、
    前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出するデータ処理方法。
  9. 学習用画像上の少なくとも一つの領域に付与された教師ラベルと、前記領域の画像および前記画像を回転させた画像との関係を学習してモデル化する処理と、
    前記学習用画像と異なる検出用画像を入力とし、所定の画像処理が施された検出用画像および前記画像処理が施されていない検出用画像の中からそれぞれ前記モデルに基づいて対象物を含む領域を検出する処理とをコンピュータに実行させるデータ処理プログラム。
JP2014192138A 2014-09-22 2014-09-22 データ処理システム、データ処理方法およびデータ処理プログラム Active JP6435740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192138A JP6435740B2 (ja) 2014-09-22 2014-09-22 データ処理システム、データ処理方法およびデータ処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192138A JP6435740B2 (ja) 2014-09-22 2014-09-22 データ処理システム、データ処理方法およびデータ処理プログラム

Publications (2)

Publication Number Publication Date
JP2016062524A JP2016062524A (ja) 2016-04-25
JP6435740B2 true JP6435740B2 (ja) 2018-12-12

Family

ID=55798025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192138A Active JP6435740B2 (ja) 2014-09-22 2014-09-22 データ処理システム、データ処理方法およびデータ処理プログラム

Country Status (1)

Country Link
JP (1) JP6435740B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6542824B2 (ja) 2017-03-13 2019-07-10 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
CN110476158A (zh) 2017-03-28 2019-11-19 日本电气株式会社 数据分析设备、数据分析方法和数据分析程序
JP6487493B2 (ja) 2017-05-18 2019-03-20 ファナック株式会社 画像処理システム
JP7210873B2 (ja) * 2017-07-26 2023-01-24 横浜ゴム株式会社 欠陥検査方法及び欠陥検査装置
JP6936650B2 (ja) 2017-07-27 2021-09-22 三菱パワー株式会社 モデル学習装置、学習済みモデルの生成方法、プログラム、学習済みモデル、監視装置、および監視方法
JP6904614B2 (ja) * 2017-12-08 2021-07-21 日本電気通信システム株式会社 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
CN111033240A (zh) * 2017-12-29 2020-04-17 美的集团股份有限公司 一种谷物识别方法、装置和计算机存储介质
CN108388859B (zh) * 2018-02-11 2022-04-15 深圳市商汤科技有限公司 物体检测方法、网络训练方法、装置和计算机存储介质
CN110610183A (zh) * 2018-06-15 2019-12-24 佛山市顺德区美的电热电器制造有限公司 谷物评估方法、装置和存储介质
KR102199912B1 (ko) * 2018-06-19 2021-01-08 한국전자기술연구원 데이터 증분 기반 강인한 객체 인지 방법 및 시스템
IL264530B1 (en) * 2019-01-29 2024-03-01 Eyeway Vision Ltd Device for tracking eye movement and method therefor
JP7116244B2 (ja) * 2019-03-01 2022-08-09 株式会社ソニー・インタラクティブエンタテインメント 画像送受信システム、画像送信装置、画像受信装置、画像送受信方法及びプログラム
JP6737997B1 (ja) * 2019-03-14 2020-08-12 Navier株式会社 画像処理学習プログラム、画像処理プログラム、情報処理装置及び画像処理システム
JP2021010970A (ja) * 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法
US12002191B2 (en) 2019-07-25 2024-06-04 Kyocera Document Solutions Inc. Data processing system and data processing method
JP7006954B2 (ja) * 2019-09-22 2022-01-24 株式会社リョーワ 良否判定システム、サーバ及び良否判定方法
KR102282087B1 (ko) * 2019-10-28 2021-07-27 주식회사 뷰온 딥러닝 모델에 적용하기 위한 학습 데이터 확장방법, 딥러닝을 이용한 이미지 분류장치 및 그 방법
JP7391285B2 (ja) * 2020-07-21 2023-12-05 株式会社シバサキ プログラム、情報処理装置、情報処理方法及びモデル生成方法
US20230289928A1 (en) * 2020-08-13 2023-09-14 Nec Corporation Image augmentation apparatus, control method, and non-transitory computer-readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4340842B2 (ja) * 2003-01-31 2009-10-07 富士ゼロックス株式会社 画像処理方法および画像処理装置、画像処理プログラム、記憶媒体
JP4615462B2 (ja) * 2006-03-15 2011-01-19 株式会社リコー 画像処理装置、画像形成装置、プログラムおよび画像処理方法
JP2008299618A (ja) * 2007-05-31 2008-12-11 Toshiba Corp 画像高品質化装置、方法およびプログラム
JP5201184B2 (ja) * 2010-08-24 2013-06-05 株式会社豊田中央研究所 画像処理装置及びプログラム
JP5821590B2 (ja) * 2011-12-06 2015-11-24 富士ゼロックス株式会社 画像識別情報付与プログラム及び画像識別情報付与装置

Also Published As

Publication number Publication date
JP2016062524A (ja) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6435740B2 (ja) データ処理システム、データ処理方法およびデータ処理プログラム
US8478072B2 (en) Device, method, and program for image processing
JP6188400B2 (ja) 画像処理装置、プログラム及び画像処理方法
US20120092357A1 (en) Region-Based Image Manipulation
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
US10846889B2 (en) Color handle generation for digital image color gradients using machine learning
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN112132164B (zh) 目标检测方法、***、计算机装置及存储介质
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
KR101752742B1 (ko) 가우시안 스케일 공간 생성 단순화를 기반으로 한 특징점 추출 방법 및 장치
CN110827301B (zh) 用于处理图像的方法和装置
Liu et al. Asflow: Unsupervised optical flow learning with adaptive pyramid sampling
US11164036B2 (en) Human-assisted machine learning through geometric manipulation and refinement
US20230162413A1 (en) Stroke-Guided Sketch Vectorization
CN113269280B (zh) 文本检测方法、装置、电子设备及计算机可读存储介质
JP2020087165A (ja) 学習データ生成プログラム、学習データ生成装置、及び学習データ生成方法
US11615507B2 (en) Automatic content-aware collage
JP2018206260A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
Kurlin et al. A persistence-based approach to automatic detection of line segments in images
JP7238510B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN114022458A (zh) 骨架检测方法、装置、电子设备和计算机可读存储介质
Altstidl et al. Just a matter of scale? reevaluating scale equivariance in convolutional neural networks
Di Giacomo et al. Network visualization retargeting
CN115620299B (zh) 图像识别方法、装置、计算机设备和存储介质
KR102436197B1 (ko) 이미지 객체 검출 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6435740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150