JP2015036939A - 特徴抽出プログラム及び情報処理装置 - Google Patents

特徴抽出プログラム及び情報処理装置 Download PDF

Info

Publication number
JP2015036939A
JP2015036939A JP2013168974A JP2013168974A JP2015036939A JP 2015036939 A JP2015036939 A JP 2015036939A JP 2013168974 A JP2013168974 A JP 2013168974A JP 2013168974 A JP2013168974 A JP 2013168974A JP 2015036939 A JP2015036939 A JP 2015036939A
Authority
JP
Japan
Prior art keywords
feature amount
feature
learning
layer
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013168974A
Other languages
English (en)
Other versions
JP6107531B2 (ja
Inventor
幸寛 坪下
Yukihiro Tsuboshita
幸寛 坪下
加藤 典司
Noriji Kato
典司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2013168974A priority Critical patent/JP6107531B2/ja
Publication of JP2015036939A publication Critical patent/JP2015036939A/ja
Application granted granted Critical
Publication of JP6107531B2 publication Critical patent/JP6107531B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像情報の特徴抽出において、バックプロパゲーション法を用いずに、空間的な相関性を取り込むとともに、従来に比べて演算処理の負荷及びメモリ消費量を抑制する特徴抽出プログラム及び情報処理装置を提供する。【解決手段】情報処理装置1は、レイヤ0において、画像情報111から特徴量を抽出する基本特徴量抽出手段100と、複数レイヤにおいて抽出された特徴量を用いて学習を行い学習結果情報112を出力する学習手段102と、レイヤ0以外のレイヤのそれぞれにおいて、学習手段102の学習結果情報112に基づいて、1つ前のレイヤの出力からk−meansクラスタリングにより特徴量を抽出する特徴量抽出手段101と、レイヤ0以外のレイヤのそれぞれにおいて、特徴量抽出手段101が抽出した特徴量をプーリング処理し、プーリング処理された特徴量を当該レイヤの出力とするプーリング処理手段103とを有する。【選択図】図1

Description

本発明は、特徴抽出プログラム及び情報処理装置に関する。
従来の特徴抽出プログラムとして、画像情報から得られる特徴ベクトルについて階層的なプーリング及び特徴抽出を行うものがある(例えば、特許文献1参照)。
特許文献1の特徴抽出プログラムは、画像情報から人物の顔を認識するために用いられる特徴を抽出する手法であって、画像情報の全体画像上で予め定めた範囲を走査して当該範囲毎に特徴ベクトルを抽出し、自己組織化マップによって抽出した特徴ベクトルの次元数を減らし、次元数を減らした特徴ベクトルから混成畳み込みニューラルネットワークにより画像情報を予め定めたクラスに分類する。当該ニューラルネットワークは、教師あり学習を用いる方法であるバックプロパゲーション法(誤差逆伝播法)によりクラスと画像情報との対応関係を学習するものであり、局所的特徴検出と空間プーリングを繰り返すことで並進、回転、拡大縮小、変形に対して検出される特徴量の不変性を増している。つまり、画像情報の持つ空間的な相関性を取り込んでいる。
特開平10−21406号公報
本発明の目的は、画像情報の特徴抽出において、バックプロパゲーション法を用いずに、空間的な相関性を取り込むとともに、従来に比べて演算処理の負荷及びメモリ消費量を抑制する特徴抽出プログラム及び情報処理装置を提供することにある。
本発明の一態様は、上記目的を達成するため、以下の特徴抽出プログラム及び情報処理装置を提供する。
[1]コンピュータを、
複数の階層の各階層において、1つ前の階層の出力を入力として画像情報の特徴量を抽出するよう機能させるものであって、
前記複数の階層の最初の階層において、画像情報から特徴量を抽出する基本特徴量抽出手段と、
前記複数の階層において抽出された特徴量を用いて学習を行い学習結果を出力する学習手段と、
前記複数の階層の最初以外の階層のそれぞれにおいて、前記学習手段の学習結果に基づいて、1つ前の階層の出力から教師なしのクラスタリング手法により特徴量を抽出する特徴量抽出手段と、
前記複数の階層の最初以外の階層のそれぞれにおいて、前記特徴量抽出手段が抽出した特徴量をプーリング処理し、プーリング処理された特徴量を当該階層の出力とするプーリング処理手段として機能させる特徴抽出プログラム。
[2]前記特徴量抽出手段は、前記複数の階層のうち特定の階層までに抽出された特徴量を用いて前記学習手段が学習を行い出力した学習結果に基づいて、1つ前の階層の出力から特徴量を抽出する前記[1]に記載の特徴抽出プログラム。
[3]前記学習手段は、1つ前の階層の学習結果を用いて学習を行う前記[1]又は[2]に記載の特徴抽出プログラム。
[4]複数の階層において1つ前の階層の出力を入力として特徴量を抽出するものであって、
前記複数の階層の最初の階層において、画像情報から特徴量を抽出する基本特徴量抽出手段と、
前記複数の階層において抽出された特徴量を用いて学習を行い学習結果を出力する学習手段と、
前記複数の階層の最初以外の階層のそれぞれにおいて、前記学習手段の学習結果に基づいて、1つ前の階層の出力から教師なしのクラスタリング手法により特徴量を抽出する特徴量抽出手段と、
前記複数の階層の最初以外の階層のそれぞれにおいて、前記特徴量抽出手段が抽出した特徴量をプーリング処理し、プーリング処理された特徴量を当該階層の出力とするプーリング処理手段とを有する情報処理装置。
請求項1又は4に係る発明によれば、画像情報の特徴抽出において、バックプロパゲーション法を用いずに、空間的な相関性を取り込むとともに、従来に比べて演算処理の負荷及びメモリ消費量を抑制することができる。
請求項2に係る発明によれば、共通の学習結果に基づいて特徴量を抽出することができる。
請求項3に係る発明によれば、1つ前の階層の学習結果を用いて学習を行うことができる。
図1は、本発明の第1の実施の形態に係る情報処理装置の構成の一例を示す図である。 図2は、特徴抽出動作の一例を説明する概略図である。 図3は、学習動作の一例を説明する概略図である。 図4(a)及び(b)は、基本特徴量抽出手段の特徴量抽出動作を説明するための概略図である。 図5は、学習結果情報の構成の一例を示す概略図である。 図6は、特徴量抽出手段によって抽出される特徴量情報の構成の一例を示す概略図である。 図7は、特徴量抽出手段によって抽出される特徴量情報の構成の他の例を示す概略図である。 図8(a)−(c)は、特徴量の抽出動作の具体例を説明するための概略図である。 図9は、特徴量の抽出動作においてk−meansクラスタリングの具体例を説明するための概略図である。 図10(a)及び(b)は、プーリング処理の具体例を説明するための概略図である。 図11は、情報処理装置の特徴抽出動作の一例を示すフローチャートである。 図12は、情報処理装置の学習動作の一例を示すフローチャートである。 図13は、本発明の第2の実施の形態に係る情報処理装置の構成の一例を示す図である。 図14は、特徴抽出動作の一例を説明する概略図である。 図15は、本発明の第3の実施の形態に係る情報処理装置の構成の一例を示す図である。 図16は、特徴抽出動作の一例を説明する概略図である。
[第1の実施の形態]
(情報処理装置の構成)
図1は、本発明の第1の実施の形態に係る情報処理装置の構成の一例を示す図である。
情報処理装置1は、CPU(Central Processing Unit)等から構成され各部を制御するとともに各種のプログラムを実行する制御部10と、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶媒体から構成され情報を記憶する記憶部11と、外部とネットワークを介して通信する通信部12を備える。
情報処理装置1は、画像情報111に、例えば、「木」「家」「犬」「車」等の被写体が含まれるとき、これら「木」「家」「犬」「車」等の語句を画像情報に対する識別情報として付与するために画像情報111から特徴を抽出するものである。また、情報処理装置1は、記憶部11に格納された予め抽出されるべき特徴が付与された訓練用の訓練画像情報集合114を用いて学習を行うものである。なお、情報処理装置1は、識別情報を付与する動作は他の装置に実行させて、画像情報111から特徴を抽出する動作までを実行するものであってもよい。
情報処理装置1は、画像情報111から複数の階層で特徴量を抽出するものであり、各階層のことを以下「レイヤ」という。各階層は、特徴量を抽出する動作と、抽出された特徴量について後述するプーリングを行う動作とを含むものとし、両動作が実行されて出力される値が次のレイヤの入力となる。また、各レイヤは特徴量を抽出する順番においてレイヤ0、レイヤ1、レイヤ2…と番号を振って呼ぶことにする。
制御部10は、後述する特徴抽出プログラム110を実行することで、基本特徴量抽出手段100、特徴量抽出手段101、学習手段102及びプーリング処理手段103等として機能する。
基本特徴量抽出手段100は、複数のレイヤのうち最初のレイヤ(レイヤ0)において、画像情報111及び学習用の訓練画像情報集合114を、画素の単位であるピクセル毎に、例えば、ガボールフィルタを用いる方法やRGB、正規化RG、CIELAB等の特徴量を抽出する方法によって特徴ベクトルを生成する。ここで、特徴ベクトルは特徴量情報の一例である。また、数ピクセル毎に特徴量を抽出してもよいし、数ピクセルのパッチを1つの単位として、それぞれのピクセルから得られる値をベクトルの要素として1つの特徴量としてもよい。
特徴量抽出手段101は、複数のレイヤのうち最初以外のレイヤ(レイヤ1以降)において、1つ前のレイヤの出力を入力として、1つ前のレイヤの学習結果に基づいて特徴量の抽出を行う。特徴量の抽出方法は、k−meansクラスタリングを用いる。なお、抽出方法は教師なしのクラスタリング手法であれば、混合ガウスモデル、混合多項分布モデル等を用いてもよい。
学習手段102は、訓練画像情報集合114を、複数のレイヤのうちレイヤ0の入力とし、複数レイヤにおける処理結果である出力を用いて学習を行う。
プーリング処理手段103は、基本特徴量抽出手段100又は特徴量抽出手段101が抽出した複数の特徴量から、1つの平均値、最大値等の統計値を得て特徴量の数を次元数とする新たな特徴量ベクトルを生成する(以下、「プーリング」という。)。
記憶部11は、制御部10を上述した各手段として動作させる特徴抽出プログラム110、特徴抽出の対象となる画像情報111、学習手段102による学習結果として保存される学習結果情報112、特徴量抽出手段101が抽出した特徴量である特徴量情報113及び学習手段102が学習の際に用いる訓練画像情報集合114等を記憶する。
(情報処理装置の動作)
以下に、情報処理装置の動作例を各図を参照しつつ、(1)特徴抽出動作、(2)学習動作に分けて説明する。
(1)特徴抽出動作
図11は、情報処理装置の特徴抽出動作の一例を示すフローチャートである。図2は、特徴抽出動作の一例を説明する概略図である。
まず、特徴抽出の対象となる画像情報111を基本特徴量抽出手段100に入力する(S1)。
図4(a)及び(b)は、基本特徴量抽出手段100の特徴量抽出動作を説明するための概略図である。
基本特徴量抽出手段100は、図4(a)に示すように、画像情報111aからピクセル毎に、一例として、D0個の特徴量f−fD0を抽出する。ここで、「col」は列を示し、「row」は行を示す。次に、基本特徴量抽出手段100は、図4(b)に示すように、D0個の特徴量f−fD0を成分とした各座標における特徴ベクトルx、x、…、xN0の集合である特徴量情報113を抽出する(S2)。
図5は、学習結果情報112の構成の一例を示す概略図である。図6は、特徴量抽出手段101によって抽出される特徴量情報113の構成の一例を示す概略図である。図7は、特徴量抽出手段101によって抽出される特徴量情報113の構成の他の例を示す概略図である。以下に説明する動作は、レイヤ1以降の複数のレイヤにおいて繰り返されるものである(S3、S6及びS9)。なお、代表してレイヤMについて説明する。
特徴量抽出手段101は、k−meansクラスタリングにより、レイヤM−1の出力である特徴量情報113m−1について、後述する「(2)学習動作」によって得られるレイヤM−1における学習結果情報112m−1(図5)に基づいて図6に示す特徴量101aを抽出する(S4)。
ここで、学習結果情報112m−1は、d −dDm までのDm個のベクトルを含むものであり、k−meansクラスタリングにより特徴量101m−1aの各ベクトルがd −dDm のDm個のベクトルに属するか否かを判定するものであるため、特徴量101aはD次元のベクトルになる。
つまり、レイヤm−1の出力であるxim−1 m−1を入力とし、これをDm次元のベクトルxim−1 に変換する。すなわち、
ここで、「small()」は、kに関して括弧内が小さい方から数えてK番目までの大きさの場合には「1」、そうでない場合には「0」を値として返すものである。
なお、ここで、k−meansクラスタリングにより特徴量101m−1aの各ベクトルがd −dDm の各ベクトルに属する場合は値が「1」、また、属さない場合は値が「0」となるため、特徴量101aの各ベクトルは値が0のものが多い、いわゆるスパースなベクトルとなる。
従って、値が0でないベクトルの要素について、そのインデックス101と値101とを記述する特徴量101bとすることにより、図示しない情報処理装置1のメモリにおいて情報処理の際に一時的に保持する情報量を減少することができる。
次に、プーリング処理手段103は、特徴量101a(又は101b)に含まれる複数のベクトルのうち、予め定めた数のベクトルと組として、組に属するベクトルの平均、最大値等の統計値を算出して新たな1つのベクトルを生成することでプーリング処理し(S5)、特徴量101aに含まれるベクトルの数を減少させた特徴量情報113を出力する。
ここで、プーリング処理のうち平均プーリングは次式で表される。
また、プーリング処理のうち、最大プーリングは次式で表される。
次に、すべてのレイヤについて上記ステップS4、S5の動作を処理し終えると、最後のレイヤMの出力を特徴量情報113として記憶部11に保存する(S8)。ここで、Mの設定方法としては、レイヤMの出力が予め定めた数のベクトル以下となる場合であってもよいし、予め定めた数値としてもよい。
以下において、上記したレイヤmにおける特徴量の抽出動作及びプーリング処理の動作を、具体例を用いて説明する。
図8(a)−(c)は、特徴量の抽出動作の具体例を説明するための概略図である。図9は、特徴量の抽出動作においてk−meansクラスタリングの具体例を説明するための概略図である。図10(a)及び(b)は、プーリング処理の具体例を説明するための概略図である。
まず、図8(a)に示すようにレイヤm−1の出力である特徴量情報113m−1に含まれる特徴量ベクトルを概念的に×印で記載した場合に、各特徴量ベクトルがx=[0.1、0.08]、x=[0.4、0.1]、x=[0.1、0.13]、x=[0.15、0.1]であって、レイヤm−1の学習結果情報112m−1がd=[0.1、0.1]、d=[0.4、0.1]、d=[0.1、0.13]、d=[0.15、0.1]であった場合について考える。
k−meansクラスタリングにより特徴量空間において図9に示すように各ベクトルが分布していたとすると、x、x、xがdに属し、xがdに属しているため、属している場合を「1」、属していない場合を「0」と記載するとしたとき、x=[1、0、0、0]、x=[0、0、0、1]、x=[1、0、0、0]、x=[1、0、0、0]といった特徴量ベクトル101cが抽出される。
次に、プーリング処理手段103は、特徴量ベクトル101cから平均値xavg=[0.75、0、0、0.25]を算出し、新たな特徴量情報113の特徴量ベクトルとする。また、最大値を算出する場合は、xmax=[1、0、0、1]を特徴量ベクトルとする。
(2)学習動作
図12は、情報処理装置の学習動作の一例を示すフローチャートである。図3は、学習動作の一例を説明する概略図である。
まず、学習の対象となる複数の訓練画像情報114を入力し(S10)、「(1)特徴抽出動作」のステップS2−S9を実行し、基本特徴量抽出手段100、特徴量抽出手段101及びプーリング処理手段103によって、レイヤm−1までの特徴量情報113m−1を抽出する(S11)。当該動作は、複数の訓練画像情報集合114について実行され、それぞれの特徴量を抽出する(S12)。
次に、学習手段102は、特徴量情報113−113m−1に基づいてk−meansクラスタリングにより学習し、学習結果情報112m−1を算出して(S13)、記憶部11に保存する(S14)。
上記のレイヤm−1における学習結果情報112m−1はレイヤmの特徴量抽出手段101において用いられる。
(第1の実施の形態の効果)
上記した第1の実施の形態によると、画像情報の特徴抽出において、教師あり学習を用いる方法であるバックプロパゲーション法を用いずに、教師なしのクラスタリング手法であるk−meansクラスタリングを用いたため、例えば、公知の技術であるKD−treeと呼ばれる木構造を用いて高速に計算することができるため、従来に比べて演算処理の負荷を抑制できる。
また、バックプロパゲーション法は、全てのレイヤにおける値をメモリ上に保持する必要があるが、k−meansクラスタリングは、1つ前のレイヤにおける値をメモリ上に保持するだけで済み、情報処理装置1のメモリ消費量を抑制することができる。
また、プーリング処理手段103によって局所受容野を用いてプーリングを行ったため、特徴量情報113に画像情報111の空間的な相関性を取り込むことができる。
[第2の実施の形態]
(情報処理装置の構成)
図13は、本発明の第2の実施の形態に係る情報処理装置の構成の一例を示す図である。図14は、特徴抽出動作の一例を説明する概略図である。
第2の実施の形態の情報処理装置1Aは、第1の実施の形態の情報処理装置1の構成に加えて共通学習結果情報115を有する点で異なる。
情報処理装置1Aの学習手段102は、一例として、レイヤ0及びレイヤ1において抽出される特徴量情報113及び113を用いて学習し、学習の結果得られた学習結果情報112を共通学習結果情報115としてレイヤ1−レイヤMの特徴量抽出手段101−101において用いる。なお、共通学習結果情報115を用いるレイヤN−レイヤMは、N≧1を満たせばよく、その場合、共通学習結果情報115はレイヤ1−レイヤNにおいて抽出される特徴量情報113−113を用いた学習結果情報112を用いるものとする。
(第2の実施の形態の効果)
上記した第2の実施の形態によると、共通学習結果情報115に含まれるベクトルの数がレイヤ1−レイヤMで抽出される特徴量情報113−113に含まれる次元数となる、つまり、特徴量情報113−113の次元数が全て共通となるため、計算の簡略化を図ることができ、第1の実施の形態に比べて、処理が高速化される。
[第3の実施の形態]
(情報処理装置の構成)
図15は、本発明の第3の実施の形態に係る情報処理装置の構成の一例を示す図である。図16は、特徴抽出動作の一例を説明する概略図である。
第3の実施の形態の情報処理装置1Bは、第1の実施の形態の情報処理装置1の構成に加えて初期値設定手段104を有する点で異なる。
情報処理装置1Bの学習手段102は、一つ前のレイヤm−1において得られた学習結果情報112m−1をk−meansクラスタリングの初期値に利用してレイヤmにおいて抽出された特徴量情報113について学習し、学習結果情報112を得る。
(第3の実施の形態の効果)
上記した第3の実施の形態によると、一つ前のレイヤm−1において得られた学習結果情報112m−1をk−meansクラスタリングの初期値に利用したため、k−meansクラスタリングにおいて値の収束までの処理の回数が短縮でき、第1の実施の形態に比べて、処理が高速化される。
[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々な変形が可能である。
また、上記実施の形態で使用される特徴抽出プログラム110は、CD−ROM等の記憶媒体から装置内の記憶部11に読み込んでも良く、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部11にダウンロードしてもよい。また、記憶部11を装置外に配置してもよいし、装置外に配置した記憶部11と情報処理装置1とをネットワークを介して接続してもよい。また、上記実施の形態で使用される手段100〜104の一部または全部をASIC等のハードウェアによって実現してもよい。
1、1A、1B 情報処理装置
10 制御部
11 記憶部
12 通信部
100 基本特徴量抽出手段
101 特徴量抽出手段
101 インデックス
101a、101b、101c 特徴量ベクトル
101
102 学習手段
103 プーリング処理手段
104 初期値設定手段
110 特徴抽出プログラム
111 画像情報
112 学習結果情報
113 特徴量情報
114 訓練画像情報集合
115 共通学習結果情報

Claims (4)

  1. コンピュータを、
    複数の階層の各階層において、1つ前の階層の出力を入力として画像情報の特徴量を抽出するよう機能させるものであって、
    前記複数の階層の最初の階層において、画像情報から特徴量を抽出する基本特徴量抽出手段と、
    前記複数の階層において抽出された特徴量を用いて学習を行い学習結果を出力する学習手段と、
    前記複数の階層の最初以外の階層のそれぞれにおいて、前記学習手段の学習結果に基づいて、1つ前の階層の出力から教師なしのクラスタリング手法により特徴量を抽出する特徴量抽出手段と、
    前記複数の階層の最初以外の階層のそれぞれにおいて、前記特徴量抽出手段が抽出した特徴量をプーリング処理し、プーリング処理された特徴量を当該階層の出力とするプーリング処理手段として機能させる特徴抽出プログラム。
  2. 前記特徴量抽出手段は、前記複数の階層のうち特定の階層までに抽出された特徴量を用いて前記学習手段が学習を行い出力した学習結果に基づいて、1つ前の階層の出力から特徴量を抽出する請求項1に記載の特徴抽出プログラム。
  3. 前記学習手段は、1つ前の階層の学習結果を用いて学習を行う請求項1又は2に記載の特徴抽出プログラム。
  4. 複数の階層において1つ前の階層の出力を入力として特徴量を抽出するものであって、
    前記複数の階層の最初の階層において、画像情報から特徴量を抽出する基本特徴量抽出手段と、
    前記複数の階層において抽出された特徴量を用いて学習を行い学習結果を出力する学習手段と、
    前記複数の階層の最初以外の階層のそれぞれにおいて、前記学習手段の学習結果に基づいて、1つ前の階層の出力から教師なしのクラスタリング手法により特徴量を抽出する特徴量抽出手段と、
    前記複数の階層の最初以外の階層のそれぞれにおいて、前記特徴量抽出手段が抽出した特徴量をプーリング処理し、プーリング処理された特徴量を当該階層の出力とするプーリング処理手段とを有する情報処理装置。
JP2013168974A 2013-08-15 2013-08-15 特徴抽出プログラム及び情報処理装置 Expired - Fee Related JP6107531B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013168974A JP6107531B2 (ja) 2013-08-15 2013-08-15 特徴抽出プログラム及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013168974A JP6107531B2 (ja) 2013-08-15 2013-08-15 特徴抽出プログラム及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2015036939A true JP2015036939A (ja) 2015-02-23
JP6107531B2 JP6107531B2 (ja) 2017-04-05

Family

ID=52687388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013168974A Expired - Fee Related JP6107531B2 (ja) 2013-08-15 2013-08-15 特徴抽出プログラム及び情報処理装置

Country Status (1)

Country Link
JP (1) JP6107531B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
WO2017125980A1 (ja) * 2016-01-21 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018081684A (ja) * 2016-11-14 2018-05-24 澤蒼 顧 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム
CN108388943A (zh) * 2018-01-08 2018-08-10 中国科学院计算技术研究所 一种适用于神经网络的池化装置及方法
KR20200068104A (ko) * 2018-11-28 2020-06-15 울산과학기술원 조기 추론 기반의 심층학습 장치 및 그 방법
KR20210040604A (ko) * 2019-10-04 2021-04-14 광주과학기술원 행위 인식 방법 및 장치
JP2022000782A (ja) * 2015-05-21 2022-01-04 グーグル エルエルシーGoogle LLC ニューラルネットワークプロセッサにおけるベクトル計算ユニット

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021406A (ja) * 1996-03-29 1998-01-23 Nec Corp 物体認識方法及び装置
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021406A (ja) * 1996-03-29 1998-01-23 Nec Corp 物体認識方法及び装置
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022000782A (ja) * 2015-05-21 2022-01-04 グーグル エルエルシーGoogle LLC ニューラルネットワークプロセッサにおけるベクトル計算ユニット
US12014272B2 (en) 2015-05-21 2024-06-18 Google Llc Vector computation unit in a neural network processor
JP7346510B2 (ja) 2015-05-21 2023-09-19 グーグル エルエルシー ニューラルネットワークプロセッサにおけるベクトル計算ユニット
US11620508B2 (en) 2015-05-21 2023-04-04 Google Llc Vector computation unit in a neural network processor
WO2017125980A1 (ja) * 2016-01-21 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017125980A1 (ja) * 2016-01-21 2018-11-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10789691B2 (en) 2016-01-21 2020-09-29 Sony Corporation Information processing apparatus and information processing method
JP2018081684A (ja) * 2016-11-14 2018-05-24 澤蒼 顧 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
CN108388943A (zh) * 2018-01-08 2018-08-10 中国科学院计算技术研究所 一种适用于神经网络的池化装置及方法
CN108388943B (zh) * 2018-01-08 2020-12-29 中国科学院计算技术研究所 一种适用于神经网络的池化装置及方法
KR102180051B1 (ko) 2018-11-28 2020-11-17 울산과학기술원 조기 추론 기반의 심층학습 장치 및 그 방법
KR20200068104A (ko) * 2018-11-28 2020-06-15 울산과학기술원 조기 추론 기반의 심층학습 장치 및 그 방법
KR102334338B1 (ko) 2019-10-04 2021-12-03 광주과학기술원 행위 인식 방법 및 장치
KR20210040604A (ko) * 2019-10-04 2021-04-14 광주과학기술원 행위 인식 방법 및 장치

Also Published As

Publication number Publication date
JP6107531B2 (ja) 2017-04-05

Similar Documents

Publication Publication Date Title
JP6107531B2 (ja) 特徴抽出プログラム及び情報処理装置
Ge et al. Multi-evidence filtering and fusion for multi-label classification, object detection and semantic segmentation based on weakly supervised learning
WO2019100723A1 (zh) 训练多标签分类模型的方法和装置
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
CN109478239B (zh) 检测图像中的对象的方法和对象检测***
Chen et al. DISC: Deep image saliency computing via progressive representation learning
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
Goodfellow et al. Multi-digit number recognition from street view imagery using deep convolutional neural networks
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
WO2014205231A1 (en) Deep learning framework for generic object detection
CN111027576B (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
CN110245621B (zh) 人脸识别装置及图像处理方法、特征提取模型、存储介质
US11568212B2 (en) Techniques for understanding how trained neural networks operate
JP2015099563A (ja) 画像処理装置、画像処理方法及びプログラム
JP2010157118A (ja) パターン識別装置及びパターン識別装置の学習方法ならびにコンピュータプログラム
CN111680755A (zh) 医学图像识别模型构建及医学图像识别方法、装置、介质及终端
CN112528845A (zh) 一种基于深度学习的物理电路图识别方法及其应用
CN112132145A (zh) 一种基于模型扩展卷积神经网络的图像分类方法及***
Kishorjit Singh et al. Image classification using SLIC superpixel and FAAGKFCM image segmentation
CN111368865B (zh) 遥感影像储油罐检测方法、装置、可读存储介质及设备
CN111079930A (zh) 数据集质量参数的确定方法、装置及电子设备
CN114612681A (zh) 基于gcn的多标签图像分类方法、模型构建方法及装置
CN114299304A (zh) 一种图像处理方法及相关设备
JP2021051589A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170220

R150 Certificate of patent or registration of utility model

Ref document number: 6107531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees