JP2020181404A - 画像分類器、画像分類方法及びコンピュータプログラム - Google Patents

画像分類器、画像分類方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2020181404A
JP2020181404A JP2019084479A JP2019084479A JP2020181404A JP 2020181404 A JP2020181404 A JP 2020181404A JP 2019084479 A JP2019084479 A JP 2019084479A JP 2019084479 A JP2019084479 A JP 2019084479A JP 2020181404 A JP2020181404 A JP 2020181404A
Authority
JP
Japan
Prior art keywords
image data
input
image
neural network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019084479A
Other languages
English (en)
Inventor
桂明 戴
Guiming Dai
桂明 戴
畑中 健一
Kenichi Hatanaka
健一 畑中
柿井 俊昭
Toshiaki Kakii
俊昭 柿井
渡辺 英治
Eiji Watanabe
英治 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
National Institute of Natural Sciences
Original Assignee
Sumitomo Electric Industries Ltd
National Institute of Natural Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd, National Institute of Natural Sciences filed Critical Sumitomo Electric Industries Ltd
Priority to JP2019084479A priority Critical patent/JP2020181404A/ja
Publication of JP2020181404A publication Critical patent/JP2020181404A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる画像分類器を提供する。【解決手段】画像データを分類する画像分類器は、画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、入力層に画像データが入力された場合、画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークと、分類対象の画像データを入力層に入力させる入力部と、分類対象の画像データが入力層に入力されたときの複数のニューロンの活動パターンに基づいて、画像データを分類する分類処理部とを備える。【選択図】図1

Description

本開示は、画像分類器、画像分類方法及びコンピュータプログラムに関する。
畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いた画像分類器が実用化されている。畳み込みニューラルネットワークは、教師あり深層学習により、画像の特徴を学習する。
一方、脳科学分野においては、脳が時系列的に入力される感覚刺激を予測し(予測符号化)、効率的な情報処理を実現しているとの理論仮説がある。大脳皮質における予測符号化の処理を模倣した動画像予測モデルとして、PredNet(Predictive Coding Network)と呼ばれるニューラルネットワークが注目されている(例えば、非特許文献1)。学習済みPredNetは、動画を構成する1枚のフレーム画像から、次のフレーム画像を予測して生成することができる。
William Lotter, Gabriel Kreiman & David Cox, "DEEP PREDICTIVE CODING NETWORKS FOR VIDEO PREDICTION AND UNSUPERVISED LEARNING", ICLR 2017
畳み込みニューラルネットワークの深層学習には、学習用データとして大量のラベル付き画像データを用意する必要があるという技術的問題がある。一般的に、分類対象の画像は極めて多様である。例えば、同じ動物の画像であっても、動物の向き、動き、光の加減によって、画像の特徴は大きく変化する。このため、畳み込みニューラルネットワークを用いても柔軟に正しく対象物を認識し、分類できないケースが発生し得る。あらゆるパターンの学習用データを多量に用意することも考えられるが、適切にニューラルネットワークを学習させることが難しくなる等、限界がある。
本開示の目的は、畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる画像分類器、画像分類方法及びコンピュータプログラムを提供することにある。
本態様に係る画像分類器は、画像データを分類する画像分類器であって、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークと、分類対象の前記画像データを前記入力層に入力させる入力部と、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する分類処理部とを備える。
本態様に係る画像分類方法は、画像データを分類する画像分類方法であって、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークを用意し、分類対象の前記画像データを前記入力層に入力させ、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する。
本態様に係るコンピュータプログラムは、コンピュータに、画像データを分類させる処理を実行させるためのコンピュータプログラムであって、前記コンピュータに、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークの前記入力層に、分類対象の前記画像データを入力させ、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する処理を実行させる。
本開示によれば、畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる画像分類器、画像分類方法及びコンピュータプログラムを提供することが可能となる。
なお、本願は、このような特徴的な分類処理部を備える画像分類器して実現することができるだけでなく、上記の通り、画像分類器の特徴的な処理をステップとする画像分類方法として実現したり、かかるステップをコンピュータに実行させるためのプログラムとして実現したりすることができる。また、画像分類器の一部又は全部を実現する半導体集積回路として実現したり、画像分類器を含むその他のシステムとして実現したりすることができる。
図1は実施形態1に係る画像分類器の構成例を示すブロック図である。 図2は実施形態1に係る画像分類器のハードウェア構成を示すブロック図である。 図3は学習済みPredNetの構成例を示すブロック図である。 図4は学習済みPredNetのモジュールを示すブロック図である。 図5は分類器の学習手順を示すフローチャートである。 図6は特徴コードの一例を示す概念図である。 図7は特徴コードの他の例を示す概念図である。 図8は特徴コードと分類コードとの対応付け方法を示す概念図である。 図9は実施形態1に係る画像分類処理の手順を示すフローチャートである。 図10は画像分類方法を示す概念図である。 図11は実施形態2に係る画像分類器の構成例を示すブロック図である。 図12は実施形態3に係る学習済みニューラルネットワークを示す概念図である。
[本開示の実施形態の説明]
最初に本開示の実施態様を列記して説明する。また、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
(1)本態様に係る画像分類器は、画像データを分類する画像分類器であって、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークと、分類対象の前記画像データを前記入力層に入力させる入力部と、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する分類処理部とを備える。
本態様にあっては、分類処理部は、学習済みニューラルネットワークの出力層から出力されるデータでは無く、学習済みニューラルネットワークを構成する複数のニューロンの活動パターンに基づいて、画像データを分類する。
学習済みニューラルネットワークは、入力層に画像データが入力された場合、当該画像データと所定の関連性を有する関連データを出力する機能を潜在的に有する。しかし、本態様においては、学習済みニューラルネットワークから出力される関連データを、基本的に画像分類に利用しない。また、学習済みニューラルネットワークは、必ずしも画像データの分類を目的にして教師あり学習されたものではない。とは言え、学習済みニューラルネットワークは、入力された画像データと所定の関連性を有する関連データを出力するように学習されているため、学習済みニューラルネットワークの中間層は、画像の何らかの特徴を認識する機能を獲得していると予想される。
本態様に係る分類処理部は、画像データが学習済みニューラルネットワークに入力されたときの中間層の活動パターンに基づいて、画像データを分類する。上記学習済みニューラルネットワークは教師なしで様々な画像データの特徴を学習することができ、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
(2)前記学習済みニューラルネットワークは、動画の時系列フレーム画像に基づいて次フレーム画像を予測する学習済みPredNet(DeepPredictiveCodingNetwork)を構成する少なくとも一つのニューラルネットワークの全部又は一部を含む構成が好ましい。
学習済みPredNetは、動画の特徴を教師なしで学習することができる。学習済みPredNetは、動画により、画像データの様々な特徴を認識する機能を獲得している。本態様に係る画像分類器は、学習済みPredNetを構成するニューラルネットワークを用いることにより、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
(3)前記学習済みニューラルネットワークは階層構造を有し、前記学習済みPredNetの最下層よりも上位層のニューラルネットワークを含む構成が好ましい。
本態様にあっては、学習済みニューラルネットワークとして、学習済みPredNetを構成する上位層のニューラルネットワークを利用する。上位層のニューラルネットワークは、画像データのより本質的な特徴を認識し得るものである。本態様に係る画像分類器は、学習済みPredNetを構成する上位層のニューラルネットワークを用いることにより、より柔軟に対象物を認識し、画像データを分類することができる。
(4)前記学習済みニューラルネットワークは、前記学習済みPredNetを構成する複数のニューラルネットワークを含み、前記分類処理部は、分類対象の前記画像データが第1の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記画像データが第2の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの活動パターンとに基づいて、前記画像データを分類する構成が好ましい。
本態様にあっては、学習済みニューラルネットワークとして、学習済みPredNetを構成する複数のニューラルネットワークを利用する。本態様に係る画像分類器は、学習済みPredNetを構成する複数のニューラルネットワークを用いることにより、より柔軟に対象物を認識し、画像データを分類することができる。
(5)前記学習済みニューラルネットワークは学習済みオートエンコーダを構成するニューラルネットワークの一部又は全部を含む構成が好ましい。
オートエンコーダは、動画の特徴を教師なしで学習することができる。本態様に係る画像分類器は、学習済みオートエンコーダを構成するニューラルネットワークを用いることにより、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
(6)前記複数のニューロンの活動パターンと、前記画像データの分類を示す分類情報との対応関係を記憶する記憶部を備え、前記分類処理部は、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記記憶部が記憶する前記対応関係とに基づいて、前記画像データを分類する構成が好ましい。
本態様によれば、学習済みニューラルネットワークを構成する複数のニューロンの活動パターンと、記憶部が記憶する対応関係とに基づいて、画像データを分類することができる。
(7)前記画像データが入力された場合、該画像データの分類を示す分類情報を出力する学習済み畳み込みニューラルネットワークと、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記画像データを前記学習済み畳み込みニューラルネットワークに入力して得られる分類情報との対応関係を前記記憶部に記憶させる追加処理部とを備える構成が好ましい。
本態様によれば、学習済み畳み込みニューラルネットワークを利用することにより、学習済みニューラルネットワークを構成する複数のニューロンの活動パターン、画像データの分類情報とを自動的に対応付け、記憶部に追加することができる。
(8)本態様に係る画像分類方法は、画像データを分類する画像分類方法であって、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークを用意し、分類対象の前記画像データを前記入力層に入力させ、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する。
本態様によれば、態様(1)同様、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
(9)本態様に係るコンピュータプログラムは、コンピュータに、画像データを分類させる処理を実行させるためのコンピュータプログラムであって、前記コンピュータに、前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークの前記入力層に、分類対象の前記画像データを入力させ、分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する処理を実行させる。
本態様によれば、態様(1)同様、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
[本発明の実施形態の詳細]
本発明の実施形態に係る画像分類器、画像分類方法及びコンピュータプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
以下、本発明をその実施形態を示す図面に基づいて具体的に説明する。
(実施形態1)
図1は実施形態1に係る画像分類器1の構成例を示すブロック図である。実施形態1に係る画像分類器1は、入力部11と、学習済みニューラルネットワーク12と、分類処理部13と、認識データベース14と、学習済みCNN(Convolutional Neural Network)15と、出力部16とを備える。
入力部11は、分類対象である画像データを外部から取り込むインタフェースである。入力部11は、入力された画像データを学習済みニューラルネットワーク12と、学習済みCNN15とに与える。
学習済みニューラルネットワーク12は、入力層12aと、中間層(隠れ層)12bと、出力層12cとを備える。中間層12bは、例えば、一又は複数の畳み込み層及びプーリング層を含む。なお中間層12bの一部にドロップアウト層を設けても良い。また、中間層12bは、プーリング層を備えない構成であっても良い。出力層12cは必須の構成では無い。
当該学習済みニューラルネットワーク12は、動画の時系列フレーム画像に基づいて次フレーム画像を予測する学習済みPredNet3を構成しているニューラルネットワークの一部を抜き出して画像分類器1に適用したものである。詳細は後述する。
分類処理部13は、分類対象の画像データが入力層12aに入力されたときの中間層12bの活動パターンに基づいて、画像データを分類する処理を行う。以下、中間層12bを構成する複数のニューロンの活動パターンを特徴コードと呼ぶ。
認識データベース14は、DB14a及び追加処理部14bを備える。
DB14aは、IDと、画像データの特徴を表した特徴コードと、画像データの分類を示す分類ラベル(分類情報)とを対応付けて記憶する。
追加処理部14bは、画像データの特徴コードと、当該特徴コードに対応する分類ラベルとをDB14aに登録する処理を行う。例えば、追加処理部14bは、画像データが学習済みニューラルネットワーク12の入力層12aに入力されたときの中間層12bの活動パターンを表した特徴コードと、当該画像データを学習済みCNN15に入力して得られる分類ラベルとを対応付けてDB14aに記憶させる。
学習済みCNN15は、公知の畳み込みニューラルネットワークを、学習用画像データを用いて深層学習させたものである。学習済みCNN15は、入力層15aと、一又は複数の畳み込み層15b及びプーリング層15cと、一又は複数の全結合層15dと、出力層15eとを備える。
入力層15aには画像データが入力される。入力層15aに入力された画像データは畳み込み層15bへ出力される。
一又は複数の畳み込み層15b及びプーリング層15cは、入力層15aに入力された画像データに対して、各層のフィル値又は重み係数に基づく演算を行う。畳み込み層15bは、画像データに対するフィルタリング処理によって、画像データの特徴を抽出する。プーリング層15cは、例えばマックスプーリング処理によってダウンサンプリングする。最後段のプーリング層15cは、ダウンサンプリングされた画像データの各画素に対応するデータを全結合層15dへ出力する。
一又は複数の全結合層15dは、入力されたデータに対して、各層の重み係数に基づく演算を行うことによって、画像データの特徴量の分類を行う。最後段の全結合層15dは、演算処理されたデータを出力層15eへ出力する。
出力層15eは、複数の分類ラベルに対応するニューロン(ノード)を有する。出力層15eのニューロンの活性化関数は、例えばソフトマックス関数である。出力層15eは、全結合層15dから出力されたデータに基づいて、当該画像データが複数の各分類ラベルに該当する確率を示すデータを出力する。
このように構成された学習済みCNN15の入力層15aに画像データが入力された場合、入力された画像データが、各分類ラベルに該当する確率を示したデータが出力層15eから出力される。学習済みCNN15は、出力層15eから出力されたデータに基づいて、入力された画像データの分類ラベルを特定し、特定された分類ラベルを示すデータを認識データベース14の追加処理部14bへ出力する。なお、学習済みCNN15は、出力層15eから出力されたデータをそのまま追加処理部14bへ出力しても良い。
出力部16は、分類処理部13による画像データの分類結果を出力するインタフェースである。分類結果は、画像データに対応する分類ラベルを示す情報である。例えば、分類結果は、入力された画像データの特徴コードと、DB14aに登録されている分類ラベルの特徴コードとの類似度の情報を出力する。また、分類結果は、両者の特徴コードの類似度が最も高い分類ラベルの情報であっても良い。出力部16は、例えばディスプレイである。
図2は実施形態1に係る画像分類器1のハードウェア構成を示すブロック図である。画像分類器1はコンピュータである。画像分類器1はコンピュータの各構成部の動作を制御する制御部1aを備える。制御部1aには、記憶部1b、入力部11及び出力部16が接続されている。
記憶部1bは、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の不揮発性メモリである。記憶部1bは、本実施形態1に係る画像分類方法をコンピュータに実施し、画像データを分類するためのコンピュータプログラム1cを記憶している。記憶部1bは、学習済みニューラルネットワーク12及び学習済みCNN15のフィルタ値ないし重み係数、DB14aのレコードを記憶する。
本実施形態1に係るコンピュータプログラム1cは、記録媒体にコンピュータ読み取り可能に記録されている態様でも良い。記憶部1bは、図示しない読出装置によって記録媒体から読み出されたコンピュータプログラム1cを記憶する。記録媒体はフラッシュメモリ等の半導体メモリである。また、記録媒体はCD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM、BD(Blu-ray(登録商標)Disc)等の光ディスクでも良い。更に、記録媒体は、フレキシブルディスク、ハードディスク等の磁気ディスク、磁気光ディスク等であっても良い。更にまた、図示しない通信網に接続されている図示しない外部サーバから本実施形態1に係るコンピュータプログラム1cをダウンロードし、記憶部1bに記憶させても良い。
制御部1aは、CPU(Central Processing Unit)、マルチコアCPU、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等の内部記憶装置、入出力インタフェース等を有し、インタフェースには、記憶部1b、入力部11及び出力部16が接続されている。制御部1aは、記憶部1bが記憶するコンピュータプログラム1cを実行することにより、実施形態1に係る画像分類方法を実施し、画像分類器1として動作する。
図3は学習済みPredNet3の構成例を示すブロック図、図4は学習済みPredNet3のモジュール31を示すブロック図である。学習済みPredNet3は、大脳皮質における予測符号化の処理を模倣して構成された深層ニューラルネットワークである。学習済みPredNet3は、動画を構成する時系列のフレーム画像が入力された場合、動画の特徴を認識し、次に入力されるであろうフレーム画像を予測して出力することができる。学習済みPredNet3は、複数のモジュール31を下位層(低次)から上位層(高次)へスタックした階層構造を有する。最下層(第0層)よりも上層の各モジュール31は、動画の特徴を表現したデータ、すなわち将来のフレーム画像を予測するために必要なデータを生成する。生成されたデータは上位層から下位層へ伝播する。最下層のモジュール31は、上位層の各モジュール31から伝播されたデータを用いて、次のフレーム画像を予測する。最下層のモジュール31は、予測した動画のフレーム画像と、実際に入力されたフレーム画像との誤差を表したデータを上層へフィードバックする。同様にして、各モジュール31は予測した動画の特徴と、実際に入力された動画の特徴との誤差を示したデータを下位層から上位層へ伝播させる。上位層の各モジュール31はフィードバックされた誤差のデータを用いて、次のフレーム画像の特徴を表したデータを生成する。PerdNetは、高次層での動画の特徴予測と誤差のフィードバックという一連の処理により、動画のフレーム画像を予測する。
学習済みPredNet3を構成する各モジュール31は、入力画像処理部31aと、予測画像生成部31bと、誤差算出部31cと、特徴表現部31dと、を備える。
入力画像処理部31aは、例えば畳み込み層及びプーリング層を有する。最下層の入力画像処理部31aには、動画のフレーム画像データが入力される。最下層よりも上位層の入力画像処理部31aには、一つ下の階層の誤差算出部31cから出力される誤差画像データが入力される。入力画像処理部31aは、畳み込み層でフレーム画像データ又は誤差画像データの特徴を抽出し、プーリング層でダウンサンプリングする。入力画像処理部31aは画像処理されたフレーム画像データ又は誤差画像データを誤差算出部31cへ出力する。
予測画像生成部31bは畳み込み層を有する。予測画像生成部31bには動画特徴データが入力される。動画特徴データは、特徴表現部31dによって生成されるデータであり、動画の特徴を表したものである。予測画像生成部31b、入力された動画特徴データに基づいて、次に、入力画像処理部31aに入力されるフレーム画像データ又は誤差画像データを予測した予測画像データを生成する。予測画像生成部31bで生成された予測画像データは、誤差算出部31cに出力される。
誤差算出部31cには、減算部及びReLU関数処理部を有する。誤差算出部31cには、入力画像処理部31aから出力されたフレーム画像データ又は誤差画像データと、予測画像生成部31bから出力された予測画像データとが入力される。減算部は、入力されたフレーム画像データ又は誤差画像データと、予測画像データとの差分を算出する。詳細には、減算部は、フレーム画像データ又は誤差画像データから予測画像データを減算して得られる差分と、予測画像データからフレーム画像データ又は誤差画像データを減算して得られる差分とを算出する。算出された差分は引数としてReLU関数に与えられる。誤差算出部31cは、ReLU関数の戻り値である誤差画像データを特徴表現部31dへ出力する。また、誤差算出部31cは、誤差画像データを上位層の入力画像処理部31aへ出力する。
特徴表現部31dは、例えば畳み込みLSTMである。畳み込みLSTMは、画像の特徴を掴むのに適した畳み込みニューラルネットワークと、時系列データを扱うのに適したリカレントニューラルネットワークの一種であるLSTM(Long-Short Term Memory)とを組み合わせた結合したモデルである。特徴表現部31dには、誤差算出部31cから出力された誤差画像データと、上位層の特徴表現部31dから出力された動画特徴データとが入力される。特徴表現部31dは、上位層から得られた現時点の動画特徴データと、自身が算出した過去の動画特徴データと、誤差算出部31cにて算出された過去の誤差画像データとに基づいて、動画の特徴を表現した動画特徴データを生成する。特徴表現部31dは生成した動画特徴データを、同層の予測画像生成部31bへ出力する。
このように構成された学習済みPredNet3は、動画を構成する時系列のフレーム画像が入力されると、動画の特徴を教師なしで学習することができ、将来のフレーム画像を予測できるようになる。
本実施形態1に係る学習済みニューラルネットワーク12は、当該学習済みPredNet3を構成するニューラルネットワークの一部を抜き出したものである。言い換えると、本実施形態1に係る学習済みニューラルネットワーク12は、動画予測を行う学習済みPredNet3から、画像分類という異なる目的を有する画像分類器1へ移植されたニューラルネットワークと言える。従って、画像分類器1の学習済みニューラルネットワーク12を構成している中間層12bの重み係数は、学習済みPredNet3を構成するニューラルネットのフィルタ値及び重み係数と同じである。
学習済みニューラルネットワーク12として利用する学習済みPredNet3の部位は特に限定されるものでは無いが、例えば、入力画像処理部31aを構成するニューラルネットワークを利用すれば良い。また、学習済みニューラルネットワーク12としては、最下層よりも上位層のモジュール31を構成するニューラルネットを用いることが好ましい。より好ましくは、第2層、第3層、又は第4層のモジュール31を構成するニューラルネットを用いると良い。
図5は分類器の学習手順を示すフローチャートである。制御部1aは、入力部11に入力した複数の画像データを学習済みニューラルネットワーク12の入力層12aに入力させる(ステップS11)。制御部1aは、複数の画像データそれぞれに対して、学習済みニューラルネットワーク12の中間層12bによる演算処理を実行する(ステップS12)。制御部1aは、中間層12bを構成するニューロンの活動パターンを表した複数の画像データそれぞれの特徴コードを取得する(ステップS13)。
図6は特徴コードの一例を示す概念図である。図6A及び図6Bは、中間層12bの任意の一層を構成している複数のニューロンの活動パターンを概念的に示したものである。例えば図6A及び図6Bは最後段の複数のニューロンの活動パターンを示したものである。黒丸は発火しているニューロンを示し、白丸は発火していないニューロンを示している。特徴コードは、図6A及び図6Bに示すように複数のニューロンそれぞれの発火、非発火の状態を一次元配列で示した情報である。なお、図6においては、各ニューロンの活動パターンを「1」(発火)、「0」(非発火)の2値で示しているが、これに限定されるものでは無い。例えば、各ニューロンの活性化関数がReLU関数である場合、特徴コードは、当該活性化関数の出力値を成分として有するものであっても良い。
図7は特徴コードの他の例を示す概念図である。図7A及び図7Bは、複数層のニューロンの活動パターンを概念的に示したものである。特徴コードは、図7A及び図7Bに示すように複数のニューロンそれぞれの発火、非発火の状態を二次元配列で示したものである。例えば、図7A及び図7Bは、中間層12bが複数層である場合、各層を構成する複数のニューロンそれぞれの活動パターンを示したものである。特徴コードは、図7A及び図7Bに示すように複数のニューロンそれぞれの発火、非発火の状態を二次元配列で示した情報である。
ステップS13の処理を終えた制御部1aは、複数の画像データの特徴コードをクラスタリングする(ステップS14)。特徴コードのクラスタリングは、公知の手法を用いれば良い。例えば制御部1aは、主成分分析(PCA:Principal Component Analysis)及びk平均(k-means)法を用いて、特徴コードを複数のクラスタにクラスタリングする。クラスタリングによって、各クラスタの重心の特徴コードが求められる。
一方で、制御部1aは、入力部11に入力した上記複数の画像データを学習済みCNN15の入力層15aに入力させ、各画像データの分類ラベルを特定する(ステップS15)。なお、必ずしも全ての画像データの分類ラベルを特定する必要は無い。
次いで、制御部1aは、ステップS14でクラスタリングされた各クラスタの特徴コードと、当該クラスタに対応する分類ラベルとの対応関係を特定し、各クラスタの特徴コードと、分類ラベルとを対応付けてDB14aに登録する(ステップS16)。各クラスタの特徴コードに対応する分類ラベルは、例えばk近傍(k-Nearest Neighbor)法にて特定すると良い。当該クラスタに属する特徴コードに、分類ラベルが特定されているものと、特定されていないものが混在している場合、分類が特定されている特徴コードと、その分類ラベルとを用いて、当該クラスタの分類コードを決定すれば良い。
図8は特徴コードと分類コードとの対応付け方法を示す概念図である。星印、三角印、四角印、丸印は、異なるクラスタにクラスタリングされた画像データの特徴量を表している。黒塗り印は、分類ラベルが特定されたものを示し、白抜き印は分類ラベルが特定されなかったものを示している。各クラスタの分類ラベルは、黒塗り印で示された特徴コードに対応付けられている分類ラベルによって特定される。
このようにして、画像分類器1は、画像データの特徴コードと、分類ラベルとの対応関係をDB14aに記憶することができる。
なお、上記した特徴コードと、分類ラベルとを対応付け方法は一例である。例えば、分類ラベルが付された学習用の画像データを用いて特徴コードと、分類ラベルとの対応関係を学習させるようにしても良い。この場合、学習済みニューラルネットワーク12に複数の画像データを入力することによって、各学習データの特徴コードが得られる。そして、学習用の画像データには分類ラベルが付されているため、当該特徴コードの分類ラベルも一意に定まる。次いで、複数の特徴コードと、各特徴コードの分類ラベルとに基づいて、各分類ラベルと特徴コードとの対応関係を算出する。例えば、SVM(support vector machine)等の分類器を用いて、特徴コードと分類ラベルとの対応関係を学習させれば良い。当該分類器に特徴コードが入力されると、当該特徴コードが属する分類ラベルが出力されるようになる。
図9は実施形態1に係る画像分類処理の手順を示すフローチャート、図10は画像分類方法を示す概念図である。図10中、黒丸は、入力された画像データの特徴コードを示している。制御部1aは、入力部11に入力された画像データを、学習済みニューラルネットワーク12の入力層12aに入力させる(ステップS31)。制御部1aは、複数の画像データそれぞれに対して、学習済みニューラルネットワーク12の中間層12bによる演算処理を実行する(ステップS32)。制御部1aは、中間層12bを構成するニューロンの活動パターンを表した複数の画像データそれぞれの特徴コードを取得する(ステップS33)。
次いで、制御部1aは、画像データの特徴コードと、DB14aに登録された情報とに基づいて、当該特徴コードに対応する分類ラベルを特定し、特定された分類ラベルを出力する(ステップS34)。例えば、制御部1aは、DB14aに登録されている各分類ラベルの特徴コード(クラスタの重心)と、入力画像データの特徴コードとの統計距離を比較し、最も近い特徴コードの分類ラベルを入力画像データの分類ラベルとして特定すれば良い。また、制御部1aは、SVMを用いて、画像データに対応する分類ラベルを特定しても良い。
なお、上記説明では、分類器の学習と、画像分類処理とを分けて説明したが、未知の画像データが入力され、分類不能であった場合、制御部1aは、分類ラベルを受け付け、当該未知の画像データの特徴コードと、分類ラベルとを対応付けてDB1aに記憶させると良い。また、この際、画像分類器1は、新規登録された当該分類ラベルを出力すると良い。
このように構成された実施形態1に係る学習分類器によれば、畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
特に、学習済みPredNet3は、動画の特徴を教師なしで学習することができる。本実施形態1に係る画像分類器1は、学習済みPredNet3を構成するニューラルネットワークを用いることにより、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
学習済みPredNet3を構成する上位層のニューラルネットワークは、学習済みニューラルネットワーク12として利用することにより、より柔軟に対象物を認識し、画像データを分類することができる。
本実施形態1によれば、画像分類器1は、入力される画像データを分類し、DB14aが記憶する情報に基づいて、当該画像データの分類ラベルを特定することができる。
本実施形態1によれば、学習済みCNN15を利用することにより、特徴コードと、分類ラベルとの関係を自動的に学習し、DB14aに登録することができる。
なお、本実施形態1では、主に、学習済みニューラルネットワーク12を用いて、画像データを分類する例を説明したが、学習済みニューラルネットワーク12の分類結果と、学習済みCNN15の分類結果とに基づいて、画像データの分類を特定するように構成しても良い。
例えば、学習済みニューラルネットワーク12が画像データの分類に失敗し、学習済みCNN15が画像データの分類に成功した場合、学習済みCNN15の分類結果を出力するように構成しても良い。逆に学習済みCNN15が画像データの分類に失敗し、学習済みニューラルネットワーク12が画像データの分類に成功した場合、学習済みニューラルネットワーク12の分類結果を出力する。また、学習済みニューラルネットワーク12及び学習済みCNN15双方の分類結果に基づいて、画像データのより確からしい分類ラベルを決定し、決定した分類ラベルを出力するように構成しても良い。
(実施形態2)
実施形態2に係る画像分類器201は、学習済みニューラルネットワーク212の構成が実施形態1と異なるため、以下では主に上記相違点を説明する。その他の構成及び作用効果は実施形態1と同様であるため、対応する箇所には同様の符号を付して詳細な説明を省略する。
図11は実施形態2に係る画像分類器201の構成例を示すブロック図である。実施形態2に係る学習済みニューラルネットワーク212は、学習済みPredNet3を構成する複数のニューラルネットワークを含む。図11では、学習済みニューラルネットワーク212が、第1のニューラルネットワーク212aと、第2のニューラルネットワーク212bとを含む例を示している。第1のニューラルネットワーク212a及び第2のニューラルネットワーク212bは、最下層よりも上位層にある異なる階層のモジュール31をそれぞれ構成しているニューラルネットワークである。
例えば、第1のニューラルネットワーク212aは、学習済みPredNet3の第2層のモジュール31を構成する入力画像処理部31a又は特徴表現部31dを構成するニューラルネットワークである。第2のニューラルネットワーク212bは、学習済みPredNet3の第3層のモジュール31を構成する入力画像処理部31a又は特徴表現部31dを構成するニューラルネットワークである。
他の例では、第1のニューラルネットワーク212aは、学習済みPredNet3の第3層のモジュール31を構成する入力画像処理部31a又は特徴表現部31dを構成するニューラルネットワークである。第2のニューラルネットワーク212bは、学習済みPredNet3の第4層のモジュール31を構成する入力画像処理部31a又は特徴表現部31dを構成するニューラルネットワークである。
分類処理部13は、分類対象の前記画像データが第1の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの第1活動パターンと、前記画像データが第2の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの第2活動パターンとに基づいて、前記画像データを分類する。
実施形態2に係る画像分類器201によれば、学習済みニューラルネットワーク212として、学習済みPredNet3を構成する複数のニューラルネットワーク212a、212bを利用する。本態様に係る画像分類器201は、学習済みPredNet3を構成する複数のニューラルネットワーク212a、212bを用いることにより、より柔軟に対象物を認識し、画像データを分類することができる。
(実施形態3)
実施形態3に係る画像分類器1は、学習済みニューラルネットワーク312の構成が実施形態1と異なるため、以下では主に上記相違点を説明する。その他の構成及び作用効果は実施形態1と同様であるため、対応する箇所には同様の符号を付して詳細な説明を省略する。
実施形態3に係る学習済みニューラルネットワーク312は、学習済みオートエンコーダ4の一部を含む。
図12は実施形態3に係る学習済みニューラルネットワーク312を示す概念図である。実施形態3に係る学習済みニューラルネットワーク312は、学習済みオートエンコーダ4を構成するニューラルネットワークの一部を抜き出したものである。
学習済みオートエンコーダ4は、入力層4a、畳み込み層4b、中央隠れ層4c、逆畳み込み層4d及び出力層4eを備える。畳み込み層4b、中央隠れ層4c及び逆畳み込み層4dは中間層又は隠れ層である。中央隠れ層4cは、複数のニューロン(ノード)を有する。畳み込み層4b及び逆畳み込み層4dはコンボリューション層及びデコンボリューション層とも呼ばれる。
入力層4aには画像データが入力される。畳み込み層4bは、画像データを次元圧縮する層である。例えば、畳み込み層4bは、畳み込み処理を行うことにより、次元圧縮を行う。次元圧縮により、検査対象物の特徴量が抽出される。逆畳み込み層4dは、畳み込み層4bで次元圧縮されたデータを元の次元に復元する層である。次元圧縮されたデータは中央隠れ層4cを通じて逆畳み込み層4dに入力される。逆畳み込み層4dは、逆畳み込み処理を行い、元の次元に復元する。当該復元によって、入力された画像データの特徴を表した画像データが復元される。出力層4eは、畳み込み層4b及び逆畳み込み層4dにて特徴抽出が行われた画像データを出力する。
オートエンコーダは、動画の特徴を教師なしで学習することができる。例えば、オートエンコーダは、入力された画像データと、出力された画像データとが同じになるように、オートエンコーダのニューラルネットワークを機械学習させる。
実施形態3に係る画像分類器1においては、学習済みオートエンコーダ4を構成する入力層4a、畳み込み層4b及び中央隠れ層4cを抜き出して学習済みニューラルネットワーク312として利用する。
分類処理部13は、画像データが学習済みニューラルネットワーク312に入力された場合、当該学習済みニューラルネットワーク312の中央隠れ層4cを構成する複数のニューロンの活動パターンを特徴コードとして取得する。分類処理部13は、取得した特徴コードと、DB14aの情報とに基づいて、入力された画像データの分類ラベルを特定し、分類結果を外部へ出力する。
なお、ここでは、分類処理部13は、中央隠れ層4cを構成する複数のニューロンの活動パターンを特徴コードとして取得する例を説明したが、畳み込み層4bを構成する複数のニューロンの活動パターンを特徴コードとして取得しても良い。また、分類処理部13は、畳み込み層4b及び中央隠れ層4cを構成する複数のニューロンの活動パターンを特徴コードとして取得するように構成しても良い。更に、分類処理部13は、畳み込み層4b、中央隠れ層4c及び逆畳み込み層4dの少なくとも一つを構成する複数のニューロンの活動パターンを特徴コードとして取得するように構成しても良い。なお、中央隠れ層4cは、説明の便宜上のものであり、必須の構成では無い。
実施形態3に係る画像分類器1によれば、本態様に係る画像分類器1は、学習済みオートエンコーダ4を構成するニューラルネットワークを用いることにより、従来の畳み込みニューラルネットワークに比べ、より柔軟に対象物を認識し、画像データを分類することができる。
なお、実施形態1及び実施形態2を異なる実施形態として説明したが、学習済みPredNet3を構成するニューラルネットワークと、学習済みオートエンコーダ4を構成するニューラルネットワークとの双方を、学習済みニューラルネットワークとして組み込むように構成しても良い。分類処理部13は、各ニューラルネットワークから特徴コードを取得し、それぞれから取得した特徴コードに基づいて、画像データを分類することができる。異なる方法で学習される学習済みPredNet3及び学習済みオートエンコーダ4のニューラルネットワークを利用することによって、より柔軟に画像データの特徴を分類することが可能になる。
また、本実施形態1−3では、学習済みPredNet3又は学習済みオートエンコーダ4を構成する一部のニューラルネットワークを取り出して画像分類器1に適用する例を説明したが、これらの構成に限定されるものでは無い。学習済みPredNet3又は学習済みオートエンコーダ4全体を学習済みニューラルネットワーク12、312に組み込むように構成しても良い。動作中の学習済みPredNet3又は学習済みオートエンコーダ4の所定の部位から、特徴コードを読み出すことによって、実施形態1−3と同様の画像分類を行うことが可能である。
1、201 画像分類器
1a 制御部
1b 記憶部
1c コンピュータプログラム
2 記録媒体
3 学習済みPredNet
4 学習済みオートエンコーダ
11 入力部
12、212、312 学習済みニューラルネットワーク
12a 入力層
12b 中間層
12c 出力層
13 分類処理部
14 認識データベース
14a DB
14b 追加処理部
15 学習済みCNN
15a 入力層
15b 畳み込み層
15c プーリング層
15d 全結合層
15e 出力層
16 出力部
31 モジュール
31a 入力画像処理部
31b 予測画像生成部
31c 誤差算出部
31d 特徴表現部
212a 第1のニューラルネットワーク
212b 第2のニューラルネットワーク

Claims (9)

  1. 画像データを分類する画像分類器であって、
    前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークと、
    分類対象の前記画像データを前記入力層に入力させる入力部と、
    分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する分類処理部と
    を備える画像分類器。
  2. 前記学習済みニューラルネットワークは、
    動画の時系列フレーム画像に基づいて次フレーム画像を予測する学習済みPredNet(Deep Predictive Coding Network)を構成する少なくとも一つのニューラルネットワークの全部又は一部を含む
    請求項1に記載の画像分類器。
  3. 前記学習済みニューラルネットワークは階層構造を有し、
    前記学習済みPredNetの最下層よりも上位層のニューラルネットワークを含む
    請求項2に記載の画像分類器。
  4. 前記学習済みニューラルネットワークは、
    前記学習済みPredNetを構成する複数のニューラルネットワークを含み、
    前記分類処理部は、
    分類対象の前記画像データが第1の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記画像データが第2の前記ニューラルネットワークの前記入力層に入力されたときの前記複数のニューロンの活動パターンとに基づいて、前記画像データを分類する
    請求項2又は請求項3に記載の画像分類器。
  5. 前記学習済みニューラルネットワークは学習済みオートエンコーダを構成するニューラルネットワークの一部又は全部を含む
    請求項1から請求項4のいずれか1項に記載の画像分類器。
  6. 前記複数のニューロンの活動パターンと、前記画像データの分類を示す分類情報との対応関係を記憶する記憶部を備え、
    前記分類処理部は、
    分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記記憶部が記憶する前記対応関係とに基づいて、前記画像データを分類する
    請求項1から請求項5のいずれか1項に記載の画像分類器。
  7. 前記画像データが入力された場合、該画像データの分類を示す分類情報を出力する学習済み畳み込みニューラルネットワークと、
    分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンと、前記画像データを前記学習済み畳み込みニューラルネットワークに入力して得られる分類情報との対応関係を前記記憶部に記憶させる追加処理部と
    を備える請求項6に記載の画像分類器。
  8. 画像データを分類する画像分類方法であって、
    前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークを用意し、
    分類対象の前記画像データを前記入力層に入力させ、
    分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する
    画像分類方法。
  9. コンピュータに、画像データを分類させる処理を実行させるためのコンピュータプログラムであって、
    前記コンピュータに、
    前記画像データが入力される入力層、及び複数のニューロンを含む多層の中間層を備え、前記入力層に前記画像データが入力された場合、該画像データと所定の関連性を有する関連データを出力することが可能な学習済みニューラルネットワークの前記入力層に、分類対象の前記画像データを入力させ、
    分類対象の前記画像データが前記入力層に入力されたときの前記複数のニューロンの活動パターンに基づいて、前記画像データを分類する
    処理を実行させるためのコンピュータプログラム。
JP2019084479A 2019-04-25 2019-04-25 画像分類器、画像分類方法及びコンピュータプログラム Pending JP2020181404A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019084479A JP2020181404A (ja) 2019-04-25 2019-04-25 画像分類器、画像分類方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084479A JP2020181404A (ja) 2019-04-25 2019-04-25 画像分類器、画像分類方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2020181404A true JP2020181404A (ja) 2020-11-05

Family

ID=73024663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084479A Pending JP2020181404A (ja) 2019-04-25 2019-04-25 画像分類器、画像分類方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2020181404A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259878B1 (ko) * 2020-12-01 2021-06-03 주식회사 딥노이드 융합 컨볼루셔널 오토인코더를 이용한 객체의 회전에 영향을 받지 않는 분류 모델을 생성하기 위한 장치 및 이를 위한 방법
WO2023243040A1 (ja) * 2022-06-16 2023-12-21 日本電信電話株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083865A (ja) * 2006-09-26 2008-04-10 Matsushita Electric Works Ltd 異常監視装置
JP2017513144A (ja) * 2014-04-11 2017-05-25 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 顔認証方法およびシステム
JP2018173944A (ja) * 2017-03-30 2018-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理方法
JP2019046334A (ja) * 2017-09-06 2019-03-22 日本放送協会 分類モデル生成装置、画像データ分類装置およびそれらのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083865A (ja) * 2006-09-26 2008-04-10 Matsushita Electric Works Ltd 異常監視装置
JP2017513144A (ja) * 2014-04-11 2017-05-25 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 顔認証方法およびシステム
JP2018173944A (ja) * 2017-03-30 2018-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理方法
JP2019046334A (ja) * 2017-09-06 2019-03-22 日本放送協会 分類モデル生成装置、画像データ分類装置およびそれらのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
市村 直幸: "空間周波数と色に基づく損失関数を用いた畳み込みオートエンコーダの学習", 電子情報通信学会技術研究報告, vol. 117, no. 514, JPN6022044480, 16 April 2018 (2018-04-16), JP, pages 1 - 6, ISSN: 0005038213 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259878B1 (ko) * 2020-12-01 2021-06-03 주식회사 딥노이드 융합 컨볼루셔널 오토인코더를 이용한 객체의 회전에 영향을 받지 않는 분류 모델을 생성하기 위한 장치 및 이를 위한 방법
WO2023243040A1 (ja) * 2022-06-16 2023-12-21 日本電信電話株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Similar Documents

Publication Publication Date Title
JP7317717B2 (ja) ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法
CN107430705B (zh) 用于重新训练分类器的样本选择
CN105447498B (zh) 配置有神经网络的客户端设备、***和服务器***
CN108027899B (zh) 用于提高经训练的机器学习模型的性能的方法
CN107533669B (zh) 滤波器特异性作为用于神经网络的训练准则
US11423323B2 (en) Generating a sparse feature vector for classification
US11443514B2 (en) Recognizing minutes-long activities in videos
US11983917B2 (en) Boosting AI identification learning
JP2020181404A (ja) 画像分類器、画像分類方法及びコンピュータプログラム
Salami et al. Motion pattern recognition in 4d point clouds
JP2020004360A (ja) 多変数データシーケンスの画像化
CN113496251A (zh) 确定用于识别图像中的物体的分类器的装置、识别图像中的物体的装置和相应方法
Rachel et al. Classification of breeding fish using deep learning from the captured video
Thakur et al. Machine Learning and Deep Learning Techniques
Xu Deep Learning for Image Classification and Segmentation with Scarce Labelled Data
Zhong Movie Scene recognition with convolutional neural networks
Rajasri REAL-TIME OBJECT TRACKING USING ARTIFICIAL INTELLIGENCE
Bakana et al. Mitigating Wild Animals Poaching Through State-of-the-art Multimedia Data Mining Techniques: A Review
Sony Priya et al. Comparison of Various CNN Models for Image Classification
Shaik et al. Automated Bird Detection using using Snapshot Ensemble of Deep Learning Models
Barr AUTOMATED DETECTION AND IDENTIFICATION OF MAMMALS OF THE NORTHEASTERN UNITED STATES IN CAMERA TRAP IMAGES
Dinu 3D Deep object recognition for mobile robots
Rahman Deep Learning Neural Networks-Based Edge Detection in Mechanical Components
Caroppo et al. Learning Approaches for Facial Expression Recognition in Ageing Adults: A Comparative Study
Chedad et al. Recognition of house numbers by artificial neural networks

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418