JP7321213B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP7321213B2
JP7321213B2 JP2021091807A JP2021091807A JP7321213B2 JP 7321213 B2 JP7321213 B2 JP 7321213B2 JP 2021091807 A JP2021091807 A JP 2021091807A JP 2021091807 A JP2021091807 A JP 2021091807A JP 7321213 B2 JP7321213 B2 JP 7321213B2
Authority
JP
Japan
Prior art keywords
feature
storage means
feature data
information processing
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021091807A
Other languages
English (en)
Other versions
JP2022184136A (ja
Inventor
政美 加藤
しおり 脇野
ソクイ チン
欣也 大佐
幹 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021091807A priority Critical patent/JP7321213B2/ja
Priority to US17/825,962 priority patent/US20220392207A1/en
Publication of JP2022184136A publication Critical patent/JP2022184136A/ja
Application granted granted Critical
Publication of JP7321213B2 publication Critical patent/JP7321213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Description

本発明は、階層構造を有するニューラルネットワークにおける演算技術に関するものである。
コンボリューショナルニューラルネットワーク(以下CNNと略記する)に代表される階層的な演算手法(深層学習技術に基づくパターン認識手法)が、認識対象の変動に対して頑健なパターン認識手法として注目されている。例えば、非特許文献1では様々な応用例・実装例が開示されている。CNNの応用例としては、CNNにより算出した特徴量間の相互相関を利用した物体追尾処理方法が提案されている(非特許文献2など)。
一方、高い演算コストを要するCNNを高速に処理するために様々なニューラルネットワークの専用処理装置(以下、専用処理装置と略記する)が提案されている(特許文献1、2など)。
米国特許第9747546号明細書 特許第5376920号
Yann LeCun, Koray Kavukvuoglu and Clement Farabet: Convolutional Networks and Applications in Vision, Proc. International Symposium on Circuits and Systems (ISCAS’10), IEEE, 2010, Luca Bertinetto, Jack Valmadre, Joao F. Henriques, Andrea Vedaldi, Philip H. S. Torr:Fully-Convolutional Siamese Networks for Object Tracking、ECCV 2016 Workshops
非特許文献2に記載の物体追尾処理方法では、CNNの係数の代わりにCNN特徴量を与えて畳み込み演算処理することでCNN特徴量間の相互相関値を算出する。従来提案されている専用処理装置は、CNNの係数とCNNの中間層データ間の畳み込み演算を効率的に処理することを目的に提案されている。従って、非特許文献2のようなCNNの特徴量間の相関演算に適用する場合、CNNの係数以外のデータを設定するためのオーバーヘッドのために処理効率が低下する。本発明では、階層構造を有するニューラルネットワークにおける特徴量同士の畳み込み演算を効率的に実施するための技術を提供する。
本発明の一様態は、ニューラルネットワークにおける演算処理を行う情報処理装置であって、
特徴データを記憶する特徴記憶手段と、
前記ニューラルネットワークのフィルタ係数を記憶する係数記憶手段と、
前記特徴データの一部をテンプレート特徴データとして前記係数記憶手段に格納する格納制御手段と、
前記特徴記憶手段に記憶された特徴データと前記係数記憶手段に記憶されたフィルタ係数との畳み込み演算により新たな特徴データを算出し、前記特徴記憶手段に記憶された特徴データと前記係数記憶手段に記憶されたテンプレート特徴データとの畳み込み演算により、当該テンプレート特徴データと当該特徴記憶手段に記憶された特徴データとの相関データを算出する演算手段と
を備えることを特徴とする。
本発明の構成によれば、階層構造を有するニューラルネットワークにおける特徴量同士の畳み込み演算を効率的に実施することができる。
処理部201の機能構成例を示すブロック図。 情報処理装置のハードウェア構成例を示すブロック図。 処理部201の機能構成例を示すブロック図。 情報処理装置がCNNを用いて行う各種の処理を示す図。 CNN特徴を用いてテンプレート特徴を生成するための処理を示す図。 図4の処理構成を用いた情報処理装置の動作を示すタイミングチャート。 設定I/F部107の構成およびバッファ103におけるメモリ領域構成を示す図。 パラメータを格納する際のRAM205のメモリ構成例を示す図。 CPU203の動作を示すフローチャート。 CNN係数およびテンプレート特徴のフォーマット変換を説明する図。 処理部201の動作を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
本実施形態では、階層構造を有するニューラルネットワークにおける演算処理を行う情報処理装置について説明する。本実施形態に係る情報処理装置は、保持部に保持されているニューラルネットワークのフィルタ係数を用いた畳み込み演算に基づいて得られる特徴マップの一部をテンプレート特徴として該保持部に格納する(格納制御)。そして情報処理装置は、保持部に保持されているフィルタ係数を用いた畳み込み演算、保持部に保持されているテンプレート特徴を用いた畳み込み演算、を行う。本実施形態では、ニューラルネットワークとしてCNNを用いたケースについて説明する。
また本実施形態では、このような情報処理装置が、撮像画像から特定の物体を検出し、該検出した物体を追尾する処理(以下では、この一連の処理を認識処理とする)を行うケースについて説明する。
本実施形態に係る情報処理装置のハードウェア構成例について、図2のブロック図を用いて説明する。処理部201は、CPU203からの指示に従って認識処理(一部)を実行し、該認識処理の結果はRAM205に格納される。CPU203はRAM205に格納された認識処理の結果を利用して様々なアプリケーションを提供する。
画像入力部202は、動画像を撮像する撮像装置もしくは定期的または不定期的に静止画像を撮像する撮像装置であり、光学系、CCD(Charge-Coupled Devices)又はCMOS(Complimentary Metal Oxide Semiconductor)センサ等の光電変換デバイス、及び該光電変換デバイスを制御するドライバ回路/ADコンバータ等を有する。画像入力部202は、動画像を撮像する場合には、該動画像における各フレームの画像を撮像画像として出力する。一方、画像入力部202は、定期的若しくは不定期的に静止画像を撮像する場合には、該静止画像を撮像画像として出力する。
CPU203(Central Prosessing Unit)は、ROM(Read Only Memory)204やRAM(Random Access Memory)205に格納されているコンピュータプログラムやデータを実行することで、各種の処理を実行する。これによりCPU203は、情報処理装置全体の動作制御を行うと共に、情報処理装置が行うものとして説明する各処理を実行もしくは制御する。
ROM204には、情報処理装置の設定データ、情報処理装置の起動に係るコンピュータプログラムやデータ、情報処理装置の基本動作に係るコンピュータプログラムやデータ、などが格納されている。
RAM205は、ROM204からロードされたコンピュータプログラムやデータを格納するためのエリア、画像入力部202から取得した撮像画像を格納するためのエリア、を有する。また、RAM205は、ユーザインターフェース部208から入力されたデータを格納するためのエリア、CPU203や処理部201が各種の処理を実行する際に用いるワークエリアを有する。このように、RAM205は、各種のエリアを適宜提供することができる。RAM205は大容量なDRAM(Dynamic Access Memory)等で構成することができる。
DMAC(Direct Memory Access Controller)206は、処理部201と画像入力部202との間、処理部201とRAM205との間、などのデバイス間のデータ転送を司る。
ユーザインターフェース部208は、ユーザからの操作入力を受け付ける操作部と、情報処理装置における処理の結果を画像や文字などで表示する表示部と、を有する。例えばユーザインターフェース部208は、タッチパネル画面である。
処理部201、画像入力部202、CPU203、ROM204、RAM205、DMAC206、ユーザインターフェース部208はいずれもデータバス207に接続されている。
次に、処理部201の機能構成例について、図1のブロック図を用いて説明する。本実施形態では、図1に示した各機能部はハードウェアで構成されているものとして説明する。しかし、バッファ103およびバッファ104を除く他の機能部の1以上をソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このコンピュータプログラムは処理部201内のメモリやROM204などに格納され、制御部106やCPU203が該コンピュータプログラムを実行することで対応する機能部の機能が実現される。
外部バスI/F部101は、処理部201が外部とのデータ通信を行うためのインターフェースであり、データバス207を介してCPU203やDMAC206がアクセス可能なインターフェースである。
演算処理部102は、後述する各種のデータを用いて畳み込み演算を行う。バッファ103は、CNNにおけるフィルタ係数(CNNにおける重み係数であり、以下ではCNN係数とも称する)と、テンプレート特徴と、を保持可能なバッファである。テンプレート特徴とは、後述の相関演算のテンプレートとなる特徴量であり、本実施形態では、CNN特徴における局所的な特徴量(特徴マップにおける部分領域内の特徴量)をテンプレート特徴とする。バッファ103は、自身が保持しているデータを、比較的低遅延で演算処理部102に供給する。
バッファ104は、演算処理部102による畳み込み演算により得られる「CNNの各階層における特徴マップ(以下ではCNN特徴とも称する)」や、変換処理部105がCNN特徴を非線形変換した結果を保持可能なバッファである。バッファ104は、演算処理部102により得られるCNN特徴や変換処理部105により得られるCNN特徴の非線形変換の結果を、比較的低遅延で格納する。
なお、バッファ103やバッファ104は、例えば、情報の読み書きが高速なメモリやレジスタ等を用いて構成することができる。変換処理部105は、演算処理部102による畳み込み演算により得られるCNN特徴を非線形変換する。設定I/F部107は、CPU203がバッファ103にテンプレート特徴を格納するために動作するインターフェースである。制御部106は、処理部201の動作を制御する。
次に、本実施形態に係る情報処理装置がCNNを用いて行う各種の処理について、図4を用いて説明する。図4(a)は、本実施形態に係る情報処理装置がCNNを用いて「テンプレート特徴の生成元(抽出元)となるCNN特徴」を取得するために行う処理の構成を示す図である。
演算処理部102は、画像入力部201から外部バスI/F部101を介して取得した撮像画像である入力画像401と、バッファ103から供給されるCNN係数402と、の畳み込み演算403を行う。
ここで、畳み込み演算のカーネル(フィルタ係数マトリクス)のサイズがcolumnSize×rowSize、これから演算する階層(現階層)の前の階層(前階層)における特徴マップの数がLであるとする。このとき、演算処理部102は、以下の式(1)に従った演算を行うことで、現階層における1つのCNN特徴を算出する。
Figure 0007321213000001
input(x,y) : 入力画像401中の座標(x、y)における参照画素値
output(x,y): 座標(x、y)での演算結果
weight(column,row):座標(x+column、y+row)での係数
L:前階層における特徴マップの数
columnSize: 2次元コンボリューションカーネルの水平方向サイズ
rowSize : 2次元コンボリューションカーネルの垂直方向サイズ
一般的に、CNNにおける演算処理では、式(1)に従って複数のコンボリューションカーネルを入力画像の画素単位で走査しながら積和演算を繰り返し、最終的な積和演算結果を非線形変換(活性化処理)することで特徴マップを算出する。演算処理部102は乗算器と累積加算器とを有し、これら乗算器および累積加算器により式(1)の畳み込み演算処理を実行する。
次に、変換処理部105は、演算処理部102による畳み込み演算403の結果を非線形変換404することで、特徴マップであるCNN特徴405を生成する。通常のCNNでは、以上の処理を、生成する特徴マップの数分繰り返す。変換処理部105は、生成したCNN特徴405をバッファ104に格納する。
なお、非線形変換に用いる関数である非線形関数には、ReLU(Rectified Linear Unit)等の非線形関数が用いられるが、ReLUを使用した場合、負数は全て0となり、相関演算に利用した場合、データの情報量が失われる。特に、演算を低ビットに整数化して処理する場合には影響が大きい。
次に、図4(a)の処理構成において、CNN特徴の非線形変換を省略した処理構成について、図4(b)を用いて説明する。この処理構成においては、演算処理部102による畳み込み演算403により得られる結果をそのままCNN特徴405としてバッファ104に格納する。この処理構成は、変換処理部105の中に非線形変換を迂回する機構を設ける方法や、演算処理部102による畳み込み演算の結果を直接バッファ104に格納するデータパスを設けるなどの方法で実現させることができる。この場合のCNN特徴405は符号付の特徴量となり、得られた情報を全て利用することができる。
次に、図4(a)の処理構成もしくは図4(b)の処理構成でバッファ104に格納されたCNN特徴を用いてテンプレート特徴を生成するための処理について、図5の例を用いて説明する。
図5には、図4(a)の処理構成もしくは図4(b)の処理構成でバッファ104に格納された3枚のCNN特徴501が示されている。CPU203は、バッファ104に格納されているそれぞれのCNN特徴501から、対象物(認識処理の場合は追尾対象物)の位置として予め指定された位置の領域(図5の例では3x3のサイズの領域)内の特徴量をテンプレート特徴502として抽出する。このようなテンプレート特徴と検出対象のCNN特徴との相関データ(相関マップ)を利用することで対象物の位置を知ることができる。そしてCPU203は、CNN特徴から抽出したテンプレート特徴のフォーマットを、バッファ103への格納に適したフォーマットに変換し、該変換後のテンプレート特徴をバッファ103に格納する。
ここで、CNN係数およびテンプレート特徴をバッファ103に格納する際のフォーマット変換について、図10を例にと説明する。図10(a)に示す如く、CNN係数1001は、フィルタカーネルのサイズが3x3のCNN係数であり、9個のCNN係数(F0,0~F2,2)を含む。F0,0~F2,2はいずれも、符号付8ビットで表現されるCNN係数である。
このようなCNN係数1001をバッファ103に格納する場合、バッファ103のデータ幅が32ビットであるとすると、1つのアドレスには最大4(=32ビット/8ビット)個のCNN係数を格納することができる。よって、CNN係数1001を、データ幅が32ビットのメモリであるバッファ103に格納するためのフォーマットのCNN係数1002に変換し、該CNN係数1002をバッファ103に格納する。
CNN係数1002において最上のCNN係数列(F0,0、F0,1、F0,2、F1,0)は、バッファ103におけるアドレス0に格納するCNN係数列0であり、CNN係数1001における9個のCNN係数を左上隅からラスタスキャン順に参照した場合の最初の4個のCNN係数(F0,0、F0,1、F0,2、F1,0)をパックしたものである。
CNN係数1002において中段のCNN係数列(F1,1、F1,2、F2,0、F2,1)は、バッファ103におけるアドレス1に格納するCNN係数列1であり、CNN係数1001において次の4個のCNN係数(F1,1、F1,2、F2,0、F2,1)をパックしたものである。
CNN係数1002において最下のCNN係数列(F2,2、0)は、バッファ103におけるアドレス2に格納するCNN係数列2であり、CNN係数1001において最後の1個のCNN係数(F2,2)と24(=32ビット-8ビット)個の0(ダミー値の一例)をパックしたものである。
そして、CNN特徴1002におけるCNN係数列0はアドレス0に格納され、CNN特徴1002におけるCNN係数列1はアドレス1に格納され、CNN特徴1002におけるCNN係数列2はバッファ103におけるアドレス2に格納される。
CNNにおける演算は、多数のフィルタカーネルで構成するが、ここでは一つのフィルタカーネルの格納例を示している。演算処理部102は、このようにしてバッファ103に格納されたCNN係数1002を順次参照して効率的に処理するように構成する。
図10(b)に示す如く、テンプレート特徴1003は、9個の特徴量(T0,0~T2,2)を含む。T0,0~T2,2はいずれも、8ビットで表現される特徴量である。
ここで、バッファ103はデータ幅が32ビットのメモリであるから、1つのアドレスには最大4(=32ビット/8ビット)個の特徴量を格納することができる。よって、CPU203は、テンプレート特徴1003を、データ幅が32ビットのメモリであるバッファ103に格納するためのフォーマットのテンプレート特徴1004に変換し、該テンプレート特徴1004をバッファ103に格納する。
テンプレート特徴1004において最上の特徴量(T0,0、T0,1、T0,2、T1,0)は、バッファ103におけるアドレス3に格納する特徴量列3であり、テンプレート特徴1003における9個の特徴量を左上隅からラスタスキャン順に参照した場合の最初の4個の特徴量(T0,0、T0,1、T0,2、T1,0)をパックしたものである。
テンプレート特徴1004において中段の特徴量列(T1,1、T1,2、T2,0、T2,1)は、バッファ103におけるアドレス4に格納する特徴量列4であり、テンプレート特徴1003において次の4個の特徴量(T1,1、T1,2、T2,0、T2,1)をパックしたものである。
テンプレート特徴1004において最下の特徴量列(T2,2、0)は、バッファ103におけるアドレス5に格納する特徴量列5であり、テンプレート特徴1003において最後の1個の特徴量(T2,2)と24(=32ビット-8ビット)個の0(ダミー値の一例)をパックしたものである。
そしてCPU203は、特徴量列3をバッファ103のアドレス3に格納し、特徴量列4をバッファ103のアドレス4に格納し、特徴量列5をバッファ103のアドレス5に格納することで、テンプレート特徴1004をバッファ103に格納する。
このように、CNN係数もテンプレート特徴も同じフォーマットでバッファ103に格納する。然るに、演算処理部102は、バッファ103に格納されているテンプレート特徴を参照して通常のCNNにおける演算と同様に特別なオーバーヘッドなく相関演算を行うことができる。
公知の情報処理装置にて相関演算を実行する場合、ここで抽出したテンプレート特徴をフィルタ係数とし、情報処理装置の動作を制御するパラメータをテンプレート特徴の生成毎に作成してRAM205に格納する必要がある。パラメータとは、処理部201の動作を指定する命令やCNNのフィルタ係数を含むデータセットである。一般的にパラメータは、オフラインで外部のコンピュータにより作成するものであり、装置内蔵のCPU203で作成する場合、処理コストが大きい。また、複数の撮像画像に渡って相関演算を実行する場合、テンプレート特徴を遅延の大きなRAM205から毎回転送する必要がある。一方、本実施形態では、フィルタ係数を係数格納の形式に整列してバッファ103に格納するだけで良い。更に、複数の撮像画像に渡って処理する場合もバッファ104に格納したテンプレート特徴を再利用することができる。
図4(c)は、上記の相関演算を含む認識処理の処理構成を示す図である。演算処理部102は、画像入力部201から外部バスI/F部101を介して取得した撮像画像である入力画像406と、バッファ103から供給されるCNN係数407と、の畳み込み演算408を行う。変換処理部105は、演算処理部102による畳み込み演算408の結果を非線形変換409することでCNN特徴410を生成する。つまり、入力画像406に対して画素単位でCNN係数407を参照して畳み込み演算408及び非線形変換409を繰り返すことでCNN特徴410を得る。
演算処理部102はCNN特徴410と、バッファ103に格納されているテンプレート特徴411と、の畳み込み演算412を行うことで、CNN特徴410とテンプレート特徴411との相関を演算(相関演算)し、これにより相関マップ413を生成する。図5の場合、CNN特徴は3つの特徴マップとして得られており、テンプレート特徴は3つの3×3サイズのフィルタ係数に相当する。よって、このようなケースにおいて畳み込み演算412を特徴マップ内で繰り返すことにより、3つの相関マップ413を算出する。ここでの相関演算は、入力の特徴マップに対する出力マップの結合が1対1である所謂デプスワイズ型のCNN処理と動作は同じである。
次に、演算処理部102は、相関マップ413と、バッファ103から供給されるCNN係数414と、の畳み込み演算415を行う。変換処理部105は、演算処理部102による畳み込み演算415の結果を非線形変換416することでCNN特徴417を生成する。相関マップ413に対してCNN処理(畳み込み演算415および非線形変換416)を行うことで、相関マップにおける相関値から対象物をロバストに検出することができる。
そして、図4(c)の処理を画像入力部201から供給されるそれぞれの撮像画像について行うことで、撮像画像毎にテンプレート特徴に対応する対象物を検出することができる。つまり特定の対象物を追尾することが可能になる。
次に、図4の処理構成を用いた情報処理装置の動作について、図6のタイミングチャートを用いて説明する。図6のタイミングチャートでは、左から右に向けて時間が経過しているものとする。
まず、係数転送601では、DMAC206は、RAM205に保持されているCNN係数の一部であるCNN係数407をバッファ103にDMA転送する。次に、畳み込み演算602では、演算処理部102は、画像入力部201から取得した入力画像406と、バッファ103にDMA転送されたCNN係数407と、を用いて畳み込み演算を行う。次に、非線形変換603では、変換処理部105は、畳み込み演算602にて得られた畳み込み演算の結果を非線形変換する。このような係数転送601、畳み込み演算602、非線形変換603の一連の処理(CNN演算)を、入力画像及び生成するCNN特徴面の数に応じて繰り返し実行することで、CNN特徴410が得られる。
次に、畳み込み演算604では、演算処理部102は、得られたCNN特徴410と、バッファ103に格納されているテンプレート特徴411と、の畳み込み演算を行うことで、CNN特徴410とテンプレート特徴411との相関を演算(相関演算)する。ここで、設定I/F部107の構成およびバッファ103におけるメモリ領域構成について図7(a)を用いて説明する。
バッファ103は、CNN係数407を格納するためのメモリ領域701と、CNN特徴414を格納するためのメモリ領域702と、CNNの階層処理構造にかかわらずテンプレート特徴411を格納するためのメモリ領域703と、を有する。
設定I/F部107は、CPU I/F704を有する。CPU I/F704は、CPU203が外部バスI/F部101を介してバッファ103に直接アクセス可能にするインターフェースである。具体的には、CPU I/F704は、バッファ103のデータバス・アドレスバス・制御信号等を演算処理部102と排他的に利用するためのセレクタ機構を有する。このセレクタ機構により、CPU203からのアクセスが選択された場合、CPU203はCPU I/F704を介してメモリ領域703にテンプレート特徴を格納することができる。
CPU I/F704は、指定部705を有する。指定部705は、制御部106によって設定されたメモリ領域703を、テンプレート特徴を格納するメモリ領域として指定する。例えば、制御部106は、上記のパラメータなどの情報に応じて、メモリ領域703を選択608において設定する。
畳み込み演算604では、CNN特徴410と、制御部106が選択608で設定したメモリ領域703に格納されているテンプレート特徴411と、の畳み込み演算を行うことで、テンプレート特徴411とCNN特徴410の相関を算出する。畳み込み演算604は、特徴面サイズと特徴面の数に応じて繰り返し処理する。
次に、係数転送605では、DMAC206は、RAM205に保持されているCNN係数の一部であるCNN係数414をバッファ103のメモリ領域702にDMA転送する。
次に、制御部106は、選択609において、演算処理部102が参照するメモリ領域をメモリ領域702に設定する。畳み込み演算606において演算処理部102は、該設定されたメモリ領域702に格納されているCNN係数414と、相関マップ413と、の畳み込み演算を行う。そして、非線形変換607において変換処理部105は、畳み込み演算606の結果を非線形変換する。これらの処理は、相関マップ413のサイズと数及び出力特徴面の数に応じて繰り返す。CPU203は、得られたCNN特徴から、相関値の高い位置(追尾対象の位置)を判定する。
次に、上記の処理部201の動作について、図11のフローチャートに従って説明する。ステップS1101では、演算処理部102は、画像入力部201から取得した撮像画像と、バッファ103にDMA転送されたCNN係数と、を用いて畳み込み演算を行う。次に、ステップS1102では、変換処理部105は、ステップS1101における畳み込み演算で得られた畳み込み演算結果を非線形変換する。
上記の如く、バッファ103へのCNN係数のDMA転送、ステップS1101の処理、ステップS1102の処理、の一連の処理(CNN演算)を、撮像画像及び生成するCNN特徴面の数に応じて繰り返し実行することで、CNN特徴を取得する。
なお、ステップS1103の処理が開始するまでにCPU203によって行われるステップS1900では、上記の如くテンプレート特徴を生成し、該生成したテンプレート特徴を、バッファ103において制御部106が設定したメモリ領域に格納する。
次にステップS1103では、演算処理部102は、得られたCNN特徴と、バッファ103において制御部106が設定したメモリ領域に格納されているテンプレート特徴と、の畳み込み演算を行うことで、CNN特徴とテンプレート特徴との相関を演算する。上記の如く、この畳み込み演算は、特徴面サイズと特徴面の数に応じて繰り返し処理する。
ステップS1104では、演算処理部102は、バッファ103において制御部106によって設定されたメモリ領域に格納されているCNN係数と、上記の相関演算により得られた相関マップと、の畳み込み演算を行う。そしてステップS1105では、変換処理部105は、ステップS1104における畳み込み演算で得られた畳み込み演算結果を非線形変換する。上記の如く、これらの処理は、相関マップのサイズと数及び出力特徴面の数に応じて繰り返す。
このように、本実施形態では、バッファ103に対してCPU203が直接テンプレート特徴を格納することができ、また相関演算時は制御部106あるいはCPU203がバッファの参照領域を指定するだけでテンプレート特徴に対する相関演算を実施できる。
また、複数の撮像画像に対して相関演算を繰り返し実行する場合、バッファ103におけるメモリ領域703にテンプレート特徴を保持した状態で繰り返し処理することが可能である。このため、撮像画像毎にテンプレート特徴を再設定する必要はない。
<変形例>
設定I/F部107の構成およびバッファ103におけるメモリ領域構成の変形例について図7(b)を用いて説明する。第1の実施形態では、バッファ103をCNN係数およびテンプレート特徴を保持する1つのメモリ装置としたが、本変形例では、バッファ103を、CNN係数を保持するメモリ装置と、テンプレート特徴を保持するメモリ装置と、で構成する。
バッファ103は、メモリ装置103aとメモリ装置103bとを有する。メモリ装置103aは、CNN係数407を格納するためのメモリ領域706と、CNN特徴414を格納するためのメモリ領域708と、を有する。メモリ装置103bは、CNNの階層処理構造にかかわらずテンプレート特徴411を格納するためのメモリ領域707を有する。
設定I/F部107は、CPU I/F709を有する。CPU I/F709は、CPU I/F704と同様、CPU203が外部バスI/F部101を介してバッファ103に直接アクセス可能にするインターフェースである。
CPU I/F709は、指定部710を有する。指定部710は、指定部705と同様、制御部106によって設定されたメモリ領域707を、テンプレート特徴を格納するメモリ領域として指定する。制御部106は、CNN演算を行う場合にはメモリ装置103aにおけるメモリ領域706,708のいずれかを設定し、相関演算を行う場合にはメモリ装置103bにおけるメモリ領域707を設定する。
このような構成により、例えば、CNN演算の動作中(すなわち演算処理部102がメモリ装置103aにアクセス中)に、CPU203は、メモリ装置103b(メモリ領域707)に格納されているテンプレート特徴を書き換えることができる。これにより、テンプレート特徴の設定のオーバーヘッドを軽減させることができる。
なお、図7(b)の例ではメモリマップ上の同一アドレスでメモリ装置を切り替える場合について説明したが、図7(a)の例のように異なるアドレスに異なるメモリ装置を配置しても良い。
このように、本実施形態によれば、CNN係数を保持するメモリに、CNN係数と同じフォーマットでテンプレート特徴を格納するので、CNN演算および相関演算を同じ構成の装置にて処理することができる。また、テンプレート特徴を保持した状態で複数の撮像画像に対して相関演算を行うことができる。
[第2の実施形態]
本実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態に係る処理部201の機能構成例について、図3のブロック図を用いて説明する。本実施形態では、図3に示した各機能部はハードウェアで構成されているものとして説明する。しかし、バッファ103およびバッファ104を除く他の機能部の1以上をソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このコンピュータプログラムは処理部201内のメモリやROM204などに格納され、制御部106やCPU203が該コンピュータプログラムを実行することで対応する機能部の機能が実現される。図3に示した構成は、図1に示した構成から設定I/F部107を削除した構成である。
まず、図4(b)の処理構成を実現させるためのパラメータを格納する際のRAM205のメモリ構成例について、図8を用いて説明する。メモリ領域801は、処理部201における制御部106の動作を決定する制御パラメータを格納するためのメモリ領域である。メモリ領域802は、CNN係数407を格納するためのメモリ領域である。メモリ領域803は、テンプレート特徴411を格納するためのメモリ領域である。メモリ領域804は、CNN係数414を格納するためのメモリ領域である。メモリ領域801に格納されている制御パラメータ、メモリ領域802に格納されているCNN係数407、メモリ領域803に格納されているテンプレート特徴411、メモリ領域804に格納されているCNN係数414、が「図4(b)の処理構成を実現させるためのパラメータ」である。
処理部201の動作前に、CPU203は、メモリ領域801には制御パラメータを格納し、メモリ領域802にはCNN係数407を格納する。さらにCPU203は、テンプレート特徴411を格納するためのメモリ領域としてメモリ領域803を確保すると共に、CNN係数414を格納するためのメモリ領域としてメモリ領域804を確保する。メモリ領域803は、テンプレート特徴411をCNN演算におけるフィルタ係数と見立てたフィルタカーネルサイズや入力特徴マップ・出力特徴マップの数に従って確保される。そしてCPU203は、テンプレート特徴411が生成されると、該テンプレート特徴411をメモリ領域803に格納する。なお、テンプレート特徴を更新する場合、CPU203は、メモリ領域803にアクセスして該メモリ領域803に格納されているテンプレート特徴に、新たなテンプレート特徴を上書きする。またCPU203は、CNN係数414が生成されると、該CNN係数414をメモリ領域804に格納する。
DMAC206は、メモリ領域801~804とCPU203との間や、メモリ領域801~804と処理部201との間のデータ転送を制御する。これによりDMAC206は、メモリ領域801~804から必要なデータ(CPU203や処理部201が処理を行う際に必要なデータ)をCPU203や処理部201に転送する。また、DMAC206は、CPU203や処理部201から出力されたデータをメモリ領域801~804のうち該当するメモリ領域に転送する。例えば、順次入力されるそれぞれの撮像画像について図4(b)に示す処理構成の処理を実行する場合、メモリ領域801~804に格納されているデータを再利用する。
次に、本実施形態に係るCPU203の動作について、図9のフローチャートに従って説明する。ステップS901では、CPU203は、処理部201の初期化処理を実行する。この初期化処理では、RAM205に上記のメモリ領域801~804を確保する処理も含まれる。
ステップS902では、CPU203は、処理部201の動作に必要な制御パラメータを準備し、該準備した制御パラメータをRAM205のメモリ領域801に格納する。この制御パラメータは予め外部の装置で作成しておき、ROM204に格納したものをコピーして利用しても良い。
ステップS903では、CPU203は、テンプレート特徴の更新の有無を判断する。例えば、CPU203は、処理部201が動画像における最初のフレームの画像に対する処理を行う場合や、定期的若しくは不定期的な撮像における最初の静止画像に対する処理を行う場合には、テンプレート特徴を更新する、と判断する。また例えば、CPU203は、ユーザがユーザインターフェース部208を操作してテンプレート特徴の更新指示を入力した場合には、テンプレート特徴を更新する、と判断する。
このような判断の結果、テンプレート特徴を更新すると判断した場合には、処理はステップS904に進み、テンプレート特徴を更新すると判断しなかった場合には、処理はステップS907に進む。
ステップS904では、CPU203は、上記の如くテンプレート特徴を取得する。ステップS905ではCPU203は、ステップS904で取得したテンプレート特徴のフォーマットを、バッファ103への格納に適したフォーマット(演算処理部102がオーバヘッドなく参照可能な並び順、すなわちCNN係数と同じ格納形式(係数格納フォーマット))に変換する。そしてステップS906では、CPU203は、ステップS905においてフォーマットを変換したテンプレート特徴をRAM205におけるメモリ領域803に格納する。
ステップS907では、CPU203は、DMAC206を制御して、メモリ領域801に格納されている制御パラメータ、メモリ領域802やメモリ領域804に格納されているCNN特徴、メモリ領域803に格納されているテンプレート特徴、などを処理部201に転送し、その後、処理部201に対して演算処理の開始を指示する。この指示により処理部201は画像入力部201から取得した撮像画像について上記の如く動作し、例えば、該撮像画像について図4(c)に示した処理構成の処理を行う。
ステップS908では、CPU203は、処理の終了条件が満たされたか否かを判断する。処理の終了条件は特定の条件に限らない。処理の終了条件には、例えば、「画像入力部201から入力される規定枚数の撮像画像について処理部201による処理が完了した」や「ユーザがユーザインターフェース部208を操作して処理の終了指示が入力された」等がある。
このような判断の結果、処理の終了条件が満たされた場合には、処理はステップS909に進み、処理の終了条件が満たされていない場合には、処理はステップS907に進む。
ステップS909では、CPU203は、処理部201による処理結果(例えば図11のフローチャートに従った処理に基づく認識処理の結果)を取得し、該取得した処理結果を、実行中のアプリケーションに渡す。
ステップS910では、CPU203が、処理すべき次の撮像画像があるか否かを判断する。この判断の結果、処理すべき次の撮像画像があると判断した場合には、処理はステップS903に進み、処理すべき次の撮像画像はないと判断した場合には、図9のフローチャートに従った処理は終了する。
このように、本実施形態によれば、RAM205における一部のメモリ領域(上記の例ではメモリ領域803)を書き換えるだけで、テンプレート特徴を更新しながら相関演算を含むニューラルネットワークを処理することができる。
<変形例>
第1の実施形態や第2の実施形態では、情報処理装置が画像入力部201から供給された撮像画像を対象にして動作するケースについて説明した。しかし、情報処理装置は、予め撮像されて情報処理装置内若しくは情報処理装置外のメモリ装置に格納されている撮像画像を対象に動作しても良い。また、情報処理装置は、LANやインターネットなどのネットワークを介して情報処理装置と通信可能な外部装置に保持されている撮像画像を対象に動作しても良い。
また、第1の実施形態や第2の実施形態の情報処理装置は、画像を撮像する画像入力部201を有する撮像装置であった。しかし、画像入力部201を情報処理装置の外部装置としてもよく、その場合、情報処理装置には、画像入力部201を接続可能なPC(パーソナルコンピュータ)、タブレット端末装置などのコンピュータ装置が適用可能である。
また、第1の実施形態や第2の実施形態では、2次元の画像センサにより取得される2次元画像が入力された場合における情報処理装置の動作について説明したが、情報処理装置が対象とするデータは2次元画像に限らない。例えば、2次元以外の次元のデータを収集するセンサや、モダリティが異なるセンサなど、様々なセンサにより収集されたデータ(音声データや電波センサデータなど)を情報処理装置の処理対象とすることもできる。
また、第1の実施形態や第2の実施形態では、ニューラルネットワークとしてCNNを用いたケースについて説明したが、畳み込み演算に基づく他の種類のニューラルネットワークを用いても良い。
また、第1の実施形態や第2の実施形態では、特徴マップにおける部分領域から抽出したCNN特徴をテンプレート特徴として取得するケースについて説明したが、テンプレート特徴の取得方法は特定の収集方法に限らない。
また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。
また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
101:外部バスI/F部 102:演算処理部 103:バッファ 104:バッファ 105:変換処理部 106:制御部 107:設定I/F部

Claims (14)

  1. ニューラルネットワークにおける演算処理を行う情報処理装置であって、
    特徴データを記憶する特徴記憶手段と、
    前記ニューラルネットワークのフィルタ係数を記憶する係数記憶手段と、
    前記特徴データの一部をテンプレート特徴データとして前記係数記憶手段に格納する格納制御手段と、
    前記特徴記憶手段に記憶された特徴データと前記係数記憶手段に記憶されたフィルタ係数との畳み込み演算により新たな特徴データを算出し、前記特徴記憶手段に記憶された特徴データと前記係数記憶手段に記憶されたテンプレート特徴データとの畳み込み演算により、当該テンプレート特徴データと当該特徴記憶手段に記憶された特徴データとの相関データを算出する演算手段と
    を備えることを特徴とする情報処理装置。
  2. 前記格納制御手段は、前記畳み込み演算により算出された特徴データの一部をテンプレート特徴データとして前記係数記憶手段に格納することを特徴とする請求項1に記載の情報処理装置。
  3. 前記演算手段により算出された特徴データを非線形変換する変換手段を更に有し、
    前記格納制御手段は、前記変換手段により非線形変換された特徴データの一部をテンプレート特徴データとして前記係数記憶手段に格納することを特徴とする請求項1に記載の情報処理装置。
  4. 前記格納制御手段は、前記テンプレート特徴データを前記フィルタ係数と同じフォーマットに変換して前記係数記憶手段に格納することを特徴とする請求項1ないし3のいずれか1項に記載の情報処理装置。
  5. 前記係数記憶手段は、前記フィルタ係数を記憶するメモリ領域と、前記テンプレート特徴データ記憶するためのメモリ領域と、を有する単一のメモリ装置であることを特徴とする請求項1ないしのいずれか1項に記載の情報処理装置。
  6. 前記係数記憶手段は、前記フィルタ係数を記憶するメモリ装置と、前記テンプレート特徴データ記憶するメモリ装置と、を有することを特徴とする請求項1ないしのいずれか1項に記載の情報処理装置。
  7. 前記特徴データは特徴マップであり、
    前記格納制御手段は、前記特徴マップにおいて追尾の対象となる対象物の領域における特徴量をテンプレート特徴データとして前記係数記憶手段に格納することを特徴とする請求項1ないしのいずれか1項に記載の情報処理装置。
  8. 前記演算手段は、
    前記特徴記憶手段に記憶された特徴データと、前記係数記憶手段に記憶されたフィルタ係数と、の畳み込み演算を行う第1畳み込み演算手段と、
    前記第1畳み込み演算手段による畳み込み演算の結果に対する非線形変換の結果と、前記係数記憶手段に記憶されているテンプレート特徴データと、の畳み込み演算を行う第2畳み込み演算手段と、
    前記第2畳み込み演算手段による畳み込み演算の結果と、前記係数記憶手段に記憶されているフィルタ係数と、の畳み込み演算を行う第3畳み込み演算手段と
    を備えることを特徴とする請求項1ないしのいずれか1項に記載の情報処理装置。
  9. 更に、
    前記第3畳み込み演算手段による畳み込み演算の結果に対する非線形変換の結果に基づいて物体の検出を行う検出手段を備えることを特徴とする請求項に記載の情報処理装置。
  10. 前記係数記憶手段は、前記第1畳み込み演算手段が用いるフィルタ係数と、前記第3畳み込み演算手段が用いるフィルタ係数と、を記憶していることを特徴とする請求項またはに記載の情報処理装置。
  11. さらに、
    前記係数記憶手段において前記テンプレート特徴データを格納するためのメモリ領域を指定する手段を備えることを特徴とする請求項1ないし10のいずれか1項に記載の情報処理装置。
  12. さらに、
    前記格納制御手段は、テンプレート特徴データを更新するか否かを判断し、更新すると判断した場合には、新たなテンプレート特徴データを前記係数記憶手段に転送することを特徴とする請求項1ないし11のいずれか1項に記載の情報処理装置。
  13. ニューラルネットワークにおける演算処理を行う情報処理装置が行う情報処理方法であって、
    前記情報処理装置の演算手段が、特徴記憶手段に記憶された特徴データと係数記憶手段に記憶された前記ニューラルネットワークのフィルタ係数との畳み込み演算により新たな特徴データを算出する第1演算工程と、
    前記情報処理装置の格納制御手段が、前記第1演算工程で算出された特徴データの一部をテンプレート特徴データとして前記係数記憶手段に格納する格納制御工程と、
    前記演算手段が、前記特徴記憶手段に記憶された特徴データと前記係数記憶手段に記憶されたテンプレート特徴データとの畳み込み演算により当該テンプレート特徴データと当該特徴記憶手段に記憶された特徴データとの相関データを算出する第2演算工程と
    を備えることを特徴とする情報処理方法。
  14. コンピュータを、請求項1ないし12のいずれか1項に記載の情報処理装置の、前記特徴記憶手段および前記係数記憶手段を除く各手段として機能させるためのコンピュータプログラム。
JP2021091807A 2021-05-31 2021-05-31 情報処理装置、情報処理方法 Active JP7321213B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021091807A JP7321213B2 (ja) 2021-05-31 2021-05-31 情報処理装置、情報処理方法
US17/825,962 US20220392207A1 (en) 2021-05-31 2022-05-26 Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021091807A JP7321213B2 (ja) 2021-05-31 2021-05-31 情報処理装置、情報処理方法

Publications (2)

Publication Number Publication Date
JP2022184136A JP2022184136A (ja) 2022-12-13
JP7321213B2 true JP7321213B2 (ja) 2023-08-04

Family

ID=84285351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021091807A Active JP7321213B2 (ja) 2021-05-31 2021-05-31 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US20220392207A1 (ja)
JP (1) JP7321213B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147182A (ja) 2017-03-03 2018-09-20 キヤノン株式会社 演算処理装置およびその制御方法
CN110956131A (zh) 2019-11-27 2020-04-03 北京迈格威科技有限公司 单目标追踪方法、装置及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147182A (ja) 2017-03-03 2018-09-20 キヤノン株式会社 演算処理装置およびその制御方法
CN110956131A (zh) 2019-11-27 2020-04-03 北京迈格威科技有限公司 单目标追踪方法、装置及***

Also Published As

Publication number Publication date
US20220392207A1 (en) 2022-12-08
JP2022184136A (ja) 2022-12-13

Similar Documents

Publication Publication Date Title
JP6941499B2 (ja) ゼロ係数スキップ畳み込みニューラルネットワークエンジン
JP6936592B2 (ja) 演算処理装置およびその制御方法
JP6700712B2 (ja) 畳み込み演算装置
JP5376920B2 (ja) コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置
JP6843212B2 (ja) ホモグラフィの修正
TWI834729B (zh) 神經網路處理器及其卷積操作方法
JP7402623B2 (ja) フィルタ処理装置及びその制御方法
JP2873112B2 (ja) 画像回転処理方法及びその装置
JP7165018B2 (ja) 情報処理装置、情報処理方法
JP6567381B2 (ja) 演算装置、方法及びプログラム
JP2018032190A (ja) 演算回路、その制御方法及びプログラム
JP6532334B2 (ja) 並列演算装置、画像処理装置及び並列演算方法
JP7321213B2 (ja) 情報処理装置、情報処理方法
JP7398938B2 (ja) 情報処理装置およびその学習方法
JP2021144428A (ja) データ処理装置、データ処理方法
CN107256534B (zh) 基于双线性插值的gqir量子图像的缩小与放大方法
JP2021012596A (ja) 演算処理装置及び演算処理方法
JP7299770B2 (ja) 演算処理装置及び演算処理方法
JP7444585B2 (ja) 認識装置、認識方法
JP2019197324A (ja) 画像処理装置、画像処理方法
JP6929734B2 (ja) 判別演算装置、判別演算方法及びプログラム
US20230334820A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN104301740B (zh) 一种红外图像9/7小波变换硬件加速电路
JP5349931B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101344858B1 (ko) 영상처리장치 및 영상처리방법, 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R151 Written notification of patent or utility model registration

Ref document number: 7321213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151