JP2019087252A - ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 - Google Patents
ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 Download PDFInfo
- Publication number
- JP2019087252A JP2019087252A JP2018208043A JP2018208043A JP2019087252A JP 2019087252 A JP2019087252 A JP 2019087252A JP 2018208043 A JP2018208043 A JP 2018208043A JP 2018208043 A JP2018208043 A JP 2018208043A JP 2019087252 A JP2019087252 A JP 2019087252A
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- kernels
- kernel
- sub
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 144
- 238000000034 method Methods 0.000 title claims abstract description 52
- 239000011159 matrix material Substances 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000011218 segmentation Effects 0.000 description 9
- 238000011176 pooling Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
2 ニューラルネットワークのレイヤ
30a 入力イメージ
30b,730,840 出力フィーチャマップ
31 コンボリューションネットワーク
32 デコンボリューションネットワーク
510,710,810 入力フィーチャマップ
520,610 第1カーネル
530,620,720 第2カーネル
540,631,632,633,634 サブカーネル
721,821 第1サブカーネル
722,822 第2サブカーネル
723,823 第3サブカーネル
724,824 第4サブカーネル
831 第1中間フィーチャマップ
832 第2中間フィーチャマップ
833 第3中間フィーチャマップ
834 第4中間フィーチャマップ
90 ニューラルネットワーク装置
910 プロセッサ
920 メモリ
Claims (19)
- ニューラルネットワークにおいてデコンボルーション演算を実行する装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することにより、演算を実行するプロセッサと、を含み、
前記プロセッサは、
前記ニューラルネットワークのデコンボルーションレイヤで処理される入力フィーチャマップ及び第1カーネルを前記メモリから獲得し、
前記第1カーネルそれぞれを構成する行列成分の配置を調整し、第2カーネルを算出し、
前記第2カーネルそれぞれを分割してサブカーネルを生成し、
コンボルーション演算器を利用し、前記入力フィーチャマップ及び前記サブカーネルのコンボルーション演算を行い、
前記コンボルーション演算の結果をマージすることによって出力フィーチャマップを生成する装置。 - 前記プロセッサは、
ストライド値を前記メモリから獲得し、
前記ストライド値に基づいて、前記第2カーネルそれぞれを分割することにより、前記サブカーネルを生成することを特徴とする請求項1に記載の装置。 - 前記プロセッサは、
前記第2カーネルそれぞれを、前記ストライド値を二乗した個数のサブカーネルに分割することを特徴とする請求項2に記載の装置。 - 前記プロセッサは、
トランスポーズ演算を行い、前記第1カーネルそれぞれを構成する行列成分の配置を調整し、
スプリット演算を行い、前記第2カーネルそれぞれを分割することを特徴とする請求項1ないし3のうちの何れか一項に記載の装置。 - 前記プロセッサは、
前記コンボルーション演算器を利用し、コンボルーションレイヤ及びフリーコネクティッドレイヤにおいて、コンボルーション演算を行うことを特徴とする請求項1ないし4のうちの何れか一項に記載の装置。 - 前記プロセッサは、
前記サブカーネルそれぞれを、前記入力フィーチャマップに対してシフトし、前記入力フィーチャマップとコンボルーション演算を行うことにより、前記サブカーネルを並列に処理し、
前記並列に処理された結果をマージすることにより、出力フィーチャマップを生成することを特徴とする請求項1ないし5のうちの何れか一項に記載の装置。 - ニューラルネットワークにおいてデコンボルーション演算を実行する装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することにより、演算を実行するプロセッサと、を含み、
前記プロセッサは、
前記ニューラルネットワークのデコンボルーションレイヤで処理される入力フィーチャマップ及びサブカーネルを前記メモリから獲得し、
コンボルーション演算器を利用し、前記入力フィーチャマップと前記サブカーネルとのコンボルーション演算を行い、
前記コンボルーション演算の結果をマージすることにより、出力フィーチャマップを生成し、
前記メモリから獲得された前記サブカーネルは、初期カーネルそれぞれを構成する行列成分の配置が調整された後、前記調整された初期カーネルが分割されることによって生成されるものである、装置。 - 前記初期カーネルそれぞれに対して分割された前記サブカーネルの個数は、前記メモリに保存されたストライド値に基づいて決定されることを特徴とする請求項7に記載の装置。
- 前記サブカーネルの個数は、前記ストライド値を二乗した数であることを特徴とする請求項8に記載の装置。
- 前記サブカーネルは、
トランスポーズ演算が行われ、前記初期カーネルそれぞれを構成する行列成分の配置が調整された後、スプリット演算が行われ、前記調整された初期カーネルが分割されることによって生成されることを特徴とする請求項7ないし9のうちの何れか一項に記載の装置。 - 前記プロセッサは、
前記コンボルーション演算器を利用し、コンボルーションレイヤ及びフリーコネクティッドレイヤにおいて、コンボルーション演算を行うことを特徴とする請求項7ないし10のうちの何れか一項に記載の装置。 - 前記プロセッサは、
前記サブカーネルそれぞれを、前記入力フィーチャマップに対してシフトし、前記入力フィーチャマップとコンボルーション演算を行うことにより、前記サブカーネルを並列に処理し、
前記並列に処理された結果をマージすることにより、出力フィーチャマップを求めることを特徴とする請求項7ないし11のうちの何れか一項に記載の装置。 - ニューラルネットワーク装置でデコンボルーション演算を行う方法において、
ニューラルネットワークのデコンボルーションレイヤで処理される入力フィーチャマップ及び第1カーネルを獲得する段階と、
前記第1カーネルそれぞれを構成する行列成分の配置を調整し、第2カーネルを算出する段階と、
前記第2カーネルそれぞれを分割してサブカーネルを生成する段階と、
コンボルーション演算器を利用し、前記入力フィーチャマップと前記サブカーネルとのコンボルーション演算を行う段階と、
前記コンボルーション演算の結果をマージすることによって出力フィーチャマップを生成する段階と、を含む方法。 - 前記サブカーネルを生成する段階は、
ストライド値に基づいて、前記第2カーネルそれぞれを分割することにより、前記サブカーネルを生成する段階を含むことを特徴とする請求項13に記載の方法。 - 前記第2カーネルそれぞれを、前記ストライド値を二乗した個数のサブカーネルに分割することを特徴とする請求項14に記載の方法。
- 前記第2カーネルを算出する段階は、
トランスポーズ演算を行い、前記第1カーネルそれぞれを構成する行列成分の配置を調整する段階を含み、
前記サブカーネルを生成する段階は、
スプリット演算を行い、前記第2カーネルそれぞれを分割する段階を含むことを特徴とする請求項13ないし15のうちの何れか一項に記載の方法。 - 前記方法は、
前記コンボルーション演算器を利用し、コンボルーションレイヤ及びフリーコネクティッドレイヤにおいて、コンボルーション演算を行う段階をさらに含むことを特徴とする請求項13ないし16のうちの何れか一項に記載の方法。 - 前記出力フィーチャマップを生成する段階は、
前記サブカーネルそれぞれを、前記入力フィーチャマップに対してシフトし、前記入力フィーチャマップとコンボルーション演算を行うことにより、前記サブカーネルを並列に処理する段階と、
前記並列に処理された結果をマージすることにより、出力フィーチャマップを生成する段階と、を含むことを特徴とする請求項13ないし17のうちの何れか一項に記載の方法。 - 請求項13ないし18のうちいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170147617A KR20190051697A (ko) | 2017-11-07 | 2017-11-07 | 뉴럴 네트워크의 디컨벌루션 연산을 수행하는 장치 및 방법 |
KR10-2017-0147617 | 2017-11-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019087252A true JP2019087252A (ja) | 2019-06-06 |
JP7132824B2 JP7132824B2 (ja) | 2022-09-07 |
Family
ID=64051355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018208043A Active JP7132824B2 (ja) | 2017-11-07 | 2018-11-05 | ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10885433B2 (ja) |
EP (1) | EP3480740A1 (ja) |
JP (1) | JP7132824B2 (ja) |
KR (1) | KR20190051697A (ja) |
CN (1) | CN109754064B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021034039A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク方法及び装置 |
JP7461081B2 (ja) | 2021-03-18 | 2024-04-03 | 北京地平▲線▼机器人技▲術▼研▲発▼有限公司 | 畳み込みハードウェアによる特徴データに対する逆畳み込み処理方法及び装置 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11687762B2 (en) | 2018-02-27 | 2023-06-27 | Stmicroelectronics S.R.L. | Acceleration unit for a deep learning engine |
US11586907B2 (en) | 2018-02-27 | 2023-02-21 | Stmicroelectronics S.R.L. | Arithmetic unit for deep learning acceleration |
US10977854B2 (en) | 2018-02-27 | 2021-04-13 | Stmicroelectronics International N.V. | Data volume sculptor for deep learning acceleration |
US11049000B2 (en) * | 2018-03-27 | 2021-06-29 | International Business Machines Corporation | Distributed state via cascades of tensor decompositions and neuron activation binding on neuromorphic hardware |
US11025907B2 (en) * | 2019-02-28 | 2021-06-01 | Google Llc | Receptive-field-conforming convolution models for video coding |
KR20200066952A (ko) | 2018-12-03 | 2020-06-11 | 삼성전자주식회사 | 확장 컨벌루션 연산을 수행하는 장치 및 방법 |
GB2582352B (en) * | 2019-03-20 | 2021-12-15 | Imagination Tech Ltd | Methods and systems for implementing a convolution transpose layer of a neural network |
US11880760B2 (en) | 2019-05-01 | 2024-01-23 | Samsung Electronics Co., Ltd. | Mixed-precision NPU tile with depth-wise convolution |
KR102178238B1 (ko) * | 2019-05-30 | 2020-11-12 | 한국생산기술연구원 | 회전 커널을 이용한 머신러닝 기반 결함 분류 장치 및 방법 |
CN112116083B (zh) * | 2019-06-20 | 2024-03-08 | 地平线(上海)人工智能技术有限公司 | 神经网络加速器及其检测方法和装置 |
KR102097294B1 (ko) * | 2019-07-19 | 2020-04-06 | (주)지와이네트웍스 | 화염 판단을 위한 신경망 모델의 학습 및 검출 방법, 및 이를 수행하는 장치 |
CN112306555A (zh) | 2019-07-30 | 2021-02-02 | 北京百度网讯科技有限公司 | 并行提取多个卷积窗中的图像数据的方法、装置、设备以及计算机可读存储介质 |
KR102147912B1 (ko) * | 2019-08-13 | 2020-08-25 | 삼성전자주식회사 | 프로세서 칩 및 그 제어 방법들 |
CN112446474B (zh) | 2019-08-31 | 2022-11-22 | 安徽寒武纪信息科技有限公司 | 芯片和多芯片***及电子设备和数据传输方法 |
CN112446464B (zh) * | 2019-08-31 | 2023-05-30 | 安徽寒武纪信息科技有限公司 | 一种神经网络卷积运算方法、装置以及相关产品 |
CN114450699A (zh) * | 2019-09-24 | 2022-05-06 | 阿里巴巴集团控股有限公司 | 由处理单元实现的方法、可读存储介质和处理单元 |
US11681902B2 (en) * | 2019-09-27 | 2023-06-20 | Amazon Technologies, Inc. | Transposed convolution using systolic array |
CN112784207B (zh) * | 2019-11-01 | 2024-02-02 | 中科寒武纪科技股份有限公司 | 运算方法及相关产品 |
KR20210071471A (ko) | 2019-12-06 | 2021-06-16 | 삼성전자주식회사 | 뉴럴 네트워크의 행렬 곱셈 연산을 수행하는 장치 및 방법 |
US20210182025A1 (en) * | 2019-12-12 | 2021-06-17 | Samsung Electronics Co., Ltd. | Accelerating 2d convolutional layer mapping on a dot product architecture |
US11625605B2 (en) * | 2019-12-20 | 2023-04-11 | Nvidia Corporation | Selecting computational kernel variants using neural networks |
KR20210082970A (ko) * | 2019-12-26 | 2021-07-06 | 삼성전자주식회사 | 컨볼루션 연산을 수행하는 방법 및 장치 |
CN113222136A (zh) * | 2020-01-21 | 2021-08-06 | 北京希姆计算科技有限公司 | 卷积运算方法及芯片 |
US11630991B2 (en) * | 2020-02-04 | 2023-04-18 | Apple Inc. | Broadcasting mode of planar engine for neural processor |
KR20210101903A (ko) | 2020-02-11 | 2021-08-19 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
TWI733334B (zh) * | 2020-02-15 | 2021-07-11 | 財團法人工業技術研究院 | 卷積神經網路運算裝置及其運算的方法 |
US11593609B2 (en) * | 2020-02-18 | 2023-02-28 | Stmicroelectronics S.R.L. | Vector quantization decoding hardware unit for real-time dynamic decompression for parameters of neural networks |
US11507831B2 (en) | 2020-02-24 | 2022-11-22 | Stmicroelectronics International N.V. | Pooling unit for deep learning acceleration |
KR102428033B1 (ko) * | 2020-02-28 | 2022-08-02 | 오픈엣지테크놀로지 주식회사 | 트랜스포즈드 콘볼루션 하드웨어 가속장치 |
CN111340680B (zh) * | 2020-03-20 | 2023-06-02 | 光子算数(北京)科技有限责任公司 | 一种卷积计算方法及卷积运算电路 |
CN111428189B (zh) * | 2020-04-01 | 2023-09-22 | 南京大学 | 一种用于反卷积运算的数据预处理方法及装置 |
CN111475321B (zh) * | 2020-05-08 | 2024-04-26 | 中国人民解放军国防科技大学 | 一种基于迭代抽象分析的神经网络安全性质验证方法 |
DE102020208765A1 (de) | 2020-07-14 | 2022-01-20 | Robert Bosch Gesellschaft mit beschränkter Haftung | Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten |
US11842273B2 (en) * | 2020-09-23 | 2023-12-12 | Arm Limited | Neural network processing |
US20220121953A1 (en) * | 2020-10-21 | 2022-04-21 | Nec Laboratories America, Inc. | Multi-task learning via gradient split for rich human analysis |
TWI768555B (zh) * | 2020-11-23 | 2022-06-21 | 威盛電子股份有限公司 | 調整神經網路輸入資料的系統及方法 |
CN112465133B (zh) * | 2020-11-25 | 2022-12-09 | 安徽寒武纪信息科技有限公司 | 控制流多核并行方法、计算机设备和存储介质 |
CN112614175A (zh) * | 2020-12-21 | 2021-04-06 | 苏州拓驰信息技术有限公司 | 基于特征去相关的用于封孔剂注射器的注射参数确定方法 |
CN114764615A (zh) * | 2021-01-13 | 2022-07-19 | 华为技术有限公司 | 卷积运算的实现方法、数据处理方法及装置 |
US11195080B1 (en) | 2021-03-29 | 2021-12-07 | SambaNova Systems, Inc. | Lossless tiling in convolution networks—tiling configuration |
US11263170B1 (en) | 2021-03-29 | 2022-03-01 | SambaNova Systems, Inc. | Lossless tiling in convolution networks—padding before tiling, location-based tiling, and zeroing-out |
US11250061B1 (en) | 2021-03-29 | 2022-02-15 | SambaNova Systems, Inc. | Lossless tiling in convolution networks—read-modify-write in backward pass |
US11227207B1 (en) * | 2021-03-29 | 2022-01-18 | SambaNova Systems, Inc. | Lossless tiling in convolution networks—section boundaries |
US11854253B2 (en) * | 2021-06-26 | 2023-12-26 | Intel Corporation | Apparatus, method, and computer-readable medium for robust response to adversarial perturbations using hyperdimensional vectors |
EP4250204A3 (en) * | 2021-07-19 | 2023-12-06 | ALE International | Method and system for calculating and sharing a user occupancy status relative to use of multimedia applications |
KR102395744B1 (ko) * | 2021-09-16 | 2022-05-09 | 오픈엣지테크놀로지 주식회사 | 데이터 스케일을 고려한 덧셈 연산 방법 및 이를 위한 하드웨어 가속기, 이를 이용한 컴퓨팅 장치 |
CN113641952B (zh) * | 2021-10-14 | 2022-02-08 | 北京壁仞科技开发有限公司 | 卷积设备、卷积方法、矩阵拆聚装置以及矩阵拆聚方法 |
CN114611685A (zh) * | 2022-03-08 | 2022-06-10 | 安谋科技(中国)有限公司 | 神经网络模型中的特征处理方法、介质、设备和程序产品 |
CN114625378A (zh) * | 2022-03-28 | 2022-06-14 | 北京地平线机器人技术研发有限公司 | 神经网络模型的编译方法、装置及计算机可读存储介质 |
WO2024010437A1 (ko) * | 2022-07-08 | 2024-01-11 | 주식회사 딥엑스 | 신경 프로세싱 유닛 및 이의 동작 방법 |
WO2024041407A1 (en) * | 2022-08-23 | 2024-02-29 | Mediatek Inc. | Neural network feature map translation for video coding |
US20230016455A1 (en) * | 2022-09-26 | 2023-01-19 | Alessandro Palla | Decomposing a deconvolution into multiple convolutions |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004056120A1 (en) * | 2002-12-17 | 2004-07-01 | Let It Wave | Processing or compressing n-dimensional signals with warped wavelet packets and bandelets |
US7747070B2 (en) | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
EP2403234A1 (en) * | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
WO2016054079A1 (en) * | 2014-09-29 | 2016-04-07 | Zyomed Corp. | Systems and methods for blood glucose and other analyte detection and measurement using collision computing |
US10262259B2 (en) | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US20160328645A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Reduced computational complexity for fixed point neural network |
US10373050B2 (en) | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
US9747546B2 (en) | 2015-05-21 | 2017-08-29 | Google Inc. | Neural network processor |
US10083395B2 (en) | 2015-05-21 | 2018-09-25 | Google Llc | Batch processing in a neural network processor |
US10019657B2 (en) | 2015-05-28 | 2018-07-10 | Adobe Systems Incorporated | Joint depth estimation and semantic segmentation from a single image |
US10417555B2 (en) | 2015-05-29 | 2019-09-17 | Samsung Electronics Co., Ltd. | Data-optimized neural network traversal |
US20160358069A1 (en) | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
US10540588B2 (en) | 2015-06-29 | 2020-01-21 | Microsoft Technology Licensing, Llc | Deep neural network processing on hardware accelerators with stacked memory |
US11074492B2 (en) * | 2015-10-07 | 2021-07-27 | Altera Corporation | Method and apparatus for performing different types of convolution operations with the same processing elements |
US11580375B2 (en) | 2015-12-31 | 2023-02-14 | Kla-Tencor Corp. | Accelerated training of a machine learning based model for semiconductor applications |
US11170294B2 (en) | 2016-01-07 | 2021-11-09 | Intel Corporation | Hardware accelerated machine learning |
US9547821B1 (en) | 2016-02-04 | 2017-01-17 | International Business Machines Corporation | Deep learning for algorithm portfolios |
EP3330898A1 (en) | 2016-12-01 | 2018-06-06 | Altera Corporation | Method and apparatus for performing different types of convolution operations with the same processing elements |
CN106991651B (zh) | 2016-12-12 | 2019-10-29 | 南昌大学 | 基于合成分析反卷积网络的快速成像方法及*** |
CN106650699B (zh) * | 2016-12-30 | 2019-09-17 | 中国科学院深圳先进技术研究院 | 一种基于卷积神经网络的人脸检测方法及装置 |
US10832135B2 (en) | 2017-02-10 | 2020-11-10 | Samsung Electronics Co., Ltd. | Automatic thresholds for neural network pruning and retraining |
US9953236B1 (en) * | 2017-03-10 | 2018-04-24 | TuSimple | System and method for semantic segmentation using dense upsampling convolution (DUC) |
US10671349B2 (en) * | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
JP6935503B2 (ja) | 2017-09-20 | 2021-09-15 | 株式会社ダイヤメット | 焼結含油軸受 |
US11709911B2 (en) * | 2018-10-03 | 2023-07-25 | Maxim Integrated Products, Inc. | Energy-efficient memory systems and methods |
-
2017
- 2017-11-07 KR KR1020170147617A patent/KR20190051697A/ko not_active Application Discontinuation
-
2018
- 2018-08-21 US US16/107,717 patent/US10885433B2/en active Active
- 2018-09-03 CN CN201811024492.2A patent/CN109754064B/zh active Active
- 2018-10-26 EP EP18202762.3A patent/EP3480740A1/en active Pending
- 2018-11-05 JP JP2018208043A patent/JP7132824B2/ja active Active
-
2020
- 2020-12-04 US US17/112,041 patent/US11663473B2/en active Active
-
2023
- 2023-04-21 US US18/304,574 patent/US11960999B2/en active Active
Non-Patent Citations (1)
Title |
---|
SHI, WENZHE ET AL.: "Is the deconvolution layer the same as a convolutional layer?", ARXIV, JPN6022009423, 22 September 2016 (2016-09-22), pages 1 - 7, ISSN: 0004726704 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021034039A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク方法及び装置 |
JP7114659B2 (ja) | 2019-08-13 | 2022-08-08 | 三星電子株式会社 | ニューラルネットワーク方法及び装置 |
JP7461081B2 (ja) | 2021-03-18 | 2024-04-03 | 北京地平▲線▼机器人技▲術▼研▲発▼有限公司 | 畳み込みハードウェアによる特徴データに対する逆畳み込み処理方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190138898A1 (en) | 2019-05-09 |
US11663473B2 (en) | 2023-05-30 |
US20230252298A1 (en) | 2023-08-10 |
KR20190051697A (ko) | 2019-05-15 |
JP7132824B2 (ja) | 2022-09-07 |
US11960999B2 (en) | 2024-04-16 |
EP3480740A1 (en) | 2019-05-08 |
CN109754064A (zh) | 2019-05-14 |
CN109754064B (zh) | 2024-04-12 |
US10885433B2 (en) | 2021-01-05 |
US20210117791A1 (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019087252A (ja) | ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 | |
CN108073981B (zh) | 处理卷积神经网络的方法和设备 | |
US10360494B2 (en) | Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules | |
KR102216019B1 (ko) | 콘볼루션 뉴럴 네트워크들을 위한 효율적인 데이터 레이아웃들 | |
JP7234185B2 (ja) | データを処理する方法及びその装置 | |
KR20190066473A (ko) | 뉴럴 네트워크에서 컨볼루션 연산을 처리하는 방법 및 장치 | |
CN107368886B (zh) | 基于重复使用小规模卷积神经网络模块的神经网络*** | |
KR102452951B1 (ko) | 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 | |
US11562046B2 (en) | Neural network processor using dyadic weight matrix and operation method thereof | |
JP2020107338A (ja) | ニューラルネットワークのコンボルーション演算を処理する方法及びその装置 | |
KR20200095300A (ko) | 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치 | |
EP3800585A1 (en) | Method and apparatus with data processing | |
US20200134465A1 (en) | Method and apparatus for reconstructing 3d microstructure using neural network | |
KR102633139B1 (ko) | 데이터를 추출하는 집적 회로, 그것을 포함하는 뉴럴 네트워크 프로세서 및 뉴럴 네트워크 장치 | |
US12014505B2 (en) | Method and apparatus with convolution neural network processing using shared operand | |
KR20200129957A (ko) | 피처맵 데이터에 대한 압축을 수행하는 뉴럴 네트워크 프로세서 및 이를 포함하는 컴퓨팅 시스템 | |
CN111523533B (zh) | 一种从图像中确定物体所在区域的方法及装置 | |
KR20200023154A (ko) | 컨볼루션 뉴럴 네트워크를 처리하는 방법 및 장치 | |
KR20210082970A (ko) | 컨볼루션 연산을 수행하는 방법 및 장치 | |
US20240046413A1 (en) | Methods of batch-based dnn processing for efficient analytics | |
KR20210071472A (ko) | 데이터를 처리하는 방법 및 장치 | |
US11842273B2 (en) | Neural network processing | |
CN114548361A (zh) | 神经网络装置及其操作方法 | |
WO2024058682A1 (en) | Data processing method and device | |
CN116210022A (zh) | 图像处理设备及其操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7132824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |