JP2019530114A - フィードフォーワード及びフィードバックが設けられた多層パーセプトロンモデルを計算のためのモデル計算ユニット及び制御装置 - Google Patents
フィードフォーワード及びフィードバックが設けられた多層パーセプトロンモデルを計算のためのモデル計算ユニット及び制御装置 Download PDFInfo
- Publication number
- JP2019530114A JP2019530114A JP2019533672A JP2019533672A JP2019530114A JP 2019530114 A JP2019530114 A JP 2019530114A JP 2019533672 A JP2019533672 A JP 2019533672A JP 2019533672 A JP2019533672 A JP 2019533672A JP 2019530114 A JP2019530114 A JP 2019530114A
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- data memory
- neuron layer
- model
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012821 model calculation Methods 0.000 title claims abstract description 59
- 210000002569 neuron Anatomy 0.000 claims abstract description 227
- 239000013598 vector Substances 0.000 claims abstract description 134
- 238000005192 partition Methods 0.000 claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims description 61
- 230000006870 function Effects 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 8
- 101001014572 Homo sapiens MARCKS-related protein Proteins 0.000 description 21
- 102100028162 ATP-binding cassette sub-family C member 3 Human genes 0.000 description 18
- 101000986633 Homo sapiens ATP-binding cassette sub-family C member 3 Proteins 0.000 description 18
- 102100028187 ATP-binding cassette sub-family C member 6 Human genes 0.000 description 14
- 101000986621 Homo sapiens ATP-binding cassette sub-family C member 6 Proteins 0.000 description 14
- 230000008569 process Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000002485 combustion reaction Methods 0.000 description 8
- 102100032514 MARCKS-related protein Human genes 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 102100023882 Endoribonuclease ZC3H12A Human genes 0.000 description 3
- 101710112715 Endoribonuclease ZC3H12A Proteins 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/20—Handling requests for interconnection or transfer for access to input/output bus
- G06F13/28—Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Feedback Control In General (AREA)
- Semiconductor Memories (AREA)
- Complex Calculations (AREA)
Abstract
Description
‐入力ベクトルの1つ以上の入力に従って、複数のニューロンを有する多層パーセプトロンモデルのニューロン層の出力ベクトルの1つ以上の出力を計算するよう構成された演算コアと、
‐各ニューロン層に対して、入力ベクトルの入力を格納するためのデータメモリ区分、及び出力ベクトルの出力を格納するためのデータメモリ区分が対応付けられているデータメモリ領域が設けられたメモリと、
‐対応付けられた入力ベクトルの入力に基づいて各ニューロン層を計算し、出力ベクトルの各得られた出力を対応付けられたデータメモリ区分に格納するよう、演算コアに連続的に命令するよう構成されたDMAユニットと、を備え、
‐ニューロン層のうちの少なくとも1つのニューロン層に対応づけられた入力ベクトルのためのデータメモリ区分は、2つの異なるニューロン層の少なくとも2つの出力ベクトルのデータメモリ区分を、少なくとも部分的に含む、上記モデル計算ユニットである。
/* 入力変換 */
for (k=0; k<p7; k++) {
ut[k] = u[k]*p1[k] + p2[k];
}
/* ループ計算 */
for (j=p8; j<p6; j++) {
i = j * P7;
t = p3[j];
for (k=0; k<p7; ktt) {
t += V[i+k] * ut[k];
}
y[j] = act(t);
}
/* 出力変換 */
for (k=0; k<p6; k++) {
z[k] = y[k] * p4[k] + p5[k];
}
但し、
p7:入力ベクトルの入力のための最大インデックス値
p8:現在のニューロン層のニューロンの計算のための最小インデックス値又は初期値
p6:現在のニューロン層のニューロンのための最大インデックス値
p3:オフセット値
p1、p2:入力変換のための変数
p4、p5:出力変換のための変数
j=0…p6‐1について、
Claims (11)
- 多層パーセプトロンモデルを計算するためのモデル計算ユニット(22)であって、
前記モデル計算ユニット(22)は、ハードウェアで形成されハードワイヤードされており、
‐入力ベクトル(101)の1つ以上の入力に従って、複数のニューロンを有する前記多層パーセプトロンモデルのニューロン層の出力ベクトル(102)の1つ以上の出力を計算するよう構成された演算コア(18)と、
‐各ニューロン層に対して、前記入力ベクトル(101)の前記入力を格納するためのデータメモリ区分(D)、及び前記出力ベクトル(102)の前記出力を格納するためのデータメモリ区分(D)が対応付けられているデータメモリ領域(122)が設けられたメモリ(12)と、
‐対応付けられた前記入力ベクトル(101)の入力に基づいて各ニューロン層を計算し、前記出力ベクトル(102)の各得られた前記出力を対応付けられた前記データメモリ区分(D)に格納するよう、前記演算コア(18)に連続的に命令するよう構成されたDMAユニット(17)と、を備え、
前記ニューロン層のうちの少なくとも1つのニューロン層に対応づけられた前記入力ベクトル(101)のための前記データメモリ区分(D)は、2つの異なるニューロン層の少なくとも2つの前記出力ベクトル(102)の前記データメモリ区分(D)を、少なくとも部分的に含む、
モデル計算ユニット(22)。 - 前記ニューロン層のうちの少なくとも1つのニューロン層に対応づけられた前記入力ベクトル(101)のための前記データメモリ区分(D)は、先行する前記ニューロン層の前記出力ベクトル(102)の前記データメモリ区分(D)を完全に含む、
請求項1に記載のモデル計算ユニット(22)。 - 前記ニューロン層のうちの少なくとも1つのニューロン層に対応づけられた前記入力ベクトル(101)のための前記データメモリ区分(D)は、前記先行するニューロン層とは異なるニューロン層、特に、ある先行するニューロン層又は後続のニューロン層の前記出力ベクトル(102)の前記データメモリ区分(D)を部分的に含む、
請求項1又は2に記載のモデル計算ユニット(22)。 - 前記2つの異なるニューロン層の前記少なくとも2つの出力ベクトル(102)の前記データメモリ区分(D)は、前記データメモリ領域(D)のアドレス範囲において互いに境を接する、
請求項1〜3のいずれか一項に記載のモデル計算ユニット(22)。 - ニューロン層ごとの前記メモリは、各設定メモリ区分(A)に設定パラメータを格納するための設定メモリ領域(A)を有し、前記DMAユニット(17)は、前記演算コア(18)に以下のことを連続的に命令するよう構成され、即ち、各設定メモリ区分(A)の前記設定パラメータに基づいて各ニューロン層を計算し、及び、前記設定パラメータにより定義される前記入力ベクトルを計算し、各得られた前記出力ベクトル(102)を、対応する前記設定パラメータにより定義された、前記データメモリ領域(122)のデータメモリ区分(D)に格納するよう、前記演算コア(18)に連続的に命令するよう構成される、
請求項1〜4のいずれか一項に記載のモデル計算ユニット(22)。 - 前記演算コア(18)は、前記ニューロン層の現在の前記計算の終了を前記DMAユニット(17)又は外部に対してシグナリングするよう構成され、前記DMAユニット(17)は、他の設定メモリ区分(A)に格納された設定パラメータに基づいて、次の前記ニューロン層の前記計算を開始する、
請求項1〜5のいずれか一項に記載のモデル計算ユニット(22)。 - 前記演算コア(18)は、複数のニューロン(20)を有する多層パーセプトロンモデルのニューロン層ごとに、入力ベクトルの1つ以上の入力と、重み付け係数を含む重み付けマトリクスと、ニューロンごとに予め設定されたオフセット値と、に従って、ニューロンごとに出力を計算するよう構成され、各ニューロンについて、前記ニューロン及び前記入力によって決定される重み付け係数により重み付けされた、前記入力の値の和と、前記ニューロン(20)に予め設定された前記オフセット値と、が計算され、結果が活性化関数によって変換され、該当する前記ニューロン(20)のための前記出力が獲得される、
請求項1〜6のいずれか一項に記載のモデル計算ユニット(22)。 - 前記演算コア(18)は、集積モジュールの平面領域に形成される、請求項1〜7のいずれか一項に記載のモデル計算ユニット(22)。
- マイクロプロセッサ(21)と、請求項1〜8のいずれか一項に記載の1つ以上のモデル計算ユニット(22)と、を含む制御装置(2)。
- 前記制御装置(2)は、集積回路として形成される、請求項9に記載の制御装置(2)。
- 自動車内のエンジンシステム(1)を制御するための制御装置(2)としての、請求項9又は10に記載の前記制御装置(2)を使用する方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016216950.5 | 2016-09-07 | ||
DE102016216950.5A DE102016216950A1 (de) | 2016-09-07 | 2016-09-07 | Modellberechnungseinheit und Steuergerät zur Berechnung eines mehrschichtigen Perzeptronenmodells mit Vorwärts- und Rückkopplung |
PCT/EP2017/072043 WO2018046416A1 (de) | 2016-09-07 | 2017-09-04 | Modellberechnungseinheit und steuergerät zur berechnung eines mehrschichtigen perzeptronenmodells mit vorwärts- und rückkopplung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019530114A true JP2019530114A (ja) | 2019-10-17 |
JP6828170B2 JP6828170B2 (ja) | 2021-02-10 |
Family
ID=59859051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019533672A Active JP6828170B2 (ja) | 2016-09-07 | 2017-09-04 | フィードフォーワード及びフィードバックが設けられた多層パーセプトロンモデルを計算のためのモデル計算ユニット及び制御装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11449737B2 (ja) |
JP (1) | JP6828170B2 (ja) |
KR (1) | KR102509434B1 (ja) |
CN (1) | CN109643393B (ja) |
DE (1) | DE102016216950A1 (ja) |
WO (1) | WO2018046416A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3807874A1 (en) | 2018-07-13 | 2021-04-21 | Google LLC | End-to-end streaming keyword spotting |
US20220036216A1 (en) * | 2018-09-26 | 2022-02-03 | Google Llc | Predicted Variables in Programming |
CN111913898B (zh) * | 2019-05-10 | 2024-07-09 | 恩智浦美国有限公司 | 使用端点的pcie根复合体消息中断产生方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03235723A (ja) * | 1990-02-09 | 1991-10-21 | Hitachi Ltd | 自動車の制御装置 |
JPH06175999A (ja) * | 1992-12-08 | 1994-06-24 | Mitsubishi Electric Corp | ニューロコンピュータ |
US5583964A (en) * | 1994-05-02 | 1996-12-10 | Motorola, Inc. | Computer utilizing neural network and method of using same |
JP2015015024A (ja) * | 2013-07-02 | 2015-01-22 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 制御装置を駆動する方法及びモデル計算ユニットを有する制御装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3210319B2 (ja) * | 1990-03-01 | 2001-09-17 | 株式会社東芝 | ニューロチップおよびそのチップを用いたニューロコンピュータ |
US5809461A (en) * | 1992-03-30 | 1998-09-15 | Seiko Epson Corporation | Speech recognition apparatus using neural network and learning method therefor |
US6601051B1 (en) * | 1993-08-09 | 2003-07-29 | Maryland Technology Corporation | Neural systems with range reducers and/or extenders |
US5987444A (en) * | 1997-09-23 | 1999-11-16 | Lo; James Ting-Ho | Robust neutral systems |
CA2629069C (en) * | 2005-11-15 | 2016-07-19 | Bernadette Garner | Method for training neural networks |
US8051019B2 (en) * | 2006-07-13 | 2011-11-01 | Sap Ag | Neural network resource sizing apparatus for database applications |
GB2464677A (en) * | 2008-10-20 | 2010-04-28 | Univ Nottingham Trent | A method of analysing data by using an artificial neural network to identify relationships between the data and one or more conditions. |
US8990132B2 (en) * | 2010-01-19 | 2015-03-24 | James Ting-Ho Lo | Artificial neural networks based on a low-order model of biological neural networks |
DE102012214697A1 (de) * | 2012-08-01 | 2014-02-06 | Soma Analytics Ug (Haftungsbeschränkt) | Vorrichtung, Verfahren und Applikation zur Ermittlung eines aktuellenBelastungsniveaus |
DE102013206264A1 (de) * | 2013-04-10 | 2014-10-30 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Durchführung einer Berechnung eines datenbasierten Funktionsmodells |
DE102013213420A1 (de) * | 2013-04-10 | 2014-10-16 | Robert Bosch Gmbh | Modellberechnungseinheit, Steuergerät und Verfahrenzum Berechnen eines datenbasierten Funktionsmodells |
DE102013213414A1 (de) * | 2013-07-09 | 2015-01-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Durchführung einer Modellberechnungeines datenbasierten Funktionsmodells |
CN106062786B (zh) * | 2014-09-12 | 2019-12-31 | 微软技术许可有限责任公司 | 用于训练神经网络的计算*** |
EP3035249B1 (en) * | 2014-12-19 | 2019-11-27 | Intel Corporation | Method and apparatus for distributed and cooperative computation in artificial neural networks |
CN105892989B (zh) * | 2016-03-28 | 2017-04-12 | 中国科学院计算技术研究所 | 一种神经网络加速器及其运算方法 |
CN105913117A (zh) * | 2016-04-04 | 2016-08-31 | 北京工业大学 | 一种计算机智能识别的相关神经网络方法 |
-
2016
- 2016-09-07 DE DE102016216950.5A patent/DE102016216950A1/de active Pending
-
2017
- 2017-09-04 JP JP2019533672A patent/JP6828170B2/ja active Active
- 2017-09-04 US US16/330,625 patent/US11449737B2/en active Active
- 2017-09-04 KR KR1020197009811A patent/KR102509434B1/ko active IP Right Grant
- 2017-09-04 WO PCT/EP2017/072043 patent/WO2018046416A1/de active Application Filing
- 2017-09-04 CN CN201780054635.1A patent/CN109643393B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03235723A (ja) * | 1990-02-09 | 1991-10-21 | Hitachi Ltd | 自動車の制御装置 |
JPH06175999A (ja) * | 1992-12-08 | 1994-06-24 | Mitsubishi Electric Corp | ニューロコンピュータ |
US5583964A (en) * | 1994-05-02 | 1996-12-10 | Motorola, Inc. | Computer utilizing neural network and method of using same |
JP2015015024A (ja) * | 2013-07-02 | 2015-01-22 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 制御装置を駆動する方法及びモデル計算ユニットを有する制御装置 |
Non-Patent Citations (2)
Title |
---|
W. EPPLER ET AL.: ""High Speed Neural Network Chip for Trigger Purposes in High Energy Physics"", PROCEEDINGS DESIGN, AUTOMATION AND TEST IN EUROPE, JPN6020020377, February 1998 (1998-02-01), US, pages 108 - 115, XP010268412, ISSN: 0004286803, DOI: 10.1109/DATE.1998.655844 * |
大場 百香 外5名: "「再構成可能なニューラルネットワークアクセラレータの提案と性能分析」", 電子情報通信学会技術研究報告, vol. 第116巻, 第177号, JPN6020020378, 1 August 2016 (2016-08-01), pages 235 - 242, ISSN: 0004286804 * |
Also Published As
Publication number | Publication date |
---|---|
CN109643393B (zh) | 2023-05-23 |
US11449737B2 (en) | 2022-09-20 |
CN109643393A (zh) | 2019-04-16 |
KR20190043616A (ko) | 2019-04-26 |
KR102509434B1 (ko) | 2023-03-13 |
DE102016216950A1 (de) | 2018-03-08 |
JP6828170B2 (ja) | 2021-02-10 |
WO2018046416A1 (de) | 2018-03-15 |
US20200226450A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216721B2 (en) | Method for calculating a neuron layer of a multi-layer perceptron model with simplified activation function | |
WO2020042739A1 (zh) | 数据预处理方法、装置、计算机设备和存储介质 | |
CN111667051B (zh) | 适用边缘设备的神经网络加速器及神经网络加速计算方法 | |
JP5523624B2 (ja) | 制御装置及び制御のための出力変数を計算する方法 | |
JP6828170B2 (ja) | フィードフォーワード及びフィードバックが設けられた多層パーセプトロンモデルを計算のためのモデル計算ユニット及び制御装置 | |
JP2020532778A (ja) | 変換方法、装置、コンピューターデバイス及び記憶媒体 | |
Zhang et al. | Dynamic scheduling in flexible assembly system based on timed Petri nets model | |
JP2008260286A (ja) | プリントエンジン装置の能力を決定する方法 | |
KR102166650B1 (ko) | 제어 장치의 작동 방법 및 모델 연산 유닛을 포함하는 제어 장치 | |
CN110765710B (zh) | 基于非易失器件的通用逻辑综合方法及装置 | |
CN109684085B (zh) | 内存访问方法及相关产品 | |
JP6737960B2 (ja) | モデル計算ユニット、及び、多層パーセプトロンモデルを計算するための制御装置 | |
CN108388943B (zh) | 一种适用于神经网络的池化装置及方法 | |
CN114897133A (zh) | 一种通用可配置的Transformer硬件加速器及其实现方法 | |
JP6808047B2 (ja) | Rbfモデルを計算するためのモデル計算ユニット及び制御装置 | |
JP6742525B2 (ja) | Rbfモデルを計算するためのモデル計算ユニット及び制御装置 | |
US11645499B2 (en) | Model calculating unit and control unit for calculating a neural layer of a multilayer perceptron model | |
CN112948291A (zh) | 数据传输方法、电子设备和可读存储介质 | |
US20240177812A1 (en) | Systems and methods for expedient computation of substrate deformations in thermo-compression bonding | |
CN114943635B (zh) | 一种基于异构协同计算核心的融合算子设计与实现方法 | |
CN117291240B (zh) | 卷积神经网络加速器及电子设备 | |
US20220327180A1 (en) | Generic image resizer using matrix multiplier accelerator | |
CN114489043A (zh) | 多智能体路径规划方法、装置、电子设备及存储介质 | |
CN110412890A (zh) | 一种伺服驱动器的仿真方法、装置、设备和存储介质 | |
CN104281559A (zh) | 用于执行基于数据的函数模型的模型计算的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190322 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190322 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6828170 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |