JP2022539554A - 高精度のニューラル処理要素 - Google Patents
高精度のニューラル処理要素 Download PDFInfo
- Publication number
- JP2022539554A JP2022539554A JP2021577355A JP2021577355A JP2022539554A JP 2022539554 A JP2022539554 A JP 2022539554A JP 2021577355 A JP2021577355 A JP 2021577355A JP 2021577355 A JP2021577355 A JP 2021577355A JP 2022539554 A JP2022539554 A JP 2022539554A
- Authority
- JP
- Japan
- Prior art keywords
- bit
- operand
- hardware
- binary
- dnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 89
- 230000001537 neural effect Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 abstract description 6
- 239000000872 buffer Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000004744 fabric Substances 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/499—Denomination or exception handling, e.g. rounding or overflow
- G06F7/49994—Sign extension
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/523—Multiplying only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/57—Arithmetic logic units [ALU], i.e. arrangements or devices for performing two or more of the operations covered by groups G06F7/483 – G06F7/556 or for performing logical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30029—Logical and Boolean instructions, e.g. XOR, NOT
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Neurology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Advance Control (AREA)
Abstract
ニューラル処理要素は、符号拡張信号とオペランドの最上位ビット(「MSB」)との間で論理AND演算を実行するように構成されたハードウェアANDゲートで構成される。符号拡張信号の状態は、オペランドを生成するディープニューラルネットワーク(「DNN」)の層のタイプに基づくものとすることができる。符号拡張信号が論理FALSEである場合、符号拡張は実行されない。符号拡張信号が論理TRUEである場合、連結器は、ハードウェアANDゲートの出力とオペランドとを連結し、それによって、Nビットの符号なしバイナリ値からN+1ビットの符号付きバイナリ値にオペランドを拡張する。ニューラル処理要素はまた、他のハードウェアANDゲート及び他のオペランドを同様に処理するための他の連結子を含むことができる。双方のオペランドの連結器の出力は、ハードウェアバイナリ乗算器に提供される。
Description
ディープニューラルネットワーク(「DNN(deep neural network)」)は、人間の脳のような生体神経系における情報処理及び通信パターンに基づいて大まかにモデル化されている。DNNは、限定されるものではないが、物体検出、意味ラベル付け及び特徴抽出のような複雑な分類問題を解決するために利用できる。その結果、DNNは、コンピュータビジョン、音声認識及び機械翻訳のような多くのインテリジェンス(「AI(intelligence)」)アプリケーションの基礎を形成している。DNNは、これらのドメインの多くにおいて人間の精度に匹敵するか或いはそれを超えることができる。
DNNの高レベルの性能は、入力空間の効果的な表現を取得するために大きいデータセットに対して統計学習を使用した後に、入力データから高レベルの特徴を抽出するこれらの能力に由来する。しかし、DNNの優れた性能は、高い計算複雑性の犠牲を払う。一般的に、グラフィックス処理ユニット(「GPU(graphics processing unit)」)のような高性能汎用プロセッサが、多くのDNNアプリケーションによって必要とされる高レベルの計算性能を提供するために利用されている。
GPUのような汎用プロセッサは、DNNを実装するための高レベルの計算性能を提供できるが、これらのタイプのプロセッサは、典型的には、低電力消費が重要であるコンピューティングデバイスにおいて、長時間にわたってDNN演算を実行する際に使用するのに適さない。例えば、GPUのような汎用プロセッサは、バッテリ寿命を延ばすために低減した電力消費が必要とされるスマートフォン又は代替/仮想現実(「AR/VR(alternate/virtual reality)」)デバイスのようなバッテリ駆動ポータブルデバイスにおいて長時間のDNNタスクを実行する際に使用するのに適さない可能性がある。
人間の動きの検出のような連続したDNNタスクを実行する間の低減した電力消費は、例えば、パワーオーバーイーサネット(「POE(power-over-Ethernet)」)セキュリティカメラのような、バッテリ駆動ではないデバイスにおいても重要になる可能性がある。この特定の例では、POEスイッチは、限られた量の電力しか供給することができず、セキュリティカメラのようなPOEデバイスの電力消費を低減することは、より少ない電力を供給するPOEスイッチの使用を可能にする。
汎用プロセッサと比較して電力消費を同時に低減しつつ、優れたDNN処理を提供できる特定用途向け集積回路(「ASIC(application-specific integrated circuit)」)が開発されている。しかし、この分野における進歩にもかかわらず、特に低電力消費が重要であるコンピューティングデバイスにおいて使用するために、DNN処理を実行するASICの性能を改善して電力消費を低減するための継続的なニーズが存在する。
上記及び他の技術的課題に関して、ここに開示される。
高精度の計算が可能なニューラル処理要素がここに開示される。ここに開示されるニューラル処理要素のアーキテクチャは、特定のタイプのDNN層によって生成されたオペランドを処理する場合、より高い精度を可能にする。例えば、限定されるものではないが、開示の技術を実装するニューラル処理要素は、入力としてNビットを有する符号付き又は符号なしオペランドをとることができる。特定の状況において、ニューラル処理要素は、N+1ビットを使用してオペランドに対して演算を実行でき、それによって、ニューラル処理要素がNビットのみを使用してその内部計算を実行するアーキテクチャと比較して、高精度を提供する。ここに具体的に記載されていない他の技術的利点も、開示の対象物の実施を通じて実現できる。
簡単に上記に記載した技術的利点を実現するために、ニューラル処理要素を含むDNNプロセッサが開示される。ニューラル処理要素は、入力としてNビットを有する符号付き又は符号なしバイナリオペランドをとることができる。1つの特定の実装では、オペランドは、符号付き又は符号なし8ビット2進数である。他の実装では、オペランドは異なる数のビットを利用できる。
ニューラル処理要素はまた、特定のタイプのオペランドに対して高精度の計算を実行するための回路を含む。例えば、ニューラル処理要素は、DNNの正規化線形ユニット(「ReLU(rectified linear unit)」)層によって生成されたオペランドのような正の数に制限されるオペランドに対して拡張した精度の計算を実行できる。典型的には、ReLU層によって出力された符号付きNビット値は、符号のために1ビットが確保されるので、N-1ビットのみを使用する(-127~+128の値を表す)。しかし、開示の技術を使用して、ニューラル処理要素は、その内部計算において、ReLU層によって生成されたオペランドの全てのNビットを利用できる(0~255の値を表す)。
高精度を提供するために、ニューラル処理要素は、ハードウェアANDゲートで構成される。ハードウェアANDゲートは、バイナリ信号(ここでは「符号拡張信号(sign extend signal)」と呼ばれてもよい)とオペランドの最上位ビット(「MSB(most significant bit)」)との間で論理AND演算を実行するように構成される。オペランドが8ビット2進数の例では、MSBはオペランドのビット7である。
符号拡張信号の状態は、DNNプロセッサによって前に処理されたDNNの層のタイプに基づくものとすることができる。特に、符号拡張信号は、オペランドがDNNのReLU層によって生成される場合のようにオペランドが符号なしである場合、論理FALSEに設定できる。この場合、オペランドの符号は拡張されないが、オペランドの前に0ビットが付加され、9ビットの符号付き数字になる。
符号拡張信号が論理TRUEである場合(すなわち、入力がTanh層の出力のように符号付きである場合)、符号拡張はオペランドに対して実行される。符号拡張演算を実行するために、ニューラル処理要素はまた、2つのバイナリ値を連結するように構成された連結回路(「連結器(concatenator)」)を含む。特に、連結器は、ハードウェアANDゲートの出力とオペランドとを連結し、それによって、オペランドをNビットの符号なし値からN+1ビットの符号付き値に拡張する。例えば、オペランドが8ビット2進数である構成では、連結器の出力は9ビットの符号付き2進数である。
ニューラル処理要素はまた、上述の方式で他のオペランドを処理するための他のハードウェアANDゲート及び他の連結器を含むことができる。この例では、双方のオペランドについての連結器の出力がハードウェアバイナリ乗算器に提供される。オペランドが8ビット2進数である構成では、ハードウェアバイナリ乗算器の出力は18ビットの符号付き2進数である。ニューラル処理要素は、ハードウェアバイナリ乗算器の出力を処理し続けることができる。
上記の対象物は、コンピュータ制御装置、コンピュータ実施方法、コンピューティングデバイス又はコンピュータ読み取り可能媒体のような製造物として実現できることが認識されるべきである。以下の詳細な説明を読んで関連する図面を閲覧することから、これらの特徴及び様々な他の特徴が明らかになる。
この概要は、詳細な説明において以下に更に説明される、開示の技術のいくつかの態様の簡単な説明を簡略化した形式で紹介するために提供されている。この概要は、特許請求の範囲の対象物の主な特徴又は本質的な特徴を特定することを意図するのではなく、また、この概要が特許請求の範囲の対象物の範囲を限定するために使用されることを意図するものでもない。さらに、特許請求の範囲の対象物は、本開示のいずれかの部分に記載されたいずれかの欠点又は全ての欠点を解決する実装に限定されない。
以下の詳細な説明は、高精度のニューラル処理要素を対象とする。簡単に上記に説明したように、開示の技術の実装は、特定のタイプのDNN層によって生成されたオペランドを処理する際に、ニューラル処理要素がより高い精度でこれらの内部計算を実行することを可能にすることができる。ここに具体的に記載されていない他の技術的利点も、開示の対象物の実施を通じて実現できる。
ここに記載の対象物は、ハードウェアDNNプロセッサと共に実装されるハードウェアニューラル処理要素の一般的なコンテキストで提示されるが、当業者は、他の実装が他のタイプのコンピューティングシステム及びモジュールと組み合わせて実行できることを認識する。当業者はまた、ここに記載の対象物が、ハンドヘルドデバイス、マルチプロセッサシステム、マイクロプロセッサベース又はプログラマブル家電、デバイスに埋め込まれたコンピューティング又は処理システム(ウェアラブルコンピューティングデバイス、自動車、ホームオートメーション等)、ミニコンピュータ、メインフレームコンピュータ等を含む、他のコンピュータシステム構成で実施できることを認識する。
以下の詳細な説明において、詳細な説明の一部を形成し、例示的な特定の構成又は例として示される添付の図面に参照が行われる。ここで、図面を参照すると、同様の数字は、いくつかの図面を通じて同様の要素を表している。ここで、高精度のニューラル処理要素の態様について説明する。
図1は、一実施形態に従って、ここに開示の技術の態様を実装する処理システムの構成及び動作の態様を示すコンピューティングアーキテクチャ図である。いくつかの実施形態では、ここに開示の処理システムは、限定されるものではないが、アイトラッキング、ハンドトラッキング、物体検出、意味ラベル付け及び特徴抽出のような分類問題(及び関連する問題)を解決するように構成される。
この機能を提供するために、リコール専用(recall-only)ニューラルネットワークを実装し、広範囲のネットワーク構造をプログラム的にサポートできるDNNプロセッサ112が提供される。DNNプロセッサ112によって実施されるネットワークのための訓練は、サーバファーム、データセンタ又は他の適切なコンピューティング環境においてオフラインで実行できる。DNNを訓練した結果は、「重み(weight)」又は「カーネル(kernel)」として知られるパラメータのセットである。これらのパラメータは、入力に適用できる変換関数を表し、結果は分類又は意味的にラベル付けされた出力である。
ここに開示のDNNプロセッサ112は、スーパースカラプロセッサと考えられることができる。DNNプロセッサ112は、ニューラル処理要素105Fと呼ばれる複数の実行ユニットに1つ以上の命令をディスパッチできる。実行ユニットは、「同時ディスパッチ同時完了(simultaneous dispatch simultaneous complete)」とすることができ、各実行ユニットは、他の実行ユニットのそれぞれと同期する。DNNプロセッサ112は、単一命令ストリーム・複数データストリーム(「SIMD(single instruction stream, multiple data stream)」)アーキテクチャに分類できる。
ニューラル処理要素105Fは、脳における生体神経処理要素を大まかにモデル化するために使用されるニューラルネットワーク内の基本ユニットである。特に、ニューラル処理要素105Fは、適用される活性化関数で、バイアスに加算された重みベクトルを有する入力ベクトルの内積を計算できる。
DNNプロセッサ112内の各ニューラル処理要素105Fは、加重和、最大プーリング、バイパス及び潜在的に他のタイプの演算を実行できる。ニューラル処理要素105Fは、クロックサイクル毎に入力及び重みデータを処理する。各ニューラル処理要素105Fは、DNNプロセッサ112内のカーネルデータの流れを最小化するために、カーネル内の進行に関して全ての他のニューラル処理要素105Fに同期する。
各ニューラル処理要素105Fは、乗算器、加算器、比較器及び多数のアキュムレータ(図1に図示せず)を含むことができる。複数のアキュムレータを有することによって、ニューラル処理要素105Fは、一度に複数の異なるアクティブなカーネルのコンテキストを維持できる。各アキュムレータは、SRAM150(以下に説明する)の読み取りからロードされることができる。アキュムレータは、他のニューラル処理要素105Fからの他のアキュムレータの内容と合計できる。
DNNプロセッサ112は、画像データのような平面データを入力として受け入れる。しかし、DNNプロセッサ112への入力は画像データに限定されない。むしろ、DNNプロセッサ112は、均一な平面フォーマットでDNNプロセッサ112に提示された任意の入力データに対して動作できる。1つの特定の実施形態では、DNNプロセッサ112は、入力として多平面の1バイト又は2バイトのデータフレームを受け入れることができる。
各入力フレームは、N×K×H×Wセットのカーネルで畳み込まれることができ、ここで、Nはカーネル数であり、Kはカーネル当たりのチャネル数であり、Hは高さであり、Wは幅である。畳み込みは、入力データの間で重複した間隔に対して実行され、ここで、間隔はX方向及びY方向のストライドによって定義される。これらの機能は、ニューラル処理要素105Fによって実行され、ソフトウェア可視制御レジスタを介してDNNプロセッサ112によって管理される。限定されるものではないが、全結合、バッチ正規化及び他のタイプの演算を含む他のタイプの演算も実行されてもよい。
DNNプロセッサ112は、複数のデータタイプ、すなわち、重み、入力データ/特徴マップ、活性化データ、バイアス及びスカラをサポートする。ほとんどの場合、入力データ/特徴マップ及び活性化データは、同じデータに対する2つの名称であり、層の出力を参照する場合に活性化データという用語が使用されるという違いがある。層の入力を参照する場合に入力データ/特徴マップという用語が使用される。
DNNプロセッサ112内のニューラル処理要素105Fは、入力の加重和を計算し、「活性化関数(activation function)」又は「伝達関数(transfer function)」を通じて加重和を通過させる。一般的に、伝達関数はシグモイド形状を有するが、区分線形関数、階段関数又は他のタイプの関数の形式になってもよい。活性化関数は、分類境界が非線形である場合にニューラル処理要素105Fがより大きいセットの入力及び所望の出力に対して訓練することを可能にする。
DNNプロセッサ112は、ニューラルネットワークの層に対応する層記述子のリストに対して動作する。層記述子のリストは、DNNプロセッサ112によって命令として扱われることができる。これらの記述子は、メモリからDNNプロセッサ112にプリフェッチされ、順序通りに実行できる。記述子リストは、DNNプロセッサ112への命令のセットとして機能する。いくつかの構成では、2つのタイプの命令、すなわち、層記述子及びシーケンスコントローラ上で実行されるプログラム命令が利用される。DNNプロセッサ112上で実行される記述子リストを作成するために、ソフトウェアツール及び/又はコンパイラがDNNプロセッサ112の外部のデバイス上で実行できる。
一般的に、2つの主なクラスの記述子、すなわち、メモリ間移動(「M2M(memory-to-memory move」)記述子及び演算記述子が存在する。M2M記述子は、演算記述子による利用のために、メインメモリとローカルバッファ(すなわち、以下に説明するバッファ125)との間でデータを移動するために使用できる。M2M記述子は、演算記述子と異なる実行パイプラインに従う。M2M記述子のターゲットパイプラインは、内部DMAエンジン105B又は構成レジスタ105Gとすることができるが、演算記述子のターゲットパイプラインは、ニューラル処理要素105Fとすることができる。
演算記述子は、ニューラル処理要素105Fがローカルスタティックランダムアクセスメモリ(「SRAM(static random-access memory)」)に位置するデータ構造に対して実行するべき特定の演算を指定する。演算記述子は、順序通りに処理され、多くの異なる層の演算を可能にし、そのうちの少なくともいくつかがここに記載される。
図1に示すように、DNNプロセッサ112は、固有のL1及びL2バッファ構造を有するメモリサブシステムを有する。図1に示すL1及びL2バッファは、特にニューラルネットワーク処理のために設計されている。例として、L2バッファ150は、選択された周波数で動作する高速プライベートインタフェースによって、選択された記憶容量を維持できる。L1バッファ125は、カーネルと活性化データとの間で分割できる選択された記憶容量を維持できる。L1バッファ125は、ここでは「バッファ125」と呼ばれてもよく、L2バッファ150は、ここではSRAM150と呼ばれてもよい。
いくつかの実施形態では、計算データ(すなわち、入力データ、重み及び活性化データ)は、SRAM150の主要行に格納される。計算データは、2つのバッファとして組織化でき、一方のバッファは入力データを含み、ここでは「入力バッファ」と呼ばれてもよく、他方のバッファはカーネル重みを含み、ここでは「重みバッファ」と呼ばれてもよい。バッファは、ロード/記憶ユニット105CによってSRAM150から充填される。データは、所定の容量に到達するまで、各バッファに蓄積される。いくつかの実施形態では、次いで、バッファデータはシャドウバッファにコピーされ、ニューラル処理要素105Fに提示される。
DNNプロセッサ112はまた、レジスタインタフェース105G、プリフェッチユニット105A、セーブ/復旧ユニット105E、層コントローラ105D、及びレジスタインタフェース105Gを含むが、これらに限定されない、多数の他のコンポーネントを含むことができる。いくつかの実施形態では、DNNプロセッサ112は、更なるコンポーネント又は代替のコンポーネントを含むことができる。
いくつかの構成では、DNNプロセッサ112は、他の外部コンピューティングコンポーネントと共に動作する。例えば、いくつかの実施形態では、DNNプロセッサ112は、ホストアプリケーションプロセッサのシステム・オン・チップ(「ホストSoC」)130に接続される。DNNプロセッサ112は、例えばPCIeインタフェースを通じてホストSoC130に接続できる。これらの接続を可能にするために、PCIeエンドポイント135のような適切なPCIeコンポーネントが利用できる。
ホストSoC130は、DNNプロセッサ112のアプリケーションプロセッサとして機能する。メインオペレーティングシステム、アプリケーション及び補助センサ処理は、ホストSoC130によって実行される。ホストSoC130はまた、画像データのような入力データをDNNプロセッサ112に提供する外部カメラのような入力データソース102に接続できる。TENSILICAノード140のような更なる中央処理装置(「CPU」又は「プロセッサ」)もまた、DNNプロセッサ112の動作を調整するために利用でき、その態様について以下に説明する。
DDR DRAM155はまた、メインシステムメモリとして使用できるホストSoC130に接続できる。このメモリは、メモリコントローラ145によって、ホストSoC130から広帯域幅ファブリック120(例えば、PCIeバス)を横切ってアクセス可能である。広帯域幅ファブリック120は、双方向のダイレクトメモリアクセス(「DMA(directional direct memory access)」)のスモールメッセージングトランザクション及びより大きいDMAトランザクションを提供する。ブリッジ115及び低帯域幅ファブリック110は、サブモジュール構成及び他の機能のために、DNNプロセッサ112をホストSoC130に接続できる。
DNNプロセッサ112は、メインメモリ155との間でデータを移動させるように構成されたDMAエンジン105Bを含むことができる。いくつかの実施形態では、DMAエンジン105Bは2つのチャネルを有する。一方のチャネルは演算記述子のフェッチに専用であり、他方のチャネルはM2M演算に専用である。DMA記述子はM2M記述子に埋め込まれることができる。この文脈における記述子は、上記の演算記述子と混同されないように、メモリの内容を移動させるために使用されるDMA記述子である。
ローカルSRAMメモリ150をオフロードし、入力データ及び重みデータのためのより多くの空間を提供するために、活性化出力は、任意選択でDDRメモリ155に直接ストリーミングできる。データをDDRメモリ155にストリーミングする場合、DNNプロセッサ112は、広帯域幅ファブリック120上のバーストトランザクションのために十分なデータを蓄積し、ニューラル処理要素105Fに対するバックプレッシャーを最小化するために十分なトランザクションをバッファする。DNNプロセッサ112の動作に関する更なる詳細は、以下に提供される。
DNNプロセッサ112の動作に関する更なる詳細は、以下に提供される。特に、ニューラル処理要素105Fの構成及び動作に関する詳細は、図2及び図3に関して以下に提供される。
図2は、高精度計算のために構成されたニューラル処理要素105Fの構成及び動作の態様を示すコンピューティングアーキテクチャ図である。簡単に上記に説明したように、ここに開示のニューラル処理要素105Fのアーキテクチャは、特定のタイプのDNN層によって生成されたオペランドを処理する場合に、より高い精度の計算を可能にする。
簡単に上記に説明したように、ニューラル処理要素105Fは、入力としてオペランド202A及び202B(「オペランド202」と呼ばれてもよい)をとる。オペランド202は、Nビットの符号付き又は符号なし2進数とすることができ、ここで、Nは2のべき乗である。例えば、ある特定の実装では、オペランド202は、符号付き又は符号なしの8ビット2進数である。他の実装では、オペランド202は、異なるビット数を使用して表現できる。
また、簡単に上記に説明したように、オペランド202がDNNのReLU層によって生成される場合のような特定の状況では、ニューラル処理要素105Fは、オペランド202をNビットからN+1ビットに拡張できる。典型的には、ReLU層によって出力された符号付きNビット値は、符号のために1ビットが確保されるので、N-1ビットのみを使用する(8ビットが使用される場合、-127から+128の値を表す)。しかし、開示の技術を使用すると、ニューラル処理要素105Fは、その内部計算において、ReLU層によって生成されたオペランド202の全てのNビットを利用できる(8ビットが使用される場合、0~255の値を表す)。
以下に説明する方式でオペランドがNビットからN+1ビットに拡張されると、ニューラル処理要素105Fは、拡張されたオペランドのN+1ビットに対して動作でき、それによって、ニューラル処理要素105FがNビットのみを使用してその内部計算を実行するアーキテクチャと比較して、高精度を提供する。ここに具体的に記載されていない他の技術的利点も、開示の対象物の実施を通じて実現できる。
ここに開示の機能を提供するために、DNNプロセッサ112のニューラル処理要素105Fは、とりわけ、ハードウェアANDゲート206A及び206Bを含む。ハードウェアANDゲート206Aは、バイナリ信号208A(ここでは「符号拡張信号208A」と呼ばれてもよい)とオペランド202AのMSBとの間で論理AND演算を実行するように構成される。ハードウェアANDゲート206Bは、バイナリ信号208B(ここでは「符号拡張信号208B」と呼ばれてもよい)とオペランド202BのMSBとの間で論理AND演算を実行するように構成される。いくつかの構成では、符号拡張信号208は1ビット2進数である。
図2に示す例では、オペランド202A及び202Bは、8ビット2進数である。したがって、ハードウェアANDゲート206Aは、符号拡張信号208Aとオペランド202Aのビット7との間の論理AND演算を実行するように構成される。同様に、ハードウェアANDゲート206Bは、符号拡張信号208Bとオペランド202Bのビット7との間の論理AND演算を実行するように構成される。
簡単に上記に説明したように、符号拡張信号208の状態は、DNNプロセッサ112によって前に処理されたDNNの層のタイプに基づいて設定できる。特に、符号拡張信号208Aは、オペランド202AがDNNのReLU層によって生成される場合のように、オペランド202Aが符号なしである場合、論理FALSEに設定できる。同様に、符号拡張信号208Bは、DNNのReLU層によって生成される場合のように、オペランド202Bが符号なしである場合、論理FALSEに設定できる。ニューラル処理要素105Fはまた、オペランド202が正の値のみをとることができるDNN層によって生成される場合、符号拡張信号208を論理FALSEに設定してもよい。
一般的に、符号拡張信号208は、DNNの直前に処理された層に適用された活性化関数のタイプ(すなわち、非線形性)に基づいて設定できる。DNNの前の層に適用された非線形性を識別する情報は、符号拡張信号208を設定するために、現在の層の処理中に提供される。いくつかの構成では、ユーザは、符号拡張信号208が論理TRUE又は論理FALSEであるべき特定の活性化関数を指定できる。
符号拡張信号208がTRUEである場合、ニューラル処理要素105Fは符号拡張演算を実行する。これは、DNNの前の層が符号付き出力を生成するTanh(「双曲線正接」)層である場合に生じる可能性がある。
符号拡張演算を実行するために、ニューラル処理要素はまた、連結回路204A及び204B(ここでは「連結器204A又は204B」と呼ばれてもよい)を含む。連結器204A及び204Bは、2つのバイナリ値を連結するように構成された回路である。
連結器204Aは、ハードウェアANDゲート206Aの1ビット出力とオペランド202Aとを連結し、それによって、オペランドをNビット値からN+1ビット値に拡張する。同様に、連結器204Bは、ハードウェアANDゲート206Bの1ビット出力とオペランド202Bとを連結し、それによって、オペランドをNビット値からN+1ビット値に拡張する。オペランド202が8ビット2進数である構成では、例えば、図2に示すように、連結器204の出力は9ビットの符号付き2進数である。
連結器204A及び204Bの符号付き出力210A及び符号付き出力210Bは、それぞれハードウェアバイナリ乗算器212に伝達される。ハードウェアバイナリ乗算器212は、2つの2進数、この場合には出力210A及び210Bを乗算するように構成された回路である。図2に示す例では、出力210は9ビットの符号付き2進数であり、ハードウェアバイナリ乗算器212の出力214は18ビットの符号付き2進数である。乗算器212の出力214は、更なる処理のために、ニューラル処理要素105F内の他のコンポーネントに提供できる。
図3Aは、開示の技術を使用して構成されたニューラル処理要素105Fの動作の例示的な例を示すデータ図である。この例では、オペランド202Aは、DNNのReLU層によって出力されたもののような、8ビット符号なし2進数である。この例では、オペランドが符号なしであるので、符号拡張信号208Aは論理FALSE(すなわち、例示の例では0)に設定される。したがって、ANDゲート206Aの出力210Aは、オペランド202Aのビット7の値にかかわらず0である。
上記のように、ANDゲート206Aの出力(すなわち、0)は、オペレータ202Aと連結される(すなわち、前に付加される)。例示の例では、例えば、ANDゲート206Aの出力210Aは、オペランド202Aと連結され、それによって、8ビットオペランド202Aを9ビット符号付き2進数に変換する。このように、オペランド204Aのビット0からビット7は、2進数(例えば、0~255の値を有する正の数)を表すために使用できる。9ビット符号付き出力210Aは乗算器212に提供される。
図3Bは、開示の技術を使用して構成されたニューラル処理要素105Fの動作の他の例示的な例を示すデータ図である。図3Bに示すオペランド202Aは、図3Aに示す上記の例に示すオペランドと同じである。しかし、この例では、符号拡張信号208Aは論理TRUE(すなわち、例示的な例では1)に設定される。したがって、ANDゲート206Aの出力210Aは、オペランド202Aのビット7(すなわち、MSB)が1である場合に1であり、オペランド202Aのビット7(すなわち、MSB)が0である場合に0である。
上記のように、ANDゲート206Aの出力は、オペランド202Aと連結される(すなわち、前に付加される)。例示の例では、例えば、オペランド202Aに第8ビットが追加される。オペランド202Aのビット7の値が1である場合、第8ビットの値は1に設定される(出力210A'として図3Bに示される)。演算202Aのビット7の値が0である場合、第8ビットの値は0に設定される(図3Bに210A''として示される)。このように、符号ビットの値は、正又は負となり得る符号付きオペランド202に対して保持できる。9ビット符号付き出力210Aは、上記の方式で使用するために乗算器212に提供される。図3A及び図3Bは、8ビットオペランドに関して図示されているが、同じ演算が、他のビット数を有するオペランドにも適用可能であることが認識されるべきである。
図4は、ここに開示の一実施形態に従って、図1~図3Bを参照して上記に説明した高精度向けに構成されたニューラル処理要素105Fの動作の態様を示すルーチン400を示すフロー図である。図4及び他の図面に関してここに説明する論理演算は、(1)コンピュータで実施される動作のシーケンス又はコンピューティングデバイス上で実行するプログラムモジュールとして、及び/又は(2)コンピューティングデバイス内の相互接続された機械論理回路又は回路モジュールとして、実装できることが認識されるべきである。
ここに開示の技術の特定の実装は、コンピューティングデバイスの性能及び他の要件に依存する選択事項である。したがって、ここに記載の論理演算は、状態、演算、構造デバイス、動作又はモジュールとして様々に言及される。これらの状態、演算、構造デバイス、動作及びモジュールは、ハードウェア、ソフトウェア、ファームウェア、特殊目的のデジタルロジック及びこれらのいずれかの組み合わせで実現できる。図面に示してここに記載のものよりも多くの動作又は少ない動作が実行されてもよいことが認識されるべきである。これらの動作は、ここに記載のものと異なる順序で実行できる。
ルーチン400は、動作402で始まり、符号付き又は符号なしバイナリオペランド202が受信される。上記のように、オペランド202は、1つの特定の実装では8ビットであるが、他の構成では他のビット数を使用して表現されてもよい。
ルーチン400は動作402から動作404に進み、ANDゲート206はオペランド202のMSB及び符号拡張信号208に対して論理AND演算を実行する。上記のように、一実施形態では、符号拡張信号208は、単一ビット信号である。符号拡張信号208は、符号拡張演算が動作402において受信されたオペランド202に対して実行されるか否かを示す。
ルーチン400は動作404から動作406に進み、新たなMSBがNビットオペランド202に追加され、N+1ビット符号付きバイナリ値210を作成する。次いで、ルーチン400は動作408に進み、動作404において実行された論理AND演算の結果は、N+1ビット符号付きの値210の新たなMSBに格納される。上記のように、いくつかの実施態様において、これらの動作は連結して実行される。
ルーチン400は動作408から動作410に進み、連結器204は9ビット符号付きの値を乗算器212に伝達する。次いで、ルーチン400は動作402に戻り、更なるオペランド202が上記の方式で処理できる。
図5は、ここに示すDNNプロセッサ112のアプリケーションホストとして機能できるコンピューティングデバイスのための例示的なコンピュータハードウェア及びソフトウェアアーキテクチャを示すコンピュータアーキテクチャ図である。特に、図5に示すアーキテクチャは、サーバコンピュータ、携帯電話、電子リーダ、スマートフォン、デスクトップコンピュータ、AR/VRデバイス、タブレットコンピュータ、ラップトップコンピュータ、又はDNNプロセッサ112での使用に適した他のタイプのコンピューティングデバイスを実装するために利用できる。
図5に示すコンピュータ500は、中央処理装置502(「CPU」)と、ランダムアクセスメモリ(「RAM」)506及び読み取り専用メモリ(「RO<」)508を含むシステムメモリ504と、メモリ504をCPU502に結合するシステムバス510とを含む。起動中のようなコンピュータ500内の要素の間で情報を転送するのを支援する基本ルーチンを含む基本入出力システム(「BIOS」又は「ファームウェア」)がROM508に記憶できる。コンピュータ500は、オペレーティングシステム522、アプリケーションプログラム及び他のタイプのプログラムを記憶するための大容量記憶デバイス512を更に含む。大容量記憶デバイス512はまた、他のタイプのプログラム及びデータを記憶するように構成できる。
大容量記憶デバイス512は、バス510に接続された大容量記憶コントローラ(図示せず)を通じてCPU502に接続される。大容量記憶デバイス512及びその関連するコンピュータ読み取り可能媒体は、コンピュータ500のための不揮発性ストレージを提供する。ここに含まれるコンピュータ読み取り可能媒体の説明は、ハードディスク、CD-ROMドライブ、DVD-ROMドライブ又はUSB記憶キーのような大容量記憶デバイスを示すが、コンピュータ読み取り可能媒体は、コンピュータ500によってアクセスできるいずれかの利用可能なコンピュータ記憶媒体又は通信媒体とすることができることは、当業者によって認識されるべきである。
通信媒体は、コンピュータ読み取り可能命令、データ構造、プログラムモジュール、又は搬送波若しくは他の転送機構のような変調データ信号内の他のデータを含み、いずれかの配信媒体を含む。「変調データ信号」という用語は、信号内の情報を符号化するような方式で、その特性の1つ以上を変化又は設定させる信号を意味する。限定ではなく一例として、通信媒体は、有線ネットワーク又は直接有線接続のような有線媒体と、音響、無線周波数、赤外線及び他の無線媒体のような無線媒体とを含む。上記のいずれかの組み合わせも、コンピュータ読み取り可能媒体の範囲内に含まれるべきである。
限定ではなく一例として、コンピュータ記憶媒体は、コンピュータ読み取り可能命令、データ構造、プログラムモジュール又は他のデータのような情報の記憶のためのいずれかの方法又は技術で実装される揮発性及び不揮発性、取り外し可能及び取り外し不可能媒体を含むことができる。例えば、コンピュータ記憶媒体は、RAM、ROM、EPROM、EEPROM、フラッシュメモリ若しくは他のソリッドステートメモリ技術、CD-ROM、デジタル多用途ディスク(「DVD」)、HD-DVD、BLU-RAY若しくは他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ若しくは他の磁気記憶デバイス、又は所望の情報を記憶するために使用でき且つコンピュータ500によってアクセスできるいずれかの他の媒体を含むが、これらに限定されない。
様々な構成によれば、コンピュータ500は、ネットワーク520のようなネットワークを通じてリモートコンピュータへの論理接続を使用して、ネットワーク接続環境で動作できる。コンピュータ500は、バス510に接続されたネットワークインタフェースユニット516を通じてネットワーク520に接続できる。ネットワークインタフェースユニット516はまた、他のタイプのネットワーク及びリモートコンピュータシステムに接続するために利用できることが認識されるべきである。コンピュータ500はまた、キーボード、マウス、タッチ入力、電子スタイラス(図5に図示せず)、又はビデオカメラのような物理センサを含む、多数の他のデバイスからの入力を受信及び処理するための入出力コントローラ518を含むことができる。同様に、入出力コントローラ518は、ディスプレイスクリーン又は他のタイプの出力デバイス(図5に図示せず)に出力を提供できる。
ここに記載のソフトウェアコンポーネントは、CPU502にロードされて実行されると、CPU502及び全体のコンピュータ500を、汎用コンピューティングデバイスから、ここに提示される機能を実現するようにカスタマイズされた専用コンピューティングデバイスに変換できることが認識されるべきである。CPU502は、いずれかの数のトランジスタ又は他のディスクリート回路素子から構成でき、これらは、個別に或いは併せていずれかの数の状態を仮定できる。より具体的には、CPU502は、ここに開示のソフトウェアモジュール内に含まれる実行可能命令に応じて、有限状態マシンとして動作できる。これらのコンピュータ実行可能命令は、どのようにCPU502が状態の間で遷移するかを指定することによってCPU502を変換し、それによって、CPU502を構成するトランジスタ又は他の個別のハードウェア素子を変換することができる。
ここに提示されるソフトウェアモジュールを符号化することはまた、ここに提示されるコンピュータ読み取り可能媒体の物理構造を変換できる。この説明の異なる実装において、物理構造の具体的な変換は、様々な要因に依存する。このような要因の例は、コンピュータ読み取り可能媒体を実装するために使用される技術、コンピュータ読み取り可能媒体が一次ストレージとして特徴付けられるか二次ストレージとして特徴付けられるか等を含むが、これらに限定されない。例えば、コンピュータ読み取り可能媒体が半導体ベースのメモリとして実装される場合、ここに開示されるソフトウェアは、半導体メモリの物理状態を変換することによって、コンピュータ読み取り可能媒体に符号化できる。例えば、ソフトウェアは、半導体メモリを構成するトランジスタ、コンデンサ又は他のディスクリート回路素子の状態を変換できる。ソフトウェアはまた、データを記憶するために、このようなコンポーネントの物理状態を変換できる。
他の例として、ここに開示されるコンピュータ読み取り可能媒体は、磁気又は光技術を使用して実装できる。このような実装では、ここに提示されるソフトウェアは、ソフトウェアが符号化されるとき、磁気媒体又は光媒体の物理状態を変換できる。これらの変換は、所与の磁気媒体内の特定の位置の磁気特性を変更することを含むことができる。これらの変換はまた、所与の光媒体内の特定の位置の物理特徴又は特性を変更して、これらの位置の光学特性を変更することを含むことができる。物理媒体の他の変換は、本記載の範囲及び真意から逸脱することなく可能であり、上記の実施例は、この説明を容易にするためにのみ提供される。
上記の観点から、ここに提示されるソフトウェアコンポーネントを記憶して実行するために、コンピュータ500内で多くのタイプの物理変換が行われることが認識されるべきである。コンピュータ500について図5に示すアーキテクチャ、又は同様のアーキテクチャは、ハンドヘルドコンピュータ、ビデオゲームデバイス、組み込みコンピュータシステム、スマートフォン、タブレット及びAR/VRデバイスのようなモバイルデバイス、並びに当業者に既知の他のタイプのコンピューティングデバイスを含む、他のタイプのコンピューティングデバイスを実装するために利用できることも認識されるべきである。また、コンピュータ500は、図5に示すコンポーネントの全てを含まなくてもよく、図5に明示的に示されていない他のコンポーネントを含むこともでき、或いは、図5に示すものとは全く異なるアーキテクチャを利用することもできる。
図6は、ここに提示される様々な実施形態に従って、開示の技術の態様が実装できる分散ネットワークコンピューティング環境600を示すネットワーク図である。図6に示すように、1つ以上のサーバコンピュータ600Aは、限定されるものではないが、タブレットコンピュータ600B、ゲームコンソール600C、スマートウォッチ600D、スマートフォンのような電話600E、パーソナルコンピュータ600F及びAR/VR装置600Gのような、多数のクライアントコンピューティングデバイスと、通信ネットワーク520(固定有線又若しくは無線LAN、WAN、イントラネット、エクストラネット、ピアツーピアネットワーク、仮想プライベートネットワーク、インターネット、ブルートゥース通信ネットワーク、独自仕様の低電圧通信ネットワーク若しくは他の通信ネットワークのいずれか、又はこれらの組み合わせでもよい)を介して相互接続できる。
例えば、通信ネットワーク520がインターネットであるネットワーク環境において、サーバコンピュータ600Aは、ハイパーテキスト転送プロトコル(「HTTP(hypertext transfer protocol)」)、ファイル転送プロトコル(「FTP(file transfer protocol)」)又はシンプルオブジェクトアクセスプロトコル(「SOAP(simple object access protocol)」)のような多数の既知のプロトコルのうちいずれかを介して、クライアントコンピューティングデバイス600B~600Gとの間でデータを処理及び通信するように動作可能な専用サーバコンピュータとすることができる。さらに、ネットワーク接続コンピュータ環境600は、セキュアソケットレイヤ(「SSL(secured socket layer)」)又はプリティグッドプライバシー(「PGP(pretty good privacy)」)のような様々なデータセキュリティプロトコルを利用できる。クライアントコンピューティングデバイス600B~600Gのそれぞれは、サーバコンピュータ600Aへのアクセスを得るために、ウェブブラウザのような1つ以上のコンピューティングアプリケーション若しくは端末セッションをサポートするように動作可能なオペレーティングシステム、又は他のグラフィカルユーザインターフェース(図6に図示せず)、又はモバイルデスクトップ環境(図6に図示せず)を備えることができる。
サーバコンピュータ600Aは、他のコンピューティング環境(図6に図示せず)に通信可能に結合でき、参加ユーザの相互作用/リソースネットワークに関するデータを受信できる。例示的な動作において、ユーザ(図6に図示せず)は、所望のデータを取得するために、及び/又は他のコンピューティングアプリケーションを実行するために、クライアントコンピューティングデバイス600B~600G上で実行するコンピューティングアプリケーションと相互作用してもよい。
データ及び/又はコンピューティングアプリケーションは、サーバ600A又は複数のサーバ600Aに記憶され、例示的な通信ネットワーク620上でクライアントコンピューティングデバイス600B~600Gを通じて協働するユーザに通信されてもよい。参加ユーザ(図6に図示せず)は、サーバコンピュータ600A上に全体的に或いは部分的に収容された特定のデータ及びアプリケーションへのアクセスを要求してもよい。これらのデータは、処理及び記憶のために、クライアントコンピューティングデバイス600B~600Gとサーバコンピュータ600Aとの間で通信されてもよい。
サーバコンピュータ600Aは、データ及びアプリケーションの生成、認証、暗号化及び通信のためのコンピューティングアプリケーション、プロセス及びアプレットをホストすることができ、アプリケーション/データトランザクションを実現するために、他のサーバコンピューティング環境(図6に図示せず)、第三者サービスプロバイダ(図6に図示せず)、ネットワーク接続ストレージ(「NAS(network attached storage)」)及びストレージエリアネットワーク(「SAN(storage area network)」)と協働してもよい。
図5に示すコンピューティングアーキテクチャ及び図6に示す分散ネットワークコンピューティング環境は、説明を容易にするために簡略化されていることが認識されるべきである。また、コンピューティングアーキテクチャ及び分散コンピューティングネットワークは、より多くのコンピューティングコンポーネント、デバイス、ソフトウェアプログラム、ネットワーキングデバイス、及びここに具体的に記載されていない他のコンポーネントを含んでこれらを利用できることも認識されるべきである。
ここに提示される開示は、以下の項目に記載される対象物も含む。
項目1.複数のニューラル処理要素を含むディープニューラルネットワーク(DNN)プロセッサであって、前記複数のニューラル処理要素のそれぞれは、第1の符号拡張信号と第1のオペランド202Aの最上位ビット(MSB)との間で論理AND演算を実行するように構成された第1のハードウェアANDゲートと、前記第1のハードウェアANDゲートの出力と前記第1のオペランドとを連結し、第1の出力をハードウェアバイナリ乗算器に提供するように構成された第1の連結器と、第2の符号拡張信号と第2のオペランドのMSBとの間で論理AND演算を実行するように構成された第2のハードウェアANDゲートと、前記第2のハードウェアANDゲートの出力と前記第2のオペランドとを連結し、第2の出力を前記ハードウェアバイナリ乗算器に提供するように構成された第2の連結器とを含む、ディープニューラルネットワークプロセッサ。
項目2.前記第1のオペランド及び前記第2のオペランドは、符号付き又は符号なし8ビット2進数を含む、項目1に記載のディープニューラルネットワークプロセッサ。
項目3.前記第1の出力及び前記第2の出力は、9ビット符号付き2進数を含む、項目1又は2のいずれかに記載のディープニューラルネットワークプロセッサ。
項目4.前記ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、項目1乃至3のいずれかに記載のディープニューラルネットワークプロセッサ。
項目5.前記第1のオペランドの前記MSBは、8ビット符号付き又は符号なし2進数のビット7を含む、項目1乃至4のいずれかに記載のディープニューラルネットワークプロセッサ。
項目6.前記第2オペランドの前記MSBは、8ビット符号付き又は符号なし2進数のビット7を含む、項目1乃至5のいずれかに記載のディープニューラルネットワークプロセッサ。
項目7.前記第1の符号拡張信号又は前記第2の符号拡張信号の状態は、前記DNNプロセッサによって前に処理されたDNNの層のタイプに基づく、項目1乃至6のいずれかに記載のディープニューラルネットワークプロセッサ。
項目8.前記DNNプロセッサによって前に処理された前記DNNの前記層は、ReLU層を含む、項目1乃至7のいずれかに記載のディープニューラルネットワークプロセッサ。
項目9.コンピュータ実施方法であって、第1の符号拡張信号と第1のオペランドの最上位ビット(MSB)との間で論理AND演算を実行するステップと、第1のハードウェアANDゲートの出力と前記第1のオペランドとを連結するステップと、前記第1のハードウェアANDゲートの前記出力と前記第1のオペランドとの連結の結果をハードウェアバイナリ乗算器に伝達するステップとを含むコンピュータ実施方法。
項目10.第2の符号拡張信号と第2のオペランドのMSBとの間で論理AND演算を実行するステップと、第2のハードウェアANDゲートの出力と前記第2のオペランドとを連結するステップと、前記第2のハードウェアANDゲートと前記第2のオペランドとの連結の結果を前記ハードウェアバイナリ乗算器に伝達するステップとを更に含む、項目9に記載のコンピュータ実施方法。
項目11.前記第1のオペランド及び前記第2のオペランドは、符号付き又は符号なし8ビット2進数を含む、項目9又は10のいずれかに記載のコンピュータ実施方法。
項目12.前記第1のハードウェアANDゲートの前記出力と前記第1のオペランドとの前記連結の前記結果、及び前記第2のハードウェアANDゲートと前記第2のオペランドとの前記連結の前記結果は、9ビット符号付き2進数を含む、項目9又は11のいずれかに記載のコンピュータ実施方法。
項目13.前記ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、項目9乃至12のいずれかに記載のコンピュータ実施方法。
項目14.前記第1の符号拡張信号又は前記第2の符号拡張信号の状態は、ディープニューラルネットワーク(DNN)プロセッサによって前に処理されたDNNの層のタイプに基づく、項目9乃至13のいずれかに記載のコンピュータ実施方法。
項目15.前記DNNプロセッサによって前に処理された前記DNNの前記層は、ReLU層を含む、項目9乃至14のいずれかに記載のコンピュータ実施方法。
項目16.複数のニューラル処理要素を含むディープニューラルネットワーク(DNN)プロセッサであって、前記ニューラル処理要素のそれぞれは、符号付きバイナリ8ビットオペランド又は符号なし8ビットオペランドを含む8ビットオペランドを受信し、前記8ビットオペランドの最上位ビット(MSB)と、符号拡張演算が前記8ビットオペランドに対して実行されるべきか否かを示すバイナリ信号とに対して論理AND演算を実行し、前記8ビットオペランドに新たなMSBを追加して9ビット符号付きバイナリ値を作成し、前記論理AND演算の結果を前記9ビット符号付きの値の前記新たなMSBに格納し、前記9ビット符号付きの値を乗算器に伝達するように構成される、DNNプロセッサ。
項目17.前記複数のニューラル処理要素は、符号付きバイナリ8ビットオペランド又は符号なし8ビットオペランドを含む第2の8ビットオペランドを受信し、前記第2の8ビットオペランドの最上位ビット(MSB)と、符号拡張演算が前記第2の8ビットオペランドに対して実行されるべきか否かを示す第2のバイナリ信号とに対して論理AND演算を実行し、前記第2の8ビットオペランドに新たなMSBを追加して第2の9ビット符号付きバイナリ値を作成し、前記論理AND演算の結果を前記第2の9ビット符号付きの値の前記新たなMSBに格納し、前記第2の9ビット符号付きの値を前記乗算器に伝達するように更に構成される、項目16に記載のDNNプロセッサ。
項目18.前記ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、項目16又は17のいずれかに記載のDNNプロセッサ。
項目19.前記バイナリ信号の状態は、前記DNNプロセッサによって前に処理されたDNNの層のタイプに基づく、項目16乃至18のいずれかに記載のDNNプロセッサ。
項目20.符号拡張演算が前記8ビットオペランドに対して実行されるべきか否かを示す前記バイナリ信号は、前記DNNプロセッサによって前に処理されたDNNの層において適用される非線形性に基づいて設定される、項目16乃至19のいずれかに記載のDNNプロセッサ。
上記に基づいて、高精度を提供できるニューラル処理要素がここに開示されることが認識されるべきである。ここに提示される対象物は、コンピュータ構造の特徴、方法論的及び変換的動作、特定のコンピューティング機、及びコンピュータ読み取り可能媒体に特有の言語で記載されているが、添付の請求項に記載の対象物は、必ずしもここに記載された特定の特徴、動作又は媒体に限定されないことが理解されるべきである。むしろ、特定の特徴、動作及び媒体は、特許請求の範囲の対象物を実施するための例示の形式として開示される。
上述の対象物は、例示としてのみ提供されており、限定として解釈されるべきではない。図示及び記載の例示的な構成及び用途に従うことなく、また、以下の特許請求の範囲に記載の本開示の範囲から逸脱することなく、ここに記載される対象物に対して様々な修正及び変更が行われることができる。
Claims (15)
- 複数のニューラル処理要素を含むディープニューラルネットワーク(DNN)プロセッサであって、
前記複数のニューラル処理要素のそれぞれは、
第1の符号拡張信号と第1のオペランドの最上位ビット(MSB)との間で論理AND演算を実行するように構成された第1のハードウェアANDゲートと、
前記第1のハードウェアANDゲートの出力と前記第1のオペランドとを連結し、第1の出力をハードウェアバイナリ乗算器に提供するように構成された第1の連結器と、
第2の符号拡張信号と第2のオペランドのMSBとの間で論理AND演算を実行するように構成された第2のハードウェアANDゲートと、
前記第2のハードウェアANDゲートの出力と前記第2のオペランドとを連結し、第2の出力を前記ハードウェアバイナリ乗算器に提供するように構成された第2の連結器と
を含む、ディープニューラルネットワークプロセッサ。 - 前記第1のオペランド及び前記第2のオペランドは、符号付き又は符号なし8ビット2進数を含む、請求項1に記載のディープニューラルネットワークプロセッサ。
- 前記第1の出力及び前記第2の出力は、9ビット符号付き2進数を含む、請求項1に記載のディープニューラルネットワークプロセッサ。
- 前記ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、請求項1に記載のディープニューラルネットワークプロセッサ。
- 前記第1のオペランドの前記MSBは、8ビット符号付き又は符号なし2進数のビット7を含む、請求項1に記載のディープニューラルネットワークプロセッサ。
- コンピュータ実施方法であって、
第1の符号拡張信号と第1のオペランドの最上位ビット(MSB)との間で論理AND演算を実行するステップと、
第1のハードウェアANDゲートの出力と前記第1のオペランドとを連結するステップと、
前記第1のハードウェアANDゲートの前記出力と前記第1のオペランドとの連結の結果をハードウェアバイナリ乗算器に伝達するステップと
を含むコンピュータ実施方法。 - 第2の符号拡張信号と第2のオペランドのMSBとの間で論理AND演算を実行するステップと、
第2のハードウェアANDゲートの出力と前記第2のオペランドとを連結するステップと、
前記第2のハードウェアANDゲートと前記第2のオペランドとの連結の結果を前記ハードウェアバイナリ乗算器に伝達するステップと
を更に含む、請求項6に記載のコンピュータ実施方法。 - 前記第1のオペランド及び第2のオペランドは、符号付き又は符号なし8ビット2進数を含む、請求項6に記載のコンピュータ実施方法。
- 前記第1のハードウェアANDゲートの前記出力と前記第1のオペランドとの前記連結の前記結果、及び第2のハードウェアANDゲートと前記第2のオペランドとの前記連結の前記結果は、9ビット符号付き2進数を含む、請求項8に記載のコンピュータ実施方法。
- 前記ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、請求項9に記載のコンピュータ実施方法。
- 複数のニューラル処理要素を含むディープニューラルネットワーク(DNN)プロセッサであって、
前記ニューラル処理要素のそれぞれは、
符号付きバイナリ8ビットオペランド又は符号なし8ビットオペランドを含む8ビットオペランドを受信し、
前記8ビットオペランドの最上位ビット(MSB)と、符号拡張演算が前記8ビットオペランドに対して実行されるべきか否かを示すバイナリ信号とに対して論理AND演算を実行し、
前記8ビットオペランドに新たなMSBを追加して9ビット符号付きバイナリ値を作成し、
前記論理AND演算の結果を前記9ビット符号付きの値の前記新たなMSBに格納し、
前記9ビット符号付きの値を乗算器に伝達するように構成される、DNNプロセッサ。 - 前記複数のニューラル処理要素は、
符号付きバイナリ8ビットオペランド又は符号なし8ビットオペランドを含む第2の8ビットオペランドを受信し、
前記第2の8ビットオペランドの最上位ビット(MSB)と、符号拡張演算が前記第2の8ビットオペランドに対して実行されるべきか否かを示す第2のバイナリ信号とに対して論理AND演算を実行し、
前記第2の8ビットオペランドに新たなMSBを追加して第2の9ビット符号付きバイナリ値を作成し、前記論理AND演算の結果を前記第2の9ビット符号付きの値の前記新たなMSBに格納し、
前記第2の9ビット符号付きの値を前記乗算器に伝達するように更に構成される、請求項11に記載のDNNプロセッサ。 - ハードウェアバイナリ乗算器の出力は、符号付き18ビット2進数を含む、請求項12に記載のDNNプロセッサ。
- 前記バイナリ信号の状態は、前記DNNプロセッサによって前に処理されたDNNの層のタイプに基づく、請求項13に記載のDNNプロセッサ。
- 前記DNNプロセッサによって前に処理された前記DNNの前記層は、Tanh層を含む、請求項14に記載のDNNプロセッサ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/457,828 | 2019-06-28 | ||
US16/457,828 US11604972B2 (en) | 2019-06-28 | 2019-06-28 | Increased precision neural processing element |
PCT/US2020/032399 WO2020263439A1 (en) | 2019-06-28 | 2020-05-11 | Increased precision neural processing element |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022539554A true JP2022539554A (ja) | 2022-09-12 |
Family
ID=70857295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021577355A Pending JP2022539554A (ja) | 2019-06-28 | 2020-05-11 | 高精度のニューラル処理要素 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11604972B2 (ja) |
EP (1) | EP3991023A1 (ja) |
JP (1) | JP2022539554A (ja) |
KR (1) | KR20220022480A (ja) |
CN (1) | CN114008584A (ja) |
WO (1) | WO2020263439A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102412872B1 (ko) * | 2021-06-17 | 2022-06-27 | 리벨리온 주식회사 | 프로세싱 엘리먼트, 이의 동작 방법, 및 이를 포함하는 가속기 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572235A (en) | 1992-11-02 | 1996-11-05 | The 3Do Company | Method and apparatus for processing image data |
US5717947A (en) | 1993-03-31 | 1998-02-10 | Motorola, Inc. | Data processing system and method thereof |
US5880985A (en) | 1996-10-18 | 1999-03-09 | Intel Corporation | Efficient combined array for 2n bit n bit multiplications |
US6014684A (en) | 1997-03-24 | 2000-01-11 | Intel Corporation | Method and apparatus for performing N bit by 2*N-1 bit signed multiplication |
RU2131145C1 (ru) | 1998-06-16 | 1999-05-27 | Закрытое акционерное общество Научно-технический центр "Модуль" | Нейропроцессор, устройство для вычисления функций насыщения, вычислительное устройство и сумматор |
US6081823A (en) | 1998-06-19 | 2000-06-27 | Ati International Srl | Circuit and method for wrap-around sign extension for signed numbers |
US6421698B1 (en) | 1998-11-04 | 2002-07-16 | Teleman Multimedia, Inc. | Multipurpose processor for motion estimation, pixel processing, and general processing |
US20040010536A1 (en) | 2002-07-11 | 2004-01-15 | International Business Machines Corporation | Apparatus for multiplication of data in two's complement and unsigned magnitude formats |
CN106575379B (zh) | 2014-09-09 | 2019-07-23 | 英特尔公司 | 用于神经网络的改进的定点整型实现方式 |
US10353861B2 (en) | 2015-10-08 | 2019-07-16 | Via Alliance Semiconductor Co., Ltd. | Mechanism for communication between architectural program running on processor and non-architectural program running on execution unit of the processor regarding shared resource |
US11036509B2 (en) | 2015-11-03 | 2021-06-15 | Intel Corporation | Enabling removal and reconstruction of flag operations in a processor |
FR3045892B1 (fr) | 2015-12-21 | 2018-06-22 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Circuit neuronal optimise, architecture et procede pour l'execution des reseaux de neurones. |
KR102459854B1 (ko) | 2016-05-26 | 2022-10-27 | 삼성전자주식회사 | 심층 신경망용 가속기 |
GB2568085B (en) * | 2017-11-03 | 2020-01-01 | Imagination Tech Ltd | Hardware unit for performing matrix multiplication with clock gating |
-
2019
- 2019-06-28 US US16/457,828 patent/US11604972B2/en active Active
-
2020
- 2020-05-11 JP JP2021577355A patent/JP2022539554A/ja active Pending
- 2020-05-11 KR KR1020217038458A patent/KR20220022480A/ko unknown
- 2020-05-11 CN CN202080044133.2A patent/CN114008584A/zh active Pending
- 2020-05-11 WO PCT/US2020/032399 patent/WO2020263439A1/en active Application Filing
- 2020-05-11 EP EP20728650.1A patent/EP3991023A1/en active Pending
-
2023
- 2023-02-24 US US18/174,021 patent/US20230196086A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20220022480A (ko) | 2022-02-25 |
US20230196086A1 (en) | 2023-06-22 |
EP3991023A1 (en) | 2022-05-04 |
CN114008584A (zh) | 2022-02-01 |
US11604972B2 (en) | 2023-03-14 |
US20200410329A1 (en) | 2020-12-31 |
WO2020263439A1 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205118B2 (en) | Power-efficient deep neural network module configured for parallel kernel and parallel input processing | |
US11574239B2 (en) | Outlier quantization for training and inference | |
US20230196086A1 (en) | Increased precision neural processing element | |
US11507349B2 (en) | Neural processing element with single instruction multiple data (SIMD) compute lanes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240628 |