JP6666457B2 - リカレントニューラルネットワークモデルの圧縮 - Google Patents

リカレントニューラルネットワークモデルの圧縮 Download PDF

Info

Publication number
JP6666457B2
JP6666457B2 JP2018539123A JP2018539123A JP6666457B2 JP 6666457 B2 JP6666457 B2 JP 6666457B2 JP 2018539123 A JP2018539123 A JP 2018539123A JP 2018539123 A JP2018539123 A JP 2018539123A JP 6666457 B2 JP6666457 B2 JP 6666457B2
Authority
JP
Japan
Prior art keywords
layer
neural network
lstm
output
gate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018539123A
Other languages
English (en)
Other versions
JP2019512760A (ja
Inventor
タラ・エヌ・サイナス
ヴィカス・シンダワニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019512760A publication Critical patent/JP2019512760A/ja
Application granted granted Critical
Publication of JP6666457B2 publication Critical patent/JP6666457B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0495Quantised networks; Sparse networks; Compressed networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Description

本明細書は、ニューラルネットワークアーキテクチャおよびニューラルネットワークの圧縮に関する。
ニューラルネットワークは、非線形ユニットの1つまたは複数の層を利用して、受信された入力についての出力を予測する機械学習モデルである。一部のニューラルネットワークは、出力層に加えて1つまたは複数の隠れ層を含む。各隠れ層の出力は、ネットワークの中の次の層、すなわち、次の隠れ層または出力層への入力として使用される。ネットワークの各層は、それぞれのパラメータセットの現在の値に従って、受信された入力から出力を生成する。一部のニューラルネットワーク、たとえば、時系列問題またはシーケンスツーシーケンス学習(リカレントニューラルネットワーク(recurrent neural network: RNN))について設計されているものは、リカレントループを組み込んでおり、このリカレントループにより、可変の隠れ状態の形態にあるメモリは、データ入力間の層内に持続することが可能になる。RNNの変形形態、長短期メモリ(long short-term memory: LSTM)ニューラルネットワークは、データ入力間のデータの持続性を制御するために、各層内に複数のゲートを含んでいる。一部のニューラルネットワーク、たとえば、時系列問題またはシーケンスツーシーケンス学習について設計されているものは、リカレントループを組み込んでおり、このリカレントループにより、可変の隠れ状態の形態にあるメモリは、データ入力間の層内に持続することが可能になる。
本明細書は、リカレントニューラルネットワークアーキテクチャに関する技術について説明する。概して、リカレントニューラルネットワークは、圧縮される少なくとも1つの長短期メモリ(LSTM)層を含む。LSTM層は、圧縮パラメータ行列を有する少なくとも1つのゲートを有する。LSTM層は、LSTM層におけるゲートパラメータ行列のうちの1つまたは複数をテプリッツ(Toeplitz)に類似の構造化行列に置き換えるか、またはゲートパラメータ行列を圧縮パラメータ行列および射影行列により再定義するかのいずれかによって圧縮され得る。任意選択的に、あるLSTM層が、LSTM層におけるゲートパラメータ行列のうちの1つをテプリッツに類似の構造化行列に置き換えることによって圧縮され得、別のLSTM層が、他のLSTM層におけるゲートパラメータ行列のうちの1つを圧縮パラメータ行列および射影行列により再定義することによりこのゲートパラメータ行列を置き換えることによって圧縮され得る。
1つまたは複数のコンピュータのシステムが特定の動作または行為を行うように構成されているということは、システムがその上に、動作に際してシステムに動作または行為を行わせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せをインストールしていることを意味する。1つまたは複数のコンピュータプログラムが特定の動作または行為を行うように構成されているということは、1つまたは複数のプログラムが、データ処理装置によって実行されたときに装置に動作または行為を行わせる命令を含んでいることを意味する。
本明細書において説明される主題は、次の利点のうちの1つまたは複数を実現するために特定の諸実施形態において実装され得る。リカレントニューラルネットワークの性能は、リカレントニューラルネットワークに圧縮LSTM層を含むことによって改善し得る。具体的には、リカレントニューラルネットワークに圧縮LSTM層を含むことによって、リカレントニューラルネットワークは、より効率的にデータを処理し、より少ないデータストレージを使用することができるように構成されている。圧縮LSTM層を有するリカレントニューラルネットワークは、フルサイズの、たとえば未圧縮のリカレントニューラルネットワークに匹敵するワード誤り率を達成するように効果的に訓練され得る。
本明細書の主題の1つまたは複数の実施形態の詳細については、添付の図面および下記の説明に記載される。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
一例示的なニューラルネットワークシステムを示す図である。 例示的な構造化行列を示す図である。 例示的な構造化行列を示す図である。 現在の層入力を処理して次の層出力を生成するための例示的な方法の流れ図である。 ゲートをゲート入力ベクトルに適用してゲート出力ベクトルを生成するための例示的な方法の流れ図である。 飽和LSTM層を含むリカレントニューラルネットワークを訓練するための例示的な方法の流れ図である。
様々な図面の中の同様の参照番号および表示は、同様の要素を示す。
図1は、例示的なニューラルネットワークシステム100を示している。ニューラルネットワークシステム100は、1つまたは複数の場所の中の1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されるシステムの一例であり、ここで、後述のシステム、構成要素、および技法が実装される。
ニューラルネットワークシステム100は、複数の時間ステップの各時間ステップごとにそれぞれのニューラルネットワーク入力を受信し時間ステップごとにそれぞれのニューラルネットワーク出力を生成する機械学習システムである。つまり、複数の時間ステップの各時間ステップごとに、ニューラルネットワークシステム100は、ニューラルネットワーク入力を受信し、ニューラルネットワーク入力を処理して、ニューラルネットワーク出力を生成する。たとえば、所与の時間ステップtにおいて、ニューラルネットワークシステム100は、ニューラルネットワーク入力102を受信し、ニューラルネットワーク出力132を生成することができる。
ニューラルネットワークシステム100は、生成されたニューラルネットワーク出力を出力データレポジトリに記憶すること、または他の何らかの当座の目的に使用するためにニューラルネットワーク出力を提供することができる。
ニューラルネットワークシステム100は、任意の種類のデジタルデータ入力を受信し、その入力に基づいて、任意の種類のスコアまたは分類出力を生成するように構成され得る。
たとえば、ニューラルネットワークシステム100への入力が、画像、または画像から抽出されたフィーチャである場合、所与の画像についてニューラルネットワークシステム100によって生成される出力は、1組のオブジェクトカテゴリそれぞれについてのスコアとすることができ、各スコアは、画像がカテゴリに属するオブジェクトの画像を含んでいることの推定尤度(estimated likelihood)を表す。
別の例として、ニューラルネットワークシステム100への入力が、Internetリソース(たとえば、ウェブページ)、ドキュメント、またはドキュメントの一部分、あるいはInternetリソース、ドキュメント、またはドキュメントの一部分から抽出されるフィーチャである場合、所与のInternetリソース、ドキュメント、またはドキュメントの一部分についてニューラルネットワークシステム100によって生成される出力は、1組のトピックそれぞれについてのスコアとすることができ、各スコアは、Internetリソース、ドキュメント、またはドキュメント部分がトピックに関することの推定尤度を表す。
別の例として、ニューラルネットワークシステム100への入力が、ユーザについての個人向け推薦のフィーチャ、たとえば、推薦についてコンテキストを特徴付けるフィーチャ、たとえば、ユーザがとった以前の行為を特徴付けるフィーチャである場合、ニューラルネットワークシステム100によって生成される出力は、1組のコンテンツ品目それぞれについてのスコアとすることができ、各スコアは、ユーザがコンテンツ品目の推薦を受けることに好意的に応答することになることの推定尤度を表す。これらの例のうちのいくつかにおいては、ニューラルネットワークシステム100は、ユーザにコンテンツ推薦を行う強化学習システムの一部である。
別の例として、ニューラルネットワークシステム100への入力が、1つの言語におけるテキストである場合、ニューラルネットワークシステム100によって生成される出力は、別の言語における1組のテキスト片それぞれについてのスコアとすることができ、各スコアは、他の言語におけるテキスト片が入力テキストの他の言語への適切な変換であることの推定尤度を表す。
別の例として、ニューラルネットワークシステム100への入力が、音声発話のフィーチャである場合、ニューラルネットワークシステム100によって生成される出力は、1組のテキスト片それぞれについてのスコアとすることができ、各スコアは、テキスト片が、発話についての正確な転写であることの推定尤度を表す。
別の例として、ニューラルネットワークシステム100への入力が、画像である場合、ニューラルネットワークシステム100によって生成される出力は、1組のテキスト片それぞれについてのスコアとすることができ、各スコアは、テキスト片が入力画像の中に存在するテキストであることの推定尤度を表す。
具体的には、ニューラルネットワークシステム100は、リカレントニューラルネットワーク110を含み、このリカレントニューラルネットワーク110は、ひいては、圧縮長短期メモリ(LSTM)層120を含む。リカレントニューラルネットワーク110は、時間ステップごとに、ニューラルネットワーク入力を受信し、ニューラルネットワーク入力を処理して、時間ステップにおいてニューラルネットワーク出力を生成するように構成されている。
圧縮LSTM層120に加えて、リカレントニューラルネットワーク110は、1つまたは複数の他の構成要素、たとえば、他の圧縮LSTM層、従来のLSTM層、他のリカレントニューラルネットワーク層、および他の非リカレントニューラルネットワーク層などを含むことができる。
たとえば、リカレントニューラルネットワーク110は、入力層と、互いに順番にスタックするように構成された圧縮LSTM層120を含む複数のLSTM層と、時間ステップごとに、スタックの中の最高位のLSTM層から、任意選択的に、スタックの中の他のLSTM層から層出力を受信し、層出力を処理して、時間ステップにおいてニューラルネットワーク出力132を生成する出力層とを含むディープLSTMネットワークとすることができる。
圧縮LSTM層120は、時間ステップごとに、現在の層入力122を受信し、現在の層入力122、現在の層状態、および現在の層出力を処理して新規層出力126を生成し、現在の層状態を更新して新規層状態124を生成するように構成されている。
リカレントニューラルネットワーク110の構成によっては、現在の層入力122は、ニューラルネットワーク入力102であっても、またはリカレントニューラルネットワーク110の異なる構成要素によって生成される出力であってもよい。
加えて、第1のステップ後の各時間ステップでは、現在の層状態は、前の時間ステップにおいて生成された新規層状態であり、現在の層出力は、前の時間ステップからの新規層出力である。第1の時間ステップでは、現在の層状態は、所定の初期層状態とすることができ、現在の層出力は、所定の初期層出力とすることができる。
リカレントニューラルネットワーク110の構成によっては、新規層出力126は、リカレントニューラルネットワーク110の中の別のLSTM層への入力として、または異なるタイプのニューラルネットワーク構成要素、たとえば出力層への、もしくは異なるタイプのニューラルネットワーク層への入力として提供されることも、あるいはリカレントニューラルネットワーク110のニューラルネットワーク出力132として提供されることもある。
具体的には、圧縮LSTM層120は、複数のゲートを現在の層入力122、現在の層状態、および現在の層出力に適用して、新規層出力126を生成し現在の層状態を更新して新規層状態124を生成し、ゲートのうちの少なくとも1つは圧縮重み行列を含んでいる。たとえば、層スタックの少なくとも1つの層は、層におけるゲートパラメータ行列のうちの1つまたは複数を構造化行列に置き換えること(「構造化行列圧縮」)によって、またはゲートパラメータ行列を圧縮パラメータ行列および射影行列により再定義すること(「射影圧縮」)によって圧縮され得る。ゲートは、たとえば入力ゲート、忘却ゲート(forget gate)、セル状態ゲート、または出力ゲートを含むことができるが、これらに限定されない。加えて、各ゲートは、層間パラメータ行列とリカレントパラメータ行列との両方を含むことができる。
構造化行列は、mn個よりも少ないパラメータで記述され得るm×n行列である。図2Aは、構造化行列の例を示している。たとえば、構造化行列には、次の一般クラス:テプリッツ行列200、ヴァンデルモンド(Vandermonde)行列202、およびコーシー(Cauchy)行列204が含まれる。具体的には、テプリッツ行列200は、パラメータが対角に沿って一致する行列である。つまり、テプリッツ行列200は、その対角のそれぞれに沿って定数値を有する。同じ特性が反対角について成り立つ場合、行列200は、ハンケル(Hankel)行列と呼ばれる。ヴァンデルモンド行列202は、3番目〜n番目の列の行列エントリが、行列の2番目の列におけるエントリの要素ごとのべき乗(elementwise powers)をとることによって定義される行列である。同様に、コーシー行列204は、2つのベクトル(UおよびV)によって完全に定義され得る行列である。コーシー行列204の各要素aijは、
Figure 0006666457
によって定義される。
そのような構造化行列は、mn個よりも少ないパラメータによって完全に記述され得るので、そのような構造化行列を使用して圧縮LSTM層におけるゲート行列を表すと、LSTMネットワークのメモリ要件を削減することができる。加えて、構造化行列は、行列ベクトル積および勾配計算をより高速に行うことを可能にするので、LSTMネットワークの訓練および処理を加速させることができる。
構造化行列の上記の一般クラスは、構造化に類似の行列に変形して圧縮LSTM層120において使用することができる。たとえば、テプリッツに類似の行列は、テプリッツ行列の積および逆数、ならびにそれらの線形結合を含むテプリッツ構造の一般化である。テプリッツに類似の行列は、rの巡回行列とスキュー巡回行列との積に対する和として、図2Bに示されているようにパラメータ化され得る。
便宜上、再度、図1を参照して、リカレントニューラルネットワーク110の圧縮LSTM層120における構造化行列の使用について、一例として、テプリッツに類似の行列を使用して論じる。テプリッツに類似の行列の複雑さは、図2Bにおける巡回行列とスキュー巡回行列との和で示されているように、変位ランク(displacement rank)、すなわち、合算されている積の数を使用して制御され得る。低変位ランクは、巡回行列およびテプリッツ行列などの高度に構造化された行列、ならびにそれらの逆数に対応する。高変位ランク行列は、ますます非構造化される行列をモデル化するために使用され得る。いくつかの例において、変位ランクは、圧縮スキームの計算複雑性、ストレージ要件、およびモデリング容量を制御するために使用され得る。いくつかの例において、変位ランクは、アプリケーション要件に基づいて調整され得る。
いくつかの実装形態において、テプリッツに類似の行列構造は、特定の圧縮LSTM層120におけるゲートのすべてについてのリカレントパラメータ行列および層間パラメータ行列に適用される。いくつかの実装形態において、テプリッツに類似の行列構造は、層スタック(たとえば層1および層2)の中のより下位の層に適用される。
リカレントニューラルネットワーク層についての射影圧縮モデルにおいて、圧縮LSTM層120は、特定の層(たとえば層l)からの、サイズm×nの未圧縮リカレントパラメータ行列を、サイズm×rの圧縮リカレントパラメータ行列、および射影行列r×nに置き換えることによって生成される。加えて、次のより上位のLSTM層(たとえば層l+1)からの、やはりサイズm×nの対応する層間パラメータ行列は、サイズm×rの圧縮層間行列、および同じ射影行列に置き換えられる。さらに、圧縮リカレント行列および層間行列、ならびに射影行列のそれぞれのランクは、対応するリカレントパラメータ行列および層間パラメータ行列のランクよりも小さい。低ランク射影行列は、2つの対応する層にわたって共有される。射影圧縮モデルは、1つまたは複数の異なるゲートに適用され得る。いくつかの実装形態において、射影圧縮モデルは、層スタック(たとえば層2〜層N)の中のより上位の層に適用される。
いくつかの実装形態において、層または層の組は、構造化行列(または構造化に類似の行列)を使用することによって圧縮され得、層または層の組は、射影行列を使用して圧縮され得る。たとえば、リカレントニューラルネットワーク110のより下位の層または層の組(たとえば層1および層2)は、ゲートパラメータ行列をテプリッツに類似の行列に置き換えることによって圧縮され得、より上位の層または層の組(たとえば、層2〜層N)は、射影行列を使用することによって圧縮され得る。
いくつかの実装形態において、上述の圧縮技法の結果、LSTMニューラルネットワークのパラメータに少なくとも75%の削減がもたらされ得る。システムが音声認識モデルであるいくつかの実装形態において、上述の圧縮技法の結果、LSTMニューラルネットワークの少なくとも75%の圧縮がもたらされるとともに、システムの未圧縮バージョンのワード誤り率(WER)の0.3%内であるワード誤り率が維持され得る。いくつかの例において、上述の圧縮技法の結果、75%から83%に及ぶLSTMニューラルネットワークの圧縮が、0.3%から2.3%までの対応するWERとともにもたらされ得る。
ニューラルネットワーク出力を生成するようにリカレントニューラルネットワーク110を構成するために、ニューラルネットワークシステム100は、飽和LSTM層120のパラメータの訓練値の決定を含む、リカレントニューラルネットワーク110のパラメータの訓練値を決定するようにリカレントニューラルネットワーク110を訓練する。リカレントニューラルネットワークの訓練については、図5を参照して、より詳細に後述する。
図3は、現在の層入力を処理して次の層出力を生成するための例示的な方法300の流れ図である。便宜上、方法300について、1つまたは複数の場所に置かれている1つまたは複数のコンピュータのシステムによって実装される飽和LSTM層によって行われるように説明する。たとえば、本明細書に従って適切にプログラミングされた、ニューラルネットワークシステムにおける飽和LSTM層、たとえば図1のニューラルネットワークシステム100の圧縮LSTM層120は、方法300を行うことができる。
LSTM層は、忘却ゲートをゲート入力ベクトルに適用して忘却ゲート出力ベクトルを生成する(ステップ302)。ゲート入力ベクトルへのゲートの適用については、図4を参照して、より詳細に後述する。
いくつかの実装形態において、LSTM層は、現在の層入力と現在の層出力とを連結することによってゲート入力ベクトルを生成する。他のいくつかの実装形態において、LSTM層は、現在の層入力と現在の層出力と現在の層状態とを連結することによってゲート入力ベクトルを生成する覗き穴(peephole)LSTM層である。
LSTM層は、入力ゲートをゲート入力ベクトルに適用して入力ゲート出力ベクトルを生成する(ステップ304)。ゲート入力ベクトルへのゲートの適用については、図4を参照して、より詳細に後述する。いくつかの実装形態において、入力ゲートは、構造化パラメータ行列、たとえばテプリッツに類似の構造化パラメータ行列を含む。いくつかの実装形態において、入力ゲートは、圧縮されたリカレント行列または層間行列、および対応する射影行列を含む。
いくつかの実装形態において、システムは、入力ゲートを適用して入力ゲート出力ベクトルを生成するのではなく、忘却ゲート出力ベクトルを入力ゲート出力ベクトルとして使用する。つまり、いくつかの実装形態において、入力ゲートは、忘却ゲートと同じである。
LSTM層は、出力ゲートをゲート入力ベクトルに適用して出力ゲート出力ベクトルを生成する(ステップ306)。ゲート入力ベクトルへのゲートの適用については、図4を参照して、より詳細に後述する。いくつかの実装形態において、出力ゲートは、構造化パラメータ行列、たとえばテプリッツに類似の構造化パラメータ行列を含む。いくつかの実装形態において、出力ゲートは、圧縮されたリカレント行列または層間行列、および対応する射影行列を含む。
LSTM層は、現在の層入力および現在の層出力から中間のセル状態更新ベクトルを生成する(ステップ308)。具体的には、LSTM層は、スカッシング関数である活性化関数を有するニューラルネットワーク層を使用して現在の層入力および現在の層出力を処理して、中間のセル状態更新ベクトルを生成する。
概して、スカッシング関数は、受信された入力を-1から1までの排他的な範囲にマップする関数である。たとえば、スカッシング関数は、双曲線正接関数とすることができる。
LSTM層は、中間のセル状態更新ベクトルと入力ゲート出力ベクトルとを結合して最終のセル状態更新ベクトルを生成する(ステップ310)。具体的には、LSTM層は、中間のセル状態更新ベクトルと入力ゲート出力ベクトルとの間の点ごとの乗算(point-wise multiplication)を計算して最終のセル状態更新ベクトルを生成する。
LSTM層は、現在のセル状態と忘却ゲート出力ベクトルを結合して、中間の新規セル状態を生成する(ステップ312)。具体的には、LSTM層は、現在のセル状態と忘却出力ベクトルとの間の点ごとの乗算を計算して、中間の新規セル状態を生成する。いくつかの実装形態において、忘却ゲートは、構造化パラメータ行列、たとえばテプリッツに類似の構造化パラメータ行列を含む。いくつかの実装形態において、忘却ゲートは、圧縮されたリカレント行列または層間行列、および対応する射影行列を含む。
LSTM層は、中間の新規セル状態と最終のセル状態更新ベクトルとを結合して、たとえば合算して、最終の新規セル状態を生成する(ステップ314)。
LSTM層は、最終の新規セル状態から新規層出力を生成する(ステップ316)。新規層出力を生成するために、LSTM層は、スカッシング関数を最終の新規セル状態の各成分に適用して、中間の新規層出力を生成する。
次いで、LSTM層は、出力ゲート出力ベクトルと中間の新規層出力とを結合して、新規層出力を生成する。具体的には、LSTM層は、出力ゲート出力ベクトルと中間の新規層出力との間の点ごとの乗算を行って新規層出力を生成する。
新規層出力を生成する際の最終の新規層状態の使用に加えて、LSTM層は、その後の時間ステップにおいて使用するために新規層出力とともに最終の新規セル状態を維持する。
図4は、ゲートをゲート入力ベクトルに適用してゲート出力ベクトルを生成するための例示的な方法400の流れ図である。便宜上、方法400について、1つまたは複数の場所に置かれている1つまたは複数のコンピュータのシステムによって実装される飽和LSTM層によって行われるように説明する。たとえば、本明細書に従って適切にプログラミングされた、ニューラルネットワークシステムにおける圧縮LSTM層、たとえば図1のニューラルネットワークシステム100のLSTM層120は、方法400を行うことができる。
LSTM層は、ゲート入力ベクトルを決定する(ステップ402)。
LSTM層は、パラメータの組に従ってゲート入力ベクトルからそれぞれの中間のゲート出力ベクトルを生成する(ステップ404)。いくつかの実装形態において、LSTM層は、パラメータ行列とゲート入力ベクトルとの間の行列乗算を行い、次いで、バイアスベクトルを行列乗算の出力に加算して中間のゲート出力ベクトルを生成し、ゲートはそれぞれ、異なるパラメータ行列およびバイアスベクトルを有する。つまり、LSTM層が別個の入力ゲート、忘却ゲート、および出力ゲートを有する実装形態において、これらのゲートはそれぞれ、互いのゲートとは異なるパラメータ行列およびバイアスベクトルを有することになる。
LSTM層は、ゲーティング関数をそれぞれの中間のゲート出力ベクトルの各成分に適用して、最終のゲート出力ベクトルを生成する(ステップ406)。
概して、ゲーティング関数は、受信された入力を0から1までの排他的な範囲にマップする関数である。たとえば、ゲーティング関数は、シグモイド関数とすることができる。
しかしながら、LSTM層のゲートのうちの少なくとも1つについて、ステップ404において参照されたパラメータ行列は、圧縮パラメータ行列である。未圧縮パラメータ行列が、圧縮パラメータ行列に置き換えられる。LSTM層は、次いで、圧縮パラメータ行列とゲート入力ベクトルとの間の行列乗算を行う。たとえば、圧縮行列は、入力ゲート、忘却ゲート、セル状態、または出力ゲートのうちのいずれかにおいてパラメータ行列を置き換えることができる。いくつかの実装形態において、圧縮パラメータ行列は、LSTM層における複数のゲートに適用される。たとえば、圧縮パラメータ行列は、入力ゲートと出力ゲートとの両方に適用され得る。別の例として、圧縮パラメータ行列は、入力ゲート、出力ゲート、および忘却ゲートに適用され得る。
いくつかの実装形態において、圧縮パラメータ行列は、構造化に類似の行列、たとえば、テプリッツに類似の構造化行列である。いくつかの実装形態において、未圧縮ゲートパラメータは、圧縮パラメータ行列および対応する射影行列により再定義される。
図5は、圧縮LSTM層を含むリカレントニューラルネットワークを訓練するための例示的な方法500の流れ図である。便宜上、方法500について、1つまたは複数の場所に置かれている1つまたは複数のコンピュータのシステムによって行われるように説明する。たとえば、本明細書に従って適切にプログラミングされた、ニューラルネットワークシステム、たとえば図1のニューラルネットワークシステム100は、方法500を行うことができる。
システムは、リカレントニューラルネットワークを訓練するための訓練データを取得する(ステップ502)。訓練データは、複数の訓練例ペアを含み、各訓練例ペアは、訓練ニューラルネットワーク入力と、訓練ニューラルネットワーク入力のためのターゲットニューラルネットワーク出力とを含む。
システムは、目的関数を最適化する、すなわち、最大化または最小化のいずれかを行うことによって、パラメータの初期値から、リカレントニューラルネットワークのパラメータの訓練値を決定するために、訓練データにおけるリカレントニューラルネットワークを訓練する(ステップ504)。訓練中、システムは、圧縮された行列または複数の行列の値が圧縮行列の要件を継続的に満たすようにこれらの値に対する制約を課す。たとえば、テプリッツに類似の構造化行列では、システムは、各圧縮行列のエントリがつねにテプリッツに似ているように制約を課すことができ、または射影モデル圧縮行列では、システムは、パラメータ行列の値を直接、調整するのではなく、射影行列および圧縮パラメータ行列の値を調整することができる。
システムは、従来の機械学習訓練技法、たとえば、経時的バックプロパゲーションによる確率的勾配降下訓練法を用いて、目的関数を最適化することによってリカレントニューラルネットワークを訓練する。つまり、システムは、リカレントニューラルネットワークのパラメータの値を調整することによって、目的関数を最適化するために訓練技法の複数の反復を行うことができる。
本明細書において説明される主題および機能動作の諸実施形態は、本明細書に開示されている構造体およびそれらの構造的均等物を含む、デジタル電子回路において、有形具現化コンピュータソフトウェアまたはファームウェアにおいて、コンピュータハードウェアにおいて、あるいはそれらのうちの1つまたは複数の組合せにおいて実装され得る。本明細書において説明される主題の諸実施形態は、1つまたは複数のコンピュータプログラム、すなわち、データ処理装置によって実行される、またはデータ処理装置の動作を制御する、有形の非一時的プログラムキャリアにおいて符号化されるコンピュータプログラム命令の1つまたは複数のモジュールとして実装され得る。代替として、または加えて、プログラム命令は、データ処理装置によって実行されるのに適切な受信装置に送信される情報を符号化するために生成される人工的に生成された伝搬信号、たとえば、機械生成の電気、光学、または電磁信号において符号化され得る。コンピュータストレージ媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらのうちの1つもしくは複数の組合せとすることができる。
「データ処理装置(data processing apparatus)」という用語は、データ処理ハードウェアを示し、例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのすべての種類の装置、デバイス、および機械を包含する。装置はまた、専用論理回路機構、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)とすることも、またはこれをさらに含むこともできる。装置は、任意選択的に、ハードウェアに加えて、コンピュータプログラムについての実行環境を作成するコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つもしくは複数の組合せを構成するコードを含むことができる。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードとも呼ばれ、または記載されることもある)コンピュータプログラムは、コンパイル型もしくは解釈型言語、または宣言型もしくは手続き型言語を含むプログラミング言語の任意の形態で記述され得、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境における使用に適している他のユニットとしてを含む任意の形態で配置され得る。コンピュータプログラムは、ファイルシステムの中のファイルに対応することができるが、対応する必要はない。プログラムは、他のプログラムまたはデータ、たとえばマークアップ言語ドキュメントに記憶されている1つまたは複数のスクリプトを保持するファイルの一部分の中に、問題のプログラムに専用の単一のファイルの中に、あるいは複数の協調ファイル、たとえば、1つまたは複数のモジュール、サブプログラム、またはコードの一部分を記憶するファイルの中に記憶され得る。コンピュータプログラムは、1つのコンピュータあるいは、1つのサイトに置かれている、または複数のサイトにわたって分散され、通信ネットワークによって相互接続されている複数のコンピュータにおいて実行されるように配置され得る。
本明細書において説明される方法および論理流れ図は、1つまたは複数のコンピュータプログラムを実行して、入力データを操作し、出力を生成することによって機能を果たす1つまたは複数のプログラマブルコンピュータによって行われ得る。方法および論理流れ図はまた、専用論理回路機構、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によって行われることも、あるいは装置がまた、この専用論理回路機構として実装されることもある。
コンピュータプログラムの実行に適しているコンピュータは、例として、汎用もしくは専用のマイクロプロセッサ、またはその両方、あるいは他の任意の種類の中央処理装置に基づき得る。概して、中央処理装置は、読取り専用メモリもしくはランダムアクセスメモリ、またはその両方から命令およびデータを受信することになる。コンピュータの必須要素は、命令を行う、または実行するための中央処理装置、ならびに命令およびデータを記憶するための1つまたは複数のメモリデバイスである。概して、コンピュータはまた、データを記憶するための1つまたは複数のマスストレージデバイス、たとえば、磁気、磁気光学ディスク、または光学ディスクを含み、あるいはこれらの間でデータを送信もしくは受信する、またはその両方を行うために、これらに動作可能に結合されることになる。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。その上、コンピュータは、別のデバイス、たとえば、いくつか例を挙げると、モバイル電話、パーソナルデジタルアシスタント(personal digital assistant: PDA)、モバイルオーディオまたはビデオプレイヤ、ゲームコンソール、全地球測位システム(Global Positioning System: GPS)受信機、またはポータブルストレージデバイス、たとえば、ユニバーサルシリアルバス(universal serial bus :USB)フラッシュドライブに埋込み可能である。
コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体はすべて、例として、半導体メモリデバイス、たとえば、EPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、たとえば内部ハードディスクもしくはリムーバブルディスク;磁気光学ディスク;ならびにCD-ROMおよびDVD-ROMディスクを含む、不揮発性メモリ、媒体、およびメモリデバイスの形態を含む。プロセッサおよびメモリは、専用論理回路機構によって補足可能、またはその専用論理回路機構の中に組込み可能である。
ユーザとの対話を可能にするために、本明細書において説明されている主題の諸実施形態は、情報をユーザに表示するためのディスプレイデバイス、たとえば、CRT(ブラウン管(cathode ray tube))またはLCD(液晶ディスプレイ(liquid crystal display))モニタ、およびユーザが入力をコンピュータに与えることができるキーボードおよびポインティングデバイス、たとえばマウスまたはトラックボールを有するコンピュータにおいて実装され得る。他の種類のデバイスが、同様にユーザとの対話を可能にするために使用されてもよく、たとえば、ユーザに提供されるフィードバックは、感覚フィードバック、たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックの任意の形態であってよく、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受け取ることができる。加えて、コンピュータは、ユーザが使用するデバイスとドキュメントを送受信することによって、たとえば、ウェブブラウザから受信した要求に応答して、ユーザのクライアントデバイスにおけるウェブブラウザにウェブページを送信することによって、ユーザと対話することができる。
本明細書において説明される主題の諸実施形態は、バックエンド構成要素を、たとえばデータサーバとして含む、またはミドルウェア構成要素、たとえばアプリケーションサーバを含む、またはフロントエンド構成要素、たとえば関連グラフィカルユーザインターフェースもしくはユーザが本明細書において説明される主題の一実装形態と対話することができるウェブブラウザを有するクライアントコンピュータを含むコンピューティングシステム、あるいは1つまたは複数のそのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組合せにおいて実装され得る。システムの構成要素は、デジタルデータ通信、たとえば、通信ネットワークの任意の形態または媒体によって相互接続され得る。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)および広域ネットワーク(「WAN」)、たとえばInternetが含まれる。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、概して、互いにリモートであり、典型的には、通信ネットワークを介して対話する。クライアントとサーバとの関係性は、それぞれのコンピュータにおいて動作し、互いにクライアント/サーバ関係性を有するコンピュータプログラムにより生まれる。
本明細書は、多くの具体的な実装形態詳細を含んでいるが、これらは、いかなる発明の範囲についてもまたは特許請求され得る範囲についても限定と見なすべきでなく、特定の発明の特定の実施形態に固有であり得る特徴の説明と見なすべきである。別個の実施形態の文脈で本明細書において説明されている特定の特徴はまた、単一の実施形態における組合せで実装されてもよい。逆に、単一の実施形態の文脈で説明されている様々な特徴もまた、複数の実施形態において別個に、または任意の適切な副組合せで実装されてもよい。その上、特徴については、ある種の組合せにおける行為として上述され、したがって最初に特許請求され得るが、特許請求された組合せからの1つまたは複数の特徴は、いくつかの場合においては、組合せから削除され得、特許請求された組合せは、副組合せまたは副組合せの変形形態を対象とすることができる。
同様に、動作は、図面においては特定の順序で示されているが、これは、所望の結果を達成するために、そのような動作が図示の特定の順序もしくは連続的な順序で行われる必要がある、または例示の動作がすべて行われる必要があると理解すべきではない。特定の状況においては、マルチタスクの並列処理が有利である場合もある。その上、上述の諸実施形態における様々なシステムモジュールおよび構成要素の分離は、すべての実施形態においてそのような分離が必要であると理解すべきではなく、所望のプログラムコンポーネントおよびシステムが、概して、単一のソフトウェア製品に一緒に一体化され、または複数のソフトウェア製品にパッケージ化され得ることを理解すべきである。
主題の具体的な実施形態について説明してきた。他の実施形態は、次の特許請求の範囲の範囲内にある。たとえば、特許請求の範囲に列挙された行為は、異なる順序で行うことができ、依然として所望の結果を達成することができる。1つの例として、添付の図に示されている方法には、所望の結果を達成するために、必ずしも、図示の特定の順序または連続的な順序が必要なわけではない。特定の実装形態においては、マルチタスクの並列処理が有利な場合もある。
100 ニューラルネットワークシステム
102 ニューラルネットワーク入力
110 リカレントニューラルネットワーク
120 圧縮LSTM層
122 現在の層入力
124 新規層状態
126 新規層出力
132 ニューラルネットワーク出力
200 テプリッツ行列
202 ヴァンデルモンド行列
204 コーシー行列
300 方法
400 方法
500 方法

Claims (7)

1つまたは複数のコンピュータによって実装されるリカレントニューラルネットワークを含むシステムであって、
前記リカレントニューラルネットワークが、複数の時間ステップの時間ステップごとにそれぞれのニューラルネットワーク入力を受信し、前記複数の時間ステップの時間ステップごとにそれぞれのニューラルネットワーク出力を生成するように構成され、
前記リカレントニューラルネットワークが、第1の長短期メモリ(LSTM)層を含み、
前記第1のLSTM層が、前記複数の時間ステップの時間ステップごとに、複数のゲートを現在の層入力、現在の層状態、および現在の層出力に適用することによって新規層状態および新規層出力を生成するように構成され、
前記複数のゲートのそれぞれが、前記複数の時間ステップの時間ステップごとに、ゲート入力ベクトルとゲートパラメータ行列とを乗算することによってそれぞれの中間のゲート出力ベクトルを生成するように構成され、
前記複数のゲートのうちの少なくとも1つについての前記ゲートパラメータ行列が、テプリッツ行列の積および逆数、ならびにそれらの線形結合を含む構造化行列であり、
前記リカレントニューラルネットワークが、第2のLSTM層を含み、
前記第2のLSTM層が、前記複数の時間ステップの時間ステップごとに、第2の複数のゲートを第2の現在の層入力、第2の現在の層状態、および第2の現在の層出力に適用することによって第2の新規層状態および第2の新規層出力を生成するように構成され、
前記第2の複数のゲートのそれぞれが、前記複数の時間ステップの時間ステップごとに、第2のゲート入力ベクトルと第2のゲートパラメータ行列とを乗算することによってそれぞれの第2の中間のゲート出力ベクトルを生成するように構成され、
前記第2の複数のゲートのうちの少なくとも1つについての前記ゲートパラメータ行列が、圧縮パラメータ行列および射影行列によって定義され、
前記第1のLSTM層および前記第2のLSTM層が、順序付き層スタックにおける複数のLSTM層の各層であり、
前記第1のLSTM層が、前記順序付き層スタックにおいて、前記第2のLSTM層の下にスタックされている、
システム。
前記複数のゲートのそれぞれが、前記複数の時間ステップの時間ステップごとに、それぞれのゲーティング関数を前記それぞれの中間のゲート出力ベクトルの各成分に適用して、それぞれの最終のゲート出力ベクトルを生成するように構成されている、請求項1に記載のシステム。
前記リカレントニューラルネットワークが、音響モデルである、請求項1または2に記載のシステム。
前記リカレントニューラルネットワークが、音声認識モデルである、請求項1から3のいずれか一項に記載のシステム。
前記リカレントニューラルネットワークは、前記リカレントニューラルネットワークの未圧縮バージョンの少なくとも75%が圧縮される、請求項1から4のいずれか一項に記載のシステム。
前記リカレントニューラルネットワークのワード誤り率が、前記リカレントニューラルネットワークの未圧縮バージョンのワード誤り率に比べて最大0.3%増加する、請求項1から5のいずれか一項に記載のシステム。
コンピュータプログラムにより符号化された1つまたは複数の非一時的コンピュータストレージ媒体であって、前記コンピュータプログラムが、命令を含み、前記命令は、1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、
1つまたは複数のコンピュータによって実装されるリカレントニューラルネットワークを実装する動作を実行させ、
前記リカレントニューラルネットワークが、複数の時間ステップの時間ステップごとにそれぞれのニューラルネットワーク入力を受信し、前記複数の時間ステップの時間ステップごとにそれぞれのニューラルネットワーク出力を生成するように構成され、
前記リカレントニューラルネットワークが、第1の長短期メモリ(LSTM)層を含み、
前記第1のLSTM層が、前記複数の時間ステップの時間ステップごとに、複数のゲートを現在の層入力、現在の層状態、および現在の層出力に適用することによって、新規層状態および新規層出力を生成するように構成され、
前記複数のゲートのそれぞれが、前記複数の時間ステップの時間ステップごとに、ゲート入力ベクトルとゲートパラメータ行列とを乗算することによってそれぞれの中間のゲート出力ベクトルを生成するように構成され、
前記複数のゲートのうちの少なくとも1つについての前記ゲートパラメータ行列が、テプリッツ行列の積および逆数、ならびにそれらの線形結合を含む構造化行列であり、
前記リカレントニューラルネットワークが、第2のLSTM層を含み、
前記第2のLSTM層が、前記複数の時間ステップの時間ステップごとに、第2の複数のゲートを第2の現在の層入力、第2の現在の層状態、および第2の現在の層出力に適用することによって第2の新規層状態および第2の新規層出力を生成するように構成され、
前記第2の複数のゲートのそれぞれが、前記複数の時間ステップの時間ステップごとに、第2のゲート入力ベクトルと第2のゲートパラメータ行列とを乗算することによってそれぞれの第2の中間のゲート出力ベクトルを生成するように構成され、
前記第2の複数のゲートのうちの少なくとも1つについての前記ゲートパラメータ行列が、圧縮パラメータ行列および射影行列によって定義され、
前記第1のLSTM層および前記第2のLSTM層が、順序付き層スタックにおける複数のLSTM層の各層であり、
前記第1のLSTM層が、前記順序付き層スタックにおいて、前記第2のLSTM層の下にスタックされている、
1つまたは複数の非一時的コンピュータストレージ媒体。
JP2018539123A 2016-03-01 2016-12-07 リカレントニューラルネットワークモデルの圧縮 Active JP6666457B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662301734P 2016-03-01 2016-03-01
US62/301,734 2016-03-01
US15/172,457 US10515307B2 (en) 2015-06-05 2016-06-03 Compressed recurrent neural network models
US15/172,457 2016-06-03
PCT/US2016/065417 WO2017151203A1 (en) 2016-03-01 2016-12-07 Compressed recurrent neural network models

Publications (2)

Publication Number Publication Date
JP2019512760A JP2019512760A (ja) 2019-05-16
JP6666457B2 true JP6666457B2 (ja) 2020-03-13

Family

ID=59522158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539123A Active JP6666457B2 (ja) 2016-03-01 2016-12-07 リカレントニューラルネットワークモデルの圧縮

Country Status (7)

Country Link
US (2) US10515307B2 (ja)
EP (2) EP3955168B1 (ja)
JP (1) JP6666457B2 (ja)
KR (1) KR102177232B1 (ja)
CN (1) CN107145940B (ja)
DE (2) DE102016125838A1 (ja)
WO (1) WO2017151203A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11586924B2 (en) * 2018-01-23 2023-02-21 Qualcomm Incorporated Determining layer ranks for compression of deep networks

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083169B1 (en) * 2015-08-28 2018-09-25 Google Llc Topic-based sequence modeling neural networks
US10380481B2 (en) * 2015-10-08 2019-08-13 Via Alliance Semiconductor Co., Ltd. Neural network unit that performs concurrent LSTM cell calculations
US10521715B1 (en) 2016-01-15 2019-12-31 Google Llc Long short-term memory cells with saturating gating functions
EP3374932B1 (en) * 2016-02-03 2022-03-16 Google LLC Compressed recurrent neural network models
US10984308B2 (en) * 2016-08-12 2021-04-20 Xilinx Technology Beijing Limited Compression method for deep neural networks with load balance
US10762426B2 (en) * 2016-08-12 2020-09-01 Beijing Deephi Intelligent Technology Co., Ltd. Multi-iteration compression for deep neural networks
US10387751B2 (en) * 2017-01-12 2019-08-20 Arizona Board Of Regents On Behalf Of Arizona State University Methods, apparatuses, and systems for reconstruction-free image recognition from compressive sensors
EP3559868A1 (en) 2017-03-24 2019-10-30 Google LLC Device placement optimization with reinforcement learning
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
WO2018212599A1 (en) * 2017-05-17 2018-11-22 Samsung Electronics Co., Ltd. Super-resolution processing method for moving image and image processing apparatus therefor
US10447635B2 (en) 2017-05-17 2019-10-15 Slice Technologies, Inc. Filtering electronic messages
US11468295B2 (en) 2017-05-19 2022-10-11 Deepmind Technologies Limited Generating output examples using bit blocks
CN116702843A (zh) * 2017-05-20 2023-09-05 谷歌有限责任公司 投影神经网络
US10853724B2 (en) 2017-06-02 2020-12-01 Xerox Corporation Symbolic priors for recurrent neural network based semantic parsing
CN107293288B (zh) * 2017-06-09 2020-04-21 清华大学 一种残差长短期记忆循环神经网络的声学模型建模方法
CN109376856B (zh) * 2017-08-09 2022-07-08 上海寒武纪信息科技有限公司 数据处理方法及处理装置
CN107563332A (zh) * 2017-09-05 2018-01-09 百度在线网络技术(北京)有限公司 用于确定无人车的驾驶行为的方法和装置
US11620506B2 (en) * 2017-09-18 2023-04-04 Koninklijke Philips N.V. Condensed memory networks
US11556775B2 (en) * 2017-10-24 2023-01-17 Baidu Usa Llc Systems and methods for trace norm regularization and faster inference for embedded models
US10726335B2 (en) 2017-10-26 2020-07-28 Uber Technologies, Inc. Generating compressed representation neural networks having high degree of accuracy
CN109728928B (zh) * 2017-10-30 2021-05-07 腾讯科技(深圳)有限公司 事件识别方法和终端、模型生成方法和服务器及存储介质
CN109997155A (zh) * 2017-11-02 2019-07-09 Tdk株式会社 包含仿神经元件的阵列装置及神经网络***
CN109993298B (zh) * 2017-12-29 2023-08-08 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
US11803883B2 (en) 2018-01-29 2023-10-31 Nielsen Consumer Llc Quality assurance for labeled training data
US20200401874A1 (en) * 2018-02-09 2020-12-24 Deepmind Technologies Limited Generating output examples using recurrent neural networks conditioned on bit values
CN110197262B (zh) * 2018-02-24 2021-07-30 赛灵思电子科技(北京)有限公司 用于lstm网络的硬件加速器
EP3537345A1 (en) * 2018-03-06 2019-09-11 Hybris AG Computer-implemented method, system and computer program product for providing a conversational application interface
KR102622349B1 (ko) 2018-04-02 2024-01-08 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20190118332A (ko) 2018-04-10 2019-10-18 삼성전자주식회사 전자 장치 및 그 제어 방법
US11769036B2 (en) 2018-04-18 2023-09-26 Qualcomm Incorporated Optimizing performance of recurrent neural networks
RU2702978C1 (ru) * 2018-10-15 2019-10-14 Самсунг Электроникс Ко., Лтд. Байесовское разреживание рекуррентных нейронных сетей
US11568237B2 (en) 2018-05-10 2023-01-31 Samsung Electronics Co., Ltd. Electronic apparatus for compressing recurrent neural network and method thereof
US10853725B2 (en) * 2018-05-18 2020-12-01 Deepmind Technologies Limited Neural networks with relational memory
CN110673824B (zh) * 2018-07-03 2022-08-19 赛灵思公司 矩阵向量乘电路以及循环神经网络硬件加速器
US10909970B2 (en) * 2018-09-19 2021-02-02 Adobe Inc. Utilizing a dynamic memory network to track digital dialog states and generate responses
US10611026B1 (en) * 2018-10-16 2020-04-07 University Of South Florida Systems and methods for learning and generating movement policies for a dynamical system
CN112955907B (zh) * 2018-10-30 2024-07-19 谷歌有限责任公司 用于量化训练的长短期记忆神经网络的方法和***
US11055330B2 (en) * 2018-11-26 2021-07-06 International Business Machines Corporation Utilizing external knowledge and memory networks in a question-answering system
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
CN111353598A (zh) * 2018-12-20 2020-06-30 中科寒武纪科技股份有限公司 一种神经网络压缩方法、电子设备及计算机可读介质
EP3939301A1 (en) * 2019-03-15 2022-01-19 InterDigital VC Holdings, Inc. Low displacement rank based deep neural network compression
US11234024B2 (en) 2019-11-26 2022-01-25 Tencent America LLC Method and apparatus for three-dimensional (3D)-tree coding for neural network model compression
US11245903B2 (en) 2019-11-22 2022-02-08 Tencent America LLC Method and apparatus for quantization, adaptive block partitioning and codebook coding for neural network model compression
CN114041292A (zh) 2019-11-22 2022-02-11 腾讯美国有限责任公司 用于神经网络模型压缩的三维(3d)树编解码的方法和装置
JP7337950B2 (ja) * 2019-11-22 2023-09-04 テンセント・アメリカ・エルエルシー ニューラルネットワークモデル圧縮のための量子化、適応ブロック分割、及びコードブック符号化の方法及び装置、並びにコンピュータープログラム
US20230010859A1 (en) * 2019-12-11 2023-01-12 Korea Electronics Technology Institute Method and apparatus for encoding/decoding deep learning network
RU2734579C1 (ru) * 2019-12-30 2020-10-20 Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" Система сжатия искусственных нейронных сетей на основе итеративного применения тензорных аппроксимаций
WO2021151056A1 (en) * 2020-01-24 2021-07-29 Northeastern University Computer-implemented methods and systems for compressing recurrent neural network (rnn) models and accelerating rnn execution in mobile devices to achieve real-time inference
US11564101B2 (en) * 2020-07-31 2023-01-24 Beijing Voyager Technology Co., Ltd. Method and system for handling network intrusion
CN112800756B (zh) * 2020-11-25 2022-05-10 重庆邮电大学 一种基于prado的实体识别方法
CN112687290B (zh) * 2020-12-30 2022-09-20 同济大学 一种经过压缩的咳嗽自动检测方法及嵌入式设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6701236B2 (en) * 2001-10-19 2004-03-02 Yamaha Hatsudoki Kabushiki Kaisha Intelligent mechatronic control suspension system based on soft computing
US20040199482A1 (en) * 2002-04-15 2004-10-07 Wilson Scott B. Systems and methods for automatic and incremental learning of patient states from biomedical signals
US9620108B2 (en) * 2013-12-10 2017-04-11 Google Inc. Processing acoustic sequences using long short-term memory (LSTM) neural networks that include recurrent projection layers
US9400955B2 (en) 2013-12-13 2016-07-26 Amazon Technologies, Inc. Reducing dynamic range of low-rank decomposition matrices
US20160035344A1 (en) 2014-08-04 2016-02-04 Google Inc. Identifying the language of a spoken utterance
US9678664B2 (en) * 2015-04-10 2017-06-13 Google Inc. Neural network for keyboard input decoding
US10140572B2 (en) * 2015-06-25 2018-11-27 Microsoft Technology Licensing, Llc Memory bandwidth management for deep learning applications
CN105184369A (zh) * 2015-09-08 2015-12-23 杭州朗和科技有限公司 用于深度学习模型的矩阵压缩方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11586924B2 (en) * 2018-01-23 2023-02-21 Qualcomm Incorporated Determining layer ranks for compression of deep networks

Also Published As

Publication number Publication date
KR20180096779A (ko) 2018-08-29
EP3955168B1 (en) 2024-07-10
CN107145940B (zh) 2021-02-12
JP2019512760A (ja) 2019-05-16
CN107145940A (zh) 2017-09-08
US10515307B2 (en) 2019-12-24
EP3955168A1 (en) 2022-02-16
DE202016008302U1 (de) 2017-07-14
US11741366B2 (en) 2023-08-29
WO2017151203A1 (en) 2017-09-08
DE102016125838A1 (de) 2017-09-07
KR102177232B1 (ko) 2020-11-10
EP3398115B1 (en) 2021-09-15
US20170076196A1 (en) 2017-03-16
US20200134470A1 (en) 2020-04-30
EP3398115A1 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6666457B2 (ja) リカレントニューラルネットワークモデルの圧縮
US11087201B2 (en) Neural architecture search using a performance prediction neural network
US11195521B2 (en) Generating target sequences from input sequences using partial conditioning
JP6706326B2 (ja) リカレントニューラルネットワークモデルの圧縮
US10282662B2 (en) Training neural networks using a prioritized experience memory
CN108351982B (zh) 卷积门控递归神经网络
EP3523759B1 (en) Image processing neural networks with separable convolutional layers
EP3207507B1 (en) Augmenting neural networks with external memory
WO2017201507A1 (en) Memory-efficient backpropagation through time
WO2017201506A1 (en) Training neural networks using synthetic gradients
US11922281B2 (en) Training machine learning models using teacher annealing
WO2017100711A1 (en) Augmenting neural networks with external memory
US20240177001A1 (en) Neural programming
US11755879B2 (en) Low-pass recurrent neural network systems with memory
WO2017192183A1 (en) Augmenting neural networks with external memory using reinforcement learning
US10402719B1 (en) Generating output sequences from input sequences using neural networks
US11893480B1 (en) Reinforcement learning with scheduled auxiliary control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200220

R150 Certificate of patent or registration of utility model

Ref document number: 6666457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250