JP7502469B2 - スパースアテンションメカニズムを備えたアテンションニューラルネットワーク - Google Patents
スパースアテンションメカニズムを備えたアテンションニューラルネットワーク Download PDFInfo
- Publication number
- JP7502469B2 JP7502469B2 JP2022568899A JP2022568899A JP7502469B2 JP 7502469 B2 JP7502469 B2 JP 7502469B2 JP 2022568899 A JP2022568899 A JP 2022568899A JP 2022568899 A JP2022568899 A JP 2022568899A JP 7502469 B2 JP7502469 B2 JP 7502469B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- sequence
- attention
- locations
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 82
- 230000007246 mechanism Effects 0.000 title description 41
- 238000010801 machine learning Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 11
- 238000000844 transformation Methods 0.000 claims description 2
- 230000026676 system process Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 20
- 238000004590 computer program Methods 0.000 description 15
- 238000012549 training Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 210000004027 cell Anatomy 0.000 description 11
- 230000009471 action Effects 0.000 description 6
- 239000012634 fragment Substances 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 210000004725 window cell Anatomy 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 108091028043 Nucleic acid sequence Proteins 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 229940050561 matrix product Drugs 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000009334 Singa Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000011987 methylation Effects 0.000 description 1
- 238000007069 methylation reaction Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Description
本出願は、2020年6月5日に出願された米国仮出願第63/035,632号に対する優先権を主張し、その全体を参照により組み込む。
102 入力
102 システム入力
104 入力シーケンス
110 スパースアテンション層
120 アテンションサブ層
124 最終的なアテンドされた入力シーケンス
130 フィードフォワードサブ層
134 出力シーケンス
150 アテンションニューラルネットワーク
152 出力
200 図
210 y軸
220 x軸
221 空白のセル
222 ランダムセル
224 ウィンドウセル
226 グローバルセル
250 図
300 プロセス
Claims (12)
- ネットワーク出力を生成するために、ネットワーク入力に対して機械学習タスクを実行するためのシステムであって、1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって遂行されると、前記1つまたは複数のコンピュータに、
前記機械学習タスクを実行するように構成されたアテンションニューラルネットワークを実装させる命令を記憶する1つまたは複数のストレージデバイスと
を備え、前記アテンションニューラルネットワークが1つまたは複数のスパースアテンション層を備え、各スパースアテンション層が1つまたは複数のスパースアテンションサブ層を備え、各スパースアテンションサブ層が、
前記スパースアテンション層への入力シーケンスから導出されたクエリのシーケンスを受信することであって、クエリの前記シーケンスが、複数の入力位置の各々においてそれぞれのクエリを有する、受信することと、
前記スパースアテンション層への前記入力シーケンスから導出されたキーのシーケンスを受信することであって、キーの前記シーケンスが、前記複数の入力位置の各々においてそれぞれのキーを有する、受信することと、
前記スパースアテンション層への前記入力シーケンスから導出された値入力のシーケンスを受信することであって、値入力の前記シーケンスが、前記複数の入力位置の各々においてそれぞれの値入力を有する、受信することと、
前記複数の入力位置の各々におけるそれぞれのアテンドされた入力を備えるアテンドされた入力シーケンスを生成することであって、
前記入力位置の第1の適切なサブセットにある各入力位置に対して、
すべての前記入力位置に対してそれぞれの重みを生成するためにキーの前記シーケンス内のすべての前記キーをアテンドするために前記入力位置において前記クエリを使用して、前記それぞれの重みに従って、すべての前記入力位置において前記値入力の重み付けされた合計を計算することによって、前記入力位置において前記アテンドされた入力を生成することと、
前記入力位置の第2の適切なサブセットにある各入力位置に対して、
対応する適切なサブセットにおける前記入力位置の各々のそれぞれの重みを生成するために、前記入力位置の前記対応する適切なサブセットにおける前記キーのみをアテンドするために、前記入力位置において前記クエリを使用して、前記入力位置の前記対応する適切なサブセットに対する前記それぞれの重みに従って、前記入力位置の前記対応する適切なサブセットにおける前記値入力の重み付けされた合計を計算することによって、前記入力位置において前記アテンドされた入力を生成することと
を備える、生成することと
を行うように構成され、前記第2の適切なサブセット内の各入力位置の入力位置の前記対応する適切なサブセットが、
前記入力位置の前記第1の適切なサブセットと、
前記入力位置の前記第1の適切なサブセットの外側にある1つまたは複数の入力位置と
を含む、システム。 - 前記第1の適切なサブセットの外側にある前記1つまたは複数の入力位置が、
前記第1の適切なサブセットの外側にある前記入力位置からランダムに選択された1つまたは複数の入力位置を含む、請求項1に記載のシステム。 - 前記第1の適切なサブセットの外側にある前記1つまたは複数の入力位置が、
前記第2の適切なサブセット内の前記入力位置の固定数位置のウィンドウ内にある各入力位置を含む、請求項1または2に記載のシステム。 - 前記ネットワーク入力が、複数の前記入力位置の各々にそれぞれのトークンを有するシーケンスであり、前記アテンションニューラルネットワークが、前記ネットワーク入力を処理する前に1つまたは複数のあらかじめ定められたグローバルトークンを追加することによって、前記ネットワーク入力を増強するように構成され、入力位置の前記第1の適切なサブセットが、前記1つまたは複数のグローバルトークンが追加される位置に対応する、請求項1から3のいずれか一項に記載のシステム。
- 前記ネットワーク入力が、複数の前記入力位置の各々にそれぞれのトークンを有するシーケンスであり、前記アテンションニューラルネットワークが、固定数の前記複数の入力位置を、入力位置の前記第1の適切なサブセットとして指定するように構成されている、請求項1から3のいずれか一項に記載のシステム。
- 前記1つまたは複数のスパースアテンション層の各々が、スパースアテンションサブ層ごとに、前記スパースアテンションサブ層のクエリの前記シーケンスを生成するために、それぞれのクエリ線形変換を前記入力シーケンスに適用する、請求項1から5のいずれか一項に記載のシステム。
- 前記1つまたは複数のスパースアテンション層の各々が、スパースアテンションサブ層ごとに、前記スパースアテンションサブ層のキーの前記シーケンスを生成するために、それぞれのキー線形変換を前記入力シーケンスに適用する、請求項1から6のいずれか一項に記載のシステム。
- 前記1つまたは複数のスパースアテンション層の各々が、スパースアテンションサブ層ごとに、前記スパースアテンションサブ層の値入力の前記シーケンスを生成するために、それぞれの値の線形変換を前記入力シーケンスに適用する、請求項1から7のいずれか一項に記載のシステム。
- 各スパースアテンション層が、
前記1つまたは複数のサブ層によって生成された前記アテンドされた入力シーケンスから最終的なアテンドされた入力シーケンスを生成するようにさらに構成される、請求項1から8のいずれか一項に記載のシステム。 - 各スパースアテンション層が、
前記最終的なアテンドされた入力シーケンスから層の出力シーケンスを生成するように構成された1つまたは複数の位置ごとのフィードフォワード層をさらに備え、前記出力シーケンスが、前記複数の入力位置の各々においてそれぞれの層出力を備え、前記生成することが、前記複数の入力位置ごとに、
前記入力位置においてアテンドされた層入力を受信することと、
前記入力位置の層出力を生成するために、前記入力位置における前記アテンドされた層入力に変換のシーケンスを適用することと
を備える、請求項9に記載のシステム。 - 1つまたは複数のコンピュータによって遂行されると、前記1つまたは複数のコンピュータに、請求項1から10のいずれか一項に記載のアテンションニューラルネットワークを実装させる命令を記憶する1つまたは複数のコンピュータ可読ストレージ媒体。
- 1つまたは複数のコンピュータと1つまたは複数のストレージデバイスとを備えた、機械学習タスクを実行するためのシステムが、ネットワーク入力を受信するステップと、
前記ネットワーク入力のネットワーク出力を生成するために、前記システムが、請求項1から11のいずれかに記載のアテンションニューラルネットワークを使用して前記ネットワーク入力を処理するステップと
を備える、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063035632P | 2020-06-05 | 2020-06-05 | |
US63/035,632 | 2020-06-05 | ||
PCT/US2021/036252 WO2021248139A1 (en) | 2020-06-05 | 2021-06-07 | Attention neural networks with sparse attention mechanisms |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023529801A JP2023529801A (ja) | 2023-07-12 |
JP7502469B2 true JP7502469B2 (ja) | 2024-06-18 |
Family
ID=76921298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022568899A Active JP7502469B2 (ja) | 2020-06-05 | 2021-06-07 | スパースアテンションメカニズムを備えたアテンションニューラルネットワーク |
Country Status (6)
Country | Link |
---|---|
US (2) | US11238332B2 (ja) |
EP (1) | EP4121908A1 (ja) |
JP (1) | JP7502469B2 (ja) |
KR (1) | KR20220164559A (ja) |
CN (1) | CN115552417A (ja) |
WO (1) | WO2021248139A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220164672A1 (en) * | 2020-11-20 | 2022-05-26 | Microsoft Technology Licensing, Llc. | Automated merge conflict resolution |
CN114417856B (zh) * | 2021-12-29 | 2022-11-04 | 北京百度网讯科技有限公司 | 文本的稀疏编码方法、装置及电子设备 |
CN114640695B (zh) * | 2022-04-24 | 2023-04-07 | 上海交通大学 | 一种智能工厂基于长序列双预测和informer的高频时序数据有效传输方法 |
CN114996431B (zh) * | 2022-08-01 | 2022-11-04 | 湖南大学 | 一种基于混合注意力的人机对话生成方法、***及介质 |
CN115081752B (zh) * | 2022-08-11 | 2022-11-22 | 浙江君同智能科技有限责任公司 | 黑灰产众包流量预测装置及方法 |
CN115392260B (zh) * | 2022-10-31 | 2023-04-07 | 暨南大学 | 一种面向特定目标的社交媒体推文情感分析方法 |
-
2021
- 2021-06-07 KR KR1020227038621A patent/KR20220164559A/ko unknown
- 2021-06-07 CN CN202180034290.XA patent/CN115552417A/zh active Pending
- 2021-06-07 JP JP2022568899A patent/JP7502469B2/ja active Active
- 2021-06-07 US US17/341,193 patent/US11238332B2/en active Active
- 2021-06-07 WO PCT/US2021/036252 patent/WO2021248139A1/en unknown
- 2021-06-07 EP EP21742215.3A patent/EP4121908A1/en active Pending
-
2022
- 2022-01-31 US US17/589,542 patent/US20220156553A1/en active Pending
Non-Patent Citations (2)
Title |
---|
Rewon Child ほか,Generating Long Sequences with Sparse Transformers,arXiv,v1,2019年04月23日,頁1-10,[検索日 2023.12.25], インターネット<URL:https://arxiv.org/abs/1904.10509> |
Sandeep Subramanian ほか,Multi-scale Transformer Language Models,arXiv,v1,2020年05月01日,頁1-18,[検索日 2023.12.25], インターネット<URL: https://arxiv.org/abs/2005.00581> |
Also Published As
Publication number | Publication date |
---|---|
US11238332B2 (en) | 2022-02-01 |
US20210383191A1 (en) | 2021-12-09 |
JP2023529801A (ja) | 2023-07-12 |
WO2021248139A1 (en) | 2021-12-09 |
CN115552417A (zh) | 2022-12-30 |
KR20220164559A (ko) | 2022-12-13 |
EP4121908A1 (en) | 2023-01-25 |
US20220156553A1 (en) | 2022-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7502469B2 (ja) | スパースアテンションメカニズムを備えたアテンションニューラルネットワーク | |
US20210279576A1 (en) | Attention neural networks with talking heads attention | |
US10789942B2 (en) | Word embedding system | |
WO2018156373A1 (en) | Sequence processing using online attention | |
US20230222318A1 (en) | Attention neural networks with conditional computation | |
EP4040339A1 (en) | Sparse attention neural networks | |
US20210248473A1 (en) | Attention neural networks with linear units | |
WO2019084558A1 (en) | SELECTING RESPONSE INTERVALS FROM ELECTRONIC DOCUMENTS USING AUTOMATIC APPRENTICESHIP | |
US20230205994A1 (en) | Performing machine learning tasks using instruction-tuned neural networks | |
CN114467096A (zh) | 增强基于注意力的神经网络以选择性地关注过去的输入 | |
US20220383119A1 (en) | Granular neural network architecture search over low-level primitives | |
US11481609B2 (en) | Computationally efficient expressive output layers for neural networks | |
WO2023059831A1 (en) | Using memory to augment self-attention in neural networks | |
US20240013769A1 (en) | Vocabulary selection for text processing tasks using power indices | |
US20240078379A1 (en) | Attention neural networks with n-grammer layers | |
US12050983B2 (en) | Attention neural networks with parallel attention and feed-forward layers | |
US20230316055A1 (en) | Attention neural networks with parallel attention and feed-forward layers | |
US20230351188A1 (en) | Neural networks with switch layers | |
US20220367052A1 (en) | Neural networks with feedforward spatial transformation units | |
US20230177309A1 (en) | Training conditional computation neural networks using reinforcement learning | |
US20240119261A1 (en) | Discrete token processing using diffusion models | |
WO2023147144A1 (en) | Attention neural networks with gated attention units | |
CN117892733A (zh) | 基于联合多语义信息的文本匹配方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7502469 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |