JP2021064390A - ニューラルアーキテクチャ検索 - Google Patents
ニューラルアーキテクチャ検索 Download PDFInfo
- Publication number
- JP2021064390A JP2021064390A JP2020215172A JP2020215172A JP2021064390A JP 2021064390 A JP2021064390 A JP 2021064390A JP 2020215172 A JP2020215172 A JP 2020215172A JP 2020215172 A JP2020215172 A JP 2020215172A JP 2021064390 A JP2021064390 A JP 2021064390A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- output
- layer
- controller
- child
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Debugging And Monitoring (AREA)
- Feedback Control In General (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
P(層jは層iへの入力)=sigmoid(vTtanh(Wprev*hj+Wcurr*hi))
ここで、vT、Wprev、およびWcurrは、ノードのパラメータであり、hjは対応する以前の層jについてのアンカーポイント時間ステップの更新された隠れ状態であり、hiは層iについてのアンカーポイント時間ステップの更新された隠れ状態である。
a0=tanh(W1*xt+W2*ht-1)
ここで、W1およびW2はノードのパラメータ行列、xtは、時間ステップでのセルへの入力、およびht-1は前の時間ステップからのセルの出力である。
ここで、mはバッチ内のシーケンス数、Tはバッチ内の各シーケンス内の時間ステップ数、atは所与の出力シーケンス内の時間ステップtでの出力、Rkは出力シーケンスkについての報酬、θcはコントローラパラメータ、およびbはベースライン関数、たとえば以前のアーキテクチャ精度の指数移動平均である。
102 トレーニングデータ
104 検証セット
110 コントローラニューラルネットワーク
112 シーケンスのバッチ
120 トレーニングエンジン
130 コントローラパラメータ更新エンジン
150 アーキテクチャデータ
202〜214 時間ステップ
220 層
230 層
232 隠れ状態
242〜254 出力層
300 プロセス
Claims (22)
- 複数のコントローラパラメータを有するコントローラニューラルネットワークを使用して、前記コントローラパラメータの現在値に従って、出力シーケンスのバッチを生成するステップであって、前記バッチ内の各出力シーケンスが、特定のニューラルネットワークタスクを実行するように構成される子ニューラルネットワークのそれぞれのアーキテクチャを定義する、ステップと、
前記バッチ内の出力シーケンスごとに、
前記特定のニューラルネットワークタスクを実行するために、前記出力シーケンスによって定義された前記アーキテクチャを有する前記子ニューラルネットワークのそれぞれのインスタンスをトレーニングするステップと、
前記特定のニューラルネットワークタスクにおける前記子ニューラルネットワークの前記トレーニング済みインスタンスの性能メトリックを決定するために、前記特定のニューラルネットワークタスクにおける前記子ニューラルネットワークの前記トレーニング済みインスタンスの性能を評価するステップと
を含み、
前記コントローラニューラルネットワークの前記コントローラパラメータの前記現在値を調整するために、前記子ニューラルネットワークの前記トレーニング済みインスタンスの前記性能メトリックを使用するステップと
を含む、方法。 - 前記コントローラニューラルネットワークの前記コントローラパラメータの前記現在値を調整するために、前記子ニューラルネットワークの前記トレーニング済みインスタンスの前記性能メトリックを使用するステップが、
強化学習技法を使用して性能メトリックが向上した子ニューラルネットワークをもたらす出力シーケンスを生成するように、前記コントローラニューラルネットワークをトレーニングするステップ
を含む、請求項1に記載の方法。 - 前記強化学習技法がポリシー勾配技法である、請求項2に記載の方法。
- 前記強化学習技法がREINFORCE技法である、請求項3に記載の方法。
- 各出力シーケンスが、複数の時間ステップの各々における前記子ニューラルネットワークのそれぞれのハイパーパラメータについての値を含む、請求項1〜4のいずれか一項に記載の方法。
- 前記コントローラニューラルネットワークが、
所与の出力シーケンスについて、各時間ステップで、
前記所与の出力シーケンスにおける前記前の時間ステップでハイパーパラメータの前記値を入力として受信し、かつリカレントニューラルネットワークの現在の隠れ状態を更新するように、前記入力を処理する
ように構成される1つまたは複数のリカレントニューラルネットワーク層と、
時間ステップごとのそれぞれの出力層であって、各出力層が、前記所与の出力シーケンスについて、
前記時間ステップで前記更新された隠れ状態を含む出力層入力を受信し、かつ前記時間ステップで前記ハイパーパラメータの可能な値にわたるスコア分布を定義する前記時間ステップの出力を生成する
ように構成されるそれぞれの出力層と
を含むリカレントニューラルネットワークである、請求項5に記載の方法。 - 複数のコントローラパラメータを有するコントローラニューラルネットワークを使用して、前記コントローラパラメータの現在値に従って、出力シーケンスのバッチを生成するステップが、前記バッチ内の出力シーケンスごとに、および前記複数の時間ステップの各々について、
前記時間ステップでの前記ハイパーパラメータの可能な値にわたるスコア分布を定義する前記時間ステップの出力を生成するために前記出力シーケンス内の前記前の時間ステップにおける前記ハイパーパラメータの前記値を、前記コントローラニューラルネットワークへの入力として提供ステップと、
前記出力シーケンス内の前記時間ステップにおける前記ハイパーパラメータの前記値を決定するために前記スコア分布に従って前記可能な値からサンプリングするステップと
を含む、請求項6に記載の方法。 - 前記子ニューラルネットワークが畳み込みニューラルネットワークであり、前記ハイパーパラメータが、前記子ニューラルネットワーク内の各畳み込みニューラルネットワーク層のハイパーパラメータを含む、請求項5〜7のいずれか一項に記載の方法。
- 前記畳み込みニューラルネットワーク層の各々についての前記ハイパーパラメータが、
フィルタの数、
フィルタごとのフィルタ高さ、
フィルタごとのフィルタ幅、
フィルタごとのストライド高さ、または
フィルタごとのストライド幅
のうちの1つまたは複数を含む、請求項8に記載の方法。 - 前記子ニューラルネットワークが複数の層タイプを含み、前記ハイパーパラメータが、層ごとに、前記層のタイプに対応する値を含む、請求項5〜9のいずれか一項に記載の方法。
- 前記層のうちの1つまたは複数の各々について、前記ハイパーパラメータが、どの以前の層が前記層へのスキップ接続を有するかを定義するスキップ接続ハイパーパラメータを含む、請求項5〜10のいずれか一項に記載の方法。
- 前記複数の時間ステップが、前記ハイパーパラメータがスキップ接続ハイパーパラメータである前記1つまたは複数の層の各々について、それぞれのアンカーポイント時間ステップを含み、現在の層の前記アンカーポイント時間ステップについて、前記出力層が、
前記子ニューラルネットワーク内の前記現在の層よりも前の各層に対応するそれぞれのノードを含み、各ノードが、
前記対応する以前の層が前記子ニューラルネットワーク内の前記現在の層に接続される尤度を表すスコアを生成するためのパラメータのセットの現在値に従って、前記アンカーポイントステップについての前記更新された隠れ状態、および前記対応する以前の層の前記アンカーポイント時間ステップについての前記更新された隠れ状態を処理する
ように構成される、
請求項11に記載の方法。 - 前記子ニューラルネットワークがリカレントニューラルネットワークであり、前記出力シーケンスが、前記リカレントニューラルネットワーク内のリカレントセルのアーキテクチャを定義する、請求項1〜7のいずれか一項に記載の方法。
- 前記出力シーケンスが、前記リカレントセルによって実行される前記計算を表す計算ステップのツリー内のノードごとのそれぞれの計算ステップを含む、請求項12に記載の方法。
- 前記ツリー内の各ノードが、2つの入力をマージして出力を生成し、ノードごとに、前記出力シーケンスが、前記2つの入力を結合するための結合方法と、前記出力を生成するための前記2つの入力の前記結合に適用されるべきアクティブ化関数とを識別するデータを含む、請求項14に記載の方法。
- 前記出力シーケンスが、前記セルのメモリ状態が前記セルにどのようにインジェクトされるかを定義する値を含む、請求項14または15に記載の方法。
- 前記コントローラパラメータの前記調整された値に従って、前記子ニューラルネットワークの最終アーキテクチャを定義する最終出力シーケンスを生成するステップ
をさらに含む、請求項1〜16のいずれか一項に記載の方法。 - 前記最終アーキテクチャを有する子ニューラルネットワークを使用して受信されたネットワーク入力を処理することによって、前記受信されたネットワーク入力について前記特定のニューラルネットワークタスクを実行するステップ
をさらに含む、請求項17に記載の方法。 - 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1〜18のいずれか一項に記載の前記それぞれの方法の前記動作を実行させる命令を記憶する1つまたは複数の記憶デバイスとを備える、システム。
- 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1〜18のいずれか一項に記載の前記それぞれの方法の前記動作を実行させる命令を記憶する、1つまたは複数のコンピュータ記憶媒体。
- システムであって、
1つまたは複数のコンピュータによって実施されるコントローラニューラルネットワークであって、前記コントローラニューラルネットワークが、
特定のニューラルネットワークタスクを実行するように構成される子ニューラルネットワークのアーキテクチャを定義するハイパーパラメータ値の出力シーケンス内の各時間ステップにおいて、
前記出力シーケンス内の前記前の時間ステップに対応する前記子ニューラルネットワークのハイパーパラメータの値を入力として受信し、
リカレントニューラルネットワークの現在の隠れ状態を更新するように、前記入力を処理する
ように構成される1つまたは複数のリカレントニューラルネットワーク層
を含むリカレントニューラルネットワークであるコントローラニューラルネットワークと、
前記出力シーケンス内の各時間ステップに対応するそれぞれの出力層であって、各出力層が、
前記対応する時間ステップにおいて前記更新された隠れ状態を含む出力層入力を受信し、前記対応する時間ステップに対応する前記子ニューラルネットワークのハイパーパラメータの可能な値にわたるスコア分布を定義する前記対応する時間ステップの出力を生成する
ように構成される、出力層と
を含む、システム。 - 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項21に記載の前記システムを実装させる命令を記憶する1つまたは複数のコンピュータ記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022177577A JP7516482B2 (ja) | 2016-10-28 | 2022-11-04 | ニューラルアーキテクチャ検索 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662414300P | 2016-10-28 | 2016-10-28 | |
US62/414,300 | 2016-10-28 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522868A Division JP6817431B2 (ja) | 2016-10-28 | 2017-10-27 | ニューラルアーキテクチャ検索 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022177577A Division JP7516482B2 (ja) | 2016-10-28 | 2022-11-04 | ニューラルアーキテクチャ検索 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021064390A true JP2021064390A (ja) | 2021-04-22 |
JP7210531B2 JP7210531B2 (ja) | 2023-01-23 |
Family
ID=60473590
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522868A Active JP6817431B2 (ja) | 2016-10-28 | 2017-10-27 | ニューラルアーキテクチャ検索 |
JP2020215172A Active JP7210531B2 (ja) | 2016-10-28 | 2020-12-24 | ニューラルアーキテクチャ検索 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522868A Active JP6817431B2 (ja) | 2016-10-28 | 2017-10-27 | ニューラルアーキテクチャ検索 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11030523B2 (ja) |
JP (2) | JP6817431B2 (ja) |
KR (2) | KR102386806B1 (ja) |
CN (1) | CN108021983A (ja) |
DE (2) | DE102017125256A1 (ja) |
WO (1) | WO2018081563A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023009766A1 (en) * | 2021-07-28 | 2023-02-02 | Google Llc | Evaluating output sequences using an auto-regressive language model neural network |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565493B2 (en) * | 2016-09-22 | 2020-02-18 | Salesforce.Com, Inc. | Pointer sentinel mixture architecture |
WO2018081563A1 (en) | 2016-10-28 | 2018-05-03 | Google Llc | Neural architecture search |
US12014257B2 (en) * | 2017-05-19 | 2024-06-18 | Salesforce, Inc. | Domain specific language for generation of recurrent neural network architectures |
WO2019084560A1 (en) * | 2017-10-27 | 2019-05-02 | Google Llc | SEARCH FOR NEURONAL ARCHITECTURES |
US11741342B2 (en) * | 2018-05-18 | 2023-08-29 | Baidu Usa Llc | Resource-efficient neural architects |
EP3732631A1 (en) * | 2018-05-29 | 2020-11-04 | Google LLC | Neural architecture search for dense image prediction tasks |
CN111033535B (zh) * | 2018-06-05 | 2024-03-26 | 北京嘀嘀无限科技发展有限公司 | 用于乘车订单调度的***和方法 |
DE112019003910T5 (de) * | 2018-08-03 | 2021-04-29 | Sony Corporation | Informationsverarbeitungsverfahren, informationsverarbeitungsvorrichtung und informationsverarbeitungsprogramm |
CN110826686A (zh) * | 2018-08-07 | 2020-02-21 | 艾玛迪斯简易股份公司 | 有属性序列的机器学习***和方法 |
CN109255374A (zh) * | 2018-08-27 | 2019-01-22 | 中共中央办公厅电子科技学院 | 一种基于密集卷积网络和多任务网络的美学属性评价方法 |
CN109189973B (zh) * | 2018-08-30 | 2021-07-30 | 清华大学 | 基于策略梯度的大规模图像检索方法及装置 |
EP3617953A1 (en) * | 2018-08-30 | 2020-03-04 | Koninklijke Philips N.V. | An adaptable neural network |
CN109065076B (zh) * | 2018-09-05 | 2020-11-27 | 深圳追一科技有限公司 | 音频标签的设置方法、装置、设备和存储介质 |
US11334791B2 (en) * | 2018-09-05 | 2022-05-17 | Siemens Healthcare Gmbh | Learning to search deep network architectures |
CN110889487A (zh) * | 2018-09-10 | 2020-03-17 | 富士通株式会社 | 神经网络架构搜索装置和方法及计算机可读记录介质 |
KR102066009B1 (ko) * | 2018-09-14 | 2020-01-14 | 가천대학교 산학협력단 | 순환신경망을 사용한 의료영상기기의 영상복원 시스템 |
US11645509B2 (en) * | 2018-09-27 | 2023-05-09 | Salesforce.Com, Inc. | Continual neural network learning via explicit structure learning |
EP3629246B1 (en) * | 2018-09-27 | 2022-05-18 | Swisscom AG | Systems and methods for neural architecture search |
US20200104715A1 (en) * | 2018-09-28 | 2020-04-02 | Xilinx, Inc. | Training of neural networks by including implementation cost as an objective |
US11604992B2 (en) * | 2018-11-02 | 2023-03-14 | Microsoft Technology Licensing, Llc | Probabilistic neural network architecture generation |
CN111144561B (zh) * | 2018-11-05 | 2023-05-02 | 杭州海康威视数字技术股份有限公司 | 一种神经网络模型确定方法及装置 |
US11775812B2 (en) | 2018-11-30 | 2023-10-03 | Samsung Electronics Co., Ltd. | Multi-task based lifelong learning |
CN109615073B (zh) * | 2018-12-03 | 2021-06-04 | 郑州云海信息技术有限公司 | 一种神经网络模型的构建方法、设备以及存储介质 |
US11556778B2 (en) * | 2018-12-07 | 2023-01-17 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models |
CN111325311B (zh) * | 2018-12-14 | 2024-03-29 | 深圳云天励飞技术有限公司 | 用于图像识别的神经网络模型生成方法及相关设备 |
US11114103B2 (en) * | 2018-12-28 | 2021-09-07 | Alibaba Group Holding Limited | Systems, methods, and computer-readable storage media for audio signal processing |
CN113424199A (zh) | 2019-01-23 | 2021-09-21 | 谷歌有限责任公司 | 用于神经网络的复合模型缩放 |
US11790212B2 (en) * | 2019-03-18 | 2023-10-17 | Microsoft Technology Licensing, Llc | Quantization-aware neural architecture search |
US11630990B2 (en) | 2019-03-19 | 2023-04-18 | Cisco Technology, Inc. | Systems and methods for auto machine learning and neural architecture search |
US20200302270A1 (en) * | 2019-03-19 | 2020-09-24 | Cisco Technology, Inc. | Budgeted neural network architecture search system and method |
DE102019204136A1 (de) * | 2019-03-26 | 2020-10-01 | Robert Bosch Gmbh | Verfahren und Vorrichtung für Training und Herstellung eines künstlichen neuronalen Netzes |
CN110110861B (zh) * | 2019-05-09 | 2021-11-26 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
WO2020237687A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品 |
CN110288084A (zh) * | 2019-06-06 | 2019-09-27 | 北京小米智能科技有限公司 | 超网络训练方法和装置 |
DE102019210167A1 (de) * | 2019-07-10 | 2021-01-14 | Robert Bosch Gmbh | Robusteres Training für künstliche neuronale Netzwerke |
CN110490320B (zh) * | 2019-07-30 | 2022-08-23 | 西北工业大学 | 基于预测机制和遗传算法融合的深度神经网络结构优化方法 |
CN110428046B (zh) * | 2019-08-28 | 2023-12-15 | 腾讯科技(深圳)有限公司 | 神经网络结构的获取方法及装置、存储介质 |
CN110598852A (zh) * | 2019-08-29 | 2019-12-20 | 北京小米移动软件有限公司 | 子网络采样方法、构建超网络拓扑结构的方法及装置 |
CN110543944B (zh) * | 2019-09-11 | 2022-08-02 | 北京百度网讯科技有限公司 | 神经网络结构搜索方法、装置、电子设备和介质 |
CN110598629B (zh) * | 2019-09-11 | 2023-06-06 | 北京百度网讯科技有限公司 | 超网络的搜索空间构建方法、装置以及电子设备 |
WO2021051920A1 (zh) | 2019-09-17 | 2021-03-25 | 华为技术有限公司 | 模型优化方法、装置、存储介质及设备 |
CN110956262A (zh) * | 2019-11-12 | 2020-04-03 | 北京小米智能科技有限公司 | 超网络训练方法及装置、电子设备、存储介质 |
CN112884118A (zh) * | 2019-11-30 | 2021-06-01 | 华为技术有限公司 | 神经网络的搜索方法、装置及设备 |
CN112990461B (zh) * | 2019-12-16 | 2023-09-19 | 杭州海康威视数字技术股份有限公司 | 构建神经网络模型的方法、装置、计算机设备和存储介质 |
EP4097653A4 (en) * | 2020-01-27 | 2024-02-28 | Akkio, Inc. | METHOD AND SYSTEMS FOR DYNAMICLY GENERATING A MULTIPLE MACHINE LEARNING SYSTEMS WHILE PROCESSING A USER DATA SET |
US11521028B2 (en) | 2020-04-10 | 2022-12-06 | Toyota Research Institute, Inc. | Meta-learning neural architecture search via graph networks on search space lattices |
CN111516700A (zh) * | 2020-05-11 | 2020-08-11 | 安徽大学 | 一种驾驶员分心细粒度监测方法和*** |
JP7226696B2 (ja) * | 2020-06-05 | 2023-02-21 | 宏達國際電子股▲ふん▼有限公司 | 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 |
US11436498B2 (en) * | 2020-06-09 | 2022-09-06 | Toyota Research Institute, Inc. | Neural architecture search system for generating a neural network architecture |
CN113837374A (zh) | 2020-06-23 | 2021-12-24 | 中兴通讯股份有限公司 | 神经网络的生成方法、设备及计算机可读存储介质 |
CN111782398A (zh) * | 2020-06-29 | 2020-10-16 | 上海商汤智能科技有限公司 | 数据处理的方法、装置、***及相关设备 |
JP6885553B1 (ja) | 2020-07-14 | 2021-06-16 | エッジコーティックス ピーティーイー. リミテッド | ハードウェアとニューラルアーキテクチャとの共同探索 |
EP3975060A1 (en) * | 2020-09-29 | 2022-03-30 | Samsung Electronics Co., Ltd. | Method and apparatus for analysing neural network performance |
KR102264571B1 (ko) * | 2020-10-30 | 2021-06-15 | 주식회사 애자일소다 | 계층 구조를 갖는 의사결정 에이전트 |
US20220180207A1 (en) * | 2020-12-04 | 2022-06-09 | Google Llc | Automated Machine Learning for Time Series Prediction |
US12003261B2 (en) | 2021-05-12 | 2024-06-04 | Analog Devices, Inc. | Model architecture search and optimization for hardware |
US12028188B2 (en) | 2021-05-12 | 2024-07-02 | Analog Devices, Inc. | Digital predistortion with hybrid basis-function-based actuator and neural network |
CN113469078B (zh) * | 2021-07-07 | 2023-07-04 | 西安电子科技大学 | 基于自动设计长短时记忆网络的高光谱图像分类方法 |
KR102610429B1 (ko) * | 2021-09-13 | 2023-12-06 | 연세대학교 산학협력단 | 인공신경망과 연산 가속기 구조 통합 탐색 장치 및 방법 |
KR20230100914A (ko) | 2021-12-29 | 2023-07-06 | 경희대학교 산학협력단 | 인공신경망 탐색 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
KR20230159938A (ko) | 2022-05-16 | 2023-11-23 | 주식회사 뷰노 | 생체 신호 분석 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003508835A (ja) * | 1999-09-01 | 2003-03-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 進化アルゴリズムを用いたニューラルネットワークのアーキテクチャの改良方法 |
US20160224903A1 (en) * | 2015-01-29 | 2016-08-04 | Qualcomm Incorporated | Hyper-parameter selection for deep convolutional networks |
JP2017102906A (ja) * | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6817431B2 (ja) * | 2016-10-28 | 2021-01-20 | グーグル エルエルシーGoogle LLC | ニューラルアーキテクチャ検索 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402712B (zh) | 2011-08-31 | 2014-03-05 | 山东大学 | 基于神经网络的机器人强化学习初始化方法 |
US9899672B2 (en) | 2016-05-17 | 2018-02-20 | Nanotek Instruments, Inc. | Chemical-free production of graphene-encapsulated electrode active material particles for battery applications |
-
2017
- 2017-10-27 WO PCT/US2017/058760 patent/WO2018081563A1/en active Application Filing
- 2017-10-27 JP JP2019522868A patent/JP6817431B2/ja active Active
- 2017-10-27 DE DE102017125256.8A patent/DE102017125256A1/de active Pending
- 2017-10-27 KR KR1020197012084A patent/KR102386806B1/ko active IP Right Grant
- 2017-10-27 KR KR1020227011808A patent/KR102532658B1/ko active IP Right Grant
- 2017-10-27 DE DE202017106532.4U patent/DE202017106532U1/de active Active
- 2017-10-30 CN CN201711037649.0A patent/CN108021983A/zh active Pending
-
2019
- 2019-04-29 US US16/397,641 patent/US11030523B2/en active Active
-
2020
- 2020-12-24 JP JP2020215172A patent/JP7210531B2/ja active Active
-
2021
- 2021-06-07 US US17/340,959 patent/US11829874B2/en active Active
-
2023
- 2023-07-26 US US18/226,527 patent/US20230368024A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003508835A (ja) * | 1999-09-01 | 2003-03-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 進化アルゴリズムを用いたニューラルネットワークのアーキテクチャの改良方法 |
US20160224903A1 (en) * | 2015-01-29 | 2016-08-04 | Qualcomm Incorporated | Hyper-parameter selection for deep convolutional networks |
JP2017102906A (ja) * | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6817431B2 (ja) * | 2016-10-28 | 2021-01-20 | グーグル エルエルシーGoogle LLC | ニューラルアーキテクチャ検索 |
Non-Patent Citations (1)
Title |
---|
ANDREAS, J., ET AL.: "Learning to Compose Neural Networks for Question Answering", ARXIV.ORG [ONLINE], JPN6021048944, 7 June 2016 (2016-06-07), ISSN: 0004660702 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023009766A1 (en) * | 2021-07-28 | 2023-02-02 | Google Llc | Evaluating output sequences using an auto-regressive language model neural network |
GB2622755A (en) * | 2021-07-28 | 2024-03-27 | Google Llc | Evaluating output sequences using an auto-regressive language model neural network |
Also Published As
Publication number | Publication date |
---|---|
WO2018081563A1 (en) | 2018-05-03 |
KR20220047688A (ko) | 2022-04-18 |
US20210295163A1 (en) | 2021-09-23 |
WO2018081563A9 (en) | 2019-03-07 |
JP7210531B2 (ja) | 2023-01-23 |
KR102386806B1 (ko) | 2022-04-14 |
KR20190052143A (ko) | 2019-05-15 |
US20190251439A1 (en) | 2019-08-15 |
JP2023024993A (ja) | 2023-02-21 |
US11030523B2 (en) | 2021-06-08 |
KR102532658B1 (ko) | 2023-05-15 |
JP2019533257A (ja) | 2019-11-14 |
JP6817431B2 (ja) | 2021-01-20 |
CN108021983A (zh) | 2018-05-11 |
US20230368024A1 (en) | 2023-11-16 |
DE202017106532U1 (de) | 2018-02-05 |
DE102017125256A1 (de) | 2018-05-03 |
US11829874B2 (en) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6817431B2 (ja) | ニューラルアーキテクチャ検索 | |
US11651259B2 (en) | Neural architecture search for convolutional neural networks | |
JP7043596B2 (ja) | ニューラルアーキテクチャ検索 | |
JP7157154B2 (ja) | 性能予測ニューラルネットワークを使用したニューラルアーキテクチャ探索 | |
JP6790286B2 (ja) | 強化学習を用いたデバイス配置最適化 | |
JP6889270B2 (ja) | ニューラルネットワークアーキテクチャの最適化 | |
US11669744B2 (en) | Regularized neural network architecture search | |
JP2020201971A (ja) | 畳み込みニューラルネットワークを使用したシーケンスの処理 | |
US10922611B2 (en) | Neural network optimizer search | |
US20220019869A1 (en) | Hardware-optimized neural architecture search | |
JP7516482B2 (ja) | ニューラルアーキテクチャ検索 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220304 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221114 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |