JP2019512126A - 機械学習システムをトレーニングする方法及びシステム - Google Patents
機械学習システムをトレーニングする方法及びシステム Download PDFInfo
- Publication number
- JP2019512126A JP2019512126A JP2018544075A JP2018544075A JP2019512126A JP 2019512126 A JP2019512126 A JP 2019512126A JP 2018544075 A JP2018544075 A JP 2018544075A JP 2018544075 A JP2018544075 A JP 2018544075A JP 2019512126 A JP2019512126 A JP 2019512126A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- sample
- learning system
- training
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Operations Research (AREA)
- Feedback Control In General (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Complex Calculations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本出願は、ビッグデータ処理の分野に関し、更に詳しくは、機械学習システムをトレーニングする方法及びシステムに関する。
現在のビッグデータ時代においては、インターネットの会社による膨大なデータの取得は、非常に容易である。不完全な統計ではあるが、Google(登録商標)は、2012年に、30億件のクエリ/300億件の広告を日々有し、Facebook(登録商標)ユーザーは、2013年に、43億個のコンテンツを日々共有しており、Alibabaは、2015年のダブルイレブン(Double Eleven)の日に、7億件超のトランザクションを有していた。これらの会社は、ユーザーの興味/振る舞い/習慣及びこれらに類似したものを含む、データ内の金を採掘するべく、機械学習システムを使用している。
上述の問題点に鑑み、本出願の実施形態は、上述の問題に対処しうる、或いは、上述の問題を少なくとも部分的に解決しうる、機械学習システムをトレーニングする方法及びシステムを提供するべく、提案されている。
複数のサンプルセットを取得することであって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、ことと、
サンプルセットの対応するサンプリング期間に従って、それぞれのサンプルに対応するサンプリングレートを設定することと、
サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得することと、
サンプリングされた複数のサンプルセットの重要性値を個々に判定することと、
補正済みのサンプルデータを取得するべく、重要性値を使用することにより、サンプリングされた複数のサンプルセット内のサンプルデータのすべてを補正することと、
機械学習システムをトレーニングするべく、補正済みのサンプルデータのそれぞれを機械学習システムに入力することと、
を含む。
複数のサンプルセットを取得するように構成された第1取得モジュールであって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、第1取得モジュールと、
サンプルセットの対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するように構成されたサンプリングレート設定モジュールと、
サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得するように構成された第2取得モジュールと、
サンプリングされた複数のサンプルセットの重要性値を個々に設定するように構成された重要性値判定モジュールと、
補正済みのンプルデータを取得するべく、対応する重要性値を使用することにより、サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正するように構成されたサンプルデータ補正モジュールと、
機械学習システムをトレーニングするべく、補正済みのサンプルデータのそれぞれを機械学習システムに入力するように構成されたトレーニングモジュールと、
を含む。
以下、本出願の実施形態における添付図面を通じて、本出願の実施形態における技術的解決策について、明瞭且つ十分に説明することとする。記述されている実施形態は、本出願の実施形態の、すべてではなく、一部分であるに過ぎないことが明らかである。本出願の実施形態に基づいて当業者によって案出されるすべてのその他の実施形態は、本出願の保護範囲に含まれる。
本出願の第1実施形態は、機械学習システムをトレーニングする方法を提供している。図1は、本出願の第1実施形態による機械学習システムをトレーニングする方法のフローチャートを示している。この実施形態において提供される機械学習システムをトレーニングする方法は、以下のステップを含む。
本出願の第2実施形態は、機械学習システムをトレーニングする方法を提供している。図2は、本出願の第2実施形態による機械学習システムをトレーニングする方法のフローチャートである。本実施形態において提供されている機械学習システムをトレーニングする方法は、以下のステップを含む。
この場合に、重要性値は、初期重要性値に正比例しており、且つ、サンプリングされたサンプルセットのサンプリングレートには反比例している。
Y1=Y/a
この場合に、Y1は、サンプルセットに対応する設定された重要性値であり、
Yは、サンプルセットに対応するオリジナルの重要性値であり、且つ、
aは、サンプルセットのサンプリングレートである。
増大の後の最新のサンプリング期間に対応するサンプルセットの重要性値が、増大の前の最新のサンプリング期間に対応するサンプルセットの重要性値に正比例しており、且つ、サンプルセットの合計数に正比例している、
というものを含みうる。
Z1=Z×b
この場合に、Z1は、サンプルセットに対応する再度変更された重要性値であり、
Zは、サンプルセットに対応する最初に変更された重要性値であり、且つ、
bは、サンプルセットの合計数である。
Z1=Z×b
この場合に、Z1は、サンプルセットに対応するリセットされた重要性値であり、
Zは、サンプルセットに対応する最初に設定された重要性値であり、且つ、
bは、サンプルセットの合計数である。
本出願の第3実施形態は、機械学習システムをトレーニングする方法を提供している。図3は、本出願の第3実施形態による機械学習システムをトレーニングする方法のフローチャートを示している。この実施形態において提供されている機械学習システムをトレーニングする方法は、以下のステップを含む。
X1=floor(c×X+(rand())/d)/c
ここで、floorは、切り捨てであり、rand()は、0〜dの浮動小数点数を生成するためのものであり、X1は、低精度浮動小数点数であって、例えば、コンピュータストレージは、4バイトの浮動小数点数を必要とし、この場合に、これは、低減後のサンプルデータのそれぞれの勾配のストレージバイトを示し、Xは、高精度浮動小数点数であって、例えば、コンピュータストレージは、8バイトの高精度浮動小数点数を必要とし、これは、低減前のサンプルデータのそれぞれの勾配のストレージバイトである。
本出願の第4実施形態は、機械学習システムをトレーニングするシステムを提供している。図4は、本出願の第4実施形態による機械学習システムをトレーニングするシステムのブロック図を示している。この実施形態において提供されている機械学習システムをトレーニングするシステムは、複数のサンプルデータを使用することにより、機械学習システムをトレーニングしており、且つ、トレーニングシステム400は、
複数のサンプルセットを取得するように構成された第1取得モジュール401であって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、第1取得モジュールと、
サンプルセットの対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するように構成されたサンプリングレート設定モジュール402と、
サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得するように構成された第2取得モジュール403と、
サンプリングされた複数のサンプルセットの重要性値を個々に設定するように構成された重要性値判定モジュール404と、
補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正するように構成されたサンプルデータ補正モジュール405と、
機械学習システムをトレーニングするべく、補正済みのサンプルデータのそれぞれを機械学習システムに入力するように構成されたトレーニングモジュール406と、
を含む。
本出願の第5実施形態は、機械学習システムをトレーニングするシステムを提供している。図5は、本出願の第5実施形態による機械学習システムをトレーニングするシステムのブロック図を示している。本実施形態において提供されている機械学習システムをトレーニングするシステムは、複数のサンプルデータを使用することにより、機械学習システムをトレーニングしており、且つ、トレーニングシステム500は、
複数のサンプルセットを取得するように構成された第1取得モジュール501であって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、第1取得モジュールと、
サンプルセットの対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するように構成されたサンプリングレート設定モジュール502と、
サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得するように構成された第2取得モジュール503と、
サンプリングされた複数のサンプルセットの重要性値を個々に設定するように構成された重要性値判定モジュール504と、
補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、サンプリングされたサ複数のンプルセット内のサンプルデータのそれぞれを補正するように構成されたサンプルデータ補正モジュール505と、
機械学習システムをトレーニングするべく、補正済みのサンプルデータのそれぞれを機械学習システムに入力するように構成されたトレーニングモジュール506と、
を含む。
補正済みのサンプルデータを取得するべく、重要性値のそれぞれを、対応するサンプリングされたサンプルセット内のサンプルデータのそれぞれにより乗算する、
ように構成されている。
サンプリングされたサンプルセットの重要性値を取得するべく、対応するサンプリングレートに基づいてサンプリングされたサンプルセットの初期重要性値を補正するように構成されたプライマリ補正サブモジュール504a、
を含み、
この場合に、重要性値は、初期重要性値に正比例し、且つ、サンプリングされたサンプルセットのサンプリングレートには反比例している。
Y1=Y/a
ここで、Y1は、サンプルセットに対応するように設定された重要性値であり、
Yは、サンプルセットに対応するように設定されたオリジナルの重要性値であり、且つ、
aは、サンプルセットのサンプリングレートである。
予め設定された規則に従って最新のサンプリング期間に対応するサンプルセットの重要性値を増大させるように構成されたセカンダリ補正サブモジュール504b、
を更に含みうる。
増大の後の最新のサンプリング期間に対応するサンプルセットの重要性値が、増大の前の最新のサンプリング期間に対応するサンプルセットの重要性値に正比例しており、且つ、サンプルセットの合計数に正比例している、
というものを含む。
Z1=Z×b
ここで、Z1は、サンプルセットに対応するリセットされた重要性値セットであり、
Zは、サンプルセットに対応する最初に設定された重要性値であり、且つ、
bは、サンプルセットの合計数である。
本出願の第6実施形態は、機械学習システムをトレーニングするシステムを提供している。図6は、本出願の第6実施形態による機械学習システムをトレーニングするシステムのブロック図を示している。この実施形態において提供されている機械学習システムをトレーニングするシステムは、複数のサンプルデータを使用することにより、機械学習システムをトレーニングしており、且つ、トレーニングシステム600は、
複数のサンプルセットを取得するように構成された第1取得モジュール601であって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、第1取得モジュールと、
サンプルセットの対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するように構成されたサンプリングレート設定モジュール602と、
サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得するように構成された第2取得モジュール603と、
サンプリングされた複数のサンプルセットの重要性値を個々に設定するように構成された重要性値判定モジュール604と、
補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正するように構成されたサンプルデータ補正モジュール605と、
機械学習システムをトレーニングするべく、補正済みのサンプルデータのそれぞれを機械学習システムに入力するように構成されたトレーニングモジュール606と、
を含む。
補正済みのサンプルデータのそれぞれの勾配を算出するように構成された計算サブモジュール606aと、
それぞれの勾配の精度を低減するように構成された精度低減サブモジュール606bと、
機械モデルをトレーニングするべく、精度が低減された勾配を機械学習システムに入力するように構成されたトレーニングサブモジュール606cと、
を含む。
精度を低減するべく、以下の式を使用することにより、それぞれの勾配のストレージバイトを低減するように構成されており、
X1=floor(c×X+(rand())/d)/c
この場合に、floorは、切り捨てであり、rand()は、0〜dの浮動小数点数を生成するためのものであり、X1は、低減後のストレージバイトの数であり、且つ、Xは、低減前のストレージバイトの数である。
Claims (16)
- 機械学習システムをトレーニングする方法であって、前記機械学習システムをトレーニングするべく、複数のサンプルデータが使用される、方法において、
複数のサンプルセットを取得することであって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、ことと、
前記サンプルセットの前記対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定することと、
前記サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得することと、
前記サンプリングされた複数のサンプルセットの重要性値を個々に判定することと、
補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、前記サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正することと、
前記機械学習システムをトレーニングするべく、前記補正済みのサンプルデータのそれぞれを前記機械学習システムに入力することと、
を含む方法。 - 補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、前記サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正するステップは、
補正済みのサンプルデータを取得するべく、前記重要性値のそれぞれに、対応する前記サンプリングされたサンプルセット内のサンプルデータのそれぞれを乗算すること、
を含む請求項1に記載の機械学習システムをトレーニングする方法。 - 前記機械学習システムをトレーニングするべく、前記補正済みのサンプルデータのそれぞれを前記機械学習システムに入力するステップは、
前記補正済みのサンプルデータのそれぞれの勾配を算出することと、
前記それぞれの勾配の精度を低減することと、
前記機械モデルをトレーニングするべく、精度が低減された前記勾配を前記機械学習システムに入力することと、
を含む請求項1に記載の機械学習システムをトレーニングする方法。 - 前記それぞれの勾配の前記精度を低減するステップは、
前記精度を低減するべく、以下の式を使用することにより、それぞれの勾配のストレージバイトを低減することを含み、
X1=floor(c×X+(rand())/d)/c
ここで、floorは、切り捨てであり、rand()は、0〜dの浮動小数点数を生成するためのものであり、X1は、低減後のストレージバイトの数であり、且つ、Xは、低減前のストレージバイトの数である請求項3に記載の機械学習システムをトレーニングする方法。 - 前記サンプリングされた複数のサンプルセットの重要性値を個々に判定するステップは、
前記サンプリングされたサンプルセットの前記重要性値を取得するべく、対応するサンプリングレートに基づいて前記サンプリングされたサンプルセットの初期重要性値を補正することを含み、
前記重要性値は、前記初期重要性値に正比例しており、且つ、前記サンプリングされたサンプルセットの前記サンプリングレートには反比例している請求項1に記載の機械学習システムをトレーニングする方法。 - 前記サンプリングされた複数のサンプルセットの重要性値を個々に設定するステップは、
予め設定された規則に従って、最新のサンプリング期間に対応する前記サンプルセットの前記重要性値を増大させること、
を更に含む請求項5に記載の機械学習システムをトレーニングする方法。 - 前記予め設定された規則は、
増大の後の前記最新のサンプリング期間に対応する前記サンプルセットの前記重要性値が、増大の前の前記最新のサンプリング期間に対応する前記サンプルセットの前記重要性値に正比例しており、且つ、前記サンプルセットの合計数に正比例していること、
を含む請求項6に記載の機械学習システムをトレーニングする方法。 - 前記サンプルセットの前記対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するステップにおいて、サンプルセットの前記サンプリングレートは、前記サンプルセットに対応する後のサンプリング期間において、相対的に大きい請求項1に記載の機械学習システムをトレーニングする方法。
- 機械学習システムをトレーニングするシステムであって、前記機械学習システムをトレーニングするべく、複数のサンプルデータが使用される、システムにおいて
複数のサンプルセットを取得するように構成された第1取得モジュールであって、それぞれのサンプルセットは、対応するサンプリング期間内のサンプルデータを含む、第1取得モジュールと、
前記サンプルセットの前記対応するサンプリング期間に従って、それぞれのサンプルセットに対応するサンプリングレートを設定するように構成されたサンプリングレート設定モジュールと、
前記サンプリングレートに従ってサンプリングされた複数のサンプルセットを取得するように構成された第2取得モジュールと、
前記サンプリングされた複数のサンプルセットの重要性値を個々に設定するように構成された重要性値判定モジュールと、
補正済みのサンプルデータを取得するべく、対応する重要性値を使用することにより、前記サンプリングされた複数のサンプルセット内のサンプルデータのそれぞれを補正するように構成されたサンプルデータ補正モジュールと、
前記機械学習システムをトレーニングするべく、前記補正済みのサンプルデータのそれぞれを前記機械学習システムに入力するように構成されたトレーニングモジュールと、
を備えるシステム。 - 前記サンプルデータ補正モジュールは、
補正済みのサンプルデータを取得するべく、前記重要性値のそれぞれに、前記対応するサンプリングされたサンプルセット内のサンプルデータのそれぞれを乗算する、
ように構成されている請求項9に記載の機械学習システムをトレーニングするシステム。 - 前記トレーニングモジュールは、
前記補正済みのサンプルデータのそれぞれの勾配を算出するように構成された計算サブモジュールと、
前記それぞれの勾配の精度を低減するように構成された精度低減サブモジュールと、
前記機械モデルをトレーニングするべく、精度が低減された前記勾配を前記機械学習システムに入力するように構成されたトレーニングサブモジュールと、
を含む請求項9に記載の機械学習システムをトレーニングするシステム。 - 前記精度低減サブモジュールは、
前記精度を低減するべく、以下の式を使用することにより、それぞれの勾配のストレージバイトを低減するように構成されており、
X1=floor(c×X+(rand())/d)/c
floorは、切り捨てであり、rand()は、0〜dの浮動小数点数を生成するためのものであり、X1は、低減後のストレージバイトの数であり、且つ、Xは、低減前のストレージバイトの数である請求項11に記載の機械学習システムをトレーニングするシステム。 - 前記重要性値判定モジュールは、
前記サンプリングされたサンプルセットの前記重要性値を取得するべく、対応するサンプリングレートに基づいて前記サンプリングされたサンプルセットの初期重要性値を補正するように構成されたプライマリ補正サブモジュールを含み、
前記重要性値は、前記初期重要性値に正比例しており、且つ、前記サンプリングされたサンプルセットの前記サンプリングレートには反比例している請求項9に記載の機械学習システムをトレーニングするシステム。 - 前記重要性値判定モジュールは、
予め設定された規則に従って、最新のサンプリング期間に対応する前記サンプルセットの前記重要性値を増大させるように構成されたセカンダリ補正サブモジュール、
を更に含む請求項13に記載の機械学習システムをトレーニングするシステム。 - 前記予め設定された規則は、
増大の後の前記最新のサンプリング期間に対応する前記サンプルセットの前記重要性値が、増大の前の前記最新のサンプリング期間に対応する前記サンプルセットの前記重要性値に正比例しており、且つ、前記サンプルセットの合計数に正比例していること、
を含む請求項14に記載の機械学習システムをトレーニングする方法。 - 前記サンプリングレート設定モジュールは、前記サンプルセットの前記サンプリングレートが前記サンプルセットに対応する後のサンプリング期間において相対的に大きくなるよう設定するように構成されている請求項9に記載の機械学習システムをトレーニングするシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610113716.1A CN107133190A (zh) | 2016-02-29 | 2016-02-29 | 一种机器学习***的训练方法和训练*** |
CN201610113716.1 | 2016-02-29 | ||
PCT/CN2017/073719 WO2017148266A1 (zh) | 2016-02-29 | 2017-02-16 | 一种机器学习***的训练方法和训练*** |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019512126A true JP2019512126A (ja) | 2019-05-09 |
JP2019512126A5 JP2019512126A5 (ja) | 2020-03-26 |
JP6991983B2 JP6991983B2 (ja) | 2022-01-14 |
Family
ID=59720591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018544075A Active JP6991983B2 (ja) | 2016-02-29 | 2017-02-16 | 機械学習システムをトレーニングする方法及びシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11720787B2 (ja) |
JP (1) | JP6991983B2 (ja) |
CN (1) | CN107133190A (ja) |
TW (1) | TWI796286B (ja) |
WO (1) | WO2017148266A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111985651A (zh) * | 2019-05-22 | 2020-11-24 | ***通信集团福建有限公司 | 业务***运维方法和装置 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133190A (zh) | 2016-02-29 | 2017-09-05 | 阿里巴巴集团控股有限公司 | 一种机器学习***的训练方法和训练*** |
JP2019086928A (ja) * | 2017-11-06 | 2019-06-06 | ファナック株式会社 | 制御装置及び機械学習装置 |
TWI651664B (zh) * | 2017-11-15 | 2019-02-21 | 財團法人資訊工業策進會 | 模型生成伺服器及其模型生成方法 |
CN109325118B (zh) * | 2018-09-03 | 2023-06-27 | 平安科技(深圳)有限公司 | 不平衡样本数据预处理方法、装置和计算机设备 |
US11379760B2 (en) | 2019-02-14 | 2022-07-05 | Yang Chang | Similarity based learning machine and methods of similarity based machine learning |
CN113396562B (zh) * | 2019-02-27 | 2022-12-06 | 华为技术有限公司 | 人工智能增强数据采样 |
CN113010500B (zh) * | 2019-12-18 | 2024-06-14 | 天翼云科技有限公司 | 用于dpi数据的处理方法和处理*** |
CN114092632A (zh) | 2020-08-06 | 2022-02-25 | 财团法人工业技术研究院 | 标注方法、应用其的装置、***、方法及计算机程序产品 |
CN114357069B (zh) * | 2021-12-23 | 2024-05-28 | 微梦创科网络科技(中国)有限公司 | 一种基于分布式存储的大数据采样方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008072459A1 (ja) * | 2006-12-11 | 2008-06-19 | Nec Corporation | 能動学習システム、能動学習方法、及び能動学習用プログラム |
JP2009093250A (ja) * | 2007-10-04 | 2009-04-30 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
JP2014016895A (ja) * | 2012-07-10 | 2014-01-30 | Canon Inc | 情報抽出装置、情報抽出方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001247336B2 (en) * | 2000-03-10 | 2006-02-02 | Smiths Detection, Inc. | Control for an industrial process using one or more multidimensional variables |
US8315817B2 (en) * | 2007-01-26 | 2012-11-20 | Illumina, Inc. | Independently removable nucleic acid sequencing system and method |
US8706742B1 (en) * | 2009-04-22 | 2014-04-22 | Equivio Ltd. | System for enhancing expert-based computerized analysis of a set of digital documents and methods useful in conjunction therewith |
CN102156907A (zh) * | 2010-02-11 | 2011-08-17 | 中国科学院计算技术研究所 | 面向qa***的质检方法 |
CN101968851B (zh) * | 2010-09-09 | 2012-08-08 | 西安电子科技大学 | 基于字典学习上采样的医学影像处理方法 |
US9093120B2 (en) * | 2011-02-10 | 2015-07-28 | Yahoo! Inc. | Audio fingerprint extraction by scaling in time and resampling |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
JP5942651B2 (ja) * | 2012-07-10 | 2016-06-29 | 沖電気工業株式会社 | 入力装置 |
US9413779B2 (en) * | 2014-01-06 | 2016-08-09 | Cisco Technology, Inc. | Learning model selection in a distributed network |
CN104166668B (zh) * | 2014-06-09 | 2018-02-23 | 南京邮电大学 | 基于folfm模型的新闻推荐***及方法 |
US10311375B2 (en) * | 2014-10-16 | 2019-06-04 | Nanyang Technological University | Systems and methods for classifying electrical signals |
DE102016101665A1 (de) * | 2015-01-29 | 2016-08-04 | Affectomatics Ltd. | Auf datenschutzüberlegungen gestützte filterung von messwerten der affektiven reaktion |
CN107133190A (zh) | 2016-02-29 | 2017-09-05 | 阿里巴巴集团控股有限公司 | 一种机器学习***的训练方法和训练*** |
-
2016
- 2016-02-29 CN CN201610113716.1A patent/CN107133190A/zh active Pending
-
2017
- 2017-02-09 TW TW106104294A patent/TWI796286B/zh active
- 2017-02-16 WO PCT/CN2017/073719 patent/WO2017148266A1/zh active Application Filing
- 2017-02-16 JP JP2018544075A patent/JP6991983B2/ja active Active
-
2018
- 2018-08-27 US US16/114,078 patent/US11720787B2/en active Active
-
2023
- 2023-06-27 US US18/342,204 patent/US20230342607A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008072459A1 (ja) * | 2006-12-11 | 2008-06-19 | Nec Corporation | 能動学習システム、能動学習方法、及び能動学習用プログラム |
US20100005043A1 (en) * | 2006-12-11 | 2010-01-07 | Yoshiko Yamashita | Active learning system, active learning method and program for active learning |
JP2009093250A (ja) * | 2007-10-04 | 2009-04-30 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
JP2014016895A (ja) * | 2012-07-10 | 2014-01-30 | Canon Inc | 情報抽出装置、情報抽出方法及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111985651A (zh) * | 2019-05-22 | 2020-11-24 | ***通信集团福建有限公司 | 业务***运维方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20230342607A1 (en) | 2023-10-26 |
TW201737115A (zh) | 2017-10-16 |
WO2017148266A1 (zh) | 2017-09-08 |
JP6991983B2 (ja) | 2022-01-14 |
TWI796286B (zh) | 2023-03-21 |
CN107133190A (zh) | 2017-09-05 |
US11720787B2 (en) | 2023-08-08 |
US20180365523A1 (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019512126A (ja) | 機械学習システムをトレーニングする方法及びシステム | |
JP6804668B2 (ja) | ブロックデータ検証方法および装置 | |
CN104504084B (zh) | 确定用户留存率的方法及装置 | |
CN109561052B (zh) | 网站异常流量的检测方法及装置 | |
CN105183669A (zh) | 一种数据存储方法及装置 | |
WO2021169386A1 (zh) | 一种图数据处理方法、装置、设备、介质 | |
CN106648839B (zh) | 数据处理的方法和装置 | |
CN108228443B (zh) | 一种web应用的测试方法及装置 | |
CN109034880A (zh) | 收入预测方法及装置 | |
CN110209582A (zh) | 代码覆盖率的统计方法及装置、电子设备、存储介质 | |
CN110019260B (zh) | 一种用户数据的更新方法及相关设备 | |
CN111798263A (zh) | 一种交易趋势的预测方法和装置 | |
CN112333294A (zh) | 日志归并方法、装置、介质和设备 | |
CN116560968A (zh) | 一种基于机器学习的仿真计算时间预测方法、***及设备 | |
CN110097361B (zh) | 一种基于x11算法的区块链动态算力共识方法及计算机*** | |
CN112564996A (zh) | 压力测试流量调度、控制方法、设备以及计算机可读介质 | |
CN107977923B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN108243037B (zh) | 网站流量异常确定方法及装置 | |
CN111125087A (zh) | 数据的存储方法及装置 | |
CN111147082B (zh) | 一种证券交易数据压缩方法及装置 | |
CN110704742B (zh) | 一种特征提取方法及装置 | |
CN110019068B (zh) | 一种日志文本处理方法和装置 | |
CN113361719A (zh) | 基于图像处理模型的增量学习方法和图像处理方法 | |
CN107645541B (zh) | 数据存储方法、装置及服务器 | |
CN109582295B (zh) | 一种数据处理方法、装置、存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211101 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6991983 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |