JP6603182B2 - 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 - Google Patents
機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 Download PDFInfo
- Publication number
- JP6603182B2 JP6603182B2 JP2016144923A JP2016144923A JP6603182B2 JP 6603182 B2 JP6603182 B2 JP 6603182B2 JP 2016144923 A JP2016144923 A JP 2016144923A JP 2016144923 A JP2016144923 A JP 2016144923A JP 6603182 B2 JP6603182 B2 JP 6603182B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- neural network
- circuit
- perceptron
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Neurology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Feedback Control In General (AREA)
- Numerical Control (AREA)
- Image Analysis (AREA)
Description
ニューラルネットワークを利用する場合には、解決したい問題に応じた適切なニューラルネットワークのモデルを構築することが重要となる。なぜならば、適切なニューラルネットワークモデルでない場合には、出力の精度が落ちてしまうからである。
まず、特許文献1には、機械学習を行っていないニューラルネットワークに対して、種々のパラメータを設定したスクリプト命令を実行することで、学習を行うツールが開示されている。
また、特許文献2には、大規模なニューラルネットワークを機能単位ごとのブロックに分け、各ブロックに対してニューロンの数や接続規則をパラメータとして設定し、その値に基づいてニューラルネットワークを自動生成する技術が開示されている。
更に、特許文献3には、ニューラルネットワークの学習後の各ニューロンの出力を分析することで、最適なニューロン数を出力する方法が開示されている。
この点、上述するように、機械学習では、解決すべき問題に応じた適切なニューラルネットワークモデルを構築することが重要であるが、モデル構築作業は専門性が要求されるため、ユーザが適切なモデルへとたどり着くのは容易ではないという問題がある。
また、解決すべき問題は個々のユーザによって異なることから、適切なニューラルネットワークも個々のユーザにとって異なるので、決め打ちのニューラルネットワークモデルを有する学習器回路をあらかじめ用意しておくことは柔軟性がないという問題がある。
例えば、特許文献1には、スクリプト作成をアシストする機能として、ニューラルネットワークの接続関係を表示する方法が言及されているが、それによりニューラルネットワークモデルの構造そのものを設定できるわけではない。
また、特許文献2や特許文献3に開示の技術を用いることにより、決め打ちのニューラルネットワークモデルを有する学習器回路をあらかじめ用意しておくことはできるかもしれない。しかしながら、これらの技術を用いたとしても、ユーザ毎に異なっている解決すべき問題それぞれに適した、様々なニューラルネットワークモデルを学習器回路上に柔軟に構築することはできない。
また、種々のパラメータの設定作業をアシストするユーザインタフェースをユーザに提供する。ユーザは、かかるユーザインタフェースを利用したグラフィカルな編集作業により、種々のパラメータの設定作業を簡便に行うことができる。
そして、ユーザにより設定された種々のパラメータに基づいてニューラルネットワークモデルを構築し、このニューラルネットワークモデルを瞬時に学習器回路に反映する。
以上が本発明の実施形態の概略である。
図1を参照すると、本実施形態である機械学習モデル構築システムは、複数の数値制御装置(CNC:Computer Numerical Control)100と、これら複数の数値制御装置100を管理する上位システム200とを備える。
ここで、仮に数値制御装置100ではなく上位システム200が学習器回路80を備え、かかるニューラルネットワークモデルの構築のための処理を行ったとする。この場合、数値制御装置100が学習器回路80の入力を上位システム200に転送し、上位システム200は学習器回路80の出力を数値制御装置100に転送する。これは、転送に要する時間がボトルネックとなり、学習器回路80の出力結果をリアルタイムに反映することが困難な可能性がある。
そのため、本実施形態では図1に示すように、エッジ側である各数値制御装置100にハードウェア化した学習器回路80を用意し、エッジ側である各数値制御装置100においてニューラルネットワークモデルの構築のための処理を行うこととする。
また他にも、例えば、工作機械等に異常が発生する前に、異常発生の予兆を検知するためニューラルネットワークモデルを構築する。この場合、構築されたニューラルネットワークでは、複数のセンサそれぞれが測定した測定値が入力され、これから異常が発生するであろう確率が出力される。
ここで、本実施形態の数値制御装置100は、工作機械を数値制御する一般的な数値制御装置として機能するのみならず、ニューラルネットワークモデルを構築する機械学習モデル構築装置としても機能する。
以下、これら各機能ブロックについて説明をする。
ここで、ROM12に格納された各種のプログラムとは、一般的な数値制御装置としての機能を実現するためのプログラムと、本実施形態におけるニューラルネットワークの構築のための処理を実現するためのプログラムである。本実施形態におけるニューラルネットワークの構築のための処理を実現するためのプログラムとは、例えば、ユーザがパラメータ値を入力するためのユーザインタフェースを提供する機能や、学習器回路80にニューラルネットワークモデルを構築するための値である設定値を算出する機能や、算出した設定値に基づいて、実際に学習器回路80にニューラルネットワークモデルを構築させる機能といった各種の機能を実現するためのプログラムである。
ROM12には、上述したシステムプログラムの一部として、加工プログラムの作成及び編集のために必要とされる編集モードの処理や自動運転のための処理を実施するための各種システムプログラムも書き込まれている。
この各種加工プログラムはインタフェース15や表示器/MDIユニット70を介して入力し、CMOSメモリ14に格納することができる。
なお、図中において学習器回路80とCPU11は、他の機能ブロックと同様にデータ通信バス20を介して接続されているが、学習器回路80とCPU11をデータ通信バス20以外の、専用のデータ通信バスを設けて接続するようにしてもよい。
なお、以下の説明では、各パーセプトロンを「添字を二文字添えたP」で示す。また、図3を含めた各図では、各パーセプトロンを「添字を二文字添えた丸付き文字のP」で示す。かかるPの添字の一文字目はそのパーセプトロンの次元数を表し、添字の二文字目はそのパーセプトロンの層数を表す。例えば、P21であれば、一層目であって二次元目のパーセプトロンであることを表す。
ただし、これらの値はあくまで一例であり、他の値であってもよい。例えば、Dの値を大きくすることにより(すなわち、パーセプトロンの次元数を増やして、同時に入力することができる入力値の数を増やすことにより)、100万画素を超える画像を対象として画像認識を行うようにしてもよい。すなわち、L及びDは任意の自然数であってよい。
今回は、説明を簡略化するためにパーセプトロン回路85全体に含まれるパーセプトロンの層数と次元数を、上述した一般的な数よりも小さな数であると想定して説明をする。具体的には、パーセプトロン回路85全体に含まれるパーセプトロンの層数が3、次元数が3であるとして説明する。ただし、本実施形態は、このような層数や次元数に限定されるものではないのは、上述した通りである。
また、最初の層のパーセプトロンの入力を、添字を二文字添えたXで表し、パーセプトロンの出力を、添字を二文字添えたYで表す。
ただし、何れのパーセプトロンと対応するかを特定することなく説明する場合にはこれらの添字を省略して説明をする。
かかる構成は、一般的なパーセプトロン回路85の機能である。ただし、本実施形態における学習器回路80のパーセプトロン回路85は、設定値に基づいて任意のニューラルネットワークモデルを構築する機能を更に備える。
例えば、図6の上段の左側に記載のように、1つの層を利用しないこととし、4層で4次元のニューラルネットワークモデルを構築することができる。
また、他にも、図6の上段の中央に記載のように、層が増加するに伴い次元数が増加するニューラルネットワークモデルを構築することができる。
更に、他にも、図6の上段の右側に記載のように、層が増加するに伴い次元数が減少するニューラルネットワークモデルを構築することができる。
更に、他にも、図6の下段の左側に記載のように、3層目までは層が増加するに伴い次元数が減少するが、4層目からは層が増加するに伴い次元数も増加するニューラルネットワークモデルを構築することができる。
更に、他にも、図6の下段の右側に記載のように、3層目までは層が増加するに伴い次元数も増加するが、4層目からは層が増加するに伴い次元数が減少するニューラルネットワークモデルを構築することができる。
そして、各パーセプトロンに含まれる掛け算器が、自身に対応する設定値Sijに基づいて、以下の(1)から(3)までの3つの出力のうちの何れかの出力を行う。
(2) 出力値を「0」とする(以降、かかる出力を「Y0」と呼ぶ。)
(3) 入力Xをそのまま出力とする(以降、かかる出力を「Yin」と呼ぶ。)
ここで、図7の左側には、図3や図4での説明に使用した層数3、次元数3のパーセプトロン回路85を有する学習器回路80が示されている。
この学習器回路80上で、図7の右側に示すニューラルネットワークモデルを構築することを目的とする。かかる目的のニューラルネットワークモデルでは、第2層の1P32と、第3層全体(すなわち、P13、P23、及びP33)が使用されないパーセプトロンとなっている。
このようなニューラルネットワークモデルを構築するために、各パーセプトロンに含まれる掛け算器は、設定値Sijに基づいて、層の一部又は全体が使用される場合(例の第1層、第2層)と層全体が使用されない場合(例の第3層)で場合分けして次のように出力を選択する。
使用されるパーセプトロンの掛け算器の出力:すべてYwとする。
使用されないパーセプトロンの掛け算器の出力:すべてY0とする。
これによりパーセプトロン内に含まれる足し算器で算出される総和は、使用される掛け算器において通常通り出力された入力と重み付けの値とを乗算した値と、使用されない掛け算器において出力されたゼロの値とを加算した値となる。つまり、使用される層に対応する掛け算器から出力される値のみの総和を算出することができる。
そのパーセプトロンと同次元のパーセプトロンからの入力が入る掛け算器の出力:Yinとする。
上記以外の出力:すべてY0とする。
これにより、同次元のパーセプトロンの入力をそのまま次の層に出力することとなる。つまり、この層を実質的に無効とする。
なお、以下では、設定値Sの添字としてijを用いる。ここで設定値Sijのiは設定対象とするパーセプトロンの次元数に対応する変数となる。また、jは設定対象とするパーセプトロンの層数に対応する変数となる。
一方で、3つの掛け算器の内の真ん中の掛け算器は同次元ではないパーセプトロンのP21からの入力Y21が入るので、この掛け算器のflag3の値は「0」となる。同様に、3つの掛け算器の内一番下の掛け算器は同次元ではないパーセプトロンのP31からの入力Y31が入るので、この掛け算器のflag3の値は「0」となる。
以下では、構築するニューラルネットワークモデルに対応するパラメータ値の設定についてまず説明をする。
そして、次に設定されたパラメータ値に基づいて、CPU11がflag1、及びflag2の値を算出する方法について説明をする。算出されたflag1、及びflag2の値は、設定値Sijとして各パーセプトロンの掛け算器に設定される。
最後に、このようにして設定されたflag1、及びflag2の値と、各パーセプトロンの掛け算器が保持するflag3の値に基づいて掛け算器の出力を変化させる回路構成について説明をする。
そして、ユーザが用意されているニューラルネットワークモデルを、例えば「モデルA」として選択する。CPU11はかかる選択されたニューラルネットワークモデルを構築するためのパラメータ値が設定されたものする。そして、以後の設定画面の例でも同様だが、設定されたパラメータ値に基づいてflag1、及びflag2の値を算出し、算出したflag1、及びflag2の値は、設定値Sijとして設定値記憶部83に記憶させる。
例えば、指定された層数の範囲が3〜4であり、指定された次元数の範囲が2〜3であれば、1層目の次元数が2であり、2層目の次元数が2であり、3層目の次元数が2であるニューラルネットワークモデルを構築する。そして、この構築したニューラルネットワークモデルにて所定時間機械学習を行う。次に、1層目の次元数が3であり、2層目の次元数が2であり、3層目の次元数が2であるニューラルネットワークモデルを構築する。そして、この構築したニューラルネットワークモデルにて所定時間機械学習を行う。次に、1層目の次元数が3であり、2層目の次元数が3であり、3層目の次元数が2であるニューラルネットワークモデルを構築する。そして、この構築したニューラルネットワークモデルにて所定時間機械学習を行う。このようにして、指定された層数の範囲と、次元数の範囲内で層数と次元数を異ならせながらニューラルネットワークモデルを構築する。
そして、ユーザは、構築された全てのニューラルネットワークモデルにおける機械学習の結果を参照することにより、適切と思われるニューラルネットワークモデルを決定することができる。
ここで説明の前提として、パラメータ値は、その値として以下の、Nlayer及びNdim,jを含む。
Ndim,j:構築するニューラルネットワークモデルの各層の次元数(ここで、jは層数を表す変数である。)
パラメータ値を取得してNlayer及びNdim,jを設定する(ステップS14)。これにより、本パラメータ値の設定処理は終了する。
他方、入力Xは分岐されてAND回路95の入力端子にYinとして入力される。また、NOR回路92の入力端子には、flag1、及びflag2の値が入力される。更に、AND回路94の入力端子には、flag1、及びflag3の値が入力される。
ここまでは、各フラグの値を問うことなく共通の動作となる。
また、AND回路94に入力するflag1の値は「1」であり、flag3の値も「1」であるのでAND回路94の出力は「1」となる。すると、AND回路95の入力端子に「1」とYinが入力されるので、AND回路93の出力はYinとなり、OR回路96の入力端子にYinが入力される。
以上より、OR回路96の入力端子には、Y0とYinが入力されるので、OR回路96の出力はYinとなる。かかる出力は、各パーセプトロン内の足し算器に入力される。
このようにして、上述の[表1]の最上段に示すように出力される。なお、このケースは、層全体を使用せず、同次元の入力が入る掛け算器となったケースである。
また、AND回路94に入力するflag1の値は「1」であり、flag3の値は「0」であるのでAND回路94の出力は「0」となる。すると、AND回路95の入力端子に「0」とYinが入力されるので、AND回路93の出力はY0となり、OR回路96の入力端子にY0が入力される。
以上より、OR回路96の入力端子には、Y0とY0が入力されるので、OR回路96の出力はY0となる。かかる出力は、各パーセプトロン内の足し算器に入力される。
このようにして、上述の[表1]の上から二段目に示すように出力される。なお、このケースは、層全体を使用せず、同次元の入力が入る掛け算器以外の掛け算器となったケースである。
また、AND回路94に入力するflag1の値は「0」であり、flag3の値が「1」であっても「0」であってもAND回路94の出力は「0」となる。すると、AND回路95の入力端子に「0」とYinが入力されるので、AND回路93の出力はY0となり、OR回路96の入力端子にY0が入力される。
以上より、OR回路96の入力端子には、YwとY0が入力されるので、OR回路96の出力はYwとなる。かかる出力は、各パーセプトロン内の足し算器に入力される。
このようにして、上述の[表1]の上から三段目に示すように出力される。なお、このケースは、使用されるパーセプトロンの掛け算器となったケースである。
この場合、NOR回路92に入力するflag1の値は「0」であり、NOR回路92に入力するflag2の値は「1」である。そのため、NOR回路92の出力は「0」となる。すると、AND回路93の入力端子に「0」とYwが入力されるので、AND回路93の出力はY0となり、OR回路96の入力端子にY0が入力される。
また、AND回路94に入力するflag1の値は「0」であり、flag3の値が「1」であっても「0」であってもAND回路94の出力は「0」となる。すると、AND回路95の入力端子に「0」とYinが入力されるので、AND回路93の出力はY0となり、OR回路96の入力端子にY0が入力される。
以上より、OR回路96の入力端子には、Y0とY0が入力されるので、OR回路96の出力はY0となる。かかる出力は、各パーセプトロン内の足し算器に入力される。
このようにして、上述の[表1]の上から最下段に示すように出力される。なお、このケースは、層の一部を使用する場合に、その層で使用されないパーセプトロンの掛け算器となったケースである。
また、数値制御装置として機能させるためのプログラムと、ニューラルネットワークモデルの構築を行うためのプログラムとが異なる記憶装置に格納されていてもよく、それぞれのプログラムを異なるCPUが処理してもよい。
更に、ニューラルネットワークモデルの構築を行うための機能を、数値制御装置100ではなくサーバ装置等により実現し、数値制御装置100とは関連しない問題を解決するために、ニューラルネットワークモデルを構築するようにしてもよい。すなわち、本実施形態の適用範囲を数値制御装置100に限定しないようにしてもよい。
12 ROM
13 RAM
14 CMOSメモリ
15、18、19 インタフェース
16 PMC
17 I/Oユニット
20 データ通信バス
30〜34 軸制御回路
40〜44 サーボアンプ
50〜54 サーボモータ
60 スピンドル制御回路
61 スピンドルアンプ
62 スピンドルモータ
63 パルスエンコーダ
70 表示器/MDIユニット
71 操作盤
72 外部機器
80 学習器回路
81 入力部
82 出力部
83、83a 重み付け記憶部
84、84a 設定値記憶部
85、85a パーセプトロン回路
91 掛け算器
92 NOR回路
93、94、95 AND回路
96 OR回路
100a、100b、100c 数値制御装置
Claims (10)
- 少なくとも、使用されないパーセプトロンの場合「1」の値をとり、使用されるパーセプトロンの場合「0」の値をとるフラグを含む設定値に応じたニューラルネットワークモデルを構築可能なハードウェアで実装された学習器回路と、
前記学習器回路に所定のニューラルネットワークモデルを構築するための値となるような前記設定値を算出する制御手段と、
を備え、
前記制御手段は、前記設定値に応じて前記学習器回路に含まれる各パーセプトロン内の掛け算器の出力を、該掛け算器の入力に重み付け値を乗算した値、該掛け算器の入力そのものの値、及びゼロの値、の何れかの値とし、各パーセプトロン内の掛け算器の出力の総和を各パーセプトロンの出力とすることにより、前記学習器回路にニューラルネットワークモデルを構築する、
機械学習モデル構築装置。 - 前記制御手段は、パラメータ値の入力を受け付け、該受け付けたパラメータ値に対応したニューラルネットワークモデルを前記所定のニューラルネットワークモデルとし、該所定のニューラルネットワークモデルを前記学習器回路に構築するための値となるような前記設定値を算出する請求項1に記載の機械学習モデル構築装置。
- 前記受け付けたパラメータ値とは、ニューラルネットワークモデルの層数と、各層における次元数とを指定する値である請求項2に記載の機械学習モデル構築装置。
- 前記制御手段は、設定ファイルから前記パラメータ値を読み込む請求項2又は3に記載の機械学習モデル構築装置。
- 前記制御手段は、前記パラメータ値に応じたパーセプトロンの接続関係と、ユーザが前記パーセプトロンの接続関係を参照しながら前記パラメータ値の調整を行うためのグラフィカルユーザインタフェースとを表示手段に描画する請求項2から4の何れか1項に記載の機械学習モデル構築装置。
- 前記制御手段は、あらかじめ定めたニューラルネットワークモデルをユーザに選択させ、該選択されたニューラルネットワークモデルを前記所定のニューラルネットワークモデルとし、該所定のニューラルネットワークモデルを前記学習器回路に構築するための値となるような前記設定値を算出する請求項1から5に記載の機械学習モデル構築装置。
- 工作機械を制御する数値制御装置であって、
請求項1から6までの何れか1項に記載の機械学習モデル構築装置を備え、
前記制御手段は、前記工作機械の制御に関連するニューラルネットワークモデルを前記学習器回路に構築するためのパラメータ値の入力を受け付け、該受け付けたパラメータ値に対応したニューラルネットワークモデルを前記所定のニューラルネットワークモデルとし、該所定のニューラルネットワークモデルを前記学習器回路に構築するための値となるような前記設定値を算出する数値制御装置。 - コンピュータを機械学習構築装置として機能させるための機械学習モデル構築プログラムであって、
前記コンピュータを、
少なくとも、使用されないパーセプトロンの場合「1」の値をとり、使用されるパーセプトロンの場合「0」の値をとるフラグを含む設定値に応じたニューラルネットワークモデルを構築可能なハードウェアで実装された学習器回路と、
前記学習器回路に所定のニューラルネットワークモデルを構築するための値となるような前記設定値を算出する制御手段と、
を備え、
前記制御手段は、前記設定値に応じて前記学習器回路に含まれる各パーセプトロン内の掛け算器の出力を、該掛け算器の入力に重み付け値を乗算した値、該掛け算器の入力そのものの値、及びゼロの値、の何れかの値とし、各パーセプトロン内の掛け算器の出力の総和を各パーセプトロンの出力とすることにより、前記学習器回路にニューラルネットワークモデルを構築する、
機械学習モデル構築装置として機能させる機械学習モデル構築プログラム。 - コンピュータが読み出し可能な記録媒体であって、請求項8に記載の機械学習モデル構築プログラムを記録した記録媒体。
- 少なくとも、使用されないパーセプトロンの場合「1」の値をとり、使用されるパーセプトロンの場合「0」の値をとるフラグを含む設定値に応じたニューラルネットワークモデルを構築可能なハードウェアで実装された学習器回路を備えた機械学習モデル構築装置が行う、機械学習モデル構築方法であって、
前記学習器回路に所定のニューラルネットワークモデルを構築するための値となるような前記設定値を算出する制御ステップを備え、
前記制御ステップでは、前記設定値に応じて前記学習器回路に含まれる各パーセプトロン内の掛け算器の出力を、該掛け算器の入力に重み付け値を乗算した値、該掛け算器の入力そのものの値、及びゼロの値、の何れかの値とし、各パーセプトロン内の掛け算器の出力の総和を各パーセプトロンの出力とすることにより、前記学習器回路にニューラルネットワークモデルを構築する、
機械学習モデル構築方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016144923A JP6603182B2 (ja) | 2016-07-22 | 2016-07-22 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
US15/648,753 US10649416B2 (en) | 2016-07-22 | 2017-07-13 | Machine learning model construction device, numerical control, machine learning model construction method, and non-transitory computer readable medium encoded with a machine learning model construction program |
DE102017212270.6A DE102017212270A1 (de) | 2016-07-22 | 2017-07-18 | Erstellungsvorrichtung für Modelle für maschinelles Lernen, numerische Steuerung, Erstellungsverfahren für Modelle für maschinelles Lernen, Erstellungsprogramm für Modelle für maschinelles Lernen und Aufzeichnungsmedium |
CN201710595217.5A CN107643728B (zh) | 2016-07-22 | 2017-07-18 | 机械学习模型构筑装置及方法、数值控制装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016144923A JP6603182B2 (ja) | 2016-07-22 | 2016-07-22 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018014060A JP2018014060A (ja) | 2018-01-25 |
JP6603182B2 true JP6603182B2 (ja) | 2019-11-06 |
Family
ID=60951212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016144923A Active JP6603182B2 (ja) | 2016-07-22 | 2016-07-22 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10649416B2 (ja) |
JP (1) | JP6603182B2 (ja) |
CN (1) | CN107643728B (ja) |
DE (1) | DE102017212270A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6665412B2 (ja) * | 2015-03-23 | 2020-03-13 | 株式会社タダノ | 作業機械の調整装置 |
US20190302707A1 (en) * | 2018-03-28 | 2019-10-03 | Mitsubishi Electric Research Laboratories, Inc. | Anomaly Detection in Manufacturing Systems Using Structured Neural Networks |
JP2020086479A (ja) * | 2018-11-15 | 2020-06-04 | 株式会社日立製作所 | 計算機、ニューラルネットワークの構築方法、および計算機システム |
US11556778B2 (en) * | 2018-12-07 | 2023-01-17 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models |
US10740371B1 (en) | 2018-12-14 | 2020-08-11 | Clinc, Inc. | Systems and methods for intelligently configuring and deploying a machine learning-based dialogue system |
JP2020107012A (ja) * | 2018-12-27 | 2020-07-09 | ルネサスエレクトロニクス株式会社 | 演算処理装置および機械学習方法 |
US11610134B2 (en) | 2019-07-08 | 2023-03-21 | Vianai Systems, Inc. | Techniques for defining and executing program code specifying neural network architectures |
WO2021009741A1 (en) * | 2019-07-14 | 2021-01-21 | Aquabot Ltd. | Order fulfillment system |
EP3997015A4 (en) * | 2019-07-14 | 2023-08-16 | Aquabot Ltd. | ORDER EXECUTION SYSTEM |
US20210081841A1 (en) * | 2019-09-12 | 2021-03-18 | Viani Systems, Inc. | Visually creating and monitoring machine learning models |
JP7046239B2 (ja) * | 2020-01-24 | 2022-04-01 | 株式会社日立製作所 | 画像内のオブジェクト認識のためにニューラルネットワークを生成するための方法及びシステム |
CN112000330B (zh) * | 2020-07-15 | 2023-12-22 | 北京百度网讯科技有限公司 | 建模参数的配置方法、装置、设备和计算机存储介质 |
CN112015749B (zh) * | 2020-10-27 | 2021-02-19 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护更新业务模型的方法、装置及*** |
US20240104652A1 (en) * | 2021-11-30 | 2024-03-28 | Hcl Technologies Limited | Method and system for performing cloud vendor arbitrage using artificial intelligence (ai) |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04663A (ja) * | 1990-04-18 | 1992-01-06 | Fujitsu Ltd | ニューラルネットワークシミュレータ |
KR920002268A (ko) * | 1990-07-17 | 1992-02-28 | 유끼노리 가까즈 | 인텔리젠트가공장치 |
JPH04256158A (ja) * | 1991-02-08 | 1992-09-10 | Toshiba Corp | ニューロネットワークの方式 |
JPH0589247A (ja) * | 1991-09-26 | 1993-04-09 | Just Syst Corp | パターン空間からの特定パターンの分離方法およびその分離装置 |
JPH05217010A (ja) * | 1991-12-13 | 1993-08-27 | Ricoh Co Ltd | 信号処理装置 |
JPH06314105A (ja) * | 1993-04-30 | 1994-11-08 | Ishikawajima Harima Heavy Ind Co Ltd | ニューラルネットコントローラシステム |
JPH0728768A (ja) * | 1993-07-14 | 1995-01-31 | Fujitsu Ltd | ニューラルネットワークの学習により逆解を求める方法 |
JPH08235145A (ja) | 1995-02-24 | 1996-09-13 | Toyota Motor Corp | 応用問題に対して最適なニューラルネットワークの構造を決定する方法 |
JPH0991263A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JPH09120434A (ja) * | 1995-10-24 | 1997-05-06 | Suzuki Motor Corp | 文字認識装置 |
JP2001051968A (ja) | 1999-08-05 | 2001-02-23 | Fuji Xerox Co Ltd | ニューラルネットワーク構築方法及びニューラルネットワーク処理装置 |
JP3898686B2 (ja) * | 2003-10-20 | 2007-03-28 | ファナック株式会社 | 数値制御装置 |
JP2008533615A (ja) | 2005-03-14 | 2008-08-21 | エル ターラー、ステフエン | ニューラルネットワーク開発およびデータ解析ツール |
US8103606B2 (en) * | 2006-12-08 | 2012-01-24 | Medhat Moussa | Architecture, system and method for artificial neural network implementation |
JPWO2010106587A1 (ja) * | 2009-03-18 | 2012-09-13 | パナソニック株式会社 | ニューラルネットワークシステム |
CN101727071A (zh) * | 2009-11-13 | 2010-06-09 | 上海电力学院 | 神经网络模型与二次型单神经元pid并行控制方法 |
US10055434B2 (en) * | 2013-10-16 | 2018-08-21 | University Of Tennessee Research Foundation | Method and apparatus for providing random selection and long-term potentiation and depression in an artificial network |
JP6026490B2 (ja) * | 2014-11-07 | 2016-11-16 | ファナック株式会社 | パラメータ変更によりncプログラムの起動が可能な数値制御装置 |
US11157800B2 (en) * | 2015-07-24 | 2021-10-26 | Brainchip, Inc. | Neural processor based accelerator system and method |
US20170330069A1 (en) * | 2016-05-11 | 2017-11-16 | Kneron Inc. | Multi-layer artificial neural network and controlling method thereof |
-
2016
- 2016-07-22 JP JP2016144923A patent/JP6603182B2/ja active Active
-
2017
- 2017-07-13 US US15/648,753 patent/US10649416B2/en active Active
- 2017-07-18 CN CN201710595217.5A patent/CN107643728B/zh active Active
- 2017-07-18 DE DE102017212270.6A patent/DE102017212270A1/de active Pending
Also Published As
Publication number | Publication date |
---|---|
US20180024510A1 (en) | 2018-01-25 |
CN107643728A (zh) | 2018-01-30 |
JP2018014060A (ja) | 2018-01-25 |
CN107643728B (zh) | 2020-10-20 |
DE102017212270A1 (de) | 2018-02-01 |
US10649416B2 (en) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6603182B2 (ja) | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 | |
TWI519918B (zh) | 多軸控制系統設定及調整機能支援裝置 | |
JP6514257B2 (ja) | 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法 | |
JP6487493B2 (ja) | 画像処理システム | |
JP6234570B2 (ja) | 工作機械の制御装置 | |
JP2017167607A (ja) | 設定支援装置、設定支援方法、情報処理プログラム、および記録媒体 | |
JPH02293903A (ja) | Cad/cam装置 | |
JPH02113305A (ja) | スプライン補間方法 | |
JP2019188558A (ja) | 工具選定装置及び機械学習装置 | |
US11556110B2 (en) | Method and device for generating tool paths | |
JP2018124929A (ja) | 学習モデル構築装置、及び制御情報最適化装置 | |
JP5996148B1 (ja) | 多軸制御システム設定調整支援装置 | |
Kim et al. | A study on the precision machinability of ball end milling by cutting speed optimization | |
JP6962964B2 (ja) | 機械学習装置、画面予測装置、及び制御装置 | |
JP5788125B1 (ja) | システム構築支援装置、方法、および記録媒体 | |
JP6075908B2 (ja) | 位置決め制御装置の同期制御設定方法、プログラム及び位置決め制御装置の制御設定装置 | |
US10705489B2 (en) | Controller | |
JP6374456B2 (ja) | 電子機器及び数値制御装置 | |
JP2019185467A (ja) | 設定装置及び設定プログラム | |
WO2023084835A1 (ja) | パラメータ自動調整装置、パラメータ自動調整システム及びパラメータ自動調整方法 | |
JP2008532130A (ja) | 制御装置のインタプリタによるサブプログラムの翻訳のための方法 | |
US20230173670A1 (en) | Information processing apparatus, system, information processing method, method of manufacturing products, and recording medium | |
JP7233521B2 (ja) | 検査システム及び検査方法 | |
JP2021060806A (ja) | 加工プログラム作成装置 | |
JPS61273606A (ja) | Ncデ−タ作成装置における送り速度指定方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6603182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |