JP7171477B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP7171477B2 JP7171477B2 JP2019047310A JP2019047310A JP7171477B2 JP 7171477 B2 JP7171477 B2 JP 7171477B2 JP 2019047310 A JP2019047310 A JP 2019047310A JP 2019047310 A JP2019047310 A JP 2019047310A JP 7171477 B2 JP7171477 B2 JP 7171477B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- unit
- learned
- learning data
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 13
- 230000006870 function Effects 0.000 claims description 75
- 238000000034 method Methods 0.000 claims description 63
- 230000006872 improvement Effects 0.000 claims description 52
- 230000001360 synchronised effect Effects 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 10
- 230000002068 genetic effect Effects 0.000 claims description 8
- 230000001934 delay Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 48
- 238000004364 calculation method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 28
- 230000008859 change Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000012935 Averaging Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
Description
まず、図1を用いて、情報処理装置の一例である情報提供装置10が実行する情報処理方法の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。図1では、情報提供装置10が実行する処理として、モデルの学習を行う学習処理と、学習済のモデル(以下、「学習モデル」と記載する場合がある。)を用いて情報の分類を行う分類処理の流れの一例について記載した。
ここで、情報提供装置10が実行する学習処理の説明に先駆けて、ミニバッチ学習の概要について説明する。例えば、情報提供装置10は、ミニバッチ学習を用いた学習処理を実行する場合、N個の全学習データからランダムに選択されたM個のデータをミニバッチとし、ミニバッチごとにモデルのパラメータの更新を行う。
しかしながら、上述したモデル平均法では、同期処理を減らしたことによりモデルの識別精度が劣化する恐れがある。また、ミニバッチ学習により最終的に得られるモデルは、それぞれ異なる学習データの特徴を学習したモデルの平均となるので、単一のモデルに対して全学習データを1つずつ入力し、学習データを入力する度に目的関数が改善するようにパラメータを修正したモデルの近似に過ぎない。このため、ミニバッチ学習やモデル平均法には、モデルの精度を向上させる余地があると言える。
以下、図1を用いて、情報提供装置10が実行する処理の流れの一例を説明する。なお、以下の説明では、演算装置として、GPU#1~#KまでのK個のGPUを並列に用いてモデルの学習を行う例について説明する。まず、情報提供装置10は、データサーバ100から学習データを取得する(ステップS1)。このような場合、情報提供装置10は、学習データを学習データデータベース31に登録する。そして、情報提供装置10は、ミニバッチ学習において各GPUにより学習が行われたモデルの同期タイミングを動的に変動させる(ステップS2)。
上述した説明では、情報提供装置10は、ランダムなタイミングで各演算装置(すなわち、GPU)によりミニバッチ学習が行われたモデルの同期を行った。しかしながら、実施形態は、これに限定されるものではない。情報提供装置10は、モデルの同期タイミングを動的に変更するのであれば、任意の指標に基づいて、モデルの同期タイミングを決定して良い。
上述した説明では、情報提供装置10は、各モデルの学習前における目的関数の値と学習後における目的関数の値との間の改善量に応じた重みを考慮して、各モデルのパラメータの荷重和を算出し、算出したパラメータの荷重和を同期後のモデルのパラメータとした。しかしながら、実施形態は、これに限定されるものではない。
なお、情報提供装置10は、全ての演算装置により学習が行われたモデルの同期を行わずともよい。例えば、情報提供装置10は、複数の演算装置のうち、一部の演算装置により学習が行われたモデルの同期を行ってもよい。例えば、情報提供装置10は、GPU#1~#10、GPU#11~#20というように、各演算装置を所定数ずつのグループに分割し、グループごとの同期を行ってもよい。例えば、情報提供装置10は、全ての演算装置により学習が行われたモデルのうち目的関数の改善量が所定の閾値を超えたモデルが存在する場合は、そのモデルの学習を行った演算装置を含むグループ内でのみ、モデルの同期を行ってもよい。なお、このような処理を行う場合、同期対象とならなかった演算装置は、前回のミニバッチ学習の結果となるモデルの学習を継続して行うこととなる。
なお、上述した例では、演算装置として、複数のGPUを用いる処理について記載したが、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、複数のCPUに対して上述した学習処理を適用してもよく、例えば、1つ又は複数のコンピュータクラスタを1つの演算装置とみなし、このようなコンピュータクラスタをネットワークで接続したシステムに対して、上述した学習処理を適用してもよい。また、情報提供装置10は、1つのCPUやGPUに含まれる複数のコアを演算装置と見做して上述した学習処理を実行してもよい。また、情報提供装置10は、1つ若しくは複数のグラフィックカード上に配置されたGPUやGPUコアを演算装置と見做してもよい。また、情報提供装置10は、複数のCPUやGPUを1つの演算装置と見做してもよく、これらのCPUやGPUに含まれる1つ若しくは複数のコアを1つの演算装置と見做してもよい。
なお、上述した学習処理は、任意の実行主体により実行されてよい。例えば、情報提供装置10は、各演算装置とは別に、各演算装置の制御を行う制御装置を有してもよい。このような場合、かかる制御装置が、学習データの配布および同期を行ってもよい。また、同期タイミングの決定やモデルの同期処理については、各演算装置が協調して動作することで、実現されてもよい。
また、情報提供装置10は、上述した同期タイミングの動的な変更と、学習結果に応じたモデルの同期とをそれぞれ独立して実行してもよく、関連付けて実行してもよい。例えば、情報提供装置10は、動的に同期タイミングを変更する場合、モデルの同期については、単純平均を算出することで実現してもよい。また、情報提供装置10は、学習結果に応じた態様でモデルを同期させる場合、同期タイミングについては、動的に変化させる必要はない。
以下、上記した学習処理を実現する情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、第1演算部40および第2演算部50を有する。
次に、図4を用いて、情報提供装置10が実行する処理の流れの一例について説明する。図4は、実施形態に係る情報提供装置が実行する処理の流れの一例を示すフローチャートである。
上記では、情報提供装置10による処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する処理のバリエーションについて説明する。
記憶部30に登録された各データベース31、32は、外部のストレージサーバに保持されていてもよく、また、第1演算部40や第2演算部50が個別に保持する各種の記憶装置内に保持されていてもよい。また、情報提供装置10は、第2演算部50を筐体内に有する必要はなく、例えば、外付けの筐体内に有していてもよい。また、情報提供装置10は、複数の第2演算部50を有し、各第2演算部50が有する演算装置を統合的に用いた学習処理を実行してもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述した実施形態に係る情報提供装置10は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、第1演算装置1030、第2演算装置1031、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、情報提供装置10は、配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、それぞれ異なる学習データを配布する。そして、情報提供装置10は、配布された学習データを用いて各演算装置が実行した学習の結果に応じた態様で、各演算装置が学習したモデルの同期を行う。このような処理の結果、情報提供装置10は、より適切な学習が行われたモデルを重視した同期を実現するので、複数の演算装置を用いたモデルの学習精度を改善することができる。
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 第1演算部
41 学習制御部
42 情報提供部
50 第2演算部
51 演算部
52 演算制御部
521 配布部
522 同期部
100 データサーバ
200 利用者端末
Claims (18)
- 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布部と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期部と
を有し、
前記同期部は、各演算装置により学習が行われたモデルの目的関数の値に応じてモデルの選択を行う遺伝的アルゴリズムを用いて、各モデルの同期を行う
ことを特徴とする情報処理装置。 - 前記同期部は、各モデルの目的関数の値に応じた重みを考慮して、各モデルを統合したモデルを同期結果とする
ことを特徴とする請求項1に記載の情報処理装置。 - 前記同期部は、各モデルの学習前における目的関数の値と学習後における目的関数の値との間の改善量に応じた重みを考慮して、各モデルを統合したモデルを同期結果とする
ことを特徴とする請求項1または2に記載の情報処理装置。 - 前記同期部は、各モデルのうち、学習前における目的関数の値と学習後における目的関数の値との間の改善量が最も大きいモデルを同期結果とする
ことを特徴とする請求項1~3のうちいずれか1つに記載の情報処理装置。 - 前記配布部は、前記学習データを用いて前記モデルが有するパラメータの値を修正することで、当該学習データが有する特徴を前記モデルに学習させる複数の演算装置に対し、それぞれ異なる学習データを配布し、
前記同期部は、各モデルのパラメータの値を同期させる
ことを特徴とする請求項1~4のうちいずれか1つに記載の情報処理装置。 - 前記配布部は、新たに配布される学習データを用いて前記同期部により同期されたモデルの学習を行う複数の演算装置に対し、それぞれ異なる学習データを新たに配布する
ことを特徴とする請求項1~5のうちいずれか1つに記載の情報処理装置。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布部と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期部と
を有し、
前記同期部は、各演算装置が実行した学習の結果が所定の条件を満たした場合は、各モデルを同期させる
ことを特徴とする情報処理装置。 - 前記同期部は、少なくともいずれかの演算装置により学習が行われたモデルの学習前における目的関数の値と学習後における目的関数の値との間の改善量が所定の条件を満たす場合は、各モデルを同期させる
ことを特徴とする請求項7に記載の情報処理装置。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布部と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期部と
を有し、
前記同期部は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、通信遅延が所定の範囲内に収まる複数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理装置。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布部と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期部と
を有し、
前記同期部は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、各演算装置が演算可能な情報の次元数と、全ての演算装置に対して配布される学習データの数とに応じた数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを配布する配布工程と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期工程と
を含み、
前記同期工程は、各演算装置により学習が行われたモデルの目的関数の値に応じてモデルの選択を行う遺伝的アルゴリズムを用いて、各モデルの同期を行う
ことを特徴とする情報処理方法。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを配布する配布手順と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期手順と
をコンピュータに実行させるための情報処理プログラムであって、
前記同期手順は、各演算装置により学習が行われたモデルの目的関数の値に応じてモデルの選択を行う遺伝的アルゴリズムを用いて、各モデルの同期を行う
ことを特徴とする情報処理プログラム。 - 情報処理装置が実行する情報処理方法であって、
配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布工程と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期工程と
を含み、
前記同期工程は、各演算装置が実行した学習の結果が所定の条件を満たした場合は、各モデルを同期させる
ことを特徴とする情報処理方法。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布手順と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期手順と
をコンピュータに実行させるための情報処理プログラムであって、
前記同期手順は、各演算装置が実行した学習の結果が所定の条件を満たした場合は、各モデルを同期させる
ことを特徴とする情報処理プログラム。 - 情報処理装置が実行する情報処理方法であって、
配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布工程と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期工程と
を含み、
前記同期工程は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、通信遅延が所定の範囲内に収まる複数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理方法。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布手順と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期手順と
をコンピュータに実行させるための情報処理プログラムであって、
前記同期手順は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、通信遅延が所定の範囲内に収まる複数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理プログラム。 - 情報処理装置が実行する情報処理方法であって、
配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布工程と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期工程と
を含み、
前記同期工程は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、各演算装置が演算可能な情報の次元数と、全ての演算装置に対して配布される学習データの数とに応じた数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理方法。 - 配布された学習データを用いてそれぞれ個別にモデルの学習を行う複数の演算装置に対し、各演算装置によって前記モデルの学習が行われる度に、それぞれ異なる学習データを新たに配布する配布手順と、
配布された学習データを用いて各演算装置が実行した学習したモデルのうちいずれかのモデルが所定の条件を満たした場合は、各演算装置が学習したモデルの同期を行う同期手順と
をコンピュータに実行させるための情報処理プログラムであって、
前記同期手順は、前記複数の演算装置のうち一部の演算装置により学習されたモデルであって、各演算装置が演算可能な情報の次元数と、全ての演算装置に対して配布される学習データの数とに応じた数の演算装置により学習が行われたモデルの同期を行う
ことを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047310A JP7171477B2 (ja) | 2019-03-14 | 2019-03-14 | 情報処理装置、情報処理方法および情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047310A JP7171477B2 (ja) | 2019-03-14 | 2019-03-14 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149460A JP2020149460A (ja) | 2020-09-17 |
JP7171477B2 true JP7171477B2 (ja) | 2022-11-15 |
Family
ID=72429692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019047310A Active JP7171477B2 (ja) | 2019-03-14 | 2019-03-14 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7171477B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174298A (ja) | 2016-03-25 | 2017-09-28 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
JP2018018451A (ja) | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324688A1 (en) * | 2014-05-12 | 2015-11-12 | Qualcomm Incorporated | Customized classifier over common features |
JP6699891B2 (ja) * | 2016-08-30 | 2020-05-27 | 株式会社東芝 | 電子装置、方法及び情報処理システム |
JP6325762B1 (ja) * | 2017-03-15 | 2018-05-16 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
-
2019
- 2019-03-14 JP JP2019047310A patent/JP7171477B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174298A (ja) | 2016-03-25 | 2017-09-28 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
JP2018018451A (ja) | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
Non-Patent Citations (3)
Title |
---|
国英明、高橋良希、首藤一幸,広域分散を想定した深層学習法の比較,第11回データ工学と情報マネジメントに関するフォーラム(第17回日本データベース学会年次大会),日本,日本データベース学会,2019年3月6日,pp.1-7 |
小田哲、中山心太、上西康太、木下真吾,Jubatus:Big Dataのリアルタイム処理を可能にする分散処理技術,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2012年1月19日,Vol.111,No.409,pp.35-40 |
横田理央、大沢和樹、辻陽平、上野裕一郎、成瀬彰,大規模並列深層学習における2次の最適化手法の効果,電子情報通信学会2019年総合大会講演論文集,日本,一般社団法人電子情報通信学会,2019年3月5日,pp.SS-3~SS-6 |
Also Published As
Publication number | Publication date |
---|---|
JP2020149460A (ja) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170320B2 (en) | Updating machine learning models on edge servers | |
WO2019072107A1 (zh) | 消费能力预测 | |
US10332015B2 (en) | Particle thompson sampling for online matrix factorization recommendation | |
US20190005399A1 (en) | Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium | |
JP6414363B2 (ja) | 予測システム、方法およびプログラム | |
JP2018533807A5 (ja) | ||
JP6311851B2 (ja) | 共クラスタリングシステム、方法およびプログラム | |
CN111783810A (zh) | 用于确定用户的属性信息的方法和装置 | |
JP2019503014A (ja) | ユーザ挙動データの処理方法及び装置 | |
CN103782290A (zh) | 建议值的生成 | |
US20240163344A1 (en) | Methods and apparatus to perform computer-based community detection in a network | |
JP7231322B2 (ja) | 学習装置、学習方法、学習プログラム及びプログラム | |
JP7171477B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP6692739B2 (ja) | 抽出装置、抽出方法及び抽出プログラム | |
TWI758223B (zh) | 具有動態最小批次尺寸之運算方法,以及用於執行該方法之運算系統及電腦可讀儲存媒體 | |
US20160342899A1 (en) | Collaborative filtering in directed graph | |
EP4300947A1 (en) | Systems, apparatus, articles of manufacture, and methods for eye gaze correction in camera image streams | |
JP6910873B2 (ja) | 特定装置および特定方法 | |
CN112218114A (zh) | 视频缓存控制方法、装置和计算机可读存储介质 | |
CN105139020A (zh) | 一种用户聚类方法及装置 | |
CN105528379B (zh) | 一种资源的推荐方法和装置 | |
JP7077185B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP7017478B2 (ja) | 出力装置、出力方法および出力プログラム | |
JP5325280B2 (ja) | 情報処理装置 | |
CN108958902B (zh) | 图计算方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190409 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211228 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220117 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220118 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220210 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220215 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220531 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220705 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20220706 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220809 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220830 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20221004 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7171477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |