JP2023079140A - 情報処理システム、情報処理方法及び情報処理プログラム - Google Patents

情報処理システム、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2023079140A
JP2023079140A JP2022047078A JP2022047078A JP2023079140A JP 2023079140 A JP2023079140 A JP 2023079140A JP 2022047078 A JP2022047078 A JP 2022047078A JP 2022047078 A JP2022047078 A JP 2022047078A JP 2023079140 A JP2023079140 A JP 2023079140A
Authority
JP
Japan
Prior art keywords
learning
area
data
input
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022047078A
Other languages
English (en)
Inventor
隼人 久米村
Hayato Kumemura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datafluct
Datafluct Inc
Original Assignee
Datafluct
Datafluct Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datafluct, Datafluct Inc filed Critical Datafluct
Publication of JP2023079140A publication Critical patent/JP2023079140A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】学習器に入力データを入力することで得られる学習モデルを用いた予測を行う際に、入力データに応じて学習条件を設定する情報処理システムを提供する。【解決手段】情報処理システム1において、情報処理装置2は、制御部を備える。制御部は、入力データに関するデータ情報を提示可能な入力領域と、入力データを用いた学習モデルの学習条件を設定可能な学習領域と、入力領域と学習領域とを対応付ける第1の外部コネクタと、を含む学習画面を生成するステップを実行することを含む。【選択図】図1

Description

本発明は、情報処理システム、情報処理方法及び情報処理プログラムに関する。
従来技術として、学習器に関する下記の文献が挙げられる。
特開2021-177428号公報
学習器に入力データを入力することで得られる学習モデルを用いた予測を行う際に、入力データに応じて学習条件を設定する必要がある。このような学習条件の設定には、データサイエンスに関する知見が比較的高い水準で求められることがある。
(1)本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。第1の生成ステップでは、入力データに関するデータ情報を提示可能な入力領域と、入力データを用いた学習モデルの学習条件を設定可能な学習領域と、入力領域と学習領域とを対応付ける第1の外部コネクタと、を含む学習画面を生成する。
情報処理システム1を表す構成図である。 情報処理装置2のハードウェア構成を示すブロック図である。 ユーザ端末3のハードウェア構成を示すブロック図である。 制御部23が備える機能部の一例を示す図である。 情報処理システム1において実行される情報処理の流れの一例を示すアクティビティ図である。 表示部34に表示される学習画面13の一例を示す図である。 表示部34に表示される運用画面14の一例を示す図である。 運用画面14の変形例を示す図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表されるか、信号値の物理的な数値によって表されるか、又は量子的な重ね合わせによって表されるかによらず、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
また、実施形態中に登場するソフトウェアを実現するためのプログラムは、サーバからダウンロード可能な態様で実施してもよいし、クラウドコンピュータ上でプログラムの実行がなされてもよいし、不揮発性又は揮発性の非一時的な記憶媒体に記憶させて頒布されてもよい。
1.ハードウェア構成
本節では、ハードウェア構成について説明する。
<情報処理システム1>
図1は、情報処理システム1を表す構成図である。情報処理システム1は、情報処理装置2と、ユーザ端末3と、データベースDB1と、を備える。情報処理装置2と、ユーザ端末3と、データベースDB1と、は、電気通信回線を通じて通信可能に構成されている。一実施形態において、情報処理システム1とは、1つ又はそれ以上の装置又は構成要素からなるものである。仮に例えば、情報処理装置2のみからなる場合であれば、情報処理システム1は、情報処理装置2となりうる。以下、これらの構成要素について説明する。
<情報処理装置2>
図2は、情報処理装置2のハードウェア構成を示すブロック図である。情報処理装置2は、通信部21と、記憶部22と、制御部23とを備え、これらの構成要素が情報処理装置2の内部において通信バス20を介して電気的に接続されている。各構成要素についてさらに説明する。
通信部21は、USB、IEEE1394、Thunderbolt(登録商標)、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、BLUETOOTH(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。すなわち、情報処理装置2は、通信部21及びネットワークを介して、外部から種々の情報を通信してもよい。
記憶部22は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部23によって実行される情報処理装置2に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。記憶部22は、制御部23によって実行される情報処理装置2に係る種々のプログラムや変数等を記憶している。
制御部23は、情報処理装置2に関連する全体動作の処理・制御を行う。制御部23は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部23は、記憶部22に記憶された所定のプログラムを読み出すことによって、情報処理装置2に係る種々の機能を実現する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部23によって具体的に実現されることで、制御部23に含まれる各機能部として実行されうる。これらについては、次節においてさらに詳述する。なお、制御部23は単一であることに限定されず、機能ごとに複数の制御部23を有するように実施してもよい。またそれらの組合せであってもよい。
<ユーザ端末3>
図3は、ユーザ端末3のハードウェア構成を示すブロック図である。ユーザ端末3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35とを備え、これらの構成要素がユーザ端末3の内部において通信バス30を介して電気的に接続されている。通信部31、記憶部32及び制御部33の説明は、情報処理装置2における各部の説明と同様のため省略する。
表示部34は、ユーザ端末3筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部34は、ユーザが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、ユーザ端末3の種類に応じて使い分けて実施することが好ましい。
入力部35は、ユーザ端末3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部35は、表示部34と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部35がユーザによってなされた操作入力を受け付ける。当該入力が命令信号として、通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。
<データベースDB1>
データベースDB1は、外部データD0を記憶する。外部データD0は、例えば公衆がアクセス可能なデータであっても、特定のユーザのみがアクセス可能なデータであってもよい。また、外部データD0は、本情報処理システム1を使用するユーザのみがアクセス可能なデータであってもよい。データベースDB1は、単一の記憶デバイスにより実現されていても、複数の記憶デバイスにより実現されていてもよい。外部データD0が表す内容は、例えば衛生観測結果、気候観測結果、統計資料など、任意である。
2.機能構成
図4は、制御部23が備える機能部の一例を示す図である。図4に示すように、制御部23は、受付部231と、変換処理部232と、生成部233と、を備える。
<受付部231>
受付部231は、外部からの情報や指令の入力を受け付ける。当該入力は、ユーザによる入力であっても、ユーザ以外の任意のデバイスによる入力であってもよい。例えば、受付部231は、入力データDの入力や、ユーザ端末3に対する操作に応じた指令を受け付ける。本実施形態では、受付部231が受け付ける入力データDを、第1の入力データD1という。第1の入力データD1は、情報処理装置2に入力されるデータともいえる。
<変換処理部232>
変換処理部232は、第1の入力データD1に対して行う変換処理を行うことで、第2の入力データD2を生成する。第2の入力データD2は、第1の入力データD1に対して変換処理が行われた入力データDともいえる。
<生成部233>
生成部233は、表示部34に表示させる画面を生成する。
3.情報処理の詳細
本節では、前述した情報処理システム1において実行される情報処理について説明する。なお、当該情報処理は、アクティビティ図に図示されない、任意の例外処理を含みうる。例外処理は、当該情報処理の中断や、各処理の省略を含む。当該情報処理にて行われる選択又は入力は、ユーザによる操作に基づくものでも、ユーザの操作に依らず自動で行われるものでもよい。
[アクティビティA001]
図5は、情報処理システム1において実行される情報処理の流れの一例を示すアクティビティ図である。図5に示すように、アクティビティA001にて、受付部231は、第1の入力データD1の入力を受け付ける。本実施形態では、受付部231は、ユーザによる第1の入力データD1の入力を受付可能に構成されている。なお、入力データD1の入力は、ユーザによるものに限られない。例えば、入力データD1の入力は、制御部23と通信可能に構成された任意の部材、例えば、制御部33によって行われてもよい。
第1の入力データD1は、1又は複数の説明変数x1に対応するデータを含む。第1の入力データD1は、少なくともユーザが保有する保有データを含む。なお、第1の入力データD1は、ユーザ以外が保有するデータ、例えばデータベースDB1に記憶されたデータなど、を含んでもよい。第1の入力データD1は、少なくとも構造化データを含む。構造化データは、予め定められた構造となるように標準化されたデータである。なお、第1の入力データD1は、構造化データ以外のデータ、例えば非構造化データ、又は半構造化データを含んでもよい。非構造化データは、構造化データのように標準化された構造を持たない任意の形式のデータである。半構造化データは、非構造化データと、当該非構造化データを識別可能なタグと、の組み合わせからなる。半構造化データの形式は、例えば、グラフ型、キーバリュー型、ドキュメント型、カラム型などである。
[アクティビティA002]
次に処理がアクティビティA002に進み、変換処理部232は、受け付けた第1の入力データD1に対して変換処理を行う。これにより、変換処理部232は、第1の入力データD1から第2の入力データD2を生成する。
変換処理とは、受付部231に入力された第1の入力データD1を、特定された学習器MLに入力可能な態様である第2の入力データD2に変換する処理である。変換処理は、第1の入力データD1に含まれるデータ点の削除と、第1の入力データD1へのデータ点の追加と、のうちの少なくとも1つを含む。具体的には、変換処理は、第1の入力データD1の一部の削除、欠損値の補完、外れ値の削除などの処理を含みうる。変換処理は、第1の入力データD1の規格化など、任意の処理を含んでもよい。変換処理は、データ整形ともいわれる。変換処理は、第1の入力データD1に含まれる複数の説明変数x1の結合処理、分離処理、補正などを含んでもよい。例えば、変換処理は、第1の入力データD1が時系列を表す年、月、及び日をそれぞれ異なる説明変数x1として有する場合に、これらの複数の説明変数x1を1つの入力に結合する処理を含みうる。
また、変換処理は、複数の受付部231にて複数の第1の入力データD1を受け付けた場合、これらの第1の入力データD1の結合処理を行ってもよい。別例として、変換処理は、説明変数x1の追加処理、特徴量の追加などを含んでもよい。例えば、制御部23は、第1の入力データD1に応じてデータベースDB1から任意の外部データD0を取得し、当該外部データD0を第1の入力データD1に追加してもよい。制御部23は、追加された外部データD0に基づき、特徴量の追加を行ってもよい。変換処理は、第1の入力データD1の内容に基づいて、制御部23によって自動で実行可能な処理を含む。なお、変換処理は、ユーザによる指定に基づいて実行可能な処理を含んでもよい。また、本実施形態では、変換処理は、第1の入力データD1を所定の変換条件と比較することで特定される自動変換処理を含む。変換条件とは、例えば第1の入力データD1の容量、第1の入力データD1の統計情報の分散値が閾値未満か否か、第1の入力データD1の統計情報に基づく外れ値の有無などである。変換条件は、変換処理が行われる必要性を示唆するものでもある。
また、変換処理は、受付部231に入力された第1の入力データD1の形式を、特定された学習器MLのそれぞれに適合する形式に変換する処理を含む。第1の入力データD1の形式は、例えば、第1の入力データD1の名称、文字コード、改行コード、表記言語、区切り文字などを含む。
例えば、特定された学習器MLに入力可能な入力データDの文字コードがUTF-8であるにも関わらず、第1の入力データD1の文字コードがShift-JISの場合、制御部23は、当該第1の入力データD1を、文字コードがUTF-8に変更された第2の入力データD2に変換する変換処理を実行する。
別例として、変換処理は、特定された複数の学習器MLに入力可能な第2の入力データD2のそれぞれに対して名称を付与する処理を含みうる。このとき、変換処理は、制御部23が第2の入力データD2を一意に特定可能な名称を、第2の入力データD2に付与することが好ましい。これにより、第2の入力データD2の管理が容易となる。なお、名称の付与は、第1の入力データD1の名称を変更することによって行われてもよい。
別例として、第1の入力データD1がBOM(Byte Order Mark)を含む場合、変換処理は、当該BOMの除去を含んでもよい。これにより、意図しないエラーが抑制しやすくなる。
別例として、変換処理は、第1の入力データD1に含まれる説明変数x1のうち、学習モデルM1の生成に用いられないものを除去する処理を含んでもよい。制御部23は、例えば、説明変数x1の形式、分布に基づいて、当該説明変数x1が学習モデルM1の生成に用いられるか否かを判定すればよい。これにより、第2の入力データD2の容量が軽減されるため、学習モデルM1の生成に必要な時間が短縮される。なお、変換処理の特定は、変換処理を行う必要がない場合などには、行う変換処理がないことを特定することを含みうる。
別例として、変換処理は、第1の入力データD1に含まれる説明変数x1や出力y1に対するOne-Hot encoding、Ordinal encoding、Cardinal Encoding、未知のカテゴリ値の再割り当て、第1の入力データD1が不均衡な分布をもつ場合の分布の修正など、種々のデータ前処理を含みうる。
別例として、変換処理は、正規化、特徴量変換、ターゲット変換(例えば、box-cox変換)、ターゲット変換(例えば、yeo-johnson0変換)、特徴量の選択、多重共線性の除去、主成分分析(PCA)、分散が低い特徴量の無視など、種々のスケール変換処理を含みうる。
別例として、変換処理は、第1の入力データD1等から抽出される特徴量に基づく新たな特徴量の生成又は変換をする処理、いわゆる特徴量エンジニアリング、を含みうる。このような処理としては、例えば、交互作用特徴量の作成、多項式特徴量の作成、サインコサイン変換特徴量の作成、グループ化した特徴量の作成、数値特徴量のビン化、クラスタの作成などが挙げられる。
制御部23は、当該変換処理が行われる条件、すなわち変換条件を特定してもよい。例えば、制御部23は、少なくとも第1の入力データD1と、後述する学習器MLと、に基づいて、変換条件を特定してもよい。例えば、制御部23は、第1の入力データD1を示す統計情報に基づき、変換条件を特定する。第1の入力データD1に関する統計情報とは、例えばデータ点の分布、平均値、分散、標準偏差、最大値、最小値、中央値、最頻値、再尤度、共分散、相関係数、R2値などを含む。変換処理が外れ値の除去の場合、制御部23は、あるデータ点と平均値との差分の絶対値が標準偏差の2倍以上である場合、当該データ点を外れ値と判断する。この場合、あるデータ点と平均値との差分の絶対値が標準偏差の2倍以上であることが、変換条件に相当する。
[アクティビティA003]
次に処理がアクティビティA003に進み、制御部23は、アクティビティA002で生成された第2の入力データD2を、学習器MLに入力する。学習器MLは、所定の分析手法を用いて、第2の入力データD2から学習モデルM1を生成する。分析手法は、任意であるが、例えば分類分析、回帰分析、及び時系列分析のうちの少なくとも1つを含む。分析手法としては、教師あり学習、教師なし学習、強化学習など任意のアルゴリズムのものを採用可能である。制御部23は、複数の分析手法のうちの学習モデルM1の生成に用いられる少なくとも1つの選択を受け付けてもよい。アクティビティA002にて行われる変換処理は、学習器MLにて用いられる分析手法に基づいて特定されてもよい。第2の入力データD2が入力される学習器MLが複数存在する場合、複数の学習器MLのそれぞれから、異なる学習モデルM1が生成される。第2の入力データD2が入力される学習器MLは、制御部23が第1の入力データD1に基づいて特定したものでもよい。また、当該学習器MLは、特定された学習器MLのなかからユーザが選択したものでもよい。
[アクティビティA004]
次に処理がアクティビティA004に進み、制御部23は、アクティビティA003で生成された学習モデルM1を取得する。生成された学習モデルM1が複数存在する場合、制御部23は、当該学習モデルM1の少なくとも1つを取得する。複数の学習モデルM1が取得された場合、制御部23は、第1の入力データD1に基づき、学習モデルM1に関するモデル情報IF1を、学習モデルM1ごとに比較可能な態様で表示部34に表示させてもよい。例えば、制御部23は、少なくとも、生成される学習モデルM1ごとの精度情報を比較可能に表示させもよい。また、制御部23は、それぞれの学習モデルM1に関するモデル情報IF1を、表示部34に一覧可能に表示させてもよい。
モデル情報IF1は、学習モデルM1に関する情報である。例えば、モデル情報IF1は、学習モデルM1の生成に用いられた第1の入力データD1の名称、容量、学習モデルM1が生成された日時などを含みうる。第1の入力データD1の名称とは、例えば、第1の入力データD1のファイル名である。本実施形態では、モデル情報IF1は、少なくとも学習モデルM1の予測精度に関する精度情報を含む。分析手法が回帰分析の場合、精度情報は、例えば、決定係数(R2スコア)、平均二乗誤差(MSE:Means Squared Error)、平均絶対誤差(MAE:Means Absolute Error)、平均二乗偏差(RMSE:Root Mean Squared Error)、二乗平均平方根誤差(RMSE:Root Mean Squared Error)、対数平均二乗誤差(RMLSE:Root Mean Squared Logarithmic Error)、平均絶対パーセント誤差(MAPE:Mean Absolute Percentage Error)などの指標を含む。分析手法が分類分析の場合、精度情報は、正解率(Accuracy)、再現率(Recall)、適合率(Precision)、特異度(Specificity)、F値(F-measure)、重み付きF値、マシューズ相関係数(MCC:Matthews Correlation Coefficient)、カッパ係数(Kappa)、ログ損失(Logloss)、AUC:Area Under the Curve、PR-AUC:Area Under the Precision-Recall curveなどの指標を含む。上記精度情報は、二値分類に用いられるものに限られず、2より大きい他クラス分類に用いられるものであってもよい。分析手法が時系列分析の場合、精度情報は、例えば、変動係数(Coefficient of Variation)、動的時間伸縮法での平均絶対誤差(Dynamic Time Warping MAE)、MAPE、対称平均絶対パーセント誤差(SMAPE:Symmetric MAPE)、加重SMAPE、平均絶対スケール誤差(MASE:Mean Absolute Scaled Error)、MARRE: Mean Absolute Ranged Relative Error、Overall Percentage error、R2、rho-risk RMSLEなどの指標を含む。精度情報は、各パラメータの統計値、例えば、MAEの中央値(MAE median)、MAEの平均値(MAE mean)などを含んでもよい。ある分析手法の指標が、他の分析手法の指標として用いられてもよい。
[アクティビティA005]
次に処理がアクティビティA005に進み、生成部233は、学習画面13を生成する。生成された学習画面13は、表示部34に表示される。
<学習画面13>
図6は、表示部34に表示される学習画面13の一例を示す図である。学習画面13は、例えば、第1の入力データD1を用いて生成された学習モデルM1の再学習のための画面である。学習画面13は、入力領域132と、学習領域133と、結果領域134と、第1の外部コネクタEC1と、第2の外部コネクタEC2と、を含む。
<入力領域132>
入力領域132は、入力データDに関するデータ情報を提示可能な領域である。データ情報とは、例えば、各入力データD1,D2の容量、形式、タイムスタンプ、統計情報、説明変数x1の変数名などを含む。また、データ情報は、変換処理に関する情報を含む。変換処理に関する情報とは、変換処理の内容、履歴、タイムスタンプなどを含む。本実施形態の入力領域132は、複数の入力内部領域1320と、第1の内部コネクタIC1と、を含む。なお、入力内部領域1320の数は、複数に限られず1つでもよい。
<入力内部領域1320>
入力内部領域1320のそれぞれは、入力データDに対する操作の単位を示す。入力データDに対する操作の単位とは、例えば、受付部231が受け付ける第1の入力データD1の選択、第1の入力データD1に対する名称の付与、第1の入力データD1に対する変換処理、変換処理が施された第1の入力データD1の出力などである。入力内部領域1320の1つは、少なくとも受付領域1321を含む。本実施形態では、入力内部領域1320は、受付領域1321と、変換処理指定領域1322と、入力データ出力領域1323と、第1の指数表示領域N1と、を含む。
<受付領域1321>
受付領域1321は、ユーザからの入力データDの入力を受付可能な領域である。ユーザは、受付領域1321に対して操作を行うことにより、受付部231への第1の入力データD1の入力をすることができる。
<変換処理指定領域1322>
変換処理指定領域1322は、受付領域1321にて入力された第1の入力データD1に対する変換処理に関する情報を提示可能に構成されている。変換処理指定領域1322は、変換処理指定領域1322に対するユーザの操作に応じて、変換処理を指定可能に構成されていてもよい。
<入力データ出力領域1323>
入力データ出力領域1323は、ユーザの操作に応じて入力データDを出力可能に構成されている。入力データ出力領域1323は、例えば、第2の入力データD2を出力可能に構成されている。第2の入力データD2の出力形式は、csv形式、txt形式、バイナリ形式など任意である。第2の入力データD2の出力形式は、制御部23により自動で決定されても、ユーザによって指定可能に構成されていてもよい。出力された第2の入力データD2は、例えば、データベースDB1、記憶部22,32など、任意のデバイスに記憶されてもよい。特に第2の入力データD2がデータベースDB1に記憶される場合、当該第2の入力データD2は、外部データD0として利用可能であってもよい。これにより、学習モデルM1に入力可能な第1の入力データD1の増加に伴い、学習モデルM1の性能が向上する。
<第1の内部コネクタIC1>
第1の内部コネクタIC1は、入力内部領域1320の間を接続する。第1の内部コネクタIC1は、入力内部領域1320同士の関係性に基づいて、入力内部領域1320の間を接続する。例えば、第1の内部コネクタIC1は、入力内部領域1320のそれぞれの入力データDに対する操作の前後関係に応じて、入力内部領域1320の間を接続する。本実施形態では、第1の内部コネクタIC1は、受付領域1321と変換処理指定領域1322との間を接続する。これにより、第1の入力データD1と変換処理との関連性が、第1の内部コネクタIC1による接続関係から把握しやすくなる。なお、他の入力内部領域1320に対応する操作と独立している操作を示す入力内部領域1320は、第1の内部コネクタIC1を介して他の入力内部領域1320と接続されていなくてもよい。本実施形態では、入力データ出力領域1323は、他の入力内部領域1320と接続されていない。第1の内部コネクタIC1は、設けられていなくてもよい。
<第1の指数表示領域N1>
第1の指数表示領域N1には、予め入力領域132に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第1の指数表示領域N1は、設けられていなくてもよい。
<学習領域133>
学習領域133は、入力データDを用いた学習モデルM1の学習条件を設定可能な領域である。学習条件とは、例えば、学習モデルM1への入力データDの入力態様、学習モデルM1の生成に用いられる分析手法、学習器MLで用いられるアルゴリズム、学習器MLの計算コストの上限などである。計算コストとは、例えば、計算時間、計算回数、学習器MLの利用料金などが含まれる。学習領域133は、複数の学習内部領域1330と、第2の内部コネクタIC2と、を含む。なお、学習内部領域1330の数は複数に限られず1つでもよい。
<学習内部領域1330>
学習内部領域1330のそれぞれは、学習条件の設定の単位を示す。学習内部領域1330の1つは、指定領域1331を含む。本実施形態では、学習内部領域1330は、指定領域1331と、予測設定領域1332と、モデル情報表示領域1333と、第1の切替領域1334と、を含む。
<指定領域1331>
指定領域1331は、少なくとも学習モデルM1への入力データDの入力態様を指定可能な領域である。例えば、ユーザは、入力データDの入力態様として、入力するデータ点の数、入力データDの分割比、入力データDを入力する学習器MLなどを、指定領域1331にて指定可能である。入力データDの入力態様を指定する具体的態様は、任意である。例えば、生成部233は、ポップアップで入力態様を指定するための領域を生成しても、学習画面13とは異なる指定用の画面を生成してもよい。
<予測設定領域1332>
予測設定領域1332は、学習モデルM1を用いた出力y1の出力態様を指定可能な領域である。例えば、ユーザは、出力y1の出力態様として、学習モデルM1の生成に用いられる分析手法、学習器MLで用いられるアルゴリズム、学習器MLの計算コストの上限などを、予測設定領域1332にて指定可能である。出力態様を指定する具体的態様は、指定領域1331と同様に任意である。予測設定領域1332は、設定実行ラベルW1を含む。設定実行ラベルW1は、予測設定領域1332にて出力y1の出力態様の指定が行われたか否かを示す。制御部23は、ユーザが設定実行ラベルW1に対して操作を行うことにより、予測設定領域1332にて指定された出力y1出力態様の指定を保存してもよい。設定実行ラベルW1の表示態様は、当該指定の有無によって異なっていてもよい。これにより、ユーザが予測設定領域1332での指定をし忘れる可能性を下げることができる。
<モデル情報表示領域1333>
モデル情報表示領域1333は、学習モデルM1のモデル情報IF1の少なくとも一部を表示可能に構成されている。制御部23は、ユーザによるモデル情報表示領域1333に対する操作に応じて、表示させるモデル情報IF1を変化させてもよい。制御部23は、モデル情報IF1に含まれる精度情報が所定の条件を満たすか否かに応じて、モデル情報表示領域1333の表示態様を変化させてもよい。当該条件とは、例えば、学習モデルM1の予測精度が予め設定された基準を満たすか否かを示すものである。これにより、ユーザが学習モデルM1の予測精度が十分か否かを把握することが容易となる。
<第1の切替領域1334>
第1の切替領域1334は、ユーザが第1の切替操作Op1を行うためのUIである。第1の切替操作Op1により、生成部233は、運用画面14を生成し、表示部34に表示される画面を学習画面13から運用画面14に切り替える。当該処理の内容は、後述のアクティビティA007の説明の際に詳述される。
<第2の内部コネクタIC2>
第2の内部コネクタIC2は、学習内部領域1330の間を接続する。第2の内部コネクタIC2は、学習内部領域1330同士の関係性に基づいて、学習内部領域1330の間を接続する。例えば、第2の内部コネクタIC2は、学習内部領域1330のそれぞれの入力データDに対する操作の前後関係に応じて、学習内部領域1330の間を接続する。本実施形態では、第2の内部コネクタIC2の1つは、指定領域1331と予測設定領域1332との間を接続する。また、第2の内部コネクタIC2の1つは、予測設定領域1332とモデル情報表示領域1333との間を接続する。これにより、ユーザは、学習領域133での操作手順を第2の内部コネクタIC2から把握しやすくなる。なお、他の学習内部領域1330に対応する操作と独立している操作を示す学習内部領域1330には、第2の内部コネクタIC2が接続されていなくてもよい。本実施形態では、第1の切替領域1334が、第2の内部コネクタIC2によって他の学習内部領域1330と接続されていない。
<第2の指数表示領域N2>
第2の指数表示領域N2には、予め学習領域133に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第2の指数表示領域N2は、設けられていなくてもよい。
<結果領域134>
結果領域134は、入力データDを用いた学習モデルM1の出力に関する結果情報IF3を表す領域である。結果領域134は、複数の結果内部領域1340と、第3の内部コネクタIC3と、を含む。なお、学習内部領域1330の数は複数に限られず1つでもよい。
<結果内部領域1340>
結果内部領域1340は、出力表示領域1341と、出力処理指定領域1342と、出力処理領域1343と、を含む。
<出力表示領域1341>
出力表示領域1341は、出力y1による予測結果を表示可能に構成される。当該出力y1は、入力領域132にて入力された第1の入力データD1と、学習領域133にて設定された学習条件と、に基づき学習モデルM1から出力される。予測結果は、結果情報IF3として表示されても、予測結果の優劣を示す記号、例えば、優良可、など、任意の態様で表示可能である。
<出力処理指定領域1342>
出力処理指定領域1342は、当該出力y1に対する処理を指定可能に構成されている。例えば、出力処理指定領域1342は、出力y1に対する処理として、出力表示領域1341での予測結果の表示態様の変更、出力y1に対する変換処理、例えば、外れ値の除去、などを指定可能に構成されている。
<出力処理領域1343>
出力処理領域1343は、ユーザによる操作に応じて、出力処理指定領域1342にて指定された処理を実行するか否かを決定可能なUIである。生成部233は、ユーザによる出力処理領域1343の操作に応じて、出力処理の実行結果を表示可能な画面を生成して、当該画面を表示部34に表示させてもよい。
<第3の内部コネクタIC3>
第3の内部コネクタIC3は、結果内部領域1340の間を接続する。第3の内部コネクタIC3は、結果内部領域1340同士の関係性に基づいて、結果内部領域1340の間を接続する。例えば、第3の内部コネクタIC3は、結果内部領域1340のそれぞれの入力データDに対する操作の前後関係に応じて、結果内部領域1340の間を接続する。本実施形態では、第3の内部コネクタIC3は、出力表示領域1341と出力処理指定領域1342との間を接続する。これにより、出力y1と出力y1に対する処理との関連性が、第3の内部コネクタIC3による接続関係から把握しやすくなる。なお、他の結果内部領域1340に対応する操作と独立している操作を示す結果内部領域1340は、第3の内部コネクタIC3を介して他の結果内部領域1340と接続されていなくてもよい。本実施形態では、出力処理領域1343は、他の結果内部領域1340と接続されていない。第3の内部コネクタIC3は、設けられていなくてもよい。
<第3の指数表示領域N3>
第3の指数表示領域N3には、予め結果領域134に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第3の指数表示領域N3は、設けられていなくてもよい。
<外部コネクタEC1、EC2>
第1の外部コネクタEC1は、入力領域132と学習領域133とを対応付ける。詳細には、第1の外部コネクタEC1は、入力領域132と学習領域133とを接続する。これにより、ユーザが、入力領域132での操作の後に学習領域133の操作を行うべきことを視覚的に把握しやすくなる。本実施形態では、第1の外部コネクタEC1の入力領域132への接続態様は、第1の外部コネクタEC1の学習領域133への接続態様と異なる。例えば、第1の外部コネクタEC1は、入力領域132の第1の指数表示領域N1と、学習領域133の縁とを接続する。これにより、第1の外部コネクタEC1の始点と終点の態様が異なるため、ユーザによる学習画面13の操作手順の把握がより容易となる。
第2の外部コネクタEC2は、学習領域133と結果領域134とを対応付ける。第2の外部コネクタEC2は、学習領域133と結果領域134とを接続する。これにより、ユーザが、学習領域133での操作の後に学習領域133の操作を行うべきことを視覚的に把握しやすくなる。特に、第1の外部コネクタEC1と第2の外部コネクタEC2との両方が設けられることで、ユーザが学習画面13での一連の操作の流れの全体像を把握することが容易となる。本実施形態では、第2の外部コネクタEC2の学習領域133への接続態様は、第2の外部コネクタEC2の結果領域134への接続態様と異なる。例えば、第2の外部コネクタEC2は、学習領域133の第2の指数表示領域N2と、結果領域134の縁とを接続する。これにより、第2の外部コネクタEC2の始点と終点の態様が異なるため、ユーザによる学習画面13の操作手順の把握がより容易となる。
[アクティビティA006]
図5に示すように、アクティビティA005にて上記学習画面13が生成された後、処理がアクティビティA006に進み、受付部231は、入力領域132に対する操作を受け付ける。受付部231に対する操作が完了した場合、第1の外部コネクタEC1の表示態様が変更される。表示態様の変更方法は、第1の外部コネクタEC1の形状、模様、色彩の変更など、ユーザが変化を視認可能であれば任意である。これにより、ユーザが現在するべき操作を視覚的に把握しやすくなる。
[アクティビティA007]
受付部231に対する操作が完了した後、処理がアクティビティA007に進み、受付部231は、学習領域133に対する操作を受け付ける。このとき、学習領域133にて第1の切替領域1334に対する第1の切替操作Op1が行われずに学習領域133に対する操作が完了した場合、処理がアクティビティA008に進む。この場合、第2の外部コネクタEC2の表示態様が、第1の外部コネクタEC1の表示態様と同様に変更される。
[アクティビティA008]
アクティビティA008にて、受付部231は、結果領域134に対する操作を受け付ける。
[アクティビティA009]
次に、処理がアクティビティA009に進み、制御部23は、学習画面13にて指定された第1の入力データD1や学習条件等に基づき、学習モデルM1の再学習を実行する。
[アクティビティA010]
次に、処理がアクティビティA010に進み、制御部23は、再学習された学習モデルM1のモデル情報IF1を取得する。制御部23は、再学習された学習モデルM1から出力される出力y1から結果情報IF3を取得してもよい。制御部23は、取得したこれらの情報を、表示部34に表示させてもよい。これらの情報は、学習画面13と異なる画面を用いて表示されても、学習画面13の更新によって表示されてもよい。取得された学習モデルM1が複数存在する場合、制御部23は、第1の入力データD1に基づき、モデル情報IF1を、学習モデルごとに比較可能な態様で表示部34に表示させてもよい。例えば、制御部23は、特定された学習器MLのうち、選択により選択された学習器MLを用いて生成されるモデル情報IF1を表示部34に表示させる。ユーザは、入力領域132に対する操作、学習領域133に対する操作、及び結果領域134に対する操作を順次受け付けることを、外部コネクタEC1,EC2のそれぞれの接続態様から視覚的に把握できる。
[アクティビティA101]
一方、アクティビティA007にて学習領域133にて第1の切替領域1334に対する第1の切替操作Op1が行われた場合、処理がアクティビティA101に進む。アクティビティA101にて、制御部23は、学習モデルM1から運用学習モデルM2を生成する。運用学習モデルM2は、学習モデルM1をデプロイ用に変換したものである。詳細には、運用学習モデルM2は、学習領域133に表示された学習モデルM1をデプロイ用に変換したものである。運用学習モデルM2の形式は、学習モデルM1の形式に比べて大容量の入力データDの処理に適している。以下、説明の便宜上、運用学習モデルM2に入力される入力データDを、運用データD3という。運用データD3は、学習モデルM1の生成に用いられた第1の入力データD1の少なくとも一部を含んでも、当該第1の入力データD1を含まなくてもよい。
[アクティビティA102]
次に処理がアクティビティA102に進み、生成部233は、第1の切替領域1334に対するユーザの第1の切替操作Op1に応じて運用画面14を生成する。生成された運用画面14は、表示部34に表示される。本実施形態では、運用画面14は、学習画面13に代えて表示される。なお、運用画面14は、学習画面13とともに表示可能に構成されてもよい。
<運用画面14>
図7は、表示部34に表示される運用画面14の一例を示す図である。運用画面14には、少なくとも1つのパイプラインPLが表示される。本実施形態では、1つのパイプラインPLが運用画面14に表示されている。
<パイプラインPL>
パイプラインPLは、運用学習モデルM2のデータフローを示す。データフローは、受付部231による第1の入力データD1の受付から、を用いて結果情報IF3が得られるまでの処理の流れに対応する。パイプラインPLは、複数のジョブ領域140と、複数のフローコネクタF1と、第2の切替領域147と、を含む。なお、ジョブ領域140の数、及びフローコネクタF1の数は、それぞれ複数に限られず1つでもよい。
<ジョブ領域140>
ジョブ領域140は、運用学習モデルM2のパイプラインPLでの処理のまとまりを示す。処理のまとまりとは、例えば、変換処理が行われる対象を取得する処理、変換処理、変換処理の結果を取得する処理、運用学習モデルM2による処理、結果情報IF3、特に精度情報を導出する処理などである。言い換えれば、処理のまとまりとは、ジョブである。本実施形態のパイプラインPLは、ジョブ領域140として、第1のジョブ領域141と、第2のジョブ領域142と、第3のジョブ領域143と、第4のジョブ領域144と、第5のジョブ領域145と、第6のジョブ領域146と、を含む。なお、ジョブ領域140のそれぞれは、レポジトリ表示領域RP1を含みうる。レポジトリ表示領域RP1は、ジョブ領域140のバージョン、更新日時等の情報を表示可能に構成される。これにより、ジョブ領域140のバージョンの一元管理が容易となる。
<第1のジョブ領域141>
第1のジョブ領域141は、制御部23に入力される入力データDを受け付ける処理に対応する。当該入力データDは、ユーザが保有する運用データD3に限られず、外部データD0を含みうる。
<第2のジョブ領域142>
第2のジョブ領域142は、変換処理に対応する。特に、第2のジョブ領域142は、変換処理指定領域1322にて指定された変換処理に対応する。第2のジョブ領域142は、変換処理に含まれる複数の処理ごとに細分化されたジョブを含んでもよい。
<第3のジョブ領域143>
第3のジョブ領域143は、運用学習モデルM2で実行される処理に対応する。第3のジョブ領域143には、運用学習モデルM2にて処理される変数の受け渡しをデータフローが表示されてもよい。
<第4のジョブ領域144>
第4のジョブ領域144は、運用学習モデルM2から出力された結果を取得する処理に対応する。例えば、第4のジョブ領域144は、運用学習モデルM2から出力される出力y1と、当該出力y1に対応する説明変数x1を取得する処理に対応する。複数の説明変数x1が取得される場合、第4のジョブ領域144は、説明変数x1のそれぞれを取得する処理に対応する領域を含んでもよい。複数の出力y1が取得される場合も、第4のジョブ領域144は、出力y1のそれぞれを取得する処理に対応する領域を含んでもよい。
<第5のジョブ領域145>
第5のジョブ領域145は、第4のジョブ領域144にて取得された情報に基づき、学習モデルM1による予測結果を導出する処理に対応する。例えば、第5のジョブ領域145は、結果情報IF3を導出する処理に対応する。第5のジョブ領域145には、導出された結果情報IF3の少なくとも一部が表示されてもよい。
<第6のジョブ領域146>
第6のジョブ領域146は、第4のジョブ領域144にて取得された情報に基づき、モデル情報IF1を導出する処理に対応する。第6のジョブ領域146には、導出されたモデル情報IF1の少なくとも一部が表示されてもよい。導出されたモデル情報IF1は、第3のジョブ領域143に対応する処理、例えば、運用学習モデルM2の再学習に用いられる。
<フローコネクタF1>
フローコネクタF1は、ジョブ領域140間の情報の流れに対応する。情報の流れは、パラメータの送受信や処理の呼び出し等を含む。本実施形態では、フローコネクタF1が、第1のジョブ領域141と第2のジョブ領域142との間、第2のジョブ領域142と第3のジョブ領域143との間、第4のジョブ領域144と第5のジョブ領域145との間、第4のジョブ領域144と第6のジョブ領域146との間、第6のジョブ領域146と第3のジョブ領域143との間に、それぞれ配置されている。なお、ジョブ領域140間には、複数のフローコネクタF1が配置されていてもよい。例えば、第1のジョブ領域141と第2のジョブ領域142との間、及び第3のジョブ領域143と第4のジョブ領域144との間、及び第4のジョブ領域144と第5のジョブ領域145との間には、それぞれ2つのフローコネクタF1が配置されている。
<第2の切替領域147>
第2の切替領域147は、ユーザが第2の切替操作Op2を行うためのUIである。
[アクティビティA103]
図5に戻り、アクティビティA102にて運用画面14が生成された後、処理がアクティビティA103に進み、受付部231は、ユーザからの運用画面14に対する操作を受け付ける。生成部233は、ユーザからの操作に応じた応答を生成する。例えば、受付部231がユーザからのジョブ領域140に対する操作を受け付けた場合、生成部233は、当該ジョブ領域140に対応する処理の内容を表示する。処理の内容は、例えば、所定のプログラミングコードによって表示される。当該操作に応じて、生成部233は、当該ジョブ領域140の入出力の時間変化に関する情報を表示してもよい。
受付部231が第2の切替操作Op2を受け付けていない場合、受付部231は、アクティビティA103にて運用画面14に対する操作の受付を継続する。
一方、受付部231が第2の切替操作Op2を受け付けた場合、処理がアクティビティA007に戻り、学習領域133に対する操作を受け付ける。この場合、学習画面13は、生成部233によって新たに生成されたものでも、前回生成されたものであってもよい。このようにして、学習画面13と運用画面14とがユーザの操作によって切替可能に構成されている。画面上に表示された視覚情報の操作によって学習画面13と運用画面14とが切替可能に構成されているため、ユーザは、学習画面13の再学習の結果をシームレスにデプロイ用の運用学習モデルM2に反映させることができる。
4.運用画面14の変形例
次に、運用画面14の変形例について説明する。図8は、運用画面14の変形例を示す図である。本実施形態の運用画面14は、複数のパイプラインPLを含む。生成部233は、異なる複数の入力データD、すなわち運用データD3を用いて学習モデルM1の再学習が行われる場合、当該運用データD3ごとに生成される学習モデルM1ごとにパイプラインPLを生成する。言い換えれば、異なる複数の入力データDを用いて学習モデルM1の再学習が行われる場合、パイプラインPLは、当該運用データD3ごとに生成される学習モデルM1ごとに表示部34に表示される。異なる複数の入力データDを用いて運用学習モデルM2の再学習が行われる場合、再学習された運用学習モデルM2は、運用データD3ごとに異なる特性を有する可能性がある。そのため、パイプラインPLが異なる複数の入力データDごとに生成される学習モデルM1ごとに表示部34に表示されることで、複数の運用学習モデルM2の保守管理の負担が軽減される。複数のパイプラインPLのそれぞれは、例えば、学習モデルM1の特徴量に応じてクラスタリングされる学習モデルM1ごとに表示されてもよい。本実施形態では、当該入力データDは運用データD3を含む。また、当該入力データDは、外部データD0を含んでもよい。当該学習モデルM1は、運用学習モデルM2ともいえる。本実施形態の運用画面14は、3つのパイプラインPLと、パイプライン指定領域151と、をさらに含む。なお、パイプラインPLの数はあくまで例示に過ぎず、例えば、10,20,30,40,50,60,70,80,90,100,200,300,400,500,600,700,800,900,1000,2000,3000,4000,5000,6000,7000,8000,9000,10000であっても、これらの数の間に含まれる任意の数であってもよい。無論、パイプラインPLの数は、ここに例示した数字より小さくても、大きくてもよい。
パイプライン指定領域151は、ユーザが複数のパイプラインPLのうちの少なくとも1つを指定可能に構成されていてもよい。パイプライン指定領域151にて指定したパイプラインPLは、運用画面14内にて他のパイプラインPLよりも優先的に表示される。これにより、ユーザが所望のパイプラインPLの内容を確認しやすくなる。
運用画面14には、複数のパイプラインPLの少なくとも一部が、それぞれ一覧可能に表示されている。上記パイプライン指定領域151でのパイプラインPLの指定は、運用画面14にて表示されているパイプラインPLに対する操作によって行われてもよい。これにより、ユーザは、パイプラインPLの指定を直感的に行うことができる。複数のパイプラインPLは、運用画面14にて一覧可能に表示されてもよい。これにより、ユーザは、複数のパイプラインPLの内容を比較しやすくなる。また、複数のパイプラインPLは、互いに独立して表示されていても、互いに関連性をもって表示されてもよい。当該関連性は、例えば、フローコネクタF1の接続関係によって示される。複数のパイプラインPLのそれぞれのジョブ領域140は、その内容ごとに整列していてもよい。これにより、複数のパイプラインPLの比較がさらに容易となる。
5.その他
前述の実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
運用画面14にて表示されるパイプラインPLは、運用学習モデルM2のデータフローを示すものに限られず、学習モデルM1のデータフローを示すものでもよい。
第1の入力データD1及び第2の入力データD2は、それぞれ外部データD0としてデータベースDB1に記憶されてもよい。これらの外部データD0は、所定の条件のもと、他のユーザに提供可能であってもよい。
制御部23は、表示部34に、第1の入力データD1に対して行われた変換処理の履歴、いわゆる変換処理のバージョン、を表示させてもよい。これにより、変換処理と精度情報との関係性の類推が容易となる。また、制御部23は、変換処理のバージョンの管理を行ってもよい。
次に記載の各態様で提供されてもよい。
(2)前記情報処理システムにおいて、前記入力領域は、複数の入力内部領域と、前記入力内部領域の間を接続する第1の内部コネクタと、を含み、前記入力内部領域のそれぞれは、前記入力データに対する操作の単位を示す、もの。
このような構成によれば、ユーザは、第1の内部コネクタによる接続関係から、入力データの入力の操作の関連性を把握することができる。したがって、入力データの操作の際にユーザに求められるデータサイエンスに関する知見の水準を、従来技術に比して下げることができる。
(3)前記情報処理システムにおいて、前記入力内部領域の1つは、少なくともユーザからの前記入力データの入力を受付可能な受付領域を含む、もの。
このような構成によれば、ユーザが入力した入力データDに対する操作及び学習条件の設定の手順が、第1の内部コネクタの接続関係及び第1の外部コネクタの接続関係に従って案内される。したがって、ユーザにとっての利便性が向上する。
(4)前記情報処理システムにおいて、前記学習領域は、複数の学習内部領域と、前記学習内部領域の間を接続する第2の内部コネクタと、を含み、前記学習内部領域のそれぞれは、前記学習条件の設定の単位を示す、もの。
このような構成によれば、煩雑な学習条件の設定の手順が、第2の内部コネクタによって表現される。したがって、学習条件の設定の際にユーザに求められるデータサイエンスに関する知見の水準を、さらに下げることができる。
(5)前記情報処理システムにおいて、前記学習内部領域の1つは、少なくとも前記学習モデルへの前記入力データの入力態様を指定可能な指定領域を含む、もの。
このような構成によれば、学習モデルの特性に応じてユーザは入力データの入力態様を指定することができるため、さらなる利便性の向上を図ることができる。
(6)前記情報処理システムにおいて、前記学習画面は、前記入力データを用いた前記学習モデルの出力に関する結果情報を表す結果領域と、前記学習領域と前記結果領域とを対応付ける第2の外部コネクタと、を含む、もの。
このような構成によれば、入力領域、学習領域、及び結果領域の関係性が、第1の外部コネクタと第2の外部コネクタとによって表現される。したがって、ユーザは、入力データと、入力データを用いた学習モデルの学習条件と、学習条件に基づく学習モデルの出力結果との間の一連の関連性を、これらの外部コネクタから把握しやすくなる。
(7)前記情報処理システムにおいて、さらに、第2の生成ステップでは、切替領域に対するユーザの切替操作に応じて運用画面を生成し、ここで、前記運用画面には、前記学習モデルのデータフローを示すパイプラインが表示される、もの。
このような構成によれば、ユーザが切替操作を行うだけで、学習モデルのデータフローを確認することができる。したがって、学習モデルのブラックボックス化が抑制される。
(8)前記情報処理システムにおいて、異なる複数の前記入力データを用いて前記学習モデルの再学習が行われる場合、前記パイプラインは、当該入力データごとに生成される前記学習モデルごとに表示される、もの。
このような構成によれば、異なる複数の入力データを用いて学習モデルの再学習が行われる場合において、再学習された学習モデルが、入力データごとに異なる特性を有するとしても、パイプラインが異なる複数の入力データごとに生成される学習モデルごとに表示部に表示される。そのため、複数の学習モデルの保守管理の負担が軽減される。
(9)前記情報処理システムにおいて、前記パイプラインは、前記学習モデルの特徴量に応じてクラスタリングされる前記学習モデルごとに表示される、もの。
このような構成によれば、類似する特性をもつ学習モデルのパイプラインがまとめて表示されるため、学習モデルの数が増えた際の学習モデルの保守管理の負担が軽減される。
(10)情報処理方法であって、前記情報処理システムの各ステップを含む、方法。
(11)情報処理プログラムであって、コンピュータに、前記情報処理システムの各ステップを実行させる、もの。
もちろん、この限りではない。
さらに、以下のような観点にも留意されたい。
深層学習(Deep Learning、DL)をはじめとする機械学習(Machine Learning、ML)の技術を様々な局面で利用しようとする動きが加速し、一種のブームとも言える状況が生まれている。しかしこのような盛り上がりに反し、ML導入のプロジェクトの85%が失敗し、MLやAI(Artificial Intelligence、人工知能)技術を活用できている企業は10%、情報系企業ですら17%にとどまると言われる。
これには様々な原因がある。第1にMLやAIがいかなる問題に対して有効かの理解が簡単ではないこと、第2にMLを使うためにはどういうデータを用意すればよいのか、どのようにデータの加工と前処理をすればよいのかが経験と勘に依存すること、第3にデータを大量に準備することが容易ではないこと、第4にMLやAIのモデルをどう構築したらよいのかの理解が簡単ではなく、しかも経験と勘に依存すること、第5にMLの一手法であるDLからなぜ欲する出力を得られるのかの理解が困難なこと、第6に以上のように理解が進まない結果として満足できる性能を得ることができないことなどが挙げられる。
上述のとおり、MLを成功裏に活用するためには様々な障害が存在する反面、インターネット上には多くのMLサービスやAIサービスが存在し、どれを使えばよいのか分からないというカオス的状況にもある。
その上、上記のMLサービス、AIサービスを使いこなすためにはたくさんのパラメータを入力しなければならず、パラメータの意味の理解も難しく、MLやAIの専門家でなければ使いこなせないという現実も存在する。いわば、MLサービスやAIサービスは専門家以外にも使える民主化されたサービスとはなっていなかった。
前述の状況を鑑み、専門的な知識を有していなくても使いこなすことができ、入力データを準備さえすれば3ステップでMLサービスを使うことができ、得られた結果に対する解析を提供し、さらには予測も行うことのできる技術を提供することにより、誰でもMLサービスを利用できる環境を創出することが本発明の目的である。これによりMLサービスが民主化される。
上記課題を解決するための技術的思想は、インターネット上に存在する多くのML(以下AutoMLと呼ぶ)サービスへ接続するためのラッピング・インターフェースシステムを提供することである。これにより、データの収集、前処理、アップロードなどのデータ準備(ステップ1)、モデル構築と複数のMLの並行的実行(ステップ2)、各MLの性能比較と実業務への導入(ステップ3)の3ステップでMLの導入が可能となる。
そのためにまずアカウント設定やパラメータ入力手順等を一元化し、次に各AutoMLへとフォーマット変換を施す。これにより10~15ステップが必要であったアカウント作成を3ステップで行うことが可能となる。
次に、社内外のデータを収集する。このために必要な社内外データへのアクセスポイントに対して自動的に、あるいはユーザーの介入と補助を得ながら接続が行なわれ、データが収集される。
続いて、入力データの加工を行う。以下に限られないが、これにはデータのクレンジングとして日付データなどの形式の一元的形式への変換、欠損の多いデータ項目の処理などを行い、原データから統計的処理を含む前処理を適用して目的に適したデータに変換すること、クエリを使用してデータ抽出やデータ結合などを行うことなどが含まれる。
このとき、必要に応じて加工後のデータを表示して確認と修正を行ってもよい。
次に、MLモデルの準備を行う。インターネット上に存在する各種MLサービスの利用に限られず、GUI(Graphical User Interface)ベースによってプログラミングを行わずに独自モデルを構築する方法、インターネット上に存在する各種MLサービスの修正を行って独自モデルを構築する方法、及び既に構築されているがインターネット上には公開されていないMLモデルを本発明システムへインポートを行う方法等によって行われる。
さらには、プログラミングすることなく、MLや統計分析を可能にする機能も提供される。加えて、どのようなテンプレートでモデル構築を行えば精度の高いモデルが構築できるかについて、入力データからリコメンドする機能も提供される。
MLに入力されるデータを学習データと予測データに分割し、学習データによって学習したMLに予測データを入力してもよい。予測データはML性能比較等のためにこれ以降使われる。
入力データとMLモデルの準備が終了したら、学習データを用いて学習が開始される。
このとき複数のMLを並行的に実行させてもよい。
学習が終わったら、予測データが自動的あるいはユーザーの指示によって各MLサービスに投入され、結果を得る。このとき複数のAutoMLが並行的に実行されていれば、即座に性能比較ができる。
各AutoMLサービスの結果を表示する。これにはグラフィカルな可視化を含み、各MLサービスの予測精度レベル(決定係数)、項目の寄与度の比較などが表示される。
上記のデータ収集~結果の表示と比較までを繰り返し、実業務に投入が可能だとユーザーによって判断されたら、運用が開始される。
運用において、用意されたAPI(Application Program Interface)によってアプリケーションプログラムから本システムへ問い合わせを行うことによって結果がアプリケーションプログラムによって活用すること、あるいは本システムから直接結果を表示することも本発明の範囲である。
運用の自動化のためにKubeflowを含むMLプラットフォームを利用しても良い。
上記一連の操作をパイプライン化し、操作の単純化を図っても良い。パイプライン化することにより自由度は下がるが全体の見通しが良くなり、専門家でなくても扱うことが可能となる。もし自由度を上げる必要があるときには、詳細画面を開く等によって専門的な項目設定を行っても良い。
さらにはパイプラインの流れに沿って各種変更や操作履歴の記録と閲覧が可能となり、MLサービスやモデル選択の根拠を示すことが可能となる。
採用すべきMLモデルとそれに必要なデータ前処理方法が決定された後に、実業務に導入される。例えば、MLの出力として売上予測が欲しい場合、直接本発明システムによって表示される画面を見ても良いし、必要に応じて本発明システムが提供するAPIを介してアプリケーションプログラムから情報提供のリクエストが出され、それによってアプリケーションプログラムの画面に表示されても良い。
そこで、上記課題を解決するために、第1の態様に係る情報処理方法は、アカウント設定、パラメータ入力手順設定のうち少なくともいずれかを含む初期設定作業を一元化する第1のステップと、インターネット上に存在し得る自動機械学習サービスへ接続するためのフォーマット変換を施す第2のステップと、社内外のデータが収集される第3のステップと、前記収集されたデータを加工する第4のステップと、使用されるべき自動機械学習サービスの準備を行う第5のステップと、前記第4のステップにおいて加工されたデータを学習データと予測データとに分割し、前記学習データを前記第5のステップにおいて準備が行われた自動機械学習サービスによって学習させる第6のステップとを具備することを特徴とする。
また、上記課題を解決するために、第2の態様に係る情報処理装置は、アカウント設定、パラメータ入力手順設定のうち少なくともいずれかを含む初期設定作業を一元化することのできる一元化部と、インターネット上に存在し得る自動機械学習サービスへ接続するためのフォーマット変換を施すフォーマット変換部と、社内外のデータが収集されるデータ収集部と、前記収集されたデータを加工するデータ加工部と、使用されるべき自動機械学習サービスの準備を行う準備部と、前記データ加工部によって加工されたデータを学習データと予測データとに分割し、前記学習データを前記準備部によって準備が行われた自動機械学習サービスによって学習させる学習部とを具備することを特徴とする。
上記2つの態様によれば、深層学習をはじめとする機械学習技術の専門家でなくても、学習データを準備さえすれば学習モデルの選択及び/又は構築ができ、複数の学習モデルの結果から性能の比較ができ、複数の学習モデルから最適なものを選択でき、それを実業務に投入し、投入後の運用をサポートすることができることとなる。
第3の態様として、第2の態様において、前記収集され準備された入力データをインターネット上に存在する多くの自動機械学習サービスに応じた変換を行うようにしてもよい。この態様によれば、機械学習サービス毎に異なる入力データを準備するプロセスを省くことが可能となる。なお、この第3の態様は第1の態様に対して重畳的に用いることもできる。
第4の態様として、第2の態様において、入力データの単純な形式変換、欠損データもしくは重複・不要データの処理を含むデータクレンジング、原データからの特徴量の抽出、統計的処理を含む前処理を適用して目的に適したデータへの変換、クエリを使用したデータ抽出もしくはデータ結合を含むデータ変換、のうちの少なくともいずれかを実行するようにしてもよい。この態様によれば、入力データの単純な形式変換、欠損データもしくは重複・不要データの処理を含むデータクレンジング、原データからの特徴量の抽出、統計的処理を含む前処理を適用して目的に適したデータへの変換、クエリを使用したデータ抽出もしくはデータ結合を含むデータ変換、を簡単な指示を与えることにより実行することが可能となる。なお、この第4の態様は第1の態様に対して重畳的に用いることもできる。
第5の態様として、第2の態様において、インターネット上に存在する複数の機械学習サービスあるいは機械学習モデルを一覧できる一覧部と、前記一覧部にて一覧される複数の機械学習サービスあるいは機械学習モデルのうちのいずれかへの接続が選択される選択部と、前記選択部によって選択されたことにより一括して複数の機械学習サービスあるいは機械学習モデルへのデータ投入、平行的実行、結果の取得及び比較、のうちの少なくともいずれかを実行する実行部とをさらに備えるようにしてもよい。なお、この第5の態様は第1の態様に対して重畳的に用いることもできる。
第6の態様として、第2の態様において、前記学習部及び/もしくは前記準備部は、グラフィカル・ユーザー・インターフェース手段によって行われるようにしてもよい。この態様によれば、上記の機械学習サービスを選択することに加え、グラフィカル・ユーザー・インターフェースをベースにした手法でユーザー独自の機械学習モデルを構築することができ、及び/又は、公開情報として存在する機械学習モデルをインポートすることができる。なお、この第6の態様は第1の態様に対して重畳的に用いることもできる。
第7の態様として、第2の態様において、前記学習部において前記加工されたデータが前記学習データと前記予測データとに分割されるにおいては、機械学習への入力データを学習用データと性能比較及び/又は予測データに分割されるようにしてもよい。この態様によれば、前記機械学習への入力データを学習用データと性能比較及び/又は予測データに分割して利用することができる。なお、この第7の態様は第1の態様に対して重畳的に用いることもできる。
第8の態様として、第2の態様において、同一入力データによって実行した複数の機械学習サービスあるいは機械学習モデルの性能を比較するための指標を提供する指標提供部をさらに備えるようにしてもよい。なお、この第8の態様は第1の態様に対して重畳的に用いることもできる。
第9の態様として、第8の態様において、前記指標として、決定係数、平均絶対誤差、平均二乗偏差、項目寄与度、モデルの予測と実際の比較、残差ヒストグラム、のうちの少なくともいずれかを含む機械学習サービスと機械学習モデルの性能の比較を行うための指標が提示されるようにしてもよい。なお、この第9の態様は第1の態様に対して第8の態様が重畳された態様に対して重畳的に用いることもできる。
第10の態様として、第2の態様において、複数の機械学習サービスと前記複数のうちのそれぞれの機械学習モデルの結果とから選択する選択部をさらに備えるようにしてもよい。この態様によれば、複数の機械学習サービスと前記複数のうちのそれぞれの機械学習モデルの結果とから最適なものが選択されて実業務への投入を行うことができる。なお、この第10の態様は第1の態様に対して重畳的に用いることもできる。
第11の態様として、第2の態様において、前記機械学習サービスと前記機械学習モデルの精度の維持及び/もしくは管理とを行うことのできる維持管理部をさらに備えるようにしてもよい。この態様によれば、実投入後に前記機械学習サービスと前記機械学習モデルの精度の維持及び/もしくは管理とを行うことのできる機能が提供される。
なお、この第11の態様は第1の態様に対して重畳的に用いることもできる。
第12の態様として、第2の態様において、前記データの収集・準備、複数の機械学習サービスと機械学習モデルの平行的実行、機械学習サービスと機械学習モデルの性能比較、実業務への投入の操作をパイプライン化するパイプライン部をさらに備えるようにしてもよい。この態様によれば、上記データの収集・準備、複数の機械学習サービスと機械学習モデルの平行的実行、機械学習サービスと機械学習モデルの性能比較、実業務への投入の操作がパイプライン化され、全体の見通しをよくすることができる。なお、この第12の態様は第1の態様に対して重畳的に用いることもできる。
第13の態様として、第12の態様において、前記パイプライン化された処理の様々な中間段階で、必要に応じてユーザーが介入することを許容するユーザー介入部をさらに具備するようにしてもよい。この態様によれば、パイプライン化された処理の様々な中間段階で、必要に応じてユーザーが介入して詳細な設定や操作が行われてもよいこととなる。なお、この第13の態様は第1の態様に対して第12の態様が重畳された態様に対して重畳的に用いることもできる。
第14の態様として、第2の態様において、前記機械学習サービスあるいは前記機械学習モデルの処理結果を得るために、アプリケーションプログラムからアプリケーションプログラムインターフェースを介して前記データの要求が行われるデータ要求部をさらに具備するようにしてもよい。この態様によれば、実業務へ投入された機械学習サービスあるいは機械学習モデルの処理結果を得るために、アプリケーションプログラムからアプリケーションプログラムインターフェースを介して本発明システムに対してデータの要求が行われ、それぞれのアプリケーションプログラムで表示を含む処理がされてもよいこととなる。なお、この第14の態様は第1の態様に対して重畳的に用いることもできる。
第15の態様として、第2の態様において、前記一元化部、前記フォーマット変換部、前記データ収集部、前記データ加工部、前記準備部、前記学習部、のうちの少なくともいずれかにおける画面がデータの収集と準備に係る画面、機械学習モデルの選択・構築・実行に係る画面、各学習モデルの性能比較に係る画面、機械学習モデルの選択を決定して実業務への導入する画面、の少なくともいずれかを含む画面遷移を有するようにしてもよい。この態様によれば、データの準備とアップロードから複数のML間の性能の比較と実業務への導入までの各ステップにおいて、複数の画面を用いてユーザーと情報がやり取りされるが、これらの画面がデータの収集と準備(前処理、アップロード等)に関わる画面、機械学習モデルの選択・構築・実行に関わる画面、(モデル構築、MLの実行)、各学習モデルの性能比較に関する画面、そして機械学習モデルの選択を決定して実業務への導入する画面を含む画面遷移を有するから、画面遷移定義において学習プロセスが設計できることとなる。なお、この第15の態様は第1の態様に対して重畳的に用いることもできる。
また、上記課題を解決するために、第16の態様に係るプログラムは、コンピュータを、専門家の介在無しに、収集された学習データをそれぞれの機械学習サービスや機械学習モデルに合致するように変換するデータ加工・変換部と、欠損データや重複・不要データの処理を含むデータクレンジング部と、原データからの特徴量の抽出を行う特徴量抽出部と、統計的処理を含む前処理を適用して目的に適したデータへの変換やクエリを使用したデータ抽出やデータ結合を含むデータ変換を行うデータ結合・分割部と、データの正規化・標準化を行う正規化・標準化部と、複数の機械学習サービスや機械学習モデルを選択するサービス・モデル選択部と、機械学習モデルを構築するためのノーコード開発部と、平行的に複数の機械学習サービスや機械学習モデルを実行するシミュレーション部と、結果を表示し比較するモデル評価部と、最適な機械学習サービスあるいは機械学習モデルを選択するモデル選択部と、選択モデルを実業務へ投入し運用する投入・運用部と、上記一連の各部の機能をサポートするサポート部と、として機能させることを特徴とする。
上記態様によれば、専門家の介在無しに、収集された学習データをそれぞれの機械学習サービスや機械学習モデルに合致するように変換するデータ加工・変換部、欠損データや重複・不要データの処理を含むデータクレンジング部、原データからの特徴量の抽出を行う特徴量抽出部、統計的処理を含む前処理を適用して目的に適したデータへの変換やクエリを使用したデータ抽出やデータ結合を含むデータ変換を行うデータ結合・分割部、データの正規化・標準化を行う正規化・標準化部、複数の機械学習サービスや機械学習モデルを選択するサービス・モデル選択部、プログラミングをすることなしに独自の機械学習モデルを構築するノーコード開発部、平行的に複数の機械学習サービスや機械学習モデルを実行するシミュレーション部、結果を表示し比較するモデル評価部、最適な機械学習サービスあるいは機械学習モデルを選択するモデル選択部、選択モデルを実業務へ投入し運用する投入・運用部、及びこれら一連をサポートするサポート部、として機能することが可能となる。
第17の態様として、第16の態様に係るプログラムが記憶された記録媒体として実現することもできる。
最後に、本開示に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 :情報処理システム
2 :情報処理装置
3 :ユーザ端末
13 :学習画面
14 :運用画面
20 :通信バス
21 :通信部
22 :記憶部
23 :制御部
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
34 :表示部
35 :入力部
132 :入力領域
133 :学習領域
134 :結果領域
140 :ジョブ領域
141 :第1のジョブ領域
142 :第2のジョブ領域
143 :第3のジョブ領域
144 :第4のジョブ領域
145 :第5のジョブ領域
146 :第6のジョブ領域
147 :第2の切替領域
151 :パイプライン指定領域
231 :受付部
232 :変換処理部
233 :生成部
1320 :入力内部領域
1321 :受付領域
1322 :変換処理指定領域
1323 :入力データ出力領域
1330 :学習内部領域
1331 :指定領域
1332 :予測設定領域
1333 :モデル情報表示領域
1334 :第1の切替領域
1340 :結果内部領域
1341 :出力表示領域
1342 :出力処理指定領域
1343 :出力処理領域
A001 :アクティビティ
A002 :アクティビティ
A003 :アクティビティ
A004 :アクティビティ
A005 :アクティビティ
A006 :アクティビティ
A007 :アクティビティ
A008 :アクティビティ
A009 :アクティビティ
A010 :アクティビティ
A101 :アクティビティ
A102 :アクティビティ
A103 :アクティビティ
DB1 :データベース
EC1 :第1の外部コネクタ
EC2 :第2の外部コネクタ
F1 :フローコネクタ
IC1 :第1の内部コネクタ
IC2 :第2の内部コネクタ
IC3 :第3の内部コネクタ
N1 :第1の指数表示領域
N2 :第2の指数表示領域
N3 :第3の指数表示領域
Op1 :第1の切替操作
Op2 :第2の切替操作
PL :パイプライン
RP1 :レポジトリ表示領域
W1 :設定実行ラベル

Claims (11)

  1. 情報処理システムであって、
    制御部を備え、
    前記制御部は、次の各ステップを実行するように構成され、
    第1の生成ステップでは、入力データに関するデータ情報を提示可能な入力領域と、前記入力データを用いた学習モデルの学習条件を設定可能な学習領域と、前記入力領域と前記学習領域とを対応付ける第1の外部コネクタと、を含む学習画面を生成する、もの。
  2. 請求項1に記載の情報処理システムにおいて、
    前記入力領域は、複数の入力内部領域と、前記入力内部領域の間を接続する第1の内部コネクタと、を含み、
    前記入力内部領域のそれぞれは、前記入力データに対する操作の単位を示す、もの。
  3. 請求項2に記載の情報処理システムにおいて、
    前記入力内部領域の1つは、少なくともユーザからの前記入力データの入力を受付可能な受付領域を含む、もの。
  4. 請求項1~請求項3の何れか1つに記載の情報処理システムにおいて、
    前記学習領域は、複数の学習内部領域と、前記学習内部領域の間を接続する第2の内部コネクタと、を含み、
    前記学習内部領域のそれぞれは、前記学習条件の設定の単位を示す、もの。
  5. 請求項4に記載の情報処理システムにおいて、
    前記学習内部領域の1つは、少なくとも前記学習モデルへの前記入力データの入力態様を指定可能な指定領域を含む、もの。
  6. 請求項1~請求項5の何れか1つに記載の情報処理システムにおいて、
    前記学習画面は、前記入力データを用いた前記学習モデルの出力に関する結果情報を表す結果領域と、前記学習領域と前記結果領域とを対応付ける第2の外部コネクタと、を含む、もの。
  7. 請求項1~請求項6の何れか1つに記載の情報処理システムにおいて、
    さらに、第2の生成ステップでは、切替領域に対するユーザの切替操作に応じて運用画面を生成し、ここで、前記運用画面には、前記学習モデルのデータフローを示すパイプラインが表示される、もの。
  8. 請求項7に記載の情報処理システムにおいて、
    異なる複数の前記入力データを用いて前記学習モデルの再学習が行われる場合、前記パイプラインは、当該入力データごとに生成される前記学習モデルごとに表示される、もの。
  9. 請求項7又は請求項8に記載の情報処理システムにおいて、
    前記パイプラインは、前記学習モデルの特徴量に応じてクラスタリングされる前記学習モデルごとに表示される、もの。
  10. 情報処理方法であって、
    請求項1~請求項9の何れか1つに記載の情報処理システムの各ステップを含む、方法。
  11. 情報処理プログラムであって、
    コンピュータに、請求項1~請求項9の何れか1つに記載の情報処理システムの各ステップを実行させる、もの。
JP2022047078A 2021-11-26 2022-03-23 情報処理システム、情報処理方法及び情報処理プログラム Pending JP2023079140A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021192392 2021-11-26
JP2021192392 2021-11-26

Publications (1)

Publication Number Publication Date
JP2023079140A true JP2023079140A (ja) 2023-06-07

Family

ID=84387512

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2022037738A Active JP7186411B1 (ja) 2021-11-26 2022-03-11 情報処理システム、情報処理方法及び情報処理プログラム
JP2022037737A Active JP7185888B1 (ja) 2021-11-26 2022-03-11 情報処理システム、情報処理方法及び情報処理プログラム
JP2022047078A Pending JP2023079140A (ja) 2021-11-26 2022-03-23 情報処理システム、情報処理方法及び情報処理プログラム
JP2022184028A Pending JP2023079181A (ja) 2021-11-26 2022-11-17 情報処理システム、情報処理方法及び情報処理プログラム
JP2022184750A Pending JP2023079183A (ja) 2021-11-26 2022-11-18 情報処理システム、情報処理方法及び情報処理プログラム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2022037738A Active JP7186411B1 (ja) 2021-11-26 2022-03-11 情報処理システム、情報処理方法及び情報処理プログラム
JP2022037737A Active JP7185888B1 (ja) 2021-11-26 2022-03-11 情報処理システム、情報処理方法及び情報処理プログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022184028A Pending JP2023079181A (ja) 2021-11-26 2022-11-17 情報処理システム、情報処理方法及び情報処理プログラム
JP2022184750A Pending JP2023079183A (ja) 2021-11-26 2022-11-18 情報処理システム、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (5) JP7186411B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170855A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 世界時計及び世界時計の時刻設定方法
JP6007430B2 (ja) * 2015-05-20 2016-10-12 大澤 昇平 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム
WO2020158217A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2020157799A1 (ja) * 2019-01-28 2020-08-06 三菱電機株式会社 開発支援装置、開発支援システム、及び、開発支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029198A (ja) * 1998-07-10 2000-01-28 D S Giken:Kk 検版装置、画像処理装置および記録媒体
JP2001100754A (ja) 1999-09-28 2001-04-13 Sharp Corp データ処理方法、データ処理装置およびデータ処理プログラムを格納したコンピュータ読み取り可能な記録媒体
JP2015219617A (ja) 2014-05-15 2015-12-07 日本光電工業株式会社 疾病分析装置、疾病分析方法、及びプログラム
JP2017058848A (ja) 2015-09-15 2017-03-23 日本電気株式会社 情報処理システム、情報処理方法、及び、プログラム
JP7028075B2 (ja) * 2018-06-12 2022-03-02 オムロン株式会社 画像処理装置、画像処理方法、画像センサ
JP7049210B2 (ja) * 2018-08-07 2022-04-06 株式会社キーエンス データ分析装置及びデータ分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170855A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 世界時計及び世界時計の時刻設定方法
JP6007430B2 (ja) * 2015-05-20 2016-10-12 大澤 昇平 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム
WO2020157799A1 (ja) * 2019-01-28 2020-08-06 三菱電機株式会社 開発支援装置、開発支援システム、及び、開発支援方法
WO2020158217A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川嶋 宏彰: "機械学習ことはじめ", シェルスクリプトマガジン 2021 JUNE, vol. 72, JPN6022048369, 25 May 2021 (2021-05-25), JP, pages 42 - 51, ISSN: 0005049712 *

Also Published As

Publication number Publication date
JP7186411B1 (ja) 2022-12-09
JP2023079138A (ja) 2023-06-07
JP2023079183A (ja) 2023-06-07
JP2023079137A (ja) 2023-06-07
JP2023079181A (ja) 2023-06-07
JP7185888B1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
US11544604B2 (en) Adaptive model insights visualization engine for complex machine learning models
US20170017903A1 (en) User Interface for a Unified Data Science Platform Including Management of Models, Experiments, Data Sets, Projects, Actions, Reports and Features
US20160232457A1 (en) User Interface for Unified Data Science Platform Including Management of Models, Experiments, Data Sets, Projects, Actions and Features
JP2020515963A (ja) 設計ツールからのデータおよびデジタルツイングラフからの知識を用いた自律生成設計合成システム
US8032232B2 (en) Natively retaining project documentation in a controller
US11861469B2 (en) Code generation for Auto-AI
CN115170048B (zh) 基于模型和规则的工作流实现方法、***和介质
CN117389541B (zh) 基于对话检索生成模板的配置***及设备
CN114365079A (zh) 作为***性能模拟的预处理的基于性能的***配置
CN114341795A (zh) 用于***设计的会话设计机器人
US20140310306A1 (en) System And Method For Pattern Recognition And User Interaction
US20240061653A1 (en) Collaborative industrial integrated development and execution environment
US20230244218A1 (en) Data Extraction in Industrial Automation Systems
JP2023079140A (ja) 情報処理システム、情報処理方法及び情報処理プログラム
CN114610648A (zh) 一种测试方法、装置及设备
JP6775740B1 (ja) 設計支援装置、設計支援方法及び設計支援プログラム
WO2021192152A1 (ja) プログラミング支援プログラム、プログラミング支援装置およびプログラミング支援方法
JP2023079180A (ja) 情報処理システム、情報処理方法及び情報処理プログラム
US20230409956A1 (en) Machine learning prediction of additional steps of a computerized workflow
US20230350647A1 (en) Programming Aiding Apparatus and Programming Aiding Method
US20230306349A1 (en) Benchmarking processes of an organization to standardized processes
Dion Designing an Interactive Interface for FACET: Personalized Explanations in XAI
JP2024016001A (ja) 製造製品を設計するための材料選択
CN112925771A (zh) 一种基于结构化对象的中心化服务开发方法及设备
JP2015045939A (ja) 非構造化データ処理システム、非構造化データ処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230502